docker工人:如何检索文件(由scrapy-splash创build)

docker工人使用scrapy-splash。 在Dockerfile中,我有这一行将结果导出到.jl

 CMD ["scrapy", "crawl", "quotesjs", "-o", "quote.jl"] 

当我运行docker-compose builddocker-compose up ,日志告诉我:

 scrapy1 | 2017-12-18 00:00:00 [scrapy.extensions.feedexport] INFO: Stored jl feed (10 items) in: quote.jl 

我没有在我的本地文件夹(Dockerfile和scrapy项目所在的地方)中看到任何quote.jl ,所以我猜它应该在我的容器中。 我用这个命令来处理容器的内容,但没有成功。

 docker cp containerID:. ./copy_of_container 

我如何检索quote.jl文件。

我在Windows10上,并使用Docker for Windows


我的dockerfile

 FROM python:alpine RUN apk --update add libxml2-dev libxslt-dev libffi-dev gcc musl-dev libgcc openssl-dev curl bash RUN pip install scrapy scrapy-splash scrapy-fake-useragent ADD . /scraper WORKDIR /scraper CMD ["scrapy", "crawl", "apkmirror", "-o", "apkmirror.jl"]