docker工人:如何检索文件(由scrapy-splash创build)
docker工人使用scrapy-splash。 在Dockerfile中,我有这一行将结果导出到.jl
。
CMD ["scrapy", "crawl", "quotesjs", "-o", "quote.jl"]
当我运行docker-compose build
和docker-compose up
,日志告诉我:
scrapy1 | 2017-12-18 00:00:00 [scrapy.extensions.feedexport] INFO: Stored jl feed (10 items) in: quote.jl
我没有在我的本地文件夹(Dockerfile和scrapy项目所在的地方)中看到任何quote.jl
,所以我猜它应该在我的容器中。 我用这个命令来处理容器的内容,但没有成功。
docker cp containerID:. ./copy_of_container
我如何检索quote.jl
文件。
我在Windows10上,并使用Docker for Windows
我的dockerfile
FROM python:alpine RUN apk --update add libxml2-dev libxslt-dev libffi-dev gcc musl-dev libgcc openssl-dev curl bash RUN pip install scrapy scrapy-splash scrapy-fake-useragent ADD . /scraper WORKDIR /scraper CMD ["scrapy", "crawl", "apkmirror", "-o", "apkmirror.jl"]