Tag: caching

JRebelcaching在Docker上

我已经使用Docker来部署使用JRebel的应用程序。 我的问题是:我可以在哪里find这个目录? /home/exion/.jrebel/cache

在Docker上运行的应用程序使用主机的页面caching。是否反模式?

如果是这样的话,那么在容器层面上就没有主机资源的隔离了吗?在Docker上运行的一个应用程序可能会过度使用页面caching并搞乱主机或其他容器。 有没有机会?

如何让Docker绕过Mac OS中的页面caching

我在Mac上运行Linux Docker容器。 当我在Linux中使用直接I / O时,I / O访问似乎被caching在Mac中,因为iostat没有显示太多的对磁盘的I / O访问。 我想知道是否有一种方法来迫使docker容器的I / O访问绕过Mac中的页面caching? 谢谢,达

我们如何避免Docker Container在主机系统上生成caching?

当我们在主机上运行docker容器时,会在主机上生成大量的内存caching,所以每次我们必须清除主机上的caching,否则容器会由于内存问题而崩溃。 所以,在这一点上,我们已经设置了Cron作业,每隔3小时清除一次主机上的caching。 现在,阙是这样的,是否有任何方法来避免docker容器在主机上生成caching? 如果有什么办法做到这一点,请给我们build议。 提前致谢..!!

如何在不同的容器间共享静态数据,或者我们可以在容器之间共享caching的数据?

我在学Docker。 我想到的问题是,如果可以共享caching的数据,例如不同容器之间的静态表数据? 会有什么性能影响?

docker运行很长时间使caching连接超时

我用docker-compose构build了我的应用程序,一个容器是数据库使用mariadb图像,一个运行Laravel的php(我为我的应用程序安装了php-memcached或php-redis扩展),一个构build在redis docker镜像上的caching容器。 一开始一切都很顺利,但是运行2或3天后,我得到了phpexception:连接超时[tcp:// redis:6379]; 我监视CPU和内存和networking使用zabbix自己安装在主机服务器,但我得到这些错误: 监视CPU 监视内存 我将caching容器更改为memcached,并且两三天内发生同样的事情,我发现解决此问题的唯一方法是重新启动系统,并且可以在得到相同错误之前再运行两三天。 你知道这是不可能重新启动系统的生产,所以任何人都可以build议我在哪里解决问题,而不是重新启动系统? 谢谢!

Nginx从nginx文件夹获取内容而不是从磁盘caching中获取内容

我有我的应用程序在docker集装箱和其他服务图像(image processing器)。 我得到的所有图像像这样: imageprocessor.iwsolutions.local/blob-storage/image.jpeg?size=small Nginx作为代理服务器和caching。 对于这个服务,我已经写了configuration脚本nginx与后备: worker_processes 4; events { worker_connections 1024; } http { sendfile on; tcp_nopush on; tcp_nodelay on; keepalive_timeout 65; fastcgi_read_timeout 300; types_hash_max_size 2048; server_names_hash_bucket_size 64; client_max_body_size 200M; include /etc/nginx/mime.types; default_type application/octet-stream; access_log /var/log/nginx/access.log; error_log /var/log/nginx/error.log; gzip on; gzip_disable "msie6"; map $sent_http_content_type $expires { default off; text/html epoch; text/css 30d; application/javascript 30d; […]

为Docker禁用caching撰写

我遇到了Dockerfile如下所示的情况: FROM image with fully-configured server (without application) COPY war created locally by IntelliJ inside server in Docker image 基本上每次我用这个Dockerfile启动容器时,Docker会创build一个新的镜像。 因为这个.war文件经常变化(这是在这里使用Docker的全部目的 – 为了在开发过程中容易地部署.war图像),我在这个应用程序的老版本中有很多未使用的图像。 这将导致磁盘空间问题,我不得不手动修剪所有不赞成使用的图像。 有什么办法可以禁用 Dockercaching吗? 我正在使用一组由docker-compose文件连接的服务器,所以也许它可以以某种方式pipe理这些图像,以便在不再需要时自动删除它们。 docker build有–no-cache参数,但是它只会使每一层的caching失效(每个命令总是被执行,但仍保存在图像/图层库中)。 此外–force-rm不适合我。

docker作者不断使用旧的图像内容

我们使用我们的gitlab-ci来创build最新版本的代码。 这些图像是用latest标签来build造的。 我们在发布过程中标记图像。 我的问题是关于latest标签。 我们自动在服务器上部署这些映像来testing我们的产品。 但是,在testing服务器上,如果我们拖动最新的Docker镜像(通过校验和validation),请停止撰写并重新启动,但我们有时还会保留旧镜像的内容(例如configuration文件)。 我们尝试了docker-compose up -d –force-recreate但是没有任何帮助。 解决这个问题的唯一方法是: docker-compose down docker system prune -f docker rmi $(docker images -q) docker-compose pull docker-compose up -d 更好的主意?

Gitlab CI中cache / artifacts的正确用法是什么?

当项目构build中没有使用caching文件时,我正面临一个问题。 在我的情况下,我想在构build阶段下载composer php依赖项,然后在所有其他阶段成功后将它们添加到最终项目文件夹中。 我认为如果你把cache属性设置成.gitlab-ci.yml文件,它也会在其他阶段共享和使用。 但是这有时候有效,有时候不行。 Gitlab版本是9.5.4 这是我的.gitlab-ci.yml文件: image: ponk/debian:jessie-ssh variables: WEBSERVER: "user@example.com" WEBSERVER_DEPLOY_DIR: "/domains/example.com/web-presentation/deploy/" WEBSERVER_CDN_DIR: "/domains/example.com/web-presentation/cdn/" TEST_VENDOR: '[ "$(ls -A ${WEBSERVER_DEPLOY_DIR}${CI_COMMIT_REF_NAME}/${CI_COMMIT_SHA}/vendor)" ]' cache: key: $CI_PIPELINE_ID untracked: true paths: – vendor/ before_script: stages: – build – tests – deploy – post-deploy Build sources: image: ponk/php5.6 stage: build script: # Install composer dependencies – composer -n install […]