Tag: nginx

如何禁用对docker群中的覆盖networking的外部访问

我正在尝试build立一个拥有以下服务的群组: nginx作为反向代理(主要是为了处理虚拟主机和SSL,虽然这不在nginx.conf中)。 一个golangnetworking应用程序。 rediscaching。 postgresql存储。 这导致一个docker构成文件类似于: version: '3' services: proxy: image: nginx:1.13.5-alpine ports: – "80:80" deploy: placement: constraints: [node.role == manager] depends_on: – api volumes: – ./nginx.conf:/etc/nginx/conf.d/default.conf networks: – webnet api: image: user/webapp:latest deploy: replicas: 4 ports: – "8000:8000" depends_on: – postgres – redis networks: – webnet postgres: image: postgres:9.6.5-alpine ports: – "5432:5432" deploy: placement: […]

使用nginx-proxy容器(如前端服务器)访问同一主机上的多个容器时出现错误503

解决scheme在: https : //serverfault.com/questions/880212/error-503-when-using-nginx-proxy-container-like-a-front-end-server-to-access-mul 我希望能够访问包含Web应用程序的同一个主机上的多个容器。 当我想访问主机(通过他的IP地址)或容器(例如通过host_ip_adress /容器1),我得到了来自Nginx的503错误。 我想要的是通过ip_addrress_host / container1访问我的container1。 我在网上find的解决scheme是设置一个nginx代理前端服务器(来源: https : //blog.florianlopes.io/host-multiple-websites-on-single-host-docker/ ) 我的docker – 撰写文件: version: '2' services: nginx-proxy: image: jwilder/nginx-proxy ports: – "80:80" volumes: – /var/run/docker.sock:/tmp/docker.sock site_a: image: php:7.0-apache expose: – "80" environment: – VIRTUAL_HOST=192.168.12.28/container1 – VIRTUAL_PORT=80 volumes: – ./php:/var/www/html site_b: image: php:7.0-apache expose: – "80" environment: – VIRTUAL_HOST=192.168.12.28/container2 – VIRTUAL_PORT=80 […]

Symfony:如何使用Docker指定端口和scheme?

用symfony遇到url生成问题; 使用docker-compose运行php,nginx和postgreSQL。 docker-compose.dev.yml services: php: volumes: – '.:/srv' environment: – SYMFONY_ENV=dev front: environment: – VIRTUAL_HOST=localhost – VIRTUAL_PORT=8080 ports: – 0.0.0.0:8080:80 volumes: – ./web:/srv – /keys/reports.crt:/certs/domain.crt:ro – /keys/reports.key:/certs/domain.key:ro 哪个正确设置nginx,允许我在localhost:8080上访问它localhost:8080 – http 200 OK 问题是,symfony和树枝没有正确使用这个url。 例如 index.html.twig <link rel="stylesheet" type="text/css" href="{{ url }}{{ asset('email/web/styles/main.css') }}?v=1"> 输出错误的scheme并不包括8080端口。 HTTPS:?//localhost/email/web/styles/main.css V = 1 一个build议是将这些variables添加到.env文件 SERVER_HOST=localhost SERVER_SCHEME=http SERVER_PORT=8080 但是这没有效果。 symfony config_dev.yml没有指定https或不同端口的任何内容,对于基本configuration也是如此。 […]

未find文件 – Docker中的Nginx

描述 我有一个docker容器与此 nginx.conf server { listen 80; index index.php index.html; root /var/www/public; location / { try_files $uri /index.php?$args; } location ~ \.php$ { fastcgi_split_path_info ^(.+\.php)(/.+)$; fastcgi_pass app:9000; fastcgi_index index.php; include fastcgi_params; fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; fastcgi_param PATH_INFO $fastcgi_path_info; } } 泊坞窗,compose.yaml version: '2' services: # The Application app: build: context: ./ dockerfile: app.dockerfile working_dir: /var/www volumes: […]

如何处理Amazon ECS中的自定义nginx.conf文件?

我基本上有两个docker图像:nginx图像和一个php图像,我想上传到ECS。 两者都由docker工作者组成。 nginx有一个myapp.conf文件,我想从某处复制到容器的/etc/nginx/conf.d文件夹中。 什么是处理这个最好的方法?

Hashi-UI和Nomadauthentication

我需要build议如何为pipe理Nomad和Consul设置Hashi-UI的身份validation。 我有Debian 8服务器,在那里我安装了Terraform,我创build了terraform文件。 此下载并运行游牧和领事。 这是有效的,但如果我访问Hashi-UI没有login,所以每个人都可以访问它。 我像游牧民族工作一样运行哈希。 它在Nginx上运行。 我如何设置用户的login像这样的Apache? 我的游牧文件: job "hashi-ui" { region = "global" datacenters = ["dc1"] type = "service" update { stagger = "30s" max_parallel = 2 } group "server" { count = 1 task "hashi-ui" { driver = "docker" config { image = "jippi/hashi-ui" network_mode = "host" } service { port = […]

超级慢查询时间为laravel 5 / php-fpm / nginx在dockerized的web应用程序

我有一个位于nginx之后的Laravel 5.5 / PHP-fpm(PHP 7)API,都在不同的Docker容器中。 我简单地返回一个json对象的API调用大约需要2秒钟,这对于这样一个简单的查询来说是非常长的(即使我查询并从dockerized mysql数据库中返回一些行,也需要3秒以上)。 应该less于一百毫秒。 我不知道如何debugging这个问题。 任何想法为什么这么慢? 使用Docker for Mac docker-compose版本1.16.1,build 6d1ac21 Docker版本17.09.0-ce,编译afdb6d4 PHP API Route::get('/api/names', function () { return array( 1 => "Honey", 2 => "Nut", 3 => "Cheerios" ); }); Nginx的dockerfile FROM nginx RUN rm /etc/nginx/conf.d/* COPY nginx.conf /etc/nginx/conf.d/ nginx.conf upstream phpie { server php-fpm:9000 weight=10 max_fails=3 fail_timeout=30s; } server […]

如何在与docker-compose链接到另一个容器的容器中运行linux守护进程?

我有以下docker-compose.yml文件,它运行带有PHP支持的nginx: version: '3' services: nginx: container_name: my-app-nginx image: nginx:1.13.6 ports: – 8080:80 volumes: – ./nginx-default.conf:/etc/nginx/conf.d/default.conf – ./my-app:/var/www/my-app restart: always depends_on: – php php: container_name: my-app-php image: php:7.1-fpm volumes: – ./my-app:/var/www/my-app restart: always /var/www/my-app的PHP应用/var/www/my-app需要与一个linux守护进程进行通信(我们称之为myappd )。 我看到的方式,我需要: 把myappd复制到/usr/local/bin的nginx容器中,用chmod +x使其可执行,并在后台运行。 创build一个不同的容器,将myappd复制到/usr/local/bin ,使用chmod +x使其可执行,并在前台运行它。 现在,我是Docker的新手,我正在研究和了解它,但是鉴于我在使用Docker Composer,我的最佳猜测是选项2可能是推荐的选项? 鉴于我对Docker的知识有限,我不得不猜测这个容器需要某种基于Linux的映像(比如Ubuntu或者其他)来运行这个二进制文件。 所以也许选项1是首选? 或者,也许选项2是可能的一个最小的Ubuntu图像,也许没有这样的形象是可能的? 无论哪种方式,我不知道如何在composer文件上实现它。 特别是选项2,PHP应用程序将如何与守护程序在不同的容器中进行通信? 就像我为nginx / php服务所做的那样,“共享”一个卷(二进制文件所在的位置)就足够了吗? 还是其他什么是必需的?

在Google Cloud上部署NodeJS,Puppeteer和Angular

我有以下设置: angular度的前端 MongoDb数据库 用于API的NodeJS / Express后端(+ puppeteer) 部署步骤: 1. ng build -prod – >在/server创builddist 2. gcloud app deploy(Node.js + Express + Puppeteer + Dockerfile config *) 因为木偶戏基本上是铬合金; 一些没有交给我的图书馆不得不上传。 没问题,Docker来救援。 FROM node:8-slim MAINTAINER Eric Bidelman <ebidel@> RUN apt-get update && apt-get install -y wget –no-install-recommends \ && wget -q -O – https://dl-ssl.google.com/linux/linux_signing_key.pub | apt-key add – […]

Nginx:docker堆栈中的502错误网关

我有Docker堆栈运行2个容器,第一个是Nginx,第二个应用程序。 问题是nginx显示错误的网关错误: 这里是nginx conf: upstream example { server mystack_app1; # Also tried with just 'app1' # server mystack_app2; keepalive 32; } server { listen 80; server_name example; location / { proxy_pass http://example; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_connect_timeout 150; proxy_send_timeout 100; proxy_read_timeout 100; proxy_buffers 4 32k; client_max_body_size 8m; client_body_buffer_size 128k; } […]