Tag: 路由

如何使用Windows vitrualbox guesttestingDocker提供的HTML页面?

我正在使用Ubuntu 16.04和Docker容器(nginx,php,mysql,mailcatcher,redis)开发Magento站点。 在我将发布分支进行testing之前,我需要对前端更改进行开发testing。 我正在处理的问题仅在Internet Explorer 11上存在。我安装了Virtualbox并运行Windows 7 + IE11(来自modern.ie)。 我想能够访问与IE浏览器托pipe的magentodocker。 如何做到这一点,没有太多的麻烦? 以下是我的docker-compose.yml version: '2' services: mysql: image: docker-registry.notsoimportant.com:5000/mariadb:10.1 container_name: mag_mysql ports: – "8011:3306" networks: mag_net: ipv4_address: 192.168.200.101 volumes: – ./mariadb/magento_v1.0.sql:/docker-entrypoint-initdb.d/magento_v1.0.sql – ./mariadb/slim_procedures.sql:/docker-entrypoint-initdb.d/slim_procedures.sql – ./mariadb/autoincrement.cnf:/etc/mysql/conf.d/autoincrement.cnf #- "./DATABASE_FILES:/var/lib/mysql" environment: – MYSQL_ROOT_PASSWORD=root – MYSQL_DATABASE=box_mage – MYSQL_USER=ist – MYSQL_PASSWORD=ist redis: image: docker-registry.lppdev.pl:5000/redis:3.2 container_name: mag_redis expose: – "6379" networks: mag_net: […]

我如何使用Docker提供应用程序的多个状态实例?

我一直在使用docker提供给定主机上的应用程序实例的编排。 CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 09cb549dc9f8 livecompose_gs "/entrypoint.sh" 32 seconds ago Up 2 seconds 8009/tcp, 0.0.0.0:8082->8080/tcp gs_1 dddf7fcd4014 livecompose_gn "/entrypoint.sh" 33 seconds ago Up 2 seconds 8009/tcp, 0.0.0.0:8081->8080/tcp gn_1 21f685f1fb13 livecompose_db "/usr/bin/supervis…" 33 seconds ago Up 3 seconds db_1 1178674e5560 livecompose_apache "/entrypoint.sh" 34 seconds ago Up 3 seconds 0.0.0.0:32799->80/tcp, 0.0.0.0:32798->443/tcp ws_1 […]

每个Docker容器都单独使用透明代理隧道

我想根据一些路由服务的判断,通过不同的代理parsinghtml链接。 例如,一些资源根据用户国家而有不同的内容,有些则甚至被封锁。 作为基础设施,我正在使用Docker容器 – 每个parsing器都在每个parsing会话的新Docker容器中启动: 一些pipe理员服务决定parsingurl,并希望为此使用代理X; pipe理器服务启动(以某种方式)configuration的Docker容器,也许操纵主机环境(创build新的接口,新的iptables规则等),严格通过X连接到互联网; 另外,每个容器都应该有一种方式来与本地networking的服务进行交stream – 也许通过不同的容器接口或类似的东西。 所以,我的问题是组织一些容器相关的通信路由,使得容器不知道任何事情:他们认为只是连接到互联网,但实际上每个容器的stream量应该通过特定的代理路由。 如何组织这种networking? 如何组织整体stream程以使其正常工作:如何启动容器,透明地修改主机规则等?

通过VPN访问Docker容器和KVM虚拟机

Ubuntu 17.04应该用于托pipe3个Windows VM和多个应用程序,每个应用程序都在Docker容器中分离。 一些容器应该可以从互联网上访问。 使用带有防火墙/前端networking服务器的私有子网似乎没什么大不了的,它将诸如80的端口转发到Docker中相应的后端应用程序。 在Docker中也有一些内部应用程序,例如Portainer 。 这些应用程序用于pipe理,不应该向公众传播。 我的想法:使用OpenVPN创build到服务器的VPN隧道,以便这些服务只能通过VPN访问。 对于Windows服务器,RDP只能通过VPN使用。 但是我不确定,如何处理这个场景的路由。 我的第一个想法是使用不同的子网这种types的应用程序: Docker容器:192.168.0.1/24 KVM虚拟机:192.168.1.1/24 VPN客户端:192.168.2.1/24 对我来说似乎是一个很好的做法,因为这些types的客户是孤立的。 可能的问题在这里:通过这些networking进行一些通信是必需的,通过VPN访问Docker容器。 我认为当VPN作为Docker容器本身运行时,这是一个问题。 如何解决这个问题? 在主机上安装VPN看起来像一个简单的解决scheme,因为主机知道所有这些networking,这使得他充当路由器。 但从安全angular度来看,似乎并不好。 是否可以将多个networking分配给Docker容器,以便VPN容器也是KVM虚拟机networking的成员,以便通过Docker访问虚拟机? 这是一个更安全的解决scheme吗?

Docker:如何configurationInternet – >防火墙容器 – > webserver容器

这是我想要做的 互联网__ 172.17.0.1 gw __ 172.17.0.2防火墙容器172.10.10.10 __ 172.10.10.12 webserver容器 当我把networking服务器放在172.17.0.0networking上时,我可以访问networking服务器。 但是通过这个configuration,我得到了错误curl:(52)来自服务器的空回复。 我暴露了Web服务器上的端口8080,并使用-p 8888:8080从主机访问。 在防火墙容器(iptables)上,我只是在nat表上有规则-A POSTROUTING -s 172.10.10.0/24 -j MASQUERADE。 我应该怎样才能访问我的networking服务器容器?

Dockernetworking问题与nginx代理容器

我目前正在尝试设置一个基于docker的jira和confluence平台,由nginx代理并运行到某种路由和networking问题。 基本设置由三个docker容器组成–nginx conatainer处理特定域名(如jira.mydomain.com,confluence.mydomain.com)的https请求,并将请求redirect到(proxy_pass)jira和confluence的特定容器。 这个设置通常是可行的 – 我可以通过在浏览器中打开https://confluence.mydomain.com打开https://jira.mydomain.com和confluence实例来访问jira实例。 login到jira时遇到的问题变得可见: 然后在Find-out-more-link: 所提供的JIRA健康检查链接中的build议解决scheme不利于我发现和解决问题。 相反,日志文件中的一些例外会导致更多的问题提示 : 2017-06-07 15:04:26,980 http-nio-8080-exec-17 ERROR christian.schlaefcke 904x1078x1 eqafq3 84.141.114.234,172.17.0.7 /rest/applinks/3.0/applicationlinkForm/manifest.json [caacrest.ui.CreateApplicationLinkUIResource] ManifestNotFoundException thrown while retrieving manifest ManifestNotFoundException thrown while retrieving manifest com.atlassian.applinks.spi.manifest.ManifestNotFoundException: java.net.NoRouteToHostException: No route to host (Host unreachable) … Caused by: java.net.NoRouteToHostException: No route to host (Host unreachable) 当我按照这个Atlassian知识库文章的提示,从JIRA容器中运行这个curl语句时: curl -H "Accept: application/json" https://jira.mydomain.com/rest/applinks/1.0/manifest […]

Docker – 无法从Container中Ping服务器IPv6或外部IPv6地址

我在我的服务器上创build了一个Docker容器(Ubuntu Server 16.04)。 我可以从容器中ping泊坞接口的本地和全局IPv6。 我可以从服务器ping容器接口的全局IPv6,但我必须指定接口(使用ping6 -I docker0)。 不幸的是,我无法从容器中ping外部和服务器IPv6。 有关您的信息:从服务器Ping外部IPv6和从另一台设备的SSH IPv6服务器地址工作正常。 我遵循了docker官方的官方教程: https : //docs.docker.com/engine/userguide/networking/default_network/ipv6/ 我错过了什么? 预先感谢您的帮助。

Docker断开到内部networking的路由

为什么在主机虚拟机上启动Docker守护进程会阻止主机路由到内部networking资源? 仅供参考:启动守护程序不会阻止路由到外部资源,例如google.com。 仅在不同子网上的内部HTTPS资源。 任何解释,将不胜感激,因为这种行为已经把我们的举动,集装箱搁置,直到我们设法解决这个问题。 谢谢,迈克尔·麦克

如何为多宿主的Docker容器添加(静态)多播路由?

我们希望将用户stream量与应用内部stream量分开,以便设置多宿主主机并安装Docker。 Docker容器连接到两个networking接口(主networking是连接到主机eth0的默认网桥接口,第二个接口通过MACVLAN连接到主机的eth1)。 正常的stream量正常工作,但我们希望将应用(Hazelcast,Tomcat)组播stream量引导到第二个接口: # docker run –rm -ti myImage bash # docker network connect macvlantest <containerid> IP地址分配正确: [root@7ac12ba74a6e /]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever 2769: eth0@if2770: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP link/ether […]

每秒OSRM /后端docker可以处理多less个请求?

如果我托pipe在我们自己的服务器上,是否有下面的API可以处理每秒请求的限制? http://127.0.0.1:5000/route/v1/driving/13.388860,52.517037;13.385983,52.496891?steps=true 我完成了https://hub.docker.com/r/osrm/osrm-backend/链接中提到的内容来运行OSRM docker指令。 (注意我没有使用前端) 一切似乎工作正常,即使我执行以下的API(注意这里的源极限是3) http://127.0.0.1:5000/table/v1/driving/79.865184,6.856469;79.867051,6.858589;79.862052,6.860068;79.863039 ,6.862401源= 1; 2; 3&目的地= 0 我得到了44毫秒的回应。 但是,如果我在上面的API中增加50个源信息,每秒发送1000个请求,我得到7到8秒的响应时间,CPU使用率为60-70。 这是我的服务器和OSRM文件大小信息: map.osrm文件大小:1.6GB 16核心CPU 24GB内存 ulimit -n 1024 我也尝试过Nginx的负载均衡,下面简单介绍一下: docker run -t -i -p 5000:5000 -v $(pwd):/ data osrm / osrm-backend osrm-routed –algorithm mld /data/map.osrm docker run -t -i -p 5001:5000 – v $(pwd):/ data osrm / osrm-backend osrm-routed –algorithm mld /data/map.osrm […]