Tag: 工人

将docker主机打包成OVA / OVF

我们有一个应用程序作为一堆容器在Docker主机中运行。 对于开发,我们使用docker-compose,为了运输,我们使用Replicated.com的软件/服务。 我们的客户不运行他们自己的docker主机,不想要,没有专业知识这样做。 他们需要的是一个OVA / OVF文件,可以将其放入vSphere基础架构中。 我没关系。 在那里似乎有很多很多的起动面团图像,将作为docker主机运行(boot2docker是一个例子?)。 我应该select哪一个基地? 如果我可以使用stream浪者或其他工具作为我的构build链的一部分,这将是理想的,所以我不必每次都手工重新创buildOVA。 除了通用Linux引导程序.iso以外,我可以从哪个映像开始 脚本编译?

sbt-docker无效的头字段值“oci …运行时错误:没有这样的文件错误

我目前使用sbt-docker来创build一个图像在mesos上运行。 当我执行“项目DataQualityIngest”运行。 一切工作正常。 (从而表明项目本身工作正常) 但是当我用这些设置创builddocker图像时 mainClass in (Compile, run) := Some("com.company.data_quality.CredentialObjectConsumer") enablePlugins(DockerPlugin, JavaAppPackaging) dockerBaseImage := "java:8u72" dockerExposedPorts := Seq(9000) dockerRepository := Some("docker.company.com/analytics") packageName in Docker := "credential-kafka-ingest" version in Docker := "0.1.7.4 它成功地build立了docker图像docker.company.com/analytics/credential-kafka-ingest:0.1.7.4 ,但是当我运行docker run docker.company.com/analytics/credential-kafka-ingest:0.1.7.1我得到以下错误 docker: Error response from daemon: invalid header field value "oci runtime error: container_linux.go:247: starting container process caused \"exec: \\\"bin/datqualityingest\\\": […]

docker工人不工作NLTK

我想在Docker中运行一个nltk服务。 但是,我总是得到错误信息“'nltk'不是一个包”。 你能弄清楚什么是错的? 在构build过程中一切正常,打印nltk版本。 当用docker-compose up nltk启动容器时,我得到docker-compose up nltk $ docker-compose up nltk Recreating nltk Attaching to nltk nltk | Traceback (most recent call last): nltk | File "/var/www/nltk.py", line 1, in <module> nltk | from nltk.corpus import brown nltk | File "/var/www/nltk.py", line 1, in <module> nltk | from nltk.corpus import brown nltk | […]

repo.typesafe.com临时移动(预测)快速启动应用程序

我使用Docker进行预测: https : //github.com/mingfang/docker-predictionio 当我启动run.sh内quickStartapp后的所有steps.it显示以下错误(): [INFO] [Console$] Attempting to fetch sbt [ERROR] [Console$] * Trying 52.44.119.225… [ERROR] [Console$] * Connected to repo.typesafe.com (52.44.119.225) port 80 (#0) [ERROR] [Console$] > GET /typesafe/ivy-releases/org.scala-sbt/sbt-launch/0.13.7/sbt-launch.jar HTTP/1.1 [ERROR] [Console$] > Host: repo.typesafe.com [ERROR] [Console$] > User-Agent: curl/7.47.0 [ERROR] [Console$] > Accept: */* [ERROR] [Console$] > [ERROR] [Console$] < HTTP/1.1 302 […]

推荐使用Docker模拟生产服务器的方法

我的公司有一个旧的生产服务器,在过时的PHP和Apache版本上运行多个应用程序,需要更新,目前没有相应的testing/阶段服务器,可以testing我的升级。 我想用Docker来执行我的testing,但我不知道如何去重复生产服务器。 我正在考虑这些选项: 模仿生产环境并将所有Web应用程序复制到一个容器中 为每个应用程序分别创build多个容器 ,其中每个容器模仿生产服务器环境 在单个容器中模拟生产环境, 并使用Docker卷从主机安装每个应用程序。 哪个选项是推荐的,还是没有什么区别? 有没有更好的select,我没有想到?

configurationfluentd以正确parsing并将使用docker json-file日志logging驱动程序格式化的java stacktrace转换为弹性的单个消息

我们的服务作为docker实例运行。 鉴于限制是泊坞窗日志logging驱动程序不能被更改为任何不同于默认的json文件驱动程序。 (scala micro)服务输出一个看起来像这样的日志 {"log":"10:30:12.375 [application-akka.actor.default-dispatcher-13] [WARN] [rulekeepr-615239361-v5mtn-7]- cvrslogic.RulekeeprLogicProvider(91) – decision making have failed unexpectedly\n","stream":"stdout","time":"2017-05-08T10:30:12.376485994Z"} {"log":"java.lang.RuntimeException: Error extracting fields to make a lookup for a rule at P2: [failed calculating amount/amountEUR/directive: [failed getting accountInfo of companyId:3303 from deadcart: unexpected status returned: 500]]\n","stream":"stdout","time":"2017-05-08T10:30:12.376528449Z"} {"log":"\u0009at org.assbox.rulekeepr.services.BasicRuleService$$anonfun$lookupRule$2.apply(BasicRuleService.scala:53)\n","stream":"stdout","time":"2017-05-08T10:30:12.376537277Z"} {"log":"\u0009at org.assbox.rulekeepr.services.BasicRuleService$$anonfun$lookupRule$2.apply(BasicRuleService.scala:53)\n","stream":"stdout","time":"2017-05-08T10:30:12.376542826Z"} {"log":"\u0009at scala.concurrent.Future$$anonfun$transform$1$$anonfun$apply$2.apply(Future.scala:224)\n","stream":"stdout","time":"2017-05-08T10:30:12.376548224Z"} {"log":"Caused by: java.lang.RuntimeException: failed calculating amount/amountEUR/directive: [failed […]

我可以使用可以启动docker群服务,而无需撰写?

我怎么能ssh入Docker群创build的服务? 我已经使用docker stack创build了一个服务,yaml文件如下所示: version: '3' services: app: image: "myimage1" expose: – "8080" 我validation服务正在运行,但我不知道如何ssh到创build的服务(容器)。

如何将Docker Macvlan驱动程序的范围从Local扩展到Swarm

我正在处理一个需求,我们需要创build一个主机服务器不应该访问容器的networking 。 我们已经实现了使用Docker Macvlan Network的单服务器,并且在使用Docker swarm将其扩展到群集时意识到Macvlan驱动程序的范围是本地的。 # docker network ls NETWORK ID NAME DRIVER SCOPE c1e162df6ba0 bridge bridge local dd4c37820549 docker_gwbridge bridge local c88f997a2fa7 host host local 3afvn8qnwl1f ingress overlay swarm c4899a391b91 isolated_nw1 macvlan local 1df2947aad7b none null local 31tlgcm33m3b swarm_network overlay swarm 所以我的问题是可以创build一个networking使用macvlan驱动程序,可以扩展到群 ? 如果macvlan不可能,我们可以做到这一点的方式是什么 ?

无法连接到客户端的dockerized rabbit

我从https://hub.docker.com/_/rabbitmq/上安装并运行docker上的rabbitmq: docker ps 24551542aa20 repo/rabbitmq-example-server:latest "/docker-entrypoin…" 23 hours ago Up 2 hours 4369/tcp, 5671-5672/tcp, 15671/tcp, 25672/tcp, 0.0.0.0:15672->15672/tcp rabbitmq-example-server 我可以通过http:// localhost:15672 /从terminalloginpipe理员,我可以在这里http://www.rabbitmq.com/management-cli.html中成功使用rabbitmqadmin,添加-u admin -p nimda进行validation。 我可以发布和接收消息。 但是,python和ruby客户端无法连接。 TCP连接被拒绝或挂起。 我试了localhost,127.0.0.0.1或我的IP,什么都没有。 端口5672甚至不能用telnet访问,我看到它在rabbitmq.config中声明: { tcp_listeners, [ 5672 ] },

我可以同时将我的docker集装箱login到Fluentd和** stdout **吗?

我一直在使用EFK堆栈(Elasticsearch,Fluentd,Kibana)来将我的dockerized应用程序日志集中在elasticsearch中( http://docs.fluentd.org/v0.12/articles/docker-logging-efk-compose ) 但是同时我想在stdout中显示日志… 目前,当我用fluentd的日志驱动程序运行docker容器时,我无法在stdout中看到日志。 Anyoune知道如何在标准输出中同时启用日志…? fluetnd.conf文件如下: <source> @type forward port 24224 bind 0.0.0.0 </source> <match alert.**> @type copy <store> @type elasticsearch host elasticsearch port 9200 logstash_format true logstash_prefix alert logstash_dateformat %Y%m%d type_name access_log tag_key @log_name flush_interval 1s </store> <store> @type stdout </store> </match> <match measurements.**> @type copy <store> @type elasticsearch host elasticsearch port 9200 […]