Tag: configuration

如何通过REST端点在openshift中configuration应用程序?

我们使用openshift来部署我们的dockerized Java EE应用程序。 这个应用程序公开了我们用来configuration服务的REST端点(一些标准的事情,如轮询intervalls,其他端点查询数据,默认语言,…)。 到目前为止,我们通过运行第二个包含configuration数据的容器来configuration这个应用程序,并运行curl将这个configuration数据推送到应用程序的容器,这完全正常工作,即使用docker-compose或ansible,我们只需等待应用程序启动,我们运行configuration容器。 现在我们打算使用openshift,并且我不知何故错过了CLI上的这个依赖定义function,导致configuration容器在应用程序容器准备好接收configuration之前启动。 我的意思是在某个时候应用程序已经准备就绪,然后configuration被推送到那里,但是我想在configuration过程结束后停止configuration容器。 所以问题是如何处理这种情况。 这两个容器方法最终是否有效(我的意思是我们要分开两个进程,这就是为什么我们有他们)或者我们应该添加configuration到应用程序容器? 达到这个目标的最佳做法是什么?

用不同的configuration在不同的端口上运行MySQL

我试图在另一个不同的configuration端口上运行MySQL的另一个实例。 尝试1 docker run –name dbname -v /home/custom-mysql-configs/dbname-config-folder:/etc/mysql -p 0.0.0.0:3312:3306 -e MYSQL_ROOT_PASSWORD=mysupersecretpassword -d mysql:5.5 当我运行SHOW VARIABLES; 在mysql -u root -p –host=127.0.0.1 –port=3312我得到了和mysql -u root -p –host=127.0.0.1 –port=3306相同的variables,它们在/etc/mysql/my.cnf 尝试2 docker run –name dbname -v /home/custom-mysql-configs/dbname-config-folder:/etc/mysql/conf.d -p 0.0.0.0:3312:3306 -e MYSQL_ROOT_PASSWORD=mysupersecretpassword -d mysql:5.5 然后当我跑了 mysql -u root -p –host=127.0.0.1 –port=3306 我得到了以下错误: 错误2013(HY000):在'读取初始通信数据包'丢失连接到MySQL服务器,系统错误:0 我在做什么错了,我应该如何运行新的MySQL实例?

在spark上configuration,总是在spark master web UI的job application中错误的executor_cores

我试图将mapreduce上的configurationhive 2.1.1切换到configuration单元上。 正如火花官方网站上的configuration单元所说,我在没有configuration单元的情况下构build了一个spark 1.6.0 (在蜂巢2.1.1源代码POM中引发了转速)。 Spark在submit/spark-shelltesting中工作正常。 我设定了 spark.executor.cores / spark.executor.memory 在hive-site.xml ,也通过限制这两个 SPARK_WORKER_CORES / SPARK_WORKER_MEMORY 在spark-env.sh 。 但是当我从configuration单元cli启动一个像select count(*)的configuration单元查询之后,spark master web UI中的作业总是被应用0个CPU核心,所以这个作业不被执行,并且hive查询在cli中一直等待。 并且在Docker环境中设置Spark集群,每个服务器都是运行在服务器上的一个Docker容器,最多可以添加160个内核/ 160g内存 。 在设置SPARK_WORKER_CORES / SPARK_WORKER_MEMORY之前,总是应用156个内核,这也导致没有足够资源的故障。 在将SPARK_WORKER_CORES / SPARK_WORKER_MEMORY限制为分配给docker集装箱的资源之后,将应用0。 我被困在这个问题上2天没有进展。 希望熟悉Docker的configuration单元或者在docker env上运行configuration单元的任何人的一些技巧。

Docker nginx错误在安assembly置文件

我尝试将一个nginx.conf文件挂载到nginx映像(在Windows 10上): docker run –name my-nginx -d -p 3000:80 -v /Users/username/Documents/books/Docker/nginx.conf:/etc/nginx/nginx.conf:ro nginx 图像,但总是返回这个错误: 你是否试图将一个目录挂载到一个文件上(反之亦然)? 检查指定的主机path是否存在,并且是预期的types。 我有共享C:驱动器并运行此命令: docker run –rm -vc:/ Users:/ data nginx ls / data 有人可以帮我吗? 更新:我设法在PSell窗口中启动它: $ pwd /Users/username/Documents/books/Docker/nginx.conf 但现在它停止在日志中的这个错误消息: /etc/nginx/nginx.conf中的未知指令“user”:1 UPDATE2:我用记事本++来保存nginx.conf文件,我必须将编码设置为ANSI。 现在好了。

在kubernetes掌舵如何用新的configuration值来replace一个pod

我正在使用舵图来configurationpipe理configuration的“configmap”的豆荚。 我直接编辑configmap以更改configuration文件,然后使用kubectl delete删除窗格,以使新configuration生效。 有没有简单的方法使用helm来replace正在运行的pod与新的configuration, 而不执行“ kubectl删除 ”命令

连接齐柏林docker与蜂巢

嗨,我是相当新的docker和齐柏林飞艇。 我最近从这个链接创build了一个齐柏林docker。 我正尝试通过HiveContext与齐柏林笔记本上的configuration单元连接。 从解释器页面spark中将zeppelin.spark.useHiveContext设置为true。 当我尝试下面的代码: val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc) 正在给出以下错误: <console>:30: error: object hive is not a member of package org.apache.spark.sql val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc) 我是否仍然需要安assembly置单元解释器,甚至难以使用的UseContext是真实的? 现在我只想检查一下将来是否可以连接Hive数据库。

编辑运行Kong的Docker实例的configuration文件

我目前正在testingKong API Gateway,并且使用PostgreSQL运行,都在同一台机器上的不同的Docker容器中。 到目前为止,我已经能够成功链接到我的API并添加一个插件,但现在我想尝试更改一些configurationvariables,并且正在运行到一个墙上。 我已经广泛地查看了文档,并清楚地显示了如何在初始创build实例期间添加自定义envvariables(添加类似-e KONG_LOG_LEVEL=info )。 它也声明一旦你改变运行的实例上的configurationvariables运行docker exec -it kong kong reload 。 问题是,我不能为我的生活找出正确的命令来实际改变一个variables。 我尝试了所有我能想到的组合,无济于事,无法在任何地方find答案。 有没有人遇到(并解决)这个问题? 对不起,如果这是一个愚蠢的问题,我是新来的两个docker和孔,真的试图find答案在文件中都没有运气。 以下是我尝试过的一些命令: docker run -d –name kong -e "KONG_LOG_LEVEL=info" *response: "docker run" requires at least 1 argument(s).* docker restart kong kong-database -e "KONG_LOG_LEVEL=info" *response: unknown shorthand flag: 'e' in -e* docker exec -it kong kong reload -e "KONG_LOG_LEVEL=info" […]

Terraform,Docker,Debian 8

我是Terraform的初学者,我正在寻求帮助。 我试过使用谷歌,但我找不到解决scheme。 我有Debian 8服务器。 我成功安装了docker和terraform。 现在我需要创build与Ubuntu的docker容器,并设置与Terraform的这个容器的SSH访问。 我terraformconfiguration是创builddocker容器,设置图像和提供商docker,但我找不到如何设置ssh访问它或configuration一些额外的SW。 Terraformconfiguration: # Configure the Docker provider provider "docker" { host = "tcp://127.0.0.1:2376/" } # Definition of ubuntu image resource "docker_image" "ubuntu" { name = "ubuntu:latest" } # Create a container resource "docker_container" "Ubn_Con" { image = "${docker_image.ubuntu.latest}" name = "Ubn_Con" } 感谢您的任何帮助。

如何安全地重新加载幽灵容器应用configuration文件?

我已经使用docker部署了我的ghost博客 $ docker run -d –name blog -p 2368:2368 ghost 但是,当我修改configuration文件后重新启动容器时,浏览器端出现了503错误或Err-connection_closed错误。 如何安全地重新加载幽灵容器应用configuration文件? config.js config = { production: { url: 'https://blog.muhun.kim', mail: {}, # …

Docker-compose Kubernetes ENV属性的互操作性

我正在使用docker -compose构build我的临时环境,以前使用Kubernetes在Google Cloud中运行的应用程序。 我的应用程序是使用Kubernetes容器中提供的ENV属性configuration的,现在在切换到docker -composite之后 ,我对链接服务有不同的命名约定。 我可以想出几个解决scheme,对于我的问题: 改变我的应用程序,以支持替代configuration,所以它将支持docker -composite & Kubernetes 在docker -compose或Kubernetes中创build别名,以便在两种环境中始终以单一格式提供configuration,并且不需要触摸我的应用程序configuration。 也许有其他的方式,我没有看到 我想去第二个解决scheme,但我不知道如何configuration它。 有想法?