Tag: kubernetes

在docker init容器的初始化上执行一个脚本

我有一个docker映像,它使用/usr/sbin/init作为pid 1和ppid 0生成容器,我需要执行脚本,在运行时执行一次更改。 然后让容器从现在开始启动,例如/usr/sbin/init为pid 1和ppid 0 。 我试过这个,但它执行脚本,然后容器退出。 我能做什么? 任何帮助表示赞赏。

从Docker文件初始化谷歌云数据

我有一个MySQL实例托pipe在Google Cloud SQL中,而且我有一个使用这个数据库的容器,我尝试使用以下命令从docker文件初始化数据库模式: 从anapsix / alpine-java ADD ./mysql/init.sql /docker-entrypoint-initdb.d init.sql SET sql_mode = ''; CREATE DATABASE IF NOT EXISTS `locations_schema`; USE `locations_schema`; CREATE TABLE `locations` ( `id` int(11) NOT NULL, `value` varchar(255) NOT NULL, `label` varchar(255) NOT NULL ) ENGINE=InnoDB DEFAULT CHARSET=latin1; 但不幸的是,这是行不通的,有什么办法可以实现一个数据库的初始化?

Python烧瓶docker化的Web应用程序api不返回响应错误:BrokenFilesystemWarning

我正在使用python 2.7和烧瓶,返回我的本地设置的完整响应。 现在应用程序被docker化并部署在Google kubernetes容器中。 这是POST方法的一个示例API,它将input作为application / jsoninput,当前内部函数能够以JSON格式获取数据,但不返回到客户端。 Python部分: from flask import Flask, render_template, request, jsonify from flask_cors import CORS, cross_origin import sys from runmodel import run reload(sys) # Reload is a hack sys.setdefaultencoding('UTF8') app = Flask(__name__, static_url_path='/static') CORS(app) @app.route("/modelrun", methods=['POST']) def modelrun(): """TO run the model and get data to populate""" req_data = request.json res […]

Minikube上的Kafka:Back-off重启失败的容器

我需要在Minikube的Kafka和Cassandra 主机操作系统是Ubuntu 16.04 $ uname -a Linux minikuber 4.4.0-31-generic #50-Ubuntu SMP Wed Jul 13 00:07:12 UTC 2016 x86_64 x86_64 x86_64 GNU/Linux Minikube正常开始: $ minikube start Starting local Kubernetes v1.8.0 cluster… Starting VM… Getting VM IP address… Moving files into cluster… Setting up certs… Connecting to cluster… Setting up kubeconfig… Starting cluster components… Kubectl is now […]

在Kubernetes集群中的自定义docker容器与使用Stackdriver的日志

我想知道为了发送在我的自定义Apache容器中创build的日志(部署在Kubernetes的一个容器中)到Stackdriver收集器必须遵循哪些步骤。 我注意到,如果我使用标准的apache(或nginx)容器创build一个窗格,access.log和error.log会自动发送到Stackdriver。 实际上,我可以在Kubernetes仪表板和Google Cloud Dashboard上看到日志 – >日志logging – >日志,但是我没有看到任何与我的自定义Apache相关的东西。 有什么build议么?

从定制的dockerfile到kubernetes部署一个apache启动

我有一个docker文件,我build立一个Apache Web服务器与一些自定义configuration等 执行Dockerfile我使用Kubernetes创build一个可以在部署yaml文件中使用的映像。 一切正常,但部署后,我的Apache服务是在每个容器的每个容器中。 很明显,我可以访问每个容器来执行一个/etc/init.d/apache2启动,但这个解决scheme不是很聪明.. 所以我的问题是:我怎样才能设置我的自定义Apache在部署yaml文件的执行过程中运行? PS:我试过这个解决scheme:用dockerfile创build一个docker容器,然后我访问它,然后启动apache。 然后我从这个容器(dockerfile commit + gcloud image push)创build了一个新的映像,但是当我部署应用程序时,我总是发现apache down

错误“未find”的Docker拉失败

我正在寻找一些关于在Kubernetes集群中的一个节点上debugging和根本问题的build议。 问题是该节点上的任何docker pull操作都会失败,并显示“未find”错误。 这是我到目前为止所尝试的。 检查私人registry是否正常,并从其他节点工作。 检查docker守护进程正在运行,其他docker操作工作 没有networking问题(挖工作,curl-v https://registry.abc.xyz.com.symcpe.net:443https: – >返回HTTP / 1.1 200确定) 我没有尝试重新启动docker守护进程,坦白地说,我很害怕这样做,因为在这个节点上可能有生产豆荚。 任何docker pull操作都会在该节点上发生“找不到”错误。 由于操作是从其他节点运行的,因此registry不存在问题。 尝试与我们的私人registry和docker.io # docker -D pull registry.abc.xyz.com/behzad_dastur/brokermon:0.1 Trying to pull repository registry.abc.xyz.com/brd/brokermon … 0.1: Pulling from brd/brokermon not found Error: image brd/brokermon:0.1 not found # docker pull alpine:latest Trying to pull repository docker.io/library/alpine … latest: Pulling from library/alpine not […]

Openshift – 在数据中心之间分配副本

我在一个有2个数据中心的客户端工作。 我们正在build立一个在两个数据中心都有节点的Openshift集群。 为了实现高可用性,我们希望应用程序至less运行2个吊舱,每个吊舱必须运行在不同的数据中心。 Openshift最好的做法是什么? 是否需要创build两个部署configuration,其中每个configuration都针对不同的数据中心节点? 还是有可能只有一个部署configuration,并且让Openshift始终保证在两个不同数据中心的两个不同节点上启动相同部署configuration的pod? 谢谢。

Google烘焙容器的源代码

我在哪里可以find像这个zookeeper的Google烘焙容器的源代码? gcr.io/google_containers/kubernetes-zookeeper 干杯

“curl:(8)奇怪的服务器回复”从kubernetes

我正在尝试从Kubernetes内运行的容器中使用Python Rest API调用。 我能够使用吊舱内的服务 *curl http://localhost:5002/analyst_rating -v * Trying 127.0.0.1… * Connected to localhost (127.0.0.1) port 5002 (#0) > GET /analyst_rating HTTP/1.1 > Host: localhost:5002 > User-Agent: curl/7.47.0 > Accept: */* > * HTTP 1.0, assume close after body < HTTP/1.0 200 OK < Content-Type: application/json < Content-Length: 37 < Server: Werkzeug/0.12.2 Python/2.7.12 < Date: […]