Tag: kubernetes

Kubernetes多节点上的Kafka

所以我的目标是以分散的方式build立几个卡夫卡经纪人集群。 但我看不出让经纪人意识到对方的方法。 据我了解,每个经纪人都需要在他们的configuration中有一个单独的ID,如果我从kubernetes启动容器,我不能保证或configuration。 他们还需要有相同的advertised_host? 有什么参数我错过了,需要改变的节点发现彼此? 在Dockerfile的末尾用脚本做这样的configuration是否可行? 和/或共享音量? 我目前正在尝试在香草Kubernetes上使用具有预configuration的zookeeper + kafka组合的spotify / kafka-image。

Docker Swarm和Kubernetes / Mesophere有何区别?

据我所知,Kubernetes / Mesosphere是一个集群pipe理器,Docker Swarm是一个编排工具。 我想了解他们是如何不同? Docker Swarm类似于Docker世界中的POSIX API,而Kubernetes / Mesosphere是不同的实现? 或者他们是不同的层次?

kubernetes pod无法连接(通过服务)到自己,只能连接到其他pod-containers

我有一个kubernetes单节点设置(请参阅https://coreos.com/kubernetes/docs/latest/kubernetes-on-vagrant-single.html ) 我有一个服务和复制控制器创build窗格。 这些豆荚需要连接到同一服务中的其他豆荚(注意:这最终是为了让我可以运行带有副本集(非本地主机)的mongo,但是这个简单的例子说明了mongo具有的问题)。 当我从任何节点连接到服务时,它将被分配(如预期)到其中一个容器。 这将工作,直到它负载平衡本身(我所在的容器)。 然后它连接失败。 对不起,我要把所有的文件都附上来,这样你就可以看到我在这个小例子中做了什么。 Dockerfile: FROM ubuntu MAINTAINER Eric H RUN apt-get update; apt-get install netcat EXPOSE 8080 COPY ./entry.sh / ENTRYPOINT ["/entry.sh"] 这是入口点 #!/bin/bash # wait for a connection, then tell them who we are while : ; do echo "hello, the date=`date`; my host=`hostname`" | nc -l 8080 sleep […]

Kubernetes:除了一个,Docker pod启动失败

我们正在Google容器引擎上运行Jetty服务。 这一个服务运行得很好,在与rc的吊舱。 我们可以closures它,重build它,并做所有的事情,它仍然会工作。 现在我们想用一个运行其他东西的debian映像来扩展我们的基础架构。 在本地,docker工作正常,我们可以访问debian的命令行。 一旦我们尝试在云中运行Pod,我们就会遇到问题。 我们使用的Dockerfile包含:FROM debian:latest然后我们运行下面的命令: docker build -t eu.gcr.io/project_id/debstable:stable . gcloud docker push eu.gcr.io/project_id/debstable:stable kubectl run debstable –image=eu.gcr.io/project_id/debstable:stable 该吊舱收到CrashLoopBackOff STATUS并继续重新启动。 部分日志显示了这一点: I0120 14:19:58.438979 3479 kubelet.go:2012] SyncLoop (ADD): "debstable-blvdi_default" I0120 14:19:58.478235 3479 manager.go:1707] Need to restart pod infra container for "debstable-blvdi_default" because it is not found I0120 14:20:00.025467 3479 server.go:944] GET /stats/default/debstable-blvdi/e2ab2ffc-bf80-11e5-a1d8-42010af001a5/debstable: (100.384µs) […]

在Ubuntu 16.04上的kubernetes

我正在testing和学习kubernetes。 我使用Ubuntu 16.04,一直在寻找简单而直接的安装指南,但没有find一个…任何build议? 我的目标是能够在一台Ubuntu 16.04笔记本电脑上运行kubernetes作为主服务器,之后再设置第二台Ubuntu 16.04笔记本电脑,轻松join群集。 我不知道这是否可以实现与当前版本的kubernetes和16.04版本的ubuntu …任何指向指南或有用的资源将不胜感激…最好的问候。

kubernetes无法连接新的CoreOS安装

我正在运行(从Windows 8.1)一个用于CoreOS ( yungsang / coreos )的Vagrant虚拟机。 我根据我在这里find的指南安装了kubernetes,并使用我的图像创build了pod的json。 当我执行sudo ./kubecfg list /pods出现以下错误: F0909 06:03:04.626251 01933 kubecfg.go:182] Got request error: Get http://localhost:8080/api/v1beta1/pods?labels=: dial tcp 127.0.0.1:8080: connection refused 同样适用于sudo ./kubecfg -h http://127.0.0.1:8080 -c /vagrant/app.json create /pods 编辑: 更新 我不是自己运行命令,而是集成到stream浪文件中( 如此 )。 这使得kubernetes工作正常。 但一段时间后,我的stream浪ssh连接closures。 我重新连接,我指定的任何kubernetes命令导致与上面相同的错误。 编辑2: 更新 我设法让它再次运行,但我不确定它是否会顺利运行 我不得不重新执行下面的命令。 sudo systemctl start etcd sudo systemctl start download-kubernetes sudo […]

Kubernetes和Amazon ECS有什么不同?

Amazon ECS和Kubernetes实施体系结构有什么区别? 我需要决定select一种云中的容器pipe理技术。 select这些技术时决定的因素是什么? 我正在使用Docker来创build和执行容器。

Kubernetes NFS卷挂载失败,退出状态为32

我的Ubuntu机器上安装了Kubernetes安装程序。 我试图设置一个nfs卷,并根据这个http://kubernetes.io/v1.1/examples/nfs/文件将其挂载到一个容器。 nfs服务和podconfiguration kind: Service apiVersion: v1 metadata: name: nfs-server spec: ports: – port: 2049 selector: role: nfs-server — apiVersion: v1 kind: Pod metadata: name: nfs-server labels: role: nfs-server spec: containers: – name: nfs-server image: jsafrane/nfs-data ports: – name: nfs containerPort: 2049 securityContext: privileged: true podconfiguration挂载nfs卷 apiVersion: v1 kind: Pod metadata: name: nfs-web spec: containers: […]

Kubernetes – kubectl exec bash – 会话下拉和线宽

我有k8s集群与3个奴才,主人和haproxy在前面。 当我使用 kubectl exec -p $POD -i -t — bash -il 为了访问pod中的bash(在这种情况下,它是一个单独的容器),我进入后,像5分钟后,我终于从terminal退出。 如果我重新进入容器,我可以看到我的旧bash进程正在运行,并为我的新连接启动了一个新的进程。 有没有办法来防止这种情况发生? 当我使用docker执行它工作正常,不会掉我,所以我想这是从kubernetes。 作为一个额外的问题 – 有没有办法增加每行使用kubectl exec时的字符? 我得到不同于docker exec的截断输出。 提前致谢!

运行kubernetes autoscalar

我有一个复制控制器运行以下规范: apiVersion: v1 kind: ReplicationController metadata: name: owncloud-controller spec: replicas: 1 selector: app: owncloud template: metadata: labels: app: owncloud spec: containers: – name: owncloud image: adimania/owncloud9-centos7 ports: – containerPort: 80 volumeMounts: – name: userdata mountPath: /var/www/html/owncloud/data resources: requests: cpu: 400m volumes: – name: userdata hostPath: path: /opt/data 现在我使用autoscale命令运行hpa。 $ kubectl autoscale rc owncloud-controller –max=5 –cpu-percent=10 […]