Tag: kubernetes

安装Kubernetes集群后只有一个节点

遵循官方指南,在Vagrant上安装kubeadm Kubernetes集群。 https://kubernetes.io/docs/getting-started-guides/kubeadm/ 主 节点1 节点2 主 # kubeadm init –apiserver-advertise-address=192.168.33.200 # sudo cp /etc/kubernetes/admin.conf $HOME/ # sudo chown $(id -u):$(id -g) $HOME/admin.conf # export KUBECONFIG=$HOME/admin.conf # wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml # kubectl apply -f kube-flannel.yaml 节点1和节点2 # kubeadm join –token <token> 192.168.33.200:6443 … [kubeconfig] Wrote KubeConfig file to disk: "/etc/kubernetes/kubelet.conf" Node join complete: * Certificate signing […]

使用Docker和Kubernetes进行Tomcat部署

我对kubernetes非常陌生,它是如何工作的,但我知道它的定义。 我想看看它是如何工作的。 我对docker工具和它的function很安静。我有这个任务,我想很快完成。 你能不能指导我一步一步地走下去。 创build一个运行Tomact的Docker镜像。 它应该运行的端口是5000. tomcat应用程序应该使用kubernetes在Docker容器中以集群模式运行centos。 您可以在解决scheme中使用任何开源负载平衡器(如HAproxy)。 需要build立监控,确保系统资源得到正确利用。 您可以select您自己的监测解决scheme,如Promethues,Sensu,Nagios,Zabbix等。您也可以附加仪表板。 Docker容器应该将日志文件永久存储在Docker守护进程正在运行的基本机器中。 您可以自由使用任何configurationpipe理工具,如SaltStack,Ansible,Puppet,Chef等。 我已经完成了在这两台机器上启动2 aws ec2 ubuntu实例并安装docker。 接下来我应该做什么?

Kubernetes吊舱正在运行,但dockerPS不给任何输出

我一直在尝试使用kubernetes在群集上的端口5000上运行tomcat容器。 但是当我使用kubectl创build-f tmocat_pod.yaml时,它会创buildpod,但是docker ps不会提供任何输出。 为什么这样? 理想情况下,当它运行一个吊舱时,意味着它正在该吊舱内运行一个容器,并且该容器是在yaml文件中定义的。 为什么docker ps不显示任何容器运行? 我正在关注以下url: http://containertutorials.com/get_started_kubernetes/k8s_example.html https://blog.jetstack.io/blog/k8s-getting-started-part2/ 我怎样才能让它运行,并看到端口5000上的浏览器上运行的tomcat。 谢谢Abhishek Somani

如何将Kubernetes调度程序委托给Yarn

我打算在当前托pipeHadoop的同一集群上运行Docker镜像。 为了避免资源使用冲突,我听说纱被分配为主。 但是,我不知道如何将它们连接起来。 我很可能会将Kubernetes调度程序委托给Yarn的应用程序主程序,但是我不知道如何在基础级别上做到这一点。 这是合理的吗? 我应该安装Kubernetes – Docker群集并手动pipe理资源使用情况吗? 提前致谢…

Kubernetes无法通过牧场主/服务器启动成功

环境 RancherOS 1.0.1 泊坞窗,1.12.6 牧场主/服务器1.5.10 使用Kubernetes环境模板创build了Kubernetes环境。 安装Kubernetes堆栈后,只有这个有时成功,但有时不成功: rancher/k8s:v1.5.4-rancher1-4 查看细节时可以看到: 它看起来像rancher/etc-host-updater:v0.0.2映像有时失败。 那么,牧场主/服务器可以在生产环境中成功运行并使用Kubernetes吗?

将其作为服务公开后,无法在kubernetes中运行tomcat容器

我在Google中创build了kubernetes集群,可以引擎。 我在kubernetes中运行两个豆荚,每个豆荚都运行tomcat容器。 我想通过我的浏览器或curl命令访问集群外部的这个tomcat应用程序。 我创build了一个服务作为负载平衡器给了我一个外部IP地址和端口。 当即时通讯尝试浏览http://:端口,它不响应,它说连接超时。 我也打开了这个IP地址和特定端口的防火墙。 有人可以帮我找出是否在这里丢失任何东西。 我已经跟随所有的文档,甚至试图运行它作为node_port服务,但也没有工作。 谢谢Abhishek Somani

同时访问k8上的docker.sock

我想请您提供以下问题的帮助/build议。 我们使用竹子作为我们的CI,我们有远程竹代理运行K8s。 在我们的构build中,当testing运行正确时,我们有创buildDocker镜像的步骤。 为了远程的竹代理,我们通过docker.socket公开了Docker。 当我们只有一个远程代理(testing它是如何工作的)时,一切正常,但是最近我们增加了远程代理的数量。 现在它发生的事情是,一个构build卡在Docker镜像构build步骤,不会移动。 我们必须停止构build并再次运行。 通常在日志中没有任何有用的信息,但一旦出现,这将出现。 24-May-2017 16:04:54任务“:…”的执行失败。 24-May-2017 16:04:54> Docker执行失败 24-May-2017 16:04:54命令行[docker build -t …]返回: 24-May-2017 16:04:54 time =“2017-05-24T16:04:54 + 02:00”level = info msg =“设备或资源忙” 这就是我们的k8s deployment样子: apiVersion: extensions/v1beta1 kind: Deployment metadata: name: bamboo-agent namespace: backend-ci spec: replicas: 5 template: metadata: labels: app: bamboo-agent spec: containers: – name: bamboo-agent stdin: true resources: […]

扩展Docker JBoss WildFly服务器不工作

希望一切都好。 Env:centos 7.3.1611,kubernetes:1.5,docker 1.12 问题1:扩展的jboss docker无法正常工作,但是docker image成功创build POD得到一个错误见下面,第7步。 问题2:一旦问题#1固定,然后我想上传到docker集线器: https : //hub.docker.com/ 如果可能,我如何上传步骤。 1) pull docker pull jboss/wildfly 2) vi Dockerfile FROM jboss/wildfly RUN /opt/jboss/wildfly/bin/add-user.sh admin admin123$ –silent CMD ["/opt/jboss/wildfly/bin/standalone.sh", "-b", "0.0.0.0", "-bmanagement", "0.0.0.0"] 3) Extend docker image docker build –tag=nbasetty/wildfly-server . 4) [root@centos7 custom-jboss]# docker images REPOSITORY TAG IMAGE ID CREATED SIZE nbasetty/wildfly-server latest […]

在kubernetes掌舵如何用新的configuration值来replace一个pod

我正在使用舵图来configurationpipe理configuration的“configmap”的豆荚。 我直接编辑configmap以更改configuration文件,然后使用kubectl delete删除窗格,以使新configuration生效。 有没有简单的方法使用helm来replace正在运行的pod与新的configuration, 而不执行“ kubectl删除 ”命令

如何从远程私人registry中将新的docker镜像拉到openshift群集节点上?

在https://blog.openshift.com/remotely-push-pull-container-images-openshift/ (和其他来源)中指定的所有步骤在主服务器上完美工作,但它不能帮助我从节点拉。 细节: 在master和两个节点上login到registry:docker login https://my.registry:5000 在master上创build新的秘密: oc secrets new my.registry .dockerconfigjson = / root / .docker / config.json (节点上不能这样做,因为它们没有oc实用程序) 在我目前的项目中为默认帐户添加了秘密: oc secrets add serviceaccount / default secrets / my.registry –for = pull 现在,当我进行新的部署时,在主服务器上创build的Pod将启动得非常好(主服务器将能够提取所需的图像),但是节点上的Pod将无法启动,除非使用Docker拉手动拖动它们。 那么我怎样才能使我的openshift(起源)集群的所有节点与指定的默认帐户拉图像?