Tag: kubernetes

如何为dockerconfigurationpolipo的HTTP代理来部署Kubernetes

我是Docker的初学者。 想知道这是否是一个好的做法,那么最好的办法是什么? 系统:Ubuntu LTS 16.04.2 我想用代理服务器在我的服务器上部署Kubernetes。 由于某些问题,我使用polipo将sock5代理转换为http代理。 http代理已成功应用于terminal。 然后我search: https : //docs.docker.com/engine/admin/systemd/#http-proxy ,我在/etc/systemd/system/docker.service.d/http-proxy中添加了HTTP_PROXY环境variables。 conf : [服务] Environment =“HTTP_PROXY = http://127.0.0.1:8123/ ” 然后这样做: $ sudo systemctl show –property环境docker Environment = HTTP_PROXY = http://127.0.0.1:8123/ $ sudo systemctl守护进程重新加载 $ sudo systemctl restart docker 然后我成功安装kubelet kubeadm kubectl kubernetes-cni ,我运行这个命令: #kubeadm init 这里是操作的结果: root @ ubuntu16:〜#kubeadm init [kubeadm]警告:kubeadm处于testing阶段,请不要将其用于生产群集。 [init]使用Kubernetes版本:v1.8.2 [init]使用授权模式:[Node […]

Java:连接到在minikube中运行的Redis群集

我有一个Redis集群,有3个主站和3个从站在minikube中运行。 PS D:\redis\main\kubernetes-redis-cluster> kubectl exec -ti redis-1-2723908297-prjq5 — /bin/bash root@redis-1:/data# redis-cli -p 7000 -c 127.0.0.1:7000> cluster info cluster_state:ok cluster_slots_assigned:16384 cluster_slots_ok:16384 cluster_slots_pfail:0 cluster_slots_fail:0 cluster_known_nodes:6 cluster_size:3 cluster_current_epoch:6 cluster_my_epoch:2 cluster_stats_messages_ping_sent:9131 cluster_stats_messages_pong_sent:9204 cluster_stats_messages_meet_sent:3 cluster_stats_messages_sent:18338 cluster_stats_messages_ping_received:9202 cluster_stats_messages_pong_received:9134 cluster_stats_messages_meet_received:2 cluster_stats_messages_received:18338 127.0.0.1:7000> cluster nodes de9a4780d93cb7eab8b77abdaaa96a081adcace3 172.17.0.7:7000@17000 slave ee4deab0525d054202e612b317924156ff587021 0 15099603 02577 4 connected b3a3c05225e0a7fe8ae683dd4316e724e7a7daa6 172.17.0.5:7000@17000 myself,master – 0 1509960301000 2 connected 5461-10922 […]

kubernetes无法为简单的RC创buildpod

我build立了一个本地的一体化Kubernetes env。 我按照下面的步骤来安装。 当我尝试创build我的第一个RC时,RC成功创build,但是该Pod没有创build: Env:CentOS7 #systemctl disable firewalld #systemctl stop firewalld #yum install -y etcd kubernetes #systemctl start etcd #systemctl start docker #systemctl start kube-apiserver #systemctl start kube-controller-manager #systemctl start kube-scheduler #systemctl start kubelet #systemctl start kube-proxy 所有服务开始成功。 MySQL的-rc.yaml: apiVersion: v1 kind: ReplicationController metadata: name: mysql spec: replicas: 1 selector: app: mysql template: metadata: labels: […]

无法在Kubernetes中的工作器节点上启动法兰绒networking

将工作节点join群集时,我在工作节点上收到以下错误消息: Nov 07 14:39:58 xyz.com kubelet[43868]: W1107 14:39:58.218433 43868 conversion.go:110] Could not get instant cpu stats: different number of cpus Nov 07 14:39:58 xyz.com kubelet[43868]: W1107 14:39:58.219198 43868 conversion.go:110] Could not get instant cpu stats: different number of cpus Nov 07 14:39:58 xyz.com kubelet[43868]: W1107 14:39:58.220195 43868 conversion.go:110] Could not get instant cpu stats: different […]

在Kubernetes的容器绑定安装

我有一个遗留的应用程序,在操作系统分区(例如/ config /)上的一个目录中存储一些config/stats ,我试图将其作为Kubernetes集群中的有状态容器来运行。 我能够运行它作为一个容器,但由于容器的固有临时性,无论我的容器写入操作系统分区目录/ config /的任何数据在容器停机/销毁时都会丢失。 我有Kubernetes部署文件以这样一种方式写的容器恢复生活,尽pipe作为一个新的实例在同一个主机或另一个主机上,但这个新的容器不能访问由先前的实例写入的数据容器。 如果是Docker容器,我可以使用bind-mounts来实现这个function,这样无论容器写入操作系统分区目录的什么数据都保存在主机目录中,这样任何新的实例都可以访问先前实例写入的数据。 但是我在Kubernetes找不到替代品。 我可以使用主机pathconfiguration,但现在主机pathconfiguration仅适用于单节点kubernetes群集。 有没有一种方法可以在多节点Kubernetes集群中工作? 除了hostpathconfiguration以外的任何其他选项? 我可以让容器相互交谈并同步节点之间的数据,但是我们如何将主机目录绑定到容器? 感谢您的帮助提前!

docker图片的部署

我有一个docker形象。 每当我运行容器,我需要提供外部input文件的容器,然后一些命令。 所以,如果我将这个映像部署到kubernetes,那么我应该如何在连续运行的情况下提供数据。 任何线索将不胜感激。

使用Azure容器服务dynamic启动容器

我正试图弄清楚如何转移实现内部部署的企业应用程序,以便能够在Microsoft Azure容器服务产品Azure中运行。 目前,我们的应用程序是作为Windows服务运行的,主服务进程本质上充当一个subprocess的N个实例的命令和控制模块,每个subprocess都是一个长期运行的有状态的服务。 这些subprocess目前是作为常规的.Net控制台应用程序来实现的,每个应用程序连接到一个不同的实时通讯端点,并对来自该连接的事件作出反应。 我们目前的操作方式是主服务收到一条消息,应该启动这些subprocess之一,然后生成该subprocess的一个实例,并将任何特定于实例的configuration值作为命令行parameter passing。 主stream程然后监视和监视subprocess; 它目前还处理向孩子分发消息和事件,尽pipe在将来这可能会被使用具有某种风味的消息总线所取代。 在我看来,我应该能够通过将subprocess或类似的东西打包成一个Docker镜像来实现同样的目标。 当前的命令行参数会转化为环境variables。 我很难确定我将如何处理编排,以类似的方式按需要启动这些子stream程。 我想利用现在可用的托pipeKubernetes服务的优势,来处理在集群中分配这些subprocess映像的后勤和扩展 – 根据使用情况,我可能会有大量不同的后端需要的图像。 在部署时,我不知道可能需要多less个subprocess,并且可以随时启动和停止。 我所看到的大多数例子似乎暗示部署基本是静态的; 他们可能会缩放一个图像的多个副本,但这些图像是相同的,而我试图做的每个图像将被传递不同的每个实例的configuration。 我想我可以用暴露web服务或订阅事件馈送/服务总线的应用程序replace当前的命令和控制Windows服务,然后将shell命令提供给kubectl以按需configuration启动必要的映像,但是这似乎很脆弱,很多工作。 必须有更好的方法来满足这种用例,对吗?

kubernetes-dashboard – authentication

对不起,我的愚蠢问题,但我相对较新的Docker。 我已经安装了Docker和Kubernetes集群。 还部署一个kubernetes仪表板。 Docker,Kubernetes和所有的容器都在运行。 本地通过kubectl代理是仪表板可用(使用wget),但现在我需要从另一台计算机打开仪表板。 我知道,这是关于authentication的types,但我真的不知道在哪里设置。 请,你能帮我吗? 谢谢

Google Cloud:Kubernetes无法findtensorflow_model_server

我正在尝试使用TensorFlow Serving和Kubernetes服务初始模型中的教程部署Inception-v3模型 一切都很好,直到我运行命令: kubectl create -f tensorflow_serving/example/inception_k8s.yaml terminal输出build议成功创build服务“开始服务”和部署“开始部署”。 但是,当我跑时: kubectl get pods 我收到这个输出: NAME READY STATUS RESTARTS AGE inception-deployment-2217120516-ntmfl 0/1 CrashLoopBackOff 6 8m inception-deployment-2217120516-s8xlx 0/1 CrashLoopBackOff 6 8m inception-deployment-2217120516-tnzbl 0/1 CrashLoopBackOff 6 8m 通过获取第一个吊舱的日志,我得到了关于错误的信息。 运行: kubectl logs inception-deployment-2217120516-ntmfl 返回这个: /bin/sh: 1: serving/bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server: not found 我能够在本地运行服务器,但是在tensorflow服务启动-k8s.yaml文件中使用的映像没有模型服务器。 这怎么解决? 我一直在试图解决这个问题

Kubernetes kube-dns在crashloop中暂停容器,添加networking时出错:statfs \“/ proc / 54226 / ns / net \”失败:

我有一个Kubernetes onebox部署与以下(集装箱)组件,都运行–net=host ,kubelet运行作为特权的Docker容器与kubernetes标志–allow-privileged允许–allow-privileged设置为true。 gcr.io/google_containers/hyperkube-amd64:v1.7.9 "/bin/bash -c './hype" kubelet gcr.io/google_containers/hyperkube-amd64:v1.7.9 "/bin/bash -c './hype" kube-proxy gcr.io/google_containers/hyperkube-amd64:v1.7.9 "/bin/bash -c './hype" kube-scheduler gcr.io/google_containers/hyperkube-amd64:v1.7.9 "/bin/bash -c './hype" kube-controller-manager gcr.io/google_containers/hyperkube-amd64:v1.7.9 "/bin/bash -c './hype" kube-apiserver quay.io/coreos/etcd:v3.1.0 "/usr/local/bin/etcd " etcd 最重要的是,我启用了使用kubectl create -f https://github.com/kubernetes/kubernetes/blob/master/test/kubemark/resources/manifests/kube-addon-manager.yaml的插件pipe理器kubectl create -f https://github.com/kubernetes/kubernetes/blob/master/test/kubemark/resources/manifests/kube-addon-manager.yaml ,默认yamlperformance为挂载到/etc/kubernetes/addons/棉布2.6.1和kube-dns 1.14.5。 印花布吊舱出现了两个节点(install-cni和calico-node)。 但是,kube-dns卡在ContainerCreating或ContainerCannotRun中,尝试启动Kubernetes暂停容器时出现以下错误: {"log":"I1111 00:35:19.549318 1 manager.go:913] Added container: \"/kubepods/burstable/pod3173eef3-c678-11e7-ac4b-e41d2d59689e/1dd57d6f6c996d7abe061f6236fc8a0150cf6f95d16d5c3c462c9ed7158d3c54\" (aliases: [k8s_POD_kube-dns-v20-141138543-pmdww_kube-system_3173eef3-c678-11e7-ac4b-e41d2d59689e_0 1dd57d6f6c996d7abe061f6236fc8a0150cf6f95d16d5c3c462c9ed7158d3c54], namespace: \"docker\")\n","stream":"stderr","time":"2017-11-11T00:35:19.5526284Z"} […]