Tag: kubernetes

如何在VM中创build本地kubernates群集?

我有一套Docker镜像在GKE的Kubernates集群上运行。 我有一个运行在GKE虚拟机上的Jenkins服务器。 我有Docker构build和GKE部署在Jenkins服务器上运行,但是我想在成功构build后在Jenkins服务器上启动一个“本地”集群,在集群中运行我的docker,对集群运行testing,然后closures在将泊坞窗图像部署到GKE之前,请先closures本地群集。 我知道minikube ,但他们声明,你不能运行嵌套虚拟机,我想知道这是否阻止我的梦想testing我的集群部署之前呢? 我必须在物理服务器上运行我的本地集群才能运行我的testing,还是有解决我的问题?

在kubernetes pods /容器上应用自定义SELinux策略

我最近开始玩kubernetes提供的PodsSecurityPolicies。 所以,据我所知,在这个时间点上,有几个参数可以应用到一个pod或一个容器级别,以实现组件之间的一定程度的安全性和隔离。 但是,我已经读过不同的边缘情况,可以在需要应用自定义SELinux策略的容器级别出现,因为SELinux提供了当前可用于容器的最佳安全分离。 例如: 扩展容器的SELinux策略 简而言之,我的问题是如果在集群中应用自定义策略变得绝对必要? 或者我们可以假设,通过应用正确的安全策略,我们可以实现最大限度的容器隔离?

在kubernetes上的Gitlab亚军

我想使用kubernetes gitlab亚军。 我有一个服务器1上的gitlab实例和服务器2上的kubernetes(使用gitlab runner)。 我用kubeadm和法兰绒networking吊舱安装了kubernetes。 当我启动构build时,我可以连接kubernetes。 但是,这个工作没有运行。 我有这个错误: Post https://<master_ip>:<master_port>/api/v1/namespaces/gitlab/pods: x509: certificate signed by unknown authority 所以我知道这是一个ssl问题。 我必须创build一个SSL证书? 以及如何和哪个论点? 感谢帮助

docker如何与IBM WebSphere一起工作?

过去几天我一直在读docker。 我所从事的传统系统是使用IBM Websphere生态系统。 前面有一个负载均衡器。 负载均衡器将请求路由到不同的节点。 节点下面有簇。 集群可以有许多JVM。 我可以使用docker而不是JVM和相关服务器。但是节点和负载平衡器将保持在那里。这是正确的理解吗? 如果是的话,我们将在哪里有docker群? Docker Swarm通常用于在多个Docker容器之间进行协调。 但是这里的集群应该在不同的docker之间分配数据。 同样的道理,我不能理解Kubernetes将被插入到哪里,因为我了解的方式是kubernetes将帮助不同docker集装箱之间的负载均衡等。负载平衡将由websphere插件完成。 kubernetes在这里需要什么?

分布广泛和深入与tf.contrib.learn例如卡住k8s

我是分布式张量stream的新手。 我尝试在一个节点k8s集群上运行分布式的广泛和深度的例子,但工作任务都卡在INFO:tensorflow:Create CheckpointSaverHook. 在localhost和docker中testing都可以。 这是我的代码。 https://github.com/zhoudongyan/wide-and-deep docker版本:17.03.1-ce k8s版本:v1.6.3 tensorflow版本:1.1.0,python3 os:ubuntu 14.04 64bit 任何人都知道如何正确运行它? 非常感谢!

Cloud SDK命令gsutil config -a

我正在尝试在我的Dockerfile中包含Google存储的凭据,这样我就不必每次在Kubernetes中创build一个新的Pod或另一个模块。 那么有没有办法像这样把这个命令 gsutil config -a (Access Key) (Secret) 而不是运行命令 gsutil config -a 然后手动插入(访问密钥)和(秘密)。 谢谢

为什么kubernetes-scheduler和controller-manager在etcd master(三个节点)

我build立了一个有三个节点的主集群(k8s)。 但是有两个问题: etcd在每个节点上login报告两个警告:(1)。 申请条目花费时间太长[11.167451ms for 1 entries](2)。 没有及时发出心跳我可能知道这是从谷歌磁盘太慢,但我无法解决它 API服务器或Kubernetes-sheduler或Controller-Manager依赖etcd,有时启动时不能启动或停止(日志可能报告etcd服务器超时) 你可以帮我吗?

无法通过从外部私有registry中提取图像来启动minikube中的窗格

我的笔记本电脑上安装了一个ubuntu。 我开始了一个私人dockerregistry(ssl启用+ htpasswd安全),并将其添加到覆盖networking(所以它可以从其他主机/ vms访问) 这里是代码(docker-compose.yaml): version: "3" services: registry: restart: always image: registry:2 ports: – 5000:5000 environment: REGISTRY_HTTP_TLS_CERTIFICATE: /certs/domain.crt REGISTRY_HTTP_TLS_KEY: /certs/domain.key REGISTRY_AUTH: htpasswd REGISTRY_AUTH_HTPASSWD_PATH: /auth/htpasswd REGISTRY_AUTH_HTPASSWD_REALM: Registry Realm volumes: – /certs:/certs – ~/caas_rd/workspace/ci_cd_pipeline/registry_setup:/auth networks: – overlaynetwork networks: overlaynetwork: 所以我的registry运行在以下链接(与DNS,我可以validation它在浏览器中): https:// home-thinkpad-t420s:5000 / v2 / _catalog 现在我在笔记本电脑上安装了“Minikube”。 &&ssh它由“minikube ssh”。 我在minikube vm上创build了一个文件夹“/etc/docker/certs.d”,按照说明添加了证书: https://docs.docker.com/engine/security/certificates/#understanding-the-configuration 我还在/etc/ssl/certs/ca-certificates.crt上修改了/ etc / hosts […]

在容器中使用kerberos,在openshift / kubernetes内部

我能够得到Kerberos身份validationfunction,为我们的Web应用程序的独立docker安装。 我们的webapp是NodeJS。 但是,当我尝试在OpenShift内部部署POD时,它停止运行。 看起来authentication头文件在翻译中丢失了。 完全相同的集装箱化的应用程序,给我们这个错误在Openshift内,但不是在docker。 错误:{错误:authenticate_gss_server_init(gss_acquire_cred):未指定的GSS失败。 次要代码可能提供更多信息:找不到匹配http / @代码的关键表项:-1} 这没有任何意义,因为我创build了SPN并从AD中导出,并将其添加到hosts /etc/krb5.keytab文件中。 我们尝试了其他方法,将POD附加到域。 我不相信这是一个真正的解决scheme,更多的是用于testing目的。 一旦我们将PODjoin到域名中,并将SPN拉下。 我们没有收到这个错误,我们只是没有收到任何validation头。 如果我运行kinit,我可以成功提供凭据或密钥表文件并获得一张票。 所以我知道Kerberos本身似乎在运作。 只是不是NodeJS库。 在此澄清,我不是开发人员创build这个应用程序,但是如果需要,我可以与他们交谈。

CrashLoopBackOff在kubernetes的spark集群中:nohup:不能执行' – ':没有这样的文件或目录

Dockerfile: FROM openjdk:8-alpine RUN apk update && \ apk add curl bash procps ENV SPARK_VER 2.1.1 ENV HADOOP_VER 2.7 ENV SPARK_HOME /opt/spark # Get Spark from US Apache mirror. RUN mkdir -p /opt && \ cd /opt && \ curl http://www.us.apache.org/dist/spark/spark-${SPARK_VER}/spark-${SPARK_VER}-bin-hadoop${HADOOP_VER}.tgz | \ tar -zx && \ ln -s spark-${SPARK_VER}-bin-hadoop${HADOOP_VER} spark && \ echo Spark […]