Tag: kubernetes

Kubernetes如何使部署更新图像

我确实使用单个pod进行部署,使用我自定义的docker映像: containers: – name: mycontainer image: myimage:latest 在开发过程中,我想推送最新的最新版本并更新部署。 找不到如何做到这一点,没有明确定义标签/版本,并为每个版本增加,做 kubectl set image deployment/my-deployment mycontainer=myimage:1.9.1

如何最好地在kubernetes集群中运行一次性迁移任务

在将新版本的应用程序部署到Kubernetes集群之前,我想要运行数据库迁移。 我希望这些迁移作为持续交付pipe道的一部分自动运行。 迁移将被封装为一个容器映像。 什么是实现这一目标的最佳机制? 解决scheme的要求: 能够确定迁移是否失败,以便我们随后不尝试将新版本的应用程序部署到群集中。 放弃如果迁移失败 – 不要继续重试。 能够访问日志来诊断失败的迁移。 我曾经假设Kubernetes中的Jobsfunction会让这一切变得简单,但似乎有一些挑战: Kubernetes会反复重新运行进程以非零退出代码终止的容器 ,即使作业有never 。 阻塞等待排队工作的结果似乎需要手卷脚本 会使用“裸荚”是一个更好的方法? 如果是这样的话,那会怎样呢?

在AWS中的现有VPC内创buildkubernetes集群

要在AWS中创buildkubernetes集群,我使用设置脚本“ https://get.k8s.io ”。 该脚本自动创build新的VPC,但是我想在AWS中的现有VPC内部创buildkubernetes集群。 有没有办法做到这一点? 我检查了/kubernetes/cluster/aws/config-default.sh文件,但似乎没有关于VPC的任何环境variables。

在Kubernetes上的分期和生产

我为两个名称空间共享相同的集群: 分段和生产 。 这两个命名空间的唯一区别是: 将卷装载到特定的窗格(显然,在分段和生产之间是分开的)。 一些相对寻址的url 一些IP用于复杂的持久性数据库 我设法解决(2)和(3) ,如下所示,以便为所有ReplicationController维护单个YAML文件: 对命名空间使用本地ConfigMaps来定义通过环境variables传递到窗格中的任何configuration 使用端点 服务处理指向不同内部IP的DNS条目 然而,我无法find一个令人满意的方式来引用一个gcePersistentDisk的pdName – 我似乎无法使用ConfigMap ,因此有点难倒。 这将是什么适当的方式呢? 最好的select似乎是使用不同的string来维护2个独立的YAML文件,但是这样会产生代码异味,因为它违反了DRY 。 另外,我上面提到的其他设置的任何build设性的评论是高度赞赏:-)

在Kubernetes中启动Kestrel的ASP.NET Core 2.0错误

创build了一个新的ASP.NET Core 2.0项目,它在本地运行良好。 然后在本地运行在Docker容器中后,它也可以正常工作。 但是当我尝试在Kubernetes窗格中使用Docker镜像时,它会运行几分钟,然后给我这个: Unhandled Exception: System.InvalidOperationException: A path base can only be configured using IApplicationBuilder.UsePathBase(). at Microsoft.AspNetCore.Server.Kestrel.Core.Internal.AddressBinder. <BindAddressAsync>d__7.MoveNext() 这是我的Program.cs : public class Program { public static void Main(string[] args) { BuildWebHost(args).Run(); } public static IWebHost BuildWebHost(string[] args) => WebHost.CreateDefaultBuilder(args) .UseStartup<Startup>() .Build(); } Startup.cs : public class Startup { public Startup(IConfiguration configuration) { Configuration […]

kubernetes无法连接新的CoreOS安装

我正在运行(从Windows 8.1)一个用于CoreOS ( yungsang / coreos )的Vagrant虚拟机。 我根据我在这里find的指南安装了kubernetes,并使用我的图像创build了pod的json。 当我执行sudo ./kubecfg list /pods出现以下错误: F0909 06:03:04.626251 01933 kubecfg.go:182] Got request error: Get http://localhost:8080/api/v1beta1/pods?labels=: dial tcp 127.0.0.1:8080: connection refused 同样适用于sudo ./kubecfg -h http://127.0.0.1:8080 -c /vagrant/app.json create /pods 编辑: 更新 我不是自己运行命令,而是集成到stream浪文件中( 如此 )。 这使得kubernetes工作正常。 但一段时间后,我的stream浪ssh连接closures。 我重新连接,我指定的任何kubernetes命令导致与上面相同的错误。 编辑2: 更新 我设法让它再次运行,但我不确定它是否会顺利运行 我不得不重新执行下面的命令。 sudo systemctl start etcd sudo systemctl start download-kubernetes sudo […]

Kubernetes和Amazon ECS有什么不同?

Amazon ECS和Kubernetes实施体系结构有什么区别? 我需要决定select一种云中的容器pipe理技术。 select这些技术时决定的因素是什么? 我正在使用Docker来创build和执行容器。

Kubernetes NFS卷挂载失败,退出状态为32

我的Ubuntu机器上安装了Kubernetes安装程序。 我试图设置一个nfs卷,并根据这个http://kubernetes.io/v1.1/examples/nfs/文件将其挂载到一个容器。 nfs服务和podconfiguration kind: Service apiVersion: v1 metadata: name: nfs-server spec: ports: – port: 2049 selector: role: nfs-server — apiVersion: v1 kind: Pod metadata: name: nfs-server labels: role: nfs-server spec: containers: – name: nfs-server image: jsafrane/nfs-data ports: – name: nfs containerPort: 2049 securityContext: privileged: true podconfiguration挂载nfs卷 apiVersion: v1 kind: Pod metadata: name: nfs-web spec: containers: […]

Kubernetes – kubectl exec bash – 会话下拉和线宽

我有k8s集群与3个奴才,主人和haproxy在前面。 当我使用 kubectl exec -p $POD -i -t — bash -il 为了访问pod中的bash(在这种情况下,它是一个单独的容器),我进入后,像5分钟后,我终于从terminal退出。 如果我重新进入容器,我可以看到我的旧bash进程正在运行,并为我的新连接启动了一个新的进程。 有没有办法来防止这种情况发生? 当我使用docker执行它工作正常,不会掉我,所以我想这是从kubernetes。 作为一个额外的问题 – 有没有办法增加每行使用kubectl exec时的字符? 我得到不同于docker exec的截断输出。 提前致谢!

运行kubernetes autoscalar

我有一个复制控制器运行以下规范: apiVersion: v1 kind: ReplicationController metadata: name: owncloud-controller spec: replicas: 1 selector: app: owncloud template: metadata: labels: app: owncloud spec: containers: – name: owncloud image: adimania/owncloud9-centos7 ports: – containerPort: 80 volumeMounts: – name: userdata mountPath: /var/www/html/owncloud/data resources: requests: cpu: 400m volumes: – name: userdata hostPath: path: /opt/data 现在我使用autoscale命令运行hpa。 $ kubectl autoscale rc owncloud-controller –max=5 –cpu-percent=10 […]