Tag: 崩溃

MySQL容器崩溃后在/etc/mysql/my.cnf改变,如何编辑回去?

我改变了一些MySQL的configuration设置,并设置错误,现在的Docker容器不断重新启动,我找不到my.cnf文件在主机文件系统中编辑。 我已经尝试过aufs / diff文件夹,但是到目前为止找不到它。 还试过: find / -name my.cnf -exec nano {} \; 但它并没有提出我改变的文件。 而我试图改变config.v2.json来启动/bin/bash而不是mysqld并重新启动docker,但是它却使用官方的mysql容器镜像启动了mysqld (由于主pipe或其他?)。

Logstash一开始崩溃

正如标题所述,Logstash一开始就崩溃了。 我通过Docker运行它。 这是我的输出: logstash_1 | {:timestamp=>"2016-10-25T13:14:31.470000+0000", :message=>"Reading config file", :config_file=>"/etc/logstash/conf.d/logstash.conf", :level=>:debug, :file=>"logstash/config/loader.rb", :line=>"69", :method=>"local_config"} logstash_1 | {:timestamp=>"2016-10-25T13:14:31.570000+0000", :message=>"Plugin not defined in namespace, checking for plugin file", :type=>"output", :name=>"stdout", :path=>"logstash/outputs/stdout", :level=>:debug, :file=>"logstash/plugin.rb", :line=>"86", :method=>"lookup"} logstash_1 | {:timestamp=>"2016-10-25T13:14:31.584000+0000", :message=>"starting agent", :level=>:info, :file=>"logstash/agent.rb", :line=>"213", :method=>"execute"} logstash_1 | {:timestamp=>"2016-10-25T13:14:31.585000+0000", :message=>"starting pipeline", :id=>"main", :level=>:info, :file=>"logstash/agent.rb", :line=>"487", :method=>"start_pipeline"} logstash_1 | {:timestamp=>"2016-10-25T13:14:31.606000+0000", […]

Docker上的Kubernetes使用空的serviceaccount创build容器,并且不会导致容器崩溃并重新启动

仍然遇到类似的问题1.3.0和高达1.4.0-alpha.0 在我的情况下(基于docker的设置),trusty或kubedns将从api服务器获得未经授权的许可。 奇怪的是我看到这些秘密不在实例内部,在/var/run/secrets/kubernetes.io/serviceaccountpath下 [root@ … ]# kubectl exec -it kube-dns-v13-htfjo ls /bin/sh / # / # ls /var/run/secrets/kubernetes.io/serviceaccount / # 虽然看起来他们在节点和代理实例中 tmpfs on /var/lib/kubelet/pods/3de53b0c-45bb-11e6-9f03-08002776167a/volumes/kubernetes.io~secret/default-token-8axd8 type tmpfs on /var/lib/kubelet/pods/3de5591e-45bb-11e6-9f03-08002776167a/volumes/kubernetes.io~secret/default-token-8axd8 type tmpfs on /var/lib/kubelet/pods/f29f35c7-45cc-11e6-9f03-08002776167a/volumes/kubernetes.io~secret/default-token-ql88q type 删除密码并删除豆荚,然后重新创build它们不起作用 卸载并删除文件夹后重新启动群集也不起作用 自然这导致kubedns无法启动。 在下面logging I0709 09:04:11.578816 1 dns.go:394] Received DNS Request:kubernetes.default.svc.cluster.local., exact:false I0709 09:04:11.578873 1 dns.go:427] records:[], retval:[], path:[local cluster svc default […]