Tag: 麋鹿堆栈

将Elasticsearch日志从Docker写入外部卷

我安装了一个ELK Docker,使硬盘爆炸0空间可用。 我在文档中无处不在,这是我能find的最好的: sudo docker run -p 5601:5601 -p 9200:9200 -p 5044:5044 \ -v elk-data:/var/lib/elasticsearch –name elk sebp/elk 但是,这只是告诉Docker将容器内的日志写入哪里,而不是放在我安装大硬盘的地方。 我错过了什么?

Docker:logging驱动程序对日志的影响

我想使用elk堆栈(Elastic search,kibana,logstash)来loggingDocker中运行的多个微服务(目前在swram中)构build的应用程序。 我们希望从stdout / stderr中logging消息。 我们的系统应该添加serviceName,ContainerID,时间戳(如果可能的话,自动和精确地执行),主机名….到每个logentry没有任何工作的开发人员。 Docker支持多种日志logging驱动程序 ,如Json,Syslog和Gelf(只有UDP),可以直接发送到logstash或者通过发货系统(如logspout或其他)。 我的问题:日志驱动程序和日志传送select如何影响日志? docker工人是否总是包含用不同方式打包的相同数据(如容器标识,时间戳,实际日志消息),还是实际影响内容? 我的同事使用logspout从标准docker json日志收集日志。 如果我使用–log-driver = gelf(假设没有包丢失),我会得到完全相同的信息到logstash吗?

无法使用ELK Docker映像远程访问Kibana

我有一个远程Ubuntu 14.04机器。 我下载并运行了几个ELK Docker镜像,但是我似乎在所有镜像中都得到了相同的行为。 我尝试了这两个仓库中的图像: spujadas / elk- docker和deviantony / docker-elk 。 问题是,在这两个图像,Elasticsearch,Logstash和Kibana都完美地在本地工作,但是当我尝试从远程计算机使用http://host-ip:5601到达Kibana时,出现连接超时并且无法到达Kibana。 另外,我可以从http://host-ip:9200到达Elasticsearch。 就像这两个仓库所build议的那样,我在Logstash中注入了一些数据,但是这也不起作用。 我需要做一些调整以便远程访问Kibana吗? 编辑:我试图打开端口5601build议这里 ,但是也没有工作。

收集UDP(Gelf)消息并用TCP转发到logstash

我正在寻找一个轻量级的工具,在一些端口上接收UDP包(我的情况是Docker Gelf-logs),将它们存储在内部,然后用一种有效的方式(在我的情况下从弹性堆栈logstash)转发它们。 理想情况下,这个应用程序已经dockerized。 有什么build议么?

Sebp / elk没有在docker上运行,出现错误

你好所有的工程在世界上Im 1问题后安装ELK堆栈在docker上我的基础设施:1- Windows 10新的创作者更新2-我的笔记本电脑型号:N552VX(8G内存)3-docker工具箱没有先决条件=示例Java机器和更多。 ..和安装sebp / elkterminaldocker上的命令:$ docker拉sebp / elk安装成功,并没有运行—>一个错误指出,一些错误SEE FULL ERROR == http://textuploader.com / d99r1 PLZ检查错误! bootstrap checks failed max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144] [2017-05-12T08:47:16,687][INFO ][oenNode ] [Zn8_vUw] stopping … [2017-05-12T08:47:16,721][INFO ][oenNode ] [Zn8_vUw] stopped [2017-05-12T08:47:16,721][INFO ][oenNode ] [Zn8_vUw] closing … [2017-05-12T08:47:16,749][INFO ][oenNode ] [Zn8_vUw] […]

无法执行fabric8 docker插件

运行mvn clean install会引发这个错误(Windows) [错误]无法执行目标io.fabric8:docker-maven-plugin:0.20.1:启动(准备环境)项目集成testing:目标io.fabric8的执行准备环境:docker-maven-plugin:0.20 .1:启动失败:启动作业失败,出现意外的exception:[sebp / elk:latest]“elk”:等待url后120365 ms后超时http:// localhost:32774 /

如何在Docker Swarm中的全局服务中设置主机名

我有一个服务作为全局服务部署到我的Docker Swarm集群(ELK Metricbeat)。 我希望这个服务的每个主机名都与正在运行的节点(主机)的主机名相同? 换句话说,我如何在yml文件中实现相同的结果如: docker run -h `hostname` elastic/metricbeat:5.4.1 这是我的XML文件: metricbeat: image: elastic/metricbeat:5.4.1 command: metricbeat -e -c /etc/metricbeat/metricbeat.yml -system.hostfs=/hostfs hostname: '`hostname`' volumes: – /proc:/hostfs/proc:ro – /sys/fs/cgroup:/hostfs/sys/fs/cgroup:ro – /:/hostfs:ro – /var/run/docker.sock:/var/run/docker.sock networks: – net user: root deploy: mode: global 我努力了: hostname: '`hostname`' hostname: '${hostname}' 但没有成功。 任何解决scheme 先谢谢你。

Elasticsearch Docker容器不能相互连接| 引起:io.netty.channel.ConnectTimeoutException:连接超时

我已经在两个OpenStack虚拟机中创build了两个弹性searchDocker容器,如下所示 – docker pull docker.elastic.co/elasticsearch/elasticsearch:5.5.0 docker run –name elasticsearch -p 9200:9200 -p 9300-9400:9300-9400 docker.elastic.co/elasticsearch/elasticsearch:5.5.0 我的10.247.61.131在 – 10.247.61.131如下 – cluster.name: "logging" network.host: 0.0.0.0 node.name: "es_0" network.bind_host: 0.0.0.0 network.publish_host: "10.247.61.131" discovery.zen.minimum_master_nodes: 2 discovery.zen.ping.unicast.hosts: – 10.247.61.131 – 10.247.61.132 和10.247.61.32如下 – cluster.name: "logging" network.host: 0.0.0.0 node.name: "es_1" network.bind_host: 0.0.0.0 network.publish_host: "10.247.61.32" discovery.zen.minimum_master_nodes: 2 discovery.zen.ping.unicast.hosts: – 10.247.61.131 – 10.247.61.132 当我开始他们时,我正面临着这个问题 […]

Rancher服务器中的集中式日志logging和容器生产监控

我正在探索下面的牧场服务器上的Windows环境和Windows容器的列表项。 1)生产水平监测 2)集装箱集中logging机制 任何一个人都可以指出我是否可以修改链接或文章,以及如何实现这一点。 我可以find很多使用ELK栈和Prometheus的文章和链接,但都是基于Linux的容器。 提前致谢

如何将apache日志从一个容器发送到另一个容器中的logstash?

在过去的三天里,我一直在试图从我在Docker中的容器中收集所有日志,并将它们发送到Logstash。 我一直在使用ELK堆栈(Elasticsearch,Logstash和Kibana),我使用Logspout作为这个日志的路由器。 ELK Stack的所有三个实例都在不同的容器中运行。 我已经按照这个设置 。 我目前的Logstashconfiguration文件如下所示: input { tcp { port => 5000 type => syslog } udp { port => 5000 type => syslog } } filter { if [type] == "syslog" { grok { match => { "message" => "%{SYSLOG5424PRI}%{NONNEGINT:ver} +(?:%{TIMESTAMP_ISO8601:ts}|-) +(?:%{HOSTNAME:containerid}|-) +(?:%{NOTSPACE:containername}|-) +(?:%{NOTSPACE:proc}|-) +(?:%{WORD:msgid}|-) +(?:%{SYSLOG5424SD:sd}|-|) +%{GREEDYDATA:msg}" } } syslog_pri { } […]