pipe理Spring云数据stream服务器日志

我正在使用docker部署Spring云数据stream服务器。 我已经在数据stream服务器内部创build了一个数据处理pipe道,通过部署几个spring启动应用程序作为源,处理器和接收器。 为了访问每个服务的日志,我必须从docker continer(bash)里面取尾,否则我必须将它从docker容器复制到本地磁盘。

我想使用log4j-kafka appender将这些日志推送到kafka以供日后分析。 我已经为Spring云数据stream之外的其他服务执行此操作。 有没有办法使用log4j来pipe理在spring云数据stream中运行的服务日志?

Spring Cloud Stream和Spring Cloud Task应用程序是独立的Spring Boot应用程序。 这个SO线程有一些洞察力,增加相关的库,从Spring Boot应用程序到Kafka一致地发布日志。

如果您还要添加OOTB应用程序,请参阅参考指南中描述的修补程序 。

如果您正在容器中运行Spring云服务器和Kafka,则可以使用docker link来链接这些容器相互之间的对话,例如$ docker run -d -P --name web --link db training/webapp python app.py在哪里我正在链接的Web应用程序容器到数据库容器检查此链接进一步的信息https://docs.docker.com/engine/userguide/networking/default_network/dockerlinks/#communication-across-links