管理 Spring Cloud Dataflow Server 日志



我正在使用docker部署Spring Cloud Dataflow服务器。我通过在数据流服务器内部署几个 Spring 启动应用程序作为源、处理器和接收器来创建数据处理管道。为了访问每个服务的日志,我必须从docker continer(bash(内部跟踪它,或者我必须将其从docker容器复制到本地磁盘。

我想使用 log4j-kafka appender 将这些日志推送到 kafka 以供以后分析。我已经为在春季云数据流之外运行的其他服务执行此操作。有没有办法使用 log4j 管理在 Spring 云数据流中运行的服务日志?

Spring Cloud

Stream和Spring Cloud Task应用程序是独立的Spring Boot应用程序。这个 SO 线程对添加相关库有一些见解,以一致地将日志从 Spring 引导应用程序发布到 Kafka。

如果您也要对 OOTB 应用程序进行此添加,请查看参考指南中描述的修补过程。

如果你在容器中运行你的 spring 云服务器和 Kafka,你可以使用 docker link 来链接这些容器,在这些容器中,容器相互通信例如$ docker run -d -P --name web --link db training/webapp python app.py我将 Web 应用程序容器链接到数据库容器的位置查看此链接以获取更多信息 https://docs.docker.com/engine/userguide/networking/default_network/dockerlinks/#communication-across-links

最新更新