找不到记录器(org.apache.kafka.clients.consumer.ConsumerConfig)的追加器



我正在尝试通过在Scala中创建Kafka Consumer来将Apache Kafka连接到Apache Flink。这是我的消费者代码:

val properties = new Properties()
properties.setProperty("bootstrap.servers", "localhost:9092")
properties.setProperty("zookeeper.connect", "localhost:2181")
properties.setProperty("group.id", "test")
val env = StreamExecutionEnvironment.getExecutionEnvironment
val stream = env
            .addSource(new FlinkKafkaConsumer09[String]("test", new  SimpleStringSchema(), properties))
            .print
env.enableCheckpointing(5000)

当我运行这个程序时,我从log4j收到一些警告,程序终止,没有显示输出。我的 Kafka Producer 已启动并运行。

log4j:WARN No appenders could be found for logger (org.apache.kafka.clients.consumer.ConsumerConfig).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.

我不认为log4j WARN是程序终止的原因。当 log4j 在类路径中不可用时,通常会发生这些问题。

不生成输出的原因是缺少env.execute()调用,因此作业永远不会启动。

最新更新