如何在本地部署apache kafka connect(不使用Confluent)



我找不到任何关于Apache Kafka Connect如何实际工作的简单解释。例如,在官方教程中,它说我们在bin目录下运行某些shell脚本,我们需要配置一些.properties文件。

这很清楚。我猜我们需要克隆整个apache kafka源代码,因为这些shell文件在apache kafka源代码中使用了很多其他shell脚本和java类。

但是我们应该把连接器代码放在哪里,用什么格式呢?作为源代码还是作为jar文件?当我们说我的连接器类是&;com.example。&;卡夫卡怎么会知道去哪里找呢?谁能帮我澄清一下或者给我指出一些教程?注意,我在本地运行所有的东西,包括我的kubernetes kafka集群,我不愿意使用Confluent。

克隆整个apache kafka源代码

假。Apache Kafka下载(二进制文件,而不是需要源代码),已经包含Kafka Connect。

Kafka Connect不是Confluent独有的。他们(和其他人)编写插件。将代码作为jar放在plugin.path属性值中。相关-使用Confluent Hub而不安装Confluent平台

当我们说连接器类是"com.example…"卡夫卡怎么会知道去哪里找呢?

JVM类路径。

kubernetes kafka cluster local

Strimzi有kind: KafkaConnect资源,使这更容易,包括安装连接器插件。

相关内容

  • 没有找到相关文章

最新更新