我正在使用kafka connect来从mongo读取数据并将它们写入kafka主题。
我正在使用 mongo kafka 源连接器。
我收到以下错误:
ERROR Stopping after connector error (org.apache.kafka.connect.cli.ConnectStandalone:115)
java.lang.NoClassDefFoundError: com/mongodb/ConnectionString
at com.mongodb.kafka.connect.source.MongoSourceConfig.createConfigDef(MongoSourceConfig.java:209)
at com.mongodb.kafka.connect.source.MongoSourceConfig.<clinit>(MongoSourceConfig.java:138)
at com.mongodb.kafka.connect.MongoSourceConnector.config(MongoSourceConnector.java:56)
at org.apache.kafka.connect.connector.Connector.validate(Connector.java:129)
at org.apache.kafka.connect.runtime.AbstractHerder.validateConnectorConfig(AbstractHerder.java:282)
at org.apache.kafka.connect.runtime.standalone.StandaloneHerder.putConnectorConfig(StandaloneHerder.java:188)
at org.apache.kafka.connect.cli.ConnectStandalone.main(ConnectStandalone.java:109)
Caused by: java.lang.ClassNotFoundException: com.mongodb.ConnectionString
at java.base/java.net.URLClassLoader.findClass(URLClassLoader.java:471)
at java.base/java.lang.ClassLoader.loadClass(ClassLoader.java:588)
at org.apache.kafka.connect.runtime.isolation.PluginClassLoader.loadClass(PluginClassLoader.java:104)
at java.base/java.lang.ClassLoader.loadClass(ClassLoader.java:521)
... 7 more
罐子里似乎有有趣的克拉斯。为了得到罐子,我使用了两种不同的方法,但我得到了同样的错误。首先,我使用了 maven 存储库的下载,然后我从 github 存储库克隆源代码,然后我自己构建了 jar。我把罐子推到plugins.path上。 当我解压缩生成的 jar 并浏览小册子时,我找不到提到的类:com.mongodb.ConnectionString
我使用了以下配置文件
工人属性 :
rest.port=18083
# Set to a list of filesystem paths separated by commas (,) to enable class loading isolation for plugins
# (connectors, converters, transformations). The list should consist of top level directories that include
# any combination of:
# a) directories immediately containing jars with plugins and their dependencies
# b) uber-jars with plugins and their dependencies
# c) directories immediately containing the package directory structure of classes of plugins and their dependencies
# Note: symlinks will be followed to discover dependencies or plugins.
# Examples:
# plugin.path=/usr/local/share/java,/usr/local/share/kafka/plugins,/opt/connectors,
plugin.path=/usr/share/java/plugins
internal.key.converter=org.apache.kafka.connect.json.JsonConverter
internal.value.converter=org.apache.kafka.connect.json.JsonConverter
internal.key.converter.schemas.enable=false
internal.value.converter.schemas.enable=false
bootstrap.servers=127.0.0.1:9092
mongo-connector.properties:
name=mongo
tasks.max=1
connector.class =com.mongodb.kafka.connect.MongoSourceConnector
database=
collection=alerts
key.converter = org.apache.kafka.connect.storage.StringConverter
value.converter = org.apache.kafka.connect.storage.StringConverter
topic.prefix=someprefix
poll.max.batch.size=1000
poll.await.time.ms=5000
# Change stream options
pipeline=[]
batch.size=0
change.stream.full.document=updateLookup
然后我通过以下命令启动了连接器:
/usr/local/kafka/bin/connect-standalone.sh worker.properties mongo-connector.properties
知道如何解决这个问题
您必须将连接器的 JAR 文件放在plugin.path
下,在您的情况下是/usr/share/java/plugins
.
这些说明已经出现在Confluent的文档中:
Kafka Connect 插件是:
一个包含插件及其所有类文件的 uber JAR。 单个 JAR 文件中的第三方依赖项;或目录 包含插件及其 JAR 文件的文件系统 第三方依赖项。但是,插件不应包含任何 由 Kafka Connect 运行时提供的库。
Kafka Connect 使用其插件路径查找插件,该路径是一个 在 Kafka Connect 中定义的目录的逗号分隔列表 辅助角色配置。要安装插件,请将插件目录放在 或 uber JAR(或解析为其中之一的符号链接(中的 插件路径上列出的目录,或将插件路径更新为 包括包含插件的目录的绝对路径。
我创建这个答案是因为我花了一些时间来找出解决方案,正如 scalacode 所指出的那样,最简单的解决方案是从 confluent 下载 jar,而不是从 maven。
https://www.confluent.io/hub/mongodb/kafka-connect-mongodb