卡夫卡大消息配置



我读了很多关于配置的主题,但我仍然不明白。

当我这样做时:

../kafka_2.11-1.1.0/bin/kafka-topics.sh --zookeeper localhost:2181 --alter --topic my_topic --config max.message.bytes=10000000

这有助于

但是在我的应用程序中尝试了一切

def producerSettings(system: ActorSystem): ProducerSettings[String, KafkaMessage] =
ProducerSettings(system, new StringSerializer, new GenericSerde[KafkaMessage].serializer())
.withBootstrapServers("localhost:9092")
.withProperty("auto.create.topics.enable", "true")
.withProperty("replica.fetch.max.bytes", maxSize)
.withProperty("message.max.bytes", maxSize)
val producer: KafkaProducer[String, KafkaMessage] = configuration.producerSettings(context.system)
.withBootstrapServers("localhost:" + config.getInt("kafka.port"))
.withProperty("message.max.bytes", maxSize)
.withProperty("max.request.size", maxSize)
.createKafkaProducer()

当我开始清洁卡夫卡时 - 我在日志中看到

INFO Created log for partition my_topic-0 in /tmp/kafka-logs with properties {compression.type -> producer, message.format.version ->
1.1-IV0, file.delete.delay.ms -> 60000, max.message.bytes -> 1000012, min.compaction.lag.ms -> 0, message.timestamp.type -> CreateTime, min.insync.replicas -> 1, segment.jitter.ms -> 0, preallocate -> false, min.cleanable.dirty.ratio -> 0.5, index.interval.bytes -> 4096, unclean.leader.election.enable -> false, retention.bytes -> -1, delete.retention.ms -> 86400000, cleanup.policy -> [delete], flush.ms
-> 9223372036854775807, segment.ms -> 604800000, segment.bytes -> 1073741824, retention.ms -> 604800000, message.timestamp.difference.max.ms -> 9223372036854775807, segment.index.bytes -> 10485760, flush.messages -> 9223372036854775807}. (kafka.log.LogManager)

a 您看到max.message.bytes-> 1000012 仍为默认值 我必须再次大记录消息异常

我做错了什么?我想通过我的应用程序进行配置 - 而不是控制台命令。可能吗?

这可能是因为您的主题是由代理自动创建的。当使用代理的自动创建创建主题时,它使用代理的默认配置。

您可以在代理中更改默认配置,这是message.max.bytes但我不建议这样做,因为代理配置将应用于自动创建的所有其他主题。

或者,您可以使用所需的配置在应用程序中显式创建主题,以便代理不会使用其默认配置自动创建主题。

最新更新