我正在尝试使用DeadLetterPublishingRecover,但无法工作



2020-04-28 18:49:05.388错误14531-[nainer#00-C-1]o.s.k.l.DeadLetterPublishingRecover:ProducerRecord的死信发布失败(主题=LP_EVENT.DLT,分区=4,headers=RecordHeaders(headers=[RecordHeader(密钥=kafka_DLT-original-topic,值=[76,80,95,69,86,69,78,84]),RecordHeader(键=kafka _DLT-orginal-partition,值=[0,0,4]),RecordHeader(key=kafka_dlt-original-offset,value=[0,0,0,0,0,1])、RecordHeader,RecordHeader(密钥=kafka_dlt-exception-fqcn,值=[11111114103461151121141051101102114971091011111114107461079710210746108105115116101110111011101101110111011101140140140140141201201110111011011011011011101110110210210110110110120120110110113013013013010120120112112112112111011101110110 111、110]),RecordHeader(密钥=kafka_dlt-exception-message,值=[76105115111011101110111011104111100132139112111798110810599321101110111011010032111111141034612012010411114469711011101110114111011101110111144669112114,111、99、101、115、115、69、118、101、110、11640、111、114、103、46、120、109、46、108、112、46、101、118、101、110、116、46、99、111、109、111、110、46、109、110、100、101、108、46、111、69、118、110、110、111、80、97、121、108、111、97、100、44、111、111、103、43、115、112、114、105、110、103、102、114、97、109、101、119、111、107、46、107、97、102、97、115、117,112、112、111、114、116、46、65、99、107、110,111、119、108、101、100、103、109、101、110、116、41、32、116、104、114、111、115、32、106、97、118、97、46、108、97、110、103、46、69、120、99、101、116、105、111、110、39、32、16、104、14、101、119、32、101、120、101、112、116、111、59、32、110、101、115、116、115、32、106、97、118、97、46、108、97,110、103、46、82、117、110、116、105、109、101、69、120、99、101、112、116、105111、110、58、32、102、97、105、108、101、100、59、32、110、115、116、101、101、32、101、120、101、116、110、32、105、115、32、106、97、118、97、46、108、97、110、46、86、117、116,58,32,102,97,105,108,101,100]),RecordHeader(密钥=kafka_dlt-exception-stacktrace,值=[1111、114、103、46、115、112、114、105、110、103、102、114、97、109、101、119、111、114、107、46、107、97、108、105、115、116、101、101、114、46、76、105、114、76、120、101、99、117、116、105、111、110、70、97、105、108、101、100、69、120、99、101、112、105、11、110、58、32、76、115、115、101、110、101、114、32、109、101、116、104、111、100、32、39、112、117、98、108、105、99、32、118、111、105、100、32、111、114、103、46、120、109、46、108、112、46、101、101、110、116、46、97、112、105、46、105、115、116、101、111、116、76、105、116、110、110、114、46、112、114、111、99、101、115、69、118、101、116、40、111、103、,120、109、46、108、112、46、101、118、101,110、116、46、99、111、109、109、111、110、46、109、11、100、101、108、46、118、111、46、69、118、101、110、116,80、97、121、108、111、97、100、44、111、114、103、46、115、112、105、110、103、102、114、97、109、101、119、111、107、46、107、97、46、117、112、111、116、86、65、99、107、110、111、119、108、101、100,103、109、101、110、116、41、32、116、104,114、111、119、115、32、106、97、118、97、46、108、97、110、103、46、69、120、99、101、112、105、111、110、39、32、116、104、114、101、119、32、101、120、101、110、110、59、32、110、101、115、116、101、100、32、102、99、112、116、105、110、32,110、116、105、109、101、69、120、99、101、112,116、105、111、110、58、32、102、97、105、108、101、100、59、32、110、101、115、116、101、101、32、101、120、99、101、112、116、111、11、32、105、115、32、106、97、118、97、46、108、97、110、103、46、82、117、110、116、110、109、101、69、120、101、116、11、110、50、32、103、108、100、10、9、97、116、32、111、114、103、46、115、112、114、105、110、103、102、114,97、109、101、119、111、114、107、46、107、97、102、107、47、108、105、115、116、101、101、114、46、75、97、101、107、77、101、115、115、97、103、101、76、105、116、110、101、110、114、67、111、110、116、97、105、110、

java.lang.IollegalArgumentException:Magic v1不支持记录头网址:org.apache.kafka.common.record.MemoryRecordsBuilder.appendWithOffset(MemoryRecordsuilder.java:412)~[kafka-clients-2.3.1.jar:na]网址:org.apache.kafka.common.record.MemoryRecordsBuilder.appendWithOffset(MemoryRecordsuilder.java:451)~[kafka-clients-2.3.1.jar:na]网址:org.apache.kafka.common.record.MemoryRecordsBuilder.append(MemoryRecordsuilder.java:508)~[kafka-clients-2.3.1.jar:na]网址:org.apache.kafka.common.record.MemoryRecordsBuilder.append(MemoryRecordsuilder.java:531)~[kafka-clients-2.3.1.jar:na]网址:org.apache.kafka.clients.produr.internals.ProducerBatch.tryAppend(ProducerBatch.java:106)~[kafka-clients-2.3.1.jar:na]网址:org.apache.kafka.clients.producer.internals.RecordAccumulator.append(RecordAccumulator.java:224)~[kafka-clients-2.3.1.jar:na]网址:org.apache.cafka.clients.producer.KafkaProducer.doSend(kafka生产者.java:917)~[kafka-clients-2.3.1.jar:na]网址:org.apache.kafka.clients.producer.KafkaProducer.send(KafkaProducer.java:856)~[kafka-clients-2.3.1.jar:na]网址:org.springframework.kafka.core.DefaultKafkaProducerFactory$CloseSafProducer.send(DefaultKafkaProducerFactory.java:590)~[spring-kafka-2.3.4.RELEASE.jar:2.3.4.RRELEASE]网址:org.springframework.cafka.core.KafkaTemplate.doSend(KafkaTemplate.java:404)~[spring-kafka-2.3.4.RELEASE.jar:2.3.4.REASE]网址:org.springframework.cafka.core.KafkaTemplate.send(KafkaTemplate.java:241)~[spring-kafka-2.3.4.RELEASE.jar:2.3.4.REASE]位于org.springframework.kafka.elistener.DedLetterPublishingRecover.publish(DeadLetterPublishing Recover.java:214)[spring-kafka-2.3.4.RELEASE.jar:2.3.4.REASE]位于org.springframework.kafka.elistener.DedLetterPublishingRecover.accept(DeadLetterPublishing Recover.java:159)[spring-kafka-2.3.4.RELEASE.jar:2.3.4.REASE]位于org.springframework.kafka.elistener.DedLetterPublishingRecover.accept(DeadLetterPublishing Recover.java:53)[spring-kafka-2.3.4.RELEASE.jar:2.3.4.REASE]网址:org.springframework.kafka.elistener.FailedRecordTracker.skip(FailedRecordTracker.java:101)[spring-kafka-2.3.4.RELEASE.jar:2.3.4.RRELEASE]网址:org.springframework.kafka.support.SeekUtils.lambda$doSeeks$2(SeekUtils.java:75)~[spring-kafka-2.3.4.RELEASE.jar:2.3.4.RRELEASE]位于java.util.ArrayList.forEach(ArrayList.java:1257)~[na:1.8.0_242]网址:org.springframework.kafka.support.SeekUtils.doSeeks(SeekUtils.java:72)~[spring-kafka-2.3.4.RELEASE.jar:2.3.4.RRELEASE]网址:org.springframework.kafka.elistener.SeekToCurrentErrorHandler.handle(SeekToCurrentErrorHandler.java:198)~[spring-kafka-2.3.4.RELEASE.jar:2.3.4.RRELEASE]位于org.springframework.cafka.elistener.KafkaMessageListenerContainer$ListenerConsumer.invokeErrorHandler(KafkaMessage ListenerContAINer.java:1704)~[spring-kafka-2.3.4.RELEASE.jar:2.3.4.REASE]位于org.springframework.cafka.elistener.KafkaMessageListenerContainer$ListenerConsumer.doInvokeRecordListener(KafkaMessage ListenerContAINer.java:1621)~[spring-kafka-2.3.4.RELEASE.jar:2.3.4.REASE]位于org.springframework.cafka.elistener.KafkaMessageListenerContainer$ListenerConsumer.doInvokeWithRecords(KafkaMessage ListenerContAINer.java:1549)~[spring-kafka-2.3.4.RELEASE.jar:2.3.4.REASE]位于org.springframework.cafka.elistener.KafkaMessageListenerContainer$ListenerConsumer.invokeRecordListener(KafkaMessage ListenerContAINer.java:1457)~[spring-kafka-2.3.4.RELEASE.jar:2.3.4.REASE]位于org.springframework.cafka.elistener.KafkaMessageListenerContainer$ListenerConsumer.invokeListener(KafkaMessage ListenerContAINer.java:1207)~[spring-kafka-2.3.4.RELEASE.jar:2.3.4.REASE]位于org.springframework.cafka.elistener.KafkaMessageListenerContainer$ListenerConsumer.pollAndInvoke(KafkaMessage ListenerContAINer.java:966)~[spring-kafka-2.3.4.RELEASE.jar:2.3.4.REASE]在org.springframework.cafka.elistener.KafkaMessageListenerContainer$ListenerConsumer.run(KafkaMessage ListenerContAINer.java:901)~[spring-kafka-2.3.4.RELEASE.jar:2.3.4.REASE]在java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)~[na:1.8.0_242]在java.util.concurrent.FFutureTask.run(FutureTask.java:266)~[na:1.8.0_242]在java.lang.Thread.run(Thread.java:748)~[na:1.8.0_242]

错误显示:

Magic v1不支持记录头

记录头是在Apache Kafka 0.11.0.0中引入的。可能是因为您的代理较旧,或者您使用的主题使用的是较旧的消息格式(请注意,如果使用旧的代理创建主题并更新代理,则如果没有明确更新,也会保留较旧的信息格式)。

相关内容

  • 没有找到相关文章

最新更新