如何使用BERT进行机器翻译



我遇到了一个大问题。对于我的学士论文,我必须用BERT制作一个机器翻译模型。但我现在没有任何进展。你知道能在这里帮助我的文件吗?我读过一些关于这个方向的论文,但也许有一些文档或教程可以帮助我

对于我的学士论文,我必须把一篇文章的摘要翻译成一个标题。我希望有人能帮助我。

BERT不是一个机器翻译模型,BERT旨在提供上下文句子表示,该表示应适用于各种NLP任务。尽管存在将BERT纳入机器翻译的方法(https://openreview.net/forum?id=Hyl7ygStwB),这不是一个容易的问题,人们怀疑它是否真的有回报

从你的问题来看,你似乎不是真正的机器翻译,而是自动摘要。与机器翻译类似,可以使用序列到序列模型来处理它,但我们在NLP中不称之为翻译。对于序列到序列建模,有不同的预训练模型,如BART或MASS。这些模型应该比BERT有用得多。


2022年9月更新:有多种语言的类似BERT的模型,最著名的是多语言BERT和XLM RoBERTa。当仔细微调时,它们可以用作机器翻译的通用编码器,并实现所谓的零样本机器翻译。该模型经过训练,可以从几种源语言翻译成英语,但最终,它可以从多语言类BERT模型所涵盖的所有语言进行翻译。该方法称为SixT。

相关内容

  • 没有找到相关文章

最新更新