使用Word2Verc或GloVe的变形金刚(注意力就是你所需要的)



我是NLP的新手,对嵌入感到困惑。如果我已经训练了GloVe嵌入/或Word2Vec嵌入并将其发送到Transformer中,这可能吗?还是Transformer需要原始数据并进行自己的嵌入?(语言:python,keras(

如果你训练了一个新的转换器,你可以对底层做任何你想做的事情。

不过,最有可能的是,您询问的是经过预培训的变压器。像Bert这样经过预训练的转换器将有自己的单词片段嵌入。在这种情况下,您可能只需要使用转换器的结果就可以获得足够的结果。

Perhttps://en.wikipedia.org/wiki/BERT_(语言_模型(

BERT模型是根据从拥有8亿个单词的BooksCorpus和拥有2500万个单词的英语维基百科文字。

是否训练您的模型取决于您的数据。

对于简单的英语文本,开箱即用的模式应该很好。

如果你的数据集中在某些领域,例如工作申请和工作申请,那么你可以通过在语料库中训练来扩展模型(也称为迁移学习(。

https://huggingface.co/docs/transformers/training

相关内容

最新更新