bert
外文名: BERT
英文全称: Bidirectional Encoder Representation from Transformers
发布公司: 谷歌
详细介绍:
BERT模型(BidirectionalEncoderRepresentationfromTransformers)是谷歌AI团队发布于2018年10月的BERT预训练模型,被认为是NLP领域的极大突破,刷新了11个NLP任务的当前最优结果。其对GPT语言模型做了进一步的改进,通过左、右两侧上下文来预测当前词和通过当前句子预测下一个句子,预训练的BERT表征可以仅用一个额外的输出层进行微调,在不对任务特定架构做出大量修改条件下,就可以为很多任务创建当前最优模型。+sg
2026-02-03 10:59:59,ID:40951