2025年07月29日
BERT: Pre-training of Deep Bidirectional Transformers for Language Understandin。 微信公众号的标题容不下一篇论文的标题,真是差评啊。
BERT的全称是Bidirectional Encoder Representations from Transformers,是谷歌2018年发表的一篇paper,引用量截止目前已经超过了12677。BERT是基于transformer encoder的双向