BERT(从理论到实践): Bidirectional Encoder Representations from Transformers【1】

预训练模型:A pre-trained model is a saved network that was previously trained on a large dataset, typically on a large-scale image-classification task. You either use the pretrained model as is or use transfer learning to customize this model to a given task.

BERT是Google提出的一个基于Transformer的自然语言处理领域的预训练模型。它之所以被称为这个名字,一方面它是Bidirectional Encoder Representations from Transformers首字母的缩写。另一方面,还是为了致敬之前的一个模型ELMO。《Sesame Street》是由美国芝麻街工作室制作的一档儿童教育电视节目,其中的两个卡通人物分别是ELMO和BERT,如下图所示。

ELMO的基本概念就是利用上下文信息来生成一个单词的表达/Embedding(Contextualized word represen

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-01-03 15:10:05       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-01-03 15:10:05       101 阅读
  3. 在Django里面运行非项目文件

    2024-01-03 15:10:05       82 阅读
  4. Python语言-面向对象

    2024-01-03 15:10:05       91 阅读

热门阅读

  1. Mysql8.2安装

    2024-01-03 15:10:05       63 阅读
  2. 复试 || 就业day06(2024.01.01)算法篇

    2024-01-03 15:10:05       66 阅读
  3. uml基础-类图

    2024-01-03 15:10:05       52 阅读
  4. 防勒索病毒攻击的关键措施

    2024-01-03 15:10:05       61 阅读
  5. AI+金融:大模型引爆金融科技革命

    2024-01-03 15:10:05       60 阅读
  6. Linux zip 命令

    2024-01-03 15:10:05       49 阅读
  7. Oracle 19C DBA管理常用命令

    2024-01-03 15:10:05       52 阅读