百度ERNIE系列预训练语言模型浅析(2)-ERNIE2.0

Ernie 2.0: A Continual Pre-Training Framework for Language Understanding
Sun Y, Wang S, Li Y, et al. Ernie 2.0: A continual pre-training framework for language understanding[C]//Proceedings of the AAAI * Conference on Artificial Intelligence. 2020, 34(05): 8968-8975.

关键词:Continual Multi-task Learning
概括:加入更多的预训练任务,为了有效的训练采用了连续训练的方法。

以前的模型只能学到简单的共现信息,其他有价值的信息,比如lexical\syntactic\semantic information都没有被提取出来。
因此本文Continual Multi-task Learning、不同层次的预训练任务能够提取lexical\syntactic\semantic information。

1、Continual Multi-task Learning

连续的多任务学习能记住之前学习到的信息。
上游的预训练任务和下游特定任务的Fine-tuning的闭环。
在这里插入图片描述

在这里插入图片描述

2、Pre-training Tasks

三个层次的预训练任务:
(1)Word-aware task: capture the lexical information
(2)Structure-aware task: capture the syntactic information
(3)Semantic-aware task: semantic information

2.1、Word-aware

  • Knowledge Masking:同ERNIE 1.0的实体/短语 masking
  • Capitalization Prediction:token大小写预测的任务
  • Token-Document Relation Prediction:预测句子中的词是否出现在了segment原始文档中,约等于预测token是否为关键词

2.2、Structure-aware

  • Sentence Reordering(语序关系):打乱k个句子,预测原始顺序(给每个句子做k分类)
  • Sentence Distance(语义距离):3分类任务,预测两个句子是相连、出现在同一个文档还是在不同文档
    在这里插入图片描述

2.3、Semantic-aware

  • Discourse Relation:判断句子的语义关系,例如logical relationship (is a, has a, contract)
  • IR Relevance Task:

相关推荐

  1. 训练语言模型

    2024-06-05 21:32:08       34 阅读
  2. 2.3.1 语言模型训练

    2024-06-05 21:32:08       34 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-06-05 21:32:08       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-06-05 21:32:08       100 阅读
  3. 在Django里面运行非项目文件

    2024-06-05 21:32:08       82 阅读
  4. Python语言-面向对象

    2024-06-05 21:32:08       91 阅读

热门阅读

  1. win10换ubuntu

    2024-06-05 21:32:08       30 阅读
  2. redis常见使用场景

    2024-06-05 21:32:08       24 阅读
  3. 实现带有执行次数的二分搜索程序

    2024-06-05 21:32:08       29 阅读
  4. 【前端每日基础】day44——vue2和vue3的区别

    2024-06-05 21:32:08       32 阅读
  5. 【FPGA约束】如何对fpga进行io约束

    2024-06-05 21:32:08       26 阅读