百度ERNIE系列预训练语言模型浅析(4)-总结篇

总结:ERNIE 3.0与ERNIE 2.0比较

(1)相同点:
采用连续学习
采用了多个语义层级的预训练任务
(2)不同点:
ERNIE 3.0 Transformer-XL Encoder(自回归+自编码), ERNIE 2.0 Transformer Encoder(自编码)
预训练任务的细微差别,ERNIE3.0里增加的知识图谱
ERNIE 3.0考虑到不同的预训练任务具有不同的高层语义,而共享着底层的语义(比如语法,词法等),为了充分地利用数据并且实现高效预训练,ERNIE 3.0中对采用了多任务训练中的常见做法,将不同的特征层分为了通用语义层(Universal Representation)和任务相关层(Task-specific Representation)。

在这里插入图片描述

参考

相关推荐

  1. 训练语言模型

    2024-06-05 19:36:21       34 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-06-05 19:36:21       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-06-05 19:36:21       106 阅读
  3. 在Django里面运行非项目文件

    2024-06-05 19:36:21       87 阅读
  4. Python语言-面向对象

    2024-06-05 19:36:21       96 阅读

热门阅读

  1. 前端-Vue组件key的作用

    2024-06-05 19:36:21       28 阅读
  2. Go 延迟调用机制

    2024-06-05 19:36:21       28 阅读
  3. Python实现连连看4

    2024-06-05 19:36:21       29 阅读
  4. 【golang】go语言读取Excel表格中的数据

    2024-06-05 19:36:21       26 阅读
  5. Go GORM中的迁移系统,实现自动迁移与手动迁移

    2024-06-05 19:36:21       29 阅读
  6. 深度学习-离线下载链接

    2024-06-05 19:36:21       31 阅读
  7. 什么叫硬编码?如何避免硬编码

    2024-06-05 19:36:21       24 阅读
  8. 字符串逆序数据结构

    2024-06-05 19:36:21       24 阅读
  9. MySQL的一些高频面试题汇总(持续补充)

    2024-06-05 19:36:21       27 阅读
  10. 富格林:掌握正规甄别欺诈信息

    2024-06-05 19:36:21       27 阅读
  11. FFmpeg中视频 Filters 使用文档介绍

    2024-06-05 19:36:21       32 阅读
  12. 汽车电子专栏目录一览

    2024-06-05 19:36:21       20 阅读