李宏毅gpt个人记录

参考:

李宏毅机器学习--self-supervised:BERT、GPT、Auto-encoder-CSDN博客

 

用无标注资料的任务训练完模型以后,它本身没有什么用,GPT 1只能够把一句话补完,可以把 Self-Supervised Learning 的 Model做微微的调整,把它用在其他下游的任务裡面,对于下游任务的训练,仍然需要少量的标记数据

GPT1基本实现

例如有条训练语句是“台湾大学”,那么输入BOS后训练输出是台,再将BOS和"台"作为输入训练输出是湾,给它BOS "台"和"湾",然后它应该要预测"大",以此类推。模型输出embedding h,h再经过linear classification和softmax后,计算输出分布与正确答案之间的损失cross entropy,希望它越小越好。
 

详细计算过程: 

 

GPT1和GPT2

GPT1里主要用的是transformer中的decoder层。 

GPT-2依然沿用GPT单向transformer的模式,只不过做了一些改进与改变:

  1. GPT-2去掉了fine-tuning层
  2. 增加数据集和参数
  3. 调整transformer
模型 参数量
ELMO 94M
BERT 340M
GPT-2 1542M

 

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2023-12-07 16:10:05       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2023-12-07 16:10:05       100 阅读
  3. 在Django里面运行非项目文件

    2023-12-07 16:10:05       82 阅读
  4. Python语言-面向对象

    2023-12-07 16:10:05       91 阅读

热门阅读

  1. 【Linux内核源码】进程管理模块

    2023-12-07 16:10:05       39 阅读
  2. 传纸条(算法题)

    2023-12-07 16:10:05       58 阅读
  3. ES6知识点

    2023-12-07 16:10:05       50 阅读
  4. ElasticSearch之Clear cache API

    2023-12-07 16:10:05       68 阅读
  5. osg判断节点在当前视口的远近

    2023-12-07 16:10:05       58 阅读
  6. git 多用户配置 mac

    2023-12-07 16:10:05       58 阅读
  7. macOS 13.6上Sublime无法使用Package Control问题

    2023-12-07 16:10:05       45 阅读
  8. Sublime text 添加到鼠标右键菜单,脚本实现

    2023-12-07 16:10:05       60 阅读