认识 ChatGPT

GPT

Generative Pre-training Transformer (生成式预训练Transfomer模型), 它基于 Transformer 架构,GPT模型先在大规模语料上进行无监督预训练、再在小得多的有监督数据集上为具体任务进行精细调节(fine-tune)的方式。先训练一个通用模型,然后再在各个任务上调节,这种不依赖针对单独任务的模型设计技巧能够一次性在多个任务中取得很好的表现。

chatGPT 只是 GPT 模型的一个应用,是一个对话式的交互接口。

发展历史

相关论文

参考

  1. 知乎搞懂GPT, https://zhuanlan.zhihu.com/p/403469926
  2. 理解ChatGPT的技术逻辑及演进, https://www.freebuf.com/articles/others-articles/352202.html
  3. 十分钟理解Transformer, https://zhuanlan.zhihu.com/p/82312421
  4. 台大教授李宏毅的视频《ChatGPT是怎么炼成的?GPT社会化过程》。https://www.inside.com.tw/article/30032-chatgpt-possible-4-steps-training
  5. Generative Model, https://en.wikipedia.org/wiki/Generative_model