大语言模型四大名著
精通 Transformers
- 精通 Transformers
 - 序言
 - 第一部分:介绍 - 领域内的最新发展,安装和 Hello World 应用程序
 - 第一章:从词袋模型到 Transformer
 - 第二章:主题的实践介绍
 - 第二部分:变换模型-从自编码到自回归模型
 - 第三章:自动编码语言模型
 - 第四章:自回归模型与其他语言模型
 - 第五章:文本分类的语言模型微调
 - 第六章:为标记分类对语言模型进行微调
 - 第七章:文本表示
 - 第三部分:高级主题
 - 第八章:使用高效的Transformers
 - 第九章:跨语言和多语言语言建模
 - 第十章:提供 Transformer 模型
 - 第十一章:注意力可视化和实验跟踪
 
Transformers 自然语言处理
- Transformer 自然语言处理
 - 前言
 - 前言
 - 第一章:你好,Transformer
 - 第三章:Transformer 剖析
 - 第四章:多语言命名实体识别
 - 第五章:文本生成
 - 第六章:摘要
 - 第七章:问答
 - 第八章:使 transformers 在生产中更高效
 - 第九章:处理少量或没有标签
 - 第十章:从头开始训练变换器
 - 第十一章:未来方向
 
大语言模型实用指南
- 大语言模型实用指南
 - 第一章: 文本分类
 - 第二章: 语义搜索
 - 第三章: 文本聚类与主题建模
 - 第四章:使用 GPT 模型进行文本生成
 - 第五章: 多模态大型语言模型
 - 第六章: 令牌与令牌嵌入
 - 第七章: 创建文本嵌入模型
 
从零开始构建大语言模型(MEAP)
- 从零开始构建大语言模型(MEAP)
 - 1 理解大型语言模型
 - 2 处理文本数据
 - 3 编码注意力机制
 - 4 从头实现 GPT 模型以生成文本
 - 5 在未标记数据上进行预训练
 - 附录 A. PyTorch 简介
 - 附录 B. 参考文献和进一步阅读
 - 附录 C. 练习解答
 - 附录 D. 为训练循环添加附加功能
 
                









