猎书客er

关注

从零预训练huggingface/transformers的GPT-2代码

猎书客er

关注

阅读 64

2023-05-14


参考 https://github.com/huggingface/notebooks/blob/main/examples/language_modeling_from_scratch.ipynb


相关推荐

幸福的无所谓

Mac 部署 GPT-2 预训练模型 gpt2-chinese-cluecorpussmall

幸福的无所谓 11 0 0

蓝莲听雨

用huggingface.transformers微调预训练模型

蓝莲听雨 50 0 0

火热如冰

【NLP】(task3下)预训练语言模型——GPT-2

火热如冰 87 0 0

龙毓七七

Transformers 加载预训练模型

龙毓七七 79 0 0

笙烛

零代码从Eureka迁移到Nacos

笙烛 66 0 0

沉浸在自己的世界里

GPT,GPT-2,GPT-3,InstructGPT的进化之路

沉浸在自己的世界里 58 0 0

天悦哥

GPT、GPT-2、GPT-3论文精读笔记

天悦哥 42 0 0

目标践行者

让huggingface/transformers的AutoTokenizer从本地读词表

目标践行者 78 0 0

Soy丶sauce

Geneformer中文教程(2).huggingface transformers

Soy丶sauce 25 0 0

哈哈镜6567

纯cのGPT-2

哈哈镜6567 33 0 0

精彩评论(0)

0 0 举报