猎书客er

关注

从零预训练huggingface/transformers的GPT-2代码

猎书客er

关注

阅读 61

2023-05-14


参考 https://github.com/huggingface/notebooks/blob/main/examples/language_modeling_from_scratch.ipynb


相关推荐

幸福的无所谓

Mac 部署 GPT-2 预训练模型 gpt2-chinese-cluecorpussmall

幸福的无所谓 9 0 0

蓝莲听雨

用huggingface.transformers微调预训练模型

蓝莲听雨 48 0 0

火热如冰

【NLP】(task3下)预训练语言模型——GPT-2

火热如冰 81 0 0

龙毓七七

Transformers 加载预训练模型

龙毓七七 75 0 0

笙烛

零代码从Eureka迁移到Nacos

笙烛 61 0 0

哈哈镜6567

纯cのGPT-2

哈哈镜6567 28 0 0

沉浸在自己的世界里

GPT,GPT-2,GPT-3,InstructGPT的进化之路

沉浸在自己的世界里 58 0 0

天悦哥

GPT、GPT-2、GPT-3论文精读笔记

天悦哥 36 0 0

目标践行者

让huggingface/transformers的AutoTokenizer从本地读词表

目标践行者 76 0 0

Soy丶sauce

Geneformer中文教程(2).huggingface transformers

Soy丶sauce 22 0 0

精彩评论(0)

0 0 举报