yundejia

关注

【自然语言处理三-self attention自注意是什么】

yundejia

关注

阅读 7

2024-03-02

图解 GPT-2(可视化 Transformer 语言模型)

文章目录

  • 一. GPT-2和语言模型
    • 1.1. 什么是语言模型
    • 1.2 Transformer的语言模型
    • 1.3 和BERT的不同
    • 1.4 Transformer 组件的演变
      • 1.4.1 encoder组件
      • 1.4.2 decoder组件
      • 1.4.3 只有decoder组件的decoder模块
    • 1.5 GPT-2内部结构
    • 1.6 GPT-2内部结构(更深入了解)

相关推荐

才德的女子

自然语言处理(NLP):16 图解self-attention原理

才德的女子 165 1 0

全栈学习笔记

NLP(自然语言处理)是什么?

全栈学习笔记 39 0 0

一只1994

自注意力(Self-Attention)

一只1994 87 0 0

爱薇Ivy趣闻

自注意力Self-attention

爱薇Ivy趣闻 29 0 0

千白莫

【自然语言处理】多头注意力Multi-Head Attention机制

千白莫 6 0 0

星巢文化

自然语言处理——语言模型(三)

星巢文化 118 0 0

愚鱼看书说故事

什么是自然语言处理(NLP)?自然语言处理(NLP)的概述

愚鱼看书说故事 27 0 0

洒在心头的阳光

self-attention自注意力机制

洒在心头的阳光 54 0 0

木匠0819

【Transformer】自注意力机制Self-Attention

木匠0819 93 0 0

产品喵dandan米娜

8_Self-Attention(自注意力机制)

产品喵dandan米娜 51 0 0

精彩评论(0)

0 0 举报