0
点赞
收藏
分享

微信扫一扫

Ubuntu安装Apache教程

大纲

  • 神经网络概述

    • 神经网络的概念

    • 神经网络的应用方式

  • 序列建模与神经网络架构

    • 循环神经网络(RNN)在长序列建模中的应用

    • 卷积神经网络(CNN)在N-gram处理和高效计算中的优势

    • Transformer的出现及其在机器翻译中的性能

  • 大模型及其问题解决

    • 大模型的出现及其应用

    • 大模型产品如对话聊天

    • 大模型在计算机视觉领域的发展

  • 语言任务与模型训练

    • 语言任务类型(情感分析、垃圾邮件分类、机器翻译等)

    • 实体抽取任务

    • 语言模型训练过程

  • 有监督学习与监督数据问题

    • 监督数据标注的成本和耗时

    • 监督数据不足的问题

    • 模型大小限制

    • 模型泛化性不足

  • 迁移学习

    • 迁移学习的概念

    • 迁移学习在模型泛化性提升中的应用

    • 迁移学习与域训练技术

  • 自监督学习

    • 自监督学习的概念

    • 对比学习在自监督学习中的应用

  • 语言理解与Word2Vec

    • 语言理解的本质

    • Word2Vec模型及其工作原理

    • 词向量与语义关联关系

  • 预训练大模型

    • 预训练大模型的概念

    • 预训练大模型的发展历程

    • 大模型在知识迁移和模型参数增大中的作用

  • 大模型的认知能力

    • 大模型的世界知识和常识知识

    • 大模型的逻辑推理能力

    • 大模型的零样本和少样本学习能力

  • 大模型的多领域应用

    • 大模型在文本、图像、DNA等领域的应用

    • 大模型的全面覆盖能力

  • 总结与展望

    • 深度学习与知识迁移的进步

    • 大模型的通用能力

内容总结

一句话总结

本文深入探讨了神经网络、大模型及其在语言任务中的应用,分析了大模型的发展历程、认知能力和多领域应用。

观点与结论

  • 神经网络在序列建模和语言任务中发挥着重要作用。

  • 大模型的出现推动了自然语言处理的发展,提高了模型的效果。

  • 迁移学习和自监督学习有助于提升模型的泛化能力。

  • 大模型在多领域应用中展现出强大的能力。

自问自答

  1. 什么是神经网络?

    • 神经网络是一种模拟人脑神经元结构的计算模型,用于处理和分析数据。

  2. 什么是大模型?

    • 大模型是一种基于深度学习的模型,通过大量数据训练,能够处理复杂的任务。

  3. 什么是迁移学习?

    • 迁移学习是一种将已学习到的知识应用于新任务的方法。

  4. 什么是自监督学习?

    • 自监督学习是一种利用未标记数据训练模型的方法。

  5. 大模型在哪些领域有应用?

    • 大模型在自然语言处理、计算机视觉、语音识别等领域有广泛应用。

关键词标签

  • 神经网络

  • 大模型

  • 迁移学习

  • 自监督学习

  • 语言任务

  • 预训练模型

适合阅读人群

  • 深度学习爱好者

  • 自然语言处理研究者

  • 计算机视觉从业者

  • 人工智能开发者

术语解释

  • 神经网络:模拟人脑神经元结构的计算模型,用于处理和分析数据。

  • 大模型:基于深度学习的模型,通过大量数据训练,能够处理复杂的任务。

  • 迁移学习:将已学习到的知识应用于新任务的方法。

  • 自监督学习:利用未标记数据训练模型的方法。

  • 预训练模型:在大量数据上预训练的模型,可以用于解决特定任务。

  • 泛化能力:模型对未知输入的判断能力。

视频来源

Lecture 3 神经网络与大模型基础 Part 2_哔哩哔哩_bilibili

讲座回顾

然后,我们主要介绍了神经网络的概念及其应用方式

  • 训练过程关注神经网络对序列的建模。

  • 探讨了循环神经网络(RNN)在处理长序列的能力。

  • 分析了卷积神经网络(CNN)在处理N-gram和高效计算方面的优势。

  • 提出了Transformer模型,用于解决机器翻译问题,并指出其性能优于RNN。

  • Transformer与RNN的区别:主要源于Attention机制的差异,这种差异决定了运算方式并带来优势。

  • 大模型的出现及其解决的问题:大模型能够进行对话聊天,解决了一系列问题。

  • 时间背景:大约一两年前,实际情况与现在有所不同。

  • AlphaGo问世引发热议:人们开始讨论AI何时能通过图灵测试。

  • 时间预期变化:起初认为通过图灵测试需要很长时间,但现在似乎任何东西都能进行类似对话。

  • 大模型技术贡献:大模型技术的出现是推动这一变化的主要原因。

  • 神经网络与语言模拟:使用神经网络模拟语言是语言建模的关键。

  • 语言任务发展:语言任务从最初相对有限,如情感分析、垃圾邮件分类和机器翻译,逐渐扩展。

实体抽取,例如从一段简历中提取姓名、出生日期等信息。这类任务相对简单,通常不需要使用如RN等高级机器翻译方法。实际上,这类抽取任务可以通过编写简单的正则表达式来实现。

  • 神经网络模型最初设计用于解决条件判断等任务。

  • 与情感分析不同,神经网络模型不直接用于判断句子的情感倾向。

  • 该模型有助于商品分析,如新软件的推出,通过分析用户留言和评价,快速识别正面评价。

  • 语言模型的产生源于特定需求。

  • 早期语言模型训练过程简单。

  • 训练过程包含输入数据和期望输出数据。

  • 使用公式拟合数据,涉及xyx_iy_i的关系。

  • 训练数据是有监督数据,即带有人工标注标签的数据。

这个如何理解呢?即YI,即需让模型学会对句子进行判断,如情感分类好坏判断等。

  • 任务学习方式:通过大量示例学习,人工标注好坏标签,属于有监督学习。

  • 模型训练:使用如RN、CN等模型,通过梯度下降法进行训练。

  • 模型应用:训练好的模型用于实际测试数据,通过特定方法输出结果。

  • 方法特点:过程清晰明确,是早期任务处理的常见做法。

  • 监督数据标注成本高,需要人工进行,导致成本上升。

  • 早期CV研究中,数据标注工作由博士完成,耗时且辛苦。

  • 缺乏足够的监督数据,尤其是对于简单任务,如分类任务。

这些更复杂的任务,例如翻译,对于人工输入文字的专业性要求更高,因此也更为繁重,这是该方法的一个显著问题

  • 模型大小限制其效果提升,数据量小增大小模型效果有限,规模过小则影响应用效果。

  • 模型泛化性不足,对未知输入的判断能力有限,可能导致处理不同类型文本时表现不佳。

我们拥有丰富的传统文学资源,包括国外的经典文学作品以及国内的诸多译本,这些资源可用于训练模型

  • 语料来源:翻译的是贴吧语料。

  • 数据分布问题:训练数据和测试数据分布不同,即概率分布不同。

  • 数据内容差异:训练数据体现为良好的文学和文艺表达,测试数据为贴吧特有的表达风格。

  • 影响:导致测试数据在训练数据中出现的概率极低,降低模型泛化性。

  • 泛化性概念:泛化性好的模型能适应不同的数据分布。

我教授了一种方法,你能够由此推导出三个类似的东西,这体现了良好的泛化能力。因此,后来出现了一些新的方法,即迁移学习迁移学习的作用在于,通过传统方法,它并不十分……

将模型规模扩大,对方表示数据不足。第三点是模型的泛化性相对较差,如何解决呢?我们可以尝试先对模型进行训练。

  • 目标:掌握通用能力并通过迁移学习应用于具体任务。

  • 技术:域训练技术,Protraining技术。

  • 过程:在大规模无标注数据上训练,获得通用能力。

  • 局限性:通用能力可能不适用于所有领域,域训练中解决的问题可能与实际任务存在差异。

  • 迁移学习:将A任务的能力迁移至B任务,提高B任务表现。

  • Fine Tuning:在下游任务中进行微调,形成最终模型,提高测试效果。

  • 传统学习方法:针对不同任务独立学习,如圆圈任务学习圆圈模型,三角形任务学习三角形模型。

  • 新方法视角:通过迁移学习,将旧任务知识应用于新任务,如情感分类能力可用于垃圾邮件分类。

  • 迁移学习方法:通过预训练-微调范式,实现知识迁移,提高新任务的效果。

  • 韩旭是清华大学计算机系的助理研究员。

  • 韩旭的研究方向与大型模型紧密相关。

  • 韩旭将和国阳一起介绍大模型的背景知识。

  • 未来还将分享更多关于大型模型的内容。

其实我之前也提到过,今天大家所学的许多内容都与神经网络相关,即如何构建一个网络模型,以及如何对其进行训练。传统方法通常是对每个特定任务进行单独的学习。

  • 研究中针对机器翻译任务,通常使用专门的机器翻译模型。

  • 早期模型如RN模型和Transformer是专门为机器翻译任务设计的。

  • 模型训练区别:利用大量无监督或有监督数据,通过多种数据学习,具备众多潜在能力。

  • 迁移学习比喻:类似于“读书百遍,其义自见”,通过积累知识,在后续任务中游刃有余。

  • 迁移学习类型:包括基于特征和基于参数的迁移。

  • 大模型迁移学习:基于参数的迁移,学习时模型结构和内部参数包含特定信息,应用于下游任务需微调参数。

其实这与迁移学习密切相关,包括深度学习早期的一些工作,都是基于这种迁移学习范式进行拓展的。以计算机视觉领域为例,早期的研究者们进行了一些工作,例如……

  • 研究者们在图像识别和人脸识别领域使用深度卷积神经网络(CNN)。

  • 利用大量标注数据,如ImageNet数据集,进行模型训练。

  • ImageNet包含多种目标识别数据,如花卉、鱼类、昆虫、汽车等。

  • 模型在ImageNet上训练后,能够进行图像分类,并有效辅助人脸识别任务。

  • 这种将图像识别能力迁移至人脸识别的方法称为知识迁移或迁移学习。

  • ImageNet数据集中存在未标注图片,给进一步应用带来挑战。

  • 深度学习模型的训练需要明确的目标、输入和输出。

与标准输出进行对比后,我们将得到损失函数等相关内容。通过优化该损失函数,使模型在给定输入后能够得到预期的输出。

  • 问题:在输入数据无标注的情况下,如何训练模型。

  • 解决方案:提出自监督学习。

  • 自监督学习核心:利用未标记数据的内部信息来训练模型。

  • 典型代表:对比学习。

  • 对比学习操作:未具体描述。

  • 研究者提出一种方法,通过多种形式的图片改写(如添加噪声、旋转等)来增强模型识别能力。

  • 改写后的图片与原始图片一同输入模型,让模型判断是否为同一张,以此构造对比标签。

  • 这种方法允许模型利用大量未标注数据,实现无监督学习,学会辨别图片一致性。

  • 类似方法可应用于语言理解,语言模型通过建模句子概率来理解语言。

  • 字监督与处理图片有相似之处。

  • 拥有大量人类语言数据,但捕捉有效监督信号是关键。

  • 定义模型理解人类语言的标准是判断模型是否真正理解语言的关键。

  • 提出的最佳定义是:模型理解句子时,其概率是否大于或等于其他语言出现的概率。

  • 人类交流中,语言错误或语序不当会被立即察觉。

  • 电脑若能识别哪些是人类应该说的,哪些不应该说,则意味着它理解了人类自然语言。

  • 研究者从这一角度出发,探讨如何验证人类所有语言。

一句话的整体概率判别,他们基于此出发,最早进行的工作是构建所谓的Word2Vec,即词向量,研究如何学习大量词汇的向量表示。他们的具体做法相对简单,总体而言,他们采用了两套模型。

  • CBOW模型原理:通过提取句子中的词窗口,移除一个词,根据上下文预测该词,为每个词分配向量,形成加和向量来代表局部词的语意信息。

  • 自监督学习:无需标注,通过在文章中划取窗口并移除词作为填空题,帮助模型学习和掌握语言。

  • 模型评估:类似于老师通过填空题评估学生,模型通过预测准确性来学习,每个字最终得到良好的表示。

  • 通过计算词项量之间的差值,可以揭示词之间的特定关系。

  • 例如,“国王”与“皇后”的差值与“男人”与“女人”的差值一致。

  • 动名词与过去时态的词项量差也表现出一致性。

  • 这种填空方式帮助模型理解词间的语义关联,并以数据形式呈现。

  • 这是AM模型进行语言理解的一个深层次机理。

  • 利用海量文本数据学习词汇量可能存在一个问题。

  • 问题在于难以捕捉人类语言中的二义性。

  • 二义性是语言学中的重要概念,指一句话可能具有不同的含义。

  • 例如,“意思”一词在不同语境下可能有赠送或拒绝的含义。

  • 人类的语言具有高度的二异性。

  • 举例说明“bank”一词在不同语境中的歧义性。

  • 指出学习语言时,词项的多义性给学习带来困难。

第二个项目是关于使用滑动窗口预测中间词。假设仅提供如“the movie is sold”这样的句子,要求填充空白部分。

  • 使用贝叶斯或贝尔的贝叶斯方法,词向量在空间中可能相似。

  • 可能将“贝叶斯”替换为“贝尔”而不影响文章的语法错误。

  • 单词的上下文或全局上下文未考虑时,词向量学习可能存在模糊性。

  • 2018年的一项研究关注使用RNN进行语言建模,即逐词输出。

  • 使用前三个或第四个词作为提示,模型可以生成完整的句子。

  • 模型基于RNN(循环神经网络)技术,能够分解句子并生成对应文本。

  • 模型可以处理如“中国银行认识”这样的句子,并生成相应的文本。

这句话的每个词都会被输入到RNN中,RNN在每一个步骤是否都能输出一个词向量呢?它将RNN输出的词向量视为词项量,并将其作为语言处理的一部分。

融合整个上下文语意的一个模型,然后使用该模型。

  • 基础词汇扩展:某些词汇具有多重含义,如“bank”可指银行或核弹。

  • 上下文赋予新义:词汇的含义通过上下文和与其他文字的交互而获得新的解释。

  • 实例说明:“I go to the bank for phishing”中,“phishing”一词在特定语境下有特定含义。

Fishing模型会令Bank去除其中与银行相关的部分特征。剩余的特征仅与局部语境相关。利用这些具有语境的特征项,后续模型能够有效解决RA性问题。

  • 模式起源:所述模式是预训练大模型的最初版本。

  • 大模型核心:通过大量数据训练,使模型掌握包括语言在内的多种能力,并应用于后续任务。

  • 训练阶段:分为两个阶段,首先是学习人类语言,其次是深入理解上下文并完成任务。

  • 介绍了一种从构建到应用的范式。

  • 强调大模型通过学习人类数据,特别是语言数据,能够实现的功能。

  • 提及了AOMO作为初步的语言学习模型的例子。

或者是大型模型,我认为其发展历程可以类比于一个发端的过程。其关键节点在于2018年,之所以命名为AOMO,是因为美国动画片《芝麻街》中有一个名为AOMO的人工智能角色,即那个最前面的红色怪物。

您发现众多大型模型均取名为“芝麻街”中的角色,如谷歌的Bert。实际上,Bert即指芝麻街中的黄老先生,该角色名即来源于此。随后,众多模型名称均由此衍生。

  • 芝麻街家族推出:提及了芝麻街家族的推出。

  • 预训练模型影响:从2018年开始,预训练模型对自然语言处理(NLP)发展产生重大影响。

  • 模型训练方式转变:从为每个任务单独训练模型转变为将大量知识注入到一个模型中。

  • 性能提升:这种转变在多个文本评测任务上显著提升了表现。

  • CBOW相当于磁效应量。

  • 普通LSTM是LSTM模型加上AOMO。

  • Transformer预训练模型效果显著提升,有时超过人类水平。

  • 2018-2020年间,模型效果随参数增大和数据增多而提升,类似于人体发育过程。

人类从原始人或灵长类祖先进化到现在,星岛容量在不断增大。然而,对应的模型参数也在不断增大。

第二个相当于说,目前教育时间呈增长趋势,所学知识量也随之增加。这实际上对应的是模型学习所需的数据量也在不断增长

  • 模型参数增大。

  • 训练数据增多,模型能力显著提升。

  • 2020年OpenAI推出GPT-3。

  • GPT-3的前身是GPT-2。

当时该模型规模庞大,拥有1750亿参数,之前均以赵莱集团参数为标准

他们是按照模型参数进行扩展,规模整整扩大了,可以想见至少扩大了1000倍。在这样的规模下,模型效果达到了非常惊人的水平。然后这个地方就……

您可以看到,OpenAI当年的GPT-3在参数规模上相较于之前的模型有着显著提升

从当前视角来看,迅速迁移模拟技术已经变得相对简单,不再像当年那样具有挑战性。尽管当时众多研究者都在探索这一领域。

  • 构建大模型是一项艰巨的任务,但效果显著。

  • 早期研究认为,AI的逻辑推理和知识掌握需要采用符号化方法。

  • 大模型通过大量数据学习,自发涌现出丰富的世界知识和常识知识。

  • 世界知识和常识知识,如“青蛙有几条腿”,过去需要专门训练模型掌握。

  • 现在模型能够进行简单的逻辑推理,无需专门训练。

  • 过去认为这类任务需要通过符号推演完成。

  • 神经网络采用的技术被称为Neurosymbolic。

  • 神经符号模型架构的逻辑推演过程类似于逐步进行,每一步可能涉及神经网络学习。

  • 模型基于符号化构建。

  • 大模型提出构建“大黑盒子”的观点,通过大量数据输入,模型自发展现复杂能力。

  • 与传统深度学习模型相比,大模型在举一反三的能力上有所提升,GPT-3展示了这一特点。

  • ZRShort功能:仅提供任务内容描述,不提供教学案例,如直接告知马是四脚动物,展示照片让辨认。

  • FuseShort功能:在描述任务内容的基础上,提供辅助照片,帮助识别,如描述马的外观并提供多张照片。

  • 马匹识别:GPT-3仅需少量任务描述或案例即可表现出色,实现零样本学习。

  • 模型参数与学习能力:随着模型参数增大,零样本和少样本学习能力提升,模型可自发产生举一反三的能力。

  • GPT-3的认知能力:虽然被认为具有认知能力,但实际未达到进行符号推演的精确程度。

  • 他的推演逻辑和能力依然存在。

  • 人的思维推理过程与人脑运作相似。

  • 人们交流时,不一定能进行完整的思维推理。

  • 复杂情节构思或逻辑推理需要记录想法。

  • 大模型不需要完全具备公式化推理方法,这样的能力并非绝对必要。

整体而言,我们在后续研究中不仅关注文本数据,还尝试将图像、DNA以及人类操作电脑产生的数据纳入研究范围

甚至操作各种工具的顺序,包括一些更复杂的电磁序列数据,都将其转化为序列化数据,随后利用统一的序列化模型进行建模。

  • 模型经过数据输入后达到极致智能状态,具备多领域全面覆盖能力。

  • 课程旨在简单介绍深度学习进步,知识迁移和模型参数增大导致模型智能成长。

  • 后续课程将详细介绍实现模型具备通用能力的方法。

  • 本节课介绍了神经网络和大模型的基础知识。

然后请各位提出疑问。

举报

相关推荐

0 条评论