登录注册
计算机行业
股海无涯
全梭哈的散户
2023-03-24 06:50:16
解析ChatGPT背后的技术演进

自然语言处理(Natural Language Processing, NLP)的发展历程可分为三个阶段;

1)上世纪80年代之前,人工智能开始萌芽,基于规则的语言系统占据主导,出现了机器翻译以及语言对话的初级产品;2)1980年之后,机器学习在全球范围内兴起,自然语言处理走向纯粹的统计学,90年代后神经网络引入,NLP进入了快速发展期,并在2000年后逐渐开启了商业化进程;3)2017年,Google发布著名论文《Attention is All YouNeed》,提出了基于Attention注意力机制构建的Transformer模型,2018年OpenAI的GPT模型以及Google的BERT模型均是在Transformer的基础上构建,大语言模型时代正式开启。Attention注意力机制与Transformer是大语言模型的基石。1)Attention机制在并行计算(效率更高)以及解决长距离信息依赖的能力(效果更好)上优于过去的神经网络模型。2)Transformer模型没有使用传统的CNN和RNN结构,其完全是由Attention机制组成,其中Self-Attention(自注意力)是Transformer的核心。3)OpenAI的GPT模型和Google的BERT模型虽然都是基于Transformer所构建,但GPT模型仅使用了解码器的部分,而BERT仅使用了编码器的部分,二者在技术路线上也走向了两条不同的道路。GPT模型的持续进化与能力突变:从CPT-1到CPT-4。1)GPT-1:有监督学习和无监督学习的结合,模型的语言泛化能力不够,更接近于处理特定语言任务的专家模型,而非通用的语言模型;2)GPT-2:舍弃了模型微调,让多个不同的任务在同一个模型上学习,构建了换一个泛化能力更强的语言模型,开始让语言模型的通用性得到了更加充分的展现;3)GPT-3:在训练方法上则采取了In-context学习,参数量相较于GPT-2提升了两个数量级,达到了1750亿,数据集在处理前容量达到了45TB,是真正意义上的超大语言模型。4)ChatGPT:引入人类反馈的强化学习(RLHF)及近端策略优化算法(PPO)等新的训练方式后,语言生成能力大幅提升,并且涌现出了思维链及逻辑推理等多种能力。5)GPT-4:在推理能力、文本生成能力、对话能力等方面有了进一步提升的同时,实现了从大语言模型向多模态模型进化的第一步。未来展望:多模态和AIGC。近年来Google,微软等海外大厂均已经在大模型上展开布局,行业竞争门槛正在迅速提升,头部厂商在算力资源、数据积累等方面的竞争优势将进一步凸显。目前大模型的应用已经不局限于NLP领域,计算机视觉、多模态等领域的大模型开始涌现,而生成算法、大模型与多模态为三大底层技术的突破成为了AIGC的质变的关键。AIGC作为人工智能最重要的演进方向,能够自主生成创造出文字、图片、语音、视频、代码等各种形式的内容,将深度改变办公、电商、娱乐、教育、媒体等各行各业,并引领人工智能实现从感知理解到生成创造的跃迁。相关标的:ChatGPT及大语言模型受益标的涉及平台、算法、场景、算力四大类厂商:1)平台:百度、阿里、腾讯、360;2)应用:金山办公、科大讯飞、光云科技、同花顺、万兴科技、致远互联、福昕软件、漫步者、虹软科技、当虹科技、凌志软件;3)算法:科大讯飞、拓尔思、海天瑞声、云从科技、商汤科技;4)算力:寒武纪,海光信息、浪潮信息、紫光股份、中科曙光、优刻得、青云科技。

风险提示:产业变革和新技术落地节奏不及预期;AI技术的发展易引起法律和监管问题;中美贸易摩擦加剧风险。
作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
佰维存储
工分
2.47
转发
收藏
投诉
复制链接
分享到微信
有用 0
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
暂无数据