登录注册
【华东政法大学】人工智能通用大模型(ChatGPT)的进展
柴尔德
满仓搞的剁手专业户
2023-03-14 15:28:40


 



 
 




 


 


 


二、各国通用大模型的能力比较


 

 

 


       


         大模型之所以会对 AI 芯片提出这么高的要求,是因为大模型训练规模增大,数据量增大,训练成本、消耗的设备资源增长成一种线性的增长。人工智能往大模型方向发展带来三个比较大的变化,就是大数据、大算力、强算法,这三个变化形成了大模型的一个基本入门门槛,如果说能解决这三个,或者解决核心的两个,厂家可以进入到大模型的业务当中。ChatGPT 使用 1 万片 A100 或 A800,完整的训练一次是 14 天,这个时间不算短;推理对于设备的要求是呈现一个爆发式的增长,因为随着用户访问量的增加,对于推理的设备要求量会越来越大,推理的算力并不高,但训练好的模型大约 400 G,这是一个模型的尺寸,要把这个模型装下,最少要用五片 A100(因为一片 A100 板上面有 80G 内存),所以传统的一台英伟达 DGX,基本上满足一个用户访问请求的需求,它的生成速度大概是每秒钟可以生成 15 到 20 个词,基本上占用了一台英伟达 DGX 一秒钟的资源,那随着用户数量及查询量的增加,对于设备的要求是一个爆发式的增长,所以未来大模型对算力的增长主要来自于业务部署时产生的要求,而对于训练,规模基本上保持一定,除非未来有更大规模的模型。





作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
中国移动
工分
7.25
转发
收藏
投诉
复制链接
分享到微信
有用 1
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(4)
只看楼主
热度排序
最新发布
最新互动
  • 剩者为王
    超短低吸
    只看TA
    2023-03-14 20:30
    “传统的一台英伟达 DGX,基本上满足一个用户访问请求的需求”,1台19.9万美元,谷歌日活30亿次,需求...不敢想
    1
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-03-14 17:13
    市场真是太弱了,什么模式都没法玩了,A股到底怎么了
    0
    0
    打赏
    回复
    投诉
    于2023-03-14 18:18:04更新
    查看1条回复
  • 只看TA
    2023-03-14 16:53
    感谢分享
    0
    0
    打赏
    回复
    投诉
  • 1
前往