二、各国通用大模型的能力比较
大模型之所以会对 AI 芯片提出这么高的要求,是因为大模型训练规模增大,数据量增大,训练成本、消耗的设备资源增长成一种线性的增长。人工智能往大模型方向发展带来三个比较大的变化,就是大数据、大算力、强算法,这三个变化形成了大模型的一个基本入门门槛,如果说能解决这三个,或者解决核心的两个,厂家可以进入到大模型的业务当中。ChatGPT 使用 1 万片 A100 或 A800,完整的训练一次是 14 天,这个时间不算短;推理对于设备的要求是呈现一个爆发式的增长,因为随着用户访问量的增加,对于推理的设备要求量会越来越大,推理的算力并不高,但训练好的模型大约 400 G,这是一个模型的尺寸,要把这个模型装下,最少要用五片 A100(因为一片 A100 板上面有 80G 内存),所以传统的一台英伟达 DGX,基本上满足一个用户访问请求的需求,它的生成速度大概是每秒钟可以生成 15 到 20 个词,基本上占用了一台英伟达 DGX 一秒钟的资源,那随着用户数量及查询量的增加,对于设备的要求是一个爆发式的增长,所以未来大模型对算力的增长主要来自于业务部署时产生的要求,而对于训练,规模基本上保持一定,除非未来有更大规模的模型。