一、开源“大语言模型”龙头:Meta-LLaMA。
1)开源大语言模型龙头:LLaMA模型发布,可能会加速大型语言模型的开放;2 ) LLaMA开发团队:Meta AI首席AI科学家为Yann LeCun;3 ) Meta大模型演变:Meta迄今为止开源过三个大模型(OPT、OPT-IML、LLaMA);4 ) LLaMA的项目地址&预训练数据集:在发布时,Meta表示LLaMA可以在非商业许可下提供给政府、社匙和学术界的研究人员和实体工作者;5 )开源模型比较:开源模型中LLaMA的使用量位居前列,且有大量基于LLaMA的项目出现;6 )微调版LLaMA—Alpaca:指令遵循语言模型Alpaca羊驼,是Meta开源的LLaMA 7B模型上进行微调得到,产生了以低得多的成本(不到500美元)获得的52K指令。
二、ChatGPT vs LLaMA:参数&效果。1 )模型参数:LLaMA-13B的性能优于GPT-3,体积却小了10倍以上;2 )算力成本:LLaMA模型在同等规模下训练算力需求更大,开源后有更多的开发者可以在更小的显卡上更快地运行使用LLaMA。3 )效果比较:“常识推理”略优于GPT-3,语言理解能力高于GPT-3弱于PaLM,社会偏见评测上,LLaMA模型与另外两个模型相比略胜一筹,编程能力和和ChatGPT还有一些差距。
三、安卓&SD经验:开源如何提高大模型水平。1)大语音模型开源后的开发方向:一般有两种开发方向,模型结构调整和在模型基础上微调;2)模型基础上微调分为两种情况:微调和领域数据微调;3 )复盘iOS和安卓的竞争:安卓系统凭借开源,被诸多手机厂商所采用;4 )Stable Diffusion开源效果:StableDiffusion的开源属性使得用户自发丰富模型生态,使得大量用户进入。
四、投资建议:
大模型算力需求,大模型门槛降低后,涌入大模型赛道的公司有望迎来井喷:芯原股份( GPU设计)
作为科技市场的观察者,我们坚定看好与巨人携手共舞的领军企业,即芯原股份。公司于3月15日宣布与微软合作为边缘设备部署
Windows10操作系统,助力开发者快速创建、部署和扩展物联网解决方案,加速边缘 Al在loT的落地。
为何微软选择芯原?
公司技术实力雄厚,拥有从RiscV+GPU+NPU+chiplet+SerDes等一系万lID 一的性殊 性,不会与生态链中的芯片/终端厂商直接竞争:
公司拥有GPU、NPU、VPU等人工智能处理器IP,其中VPUIP已被全球前20大云厂商中的12个采用,包括BAT、抖音、快手、AWS、谷歌等:NPUIP已被60余家客户用于其110余款AI芯片中。
Chiplet方面,芯原是大陆首批加入UCle联盟的企业之一,是全球Chiplet行业的先驱者。公司深度受益IP芯片化 芯片平台化,明年Chiplet有望贡献营收,首先落地在汽车电子、数据中心等领域。
SerDesIP方面,公司早在2021年便与全球SerDesIP龙头Alphawave签署协议,拥有独家销售Alphawave一系列SerDesIP的权利,速率涵盖1-224Gbps,完善了公司在高速接口IP方面的布局。
RISC-V方面,芯原是中国RISC-V产业的领军者,在2018年芯原就牵头成立了中国RISC-V产业联盟,并担任首任理事长,公司亦投资参股了专注RISC-V处理器的芯来科技。随着RISC-V的软件生态、应用生态、开发者生态不断成熟,RISC-V未来有望从终端走向云端,成为第三大架构生态,芯原股份持续受益。
业绩与估值
1市场空间:据IPnest数据,全球芯片IP市场,2026年110亿美元,对应国内37亿美金。
2终局展望:芯原股份海外市占率可达10%:国内市占率达20%,即15亿美金收入。参考ARM,合理净利率35%,30倍 PE,则远期目标市值160亿美金,即1100亿人民币(仅考虑IP业务估值)