MoE混合专家模型相比传统Transformer模型具备更高的效率和更低的成本:MoE的核心优势在于能在远低于稠密模型所需计算资源的情况下进行高效训练;
DeepSeek V2做为MoE模型典范,相比目前
LLM开源大模型在各项性能方面均位于行业顶级水平:DeepSeekV2引入MLA算法,显著提高推理效率,相比DeepSeek V1节省42.5%的成本,单API调用输入价格1元每百万Tokens,是目前所有大模型中最低价格;
MoE大模型有望成为全球AI大模型主流技术路线,对通信网络更高需求推动高性能交换机加速落地:MoE模型会推动单交换机峰值速率提升,以及交换机总需求量增加
重点推荐标的:锐捷网络、紫光股份、菲菱科思、共进股份