登录注册
混合AI才是人工智能的未来!—边缘计算的预期差
锦鲤论股
自学成才的公社达人
2023-07-24 23:54:08

混合AI才是人工智能的未来!边缘计算的预期差

 

一.巨头动向

1.高通转型边缘计算公司!

高通前段时间宣布正在由通信公司过渡到边缘计算公司(edge company并发布白皮书《混合AIAI的未来》,详细阐述了云端和终端分布式处理的混合AI才是AI的未来,其核心在于进一步增强边缘计算能力,使得100亿或更高参数的模型在终端上运行成为现实,最终实现AI大模型在终端的落地,助力AI大模型实现低成本、低能耗、高安全和个性化。

未来,物联网模组将承载高通的边缘算力,为全世界开发者带来易用,高性价比的终端计算能力,赋能万物AI互联,真正成就AIOT时代。硬件龙头已经在构建混合AI”的蓝图

2.Meta发布开源Llama 2模型,边缘AI落地加速

Meta近期发布新一代开源大模型Llama 2模型,随后高通Me­ta发布合作公告:将在2024年推出 “手机版Ll­a­ma 2

相较Llama 1模型,Llama 2模型训练token数提升至2万亿,上下文长度限制翻倍,包含70亿、130亿、700亿参数模型版本。Llama 2在推理、编码、精通性和知识测试等测试中表现优异,优于其他开源语言模型。

 

由此可见混合AI已成大厂布局重点,未来有望加速落地

  • 混合AI的应用前景
  • 1.离线支持
  • 手机首先我们并不是一直都能上网。当我们离线飞行时,如果能有一些功能较弱但仍然智能的AI助手来帮助我们是不是好很多呢
  • 机器人其实目前很多机器人的运作环境许多都是水底,矿山等无法联网的环境,而且需要对当前环境执行目标检测,并做出实时反映,必须得用边缘端AI芯片进行推理
  • 元宇宙大家熟悉的MR, VR设备,用户在交互操作相关硬件需要完成语义分割,目标检测,虹膜识别,姿态估计等深度学习任务,而且需要实时性,不然严重影响用户体验这时候还得是边缘端AI芯片发挥作用
  • 2.客户端-服务器混合使用
  • 让不同的人工智能组件协同工作在本地卸载部分计算,与云上运行的模型协作根据我们所处的环境,在两者之间无缝地移动计算
  • 不仅可以减轻云端的计算压力也能更充分提高用户体验
  • 举两个例
  • 1.虽然目前手机可以使用云端运行的chatgpt等服务但使用过的同学应该可言发现不仅有时延而且也不能调动手机里应用的功能及插件
  • 未来手机端的AI助手还得是终端独立推理或者与云端大模型协通计算这样不仅能保护个人资料的隐私也能充分调动手机里的各种APP
  • 2.近期爆火的AI应用,妙鸭相机生成图片的等待时长需等待十几个小时才能出片。这款大模型其实并不复杂,美格智能基于高通骁龙800平台的自研算力模组上已经能成功运行文生图大模型Stable Diffusion
  • 此时若能把终端的算力利用上减少用户等待时间用户体验是不是好很多呢
  • 边缘芯片:芯原股份、乐鑫科技、恒玄科技、中科蓝讯、炬芯科技、晶晨股份、瑞芯微、全志科技
  • 边缘模组:广和通、移远通信、映翰通、美格智能移为通信
  • 作者利益披露:原创,不作为证券推荐或投资建议,截至发文时,作者不持有相关标的。
    声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
    S
    美格智能
    S
    移远通信
    S
    全志科技
    S
    初灵信息
    S
    广和通
    工分
    2.37
    转发
    收藏
    投诉
    复制链接
    分享到微信
    有用 6
    打赏作者
    无用
    真知无价,用钱说话
    0个人打赏
    同时转发
    暂无数据