登录注册
【华泰计算机】智源【悟道3.0】正式发布,全面开源
戈壁淘金
只买龙头的老司机
2023-06-09 12:52:59

1、视觉大模型:①视觉基础模型:EVA,十亿级参数,在10个主流视觉感知任务中实现开源最强。其中EVA-CLIP模型是目前性能最强开源CLIP模型(CLIP是OpenIA提出的,主要用于图像分类任务)。②通用视觉模型:Painter,首创首创「上下文图像学习」技术路径,实现图像「理解/解释/生成」图像。③通用分割模型:视界,通过视觉指令prompt,实现一通百通的批量化识别分割同类物体,支持视频,可用于自动驾驶精准识别和定位,以及智能机器人等。④多模态模型:vid2vid-zero零样本视频编辑技术,简单prompt(提示)即可视频编辑;Emu多模态大模型,接受多模态输入,产生多模态输出。

2、语言大模型:①基础模型:悟道·天鹰Aquila,有7B和33B两个版本,是首个具备中英双语知识、支持商用许可协议、符合国内数据合规要求的开源语言大模型。目前已有AquilaChat对话模型,支持调用多模态模型生成图片。②「文本-代码」生成模型:AquilaCode-7B,支持中英双语、性能最好的开源代码模型。

3、其他模型:①AltDiffusion:全球首个支持18种语言的文生图多模态大模型。②AItCLIP:支持18种语言的文图表征大模型

4、大模型评测体系:FlagEval(天秤),30+能力×5种任务×4大类指标=600+维全面评测。

5、指令微调数据集COIG:①COIG第1期:171K开源可商用中文指令数据;②第2期Prompt Collection:最大规模、持续更新的中文多任务指令数据集。帮助实现模型与人类对齐。

6、天演生命模拟工程:构建生物启发的通用人工智能模型,在新一代超级计算机成功部署。

作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
凌云光
S
新华网
工分
4.02
转发
收藏
投诉
复制链接
分享到微信
有用 5
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(4)
只看楼主
热度排序
最新发布
最新互动
  • 交易者奋斗
    全梭哈的散户
    只看TA
    2023-06-09 16:45
    智源!
    0
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-06-09 13:55
    谢谢
    0
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-06-09 12:56
    谢谢分享
    0
    0
    打赏
    回复
    投诉
  • 1
前往