1、视觉大模型:①视觉基础模型:EVA,十亿级参数,在10个主流视觉感知任务中实现开源最强。其中EVA-CLIP模型是目前性能最强开源CLIP模型(CLIP是OpenIA提出的,主要用于图像分类任务)。②通用视觉模型:Painter,首创首创「上下文图像学习」技术路径,实现图像「理解/解释/生成」图像。③通用分割模型:视界,通过视觉指令prompt,实现一通百通的批量化识别分割同类物体,支持视频,可用于自动驾驶精准识别和定位,以及智能机器人等。④多模态模型:vid2vid-zero零样本视频编辑技术,简单prompt(提示)即可视频编辑;Emu多模态大模型,接受多模态输入,产生多模态输出。
2、语言大模型:①基础模型:悟道·天鹰Aquila,有7B和33B两个版本,是首个具备中英双语知识、支持商用许可协议、符合国内数据合规要求的开源语言大模型。目前已有AquilaChat对话模型,支持调用多模态模型生成图片。②「文本-代码」生成模型:AquilaCode-7B,支持中英双语、性能最好的开源代码模型。
3、其他模型:①AltDiffusion:全球首个支持18种语言的文生图多模态大模型。②AItCLIP:支持18种语言的文图表征大模型
4、大模型评测体系:FlagEval(天秤),30+能力×5种任务×4大类指标=600+维全面评测。
5、指令微调数据集COIG:①COIG第1期:171K开源可商用中文指令数据;②第2期Prompt Collection:最大规模、持续更新的中文多任务指令数据集。帮助实现模型与人类对齐。
6、天演生命模拟工程:构建生物启发的通用人工智能模型,在新一代超级计算机成功部署。