年后翻倍AI新服:Sora文生视频概念股(小表哥)
2月16日,OpenAI在其官网发布文生视频模型Sora。
据介绍,该模型可以生成长达一分钟的视频,同时保持视觉品质并遵循用户提示。它能够生成具有多个角色、特定类型的运动以及精确的主题和背景细节的复杂场景。
除了能够仅由文本指令生成视频外,该模型还能够获取现有的静态图像并从中生成视频,并精确地将图像内容动画化。
1分钟是什么概念?
在这之前,全球最火的两家AI视频公司是Runway和Pika。这两家公司的创始人在对外预测2024年的时候,都说有一个核心目标是希望能生成15秒的流畅视频。
因为2023年大部分文字生成的AI视频长度都在4-6秒,所以他们都把能生成15秒视频作为一个里程碑。而这次,Sora直接可以生成60秒的视频,视频中的主角、配角和背景,都达到了惊人的一致和逼真。
数秒钟到一分钟的进步让人震撼,其原因在于OpenAI的解题思路完全不同。
根据OpenAI的介绍,Sora通过学习视频,来理解现实世界的动态变化,并用计算机视觉技术模拟这些变化,从而创造出新的视觉内容。换句话说,Sora学习的不仅仅是视频,也不仅仅是视频里的画面、像素点,还在学习视频里面那个世界的“物理规律”。
根据周鸿祎的判断,视频的信息量远远超过文字,AGI(通用人工智能)真的就不远了,不是10年或者20年,可能就在这一两年。
真·降维打击,Sora与Runway、Pika的对比来了,震撼效果背后是物理引擎模拟现实世界
以后的视频生成领域,恐怕真的只有 OpenAI 的 Sora 和其他模型了。
昨天,OpenAI 发布的首个文本生成视频模型 Sora 引爆了社区,其生成的长达 1 分钟的高清、流畅视频令人们惊叹不已,直呼「好莱坞的时代结束了」。
与此同时,更多创作者也晒出了他们使用 Sora 生成的视频,进一步验证了 Sora 的超强视频生成能力。比如输入 prompt「一座巨大的大教堂里全是猫。放眼望去,到处都是猫。一个男人走进大教堂,向坐在王座上的巨型猫王鞠躬。」
比如输入 prompt「一座幽灵般的鬼屋,有友好的杰克灯笼和鬼魂人物,欢迎捣蛋鬼来到入口,倾斜移位摄影。」