近日OpenAI发布了首款文生视频模型——Sora模型。
该模型可以根据用户输入的文字描述,生成一段长达1分钟的高清流畅视频,也能通过现有的静态图像生成视频,还能对现有视频进行扩展、填充缺失内容。从目前的效果来看,Sora生成的视频效果非常出色,场景逼真、细节真实。
360创始人、董事长周鸿祎最新发布视频分享自己对Open AI最新的文生视频大模型Sora的见解,称“Sora工作原理像人做梦,未来AGI比的就是算力和对世界的理解。”
他在视频中表示:“用传统计算机、图形学、影视工业特效的方法来重现一些画面的时候,我们喜欢的是3D件模型、建立光照、搞粒子模型、然后一帧一帧地渲染。这种方法实际上是效率非常低、耗费非常贵的。是用一种最笨的方法模拟出了这个世界。但Sora的方法非常像人类的做梦——我们会梦到各种奇奇怪怪的东西,做梦所产生的依据是我们在正常生活中眼睛看到的东西,这种积累的经验,是不需要3D建模然后一帧一帧渲染的。”
妈妈未成年爸爸在牢里过年 不会被同学发现的囧图
世界首款LGBTQ游戏出展:在同性恋社区调查变装女皇
与PS切割的沙特白金肝帝爽玩PC 晒《忍龙4》全成就
民间汉化转正!《丝之歌》简中更新现已上线
Faker:S15最印象深刻的LPL队伍是AL 他们表现最强
陀螺网飞科幻新片IGN 9分:等待二十载的巅峰之作