OpenAI,永远快别人一步!
100万token的上下文,仅靠一本语法书就学会了一门全新的语言,如此震撼的技术进步,在Sora的荣光下被衬得暗淡无光,着实令人唏嘘。
这次,不过也是之前历史的重演。

为什么ChatGPT会提前诞生?
《这就是ChatGPT》一书对此进行了揭秘:当时OpenAI管理层听说,从OpenAI「叛逃」的前员工创立的公司AnthropicClaude有意提前推出Chatbot。
管理层立马意识到这个产品潜力巨大,于是先下手为强,第一时间改变节奏,出手截胡Anthropic。
11月中旬,在研发GPT-4的OpenAI员工收到指令:所有工作暂停,全力推出一款聊天工具。两周后,ChatGPT诞生,从此改变人类历史。
或许,这也就揭示了为什么一家公司可以永载史册的原因:领导者能够发现有市场潜力的新产品,全面拦截所有成功的可能性。
对于谷歌被截胡一事,网友锐评道:OpenAI用Sora对抗Gemini发布的方式简直了,谷歌从没有受过这样的打击。

这不得不让人怀疑,OpenAI手里是不是还攥着一堆秘密武器,每当竞争对手发布新技术,他们就放出来一个爆炸级消息。

要知道,现在才刚刚是2024年2月,想想接下来要发生的事,不免觉得毛骨悚然。
为何Sora掀起滔天巨浪
Sora一出,马斯克直接大呼:人类彻底完蛋了!

马斯克为什么这么说?
OpenAI科学家TimBrooks表示,没通过人类预先设定,Sora就自己通过观察大量数据,自然而然学会了关于3D几何形状和一致性的知识。
从本质上说,Sora的技术,就是机器模拟我们世界的一个里程碑。

更有人表示,在Sora之中,我切实感受到了AGI。

这也就是为什么Sora会在全世界掀起滔天巨浪的原因。
要了解Sora如此强大的能力从何而来,除了OpenAI官方给出的技术报告,行业大佬也进行了进一步的解读。
LeCun转发了华人学者谢赛宁的推文,认为Sora基本上是基于谢赛宁等人在去年被ICCV2023收录的论文提出的框架设计而成的。

而和谢赛宁一起合著这篇论文的WilliamPeebles之后也加入了OpenAI,领导了开发Sora的技术团队。

所以谢赛宁的对于Sora的技术解读,具备极高的参考价值。

谢赛宁:Sora很厉害,不过好像是用了我的论文成果
AI大神谢赛宁,针对Sora的技术报告谈了自己的看法。

项目地址:
-架构:Sora应该是基于他和Bill之前在ICCV2023上提出的以Transformer为主干的扩散模型(DIT)
其中,DIT=[VAE编码器+VIT+DDPM+VAE解码器]。
根据技术报告,好像没有其他特别的设计了。
在获得良好的时间一致性方面,tokenize可能起了很重要的作用。
VAE是一个ConvNet。所以从技术上讲,DIT是一个混合模型。

谢赛宁表示,他们在DIT项目没有创造太多的新东西,但是两个方面的问题:简单性和可扩展性。
这可能就是Sora为什么要基于DIT构建的主要原因。
首先,简单意味着灵活
当涉及到输入数据时,如何使模型更加灵活。
例如,在掩码自动编码器(MAE)中,VIT帮助我们只处理可见的patch,而忽略掉被mask的。
UNet并不直接提供这种灵活性。
猜测:Sora可能还会使用谷歌的Patchn‘Pack(Navit),以使DIT能够适应不同的分辨率/持续时间/长宽比。
其次,可扩展性是DIT论文的核心主题
就每Flop的时钟时间而言,优化的DiT比UNet运行得快得多。
粗略计算一下,DITXL/2是B/2模型的5倍GFLOPs,因此最终的16倍计算模型可能是DIT-XL模型的3倍,这意味着Sora可能有约30亿个参数。

如果真的是如此,Sora的模型规模可能没有那么大。
这可能表明,训练Sora可能不需要像人们预期的那样,有非常大的算力要求,所以他预测未来Sora迭代的速度将会很快。

进一步的,谢赛宁解释了Sora提供的关键的洞见来自「涌现的模拟能力」这一表现上。
在Sora之前,尚不清楚长期形式的一致性是否会自行涌现,或者是否需要复杂的主题驱动的其他流程,甚至是物理模拟器。
而现在OpenAI已经表明,虽然现在结果还不完美,但这些行为和能力可以通过端到端的训练来实现。
然而,有两个要点还不是很明确。
1.训练数据:技术报告没有涉及训练的数据集,这可能意味着数据是Sora成功的最关键因素。
目前已经有很多关于游戏引擎数据的猜测。他期待包括电影、纪录片、电影长镜头等。
Sora可能是通过允许自回归采样的联合帧预测来实现的,但这里最主要挑战是如何解决误差累积问题,并随着时间的推移保持质量/一致性。
OpenAISora的技术,就是机器模拟我们世界的重要下一步
Sora的一大创新,就是创新性地使用了时空patch。
通过底层训练和patch,Sora能够理解和开发近乎完美的视觉模拟,比如Minecraft这样的数字世界。这样,它就会为未来的AI创造出训练内容。有了数据和系统,AI就能更好地理解世界。

从此,我们可以解锁VR的新高度,因为它改变了我们看待数字环境的方式,将VR的边界推向了新的高度,创建出近乎完美的3D环境。可以在AppleVisionPro或MetaQuest上按需与空间计算配对了。
除了谢赛宁的解读之外,AI专家VincentKoc,也对此展开了详细分析。
以往,生成模型的方法包括GAN、自回归、扩散模型。它们都有各自的优势和局限性。
而Sora引入的,是一种全新的范式转变——新的建模技术和灵活性,可以处理各种时间、纵横比和分辨率。
Sora所做的,是把Diffusion和Transformer架构结合在一起,创建了diffusiontransformer模型。
于是,以下功能应运而生——
这就好比,我们正在厨房里。

而与他们不同的是,Sora是一位基础知识扎实的新型厨师。
它不仅能照着旧食谱做菜,还能自己发明新食谱!
探寻Sora秘密成分的核心:时空patch时空patch,是Sora创新的核心。

它建立在GoogleDeepMind早期对NaViT和ViT(视觉Transformer)的研究之上。

论文地址:
而这项研究,又是基于一篇2021年的论文「AnImageisWorth16x16Words」。

论文地址:
传统上,对于视觉Transformer,研究者都是使用一系列图像patch来训练用于图像识别的Transformer模型,而不是用于语言Transformer的单词。
这些patch,能使我们能够摆脱卷积神经网络进行图像处理。

然而,视觉Transforemr对图像训练数据的限制是固定的,这些数据的大小和纵横比是固定的,这旧限制了质量,并且需要大量的图像预处理。

这种保存,对于捕捉视觉数据的真正本质至关重要!
通过这种方法,模型能够从更准确的世界表示中学习,从而赋予Sora近乎神奇的准确性。
时空patch的可视化
这种方法使Sora能够有效地处理各种视觉数据,而无需调整大小或填充等预处理步骤。
这种灵活性确保了每条数据都有助于模型的理解,就像厨师可以使用各种食材,来增强菜肴的风味特征一样。
多样化数据在训练中的作用训练数据的质量和多样性,对于模型的性能至关重要。
这样,Sora就成了一个「通才」模型,就像GPT-4对于文本一样。
这种广泛的训练,使Sora能够理解复杂的动态,并生成多样化、高质量的内容。
这种方法模仿了在各种文本数据上训练LLM的方式,将类似的理念应用于视觉内容,实现了通才功能。
可变PatchesNaVit与传统的视觉Transformer
NaViT模型通过将来自不同图像的多个patch打包到单个序列中,得到了显著的训练效率和性能提升一样。
让物理世界栩栩如生:Sora对3D和连续性的掌握3D空间和物体的一致性,是Sora演示中的关键亮点。
从此,现实不存在了,创造力和现实主义的界限被突破。
并且,Sora为模型的可能性设立了全新的标准,开源社区很可能会掀起视觉模型的全新革命。
前方,就是AGI和世界模型了。
不过好在,OpenAI员工透露说,Sora短期内不会面世。
一位OpenAI员工发推表示,现在Sora只会在有限的范围内试用,现在放出的demo主要是为了获得社会大众对它能力的反应
现在,标榜要开发负责任AGI的OpenAI,应该不会冒着风险给大众抛出一个潘多拉魔盒。