攻陷短视频后,Sora将需要72万块H100 GPU

AI最新资讯2个月前发布 tree
26 0 0

今日应用


今日话题


攻陷短视频后,Sora将需要72万块H100 GPU
攻陷短视频后,Sora将需要72万块H100 GPU
 

重点标签 Sora视频生成扩散模型计算需求应用前景

文章摘要


文章主要讨论了 OpenAI 推出的 Sora 模型,这是一个建立在扩散 Transformers(DiT)之上的扩散模型,用于生成逼真的视频内容。Sora 证明了扩大视频模型的有效性,并且与大语言模型(LLM)类似,模型规模的扩大是快速改进模型的主要驱动力。文章还探讨了 Sora 背后的技术细节,包括潜在扩散、Transformers 架构和大量数据的使用。此外,文章还对 Sora 可能产生的影响进行了分析,包括视频模型的实用性、模型缩放的有效性、数据生成与增强以及仿真和世界模型的潜力。最后,文章对 Sora 在训练和推理阶段的计算量进行了估算,并预测了未来 GPU 需求的可能增长。

Sora 的技术细节和影响
Sora 是一个基于扩散的模型,使用 Transformers 架构和大量数据进行训练。它在视频生成的质量和能力方面取得了重大进展,但也可能大大增加对 GPU 推理计算的需求。Sora 的潜在扩散技术在隐空间中执行,提高了计算效率。此外,Sora 证明了模型缩放对于视频模型的有效性,预示着未来进一步的进展。

计算量估算和未来需求
文章对 Sora 在训练和推理阶段的计算量进行了估算,发现推理计算消耗将多于训练计算消耗。特别是对于像 Sora 这样基于扩散的模型,推理成本要高几个数量级。随着模型的广泛部署,推理计算消耗将占主导地位,对 GPU 需求的增长具有重要意义。

Sora 的应用前景
Sora 的高质量视频生成能力使其在现实世界中具有应用潜力,可能很快取代部分视频素材的使用。同时,Sora 还可以用于数据增强和仿真,有助于在机器人和自动驾驶汽车等领域的训练。此外,Sora 可能有助于训练具身智能体,为真实世界的任务提供支持。

总结
Sora 模型代表了视频生成技术的重大突破,但其广泛应用也可能带来对计算资源的巨大需求。随着生成式人工智能模型的普及,推理计算将成为主要的计算负担,需要优化技术和跨堆栈的其他优化方法来解决这一挑战。

文章来源


原文地址: 点我阅读全文
原文作者: 机器之心

© 版权声明

相关文章

暂无评论

暂无评论...