今日应用
今日话题
马斯克19天建成世界最强AI集群!10万块H100「液冷怪兽」即将觉醒
文章摘要
在科技界,马斯克的名字总是与创新和突破联系在一起。最近,他再次证明了这一点,通过启动一个规模巨大的AI训练集群项目。这个项目的核心是10万块液冷H100 GPU,它们将为人工智能的发展提供前所未有的算力支持。
Grok 2训练完成,Grok 3即将发布
马斯克在最新的采访中透露,Grok 2 AI模型已经在上个月完成了训练,使用了大约15K H100 GPU。Grok 2预计将在下个月发布,其性能与GPT-4相当。而更令人期待的是,Grok 3正在新的10万块液冷H100超算上进行训练,预计将在12月发布,届时将成为世界上最强大的人工智能模型。
19天建成超算集群,展现惊人速度
这个全球最大的超算集群不仅在规模上令人震惊,其建设速度也同样惊人。从开工到完成,仅用了19天时间。这10万块H100 GPU的总价值估计在40亿美元左右,其算力是OpenAI用于训练GPT4的25000块A100的20倍。为了维持这个超级计算中心的运转,所需的电力总功率达到了70MW,相当于一座普通电厂的装机容量。
xAI独立建设数据中心,摆脱云提供商限制
马斯克的xAI公司在与甲骨文的合作谈判破裂后,决定独立建设自己的人工智能数据中心。这一决定意味着xAI将通过10万块H100构建独立的数据中心,以摆脱甲骨文等云提供商的能力限制。马斯克本人也表示,xAI拥有世界最强的AI训练集群,这无疑将为公司在AI领域的发展提供强大的支持。
孟菲斯成为新超级计算机的建造地
在马斯克的推动下,xAI的新超级计算机选择在田纳西州的孟菲斯建造。这个决定是在3月份的几天旋风式谈判后做出的,孟菲斯因其充足的电力和快速建设的能力而被选中。Supermicro公司为xAI提供了大部分硬件支持,其CEO Charles Liang也在马斯克的推文下赞扬了团队的执行能力。
Grok 3训练集群的建设目的
这个巨大的训练集群的建设目的是为了训练Grok 3。马斯克在4月的采访中提到,Grok 2需要大约2万张H100来进行训练。而Grok 3的发布,基于10万个GPU训练,预示着其性能将比Grok 2更上一层楼。为了支持这个巨大的超算中心,马斯克也在积极招募人才,以确保数据优势、人才优势和算力优势的最大化。
中国AIGC产业应用峰会回顾
在AI领域,中国也在不断推进其发展。2024年1月5日,【智求共赢・中国 AIGC 产业应用峰会暨无界 AI 生态合作伙伴大会】在杭州未来科技城会议中心举行。大会汇集了行业资深专家及领军企业,共同探讨了AIGC领域的热点话题和行业竞争下的运营新思路、发展新模式。
通过这些举措,马斯克和他的团队正在不断推动人工智能技术的边界,为未来的科技发展奠定基础。
文章来源
原文地址: 点我阅读全文
原文作者: AIGC新智界