编译 | 汪越 编辑 | 漠影 智东西11月1日消息,据外媒Wired报道,在周三的Meta第三季度财报电话会议上,Meta首席执行官马克·扎克伯格(Mark Zuckerberg)透露,Llama 4模型正在一个由10万片H100 G ...
10月29日消息,YouTube视频博主 ServeTheHome 首次曝光了埃隆·马斯克 (Elon Musk)旗下人工智能企业xAI的Colossus AI 超级计算机集群,其集成了100000个英伟达(NVIDIA)H100 ...
图片来源:英伟达官网Z HighlightsH100 GPU 的租赁价格正在经历前所未有的下降,每年降幅达到或超过 40%。这一趋势尤其明显地体现在小型集群上。NVIDIA 曾预计在 4 年内保持每 GPU 每小时 4 ...
根据ServeTheHome曝光的信息来看,庞大的Colossus AI超级计算机集群采用的是超威电脑(Supermicro)的服务器,其基于NVIDIA HGX H100方案,每个服务器中拥有8个H100 GPU,封装在 Supermicro 的 ...
10月29日消息,YouTube视频博主 ServeTheHome 首次曝光了埃隆·马斯克 (Elon Musk)旗下人工智能企业xAI的Colossus  AI 超级计算机集群,其集成了100000个英伟达(NVIDIA)H100 ...
Meta用英伟达H100 AI GPU 来训练Llama-4。 本周早些时候,马克·扎克伯格在 Meta 业绩发布会上表示,该公司正在“一个比十万个 H100 AI GPU 更大的集群上训练 Llama 4 ...
目前,Colossus的第一阶段建设已完成,集群全面上线,但这并不是终点。它将很快迎来升级,GPU容量将翻倍,新增5万块H100 GPU和5万块下一代H200 GPU。 在训练超大规模的Grok时,Colossus展现了前所未有的网络性能。在网络结构的所有层级中,系统在流量冲突的情况下没有经历任何应用延迟降级或数据包丢失。
Colossus AI集群的建设从启动到完成仅用了122天,显示出xAI在技术实施上的高效。该集群采用了超威计算(Supermicro)的服务器架构,每台服务器搭载8个H100 GPU,并配备了创新的4U液冷系统,确保GPU在高负载下的稳定性与高性能运行。值得注意的是,每个机架可容纳8台服务器,相当于每个机架内可配置64个GPU,这样高密度配置极大提升了计算能力。
近两年,AI的发展让英伟达的芯片成为全球最火热的“时尚单品”之一。这一现象也让华尔街兴起了“GPU经济”,一批靠着收购并抵押英伟达芯片获取债务融资的初创企业走上发家致富的道路。他们也被称为“GPU黄牛”,其中最有名的便是CoreWeave。这家算力租 ...
文|半导体产业纵横 本文直观地展示了拥有最多Nvidia H100 GPU的公司和组织。 随着对人工智能的需求猛增,各个行业的公司都在竞相扩大其计算能力,并投入数十亿美元用于升级支持人工智能模型所需的基础设施。 Nvidia 的H100 Tensor ...
芝能智芯出品人工智能(AI)在多个行业的广泛应用,AI数据中心的需求急剧增长,推动这一趋势的关键技术之一是GPU加速器,尤其是AMD与Nvidia的Instinct和A100/H100等系列产品。AI加速器市场看似不断扩展,实际的市场增长预测显示,未 ...
IT之家 10 月 27 日消息, 丹麦推出了该国首台 AI 超级计算机 ,以丹麦神话中的女神 Gefion 命名,旨在推动量子计算、清洁能源、生物技术等领域取得突破,英伟达首席执行官黄仁勋与丹麦国王一同出席了揭幕仪式。