马斯克的xAI又融了60亿美元,还想用超级计算机加速狂奔

  • 发表时间:
    , 文章来源:JieMian, 新闻取自各大新闻媒体,新闻内容并不代表本网立场

    图源:图虫图源:图虫(photo:JieMian)
    图源:图虫图源:图虫(photo:JieMian)

    界面新闻记者 | 陈振芳界面新闻编辑 | 宋佳楠

    马斯克旗下的人工智能初创企业xAI又有新动作。

    当地时间5月26日,这家雄心勃勃的公司宣布完成60亿美元的B轮融资,所融资金将用于把xAI的首批产品推向市场、搭建先进的基础设施,以及加速未来技术的研发。其投资者包括Valor Equity Partners、Vy Capital、Andreessen Horowitz、Sequoia Capital(红杉资本)、Fidelity Management & Research Company、Prince Alwaleed Bin Talal和Kingdom Holding等。

    在与Open AI彻底分道扬镳后,马斯克于去年7月自立门户成立了xAI。这是一家汇集了DeepMind、OpenAI、谷歌研究院、微软研究院、特斯拉等诸多公司原开发人员的初创公司,将“了解宇宙的真正本质”视为该公司的使命。

    四个月后,xAI相继发布Grok-1、Grok-1开源版本、改进版等多个版本,试图向外界证明自己的AI实力。今年发布的Grok-1.5模型已具备长上下文能力,而Grok-1.5V则有了图像理解能力,下一步还将扩展到音频和视频领域。

    为了更好地训练其人工智能聊天机器人Grok,马斯克在本月向投资者表示,xAI计划建造一台超级计算机(Gigafactory of Compute)。他还宣称,一旦建成后,连接在一起的芯片组将至少是当今最大GPU集群的4倍。此前Meta Platforms为训练其AI模型也建立了GPU集群。

    据媒体报道,xAI将会和甲骨文合作开发这台超级计算机,可能需要耗资约100亿美元租用云服务器。xAI已经从甲骨文租用了大约1.6万颗H100芯片,成为该公司此类芯片最大客户。

    按照马斯克的设想,超级计算机有望在2025年秋季之前投入运行,并承诺将亲自按时交付。

    GPU集群往往具备更强的大规模数据级并行计算能力,更大的吞吐率,更高的性能价格比以及性能功耗比。为此,马斯克抛出了庞大的GPU采购计划,称xAI将购买10万个英伟达H100 GPU用于训练Grok3.0。

    据界面新闻了解,他旗下另一家公司特斯拉已拥有3.5万颗英伟达H100 GPU,数量或仅次于Meta,排名第二。马斯克的目标是,到今年底将拥有的英伟达GPU芯片数量增加一倍以上。

    “任何支出达不到每年100亿美元水平或者无法高效部署的公司,都无法在市场上竞争。”他说道。

    但要建造上述超级计算机,除了巨量的GPU支撑算力,还需要花费数十亿美元获得足够的电力。鉴于美国AI大模型的迅猛发展,AI已成为名副其实的“吞电兽”,电力紧缺或成为其发展的阻力之一。

    即便如此,众多美国硅谷AI企业都纷纷斥巨资建立自己的数据中心。亚马逊已经在亚利桑那州建造数据中心。微软及其投资的OpenAI则在威斯康星州建设一个规模庞大的数据中心,预计耗资约100亿美元。

    而Grok 2.0目前已搭载2万颗GPU进行训练。在如此强大的投入下,xAI已经进入英伟达六大客户名单之中,其他客户包括xAI的竞争对手OpenAI、亚马逊、谷歌等公司,这些企业将能够率先使用英伟达的下一代旗舰芯片Blackwell。

    马斯克并不避讳与OpenAI和谷歌的竞争关系,也曾批评现在的OpenAI变得过于商业化。但就产品发布而言,OpenAI、谷歌、微软在5月均推出了一系列重磅新产品,xAI反而“缺席”了。

    对此,xAI方面表示,未来几个月将在图像、音频和视频等各种模式中对相关功能进行重大改进,同时发布多项技术更新和产品。其是否能在高手林立的硅谷大模型之战中取得一席之地,值得外界长期关注。

    界面新闻记者 | 陈振芳界面新闻编辑 | 宋佳楠

    马斯克旗下的人工智能初创企业xAI又有新动作。

    当地时间5月26日,这家雄心勃勃的公司宣布完成60亿美元的B轮融资,所融资金将用于把xAI的首批产品推向市场、搭建先进的基础设施,以及加速未来技术的研发。其投资者包括Valor Equity Partners、Vy Capital、Andreessen Horowitz、Sequoia Capital(红杉资本)、Fidelity Management & Research Company、Prince Alwaleed Bin Talal和Kingdom Holding等。

    在与Open AI彻底分道扬镳后,马斯克于去年7月自立门户成立了xAI。这是一家汇集了DeepMind、OpenAI、谷歌研究院、微软研究院、特斯拉等诸多公司原开发人员的初创公司,将“了解宇宙的真正本质”视为该公司的使命。

    四个月后,xAI相继发布Grok-1、Grok-1开源版本、改进版等多个版本,试图向外界证明自己的AI实力。今年发布的Grok-1.5模型已具备长上下文能力,而Grok-1.5V则有了图像理解能力,下一步还将扩展到音频和视频领域。

    为了更好地训练其人工智能聊天机器人Grok,马斯克在本月向投资者表示,xAI计划建造一台超级计算机(Gigafactory of Compute)。他还宣称,一旦建成后,连接在一起的芯片组将至少是当今最大GPU集群的4倍。此前Meta Platforms为训练其AI模型也建立了GPU集群。

    据媒体报道,xAI将会和甲骨文合作开发这台超级计算机,可能需要耗资约100亿美元租用云服务器。xAI已经从甲骨文租用了大约1.6万颗H100芯片,成为该公司此类芯片最大客户。

    按照马斯克的设想,超级计算机有望在2025年秋季之前投入运行,并承诺将亲自按时交付。

    GPU集群往往具备更强的大规模数据级并行计算能力,更大的吞吐率,更高的性能价格比以及性能功耗比。为此,马斯克抛出了庞大的GPU采购计划,称xAI将购买10万个英伟达H100 GPU用于训练Grok3.0。

    据界面新闻了解,他旗下另一家公司特斯拉已拥有3.5万颗英伟达H100 GPU,数量或仅次于Meta,排名第二。马斯克的目标是,到今年底将拥有的英伟达GPU芯片数量增加一倍以上。

    “任何支出达不到每年100亿美元水平或者无法高效部署的公司,都无法在市场上竞争。”他说道。

    但要建造上述超级计算机,除了巨量的GPU支撑算力,还需要花费数十亿美元获得足够的电力。鉴于美国AI大模型的迅猛发展,AI已成为名副其实的“吞电兽”,电力紧缺或成为其发展的阻力之一。

    即便如此,众多美国硅谷AI企业都纷纷斥巨资建立自己的数据中心。亚马逊已经在亚利桑那州建造数据中心。微软及其投资的OpenAI则在威斯康星州建设一个规模庞大的数据中心,预计耗资约100亿美元。

    而Grok 2.0目前已搭载2万颗GPU进行训练。在如此强大的投入下,xAI已经进入英伟达六大客户名单之中,其他客户包括xAI的竞争对手OpenAI、亚马逊、谷歌等公司,这些企业将能够率先使用英伟达的下一代旗舰芯片Blackwell。

    马斯克并不避讳与OpenAI和谷歌的竞争关系,也曾批评现在的OpenAI变得过于商业化。但就产品发布而言,OpenAI、谷歌、微软在5月均推出了一系列重磅新产品,xAI反而“缺席”了。

    对此,xAI方面表示,未来几个月将在图像、音频和视频等各种模式中对相关功能进行重大改进,同时发布多项技术更新和产品。其是否能在高手林立的硅谷大模型之战中取得一席之地,值得外界长期关注。