瞄准大模型推理市场, 英特尔一天更新两款 CPU

  • 发表时间:
    , 文章来源:MyZaker, 新闻取自各大新闻媒体,新闻内容并不代表本网立场

    作者丨邱晓芬

    编辑丨苏建勋

    12 月 15 日,英特尔举办了名为 "AI 无处不在 " 的发布会。英特尔显然把中国和美国市场当做是 AI 的两大重要市场,在硅谷和北京前后脚各办了一次发布会。

    尽管在北京场的发布会上,英特尔并没有公布万众期待的 GPU Gaudi 3 的最新进展, 但英特尔在中国的 AI 探索重心,慢慢放在了如何引导用户采用 CPU 的产品来做大模型推理——从这两款产品的升级点也可以明显看出,英特尔在 CPU 上补充起 GPU、NPU 的短板。

    在发布会上,英特尔此次更新了两款 CPU:一款是面向企业端的云服务器 CPU 第五代至强处理器、另一款是面向普通消费者的酷睿 Ultra 处理器。这也是英特尔过去这么多年来,罕见在同一天同时更新云侧、端侧的产品。

    在 AI 芯片三足鼎立格局即将形成之时,英特尔打算先两把抓,占住 AI 在云端和端侧的市场。

    肉眼可见的是,英特尔越来越重视 CPU 之外的能力。

    本质上,这次发布的酷睿 Ultra 处理器其实是一颗复合芯片:在 CPU 的模块外,英特尔还塞入了一个用于图形处理的锐炫 GPU、以及集成了用于人工智能推理的 NPU 模块。

    这恰恰也是这颗处理器最大的看点。这颗酷睿 Ultra 处理器上,英特尔贡献了历史上最大的一次 GPU 升级。具体而言,这一模块支持硬件光追,还集成了多媒体引擎和显示引擎等等,整体性能相比上一代提升了两倍。

    英特尔显然希望这款产品能够为 AI 大模型的落地增色,也首次加入了 NPU 的模块,用于大模型推理。

    大模型可以分为推理和训练两个环节,训练可以简单理解为制造大模型的过程,推理则是用大模型的过程。而随着大模型厂商格局的逐渐稳定,大模型未来逐渐走进千行百业,训练的需求未来有望快速增长——这正是多数芯片厂商虎视眈眈的蛋糕。

    目前对于企业来说,挑战更大、对速度要求也更高的大模型训练,首选的还是英伟达 A100,这也是英特尔在内的厂商都难以动摇的江山。而在场景更细碎、丰富大模型推理环节,厂商们一般会基于实际情况,有更加多元的芯片架构选择。

    比如,并行度最高的 GPU,往往适合更高吞吐的应用,比如文生图和大参数的大语言模型;NPU 属于高算力、低能耗的芯片,更适合运行需要持续在后台运作的任务,比如视频会议里持续不断的视频声音处理等等;而 CPU 的特点是算力更高,且编程最简单最熟悉,可以进行更多普适性的任务。

    有行业人士告诉 36 氪,尽管大模型推理场景下主流的选择是 GPU 或 NPU,但目前行业内基于成本和产能考虑,已经在考虑是否可以用 CPU 来跑大模型推理的。

    此次,英特尔把更强的 GPU 和 NPU 也封装到一颗 CPU 里面,显然希望从大模型推理侧开始突围,吃下更多的 AI 市场,也同时避开与英伟达的正面竞争。

    英特尔这代至强处理器主要围绕 AI 加速性能,进行升级,在算力、内存、AI 推理性能上做了大幅度升级。

    值得注意的是,第五代至强处理器,相比上一代的平均性能却提升了 21%。不过,英特尔并不是通过卷芯片制程的方式来实现——两代芯片一样采用了 Intel 7 制程,却另辟蹊径,通过调整芯片底层架构来提升性能。

    具体而言,英特尔第五代至强处理器采用的是 64 核(上一代是 60 核),但每一个核还可以再分为 2 个模块,而上一代是 4 个——这意味着每一个 CPU 模块中,被塞进了 2 倍于上一代的内核数。此外,第五代至强处理器的缓存也有了大幅提升,内存带宽高达 5600MT/s。

    从综合效果来看,第五代至强处理器的云计算自然语言性能提升了 23%、边缘计算的性能提升了 24%,AI 推理性能提升 42%。

    此外,针对云端跑大模型时可能存在的数据安全和隐私问题,英特尔还升级了 TDX 功能。在传统云计算中,大部分应用是在虚拟机上运行,下层是操作系统,上面承载用户数据。而在英特尔的 TDX 模式中,虚拟机是被隔离的状态,也给用户提供了更大的可信空间。

    英特尔也在加紧商务推进,已与多数大模型厂商适配,第五代至强处理器已经能跑 20B 参数大模型,还实现了软件和平台兼容。

    在发布会上,英特尔还特意邀请了京东云、百度来为他们站台。英特尔方面称,在 Llama2 的 70B 大模型上测试时,4 台第五代至强处理器在 100G 高速网络下,总体性能提升相比上一代提升 2.8 倍、时延降低到 87ms。

    总体而言,英特尔至强处理器此次在架构、内存、算力、安全隐私上的提升,都是为了云服务厂商的需求考虑,提升了云端大模型的效率和性能。英特尔方面称,目前已经有超过 20 家 OEM/ODM 厂商、超过 7 家云厂商使用至强处理器。

    在北京场的发布会上,英特尔没有提到 Gaudi 3 的任何消息。但在美国场发布会,英特尔 CEO 基辛格表示,其 GPU 芯片 Gaudi 3 即将在 2024 年上市,性能可能比英伟达 H100 更强,将用于深度学习和生成式 AI。

    在 GPU 领域,慢慢形成三足鼎立的局面——英伟达上个月发布的 H200,在内存容量、计算性能等方面疯狂升级;AMD 也在不久前升级了 MI300 系列。AMD 首席执行官苏姿丰称,MI300 系列在训练端与英伟达的 H100 相当,但推理方面表现得更好。

    不过,英特尔和 AMD 的 GPU 产品线还没真正动摇英伟达江山,战火还不算真正烧起来。但在此之前,英特尔想要先构筑自己稳固的 CPU 江山,先占住 AI 在云端和 PC 端的机会,蚕食更广阔的大模型推理市场。

    *(photo:MyZaker)

    【end】