美国当地时间周一,微软发文透露称为其斥资数亿美元帮助 OpenAI 组装了一台 AI 超级计算机,以帮助开发爆火的聊天机器人 ChatGPT。这台超算使用了数万个英伟达图形芯片 A100,这使得 OpenAI 能够训练越来越强大的 AI 模型。
OpenAI 试图训练越来越大的 AI 模型,这些模型正在吸收更多的数据,学习越来越多的参数,这些参数是 AI 系统通过训练和再培训找出的变量。这意味着,OpenAI 需要很长时间才能获得强大的云计算服务支持。
为应对这一挑战,当微软于 2019 年向 OpenAI 投资 10 亿美元时,该公司同意为这家 AI 研究初创公司组装一台巨大的尖端超级计算机。但问题在于,微软没有任何 OpenAI 所需的东西,也不完全确定其能否能在不破坏 Azure 云服务的情况下构建如此庞大的设备。
为此,微软不得不想方设法将英伟达的数万个 A100 图形芯片连接起来,并改变服务器在机架上的放置方式以防止断电。A100 图形芯片是培训 AI 模型的主力。微软负责云计算和 AI 业务的执行副总裁斯科特 · 格思里(Scott Guthrie)没有透露该项目的具体成本,但其暗示可能达数亿美元。
微软 Azure AI 基础设施总经理尼迪 · 卡佩尔(Nidhi Cappell)说:" 我们构建了一个系统构架,它可以在非常大的范围内运行且十分可靠,这是 ChatGPT 成功的重要原因。这只是我们从中得出的一个模式,还会有许许多多其他的模型。"
基于这项技术,OpenAI 发布了爆火的聊天机器人 ChatGPT。在去年 11 月上线后几天,它就吸引了 100 多万用户,现在正被纳入其他公司的商业模式。随着企业和消费者对 ChatGPT 等生成式人工智能(AIGC)工具的兴趣越来越大,微软、亚马逊和谷歌等云服务提供商将面临更大的压力,以确保他们的数据中心能够提供所需的巨大算力。
与此同时,微软现在也开始使用它为 OpenAI 构建的基础设施来训练和运行自己的大型 AI 模型,包括上个月推出的新必应搜索聊天机器人。该公司还向其他客户销售该系统。这家软件巨头已经在研发下一代 AI 超级计算机,这是微软与 OpenAI 扩大合作的一部分,微软在交易中增加了 100 亿美元投资。
格思里在接受采访时说:" 我们并没有为 OpenAI 定制任何东西,尽管其最初是定制的,但我们总是以一种泛化的方式构建它,这样任何想要训练大型语言模型的人都可以利用同样的改进技术。这真的帮助我们在更广泛的范围内成为更好的 AI 智能云。"
训练规模庞大的 AI 模型需要在某个地方有大量相互连接的图形处理单元,就像微软组装的 AI 超级计算机那样。一旦模型投入使用,回答用户查询的所有问题(这个过程称为推理)需要略有不同的设置。为此,微软还部署了用于推理的图形芯片,但这些处理器(成千上万个)在地理上分散在该公司 60 多个数据中心里。微软表示,现在该公司正在添加用于 AI 工作负载的最新英伟达图形芯片 H100 以及最新版 Infiniband 网络技术,以更快地共享数据。
新的必应仍处于测试阶段,微软正在逐步从申请测试名单中增加更多用户。格思里的团队与大约 20 多名员工每天都要举行会议,他将这些员工称为 "pit crew",原指赛车中车队后勤维护组的技师。这些人的工作是找出如何让更多的计算能力快速上线,以及解决突然出现的问题。
云服务依赖于数千个不同的部件,包括服务器、管道、建筑物的混凝土、不同的金属和矿物,而任何一个组件的延迟或短缺,无论多么微小,都可能导致整个项目中断。最近,"pit crew" 团队不得不帮助解决电缆托盘短缺的问题,这是一种篮状的装置,用来固定从机器上顺下来的电缆。因此,他们设计了一种新的电缆桥架。格思里说,他们还致力于研究如何在世界各地的现有数据中心压榨尽可能多的服务器,这样他们就不必等待新的建筑竣工。
当 OpenAI 或微软开始训练大型 AI 模型时,这项工作需要一次完成。工作被分配给所有的 GPU,在某些时候,这些 GPU 需要相互交流来分享他们所做的工作。对于 AI 超级计算机,微软必须确保处理所有芯片之间通信的网络设备能够处理这种负载,并且它必须开发出最大限度地利用 GPU 和网络设备的软件。该公司现在已经开发出一种软件,可以用来训练数十万亿个参数的 AI 模型。
因为所有机器都是同时启动的,微软不得不考虑安放它们的位置,以及电源该应该放在哪里。否则,数据中心最终可能会断电。Azure 全球基础设施总监阿利斯泰尔 · 斯皮尔斯(Alistair Speirs)说,微软还必须确保能够冷却所有这些机器和芯片,该公司在较凉爽的气候中使用蒸发;冷却方式、在较冷的气候中使用室外空气,在炎热的气候中使用高科技沼泽冷却器。
格思里说,微软将继续致力于定制服务器和芯片设计,以及优化供应链的方法,以尽可能地提高速度、提高效率和节省成本。他说:" 现在令世界惊叹的 AI 模型是基于我们几年前开始建造的超级计算机构建的,而新模型将使用我们现在正在训练的新超级计算机。这台计算机要大得多,可以实现更复杂的技术。"
微软已经在努力使 Azure 的 AI 功能更加强大,推出了新的虚拟机,使用英伟达的 H100 和 A100 Tensor Core GPU,以及 Quantum-2 InfiniBand 网络。微软表示,这将允许 OpenAI 和其他依赖 Azure 的公司训练更大、更复杂的 AI 模型。
微软 Azure AI 企业副总裁埃里克 · 博伊德(Eric Boyd)在一份声明中说:" 我们发现,我们需要构建专门的集群,专注于支持大量的培训工作,而 OpenAI 就是早期的证据之一。我们正与他们密切合作,了解他们在建立训练环境时需要的关键条件,以及他们需要的其他东西。"
在线留言询价
型号 | 品牌 | 询价 |
---|---|---|
RB751G-40T2R | ROHM Semiconductor | |
CDZVT2R20B | ROHM Semiconductor | |
BD71847AMWV-E2 | ROHM Semiconductor | |
MC33074DR2G | onsemi | |
TL431ACLPR | Texas Instruments |
型号 | 品牌 | 抢购 |
---|---|---|
BU33JA2MNVX-CTL | ROHM Semiconductor | |
ESR03EZPJ151 | ROHM Semiconductor | |
STM32F429IGT6 | STMicroelectronics | |
IPZ40N04S5L4R8ATMA1 | Infineon Technologies | |
TPS63050YFFR | Texas Instruments | |
BP3621 | ROHM Semiconductor |
AMEYA360公众号二维码
识别二维码,即可关注