传博通正与<span style='color:red'>OpenAI</span>讨论芯片研发
  据外媒报道,ChatGPT制造商OpenAI正在与包括博通在内的芯片设计公司讨论开发一款新的人工智能(AI)芯片。  据悉,OpenAI正在探索自主制造AI芯片,以克服昂贵的图形处理器(GPU)短缺的问题。OpenAI依赖GPU来开发AI模型,如ChatGPT、GPT-4和DALL-E3。  报道还称,OpenAI正在聘用谷歌前员工,这些员工曾为谷歌生产过自己的AI芯片——Tensor处理器。OpenAI还决定开发一款自己的AI服务器芯片。  此前报道称,OpenAI CEO萨姆•奥尔特曼(Sam Altman)计划筹集数十亿美元,建立一个工厂网络以生产半导体,潜在合作伙伴包括芯片制造商英特尔、台积电和三星电子。  OpenAI并未完全证实或否认该报道,但一位发言人表示,“OpenAI正在与行业和相关利益相关者进行持续对话,以增加所需基础设施的使用权,确保人工智能的益处得到广泛普及……这包括与顶级芯片设计师、制造商和数据中心的实体开发商合作。”  博通总部位于美国加州,主要从事半导体设计、开发和供应,以及企业软件和安全解决方案。博通第二财季营收同比大涨43%至124.87亿美元,主要受益于强劲的人工智能需求以及虚拟化软件VMware业务。其中,半导体解决方案部门(负责网络芯片和定制芯片)收入增长约6%,达到72亿美元,AI产品收入为31亿美元。同时,博通还将今年AI芯片的预计销售额从100亿美元上调至110亿美元。  此前,博通被华尔街分析师们认为很可能会是“下一个英伟达”。博通曾在3月表示,其AI芯片定制业务增加了第三个客户,尽管没有明确透露客户名称,但分析师普遍认为这些客户包括谷歌和Meta。
关键词:
发布时间:2024-07-22 14:32 阅读量:497 继续阅读>>
7万亿美元!<span style='color:red'>OpenAI</span>要做芯片!
  2月19日消息,今日OpenAI CEO阿尔特曼在社交媒体上发了一段看上去平淡无奇的帖文。他表示,“我们相信这个世界需要更多的AI基础设施,比如电网、数据存储、芯片能力……OpenAI愿意为此帮忙。”  不过,媒体在深挖后发现,阿尔特曼的野心可不平淡无奇,他正在和包括阿联酋政府在内的潜在投资者进行洽谈。据消息人士透露,阿尔特曼的融资目标为5万~7万亿美元!  如果你对这笔金额的数量没有什么概念,只需要知道这是“富可敌国”级别的数字即可。有媒体指出,美国在二战期间的总支出也只有4.1万亿美元(按照今天的物价水平计算),占美国当时GDP的36%。  据报道,阿尔特曼近期与阿联酋多位官员见面,谋求获得大额投资。阿联酋政府对人工智能产业一直非常看好,并希望自己能跻身AI产业发展前列,参与全球AI监管合作。  知名财经科技记者诺托普洛斯表示,OpenAI作为一家初创型企业,提出这样的融资需求是历史上前所未有的“宏大设想”。诺托普洛斯举了一个例子:阿尔特曼想要构建的“AI基础设施”中最占用投资成本的就是芯片厂,而拜登政府颁布的《芯片法案》也只不过给全美国芯片厂商提供总计520亿美元的补贴,与7万亿美元相比如同九牛一毛。  有很多数据可以说明,7万亿美元的量级有多么庞大:美国联邦政府2022年全年的财政支出为6.3万亿美元,日本2022年GDP为4.23万亿美元,美国20多年来在阿富汗的总开支为2.31万亿美元,纽约市所有住宅和商业地产的总价值为1.48万亿美元,美国所有公立学校在中小学阶段一年的开支为7943亿美元。
关键词:
发布时间:2024-02-20 11:24 阅读量:1541 继续阅读>>
李彦宏:重做 ChatGPT没多大意义,中国基本不会再出一个<span style='color:red'>OpenAI</span>
  由于 ChatGPT 大火,AI 领域的创业也变得炙手可热了起来,现在很多公司和机构都想打造一个国产版的 OpenAI 及 ChatGPT,然而百度创始人李彦宏表示中国基本不会再出现一个像 OpenAI 这样的公司了。  上周百度正式发布了自己的 AI 产品“文心一言”,李彦宏现在也接受了华尔街见闻的采访,并回应了多个大家都很关心的问题。  对于中国会不会再出现一个类似 OpenAI 的组织并且打造出 ChatGPT。李彦宏认为基本不会了。  李彦宏称,OpenAI 之所以诞生是因为美国大厂都不看好这个方向(所以没人竞争),但现在中国大厂都看好 AI 大模型,所以都在做这个方向。他表示,创业公司重新做一个 ChatGPT 没有多大意义,基于大语言模型开发应用机会很大,所以没有必要再重新发明一遍轮子。  对于 AI 代替人类工作的问题,李彦宏认为:不管有多少工作被替代,这只是整个图景的一部分,另外一部分是,存在我们现在甚至无法想象的更多新机会。他预测,十年后,全世界有 50% 的工作会是提示词工程,不会写提示词的人会被淘汰。他认为,未来十年中可能诞生价值十倍于微信、抖音、淘宝这些应用的机会。  对于上周的文心一言发布会为何要用录屏,李彦宏回答说,他是希望能现场演示的,因为人机对话产品具有极强交互属性,但后来有两个因素让他改变了主意:  一是生成式 AI 每次给出的答案不一定一样,会带来不确定性。第二,也是真正说服我的理由是,全球所有类似发布会,没有一个是现场演示的,都是录好的。如果大家都可以,那百度也 OK。  值得一提的是,百度上周四发布文心一言当天港股盘中重挫近 10%,收跌 6%。但次日飙升 15%,创下一个多月来的最大单日涨幅,并推动人工智能板块相关标的全线上涨。
关键词:
发布时间:2023-03-23 09:52 阅读量:3128 继续阅读>>
微软称使用数万数英伟达芯片,总额达数亿美元为<span style='color:red'>OpenAI</span>
  美国当地时间周一,微软发文透露称为其斥资数亿美元帮助 OpenAI 组装了一台 AI 超级计算机,以帮助开发爆火的聊天机器人 ChatGPT。这台超算使用了数万个英伟达图形芯片 A100,这使得 OpenAI 能够训练越来越强大的 AI 模型。  OpenAI 试图训练越来越大的 AI 模型,这些模型正在吸收更多的数据,学习越来越多的参数,这些参数是 AI 系统通过训练和再培训找出的变量。这意味着,OpenAI 需要很长时间才能获得强大的云计算服务支持。  为应对这一挑战,当微软于 2019 年向 OpenAI 投资 10 亿美元时,该公司同意为这家 AI 研究初创公司组装一台巨大的尖端超级计算机。但问题在于,微软没有任何 OpenAI 所需的东西,也不完全确定其能否能在不破坏 Azure 云服务的情况下构建如此庞大的设备。  为此,微软不得不想方设法将英伟达的数万个 A100 图形芯片连接起来,并改变服务器在机架上的放置方式以防止断电。A100 图形芯片是培训 AI 模型的主力。微软负责云计算和 AI 业务的执行副总裁斯科特 · 格思里(Scott Guthrie)没有透露该项目的具体成本,但其暗示可能达数亿美元。  微软 Azure AI 基础设施总经理尼迪 · 卡佩尔(Nidhi Cappell)说:" 我们构建了一个系统构架,它可以在非常大的范围内运行且十分可靠,这是 ChatGPT 成功的重要原因。这只是我们从中得出的一个模式,还会有许许多多其他的模型。"  基于这项技术,OpenAI 发布了爆火的聊天机器人 ChatGPT。在去年 11 月上线后几天,它就吸引了 100 多万用户,现在正被纳入其他公司的商业模式。随着企业和消费者对 ChatGPT 等生成式人工智能(AIGC)工具的兴趣越来越大,微软、亚马逊和谷歌等云服务提供商将面临更大的压力,以确保他们的数据中心能够提供所需的巨大算力。  与此同时,微软现在也开始使用它为 OpenAI 构建的基础设施来训练和运行自己的大型 AI 模型,包括上个月推出的新必应搜索聊天机器人。该公司还向其他客户销售该系统。这家软件巨头已经在研发下一代 AI 超级计算机,这是微软与 OpenAI 扩大合作的一部分,微软在交易中增加了 100 亿美元投资。  格思里在接受采访时说:" 我们并没有为 OpenAI 定制任何东西,尽管其最初是定制的,但我们总是以一种泛化的方式构建它,这样任何想要训练大型语言模型的人都可以利用同样的改进技术。这真的帮助我们在更广泛的范围内成为更好的 AI 智能云。"  训练规模庞大的 AI 模型需要在某个地方有大量相互连接的图形处理单元,就像微软组装的 AI 超级计算机那样。一旦模型投入使用,回答用户查询的所有问题(这个过程称为推理)需要略有不同的设置。为此,微软还部署了用于推理的图形芯片,但这些处理器(成千上万个)在地理上分散在该公司 60 多个数据中心里。微软表示,现在该公司正在添加用于 AI 工作负载的最新英伟达图形芯片 H100 以及最新版 Infiniband 网络技术,以更快地共享数据。  新的必应仍处于测试阶段,微软正在逐步从申请测试名单中增加更多用户。格思里的团队与大约 20 多名员工每天都要举行会议,他将这些员工称为 "pit crew",原指赛车中车队后勤维护组的技师。这些人的工作是找出如何让更多的计算能力快速上线,以及解决突然出现的问题。  云服务依赖于数千个不同的部件,包括服务器、管道、建筑物的混凝土、不同的金属和矿物,而任何一个组件的延迟或短缺,无论多么微小,都可能导致整个项目中断。最近,"pit crew" 团队不得不帮助解决电缆托盘短缺的问题,这是一种篮状的装置,用来固定从机器上顺下来的电缆。因此,他们设计了一种新的电缆桥架。格思里说,他们还致力于研究如何在世界各地的现有数据中心压榨尽可能多的服务器,这样他们就不必等待新的建筑竣工。  当 OpenAI 或微软开始训练大型 AI 模型时,这项工作需要一次完成。工作被分配给所有的 GPU,在某些时候,这些 GPU 需要相互交流来分享他们所做的工作。对于 AI 超级计算机,微软必须确保处理所有芯片之间通信的网络设备能够处理这种负载,并且它必须开发出最大限度地利用 GPU 和网络设备的软件。该公司现在已经开发出一种软件,可以用来训练数十万亿个参数的 AI 模型。  因为所有机器都是同时启动的,微软不得不考虑安放它们的位置,以及电源该应该放在哪里。否则,数据中心最终可能会断电。Azure 全球基础设施总监阿利斯泰尔 · 斯皮尔斯(Alistair Speirs)说,微软还必须确保能够冷却所有这些机器和芯片,该公司在较凉爽的气候中使用蒸发;冷却方式、在较冷的气候中使用室外空气,在炎热的气候中使用高科技沼泽冷却器。  格思里说,微软将继续致力于定制服务器和芯片设计,以及优化供应链的方法,以尽可能地提高速度、提高效率和节省成本。他说:" 现在令世界惊叹的 AI 模型是基于我们几年前开始建造的超级计算机构建的,而新模型将使用我们现在正在训练的新超级计算机。这台计算机要大得多,可以实现更复杂的技术。"  微软已经在努力使 Azure 的 AI 功能更加强大,推出了新的虚拟机,使用英伟达的 H100 和 A100 Tensor Core GPU,以及 Quantum-2 InfiniBand 网络。微软表示,这将允许 OpenAI 和其他依赖 Azure 的公司训练更大、更复杂的 AI 模型。  微软 Azure AI 企业副总裁埃里克 · 博伊德(Eric Boyd)在一份声明中说:" 我们发现,我们需要构建专门的集群,专注于支持大量的培训工作,而 OpenAI 就是早期的证据之一。我们正与他们密切合作,了解他们在建立训练环境时需要的关键条件,以及他们需要的其他东西。"
关键词:
发布时间:2023-03-14 11:35 阅读量:2640 继续阅读>>

跳转至

/ 1

  • 一周热料
  • 紧缺物料秒杀
型号 品牌 询价
CDZVT2R20B ROHM Semiconductor
MC33074DR2G onsemi
RB751G-40T2R ROHM Semiconductor
TL431ACLPR Texas Instruments
BD71847AMWV-E2 ROHM Semiconductor
型号 品牌 抢购
ESR03EZPJ151 ROHM Semiconductor
IPZ40N04S5L4R8ATMA1 Infineon Technologies
BU33JA2MNVX-CTL ROHM Semiconductor
BP3621 ROHM Semiconductor
STM32F429IGT6 STMicroelectronics
TPS63050YFFR Texas Instruments
热门标签
ROHM
Aavid
Averlogic
开发板
SUSUMU
NXP
PCB
传感器
半导体
关于我们
AMEYA360商城(www.ameya360.com)上线于2011年,现有超过3500家优质供应商,收录600万种产品型号数据,100多万种元器件库存可供选购,产品覆盖MCU+存储器+电源芯 片+IGBT+MOS管+运放+射频蓝牙+传感器+电阻电容电感+连接器等多个领域,平台主营业务涵盖电子元器件现货销售、BOM配单及提供产品配套资料等,为广大客户提供一站式购销服务。