昆仑芯科技副总裁孙孝思:AI大模型的突破与创新需要算力基础设施

发布时间:2023-03-09 10:13
作者:Ameya360
来源:网络
阅读量:2696

  2022年是整个人工智能芯片行业充满挑战的一年,从业者们都感受到丝丝寒意。因为2022年不仅处于疫情的波动期中,国际形势还对整个人工智能产业带来了限制。然而进入2023年后,CHATGPT带来了一点暖意。CHATGPT可以说是迄今为止增长最快的消费应用程序,它不是一触即发的,而是基于其前三代,不断迭代产生的,直到今天的爆发。

  为什么如今有更多的人关注它,很多演讲人也不断提及它?因为CHATGPT带来了质的飞跃,超越了人类平均基准线。

昆仑芯科技副总裁孙孝思:AI大模型的突破与创新需要算力基础设施

  来源:GARTNER2022年人工智能技术成熟度曲线

  GARTNER在2022年发布了一个人工智能技术成熟度曲线,生成式人工智能处于技术萌芽和期望的膨胀期,也就是说,技术从最初我们在人工智能的理解上,开始慢慢向发展阶段过渡,这对于人工智能产业中,无论是做芯片、框架,还是做算法的人来说,都是一个极大的利好。

  01

  CHATGPT背后:

  算法、数据、算力三要素共振

  CHATGPT背后是什么?今天在场的郑纬民院士以及其他很多演讲者此前都有提到,根源在于算法、数据、算力三个要素之间的共振。

  算力方面,现在的CHATGPT是基于GPT3.5的大模型,在训练中使用了微软专门建设的AI计算系统,由1万个业界主流GPU组成的高性能网络集群,总算力消耗约3640 PF-DAYS。

  数据方面,GPT-2的数据量是40G,GPT3的数据量达到了45TB,这是一个大规模的数据量的跃升。

  算法方面,如前所述,它不是一蹴而就的,而是经过了几次迭代。

  这几年的数据、算法、算力方面都有非常大的变化。中国在数据方面非常有优势,我们有场景、有大量的数据。在算法方面,实现了跨模态的融合,包括语音、图文、视频等很多方向。算力供给方面,这几年全国各地都在推进算力建设,我们相信未来国内的应用会有很大的变化和增长。

  02

  AI大模型应用突破与技术创新:

  目前,国内有很多关于CHATGPT的研究,除了清华大学的“八卦炉”,还有阿里、腾讯的大模型,也包括百度。百度即将在3月16日发布的文心一言,背后其实也是大参数、大算力、大数据量。我们可以意识到,未来的应用突破和技术创新需要算力的基础设施。

  也许有人会问,下一个CHATGPT到底是什么?现在火爆的聊天、语音生成属于CHATGPT的范畴,但是未来会有很多的衍生物,例如文本生成、视频生成、音频生成、虚拟人生成方面。

  我们认为,未来会有几个依托于算力的大场景,其中一大场景就是自动驾驶。自动驾驶场景中,模型感知和场景库的仿真训练需要上千P的算力。目前,我们跟新能源头部车企有很多紧密联动,我们发现自动驾驶的发展需要算力来提供技术的突破和跃升。生物医药也对算力有很强的需求,我们也看到了人工智能发挥的作用,例如ALPHAFOLD已预测出全球几乎所有已知蛋白质结构。

  可能有很多算力基础设施商都在思考,建了那么多数据中心、算力中心,到底应用在哪些地方?我们回顾一下,北京最早的京藏高速,我们叫G6,建设初期一辆车都没有,但今天却是北京堵车最严重的一条高速公路。还有4G网络,最早国家在建设4G网络的时候,大家都认为3G网络已经足够用了,为什么要上4G?为什么要投入那么大的成本?但今天看来,也有人觉得4G网络卡。所以我们要重新理解算力,它其实是信息基础设施。

  算力网络的布局会很大程度激发人工智能的应用和技术创新。

  目前,算力成本普遍偏高,有很多中小企业的创新在一定程度上受到了成本的影响。例如,复旦大学做MOSS大模型的时候,也会考虑到学校、科研机构是否能够承担起大模型的训练。

  从政府、国家、行业的角度看,我们怎么能够实现算力的普惠?我相信2023年之后,在算力建设过程当中,除了我们这些企业,各方都将更多参与进来,这样才能够真正实现普惠,大大降低企业使用算力的成本。

  03

  场景、数据驱动下人工智能芯片的挑战

  算力对于场景的创新很重要。但是作为一个人工智能芯片的企业,我们也充分认识到,在市场需求打开的情况下,整个人工智能芯片也面临巨大挑战。

昆仑芯科技副总裁孙孝思:AI大模型的突破与创新需要算力基础设施

  资料来源:《AI算力的阿喀琉斯之踵:内存墙》

  上图中,蓝线上是视频、自然语言处理和语音模型,其模型运算量平均每两年翻15倍;红线上TRANSFORMER的这种神经网络大模型,其模型运算量平均每两年会翻750倍;而灰线则标志摩尔定律下内存硬件大小的增长,平均每两年翻2倍。

  因此,可以由此想到两点:第一,未来摩尔定律会面临失效的风险;第二,要考虑内存墙的存在。对于整个芯片行业的发展来说,如何在未来的演进中找到突破口,其实CHIPLET是一个方向。可见,先进封装技术对于AI芯片行业将是一个重要的助推器。这几年,昆仑芯科技也在这方面做了很多基础研发。

  人工智能芯片离不开工程实现,为什么这么说?因为它毕竟是一个产品,想要在行业跟场景紧密结合,必须解决三个问题:通用性、易用性和性价比。

  企业、高校可以在基础科研上做很多的探索,人工智能芯片企业同时必须要考虑到它的应用、商业化落地等问题。如何去解决通用性、易用性和性价比的问题,是人工智能芯片厂商共同面临的挑战。

  芯片不是一个标品。在硬件层面,我们可以达到业界主流GPU产品差不多的性能指标,但在软件层面上差距较大。从同行的角度来看,我们需要自己的软件栈去解决通用性问题,也要给开发者提供更好的软件栈,让开发者可以基于国内的人工智能芯片做开发。

  04

  结语

  昆仑芯科技前身是百度智能芯片及架构部,虽成立不久,却已有十余年的芯片研发经验。基于百度丰富的AI场景积累,昆仑芯产品实现了与场景需求、客户需求的紧密耦合。

  基于对场景的深刻理解,昆仑芯与智能产业的上下游携手,逐步构建起软硬一体化的AI芯片生态。目前,昆仑芯产品已与百度飞桨、PYTORCH、TENSORFLOW等主流框架和服务器完成适配。

  完善解决方案才能够真正赋能产业。昆仑芯两代芯片产品均已实现量产,并凭借其强大通用性、易用性和高性能,广泛部署在智慧金融、智慧交通、智慧工业等领域,不断提供更优秀、更高效的解决方案,为客户提供更好的服务。

  未来,我们希望可以和在座的同行们一起共筑合力,赋能芯片产品与应用场景更紧密结合,在人工智能产业发展中构建更加繁荣的生态系统。


(备注:文章来源于网络,信息仅供参考,不代表本网站观点,如有侵权请联系删除!)

在线留言询价

相关阅读
昆仑芯Day 0极速适配商汤日日新SenseNova U1模型
  4月28日,商汤正式发布并开源原生理解生成统一模型——商汤日日新SenseNova U1系列。在模型发布当日,昆仑芯即完成对SenseNova U1的极速适配,成为率先完成该模型适配的国产算力厂商之一。  SenseNova U1系列模型能够将语言与视觉信息作为统一的复合体直接建模,实现语言和视觉信息的高效协同,让理解与生成能力同步增强,在保留语义丰富度的同时,维持像素级的视觉保真度。在逻辑推理与空间智能等方向上,它能够深度理解物理世界的复杂布局与精细关系;在未来,它还能为机器人提供具身大脑,实现在单一模型闭环内完成从复杂环境感知、逻辑推演到精准任务执行的全过程,为推动技术与产业发展提供重要基础与关键引擎。  SenseNova U1是基于统一表征空间构建的,更像是一个从一开始就同时掌握多项技能的人。它不是先看懂图像、再翻译成文字、再交给另一个系统理解,而是在同一套“思考方式”里直接处理图像、文字等不同信息。图像和语言不再是两套系统之间的接力,而是在同一个大脑中自然融合。能力表现上,在涵盖图像理解、图像生成与编辑、空间智能和视觉推理的多项基准测试中,SenseNova U1 Lite均达到同量级开源模型SOTA水平,为统一多模态理解与生成树立了新的标杆。仅凭8B-MoT的较小规格,就能达到乃至超越部分大型商业闭源模型。  在实际适配过程中,昆仑芯依托自研架构,持续完善算子覆盖与生态兼容能力,实现模型性能与算力效率的高效匹配。通过底层算子优化与软硬件协同加速,SenseNova U1已在昆仑芯平台上实现高吞吐、低延迟的稳定运行,在复杂任务与长序列场景中依然保持优异表现。针对图文交错生成、高密度信息图生成等应用,昆仑芯对其进行专项调优,实现了高效、高精度的推理性能,让开发者和企业无需复杂的底层适配与性能调优,即可完整调用模型能力。  高效适配的背后,是昆仑芯自研软件栈的出色兼容性与适配能力。为全面释放产品性能,昆仑芯已构建面向开发者的软件栈,并提供从底层驱动到专用库的完备能力,全面覆盖模型开发与部署关键环节。该软件栈高度兼容主流AI开发生态,在保障计算性能充分释放的同时,有效降低开发门槛与模型迁移成本,使客户能够以更低的适应成本与更短的部署周期完成AI模型开发与部署落地,加速从研发到应用的转化。  近期,国产大模型生态迎来密集升级,技术突破与产业落地节奏持续提速。昆仑芯当前已完成对多款主流大模型的首发适配,稳步实现 “发布即支持”的快速落地能力,推动模型技术迭代与算力底座同频演进,充分展现其在软硬协同、生态兼容与工程化落地方面的综合实力。这一核心能力,不仅有效降低模型部署与应用门槛,更助力AI应用规模化拓展,持续领跑国产算力生态适配进度。  国产算力的高效适配能力,正成为大模型规模化落地的关键支撑。面向未来,昆仑芯将通过持续的性能优化与架构迭代,不断刷新国产大模型在国产硬件上的运行表现。依托持续的技术创新与软硬协同优势,昆仑芯将持续夯实国产AI算力底座,助力产业智能化升级与数字化转型加速推进,共绘国产AI发展新蓝图。
2026-04-29 09:42 阅读量:297
Day 0适配Xiaomi MiMo-V2.5-Pro,昆仑芯持续加速国产大模型落地
  今日,小米正式发布并开源MiMo-V2.5-Pro模型。昆仑芯在发布当日即完成对MiMo-V2.5-Pro的极速适配,成为首批实现适配的国产算力厂商之一,再次验证其在主流大模型生态中的敏捷响应能力与广泛兼容能力。  据悉,MiMo-V2.5-Pro是小米迄今最强大的模型,可支撑MiMo-V2.5-Pro的1T超大参数量、以及1M 超长上下文的高吞吐推理。在通用智能体能力、复杂软件工程以及长程任务等维度上,它已能与全球顶尖Agent模型(Claude Opus4.6、GPT-5.4等)正面较量,相较上一代MiMo-V2-Pro实现了全方位跃升。此外,该模型在Agent场景下的指令遵循能力也明显提升——既能精准捕捉上下文中的隐性要求,又能在超长周期内保持逻辑一致。适用于大型项目编程、数据分析等企业级应用场景,也适用于接入OpenClaw、Hermes Agent、Claude Code等Agent框架。  在实际适配过程中,昆仑芯依托自研架构,持续提升算子覆盖与生态兼容能力,实现模型性能与算力效率的高效匹配。通过底层算子优化与软硬件协同加速,MiMo-V2.5-Pro已在昆仑芯平台上实现高吞吐、低延迟的稳定运行,并在复杂任务与长序列场景中保持优异表现,使开发者与企业用户能够实现“零成本迁移、即部署即用”。  此次高效适配的背后,是昆仑芯在软硬件协同方面的长期深耕。为充分释放产品性能,昆仑芯构建了面向开发者的全栈软件体系,完整覆盖从底层驱动到开发工具SDK及专业库,兼顾高效易用与工程化落地。昆仑芯软件栈高度兼容主流AI开发生态,在显著降低开发门槛的同时,最大化释放计算性能,帮助客户以更低适配成本和更短部署周期完成模型开发与落地,加速模型从研发到应用的转化。本次Day 0适配,标志着昆仑芯与Xiaomi MiMo在“国产算力+国产大模型”协同发展路径上进一步深化,也为全球AI生态的开放与繁荣注入新的动能。近期,国产大模型生态持续演进,技术突破与产业落地节奏显著加快。在此背景下,昆仑芯已构建起体系化、高效率的模型适配能力,能够快速响应主流模型的迭代升级。目前已全面覆盖MiniMax、智谱、通义千问等头部厂商的最新旗舰模型,能力横跨语言、多模态、OCR与文生图等关键方向。当前,昆仑芯正持续深化模型适配与性能优化能力,全面支持多样化模型架构与算法创新,不断提升开发与部署效率。面向未来,将持续深耕全栈技术研发,强化软硬协同与生态共建,不断夯实国产AI算力底座,为国产AI的高质量发展提供源源不断的算力动能。
2026-04-29 09:27 阅读量:283
昆仑芯全面支撑中国移动九天35B大模型,国产AI方案加速落地
  近日获悉,中国移动即将正式发布一款自主研发的九天35B通用大模型。作为央企自研大模型的标杆之作,九天35B凭借强大的语言理解、复杂推理与行业场景适配能力,为通信、政务、金融等行业数智化转型提供了坚实的AI底座。  作为中国移动“AI能力联合舰队” 核心算力伙伴,昆仑芯在当前已完成对九天35B模型的全流程适配与推理验证。依托昆仑芯P800硬件加速能力及成熟的软件栈,模型得以在国产算力平台上实现高性能、低显存占用的稳定运行,为中移九天大模型的规模化部署提供了坚实支撑。中移九天大模型作为中国移动“九天”体系的核心基座产品,具备高安全、高可控、全自主的央企级能力,已通过生成式AI服务双备案及A级安全认证,并在多类数智化场景中实现广泛适配。此次完成九天35B模型的快速适配,不仅体现了昆仑芯在软件生态成熟度与工程化响应效率上的持续提升,也进一步构建起“国产算力 + 国产大模型”的全栈国产化解决方案。在关键技术层面,昆仑芯围绕注意力机制优化与长序列推理进行了深度适配,有效提升模型执行效率与稳定性,充分满足通信、政务、金融等行业对低时延、高可靠AI部署的实际需求。在软件生态方面,昆仑芯现已构建了覆盖底层驱动、SDK至专业库的全栈软件体系,高度兼容主流AI开发生态,有效降低开发门槛与模型迁移成本。目前,昆仑芯已实现国内外多款主流大模型的发布当日即适配,并持续完善模型部署能力,助力开发者以更低的适应成本、更短的部署周期完成AI应用开发。在基础设施层面,作为中国移动的重要生态伙伴,昆仑芯已深度参与中国移动云智算中心及万卡级集群建设,持续推动算力基础设施向规模化、体系化演进。未来,昆仑芯将持续深耕技术研发,强化软硬协同与生态共建。凭借开放兼容的软件生态与强劲高效的硬件底座,昆仑芯将与中国移动在模型训练、推理优化及行业场景适配等方向深化合作,推动国产算力与央企大模型深度融合,加速AI能力在真实产业场景中的规模化落地,赋能千行百业智能化升级。
2026-04-27 09:57 阅读量:361
Day 0支持|昆仑芯完成MiniMax M2.7模型极速适配
  MiniMax正式开源MiniMax M2.7模型。昆仑芯同步完成对该模型的Day 0适配与深度优化,成为首批实现适配的国产算力厂商之一,再次验证其在主流大模型生态中的敏捷响应能力与广泛兼容能力。  发布即适配,软硬协同支撑高效落地  MiniMax M2.7是M2系列的最新一代模型,也是首个深度参与自身迭代的版本。该模型具备自主构建复杂Agent Harness与Skills的能力,可动态更新Memory,并通过强化学习持续优化,实现“模型驱动模型进化”的闭环。在能力表现上,M2.7已覆盖从代码生成、日志排障到端到端项目交付的完整软件工程链路:SWE-Pro基准达到56.22%,整体表现追平GPT-5.3-Codex;在专业办公场景中,GDPval-AA评分位居行业前列,并在40个复杂Skills(>2000 Token)任务中保持97%的指令遵循率,展现出优异的稳定性与执行能力。  在实际适配过程中,昆仑芯依托自研架构,持续提升算子覆盖与生态兼容能力,实现模型性能与算力效率的高效匹配。通过底层算子优化与软硬件协同加速,MiniMax M2.7已在昆仑芯平台上实现高吞吐、低延迟的稳定运行,并在复杂任务与长序列场景下保持优异表现。  为充分释放产品性能,昆仑芯构建了面向开发者的全栈软件体系,完整覆盖从底层驱动到开发工具SDK及专业库的完整能力,兼顾高效易用与工程化落地。该软件栈高度兼容主流AI开发生态,在显著降低开发门槛的同时,最大化释放计算性能,帮助客户以更低适配成本和更短部署周期完成模型开发与落地,加速模型从研发到应用的转化。  常态化Day 0响应,夯实国产AI算力底座  近期,国产大模型生态迎来密集升级,技术突破与产业落地节奏持续加快。昆仑芯已完成对多款主流大模型的首发适配,稳步实现“发布即支持”的快速落地能力,推动模型技术迭代与算力底座实现同频演进,充分体现其在软硬协同、生态兼容与工程化落地方面的综合实力。同时,该能力有效降低了模型部署与应用门槛,进一步加快AI应用的规模化拓展。  当前,昆仑芯正持续深化模型适配与性能优化能力,全面支持多样化架构与算法创新,不断提升开发与部署效率。面向未来,昆仑芯将进一步强化对主流前沿模型的高效适配能力,依托持续的技术创新与软硬协同优势,不断夯实国产AI算力底座,助力产业智能化升级与数字化转型加速推进。
2026-04-13 09:30 阅读量:442
  • 一周热料
  • 紧缺物料秒杀
型号 品牌 询价
BD71847AMWV-E2 ROHM Semiconductor
RB751G-40T2R ROHM Semiconductor
TL431ACLPR Texas Instruments
CDZVT2R20B ROHM Semiconductor
MC33074DR2G onsemi
型号 品牌 抢购
BU33JA2MNVX-CTL ROHM Semiconductor
BP3621 ROHM Semiconductor
IPZ40N04S5L4R8ATMA1 Infineon Technologies
STM32F429IGT6 STMicroelectronics
TPS63050YFFR Texas Instruments
ESR03EZPJ151 ROHM Semiconductor
热门标签
ROHM
Aavid
Averlogic
开发板
SUSUMU
NXP
PCB
传感器
半导体
相关百科
关于我们
AMEYA360微信服务号 AMEYA360微信服务号
AMEYA360商城(www.ameya360.com)上线于2011年,现 有超过3500家优质供应商,收录600万种产品型号数据,100 多万种元器件库存可供选购,产品覆盖MCU+存储器+电源芯 片+IGBT+MOS管+运放+射频蓝牙+传感器+电阻电容电感+ 连接器等多个领域,平台主营业务涵盖电子元器件现货销售、 BOM配单及提供产品配套资料等,为广大客户提供一站式购 销服务。

请输入下方图片中的验证码:

验证码