昆仑芯全面适配智源AI硬件一体化评测引擎FlagPerf

Release time:2023-08-25
author:AMEYA360
source:网络
reading:3269

  近日,昆仑芯与北京智源人工智能研究院(以下简称“智源”)面向多种AI硬件的一体化评测引擎FlagPerf完成阶段性适配。昆仑芯是FlagPerf首批生态伙伴,双方将强强联合,共同推进AI软硬件评测体系建设,赋能大模型技术创新能力提升,加速我国AI生态繁荣发展。

昆仑芯全面适配智源AI硬件一体化评测引擎FlagPerf

  FlagPerf是智源联合各大AI软硬件厂商建立的开源、开放、灵活、公正、客观的面向多种AI硬件的一体化评测引擎,可快速高效地对AI软硬件进行适配和评测,解决当前AI软硬件所面临的兼容性差、技术栈异构程度高、应用场景复杂多变等挑战。目前FlagPerf已经适配了涵盖CV、NLP、语音、大模型等领域的近20个经典模型,支持评测AI硬件的训练和推理能力,未来还将持续拓展支持模型数量和评测领域,包括不限于AI服务器、图计算各个场景,期望全面、立体地刻画厂商的软硬件实力,并通过不断迭代评测体系,紧跟AI产业发展浪潮。

  作为AI加速领域的领军企业,昆仑芯持续推进软硬协同技术创新,在短时间内高效完成了十数个模型的适配和调优工作,并在FlagPerf项目中全面开源。这批模型能非常高效地完成适配并发布,充分展现了昆仑芯优秀的泛化能力和软硬件兼容性,这主要得益于100%自研的昆仑芯XACC AI编译器(XPU AI Compiler Collection)。

  昆仑芯XACC AI编译器

  可自动帮助用户完成开源模型到XPU设备的迁移工作,并实现全自动性能优化,将XPU硬件算法发挥到极致;

  具有零代码侵入、零环境侵入的特点,用户无需修改模型代码,无需修改部署环境,即可将模型迁移到XPU设备;

  已全面支持Megatron、DeepSpeed等大模型训练框架,用户可以零成本适配最流行的LLM技术与模型。

  智源研究院是国际知名的人工智能前沿研究机构,在中国最早引领开展大模型研究,并率先倡导建设大模型开源生态。「悟道」人工智能大模型项目,连创“中国首个+世界最大”纪录,“悟道3.0”进入全面开源阶段。FlagOpen大模型技术开源体系,由智源联合多家企业、高校和科研机构共建,旨在共建共享大模型时代的“新Linux”开源开放生态。面向多种AI硬件的一体化评测引擎FlagPerf是FlagOpen的重要组成部分。

  针对智源大模型,昆仑芯已在悟道·天鹰(Aquila)语言大模型上完成了大规模推理性能验证,在悟道·视界EVA-CLIP视觉大模型上也实现了适配。

  此前,昆仑芯已正式加入智源FlagOpen(飞智)大模型技术开源体系,携手多家顶尖硬件企业与高校科研团队共建“北京国家新一代人工智能创新发展试验区AI开放生态实验室”,加速完善芯片软件生态建设。

  此次昆仑芯与智源FlagPerf完成适配是双方生态共建的又一重要里程碑。智源和昆仑芯将充分发挥各自优势,共同携手产业链上下游合作伙伴,促进技术、资源、场景等多方主体的合作,助力企业更好应对大模型应用时面临的算力不足、场景不够开放等问题,进一步推动我国大模型的技术研发和应用落地。

("Note: The information presented in this article is gathered from the internet and is provided as a reference for educational purposes. It does not signify the endorsement or standpoint of our website. If you find any content that violates copyright or intellectual property rights, please inform us for prompt removal.")

Online messageinquiry

reading
昆仑芯Day 0极速适配商汤日日新SenseNova U1模型
  4月28日,商汤正式发布并开源原生理解生成统一模型——商汤日日新SenseNova U1系列。在模型发布当日,昆仑芯即完成对SenseNova U1的极速适配,成为率先完成该模型适配的国产算力厂商之一。  SenseNova U1系列模型能够将语言与视觉信息作为统一的复合体直接建模,实现语言和视觉信息的高效协同,让理解与生成能力同步增强,在保留语义丰富度的同时,维持像素级的视觉保真度。在逻辑推理与空间智能等方向上,它能够深度理解物理世界的复杂布局与精细关系;在未来,它还能为机器人提供具身大脑,实现在单一模型闭环内完成从复杂环境感知、逻辑推演到精准任务执行的全过程,为推动技术与产业发展提供重要基础与关键引擎。  SenseNova U1是基于统一表征空间构建的,更像是一个从一开始就同时掌握多项技能的人。它不是先看懂图像、再翻译成文字、再交给另一个系统理解,而是在同一套“思考方式”里直接处理图像、文字等不同信息。图像和语言不再是两套系统之间的接力,而是在同一个大脑中自然融合。能力表现上,在涵盖图像理解、图像生成与编辑、空间智能和视觉推理的多项基准测试中,SenseNova U1 Lite均达到同量级开源模型SOTA水平,为统一多模态理解与生成树立了新的标杆。仅凭8B-MoT的较小规格,就能达到乃至超越部分大型商业闭源模型。  在实际适配过程中,昆仑芯依托自研架构,持续完善算子覆盖与生态兼容能力,实现模型性能与算力效率的高效匹配。通过底层算子优化与软硬件协同加速,SenseNova U1已在昆仑芯平台上实现高吞吐、低延迟的稳定运行,在复杂任务与长序列场景中依然保持优异表现。针对图文交错生成、高密度信息图生成等应用,昆仑芯对其进行专项调优,实现了高效、高精度的推理性能,让开发者和企业无需复杂的底层适配与性能调优,即可完整调用模型能力。  高效适配的背后,是昆仑芯自研软件栈的出色兼容性与适配能力。为全面释放产品性能,昆仑芯已构建面向开发者的软件栈,并提供从底层驱动到专用库的完备能力,全面覆盖模型开发与部署关键环节。该软件栈高度兼容主流AI开发生态,在保障计算性能充分释放的同时,有效降低开发门槛与模型迁移成本,使客户能够以更低的适应成本与更短的部署周期完成AI模型开发与部署落地,加速从研发到应用的转化。  近期,国产大模型生态迎来密集升级,技术突破与产业落地节奏持续提速。昆仑芯当前已完成对多款主流大模型的首发适配,稳步实现 “发布即支持”的快速落地能力,推动模型技术迭代与算力底座同频演进,充分展现其在软硬协同、生态兼容与工程化落地方面的综合实力。这一核心能力,不仅有效降低模型部署与应用门槛,更助力AI应用规模化拓展,持续领跑国产算力生态适配进度。  国产算力的高效适配能力,正成为大模型规模化落地的关键支撑。面向未来,昆仑芯将通过持续的性能优化与架构迭代,不断刷新国产大模型在国产硬件上的运行表现。依托持续的技术创新与软硬协同优势,昆仑芯将持续夯实国产AI算力底座,助力产业智能化升级与数字化转型加速推进,共绘国产AI发展新蓝图。
2026-04-29 09:42 reading:297
Day 0适配Xiaomi MiMo-V2.5-Pro,昆仑芯持续加速国产大模型落地
  今日,小米正式发布并开源MiMo-V2.5-Pro模型。昆仑芯在发布当日即完成对MiMo-V2.5-Pro的极速适配,成为首批实现适配的国产算力厂商之一,再次验证其在主流大模型生态中的敏捷响应能力与广泛兼容能力。  据悉,MiMo-V2.5-Pro是小米迄今最强大的模型,可支撑MiMo-V2.5-Pro的1T超大参数量、以及1M 超长上下文的高吞吐推理。在通用智能体能力、复杂软件工程以及长程任务等维度上,它已能与全球顶尖Agent模型(Claude Opus4.6、GPT-5.4等)正面较量,相较上一代MiMo-V2-Pro实现了全方位跃升。此外,该模型在Agent场景下的指令遵循能力也明显提升——既能精准捕捉上下文中的隐性要求,又能在超长周期内保持逻辑一致。适用于大型项目编程、数据分析等企业级应用场景,也适用于接入OpenClaw、Hermes Agent、Claude Code等Agent框架。  在实际适配过程中,昆仑芯依托自研架构,持续提升算子覆盖与生态兼容能力,实现模型性能与算力效率的高效匹配。通过底层算子优化与软硬件协同加速,MiMo-V2.5-Pro已在昆仑芯平台上实现高吞吐、低延迟的稳定运行,并在复杂任务与长序列场景中保持优异表现,使开发者与企业用户能够实现“零成本迁移、即部署即用”。  此次高效适配的背后,是昆仑芯在软硬件协同方面的长期深耕。为充分释放产品性能,昆仑芯构建了面向开发者的全栈软件体系,完整覆盖从底层驱动到开发工具SDK及专业库,兼顾高效易用与工程化落地。昆仑芯软件栈高度兼容主流AI开发生态,在显著降低开发门槛的同时,最大化释放计算性能,帮助客户以更低适配成本和更短部署周期完成模型开发与落地,加速模型从研发到应用的转化。本次Day 0适配,标志着昆仑芯与Xiaomi MiMo在“国产算力+国产大模型”协同发展路径上进一步深化,也为全球AI生态的开放与繁荣注入新的动能。近期,国产大模型生态持续演进,技术突破与产业落地节奏显著加快。在此背景下,昆仑芯已构建起体系化、高效率的模型适配能力,能够快速响应主流模型的迭代升级。目前已全面覆盖MiniMax、智谱、通义千问等头部厂商的最新旗舰模型,能力横跨语言、多模态、OCR与文生图等关键方向。当前,昆仑芯正持续深化模型适配与性能优化能力,全面支持多样化模型架构与算法创新,不断提升开发与部署效率。面向未来,将持续深耕全栈技术研发,强化软硬协同与生态共建,不断夯实国产AI算力底座,为国产AI的高质量发展提供源源不断的算力动能。
2026-04-29 09:27 reading:282
昆仑芯全面支撑中国移动九天35B大模型,国产AI方案加速落地
  近日获悉,中国移动即将正式发布一款自主研发的九天35B通用大模型。作为央企自研大模型的标杆之作,九天35B凭借强大的语言理解、复杂推理与行业场景适配能力,为通信、政务、金融等行业数智化转型提供了坚实的AI底座。  作为中国移动“AI能力联合舰队” 核心算力伙伴,昆仑芯在当前已完成对九天35B模型的全流程适配与推理验证。依托昆仑芯P800硬件加速能力及成熟的软件栈,模型得以在国产算力平台上实现高性能、低显存占用的稳定运行,为中移九天大模型的规模化部署提供了坚实支撑。中移九天大模型作为中国移动“九天”体系的核心基座产品,具备高安全、高可控、全自主的央企级能力,已通过生成式AI服务双备案及A级安全认证,并在多类数智化场景中实现广泛适配。此次完成九天35B模型的快速适配,不仅体现了昆仑芯在软件生态成熟度与工程化响应效率上的持续提升,也进一步构建起“国产算力 + 国产大模型”的全栈国产化解决方案。在关键技术层面,昆仑芯围绕注意力机制优化与长序列推理进行了深度适配,有效提升模型执行效率与稳定性,充分满足通信、政务、金融等行业对低时延、高可靠AI部署的实际需求。在软件生态方面,昆仑芯现已构建了覆盖底层驱动、SDK至专业库的全栈软件体系,高度兼容主流AI开发生态,有效降低开发门槛与模型迁移成本。目前,昆仑芯已实现国内外多款主流大模型的发布当日即适配,并持续完善模型部署能力,助力开发者以更低的适应成本、更短的部署周期完成AI应用开发。在基础设施层面,作为中国移动的重要生态伙伴,昆仑芯已深度参与中国移动云智算中心及万卡级集群建设,持续推动算力基础设施向规模化、体系化演进。未来,昆仑芯将持续深耕技术研发,强化软硬协同与生态共建。凭借开放兼容的软件生态与强劲高效的硬件底座,昆仑芯将与中国移动在模型训练、推理优化及行业场景适配等方向深化合作,推动国产算力与央企大模型深度融合,加速AI能力在真实产业场景中的规模化落地,赋能千行百业智能化升级。
2026-04-27 09:57 reading:359
Day 0支持|昆仑芯完成MiniMax M2.7模型极速适配
  MiniMax正式开源MiniMax M2.7模型。昆仑芯同步完成对该模型的Day 0适配与深度优化,成为首批实现适配的国产算力厂商之一,再次验证其在主流大模型生态中的敏捷响应能力与广泛兼容能力。  发布即适配,软硬协同支撑高效落地  MiniMax M2.7是M2系列的最新一代模型,也是首个深度参与自身迭代的版本。该模型具备自主构建复杂Agent Harness与Skills的能力,可动态更新Memory,并通过强化学习持续优化,实现“模型驱动模型进化”的闭环。在能力表现上,M2.7已覆盖从代码生成、日志排障到端到端项目交付的完整软件工程链路:SWE-Pro基准达到56.22%,整体表现追平GPT-5.3-Codex;在专业办公场景中,GDPval-AA评分位居行业前列,并在40个复杂Skills(>2000 Token)任务中保持97%的指令遵循率,展现出优异的稳定性与执行能力。  在实际适配过程中,昆仑芯依托自研架构,持续提升算子覆盖与生态兼容能力,实现模型性能与算力效率的高效匹配。通过底层算子优化与软硬件协同加速,MiniMax M2.7已在昆仑芯平台上实现高吞吐、低延迟的稳定运行,并在复杂任务与长序列场景下保持优异表现。  为充分释放产品性能,昆仑芯构建了面向开发者的全栈软件体系,完整覆盖从底层驱动到开发工具SDK及专业库的完整能力,兼顾高效易用与工程化落地。该软件栈高度兼容主流AI开发生态,在显著降低开发门槛的同时,最大化释放计算性能,帮助客户以更低适配成本和更短部署周期完成模型开发与落地,加速模型从研发到应用的转化。  常态化Day 0响应,夯实国产AI算力底座  近期,国产大模型生态迎来密集升级,技术突破与产业落地节奏持续加快。昆仑芯已完成对多款主流大模型的首发适配,稳步实现“发布即支持”的快速落地能力,推动模型技术迭代与算力底座实现同频演进,充分体现其在软硬协同、生态兼容与工程化落地方面的综合实力。同时,该能力有效降低了模型部署与应用门槛,进一步加快AI应用的规模化拓展。  当前,昆仑芯正持续深化模型适配与性能优化能力,全面支持多样化架构与算法创新,不断提升开发与部署效率。面向未来,昆仑芯将进一步强化对主流前沿模型的高效适配能力,依托持续的技术创新与软硬协同优势,不断夯实国产AI算力底座,助力产业智能化升级与数字化转型加速推进。
2026-04-13 09:30 reading:442
  • Week of hot material
  • Material in short supply seckilling
model brand Quote
BD71847AMWV-E2 ROHM Semiconductor
RB751G-40T2R ROHM Semiconductor
MC33074DR2G onsemi
TL431ACLPR Texas Instruments
CDZVT2R20B ROHM Semiconductor
model brand To snap up
BU33JA2MNVX-CTL ROHM Semiconductor
STM32F429IGT6 STMicroelectronics
ESR03EZPJ151 ROHM Semiconductor
IPZ40N04S5L4R8ATMA1 Infineon Technologies
BP3621 ROHM Semiconductor
TPS63050YFFR Texas Instruments
Hot labels
ROHM
IC
Averlogic
Intel
Samsung
IoT
AI
Sensor
Chip
About us

Qr code of ameya360 official account

Identify TWO-DIMENSIONAL code, you can pay attention to

AMEYA360 weixin Service Account AMEYA360 weixin Service Account
AMEYA360 mall (www.ameya360.com) was launched in 2011. Now there are more than 3,500 high-quality suppliers, including 6 million product model data, and more than 1 million component stocks for purchase. Products cover MCU+ memory + power chip +IGBT+MOS tube + op amp + RF Bluetooth + sensor + resistor capacitance inductor + connector and other fields. main business of platform covers spot sales of electronic components, BOM distribution and product supporting materials, providing one-stop purchasing and sales services for our customers.

Please enter the verification code in the image below:

verification code