五度易链产业数字化管理平台
亚太地区AI应用报告:从普及领先到价值重构的关键跃迁

亚太地区正在成为全球AI应用最活跃的区域之一,但其领先优势更多体现在“使用广度”,而非“价值深度”。调研显示,78%的受访者已成为AI高频用户,显著高于全球平均水平。其中,一线员工使用率达到78%,较全球高出19个百分点,反映出AI在基层岗位的快速渗透。分市场看,印度、印尼与中国的使用率均超过87%,构成区域内最强增长极。这一结构意味着,AI正在从管理工具转变为普遍生产力基础设施。 从应用层面看,当前AI价值主要集中在效率提升而非业务重构。58%的用户将AI用于行政事务,56%用于写作任务,48%用于创意工作,这些高度标准化场景成为最先被自动化替代的领域。进一步来看,46%的员工每天可节省超过1小时工作时间,而这些时间中,40%被用于提升工作质量,39%转向更具战略性的任务。这表明AI正在释放认知资源,但仍停留在“局部优化”的阶段,尚未形成系统性生产力跃迁。 尽管应用广泛,亚太企业在价值转化上仍显滞后。全球领先企业将70%的AI预算投入流程重构与业务创新,而亚太企业仅为57%,更多资源仍集中在单点工具部署。这种结构导致AI收益集中于个体效率,而非组织级变革。换言之,亚太企业已实现“高使用率”,但尚未完成“高转型率”,若缺乏端到端流程再设计,技术红利将逐步触及天花板。 员工情绪呈现出典型的“双峰结构”。一方面,区域整体乐观情绪达到60%,较全球高出8个百分点,年轻群体与新兴经济体尤为明显;另一方面,52%的员工担忧未来十年可能失业,高于全球11个百分点。在中国,这一比例甚至达到71%。这种“既拥抱又恐惧”的心理状态,反映出AI既是效率工具,也是结构性替代力量,正在重塑劳动力市场预期。 组织治理的滞后正在放大这一矛盾。仅31%的一线员工感受到明确的领导支持,但在获得支持的群体中,AI使用率提升31个百分点,对职业前景的正面预期提升22个百分点。与此同时,58%的员工表示即使企业未授权也会自行使用AI工具,形成“影子AI”现象,带来数据安全与合规风险。这说明,企业当前最大的短板不在技术,而在治理与制度供给。 前沿领域方面,AI代理正处于“认知领先、应用滞后”的早期阶段。73%的员工认为其将在未来3至5年内发挥重要作用,但仅33%真正理解其运作机制,目前仅13%的企业实现流程级整合,64%仍停留在试点阶段。缺乏人类监督、价值对齐问题及算法偏见,成为制约其规模化落地的主要障碍。这意味着下一轮竞争将围绕“自主系统的可控性”展开。 整体来看,亚太地区正站在从“应用领先”迈向“价值领先”的临界点。短期内,AI将持续释放个体生产率红利;但中长期竞争,将取决于企业是否能够将AI嵌入核心流程、重构组织形态并完善治理体系。若亚太企业能够从“工具部署”转向“系统重构”,并同步推进人才再培训与制度建设,其领先优势有望从规模扩散升级为结构性优势。 u200b文档链接将分享到199IT知识星球,扫描下面二维码即可查阅! 更多阅读:TechEquity:2025年人工智能与劳动力发展报告波士顿咨询:AI成熟度矩阵波士顿咨询:不断扩大的AI价值差距工作中的AI:亦敌亦友波士顿咨询:GenAI不仅能提高生产力还能扩展功能波士顿咨询:2025年AI雷达报告谷歌推出人工智能工具筛查恶意言论Similarweb:2025年生成式AI全球行业趋势报告波士顿咨询:2024年消费者AI认知调查Accenture:调查显示企业不愿花钱对员工进行人工智能培训波士顿咨询:CMO如何在动荡时期扩展生成式AI104市調中心:App熱潮不退 消費者最愛哪些App?波士顿咨询:2025年全球财富报告GSMA:人工智能赋能安全应用案例集FICO:2021年负责任的人工智能报告

来源:199IT发布时间:2026-03-18
Levels.fyi:2025年第三季度AI工程师薪酬调查

在当今竞争激烈的科技行业,人工智能专业知识已成为公司需要的最宝贵技能之一,薪资数据清晰地反映了这一趋势。 随着各组织竞相构建更智能的产品和服务,专注于人工智能的软件工程师正获得越来越丰厚的薪酬方案。 首先,在美国,专注于人工智能的软件工程师平均年薪为245,000美元。 现在,让我们通过显示不同地区人工智能工程师薪酬范围的图表来可视化这些数据。取一个地点的所有数据点,并使用第25至第75百分位数来创建显示的范围。每个范围内的标记表示第50百分位数(中位数),为了解每个地点内部的薪酬分布提供了进一步的洞察。 薪资数据显示,专注于人工智能(AI)的软件工程师的收入继续高于非AI同行,且这种差异在更高级别上变得更大。 在2025年,入门级人工智能工程师比非AI工程师多赚约6.2%,低于2024年的10.7%,这表明初级职位的市场开始趋于平稳。 在工程师级别,差距稳定在11.9%左右,与去年大致相同。对于高级工程师,差异保持一致,大约为14.2%。 但最大的跳跃出现在首席工程师级别,2025年人工智能专家的收入高出18.7%,高于2024年的15.8%,这表明公司愿意为经验丰富的人工智能人才支付溢价。 以下图表显示了拥有AI专业知识如何在顶级科技公司中提升薪酬,并且这种差距在高级别中扩大。 在入门级,差异明显但较小。例如,在LinkedIn,AI工程师的收入约为288,050美元,而非AI工程师为225,000美元。 在高级级别,溢价增长。像Snap和Cruise这样的公司支付给AI工程师的薪酬分别约为635,000美元和513,000美元,这显著高于他们的非AI同行。 但最显著的差距出现在Intuit的首席工程师级别: • 那里的AI工程师收入接近917,000美元 • 而非AI首席工程师的收入约为515,000美元 这相差近400,000美元,突显了一些公司对AI专业知识的重视程度。 现在,让我们探讨不同公司之间AI工程师的薪酬差异。此图表重点列出了前20名雇主,并揭示了不同组织之间为AI人才支付的薪酬如何变化。 纵观薪资随时间变化的趋势,我们看到AI工程师薪酬存在明显波动。中位数薪资在2024年3月达到295,000美元的峰值,达到峰值后,薪资在2025年1月降至约228,500美元,但在年底反弹,在3月升至277,000美元,并稳定在260,000美元至269,000美元左右。这一反弹是由于收到了更多来自Facebook的高薪酬方案所驱动的。 随着AI就业市场的发展,公司显然愿意为专业技能支付更多费用,尤其是在高级别职位。尽管存在一些波动,需求仍然强劲,Facebook和OpenAI等公司推动了近期的薪资上涨。 更多阅读:Levels.fyi:2024年Q1 AI工程师入门级薪酬平均超170万元Accenture:调查显示企业不愿花钱对员工进行人工智能培训TechEquity:2025年人工智能与劳动力发展报告Levels.fyi:2021年全球程序员收入报告 字节跳动高级工程师年薪274万排名第五红杉资本:2025年AI顶级科学家年薪超1000万美元Marketing Week:FMCG营销人员平均薪酬57196英镑Payscale:重新聚焦薪酬在重新评估中的作用Equal:2016年100家大企业CEO平均薪酬是1660万美元Michael Page:2022年新加坡薪酬最高的工作数据科学家和工程师的“五诫”如何成为一名大数据工程师?2019年美国收入最高科技职位:网络安全工程师GlobalSpec:2019年工程师报告GlobalSpec:2024年面向工程师的营销报告GlobalSpec:2022年工程师营销报告Edit Related Posts

来源:199IT发布时间:2026-03-18
超低功耗与高精度兼备,赋能物联网与可穿戴设备性能跃升

在数字科技飞速迭代的当下,物联网与可穿戴设备已深度融入生产生活的方方面面,从工业物联网的环境监测节点、智能家居的联动终端,到可穿戴医疗设备的健康数据采集、智能手表的日常状态追踪,设备的性能体验成为行业竞争的核心焦点。长期以来,超低功耗与高精度始终被视为这两类设备发展中的一对“矛盾体”:追求高精度往往需要更高的算力支撑,进而增加功耗消耗,缩短设备续航;侧重超低功耗又容易导致数据采集、信号处理的精度下降,影响设备实用性。如今,随着芯片技术、算法优化与架构创新的不断突破,超低功耗与高精度的协同实现成为可能,为两类设备的性能跃升注入强劲动力,推动行业迈入高质量发展新阶段。 物联网与可穿戴设备的场景特性,决定了超低功耗与高精度兼备的必要性与紧迫性。物联网设备大多采用电池供电,且许多部署在偏远地区、复杂环境中,更换电池难度大、成本高,超长续航成为设备稳定运行的前提,这就对功耗控制提出了严苛要求。同时,物联网设备承担着数据采集、传输与分析的核心任务,无论是工业场景中的温度、压力监测,还是农业场景中的土壤湿度、光照检测,数据精度直接关系到决策的科学性与可靠性,微小的误差都可能引发严重的生产安全隐患或经济损失。 对于可穿戴设备而言,其与人体紧密贴合的特性,既要求设备体积小巧、续航持久,避免频繁充电影响用户体验,又需要精准捕捉人体生理数据与运动状态,为健康管理、运动指导提供可靠依据。例如,医疗级可穿戴设备的心率、血氧、心电监测,精度直接关系到疾病筛查与预警的准确性;运动手环的步数统计、卡路里消耗计算,精度则影响用户的运动规划与目标达成。可以说,超低功耗是设备“活下去”的基础,高精度是设备“用得好”的核心,二者的协同发展是破解行业痛点、提升产品竞争力的关键。 芯片技术的创新突破,是实现超低功耗与高精度协同的核心支撑。作为设备的“心脏”,芯片的功耗与算力直接决定了设备的整体性能。近年来,专用集成电路(ASIC)、微机电系统(MEMS)芯片的快速发展,实现了功耗与精度的双重优化。以ADI公司推出的AD4129-8 ADC芯片为例,其在连续转换模式下典型电流消耗仅32μA,占空比模式下可低至5μA,待机模式更是仅0.5μA,能有效延长纽扣电池使用寿命至五年以上,同时具备16位高精度与低至25nV rms的有效值噪声,可精准采集温度、压力等各类传感器信号,完美适配低带宽电池供电的物联网与可穿戴场景。 国内科研团队与企业的创新同样亮眼,清华大学等机构研发的FLEXI系列全柔性存算一体芯片,采用低温多晶硅薄膜晶体管工艺,薄如蝉翼且可随意弯折,最小版本的FLEXI-1芯片可在仅55.94微瓦的超低功耗模式下运行,同时能实现高达99.2%的心律失常检测准确率,既满足了可穿戴设备的便携性与续航需求,又保障了生理数据监测的高精度。此外,60GHz毫米波雷达芯片的发展也打破了性能瓶颈,IWRL6432系列芯片通过深度睡眠模式优化,平均功耗降至2mW以内,配合集成式封装天线技术,角分辨率提升至0.5°,为厘米级定位提供了硬件支撑,推动高精度传感从工业领域向消费电子场景延伸。 算法优化与架构创新,为超低功耗与高精度的协同实现提供了重要保障。在数据处理环节,传统算法往往需要对所有采集到的数据进行完整处理,不仅消耗大量算力与功耗,还可能包含冗余信息。如今,轻量级算法、智能滤波算法与边缘计算架构的应用,实现了“按需处理、精准计算”,在降低功耗的同时提升了数据精度。通过边缘计算架构,设备可在本地完成数据的初步筛选与处理,仅将关键有效数据传输至云端,大幅减少数据传输过程中的功耗消耗;智能滤波算法则能有效过滤环境干扰、设备噪声带来的误差,提升数据采集与处理的精度。 超低功耗与高精度的协同实现,正推动物联网与可穿戴设备在各场景的深度应用与性能升级。在物联网领域,工业物联网设备凭借低功耗与高精度优势,可实现长期稳定的环境监测与设备运维,降低工业生产的安全风险与运营成本;智慧农业中的传感器节点,能精准采集土壤、气候数据,为精准灌溉、科学施肥提供支撑;智能家居设备则可在低功耗运行的同时,精准响应用户指令,实现家居场景的智能联动。在可穿戴设备领域,医疗级可穿戴设备实现续航延长与精度提升,可24小时连续监测生理数据,为慢性病管理提供可靠支撑;消费级可穿戴设备通过优化,提升运动监测、睡眠分析的准确性,为用户提供更专业的健康指导。 展望未来,随着物联网与可穿戴设备向更智能、更便携、更可靠的方向发展,对超低功耗与高精度的要求将进一步提升。芯片技术的持续微型化、集成化,算法的不断迭代优化,以及新材料、新架构的创新应用,将进一步打破功耗与精度的平衡瓶颈。超低功耗与高精度的深度融合,不仅将推动两大行业的持续升级,还将赋能智慧医疗、工业互联网、智慧城市等更多领域,为数字经济的发展注入新的活力,让智能设备更好地服务于人类生产生活,开启万物智联的全新篇章。

来源:21IC电子网发布时间:2026-03-17
实锤!国产笔记本CPU造假:老U冒充新U,连BIOS都改了

近日,国产笔记本品牌驰为(CHUWI)深陷“CPU造假”风波——继其CoreBook X机型被曝用老款锐龙5 5500U冒充新款7430U之后,另一款CoreBook Plus也以完全相同的手法翻车了。 更致命的是,这并非“批次问题”,而是一场系统性造假! (相关报道截图) 事件回顾:拆机之后,真相藏不住! 这件事情要从驰为CoreBook X的用户投诉说起:前段时间,不少人反馈,这款宣传搭载新款锐龙5 7430U的笔记本,实际用起来卡顿明显,性能和宣传差了一大截。 海外科技媒体Notebookcheck随即拆解检测,这下彻底揭开了骗局:不管是电脑BIOS、Windows系统,还是CPU-Z这类权威检测工具,显示的都是“锐龙5 7430U”,但芯片上的OPN编号核实后,竟是2021年推出的老款锐龙5 5500U。 更离谱的是,这还不是个例。Notebookcheck后续发现,驰为另一款机型CoreBook Plus用了完全一样的造假手法——同样是老U充新U,同样篡改了BIOS信息。关键这两款机型主板完全不同,直接推翻了驰为“生产批次问题、库存不受控”的狡辩。 (CoreBook Plus笔记本拆解) 代理商出手:召回、退款、道歉! 面对铁证,驰为不仅没有正面认错,反而以“损害品牌名誉”为由,要求Notebookcheck撤下报道。好在该媒体没有退缩,深挖之下,更多真相浮出水面。 该事件发酵后,驰为的中国香港代理商汉科(Hornington)率先行动,第一时间发布公告确认:经拆机查证,驰为以下三款采用AMD 7430U处理器的产品,CPU规格不符,实际为AMD 5500U: ● 驰为CoreBook X 7430U Laptop ● 驰为CoreBook Plus 7430U Laptop ● 驰为UBOX 7430U Mini PC 汉科表示,为保障消费者权益,决定全面召回上述产品并安排退款。客户只需退回主机及主要配件,如无人为损坏即可申请。 (代理商汉科发布的公告) 启示与反思:别让造假毁了口碑 驰为造假手法如此“精细”,用老U冒充新U,把消费者当傻子,还试图用法律威胁捂住媒体的嘴……这一系列操作,已经超越了“品控失误”的范畴,触及商业伦理的底线。 更值得警惕的是,这并非国产笔记本第一次陷入此类争议。当“性价比”成为唯一卖点,一些品牌开始走捷径:用低价吸引眼球,用造假填补利润。但消费者不傻,拆机的那一刻,真相总会浮出水面。 截至发稿,驰为官方仍未正面承认造假,也未公布任何赔偿方案。不过,作为代理商,汉科的召回给行业立了一个正面榜样:错了就认,认了就赔。这种主动承担责任的做法,深得市场和消费者的认可。 最后,大家怎么看这次“CPU造假”事件?你还会考虑购买这类“高性价比”的国产笔记本吗?欢迎在评论区,聊聊你的看法。

来源:21IC电子网发布时间:2026-03-17
vivo官宣加入手机调价潮,存储芯片涨价潮席卷行业

进入 3 月以来,全球存储芯片价格暴涨引发的成本压力,正全面传导至手机终端市场。继三星、OPPO 率先掀起调价潮后,vivo 于 3 月 16 日正式官宣,将对旗下包含 iQOO 子品牌在内的部分机型上调建议零售价。至此,头部手机品牌集体加入调价行列,成为近五年来手机行业规模最大、覆盖面最广的一次集体价格调整,而这一切的核心诱因,正是上游存储芯片的罕见普涨。 vivo 在官方公告中明确,受全球半导体及存储成本持续大幅上涨影响,经慎重评估,将于 3 月 18 日 10:00 起调整部分产品建议零售价,具体机型及价格以官方渠道公示为准,并特意为消费者预留两天缓冲期,可按原价完成购买。vivo 方面对此回应称,近期上游存储等核心器件供货与成本波动较大,行业普遍面临阶段性压力,调价是基于市场现状的阶段性政策调整。 vivo 的调价举措,距 OPPO 官宣涨价仅不到一周时间。3 月 10 日,OPPO 发布公告称,受高速存储硬件等关键零部件成本上涨影响,自 3 月 16 日起对部分已发售产品调价,涉及 OPPO A 系列、K 系列及一加品牌机型,Find、Reno 等主力系列暂未纳入调整范围,此举当时便被视为行业涨价潮的明确信号。 而本轮涨价潮的开端,最早可追溯至 2026 年 2 月,三星发布全新 Galaxy S26 系列时,相较上一代机型价格直接上涨 1000 元,成为首个开启年度调价的头部品牌。紧随其后,3 月 10 日荣耀发布折叠屏新品 Magic V6,其 16GB+512GB 版本较上一代同规格 Magic V5 同样涨价 1000 元,从 9999 元升至 10999 元。荣耀 CEO 李健坦言,内存涨价是全行业性问题,行业整体面临巨大成本压力。 多位行业人士指出,此次头部品牌集体调价,并非偶然,而是上游存储芯片成本飙升的必然结果,且这仅仅是行业价格调整的开端。受成本持续攀升影响,2026 年手机市场或迎来多轮调价,下半年甚至可能出现第二轮、第三轮价格修正,而此前决定手机市场竞争的 AI 能力、影像升级、芯片迭代等因素,如今均让位于一个更基础的核心变量 —— 存储价格。 实际上自 2025 年下半年起,全球存储芯片市场便开启罕见普涨周期,其核心原因在于 AI 基础设施建设引发的存储需求爆发,与产能供给不足形成的严重供需失衡。集邦咨询(TrendForce)最新数据显示,2026 年第一季度常规 DRAM 合约价预计涨幅,已从最初预估的 55%—60% 上修至 90%—95%,NAND Flash 合约价涨幅也从 33%—38% 上调至 55%—60%,且仍有进一步上涨空间。全球存储芯片巨头 SK 海力士更是直言,当前 DRAM 及 NAND 整体库存仅剩约 4 周,处于历史极低水平,所有客户均无法获得足额供应,重复下单进一步推高价格预期。 成本压力的快速传导,不仅让头部品牌不得不选择调价,更让整个手机行业面临全新挑战。业内预测,此次存储涨价将进一步加剧手机行业集中度提升,中小品牌、以低端机型为主的厂商及供应链议价能力较弱的企业,将面临更大经营压力,部分厂商甚至可能因无法获得内存供应而停产倒闭。而对于消费者而言,此前秉持 “等等党” 心态等待手机降价的策略已不再适用,在多轮调价预期下,当下市场呈现 “早买早省,越等越贵” 的全新格局。 值得注意的是,此次手机品牌调价均集中于部分在售机型,旗舰新品及核心主力系列暂未大规模调整,业内分析,头部品牌此举是为了在成本压力与市场需求间寻求平衡,而随着存储芯片价格的持续上涨,后续中端乃至旗舰机型的价格调整,或只是时间问题。

来源:21IC电子网发布时间:2026-03-17
NVIDIA 推出 Vera CPU,专为代理式 AI 打造

新闻摘要: · NVIDIA Vera CPU 较传统 CPU 在效率上提升 2 倍,速度提升 50%。 · 与 NVIDIA 合作部署 Vera CPU 的客户包括阿里巴巴、字节跳动、Meta、Oracle Cloud Infrastructure、CoreWeave、Lambda、Nebius 和 Nscale。 · 已采用 Vera CPU 的制造商合作伙伴包括戴尔科技、HPE、联想和 Supermicro,以及华硕、Compal、Foxconn、技嘉、Pegatron、Quanta Cloud Technology(QCT)、Wistron 和 Wiwynn。 加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2026 年 3 月 16 日 —— NVIDIA 今日发布 NVIDIA Vera CPU,这是全球首款专为代理式 AI 与强化学习时代打造的处理器,其效率是传统机架级 CPU 的 2 倍,速度提升 50% 随着推理和代理式 AI 的发展,规模、性能和成本越来越取决于支撑模型的基础设施,这些模型负责规划任务、运行工具、与数据交互、运行代码并验证结果。 NVIDIA Vera CPU 基于 NVIDIA Grace™ CPU 的成功经验打造而成,助力各行业、各种规模的组织都能构建 AI 工厂,大规模释放代理式 AI 的潜力。凭借卓越的单线程性能和每核心带宽,Vera 重新定义了 CPU。它能提供更高的 AI 吞吐量、响应速度和效率,从而支持大规模 AI 服务,例如编程助手以及面向消费者和企业的智能体应用。 与 NVIDIA 合作部署 Vera 的头部超大规模企业包括阿里巴巴、CoreWeave、Meta 和 Oracle Cloud Infrastructur,以及戴尔科技、HPE、联想和 Supermicro 等全球系统制造商。这一广泛采用使 Vera 成为面向开发者、初创公司、公共和私营机构及企业最重视的 AI 工作负载的新型 CPU 标准,有助于让更多人平等地使用 AI 并加速创新。 NVIDIA 创始人兼首席执行官黄仁勋表示:“AI 正迈向一个转折点,Vera 应势而来。随着智能变得具有能动性——能够推理并采取行动——重心就转移到了编排这些工作的系统。CPU 不再只是支持模型,而是开始驱动模型。凭借突破性的性能与能效,Vera 助力 AI 系统实现更快的运算速度和更广的扩展能力。” 为各类数据中心提供灵活配置 NVIDIA 发布了全新的 Vera CPU 机架,集成了 256 个液冷 Vera CPU,能够持续支持超过 22,500 个并发的 CPU 环境,每个环境均可以全性能独立运行。AI 工厂可在单个机架内快速部署并扩展至数万个并发实例和智能体工具。 全新的 Vera 机架采用 NVIDIA MGX™ 模块化参考架构,并获得了全球 80 家生态合作伙伴的支持。 作为 NVIDIA Vera Rubin NVL72 平台的一部分,Vera CPU 还可通过 NVIDIA NVLink™-C2C 互连技术与 NVIDIA GPU 配对,提供高达 1.8 TB / s 的相干带宽,是 PCIe Gen 6 带宽的 7 倍,从而实现 CPU 与 GPU 之间的高速数据共享。此外,NVIDIA 还推出了新的参考设计:将 Vera 用作 NVIDIA HGX™ Rubin NVL8 系统的主机 CPU,负责协调 GPU 加速工作负载的数据搬运和系统控制。 Vera 系统的合作伙伴正推出支持双路和单路 CPU 服务器配置,非常适合强化学习、智能体式推理、数据处理、系统编排、存储管理、云应用以及高性能计算等场景。 在所有配置中,Vera 系统均与 NVIDIA ConnectX® SuperNIC 网卡和 NVIDIA BlueField®-4 DPU 集成,以实现加速网络、存储和安全性能,这些对代理式 AI 至关重要。这使客户能够针对其特定工作负载进行优化,同时在整个 NVIDIA 平台上保持统一的软件堆栈。 专为智能体扩展而设计 通过结合高性能、高能效的 CPU 核心、高带宽内存子系统以及第二代 NVIDIA 可扩展一致性互连架构(NVIDIA Scalable Coherency Fabric),Vera 能够在代理式 AI 与强化学习常见的极端利用率环境下,实现更快速的智能体响应。 Vera 搭载 88 个由 NVIDIA 专门设计的 Olympus 核心,可为涉及编译器、运行时引擎、分析流水线、智能体工具和编排服务的工作负载提供高性能支持。每个核心可通过 NVIDIA Spatial Multithreading 技术同时运行两个任务,以提供一致且可预测的性能,非常适合需要同时处理多项作业的多租户 AI 工厂。 为进一步提升能效,Vera 引入了 NVIDIA 第二代低功耗内存子系统,采用 LPDDR5X 内存,可提供高达 1.2 TB / s 的带宽。与通用 CPU 相比,其带宽提升了 2 倍,而功耗仅为其一半。 广泛的生态系统支持 AI 原生软件开发领域的创新企业 Cursor 正采用 NVIDIA Vera,以提升其 AI 编程智能体的性能。 Cursor 联合创始人兼首席执行官 Michael Truell 表示:“我们很高兴能使用 NVIDIA Vera CPU 来提升整体吞吐量和效率,从而为我们的客户提供更快速、响应更灵敏的编程智能体体验。” 领先的流数据与 AI 平台 Redpanda 正在采用 Vera,以显著提升系统性能。 Redpanda 创始人兼首席执行官 Alex Gallego 表示:“Redpanda 最近测试了运行 Apache Kafka 兼容工作负载的 NVIDIA Vera,发现其性能远超我们此前测试过的其他系统,延迟最高可降低至原来约 18%。Vera 代表了 CPU 架构发展的新方向,每颗核心拥有更大内存和更低单核成本,使我们的客户能够将实时流媒体工作负载扩展到前所未有的规模,并解锁全新的 AI 与智能体应用。” 计划部署 Vera CPU 的国家级实验室包括 Leibniz Supercomputing Centre、Los Alamos National Laboratory、National Energy Research Scientific Computing Center(隶属于 Lawrence Berkeley National Laboratory)和 Texas Advanced Computing Center(TACC)。 TACC 高性能计算总监 John Cazes 表示:“在 TACC,我们最近测试了 NVIDIA Vera CPU 平台,准备在即将推出的 Horizon 系统中进行部署。在运行六个科学应用时,早期结果令人瞩目。Vera 在单核性能和内存带宽方面的表现,代表着科学计算迈出了一大步。我们期待在今年晚些时候,为 Horizon 的 CPU 用户提供基于 Vera 的节点。” 计划部署 Vera CPU 的领先云服务提供商包括阿里巴巴、字节跳动、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI 和 Vultr。 采用 Vera CPU 的领先基础设施提供商包括 Aivres、ASRock Rack、华硕、Compal、思科、戴尔、Foxconn、技嘉、HPE、Hyve、Inventec、联想、MiTAC、MSI、Pegatron、Quanta Cloud Technology(QCT)、Supermicro、Wistron 和 Wiwynn。

来源:21IC电子网发布时间:2026-03-17
NVIDIA 发布 Vera Rubin DSX AI Factory 参考设计和 Omniverse DSX 数字孪生 Blueprint,获得广泛行业支持

新闻摘要: ● 全新 NVIDIA Vera Rubin DSX AI Factory 参考设计为构建共同设计的 AI 基础设施提供了指南,旨在实现更高的每瓦 Token 数,并加速首次投产的时间。 ● NVIDIA Omniverse DSX Blueprint 现已与 NVIDIA Vera Rubin AI Factory 参考设计同步全面推出,可为大规模 AI 工厂设计和仿真提供数字孪生支持。 ● 行业领导者 Cadence、达索系统、Eaton、Jacobs、Nscale、Phaidra、Procore Technologies、PTC、施耐德电气、西门子、Switch、Trane Technologies 和 Vertiv 通过集成平台、提供 SimReady 资产和连接软件来帮助设计、构建和优化 AI 工厂,为 DSX 架构和蓝图做出贡献。 ● 能源领域的领先企业 Emerald AI、GE Vernova、日立和西门子能源正在使用 NVIDIA DSX 参考架构来释放电网容量,为构建和连接新 AI 工厂提供所需电力。 加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2026 年 3 月 16 日 ——NVIDIA 今日宣布推出 NVIDIA Vera Rubin DSX AI Factory 参考设计,这是一份用于构建协同设计的 AI 基础设施的指南。同时正式发布完全兼容 NVIDIA Vera Rubin DSX 的 NVIDIA Omniverse DSX Blueprint,旨在为大规模设计、建设及运营提供物理精确的 AI 工厂数字孪生。 行业领导者 Cadence、达索系统、Eaton、Jacobs、Nscale、Phaidra、Procore、PTC、施耐德电气、西门子、Switch、Trane Technologies 和 Vertiv 正在为参考设计和蓝图做出贡献,以帮助规划、构建和运营这些大规模 AI 工厂扩建。 NVIDIA 创始人兼首席执行官黄仁勋表示:“在 AI 时代,智能 Token 是新的货币,AI 工厂则是生成智能 Token 的基础设施。借助 NVIDIA Vera Rubin DSX AI Factory 参考设计和 Omniverse DSX Blueprint,我们正在为构建全球高效生产的 AI 工厂奠定基础,加速实现首次创收,并最大限度地扩大规模和提高能效。” 构建最大化每瓦性能的 AI 工厂 构建大规模 AI 工厂以满足日益增长的训练和推理需求是一项复杂的工作,需要在基础设施、电力、冷却、网络、软件和计算方面进行精确协调。 NVIDIA Vera Rubin DSX AI Factory 参考设计概述了如何设计、构建和运营整个 AI 工厂基础设施堆栈,涵盖计算、NVIDIA Spectrum-X™ 以太网网络和存储,实现可重复、可扩展且出色的集群性能。参考设计中的文档还为行业合作伙伴提供了设计、构建和运营电力、冷却和控制系统的最佳实践,从而实现无缝软硬件集成和可扩展部署。 Vera Rubin DSX 软件堆栈是开放、模块化和可组合的,可将集群硬件与电源和冷却系统连接,以更大限度地提高每瓦可用能源的 AI Token。其灵活的设计使 AI 工厂建造商和数据中心提供商能够按需部署尽可能多的组件。 Rubin DSX 为合作伙伴提供一系列软件库进行构建: ● DSX Max-Q 可帮助 AI 工厂和生态系统合作伙伴在固定的功耗预算内,更大限度地提高 NVIDIA 系统的计算输出和每瓦 Token 性能。 ● DSX Flex 将 AI 工厂连接到电网服务,使其能够动态调整用电量,协调混合现场发电的需求,从而节约能源并保持电网稳定。 ● DSX Exchange 可在 IT、运营技术和运营智能体之间实现计算、网络、能源、电力和冷却设备信号的可扩展安全集成。 ● DSX Sim 模型通过高保真数字孪生对AI 工厂进行验证,并借助 NVIDIA DSX Air 平台完成对 GPU、网络及合作伙伴基础设施进行建模;DSX SimReady 则连接详细的 3D 几何结构、物流和系统行为,从而加速实现首次营收并确保首发日的性能。 加速 AI 工厂设计和仿真 即使有详细的架构,设计、建造和运营大型 AI 工厂也可能很困难。传统的设计方法在对整个系统进行建模、灵活高效地使用电力,以及在施工开始前验证设计等方面能力有限。 NVIDIA Omniverse DSX Blueprint 为设计和运营大型 AI 工厂提供了一个开放、全面的框架。现已在 NVIDIA 官网正式发布,并完全兼容 Vera Rubin DSX AI Factory 参考设计, Omniverse DSX 允许开发者构建物理精准的 AI 工厂数字孪生,实时模拟运营,并在开始施工或部署之前优化性能。 Omniverse DSX 将电力、冷却、网络和运营整合到一个环境中,加速实现收益并提高 AI 效率。借助 NVIDIA Omniverse™ 库,企业可以模拟布局、电力拓扑、散热行为和运营策略,并在不中断生产的情况下评估硬件或工作负载变化。 行业领导者采用新的参考设计和蓝图 可靠、可扩展的电力和冷却是每个 AI 工厂的支柱,使智能系统能够实时适应不断变化的计算需求,同时更大限度地提高效率和正常运行时间。从能源到软件领导者,广泛的合作伙伴生态系统正在采用 DSX,将整个 AI 工厂生命周期转变为无缝优化的产品级系统,共同设计以实现弹性、精确和高效。 达索系统正在将新的参考设计和蓝图集成到其基于模型的系统工程平台中,该平台由 CATIA 软件提供支持,构建了 AI 工厂的虚拟孪生 (Virtual Twin),加快实现初始收益,同时提高可靠性和效率。施耐德电气正集成 ETAP 平台帮助用户模拟和优化配电系统。 Cadence 正在将 NVIDIA Grace Blackwell Ultra 机架系统的仿真就绪(SimReady)模型集成到其 Reality Data Center Digital Twin Platform 中,以模拟散热和流体数据,从而优化 AI 工厂的设计和运营,并协作建模 NVIDIA Vera Rubin 系统。西门子正在开发一个框架,以求在 AI 基础设施高密度计算与供电、散热和自动化之间取得平衡。 Jacobs 使用 Omniverse DSX Blueprint 开发了全新 Data Center Digital Twin解决方案,为构建者和运营商提供数字孪生,优化 AI 工厂从规划、设计到交付和运营的各个环节。PTC 正在将该蓝图集成到其适用于 DSX Accelerator 的 Windchill 产品生命周期管理解决方案中,将工程和产品设计数据与高保真的实时仿真相结合,并管理跨合作伙伴和供应商的物料清单。Procore 正在将 NVIDIA Omniverse 库和 DSX Blueprint 集成到其 Procore 平台中,以创建贯穿整个施工生命周期的连续数字线程。 Switch正借助 Omniverse DSX Blueprint 构建其 EVO AI 工厂和 LDC EVO 操作系统, 实现实时遥测提取,不断更新的基于 Rubin DSX 参考设计规范构建的数字孪生,并自动优化供电、冷却和工作负载。Nscale 和 Caterpillar 将 DSX Vera Rubin 参考设计带到了西弗吉尼亚州的一座吉瓦级工厂中,该工厂是世界上最大的 AI 工厂之一。 CoreWeave 正在使用 NVIDIA DSX Air 在云端构建并测试 AI 工厂的数字孪生,通过在实际交付之前进行运营预演来缩短验证时间。 NVIDIA 的合作伙伴生态系统提供设备和硬件的SimReady 资产,允许 AI 工厂运营商在实施之前对设计进行仿真、验证和优化。Eaton、施耐德电气、西门子、Trane Technologies 和 Vertiv 正在为 DSX 设计和工程公司提供发电机、电气设备和冷却系统的 SimReady 资产,以便在现实世界中建造之前对整个设计进行验证和仿真。 Vertiv 还使用 Omniverse DSX Blueprint构建 Vertiv OneCore Rubin DSX,这是一种预制的融合式数据中心基础设施解决方案,旨在加速 AI 工厂部署和提高每瓦 AI 输出。Trane Technologies 正在使用该蓝图优化超大规模 AI 工厂的散热管理,从而减少冷却装置的能耗并提高效率。 Phaidra 已集成 DSX Max-Q 到其新的自主学习 AI 智能体,通过降低冷却峰值来提供约 10% 的额外计算能力,同时保持安全性并释放电力用于创收性 Token 生产。 全球能源行业领先企业借助 Omniverse DSX Blueprint 实现全球电网现代化 目前,能源已成为 AI 基础设施建设的最大瓶颈,设备库存已超过 3,000 亿美元,超过 2,000 亿瓦级的项目正在等待并网队列。 为解决这一问题,NVIDIA 正与领先的能源供应商合作,加快电力接入并加强电网稳定性: ● Emerald AI 正集成 DSX Flex 到其 Conductor 平台中,帮助 AI 工厂实时管理电力,根据命令提高或降低需求,并通过新的专用发电协调灵活负载。通过可靠的、基于软件的负载控制,使电力公司更有信心批准更大、更快速的电网连接。 ● GE Vernova 正将数字孪生能力扩展至从电网到 AI 工厂的整个电力堆栈。通过与 NVIDIA DSX 参考架构保持一致,统一功耗和计算建模,为大规模 AI 工厂实现更快、更准确、更可预测的基础设施部署。 ● 日立正在与 NVIDIA 合作,将物理 AI、电力系统和自动化专业知识与先进的计算平台相结合,加速电网规划,并为十亿瓦级 AI 工厂提供高效、可靠的电力。 ● 西门子能源正在其 Noedra 数字孪生平台中使用 NVIDIA RAPIDS™ 库、NVIDIA Metropolis 平台和 NVIDIA Isaac Sim™ 框架来实时监测电网运行状况,帮助在故障发生前预测风险并减少计划外停机。

来源:21IC电子网发布时间:2026-03-17
NVIDIA 推出 BlueField-4 STX 存储架构,获业界广泛采用

新闻摘要: • 全新 NVIDIA STX 参考架构可提升高达 5 倍的 Token 吞吐量,能效提升高达 4 倍,数据摄取速度提升 2 倍。 • 率先将 STX 用于上下文记忆存储的厂商包括 CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、Oracle Cloud Infrastructure(OCI)和 Vultr。 • 多家存储厂商与制造合作伙伴正在基于 NVIDIA 模块化参考设计来构建基础设施,以推进代理式 AI 的发展,包括 AIC、Cloudian、DDN、戴尔科技、Everpure、Hitachi Vantara、HPE、IBM、MinIO、NetApp、Nutanix、Supermicro、Quanta Cloud Technology(QCT)、VAST Data 和 WEKA。 加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2026 年 3 月 16 日 ——NVIDIA 今日宣布推出 NVIDIA BlueField-4® STX 模块化参考架构,该架构可助力企业、云计算及 AI 服务商轻松部署加速存储基础设施,以满足代理式 AI 所需的长上下文推理能力。 传统数据中心提供大容量通用存储,但难以满足与跨多步骤、多工具和多轮会话的 AI 智能体无缝交互所需的响应速度。代理式 AI 需要实时访问数据和上下文工作记忆,以确保对话和多任务的快捷性和连贯性。随着上下文规模的不断扩大,传统存储和数据路径可能会降低 AI 推理的速度,并降低 GPU 利用率。 NVIDIA STX 助力存储厂商构建数据就近并可大规模访问的基础设施,从而使代理式 AI 工厂能够在推理、训练和分析方面提供更高的吞吐量和响应速度。 首个机架级部署方案集成了全新的 NVIDIA CMX™ 上下文记忆存储平台。通过引入高性能的上下文层来扩展 GPU 内存,从而实现可扩展的推理和代理式系统。与传统存储相比,每秒可处理的 Token 提升高达 5 倍。 NVIDIA 创始人兼首席执行官黄仁勋表示:“代理式 AI 正在重新定义软件的能力,必须重塑其背后的计算基础设施才能跟上这一步伐。能够基于海量上下文进行推理并持续学习的 AI 系统,需要新的存储方案。NVIDIA STX 重新定义了存储堆栈,为 AI 原生基础设施提供了模块化基础,确保 AI 工厂始终保持峰值性能高效运行。” STX 由 NVIDIA Vera Rubin 平台提供加速,集成了针对存储进行优化的全新 NVIDIA BlueField-4 处理器。该处理器将 NVIDIA Vera CPU、NVIDIA ConnectX® -9 SuperNIC 相结合,并配合 NVIDIA Spectrum-X™ 以太网网络、NVIDIA DOCA™ 以及 NVIDIA AI Enterprise 软件共同运行。 与传统 CPU 架构相比,STX 架构的能效提升高达 4 倍,从而实现高性能存储,并且在处理企业级 AI 数据时,每秒可处理的内存页数提升 2 倍。 众多存储厂商合作伙伴正在基于 NVIDIA STX 共同设计新一代 AI 基础架构,包括 Cloudian、DDN、戴尔科技、Everpure、Hitachi Vantara、HPE、IBM、MinIO、NetApp、Nutanix、VAST Data 和 WEKA。 正在构建基于 STX 系统的制造合作伙伴包括 AIC、Supermicro 和 Quanta Cloud Technology(QCT)。 计划采用 STX 进行上下文记忆存储的主要 AI 实验室和云服务提供商包括 CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、OCI 和 Vultr。 基于 STX 的平台将于今年下半年由合作伙伴推出。

来源:21IC电子网发布时间:2026-03-17
NVIDIA 成立由全球领先 AI 实验室组成的 Nemotron Coalition,推动开放前沿模型发展

新闻摘要: ● NVIDIA Nemotron Coalition 是模型构建者和 AI 实验室的首个此类全球合作项目,致力于通过共享专业知识、数据和计算来推进开放前沿基础模型的发展。 ● 包括 Black Forest Labs、Cursor、LangChain、Mistral AI、Perplexity、Reflection AI、Sarvam 和 Thinking Machines Lab 在内的领先创新者皆是创始成员,助力塑造新一代 AI 系统。 ● 联盟成员将协作开发一款基于 NVIDIA DGX™ Cloud 训练的开放模型,并将生成的模型开源,使全球开发者和组织能够针对其行业和领域进行专用 AI 开发。 ● 该联盟构建的首个模型将为即将推出的 NVIDIA Nemotron 4 开放模型系列提供支持。 加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2026 年 3 月 16 日 —— NVIDIA 今日宣布成立 NVIDIA Nemotron Coalition,这是开放模型构建者与 AI 开发者之间的全球协作联盟,通过共享研究、专业知识、数据和计算来推动前沿开放模型的发展,帮助加速全球 AI 生态系统的创新。 Black Forest Labs、Cursor、LangChain、Mistral AI、Perplexity、Reflection AI、Sarvam 和 Thinking Machines Lab 将通过该联盟汇集专业知识,共同构建开放前沿模型。通过联合力量,该联盟旨在加速 AI 模型的进展,超越单一模型扩展智能的边界,强化充满活力的开放生态系统,同时提高模型开发效率,以便企业组织可以在共享、开放的基础上进行构建、定制和创新。 该联盟的第一个项目是由 Mistral AI 和 NVIDIA 共同开发的基础模型,汇集了两家公司的 AI 专业知识和技术。联盟成员将贡献数据、评估和领域专业知识,以支持模型的后训练和持续开发。 该模型使开发者和组织能够进行后训练,并根据各自的行业、地区和独特需求对 AI 系统进行专业化定制。模型基于在 NVIDIA DGX™ Cloud 上的训练,将与开放生态系统进行共享,并为即将推出的 NVIDIA Nemotron™ 4 系列模型提供支持。 NVIDIA 创始人兼首席执行官黄仁勋表示:“对于学生、科学家、初创公司和整个行业而言,开放模型是创新的命脉,也是全球参与 AI 变革的引擎 。NVIDIA Nemotron Coalition 联合世界一流的 AI 实验室,共同开发前沿的开放模型,倡导透明度、协作性和自主性,拓宽获取智能的渠道,确保 AI 的未来由全球共同塑造,为全球构建。” 全球模型构建者和 AI 原生公司联合推进开放前沿 AI 该联盟汇集了整个 AI 生态系统的领导者,每个成员都在其专业领域定义着前言技术水平。成员可贡献其独特的专业知识(包括数据、评估框架、研究成果和专家资源),以协作开发共享模型。通过为这一共同基础做出贡献,合作伙伴旨在强化开放 AI 生态系统,同时持续推进其构建的独立模型和平台。 预期的贡献涵盖 Black Forest Labs 提供的多模态能力、Cursor 带来的真实场景性能需求与评估数据集,以及 LangChain 在赋能 AI 智能体实现可靠工具使用和长程推理方面的专长优势。 该联盟还包括 Mistral AI 的前沿模型开发能力,纳入了其在构建高效、可定制且完全可控模型方面的专长。此外,联盟也涵盖了 Perplexity 的访问权限及高性能 AI 系统。其他专业能力包括 Reflection AI 在构建可靠开放系统方面的成果、Sarvam AI 的主权语言 AI 开发,以及与 Thinking Machines Lab 的数据协作。 Black Forest Labs 联合创始人兼首席执行官 Robin Rombach 表示:“在 BFL,我们开发用于视觉智能的多模态生成模型,涵盖从图像到实时视频以及动作预测模型,我们一直坚信,开放模型有助于推动前沿能力的发展。通过像这样由独立合作伙伴组成的联盟,我们能够达到所需的规模,以加速下一代顶尖开放多模态模型的发展。” Cursor 联合创始人兼首席执行官 Michael Truelle 表示:“当前沿模型变得触手可及且高度透明时,世界各地的开发者都可以参与其中,共同定义这项技术的发展方向。通过 NVIDIA Nemotron Coalition,Cursor 将贡献真实场景的性能需求和评估数据集,为开发者提高基础模型的质量和可靠性。” LangChain 联合创始人兼首席执行官 Harrison Chase 表示:“随着 LangChain 框架的月下载量超过 1 亿次,我们发现前沿模型必须超越原始智能,以实现可靠的工具使用、长程推理和智能体协调。通过 NVIDIA Nemotron Coalition,我们将为这些模型构建优质智能体工具,严格评估它们的能力,并提供对智能体行为的全面可观测性,从而帮助 Nemotron 模型成为新一代 AI 智能体的良好基础。” Mistral AI 联合创始人兼首席执行官 Arthur Mensch 表示:“开放前沿模型是 AI 成为真正平台的关键。我们将与 NVIDIA 一起在大规模训练和推进前沿模型方面发挥领导作用。通过从头开始塑造这些系统的功能,我们能够帮助建立全球 AI 基础,为开发者提供构建新一代应用的动力。” Perplexity 联合创始人兼首席执行官 Aravind Srinivas 表示:“AI 的价值取决于如何有效地帮助人们发现和使用知识。开放模型让更多人可以大规模地使用 AI,让构建者能够灵活地提高性能、降低成本,并将 AI 应用投入到日常使用中。通过 NVIDIA Nemotron Coalition,Perplexity 将贡献在前沿模型开发方面的专业知识,为数百万用户的 AI 平台构建而奠定基础。” Reflection 联合创始人兼首席执行官 Misha Laskin 表示:“开放和协作的价值观推动着技术进步。随着 AI 成为主要的技术层,其重要性已愈发凸显。Reflection 确保智能基础保持开放(而非少数人掌握),并可在全球范围内访问。我们将加入 NVIDIA Nemotron Coalition,构建前沿开放且安全的模型,推动全球多元化且蓬勃发展的 AI 生态系统。” Sarvam 联合创始人兼首席执行官 Pratyush Kumar 表示:“当 AI 能够适用于每种语言和每个社区时,它才能充分发挥自己的潜力。开放模型使这一切成为可能,开发者能够自由地根据现实世界的需求调整前沿功能。Sarvam 将为 NVIDIA Nemotron Coalition 提供支持,共同构建语音优先、具备语言包容性并理解当地文化的开放基础模型,同时为开发者提供平台,以构建符合大众需求的应用。” Thinking Machines Lab 创始人兼首席执行官 Mira Murati 表示:“我们相信 AI 是具有适应性、协作性强且广泛可及的。我们的研究和 Tinker 平台就是以这一目标为出发点而开发的,我们愿意支持 Nemotron Coalition 普及前沿 AI 功能的使命。”

来源:21IC电子网发布时间:2026-03-17
u200bNVIDIA 携手全球工业软件巨头,将设计、工程与制造带入 AI 时代

新闻摘要: • Cadence、达索系统、西门子和新思科技正在打造由 NVIDIA 驱动的 AI 智能体,用于规划、优化并验证复杂的芯片与系统工作流程。 • FANUC、HD 现代集团、本田、捷豹路虎、凯傲集团、梅赛德斯奔驰、联发科技、百事公司、三星、SK 海力士 和 TSMC 正在采用 NVIDIA CUDA-X 与 GPU 加速的工业软件及工具,加速工业设计、工程开发与制造流程。 • Amazon Web Services(AWS)、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure(OCI)正在提供 NVIDIA GPU 加速的软件,使运算化设计与工程工作能够以生产级规模运行;与此同时,领先的制造商戴尔科技、HPE 和 Supermicro 则出货搭载 NVIDIA 加速的系统,用于本地部署与混合部署。 加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2026 年 3 月 16 日 —— NVIDIA 今日宣布,正与包括 Cadence、达索系统、PTC、西门子和新思科技等在内的全球领先工业软件厂商合作,将 NVIDIA CUDA-X™、NVIDIA Omniverse™ 以及 GPU 加速的工业软件与工具引入 FANUC、HD 现代集团、本田、捷豹路虎、凯傲集团、梅赛德斯奔驰、联发科技、百事公司、三星、SK 海力士和 TSMC 等企业,以加速工业设计、工程开发与制造流程。这些软件领导厂商同时还推出了由 NVIDIA 驱动的智能体解决方案,帮助其客户为 AI 时代的下一阶段做好准备。 这些解决方案正在 NVIDIA AI 基础设施上运行,由领先云服务提供商 Amazon Web Services(AWS)、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure(OCI),以及原始设备制造商(OEM)戴尔科技、HPE 和 Supermicro 提供支持,用于加速设计与仿真。 NVIDIA 创始人兼首席执行官黄仁勋表示:“一场新的工业革命已经拉开序幕,物理 AI 和自主 AI 智能体正在从根本上重塑全球的设计、工程与制造方式。通过与全球生态系统中的软件巨头、云服务提供商和 OEM 厂商通力合作,NVIDIA 正提供一个全栈式加速计算平台,赋能各行各业以前所未有的规模和速度将这一愿景变为现实。” 领先工业软件巨头构建 AI 智能体,加速设计与工程开发流程 工业工程正迎来一个智能体化的转折点,因为能够长时间运行的 AI 智能体现在可以简化和统筹复杂的工业设计、工程与制造工作流程。 Cadence、达索系统、西门子和新思科技正通过将代理式 AI 引入其平台,来加速这些工作流程。它们利用 NVIDIA NeMo™ 平台、NVIDIA Nemotron™ 开放模型、NVIDIA CUDA-X 库以及 NVIDIA 加速计算,为复杂的芯片与系统工作流程打造自主设计智能体: • Cadence 的 ChipStack AI SuperAgent 将加速 EDA 软件与智能体编排相结合,用于半导体设计与验证流程,包括设计与测试平台代码编写、测试计划创建以及调试。 • 达索系统在其 3DEXPERIENCE 智能体平台上构建名为“Virtual Companions”的、基于角色的 AI 智能体,用于管理其整个工业软件产品系列中的工作流程。 • 西门子 Fuse EDA AI 能够在整个半导体和 PCB 工作流程中自主协调多个智能体,涵盖从设计构思到制造签核的各个环节。 • 新思科技正在构建用于半导体和系统设计的 AgentEngineer 多智能体框架。 利用 GPU 驱动的仿真技术,加速汽车创新 为加速下一代汽车设计,NVIDIA 正与西门子和新思科技合作,提供 GPU 加速的计算流体力学(CFD)与电磁学工具。这些解决方案以高保真虚拟测试取代了以往耗时数周的 CPU 仿真,从而实现更快的迭代设计,并缩短产品上市时间。 本田使用由 NVIDIA Grace Blackwell 平台加速的新思科技的 Ansys Fluent 软件,进行空气动力学仿真,速度与使用 CPU 相比提高了 34 倍,显著缩短开发周期。 捷豹路虎和梅赛德斯奔驰借助运行在 NVIDIA 加速基础设施上的西门子的 Simcenter STAR-CCM+ 软件,变革其工程工作流程。捷豹路虎在 AWS 上运行该平台,以优化车辆空气动力性能。 Rivian 正在利用 NVIDIA AI 基础设施加速的达索系统 SIMULIA Abaqus 与 PowerFlow 软件,开展车辆仿真测试。 通过高保真虚拟测试,革新航空航天设计 航空航天工程需要极为复杂的 CFD 仿真,例如模拟飞机起飞过程。借助 Cadence 的 NVIDIA 加速的求解器,各机构能够大规模运行高保真仿真,实现以往难以实现的工作流程,并为太空探索解锁全新设计方案。 Ascendance 借助运行在 Oracle Cloud 上、基于 NVIDIA GPU 的 Cadence Fidelity 软件,以模拟混合电力推进系统及垂直起降飞行器的多种场景。这使得他们能够在一天之内完成完整的空气动力学仿真任务,而这是依赖大型基于 CPU 的传统高性能计算所无法完成的工作。 加速全球能源转型 能源行业领导者们正在云端和本地环境中,采用基于 NVIDIA AI 基础设施的 GPU 加速 CFD 工作流程,以缩短仿真周期、提升吞吐量,并突破仅使用 CPU 的计算瓶颈,从而加速燃气轮机创新,推动更清洁的能源解决方案落地。 Solar Turbines 借助运行在戴尔基础设施上的 Cadence Fidelity 软件,仅需 14 小时即可完成 360 度、包含十亿个单元的燃烧室仿真。 美国阿贡国家实验室借助 HPE 打造、由 NVIDIA GPU 加速的 Polaris 超级计算机运行 Cadence Fidelity 软件,为先进的能源和推进研究提供高保真燃烧仿真。 加速计算驱动半导体创新迈向新纪元 随着半导体设计迈入跨越摩尔定律的“万亿晶体管时代”,传统基于 CPU 的工作流程已无法跟上发展的步伐。行业领先企业正转向采用 Cadence、西门子和新思科技提供的 NVIDIA 加速工具,以推进电子设计自动化发展。 三星和 SK 海力士通过 NVIDIA 加速的 Dell PowerEdge 服务器和 HPE 系统,运行 Cadence Pegasus、Synopsys PrimeSim 和西门子的 Calibre 软件,以简化大规模计算光刻和物理验证流程,加速 DRAM 与闪存生产。 Astera Labs 采用运行在 AWS 上的 Synopsys PrimeSim B200 GPU 加速的 EC2 实例,相比仅使用 CPU 的系统,芯片设计速度提升了 3.5 倍,从而加速了下一代连接解决方案的验证和上市进程。联发科技借助 Hopper GPU 的强大性能,将 Cadence Spectre 的运行速度提升了 6 倍,并依托 NVIDIA 驱动的本地 AI 工厂来构建其 AI 未来。 TSMC 正通过在 HPE 和 Supermicro 系统上使用新思科技的工具,加速先进制造中的关键工作负载。 美光通过深化与 Cadence 的合作、采用 NVIDIA GPU 加速的设计工具,并集成代理式 AI,全面提升其复杂内存设计工作流程的效率,加速新一代高带宽存储器的开发。 通过工业数字孪生重塑制造业与物流业 NVIDIA 与工业生态系统合作伙伴一起,加速产品线、工厂、仓库和造船厂的数字化进程。借助高保真工业数字孪生技术,将虚拟规划与现实世界的生产执行紧密连接。 西门子新推出的 Digital Twin Composer 基于 NVIDIA Omniverse 库开发,助力富士康、HD 现代集团、百事公司和凯傲集团等企业能够大规模构建工业元宇宙环境,这赋能了各组织运用工业 AI、仿真和实时物理数据,在虚拟世界中快速、大规模地进行决策。 Krones 通过运行在 Microsoft Azure 上的 Ansys Fluent,并结合 NVIDIA Omniverse、CUDA-X 和 GPU 加速的仿真技术,打造物理精确、AI 驱动的数字孪生,从而将灌装线的仿真时间从数小时缩短至几分钟。 PTC 宣布推出全新的机器人设计到仿真工作流程,该流程从其云原生的 Onshape 计算机辅助设计与产品数据管理平台,延伸至 NVIDIA Isaac Sim。这创建了一个从 CAD 到 OpenUSD 的无缝桥梁,将使像 FANUC America Corporation 和 Fauna Robotics 这样的工程团队能够在物理精准的数字孪生中,设计和验证其机器人系统。 凯傲集团正与西门子、NVIDIA 和埃森哲合作,共同推进自主仓库解决方案。借助 NVIDIA Omniverse 以及由埃森哲首创的、由物理 AI 驱动的数字孪生与系统架构,凯傲集团的工程师们为全球最大的纯合同物流供应商 GXO 创建了大规模、物理精确的仓库数字孪生,用以训练和测试基于 NVIDIA Jetson 的自主叉车车队。

来源:21IC电子网发布时间:2026-03-17
NTN 技术如何落地物联网?Nordic 联合生态伙伴共话开发与实战

挪威奥斯陆 – 2026年3月17日 – 全球领先的低功耗无线通信解决方案提供商 Nordic 今日正式宣布,将于2026 年 3 月 23 日 13:00在深圳南山深铁皇冠假日酒店 5 楼会议室 4举办 “Nordic 长距离 NTN 线下研讨会”。本次研讨会聚焦非地面网络(NTN)技术落地,深度解析 Nordic NTN 完整解决方案,联动卫星通信生态伙伴,分享实战开发经验与全球场测成果,为物联网行业探索长距离、广覆盖的通信新路径搭建交流与合作的核心平台。 作为物联网通信技术的核心推动者,Nordic 始终致力于突破连接边界。随着物联网应用从地面场景向全球广域覆盖延伸,NTN(非地面网络)技术凭借卫星通信等接入方式,成为解决偏远区域、全域覆盖需求的关键方案。本次研讨会专为长距离通信领域工程师及行业同仁量身打造,通过 “技术解析 + 实战演示 + 生态联动” 三大核心板块,全方位呈现 Nordic 在 NTN 领域的技术积累与生态布局,助力行业伙伴把握技术趋势、攻克开发难题。 议程干货满满,全链路拆解 NTN 技术落地核心 本次研讨会议程设计紧扣 “技术实战” 与 “生态协同”,从方案解读、开发实操、场测验证到生态联动,形成完整的知识与实践闭环,具体核心环节如下: 1. 核心蜂窝解决方案亮相 研讨会伊始,Nordic蜂窝产品市场经理Daniel Li将致开场辞,介绍会议议程、嘉宾阵容及现场互动规则,并带来Nordic NTN 核心解决方案深度分享。环节将全面解析 nRF9151 模组的核心特性与技术优势,详解卫星星座生态布局及 nRF Cloud 平台的应用价值,为参会者勾勒 NTN 技术的整体框架与商业落地前景,为后续内容奠定专业基础。 2. 实战开发全流程拆解 Nordic 高级现场应用工程师Steed Li 将带来 “nRF9151 平台 NTN 开发实战” 专题分享,覆盖三大核心模块:15 分钟的 MCU 应用开发指南、10 分钟的 AT 指令串口调制应用(重点展示对第三方 MCU 的兼容性支持),以及 30 分钟的开发工具全解析,包括编程器、调制解调器跟踪工具(Modem Trace)及 PPK II 功耗分析工具等实操演示。内容兼顾专业性与实用性,规避过度技术化表述,清晰呈现 Nordic NTN 完整的开发工具链与生态支持体系,同时附带 Alpha 文档包(v2)的安装与评估说明,助力开发者快速上手。 3. 全球场测成果实景验证 在开发实战分享后,Steed Li 将进一步展示nRF9151 NTN 澳大利亚场测真实数据,重点对比分析 GEO(地球静止轨道)与 LEO(低地球轨道)两种场景下的通信性能表现。真实的场测结果将直观验证 Nordic NTN 方案在实际环境中的稳定性、覆盖范围与传输效能,为行业伙伴提供可参考的实战依据。 4. 生态伙伴联动,共拓全球覆盖版图 中场休息后,研讨会迎来生态伙伴深度联动环节: · 铱星通信中国(Iridium China)代表 Wu Hao 将解读铱星公司背景、NTN 核心产品特性及全球覆盖路线图,分享卫星通信与物联网技术融合的核心趋势; · FZIoT 创始人 Ian Geng 将聚焦物联网连接方案,拆解 FZIoT 在 NTN 场景下的定制化设计解决方案,展现生态层的技术协同能力; · 此外,研讨会预留天线及认证机构专题分享环节包含FCC,CE法规NTN终端认证,还有NTN运营商自定义测试,包括天线OTA测试和场测,进一步完善全产业链资源对接,助力参会者打通从技术开发到产品认证的全流程。 5. 互动抽奖与晚宴交流 会议将设置抽奖环节,送出 8 份 SMA DK 实物奖品及免费测试数据(支持 MVNO Monogoto、Skylo 或 Multi 运营商)。会议结束后,Nordic 将主办专属晚宴,为参会者提供更轻松、深度的交流场景,促进技术探讨与商务合作落地。 聚焦行业核心需求,赋能长距离物联网发展 当前,物联网正从局部场景向全球全域拓展,农林牧渔、环境监测、海上通信、物流追踪等领域对 “长距离、广覆盖、低功耗” 的通信需求日益迫切。Nordic 本次 NTN 线下研讨会,精准锚定这一行业核心痛点,不仅通过nRF9151模组与完整工具链降低了 NTN 技术的开发门槛,更通过联动铱星、FZIoT 等生态伙伴,构建了 “模组 + 生态 + 服务” 的全链路支持体系。 Daniel Li表示,本次深圳研讨会是 Nordic 深耕目前全球通信市场的重要举措,旨在汇聚行业智慧,共享技术成果,推动 NTN 技术在物联网领域的规模化落地。未来,Nordic 将持续加大在中国市场的技术投入与生态布局,为行业伙伴提供更具竞争力的解决方案,助力中国物联网产业实现全球连接能力的突破。 参会方式与相关信息 本次研讨会面向长距离通信领域工程师、物联网行业从业者、方案开发商及生态伙伴开放。有意参会者可通过官方指定渠道报名,具体会议信息如下: · 会议时间:2026 年 3 月 23 日 13:00(13:10 正式开始) · 会议地点:深圳南山深铁皇冠假日酒店 5 楼会议室 4 · 报名方式:请扫描下方二维码报名,席位有限,报满即止。 此次 Nordic 长距离NTN线下研讨会,既是一场技术盛宴,也是一次生态聚力的契机。期待与行业同仁相聚深圳,共探长距离通信的技术新边界,共筑物联网全球连接的未来新格局。

来源:21IC电子网发布时间:2026-03-17
英飞凌与斯巴鲁携手合作提升高级驾驶辅助系统的实时性能,进一步提高驾驶安全性

【2026年3月17日,德国慕尼黑与日本东京讯】英飞凌科技股份公司(FSE代码:IFX / OTCQX代码:IFNNY)正与斯巴鲁株式会社(Subaru Corporation,以下简称斯巴鲁)合作,共同致力于提升斯巴鲁未来汽车的驾驶安全性、可靠性与舒适性。英飞凌的半导体技术在斯巴鲁下一代高级驾驶辅助系统(ADAS)及车辆运动控制系统的集成式电子控制单元(ECU)中发挥着关键作用。相比前代产品,英飞凌最新AURIX™微控制器(MCU)大幅提升了该ECU的实时处理能力,提高了车辆与传感器信息处理的速度和可靠性。 英飞凌科技执行副总裁、汽车业务首席营销官Peter Schaefer 英飞凌科技执行副总裁、汽车业务首席营销官Peter Schaefer表示:“随着高级驾驶辅助系统变得日益复杂,整个系统的可靠性和实时运行能力变得至关重要。凭借市场领先的AURIX™系列微控制器,英飞凌正助力斯巴鲁构建坚实的车辆基础平台,赋予其可靠的决策与控制能力。” 斯巴鲁执行官兼首席数字汽车官Eiji Shibata 斯巴鲁执行官兼首席数字汽车官Eiji Shibata表示:“斯巴鲁正致力于开发用于协调下一代EyeSight系统与未来车辆运动控制系统的集成式ECU。英飞凌的AURIX™ MCU作为核心技术,将为该集成式ECU提供强大的传感器数据融合与实时控制能力,是推动下一代ADAS及车辆运动控制系统发展的关键。我们与英飞凌建立了长期、深厚的信任与合作关系,并且从开发初期就开展协作,共同优化AURIX™ MCU的设计。我们非常珍视这种合作信任关系,并期待英飞凌下一代 MCU 的卓越表现。” 斯巴鲁在该集成式ECU中使用了英飞凌非常先进的车规级MCU——AURIX™ TC4x以增强算力和提升车载网络性能。AURIX™ TC4x将作为由该ECU控制的下一代ADAS功能的主控制器,通过实时地融合摄像头、雷达及其他传感器输入的信息,实现传感器数据融合以及决策与控制,从而提供更快速、更可靠的驾驶辅助功能。TC4x集成了多达六个主频为500MHz的锁步核,符合ASIL-D级汽车功能安全标准。 英飞凌与斯巴鲁已在后者当前的ADAS系统上展开合作。未来,双方将继续深化车载计算与车联网领域的协作,共同推动技术发展与价值创造,共建更安全、更可靠的出行体验。 继2023年首次登顶全球汽车MCU市场之后,英飞凌的市场份额进一步攀升,于一年前登顶全球MCU市场榜首。此后,英飞凌通过开发满足汽车制造商未来MCU需求的技术,进一步巩固其地位,例如推动RISC-V成为汽车MCU的开放标准。此外,英飞凌于2025年8月收购Marvell的汽车以太网业务,进一步强化了MCU相关产品组合。凭借这一举措,英飞凌为软件定义汽车(SDV)的集中式计算架构开发出业界极为全面的系统级解决方案。

来源:21IC电子网发布时间:2026-03-17
共77727条记录
  • 1
  • 2
  • 3
  • 4
  • 6478

产业专题

产业大脑平台

产业经济-监测、分析、

研判、预警

数智招商平台

找方向、找目标、管过程

产业数据库

产业链 200+

产业环节 10000+

产业数据 100亿+

企业数据库

工商 司法 专利

信用 风险 产品

招投标 投融资

报告撰写AI智能体

分钟级生成各类型报告