五度易链产业数字化管理平台
希磁股份冲刺港股IPO,加速磁性传感器产业国产化进程

希磁股份冲刺港股IPO,加速磁性传感器产业国产化进程2025年3月3日,安徽希磁科技股份有限公司(以下简称“希磁股份”)再度向香港联合交易所提交IPO申请,由中信建投国际担任独家保荐人,正式开启新一轮港股上市征程。作为全球少数掌握完整磁传感技术体系的IDM企业,希磁股份凭借TMR(隧道磁阻)核心技术的持续突破与垂直整合的产业链布局,在新能源汽车、绿色能源等高成长领域不断拓展,此次赴港上市有望进一步提升其全球竞争力。希磁股份成立于2013年,总部设于安徽蚌埠,现已形成覆盖全球的研产销体系。在中国,公司运营蚌埠和宁波两大模块生产基地;在德国设立韦茨拉尔模块工厂与美因茨晶圆厂;在葡萄牙设有研发中心,构建起“技术研发 + 晶圆制造 + 模块封装”一体化的IDM运营模式。公司全面掌握霍尔效应、AMR、GMR及TMR等全系列xMR磁传感技术,产品涵盖电流传感器、运动传感器等关键器件,广泛应用于新能源汽车、光伏风电、工业自动化及消费电子等多个战略领域。核心技术能力构成希磁股份的竞争壁垒。公司长期聚焦TMR技术的研发与应用,自主研发的传感器模块在性能方面达到国际先进水平:电流传感器模块带宽可达1MHz,阶跃响应时间低至200ns,采用无磁芯设计有效消除磁滞损耗,精度控制在±1%,隔离电压达4kV。根据弗若斯特沙利文报告,2024年以收入计,希磁股份在全球磁性传感器IDM企业中位列第六,所有磁性传感器厂商中排名第十。其中,TMR传感器全球市场份额达3.9%,排名第二;电流传感器市场份额3.4%,位列全球第三,国内第一。2025年,公司计划推出新一代高频无磁芯大电流TMR传感器模块,进一步填补国内高频电力电子领域的技术空白。财务表现同样亮眼,公司近年来营收和盈利稳步提升。2022年至2024年,营收分别为6.66亿元、5.94亿元和7.03亿元,2024年同比增长18.4%;2025年前九个月营收增至6.27亿元,同比增长15.1%。净利润实现由亏转盈,2024年达985.2万元,2025年前九个月大幅增至3977.2万元,同比增长530%。毛利率从2022年的15.3%提升至2025年前三季度的24.4%,盈利能力显著增强。此次IPO募集资金将主要用于四大方向:无锡新研发中心与生产基地的建设与运营、产品组合扩展与新兴应用场景的技术投入、德国晶圆生产线的升级优化,以及战略投资与营运资金补充。在全球磁性传感器行业持续增长的背景下,希磁股份有望借助资本力量提升产能、加快技术创新,并在新能源汽车电机控制、电池管理系统(BMS)、光伏逆变器等核心应用场景中巩固领先地位。当前,全球磁性传感器市场正受益于新能源汽车渗透率的提升、绿色能源装机规模的扩张以及工业智能化趋势的推进。据预测,2024至2029年全球市场规模年复合增长率将达19.7%,而其中高端TMR传感器的增速有望超过26.5%。希磁股份作为国产磁传感领域的代表企业,不仅打破了欧美日厂商长达三十年的技术垄断,还通过“希磁(Sinomags)”与德国“Sensitec”双品牌战略,实现了国内外市场的协同拓展。2024年,公司已向欧洲和亚洲客户交付约1亿枚运动传感器芯片。此次港股上市,希磁股份不仅有望成为资本市场稀缺的磁性传感器IDM企业标的,也将借助国际资本资源加快技术研发与全球化布局。在国产替代与全球产业链重构的双重机遇下,这家来自安徽蚌埠的企业,正以自主技术为驱动、以全产业链为支撑,稳步推进其迈向全球磁性传感器领军企业的战略目标。

来源:科技解密发布时间:
美芯晟1.6亿元收购磁传感器企业 鑫雁微回应问询函

html美芯晟1.6亿元收购磁传感器企业 鑫雁微回应问询函3月11日,美芯晟(证券代码:688458)发布了关于收购上海鑫雁微电子股份有限公司100%股权事项的问询函回复公告。公告回应了上交所提出的多项问题,全面披露了鑫雁微的核心经营数据、技术能力、财务状况,并说明了交易估值逻辑、业绩承诺的可行性以及未来整合计划,同时提示了潜在投资风险。此次收购旨在推动美芯晟进入磁传感器领域,与公司在光学传感、1D/3D ToF激光测距等技术方向形成协同,构建涵盖“环境感知+多模态融合感知+运动感知”的完整感知体系。此举不仅有助于丰富产品线,也将进一步提升企业的技术竞争力。业务增长稳健,技术实力突出鑫雁微成立于2010年,专注于磁传感芯片的研发与生产,并逐步扩展至马达驱动芯片领域。十余年来,公司已推出近百款产品,覆盖开关霍尔、线性霍尔、齿轮传感、电感式接近开关等多个系列。截至当前,公司拥有94项知识产权,其中16项为发明专利,是国家高新技术企业及上海市专精特新中小企业。财务数据显示,鑫雁微近年来营收稳步上升,净利润亦实现由负转正。2024年,其营业收入为6,086.69万元,净利润达73.31万元;2025年1月至11月,营收为5,885.62万元,净利润479.34万元。开关霍尔产品是其主要收入来源,2025年前11个月贡献了4338.44万元,占总收入比例超过70%。产品已广泛应用于电动交通工具、汽车电子、工业控制、智能家居等场景,并成功进入雅迪、爱玛、九洲等头部企业的供应链体系。在研发方面,鑫雁微配备了40名员工,其中18人为研发人员,占比达45%。核心研发团队成员具备十年以上行业经验,多毕业于知名高校,并曾就职于业内领先企业。公司具备多轴集成与三维磁传感、高精度温度补偿等四项核心技术,相关成果已获多项专利授权,并应用于马达控制、智能座舱等多个智能场景。供应链方面,鑫雁微与华润上华等优质供应商建立了稳定合作关系,客户收入结构均衡,前五大客户占比稳定在36%-38%,不存在明显的单一客户依赖。财务披露详尽,估值逻辑合理针对问询函中的财务问题,美芯晟对鑫雁微的财务结构进行了全面说明。截至2025年11月,公司总资产为7318.78万元,总负债5864.06万元。在应收账款和存货管理方面,公司已按照审慎原则进行了充分减值计提。其中,应收账款账面余额2847.66万元,计提减值准备929.97万元;存货账面余额4706.49万元,计提减值准备810.25万元,对账龄超过一年的应收账款和存货均全额计提。在估值方面,本次交易采用了市场法,而非收益法。美芯晟解释称,鑫雁微作为处于成长阶段的芯片设计企业,其盈利波动较大、现金流不稳定,不符合收益法评估所需的稳定现金流假设。该方法在A股半导体行业相关案例中较为常见。评估过程中选取了7家可比公司,以EV/S为价值比率,最终测算出鑫雁微股权估值范围为10000万元至26200万元。交易最终协商确定投前估值为12500万元,处于估值区间的下限,体现出估值审慎。业绩目标可行,核心团队稳定根据协议,鑫雁微承诺2026年至2029年净利润分别不低于1000万元、1300万元、1700万元和2200万元,四年累计不低于6200万元。该目标具备一定支撑依据:全球磁传感器市场预计在2024年至2029年期间年均复合增长率达19.7%,国产替代趋势日益明显。此外,鑫雁微历史业绩持续改善,截至2026年1月底,公司非代理业务在手订单已超过2500万元。2026年至2027年,预计新增14家客户,订单总额达9565万元,为业绩承诺的实现提供了有力支撑。在核心团队稳定性方面,美芯晟采取了一系列保障措施:包括对关键人员设定任职期限及竞业禁止条款,防范核心技术及人员流失;设置2026至2029年分期业绩对赌及超额利润奖励机制,以提升核心员工积极性;并建立常态化沟通机制,通过人员交流、客户共访等方式推动管理融合和文化协同,保障技术延续性与业务稳定性。美芯晟强调,本次收购是公司依托自身高性能模拟及数模混合技术优势,对标国际领先企业,把握智能传感发展机遇,完善智能感知产业链布局的重要战略举措。从长远角度看,公司计划借助此次整合,进一步拓展汽车电子、机器人等高成长性市场,目标是成长为磁传感领域的重要参与者,推动智能感知技术在更多场景中的规模化应用与技术创新。

来源:人人懂点高科技发布时间:
美团战略入股生物传感器企业,加速布局AI医疗健康赛道

美团战略入股生物传感器企业,加速布局AI医疗健康赛道近日,天眼查信息显示,北京深纳普思人工智能技术有限公司(以下简称“深纳普思”)完成工商变更,新增美团旗下成都龙珠股权投资基金合伙企业(有限合伙)为股东。此举标志着美团正式成为这家专注于AI赋能生物传感器研发的企业的重要战略投资者,进一步扩大其在硬科技领域的版图,特别是在人工智能与医疗健康融合发展的前沿领域。深纳普思成立于2019年,由英国牛津大学资深技术团队创建,专注于运用人工智能技术推动生物传感器的创新发展,重点布局医疗级智能可穿戴设备。公司汇聚了来自国家百人计划的研究人员、牛津大学软件工程系导师,以及多位毕业于牛津、剑桥、帝国理工等国际顶尖高校和国内985、211高校的科研人才。其长期与中科院医学工程研究所保持深度合作,并在苏州、南京、郑州等地设立多个研发中心,构建了完善的技术创新体系。作为AI与生物传感融合的探索者,深纳普思依托自主研发的多维智能硬件和深度学习算法,实现了对慢性病相关生化指标的高精度采集与智能分析,为用户量身定制健康干预方案,提升慢病管理的智能化水平。目前,公司产品已获得NMPA和CE MDR认证,产品覆盖全球60多个国家,上市一年内即实现百万级销量,日活跃用户超过20万。同时,企业建设了超过3万平方米的产能工厂,形成从研发到生产再到销售的完整产业链。美团近年来正积极推进“零售+科技”战略转型,从商业模式创新向技术驱动型发展迈进,人工智能与硬科技成为其重点投入方向。在当前的数字健康趋势下,生物传感器作为连接现实世界与数字健康数据的重要桥梁,正在经历AI技术的深度赋能,拓宽应用边界。这与美团在硬科技和智慧健康服务方面的战略布局高度契合。深纳普思在AI算法、生物传感技术以及医疗级可穿戴设备方面的核心技术,与美团在技术储备和应用场景上的资源形成互补,有望在慢病管理与健康监测等方向取得突破性进展。业内人士指出,美团此次入股深纳普思,不仅是其在硬科技投资领域的重要动作,也标志着其在AI+医疗健康赛道的布局进一步深化。随着公众健康意识的提升与数字医疗的快速发展,AI赋能的生物传感器技术将在医疗健康、环境监测、食品安全等多个领域持续拓展应用场景。此次合作有助于加快深纳普思的技术成果转化,并借助美团的生态资源,推动智能健康服务覆盖更广泛的用户群体,促进医疗健康行业的智能化与普惠化。此前,深纳普思已获得来自小米集团、顺为资本、启明创投等知名投资机构的支持。美团的加入将为该公司带来更充足的资本支持和更丰富的生态资源,助力其持续推进技术创新和产品迭代。未来,双方可能在技术研发、场景落地、市场推广等多个维度展开深入合作,携手挖掘AI与生物传感融合赛道的广阔潜力,为用户提供更加优质、便捷的智能健康服务,推动数字健康产业迈向新阶段。

来源:企鹅选型指南发布时间:
天龙股份加码智能驾驶领域,拟642万元竞买苏州豪米波股权

天龙股份加码智能驾驶领域,拟642万元竞买苏州豪米波股权3月13日,天龙股份(证券代码:603266)发布公告,拟以642.0165万元的底价参与竞买昆山开发区国投控股有限公司持有的苏州豪米波技术有限公司1.012%股权。此举进一步表明,公司正持续加大对4D毫米波雷达及智能驾驶核心传感器领域的投入,强化其在汽车电子领域的产业竞争力。作为长期深耕精密制造的龙头企业,天龙股份主营业务涵盖精密模具、注塑成型及自动化装配。近年来,公司积极拓展新能源汽车及汽车电子赛道,已在毫米波雷达和无人驾驶等关键领域取得突破。此次股权竞买,被视为公司深化智能驾驶产业链布局的关键步骤。公告披露,天龙股份此前已计划通过受让股权及增资方式,以23184.3663万元获得苏州豪米波54.8666%的股权,当前该交易正有序推进中。若本次竞买成功,公司持股比例将升至55.5413%,此举将有助于提升其在苏州豪米波股东会议上的决策效率,并增强对目标公司的战略把控。苏州豪米波:国内4D毫米波雷达领域的重要力量资料显示,苏州豪米波是国内4D毫米波雷达领域的核心技术企业,自2016年成立以来,核心团队由中组部认证的“国家高层次人才”、俄罗斯外籍院士及海外归国的汽车技术专家组成。公司专注于毫米波雷达传感器、多传感器信息融合以及整车集成控制技术的研发,提供可量产的高级驾驶辅助系统(ADAS)及无人立体交通控制系统解决方案。其技术路径直指智能驾驶感知层的核心需求,致力于打破国外企业在该领域的技术垄断。截至2018年底,苏州豪米波已实现前装量产,并先后获得江铃新能源、宇通客车、东风雷诺、江淮汽车的定点项目。目前,其产品已成功进入奇瑞与广汽丰田的供应链体系。尽管苏州豪米波目前仍处于成长期,且因技术投入较大导致阶段性亏损,但其业务增长势头明显。2024年研发费用达3,406.38万元,2025年1至9月支出2,204.72万元。同期,公司2025年1至9月营收达3,379.45万元,较2024年同期增长288.64%。尽管仍处亏损状态,净利润亏损额已由2024年的5,921.08万元缩窄至4,358.69万元。创始团队预计,2026年至2029年,苏州豪米波将实现累计营收12亿元,累计净利润达4800万元。随着定点项目规模量产的推进,以及产能利用率的提升和单位成本的下降,企业盈利能力有望持续改善。交易条款与挂牌流程根据意向协议,昆山国投将在苏州产权交易中心公开挂牌转让目标股权。天龙股份承诺缴纳交易保证金,并提交不低于底价的报价。若未能按约定参与竞买,将需承担相应的违约责任。最终交易将以正式签署的《产权交易合同》为准。需指出的是,本次公告为意向性协议,股权竞买结果仍存在不确定性。天龙股份将根据后续进展及时履行信息披露义务。聚焦智能驾驶,布局核心感知层从行业趋势来看,4D毫米波雷达作为智能驾驶系统中的核心感知部件,正随着新能源汽车和自动驾驶技术的普及而迎来高速增长。天龙股份此次加码苏州豪米波,是紧跟汽车电子产业发展方向、加快布局智能驾驶关键环节的重要举措。公司表示,本次投资有助于增强其在苏州豪米波股东会议中的决策效率,符合长期发展战略,有利于公司及其全体股东的长远利益。该交易资金来源为公司自有资金,不影响现有主营业务的正常运营,不会对公司财务状况和经营成果造成重大不利影响。

来源:IT老友记发布时间:
亚太地区AI应用报告:从普及领先到价值重构的关键跃迁

亚太地区正在成为全球AI应用最活跃的区域之一,但其领先优势更多体现在“使用广度”,而非“价值深度”。调研显示,78%的受访者已成为AI高频用户,显著高于全球平均水平。其中,一线员工使用率达到78%,较全球高出19个百分点,反映出AI在基层岗位的快速渗透。分市场看,印度、印尼与中国的使用率均超过87%,构成区域内最强增长极。这一结构意味着,AI正在从管理工具转变为普遍生产力基础设施。 从应用层面看,当前AI价值主要集中在效率提升而非业务重构。58%的用户将AI用于行政事务,56%用于写作任务,48%用于创意工作,这些高度标准化场景成为最先被自动化替代的领域。进一步来看,46%的员工每天可节省超过1小时工作时间,而这些时间中,40%被用于提升工作质量,39%转向更具战略性的任务。这表明AI正在释放认知资源,但仍停留在“局部优化”的阶段,尚未形成系统性生产力跃迁。 尽管应用广泛,亚太企业在价值转化上仍显滞后。全球领先企业将70%的AI预算投入流程重构与业务创新,而亚太企业仅为57%,更多资源仍集中在单点工具部署。这种结构导致AI收益集中于个体效率,而非组织级变革。换言之,亚太企业已实现“高使用率”,但尚未完成“高转型率”,若缺乏端到端流程再设计,技术红利将逐步触及天花板。 员工情绪呈现出典型的“双峰结构”。一方面,区域整体乐观情绪达到60%,较全球高出8个百分点,年轻群体与新兴经济体尤为明显;另一方面,52%的员工担忧未来十年可能失业,高于全球11个百分点。在中国,这一比例甚至达到71%。这种“既拥抱又恐惧”的心理状态,反映出AI既是效率工具,也是结构性替代力量,正在重塑劳动力市场预期。 组织治理的滞后正在放大这一矛盾。仅31%的一线员工感受到明确的领导支持,但在获得支持的群体中,AI使用率提升31个百分点,对职业前景的正面预期提升22个百分点。与此同时,58%的员工表示即使企业未授权也会自行使用AI工具,形成“影子AI”现象,带来数据安全与合规风险。这说明,企业当前最大的短板不在技术,而在治理与制度供给。 前沿领域方面,AI代理正处于“认知领先、应用滞后”的早期阶段。73%的员工认为其将在未来3至5年内发挥重要作用,但仅33%真正理解其运作机制,目前仅13%的企业实现流程级整合,64%仍停留在试点阶段。缺乏人类监督、价值对齐问题及算法偏见,成为制约其规模化落地的主要障碍。这意味着下一轮竞争将围绕“自主系统的可控性”展开。 整体来看,亚太地区正站在从“应用领先”迈向“价值领先”的临界点。短期内,AI将持续释放个体生产率红利;但中长期竞争,将取决于企业是否能够将AI嵌入核心流程、重构组织形态并完善治理体系。若亚太企业能够从“工具部署”转向“系统重构”,并同步推进人才再培训与制度建设,其领先优势有望从规模扩散升级为结构性优势。 u200b文档链接将分享到199IT知识星球,扫描下面二维码即可查阅! 更多阅读:TechEquity:2025年人工智能与劳动力发展报告波士顿咨询:AI成熟度矩阵波士顿咨询:不断扩大的AI价值差距工作中的AI:亦敌亦友波士顿咨询:GenAI不仅能提高生产力还能扩展功能波士顿咨询:2025年AI雷达报告谷歌推出人工智能工具筛查恶意言论Similarweb:2025年生成式AI全球行业趋势报告波士顿咨询:2024年消费者AI认知调查Accenture:调查显示企业不愿花钱对员工进行人工智能培训波士顿咨询:CMO如何在动荡时期扩展生成式AI104市調中心:App熱潮不退 消費者最愛哪些App?波士顿咨询:2025年全球财富报告GSMA:人工智能赋能安全应用案例集FICO:2021年负责任的人工智能报告

来源:199IT发布时间:2026-03-18
Levels.fyi:2025年第三季度AI工程师薪酬调查

在当今竞争激烈的科技行业,人工智能专业知识已成为公司需要的最宝贵技能之一,薪资数据清晰地反映了这一趋势。 随着各组织竞相构建更智能的产品和服务,专注于人工智能的软件工程师正获得越来越丰厚的薪酬方案。 首先,在美国,专注于人工智能的软件工程师平均年薪为245,000美元。 现在,让我们通过显示不同地区人工智能工程师薪酬范围的图表来可视化这些数据。取一个地点的所有数据点,并使用第25至第75百分位数来创建显示的范围。每个范围内的标记表示第50百分位数(中位数),为了解每个地点内部的薪酬分布提供了进一步的洞察。 薪资数据显示,专注于人工智能(AI)的软件工程师的收入继续高于非AI同行,且这种差异在更高级别上变得更大。 在2025年,入门级人工智能工程师比非AI工程师多赚约6.2%,低于2024年的10.7%,这表明初级职位的市场开始趋于平稳。 在工程师级别,差距稳定在11.9%左右,与去年大致相同。对于高级工程师,差异保持一致,大约为14.2%。 但最大的跳跃出现在首席工程师级别,2025年人工智能专家的收入高出18.7%,高于2024年的15.8%,这表明公司愿意为经验丰富的人工智能人才支付溢价。 以下图表显示了拥有AI专业知识如何在顶级科技公司中提升薪酬,并且这种差距在高级别中扩大。 在入门级,差异明显但较小。例如,在LinkedIn,AI工程师的收入约为288,050美元,而非AI工程师为225,000美元。 在高级级别,溢价增长。像Snap和Cruise这样的公司支付给AI工程师的薪酬分别约为635,000美元和513,000美元,这显著高于他们的非AI同行。 但最显著的差距出现在Intuit的首席工程师级别: • 那里的AI工程师收入接近917,000美元 • 而非AI首席工程师的收入约为515,000美元 这相差近400,000美元,突显了一些公司对AI专业知识的重视程度。 现在,让我们探讨不同公司之间AI工程师的薪酬差异。此图表重点列出了前20名雇主,并揭示了不同组织之间为AI人才支付的薪酬如何变化。 纵观薪资随时间变化的趋势,我们看到AI工程师薪酬存在明显波动。中位数薪资在2024年3月达到295,000美元的峰值,达到峰值后,薪资在2025年1月降至约228,500美元,但在年底反弹,在3月升至277,000美元,并稳定在260,000美元至269,000美元左右。这一反弹是由于收到了更多来自Facebook的高薪酬方案所驱动的。 随着AI就业市场的发展,公司显然愿意为专业技能支付更多费用,尤其是在高级别职位。尽管存在一些波动,需求仍然强劲,Facebook和OpenAI等公司推动了近期的薪资上涨。 更多阅读:Levels.fyi:2024年Q1 AI工程师入门级薪酬平均超170万元Accenture:调查显示企业不愿花钱对员工进行人工智能培训TechEquity:2025年人工智能与劳动力发展报告Levels.fyi:2021年全球程序员收入报告 字节跳动高级工程师年薪274万排名第五红杉资本:2025年AI顶级科学家年薪超1000万美元Marketing Week:FMCG营销人员平均薪酬57196英镑Payscale:重新聚焦薪酬在重新评估中的作用Equal:2016年100家大企业CEO平均薪酬是1660万美元Michael Page:2022年新加坡薪酬最高的工作数据科学家和工程师的“五诫”如何成为一名大数据工程师?2019年美国收入最高科技职位:网络安全工程师GlobalSpec:2019年工程师报告GlobalSpec:2024年面向工程师的营销报告GlobalSpec:2022年工程师营销报告Edit Related Posts

来源:199IT发布时间:2026-03-18
超低功耗与高精度兼备,赋能物联网与可穿戴设备性能跃升

在数字科技飞速迭代的当下,物联网与可穿戴设备已深度融入生产生活的方方面面,从工业物联网的环境监测节点、智能家居的联动终端,到可穿戴医疗设备的健康数据采集、智能手表的日常状态追踪,设备的性能体验成为行业竞争的核心焦点。长期以来,超低功耗与高精度始终被视为这两类设备发展中的一对“矛盾体”:追求高精度往往需要更高的算力支撑,进而增加功耗消耗,缩短设备续航;侧重超低功耗又容易导致数据采集、信号处理的精度下降,影响设备实用性。如今,随着芯片技术、算法优化与架构创新的不断突破,超低功耗与高精度的协同实现成为可能,为两类设备的性能跃升注入强劲动力,推动行业迈入高质量发展新阶段。 物联网与可穿戴设备的场景特性,决定了超低功耗与高精度兼备的必要性与紧迫性。物联网设备大多采用电池供电,且许多部署在偏远地区、复杂环境中,更换电池难度大、成本高,超长续航成为设备稳定运行的前提,这就对功耗控制提出了严苛要求。同时,物联网设备承担着数据采集、传输与分析的核心任务,无论是工业场景中的温度、压力监测,还是农业场景中的土壤湿度、光照检测,数据精度直接关系到决策的科学性与可靠性,微小的误差都可能引发严重的生产安全隐患或经济损失。 对于可穿戴设备而言,其与人体紧密贴合的特性,既要求设备体积小巧、续航持久,避免频繁充电影响用户体验,又需要精准捕捉人体生理数据与运动状态,为健康管理、运动指导提供可靠依据。例如,医疗级可穿戴设备的心率、血氧、心电监测,精度直接关系到疾病筛查与预警的准确性;运动手环的步数统计、卡路里消耗计算,精度则影响用户的运动规划与目标达成。可以说,超低功耗是设备“活下去”的基础,高精度是设备“用得好”的核心,二者的协同发展是破解行业痛点、提升产品竞争力的关键。 芯片技术的创新突破,是实现超低功耗与高精度协同的核心支撑。作为设备的“心脏”,芯片的功耗与算力直接决定了设备的整体性能。近年来,专用集成电路(ASIC)、微机电系统(MEMS)芯片的快速发展,实现了功耗与精度的双重优化。以ADI公司推出的AD4129-8 ADC芯片为例,其在连续转换模式下典型电流消耗仅32μA,占空比模式下可低至5μA,待机模式更是仅0.5μA,能有效延长纽扣电池使用寿命至五年以上,同时具备16位高精度与低至25nV rms的有效值噪声,可精准采集温度、压力等各类传感器信号,完美适配低带宽电池供电的物联网与可穿戴场景。 国内科研团队与企业的创新同样亮眼,清华大学等机构研发的FLEXI系列全柔性存算一体芯片,采用低温多晶硅薄膜晶体管工艺,薄如蝉翼且可随意弯折,最小版本的FLEXI-1芯片可在仅55.94微瓦的超低功耗模式下运行,同时能实现高达99.2%的心律失常检测准确率,既满足了可穿戴设备的便携性与续航需求,又保障了生理数据监测的高精度。此外,60GHz毫米波雷达芯片的发展也打破了性能瓶颈,IWRL6432系列芯片通过深度睡眠模式优化,平均功耗降至2mW以内,配合集成式封装天线技术,角分辨率提升至0.5°,为厘米级定位提供了硬件支撑,推动高精度传感从工业领域向消费电子场景延伸。 算法优化与架构创新,为超低功耗与高精度的协同实现提供了重要保障。在数据处理环节,传统算法往往需要对所有采集到的数据进行完整处理,不仅消耗大量算力与功耗,还可能包含冗余信息。如今,轻量级算法、智能滤波算法与边缘计算架构的应用,实现了“按需处理、精准计算”,在降低功耗的同时提升了数据精度。通过边缘计算架构,设备可在本地完成数据的初步筛选与处理,仅将关键有效数据传输至云端,大幅减少数据传输过程中的功耗消耗;智能滤波算法则能有效过滤环境干扰、设备噪声带来的误差,提升数据采集与处理的精度。 超低功耗与高精度的协同实现,正推动物联网与可穿戴设备在各场景的深度应用与性能升级。在物联网领域,工业物联网设备凭借低功耗与高精度优势,可实现长期稳定的环境监测与设备运维,降低工业生产的安全风险与运营成本;智慧农业中的传感器节点,能精准采集土壤、气候数据,为精准灌溉、科学施肥提供支撑;智能家居设备则可在低功耗运行的同时,精准响应用户指令,实现家居场景的智能联动。在可穿戴设备领域,医疗级可穿戴设备实现续航延长与精度提升,可24小时连续监测生理数据,为慢性病管理提供可靠支撑;消费级可穿戴设备通过优化,提升运动监测、睡眠分析的准确性,为用户提供更专业的健康指导。 展望未来,随着物联网与可穿戴设备向更智能、更便携、更可靠的方向发展,对超低功耗与高精度的要求将进一步提升。芯片技术的持续微型化、集成化,算法的不断迭代优化,以及新材料、新架构的创新应用,将进一步打破功耗与精度的平衡瓶颈。超低功耗与高精度的深度融合,不仅将推动两大行业的持续升级,还将赋能智慧医疗、工业互联网、智慧城市等更多领域,为数字经济的发展注入新的活力,让智能设备更好地服务于人类生产生活,开启万物智联的全新篇章。

来源:21IC电子网发布时间:2026-03-17
实锤!国产笔记本CPU造假:老U冒充新U,连BIOS都改了

近日,国产笔记本品牌驰为(CHUWI)深陷“CPU造假”风波——继其CoreBook X机型被曝用老款锐龙5 5500U冒充新款7430U之后,另一款CoreBook Plus也以完全相同的手法翻车了。 更致命的是,这并非“批次问题”,而是一场系统性造假! (相关报道截图) 事件回顾:拆机之后,真相藏不住! 这件事情要从驰为CoreBook X的用户投诉说起:前段时间,不少人反馈,这款宣传搭载新款锐龙5 7430U的笔记本,实际用起来卡顿明显,性能和宣传差了一大截。 海外科技媒体Notebookcheck随即拆解检测,这下彻底揭开了骗局:不管是电脑BIOS、Windows系统,还是CPU-Z这类权威检测工具,显示的都是“锐龙5 7430U”,但芯片上的OPN编号核实后,竟是2021年推出的老款锐龙5 5500U。 更离谱的是,这还不是个例。Notebookcheck后续发现,驰为另一款机型CoreBook Plus用了完全一样的造假手法——同样是老U充新U,同样篡改了BIOS信息。关键这两款机型主板完全不同,直接推翻了驰为“生产批次问题、库存不受控”的狡辩。 (CoreBook Plus笔记本拆解) 代理商出手:召回、退款、道歉! 面对铁证,驰为不仅没有正面认错,反而以“损害品牌名誉”为由,要求Notebookcheck撤下报道。好在该媒体没有退缩,深挖之下,更多真相浮出水面。 该事件发酵后,驰为的中国香港代理商汉科(Hornington)率先行动,第一时间发布公告确认:经拆机查证,驰为以下三款采用AMD 7430U处理器的产品,CPU规格不符,实际为AMD 5500U: ● 驰为CoreBook X 7430U Laptop ● 驰为CoreBook Plus 7430U Laptop ● 驰为UBOX 7430U Mini PC 汉科表示,为保障消费者权益,决定全面召回上述产品并安排退款。客户只需退回主机及主要配件,如无人为损坏即可申请。 (代理商汉科发布的公告) 启示与反思:别让造假毁了口碑 驰为造假手法如此“精细”,用老U冒充新U,把消费者当傻子,还试图用法律威胁捂住媒体的嘴……这一系列操作,已经超越了“品控失误”的范畴,触及商业伦理的底线。 更值得警惕的是,这并非国产笔记本第一次陷入此类争议。当“性价比”成为唯一卖点,一些品牌开始走捷径:用低价吸引眼球,用造假填补利润。但消费者不傻,拆机的那一刻,真相总会浮出水面。 截至发稿,驰为官方仍未正面承认造假,也未公布任何赔偿方案。不过,作为代理商,汉科的召回给行业立了一个正面榜样:错了就认,认了就赔。这种主动承担责任的做法,深得市场和消费者的认可。 最后,大家怎么看这次“CPU造假”事件?你还会考虑购买这类“高性价比”的国产笔记本吗?欢迎在评论区,聊聊你的看法。

来源:21IC电子网发布时间:2026-03-17
vivo官宣加入手机调价潮,存储芯片涨价潮席卷行业

进入 3 月以来,全球存储芯片价格暴涨引发的成本压力,正全面传导至手机终端市场。继三星、OPPO 率先掀起调价潮后,vivo 于 3 月 16 日正式官宣,将对旗下包含 iQOO 子品牌在内的部分机型上调建议零售价。至此,头部手机品牌集体加入调价行列,成为近五年来手机行业规模最大、覆盖面最广的一次集体价格调整,而这一切的核心诱因,正是上游存储芯片的罕见普涨。 vivo 在官方公告中明确,受全球半导体及存储成本持续大幅上涨影响,经慎重评估,将于 3 月 18 日 10:00 起调整部分产品建议零售价,具体机型及价格以官方渠道公示为准,并特意为消费者预留两天缓冲期,可按原价完成购买。vivo 方面对此回应称,近期上游存储等核心器件供货与成本波动较大,行业普遍面临阶段性压力,调价是基于市场现状的阶段性政策调整。 vivo 的调价举措,距 OPPO 官宣涨价仅不到一周时间。3 月 10 日,OPPO 发布公告称,受高速存储硬件等关键零部件成本上涨影响,自 3 月 16 日起对部分已发售产品调价,涉及 OPPO A 系列、K 系列及一加品牌机型,Find、Reno 等主力系列暂未纳入调整范围,此举当时便被视为行业涨价潮的明确信号。 而本轮涨价潮的开端,最早可追溯至 2026 年 2 月,三星发布全新 Galaxy S26 系列时,相较上一代机型价格直接上涨 1000 元,成为首个开启年度调价的头部品牌。紧随其后,3 月 10 日荣耀发布折叠屏新品 Magic V6,其 16GB+512GB 版本较上一代同规格 Magic V5 同样涨价 1000 元,从 9999 元升至 10999 元。荣耀 CEO 李健坦言,内存涨价是全行业性问题,行业整体面临巨大成本压力。 多位行业人士指出,此次头部品牌集体调价,并非偶然,而是上游存储芯片成本飙升的必然结果,且这仅仅是行业价格调整的开端。受成本持续攀升影响,2026 年手机市场或迎来多轮调价,下半年甚至可能出现第二轮、第三轮价格修正,而此前决定手机市场竞争的 AI 能力、影像升级、芯片迭代等因素,如今均让位于一个更基础的核心变量 —— 存储价格。 实际上自 2025 年下半年起,全球存储芯片市场便开启罕见普涨周期,其核心原因在于 AI 基础设施建设引发的存储需求爆发,与产能供给不足形成的严重供需失衡。集邦咨询(TrendForce)最新数据显示,2026 年第一季度常规 DRAM 合约价预计涨幅,已从最初预估的 55%—60% 上修至 90%—95%,NAND Flash 合约价涨幅也从 33%—38% 上调至 55%—60%,且仍有进一步上涨空间。全球存储芯片巨头 SK 海力士更是直言,当前 DRAM 及 NAND 整体库存仅剩约 4 周,处于历史极低水平,所有客户均无法获得足额供应,重复下单进一步推高价格预期。 成本压力的快速传导,不仅让头部品牌不得不选择调价,更让整个手机行业面临全新挑战。业内预测,此次存储涨价将进一步加剧手机行业集中度提升,中小品牌、以低端机型为主的厂商及供应链议价能力较弱的企业,将面临更大经营压力,部分厂商甚至可能因无法获得内存供应而停产倒闭。而对于消费者而言,此前秉持 “等等党” 心态等待手机降价的策略已不再适用,在多轮调价预期下,当下市场呈现 “早买早省,越等越贵” 的全新格局。 值得注意的是,此次手机品牌调价均集中于部分在售机型,旗舰新品及核心主力系列暂未大规模调整,业内分析,头部品牌此举是为了在成本压力与市场需求间寻求平衡,而随着存储芯片价格的持续上涨,后续中端乃至旗舰机型的价格调整,或只是时间问题。

来源:21IC电子网发布时间:2026-03-17
NVIDIA 推出 Vera CPU,专为代理式 AI 打造

新闻摘要: · NVIDIA Vera CPU 较传统 CPU 在效率上提升 2 倍,速度提升 50%。 · 与 NVIDIA 合作部署 Vera CPU 的客户包括阿里巴巴、字节跳动、Meta、Oracle Cloud Infrastructure、CoreWeave、Lambda、Nebius 和 Nscale。 · 已采用 Vera CPU 的制造商合作伙伴包括戴尔科技、HPE、联想和 Supermicro,以及华硕、Compal、Foxconn、技嘉、Pegatron、Quanta Cloud Technology(QCT)、Wistron 和 Wiwynn。 加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2026 年 3 月 16 日 —— NVIDIA 今日发布 NVIDIA Vera CPU,这是全球首款专为代理式 AI 与强化学习时代打造的处理器,其效率是传统机架级 CPU 的 2 倍,速度提升 50% 随着推理和代理式 AI 的发展,规模、性能和成本越来越取决于支撑模型的基础设施,这些模型负责规划任务、运行工具、与数据交互、运行代码并验证结果。 NVIDIA Vera CPU 基于 NVIDIA Grace™ CPU 的成功经验打造而成,助力各行业、各种规模的组织都能构建 AI 工厂,大规模释放代理式 AI 的潜力。凭借卓越的单线程性能和每核心带宽,Vera 重新定义了 CPU。它能提供更高的 AI 吞吐量、响应速度和效率,从而支持大规模 AI 服务,例如编程助手以及面向消费者和企业的智能体应用。 与 NVIDIA 合作部署 Vera 的头部超大规模企业包括阿里巴巴、CoreWeave、Meta 和 Oracle Cloud Infrastructur,以及戴尔科技、HPE、联想和 Supermicro 等全球系统制造商。这一广泛采用使 Vera 成为面向开发者、初创公司、公共和私营机构及企业最重视的 AI 工作负载的新型 CPU 标准,有助于让更多人平等地使用 AI 并加速创新。 NVIDIA 创始人兼首席执行官黄仁勋表示:“AI 正迈向一个转折点,Vera 应势而来。随着智能变得具有能动性——能够推理并采取行动——重心就转移到了编排这些工作的系统。CPU 不再只是支持模型,而是开始驱动模型。凭借突破性的性能与能效,Vera 助力 AI 系统实现更快的运算速度和更广的扩展能力。” 为各类数据中心提供灵活配置 NVIDIA 发布了全新的 Vera CPU 机架,集成了 256 个液冷 Vera CPU,能够持续支持超过 22,500 个并发的 CPU 环境,每个环境均可以全性能独立运行。AI 工厂可在单个机架内快速部署并扩展至数万个并发实例和智能体工具。 全新的 Vera 机架采用 NVIDIA MGX™ 模块化参考架构,并获得了全球 80 家生态合作伙伴的支持。 作为 NVIDIA Vera Rubin NVL72 平台的一部分,Vera CPU 还可通过 NVIDIA NVLink™-C2C 互连技术与 NVIDIA GPU 配对,提供高达 1.8 TB / s 的相干带宽,是 PCIe Gen 6 带宽的 7 倍,从而实现 CPU 与 GPU 之间的高速数据共享。此外,NVIDIA 还推出了新的参考设计:将 Vera 用作 NVIDIA HGX™ Rubin NVL8 系统的主机 CPU,负责协调 GPU 加速工作负载的数据搬运和系统控制。 Vera 系统的合作伙伴正推出支持双路和单路 CPU 服务器配置,非常适合强化学习、智能体式推理、数据处理、系统编排、存储管理、云应用以及高性能计算等场景。 在所有配置中,Vera 系统均与 NVIDIA ConnectX® SuperNIC 网卡和 NVIDIA BlueField®-4 DPU 集成,以实现加速网络、存储和安全性能,这些对代理式 AI 至关重要。这使客户能够针对其特定工作负载进行优化,同时在整个 NVIDIA 平台上保持统一的软件堆栈。 专为智能体扩展而设计 通过结合高性能、高能效的 CPU 核心、高带宽内存子系统以及第二代 NVIDIA 可扩展一致性互连架构(NVIDIA Scalable Coherency Fabric),Vera 能够在代理式 AI 与强化学习常见的极端利用率环境下,实现更快速的智能体响应。 Vera 搭载 88 个由 NVIDIA 专门设计的 Olympus 核心,可为涉及编译器、运行时引擎、分析流水线、智能体工具和编排服务的工作负载提供高性能支持。每个核心可通过 NVIDIA Spatial Multithreading 技术同时运行两个任务,以提供一致且可预测的性能,非常适合需要同时处理多项作业的多租户 AI 工厂。 为进一步提升能效,Vera 引入了 NVIDIA 第二代低功耗内存子系统,采用 LPDDR5X 内存,可提供高达 1.2 TB / s 的带宽。与通用 CPU 相比,其带宽提升了 2 倍,而功耗仅为其一半。 广泛的生态系统支持 AI 原生软件开发领域的创新企业 Cursor 正采用 NVIDIA Vera,以提升其 AI 编程智能体的性能。 Cursor 联合创始人兼首席执行官 Michael Truell 表示:“我们很高兴能使用 NVIDIA Vera CPU 来提升整体吞吐量和效率,从而为我们的客户提供更快速、响应更灵敏的编程智能体体验。” 领先的流数据与 AI 平台 Redpanda 正在采用 Vera,以显著提升系统性能。 Redpanda 创始人兼首席执行官 Alex Gallego 表示:“Redpanda 最近测试了运行 Apache Kafka 兼容工作负载的 NVIDIA Vera,发现其性能远超我们此前测试过的其他系统,延迟最高可降低至原来约 18%。Vera 代表了 CPU 架构发展的新方向,每颗核心拥有更大内存和更低单核成本,使我们的客户能够将实时流媒体工作负载扩展到前所未有的规模,并解锁全新的 AI 与智能体应用。” 计划部署 Vera CPU 的国家级实验室包括 Leibniz Supercomputing Centre、Los Alamos National Laboratory、National Energy Research Scientific Computing Center(隶属于 Lawrence Berkeley National Laboratory)和 Texas Advanced Computing Center(TACC)。 TACC 高性能计算总监 John Cazes 表示:“在 TACC,我们最近测试了 NVIDIA Vera CPU 平台,准备在即将推出的 Horizon 系统中进行部署。在运行六个科学应用时,早期结果令人瞩目。Vera 在单核性能和内存带宽方面的表现,代表着科学计算迈出了一大步。我们期待在今年晚些时候,为 Horizon 的 CPU 用户提供基于 Vera 的节点。” 计划部署 Vera CPU 的领先云服务提供商包括阿里巴巴、字节跳动、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI 和 Vultr。 采用 Vera CPU 的领先基础设施提供商包括 Aivres、ASRock Rack、华硕、Compal、思科、戴尔、Foxconn、技嘉、HPE、Hyve、Inventec、联想、MiTAC、MSI、Pegatron、Quanta Cloud Technology(QCT)、Supermicro、Wistron 和 Wiwynn。

来源:21IC电子网发布时间:2026-03-17
NVIDIA 发布 Vera Rubin DSX AI Factory 参考设计和 Omniverse DSX 数字孪生 Blueprint,获得广泛行业支持

新闻摘要: ● 全新 NVIDIA Vera Rubin DSX AI Factory 参考设计为构建共同设计的 AI 基础设施提供了指南,旨在实现更高的每瓦 Token 数,并加速首次投产的时间。 ● NVIDIA Omniverse DSX Blueprint 现已与 NVIDIA Vera Rubin AI Factory 参考设计同步全面推出,可为大规模 AI 工厂设计和仿真提供数字孪生支持。 ● 行业领导者 Cadence、达索系统、Eaton、Jacobs、Nscale、Phaidra、Procore Technologies、PTC、施耐德电气、西门子、Switch、Trane Technologies 和 Vertiv 通过集成平台、提供 SimReady 资产和连接软件来帮助设计、构建和优化 AI 工厂,为 DSX 架构和蓝图做出贡献。 ● 能源领域的领先企业 Emerald AI、GE Vernova、日立和西门子能源正在使用 NVIDIA DSX 参考架构来释放电网容量,为构建和连接新 AI 工厂提供所需电力。 加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2026 年 3 月 16 日 ——NVIDIA 今日宣布推出 NVIDIA Vera Rubin DSX AI Factory 参考设计,这是一份用于构建协同设计的 AI 基础设施的指南。同时正式发布完全兼容 NVIDIA Vera Rubin DSX 的 NVIDIA Omniverse DSX Blueprint,旨在为大规模设计、建设及运营提供物理精确的 AI 工厂数字孪生。 行业领导者 Cadence、达索系统、Eaton、Jacobs、Nscale、Phaidra、Procore、PTC、施耐德电气、西门子、Switch、Trane Technologies 和 Vertiv 正在为参考设计和蓝图做出贡献,以帮助规划、构建和运营这些大规模 AI 工厂扩建。 NVIDIA 创始人兼首席执行官黄仁勋表示:“在 AI 时代,智能 Token 是新的货币,AI 工厂则是生成智能 Token 的基础设施。借助 NVIDIA Vera Rubin DSX AI Factory 参考设计和 Omniverse DSX Blueprint,我们正在为构建全球高效生产的 AI 工厂奠定基础,加速实现首次创收,并最大限度地扩大规模和提高能效。” 构建最大化每瓦性能的 AI 工厂 构建大规模 AI 工厂以满足日益增长的训练和推理需求是一项复杂的工作,需要在基础设施、电力、冷却、网络、软件和计算方面进行精确协调。 NVIDIA Vera Rubin DSX AI Factory 参考设计概述了如何设计、构建和运营整个 AI 工厂基础设施堆栈,涵盖计算、NVIDIA Spectrum-X™ 以太网网络和存储,实现可重复、可扩展且出色的集群性能。参考设计中的文档还为行业合作伙伴提供了设计、构建和运营电力、冷却和控制系统的最佳实践,从而实现无缝软硬件集成和可扩展部署。 Vera Rubin DSX 软件堆栈是开放、模块化和可组合的,可将集群硬件与电源和冷却系统连接,以更大限度地提高每瓦可用能源的 AI Token。其灵活的设计使 AI 工厂建造商和数据中心提供商能够按需部署尽可能多的组件。 Rubin DSX 为合作伙伴提供一系列软件库进行构建: ● DSX Max-Q 可帮助 AI 工厂和生态系统合作伙伴在固定的功耗预算内,更大限度地提高 NVIDIA 系统的计算输出和每瓦 Token 性能。 ● DSX Flex 将 AI 工厂连接到电网服务,使其能够动态调整用电量,协调混合现场发电的需求,从而节约能源并保持电网稳定。 ● DSX Exchange 可在 IT、运营技术和运营智能体之间实现计算、网络、能源、电力和冷却设备信号的可扩展安全集成。 ● DSX Sim 模型通过高保真数字孪生对AI 工厂进行验证,并借助 NVIDIA DSX Air 平台完成对 GPU、网络及合作伙伴基础设施进行建模;DSX SimReady 则连接详细的 3D 几何结构、物流和系统行为,从而加速实现首次营收并确保首发日的性能。 加速 AI 工厂设计和仿真 即使有详细的架构,设计、建造和运营大型 AI 工厂也可能很困难。传统的设计方法在对整个系统进行建模、灵活高效地使用电力,以及在施工开始前验证设计等方面能力有限。 NVIDIA Omniverse DSX Blueprint 为设计和运营大型 AI 工厂提供了一个开放、全面的框架。现已在 NVIDIA 官网正式发布,并完全兼容 Vera Rubin DSX AI Factory 参考设计, Omniverse DSX 允许开发者构建物理精准的 AI 工厂数字孪生,实时模拟运营,并在开始施工或部署之前优化性能。 Omniverse DSX 将电力、冷却、网络和运营整合到一个环境中,加速实现收益并提高 AI 效率。借助 NVIDIA Omniverse™ 库,企业可以模拟布局、电力拓扑、散热行为和运营策略,并在不中断生产的情况下评估硬件或工作负载变化。 行业领导者采用新的参考设计和蓝图 可靠、可扩展的电力和冷却是每个 AI 工厂的支柱,使智能系统能够实时适应不断变化的计算需求,同时更大限度地提高效率和正常运行时间。从能源到软件领导者,广泛的合作伙伴生态系统正在采用 DSX,将整个 AI 工厂生命周期转变为无缝优化的产品级系统,共同设计以实现弹性、精确和高效。 达索系统正在将新的参考设计和蓝图集成到其基于模型的系统工程平台中,该平台由 CATIA 软件提供支持,构建了 AI 工厂的虚拟孪生 (Virtual Twin),加快实现初始收益,同时提高可靠性和效率。施耐德电气正集成 ETAP 平台帮助用户模拟和优化配电系统。 Cadence 正在将 NVIDIA Grace Blackwell Ultra 机架系统的仿真就绪(SimReady)模型集成到其 Reality Data Center Digital Twin Platform 中,以模拟散热和流体数据,从而优化 AI 工厂的设计和运营,并协作建模 NVIDIA Vera Rubin 系统。西门子正在开发一个框架,以求在 AI 基础设施高密度计算与供电、散热和自动化之间取得平衡。 Jacobs 使用 Omniverse DSX Blueprint 开发了全新 Data Center Digital Twin解决方案,为构建者和运营商提供数字孪生,优化 AI 工厂从规划、设计到交付和运营的各个环节。PTC 正在将该蓝图集成到其适用于 DSX Accelerator 的 Windchill 产品生命周期管理解决方案中,将工程和产品设计数据与高保真的实时仿真相结合,并管理跨合作伙伴和供应商的物料清单。Procore 正在将 NVIDIA Omniverse 库和 DSX Blueprint 集成到其 Procore 平台中,以创建贯穿整个施工生命周期的连续数字线程。 Switch正借助 Omniverse DSX Blueprint 构建其 EVO AI 工厂和 LDC EVO 操作系统, 实现实时遥测提取,不断更新的基于 Rubin DSX 参考设计规范构建的数字孪生,并自动优化供电、冷却和工作负载。Nscale 和 Caterpillar 将 DSX Vera Rubin 参考设计带到了西弗吉尼亚州的一座吉瓦级工厂中,该工厂是世界上最大的 AI 工厂之一。 CoreWeave 正在使用 NVIDIA DSX Air 在云端构建并测试 AI 工厂的数字孪生,通过在实际交付之前进行运营预演来缩短验证时间。 NVIDIA 的合作伙伴生态系统提供设备和硬件的SimReady 资产,允许 AI 工厂运营商在实施之前对设计进行仿真、验证和优化。Eaton、施耐德电气、西门子、Trane Technologies 和 Vertiv 正在为 DSX 设计和工程公司提供发电机、电气设备和冷却系统的 SimReady 资产,以便在现实世界中建造之前对整个设计进行验证和仿真。 Vertiv 还使用 Omniverse DSX Blueprint构建 Vertiv OneCore Rubin DSX,这是一种预制的融合式数据中心基础设施解决方案,旨在加速 AI 工厂部署和提高每瓦 AI 输出。Trane Technologies 正在使用该蓝图优化超大规模 AI 工厂的散热管理,从而减少冷却装置的能耗并提高效率。 Phaidra 已集成 DSX Max-Q 到其新的自主学习 AI 智能体,通过降低冷却峰值来提供约 10% 的额外计算能力,同时保持安全性并释放电力用于创收性 Token 生产。 全球能源行业领先企业借助 Omniverse DSX Blueprint 实现全球电网现代化 目前,能源已成为 AI 基础设施建设的最大瓶颈,设备库存已超过 3,000 亿美元,超过 2,000 亿瓦级的项目正在等待并网队列。 为解决这一问题,NVIDIA 正与领先的能源供应商合作,加快电力接入并加强电网稳定性: ● Emerald AI 正集成 DSX Flex 到其 Conductor 平台中,帮助 AI 工厂实时管理电力,根据命令提高或降低需求,并通过新的专用发电协调灵活负载。通过可靠的、基于软件的负载控制,使电力公司更有信心批准更大、更快速的电网连接。 ● GE Vernova 正将数字孪生能力扩展至从电网到 AI 工厂的整个电力堆栈。通过与 NVIDIA DSX 参考架构保持一致,统一功耗和计算建模,为大规模 AI 工厂实现更快、更准确、更可预测的基础设施部署。 ● 日立正在与 NVIDIA 合作,将物理 AI、电力系统和自动化专业知识与先进的计算平台相结合,加速电网规划,并为十亿瓦级 AI 工厂提供高效、可靠的电力。 ● 西门子能源正在其 Noedra 数字孪生平台中使用 NVIDIA RAPIDS™ 库、NVIDIA Metropolis 平台和 NVIDIA Isaac Sim™ 框架来实时监测电网运行状况,帮助在故障发生前预测风险并减少计划外停机。

来源:21IC电子网发布时间:2026-03-17
NVIDIA 推出 BlueField-4 STX 存储架构,获业界广泛采用

新闻摘要: • 全新 NVIDIA STX 参考架构可提升高达 5 倍的 Token 吞吐量,能效提升高达 4 倍,数据摄取速度提升 2 倍。 • 率先将 STX 用于上下文记忆存储的厂商包括 CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、Oracle Cloud Infrastructure(OCI)和 Vultr。 • 多家存储厂商与制造合作伙伴正在基于 NVIDIA 模块化参考设计来构建基础设施,以推进代理式 AI 的发展,包括 AIC、Cloudian、DDN、戴尔科技、Everpure、Hitachi Vantara、HPE、IBM、MinIO、NetApp、Nutanix、Supermicro、Quanta Cloud Technology(QCT)、VAST Data 和 WEKA。 加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2026 年 3 月 16 日 ——NVIDIA 今日宣布推出 NVIDIA BlueField-4® STX 模块化参考架构,该架构可助力企业、云计算及 AI 服务商轻松部署加速存储基础设施,以满足代理式 AI 所需的长上下文推理能力。 传统数据中心提供大容量通用存储,但难以满足与跨多步骤、多工具和多轮会话的 AI 智能体无缝交互所需的响应速度。代理式 AI 需要实时访问数据和上下文工作记忆,以确保对话和多任务的快捷性和连贯性。随着上下文规模的不断扩大,传统存储和数据路径可能会降低 AI 推理的速度,并降低 GPU 利用率。 NVIDIA STX 助力存储厂商构建数据就近并可大规模访问的基础设施,从而使代理式 AI 工厂能够在推理、训练和分析方面提供更高的吞吐量和响应速度。 首个机架级部署方案集成了全新的 NVIDIA CMX™ 上下文记忆存储平台。通过引入高性能的上下文层来扩展 GPU 内存,从而实现可扩展的推理和代理式系统。与传统存储相比,每秒可处理的 Token 提升高达 5 倍。 NVIDIA 创始人兼首席执行官黄仁勋表示:“代理式 AI 正在重新定义软件的能力,必须重塑其背后的计算基础设施才能跟上这一步伐。能够基于海量上下文进行推理并持续学习的 AI 系统,需要新的存储方案。NVIDIA STX 重新定义了存储堆栈,为 AI 原生基础设施提供了模块化基础,确保 AI 工厂始终保持峰值性能高效运行。” STX 由 NVIDIA Vera Rubin 平台提供加速,集成了针对存储进行优化的全新 NVIDIA BlueField-4 处理器。该处理器将 NVIDIA Vera CPU、NVIDIA ConnectX® -9 SuperNIC 相结合,并配合 NVIDIA Spectrum-X™ 以太网网络、NVIDIA DOCA™ 以及 NVIDIA AI Enterprise 软件共同运行。 与传统 CPU 架构相比,STX 架构的能效提升高达 4 倍,从而实现高性能存储,并且在处理企业级 AI 数据时,每秒可处理的内存页数提升 2 倍。 众多存储厂商合作伙伴正在基于 NVIDIA STX 共同设计新一代 AI 基础架构,包括 Cloudian、DDN、戴尔科技、Everpure、Hitachi Vantara、HPE、IBM、MinIO、NetApp、Nutanix、VAST Data 和 WEKA。 正在构建基于 STX 系统的制造合作伙伴包括 AIC、Supermicro 和 Quanta Cloud Technology(QCT)。 计划采用 STX 进行上下文记忆存储的主要 AI 实验室和云服务提供商包括 CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、OCI 和 Vultr。 基于 STX 的平台将于今年下半年由合作伙伴推出。

来源:21IC电子网发布时间:2026-03-17
共77731条记录
  • 1
  • 2
  • 3
  • 4
  • 6478

产业专题

产业大脑平台

产业经济-监测、分析、

研判、预警

数智招商平台

找方向、找目标、管过程

产业数据库

产业链 200+

产业环节 10000+

产业数据 100亿+

企业数据库

工商 司法 专利

信用 风险 产品

招投标 投融资

报告撰写AI智能体

分钟级生成各类型报告