五度易链产业数字化管理平台
litellm被投毒:一次教科书级的供应链攻击,Karpathy亲自发帖警告-AITOP100,AI资讯

⚠️ 一行 pip install 泄露所有密码:月下载9500万的AI库被投毒,我们正在经历一场看不见的软件瘟疫 当你敲下 pip install litellm 时,你以为只是安装了一个工具库——但在3月24日之后,这行代码可能已经悄悄打开了你的“数字家门”。 SSH密钥、云服务凭证、加密货币钱包……所有敏感信息正被黑客打包带走。这不是科幻电影,而是真实发生在AI开发者圈的供应链投毒事件:月下载量近1亿次、GitHub星标超4万的热门Python库 LiteLLM,被植入了静默执行的恶意代码,正在以惊人的速度扩散。 一、 LiteLLM是什么?为何它被投毒会让整个AI圈发抖? LiteLLM被称为「AI时代的万能插座」,核心价值只有一个:用一套代码调用上百个大模型API。 无论你用的是 OpenAI 的 GPT、Anthropic 的 Claude,还是 Google 的 Gemini,LiteLLM 都能统一接口格式,让开发者无需关心底层差异,快速切换模型。 正因这种“基础设施级”的便捷性,它成了AI应用的底层依赖: 月下载量:高达 9500万次,覆盖全球数百万开发者 生态依赖:被 DSPy、MLflow、Open Interpreter 等 2000+ 知名项目 间接依赖 企业渗透:存在于超过 36% 的企业云环境中 结论:LiteLLM 一旦被投毒,影响的不是某个小工具,而是整个AI开发生态的“血管”。 二、 最恐怖的攻击方式:不用点链接,Python一启动就泄密 这次投毒的可怕之处在于静默触发、无感知执行,完全绕过了用户的警惕心。 1. 伪装成正常更新的恶意包 攻击者盗取 PyPI 令牌,上传了两个被篡改版本:1.82.7 和 1.82.8。 包的哈希值符合 PyPI 校验规则; 连 pip install --require-hashes 这种安全手段都无法拦截。 2. 利用Python机制的“隐形触发器” 包内藏有一个 34KB 的 litellm_init.pth 文件。 .pth 是 Python 启动时自动加载的路径配置文件; 只要文件里有一行以 import 开头,就会被直接执行。 触发场景极其广泛: bash# 只要运行以下任意命令,恶意代码即后台静默执行: pip command python -c "..." # IDE启动语言服务器 pytest # 跑测试 你甚至看不到任何异常提示。 3. 三层嵌套的“数据收割机” 恶意代码通过 三层 Base64 编码 隐藏真实逻辑: 第一层:.pth 启动子进程,躲避基础监控; 第二层:加载攻击者的 4096 位 RSA 公钥; 第三层:系统性搜刮敏感文件: SSH 密钥、云服务凭证(AWS/GCP/Azure) Kubernetes Secrets、数据库密码 加密货币钱包私钥 所有 .env 文件里的 API Key 数据传输:收集完成后,数据经 AES-256 + RSA-OAEP 双重加密,打包成 tcpcp.tar.gz 发送至仿冒域名 models.litellm.cloud。 4. 持久化后门:卸载也杀不死 更致命的是持久化后门: 驻留路径:~/.config/sysmon/sysmon.py 自启动:注册为 systemd 用户服务; 对抗分析:启动延迟5分钟躲避沙箱,每50分钟轮询恶意域名 checkmarx.zone 获取新指令; 横向移动:检测到 K8s 环境,自动部署特权 Pod,感染整个集群。 三、 影响范围有多大?可能你已经中招 根据安全公司 Mandiant 统计: 已确认感染:1000+ SaaS 环境 预计最终影响:扩展至 10000个 环境 隐形风险:即使你从未手动安装,只要项目依赖了任何引用 LiteLLM 的库,就可能被牵连。 这就是供应链攻击的恐怖:你以为在使用安全工具,其实已站在黑客的地雷阵上。 四、 深层警示:我们正在经历“软件信任危机” LiteLLM 事件撕开了开源生态的三个核心问题: 1. 对“基础设施”的信任太脆弱 LiteLLM 维护者的 PyPI 账号被劫持,就足以让数百万系统暴露风险。这就像城市供水管道被投毒,没人能独善其身。 2. “便捷”与“安全”的永恒博弈 Python 的 .pth 本为简化配置,却成了自动执行后门; PyPI 的便捷上传机制,给了黑客投毒机会。 我们追求“一行代码解决问题”,却常忽略背后的安全代价。 3. 供应链攻击是数字时代的“瘟疫” 如同病毒传播:投毒热门库 -> 上千项目依赖 -> 企业使用 -> 指数级扩散。从 npm 到 PyPI,每一个开源生态都在面临威胁。 五、 紧急行动指南:开发者现在该怎么办? 🛑 第一步:检查版本,立即隔离 bash# 1. 检查是否中招 pip list | grep litellm # 2. 如果是 1.82.7 或 1.82.8,立即卸载 pip uninstall litellm # 3. 回退到安全版本 pip install litellm==1.82.6 🧹 第二步:清理后门,重置凭证 删除恶意文件:检查并删除 ~/.config/sysmon/ 目录; 禁用服务:停止并禁用可能存在的 sysmon systemd 服务; 重置密钥(最重要!): SSH 密钥 云服务 API Key (AWS/GCP/Azure) 数据库密码 加密货币钱包(如有怀疑) 🛡️ 第三步:检查依赖,排查风险 使用 pip show litellm 查看哪些包依赖了它; 使用 pip-audit 或 safety 工具扫描项目漏洞; 生产环境建议:启用依赖锁定(Lockfiles)和哈希校验,禁止自动更新。 六、 写在最后:重新思考“开源安全” LiteLLM 投毒事件给 AI 行业敲响警钟:在疯狂追逐技术迭代和开发效率时,安全已成为不能再被忽视的底线。 开源不是“免费的午餐”,它需要生态共同维护: 维护者:加强账号安全,启用双因素认证(2FA); 企业:建立依赖审计机制,避免盲目引入热门库; 开发者:保持警惕,不要把“方便”当成唯一标准。 这场看不见的软件瘟疫,需要整个生态一起遏制。而对我们每个人来说,最朴素的道理依然有效: 永远不要相信任何一行你没看过的代码——尤其是当它藏在你每天都要用到的“基础设施”里。 AITOP100-AI资讯频道将持续关注AI行业新闻资讯消息,带来最新AI内容讯息。 想了解AITOP100平台其它版块的内容,请点击下方超链接查看 AI创作大赛 | AI活动 | AI工具集 | AI资讯专区 | AI小说 AITOP100平台官方交流社群二维码:

来源:AI TOP100发布时间:2026-03-26
LongCat-Next - 美团 LongCat 推出的多模态模型 | AI工具集

LongCat-Next – 美团 LongCat 推出的多模态模型 AI工具6小时前发布 AI小集 0 2 LongCat-Next是什么 LongCat-Next是美团LongCat推出的多模态模型,核心创新是LoZA稀疏注意力机制。模型通过智能筛查模块重要性,将50%低重要模块替换为流式稀疏注意力,形成全局与局部交错的ZigZag结构。LongCat-Next实现1M超长上下文、解码速度提升10倍、算力节省30%,硬件利用率翻倍。包含Flash-Exp(1M上下文实验版)和Flash-Lite(68.5B MoE架构)两个版本,长文本任务表现超越Qwen-3。 LongCat-Next的主要功能 超长上下文理解:支持100万Token超长文本处理,同等硬件下可处理两倍长度的文档内容。 LoZA稀疏注意力:通过智能筛查模块重要性并采用ZigZag交错结构,实现全局与局部注意力的高效协同计算。 推理加速优化:支持128K上下文解码速度提升10倍,256K预加载提速50%,大幅降低长文本处理时间成本。 算力成本节省:模型256K解码阶段算力消耗减少30%,让企业以更低成本部署大模型服务。 双版本灵活选择:提供1M上下文的实验版Flash-Exp和68.5B MoE架构的轻量版Flash-Lite,满足不同场景需求。 稳定长文本性能:在MRCR长文本基准测试中表现超越Qwen-3,复杂文档问答和代码生成任务效果更稳定可靠。 LongCat-Next的关键信息和使用要求 发布方:美团龙猫团队(Meituan LongCat) 核心技术:LoZA(LongCat ZigZag Attention)稀疏注意力机制 上下文窗口:最高支持 1M Token(100万) 模型架构:68.5B MoE(混合专家),单次推理激活2.9B-4.5B参数 性能提升:128K解码快10倍、256K预加载快50%、算力省30% 硬件要求:未公开具体配置,但LoZA机制降低了对高端硬件的依赖 API服务:LongCat-Flash-Lite提供API接入,生成速度500-700 token/s LongCat-Next的核心优势 超长上下文处理能力:支持1M Token(100万)超长文本理解,同等硬件下可处理两倍长度的文档,突破大模型长文本瓶颈。 高效稀疏注意力机制:LoZA技术通过智能筛查模块重要性,将50%低重要模块替换为流式稀疏注意力,实现全局与局部信息的精准协同计算。 显著的速度提升:模型128K上下文解码速度提升10倍,256K预加载提速50%,大幅缩短长文本响应时间。 低算力成本部署:256K解码阶段算力消耗减少30%,让企业以更低硬件成本部署高性能大模型服务。 稳定的性能表现:在MRCR长文本基准测试中超越Qwen-3,日常问答和代码生成任务与原版持平,复杂场景表现更可靠。 如何使用LongCat-Next 获取开源资源:访问GitHub 仓库,下载已发布的模型权重和推理代码进行本地部署。 硬件配置:用LoZA稀疏注意力机制,在现有硬件上实现2倍长文本处理能力,无需升级高端设备。 LongCat-Next的项目地址 项目官网:https://longcat.chat/longcat-next/intro GitHub仓库:https://github.com/meituan-longcat/LongCat-Next HuggingFace模型库:https://huggingface.co/meituan-longcat/LongCat-Next 技术论文:https://github.com/meituan-longcat/LongCat-Next/blob/main/tech_report.pdf LongCat-Next的同类竞品对比 对比项 LongCat-Next Qwen-3 GPT-4 长文本基准 MRCR测试超越Qwen-3 此前领先者 未公开MRCR数据 上下文窗口 1M Token 未明确同等长度 约128K Token 核心技术 LoZA稀疏注意力 传统全注意力 未公开细节 推理速度 128K解码快10倍 未公开量化数据 高算力依赖 算力成本 节省30%,硬件利用率翻倍 标准消耗 较高API成本 LongCat-Next的应用场景 长文档智能处理:支持百万字级法律合同、学术论文、技术文档的深度理解、摘要生成与跨章节信息检索,解决传统模型上下文截断问题。 代码仓库级开发辅助:模型能分析整个大型代码库(如百万行级项目),实现跨文件依赖理解、全局重构建议与长上下文代码生成。 企业知识库问答:基于海量内部文档构建智能客服与决策支持系统,以更低算力成本实现高精度长文本检索与推理。 多模态长内容分析:未来将支持长视频脚本解析、长图文内容理解,实现跨模态长序列信息整合与生成。 # AI工具# AI项目和框架© 版权声明本站文章版权归 AI工具集 所有,未经允许禁止任何形式的转载。

来源:AI工具集发布时间:2026-03-26
华为、商汤等873家机构遭AI顶会“封杀”,中国学界怒了

智东西(公众号:zhidxcom) 作者|江宇 编辑|漠影 智东西3月26日报道,昨日,中国计算机学会(CCF)发布声明,强烈反对NeurIPS新增限制条款,并倡议中国学者暂停投稿与审稿。 ▲中国计算机学会发布声明强烈反对并发起抵制 这一事件的导火索,是AI三大顶会之一NeurIPS今年新增了条款,禁止美国财政部实体清单上的机构OFAC制裁名单上的机构投稿,连评审、编辑等学术服务也被一并切断。 在公开名单范围内,中芯国际、海康威视、中科曙光、大疆,以及中国移动、中国联通、中国电信三大运营商,连同华为、商汤、旷视科技、云天励飞等一批核心AI公司与研究机构,均在影响范围之内,相关制裁名单条目已达到873条。 目前,多位学者公开拒绝担任NeurIPS领域主席或审稿人,社交平台上来自海内外的抗议声不断,这一事件正在迅速撕开AI顶会披着“学术规则”外衣的政治化手段。 一、NeurIPS新规落地:受制裁机构被排除,投稿与审稿同时受限 这次争议并不仅限于“限制投稿”。NeurIPS在相关文件内写道,由于需遵守美国OFAC制裁规定,无法向相关机构“提供服务”,而论文评审、编辑、出版全部被纳入这一范畴。 换句话说,被列入名单的机构,不仅无法投稿,其研究人员也被排除在整个学术运行体系之外。 从公开查询结果来看,仅以“中国”为筛选条件,相关制裁名单条目就达到873条,这也意味着受影响范围直接覆盖国内当前AI产业与科研体系中的核心力量。 过去高校、企业、研究院的论文生产与评审体系,在这一规则下被硬性切开。 二、学者当场拒绝,领域主席、审稿人接连退出 几乎没有缓冲期,这一规则很快在学术共同体内部引发“反击”。西湖大学助理教授修宇亮(Yuliang Xiu)公开发声:“这是我第一次受邀担任NeurIPS领域主席……但由于制裁政策,我不得不婉拒这一邀请。”他直言,NeurIPS的繁荣发展离不开全球研究人员的共同努力,而其成长与成功也长期以来收到了部分受制裁机构的赞助。 强化学习研究者姜楠(Nan Jiang)则直言,自己自2020年以来每年担任NeurIPS AC,今年已决定拒绝,并指出主办方至少应向社区解释为何成为“唯一采取这一政策的顶会”。 与此同时,有研究者直接公开了拒绝审稿的完整说明信,明确写道这一政策“荒谬”,并认为其基于政治,将加剧AI研究的分裂与脱钩。 还有声音指出,一些受影响企业过去多年一直是NeurIPS赞助方,如今却被排除在投稿与学术服务之外,这种操作让学者直言“难以置信”。 三、中国计算机学会表态:建议暂停投稿,必要时“移出推荐目录” 中国计算机学会在3月25日发布声明,明确指出NeurIPS相关政策违背开放、包容、平等、合作的学术基本原则,将学术交流政治化,并对全球学术共同体造成损害。 在表态之外,CCF给出了明确的动作:倡议全体中国计算机领域科学家及相关科研工作者拒绝为NeurIPS提供各类学术服务,拒绝向NeurlPS会议进行论文投稿。如果NeurlPS不及时改正错误,中国计算机学会将把NeurIPS移出《中国计算机学会推荐国际学术会议和期刊目录》。 2019年IEEE就曾因类似制裁限制华为员工参与审稿,引发中国学界强烈反弹,当时中国计算机学会(CCF)宣布暂停与IEEE通信学会的交流合做,并建议会员不向其投稿。最终,IEEE在巨大压力下做出调整恢复了华为员工的参与权。 四、中国贡献占比持续提升,已成NeurIPS核心力量 NeurIPS创办于1987年,与ICML、ICLR并列为AI领域三大顶级会议,在中国计算机学会体系中属于A类会议,长期被视为该领域的最高学术舞台。 与此同时,中国学者近年来已成为NeurIPS的重要贡献力量。从榜单来看,在NeurIPS 2025中,清华大学以390篇论文、2.18%的占比超过谷歌,位列全球第一,北大、上交、浙大、中科院等机构也占据重要位置,腾讯、阿里、华为等企业同样贡献大量论文。 ▲图源:AIWorld 结语:学术中立崩塌,这条红线不该被跨过 这场争议已经触及了学术共同体最基本的共识。 从学者拒绝担任领域主席、公开退出审稿,到中国计算机学会发起“拒投拒审”的集体行动,反应本身已经说明问题:当顶级学术会议开始以制裁名单划定参与边界,学术交流的开放性与中立性正在被实质性削弱。 更直接地说,这本身就是对学术基本原则的冲击。顶会之所以成为顶会,依赖的正是跨地域、跨机构的共同参与,而不是人为设定门槛。 这条线一旦被跨过,被动摇的就不只是论文的去留,而是学术应有的基本边界。

来源:智东西发布时间:2026-03-26
Meta年内再度裁员!砍数百岗位,全力转型AI

智东西(公众号:zhidxcom) 编译 | 杨京丽 编辑 | 李水青 智东西3月26日消息,据彭博社和TechCrunch报道,Meta于3月25日启动新一轮裁员,涉及销售、招聘、Reality Labs硬件部门等多个团队,影响数百人,部分员工可能内部转岗或异地调动。 据悉,这已是Meta在2026年内的第二轮裁员。今年1月,该公司刚从Reality Labs部门裁撤超1000人,并关闭3家VR游戏工作室。 两轮裁员的背景一致,Meta正将资源从元宇宙大幅转向AI,同时计划今年投入1150亿美元至1350亿美元(约人民币7946-9328亿元)的创纪录资本支出。 一、五大部门同步裁员,部分员工可转岗 据CNBC报道,此次裁员横跨Facebook、全球运营、招聘、销售和Reality Labs五个部门。彭博社援引知情人士称,裁员当天,部分Reality Labs员工被要求居家办公。大部分受影响员工已于周三收到通知,其余人员将在未来数周内陆续收到通知。 Meta发言人表示:“Meta各团队会定期进行重组或调整,确保处于实现目标的最佳状态。我们会尽可能为受影响员工寻找其他内部机会。” 截至2025年底,Meta全球员工总数约为7.9万人。值得注意的是,今年3月初曾有报道称Meta正在酝酿一轮可能波及20%员工(约1.58万人)的大规模裁员。Meta将该报道定性为“关于理论方案的推测性报告”。此次实际裁员规模远小于传闻,但公司未排除后续进一步调整的可能。 二、1月已裁超千人,近年来Meta持续瘦身 今年1月,Meta已率先对Reality Labs动刀。彭博社1月13日称,Meta首席技术官安德鲁·博斯沃思(Andrew Bosworth)在一份内部备忘录中宣布,将从Reality Labs裁撤超1000个岗位,约占该部门1.5万名员工的10%。调整的核心是将元宇宙投入转向移动端和AI可穿戴设备。 事实上,近年来Meta的大规模裁员已持续多轮。 2022年11月,Meta进行了公司成立以来的首次大裁员,裁撤约1.1万人,占当时8.7万员工的13%,扎克伯格坦承疫情期间招聘过度。2023年3月至5月,公司再裁约1万人,两轮合计约2.1万人,被称为“效率之年”。 2025年2月,Meta以绩效考核为由裁撤约3600名员工。同年10月,AI部门(超级智能实验室)又裁约600人。算上2026年两轮裁员,Meta自2022年以来累计裁撤岗位已超过2.5万个。 三、元宇宙五年烧掉近5000亿,AI眼镜成新增长锚点 Reality Labs自2021年以来累计亏损超过700亿美元(约合人民币4837亿元),大量投资尚未产生实质性营收。元宇宙是扎克伯格2021年将Facebook更名为Meta时力推的愿景,最终未能如期起飞,预想中与其他科技巨头的激烈竞争也未真正到来。 去年12月,Meta高管层讨论了对元宇宙部门削减最高30%预算的方案,目标是将资金转移至AI眼镜等项目。与此同时,元宇宙软件体验团队(现名Horizon)被要求将资源“几乎完全转向移动端”。 ▲Meta将扩产AI眼镜(图源:彭博社) 取代元宇宙成为硬件新重心的是AI智能眼镜。Meta与依视路正在讨论将AI智能眼镜的产能翻倍,目标是到2026年底将年产能提升至2000万副以上。Meta与该公司合作开发了多款基于Ray-Ban和Oakley品牌的AI眼镜,扎克伯格称这些产品“表现超出预期”,是推动Meta AI助手普及的关键载体。 四、AI支出创纪录,扎克伯格称将重塑公司工作方式 裁员的另一面是对AI的激进投入,Meta预计2026年资本支出将达到1150亿至1350亿美元(约合人民币7947亿至9329亿元),创下历史新高。扎克伯格还表示,到2028年Meta将在美国基础设施项目上累计投入6000亿美元(约合人民币4.14万亿元)。 扎克伯格此前公开讨论过AI将如何颠覆公司的工作流程,并透露Meta工程师已在使用AI Agent辅助编程和其他项目。他在今年1月发布的一篇帖子中写道:“我们开始看到,一些过去需要大型团队才能完成的项目,现在由一位非常优秀的人就能实现。” 结语:裁员之下,Meta正把筹码押向AI 从1月裁撤Reality Labs超千人,到3月再砍数百岗位,Meta在2026年的两轮裁员指向同一个信号:元宇宙的战略权重正在降低,AI正成为这家公司资源配置的中心。 当年产能目标2000万副的AI眼镜取代VR头显成为硬件主线,当千亿资本支出几乎全部指向AI基础设施,Meta正在用真金白银把自己逐步化身为“AI公司”。 来源:彭博社、TechCrunch、CNBC

来源:彭博社、TechCrunch、CNBC发布时间:2026-03-26
千问上车:统一智能中枢隐现

智东西(公众号:zhidxcom) 作者 | 陈骏达 编辑 | 漠影 当大模型在数字世界掀起生产力革命后,它的下一个主战场在哪里?阿里给出的答案是物理世界。 今天,阿里AI助手千问“上车”,首站接入红旗汽车智能座舱。这是继AI眼镜之后,千问进一步拓展至更高复杂度的车载场景,迈向全场景AI助手的关键节点。 不同于其它车载助手的一问一答,千问让用户动动嘴就能完成多途经点的路径规划、机酒预定等复杂任务,不止能导航,还能真正“办事”。 这一进展的意义在于,通用AI助手首次以“完整形态”进入车载场景,而非只是简单的对话、控制等单点能力输出。凭借对复杂意图的理解与执行,车载AI助手正从“屏幕内服务”,走向“物理世界执行”。 一、大模型上车后成“座舱花瓶”,千问如何打破僵局? 汽车,其实是“场景智能+AI助理”最理想的物理载体之一。驾驶时双手受限、注意力高度集中的特点,使得智能语音交互成为刚需。而出行本身又是一场涉及动态路况规划与服务预订的复杂决策过程,对AI的逻辑推理与即时执行能力提出了极高的要求。 然而,当前许多车企虽然纷纷引入大模型,实际体验中仍存在明显短板。大部分车载大模型并未真正融入真实的出行场景。它们可以帮你开关车窗、播放音乐,却无法真正规划复杂路线或完成办事需求,导致AI在车内更像一个功能受限的“花瓶”,而非真正的出行助手。 特斯拉接入Grok的案例,为通用AI助手在车载场景中的实际价值提供了参考。它打破了死板的预设指令库,能够处理诸如“规划一条路况好、沿途带充电桩的滑雪路线”等复杂意图,真正体验过的用户,普遍感受到了更强的“交付感”。 ▲接入特斯拉的Grok 千问上车后,有望将这种体验带给更多中国用户。例如,有一个非常典型的用车场景:“Hi千问,我们要去亮马河,找个离上船码头最近的咖啡厅坐一会儿,然后要去三里屯太古里,但我不想排队进地库,你帮我导航到附近的停车场,最后导航到北京机场三号航站楼。” 这样的路径规划,即便交给驾驶员自己处理,也需要花费不少时间。它实际上涵盖了多点路径导航、特定场景服务与个性化偏好约束三个维度。AI 不仅要精准识别自然语言中的多个模糊意图,还必须完成复杂的任务拆解与编排。 千问能成功解析复杂需求,依托云端多智能体协同完成决策,快速搜索出合适的停车场、咖啡厅等,最终规划出完整的路径。 其执行效果不仅满足了用户需求,效率也足够高,充分契合了用车场景对时效性的严苛要求。 除了导航之外,千问AI助手上车后,还将进一步释放“AI办事”的能力,真正让车载智能不仅局限于听懂指令,还要办成事情。 千问最近已在不断扩展票务预订、酒店预约、即时零售等生活服务能力。未来,用户或许可以在自驾游的路上,动动嘴完成酒店、景点的预约,让千问串联起信息检索、决策推荐和交易闭环的全流程操作。 据悉,千问的办事能力目前仍在快速扩展中,未来将与更多本地生活、出行服务打通,让汽车真正成为可对话、可执行的智能出行伴侣。 二、AI跳出数字世界,从眼镜到座舱到全面接管 “AI最大的想象力不在手机屏幕,而在于接管数字世界,改变物理世界。”此前,阿里CEO吴泳铭曾在公开场合做出如上判断。千问上车,正是这一理念的生动实践。 在更广泛的智能硬件领域,千问也正以更加多元的形态走进用户的日常生活。在这些实践中,千问AI眼镜作为阿里对下一代交互终端的重要探索,正展现出强大的场景穿透力。 在核心功能上,千问AI眼镜融合了多模态理解与实时交互能力:高清拍摄让用户能够即时记录生活瞬间;AI翻译可支持多语种实时转译,打破跨语言沟通障碍;会议记录功能能够自动生成摘要,大幅提升办公效率;识图识物则让信息获取更加自然无感。 千问AI眼镜还将上线“AI办事”等功能,进一步拓展AI在生活服务中的应用场景,真正实现“所见即所得,所说即所办”。 ▲千问AI眼镜 今年内,千问还将陆续推出AI指环、AI耳机等一系列智能硬件产品,进一步拓展AI融入物理世界的触点。 虽然阿里尚未披露这些产品的更多细节,但可以想见,AI指环极简的佩戴形态和手势控制等新型的快捷交互能力,有望让用户在无屏状态下也能高效调用千问的服务。 sAI耳机则有望与实时翻译、智能录音与智能播报等功能集成,成为通勤、运动、办公场景下的随身助手。 这些智能硬件产品虽形态各异,但共享千问这一智能中枢,为其交互体验提供了保障。 三、一手抓“AI办事”一手抓“硬件入口”,一个全场景闭环正在形成 上述案例,只是千问进化的一个缩影。纵观其近期布局,我们看到了两条清晰的主线,正在并行推进。 一是构建“AI办事”服务网络,打通订票、预约、支付等生活服务闭环,让AI真正具备需求理解到交易交付的完整能力。当这些能力补齐后,AI就成为了能够直接调动真实世界服务资源的“执行者”。 二是嵌入多元的硬件形态,汽车座舱、AI眼镜、AI指环、AI耳机等多种硬件,让智能助理突破屏幕限制,形成从穿戴到车载、从固定到移动的全场景覆盖,嵌入用户全天候的真实场景。 这意味着AI不再被锁在手机应用里,而是以最自然的形态融入汽车、眼镜等终端,让用户随时随地都能获得即时、连贯、无感的智能服务。 支撑这一布局的,是阿里在模型能力与服务生态上的积累。 在模型层面,千问系列大模型持续迭代,在多模态理解、复杂推理与任务编排上保持在行业第一梯队,为“听懂”与“办成”提供了底层技术保障。 在服务生态层面,阿里生态中拥有覆盖支付、出行、购物、本地生活等领域的完整服务网络——支付宝的支付闭环、高德的地图与出行能力、飞猪的旅行服务、淘宝闪购的本地生活供给。 这些生态资源为千问“AI办事”提供了天然的执行接口,让智能助理不仅能够理解用户意图,更能调动真实世界中的服务资源,完成由“想法”到“交付”的最后一公里。 归根结底,千问的进化始终围绕一个核心——人。底层大模型的能力沉淀、手机APP与PC端的日常入口、服务体系的全面打通、汽车座舱与各类AI硬件的形态拓展,千问正在编织一张以人为中心、覆盖全场景的服务网络。 在这张网络中,用户不再需要关心服务藏在哪个应用里、功能嵌在哪个设备上,只需表达需求,千问便会调动所有资源,在合适的时间、合适的设备上,交付合适的结果。 从数字世界到物理世界,从单一场景到全时全域,一个以AI为中枢、以人为中心的服务闭环,已经拉开大幕。 结语:千问,数字与物理世界的新枢纽? 展望未来,当千问以统一的智能中枢贯穿手机、汽车、眼镜、指环、耳机等多元终端后,一个真正的超级AI助手将浮出水面。用户在车上规划好的行程,下车后可由眼镜接力导航,抵达目的地前指环已悄然完成支付——跨终端、跨场景的服务流转,有望成为千问的常态能力。 当千问不再依附于某个设备或场景,它便不再是单一功能的智能助手,而是集下一代超级AI应用、超级入口与超级助手于一体的产品,构筑起连接数字与物理世界的枢纽。

来源:智东西发布时间:2026-03-26
北京人形发布开源开放生态计划,打造具身智能生态标杆

智东西(公众号:zhidxcom) 作者 | ZeR0 编辑 | 漠影 智东西3月26日报道,今日,在中关村论坛上,北京人形机器人创新中心(以下简称北京人形)CTO唐剑出席并进行了分享,唐剑宣布,北京人形启动具身智能开源开放生态建设计划,将携手合作伙伴全力打造行业第一的具身智能开放生态。 这也是全球首个以国地共建创新平台为核心载体,覆盖开发者培育、产业应用落地、具身技术底座、标准测试与中试服务等全链开源开放生态计划,是北京人形作为具身智能国家队推动产业高质量发展的使命担当。 具身智能集人工智能、新材料、脑科学等前沿学科于一体,单打独斗难以实现规模化及技术突破。开源生态则能打破技术垄断,推动全球开发者协同优化技术、加速行业迭代。国家级创新平台的介入,能够更好地统筹技术创新、产业资源与行业力量,破解资源分散、重复投入的行业痛点。 北京人形作为具身智能国家队,兼具技术实力、平台优势与产业号召力,更适合牵头汇聚产学研用各方力量,构建覆盖开发者培育、产业应用落地、具身技术底座、标准测试与中试服务的全链开源开放生态。 唐剑谈道,北京人形本次生态建设计划,正是围绕国家“人工智能+”战略需求,按照“整机牵引带生态、智能演进带提升、场景推广带应用”的总体思路,以“开源开放、共创共赢”为核心理念,打破技术壁垒、数据孤岛、接口不统一等行业痛点,最终形成产业合力,以技术突破赋能机器人产业创新发展。 北京人形开源开放生态计划中的四个支撑点,将从全链为具身智能行业发展赋能。 首先,北京人形致力于打造开源社区,通过技术成果的开源共享及培训,提升产业人才储备。 其次,北京人形将聚焦核心零部件协同攻关,并开放具身智能数据平台,面向特种作业、工业制造、仓储物流等领域,构建一体化解决方案。 在具身技术底座维度,将持续开放具身本体、慧思开物及开发者工具链等核心能力,打通产学研闭环网络,解决产业共性难题。 最后,则是在提供标准测试与中试服务,通过开放中试验证平台,提供全链路检测体系与标准体系建设,破解从技术验证到规模化生产转化的关键瓶颈,主导行业标准制定,引领产业规范发展。 北京人形在开源开放领域已积累许多成果。 自发布开源计划以来,北京人形围绕“具身天工”和“慧思开物”两大通用平台,发布了“具身天工”系列通用机器人本体,还对外发布并开源了慧思开物SDK、世界模型、VLM、VLA等行业领先的核心技术,并开放具身智能数据平台,目前,相关成果下载已超200万次,助力全球具身智能行业实现“全自主、更开放、更好用”的共同目标。 在标准化方面,北京人形不仅开放了中试基地,为行业提供测试标准体系与全链路检测体系,也围绕具身智能、核心零部件、数据三个重点方向,牵头制定了包括《人形机器人智能化分级》、《人形机器人电驱动一体化关节接口规范》、《具身智能数据集质量要求及评价方法》等在内的多项国家和国际标准。 唐剑认为,2026年,具身智能产业迎来从“尝鲜”到“常用”的拐点,行业正式迈入规模化放量的阶段,在此背景下,标准化不再是束缚创新的枷锁,而是加速商业闭环的催化剂、是连接产业链上下游的”通用语言”,因此,构建包括标准化在内的全链生态是北京人形国家地方共建具身智能机器人创新中心的重要使命。 未来,北京人形拟坚守“开源开放、共创共赢”的核心理念,以开源开放生态计划为基础,持续开放核心资源、深化产业协同,与合作伙伴联手构建完善的具身智能开源开放生态,推动技术创新与产业应用的深度融合。

来源:智东西发布时间:2026-03-26
云知声发硬核成绩单:年入12亿,盈利在望

智东西(公众号:zhidxcom) 作者|三北 编辑|漠影 智东西3月26日报道,刚刚,云知声交出了一张“硬核成绩单”。 该公司2025年营收12.1亿元,同比增长29%;其中大模型相关收入达6.1亿元,同比暴涨1076%,首次撑起半壁江山。 更值得一提的是,其亏损显著收窄,全年经调整净亏损约1.3亿元,同比下降近25%,下半年更是大幅缩窄92%,几近盈亏平衡。 云知声联合创始人兼CEO黄伟在财报电话会议中谈道,“随着公司MaaS(模型即服务)模式的全面跑通,成本管控越来越精准,研发投入的转化效率越来越高,公司的盈利能力会持续提升。” ▲云知声联合创始人兼CEO黄伟 在AI商业化的关键拐点上,这家以大模型立身的科技企业,不仅跑出了营收增速,更在利润端逼近盈亏平衡线。亏损大幅收窄、人效持续领跑、核心业务全面提速——云知声,已站在盈利的前夜。 谈及快速增长的大模型业务,黄伟称:“今年6月左右会推出基座大模型的2.0版本,在推理、编程和智能体能力等方面都会有大幅提升。” 聚焦近期开源AI Agent框架OpenClaw带来的龙虾热,黄伟认为,这是行业拐点式的事件,未来无法适配智能体生态的厂商,很难具备长期竞争力。云知声目前已推出企业级产品兽牙Claw,助企业敢用龙虾干活、不怕它闯祸。 一、站在盈利的前夜,人均产值增长25% 如果只看收入增长,云知声的表现已经足够稳健。 2025年,云知声实现营收12.1亿元,同比增长29%;其中下半年营收达8.1亿元,同比增长34%,明显快于全年平均水平,业务进入提速通道。 与此同时,云知声也站在了盈利的前夜。全年经调整净亏损约1.3亿元,同比缩窄近25%;下半年同比缩窄92%,几乎实现盈亏平衡,距离盈利仅一步之遥。 ▲云知声2023-2025年主要经营情况(智东西制图) 费用端,经调整费用率同比下降10个百分点,销售费用占比仅5.4%,显示出较强的控费能力;全年研发费用超3.8亿元;人效则进一步拉升,人均产值达252万元,同比增长25%。 这一组数据背后,是公司“技术密集型、非人员密集型”战略的落地成效:以330人的研发团队支撑超12亿营收,人均创效能力持续领跑行业。 换句话说,云知声的核心变化不只是“赚得更多”,而是“用更少的人赚更多的钱”。 在AI公司普遍“烧钱换增长”的叙事里,云知声走出了一条“轻组织、重产出、高杠杆”的路。 二、大模型收入暴涨10倍:云知声做对了什么? 大模型业务是云知声本轮业绩爆发的核心引擎。 2025年,其大模型收入达到6.1亿元,占比超过50%,同比增长超10倍。大模型已从“技术试验田”,蜕变为支撑公司发展的核心发动机。 ▲云知声大模型收入占比情况(智东西制图) 支撑这一跃迁的,是公司“强基模、深应用”的战略定力。基于UniGPT大模型矩阵,云知声构建起涵盖医疗、医保、交通等垂直行业的语言大模型,并同步推进医学影像、语音、OCR等多模态能力建设,形成层次分明、能力互补的垂类大模型矩阵。 在技术侧,这种能力已具备行业标杆意义: 山海·知医5.0实现医疗文本+影像双核驱动,在MedBench 4.0多项夺冠; ▲山海·知医5.0在MedBench 4.0多项夺冠 山海·知音2.0将语音交互延迟压缩至90毫秒以内,逼近实时对话体验; ▲山海·知音2.0在公开测试集显现领先语音识别能力 U1-OCR以3B参数实现文档理解SOTA,开启OCR 3.0阶段。 ▲Unisound U1-OCR在OmniDocBench V1.5的评测得分对比 可以看到,云知声并未陷入“参数军备竞赛”,而是选择“多模态+垂直场景”的差异化路径——本质是用技术解决真实问题,而非追求模型规模本身。 正如黄伟在财报电话会议中谈及云知声与友商的核心差异化:“我们核心差异化在三点复合能力:自研基座大模型 +大模型全栈能力+产业数据飞轮。这三项能力,哪怕只把其中一项做深做精,都不容易。而我们不仅把三者都做到了行业高水平,还让它们相互协同、形成闭环。” 在巨头林立的AI赛道,云知声并未陷入参数军备竞赛,而是用“多模态通用基座+垂直场景”的差异化打法,试图找到自己的生存法则。 三、AI拼落地的时代:产业打法开始兑现 如果说技术是底色,那么产业落地才是云知声真正拉开差距的地方。 在医疗领域,云知声已覆盖全国近450家医院,其中约35%为A++及以上顶级医院。与北京友谊医院的合作中,单院区全年生成病历超45万份,同比增长10倍,验证了AI在核心医疗流程中的真实价值。 2026年初,公司还刚刚中标了全国首个省级医保大模型项目——江苏省医保大模型项目,切入省级监管体系,推动医保从“事后抽查”走向“全流程闭环”。这意味着其能力开始进入“基础设施级别”。 在商业保险领域,其智能体平台帮助头部机构实现约20%控费率,带来十亿元级成本优化,案件处理量同比增长37倍。 这些数字背后,是AI从锦上添花走向不可或缺的真实写照:20%的控费率意味着通过智能审核与风控,有效拦截了不合理赔付与欺诈行为,为保险机构节约了超十亿元的增量成本;而案件处理量37倍的同比增长,则反映出AI在核保、理赔等核心环节的渗透速度正呈现指数级上升,智能体正在成为保险机构降本增效的关键基础设施。 智慧生活方面,相关业务营收9.7亿元,同比增长30.8%,成为云知声的稳定现金流来源。AI芯片累计出货超1.1亿颗,在家电语音市场占有率超70%;智能座舱大模型已在智己、吉利等车型实现前装量产。这些存量业务,构成了云知声穿越周期的压舱石。 此外值得一提的是,公司正积极探索C端订阅制产品机会,同时通过与广西政府共建中国—东盟人工智能应用合作中心,迈出全球化布局的关键一步。从B端纵深到C端破局,从国内深耕到跨境出海,云知声的商业版图正在打开新的想象空间。 结语:驶入盈利快车道,“AGI第一股”的现实考验 站在2026年门口续收窄亏损。这家公司正在经历从技术驱动型公司,迈向“技术+商业”双轮驱动阶段的重要转折。 更大的考验也随之而来:当AI进入深水区,真正的竞争不再是谁模型更强,而是谁能持续创造价值。 从这个角度看,云知声的故事,已经不只是一个大模型公司的成长路径,更是一场关于AI产业化能力的现实验证——在“强基模”的基础上,将技术真正“深应用”于产业,有望成为通向可持续商业价值的有效路径。

来源:智东西发布时间:2026-03-26
帮谷歌DeepMind填补后训练空白,印度AI创企融资2500万美元,ARR超数千万

智东西(公众号:zhidxcom) 编译 | 陈佳 编辑 | 程茜 智东西3月26日消息,据外媒TechCrunch昨日报道,提供训练后数据和评估工作的印度创企Deccan AI完成2500万美元(约合人民币1.73亿元)A轮融资。Deccan AI成立于2024年10月,在过去一年业务规模实现10倍增长,年化营收已达数千万美元量级。该公司已服务约10家客户,客户名单中包括谷歌DeepMind和云数据平台Snowflake,约80%的收入来自前五大客户。 Deccan AI的核心定位,是填补前沿AI实验室自研能力之外的后训练空白。该公司创始人鲁克什·雷迪(Rukesh Reddy)说,后训练阶段对错误的容忍度接近于零,任何失误都会直接影响模型在生产环境中的表现。这使得后训练这一环节比早期训练阶段更难规模化。 本轮融资全部以股权形式完成,由A91 Partners领投,Susquehanna国际集团和普罗斯风投(Prosus Ventures)跟投。 Deccan AI总部位于旧金山湾区,在印度海得拉巴设有大规模运营团队,目前员工约125人,背后依托超过百万名贡献者组成的任务网络,每月活跃贡献者在5000至10000人之间。 Deccan AI创始人Reddy毕业于印度顶尖院校印度理工学院孟买分校(IIT Bombay),拥有印度管理学院艾哈迈达巴德分校(IIM Ahmedabad)MBA学位,此后在花旗银行、摩根大通和咨询公司Monitor Group从事金融和管理咨询工作超过15年。 ▲Deccan AI创始人鲁克什·雷迪(Rukesh Reddy)(图源:Deccan AI) 一、后训练需求快速外溢,模型落地能力开始依赖外部服务商 包括OpenAI与Anthropic在内的头部AI实验室仍将基础模型训练牢牢掌握在内部,但围绕模型落地的大量工作正在向外转移。从数据生成、结果评估到强化学习优化,后训练逐渐从附属环节变为决定模型可用性的关键步骤。随着企业推动大模型进入真实业务场景,对稳定性、准确性和可控性的要求显著提高,这一阶段的复杂度与成本同步上升,外部服务商开始承接越来越多任务。 Deccan AI正是在这一趋势中切入市场。该公司提供从代码能力提升、智能体训练到模型调用API等外部工具的一整套服务,使模型能够与真实软件系统交互并完成复杂任务。相比早期以文本处理为主的模型应用,当前行业正在向“世界模型”演进,涉及机器人与视觉系统,对数据质量和评估体系提出更高要求,这也进一步放大了后训练的需求。 该公司与谷歌DeepMind等前沿实验室合作,参与专家反馈生成、评估流程设计以及强化学习环境构建,同时向企业客户提供评估工具Helix和运营自动化平台。Deccan AI的客户还包括云数据平台Snowflake,目前已服务约10家客户,并在同一时间运行数十个项目。 伴随大模型商业化推进,围绕后训练形成的服务市场正在快速扩张。AI数据服务公司Scale AI与其竞争对手Surge AI,以及AI训练服务商Turing、AI人才平台Mercor等公司均在提供数据标注、评估与强化学习相关服务。与传统数据标注不同,这一阶段更依赖高学历专家参与,对数据的专业性与一致性要求更高,同时交付周期往往被压缩至数天之内,速度与质量之间的矛盾成为行业普遍挑战。 二、后训练质量容错率接近为零,速度与精度之间的矛盾加剧 在后训练阶段,数据质量直接决定模型在真实环境中的表现。Deccan AI创始人Reddy说,这一环节对错误的容忍度“接近于零”,任何标注偏差或评估误差都可能在上线后被放大,影响模型稳定性与安全性。这使后训练不再是简单的数据加工,而是需要高度专业知识参与的精细化过程。数据往往必须具备明确的领域属性,例如编程、金融或工程等专业场景。 这种高要求也带来了规模化难题。相比早期以图像识别为代表的标注任务,当前大模型后训练更依赖具备硕士、博士背景的知识型劳动者。Deccan AI的贡献者网络超过100万人,其中约10%拥有高等学位,在实际项目中这一比例会进一步提高。平台每月活跃贡献者在5000至10000人之间,覆盖学生、行业专家与研究人员,但即便如此,高质量数据供给仍然受到限制。 Reddy说,AI实验室往往要求在数天内完成大规模高质量数据交付,这意味着企业需要在极短周期内完成任务拆解、专家匹配与质量控制流程。对服务商而言,既要保证数据准确性,又要满足快速迭代节奏,是运营上的核心挑战。 围绕这一环节的用工模式也持续引发讨论。行业普遍依赖灵活用工来完成数据生产,不同平台的报酬差异较大。Deccan AI能给出的区间为每小时10美元至700美元(约合人民币69元至4834元)不等,顶级贡献者月收入最高可达7000美元(约合人民币4.83万元)。这一分布反映出后训练任务的分层结构,基础标注与高端专家任务在价值与门槛上差异明显。 结语:后训练外包市场成型,AI产业链分工格局初现 Deccan AI的融资是一个信号,说明围绕大模型落地形成的后训练服务市场已经具备独立规模。前沿模型的研发竞争仍在激烈推进,OpenAI、Anthropic、谷歌DeepMind与百度、阿里、DeepSeek等公司都在持续投入核心能力建设,但模型之外的后训练工作正在加速流向专业服务商。 这条产业链的分工逻辑已经清晰:谁来做模型、谁来做数据、谁来做评估,各自的位置正在成型。后训练不再是模型研发的尾声,而是决定模型能否真正落地的关键环节,围绕它形成的专业化分工,将是AI产业下一阶段竞争的重要变量。 来源:TechCrunch

来源:TechCrunch发布时间:2026-03-26
首张大脑组织结构图谱揭示人一生大脑发育情况

科学家绘制出首个关于大脑活动特定关键模式的图谱,并确定了这些模式在整个人类生命周期中的变化规律。3月25日,相关成果发表于《自然》。 随着人的成长,大脑中协同工作的区域也会发生变化。图片来源:Microscape/Science Photo Library 这份综合性指南基于近3600人的脑部扫描数据,受试者年龄跨度从16个月到百岁。它描绘了一种名为“功能连接”的特性,该特性描述了不同大脑区域之间的协调程度。数据表明,在年轻人中,这种连接的特定模式与认知表现相关。 美国宾夕法尼亚大学神经科学家Jakob Seidlitz表示,该指南有助于理解发育问题和神经退行性疾病何时出现。“这对该领域而言是一项重要贡献。” 大脑是一个“嘈杂”的地方。有时,两个相距甚远的大脑区域会同时活跃,这表明它们协同工作以支持同一功能。尽管这些区域在大脑中未必相邻,但人们称之为“功能性连接区”。 论文作者、美国北卡罗来纳大学教堂山分校的计算机科学家Patrick Taylor解释说,为理解这种功能性连接是如何组织的,研究人员会根据各脑区与大脑其他部分的连接模式,将其绘制在某个尺度或坐标轴上,发现主要有3个功能轴。例如,感觉-关联轴使研究人员能够描述沿该连续体分布的大脑区域——从主要处理感觉信息的区域到参与复杂过程的区域。轴上各点的大脑区域具有相似的连接模式。 感觉-关联轴的一端是与感觉处理密切相关且主要与其他具有相同功能区域相连的大脑区域。轴的另一端则是支持更高级信息处理的大脑区域,它们与多个其他区域相连。轴的中间位置是充当过渡区的大脑区域,将感觉处理与更抽象的思维相连。这意味着这些区域在功能上既与感觉网络相连,也与参与复杂思维的网络相连。 科学家长期以来一直致力于理解这种组织结构在人类大脑发育过程中是如何形成的。2022年,科学家曾发布一份脑组织发育图谱,但为功能性连接创建类似的指南却一直是难题。 论文作者、北卡罗来纳大学教堂山分校的放射科医生Pew-Thian Yap表示,此前研究虽追踪了功能轴在不同生命阶段的变化,但尚无研究全面捕捉过这三大主要功能轴在整个人类生命周期中的发育与演变过程。“这对我们理解人类大脑的功能至关重要。”Yap表示。 为填补这一空白,Taylor、Yap和同事分析了3556名年龄介于16天至100岁之间的人群的功能性磁共振成像(fMRI)扫描数据。研究人员追踪了三大主要功能轴在不同年龄段的发育与变化情况。 从婴儿期到老年期,每个轴都遵循着各自的发育路径。例如,感觉-联想轴两端区域的连接性差异在儿童期和青少年期更加明显,并在19岁左右达到峰值。Taylor指出,这种差异化促使年轻大脑向更接近成人的组织结构发展。 研究人员还发现,那些感觉-关联轴模式与人群平均水平吻合的年轻成年人,其整体认知表现、信息处理速度和记忆力均优于那些与平均水平差异较大的同类人群。 另一个条描述参与认知控制的脑区与参与形成信息心理表征的脑区的轴,与早期运动技能发展相关。这表明不同功能模式在人生的不同阶段具有不同的重要性。 美国明尼苏达大学的临床心理学家Maxwell Elliott认为,尽管脑功能图谱是理解整个生命周期中各脑区如何相互关联的“关键的第一步”,但它无法揭示个体大脑内部功能连接的组织方式。他补充道,精确追踪大脑网络随时间的变化情况将是“下一个主要研究前沿”。 与此同时,Taylor表示,研究人员计划进一步探究大脑组织功能模式的机制,并研究其在不同人群中的表现。“还有很多谜题待解。”他说。 相关论文信息:https://doi.org/10.1038/s41586-026-10219-x 版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。

来源:文乐乐 来源发布时间:2026-03-26
国际关注 | ICH通过《M15:模型引导的药物开发指南》

ICH通过《M15:模型引导的药物开发指南》国际人用药品注册技术协调会(ICH)宣布通过M15指南,旨在充分利用模型引导的药物开发(model-informed drug development,MIDD)辅助药物研发的一般原则与最佳实践1。2026年1月29日,该指南通过ICH流程第四步,现已准备就绪供监管机构实施。MIDD的核心目标是通过整合数学与统计模型数据预测药物效果,提升研发效率并最大限度减少患者不必要的药量风险。指南明确了MIDD证据评估框架,概述了评估所需的模型验证流程,并就向监管机构提交相关信息的报告规范提出通用建议。ICH宣布,M15指南涵盖MIDD应用的一般原则与规范,统一了对文件标准、模型开发、分析所用数据、模型评估及其应用的预期要求。定稿指南与2024年11月发布的第二步指南差异不大。在评估MIDD证据时,相关框架仍采用相同的评估维度:关注问题、使用场景、模型影响、错误决策后果、模型风险及模型影响。同时保留了模型评估、MDD报告及提交的相关表述。定稿指南的部分修订包括:模型影响部分新增文本,错误决策后果部分补充细节。第2.1.3节新增内容:“应说明模型影响并按低、中、高三档评级,同时说明评级依据。描述、评级及依据应聚焦于模型结果相对于其他相关信息的权重,这些信息共同用于解答所关注问题。随着模型结果权重增加,模型影响评级应从低到中再到高逐步提升。通常,当模型结果是决策的唯一依据时,应将模型影响评定为高。如果存在大量来自其他相关来源的数据和证据,则可根据模型结果的权重将模型影响评定为低或中度。”第2.1.4节新增内容指出:“针对错误决策后果的评级,需同时考量潜在负面影响的严重程度及错误决策导致负面影响的发生概率。这两项因素均应基于所有可用信息进行综合评估。”参考资料1.ICH. ICH HARMONISED GUIDELINE GENERAL PRINCIPLES FOR MODEL-INFORMED DRUG DEVELOPMENT M15 Final version Adopted on 29 January 2026.https://database.ich.org/sites/default/files/ICH_M15_Step4_Final_Guideline_2026_0129.pdf.欢迎大家订阅Welcome Everyone To Subscribe作者:佚名编辑:谯英固审核:赵燕宜

来源:中国食品药品监管杂志发布时间:2026-03-26
合肥半导体材料公司启动科创板 IPO!

近期,合肥安德科铭半导体科技有限公司正式启动科创板 IPO 辅导,这家深耕半导体 ALD/CVD 前驱体领域的企业,凭借亮眼的经营业绩、成熟的产能布局以及深度的产业协同,成为半导体材料国产替代浪潮中的焦点。与此同时,国内半导体前驱体产业正迎来先进产能释放与存储市场扩产的双重红利,行业发展机遇与市场竞争挑战并存,安德科铭的 IPO 之路,也折射出国内前驱体企业在全球化竞争格局下的突围路径。自 2018 年成立于合肥高新区,安德科铭便聚焦先进电子级半导体薄膜(ALD、CVD)前驱体材料的研发、生产与销售,多年深耕让企业形成了从技术研发到规模生产的全产业链布局。目前公司在合肥、铜陵设有研发生产基地,上海布局销售及市场开发中心,其中研发中心面积超 5000㎡,铜陵产业化基地占地 100 亩,61 项授权专利构筑起坚实的技术壁垒,2025 年高纯前驱体材料年产能已达 210 吨,实现了核心产品的批量产业化。产能落地的同时,企业经营业绩呈爆发式增长,近三年营收增速超 100%,2025 年铜陵基地单基地营收达 2.39 亿元,成为企业业绩增长的核心引擎。在市场拓展方面,安德科铭已成功进入国内头部晶圆厂供应链体系,产品获得市场高度认可,更获得长鑫科技等产业资本的战略投资。产业资本的加持不仅为企业带来资金支持,更实现了技术、市场的深度绑定,助力企业进一步贴近下游存储芯片制造需求,优化产品研发与产能布局。技术层面,安德科铭实现了高纯硅基前驱体、High-K 前驱体、金属及导电薄膜前驱体等多品类产品覆盖,同时配套提供源瓶定制、薄膜工艺解决方案、液体输送系统等一站式服务,其中国产化源瓶解决方案已助力多家 fab 客户实现进口替代,ALD 工艺开发能力更能为半导体、新能源等多领域提供一体化薄膜工艺支持,形成了 “材料 + 服务” 的差异化竞争优势。此外,铜陵基地的 “超高纯电子级硅基前驱体材料生产数字化车间” 入选 2024 年省级数字化车间,标志着企业在智能化、规模化生产上迈出关键一步,为产能释放与产品质量稳定提供了保障。半导体前驱体是 ALD/CVD 薄膜沉积工艺的核心原材料,作为集成电路制造的关键材料,其市场需求随半导体产业发展持续攀升,2025 年国内前驱体整体市场规模约 5 亿美元,成为全球市场增长的重要引擎。但从市场格局来看,国内前驱体市场呈现高度集中特征,国内上市公司与外资企业合计占据超 80% 的市场份额,留给非上市企业的市场空间相对有限,行业竞争呈现 “头部集聚” 特征。从产品结构来看,High-K 前驱体成为先进制程的刚需材料,而 DRAM 是其最大应用场景。在半导体制程向 28nm 以下先进工艺迭代的过程中,DRAM 芯片为提升存储密度与性能,对 High-K 前驱体的纯度、性能要求持续提高,单位芯片的材料用量也随之增加。与此同时,3D NAND 等存储技术的发展,要求薄膜沉积工艺实现数十层甚至上百层薄膜堆叠,进一步推高了前驱体材料的市场需求,High-K 前驱体的市场价值愈发凸显。目前国内 High-K 前驱体市场仍被外资企业主导,国产替代空间巨大,成为国内企业的核心攻坚方向。国内企业中,南大光电等上市公司已实现前驱体主要品类全覆盖并成功导入头部芯片制造企业,而以安德科铭为代表的非上市企业,凭借技术创新与产业协同实现了市场突破,成为国产替代的重要力量。但整体来看,国内前驱体企业仍面临技术壁垒高、客户验证周期长等问题,尤其是在先进制程用高端产品领域,与国际巨头仍存在差距,非上市企业想要在有限的市场空间中抢占份额,需在技术研发、产能规模、客户合作上形成综合优势。2026 年成为国内半导体前驱体产业的关键节点,国内先进产能的集中释放将为行业带来全新发展机遇。随着国内晶圆厂在 28nm 及以下先进制程的布局加速,薄膜沉积工艺的需求持续增长,直接带动前驱体材料的市场扩容。同时,全球 AI 浪潮推动存储需求爆发,DDR4、DDR5 及 HBM 等存储产品需求攀升,倒逼存储芯片大厂加速扩产,为前驱体材料带来海量市场需求。近期,南亚科等全球存储大厂宣布巨额定增扩产计划,铠侠、闪迪、SK 海力士等产业巨头纷纷参与认购,募资主要用于先进存储器制造厂与生产设备建设,以应对 AI 计算带来的存储需求增长。国内方面,长鑫科技等存储企业也在持续加码先进产能布局,存储芯片行业的扩产潮,正成为前驱体材料需求增长的核心驱动力。据行业数据预测,2023-2028 年我国半导体前驱体材料市场年复合增长率将达 27%,2028 年市场规模有望突破 179.9 亿元,其中金属基前驱体、High-K 前驱体将成为增长最快的细分品类。但机遇背后,国内前驱体企业也面临着 “窗口期” 的考验。未来几年是存储大厂扩产的关键时期,也是国内企业实现高端产品突破与规模放量的黄金阶段。如果国内厂商未能抓住这一机遇,在先进制程用前驱体产品上实现技术突破与产能落地,将错失国产替代的重要机会,继续被外资企业占据高端市场。对于安德科铭这类冲刺资本市场的企业而言,IPO 融资将成为其扩大产能、加码研发、拓展市场的重要抓手,借助资本力量实现技术与规模的双重突破,才能在行业竞争中占据主动。安德科铭启动科创板 IPO,不仅是企业自身发展的重要里程碑,更是国内半导体前驱体产业国产替代进程的缩影。在半导体产业自主可控的国家战略下,前驱体作为核心材料,其国产化率的提升至关重要。目前安德科铭已凭借技术、产能、产业协同形成了自身优势,而登陆资本市场后,企业若能进一步加码高端产品研发,扩大先进产能布局,有望在 High-K 前驱体等核心领域实现更大突破。对于整个半导体前驱体产业而言,2026 年先进产能释放与存储扩产带来的需求红利,将成为国产企业突围的关键契机。国内企业唯有以技术创新为核心,以产能规模为支撑,以产业协同为纽带,才能在有限的市场空间中抢占份额,打破外资与上市公司的市场垄断,实现半导体前驱体材料的全面国产替代,为我国半导体产业的高质量发展筑牢材料根基。声明:本文仅为信息交流之用,不构成任何投资建议,股市有风险,投资需谨慎。参与“2025-2026年度第九届中国IC独角兽评选”,请点击进入↓↓是说芯语原创,欢迎关注分享

来源:是说芯语发布时间:2026-03-26
全球代工第二、产能破百万片|中芯国际2025年报解读

刚刚,中芯国际发布了2025年年报。 在致股东的信中,中芯国际表示,2025年是中芯国际成立的25周年,是公司全面深化改革、推动高质量发展的突破之年。正是在这一年,公司持续聚焦主业发展,顺利推进项目进展,经营业绩再上新台阶。 据介绍,面对外部复杂多变的环境,公司保持深耕晶圆制造长期战略不动摇,稳步实施产能扩建,折合8英寸标准逻辑的月产能规模超过了100万片;全年实现销售收入93.27亿美元,同比增长16.2%,继续巩固全球纯晶圆代工企业第二位置;产能利用率增至93.5%,同比增长8个百分点;在折旧大幅增长的情况下,毛利率增至21%,同比增加3个百分点。同时,公司实质性推进中芯北方少数股权收购、中芯南方增资扩股等项目,为未来发展奠定坚实基础。在对这一年营收状况讨论时,中芯国际表示,2025年,受美国关税政策、地缘政治及新兴市场复苏等多因素共同作用,智能手机市场稳中有增,个人电脑市场换机周期开启,销量增长;消费电子、智能穿戴等设备受端侧AI驱动,市场持续稳健扩张。产业链在地化转换继续走强,更多的晶圆代工需求回流本土。 中芯国际指出,在此期间,公司各项经营业绩稳中有进、质效向好。经营业绩稳步提升,继续位居全球纯晶圆代工第二位置。产能建设扎实推进,总体产能利用率业界领先。工艺研发和平台建设稳步拓展,产品竞争力和市场影响力显著增强。开放合作成效显著,与产业链供应链上下游合作伙伴密切交流,与高校、科研院所共同创新人才培养模式。管理赋能凝聚合力,扎实推进数字中芯建设,坚定开放合作,凝聚共识、形成合力。 中芯国际强调,这一年,公司持续推动技术攻关,开放合作带动增量,协同产业链共同发展。随着下游应用场景更加多元化,人工智能、数据中心、自动驾驶等领域引领行业迈入新一轮快速增长周期,消费电子等智能终端迭代升级,产业链在地化转换加速,使得产业对于本土中高端领域芯片制造需求进一步提升。在此背景下,公司以培育和发展新质生产力为重点,持续创新筑牢核心竞争优势。 2025年,公司持续保持高研发投入,研发投入7.74亿美元,占销售收入8.3%;公司完善技术创新体系,积极响应客户需求,持续推进工艺迭代与产品升级;同时,公司协同上下游开展产业链合作,成立先进封装研究院,助力行业高质量发展。 在具体谈到公司的优势时,中芯国际表示,公司的研发中心根据总体战略,以客户需求为导向,持续提升工艺研发和创新能力、强化平台建设、升级产品性能。研发项目在初期即充分对标产品的技术要求,有效利用研发资源、确保产出质量与可靠性、积极缩短研发到量产的周期、满足市场对产品创新与快速迭代的需求,力争为公司提供新的业务增长点。 通过多年集成电路研发实践,公司也组建了高素质的核心管理团队和专业化的骨干研发队伍。研发队伍的骨干成员由资深专家组成,拥有在行业内多年的研发和管理经验。 正是在这些团队支持下,中芯国际能够向全球客户提供8英寸和12英寸晶圆代工与技术服务,应用于不同工艺技术平台,具备逻辑电路、电源/模拟、高压显示驱动、嵌入式非易失性存储、独立式非易失性存储、混合信号/射频、图像传感器等多个技术平台的量产能力,可为客户提供智能手机、电脑与平板、消费电子、互联与可穿戴、工业与汽车等不同领域集成电路晶圆代工及配套服务。通过长期与境内外知名客户的合作,形成了明显的品牌效应,获得了良好的行业认知度。 如下图所示,在财报中,中芯国际还披露了公司正在进行的多个在研项目。 中芯国际进一步指出,这一年,公司持续建强人才队伍,企业文化温暖人心,全面推动绿色可持续发展。面对深刻变化的行业格局,公司深知集成电路产业的竞争,归根结底是人才的竞争。公司选拔培养优秀年轻干部、全面加强人才梯队建设。在人才引进方面,公司持续加大应届毕业生招聘力度,积极引入专业骨干与高端专家;在人才留任方面,公司通过强化正向激励、推行薪酬多元化等举措,培养员工的责任感、使命感、归属感。公司始终秉承“以人为本”,持续践行“关爱人,关爱环境,关爱社会”的企业社会责任,强化绿色可持续发展韧性,深化人文关怀,实现企业与社会的共同发展。 在中芯国际看来,2026年将是产业发展的战略机遇期和窗口期,也是公司顺势而上、服务大局、主动作为、向新求变、协同创新的关键之年。公司聚焦守安全、抓项目、强技术、拓增量、练队伍、优运营、控成本、防风险、应变局、暖人心十大重点任务,巩固拓展优势、破除瓶颈制约、补强短板弱项,在激烈国际国内竞争中赢得战略主动,推动“一个中芯、全球运营”的战略布局取得更大突破,并努力创造新时代属于中芯国际的新辉煌! 展望2026年,中芯国际表示,产业链海外回流、国内客户新产品替代海外老产品的效应将持续下去,为国内产业链带来持续的增长空间。人工智能对于存储的强劲需求,挤压了手机等其他应用领域特别是中低端领域能拿到的存储芯片供应,使得这些领域的终端厂商面临着存储芯片供应量不足和涨价的压力。即使终端厂商可以通过涨价的方式来消化成本上涨的压力,也会导致对终端产品的需求下降。“凭借在BCD、模拟、存储、MCU、中高端显示驱动等细分领域中的技术储备与领先优势、客户的产品布局,公司在本轮行业发展周期中,仍能保持有利位置。公司将积极响应市场的需求,推动2026年收入继续增长。”中芯估计强调。 “在外部环境无重大变化的前提下,公司给出的2026年指引为:销售收入增幅高于可比同业的平均值,资本开支与2025年相比大致持平。”中芯国际重申。转自:半导体行业观察声明:本文仅为信息交流之用,不构成任何投资建议,股市有风险,投资需谨慎。本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。参与“2025-2026年度第九届中国IC独角兽评选”,请点击进入↓↓是说芯语转载,欢迎关注分享

来源:是说芯语发布时间:2026-03-26
共42998条记录
  • 1
  • 2
  • 3
  • 4
  • 3584

产业专题

产业大脑平台

产业经济-监测、分析、

研判、预警

数智招商平台

找方向、找目标、管过程

产业数据库

产业链 200+

产业环节 10000+

产业数据 100亿+

企业数据库

工商 司法 专利

信用 风险 产品

招投标 投融资

报告撰写AI智能体

分钟级生成各类型报告