五度易链产业数字化管理平台
刚刚,阿里ATH事业群甩出王炸「悟空」!企业级正规军下场,龙虾们这次真要炸了

昨晚,阿里巴巴突然宣布成立 Alibaba Token Hub(ATH)事业群,CEO 吴泳铭直接负责,这可能是阿里在 AI 时代最重要的一次组织架构调整。Token ,AI 时代的通用货币。吴泳铭的逻辑是:未来大量数字化工作将由「数以百亿计的 AI Agent」支撑运行,而这些 Agent 的运行,由模型产生的 Token 驱动。创造 Token、输送 Token、应用 Token,这将是阿里新的的主线。其中内部信中还有一个首次出现在公众视野里的名字:悟空事业部。官方对悟空事业部的定位是:「打造 B 端 AI 原生工作平台,将模型能力深度融入企业工作流。」也就是说原来的钉钉,被提到了一个更核心的战略位置,和千问一起分别在 B 端和 C 端承载阿里 AI 的目标。这次发布会,悟空事业部交出了成立以来的第一份作业—— AI toB 旗舰应用「悟空 WuKong」,这也是首个以企业智能体为核心的 AI 原生工作平台。这是 ATH 事业群成立第二天,阿里巴巴集团 CEO 吴泳铭也出现在今天的「悟空」发布会现场。最近在「养龙虾」席卷社交媒体后,每个人或多或少都感受到发现 AI 真的能操控电脑、帮你干活。然而也便随这混乱,龙虾删邮件停不下来,敏感数据被 AI 随意读取,公司 IT 部门一句「这东西不合规」,大多数企业用户就此止步。AI Agent 走到了哪一步,能不能广泛使用,还只是个技术问题。企业组织敢不敢用,才是真正的问题。APPSO 在现场给大家快速梳理了这场发布会的要点:悟空 WuKong:全球首个以企业智能体为核心、更安全、商业可交付的 AI 原生工作平台首创 AI 原生文件系统 Real Doc:每一步操作可追溯可回退钉钉全面 CLI 化:重写底层代码,给 AI 造了一套原生操作语言,可以 CLI 原生安全地访问钉钉应用和数据十大 OPT 行业方案:一人电商、一人门店、一人知识博主……Skill 即生产力AI 能力市场:企业级 Skill 生态完整体系上线,全部纳入统一的安全扫描和分级管控体系AI 硬件:A1 Pro 录音卡 + Cleer H1 AI 耳机首亮相原生级企业安全架构:底层沙箱隔离与全链路审计,让企业真正敢用 AI钉钉为 AI 打造钉钉在理解悟空之前,先要消除一个刻板印象,它绝对不是「钉钉加了一个 AI 对话框」。这句话值得重复一遍——悟空不是钉钉加了一个 AI 功能。过去两年,我们见过太多「产品加 AI」的案例:Word 加了 Copilot,微信加了元宝,网页端加了摘要按钮。这类产品的逻辑是:原有功能不动,AI 作为辅助层叠加在上面,帮你写写文字、润色润色、总结一下。悟空的逻辑完全不同。悟空是一个以企业智能体为核心的 AI 原生工作平台。 它能操作我们的电脑、编辑本地文件、调用桌面应用程序、连接钉钉文档 / 审批 / 日程 / 听记等全系产品。当你对悟空说:「帮我把上周所有客户拜访的记录整理成周报,发给张总确认一下」。悟空不会给你写一份模板然后让你自己填,它会直接打开你电脑上的拜访记录文件夹,读取每一份记录,生成周报,保存到指定位置,然后在钉钉里发给张总发起审批。全程,你只说了一句话。更关键的是:手机可以远程指挥悟空唤起本地环境完成工作。不需要坐在电脑前。出门见客户的路上,发一条消息,悟空在家帮你把活干完。这是「本地执行 + 远程可控」的 Agent 工作架构,也是悟空正在定义的新工作方式——说一句话,就能干活。体验网址:https://www.dingtalk.com/wukong悟空与 OpenClaw:解同一道题,用的是不同答卷很多人的第一反应:这不就是「中国版 OpenClaw」吗?表面看都在让 AI 操作电脑,但两者的关系,更接近「Linux 的开源社区」和「Red Hat 企业版」,底层技术同源兼容,但面向的战场完全不同。OpenClaw 证明了 AI Agent 可以操控电脑这个概念,它依赖「视觉模拟」和操作系统原生命令行,让 AI 像人一样看屏幕、点鼠标。这套方案很酷,但也很脆弱,毕竟界面一更新,命令一修改,整个流程就可能崩掉。更要命的是,OpenClaw 在本地运行时,几乎拥有与用户完全相同的系统权限。理论上,一台实习生电脑上的 OpenClaw,可以读取他不该看到的任何数据。安全机构已发现其技能市场存在数百个恶意程序,Gartner 将其企业部署评级为「不可接受的网络安全风险」。OpenClaw 是 Agent 的「Linux 时刻」——开源、自由、极客驱动、生态繁荣,但没有企业敢直接用。悟空要解的题不一样:兼容开源生态的全部 Skill 能力,同时从架构层面把安全内建进去,而非事后打补丁。统一企业身份认证、专属沙箱隔离、网络代理管控、全链路审计日志——每一层安全都在回答同一个问题:让 IT 部门敢拍板,让 CEO 敢买单。这是 Enterprise Agent 和「开源 Agent 框架」的本质差距。钉钉 CEO 无招在发布会现场表示,「今天,我们把钉钉打碎,用 AI 重建,炼出悟空。过去是人用钉钉来工作,未来是 AI 用钉钉来工作。和市面上所有的龙虾 Agent 不一样,悟空天然就长在企业组织中,可以在真实的企业环境中安全使用。」CLI 化:给 AI 造一套原生操作语言要理解悟空为什么「真的能干活」,关键是它有一套让 AI 能「听懂」软件的语言。过去,几乎所有的 AI Agent 都在试图模拟人类的键鼠操作。这就像是蒙着眼睛,靠别人在旁边喊「往左一点,点击」来用电脑,不仅极度低效,而且极其容易出错。为了让悟空真正能「干活」,钉钉做了一个相当疯狂的决定:所有底层代码重写了一遍。他们将整个钉钉的既有能力体系全面 CLI 化(Command-line Interface,命令行界面),所谓 CLI 化,就是把钉钉从一个「给人用的图形界面」,变成一个「给 AI 用的命令行接口」。AI 不再需要「看懂」按钮在哪里,而是直接通过标准化指令调用能力,这相当于给 AI 装上了神经末梢。其中,包括文档、日程、审批、会议甚至 AI 表格,所有的钉钉产品,全部重写为标准的 CLI 指令。这意味着,悟空不再需要像人类一样去「点击」按钮,而是通过原生指令,直接调用钉钉的一切能力和数据。不仅是钉钉应用,阿里集团旗下的淘宝、天猫、支付宝、阿里云等核心业务能力,也将逐步作为 Skill 接入悟空。悟空,正在成为整个阿里巴巴 AI 能力在企业工作场景的统一出口。当用户说「帮我整理下周的客户拜访记录并生成周报」,悟空不是「看懂」这句话,而是直接触发一系列 CLI 指令:调取日程 API → 抓取 CRM 数据 → 运行听记解析 → 写入文档 → 发起审批流。全程没有模拟点击,没有视觉识别,只有机器对机器的精准调用。这个逻辑,在行业报告「未来属于智能体:万亿 AI 正在重新定义软件」里有一段话说得非常准确:你构建的一切都必须是 API 优先的。如果一个功能没有 API,它就相当于不存在。如果不能通过 CLI 或 MCP 服务器暴露,你就是处于劣势。换言之:在 AI 智能体成为软件「主要用户」的时代,不能被 AI 原生调用的软件,等于不存在。图片来源:X@karpathy钉钉理解了这个逻辑,所以选择了极其昂贵的方式——重写服务全球 8 亿用户、2700 万家企业的产品底层。钉钉全面 CLI 化之后,Agent 才能从「能聊天」变成「能干活」。Realdoc,AI 终于有了原生的文件操作语言但 CLI 化只解决了「AI 能不能调用钉钉」的问题。还有一个更底层、常被忽视的问题——AI 怎么操作文件?目前市面上几乎没有 AI Agent 产品专门为 AI 设计过文件系统。所有人都在用传统文件系统凑合,结果是什么?AI 要改一份文档里的一个词,必须先把整篇文档读进内存,改完再整篇写回去。就像改一本书里的一个错别字,却要把整本书重新抄一遍——荒诞,但这就是现实。这带来三个连锁问题。第一是 Token 爆炸,每次操作都吞进整篇文档,成本直线飙升,有用户实测用 AI 制作一个 PPT,消耗了 2.7 亿 Token,约合 500 美元。第二是无法回退,AI 覆盖写入即生效,改坏了没有存档可以回溯,只能从头再来;最后是文件失控,Agent 随机创建文件,企业根本不知道 AI 在哪里生成了什么,散落的结果是既找不到,也管不住。悟空为此专门从零搭建了一套 AI 原生文件系统 Realdoc,这是行业首次,有人专门为 AI 重新设计一套文件操作语言。在 Real Doc 里,悟空可以像外科医生一样,按行号、按关键词定位,只动需要动的地方,其他内容一字不碰。Token 消耗大幅压缩,不再因为改一个词而把整篇文档走一遍。更关键的是版本管理。AI 每执行一步操作,Realdoc 自动保存完整快照——就像游戏里的自动存档点,每一步操作都有记录,可随时退回任意版本,还能自动对比两个快照之间的 Diff,精确到每一行的变动。还有文件归宿的问题。Realdoc 为每个 AI Agent 分配独立的云端工作空间,AI 产出的每一份文件都有「户口」——存在哪里、谁创建的、哪个 Agent 在什么时候改过,企业管理者一目了然。到这里,悟空做出了大多数企业级产品还没意识到的改变:不再让 AI 套用到现有工具中,要为 AI 重新造一套工具。悟空首发十个 OPT Skills 套件,钉钉原生协同如果说 CLI 化解决了「AI 如何干活」,那么接下来的问题是:AI 该干哪些活,谁来告诉它怎么干?答案是:Skill。Skill 是悟空的最小生产力单元——一个封装了行业专家 SOP、可直接调用的能力模块。我们不需要懂 AI,不需要写 Prompt,一键启用,AI 团队立刻就位。这不是一个新概念,但悟空把它推向了一个全新的量级。悟空首批推出十大行业 OPT(One Person Team,一人团队)技能套件,覆盖一人电商、跨境电商、知识类博主、开发、门店、设计、制造、法律、财税、猎头十大场景。每个行业包预置了若干串联 Skill,把过去需要团队协作才能完成的工作流,压缩成一个人可以独立驾驭的操作序列。以跨境电商为例。过去,一个店主每天要在亚马逊上找爆款,去 1688 上比价,跟供应商确认库存,再想破头优化商品描述,一个人能管三个品就是极限。现在接入悟空 OPT 方案后,「选品雷达」每天定时抓取亚马逊热榜数据写入 AI 表格;发现爆款后,「AI 找同款」瞬间完成国内供应链匹配;直接确认样品、生成产品描述、输出视频脚本,都有行业级的 Skills 辅助。从发现需求到供应链跟进,一个人用一个下午,干完了一个小团队一周的活。「一人门店」的场景更让人感慨。街边的汽修店、美甲店老板,白天忙服务,晚上还要强打精神刷小红书学竞品写文案。现在,同样是多个 Skill 串联,AI 自动监控同行爆款,提炼出可复用的创作模板,自动生成原生网感文案并发布,甚至能 7×24 小时智能回复客户私信。「当一个店主用 AI 运营账号的质量,比竞争对手请的代运营公司还好时——这件事就不只是效率提升了。这是小微门店生存逻辑的重写。」这正是 Skill 即生产力的核心逻辑:把行业专家的隐性经验,变成人人可调用的标准化能力。Skill 不只是提高效率,它在重新分配能力——让不具备专业背景的人,也能获得专业级的产出。这个逻辑的更大野心,体现在钉钉同步上线的 AI 能力市场。Anthropic 推出 Claude Skills 开放标准后,微软、OpenAI、Cursor 等巨头迅速跟进。行业共识正在形成:下一阶段的竞争,不是「谁的模型更强」,而是「谁的 Skill 生态更完整」。钉钉 AI 能力市场覆盖 Skill、Agent、Service 完整体系,从开发、审核、上架、分发到管理,全链路打通。企业可以把资深员工的方法论固化成私有 Skill,彻底摆脱人才流失的阵痛;开源社区里数千个现成的能力,也能在企业级安全架构下被随时调用。这是悟空最有想象力的部分,它在搭建 AI 时代的生产力基础设施——Skill 是这套基础设施里流通的「货币」,谁掌握更多高质量的 Skill,谁就掌握了 AI 时代更大的生产力。AI 新硬件除了软件,在这场发布会上,钉钉还发布了多款 AI 硬件。DingTalk A1 Pro:录音卡形态,专为会议和工作场景设计,支持多麦克风阵列拾音,AI 实时转录、翻译、摘要,把「开完会还要整理纪要」的低效循环彻底斩断。Cleer H1 AI 耳机:钉钉与 Cleer 联名推出,首款与悟空深度联动的 AI 耳机。戴上耳机,语音即可直接与悟空对话下达指令,无需打开屏幕,从而实现真正的「所想即所达」。更值得关注的是 Real AI 硬件(Realbox):搭载 1 台 PC 环境 + 5 台手机环境,支持多人共用、多并发任务处理。企业部署一台 Realbox,可以同时为多个员工运行多个悟空实例;部署多台 Realbox,可构建 AI 计算机集群,任务并行处理,弹性扩展。不难看出,钉钉这些 AI 硬件并不是独立存在市面上的同类产品抢夺市场,核心都是为了更好地打通 AI 工作流,成为软硬一体的 AI 原生工作平台。OpenClaw 跑在一台电脑上,做一台电脑能做的事;悟空搭载 Realbox 集群,正式宣告:AI 算力,可以像水电一样,以基础设施的形式在企业内部流通了。AI 时代的组织生产力在观看这场发布会时, 我想起前段时间 Sam Altman 在采访中提到的观点:「历史上第一家由一个人独立运营的十亿美元公司,即将出现。」彼时龙虾还没火爆,一人团队(OPT)的概念也只是在 AI 圈子里。他没有解释这个人会用什么工具,会在哪里,会干哪个行业。但看完这场发布会,这句话变得具体了一些。这个人,大概率会有一套像悟空这样的东西在身边。过去十一年,钉钉一直在让人学会用工具。悟空想做的,是逐渐让工具真正学会理解人。当工具开始理解人,一件以前不可能的事情正在变得可能:组织生产力,第一次可以真正被数字化封装、分发和扩展。当 Skill 把行业专家的经验变成人人可调用的能力货币,当 AI 原生平台成为个体接入组织能力的操作系统,一个人或组织能做的事情的边界,将被彻底重新定义。Sam Altman 看到的是「一人公司」这个终点,悟空要做的,是让更多普通人有机会走到那条路上。它不是专门为天才准备的工具,而是为所有「想做更多但苦于一个人精力有限」的人,提供一套 AI 时代的组织生产力基础设施。AI 原生工作平台,正在成为这个时代最关键的组织变量。 谁先跑通它,谁就先拿到了超级个体时代的入场券。之前有一个观点,燃烧 Token 的速度,决定了人的进化速度。而悟空的 1.0 版本,指向的就是人和组织进化的下一个版本。

来源:APPSO发布时间:2026-03-17
你在训练AI,AI也在训练你!Cell子刊:AI正在让人类的表达和思维同质化,失去多样性

撰文丨王聪编辑丨王多鱼排版丨水成文当今人工智能(AI)模型(尤其是大语言模型)的核心是海量的训练数据——由真实的人类创作的文本、视频和图像,用于教导 AI 模型识别模式和生成内容。人类无疑在训练 AI——但 AI 是否也在训练我们呢?越来越多的研究报告指出,人们往往会从他们使用的大语言模型(LLM)中习得写作模式、推理方法甚至观点。近日,南加州大学的研究人员在 Cell 子刊 Trends in Cognitive Sciences 上发表了题为:The homogenizing effect of large language models on human expression and thought(大语言模型对人类表达和思维的同质化影响)的观点文章,该文章指出,大语言模型(LLM)可能正在导致人类的表达和思维趋于同质化,让我们所有人的语言、观点甚至思考方式,变得越来越像,这甚至会波及到那些并没有直接使用 AI 的人。文章作者、南加州大学计算机科学家 Zhivar Sourati 表示,如果你周围的人都在与这些大语言模型互动,并采用它们所表达的风格、观点和推理方式,那么在某个时候,这会将你包围得如此之深,以至于似乎只有使用这种方式来表述信息才是更符合社会规范的。如果你正为一份工作报告或一封重要邮件而绞尽脑汁,此时,你只需打开 ChatGPT 或 DeepSeek 等基于大语言模型(LLM)的 AI 工具,输入几个关键词,几秒钟后,一段结构清晰、用词得体、逻辑通顺的文字便呈现在你眼前。你稍作修改,点击发送,效率之高,令人满意。实际上,这已经成为无数人的日常,大语言模型(LLM)正以前所未有的深度融入我们的生活,从写作助手到创意伙伴,甚至成为我们决策时的“外脑”。但你是否想过,在我们越来越依赖这些 AI 助手的同时,它们也在用一种不易察觉的方式,悄然重塑着我们自己?认知多样性——体现在语言风格、观点视角和推理策略的差异上——是人类创造力、集体智慧和适应性的基石。这种多样性根植于我们不同的文化、历史和个体经验中。不同的语言风格能反映人的个性、年龄甚至健康状况(例如,阿尔茨海默病的早期语言特征);不同的观点构成了健康公共讨论的基础;不同的推理方式(比如基于生态关系归类 vs. 基于物种分类法)则让群体在解决复杂问题时能“八仙过海,各显神通”。然而,大语言模型(LLM)的设计和运行机制,却在无形中消磨着这种宝贵的多样性。语言的“美颜滤镜”:研究显示,当人们用 LLM “润色”各种文本——从社交媒体帖子、新闻稿到学术摘要甚至个人随笔——这些文本的写作复杂性会趋于一致。原本能预测作者政治倾向、性格、性别或年龄的语言特征(比如特定词汇的使用频率)变得难以捉摸。这意味着,经过 AI 修饰的文字,虽然更“规范”、“流畅”,却也抹去了个人独特的语言指纹。更令人担忧的是,这种“语言美颜”可能会掩盖如阿尔茨海默病早期语言特征等重要健康信号。观点的“主流回声”:该文章指出,LLM 的观点倾向于反映具有西方、受教育程度高、工业化、富裕社会的特征。当被问及对某些议题的看法时,LLM 生成的回答不仅多样性远低于真实人类,而且更贴近所谓“主流”或“社会认可”的立场。即使尝试让 AI 模拟特定身份,其结果也往往是刻板印象的堆砌,而非真实、多元的群体经验。当我们与这些观点高度一致的模型频繁“对话”,我们自身的观点和表达框架也可能不自觉地被其“校准”。思维的“最佳路径”依赖:在推理和创造领域,多样性是创新突破的关键。但 LLM 通常被训练和优化以追求“最佳性能”——更高的准确性、有用性、无害性。广泛使用的“思维链”(Chain of Thought,CoT)提示等技术,虽能提高逻辑性,但也强化了线性的、显式的推理模板。研究表明,在创意构思任务中,得到 LLM 协助的人虽然能产出更多、更详细的点子,但不同参与者产出的点子语义相似度也显著升高。更甚者,神经科学研究发现,与独立写作或使用搜索引擎辅助相比,用 LLM 辅助写作时,大脑的神经耦合最弱,记忆召回也更差。这意味着,我们可能正在将思考和创造的核心过程“外包”给了 AI,并为此付出认知能力退化的代价。由大语言模型(LLM)介导的表达和思维同质化:个体在写作、推理和世界观存在差异。当这些差异通过相同的 LLM 进行调节时,他们原本独特的语言、视角和推理信号就会变得同质化,从而在使用者之间产生标准化的表达和思维。这种同质化并非偶然。首先,LLM 的训练数据本身就已过度代表了网络上的主流语言和观点。其次,其训练目标(预测下一个词)天然倾向于学习并复现最常见、最易泛化的模式,而“平滑”掉少数和特殊的表达。最棘手的问题在于循环反馈:越来越多的人使用少数几个主流 LLM → 生成的同质化内容被发布到网上 → 这些内容又成为训练下一代模型的数据 → 模型输出进一步同质化……这个过程如同一个不断收紧的旋涡,将人类表达的多样性卷入一个越来越窄的通道。论文作者将这种现象类比为社会学中的“麦当劳化”——追求效率、可预测性和控制,却以牺牲情境的丰富性和独特性为代价。在认知领域,我们正用流畅和一致的 AI 输出,取代基于具体情境的、 独特的思考方式。当然,论文作者并非全盘否定 AI 的价值,而是呼吁我们警惕其中的风险。他们进一步提出了几个关键的研究方向,例如:如何让 AI 的“对齐”技术真正尊重人类认知的深层多样性,而非制造表面差异?长期依赖 AI 进行思考,对我们的大脑会有何种不可逆的影响?能否通过产品设计来帮助使用者保持主动性和独特性?大语言模型(LLM)无疑是一类强大的工具,但我们需要清醒地认识到,它不只是一个被动的工具。它是一个活跃的、具有塑造力的参与者,正在与我们共同书写未来思维的“源代码”。在享受其带来的便利与高效时,我们或许应该时常自问:当我们让 AI 帮助表达时,我们是在增强自己,还是在逐渐遗忘自己独特的声音?当 AI 能替我们思考时,我们是在解放大脑去探索更深的未知,还是在不知不觉中,让所有人的思想走向同一个、由数据定义的“标准答案”?保护人类语言、思维和表达的“生态多样性”,或许将是 AI 时代人类面临的最重要的文化命题之一。这需要开发者、研究者、政策制定者,以及每一位使用者的共同警醒与努力。论文链接:https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(26)00003-3设置星标,不错过精彩推文开放转载欢迎转发到朋友圈和微信群 微信加群 为促进前沿研究的传播和交流,我们组建了多个专业交流群,长按下方二维码,即可添加小编微信进群,由于申请人数较多,添加微信时请备注:学校/专业/姓名,如果是PI/教授,还请注明。点在看,传递你的品味

来源:生物世界发布时间:2026-03-17
移动梦网,终落幕!

随着中国移动一纸公告的发布,承载了无数中国人早期移动互联网记忆的“移动梦网”及其相关系列产品,正式进入倒计时。公告显示,包括和生活、农信通、Mobile Market、12590(语音杂志)以及梦网全网短彩业务在内的五款产品,将于2026年4月30日24:00正式下线并停止服务。这一举措标志着2000年诞生的“移动梦网”(Monternet)品牌,历经26年的风雨历程后,终于要彻底告别历史舞台。这不仅是一次产品的迭代更新,更是WAP和短信增值业务时代的正式落幕。曾经沧海:中国移动互联网的“启蒙者”回望2000年,彼时互联网在中国刚刚起步,移动通信正处于从2G向2.5G(GPRS)过渡的萌芽阶段,中国移动推出“移动梦网”品牌,创造性地提出“移动+开放互联网”模式,像一座桥梁连接了封闭的移动通信网络与开放的互联网世界。在那个流量按KB计算、网速以Kbps衡量的年代,移动梦网构建了一个庞大的SP(服务提供商)生态,引爆新浪、搜狐、网易等门户网站的无线增值业务,也造就了中国第一代移动互联网创业者,是当之无愧的中国移动互联网“启蒙者”。移动梦网的盈利模式是,由电信运营商提供平台,服务提供商/内容提供商为用户提供各种增值服务,这些增值服务由用户通过缴纳手机资费的方式付费使用,而这部分增值服务费由运营商和服务提供商/内容提供商按比例进行分成。从2000年到2009年,是属于移动梦网的黄金十年。腾讯凭借移动QQ业务实现单月盈亏平衡,2001年近千万利润几乎全部来自与梦网的合作,为日后的社交帝国奠定根基;网易、新浪、搜狐三大门户网站在互联网寒冬中,依靠梦网短信、彩信、手机游戏等业务扭亏为盈。2004年至2005年,移动梦网直接创造356亿元经济效益;2009年,其月活用户突破9000万,成为新世纪之初中国商业史上最成功的创新模式之一。梦网梦碎:时代的眼泪辉煌背后,乱象亦随之滋生:强行订制、短信陷阱、退订难等问题屡遭投诉,让这个响亮的品牌蒙羞;2006年梦网专项治理,虽让信息费下降50%,却也让用户数大幅缩减。但更大的冲击来自技术与时代的双重演进——2010年后,智能手机普及、4G网络商用,原生APP取代了WAP门户,微信等社交软件重构了短信沟通场景,第三方支付平台打破了运营商的付费壁垒,移动梦网的核心业务逐渐被新生态替代。2019年,移动梦网主体业务正式停运,而此次下线的梦网全网短彩业务,已是这个经典品牌最后的“余晖”。对于很多新生代用户而言,这些产品或许从未出现在他们的生活中;而对于老用户来说,5款产品也早已沦为账单上的陌生名词。它们的存续,更多是出于对旧有系统的兼容和对部分老年用户习惯的照顾,但在技术架构和维护成本上,已逐渐成为运营商的负担。战略转型:“连接”与“创新”基因延续中国移动此次果断下线五款产品,并非简单的“做减法”,而是战略层面的“腾笼换鸟”。二十余年间,移动梦网完成了它的历史使命:它让国人第一次体验到“随时随地上网”的便捷,搭建起中国移动互联的初代生态,更探索出内容与流量结合的商业路径,为后来的移动互联网发展积累了宝贵经验。而今,5G商用、AI普及、算力网络建设成为行业主流,中国移动的布局早已从“基础通信服务”延伸至“智算基础设施、数字生态构建”。从智慧家庭到数字乡村,运营商的赛道早已拓宽,而移动梦网留下的“连接”与“创新”基因,仍在延续。移动梦网的告别,不是终点,而是新的起点——它见证了中国移动通信从2G到5G的跨越,见证了移动互联网从萌芽到繁荣的蜕变。它留下的产业思考与创新精神,将继续陪伴中国移动通信产业,奔赴更智能、更高效的未来。

来源:C114通信网发布时间:2026-03-17
只需一张照片,AI即可生成高精3D模型,全彩3D打印可能会火出圈

南极熊导读:多色FDM 3D打印机在拓竹、创想三维、智能派、纵维立方、快造、闪铸科技等厂商的努力下,已经走向消费级。在AI自动建模的助推下,全彩3D打印将很可能是下一个消费热点趋势。2026年3月17日,南极熊获悉,趣丸万相与珠海赛纳三维科技有限公司(以下简称“赛纳三维”)达成战略合作。依托趣丸万相领先的AI三维生成能力与赛纳三维国际顶尖的全彩3D打印设备,双方在业内率先推出“从图到物””的一站式解决方案,即消费者仅需用“一张2D照片”,就能收获工业级品质的“全彩3D实物”。趣丸万相是中国人工智能TOP 50公司趣丸科技旗下的三维生成品牌,专注AI三维生成与全彩打印一体化解决方案,深耕人物、宠物、潮玩等消费场景,服务客户遍及全球,涵盖日本、韩国、俄罗斯、美洲、澳洲等国家和地区。此次合作的达成,构建起“Model(模型) × Machine(设备) × Materials(耗材)”协同发展的新范本,将极大降低3D打印个性化定制门槛,引领全彩3D打印加速迈进消费级市场。AI破解痛点:为全彩3D打印大幅增加模型来源南极熊观察到,国内最近几年开了不少的彩色3D打印人像店,199元到1999元等不同价位的3D打印人像产品,在抖音等平台上火爆一时。但持续性是个大问题。需要到店才能扫描获取3D模型数据,这个门槛把99%的潜在用户挡在门外。如果人人都可以任何时候任何地方,凭借一张照片即可获得高质量的3D打印模型数据,那么全彩3D打印的市场需求将被大大激发。近年来,国内全彩3D打印设备性能不断升级,但应用端的场景拓展却相对滞后。终端客户在购买设备后往往面临“缺乏稳定可打印模型供给”的窘境,导致设备稼动率不稳定,限制了全彩3D打印技术在消费场景的商业化普及。此次双方携手,正是立足这一行业痛点与用户需求。赛纳三维作为工业级全彩3D打印机龙头,其设备具备极高的打印精度与超千万级全彩,色域覆盖JapanColor色域的96%还原能力,代表了目前行业硬件输出的最高水准。而趣丸万相精准卡位“模型层”,用专业级的AI建模能力极大丰富设备的应用场景。双方的合作,不仅帮助设备销售方“打开了应用生意”,更为广大创作者和商家提供了一条低门槛的变现坦途。全彩3D打印商业闭环南极熊了解到,趣丸万相将打造一套全彩3D打印的商业闭环,为客户提供从建模、生产、交付、营销的一站式服务:零门槛极速建模:打破传统3D建模动辄数天,一个模型成本高至千元的门槛。让用户仅需在平台上传一张平面的2D照片,即可全自动生成高精度的3D模型,真正实现“来图即定制”。专业级修模服务:拥有一支经验丰富的专业修模团队,严格按照“可生产、防断裂”的工业级标准对生成模型进行结构优化。无论是细腻生动的高光人像、毛发逼真的宠物手办,还是潮玩Q版手办,都能实现完美适配全彩打印机的高质量输出。强供应链保障:不仅提供数字模型,更打通了物理世界的壁垒,提供从数字模型到交付全彩实物的完整服务,支持成熟的成品供货合作,完美承接线上线下爆发的定制需求。共创共赢联合运营:提供灵活的商业合作模式,通过微信小程序等便捷渠道开展联合运营。商家无需重资产投入,即可快速接入全彩3D打印的定制化生意,共享生态红利。全方位市场推广支持:考虑到商家的获客需求,趣丸万相将持续提供高质量的新媒体营销素材,助力合作伙伴在社交平台快速吸引流量,实现从“眼球经济”到“实体消费”的转化。蓝海掘金,开启全彩三维定制时代“在设备能力持续跃升的背景下,模型层能力的完善将成为行业下一阶段增长的最重要变量。”趣丸万相业务负责人表示,“我们非常荣幸能与珠海赛纳三维这样顶尖的设备厂商携手。我们将通过一站式的闭环服务,帮助客户省去一切技术与生产烦恼,让他们能将全部精力投入到业务拓展与客户服务中。”在TCT展会现场,趣丸万相与赛纳三维的联合展位上(8.1号馆8F88),与会者可现场体验“单图生成3D模型”的黑科技,并观摩全彩手办的现场打印全过程。科技的温度,在于将瞬间的记忆化作永恒的触感。凭借一张照片即可实现全彩3D打印实物定制。未来,趣丸万相将继续携手更多产业生态伙伴,共同探索三维定制化市场的无尽增量空间,让每一张珍贵的照片,都能成为可触摸的实体艺术品。

来源:南极熊3D打印发布时间:2026-03-17
观展攻略 | 2026慕尼黑上海光博会恭候您的光临

亚洲激光、光学、光电行业年度盛会即将开幕慕尼黑上海光博会3月18-20日上海新国际博览中心3号入口厅N1-N5,E7-E4馆近1500家国内外参展商恭候各位光临!期待一起探索光电技术迎接光电行业的崭新未来!这份观展攻略入场须知、出行交通、同期活动等应有尽有请您务必收藏同时可以转发一同前来的好友!观众预登记倒计时Laser World of Photonics China观众参观时间第一天 3月18日(周三) 9:00-17:00第二天 3月19日(周四) 9:00-17:00第三天 3月20日(周五) 9:00-16:00参观预约通道扫描下方二维码免现场排队!观众入场须知参观展会需实名制登记中国大陆人士进馆流程①完成在线观众注册(扫描上方二维码)②在闸机处凭身份证原件进入场馆胸卡也可在展会现场领取,只作为身份标识。请务必携带身份证原件!海外及港澳台地区人士进馆流程①凭登记确认码至自助机柜台打印胸卡、或持护照/港澳通行证/台胞证至入口厅观众柜台领取胸卡②在闸机处扫描胸卡入馆1如何抵达? 展馆布局图 展馆地点上海新国际博览中心(上海市浦东新区龙阳路2345号)周边交通非常便捷,无论您使用何种交通工具均可到达,以下信息都将为您提供帮助。本届展会有3个入口厅:● 3 号入口厅 (东大厅):推荐私家车及出租车,可直达E7或N5馆;● 2 号入口厅 (北大厅):推荐乘坐地铁,可直达N1馆;● E4 快捷入口厅 (特设):推荐私家车及大巴。可直达光学展区。3号入口厅东登录厅签到观众,有机会领取展会限定版帆布包!主要交通方式:1地铁前往上海地铁四通八达,可以通过任意线路换乘到地铁7号线,抵达上海新国际博览中心。乘坐地铁7号线,至花木路站1/2号口出,步行1分钟可抵达展馆2号入口厅。2出租车(推荐定位)上海新国际博览中心3号入口(罗山路花木路交界处)3自驾车(推荐定位)● 上海新国际博览中心P1停车场,或上海新国际博览中心7号门● 停车收费10元/时,1小时后每30分钟5元,封顶80元/天(以停车场收费公告为准)2展位图及展商名单一览2026慕尼黑上海光博会现场汇聚近1500家国内外优质参展商,现场展位图及展商名单已公布!快来看看今年有哪些企业参展。↑↑↑点击上方图片查看「展位图及展商名单」详情3同期活动光学技术大会PHOTONICS CONGRESS CHINA光学技术大会 PHOTONICS CONGRESS CHINA 将与慕尼黑上海光博会共同于2026年3月18-19日在上海新国际博览中心举办。大会主题包括计算光学成像技术、超构光学表面技术、智能光学制造技术、集成电路精密检测技术、红外探测技术、中红外激光技术、激光智能制造技术、激光雷达技术等最新科技研发成果和进展,同时将聚焦生物光子、光通信、新型显示、智能汽车、半导体、人工智能、新能源等应用场景,更有光学主题培训班的加入,为光电人带来更多专业课程。点击图片查看会议日程 会议室指引图4现场活动黑鸟中国10周年庆典暨技术开放日值此光博会之际,黑鸟中国将隆重举办10周年庆典暨技术开放日。本次活动特邀产学研界重磅嘉宾联袂开讲,带来激光智能制造的前沿技术分享。参与方式:本活动为邀约审核制,需提前报名。审核通过后将以短信形式通知参会详情。点击此处查看详情Xmatch计划 - 产业对接会X Match计划作为慕尼黑上海光博会重磅推出的增值服务,旨在为光电领域展商与买家构建专业化供需适配桥梁。量子计算博物馆Chip期刊、上海交大无锡光子芯片研究院(CHIPX)、慕尼黑上海光博会联合,重磅推出集“知识科普、技术展示、互动体验、产业链接”于一体的量子计算博物馆。互动有礼来现场参与打卡活动,丰富好礼等您拿!现场将有领军企业与科研院所专家坐镇媒体直播间,与您分享激光、光电子、光通信、红外技术等核心领域深度洞察,解读发展趋势。5酒店信息向下滑动查看1→上海浦东嘉里大酒店地址:上海浦东新区花木路1388号距离上海新国际博览中心:步行5分钟距离浦东国际机场:车程40分钟距离虹桥国际机场:车程50分钟2→上海淳大万丽酒店地址:上海浦东新区迎春路719号距离上海新国际博览中心:车程10分钟距离浦东国际机场:车程40分钟距离虹桥国际机场:车程50分钟3→上海证大美爵酒店地址:上海浦东新区迎春路1199号距离上海新国际博览中心:车程 12 分钟距离浦东国际机场:车程45分钟距离虹桥国际机场:车程55分钟4→上海大华皇冠锦绣假日酒店地址:上海浦东新区锦尊路399号距离上海新国际博览中心:车程15分钟距离浦东国际机场:车程50分钟距离虹桥国际机场:车程60分钟5→上海浦东滨江喜来登酒店地址:上海浦东新区浦东大道2288号距离上海新国际博览中心:车程25分钟距离浦东国际机场:车程50分钟距离虹桥国际机场:车程55分钟6→上海新国际博览中心城际酒店地址:上海浦东新区兰花路308号(盈丰天地A座五层)距离上海新国际博览中心:步行 5 分钟距离浦东国际机场:车程40分钟距离虹桥国际机场:车程50分钟7→上海东江明城大酒店地址:上海浦东新区凯庆路299号距离上海新国际博览中心:车程20分钟距离浦东国际机场:车程30分钟距离虹桥国际机场:车程60分钟8→上海东怡大酒店地址:上海浦东新区丁香路555号距离上海新国际博览中心:车程10分钟距离浦东国际机场:车程45分钟距离虹桥国际机场:车程55分钟9→上海帝盛酒店地址:上海浦东新区花木路800号距离上海新国际博览中心:车程10分钟距离浦东国际机场:车程45分钟距离虹桥国际机场:车程55分钟10→曼居酒店上海新国际博览中心店地址:上海浦东新区罗山路1609号距离上海新国际博览中心:车程10分钟距离浦东国际机场:车程45分钟距离虹桥国际机场:车程55分钟11→全季酒店(上海世博杨高南路店)地址:上海浦东新区成山路1139号距离上海新国际博览中心:车程20分钟距离浦东国际机场:车程40分钟距离虹桥国际机场:车程50分钟12→如家商旅酒店(陆家嘴世博中心店)地址:上海浦东新区浦明路1888号14号楼距离上海新国际博览中心:车程20分钟距离浦东国际机场:车程50分钟距离虹桥国际机场:车程55分钟13→宜必思酒店(上海联洋店)地址:上海浦东新区芳甸路200号距离上海新国际博览中心:车程10分钟距离浦东国际机场:车程40分钟距离虹桥国际机场:车程50分钟14→白玉兰陆家嘴滨江店地址:上海浦东新区浦电路57号距离上海新国际博览中心:车程20分钟距离浦东国际机场:车程50分钟距离虹桥国际机场:车程50分钟15→锦江之星上海世博园区浦三路店地址:上海浦东新区浦三路208号距离上海新国际博览中心:车程15分钟距离浦东国际机场:车程50分钟距离虹桥国际机场:车程65分钟6餐饮信息向下滑动查看登录慕尼黑上海光博会官方小程序掌中光博,应有尽有开展倒计时!一起来慕尼黑上海光博会狂欢吧扫描下方二维码免现场排队!来源:慕尼黑上海光博会服务号如有光学论文写作/实验笔记经验、绘图工具介绍,或其他优质稿件,欢迎投稿至ioptics@clp.ac.cn。字数控制在2000-3000字为佳,稿件一经录用,我们将提供具有竞争力的稿酬。期待你的来稿!END由于微信公众号试行乱序推送,您可能没办法准时收到“爱光学”的文章。为了让您第一时间看到“爱光学”的新鲜推送, 请您:1. 将“爱光学”点亮星标(具体操作见文末)2. 多给我们点“在看”点在看联系更紧密

来源:爱光学发布时间:2026-03-17
国家发展和改革委员会直属单位2026年度第二批公开招聘公告

根据工作需要,按照中央和国家机关所属单位公开招聘有关政策规定,我委直属单位拟公开招聘部分工作人员。现将有关事项公告如下:一、招聘类型及报名条件(一)招聘类型1. 校园招聘:面向符合岗位条件的2026年国内高校应届毕业生(含两年择业期内未落实工作单位的高校毕业生,不含各类委培生、定向生,不含在校期间或两年择业期内有社保缴存记录的毕业生)。当年应如期取得毕业证、学位证。其中,京外生源应符合人力资源社会保障部有关在京落户要求。2. 社会招聘:面向符合岗位条件的具有北京市常住户口的人员(含具有北京市常住户口的国内高校应届毕业生与海外留学回国人员,不含北京高校集体户口)。其中,如为博士后出站人员应符合进京落户的有关要求。2026年12月31日前应取得与最高学历对应的毕业证、学位证。(二)报名条件1. 具有中华人民共和国国籍。2. 政治立场坚定,拥护中国共产党的领导和社会主义制度,深刻领悟“两个确立”的决定性意义,增强“四个意识”、坚定“四个自信”、做到“两个维护”,在思想上政治上行动上同以习近平同志为核心的党中央保持高度一致。3. 拥护并遵守中华人民共和国宪法和法律法规。4. 具有良好的道德品行。5. 身体健康,具备适应岗位要求的身体条件和心理素质。6. 所学专业及学历符合岗位要求。岗位要求的专业为应聘人员最高学历所对应的专业,专业名称及代码参考教育部公布的最新版《普通高等学校本科专业目录》(2024年版)《研究生教育学科专业目录》(2022年版)《授予博士、硕士学位和培养研究生的学科、专业目录》,对于所学专业接近但不在上述参考目录中的,应聘人员可与招聘单位联系确认。留学回国人员专业,将结合应聘人员所学主要课程、研究方向等进行审查。7. 除招聘岗位另有要求外,年龄一般不超过38周岁(1987年3月以后出生)。8. 具备岗位所要求的其他条件(见附件1)。因犯罪受过刑事处罚的人员、被开除中国共产党党籍的人员、被开除公职的人员、被依法列为失信联合惩戒对象的人员,在以往公务员考录或事业单位公开招聘中被认定为有舞弊等严重违反录用纪律行为还在影响期内的人员,以及法律法规规定不得聘用为事业单位工作人员的其他情形人员,不得报考。应聘人员不得报考聘用后即构成回避关系的招聘岗位,与招聘单位工作人员有亲属关系(夫妻关系、直系血亲关系、三代以内旁系血亲关系、近姻亲关系或其他亲属关系)的,应当在报名时主动报告。应聘人员报名时应签署《考生诚信承诺书》(见附件2),承诺所提供信息真实准确,并承担不实承诺相关责任。二、招聘程序(一)报名1. 报名时间:即日起至2026年3月30日18:00。2. 报名方式:在规定时间内登录报名系统提交申请,每人限报1个岗位。3. 报名网址:https://www.sydwgkzp.cn/fgw/index.html#/home(二)资格审查根据报考及岗位条件对报名人员进行资格审查。通过资格审查人数与岗位招聘人数的比例原则上须达到5:1,达不到该比例的,由招聘单位研究决定调减该岗位招聘人数或取消招聘。对报考资格的审查贯穿招聘全过程,在各环节发现报考者不符合报考资格条件的,均会取消其报考资格或者聘用资格。(三)笔试笔试包括公共笔试和专业能力测试,满分均为100分。笔试安排将通过报名系统生成准考证等方式通知资格审查合格考生,请考生注意及时查看相关信息,未按规定时间完成确认参加笔试者视为自愿放弃本次考试。公共笔试设置合格分数线,考生公共笔试成绩未达到合格分数线的,不得进入后续环节。本次考试不指定辅导用书,不举办也不委托任何机构举办辅导培训班。(四)面试根据公共笔试和专业能力测试1:1的比例确定笔试人员综合成绩,根据笔试人员综合成绩由高到低顺序,按照招聘计划5:1的比例确定面试人员。面试满分为100分,面试合格分数线为60分,成绩达不到60分的不得进入后续环节。面试人选、时间、地点和有关事项由各招聘单位另行通知。如有放弃面试资格的,按公共笔试和专业能力测试的综合成绩由高到低顺序依次递补。(五)体检和考察根据公共笔试、专业能力测试、面试成绩1:1:1的比例确定面试人员总成绩,根据面试人员总成绩由高到低顺序,按照招聘计划1:1的比例确定体检和考察人选。1. 体检。参照现行公务员录用体检标准组织实施体检。2. 考察。按照相关政策规定,根据招聘岗位资格条件和要求开展考察工作。考察将统筹采取实地走访、个别谈话、审核人事档案(学籍档案)、查询社会信用记录、同本人面谈等方式,了解考察人选政治素质、道德品行、能力素质、心理健康、学习和工作表现、遵纪守法、廉洁自律等方面情况。体检或考察不合格的,由招聘单位研究决定是否按综合成绩排名依次递补。(六)公示根据总成绩、体检、考察情况,择优确定拟聘用人选,并在中央和国家机关所属事业单位公开招聘服务平台进行公示。公示期不少于5个工作日。(七)聘用公示期满后,没有问题或者反映的问题不影响聘用的,经报人力资源社会保障部备案同意后,按规定办理聘用手续。对反映有影响聘用的问题并查实的,不予聘用。对反映的问题一时难以查实的,暂缓聘用,待查清后再决定是否办理聘用手续。三、注意事项(一)报名提交的信息应当详细、真实、准确。凡提供虚假信息者,一经发现即取消资格。(二)后续有关安排将另行通知,请及时关注报名系统,并保持通讯畅通。岗位咨询电话:详见附件1。附件:1. 国家发展改革委直属单位2026年度第二批公开招聘计划2. 考生诚信承诺书国家发展改革委人事司2026年3月16日1国家发展改革委直属单位2026年度第二批公开招聘计划2考生诚信承诺书向下滑动查看更多

来源:国家发展改革委发布时间:2026-03-17
企业级靠谱龙虾升级,拒绝失控

田晏林 发自 凹非寺量子位 | 公众号 QbitAI从全民抢着“养龙虾”,到紧急“拆龙虾”,前后不过半个月。OpenClaw的爆火与降温背后,其实是戳中了人们的普遍期待:太想要一个能真正帮忙干活的AI员工/AI助理了。但这类轻量化智能体的短板也显而易见:技能单一、场景有限,大多只能满足个人或小型轻量化需求。一旦进入企业复杂业务的真实战场,再大的“虾”,也有爪子抽筋的时刻。更现实的是,“养虾”成本不低:token消耗大、费用高,还伴随着数据安全与合规风险。△图片来源网络这也给企业管理者敲响警钟:不养“龙虾”,养AI员工,才是正道。因为真正能落地的企业AI数字员工,远不止“会动手”这么简单。它需要精准理解业务、动态治理数据、多技能体系化协同、可持续迭代进化。而要让这些能力真正规模化运转,还需要一套完整的底层基础设施——企业大模型。这也是支撑所有AI数字员工的核心底座。近年来,中国企业级AI解决方案市场持续扩容,各类企业大模型层出不穷。但真正具备长期竞争力的优质模型,往往从产品架构的完整性就能一眼看清。滴普科技近期刚刚发布升级的Deepexi企业大模型,区别于通用大模型的“问答式”能力,与FastAGI企业智能体平台、FastData Foil企业数据融合平台,合称为滴普科技的“三大件”。滴普科技创始人、董事会主席、执行董事兼首席执行官赵杰辉说:如果一个企业要持续地基于自己的知识和数据生成各个岗位的AI员工,持续刷新AI员工能力,就需要部署这三大件。三者融合后,组成一个叫“DeepexiOS”的AI级企业操作系统。那么,这个系统又是如何以完整架构支撑企业AI体系化建设,让AI员工从“能用”走向“好用、常用、可持续用”的呢?Deepexi进入2.0时代回答这个问题前,我们先认识下滴普科技。在港交所上市还不满半年,滴普科技的最新财报预告显示:1、预计2025年营收同比增长65%~75%;2、FastAGI收入较2024年同期增幅达175%以上;3、全年净亏损同比收窄23%以上,剔除非经营因素后的经调整净亏损,同比收窄65%~75%。亏损收窄的核心原因,是营业收入增长带动毛利大幅提升。这意味着,滴普科技的主营业务(企业级数据智能与人工智能解决方案)已经进入了“收入增长带动毛利提升”的正循环。持续的收入增长,还说明滴普科技的客户基础不断扩大、客户结构日趋稳定。目前,滴普科技已服务中国海诚、大族激光等众多行业头部企业,客户覆盖消费零售、制造、医疗、交通等多个领域。值得注意的是,滴普科技当下最吸睛的虽然是AI业务,但能将其发展到这个幅度的基石,还是数据能力。从2018年公司成立开始,滴普科技就在最让人头疼的数据上下功夫,也正是这份长期沉淀,才让它在AI时代的To B领域占据一席之地,毕竟数据质量直接决定AI的精准程度。这次升级的Deepexi企业大模型,同样围绕通过数据透析,基于企业实际场景与使用痛点打造。关注人工智能和产业落地的朋友可能会发现:现在业内对大模型的讨论,跟两年前已经完全不一样了。两年前,大家都在追捧模型本身,只看谁更火、谁的参数更大;现在大家不再只谈热度,而是更关心模型到底能解决什么实际问题。硅谷最近流行讲Skill-based model(专长型大模型)。前两年大家会觉得,模型会写代码就很厉害了,但放到企业里真的靠谱吗?企业要做业务、查数据、跑流程,得先把需求描述清楚,再让模型去写代码,这一步其实又累又容易出错。大家慢慢发现一个事实:模型开始走向专业化、专长化,不再是万能通用,而是各有所长。现在大部分人都试过了:随便拿一个通用大模型放进企业,根本没法直接变成能用的AI员工。滴普科技也尝试过通用大模型+RAG+本体定义的技术路线,但实际业务场景的反馈都达不到最佳。想要造出能稳定干活的AI员工,模型必须具备两个核心能力:1、精准理解业务能力:能吃透企业内部知识、经营流程、业务逻辑,理解得准、不出错;2、可靠的coding能力:在理解业务后,能自动写代码、查数据、做交互、跑流程。滴普科技这次也针对性地对大模型进行升级,目前Deepexi企业大模型能够基于具体企业数据和业务知识,构建其本体数据模型,经过深度训练后,专属模型认知精度远超同类产品。此外,它还可以融合SQL/Python/前端/NC代码等coding能力,不仅能写文案,还能直接操作后台系统,能自动生成SQL查数据库、写Python脚本访问/处理图表、甚至通过代码对接前端和后台ERP。为什么滴普科技能做到快速升级?这就不得不提这家公司自建的Deepology企业本体数据集。从2018年创业至今,滴普科技就在积累数据,已为超300家行业头部客户提供整体业务建模服务。在长期实践中,初期沉淀了成熟的指标体系与数据架构能力,随后进一步构建起企业、行业的业务知识逻辑。而今,本体数据集被视为Deepexi企业大模型持续进化的“核心养料”,只因这个数据集并非一些零散的原始数据集合,而是一套能真正理解企业业务的高质量数据体系。以船舶行业为例,作为一个重资产、长周期、产业链复杂且高度依赖专业知识的特殊领域,规范文档繁杂难检索、供应链不透明、设计返工率高、核心知识难以传承等方面一直是阻碍其快速发展的难点。而滴普科技通过服务了很多家船舶企业后,在长期实践中沉淀了丰富船舶图纸、工程数据与全链路业务信息等,再通过进一步梳理,形成了船舶领域的业务逻辑框架,涵盖供应链管理指标体系、知识逻辑规则等核心内容,并以此构建出了船舶行业本体数据集。之后本体数据集还会借助数据飞轮持续迭代优化,让滴普科技最终形成覆盖整个船舶行业的领域全域数据集能力。在此基础上,当这套能力被注入到Deepexi企业大模型中,就会让其具备船舶行业全场景整体建模的本事。换句话说,无论企业业务如何变化,模型都能精准理解真实需求,做到回答可靠、推理严谨、不跑偏、不瞎编。另外,Deepexi企业大模型的训练与推理能力,与FastDataFoil企业数据融合平台的多模态数据处理能力是相互支撑,在能力上完成闭环互补,支撑Deepexi持续迭代。据悉,下一代Deepexi已经在研发和规划中,很快也要和大家见面。AI级企业操作系统再进化就像上面说的,依托FastDataFoil能力,Deepexi企业大模型完成迭代升级。相反的,基于Deepexi企业大模型升级,也带动FastAGI企业智能体平台、FastData Foil企业数据融合平台的升级:FastAGI企业智能体平台1、重点升级Agentic多项能力,实现自主规划Agent,在原有能力基础上,积累工程设计、BOM分析、工艺优化、故障维修、运营决策、店货匹配、数据运维、财税筹划等企业级常用Skills;2、升级支持超长上下文机制和多层记忆架构,高并发场景下,处理能力与稳定性大幅提升。FastData Foil企业数据融合平台1、在原有多模态数据治理能力基础上,重点升级语音、音视频及空间地理等多模态数据格式的解析,能动态扩展和更新企业本体模型。2、为企业沉淀高质量的Deepology企业本体数据集,给大模型训练和AI数字员工落地提供可靠的数据支撑。上面这张图完整展示了Deepexi企业大模型、FastData Foil数据融合平台、FastAGI企业智能体平台,三者是如何协作,打造出能稳定干活的AI数字员工的:首先是数据层,企业把桌面数据(pdf/doc/xls)、数据库等各类数据,先交给FastData Foil数据融合平台处理。后者会结合Deepology企业本体数据集,把杂乱数据清洗、融合成AI-ready高质量数据,喂给Deepexi企业大模型。这一步相当于给AI“备课”,让模型先吃透企业的业务逻辑、专有知识和历史数据。第二步就是模型层,Deepexi基于处理好的企业数据,训练出懂企业业务、能写代码、可执行操作的企业大模型。它不像通用大模型只会聊天,而是能生成各种Skills(专业技能),比如查数据库、写报表、对接ERP等。最后是执行层,所有Skill都汇总到FastAGI企业智能体平台,这里是AI员工的“协同workspace”。面对复杂任务(比如从下单到生产调度),FastAGI会做端到端规划:把大任务拆成小步骤,交给不同技能的AI员工分头执行,最后汇总结果、操作ERP完成闭环。为了保证准确可靠,FastAGI内置了:多层记忆与激励机制:避免大模型“幻觉”,保证任务执行的一致性;Skill管理与自动化:把各类专业技能统一管理、按需调用;企业知识库与安全机制:让AI基于企业真实知识干活,同时保障数据安全。DeepexiOS强在哪儿?在当前中国企业级AI解决方案市场快速扩容的背景下,滴普科技凭借独特的技术路径与产品体系,在港股科技企业中形成了极具辨识度的“企业级大模型”标签。对比C端OpenClaw“文件夹式”数据管理,DeepexiOS实现了数据治理的动态化重构。通过FastData Foil企业数据融合平台,企业可将桌面文档、数据库、多模态音视频等全量数据,结合Deepology企业本体数据集进行清洗、融合与建模,自动生成贴合企业业务逻辑的知识体系,为AI提供 “纯净、准确、可复用”的核心数据能源。这一过程彻底告别了传统数据治理依赖人工梳理、流程固化的痛点,实现了从本体构建到企业AI应用从“人工”到“自动”的代际跨越,是本体模型技术的下一代升级。对比行业其他大模型厂商,滴普科技的核心优势主要还是对企业服务的理解深度。在数据治理领域,公司沉淀了从结构化到非结构化数据的全链路处理能力,FastData Foil可高效支撑企业级规模数据的多模态解析与动态更新,为Deepexi企业大模型提供高质量训练与推理基础;在业务落地层面,依托FDE工程师团队多年的行业实践,滴普科技对企业终端执行逻辑有着精准把控,将复杂业务场景拆解为可量化、可执行的Skill模块,让基于本体大模型构建的AI数字员工具备灵活协同的执行力。摒弃轻量化智能体的花哨噱头与场景短板,深耕企业真实业务,这也让滴普科技成为业内唯一实现“规划-决策-执行”数字化闭环的企业级大模型产品的提供商。它对企业的了解也绝非一两只“龙虾”短期内能赶上的。对于效率即效益的企业而言,与其耗费时间与成本去养华而不实的“龙虾”,不如一步到位,部署能落地、能创造价值的AI员工。一切终要回归商业落地当前,企业级大模型赛道正迎来爆发式增长:OpenAI最新发布的GPT-5.4系列模型强化了编码能力与智能体能力;英伟达则通过收购SchedMD、开放开源模型进一步完善生态体系。诸多通用模型厂商纷纷布局coding业务,企业大模型正逐步替代传统预编译软件,以数字员工形态成为企业数字化核心交付载体,推动组织生产力变革。但再先进的企业级大模型,最终评判标准只有一个:真正服务多少企业、创造多少价值。商业化落地能力才是核心壁垒。只有把AI能力注入千行百业,在真实场景中完成规模化验证,才能持续反哺技术迭代,形成技术与商业的正向循环。滴普科技本次发布,正是对企业级大模型回归商业落地本质的有力践行,也是其凭借成熟技术体系与场景化落地能力,推动AI数字员工真正走进企业、创造实际业务价值的关键体现。值得一提的是,滴普科技在深耕当下AI数字员工的同时,也在提前布局长远技术与硬件生态,比如上面提到的下一代Deepexi企业大模型正在着手研发之外,滴普科技正在考虑把核心的本体模型技术和智算单元合二为一,打造NOVA本体模型加速专用芯片(SOC)。另外,Deepexi企业大模型+具身机器人=AI具身员工,也在规划中。发布会现场,滴普科技还与天津大学成立「具身智能大脑联合实验室」,双方宣布会共同聚焦本体模型底座、数据仿真合成、模型轻量化等前沿方向,推动企业AI具身员工的深度落地。所以接下来,就蹲一个AI具身员工破圈,看它怎么打破数字与物理的壁垒,重构企业生产力吧。毕竟,能走进物理世界的AI,才是真·未来可期。一键三连「点赞」「转发」「小心心」欢迎在评论区留下你的想法!— 完 —? 点亮星标 ?科技前沿进展每日见

来源:量子位发布时间:2026-03-17
铃木的今天就是本田的明天?那太好了,因退出中国市场的铃木找到了春天

本田公布业绩预告,预估亏损额高达4200亿至6900亿日元,由此网上都是一片唱衰本田的声音,甚至说已退出中国市场的铃木的下场就是本田未来的结局,如果真是如此,显然找错了铃木作为对比对象了,因为铃木退出中国市场之后反而更好了。2025年铃木汽车在印度市场取得了巨大的突破,卖出了184万辆汽车,一举将它的整体销量推高到326万辆,由此也成为日本汽车新三强,日产则跌出了日本汽车前三;并且铃木汽车这已是连续5年增长,也就是说即使它退出了中国市场,却也在中国以外的市场找到了新的春天。很明显铃木汽车并未因为退出中国市场就失去了未来,反而因此而找到了新的出路,这反而让它成为其他日本汽车学习的对象,原来失去中国市场并没有想象中的那么严重。除了铃木,丰田汽车则是又一个例子,丰田在中国市场的连年下滑,但是它在全球市场的销量却依然稳步增长,并且它也一直都是唯一一家年销量超过千万辆的汽车企业。与国内网络消息不一样的是丰田独有的THS节油混动技术如今已成为它的杀手锏,即使本田已推出了接近丰田的节油混动技术,但是省油能力还是不如丰田,德系车、美系车则无法研发出类似的节油混动技术,他们研发了轻混技术,但是省油能力就更弱了。由于丰田的THS节油混动技术省油能力足够强,在它培育了20多年市场的情况下,欧美市场都日益认可丰田的节油混动技术,由此丰田节油混动车在欧美市场的占有率不断上升,例如德国市场混动车占比就已接近四成,其中超过八成都由丰田混动取得,独有的技术优势让丰田不断提价,推动利润上涨。对于本田来说,如果它当下失去中国市场,那么对它确实是重大打击,因为它尚未找到替代中国市场的新市场,高峰期的2020年本田在中国市场卖出了162.7万辆车,那一年它的全球销量为479万辆,中国市场贡献了超过三分之一的销量,也贡献了三分之一的利润。随着本田在中国市场的销量暴跌,本田在全球市场的销量确实在下跌,2025年的全球销量已跌至352万辆,但是正如上述,拿铃木来作为比较对象显然是找错了对象,如果本田能如铃木那样找到新的大市场,相信本田对中国市场的重视程度必然下降。事实上2025年本田的巨额亏损并不仅仅是汽车销量下跌所致,而是它决定舍弃电车业务导致资产核销和减值损失8200亿-1.12万亿日元所致,如果去除这部分,本田汽车业务的经营利润仍然有4000亿-5000亿日元。缩减或舍弃电车业务不仅仅是本田如此做,有更多车企选择了这样的策略,如美国的福特汽车就已计划缩减电车业务,因为随着美国取消7500万美元电车补贴已导致电车销量下滑,而且电车占美国市场的份额低至7.8%,即使是全球最大的电车市场中国市场也因为补贴退坡而在今年前2个月销量暴跌,似乎电车一旦没有补贴的支持就没啥希望,汽车企业缩减乃至舍弃电车业务很正常。

来源:柏铭科技发布时间:2026-03-17
2027年至少营收1万亿美元!龙虾就是新操作系统丨黄仁勋GTC万字实录

作者:鲍奕龙来源:华尔街见闻2026年3月16日,英伟达GTC 2026大会正式开幕,英伟达创始人兼CEO黄仁勋发表了主题演讲。在这场被视为“AI行业年度朝圣”的大会上,黄仁勋阐述了英伟达从一家“芯片公司”向“AI基础设施和工厂公司”的蜕变。面对市场最关心的业绩持续性与增长空间问题,黄仁勋详细拆解了驱动未来增长的底层商业逻辑——“Token工厂经济学”。“今天,世界上的每家公司都需要有一个OpenClaw战略,一个智能体系统战略。这是新的计算机。” 黄仁勋强调,在未来的企业运转中,为每位工程师配备“年度token预算”,将成为推动生产力十倍增长的新标配 。AI图片业绩指引极度乐观,“2027年至少1万亿美元的需求”过去两年,全球AI计算需求呈指数级爆炸。随着大模型从“感知”、“生成”进化到“推理”与“行动(执行任务)”,算力的消耗量急剧攀升。针对市场高度关注的订单与营收天花板,黄仁勋给出了极为强劲的预期。黄仁勋在演讲中直言:去年这个时候,我说过,我们看到了5000亿美元的高确信度需求,覆盖Blackwell和Rubin直到2026年。现在,就在此时此地,我看到到2027年至少有1万亿美元的需求(at least $1 trillion)。黄仁勋的万亿预期一度推动英伟达股价涨超4.3%。不仅如此,他更是对这一数字做出了补充:这合理吗?这就是我接下来要讲的。事实上,我们甚至会供不应求。我确定,实际的计算需求会比这高得多。黄仁勋指出,如今的英伟达系统已经证明了自己是全球“成本最低的基础设施”。由于英伟达能运行几乎所有领域的AI模型,这种通用性使得客户投入的这1万亿美元能够被充分利用并保持长久的生命周期。目前,英伟达60%的业务来自排名前五的超大型云服务商,而另外40%的业务则广泛分布于主权云、企业、工业、机器人和边缘计算等各个领域。Token工厂经济学,每瓦性能决定商业命脉为了解释这1万亿需求的合理性,黄仁勋向全球企业CEO展示了一套全新的商业思维。他指出,未来的数据中心不再是存储文件的仓库,而是生产Token(AI生成的基本单位)的“工厂”。黄仁勋强调:每一座数据中心、每一座工厂,从定义上来说都是受电力限制的。一座1GW(吉瓦)的工厂永远不会变成2GW,这是物理和原子的定律。在固定的功率下,谁的每瓦Token吞吐量最高,谁的生产成本就最低。黄仁勋将未来的AI服务分为以下商业层级:免费层(高吞吐、低速度)中级层(~每百万token 3美元)高级层(~每百万token 6美元)高速层(~每百万token 45美元)超高速层(~每百万token 150美元)他指出,随着模型越来越大、上下文越来越长,AI会变得更聪明,但Token的生成速率会降低。黄仁勋表示:在这个Token工厂里,你的吞吐量和Token生成速度,将直接转化为你明年的精确收入。黄仁勋强调英伟达的架构能够让客户在免费层实现极高的吞吐量,同时在最高价值的推理层级上,将性能提升惊人的35倍。Vera Rubin两年实现350倍加速,Groq填补极速推理在这个物理极限的约束下,英伟达介绍其有史以来最复杂的AI计算系统,Vera Rubin。黄仁勋表示:过去提到Hopper,我会举起一块芯片,那很可爱。但提到Vera Rubin,大家想到的是整个系统。在这个100%液冷、完全消灭了传统线缆的系统中,过去需要两天安装的机架,现在只需两小时。黄仁勋指出,通过极致的端到端软硬件协同设计,Vera Rubin在同一座1GW数据中心里创造了惊人的数据跨越:在短短两年时间内,我们将Token的生成速率从2200万提升到了7亿,实现了350倍的增长。摩尔定律在同时期仅能带来约1.5倍的提升。为了解决极速推理(如1000 Tokens/秒)条件下的带宽瓶颈,英伟达给出了整合被收购公司Groq的最终方案:非对称式的分离推理。黄仁勋解释:这两款处理器的特点截然不同。Groq芯片拥有500MB的SRAM,而一颗Rubin芯片拥有288GB的内存。黄仁勋指出,英伟达通过Dynamo软件系统,将需要海量计算和显存的“预填充(Pre-fill)”阶段交给Vera Rubin,将对延迟极度敏感的“解码”阶段交给Groq。黄仁勋还对企业算力配置给出了建议:如果你的工作主要是高吞吐,100%使用Vera Rubin;如果你有大量高价值的编程级别的Token生成需求,拿出25%的数据中心规模给Groq。据透露,由三星代工的Groq LP30芯片已在量产,预计第三季度出货,而首个Vera Rubin机架已在微软Azure云上运行。此外,针对光互联技术,黄仁勋展示了全球首款量产的共封装光学(CPO)交换机Spectrum X,并平息了市场对于“铜退光进”的路线之争:我们需要更多的铜缆产能,更多的光芯片产能,更多的CPO产能。Agent终结传统SaaS,“年薪+Token”成硅谷标配除了硬件壁垒,黄仁勋把大量篇幅留给了AI软件和生态的革命,特别是Agent(智能体)的爆发。他将开源项目OpenClaw形容为“人类历史上最受欢迎的开源项目”,称其仅用几周时间就超越了Linux在过去30年取得的成就。黄仁勋直言,OpenClaw本质上就是Agent计算机的“操作系统”。黄仁勋断言:每一个SaaS(软件即服务)公司都将变成AaaS(Agent-as-a-Service,智能体即服务)公司。毫无疑问,为了让这种具备访问敏感数据和执行代码能力的智能体安全落地,英伟达推出了企业级的NeMo Claw参考设计,增加了策略引擎和隐私路由器。对于普通职场人,这场变革同样近在咫尺。黄仁勋描绘了未来的职场新形态:在未来,我们公司的每一位工程师都需要一个年度Token预算。他们的基础年薪可能是几十万美元,我会在此基础上再拿出大约一半的金额作为Token额度给他们,让他们实现10x的效率提升。这已经是硅谷的新招聘筹码了:你的offer里带多少Token?演讲最后,黄仁勋还“剧透”了下一代计算架构Feynman,它将首次实现铜线与CPO的共同水平扩展。更引人遐想的是,英伟达正在研发部署在太空的数据中心计算机“Vera Rubin Space-1”,彻底打开了AI算力向地球之外延伸的想象空间。黄仁勋GTC 2026演讲全文,全文翻译如下(AI工具辅助):主持人: 欢迎英伟达创始人兼首席执行官黄仁勋上台。黄仁勋,创始人兼首席执行官:欢迎来到GTC。我想提醒大家,这是一场技术大会。能看到这么多人一大早排队入场,能看到在座的各位,我感到非常高兴。在GTC,我们将聚焦三大主题:技术、平台和生态系统。英伟达目前拥有三大平台:CUDA-X平台、系统平台,以及我们最新推出的AI工厂平台。在正式开始之前,我要感谢我们的预热环节主持人——Conviction的Sarah Guo、红杉资本的Alfred Lin(英伟达的第一位风险投资人),以及英伟达的第一位主要机构投资人Gavin Baker。这三位对技术有深刻的洞见,在整个技术生态系统中拥有极广的影响力。当然,我还要感谢今天所有我亲自邀请出席的贵宾们。感谢这支全明星团队。我同样要感谢今天到场的所有企业。英伟达是一家平台公司,我们拥有技术、平台和丰富的生态系统。今天到场的企业代表了价值100万亿美元行业中几乎全部的参与者,共有450家公司赞助了本次活动,在此深表感谢。本次大会共设有1,000场技术论坛、2,000位演讲嘉宾,将覆盖人工智能"五层蛋糕"架构的每一个层级——从土地、电力与机房等基础设施,到芯片、平台、模型,以及最终推动整个行业腾飞的各类应用。CUDA:二十年的技术积淀一切的起点,就在这里。今年是CUDA诞生二十周年。二十年来,我们始终致力于这一架构的研发。CUDA是一项革命性的发明——SIMT(单指令多线程)技术允许开发者以标量代码编写程序,并将其扩展为多线程应用,其编程难度远低于此前的SIMD架构。我们最近还新增了Tiles功能,帮助开发者更便捷地编程张量核心(Tensor Core),以及当今人工智能所依赖的各类数学运算结构。目前,CUDA已拥有数千种工具、编译器、框架和库,在开源社区中存在数十万个公开项目,并已深度集成到每一个技术生态系统之中。这张图表揭示了英伟达100%的战略逻辑,我从最初就一直在讲这张幻灯片。其中最难实现、也是最核心的要素,是图表底部的"装机量"。历经二十年,我们已在全球范围内积累了数亿块运行CUDA的GPU和计算系统。我们的GPU覆盖所有云平台,服务于几乎所有计算机厂商和行业。CUDA庞大的装机量,正是这个飞轮不断加速的根本原因。装机量吸引开发者,开发者创造新算法并取得突破,突破催生全新市场,新市场形成新生态并吸引更多企业加入,进而扩大装机量——这个飞轮正在持续加速。英伟达库的下载量正以惊人的速度增长,规模庞大且增速不断提升。这个飞轮使我们的计算平台能够支撑海量应用和层出不穷的新突破。更重要的是,它还赋予了这些基础设施极长的使用寿命。原因显而易见:NVIDIA CUDA上可运行的应用极为丰富,涵盖AI生命周期的每个阶段、各类数据处理平台,以及各种科学原理求解器。因此,一旦安装了英伟达GPU,其实际使用价值极高。这也是为何我们六年前发布的Ampere架构GPU,其云端价格反而在上涨。这一切的根本原因在于:装机量庞大,飞轮强劲,开发者生态广泛。当这些因素共同发挥作用,加之我们持续更新软件,计算成本便会不断下降。加速计算在大幅提升应用性能的同时,随着我们长期维护和迭代软件,用户不仅能在初期获得性能跃升,还能持续享受计算成本的下降。我们愿意为全球每一块GPU提供长期支持,因为它们在架构上完全兼容。我们之所以愿意这样做,是因为装机量如此庞大——每发布一次新的优化,便能惠及数百万用户。这种动态组合,使得英伟达架构在持续扩大覆盖范围、加速自身成长的同时,不断压低计算成本,最终刺激新的增长。CUDA是这一切的核心。从GeForce到CUDA:二十五年的演进之路而我们与CUDA的旅程,实际上早在二十五年前就已开始。GeForce——相信在座有很多人是伴随着GeForce长大的。GeForce是英伟达最成功的市场推广项目。我们从你们还买不起产品的时候就开始培养未来的客户——是你们的父母代替你们成为了英伟达最早的用户,年复一年地购买我们的产品,直到有一天,你们成长为优秀的计算机科学家,成为真正意义上的客户和开发者。这是二十五年前GeForce奠定的基业。二十五年前,我们发明了可编程着色器——这是让加速器实现可编程化的一项显而易见却意义深远的发明,也是世界上第一款可编程加速器,即像素着色器。这五年后,我们创造了CUDA——这是我们有史以来最重要的投资之一。当时公司财力有限,但我们将绝大部分利润押注于此,致力于将CUDA从GeForce延伸到每一台计算机。我们之所以如此坚定,是因为我们深信其潜力。尽管初期历经艰辛,公司坚守这一信念长达13代、整整二十年,如今CUDA已无处不在。正是像素着色器推动了GeForce的革命。而大约八年前,我们推出了RTX——为现代计算机图形时代对架构进行了全面革新。GeForce将CUDA带给了全世界,也正因如此,让Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton、Andrew Ng等众多学者发现,GPU可以成为加速深度学习的利器,由此点燃了十年前人工智能的大爆炸。十年前,我们决定将可编程着色与两个全新理念相融合:一是硬件光线追踪(Ray Tracing),这在技术上极具挑战;二是一个当时颇具前瞻性的想法——大约十年前,我们就预见到AI将彻底变革计算机图形。正如GeForce将AI带给了全世界,AI如今也将反过来重塑整个计算机图形的实现方式。今天,我要向大家展示未来。这是我们的下一代图形技术,我们称之为神经渲染(Neural Rendering)——3D图形与人工智能的深度融合。这就是DLSS 5,请看。神经渲染:结构化数据与生成式AI的融合这是不是令人叹为观止?计算机图形就此焕发生机。我们做了什么?我们将可控的3D图形(虚拟世界的真实基础)与其结构化数据相结合,再融入生成式AI和概率计算。一个完全确定性,另一个概率性却高度逼真——我们将这两种理念融为一体,通过结构化数据实现精准可控,同时进行实时生成。最终,内容既美观惊艳,又完全可控。结构化信息与生成式AI融合这一理念,将在一个又一个行业中不断复现。结构化数据是可信AI的基石。结构化数据与非结构化数据的加速平台现在我要带大家看一张技术架构图。结构化数据——大家熟悉的SQL、Spark、Pandas、Velox,以及Snowflake、Databricks、Amazon EMR、Azure Fabric、Google BigQuery等重要平台,都在处理数据框(Data Frame)。这些数据框就像巨型电子表格,承载着商业世界的全部信息,是企业计算的基本事实(Ground Truth)。在AI时代,我们需要让AI来使用结构化数据,并对其实现极致加速。过去,加速结构化数据处理是为了让企业更高效地运转。而未来,AI将以远超人类的速度使用这些数据结构,AI智能体也将大量调用结构化数据库。非结构化数据方面,向量数据库、PDF、视频、音频等构成了世界上绝大多数的数据形态——每年生成的数据中,约90%是非结构化数据。过去,这些数据几乎完全无法被利用:我们读取它们,存入文件系统,仅此而已。我们无法查询,也难以检索,原因在于非结构化数据缺乏简单的索引方式,必须理解其含义与语境。而现在,AI可以做到这一点——借助多模态感知与理解技术,AI能够读取PDF文档、理解其含义,并将其嵌入可供查询的更大结构之中。英伟达为此创建了两个基础库:cuDF:用于数据框、结构化数据的加速处理cuVS:用于向量存储、语义数据和非结构化AI数据的处理这两个平台将成为未来最重要的基础平台之一。今天,我们宣布与多家企业达成合作。IBM——SQL语言的发明者,将使用cuDF加速其WatsonX Data平台。Dell与我们联合打造了Dell AI数据平台,整合cuDF与cuVS,并在NTT Data的实际项目中实现了大幅性能提升。Google Cloud方面,我们现在不仅加速Vertex AI,还加速BigQuery,并与Snapchat合作将其计算成本降低了近80%。加速计算带来的好处是三位一体的:速度、规模、成本。这与摩尔定律的逻辑一脉相承——通过加速计算实现性能飞跃,同时持续优化算法,让所有人都能享受到持续下降的计算成本。英伟达构建了加速计算平台,其上汇聚了众多库:RTX、cuDF、cuVS等等。这些库整合进全球云服务和OEM体系,共同触达全球用户。与云服务商的深度合作与主要云服务商的合作Google Cloud:我们加速Vertex AI和BigQuery,与JAX/XLA深度集成,同时在PyTorch上表现卓越——英伟达是全球唯一一家在PyTorch和JAX/XLA上均表现出色的加速器。我们将Base10、CrowdStrike、Puma、Salesforce等客户引入Google Cloud生态。AWS:我们加速EMR、SageMaker和Bedrock,与AWS有着深度集成。今年令我格外兴奋的是,我们将把OpenAI引入AWS,这将大幅推动AWS云计算的消耗增长,帮助OpenAI扩展区域部署和计算规模。Microsoft Azure:英伟达100 PFLOPS超算是我们构建的第一台超级计算机,也是第一台部署在Azure上的超算,这奠定了与OpenAI合作的重要基础。我们加速Azure云服务和AI Foundry,合作推进Azure区域扩展,并在Bing搜索上深度协作。值得一提的是,我们的**保密计算(Confidential Computing)**能力——确保即便是运营商也无法查看用户数据和模型——英伟达GPU是全球首批支持保密计算的GPU,可支持OpenAI和Anthropic模型在全球各地区云环境中的保密部署。以Synopsys为例,我们加速其全部EDA和CAD工作流,并部署于Microsoft Azure。Oracle:我们是Oracle的第一个AI客户,我为能够第一次向Oracle解释AI云的概念感到自豪。此后他们发展迅猛,我们也为其引入了Cohere、Fireworks、OpenAI等众多合作伙伴。CoreWeave:全球第一家AI原生云,专为GPU托管和AI云服务而生,拥有出色的客户群,增长势头强劲。Palantir + Dell:三方联合打造了全新的AI平台,基于Palantir的本体论平台(Ontology Platform)和AI平台,可在任何国家、任何气隙隔离环境下、完全本地化地部署AI——从数据处理(向量化或结构化)到AI的完整加速计算栈,无所不包。英伟达与全球云服务商建立了这种特殊的合作关系——我们将客户引入云端,这是一种互利共赢的生态。垂直整合,横向开放:英伟达的核心战略英伟达是全球第一家垂直整合、横向开放的公司。这一模式的必要性非常简单:加速计算不是芯片问题,也不是系统问题,其完整表述应为应用加速。CPU可以让计算机整体运行得更快,但这条路已走到瓶颈。未来,唯有通过应用或领域特定的加速,才能持续带来性能飞跃和成本下降。这正是英伟达必须深耕一个又一个库、一个又一个领域、一个又一个垂直行业的原因。我们是一家垂直整合的计算公司,没有其他路可走。我们必须理解应用,理解领域,深刻理解算法,并能够将其部署在任何场景下——数据中心、云端、本地、边缘乃至机器人系统。同时,英伟达保持横向开放,愿意将技术整合进任何合作伙伴的平台,让全世界都能享受到加速计算的红利。本届GTC的参会者结构充分体现了这一点。本次参会者中,金融服务行业的比例最高——希望来的是开发者,不是交易员。我们的生态系统覆盖了上游和下游供应链。无论是成立50年、70年还是150年的企业,去年都迎来了历史最佳年份。我们正处于某件非常、非常重大的事情的起点。CUDA-X:各行业的加速计算引擎在各个垂直领域,英伟达均已深度布局:自动驾驶:覆盖范围广泛,影响深远金融服务:量化投资正从人工特征工程转向超级计算机驱动的深度学习,迎来其"Transformer时刻"医疗健康:正在迎来属于自己的"ChatGPT时刻",涵盖AI辅助药物发现、AI智能体支持诊断、医疗客服等方向工业:全球规模最大的建设浪潮正在展开,AI工厂、芯片厂、数据中心厂纷纷落地娱乐与游戏:实时AI平台支持翻译、直播、游戏互动,以及智能购物代理机器人:深耕十余年,三大计算机架构(训练计算机、仿真计算机、机载计算机)齐备,本次展会共有110款机器人亮相电信:约2万亿美元规模的行业,基站将从单一通信功能演进为AI基础设施平台,相关平台名为Aerial,与诺基亚、T-Mobile等企业均有深度合作以上所有领域的核心,正是我们的CUDA-X库——这是英伟达作为算法公司的根本所在。这些库是公司最核心的资产,让计算平台得以在各个行业发挥实际价值。其中最重要的库之一,是cuDNN(CUDA深度神经网络库),它彻底革新了人工智能,引发了现代AI的大爆炸。大家刚才看到的一切都是仿真——包括基于物理原理的求解器、AI代理物理模型,以及物理AI机器人模型。一切均为仿真,没有任何手工动画或关节绑定。这正是英伟达的核心能力所在:通过对算法的深刻理解与计算平台的有机结合,解锁这些机遇。AI原生企业与新计算时代你们刚才看到了沃尔玛、欧莱雅、摩根大通、罗氏、丰田等定义当今社会的行业巨头,也有一大批大家从未听说过的公司——我们称之为AI原生企业。这份名单极为庞大,里面有OpenAI、Anthropic,以及众多服务于不同垂直领域的新兴企业。过去两年,这一行业经历了惊人的腾飞。风险投资流入初创企业的资金规模达到1,500亿美元,创人类历史之最。更重要的是,单笔投资规模首次从数百万美元跃升至数亿乃至数十亿美元。原因只有一个:这是史上第一次,每一家此类公司都需要大量计算资源和大量token。这个行业正在创造、生成token,或者为来自Anthropic、OpenAI等机构的token增值。正如PC革命、互联网革命、移动云革命各自孕育出一批划时代的企业,这一代计算平台变革同样将诞生一批极具影响力的公司,成为未来世界的重要力量。推动这一切的三大历史性突破过去两年究竟发生了什么?三件大事。第一:ChatGPT,开启生成式AI时代(2022年底至2023年)它不仅能感知和理解,还能生成独特内容。我展示了生成式AI与计算机图形的融合。生成式AI从根本上改变了计算的方式——计算从检索式转变为生成式,这深刻影响着计算机架构、部署方式和整体意义。第二:推理AI(Reasoning AI),以o1为代表推理能力使AI能够自我反思、规划、分解问题——将它无法直接理解的问题拆解为可处理的步骤。o1让生成式AI变得可信,能够依据真实信息进行推理。为此,输入context的token量和用于思考的输出token量大幅增加,计算量随之显著提升。第三:Claude Code,首个智能体模型它能读取文件、编写代码、编译、测试、评估并迭代。Claude Code彻底革新了软件工程——英伟达100%的工程师都在使用Claude Code、Codex和Cursor中的一种或多种,没有一位软件工程师不借助AI助力。这是一个全新的拐点——你不再是询问AI"是什么、在哪里、怎么做",而是让它"创建、执行、构建",让它主动使用工具、读取文件、分解问题、付诸行动。AI从感知,到生成,到推理,再到如今真正能够完成工作。过去两年,推理所需的计算量增长了约10,000倍,使用量增长了约100倍。我一直认为,过去两年计算需求增长了100万倍——这是所有人的共同感受,是OpenAI的感受,是Anthropic的感受。如果能获得更多算力,就能生成更多token,收入就会提升,AI就会变得更智能。推理拐点已然到来。万亿美元的AI基础设施时代去年此时,我在这里表示,我们对Blackwell和Rubin在2026年之前的需求和采购订单有高度信心,规模约为5,000亿美元。今天,在GTC一年之后,我站在这里告诉大家:展望到2027年,我看到的数字至少是1万亿美元。而且我确信,实际的计算需求将远不止于此。2025:英伟达推理年2025年是英伟达的推理年(Year of Inference)。我们希望确保,在训练和后训练之外,也能在AI生命周期的每个阶段都保持卓越,使已投资的基础设施能够持续高效运转,且有效使用寿命越长,单位成本越低。与此同时,Anthropic和Meta正式加入NVIDIA平台,与此共同代表了全球三分之一的AI算力需求。开源模型已接近前沿水平,无处不在。英伟达是目前全球唯一一个能够运行所有AI领域——语言、生物学、计算机图形、计算机视觉、语音、蛋白质与化学、机器人等——所有AI模型的平台,无论边缘还是云端,无论何种语言。英伟达架构对所有这些场景均具备通用性,这使我们成为成本最低、置信度最高的平台。目前,英伟达60%的业务来自全球前五大超大规模云服务商,剩余40%遍布区域云、主权云、企业、工业、机器人、边缘计算等各个领域。AI的覆盖广度本身就是其韧性所在——这毫无疑问是一次全新的计算平台变革。Grace Blackwell与NVLink 72:大胆的架构革新在Hopper架构还处于鼎盛时期,我们就决定彻底重新架构系统,将NVLink从8路扩展为NVLink 72,对计算系统进行全面分解重构。Grace Blackwell NVLink 72是一次巨大的技术押注,对所有合作伙伴而言都不容易,在此向所有人表示诚挚感谢。同时,我们推出了NVFP4——不只是普通的FP4,而是一种全新类型的张量核心和计算单元。我们已经证明,NVFP4可以在无精度损失的情况下实现推理,同时带来巨大的性能提升和能效提升,并且同样适用于训练。此外,Dynamo和TensorRT-LLM等一系列新算法相继问世,我们甚至为优化内核而专门投入数十亿美元建造了一台超级计算机,称之为DGX Cloud。结果证明,我们的推理性能令人瞩目。来自Semi Analysis的数据——这是迄今为止最全面的AI推理性能评测——显示英伟达在每瓦token数和每token成本两个维度上均遥遥领先。原本摩尔定律可能给H200带来1.5倍的性能提升,但我们做到了35倍。Semi Analysis的Dylan Patel甚至说:"黄仁勋保守了,实际上是50倍。"他说得没错。我在此援引他的话:"Jensen sandbagged(黄仁勋保守报数)。"英伟达的每token成本是全球最低,目前无人能及。原因正在于极致协同设计(Extreme Co-design)。以Fireworks为例,在英伟达更新全套软件和算法之前,其平均token速度约为每秒700个;更新后接近每秒5,000个,提升约7倍。这就是极致协同设计的力量。AI工厂:从数据中心到token工厂数据中心过去是存储文件的地方,现在它是生产token的工厂。每一家云服务商、每一家AI公司,未来都将以"token工厂效率"作为核心经营指标。这是我的核心论点:纵轴:吞吐量(Throughput)——在固定功率下每秒生成的token数横轴:交互速度(Token Speed)——每次推理的响应速度,速度越快,可使用的模型越大、context越长,AI越智能token是新的大宗商品,一旦成熟,将分层定价:免费层(高吞吐、低速度)中级层(~每百万token 3美元)高级层(~每百万token 6美元)高速层(~每百万token 45美元)超高速层(~每百万token 150美元)与Hopper相比,Grace Blackwell在最高价值层提升了35倍吞吐量,并引入全新层级。以简化模型估算,将25%功率分别分配给四个层级,Grace Blackwell可比Hopper多产生5倍的收入。Vera Rubin:下一代AI计算系统(播放Vera Rubin系统介绍视频)Vera Rubin是一个完整的、端到端优化的系统,专为智能体(Agentic)工作负载设计:大型语言模型计算核心:NVLink 72 GPU集群,处理前填充(Prefill)和KV Cache全新Vera CPU:专为极高单线程性能设计,采用LPDDR5内存,兼具卓越能效,是全球唯一使用LPDDR5的数据中心CPU,适合AI智能体工具调用存储系统:BlueField 4 + CX 9,面向AI时代的全新存储平台,全球存储行业100%加入CPO Spectrum X交换机:全球首款共封装光学以太网交换机,已全面量产Kyber机架:全新机架系统,支持144块GPU组成单一NVLink域,前端计算、后端NVLink交换,形成一台巨型计算机Rubin Ultra:下一代超算节点,竖插式设计,配合Kyber机架,支持更大规模NVLink互联Vera Rubin已100%液冷,安装时间从两天缩短至两小时,采用45°C热水冷却,大幅降低数据中心冷却压力。这次Satya(纳德拉)已发文确认,首台Vera Rubin机架已在微软Azure上线运行,我为此深感振奋。Groq整合:推理性能的极致延伸我们收购了Groq团队并获得其技术授权。Groq是一种确定性数据流处理器(Deterministic Dataflow Processor),采用静态编译和编译器调度,拥有大量SRAM,专为推理单一工作负载优化,具备极低延迟和极高token生成速度。然而,Groq的内存容量有限(500MB片上SRAM),难以独立承载大模型的参数和KV Cache,限制了其大规模应用。解决方案正是Dynamo——一套推理调度软件。我们通过Dynamo将推理管线解聚(Disaggregate):**前填充(Prefill)及注意力机制的解码(Decode)**在Vera Rubin上完成(需要大量算力和KV Cache存储)**前馈网络解码(Feed-Forward Network Decode)**即token生成部分,在Groq上完成(需要极高带宽和低延迟)两者通过以太网紧密耦合,借助特殊模式将延迟减少约一半。在Dynamo这一"AI工厂操作系统"的统一调度下,整体性能提升35倍,并开辟了NVLink 72此前无法触及的全新推理性能层级。Groq与Vera Rubin的组合建议:若工作负载以高吞吐为主,使用100% Vera Rubin若大量工作负载为代码生成等高价值token生成,可引入Groq,建议比例约为25% Groq + 75% Vera RubinGroq LP30由三星代工,目前已进入量产,预计Q3开始出货。感谢三星的全力配合。推理性能的历史性飞跃将此前技术进步量化:在2年时间内,1吉瓦AI工厂的token生成速率将从2,200万token/秒提升至7亿token/秒,提升350倍。这就是极致协同设计的力量。技术路线图Blackwell:当前在产,Oberon标准机架系统,铜缆扩展至NVLink 72,可选光学扩展至NVLink 576Vera Rubin(当前):Kyber机架,NVLink 144(铜缆);Oberon机架,NVLink 72 + 光学,扩展至NVLink 576;Spectrum 6,全球首款CPO交换机Vera Rubin Ultra(即将推出):新一代Rubin Ultra GPU,LP35芯片(首次集成NVFP4),进一步提升数倍性能Feynman(下一代):全新GPU,LP40芯片(由英伟达与Groq团队联合打造,集成NVFP4);全新CPU——Rosa(Rosalyn);BlueField 5;CX 10;同时支持铜缆和CPO两种扩展方式的Kyber机架路线图明确:铜缆扩展、光学扩展(Scale-Up)、光学扩展(Scale-Out)三条路线并行推进,我们需要所有合作伙伴在铜缆、光纤和CPO方面持续扩产。NVIDIA DSX:AI工厂的数字孪生平台AI工厂越来越复杂,但组成它的各类技术供应商过去从未在设计阶段相互协作,直到在数据中心才"相遇"——这显然不够。为此,我们创建了Omniverse,以及基于其上的NVIDIA DSX平台——一个供所有合作伙伴在虚拟世界中共同设计和运营吉瓦级AI工厂的平台。DSX提供:机架级机械、热学、电气、网络仿真系统与电网的连接,实现协同节能调度数据中心内基于Max-Q的动态功耗和冷却优化保守估计,这套系统可将能源利用效率提升约2倍,在我们谈论的规模上,这是非常可观的收益。Omniverse从数字地球开始,将承载各种规模的数字孪生,我们正与全球合作伙伴共同构建人类历史上最大的计算机。此外,英伟达正在进军太空。Thor芯片已通过辐射认证,正在卫星中运行。我们正与合作伙伴开发Vera Rubin Space-1,用于建设太空数据中心。在太空中只能依靠辐射散热,热管理是核心挑战,我们正集结顶尖工程师攻关。OpenClaw:智能体时代的操作系统Peter Steinberger开发了一款名为OpenClaw的软件。这是人类历史上最受欢迎的开源项目,在短短几周内便超越了Linux三十年的成就。OpenClaw本质上是一个智能体系统(Agentic System),能够:管理资源,访问工具、文件系统和大型语言模型;执行调度、定时任务;将问题逐步分解,并调用子智能体;支持任意模态的输入输出(语音、视频、文字、邮件等)。用操作系统的语法来描述,它确实就是一个操作系统——智能体计算机的操作系统。Windows让个人计算机成为可能,OpenClaw让个人智能体成为可能。每一家企业都需要制定自己的OpenClaw战略,正如我们都需要Linux策略、HTML策略、Kubernetes策略一样。企业IT的全面重塑OpenClaw之前的企业IT:数据和文件进入系统,流经工具和工作流,最终变成供人类使用的工具。软件公司创建工具,系统集成商(GSI)和咨询公司帮助企业使用这些工具。OpenClaw之后的企业IT:每一家SaaS公司都将转变为AaaS(Agentic as a Service,智能体即服务)公司——不只是提供工具,而是提供专精特定领域的AI智能体。但这里有一个关键挑战:企业内部的智能体可以访问敏感数据、执行代码、与外部通信。这在企业环境中必须得到严格管控。为此,我们与Peter合作,将安全性融入企业级版本,推出了:NeMo Claw(参考设计):基于OpenClaw的企业级参考框架,集成NVIDIA的全套智能体AI工具包Open Shield(安全层):已集成至OpenClaw,提供策略引擎、网络护栏、隐私路由,确保企业数据安全NeMo Cloud:可下载使用,并与所有SaaS企业的策略引擎对接这是企业IT的文艺复兴,一个原本2万亿美元规模的产业,即将成长为数万亿美元规模,从提供工具转向提供专业化的AI智能体服务。我完全可以预见:未来,公司里的每一位工程师都将拥有年度token预算。他们年薪可能是几十万美元,我会额外给他们相当于薪资一半的token配额,让他们的产出放大10倍。"入职附带多少token配额"已经成为硅谷的新晋招聘话题。每一家企业未来都将既是token的使用者(供工程师使用),也是token的生产者(为其客户提供服务)。OpenClaw的意义不可低估,它和HTML、Linux一样重要。NVIDIA开放模型倡议在自定义智能体(Custom Claw)方面,我们提供了NVIDIA自研的前沿模型:模型领域Nemotron大型语言模型Cosmos世界基础模型(World Foundation Model)GROOT通用人形机器人模型Alpamayo自动驾驶BioNeMo数字生物学Phys-AIAI物理我们在每一个领域都处于技术前沿,并承诺持续迭代——Nemotron 3之后有Nemotron 4,Cosmos 1之后有Cosmos 2,Groq也将迭代到第二代。Nemotron 3在OpenClaw中名列全球三大最佳模型之列,处于前沿水平。Nemotron 3 Ultra将成为有史以来最强的基础模型,支持各国构建主权AI。今天,我们宣布成立Nemotron联盟,投资数十亿美元推进AI基础模型研发。联盟成员包括:BlackForest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection、Sarvam(印度)、Thinking Machines(Mira Murati的实验室)等。一个又一个企业软件公司加入,将NeMo Claw参考设计和NVIDIA智能体AI工具包整合到自身产品中。物理AI与机器人数字智能体在数字世界中行动——撰写代码、分析数据;而物理AI则是具身化的智能体,也就是机器人。本次GTC共有110款机器人亮相,几乎囊括了全球所有机器人研发企业。英伟达提供三台计算机(训练计算机、仿真计算机、机载计算机)和完整的软件栈及AI模型。自动驾驶方面,自动驾驶的"ChatGPT时刻"已经到来。今天,我们宣布四家新合作伙伴加入英伟达RoboTaxi Ready平台:比亚迪、现代、日产、吉利,合计年产量1,800万辆。加上此前的奔驰、丰田、通用,阵容进一步壮大。我们同时宣布与Uber达成重大合作,将在多个城市部署并接入RoboTaxi Ready车辆。工业机器人方面,ABB、Universal Robotics、KUKA等众多机器人企业与我们合作,将物理AI模型与仿真系统相结合,推动机器人在全球制造产线的落地。电信方面,卡特彼勒(Caterpillar)和T-Mobile也在其列。未来,无线基站将不再只是一个通信节点,而是一个NVIDIA Aerial AI RAN——能够实时感知流量、调整波束成形,实现节能增效的智能化边缘计算平台。特别环节:Olaf机器人亮相(播放Disney Olaf机器人演示视频)黄仁勋: 雪人登场!Newton运行正常!Omniverse也运行正常!Olaf,你好吗?Olaf: 见到你我真的太开心了。黄仁勋: 是的,因为是我给了你计算机——Jetson!Olaf: 那是什么?黄仁勋: 就在你的肚子里。Olaf: 太神奇了。黄仁勋: 你是在Omniverse里学会走路的。Olaf: 我喜欢走路。这比骑驯鹿仰望美丽的天空好多了。黄仁勋: 这正是因为物理仿真——基于NVIDIA Warp运行的Newton求解器,这是我们与Disney和DeepMind联合开发的,让你能够适应真实的物理世界。Olaf: 我正想说这个。黄仁勋: 这就是你聪明的地方。我是雪人,不是雪球。黄仁勋: 你能想象吗?未来的迪士尼乐园——所有这些机器人角色在园区里自由漫步。不过说实话,我以为你会更高一些。我从没见过这么矮的雪人。Olaf: (不置可否)黄仁勋: 来帮我结束今天的演讲好吗?Olaf: 太棒啦!主题演讲总结黄仁勋:今天,我们共同探讨了以下核心主题:推理拐点的到来:推理已成为AI最核心的工作负载,token是新的大宗商品,推理性能直接决定收入AI工厂时代:数据中心已从文件存储设施演变为token生产工厂,未来每家公司都将以"AI工厂效率"来衡量自身竞争力OpenClaw智能体革命:OpenClaw开启了智能体计算时代,企业IT正在从工具时代走向智能体时代,每家企业都需要制定OpenClaw战略物理AI与机器人:具身智能正在规模化落地,自动驾驶、工业机器人、人形机器人共同构成物理AI的下一个重大机遇感谢大家,GTC愉快!- END -本文系转载,不构成任何投资建议,如有任何问题,敬请读者与账号编辑联系:xsychief。▼ 往期精彩回顾 ▼128GSPS!国产高端射频直采ADC震撼首发实地参访+硬核沙龙,探秘珠海·横琴“芯”势力追觅为什么要做芯片?英诺赛科宣布:公司GaN产品获批准进入美国【有奖直播】onsemi SiC 和 PIM 产品介绍及其在光伏和储能领域的应用黄仁勋罕见发长文:APP形态或将消失长电科技汽车电子公司投产,剑指车规与机器人芯片封测新高地!存储芯片暴涨之后,OPPO打响手机涨价第一枪AI驱动高端MLCC转卖方市场,国产厂商如何接招抓住风口?传模拟芯片巨头又涨价!推荐关注

来源:芯师爷发布时间:2026-03-17
【福州海装展】供采直通车第三期|2026海装采购需求+海事招标出炉

供采直通车春日启新程,商机正当时!中国海洋装备博览会打造专属的「供采直通车」如约发车,2026年第三批企业采购需求与海事招标信息新鲜出炉,为海洋装备行业的供需对接架起高效快车道。本次发布的信息涵盖海事系统服务招标、船用通用配件、知名品牌外机零部件、各类二手船舶等热门品类,多数为长期采购需求,更有实盘采购信息同步放送,部分采购商已明确计划在展会现场完成洽谈签约,一手行业商机,速来查收!企业需求,长期采购,量大管够采购企业厦门维奥机电有限公司01联系信息联系人:周爱民联系方式:133****0901(为保证采购商隐私,请联系组委会李经理18850398177,获取采购商联系方式)采购产品:高密度聚乙烯采购时效:长期采购要求:高密度聚乙烯(聚乙烯),HDPE(PE-HD),品牌HD-EX5(HM9450F),制造商:中国。备注:产品的价格为2026年3月,在买方的免费运输条款。 我们对长期、互利的合作感兴趣。采购产品:温室的框架采购时效:长期采购要求:大约尺寸为2米高,2.5米宽,3或4米长。 数量为300件。 框架材料是可能的-金属,塑料和充气选项也感兴趣。三种材料的,金属,塑料,还有充气的可以推荐。采购产品:二手锚采购时效:长期采购要求:二手锚5个(C型霍尔锚6.9吨,尺寸2393*3018*1105)采购产品:红外热像仪采购时效:长期采购要求:4)Caddx IRC-640CA640x512红外热像仪50pcs(品牌不限)采购企业台州长隆船舶贸易有限公司01联系信息联系人:周**联系方式:132****2222(为保证采购商隐私,请联系组委会李经理18850398177,获取采购商联系方式)采购产品:内贸散货船采购时效:长期采购要求:2010-2018年的16000-20000吨的内贸散货船采购产品:后驾集装箱船采购时效:长期采购要求:2010左右7000-9000吨后驾集装箱船采购产品:ccs油船采购时效:长期采购要求:2012年以后,6000吨以上ccs油船,主机要安庆、陕西、淄博的招标信息专区广东省国土资源测绘院 2026-2027年度海洋测绘作业船租赁项目湖口县长江鄱阳湖水生生物保护救助中心江西湖口长江江豚迁地保护基地项目固定式水上看护船等管护设施采购项目浙江省海洋地质调查大队省级基础性公益性战略性地质矿产专项租船项目玉环市海洋经济发展局玉环市海洋经济发展局渔政船33023年度维修项目浙江省海洋维权巡航执法基地浙江省海洋维权巡航执法基地2026年度执法船航修项目深圳市体育运动学校2026年船艇专项训练、比赛服装器材【福州海装展·供采直通车】将持续发布采购信息敬请关注让信息跑在展会前面,让交易发生在展会里面。2026.10.16-19 · 中国|福州第4届中国海洋装备博览会期待您的莅临第四届中国海洋装备博览会展期:2026年10月16日-19日地点:福州海峡国际会展中心官方公众号官方小程序官方视频号官方抖音号

来源:海洋装备博览会发布时间:2026-03-17
广州打捞局深水起重船,开工

3月16日,上海振华重工集团为广州打捞局建造的深水起重船项目在振华海工举行开工仪式。该船总长138米、型宽55米、型深10米,设计吃水6.5米,定员150人,具备无限航区航行能力,排放满足TierIII标准。该船配备国内最长142米桩腿,具备国内最大的90米水深插桩式作业能力,可实现甲板以上210米吊高作业能力,并安装国内1600吨级最高吊高绕桩式起重机,是国内目前在建最高、最深的插桩式深水起重船。该船采用全电力驱动,通过4台全回转推进器的科学布置极大提高了DP2动力定位能力,具备复杂海况下高稳定性抢险打捞作业能力。该船采用多任务设计理念,可用于近海风电场风机基座、支撑塔架、机舱及叶片的运输和吊装作业,并且兼顾平台维修、平台生活支持等能力,实现“一船多用、全域适配”。该船建成后,将主要用于我国管辖海域90米以内的应急抢险打捞任务,兼顾海上风电、海洋油气等工程作业需求,是上海振华重工集团服务国家战略、打造高端海工装备的又一重要成果,也将为我国海洋强国建设提供重要装备支撑。来源:振华海工- END -↓↓↓↓点击阅读原文看更多新闻

来源:龙船风电网发布时间:2026-03-17
请抓紧时间清零!

今年伊始一次性信用修复政策落地网友纷纷晒图贷款逾期记录“清零了”你的个人信用报告更新了吗?△网友晒出的征信报告截图现在“末班车”仅剩半个月中山市民可主动还款重塑信用错过将不再有!随着2026年3月31日的临近,中国人民银行此前发布的一次性信用修复政策进入最后半个月窗口期:符合条件的个人如在期限内足额偿还逾期债务,相关逾期记录将不再在金融信用信息基础数据库中展示。中国人民银行中山市分行提醒广大市民把握最后时机,同时警惕以“债务优化”为名的诈骗行为。2025年12月22日,中国人民银行正式发布一次性信用修复政策相关通知:2020年1月1日至2025年12月31日期间产生的单笔不超过1万元个人信贷逾期,只要在2026年3月31日前足额还清,征信报告就不再展示该笔逾期记录。免 申 即 享此次政策实行“免申即享”模式,个人无需递交任何材料、无需申请和无需操作,央行征信系统会自动识别、统一处理符合条件的逾期信息,全程不收取任何费用,也无需第三方代理,为信用受损但积极履约的个人提供了便捷的信用重塑渠道。政策落地后,中山已有市民切实享受到政策红利。市民杨某便是其中之一,截至2025年12月28日,其在某银行的住房贷款已连续逾期39天,在了解到一次性信用修复政策后,杨某立刻筹措资金完成足额还款。2026年2月,杨某该笔贷款的逾期记录成功完成修复。随着2026年3月31日政策截止日期的临近,留给市民的还款“纠错”时间仅剩半个月。中国人民银行中山市分行特别提醒,符合政策条件的逾期主体,务必把握这最后窗口期,及时足额偿还逾期债务,避免错失此次政策红利。同时,中国人民银行中山市分行也特别提醒:本次信用修复为官方政策,全程免费、免申即享。任何以“信用修复”“债务优化”“过桥垫资”等名义索要钱财或个人信息的行为均属诈骗,请广大市民提高警惕,谨防上当。中山发布编辑部编辑:黄冬昱美编:陈泰玉执行总编辑:黄健斌总编辑:李华炎来源:中山+

来源:中山发布发布时间:2026-03-17
共77745条记录
  • 1
  • 2
  • 3
  • 4
  • 6479

产业专题

产业大脑平台

产业经济-监测、分析、

研判、预警

数智招商平台

找方向、找目标、管过程

产业数据库

产业链 200+

产业环节 10000+

产业数据 100亿+

企业数据库

工商 司法 专利

信用 风险 产品

招投标 投融资

报告撰写AI智能体

分钟级生成各类型报告