五度易链产业数字化管理平台
战略转型加速!铠侠再发停产通知:将退出2D NAND市场

快科技4月1日消息,据媒体报道,存储芯片厂商铠侠(Kioxia)31日再次向客户发布最新停产通知,宣布部分传统浮栅式(FloatingGate)2D NAND以及第三代BiCSFLASH产品将逐步退出市场。 具体涉及的产品包括基于32/24/15nm制程(SLC/MLC/TLC)的浮栅式和BiCS Flash Gen3晶圆、BGA、TSOP、eMMC、UFS、普通SD。 铠侠表示,最后采购预测(即客户最后一次下单数量)期限为2026年9月30 日,最后出货时间为2028年12月31日。这意味着2029年时,铠侠将正式退出2D NAND 市场。 值得注意的是,3月16日,铠侠就曾向客户发布停产通知,宣布停产采用“薄型小尺寸封装”(TSOP)的MLC NAND闪存产品。 行业分析指出,MLC NAND单位价值较低,而当前AI热潮显著推升了高性能TLC/QLC闪存的需求。铠侠等头部厂商正将资源向高附加值产品倾斜。 【本文结束】如需转载请务必注明出处:快科技 责任编辑:鹿角 文章内容举报

来源:快科技发布时间:2026-04-01
华强北商户开始抛售内存条:我们成本1000多点 现在翻3倍怎么会赔

快科技4月1日消息,持续数月上涨的内存条价格,近期在现货市场终于迎来了明显的松动迹象。 根据相关监测数据显示,自3月以来,备受市场关注的DDR5模组现货价格开始呈现出下行趋势。尤其是进入3月下旬后,DDR5内存条的现货价格降幅显著,引发了装机市场的广泛关注。 以主流的32G DDR5内存条为例,不少装机商户反馈,上周同款产品的报价还在3000元左右,而本周的价格已经迅速回落至2500元甚至更低。在短短几天内,单条内存的降幅在500元至1000元不等。 这种价格跳水的现象并非个例。无论是深圳华强北等线下电子集散地,还是线上渠道的现货交易,内存条的报价都普遍呈现出下跌态势,此前一路看涨的市场预期正被打破。 面对价格波动,不同商户的应对策略出现了明显分歧。一位资深商户透露,由于预判后续价格仍有下行空间,目前正在加速抛售手中的现货。由于其拿货成本较低(大约在“一千多点”),即便现在降价出售,依然能保持可观的利润空间。 这位商户直言,他们通常会根据市场风向灵活调整库存,在感觉到涨价行情接近尾声时,就会果断选择出货套现,避免囤货带来的跌价损失。 与此同时,也有部分商户持有截然相反的观点。他们认为当前渠道端的降价只是暂时性的抛售行为,因为上游原厂并没有传出大幅降价的消息。在这些商户看来,目前的低价属于抛售价,市场行情随时可能再次反弹。 当前的内存市场正处于多方博弈的关键窗口期。对于有装机需求的消费者来说,现货价格的震荡意味着此前疯狂涨价的势头已经得到遏制,但未来价格是持续走低还是止跌回升,仍有待观察。 【本文结束】如需转载请务必注明出处:快科技 责任编辑:雪花 文章内容举报

来源:快科技发布时间:2026-04-01
智谱一边狂奔,一边失血

如果有一门生意,“每赚 1 元收入,要投入4.4 元研发费”,它会是门好生意吗?全球大模型第一股智谱AI(下称“智谱”)试图回答这一问题。2026年3月31日,智谱公布了2025年全年业绩,这也是其上市后的首份财报。财报显示,智谱在2025年全年实现总收入7.24亿元人民币,同比增长131.9%;销售成本,同比增长213.3%至4.27亿元。在这样的收入和成本表现下,智谱的毛利同比增长68.7%至2.97亿元,公司全年综合毛利率也达到了41%。而对于同样是大模型上市企业的MiniMax而言,智谱的毛利率已经远高于MiniMax,后者毛利率25.4%。如果从收入构成来拆解,41%的毛利率背后呈分化趋势,其本地化部署业务毛利率由2024 年的66.0%下降至2025年的48.8%,而云端部署业务的毛利率由2024年的3.3%上升至2025 年的18.9%。(虎嗅注:本地化部署业务指大模型本地部署,云端部署业务指开放平台及API)。从这一点来看,智谱已经充分证明了自身的盈利空间。但它依然陷入亏损。受同期31.8亿元研发费影响,智谱经调整净亏损额达到31.82亿元,亏损幅度同比增长29.1%。同期亏损额相当于智谱总收入的4.39倍,更是其毛利的10.7倍。值得注意的是,亏损主要来源于研发开支。据财报显示,2025年智谱研发成本31.84亿元,同比增长44.9%;而2025年资本支出为7470万元。财报中解释道,研发成本增长主要源于:(1)员工成本增加,包括扩大研发团队及股份支付费用增加;(2)支付第三方算力供应商的计算服务费用,包括迭代模型及投资更先进的模型训练基础设施。但值得一提的是,用于大模型训练的算力成本并不计入研发开支,而是以算力租赁的形式单独计入资本支出。在智谱的语境中,前者用于大模型训练的算力成本指根据模型训练时长调用算力供应商GPU的成本,这部分灵活支出算进研发成本中;而锁定GPU资源,且长期与某供应商签合同则算如资本支出。对比MiniMax,智谱的整体规模更大。这主要是两家公司的业务构成和组织架构等造成的差异。例如,智谱的人员规模是MiniMax的2倍,而这同时也造成了前者投入研发成本更高,亏损更严重;而后者则人效更高。公司智谱(02513.HK)MiniMax(00100.HK)总收入7.24亿元5.4亿元(7903.8亿美元)毛利率41.0%25.4%经调整净亏损31.82亿元17.30亿元(2.51亿美元)研发投入31.80亿元17.43亿元(2.53亿美元)人员规模883人(截至2025年中)385人(截至2025年9月)每赚1元收入亏损4.4元3.2元市值(2026.3.31)3092港元2915亿港元本次财报中值得注意的是,与MiniMax一样,智谱也尝到了龙虾红利。从2026年一季度开始,智谱的业绩增长主要依赖于其在3月推出的AutoClaw,一键部署龙虾。据智谱CEO张鹏介绍,一季度智谱的API调用定价提升83%。但它也恰好踩中了需求爆发的时间点。彼时,龙虾的热度已经持续了一个月。在涨价后半个月,智谱就开始部署龙虾。所以,即便价格增长,智谱GLM模型调用量依然增长了400%。根据财报,该计划上线两天后,订阅用户即破10万,上线20天后订阅用户突破40万。与之相对应的,是智谱盈利能力的指标,也就是智谱重心押注的MaaS平台。据悉,MaaS API平台实现ARR 17亿元(约2.5亿美金),同比提升60倍。也就是说,智谱这份财报,其实是一方面证明了自己的盈利空间,而另一方面,亏损也未停止。智谱的增长逻辑变了,但尚未重构从整体收入结构来看,这份财报里最关键的变量,其实不是总收入本身,而是收入来源。通过拆解收入来源中细微的变化,能够窥探出智谱新的增长逻辑,以及它的可持续性。拆开来看,智谱的增长重心已经开始向云端倾斜,也就是MaaS。这部分业务占比26.3%,而在2024年,云端部署仅占总收入的15.5%。而在本次财报发布后,智谱也声称,公司的战略重点会持续放在MaaS上。然而,尽管从数字上看,云端部署业务占比大幅提升。但这其中的几个变量尤为关键。首先,这里面最核心的驱动来自API。换句话说,智谱这一轮增长,本质上是调用量的增长。而在这其中,龙虾(OpenClaw)是最直接的变量。随着Agent开始自动执行任务,一次需求往往对应多轮调用,Token消耗被成倍放大,API调用量随之上升。第二是MaaS的主要收入来源。财报中介绍道,十家互联网公司中,已有九家互联网公司接入智谱模型。这里有一个值得注意的变化:这些互联网公司基本都有自己的大模型,但他们也并非完全依赖自有模型,而是会根据不同业务调用不同模型。也就是说,短期内即便拥有自研大模型,仍然会在特定场景下选择智谱。当然,这并不意味着,这九家互联网大厂会长期选择这一战略。而这些公司的调用量基本上占据了智谱MaaS收入的半壁江山。也就是说,一旦智谱失去任意一家客户,都会对目前的MaaS业务造成重创打击。第三,MaaS的增长还来自于Token“出海”。过去一年,智谱已与多个中东国家和东南亚国家展开合作,向当地输出模型能力,本质上同样是以Token调用的形式实现收入。综合来看,这份财报释放出的一个明确信号是,智谱正在把增长的叙事,从重本地化部署切换为卖模型,也就是卖Token。但从结果来看,尽管智谱目前的主要收入仍依赖于本地化部署,但MaaS模式已经呈现出可持续性增长的趋势。在这一基础上,智谱还提出了一个新的概念:TAC(Token Architecture Capability,Token架构能力)。按照其定义,TAC由三部分构成:智能调用量、智能质量以及经济转化效率。简单来说,就是调用了多少Token、这些调用是否有效,以及最终能否转化为收入。在笔者看来,在“龙虾”事件过后,行业里对于Token逐渐形成了共识:当大模型具备长程任务执行能力之后,调用不再是一次性的输入输出,而是被组织成一个持续运行的系统。那么,也就是说,一项任务背后,往往对应多轮调用、工具调用甚至自我校验,Token不再只是被消耗,而是被“编排”,即用户会如何组织调用大模型。而TAC之所以在这个时间点被提出,也并不难理解。过去两年,大模型行业的竞争主要围绕参数规模、模型能力以及价格展开;但随着价格战趋于尾声、模型能力逐渐收敛,Agent应用体开始爆发,这些指标已经越来越难以解释公司的增长差异。在这样的背景下,智谱需要一套新的指标体系,来回答一个更现实的问题:当模型能力相差不大时,增长从哪来?智谱的“成本陷阱”把视角从智谱拉开到整个行业,会发现大模型的商业模式已经开始收敛。除了阶跃星辰之外,剩下的三家基座模型公司,核心收入都在向API调用收敛。无论是智谱、MiniMax,还是月之暗面,都在走向用MaaS承接增长的路径。但至少对于智谱而言,这条路径并不是一开始就存在的。以智谱为例,其早期业务中,ToG与私有化部署占比极高,项目制特征明显。直到上市前夕,大概半年前,为了让商业模式更具持续性与规模想象空间,智谱才开始明显向MaaS转型,将增长重心转向云端API调用。从结果来看,这一转型确实带来了变化,MaaS占比提升,Token成为核心指标,收入结构也开始向平台化靠拢。只不过,按照智谱现有的架构,这种本地部署超过云端部署的结构很难短时间内改变。当前MaaS的增长,还高度依赖少数大客户。财报显示,智谱的API收入中,相当一部分来自互联网大厂。这些公司虽然拥有自研模型,但在具体业务中,会选择调用外部模型能力。这种“多模型调用”的模式,确实为MaaS提供了稳定需求。但问题在于,这并不等同于真正意义上的规模化增长。一方面,头部客户贡献了主要调用量;另一方面,长尾市场尚未被真正打开。换句话说,MaaS的平台形态已经出现,但没有建立起平台规模。而这还指向了另一个更核心的问题,即单位Token的成本与收入结构。财报显示,2025年智谱全年亏损47.18亿元,同比增长59.5%;其中研发开支达31.8亿元,同比增长44.9%;资本开支7470万元,同比下降约83.8%。前者是指模型训练成本和员工成本,后者来自算力租赁等成本,而2025年智谱将调整了算力采购方式,将曾经较为固定的算力租赁,变为算力租赁和服务采购相结合的模式,因此资本开支大幅下降。那么,再把MaaS增长和这上下这两组数据结合起来,可以观察到一条非常直接的逻辑链:公司若想带动MaaS增长,就必须依赖模型能力;而模型能力的提升,要依赖持续加大研发投入。但问题是研发与算力成本,并不会随着调用规模的扩大而自然下降。换句话说,收入增长的前提,本身就在推高成本。这也让大模型公司都陷入一种结构性困境:为了获得更多调用,需要持续提升模型能力;而为了提升模型能力,又必须不断加大投入。这就造成了如今,增长越快,成本压力越大的局面。从这个角度看,问题已经不只是智谱一家公司,而是整个大模型行业正在面对的共同约束。而在这个问题没有被解决之前,MaaS能够带来增长,但很难带来利润。智谱为何想对标Anthropic?在3月31日晚智谱年度业绩发布电话会中,智谱CEO张鹏在汇报业绩前还特意提到了美国AI独角兽公司Anthropic,该公司ARR从2024年底10亿美金,到2025年底90亿美金。实际上,几乎所有头部大模型公司,都在试图对标美国路径。其中,月之暗面把目光瞄准OpenAI,走“模型能力+产品+订阅”的路线;而智谱、MiniMax,试图靠近Anthropic模式,即强调基座模型能力,通过API输出推理算力,构建开发者生态。但无论路径选择如何,本质上都是将模型作为基础设施,通过调用来实现规模化收入。目前,这条路径在美国已经被初步验证。无论是OpenAI,还是Anthropic,都可以证明模型能力足够强时,开发者生态可以形成正反馈。但问题在于,这条路径在中国,很难被复制。首先,是价格体系的差异。在美国市场,企业客户与开发者更愿意为能力付费,模型能力可以转化为溢价;但在中国,价格从一开始就被迅速压低。两年的价格战之后,Token才逐渐演变为“基础资源”。其次,是需求结构的差异。美国的大模型生态,更依赖开发者长尾需求;而在中国,调用更多集中在头部客户,比如互联网大厂与政企客户。这种结构下,MaaS更接近于集中采购”,而不是靠开发者生态驱动。第三,是成本与供给的差异。算力供给、芯片结构以及整体成本环境,使得国内模型公司的成本更难随着规模下降。从这个角度看智谱的困境就更容易理解了。回看互联网与云计算的发展路径,基础设施层的盈利,往往建立在应用层爆发之后。同理,这也意味着,在当下阶段,无论是智谱,还是其他大模型公司,都需要等待应用场景被持续验证后,才有可能出现规模效应。(AGI接口)

来源:AGI接口发布时间:2026-04-01
AI代码的「屎山危机」才刚刚开始

苹果刚刚把一款名为Anything的应用从App Store彻底下架。这款应用在2025年9月以1亿美元估值融资1100万美元,上线以来帮助用户发布了数千款应用。下架理由是违反了App Store审核指南第2.5.2条——禁止应用下载或执行未经审核的代码。在此之前,苹果已经冻结了Replit和Vibecode等同类工具的更新,持续时间长达数月。这些被封杀的工具有一个共同的名字:Vibe Coding(氛围编程)。这个概念由OpenAI联合创始人Andrej Karpathy在2025年2月提出,核心理念是“完全跟着感觉走,拥抱指数增长,忘掉代码本身的存在”。它被柯林斯词典评为2025年度词汇。如今,它正在重塑软件开发的门槛,同时也在制造前所未有的混乱。图片由AI生成01跨界神话:文科生写代码,然后呢?Vibe Coding最具传播力的叙事,是“不会写代码的人也能做出应用”。2026年2月,媒体报道了一位名叫杨天润的中国创业者。天润本科和研究生学的是金融,毕业后做并购投资,从未写过一行代码。但他用AI工具在72小时内为GitHub上的明星开源项目OpenClaw贡献了代码,跻身贡献者前30名,排在他前后的,是一群拥有十年以上开发经验的硅谷工程师。“文科生72小时杀入GitHub全球榜”的标题迅速刷屏,成为Vibe Coding跨界叙事的标杆案例。但这篇报道中最值得注意的细节,却被过滤掉了。天润本人在采访中坦承:“Vibe Coding只适合做Demo,不适合做产品。当你只是想做一个简单的网页,它很完美;但当你要做一个复杂的商业软件时,它就可能会乱成一锅粥。”他后来转向了一种被他称为“Agentic Engineering”的方法,让AI自主执行完整的工作流,而不是随意接受每一段AI输出。换言之,主角自己也强调人类把关的重要性,纯粹的Vibe Coding走不通。类似的“跨界成功”叙事在社交媒体上被大量复制,宣称“文科生的优势比想象中大得多”;各类课程承诺零基础也能5分钟做出AI应用。但是,当项目复杂度超越简单网页“涉及用户认证、数据库连接、支付接口、异常处理等等”,没有编程基础的人就会撞上一堵看不见的墙。这堵墙有多高?Vibe Coding平台Lovable提供了最触目惊心的数据。2025年5月,Replit员工Matt Palmer扫描了1645个在Lovable上创建的网站应用,发现其中170个(约10.3%)存在严重安全漏洞,任何人无需登录即可访问用户数据库,获取姓名、电子邮件、财务信息和API密钥。Palantir工程师Daniel Asaria用47分钟就从多个Lovable展示的应用中提取了个人债务金额、家庭住址和敏感提示词。安全研究公司Escape后来对5600多个Vibe Coding应用进行了更大范围的扫描,发现超过2000个安全漏洞、400多个暴露的密钥以及175例个人隐私数据泄露,包括医疗记录和银行账号。这些应用的创建者大多不具备任何安全知识。问题的根源不在于“文科生不该碰代码”,在于一个在媒体传播中被忽略的事实:软件开发的难度从来不只在“写出能运行的代码”。架构设计、安全审计、边界条件处理、数据库权限配置、长期可维护性,这些才是专业工程师花费多年积累的核心能力。02QA已死乱拳打死老师傅。VibeCoding让人人能够用自然语言编程,也造成了各种应用量的暴增。据Sensor Tower数据,2025年12月美国iOS应用发布量同比增长56%,2026年1月同比增长54.8%,均创下四年来最快增速。据Appfigures统计,2025年App Store新提交应用达55.7万款,较2024年增长24%,是2016年以来最大一波新增浪潮。与此同时,传统软件上线的流程正在被跳过。在传统的软件开发模式中,一款应用从构想到上架需要经历需求分析、系统设计、编码实现、代码评审、QA测试(产品正式给用户用之前,先反复检查有没有 bug、卡顿、报错或体验问题)、安全审计、性能优化、合规检查等多个环节,通常耗时数周到数月,涉及产品经理、开发工程师、测试工程师和安全团队的协作。每一个环节都是质量的安全阀。Vibe Coding把这个流程压缩到了极限。一位大厂AI工程师直言:“现在Vibe Coding造垃圾软件碰运气,实在是消耗用户的时间。很多人想的是我造一堆,万一哪个成了呢,反正又没什么成本。”制作一款最低可行应用变得极其简单,这些人批量生产数十款应用定期提交,赌的是只要有少量应用内购买就能赚一笔。如果一款应用没有起色,24小时内可以再上线另一款。即便被平台标记为垃圾应用甚至遭到拒绝,惩罚也几乎可以忽略,一个苹果开发者账户年费仅99美元,被封禁后换一个账户重新注册的成本远低于一轮审核给苹果团队带来的时间消耗。来自纽约的35岁氛围编程用户James Steinberg坦言,他认为App Store正被“像我这样提交大量应用的人”淹没,他的一款应用已等待审核长达六周。苹果回应称,90%的提交仍在48小时内完成审核,过去12周每周处理超过20万份提交,平均审核时间为1.5天。但开发者社区的感受与官方数据存在落差。Reddit的iOS开发社区中,多个帖子反映审核时间明显延长,一些长期运营的应用甚至开始收到“垃圾应用”标记或“不再达到最低质量标准”的警告。03 垃圾代码正在向上游蔓延Vibe Coding对开源社区的冲击更具系统性风险。cURL创始人Daniel Stenberg在2026年1月关闭了运行六年的漏洞赏金计划。原因不是预算,是AI生成的虚假漏洞报告淹没了维护团队。在关闭前的三周内,cURL收到了20份提交,没有一份确认为真正的安全漏洞。Stenberg在FOSDEM 2026大会上透露,2025年前cURL收到的安全报告中大约六分之一是有效的;到2025年底,这一比例已降至二十分之一甚至三十分之一。他将这种现象称为“对开源的DDoS攻击”。这不是孤例。Ghostty创建者Mitchell Hashimoto在2026年初禁止了所有未经审核的AI生成代码贡献,并推出了基于信任的Vouch系统。tldraw项目负责人Steve Ruiz说:“我们近期看到大量完全由AI工具生成的贡献。虽然部分在形式上是正确的,但大多数存在背景不完整、对代码库理解有误、提交者几乎没有后续跟进等问题。”一位大厂AI工程师对腾讯科技总结了这个链条的完整图景:“开发者提交Vibe垃圾PR(Pull Request),坑的是开源维护者;安全人员提交Vibe垃圾漏洞,坑的是漏洞审核员。完全不尊重别人的时间。”在通常的开发流程里,开发者写完一部分代码后,会把这次修改提交成一个 PR,交给同事审核。审核通过后,这些代码才会被合并进主分支。如果用一种比较“vibe coding”式、随手糊出来的方式写代码,然后提交了一个质量很差的代码合并请求。持续下去,就好像堆砌了一座越来越高的“代码屎山”。最终坑的是所有认真维护开源代码的人。Voiceflow基础设施负责人Xavier Portilla Edo给出了一个量化判断:“AI生成的PR中,只有十分之一是合理的,其他九个浪费了维护者的时间。”GitHub在2026年2月推出了两项新的仓库设置,允许完全禁用Pull Request,或限制为仅协作者可提交。当平台本身开始提供“关闭阀门”的功能,说明问题已经是结构性的。04Vibe Coding效率真的高了吗?最后,回到一个根本性的问题。在VibeCoding让垃圾代码数量飙升的同时,真的提高了编程效率吗?答案有些复杂。AI编程工具的拥护者常引用的数据是开发效率提升26%至56%。但METR(Model Evaluation & Threat Research)在2025年发表的一项随机对照实验讲述了不同的故事。16名资深开源开发者在他们熟悉的大型代码仓库中完成246个真实任务,被随机分配是否允许使用AI工具。结果显示:使用AI工具的开发者实际完成任务的时间延长了19%,AI让他们变慢了。而开发者本人在实验前预计AI会让他们快24%,实验后仍然认为自己快了20%。当人们“感觉”更高效时,他们可能正在生产更多未经充分审查的代码。2025年Stack Overflow开发者调查显示,对AI准确性的信任从前一年的40%降至29%,46%的开发者明确表示不信任AI工具的准确性。这种效率幻觉的真正代价最终由谁承担?一篇2026年1月发表的学术论文《Vibe Coding Kills Open Source》提供了更宏观的警告。来自中欧大学和基尔研究所的经济学家指出,AI降低了使用和构建开源代码的成本,但同时削弱了维护者赖以获得回报的用户互动。Tailwind CSS的创建者Adam Wathan在2026年1月披露:尽管Tailwind的月下载量达到7500万次,但文档流量较2023年初下降了约40%,收入下滑近80%。“文档是人们发现我们商业产品的唯一渠道,没有客户我们就无法维持框架的开发。”犯错的成本从未如此之低。生成一段有漏洞的代码只需几秒,但审查、修复和清理这些产出的成本,仍然完全由人类承担。当代码生成的成本趋近于零而审查的成本保持不变,这个体系就已经失衡了。正如RedMonk分析师Kate Holterhoff所命名的,这是一场“AI Slopageddon”(AI垃圾末日)。技术的进步不应以将责任外部化为代价,而Vibe Coding的现状,正是对这一原则最直接的挑战。AI可以替代打字,但无法替代判断。正如Y Combinator CEO Garry Tan所承认的,即使是YC中那些95%代码由AI生成的创业公司,创始团队也具有深厚的技术背景,他们有能力从零开始手写代码。AI时代比以往任何时候都更需要专业判断。(转载自腾讯科技)

来源:腾讯科技发布时间:2026-04-01
国家知识产权局发布「龙虾」OpenClaw风险提示

4月1日,据央视新闻,国家知识产权局今日发布风险提示。官方表示,OpenClaw 等智能体工具被曝光默认安全配置脆弱,易引发严重安全风险,同时使用此类智能体撰写专利申请文件,也可能诱发多重风险。若使用此类智能体撰写专利申请文件,可能诱发的风险如下:“技术信息泄露”风险:OpenClaw 等智能体存在权限过高、安全漏洞、插件投毒等隐患,使用其撰写申请文件,易造成技术交底书等核心信息外泄。一旦泄露,专利申请技术方案可能因丧失新颖性无法授权,甚至被他人抢先申请专利,给申请人带来重大损失,代理机构还需承担违约赔偿责任。“实质缺陷”风险:在利用该类智能体撰写申请文件时可能出现“AI 幻觉”,导致申请文件存在内容逻辑矛盾、技术特征表述不清等问题,从而无法获得保护。“不诚信申请”风险:通过智能体凭空生成、随机编造、内容拼凑等形成专利申请,属于违反诚实信用原则的不诚信申请专利行为。达到一定数量,申请人将面临警告、罚款等行政处罚;代理机构及代理师将面临吊销执业许可证、注销代理资格证等行政处罚,情节严重的将被列入严重违法失信名单。为防范风险,维护好各方合法权益,国家知识产权局提示:申请人需提高风险防范意识,审慎选择合规专利代理服务,主动了解并确认代理机构是否使用智能体撰写申请文件。如发现代理机构擅自使用相关工具造成信息泄露或构成不诚信申请行为,可依法投诉举报并要求代理机构赔偿损失。专利代理机构及代理师务必高度警惕智能体使用风险,杜绝使用智能体开展不诚信专利申请行为,切实保障委托人合法权益。(央视新闻)

来源:央视新闻发布时间:2026-04-01
Anthropic与澳大利亚政府签署AI合作协议

AIPress.com.cn报道4月1日消息,据路透社报道,人工智能公司Anthropic表示,将与澳大利亚政府签署一项合作协议,向政府共享其AI经济指数数据,以帮助分析人工智能在经济中的应用情况及其对就业和劳动力市场的影响。根据协议内容,Anthropic将向澳大利亚提供有关AI模型能力演进和潜在风险的研究结果,并参与联合安全评估,同时与当地高校开展研究合作。公司还计划在澳大利亚的数据中心基础设施和能源领域探索投资机会。Anthropic首席执行官达里奥·阿莫代伊(Dario Amodei)在堪培拉表示,澳大利亚近年来在AI安全方面的投入,使其成为推动“负责任AI发展”的重要合作伙伴。双方通过签署谅解备忘录(MOU),为未来合作建立正式框架。这项合作模式与Anthropic此前与美国、英国及日本的AI安全研究机构达成的合作安排类似,重点围绕模型安全评估、技术风险研究以及政策沟通等方面展开。目前,澳大利亚尚未出台专门的人工智能监管法律。澳大利亚工党政府表示,将主要依赖现有法律体系来管理AI带来的潜在风险,并通过制定自愿性指导原则应对隐私与安全方面的担忧。在2025年12月发布的《国家人工智能计划》中,澳大利亚政府提出推动AI在经济各行业中的应用,加大对数据中心基础设施的投资,并培养AI相关技能,以支持未来就业结构的转型。(AI普瑞斯编译)

来源:鞭牛士发布时间:2026-04-01
谷歌发布Veo 3.1 Lite,视频生成成本降至一半

AIPress.com.cn报道4月1日消息,Google DeepMind宣布推出视频生成模型 Veo 3.1 Lite,并通过Gemini API向开发者开放。公司表示,这是目前Veo系列中成本最低的视频生成模型,旨在支持大规模视频应用开发。根据官方介绍,Veo 3.1 Lite的生成速度与Veo 3.1 Fast相同,但成本降低至后者的一半以下,从而帮助开发者在保持性能的同时降低视频生成应用的运营成本。随着该模型的推出,Veo 3.1系列目前已形成包括Lite与Fast在内的多层产品体系,以满足不同开发需求。在功能方面,Veo 3.1 Lite支持 文本生成视频(Text-to-Video) 和 图像生成视频(Image-to-Video) 两种模式。模型可生成16:9横屏或9:16竖屏视频,并支持720p和1080p两种分辨率。开发者还可以根据需求选择不同视频时长,包括4秒、6秒或8秒,系统将根据生成时长动态调整成本。谷歌表示,该模型主要面向需要高频生成视频内容的应用场景,例如社交媒体、营销内容生成以及自动化视频制作工具等。通过降低成本,公司希望推动更多开发者在产品中集成视频生成能力。Veo 3.1 Lite目前已通过 Gemini API和Google AI Studio 向付费开发者开放。与此同时,谷歌还宣布将于4月7日下调Veo 3.1 Fast的价格,以进一步推动视频生成技术在开发者生态中的应用。谷歌表示,未来还将继续推出新的更新,以扩大视频生成技术的可用性并支持更多开发者构建相关产品。(AI普瑞斯编译)

来源:鞭牛士发布时间:2026-04-01
Meta推出处方版Ray-Ban智能眼镜,起价499美元

AIPress.com.cn报道4月1日消息,Meta宣布推出两款面向处方眼镜用户的新型Ray-Ban智能眼镜,进一步扩展其可穿戴设备产品线。公司表示,新产品专为需要全天佩戴眼镜的人群设计,能够支持几乎所有视力处方。新款产品起售价为499美元,将于4月14日起在美国及部分国际市场的眼镜零售渠道上市。此次发布的两种款式分别为Blayzer和Scriber:Blayzer采用矩形镜框设计,提供标准与大号两种尺寸;Scriber则为更加圆润的框型设计。Meta表示,新款智能眼镜在舒适性和个性化佩戴方面进行了优化。例如,Ray-Ban Meta Blayzer Optics(第二代)与Ray-Ban Scriber Optics(第二代)均采用可过度展开的柔性铰链设计,并支持可更换鼻托。镜腿末端也可以由验光师根据佩戴者脸型进行调节,以获得更贴合的佩戴体验。与此同时,Meta还为现有Ray-Ban Meta与Oakley Meta系列眼镜推出新的配色与镜片组合。例如,Ray-Ban Skyler框架将新增亮面透明桃色配Transitions棕色镜片,Headliner框架提供磨砂透明桃色配Transitions灰色镜片,Wayfarer框架则新增亮面透明灰色配Transitions蓝宝石镜片。在Oakley Meta Vanguard系列中,公司也将推出多种新版本,包括Vanguard Black配Prizm Black镜片、Vanguard White配Prizm Rose Gold镜片、Vanguard Black配Prizm Transitions Ember镜片,以及HSTN Black与HSTN Light Curry等多种配色方案。除了硬件更新,Meta还为智能眼镜引入新的AI功能。例如用户可以通过语音或拍照方式记录饮食,Meta AI会自动提取关键营养信息并生成食物记录。随着数据积累,系统将提供个性化饮食建议。此外,Meta还在Early Access Program中推出WhatsApp免手持消息摘要功能。用户可以通过语音指令要求系统总结群聊内容,例如询问“帮我总结一下消息”或“Jamie刚才建议吃什么”。Meta表示,这类交互将在设备端处理,并通过端到端加密保护隐私。另一项即将全面推出的功能是“Neural Handwriting”。用户可以在桌面或其他表面用手指书写,从而无声地回复消息。该功能将支持Instagram、WhatsApp、Messenger以及Android和iOS系统的原生消息应用。(AI普瑞斯编译)

来源:鞭牛士发布时间:2026-04-01
英伟达投资Marvell,推动AI工厂与AI-RAN基础设施

AIPress.com.cn报道4月1日消息,英伟达宣布与芯片公司Marvell Technology达成战略合作,通过NVLink Fusion平台将Marvell纳入英伟达AI基础设施生态体系。双方同时披露,英伟达已向Marvell投资20亿美元,以进一步推动AI基础设施技术发展。此次合作将使Marvell加入英伟达正在构建的“AI工厂”(AI Factory)和AI-RAN生态系统。NVLink Fusion是英伟达推出的机架级AI计算平台,旨在让企业能够在英伟达架构基础上构建半定制化AI基础设施。通过这一平台,客户可以在保持与英伟达生态兼容的同时,开发针对特定应用优化的AI计算系统。根据合作安排,Marvell将提供定制XPUs以及兼容NVLink Fusion的规模化互联网络技术;英伟达则提供相关基础组件,包括Vera CPU、ConnectX网络接口卡、BlueField数据处理单元(DPU)、NVLink互连技术以及Spectrum-X交换机等,同时提供机架级AI计算平台。英伟达表示,NVLink Fusion能够支持异构AI基础设施,使客户在开发自定义XPUs时仍能与英伟达GPU、网络和存储平台实现无缝集成,并利用英伟达的技术生态和全球供应链体系。除了AI计算基础设施外,双方还将在电信网络领域展开合作。两家公司计划结合英伟达Aerial AI-RAN平台,推动5G和未来6G网络向AI基础设施演进,并共同研发高速光互连和硅光子技术,以提升AI数据中心的网络性能。英伟达创始人兼CEO黄仁勋表示,随着推理需求快速增长,全球正在加速建设“AI工厂”,对算力基础设施的需求持续扩大。通过与Marvell合作,企业可以在英伟达AI基础设施生态中构建更加专业化的计算平台。Marvell董事长兼CEO Matt Murphy表示,随着AI规模不断扩大,高速连接、光互连和加速计算基础设施的重要性正在提升。通过将Marvell在模拟芯片、光DSP、硅光子以及定制芯片方面的技术能力与英伟达的AI生态结合,双方将帮助客户构建更具扩展性和效率的AI基础设施。(AI普瑞斯编译)

来源:鞭牛士发布时间:2026-04-01
甲骨文裁员数千人:为AI基础设施「腾挪资金」

AIPress.com.cn报道4月1日消息,据 CNBC 报道,软件公司甲骨文(Oracle)已开始通知员工裁员,新一轮裁员规模达到数千人。知情人士表示,由于相关消息尚未公开披露,具体细节仍未对外说明。截至2025年5月,甲骨文员工总数约为16.2万人。面对AI基础设施建设带来的资本支出压力,以及股价持续下跌,公司正在通过组织调整来优化成本结构。今年以来,甲骨文股价已累计下跌约25%,跌幅超过多数大型科技公司。近年来,随着生成式人工智能需求快速增长,甲骨文与亚马逊等云厂商一样,加大了对数据中心和算力基础设施的投资,以支持GPU和CPU密集型的AI工作负载。但与主要云竞争对手相比,甲骨文规模仍相对较小。为了推动AI基础设施建设,公司开始更多依赖债务融资。今年1月,甲骨文宣布计划通过债务和股权融资筹集约500亿美元资金。公司高管在上月财报电话会议上表示,2026年目前没有进一步举债的计划。此前,甲骨文披露其“剩余履约义务”大幅增长。2025年9月,公司宣布该指标同比增长359%,达到4550亿美元,其中包括与OpenAI签署的一项价值超过3000亿美元的合作协议。随后数周,甲骨文任命迈克·西西利亚(Mike Sicilia)和克雷·马古尔克(Clay Magouyrk)接替萨弗拉·卡茨(Safra Catz)担任公司CEO。分析机构TD Cowen在今年1月的报告中估计,如果甲骨文裁员2万至3万人,可能为公司额外带来80亿至100亿美元的自由现金流。尽管短期面临资本支出和市场压力,公司高管仍表示,对AI基础设施的投入将在未来带来回报。马古尔克在近期财报电话会议上表示,目前市场对AI算力基础设施的需求依然远超供给,这一点从公司高达5530亿美元的剩余履约义务中可以直接体现。(AI普瑞斯编译)

来源:鞭牛士发布时间:2026-04-01
安徽:支持支付物业费提取住房公积金 自4月1日起施行

安徽省省直住房公积金管理分中心发布关于扩大住房公积金提取范围的通知:一、支持支付物业费提取住房公积金。缴存职工及其配偶可提取住房公积金,用于支付合肥市行政区域内自有住房物业费。二、支持城市更新住房改造提取住房公积金。缴存职工及其配偶、父母、子女可提取住房公积金,用于支付合肥市城市更新住房改造项目中个人承担的费用。三、支持购房缴纳契税提取住房公积金。缴存职工及其配偶,因购买合肥市行政区域内自住住房,自政策执行之日起缴纳契税的,可提取住房公积金。四、支持缴存住宅专项维修资金提取住房公积金。缴存职工及其配偶,因购买合肥市行政区域内自住住房,自政策执行之日起缴存住宅专项维修资金的,可提取住房公积金。五、扩大重大疾病提取住房公积金病种范围。缴存职工及其配偶、父母、子女住院治疗重大疾病,可提取住房公积金,病种由原慢性肾衰竭、恶性肿瘤等9种扩大至35种。本通知一、二、四项政策自2026年4月1日起施行,三、五项政策自2026年5月9日起施行,有效期5年。其中第四项政策自2026年4月1日起施行,2026年5月9日后可办理。

来源:第一财经发布时间:2026-04-01
涉嫌受贿、贪污 陕西省政协原副主席刘宽忍被提起公诉

据最高人民检察院消息,民进中央原副主席、陕西省政协原副主席刘宽忍涉嫌受贿、贪污一案,由国家监察委员会调查终结,移送检察机关审查起诉。最高人民检察院依法以涉嫌受贿罪、贪污罪对刘宽忍作出逮捕决定,并指定由新疆维吾尔自治区乌鲁木齐市人民检察院审查起诉。近日,乌鲁木齐市人民检察院已向乌鲁木齐市中级人民法院提起公诉。 检察机关在审查起诉阶段,依法告知了被告人刘宽忍享有的诉讼权利,并讯问了被告人,听取了辩护人的意见。检察机关起诉指控:被告人刘宽忍利用担任陕西省文化厅副厅长、厅长,陕西省政协常委、副主席,民进陕西省委会主委,民进中央副主席等职务上的便利,为他人谋取利益,或者利用本人职权或者地位形成的便利条件,通过其他国家工作人员职务上的行为,为他人谋取不正当利益,非法收受他人财物,数额特别巨大;利用担任陕西省文化厅厅长职务上的便利,侵吞、骗取公共财物,数额特别巨大,依法应当以受贿罪、贪污罪追究其刑事责任。

来源:第一财经发布时间:2026-04-01
共38323条记录
  • 1
  • 2
  • 3
  • 4
  • 3194

产业专题

产业大脑平台

产业经济-监测、分析、

研判、预警

数智招商平台

找方向、找目标、管过程

产业数据库

产业链 200+

产业环节 10000+

产业数据 100亿+

企业数据库

工商 司法 专利

信用 风险 产品

招投标 投融资

报告撰写AI智能体

分钟级生成各类型报告