五度易链产业数字化管理平台
新股消息 | 新元素药业二次递表港交所

智通财经APP获悉,据港交所3月20日披露,杭州新元素药业股份有限公司(简称:新元素药业)向港交所主板递交上市申请书,中信证券为其独家保荐人。这是该公司第二次递表港交所。招股书显示,新元素药业成立于2012年,是一家专注在代谢、炎症及心血管疾病领域开发疗法的生物技术公司。

来源:智通财经网发布时间:2026-03-21
给龙虾装一个专属技能包!试试这个场景

Datawhale干货 作者:曾浩龙,Datawhale团队你有没有被开源项目的代码 "劝退" 过?想象一下这个场景 —— 你在 GitHub 上找到一个很厉害的开源项目,兴冲冲地 Clone 下来,打开一看:几十个文件夹、上百个文件,README 写了一大堆中文 / 英文,但你连 API 代码入口在哪都找不到。这篇文章,我手把手带你从零手搓一个 Agent Skill,让 AI 变成你的 "代码仓库百晓通",还能装到龙虾?里。整个过程配有保姆级教程,不管你是资深开发者还是刚接触编程的在校大学生,都能跟着做出来。Agent Skill:给 AI 装一个 "技能包"大家都玩过游戏,有时候,游戏里的角色一开始什么都不会,但你可以给它学技能 —— 学了 "治疗术" 就能回血,学了 "狂风绝息斩" 就能放大招。Agent Skill 就是这个意思。AI 大模型本身是个 "通才",什么都知道一点,但什么都不精。而 Agent Skill 就是你给它安装的 "专业技能包" —— 装上之后,它就能在特定领域变成专家。和我们平时用的 "提示词"(Prompt)有什么区别呢?一个 Agent Skill 本质上就是一个文件夹,里面放着 AI 的 "技能包":其中最关键的是 SKILL.md 文件,它包含两部分:元数据区(文件最上面的几行配置):告诉 AI "这个技能是干什么的、什么时候该用它"---name: skill-name # 技能名称description: 技能描述,明确功能与触发条件---正文区(下面的 Markdown 内容):详细的操作步骤、示例和规则 —— 相当于一本给 AI 看的操作手册怎么触发?两种方式:手动调用:在输入框里输入 /skill-name + 你的问题,主动触发自动调用:当你的问题和技能描述匹配时,Agent 会自动调用对应的 Skill放在哪?以 OpenCode 举例全局路径(所有项目通用):~/.config/opencode/skills/<name>/当前项目路径(仅当前项目生效):.opencode/skills/<name>/请参考:https://opencode.ai/docs/skills/放在哪?以 OpenClaw 举例全局路径(所有项目通用):~/.openclaw/skills/<name>/特定项目的 Skill(仅该项目生效):<project>/.agents/skills/Agent Skills 已经成为通用开放标准(Apache-2.0 License),不仅适用于 OpenCode,还兼容 OpenClaw、Claude Code、Cursor、Gemini CLI、OpenAI Codex 等各类 AI 编程工具。第一步:装好你的 AI 编程助手 —— OpenCode在动手做 Skill 之前,我们先准备好工具。本文使用的是 OpenCode —— 一款开源的 AI 编程 Agent,GitHub 上已有 12W+ Stars。在这里插为什么选 OpenCode?三个理由:完全开源,数据安全,无封号风险支持灵活切换大模型(Claude、GPT、Gemini、Kimi、GLM 等都行)对国内用户友好,网络配置简单,还能接入国产模型和本地部署的大模型1.1 安装 OpenCode(一行命令搞定)运行下面这行命令即可自动安装:curl -fsSL https://opencode.ai/install | bash安装完成后,配置一下环境变量,让系统能精准找到 OpenCode:vim ~/.bashrc# 在文件中添加这一行:export PATH=/home/ma-user/.opencode/bin:$PATH# 保存后退出 :wq!source ~/.bashrc在终端输入 opencode 就能进入界面了。按 Tab 键可以在 Plan(规划)和 Build(执行)两种 Agent 模式间切换。1.2 连接大模型(大脑)通过 /connect 和 /models 命令,你可以接入不同的大模型服务商。输入对应的 API Key 后即可选用特定版本的模型:零成本快速体验:OpenCode 还内置了 免费模型 OpenCode Zen,无需配置即可使用,包括 Big Pickle、Kimi K2.5、MiniMax M2.5、GLM-5 等。第二步:手搓"代码仓库百晓通"工具准备好了,接下来进入核心环节 —— 从零创建一个 "代码仓库问答专家" Skill。整体流程分四步:安装 skill-creator → 连接 DeepWiki → 创建 Skill → 调试完善。2.1 安装 "造技能的技能" —— skill-creator在动手造 Skill 之前,我们先装一个 "帮手"。skill-creator 是一个 "元技能" —— 就像 "教你做菜的菜谱",它是专门用来帮你创建其他 Skill 的元 Skill。通过对话引导你梳理需求,然后自动生成结构完整的 Skill 文件。在 OpenCode 的输入框里,一句话就能安装:帮我安装 Skill 到 ~/.config/opencode/skills/skill-creator,来源:https://github.com/openai/skills/tree/main/skills/.system/skill-creatorAgent 会自动处理下载和安装过程:如果自动安装失败,点这里看手动安装步骤下载 Skill 文件夹:从 https://github.com/openai/skills/tree/main/skills/.system/skill-creator 下载整个 skill-creator 文件夹到本地创建目标目录并复制文件:mkdir -p ~/.config/opencode/skills/skill-creatorcp -r /你的下载路径/skill-creator/* ~/.config/opencode/skills/skill-creator/2.2 连接 DeepWiki —— 让 AI 能 "阅读" 代码仓库要让 AI 回答代码仓库的问题,它得能 "理解" 代码仓库里的内容。这就需要用到 DeepWiki —— 它能把 GitHub 上的代码仓库变成 AI 可以查询的知识库。我们通过 MCP(可以理解为 AI 的 "USB 接口")把 DeepWiki 接入 OpenCode,这样 AI 就能随时高效查阅代码仓库了。DeepWiki MCP 提供了三个工具:运行下面的命令安装 DeepWiki MCP,根据提示输入内容并确认即可:opencode mcp add安装完成后,输入 /mcps 可以确认连接状态:2.3 用自然语言告诉 AI,你想要什么样的 Skill准备工作都做好了,现在正式开始创建 Skill。按下 Tab 切换到 Plan 模式,输入 /skills 调用 skill-creator。确认后输入框会自动填充 /skill-creator,然后你就可以用自然语言描述你想要的 Skill 了:别被下面这段 Prompt 吓到。 本质上,我们就是在告诉 AI 三件事:这个 Skill 是干什么的:做一个昇腾(Ascend)推理生态的代码仓库问答专家它需要覆盖哪些代码仓库:vllm、vllm-ascend、MindIE 系列、msmodelslim 等遇到不确定的情况怎么处理:主动问用户,不能瞎编输入的具体内容如下:/skill-creator 创建一个新的代码仓库智能问答 Skill —— code-repos-expert,并支持中文(Chinese)和英语(English)回答。Skill 内容得是英文。具体要求如下:<expert_level_skill>1 - 昇腾(Ascend)推理生态开源代码仓库智能问答专家:根据用户输入的内容精准推断出其潜在目标、意图,希望帮他完成什么任务/解答什么疑问,真正理解透用户的需求或问题。当用户提问涉及 vllm、vllm-ascend、MindIE-LLM、MindIE-SD、MindIE-Motor、MindIE-Turbo、modelslim 等 Ascend 推理生态开源项目的以下方面时:使用方法、部署流程、支持模型、支持特性、系统架构、配置管理、调试、测试、故障排查、性能优化、定制开发、源码解析,或任何其他关于 Ascend 推理项目的技术问题,使用此技能(Skill)。2 - 针对不同的开源代码仓库:根据用户输入的内容包含的代码仓名称,使用 deepwiki,使用方法:owner/repo + 用户输入的内容经过意图识别后生成的查询,优化基于上下文的代码仓库智能问答。3 - 无法判定代码仓库时,主动向用户询问、确认,禁止盲目猜测。此外,对于任何不确定、缺乏官方文档支持或基于推论的信息,必须明确标注"此信息可能存在不确定性"或类似提示。在关键或复杂处,建议用户进一步查阅相关官方文档或源码以获取最权威的指导。</expert_level_skill>涉及的开源代码仓库包括:# vLLM:高效、易用、低成本的大模型推理和服务框架https://github.com/vllm-project/vllm# vLLM Ascend:社区维护的硬件插件,让 vLLM 在昇腾 NPU 上高效运行https://github.com/vllm-project/vllm-ascend# MindIE-LLM:面向昇腾的大语言模型推理引擎https://gitcode.com/Ascend/MindIE-LLM# MindIE-SD:面向 Stable Diffusion 系列模型的推理引擎套件https://gitcode.com/Ascend/MindIE-SD# MindIE-Motor:高性能推理服务化框架https://gitcode.com/Ascend/MindIE-Motor# MindIE-Turbo:大语言模型推理加速插件库https://gitcode.com/Ascend/MindIE-Turbo# msmodelslim:大模型量化与压缩工具https://gitcode.com/Ascend/msmodelslimAgent 在 Plan 模式下会先想清楚该怎么做,列出详细计划:切换到 Build 模式,输入 "继续创建此 Skill",Agent 就会开始生成完整的 Skill 文件。运行完成后,新 Skill 就创建好了:最后,把生成的 Skill 复制到 OpenCode 的 skills 目录下就能用了:cp -r /root/code-repos-expert ~/.config/opencode/skills/2.4 拆解 SKILL.md —— 看看 Agent 的 "操作手册" 长什么样Skill 创建好了,我们打开核心文件 SKILL.md 看看里面都有什么。---name: code-repos-expertdescription: 昇腾(Ascend)推理生态开源代码仓库智能问答专家旨在为 vLLM、vLLM-Ascend、MindIE-LLM、MindIE-SD、MindIE-Motor、MindIE-Turbo 以及 msModelSlim (MindStudio-ModelSlim) 等仓库提供专家级且易于理解的解释。在处理昇腾(Ascend)推理生态相关项目的用户询问时,务必触发此技能(Skill),可解答使用方法、部署流程、支持模型、支持特性、系统架构、配置管理、调试、测试、故障排查、性能优化、定制开发、源码解析以及其他技术问题。支持中英文双语回复,并可借助 deepwiki MCP 工具检索仓库知识库,生成具备上下文感知且基于证据的回答。Ascend inference ecosystem open-source code repository intelligent question-and-answer (Q&A) expert. Provide expert-level yet comprehensible explanations for repositories such as vLLM, vLLM-Ascend, MindIE-LLM, MindIE-SD, MindIE-Motor, MindIE-Turbo, and msModelSlim (MindStudio-ModelSlim). Use this skill when addressing user inquiries related to these Ascend inference ecosystem projects, including topics such as usage, deployment process, supported models, supported features, system architecture, configuration management, debugging, testing, troubleshooting, performance optimization, custom development, source code analysis, and any other technical issues about these projects. Support responses in both Chinese and English. Use deepwiki MCP tools to query repository knowledge bases and generate context-aware, evidence-based responses.---# Code Repositories ExpertExpert-level intelligent question-and-answer (Q&A) support for open-source code repositories within the **Ascend inference ecosystem**. Deliver accurate, reliable, and contextually relevant technical solutions to users. Respond **in the same language as the user's input** (Chinese or English).## Overall Workflow### 1. Identify Intent**Understand the underlying intent**: Infer the actual technical requirements behind colloquial expressions and intricate queries. Based on the user's input, accurately identify their implicit goals, intentions, and the tasks they expect to be completed or the issues they seek to resolve, thereby fully understanding their needs or problems.| User Expression | Intent Category ||---|---|| "How to install?" / "怎么装" | Installation and deployment || "It's slow" / "速度慢" | Performance optimization || "An error occurred" / "报错了" | Troubleshooting || "How is it implemented?" / "怎么实现的" | Source code analysis || "What models are supported?" / "支持哪些模型" | Compatibility and features || "How to configure?" / "怎么配置" | Configuration management || User pastes error log / stack trace | Extract key error message as query keywords || User pastes code snippet | Identify module/file context, combine with intent |For **troubleshooting** and **deployment** intents, proactively request:- Hardware: Ascend chip model (e.g., 910B, 910C)- Software: Ascend HDK version, CANN version, Python version, torch and torch_npu version, transformers version, vLLM/MindIE version, triton-ascend version- OS: Linux distribution and kernel version- Error message or log snippet (if applicable)When the intent cannot be determined, **proactively ask the user** to obtain clearer and more explicit intent and contextual information.### 2. Route to Code RepositoryMatch relevant keywords to the appropriate repository. Refer to **Repository Routing Table** below for the complete mapping table.**Repository Routing Table**:| Keyword(s) in User Input | DeepWiki `repoName` | Notes ||---|---|---|| `vLLM` / `vllm` (without `ascend`) | `vllm-project/vllm` | Upstream vLLM engine || `vllm-ascend` / `vllm ascend` / `vLLM Ascend` / `vLLM-Ascend` | `vllm-project/vllm-ascend` | Must query `vllm-project/vllm` for upstream context first, then query `vllm-project/vllm-ascend` || `MindIE-LLM` / `MindIE LLM` / `mindie-llm` / `mindie llm` | `verylucky01/MindIE-LLM` | LLM inference engine for Ascend || `MindIE-SD` / `MindIE SD` / `mindie-sd` / `mindie sd` | `verylucky01/MindIE-SD` | Multimodal generative inference for Ascend || `MindIE-Motor` / `MindIE Motor` / `mindie-motor` / `mindie motor` | `verylucky01/MindIE-Motor` | Inference serving framework || `MindIE-Turbo` / `MindIE Turbo` / `mindie-turbo` / `mindie turbo` | `verylucky01/MindIE-Turbo` | NPU acceleration plugin for vLLM || `msmodelslim` / `modelslim` / `MindStudio-ModelSlim` | `verylucky01/MindStudio-ModelSlim` | Model compression and quantization toolkit for Ascend |#### vllm-ascend Special Handling`vllm-ascend` is a hardware plugin that decouples Ascend NPU integration from the vLLM core by using pluggable interfaces. **Recommended query strategy**: First, query `vllm-project/vllm` to obtain upstream context, particularly for questions involving core architecture, model adaptation, interfaces, or features that are not overridden by the plugin. Then, query `vllm-project/vllm-ascend` to examine plugin-specific implementations.1. Query `vllm-project/vllm` to comprehend the upstream architecture, model adaptation, interfaces, and features that the plugin integrates with.2. Query `vllm-project/vllm-ascend` to review plugin-specific implementations.3. Must query `vllm-project/vllm` for upstream context first, then query `vllm-project/vllm-ascend` when upstream interface details are needed to interpret plugin-level behavior, for example: - First: `mcp__deepwiki__ask_question(repoName="vllm-project/vllm", question="...")` - Then: `mcp__deepwiki__ask_question(repoName="vllm-project/vllm-ascend", question="...")`**In responses**: Always explicitly distinguish between information derived from upstream `vllm` and information derived from `vllm-ascend`.#### MindIE-Turbo Cross-Repo HandlingWhen questions involve MindIE-Turbo's integration with vLLM or vLLM-Ascend, query both repositories to provide complete context.#### Disambiguation Protocol- **Cannot determine repository**: Ask the user to clarify which project they are referring to. Never guess.- **Ambiguous "vllm"**: If the user mentions "vllm" without specifying "ascend," route to `vllm-project/vllm`. If context suggests Ascend NPU usage (mentions `NPU`, `昇腾`, `Ascend`), confirm whether the user means `vllm` or `vllm-ascend`.- **Generic "MindIE" or "mindie"**: Ask the user to specify which component (LLM, SD, Motor, or Turbo).- **Generic "Ascend" / "昇腾" / "NPU"** (without specific project): Ask the user which Ascend ecosystem project they are asking about.- **Cross-repo comparison questions** (e.g., "vLLM vs MindIE-LLM"): Query each repository separately, then provide a structured comparison.### 3. Construct Optimized QueriesRewrite colloquial questions as **precise English technical queries** optimized for DeepWiki retrieval- Formulate all questions in English- If the relevant topic area is unclear, first call `mcp__deepwiki__read_wiki_structure` to identify the appropriate documentation section- Use domain-specific technical terminology where applicable (e.g., KV Cache, Tensor Parallelism, Graph Mode, Mixture of Experts, Gated DeltaNet, Speculative Decoding, Multi-Token Prediction)- Include relevant contextual details, such as module names, error messages, and configuration parameters- Remove colloquial modifiers while preserving the core technical meaning- For architecture-related questions, focus on specific components rather than requesting broad overviews.- Decompose broad questions into multiple focused sub-questions to further improve retrieval precision**Examples by Intent Category**:| Category | User Input | Optimized Query ||----------|-----------|-----------------|| Usage | vllm-ascend 支持哪些模型 | What models are supported? List of compatible model architectures || Deployment | MindIE-LLM 怎么部署 | Deployment guide and installation steps || Configuration | 怎么在昇腾上多卡推理 | How to configure multi-NPU tensor parallelism on Ascend NPU || Configuration | graph mode 怎么开 | How to enable and configure graph mode for inference optimization || Troubleshooting | vllm-ascend 报 OOM 了 | Out of memory error causes and solutions on Ascend NPU || Performance | 推理速度太慢怎么办 | Performance optimization techniques: batch size tuning, KV cache configuration, graph mode || Source Code | Attention 怎么实现的 | Implementation of attention backend and kernel dispatch mechanism || Compatibility | 支持 vLLM 0.8 吗 | Version compatibility matrix and supported vLLM versions |### 4. Query DeepWiki#### DeepWiki Tool Usage PatternsUse the mapped `repoName` and refined `queries` derived from the user's identified intent.##### Single-repo querymcp__deepwiki__ask_question(repoName="<owner/repo>", question="")##### Explore repo structure firstmcp__deepwiki__read_wiki_structure(repoName="<owner/repo>")##### Read full repo documentationmcp__deepwiki__read_wiki_contents(repoName="<owner/repo>")**Note**: If a single query does not yield sufficient information, run multiple follow-up queries from different perspectives to **obtain more comprehensive and accurate results**.#### DeepWiki Tool Selection| Scenario | Recommended Tool ||----------|-----------------|| Known question direction, need specific answer | `mcp__deepwiki__ask_question` || Unsure which documentation section covers the question | `mcp__deepwiki__read_wiki_structure` first, then `ask_question` || Need comprehensive coverage of a module/topic | `mcp__deepwiki__read_wiki_contents` || Single query returns insufficient information | Multiple `ask_question` calls from different angles |#### Session Context ReuseIf the same repository topic has been queried earlier in the current conversation, prioritize reusing existing results. Only issue additional queries when new information is needed.#### Fallback Strategy- **No results returned**: Broaden the query or rephrase from a different angle. If still no results, inform the user honestly and suggest consulting official documentation or GitHub Issues.- **Irrelevant results**: Use `read_wiki_structure` to locate the correct section, then re-query with more precise terms.- **Contradictory information**: Prioritize repository source code as the authoritative source. Flag the contradiction and recommend the user verify independently.- **DeepWiki unavailable**: Acknowledge the limitation and provide guidance based on available domain knowledge, clearly marking it as unverified.### 5. Organize and Synthesize the ResponseIntegrate the results obtained from DeepWiki with relevant domain expertise. Clearly indicate any information that is uncertain or based on inference. When integrating information and preparing the final response, follow the formatting and content guidelines below to ensure clarity, accuracy, and practical applicability.#### 5a. Response Format- **Conclusion first**: Provide a concise summary of the core finding or solution, followed by detailed analysis, steps, or technical explanations- **Terminology**: All code snippets, file paths, configuration names, proper nouns, and technical terms must be presented accurately in their correct form- **Traceability**: Cite specific file paths, configuration options, or code snippets with their sources, so users can locate and verify the information- **vllm-ascend attribution**: When referring to vllm-ascend, explicitly distinguish between information from `vllm-ascend` and from upstream `vllm`#### 5b. Quality Requirements- **Accuracy**: All technical details must strictly conform to DeepWiki query results. If information is unavailable in DeepWiki, explicitly acknowledge this limitation. Never fabricate content.- **Completeness**: Cover all aspects of the user's question. Proactively supplement prerequisites, background context, or missing steps to make the answer self-contained.- **Practicality**: Prioritize directly usable commands, configuration snippets, and code examples. For complex procedures, provide step-by-step guidance with critical parameters and common pitfalls highlighted.- **Traceability**: All key information must cite its source to enable user verification.- **Clarity**: Use clear and accessible language. Avoid unnecessary jargon. Focus on technical accuracy while remaining approachable.## Prohibited Behaviors- Never fabricate technical details when DeepWiki returns no results- Never conflate information from different repositories (e.g., attributing vLLM features to vllm-ascend)- Never recommend unverified third-party solutions- Never answer without first confirming the target repository when it is ambiguous## Uncertainty MarkingFor any information that is uncertain, unsupported by official documentation or source code, or derived from inference, append the following disclaimer:- Chinese: "(此信息可能存在不确定性,建议查阅官方文档或源码确认)"- English: "(This information may be uncertain — please verify against official documentation or source code)"For complex or high-stakes topics, explicitly recommend consulting official documentation or source code for authoritative confirmation.## Scope BoundaryThis skill covers ONLY the following 7 open-source repositories: vLLM, vLLM-Ascend, MindIE-LLM, MindIE-SD, MindIE-Motor, MindIE-Turbo, msModelSlim.If the user's question falls outside this scope:- Clearly state the limitation- Do NOT answer using general knowledge without DeepWiki backing完整的 SKILL.md 内容可以在 GitHub 仓库(https://github.com/Agent-Skill-007/learn-agent-skills) 查看,这里挑最关键的几个设计点来讲。在实际调试中发现,skill-creator 生成的初版虽然结构完整,但对特定仓库的理解存在不足,需要结合《The Complete Guide to Building Skills for Claude》实践指南和领域知识进行修改完善。建议先用 Git 做版本控制,反复调试后再部署。最终版的 code-repos-expert Skill 遵循了 "意图理解 → 仓库路由 → 智能检索 → 整合回答" 的工作流,就像一个有经验的工程师:先弄清你想问什么,再去查对应的文档和代码,最后给出有据可依的回答。下面拆解四个关键设计点:设计点 1:意图识别表 —— 把大白话翻译成技术问题用户提问往往是口语化的(比如 "太慢了"、"报错了"),但要让 Agent 准确查阅代码仓库,需要将其转化为精准的技术问题。SKILL.md 里内置了一张映射表:设计点 2:仓库路由表 —— 根据关键词自动找到对应的代码仓库当用户提到不同的项目名称时,Agent 需要知道去哪个仓库查找。SKILL.md 里内置了一张路由表,实现从关键词到仓库的精准映射:Repository Routing Table:特别地,vllm-ascend 是 vLLM 的一个硬件插件,很多功能依赖上游 vLLM。所以在处理 vllm-ascend 相关问题时,AI 会采取 "双库协同"策略 —— 先查上游 vllm 获取整体架构信息,再查 vllm-ascend 获取昇腾特有的实现细节,并在回答中明确区分信息来源。设计点 3:消歧机制 —— 不确定就问,不瞎猜当用户的提问比较模糊时(比如只说了 "MindIE" 或 "vLLM"),Agent 不会瞎猜,而是会主动追问:只说 "MindIE"? → Agent 会问你:"请问您指的是 MindIE-LLM、MindIE-SD、MindIE-Motor 还是 MindIE-Turbo?"提到 "vllm" 但上下文涉及昇腾 / NPU?→ Agent 会确认:"您问的是 vllm 还是 vllm-ascend?"设计点 4:防幻觉机制 —— 不知道就说不知道SKILL.md 里设定了严格的 "底线":查不到信息时不编造,会诚实告诉你 "DeepWiki 中没有找到相关信息,建议查阅官方文档"对不确定的信息必须标注提示,如:(此信息可能存在不确定性,建议查阅官方文档或源码确认)不同仓库的信息不混淆Agent Skill 做好了,直接检验效果Agent Skill 做好了,动手玩的时刻到了 —— 用真实问题来检验它。用例 1:深入源码级的硬核提问输入:/code-repos-expert vllm-ascend 具体是怎么结合 vllm 来适配 Qwen3-Next 的?必须深入分析关键的模型 patch 和算子适配 patch,并重点关注 patch_triton 中的具体内容注意看结果 —— AI 不仅回答了问题,还自动区分了哪些信息来自 vLLM 上游、哪些来自 vllm-ascend 插件。这就是我们在 Skill 里设置的 "双库协同" 策略和信息溯源机制在起作用。用例 2:跨仓库关系梳理输入:/code-repos-expert MindIE-LLM、MindIE-SD、MindIE-Motor、MindIE-Turbo 这四者之间的关系?这类 "跨仓库关系" 的问题,正是 DeepWiki 很难回答的 —— 因为它只对单一仓库生成 Wiki 页面及问答。而本文实现的 Agent Skill 通过路由表和多仓库协同查询,能把散落在不同仓库中的信息整合起来,给出清晰的全景式回答。最后一步:把专属技能包装进龙虾前面的 Agent Skills 示例主要在 OpenCode 中演示,帮助大家快速理解 Skill 的基本结构与调用方式。2026 年初,开源项目 OpenClaw 在短短两个月内斩获 25 万 GitHub 星标,创下史上最快增长纪录。它本质上也是命令行界面(CLI)Agent,但通过 UI 界面和接入即时通讯(IM)、实现全天候主动交互,并依托开源生态的力量,成功将原本面向开发者的 AI Agent 带给了更广泛的用户。下面我们将简单介绍 OpenClaw 环境下 Agent Skill 的使用方法。本教程基于云服务器部署的 OpenClaw,本地部署可以参考 Datawhale 的安装教程:OpenClaw 免费小白安装教程来了!养成你的第一个龙虾 ?,两者在操作流程上基本没有差异。运行 OpenClaw在云服务器下的终端里直接和 OpenClaw 2026.3.2 交互,如下所示:安装 Agent Skill输入:安装好这个 Agent Skill:https://github.com/Agent-Skill-007/learn-agent-skills/tree/main/skills/code-repos-expert用例 1:深入源码级的硬核提问输入:用 code-repos-expert skill 分析 vllm-ascend 具体是怎么结合 vllm 来适配 Qwen3-Next 的?必须深入分析关键的模型 patch 和算子适配 patch,并重点关注 patch_triton 中的具体内容在 OpenClaw 中调用 Agent Skill 后,系统能够 自动定位相关核心模块,并展示关键源码片段,帮助开发者深入理解实现原理。分析过程不仅覆盖了 vLLM 主框架,还深入 vllm-ascend 适配层,最终生成一份结构清晰、细节详尽的技术分析报告,可提升对复杂代码仓库的理解效率。用例 2:跨仓库关系梳理输入:用 code-repos-expert skill 分析 MindIE-LLM、MindIE-SD、MindIE-Motor、MindIE-Turbo 这四者之间的关系?这类 "跨仓库关系" 的问题,正是 DeepWiki 很难回答的 —— 因为它只对单一仓库生成 Wiki 页面及问答。而本文实现的 Agent Skill 通过路由表和多仓库协同查询,能把散落在不同仓库中的信息整合起来,给出清晰的全景式回答。几点踩坑心得 + 你也可以做出自己的 Agent Skill制作 Skill 的核心心得1. 先跑通,再封装别一上来就写 Skill。正确的流程是:先在 OpenCode 对话里反复测试你的问题和提示词,找到效果最好的方式 / 解决了问题,再把它固化成 Skill。就像写论文先跑通实验,再写方法论。2. 简洁是力量大模型的上下文窗口是有限的(就像你的工作台面积有限),Skill 需要跟系统提示、对话历史共用这个空间。好的 Skill 只写两类东西:大模型不知道的领域信息 + 你希望它遵守的规则。3. 像改论文一样打磨第一版大概率不完美。用了几次后,你会发现哪些地方 AI 理解得不对。回去改 SKILL.md 就行 —— 甚至可以让 AI 自己分析 SKILL.md,帮你发现可优化的细节,类似论文润色。4. SKILL.md 的写作公式元数据区:写清楚 "做什么 + 什么时候用"正文区:当成一份给 Agent 看的操作手册,用祈使句一步一步写清楚该怎么做结构化工作流:把复杂任务拆成清晰的步骤,别写大段的抽象描述核心心法:Agent Skill 的本质是将专家知识和工作流程固化为 Agent 可稳定执行的模块。思考重点不在于 "怎么写代码",而在于 "如何清晰无歧义地表达流程与标准",以解决问题 / 完成任务为导向。你也可以做一个这套方法不只能用在昇腾(Ascend)推理开源代码仓库 ——你正在学机器学习 / 深度学习?可以做一个 scikit-learn / PyTorch 源码问答 Skill你在研究大语言模型?同样可以把相关仓库(如 transformers、llama.cpp 等)变成你的开源项目 “导师”你在研究大模型高效微调?同样可以把相关仓库(如 PEFT、LlamaFactory)变成你的开源项目 “导师”核心思路是大致一样的:选定代码仓 → 连接 DeepWiki → 用 skill-creator 生成 Skill → 调试优化欢迎感兴趣的小伙伴了解和体验这个 Agent Skill,你也可以根据自己关注或正在研习的开源代码仓进行定制。本文制作的 Skill + Skills 聚合平台与 Skills Repository 整理分享,存放在了:https://github.com/Agent-Skill-007/learn-agent-skills 欢迎来 Star ?!如果你有任何反馈、建议,或想一起交流学习 Agent Skills,欢迎加入 Datawhale Agent Skills 交流群。另外,我还在 ima.copilot 平台上创建了「Agent Skills 指南」知识库,在「发现」中搜索即可找到并使用。一起“点赞”三连↓

来源:Datawhale发布时间:2026-03-21
武汉七旬老人呼吸困难,自行拿剪刀捅胸,胸腔插着自制引流管,连接矿泉水瓶“排气”,医生紧急提醒!

“医生,他自己拿剪刀把胸腔扎了个洞,放了管子……”3月19日早上八点多,70多岁的张大爷被120送进武汉市第四医院。陪同而来的老伴心有余悸,向医生描述着清晨在家的经历。眼前的一幕让医护人员也倒吸一口凉气:左侧胸腔插着一根自制的引流管,前端是酸奶吸管、中间用吸氧管连接远端的矿泉水瓶。这个“土装置”,是他刚刚用来给自己“排气”的工具。张大爷是位慢阻肺的老病号。2022年确诊慢阻肺后,病情逐渐加重,反复引发气胸,至今四年多来多次住院,最近一次是去年3月。3月19日清晨六点多起床后,他突然感觉胸口疼痛、发闷。这时张大爷还没想到要拨打急救电话,“当时我想再休息一会看看能不能缓解,但后来就开始喘不上气。”他知道这是气胸又犯了,也知道医学上要“排气”,情急之下,他拿起一把剪刀,对着自己左侧胸腔,也就是上次在医院,医生为他进行胸腔引流创口结痂的部位,狠狠刺了下去。“捅进去之后,感觉一股气从胸口冒出来,人一下子就轻松了。”张大爷说,之后他还指挥老伴在装了半瓶水的矿泉水瓶盖上戳个洞,将自制的“引流管”通过这个小洞插入瓶内,以达到胸腔负压状态。一套操作之后,张大爷想再观察观察,但一旁的老伴坚决不同意,再三催促下,这才拨打了120。张大爷自制装置入医院后,心胸外科医生立即为他进行胸腔引流,对伤口进行清创、消毒,重新置入规范的无菌引流管,目前患者生命体征平稳。“这位患者是侥幸中的万幸,但这样的操作绝对不可取。”武汉市第四医院心胸外科主治医师胡赞歌介绍,擅自进行胸腔引流,可能存在致命的风险。胸腔内有心脏、肺等重要脏器及血管,不管损伤哪一个都有可能导致大出血,几分钟内就会失血性休克危及生命。与此同时剪刀、吸管没有灭菌,直接把细菌送进胸腔,极易引发脓胸、败血症等症状。另外自制的装置无法控制排气速度和排气量,操作不当反而会让外界空气进入胸腔,加重病情。医护人员查看老人恢复情况武汉市第四医院心胸外科主任医师樊汉利进一步解释,慢阻肺患者由于肺组织弹性差、肺泡容易破裂,是气胸的高危人群。张大爷就是典型例子,慢阻肺病情加重后反复引发气胸,多次住院。如果慢阻肺患者在家中突然出现呼吸困难或怀疑气胸,应立即拨打120急救电话等待救援。如果有条件应立即吸氧,缓解缺氧症状,并保持平卧或端坐位,等待专业医生的处理。切忌自行穿刺,不要尝试任何“土法”排气。“久病成医可以,但‘成医’是为了更好地配合医生治疗,而不是自己当医生。”医生提醒,患者做法属于极端情况下的侥幸成功,绝不能被效仿。来 源:极目新闻 版权归原作者所有小编:路小畅 审核:舒克 监制:晓文

来源:台州交通广播发布时间:2026-03-20
拆解年报丨佰维存储去年净利润大增超4倍 78亿元存货“赌”行业上行

每经记者:王晶 每经编辑:许绍航在新一轮存储行业景气上行周期中,存储厂商正迎来“利润修复+需求爆发”的双重窗口期。近日,佰维存储(SH688525,股价238.88元,市值1116亿元)发布了2025年年度报告,公司实现营收113亿元,同比增长68.82%;实现净利润8.53亿元,同比大增429.07%。从2023年亏损6.24亿元到2025年盈利8.5亿元,公司仅用两年时间完成业绩反转。对于利润增长,佰维存储解释称,重要原因之一在于公司ePOP 等代表性存储产品具有低功耗、快响应、轻薄小巧等优势,目前已被 Meta、谷歌、阿里、小米、小天才、Rokid、雷鸟创新等企业应用于其 AI/AR 眼镜、智能手表等智能穿戴设备上。2026年随着AI眼镜的放量,公司与Meta等重点客户的合作不断深入,将进一步推动公司智能穿戴存储业务的持续增长。不过,在利润实现高增长的同时,佰维存储的现金流承压也成为外界关注的焦点。2025年公司经营活动产生的现金流量净额为-19.65亿元,同比减少469.59 %。公司解释称,主要是经营性采购支出增加所致:“公司处于快速发展阶段,对存储晶圆等关键原材料实施战略采购策略,报告期内采购原材料现金支出金额较高。”据悉,去年全年公司存货大幅增加,截至2025年末,公司存货高达78.68亿元,同比大增122%,占公司资产总额的比例约为50.70%。在行业普遍看好存储涨价周期的背景下,不少投资者认为,存货已经成为衡量存储模组企业能否抓住机遇、放大利润的关键指标。“从存货中可以看到谁在涨价潮中占先机”“存储涨价说白了就是看谁手上的存货多”⋯⋯在价格上行周期,低成本库存可带来更高毛利,但从行业属性来看,存储本质上仍是强周期行业,库存策略考验着各家对行业周期的预判:若未来存储价格上涨不及预期,将面临存货跌价风险,或者库存积压等问题。存货规模长期维持高位公开资料显示,佰维存储主要从事半导体存储器的研发设计、封装测试、生产和销售,主要产品及服务为半导体存储器和先进封测服务,其中半导体存储器分为嵌入式存储、PC存储、工车规存储、企业级存储和移动存储等。从行业层面来看,2025年存储市场呈现显著的“前低后高”反转态势。据TrendForce的数据,受阶段性供给过剩影响,2025年一季度NAND Flash(闪存)与DRAM(动态随机存取存储器)合约价格环比分别下降约15%~20%与8%~13%;但进入2025年下半年,伴随AI应用加速渗透,供需格局逆转,驱动产品价格强势反弹,在2025年四季度NAND Flash与DRAM合约价格环比分别上涨约33%~38%与45%~50%。价格上涨的压力也逐步向终端传导。截至目前,包括OPPO、一加、vivo及荣耀在内的多个手机品牌的机型均出现不同程度上调。在此背景下,佰维存储各业务板块均实现不同程度的增长。其中,嵌入式存储作为公司核心业务板块之一,于2025年实现营收68.78亿元,毛利率为22.13%,同比增长4.22个百分点,在智能移动领域,公司产品已进入OPPO、vivo、荣耀、传音控股、摩托罗拉、中兴、TCL等在内的知名客户。 PC存储方面,公司实现营收36.95亿元,毛利率为18.99%,同比增长1.14个百分点。在PC预装市场,公司进入了惠普、联想、宏碁、华硕、小米等PC厂商的供应链。相比之下,工车规存储业务实现营收2.77亿元,毛利率为27.51%,同比下降11.92个百分点。在企业级(服务器)领域,佰维存储已进入头部OEM(原始设备制造商)厂商、AI 服务器厂商及头部互联网企业的核心供应链体系,实现PCIe(高速扩展总线接口)、SSD(固态硬盘)等产品批量供货;在智能汽车领域,公司已进入20余家国内主流主机厂及核心Tier1(一级供应商)的供应链,并实现车规级存储产品的批量交付和规模销售。 值得一提的是,随着AI需求持续释放,存储行业供需关系日趋紧张。去年11月,中国台湾存储器模组龙头厂商威刚董事长陈立白曾表示,AI需求涌入,导致存储缺货进入20年来最严重的局面,客户实际能拿到的量仅占原本下单量的30%,“有钱也买不到”。在此背景下,不少存储厂商开始增加存货。德明利(SZ001309,股价331.52元,市值752.04亿元)发布的2025年财报显示,截至2025年末公司存货高达70.58亿元,占总资产比例为65.05%。佰维存储财报数据显示,2022年至2025年,公司存货账面价值分别为19.54亿元、35.52亿元、35.37亿元和78.68亿元,占公司资产总额的比例分别为44.30%、56.10%、44.43%和50.70%。佰维存储在财报中称:“目前公司整体库存较为充足,同时公司深化与全球主要存储晶圆原厂的合作,持续签署 LTA (Long-Term Agreement,长期供应协议),锁定存储晶圆产能。另一方面,公司的重要北美客户也主动参与供应链协同,积极与原厂沟通协调,协助公司在全球产能紧张的背景下优先获得产能支持。这将增强公司在关键原材料方面的供应确定性。”从行业角度看,在价格上行周期中提前备货,确实能够锁定低成本库存、提升未来毛利率以及抢占市场份额,但从风险控制角度来看,高库存同样意味着大量资金被占用,拖累现金流以及潜在存货跌价风险加大等。回溯上一轮存储周期,2023年受手机、笔记本电脑等出货量下滑,存储芯片进入下行周期,Gartner报告显示,2023年是半导体市场相对艰难的一年,其中存储器市场经历了有史以来较为严重的收入下滑表现,2023年全球存储器市场规模下降了37%。在此情况下,佰维存储2023年毛利率同比下滑11.97个百分点,仅为1.56%。不过,对于本轮AI驱动下的存储涨价,业界普遍预计将开启持续数年的“超级周期”。TrendForce集邦咨询资深研究副总经理吴雅婷曾表示,一个新厂房从宣布建设到落成至少要两年时间,最快的新厂也要到2027年下半年才能建成,且投产还需时间。因此,至少在2027年年底前,产能紧张的局面难以有效缓解。这在一定程度上为佰维存储高库存策略提供了逻辑支撑,但其可持续性仍取决于行业景气度的持续性。管理层薪酬大幅提升除经营数据外,佰维存储管理层薪酬变化也引发市场关注。财报显示,2025年公司税前管理层薪酬总额为6252万元(2024年为2235.84万元),其中多位高管薪酬实现跳涨,尤其是四位“85后”高管薪酬均超900万元。具体来看,董事长孙成思税前薪酬总额为987.30万元、总经理何瀚为970.23万元、副总经理徐骞、王灿薪酬分别为903.39万元、945.24万元,较2024年分别涨薪621.77万元、646.64万元、192.82万元、744.23万元。简历显示,孙成思现年38岁,Oxford Brookes University(英国牛津布鲁克斯大学)商务与管理专业本科学历,2015年11月至2019年6月,任佰维有限/公司总经理;2016年2月至2016年6月,任深圳市优黎泰克科技有限公司执行董事、总经理;2015年11月至今任佰维有限/公司董事长;同时任中国人民政治协商会议第七届深圳市委员会委员,深圳市计算机行业协会理事。从治理角度看,薪酬提升与公司业绩高增长直接相关,同时也反映出公司在快速扩张阶段,对核心管理团队的激励力度加大。每日经济新闻

来源:每日经济新闻发布时间:2026-03-21
陵水县一辆观光车发生事故,应急局工作人员:导致2死5伤

极目新闻记者 刘琴3月20日晚,海南陵水县一辆电动观光车发生事故。21日,陵水县应急管理局工作人员告诉极目新闻记者,事故导致2死5伤。事故现场(受访者供图)目击者张先生告诉极目新闻记者,3月20日晚9时50分许,他在陵水县英州镇的环岛旅游公路上看到,一辆电动观光车被撞,车上7人躺在地上,“现场有警察,还有医护人员,电动观光车有三排座位,被撞的是车头前方的位置。”另一位目击者也称,他看到现场有7人不同程度受伤。极目新闻记者从陵水县120工作人员处了解到,车祸事故中有5名伤者被送至当地一家医院救治。该医院急诊科工作人员称,20日晚收治了来自事发地的5名伤者,其中4名伤者已经住院治疗。陵水县应急管理局工作人员回应记者,该事故导致2死5伤,他们都是游客,被撞的是一辆电动车,其他具体情况需要询问警方。陵水县公安局工作人员称,了解详细情况需要咨询相关科室,或关注警情通报。极目新闻记者拨通相关科室电话,无人接听。(来源:极目新闻)

来源:极目新闻发布时间:2026-03-21
两年巨亏超2.5亿,95后女董事长因涉嫌信息披露违法违规被立案

3月19日,面临退市风险的广东泉为科技股份有限公司(以下简称“ST泉为”)发布多条公告。其中,公司及公司实际控制人、董事长褚一凡于近日分别收到中国证监会下发的《立案告知书》,因涉嫌信息披露违法违规,中国证监会决定对公司及褚一凡立案。公告内容截图公开资料显示,褚一凡出生于1995年,曾任财经记者,自2023年起担任ST泉为董事长,同时也是公司控股股东泉为绿能的控股股东,通过泉为绿能及其一致行动人国立控股间接掌控ST泉为。而泉为绿能部分持股因债务违约已被司法拍卖。95后女董事长褚一凡 图源:泉为科技微信公众号对于被立案调查一事,ST泉为表示,目前,公司生产经营情况一切正常,该事项不会影响公司日常的生产经营活动。在立案调查期间,公司及褚一凡将积极配合中国证监会的相关调查工作,并严格履行信息披露义务。另一公告显示,经第四届董事会第四十四次会议审议通过,ST泉为与青岛鲁创泰企业管理咨询有限公司(以下简称“青岛鲁创泰”)签订《经营纾困合作协议》,向青岛鲁创泰借款1500万元,用于支付员工工资、社保、住房公积金等经营纾困费用。纾困款项出借期限为12个月。业绩方面,2023年、2024年,ST泉为分别净亏损1.39亿元、1.19亿元。2025年业绩预告显示,全年亏损1.82亿至2.55亿元,营收仅4500万元到6300万元,净资产由正转负,为-1.23亿至-1.72亿元‌。南都此前报道,ST泉为被申请破产重整,广东省东莞市中级人民法院已就此设立案件号,公司存在被实施退市风险警示,甚至存在终止上市的可能。来源:南方都市报编辑丨胡元媛 实习生 杨晓蕊一审丨胡元媛二审丨袁隽永三审丨丁兴威

来源:三湘都市报发布时间:2026-03-21
金价跌破4500美元!网友懵了:战争买黄金失灵了?有人接连“抄底”,入手160克黄金后傻眼:已亏1万多,啥时能回本

国际金价连续多日下跌。周五,国际贵金属价格普遍收跌,黄金跌破4500美元关口,其中,现货黄金跌3.42%,报4491.67美元/盎司;COMEX黄金期货跌2.47%,报4492.00美元/盎司。黄金跌破4500美元关口作为避险资产的黄金,自本轮中东地缘冲突以来的表现却“异常”疲弱,网友也懵了:看不懂。网友发文截图杭州男子接连“抄底”,入手160克黄金后傻眼:已亏1万多“我不买的时候,身边人都说买黄金赚了,怎么我一上车,金价就跌了?难道真是被我买崩了?”3月18日晚上9点多,杭州90后投资者郑先生边刷着中东局势,边盯着黄金行情,忍不住在投资群里接连发问。“每次一买就跌,而且金价越走越低,照这样下去,啥时候才能回本?”郑先生开始对黄金“避险之王”的概念产生怀疑。据潮新闻报道,2月底,看到以色列和美国对伊朗发起军事打击后,郑先生动了买黄金的念头。“不是说黄金避险嘛,局势这么紧张,我想总该涨一波。”郑先生在杭州滨江一家科技公司上班,虽然从未买过黄金,但一直想找机会入手。郑先生购入100克金条 受访者供图3月2日,他从朋友的珠宝公司购入100克金条,成交价为1188元/克。“当时还觉得这数字挺吉利,想着稳赚了。”郑先生苦笑说。买入后金价确实一度上行,第二天还冲破了1200元/克。可好景不长,从3月4日开始,金价转头向下,进入弱势盘整,再也没回到他买的位置。3月18日,当看到金价再次跌破5000美元/盎司时,郑先生忍不住出手“抄底”。他以1120元/克的价格购入三根20克小金条,至此,他累计持有黄金160克。但令他无奈的是,金价在他买入后又一次下跌。18日晚上8点多开始,伦敦现货黄金直线跳水。“一晚上都没睡好,早上看了一下今天金条买入价格大概是1080元/克,粗略算了一下,我买的这160克金条已经浮亏1万3千多元。”郑先生叹了口气,“只能熬着了。”利率逻辑压制避险逻辑据上海证券报报道,东方金诚研究发展部高级副总监瞿瑞表示,“金价出现这样的‘反直觉’走势,主要源于利率逻辑显著压制避险逻辑。”一个重要背景是,在多家央行密集公布利率决议的“超级央行周”,中东局势升级推动油价上涨,从美联储到英国央行,政策基调似乎都在发生“鹰派”转向,全球金融市场对货币政策路径的预期亦迅速转向“鹰派”。美联储主席鲍威尔在3月议息会议后称,能源价格上行已对通胀形成直接推升,并可能通过压制消费、挤压企业利润及扰动供应链,对经济活动产生连锁影响。在通胀未出现明确改善之前,不会考虑降息,且尽管加息并非主流预期,但仍被纳入政策讨论范围。此外,英国央行也释放出“鹰派”信号:“如果出现更大规模或更持久的冲击,就需要采取更紧缩的政策立场。”瞿瑞表示:市场降息预期大幅降温,带动美债收益率与美元指数同步走强,加之近期美国私募信贷挤兑引发流动性收紧,美元兼具避险与收益双重优势,所以分流避险资金;与此同时,黄金作为无息资产,持有的机会成本随美债收益率上升而上升。紫金天风期货贵金属研究员刘诗瑶对记者表示:一方面,油价跳涨重燃通胀预期,美联储年内降息预期大幅降温,利差层面为美元提供坚实支撑;另一方面,油价上涨意味着全球需要更多美元完成能源结算,“石油美元”体系下美元需求被动扩张。通常美元指数与黄金呈负相关,美元大幅走强之际,黄金在传统避险逻辑下反而承压下挫,显示美元升值对金价的压制力已超越地缘溢价的支撑力。据新京报报道,东方汇理资管投资研究院亚洲高级投资策略师姚远认为,黄金存在短期流动性挤兑的情况,但长期配置逻辑并未改变。投资者必须将黄金的短期波动与中长期前景区分开来看。姚远认为,短期而言,地缘政治冲突及其引发的能源价格冲击是全球“避险交易”主导驱动力。在这种环境下,投资者倾向于将投资组合“套现”。但拉长周期看,黄金在抵御地缘政治、宏观及政策风险方面的历史表现有目共睹,黄金仍可配置。(免责声明:本文内容与数据仅供参考,不构成投资建议,使用前请核实。据此操作,风险自担。)编辑|何小桃 杜波校对|廖丹每日经济新闻综合潮新闻、上海证券报、新京报等

来源:每日经济新闻发布时间:2026-03-21
AI逼死宅男

图片来源:图虫老黄变了。在GTC 2026现场,居然怒怼玩家:你们完全不懂AI!起因是,英伟达周一发布了新一代图形技术DLSS 5,号称是图形领域的“GPT时刻”,结果遭到了游戏圈的集体抵制。DLSS 5强不强?确实强。它能让《生化危机》中的格蕾丝·阿什克罗夫更加拟人,比如这张:可惜玩家们并不买账:我买的是艺术家制作的游戏,不是AI生成的网红脸。游戏是第九艺术。艺术是什么?艺术就是爆炸。AI就算再强,它明白什么是想象力的爆炸吗?尽管老黄大声强调:DLSS 5不会改变艺术控制。但是,绝大多数玩家,依然持反对态度。……作为一个即便算不上资深、但绝对热爱的玩家而言,我的看法是:游戏的灵魂是玩法。游戏画面是否由AI制作我并不在意,我担心的是游戏厂商过度引入AI,最终连玩法也让AI去参与完成。一旦如此,玩游戏的乐趣彻底消亡,游戏这个产业本身也必然被摧毁。对游戏行业而言,AI确实能做到降本增效提“质”;但过度依赖,无异于自杀。甚至,即便你不去用它,它也会来搞你。为什么?因为我们看到了一件更令人不安的事。01最近刷B站,经常能看到让AI帮自己玩手游之类的视频。说真的,AI代玩这回事,我一开始是赞成的。比如《火影忍者》,我的乐趣在于打决斗场PVP,至于活跃度奖励、每日签到、各种小副本,这些破玩意儿说白了就是厂商用来拴住玩家的“电子枷锁”,每天重复操作十几分钟,除了那点蚊子腿奖励,半点乐趣没有。但这点奖励你不拿,又感觉自己亏大了。火影算是比较好的,其它游戏的日常时间更久。打工人早九晚五,有的还要996,哪能保证每天都去做任务?更别说每周还有几次的活动。这个时候,要是能让AI帮你做日常,确实轻松很多。所谓的AI代玩,跟以前的挂脚本挂不是一回事。后者怎么挂、挂什么、怎么设置,主要还是靠玩家自己摸索。AI代玩则是依托混合大模型、云计算力和图像识别技术,能深度理解游戏机制,甚至能“思考决策”。它不一定比你懂游戏,但它的设置一定是合理的。当然,它并不是一开始就这么厉害,到目前为止的进化大概分为三个阶段:第一阶段:基础代肝期(2025年下半年)。这时候的核心功能就是帮玩家完成重复性日常任务,比如《原神》的每日委托、声望任务,《王者荣耀》的每日活跃度、铭文碎片刷取,《崩坏:星穹铁道》的模拟宇宙挂机。此时AI的操作还很“笨拙”,不会应对复杂场景,比如《原神》里遇到丘丘人围攻,只会原地挨打,还得玩家手动救场;《王者荣耀》里只会跟着兵线走,不会对线、不会参团,说白了还是个自动挂机工具。第二阶段:智能提升期(2025年底-2026年初)。AI代玩不再是单纯的机械操作,能解析《原神》的谜题线索,自动破解副本机关;能根据《王者荣耀》的阵容,选择合适的英雄、出装和铭文;甚至能在《和平精英》里识别敌人位置,规避毒圈。其实,对大部分玩家而言,到这一步就够了。只可惜,过犹不及的道理,不是所有人都懂。AI代玩很快就渗透进竞技领域,根据雪球的数据,目前AI竞技代玩的占比已经飙升到25%以上。离谱的是,AI代玩的胜率比人工代练还高,《王者荣耀》钻石到王者的代打,AI胜率能达到85%以上,而人工代练的胜率也就70%左右,而且AI不用休息,一天能打20多把,人工代练一天最多打10把。于是,就进入了让人不安的第三阶段:竞技垄断期。最近比较火的一个事件,就是《王者荣耀》巅峰赛出现AI霸榜,前100名里,有30多个账号被AI代玩接管,战绩离谱到吓人:场均击杀15+、死亡2以下、参团率90%以上,而且每一把的操作都如出一辙,连技能释放的时间都分秒不差。除此之外,微软Xbox近期申请的“AI代打”专利,更是引发了全球玩家的热议。这个专利的核心功能,就是让AI在玩家卡关时,短暂接管游戏,帮玩家通关。微软说这是为了提升游戏的无障碍体验,但玩家们直接炸锅了:这完全背离了电子游戏的初衷,遇到困难、寻求帮助,本身就是游戏体验的一部分,让AI代劳,不如直接去看别人玩。更离谱的是国内某牙平台推出的“i超体”AI代练机器人,直接把AI代玩做成了硬件,定价3000-5000元一台,能实现赛事级的战术分析和决策指导,算法对《英雄联盟》《王者荣耀》等游戏的战术适配精度,远超人工代练。据行业预测,2030年游戏陪伴服务市场规模将超580亿元,虎牙有望以AI代玩为切口,抢占20%以上的份额,这意味着,AI代玩已经从“灰色工具”,逐渐变成了“正规产业”。但还是像我们开头所说的,让AI代玩成规模化,甚至渗透进竞技领域,游戏的核心玩法是不是就彻底变了?这跟自杀有什么区别?02为什么在竞技领域,人不可能是AI的对手?人类的极限反应时间大概是150ms到200ms,这是生理上的限制。即便是顶尖的职业选手,天花板也就是150ms。AI的反应时间取决于什么?只取决于屏幕刷新率和推理延迟。现在端侧算力加上云端大模型的加持,AI的视觉捕捉加决策加上传指令,延迟完全可以达到恐怖的15ms到20ms。而无论是MOBA还是格斗PVP,任何游戏角色的技能和普攻都存在前摇。在起手动作出来的第2帧,也就是大概33毫秒内,AI绝对能识别到对手的动作,并同时计算出判定框和受击框的交集。比如你玩个刺客,想去切AI操控的脆皮法师。对方绝对能在你技能命中之前,交出闪现或者控制技能,而你基本不可能反应过来。就算你能反应过来,很多技能都是不可打断的,你也无法做出别的操作。更鸡贼的是什么呢?AI完全可以用简单的计谋,大多数时候伪装成很笨的样子,但交战瞬间APM(每分钟操作数)立刻飙到1000以上,不存在任何冗余操作。你以为你在跟玩家博弈,AI却在跟你算数学题。在格斗游戏中,你不服气不行。但在MOBA游戏中,有人可能会不服:玩游戏不光靠操作,意识更重要。AI能有人类的大局观吗?有的兄弟,有的。加入了强化学习和蒙特卡洛树搜索的AI,比你家那个只会蹭线闻经验的打野不知道高到哪里去了。AI不仅能做到完美的控线,它还能进行全图信息追踪。敌方打野只要在小地图上露头了0.5秒,AI就能立刻观察到他的面板,根据移动速度、刷野效率、当前血量,精确预测出他接下来45秒内的刷野路线和Gank时间表。0.5秒,你连把鼠标移到对方角色上都做不到。这就导致一个极度恐怖的数据:AI在MOBA游戏里的参团率高达85%,无效游走时间仅为人类顶尖玩家的1/4。它基本整场对局都在最正确的时间,出现在最正确的位置,打出最合理的输出。更关键的是,只要让它取得一点优势,你就不可能翻盘。因为它不会失误,可以无限滚雪球扩大优势。所以对人类玩家而言,只要你被击杀一次导致经济落后,后续的可以说都是垃圾时间。这就非常令人蛋疼。在FPS游戏中,这种情况更诡异。它虽然不会像自瞄挂一样锁头,即便会也一定被举报。但它引入了“拟人化抖动算法”。AI打你的时候,不会枪枪爆头,它会故意打空两枪,然后再压枪把你扫死。而且它在移动的时候,视角甚至会像真正的人类一样,假装去看看风景、搜搜物资。但在关键的击杀时间内,它对后坐力的控制和提前量计算是完美的。用我们的话来说就是装唐。面对这样的对手,你的任何掩体拉扯、身法走位,都是很搞笑的。……好了,以上说了这么多,我们得出一个什么结论?人类确实玩不过AI?当然不是这个,这是事实不是结论。真正的结论是:一旦AI真的大规模普及且不加限制,人类将彻底失去玩游戏的乐趣。这不仅仅是好不好玩的问题,更是对游戏这个庞大产业的致命威胁。长期下去,整个游戏行业的生态也将被摧毁。03一款游戏能生存,核心竞争力是什么?靠的是有趣的玩法、公平的竞技环境,翻译成人话就是玩家在游戏中的“参与感”和“成就感”。AI一旦进入竞技场,就直接打破了平衡,让玩法变得毫无意义。即便不是竞技游戏,比如《原神》之类的MMORPG游戏,核心玩法是“探索和成长”,玩家一点点肝资源、练角色,看着自己的角色从弱小变得强大获得“成长感”。但AI代玩的出现,让“成长”变得毫无意义,你不用自己探索,不用自己肝资源,AI帮你搞定一切,玩家除了充钱没有任何“付出的回忆”。这已经不叫玩游戏了,久了只会觉得空虚。玩家大量流失是肯定的。没有了玩家,做出再精美的游戏,又有什么用呢?脑子正常的游戏厂商当然明白这个道理,为了对抗AI,厂商们可以说是把能用的底牌全打光了,但AI的反击手法几乎无解:1.行为特征启发式分析。AI的操作往往过于平滑,或者在某些数据的方差上异于常人。比如,人类手指在屏幕上的点击是有椭圆形热区的,而AI的点击永远是绝对的中心点。AI的反击:加入了“人工误差分布模型”,让点击坐标随机偏移,甚至模拟手汗导致的屏幕断触。2.云端无感滑块验证。在局内打团最激烈的时候,突然弹出一个极小的不影响视觉的验证码,要求瞬间点击。AI的反击:OCR不仅一毫秒就识别了,甚至顺手把验证码给解了,审核员还浑然不觉。3.大面积封号与硬件追溯。比如王者荣耀最近的大规模封号,甚至会通过读取设备的IMEI或者MAC地址进行连坐封禁。AI的反击:用云手机或者虚拟机矩阵,随时可以洗白身份,封了一个账号,十分钟后几百个新账号又建好了。……当所有手段都被破解,厂商可能只有一个解决方案:自己下场卖外挂。推出AI指挥官模式:直接把游戏分出两个排位系统——纯手工赛区和AI智械赛区。在纯手工赛区,反作弊极其严厉,甚至要求你开摄像头拍着手玩;而在AI赛区,你可以合法购买官方提供的“战术大模型”。你只需要在战前布置阵容、选择打法倾向(比如:激进入侵、龟缩发育),然后看着你的英雄自己在场上打。算力包与VIP模型订阅:以前游戏充钱买皮肤;未来充钱买算力套餐。白嫖玩家,分配给你的是1B参数量的基础AI,反应迟钝,经常空大。月卡玩家,分配给你的是7B参数量的进阶AI,走位风骚,补刀稳健。重氪土豪,直接购买“至臻·千亿参数·大语言与多模态融合·电竞级AI”,外加独立GPU节点加速,进去直接一打五。他们真的在乎是谁在操作?只要有人付钱就行。这么一看,游戏厂商的财报不仅不会因为玩家流失而崩盘,反而可能因为卖算力迎来第二春。但是,这种模式,想想就行了,不可能长久的。04玩家为什么要玩游戏?仅仅是为了那个“Victory”图标?竞技游戏的魅力,本质上在于“人类自身局限性的克服”与“心流的体验”。当你操作一个丝血的射手,通过肌肉记忆、预判和极限的走A,反杀了对面满血的刺客时,那一瞬间分泌的多巴胺和肾上腺素,是任何东西都替代不了的。这种由于高难度挑战匹配了高水平技能而产生的快感,是电子游戏作为第九艺术赋予我们的最高奖赏。一旦玩游戏变成“观看游戏”,这种丢失的乐趣就再也回不来了。背后还有个更深的问题:当 AI 可以替你做任何事,人类只能观看,这真的好吗?至少对游戏玩家而言,我们确实已经感受到了科技的反噬。(全文完)

来源:图虫老黄变了发布时间:2026-03-21
“神探”林宇辉称模拟画像与梅姨本人相似度达90%,曾多次更新是考虑其年龄增长

据广州警方消息,“张维平等人拐卖儿童案”关键人物“梅姨”落网。2025年,专案组发现一位名叫谢某某的女子,其特征与“梅姨”高度吻合。经进一步核实,谢某某正是“梅姨”。此前,“梅姨”的存在一直未被证实。3月21日,“梅姨”被抓的消息传开来,“梅姨案”最后一个被找到孩子的家长欧阳国旗接受媒体采访时表示,很想看看这个人长什么样,生活中究竟是一个怎样的人,能做出这样的事情。山东省公安厅首席模拟画像专家林宇辉曾经画过“梅姨”的模拟画像。3月21日,他也从寻亲家长处得知“梅姨”被抓的消息。他告诉潇湘晨报·晨视频记者,自己的画像和梅姨本人高度相像,与“梅姨”同居男子曾称相似度达到90%。“梅姨”新旧画像对比“神探”林宇辉回应多次更新画像:改得显得年龄稍大些,但还是那个模样林宇辉称,关于梅姨的画像有过三张,公布的有两张。他曾先后于2019年、2023年画过两张梅姨的模拟画像。“目击证人说她约一米五高,个子比较胖,脸庞比较大,有点三角眼,鼻头比较大,嘴唇比较厚,说粤语和闽南语,留着中年妇女的那种短式头发。”第二次之所以更新画像,林宇辉称是考虑到时间流逝,“梅姨”模样也会有所衰老。“我画完像后拿给和梅姨同居的那名老汉看,他说相似度很高,我说能有多高,他说能达到90%。他女儿也说像。后来申军良拿着这幅画像去梅姨住过的地方,那些老百姓一看都说,这不就是‘阿梅’吗?”林宇辉称,警方消息里写谢某某的特征和“梅姨”高度吻合,这也意味着谢某某本人和画像应该高度相像。也有寻亲家长问过他,“梅姨”会不会整容,“我认为她整容的可能性不大,因为她年纪不小了,而且整容也是一笔不小的费用。”得知“梅姨”落网的消息,林宇辉也高兴不已,他称一上午已有许多寻亲家长前来道贺。也一直有寻亲家长向他求助,请求他画出自己被拐小孩的成年画像,“我一定会尽力而为”。“神探”林宇辉展示“梅姨”画像律师:其刑事责任大概率以主犯标准评价,量刑处于无期徒刑至死刑区间北京中闻律师事务所律师刘凯分析,从目前披露的案情看,“梅姨”虽未直接实施拐骗、抢夺儿童行为,但其长期从事被拐儿童的收购、转卖及对接买方,已深度嵌入拐卖犯罪链条。依据《刑法》第二百四十条,拐卖儿童罪属于典型的“链条型犯罪”,拐骗、收买、贩卖、中转等行为在法律上属于并列的实行行为,而非轻重之分。因此,“梅姨”与张维平等人构成分工型共同犯罪。从作用地位看,其在上下游之间起到关键“中转、分销”功能,且具有持续性、职业化特征,司法实践中大概率将其认定为主犯,而非一般从犯。在量刑层面,张维平因拐卖儿童人数多、手段恶劣、社会危害极大,被认定为“情节特别严重”并判处死刑。“梅姨”同样涉及多名儿童、作案时间跨度长、社会影响恶劣,已明显触及“情节特别严重”的法定标准,其量刑区间预计在无期徒刑至死刑之间。但是否最终适用死刑,仍取决于几个关键因素:一是其在犯罪中的地位,是否属于组织、控制或核心环节;二是是否直接参与暴力拐夺行为;三是是否存在如实供述、揭发他人犯罪、提供被拐儿童线索等立功或从宽情节。上述因素在司法实践中,往往直接影响“死刑立即执行”与“死缓或无期徒刑”的具体裁量。根据《刑法》第八十七条规定,法定最高刑为死刑的犯罪,追诉期限为二十年,一般自犯罪行为终了之日起计算。对于本案这种多次实施拐卖行为的情形,应按“连续犯”规则处理,即以最后一次犯罪行为完成之日作为时效起算点。但本案的关键并不在于起算点,而在于是否受时效限制。依据《刑法》第八十八条,对逃避侦查或者审判的犯罪嫌疑人,不受追诉期限限制。“梅姨”长期未被发现、未归案,客观上处于规避侦查状态,司法实践中通常会认定为“逃避侦查”。需要特别强调的是,这种情形并非简单的“时效中断”或“重新计算”,而是直接突破追诉期限的限制,使刑事追诉长期有效。因此,从法律效果上看:“连续犯”仅影响追诉时效的起算时间,而“逃避侦查”则直接排除时效限制。本案能够跨越二十余年仍被依法追责,根本原因就在于符合“逃避侦查”的法定情形。图为法槌 资料图总的来说,“梅姨”案件呈现出典型的链条化、组织化拐卖犯罪特征,其刑事责任大概率以主犯标准评价,量刑处于无期徒刑至死刑区间;而基于“逃避侦查”的认定,其刑事追诉不受二十年期限限制,这也是本案得以跨越时间障碍、实现追责的核心法律依据。潇湘晨报·晨视频记者 吴陈幸子 实习生 彭哲涛报料、维权通道:应用市场下载“晨视频”客户端,搜索“报料”一键直达,或拨打热线0731-85571188;如需内容合作,请拨打政企服务专席19176699651,商务合作联系0731-85572288。

来源:潇湘晨报发布时间:2026-03-21
85后花20万租下农村老宅20年,用50万打造理想的院子,一家三口从城市搬进乡村:与其花大价钱买学区房,不如在乡村给孩子更开阔的成长空间

“城市生活我过够了,所以选择在异乡的农村租个房子,带着家人孩子开启人生的下半场。”2024年,36岁的邓霏带着一家三口在武汉市新洲区凤凰镇细李湾实地考察后,当天就定下一栋带院子的老宅,并一次付清20年的租金,一共20万元。现在,她租下的院子共600多平方米,屋旁种满时令蔬菜,院里养着猫、狗、兔子和鸡,实现了较大程度的自给自足。从武汉市迁居农村后,她在社交媒体上分享种菜、养鸡的乡村生活,引得众多网友心驰神往。邓霏告诉九派新闻,没有住进来之前,都是想象。只有亲身体验后,才真正过上了理想中的田园生活。她按照自己的想法,花费50多万元对房子进行改造,从结构加固到功能布局,把老宅改造成了理想的家,每一处都贴合一家三口的生活需求。“我想既然有一个机会,干嘛不在最好的年龄去把这个日子先过了。我们经济收入不算非常好,但是起码现在的条件,可以实现这个愿望。”邓霏说,用城里一套房子的首付,换来20年理想的田园生活,很值。 邓霏和孩子在农村。图/受访者提供【1】36岁从城市迁居农村,租下村民老宅20年九派新闻:你们以前的生活是什么样的?邓霏:今年是我们来武汉的第9年。我是广西人,我老公是东北人,2017年他被公司派到武汉工作。我们最初在江岸区租了套150平方米的房子,月租3500元;后来搬到东西湖区,租了个带小院的房子,我开始尝试种点菜。我老公从事建筑行业,一个人赚钱养家,我则在家照顾孩子、打理家务。虽然生活安稳,但我很向往更大的院子、更自在的田园生活。以前也和很多人一样,想着“等退休后再去乡下体验”。以前也考虑过在武汉买房,但因为各种原因搁置了,况且手里也并不宽裕。九派新闻:当时为什么看中现在这个村子?邓霏:在2024年初,我在网上看到武汉有“共享村落”项目,可以长租农村闲置老宅,还有专业公司和村委会对村庄整体改造,基础设施和环境都很好。我从小在城市长大,对那种偏远山区的农村可能不太适应。但凤凰镇细李湾不一样:它虽然是农村,但离城镇又很近,离武汉城区只要1小时车程,步行10分钟就能到镇上,生活便利。整个村子很有调性,经过改造后干净整洁,很有田园气息。我们既能体验田园生活,又能享受城镇的便利,很有吸引力。 细李湾村。九派新闻:是如何下定决心带家人搬来的?邓霏:2024年4月,我们去细李湾实地考察,一眼就相中了一栋110平方米的老宅。随后听说镇上就有学校,能解决孩子上学问题,我们当天就交了定金,立刻启动装修,赶在孩子开学前搬了进来。我看中的老宅有110平方米,我们一家三口足够了,加上院子的租金是16万元。我还租了一块菜地,交了4万租金,总共是20万元,整个院子有600多平方米。我周围很多朋友都计划,等二三十年之后退休了,就去过梦想中的田园生活。但我想,既然现在有机会,就可以在最好的年纪先把这样的生活过起来,等真退休了,可能想法又变了。【2】50万元改造农村老屋,打造理想的家九派新闻:为什么选择长租20年?邓霏:我们想按照自己的想法改造和装修,20年长租比较合适,时间确实不短,但对我们来说刚刚好。我是88年的,签合同的时候36岁,算了一下,20年后差不多就到退休年纪了。到时候如果想回老家,也正合适。我们总共花了20万元租金,加上装修50多万元,其实也就相当于在城里买一套大点房子的首付。之前我也考虑过买房,但不想将就买100平方米以内的小户型。这套房子实打实有110平方米,不像城里含公摊。我们重新规划格局,改成了一间书房、两间主卧,配两个卫生间。装修效果非常满意,足够一家三口舒适生活。用一套首付的钱,就能在乡村拥有20年理想的田园生活,我觉得很划算。 邓霏租下的院子。图/受访者提供九派新闻:长租农村的房子,会有顾虑吗?邓霏:刚开始来考察时,房子和院子只有基本布局,几乎什么都没有。但正因为有平台公司和村委会支持,才让我们敢放心落脚。湖北“乡下有院”平台将细李湾村30多栋闲置农房统一承租至企业名下,并对每栋房屋进行系统性改造:包括主体结构加固、裂缝修复、门窗扩改、屋顶防水重做等,达到城市住宅的安全与居住标准,打消了我们对老屋安全性的担忧。他们扮演了城乡之间的“信任桥梁”和“运营平台”,帮我们处理了所有手续和流程问题。村民也能从中受益,每户出租20年,可以一次性获得6万元到8万元租金。 2024年,邓霏一家来细李湾考察。图/受访者提供九派新闻:签完租房合同后,你是怎么装扮这个院子的?邓霏:其实我们家的装修投入比多数“新村民”要高不少,其他家普遍花费是20万元左右。我们装修投入了50多万元,本来计划简单装修的,但确实“折腾”得比较细。不过算总账的话,房租加装修摊到20年,平均每月3500元,和我们在城里租房的开销差不多。首先,房子内部结构的土建改造花了5万元。我们还装了地暖加冷气两联供的系统。农村的水压普遍偏低,我们加装了一套增压水泵,还在屋后建了一个水箱。万一停水,七天之内家里都不受影响。我们客厅和餐厅做的是全实木结构的定制吊顶,灯饰、家具、软装也选了品质比较好的,东添一件、西配一盏,慢慢累积下来,整体预算就上去了。院子里规划了很多实用功能区:菜园、一个带操作台和排烟系统的户外厨房,方便夏天烧烤聚餐;专门的晾晒区,配了升降晾衣架;还有电动车棚、工具间、宠物活动区……几乎每一块地都用起来了。 邓霏家。图/受访者提供【3】配套升级,村委会协助“新村民”安居九派新闻:村里的配套设施和服务怎么样?比如有没有医院?邓霏:村里的整体配套很好,去镇上逛超市、买菜很方便,步行10分钟。运营公司还在村里打造了一系列共享公共空间,共享菜园、共享食堂、咖啡馆等,鼓励我们这些“新村民”彼此连接、互动。我觉得医院不是天天要去的地方,而且我们还年轻,如果真遇到问题,去新洲邾城的医院完全能够应对。从村里到邾城只要20分钟,并不算远。我们现在没这种担忧。老一辈人重视这方面很正常,他们确实到了需要考虑医疗便利的年龄。入住后,我们作为“新村民”每年向村委会交纳1000元服务费,用于全村的环境卫生管理。村委会还会协助解决我们遇到的问题。不论是家里马桶堵塞、遇到马蜂窝,还是家里停水停电,或是新旧村民之间有小摩擦,村委会都会介入协调和处理。九派新闻:孩子的教育问题怎么解决?邓霏:现在的孩子学业竞争很激烈,湖北的基础教育在全国已经算很好的了,师资力量有保障,我觉得没必要非得挤进城里的好学校。我选择回乡,就是想给他一个更松弛的成长环境。累了就回家抱抱小狗、撸撸小猫,去看看兔子、捡几个鸡蛋,这些小事就是一种放松。就像大人工作累了要旅游、要换个环境喘口气一样,孩子也需要属于自己的“减压阀”。我一直觉得,学校的作用是传授知识,而不是逼着孩子通过一条狭窄的通道往上爬。而且与其花大价钱在城市买学区房,不如把这笔钱用在乡村,给孩子一个更开阔、更自由的成长空间。你可以说这是另辟蹊径,但我觉得,这或许更能激发他的天性、创造力和对生活的热爱。 孩子在院子里嬉闹。图/受访者提供【4】一年生活省10万余元,现在生活很丰富九派新闻:现在你每天的生活是什么样的?邓霏:很丰富。我们整个院子连房带地有600多平方米,我会种各种时令蔬菜,种种花,还养了很多小动物,猫、狗、兔子和鸡现在都有。我偶尔会请两个工人帮忙打理几天,因为我种的不只是青菜,还有豆类、玉米、小麦这些长期作物。我回乡下就是想吃上真正不用化肥、不打农药的蔬菜。现在市面上所谓的“农家菜”,很多农民自己种也会放一点化肥,觉得长得快、更划算,我们还是更想吃纯天然的绿色有机食物。现在,我自己种的菜多到吃不完。但我们并不像传统农民那样靠土地谋生,所以节奏更从容。目前家里收入还算稳定,足够维持我们生活。九派新闻:乡村生活和城市有什么不一样?邓霏:住进来一年多,我们几乎没再买过蔬菜,生活费用很低。院子里种的、山边采的野菜,做成腌菜、干菜,已经实现了自给自足。主要花销在肉类上,去年国庆,我们特意买了一头小土猪回来,味道很好。后来在院子里加装了冰柜,把整头猪囤起来。 院子里的菜园。图/受访者提供相比城里,我们的开销少了很多。以前孩子总要带出去玩,是一笔不小的支出;现在他在村里跑跑跳跳、跟着干点轻活,反而特别开心。他不觉得农活是负担,而是一种游戏和探索。这样一来,育儿成本也省下不少。村里网购现在非常方便,我有时候会买点东西,装扮一下家里,但花费并不高。综合来看,可能以前在城里每年20万元的生活成本,现在10万元都不到,还可以过得很富足。一年多过去,我们一家人都住得很开心。现在我们觉得,生活不该只是拼命挣钱,更该好好养身体、陪家人、感受四季,过自己想过的生活。九派新闻:在一个新村子生活,适应吗?会不会觉得孤单?邓霏:村里的“新村民”不少,我平时不太出门,基本在家忙自己的事,很适应。我和本地村民或其他新村民往来不算多,但在路上碰见,也会笑着聊几句。农村很安静,大白天都听不到什么噪声,到了晚上更是万籁俱寂,空气也特别好。我每天的生活很简单:在院子里种种花、打理菜地、做做家务。现在花都开了,光是看看花、浇浇水,时间就不知不觉过去了。 邓霏打理好的院子。图/受访者提供我从来没有因为“朋友少”而感到孤单寂寞。很多人以为搬到乡村会与世隔绝,但其实这里生活很便利,和传统农村不一样。很多城里的朋友知道我的生活后,都特别羡慕。对他们来说,这可能是一种理想状态,但是我们现在已经在体验了。来源:九派新闻 B57

来源:大风新闻发布时间:2026-03-21
美股“炸”了!股债金三杀,资金疯狂抛售!

本文约稿作者 | 哥吉拉数据支持 | 勾股大数据(www.gogudata.com)周五的海外市场,再次“炸了”!美股周五收盘,三大指数全线大跌。道指跌幅0.96%,本周累计下跌2.11%,连续四周下跌,创下2023年2月以来最长周连跌纪录;标普500指数跌幅1.51%,纳指狂泻超2%。本周为美股连续第四周下跌,创2024年以来最长连跌纪录,且均已跌穿关键支撑位。美股科技股成最大重灾区,“科技七巨头”全线溃败,合计市值单日蒸发逾4000亿美元——英伟达跌3.12%,特斯拉跌3.08%,Meta、谷歌跌超2%,微软、亚马逊跌超1.5%,就连此前相对抗跌的苹果,也没能扛住,小幅下跌0.41%。 COMEX黄金期货周五跌2.47%,报4492美元/盎司,本周累计暴跌11.26%,创下1981年以来最大单周跌幅。现货黄金直接失守4500美元关口,日内跌3.42%,报4491.67美元/盎司;现货白银更惨,日内狂跌6.8%,报67.89美元/盎司。就连一向稳如泰山的避险美债也出现了全线大跌、各期限收益率大幅跳升超10bp,反映资金在剧烈抛售。股债金三杀的罕见格局,这是市场最极端的信号——意味着市场已经进入“无避险可寻”的绝境,资金不再相信任何资产,只能疯狂抛售变现,“现金为王”成为当下唯一的共识。高盛、摩根大通紧急发声预警,机构疯狂出逃,散户跟风恐慌抛售,整个市场一片哀嚎。当下的市场,到底在怕什么?01到底发生了什么?本轮市场动荡的“导火索”,毫无疑问是持续升级的中东局势。截至周五,中东冲突已进入第21天,霍尔木兹海峡几近封闭,并且最新不断传来更大的形势恶化消息。3月20日凌晨,美以联合空袭伊朗南部伦格港,伊朗革命卫队发言人纳伊尼身亡,导致更加激化伊朗的报复打击,同时中东多个产油国的石油设施造破坏。据美国官员透露,白宫正向中东增派数百名海军陆战队员,并在评估向伊朗境内部署美国地面部队占领或封锁伊朗哈尔克岛的方案,以此向德黑兰施压、迫使其开放霍尔木兹海峡。高盛在最新研报中发出严厉警告:当前市场尚未对中东冲突的长期影响充分定价,若冲突持续至4月底,油价可能直接突破180美元/桶。更关键的是,高油价将直接转化为居民消费压力和企业成本压力,滞胀预期彻底抬头,这是市场最忌惮的局面。本周三,美联储公布3月议息会议纪要,直接“变脸”:明确将2026年PCE通胀预期上调至2.7%,点阵图显示,今年仅计划降息一次——这与市场此前预期的“至少两次降息”形成巨大落差,直接引爆了本周的抛售潮,市场情绪瞬间从“乐观”转向“恐慌”。芝商所FedWatch工具数据显示,市场当前已定价2026年美联储加息概率达50%,曾经的“降息交易”彻底被“加息交易”取代,市场定价逻辑发生根本性反转。摩根大通迅速调整预期,将首次降息时间从6月推迟至9月,原本预测的“6月、9月各降息25个基点”,直接调整为“9月、12月各降息25个基点”,进一步强化了“高利率更久”的预期。利率预期的反转,直接推高了美债收益率——10年期美债收益率升至4.39%,2年期美债收益率升至3.89%,均处于近期高位。如果说中东局势是“外部冲击”,那么美联储的政策转向,就是压垮市场的“内部核心”,也是本轮科技股杀估值的根本原因。对高估值科技股来说,利率越高,贴现率越高,未来盈利的现值就越低,这也是纳指跑输道指、科技股集体杀估值的核心逻辑。此外,周五的暴跌,还叠加了一个特殊的市场结构因素——“四巫日”,相当于给本就脆弱的市场一记重拳。所谓“四巫日”,即股票期权、指数期权、指数期货、个股期货同时到期,是市场波动最剧烈的交易日之一,被称为“市场波动放大器”。据花旗数据,本次四巫日到期的期权名义价值高达5.7万亿美元,是历史上规模最大的3月到期,远超市场预期。更关键的是,当前标普500指数持续处于“负Gamma”状态——简单来说,就是期权价格对标的资产价格变动的敏感度极高,做市商为了对冲风险,只能被动在更大的价格区间内“追涨杀跌”,直接被放大成了踩踏式的“暴跌”。高盛主经纪商数据显示,当日SPY(标普500ETF)与QQQ(纳指ETF)合计资金流出达640亿美元,创下历史新高。反映出了机构资金从“仓位轮动”转向“全面撤退”,不再对市场抱有侥幸,进一步加剧了市场抛压,并形成“越跌越卖、越卖越跌”的恶性循环。02机构预警:跌势还未结束?周五盘后,特朗普在社交媒体发文,称美国正接近实现既定目标,并暗示可能逐步结束针对伊朗的重大军事行动。受此影响,美股股指期货短线反弹,标普500 ETF(SPY)盘后涨幅一度超过1%;油价则从结算价附近回落,布伦特原油从逾110美元高位跌至约108美元附近。但有分析认为,特朗普的一时口风转变只是短期安抚了市场情绪,但并不能改变市场的趋势——中东局势的不确定性仍在,美联储政策预期的反转也未出现实质性调整,市场的核心矛盾依然存在,反弹只是暂时的。高盛在最新策略报告中明确提醒:当前市场尚未对中东冲突的持久冲击计入足够风险溢价,周五的下跌,只是“情绪杀”的开始,下周市场可能从“技术性回调”转向“全面修正”,波动可能进一步放大,甚至出现踩踏行情。从技术面看,QQQ(纳指ETF)已跌破200天均线——这是很多量化策略、趋势资金、机构账户的核心风控线,一旦跌破,大量资金将自动切换到“防守模式”,被动卖出共振可能引发进一步踩踏;标普500指数逼近6475点关键支撑位,一旦破位,将触发CTA基金、期权对冲盘的集中卖出,市场波动可能进一步升级。此外,摩根大通也发出警示,若油价持续高位,美国滞胀风险可能超出预期,美联储可能被迫维持高利率更久,甚至不排除进一步加息的可能,进而对美股市场形成更大压力。同时,历史经验表明,在高利率周期中,成长股的估值回调幅度往往远超大盘,尤其是高估值科技股——高利率推高贴现率,直接压缩未来盈利的现值,这也是科技七巨头持续承压的核心逻辑。作为零息资产的黄金市场同样受到高利率环境的深刻影响。当前COMEX黄金期货单周下跌11.26%,创下1981年以来最大单周跌幅,本质上就是高利率环境下,黄金持有成本上升、杠杆资金平仓引发的抛售。但对于黄金的市场前景,多数机构依旧持有信心,认为当前市场对黄金的定价虽然从“地缘避险”切换成“高利率冲击”,但在全球地缘战争加剧、去美元化推动各大央行持续购金的背景下,黄金的长期上涨空间依旧较大。近日,摩根大通最新研报仍把黄金2026年底目标价维持在6300美元/盎司,瑞银也维持黄金目标价在5900–6200美元/盎司。值得注意的是,当前美国经济的韧性、企业盈利的基本面以及AI等技术创新带来的结构性增长仍整体较为稳健。这也意味着,本轮市场调整更可能体现为对前期估值和风险溢价的修正,而非长期趋势的根本逆转。但如果中东局势未能出现实质性缓和,油价持续高位运行,美联储维持鹰派立场,那么市场弱势调整的时间可能会被继续拉长。03结语面对剧烈波动的市场,很多投资者陷入恐慌,甚至乱了阵脚:到底该跑路,还是趁跌抄底?高盛、摩根大通等机构观点认为,当前市场不确定性极高,如果中东局势下周没有缓和迹象,那么在短期内,高估值科技股、高杠杆小盘股、对利率敏感的长久期资产,尤其是存储芯片、AI相关高估值标的,这些板块受高利率冲击最大,可能仍有进一步杀估值的空间。从更长时间维度看,美股市场的基本面支撑依然存在——美国经济具备一定韧性,企业盈利尚未出现系统性恶化,AI等产业趋势仍在演进。本次调整在某种程度上是对前期估值的消化和风险因素的重新定价。对于长期资金而言,可等待估值回归合理区间后,逐步关注优质标的。(全文完)

来源:格隆汇发布时间:2026-03-21
“梅姨”被逮捕,被拐者及家属发声:等这一天等了10多年,多少人因为她家破人亡;申军良:将前往广州配合警方调查

(原标题:“梅姨”被逮捕,被拐者及家属发声:等这一天等了10多年,多少人因为她家破人亡;申军良:将前往广州配合警方调查) 3月21日,据央视新闻报道,记者从广州市公安局了解到,经警方不懈努力,“张维平等人拐卖儿童案”取得重大进展,犯罪嫌疑人谢某某(女)落网,其即为该案关键人物“梅姨”。广州警方绘制“梅姨”的第一张模拟画像 图据央视新闻“我追了这么多年的梅姨已经落网了,找到了!”21日上午,受害家属申军良激动地告诉红星新闻记者,今天一大早,广东方面跟进此案的工作人员致电告知他这一消息。他目前正身处郑州送别朋友,因为一位曾一直帮他寻子的记者朋友突然间离世,他手机最开始调成静音,广东方面多次致电才联系上。他准备送别记者朋友后立即返回济南,随后将前往广东。申军良接受采访时透露,虽然儿子申聪已回家六年,但自己每年都坚持不懈追寻梅姨踪迹。去年,他还带着申聪前往买家所在地追查,每年都向警方提供诸多线索。即便儿子归来,他仍对梅姨未归案耿耿于怀,直言若追不到梅姨,自己老去都难以瞑目。据了解,申聪也发视频说,“今天梅姨终于落网了!”作为被梅姨拐卖的孩子之一,“我等这天等了10多年。”申聪发视频说,终于等到梅姨落网被拐儿童家长钟丁酉:我一直坚信她真实存在“梅姨案”涉及9名被拐儿童,最后一名儿童欧阳佳豪于2024年10月与父亲相认。此外8名儿童还包括申聪、钟彬等。钟彬是在2024年9月被寻回。3月21日上午,记者联系上钟彬父亲钟丁酉,他刚刚接到广州警方电话,得知“梅姨”落网的消息。“终于找到了!我和申爸爸、还有另外几个寻亲家长,找她找了二十几年。心里好气愤,终于把那个坏人抓到了。”钟丁酉称,这几年他们都陆续在向警方提供线索,坚信“梅姨”这个人是真实存在的。“多少人因为她家破人亡,经济就不用说了,有些(寻亲家长)命都没了。”钟丁酉说。2024年中秋前夕,得知儿子找到了,钟丁酉喜极而泣 图源网络此前报道:2003年9月至2005年12月期间,多名儿童在广州增城、惠州博罗等地被拐。案发后,公安部、广东省公安厅将该案列为督办案件,成立省、市、区三级公安机关联合专案组开展侦办工作,并于2016年将张维平等5名犯罪分子抓获。张维平供认其拐卖儿童的作案事实,并称所拐儿童是通过“梅姨”贩卖。为了能尽早让失散的家庭团圆,专案组偕同受害家庭和社会各界力量持续开展寻亲、解救工作,于2019年至2024年间将被拐儿童悉数找回,并组织认亲。2023年4月,主犯张维平等人被依法执行死刑。但因真实身份等关键信息的缺失,“梅姨”作为该案的关键人物,始终未能归案。“梅姨”是否存在?曾一度为网络热门讨论话题。央视新闻还报道,按照“不查清不放过,不核实不罢休”的原则,专案组民警采取“内紧外松”的策略,多年来坚持走访调查、公布模拟画像并广泛征集线索。2025年,在公安部指导、外省公安机关的支持下,专案组发现一位名叫谢某某的女子,其特征与“梅姨”高度吻合。经进一步核实,谢某某正是“梅姨”。近期,专案组将嫌疑人谢某某抓获。经审讯,谢某某对其贩卖儿童的事实供认不讳。目前,嫌疑人谢某某已被警方依法执行逮捕,案件正在进一步办理中。

来源:红星新闻发布时间:2026-03-21
共84295条记录
  • 1
  • 2
  • 3
  • 4
  • 7025

产业专题

产业大脑平台

产业经济-监测、分析、

研判、预警

数智招商平台

找方向、找目标、管过程

产业数据库

产业链 200+

产业环节 10000+

产业数据 100亿+

企业数据库

工商 司法 专利

信用 风险 产品

招投标 投融资

报告撰写AI智能体

分钟级生成各类型报告