AI最疯狂的一周,该知道的8大共识都在这了
AI最疯狂的一周,该知道的8大共识都在这了
  • 2026-04-27 03:31:18
    来源:锦囊佳句网

    AI最疯狂的一周,该知道的8大共识都在这了

    字体:

    智东西作者 GenAICon 2026

    短短8天,全球AI领域发生的重磅新闻,发布节奏之密、信息密度之高、资金体量之大、涉及玩家之广,堪称惊心动魄。

    从4月16日到24日,Anthropic Claude Opus 4.7、阿里Qwen3.6-Max、月之暗面Kimi K2.6、OpenAI ChatGPT Images 2.0、蚂蚁Ling-2.6-flash、小米MiMo-V2.5-Pro、腾讯Hy3、OpenAI GPT-5.5、DeepSeek-V4等9款前沿模型扎堆发布。

    同一时期,亚马逊和谷歌相继表示分别拟向Anthropic投资250亿美元和400亿美元,马斯克SpaceX宣布拟以600亿美元收购AI编程独角兽Cursor,DeepSeek启动外部融资的传闻亦沸沸扬扬。

    这一周大事串联起来,映射出5个清晰的趋势:

    AI竞争的核心战场已从“聊天”转向“干活”;中美AI头部梯队基本形成,并在持续冲锋;中国AI在开源和成本效率上展现出独特竞争力;算力基础设施将成为影响AI竞赛节奏的关键因素;“投资+竞争+合作”的新型多重产业关系正在确立。

    值此期间,4月21日至22日,2026中国生成式AI大会(北京站)圆满举行。

    大会由智东西主办、智猩猩联合主办,集结73位产学研投嘉宾,围绕“奔赴AGI 重塑未来”主题,通过1场开幕式、3场专题论坛、6场技术研讨会,全景式解析AI产业的产业脉络、创新范式、Token经济与中国机会。

    议题跨度很大,从大语言模型、多模态模型、世界模型、智能体、AI眼镜等前沿模型与应用,到数据、芯片、存储、通信、云服务等基础设施。

    嘉宾们各抒己见,聊痛点,讲预判,立足当下,探讨未来,分享内容之丰富,非常挑战大脑容量。

    一个明确的共识是,国产AI战场,已经从模型层扩展到生态层。

    我们整理了开幕式和3场专题论坛的嘉宾们分享的重点信息,希望能对你有启发。

    1、大模型怎么变强?达到垂域专家水平只是时间问题

    2、小心养龙虾、买token踩坑!聊聊大模型服务商不会告诉你的那些事

    3、从Claude Code泄露代码,总结6个反共识观点

    4、OpenClaw之后,智能体时代的中国机会在哪里?

    5、世界模型的多重路径:视频生成、多模态原生统一、3D生成

    6、Token消耗量爆发,国产AI基础设施如何协同与进化?

    7、大模型下半场,竞争焦点变成场景、数据、品味

    8、从“龙虾”、AI眼镜到token管理,拆解国产智能体落地潮

    一、大模型怎么变强?达到垂域专家水平只是时间问题

    在开幕式上,中国人民大学高瓴人工智能学院教授赵鑫的演讲围绕一个根本问题:大模型怎么变强?

    首先,大尺寸模型仍具有显著的性能优势,通过预测下一个词的预训练范式能够建立非常强的基础能力;在后训练方面,一个重要方向是RLVR(基于结果监督的强化学习),能针对垂直领域提升模型能力,提供了超越“预测下一个词监督训练”的另一条Scaling路线,为复杂智能体环境的训练构建了可行的训练途径。

    接下来,让大模型学会使用工具,如搜索信息、用编程解决问题等。代码执行增强的推理链,解题过程更简洁清晰,显著提升推理效率。

    随着任务复杂度提升,模型需要进行大量轮次的交互,上下文窗口的管理成为挑战。有两种思路:一是通过模型自主压缩上下文,二是使用文件来作为上下文的外部存储介质。

    在多模态深度搜索场景中,图片、视频等内容若直接token化,会急剧膨胀上下文。一个解决方案是搜索结果先写入本地文件系统,同时生成简短摘要进入上下文窗口,后续需要时再按需加载,从而实现稳定的百轮级多模态搜索。

    ▲赵鑫

    给大模型一台虚拟电脑(如终端/沙盒),可在非代码领域激发通用能力。

    大规模训练需要大量多样化的环境,手动创建几万个环境不现实。近期研究显著增加了智能体类数据的引入,比如DeepSeek-V3.2在强化学习中显著增加构造的智能体任务和配套环境,这些仿真环境旨在低成本高效合成大规模训练数据。

    怎么模拟复杂环境呢?大多数智能体操作仅需轻量的沙盒,如果采用基于Docker环境训练代码智能体的方法,可扩展瓶颈会集中在Docker执行层。此时可以用大模型代替Docker提供执行反馈,来减少对真实Docker的创建需求。

    当前多智能体系统的核心挑战在于长程任务的稳定性,这需要制定合适的工作流。

    对此,高瓴人工智能学院开源的AiScientist系统,将决策层与专家层分开,编排器专注阶段级决策,专家负责复杂子任务,让文件成为智能体协调“总线”,从而实现复杂编排与协作。

    最后,赵鑫教授分享了三点预判:

    1、模型能力扩展受限于人的认知。目前可利用算力的方式仍然有限,突破需要新的扩展范式。

    2、大模型达到垂直领域专家水平只是时间问题,广义AGI仍然困难。类似“下一个token预测”和RLVR这样的重要训练扩展范式,估计还需要出现1~2次,才能推动广义AGI的实现。

    3、大部分创新是工程创新,AGI需要更多本质创新。模型能力与Harness的发展是螺旋上升、互相适配的,基础设施补强模型短板,模型提升后再推动基础设施演进;技术难以形成持久的护城河,人才、数据更为关键。

    二、小心养龙虾、买token踩坑!聊聊大模型服务商不会告诉你的那些事

    清程极智联合创始人师天麾点破了当前token行业乱象——买token藏有很多坑。

    同一个模型,在不同服务商处购买,效果不同,最终花费不同,服务质量可能差别巨大。

    有次评测,他们发现某个服务商的模型明显有问题,问过后,服务商承认用的是int4。这种量化能把成本压得非常低,但是模型效果很差。

    提供同一个模型,报价便宜的服务商反而可能用起来总成本更高,因为缓存命中率不一样。

    缓存命中率是一个非常影响总成本的指标。各家服务商因为技术不同,缓存命中率相差很大,好的能超过80%,差的缓存几乎跟没有一样。

    但服务商不会告诉客户这件事。

    ▲师天麾

    AI Ping团队对国内30多家服务商的600个大模型API服务进行了测试,服务商包括模型厂商、互联网大厂、云上市公司和MaaS厂商。

    根据他们的测试,大型服务商(如云厂商、电信运营商),在提供相同的模型服务、价格相近的情况下,各家服务性能可能相差5倍甚至更多。

    他们观察到,近期国内各家服务商的服务质量,相比去年年底明显差了很多。许多服务商不能给中小客户保证质量,响应慢、有明显性能问题。

    “养龙虾”等行业热潮火爆,导致token供不应求,又贵又慢。token服务又是黑盒,行业发展很快,也很乱,那怎么选对token服务商?

    师天麾安利了清程极智研发的AI Ping:它对用户关心的大模型服务指标做了全面评测和汇总,并提供筛选排序和智能路由功能,以便用户对不同大模型API服务进行7×24评测和按需调用服务。

    三、从Claude Code泄露代码,总结6个反共识观点

    Pine AI首席科学家李博杰重点聊了聊从Claude Code泄露代码中的收获。

    在他看来,Claude Code源码里的五层权限判断、错误恢复、安全防护工具集、反蒸馏防御机制等设计,还有用做研究的方法做产品,都非常值得学习。

    ▲李博杰

    李博杰还分享了从中总结出的6个反共识观点:

    1、图形界面(GUI)的价值将逐渐降低,软件价值正从界面转向数据治理,没有数据壁垒的SaaS大概率被干掉。

    智能体阅读和思考速度远超人类,但操作GUI的速度比人慢,因此GUI对智能体不友好。

    Claude Code就是典型的GUI价值低、业务逻辑与数据治理价值高的产品形态,51万行源码里没有一个产品级GUI。

    2、上下文是人类避免被AI取代的护城河。

    AI能访问的上下文远低于一个人类员工,比如吃饭时聊出来的设计目的、屎山代码里的坑、没表达出来的内心想法。

    告诉AI合适的上下文,也是用好AI的关键。

    3、AI原生组织,本质是用AI替代传统的“上传下达”层级结构。

    Anthropic、Kimi等公司的中层大幅压缩,实现良好的上下文共享,让高层看到基层信号,让基层直接看到战略上下文。

    “砍掉高层的手脚,砍掉中层的屁股,砍掉基层的脑袋”,这个段子在AI原生公司中不成立了。

    4、哪些人会被AI替代?

    头部(高价值决策与创造)和尾部(与物理世界深度集成的工作)相对安全,腰部(执行型、无泛化能力的标准化工作)最为危险。

    AI是技术能力的放大器,推动非技术能力的重要性比重上升。学习新知识、适应新场景的能力很关键。

    一人公司(OPC)不是一个人能开发App,大多数独立开发者的瓶颈不是写不出代码,而是获客、信任、运营这些稀缺能力。

    5、“模型即Agent”远远不够。

    真正的智能体里有一堆复杂的Harness来兜底解决模型搞不定的部分,代码量远超工具+提示词本身。只有模型公司同时控制应用层和兜底工程。

    Agent= Model x Harness。大模型提供“大脑”,而Harness提供了“手脚”和“缰绳”,包括上下文怎么给、工具怎么调用、出错怎么恢复、安全怎么保障、缓存怎么共享、并行怎么协调等。

    6、应用层公司的护城河在技术之外。

    Harness里的“屎山”反映了模型内部模型团队和应用团队之间的张力,是应用层短期的技术杠杆,但是技术优势会被模型公司的飞轮吃掉。

    顶尖模型的差距还会继续拉大,中端模型将趋于商品化。应用层公司的长期护城河是数据、渠道、拍照、用户信任、网络效应等等。

    四、高端对话:OpenClaw之后,智能体时代的中国机会在哪里?

    高端对话环节由智东西联合创始人、总编辑张国仁主持,三位嘉宾均在智能体领域颇有建树,分别是香港大学助理教授&博士生导师、Nanobot团队负责人黄超,网易有道LobsterAI项目负责人、智能硬件研发负责人王宁,峰瑞资本投资合伙人陈石。

    黄超团队的Nanobot开源项目仅用约4000行代码,实现了原版OpenClaw用43万行(现已超百万行)代码的核心功能。

    王宁团队的LobsterAI是国内大厂第一个开源的桌面级智能体产品,1周获得超过3k star,还被OpenClaw创始人Peter Steinberger发文夸赞。

    陈石有超过15年的连续创业经历,曾任阿里高管,曾经是一名快乐的程序员和用户增长专家,如今也是一位对AI行业深入跟踪观察的投资人。

    ▲从左到右:张国仁、黄超、王宁、陈石

    1、智能体行业变化太快,2026年会是标志性一年

    黄超:智能体演进太快了,去年底MCP普及到现在的Skill和Harness,仅三四个月。2026年可能是智能体生态爆发的一年,智能体的能力边界扩展需要整个Skill生态、环境交互体系的协同成熟。

    王宁:OpenClaw大大加速整个智能体落地进程,各行业都认识到智能体能帮企业干活、提效、挣钱。去年Chat类产品一直在找营收来源,比如靠广告,其实没挣太多钱。今年可能是Agent产品商业化爆发的起点,真正能向用户和企业收费的Agent产品出现。

    陈石:从去年下半年到今年年初,AI行业最大的变化是智能体开始在应用层挣钱了,不再只是英伟达挣钱。OpenClaw开启新的智能体范式,今年可能是AI真正能被大众用起来的一年。

    2、工程粗糙却范式创新,OpenClaw为何能改变AI行业?

    黄超:它的交互模式是创新的,看似简单的设计,让社区感受到智能体更加主动。此前的智能体工具感太重,OpenClaw点燃了人们对”通用个人助手”的长期期待。

    王宁:类比移动互联网早期,很多App最初都是小团队做的、很粗糙,但商业模式和用户场景满足得很好。OpenClaw做了类似的事。

    陈石:它也许在工程上还比较粗糙,但应用范式创新对行业影响非常大。

    3、OpenClaw降温了?现象级产品完成历史使命

    陈石:当前OpenClaw本身可能并不是一个特别优质的产品,但它是一个象征意义重大的现象级产品,它的核心定位是在“开放域里做无终点的事”,这是人类历史上是第一次让普通用户用AI在数字世界中进行不设限制的探索。之前的智能体产品包括Claude Code、Claude Cowork和Manus都不在这个定位。OpenClaw更像是普通人心中的“数字助手”或者“数字伙伴”的形象。

    王宁:DeepSeek 也是大概火了两个月,但之后它让“推理能力”快速渗透到了各行各业。OpenClaw也有点类似,它也加速了Agent产品走向更广泛的行业应用。热度会回落,但能力渗透一旦开始,真正的行业价值才刚刚开始释放。

    黄超:降温可能是因为token烧得多,事情做得没达到预期。OpenClaw完成了它的使命,建立了智能体在用户中的心智。热度下去说不定是好事,可以让大家沉淀下来思考:什么时候需要让OpenClaw变成真正能帮我们搬砖的打工人。

    4、高质量Skill很少,Harness极其重要

    黄超:虽然很多to-use模块从MCP进化到Skill,Skill像MCP工具调用说明书,但MCP存在的问题,Skill也存在,比如质量控制不好。

    Skill很多,但高质量的Skill很少,检索与匹配效率低下。未来需要专门的平台对高质量Skill进行管理和分发。

    Harness与模型能力相辅相成。长程任务是一大工程挑战,上下文极度爆炸、实时环境交互复杂、中断现象普遍,Harness显得极其重要。

    5、当前AI行业的商业逻辑与创业建议

    陈石:当前AI行业的商业逻辑与移动互联网时代有根本性差异,不能做线性外推。

    移动互联网时代有个著名的商业模式是“羊毛出在猪身上”,免费获客、广告变现,但其前提是单用户使用成本很低。但AI产品用户使用越多,Token消耗越大,当前的成本远高于广告的eCPM,在商业上根本跑不通。

    未来AI行业大部分的收入将被token生产与分发环节的公司收走。智能体能够独立存在的机会,在于广泛收集人类的上下文(操作轨迹、使用场景、业务逻辑、行业知识),形成模型厂商抢不走的数据壁垒,用户用得越多,越依赖,护城河越深。

    建议早期智能体创业公司优先考虑“前向收费”,做不到就不要盲目扩张,说明还没拿出能让用户愿意付费的产品。另一个建议是“软饭硬吃”,利用中国制造业供应链优势,在通过软件掌握用户需求和产品技术积累后,做出软硬件一体的产品,这类产品到海外很能打。

    6、中国版下一代智能体框架,机会在哪?

    王宁:OpenClaw给国内大模型厂商带来了新的机会,国内模型价格大概只有海外模型的1/10,能力上又相差无几,特别适合”龙虾”场景。

    企业级Agent也有一些新的机会。国内已有不少国企和私企寻求将智能体产品在公司内普及,并与内部系统打通,需求涵盖办公自动化、OA、财务、ERP和数据安全等场景。

    黄超:国内一直有应用创新基因,有信心国内机构能打造出下一代真正成为打工人的智能体。

    五、世界模型的多重路径:视频生成、多模态原生统一、3D生成

    语言只是人类感知世界的通道之一,图像、声音、3D空间等多模态才构成了物理世界的原始语言。

    在世界模型方向,三位嘉宾从不同角度的分享,拼在一起很有意思。

    1、智象未来姚霆:多模态创作智能体走向全模态,即将发布HiDream-O1-Image图像大模型

    智象未来(HiDream.ai)联合创始人兼CTO姚霆分享说,随着语言模型与多模态大模型能力飞速跃升,多模态创作智能体的技术底座已基本成型,并将走向全模态世界模型。

    ▲姚霆

    通用智能体的核心能力是:上下文管理、工具调用、开放域对话与任务自动化,典型场景如定闹钟、订外卖、制定旅行规划。

    在此基础上,多媒体创作智能体还需解决专业性、协作性、一致性与可控性问题。其典型任务包括图文内容创作、视频高光时刻剪辑、从故事到脚本到分镜再到成片的完整视频生成链路等。

    当前多模态生成模型的主流架构存在一个缺陷:文本编码与视觉编码相互独立,信息交互单向,且视觉VAE编码器会造成信息损失。

    下一代架构的核心思路是将所有模态统一输入到一个Unified Transformer,同时完成理解与生成,实现无损编码+原生交互,走向“原生全模态”。

    基于上述架构,智象未来即将发布HiDream-O1-Image系列模型,并将开源一个8B参数量的版本,该开源模型在6项基准测试中达到与FLUX.2、Qwen-Image同量级甚至略优的水平,并适配本地部署和低代码智能体调用场景,同步,智象未来以此架构为基础,逐步构建智象下一代世界模型。

    围绕多媒体创作需求,智象未来提出HiDream Agent OS基础设施,分为工具层、Skill层、Harness层,可实现工具、创意、经验可复用。

    该团队已推出全能创作智能体vivago Agent、视频剪辑智能体HiClip Agent、影视创作智能体帧赞等智能体工具,其中帧赞已累计制作AI短剧漫剧超过5000分钟。

    姚霆认为,多媒体创作智能体的终极目标,是让创作回归灵感本身,将重复性、工具性的工作交给智能体,让人专注于真正属于人的创造力。

    2、北京大学袁粒:大语言模型快到头了,多模态原生统一才是未来方向

    北京大学深圳研究生院助理教授&研究员、博士生导师袁粒认为,大语言模型已逼近极限,多模态原生统一才是未来,没有多模态原生统一,就没有真正的世界模型。

    同时,他认为将token翻译成“词元”是默认大模型以语言为中心,这也是为什么GPT-5数不清人有几根手指,大模型只专注语言这一模态,无视其他物理模态(比如视觉),无法真正让其走向物理AI。

    多模型协作的方式在数字世界尚可运行,但在物理世界存在两大致命缺陷——高延迟和信息损失。以机器人搬水为例,这个任务对人类来说很简单,当前绝大多数机器人仍无法流畅完成。

    人类大脑构建的世界模型天然是多模态、统一的。当前所谓的“世界模型”,本质上仍是单模态模型。只有实现多模态原生统一,才能构建出真正理解物理世界的世界模型。

    ▲袁粒

    构建多模态原生统一架构,面临五大技术挑战:如何定义“原生多模态”、自回归建模与扩散建模融合、多模态视觉编码器统一、消解模态冲突、训练数据清洗和标注等。

    袁粒团队在多模态理解、生成、架构与统一方向均有一些代表性工作。例如,其Helios原生实时视频架构采用自回归+扩散Transformer,无需KV Cache等加速技巧,单卡可达近实时生成。

    袁粒还展示了由其课题组多模态统一方法生成的图像,无论是现实复杂场景生成还是数学虚拟生成都远超其余同期模型水平。

    3、VAST梁鼎:3D+视频,或许才是世界模型的终态

    VAST CTO梁鼎分享说,3D生成模型正在从单点能力走向完整的生产管线覆盖,高模与低模两条关键技术路线并行发展,Tripo大模型在游戏、工业、家装、潮玩等行业已产生实质影响,VR/XR与具身智能仿真环境的建设也高度依赖3D能力。

    围绕这两条技术路线和对应生产需求,VAST已经推出了行业SOTA的两款AI3D大模型:Trpo H3.1和Tripo P1.0。

    Tripo H3.1追求高视觉质量与贴图精细度,适用于3D打印、工业设计、实体制造等对视觉还原度要求高、无需实时渲染的场景。

    Tripo P1.0专为实时渲染引擎设计,核心优势包括直接从图片生成低模、生成速度快、生成结果具备拓扑友好和UV友好的特性等,适用于游戏管线制作、UGC生成式玩法、移动端3D资产生成等。

    ▲梁鼎

    单个资产的生成只是起点,完整的3D制作管线还涉及部件拆分、贴图编辑、骨骼绑定等环节。目前低模上的拆件与绑骨能力、场景级别的自动化生成、从视频中提取动画的能力等仍待突破。

    当前世界模型的构建存在两派:视频原生派与3D原生派。这与早年3D生成领域2D升维与3D原生的路线之争很相似。视频路线的优势是生成效果好、训练数据充足,但存在长时序记忆难、多人一致性难、推理成本高等局限性。3D路线的难点在于制作门槛与画质上限。

    梁鼎认为,两条路线最终很可能走向融合,世界模型的终态或许是3D与视频共同驱动的统一方案,3D在其中将扮演不可或缺的结构性角色。

    六、Token消耗量爆发,国产AI基础设施如何协同与进化?

    无论是前沿模型训练,还是蓬勃发展的AI应用推理浪潮,都对AI基础设施中的计算、存储、互连架构提出更高的协同要求,算力层也正从成本中心演变为以token为计量维度的利润中心。

    如何推动token成本持续下降,是摆在AI基础设施供应商们面前的共同考题。

    在AI算力基础设施专题论坛,嘉宾们从计算、存储、网络、云服务等不同维度,分享推动国产AI算力走向普惠的可行路径。

    具身智能芯片方案如何支撑机器人集群算力需求?企业使用算力面临哪些主要痛点?芯片架构设计如何提升能效比?谁是提升token生产效率的隐形障碍?国产AI算力生态怎样形成聚合?来听听他们的答案。

    1、芯桥张鑫:具身智能需要跨节点算力协同

    芯桥半导体解决方案副总裁张鑫谈道,随着具身智能机器人从单点执行走向群体智能,算力问题也从单点性能提升转向跨节点协同与分层调度。

    受制于电池续航、板卡面积等条件,单台机器人的算力存在物理上限。对此,芯桥半导体提出了五位一体、软件协同的“大脑-小脑-肌肉”架构,通过分布式方案来支撑机器人集群算力需求。

    其中,在决策层,X200芯片提供682TOPS峰值算力、819.2GB/s HBM2E带宽,支持50-100台机器人协同作业;在感知层,S200边缘计算芯片提供128GB显存、66W被动散热、4800FPS极速解码,以便机器人实时处理感知数据。

    芯桥还提供宏观任务调度与集群管理、精细单元控制与实时状态监控等功能。

    ▲张鑫

    2、Hammerspace王殿清:别浪费了GPU服务器本地存储

    Hammerspace资深解决方案架构师王殿清说,AI产业正从模型军备竞赛转向推理效率、基础设施重构的系统性竞争。存储基础设施存在数据分散、传输费时费力等不便,GPU服务器本地存储一直未得到充分利用。打破存储孤岛是AI走向大规模落地的关键基础条件。

    高性能存储设备的速度远超外部存储,却因为存储孤岛、不受保护、难以在本地存储和外部共享存储间移动数据等问题,一直未被使用。以千节点集群为例,每节点数百TB的本地盘如果仅作临时缓存,浪费的存储空间可达数百PB。

    Hammerspace Tier 0技术可将GPU服务器磁盘配置为一个或多个NFS导出,由软件统一纳管,形成为一个全局可见、共享的存储层。Meta便基于标准架构,利用现有服务器、网络、GPU,节省了多达数百万美元。

    ▲王殿清

    3、GMI Cloud蒋剑彪:今年算力市场呈四大变化

    GMI Cloud中国区总裁蒋剑彪分享了2026年AI产业的4大核心趋势:1)推理成AI基础设施的主要市场;2)智能体推动token消耗千倍级增长,主要客户普遍提前锁定算力资源;3)AI编程引爆一人公司(OPC)模式,成AIGC应用下一个关键增长引擎;4)智算中心从存储仓库转向算力工厂,追求极致算力密度、能效比与token吞吐量。

    GMI Cloud是一家领先的AI Native Cloud服务商,是全球七大Reference Platform NVIDIA Cloud Partner之一,拥有遍布全球的数据中心,为企业AI应用提供最新、最优的GPU云服务,为全球新创公司、研究机构和大型企业提供稳定安全、高效经济的AI云服务解决方案。

    蒋剑彪预告说,GMI Cloud面向龙虾智能体(Claws Agents)的全新生态产品The GMI Claw Marketplace即将上线,将面向企业用户和AI开发者,提供一站式端到端解决方案。

    ▲蒋剑彪

    4、九章云极张磊:让算力像水电一样管够

    九章云极DataCanvas解决方案专家张磊总结说,企业使用算力有三大痛点——买不起、用不满、管不好。九章云极以AI原生基础设施与智算云为核心,希望将算力转化为标准化的普惠AI资源。

    作为普惠算力的核心载体,九章云极提出了算力服务单位“度”,定义1度算力=312TFLOPS*1小时,以便将不同算力卡通过统一技术指标换算为一个标准度量单位。用户可按需购买、秒级启用,仅对有效计算时间付费,彻底避免了硬件资源闲置与浪费,显著降低了AI研发与使用的门槛与总拥有成本(TCO)。

    面向AI原生时代,九章云极打造的Token Factory将算力从成本中心转化为可创造业务价值的增长中心,以token吞吐量作为核心效率指标,直接支撑企业AI竞争力提升。智算云平台上打造了AI开发一站式赋能与模型调用服务能力,并支持跨区域、跨厂商的算力资源统一调度与智能编排,为大模型训练、推理、智能体开发等全场景提供高效、稳定、弹性的算力支撑。

    ▲张磊

    5、DDN李凡:疏通AI算力工厂的数据管道

    DDN中国技术总监李凡谈道,AI基础设施的竞争已从单一硬件性能转向系统工程能力,英伟达从2016年起就在其内部集群采用DDN AI数据智能平台。由DDN提供支持的AI工厂,GPU利用率可达99%,显著降低电力消耗和空间占用。

    KV Cache是当前分布式推理场景的存储热点,对动态扩展性与元数据性能的要求超过峰值吞吐。DDN EXA/Infinia KV cache fabric方案可30倍加速推理和智能体,同时保障低延迟和低成本。

    ▲李凡

    DDN虽为美国公司,但中国本土研发团队已从数人扩展至80人,并深度参与国产算力生态,正与国产网络、国产算力、大模型厂商合作,推进系统级工程实践。

    国产SSD供应商大普微旗下多款大容量QLC产品已完成DDN全平台测试认证,支持智能体数据大容量存储,提供更快的token响应。双方将继续深化合作,推出更强的PCIe 5.0 SSD产品组合。

    ▲大普微DapuStor高级总监黄明达

    6、光羽芯辰姜汉:存算一体翻倍提升AI芯片能效比

    光羽芯辰产品市场总监姜汉认为,端侧AI生态不能由单一价值链玩家独立推动,需联合从操作系统层到App层的全栈合作伙伴共同构建。作为一家端侧AI大模型芯片创企,光羽芯辰已与头部手机厂商、头部PC厂商达成商业合作,未来还考虑应用于具身智能机器人场景。

    光羽芯辰是一家由AI头部企业与存储头部企业等合资设立的公司,已完成多轮融资。该公司提出了将存算一体架构与3D异构集成技术相结合的端侧AI解决方案,并率先将该方案实现于AI芯片产品中。

    相比传统架构,其存算一体架构可实现5倍能效比、10倍带宽,响应延迟降至1/10。光羽芯辰也提供硬件级可信执行环境,并与OpenClaw等框架无缝集成,以加速端侧AI应用落地。

    ▲姜汉

    7、上海AI Lab蔡政:为国产AI芯片快速搓出高性能算子

    上海人工智能实验室DeepLink团队工程师蔡政强调,高性能算子体系是英伟达生态的核心护城河,也是国际AI竞争的核心战场,将各类基础设施、模型能力、芯片技术、应用场景协同,关键在于一个性能好、覆盖广、可演进的算子体系。

    目前国内算子开发面临门槛高、调优难、架构差异大且迭代快、迁移易损失性能等挑战。

    2025年KernelBench首次系统性评估了大模型自动生成高性能算子的能力,结论是即使最先进的模型在One-shot场景下,首轮算子通过率(编译正确+精度正确)普遍不超过90%,甚至剔除掉生成了但是没有实际运行的结果之后,矫正后的算子通过率普遍不超过55%。

    对此,DeepLink团队提出KernelSwift智能体进化架构,更充分地探索Kernel Search Space和利用Test Time Compute。在KernelBench L1/L2/L3测评中,该系统在英伟达平台上整体性能领先,并且生成的算子代码已经应用于生产级推理引擎SGLang和LMDeploy。

    KernelSwift通过DeepLink自研AI编译器DLCompiler的协同,实现了对华为昇腾、沐曦、寒武纪、海光、平头哥、天数智芯等主流国产芯片的支持,跨平台兼容率达90%。

    ▲蔡政

    8、探微芯联张羽:打造对标英伟达NVLink的国产互联方案

    探微芯联超节点与推训平台技术专家张羽谈道,大模型对显存有极致要求,单芯片扩展已逼近物理瓶颈,Scale-up超节点是未来长期的主要发展方向,通过高性能互联突破单GPU计算容量、存储容量和访存容量的限制。

    探微芯联以scale-up互联资源池为核心,通过自研的ACCSwitch芯片与XPU端的ACCLink,将计算、内存、存储、CPU四大资源池整合成一个统一的计算系统,并围绕芯片提供驱动软件栈,形成scale-up域互联整体解决方案。

    其方案可帮助计算卡厂商、DRAM厂商、存储厂商构建对标英伟达NVLink生态的国产scale-up超节点系统。

    ▲张羽

    9、圆桌讨论:Token爆发元年,国产AI算力如何从可用到好用?

    AI算力基础设施专题论坛的圆桌讨论由千芯智算董事长陈巍主持,三位嘉宾分别是芯桥半导体解决方案副总裁张鑫、DDN中国技术总监李凡、探微芯联超节点与推训平台技术专家张羽。

    陈巍谈道,根据国家统计局的数据,今年3月,我国日均token调用量已突破140万亿,较2024年初的1000亿增长超过1400倍。AI推理已不再是单纯的堆卡堆算力,而是进入token工厂时代,每生成一个token,都在极致考验计算芯片、存储、互连架构的协同。

    随着推理时代到来,传统基础设施已无法满足智能体和长链路任务的需求。站在token爆发元年的风口之上,国产AI算力如何从可用迈向好用?这个议题非常具有现实意义。

    ▲从左往右:陈巍、张鑫、李凡、张羽

    几位嘉宾分享的一些共识观点包括:

    (1)token成本是国产算力从可用到好用的关键命题,更低成本、更高token产出效率是前提。

    (2)系统工程化协作是短板。发展计算、存储、互联、网络、运维的一体化工程能力,才能真正释放token工厂的潜力。

    (3)中国团队在模型量化等软件层的能力已接近或超越国际水平,制程、良率等硬件层差距客观存在,场景化需求可能会抹平部分技术差距。

    (4)Scale-Up超节点是确定性长期趋势,是国产AI算力生态整合的关键抓手。

    (5)AI下一个爆发点尚待观望。未来Agent长时序主动执行将改变计费体系,对硬件成本、集群效率的要求将更严苛。

    计算方面,张鑫谈到AI芯片设计正向定制化模型需求靠拢,例如针对矩阵计算做专项硬件加速(参考Groq思路),可同时实现资源节省、性能提升与成本下降,建议加强芯片层与落地场景的沟通,推动硬件针对专属场景的定制化改造。

    在他看来,智能体落地不是单一模型运算,而是多模型在不同场景、不同节点、不同步骤的分场景拆解,是否需要专用芯片支撑仍在探索中。

    存储方面,李凡提出存储架构割裂(HBM、DRAM、SSD各自孤立)是当前制约token生产效率的隐性障碍,只有打通才能真正释放算力。

    他认为,中国AI推理基础设施的token输出效率已超越国外水平,现阶段主要问题是工程配合与生态整合不足,仍处于堆卡堆资源的初期阶段,缺乏计算、网络、存储、运维的系统级协作。

    通信方面,张羽提到计算、存储、互联三者之间存在此消彼长的平衡难题,把存储做成HBM类混合存储可行,但会将压力转移到通信侧。

    他建议,芯片内部的平衡、芯片间互联的平衡、存储的平衡三者需统一建模,建议构建性能建模工具,拆解大模型推理任务中的算子(通信算子、访存算子、计算算子),预估各阶段计算量、访存带宽需求,寻找计算与通信细粒度overlap的最优点,从而实现最大化性能。

    张羽预计未来3~5年,计算卡厂商、存储厂商将逐步融入统一的Scale-Up超节点生态。

    七、大模型下半场,竞争焦点变成场景、数据、品味

    在大模型专题论坛上,6位演讲嘉宾分别从模型能力演进、基础设施重构、行业应用落地等维度展开分享。

    模型层面,“任务完成度”成为厂商关注重点,即能否在真实场景中交付稳定、可靠的结果。

    基础设施层面,AI训练和推理需要全新的数据存储基础设施,AI token工厂的每一层都需要被重新设计。

    应用层面,“理解场景”与“理解人”成为AI落地的必修课。大模型不能再仅仅满足于简单生成,而要能理解语言之外的意图、业务逻辑乃至心理。

    1、智谱李子玄:Long Horizon成AI编程新重点

    智谱Z.ai负责人李子玄认为,AI编程的竞争焦点正从单点生成转向“Long Horizon(长程任务)”能力。

    他澄清,Long Horizon并非长度的比较,而是要求模型执行任务的过程中保持目标与逻辑不失真,能从失败中迭代优化,交付高质量的结果。

    GLM-5.1正是体现这一能力的模型。

    结合自身实践,李子玄提出,如今的AI研究员要像产品经理一样懂场景,评测已经成为引领模型发展的重要管理方法。而在PMF方面,企业需要进行前瞻布局与技术储备,才能在技术拐点到来时捕捉机遇。

    ▲李子玄

    2、阿里云王作书:AI将带来全局性机遇

    阿里云千问大模型解决方案资深总监王作书观察到,大模型已走过学术奠基、产业投入阶段,步入了商业加速期。当前,模型推理能力显著增强,多模态融合与开源生态日趋成熟,AI正从“聊天”进化为核心生产力。

    为此,阿里巴巴成立ATH事业群,围绕“创造token、输送token、应用token”升级了其AI战略,目前已围绕着文本、多模态等多条主线研发模型,最新成果包括Qwen3.6系列模型、Qwen3.5-Omni、万相2.7等。

    王作书透露,阿里大模型团队未来的三大技术目标为提升知识规模和效率、增强智能水平和多模态融合。

    她还提出了价值四象限的概念:未来AI将创新力/劳动力为纵轴、产品力/生产力为横轴持续扩展,推动消费电子、生产系统等升级,带来全局性机遇。

    ▲王作书

    3、焱融科技张文涛:AI竞争本质是数据竞争

    焱融科技CTO张文涛观察到,AI的竞争本质上是数据的竞争,无论是训练还是推理,都对高性能、低延迟、去孤岛化的数据存储基础设施有着迫切需求。

    焱融应对上述挑战的思路是打造一套全栈AI存储解决方案。具体来看,该公司的全闪存储一体机产品F9000X采用了冷热数据智能分层、弹性网络等技术,使得每GiB/s带宽成本下降60%,并在MLPerf Storage v2.0测试中排名榜首。

    面向推理场景,焱融推出了涵盖DRAM到本地盘再到远端共享存储的多级KVCache缓存管理系统YRCache,并通过智能预取、异步卸载、零拷贝等技术实现加速。

    同时,焱融科技也提供了企业全域数据管理平台DataInsight,可以统一纳管分散在各处的数据孤岛,形成统一视图,并支持自定义数据流向,给大模型训练提供便利。

    ▲张文涛

    4、连信数字/连心云黄杏:理解“人”是AI进入真实世界的关键

    连信数字/连心云洞见研究院院长黄杏认为,现实中的管理者、面试官、家长等群体,常常需要借助语言之外的信息来理解他人。同样,当前AI虽擅长处理语言,但若想真正融入真实世界,就必须理解人心。

    连信数字洞见研究院汇聚了心理学、算法与大数据的跨学科精英,“洞见人和”人本世界(心理)大模型以全球多源数据为底座,通过多模态感知与神经符号AI的深度融合,改变了传统的“经验驱动”分析,通过智能循证分析实现了对人类的深度洞察与全面刻画。

    这一模型已在公安、教育、司法、安全生产等行业落地实战,并已覆盖20多个省市,累计2000万+人群。

    在大会现场,黄杏宣布,即日起,连信的所有模型能力与原生Agent将通过连心云能力平台正式对外开放,赋能更多行业场景。

    ▲黄杏

    5、上海AI Lab张鸿杰:统一多模态模型的关键不是技术选型

    上海AI Lab青年研究员张鸿杰介绍,目前统一多模态大模型主要采用纯自回归、纯扩散与其他融合上述架构的折中方案。但他认为关键不是选路线,而是在统一上下文中实现理解与生成各有所长,让不同模态采用最适合的预测方式。

    基于这一判断,上海AI Lab研发了InternVL-U,一个4B参数的统一多模态大模型。具体来看,InternVL-U拥有统一上下文,但目标照模态实现自适应。这一模型采用InternVL 3.5的主干完成理解和推理,并把像素合成交给MMDiT,从而实现语义建模和视觉生成的分工。其理解与生成的视觉表征也完全解耦,理解用ViT高层语义特征,生成用VAE浅层重建特征,避免冲突。

    目前,InternVL-U模型、数据管线与评测工具链均已开源,张鸿杰也呼吁社区一同参与到统一多模态模型的发展中来。

    ▲张鸿杰

    6、商汤大装置卢国强:AI系统的核心使用者,将从人转变为Agent

    商汤大装置产品总经理卢国强认为,行业正从“AI原生”迈向“Agent原生”新阶段,未来AI系统的核心使用者将从人转变为Agent,交互方式、度量衡与安全边界将因此发生根本性变化,带来对Agent原生基础设施的需求。

    从具体设计上来看,Agent原生系统应让每一层都变得可发现、可理解、可操作。其中,算力层将由成本中心转变为利润中心,成为“收入工厂”;平台层则通过token统一度量衡,实现智能化与标准化;应用层需要实现“AI赋能AI”,使AI具备自主迭代能力。

    基于此,商汤大装置在2026年将愿景从“AI数字工厂”升级为“AI Token Factory”。这一工厂的原材料是算力、模型与数据,生产线是推理引擎、缓存与调度,产品是token,其每一层都需要进行重新审视与设计,以更好服务Agent的需求。

    ▲卢国强

    7、圆桌讨论:AI下半场,大模型的演进与终局

    大模型专题论坛的圆桌讨论由中信证券首席计算机行业分析师杨泽原主持,四位嘉宾分别是智谱Z.ai负责人李子玄、阿里云千问大模型解决方案资深总监王作书、上海AI Lab青年研究员张鸿杰、商汤大装置产品总经理卢国强。

    ▲从左到右:杨泽原、李子玄、王作书、张鸿杰、卢国强

    4位嘉宾先是结合自身背景谈了几个热点话题。

    编程模型方面,李子玄谈道,在该领域保持领先的关键在于“品味”,也就是对技术趋势的判断力。对场景进行细致挖掘、通过coding plan等渠道获取反馈也很重要。

    谈及全模态模型,王作书认为此类模型同时拥有“眼睛、嘴巴、耳朵”,将推动智能边界向三个方向拓展,分别是感知边界、推理边界和交互边界,最终在视频理解、自动驾驶、实时音视频交互提供更强的能力与更拟人的体验。

    小尺寸多模态模型与大型原生多模态模型孰优孰劣?张鸿杰称,后者虽然架构优美,但训练代价大,也无法继承现有模型的能力。相比之下,前者可在其他模型基础上外扩生成编辑能力,性能上限也不低。小模型在数据方面的短板可以结合Agent补齐,不必单打独斗。

    基础设施方面,卢国强分享说,尽管商汤大装置已经预判未来算力需求会大幅增长,但其增幅仍然远远超出预期。在推理时代,模型获得的输入要远大于模型的输出,这对基础设施的每一层都提出挑战,尤其是缓存效率。

    嘉宾们也就几个共同话题分享了观点。

    模型架构、能力和场景迭代方面,多模态、空间智能、长链路等被频繁提及。李子玄总结道,目前模型迭代的本质是智能提升和token效率优化的循环,新应用场景可能会因推理速度和稳定性的提升而迎来爆发。

    年初的龙虾热让Harness走进主流视野。4位嘉宾认为,Harness可能会被模型逐渐内化,或是与具体行业和场景结合得更为密切。

    王作书谈道,当前Harness是模型的放大器,但长期看会变成基础设施被隐藏,模型向下做深逻辑与工具调用能力,Harness向上融入行业。张鸿杰觉得共生与内化是渐进过程,多模态的Harness比文本更具挑战。卢国强提出模型决定上限,而Harness决定下限,两者缺一不可。李子玄则预判,未来模型可能会自己“上发条”,不再依赖Harness,人只负责补充上下文。

    谈及厂商的全栈自主能力,几位嘉宾都认可其商业价值,但也不主张绝对化,而是要做好权衡与生态协同。全栈自主的落脚点最终仍是提供优质、稳定、高效的服务与商业价值。

    八、从“龙虾”、AI眼镜到token管理,拆解国产智能体落地潮

    在AI智能体专题论坛,8位嘉宾分别从底层架构、技术演进、模型创新、硬件载体、垂直场景落地及企业级管控工具等方面,拆解智能体商业化路径。

    从大厂打造的开源桌面级“龙虾”产品、智能体底层架构创新,到AI编程、AI营销、AI眼镜、token管理等赛道,他们正在推动智能体更好地帮人们做事。

    1、网易有道王宁:20余天速成国内首个桌面级“龙虾”

    网易有道LobsterAI项目负责人、智能硬件研发负责人王宁分享说,他们经过20余天快速打磨,2月19日正式推出国内大厂的第一个开源桌面级“龙虾”LobsterAI。

    其内部认为,OpenClaw是Agent时代的Linux系统,因此他们将有道“龙虾”底层架构切换为OpenClaw,上层保留自研GUI与业务流程,通过进程通信实现兼容。

    他提到Agent产品的未来新机遇包括Agent向各领域渗透、Skill即服务、开源生态共建、AI Native工作流、多Agent协作、Agent原生硬件等。

    ▲王宁

    2、阶跃星辰袁微:Agent技术核心转向外部环境构建

    阶跃星辰算法专家袁微提到AI Agent的演进包括三个阶段,分别是提示词工程时代、上下文工程时代、Harness Engineering时代,当下焦点已从模型本身转向构建完善外部运行环境,是Agent从Demo走向产品的关键。

    当前处于Agent能力跃迁拐点,技术核心从模型竞赛转向系统工程与环境构建,Harness + OpenClaw是将基础模型能力转化为企业级可交付Agent产品的关键方案。其中,Harness是Agent的脚手架,对应系统层,OpenClaw是Agent的调度引擎。

    ▲袁微

    3、华为林炜哲:DLLM Agent有望成为下一代Agent系统基石

    华为中央研究院先进计算与存储实验室大模型算法专家林炜哲提到,Diffusion模型在同等训练条件的智能体场景下,比AR Agent更快、规划更优、端到端效率更高。

    他们研究发现,DLLM Agent在同等序列长度、轮次约束下,能保持与AR Agent一致的任务精度,同时还能实现信息搜集调用量显著下降、任务拆分更精准、搜索轮次更少、耗时更短,叠加轻量采样算法可大幅提高精度,而AR Agent叠加复杂算法会显著增加消耗,进一步拉开性能差距。

    林炜哲认为,DLLM Agent有望成为下一代Agent系统重要基石。

    ▲林炜哲

    4、雷鸟创新程思婕:两大判断定调眼镜是下一代AI最佳载体

    如今智能眼镜进入爆发期,苹果、小米、阿里等大厂入局,赛道转向红海。雷鸟创新AI负责人程思婕抛出结论:眼镜是下一代AI的最佳载体。其两大判断依据是,眼镜是最佳的全域数据采集终端和随身智能体载体。

    一方面,眼镜可以全天候贴身佩戴、无感采集第一人称交互数据、抢占物理世界原生数据入口,另一方面,其适配原生语音交互,支持一句话完成任务、打造个人随身外脑、下一代个性化推荐系统。

    此外她认为,相较于机器人,智能眼镜作为AI载体的优势是,可以通过数据飞轮实现数据闭环与模型迭代,仅作为辅助决策的“外脑”,无需底层控制,从而规避机器人的数据瓶颈、底层控制难题。

    ▲程思婕

    5、阿里云沈林:5个准则打通Agent上下文环境数据构造

    阿里云高级技术专家沈林分享了EventHouse实践的5个准则:

    (1)Think like an Agent,给你的Agent足够的信息感知能力;

    (2)给你的信息编写一本“图书馆馆藏目录”;

    (3)知识不是“信息囤积”,和你的Agent做好“知识对账”;

    (4)每次知识迭代都是一次生产级变更发布;

    (5)“简单”、“可靠”不是锦上添花,而是很多行业的入场券。

    ▲沈林

    6、极狐驭码宋健:AI Coding已进入准交付级编程阶段

    AI Coding是AI技术落地的高价值入口,但目前市场上对AI Coding存在“玩具论”和“万能论”两大暴论。极狐驭码资深AI解决方案架构师宋健认为两种观点均有失偏颇,AI Coding已进入准交付级编程阶段,有实用价值但仍需工程团队投入时间学习和实践。

    AI Coding智能体的五大关键技术是模式、规则、工作流、MCP、Skills,模式是将智能体预先划分成不同角色、规则是为智能体定规矩、工作流类似写脚本、MCP是扩展智能体能力的工具箱、Skills是原子化的功能插件,协同用好这些关键技术和功能是企业实施AI Coding的关键。

    ▲宋健

    7、Noumena AI赵欢:AI营销增长潜力仅次于编程

    Noumena AI(物自体科技)联合创始人、产品算法负责人赵欢的判断是,营销是仅次于AI Coding领域的爆发式增长场景,且与Coding场景逻辑完全不同。

    营销场景面临数据割裂、人员流失导致经验丢失、平台算法迭代快、品牌方难以适配等痛点。Noumena AI推出了营销行业的龙虾产品GrowClaw,不仅能解决典型的营销问题比如内容洞察,达人筛选,内容运营,投流分享等,还可以适配持续维护状态、持续更新、多方协作的营销业务系统。

    针对OpenClaw稳定性差、非技术用户上手难问题,赵欢称他们在内部打造了“龙虾医院”和“龙虾学院”,以实现Agent故障自动诊断以及AI自动学习、快速为业务提供Skill等。

    ▲赵欢

    8、清程极智李浩瑞:首发企业级token管理工具,即将开源

    清程极智技术专家李浩瑞首次正式发布了其企业级token管理新品ATM(Agent Token Manager),该产品后续将开源。

    ATM的核心功能是本地聚合网关、Agent身份级管控、智能路由下放、本地数据存储、Agent原生适配,他们实测显示,本地网关融合云端、本地大模型后使得成本降低70%。

    为了帮助企业在AI转型中进行token管控与质量追踪,清程极智的AI Ping可以在MaaS层通过持续模型服务评测,提供高质量低价格token;ATM是本地网关,在本地通过Agent身份级管控实现精细化企业内部治理。

    ▲李浩瑞

    9、圆桌讨论:OpenClaw x Harness Engineering,AI智能体的范式革命

    圆桌讨论环节由智东西联合创始人、智猩猩总经理何峰主持,四位嘉宾分别是阶跃星辰算法专家袁微,雷鸟创新AI负责人程思婕,清程极智技术专家李浩瑞,Noumena AI(物自体科技)联合创始人、产品算法负责人赵欢。

    嘉宾们探讨了当下OpenClaw与Hermes Agent之间的“养虾、养马”争论、Skill是否会吃掉App等诸多热点话题。

    ▲从左到右:何峰、袁微、程思婕、李浩瑞、赵欢

    袁微站在模型团队角度称,OpenClaw开启了AI智能体爆发元年,当下Agent实现生产级交付的最大瓶颈是模型研发,因为市面上的通用Benchmark很难对应每个人需求,因此他们试图通过收集专家意见、用户的实际体验、自建Benchmark等方式,让模型体验和大多数人体感保持一致。

    作为硬件厂商的代表,程思婕认为Skills会逐步替代App,而当下Skill变成App的壁垒在生态层面,需要大厂开放自己的原子能力。围绕OpenClaw与眼镜的结合,雷鸟创新制定了三步战略,第一步是面向开发者,让眼镜作为输入入口快速接入OpenClaw,第二步打通App让其丝滑连接Agent,第三步是内部自研类似框架。

    作为Token服务商,李浩瑞提到一个现象,Hermes Agent出来后,OpenClaw的Token消耗在下降,这进一步说明,越来越聪明、越来越懂用户的Agent是技术上的大趋势。企业内部管理Token的最大难点,就是不知道Token消耗流去了哪里,这也是他们打造本地Token管理工具的原因。

    在营销这一垂类场景,赵欢认为,OpenClaw是产品形态革新,能大幅降低非技术人群AI使用门槛,未来模型会逐步吃掉Harness,垂类厂商需构建领域护城河。他们判断一个场景是否真正适合Agent落地的两个视角是,本身的技术场景匹配度,以及场景商业价值、落地困难程度。

    结语:生成式AI产业开始告别“早期阶段”

    今年AI产业依然在飞速变化。年初的“养龙虾”热潮带动token消耗量爆发,密集迭代的各类大模型持续带来新的惊喜,业界已经对基准测试分数祛魅,转而更看重真实的任务完成度,新一轮AI基建潮正如火如荼开展。

    被业界期盼已久的DeepSeek-V4,也交出了一份具有开创意义的答卷:不仅继续做到大幅压低成本和性能领先,而且写出了一个打破海外芯片依赖的新叙事。

    这场空前的产业爆发之中,还有一些需要面对的问题。

    模型迭代速度之快,正在给企业用户带来选择疲劳。相比追逐新模型,企业更需要的是建立与模型无关的架构能力。

    模型能力与安全的矛盾也在激化。Anthropic手握强大的Mythos模型却不敢全面发布,ChatGPT Images 2.0生成的图像已经以假乱真,其他旗舰模型同样面临网络安全风险的审慎评估。前沿能力的发布正成为一个越来越沉重的决策。

    与此同时,炒作性宣传和情绪生意也在侵蚀行业的判断力,真正的技术进展反而被淹没在噪声之中。在DeepSeek-V4新闻稿的结尾,有一句引自《荀子》的名言:“不诱于誉,不恐于诽,率道而行,端然正己。”也愿生成式AI道路上的前行者们,都有类似的定力。

    而AI产品最终需要以真实的商业回报来验证。头部企业交出了快速增长的收入成绩单,同时也在寻求巨额算力资源采购,但这种支出比收入增长更快的模式会持续多久,答案要等到新一代基础设施真正投入运营之后才能揭晓。

    AI正在不可逆转地走向产业化,开始触及软件开发、知识工作和人机交互的底层范式。但截至目前,这个新型技术产业仍处于地基浇筑期,至于最终建成的大厦是什么模样,可能连建设者自己都还无法完全想象。

    2026年这个春天,生成式AI产业开始告别它的“早期阶段”。

    【纠错】【责任编辑:小小小小啊】