到2025年,人工智能将完成从技术繁荣到社会现实的显着跨越,堪比“寒武纪生命大爆发”。如果说今年是人工智能体生物学中的“物种起源”,那么2026年将是这些新兴“物种”系统性重塑人类文明的第一年。人类正处于文明悄然而严重崩溃的前夜。核心标志是人工智能完成了对人类社会的三维“解构”。智力在人脑中被拆解,行为在人体中被拆解,知识在精英中被拆解。这不仅是技术进步,而且是基本范式的革命。它挑战了启蒙运动以来的基本假设,即“人类”是认知、行动和创造的唯一代理人。 2026年真正的变化不在于什么技术指标革命人工智能,而在于它如何系统地拆解我们所依赖的社会、经济和数字力量的基础。 2025年9月,在浙江省绍兴市杭州湾体智创新中心,工作人员操作机器人采集各种场景下的作业数据。图/视觉中国 “思考”还是人类的特权吗? 2026年,人工智能不再满足于充当人类的“超级助手”。它触及了我们曾经被视为人性“最后堡垒”的核心认知领域,例如创造性思维、复杂的价值判断,甚至微妙的情感共鸣。当人工智能能够在内部执行多步骤“慢速思维”来解决研究生水平的数学问题时,以及当它能够敏感地做出道德权衡时,基本问题就会出现。几乎与人类一样。当“思考”的行为可以大规模、低成本地“外包”时,它还是人类的专属特权吗?这是智力的第一次消解。我它不再只是人脑能力的延伸,而是开始成为一个平行且独立的认知系统。这一过程将在 2026 年产生深刻的社会断层。重点不是技术本身,而是人类各代人之间不可逆转的认知分化。我们相信,第一批“AI原住民”(2010年后出生的阿尔法一代)正在见证青春期的到来。与我们努力学习如何使用人工智能的“数字移民”不同,他们是在人工智能像空气和水一样无处不在的环境中长大的。对他们来说,信息检索的逻辑已经从“关键词索引”彻底转变为对话的“综合”,不再问“什么”,而是“请帮我生成一个解决方案……”获取知识的成本趋近于零,人工智能生成结果的“可固化性”和“批判性可审查性”成为新的智力核心。模型创造了一个“认知峡谷”。一方面,有一些“移民”习惯于线性和深度思维,重视记忆和逻辑推理过程。另一方面是擅长模块化、多线程思维的“本土人”。他们投入更多的脑力资源来定义问题、实施人工智能代理并做出最终决定。这不再只是代际差异,而是“巨型”认知分化的前兆。哈佛大学计算机科学CS50的重点从教授“如何编写代码”转向“如何审查AI生成的代码”,值得我们反思。未来的教育是培养独立思考的人还是善于驾驭人工智能的操作者?当人工智能可以提供无限耐心和始终如一的准确辅导时,人类教师的价值是什么? 2026年,教育战场将从知识转移转向保护人类批判性思维和心理素质ghness。这不仅是教育方式的创新,更是在知识解体的时代,人类精神主权能否维系的一场文明之战。 2025年3月,数十台优必选工业人形机器人在浙江宁波某5G二氪智能工厂进行多场景、多任务协同训练。图片/视觉 中国从“能想”到“能做”的决定性飞跃 如果智能不再嵌入大脑,人类的“思维”被拆解,嵌入人体的行动将重构人类的“工作”。我会的。 2026年,AI将完成从“想”到“做”的决定性跨越,将有两种职业。一是多智能体协作系统,二是嵌入式智能。前者是数字世界的“影子员工”,后者是物理世界的“新物种”。到 2025 年,多智能体人工智能框架将能够共享角色并在过程中进行协作就像人类团队一样。 “研究员”代理负责收集数据,“分析师”代理负责建模,“文案”代理负责生成报告。整个过程在云端以毫秒为单位完成。到2026年,这些数字劳动力将形成一个通过标准化通信协议(MCP、A2A等)在全球范围内互连的“互联网”。一家公司的采购人员可以直接与供应链进行谈判,并与另一家公司的销售人员签订电子合同,整个过程无需人工干预。这对就业的影响远远超出了“替代机器”所能概括的范围。我们不是用机器取代工作站,而是用高效、不疲劳且边际成本为零的智能系统接管整个决策和执行链。人力资源、财务审计和营销等行政工作原本依赖人类经验和判断的人工智能,将面临“系统性缩小尺寸”的风险。a.得益于硬件成本的大幅上涨(人形机器人现在成本不足1万美元)和大规模视觉、语言和行为(VLA)模型的成熟,AI正在“离开屏幕”,大规模进入物理世界。特斯拉的擎天柱机器人已经在工厂流水线上自主运行,致远机器人的量产已达数千台。当人工智能拥有超越人类的“大脑”(生态代理)和标准化的“身体”(人形机器人)时,人类劳动力的不可替代性将变得非常现实2 2026年的劳动关系将面临根本性的道德挑战人工智能“员工”24/7工作时,不需要报酬或福利效率,消费。只有元素完全基于数据理性做出决策,人类员工的情绪、疲劳、偏见甚至道德价值观会成为生产力的负资产吗?当“工作”不再是人类实现自尊、与社会联系的主要手段时,社会契约、福利制度,甚至生命的意义都将被改写。这是动作脱离人体所带来的深度震撼。历史上每一次知识媒体的革命,从“代码民主化”到“算法权力”,都会带来权力结构的巨大变化。 15世纪的印刷机打破了神职人员对圣经解释的垄断,催生了宗教改革和现代科学。 2026年,软件行业正在经历一场以“代码民主化”为核心的知识力量的重大重组。编程,一种曾经被认为难以访问和需要的“数字炼金术”需要严格的逻辑训练,正在被AI彻底改写。 2025年将出现的“vibecoding”(基于意图的编程)范式将允许用户用自然语言描述自己的“情感”和“意图”,而无需学习复杂的语法,从而指导AI生成功能齐全的软件。营销经理可以“想象”用于晚间活动的数据分析应用程序。历史教师可以为他们的班级“创建”一个程序来与虚拟凯撒交谈。这代表了知识解构的第三个层次。创建软件的权利正在从一小群经过专业培训的程序员精英手中夺走,并扩展到所有人。你听起来很有创意。这场堪比“印刷革命”的运动,无疑将产生巨大的生产力。它将消除技术和商业领域之间的障碍,创建无数的“独角兽”公司,并实现独特的定制软件解决方案。然而,权力的转移一点也不美好。当每个人都可以“编写”代码时,就会出现新的权力差异。真正的力量不再是能够“编写”代码的人,而是能够“定义”AI应该做什么的人。问题不再是谁控制语法,而是谁控制高质量的私有数据以及用于训练人工智能的底层模型的架构。当数以百万计的“公民开发者”在 OpenAI、Google 和 Anthropic 等少数人工智能平台巨头上构建时,看似民主化的知识环境背后隐藏着前所未有的权力集中事件。 “程序员”这个职业可能正在慢慢过时,但一个更强大、更隐蔽的阶层正在出现:“算法贵族”。通过设计人工智能的行为模式、价值取向和信息过滤机制,人工智能正在无形中塑造着全球亿万人民创造的数字世界。与此同时,增殖“影子人工智能”——员工在公司 IT 系统之外不受限制地使用个人人工智能工具——正在成为公司治理的噩梦。这正是知识权力下放后不可避免的管控失败之痛。 “人类”如何适应“非人类”世界?没有内置智能的人类大脑和行为将从人体中移除,知识将从精英中被淘汰。这种“三重解体”最终指向了同样的治理根本困境。换句话说,我们当前的人类社会制度,无论是法律、伦理还是经济,都建立在人类是世界的中心行为者这一显而易见的前提之上。法律制度建立在人的意志和责任的基础上。经济模型围绕人类的“理性选择”和“劳动价值”。伦理道德是人类情感和社会关系的升华。这个文明的基础开始于随着社会最重要的知识分子、演员和创造者开始转变为大规模的非人性人工智能代理,我们感到震惊。 2026年,我们将面临一系列前所未有的挑战。由人工智能代理组自动生成的交易决策可能会导致市场混乱。如果出了问题,谁来承担法律责任?当人工智能同行向年轻人传授错误价值观时,道德责任该归咎于何处?当全球经济的运行效率越来越取决于“主体对主体”的互动时,政府宏观调控应如何干预?我们试图用现有的法律框架来规范人工智能,就像我们试图用马车交通规则来规范高铁一样。真正的挑战不是我们为人工智能创造了多少“补丁”规则,而是我们是否有勇气重写作为我们文明基础的操作系统。因此,2026 年真正的命题不是选择人工智能将走向何方,而是选择人类将成为什么。在这场不可逆转的脱节浪潮中,我们愿意放弃哪些思想权利来换取效率,我们愿意放弃哪些自主行动来换取便利,我们又该如何保护我们作为“人”的基本价值观?这将是我们这一代人面临的最困难也是最重要的决定。 (陈光为北京邮电大学人工智能学院副教授,徐文军为北京邮电大学人工智能学院教授、副院长。)发表于《中国新闻周刊》杂志第1221期,2026年1月19日出版。杂志标题:嵌入式智能元年已至。作者:陈光 徐文军 编辑:徐方清
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“NetE”用户上传发布ase账户”。本平台仅提供信息存储服务。
注:前述内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。