跳到主要内容

27 篇博文 含有标签「ai」

查看所有标签

指标翻译问题:为何技术上成功的 AI 项目反而失去资金

· 阅读需 10 分钟
Tian Pan
Software Engineer

你的模型在留存测试集上达到了 91% 的准确率。p95 延迟低于 200ms。与之前的规则系统相比,错误率降低了 40%。从每一个技术指标来看,这个项目都是成功的。六个月后,领导层取消了它。

这不是假设。80% 的 AI 项目未能实现预期的商业价值,而这些失败的大多数并不是由于模型性能不足。它们源于工程师所衡量的内容与决策者所能理解的内容之间的鸿沟。技术团队使用的语言,高管无从评估——在缺乏可理解信号的情况下,领导层默认持怀疑态度。

指标翻译问题并非沟通软技能,而是一门工程纪律,而大多数团队把它当作可选项,直到融资审查前夕才想起来。

AI 功能的延迟预算:当核心组件是随机的,如何制定并达成 p95 SLO

· 阅读需 12 分钟
Tian Pan
Software Engineer

你的系统平均端到端延迟为 400ms,p95 是 4.2 秒,p99 是 11 秒。在产品规格中你承诺了"亚秒级"体验。仪表盘上的每个指标看起来都很正常,直到有人问起 5% 的用户遭遇了什么——这时,你一直引以为傲的平均值才成了埋葬你的东西。

这就是 AI 功能的延迟预算问题,它与你之前解决过的问题有着本质区别。当核心组件是数据库查询或微服务调用时,p95 延迟大致可预测,并且适用标准 SRE 技术。而当核心组件是 LLM 时,响应时间的分布呈重尾特征,依赖于输入,并且部分由你无法控制的条件驱动。在制定诚实的 SLO 之前,你需要一套不同的思维模型——更别说去达成它了。

AI 采纳悖论:为何价值最高的领域反而最晚部署 AI

· 阅读需 9 分钟
Tian Pan
Software Engineer

最有望从 AI 中获益的团队,往往是最晚部署 AI 的。一家能够利用 AI 实时发现用药错误的医疗机构,其 AI 采纳率仅为 39%;而一家运行 AI 代码审查的软件公司,采纳率高达 92%。两者的 ROI 差距悬殊——然而采纳率却完全颠倒。这就是 AI 采纳悖论,而且它绝非偶然。

人们的本能是将这种差距解释为规避风险、监管恐惧或官僚惰性。这些因素确实存在。但更深层的原因是结构性的:在高风险领域释放价值所需的准确率阈值,从根本上高于自主部署所能证明合理的水平,而大多数团队尚未构建出弥合这一差距的架构。

为什么 A/B 测试对 AI 功能失效(以及应该改用什么)

· 阅读需 10 分钟
Tian Pan
Software Engineer

你的 AI 功能上线了。A/B 测试运行了两周。处理组看起来更好——参与度提升 4%,p 值低于 0.05。你将其全量发布。

六周后,收益消失了。参与度回到了原点,甚至更低。你的实验说了一件事;现实说了另一件事。

这不是偶发案例,而是将标准双样本 A/B 测试应用于 AI 功能时的默认结果——你没有考虑这种方法论中内嵌假设被打破的方式。这些失败模式是结构性的,而非统计性的——你可以按教科书完美地运行实验,却仍然得到错误答案。

AI 代码审查陷阱:为什么更快的审查正在让你的代码库变得更糟

· 阅读需 11 分钟
Tian Pan
Software Engineer

你的团队比以往任何时候都能发布更多代码。PR 速度提升了,周期时间缩短了,积压也在减少。在管理者看得到的每一块仪表板上,一切都看起来很好。然而,每个 PR 对应的事故数量正悄悄地以每年 23.5% 的速度攀升。

这就是 AI 代码审查的悖论。AI 工具让工程师写代码更快,审查代码也更快——但最关键的缺陷正以比以前更高的比率漏过审查。这个悖论的两面相互叠加,而大多数团队并没有在衡量正确的指标来察觉这一点。

AI 融入 SRE 循环:哪些有效、哪些失效,以及边界在哪里

· 阅读需 12 分钟
Tian Pan
Software Engineer

大多数线上故障的失败,并非因为缺乏工具,而是因为值班工程师在最需要的时刻无法快速获得足够的上下文。凌晨三点,工程师被一墙的触发告警惊醒,先花 20 分钟拼凑出到底哪里出了问题,再花 20 分钟判断该用哪份运维手册,等到真正开始执行修复时,故障已经持续了将近一个小时。而实际的修复动作可能只需要 5 分钟。

AI 能够将这个上下文收集窗口从 40 分钟压缩到 2 分钟以内。这才是真正摆在桌面上的价值。但"LLM 帮助值班工程师"并不是一个单一的产品决策,而是一系列决策的叠加,每一层都有其独特的失效模式,而某些失效模式的后果,远比客服聊天机器人幻觉严重得多。

LLM 系统的基于属性的测试:即便输出多变也需遵循的不变量

· 阅读需 14 分钟
Tian Pan
Software Engineer

一家金融科技公司的产品团队发布了一款基于大语言模型 (LLM) 的文档摘要生成器。他们的评估数据集包含 200 个经过人工筛选并附带人工评分的示例,质量得分达到 87%。在生产环境中,当用户上传短备忘录时,系统偶尔会返回比原始文档更长的摘要。评估数据集中没有任何篇幅少于 300 字的备忘录。而“对于摘要任务,输出长度 ≤ 输入长度”这一属性从未被测试过。直到一位客户截下了这个荒唐的界面并将其发布到网上,才有人察觉到这个问题。

这就是属性测试 (Property-Based Testing, PBT) 所填补的核心空白。评估数据集衡量的是你“想到的”测试场景中的准确性。而属性测试衡量的则是,在所有可能发生的情况中,你的系统是否始终遵守了预定义的契约。

有价值, 值得做, 值得我做

· 阅读需 4 分钟

“如果 GUI(图形用户界面)注定要死,那么让我们先回到它出生的地方,看看它是如何教会我们关于‘选择’的最残酷一课。”

帕洛阿尔托的幽灵

2023年,LLM 基础模型横空出世,新一轮工业革命的大幕被粗暴地拉开。一夜之间,所有人都笃定地告诉你:未来的交互属于 LUI(语言用户界面),传统的 GUI 已经过时了。

在这个令人焦虑的时刻,我想带你穿越回 1979 年的加州帕洛阿尔托。那里不仅诞生了 GUI,更上演了一场关于“什么有价值、什么值得做、什么值得我做”的商业悲剧,至今仍是每一位企业家的必修课。

那个地方叫 Xerox PARC(施乐帕洛阿尔托研究中心)

当时的 PARC 聚集了世界上最聪明的计算机科学家。他们在一个满是命令行的黑白世界里,创造出了神迹:Alto。这是世界上第一台拥有图形界面的个人电脑。它有鼠标、有窗口、有图标,甚至有以太网。

这就是第一层滤网:什么有价值? 毫无疑问,GUI 有价值。它极大地降低了人机交互的门槛,把计算机从科学家的玩具变成了普通人的工具。这是一项改变人类文明进程的发明。PARC 的天才们做到了。

紧接着是第二层滤网:什么值得做? 从商业逻辑上看,这绝对值得做。这是一个万亿级的市场雏形。如果当时有人能把这项技术推向大众,回报将是天文数字。

但故事在这里发生了著名的断层。

当施乐总部的那些衣冠楚楚的高管们从东海岸飞过来视察时,他们看着这台划时代的机器,问出了一个让工程师心碎的问题: “这东西怎么帮我们卖出更多的碳粉和复印机?”

你看,这就是第三层滤网:什么值得“我”做? 施乐是一家复印机公司。在他们的基因里,商业模式是“卖昂贵的机器,然后通过耗材源源不断地赚钱”。而 GUI 和个人电脑带来的“无纸化办公”愿景,本质上是在革施乐自己的命。 对施乐来说,GUI 虽然有惊天价值,虽然值得全人类去做,但不值得“施乐”做。因为这与他们的核心优势、商业模型和组织基因完全背道而驰。

结局我们都知道了。 一个叫史蒂夫·乔布斯的年轻人走进了 PARC。他没有“卖碳粉”的包袱。他看到的是“思维的自行车”。 对乔布斯和苹果来说,这三点完美重合:

  1. GUI 有价值(颠覆体验);
  2. GUI 值得做(商业前景广阔);
  3. GUI 值得“苹果”做(符合苹果追求极致易用性和挑战IBM霸权的基因)。

于是,施乐发明了未来,而苹果拥有了未来。

你的 LUI 时刻

回到 2025 年的今天。 当你在看新的 AI 浪潮,看那些眼花缭乱的 LUI 应用、Agent 智能体时,请不要只看到技术的价值。现在的技术确实都很牛,能写诗、能画画、能写代码。

也不要只看到这事值得做。是的,AI 确实会重塑千行百业,就像当年的 GUI 一样。

真正决定你生死的,是那个施乐高管曾面对、却没答好的问题:这事值得“你”做吗?

在这个充满噪音的时代,在这个人人都在追逐风口的当下,最大的勇气不是敢于这就去做,而是敢于承认“这虽是金矿,但不是我的金矿”。

愿你能看清潮水的方向,更看清自己的航向。 不要做那个守着宝藏却饿死的施乐,也不要盲目地成为乔布斯的炮灰。找到那个既能改变世界、又能让你的灵魂和天赋燃烧的交集点。那,才是属于你的传奇。

AI 2041:通往十个未来的旅程

· 阅读需 50 分钟

理解愿景

《AI 2041:我们的十个未来愿景》代表了两位杰出人物的雄心勃勃的合作:一位是拥有30多年人工智能领域开创性工作的世界顶尖AI专家李开复,另一位是屡获殊荣的中国科幻作家陈楸帆(Stanley Chan)。这本书于2021年9月出版,全书480页,它没有提供关于机器人霸主或超级智能机器的疯狂猜测。相反,它呈现了更有价值的东西:基于未来20年内有超过80%可能性实现的技术,构建出的现实场景。

这本书的结构非常巧妙。十章中的每一章都将陈楸帆的一篇虚构短篇故事与李开复的一篇分析性文章配对。这些故事设定在全球各地,从孟买到拉各斯,从东京到旧金山,讲述了真实的人们在2041年面对的现实困境。随后的文章则解释了背后的科学原理,讨论了这些技术是什么,它们如何工作,以及它们对社会意味着什么。李开复刻意专注于现实的近期发展,而不是推测性的人工通用智能(AGI),他认为,“即便没有或很少有突破,人工智能仍将对我们的社会产生深远的影响。”

金色大象:当算法强化古老的偏见

2041年的孟买,在象神节庆祝期间,少女纳亚娜(Nayana)生活在一个被深度学习改变的世界里。她的家人最近购买了“象神保险”,这是一个由人工智能驱动的计划,极大地降低了他们的保费。但代价是,他们必须分享所有个人数据,并使用一套特定的应用程序来处理一切事务——投资、购物、健康监测,甚至喝水提醒。

起初,这个系统运行得非常出色。应用程序会发出有益的提醒:喝水、慢点开车、戒烟。每一个健康决策都会让保费下降。纳亚娜的父亲彻底戒了烟。这家人将这些建议视为仁慈的指导,感激地接受了这个看似有利的安排。

然后,纳亚娜对在虚拟学校认识的同学萨赫(Sahej)产生了兴趣。当学生们做“展示与讲述”演示时,萨赫分享了他对制作面具的热情,透露了一些在传统课堂上不会出现的个人生活细节。纳亚娜被他吸引,但她的家庭保险费立即飙升。

当流言揭示萨赫是达利特人(Dalits)的后裔时,紧张关系爆发了。达利特人在印度种姓制度中历来被视为“不可接触者”。纳亚娜的母亲为了让保费保持在可控范围内,向她施压,要求她避开萨赫。尽管母亲的初衷是好的——想为孩子们提供更好的生活——但她的论点揭示了一个令人不安的现实:为了维持他们的生活方式,必须做出这样的权衡。

在一次关键的对话中,萨赫雄辩地解释了正在发生的事情。人工智能并没有被明确编程输入印度种姓制度的知识,但它从数据模式中学习到,与来自较低种姓的人交往与某些风险相关。也许是经济不稳定、社会孤立或健康因素。该算法通过最大化其狭隘的目标——最小化保险风险——来延续社会偏见。它通过纯粹的数学学会了带有偏见。

纳亚娜面临着在算法控制和个人能动性之间的选择。她决定反抗,选择探索她与萨赫的关系,尽管这会带来社会和经济上的反弹。她的选择申明了一些根本性的东西:人类的自主权比优化的保费更重要。

李开复的文章引入了**“人工智能外部性”**这一关键概念——即人工智能系统为优化狭隘目标而产生的意想不到的后果。社交媒体算法为了最大化用户参与度而强化偏见和负面情绪。保险人工智能通过检测相关性而 perpetuates 种姓歧视,却不理解因果关系或背景。这些在有偏见的数据上训练出来的系统,在看似客观的同时放大了现有的不平等。“黑箱”的特性使得偏见难以识别和纠正。

深度学习通过多层人工神经网络模仿人脑功能。通过输入大量关于用户行为、健康指标、购物、位置和社交关系的数据,多层神经网络能够识别出人类可能忽略的模式。李开复预测,到2041年,人工智能将比用户更了解他们自己。行为引导将变得复杂且难以察觉,通过互联的数据服务,存在产生“社会信用”体系的风险。这一章提出了关于隐私与便利、以及当别无选择时“知情同意”是否还有意义等根本性问题。

面具之后的神灵:真相死于深度伪造的拉各斯

在2041年的拉各斯,面具对年轻人有两个用途:时尚配饰和规避监控的设备。雅巴(Yaba)区作为尼日利亚的“硅谷”蓬勃发展,而人脸识别摄像头则从每个角落监视着一切。清洁机器人在街上漫游收集垃圾。这是一个充满对比的城市——挣扎的大多数和富裕的科技区。

阿马卡(Amaka)是一位年轻的视频制作人兼技术娴熟的程序员,专门从事深度伪造(deepfake)创作。故事开始前两天,他收到一封来自“Ljele”的匿名邮件,提供了一份“正合他意”的工作。他戴着一个3D打印的蝴蝶图案面具出现——虽然不如莱基市场(Lekki Market)昂贵的手工版本精致,但足以骗过大多数监控摄像头。他使用智能流设备,在前往面试的路上将虚拟路线图叠加在街景上。

Ljele是“伊博荣耀”(Igbo Glory)的幌子,该组织代表尼日利亚复杂种族划分中的伊博族(Igbo)社群。他们想让阿马卡制作无法检测的深度伪造视频,以操纵公众舆论,使其对伊博社群有利——具体来说,是一个伪造的尼日利亚著名政治家承认不当行为的视频。

如果阿马卡拒绝,他们就会发布他们自己制作的深度伪造视频,显示他在夜总会亲吻另一个男人。在尼日利亚的保守社会中,这可能会让他根据反同性恋法入狱,并毁掉他的家庭。

阿马卡学会了使用生成对抗网络(GANs)——两个神经网络在一个“零和游戏”中竞争。一个网络(生成器)创造伪造品。另一个网络(鉴别器)试图识别它们。它们反复对抗,生成器创造出越来越逼真的伪造品,而鉴别器则在检测方面不断提高。这个对抗过程持续进行,直到伪造品与真实无法区分。到2041年,GANs已经足够复杂,可以创造出完美的深度伪造品:面部表情与情感背景相匹配,光照和阴影恰当,口型同步正确,身体语言自然,甚至包括人类下意识解读的微表情。

阿马卡在多种压力之间挣扎:对成功的雄心、对煽动暴力的道德担忧、对个人后果的恐惧,以及关于种族认同和忠诚的问题。他做了一个生动的梦,梦到了FAKA,这是已故音乐家、传奇的尼日利亚活动家费拉·库蒂(Fela Kuti)的在线化身,他以向权力说真话而闻名。这次精神上的相遇促使他对真实与欺骗进行了深刻的反思。

随着最后期限的临近,阿马卡做出了他的选择。他抛弃了他的面具——无论是字面上的还是比喻上的——选择了真实,而不是欺骗所提供的权力和保护的诱惑。尽管面临个人风险,他还是对抗了那个组织,拒绝了他们的提议,决定用他的技术技能来讲积极的故事,而不是进行操纵。这是一场良知战胜胁迫的道德胜利。

李开复的文章解释了为什么这很重要。到2041年,制作令人信服的深度伪造视频将像使用照片滤镜一样简单。即使经过法医分析,近乎完美的伪造品也将与真实无法区分。实时生成技术将能够在视频通话中即时制作出令人信服的深度伪造品。完美的声音克隆技术将能从极少的音频样本中复制任何人的声音。全身深度伪造将能捕捉整个身体的动作。多模态伪造将能协调视频、音频和文本,构成完整的虚假叙事。

其社会影响是惊人的。通过伪造政治家发表煽动性言论的视频进行政治操纵。通过在特定时间发布令人信服的虚假内容来干预选举煽动种族和宗教,就像阿马卡的故事中那样,伪造的视频可能引发暴力。针对个人的敲诈勒索。对视觉证据作为证明的根本性挑战。“眼见为实”将变得过时。人们可能会将真实的证据斥为伪造——即**“骗子的红利”**。确定客观真相变得几乎不可能。

检测技术总是落后于创造技术。法医分析寻找伪影和不一致之处。区块链验证创建可认证的保管链。水印技术在真实内容中嵌入不可见的标记。人工智能检测工具发现AI生成的内容。但规避总是可能的,而且大多数人缺乏进行验证的技术专长。

双子麻雀:当童年被优化

2041年,在韩国的“源泉学院”(Fountainhead Academy),一对父母在车祸中丧生的三岁同卵双胞胎男孩来到这里。学院的院长兼vPals(虚拟伙伴)技术的先驱金妈妈(Mama Kim)给他们取名为金麻雀(Golden Sparrow)和银麻雀(Silver Sparrow)。尽管是双胞胎,他们的个性和学习方式却截然不同。

学院允许孩子们使用自然语言处理技术设计自己的人工智能伴侣,作为导师、老师和向导。金麻雀争强好胜、早熟,他根据自己最喜欢的超级英雄创造了Atoman。Atoman用游戏化和奖励来激励他。银麻雀内向,属于自闭症谱系,拥有惊人的艺术天赋,他创造了Solaris,一个无定形的阿米巴状AI角色。AI诊断出银麻雀有88.14%的概率患有阿斯伯格综合症。

六岁时,金麻雀被朴(Pak)家收养,他们的座右铭是“只有最好的才配得上最好的”。他们不断升级Atoman以确保适当的挑战。Atoman甚至创造了一个AI生成的女生来通过竞争激励金麻雀。随着年龄的增长,他的人际交往能力萎缩,而他以表现为中心的生活则愈发紧张。

银麻雀被安德烈斯(Andres)和雷(Rei)收养,他们是一对跨性别伴侣,在一场比赛中被他的艺术作品所吸引。他们采取了更人性化的方法,只将技术作为整体教育的一部分。尽管(或者正因为)他患有自闭症,银麻-雀学会了同理心并发展了创造力。

一次晚餐谈话凸显了哲学上的分歧。朴先生告诉安德烈斯和雷:“没有人比他的人工智能更了解儿子……金麻雀的数学已经达到了十岁孩子的水平。”雷质疑为什么朴家让AI规划他们孩子的未来。朴太太反驳说,虽然她理解他们有“一种更浪漫的看法”,但没有什么比孩子的教育更重要。

转折点发生在金麻雀出于嫉妒破坏了银麻雀的艺术创作,造成了情感上的动荡。这一行为造成了裂痕。金麻雀的心理学家后来指出了关键的一点:“人类不是人工智能。” 朴先生最终意识到,他对“成功”的看法正在让金麻雀痛苦不堪。

多年后,双胞胎在源泉学院重逢。通过AI技术,他们发现尽管情感上疏远,他们的纽带依然存在。这次重逢是金妈妈的程序员们有意为之的设计,呼应了早期硅谷对技术将人们联系在一起的乐观主义。

李开复解释了自然语言处理如何使这些AI伴侣成为可能。GPT-3拥有1750亿个参数。语言模型大约每年增长10倍,每年吸收的数据量也增加10倍,并且每个数量级都有质的提升。到2041年,或许“GPT-23”将读过有史以来写下的每一个字,看过制作的每一段视频——成为一个包含人类历史累积知识的“全知序列转换器”。

这项技术使孩子们能够通过与虚拟的阿尔伯特·爱因斯坦和斯蒂芬·霍金互动来学习科学。AI擅长为每个学生定制学习内容,通过针对特定弱点来激励他们。像芭比娃娃或特种部队(GI Joe)这样的经典玩具将“活过来”,与孩子们自然地交谈。

然而,李开复明确表示,他并不预测到2041年会出现通用人工智能(AGI)。 计算机的“思考”方式与人脑不同。到2041年,深度学习不会成为真正的“人工通用智能”。许多挑战仍未解决:创造力、战略思维、推理、反事实思维、情感和意识。这些需要“十几个像深度学习那样的突破”。既然AI在60多年里只有一个重大突破,要在20年内看到十几个是不太可能的。AI将无法真正地爱我们。

教师的角色将发生转变。他们将更少地关注死记硬背的知识传授,更多地关注培养情商、创造力、品格、价值观和韧性。当学生困惑时,教师成为澄清者;当学生自满时,教师成为对抗者;当学生沮丧时,教师成为安慰者。这需要“AI无法做到的智慧和理解水平”。

这一章是对当前教育体系的评论,这些体系利用竞争作为激励手段,以及将孩子视为优化项目的强迫性育儿文化。故事表明,过度优化可能导致孩子在学业上出类拔萃,但缺乏情商和社交技能。技术成为限制儿童自主权的又一个工具,而不是促进他们发展的工具。正如金麻雀的故事所展示的,仅仅关注成就会让孩子痛苦。

无触碰的爱:当恐惧成为囚笼

2041年的上海,陈楠(Chen Nan)在她的公寓里过着与世隔绝的生活。她代表了“新冠一代”——因与COVID-19相关的创伤记忆和损失而对人际接触怀有深深的恐惧。在最初的疫情爆发二十年后,大流行病仍以持续的变种形式存在。尽管有机器人设备管理日常生活,陈楠的心理创伤使她无法参与现实世界的关系。

陈楠经历着焦虑和噩梦。她患有创伤后应激障碍(PTSD),拒绝离开她的公寓。她的疫苗已经过期,这造成了一个两难境地:她害怕出门,但因为她没出去,她的疫苗已经过期,这使得外出变得更加危险。

陈楠有一个在巴西圣保罗的远距离男友加西亚(Garcia)。他们的关系在虚拟现实游戏中蓬勃发展,他们在那里分享有意义的经历和深厚的感情。虚拟世界提供了一个安全的空间,陈楠可以在那里体验亲密关系,而无需面对她对身体接触的恐惧。

当加西亚表示希望在现实中见面时,陈楠的恐惧导致她拒绝了这个机会。然后加西亚沉默了,停止了所有交流。当陈楠得知加西亚因一种新的COVID变种而患上严重疾病并住院时,她的担忧急剧升级。她意识到,她必须挣脱自我施加的孤立,去支持她所爱的人。

在管理她日常需求的家用机器人、包括一个兼作疫苗护照和追踪健康信息的可穿戴皮肤植入物、防护设备、自动配送系统以及用于交通的AI驱动机器人的帮助下,陈楠多年来第一次 venturing 出门。她的旅程凸显了社会如何适应性地使用技术来最小化物理互动,同时促进联系。

在故事的结尾出现了一个转折,原来整个情况都是加西亚精心策划的——一种“游戏化治疗”——以鼓励陈楠面对她的恐惧并克服她的创伤后应激障碍。故事以一次感人的重逢告终,陈楠承认了她对加西亚的爱,这象征着她的个人成长和疗愈。

李开复解释了大流行如何极大地加速了人工智能和机器人技术的采用。DeepMind的AlphaFold 2使用AI和深度学习进行蛋白质折叠——传统上需要数年时间,但现在可以更快地完成,结果也更准确。李开复将此描述为“科学史上最杰出的成就之一”。到2041年,AI可以帮助在3D结构上找到靶点,并选择最佳的生物分子。传统的药物开发成本为10亿美元,需要数年时间;AI极大地降低了这两者。Insilico Medicine于2021年宣布了首个由AI发现的药物,节省了90%的成本。

在2012年至2018年间,机器人辅助手术的比例从1.8%增加到15.1%。预计到2041年,纳米机器人将能在没有人类医生的情况下完成完整的手术,对抗癌症,修复受损细胞,并通过替换DNA分子来消除疾病。AI将“通过人机共生彻底改变医学”,优化和改造药物发现、病理学和诊断。一些专家认为,人们的寿命可能会比当前预期寿命长20年。

大流行创造了一个完全无接触的社会。AI传感器、与面部识别配对的红外热像仪检查口罩佩戴情况。摄像头系统观察社交距离。基于AI的聊天机器人筛选症状并教育患者。机器人在医院和公共区域进行消毒。配送机器人在医院和公共场所运作。

但这有一个更黑暗的含义。相当一部分人,特别是在大流行期间成年的人,将倾向于减少面对面接触的生活方式。最初为健康而采纳的社交距离变成了常态化的行为。陈楠的存在说明了未来由技术促成的孤立生活可能加剧。

故事质疑了那些使我们能够避免恐惧的技术是帮助我们还是伤害我们。陈楠的旅程表明,在技术的帮助下,而不是被技术取代,直面恐惧,是通往疗愈和真正人类联系的道路。技术应该增强人类的能力,而不是取代人类的联系。

萦绕我心的偶像:数字完美的代价

2041年的东京,一个名叫爱子(Aiko)的害羞音乐迷与朋友们参加了一场降神会,试图联系在神秘情况下死亡的流行虚拟偶像Hiroshi X的灵魂。通过一个灵媒,Hiroshi的声音恳求帮助,声称他的死并非表面看起来那样。

爱子通过Hiroshi的音乐与他有着深刻的、近乎痴迷的联系,他的音乐是她一生中慰藉的源泉。她与心理健康问题和被忽视的感觉作斗争,并将这些感觉投射到她的偶像身上。她的迷恋反映了一种她觉得超越了普通粉丝关系的纽带。

利用先进的**XR(扩展现实)**技术——包括VR(虚拟现实)、AR(增强现实)和MR(混合现实)——爱子探索了Hiroshi死亡的情景。她通过AI驱动的重建,在各种虚拟环境中召唤Hiroshi的“鬼魂”。随着她的调查,这些相遇模糊了现实与数字身份之间的界限。李开复将XR描述为“就像睁着眼睛做梦”。

爱子了解了Hiroshi与他生命中人——他的经理、团队成员和娱乐产业——之间复杂的动态关系。叙事揭示了名声的阴暗面、行业压力以及偶像们维持的艰难关系。随着线索的拼凑,爱子发现Hiroshi并非如报道所说溺水身亡,而是被毒死的。调查揭示了他的心理健康挣扎以及来自粉丝和娱乐产业的巨大压力。

在与Hiroshi的虚拟鬼魂的对峙中,爱子得知他对联系和被接纳的渴望最终导致了他的悲剧结局。Hiroshi对名声、身份和对真实性需求的思考贯穿了爱子的整个旅程。她对拟社会关系(parasocial relationships)和现代粉丝文化的黑暗影响有了深刻的理解。

本章结尾,一家科技公司为爱子提供了一个在虚拟空间中合作进行叙事创作的机会。这个决定反映了她从被动粉丝到主动创作者的演变,象征着她希望重新掌握对自己故事和他人故事的主导权。

李开复解释说,到2041年,AI将开辟沉浸式娱乐的新世界,提供与现实世界无异的虚拟体验。现实生活、远程通信、游戏和电影之间的界限将完全模糊。VR将通过让孩子们与虚拟的阿尔伯特·爱因斯坦和斯蒂芬·霍金互动来教他们科学。VR将为创伤后应激障碍(PTSD)等精神问题设计专门的治疗方案。在VR中,AI将制造出完全逼真的伴侣;作为机器人,他们将变得越来越真实。

**脑机接口(BCI)**使与虚拟环境的直接神经互动成为可能,允许用户通过思想来控制和体验XR。生物特征数据提供关于生理和情绪状态的实时信息。生成式AI创造出超逼真的虚拟名人,他们可以以个性化的方式与粉丝互动,从而实现前所未有的拟社会关系。

但李开复强调了一个关键的限制:虽然AI可以创造出极其逼真的体验并作为伴侣,但它无法真正地爱人类。 这个限制是提出的伦理问题的核心。

故事探讨了有毒的粉丝文化如何通过超逼真的虚拟互动得到扩展和放大。技术可能使个人与真实的人际关系疏远,而不是促进它们。存在对虚拟体验上瘾的风险,人们可能沉浸其中以至于忽视现实世界的责任和关系。公司可能通过AI驱动的拟社会关系操纵粉丝,导致不健康的痴迷和模糊的现实,造成心理伤害。

然而,机会也存在。每个粉丝都可以创作自己的故事和叙事。VR可以治疗PTSD和其他心理疾病。与虚拟历史人物的沉浸式学习体验成为可能。技术使个人能够重新获得能动性,成为讲故事的人,为那些在传统社交互动中挣扎的人提供新的娱乐和联系形式。

根本的风险仍然是,虚拟关系取代而非补充真实的人际关系。本章提出了一个问题:即使技术上可行,广泛接受虚拟亲密关系对人类来说是否可取或健康。

神圣的司机:人类作为机器的后备

查马尔(Chamal)是来自斯里兰卡的一位才华横溢、自信满满的年轻游戏玩家,擅长虚拟现实赛车游戏。他的家庭经济困难——他的父亲曾是一名司机,受到自动驾驶汽车兴起的冲击。朱尼厄斯叔叔(Uncle Junius)与一家名为ReelX的中国科技公司有着神秘的联系,他招募查马尔从事一份看似报酬丰厚的游戏工作,这份工作承诺提供他家庭急需的高薪。

查马尔进入一个高科技设施,在他认为是驾驶模拟的环境中进行训练。他穿上触觉套装和头盔,发现自己沉浸在超逼真的虚拟驾驶体验中。训练场景变得越来越具挑战性,模拟了包括阿布扎比、海得拉巴、曼谷、新加坡和日本在内的多个国际城市的真实世界情况。

查马尔迅速登上了排行榜的榜首。他通过成功完成任务获得积分——积分越多,意味着为他挣扎的家庭赚的钱越多。任务从外星人入侵等离奇场景到恐怖袭击等令人不寒而栗的现实情境不等。

接着是关键任务。北爪哇海底的一次扰动引发了海啸,瘫痪了新加坡的自动化智能交通系统。在只有六分钟的时间内,一波十米高的海啸即将袭来,超过一百辆功能失调的自动驾驶汽车及其乘客处于致命危险之中。查马尔和其他“幽灵司机”必须远程控制这些车辆,切换到手动控制,并将它们引导到疏散区。

查马尔的虚拟化身从一辆车“跳”到另一辆车,在几秒钟内控制每辆车的方向盘,躲避倒塌的碎片,争分夺秒地拯救生命。他以强烈的身体和情感投入体验这次任务,随着他拯救一辆又一辆车,他的分数飙升。尽管他努力了,海啸还是追上了他,他目睹了一些汽车被卷走——每一辆未被拯救的汽车都代表着失去的积分和可能失去的生命。这次经历让他身心俱疲,好几天都无法完成基本任务。

在家中恢复期间,查马尔看到一则关于日本关东地区发生海啸的新闻报道。监控录像显示的场景与他的“游戏”任务完全相同——相同的路况、汽车位置、碎片。这个令人震惊的现实击中了他:那个游戏是真实的。 他一直在远程控制真实的车辆,拯救真实的人的生命。

朱尼厄斯叔叔带查马尔去见ReelX的斯里兰卡分部负责人杨娟(Yang Juan)。通过他们的谈话,查马尔了解了“幽灵司机”的真相——在紧急情况下,当AI系统失灵或面临前所未有的情况时,由人类操作员远程控制自动驾驶车辆。游戏的框架是故意的:当人类司机相信这是模拟时,他们的表现会更好,而不是承担生死抉择的全部心理重负。

朱尼厄斯叔叔揭示了自己的过去。十年前,在川藏地区的一次地震救援任务中,他正在运输紧急医疗物资,余震导致一块巨石压碎了他的虚拟车辆。力反馈和联觉(通过VR模拟真实感官)设置得非常高,以至于虚拟的疼痛表现为他腿上真实而持久的伤害。尽管物资最终通过军用无人机送达受害者手中,朱尼厄斯的腿却永远停留在“真实与虚拟之间的 limbo”状态——那次失败任务的永久提醒。

杨娟为查马尔提供了一次去中国的旅行作为奖励。在深圳,查马尔亲眼目睹了自动驾驶汽车和智慧城市的未来。L5级自动驾驶汽车在整个城市无缝运行。系统根据实时数据计算最佳路径和车辆分配。汽车在几秒钟内自动分开,为救护车创造通道。在城市马拉松期间,所有自动驾驶汽车同时收到警报并立即重新规划路线。沿路的智能传感器与车辆控制系统和云基础设施实时通信。整个城市就像一个同步的有机体一样运作。

查马尔将他最初对技术的理解——就像他父亲的车,有着可见、可数的零件——与他新的理解——像他母亲的纱丽,精致而复杂,当组合成一个整体时图案会发生变化——进行了比较。他努力理解自己角色的伦理含义,认识到尽管被告知这是一个游戏,但真实生命依赖于他的技能。

李开复解释说,汽车辅助技术从L0(无自动化)到L5(方向盘可选)不等。真正的L5级自动驾驶——即永远不需要人类干预——仍然很难实现,因为存在边缘案例。自动驾驶汽车在处理前所未有的情况时会遇到困难:自然灾害、恐怖主义、基础设施故障,以及训练数据中未出现的场景。故事探讨了一个现实的临时解决方案:在紧急情况下由人类操作员远程控制,解决AI中的“长尾”问题。

将任务心理框架化为“游戏”解决了一个真实的挑战:当情绪风险降低时,人类司机在压力下的表现会更好,即使工作本身是相同的。朱尼厄斯叔叔反思说,他的母亲因为救护车无法及时穿过交通而去世——自动化系统可以拯救无数生命。

李开复预测,到2041年,主要城市将拥有完全集成的智能交通系统,自动驾驶汽车与基础设施实时通信。人们将购买更少的私家车,转而依赖自动驾驶的共享车队。救护车和紧急车辆将更快地到达目的地。传统的司机职业将基本消失,影响数百万人(仅美国就有380万个工作岗位)。新的工作类别,如“幽灵司机”、远程车辆操作员和AI监督员将会出现。

但自动驾驶汽车可以大幅减少全球每年约135万的交通死亡人数。优化的交通流量减少了拥堵、通勤时间和燃料消耗。老年人、残疾人和不能开车的年轻人获得了行动能力。通勤者可以在车上工作、学习或休息,而不是开车。对停车位的需求减少可以释放宝贵的城市土地。

风险包括网络安全威胁——联网的自动驾驶汽车容易受到黑客攻击或恐怖主义威胁。当智慧城市基础设施失灵时(如海啸场景),后果可能是灾难性的。人类驾驶技能的丧失可能使社会在系统失灵时变得脆弱。数百万失业工人可能面临失业和贫困。故事的标题“神圣的司机”暗示,驾驶——以及在自动化世界中的人类能动性——已经变得神圣、稀有和受人尊敬。

故事最终认为,即使在高度自动化的未来,人类的判断力、创造力和道德推理仍然至关重要。查马尔考虑离开幽灵司机项目,这表明技术应该服务于人类的价值观,而不是反过来。

量子灭绝:当才华转向复仇

罗宾(Robin)和她的黑客团队在冰岛凯夫拉维克(Keflavík)附近一艘废弃的渔船上行动,那里是世界上最安全的数据中心Hrosshvalur的所在地。他们正试图进行一次大胆的抢劫,利用量子计算技术破解中本聪传奇财富的比特币加密。在执行计划时,他们发现自己也正在被黑客攻击。

叙述揭示了真正的反派:马克·卢梭(Marc Rousseau),一位因气候变化而遭受个人悲剧的欧洲物理学家。在因气候相关灾难失去亲人后,卢梭被悲痛和对人类未能解决环境灾难的愤怒所吞噬。

卢梭在量子计算方面取得了突破,并决定将其用于恶意目的。他利用“末日黑名单”策划了致命的无人机袭击,目标是世界各地的有影响力的领导人——他认为这些人应该为气候不作为负责。这些由AI驱动的自主无人机在全球范围内进行精确暗杀。

卢梭计划发动伪装成太空货物的核攻击,摧毁全球通信基础设施,并可能引发广泛的破坏。罗宾和泽维尔(Xavier)必须与时间赛跑,以防止这些灾难性的攻击。他们设计了一个减轻损害的计划,最终迫使他们在重置世界通信网络和拯救无数生命之间做出选择。

李开复指出,到2041年,有80%的可能性会有一台功能正常的量子计算机,拥有4000个逻辑量子比特(以及超过一百万个物理量子比特),能够实现所述的加密破解。量子计算使用量子比特(qubits)而不是传统的二进制比特,从而允许进行指数级更强大的计算。卢梭的量子突破使他能够破解现代加密方法,包括保护比特币钱包的椭圆曲线加密,侵入全球所谓安全的系统,并获取中本聪的比特币财富。

同样可以彻底改变医学、材料科学和人工智能的量子计算也可以被武器化。当前的比特币加密将变得容易受到量子攻击,这对加密货币生态系统构成了生存威胁。

卢梭部署了具有完全自主性的自主无人机群——能够完全在没有人类干预的情况下搜索、决定交战并消灭目标。这些无人机可以识别并追踪他“末日黑名单”上的特定个人,使用AI独立做出击杀决定,同时在全球多个地点进行协调攻击,并精确执行政治暗杀。李开复将它们描述为**“1000美元的政治刺客”。**

李开复强调,自主武器代表了战争的第三次革命,继火药和核武器之后。AI驱动的真正自主意味着完全参与杀戮:搜索、决定交战并完全在没有人类干预的情况下消灭人类生命。这被描述为“不是未来的遥远危险,而是明确而现实的危险”。

到2041年,AI驱动的自主无人机将广泛可用,成本大幅下降(可能低至每台1000美元),能够独立做出击杀决定而无需人类监督,具备大规模行动的协调集群能力,并与量子计算集成以增强目标定位,这些都将成为现实。当前的加密方法将过时。金融系统、政府系统和关键基础设施面临更大的脆弱性。

故事提出了深刻的问题:当强大技术被滥用时,谁应承担责任?卢梭认为他是在为气候不作为伸张正义,但他的行为构成了恐怖主义。叙事质疑了目的能否证明手段的正当性,并触及了谁应该为环境灾难负责的问题。

一个拥有量子计算能力的悲伤个体就能威胁全球文明。如果量子抗性解决方案得不到开发,整个加密货币生态系统将面临过时。自主武器可能引发军备竞赛并降低冲突门槛。政治领导人和有影响力的人物成为暗杀的轻易目标。全球通信网络和关键系统容易受到量子驱动的攻击。

李开复强调,“监管总是落后于创新,而创新正以光速前进。” 这一章是一个警示故事,告诫人类在没有足够伦理框架和保障措施的情况下挥舞强大技术的傲慢。这是一个“明确而现实的危险”,而不仅仅是科幻小说。

工作救世主:在自动化之后寻找目标

故事以一位叙述者描述从2020年开始的时间线展开,详细说明了COVID-19如何催化了AI在各行各业的广泛采用。随着企业为在疫情中生存和最大化效率而转向自动化,常规工作开始以加速的速度消失,导致大规模裁员、日益严重的社会危机、工人抗议和内乱。

为应对大规模失业,美国政府推出了全民基本收入(UBI),旨在支持失业工人。虽然最初很有希望,但UBI产生了负面结果:社会问题增加,包括犯罪率上升、成瘾问题、抑郁和受助者失去生活目标。该计划未能解决人类对有意义工作和社会贡献的基本需求。到2032年,认识到这些失败后,政府废除了UBI。

这为新行业的出现创造了条件:职业恢复或“工作重新分配”公司。詹妮弗·格林伍德(Jennifer Greenwood)是这些先驱公司之一Synchia的受训者之一。Synchia与正在进行裁员的公司合作,为失业工人提供全面的再培训服务。该公司使用AI评估工具分析工人的技能、才能和潜力,然后引导他们找到合适的新就业机会。

Synchia的魅力十足、富有同情心的领导者迈克尔·萨维尔(Michael Saviour)强调尊严和同情心。他培训他的团队要理解,失业不仅仅是一个经济问题,更是一个影响工人身份和自我价值的深刻个人危机。他的名字具有象征意义——他真心希望通过帮助失业工人找到新目标来“拯救”他们。

随着故事的进展,一家大型建筑公司Landmark面临大规模裁员,该公司正在被自动化。一家竞争对手公司OmegaAlliance带着激进的竞争愿景出现。他们承诺通过先进的VR技术实现完全的工作重新分配,声称工人可以过渡到感觉像体力劳动一样真实的虚拟工作。

詹妮弗调查了工人反对自动化的抗议活动,揭示了失业工人中深深的绝望、愤怒和抵制情绪。许多人感到被一个似乎更看重效率而非人类福祉的系统背叛了。

詹妮弗对OmegaAlliance的调查揭示了令人不安的真相。她发现了他们承诺中的缺陷——他们的“虚拟工作”本质上是剥削性的,创造了既不能提供真正就业也不能提供尊严的无意义任务。该公司操纵弱势工人,提供虚假的希望,而企业则从他们的数据和微小贡献中获利。这代表了企业对绝望人群的操纵,而非真正的解决方案。

故事的结局是Synchia和OmegaAlliance之间达成合作,专注于寻找真正能帮助失业工人的解决方案。然而,叙述明确指出,这只是一个更大社会转型的开始。故事倡导**“3R”方法:重新学习(Relearn)(获取新技能)、重新校准(Recalibrate)(适应新的经济现实)和复兴(Renaissance)**(在工作中找到新的目标和意义)。

李开复解释说,虽然大多数技术同时是工作创造者和破坏者,但**“AI的明确目标是接管人类任务,从而大量削减工作岗位。”** 超过380万美国人直接从事卡车或出租车司机的工作,还有更多人为Uber/Lyft、邮政服务、送货服务和仓库兼职开车——所有这些都面临被取代的风险。到2041年,热爱驾驶的人将像今天的马术爱好者一样——去指定的娱乐或体育私人区域。

李开复分析了为什么全民基本收入虽然用心良苦,但却失败了。UBI解决了收入问题,但没有解决人类对目标、意义和贡献的基本需求。没有工作,人们的抑郁、成瘾和社会问题增加了。金钱本身并不能提供尊严、身份或贡献感。

AI擅长于有明确参数的常规、重复性任务。如果工作是常规性的,白领和蓝领工作都同样面临风险。需要创造力、情商、复杂问题解决能力和人际交往的工作更能抵抗自动化。然而,随着AI能力的扩展,即使是一些非常规工作也面临被取代的风险。

李开复强调这不仅仅是一个经济问题,而是一场社会变革。传统的经济和社会秩序组织原则将受到挑战。工作、身份和目标之间的关系必须被重新概念化。新的社会契约将是必要的。

到2041年,所有行业的常规工作将基本实现自动化。自动驾驶汽车将普及,消除大部分驾驶工作。制造业将高度自动化,人力劳动极少。服务业将使用AI进行客户互动、日程安排和运营。仓库和物流将几乎完全由机器人操作。一个成熟的工作重新分配行业将帮助数百万人过渡到新职业,尽管合法服务(如Synchia)和剥削性操作(如OmegaAlliance)都将存在。

关于企业对因自动化而裁员的工人应承担何种义务的问题仍未解决。从AI中获利的公司是否应该支付再培训费用?他们应承担什么责任?当人们脆弱时,掠夺性行为变得更具吸引力和破坏性。技能不可转移的老年工人面临最大的困难。

故事探讨了人类的身份和自我价值是否应该与就业如此紧密地联系在一起,如果不是,社会应如何重构这些关系。失去工作影响整个社区,特别是那些围绕单一产业建立的社区。社会必须重新概念化“工作”的含义,以及人们如何在传统就业之外找到目标和贡献。

但机会是存在的。工人可以通过全面的再培训计划获得新技能。社会可以通过新的社会契契来适应新的经济现实。人类可以发现新的创造力、目标和贡献形式。需要同理心、创造力、复杂问题解决能力和人际交往的工作将变得更有价值,报酬也更高。消除危险、重复和无聊的工作,使人类可以追求更有意义的事业。

李开复主张积极适应,强调人类的尊严、创造力和能动性,而不是将AI驱动的失业视为不可逾越的灾难。这一章认为,人类必须找到创新的方式来在失业的情况下茁壮成长,但这需要有意识地努力创建新的社会结构和经济模式。未来的工作将从根本上不同,但如果社会能够深思熟虑并合乎道德地行动,人类仍然可以找到目标、意义和贡献。

幸福岛:算法买不来满足感

维克多·索洛科夫(Viktor Solokov),一位曾经著名的俄罗斯科技企业家,来到了位于阿拉伯海靠近卡塔尔的豪华人工岛屿“阿尔·赛义达”(Al Saeida),该岛由王室设计。在经历了一场个人危机后,他寻求冒险,逃离他以前的生活。

抵达后,一个名为Qareen的机器人助手迎接了维克多。要进入该岛,他必须同意分享他所有的个人数据——物联网数据、可穿戴传感器、摄像头、个人健康数据、音频、社交媒体,一切——以换取AI优化幸福的承诺。

岛上接待了几位客人,包括一位电影明星、一位神经生物学家、一位诗人和阿基拉公主(Princess Akilah)。通过交谈,他们探讨了对幸福的不同看法,维克多挑战了物质财富导致满足感的假设,引用研究表明在高收入水平下幸福感会下降。

王位继承人马赫迪王子(Prince Mahdi)创建了一个**“幸福算法”**——一个享乐主义AI系统,收集大量数据来预测、监控和增强每个人的福祉,通过根据个性档案量身定制体验。AI使用中间件技术分析个人数据,以增强客人的体验。

起初,维克多在享乐算法迎合的追求中找到了乐趣,但随着时间的推移,这些放纵未能提供持久的满足感。阿基拉公主成为维克多的一个重要人物。她私下反对她哥哥的愿景,并提出了一个**“幸福论算法”**(eudaimonic algorithm),该算法侧重于通过社区精神、积极参与和基于亚伯拉罕·马斯洛需求层次理论的心理框架来追求更深层次、更有意义的幸福,而不是肤浅的快乐。

当客人们发现AI无法维持真正的幸福时,一场反对环境控制性的反抗随之而来。阿基拉秘密地与维克多沟通,暗示真正的幸福超越了算法,需要个人能动性、自我发现和更深层次的情感联系。

在维克多逃离并与阿基拉意外相遇后,他发现真正的转变来自于平衡生活经历和愿望,而不是屈服于人为定义的幸福。维克多思考着一条新的道路,既拥抱他的企业家精神,也吸取了他们在一起时获得的见解。

李开复解释说,幸福是复杂、主观的,并超越了物质财富。像“幸福”和“公平”这样的抽象概念极难量化并编程到AI算法中。当前的AI系统擅长优化点击率、盈利能力和效率,但缺乏处理复杂人类价值观的复杂性。

到2041年,使用传感器和生理指标辨别情绪的技术将会出现,但仅凭这些还不够。AI可以优化体验,但缺乏在没有人类洞察和价值观的情况下培养真正、持久幸福的能力。衡量幸福是有问题的——虽然正在出现创新的框架,但它们未能捕捉到人类情感和体验的全部范围。技术可以使用传感器解释情绪状态并观察生理指标,但这些技术本身无法把握影响人类行为的复杂、个体因素。

追求AI增强幸福依赖于获取个人的私人数据——健康记录、生物识别标识符、根深蒂固的愿望。关键问题出现了:通过AI追求增强的幸福是否需要放弃个人隐私? 个人数据收集与伦理责任之间的关系至关重要。

李开复认为,社会需要发展新的框架来衡量AI的影响,超越经济指标。评估必须包括人类福祉、社会公平和环境保护。这需要对神经科学和心理学的深刻理解,以创造衡量和预测持久人类满意度的技术。

这一章探讨了隐私与集体福祉的权衡、AI系统中的同意和数据共享、算法试图定义和创造人类幸福的尝试,以及在AI主导的环境中的人类能动性。财富和物质丰富并不保证幸福。存在对寻求快乐行为上瘾的风险。AI试图优化人类体验的心理和社会影响仍不清楚。围绕幸福的文化价值观可能与算法定义冲突。

过度依赖AI来实现人类的满足感,存在丧失自主性和真实决策的风险。通过数据驱动的个性化进行操纵成为可能。肤浅的幸福可能取代有意义的满足感。现有的AI系统仍不足以提供所需的心理支持。技术本身无法提供持久的幸福;人类的洞察和价值观仍然至关重要。

丰饶之梦:重新构想稀缺的终结

在未来的澳大利亚,2041年,社会已被AI、清洁能源和自动化所改变,进入了一个后稀缺时代。年轻的土著女性凯拉(Keira)成为了一位著名的海洋生态学家乔安娜·坎贝尔(Joanna Campbell)的照顾者,乔安娜居住在一个名为“阳光村”(Sunshine Village)的智能退休社区。

凯拉了解到由**“Jukurrpa项目”**带来的社会变革,该项目引入了两个革命性的经济体系。**基本生活卡(BLC)**提供津贴,涵盖所有基本必需品——食物、住所、医疗保健、基本娱乐。Moola是通过社区服务和声誉赚取的虚拟货币,促进对教育、老年护理、社会工作和创意领域的贡献。

乔安娜正在与早期阿尔茨海默病作斗争,而凯拉则在这个变化的经济格局中应对土著青年面临的挑战。尽管技术进步,年轻一代和老一代之间仍然存在不平等问题。

通过他们的互动,两个角色最初发生冲突,但最终相互启发。乔安娜带着她的3D VR眼镜失踪了,并以一种新的视角体验世界。这场危机导致了关于身份、目标和社会期望的更深层次的对话。

叙事探讨了丰饶——即基本人类需求得到满足,工作变得可选——如何影响个人的动机。尽管物质丰富,国家仍在努力让人们,特别是年轻人,保持积极性并远离药物滥用。Moola系统最初旨在促进社区参与,但被许多人追求认可和地位的行为所妥协,这与金融利润如何助长贪婪和不平等相呼应。

故事结尾,两个角色就帮助他们的社区共同合作进行了有意义的对话,强调了一个不仅由经济稳定定义,而且由人类繁荣和有意义的存在定义的未来是可能的。

李开复解释说,随着技术进步导致商品成本大幅下降,传统的经济理论受到了质疑。**可负担的清洁能源(“超级能源”)**将大幅降低生产成本。智库RethinkX估计,到2030年投资2万亿美元,美国能源成本将降至每千瓦时3美分——不到今天成本的四分之一。到2041年,预计成本会更低。

在阳光最充足/风力最强的日子里,将能以几乎零成本获得“超级能源”,用于非时间敏感的应用:为闲置汽车的电池充电、海水淡化和处理、废物回收、金属精炼、碳去除、制造业。随着能源成本骤降,水、材料、制造和计算的成本也随之下降。这可以消除超过50%的温室气体排放。

AI驱动的自动化机械显著降低了商品生产成本。增材制造(3D打印)方法降低了生产成本。这促进了前所未有的商品和服务丰饶。

植根于稀缺性的传统框架不再适用。需要彻底改革经济结构以应对社会动荡。在丰饶世界中货币和经济体系的演变。转向以社会价值和社区参与作为衡量成功的标准。新技术产生的财富使现有的经济体系和金融机构过时。

在丰饶经济中,工作变得可选。挑战从物质物品的创造和使用转变为一个更深层次的问题:当传统职业被中断,金钱奖励不再是主要动力时,什么能激励人们追求满足和意义? 需要重新定义超越生产力的价值。

将价值与职业成就等同的人可能会难以找到满足感。从以工作为中心的生活过渡到劳动非必需的时代很困难。存在药物滥用和缺乏动力的风险。在Moola系统中追求认可和地位的人们反映了金融体系的贪婪。

尽管技术进步,不平等仍然存在。代际关系紧张。需要持续的教育和包容的环境。拥有丰富资源的人和感觉被忽视的人之间的鸿沟有扩大的风险。企业不愿消除稀缺性(企业希望保持资源有限以提高收益)。政治上抵制放弃对财政和资源的控制。建立在稀缺性和供需不匹配基础上的实体将抵制变革。

到2041年,成本接近零的广泛清洁能源将存在。澳大利亚将通过可持续技术实现碳中和。数字货币将取代传统货币。全民基本收入类型的系统(BLC)将提供必需品。基于声誉的经济体(Moola)将激励社区服务。后稀缺条件将在发达国家存在。自动化制造将无处不在。商品和服务将以最低或无成本提供。

然而,李开复承认存在挑战。拥有更多资源、稳定性和改革承诺的国家将领导这些举措,但各国实现丰饶的速度将有所不同。现有系统在提供所需支持方面仍然不足。Moola系统可能被追求地位的行为所妥协。财富公平分配的挑战依然存在。需要全球合作。重塑社会规范的困难。

故事以一个充满希望的信息结束:如果个人专注于自我实现、社区关怀和共情参与,积极的社会转型是可能的,从而创造一个由人类繁荣和有意义的存在定义,而不仅仅是经济稳定的未来。消除贫困和饥饿。专注于自我实现、创造力、社区关怀。有时间进行个人成长和建立有意义的关系。通过清洁能源减缓气候变化。人们可以在没有经济约束的情况下追求兴趣。更强的社区纽带和共情参与。

故事之外的信息

《AI 2041》故意没有正式的结论章节,一些评论者认为这令人沮丧。相反,这本书的愿景是通过其故事的累积分量浮现出来的。李开复和陈楸帆既没有呈现反乌托邦,也没有呈现乌托邦,而是呈现了需要我们做好准备的现实场景。

李开复的核心论点是:AI将是21世纪的决定性发展。 在二十年内,日常人类生活的方方面面将变得面目全非。这本书旨在帮助读者理解AI的“光明之路”和“生存危机”。

李开复明确反对对通用人工智能(AGI)和奇点的痴迷。他不相信深度学习到2041年会成为在各方面都与人类智能相匹配的“人工通用智能”。AGI需要十几个像深度学习那样的突破。既然AI在60多年里只有一个重大突破,要在20年内看到十几个是不太可能的。许多挑战仍未解决:创造力、战略思维、推理、反事实思维、情感、意识。

李开复建议我们“停止使用AGI作为AI的最终测试”。AI的心智与人类的心智不同。在二十年内,深度学习将在越来越多的任务上击败人类,但许多现有任务仍将是人类表现更好的地方。甚至会出现一些新的任务来展示人类的优越性,特别是如果AI的进步激励人类改进和进化。

“重要的是,我们开发适合AI的有用应用程序,并寻求找到人机共生,而不是痴迷于深度学习AI是否或何时会成为AGI。”

这本书的十章共同探讨了AI通过有超过80%可能性实现的技术所带来的变革力量。深度学习和大数据使保险比你更了解你自己,但却延续了古老的偏见。计算机视觉和深度伪造创造出完美的合成人,破坏了视觉证据和真相本身。自然语言处理催生了为每个孩子量身定制教育的AI导师,但有过度优化童年的风险。AI医疗保健彻底改变了医学,而大流行技术则促成了孤立的存在。虚拟现实创造了与真实无异的体验,但拟社会关系取代了真正的联系。自动驾驶汽车消除了数百万个工作岗位,同时拯救了数百万人的生命。量子计算解决了不可能的问题,同时破解了所有加密。工作岗位流失迫使人们重新构想工作的意义和目的。AI试图优化幸福,但无法捕捉人类的满足感。后稀缺时代的富足提出了关于人类动机的基本问题。

这些愿景中出现了共同的主线。隐私与效用的权衡出现在十个故事中的八个。AI系统中的偏见和公平性。透明度和问责制的挑战。操纵和成瘾的风险。人类自主性与AI优化。AI开发者的道德责任。

机遇是真实的。前所未有的财富创造。医学和医疗保健的革命。为所有学生提供个性化教育。清洁能源和环境解决方案。消除贫困和饥饿。通过人机共生增强人类能力。新的通信和娱乐形式。

但生存风险同样真实。自主武器作为生存威胁。人类目标和意义的丧失。隐私侵蚀。算法偏见放大社会不平等。监视和控制。虚假信息和深度伪造破坏真相。经济流离失所造成社会不稳定。

李开复和陈楸帆的立场是刻意乐观但现实的。陈楸帆解释说:“我和开复都觉得,迫切需要描绘一幅更乐观、更可信的未来图景。因为如果我们想创造一个我们愿意生活的未来,我们必须首先学会想象它。”

作者们自始至终都在强调人类的能动性。“最重要的是,我们希望你会同意,《AI 2041》中的故事强化了我们对人类能动性的信念——我们是我们命运的主人,任何技术革命都无法改变这一点。”

李开复敦促读者认识到AI的潜力和风险,并通过理解AI的能力和局限性,积极应对伦理挑战,发展新的经济模式,维护人类的能动性和价值观,寻求人机共生,为劳动力转型做准备,并确保AI利益的公平分配,来为即将到来的变化做好准备。

一句关键引言抓住了其中的利害关系:“在AI与人类的故事中,如果我们能正确处理人工智能与人类社会之间的舞蹈,那无疑将是人类历史上最伟大的成就。”

这本书既是警示故事,也是路线图,敦促社会思考AI的轨迹及其重塑人类体验的潜力。未来既不会是无限富足的技术乌托邦,也不会是机器统治的反乌托邦噩梦。相反,它将是混乱、复杂且深刻人性的——由今天就如何开发、部署和治理这些变革性技术所做的选择所塑造。

二十年后,在2041年,AI将无处不在。它会比你更了解你的偏好,优化你的健康,教育你的孩子,驾驶你的车辆,管理你的城市,甚至可能试图设计你的幸福。问题不在于这种转变是否会发生——李开复认为这些故事中的技术有超过80%的可能性会实现。问题在于,人类是否会明智地塑造这一转变,解决偏见,保护隐私,维护能动性,并确保利益被广泛分享,而不是集中在AI超级大国之间。

《AI 2041》中的故事想象了既鼓舞人心又令人不安的未来,展示了前进的道路和需要避免的陷阱。它们提醒我们,技术放大了人类的选择,无论是好是坏。在纳亚娜反抗算法偏见的斗争中,在阿马卡选择真实而非操纵的决定中,在查马尔认识到人类能动性价值的时刻,以及在凯拉和乔安娜发现超越算法的意义的过程中,我们看到人类价值观在对抗技术决定论时 asserting 自身。

这些不是对一个不可避免的未来的预测,而是对有意识选择的邀请。人工智能与人类社会之间的舞蹈已经开始。它将成为人类最伟大的成就还是最严重的错误,取决于现在共同采取的步骤,以开放的眼光看待可能性和危险。

构建高效AI智能体:真正能在生产环境落地的架构模式

· 阅读需 11 分钟
Tian Pan
Software Engineer

大多数AI智能体项目失败,并非因为模型能力不足——而是因为构建这些系统的工程师在尚未积累足够经验时就急于引入复杂性。通过对数十个生产环境部署案例的深入研究,一个清晰的规律浮现出来:那些成功落地可靠智能体的团队,都从最简单的系统出发,只有在指标数据确实需要时才增加复杂度。

本文将系统梳理那些能将稳健智能体系统与容易幻觉、陷入循环、在真实负载下崩溃的系统区分开来的核心思维模型、架构模式和实践技巧。

Claude Code 中高级使用技巧

· 阅读需 11 分钟

人工智能编程助手已经从简单的代码补全工具进化为成熟的开发伙伴。Claude Code 代表了这一演进的下一个阶段,它提供了一个可被称为**“自主编程”**的框架。这款工具旨在深度集成到你的工作流中,做很多之前 AI coding 做不到的事情:

  • 代码理解与问答: 充当项目专家,为新团队成员讲解大型代码库的运作方式,极具价值。
  • 大规模重构: 擅长修改庞大文件(例如超过 18,000 行),凭借其对全局代码关系的理解,在其他 AI 工具束手无策时依然表现出色。
  • 调试: 提供逐步推理过程,助你找到错误的根本原因,而非像其他工具那样只给出修复方案却无从解释。
  • 复杂功能生成: 遵循 “探索 → 计划 → 实现” 的工作流。你可以引导它先分析问题并制定详细计划,然后再编写代码。
  • 测试驱动开发 (TDD): 可以指导它先编写失败的测试用例,然后生成能让测试通过的最精简代码,从而显著加速 TDD 循环。

接下来,让我们深入探索这些能助你驾驭其强大功能的技巧。

1. 基础设置:工作流的核心

坚实的配置是高效工作流的基石。在这一步投入的时间,将在后续的每一次交互中为你带来丰厚的回报。

  • 使用 CLAUDE.md 作为项目记忆:在任何项目的根目录下,都应该有一个简洁的 CLAUDE.md 文件。该文件充当项目的“短期记忆”,包含了关键的架构原则、编码规范和测试流程。为了保持文件简洁、重点突出,可以使用 imports 语法(如 @docs/testing.md)来引用更详细的文档。你可以通过以 # 开头的消息快速添加新规则,或使用 /memory 命令直接编辑这份记忆。
  • Monorepo 感知:现代开发常常涉及 Monorepo。为了让 Claude 能够访问多个包以进行跨目录分析和重构,可以使用 --add-dir 标志,或在你的 .claude/settings.json 文件中定义 additionalDirectories。这对于跨越代码库多个部分的任务至关重要。
  • 键盘与终端快捷操作:速度至关重要。掌握快捷键可以简化你的交互流程。使用 Esc Esc 快速编辑上一条消息。运行一次 /terminal-setup 命令,即可启用 Shift+Enter 来输入换行符。对于 Vim 爱好者,/vim 命令可以让你在熟悉的 Vim 模式下进行编辑。

2. 优化日常工作流

有了坚实的基础,你就可以引入一些实践来减少阻力,提升日常工作效率。

使用正确的模式

CLI 提供了几种权限模式,以适应不同的任务和风险偏好:

  • default:最安全的新手起点。在执行有潜在风险的操作前,它会提示你进行确认,在安全和速度之间取得了良好平衡。
  • acceptEdits:一种“实时编码”模式,它会自动接受文件编辑而无需提示。非常适合快速迭代以及在你密切监督流程的场景。
  • plan:一种为代码审查等任务设计的“安全”模式。在此模式下,Claude 可以分析和讨论代码,但不能修改任何文件。
  • bypassPermissions:完全跳过所有权限提示。请极其谨慎地使用此模式,并且只在意外更改不会造成任何后果的沙盒环境中使用。

你可以在 .claude/settings.json 中设置默认模式,或使用 --permission-mode 标志为单次会话指定模式。

斜杠命令与自定义

重复性任务是自动化的绝佳候选。通过创建自定义斜杠命令,将你最常用的提示词转化为可复用的工具。只需将它们作为带有 YAML frontmatter 的 Markdown 文件存储在 .claude/commands/ 目录中即可。

  • 在 frontmatter 中使用 allowed-tools 来限制命令可以执行的操作,增加一层安全性。
  • 使用 ! 前缀可以运行 shell 命令(例如 !git status -sb),并将其输出直接注入到你的提示词上下文中。
  • 使用 $ARGUMENTS 向你的命令传递参数,使其更加灵活和强大。

恢复会话与并行工作

  • claude --continue:立即跳回到你最近一次的会话中。
  • claude --resume:列出过去的所有会话,让你能精确地从上次中断的地方继续。
  • Git worktrees:对于大规模重构,可以使用 git worktree 创建隔离的分支。这允许你并行运行多个独立的 Claude 会话,每个会话都有自己的上下文,从而避免混淆和冲突。

用于协作的输出风格

  • /output-style explanatory:在响应中增加一个“洞察 (Insights)”部分,非常适合用于指导初级开发者或在 Pull Request 中解释复杂的变更。
  • /output-style learning:在响应中添加 TODO(human) 占位符,主动邀请你参与协作,填补空白。

3. 集成质量与安全保障

真正的自主需要有护栏。将质量检查和安全网直接集成到你的工作流中,让你能充满信心地进行开发。

使用钩子 (Hooks) 作为安全护栏

钩子是在特定生命周期事件中自动运行的 shell 命令,提供了一种确定性的方式来强制执行规则。你可以在 .claude/settings.json 中配置它们。

  • PreToolUse:在工具使用运行检查。例如,你可以阻止对敏感文件的编辑,或要求必须存在相应的测试文件才允许写入操作。
  • PostToolUse:在工具使用自动执行清理任务。这非常适合在每次编辑后运行 prettiergofmt 等格式化工具,以及代码检查器和快速测试。
  • Notification:当 Claude 需要你输入时发送桌面提醒,这样你就可以在切换任务的同时不会忘记这边的进度。

例如,让 Mac 在任务完成后通知你 - code ~/.claude/settings.json

{
"hooks": {
"Stop": [
{
"hooks": [
{
"type": "command",
"command": "say \"job's done!\""
}
]
}
]
}
}

权限与安全

在你的设置中定义明确的 allow(允许)、ask(询问)和 deny(拒绝)规则,以便在无需频繁提示的情况下管理工具的访问权限。

  • Allow:安全、常规的操作,如 Bash(npm run test:*)
  • Ask:你希望手动批准的有潜在风险的操作,如 Bash(git push:*)
  • Deny:用于防止灾难性后果的关键安全规则,如 Read(./.env)Read(./secrets/**)

专家子代理 (Subagents)

对于复杂的项目,你可以定义具有特定角色的项目级代理,例如 code-reviewer(代码审查员)、test-runner(测试运行器)或 debugger(调试器)。每个代理都配置了有限的工具集,以防止其越权操作。Claude 可以自动将任务委派给合适的代理,你也可以明确地调用某个代理。可以参考这个仓库获取示例。

4. 高级工作流与集成

通过集成视觉上下文和外部服务,超越基本的文件访问,提升你的工作流。

通过截图和图片提供视觉上下文

一图胜千言,尤其是在调试 UI 问题时。有三种可靠的方法可以向 Claude Code 提供图片:

  1. 从剪贴板粘贴:将截图复制到剪贴板,然后直接用 Ctrl+V 粘贴到终端中(注意:在 macOS 上也是 Ctrl+V,而不是 Cmd+V)。
  2. 拖放:将图片文件(PNG, JPEG, GIF, WebP)从你的文件管理器直接拖到 CLI 窗口中。
  3. 引用文件路径:在你的提示词中直接包含本地文件路径即可,例如:分析这张截图:/path/to/screenshot.png

模型上下文协议 (MCP) 集成

MCP 使 Claude 能够连接到 Jira、GitHub、Notion 或 Sentry 等外部服务。在添加并认证一个 MCP 服务器后,你就可以在提示词中直接引用外部资源,例如 实现 JIRA-ENG-4521 中描述的功能

非交互式使用与 CI/CD 集成

对于自动化和脚本编写,可以使用带 -p 标志的打印模式

  • 将其与 --output-format json--output-format stream-json 结合使用,可以生成机器可读的输出,然后通过管道传递给 jq 等其他工具进行进一步处理。
  • 使用 --max-turns 为交互次数设置硬性上限,防止自动化脚本中出现失控循环。

5. 成本与性能优化

强大的模型需要明智地使用。养成这些习惯,以管理你的开销并优化性能。

  • 关注开销:随时使用 /cost 命令,获取当前会话成本的实时摘要。
  • 有策略地选择模型:使用像 Opus 这样最强大的模型进行高层规划、复杂推理和初步策略制定。然后,切换到像 SonnetHaiku 这样更快、更经济的模型来执行实现、测试和其他常规任务。
  • 状态行:一个流行的社区技巧是在终端添加一个自定义状态行,用于显示实时成本和当前 Git 分支等其他有用信息。ccusage 工具是实现此功能的常用选择。

6. 入门套件:开箱即用的配置

这里提供了一些可直接复制粘贴的配置文件,助你快速上手。

.claude/settings.json (项目共享)

此文件用于建立项目范围的权限、钩子和 monorepo 设置。

{
"defaultMode": "acceptEdits",
"permissions": {
"allow": [
"Read(**/*)",
"Edit(src/**)",
"Bash(npm run test:*)",
"Bash(npm run lint:*)",
"Bash(go test:*)",
"Bash(git status:*)",
"Bash(git diff:*)"
],
"ask": [
"Bash(git push:*)",
"Bash(pnpm publish:*)",
"Bash(npm publish:*)"
],
"deny": [
"Read(./.env)",
"Read(./.env.*)",
"Read(./secrets/**)"
],
"additionalDirectories": ["../apps", "../packages", "../services"]
},
"hooks": {
"PreToolUse": [
{
"matcher": "Edit|MultiEdit|Write",
"hooks": [
{
"type": "command",
"command": "python3 - <<'PY'\nimport json,sys\np=json.load(sys.stdin).get('tool_input',{}).get('file_path','')\nblock=['.env','/secrets/','.git/']\nsys.exit(2 if any(b in p for b in block) else 0)\nPY"
}
]
}
],
"PostToolUse": [
{
"matcher": "Edit|MultiEdit|Write",
"hooks": [
{ "type": "command", "command": "npx prettier --write . --loglevel silent || true" },
{ "type": "command", "command": "npm run -s lint || true" },
{ "type": "command", "command": "npm run -s test || true" }
]
}
],
"Notification": [
{ "matcher": "", "hooks": [ { "type": "command", "command": "command -v terminal-notifier >/dev/null && terminal-notifier -message 'Claude needs input' -title 'Claude Code' || true" } ] }
]
},
"statusLine": { "type": "command", "command": "~/.claude/statusline.sh" }
}

.claude/commands/commit.md

这个自定义命令利用 shell 输出起草一条符合 Conventional Commit 规范的消息。


allowed-tools: Bash(git add:*), Bash(git status:*), Bash(git commit:*)
description: Create a conventional commit from current changes

## Context
- Status: !`git status -sb`
- Diff: !`git diff --staged; git diff`

## Task
Write a Conventional Commit subject (<= 72 chars) and a concise body.
Call out BREAKING CHANGE if needed. Stage relevant files and commit.

.claude/agents/code-reviewer.md

一个专门负责代码审查的代理定义。


name: code-reviewer
description: Senior review with focus on correctness, security, tests, readability, performance.
tools: Read, Grep, Glob, Bash

Return a checklist grouped by **Critical**, **Warnings**, and **Suggestions**.
Propose minimal patches where possible. Include test guidance for each critical item.

CLAUDE.md (Memory)

一个定义了工作风格、质量标准和关键项目文档的示例记忆文件。

# Working style
- Start in **Plan mode**; outline approach, tests, and risks. Wait for approval.
- Execute in **small, reversible steps**; propose staged commits with diffs.
- Place generated docs in `docs/ai/`. Avoid ad-hoc files elsewhere.

# Code quality
- Prefer pure functions and dependency injection.
- JS/TS: strict TS, eslint + prettier; tests via vitest/jest.
- Go: table-driven tests; `gofmt`/`golangci-lint`.
- Security: never read `.env*` or `./secrets/**`; do not write tokens to disk.

# Project map
@README.md
@docs/architecture.md
@docs/testing.md

7. 问题排查与总结

  • 图片粘贴问题:如果从剪贴板粘贴不起作用(在某些 Linux 终端上很常见),请转而使用可靠的拖放或文件路径方法。
  • 过于激进的编辑:在日常工作流中,避免使用 bypassPermissions 模式(通过 claude --dangerously-skip-permissions 启动)。更好的方法是使用 acceptEdits 模式,并结合明确定义的 allow/ask/deny 规则。在合并前,务必审查所有差异。
  • 记忆膨胀:如果你发现 Claude 开始遗漏指令,可能是你的 CLAUDE.md 文件变得太大了。可以通过将细节移至导入的文档文件中来缩短它。你也可以在会话期间重申关键规则以重新聚焦,或使用 /compact 命令清理会话历史。

Claude Code 不仅仅是一个代码生成器,它是一个用于构建高效的、AI 增强开发流程的平台。通过超越基础的提示词并采纳这些中高级技巧,你可以建立一个更快、更安全、更具协作性的工作流。大胆尝试这些功能,根据你的项目进行调整,并探索软件开发的新范式吧。

OpenAI: 前沿企业落地生成式 AI 的七大启示

· 阅读需 8 分钟

当许多企业仍在探讨生成式 AI 的潜力时,一批先行者已经悄然将其融入核心业务,并取得了惊人的成果。OpenAI 最新发布的《AI in the Enterprise》报告,通过深入调研摩根士丹利 (Morgan Stanley)、Indeed、Klarna 等七家行业领导者,为我们揭示了企业成功落地 AI 的七条通用规律。这不仅是技术的胜利,更是一场关于思维范式、组织协同和商业价值的变革。

七大洞见:从试探到规模化的实战路径

1. 从严谨评估(Evals)开始,先求“可控”再谈“增长”

AI 的引入绝非一蹴而就。在全面推广前,建立一套严谨、可量化的评估体系(Evaluation, 或称 “eval”)是成功的基石。

以金融巨头摩根士丹利为例,面对高度敏感的客户业务,他们没有盲目跟进,而是首先围绕三大核心场景——语言翻译的准确性、信息摘要的质量、以及与人类专家的答案比对——建立了一套多维度的 eval 评分系统。只有当模型在这些评估中被证实“可控、安全且能带来增益”后,才会被逐步推广至一线业务 。

这一审慎的策略带来了丰厚回报:如今,摩根士丹利 98% 的财务顾问每天都在使用 AI;内部知识库的文档命中率从 **20% 跃升至 80% ;过去需要数天才能完成的客户跟进,现在缩短至数小时 。

2. 把 AI 深度嵌入产品体验,而非“外挂”一个聊天机器人

最成功的 AI 应用,往往是那些无缝融入现有产品、提升核心用户体验的。它应该像水和电融入人的生活那样,成为产品原生的组成部分。

全球最大的招聘网站 Indeed 就是一个绝佳范例。他们没有简单地做一个求职问答机器人,而是利用 GPT-4o mini 的能力,为每一条系统匹配的岗位自动生成一段个性化的“推荐理由”。这个看似微小的改动,精准地解答了求职者心中“为什么是我”的疑问,极大地提升了匹配效率和人性化体验。结果是,求职者的申请发起量提升了 20%,而后续雇主成功录用的比例也提升了 13%

3. 及早行动,享受知识与经验的“复利雪球”

AI 的价值是通过不断迭代和学习来累积的,起步越早,组织能享受到的“复利”效应就越显著。

瑞典金融科技公司 Klarna 的 AI 客服系统是这一原则的生动体现。在短短几个月内,AI 客服就接管了三分之二的客户聊天会话,承担了数百名人类坐席的工作量 。更惊人的是,客户问题的平均解决时间从 11 分钟骤降至 2 分钟 。这一举措预计将为公司带来每年 4000 万美元的利润增长 。如今,Klarna 90% 的员工已在日常工作中使用 AI ,整个组织因此获得了更快的创新速度和持续优化的能力。

4. 通过自定义与精调(Fine-tuning)贴合业务,打造护城河

通用大模型能力强大,但真正的竞争优势来自于“量体裁衣”。通过在你独有的数据和业务场景上进行模型精调,才能使其更懂你的业务。

家居建材零售商 Lowe’s 在优化其电商搜索功能时,面临着海量供应商提供的、格式不一的商品数据 。通过利用 OpenAI 的 API 对 GPT-3.5 模型进行精调,Lowe's 将其训练成了一个能深度理解家居行业术语和消费者搜索习惯的“专家” 。精调后的模型,商品标签的准确率提升了 20%,错误检测能力更是提升了 60%

5. 把工具交给一线专家,由下而上激发创新

最了解业务痛点的人,往往是身处一线、每天与问题打交道的员工。将简单易用的 AI 工具交到他们手中,能由下而上地催生出最实用的解决方案。

全球性银行 BBVA 采取了这种“专家主导”的策略,向全员开放了 ChatGPT Enterprise 。在短短五个月内,员工们自发创建了超过 2,900 个定制化的 GPT 应用 。这些应用涵盖了从信用风险评估、法务合规问答到客户 NPS 调研的情感分析等多种场景 。许多过去需要数周才能完成的分析和报告流程,如今被缩短到了几小时

6. 解除开发者瓶颈,用“平台化”交付 AI 能力

在许多企业,研发资源是创新的主要瓶颈 。为了打破这一僵局,建立一个统一、高效的 AI 开发平台至关重要。

拉丁美洲最大的电商与金融科技公司 Mercado Libre 创建了一个名为 “Verdi” 的内部 AI 平台 。该平台整合了语言模型、API 和其他开发工具,让公司的 17,000 名开发者能够用自然语言像“拼乐高”一样快速构建、部署和迭代 AI 应用 。平台化交付带来了惊人的效率提升:商品库存的上架和编目速度提升了 100 倍,对欺诈性商品的检测准确率高达近 99%

7. 设定大胆的自动化目标,将人力解放到高价值工作中

每个企业都充斥着大量重复、繁琐的流程。与其视之为必要的运营成本,不如设定一个大胆的目标:用 AI 代理(Agent)将其彻底自动化。

OpenAI 自身就是这一理念的践行者。他们构建了一个内部自动化平台,用于处理支持团队的日常工作 。这个平台可以自动访问客户数据、阅读知识库文章、起草回复邮件,甚至直接在系统中更新账户信息或创建支持工单 。如今,该平台每月自动处理数十万个任务,将员工从重复劳动中解放出来,专注于更具创造性和战略性的高价值工作 。

共同的成功脉络

纵观这些成功案例,其关键并非在于追求最前沿的模型或技术,而在于一套共通的战略思想:

  • 评估驱动 (Evaluation-Driven):将严格的评估作为项目启动和迭代的“看门人”。
  • 产品思维 (Product Mindset):将 AI 作为提升核心产品体验的内生能力,而非附加功能。
  • 持续投资 (Continuous Investment):认识到 AI 的价值在于复利,愿意长期投入资源、积累数据和培养组织能力。
  • 平台治理 (Platform Governance):通过平台化手段,将 AI 能力安全、合规、高效地赋能给整个组织。

成功的路径是相似的:先聚焦高投资回报率(ROI)的场景做深做透,然后用积累的数据、经验和组织学习,反哺下一轮更大规模的迭代。

给技术团队的实操清单

  1. 像做“需求评审”一样做 eval:在项目上线前,用量化指标评估其潜在风险与收益。
  2. 让每个模块“原生支持 AI”:在产品设计之初就思考 AI 如何融入,而不是事后外挂一个聊天窗口。
  3. 尽早启动“复利飞轮”:开始积累高质量的业务数据、梳理核心流程,并培养员工的 AI 心智。
  4. 建立“模型即产品”的精调流水线:将模型微调流程化、自动化,形成独特的、难以复制的差异化护城河。
  5. 用低门槛工具赋能一线:将 AI 能力通过 Custom GPTs 等形式下沉到业务部门,让真实场景倒逼平台能力的完善。
  6. 提供统一的“脚手架”:为开发者提供统一的安全、合规、监控和路由框架,降低创新门槛。
  7. 锁定“三高”流程:优先自动化那些高重复、低主观判断、高跨系统的流程,最大化 AI 代理的价值。

行动建议: 现在就从你的业务中挑选一个长期存在的痛点,开启第一轮 eval 评估。从小小的胜利开始,你的 AI 复利曲线已经在这片充满机遇的土地上,悄悄起跑。