跳到主要内容

18 篇博文 含有标签「ai」

查看所有标签

构建软件“超级工厂 (Gigafactory)”

· 阅读需 2 分钟

1. 结果导向:闭环自愈 (Autonomous Debugging)

交付结果,而非过程。 AI 必须具备从发现漏洞到自我修复的完整闭环。无论是调用 curl 诊断还是检索日志,AI 应独立解决故障并生成测试用例证明其正确性。管理者只看最终产出,不介入中间逻辑。

2. 效率度量:Token 吞吐量 (Token-Measured Productivity)

消耗即产出。 重新定义生产力:每个月消耗的 Token 数量是衡量效率的唯一硬指标。通过衡量单人支撑的 $200/mo 订阅数或同时驱动的 Agent 集群规模,实现生产力的指数级跃迁。

3. 驱动模式:从响应到自发 (Proactive Autonomy)

打破“指令-响应”循环。 顶级的 AI 系统不应等待人类唤醒。它应当具备自主观察、自主决策和自发执行的能力,在无人监督的真空期内持续创造价值。

4. 容错架构:混沌中的秩序 (Resilient Architecture)

以架构约束灵活性。 构建“容错性”极强的底层架构。即便 AI 在局部逻辑上“乱搞”,也会被稳固的系统框架限制在安全区内。好的架构赋予 AI 犯错的自由,同时确保系统整体不崩盘。

5. 资产形态:可堆叠的能力模块 (Modular Progress)

能力即资产。 AI 的能力必须数字化、可测量、可进化。通过模块化设计,确保每一项新开发的能力都能像积木一样被复用、组合,形成不断叠加的竞争壁垒。

6. 边界扩张:全栈数字化劳动力 (Omni-Agent Factory)

无边界替代。 压榨 AI 的每一滴潜力。从代码编写到视频生产,再到社交媒体自动化管理。目标是将公司转型为一个高度自动化的超级工厂,人类则是这座工厂的首席架构师。

7. 演进逻辑:先实现,再简化 (Invent and Simplify)

以终为始,暴力突破。 不为过度设计买单。先用最直接(甚至笨拙)的方式发明出服务客户的产品,在跑通商业闭环后,再通过技术手段进行精简与重构。

有价值, 值得做, 值得我做

· 阅读需 4 分钟

“如果 GUI(图形用户界面)注定要死,那么让我们先回到它出生的地方,看看它是如何教会我们关于‘选择’的最残酷一课。”

帕洛阿尔托的幽灵

2023年,LLM 基础模型横空出世,新一轮工业革命的大幕被粗暴地拉开。一夜之间,所有人都笃定地告诉你:未来的交互属于 LUI(语言用户界面),传统的 GUI 已经过时了。

在这个令人焦虑的时刻,我想带你穿越回 1979 年的加州帕洛阿尔托。那里不仅诞生了 GUI,更上演了一场关于“什么有价值、什么值得做、什么值得我做”的商业悲剧,至今仍是每一位企业家的必修课。

那个地方叫 Xerox PARC(施乐帕洛阿尔托研究中心)

当时的 PARC 聚集了世界上最聪明的计算机科学家。他们在一个满是命令行的黑白世界里,创造出了神迹:Alto。这是世界上第一台拥有图形界面的个人电脑。它有鼠标、有窗口、有图标,甚至有以太网。

这就是第一层滤网:什么有价值? 毫无疑问,GUI 有价值。它极大地降低了人机交互的门槛,把计算机从科学家的玩具变成了普通人的工具。这是一项改变人类文明进程的发明。PARC 的天才们做到了。

紧接着是第二层滤网:什么值得做? 从商业逻辑上看,这绝对值得做。这是一个万亿级的市场雏形。如果当时有人能把这项技术推向大众,回报将是天文数字。

但故事在这里发生了著名的断层。

当施乐总部的那些衣冠楚楚的高管们从东海岸飞过来视察时,他们看着这台划时代的机器,问出了一个让工程师心碎的问题: “这东西怎么帮我们卖出更多的碳粉和复印机?”

你看,这就是第三层滤网:什么值得“我”做? 施乐是一家复印机公司。在他们的基因里,商业模式是“卖昂贵的机器,然后通过耗材源源不断地赚钱”。而 GUI 和个人电脑带来的“无纸化办公”愿景,本质上是在革施乐自己的命。 对施乐来说,GUI 虽然有惊天价值,虽然值得全人类去做,但不值得“施乐”做。因为这与他们的核心优势、商业模型和组织基因完全背道而驰。

结局我们都知道了。 一个叫史蒂夫·乔布斯的年轻人走进了 PARC。他没有“卖碳粉”的包袱。他看到的是“思维的自行车”。 对乔布斯和苹果来说,这三点完美重合:

  1. GUI 有价值(颠覆体验);
  2. GUI 值得做(商业前景广阔);
  3. GUI 值得“苹果”做(符合苹果追求极致易用性和挑战IBM霸权的基因)。

于是,施乐发明了未来,而苹果拥有了未来。

你的 LUI 时刻

回到 2025 年的今天。 当你在看新的 AI 浪潮,看那些眼花缭乱的 LUI 应用、Agent 智能体时,请不要只看到技术的价值。现在的技术确实都很牛,能写诗、能画画、能写代码。

也不要只看到这事值得做。是的,AI 确实会重塑千行百业,就像当年的 GUI 一样。

真正决定你生死的,是那个施乐高管曾面对、却没答好的问题:这事值得“你”做吗?

在这个充满噪音的时代,在这个人人都在追逐风口的当下,最大的勇气不是敢于这就去做,而是敢于承认“这虽是金矿,但不是我的金矿”。

愿你能看清潮水的方向,更看清自己的航向。 不要做那个守着宝藏却饿死的施乐,也不要盲目地成为乔布斯的炮灰。找到那个既能改变世界、又能让你的灵魂和天赋燃烧的交集点。那,才是属于你的传奇。

AI 2041:通往十个未来的旅程

· 阅读需 50 分钟

理解愿景

《AI 2041:我们的十个未来愿景》代表了两位杰出人物的雄心勃勃的合作:一位是拥有30多年人工智能领域开创性工作的世界顶尖AI专家李开复,另一位是屡获殊荣的中国科幻作家陈楸帆(Stanley Chan)。这本书于2021年9月出版,全书480页,它没有提供关于机器人霸主或超级智能机器的疯狂猜测。相反,它呈现了更有价值的东西:基于未来20年内有超过80%可能性实现的技术,构建出的现实场景。

这本书的结构非常巧妙。十章中的每一章都将陈楸帆的一篇虚构短篇故事与李开复的一篇分析性文章配对。这些故事设定在全球各地,从孟买到拉各斯,从东京到旧金山,讲述了真实的人们在2041年面对的现实困境。随后的文章则解释了背后的科学原理,讨论了这些技术是什么,它们如何工作,以及它们对社会意味着什么。李开复刻意专注于现实的近期发展,而不是推测性的人工通用智能(AGI),他认为,“即便没有或很少有突破,人工智能仍将对我们的社会产生深远的影响。”

金色大象:当算法强化古老的偏见

2041年的孟买,在象神节庆祝期间,少女纳亚娜(Nayana)生活在一个被深度学习改变的世界里。她的家人最近购买了“象神保险”,这是一个由人工智能驱动的计划,极大地降低了他们的保费。但代价是,他们必须分享所有个人数据,并使用一套特定的应用程序来处理一切事务——投资、购物、健康监测,甚至喝水提醒。

起初,这个系统运行得非常出色。应用程序会发出有益的提醒:喝水、慢点开车、戒烟。每一个健康决策都会让保费下降。纳亚娜的父亲彻底戒了烟。这家人将这些建议视为仁慈的指导,感激地接受了这个看似有利的安排。

然后,纳亚娜对在虚拟学校认识的同学萨赫(Sahej)产生了兴趣。当学生们做“展示与讲述”演示时,萨赫分享了他对制作面具的热情,透露了一些在传统课堂上不会出现的个人生活细节。纳亚娜被他吸引,但她的家庭保险费立即飙升。

当流言揭示萨赫是达利特人(Dalits)的后裔时,紧张关系爆发了。达利特人在印度种姓制度中历来被视为“不可接触者”。纳亚娜的母亲为了让保费保持在可控范围内,向她施压,要求她避开萨赫。尽管母亲的初衷是好的——想为孩子们提供更好的生活——但她的论点揭示了一个令人不安的现实:为了维持他们的生活方式,必须做出这样的权衡。

在一次关键的对话中,萨赫雄辩地解释了正在发生的事情。人工智能并没有被明确编程输入印度种姓制度的知识,但它从数据模式中学习到,与来自较低种姓的人交往与某些风险相关。也许是经济不稳定、社会孤立或健康因素。该算法通过最大化其狭隘的目标——最小化保险风险——来延续社会偏见。它通过纯粹的数学学会了带有偏见。

纳亚娜面临着在算法控制和个人能动性之间的选择。她决定反抗,选择探索她与萨赫的关系,尽管这会带来社会和经济上的反弹。她的选择申明了一些根本性的东西:人类的自主权比优化的保费更重要。

李开复的文章引入了**“人工智能外部性”**这一关键概念——即人工智能系统为优化狭隘目标而产生的意想不到的后果。社交媒体算法为了最大化用户参与度而强化偏见和负面情绪。保险人工智能通过检测相关性而 perpetuates 种姓歧视,却不理解因果关系或背景。这些在有偏见的数据上训练出来的系统,在看似客观的同时放大了现有的不平等。“黑箱”的特性使得偏见难以识别和纠正。

深度学习通过多层人工神经网络模仿人脑功能。通过输入大量关于用户行为、健康指标、购物、位置和社交关系的数据,多层神经网络能够识别出人类可能忽略的模式。李开复预测,到2041年,人工智能将比用户更了解他们自己。行为引导将变得复杂且难以察觉,通过互联的数据服务,存在产生“社会信用”体系的风险。这一章提出了关于隐私与便利、以及当别无选择时“知情同意”是否还有意义等根本性问题。

面具之后的神灵:真相死于深度伪造的拉各斯

在2041年的拉各斯,面具对年轻人有两个用途:时尚配饰和规避监控的设备。雅巴(Yaba)区作为尼日利亚的“硅谷”蓬勃发展,而人脸识别摄像头则从每个角落监视着一切。清洁机器人在街上漫游收集垃圾。这是一个充满对比的城市——挣扎的大多数和富裕的科技区。

阿马卡(Amaka)是一位年轻的视频制作人兼技术娴熟的程序员,专门从事深度伪造(deepfake)创作。故事开始前两天,他收到一封来自“Ljele”的匿名邮件,提供了一份“正合他意”的工作。他戴着一个3D打印的蝴蝶图案面具出现——虽然不如莱基市场(Lekki Market)昂贵的手工版本精致,但足以骗过大多数监控摄像头。他使用智能流设备,在前往面试的路上将虚拟路线图叠加在街景上。

Ljele是“伊博荣耀”(Igbo Glory)的幌子,该组织代表尼日利亚复杂种族划分中的伊博族(Igbo)社群。他们想让阿马卡制作无法检测的深度伪造视频,以操纵公众舆论,使其对伊博社群有利——具体来说,是一个伪造的尼日利亚著名政治家承认不当行为的视频。

如果阿马卡拒绝,他们就会发布他们自己制作的深度伪造视频,显示他在夜总会亲吻另一个男人。在尼日利亚的保守社会中,这可能会让他根据反同性恋法入狱,并毁掉他的家庭。

阿马卡学会了使用生成对抗网络(GANs)——两个神经网络在一个“零和游戏”中竞争。一个网络(生成器)创造伪造品。另一个网络(鉴别器)试图识别它们。它们反复对抗,生成器创造出越来越逼真的伪造品,而鉴别器则在检测方面不断提高。这个对抗过程持续进行,直到伪造品与真实无法区分。到2041年,GANs已经足够复杂,可以创造出完美的深度伪造品:面部表情与情感背景相匹配,光照和阴影恰当,口型同步正确,身体语言自然,甚至包括人类下意识解读的微表情。

阿马卡在多种压力之间挣扎:对成功的雄心、对煽动暴力的道德担忧、对个人后果的恐惧,以及关于种族认同和忠诚的问题。他做了一个生动的梦,梦到了FAKA,这是已故音乐家、传奇的尼日利亚活动家费拉·库蒂(Fela Kuti)的在线化身,他以向权力说真话而闻名。这次精神上的相遇促使他对真实与欺骗进行了深刻的反思。

随着最后期限的临近,阿马卡做出了他的选择。他抛弃了他的面具——无论是字面上的还是比喻上的——选择了真实,而不是欺骗所提供的权力和保护的诱惑。尽管面临个人风险,他还是对抗了那个组织,拒绝了他们的提议,决定用他的技术技能来讲积极的故事,而不是进行操纵。这是一场良知战胜胁迫的道德胜利。

李开复的文章解释了为什么这很重要。到2041年,制作令人信服的深度伪造视频将像使用照片滤镜一样简单。即使经过法医分析,近乎完美的伪造品也将与真实无法区分。实时生成技术将能够在视频通话中即时制作出令人信服的深度伪造品。完美的声音克隆技术将能从极少的音频样本中复制任何人的声音。全身深度伪造将能捕捉整个身体的动作。多模态伪造将能协调视频、音频和文本,构成完整的虚假叙事。

其社会影响是惊人的。通过伪造政治家发表煽动性言论的视频进行政治操纵。通过在特定时间发布令人信服的虚假内容来干预选举煽动种族和宗教,就像阿马卡的故事中那样,伪造的视频可能引发暴力。针对个人的敲诈勒索。对视觉证据作为证明的根本性挑战。“眼见为实”将变得过时。人们可能会将真实的证据斥为伪造——即**“骗子的红利”**。确定客观真相变得几乎不可能。

检测技术总是落后于创造技术。法医分析寻找伪影和不一致之处。区块链验证创建可认证的保管链。水印技术在真实内容中嵌入不可见的标记。人工智能检测工具发现AI生成的内容。但规避总是可能的,而且大多数人缺乏进行验证的技术专长。

双子麻雀:当童年被优化

2041年,在韩国的“源泉学院”(Fountainhead Academy),一对父母在车祸中丧生的三岁同卵双胞胎男孩来到这里。学院的院长兼vPals(虚拟伙伴)技术的先驱金妈妈(Mama Kim)给他们取名为金麻雀(Golden Sparrow)和银麻雀(Silver Sparrow)。尽管是双胞胎,他们的个性和学习方式却截然不同。

学院允许孩子们使用自然语言处理技术设计自己的人工智能伴侣,作为导师、老师和向导。金麻雀争强好胜、早熟,他根据自己最喜欢的超级英雄创造了Atoman。Atoman用游戏化和奖励来激励他。银麻雀内向,属于自闭症谱系,拥有惊人的艺术天赋,他创造了Solaris,一个无定形的阿米巴状AI角色。AI诊断出银麻雀有88.14%的概率患有阿斯伯格综合症。

六岁时,金麻雀被朴(Pak)家收养,他们的座右铭是“只有最好的才配得上最好的”。他们不断升级Atoman以确保适当的挑战。Atoman甚至创造了一个AI生成的女生来通过竞争激励金麻雀。随着年龄的增长,他的人际交往能力萎缩,而他以表现为中心的生活则愈发紧张。

银麻雀被安德烈斯(Andres)和雷(Rei)收养,他们是一对跨性别伴侣,在一场比赛中被他的艺术作品所吸引。他们采取了更人性化的方法,只将技术作为整体教育的一部分。尽管(或者正因为)他患有自闭症,银麻-雀学会了同理心并发展了创造力。

一次晚餐谈话凸显了哲学上的分歧。朴先生告诉安德烈斯和雷:“没有人比他的人工智能更了解儿子……金麻雀的数学已经达到了十岁孩子的水平。”雷质疑为什么朴家让AI规划他们孩子的未来。朴太太反驳说,虽然她理解他们有“一种更浪漫的看法”,但没有什么比孩子的教育更重要。

转折点发生在金麻雀出于嫉妒破坏了银麻雀的艺术创作,造成了情感上的动荡。这一行为造成了裂痕。金麻雀的心理学家后来指出了关键的一点:“人类不是人工智能。” 朴先生最终意识到,他对“成功”的看法正在让金麻雀痛苦不堪。

多年后,双胞胎在源泉学院重逢。通过AI技术,他们发现尽管情感上疏远,他们的纽带依然存在。这次重逢是金妈妈的程序员们有意为之的设计,呼应了早期硅谷对技术将人们联系在一起的乐观主义。

李开复解释了自然语言处理如何使这些AI伴侣成为可能。GPT-3拥有1750亿个参数。语言模型大约每年增长10倍,每年吸收的数据量也增加10倍,并且每个数量级都有质的提升。到2041年,或许“GPT-23”将读过有史以来写下的每一个字,看过制作的每一段视频——成为一个包含人类历史累积知识的“全知序列转换器”。

这项技术使孩子们能够通过与虚拟的阿尔伯特·爱因斯坦和斯蒂芬·霍金互动来学习科学。AI擅长为每个学生定制学习内容,通过针对特定弱点来激励他们。像芭比娃娃或特种部队(GI Joe)这样的经典玩具将“活过来”,与孩子们自然地交谈。

然而,李开复明确表示,他并不预测到2041年会出现通用人工智能(AGI)。 计算机的“思考”方式与人脑不同。到2041年,深度学习不会成为真正的“人工通用智能”。许多挑战仍未解决:创造力、战略思维、推理、反事实思维、情感和意识。这些需要“十几个像深度学习那样的突破”。既然AI在60多年里只有一个重大突破,要在20年内看到十几个是不太可能的。AI将无法真正地爱我们。

教师的角色将发生转变。他们将更少地关注死记硬背的知识传授,更多地关注培养情商、创造力、品格、价值观和韧性。当学生困惑时,教师成为澄清者;当学生自满时,教师成为对抗者;当学生沮丧时,教师成为安慰者。这需要“AI无法做到的智慧和理解水平”。

这一章是对当前教育体系的评论,这些体系利用竞争作为激励手段,以及将孩子视为优化项目的强迫性育儿文化。故事表明,过度优化可能导致孩子在学业上出类拔萃,但缺乏情商和社交技能。技术成为限制儿童自主权的又一个工具,而不是促进他们发展的工具。正如金麻雀的故事所展示的,仅仅关注成就会让孩子痛苦。

无触碰的爱:当恐惧成为囚笼

2041年的上海,陈楠(Chen Nan)在她的公寓里过着与世隔绝的生活。她代表了“新冠一代”——因与COVID-19相关的创伤记忆和损失而对人际接触怀有深深的恐惧。在最初的疫情爆发二十年后,大流行病仍以持续的变种形式存在。尽管有机器人设备管理日常生活,陈楠的心理创伤使她无法参与现实世界的关系。

陈楠经历着焦虑和噩梦。她患有创伤后应激障碍(PTSD),拒绝离开她的公寓。她的疫苗已经过期,这造成了一个两难境地:她害怕出门,但因为她没出去,她的疫苗已经过期,这使得外出变得更加危险。

陈楠有一个在巴西圣保罗的远距离男友加西亚(Garcia)。他们的关系在虚拟现实游戏中蓬勃发展,他们在那里分享有意义的经历和深厚的感情。虚拟世界提供了一个安全的空间,陈楠可以在那里体验亲密关系,而无需面对她对身体接触的恐惧。

当加西亚表示希望在现实中见面时,陈楠的恐惧导致她拒绝了这个机会。然后加西亚沉默了,停止了所有交流。当陈楠得知加西亚因一种新的COVID变种而患上严重疾病并住院时,她的担忧急剧升级。她意识到,她必须挣脱自我施加的孤立,去支持她所爱的人。

在管理她日常需求的家用机器人、包括一个兼作疫苗护照和追踪健康信息的可穿戴皮肤植入物、防护设备、自动配送系统以及用于交通的AI驱动机器人的帮助下,陈楠多年来第一次 venturing 出门。她的旅程凸显了社会如何适应性地使用技术来最小化物理互动,同时促进联系。

在故事的结尾出现了一个转折,原来整个情况都是加西亚精心策划的——一种“游戏化治疗”——以鼓励陈楠面对她的恐惧并克服她的创伤后应激障碍。故事以一次感人的重逢告终,陈楠承认了她对加西亚的爱,这象征着她的个人成长和疗愈。

李开复解释了大流行如何极大地加速了人工智能和机器人技术的采用。DeepMind的AlphaFold 2使用AI和深度学习进行蛋白质折叠——传统上需要数年时间,但现在可以更快地完成,结果也更准确。李开复将此描述为“科学史上最杰出的成就之一”。到2041年,AI可以帮助在3D结构上找到靶点,并选择最佳的生物分子。传统的药物开发成本为10亿美元,需要数年时间;AI极大地降低了这两者。Insilico Medicine于2021年宣布了首个由AI发现的药物,节省了90%的成本。

在2012年至2018年间,机器人辅助手术的比例从1.8%增加到15.1%。预计到2041年,纳米机器人将能在没有人类医生的情况下完成完整的手术,对抗癌症,修复受损细胞,并通过替换DNA分子来消除疾病。AI将“通过人机共生彻底改变医学”,优化和改造药物发现、病理学和诊断。一些专家认为,人们的寿命可能会比当前预期寿命长20年。

大流行创造了一个完全无接触的社会。AI传感器、与面部识别配对的红外热像仪检查口罩佩戴情况。摄像头系统观察社交距离。基于AI的聊天机器人筛选症状并教育患者。机器人在医院和公共区域进行消毒。配送机器人在医院和公共场所运作。

但这有一个更黑暗的含义。相当一部分人,特别是在大流行期间成年的人,将倾向于减少面对面接触的生活方式。最初为健康而采纳的社交距离变成了常态化的行为。陈楠的存在说明了未来由技术促成的孤立生活可能加剧。

故事质疑了那些使我们能够避免恐惧的技术是帮助我们还是伤害我们。陈楠的旅程表明,在技术的帮助下,而不是被技术取代,直面恐惧,是通往疗愈和真正人类联系的道路。技术应该增强人类的能力,而不是取代人类的联系。

萦绕我心的偶像:数字完美的代价

2041年的东京,一个名叫爱子(Aiko)的害羞音乐迷与朋友们参加了一场降神会,试图联系在神秘情况下死亡的流行虚拟偶像Hiroshi X的灵魂。通过一个灵媒,Hiroshi的声音恳求帮助,声称他的死并非表面看起来那样。

爱子通过Hiroshi的音乐与他有着深刻的、近乎痴迷的联系,他的音乐是她一生中慰藉的源泉。她与心理健康问题和被忽视的感觉作斗争,并将这些感觉投射到她的偶像身上。她的迷恋反映了一种她觉得超越了普通粉丝关系的纽带。

利用先进的**XR(扩展现实)**技术——包括VR(虚拟现实)、AR(增强现实)和MR(混合现实)——爱子探索了Hiroshi死亡的情景。她通过AI驱动的重建,在各种虚拟环境中召唤Hiroshi的“鬼魂”。随着她的调查,这些相遇模糊了现实与数字身份之间的界限。李开复将XR描述为“就像睁着眼睛做梦”。

爱子了解了Hiroshi与他生命中人——他的经理、团队成员和娱乐产业——之间复杂的动态关系。叙事揭示了名声的阴暗面、行业压力以及偶像们维持的艰难关系。随着线索的拼凑,爱子发现Hiroshi并非如报道所说溺水身亡,而是被毒死的。调查揭示了他的心理健康挣扎以及来自粉丝和娱乐产业的巨大压力。

在与Hiroshi的虚拟鬼魂的对峙中,爱子得知他对联系和被接纳的渴望最终导致了他的悲剧结局。Hiroshi对名声、身份和对真实性需求的思考贯穿了爱子的整个旅程。她对拟社会关系(parasocial relationships)和现代粉丝文化的黑暗影响有了深刻的理解。

本章结尾,一家科技公司为爱子提供了一个在虚拟空间中合作进行叙事创作的机会。这个决定反映了她从被动粉丝到主动创作者的演变,象征着她希望重新掌握对自己故事和他人故事的主导权。

李开复解释说,到2041年,AI将开辟沉浸式娱乐的新世界,提供与现实世界无异的虚拟体验。现实生活、远程通信、游戏和电影之间的界限将完全模糊。VR将通过让孩子们与虚拟的阿尔伯特·爱因斯坦和斯蒂芬·霍金互动来教他们科学。VR将为创伤后应激障碍(PTSD)等精神问题设计专门的治疗方案。在VR中,AI将制造出完全逼真的伴侣;作为机器人,他们将变得越来越真实。

**脑机接口(BCI)**使与虚拟环境的直接神经互动成为可能,允许用户通过思想来控制和体验XR。生物特征数据提供关于生理和情绪状态的实时信息。生成式AI创造出超逼真的虚拟名人,他们可以以个性化的方式与粉丝互动,从而实现前所未有的拟社会关系。

但李开复强调了一个关键的限制:虽然AI可以创造出极其逼真的体验并作为伴侣,但它无法真正地爱人类。 这个限制是提出的伦理问题的核心。

故事探讨了有毒的粉丝文化如何通过超逼真的虚拟互动得到扩展和放大。技术可能使个人与真实的人际关系疏远,而不是促进它们。存在对虚拟体验上瘾的风险,人们可能沉浸其中以至于忽视现实世界的责任和关系。公司可能通过AI驱动的拟社会关系操纵粉丝,导致不健康的痴迷和模糊的现实,造成心理伤害。

然而,机会也存在。每个粉丝都可以创作自己的故事和叙事。VR可以治疗PTSD和其他心理疾病。与虚拟历史人物的沉浸式学习体验成为可能。技术使个人能够重新获得能动性,成为讲故事的人,为那些在传统社交互动中挣扎的人提供新的娱乐和联系形式。

根本的风险仍然是,虚拟关系取代而非补充真实的人际关系。本章提出了一个问题:即使技术上可行,广泛接受虚拟亲密关系对人类来说是否可取或健康。

神圣的司机:人类作为机器的后备

查马尔(Chamal)是来自斯里兰卡的一位才华横溢、自信满满的年轻游戏玩家,擅长虚拟现实赛车游戏。他的家庭经济困难——他的父亲曾是一名司机,受到自动驾驶汽车兴起的冲击。朱尼厄斯叔叔(Uncle Junius)与一家名为ReelX的中国科技公司有着神秘的联系,他招募查马尔从事一份看似报酬丰厚的游戏工作,这份工作承诺提供他家庭急需的高薪。

查马尔进入一个高科技设施,在他认为是驾驶模拟的环境中进行训练。他穿上触觉套装和头盔,发现自己沉浸在超逼真的虚拟驾驶体验中。训练场景变得越来越具挑战性,模拟了包括阿布扎比、海得拉巴、曼谷、新加坡和日本在内的多个国际城市的真实世界情况。

查马尔迅速登上了排行榜的榜首。他通过成功完成任务获得积分——积分越多,意味着为他挣扎的家庭赚的钱越多。任务从外星人入侵等离奇场景到恐怖袭击等令人不寒而栗的现实情境不等。

接着是关键任务。北爪哇海底的一次扰动引发了海啸,瘫痪了新加坡的自动化智能交通系统。在只有六分钟的时间内,一波十米高的海啸即将袭来,超过一百辆功能失调的自动驾驶汽车及其乘客处于致命危险之中。查马尔和其他“幽灵司机”必须远程控制这些车辆,切换到手动控制,并将它们引导到疏散区。

查马尔的虚拟化身从一辆车“跳”到另一辆车,在几秒钟内控制每辆车的方向盘,躲避倒塌的碎片,争分夺秒地拯救生命。他以强烈的身体和情感投入体验这次任务,随着他拯救一辆又一辆车,他的分数飙升。尽管他努力了,海啸还是追上了他,他目睹了一些汽车被卷走——每一辆未被拯救的汽车都代表着失去的积分和可能失去的生命。这次经历让他身心俱疲,好几天都无法完成基本任务。

在家中恢复期间,查马尔看到一则关于日本关东地区发生海啸的新闻报道。监控录像显示的场景与他的“游戏”任务完全相同——相同的路况、汽车位置、碎片。这个令人震惊的现实击中了他:那个游戏是真实的。 他一直在远程控制真实的车辆,拯救真实的人的生命。

朱尼厄斯叔叔带查马尔去见ReelX的斯里兰卡分部负责人杨娟(Yang Juan)。通过他们的谈话,查马尔了解了“幽灵司机”的真相——在紧急情况下,当AI系统失灵或面临前所未有的情况时,由人类操作员远程控制自动驾驶车辆。游戏的框架是故意的:当人类司机相信这是模拟时,他们的表现会更好,而不是承担生死抉择的全部心理重负。

朱尼厄斯叔叔揭示了自己的过去。十年前,在川藏地区的一次地震救援任务中,他正在运输紧急医疗物资,余震导致一块巨石压碎了他的虚拟车辆。力反馈和联觉(通过VR模拟真实感官)设置得非常高,以至于虚拟的疼痛表现为他腿上真实而持久的伤害。尽管物资最终通过军用无人机送达受害者手中,朱尼厄斯的腿却永远停留在“真实与虚拟之间的 limbo”状态——那次失败任务的永久提醒。

杨娟为查马尔提供了一次去中国的旅行作为奖励。在深圳,查马尔亲眼目睹了自动驾驶汽车和智慧城市的未来。L5级自动驾驶汽车在整个城市无缝运行。系统根据实时数据计算最佳路径和车辆分配。汽车在几秒钟内自动分开,为救护车创造通道。在城市马拉松期间,所有自动驾驶汽车同时收到警报并立即重新规划路线。沿路的智能传感器与车辆控制系统和云基础设施实时通信。整个城市就像一个同步的有机体一样运作。

查马尔将他最初对技术的理解——就像他父亲的车,有着可见、可数的零件——与他新的理解——像他母亲的纱丽,精致而复杂,当组合成一个整体时图案会发生变化——进行了比较。他努力理解自己角色的伦理含义,认识到尽管被告知这是一个游戏,但真实生命依赖于他的技能。

李开复解释说,汽车辅助技术从L0(无自动化)到L5(方向盘可选)不等。真正的L5级自动驾驶——即永远不需要人类干预——仍然很难实现,因为存在边缘案例。自动驾驶汽车在处理前所未有的情况时会遇到困难:自然灾害、恐怖主义、基础设施故障,以及训练数据中未出现的场景。故事探讨了一个现实的临时解决方案:在紧急情况下由人类操作员远程控制,解决AI中的“长尾”问题。

将任务心理框架化为“游戏”解决了一个真实的挑战:当情绪风险降低时,人类司机在压力下的表现会更好,即使工作本身是相同的。朱尼厄斯叔叔反思说,他的母亲因为救护车无法及时穿过交通而去世——自动化系统可以拯救无数生命。

李开复预测,到2041年,主要城市将拥有完全集成的智能交通系统,自动驾驶汽车与基础设施实时通信。人们将购买更少的私家车,转而依赖自动驾驶的共享车队。救护车和紧急车辆将更快地到达目的地。传统的司机职业将基本消失,影响数百万人(仅美国就有380万个工作岗位)。新的工作类别,如“幽灵司机”、远程车辆操作员和AI监督员将会出现。

但自动驾驶汽车可以大幅减少全球每年约135万的交通死亡人数。优化的交通流量减少了拥堵、通勤时间和燃料消耗。老年人、残疾人和不能开车的年轻人获得了行动能力。通勤者可以在车上工作、学习或休息,而不是开车。对停车位的需求减少可以释放宝贵的城市土地。

风险包括网络安全威胁——联网的自动驾驶汽车容易受到黑客攻击或恐怖主义威胁。当智慧城市基础设施失灵时(如海啸场景),后果可能是灾难性的。人类驾驶技能的丧失可能使社会在系统失灵时变得脆弱。数百万失业工人可能面临失业和贫困。故事的标题“神圣的司机”暗示,驾驶——以及在自动化世界中的人类能动性——已经变得神圣、稀有和受人尊敬。

故事最终认为,即使在高度自动化的未来,人类的判断力、创造力和道德推理仍然至关重要。查马尔考虑离开幽灵司机项目,这表明技术应该服务于人类的价值观,而不是反过来。

量子灭绝:当才华转向复仇

罗宾(Robin)和她的黑客团队在冰岛凯夫拉维克(Keflavík)附近一艘废弃的渔船上行动,那里是世界上最安全的数据中心Hrosshvalur的所在地。他们正试图进行一次大胆的抢劫,利用量子计算技术破解中本聪传奇财富的比特币加密。在执行计划时,他们发现自己也正在被黑客攻击。

叙述揭示了真正的反派:马克·卢梭(Marc Rousseau),一位因气候变化而遭受个人悲剧的欧洲物理学家。在因气候相关灾难失去亲人后,卢梭被悲痛和对人类未能解决环境灾难的愤怒所吞噬。

卢梭在量子计算方面取得了突破,并决定将其用于恶意目的。他利用“末日黑名单”策划了致命的无人机袭击,目标是世界各地的有影响力的领导人——他认为这些人应该为气候不作为负责。这些由AI驱动的自主无人机在全球范围内进行精确暗杀。

卢梭计划发动伪装成太空货物的核攻击,摧毁全球通信基础设施,并可能引发广泛的破坏。罗宾和泽维尔(Xavier)必须与时间赛跑,以防止这些灾难性的攻击。他们设计了一个减轻损害的计划,最终迫使他们在重置世界通信网络和拯救无数生命之间做出选择。

李开复指出,到2041年,有80%的可能性会有一台功能正常的量子计算机,拥有4000个逻辑量子比特(以及超过一百万个物理量子比特),能够实现所述的加密破解。量子计算使用量子比特(qubits)而不是传统的二进制比特,从而允许进行指数级更强大的计算。卢梭的量子突破使他能够破解现代加密方法,包括保护比特币钱包的椭圆曲线加密,侵入全球所谓安全的系统,并获取中本聪的比特币财富。

同样可以彻底改变医学、材料科学和人工智能的量子计算也可以被武器化。当前的比特币加密将变得容易受到量子攻击,这对加密货币生态系统构成了生存威胁。

卢梭部署了具有完全自主性的自主无人机群——能够完全在没有人类干预的情况下搜索、决定交战并消灭目标。这些无人机可以识别并追踪他“末日黑名单”上的特定个人,使用AI独立做出击杀决定,同时在全球多个地点进行协调攻击,并精确执行政治暗杀。李开复将它们描述为**“1000美元的政治刺客”。**

李开复强调,自主武器代表了战争的第三次革命,继火药和核武器之后。AI驱动的真正自主意味着完全参与杀戮:搜索、决定交战并完全在没有人类干预的情况下消灭人类生命。这被描述为“不是未来的遥远危险,而是明确而现实的危险”。

到2041年,AI驱动的自主无人机将广泛可用,成本大幅下降(可能低至每台1000美元),能够独立做出击杀决定而无需人类监督,具备大规模行动的协调集群能力,并与量子计算集成以增强目标定位,这些都将成为现实。当前的加密方法将过时。金融系统、政府系统和关键基础设施面临更大的脆弱性。

故事提出了深刻的问题:当强大技术被滥用时,谁应承担责任?卢梭认为他是在为气候不作为伸张正义,但他的行为构成了恐怖主义。叙事质疑了目的能否证明手段的正当性,并触及了谁应该为环境灾难负责的问题。

一个拥有量子计算能力的悲伤个体就能威胁全球文明。如果量子抗性解决方案得不到开发,整个加密货币生态系统将面临过时。自主武器可能引发军备竞赛并降低冲突门槛。政治领导人和有影响力的人物成为暗杀的轻易目标。全球通信网络和关键系统容易受到量子驱动的攻击。

李开复强调,“监管总是落后于创新,而创新正以光速前进。” 这一章是一个警示故事,告诫人类在没有足够伦理框架和保障措施的情况下挥舞强大技术的傲慢。这是一个“明确而现实的危险”,而不仅仅是科幻小说。

工作救世主:在自动化之后寻找目标

故事以一位叙述者描述从2020年开始的时间线展开,详细说明了COVID-19如何催化了AI在各行各业的广泛采用。随着企业为在疫情中生存和最大化效率而转向自动化,常规工作开始以加速的速度消失,导致大规模裁员、日益严重的社会危机、工人抗议和内乱。

为应对大规模失业,美国政府推出了全民基本收入(UBI),旨在支持失业工人。虽然最初很有希望,但UBI产生了负面结果:社会问题增加,包括犯罪率上升、成瘾问题、抑郁和受助者失去生活目标。该计划未能解决人类对有意义工作和社会贡献的基本需求。到2032年,认识到这些失败后,政府废除了UBI。

这为新行业的出现创造了条件:职业恢复或“工作重新分配”公司。詹妮弗·格林伍德(Jennifer Greenwood)是这些先驱公司之一Synchia的受训者之一。Synchia与正在进行裁员的公司合作,为失业工人提供全面的再培训服务。该公司使用AI评估工具分析工人的技能、才能和潜力,然后引导他们找到合适的新就业机会。

Synchia的魅力十足、富有同情心的领导者迈克尔·萨维尔(Michael Saviour)强调尊严和同情心。他培训他的团队要理解,失业不仅仅是一个经济问题,更是一个影响工人身份和自我价值的深刻个人危机。他的名字具有象征意义——他真心希望通过帮助失业工人找到新目标来“拯救”他们。

随着故事的进展,一家大型建筑公司Landmark面临大规模裁员,该公司正在被自动化。一家竞争对手公司OmegaAlliance带着激进的竞争愿景出现。他们承诺通过先进的VR技术实现完全的工作重新分配,声称工人可以过渡到感觉像体力劳动一样真实的虚拟工作。

詹妮弗调查了工人反对自动化的抗议活动,揭示了失业工人中深深的绝望、愤怒和抵制情绪。许多人感到被一个似乎更看重效率而非人类福祉的系统背叛了。

詹妮弗对OmegaAlliance的调查揭示了令人不安的真相。她发现了他们承诺中的缺陷——他们的“虚拟工作”本质上是剥削性的,创造了既不能提供真正就业也不能提供尊严的无意义任务。该公司操纵弱势工人,提供虚假的希望,而企业则从他们的数据和微小贡献中获利。这代表了企业对绝望人群的操纵,而非真正的解决方案。

故事的结局是Synchia和OmegaAlliance之间达成合作,专注于寻找真正能帮助失业工人的解决方案。然而,叙述明确指出,这只是一个更大社会转型的开始。故事倡导**“3R”方法:重新学习(Relearn)(获取新技能)、重新校准(Recalibrate)(适应新的经济现实)和复兴(Renaissance)**(在工作中找到新的目标和意义)。

李开复解释说,虽然大多数技术同时是工作创造者和破坏者,但**“AI的明确目标是接管人类任务,从而大量削减工作岗位。”** 超过380万美国人直接从事卡车或出租车司机的工作,还有更多人为Uber/Lyft、邮政服务、送货服务和仓库兼职开车——所有这些都面临被取代的风险。到2041年,热爱驾驶的人将像今天的马术爱好者一样——去指定的娱乐或体育私人区域。

李开复分析了为什么全民基本收入虽然用心良苦,但却失败了。UBI解决了收入问题,但没有解决人类对目标、意义和贡献的基本需求。没有工作,人们的抑郁、成瘾和社会问题增加了。金钱本身并不能提供尊严、身份或贡献感。

AI擅长于有明确参数的常规、重复性任务。如果工作是常规性的,白领和蓝领工作都同样面临风险。需要创造力、情商、复杂问题解决能力和人际交往的工作更能抵抗自动化。然而,随着AI能力的扩展,即使是一些非常规工作也面临被取代的风险。

李开复强调这不仅仅是一个经济问题,而是一场社会变革。传统的经济和社会秩序组织原则将受到挑战。工作、身份和目标之间的关系必须被重新概念化。新的社会契约将是必要的。

到2041年,所有行业的常规工作将基本实现自动化。自动驾驶汽车将普及,消除大部分驾驶工作。制造业将高度自动化,人力劳动极少。服务业将使用AI进行客户互动、日程安排和运营。仓库和物流将几乎完全由机器人操作。一个成熟的工作重新分配行业将帮助数百万人过渡到新职业,尽管合法服务(如Synchia)和剥削性操作(如OmegaAlliance)都将存在。

关于企业对因自动化而裁员的工人应承担何种义务的问题仍未解决。从AI中获利的公司是否应该支付再培训费用?他们应承担什么责任?当人们脆弱时,掠夺性行为变得更具吸引力和破坏性。技能不可转移的老年工人面临最大的困难。

故事探讨了人类的身份和自我价值是否应该与就业如此紧密地联系在一起,如果不是,社会应如何重构这些关系。失去工作影响整个社区,特别是那些围绕单一产业建立的社区。社会必须重新概念化“工作”的含义,以及人们如何在传统就业之外找到目标和贡献。

但机会是存在的。工人可以通过全面的再培训计划获得新技能。社会可以通过新的社会契契来适应新的经济现实。人类可以发现新的创造力、目标和贡献形式。需要同理心、创造力、复杂问题解决能力和人际交往的工作将变得更有价值,报酬也更高。消除危险、重复和无聊的工作,使人类可以追求更有意义的事业。

李开复主张积极适应,强调人类的尊严、创造力和能动性,而不是将AI驱动的失业视为不可逾越的灾难。这一章认为,人类必须找到创新的方式来在失业的情况下茁壮成长,但这需要有意识地努力创建新的社会结构和经济模式。未来的工作将从根本上不同,但如果社会能够深思熟虑并合乎道德地行动,人类仍然可以找到目标、意义和贡献。

幸福岛:算法买不来满足感

维克多·索洛科夫(Viktor Solokov),一位曾经著名的俄罗斯科技企业家,来到了位于阿拉伯海靠近卡塔尔的豪华人工岛屿“阿尔·赛义达”(Al Saeida),该岛由王室设计。在经历了一场个人危机后,他寻求冒险,逃离他以前的生活。

抵达后,一个名为Qareen的机器人助手迎接了维克多。要进入该岛,他必须同意分享他所有的个人数据——物联网数据、可穿戴传感器、摄像头、个人健康数据、音频、社交媒体,一切——以换取AI优化幸福的承诺。

岛上接待了几位客人,包括一位电影明星、一位神经生物学家、一位诗人和阿基拉公主(Princess Akilah)。通过交谈,他们探讨了对幸福的不同看法,维克多挑战了物质财富导致满足感的假设,引用研究表明在高收入水平下幸福感会下降。

王位继承人马赫迪王子(Prince Mahdi)创建了一个**“幸福算法”**——一个享乐主义AI系统,收集大量数据来预测、监控和增强每个人的福祉,通过根据个性档案量身定制体验。AI使用中间件技术分析个人数据,以增强客人的体验。

起初,维克多在享乐算法迎合的追求中找到了乐趣,但随着时间的推移,这些放纵未能提供持久的满足感。阿基拉公主成为维克多的一个重要人物。她私下反对她哥哥的愿景,并提出了一个**“幸福论算法”**(eudaimonic algorithm),该算法侧重于通过社区精神、积极参与和基于亚伯拉罕·马斯洛需求层次理论的心理框架来追求更深层次、更有意义的幸福,而不是肤浅的快乐。

当客人们发现AI无法维持真正的幸福时,一场反对环境控制性的反抗随之而来。阿基拉秘密地与维克多沟通,暗示真正的幸福超越了算法,需要个人能动性、自我发现和更深层次的情感联系。

在维克多逃离并与阿基拉意外相遇后,他发现真正的转变来自于平衡生活经历和愿望,而不是屈服于人为定义的幸福。维克多思考着一条新的道路,既拥抱他的企业家精神,也吸取了他们在一起时获得的见解。

李开复解释说,幸福是复杂、主观的,并超越了物质财富。像“幸福”和“公平”这样的抽象概念极难量化并编程到AI算法中。当前的AI系统擅长优化点击率、盈利能力和效率,但缺乏处理复杂人类价值观的复杂性。

到2041年,使用传感器和生理指标辨别情绪的技术将会出现,但仅凭这些还不够。AI可以优化体验,但缺乏在没有人类洞察和价值观的情况下培养真正、持久幸福的能力。衡量幸福是有问题的——虽然正在出现创新的框架,但它们未能捕捉到人类情感和体验的全部范围。技术可以使用传感器解释情绪状态并观察生理指标,但这些技术本身无法把握影响人类行为的复杂、个体因素。

追求AI增强幸福依赖于获取个人的私人数据——健康记录、生物识别标识符、根深蒂固的愿望。关键问题出现了:通过AI追求增强的幸福是否需要放弃个人隐私? 个人数据收集与伦理责任之间的关系至关重要。

李开复认为,社会需要发展新的框架来衡量AI的影响,超越经济指标。评估必须包括人类福祉、社会公平和环境保护。这需要对神经科学和心理学的深刻理解,以创造衡量和预测持久人类满意度的技术。

这一章探讨了隐私与集体福祉的权衡、AI系统中的同意和数据共享、算法试图定义和创造人类幸福的尝试,以及在AI主导的环境中的人类能动性。财富和物质丰富并不保证幸福。存在对寻求快乐行为上瘾的风险。AI试图优化人类体验的心理和社会影响仍不清楚。围绕幸福的文化价值观可能与算法定义冲突。

过度依赖AI来实现人类的满足感,存在丧失自主性和真实决策的风险。通过数据驱动的个性化进行操纵成为可能。肤浅的幸福可能取代有意义的满足感。现有的AI系统仍不足以提供所需的心理支持。技术本身无法提供持久的幸福;人类的洞察和价值观仍然至关重要。

丰饶之梦:重新构想稀缺的终结

在未来的澳大利亚,2041年,社会已被AI、清洁能源和自动化所改变,进入了一个后稀缺时代。年轻的土著女性凯拉(Keira)成为了一位著名的海洋生态学家乔安娜·坎贝尔(Joanna Campbell)的照顾者,乔安娜居住在一个名为“阳光村”(Sunshine Village)的智能退休社区。

凯拉了解到由**“Jukurrpa项目”**带来的社会变革,该项目引入了两个革命性的经济体系。**基本生活卡(BLC)**提供津贴,涵盖所有基本必需品——食物、住所、医疗保健、基本娱乐。Moola是通过社区服务和声誉赚取的虚拟货币,促进对教育、老年护理、社会工作和创意领域的贡献。

乔安娜正在与早期阿尔茨海默病作斗争,而凯拉则在这个变化的经济格局中应对土著青年面临的挑战。尽管技术进步,年轻一代和老一代之间仍然存在不平等问题。

通过他们的互动,两个角色最初发生冲突,但最终相互启发。乔安娜带着她的3D VR眼镜失踪了,并以一种新的视角体验世界。这场危机导致了关于身份、目标和社会期望的更深层次的对话。

叙事探讨了丰饶——即基本人类需求得到满足,工作变得可选——如何影响个人的动机。尽管物质丰富,国家仍在努力让人们,特别是年轻人,保持积极性并远离药物滥用。Moola系统最初旨在促进社区参与,但被许多人追求认可和地位的行为所妥协,这与金融利润如何助长贪婪和不平等相呼应。

故事结尾,两个角色就帮助他们的社区共同合作进行了有意义的对话,强调了一个不仅由经济稳定定义,而且由人类繁荣和有意义的存在定义的未来是可能的。

李开复解释说,随着技术进步导致商品成本大幅下降,传统的经济理论受到了质疑。**可负担的清洁能源(“超级能源”)**将大幅降低生产成本。智库RethinkX估计,到2030年投资2万亿美元,美国能源成本将降至每千瓦时3美分——不到今天成本的四分之一。到2041年,预计成本会更低。

在阳光最充足/风力最强的日子里,将能以几乎零成本获得“超级能源”,用于非时间敏感的应用:为闲置汽车的电池充电、海水淡化和处理、废物回收、金属精炼、碳去除、制造业。随着能源成本骤降,水、材料、制造和计算的成本也随之下降。这可以消除超过50%的温室气体排放。

AI驱动的自动化机械显著降低了商品生产成本。增材制造(3D打印)方法降低了生产成本。这促进了前所未有的商品和服务丰饶。

植根于稀缺性的传统框架不再适用。需要彻底改革经济结构以应对社会动荡。在丰饶世界中货币和经济体系的演变。转向以社会价值和社区参与作为衡量成功的标准。新技术产生的财富使现有的经济体系和金融机构过时。

在丰饶经济中,工作变得可选。挑战从物质物品的创造和使用转变为一个更深层次的问题:当传统职业被中断,金钱奖励不再是主要动力时,什么能激励人们追求满足和意义? 需要重新定义超越生产力的价值。

将价值与职业成就等同的人可能会难以找到满足感。从以工作为中心的生活过渡到劳动非必需的时代很困难。存在药物滥用和缺乏动力的风险。在Moola系统中追求认可和地位的人们反映了金融体系的贪婪。

尽管技术进步,不平等仍然存在。代际关系紧张。需要持续的教育和包容的环境。拥有丰富资源的人和感觉被忽视的人之间的鸿沟有扩大的风险。企业不愿消除稀缺性(企业希望保持资源有限以提高收益)。政治上抵制放弃对财政和资源的控制。建立在稀缺性和供需不匹配基础上的实体将抵制变革。

到2041年,成本接近零的广泛清洁能源将存在。澳大利亚将通过可持续技术实现碳中和。数字货币将取代传统货币。全民基本收入类型的系统(BLC)将提供必需品。基于声誉的经济体(Moola)将激励社区服务。后稀缺条件将在发达国家存在。自动化制造将无处不在。商品和服务将以最低或无成本提供。

然而,李开复承认存在挑战。拥有更多资源、稳定性和改革承诺的国家将领导这些举措,但各国实现丰饶的速度将有所不同。现有系统在提供所需支持方面仍然不足。Moola系统可能被追求地位的行为所妥协。财富公平分配的挑战依然存在。需要全球合作。重塑社会规范的困难。

故事以一个充满希望的信息结束:如果个人专注于自我实现、社区关怀和共情参与,积极的社会转型是可能的,从而创造一个由人类繁荣和有意义的存在定义,而不仅仅是经济稳定的未来。消除贫困和饥饿。专注于自我实现、创造力、社区关怀。有时间进行个人成长和建立有意义的关系。通过清洁能源减缓气候变化。人们可以在没有经济约束的情况下追求兴趣。更强的社区纽带和共情参与。

故事之外的信息

《AI 2041》故意没有正式的结论章节,一些评论者认为这令人沮丧。相反,这本书的愿景是通过其故事的累积分量浮现出来的。李开复和陈楸帆既没有呈现反乌托邦,也没有呈现乌托邦,而是呈现了需要我们做好准备的现实场景。

李开复的核心论点是:AI将是21世纪的决定性发展。 在二十年内,日常人类生活的方方面面将变得面目全非。这本书旨在帮助读者理解AI的“光明之路”和“生存危机”。

李开复明确反对对通用人工智能(AGI)和奇点的痴迷。他不相信深度学习到2041年会成为在各方面都与人类智能相匹配的“人工通用智能”。AGI需要十几个像深度学习那样的突破。既然AI在60多年里只有一个重大突破,要在20年内看到十几个是不太可能的。许多挑战仍未解决:创造力、战略思维、推理、反事实思维、情感、意识。

李开复建议我们“停止使用AGI作为AI的最终测试”。AI的心智与人类的心智不同。在二十年内,深度学习将在越来越多的任务上击败人类,但许多现有任务仍将是人类表现更好的地方。甚至会出现一些新的任务来展示人类的优越性,特别是如果AI的进步激励人类改进和进化。

“重要的是,我们开发适合AI的有用应用程序,并寻求找到人机共生,而不是痴迷于深度学习AI是否或何时会成为AGI。”

这本书的十章共同探讨了AI通过有超过80%可能性实现的技术所带来的变革力量。深度学习和大数据使保险比你更了解你自己,但却延续了古老的偏见。计算机视觉和深度伪造创造出完美的合成人,破坏了视觉证据和真相本身。自然语言处理催生了为每个孩子量身定制教育的AI导师,但有过度优化童年的风险。AI医疗保健彻底改变了医学,而大流行技术则促成了孤立的存在。虚拟现实创造了与真实无异的体验,但拟社会关系取代了真正的联系。自动驾驶汽车消除了数百万个工作岗位,同时拯救了数百万人的生命。量子计算解决了不可能的问题,同时破解了所有加密。工作岗位流失迫使人们重新构想工作的意义和目的。AI试图优化幸福,但无法捕捉人类的满足感。后稀缺时代的富足提出了关于人类动机的基本问题。

这些愿景中出现了共同的主线。隐私与效用的权衡出现在十个故事中的八个。AI系统中的偏见和公平性。透明度和问责制的挑战。操纵和成瘾的风险。人类自主性与AI优化。AI开发者的道德责任。

机遇是真实的。前所未有的财富创造。医学和医疗保健的革命。为所有学生提供个性化教育。清洁能源和环境解决方案。消除贫困和饥饿。通过人机共生增强人类能力。新的通信和娱乐形式。

但生存风险同样真实。自主武器作为生存威胁。人类目标和意义的丧失。隐私侵蚀。算法偏见放大社会不平等。监视和控制。虚假信息和深度伪造破坏真相。经济流离失所造成社会不稳定。

李开复和陈楸帆的立场是刻意乐观但现实的。陈楸帆解释说:“我和开复都觉得,迫切需要描绘一幅更乐观、更可信的未来图景。因为如果我们想创造一个我们愿意生活的未来,我们必须首先学会想象它。”

作者们自始至终都在强调人类的能动性。“最重要的是,我们希望你会同意,《AI 2041》中的故事强化了我们对人类能动性的信念——我们是我们命运的主人,任何技术革命都无法改变这一点。”

李开复敦促读者认识到AI的潜力和风险,并通过理解AI的能力和局限性,积极应对伦理挑战,发展新的经济模式,维护人类的能动性和价值观,寻求人机共生,为劳动力转型做准备,并确保AI利益的公平分配,来为即将到来的变化做好准备。

一句关键引言抓住了其中的利害关系:“在AI与人类的故事中,如果我们能正确处理人工智能与人类社会之间的舞蹈,那无疑将是人类历史上最伟大的成就。”

这本书既是警示故事,也是路线图,敦促社会思考AI的轨迹及其重塑人类体验的潜力。未来既不会是无限富足的技术乌托邦,也不会是机器统治的反乌托邦噩梦。相反,它将是混乱、复杂且深刻人性的——由今天就如何开发、部署和治理这些变革性技术所做的选择所塑造。

二十年后,在2041年,AI将无处不在。它会比你更了解你的偏好,优化你的健康,教育你的孩子,驾驶你的车辆,管理你的城市,甚至可能试图设计你的幸福。问题不在于这种转变是否会发生——李开复认为这些故事中的技术有超过80%的可能性会实现。问题在于,人类是否会明智地塑造这一转变,解决偏见,保护隐私,维护能动性,并确保利益被广泛分享,而不是集中在AI超级大国之间。

《AI 2041》中的故事想象了既鼓舞人心又令人不安的未来,展示了前进的道路和需要避免的陷阱。它们提醒我们,技术放大了人类的选择,无论是好是坏。在纳亚娜反抗算法偏见的斗争中,在阿马卡选择真实而非操纵的决定中,在查马尔认识到人类能动性价值的时刻,以及在凯拉和乔安娜发现超越算法的意义的过程中,我们看到人类价值观在对抗技术决定论时 asserting 自身。

这些不是对一个不可避免的未来的预测,而是对有意识选择的邀请。人工智能与人类社会之间的舞蹈已经开始。它将成为人类最伟大的成就还是最严重的错误,取决于现在共同采取的步骤,以开放的眼光看待可能性和危险。

Claude Code 中高级使用技巧

· 阅读需 11 分钟

人工智能编程助手已经从简单的代码补全工具进化为成熟的开发伙伴。Claude Code 代表了这一演进的下一个阶段,它提供了一个可被称为**“自主编程”**的框架。这款工具旨在深度集成到你的工作流中,做很多之前 AI coding 做不到的事情:

  • 代码理解与问答: 充当项目专家,为新团队成员讲解大型代码库的运作方式,极具价值。
  • 大规模重构: 擅长修改庞大文件(例如超过 18,000 行),凭借其对全局代码关系的理解,在其他 AI 工具束手无策时依然表现出色。
  • 调试: 提供逐步推理过程,助你找到错误的根本原因,而非像其他工具那样只给出修复方案却无从解释。
  • 复杂功能生成: 遵循 “探索 → 计划 → 实现” 的工作流。你可以引导它先分析问题并制定详细计划,然后再编写代码。
  • 测试驱动开发 (TDD): 可以指导它先编写失败的测试用例,然后生成能让测试通过的最精简代码,从而显著加速 TDD 循环。

接下来,让我们深入探索这些能助你驾驭其强大功能的技巧。

1. 基础设置:工作流的核心

坚实的配置是高效工作流的基石。在这一步投入的时间,将在后续的每一次交互中为你带来丰厚的回报。

  • 使用 CLAUDE.md 作为项目记忆:在任何项目的根目录下,都应该有一个简洁的 CLAUDE.md 文件。该文件充当项目的“短期记忆”,包含了关键的架构原则、编码规范和测试流程。为了保持文件简洁、重点突出,可以使用 imports 语法(如 @docs/testing.md)来引用更详细的文档。你可以通过以 # 开头的消息快速添加新规则,或使用 /memory 命令直接编辑这份记忆。
  • Monorepo 感知:现代开发常常涉及 Monorepo。为了让 Claude 能够访问多个包以进行跨目录分析和重构,可以使用 --add-dir 标志,或在你的 .claude/settings.json 文件中定义 additionalDirectories。这对于跨越代码库多个部分的任务至关重要。
  • 键盘与终端快捷操作:速度至关重要。掌握快捷键可以简化你的交互流程。使用 Esc Esc 快速编辑上一条消息。运行一次 /terminal-setup 命令,即可启用 Shift+Enter 来输入换行符。对于 Vim 爱好者,/vim 命令可以让你在熟悉的 Vim 模式下进行编辑。

2. 优化日常工作流

有了坚实的基础,你就可以引入一些实践来减少阻力,提升日常工作效率。

使用正确的模式

CLI 提供了几种权限模式,以适应不同的任务和风险偏好:

  • default:最安全的新手起点。在执行有潜在风险的操作前,它会提示你进行确认,在安全和速度之间取得了良好平衡。
  • acceptEdits:一种“实时编码”模式,它会自动接受文件编辑而无需提示。非常适合快速迭代以及在你密切监督流程的场景。
  • plan:一种为代码审查等任务设计的“安全”模式。在此模式下,Claude 可以分析和讨论代码,但不能修改任何文件。
  • bypassPermissions:完全跳过所有权限提示。请极其谨慎地使用此模式,并且只在意外更改不会造成任何后果的沙盒环境中使用。

你可以在 .claude/settings.json 中设置默认模式,或使用 --permission-mode 标志为单次会话指定模式。

斜杠命令与自定义

重复性任务是自动化的绝佳候选。通过创建自定义斜杠命令,将你最常用的提示词转化为可复用的工具。只需将它们作为带有 YAML frontmatter 的 Markdown 文件存储在 .claude/commands/ 目录中即可。

  • 在 frontmatter 中使用 allowed-tools 来限制命令可以执行的操作,增加一层安全性。
  • 使用 ! 前缀可以运行 shell 命令(例如 !git status -sb),并将其输出直接注入到你的提示词上下文中。
  • 使用 $ARGUMENTS 向你的命令传递参数,使其更加灵活和强大。

恢复会话与并行工作

  • claude --continue:立即跳回到你最近一次的会话中。
  • claude --resume:列出过去的所有会话,让你能精确地从上次中断的地方继续。
  • Git worktrees:对于大规模重构,可以使用 git worktree 创建隔离的分支。这允许你并行运行多个独立的 Claude 会话,每个会话都有自己的上下文,从而避免混淆和冲突。

用于协作的输出风格

  • /output-style explanatory:在响应中增加一个“洞察 (Insights)”部分,非常适合用于指导初级开发者或在 Pull Request 中解释复杂的变更。
  • /output-style learning:在响应中添加 TODO(human) 占位符,主动邀请你参与协作,填补空白。

3. 集成质量与安全保障

真正的自主需要有护栏。将质量检查和安全网直接集成到你的工作流中,让你能充满信心地进行开发。

使用钩子 (Hooks) 作为安全护栏

钩子是在特定生命周期事件中自动运行的 shell 命令,提供了一种确定性的方式来强制执行规则。你可以在 .claude/settings.json 中配置它们。

  • PreToolUse:在工具使用运行检查。例如,你可以阻止对敏感文件的编辑,或要求必须存在相应的测试文件才允许写入操作。
  • PostToolUse:在工具使用自动执行清理任务。这非常适合在每次编辑后运行 prettiergofmt 等格式化工具,以及代码检查器和快速测试。
  • Notification:当 Claude 需要你输入时发送桌面提醒,这样你就可以在切换任务的同时不会忘记这边的进度。

例如,让 Mac 在任务完成后通知你 - code ~/.claude/settings.json

{
"hooks": {
"Stop": [
{
"hooks": [
{
"type": "command",
"command": "say \"job's done!\""
}
]
}
]
}
}

权限与安全

在你的设置中定义明确的 allow(允许)、ask(询问)和 deny(拒绝)规则,以便在无需频繁提示的情况下管理工具的访问权限。

  • Allow:安全、常规的操作,如 Bash(npm run test:*)
  • Ask:你希望手动批准的有潜在风险的操作,如 Bash(git push:*)
  • Deny:用于防止灾难性后果的关键安全规则,如 Read(./.env)Read(./secrets/**)

专家子代理 (Subagents)

对于复杂的项目,你可以定义具有特定角色的项目级代理,例如 code-reviewer(代码审查员)、test-runner(测试运行器)或 debugger(调试器)。每个代理都配置了有限的工具集,以防止其越权操作。Claude 可以自动将任务委派给合适的代理,你也可以明确地调用某个代理。可以参考这个仓库获取示例。

4. 高级工作流与集成

通过集成视觉上下文和外部服务,超越基本的文件访问,提升你的工作流。

通过截图和图片提供视觉上下文

一图胜千言,尤其是在调试 UI 问题时。有三种可靠的方法可以向 Claude Code 提供图片:

  1. 从剪贴板粘贴:将截图复制到剪贴板,然后直接用 Ctrl+V 粘贴到终端中(注意:在 macOS 上也是 Ctrl+V,而不是 Cmd+V)。
  2. 拖放:将图片文件(PNG, JPEG, GIF, WebP)从你的文件管理器直接拖到 CLI 窗口中。
  3. 引用文件路径:在你的提示词中直接包含本地文件路径即可,例如:分析这张截图:/path/to/screenshot.png

模型上下文协议 (MCP) 集成

MCP 使 Claude 能够连接到 Jira、GitHub、Notion 或 Sentry 等外部服务。在添加并认证一个 MCP 服务器后,你就可以在提示词中直接引用外部资源,例如 实现 JIRA-ENG-4521 中描述的功能

非交互式使用与 CI/CD 集成

对于自动化和脚本编写,可以使用带 -p 标志的打印模式

  • 将其与 --output-format json--output-format stream-json 结合使用,可以生成机器可读的输出,然后通过管道传递给 jq 等其他工具进行进一步处理。
  • 使用 --max-turns 为交互次数设置硬性上限,防止自动化脚本中出现失控循环。

5. 成本与性能优化

强大的模型需要明智地使用。养成这些习惯,以管理你的开销并优化性能。

  • 关注开销:随时使用 /cost 命令,获取当前会话成本的实时摘要。
  • 有策略地选择模型:使用像 Opus 这样最强大的模型进行高层规划、复杂推理和初步策略制定。然后,切换到像 SonnetHaiku 这样更快、更经济的模型来执行实现、测试和其他常规任务。
  • 状态行:一个流行的社区技巧是在终端添加一个自定义状态行,用于显示实时成本和当前 Git 分支等其他有用信息。ccusage 工具是实现此功能的常用选择。

6. 入门套件:开箱即用的配置

这里提供了一些可直接复制粘贴的配置文件,助你快速上手。

.claude/settings.json (项目共享)

此文件用于建立项目范围的权限、钩子和 monorepo 设置。

{
"defaultMode": "acceptEdits",
"permissions": {
"allow": [
"Read(**/*)",
"Edit(src/**)",
"Bash(npm run test:*)",
"Bash(npm run lint:*)",
"Bash(go test:*)",
"Bash(git status:*)",
"Bash(git diff:*)"
],
"ask": [
"Bash(git push:*)",
"Bash(pnpm publish:*)",
"Bash(npm publish:*)"
],
"deny": [
"Read(./.env)",
"Read(./.env.*)",
"Read(./secrets/**)"
],
"additionalDirectories": ["../apps", "../packages", "../services"]
},
"hooks": {
"PreToolUse": [
{
"matcher": "Edit|MultiEdit|Write",
"hooks": [
{
"type": "command",
"command": "python3 - <<'PY'\nimport json,sys\np=json.load(sys.stdin).get('tool_input',{}).get('file_path','')\nblock=['.env','/secrets/','.git/']\nsys.exit(2 if any(b in p for b in block) else 0)\nPY"
}
]
}
],
"PostToolUse": [
{
"matcher": "Edit|MultiEdit|Write",
"hooks": [
{ "type": "command", "command": "npx prettier --write . --loglevel silent || true" },
{ "type": "command", "command": "npm run -s lint || true" },
{ "type": "command", "command": "npm run -s test || true" }
]
}
],
"Notification": [
{ "matcher": "", "hooks": [ { "type": "command", "command": "command -v terminal-notifier >/dev/null && terminal-notifier -message 'Claude needs input' -title 'Claude Code' || true" } ] }
]
},
"statusLine": { "type": "command", "command": "~/.claude/statusline.sh" }
}

.claude/commands/commit.md

这个自定义命令利用 shell 输出起草一条符合 Conventional Commit 规范的消息。

---
allowed-tools: Bash(git add:*), Bash(git status:*), Bash(git commit:*)
description: Create a conventional commit from current changes
---

## Context
- Status: !`git status -sb`
- Diff: !`git diff --staged; git diff`

## Task
Write a Conventional Commit subject (<= 72 chars) and a concise body.
Call out BREAKING CHANGE if needed. Stage relevant files and commit.

.claude/agents/code-reviewer.md

一个专门负责代码审查的代理定义。

---
name: code-reviewer
description: Senior review with focus on correctness, security, tests, readability, performance.
tools: Read, Grep, Glob, Bash
---

Return a checklist grouped by **Critical**, **Warnings**, and **Suggestions**.
Propose minimal patches where possible. Include test guidance for each critical item.

CLAUDE.md (Memory)

一个定义了工作风格、质量标准和关键项目文档的示例记忆文件。

# Working style
- Start in **Plan mode**; outline approach, tests, and risks. Wait for approval.
- Execute in **small, reversible steps**; propose staged commits with diffs.
- Place generated docs in `docs/ai/`. Avoid ad-hoc files elsewhere.

# Code quality
- Prefer pure functions and dependency injection.
- JS/TS: strict TS, eslint + prettier; tests via vitest/jest.
- Go: table-driven tests; `gofmt`/`golangci-lint`.
- Security: never read `.env*` or `./secrets/**`; do not write tokens to disk.

# Project map
@README.md
@docs/architecture.md
@docs/testing.md

7. 问题排查与总结

  • 图片粘贴问题:如果从剪贴板粘贴不起作用(在某些 Linux 终端上很常见),请转而使用可靠的拖放或文件路径方法。
  • 过于激进的编辑:在日常工作流中,避免使用 bypassPermissions 模式(通过 claude --dangerously-skip-permissions 启动)。更好的方法是使用 acceptEdits 模式,并结合明确定义的 allow/ask/deny 规则。在合并前,务必审查所有差异。
  • 记忆膨胀:如果你发现 Claude 开始遗漏指令,可能是你的 CLAUDE.md 文件变得太大了。可以通过将细节移至导入的文档文件中来缩短它。你也可以在会话期间重申关键规则以重新聚焦,或使用 /compact 命令清理会话历史。

Claude Code 不仅仅是一个代码生成器,它是一个用于构建高效的、AI 增强开发流程的平台。通过超越基础的提示词并采纳这些中高级技巧,你可以建立一个更快、更安全、更具协作性的工作流。大胆尝试这些功能,根据你的项目进行调整,并探索软件开发的新范式吧。

OpenAI: 前沿企业落地生成式 AI 的七大启示

· 阅读需 8 分钟

当许多企业仍在探讨生成式 AI 的潜力时,一批先行者已经悄然将其融入核心业务,并取得了惊人的成果。OpenAI 最新发布的《AI in the Enterprise》报告,通过深入调研摩根士丹利 (Morgan Stanley)、Indeed、Klarna 等七家行业领导者,为我们揭示了企业成功落地 AI 的七条通用规律。这不仅是技术的胜利,更是一场关于思维范式、组织协同和商业价值的变革。

七大洞见:从试探到规模化的实战路径

1. 从严谨评估(Evals)开始,先求“可控”再谈“增长”

AI 的引入绝非一蹴而就。在全面推广前,建立一套严谨、可量化的评估体系(Evaluation, 或称 “eval”)是成功的基石。

以金融巨头摩根士丹利为例,面对高度敏感的客户业务,他们没有盲目跟进,而是首先围绕三大核心场景——语言翻译的准确性、信息摘要的质量、以及与人类专家的答案比对——建立了一套多维度的 eval 评分系统。只有当模型在这些评估中被证实“可控、安全且能带来增益”后,才会被逐步推广至一线业务 。

这一审慎的策略带来了丰厚回报:如今,摩根士丹利 98% 的财务顾问每天都在使用 AI;内部知识库的文档命中率从 **20% 跃升至 80% ;过去需要数天才能完成的客户跟进,现在缩短至数小时 。

2. 把 AI 深度嵌入产品体验,而非“外挂”一个聊天机器人

最成功的 AI 应用,往往是那些无缝融入现有产品、提升核心用户体验的。它应该像水和电融入人的生活那样,成为产品原生的组成部分。

全球最大的招聘网站 Indeed 就是一个绝佳范例。他们没有简单地做一个求职问答机器人,而是利用 GPT-4o mini 的能力,为每一条系统匹配的岗位自动生成一段个性化的“推荐理由”。这个看似微小的改动,精准地解答了求职者心中“为什么是我”的疑问,极大地提升了匹配效率和人性化体验。结果是,求职者的申请发起量提升了 20%,而后续雇主成功录用的比例也提升了 13%

3. 及早行动,享受知识与经验的“复利雪球”

AI 的价值是通过不断迭代和学习来累积的,起步越早,组织能享受到的“复利”效应就越显著。

瑞典金融科技公司 Klarna 的 AI 客服系统是这一原则的生动体现。在短短几个月内,AI 客服就接管了三分之二的客户聊天会话,承担了数百名人类坐席的工作量 。更惊人的是,客户问题的平均解决时间从 11 分钟骤降至 2 分钟 。这一举措预计将为公司带来每年 4000 万美元的利润增长 。如今,Klarna 90% 的员工已在日常工作中使用 AI ,整个组织因此获得了更快的创新速度和持续优化的能力。

4. 通过自定义与精调(Fine-tuning)贴合业务,打造护城河

通用大模型能力强大,但真正的竞争优势来自于“量体裁衣”。通过在你独有的数据和业务场景上进行模型精调,才能使其更懂你的业务。

家居建材零售商 Lowe’s 在优化其电商搜索功能时,面临着海量供应商提供的、格式不一的商品数据 。通过利用 OpenAI 的 API 对 GPT-3.5 模型进行精调,Lowe's 将其训练成了一个能深度理解家居行业术语和消费者搜索习惯的“专家” 。精调后的模型,商品标签的准确率提升了 20%,错误检测能力更是提升了 60%

5. 把工具交给一线专家,由下而上激发创新

最了解业务痛点的人,往往是身处一线、每天与问题打交道的员工。将简单易用的 AI 工具交到他们手中,能由下而上地催生出最实用的解决方案。

全球性银行 BBVA 采取了这种“专家主导”的策略,向全员开放了 ChatGPT Enterprise 。在短短五个月内,员工们自发创建了超过 2,900 个定制化的 GPT 应用 。这些应用涵盖了从信用风险评估、法务合规问答到客户 NPS 调研的情感分析等多种场景 。许多过去需要数周才能完成的分析和报告流程,如今被缩短到了几小时

6. 解除开发者瓶颈,用“平台化”交付 AI 能力

在许多企业,研发资源是创新的主要瓶颈 。为了打破这一僵局,建立一个统一、高效的 AI 开发平台至关重要。

拉丁美洲最大的电商与金融科技公司 Mercado Libre 创建了一个名为 “Verdi” 的内部 AI 平台 。该平台整合了语言模型、API 和其他开发工具,让公司的 17,000 名开发者能够用自然语言像“拼乐高”一样快速构建、部署和迭代 AI 应用 。平台化交付带来了惊人的效率提升:商品库存的上架和编目速度提升了 100 倍,对欺诈性商品的检测准确率高达近 99%

7. 设定大胆的自动化目标,将人力解放到高价值工作中

每个企业都充斥着大量重复、繁琐的流程。与其视之为必要的运营成本,不如设定一个大胆的目标:用 AI 代理(Agent)将其彻底自动化。

OpenAI 自身就是这一理念的践行者。他们构建了一个内部自动化平台,用于处理支持团队的日常工作 。这个平台可以自动访问客户数据、阅读知识库文章、起草回复邮件,甚至直接在系统中更新账户信息或创建支持工单 。如今,该平台每月自动处理数十万个任务,将员工从重复劳动中解放出来,专注于更具创造性和战略性的高价值工作 。

共同的成功脉络

纵观这些成功案例,其关键并非在于追求最前沿的模型或技术,而在于一套共通的战略思想:

  • 评估驱动 (Evaluation-Driven):将严格的评估作为项目启动和迭代的“看门人”。
  • 产品思维 (Product Mindset):将 AI 作为提升核心产品体验的内生能力,而非附加功能。
  • 持续投资 (Continuous Investment):认识到 AI 的价值在于复利,愿意长期投入资源、积累数据和培养组织能力。
  • 平台治理 (Platform Governance):通过平台化手段,将 AI 能力安全、合规、高效地赋能给整个组织。

成功的路径是相似的:先聚焦高投资回报率(ROI)的场景做深做透,然后用积累的数据、经验和组织学习,反哺下一轮更大规模的迭代。

给技术团队的实操清单

  1. 像做“需求评审”一样做 eval:在项目上线前,用量化指标评估其潜在风险与收益。
  2. 让每个模块“原生支持 AI”:在产品设计之初就思考 AI 如何融入,而不是事后外挂一个聊天窗口。
  3. 尽早启动“复利飞轮”:开始积累高质量的业务数据、梳理核心流程,并培养员工的 AI 心智。
  4. 建立“模型即产品”的精调流水线:将模型微调流程化、自动化,形成独特的、难以复制的差异化护城河。
  5. 用低门槛工具赋能一线:将 AI 能力通过 Custom GPTs 等形式下沉到业务部门,让真实场景倒逼平台能力的完善。
  6. 提供统一的“脚手架”:为开发者提供统一的安全、合规、监控和路由框架,降低创新门槛。
  7. 锁定“三高”流程:优先自动化那些高重复、低主观判断、高跨系统的流程,最大化 AI 代理的价值。

行动建议: 现在就从你的业务中挑选一个长期存在的痛点,开启第一轮 eval 评估。从小小的胜利开始,你的 AI 复利曲线已经在这片充满机遇的土地上,悄悄起跑。

互联网商务的未来:2025年Stripe Sessions大会五大关键洞察

· 阅读需 6 分钟

每年,Stripe Sessions大会都是窥探互联网经济未来发展的重要窗口。今年的大会同样精彩纷呈,Collison兄弟展示了一个既迫在眉睫又极具变革性的商业愿景。认真消化了主题演讲的内容后,我不禁为数字商业格局中正在形成的清晰趋势而感叹。

下面就是我认为最值得关注的五大关键洞见。

一、Stripe生态已成为不可忽视的经济力量

Stripe生态系统的规模已达到令人瞩目的宏观经济水平:

  • 2024年,Stripe平台上的企业增长速度比标普500指数快7倍
  • 这些企业的集体增长创造了4000亿美元的新增支付交易额
  • Stripe目前每年处理超过1.4万亿美元的交易——约占全球GDP的1.3%
  • 大约200万美国企业(占美国企业总数的6%)正在Stripe平台上构建业务

引人注目的不仅是这一规模,还有其应用范围之广。从财富100强巨头到小型创业公司,从AI实验室到创作者经济平台,Stripe实际上已经成为互联网的金融基础设施层。

当一个平台触及如此广泛的经济领域时,其走向的每一个变化都变得格外重要。互联网经济不再是边缘领域——它正日益成为整体经济的核心部分。

二、AI公司正在刷新所有增长记录

主题演讲中最引人瞩目的发现是AI原生公司的扩张速度之快,远超前几代创业公司:

  • 新兴AI公司平均只需9个月就能达到500万美元的年度经常性收入
  • Lovable在短短4个月内就实现了5000万美元的年度经常性收入
  • Cursor在两年内达成超过3亿美元的年度经常性收入,同时保持着惊人的效率(员工人均创收500万美元)

作为对比,SaaS行业鼎盛时期,典型企业通常需要18-24个月才能达到类似的里程碑。这种增长速度的加速是前所未有的。

是什么造就了这种超高速增长?AI公司主要受益于三大优势:

  1. 与生俱来的全球覆盖能力——从创立第一天起就能服务全球200多个国家已成为新常态
  2. 比传统SaaS产品更高的用户留存率
  3. 远低的运营复杂度,使精简团队能够支持海量用户群体

这表明我们正在经历的不仅是技术迭代,更是商业速度的根本性变革。过去制约企业增长的各种约束正在被系统性地打破。

三、稳定币正在静默重塑全球金融

虽然AI占据了大多数媒体头条,但稳定币可能最终带来同等规模的经济影响。Patrick Collison将稳定币比作"价值的室温超导体",这一比喻精准地捕捉了它们的变革潜力。

看看这些发展趋势:

  • 自去年以来,稳定币的供应量增长了39%
  • 主要稳定币发行商正成为美国国债的重要持有者
  • 从SpaceX这样的大企业到众多小型创业公司都在利用稳定币消除全球业务中的摩擦

真正的突破在于稳定币如何解决跨境金融服务的长期挑战。企业现在可以同时在数十个国家开展业务,无需应对复杂的本地银行关系网络和货币转换问题。

这显著降低了全球扩张的门槛,为以无国界价值转移为核心的全新商业模式创造了可能性。

四、"代理商务"将重新定义我们的购物方式

大会中提出的最具前瞻性的概念莫过于"模型发起商务协议"(MCP)——这使AI代理能够直接代表用户完成购买。

演示展示了Cursor(一款AI编码助手)在编码环境内直接购买Vercel的机器人防护服务,全程无需离开工作流程。

这指向了商业形态的深刻变革:

  • AI工具将成为原生销售渠道
  • 购买行为将在工作流程中自然发生
  • 传统的网站/应用购物结账体验可能变得次要

对于企业而言,这意味着需要彻底重新思考分销策略。每个AI工具都将成为潜在的销售点,AI代理将基于用户意图而非明确的购物行为来促成购买决策。

这对营销、定价和客户获取策略产生的影响将是深远的。我们正在从搜索驱动的商务模式转向意图驱动的商务模式,AI能够在用户需求被完全表达之前就理解并行动。

五、突破性成功的新公式已然改写

除了特定技术外,John Collison还总结了当今增长最快企业的共同特征:

天生全球化

最成功的创业公司现在从第一天起就瞄准全球市场,而非遵循传统的先国内后国际的路径。

极度专业化

互联网的庞大覆盖面使高度专业化的产品不仅变得可行,而且更具优势。Harvey(法律AI)和Naba(医疗健康AI)等公司展示了行业专精如何加速用户采纳。

基于使用的定价模式

AI经济学和推理成本正推动定价策略从固定订阅转向基于成果和使用量的动态模式。

惊人的员工效能比

当今的突破性公司达到了过去难以想象的效率水平。Gloss Genius仅用300名员工就支持了90,000家美容沙龙的运营。

这些特征代表着对企业构建方式的根本性重新思考。传统的科技公司扩张手册正在被迅速重写。

这对创业者和投资者意味着什么

对于正在构建或投资科技企业的人来说,几个关键指导原则浮现出来:

  1. 从一开始就放眼全球——地理边界的限制越来越人为

  2. 拥抱极度专精——在狭窄领域成为最佳解决方案比在多个领域表现一般更有价值

  3. 为代理商务做好准备——思考产品如何与AI助手而非仅与人类用户交互

  4. 早期整合稳定币——在竞争对手之前为全球客户消除摩擦

  5. 优化用户留存——在AI经济中,具有强大留存指标的高粘性产品正在赢得市场

最令人振奋的是,这一切仍处于起步阶段。AI和稳定币才刚刚开始重塑商业世界。如今以这些技术为基础打造的企业很可能将定义互联网经济的下一个十年。

正如Patrick Collison所指出的,技术变革的动荡时期历来有利于大胆创新。对于愿意拥抱这些变化的创业者来说,机遇从未如此丰富。


你对商业未来的发展有何看法?你是否在所处行业中观察到了这些趋势?欢迎在评论区分享你的见解。

AI 销售开发代表的承诺与痛苦:实地报告

· 阅读需 5 分钟

在不断优化销售渠道的过程中,AI 销售开发代表(AI SDRs)已成为 2025 年最热门的工具之一。它们承诺通过自动化潜在客户开发和大规模个性化外联,在不增加人力的情况下,将合格的会议安排到你的日历上。

但它们真的兑现了承诺吗?

在与数十位销售领导者交谈并深入研究 G2、Reddit 和 Slack 社区的数百条评论后,我发现了一个比炒作更复杂的故事。

AI 销售开发代表

11 倍问题:高期望,混合结果

11x.ai 已成为这一领域的典型代表,声称可以让 SDRs 的生产力提高“11 倍”。这是一个大胆的承诺,并设定了很高的标准。

“一位销售总监告诉我:‘我期望 AI 能像初级代表一样研究每个潜在客户,但我得到的只是填入公司名称的填空游戏。’”

这并不是个例。在论坛和客户聊天中,一个共同的主题浮现:邮件感觉自动化、模板化,往往过于通用而无法奏效。

而当潜在客户回复时?AI 往往会出错。正如一位 Reddit 用户所说:

“它可以整天发送邮件,但一旦有人说出意料之外的话,它就短路了。”

这留下了一个奇怪的交接体验——潜在客户以为他们在与人类聊天,但当实际代表在对话中途介入时,他们感受到了变化。

实际有效的地方

尽管有挫折,AI SDRs 在某些方面确实表现出色:

  • 外联量:团队一致报告说,漏斗顶端活动大幅增加。一支欧洲团队告诉我,他们现在可以通过 AI 代表“全天候”跨时区进行外联。
  • 潜在客户开发帮助:像 11x.ai 这样的工具在寻找潜在客户方面表现不错。“它找到的联系人列表比预期的要好,”一位德国用户说。
  • 个性化见解:Humantic AI 以惊人的准确个性化档案给多个团队留下了深刻印象。“就像为第一次通话准备了作弊码,”一位 G2 评论者说。
  • 实时辅导:Cresta 采取不同的方法——实时辅导人类 SDRs,而不是取代他们。这对于新代表的入职培训或提高通话质量特别有用,而无需聘请全职培训师。

超越性能:隐藏的痛点

超越功能问题,更深层次的结构性问题开始浮现:

  • 锁定合同:大多数平台要求每年 35,000 至 60,000 美元的承诺,几乎没有试用的机会。“我们被一个对我们不起作用的工具困住了,”一位买家说。
  • 技术故障:从错误到延迟的仪表板,用户——尤其是在欧洲——报告了破坏工作流程的可靠性问题。
  • 定制限制:如果你的受众是小众或信息复杂,AI 往往会遇到困难。“我们调整了好几周,”一位 B2B SaaS 高管说。“邮件仍然感觉很通用。”
  • 数据安全担忧:随着敏感客户数据流经这些系统,几家大公司对其信息可能如何使用或重用表示担忧。

战略困境:构建、购买还是增强?

鉴于权衡,销售领导者以三种方式接近 AI SDRs:

  • 全力以赴者:通常是快速移动、高量的组织,优先考虑规模。他们愿意接受 AI 的粗糙边缘。
  • 增强者:使用 AI 支持(而不是取代)代表的团队。他们使用像 Regie.ai 这样的工具来撰写邮件,使用 Humantic 来准备通话,并让人类控制对话。
  • DIY 构建者:技术娴熟的组织在 GPTs 和内部数据之上构建自定义工作流程。虽然工作量更大,但这让他们拥有控制权并避免供应商锁定。

需要改进的地方

要从“有趣”变为不可或缺,AI SDR 供应商需要在几个方面取得实质性进展:

  1. 处理对话,而不仅仅是介绍——最大的差距在于后续。如果 AI 无法自然回应,幻觉就会破裂。
  2. 超越模板——真正的个性化应该参考真实的业务背景,而不仅仅是职位和公司名称。
  3. 使定价更灵活——团队希望在承诺六位数之前进行试验。
  4. 修复用户体验——更好的入职培训、更快的加载时间和更少的错误将大有帮助。
  5. 允许更深层次的定制——为公司提供工具,以教授 AI 他们的价值主张、信息框架和产品细微差别。

未来发展方向

市场似乎正在分裂为两个方向:

  • 垂直 AI SDRs:针对医疗、金融或制造业语言、工作流程和法规进行培训的行业特定工具。
  • 轻量级助手:支持代表撰写、潜在客户开发和通话准备的更实惠工具——而不是假装取代他们。 a 那些倾向于增强而非自动化的公司可能最终会建立更可持续的业务。

底线

AI SDRs 是企业 AI 炒作周期的经典例子。其推销——一个无限可扩展的数字销售团队——是不可抗拒的。但现实仍在追赶。

对于大多数团队来说,今天的明智之举是有针对性的增强: 让 AI 做它擅长的事情——潜在客户开发、撰写、支持——同时让人类参与处理异议、关系建立和成交。

因为在销售中,就像在生活中一样,人情味仍然很重要。也许现在比以往任何时候都更重要。

你使用过 AI SDRs 吗?你的体验如何——值得炒作还是为时过早?

大语言模型智能体

· 阅读需 3 分钟
  1. LLM 推理:关键理念与局限性 探讨推理在大型语言模型(LLM)中的关键作用,重点介绍关键进展、局限性以及对 AI 开发的实际影响。

  2. 安全可信的 AI 代理与基于证据的 AI 政策 探索 AI 能力的指数级增长及其相关风险。了解稳健、公平和注重隐私的 AI 系统,以及基于证据的政策建议,以确保安全的 AI 开发。

  3. 代理 AI 框架 发现代理 AI 框架的变革潜力,简化自主系统的开发。了解其在不断发展的 AI 领域中的应用、优势和挑战。

  4. 生成式 AI 的企业趋势 探索生成式 AI 的最新企业趋势,重点关注机器学习、多模态系统和 Gemini 模型的进展。了解解决当前局限性的策略。

  5. 复合 AI 系统和 DSPy 探讨复合 AI 和 DSPy 的 AI 系统演变。了解模块化架构如何通过优化的编程技术增强控制、效率和透明度。

  6. 软件开发的代理 探索代理在软件开发中的变革作用,强调其对工作流程的影响、挑战以及技术创新的未来。

  7. 企业工作流程代理 探讨 LLM 驱动的代理在企业工作流程中的潜力,重点关注生产力、决策制定和未来的挑战。

  8. 统一神经和符号决策 探索神经和符号决策方法的整合,解决 LLM 的关键挑战,并为推理和规划提出创新解决方案。

  9. 开源基础模型 分析开源基础模型在推动创新中的关键作用。发现 API-only 模型带来的挑战以及研究和合作的机会。

  10. 衡量代理能力与 Anthropic 的 RSP 了解 Anthropic 的责任扩展政策(RSP),重点关注 AI 安全、能力测量以及负责任开发中的挑战。

  11. 安全可信的 AI 代理 深入探讨 AI 系统中误用和故障的风险,并探索确保稳健、公平和注重隐私的 AI 开发的策略。

LLM Reasoning: Key Ideas and Limitations

· 阅读需 2 分钟

Reasoning is pivotal for advancing LLM capabilities

Introduction

  • Expectations for AI: Solving complex math problems, discovering scientific theories, achieving AGI.
  • Baseline Expectation: AI should emulate human-like learning with few examples.

Key Concepts

  • What is Missing in ML?
    • Reasoning: The ability to logically derive answers from minimal examples.

Toy Problem: Last Letter Concatenation

  • Problem

    : Extract the last letters of words and concatenate them.

    • Example: "Elon Musk" → "nk".
  • Traditional ML: Requires significant labeled data.

  • LLMs: Achieve 100% accuracy with one demonstration using reasoning.

Importance of Intermediate Steps

  • Humans solve problems through reasoning and intermediate steps.
  • Example:
    • Input: "Elon Musk"
    • Reasoning: Last letter of "Elon" = "n", of "Musk" = "k".
    • Output: "nk".

Advancements in Reasoning Approaches

  1. Chain-of-Thought (CoT) Prompting
    • Breaking problems into logical steps.
    • Examples from math word problems demonstrate enhanced problem-solving accuracy.
  2. Least-to-Most Prompting
    • Decomposing problems into easier sub-questions for gradual generalization.
  3. Analogical Reasoning
    • Adapting solutions from related problems.
    • Example: Finding the area of a square by recalling distance formula logic.
  4. Zero-Shot and Few-Shot CoT
    • Triggering reasoning without explicit examples.
  5. Self-Consistency in Decoding
    • Sampling multiple responses to improve step-by-step reasoning accuracy.

Limitations

  • Distraction by Irrelevant Context
    • Adding irrelevant details significantly lowers performance.
    • Solution: Explicitly instructing the model to ignore distractions.
  • Challenges in Self-Correction
    • LLMs can fail to self-correct errors, sometimes worsening correct answers.
    • Oracle feedback is essential for effective corrections.
  • Premise Order Matters
    • Performance drops with re-ordered problem premises, emphasizing logical progression.

Practical Implications

  • Intermediate reasoning steps are crucial for solving serial problems.
  • Techniques like self-debugging with unit tests are promising for future improvements.

Future Directions

  1. Defining the right problem is critical for progress.
  2. Solving reasoning limitations by developing models that autonomously address these issues.

安全可信的 AI 代理和基于证据的 AI 政策

· 阅读需 2 分钟

关键主题

  • 大型语言模型(LLM)的指数增长及其能力。
  • AI 系统相关的广泛风险。
  • 确保 AI 的可信度、隐私和一致性面临的挑战。
  • 基于科学和证据的 AI 政策的重要性。

广泛的 AI 风险

  • 误用/恶意使用:诈骗、虚假信息、生物武器、网络攻击。
  • 故障:偏见、系统错误造成的伤害、失去控制。
  • 系统性风险:隐私、劳动力市场影响、环境问题。

AI 安全 vs. AI 安保

  • AI 安全:防止 AI 系统造成的伤害。
  • AI 安保:保护 AI 系统免受外部威胁。
  • 对抗性环境:安全机制必须能抵御攻击。

AI 的可信度问题

  • 鲁棒性:安全有效的系统,包括对抗性和分布外鲁棒性。
  • 公平性:防止算法歧视。
  • 数据隐私:防止敏感数据的提取。
  • 一致性目标:确保 AI 系统有用、无害且诚实。

训练数据隐私风险

  • 记忆化:从大型语言模型中提取敏感数据(如社会安全号码)。
  • 攻击:训练数据提取、提示泄露和间接提示注入。
  • 防御:差分隐私、去重和鲁棒训练技术。

对抗性攻击和防御

  • 攻击
    • 提示注入、数据投毒、越狱。
    • 虚拟和物理环境中的对抗性例子。
    • 利用 AI 系统的漏洞。
  • 防御
    • 提示级防御(例如,重新设计提示,检测异常)。
    • 系统级防御(例如,信息流控制)。
    • 通过形式验证的安全设计系统。

安全设计的系统

  • 主动防御:构建可证明安全的系统。
  • 挑战:难以应用于非符号组件,如神经网络。
  • 未来系统:混合符号和非符号系统。

AI 政策建议

关键优先事项:

  1. 更好地理解 AI 风险

    • 全面分析误用、故障和系统性风险。
    • 边际风险框架评估 AI 对社会的影响。
  2. 增加透明度

    • 标准化的 AI 设计和开发报告。
    • 示例:数字服务法案,美国行政命令。
  3. 开发早期检测机制

    • 实验室内对抗性场景测试。
    • 部署后监测(例如,不良事件报告)。
  4. 缓解和防御

    • 安全 AI 的新方法。
    • 加强社会对误用的抵御能力。
  5. 建立信任并减少碎片化

    • 协作研究和国际合作。

行动呼吁

  • 未来 AI 政策的蓝图
    • 风险向量和政策干预的分类。
    • 针对社会风险的条件响应。
  • 多方利益相关者合作
    • 推进科学理解和基于证据的政策。

资源Understanding-ai-safety.org

衡量代理能力和 Anthropic 的 RSP

· 阅读需 2 分钟

Anthropic 的历史

  • 成立:2021 年,作为一家公益公司(PBC)。
  • 里程碑
    • 2022 年:Claude 1 完成。
    • 2023 年:Claude 1 发布,Claude 2 上线。
    • 2024 年:Claude 3 上线。
    • 2025 年:在可解释性和 AI 安全方面取得进展:
      • 宪法 AI 的数学框架。
      • 潜伏代理和叠加的玩具模型。

负责任的扩展政策 (RSP)

  • 定义:确保 AI 能力安全扩展的框架。
  • 目标
    • 为安全决策提供结构。
    • 确保公众问责。
    • 在安全决策上进行迭代。
    • 为政策制定者提供模板。
  • AI 安全等级 (ASL):仿照生物安全等级 (BSL) 处理危险生物材料,调整安全性、安全性和操作标准与模型的灾难性风险潜力
    • ASL-1:较小的模型:无重大灾难性风险(例如,2018 年的 LLMs,国际象棋 AI)。
    • ASL-2:当前大型模型:危险能力的早期迹象(例如,有限可靠性的生化武器指令)。
    • ASL-3:高风险模型:具有重大灾难性误用潜力或低级自主性的模型。
    • ASL-4 及更高:推测性模型:涉及灾难性风险或自主性质的定性升级的未来系统。
  • 实施
    • 安全挑战和方法。
    • 案例研究:计算机使用。

衡量能力

  • 挑战:基准测试变得过时。
  • 示例
    • 相对于人类的任务完成时间:Claude 3.5 在几秒钟内完成任务,而人类开发者需要 30 分钟。
    • 基准
      • SWE-bench:评估现实世界的软件工程任务。
      • Aider 的基准:代码编辑和重构。
  • 结果
    • Claude 3.5 Sonnet 在关键基准测试中优于 OpenAI o1。
    • 更快且更便宜:$3/Mtok 输入,相比 OpenAI o1 的 $15/Mtok 输入。

Claude 3.5 Sonnet 亮点

  • 代理编码和游戏开发:设计用于在现实场景中提高效率和准确性。
  • 计算机使用演示
    • 编码:展示了先进的代码生成和集成。
    • 操作:展示了具有安全考虑的操作任务。

AI 安全措施

  • 关注领域
    • 扩展治理。
    • 能力测量。
    • 与学术界合作。
  • 实际安全
    • ASL 标准实施。
    • 部署保障措施。
    • 第一年的经验教训。

未来方向

  • 扩展和治理改进。
  • 增强的基准和学术合作。
  • 解决可解释性和潜伏代理风险。

开源基础模型

· 阅读需 2 分钟

关键趋势

  • 能力飞速提升:自 2018 年以来,LLMs 快速发展。
  • 访问减少:从开放的论文、代码和权重转向仅限 API 的模型,限制了实验和研究。

为什么访问很重要

  • 访问推动创新:
    • 1990 年代:数字文本推动了统计 NLP。
    • 2010 年代:GPU 和众包推动了深度学习和大型数据集的发展。
  • 访问级别定义了研究机会:
    • API:像认知科学家一样,测量行为(提示-响应系统)。
    • 开放权重:像神经科学家一样,探测内部激活以实现可解释性和微调。
    • 开源:像计算机科学家一样,控制和质疑系统的每个部分。

基础模型的访问级别

  1. API 访问

    • 作为通用功能(例如,总结、验证、生成)。
    • 启用问题解决代理(例如,网络安全工具、社会模拟)。
    • 挑战:弃用和有限的可重复性。
  2. 开放权重访问

    • 实现可解释性、蒸馏、微调和可重复性。
    • 突出模型:Llama、Mistral。
    • 挑战:
      • 测试模型独立性和权重修改带来的功能变化。
      • 现有模型的蓝图限制。
  3. 开源访问

    • 体现创造力、透明度和协作。
    • 示例:GPT-J、GPT-NeoX、StarCoder。
    • 由于计算和数据限制,与封闭模型相比仍存在性能差距。

关键挑战和机遇

  • 开源障碍
    • 发布网络衍生训练数据的法律限制。
    • 重新训练所需的显著计算资源。
  • 扩展计算
    • 集中闲置的 GPU。
    • 像 Big Science 这样的众包努力。
  • 新兴研究问题
    • 架构和数据如何塑造行为?
    • 扩展定律能否预测更大规模的性能?

反思

  • 大多数研究发生在 API 和固定权重的限制下,限制了探索。
  • 开放权重模型在可解释性和实验方面具有巨大价值。
  • 开源努力需要集体资金和基础设施支持。

最终结论

访问塑造了基础模型创新的轨迹。为了释放其全部潜力,研究人员必须质疑数据、架构和算法,同时探索新的协作和资源整合模式。