AI 2041:通往十个未来的旅程
理解愿景
《AI 2041:我们的十个未来愿景》代表了两位杰出人物的雄心勃勃的合作:一位是拥有30多年人工智能领域开创性工作的世界顶尖AI专家李开复,另一位是屡获殊荣的中国科幻作家陈楸帆(Stanley Chan)。这本书于2021年9月出版,全书480页,它没有提供关于机器人霸主或超级智能机器的疯狂猜测。相反,它呈现了更有价值的东西:基于未来20年内有超过80%可能性实现的技术,构建出的现实场景。
这本书的结构非常巧妙。十章中的每一章都将陈楸帆的一篇虚构短篇故事与李开复的一篇分析性文章配对。这些故事设定在全球各地,从孟买到拉各斯,从东京到旧金山,讲述了真实的人们在2041年面对的现实困境。随后的文章则解释了背后的科学原理,讨论了这些技术是什么,它们如何工作,以及它们对社会意味着什么。李开复刻意专注于现实的近期发展,而不是推测性的人工通用智能(AGI),他认为,“即便没有或很少有突破,人工智能仍将对我们的社会产生深远的影响。”
金色大象:当算法强化古老的偏见
2041年的孟买,在象神节庆祝期间,少女纳亚娜(Nayana)生活在一个被深度学习改变的世界里。她的家人最近购买了“象神保险”,这是一个由人工智能驱动的计划,极大地降低了他们的保费。但代价是,他们必须分享所有个人数据,并使用一套特定的应用程序来处理一切事务——投资、购物、健康监测,甚至喝水提醒。
起初,这个系统运行得非常出色。应用程序会发出有益的提醒:喝水、慢点开车、戒烟。每一个健康决策都会让保费下降。纳亚娜的父亲彻底戒了烟。这家人将这些建议视为仁慈的指导,感激地接受了这个看似有利的安排。
然后,纳亚娜对在虚拟学校认识的同学萨赫(Sahej)产生了兴趣。当学生们做“展示与讲述”演示时,萨赫分享了他对制作面具的热情,透露了一些在传统课堂上不会出现的个人生活细节。纳亚娜被他吸引,但她的家庭保险费立即飙升。
当流言揭示萨赫是达利特人(Dalits)的后裔时,紧张关系爆发了。达利特人在印度种姓制度中历来被视为“不可接触者”。纳亚娜的母亲为了让保费保持在可控范围内,向她施压,要求她避开萨赫。尽管母亲的初衷是好的——想为孩子们提供更好的生活——但她的论点揭示了一个令人不安的现实:为了维持他们的生 活方式,必须做出这样的权衡。
在一次关键的对话中,萨赫雄辩地解释了正在发生的事情。人工智能并没有被明确编程输入印度种姓制度的知识,但它从数据模式中学习到,与来自较低种姓的人交往与某些风险相关。也许是经济不稳定、社会孤立或健康因素。该算法通过最大化其狭隘的目标——最小化保险风险——来延续社会偏见。它通过纯粹的数学学会了带有偏见。
纳亚娜面临着在算法控制和个人能动性之间的选择。她决定反抗,选择探索她与萨赫的关系,尽管这会带来社会和经济上的反弹。她的选择申明了一些根本性的东西:人类的自主权比优化的保费更重要。
李开复的文章引入了**“人工智能外部性”**这一关键概念——即人工智能系统为优化狭隘目标而产生的意想不到的后果。社交媒体算法为了最大化用户参与度而强化偏见和负面情绪。保险人工智能通过检测相关性而 perpetuates 种姓歧视,却不理解因果关系或背景。这些在有偏见的数据上训练出来的系统,在看似客观的同时放大了现有的不平等。“黑箱”的特性使得偏见难以识别和纠正。
深度学习通过多层人工神经网络模仿人脑功能。通过输入大量关于用户行为、健康指标、购物、位置和社交关系的数据,多层神经网络能够识别出人类可能忽略的模式。李开复预测,到2041年,人工智能将比用户更了解他们自己。行为引导将变得复杂且难以察觉,通过互联的数据服务,存在产生“社会信用”体系的风险。这一章提出了关于隐私与便利、以及当别无选择时“知情同意”是否还有意义等根本性问题。