近日,在斯坦福发生了一场在世界范围内引发广泛反响的学术论战,论战双方分别是以色列著名历史学家尤瓦尔•赫拉利(Yuval Noah Harari),与斯坦福“以人为本” AI研究院领导者李飞飞。整场论战以未来时代人工智能发展为主题,对人工智能的发展做出了长期的学术思维思考。
一、人类能否在AI的发展中保持自己的自由、思考能力?
赫拉利:AI带来的不仅是一场科技挑战,还是一个哲学挑战。当 AI 和生物科技结合起来后,我们现在所谓的 “自由意志”、“独立思考”、“民主决策” 等,都将在机器的算法前分崩离析。。
人工智能建立在大量数据之上,一个 AI 算法已经能够比我们单个人脑做出更好的决策,比我们自己还了解自己。它准确知道我们喜欢什么、想买什么。
李飞飞:首先,人工智能的诞生就是从机器的算法与生物学,确切的说是脑神经学的对话和融合开始的。尤其是机器学习,它就是从模拟大脑的神经网络的。
其次,人工智能和生物医疗的融合目前在应用层面上已经产生了非常积极的作用,尤其是在医药和诊断等改善人们的医疗健康领域,两者深入融合将更多的造福人类。
二、当AI开始介入人类的情感生活, 人类又将面对什么样的局面?
赫拉利:那要看你怎么定义 “爱” 。你觉得 AI 会爱吗?拥有意识吗?难道说,非人类的组织器官就无法识别和表达爱吗?
李飞飞:你这个结论里面有两个假设,第一,你假设我们现在的人工智能是如此之强大,强大到不可思议。它不仅能预测和判断我们的金融消费行为,还能预测到人类的爱和意识这个层次。这种 AI 离我们这个时代还很远、很远…… 我不知道我们还需要多少代人才能实现。
第二,你假设只有 AI 这种技术在未来一家独大,强大到凌驾于一切。事实上,过去,现在和未来,都有很多种其他科技和AI同时发展,有的技术甚至比AI还要强大。
三、当AI拥有自主价值理念时,人类是否也将成为商品?
赫拉利:另一个很重要的问题是,现在的 AI 并不透明,我们常常在不经意间就给了 AI 大量关于我们自己的数据,而且我们也不知道它到底在对我们做什么。如果 AI 比我自己更了解自己,但它不跟我分享信息,而是跟广告商、大公司、政府组织联合来利用我,怎么办?
李飞飞:这正是为什么我们斯坦福 “以人为本” AI 研究院设定了几个核心的研究原则。其中一个很重要的原则,就是我们会更注重能够更好解释或反应人类智能的 AI 技术的发展,比如 “可解释AI (explainable AI)” 以及 对数据库的依赖更少的机器学习方法,比如直接从人类的经验、创造性和学习方式得到启发,更接近人类的人工智能技术。
另一个原则,是我们会和跨学科的科学家们以及政策制定者,企业家们一起工作,更好定义和应对 AI 会引发的隐私、伦理乃至政治和经济问题。目前,我们已经有超过 200 多位斯坦福的学者参与其中了。
赫拉利:我觉得一个解决方法是,我们每个人要更好的更多的了解自己,不要让 AI 比我们更了解自己。只要 AI 不如我们自己了解自己,AI 替我们做主的威胁就会小很多… 不过话说回来,我们很多人真的一点也不了解自己。
四、如何让世界在AI中实现发展,避免恶意竞赛?
赫拉利:另一个让我担心的是,AI 发展是一个少数国家,尤其是中、美两国占主导优势的技术领域。很多其他非洲国家、亚洲国家,乃至欧洲国家在这个领域已经远远落后于亚马逊或者腾讯。
而且更可怕的是,在 AI 的发展中,竞争的感觉越来越浓,而不是合作。如果 AI 演变成一场全球科技竞争,那是对全人类的一个坏消息。
从经济上讲,这种 AI 发展不平衡、一两家独大的局势,将很可能以数据殖民的方式重现19世界的全球殖民地统治。
从政治上讲,那些AI发展落后的国家会在这种竞争里变得更紧张,因为,即便我已经出局了,我也不希望任何一家做大啊!如果有一天美国的人工智能世界第一,只要它是只服务于美国的利益的,我怎么能够信任它提供的服务呢?而且,一旦有天加州的AI技术和算法能取代那些现在靠便宜产品生存的国家,那些国家的经济甚至会引发崩溃。
李飞飞:如今的科学在全球范围内的合作和交流非常频繁,超出你想象,AI 领域更是一个跨国界的合作研究和应用社区,仅在斯坦福,每年的全球合作产生的科学论文数量就多不胜举,还有GitHub 这种全球的开源服务社区。
所以,你所说的这种情况,在全球交流和合作如此频繁的当下,不太会发生。那些目前在这个领域落后的国家,还是有很多机会和时间去思考、制定自己的数据战略和AI 发展战略的。
五、结语
在AI高速发展的现代,人工智能可能引发的问题已经在世界科学界乃至所有人群中引发了高度重视和思考。赫拉利和李飞飞在斯坦福的论战也为人工智能未来发展定下了一个基调。我们可以预见的是,在未来发展中。人工智能将会越来越重要,实现全行业、全方位的智能化。