创造出超越人类智能的AI会发生什么?丨专访斯图尔特罗素
发布时间:2021-09-04 18:43:27 所属栏目:大数据 来源:互联网
导读:如果我们创造出了达到或者超过人类智能水平的人工智能(AI),会发生什么?人类会成为自己发明的受害者吗?在不远抑或是遥远的未来,人类与机器人可以和平共处吗?人类有一天,会向机器人乞讨吗?在2017年,《纽约客》杂志的一幅封面画引发了一场有关于人类
新京报:现在呢?对于你个人而言,人工智能的应运,对你的生活带来了哪些改变?
斯图尔特罗素:在我的日常生活中,人工智能提供了即时、免费且高质量的翻译。我因此可以阅读出版商用中文发来的文件,我也经常阅读法国政府寄来的法律和税务文件(不幸的是,我也看不懂他们发来的英文)。和数十亿人一样。我每天都要使用搜索引擎(它们大多由人工智能驱动)来寻找那些过去被深藏于图书馆或百科全书中,或者根本得不到的信息。那些在过去缓慢、昂贵或难以访问的东西,正在变得即时、免费、唾手可得。而这正是现如今人工智能为我们生活带来的改变这不仅仅是信息服务,还包括了各种商品和其他服务。
新京报:如果一台机器通晓人类所有语言,且能够以一种迅速而强大的方式获取人类知识(尽管在你看来这不太可能),普通人阅读和学习还有意义吗?人工智能是否会颠覆人类获取知识的方式?
斯图尔特罗素:如果一个机器人可以快速的吃掉冰淇淋,是否意味着人类将停止吃冰淇淋?并不会!我们阅读,是为了娱乐和学习。显然,我们将继续这样做。当然,人工智能可以帮助我们去阅读那些我们难以独立完成阅读的书籍和资料。
电影《机械姬》(2014)剧照。影片中,天才一般的纳森研制了具有独立思考能力的智能机器人伊娃,为了确认她是否具有独立思考的能力,他希望加利能为伊娃进行著名的“图灵测试”。似乎从第一眼开始,加利便为这台有着宛如人类般姣好容颜的机器人所吸引。
新京报:人工智能将来有可能取代作家吗?尽管一些人可能不这么认为。
斯图尔特罗素:是的,人工智能正在取代创作者,特别是对于新闻而言。这种现象将会变得越来越普遍,而且,这会很快。目前,许多文章的原始资料已经可以在网上轻易获取,人工智能只需要收集和整理这些信息,并以某种可读的方式将它们呈现出来。目前,人工智能还不能准确处理人类、社会、政治、国际关系方面的内容这种情况当然会得到改变,但还需要很长一段时间。
不过,我认为,人工智能很快就可以通过阅读数以百万计的书籍,并将其中的一些元素进行重新编织,形成新颖的组合,从而创作出具有创造性和吸引力的作品。
让人工智能“服从人类”是个坏主意
新京报:你曾经提出了人工智能的三个新原则:而这显然和阿西莫夫定律背道而驰,你为什么会做出如此修改呢?
斯图尔特罗素:这三个原则如下:1、利他主义(Altruism)机器的唯一目标是最大限度地实现人类的偏好;2、谦逊原则(humility)机器最初并不确定人类的偏好是什么,这是创建有益机器的关键;3、学习预测人类偏好,人类偏好的最终信息来源是人类行为。
阿西莫夫(Asimov)设计他的三定律(不伤害人类、服从人类、保护自我)是为了创造有趣的情节,而不是为了保护人类免受机器人的伤害。“不伤害人类”的原则与我的第一条原则相似,只是阿西莫夫认为“伤害”有一个固定的定义而这正是我试图避免的。
出于同样的原因,“服从人类”也是个坏主意,尤其是当这个人类是一个脾气暴躁的两岁儿童时。他的机器人“保护自我”原则是完全没有必要的,因为如果机器人的继续存在对人类有帮助的话,它会自动做到这一点。而且,正如它应该做的那样,《星际穿越》中的TARS机器人也应该为了拯救人类而快乐地自杀。
电影《星际穿越》(2014)剧照。右侧方形物体为TARS机器人。
有几种情况可能会误解这些原则。最为常见的是人们认为我是在建议把一套人类的价值观插入机器,例如基督教价值观或儒家价值观。没有这回事。机器应该为每个活着的人设置一个单独的偏好模型,这个模型是基于人类的偏好(其中大部分是机器并不知道的)。同样重要的是,要明白机器不会把这些偏好当成自己的,它只是在学习人类想要什么。它也学不会像人类一样行事,就像犯罪学家不会学着像罪犯一样行事。这台机器完全是利他主义的,没有自己的偏好。
最为困难的问题来自于专业的哲学家,他们已经为此思考了几千年。有些人会问:人类的偏好是不稳定的,是可以被操纵的,我同意这是上述三个原则的一个问题。其他人则问,偏好我们希望未来如何是否真的可以作为在道德上站得住的决定的基础,以及我们是否也需要考虑权利。令人担忧的是,许多人的偏好可能会侵犯个人的权利。关于这一主题的书籍已经有成千上万了,因此我不会在这里提出自己的意见,只想说我相信对立的观点实际上也是可以调和的。
电影《黑客帝国》(1999)剧照。片中,网络黑客尼奥对这个看似正常的现实世界产生了怀疑。他结识了黑客崔妮蒂,并见到了黑客组织的首领墨菲斯。墨菲斯告诉他,现实世界其实是由一个名叫“母体”的计算机人工智能系统控制,人们就像他们饲养的动物,没有自由和思想,而尼奥就是能够拯救人类的救世主。
今年春天,我和两位哲学家,一位经济学家一起上了一堂课,研究了一些难题,即机器做出的决策对人类有益到底意味着什么,尤其是当我们考虑到有许多人有着不同的偏好时。这些问题在道德哲学和政治理论中已经提出了很长时间,但我们需要尽快回答它们!否则我们的人工智能系统就会遵循非常错误的理论。我觉得这很有趣,我很确定我们能取得一些进展。
新京报:那么,你会如何看待有关于人工智能的科幻小说或者影视作品呢?
斯图尔特罗素:我小时候读过很多科幻小说,最近几年,我又开始和孩子们一起阅读。现在,我正和二儿子乔治一起看刘慈欣的《三体》三部曲,和小儿子艾萨克一起看《星际迷航》。我一直在寻找那些描绘人类与超级智能愉快共存并拥有美好未来的作品。这样的作品不是很多。比如伊恩班克斯(Iain Banks)的“文明”系列,在他的构想中,未来的人工智能系统比人类的能力要强大得多,但它们(以某种方式)被设计成几乎完全有利于人类。他无法回答的一个明显问题是,当机器完美地运行一切时,人类能在生活中找到什么目的。他们有大量的闲暇时间和无限的物质资源,但缺乏明确的目的,人们拼命地竞争极少数可以提供真正挑战的职位。
电影《星际迷航》(2009)剧照。
像大多数人工智能研究人员一样,我相当有信心我们将实现达到人类水平的人工智能,尽管这可能不会像许多人认为的那样快。我们仍然需要克服一些巨大的概念性挑战,很难说这需要花费多长时间。
机器必然会后退一步,为人类留下可成长的空间
新京报:在新款Neuralink脑机接口芯片的发布仪式上,埃隆马斯克说,人们将能够通过BCI召唤他们的特斯拉。你也曾经提到过一种极端情况:人机一体化,电子硬件直接连接到大脑,成为单一的、可扩展的、有意识的实体的一部分。我们应该如何看待人类与人工智能之间的共生机制?
斯图尔特罗素:人脑能够向设备发出命令是一回事,比如现在瘫痪的人可以使用机器手臂。但当我们试图通过电子设备,增强大脑的思维过程时,这件事就截然不同了。如果每个人都必须接受脑外科手术才能够上学,这难道不是我们犯了一个大错?
新京报:数字永生呢?
斯图尔特罗素:到目前为止,将我们大脑中的全部思想和记忆上传到计算机中仍然是一个推测。我们并没有理论可以解释为什么人类的意识、体验可以存在,因此,我们也无法确定将思想和记忆的结构、状态复制到计算机中,我们仍然可以存在。苏珊施耐德(Susan Schneider)撰写的《人造的你》(Artificial You)一书对这个问题进行了广泛的讨论。
《人造的你》(Artificial You),苏珊施耐德(Susan Schneider著,普林斯顿大学出版社(Princeton University Press)2019年9月版。
新京报:滥用人工智能的可怕后果是什么?很明显,这一部分的某些东西会让人非常沮丧。
斯图尔特罗素:就像任何技术一样,人工智能也可能被滥用。以下是几种可能的情况:用于监视、劝说和控制的人工智能可以极大地减少人们的自由。而且,人工智能可以产生和传播虚假信息,并且模仿人类,使得人们很难知道什么是真的。
用于杀人的人工智能自主武器是致命的,很容易变成大规模杀伤性武器,因为人工智能武器不需要人类来监督,而且可以成百万计的发射。人工智能最终可能取代大多数人类工作如果我们不能迅速调整社会和教育系统,让人们得以适应一个完全不同的世界这将引发巨大的问题。
新京报:随着人工智能时代的到来,我们的文明会终结吗?当我们把所有的知识都投入到机器中,让机器来管理我们的文明,人类的惰性很可能导致这种结果。如何避免这种结果?
斯图尔特罗素:这里有两个问题。首先,我们能否确保超级智能人工智能系统是安全和有益的?我认为答案是肯定的。第二,当人类文明由机器在运转时,还能保持它的活力吗?尼克博斯特罗姆(Nick Bostrom)在他的《超级智能》(Superintelligence)一书中说,第一个问题是“我们这个时代的基本任务”,但是如果我们回答了第一个问题,那么第二个问题就成了我们这个时代以及所有未来时代的根本任务。
《超级智能》(Superintelligence),尼克博斯特罗姆(Nick Bostrom)著,Oxford University Press2014年9月版。
我们应该从哪里找到目标,无论是个人的还是集体的?也许人工智能会来拯救我们,因为目标和挑战是人类生活的重要组成部分,它们的消失显然不是我们希望看到的未来。因此,可以说,机器必然会后退一步,为人类留下可成长的空间。 (编辑:宿州站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |