当人类站在人工智能带来的变革前,是该庆幸科技进步让生活更上一层楼,还是该警惕变革后可能出现的人工智能威胁? 如果真如科幻电影中所描述的一样,当人类创造的机器觉醒威胁人类时,我们是否有能力像电影的主人公一样拯救自己? 为什么比尔·盖茨、特斯拉CEO(首席执行官)马斯克、物理学家霍金等人提出警惕人工智能?人工智能威胁究竟是什么?为什么这些科技大佬会希望建立人工智能利益最优化联盟? 作为全球知名的人工智能专家,尼克?波斯特洛姆(Nick?Bostrom)在其所写的《超级智能:路线图、危险性与应对策略》一书中给出了答案:人工智能威胁不会很快到来,但人工智能应当在提前防范、控制的前提下发展。 波斯特洛姆在接受澎湃新闻专访时表示:为人工智能设定安全范围,动机系统是关键,未来人工智能或许能帮助人类实现非物理形式上的永生。 尼克·波斯特洛姆(http://www.nickbostrom.com)是全球知名思想家,牛津大学人类未来研究院院长,牛津大学哲学院、马丁学院 教授。波斯特洛姆所带领的人类未来研究院,运用数学,哲学和科学等交叉学科,探索未来技术带来的变革,权衡道德困境,并评估主要风险和机遇。该研究所的目 标是要清晰地规划人类未来技术的使用。 澎湃新闻:你认为我们现在已经进入超级智能时代了吗? 尼克?波斯特洛姆:我认为我们现在还不算处在超级智能的时代。至少在我看来,人工智能目前还只是一种不同信息技术的集合,然后我们将这种技术运用到了机器人上面。 澎湃新闻:你的新书《超级智能:路线图、危险性与应对策略》描述了超级智能的未来,人工智能的终极阶段是超级智能吗? 尼克?波斯特洛姆:未来,从技术上来说,按照人工智能规则,我们可以拥有机器类的超级智能,当然还有生物科技中的超级智能,能够继承人类智慧。你甚至可 以设想下拥有各种人工智能的集合,如果有人能够找到联通各种人工智能的方法,让这些智能更有效地沟通,解决难题,就能出现超级智能。同时,这种集合还拥有 更出色的研究团队,更好的威胁预警系统。 总的来说,超级智能是我们可以拥有不同方面的人工智能联合。但在我的书中,我关注更多的是机器的超级智能。 澎湃新闻:特斯拉CEO马斯克说人工智能比核武器更危险,并指出你书中所写的智能控制非常值得一读。在你看来,人工智能的威胁真的会发生吗? 尼克?波斯特洛姆:我认为超级智能可能离我还有段距离,但如果它真的发生了,那将是非常重大的事情(it will be a great deal),所以我认为有些研究是现在就要开始着手的,例如人工智能安全、人工智能控制。这样,当我们真正制造出机器超级智能时,能够很好地解决人工智能 威胁,做好控制。现阶段,人工智能还不是威胁,但关于人工智能的工程设计,人工智能的发展动机,以及是否有利于人类,这些问题是需要整体提前考虑的。我们 不能假设,所有的人工智能发展能够自然而然朝着人类向往的地方发展。如果我们能解决好这些问题,人工智能的威胁不会很快就到来。 澎湃新闻:为什么机器人工智能最后会变成威胁? 尼克?波斯特洛姆:该担心的问题并不是人工智能会变坏。只是说,人工智能会产生不好的结果,它们可能会威胁到人类利益。有一个很好的例子,假设人类创造 的人工智能机器的最终目是生产更多的回形针。这时人工智能会告诉你需要建立更多的回形针生产厂。接着,进入到超级智能后,人工智能可能会自己想到要创造更 多的回形针,就需要更多的人。原因是有更多的人,才能消费更多的回形针,另外,人体中含有的元素也是制造回形针的材料。因此,超级智能可能就会对人类产生 威胁。 关键是,如果你对人工智能输入不同的目标,一开始只是想解放劳动力,帮助人类,但最后缺少必要限制后,就会演变为对人类生存的威胁。我们只是想提醒人类,在制造人工智能工具的时候,要对目标进行特殊的限制,才能避免这样的威胁。 澎湃新闻:如果人类制造的机器具有威胁性,我们能直接拔掉机器的电源开关,来避免这种威胁吗? 尼克?波斯特洛姆:值得注意的是,我们没有独立的意愿,也没有能力整体规划允许我们关掉电源。到时候我们要关掉哪些开关,或是需要关闭整个互联网? 一个自由联网的超级智能可能预测到人类将关闭它们。如果他们不希望被关闭,最终就有可能会采取过激的行为来反抗人类。好莱坞有关人工智能的电影,描述的 场景都是人类自己设计的,描述的情节都最符合人类利益。相反,真正的超级智能设计的情节可能与人类相反。例如,如果其他类人猿开始察觉人类正在侵蚀它们的 领地,它们会不会拿起石头砸向人类,到时候人类真的能关掉设置在他们身上的开关吗? 澎湃新闻:现在很多人都在讨论,人工智能会让人类未来的生活变得更加便利,但也会让部分人失业,未来我们应该要如何解决这样的问题? 尼克?波斯特洛姆:我认为,从短期来看,人工智能代替人工不是问题。因为人工智能一方面让人类生活变得很好,创造出更多有用的东西,同时也更经济,能为 很多公司创造出更多的利润。长期来看,这是一个很有挑战性的问题,未来,机器代替人类的情况不会只发生在固定的几个领域里,而是跨领域的。 澎湃新闻:在中国,很多公司都在关注人工智能的发展,他们希望能提前布局,并希望政府部门能加入到这一领域中。在你看来,政府加入到人工智能发展中,会产生什么样的影响? 尼克?波斯特洛姆:我不太确定。因为目前来看,如果想要发展人工智能,我们必须也要在人工智能控制和安全上投入必要的精力。尽管有些问题的解决方法是长 期发展过程中才需要的,但我们应该重视。目前很多人工智能设备还只有部分人能使用,但我认为,人工智能应该让全人类都受益。人工智能不能仅仅是为特定人设 计的很酷的东西,也不能是一家公司获利的方式,而应该对人类历史有推进作用。所以,这就需要政府来维持。 澎湃新闻:另外有部分人认为,人工智能能让人类永生,谷歌也在这方面投入了很多精力。根据你的研究,人类能利用人工智能获得永生吗? 尼克?波斯特洛姆:在超级智能的构想下,你需要对未来有一个大致的了解。在科技的帮助下,我们可以设想,未来的某一天,人类可以拥有上千年的生命,而且现在也有很多人在做这方面的研究。这一点是在到达超级智能后是可以做到的。 而永生首先意味着是很长的生命跨度。在计算机的帮助下,我们能做到的是突破生物限制。换一个角度讲,超级智能的永生,并不是物理的永生,而是通过计算机的帮助,帮助我们备份,留存记忆。这样即使到时候地球毁灭了,我们的资料还是能留存下来。 澎湃新闻:最后能和我们具体解释下如何才能做到人工智能的控制和安全问题? 尼克?波斯特洛姆:我们现在有一些措施,例如给人工智能设置安全范围,以及一些激励措施。但还有很多事需要我们提出来并将其解决。你之前提到的特斯拉 CEO马斯克也在做这些事情,他曾拿出1000万美元,投资在人工智能控制和安全上,这对于计算机科学之间的沟通很重要,因为目前还有很多问题需要各方一 起解决。 我可以举个例子,如何设定人工智能的目标,如何才能实现人类价值和人类设定的目标。这需要人们建立一个目标系统,动机驱动系 统。现阶段,我们只给出了人工智能一些简单的目标,但是我们还不能给人工智能输入一些关于情感的目标,例如什么是爱、美以及和谐。我们还不能对这些目标用 计算机语言来描述。这些描述不是那么容易,不是简单的指令能做到,而是需要人工智能让机器学会学习人类的价值观,理解人类的意图。但最终怎么做,这其实还 是个开发式的回答。 另一个问题是,即使你让人工智能学会了学习,你还得建立一个动机系统,让他们有动力去做对人类有益的问题。
|
Copyright © 1999 - 2024 by Sinoquebec Media Inc. All Rights Reserved 未经许可不得摘抄 | GMT-5, 2024-12-26 04:18 , Processed in 0.125645 second(s), 23 queries .