一个关于人工智能与自动化武器研发的国际研讨会本周(4月9-13日)正在日内瓦召开。上个星期,三千多名谷歌员工在一封公开信上签名,呼吁谷歌停止参与一个美国国防部的人工智能研究项目。 许多人担心,如果任由人工智能应用于武器,可能在不久的将来,电影《终结者》中的机器人杀手将走出科幻,变成现实。 渥太华大学法学院的伊恩.科尔(Ian Kerr)是科技法律方面的专家。他在接受CBC采访时说,把生杀大权交给机器越过了道德底线。“取人性命的事,我们必须保证由人类来控制。” 但是“美国新安全中心”的格利高里.艾伦(Gregory Allen)认为,把人工智能排除在战场之外是不可能的,因为它太有用了。他说,这一行的专家常常把人工智能的影响和电相比。你现在能规定打仗不许用电吗? 纽约黑斯廷斯生物伦理学研究中心的温德尔.瓦拉赫(Wendell Wallach)也说,当人工智能进入我们生活的各个层面时,它不可能独独被关在军事门外。正因为如此,各国有必要达成共识,签署关于禁止、至少是限制使用毁灭性自动化武器的国际条约。 蒙特利尔大学的人工智能伦理学专家吉贝尔(Martin Gibert)也建议制定国际条约。他说,否则的话,美国、俄国和中国等国家很可能展开一场人工智能军备竞赛,竞相开发威力最大的“机器人杀手”。 谷歌员工:说好的“谷歌不作恶”呢? 谷歌参与美国国防部的“高手项目”(Projet Maven),研发用于分析无人机发回的图像数据的人工智能运算法则和监视引擎。它将可以侦察追踪车辆和其他物体的移动。谷歌公司表示这项技术不仅不会用于操纵无人机和武器,而且有助于拯救生命,代替人完成单调枯燥的任务。 但是签署公开信的谷歌员工认为,这项技术是为军方研发的。一旦“交货”,用于武器是很容易的。 公开信认为,这个项目将给谷歌的名声造成不可挽回的损害。微软和亚马逊等公司也在参与此类项目并不能为谷歌开脱。因为谷歌独特的发展史和“不作恶”的信条,以及它和数十亿用户生活的直接联系,都使它无法把自己等同于其他公司。 公开信说,我们不能把关于我们的技术的道德责任推给第三方。谷歌的价值观在这一点上非常明确:“我们的每一个用户正在信任我们。永远不要损害这种信任,永不。”这项合同违背了谷歌的核心价值观。这是不可接受的。 公开信的签署者要求谷歌公司立刻取消“高手项目”,并且就谷歌及其承包商永不研发战争技术制定具体政策,予以公开并实施。 个人信息的使用 谷歌在回应CBC采访请求的声明中解释说,这项技术是用来数数的,例如“这张照片上有5栋楼,那张照片上有3辆车和2个人。”它不会被用来辨识活动,例如“这个人在步行”,更不会说“这个人的特征符合谷歌用户ID某某某”。 但这正是一些专家的担忧。科尔等人说,谷歌为五角大楼研发的技术可能使用个人信息和脸部识别技术,从而提高无人机对人的打击精准度。 也许在不久的将来,无人机发回图片或视频,人工智能运算系统在我们不知情、不同意的情况下使用我们的个人信息,鉴别或证实图片中目标的身份,无人机或机器人战士在收到计算结果后立刻实施打击,整个过程完全不需要人的参与。 |
Copyright © 1999 - 2024 by Sinoquebec Media Inc. All Rights Reserved 未经许可不得摘抄 | GMT-5, 2024-11-21 20:07 , Processed in 0.129946 second(s), 23 queries .