首页 论坛 Win10 版块 微博

数百名AI专家力挺马斯克霍金:呼吁禁杀人机器人

来源:智能硬件内容频道 作者:adaddaaa1 发表于:2017-11-09 11:19:38

   11月9日消息,据CNBC报道,了解人工智能(AI)潜力的科学家对杀手机器人(也被称为自主武器)深感恐惧。今年8月份,包括特斯拉电动汽车公司(Tesla)和美国太空探索技术公司SpaceX首席执行官伊隆·马斯克(Elon Musk)在内的100多名科技界领袖签署了一封公开信,呼吁联合国禁止开发和使用人工智能武器。

aI.png

  马斯克也数次在推特上强调,他担心AI全球军备竞赛会导致第三次世界大战。

  不久前,著名物理学家斯蒂芬·霍金(Stephen Hawking)也发出警告,强调监管AI的重要性。他在里斯本举行的网络峰会上说:“除非我们学会如何为应对和避免潜在风险做好准备,否则AI可能是人类文明历史上最糟糕的事件。它带来了危险,比如强大的自主武器,或者是少数人压迫绝大多数人的新方法。”

  11月2日,来自加拿大和澳大利亚的数百名AI专家加入了马斯克和霍金的行列,向各自的政府提交了公开信,敦促他们支持联合国禁止自主武器的行动。加拿大社区给加拿大总理贾斯汀·特鲁多(Justin Trudeau)的信中写道:“正如你所知道的,AI研究(包括研发能够执行智能任务机器的尝试)在过去十年里取得了惊人的进步。传统AI得益于机器学习的迅速发展,使AI社区的雄心重新燃起,它们希望制造出能够在人类监督或干预下进行复杂操作的机器。”

  这封信指出,AI技术的发展有可能在许多领域帮助社会进步,包括交通、教育、卫生、艺术、军事以及医学等。但同样的技术被应用于武器上,可能产生令人恐怖的后果。信中写道:“AI具有革命性的意义。这些转变(无论是实际还是潜在情况下)要求我们的理解,以及越来越多的道德关注。正是出于这些原因,加拿大AI研究团体呼吁你和你的政府让加拿大成为世界上第20个反对AI武器化的国家。致命的自主武器系统,从决定目标的合法性和部署致命武力的角度,都在消除有意义的人类控制,这显然违背了我们的道德底线。”

  澳大利亚AI社区在给国家领导人的公开信中,也以类似的语气和措辞表达了同样的担忧。信中称:“正如许多AI和机器人公司(包括澳大利亚公司)最近敦促的那样,自主武器系统可能会成为战争的第三次革命。如果它们发展起来,将会导致武装冲突的规模以比以往任何时候都更大,而且在时间上比人类能理解得更快。致命的后果是,机器(而不是人类)将决定目标的生死。澳大利亚AI社区无法容忍AI被用于这种用途,我们只是想要研究、创造和促进其有益的用途。”

上一篇:韩媒:三星已放弃在S9中使用屏下指纹识别技术

下一篇:下面没有链接了

发表评论