霍金再发新警告:人工智能或通过战争摧毁人类 - 万象系统之家

万象系统之家 - 系统光盘下载网站!

当前位置:万象系统之家 > IT快讯 > 详细页面

霍金再发新警告:人工智能或通过战争摧毁人类

编辑:jiayuan 2017-03-14 10:23:13 来源于:华尔街见闻

  人工智能(AI)技术自诞生之日起,其理论和技术日益成熟,可应用的领域也在不断扩大。然而该技术的不断进步,却引发了著名物理学家史蒂芬·霍金(Stephen Hawking)的担忧!据外媒报道,继2015年9月抛出“人工智能威胁论”之后,霍金日前再次发声表达了他对该技术的忧虑之处。

霍金再发新警告:人工智能或通过战争摧毁人类

  本月8日,霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。

  霍金表示:“自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,而未来新科技(人工智能)进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。因此人类需要利用逻辑和理性去控制未来可能出现的威胁。”

  霍金还就如何应对人工智能的威胁给出了自己的建议。霍金认为,人类可以组成某种形式的“世界政府”来防范人工智能可能带来的威胁,但他同时认为“世界政府”本身也有问题,因为这样一个政府可能会施行暴政。

  实际上,霍金是人工智能技术的支持者,霍金认为,如今AI似乎已经渗透到各个领域,包括推动自动汽车进步,支持Facebook的广告筛选功能,并通过苹果Siri、亚马逊Alexa等虚拟助理与世界各地的人们互动。AI甚至可帮助根除长期存在的社会挑战,比如疾病和贫困等。

  但霍金也一直对AI带来的潜在挑战表示担忧。2015年9月,霍金在美国网站reddit的AMA(问我任何问题)专栏中谈到,他担心聪明能干的AI会让人类灭亡。霍金表示:“一个超级聪明的AI可以非常好地实现它的目标,如果这些目标都没有与我们人类一致,我们人类就麻烦了。”

  近年来,随着人工智能技术蓬勃发展,其潜在的威胁受到越来越多科学家的关注。

  英国牛津大学教授、人类未来研究所创始人Nick Bostrom表示:“我认为改善全球治理很有必要,不仅可应对AI带来的危险挑战,也可解决摆在我们面前的其他巨大挑战。随着世界不断分化,我们在不断开发出越来越强大的工具,我不确定人类是否能够无限期生存下去。”

  对比霍金等人“人工智能将威胁人类”的观点,普林斯顿大学计算机科学教授Edward Felten更关注眼下人工智能技术带来的影响,他表示:“AI主要有两个经济风险:第一,工人具备的技能与未来工厂所需要的技能可能不匹配。第二,通过增加资本所有者和某些高级技工的回报,AI可能加剧经济不平等性。”

  此外,Edward Felten还表示,目前在计算机科学领域中还不存在足以促使机器智能水平突然加速提高的完美基础。至于人工智能目前曝光出的部分威胁性,则可以通过调整公共政策解决,比如重新分配生产力。

发表评论

0

没有更多评论了

评论就这些咯,让大家也知道你的独特见解

立即评论

以上留言仅代表用户个人观点,不代表万象系统之家立场

本站发布的系统仅为个人学习测试使用,请在下载后24小时内删除,不得用于任何商业用途,否则后果自负,请支持购买微软正版系统!

如侵犯到您的权益,请及时通知我们,我们会及时处理,对系统之家有任何投诉或建议,请与管理员联系. QQ:346231061

Copyright2024 万象系统之家(www.maxdo.tech) 版权所有 沪ICP备2021023961号-5