首页 >> 环球学讯 >> 环球万象 >> 环球万象新闻
科学家联名发公开信 称人工智能或使人类灭亡
2015年01月15日 14:02 来源:北方新报 作者:石中玉 字号

内容摘要:去年早些时候,霍金提醒,需警惕人工智能科技过度发展,防止人工智能科技失控并超越人类智慧,最终破坏整个星球。

关键词:人工智能;公开信;科学家;霍金;科幻电影

作者简介:

  《现代快报》消息 不少科幻电影中,一些人工智能机器拒绝服从人类指挥,甚至杀死或控制人类,最终统治世界。为避免这类情况出现,包括英国理论物理学家霍金在内的数百名科学家和企业家联合发表一封公开信,敦促人们重视人工智能安全,确保这类研究对人类有益。

  英、法等国媒体1月13日报道,这封信由非营利机构“未来生活研究所”发布。除霍金外,在信上签名的还有美国机器人和智能机械研究中心主任卢克·米尔豪泽、2004年诺贝尔物理学奖获得者弗兰克·维尔切克、美国网络通讯软件Skype创始人之一扬·塔利英以及一些来自美国哈佛大学、斯坦福大学等知名高校的顶尖学者和一些来自谷歌公司、微软公司等高科技企业的工作人员。这封公开信说,人工智能技术稳定发展已获广泛共识,而且未来能够给人类带来巨大益处。人工智能已经为人类生活提供便利,包括语音识别技术、图像分析技术、无人驾驶汽车和翻译工具。但是,如果没有针对人工智能的安全防护措施,可能导致人类的未来变得黯淡,甚至让人类灭亡。

  短期而言,人工智能可能导致数以百万计的人失业;长期而言,可能出现一些科幻电影中的情况,人工智能的智力水平超过人类,开始“政变”。按人工智能的发展进度,在不久的将来,机器可能以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,最终摆脱人类的控制。

  这封公开信说:“我们的人工智能系统必须按照我们的要求工作。”

  去年早些时候,霍金提醒,需警惕人工智能科技过度发展,防止人工智能科技失控并超越人类智慧,最终破坏整个星球。(石中玉)

 

分享到: 0 转载请注明来源:中国社会科学网 (责编:李洁琼)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们