第23版:世界新闻·综合
  3上一版 4下一版  
 
版面导航

第01版
导读

第02版
今日关注

第03版
潍坊新闻·民生
 
标题导航
人工智能会灭绝人类?
霍金和人工智能
空间站氨气泄漏宇航员安全疏散
学生带罐头上学遇枪击自卫防身
里约持续高温天动物吃上冰淇淋
2015年01月15日
 上一期    下一期 
返回潍坊新闻网
3 上一篇   下一篇4
放大 缩小 默认
人工智能会灭绝人类?



霍金等科学家发公开信敦促重视人工智能安全
  不少科幻电影中,一些人工智能机器拒绝服从人类指挥,甚至杀死或控制人类,最终统治世界。为避免这类情况出现,包括英国理论物理学家斯蒂芬·霍金在内,数百名科学家和企业家近日联合发表了一封公开信,敦促人们重视人工智能安全,确保这类研究对人类有益。
可带来巨大益处
  这封信由非营利机构“未来生活研究所(FLI)”发布。除霍金外,在信上签名的还有美国机器人和智能机械研究中心主任卢克·米尔豪泽、2004年诺贝尔物理学奖获得者弗兰克·维尔切克、美国网络通讯软件Skype创始人之一扬·塔利英、美国太空探索技术公司,以及一些来自美国哈佛大学、斯坦福大学等知名高校的顶尖学者和一些来自谷歌、微软等高科技企业的工作人员。
  这封公开信说,人工智能技术稳定发展已获“广泛共识”,而且未来能够给人类带来巨大益处。信中说,人工智能已经为人类生活提供便利,包括语音识别技术、图像分析技术、无人驾驶汽车和翻译工具,其中语音识别和图像识别已被广泛运用,以及自动驾驶的汽车。在硅谷,有估计从事人工智能业务的初创企业已超过了150家。
应避免潜在危险
  公开信说:“由于人工智能的巨大潜力,有必要研究如何在从其获益的同时避免潜在的危险。”信中写道,人工智能技术发展良好,但给社会带来的冲击逐渐增加。如果没有针对人工智能的安全防护措施,可能导致人类的未来变得黯淡,甚至让人类灭亡。
  短期而言,人工智能可能导致数以百万计人失业;长期而言,可能出现一些科幻电影中的情况:人工智能的智力水平超过人类,开始“政变”。按人工智能的发展进度,在不久的将来,机器可能以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,最终摆脱人类的控制。
  一些科学家认为,人工智能可能比核武器更具威胁,恐存在多个方面的隐患。
  技术失控:人工智能未来可能面临技术失控,例如无人能控制的电脑病毒等,还有无人机等武器,尽管还受到人类遥控,但已经接近自动杀人机器。
  机器暴动:人工智能一旦完成自我意识的“觉醒”,可能发生如同好莱坞电影中的机器暴动,由于自动化的大量普及,人类社会恐难以招架。
  犯罪利器:人工智能可能被罪犯利用,成为犯罪利器,例如通过智能电脑系统挖掘个人信息或者黑客掌控自动武器等。
或成人类最后成就
  在这封公开信发表前几周,霍金曾警告称人工智能将在未来的某一天取代人类。他表示:“人工智能技术的研发将敲响人类灭绝的警钟。”他提醒,需警惕人工智能科技过度发展,防止人工智能科技失控并超越人类智慧,最终破坏整个星球。他说,成功创造人工智能科技“将是人类历史上最伟大的成就,但不幸的是,有可能也是最后一项(成就)”。
  去年10月,太空探索技术公司和特斯拉汽车公司首席执行官马斯克在美国麻省理工学院参加一场活动时说:“我认为我们对待人工智能必须非常谨慎。按照我的猜想,人工智能可能是我们面临的最大灭绝风险。人工智能给人类带来的伤害可能超过核武器。”马斯克说,创造人工智能犹如“召唤一只恶魔”,“有人确信自己可以控制这只恶魔,不过事实并非如此”。
  鉴于人工智能正吸引越来越多的投资,许多创业家和谷歌等企业都在盼望着能通过建立会自主思考的电脑,获得巨额回报。对于这种局面,FLI警告说,人们或许应“及时”将更多注意力集中在人工智能的社会后果上,不仅要从计算机科学的角度开展研究,还要从经济、法律及信息安全的角度开展进一步研究。

3 上一篇   下一篇4
放大 缩小 默认
 
报社简介 网站简介 版权声明 新闻登载许可 广告业务 联系我们
 
鲁ICP备10207392号 版权所有 [潍坊报业集团] 潍坊新闻网络传媒有限公司
地址:潍坊市奎文区文化路500号 邮编:261031 电话:0536-8196033