你好,欢迎来到川北在线
微信
腾讯微博
新浪微博
专家警告未来战场用智能自动武器非常危险 如被黑客侵入后果不堪设想
时间:2016-03-24 14:29   来源:川北在线整理   责任编辑:沫朵
  原标题:专家警告未来战场用智能自动武器非常危险 如被黑客侵入后果不堪设想

专家警告未来战场用智能自动武器非常危险

  图中是科幻电影《钢铁侠2》中的机器人战士,目前专家指出,未来将自动化武器投入战场是很危险的,如果被黑客侵入系统后果不堪设想。
 
  据英国每日邮报报道,将自动武器投入战场将很大程度人类战士的负担和危险,但目前专家提出,这样做将更加危险和不安全。近期召开的一次国际会议中,研究人员表示,智能化自动武器可以被不道德行为利用,甚至成为黑客的操控平台。
 
  不同于人类可以完全控制的无人机,未来自动武器将自动选择和攻击目标。该问题在今年1月份瑞士召开的世界经济论坛上重点讨论。美国新南威尔士大学人工智能专家托比-沃尔什(Toby Walsh)教授指出,自动武器是我们2015年关注的一个焦点,我们普遍认为当前并不具备制造伦理机器人的能力,尤其令人担忧的是,近年来全球各国纷纷开始将机器人投入战场,我们并不认为现在能够制造出伦理机器人。
 
  为了制造一个“伦理机器人”,研究人员将对机器人系统编程特殊规则,避免它们失去控制。例如:科幻小说作家艾萨克-阿西莫夫(Isaac Asimov)撰写的一部短篇科幻小说《环舞》,小说中提出控制机器人行为的三条定律,定律一是机器人不能伤害人类,或者遇到人类被伤害时不能坐视不管;定律二是机器人必须遵守人类指令,除非遇到指令与定律一相冲突;定律三是机器人在不违反前两条定律的前提下必须要保护好自己。
 
  专家认为,这三条定律将有助于研制道德规范化机器人,最终设计师将使用这些定律设计机器人。部分专家表示,谈及“人工智能机器人反叛”为时过早。新美国安全中心伦理自动项目主管保罗-夏伦(Paul Scharre)说:“当前绝大多数自动化武器并未投入使用,多数自动化武器系统仍处于‘发射后不管’的阶段,甚至设计的先进系统也不能智能化选择目标。”
 
  夏伦在世界经济论坛上发言指出,虽然自动化武器在战争中并未禁止使用,但是它们如果未来投入战场,能否遵循公认的交战规则将是一个很大的挑战。最终即使自动化机器人合法和遵循伦理道德,它们也是非常危险的,故障失控和敌方黑客侵入,都将使自动化武器系统具有巨大威胁。尤其是自动化武器的安全系统被黑客侵入并改写,这将成为战场上的灾难,伴随着武器系统变得更加自动化,黑客攻击潜在的威胁日益增大,不论是否这个武器平台仍被人类所控制。

   投稿邮箱:chuanbeiol@163.com   详情请访问川北在线:http://www.guangyuanol.cn/

川北在线-川北全搜索版权与免责声明
①凡注明"来源:XXX(非在线)"的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,本网不承担此类稿件侵权行为的连带责任。
②本站所载之信息仅为网民提供参考之用,不构成任何投资建议,文章观点不代表本站立场,其真实性由作者或稿源方负责,本站信息接受广大网民的监督、投诉、批评。
③本站转载纯粹出于为网民传递更多信息之目的,本站不原创、不存储视频,所有视频均分享自其他视频分享网站,如涉及到您的版权问题,请与本网联系,我站将及时进行删除处理。



图库
合作媒体
IT袋 绿植迷 金宠物 领啦网
法律顾问:ITLAW-庄毅雄律师