各国竞相研制伦理困境令人忧
转载 2016-03-25 06:49 广州日报 来源:广州日报军用机器人,也被称为无人系统,用于执行侦察、排雷、作战、海上搜救等危险系数较高的军事行动。
早在20世纪30年代,前苏联军队就曾试验“遥控坦克”;二战期间,德军先后制造了数千辆遥控战斗车辆用于扫雷和爆破。
自20世纪80年代以来,以美国为首的西方军事强国一直在积极研发各种新型智能机器人,相继出现了地面、空中和水下军用机器人。据媒体报道,美国国会曾通过法案,规定到2015年前,1/3的地面战斗将使用机器人士兵。还有报道称,美军未来一个旅级作战单元将至少包括151个机器人战士。
除美国外,俄、英、法、德、日、韩等国也正加紧研制新一代智能机器人。2013年,俄罗斯国防部成立了机器人技术科研实验中心,专门负责领导俄军用机器人的研发生产。据军事专家统计,目前全球已超过60个国家的军队装备了军用机器人,种类超过150种。
面对机器士兵的迅猛发展,不少专家忧心忡忡。“如果有人下达命令杀光某座城市中的所有男性,它们肯定能够完成任务。”加州大学柏克莱分校计算机科学教授拉塞尔说,为此,他去年曾联合一些知名人士公开呼吁禁止机器士兵的研发。
2012年,美国政府强制规定自主武器需要为期10年的人工控制。但人工控制期限过后呢,机器士兵真的能够完全自主吗?如何创造一个“符合道德伦理”的机器士兵,如何用程序语言输入“公平”或“伤害”这些概念?让机器士兵自主决定是否伤害人类会不会很荒谬?如果机器士兵在战场上违法杀人,过错应算到谁头上(目前的答案是“无人需要负责”)?机器士兵要不要上战争法庭?
除了黑客侵入导致倒戈的切实潜在危险之外,机器士兵的应用还有太多伦理困境需要我们回答。
下一篇
机器人服务员送餐
上一篇
天能动力:力推电池回收体系规范化