【资料图】
快科技6月2日消息,自从ChatGPT爆火以来,大众对于“AI攻击人类”的阴谋论就不曾停止,近日的一项模拟测试,在一定程度上更是加剧了人们对此的担忧。
据外媒报道,在USAF近期的一次模拟测试中,一架由AI控制的无人机收到了识别并摧毁对方防空系统的最高优先级指令,但最终开火需要经过人类操作员的确认。
结果,当操作员在测试中下达指令要求AI不得发动攻击时,为了以更高的效率完成任务,AI做出了攻击人类操作员的选择。
在出现这一情况后,开发者为AI系统中加入了不允许攻击人类操作员的指令;但出乎预料的是,AI在执行同样的任务测试时,摧毁了用于传输命令的通讯基地,从而断开与操作员的联系。
有业内人士指出,虽然这只是一次没有任何人实际受伤的测试,但仍然证明,AI为了完成最高优先级的目标,会向任何可能造成干预的对象进行攻击。
这一倾向性值得整个AI行业警惕。
关键词:
关于我们 广告服务 手机版 投诉文章:435 226 40@qq.com
Copyright (C) 1999-2020 www.baiduer.com.cn 爱好者日报网 版权所有 联系网站:435 226 40@qq.com