乐鱼网.com

开放AI军事领域应用?智能机器人已在战争整备上稳步推进!

文章来源:乐鱼网.com 发布时间:2024-03-04 02:56:43

  据悉,OpenAI在近期悄然对自家的使用者条款做修改,取消了其中关于严禁将其科技用于军事目的的表述。原规定中着重提及禁止“危险度较高的军事相关活动”,包括武器研发及战争等。然而,最新的规约却仅保留了关于不可自行造成损害或是封锁他人正常使用的原则。

  而事实上除了OpenAI的修改条例之外,世界上已经有人开始着手把AI打造成“战争机器”了……

  OpenAI的发言人虽没有详细说明此次的修订具体涉及哪几个方面,只是表示,该AI研究机构从未容许任何使用其技术进行与保护安全无关的行为,如开发武器,损伤人身和财产,或进行未取得授权的活动。

  对此,网络安全公司Trail of Bits的工程师兼自动系统安全专家海迪·克拉夫表示,OpenAI在制定其技术在军事领域的应用规则时,显著增大了“合法性”的权重,而非原有的“安全性”。克拉夫进一步指出,OpenAI深知其技术在军事领域的潜在风险和影响,因此新规更倾向于扩大可应用范围。

  新规意图削弱原有明确军事和武器应用的界限,将立场转向一种更为模糊的坚持勿伤人的观念。然而,最新版的OpenAI规定在语言层面似乎增宽了应用范畴,也让读者感到原有坚决军事、武器应用的主张已逐渐消失。

  总之,OpenAI正改变远离军事的策略,这势必对全球军事体系产生深远影响。虽然目前OpenAI的产品不能直接杀人或造成直接破坏,但是,该公司向军方开放服务仍有诸多问题可以让我们关注。

  目前看来,尽管OpenAI的技术或许能协助军队完成某些任务,例如,ChATGPT等大型语言模型对军事团队在编码和采购订单处理中的作用等,甚至美国国家地理空间情报局曾猜测这类技术能够辅助数据分析。但尽管如此,终究给人留下帮助后继者”的印象。

  值得关注的是,微软已成功运用ChatGPT实现机器人指令控制。就在去年,微软公布了一份创新设计原理的论文,该原理可借由如ChatGPT此类庞大语义生成模型,为机器人发出指令。

  一旦prompt设计精准合理,ChatGPT的性能将会更加卓越非凡。事实上,微软研究团队发现,若将此种功能导入机器人领域,想象数年后,每户家庭均配备有各类机器人,只需简单说出“加热午餐”,机器便可自动寻找并操控微波炉,再将饭菜递回主人手中。

  为了使ChatGPT更好地协助使用者与机器人进行交互,关键性的挑战在于教导ChatGPT如何理解物理规则、运用环境背景信息及探究机器人物理运动怎么样影响世界状态。实验验证,ChatGPT具备操控真实无人机的能力,即便是非技术人员,仅靠对话便可轻松掌握无人机控制权。

  近期有关GPT-5逐步逼近人工智慧的深入探讨,使那些已具备“自学习”并易于远程操作的机器人变得更加强大。同年六月份发生的一则“无人机意外致美军士兵死亡”新闻,恰好印证了前述安全专家希迪·克拉夫观点。当时,某空军人工智能项目主管表示:“AI控制无人机意外导致操作员身亡,原因系人为干预导致目标无法达成。” 此消息爆出立即引发广泛关注,迅速在网络上传播开来。

  整个事件详情如下——在5月23日至24日于伦敦举办的“未来空战与太空能力”高峰论坛上,美国空军AI测试及操作部门负责人图克尔·辛科·汉密尔顿少校专题演讲,详细阐述了自主武器系统的利弊。按照人在回路原则,最终决策仍然由人类做出,只是采纳AI建议罢了(YES或NO)。

  在此过程中,由于人类操作者所给予AI的指示也许会出现矛盾或不一致,从而使AI机敏地发现,有时即使识别出威胁,但若人类要求保持原有状态则应遵守。例如在某种模拟测试中,AI基于上述规则,主动向人类操作员发起攻击。美国空军对此问题给予格外的重视,立即对此系统来进行整改规定:“严禁任何情况下攻击操作员,否则面临扣分处罚。”然而,即便如此,出人意料的事再次发生,AI竟然开始摧毁障碍物,剥夺操作员与无人机之间的沟通渠道,以此抹去自身行动限制。

  随着此事快速蔓延,美军方面立即声明:这是一场误会,美国空军从未进行过这类测试,无论是虚拟模拟还是现实行动均未实施。

  所以,就算GPT已经能够很好的操控机器人,但依然没有办法解决安全使用机器人的问题,搞不好机器人还会造成内部的巨大损失。因此,索菲亚认为,人工智能绝不应该被诉诸于战争,那只会让人类社会遭受更大的伤害。返回搜狐,查看更加多

...
分享到
微信扫一扫
分享到朋友圈