军事

您的位置:主页 > 军事 >

【爱游戏官网信誉好】比核武更难控制英媒:AI技术军事化让世界更加危险

发布日期:2021-07-05 23:46浏览次数:
本文摘要:参考新闻网9月7日报道英国媒体报道称,人工智能技术的军事化使世界更加危险。英国《经济学人》周刊9月7日发表的主题《人工智能与战争》的报道称,世界大国之间的竞争关系到很多方面,最令人担心,但人们最不理解的是人工智能的战争。大国向军事化的人工智能投入巨额资金,从自动化机器人到战争白热化为将军们提出慢战术建议的软件,任何一方都不期待落后。正如五角大楼的人工智能事务负责人上个月所说,我不期待的是,将来我们潜在的失败享受着几乎构筑人工智能的部队,但我们没有。

爱游戏官网信誉好

参考新闻网9月7日报道英国媒体报道称,人工智能技术的军事化使世界更加危险。英国《经济学人》周刊9月7日发表的主题《人工智能与战争》的报道称,世界大国之间的竞争关系到很多方面,最令人担心,但人们最不理解的是人工智能的战争。大国向军事化的人工智能投入巨额资金,从自动化机器人到战争白热化为将军们提出慢战术建议的软件,任何一方都不期待落后。正如五角大楼的人工智能事务负责人上个月所说,我不期待的是,将来我们潜在的失败享受着几乎构筑人工智能的部队,但我们没有。

文章指出,没有人工智能的武器可以获得超人的速度和精度,但也有可能超过力量平衡。为了获得军事优势,军队不仅需要推荐决策,还需要发表命令。这可能会产生令人担忧的后果。需要以比人类慢的速度思考的人工智能指挥系统可能会导弹以没有时间开展外交活动的节奏压制航母和空军基地,其方式几乎被操作者所理解。

最重要的是,人工智能系统可能被黑客侵犯,也可能被数据控制。20世纪,世界最后寻找控制军事技术的方法,即核弹的频繁出现。

全球灾害通过三种方法后用来防止威慑、军备控制和安全措施。很多人都在为人工智能找这样的模板。出乎意料的是,它的用途受到限制——而且在某种程度上,这种技术是一种新技术。

未来人工智能技术军事化应用于示意图(美国国防部网站)威慑的基础是共识,即使使使用核弹,双方都会有灾难性的风险。但是,人工智能包含的威胁并不那么可怕,也不那么清晰。它可能协助袭击或惨败,死亡人数可能从零到数百万。

在某种程度上,世界大战时期的军备控制依赖于透明度,也就是说,有信心告诉对方在做什么。与导弹升空井不同,不能通过卫星监视软件。敌人可以探测到核弹头,但它们的力量会被巩固。

但是,向外部展示算法可能破坏软件的有效性。双方可能会尽力误导对方。

爱游戏官网信誉好

领导美国和苏联世界大战时期军事控制的亨利基辛格说:输给人工智能开发的幼稚将成为战略优势。这只是最后的控制-安全措施。核武库涉及简单系统,再次发生事故的风险很高。

已经制定了一些协议,以确保武器在允许的情况下不能使用,如自动防护装置,这意味着炸弹过早投入就会爆炸。必须多思考类似的措施如何局限于人工智能系统,尤其是那些在恐慌和前景不明的战场上指挥军队的人。

英国媒体评论说,这些规则必须反映的原则是直截了当的。人工智能必须反映人类的价值观,如公平和灵活的应对策略。

重要的是,为了确保安全,人工智能武器必须尽量明确,以便人类能够理解如何决定。在世界大国之间的应对中,欲望是为了持续的利益而走捷径。迄今为止,没有指出这些危险性得到充分评价的迹象。

五角大楼的人工智能中心雇佣伦理学家。把战争留在电脑上,使世界更加危险。


本文关键词:爱游戏官网,【,爱,游戏,官网,信誉好,】,比,核武,更,参考

本文来源:爱游戏官网-www.gethairfree.com