人工智能武器之辯 新寵還是禁忌?

人工智能武器之辯  新寵還是禁忌?

近年來,人工智能成為美軍推崇的前沿軍事技術之一,人工智能武器的研發和運用隨之成為一種潮流。然而,對於這一新寵,美國不少學者表現出擔憂,並就人工智能武器的作戰運用展開辯論和展望。

美國學者指出,自2014年提出第三次「抵消戰略」以來,美軍一直將人工智能武器視為優先發展方向。當前,研發工作已初具雛形,一個典型代表是陸軍先進目標定位與殺傷性自主系統,即外界熟知的「阿特拉斯」殺人機器人。雖然名字嚇人,但其主要作用是協助人類發現目標、篩選優先打擊目標和做好射擊前准備等,「最後一步」扣動扳機仍由人類發出指令。此外,美軍還希望將人從坦克、裝甲車、戰鬥機和戰艦中解放出來,讓人工智能武器成為應對未來衝突的主要執行者。

對於人工智能武器的作戰運用,美國國記憶體在較大分歧。

首先是自主程度之辯。部分學者認為,要進一步提升人工智能武器的自主程度,令其在緊急情況下自主遂行目標打擊等任務。另一部分人認為,賦予人工智能武器過多自主性,可能會造成誤擊、誤傷事件,而且,這些裝備在復雜環境下未必能做出最佳選擇。

其次是作戰效果之辯。有觀點認為,人工智能武器可有效降低己方人員傷亡,最大程度增加敵方損失。也有學者以微型無人機和殺人機器人為例稱,上述裝備降低了獲取難度和使用門檻,敵方武裝人員可藉此實施非對稱打擊。

再次是作用發揮之辯。美軍「鷹派」人士認為,人工智能武器的主要作用是「取代人類」,對敵方實施更大規模的打擊,但更多人認為,其主要作用應立足於協助人類,遂行後勤保障和維修保養等非作戰任務。

最後是思維倫理之辯。美國軍事記者西德尼等人認為,人工智能殺傷武器無法做出「創造性抉擇」,對於倫理道德問題的把握與人類有較大差距。也有觀點認為,隨着科技水平的提升,人工智能武器的「理性優勢」將進一步凸顯。

針對人工智能殺傷武器的使用,美國國防部2012年曾頒布《國防部第3000.09號指令》。不過迄今為止,尚未有任何武器系統被納入該指令的應用范疇。

對於人工智能武器的未來,一些學者認為,「人機迴圈」的研發和運用模式將得以延續,未來人類仍將是人工智能武器的研發者和主宰者,需秉持「嚴肅認真」的態度推動其發展。在發展過程中,人工智能武器必須走「窄路」,將其使用范圍嚴格控制在防禦和反擊內,如擊落來襲導彈、快速計算子彈落點、在狙擊手二次擊發前將其擊斃等。也有一些學者和軍方人士提出,人工智能武器未必能給美軍帶來軍力優勢和戰略威懾,稍有不慎,還可能演變成大國間的軍備競賽。當前,中國等26個國家已承諾不研發殺人機器人,美國及其盟友尚未作出上述承諾。

來源:華人頭條B

來源:中國軍視網