人工智能安全:未來戰爭的風險與挑戰

智能家居 2020-05-19 10:31124未知admin

隨著人工智能技術的發展,人工智能已廣泛應用到各行各業,推動人類社會發生廣泛而深刻的變革。然而,人工智能技術是把“雙刃劍”,人工智能也可能帶來意想不到的安全問題。從無人駕駛汽車撞人到自主武器殺人,從腦機接口打造超級人類到人工智能自我復制,人工智能真的安全嗎?特別是人工智能應用到軍事領域,世界是否會陷入可怕的“人工智能軍備競賽”,而導致人工智能失控?

人工智能安全風險的根源

人工智能之所以給人類帶來安全風險,一方面是人工智能技術不成熟造成的,包括算法不可解釋性、數據強依賴性等技術局限性;另一方面是人工智能技術在應用和濫用過程中對不同領域造成的影響和沖擊,包括對政治、經濟、軍事、社會倫理道德等的沖擊和挑戰。具體到軍事領域,人工智能帶來的風險和挑戰,除了技術局限性和不成熟性帶來的風險,還包括對現有戰爭機理的改變,對戰略穩定性的沖擊,對戰爭倫理道德的挑戰等。本文僅選取智能情報系統的誤判風險、輔助決策系統的安全風險、自主武器系統的安全風險三個方面進行分析。

智能情報系統的誤判風險

基于人工智能技術的感知系統可廣泛用于情報、監視和偵察任務,但是這種智能情報系統存在誤判的風險。

首先,智能情報系統的視覺感知是基于已有的圖象數據集進行訓練,數據的數量和質量都會影響人工智能的情報判斷的準確性。其次,人工智能的計算機視覺與人類的認知方法是不同的。人工智能系統在接受訓練后能夠對物體或人物圖像進行識別和分類,但卻并不能像人類一樣理解對象的含義或概念。當面臨新的圖像數據集時就會做出錯誤的判斷。再次,智能情報系統還可能被欺騙做出錯誤判斷,即對抗樣本攻擊。例如,將一小塊精心挑選的膠布粘貼到交通信號燈上能夠使人工智能系統判斷失誤,把紅燈判斷為綠燈。2019年8月,來自莫斯科國立大學和華為莫斯科研究中心的兩位研究人員公布了一項研究結果,只需要用普通打印機打印一張彩色貼紙貼到帽子上,就能使ArcFace等業內領先的人臉識別系統做出錯誤判斷。在作戰中,這種錯誤有可能導致對攻擊目標的錯誤判斷,誤傷平民或者己方人員和設施。

思考:在戰爭中,如果采用對抗樣本攻擊故意使對方的人工智能系統無法分辨軍人與平民,軍事設施和民用設施,導致錯誤的攻擊,誰承擔責任?

輔助決策系統的安全風險

人工智能輔助決策系統在軍事上的應用可加快數據處理速度,提高對象識別能力,提高人機交互水平。DARPA于2007年啟動“深綠”(Deep Green)項目,將人工智能引入作戰輔助決策,它通過對OODA環中的觀察和判斷環節進行多次計算機模擬,提前演示不同作戰方案可能產生的各種結果,對敵方行動進行預判,協助指揮官做出正確決策。但是,輔助決策系統的安全風險也同樣不可忽視。首先,戰場環境的改變和戰場的復雜性可能使人工智能系統做出錯誤判斷,從而影響指揮官的決策。其次,如果戰爭雙方均采用人工智能輔助決策系統,在戰場上對抗雙方部署的人工智能系統會使環境復雜化,超出一個或多個系統的解析力,進一步加劇了系統的脆弱性,并增加了事故和失誤的可能性。第三,人工智能使決策流程和時間被大大縮短,國家之間因意外事件導致的沖突升級風險便大大提升。如果人工智能參與核打擊的決策,后果將更加嚴重。美國國防部前副部長羅伯特·沃克曾以俄羅斯的“周長”核武控制系統為例說明人工智能不應參與管控核武器,因為它們會根據某些指標或數據做出錯誤判斷,啟動核武。在特殊情況下,人工智能可能會誤判一些潛在威脅,從而更輕易地引發核戰爭。

眼爆科技 Copyright © 2002-2017 深圳眼爆智能科技有限公司 版權所有?備案號:* 本站資源來自互聯網,我們轉載的目的是用于學習交流與討論,如果您認為我們的轉載侵犯了您的權益,請與我們聯系(Email:[email protected]),我們將在3個工作日內刪除相關內容。

郵箱地址:[email protected]
二分时时彩五星走势图