目錄

技術發展武器向智能化轉變 科學家憂監管不足帶來風險

【本報墨爾本訊】隨著世界各國政府在沖突中轉向人工智能和自動武器,人權倡導者和科學家呼籲建立更強有力的框架來指導它們的使用。

上個月,澳洲國防軍在維州北部的Puckapunyal陸軍基地展示了一套陸地自動系統武器,並進行了團隊演示。其中包括自動飛行的無人機、機器人戰車、無人駕駛坦克和可用於清除地雷的機器狗。

這些武器並非完全自動化,需要人類一定程度的參與。

機器人和自主系統主管赫普沃斯中校表示,澳洲陸軍在行政環境和戰爭前線看到了人工智能的一系列用途,重要的是保持人類對決策的監管。每個系統都必經法律審查程序,以滿足我們根據國際法承擔的所有國內外義務。

不過科學和人權領域有人認為,還需做更多工作來建立更強有力的框架來管理其使用。

新南威爾士大學人工智能研究所的首席科學家沃爾什說,人工智能和自動武器的使用是一把雙刃劍。你可以想到一些非常實際的應用,比如掃雷機器人。任何人都不應該再冒著生命危險去清除雷區。這對機器人來說是一項完美的工作。這是一個技術發展非常迅速的領域,軍方正在以令人難以置信的速度采用它,但是與此同時,武器中使用的軟件很容易被竊取、復製或破解。

沃爾什說,實際這只是一個改變代碼的問題,要求操作員確認目標選擇,或者目標選擇可以變成一個完全自主的武器。澳洲國防軍總是說「無需擔心」,但是事實是這類武器很容易被他人利用,一些都需要擔心,需要進行有意義的控制。

人權專員芬萊表示,自動武器的使用對國際人道主義法所設定的原則構成了挑戰,「日內瓦公約」規定的審查製度是有缺陷的,因為自動武器的設計是為了從每次任務中學習,而且技術也在不斷發展。大家擔心機器是否能真正理解這種比例和權限,因為它們根本不理解人類生命的內在價值。

目前還沒有專門針對致命自動武器的具體規定,芬萊向政府提出的建議是應有這樣的規定。

去年11月,澳洲對聯合國的一項決議投了贊成票,該決議敦促國際社會考慮自動武器系統所構成的挑戰。(意航)

分享 / Share :

Breaking News

Related news