隨茷U稱「殺手機械人」的自動攻擊武器有機會在可見將來投入戰場,外界開始憂慮國際法能否追上時代步伐。人權觀察和哈佛大學法學院國際人權診所今年發表研究報告,在現行國際法下,不會有人需要為全自動武器造成的非法死傷負上責任,無論電腦程式員、機械人生產商還是軍事人員都可逃過刑責。 受害人僅可民事索償 報告強調,擁有自行決定殺人能力的機械人,已不再是科幻電影才有的東西,英國和美國等國「已使用或發展」類似武器。倘若軍事指揮官蓄意指示殺手機械人犯罪,指揮官本身可能被判有罪,可是如果機械人有自主意志的話,指揮官將難以被起訴。報告指出,受害人或其家屬可以嘗試向肇事機械人的生產商和運作者提出民事訴訟,可是此舉最多只能助其獲得補償,「並不能代替刑事責任」。 報告主筆多徹蒂(Bonnie Docherty)表示,現行法律責任機制不足以處理全自動武器可能造成的非法傷害。她警告,「沒有責任意味蚢鴷憎虒o行沒有阻嚇力」,類似的潛在司法障礙反映有必要盡快全面禁止自動武器。 聯合國亦開始憂慮「致命自動武器系統」(LAWS)的發展趨勢,秘書長潘基文2013年底在《武裝衝突中保護平民報告》中點名警告,LAWS有可能不符現行國際法,各界必須盡快開始討論。去年5月,聯合國在瑞士日內瓦舉行首次會議,專門為此探討應對策略;今年4月,相關專家再聚首日內瓦作進一步討論。
|
|
|