盼阻人工智能軍備競賽 霍金參與
千科學家聯署促禁殺手機械人
【綜合報道】全球逾千名研究人工智能(AI)及機械人的頂尖專家周一發表聯署信,籲各國政府中止研發俗稱「殺手機械人」的自動攻擊武器,免觸發人工智能軍備競賽。天文物理學大師霍金和著名左派思想家喬姆斯基等多名科學與文化界人士參與。多國近年積極開發人工智能,中國投入大量資源研究,聯署發言人向本報指,中國專家因受壓難以參與聯署,希望未來有更多中國學者加入。
公開信是由「生命未來研究所」(FLI)發起,趁新一屆國際人工智能聯合會議(IJCAI)周一傍晚在阿根廷首都布宜諾斯艾利斯揭幕時發表,得到過千名研究人工智能和機械人科學的學者響應。FLI是美國麻省理工學院天文物理學教授泰格馬克(Max Tegmark)與社交網站Skype創辦人塔林(Jaan Tallinn)等創立的研究機構,尋求解決攸關人類生存的危機,尤其關注AI的風險,獲霍金及電動車企業Tesla行政總裁穆斯克擔任顧問。霍金、穆斯克與蘋果創辦人之一沃茲尼亞克都參與聯署。霍金自去年底起多番警告AI的風險,甚至擔心這項科技發展下去會導致人類滅亡。
「火藥及核武後第三次戰爭革命」
公開信籲各國停止研發可不經人類介入即選擇和接觸目標的「自動攻擊武器」(offensive autonomous weapons)。
信中指出,AI科技發展迅速,自動攻擊武器可在「數年而非數十年內」面世,堪稱繼火藥和核武後的「第三次戰爭革命」,一旦有任何軍事大國開始大力發展AI武器,一場全球軍備競賽將顯然不可避免,結果就是自動攻擊武器「會成為明日的AK-47」。
公開信警告,有別於核武,製作自動攻擊武器的原料並不昂貴,亦不難以取得,任何軍事大國均可輕鬆量產,結果就是這些自動武器遲早會流入黑市,繼而落於恐怖分子、獨裁者和軍閥之手。由於自動武器是「暗殺、破壞國家穩定、控制人口以及選擇性殺害某一種族等的理想工具」,故相信AI軍備競賽對人類不會有好處。
美國是最支持機械人研究的國家之一,9.11恐襲後美軍展開反恐戰爭,其無人攻擊機因執行刺殺恐怖分子目標期間屢屢傷及平民而引發爭議。《金融時報》報道,美國國防部向科研機構投放大量資源進行相關研究,例如美軍智庫「海軍研究辦公室」2013年便向塔夫斯大學、布朗大學、倫斯勒理工學院、喬治城大學和耶魯大學等學府提供合供750萬美元補助,研究如何教導自動機械人分辨對錯。
發言人:華專家受壓難參與聯署
中國AI科技近年亦蓬勃發展,但今次幾乎沒有內地學者參與聯署。聯署發言人、澳洲新南威爾士大學教授沃爾什(Toby Walsh)向本報稱,據其了解「在中國的研究人員受到不去簽署這封公開信的巨大壓力」。他形容中國是AI研究的主要力量之一,在IJCAI發表的論文數量今年更首次超越美國,希望更多中國研究人員可以支持今次運動。