機械人「叛變」攻擊人類是不少科幻小說的主題,惟隨笓I發展,幻想漸成實質隱憂。科學界對此各執一詞,一方稱機械人構成威脅的說法言之尚早,另一方則擔心機械人被用於戰爭等道德爭議範疇,恐造成可怕後果。 美國史丹福大學去年8月發表《100年AI研究》(AI100)的首份報告,研究交通、醫療保健、教育、就業、治安與公共安全等範疇,AI對美國的影響。報告指出,直至2030年,AI發展雖未臻完善,但亦將成人類生活中的得力助手。帶領研究小組的美國得州大學電腦科學家斯通(Peter Stone)在報告中指出,人們對機械人的能力躍進感憂慮,但現今機械人距離完全自主仍有極大差距,短期內不會對人類構成威脅。 不過美國機械人工程師兼藝術家雷本(Alexander Reben)去年6月則以名為「第一法則」的機械人,挑戰「機械人不可傷害人類」的經典法則。「第一法則」機械人能夠刺傷放在工作平台上的手指,但程式設計令它不一定每次都刺下去,令放下手指的人類難以預期會否受傷。 雷本向英國廣播公司表示,這種設計突顯AI的風險「可能現已存在」,隨時對人類造成傷害或惹起道德爭議。對於部分科學家主張替AI設下防止叛變的「安全掣」,雷本反問:「如果機械人變得如此聰明,它為何不可能自行解除安全掣?」 美工程師挑戰「第一法則」 突顯AI風險 國際間要求採取行動、消除AI威脅的呼聲日盛,例如Google、微軟等科技企業代表聯同多名科學家,去年發動千人聯署,呼籲聯合國制止AI被用作致命武器。聯合國已通過今年內正式商討相關議題。 人權觀察軍備分部總監古斯(Stephen Goose)強調,須立即行動,制止AI武器為人類帶來災難。 (BBC/Seeker)
|
|
|