美委託研究報告:AGI將威脅人類
OpenAI的生成式人工智能ChatGPT於2022年11月面世,旋即引起全球迴響,並憂慮人工智能(AI)將引起大危機。早於ChatGPT發布前一個月,美國國務院已委託AI安全的研究機構,評估AI被用來做武器及被誤用的安全風險。最近報告出爐,結論是AI最壞可令人類絕種,警告華府須果斷行動,建議國會禁止高於若干運算能力的AI模型訓練,慎防AI帶來重大國安風險。但有前OpenAI高層認為AI普及助降物價,對人類有益,料叛變機會極微。
該報告名為《增加先進人工智能安全與保障的行動計劃》(An Action Plan to Increase the Safety and Security of Advanced AI),由Gladstone AI於其網站發布摘要,表示是受國務院委託而寫,惟全份報告要經登記、審批後才可查閱。CNN向國務院查詢,對方確認有委託Gladstone AI撰寫報告,但強調報告不代表華府觀點。
美國務院:報告不代表華府觀點
報告表明,先進AI及通用人工智能(AGI)有可能使全球安全不穩,好比當年引入核武。目前AGI尚未出現,普遍預料AGI將於5年內誕生。報告將AI風險分兩大類。第一類是AI變成武器,可能用於設計、執行生化、化學、網絡襲擊,甚或為一群機械人啟用危險的應用程式;第二類是失控,或AI系統反勝創造者,若用現有技術開發AI,AI可能失控,甚或貽害人類。
報告憂慮,兩類風險均會因AI界競賽而加劇,例如首家企業做到AGI的話,很可能收割大部分經濟回報,促使企業將發展速度看得重於安全,「它們沒有面臨即時的誘因,投資在不會帶來直接經濟利益的安全或保障措施,哪怕有些人純粹出於憂慮而這樣做。」
據OpenAI在2018年4月發布的憲章,AGI定義為高自動系統,在經濟上最有價值的工作中做得比人類好,進而造福人群。身為目前AI龍頭的OpenAI在憲章中語調審慎,AGI的時間表未定,希望憲章可指引團隊行動,將人類福祉放在第一。為了豐碩的經濟成果,商業競爭恐成點燃AI危機的火種。OpenAI在6年前已提出類似觀點,指擔心AGI的後期開發會演變成競賽,來不及設立安全措施,故他日若有理念一致、具安全意識的項目搶先他們建立AGI,OpenAI承諾會停止競爭,並開始協助對方。今次AI安全報告由三人撰寫,為時逾一年,與逾200名官員(美、英、加)、專家、領先AI企業的員工交流過,包括OpenAI、谷歌旗下DeepMind、Anthropic、facebook母企Meta(美:META)等。
不過,AI企業內一些負責AI安全的員工流露不安,稱該企業的管理層決策時,採用不當的激勵方式。Business Insider訪問了有份撰寫報告的Gladstone AI行政總裁Jeremie Harris與科技總監Edouard Harris,Jeremie Harris認為AI最大風險是網絡攻擊,報告主要寫手Edouard Harris最憂慮選舉受干預。
報告籲從運算力茪 為AI發展設限
AI運算要倚賴強大的運算能力,故報告建議要從運算能力茪漶A為AI發展降溫,因此向美國國會獻計,應將高於若干運算能力的AI模型訓練定為非法,另新設AI的政府機構,由新機構定下門檻,提議門檻可略高於當前領先的模型,如Chat-GPT與谷歌的Gemini。報告補充,該機構應要求AI企業須經政府許可,才可在某門檻之上訓練及部署新模型。
報告還促請當局「緊急」考慮禁止發布強大人工智慧模型的「權重值(weights)」等,違規或處以監禁。「權重值」對AI的類神經網絡(ANN)尤其重要,有份指揮神經元之間的信息傳輸,而AI需要吸納知識來預測及決策,而權重值就會影響了AI吸納知識的過程。
規範晶片擴散 或提振外國產業
報告亦對準高端晶片,形容規範晶片擴散可能是「最重要的要求」,以捍衛長期的全球AI安全,建議政府研究能否將晶片上的技術與出口許可證掛u,監視晶片會否用於大型的AI模型訓練。然而,報告提醒但凡干預措施都可能導致過度監管,反而提振了外國的晶片產業,削弱美國左右供應鏈的能力。
戰略與國際研究中心(CSIS)旗下AI機構Wadhwani Center的AI管治項目主管Greg Allen認為,建議極難獲華府採用,當前華府的AI政策,是制定門檻以外須設立額外的透明度管理和監管,並非如建議所說定為非法,「若無一些外來衝擊,我想他們頗難去改變這個做法。」《時代周刊》於本月12日揭露報告內容,惟AI晶片龍頭股Nvidia(美:NVDA)當日股價再C逾7%,一舉升穿900美元水平,創歷史高位,惟不久失守,近日回吐逾3%。
OpenAI前產品上市策略主管Zack Kass上周在香港演講,對AI看法則樂觀得多。雖然他亦預測AGI會在6年內出現,引發大量工作轉移,但預料人類可承受大部分代價,甚至可降低物價。他又稱,AI引致機械人叛變只屬電影劇情,訓練AI模型時只要AI認同人類價值觀,叛變機會便極微。
多國陸續就AI推出相應方案,如中國《生成式人工智能服務管理暫行辦法》已於去年8月生效。同年10月底,美國總統拜登簽署行政命令,要求AI開發者與美國政府分享數據。
白宮發言人Robyn Patterson就報告回應,指美國總統拜登對AI施行政命令,是至今任何政府最重大的行動,去實踐承諾,並控制AI風險。她補充,正副總統會繼續與國際伙伴合作,敦促國會通過立法議案,控制與新興科技有關的風險。
歐盟新法:須確保產品合法才上架
不過,當前普遍認為以歐盟本月13日通過的AI法案最領先。新法列明,AI系統風險愈高,所受規範愈嚴,提供高風險AI的廠商,必須做風險評估,確保產品合法,才准上架。新法亦要求在不扼殺發展下,遏止潛在偏見、侵犯私隱與人權等問題,又禁止對人分類的生物識別掃描等。
Gladstone AI創辦人Jeremie Harris、Edouard Harris是兩兄弟,2018年曾在矽谷著名孵化器Y Combinator經營過AI公司,當時Y Combinator主席為OpenAI創辦人Sam Altman。美國負責應對新興科技風險的部門於2022年招標,就AI風險寫報告,最後由Harris兄弟中標,並寫下今次發布的報告。
另外,聯合國大會上周四(21日)一致通過首個有關人工智能(AI)的國際決議。決議提及不當或惡意設計、發展或使用AI系統,可能對侵害人權、加劇偏見,鼓勵各國在AI冒起下,推動安全、可靠及值得信賴的AI系統,同時要監察AI風險、保護私隱及保障人權,並要惠及發展中國家。
這項不具法律約束力的決議由美國提出,包括中國在內的122個國家聯合提案,談判歷時約3個月。決議承認AI開發和使用突飛猛進,強調當前有「就安全、可靠、值得信賴AI系統達成全球共識的緊迫性」。決議指出,AI系統的不當或惡意設計、開發、部署和使用所帶來的風險,可能削弱對人權和基本自由的保護、促進和享有。決議要求成員國或相關持份者避免或停止使用不符國際人權法或削弱人權的AI系統。法新社指出,聯合國秘書長古特雷斯一直將監管AI視為要務,經常談及AI生成假資訊的潛在威脅,又呼籲可以按照國際原子能機構(IAEA)這類聯合國組織而成立AI監管機構。不過,路透社的報道提到,今次決議是國際間又一項針對AI風險和引導AI發展方向而成的方針,但與部分國家早前提出的方案一樣沒有多大約束力。明報記者 鄭智文 綜合報道:《時代周刊》、CNN、Business Insider