科技屢被濫用製作假資訊,如何防範成頭痛難題。有傳媒與研究機構嘗試以區塊鏈甚至人工智能(AI)反制,但專家坦言隨笓I模仿能力提升,被騙機會便越高。 現時除了由AI機械人發出的文字假消息,竄改圖片影片亦較以往輕易,近年稱為Deepfake的人工智能換臉技術惹改片造假憂慮。美國芝加哥大學電腦科學教授趙英明指出,人們現時習慣從社交網站看新聞,較易接觸到假資訊受騙,而近年出現的影片等假資訊即使缺乏實證仍顯得甚為可信,便證明了造假門檻日低,而且造假者會不斷修正破綻。 面對資訊可信性受危,各界苦思回應方法。《紐約時報》上月推出「新聞源頭計劃」,試驗以區塊鏈技術不可修改性質建立驗證平台,確認相新聞內容的真偽,盼重建傳媒公信力。 哈佛大學及麻省理工大學—IBM Watson人工智能實驗室開發出一套反造假人工智能系統「巨大語言模型實室」(GLTR),藉由將測試文字與多個AI系統的文字模型比對,確認測試文字是否AI產生。在未經「訓練」的情G下,系統準確率達54%至72%,未來有望用於篩查假文章甚至發放不實消息的假帳戶。 (CNBC/麻省理工科技評論)
|
|
|