美國晶片大廠輝達(Nvidia)利用人工智能(AI)與圖像技術,自動分析人臉的多個細微特徵,並且能在個別調整後組合成全新人臉,幾可亂真。有專家表示,隨笓I繼續發展,重塑人臉技術將有多項功用,但不法之徒亦可利用它招搖撞騙,甚至影響政治。
輝達上月發表文章展示AI重塑人臉技術威力。它使用4年前推出的「生成對抗網絡」(Generative Adversarial Network)——由一個生成網絡與一個判別網絡互相學習的技術,該技術被用以分析和學習已取得使用許可的7萬張Flickr人像照片,進而了解人臉各個器官分佈、組成關連,可將不同人臉各部位依照器官、特徵拆開,再重新組合成新臉孔,其中可以選擇將特定特徵保留,或是以相似形式呈現。系統生成的人像會由另一個專門分析人像的AI判斷真偽,透過兩個網絡系統不斷「對抗」和學習,產生出來的「假人像」的像真度就不斷提高,到現時幾乎難以用肉眼發現是假相。
解析面部特徵 建構自然人臉
輝達此前已經可以透過AI建立臉部肌肉動作、表情呈現逼真的人臉模型,現在更可解析每一張臉孔的細微特徵,並且能了解各特徵細節的相互關係,因此新建構的人臉大多顯得自然,不會再出現過往單純將不同組合的臉部特徵胡亂拼合的情G。
不過,參與的研究員指出,頭髮是最容易出破綻的位置,原因是髮線位難以完美無瑕地轉移,有時會看得出好像是黏貼上去。除了人臉外,AI系統還可以用來生成貓咪、汽車甚至睡房的照片。
別有用心者或扮權威人士 發放假消息
這種技術很自然令人聯想到電影或電子遊戲特效製作,未來電影出現高危動作場面時,電腦特技可以將像真人臉套用,演員毋須再「搏命」演出;電子遊戲主角也可以更像真人,加強代入感;警方追緝疑犯時,也可透過分析拆解組合方式,輕易得出疑犯可能整容後的模樣,另外它也可用於在公共場所辨析和比對公眾的人臉。
不過,新技術亦惹來憂慮,包括生成假照片來假冒真人騙財,例如用來當作社交網站假帳號的大頭照。
此外,不法之徒也可以利用AI將色情影片主角移花接木,影響當事人。甚至有人可能藉此扮權威人士發放假消息和資訊,損害大眾對照片、影片的信任度,嚴重的話足以威脅司法和政治制度。(綜合報道)