APP「脫光」女生衣服變裸照
上市幾天遭狠批迅速下架
【明報專訊】AI換臉的技術愈來愈發達,有工程師開發出一個名叫DeepNude的APP,只要上傳一張女性的照片,DeepNude就可以自動把女性的衣服「脫光」,偽造出超逼真裸照。由於爭議太大,DeepNude上市不到幾天就迅速下架,但仍在網路上引發熱議。
DeepNude可以將穿著衣服的女性照片轉換成裸照,照片中裸露越多肌膚,修改的效果越好。這個APP只能修改女生的照片,如果上傳男性的照片,DeepNude會自動替換成女性性徵。如果使用卡通人物照片,影像會完全扭曲。
DeepNude創建者,化名Alberto,一開始他是在一本舊漫畫雜誌上看到一個X光眼鏡的廣告,廣告聲稱戴上眼鏡可以讓人看透衣服下的春光,2年前Alberto又發現GAN(Generative Adversarial Networks)能將白天的照片轉換成黑夜,他想到自己可以透過技術讓X光眼鏡的構想成真,於是動手研發。
開發商:日後創男人版
目前DeepNude只適用於女性的照片,原因是女性的裸照在網路上更容易找到,Alberto表示日後也希望創造一個男性版本的APP。Alberto強調:「我不是偷窺狂,我是技術愛好者。」
有人問他,擔不擔心這個APP會傷害到別人,Alberto表示,DeepNude能做到的,Photoshop使用者經過學習也能做到。他也指出,DeepNude不會自己傳輸圖像,只是創造出照片,並提供給用戶使用。Alberto說:「就算我不做,一年內也會有其他人研發出來。」
但對於這款應用程式,外界大多是震驚和批判。DeepNude和去年使用AI技術將色情影片主角換臉的「Deepfake」的算法相似,但DeepNude技術更先進、操作更簡單、處理也更快。這種技術很容易就會成為傷害女性的工具,例如在未經女性同意的情況下,擅自使用她的照片合成,或在網路上惡意散布這些「假色情照片」,這些都會對女性造成傷害。
反報復色情活動組織(BADASS)創辦人兼執行長鮑登(Katelyn Bowden)表示,即使是沒有拍過裸照的人,現在都可能成為受害者。他直言:「這種技術根本不應該向公眾開放。」
馬里蘭大學凱里法學院教授西龍(Danielle Citron)指出,DeepNude完全是在「侵犯性隱私」。她說:「是的,這不是你真正的私處,但其他人『認為』他們看見了你的裸體。」
由於招受許多批評,DeepNude很快就下架了,開發團隊在推特發文表示他們「大大低估了」公眾的興趣,並表示因為人們濫用的可能性太高,DeepNude將不會再發布所有版本。他們表示:「世界還沒有為DeepNude做好準備。」