網絡保安公司列來年風險 換臉合成技術 恐成勒索新手段
【明報專訊】人臉辨識技術除應用於執法,亦有更「親民」的用途,社交平台上美顏、交換人臉、變老變嬰兒的照片均用同一技術,更可進一步延伸成「深度偽造(Deepfake)」技術:將影片中的人物換臉、控制嘴唇、變聲等。網絡保安公司Forcepoint昨日公布,Deepfake技術將成2020年網絡安全五大風險範疇之一,逼真的合成影片或被利用作勒索手段。
入侵網絡攝錄機拍照 合成影片勒索
Forcepoint亞太區技術總監譚偉基表示,Deepfake技術逐漸普及,有內地開發的手機應用程式讓用家自拍幾張照片後,將電影片段人物換成用家;韓國亦有團隊研究把靜止圖像轉化成逼真影片。譚說,未來「有片都未必有真相」,更會引發安全隱憂。
Forcepoint預測,隨Deepfake技術愈成熟,將有更多採用有關技術的網絡釣魚和其他類型網絡攻擊,例如勒索軟件被不當安裝在電腦上後,或會啟動網絡攝影機拍下勒索目標的照片,勒索者或會發送目標的合成影片,要求對方支付贖金,以免影片被發布。商業方面,該技術亦可用於以聲音冒認企業高層,要求其公司僱員將金錢存入網絡犯罪分子的帳戶。此外,Deepfake技術亦可能應用於政治領域,如以合成影片透過社交媒體發放失實信息以抹黑等。
5G存取雲端保安同列大風險
除惡意使用Deepfake技術,其餘四大網絡安全風險範疇還包括因使用5G網絡存取企業數據而引起的網絡安全問題、雲端應用程式保安問題、泄露歐洲公民的個人數據而觸犯「一般資料保護規範(GDPR)」,以及將威脅導向的網絡保安策略轉移至以用家行為作為指標。
Forcepoint區域經理劉海明表示,現時受監管的金融、證券及保險業界會採用更全面網絡保安策略,預計掌握大量個人資料的醫療保健界、半政府機構等都會提升網絡保安意識。
明報記者