Google避侵私隱 研AI新學習法
面對日益增加的科技用戶,企業投放於發展人工智能的資源不斷增加,而提升人工智能運算能力的同時,亦面對可能侵犯用戶私隱的問題。互聯網巨擘Google正研究讓AI學習新演算法,從而在了解用戶的資訊同時避開私隱爭議。
原始資料經加密 再上傳總機
部分人為免私隱曝光,會減少留下互聯網足印(online footprint),令外界不容易知悉其私隱,但很多時都會防不勝防。Google在今年4月發表研究,他們正測試AI的聯合學習(federated learning)能力。小型AI會在數以百萬計的手機上,學習用家的使用電話習慣。
這些原始資訊(用家使用習慣)不會直接傳送到訓練伺服器,而是手機上的AI會透過加密方式,向Google的主AI更新所學習的事,後者會集合所有小型AI的「報告」來學習,與傳統AI掌握所有數據然後運算不同。
蘋果擬蒐群組特徵 非個人資料
至於美國蘋果公司, 去年則提出「differential privacy」(差分私隱)密碼演算法去收集用戶數據,它容許公司了解某一群組的人的喜好或需要,但不會嘗試了解某一個人的資料,以免被指侵犯私隱。惟有科技網站質疑,蘋果此舉其實只是要取得更多用戶資料。(Motherboard/Medium)