人工智能用於交通安全監控 研究指易增道路使用者風險
【明報專訊】多倫多約克大學昨(16)日發表的一項研究指出,人工智能並非無堅不摧,萬試萬能,在某些情況下會撞板。
有份參與這項調查的約克大學詹姆斯·埃爾德教授(Professor James Elder)說,即使是深度卷積神經網絡 (DCNN),都不能像人類那樣看待物體——使用配置形狀感知——這在現實世界的人工智能應用中可能是危險的。
發表在Cell Press期刊iScience上的文章指出,人工智能的深度學習模型,未能捕捉到人體形狀感知的配置性質。
埃爾德教授指出:「我們的調查結果解釋了,為什麼深度AI模型在某些條件下會失敗,並指出需要考慮物體識別之外的任務,以了解大腦中的視覺處理。」
他說:「這些深度模型在解決複雜的識別任務時往往會走‘捷徑’。雖然這些捷徑可能在許多情況下都有效,但在我們目前與行業和政府合作伙伴合作的一些現實世界,人工智能應用程序中,它們可能是危險的。」此類應用之一是包括交通視頻安全系統:「在繁忙交通場景中的物體,如車輛、單車和行人——相互阻礙,並以雜亂無章的零碎片段形式,去到司機的眼睛。」
他解釋說:「大腦需要正確地對這些片段進行分組,能識別物體的正確類別和位置。反觀AI只能單獨感知片段式,用於交通安全監控的人工智能系統,將無法完成這項任務,這些可能會有誤解,容易增加道路使用者的風險。」