在國際象棋、圍棋、金融市場交易等領域,AI已有與人腦匹敵或超越人腦的運算能力。當前幾乎所有從事AI研究的科學家都認為,機器最終將在不同領域取代人類,一切只是遲早問題。不過部分分析認為,AI很大程度也受到編程的限制,因此AI也可能犯錯。AI在應用中,往往需要利用數據訓練演算法。如果輸入的數據代表性不足,甚至存在偏差,AI的運算就可能出錯。倘AI作出錯誤的決策並帶來不良的後果,誰應該為此負責?是AI、AI開發者,還是採用AI的企業?人類和AI的角色和責任將如何界定? 一般來說,AI的決策是根據編程和自我學習,人類的角色就是設計部門,確保AI在學習和決策過程的質量。有法律界的觀點認為,人類在應用AI的預測結果時應態度謹慎,在重要領域不應將AI的運算結果,視為必然的決策依據,人為審查也是關鍵的一環。 和其他技術一樣,AI產品也有事故和產品責任的問題,但要分清是人為操作不當,還是AI的缺陷並不容易,舉證尤其困難。倘AI的錯誤造成不良後果,相關的法律責任可能由AI產品的生產者承擔。 倘AI產品的人工智能系統由他人提供,AI開發者可能要承擔責任。如果技術開發者主動設立有問題的算法規則,其要承擔的法律責任也較大。如果AI是採用深度學習等算法,由系統自身探索,並形成演算規則,開發者的責任也相對較小。
|
|
|