top of page
作家相片陳建佑律師

【 當AI出包時,我們該怎麼看待AI?】

已更新:2020年6月29日


【 當AI出包時,我們該怎麼看待AI?】


大家都說我們已經進入AI的時代。彷彿山也AI,海也AI,什麼都能AI,不論您買的洗衣機,甚至是「律師」Ross,都是AI。但當AI出包時,我們該怎麼看待或處理AI?首先就要知道AI是什麼。



〖 什麼是AI?〗


AI(Artificial Intelligence)是具有人工智慧的技術或裝置,即透過程式設計,使電腦有類似於人類的知識及反應,做到理解人們的表達、學習、推論及解決問題。


而在技術上,設計者藉由輸入或餵養大量的訓練資料(Training Data)到能從事深度學習(Deep Learning)的神經網路(Neural Network),即仿照人類的神經元運作的函數運算,使系統「學習」資料中的規律及模式,進一步建立判斷的模型或規則,然後做出預測或建議。




〖AI的技術分級 〗


而AI的技術分級,參照1980年美國哲學家-約翰.瑟爾(John Searle),可分為:


1.弱AI(即:Narrow AI、Weak AI或Applied AI,僅有工具性或僅屬應用型):


目前我們看到的AI算法及應用都屬於弱AI,例如:iPhone的Siri或打敗棋王的AlphaGo。



2.強AI(即:Strong AI或Artificial General Intelligence藉由人類之晶片設計與電腦軟體所建構之深度學習,在人類期待的任務範圍與功能內,令AI實施創作行為):


具備與人類同等智慧,能表現正常人類的所有智能行為,而可以勝任人類所有工作的AI。



3.超AI(超越人類原本設置AI的期待範圍,其系統可完成無限範圍的目標,並具有在不明或不確定情況下獨立設定目標的能力):


此概念最為模糊, 因為沒人知道若超越人類最高水平的智慧到底會表現為何種能力。



前述提到的律師Ross,就是屬於「弱AI」程式,是利用IBM Watson電腦的分析系統,經長時間對大量案例進行統計與分析,學習如何以專業律師的身份為客戶提供服務。




〖 當AI出包時,我們應怎麼處理AI?〗


以下就舉「律師」Ross為例做說明。

若L律師興高采烈地為其事務所購入AI產品,即「律師」Ross機器人,透過其分析與協助,而為L律師的客戶爭取最佳利益、最精準的選擇與策略方法,並提供更具創造性的法律服務,且減少花費大量時間查詢案例或法條。但當這樣的AI律師提供的法律見解出現明顯的錯誤時(例如:將舊法的規定誤認為現行法律規範,或是將少數學說誤以為是現行實務多數說或通說),因而導致L律師敗訴,甚至造成其客戶的損失,則在目前台灣民事責任方面,應如何進行法律責任的釐清?



雖然有文獻主張可以為已具有判斷及互動能力的AI創造「電子人」,賦予其「法律人格」或「電子人格」,令其有特別的權利義務能力,而使其獨立負責對第三人的損害賠償。但這樣的觀點或許太過前衛,且無相關配套措施(例如:保險制度或補償基金),甚至在技術方面,因AI目前亦尚未發展到趨近或具備接近人類「人格」的程度(即前述「強AI」的階段),所以都言之過早。



於是,就有學者認為,由於目前AI技術尚未有「自由意志」,即尚未達到具有尊嚴、情緒、倫理道德等感情或思想之「人格生命特徵」的階段,仍應回歸一般的契約責任及侵權行為責任。而若參照實務見解,即桃園地方法院90年度交聲字第281號刑事裁定提及「自行動作之微電腦依現今科技,其人工智慧亦尚未達摻雜情感因素程度」等語,該裁定對AI之理解與宣示,也合乎學者的說法。



因此,若AI律師「Ross」提供的法律見解出現明顯的錯誤時,因而導致L律師敗訴,甚至造成其客戶的損失,則在目前台灣民事責任方面,應回歸民法上關於買賣或承攬契約中的瑕疵擔保責任,抑或消費者保護法關於「Ross」商品設計者或製造者的商品製造人責任(例如消保法第7條)。換言之,L律師可能得去找IBM或設計者、製造商主張上揭的法律責任。



此外,也有學者認為,不論前述AI的技術或分級,在理解上都是以「人類標準」做區分,以「人類心靈」為發展的標竿。在著名的「圖靈測試」(Turing Test):「透過語言溝通,我們無法區別是人類還是機器,在跟我們溝通」,都是一個「人文主義」(以人類為中心)的大方向。故提出應以「反人文主義」觀點去思考上開法律問題,因為人文主義可能會妨礙法律問題的討論與思考(即「人文主義的負擔」)。



如果AI根本不會作畫、不會下棋、不會當律師,其智能的外在表現或創作,並不等於其內在的心靈或觀點,而只是在「演算」,只是表現出似乎在作畫、下棋、當律師。此種賦予AI「人的形象」或「擬人化」(是畫家、棋王或律師)的觀點或需求,無助於吾人了解AI非人、反人性的性質,更無法釐清相關法律責任的爭議。最後就可能拘泥在AI是否應該具有獨立的人格權、是否應有情感特徵等標準或階段,而不能直接進入或回歸法律分析的重點:當AI產品、機器、演算系統或程式出包時,債權人或受有損害者應如何針對其設計者、製造者或使用者究責!


91 次查看0 則留言

留言


bottom of page