top of page
  • 作家相片陳建佑律師

「全自動駕駛」有辦法在台灣上路嗎?

[前言]

全世界的自動駕駛汽車大多僅在「Level 2」或「Level 3」的程度,但前陣子馬斯克竟又說特斯拉的全自動駕駛(FSD;Full Self-Driving)系統已經非常接近「Level 5」(全自動駕駛)的境界,又引發全球討論,尤其在法律界也對自駕車的「法律容許風險」程度甚感興趣。自駕車的相關法律討論,不僅包括責任釐清與風險分配的解釋或立法,更涉及交通法規是否有阻礙自駕車發展的問題,本文會一併討論。




[自動駕駛等級分類]

什麼是「Level 5」-全自動駕駛?什麼又是「Level 2、3」?首先須先了解什麼是「自動駕駛汽車」。所謂的「自動駕駛汽車」為一種運輸動力的無人地面載具,不需要人類操作即能以雷達、光學雷達、GPS及電腦視覺等技術感測其環境,並進行導航。



▲ 作者自製圖解


根據美國國家公路交通安全管理局(NHTSA)或美國汽車工程師協會(SAE)提出的自動駕駛等級分類系統,可分為:

  • Level 0(人工駕駛):無自動。駕駛隨時掌握著車輛的所有機械、物理功能,僅配備警報裝置等等無關主動駕駛的功能也算在內。

  • Level 1(輔助駕駛):駕駛者操作車輛,但個別的裝置有時能發揮作用,如電子穩定程式(ESP)或防鎖死煞車系統(ABS)可以幫助行車安全。

  • Level 2(部分自動駕駛):駕駛者主要控制車輛,但系統階調地自動化,使之明顯減輕操作負擔,例如主動式巡航定速(ACC)結合自動跟車和車道偏離警示,而自動緊急煞停系統(AEB)透過盲點偵測和汽車防撞系統的部分技術結合。

  • Level 3(條件自動駕駛):駕駛者需隨時準備控制車輛,自動駕駛輔助控制期間,如在跟車時雖然可以暫時免於操作,但當汽車偵測到需要駕駛者的情形時,會立即回歸讓駕駛者接管其後續控制,駕駛必須接手因應系統無力處理的狀況。

  • Level 4(高度自動駕駛):駕駛者可在條件允許下讓車輛完整自駕,啟動自動駕駛後,一般不必介入控制,此車可以按照設定之道路通則,自己執行包含轉彎、換車道與加速等工作,系統並提供駕駛者「足夠寬裕之轉換時間」,駕駛應監看車輛運作,但可包括有旁觀下的無人停車功能。(有方向盤自動車)

  • Level 5(完全自動駕駛):駕駛者不必在車內,任何時刻都不會控制到車輛。此類車輛能自行啟動駕駛裝置,可執行所有與安全有關之重要功能,包括沒有人在車上時的情形,完全不需受駕駛意志所控,可以自行決策。(無需方向盤自動車)


日前先由德國車廠賓士(Mercedes-Benz)率先實現自駕等級Level 4。而電動車大廠特斯拉 (Tesla)詮釋的自動駕駛,則稱全自動駕駛(FSD;Full Self-Driving),原本這項技術尚未成熟,轉而代之的則是「低配版」的自動輔助駕駛(Autopilot),既保有一定的自動功能,但仍須倚靠人力控制;但Tesla的FSD系統被認為是最完整的自動駕駛系統之一,儘管頂多只處於Level 2或3的自動駕駛狀態,在Tesla執行長馬斯克近日再度宣布要利用自家的超級電腦Dojo拚「全自動駕駛車」後,讓「自動駕駛」再度掀起相關話題。


[自駕車使用人的責任風險分配]

自駕車的相關法律討論,包括責任釐清與風險分配的解釋或立法,對於人工智慧(AI)規範的立法,能提供樣本,別具意義,因能提供出一個途徑去預測未來的AI法律規範的雛形。尤其在AI自駕車的技術日趨成熟,且為世人所漸漸廣為接受,甚至進入商用量產階段,在未來法令肯定或容許自駕車正式上路的同時,也應處理或規範自駕車在法律上所容許的風險,即如何釐清責任與分配風險。

雖然台灣參考國外法規而在2018年12月通過《無人載具科技創新實驗條例》,然這只是鼓勵產業創新的誘因,並肯定自駕車可能對國家在交通、能源、物流、城市規劃等各方面帶來的正面意義,仍無法躲避自駕車的責任釐清與風險分配。

傳統車輛由自然人操控,因其行為違反注意義務而有過失,導致發生道路交通事故,自應負賠償責任。然而自駕車的特性,是將負責操控車輛主體,由自然人漸次轉移至自動駕駛系統,隨著自動駕駛系統等級的不同,自駕車使用人參與車輛行駛的程度也會有所不同,進而影響道路交通事故責任主體的確認,及其注意義務範圍的認定。

在AI時代,自駕車最有可能被指控或主張的,是「過失侵權」(包括台灣民法的第191-1條商品製造人責任)、「違約」與「產品責任」(例如台灣消保法第7條)等傳統的責任理論規範。而自駕車何時需要承擔責任?一般來說可分為以下情況:

  1. 使用或監督自駕車的人(操作者),或其他與自駕車有互動影響的人,都可能需要承擔責任。如果使用或監督自駕車的人類,或尾隨自駕車的人類,造成自駕車的事故發生與結果,則由該人類承認責任,很合理。

  2. 設計者、製造商、銷售商,可能需要承擔產品責任(自駕車在流通進入市場時,沒有符合「當時科技或專業水準可合理期待之安全性」),或過失侵權責任。

  3. AI對其本身的行為,承擔責任。例如AI引起損害,或造成損害的責任在無法歸屬於設計者、製造商、銷售商的情形。至於支付賠償或和解費用的方式或立法建議,可能是建立一個儲備金,或要求購買自駕車的人要投保定額保險。


上述第3點的立法建議,其意義在於能夠保障受害人獲得經濟賠償,且避免使自駕車的所有權人、消費者、設計開發者、製造商或銷售商承擔責任、扛下潛在或不可預測的法律風險。不僅更加準確地反映自駕車事故的真實情形,且符合損失填補原則—既然是AI自駕車本身的失誤造成的損害,就由其本身獨立承擔賠償責任;也達成鼓勵產業創新,不會打擊企業經營者開發、製造或銷售全自動駕駛汽車,且增加消費者購買全自動駕駛汽車的信心,更避免各方擔心引發未知的訴訟所帶來的預算成本問題,以及解決因AI技術(例如機器或演算法已具有學習新事物的能力)引發訴訟程序的複雜性—原告應如何舉證的困難:如何由專家證人鑑定或證明該損害是由何方(即上述1、2、3點)造成?。


我們在AI時代,必須研討出究竟誰該為AI自動駕駛負責的法律規範。這個規範直接涉及AI立法的核心,所有AI應用的領域都有類似的爭議,在過去法律制度的設計已逐漸窒礙難行,因為都是圍繞著「行為人」、「因果關係」「責任理論」的處理,但當AI由輔助人類開始到未來將全自動化運作(即高度自主)的情形,本文認為若以上述第1、2、3點的處理原則或規範,應能達到符合AI發展的產業與社會需求的平衡。


每次新科技所帶來的革命,不只是社會與環境的改變,連法律價值與體系也受到衝擊,必須有所調整與適應,這是我們所應面對的挑戰,首當其衝的根本問題就是:AI本身是否為權利義務的歸屬主體,可享受權利或承擔義務(此與上述第3點立法建議有關)。本文認為這是可以採肯定見解的,否則「公司」這種法律擬制的制度,以及「強制汽車責任保險」、「財團法人汽車交通事故特別補償基金」這些是怎麼來的?立法目的不就是在解決因應社會演變與分配風險需要而生的嗎?


誠如「人類大歷史:從野獸到扮演上帝」一書的作者所言,「公司」只是我們的一個集體想像與概念,這個想像稱為「法律擬制」,雖非一個實體物件,但是以一種獨立「合法個體」的方式與立法存在於我們的社會,可謂人類一項巧妙無比的發明,而不等於設立者、負責人、投資者或管理者。只是這種公司制度已成為經濟主流,我們早習以為常,而忘了這只存在我們的想像之中。如今我們面臨AI時代所帶來的新問題,賦予AI權義主體的地位,使其本身的行為承擔責任,尤其在AI引起損害,或造成損害的責任在無法歸屬於設計者、製造商、銷售商,而在現行法體系下無解的情形,這其實不失為一種好方法;至於支付賠償或和解費用的方式或立法建議,可建立一個儲備金,或要求購買自駕車的人要投保定額保險,去解決分散風險的需要。我覺得這不僅是一個不錯的想像與概念,更可能是未來一個很好的解決之道。


此外,我們也可關注歐盟人工智慧責任指令(AI Liability Directive)草案的規範內容,因其為人工智慧創設一種新的侵權責任類型,換言之,它在探討AI系統侵害人們權利時,該如何分配法律責任。在過失層次,建立高風險人工智慧注意義務違反的認定標準,並以證據揭露義務違反來「推定」違反注意義務;在損害與因果關係層次,該草案更著重在減輕原告的舉證責任,尤其是針對無法獲得充分的證據與專業知識的被害者,降低其舉證的難度,藉此保護侵權行為被害人。


承上,因果關係的推定,是指依法在滿足相關要件後,法院應推定被告就AI系統所生的過失(fault)與AI系統的產出(output)有因果關係;其實只用在「過失」(fault)與「AI系統的產出」(output)之間的觀察,至於AI的「產出」(或未能產出)如何導致損害發生,還需原告自行設法證明──如自駕車的行駛撞到路人產生何種身體損害?就此,台灣目前對於AI侵權還是以民法侵權行為相關條文及消費者保護法處理,未來若有更多AI侵權案件進入法院,傳統的民法與消保法是否足夠?是否需要調整?歐盟人工智慧責任指令應值得做為台灣針對AI系統的自駕車責任風險分配之立法參考。


[自駕車過失責任的各國作法]

在美國方面,除傳統之過失侵權責任及產品瑕疵之嚴格責任外,針對自駕車之事故風險及責任,美國州政府亦採取以商業保險方式轉移。


法國於2021年4月14日通過「自駕車責任法」規範自駕車通行的刑事責任與適用條件,以及自動化道路運輸系統的安全性與刑事責任 。 法國自駕車責任法之核心條文雖然只有 6 條,但從其所涉及之層面而言,同時連動公路法、交通運輸法、消費者保護法、刑事訴訟法之修正,並明文納入歐盟關於自駕車的多項指令與規則。


德國於2017年3月29日修正「道路交通法 」明文允許配備自動駕駛系統的機動車輛得行駛於德國道路,允許高度自動駕駛(Level 4)車輛於2022年開上德國公共道路,成為全世界第一個無人駕駛車輛從研究走向日常生活的國家。該次修正重點除允許使用高度與完全自動駕駛功能的機動車輛相當於SAE分級標準下Level 3與Level 4自駕車外,更要求駕駛人應隨時處於待命狀態,以便於能在特定情況下即時接管車輛操控。駕駛人使用高度或完全自動駕駛功能的車輛時,得啟動自動駕駛系統全權交由自動駕駛系統操控,而不需親自控制車輛。此際駕駛人雖未親自操控車輛,但依據德國道路交通法第1a條第4項規定,其仍為法律意義下的駕駛人,由該規定可知,德國道路交通法規範的自駕車仍未完全排除駕駛人。 換言之,無人駕駛車輛(即Level 5 之自駕車) 現階段於德國仍無法合法上路。


又依德國道路交通法第1b條規定,在自動駕駛系統通知駕駛人接管車輛操控,或駕駛 人本身意識到或有明顯證據顯示自動駕駛系統已無法正常運作,駕駛人即有義務接管車輛操控。因此在車輛使用不當、自動駕駛系統使用不當、未遵照系統指示接管車輛操控、未能認識到需要重新控制車輛時,將被認定為駕駛人的過失。


[自駕車使用人的過失責任劃分建議]

由於自駕車的發展衝擊現代侵權行為法制,自動駕駛系統將逐漸取代真人監控周邊環境與避免損害的駕駛任務,因此自駕車使用人的注意義務程度,應隨著自駕車的自動駕駛程度分級而有所不同。

  • Level 0至 Level 2車輛的周邊環境感測任務仍為駕駛人。故與駕駛傳統車輛所涉過失 之認定標準相同。

  • Level 3及Level 4自駕車是只得在特定條件下,始得由自動駕駛系統運作,在由自動駕駛控制車輛期間,難認駕駛人就車輛行駛具有過失侵權責任;但在由駕駛人操控車輛期間,則與駕駛傳統車輛所涉過失判斷相同。

  • 至於Level 5自駕車,使用人對環境資訊無獲取可能性,且對於車輛亦無掌控可能,已非法律意義下之駕駛人,要難認使用人就自駕車行駛應負過失侵權責任。


[台灣是否已經可以套用Tesla新的FSD?]

嚴格來說:沒有。


Tesla的全自動輔助駕駛(FSD)在台灣的使用情況如下:

  1. Tesla的FSD電腦已經可以在台灣安裝,但目前還需要駕駛人主動監督,並尚未達到完全自動。台灣Tesla已經開放現有車主將FSD功能轉移到換購的新車上。目前,FSD功能僅限於搭載HW3.0硬件的車輛,並且在台灣還處於測試階段,尚未正式開放使用。

  2. Tesla日前宣佈,將開放台灣現有車主將其FSD功能轉移到新購的Tesla車輛上,此項轉移服務將於2023年3月1日至4月15日限時開放,錯過期限後將無法再進行轉移。

  3. 現在台灣有三輛車被開放可以使用FSD,分別是兩輛Model 3 LR(Long Range,全輪驅動)以及一輛Model X LR,有兩輛在新北市、一輛在基隆市。


[對於Tesla新的FSD,我們法規有任何阻礙嗎?]

如果Tesla新的FSD,已經真的變成全自動駕駛(達到Level 5),台灣法規目前存有阻礙,換言之,這樣的「全自動駕駛」沒辦法在台灣上路。


就此,立法院法制局就曾提出報告建議如下: 我國涉及自動駕駛車輛道路測試之相關法規有《無人載具科技創新實驗條例》及《道路交通安全規則》,但應可參酌國外自駕車法律(例如德國),儘速建立自動駕駛的認定機制、研擬如何調整自駕車駕駛人的行車注意義務、明定駕駛人回應駕駛權移轉要求接手操控車輛的義務及罰則 、自駕車倫理規範等範疇。


再者,我國目前並未開放不須駕駛人操控方向盤就可自動變換車道和行駛的「全自駕功能」,並未核可駕駛人可放手離開方向盤,自動駕駛只是輔助駕駛人判斷,發生肇事責任仍會歸咎駕駛人,目前的自動駕駛等級僅提供駕駛輔助;惟使用ADAS並無相關罰則,倘有所違規,如追撞若確認有危險駕駛行為,僅能以《道路交通管理處罰條例》第43條第1項第1款:「在道路上蛇行,或以其他危險方式駕車。」予以處罰。


為使我國自駕車相關應用得以順利發展,就建議在尚未制定規範無人載具的非實驗性專法前,依「法律保留原則」,應提升至法律位階的規範,在《道路交通管理處罰條例》增訂有關自動駕駛的行為態樣與相關罰則,以資明確。


參考資料:


*本文亦發表於「科技立委葛如鈞.寶博士」部落格:


87 次查看0 則留言

Comments


bottom of page