201904.29
0

有鑑於酒駕肇事頻傳,近來各界紛紛提出不同解決方案,期待透過修法的途徑,加強對於「人」的行為的制約,以有效降低酒駕事故的發生,例如提高酒駕罰鍰、加重刑事責任,累犯甚至可處死刑[1]等。又,依國內外的調查顯示,交通意外事故的主要肇事原因,「駕駛人因素」至少占了94%以上的比例[2]

既然「人」是交通事故的肇事主因,那麼,如果可透過AI人工智慧科技來降低駕駛人因違規、疲勞駕駛、使用藥物或酒醉駕車,甚至於完全取代人類駕駛車輛,或許可以期待降低交通事故發生機率及事故傷亡人數。因此,目前有許多科技公司及汽車廠商紛紛投入無人駕駛(或自動駕駛[3])汽車的開發與實驗,而台灣也在2018年3月由台北市政府率先宣布啟動「台北市自駕車實驗場域實驗試辦計畫[4]」,立法院也在2018年12月通過《無人載具科技創新實驗條例》[5],許多公私部門的研究計畫也估計在2020年左右,自駕車可以量產商用[6]。或許在不久的將來,我們就能在道路上看到汽車座位的駕駛人不再手握方向盤的景象,而前述因駕駛人之因素所發生的交通事故亦可望大幅減少[7]

不過,自動駕駛科技也並非安全無虞,Google所研發的汽車自動駕駛技術團隊進行道路測試時,處於全自動駕駛模式的汽車因閃避障礙物而變換車道後,遭到後方公車碰撞發生事故[8],這使得我們不免思考一個可能潛在發生的未來場景,在2020年以後的某個日子,一輛無人自動駕駛車穿梭在大街小巷時,若不幸發生交通事故,導致行人被撞身亡,那麼,什麼人需要為這起悲劇為AI出錯造成事故的傷亡,負擔起責任呢?是汽車製造商、無人駕駛系統程式開發或設計人員?抑或是車輛使用人?是AI軟體程式人員?還AI系統的開發商或是AI系統本身?

尋找AI系統失靈的原因,為確立法律責任的關鍵因素之一

就傳統上之民事侵權責任來說,無論是多複雜先進的機器,理論上將其相關損害結果歸諸於其背後的人類操作、設計或製造上具體行為的故意或過失等尚非難事[9]。例如:

  • 違反注意義務之過失責任;
  • 因違反契約條款明示或默示約定之違約責任;
  • 消費者保護責任中,因商品或服務之缺陷所造成損害賠償責任。

由於參與AI系統的人員來自四面八方,包括,數據資料提供者、設計者、製造商、程式設計師、軟體開發者、用戶及AI系統本身。因此,當AI發生問題時,並不容易確認責任主體,而須一併參酌多方面的因素而定,例如:

然而,在AI人工智慧日趨成熟而具有高度自主性(autonomy)的情況下,此時在認定相關損害賠償責任則有相當困難存在[10]。舉例來說,當軟體有瑕疵,或者因軟體之使用以致他人受損害,則過失責任之成立要件,主要為:(1)對於損害的發生,負有注意義務;(2)違反該注意義務;(3)因而導致他方受到損害,且注意義務的違反與損害之間具有因果關係。

如果軟體供應商對消費者/使用人負有注意義務,那麼,AI軟體商的注意義務為何呢?以什麼標準來確立其注意義務?另一方面,在AI系統的決策過程中,如果已完全由AI自主,那麼,消費者或使用人是否仍然也負有注意義務呢?

舉例來說,美國在2016年公布的《聯邦自動駕駛車政策(Federal Automated Vehicles Policy)》,將汽車依照自動化程度,區分為六個等級:「無自動化(no automation)」、「駕駛人之輔助(driver assistance)」、「部分自動駕駛(partial automation)」、「有條件自動駕駛(conditional automation)」、「高度自動駕駛(high automation)」、「全自動駕駛(full automation)」等。若自駕車已經達到「高度或全自動駕駛」的程度,則人類的角色已經由傳統的駕駛人轉變為乘客的角色,而無須介入行車環境的監控,在此情況下,如課予乘客注意義務,或者成立其與損害間的因果關係,就有可能發生爭議[11]

若AI軟體系統違反注意義務,可能會有許多種情形。例,開發人員對於程式運作之錯誤具有偵測的能力;AI的知識基礎不正確或不適當;AI的警示或紀錄是不正確或不適當的;沒有及時更新數據;使用人輸入錯誤;使用人過度依賴AI系統之輸出結果[12];或者使用人出於錯誤的目的而使用程式等。那麼,在什麼情況下,我們可以認為是AI系統違反了注意義務呢?因為AI系統的發展越來越像是一個「黑箱」,AI的所有決策過程都存在於這個「黑箱」中,自駕車的AI系統自不例外[13]

再者,AI系統是不是可以被認為是導致損害的原因,仍然有許多討論空間。例如,AI系統是不是對於特定狀況或情境,作出「建議某個行為(recommends an action)」,例如專家系統(expert system),或者作出「採取行動(take an action)」,例如自駕車。在前者的情形,至少會牽涉到一項其他代理機制而不容易證明因果關係;至於後者的情形,就相對容易判斷[14]

此外,由於AI的決策與行動已非單純被動式依賴人類預先設定的規則與指令,而是擷取出廠後與周遭環境的訊息以進行分析與決策,因而機器運作的結果往往會超出製造商或者設計者出廠時的設定[15],在這樣的情形下,如果損害的發生,即使是由AI系統的行為所致,但因為欠缺可預見性(foreseeability),也很可能會對受害人在向車輛製造廠商求償上構成障礙,甚至很可能沒有任何人需要負責。

雖有論者認為,受害人可藉由危險責任(strict liability)向車輛製造廠商求償,但危險責任的成立,多與相關事業活動本身即存在危險性有關,為了平衡當事人利益及分配社會風險而課予義務,但自駕車的設計理念,既然是為了因人類駕駛疏失所造成的交通事故人員傷亡,因此,危險責任是否適用於自駕車的場合仍有疑義[16]

有鑑於風險分配的方式,將可能影響相關產業創新的誘因,從而,如何在鼓勵創新、保護消費者及公共安全之間平衡兼顧,考驗著各國政府的智慧。目前人工智慧不止應用在汽車產業,也擴及很多其他相關產業,如醫療器材產業、零售產業……等,台灣自許在人工智慧的未來領域中要能夠佔得一席之地,那麼亦應同步建立合理合適的法規制度環境。人工智慧應用可能產生的法律問題,在不久的將來很可能發生,值得我們持續的關注、瞭解、與重視。


作者為台灣律師、美國紐約州律師,目前就讀政治大學資訊管理博士班,對於人工智慧與法律等議題有高度的興趣。如您對上述的內容有任何意見指教或有興趣進一步瞭解,歡迎您聯繫我們。

Charlotte S.H. Wu 吳筱涵律師

charlotte.wu@zhongyinlawyer.com.tw

TEL +886 2 2377 1858 EXT 8888


[1] Abby Huang,【酒駕修法】法務部草案出爐:累犯最重可判死刑,車輛視同「犯罪工具」當場沒收,關鍵評論,2019年2月27日, https://www.thenewslens.com/article/114571 (最後瀏覽日:04/19/2019)

[2] 內政部警政署,《道路交通事故死亡人數與國際比較分析》,頁5,2015年11月,https://www.npa.gov.tw/NPAGip/wSite/public/Attachment/f1475544437668.pdf (最後瀏覽日:04/19/2019);National Highway Traffic Safety Administration, Critical Reasons for Crashes Investigated in the National Motor Vehicle Crash Causation Survey (2015), available at https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812115. (last visited: Apr.19,2019)  

[3] 『「自動駕駛」是指,在不需人類即時(real-time)輸入控制指令情況下,由電腦自行操控車輛以執行加速、煞車或轉彎等任務,而具備自動駕駛能力之動力車輛即屬於自動駕駛車輛,自動駕駛車輛科技的最終目標是使汽車能夠在沒有駕駛者或乘客的情況下自行駕駛,其可能之優點可能有增加交通安全性、提升能源使用效率,並使老人、身心障礙者與小孩能自行移動,但缺點亦同樣存在,例如自動駕駛汽車決定並控制車輛行駛路線時,將進而影響使用者的行動自主權。』,參前揭註6,頁2-3。

[4] 臺北市政府,〈臺北市智慧城市產業場域實驗試辦計畫〉,https://smartcity.taipei/posts/16;〈全台首個自駕車擬真實證場域在台北!今首度對外公開〉,2018年3月13日,匯流新聞網,https://cnews.com.tw/002180313000abc/ (最後瀏覽日:04/19/2019)。

[5] 惟本條例實施日期,尚待行政院公告,參,全國法規資料庫,https://law.moj.gov.tw/LawClass/LawAll.aspx?pcode=J0030147 (最後瀏覽日:04/19/2019)。

[6] 〈AI與法律、哲學、社會議題跨領域對談[自駕車場次]〉,頁93,載於:《人文與社會科學簡訊》,20卷1期,107年12月。

[7] 董啟忠,《自動駕駛車輛交通事故侵權責任之研究》,頁2,國立高雄科技大學科技法律研究所碩士論文(2018);林妍溱(2016),〈美國研究:自駕車意外發生率少於一般車輛〉,2016年1月1日,iThome,https://www.ithome.com.tw/news/102986 (最後瀏覽日:04/19/2019)。

[8] 陳曉莉,〈Google自駕車首度擔負車禍肇事責任〉,https://www.ithome.com.tw/news/104210 (最後瀏覽日:04/19/2019)。

[9]林勤富,楊漢威(2018),〈人工智慧法律議題初探〉,《月旦法學雜誌》,頁205,第274期,2018年3月。

[10] 同前註。

[11] 同前揭註8。

[12] Kingston, J. (2018). Artificial Intelligence and Legal Liability. arXiv preprint arXiv:1802.07782.

[13] 〈AI看穿了人們的喜怒研樂,但人類卻看不透AI的「黑箱作業」〉,2018年7月17日,科技報橘https://buzzorange.com/techorange/2018/07/17/ai-facial-recognition-emotion-detect-tech/ (最後瀏覽日:04/19/2019)。

[14] Supra Note 11 at 5-6.

[15] 參前揭註8,頁206。

[16] 同前註。