機器人出事時誰該負責? 歐盟執委會這樣說



許慧瑩
2019年2月20日


歐盟議會意識到現行法規範無法直接適用至人工智慧或機器人,於向歐盟執委會提出有關機器人之民事法律相關建議報告(Report with Recommendations to the Commission on Civil Law Rules on Robotics)中提出,因人工智慧或機器人無法就其所致損害之作為或不作為對第三人負擔法律責任,所以現時法律儘可對可預見或可採取行動避免機器人損害性行為(含作為或不作為)之特定人,例如:製造者、操作者、所有者與使用者等,進行究責與求償。
對此議題,歐盟執委會於2018年新興數位科技working document指出,同意現行法律對於人工智慧與機器人確實存在規範面的斷層,尤其當機器人自主決定所致損害時,因機器人決策形成過程所涉及之軟硬體、資料、資料連網服務等相當龐雜,無法快速釐清與歸責,進而難以改善與彌補機器人所造成的損害。
此外,因數位科技持續產製與處理巨量資料,如損害起因於資料所致,在責任分配的議題可能會變得很不明確。最後,因為數位科技有軟體擴充、程式修補與持續更新之需求,改變時可能影響系統元件或第三人,也有可能對於科技技術的安全性產生影響。因此,解決人工智慧決策運作過程各個參與者間的責任至關重要。
承前,依據目前法律對於責任的規範,受害第三人可依歐盟產品責任指令之規定,因產品瑕疵向製造者求以嚴格責任,並要求損害賠償。在部分大陸法系國家,亦有主張採用危險活動之嚴格責任,或是基於特殊關係(父母/監護人-未成年人、學校與學生、監護人與無/限制行為能力人)之連帶責任,對機器人所致之損害負責。但針對部分重要議題仍未深入討論,例如:在各責任者(製造者、程式設計者、服務提供者與使用)間責任如何分配、所需擔負的責任比例與人工智慧、機器人自主程度間的關係、如何評斷人工智慧或機器人之自主程度等。


評論

現時就人工智慧與機器人所致損害之責任議題討論,有論者主張賦予人工智慧或機器人擬制人格之學說,或許可能提供免除部分製造者與使用者之法律責任(類似公司本身對於第三人負擔法律責任的概念)。雖然另有論者以為,法人格化應該為人工智慧或機器人責任討論之假議題,惟若具有自主能力之人工智慧或機器人逐漸發展成形,人工智慧或機器人人格化之議題可能勢必再受到關注,但這改變可能全面顛覆未來人工智慧與機器人在法律的定位,以及民刑事責任與產品責任的發展。


Image by Dmitry Abramov from Pixabay

資料來源


延伸閱讀


作者

中央研究院法律學研究所 許慧瑩
本研究感謝「符應社會歸責之資料二次使用隱私框架」與「資訊法中心」計畫支持