人工智慧及自動化決策系統之透明化要求



何琳潔
2019年10月08日


本文欲從法律、社會、倫理層面來看待人工智慧及自動決策系統之透明化要求,除了規範上的基礎之外,也著重在執行的脈絡觀察上,並且認為,因為執行透明化要求的情境多樣且廣泛,純粹人機互動的學理知識,並未清楚地闡釋何謂「透明化要求」。本文以為,GDPR(General Data Protection Regulation, 歐盟一般資料保護規則)基於其以「告知及解釋」為取向的透明化要求,無法達成透明化的積極目的,應以「關聯性觀點」來理解透明化要求(understand transparency relationally),將資料主體的資料提供理解為科技服務提供者(亦即利用資料者)及個資主體之間的「溝通」行為,而除了資訊揭露層面的透明之外,更透過「可信任度」的建立及評估,來達成透明化要求。

一、法規範基礎及其解釋—GDPR

GDPR第五條第一項a款規定:個人資料之處理應合法、公平,並且以透明方法為之 ( lawfulness, fairness and transparency)。有學者認為此規定包含兩個層面:潛在(prospective)以及回溯的(retrospective)透明性。潛在透明性,指資料控制者應以清楚、易讀之方式告知資料主體其資料如何被蒐集、處理,以及相關各項權利、如何行使這些權利等等(參見GDPR前言第三十點、第五十八點)。而回溯的透明性,指回溯決策過程,以得知特定決策做成之原因。GDPR前言第七十一點提及,資料主體應有權利不受「未有人類介入之自動化決策」拘束,並且,有權對該等自動化決策提出挑戰、獲知做成決策之解釋,這使得學界開始討論,究竟可否從GDPR第十三條第二項f款(資料控制者應提供資料主體,關於該資料處理程序隱含之邏輯的有意義資訊、其重要性以及預期結果)及第十五條第一項h款 (資料主體有權近用前開條款所規定之資訊),導出所謂的「解釋權」(right to explanation)?

本文以為,「有意義的邏輯資訊」是不確定法律概念,無論是否肯認解釋權的存在,都必須面對這個法律概念的文義解釋問題,亦即,究竟所謂的「有意義的邏輯資訊」所指為何。學界多數文獻認為,該資訊至少應該包含「做成決策的決定性因素為何」。然而,單純給出解釋,其實並不代表就已正當化該決策之做成。學者認為,資料主體要求解釋的權利,並未真正保護其免於高風險推論分析之傷害(所謂「傷害」即指:單純透過資料之分析及推論,而做出對個人不利之決定),而應在解釋權之外,一併賦予資料主體一個「(被)合理推論權」(right to a reasonable inference)—在決策做成之前,資料主體有權要求資料控制者給出一個合理的推論,以正當化嗣後做成的決策,如此才真正達成透明化要求。

二、人工智慧透明化之限制

以上說明透明化要求在成文法上之規範基礎,下一步面臨的是執行上的問題。而眾多文獻皆指出許多難以解決的挑戰及限制。有許多人機互動(human-computer interaction, HCI)研究顯示,各方不同角色的利害關係人在使用不同科技、或同種科技在不同使用脈絡之下、或不同目的之下,對於透明化有著不同的要求及理解。例如,曾有一個以臉書演算法作為對象之研究,研究演算法使臉書呈現什麼樣的內容(what-explanation)、如何呈現(how-explanation)、為何呈現(why-explanation),則結果發現,超過半數的使用者對於「所看見的內容是演算法運算的結果」這個事實毫無所知,該研究則發表了一個工具讓演算法「可見」(newsfeed visualization tool),但揭露演算法並未獲得使用者正向的反應;在線上廣告投放的情境下,依據前述透明化要求,應讓使用者知道為何被投放特定內容之廣告,學者研究發現無論所給出的解釋是過於模糊或過於詳細,都會使被投放對象產生不舒服或不信任的感覺。總之,演算法的透明化有時導致使用者感到幻滅、或產生負擔。

有學者提出,透明化要求可以區分為「可驗證的透明度」(transparency as verifiability)以及「表現上的透明度」(transparency as performativity)兩個層次,前者著重在資訊的揭露,比方說一間購物中心,必須在所有出入口及其網站醒目處標示其是否使用臉部辨識技術;而後者則著重實行之困境、實行後未預期到的後果,亦即當採取透明化措施時,整體社會如何反應。舉例而言,Google的隱私權政策包含大量特定且細節性的資料蒐集類型、利用目的等說明,多數是極度概括性、一般化的陳述,對於消費者/使用者而言,其實反而是不實際而不太可能完全理解的作法;又比方說,科技巨頭們提供消費者可以請求提供所被蒐集的完整資料檔案,但資料量可能太大且格式難以輕易理解而同樣不切實際;更不用說所謂自動決策系統之解釋。

三、透明性作為一個關聯性概念(relational concept)

從上述分析看來,資訊揭露層次的透明性,並不真正可以達到其保障個人自主決定的目的,應該納入表現上透明度的觀察。另一方面,透明化要求所要追求的目標,是為了一個更基礎性的價值,也就是「信任」的建立,因此如果有資料控制者的先前行為模式、所採取的政策為證,有足夠證據顯示其值得信任,則可能可以透過「可信任度」的評估及建立,作為輔助達成透明化要求之手段,而克服上述透明化要求的事實上困境。

論及資料保護,透明化(Transparency)是在倫理上落實個人自主權的重要原則,而在GDPR中,更有明文規定。但本篇文章透過眾多文獻的整理回顧,指出透明化——尤其是解釋權的落實——所面對的種種挑戰,包含不確定法律概念的解釋問題、實際上如何給出有效而有意義的解釋等問題,並認為,因為難以達成真正積極意義上的透明化,因此用信任機制的建立,來作為達成透明化要求之輔助手段。 其實,原本會有透明化要求的出現,除了倫理上個人自主權利的落實之外,另一個目的也就是讓資料利用的過程可以被檢驗,而檢驗的目的就是確保資料蒐集、處理、利用整個過程是可信任的,以建立起資料主體的信任,進而自主地決定提供資料,那麼,如今我們暫時先擱置「究竟資訊揭露到什麼程度才是真正透明化」的問題、或「事實上就連演算法設計者都難以提出『有意義』的解釋」問題,而直接訴求資料利用者的可信任度,另闢蹊徑的結果可能是可行性更高也更有效率的做法,最終其實都是為保障資料主體之隱私及其他權利的制度設計。這樣的取徑似乎頗有一點道理,但,本篇文章最終並未提出具體的案例或情境,說明要建立何種信任機制、什麼樣的以及多少的表現證據「足夠」證明資料控制者或處理者是值得信任的,乃是甚為可惜之處。


Photo by Bernard Hermant on Unsplash

資料來源

Heike Felzmann, Eduard Fosch Villaronga, Christoph Lutz, Aurelia Tamò-Larrieux, Transparency you can trust: Transparency requirements for artificial intelligence between legal norms and contextual concerns, Big Data & Society, 2019https://doi.org/10.1177/2053951719860542


延伸閱讀

https://doi.org/10.1177/2053951719860542


作者

中央研究院法律學研究所 何琳潔
本研究感謝「符應社會歸責之資料二次使用隱私框架」計畫支持