能否用人權法來審視國家運用人工智慧技術產生的決策? -簡析「Using Human Rights Law to Inform States’ Decisions to Deploy AI」短文



 劉祥裕
2021年10月22日

人工智慧發展愈來愈盛行的當今,我們看到越來越多的國家,開始大幅投入資源,並積極地運用人工智慧在其決策過程。然而,縱使在未能完全知曉人工智慧其對個人或是社會的影響,甚至在相應法規尚未完備的狀態下,人工智慧仍舊於當前的社會中受到廣泛的運用。這種情形雖然能夠理解,是出自於人們看待人工智慧其巨大的未來潛能,不過卻同時引來公眾反彈或者對人權侵害之質疑。而此種發展卻似乎阻礙人工智慧真能帶給我們的效益。從而,學者Daragh Murray便指出人權法也許能對此提出解方,提供一個具有組織性的框架,使國家能夠畫出其是否採行人工智慧的線,從而有助於我們理解,政府採行這些人工智慧運用的決策,並使相關的正當理由得以透明清楚地顯現。

本文作者首先從人權法的性質論起。眾人對於人權法的適用及人權法特定義務之內涵,主要從其事後究責之機制來理解,也就是以事後觀點,來判斷國家作為的合法性,進而要擔起什麼樣子的義務,即使人權法是以課予國家事前之義務(ex ante obligation)為之。從而,習以為常的事後觀點,乍看之下並無法適用於當前人工智慧的時代。不過,作者認為人權法其實能夠從一開始就有效地在決策過程中發揮作用。本文作者將以動態人臉辨識技術(live facial recognition, LFR)作為例子,來具體化自己的論點。

在人權法領域中,作者認為有兩項要素與本文欲處理的問題「如何決定國家是否運用人工智慧」有關:其一是人權法建構出國家的尊重義務(obligation to respect);其二是非恣意權利侵擾(no arbitrariness),即人權法核心目的在於保護個人免於恣意的權利侵害。作者認為國家採行人工智慧是否有其正當性,得以這些為起點,並透過三點來開展檢驗:(一)合於法律(be in accordance with the law)、(二)追求正當目的(pursue a legitimate aim)、(三)民主社會中之必要(be necessary in a democratic society)。不過作者限於篇幅,本文僅聚焦討論第三點-民主社會中之必要。

作者認為此必要性之用意是用來確保任何措施的權利遵從,而此概念隱含著相競逐利益(competing interests)。舉例來說,以人工智慧輔助的監視系統,似有助於犯罪的偵查與預防,但同時卻也對個人隱私造成危害。這裡即體現不同利益間的衝突與競逐。從而,如何調適這種相競逐的關係,作者認為國家必須言明任何措施其潛在的效用(potential utility)與潛在的傷害(potential harm)。作者提到,這種民主社會中的必要性,必然包含為數眾多的不同因素(elements),可能是該措施符合若干民主原則、或回應社會急切之需求等等。而作者將這些人權法上的討論,認為若放在國家是否採行人工智慧的決策情境下,可以濃縮歸納出兩點:(一)為何需要導入人工智慧(why is an AI deployment required?)(二)是否有其他可行的替代機制(what alternative mechanism are available?)

針對第一點--為何需要導入人工智慧?作者羅列三點相關的因素,得有助於我們辨識出當國家決定採用人工智慧之措施,其相關的效用與傷害,藉此從中確保免於受恣意侵擾的可能,分別是1. 確認運用人工智慧背後的目標、2. 何以達成此目標為必要、3. 闡明運用的情境。

針對目標的設定是第一步,此須以更為具體的內涵來闡明。例如在LFR的例子,若主張目標是為了防止犯罪或維持公共秩序,這實過於廣泛。作者認為應採以更特定、更具體的目標,才能說明為什麼必要,例如採行LFR是為了在邊境或特定市區範圍內,指認出隸屬某犯罪組織之個人。接著,第二步即闡明為何達成此目標是必要的。延續上述例子,使用LFR來偵查指認出嫌疑犯,可能連動著該個人所犯的罪名,例如殺人跟偷竊就會有所不同。最後措施所運用之情境,作者認為此係我們在衡量效用與傷害時非常至關重要,也同時會影響前兩點。作者羅列一些參考的情境因素,例如該人工智慧的運用是否有一定時期,或者特定的區間?又或者人工智慧導入後的資料產生,是否會續行再利用分析?這些預期利用的情境,國家都應該闡明清楚,藉此有助於我們來判斷施行人工智慧後潛在的人權衝擊。

至於第二點-有無其他替代機制,本文作者開宗明義即指出,此要素就是直探為何一定是人工智慧(”Why AI”),有無其他較少侵害而能達成同樣目標的作法?此種叩問便衍生比例原則(proportionality)的檢驗,亦即必須衡量是否有限制性較少之措施能達成相同的目標。那麼如何衡量是否有替代的機制,在本文探討之情境中,即人工智慧此科技是否等同於延續既有執法量能的其他措施,還是此人工智慧根本是量能上的大躍進(a step-change in capacity)?本文作者以LFR為例,指出在邊界管制上採行LFR,乃延續既有於邊界由海關查驗個人身分文件的管制措施。然而,相對地,此動態人臉辨識之技術若是運用於全市街景的監視系統中,甚至融合資料分析技術來追捕個人足跡,這種使用情境就是作者所言的大躍進。因為作者認為,若國家查驗全市的鑑識系統以追捕個人足跡,沒有LFR來協助辦案的話,國家投入再多可觀的其他資源,都難收LFR的成效。

是以,對作者來說,其認為「能力上的大躍進」在人工智慧技術盛行的當今,是一有用的指標,使我們得以留心是否需有更深入的分析及影響評估之必要。除此之外,作者也認為,這裡的區分(延續既有措施的量能亦或量能上的大躍進),能夠讓我們在大躍進的情境中,面對以節省資源為由應用人工智慧之說法,得以認知到資源效率的提升並不具正當性。因為同時間,當國家的能力大躍進之後,其手上握有的權力早已巨幅改變,根本無法等同地以資源或成本來類比。

作者結語提到,本文所提的檢驗步驟,雖然在為文中僅先從效用來理解,但也能適用於對傷害的衡量。一旦效用與傷害能夠從上述的步驟說明清楚,作者認為似有助於解決前開相競逐利益的難題,並且紅線在哪或國家運用人工智慧的情境也許能夠藉此被清楚地指出。

後話

小編一開始看到文章標題提到人權法,就如同作者開場所言,論及人權法時多半會直接探討國家在相關法律中義務上的承擔與追究,屬於事後檢討公權力施行的內容。但本文作者把在人權法針對必要性的細緻化討論,透過觀念的轉移,作為國家於人工智慧時代下,決定是否應用如此技術的衡量基準。

不過,本文以國家的尊重義務(obligation to respect)作為起點,也不免讓小編好奇,人權法中還有兩項國家義務,依序是保護義務(obligation to protect)以及實現義務(obligation to fulfill),其中特別是實現義務,也許並非現階段我們即刻須面臨的問題,但未來當國家履行此義務時,在決策過程中運用人工智慧之技術,是否還會有如本文從國家的尊重義務所開展的要素,論及必要性嗎?

本文雖然未有篇幅論及合於法律與追求正當目的兩點,而僅以第三點民主社會中的必要性,來開展人權法機制適用於當前人工智慧運用與否的判準。不過小編認為在後續的必要性討論裡頭,其實蘊含了第二點正當性目的之討論。作者在後續細緻化何謂民主社會中之必要性時,更進一步強調,當國家採行人工智慧之技術時,應言明採行該人工智慧背後,所欲達成更為特定、具體之目標。而此種具體目的之標示,小編認為此實質上已帶入正當目的之討論。換言之,當手段或措施的能力升級(本文即意指人工智慧的運用),相應地也要求在目的上須有更為具體且特定之認定。

另外小編認為大躍進此指標,確實有助於在人工智慧此技術廣泛運用於各行各業,甚至滲透我們生活的每個環節時,作為留心其潛在的風險與傷害,或者是否已越過紅線、需要停看聽的一項指標。技術之所以革新,當然是人們希望能在效率或速度或品質上有所改善,此乃人類進步發展的動力來源。但當前我們面臨到的棘手問題,在於人工智慧技術的導入,是否已經躍出既有措施之範圍,而來到另一個境界?那麼原先該措施管制所處的利益衡量情境早已動搖,因而前開大躍進的區分,小編認為可作為一種警示,提醒我們在這種情境下勢必須有更深入的分析與研究。我們期待人工智慧之運用,改善人類生活,但並非通通拒於門外,也非通通全盤接受而忽視其中對權利的潛在犧牲。


Image by jessica45 from Pixabay 

資料來源

  • Murray, D., (2020). Using Human Rights Law to Inform States’ Decisions to Deploy AI. American Journal of International Law Unbound. 114, 158-162

延伸閱讀


作者

劉祥裕 中央研究院法律學研究所

本研究感謝「科技部AI人文法制基礎建置計畫」支持