淺談Paul Ohm「Forthright Code」一文



 顧長芸
2020年07月02日

作者於本文指出,應以「坦白(forthright)」作為提供數位產品或服務業者的法律義務,其可解決消費者保護與AI應用兩個領域的問題。作者指出,不欺騙並不代表「坦白」,倘若以「坦白」作為法律義務,將可要求企業誠實、直接與公平,並賦予企業明確的主動義務,而不僅僅是被動地告知消費者;企業應預設消費者會因認知上的偏見、資訊過多等因素而干擾個人的理解,因此企業有義務克服這些障礙,與客戶溝通重要資訊。

作者指出僅依賴「坦白」的法律義務雖然無法解決所有問題,但預期其將可避免資訊流(information flow)對消費者造成的四種傷害。第一為破壞承諾(broken promises),如Snapchat未能實現原承諾之訊息閱後即焚的功能。第二為操弄(manipulation),如google會透過各種心理輕推(nudge)之方式,為了其公司利益而非使用者個人利益,促使使用者開啟GPS定位功能。第三,業者利用資訊提供的設計以達成企業目標,例如使用伎倆讓使用者無意間購買或登錄(dark pattern),或引發使用者罪惡感(confirmshaming),或是轉移個人當下注意力(distraction),或蓄意為了設計者的目標而犧牲使用者經驗(malicious interface),以及透過彈出廣告進行詐騙(abusive design)等。第四,模糊(opaqueness)與迴避(evasion),例如Uber的Greyball系統拒絕提供某些客戶服務,名義上為篩選曾經騷擾Uber司機的乘客,但實際上卻是為了拒絕可能是市府交通監管者的搭乘,避免其蒐集Uber相關資訊。作者同時指出Facebook提供第三方API的利用,原意雖為增加Facebook上的功能,但也卻同時涉及上述四項傷害。

現行法規範對上述傷害的限制,作者指出美國聯邦法中以FTC(Federal Trade Commission)的管轄最廣,但對上述傷害的保護有其限制,最多僅能解決破壞承諾的問題。FTC主要以FTC Act Section 5(15 USC §45 Unfair methods of competition unlawful; prevention by Commission)針對不公平(unfair)或欺騙(deceptive)進行規範。造成他人的傷害即不公平,但此法通常是以經濟上的傷害為主,因此作者認為對上述的傷害無法提供保護。而欺騙則是以一般性的意義來解釋,FTC有時會透過逞罰重大遺漏(material omission)來取代欺騙,即疏忽告知某些資訊;前述Snapchat 案例,FTC以其使用者介面的設計,可能加重或甚至其整體設計構成欺騙的欺騙設計(deceive design),提出行政控訴。

法學界提出上述傷害的解決方法,作者以J. Balkin與 J. Zittrain所提出的資訊受託者(information fiduciaries)義務,以及W. Hartzog與N. Richards所提出的忠誠(loyalty)為例。資訊受託者以主要機構為受託人應負有保密個人敏感資訊之義務來類比,因此線上服務業者,例如提供電子郵件、搜尋引擎、SNS等業者都應負有保護個資之義務;而依照Balkin與Zittrain理論,線上服務業者應遵守三個基本原則:遵守公平資訊原則、不得不公平的歧視、以及不得濫用信賴。作者指出資訊受託者概念儘管聽起來合理,但實務上難以運作,並且僅適用於大型線上服務業者。而Hartzog與Richards則認為線上服務業者應以「忠誠」(loyalty)作為業者應避免造成使用者損失而自我圖利的義務,例如不得向不同客戶收取不同費用,不能操弄客戶等。忠誠雖與「坦白」概念相近,但作者指出,忠誠著重於關係和義務上,但對於現今科技並不適用,因為我們難以想像使用者會對下載五分鐘隨後刪除的APP有何種義務,反之亦然。

作者說明其所指稱的「坦白」本身有其內在特質,包括企業在使用個資時與消費者的溝通方式、溝通的內容以及用以溝通的介面設計,都應符合「坦白」的義務。「坦白」意指直接(direct)、坦率(outspoken)、直言不諱(straightforward)以及誠實(honest);其與自我保護的意義相反,通常使用於有秘密或有隱含的對象,而要求其自願提供資訊。「坦白」義務的責任重心,將從消費者轉移到企業,企業將預設消費者不了解而自願提供資訊,主動釐清消費者所了解的是何種資訊,並警告與提供消費者重要的相關資訊。「坦白」也重視資訊如何被呈現,因此可解決前述惡意模式(dark pattern)的問題。Hartzog 與 Richards另提出的誠實(honesty)義務為修正誤解並主動消除誤信的義務,以確保個人真正了解對其重要的資訊;作者指出,雖然此與「坦白」的意義有所重疊,但「坦白」有更高的義務去識別以及分享不可信的資訊,並且「坦白」一詞的解釋範圍較窄也較少被使用,相比之下不易被誤會與操弄。

作者指出「坦白」得以解決的隱私理論在實務上所產生的問題。法學者們為重建隱私或為保護隱私,試圖將隱私一詞轉化成得以採取行動的語詞,因此著重於特定字詞的解釋,儘管出於善意,但在實務上卻會造成幾乎相反的解釋。對隱私字詞的法律理論,主要可以分成三類,作者的「坦白」屬於第三類。第一類是以特定字詞捕捉隱私一詞的重點或其價值,將隱私概念化:例如A. Westin與C. Fried將隱私與「控制」(control)個人資訊相連;J. Cohen將剝奪隱私即等同於剝奪自主(autonomy),將限制個人發展;J. Inness與J. Rosen將隱私與親密(intimacy)相關;P. Schwartz則描述隱私與民主的關係;其中,最具影響力的是H. Nissenbaum認為隱私僅能於特定情境脈絡下被定義,並提出情境脈絡完整性(contextual integrity)作為隱私的基準(benchmark of privacy),用以衡量於特定脈絡中資訊規範是否有被遵守。

第二類為以特定字詞描繪如何用法律保護隱私的方法:例如前述的資訊受託者概念;D. Mulligan與K. Bamberger指出,儘管隱私規範不夠完整且有限,無法從規範上完整的保護隱私,但是透過企業自律等方式,已經足以保護個人隱私,像是促使公司聘僱專業CPO,能夠以整體與非正式的方式,產生實質上保護隱私的效果。第三類則是以特定字詞指出實體或個人為保護隱私的特定法律義務或責任:例如FTC的規範、前述之忠誠概念、以及作者所提倡之坦白義務,都屬於此類。

作者指出,以特定字詞來解釋或保護隱私,最大的問題在於,將造成被擴大用於解釋企業不受限制的面向,而非著重個人隱私的保護。像是極具影響力之情境脈絡隱私(privacy in context)理論與原則性隱私(privacy on the ground)理論,在被人擴大解釋與誤用的情況下,前者變成無須制定一般性隱私規範的理由,而後者變成不需制訂隱私規範或形式上的隱私法律之基礎。作者指出,「坦白」一詞無須重新定義,也不允許刻意模糊或開放性解釋,僅能以精確且毫無妥協的方式使用。企業也只有在與其消費者溝通時完全誠實、直接與公平的情況下,才符合「坦白」的義務,而無需依脈絡或利益衡量來決定。作者認為,「坦白」特別可適用於資訊受託者或忠誠概念所無法適用之惡意模式的情況,也可解決兩者僅適用於大型企業的問題。

作者認為「坦白」也同樣可以解決AI應用上的問題。AI被用以取代人類進行公部門與私部門決策,其決策過程可能不符正當程序,複製人類偏見、造成不公平或歧視。傳統上,以FAT作為限制AI決策過程所可能產生傷害的要求,即公平(fairness)、透明(transparency)與問責(accountability)。公平被視為AI系統的特性,期望AI的應用結果可以達到公平。透明同樣著重於系統本身而非系統應用,希望了解AI的內部運作,揭露演算法與訓練資料;與透明相關的特性包括解釋(explanation)與詮釋(interpretability),同樣針對系統本身,例如揭露不同變數的權重(weight),或是讓使用者可以測試不同條件下決策結果之差異。問責則注重於AI整體的設計與應用,需要規範AI錯誤的產生,讓企業為其負責。作者認為,「坦白」與問責相似,注重於AI系統的設計者與應用者所做出的決策,特別是與AI系統有瑕疵或重大錯誤時所產生的失誤。

AI應用產生的錯誤,目前處理方式僅為用掩蓋的方式處理,而非以「坦白」的方式修正,像是Google人臉辨識系統誤將人臉識別為猩猩(gorilla),Google僅將類似關鍵字的搜尋結果掩蓋,而非修正搜尋結果的錯誤。而此掩蓋方式呈現出三個重要的問題:第一,此方式僅是掩蓋真正的問題,若掩蓋得當,我們將可能採用實質上為冒犯人的AI決策,作者指出,我們很難想像這些AI可以獲得人類信任;第二,若可採用掩蓋的方式,也將會許可壞AI的應用,將原用於狹隘目的的AI擴大利用到其他目的之上,例如將假釋與否的AI決策應用到羈押時間長短,而原用於情報機構的人臉辨識系統現已成為海關使用的技術;第三,並不是將結果變成不冒犯(inoffensive)人類就代表沒有問題,這種作法僅是把真正有問題的AI隱藏起來。因此,作者指出,「坦白」將可解決AI應用錯誤的問題。

評論

Ohm提出「坦白」的法律義務,期望透過法律規範賦予企業明確且主動的義務,以承擔企業利用個資對個人造成傷害的責任。Ohm要求企業與個人的溝通方式、溝通的內容以及用以溝通的介面設計,都應符合「坦白」的義務,指出了AI與BigData時代的資訊流對於個人造成傷害的廣度及寬度:不僅僅個人資料的不當利用可能對個人造成傷害,資訊如何向個人呈現也同樣是造成個人傷害的重要因素。

使個人得以控制其個資為保護個人隱私的基本要求,其主要目的在於避免個人因個資的不當利用而受到傷害。但在AI與BigData時代,個資的界線變的模糊,因為原本無法識別出個人的資料,將可能透過AI而可識別,例如人的走路姿勢;而個人可能受到的傷害不僅在個人可被識別的情況下而產生,在不識別特定個人的情況下,也可能造成傷害,例如透過識別情緒作為篩選條件的情緒人工智能(Emotion AI);並且,透過結合心理學而改變資訊呈現的設計,影響個人的認知,也同樣將對人造成傷害,例如採用導向特定目的的輕推(nudge)設計以影響個人決策。換言之,在AI與BigData時代,對個人的保護不僅止於個人資料的利用適當與否,還需從資訊流的整體面向進行考量,而Ohm對「坦白」義務的界定即建立於資訊流的整體架構之上。
儘管,「坦白」對企業的法律義務要求,如何與現今企業廣泛利用的商業祕密(trade secret)抗衡,尚有待定論;但,期待企業能主動並坦白提供與消費者有關之重要資訊的那一天。


Photo by CQF-Avocat from Pexels

資料來源

Paul Ohm, Forthright Code, 56 Hous. L. Rev. 471 (2018).


作者

顧長芸 中央研究院法律學研究所
本研究感謝「資料安全研發及人才培育計畫」支持