AI與政治參與──簡評湯淺墾道教授「AIネットワークと政治参加・政策決定」一文



趙若漢
2019年06月28日


假想在近未來的某日,J國K市正在進行市長選舉投票。某退休大學教授甲,因正好有事要出門,遂不採網路投票,而親臨現場投票。
然而到了現場,甲發現候選人中並沒有他想投的對象。因政治人物的無能、腐敗,J國國民長年以來都對政治冷感,投票率向來十分低迷,H上皇在位30年期間投票率平均不滿六成,年輕世代更是只有三至四成。隨著AI逐漸發達,越來越多國民覺得讓AI決定反而更為妥適。 (註1)

在此情況下,甲決定讓他平常使用的一款APP來提示他值得投下一票的候選人。該款APP會蒐集甲日常生活的行動履歷,會去記錄甲閱讀的文章、瀏覽的網站,以及分析甲過去撰寫的部落格、社群網路服務(social network service, SNS)發言,乃至學術著作內容等,並據此協助甲做出政治判斷。令人意外的是,該款APP的AI在分析本次候選人後,提示給甲的是某位無名的政治素人乙。雖然甲感到十分驚訝,但甲認為既然這是AI的判斷,那就不會有錯,於是將其一票投給了乙。該次選舉結果,乙以壓倒性高票當選K市市長。

然而在選舉結束後,敗選的其中一位候選人丙召開記者會,宣稱前述APP的伺服器遭受特定團體的網路攻擊,導致AI會將原本應該顯示的其他候選人名字,全部改為顯示乙。丙指控背後主使者就是某些想讓乙當選的境外勢力及其在J國的代理人,並依此提出選舉無效之訴。

在前述的假想劇本中,最重要的問題就是有關政治決定AI在民主政治中的正當性。湯淺墾道教授認為,AI與民主政治在三個方面可能會有適性上的衝突:民主政治僅能由自然人參與、民主政治應本於自我理性決定、民主政治應排除境外勢力介入(註2) 。

一、民主政治僅能由自然人參與

針對第一點,湯淺氏以議會制民主主義的發展歷史,說明其由來。湯淺氏指出,從最初的特定身分團體代表的強制委任到自由委任,最後到普遍選舉制,此一逐漸由少數同質群體構成的市民,擴大到多數國民的過程,顯示民主政治的要求最終就是,縱使可能會造成不具理性思考能力的民粹出現,亦應最大限度地讓所有自然人參與政治(註3) 。而相對地,自然人以外之存在(例如法人),一般被認為不應能影響政治,此從1970年日本最高裁在八幡製鐵事件(註4) 一案中認可營利法人政治獻金的見解飽受批判一事(註5)即可看出。

二、民主政治應本於自我理性決定

湯淺氏指出,若由自法國大革命以降,政治應由自然人本於其理性決定之民主主義觀來看,國民與國家間不應存在中間團體,故AI的存在有危害民主主義之虞;但若從大眾社會論出發,AI有防止眾愚政治或大眾迎合政治出現危險的可能性,蓋此類民粹政治誕生的理由在於大眾不存在理性,而AI正可補正此一缺陷,且事實上,像「vote match service」 (註6)一類的選舉服務早已存在,故可說是此類服務進化版之選舉輔助AI並非毫無存在正當性。然而,相反的論點認為,非理性的大眾不一定會接受AI的判斷,更甚者,基於機器學習與巨量資料的運作原理,AI反而有可能會去讀取大眾的非理性本質(如既存的偏見等),而複製大眾的非理性決定。

三、民主政治應排除境外勢力介入

境外勢力的排除,對任何主權獨立國家而言均屬至明之理,而有各種限制規定(例如日本之放送法、政治資金規正法中禁止或限制外國資金等規定)。不過因當前AI科技的發展情況,從資金到開發人員,「多重國籍」對AI來說十分常見,此再配合國際貿易交流之發達,更為顯著,是否能有效排除一切外國來源對AI的影響,不無疑問。2016年美國總統大選受到外國政府數位干預輿論一事,即點出了AI的潛在危險性,而當輿論操作已有如此多問題時,外國AI為本國人民為政治代行一事,自然更須戒慎恐懼。


評論

壹、本文評析

一、關於民主政治僅能由自然人參與

問題一的部分,顯然地,選舉權擴大與禁止非自然人參與並無直接關連,湯淺氏原文的論述並無法說明為何民主政治僅能由自然人參與,以及AI為何對此有害。本文以為,合理的解釋應從哈特所謂的「近乎平等」概念 (註7)出發。簡而言之,民主之本旨在於不受特定少數他者支配,而這必須建立在所有人在實力上大致平等(因生物個體差異,絕對的平等自始為不可能,不過也因生物性的限制,此種不平等仍有極限,畢竟只要是人就總要吃飯睡覺)。如存在少數具有絕對政治實力者,將危及民主政治的存續,蓋其無須與多數他者協商、妥協,即可無限制發揚自身意志,最後將致使在統治的場域裡,「人民」將不具一席之地。傳統上,政黨以外之法人相較於自然人,在參與政治之資格上受到較多限制(例如法人政治獻金之限制,惟日本至1975年,政治資金規正法才在大修時加上法人政治獻金上限[註8])原因即在於與資本主義結合後,法人在政治資源之獲取運用上遠優於個別自然人,易形成政治上之不平等,危害民主政治。而將視點轉到AI上時,我們可以發現,因遠較自然人優異的資訊處理、分析、操作能力,AI在資訊時代一樣會產生類似的政治不平等現象,而與民主政治產生衝突。

二、關於民主政治應本於自我理性決定

關於問題二,詳細來說還能分為三個子項:一、對民粹政治的促進;二、操縱、共鳴效應;三、AI代理人。雖然湯淺氏文章內容主要僅集中於子項一,然因民主政治應本於自我理性決定的議題不僅止於此,以下將一併說明二與三的部分。
自我理性決定為現代民主政治的預設要求,此係為防止民粹政治(或更帶有貶義的說法:眾愚政治),乃至於全體主義的出現。在此要求下,可能的論點即為湯淺氏原文所提到的,AI能提供更為客觀、合理的判斷,能賦予「大眾」理性,而能更鞏固民主政治。當然,如原文所述,亦有相反的論點認為,非理性的大眾不一定會接受AI的判斷,更甚者,基於機器學習與巨量資料的運作原理,AI反而有可能會去讀取大眾的非理性本質(如既存的偏見等),而複製大眾的非理性決定。

排除選舉過程中的不當干預,對民主國家而言本即理所當然,此要求並不分干擾源係來自境內或境外。當然,若為境外勢力介入,顯然對「國民」自我決定之要求傷害更大。因此,原文案例中外國政府或其代理人直接不當入侵伺服器竄改APP顯示結果的情形,自然應予以排除。比較麻煩的是,假設今天並未有網路攻擊干預行為,而係AI本身即為境外勢力開發,該AI僅是按照原始設計運作的情形。
在AI開發者係為外國企業甚至是外國政府的情況下,若該AI被用於本國政治活動上,難保不會有偏向外企或外國利益的操縱行為發生,此將扭曲政治自我決定的要求,對本國民主政治造成傷害。故理論上,限制或禁止使用與外國有所牽連的政治用途APP,似乎並無疑義。

然而問題概念核心本身雖單純明確,處理時卻可能遇到不少困難,一個重要的原因湯淺氏已於原文指出,即國際往來的頻繁性。一個AI產品,撇除原料等僅涉及材質、結構、外觀等非資訊技術核心部分,而無須過度擔心是否來自本國以外地區,其學習訓練用資料、程式撰寫或維護人員、背後主導開發方向者以及開發、營運資金來源,是否能有效排除外國因素?

貳、可能應對方式

一、禁止絕對政治實力者存在

就AI參與當前資訊時代下政治的議題來看,最簡單的解決方式就是以避免具有(相對一般自然人而言)無限資訊處理、分析、操作能力的絕對政治實力者出現危及民主政治存續為由,參照目前規制法人等團體的方式,直接禁止或限制AI參與政治決定。

確實,如此一來能防止AI直接介入政治決定,然而如開頭案例所示,在可預見的未來,AI有極大可能僅止於協助自然人作出判斷,理論上、形式上擁有最終決定權的仍是自然人本身,故此種論述可能要等到機器人人權發展到一定程度後才有討論意義。

二、自我理性決定與強制亂數化

相較之下,輔助AI帶來的自我理性干預問題比較急迫。不過要注意的是,與開頭案例中的APP擁有同一功能的服務早已存在,例如「vote match service」 (註13),因此單純的禁用AI恐怕不是有意義的解決方法。

針對子項一對民粹政治的促進問題,確實,按照現在機械學習的運作方式,AI很有可能會複製到大眾的非理性決定。期待AI能「監護」大眾可能過於樂觀,且可能帶來前述絕對政治實力者誕生的危險。對於這種有「學壞」可能的AI,或許可以人工校正的方式處理。

然而,此處可能要問的是,排除「非理性」的正當性基礎何在?當參政權由少數良民擴大到普遍選舉制下全體公民後,不就表示我們認為「全體參與」的價值高於不理性決定可能帶來的危害?而所謂「校正」,不外乎校正者所處群體的當下多數價值觀體現,相對於整體仍屬少數,且為暫時,如許其作為校正基準,恐將造成AI的價值被永久鎖定,如此一來將有違反民主理念之可能。故在此情況下,除了維繫人類種族存續(或標準稍微高一點:維護人類社會存續)的最低必要價值外,縱使是不理性的決定,或許都應容認其成立。該等最低必要價值,可能可以像艾希莫夫的機器人三法則一樣,直接以法律要求於設計製作時即寫入所有AI中,且其必須簡單明確。

關於子項二、三,本文以為問題的根源事實上同一,亦即人們對AI全知性的過信。因為對AI的過信,人們輕易接受AI的建議,且不會去質疑其正確性。既然如此,破除AI全知性的表象可能是一種解決方法。具體方式可能像山本龍彥教授所主張的,透過隱私權的運用,阻止AI取得完整個人資料,維持其不完美表象,並將此一事實讓社會大眾知悉 (註14)。然而此種做法的問題在於,隨著AI發展,其可能不再需要個人資料;又或是雖然特定個人不提供資料,但其親友提供了足夠的間接資料,使AI仍能有效掌握該特定個人。此外,近期G7另嘗試以反托辣斯法及消費者保護法等手段,抑制GAFA等AI巨獸的發展 (註15)。姑不論未來實際執行成效如何,此種做法的規制對象不含政府,故即使在最理想的情況,仍然存在「政府」製作的AI。此時因企業之AI已被抑制,而形成政府AI獨大之局面,等同政府完成資訊壟斷,在此情況下政府將取得空前權力,這對民主政治而言是否健康,值得深思。

因此,本文嘗試提出另一種可能方法來抑止全知AI,即「強制亂數化」。對「龍與地下城(Dungeons & Dragons)」等桌上型角色扮演遊戲(tabletop role-playing game, TRPG)有了解的人應該都聽過類似下面的一句話:「擲一次20面骰,當你擲出1時,再擲一次百面骰,將結果對應附表A以決定效果。」此種強制意外結果機率發生的機制,原始用意除在透過隨機性來維持遊戲的趣味性外,更重要的是在模擬現實世界「幸運/不幸」、「宿命/逆天」的戲劇性要素。而當把它套用到AI上時,因判斷結果將有一定機率不再「準確」(設計上可能可將此機率設定成比通常人類失敗的機率低一些),本文認為應可使人們有一定自信去挑戰AI的判斷(特別是當AI給出反於人類直覺的答案時),從而使真正意義的自我決定得以一定程度地維持。唯一的問題是,自由、自主等民主核心價值觀,對人們來說是否重要到願意與正確性及效率性作交換?

三、境外勢力排除

最後是有關境外勢力排除的部分。就外國直接干預而言,其實有一大部份是資訊系統安全性的問題,除透過技術的提升處理外並無他路。例如開頭案例,主要就是伺服器的資安防護,而這也並不是新的、在發展AI時應特別注意的特殊議題,畢竟如果採用網路投票亦會面臨類似挑戰(投票系統被攻擊)。至於隨之產生的選舉無效訴訟,重點在因果關係證明,此與境外勢力排除並無直接相關。

而若是單靠技術提升並無法處理的資訊系統安全性以外的,亦即政治輔助AI自始在設計學習時,其「正常」動作就存在外國利益取向問題,那基本上就是風險性與便利性間的選擇與承擔,此問題本質上單純,但處理上必然會碰到難題。在資訊量爆炸的現代社會,就算不像開頭案例中對政治如此消極的甲教授,多數人恐怕也難以有效掌握各個候選人的所有政治活動,以正確選擇符合自己期望與利益的候選人,故輔助政治判斷用的AI出現可說是勢在必行。在此前提下,因民主之「民」限於本國公民,可說是主權獨立概念下的當然之理,那麼對學習了外國人民政治偏好的AI,理論上在適用於政治決定時自應審慎,甚至應予排除。然而,就如湯淺氏所指出,在國際交流如此頻繁的現代社會,從資料蒐集、學習訓練一直到最後的運用及維護,完全排除非本國要素介入有相當困難。此際,如欲確實根除外國影響,降低政治風險,則至少應僅使用本國培育出的資訊人才、學習用資料庫應純由本國人民資料構成,並只接受來自本國的研究開發資金等,滿足以上條件的政治判斷輔助AI。以上作為,對J國或我國這類資訊科技先進國而言,理論上並非無法達成,但一個很實際的問題是,如此作為其成本顯然不斐,且可能產生閉門造車的弊病。因此,最終解決方法,似乎仍只有回歸到探尋民眾願意接受何處以及多少外國來源影響的政治抉擇一途。

而就實際方法來看,我國現行法中排除境外勢力介入的方法,例如廣電三法或政治獻金法的有關內容(註16) (排除特定來源資金)或許可以沿用,近期美國對華為的應對方式(對特定來源的產品製造貿易障礙等)也可參照,以排除外國因素對AI製造學習過程中的影響。至於應禁絕至何種程度,最終重點就是不便與安全間的政治風險決斷,當然,像是J國一樣的某現代羅馬實質附庸,或許從來就沒有完全不受境外干預的選項存在,唯一的差別僅有究竟是被哪國干預而已。

參、代結論

湯淺氏在其文章中探討了AI在政治參與領域可能會遇到的各種問題,並明確地指出AI與民主政治可能會有的本質上衝突。氏在其文章最後呼籲,對AI在政治領域的引入應小心審慎,避免成為人類最後的自由意志決定。本文以為,當前AI研究要達成全知型AI,恐怕在一時三刻間仍有相當困難。我們人類應該還有足夠時間思考並嘗試應對方式,湯淺氏的想法在目前而言可能稍嫌悲觀。不過,以對自由意志的影響而言,當前作為輔助判斷用的AI仍屬風險工具,故在政治使用上仍需審慎,一旦察覺AI的使用造成人們減少自我思考決斷,甚至確認全知AI的出現無法迴避時,則應立即停止使用,以免危害民主政治存續──除非我們決定揚棄民主政治,並轉換當前人類存在形象。


Image by mohamed Hassan from Pixabay

註解

註1:原內容收錄於湯淺墾道,AIネットワークと政治参加・政策決定,福田雅樹、林  秀弥、成原  慧編著,AIがつなげる社会- AIネットワーク時代の法・政策-,頁298-300(2017年)。惟部分內容經本文筆者調整。

註2:同前註,頁300-301。

註3:同前註,頁303-304。

註4:最判昭和41年(オ)第444号。

註5:湯淺墾道(註1),頁302-303。

註6:湯淺墾道(註1),頁307。

註7:H. L. A. 哈特著,許家馨、李冠宜譯,法律的概念,2版,頁248-249、251-252(2010年)。當然,原本哈特是在處理法秩序的確立可能性,惟本文以為就「少數支配可能性」的議題而言,可以援用此一概念。

註8:日本現行獻金上限,依政治資金規正法第21條之3規定,個人為2000萬;企業視資本額差異而不同,10億未滿750萬,10億以上50億未滿1500萬,50億以上3000萬(以上單位皆為日圓)。

註9:Sunstein, Cass R., Nudging: A Very Short Guide (September 22, 2014). 37 J. Consumer Pol’y 583 (2014). Available at SSRN: https://ssrn.com/abstract=2499658, 3-6.

註10:Yeung, Karen, ‘Hypernudge’: Big Data as a Mode of Regulation by Design’ (May 2, 2016). Information, Communication & Society (2016) 1,19; TLI Think! Paper 28/2016. Available at SSRN: https://ssrn.com/abstract=2807574, 6-8.

註11  Zittrain, Jonathan, Engineering an Election (June 20, 2014). Harvard Law Review Forum, Vol. 127, p. 335, 2014; Harvard Public Law Working Paper No. 14-28. Available at SSRN: https://ssrn.com/abstract=2457502

註12: 山本龍彦,ロボット・AIは人間の尊厳を奪うか?,弥永真生・宍戸常寿編,ロボット・AIと法,頁98-99(2018年)。

註13: 湯淺墾道(註1),頁307。

註14:山本龍彦(註12),頁99-100。

註15:「G7、消費者保護へ指針SNSなど対象」,日本經濟新聞,2019年03月11日,https://www.nikkei.com/article/DGXMZO42305900R10C19A3MM8000/,最後瀏覽日2019年05月01日。

註16:例如衛星廣播電視法第4條第3項、政治獻金法第7條第1項第7款。


資料來源

湯淺墾道(2017),AIネットワークと政治参加・政策決定,福田雅樹、林 秀弥、成原 慧編著,AIがつなげる社会-AIネットワーク時代の法・政策-,頁298-317,東京:弘文堂。


延伸閱讀

  • 山本龍彦(2018),ロボット・AIは人間の尊厳を奪うか?,弥永真生・宍戸常寿編,ロボット・AIと法,頁79-101,東京:有斐閣。
  • H. L. A. 哈特著,許家馨、李冠宜譯(2010),法律的概念,2版,臺北:商周。[Hart, H. L. A. 1997. The Concept of Law (Clarendon Law Series). Clarendon Press; 2 edition.]
  • Sunstein, Cass R., Nudging: A Very Short Guide (September 22, 2014). 37 J. Consumer Pol’y 583 (2014). Available at SSRN: https://ssrn.com/abstract=2499658
  • Yeung, Karen, ‘Hypernudge’: Big Data as a Mode of Regulation by Design’ (May 2, 2016). Information, Communication & Society (2016) 1,19; TLI Think! Paper 28/2016. Available at SSRN: https://ssrn.com/abstract=2807574 Zittrain, Jonathan, Engineering an Election (June 20, 2014). Harvard Law Review Forum, Vol. 127, p. 335, 2014; Harvard Public Law Working Paper No. 14-28. Available at SSRN: https://ssrn.com/abstract=2457502

作者

中央研究院法律學研究所 趙若漢
本研究感謝「結合人工智慧與影像醫學:全方位疾病診斷與治療策略的研究與推廣」計畫支持