剝衣APP遭緊急下架



 趙若漢
2019年07月08日


據華盛頓郵報報導,一款運用演算法,能即時將圖片上正常著衣的女性身體擬真描繪為全裸狀態的APP「DeepNude」,在上市數天後即遭緊急下架。

消息指出,DeepNude能透過AI運算,模擬出圖片上的女性沒穿衣服時應有的樣子,而生成deepfake圖片。受限於其設計,DeepNude無法作用於男性上。

DeepNude上市後受到嚴厲批判。部分批評者認為該APP將會促成報復性色情圖片更為猖獗;另一些則是指出該APP作為一種deepfake科技運用,其所帶來的真假難辨效應,未來將可能對社會帶來嚴重損害。在遭受各方激烈責難後,開發者最終認為「這個世界尚未準備好接受DeepNude」,而將該APP下架。

此外,據傳美國加州政府已開始考慮將deepfake色情非法化,若成真則加州將是第一個針對此議題採取法律行動的州。

將圖片人物的臉和身體移花接木作成色情圖像這件事由來已久,除了原始簡單的剪刀膠水外,最廣為人知的方式大概就是photoshop一類的軟體修圖,DeepNude就概念本質及可能帶來的問題來看,並無特殊之處。可能有人會直覺性地認為DeepNude是對女性的剝削、歧視,但這種看法明顯忽略了只要是人都有被移花接木的可能,透過另外設計一個能將男性剝衣的類似APP就能簡單消除歧視女性的指控。性別中立的報復性色情指控或許是較為正確的做法,然而對此的質疑是,在此被責難的應是報復性色情行為,則為何不是懲罰行為本身,而是要去禁絕DeepNude這一「工具」?可能的想法是類似槍砲刀械管制,雖然可罰行為是非法殺傷,但槍刀的存在會讓非法殺傷行為過於容易發生,故從危險事前預防來看,應管制槍刀。

以上主張有其合理性,但其同時也會面臨跟槍刀管制一樣的問題,即管制範圍如何?具體而言,為何DeepNude須被禁止,但傳統的修圖軟體像是photoshop等卻不用?如果從報復性色情角度出發,可能的解釋之一為,確實DeepNude這種「AI」修圖軟體,較photoshop之類的傳統修圖軟體而言,對一般人而言在使用便利性、操作容易性,更重要的是修圖品質上更勝一籌,就像水果刀雖然也可以殺人,但武士刀顯然更好用一樣。然而以有效預防報復性色情的目的來看,因就報復性色情而言,即使圖片相似精度不是那麼高,在被害者頭像與裸體連結並被散布的那一刻起,羞辱、霸凌的效果即已發生,換言之只要不要太假,photoshop的成品即足以「完成任務」。而完成此種低品質的色情換圖,理論上不須具備多高的技術門檻,故就此種情形而言,AI 修圖軟體和傳統修圖軟體,似不存在危險性上的本質差距,則純粹以造成報復性色情的危險性作為管制理由時,可能會遭到為何不一倂將photoshop等軟體納入對象的質疑。

另一種可能的想法是,或許可以參照我國刑法第362條製作電腦病毒罪的精神作為管制基礎,亦即DeepNude與photoshop不同之處在於,前者除了模擬女性裸體以外再無其它用處,類似「專供犯本章之罪之電腦程式」,其既限定為供違法之用,對社會造成之損害必大於帶來之利益,則禁止限制自無問題。惟如此解釋,亦會面臨刑法362條規定固有的問題,即「專供犯罪」這一要件事實上很難滿足,例如遠端桌面軟體之運作原理與殭屍網路病毒在本質上並無差異,將前者挪用做後者之用的情形不是不能想像(當然還有更簡單的例子就像是西瓜刀或開山刀)。今天DeepNude因其功能的有限性,查禁或許並無爭議,但我們不能排除未來開發出除模擬裸體外,還包含模擬換衣的APP(類似裝置已可於部分服飾店看到),則當此類APP具有多重功能時,借用刑法362條規定的理論基礎將不復存在。     就小編來看,放棄報復性色情的主張,轉而從「deepfake」的角度切入可能是較為合適的做法。相對報復性色情意在羞辱作用而言,deepfake重在以假亂真,若因精度不足而能被判定為造假圖像,則受害者以被抹黑為由反擊時,攻擊效果將相當程度地受到限縮。故在此前提下,能簡單創造高精度圖像的AI工具DeepNude,與須依賴「手工」的photoshop相比確實有顯著危險,而此危險的核心是讓某人須為其從未發表過之言論或做過之行為負責的「虛偽同一性認定」,而不是色情圖像造成的「名譽、隱私、貞操」危害。色情事實上僅是deepfake的附帶問題(雖然它可能是促成相關技術發展的重要動機),虛偽同一性才是最嚴峻的衝擊,特別是當它被運用在政治上時(試想在選舉期間候選人被偽造了與未成年人的性愛轟趴圖像)。後續加州或其它有關當局的管制措施是否能正確認知到問題的核心所在,而不會錯誤使用保護性自主或風化的相關手段來處理,有待繼續觀察。


Swimming hole by Thomas Eakins.

資料來源

Taylor Telford, ‘The world is not yet ready for DeepNude’: Creator kills app that uses AI to fake naked images of women, The Washington Post, June 28, 2019,  https://www.washingtonpost.com/business/2019/06/28/the-world-is-not-yet-ready-deepnude-creator-kills-app-that-uses-ai-fake-naked-images-women/?utm_term=.114fc256c62a (last visited July 12, 2019).


延伸閱讀


作者

中央研究院法律學研究所 趙若漢
本研究感謝「結合人工智慧與影像醫學:全方位疾病診斷與治療策略的研究與推廣」計畫支持