記者 王穎皓、米世婷、陳文馨/採訪報導
近年,換臉APP在台灣引起一陣風潮,透過換臉APP的濾鏡,可以將男性的臉換成女性,甚至可以把你變老或變年輕,不分老少都被其趣味性所吸引。然而,人們卻不知道在這種技術的背後,隱含著科技犯罪的新手段──「Deepfake深度偽造技術」。
換臉應用程式 「深假」技術暗藏危機
Deepfake,也就是深度偽造,其透過人工智慧做深度學習(deep learning),以產生假的影像和聲音,因此叫做Deepfake。人們熟悉的換臉APP,也是其技術的一種。在2018年,歐巴馬的深度偽造影片事件,即引起世界對於「深度造假」的警覺。在此深偽影片中,歐巴馬罵「川普是個徹頭徹尾的笨蛋。」
但實際上,歐巴馬根本沒有拍這支影片,更沒有說川普是笨蛋,這都是由美國導演喬登·哈沃斯·皮爾(Jordan Haworth Peele)透過深度偽造技術所製作出來的,他的用意是希望透過此影片來警告大眾,深度偽造的危險性,提醒人們假資訊的傳播已經可以與人工智慧結合,進而模仿別人的臉部表情與嘴型等等,形成難以辨別真假的影片,讓任何人說出技術員想讓他說的話。
民眾秦國維驚訝地表示,歐巴馬的偽造影片居然做得如此逼真,他原本完全相信影片中發生的一切。此外,面對有心人士對於深偽技術的操控,他認為,現在有人可以做出讓民眾如此難辨別真假的影片或圖片,自己的確會覺得可怕。事實上,深偽技術若被不當使用,確實會造成許多政治與社會問題。
「深假」技術除了成為可以毀壞政治人物名譽的工具外,其實,早在2017年,就可以從色情影片看出深度偽造的蹤跡。社群網站Reddit,曾經有一名暱稱為「deepfake」的用戶,將知名女星的臉,換到色情片的演員上,不僅讓女星的名譽受損,更造成她的心理傷害。深度偽造技術用在色情片上,不只發生在國外。
在台灣,2020年也有類似案例發生──「網紅挖面事件」。據《鏡週刊》在今年五月的報導,述說女性遭挖面,也就是臉部被有心人士擷取,並置換到色情演員身上。這些遭挖面的對象不只有女性網紅,政治人物也慘遭毒手,做出「自己沒有做的事情」,但在影片中,一切都如此地逼真。
深偽技術的真實性很高,讓「挖面」受害者也不知該如何證明影片中的人不是自己。面對深偽的威脅,就算執法單位馬上發現並將相關影片下架,但是影片的傳播速度快,若一般大眾沒有警覺心的話,將會產生極大的誤解,到時可能造成的不僅是社會安全,更是國安問題。
從這些案例就可發現,深度偽造技術就在我們生活周遭,從換臉APP到色情網站,都可以發現它的蹤影。民眾陳綺軒表示,自己並不了解深度偽造,但有看過朋友們在玩換臉APP。從此就可發現,人們對於深偽技術尚未有警覺心。
此外,深偽技術多以照片或影片方式呈現。國家安全研究院國防戰略與資源研究所政策分析員劉姝廷就表示,影像比文字更能夠挑動情緒,如果是用深度偽造,這種比較細膩的影像處理技術,將它作為一個假訊息的話,更容易操弄人心,進而威脅到國家安全。
劉姝廷也說,在疫情嚴峻的時刻,假使今天總統發布了一段發言,透過深度偽造,它可以改變裡面的內容,散布不實資訊,那便可以操弄民心,甚至引起民眾恐慌。此外,深偽技術若是被用在不好的層面上,都是以假訊息傳播為最大宗,對於保障言論自由的民主社會將造成威脅。
不過深度偽造技術並非完全為負面用途。除了換臉APP之外,在電影工業上更是廣泛運用深偽技術,讓已故的影星重出江湖並非難事。若完全限制此技術的發展,也將阻礙這項技術給人們帶來的無限可能。
深偽影響層面廣 破解難度高
科技的發展就像雙面刃,可能引發無可避免的威脅,但也讓生活更加有趣與便利。深度偽造背後的人工智慧技術帶來許多好處,像是人臉辨識可以用在銀行帳戶登錄時的驗證、人人瘋傳的相機濾鏡也是類似的技術。
臺灣警察專科學校刑事警察科副教授李承龍表示,深度偽造技術在警方辦案時帶來很大的幫助,有時涉及犯案的車牌號碼在影像中模糊不清,就可以利用深偽技術中的深度學習來強化影像並辨識車牌,找出犯案車主。身為老師的他也認為,深偽技術在教學上也是非常有利的運用,老師如果在介紹愛因斯坦,就可以利用深度偽造讓已故偉人現身說法。
水能載舟亦能覆舟,說到深度偽造給社會帶來的影響,劉姝廷表示,這項技術如果交到有心人士手中,可以分化特定的群體,尤其是在同溫層、政治岐化較明顯的台灣,透過偽造的影片分別強化兩端的集體意識,造成各自仇視、分立的現象。
資訊工業策進會資安科技研究所總監張文村也補充,深度偽造能用在金融資訊這方面,藉由偽造的假訊息傳播、炒作,使部分人士逢低買進股票後再拉抬價格,屬於偽造假訊息所造成的效果。
所以深度偽造不管是運用在政治、社會、經濟等各方面,都可能造成一些負面效果,因此破解深度偽造影像的方法便更顯重要。
資訊工業策進會資安科技研究所組長楊順清和李承龍一致認為,要看出影片是否經過人工智慧偽造,其實有一些端倪。經過深度偽造的影片中,人物的臉部邊緣接合部分可能會不太自然,也可以從人物和背景的光線差異看出破綻,影片中人物的眼神和動作與本人不一,也是一突破點。
雖然可以從這些細微之處看到破綻,但楊順清也說,科技不斷的進步,有些影片也偽造的非常逼真,每個細節都無堅不摧,所以從細節判斷深偽影片並不是百分之百能辨出真假,究其根本,還是得靠大眾對假資訊的警覺,進行查證等動作。
提前部屬 面對「深假」我們能做的事
李承龍表示,科技的技術跟科技的研發本性是好的,但是有時候會有一些價值觀偏差的不法人士,將這些新科技拿去做壞事。當我們遇到這些問題時,必須有相對的防範、分辨措施。
國安所政策分析員劉姝廷認為,因應這樣的新科技犯罪型態,政府在技術上也需要跟進。除了政府自身部門之外,透過民間的專業團隊跟科技公司、科技新貴、事實查核組織等,各方的公私協力,經過強化並整合,應該會形成一個很不錯的保護作用。
劉姝廷也提到,可以從教育的方向去做宣導,除了像教育部媒體素養的教育課程外,透過公民自身的媒體素養,懂得如何辨識影片及查證消息來源,也可以阻擋深度偽造這種新科技的攻擊和威脅。
楊順清認為,民眾能夠防範的事情就是不要輕易相信網路上封閉式社團裡無法查證的資訊,盡量透過公開的管道反覆驗證,多比較來自四面八方的訊息,才能較為充分了解事情的原貌。
李承龍則說,民眾在平常可以多去接觸一些犯罪案例、了解時事,知道這些新型犯罪正在發生,當有這些記憶之後,就會開始對各樣的資訊有警戒心、多加留意。
他補充,在面對這種新科技的犯罪行為,世界各國都已經有一些相關的法律,台灣目前還未訂定專法,是因為這種犯罪行為沒有被凸顯出來。他說,美國從很早之前就已經出現這種犯罪問題,維吉尼亞州便是美國第一個率先將這種技術列為犯罪行為的地方。
這種新科技的犯罪模式正在發生,其他國家也都為此立下法令來約束這種犯罪型態,李承龍認為台灣也可以參考別國的法令,因地制宜立出一個適合的專法,遏止不法人士的行為。除了透過法律的規範,李承龍也說民眾的素養配上現階段的技術能力,同時加強大眾的道德觀,這些自身的心態、想法跟行為的改變,效用應該會比法令層面來的更高。
面對新型態的假訊息傳播,深度偽造技術在台灣造成危害的個案還不多,然而,科技進步快速,深偽的足跡已開始在台灣展開。從2020年的網紅挖臉事件,提醒我們應該要加以重視深偽技術,若人民心中自有警覺,下次看到相關影片、照片,甚至語音,才不會輕易上當。
延伸閱讀: