AI的快速發展衍生出各種道德倫理層面的議題,偽造影像、假新聞等,即為其中之一。由於自動生成AI產出影像文章愈真實,遭到濫用的風險就愈高,因此AI衍生的問題如何透過AI來進行反制,以避免遭到濫用,造成負面影響,讓智慧化發展更值得期待,是未來值得關注的議題。
近年來人工智慧相關技術進展快速,帶動金融、醫療、製造等各垂直領域應用呈現百花齊放的狀況。其中,以深度神經網路(DNN)與生成對抗網路(GAN)等,為基礎的AI技術亦有長足的進展,功能大幅增強。過去其主要功能為影像中的物件之辨識、語音辨識與分類等,可應用於汽車自動駕駛,或做為機器人的眼、耳等,擔負視覺與聽覺功能。這些僅僅只是極小部份的功能,最近相關開發案例激增,最受矚目者應屬「自動生成AI」,尤其是在GAN相關成果揭露後,已衍生出上千種技術。
應用市場潛力看好
自動生成AI,顧名思義,乃可自動產生新影像、文字與語音等資料的AI,只要完成一次學習後,即可輕易產生宛若實際拍攝人物或風景等影像,也可反向根據影像,輸出說明其內容的文字,或將照片轉換為知名畫家畫風的影像,亦即具備可轉換現有資料的媒體或呈現風格之能力。過去諸如此類轉換,往往需要繁瑣人工作業,而自動生成AI則可在瞬間完成,完全不須依賴人力處理。最近由科技狂人Elon Musk創辦的非牟利機構OpenAI就向外公佈,懂得自動寫作的AI模型GPT-2完全版,其AI寫出來的文字確可讓人難以分辨真偽。
目前包括醫療影像診斷、疾病診斷、瑕疵品檢測、生成可取代模特兒的照片素材、超高解析成像技術等自動生成AI的應用已開始進入商用化的階段。2018年10月,紐約佳士得即以43.25萬美元,拍賣出一幅運用GAN自動生成AI繪製的畫作,可見其生成能力已達相當水準。此外,在影片中實現轉換應用,以及生成影片的說明文字與旁白的技術,也在加速開發中。未來電視台只需播放傳送劇本的文字,消費者即可在電視或其他終端上,接收到採用喜好之演員的影像與聲音即時生成戲劇或電影的服務,也可望問世。
有鑑於未來市場發展潛力,業者之間的開發競爭也隨之愈演愈烈。包含美國Apple、Google、Microsoft、NVIDIA,以及中國大陸百度等業者,皆競相投入相關技術與應用開發。此外,NTT、Preferred Networks與新創企業DataGrid等日本業者,也緊追在後,期能迎頭趕上。
資訊真假難辨成困擾
然而,在相關應用如火如荼發展的同時,自動生成AI被不當使用或濫用的潛在風險亦隨之浮現。由於科技的進步,相較真實世界,一般人缺乏辨識網路世界資訊真假的知識與能力,因此對網路上真假難辨的資訊顯得束手無策。
由於目前自動生成AI技術,已可輕易製作出難以辨別真假的影像或新聞,若特定網站等僅是基於宣傳或節省成本等之目的,加上自動生成的影像,尚不至於造成太大問題。如果為以惡意詐騙、或政治操作等為目的之不法集團等所運用,製造出來的假帳號、假新聞就可能成為詐騙個人錢財,或特定政治意圖的工具。只要搭配假造的內容,即可輕易建立擁有可信度的假帳號,進而在社群網站傳遞不實訊息引導風向或套取機密資訊,可能造成社會秩序的混亂。近來相關案例層出不窮,而受到各界的正視與討論。
Deepfake是可以將圖像或影片疊加至目標圖像或影片上,進行人物影像合成,再透過自動生成AI調整臉部表情、模擬嘴型與肢體動作的技術。運用該技術可輕易進行所謂「變臉」的作業,目前Deepfake已因色情報復、金融欺詐或政治意圖等惡意使用,而引起軒然大波。另一個名為Ai.pictures頻道,內容專門模仿中國領袖的發言,雖然影片中有註明內容並非習近平主席所言,但以中國領袖的影像發表政治傾向相反的言論,且乍看之下真假難辨,仍可能引發國際性恐慌。
造假、濫用案例衍生問題受關注
由Tesla馬斯克等主導成立人工智慧研究組織OpenAI於2019年11月對外公布「自動寫作模型」GPT-2,產生出文章讓一般民眾難以分辨真偽。該模型以800萬頁的網頁做為訓練基礎,由於訓練資料數量龐大內容多元,因此不須針對特定項目進行訓練,可以應用在多重領域,功能相當強大,原設定做為寫作人工智慧助理,或是語言理解系統等,協助機器翻譯、問答、解讀與總結等語言處理相關工作。但由於只需提供一段文句,模型就會自動產出接續的文字,目前因被濫用於產生幾可亂真的假新聞,進而在社群媒體散布誤導性內容等問題,而備受爭議,甚至被冠上「文字版Deepfake」的惡名。
此外,全球活躍用戶高達近20億Facebook,在2019年12月宣布大規模刪除在Facebook、Instagram上,總共900多組帳號、粉絲頁與群組。原因是這些頁面透過不正當手段,將偏向川普的內容、言論等散播給約5,500萬名用戶。Facebook指出這些假帳號、假網頁大部分是利用AI自動生成的照片申請註冊,並且透過相同手法在Twitter、YouTube等平台上,宣傳支持川普的言論。
該件事為首次大規模、系統性運用自動生成AI合成人臉影像,用來經營造假的社交媒體活動,藉以吸引粉絲,提高網路聲量,代表資訊戰已進入一個全新境界,如果不釐清資料出處與來源,就無法確認資訊真偽的時代。
AI的快速發展衍生出各種道德倫理層面的議題,上述偽造影像、假新聞等,即為其中之一。而儘管自動生成AI能產生可通過檢驗的假臉,但它主要透過模仿視覺的模型生成,在不十分理解人體結構的情況下,仍可運用AI分析在背景或對稱特徵等部分找出破綻。透過AI生成的文字亦然,同樣可以運用AI分析,找出哪些是偽造出來的文字。由於自動生成AI產出影像文章愈真實,遭到濫用的風險就愈高,因此AI衍生的問題如何透過AI來進行反制,以避免遭到濫用,造成負面影響,讓智慧化發展更值得期待,是未來值得關注的議題。
<本文作者周維忠,現任資策會MIC資深研究總監,專業於資訊應用相關技術及基礎環境與市場趨勢研究,長期深度觀察資訊應用新興技術發展、創新服務模式與市場競爭態勢。資策會產業情報研究所(MIC)長期觀測紀錄高科技產業市場情報及發展趨勢,是臺灣資通訊產業最重要的軍師,也是政府倚重的專業智庫。更多資訊請參閱官網 https://mic.iii.org.tw/>