無障礙鏈接

突發新聞

生成式AI大爆發 台灣專家:對抗極權、守護真相成當務之急


位於台北的台灣人工智慧實驗室創辦人杜奕瑾(美國之音特約記者李賢拍攝)
位於台北的台灣人工智慧實驗室創辦人杜奕瑾(美國之音特約記者李賢拍攝)

生成式人工智能(AI)應用加速,近期在語音、影像和文本等領域都出現了應用現象。台灣專家預測,AI不僅將大幅顛覆商業模式,在地緣政治劇變的今天,更將成為認知作戰的最大工具。因此,國際社會若不積極對抗極權政府,言論自由恐被虛假消息的操作反噬。

生成式AI大爆發 台灣專家:對抗極權、守護真相成當務之急
please wait

No media source currently available

0:00 0:08:38 0:00

台灣事實查核基金會週五(3月24日)於台北舉行紀錄片《A Thousand Cuts》的特映會,該片講述菲律賓著名記者、也是諾貝爾和平獎得主瑞薩(Maria Ressa)對抗菲律賓執政當局的濫權濫殺及挺身對抗虛假訊息的故事。

特映會後,基金會特別召開“守護真相,建立民主防線”的座談會,多位與會的台灣專家尤其聚焦人工智能(AI)科技的應用及其對認知作戰和新聞自由的衝擊。

認知戰操作手法:外國勢力、顛覆政權及道德指控

其中,位於台北的台灣大學新聞研究所名譽教授張錦華分析,極權政府操弄的認知戰具共通性。她說,以菲律賓政府鎖定菲律賓媒體《Rappler》為例,其破壞新聞內容和事實真相的手法有三大類型,一是扣上“煽動民族主義”的大帽子,指稱媒體的負面報導都是“外國勢力、外國公司或美國指使”;其二是誣陷媒體記者反政府,說他們“要政變、顛复政府”,更變相對他們扣上刑事犯罪的罪名;最後是訴諸道德標準,例如批評記者“說謊、放假消息、愛錢貪錢”等仇恨語言或操弄仇女言論等。

位於台北的台灣大學新聞研究所名譽教授張錦華(美國之音特約記者李賢拍攝)
位於台北的台灣大學新聞研究所名譽教授張錦華(美國之音特約記者李賢拍攝)

張錦華直言,這些手法都是認知作戰。她提醒各界,認清這些形式,才能在面對聳動性言論或報導時,覺察到認知作戰的套路。

張錦華說,各界應藉鏡烏克蘭於俄烏戰事中打贏資訊戰的啟示。她說,戰爭一爆發,烏克蘭立刻全面禁止親俄媒體,以限制戰時的新聞和言論自由,來防止俄羅斯的滲透。其次,俄軍侵略下,“任何假訊息要立刻解構”,包括烏國主流媒體、民眾、甚至全球協力查報假訊息,例如烏克蘭總統澤連斯基投降的深偽影片、烏軍自導自演布查大屠殺及持有生化武器等假消息,即使是親烏克蘭的假訊息也立即查核,以伸張公信力。

生成式AI讓認知戰變本加厲?

張錦華說,聊天機器人ChatGPT的出現,加上AI生成算圖工具MidJourney和深偽技術等發展,讓各界對其效應或許看法不一,但她引述美國事實查核研究機構NewsGuard共同執行長克羅維茲(Gordon Crovitz)的話稱,“這個工具將成為有史以來最強大的錯誤訊息工具”,而且很難消除這個威脅。

張錦華說:“其實沒有任何一種靈丹妙藥可以消除這個威脅,當然有很多方法,媒體識讀、政府的政策監管等等,這都是要去繼續進行的。”

位於台北的台灣人工智慧實驗室創辦人杜奕瑾也於座談會上表示,比起公正新聞之發布,部分人士操作虛假訊息的利益更大,導致公共論壇的消失、媒體營收能力的弱化,而最新出現的生成式AI科技,更使其散佈虛假訊息的能力大增。就ChatGPT技術而言,杜奕瑾說:“它只要合理的,都有辦法生成,你只要能夠做出任何偵測的方法,我們都是可以訓練AI模型,去把它騙過去。”他預期未來AI將被廣泛運用,因此,真實報導的媒體記者若無法大量地傳遞正確消息,“我們就會被虛假消息給反噬。”

他說,臉書(Facebook)上有些程式自動產生的留言,雖然因技術不到位,而出現奇怪的符號或看不懂的語言。但這些圍繞特定主題、不斷生成的虛假內容,就是要疲勞轟炸閱聽大眾,使其轉化為腦袋裡的意象。

杜奕瑾:保障真人言論 伸張數位人權

當生成式AI技術廣泛應用到言論上,杜奕瑾認為,“不刪除就是保障言論自由”的思維其實是錯的。因為若不及時制止這些操作,“真人的言論就會被淹沒”。他說,一般人發表意見,若引來一堆“人”辱罵,或使用大量的仇恨語言來反制其意見時,久而久之就會讓大家不敢自由發言。

擁抱科技文明的同時,杜奕瑾說,保障“真人”的公共論壇空間,才能保障數位人權。他主張,應加強社交媒體平台的透明度分析,並支持第三方機構揭發虛假訊息的操作,這不同於社交媒體對仇恨言論的審查機制,尤其這些審查機制已經成為獨裁者箝制言論的工具。

強化媒體能力

面對假訊息操作和新聞媒體的危機,杜奕瑾呼籲,公共論壇或媒體應投入資源,保障“真人數位人權”。他說,臉書(Facebook)和推特(Twitter)每年都從中國和俄羅斯收到大量的廣告收益,滲透的意味濃厚,因為這兩國根本封禁人民使用臉書和推特。因此,我們必須強化公共論壇及新聞媒體的能力,才能保障民主。

杜奕瑾建議三項具體作法,第一,發布相應的法規,以提升社交媒體平台的透明度;第二,新聞內容的廣告收益應合理分潤至內容創作者,讓致力深度報導的媒體能得到合理的利潤,以維繫運營;第三,面對生成式AI科技的發展,受眾應提高數位素養,以洞察AI科技的破壞力,並探討如何防範生成科技產製虛假消息的倫理問題。

沈伯洋:對抗極權至關重要

台北大學犯罪學研究所副教授沈伯洋也於座談會上提醒,不論是社群平台或AI的應用,資訊傾斜和對抗極權才是問題根源。他說,指責“網軍”是件危險的事,因為背後“一定有真人”的思維,讓人容易忽略“假訊息操作不只是網軍而已”的事實。

台北大學犯罪學研究所副教授沈伯洋(美國之音特約記者李賢拍攝)
台北大學犯罪學研究所副教授沈伯洋(美國之音特約記者李賢拍攝)

沈伯言解釋,網軍是公關公司操作的商業模式,以便放大特定的網絡聲量,但問題是“過度”渲染事態。例如,在俄羅斯媒體主持節目的美國廣播記者Garland Nixon近期在推特發布,白宮有一個毀滅台灣計劃,此謠言在台灣廣為傳播,但網軍並未涉入其中,凸顯出台灣媒體生態的不夠健全,因為無法做到把關假訊息。他說,在政治公關和網軍協同行為的發展過程中,媒體本該扮演把關的角色,但現在卻反而成為無限放大各種側翼聲音的工具。又例如,中國的白紙運動非常重要,但部分台灣媒體竟少有報導。沈伯洋擔心,在抖音陪伴下長大的新生代,受到偏頗資訊的影響,恐缺乏對中國的足夠認識。

沈伯洋強調,針對新聞自由、人權保障或社群媒體影響,各國都面臨相同的困境,但此困境在民主社會都有機會得到修正,但在獨極權社會反而事態更為嚴重。

沈伯洋說:“所有的問題的根源其實是在極權,因為極權這件事情,它才是會有生命的威脅,它的司法可能不夠獨立,它的議會本身不夠獨立,它會放大所有的問題,而且它沒有一個修復的機制。其實說真的,要怎麼去對抗極權,我覺得,更為重要。”

他說,TikTok監控美國公民的問題,近期引起熱議。美國打算全面封禁TikTok,原因就在於它與中國威權政府的關係,讓人無法信任。 TikTok就算把數據儲存在美國,但母公司北京字節跳動還是中企,仍能配合中共,存取美國公民的個資。 TikTok宣稱將交出演算法,這或能提高其後台資訊存取的透明度,但無法完全解決這類社群媒體所衍生的諸多問題,因為美國人對其缺乏信任度。

論壇

XS
SM
MD
LG