【專訪】王銘宏:兩招破解假新聞的技倆

文/蘇元和

2016年美國總統大選之後,假訊息已成為國內外最關注的爭議問題,尤以社群媒體推波助瀾下,增加不實訊息、謠言傳播更快、更廣。

面對人手一機的網際網路時代,每天都接觸到「大量且速食化的資訊」,閱聽眾如何更安全使用社群媒體,並強化媒體素養的能力?

以下是專訪中正大學資工系教授王銘宏的重點摘要內容。

《全民查假會社》問(以下簡稱問):台灣幾乎年年是選舉年,網路世界、社群媒體常出現輿論操弄與假新聞帶風向?他們如何成形的?民眾有其辨識的技巧?

王銘宏答(以下簡稱答):從手法角度去看,眾星拱月的方式是最常見的一種。一般來講你控制多個帳號,你一定是試圖去營造一個最簡單的方式,那就是眾星拱月,其中一個帳號發文,其它帳號用來推薦、或分享,這是一個最基本的用途。

因此,我們就會從這些帳號之間的關係與關連性觀察,比如說A帳號跟BCD 4個帳號,A帳號每一次發文、BCD帳號都會出現在底下留言。這樣就很容易透過電腦科學的技術去做偵測,我們就可以把他們4個人圈在一起,並認為他們可能有一些比較特殊的關係。

從我們大量的數據觀察到,如果是一兩次,當然有可能是巧合,但如果次數是非常頻繁,我們就可以藉此判斷這幾個帳號可能是有關係的。

另外,我提到背後設備如果是機器人,這是很容易被分辨的,但為什麼還是有他的效果,主要是因為這個方法根本不需人力。第一個方式眾星拱月還可能需要人力,去發想內容發表,然後轉貼內容。不過轉貼動作,只要寫一支程式就可以做了,而且他們完全不用成本,也沒有時間的問題,所以這樣功能的機器人還是會出現的。

我想補充一點就是,這樣的機器人在社群網站上是很容易被觀察的,尤其是從公開的臉書上容易看出這個帳號的活躍性,他只要在轉貼就容易判斷。但若在Line上,這種封閉型的社群群組,偶爾幾個帳號轉貼傳播的訊息,你可能很難分辨是電腦或是真人轉貼的,這是一個不實訊息議題嚴峻的地方,但卻相對困難分辨是否真偽的帳號。

至於談到使用者的年齡,比如說年輕的使用者現在大多數都用Instagram(IG)或抖音;中年年紀,或稍微年紀大會使用Facebook;Line基本上全年齡都在使用的,尤其年紀比較大的人很會使用Line,而且他們會相信Line上面提供的訊息,因為都是朋友圈傳來的訊息信賴感高,所以這類的通訊軟體上,就不容易被懷疑其身分是誰,那麼就有機會去進行輿論影響的行為。

問:不實訊息從Line發送出來,主要可能是熟悉的朋友圈轉發的,卻不容易被偵測出來真偽?

答:對,Line並不容易從外部觀察出來,但Facebook去是很容易觀察分辨,主要因為粉專是公開的,且開一個帳號就可以觀察其帳號的真偽。反之,Line是封閉式的平台,就無法輕易觀察。

舊聞麥假!兩招必備識讀力

問:請問公民使用通訊軟體,應該具備什麼樣的素養?

答:我覺得第一就是看到吸引力、很聳動的標題,大家應該多思考,不要馬上相信,這是最基本應該可以都做得到,舉例當你收到親朋好友都傳同一則訊息給你,你就可以覺得這是可疑訊息。

簡單地說,當你發現從很多地方都共同傳同一個訊息,那代表這一則訊息要不是很重要,或就是這個訊息是有意圖的,而且它很有效率與效果,讓大家願意去做分享跟轉發。

在2020年,我們研究團隊與智庫IORG做了一個Covid-19相關的Line平台上假訊息研究,我們發現這些訊息其實會隨著轉傳的時間,去做在地化,或是時事化的改變,比如說,一開始我們觀察到假訊息都用鍾南山作名人的背書。但在2020年4月之後,這些假訊息都改成用陳時中部長做背書,因此這種在地化或者時事化的現象,其實都是假訊息他們常用的一些技巧。

對民眾來講,不可能身邊常常都有專家可詢問,但又很難分辨真假的時候,我覺得第一就是不要馬上相信,這點應該大家都做得到。第二就是不管是民間或是政府都會有輿情的窗口,其中,民間組織如全民查假會社、事實查核中心、Cofacts真的假的、假新聞清潔劑等,民眾可以善用這些組織去針對可疑的假訊息做查證。

問:請總結說明Covid-19相關假訊息研究發現什麼現象?

答:第一就是我上述的假訊息容易在地化跟時事化再傳播;第二點假訊息一定會拉名人背書,不管他拉什麼樣的人,因為用名人背書最有說服力;比如說,我們看到過年前的假訊息,元宵節過後又發現內容被調整、再傳播,然後,可能到了端午節又微調舊聞,又再傳播。

基本上就是要讓這個假訊息不斷延續再傳播,讓舊聞(假)訊息生命可更長,針對這樣的現象,目前電腦科學是可列出時間軸去做演化,然後去做辨識。

問:AI人工智慧可大量創造假訊息,那麼,是否也可以透過大數據等協助辨識假訊息?若可以,至今發展狀況?

答:如果是生成式AI,並不會同時一直產製一模一樣的內容,過去我們在偵測機器網路上面的機器人,其實最容易就是看到一樣的內容一直轉發,那這樣我們就很容易分辨抓到誰在製造假訊息。但是現在這些機器人會去調整一些用詞遣字,或者一些符號,讓每一則訊息看起來都不全部相同,所以單純從文字內容確實很難去辨識真偽。

所以,如同我上述的還要靠「帳號信用或名聲」、「帳號行為」去加以辨識,這樣是比較容易、也較有效果。

我舉例來說,我們要去判斷一個人的帳號被盜,一定是那個帳號原本是正常的、信用好的,但當他發一個不正常的訊息,我們會覺得他的帳號可能被盜。但如果我們從一個帳號過去以來都不正常發布訊息,當然我們就很容易可以判斷出這個帳號可能是假帳號,即使它發布的內容每次都不一樣。這樣簡易地判斷邏輯,會對於社會大眾來講,是較容易進行識讀的。

問:研究領域截至目前,發展到什麼狀況?

答:我們會使用人工智慧機器技術去學習這些使用者,不管是我們已經標記或已經確定他是分身帳號的行為,機器把它學起來,然後之後如果有一個未知的帳號,我們可以透過這樣的分類器去判別,他是分身帳號或不是分身帳號,或是他的機率是多少,比如說可能性為九成,基本上可運用到這些特徵,包含分身帳號的行為,他發表的內容,他跟人互動的這些程度來進行。

三大層面下手 營造健康安全社群環境

問:人工智慧攻防發展至今,如何創造安全的社群媒體環境,降低不實訊息傳播力?

答:第一,我覺得全民的媒體識讀能力絕對是必須的,而且必要去做的,從告知大眾抓假帳號的的概念、假訊息的樣態,就能降低公民被欺騙的機會。

因為即使技術如何增強,這些假帳號也會變強、會變厲害、會了解研究方的辨識規則,之後他可能就改變他的行為。所以回歸到媒體識讀培養是重要的,但要識讀能力也不是一蹴可幾。民眾最容易做的就是不管收到任何訊息,尤其是網路上面的訊息,都要先保持懷疑的態度,且具備一定的敏感度後,就不易被不實訊息傷害。這就像是經過宣導之後,比方民眾現在接到詐騙電話都已比較多警覺性。

不管是從媒體識讀教育的方式,或大眾傳播的方式來去做宣導,就能降低民眾馬上被騙的風險,減少馬上轉傳假訊息的機會,那麼,假訊息被傳播出去的乘數效應就會一直降低。

第二,民間組織或政府角色可發揮回應假訊息,或者是輿論的訊息能量。過去澄清輿論、輿情頻率並不高,但我覺得政府最近幾年回應確實是有變快。另外從公信力的單位發出澄清訊息,幫助民眾釐清還是會有效果的。第三就是由電腦技術協助事實查核能夠廣,或更加深入。

總而言之,三個層面包括教育端、執行端澄清的速度、技術端來加強並降低不實訊息的傳播影響。不管是官方或是民間平臺協作,都能讓整個社群媒體環境變得更安全。

熱門推薦