對抗網絡假消息的戰役:2025年能否成功?

Ai

2025年是我們對抗虛假信息和欺騙的年頭嗎?

如果你沒有生活在一個完全封閉的環境中,你一定聽過生成式人工智能(Generative AI)。你可能看過它能製作的令人印象深刻甚至讓人不安的視頻,並且如果你密切關注這個趨勢,你會知道它催生了許多新的工具。這些工具大多數旨在讓生活更輕鬆、更高效、更愉快或更有趣。但你也必然聽聞生成式人工智能在欺騙(展示虛假和隱藏真實)、錯誤信息(虛假或不準確的信息)或虛假信息(故意虛假的內容)等在線活動中的應用。讓我們深入探討。

欺騙的風險

當生成式人工智能,這種擁有廣泛應用和用戶友好操作的技術,落入惡意行為者之手時會發生什麼?在數字媒體、人工智能與欺騙的交匯處,存在著重大風險,世界經濟論壇已將其標記為「全球經濟的最大短期威脅」。這場完美的風暴對企業、政府和社會構成威脅。

有充分證據表明,精心策劃的欺騙運動會引發混亂,例如,一張有關五角大樓爆炸的深度偽造照片在社交媒體上流傳,導致市場暴跌5000億美元。又例如,英國的一起謀殺案的虛假敘事被外國賬戶散佈,導致反移民暴動。此外,有關公共健康的外國虛假信息運動使得許多非洲公民拒絕接種疫苗。

雖然欺騙運動並不新鮮,早在衝突的早期階段就已經存在,但今天的技術使得超現實的欺騙變得更加容易,並加速了其創建、擴展、速度和觸及範圍。

虛假信息的擴散

過去,當一個壞人進入城鎮時,他很容易被識別。這個壞人戴著黑帽,做著可怕的壞事,並在酒吧地板上吐出煙草。最終,好的警長會出現,戴著白帽,也在吐煙草,但我們暫且不談這種行為。重點是,在正午時分,兩人會在主街相遇,經過一番緊張的對視,警長會將壞人制服,確保城鎮能夠幸福地生活下去。

但我們今天能否做到類似的事情?我們能否簡單地識別並消除那些在數字媒體上創造有害欺騙運動的壞人?部分可以,但大部分不可以。

要理解原因,需考慮這些針對我們經濟、政府或社會的欺騙運動是如何演變的。最初,一個流氓開始散播錯誤信息或虛假信息,目的是在人民心中播下懷疑的種子,影響選民決策或煽動暴動。虛假信息的質量至關重要,尤其是它多麼逼真地似乎接近真相。然而,真正重要的是數量;信息必須被重複才能產生影響。這種重複通常通過自動化機器人或人類「機器人」來實現——志願者或受雇參與者,他們是已建立網絡的一部分,反復回響特定的信息。

接下來,媒體中更有影響力的人士,如記者或影響者,會關注這些虛假信息並與他們的廣泛追隨者分享。這導致公眾的廣泛參與,進一步傳播了欺騙的信息。

因此,識別煽動者並追蹤個別信息至關重要。然而,我們所能做的最好就是向X、Facebook或TikTok等平台報告這些賬戶,希望他們能將其關閉。不幸的是,當一個賬戶被禁用時,它會以不同的名字出現。雖然高峰對決的概念是可能的,但其有效性是有限的。

這種情況的複雜性在於欺騙運動的長尾效應。一旦它們進入公共話語中——一旦記者、影響者和新聞網站開始回響該信息——它就會在在線環境中根深蒂固。沒有人有資金或能力將其根除。無法將精靈放回瓶子裡。你今天遇到的謊言,三十年後仍然可能被你的孩子所讀到,如果你難以區分真相與虛構,他們無疑會更難。

加入對抗欺騙、錯誤信息和虛假信息的戰鬥

同樣的技術,既攻擊我們又操縱我們對民主、政府和我們所愛品牌的信念,也可以成為解決方案的一部分。利用生成式人工智能提供了創建專門工具的豐富機會,這些工具可以幫助政策制定者、記者、市場營銷團隊、安全團隊和個人識別和應對欺騙。這一新興領域與網絡安全密切相關,但需要一套新的工具、專家和專業知識。戰鬥已經開始,但壞人不再在空曠的場地上比賽。

我們正迅速進入一個合成內容創造的世界,在這裡,內容將在個別層面上進行個性化。想想行銷活動(欺騙活動在許多方面也類似)如何努力識別符合特定標準的人群,以幫助創造引人注目的行銷信息。我們已經看到生成式人工智能技術可以為你量身打造信息。麻省理工學院的一項最新研究顯示,人工智能可以分析我們的行為,是的,就是那些我們在電子郵件和社交帖子中公開分享的行為,並以85%的準確率模仿我們的決策。其好處是,這種能力可以幫助你計劃下一次旅行,因為它可以做出與你在選擇景點或酒店時所做的相同決策。然而,它也可能被惡意行為者用來理解哪些政治議題最能引起你的情感,並製作針對性的消息來引導你做出特定的政治選擇——將未決定者從一個政治陣營推向另一個。

我們進入的戰場是那些首先找出如何利用這項技術來推進其議程的人。將會有好人,也將如往常一樣出現壞人。兩者都將使用相同的技術,但目的相反。

為了我們社會的利益,我們必須開始並建立必要的平台,加速開發可以實時識別不良行為者的解決方案。社交網絡必須加快對移除不良行為者的反應速度。我們必須找到應對錯誤信息和虛假信息長尾挑戰的方法。一旦謊言出現,它就會增長和擴散,必須加以管理,以幫助減少其影響。

這是一個棘手的情況。我認為的虛假信息可能被他人視為真相。正如漢娜·阿倫特所指出的,我們生活在一個「真相」的世界,而不是「真理」的世界。不同的人持有不同的信念,而民主與專制之間的一個關鍵區別就是獨立思考的自由。誰有權決定哪些評論或分享的文章應該被刪除?有些人可能會認為,即使是虛假信息也可以出於良好的原因進行傳播。因此,儘管我們擁有可用的工具,但減輕那些尋求欺騙者的行為是一個至關重要但困難的挑戰。我的一位同事將此稱為一個「複雜且繁瑣」的問題。這就是為什麼我們需要最優秀的頭腦來幫助我們應對這一問題,讓我們更容易區分真實內容和欺騙操控,並獲得對欺騙、錯誤信息和虛假信息的控制。

這篇文章引發了一個重要的思考,即在當今信息泛濫的時代,我們應該如何在科技的進步和社會的信任之間找到平衡。生成式人工智能的發展無疑為我們的生活帶來了便利,但同時也加劇了信息的混亂。如何加強對這些技術的監管,並確保其在促進真實信息的傳播中發揮積極作用,是未來亟待解決的課題。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *