AI語音詐騙上升 – 根據安全專家的建議,如何保持安全
隨著AI技術的進步,語音模擬詐騙的情況正在上升。這些詐騙者利用語音啟用的AI模型,模仿親友的聲音,騙取個人信息。專家建議與家人和朋友商定安全密語,以防受騙。
什麼是AI語音詐騙?
詐騙電話並不新鮮,但AI驅動的詐騙卻是一種新型的危險。這些詐騙者使用生成式AI技術,不僅模仿權威或名人,還能模仿朋友和家人。
隨著AI模型訓練人類聲音的出現,電話詐騙的風險大幅增加。這些工具,例如OpenAI的語音API,支持人與AI模型之間的實時對話。只需少量代碼,這些模型就可以自動執行電話詐騙,誘使受害者披露敏感信息。
那麼,我們應該如何保護自己呢?這種威脅的棘手之處不僅在於其易於低成本部署,還在於AI聲音的逼真程度。
例如,OpenAI因其Sky語音選項受到批評,該選項的聲音與斯嘉麗·約翰遜驚人地相似,而大衛·阿滕伯勒爵士則表示,對於一個與他真實語音無法區分的AI聲音克隆感到“深感不安”。
AI語音克隆詐騙是如何運作的
語音克隆詐騙的基本概念與傳統電話詐騙相似:網絡罪犯冒充他人以獲得受害者的信任,然後創造緊迫感,促使他們披露敏感信息或轉賬給詐騙者。
語音克隆詐騙的不同之處在於兩個方面。首先,犯罪分子可以通過代碼自動化該過程,讓他們能夠更快、更便宜地針對更多人。其次,他們能夠模仿不僅僅是權威和名人,還是你身邊的人。
只需一段音頻樣本,通常是從網上視頻中獲取,AI模型就可以分析並模擬該聲音,用於欺騙性互動。一種越來越常見的技術是,AI模型模仿家庭成員在緊急情況下請求金錢。
這項技術甚至可以模擬高知名度個體的聲音以操控受害者。最近,詐騙者使用了昆士蘭省省長史蒂文·邁爾斯的AI聲音克隆,試圖實施一項投資詐騙。
如何防範AI語音詐騙
根據數字貸款機構Starling Bank的數據,28%的英國成年人表示曾遭遇AI語音克隆詐騙,但僅有30%的人有信心能辨識這類詐騙。因此,Starling啟動了安全密語活動,鼓勵朋友和家人約定一個秘密短語,用來確認彼此的身份,這是一個明智的策略。
防範措施總結:
1. 與朋友和家人商定安全密語
2. 要求來電者確認一些最近的私人信息
3. 注意單詞上的不均勻重音或情感缺失的語調
4. 掛斷電話並重新撥打對方的號碼
5. 對不尋常的請求保持警惕,例如要求提供銀行詳細信息
即使沒有預先約定的安全密語,如果你對來電者的身份存有懷疑,也可以採用類似的策略。AI語音克隆能模仿一個人的說話方式,但未必能掌握私人信息。要求來電者確認一些只有他們知道的信息,例如你們最近一次對話中分享的內容,將使你更加確定。
信任你的耳朵。雖然AI語音克隆非常逼真,但並不100%準確。注意某些單詞的不均勻重音、缺乏情感的表達或含糊不清的語音等明顯跡象。
詐騙者可以隱藏他們撥打的電話號碼,甚至看起來像是從你朋友的號碼打來的。如果你有任何懷疑,最安全的方法就是掛斷電話,然後使用你平時的號碼重新撥打對方。
語音克隆詐騙還依賴與傳統電話詐騙相同的策略,這些策略旨在施加情感壓力,創造緊迫感,迫使你採取本不會採取的行動。對這些紅旗保持警惕,尤其是與金錢轉賬有關的不尋常請求。
對於聲稱來自你的銀行或其他權威機構的來電者,熟悉你銀行在聯繫你時所使用的程序是明智的。例如,Starling在其應用程序中設有通話狀態指示器,讓你隨時檢查銀行是否真的在打給你。
在這個科技迅速發展的時代,AI語音詐騙的威脅不容小覷。用戶需要提高警覺,學習如何辨別詐騙,保護自己的個人信息不受侵害。這也提醒我們,科技的進步既帶來便利,也伴隨著新的挑戰,社會各界應共同努力,提升對於新型詐騙手法的認知和防範能力。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。