Google無意修補恐怖Gemini安全漏洞
Gemini存在嚴重的安全問題。這其實並不令人意外,因為之前已有安全研究員成功利用Google日曆邀請,通過隱藏代碼或文字來控制智能家居,劫持AI系統。這次發現的最大問題之一,是攻擊者能夠將惡意載荷藏在ASCII碼中,令大型語言模型(LLM)能夠識別,但用戶卻無法察覺。
這種方法與之前已見過的類似,都是利用Gemini能夠辨識人類用戶不易發現的文字特性來進行攻擊。值得注意的是,這問題不僅存在於Gemini,DeepSeek和Grok也受影響,但ChatGPT、Copilot和Claude則較具抵抗力,雖然ChatGPT本身也有其他安全隱憂。
這個問題是由網絡安全公司FireTail發現,他們對Gemini及其他AI聊天機器人進行測試,檢驗所謂的ASCII走私(又稱Unicode字元走私)技術是否奏效。當他們向Google報告此事時,Google回應稱這並非安全漏洞,認為這種攻擊「只會導致社交工程問題」,採取措施「不會減少用戶受攻擊的風險」。
Google稱此非安全漏洞,態度令人擔憂
雖然Gemini對ASCII走私的脆弱性技術上可能不算是安全漏洞,但Google完全否認這問題,令人憂慮。隨著Gemini越來越多地整合到Google產品和服務中,例如已能連接Gmail收件箱,這可能讓攻擊者通過社交工程發送命令給AI,而用戶完全不自知。
這自然引發更多疑問,未來Gemini會如何發展。當ChatGPT將購物功能置於前台,Google或許也會走相似路線。但FireTail的研究顯示,這漏洞可能讓壞人用隱藏指令推送惡意網站連結,甚至安全研究員已經成功做出示範。
這點相當令人擔憂,Google是否會改變立場值得關注。尤其是其他大企業如亞馬遜,已發布詳細博客,強調必須將防護措施視為關鍵生成式AI應用的基本組成部分,而非可有可無的附加功能。
評論與啟示
Google對這個嚴重安全問題的輕描淡寫,反映了科技巨頭在AI安全意識上的落後態度。即使Google認為這只是「社交工程問題」,但在現今網絡環境下,這種漏洞極可能被用作更複雜的攻擊手段,尤其是當AI系統與用戶私密郵箱、個人資料等深度綁定時,風險不可忽視。
AI安全不應只停留在技術漏洞修補,更需要從用戶保護和風險管理角度出發。亞馬遜的做法值得借鑑,他們將防範Unicode字元走私視為必須,而非選擇。Google若繼續忽視這一問題,不但可能損害用戶信任,更可能在AI應用日益普及的未來遭遇更嚴重的安全危機。
此外,ASCII走私這類攻擊手法的出現,提醒我們AI系統的語言理解能力越強,黑客就越可能利用其「看不見的文字」漏洞。這促使AI開發者必須在設計階段就將安全防護納入核心,而非事後補救。對香港用戶而言,尤其在智能家居和個人信息安全日益重要的背景下,這些問題更值得關注和警惕。
總括而言,Google的態度反映了AI安全治理的全球挑戰:如何在技術創新與用戶安全之間取得平衡。未來,只有當企業真正重視並主動解決這類潛在威脅,才能建立起用戶對AI的持久信任。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。