Google拒修Gemini致命安全漏洞風險大增

Ai




Google無意修補恐怖Gemini安全漏洞

Gemini存在嚴重的安全問題。這其實並不令人意外,因為之前已有安全研究員成功利用Google日曆邀請,通過隱藏代碼或文字來控制智能家居,劫持AI系統。這次發現的最大問題之一,是攻擊者能夠將惡意載荷藏在ASCII碼中,令大型語言模型(LLM)能夠識別,但用戶卻無法察覺。

這種方法與之前已見過的類似,都是利用Gemini能夠辨識人類用戶不易發現的文字特性來進行攻擊。值得注意的是,這問題不僅存在於Gemini,DeepSeek和Grok也受影響,但ChatGPT、Copilot和Claude則較具抵抗力,雖然ChatGPT本身也有其他安全隱憂。

這個問題是由網絡安全公司FireTail發現,他們對Gemini及其他AI聊天機器人進行測試,檢驗所謂的ASCII走私(又稱Unicode字元走私)技術是否奏效。當他們向Google報告此事時,Google回應稱這並非安全漏洞,認為這種攻擊「只會導致社交工程問題」,採取措施「不會減少用戶受攻擊的風險」。

Google稱此非安全漏洞,態度令人擔憂

雖然Gemini對ASCII走私的脆弱性技術上可能不算是安全漏洞,但Google完全否認這問題,令人憂慮。隨著Gemini越來越多地整合到Google產品和服務中,例如已能連接Gmail收件箱,這可能讓攻擊者通過社交工程發送命令給AI,而用戶完全不自知。

這自然引發更多疑問,未來Gemini會如何發展。當ChatGPT將購物功能置於前台,Google或許也會走相似路線。但FireTail的研究顯示,這漏洞可能讓壞人用隱藏指令推送惡意網站連結,甚至安全研究員已經成功做出示範。

這點相當令人擔憂,Google是否會改變立場值得關注。尤其是其他大企業如亞馬遜,已發布詳細博客,強調必須將防護措施視為關鍵生成式AI應用的基本組成部分,而非可有可無的附加功能。

評論與啟示

Google對這個嚴重安全問題的輕描淡寫,反映了科技巨頭在AI安全意識上的落後態度。即使Google認為這只是「社交工程問題」,但在現今網絡環境下,這種漏洞極可能被用作更複雜的攻擊手段,尤其是當AI系統與用戶私密郵箱、個人資料等深度綁定時,風險不可忽視。

AI安全不應只停留在技術漏洞修補,更需要從用戶保護和風險管理角度出發。亞馬遜的做法值得借鑑,他們將防範Unicode字元走私視為必須,而非選擇。Google若繼續忽視這一問題,不但可能損害用戶信任,更可能在AI應用日益普及的未來遭遇更嚴重的安全危機。

此外,ASCII走私這類攻擊手法的出現,提醒我們AI系統的語言理解能力越強,黑客就越可能利用其「看不見的文字」漏洞。這促使AI開發者必須在設計階段就將安全防護納入核心,而非事後補救。對香港用戶而言,尤其在智能家居和個人信息安全日益重要的背景下,這些問題更值得關注和警惕。

總括而言,Google的態度反映了AI安全治理的全球挑戰:如何在技術創新與用戶安全之間取得平衡。未來,只有當企業真正重視並主動解決這類潛在威脅,才能建立起用戶對AI的持久信任。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

✨🎱 Instagram留言 →

AI即回覆下期六合彩預測

🧠 AI 根據統計數據即時生成分析

💬 只要留言,AI就會即刻覆你心水組合

🎁 完!全!免!費!快啲嚟玩!

IG 貼文示意圖 AI 即時回覆示意圖

下期頭獎號碼

📲 去 Instagram 即刻留言

📣 即刻用 Google Workspace|唔使vpn都能享用 Google AI Pro

即使你只係一個人,都可以透過 Google Workspace 使用 官方Gemini AI Pro(原價 HK$160), 而在 Google Workspace 只要 HK$131 / 月

🔓 14 天免費試用
🔖 用呢條連結申請再有 額外 9 折
🇭🇰 香港可直接付款(香港信用卡)
🛡️ 不用 VPN,立即開用
🤖 可用 最新最紅Gemini 3 Pro & Nano Banana Pro
👉 立即登記 14 天免費試用 + 額外 9 折