
AI數據安全風險隨著企業推動生成式AI採用而加劇
根據Fortanix的一項調查,87%的安全領導者在過去一年內報告發生數據泄露。隨著企業繼續推進生成式AI(GenAI)的應用,網絡安全風險也在不斷上升。Fortanix的《2025年生成式AI數據安全狀況報告》調查了1,000名高管,發現97%的公司計劃將GenAI整合到其業務中,無論是通過購買現有解決方案還是開發內部系統,旨在簡化流程並驅動收入增長。隨著AI的採用擴大,組織必須應對與保護敏感數據相關的新安全挑戰,這些數據分散在多個平台和環境中。
Fortanix的首席產品官Anuj Jaiswal表示:“數據清楚表明,儘管許多組織對圍繞這項技術的複雜數據安全問題尚未完全理解,但這些組織仍將推進GenAI的部署。”
報告指出,97%的企業對GenAI的使用施加了限制,而89%的高管認為這些控制措施是有效的。儘管如此,95%的專業人士仍在使用AI工具,這表明政策與實際使用之間存在差距。在這些專業人士中,有66%使用GenAI進行工作相關的任務,而64%則通過個人電子郵件帳戶訪問AI工具,繞過了公司安全控制。
這一趨勢引發了對無管制數據暴露的擔憂,因為敏感的商業信息可能會在未經保護的環境中被訪問或分享。報告指出,許多組織缺乏對員工如何與GenAI互動的監督,增加了未經授權訪問和合規違規的風險。超過一半的IT高管(53%)對影子AI使用表示擔憂,即員工在未經IT部門批准的情況下訪問未經授權的GenAI工具。
此外,41%的安全高管報告其組織已檢測到未經批准的AI應用在其網絡中使用,這進一步複雜了維護數據完整性和安全合規的努力。
加密策略滯後於AI擴展
儘管88%的公司已經為GenAI的部署分配了預算,但在某些情況下,安全仍然是次要考慮因素。雖然業務部門(LOB)、IT和安全高管將AI模型的準確性列為首要關注點,但只有IT高管將數據安全和隱私視為關鍵風險因素。
加密仍然是防止未經授權的數據訪問的關鍵保障,但Fortanix的報告表明,許多安全工具已過時,不足以應對AI驅動的環境。62%的安全領導者表示,他們目前的加密策略未針對保護AI生成的數據進行優化。此外,58%的組織在雲端、本地和混合環境中執行一致的加密政策方面面臨困難。
隨著AI系統生成和處理越來越多的專有和客戶數據,確保在所有接觸點之間的端到端加密成為一個日益嚴峻的挑戰。報告強調,針對結構化數據設計的標準加密模型可能無法滿足與GenAI相關的非結構化和不斷演變的數據集的需求。
報告指出,74%的高管感受到實施GenAI的壓力,這種壓力來自董事會指令、市場競爭需求和領導期望。對於82%的業務部門高管和81%的IT高管而言,這種緊迫感最高,而56%的安全高管則因潛在的網絡安全威脅而保持更謹慎的態度。
在那些投資於GenAI的公司中,47%將競爭優勢視為其主要採用原因,而39%則認為AI驅動的效率是最重要的推動力。然而,只有21%的安全高管認為他們的組織已經充分準備好應對AI特有的安全風險。
這份報告顯示,儘管企業在推進GenAI的過程中面臨著重重挑戰,但許多企業仍急於追求技術創新。這種現象在短期內可能導致安全措施的忽視,最終可能會引發更大範圍的數據安全事件。企業必須在推動創新與保障安全之間找到平衡,否則將面臨潛在的法律和財務風險。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。