重要! 個個AI模型都話可以處理長文和大量數據? Deepseek只係中游,Grok3 GPT4.1都要輸俾佢?

ChatGPT咪亂咁講嘢!5樣嘢千祈咪鬼洩漏畀AI呀!

Ai

創新

企業科技

Chat-GPT的危險:五件你絕對不應告訴AI機械人的事
作者:Bernard Marr

隨著AI機械人ChatGPT已經成為我們生活的一部分,每天處理超過十億個問題,但專家現在警告我們,這是一個……更多
ADOBE STOCK
ChatGPT改變了我們的工作和日常生活方式。根據最近的統計,超過一億人每天使用它來處理超過十億的查詢。

然而,這個全球範圍內的LLM聊天機械人被形容為“隱私黑洞”,因為人們擔心它如何處理用戶輸入的數據,這甚至導致它在意大利短暫被禁用。

其創造者OpenAI並不隱瞞任何輸入的數據可能不安全的事實。除了用於進一步訓練其模型,這可能導致其輸出被其他人看到之外,數據還可能被人工審查以檢查是否符合使用規則。當然,任何發送到雲服務的數據,其安全性僅取決於提供者的安全措施。

這一切的意思是,任何輸入到系統中的數據都應被視為公開信息。考慮到這一點,有幾件事情絕對不應該告訴它——或任何其他公共雲基礎的聊天機械人。我們來看看其中一些:

非法或不道德的請求

大多數AI聊天機械人都有防範措施,以防止它們被用於不道德的目的。如果你的問題或請求涉及可能違法的活動,你可能會陷入麻煩。明確不應向公共聊天機械人提問的例子包括如何犯罪、進行欺詐活動或操縱他人採取可能有害的行動。

許多使用政策明確指出,非法請求或尋求利用AI進行非法活動可能導致用戶被報告給當局。這些法律在不同地區可能有很大差異。例如,中國的AI法律禁止利用AI破壞國家權威或社會穩定,而歐盟的AI法案則規定,“深偽”圖像或視頻必須清晰標示。英國的在線安全法則將在未經同意的情況下分享AI生成的露骨圖像視為犯罪行為。

輸入非法材料或可能傷害他人的信息不僅道德上錯誤;還可能導致嚴重的法律後果和聲譽損害。

登錄信息和密碼

隨著代理AI的興起,越來越多的人將使用能夠連接和使用第三方服務的AI。為了這樣做,它們可能需要我們的登錄憑證;然而,提供這些憑證可能是一個壞主意。一旦數據進入公共聊天機械人,就幾乎沒有控制權來管理其後續情況,曾經有用戶輸入的個人數據在回應中被其他用戶暴露。顯然,這可能會造成隱私噩夢,因此在沒有完全確信使用非常安全的系統時,最好避免與AI進行任何涉及提供用戶名和賬戶的互動。

金融信息

出於類似的原因,將銀行賬戶或信用卡號等數據輸入生成AI聊天機器人可能不是一個好主意。這些信息應僅在用於電子商務或網上銀行的安全系統中輸入,這些系統具有內置的安全保護,如加密和數據處理後的自動刪除。聊天機器人並沒有這些安全措施。實際上,一旦數據進入,就無法知道會發生什麼,輸入這些高度敏感的信息可能會使你暴露於欺詐、身份盜竊、網絡釣魚和勒索攻擊的風險中。

機密信息

每個人都有責任保護自己負責的敏感信息。許多這些責任是自動的,例如專業人員(例如醫生、律師和會計師)與客戶之間的保密義務。但許多員工對他們的雇主也有隱含的保密責任。分享商業文件,例如會議記錄或交易記錄,可能會構成分享商業秘密和違反保密義務的行為,例如在2023年涉及三星員工的案例。因此,無論將所有信息放入ChatGPT以查看其能挖掘出什麼樣的見解多麼有吸引力,這都不是一個好主意,除非你完全確信信息是安全的。

醫療信息

我們都知道,詢問ChatGPT幫你診斷醫療問題是多麼誘人。但這應該始終謹慎行事,尤其是考慮到最近的更新使其能夠“記住”並從不同的聊天中彙總信息,以幫助它更好地理解用戶。這些功能都沒有隱私保證,因此最好意識到我們對輸入的任何信息幾乎沒有控制權。當然,這對於處理病人信息的健康相關企業來說更是如此,這些企業面臨巨額罰款和聲譽損害的風險。

總結

與我們上傳到互聯網的任何內容一樣,最好假設沒有任何保證它會永遠保持私密。因此,最好不要披露任何你不願意讓全世界知道的事情。隨著聊天機器人和AI代理在我們生活中扮演越來越重要的角色,這將成為一個更迫切的問題,教育用戶風險將成為提供此類服務的任何人的重要責任。然而,我們也應該記住,我們對保護自己的數據和理解如何保持安全有個人責任。

在當前的數位時代,隱私問題愈發引人注目。隨著AI技術的進步,無論是個人還是企業,都需要對數據安全保持警惕。用戶在使用這些技術時,必須充分認識到可能的風險,並採取必要的措施來保護自己的信息。這不僅是對自身安全的負責,也是對其他用戶的尊重。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon