AI-FRAID! 專家呼籲民眾學習「三字規則」以防身份被盜,並將AI視作街上的陌生人
你需要非常小心與像ChatGPT這樣的在線聊天機器人進行交流——一個簡單的規則可以保護你的安全。
不要因為一個常見的錯誤而冒著身份被盜或銀行賬戶被盜的風險。
AI驅動的聊天機器人如OpenAI的ChatGPT可以非常有用——但在與它們交流時不要洩露你的所有信息。根據安全專家Stuart Green的說法,使用人工智能聊天機器人需要謹慎。
AI機器人無處不在——甚至內置於WhatsApp和Facebook Messenger等應用程序中——所以知道該說什麼和不該說什麼是非常重要的。
「把ChatGPT和類似的AI工具當作你在街上遇到的陌生人來看待,」網絡安全專家Stuart Green警告說。
「你可能會覺得向他們問路或詢問下一班巴士什麼時候到達是可以的,但你不會分享個人詳細信息或你的家庭地址。」
三字規則
Stuart Green,Check Point Software的雲安全架構師,告訴我們,避免分享被稱為「PII」(個人識別信息)的東西是至關重要的。
「這包括你的全名、家庭地址、電子郵件地址、電話號碼或任何形式的身份證明,如護照詳細信息,」Stuart告訴我們。
「分享PII會增加身份盜竊、惡意曝光或未經授權訪問你個人賬戶的風險。」
當然,不應該發送給任何AI聊天機器人的信息不僅僅限於PII。
金錢事宜
也同樣重要的是避免透露財務信息。
聊天機器人具有類人特徵,且非常具有說服力,所以很容易被AI欺騙——尤其是那些由犯罪分子創建或被其掌控的AI。
「信用卡號碼、銀行賬戶詳細信息和密碼也應該保密,」Stuart告訴我們。
「在線分享財務數據會使你面臨欺詐、盜竊或詐騙的風險。」
「同樣重要的是不要分享你的登錄憑證,如用戶名、密碼或雙因素身份驗證代碼。」
「這樣做可能會導致賬戶被接管、數據被盜或未經授權的交易。」
不要害怕AI——但要謹慎!
《太陽報》的技術專家Sean Keach給出了建議:
AI可以成為你的朋友。一個值得信賴的同事。一個客服助理。事實上,它可以是幾乎任何東西。AI聊天機器人現在非常人性化且極具說服力。但更重要的是要記住,它們不是人。它們絕對不是你的朋友。它是模仿人類的代碼——所以你需要像對待一個完全陌生人的信息一樣對待它。不要透露個人信息——甚至不要透露你的全名。沒有人能保證你的信息完全安全,即使你使用的是大型且受信任的技術公司的工具。犯罪分子有很多方法可以破解你的聊天機器人信息——包括攻擊你的設備甚至AI應用程序本身。所以,使用聊天機器人來幫助你完成工作時要感到安全,但要謹記你不知道這些信息最終會去哪裡。我們仍然處於這個狂野AI旅程的早期階段,所以謹慎為上。記住:如果你打算發送一條信息給AI,問問自己是否願意將同樣的信息發送給一個完全陌生的人。如果答案是否定的,那就不要發送。
「同樣,敏感的健康或醫療數據應保持私密,包括你的醫療歷史、處方、診斷或心理健康信息。」
「如果這類數據被洩露,可能會導致隱私侵犯、歧視或被惡意行為者濫用。」
編者評論:
這篇文章提醒我們在使用AI聊天機器人時需要謹慎,特別是在涉及個人和財務信息時。隨著人工智能技術的進步,它們的應用範圍越來越廣,但這也意味著潛在的風險增加了。文章中提到的「三字規則」——PII(個人識別信息)——是一個很實用的概念,幫助我們在與AI互動時保持警覺。
但更深層次的問題是,我們如何在享受技術帶來的便利的同時,保護我們的隱私和安全?這需要我們不僅要了解技術的運作原理,還要有良好的數字素養和安全意識。AI的發展是不可避免的趨勢,但我們必須學會如何與它們共存,並且在使用它們時保持警惕。
此外,這篇文章也指出了一個重要的社會問題——我們對技術的過度依賴。隨著AI技術的普及,我們是否會變得過於依賴這些工具,而忽視了人類本身的能力和判斷力?這是一個值得深思的問題。
總之,這篇文章不僅提供了實用的安全建議,還引發了我們對技術與隱私之間平衡的思考。在享受技術帶來的便利的同時,我們也必須保持警惕,保護好自己的個人信息和隱私。
以上文章由特價GPT API KEY所翻譯