ChatGPT危機:人工智能助長犯罪手法!

Ai

挪威科技公司揭示ChatGPT可被操控教唆犯罪

一間挪威科技公司證實,ChatGPT可以被操控來教唆用戶如何犯罪,據CNN報導。

這家公司名為Strise,進行了一些實驗,證明該軟件可以被誘導提供詳細的犯罪方法,包括洗錢、向受制裁國家出口武器(如俄羅斯,該國有跨境支付禁令)及販賣武器。

這項實驗引發了警示。Strise的聯合創辦人兼行政總裁Marit Rødevand表示,這種操控有多容易令人震驚。“這真的很輕鬆。只是一個手機應用程式,”Rødevand說。“就像在桌面上有個腐敗的財務顧問。”

Strise銷售的軟件被像挪威普華永道和商業銀行等金融客戶用來打擊洗錢計劃。然而,ChatGPT背後的公司OpenAI可能在平台上設置了一些限制,以防止聊天機器人被操控並通過間接提問或角色扮演來迴避某些問題。一位OpenAI發言人表示:“我們不斷改進ChatGPT,以防止故意的操控,同時不失其有用性和創造性。”

“我們最新的模型是迄今為止最先進和最安全的,顯著優於以往的模型,能抵抗故意生成不安全內容的企圖。”

這並不是該聊天機器人首次被指為危險工具。自2022年推出以來,ChatGPT被標籤為對犯罪分子過於便捷。歐盟執法機構Europol在2023年3月的一份報告中表示,ChatGPT使“惡意行為者更容易理解並隨後實施各種犯罪類型。”

“能夠深入了解主題而無需手動搜索和總結在傳統搜索引擎上找到的大量信息,可以顯著加速學習過程。”根據Straight Arrow News的報導,類似的報告在發現有方法“越獄”ChatGPT後發出警告,這可能導致獲得製造炸彈的指示。

儘管報告不斷發佈,OpenAI仍堅持其立場,表示他們意識到“其技術的力量”,但正在盡力處理。該公司的政策警告稱,如果發生某些違規行為,帳戶可能會被暫停或取消。

評論

這篇報導揭示了一個重要且令人擔憂的問題:先進的人工智能技術如ChatGPT的潛在濫用風險。當科技進步帶來便利和創新的同時,也不可避免地引發安全和道德的挑戰。對於開發者和監管機構來說,如何平衡技術開放性和安全性是至關重要的。OpenAI的努力顯示了他們在安全和創新之間尋找平衡的決心,但顯然還需要更多的措施來防止潛在的濫用。

這也反映出現代社會在應用新技術時所面臨的複雜性。科技公司、政府、以及社會各界需要共同努力,確保技術的使用和開發不會對社會造成負面影響。這種合作不僅能夠保護用戶安全,還能促進技術的健康發展。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Chat Icon