
OpenAI揭露中國監控工具的證據
OpenAI於週五表示,他們發現了一個中國安全行動建立的人工智能驅動的監控工具,該工具用於即時收集西方國家社交媒體上反中國的帖子報告。
該公司的研究人員表示,他們識別了這個新行動,稱之為「同行評審」,因為在開發這個工具的過程中,有人使用了OpenAI的技術來調試一些底層的計算機代碼。
OpenAI的首席研究員Ben Nimmo表示,這是該公司首次發現這種類型的AI監控工具。他指出:「威脅行為者有時會因為他們使用我們的AI模型而讓我們窺見他們在互聯網其他地方的行為。」
對於人工智能可能被用於監控、計算機黑客、虛假信息活動及其他惡意用途的擔憂日益增加。儘管像Nimmo這樣的研究人員認為這項技術的確可以促進這些活動,但他們也補充道,人工智能同樣可以幫助識別並制止這類行為。
Nimmo及其團隊認為,中國的監控工具基於Meta開發的Llama人工智能技術,該技術是開源的,這意味著它與全球的軟件開發者分享了其工作。
在一份關於人工智能用於惡意和欺騙性目的的詳細報告中,OpenAI還表示他們發現了一個名為「贊助不滿」的中國行動,該行動使用OpenAI的技術生成批評中國持不同政見者的英語帖子。
OpenAI表示,同一組別還利用公司的技術將文章翻譯成西班牙語,然後在拉丁美洲分發,這些文章批評美國社會和政治。
另外,OpenAI的研究人員識別了一個被認為位於柬埔寨的行動,該行動使用公司的技術生成和翻譯社交媒體評論,幫助推動一種名為「豬肉屠宰」的詐騙行為。這些人工智能生成的評論被用來吸引互聯網上的男性,並將他們捲入一個投資計劃中。
(《紐約時報》已起訴OpenAI和微軟侵犯與人工智能系統相關的新聞內容版權,OpenAI和微軟則否認這些指控。)
—
這篇報導揭示了人工智能技術在全球範圍內的潛在滲透和應用,特別是在監控和操控輿論方面的風險。隨著技術的發展,這類工具的出現似乎不再是科幻小說中的情節,而是當前現實的一部分。這不僅挑戰了我們對於隱私和自由的看法,也引發了對科技公司在道德責任上的討論。
值得注意的是,OpenAI本身的技術也因此被利用於不當用途,這讓人不禁思考,如何在促進技術創新的同時,確保其不被濫用。當前的情況強調了對於技術透明度和負責任使用的需求,尤其是在涉及社會正義和人權的議題上。未來,我們需要更加謹慎地考慮這些工具的開發和應用,並制定相應的法律和倫理框架,以保障公共利益。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。