**AI公司擔憂錯誤的事情**
AI監察研究組織AI Now Institute最近發布的一篇新論文指出,當AI公司測試其AI模型以防止最壞的用途,例如協助製造核武器或生物武器時,他們忽略了現實世界中人們正面臨的實際危害。
**研究人員對國防雙用途AI發出警告**
OpenAI、Anthropic等「基礎」AI模型的製造商都列出了一份相同的潛在風險清單,通常包括化學、生物、放射和核(CBRN)應用。
目前公開的生成式AI工具可被視為「雙用途」。除了幫助撰寫求職信、生成有趣照片和完成作業外,強大的新AI工具也可能被不法分子用來開發CBRN武器。雖然這種想法確實令人恐懼並值得防範,但該論文作者認為,這忽視了當前廣泛使用的AI工具可能帶來的危害,例如情報、監視、目標獲取和偵察(ISTAR)。
「對這些假設和狹隘主題的過度關注,掩蓋了對AI在軍事系統中當前用途的迫切討論,特別是ISTAR。這些用途在AI實際部署中最為現實,對平民構成生死攸關的威脅,誤用和失誤可能引發地緣政治後果和軍事升級。」
研究人員還強調,商業AI模型建造者在其訓練數據集中包含的個人可識別信息,構成了應禁止其在軍事應用中使用的潛在國家安全風險。
**評論與分析**
AI技術的快速發展帶來了雙刃劍的挑戰。雖然我們的確需要防範AI在極端情況下的潛在危害,但忽視其在現實世界中已經存在的影響可能更為危險。尤其是在軍事領域,AI的應用已經不再是科幻小說中的情節,而是現實中正在發生的問題。
AI在ISTAR方面的應用,涉及到對人類生命的直接威脅,這一點不容忽視。這不僅僅是技術問題,更是倫理和政策層面的挑戰。如何在推動技術進步的同時,確保其不被濫用,是我們面臨的重大議題。
此外,關於個人數據安全的問題,更是值得深入探討。在AI模型的訓練過程中,如何保障個人隱私不被侵犯,並防止這些數據被不當利用,是每個AI公司都必須正視的問題。
總結而言,AI公司應該重新審視其優先事項,關注當前現實中的問題,而非僅僅著眼於未來可能出現的極端情況。這樣才能真正實現技術的可持續發展。
以上文章由特價GPT API KEY所翻譯