AI教父警告:科技公司衝業績,忽略人工智能安全風險!

Ai




最新圖靈獎得主再次警告AI的危險

兩位開創性科學家今天獲得了今年的圖靈獎,他們利用這一榮譽來表達對於快速推出AI模型的潛在危險的擔憂。來自麻省大學的研究員安德魯·巴托(Andrew Barto)和前DeepMind研究科學家理查德·薩頓(Richard Sutton)警告說,AI公司在產品發布前並未進行充分測試,並將這種開發過程比喻為“建造一座橋並通過讓人們使用它來進行測試”,根據《金融時報》的報導。

圖靈獎,通常被稱為“計算機界的諾貝爾獎”,獎金為100萬美元,巴托和薩頓因開發“強化學習”——一種通過試錯訓練AI系統做出優化決策的機器學習方法而共同獲獎。谷歌高級副總裁傑夫·迪恩(Jeff Dean)形容這種技術為“AI進步的關鍵”,並且它一直是推動AI繁榮的“核心支柱”,使得像OpenAI的ChatGPT和谷歌的AlphaGo等突破性模型得以誕生。

巴托在接受《金融時報》訪問時表示:“把軟件在沒有安全保障的情況下釋放給數百萬人,這不是良好的工程實踐。”他指出,工程實踐已經演變為試圖減輕技術的負面影響,但他並未看到這種做法在開發AI的公司中被實施。

不安全的AI開發已受到“AI之父”之一的約書亞·本吉奧(Yoshua Bengio)和傑弗瑞·辛頓(Geoffrey Hinton)的批評,這兩位科學家也是前圖靈獎得主。2023年,一群頂尖的AI研究人員、工程師和首席執行官(包括OpenAI的首席執行官薩姆·奧特曼)發表了一份聲明,警告稱“減輕AI帶來的滅絕風險應該成為全球優先事項”。

巴托批評AI公司“受到商業動機的驅動”,而不是專注於推進AI研究。OpenAI曾多次承諾改善AI安全,並因“在了解後果之前過度商業化進步”而短暫解除奧特曼的職務,該公司在去年12月宣布計劃轉型為一家盈利公司。

這些警告再一次強調了在AI技術迅速發展的背景下,企業在安全與商業利益之間的抉擇。隨著AI技術的應用日益廣泛,如何在追求創新和保護用戶安全之間取得平衡,將成為未來科技發展的重要課題。這不僅僅是技術問題,更涉及倫理和社會責任,這也是我們在推動科技進步時必須面對的挑戰。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年

不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放

立即升級 🔗