**人工智能先驅榮獲諾貝爾獎後辭職警告AI威脅**
兩位今年榮獲諾貝爾物理學獎的得主都是人工智能領域的先驅,其中一位更被譽為「AI教父」。
據路透社報道,美國物理學家約翰·霍普菲爾德和AI專家傑弗里·辛頓本週獲得了這項備受矚目的獎項。辛頓的研究在2012年奠定了現今神經網絡的基礎,但在2023年,他辭去了在Google的職務,加入批評AI技術的行列。
去年,辛頓在接受《紐約時報》專訪時提到,他過去曾認為Google是強大技術的「合適管理者」。但自從微軟與OpenAI合作,將後者的GPT-4大型語言模型(LLM)推向大眾後,他的看法改變了。
這位76歲的計算機科學家表示,儘管當時他不認為AI已達到頂峰,但他在微軟與OpenAI的合作中看到了未來的趨勢。「大多數人認為這還很遙遠,而我也曾這麼認為。」辛頓當時告訴報社,「我認為還需要30到50年,甚至更長的時間。」
「顯然,」他繼續說,「我現在不再這麼想。」
在離開Google並加入如Elon Musk等名人簽署暫停AI開發的公開信之前,辛頓曾在CBS新聞上警告,世界已到達技術的「關鍵時刻」。
「我認為現在人們擔心這些問題是非常合理的。」他當時告訴CBS,「即便這不會在一兩年內發生。」
現在作為多倫多大學的名譽教授,辛頓在離開Google後的18個月裡已多次明確表示,他認為AI可能隨時會失去人類控制,一旦發生,後果不堪設想。
「我們正在處理一些我們對其未來走向和應對措施知之甚少的事情。」這位計算機科學家在與諾貝爾委員會的對話中表示。「我希望有一個簡單的解方,但我沒有。」
被認為是AI技術的「末日論者」,辛頓在與諾貝爾委員會的交談中表示,他對獲獎感到非常驚訝,甚至不知道自己被提名。「希望這能讓我更具信譽,」他談到獲得諾貝爾獎時說,「當我說這些事情時,人們會相信我。」
**編者評論:**
辛頓的警告不僅僅是對技術發展的擔憂,更是對人類倫理和科技管理的深刻反思。他的辭職和言論強調了一個關鍵問題:當技術進步速度超過我們的理解和控制能力時,我們應如何應對?在這個科技迅速發展的時代,辛頓的聲音提醒我們不能僅僅追求效率和創新,而忽視了長遠的影響和潛在的風險。這不僅是技術界的挑戰,也是整個社會需要共同面對的議題。
以上文章由特價GPT API KEY所翻譯