AI 先驅喬治·辛頓警告人類滅絕風險加劇
著名的英裔加拿大物理學家喬治·辛頓(Geoffrey Hinton),被譽為“人工智能之父”,在獲得2024年諾貝爾物理學獎後,發出有關人工智能潛在危險的嚴重警告。辛頓因其在機器學習算法和神經網絡方面的開創性工作而獲獎。他在接受《獨立報》訪問時表示:“對於人類的未來,我並不特別樂觀。”他描繪了一幅前景黯淡的畫面。
辛頓的擔憂主要集中在人工智能技術的快速發展上,他認為這些技術很快可能超越人類智慧,並脫離人類的控制。他解釋道:“我突然改變了對這些物體是否會比我們更聰明的看法。我認為它們今天已經非常接近我們,未來會更加聰明……我們該如何生存呢?”據《流行科學》報導,他還指出:“在未來三十年內,人工智能導致人類滅絕的概率為10%到20%。”他強調,這一風險因人工智能技術的快速發展而增加。
去年他離開谷歌,旨在自由表達自己的擔憂,辛頓強調需要政府的監管以及對人工智能安全的更多研究。他警告道:“僅僅依賴大型公司的利潤動機是不夠的,確保他們安全開發人工智能。”他指出,市場力量的依賴存在局限性,並補充說:“迫使這些大型公司進行更多安全研究的唯一方法是政府的監管。”
辛頓進一步表示:“我們將變得像三歲的小孩。”他將人類與人工智能之間的潛在控制關係比作成年人與小孩的關係,強調如果人工智能系統變得比人類更聰明,將出現的權力不平衡。“你環顧四周,很少有更聰明的東西被不那麼聰明的東西控制……這讓你懷疑,當這種人工智能變得比我們更聰明時,它是否會控制我們。”
儘管承認人工智能在醫療等領域的巨大好處,辛頓仍對其不受控制的發展感到不安。他警告道:“我們還必須擔心一些可能的負面後果,特別是這些技術失控的威脅。”他指出,人工智能技術增加了網絡和釣魚攻擊、假視頻和持續的政治干預的風險。
91歲的普林斯頓大學名譽教授約翰·霍普菲爾德(John Hopfield)也表達了對辛頓的擔憂。他表示:“作為一名物理學家,我對一種無法控制的東西感到非常擔心,這是我不夠了解的東西,無法確定在這項技術上可以施加什麼限制。”霍普菲爾德強調,科學家對現代人工智能系統的運作仍然了解得不夠。
辛頓指出:“我們很難理解如何防止惡意行為者利用它來達到負面目的。”他建議應該投入更多資源來研究人工智能的安全性。他強調:“安全研究的投資需要增加30倍。”他呼籲加強對人工智能開發的監管措施。
“我安慰自己,通常的藉口是:如果我不做,別人也會做。”他反思自己對人工智能的貢獻,這一點在《時代雜誌》中也有提及。
這篇文章由生成式人工智能公司Alchemiq合作撰寫。
—
這篇報導引發了對人工智能未來發展的深刻反思。辛頓作為人工智能領域的先驅,提出的警告不僅是對科技界的警示,也應引起公眾的廣泛關注。隨著人工智能技術的迅猛發展,我們需要重新思考科技的倫理和安全問題,確保未來的科技發展不會對人類社會造成不可逆轉的損害。政府在這方面的角色尤為重要,應加強對科技公司的監管,確保其研究和開發不僅追求經濟利益,也兼顧社會責任。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。