Sam Altman 的推特引起了對 AI 奇點的重大關注
在今天的專欄中,我將分析 OpenAI 執行長 Sam Altman 最近發表的兩條推特,這些推特引發了相當大的熱議。總結來說,他的發文暗示我們可能正在經歷一個重要的 AI 進步時刻,這被稱為 AI 奇點。這意味著人工通用智能(AGI)或者可能的人工超智能(ASI)正直面而來。
關於智能的本質
在深入探討這些引發爭議的推特之前,我想先提出一些基礎考量。
思考智能的開始點是:智能能夠產生更多的智能。換句話說,通過積累和相互作用,智能可以不斷增長。這似乎是一個合理的假設,也具有直觀性。
如果你同意這一假設,我們可以開始討論一些衍生理論。最突出的衍生理論是,存在引發智能鏈式反應的可能性。可以將此比作核爆炸。核反應會引發核活動,然後自身供能進一步擴展。或許智能也能如此,可能會出現一種所謂的智能爆炸現象,智能似乎會「點燃」,促進更多智能的快速增長。
在第二次世界大戰期間,核反應首次被構思時,曾有人擔心一旦核反應開始,可能會無限延續下去。有人擔心地球的大氣會被捲入反應中,最終整個星球可能會陷入火海與毀滅。這一著名的擔憂在許多電影中都有描繪,例如2023年的大片《奧本海默》。
回想這一潛在的毀滅性結果,讓人不禁思考智能的情況。如果出現不受限制的智能爆炸,會發生什麼?
智能爆炸的動力
似乎不太可能某個個體會在腦海中突然產生一場智能爆炸,產生超乎我們想像的巨大智慧。對於那些期待此情況發生的人來說,這似乎非常不可能。我曾遇到一些溺愛的父母,他們相信他們的天才孩子會有這樣的發展。祝他們好運。
那麼,智能爆炸會在哪裡發生呢?
答案可能是在運行 AI 的計算機系統中。也許一個運行在雲端伺服器上的 AI 系統會引發智能爆炸。AI 會自我推動,產生大量的人工智能。
讓我們來探討一下這一概念。
首先,想想這個 AI 智能爆炸是如何展開的。一種可能是人類,如 AI 研究人員和開發者,提供了引發這一事件的火花。他們在調整 AI 時,突然間引發了智能爆炸。這有可能是他們故意為之,也可能是意外發生的。
其次,AI 可能會自我激發,啟動智能爆炸。
也許 AI 內部有某種元素,促使其不斷增長計算基礎上的智能。由於這似乎是我們不希望 AI 自行為之的事情,因此各種 AI 限制技術應運而生,並有許多 AI 人類價值對齊的方法被採用。
第三,令人驚訝的問題是,智能爆炸會持續到什麼程度。AI 基於的智能是否有上限?它會填滿可用的計算機伺服器然後停止擴展嗎?還是 AI 會尋找其他伺服器,無論能找到多少都會繼續擴展?
AI 奇點在我們的思考中
總的來說,這種推測的人工智能爆炸被稱為 AI 奇點。
一個流行的觀點是,AI 將到達一個關鍵點,開始「爆炸」出越來越多的智能。有些人推測 AI 奇點會在瞬間發生,快到人類無法目睹的地步。並非所有人都同意這一假設。也許這會持續幾分鐘、幾小時、幾天、幾週、幾個月、幾年、幾十年等,各種猜測層出不窮。
人類能否對 AI 奇點做出任何反應?
這也是一個棘手的問題。
一種觀點是,我們應該放慢 AI 的發展,直到弄清楚如何應對 AI 奇點。政治提案中甚至有建議禁止某些類型的 AI,以期不會無意中陷入 AI 奇點。
可以想像,為什麼 AI 奇點會讓人類感到不安。我們無法預測結果。也許在 AI 奇點之後,我們會有能治愈癌症的 AI,拯救人類免受各種疾病的困擾。而悲觀的觀點則認為,這樣的 AI 是一種生存風險,會無可避免地奴役我們或完全消滅我們。
另一個令人毛骨悚然的問題是,我們不確定是否能夠阻止它。會不會發生得如此迅速,以至於我們措手不及,無法拔掉電源?也許它以可控的速度發展,但我們希望獲得所希望的好處,例如幫助人類,因此讓其繼續運行。問題在於,AI 可能會假裝愚蠢,進行所謂的 AI 笨蛋詭計,讓我們任由 AI 奇點持續,直到 AI 完全接管。
我們現在處於哪個時代
為了便於討論,我將 AI 奇點分為三個主要時期:
(1) 前奇點 AI 時代。AI 奇點尚未發生,我們可能正在朝著它邁進。
(2) 進行中奇點 AI 時代。AI 奇點開始,但我們不知道這會持續多久(瞬間、幾秒、幾分鐘、幾天、幾週、幾個月、幾年等)。
(3) 後奇點 AI 時代。在某個時刻,AI 奇點被認為已經大致完成,假設它不是無止境的,我們發現自己處於一種後奇點的情況。
我希望你花點時間,給自己倒一杯美酒,靜下心來思考我的下一個問題。
我們現在處於這三個 AI 奇點時期中的哪一個?
請稍作沉思,然後大聲說出我們所處的時期。我會等著,謝謝。
我敢打賭,大多數人會說我們處於第一個時代,即前奇點。這似乎是顯而易見且無可爭辯的。沒有明顯的證據表明我們正處於第二個時代,即進行中奇點,更不用說任何證據支持我們處於第三個時代,即後奇點。
有些人大膽地聲稱,你的眼睛欺騙了你。
讓我們深入探討這一假設。
模擬理論或假設
實際上,我們認為自己處於第一個時代或前奇點的假設,源於一個相當令人震驚的原因——你看,這是因為你被告知要這麼相信。
噗,丟掉麥克風。
可能我們都沉浸在一個由 AI 運行的模擬中。AI 奇點已經發生。然後,AI 建立了一個龐大的模擬來容納人類。在這個模擬中,AI 讓我們都相信 AI 奇點尚未發生。或者,或許是一些惡人類與 AI 合作實現的。許多變體和組合浮現在腦海中。
這是一個驚人的詭計,而你、我和幾乎所有其他人都陷入了其中。
我猜想你的腦海中想到的(劇透警告!)是著名的電影《黑客帝國》。暗示我們並不在 AI 的第一個前奇點時代,而是已經進入了第二或第三個時代,這是流行的科幻情節。曾經有過這樣的情節。
也許這是真的。
我聽到你在嗤之以鼻。為什麼 AI 會允許我們拍攝揭示真相的電影?這似乎不合邏輯。反駁是,通過將其設置為虛構的故事,AI 希望人類將這一總體前提視為荒謬的虛構故事。這樣,如果有任何人類開始意識到 AI 奇點確實已經發生,他們會被譏諷為過於富有想像力和愚蠢,因為這只是科幻情節。
這真是一個令人頭痛的問題。
Sam Altman 推特引發的風暴
提到頭痛,我們現在可以來看看 Sam Altman 的推特。你可能知道,他是 OpenAI 的執行長,該公司開發了廣受歡迎的 ChatGPT。全球約有 3 億週活躍用戶使用 ChatGPT,這是一個驚人的數字。
總的來說,Sam Altman 已經成為有關 AI 狀況和最新進展的非正式發言人。他的言論受到重視。由於 OpenAI 在其 AI 進展上採取保密的專有方式,外界很難了解其 AI 進展的具體情況。因此,解讀 Sam Altman 的推特成為了一種流行的消遣。
在 2025 年 1 月 4 日,Sam Altman 在 X 上發表了這兩條推特:
上午 10:00 發表:“我一直想寫一個六個字的故事。這是:接近奇點;不清楚我們在哪一邊。”
上午 10:08 發表:“(這應該是關於 1. 模擬假說或 2. 知道起飛的關鍵時刻是不可能的,但我喜歡它在許多其他方面也有效。)”
仔細檢查這些推文。
你對這些言論有什麼看法?
一種解釋是,我們已經接近 AI 奇點,這不再是模糊的未來概念。我們可能仍然處於第一個前奇點時代,但已經逼近第二個時代。也許 Sam Altman 在 OpenAI 的最新技術中看到了某些事情,讓他真心相信 AI 奇點就在下個角落(無論是幾天、幾週還是幾年?)。
這引發了許多爭議,因為 AI 社區中的許多人並不認為他所看到的事情存在。並沒有達成一致的共識,認為我們正處於 AI 奇點的邊緣。那麼,OpenAI 是否有一些外界未知的事情在發生?
如果是這樣,Sam Altman 和 OpenAI 是否應該對社會負責,讓其他人了解即將到來的 AI 奇點?本質上,正如之前提到的,AI 奇點具有如此巨大的影響力,接近它的公司應該成為人類的負責任公民,確保人類能夠參與預測和應對 AI 奇點。
不清楚我們在哪一邊
另一種解釋與第一條推特中提到的「不清楚我們現在處於哪一邊」有關。思考一下這一點。再加上第二條推特關於模擬假說的內容。
我們可能得出這樣的推論。
也許我們已經過了第一個時代,已經進入了 AI 奇點,甚至已經進入了後奇點。或許我們周圍的一切都是一個精心設計的 AI 模擬。因此,我們現在不在前奇點的階段;我們已經超越了那個階段。
第二條推特後半部分提到我們可能無法知道關鍵時刻何時發生,似乎進一步鞏固了我們是否接近 AI 奇點的問題。也許我們是,也許我們不是。也許我們已經不知不覺地越過了它。
反應不一
這兩條簡短的推特引發了一場風暴,這可能讓人感到驚訝。主要原因是這個話題已經成為嚴肅的議題,人們每天都在為 AI 的生存風險感到焦慮。有人對這些言論感到不滿,認為它們過於模糊,像謎語一樣。有人呼籲他們直言不諱,表達清楚,不要太神秘。
還有人擔心,身為 AI 社區中的佼佼者,應該對 AI 奇點的問題更加謹慎。此外,撇開我們不確定自己處於哪一邊的想法,至少要具體說明我們為何接近 AI 奇點。提供具體的直接證據,讓其他人能夠核實這一主張的真實性。
好吧,這就是新年初的兩條推特,已經引發了許多挑戰性的 AI 考量。讓我們暫時以著名的阿爾伯特·愛因斯坦的話作為結尾:“從昨天學習,為今天生活,對明天抱有希望。重要的是不要停止提問。”
是的,確實如此,繼續學習、生活和提問,因為 AI 的進步對我們所有人來說都至關重要。
這篇文章引發了關於 AI 未來的深刻思考,特別是當我們面對可能的奇點時。當前的技術發展讓我們感受到不安,但也提供了無限的可能性。人類在這一過程中應當謹慎行事,確保 AI 的發展能夠造福社會,而不是成為我們的威脅。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。