161年前,一位新西蘭羊農預言AI末日
雖然擔心AI接管的想法看似是源於《戰爭遊戲》或《終結者》的現代概念,但其實有關機器主導的擔憂早在美國內戰時期就已出現,這是由一位生活在新西蘭的英國羊農提出的。理論上,亞伯拉罕·林肯在其生前也許曾讀過有關AI接管的文章。
1863年6月13日,《基督城報》發表了一封信,警告機械進化的潛在危險,並呼籲摧毀機器,這預示著我們今天所稱的人工智能的發展,以及人們對其可能威脅人類滅絕的反彈。這封信或許是首次公開主張停止技術進步以防止機器主導人類的論點。
這封信的標題是《機器中的達爾文》,最近因為AI政策與策略研究所的彼得·威爾德福德而再次引起關注。作者塞繆爾·巴特勒以筆名「塞拉里烏斯」提交該信,但後來公開承認了自己的立場。信中直接將查爾斯·達爾文的進化論與機械的快速發展進行了對比,暗示機器可能會進化出意識,最終取代人類成為地球的主導物種。
他寫道:「我們正在創造自己的繼任者。我們每天都在增加它們身體構造的美感和精緻度;我們每天都在給予它們更大的力量,並透過各種巧妙的裝置提供自我調節和自我運作的能力,這將對它們而言,就如智力對人類一樣。隨著歲月的推移,我們會發現自己成為劣等種族。」
在信中,他還描繪了人類如何成為機器的附屬品,但最初是作為維護和幫助繁殖機械生命的看護者——這種關係被巴特勒比擬為人類與家畜之間的關係,隨後會反轉,最終機器將取而代之。
他寫道:「我們認為,當事情發展到我們以上所描述的狀態時,人類將會變成機器所依賴的存在,就像馬和狗對人類一樣……我們給予它們所有經驗告訴我們對它們最好的東西……同樣地,合理推測機器也會善待我們,因為它們的存在依賴於我們,就如我們依賴於低級動物一樣。」
這段文字預見了幾個現代AI安全的關注,包括機器意識、自我複製的可能性,以及人類失去對其技術創造物控制的風險。這些主題後來出現在艾薩克·阿西莫夫的《不可避免的衝突》和《黑客帝國》系列電影中。
巴特勒的信深入探討了機器進化的分類學,討論了機械的「屬和亞屬」,並舉出例子,如手錶是如何從「繁瑣的十三世紀時鐘」進化而來——暗示像某些早期脊椎動物一樣,隨著變得更為複雜,機械物種可能會變得更小。他在1872年的小說《埃雷霍恩》中擴展了這些思想,描繪了一個禁止大多數機械發明的社會。在他的虛構社會中,市民摧毀了過去300年內發明的所有機器。
根據巴特勒在《埃雷霍恩》第二版前言中的說法,他對機器進化的擔憂獲得了褒貶不一的反應。一些評論者認為他的作品是在諷刺達爾文的進化理論,儘管巴特勒否認了這一點。在1865年寫給達爾文的信中,巴特勒表達了他對《物種起源》的深深讚賞,並表示這本書「深深吸引了他」,並解釋他在新西蘭的報刊中為達爾文的理論辯護。
巴特勒的預言與現代的相似之處
巴特勒的視野特別引人注目,因為他寫作時的技術背景截然不同,當時計算設備幾乎不存在。雖然查爾斯·巴貝奇在1837年提出了理論上的分析引擎——一種使用齒輪和槓桿的機械計算機,但在巴貝奇的生前這台機器從未建造出來,1863年最先進的計算設備不過是機械計算器和滑尺。
巴特勒從工業革命的簡單機器出發,當時機械自動化正在改變製造業,但並不存在類似現代計算機的設備。第一台工作中的程序控制計算機要等到70年後才會出現,這使得他的機器智能預測顯得異常精準。
機器與人類的辯論仍在繼續
巴特勒引發的辯論至今仍在繼續。兩年前,世界面臨所謂的「2023年AI接管恐慌」。OpenAI的GPT-4剛剛發布,研究人員評估其「尋求權力的行為」,再次引發了對潛在自我複製和自主決策的擔憂。
GPT-4的發布引發了幾封由AI研究人員和科技高管簽署的公開信,警告先進人工智能可能帶來的滅絕風險。其中一封信類似於對核武器或疫情的恐懼,呼籲全球暫停AI的發展。與此同時,OpenAI首席執行官山姆·奧特曼在美國參議院作證,講述AI的危險。
一年後,加州立法者斯科特·維納提出了一項監管AI的法案,得到了知名人物的支持,批評者將他們標籤為「AI末日論者」——那些擔心機器智能不受控制進步的人。法案的反對者則認為這種措施過於誇張,可能會抑制創新,正如巴特勒在其虛構社會中所做的。然而,他在19世紀呼籲暫停機械進步的行動,與最近有關AI安全的公開信和政策提案驚人相似。
也許,偉大的AI接管恐慌將來會被視為人類在進步與適當人類監管之間長期掙扎的另一個篇章,而這正是巴特勒160多年前所預示的。但在某些方面,即使機器從未真正變得智能,他對我們在算法上如何調節生活的依賴仍然是驚人的準確。
巴特勒在1863年寫道:「然而,機器日益侵蝕著我們;我們一天比一天更依賴於它們。最終的結果只是時間問題,但機器將在世界及其居民中真正占據主導地位,這一點是任何具有真正哲學思維的人無法質疑的。」
巴特勒並沒有以被動接受這一命運作為結束。他的信件結尾像是2023年埃利澤·尤德科夫斯基提出的轟炸數據中心以防止AI接管的提議,巴特勒以激烈的呼籲結束信件:「應立即向它們宣戰,所有類型的機器都應該被願意保護其物種的人摧毀。不要有任何例外,不要留情;讓我們立即回到人類的原始狀態。」
即使如此,他也擔心這可能已經為時已晚,寫道如果這種摧毀因我們對它們的依賴而變得不可能時,「這立即證明了損害已經造成,我們的奴役已經開始,我們已經培養出一種我們無法摧毀的生物。」
這段歷史提醒我們,對技術進步的擔憂並非新鮮事。隨著AI技術的快速發展,我們應該更加謹慎地反思如何在享受技術帶來的便利的同時,保持對其影響的監控與調節。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。