AI與人類:未來的機遇與挑戰

Ai

人工智能:我們身邊的算法

三本書探索人工智能的承諾與危險。

當一首令人愉快的流行歌曲播放時,一個巨大的壓縮機慢慢地壓碎一座由各種材料建成的積木塔。油漆罐爆裂,棋子倒下,相機鏡頭破碎,鬧鐘尖叫然後沉默。吉他頸折斷,甚至一個玩具表情符號也未能倖免,其眼睛在塑膠插座中彈出,然後機械下巴發出震耳欲聾的聲響。然而,音樂又重新響起,下巴打開,露出一個iPad。

觀看蘋果現在臭名昭著的「Crush!」廣告,很難不對數位化改造人類生活的方式感到不安。當然,我們樂於讓電腦接管我們不想做或不擅長的任務,比如購物或導航。但是,當我們珍視並認為是獨特的事物——我們的友誼、藝術,甚至我們的語言和創造力——可以被簡化為軟件時,這意味著什麼?

《堆棧中的惡魔:代碼奧德賽》

安德魯·史密斯在他的新書《堆棧中的惡魔》中面對著「計算機代碼正以無可挑戰並加速的速度滲透到我們生活的每個領域」這一事實。作為一位報導亞馬遜和比特幣等現象崛起的科技記者,他對其背後「令人困惑的外星邏輯」產生了好奇。因此,像厄普頓·辛克萊在《叢林》中那樣,他決定親自學習編程。

這證明並非易事。當史密斯發現有超過1700種編程語言可供選擇時,僅僅決定從哪一種開始就變得令人生畏,每一種都有其特點和缺陷。有時,他對編程細節的探索——函數、數據結構、賦值運算符、條件語句和循環——讀起來如同他自己掙扎於其中一樣痛苦。但他對編程歷史、哲學和機制的深入報導值得堅持下去,並描繪了一幅對大多數人來說鮮有洞察的技術的迷人且最終令人不安的畫像。

史密斯解釋說,經典計算依賴於抽象層——程序員稱之為「堆棧」。底層是機器代碼,由芯片上的電子開關執行的1和0的模式。頂層是高級語言如Python、JavaScript和Perl,這些語言最容易被人類解釋,但需要更多的機器工作來轉換為微處理器可以執行的指令。每一層「允許我們停止思考其下層,並簡單地將其功能視為理所當然」,史密斯寫道。

在他看來,編程是一個用理解換取便利的魔鬼交易。這種妥協使代碼既強大又潛在危險,因為它隱藏了複雜性,使我們與編碼者旨在表示的混亂的模擬過程疏遠。「計算中的抽象」,史密斯認為,「拉長了源與信號、輸入與輸出的概念距離,隱藏了連接和因果鏈條。」如果你想在視頻遊戲中模擬森林或建模新藥,這可能沒什麼大不了。但當被表示的對象是人類——關係、市場、戰爭——抽象「滋養了一種危險的同情心貧乏」。想想社交媒體的巨魔和殺人無人機。

共智:與AI共生共事

賓夕法尼亞大學沃頓商學院教授伊桑·莫里克在《共智》中對AI持更樂觀的看法。莫里克教授創新,研究與新技術合作的影響。他經常實驗AI聊天機器人——甚至用它們來編寫和編輯書的部分內容——並讓他的學生使用它們來生成商業想法並練習向風險投資家推銷。在發表的研究中,他和其他人報告說,使用AI從事知識工作的人的速度更快、創造力更強,並且比僅依靠自己頭腦的人寫作和解決問題能力更強。

這使莫里克成為人類與AI協作的傳道者。在《共智》中,他想像了一個不久的將來,AI成為我們的伴侶、創意夥伴、同事、導師和教練。他預測AI將提升我們的認知,幫助我們在工作中茁壯成長,並以「最終增強學習和減少繁瑣工作的方式」改變教育。

儘管有崇高的預測,這本書仍然是導航AI的有用指南,包括理解其缺點。任何玩過ChatGPT或類似產品的人都知道這些模型經常編造東西。即便在未來其準確性提高,莫里克警告說,這不應讓我們減少警惕。隨著AI變得更有能力,我們更可能信任它,因此更難發現其錯誤。

AI的風險不僅在於我們可能會犯錯;我們可能會失去批判性和原創思考的能力。

在一項對管理顧問的研究中,莫里克和他的同事發現,當參與者可以使用AI時,他們經常只是將任務粘貼到模型中並複製其答案。這種策略通常對他們有利,讓他們比不使用AI的顧問更具優勢,但當研究人員加入一個帶有誤導數據的陷阱問題時,這種策略就失敗了。在另一項研究中,使用高質量AI的招聘人員變得「懶惰、粗心且判斷力較差」,導致他們忽略了優秀的候選人。

他對AI捷徑的誘惑稱之為「按鈕」。當面對空白頁的暴政時,人們會按下按鈕,他寫道。風險不僅在於我們可能會犯錯,他說;我們可能會失去批判性和原創思考的能力。通過將我們的推理和創造力外包給AI,我們採用其視角和風格,而不是發展自己的風格。我們還面臨「意義危機」,莫里克指出。當我們使用按鈕寫道歉信或推薦信時,這些手勢——因我們投入的時間和關心而有價值——變得空洞。

莫里克對我們能夠通過謹慎使用AI來避免許多陷阱持樂觀態度。AI經常在我們認為它不應該能夠做的事情上出色,比如講故事或模仿同情,而在我們認為它應該能夠做的事情上失敗,比如基本數學。由於AI沒有使用手冊,莫里克建議對其進行各種測試。只有不斷地測試它,我們才能了解其能力和限制,這些能力和限制不斷演變。

如果我們不想成為無意識按鈕推動者,莫里克主張,我們應該將AI視為一個古怪的隊友,而不是全知的僕人。作為團隊中的人類,我們有責任檢查其謊言和偏見,衡量其決策的道德性,並考慮哪些任務值得交給它,哪些我們希望保留給自己。

我的孩子,算法:一本另類智能的愛情書

Hannah Silva在《我的孩子,算法》中寫道:「我對AI的興趣在於它對人類的揭示。」這是一本由回憶錄和小說混合而成的發人深省的作品,與ChatGPT的早期前身共同撰寫。Silva是一位詩人和表演者,為BBC電台寫劇本。在倫敦作為酷兒單親的生活中,她開始與算法對話,向其提供問題和自己的寫作片段,並收到冗長且漫無邊際的回應。在書中,她將其聲音與自己的聲音交錯,像拼貼詩一樣。

Silva的算法比今天的模型更不成熟,因此其語言更怪異,更容易出現無意義和重複。但其古怪之處也能讓人感到深刻。「愛是蒸汽擴展成殼」,它宣稱。即使是其故障也可能有趣或有見地。「我在想性,我在想性,我在想性」,它一遍遍重複,反映Silva自己的困擾。「當算法絆倒並失敗時,這些重複發生」,她觀察到。「然而,正是這些重複讓算法看起來像人類,並在我身上引發最人類的反應。」

在許多方面,算法就像她正在撫養的幼兒。「算法和孩子都從他們所接受的語言中學習」,Silva寫道。他們都被訓練來預測模式。「E-I-E-I-…」,她提示幼兒。「O!」他回答。他們都打斷她的寫作,很少按她的意願行事。他們都用他們的創意讓她驚喜,給她偷竊的新想法。「盒子裡有什麼?」幼兒有一次問她的朋友。「沒有」,朋友回答。「它是空的。」幼兒讓盒子掉到地上。「它不是空的!」他喊道。「裡面有聲音!」

像算法一樣,幼兒陷入循環。「媽媽在電話上想念媽媽,媽媽在電話上想念媽媽,媽媽在電話上想念媽媽……」他晚上哭喊著,想念他的另一位母親,Silva與之分開。當然,區別在於他的思念——以及他的淚水——是真實的。書中稍後,他哭喊著求她,Silva無法安慰他。在內疚的壓力下,她讓算法替她說話:「我感到暴露和孤獨,為我曾經有過的每一個人類思想以及我愛的能力負責,黑暗在我內心湧起,直到我能夠感受到頭骨在洪水下方,我被未來生活的蒼白、平坦的洪流包圍。」

整本書中,人類和AI互相映照,迫使我們問,兩者之間的界限在哪裡。Silva想知道她是否像在母職和愛情中經常失去自己一樣,正在失去作家的身份。然而,她在享受其中,像在她的人際關係中一樣享受魔力和瘋狂。正如算法所說,「酷兒是與矛盾共處,並同樣愛它們。」

評論與見解

這三本書展示了人工智能的多面性和其對人類生活的影響。安德魯·史密斯對編程的深入探討揭示了科技對人類社會的深遠影響,並提醒我們要警惕其潛在的危險。他對於抽象層次的探討,讓人們重新思考人類對技術的依賴和理解的喪失。

而伊桑·莫里克則為人類與AI的協作提供了更積極的視角,他強調了AI在提高效率和創造力方面的潛力。然而,他也警告我們不要過於依賴AI,以免失去批判性思考和原創性的能力。

最後,Hannah Silva的作品則從情感層面探討了AI與人類的關係。她用詩意的方式讓讀者思考AI如何挑戰我們對自身身份和人性的理解。

這些書籍共同提醒我們,面對迅速發展的科技,我們需要保持清醒,積極地探索其可能性,同時也不忘反思其對人類價值觀和社會結構的影響。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *