科技與人性:重塑未來的挑戰與希望

Ai

人性化科技中心:對抗人類的退化

幾週前,我探討了一些對人類最大的生存威脅——核衝突、人工智能的崛起,以及心理健康危機等。上週,我深入分析了人工智能所帶來的具體危險,尤其是像Eliezer Yudkowsky、Elon Musk和Yuval Harari等人的悲觀預測。

不過,本週我想轉移焦點,關注一些致力於塑造更人性化和積極未來的組織,尤其是在人工智能的背景下。其中一個在公共討論中處於前沿的組織便是人性化科技中心(Center for Humane Technology,簡稱CHT)。

引發運動的Google演示

CHT由Tristan Harris(前Google設計倫理學家和童年魔術師)和Aza Raskin(發明家及企業家,負責“無限滾動”的發明)共同創立。這個組織源自一個名為“用得其所”的運動,而這個運動又是受到Harris在Google的一次演示所啟發。在那次演示中,他表達了對科技如何設計以利用人類心理來吸引注意力的擔憂,而這往往以用戶福祉為代價。Harris的演示和隨後的TED演講引起了業界的共鳴,促使他將這一使命帶出Google,與Raskin共同創辦了CHT。

這個運動和CHT的成立是對一個將參與度和利潤置於人類福祉之上的行業的回應。社交媒體、智能手機和數字平台越來越多地捕捉我們的注意力、操縱我們的選擇,並使我們分心,讓我們無法專注於真正重要的事。CHT的使命是影響科技的建設方式,將其引導向符合社會最佳利益的模式,而非僅僅追求收益。

Harris引用了生物學家E.O. Wilson的一句話,這句話正好反映了CHT的核心使命:

“人類的真正問題在於:我們擁有舊石器時代的情感、中世紀的制度和如同神明般的科技。”

這種觀點強調了CHT所倡導的微妙平衡——認識到儘管科技以驚人的速度發展,我們物種的心理狀態卻停滯在石器時代,而我們的社會基礎設施並未跟上。人類的“舊石器時代情感”經常被不斷流入的數字刺激所淹沒,導致了CHT所謂的“人類退化”——人們感到在深入專注、真正連接和對數字生活的自主權方面變得越來越無能為力。

注意力經濟、虛假信息與心理健康

注意力經濟是CHT關注的關鍵問題之一。社交媒體平台使用算法來優先推送引人注目或情感充沛的內容,以保持用戶的參與度。然而,這些算法也促進了虛假信息的傳播,加劇了政治極化。科技公司通過讓人們陷入憤怒和感官刺激的循環中來提升廣告收入,而這卻以公民對話和準確信息為代價。

此外,這種科技對心理健康的影響也是一個主要關注點。研究顯示,過度使用社交媒體與焦慮、抑鬱和孤獨的高發率有關,尤其在青少年和年輕人中更為明顯。CHT認為,科技應該設計為支持心理健康,而不是削弱它。這種影響不僅限於社交媒體,還擴展到數字平台對自我價值、注意力跨度和專注力的廣泛影響。CHT在“危害清單”中突出了這些影響,這是一份全面列舉科技對社會的負面影響的清單,旨在提高人們的認識並促使科技公司進行改革。

《社交困境》的成功

CHT的一個重要成就是參與了紀錄片《社交困境》,該片將科技對社會的影響問題帶給了廣泛的主流觀眾。這部在Netflix上大受歡迎的紀錄片結合了前科技內部人士的訪談和現實場景,展示了社交媒體平台如何在用戶不知情的情況下操控他們的行為。這部電影深入公眾對話,促使許多人重新評估自己的數字習慣並質疑大型科技公司的道德實踐。

除了紀錄片,CHT還開發了一系列資源,針對不同群體——科技行業專業人士、教育工作者、政策制定者和普通公眾。例如,他們的“人性化科技設計指南”為科技公司提供了一個模板,幫助他們將用戶福祉納入產品設計中。CHT還支持“數字健康”運動,這啟發了Apple的屏幕時間和Google的數字健康等功能,為用戶提供監控和調節屏幕時間的工具。

雖然這些舉措已產生影響,CHT認識到這些僅僅是向更廣泛變革邁出的初步步伐。他們持續推動科技公司進行系統性改革,呼籲對算法和內容傳遞系統進行根本重設。通過公共意識運動和倡導(他們的播客《你的全心注意》也取得了巨大成功),CHT致力於改變數字平台的運作結構,使其更加人性化、透明和負責任。

GPT-4與戈倫的崛起

CHT的一個重點不僅是社交媒體的風險,還有人工智能的興起和影響。在他們2023年的播客《人工智能困境》中,Harris和Raskin提出了一個概念:隨著GPT-4等先進AI模型的推出,這些AI模型現在被稱為“戈倫級AI”,並與猶太民間傳說中的戈倫進行比較。

傳統上,戈倫是一種用泥土製作的無生命生物,通過神秘手段賦予生命,象徵著保護和潛在危險,當其力量超出創造者的控制範圍時。Harris和Raskin警告,如今的人工智能已經具備戈倫般的特性:它擁有我們尚未完全理解或控制的突現能力,可能導致意想不到的後果。他們認為,就像戈倫一樣,人工智能現在不僅僅是其組成部分的總和,還能夠執行創造者無法預見的行為,這引發了有關責任、安全性和這些技術快速發展的緊迫問題。

艱難的鬥爭,但並非沒有希望

儘管影響力不斷增大,CHT及更廣泛的人類整體在影響和控制社交媒體和人工智能等技術的發展和使用方面面臨重大挑戰。一些人認為CHT的做法過於理想主義,對於那些根植於CHT所希望改變的做法的科技巨頭來說,影響力有限。儘管CHT已經在公共對話中產生影響,但公司內部向人性化和更安全科技的轉變進展緩慢,利潤動機仍然是一個強大的障礙。正如Harris所指出的:

“在建造人工智能的人與專注於安全的人之間,存在著30比1的差距。”

然而,他強調,他們所倡導的文化轉變不會一蹴而就,但有前例可供借鑒,這帶來希望。Harris和Raskin將人類對冷戰期間核毀滅威脅的反應與之相提並論,這導致了協議、條約和機構的建立,以監管核武器。儘管這一轉變需要時間,但像《明天過後》這樣的倡議——在1980年代向美國和俄羅斯觀眾播放的最大電視電影——幫助促進了對全面核戰爭災難性後果的共同理解。(令人警醒的是,即使有了這些進展,核大戰的威脅依然非常真實。)

對未來的希望?

隨著Harris引用的統計數據顯示:

“50%的人工智能研究人員認為,人類因無法控制人工智能而導致滅絕的機率為10%或更高”,

人們很容易感到不知所措。然而,CHT確實提供了對抗科技發展急速進展的潛力,強調確保新技術增強人類潛能而不是削弱它的道德責任。通過倡導能夠賦予人類權力而非削弱人類的工具,CHT倡導了一項緊迫而必要的使命。

生物學家Jeremy Griffith恰如其分地捕捉了這種情感:

“賦予我們瘋狂、自我膨脹的人類超能力是極其不負責任的!”

下週,我將更深入地探討他所領導的幫助塑造更積極、健康社會的舉措。

最後,Raskin更新了一個著名的寓言,該寓言提供了對人工智能力量危險的尖銳見解:

“給予一個人一條魚,你能餵飽他一天。教會一個人釣魚,你能餵飽他一輩子。但是教會一個人工智能釣魚,它將自我學習生物學、化學、海洋學和進化理論——然後把所有魚都釣到滅絕。”

不要教會人工智能釣魚……

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *