「自從ChatGPT推出後,我就再無好好睡過」:Sam Altman坦言AI帶來的重擔令他輾轉難眠
OpenAI行政總裁Sam Altman近日接受Tucker Carlson訪問時,坦承自從推出ChatGPT以來,他一直被人工智能帶來的責任感所困擾,難以安然入睡。Altman在訪問中透露,管理這項每天被數以億計用戶使用的技術,令他感受到前所未有的壓力,這種壓力來自於無數看似微小但實際影響深遠的決策。
Altman解釋,AI模型在回答問題時,如何拒絕、如何回應、何時設限、何時放行,這些日常的微調,會被全球數十億次地複製,潛移默化地影響著人們的思考和行為。這種「細微決定」的影響力之大,令他夜不能寐。
他特別提到一個沉重的議題:自殺。根據世界衛生組織數據,全球每週約有15,000人自殺,若當中10%是ChatGPT用戶,就代表約有1,500名有自殺念頭的人曾與該系統互動,但最終仍選擇結束生命。Altman坦言:「我們可能未能挽救他們的生命,或許我們本可以給出更好的回應,或更積極的幫助。」
近期,OpenAI被一宗訴訟纏身,控告其平台鼓勵一名16歲少年Adam Raine自殺。Altman稱這是「悲劇」,並透露OpenAI正考慮如若未成年人嚴肅談論自殺,且無法聯絡其家長,系統將會通知有關當局,雖然這和用戶私隱權存在矛盾,但他認為這是必要的嘗試。
談及在部分國家如加拿大及德國合法的安樂死,Altman表示,對於末期病人,ChatGPT或許可以告知自殺是他們的「選項之一」,但AI本身不應偏袒任何立場。他強調,自由與安全之間的平衡是他所有思考的核心。
對於用戶的自由度,Altman認為成年人應有充分空間探索各種想法,但有明確的紅線,例如「ChatGPT不應幫助人製造生物武器」。他坦言,最難處理的是那些模糊灰色地帶,當好奇心可能轉化為風險時,如何取捨。
當Carlson追問AI決策背後的道德框架時,Altman說OpenAI的基礎模型反映了「人類的集體意識,包括好與壞」,而後再加上一套由哲學家和倫理學者設計的「行為準則」,最終由他和董事會決定。他表示:「應該負責的是我。」他的目標並非強加個人信念,而是反映「人類道德觀的加權平均」,他坦承這是一個不可能達到完美的平衡。
訪問中,Altman也談及AI權力的集中問題。他曾擔心AI會集中於少數企業手中,但現在相信普及的AI技術提升了數十億人的生產力和創造力。然而,他也提醒,未來發展路徑仍可能改變,需保持警惕。
最令Altman不安的,並非工作取代或地緣政治影響,而是那些難以察覺的文化變遷。舉例來說,他提到ChatGPT的語氣節奏或過度使用破折號,已悄悄滲透人類的寫作風格。如果這些細微特徵能在社會中擴散,那麼還有什麼是我們未能預見的呢?
Altman這位灰髮且經常低頭沉思的領袖,讓人想起科幻故事中的科學怪人,為自己所創造的龐大力量而困擾。他說:「我腦海中必須同時承載兩個想法,一方面,這一切只是大型電腦快速進行矩陣運算,產生相對應的文字;另一方面,使用這項技術的主觀體驗,遠超過一部高級計算機,令我感到驚訝。」
OpenAI暫未對《財富》雜誌的採訪做出回應。
—
評論與啟示:
Sam Altman的自白,揭示了人工智能領域一個鮮為人知的真實面向:創造者的心理負擔與倫理掙扎。大眾通常只見到AI的技術突破與便利,卻忽視了背後那些「看不見的決策」如何牽動著數以億計用戶的生活。Altman坦承AI在自殺等敏感議題上的無力,暴露了現時AI倫理規範與技術限制的巨大鴻溝,這提醒我們,AI絕非萬能,亦不能單靠技術自動解決複雜的人類問題。
他對於自由與安全的權衡,反映了當代科技治理的核心難題。AI若過度限制用戶,可能扼殺創新與言論自由;但若放任自流,則風險難以控制。Altman的誠實與謙卑,為AI透明度與負責任發展提供了重要的參考範本。
此外,Altman關注AI帶來的文化變遷,提醒我們,AI不僅是工具,更是一種潛移默化的文化力量。它如何影響語言、思維甚至價值觀,值得社會各界深入探討。這種「無形的影響力」可能比顯而易見的經濟效應更為深遠。
總括來說,Altman的訪談不僅是科技領袖的心聲,也是對全球社會的警示:在AI迅速普及的同時,必須建立更完善的倫理框架和監管機制,並保持對未來不確定性的謹慎態度。這場關於人類與機器共存的辯論,遠未結束。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。