人工智能蛋糕中的鹽:七個沒有人準備的嶄新職位
在我們這場技術革命的角落,正悄悄出現一場無人點名的危機。我們打造的系統本是為了提升人類能力,卻同時在拆毀治理這些系統所需的專業知識。這不只是關於工作被取代的議題,而是我們尚未學會珍視的一類工作。
我常用烘焙蛋糕作比喻來解釋負責任的人工智能發展。如果你用鹽代替糖來烤蛋糕,事後是無法修正的,你只能重新開始。這比喻之所以切合,是因為大家都明白「不可逆」的概念。然而,我仍遇到不少諮詢公司和產品團隊,尤其是受嚴格監管的行業,他們誤以為合規可以事後補救,主張先快速開發,系統運作後再考慮透明度和問責。
但事實是,現在大多數人工智能應用,尤其是基於不透明基礎模型,缺乏數據來源、偏見控制和訓練過程透明度的系統,是無法後期加上合規要求的。歐盟《人工智能法案》明確規定,文件編制、可追溯性和人工監督必須從一開始就融入系統架構中。
鹽早已混進蛋糕糊裡,而組織才剛開始品嘗這苦澀。
明目張膽的危機
媒體不斷報道人工智能將會消滅哪些工作,但更重要的問題卻被忽視:我們正建立起一套龐大的人工智能生態系統,卻沒有人有資格去治理它。一項由Fluree做的研究顯示,平均每家企業使用多達367個SaaS應用程式,其中大部分都集成人工智能。
問題不在於技術無法治理,而是我們沒有培養出治理所需的專業知識。
部署一套「高風險AI系統」需要什麼?需要有人質疑訓練數據是否真實反映現實或存在偏見,有人能挑戰優化目標是否符合人類價值,有人監察模型是否在表現95%準確率後悄悄退化,有人能向監管機構或受影響者解釋算法決策原因。
這些不是技術問題,而是判斷問題,而判斷無法被自動化。
這正是矛盾所在:人工智能具備專業知識卻缺乏背景理解。它能在龐大數據中識別模式,卻不懂得這些知識何時何地重要。它能發現招聘數據的相關性,卻無法判斷是基於公平還是系統性歧視。它能優化效率,卻無法衡量公平與效率的道德抉擇。
未來十年最重要的工作,正是在這機器能力與人類判斷之間的鴻溝。
我們未創造的職位
這場危機已經催生一類全新職位,這些職位不僅是管理AI,更是確保AI服務於人類價值。
根據行動者網絡理論,人工智能並非中立工具,而是植根於人類行動者、制度權力、監管框架和社會價值網絡中。治理AI不只是管理算法,而是駕馭這些複雜交織的系統。
七個新興職位正湧現,不是需要寫程式的技術崗位,而是要求深厚領域專業知識、批判思維和系統思考的「知識職位」:
1. AI決策審核員:在AI系統部署前質疑和驗證。比如招聘算法是否複製了歷史歧視,診斷工具是否錯誤產生關聯。歐盟法案要求高風險系統必須有人監督,但沒有專業判斷的監督只是擺設。
2. 人類問責架構師:設計流程確保即使系統自主運作,人類責任仍然明確。隨著多代理AI普及,責任界定變得模糊,必須有人確保系統出錯時能追究責任。
3. 多模態互動設計師:協調多個AI代理與人類監督的協作。現代系統是多代理、多介面和決策點的生態系統,透明度必須以人能理解的體驗呈現。
4. AI風險監護員:監察系統漂移、退化及偏見產生。AI不會大聲壞掉,而是悄悄退化,需要有人發現這種隱形風險。
5. 負責任AI實施策略師:橋接技術團隊和法律團隊,確保合規不是走過場,而是落實於實踐。
6. AI漂移與完整性分析師:追蹤模型表現,及早發現系統產生不可靠結果,避免監管審核時才發現問題。
7. 透明度與解釋設計師:將AI決策轉化為易懂的說明。技術準確無用,如果人類無法理解。
這些崗位雖新穎,但並非新鮮事。就像商業飛機有自動駕駛,但機師仍不可或缺,因為自動化不等於自主,系統會在意料之外的情況下失效,邊緣案例需要人類判斷。這七個職位是駕駛艙中不可或缺的「機師」,負責監察、必要時介入控制。
這些職位都需要人類判斷來檢查、引導和修正AI輸出,AI本身無法替代。
能力的幻象
危機不止缺乏角色,更在於專業知識流失,以及人人都能治理AI的危險錯覺。
以當前流行的「vibe coding」(自然語言生成程式碼)為例。雖然降低了門檻,但人們混淆了「能生成代碼」與「能評估代碼是否適用」的能力。
當AI「幻覺」生成看似合理但隱藏安全漏洞的代碼,或因指令不夠精確而優化錯誤目標時,沒有程式設計背景的人無法識別錯誤,等於把專業判斷外包給了AI。
結果是我們培養了一代被能力幻象誘惑、卻缺乏真正能力的人。
更糟的是,如果AI模型消失,不論是因為服務終止、公司轉型或模型過時,當我們把專業知識外包給不懂的系統,還剩下什麼?
我們的大腦、經驗和連結知識的能力,是讓我們能在任何情境下提出正確問題的關鍵,這無法委託,只能培養。
250個檔案的危機
一項由Anthropic聯合英國AI安全研究所及艾倫圖靈研究所的最新研究顯示,僅250個惡意檔案就足以毒害最大型語言模型。這只佔訓練數據的0.00016%,幾乎是四捨五入誤差。
從6億到130億參數的模型,訓練資料龐大到人類一生無法閱讀,但只要有這麼少量的惡意資料,就能植入後門或偏見,導致模型在特定觸發詞出現時產生有害輸出。因為毒害極為隱蔽,往往直到問題爆發才被察覺,為時已晚。
「模型越大越安全」的假設已經崩潰。
惡意攻擊者正積極利用這些弱點,而大多數部署AI的機構根本不知道自己的訓練數據是否被污染。
每當你的設計團隊優化介面、產品團隊改善用戶體驗,背後的數據暗藏風險。你可以做出吸引人的聊天機器人,但如果基礎數據被毒害,信任就無從談起。
數據清潔比計算規模重要得多。擁有數十億參數的先進架構,如果訓練管線中混入250份惡意文件,等於打造了一個昂貴的危機。
這也是為什麼我提及的七個角色不是可有可無的加強,而是負責任部署的最低治理標準。AI決策審核員能質疑異常輸出是否觸發惡意詞組;人類問責架構師確保有責任人;AI風險監護員監控微妙漂移。
沒有這些能力,你部署的系統不可信,且無法防範看不見的威脅。
信任是設計出來的,不是理所當然的。
我們未做的投資
現實是,我們沒有投資培育這些守護角色的下一代。
企業猶豫招募初級員工,因為預期角色會變,但正因如此,我們更需要他們。初級職位的持續性不在於教會他們使用現有工具,而是打下堅實理論和分析基礎,讓他們能隨工具演變調整,帶著知識懷疑態度挑戰AI輸出,將人類判斷融入合作。
大學仍把AI倫理當選修課,而非核心能力。能夠審核算法偏見、設計問責架構,理應像工程師必修微積分、醫生必修解剖學一樣基本。否則,我們將培養出一代只會訓練神經網絡,卻不懂為何模型準確率下降、或公平在算法決策中意義何在的畢業生。
他們更不可能在為時已晚前識別數據毒害跡象。
學校必須把AI治理當成核心能力,課程應涵蓋:
– 如何挑戰算法,不只是構建。質疑訓練數據和優化目標背後的假設,理解何時相關不等於因果,效率何時造成不公,準確率何時掩蓋傷害。
– 如何設計社會技術系統的問責框架,結合法規和以人為本設計原則,讓學生畢業時懂得在複雜系統中追蹤決策,並在自動化普及時保留人類責任。
– 把倫理和場景模擬當核心技能,預測二階效應和意外後果,問「我們能做嗎?」更問「我們應該做嗎?」及「失敗時會怎樣?」
– 法規合規與道德責任的區別,系統「能做」與「應該做」的差異,遵守法規字義與尊重人類尊嚴的精神。
– 系統思維,認知AI身處複雜網絡,涉及人類行動者、制度結構和社會脈絡,培養對抗性思維,預想系統可能被利用並提前構建防禦。
– 追蹤數據來源與數據集審核的基礎技能,不只是安全團隊專長,而是所有AI工作者必備。不能追蹤數據來源,就無法信任模型輸出。
社會技術系統理論提醒我們,每個技術系統同時也是社會系統,由權力、政策和人類判斷塑造。忽視這點的AI開發不是創新,而是失憶。
我們不可取代的價值
歷史上,體力勞動讓位給智力工作,而智力工作正讓位給監督和問責。我們正成為機械運作世界的道德錨點。
這並非新現象,每次技術革命都創造了全新工作類別,不是消除人類貢獻,而是重新定義何謂不可替代的貢獻。
想像一下曾經叫醒工人的「敲窗工」(knocker-upper),被鬧鐘取代,但早晨經濟對人類判斷的需求並未消失,只是轉移了位置。
人工智能正在走同一條路。機器產生輸出,人類必須掌控結果。這不僅是詩意說法,更是AI法案的法律和倫理底線。
問題不是這些職位會不會存在,它們已經出現,受監管壓力、運營需求和250份毒害檔案可能毀掉數十億參數這一數學事實推動。
問題是,我們是否願意在系統失效、聲譽崩潰或監管介入前,培育填補這些職缺的專業人才。
我們面對的選擇
於是,我們站在人類智慧與人工系統的交匯點,面臨一個尚未被企業視為緊迫的抉擇:
是從根本建立負責任的人工智能,還是浪費資源打造無法合規、無法信任的系統?是培養下一代AI守護者,還是把我們的未來外包給沒人能質疑的算法?
負責任AI的未來不是技術問題,而是人性問題。
需要投資於結合深厚領域專長與批判思維的職位,認識治理不是負擔而是基石,記住技術演進證明的真理:機器放大人類選擇,並非取代,反而使選擇更具影響力。
真正創新需要的不只是計算力,更是智慧。
從哪裡開始?
如果你是負責部署AI系統的領導者,請問自己:
– 你組織中有誰能在算法影響真實人之前,質疑其邏輯?不只是技術層面,而是倫理和社會層面。
– 當AI系統退化而無人察覺,誰負責?
– 當監管機構或受害者詢問為何被拒絕信用、工作或醫療時,誰能解釋算法決策?
– 誰能在你部署擁有數十億參數的系統前,識別250份惡意檔案是否已毒害訓練數據?
如果你無法用名字和能力回答,說明你沒有AI策略,只有一場無人駕駛的實驗在運作。
這七個職位不是未來的猜測,AI法案已將其列為高風險系統的強制要求,市場現實使其成為競爭優勢,而數學事實讓它們變得生死攸關。
鹽已混進蛋糕糊,問題是你願意在上桌前察覺,還是在客人嘗到後才後悔。
我們選擇的守護者
AI的未來不只是機器能做什麼,而是人類必須成為什麼。成為語境的管理者、邏輯的挑戰者、結果的守護者。
每個算法都承載著人類決策的迴響。我們的挑戰不是恐懼技術,而是有意識地塑造其倫理基礎,投資於能做這份塑造的人。
如果你的組織今天還沒設立這些職位,不僅是落後,更是在打造一枚定時炸彈。因為系統遲早會失效,沒有人會問算法做了什麼決定,而是會問誰負責放任它決定。
問題不是你是否負擔得起這些職位,而是你是否負擔得起不設立。
就像鬧鐘取代敲窗工,不只是科技替代,更是人類適應力的象徵。每一次技術轉變,都不是消滅人類潛力,而是重新塑造它。
我們最深刻的創新,源自人類重新想像可能性的能力。
AI的未來不會只屬於編程者,而是屬於我們選擇培養的守護者。
—
評論與啟示
這篇文章深刻揭示了當前AI發展中最被忽視的問題:我們急於追求技術創新和規模擴張,卻忽略了建立治理這些複雜系統所需的人才和專業知識。這不僅是一個技術問題,更是深層的社會、倫理與教育問題。
在香港這樣高度國際化且監管嚴謹的市場,這七個新興職位尤為重要。我們需要從教育體系開始,將AI治理納入核心課程,培養出兼具技術、倫理和系統思維的人才。企業也應該正視這些職位的價值,積極招聘與培訓,而非只追求短期的技術落地。
此外,文章中關於「數據毒害」的警示,提醒我們在AI安全領域不能掉以輕心。哪怕是極少量的惡意數據,都可能讓整個模型陷入風險,這對香港金融、醫療等重監管行業尤其致命。數據治理和透明度必須提上日程,否則即使AI技術再強大,也難以獲得用戶和監管信任。
最後,作者強調「機器放大人類選擇,非取代」,點出人類在AI時代的不可或缺性。這提醒我們,面對AI浪潮,真正的競爭力在於人類的判斷力、倫理觀和系統思維,而非單純的技術堆砌。香港作為亞洲金融和創新中心,必須加快步伐,培養這類「AI守護者」,才能在全球科技競賽中立於不敗之地。
總之,這篇文章不僅是對AI治理現狀的警鐘,更是對未來人才培養和企業戰略的深刻啟示。唯有尊重和培養這些「蛋糕中的鹽」,我們才能烘焙出真正美味、可信的AI未來。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放