如何馴服人工智能?科學家認為需像藥物或飛機般進行規管
認知科學家加里·馬庫斯(Gary Marcus)上周在西雅圖的市政廳活動中與科幻作家泰德·張(Ted Chiang)討論了人工智能(AI)快速發展所帶來的挑戰。他指出,人工智能的風險已經上升到需要更多規管的程度,並主張聯邦政府甚至國際機構應該介入。
馬庫斯提到,美國食品藥物管理局(FDA)或聯邦航空管理局(FAA)可以作為參考模型。他表示:“如果有人引入一種具有相當風險的新型AI,我們希望能有類似FDA的批准過程。應該有某種方式來進行規管,並問,‘成本是多少?收益又是多少?社會的收益是否真正超過成本?’”
除了對新型生成式AI進行監管批准外,馬庫斯還提到,軟件公司應該接受外部審計,以評估AI工具的表現。他指出:“例如,我們知道大型語言模型現在被用來做出招聘決策——誰應該被聘用或獲得面試——而我們知道它們存在偏見。但我們根本無法進行審計來確定這種情況的發生程度。我們希望有責任法,這樣如果公司對社會造成重大損害,這些公司應該承擔部分成本。”
AI安全是馬庫斯作為紐約大學名譽教授的研究重點之一,他最近出版的書籍《馴服矽谷》中也探討了這些問題。在書中以及市政廳活動中,馬庫斯追蹤了與生成式AI相關的麻煩問題,包括抄襲、幻覺、假資訊和深度偽造,以及缺乏透明度的擔憂。
領導AI技術的公司堅稱它們正在關注安全問題。例如,四月,微軟、OpenAI、Alphabet和亞馬遜網絡服務等主要科技公司的CEO組成了一個AI安全與保障委員會,旨在向聯邦政府提供建議,以保護關鍵基礎設施。
然而,馬庫斯堅持認為AI領域需要獨立監管,並且應該有科學家參與其中。“政府領導人經常與公司領導人會面,但他們沒有獨立科學家在場,”他說。“這樣就會出現所謂的監管捕獲,大公司自我監管。”
作為例證,馬庫斯提到了關於AI是否應該開放源碼的辯論,Meta的CEO馬克·祖克柏(Mark Zuckerberg)表示支持,而諾貝爾獎得主、被譽為“AI教父”的喬弗瑞·辛頓(Geoffrey Hinton)則表示反對。
馬庫斯呼籲建立一個聯邦AI管理局,甚至可能成立一個國際民間AI組織。他表示:“這裡一個好的模型是商業航空,飛行的安全性極高,將人們放在30,000英尺的飛行巴士中,比他們在自己的汽車中安全得多。這是因為我們有多層次的監管。我們有設計飛機的規定,如何測試、維護、調查事故等等——我們需要對AI做類似的事情。”
然而,馬庫斯對於未來的政治趨勢持現實態度。“考慮到政權變化,這些措施在短期內能否通過似乎不太可能,”他說。
在他的書中,馬庫斯提議對生成式AI進行抵制,這一想法讓張表示懷疑。“微軟已經將AI嵌入到像記事本和畫圖等產品中,”張說。“不使用這些產品會很困難,而且也很難說服孩子們不使用它來做功課。”
馬庫斯承認,抵制將是一項“艱巨的任務”。他表示:“我會將這與公平貿易咖啡類比,列出一些產品,說‘這些產品更好,這些還可以,請使用這些’。我們應該只從那些適當授權所有基礎材料的公司使用生成式AI來生成圖像。如果有足夠的消費者壓力,我們或許能讓一兩家公司這樣做。”
在馬庫斯看來,只有公眾壓力才能讓美國獲得良好的AI公共政策。他指出:“在AI方面,我們面臨的情況類似於氣候變化,政府真的不會採取行動,除非人們真的非常非常不滿。”他認為,我們可能需要對AI政策感到非常不滿,才能解決這些問題。
評論
馬庫斯的觀點無疑引發了對人工智能未來的深思。他強調的監管需求,顯示出在科技迅速進步的背景下,社會對於技術的安全性和倫理性的擔憂。隨著AI在各行各業的應用日益普及,如何制定合理的規範以保護公眾利益,成為迫在眉睫的課題。馬庫斯對於公眾參與的呼籲也提醒我們,作為消費者,我們的選擇和聲音在推動政策改變中至關重要。在這個技術迅速發展的時代,保持警惕並積極參與,才能確保科技為社會帶來真正的利益,而非潛在的風險。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。