2024年AI大躍進:人工智能邁向通用智能

2024年人工智能的巨變

在2024年,人工智能(AI)取得了重大進展,這項前沿技術不僅贏得了獎項,吸引了投資者,還成功地在華爾街引起了關注,並展示了其數學推理能力,甚至能解釋微分方程。然而,隨著這一年的高峰,挑戰依然存在,例如,AI開發者將如何應對即將到來的數據短缺問題?

以下是2024年人工智能的十個亮點。

#1 生成式人工智能主導

生成式人工智能(GenAI)作為AI的一個子集,能夠從無到有創造出內容(除了其龐大的訓練數據)。例如,給它一行文本,它就能生成一篇500字的鬼故事。2024年,GenAI成為焦點,不僅僅是OpenAI開發的ChatGPT,還有谷歌的Gemini、微軟的Copilot、Anthropic的Claude以及Meta的Llama 3系列,這些都推動了技術的邊界,開發出能夠生成文本、音頻、視頻和圖像的軟件。

AI實驗室在這些進展上投入了大量資金,根據Menlo Ventures的報告,2024年AI支出激增至138億美元,是2023年的六倍,這顯示出企業正從實驗階段轉向執行階段,將AI嵌入其商業策略的核心。

#2 AI獲得諾貝爾物理學和化學獎

2024年10月,瑞典皇家科學院宣布了諾貝爾獎的得主,這進一步證明了AI的持久性。Geoffrey Hinton和John Hopfield因“為使機器學習與人工神經網絡的基礎發現和發明”而獲得物理學獎。神經網絡是當今AI的核心技術。Hinton被稱為“AI教父”,他的開創性工作可追溯到1980年代。

此外,谷歌DeepMind的聯合創始人兼首席執行官Demis Hassabis和John Jumper因開發能預測蛋白質複雜結構的人工智能模型而獲得化學獎。

#3 Nvidia超越蘋果成為全球最有價值公司

訓練和運行大型語言模型(LLMs)需要特殊類型的計算機芯片,而芯片製造商Nvidia生產了全球最多的這些特殊圖形處理單元(GPUs)。因此,Nvidia在2024年成為全球最有價值的公司,市場資本達到3.53萬億美元,超過蘋果的3.52萬億美元。

AJ Bell的投資總監Russ Mould表示:“越來越多的公司在日常任務中採用人工智能,對Nvidia芯片的需求依然強勁。”Nvidia是否能在2025年及以後保持其製造優勢,仍然是個問題。

#4 歐盟的AI立法

每個人都希望人工智能是安全、可靠且對社會有益的,但通過法律和實施規則來確保負責任的AI並非易事。儘管如此,2024年全球監管機構還是邁出了第一步。歐盟的人工智能法案於8月生效,為通用AI系統引入了保障措施,並解決了一些隱私問題。

該法案對面部識別的AI使用設置了嚴格規則,也試圖解決自動化工作、在線散佈虛假信息和危害國家安全等更廣泛的風險。這項立法將分階段實施,直到2027年。

然而,正如加州在2024年所發現的,監管AI並不容易。該州的SB 1047法案在9月被州長否決,這被描述為“迄今為止對人工智能的最全面監管努力”。該法案獲得了一些AI支持者的支持,但也受到其他技術專家的批評,因為它對AI開發者施加了責任,可能會抑制創新。

#5 小型語言模型(SLMs)的出現

2024年,訓練於數十億數據點的大型AI模型變得司空見慣。ChatGPT的訓練數據量達570GB,約3000億個單詞。然而,對於許多企業來說,AI的未來在於更小的行業特定語言模型,這些模型在2024年開始出現。

微軟在4月推出了Phi-3小型語言模型,而蘋果則為其手持設備推出了八個小型語言模型。微軟和Khan Academy現在利用SLMs來改善學生的數學輔導。

Yorke Rhodes,微軟數字轉型、區塊鏈和雲供應鏈的總監,在5月的會議上解釋說:“由於模型針對特定工作負載變得更小,邊緣計算的可用性大大增加,這樣你可以更好地利用這些資源。”

#6 Agentic AI走向前台

像ChatGPT這樣的聊天機器人主要是回答問題,但AI代理則更進一步,能夠為用戶做出決策,幫助他們實現特定目標。在醫療行業中,AI代理可以用來監控患者數據,根據需要提出建議以調整特定治療。

根據科技顧問公司Gartner的預測,Agentic AI將成為2025年的“頂級戰略技術趨勢”之一。到2028年,企業軟件應用中將有三分之一包含Agentic AI,這一比例從2024年的不到1%上升。

AI代理甚至可以用來編寫基於區塊鏈的智能合約。Avalanche區塊鏈項目已經開始在AI和區塊鏈的交集處建立新的虛擬機,允許用戶用自然語言編寫智能合約。

#7 解決“難題”的推理模型

聊天機器人存在一些限制,例如在簡單的數學問題和軟件編碼任務上表現不佳。為了解決這些問題,OpenAI在9月推出了OpenAI o1,一系列“解決難題”的推理模型,反響良好。

根據OpenAI的報告,o1在測試中表現與美國數學奧林匹克資格賽的前500名學生相當,並在物理、生物和化學問題的基準測試中超過了人類博士級的準確性。

#8 聚焦AGI的發展

為什麼上述結構化問題解決的進展如此重要?因為這使得AI逐步接近提供類人智能,即人工通用智能(AGI)。OpenAI的o3模型在聖誕節前發布,其在數學和編碼測試中的表現優於o1,而谷歌的Gemini 2.0在結構化問題解決方面也取得了進展。

然而,許多專家認為AGI仍然是一個遙遠的目標。當前的先進模型仍然缺乏對重力或因果關係等物理概念的直觀理解,也無法自己提出問題或在情況發生意外變化時學習。

總的來說,“AGI是一段旅程,而非目的地,我們才剛剛開始,”顧問公司Forrester的副總裁Brian Hopkins最近表示。

#9 數據短缺的徵兆

毫無疑問,2024年對於AI開發者和用戶來說都是令人興奮的一年,幾乎沒有人預期AI創新會減退。然而,2024年也有跡象顯示,AI的LLM子時代可能已經達到頂峰。

原因在於即將到來的數據短缺。像OpenAI和谷歌這樣的公司可能很快會面臨數據不足的問題,而數據是“訓練”大型人工智能系統的命脈。

畢竟,從互聯網上抓取的數據是有限的。此外,LLM開發者發現,他們並不總能隨意收集公開數據。《紐約時報》已經因其新聞內容起訴OpenAI,這可能不會是唯一一家尋求法律救濟的主要新聞機構。

谷歌的Demis Hassabis表示:“行業中的每個人都看到收益遞減。”一種解決方案可能是使用合成數據來訓練算法,即模仿真實世界數據的人工生成數據。

#10 更具道德的AI的出現

有趣的是,Anthropic在其報告中詳細解釋了如何獲取訓練數據。特別值得注意的是,它以“透明”的方式運行其網站爬蟲系統,這意味著網站內容提供者(如《紐約時報》)可以輕鬆識別Anthropic的訪問並向其表達偏好。

該公司已經進行了大量努力以防止技術的濫用,甚至在2024年成立了負責負責任擴展的官員,以創建“安全”的AI。該公司的努力得到了認可,《時代》雜誌將其評選為2024年100家最具影響力的公司之一,稱讚其為“下注於安全能成為獲勝策略的AI公司”。

隨著2024年AI發展的趨勢以及公眾對這些新前沿系統潛在災難性風險的擔憂,似乎越來越多的開發者將很快接受更透明和負責任的AI。

在這個快速變化的技術世界中,AI的發展不僅僅是技術的進步,更是對倫理和責任的重新思考。隨著AI技術的普及,如何平衡創新與風險,將成為未來的關鍵挑戰。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Chat Icon