亞馬遜計劃再投資40億美元於Anthropic,推動AI及晶片合作
亞馬遜公司今日詳細介紹了計劃將對Anthropic PBC的投資加倍至80億美元的計劃。這項最新的40億美元現金注入是在約一年前亞馬遜首次公佈對Anthropic的40億美元承諾後的又一重大進展。當時,這家與OpenAI競爭的公司將亞馬遜網絡服務(AWS)指定為其主要的雲端供應商。今天公佈的交易將使AWS成為Anthropic的主要AI訓練供應商。
Anthropic上個月推出了其最先進的大型語言模型Claude 3.5 Sonnet,這是一個改進版,較早前推出的同名模型在多個任務上表現更佳,包括編碼生成,並在多項基準測試中超越了OpenAI的GPT-4o。
Anthropic通過亞馬遜Bedrock提供其大型語言模型,這是一項AWS服務,為用戶提供管理的AI模型。兩家公司擴展的合作將使Bedrock用戶提前獲得一項功能,該功能使得客戶可以使用自提供的數據集來微調Claude模型。增加可用於大型語言模型的數據量通常會提高輸出的質量。
除了市場合作外,AWS和Anthropic計劃互相支持產品開發工作。Anthropic將利用亞馬遜的AWS Trainium和Inferentia晶片,這些晶片分別針對人工智能訓練和推斷進行優化,以支持其內部工作負載。這家與OpenAI競爭的公司表示,將利用前者的處理器系列來構建其“最大的基礎模型”。
最新的Trainium晶片Trainium2於去年11月上市,該處理器的性能是其前身的兩倍,並且功率效率也提高了一倍。客戶每個實例最多可以配置16個Trainium2晶片,並且可以將實例組合成擁有最多10萬個晶片和65 exaflops計算能力的AI集群。
同時,Anthropic的工程師將支持AWS開發新的Trainium處理器。這家大型語言模型開發商將為支撐晶片系列的軟件堆棧貢獻力量。這個名為Neutron的軟件堆棧包含一個編譯器,能夠優化客戶的AI模型以在Trainium實例上運行,以及其他幾個工具。
Anthropic在今天的一篇博客中詳細介紹道:“我們正在開發低級內核,讓我們能夠直接與Trainium硅片進行交互。”在某些AI處理器中,內核是一段代碼片段,用來將計算分配到其主晶片的核心,以提升性能。內核是先進AI模型的基礎構建塊之一。
AWS首席執行官Matt Garman表示:“通過持續在亞馬遜Bedrock中部署Anthropic模型,並與Anthropic合作開發我們的定制Trainium晶片,我們將不斷推動客戶在生成AI技術方面的成就邊界。”
Anthropic的最新融資輪是在OpenAI籌集了66億美元的創業投資後的兩個月,這也是創紀錄的最大規模投資。OpenAI還從一組銀行獲得了40億美元的信貸額度。目前,OpenAI的估值為1570億美元,將這些資金投入AI研究和計算基礎設施。
在這篇報導中,亞馬遜和Anthropic的合作顯示了AI領域的競爭日益激烈。隨著大型語言模型技術的迅速發展,企業之間的合作與投資將成為推動創新和提升市場競爭力的關鍵因素。這不僅有助於加速AI技術的商業化,也為企業提供了更多的資源和技術支持。未來,隨著更多資金的注入和技術的進步,這個領域可能會出現更多突破性的產品和服務。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。