AWS推出9大創新,助力開發者更高效!

Ai

亞馬遜網絡服務首席執行官馬特·加門在 re:Invent 大會上的九項重要創新

亞馬遜網絡服務(AWS)首席執行官馬特·加門在公司每年一度的 re:Invent 大會上發表了長達三小時的主題演講,現場有 60,000 名與會者參加,另有 400,000 名觀眾在線上收看。此次演講標誌著加門自今年早些時候成為首席執行官以來的首次重大亮相,他於 2006 年加入公司,並在此期間積累了豐富的經驗。

這次大會專注於建設者和開發者,提供了 1,900 篇現場會議,並有 3,500 位講者參加。許多會議由客戶、合作夥伴和 AWS 專家主導。在他的主題演講中,加門宣布了一系列旨在使開發者的工作更輕鬆和高效的創新。

以下是他分享的九項關鍵創新:

AWS 將在 AI 領域發揮重要作用
加門在演講開始時宣布了公司最新的 Trainium 晶片——Trainium2 的正式上市,以及 EC2 Trn-2 實例。他表示,這些是針對生成性人工智能的最強大實例,因為它們是由 AWS 自行開發的定制處理器。

他指出,Trainium2 的價格性能比目前的圖形處理單元(GPU)驅動的實例提高了 30% 至 40%。加門提到:“這些晶片是為了應對最前沿的生成性人工智能訓練和推理的需求而專門設計的。”Trainium2 使客戶在考慮其工作負載時有了更多選擇。

根據加門的說法,測試結果顯示“令人印象深刻的早期成果”。參加測試的組織,包括 Adobe、Databricks 和高通,都預期新晶片和實例將提供更好的結果和更低的擁有總成本。他表示,一些客戶預計將節省 30% 到 40% 的成本。“高通將利用這些新晶片提供能在雲端訓練並在邊緣部署的 AI 系統,”他補充道。

當這一消息發佈時,許多媒體將 Trn2 描述為亞馬遜與 Nvidia 的競爭。我在分析師問答環節中詢問加門,他強調這不是亞馬遜的意圖。其自有晶片的目標是擴大整個 AI 晶片市場的規模,讓每個人都能受益。這是亞馬遜在處理處理器行業的方式,並沒有理由認為他們會改變對待合作夥伴的方式,除了讓標題變得更具吸引力。更多的 Nvidia 工作負載在 AWS 雲端運行,我不認為這會改變。

新伺服器以支持巨型模型
如今的模型變得非常龐大且快速,擁有數百億到數萬億個參數,這使得它們無法在單一伺服器上運行。為了解決這個問題,AWS 宣布推出 EC2 Trainium2 UltraServers。這些伺服器連接四個 Trainium2 實例——共計 64 顆 Trainium2 晶片,並通過高速、低延遲的 Neuronlink 連接互聯。

這為客戶提供了一個超級節點,單個計算節點的計算能力超過 83 petaflops。加門表示,這將對延遲和性能產生“巨大影響”。它使得非常大的模型能夠加載到一個節點中,從而在不需要分割到多個節點的情況下提供更好的延遲和性能。加門提到,Trainium3 晶片將於 2025 年推出,以滿足生成性 AI 不斷演變的需求,並提供客戶所需的推理環境。

利用 Nvidia 的 Blackwell 架構
加門表示,AWS 是客戶使用 Nvidia Blackwell 架構的最簡單和最具成本效益的方式。AWS 宣布推出基於 Blackwell 的新 P6 系列實例。這些新實例將於 2025 年初推出,配備 Nvidia 最新的 GPU,計算速度將比當前一代 GPU 快 2.5 倍。

AWS 與 Nvidia 的合作在運行生成性 AI 工作負載方面取得了顯著進展。Bedrock 為客戶提供了模型選擇:這不是一個模型可以統治所有,而是一個涵蓋多種模型的單一來源,包括 AWS 新公布的 Nova 模型。應用程序和生成性 AI 應用之間不會存在區別。生成性 AI 將成為每個應用的一部分,利用推理來增強、構建或改變應用。

加門表示,Bedrock 受到客戶的青睞,因為它提供了將生成性 AI 整合到生產應用中的所有必要工具,而不僅僅是概念驗證。他提到,客戶已經開始看到這方面的實際影響。例如,生物技術和製藥公司 Genentech 希望利用科學數據和 AI 加速藥物發現和開發,快速識別和針對新的藥物和生物標記進行試驗。這一過程過去需要科學家們從大量的內部和外部來源中搜尋數據。

通過使用 Bedrock,Genentech 開發了一個生成性 AI 系統,讓科學家能夠針對數據提出詳細問題。該系統能夠從龐大的資料庫和文獻中識別出相關的數據和資料,並綜合出見解和數據來源。

它會總結信息來源並引用來源,這對科學家進行工作至關重要。過去,Genentech 的科學家們需要花費數周時間進行一次這樣的查詢,而現在,只需幾分鐘就能完成。

根據加門的說法,Genentech 預計將自動化五年的手動工作,並更快地交付新藥。“領先的獨立軟件供應商,如 Salesforce、SAP 和 Workday,正在將 Bedrock 深入整合到他們的客戶體驗中,以提供生成性 AI 應用,”他表示。

簡化複雜的模型蒸餾過程
加門表示,AWS 正在使公司更容易將大型、高效能的前沿模型與他們想要詢問的所有提示進行配合。“然後,你將所有的數據及其產出的答案拿來,利用這些輸出和你提出的問題來訓練一個較小的模型,使其在特定問題上成為專家,”他解釋道。“這樣,你就能獲得一個較小且更快速的模型,能夠正確地回答特定問題集。這對於提供專家模型非常有效,但需要機器學習的參與。你必須管理所有的數據工作流和訓練數據,調整模型參數並考慮模型權重,這是相當具挑戰性的。這就是 Bedrock 中模型蒸餾的用武之地。”

蒸餾的模型運行速度比其來源模型快 500%,成本則低 75%。這是一個巨大的差異,而 Bedrock 為你完成這一切,”他說。這種成本差異可以將生成性 AI 應用的投資回報率從在生產中推出過於昂貴轉變為非常有價值。你將示例提示發送給 Bedrock,它會自動完成所有工作。

但是,獲得正確的模型只是第一步。“生成性 AI 應用的真正價值在於將你的企業數據與智能模型結合在一起。那時,你才能獲得真正獨特且有趣的結果,這對你的客戶來說是重要的。你的數據和知識產權才是關鍵所在,”加門說。

AWS 擴展了 Bedrock 對多種格式的支持,並新增了 OpenSearch 和 Pinecone 等向量數據庫。Bedrock 使用戶能夠獲得正確的模型,滿足組織的企業數據需求,並設定應用程序的邊界以及響應的外觀。

幫助客戶實現負責任的 AI 部署
Bedrock Guardrails 使得定義應用程序的安全性並實施負責任的 AI 檢查變得簡單。“這些是對你的模型的指導方針,”加門說。“你只希望你的生成性 AI 應用談論相關的主題。比方說,你有一個保險應用,客戶來詢問你提供的各種保險產品。你希望它回答有關政策的問題,但不希望它回答政治問題或提供醫療建議,對吧?你希望這些防護措施能夠限制在這個範圍內。”

加門表示,這對於開發生產應用程序具有重要意義。“這就是為什麼 Bedrock 如此受歡迎,”他解釋說。“去年,許多公司正在為生成性 AI 應用構建概念驗證,而像 Guardrails 這樣的功能則不那麼重要。讓模型‘做酷事’是可以的。但是,當你將生成性 AI 深入整合到企業應用中時,必須具備許多這樣的功能,以便轉向生產應用。”

簡化開發者的開發流程
加門表示,AWS 希望幫助開發者創新,讓他們遠離那些沒有差異化的繁重工作,專注於“讓你所構建的東西獨特的創造性工作”。生成性 AI 是這一能力的巨大加速器。它使用戶能夠專注於這些部分,並將一些繁重的工作推遲到其他地方。2023 年推出的 Q Developer,被稱為開發者的“AWS 專家”。它是“最強大的生成性 AI 助手,用於軟件開發,”他表示。

Q Developer 幫助 Datapel Systems 實現了高達 70% 的效率提升。他們減少了部署新功能所需的時間,快速完成任務,並最小化重複行為,”加門說。

但這不僅僅是效率問題。金融業監管局(FINRA)通過使用 Q Developer 創建更高性能和更安全的軟件,看到代碼質量和完整性提高了 20%。Amazon Q 擁有“市場上任何多行代碼助手中最高的接受率,”加門說。

然而,代碼助手僅僅是大多數開發者所需的其中一小部分。AWS 的研究顯示,開發者每天僅花一小時編寫代碼。他們將剩餘的時間花在其他端到端的開發任務上。

三個新型自主代理
根據加門的說法,自動化代理現在可以生成用戶測試、文檔和代碼審查。第一個代理使得 Amazon Q 能夠自動生成端到端的用戶測試。它利用先進的代理和整個項目的知識,為開發者提供完整的測試覆蓋範圍。

第二個代理可以自動創建準確的文檔。“它不僅僅適用於新代碼,”加門說。“Q 代理還可以應用於遺留代碼。因此,即使代碼庫的文檔不完善,Q 也能理解這段代碼的功能。”

第三個新的 Q 代理可以執行自動代碼審查。它將“掃描漏洞、標記可疑的編碼模式,甚至識別可能存在的開源包風險,”加門說。它會識別出部署風險並建議減輕措施,從而使部署更加安全。

“我們認為這些代理可以大幅減少在重要但可能不具差異化的任務上花費的時間,並使開發者能夠將更多時間投入到增值活動中,”他說。

加門還宣布,Q Developer 與 GitLab 之間進行了新的“深度集成”。Q Developer 的功能現在在 GitLab 的平台中深度嵌入。“這將有助於推動他們 Duo Assistant 的許多受歡迎的功能,”他說。團隊可以在 GitLab 工作流程中本地訪問 Q Developer 的功能。加門表示,未來還會逐步增加更多功能。

主機現代化
另一項新的 Q Developer 功能是執行主機現代化,加門稱這是“遷移到雲端的最困難任務”。Q Transformation for Mainframe 提供幾個代理,幫助組織簡化這一複雜且常常令人生畏的工作流程。“它可以進行代碼分析、規劃和重構應用程序,”他說。“大多數主機代碼的文檔並不完善,許多人擁有數百萬行的 COBOL 代碼,卻不知道它的功能。Q 可以將這些遺留代碼轉換為實時文檔,讓你了解它的功能,幫助你決定哪些應用程序需要現代化。”

加門表示,雖然目前還無法將主機遷移變為“一鍵流程”,但通過 Q,這一過程可以從多年縮短為幾個季度。

集成分析
加門介紹了下一代 Amazon SageMaker,稱其為“滿足所有數據、分析和 AI 需求的中心”。他表示,AWS 正在擴展 SageMaker,增加“最全面的數據、分析和 AI 工具集”。SageMaker 現在擴展了分析功能,並提供“滿足快速分析、數據處理、數據準備、AI 模型開發和生成性 AI 所需的一切”,以便用戶能夠對企業數據進行單一視圖的訪問。

他還介紹了 SageMaker Unified Studio,這是一個“單一的數據和 AI 開發環境”,讓用戶能夠訪問組織中的所有數據,並使用最合適的工具進行操作。加門表示,目前在預覽階段的 SageMaker Unified Studio“整合了分析師和數據科學家在 AWS 現有的多個獨立工作室中使用的功能。”它提供獨立的查詢編輯器和多種可視化工具,如 EMR、Glue、Redshift、Bedrock 和所有現有的 SageMaker Studio 功能。

即使擁有這些新產品、解決方案和功能,加門仍然承諾將會有更多的創新推出。

這些創新不僅展示了 AWS 在人工智能和雲計算領域的雄心,更是對開發者生態系統的一次深度重塑。隨著技術的不斷進步,企業必須適應這些變化,尤其是在 AI 應用的安全性和效率上。AWS 的這些新功能無疑將幫助客戶在競爭激烈的市場中保持領先地位,並加速數字轉型的進程。這不僅是技術的進步,也是對未來商業模式的深刻理解和預見。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Chat Icon