"Cloud's largest factory" clearly articulated the AI strategy: whether it's large models or chips, they will be options rather than the core

華爾街見聞
2024.12.05 09:24
portai
I'm PortAI, I can summarize articles.

AWS 押注 “生成式 AI 產品化”,將產品和服務作為發展的核心,構建更易於使用、可訪問的平台,降低用户使用 AI 的門檻,未來大模型重要性也將逐漸降低,不同用途的模型對用户差別不大。

看似是 AI 競賽中的 “落後者”,但亞馬遜 AWS 有着清晰的戰略圖景。

本週三,亞馬遜舉行 re:Invent 年度大會,併發布一系列重磅產品和計劃,包括全球最大 AI 超算、新一代 AI 芯片和模型、訓練蘋果 AI......

而其中最值得關注的是亞馬遜對未來發展的規劃,AWS 押注的是 “生成式 AI 產品化”,將產品和服務作為發展的核心,構建更易於使用、可訪問的平台,降低用户羣體使用 AI 的門檻。

AWS 認為,未來生成性 AI 將更為普遍,不僅僅是一個附加功能,而是成為計算基礎設施的一部分。而產品化的必要途徑是,大模型重要性會逐漸降低,不同用途的模型對用户來説差別不大。

大模型絕不會一家獨大,重要性會逐漸降低

在傳統的 AI 開發中,大模型可以説是核心,需要精心設計和訓練以解決特定問題。但 AWS 認為,在生成性 AI 的產品化過程中,大模型將不再是唯一的焦點。

過去兩年,亞馬遜一直依賴 Anthropic 的人工智能和 Nvidia 的硬件來推動其雲銷售增長,但在 re:Invent 大會上亞馬遜 CEOAndy Jassy 表示:

我認為幾乎所有人最終都會使用 Anthropic 的 Claude 模型,但他們也在使用 Llama 模型,也在使用 Mistral 模型,也在使用我們自己的一些模型......

這與亞馬遜 AWS CEO Matt Garman 的觀點類似,他此前表示 AI 競賽沒有終點,未來 AI 大模型絕不會一家獨大。

有分析表示,AWS 的賭注是,生成式 AI 產品化的一個必要組成部分是大模型重要性逐漸降低,這將降低用户進入生成性 AI 領域的門檻。換句話説,AI 將足夠重要以至於最終根本不會特別。

Garman 在 No Priors 播客節目中也表達出,未來生成性 AI 將成為 “必需品”:

從技術的發展,生成性 AI 將不僅僅是一個附加功能,而是成為計算基礎設施的一部分,就像存儲、計算和數據庫一樣,是構建應用程序時需要考慮的基本要素。

在應用程序中,如果需要進行大量的數據處理和決策(即推理),那麼生成性 AI 將是一個關鍵的組成部分。這表明 AI 的推理能力將被廣泛地集成到各種應用程序中,以滿足這些需求。

產品和服務才是核心,降本方面取得進展

當大模型重要性降低,AWS 聚焦打造 AI 產品和服務。AWS 正在努力將生成性 AI 集成到其平台中,開發者在構建應用程序時,可以利用 AWS 提供的 AI 服務,而不需要從頭開始構建複雜的 AI 系統。

談到公司發展的重點,Garman 表示:

亞馬遜現在已經擁有一個 Bedrock(預訓練模型家族)平台、訓練芯片和推理芯片,以及我們提供的一系列其他功能和模型,既有專有的也有開源的,還有開放權重的。

企業喜歡在這個平台上構建,我們看到企業真的傾向於並希望在這一領域進行構建,因為這給了他們很多自主權,而這正是他們在構建應用時想要的。

Garman 認為:

AWS 們的工作是如何讓用户以緊密耦合的方式越來越容易地構建 AI 應用,從而更容易使用不同的組建,更容易快速創新,更容易從 AWS 數據湖中構建專有數據。坦白地説,如果你沒有有趣的數據,大多數這些生成 AI 系統都不會非常有用。

在使用生成性 AI 時,開發者需要在成本和延遲能力等方面做出權衡。大模型可能提供更復雜的功能,但可能成本更高,延遲更大;而小型模型可能更經濟,響應更快,但功能可能有限。而通過提供多種模型選項,AWS 允許用户根據特定需求選擇最合適的模型,而不是依賴於單一的模型。

在降低模型和芯片成本方面,亞馬遜取得一定進展,Jassy 表示,亞馬遜最先進的新模型基本上與 Anthropic(和 OpenAI )最新模型性能一樣強大,而且值得注意的是,它的價格比這些模型低三分之一以上。

Garman 表示,亞馬遜的新款 AI 芯片 Trainium 2 對 AI 開發者的價值遠高於 Nvidia 的旗艦 H100 芯片,他還表示 Anthropic 將使用大量 Trainium 芯片來開發未來的模型。