OCP Conference Focus: Manufacturing and packaging have significantly expanded production, AI chip bottlenecks have shifted downstream, including memory, racks, power, etc

華爾街見聞
2025.10.21 04:06
portai
I'm PortAI, I can summarize articles.

摩根士丹利研報指出芯片製造和封裝環節通過大規模擴產,已不再是制約 AI 發展的核心矛盾。真正瓶頸轉移至數據中心電力、液冷、HBM 內存、機架和光模塊等基礎設施。投資機會從晶圓代工擴散至下游供應鏈,擁有電力和空間資源的數據中心將在 AI 算力競賽中佔據優勢。

本文作者:鮑奕龍

來源:硬 AI

2026 年 AI 半導體行業將迎來又一強勁增長年,但 AI 硬件領域的投資邏輯正在發生深刻轉變。

10 月 20 日,摩根士丹利研報指出,過去兩年,市場焦點一直集中在台積電的 CoWoS 封裝和先進製程等上游產能瓶頸上。

然而,根據英偉達、台積電的最新表態以及 2025 年 OCP 大會釋放的信號,這一局面已經改變。芯片製造和封裝環節通過大規模擴產,已不再是制約 AI 發展的核心矛盾。

摩根士丹利強調真正的瓶頸正在向下遊轉移,集中在數據中心空間、電力供應、液體冷卻、高帶寬內存(HBM)、服務器機架和光模塊等配套基礎設施上

研報認為,這意味着投資機會正從上游的晶圓代工和封裝,擴散至更為廣闊的下游供應鏈。未來,無法獲得充足電力和物理空間的數據中心,將成為 AI 算力競賽中的掉隊者。

上游產能不再是唯一瓶頸,芯片製造與封裝已大幅擴張

曾幾何時,市場對 AI 芯片能否足量供應充滿疑慮,而台積電的 CoWoS 先進封裝能力被視為關鍵瓶頸。然而,最新的行業動態顯示,這一情況已大為改觀。

台積電在其近期財報會議上透露,“AI 需求比我們三個月前想象的還要強勁”,公司正努力 “縮小供需差距”。重要的是,台積電表示其擴充 CoWoS 產能的前置時間僅需 6 個月,這給予了供應端極大的靈活性。

儘管其 4nm 和 3nm 等先進節點的晶圓前端產能依然緊張,但 AI 半導體顯然擁有比加密貨幣 ASIC 或安卓智能手機 SoC 更高的優先級。

英偉達 CEO 黃仁勳也在近期的交流中明確表示,半導體產能已不再是過去那樣的限制因素。經歷了幾年前的需求激增後,整個供應鏈的製造和封裝環節已經 “實現了大幅擴張”,公司有信心滿足客户需求。

綜合來看,雖然總需求持續高速增長,報告預測 2026 年全球 CoWoS 總需求將達到 115.4 萬片晶圓,同比增長 70%,但供應端的快速響應能力已顯著增強。

瓶頸轉移,下游基礎設施成為新的挑戰

當芯片供應不再是最大難題時,瓶頸自然向下遊轉移。

英偉達指出,當前更大的制約來自數據中心空間、電力和配套基礎設施的可用性,而這些領域的建設週期遠長於芯片製造

OCP 大會的內容也印證了這一趨勢。隨着 AI 集羣規模邁向 “十萬級 GPU”,整個數據中心的設計理念正在被重塑:

電力與散熱:

  • 大規模 GPU 集羣的部署意味着巨大的電力消耗和散熱挑戰。OCP 大會上,液冷已成為新 AI 機架的默認配置,而高壓直流(HVDC 800V)等供電方案的需求也日益增長。
  • 這使得像 Aspeed 這樣的公司受益,其 BMC(基板管理控制器)不僅用於服務器,還擴展到了包括冷卻在內的多種設備上。

存儲與內存:

  • AI 工作負載對數據存儲和訪問速度提出了極致要求。Meta 明確表示,出於成本考慮,其數據中心將優先採用 QLC NAND 閃存。與此同時,希捷提到,HDD(機械硬盤)仍將保持 95% 的容量在線,以滿足大型和遠程數據中心的需求。
  • 更關鍵的是,對 HBM(高帶寬內存)的需求正呈爆炸式增長,報告預測,到 2026 年,全球 HBM 消耗量將高達 260 億 GB,其中英偉達一家就將消耗 54% 的份額。這種高度集中的強勁需求,使得 HBM 的供應成為影響 AI 服務器出貨的關鍵變量。

機架與網絡:

  • 為了實現超大規模部署,OCP 推出了 “AI 開放數據中心” 和 “AI 開放集羣設計” 等標準化藍圖,涵蓋機架、液冷、電源接口等。
  • 在網絡方面,阿里巴巴表示可插拔光模塊(Pluggable Optics)因其總擁有成本和靈活性依然是首選,而 LPO(線性驅動可插拔光模塊)等技術也正獲得關注。
  • CPO/NPO(共封裝/近封裝光學)預計將在 2028 年隨着製造工藝成熟而實現。

需求預測預示下游組件迎來爆發式增長

下游基礎設施的重要性,可以從需求預測數據中得到驗證。

摩根士丹利的分析師預計,2026 年全球雲服務資本支出將同比增長 31%,達到 5820 億美元,遠高於市場普遍預期的 16%。

此外如果假設 AI 服務器在資本支出中的佔比提升,這意味着 2026 年 AI 服務器的資本支出可能實現約 70% 的同比增長。

從需求端看,各大 AI 巨頭仍在瘋狂 “囤貨”。報告詳細拆解了 2026 年的 AI 芯片需求:

  • CoWoS 產能消耗:英偉達預計將佔據 59% 的份額,其次是博通(18%)、AMD(9%)和 AWS(6%)。
  • AI 計算晶圓消耗:英偉達以 55% 的份額遙遙領先,其次是谷歌(22%)、AMD(6%)和 AWS(6%)。

總結而言,OCP 大會傳遞出的信號與產業鏈數據交叉驗證,清晰地指明瞭 AI 硬件投資的新方向。在芯片製造和封裝環節的產能瓶頸逐步打開後,市場的焦點必然會轉向那些支撐超大規模 AI 計算的基礎設施。

研報認為對於投資者來説,這意味着需要將視野從單一的芯片公司,擴展到整個數據中心生態系統,尋找在電力、散熱、存儲、內存和網絡等下游環節具備核心競爭力的 “賣鏟人”。