最近,美股又誕生了一家萬億美金市值的公司——博通。
博通目前已成為全球大型AI數(shù)據(jù)中心以太網(wǎng)交換機芯片,以及AI硬件領(lǐng)域ASIC定制化AI芯片的最核心供應(yīng)力量之一,自2023年以來成為人工智能投資浪潮的核心市場焦點,其投資熱度僅次于AI芯片霸主英偉達。
之所以其市值突破萬億美元,主要是其公布了一份好于預(yù)期的第四財季財報,不僅盈利表現(xiàn)好于預(yù)期,而且博通今年人工智能收入增長了兩倍多。博通財報顯示,在截至11月3日的第四財季內(nèi),博通調(diào)整后每股盈利1.42美元,好于預(yù)期1.38美元;博通收入140.5億美元,較去年同期的93億美元增長51%。略低于預(yù)期的140.9億美元。該公司第四季度凈利潤為43.2億美元,合每股0.90美元,較上年同期的35.2億美元和每股0.83美元增長23%。
博通預(yù)計下一財季收入146億美元,略好于分析師平均預(yù)期145.7億美元。其CEO陳福陽還透露,博通正在與三家大型云客戶開發(fā)定制AI芯片。
01
AI芯片路線之爭:ASIC還是GPU
博通在包括人工智能芯片在內(nèi)的半導(dǎo)體解決方案部門,營收從一年前的80.3億美元增長了12%,至82.3億美元。也就是說,博通營收增長主要得益于AI芯片相關(guān)業(yè)務(wù)。
AI芯片,也被稱為AI加速器或智能芯片,是一種專為高效運行人工智能算法而設(shè)計的特殊處理器。這種芯片基于人工神經(jīng)網(wǎng)絡(luò)模型,模擬生物神經(jīng)元的工作機制,通過大量的處理單元進行并行計算,以實現(xiàn)復(fù)雜的數(shù)學(xué)運算和數(shù)據(jù)處理。而說到AI芯片,絕大部分人的第一印象是英偉達的GPU。實際上,主流AI芯片主要分為三類:以GPU為代表的通用芯片、以ASIC定制化為代表的專用芯片以及以FPGA為代表的半定制化芯片。其中最受關(guān)注的莫過于ASIC和GPU兩種技術(shù)路線。
GPU(Graphics Processing Unit)芯片即圖形處理器,是顯卡的核心,主要擅長做圖像和圖形相關(guān)運算工作,其特點是具有強大的并行計算能力和高速的數(shù)據(jù)處理能力,擅長處理計算密度大,數(shù)據(jù)間相關(guān)性小的并行計算。這主要得益于GPU在設(shè)計時給計算單元分配了更多區(qū)域。這樣可以為并行計算的每個數(shù)據(jù)單元執(zhí)行相同程序,不需要繁瑣的流程控制而提高計算能力。近年來,GPU芯片還廣泛應(yīng)用于機器學(xué)習(xí)算法和深度學(xué)習(xí)算法的開發(fā)中,其強大的并行處理能力使其成為機器學(xué)習(xí)算法和深度學(xué)習(xí)算法開發(fā)的主要處理器,并極大簡化了復(fù)雜數(shù)據(jù)處理流程。
從計算能力上看,GPU芯片在大數(shù)據(jù)處理和并行計算方面表現(xiàn)出色。然而,GPU芯片也存在一些局限性。例如,在功耗方面,GPU芯片的功耗相對較高,這對于一些對功耗要求較高的應(yīng)用場景來說可能是一個問題。此外,GPU芯片的內(nèi)部結(jié)構(gòu)相對復(fù)雜,包含了大量其他邏輯來實現(xiàn)其他功能,這些邏輯對于AI算法來說可能并不完全有用,從而在一定程度上影響了AI算法的執(zhí)行效率。
在此情況下,ASIC被納入視野。ASIC(Application-Specific Integrated Circuit),即應(yīng)用特定集成電路,在集成電路界被認為是一種為專門目的而設(shè)計的集成電路。ASIC在批量生產(chǎn)時與GPU等通用集成電路相比具有體積更小、功耗更低、可靠性提高、性能提高、保密性增強、成本降低等優(yōu)點。
隨著生成式AI應(yīng)用的迅猛發(fā)展,AI ASIC芯片能否成為英偉達GPU芯片可⾏的替代品⼀直是業(yè)內(nèi)熱議話題。而摩根士丹利認為,盡管面臨英偉達GPU的競爭,AI ASIC的市場仍將繼續(xù)擴張。大摩分析師表示,ASIC市場規(guī)模將繼續(xù)增長,預(yù)計在2024—2027年期間,AI ASIC市場規(guī)模將從120億美元增長至300億美元,年復(fù)合增長率達到34%,其中3nm項目將成為關(guān)鍵競爭領(lǐng)域。
研究機構(gòu)Rosenblatt也預(yù)計,隨著其他科技巨頭的突破,客戶定制化的AI ASIC的增速預(yù)計將超過GPU計算。
02
英偉達AI GPU最強勁對手
作為AI芯片的龍頭企業(yè),英偉達的AI生態(tài)擁有三大王牌,GPU、CUDA和NVLINK。
CUDA是英偉達公司設(shè)計研發(fā)一種并行計算平臺和編程模型,包含了CUDA指令集架構(gòu)以及GPU內(nèi)部的并行計算引擎。開發(fā)人員可以使用C語言來為CUDA架構(gòu)編寫程序,所編寫出的程序可以在支持CUDA的處理器上以超高性能運行。
而NVLink則是英偉達開發(fā)并推出的一種總線及其通信協(xié)議。NVLink采用點對點結(jié)構(gòu)、串列傳輸,用于CPU與GPU之間的連接,也可用于多個GPU之間的相互連接。當(dāng)前配備并使用NVLink的產(chǎn)品業(yè)已發(fā)布,多為針對高性能運算應(yīng)用領(lǐng)域,比如英偉達的Tesla P100運算卡、H100等。NV LINK在優(yōu)化GPU與CPU之間的數(shù)據(jù)交換,增強系統(tǒng)的靈活性與擴展性,提高系統(tǒng)的能效比上,都具備強有力的競爭能力。
而NVLink的成功主要得益于2019 年以 69 億美元的巨額資金收購了以色列芯片廠商邁絡(luò)思(Mellanox)科技有限公司。在高速以太網(wǎng)卡、網(wǎng)絡(luò)互聯(lián)設(shè)備等市場,邁絡(luò)思處于全球第一梯隊,在InfiniBand領(lǐng)域的占有率接近70%。收購?fù)瓿芍螅ミ_將自己原有的NV Link協(xié)議和邁洛思的網(wǎng)卡芯片做了整合,從而在生態(tài)上完成了高度融合。比如,NVLink經(jīng)常用于GPU卡間互聯(lián),以提高計算任務(wù)的性能;而 InfiniBand則負責(zé)連接數(shù)據(jù)中心內(nèi)的通用服務(wù)器節(jié)點、存儲設(shè)備等,以實現(xiàn)整個系統(tǒng)的高效運行。
英偉達因其先發(fā)優(yōu)勢和三大王牌,在AI芯片領(lǐng)域穩(wěn)坐頭把交椅。但如今英偉達最強勁的競爭對手已經(jīng)出現(xiàn)。
博通設(shè)計并銷售的芯片中,雖然沒有GPU和NVlink,但博通卻擁有很多確保GPU正常通信的高速連接芯片,比如Switch,類似的芯片博通在全球市場份額中占有近半數(shù)的市場份額,由于其設(shè)計的難度比較高,價格比較貴,利潤也自然豐厚。
此外,博通也擁有芯片設(shè)計服務(wù)能力。憑借多年在芯片定制領(lǐng)域的積累,博通擁有豐富的芯片設(shè)計IP。這也使得博通可以通過為客戶設(shè)計ASIC芯片和英偉達的GPU競爭。因為采用的是ASIC的方案,不需要和英偉達GPU一樣實現(xiàn)通用計算能力,只需要跑通客戶的算法,系統(tǒng)和模型足矣,自然也避開了CUDA生態(tài)。實際上博通已經(jīng)幫谷歌這類互聯(lián)網(wǎng)大廠開發(fā)了一款專用AI ASIC,即谷歌的TPU。
市場調(diào)研機構(gòu)Omdia的最新研究結(jié)果強調(diào)了對谷歌張量處理單元 (TPU)AI芯片的需求正在快速增長,這一趨勢可能足以開始削弱 NVIDIA 在 GPU 領(lǐng)域的市場主導(dǎo)地位。博通CEO一再上調(diào)他的 AI 芯片收入目標至 120 億美元;诖,據(jù)估計,谷歌的 TPU 可能占 60 億美元到 90 億美元之間,具體取決于計算和網(wǎng)絡(luò)設(shè)備之間的細分。這個數(shù)字包括大量 Meta 的 MTIA 芯片,以及2025年將新增的一個神秘的第三個客戶的項目。
分析師指出,“盡管計算設(shè)備和網(wǎng)絡(luò)設(shè)備的具體比例存在一些不確定性,但即使按照較低的60億美元估計,TPU出貨量的增長速度也足以首次從英偉達手中搶占市場份額。值得注意的是,谷歌云業(yè)務(wù)在總收入中占比持續(xù)增長,盈利也在不斷提升。這可能表明TPU加速實例和基于TPU的AI產(chǎn)品在發(fā)揮作用!
ASIC正在加速崛起,威脅GPU在AI計算中的統(tǒng)治地位。得益于此,博通作為ASIC最重要的概念股,股價一路猛漲,一度從180飆到了250,市值也突破了萬億美元。相比之下,英偉達反而成了昨日黃花,股價一路下跌,甚至不到130美元。
03
百萬算力集群大戰(zhàn)來襲
目前,基于GPU和ASIC的算力集群正邁向百萬算力卡的集群大戰(zhàn)。
馬斯克宣布,計劃將xAI的Colossus AI超級計算機從目前的10萬個GPU擴展到100萬個,這無疑引發(fā)了業(yè)界的廣泛關(guān)注,從而超越谷歌、OpenAI 和 Anthropic 等競爭對手。不過,xAI并非唯一一家擁有如此宏偉計劃的企業(yè)。
博通CEO在2024財年Q4財報電話會議上表示:“我們目前有三家超大規(guī)?蛻簦麄円呀(jīng)制定了自己的多代AI XPU路線圖,計劃在未來三年內(nèi)以不同速度部署。我們相信,到2027年,他們每家都計劃在單一架構(gòu)上部署100萬XPU集群。”
博通為包括谷歌、Meta在內(nèi)的多家科技巨頭開發(fā)AI、定制數(shù)據(jù)中心硬件芯片等。公司與客戶合作確定工作負載需求,如AI訓(xùn)練、推理或數(shù)據(jù)處理,然后定義芯片規(guī)格并開發(fā)關(guān)鍵差異化方面。博通負責(zé)將架構(gòu)實現(xiàn)為硅片,并配備平臺特定的IP、緩存、芯片間互連和接口。這些高性能XPU由臺積電(TSMC)制造。
如今博通和英偉達的AI芯片大戰(zhàn)正愈演愈烈。
04
轉(zhuǎn)機出現(xiàn),博通未來可期
資料顯示,到2027年,其人工智能芯片以及人工智能網(wǎng)絡(luò)部件的總市場機會可能在600億至900億美元之間。
雖然AI芯片市場很大,但一直以來都被英偉達所把控。不過2024年英偉達卻流年不利,最近轉(zhuǎn)機來了。
首先是英偉達新的GPU頻頻延期。根據(jù)The Information的一份新報告,英偉達已向其部分合作伙伴透露,原定的Blackwell GPU發(fā)布計劃將推遲,目前目標鎖定在2025年初。推遲發(fā)布雖在意料之外,但背后的原因——設(shè)計缺陷,更令人憂心。隨著新一代GPU的交付推遲,AI產(chǎn)業(yè)的用戶體驗將受到影響。各大公司在部署基于此技術(shù)的應(yīng)用時,面臨項目進度延誤的風(fēng)險。
此外,天風(fēng)證券分析師郭明錤發(fā)布的最新投資研究報告表示,英偉達正為其明年即將推出的B300和GB300開發(fā)測試DrMOS技術(shù),但其中發(fā)現(xiàn)AOS(Alpha and Omega Semiconductor Limited) 的5×5 DrMOS 芯片存在嚴重過熱問題。如果這個的問題不能快速解決,則可能影響系統(tǒng)量產(chǎn)進度,并改變市場對AOS訂單的預(yù)期。
另一方面,當(dāng)前博通的ASIC客戶已經(jīng)實現(xiàn)量產(chǎn)的是谷歌和meta,其中最大部分來自于谷歌。公司的AI收入和谷歌的資本開支有較強的相關(guān)度。另外,結(jié)合公司認為2024財年150-200億美元的可服務(wù)市場規(guī)?,復(fù)合增速將達到50%以上,這為市場信心再次注入了“強心劑”。