輝達持續深化軟體服務,開拓GPU之外的第二主戰場,24日宣布與美國大型電信商Equinix共同發表託管型人工智慧超級運算解決方案,除加深AI伺服器相關GPU晶片產品布局外,也積極搶占訂閱服務市場。
輝達強調,完全託管型NVIDIA AI超級運算服務,提供客戶在靠近其資料處操作其AI基礎設施。輝達執行長黃仁勳指出,生成式AI正在改變每個產業,現今世界各地企業都可以在全球數百個資料中心擁有NVIDIA AI超級運算和軟體,並結合Equinix管理提升營運效率。
黃仁勳近期抵台,再掀AI浪潮。這也讓外界關注到輝達H200/B100外,GB/GH 200次世代AI伺服器輪廓也逐漸清晰,加上輝達獨有多節點NV-Link通訊協定,將帶動伺服器架構全新改動,然而輝達尚未正式發布相關訊息,惟市場已高度期待次世代伺服器所帶來的超級運算實力與應用。
AWS將為首家配備多節點NVLink技術的廠商,將32顆GH200透過NVLink與NVSwitch相互連接,成為最佳GPU運算環境;業界預估,最多可擴充至數千台GH200,提供客戶訓練參數超過1兆個的大型語言模型。
此外,B100架構也傳出用台積電CoWoS-L設計;長期來看,CoWoS在整體晶片面積加大的趨勢下,各家業者也將持續投資先進封裝技術中。
業界人士分析,輝達GPU晶片隨台積電CoWoS產能開出逐步緩解,不少下游零組件供應商開始取得晶片,邁開伺服器組裝步伐,估計第一季便會有顯著營收貢獻。
2023年為輝達豐收的一年,台灣分公司將於25日舉行尾牙,黃仁勳親自出席,為今年營運暖身、再創高峰。供應鏈也透露,H200、B100箭在弦上,分別於上下半年問世;此外,次世代AI伺服器GH/GB 200整合CPU及GPU,晶片之間互聯採NVLink,速率提高達900GB/s,遠高於傳統PCIe,最快於第二季,就能看到GH200,並以MGX模組方式販售。