生成式AI與大語言模型運算需求持續擴張,雲端算力競局再度升溫。因應谷歌(Google)自研晶片TPU訂單動能強勁,供應鏈透露,博通、聯發科紛紛調高2026年投片量。半導體業界指出,聯發科已在內部進行資源調度,將手機晶片部門部分人力,轉往ASIC、車用等新藍海,目標直指資料中心與CSP客製化晶片商機。
TPU挾成本及生態系優勢,挑戰輝達AI霸主地位。法人指出,谷歌TPU 2026年將邁入第八代、第三季開始量產,規模有望在2027年達500萬顆、2028年進一步提高至700萬顆,較先前大幅上修。ASIC夥伴包括博通、聯發科皆積極為其準備產能。
業者透露,聯發科原先ASIC部門,即已取得汽車、電信安全SoC等實績,惟相較過往成熟製程,谷歌TPU一舉將難度拉升至3奈米,因此,內部資源陸續挪移,從手機晶片部門招兵買馬,組件千人規模的客製化IC團隊。
聯發科能在雲端ASIC市場站穩腳跟,核心關鍵在於其長期累積的SerDes(序列器/解序列器)技術實力,是高速運算晶片不可或缺的關鍵IP,直接影響晶片之間與記憶體之間的傳輸效率,也是AI加速器晶片能否有效擴展的基礎。
聯發科現行112Gb/s SerDes DSP採PAM-4接收架構,在4奈米製程可實現超過52dB的損耗補償能力,仍能維持低訊號衰減與高抗干擾特性,對資料中心與先進封裝架構尤為關鍵。聯發科專為資料中心應用打造的224G SerDes,並完成矽驗證(silicon proven),技術成熟度獲業界高度關注。
法人分析,聯發科「調轉槍頭」,不僅是人力與資源重新配置,更象徵成長引擎結構性轉變,雲端AI、資料中心與ASIC,將成為中長期最具爆發力的應用場景。
聯發科副董事長暨執行長蔡力行指出,首個ASIC案件進展順利,預計2026年貢獻營收約10億美元,2027年放大至數十億美元,第二個專案則從2028年挹注營收。供應鏈推測,第二個CSP客戶為Meta,並將採用2奈米製程打造,凸顯聯發科已具備與國際大廠比拚肌肉的能力。