路透引述消息報導,OpenAI近年對輝達部分最新AI晶片的表現並非全然滿意,已自去年起接觸包括超微在內的替代供應商,尋求在特定運算場景,特別是AI推論領域引入不同晶片架構。此一動向正值OpenAI與輝達進行投資與合作談判之際,令外界揣測雙方關係可能出現變化。
消息稱,OpenAI近來內部策略調整,有部分是因為產品重心逐漸轉向即時回應使用者請求。相較於訓練大型AI模型,推論運算更依賴高速記憶體存取,以縮短回應時間。知情人士表示,OpenAI認為輝達GPU在編寫程式及與其他系統互動等應用場景的「回應速度」不夠快,未來可能需要新的硬體來補足約一成的推論運算需求。
為此,OpenAI除了與超微約定GPU合作,也曾與Cerebras、Groq等新創業者接洽,評估採用內建大量SRAM記憶體以提升推論效率的晶片設計。但輝達隨後與Groq簽署高額技術授權協議,導致OpenAI與Groq的合作洽談破局。
輝達執行長黃仁勳日前表示,有關輝達與OpenAI之間出現摩擦的說法「毫無根據」,並強調輝達仍計劃對OpenAI進行大規模投資。
輝達也在聲明中指出:「客戶持續選擇輝達作為推論運算平台,因為我們在大規模應用下,能提供最佳效能與總體擁有成本。」
OpenAI執行長奧特曼(Sam Altman)也親自於社群平台X發文回應,稱輝達製造「世界上最好的AI晶片」,並表示OpenAI預期在未來很長一段時間內,仍會是輝達的「超級大客戶」。
不過,奧特曼先前確實曾說過使用OpenAI程式碼模型Codex的企業客戶,對速度格外敏感。他表示這正是OpenAI與Cerebras展開合作的原因之一,但他也坦言對一般ChatGPT使用者而言,速度並非唯一考量。