據彭博社消息,OpenAI CEO 山姆‧阿特曼(Sam Altman)近日再次為一家人工智慧晶片企業籌集了數十億美元的資金,希望建立一個範圍覆蓋全球的晶圓廠「企業網路(network of factories)」,並計畫與未具名的頂級晶片製造商合作。
報導稱,阿特曼已與幾家大型潛在投資者進行了談判,希望能籌集到晶圓廠所需的巨額資金。
在生成式 AI 快速爆發的時代,運行 AI 模型面臨的主要困難是算力限制。在 ChatGPT 、 DALL-E 等生成式 AI 模型的背後,研究者們投入了大量的算力資源和時間。隨著各大公司、研究機構對 AI 晶片需求的持續上升,晶片巨頭NVIDIA的價值更是水漲船高,去年市值首次突破 1 兆美元,部分原因是它在晶片行業的壟斷地位 —— 眾所周知,GPT-4、Gemini、Llama 2 和其他模型嚴重依賴 H100 GPU。
日趨旺盛的高性能 AI 晶片需求正在催生出一些新的晶片創業公司。然而在更上游的位置,高階晶片的晶圓廠數量也是有限的,這促使微軟、Meta 這樣的公司需要提前數年預定產能,才能獲得足夠的新型晶片。而要與科技巨頭公司競爭,就需要大量資金來承擔費用,這是 OpenAI 所不具備的。
據報導,軟銀集團和總部位於阿布達比的人工智慧控股公司 G42 已經在討論為阿特曼的項目籌集資金的事宜。但談判仍處於早期階段,參與合作夥伴和資助者的完整名單尚未確定。
其他開發 AI 模型的公司也開始嘗試製造自己的晶片。OpenAI 的主要投資者微軟就是其中一個,該公司於去年 11 月宣佈開始製造客製化晶片 —— 而且它們都與人工智慧有關。
由於對NVIDIA H100 GPU 的需求激增,微軟的自研替代品 Azure Maia AI 晶片和 Arm 架構的 Azure Cobalt CPU 將於今年上市,該 GPU 將廣泛用於生成圖像工具和大型語言模型。當前,H100 GPU 持續處於供不應求的狀態,以至於有些 GPU 在 eBay 上的售價甚至超過了 4 萬美元。
緊隨其後,亞馬遜發表了新版本的 Trainium 晶片,該晶片旨在構建和運行人工智慧應用程式。
此外,還有Google的晶片設計團隊正在使用運行在Google雲端伺服器上的 DeepMind AI 來設計其張量處理單元(TPU)等人工智慧處理器。
與此同時,AWS、Azure 和Google也使用NVIDIA的 H100 處理器。本周,Meta 首席執行長馬克‧祖克柏說,「Meta 將購買超過 35 萬塊NVIDIA的 H100 GPU」,致力於開發通用人工智慧,以驅動計畫中的下一代智慧型服務。
有第三方廠商投資機構的研究估算,NVIDIA面向 Meta 的 H100 出貨量在 2023 年能達到 15 萬張,這個數字與向微軟的出貨量持平,並且至少是其他公司的三倍。祖克柏表示,如果算上NVIDIA A100 和其他人工智慧晶片,到 2024 年底,Meta 的 GPU 算力將達到等效近 60 萬張 H100。
面向生成式 AI 的運算,NVIDIA已經發表了下一代 GH200 Grace Hopper 晶片,以擴大其在該領域的主導地位,而競爭對手 AMD、高通和Intel也推出了旨在為筆記型電腦、手機和其他設備上運行的人工智慧模型提供支援的處理器。
資料來源:
- OpenAI CEO Sam Altman is still chasing billions to build AI chips
- Microsoft is finally making custom chips — and they’re all about AI