伴隨著網際網路軟體企業的雲端支出收緊,增長放緩逐漸成為雲端廠商頭頂的烏雲。
ChatGPT 的橫空出世打破了這一瓶頸,AI 將重塑軟體。雲端廠商的客戶——軟體公司正在積極地將大模型帶來的 AI 能力嵌入已有的工作流程,完成更高階的自動化。
在新增雲端客戶逐漸枯竭的情況下,軟體公司不再是為了上雲端而上雲端,而是力求用 AI 提高生產力。「這是未來十年雲端運算市場的最大增量。算力基礎設施是大模型的絕對紅利受益者。」
在這樣的前景下,幾大雲端服務巨頭——微軟、亞馬遜、谷歌、甲骨文迅速做出了改變。過去數月,雲端巨頭們砸下重金,研發大模型、戰略投資、自力研發 AI 晶片……大模型的時代方興未艾,他們已經瞄準了新一代的 AI 軟體客戶。
昔日的江山遠非牢不可破,雲端市場正在快速洗牌,巨頭們拉開了全新的競爭大幕。
畢竟,行動網路時代老大哥的沒落近在眼前,諾基亞幾年間從鼎盛時 70% 的手機市場佔有率到無人問津,只在做錯決策的一念之間。而對於大模型,雲端行業迅速形成共識:這次的 AI 絕非一個小變數,從行業一日千里的發展速度來看,當前領先的玩家也可能被甩在後面。
2023 年已經過去一半,本文將圍繞幾大雲端巨頭進行梳理,什麼是今天雲端廠商們競爭的關鍵?
研發 AI 專用晶片,不能把「命」全交給NVIDIA
大模型時代來臨以後,對雲端服務商而言,今天最稀缺的資源就是算力,或者說是 AI 晶片。投資最底層的基礎設施——AI 加速晶片,也成為今天雲端廠商競爭的第一個重點。
稀缺、昂貴,被認為是雲端廠商加快自力研發晶片的首要原因。連馬斯克這樣的科技圈權勢大咖都評價「這玩意(NVIDIA GPU)比藥品都難做」,並為自己的 AI 公司 X.AI 從NVIDIA買了一萬張顯示卡,還收了很多甲骨文的閒散股權。
這樣的稀缺程度,體現在雲端巨頭的業務上,直接對應著被掐住脖子帶來的業務損失。即便先下手為強的微軟,也被曝出由於 GPU 短缺,內部 AI 研發團隊實行 GPU 配給制度、各種新計畫延遲、新客戶上 Azure 要排隊數月等傳聞。
就連風險投資機構搶專案,都要靠手握NVIDIA晶片存貨。為了 NVIDIA顯示卡,各方力量到了「無所不用其極」的地步。
稀缺的另一個名字,叫昂貴。考慮到大模型對算力需求十數倍增加,卡只會更貴。雲端巨頭們的數萬張卡要繳納的「NVIDIA稅」只會是一個天文數字。
「命」懸在別人手裡的滋味好不好受,風頭最盛的微軟最有發言權。一個月前,The information 獨家報導,微軟成立 300 人的研發團隊加快自力研發 AI 晶片的步伐,代號為 Cascade 的伺服器晶片最快可能在明年推出。
不僅是因為被掐住脖子,雲端廠商自力研發晶片,還有另一層所指——GPU 並不一定是最適合跑 AI 的晶片,自力研發版本可能會最佳化特定的 AI 任務。
誠然,當前大多數先進的 AI 模型都由 GPU 提供動力,因為 GPU 比通用處理器更擅長運行機器學習的工作負載。但是,GPU 仍被視為通用晶片,不是真正為 AI 運算原生的處理平臺。正如遠川研究所《NVIDIA帝國的一道裂縫》指出的,GPU 不是為了訓練神經網路而生,人工智慧發展的越快,這些問題暴露得越多。靠 CUDA 和各種技術一個場景一個場景「魔改」是一種選擇,但不是最佳解。
亞馬遜、谷歌和微軟一直在開發被稱為 ASIC——專用積體電路的晶片,這些晶片更適合人工智慧。The Information 採訪多位晶片行業從業者和分析師得出,NVIDIA GPU 幫助訓練了 ChatGPT 背後的模型,但 ASIC 通常執行這些任務的速度更快,功耗更低。
如上圖所示:亞馬遜、微軟和谷歌均把晶片提升到了 in-house 自力研發的重要性程度,為資料中心部門開發兩種晶片:標準運算晶片和專門用於訓練和運行機器學習模型的晶片,這些模型可以為 ChatGPT 等聊天機器人提供支援。
當前,亞馬遜、谷歌已經為關鍵的內部產品開發了定製版 ASIC,並已經將這些晶片透過雲提供給客戶。微軟自 2019 年以來,也一直致力於開發定制 ASIC 晶片,來為大型語言模型提供動力。
據雲端客戶和微軟發表的性能資料,這些雲端提供商開發的一些晶片,比如亞馬遜的 Graviton 伺服器晶片、亞馬遜和谷歌發表的 AI 專用晶片,已經在性能上與傳統晶片製造商的晶片相媲美。谷歌 TPU v4 比NVIDIA A100 運算速度快 1.2——1.7 倍,同時功耗降低 1.3——1.9 倍。
戰略投資競賽:巨頭花錢「買客戶」
除了研發晶片,海外幾大雲端巨頭競爭的第二個關鍵點,就是對外戰略投資,搶 AI 客戶和 AI 專案。
相比風險投資,巨頭們的戰投占絕對優勢。OpenAI 和微軟的聯手作為絕佳範本,開啟了大模型和戰投牽手的先河。這是因為大模型及相關應用所需的資源壁壘極高,只有錢,有限的錢,根本不足以搶到 AI 項目。畢竟,谷歌、微軟、AWS、甲骨文或NVIDIA不止可以開出巨額支票,還可以提供雲端積分和 GPU 等稀缺資源。
從這個角度看,搶專案、搶客戶都發生在雲端巨頭之間,沒有其他對手。他們正在開展一場新的遊戲——尋求 AI 公司的承諾:將使用他們的雲端服務而不是競爭對手的。
微軟坐擁 OpenAI 獨家雲端服務提供者的位置,為 OpenAI 支付巨額雲端帳單的同時,換得 OpenAI 的股權和產品的優先使用權等一系列讓人豔羨的權益。
微軟的競爭對手們也在爭先恐後地贏得其他AI客戶的支援。這些雲端供應商為 AI 公司提供了大幅折扣和信貸(credits),以贏得他們的業務。有批評的聲音指出,這類似於購買客戶,儘管在未來或當前客戶中持有股權的做法在企業軟體領域並不少見。
據 The Information 早先報導,甲骨文也曾提供價值數十萬美元的運算積分,作為 AI 初創公司租用甲骨文雲端端伺服器的激勵措施。
谷歌可能是這幾大雲端廠商中行動最積極一個,為 AI 初創公司提供現金和谷歌雲積分的組合,來換取股權。今年早些時候,谷歌向 Anthropic 投資了 4 億美元,Anthropic 是 OpenAI 的主要創業挑戰者之一。谷歌雲在二月份表示,已成為 Anthropic 的「首選」雲端供應商。
近日,谷歌向「文生視頻」領域的 AI 公司 Runway 投資 1 億美元。但在這之前,亞馬遜 AWS 將 Runway 吹捧為關鍵的 AI 初創企業客戶。今年三月,AWS 與 Runway 宣布建立長期戰略合作夥伴關係,成為其「首選雲提供商」。現在,Runway 似乎是谷歌與亞馬遜對決的「棋子」之一,因為 Runway 也有望從谷歌租用雲端伺服器。
更早時候,谷歌雲還宣布與另外兩家當紅 AI 公司建立合作關係,分別是:文生圖領域的 Midjourney 和聊天機器人 App Character.ai,而後者以前是甲骨文的關鍵雲端客戶。
這些交易是否有助於谷歌趕上更大的雲端運算競爭對手——AWS 和微軟,現在下判斷還為時過早,但是,谷歌雲端攻勢洶洶。
在 The information 資料庫的 75 家(AI)軟體公司裡,谷歌至少為 17 家公司提供了一些雲端服務,比其他任何雲端供應商都多。亞馬遜緊隨其後,至少有 15 家公司使用 AWS 進行雲端運算。微軟和甲骨文則分別向六家公司和四家公司提供雲端服務。當然,使用多家雲也是業內的習慣,這 75 家公司中至少有 12 家混合使用多家雲端供應商。
大模型,才是左右勝負的真正關鍵
算力和戰投,是這場雲端戰爭早期必爭的高地。但從長遠來看,大模型才是左右市場競爭勝負的真正關鍵。
微軟能成為領先者,與 OpenAI 的合作功不可沒,再加上微軟團隊出色的工程化能力,幾個月內就將 GPT-4 嵌入了微軟的所有產品中。過去半年,微軟先利用 OpenAI 產品的優先使用權、企業軟體產品降價搶佔了更多的雲端市場。再依靠升級為 Microsoft 365 Copilot 的產品線漲價,獲得更大的營收。
據調查,微軟底層模型基本依賴 OpenAI,而在接入大模型後,微軟開始以更低的價格打包出售 Teams、Power BI、Azure 等應用層產品。
微軟首席財務長艾米·胡德(Amy Hood)在四月份告訴投資者,隨著越來越多的人開始使用 OpenAI 的服務,OpenAI 將為 Azure 帶來收入。
最新報導表明,微軟向部分 Office 365 客戶收取 40% 的額外費用以測試 AI 功能——可自動執行在 Word 文件中編寫文本和創建 PowerPoint 幻燈片等任務,至少 100 家客戶已經支付了最多 10 萬美元的固定費用。資料表明,推出不到一個月,微軟從 Microsoft 365 Copilot 的 AI 功能中獲得超過 6000 萬美元的收入。
與微軟形成鮮明對比的是,曾經的領先者亞馬遜雲,在大模型上一步落後而步步落後,今天正面臨更嚴峻的挑戰。
AWS 曾是 AI 雲端服務的早期開發商,從 2016 年左右就有布局。但客戶並不認為這些服務非常有用,包括臉部辨識、將文字轉換為逼真的語音,以及用於客戶服務等任務的原始形式的聊天機器人等。AWS 還曾在 2017 年推出面向工程師群體使用的 AI 數位工具 SagaMaker,可説明他們開發和使用機器學習模型,這也一度成為 AWS 最主要的 AI 產品。
但此後幾年 AWS 的 AI 產品沒能跟上大語言模型的浪潮,自 2021 年 11 月以來,微軟開始銷售基於 GPT 系列模型開發的 AI 產品,供企業客戶使用。與此同時,谷歌也搶了主要的人工智慧初創公司作為雲端客戶,並向其雲端客戶銷售專有的人工智慧軟體。即使是雲端運算的落後者甲骨文,在為 AI 初創公司提供運算資源方面,也有自己的優勢。
後知後覺的 AWS 正在努力迎頭趕上。4 月,它宣布了一項雲端服務,客戶可以將 Stability、Anthropic 和 AI 21 Labs 的大模型作為底座整合到他們自己的產品裡。作為回報,AWS 會拿出一部分的收入與這些合作夥伴分享。
谷歌則是先發後至。作為大模型領域積累最深的大廠,谷歌在 ChatGPT 發表後的反應不可謂不快,很快就發表了對話式智慧型機器人 Bard 和新一代大語言模型 PaLM 2 作為回應,結果發表後上直接翻車,後續的產品發表速度也不理想,與微軟強大的工程化能力形成了鮮明的對比。
最後值得一提的,是很早就跌出雲端市場前列的甲骨文,卻意外在這波熱潮中有逆襲的趨勢。
甲骨文在雲端領域長期處於落後地位,但在將雲端伺服器租給與 OpenAI 競爭的知名 AI 初創公司方面取得了驚人的成功。據 The Information 報導,部分原因是甲骨文雲端可以比亞馬遜網路服務或谷歌雲更經濟地運行複雜的機器學習模型。
甲骨文雲端切入 AI 領域的方法似乎與 AWS 類似,AWS 開發了自己的 AI 軟體以銷售給客戶,但也將出售對開源 AI 軟體以及其他 AI 開發商產品的造訪權。
此外,一部分知情人士透露,甲骨文已經開始測試 OpenAI 的產品,以豐富其面向企業端客戶的產品線,包括人力資源和供應鏈管理軟體,不過甲骨文更有可能為此開發自己的軟體,未來的 AI 功能可以説明甲骨文客戶快速產生職位描述並安排招聘人員和候選人之間的會議,不過該公司仍在決定首先改進哪些產品。
加入電腦王Facebook粉絲團