2021 年底,回顧今年的智慧型手機發展趨勢,你會想到哪些關鍵字呢?
如果是從手機硬體來講,或許更多人會第一個想到的,會是關於「自主研發晶片」在 2021 年的井噴式爆發:不僅有小米旗下的澎湃處理器時隔四年歸來,發布搭載在 MIX FOLD 的澎湃 C1 ISP 晶片;vivo 首顆 ISP 晶片 vivo V1 也已經在 X70 系列上亮相;到了十月,還有 Google 首款搭載自主研發 SoC —— Tensor Chip 的 Pixel 6 系列正式發布。
從手機體驗的角度,「自主研發處理器」或許在今年沒有掀起太高的話題度:除了 Google 發布的算是實實在在的 SoC 之外,小米與 vivo 都只是在自家一款新機上應用了定位服務手機影像功能的 ISP 晶片;但這仍然很有可能,會是未來 5-10 年手機廠商在硬體研發上的一個重要趨勢。
為什麼會有這樣的結論,或許我們能從目前 Google 自主研發 SoC 的進度中,找到關於這個問題的答案。
自主研發晶片這件事
早在 Pixel 6 系列發布之前,從很多消息來源我們就已經得知,Google 的這款 SoC 無論是從 CPU 還是在 SoC 整體架構上都選擇了非常「特立獨行」的設計,雖然這倒是 Google 在硬體設計上的一貫風格,但外界其實一直對 Google 在具體的晶片設計上做出的取捨瞭解甚少。
在發布數周之後,Google 內部晶片研發部門 Google Silicon 副總裁兼總經理 Phil Carmack 接受了外媒 arsTECHNICA 的採訪,披露了很多關於 Google 在自主研發 SoC 上做出取捨的思考。
今年旗艦 SoC 架構中,包括用於 Galaxy S21 系列所採用的 Exynos 2100,以及今年絕大部分Android旗艦手機都搭載的高通驍龍 888,採用的都是「1+3+4」核心設計方案:即 CPU 由一顆 Cortex-X1 大核心、三顆 A78 中核心以及四顆 A55 小核心的組成,這也是 ARM 在授權晶片廠商時給出的指導設計。
當然,這套「公版設計」也並非萬用靈藥:比如今年高通今年發布的新旗艦 SoC 驍龍 888 ,就因為這顆 2.84GHz 的 X1 大核心欠缺更多的調校,讓今年搭載 888 的旗艦在上市早期或多或少都出現了功耗/散熱異常的問題。
但在 Google Tensor 的 CPU 架構設計上,Google 卻反其道而行之,不僅沒有避開這個雷區,反而選擇在 CPU 架構上加入兩顆 Cortex-X1 大核,與其餘兩顆 A76 中核、四顆 A55 小核一起構成 Tensor Chip 的 CPU 架構陣容。
針對軟體,定制硬體
「這一切都歸結於你想要完成的任務」。
關於晶片架構的設計,Google 內部晶片研發部門副總裁 Carmack 在接受採訪時表示:與其為了讓 CPU 獲得更高的單執行緒基準測試分數(俗稱「跑分」),搭載一個頻率更高的大核心,不如用兩顆頻率略微降度的大核心,來獲得實際使用中更快的回應速度。
「(Google Tensor)單核性能比上一代產品快 80%;GPU 性能比上一代產品快 370%。使用者經常最關心這些書面資料,但對我們來說,這從來不是真正的重點」。Carmack 解釋道:現實使用場景並不會像跑分一樣,往往需要面臨複雜得多的性能調度場景:例如在你打開相機準備拍照時,SoC 中的 CPU、GPU、ISP,以及 Google 自主研發的 TPU 都會被呼叫起來各司其職;這些硬體結合起來所發揮出的效能,才是決定最終你『拿起手機 - 拍照 - 成像』速度的真正因素。
使用兩顆降低頻率的 X1 大核,去運算以往需要兩顆 A76 中核來完成的工作,進而更加高效的完成以往需要更多時間來完成的運算。這種「田忌賽馬」一樣的技巧,之所以之前並沒有其他手機廠商可以效仿,原因正是因為處於產業鏈下游的手機品牌,其實在成本限制下,很難去依照自家系統/功能的性能需求對包括手機 SoC 在內的硬體量身定制。
即便 Google Pixel 系列一直是手機運算攝影領域的帶頭人物,但從 2017 年發布的 Pixel 2 開始,連續四代 Pixel 手機都採用了同一顆 1200 萬象素的感測器作為主鏡頭攝影配置;原因並非 Google 不捨得換新感測器晶片,而是基於新硬體重新訓練演算法成本太高,最終呈現的效果甚至不及現有的感測器。
自那之後,Google 每年在介紹 Pixel 新機在影像功能上的重點時,重點都只有一個 —— 運算攝影:從 Pixel 2/3 依靠單鏡頭實現的「人像模糊」、Pixel 4 時代的「天文攝影模式」,到 Pixel 5 能給人像照片後製手動補光的「人像光」,每一次 Pixel 相機加入新功能,都是 Google 在運算攝影領域的一次新突破。
但僅憑運算攝影的演算法進化,開發團隊還是很快碰到了幾乎難以逾越的硬體天花板:雖然 Google 能透過運算攝影演算法讓四代 Pixel 在同樣主鏡頭感測器下每年都能有新提升,但同樣的「魔法」卻不能直接套用在影片拍攝部分上:因為手機端較弱的算力,無法支援借助機器學習實現的曝光堆疊演算法在影片拍攝下同樣使用。這也是過往使用高通 SoC 的 Pixel 手機影像拍攝品質並不算太優秀的原因。
而到 Google Tensor 的硬體上,Pixel 團隊終於可以在針對性的定制硬體上來運行更多運算攝影所能實現的效果:作為本次新影片錄製演算法 —— HDRNet 的一部分,Google 透過在 Tensor 中整合的運算單元,不僅實現了在 4K 60FPS 影片錄製時應用 HDR 效果,還解決了影片拍攝過程發熱嚴重的問題:以往只能拍攝 4-5 分鐘,到 Pixel 6 系列上則可以至少拍攝 20 分鐘。
終極解決方案
其實在 Google Tensor 之前,Google 在為智慧型手機設計晶片這件事上,也走過類似當前小米/vivo 的階段:如今負責研發 Tensor 的團隊,其實早已在之前的 Pixel 手機中以加入輔助處理器的方式,來針對性提升手機某一部分的效能。
像是 Pixel 2/3 時代用於提升運算攝影/HDR+ 演算法處理速度的 Pixel Visual Core、Pixel 4 上的反覆運算版 Pixel Neural Core,以及貫穿始終的 Titan M 系列安全晶片,都是 Google 在涉足 SoC 晶片之前的嘗試,到 Google Tensor 最終得以在 Pixel 6 系列上實際應用,這些原本都需要佔用額外主機板空間的輔助處理器,都能以一種更加高效的方式進一步整合進 SoC 之中。
過去,在 Pixel 5 中加入「環境光」功能之後,Google 就已經在技術部落格中吐槽「讓手機算力支援完成影片後製作所需的算力,是一件很頭疼的事」,Google 不得不重新訓練模型,讓補光演算法能在搭載高通驍龍 765G 的 Pixel 5 上正常使用。
不只是算力不足,在 Google 開發團隊眼中,現有 Pixel 手機一直使用的高通驍龍 SoC,從架構到功能,都不足以滿足 Pixel 各種 AI 應用場景的使用需求, 可以說是「積怨已久」。
同理,隨著量身定制的硬體提升 Pixel 6 上也加入了很多 AI 帶來的效率提升:比如 Pixel 6 中辨識準確率與速度都有大幅提升的離線語言轉文字功能,就是 Google 借助機器學習,將已經構建完畢的語音辨識模型預製在手機記憶體中,使用 Google Tensor 內建的 TPU 模組,做到比傳統算力更加高效的辨識效果 ;即時翻譯功能也不再局限於翻譯 App 內,被整合進更多應用中。
如今,隨著運算攝影在更多手機廠商的嘗試逐漸成熟,曾經困擾著 Google 的問題,也成為越來越多手機廠商的共識:為軟體功能量身定制硬體,反過來進一步提升軟體的運行效率,或許才是未來在手機端更現實的解決方案。
小米與 vivo 在 ISP 晶片領域的嘗試,不是為了桌面性能或跑分測試的優劣,而是為了滿足各自獨特的需求而定制:就像 Google 在 Tensor Chip 誕生之前為 Pixel 研發的數款輔助處理器一樣。
雖然定制 SoC 對於大部分手機廠商來講仍然是極其燒錢的行為,但透過定制 ISP 等輔助處理器的方式,同樣能打破如今智慧型手機體驗「同質化」、連拍攝效果都要以跑分定勝負的現狀,為使用者帶來更多不同的體驗。只要這條路被證明行之有效,就會有越來越多的廠商效仿,加入到自主研發處理器的行列中。
- 本文授權轉載自極客公園