NVIDIA創辦人暨執行長黃仁勳在GTC 2024春季場的媒體訪談中暢談對AI產業發展的觀點,並強調將持續擴大與TSMC的合作。
從函數庫進化至微服務
黃仁勳在GTC 2024春季場的開幕演說與媒體訪談中介紹了多樣新產品、服務,並敘述了許多對AI產業發展的想法與觀點,筆者將針對部分重點進行說明。
黃仁勳先前曾多次提出AI工廠的概念,如同水力發電場輸入水源並產生電力,AI工廠能在輸入資料後產生「智慧」(即透過AI訓練產生AI模型),並利用得到的「智慧」解決我們遇到的問題。
黃仁勳也多次表示NVIDIA是「運算公司」,除了提供GPU(繪圖處理器)、CPU(中央處理器,如Grace CPU)等硬體產品之外,各式軟體也是重要業務,舉例來說能夠加速AI運算的cuDNN、能夠協助半導體製程中光罩開發的cuLitho等函數庫(Library)都是實際成果。
黃仁勳在訪談中回答媒體提問時,說明函數庫的未來是微服務(The Future of library is microservice),呼應了這次隨著AI Enterprise 5.0上市所推出的NVIDIA Inference Microservice(NVIDIA AI推論微服務,以下簡稱NIM)。
NIM的特色是整合了AI推論所需的軟硬體服務,並將與多間AI模型供應商合作的預先訓練模型、最佳化推論引擎、專屬程式、API(應用程式介面)、預先編譯的容器(Container)打包,並可選擇每GPU每小時美金1元或每GPU每年美金4,000元的資費租用(費用包含雲端硬體與軟體),能夠簡化與加速AI應用的部署,也很適合沒有硬體機房、團隊新創公司發展AI應用服務,或是透過與手機App結合使用,開發者也能上傳權重調整或LoRA(Low-Rank Adaptation,低秩調整)等方式對現有模型進行微調,以提升使用彈性與客製化功能。
在被問到NIM是否會與生態系中的雲端服務供應商(CSP,如ASW、Google、Microsoft)等夥伴演變成競爭關係時,黃仁勳以AI運算伺服器為例,NVIDIA最瞭解自身產品的特色,能夠協助Dell等合作夥伴設計產品,而NVIDIA自己也推出產品伺服器的目標在於開創市場需求(Demand),引導更多開發者利用NVIDIA的GPU進行各種加速運算的應用,進而產生擴大市場的效果。而NIM的目標也與此類似,由自己先投入並做大市場,並與合作夥伴推出更多能夠滿足市場需求的微服務產品。
▲黃仁勳於GTC 2024春季場開幕演說中發表NIM的片段(影片1:16:08處)。
與TSMC密切合作
NVIDIA在GTC展前簡報中,說明與半導體代工廠商TSMC(台積電)、電子設計自動化(EDA)廠商Synopsys合作研發的cuLitho運算微影平台(Computational Lithography)已在生產Blackwell GPU時投入使用,能加速半導體製造中運算密集的光罩繪製等工作負載45~60倍。更多詳細資訊可參考NVIDIA官方部落格文章。
黃仁勳在訪談中以「我們做得相當賣力、台積電做得很好」(We do very hard. TSMC does very well)來讚揚TSMC,並在回應媒體詢問是否如傳言將TSMC CoWoS先進封裝下單量提升3倍時,雖然沒有回答明確數字,但表示今年的先進封裝需求很高,而明年還會更高,展現樂觀氣氛。
另一方面,黃仁勳也在開幕演說中以CorrDiff為例,展示與台灣中央氣象署合作,透過AI模型預測颱風路境的成果,透過AI加速天氣模擬達1,000倍,並將預測精細度由25公里提升至2公里,且提升3,000倍能源效率,再次讓台灣躍上國際舞台。
▲NVIDIA與台灣中央氣象署合作,透過CorrDiff模型預測台灣周邊颱風路境之說明影片。(開幕演說影片1:09:36處也提及此研究成果)
筆者撰稿時GTC 2024仍在進行中,有興趣的讀者可以參考官方網站瞭解更多實體與線上活動資訊,或是觀看開幕演說的重播影片。
加入電腦王Facebook粉絲團