眾所周知,算法、算力和數據是共同制約AI發展的三個關鍵要素,這也是ChatGPT完美運行的三個條件。
其中,算力是ChatGPT運行的關鍵所在。而一個ChatGPT應用的算力消耗卻讓人瞠目結舌。
其大模型GPT經歷了三次迭代,GPT、GPT-2和GPT-3(當前開放的版本為GPT-3.5)的參數量從1.17億增加到1750億,預訓練數據量從5GB增加到45TB,其中GPT-3訓練單次的成本就已經高達460萬美元。
最新的GPT3.5在訓練中使用了微軟專門建設的AI計算系統,由1萬個V100 GPU組成的高性能網絡集群,總算力消耗約3640PF-days,即假如每秒計算一千萬億次,需要計算3640天。
如何理解這樣的算力消耗呢?可以簡單做一個分析——我國近期正大力新建數據中心, 以其中總投資30.2億,算力500P的數據中心項目來說,要想支撐起ChatGPT的運行,至少要7-8個此量級的數據中心運行一整天。
事實上,僅2012年2019年,短短七年,人類對AI算力的需求就增長了30萬倍。平均每100天就會翻倍,遠超摩爾定律。
![]()
與此同時,AI算力的實際增長卻有限,需求和供給之間形成了一個巨大的鴻溝。
準華為輪值主席孟晚舟曾在一次公開演講時就表示,現在的算力還遠遠不能滿足未來的需求,算力必然是世界科技競爭的焦點之一。
另外,GPU或CPU+FPGA是ChatGPT算力的硬件支撐,該應用對于高端芯片的需求增加會拉動芯片均價,量價齊升將導致芯片需求暴漲。
據了解,采購一片英偉達頂級GPU成本為8萬元,GPU服務器成本通常超過40萬元。對于ChatGPT而言,支撐其算力基礎設施至少需要上萬顆英偉達GPU A100,單采購GPU的成本就近億元。
而ChatGPT越火,對算力及其關聯產業的需求便越大。
中國信息通信研究院測算,截至2021年底,中國算力核心產業規模超過1.5萬億元,關聯產業規模超過8萬億元。
這是一塊巨大的蛋糕。并且隨著AI產品應用的逐漸滲透,這塊蛋糕將越來越大。
![]()
除了算力外,ChatGPT引發萬眾矚目的還包括在C端的破冰。
一直以來,AI產品的落地與盈利基本都靠B、G兩端支撐,在C端雖然也有不少試水,但都沒有引發太大的反響,幾乎沒有讓大部分人愿意買單的項目。
如果ChatGPT真的能成為一款現象級產品,將具有劃時代意義。
不妨想想,在移動互聯網時代,微信讓騰訊成為了時代的王者,月活躍用戶數量達12.88億;依靠抖音,字節跳動不到十年就躍升為中國最著名的互聯網企業之一;而拼多多市值已經是百度的3倍……
這背后不僅是一場產業革命,更是數以萬億計財富的誕生。如今,類似的連鎖反應也開始在AI領域顯現。 |