近期,美國人工智能數(shù)據(jù)基本機構(gòu)Scale AI創(chuàng)始人兼首席執(zhí)行官Alexandr Wang在接受CNBC采訪時叫作,DeepSeek持有大約五萬塊英偉達H100芯片,但因美國出口管理辦法,她們不可公開談?wù)摗?
王在采訪中先夸贊了DeepSeek的性能叫作,“咱們發(fā)掘,DeepSeek(R1)是日前表現(xiàn)最好的,或說與美國最好的模型(GPT o1)處在同一水平?!?/p>
當被問及中美兩國在人工智能行業(yè)的競爭時,王暗示:“長時間敗興,美國始終處在領(lǐng)先地位?!?span style="color: green;">不外,他彌補說,DeepSeek最新的模型確實試圖改變這一局面。王認為,“中國實驗室在圣誕節(jié)發(fā)布一款驚天動地的模型擁有象征道理,要曉得,咱們其他人正在慶祝節(jié)日?!?/p>
Alexandr Wang(王)CNBC
DeepSeek于2024年12月26日(美國時間12月25日)當天發(fā)布了一款“震撼性的模型”——DeepSeek-V3,隨后又于1月20日推出了一款專注于推理的強大AI模型DeepSeek-R1,對標OpenAI的o1模型。
DeepSeek利用較少且不足先進的芯片訓練出了媲美ChatGPT的模型。DeepSeek在一份技術(shù)報告中叫作,它運用超過2000個英偉達H800芯片集群來訓練其參數(shù)為6710億的V3模型,而Meta訓練參數(shù)量4050億的Llama 3,用了16384塊更強的H100顯卡,花了54天。Deepseek的訓練效率為Meta的11倍。
DeepSeek暗示,訓練其最新模型之一的成本為560萬美元(約合人民幣4100萬元)。相比之下,人工智能研發(fā)商Anthropic的首席執(zhí)行官達里奧·阿莫迪 (Dario Amodei )去年說到的創(chuàng)立一個模型的成本為1億至10億美元。
CNBC曾發(fā)帖叫作:“DeepSeek-R1因其性能超越美國頂尖同類模型,且成本更低,算力消耗更少,誘發(fā)了硅谷的恐慌?!?/p>
但王話鋒一轉(zhuǎn),談到了中國人工智能企業(yè)可能為人工智能模型配備的GPU數(shù)量。他叫作,“中國的實驗室持有的H100芯片比人們想象的要多得多?!彼?span style="color: green;">彌補道, “據(jù)我認識,DeepSeek持有大約五萬塊H100芯片。”王認為,由于違反了美國實施的出口管理,因此DeepSeek不可談?wù)撨@些。
英偉達的Hopper架構(gòu)GPU如H100和H200,因其優(yōu)秀的算力,出口受到美國政府的管理。拜登政府于2022年經(jīng)過一項規(guī)定禁止英偉達向中國出售性能遠超其舊款GPU A100 的GPU系列,迫使英偉達研發(fā)了名為H800和A800的性能削減版芯片用以替代,但一年后的2023年10月,這兩款芯片亦一并被禁止。日前,英偉達已在推廣其最新一代Blackwell架構(gòu)的GPU,其出口依然受到限制。
王將中美之間的人工智能競賽描述為一場“AI戰(zhàn)爭”,并彌補道,“美國將需要海量的計算能力和基本設(shè)備,咱們需要釋放美國的能量以推動這場AI繁榮?!?返回外鏈論壇: http://www.fok120.com,查看更加多