《大行》交銀國際:國產大模型或加速國產芯片使用 利好中芯(00981.HK)及華虹01347.HK)



交銀國際發表報告表示,1月22日前後,杭州深度求索公司DeepSeek發布兩款開源人工智能大模型(DeepSeek-R1/DeepSeek-R1-zero)並取得與海外領先模型相似或者更好的性能。兩款模型基於之前發布的DeepSeek-V3, 其訓練僅用280萬小時的英偉達H800GPU算力(約560萬美元)。該行認為,國產高效開源模型的興起意味著大模型的訓練和推理成本或有大幅度降低。

總結DeepSeek-V3和DeepSeek-R1在算法架構、預訓練、後訓練和蒸餾提煉階段的創新,該行發現DeepSeek結合硬件、算法和系統,使用定制化的PTX等底層算法達到流水線並行,同時優化了儲儲,減少了通信的報頭開銷。因為直接調用硬件,該行認為這些創新或不能通過高級語言實現,這或意味著英偉達(NVDA.US)CUDA的競爭壁壘有所鬆動。

交銀國際指,美國政府之前對華的芯片限制非但沒能起到作用,反而進一步促進了中國人工智能領域的發展。DeepSeek-V3訓練過程僅用了不到280萬小時英偉達H800芯片算力,按照每小時2美元計算,總體訓練成本小於560萬美元。該行認為,決定中國人工智能發展的因素將會是國產自主創新,這包括AI大模型算法的發展和半導體硬件的國產替代。國產AI行業都會積極需求國產硬件支持,從而長期利好半導體行業的國產替代進程。

從硬件性能上看,包括華為昇騰(Ascend系列)在內的國產算力芯片已經接近或者達到英偉達Hopper系列的算力芯片產品,事實證明英偉達最高階的Blackwell系列芯片不一定會是阻礙國產大模型建設的關鍵。更重要的是,英偉達最重要的CUDA護城河似乎亦有鬆動的跡象。根據DeepSeek-V3的技術文檔, 該行發現訓練模型(1)使用了定制的PTX(Parallel Thread Execution)等底層算法達到流水線並行(pipeline parallelism)和(2)優化了儲儲方式和減少通信過程中的報頭開銷等技術技巧。這些算法或通過低級語言(機器碼、匯編語言 等)實現。通過繞開英偉達CUDA(通過高級語言調用),這些算法或從一定程度上規避了英偉達CUDA這一核心競爭力。因此該行認為,國產大模型或加速國產芯片的使用。

交銀國際認為,模型門檻降低在利好國產算力芯片的同時,或對整個國產半導體產業鏈的業務產生積極影響,包括利好國產晶圓代工公司中芯國際(00981.HK)(「買入」評級)和華虹半導體(01347.HK)(「買入」評級)的產能利用率等業務指標,以及利好國產半導體設備,包括北方華創(002371.SZ)及中微公司(688012.SH)等的設備需求。

此外,該行對於端側部署AI的前景較此前更為樂觀,雖然對於具體需求增長的數量和消費者大規模換機的時機尚不確定。該行建議投資者關注AMD(AMD.US)(「買入」評級)、英偉達(NVDA.US)(「買入」評級)和英特爾(INTC.US)端側計算芯片業務,同時關注兆易創新(603986.SH)、聯發科(02454.TW)等對端側敞口較大的半導體標的,以及蘋果(AAPL.US)、小米(01810.HK)、聯想(00992.HK)等智能手機和個人電腦OEM。相對於蘋果等海外廠商在人工智能模型(特別是中文模型)上的執行能力,該行更看好國產智能手機OEM。(wl/k)~

阿思達克財經新聞
網址: www.aastocks.com
相關股票: 00981,00992,01347...
系統開發、資訊提供:精誠資訊股份有限公司
資料來源:台灣證券交易所、櫃買中心、台灣期貨交易所
本資料僅供參考所有資料以台灣證券交易所、櫃買中心公告為準
網路家庭版權所有、轉載必究 Copyright © PChome Online