Skip to Content Facebook Feature Image

外媒指DeepSeek首次尋求融資 籌3億美元 押注脫離英偉達

錢財事

外媒指DeepSeek首次尋求融資  籌3億美元  押注脫離英偉達
錢財事

錢財事

外媒指DeepSeek首次尋求融資 籌3億美元 押注脫離英偉達

2026年04月18日 15:41 最後更新:15:41

外國傳媒The Information報道,DeepSeek正尋求首次外部融資,尋求以不低於100億美元的估值,籌集至少3億美元的資金,打破「從不融資」鐵律。

報道稱,對沖基金幻方量化旗下的DeepSeek,多次拒絕了國內風險投資基金和科技巨頭的投資意向。創辦人梁文鋒一直希望保持DeepSeek的獨立性,不受商業壓力的干擾。

更多相片
Deepseek創辦人梁文鋒(右)

Deepseek創辦人梁文鋒(右)

中國的AI發展迅速。AP圖

中國的AI發展迅速。AP圖

AP圖片

AP圖片

AI晶片龍頭英偉達行政總裁黃仁勳(AP圖片)

AI晶片龍頭英偉達行政總裁黃仁勳(AP圖片)

Deepseek創辦人梁文鋒(右)

Deepseek創辦人梁文鋒(右)

DeepSeek V4的發布時間一再推遲

DeepSeek上一次發布新一代模型R1是在2025年,如果此次融資成功,DeepSeek就可以擁有更多算力,同時還能開出更高薪酬,防止頂尖研究者流失。

DeepSeek V4的發布時間一再推遲,與此同時AI圈的競爭環境已經大變樣。有報道指或許這種壓力終於促使DeepSeek轉變融資策略。

V4是一場萬億參數的硬仗,The Information指,V4原定今年2月亮相,但已延遲多次。外電4月初稱最新時間是「未來幾周內」。V4采用MoE架構,總參數約1萬億,但每個token僅激活約370億參數,推理成本與V3持平。

英國《金融時報》報道,V4將是DeepSeek首個原生多模態模型,支持文本、圖像和視頻生成。此前DeepSeek的模型一直以純文本為主,而其他旗艦模型早已擁抱多模態。

中國的AI發展迅速。AP圖

中國的AI發展迅速。AP圖

《華爾街見聞》指,DeepSeek近日在內蒙古烏蘭察布招聘服務器運維工程師和交付經理,這是公司首次公開招聘算力基礎設施相關人員。

種種跡象表明,V4已經不在實驗室里了,而是在為大規模部署做最後準備。

DeepSeek V4從英偉達轉移至華為

DeepSeek之前所有模型都基於英偉達芯片訓練。但V4走不同的路。據外電報道,V4將運行在華為最新的昇騰芯片上。DeepSeek的工程師們花了大量時間解決V4對華為芯片的適配問題,重寫核心代碼,從英偉達的CUDA生態遷移到華為的CANN架構。

AP圖片

AP圖片

DeepSeek刻意沒有給英偉達和AMD提前提供V4做優化適配,而是將早期訪問權限獨家給了國產芯片廠商。如果V4在華為芯片上跑出有競爭力的性能,將是全球第一個不依賴英偉達的前沿AI模型。

英偉達行政總裁黃仁勳曾表示,DeepSeek基於華為平台的新模型「對美國來說將是一個糟糕的結果」。

以「花小錢辦大事」著稱的DeepSeek,再無法僅靠幻方量化一家持續輸血。

據史丹福大學2026年度AI指數報告,截至今年3月,美國頂級模型與中國最強競品之間的性能差距僅剩2.7個百分點。差距越小,每一步追趕的邊際成本越高。

就在本月,OpenAI剛以3000億美元估值完成400億美元融資,相比之下,3億美元也算不得天文數字。

《華爾街見聞》指,V4真正的賭注,在於它要證明前沿AI可以完全脫離英偉達生態獨立運轉,3億美元押的就是這一注。

AI晶片龍頭英偉達行政總裁黃仁勳(AP圖片)

AI晶片龍頭英偉達行政總裁黃仁勳(AP圖片)

4月8日上午,人工智能公司DeepSeek在其網頁端及iOS應用程式的頁面出現更新,對話頁面新增「快速模式」與「專家模式」兩種選項。其中,快速模式標註為「適合日常對話,即時響應」,而專家模式則標註為「擅長複雜問題,高峯需等待」。兩種模式下,用户均可選擇是否開啟「深度思考」和「智能搜索」功能。

DeepSeek。AP資料圖片

DeepSeek。AP資料圖片

專家模式專攻專業領域

此次推出的「專家模式」新增了編程、法律、醫學等多個領域的專業知識諮詢能力。業內人士分析認為,「專家模式」很可能使用了更大、更強的模型,極有可能是DeepSeek-V4正式版的某個形態。

DeepSeek推專家模式

DeepSeek推專家模式

DeepSeek-V4技術細節

資料顯示,DeepSeek-V4是由杭州深度求索人工智能基礎技術研究有限公司研製的大模型,為DeepSeek-V3的迭代版本,計劃於2026年發布。該模型專注於代碼生成能力,在超長代碼提示處理、數據模式理解與推理能力方面實現了技術突破,可支持數萬行代碼庫的上下文理解。模型採用了混合專家架構(MoE)和流形約束超連接(mHC)技術,總參數達6710億,推理激活參數為370億,並在訓練中應用了MLA多頭潛在注意力機制。

或與早前死機事件有關

在4月初,「DeepSeek死機」曾一度登上網絡熱搜。當時業內便有猜測,事件可能與DeepSeek-V4進行隱身測試有關,或意味著DeepSeek-V4的發布已臨近。

你 或 有 興 趣 的 文 章