DeepSeek 投下的重石激起了千層浪,不僅被推到全世界的聚光燈下,也迎來了意料之外的眾多機會。
上線不到一個月,DeepSeek 應用端就成為了全球增速最快的 AI 應用,日活用戶數呈現出一條陡峭的增長曲線。據 AI 產品榜統計,截至 1 月 31 日,DeepSeek 應用(APP)全球日活已突破 2000 萬,超過字節跳動的豆包,是 ChatGPT 的 41.6%。
但當用戶想和 DeepSeek 進行頻繁、深度的對話時,卻常常會出現卡頓的情況,得到 " 服務器繁忙,請稍后再試 " 的回復。有用戶戲稱,DeepSeek 之所以將模型命名為 R1,是因為每天只能運行(Run)一次。
2 月 6 日,DeepSeek 還表示,因當前服務器資源緊張,已暫停 API 服務充值。截至發稿,充值服務仍未恢復。有 AI 從業者告訴藍鯨新聞,團隊原先基于 DeepSeek 模型構建了 AI 搜索功能。但 DeepSeek 爆火后出現 API 服務卡頓、響應超時的情況,導致搜索結果無法生成。春節期間他們不得不加班加點,將服務轉移到備用的 GPT-4o 模型上。
中上游的 " 搶灘 " 行動
DeepSeek 讓 AI 迎來了 " 破圈 " 時刻,對上下游產業鏈來說則蘊含著無數商機,手握大量算力的云廠商、芯片廠商開始迅速行動起來。
最先有所動作的便是國內外云廠商,微軟、亞馬遜等云巨頭趕在春節伊始就在自家云平臺上接入了 DeepSeek-R1 模型。自 2 月 1 日起,華為云、阿里云、百度智能云、字節火山引擎、騰訊云等國內主要云廠商也紛紛宣布上線 DeepSeek 模型,面向開發者和企業客戶提供模型部署服務。
緊隨其后的是各大國產芯片廠商。目前已有十數家國產芯片宣布完成了對 DeepSeek 模型的適配和上線,包括沐曦、天數智芯、摩爾線程、壁仞科技等。這些芯片廠商或基于自身構建的算力平臺,或與下游的 AI Infra 平臺聯手,支持 DeepSeek 模型的部署。
一位從業者對藍鯨新聞解釋稱,云廠商的敏捷反應得益于它們接入 DeepSeek 的成本較低。DeepSeek 模型是基于英偉達 GPU 訓練出來的,而云廠商通常存有大量的此類芯片,可以直接、快速地完成部署。國內芯片廠商在硬件上使用的指令集不同,因此需要另做適配和移植工作,相應的工作量和成本會更大一些。
無論是云廠商還是芯片廠商,都希望能趕上這輪 DeepSeek 的熱度。當 DeepSeek 官方的 API 服務不穩定時,能夠吸引部分用戶跳轉到自家平臺上,憑借已有的算力資源,為用戶提供 DeepSeek 的模型服務。有使用者在初步體驗后表示,一些平臺的價格和推理速度能夠滿足其需求,之后會考慮通過第三方平臺開發基于 DeepSeek-R1 的 AI 應用。
社交平臺上也涌現出不少第三方平臺的推廣信息,稱能夠繞開 DeepSeek 官網的擁堵,提供流暢、穩定的使用體驗,其中部分平臺還亮出了 " 國產芯片 + 國產大模型 " 的招牌。例如硅基流動與華為云團隊聯手,在其大模型云服務平臺上線了基于華為云昇騰云服務的 DeepSeek 模型,華為也在純血鴻蒙版小藝助手 App 中集成了 DeepSeek-R1。
硅基流動創始人兼 CEO 袁進輝在社交平臺上透露,DeepSeek-V3 模型發布前,DeepSeek 創始人梁文鋒曾建議可以用最少 20 臺英偉達 H800 服務器在其平臺上部署。考慮到成本問題,他們沒有這么選擇。
DeepSeek 走紅后,硅基流動團隊才決定用國產芯片進行適配。于是和華為達成合作,春節假期 " 加班加點,遇到問題隨時討論,晚上也開會討論到很晚 "。最終在 2 月 1 日,正式上線了基于國產芯片的 DeepSeek 模型服務。
國產算力的良機
當談及 DeepSeek 模型是如何與國產芯片搭配在一起時,首先要對大模型的訓練和推理階段進行區分。在訓練階段,大模型還處于學習過程中,需要輸入大量的數據,不斷調整內部參數,來發現規律。而推理則是大模型完成訓練后,進行實際應用的環節。
一位前大廠 AI 工程師對藍鯨新聞進一步解釋稱,模型在訓練階段對算力和帶寬的要求更高,同時大模型廠商需要試驗不同的模型結構、算子,大多會優先選擇使用英偉達的 GPU 硬件及其 " 開發工具包 "CUDA。推理階段對軟硬件的要求較低,因此成為許多國產芯片主打的場景,針對已訓練好的模型進行兼容和優化。
有國產芯片廠商告訴藍鯨新聞,雖然 DeepSeek 在結構上有微創新,但仍然是大語言模型。對 DeepSeek 的適配都是在推理應用環節,所以并不難,能夠很快實現。
DeepSeek 因低成本引發熱議后,曾一度造成英偉達股價暴跌,單日市值蒸發創下美股記錄。一個廣泛傳播的說法是,DeepSeek 在模型開發過程中繞開了英偉達的 CUDA 框架,由此能夠降低對英偉達的依賴。究其來源,是 DeepSeek 在 V3 模型技術報告中提到," 我們專門采用定制的 PTX(并行線程執行)指令,并自動調優通信塊大小,從而顯著減少了 L2 緩存的使用及對其他 SM 的干擾。"
使用 PTX 編程語言是否意味著 DeepSeek 跨過了英偉達 CUDA 的壟斷?有從業者表示這種說法是完全錯誤的,因為 PTX 是屬于 CUDA 的一部分,并沒有繞開 CUDA。
該從業者解釋稱,CUDA 是一個軟件套裝,包括上層的開發語言、豐富的 API 工具庫、編譯工具等,提供給開發者對 GPU 進行編程。PTX 則是 CUDA 的中間層匯編語言,更接近于硬件層面,通常不直接面向開發者。基于 CUDA 的開發更為上層,因此難以在 GPU 上進行更精細的控制。而使用 PTX 這一更低層次的編程語言,能夠更靈活地控制底層硬件,優化程序性能," 這也是 DeepSeek 之所以所需算力更少的創新點之一。"
盡管 DeepSeek 模型仍是基于英偉達 GPU 訓練出來的,但無論是它所展現出的對計算資源的高效利用,還是由此引起的國產芯片適配潮,對于芯片產業都是重大利好。
有從業者表示,此前國內大模型公司也會用國產芯片去做一些模型推理或測試訓練的工作,但規模有限,并沒有達到這次的程度。受 DeepSeek 帶動,國產芯片的利用率將會得到極大的提升。
AI 應用落地之年真的來了?
中上游掀起的波瀾終會向下游傳導,隨著 DeepSeek 熱潮蔓延,AI 應用層也開始大范圍地行動起來。過去幾天,智能硬件、汽車、金融等各行各業都在積極接入 DeepSeek 模型,希望借助其能力來升級自身服務。
上周,閱文集團宣布旗下作家輔助創作產品 " 作家助手 " 已集成 DeepSeek-R1 模型,稱這是 "DeepSeek 首次在網文領域的應用 "。閱文集團對藍鯨新聞表示,當調用幫助作家查資料、找靈感的智能問答功能時,DeepSeek 對于作家的提問意圖有較強的理解推導能力,能夠聽懂潛臺詞和言外之意。
同時,R1 模型展示出的超長思維鏈對網文作家來說也具備較高的啟發性。" 網文作家、尤其是成熟作家,經常抱怨的是 AI 內容的老套重復,他們需要的是啟發和思考梳理。" 閱文稱。接入 DeepSeek 后,當作家讓 AI 生產包含某網站熱點元素的網絡小說提綱時,除了提供生成的答案,AI 還會在思考過程中先清晰地羅列具體元素,并給出對應熱門書目,從而輔助作家獲取需要的專業內容。
在 DeepSeek 帶來的競爭壓力下,OpenAI 上周宣布將其最新模型 o3-mini 系列模型的思維鏈也予以公開。但其研究員表示,這些思維摘要雖然已經非常接近,卻并不是原始的思維鏈。有開發者之前對藍鯨新聞分析稱,OpenAI 此舉可能是出于用戶體驗、隱私保護、輸出質量、技術成本和商業機密等多方面的考慮,既能提供有用的思考過程,又不會帶來負面影響。
去年 5 月,DeepSeek 就曾因低定價引爆國內大模型 " 價格戰 "。業內普遍認為,大模型降價將有助于推動應用的落地。就 DeepSeek 此番接連發布的兩款模型而言,V3 模型的價格優惠期雖已于 2 月 9 日結束,API 調用價格仍是 GPT-4o 的十幾分之一。推理模型 DeepSeek-R1 的定價比所對標的 o1 正式版也要低上 27-55 倍。
硅基智能是一家專注 AI 數字人、硅基智慧屏等服務的企業,其創始人、董事長兼 CEO 司馬華鵬對藍鯨新聞表示," 大模型底座的成本降低了,AI 基礎設施建設的成本下降,對于行業發展是非常大的促進。AI 應用會出現大爆發,將會產生更多超級應用的出現。"
DeepSeek 對模型的開源和思維鏈的公開,讓硅基智能看到了升級其 AI 數字人能力及服務的可能。春節期間團隊快速反應,接入了 DeepSeek 模型,以提升硅基智能數字人系列產品在自然語言理解、情感識別等方面的能力。
2 月 10 日,硅基智能再攜手算力企業華鯤振宇發布全新解決方案。整合硅基智能自研的 AI 數字人引擎,并依托鯤鵬、昇騰集群作為國產高性能算力底座,使 DeepSeek 大模型在海量數據處理下具備卓越的響應速度與穩定性。
對國內 AI 產業鏈來說,這個蛇年春節勢必過得并不輕松。而 DeepSeek 所引發的漣漪,或要再等待一些時間,匯聚成更龐大的浪潮。
來源:藍鯨財經