看板 Stock 關於我們 聯絡資訊
原文標題: 時隔1年多...DeepSeek發布V4新模型 處理百萬字長文成標配 原文連結: https://udn.com/news/story/7333/9462536 發布時間: 2026-04-24 16:22 記者署名: 陳宥菘 原文內容: 就在OpenAI發布GPT-5.5幾個小時後,大陸AI新創深度求索(DeepSeek)24日宣布,全新 系列模型DeepSeek-V4的預覽版本正式上線,並同步開源。最新模型具有能力處理長達百 萬字的超長上下文,在Agent能力、世界知識和推理性能上均實現大陸國內與開源領域的 領先。陸媒研判,新模型使用的是華為昇騰晶片。這距離DeepSeek去年1月的大版本更新 已時隔15個月。 上海第一財經報導,V4模型按大小分為Pro和Flash兩個版本,其中,Pro版參數為1.6兆, 啟動參數490億,預訓練資料量33兆;Flash版參數為2840億,啟動參數130億,預訓練資 料量32兆。 DeepSeek表示,Pro版本主打高性能,在Agentic Coding(智能體編程)評測中已達到目 前全球開源模型的最優水平,也已成為公司內部開發的首選工具;在數學、STEM及競賽型 代碼評估中,其表現已能與目前全球頂級閉源模型比肩。 Pro和Flash兩個版本的上下文都是1M(百萬),均同時支持「非思考模式」與「思考模式 」。「從現在開始,一百萬上下文將是 DeepSeek 所有官方服務的標配。」DeepSeek表示 ,V4開創了一種全新的注意力機制,在token維度進行壓縮,結合DeepSeek Sparse Attention(DSA,深度求索稀疏注意力機制,實現了全球領先的長上下文能力,並且相比 於傳統方法大幅降低了對計算和顯存的需求。 從價格看,DeepSeek指出,V4-Pro每百萬tokens輸入是1元(人民幣,單位下同,約新台 幣4.62元),輸出是12元,V4-Flash每百萬tokens輸入是0.2元,輸出是2元。有評論認為 ,價格仍相當普惠。 報導指出,業界一直在關注DeepSeek-V4是否會使用大陸國產算力,從推文來看確實是與 華為昇騰合作。DeepSeek表示,受限於高端算力,目前Pro的服務吞吐十分有限,預計下 半年昇騰950超節點批量上市後,Pro的價格會大幅下調。 相比前代模型, V4-Pro 的Agent能力顯著增強。在Agentic Coding(代理驅動的程式撰 寫)評測中,V4-Pro達到當前開源模型最佳水平。 在推理上,官方在論文中表示,總體約落後前沿閉源模型3至6個月。Proax(Max表示 最大推理能力模式)推理擴展後在標準推理基準上優於OpenAI的GPT.2、Gemini.0 ro,略遜於GPT.4、Gemini.1ro。 心得/評論: deepseek v4終於來了 並且完成和華為平台的適配 在下半年華為晶片出貨後 API價格還會繼續降價 雖然整體性能仍然略遜於閉源SOTA模型 但他實在太便宜了 這次還會有考古題嗎? -- 如何嘴砲 反駁對方的重點──◢◣確實指出人家論點的錯誤性 ψQSWEET> ◎ 駁斥────── 用引言指出對方錯誤或矛盾的地方( 優質論文) 在嘴砲王 相反的觀點──◢████◣列出相反的論點並以事實當證據( 辯論社) 應該出現矛盾────◢██████◣列出相反的論點但不加以證實( 論壇) 的元素 攻擊態度◢████████◣質疑對方的態度和口氣 ( 匿名版) 人身攻擊偏見▄▄▄▄▄▄▄▄▄▄▄攻擊身份和能耐幹你娘(小朋友) -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.195.224.26 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1777038636.A.0CC.html
littlelaba : 沒人在乎 04/24 21:54
edison106 : 來吧 需要一個大跌 一定二胎信貸全部接好接滿 04/24 21:58
strlen : 不要相信什麼百萬上下文 都馬用不到一半就開始幻覺 04/24 21:58
strlen : 現在上下文壓縮技術還是非常糟糕 無法信任 04/24 21:58
crazydj : 用自已國產的晶片,這個厲害了 04/24 21:58
kcg123 : 現在一堆ai軟體了,誰還在意這咖. 04/24 21:59
offstage : 不重要 台股下星期繼續漲 04/24 21:59
joe0934 : 最好是百萬 04/24 22:01
cityhunter04: 還有人會被騙?難用的要死!還要被限制蒸餾了…. 04/24 22:03
asko : 還停留在文字處理理解程度已經不行了,現在都要能 04/24 22:04
asko : 自行應用程式自發設計分析 04/24 22:04
tanted : 八卦版吹這個吹很大 04/24 22:06
clarence732 : 只能騙一次 今年沒用了 04/24 22:07
apple123773 : 太神啦,deep最強!! 04/24 22:07
ssarc : 我不相信長文,光日文網小連續幾章就能翻譯的連我 04/24 22:08
ssarc : 都看的出來語無倫次 04/24 22:08
yangweiisi : 還蠻好用的 04/24 22:10
catboost : 已無人在意 04/24 22:12
awenracious : 誰愛用誰用 04/24 22:13
halfnk : 收割完就被看穿手腳 不愧是中企 04/24 22:14
lnonai : 沒有HBM 長上下文延遲會慢到很搞笑 04/24 22:14
rock1202 : 笑死 一年前還能騙一下 04/24 22:16
FirePopcorn : 沒人在乎 04/24 22:16
mini178 : 中吹廢物最愛的 dickshit 04/24 22:17
pippen456 : 黑悟空2.0 04/24 22:17
squeakywheel: 笑死 某族群崩潰到連一點風度都沒了ccccc 04/24 22:21
gwofeng : 騙 04/24 22:26
CarisLeVert : 有人好氣氣,別人努力做出不錯的東西,只能妒忌 04/24 22:26
hankwanghow : 沒第六代戰機喔? 04/24 22:33
ss218 : 我只想問處理長文的應用場景是什麼 產AI網小文嗎 04/24 22:37
s213092921 : http://i.imgur.com/eC4WF6Z.jpg 04/24 22:40
amano : ?? 04/24 22:41
HiuAnOP : 放心,了不起後面放個小精靈修正就好了 04/24 22:41
holysong : 可以寫一篇跟六四有關的文章嗎? 04/24 22:47
JoeyChen : 1百萬字標配是真的嗎 04/24 22:53
buddhawu : 上下文一百萬很多欸,標配喔?那可以加減來用 04/24 23:10
ariadne : 一百萬字很多嗎?中文一個字2byte百萬中文字不過2M 04/24 23:16
ariadne : 檔案大小。能處理2M數位資料很值得吹? 04/24 23:16
cahsakgae : 「那個已經沒用了」(柯文哲) 04/24 23:25
a79111010 : 笑死這邊也有自殺的 04/24 23:48
Kt51000 : 又要蒸餾誰 04/24 23:51
playboy007gy: 美國:這是邪惡的開源 (笑) 04/25 00:02
astraea11 : 沒人在乎 路邊一條 04/25 01:05
jerome01 : 過氣了 04/25 08:33
takuma : 美股狂噴 不在他 04/25 11:20
takuma : 不在意他 04/25 11:20