断崖式降温、新模型难产,DeepSeek为何一年就从顶流掉队?
前两天圈子里突然传开一条消息,说DeepSeek V4和腾讯混元那边姚顺雨领衔的新模型,都盯准4月上线,俩巨头要正面撞车了。这话一出,本来已经有点安静的AI圈又炸了锅。不少人刷到就忍不住吐槽:去年底就开始喊要发,结果春节前跳票,3月又说延期,现在大家等得心慌慌的,感觉时间过得比模型更新还慢。

数据摆在那,不会哄人。平台用户使用率从峰值的7.5%直线掉到3%,官网流量一度下滑近三成,token调用量也从42%萎缩到16%。曾经那个下载破亿、周活逼近9700万的App,现在苹果效率榜上只排第36位。字节豆包、阿里千问这些反而稳稳占着下载榜前排。说实话,看到这些变化,我第一反应就是不解——怎么这么快就从神坛滑下来了?
当初DeepSeek靠那个R1模型,只花557万美元训练成本,就差点追上GPT-4o,数学推理还反超,那时候谁不觉得国产AI终于要翻身了。V3系列平均一两个月一次大更新,开源权重一放出来,开发者社区直接沸腾,API价格低到行业十分之一,中小企业抢着用,甚至大厂都纷纷适配。那个阶段,它简直是速度和创新的代名词,逼得其他几家国产模型集体陷入“至暗时刻”。

可现在呢?基本就剩小幅迭代,论文发了几篇,App每周修修已知问题。V4一直没影子,百万上下文测试版倒是上线了,但情感记忆那些模块还没完全迁过去。行业里有人开始焦虑,尤其是春节那会儿,听说腾讯那边团队为了等更新,加班到错峰回家,挺心酸的。
最让人吐槽的,是这沉默背后的原因。表面看是跳票、增长放缓,深挖下去,大家议论最多的还是算力那道坎。国产高端芯片能稳稳调用的规模,据说远不如国外巨头,预训练和日常推理两头都要顾,根本扛不住万亿参数级别的折腾。算法再聪明,也得撞上硬件的天花板。有人说这是战略摇摆,有人觉得开源明星的压力太大,平庸一步就被骂“掉队”,决策自然更谨慎。

但前阵子网上突然冒出的独家爆料,让我情绪又翻了个个儿。说梁文峰他们不是在拖,而是故意多磨了半年。V4要做原生多模态,还要把长期记忆LTM嵌入进去,就是冲着治“健忘症”去的。架构级重构,参数上亿万级,听说还要补好几块短板才肯推。原来这沉默不是颓势,而是憋着大招等完美落地。
这点让我有点激动,又有点惋惜。想想那些已经转去Kimi、MiniMax的开发者,他们当初图的就是DeepSeek的便宜和快,现在新鲜感没了,自然跑了。可对中小企业来说,API还是那个低价位,用着踏实。不同人群看法完全两样:开发者骂迭代慢,投资者担心估值受拖累,普通用户只想谁好用就用谁。时代就这样,政策推着算力突围,利益纠缠着开源和商业化,派别之间互相盯着,谁也不敢乱踩油门。
从神坛到低谷,这速度比当初崛起还让人猝不及防。整个国产AI的竞争,本来就残酷,OpenAI那边月更模式狂奔,我们这边却得一步步踩实硬件短板。DeepSeek的经历,其实把行业好多痛点都戳出来了——算法优先的路走得通,但硬件天花板真不是一句话能绕过去的。
现在大家的目光全盯在4月。V4要是真能带来记忆和多模态的突破,或许又能找回那股锋芒;要是还卡着,大家的耐心估计也快见底了。无论怎样,故事还没完,智能时代还在往前滚,谁知道下一个转折在哪。

