AI大模型全球霸主离奇遇冷,外媒曝出真相
在AI大模型领域,DeepSeek曾以迅猛之势闯入大众视野,被视为有望重塑行业格局的重要力量。其研发始于2023年,由中国顶尖AI团队深度求索(DeepSeek Inc.)全力打造。作为国内首个全面对标GPT-4技术架构的通用大语言模型体系,DeepSeek系列涵盖从7B到超千亿参数的完整模型矩阵,在数学推理、代码生成、多轮对话等核心能力上一度达到国际领先水平。自诞生起,它就凭借比肩OpenAI的推理能力,以及低90%的价格优势迅速出圈,在全球范围内收获了大量关注,甚至一度撼动西方资本市场,被众多业内人士和投资者寄予厚望。
然而,近日一则消息却让人大跌眼镜。据外媒报道,DeepSeek在用户留存和官网流量上双双遇冷,市场份额持续下滑,呈现出一种令人费解的“离奇遇冷”状态。SemiAnalysis发布的文章指出,尽管DeepSeek发布后,消费者应用的流量曾一度激增,市场份额急剧上升,但好景不长,后续它的增长势头未能跟上其他AI应用的步伐,市场份额明显下滑。在网络浏览器流量方面,数据更是惨淡,绝对流量不断下降,而其他顶尖模型的用户数却在飞速增长。
为何会出现这样的情况?深究背后原因,主要在于DeepSeek在成本控制与用户体验之间的权衡。为了实现低价策略,DeepSeek在服务质量上做出了一些妥协。一方面,用户在等待模型返回第一个Token时,往往需要耗费数秒时间,这一延迟时间远远长于其他服务商 。相比之下,Token消费者只需花费2 - 4美元,就能从Parasail或Friendli这类服务商那里,获得近乎零延迟的体验,微软Azure的服务延迟也比DeepSeek减少了整整25秒。另一方面,DeepSeek采用的64K上下文窗口,在主流模型服务商中几乎是最小的之一 。较小的上下文窗口严重限制了编程等场景的发挥,因为编程任务需要模型能够连贯地记忆代码库中的大量Token,才能进行有效推理。而同样的价格下,用户可以从Lambda和Nebius等服务商那里获得超过2.5倍的上下文窗口大小。
这种做法直接导致终端用户需要承受更高的延迟和更慢的吞吐量,用户体验急剧下降 。但这其实是DeepSeek主动做出的战略选择,从终端用户身上赚钱,或是通过聊天应用和API来消耗大量Token,并不是他们的兴趣所在。通过采用极高批处理方式,DeepSeek可以最大限度地减少用于模型推理和对外服务的计算资源消耗,从而将尽可能多的算力保留在公司内部,用于研发。
此外,出口管制也在一定程度上限制了中国AI生态系统在模型服务方面的能力,不过这并没有削弱中国公司训练模型的能力,腾讯、阿里、百度等发布的新模型便是有力证明 。尽管DeepSeek官方平台遇冷,但在第三方平台上,R1和V3模型的总使用量却一直在持续快速增长,自R1首次发布以来,已增长将近20倍。这背后折射出AI模型分发与价值链的悄然变革,越来越多的公司开始效仿Anthropic的模式,专注于将Token作为一种服务来销售,而不是像ChatGPT那样以月度订阅的方式打包。
DeepSeek的流量暴跌和市场遇冷事件,为整个AI大模型行业敲响了警钟。它表明,在追求技术创新和成本控制的同时,绝不能忽视用户体验,只有在三者之间找到平衡,才能在激烈的市场竞争中立于不败之地。未来,DeepSeek能否及时调整策略,重回增长轨道,以及整个AI大模型市场将如何发展,都值得持续关注。