DeepSeek困境:用户流失、芯片禁售

中国AI新创DeepSeek遭遇困境:用户流失、芯片禁售

今年初发布“DeepSeek-R1”大模型的中国AI新创公司DeepSeek曾一度风头无两,凭借低廉成本和宣称性能媲美OpenAI的大模型,甚至在华尔街掀起了一股风暴。然而,随后爆出的用户个人信息泄露事件导致多国政府机构及企业对其封杀,如今该公司遭遇了更加严峻的挑战。

半导体研究机构SemiAnalysis最新报告指出,DeepSeek的流量和用户已呈现“僵尸化”趋势,市占率持续下滑。更糟糕的是,传出辉达H20芯片禁运令导致新一代R2模型开发陷入困境。

报告称,DeepSeek在发布R1后,用户激增,市占率也大幅提升。然而,其发展速度并未跟上其他领先AI应用,最终市占率开始下滑。报告指出,DeepSeek流量的绝对值持续下降,数据更加严峻。反观其他领先的AI模型供应商同期用户数量都取得了显著增长。

为什么用户会转向其他开源供应商?答案在于“Token经济学”以及为模型提供服务的KPI之间的权衡。 Token类似于AI阅读与写作时的计数单位,用户输入文字会被拆解成很多Token;AI输出回复也会包含很多Token,AI的收费依据这些Token的总数计算。

报告称,DeepSeek能够以低廉的价格出售产品的一个重要原因是,他们强制用户等待数秒才能获得回复。相比之下,其他一些提供相同价格服务却延迟时间短的多。 SemiAnalysis指出,DeepSeek专注于实现通用人工智能(AGI),对最终用户体验不感兴趣。为了将算力成本压至极限,DeepSeek在服务质量上做出了妥协。其官方平台的首Token延迟(First Token Latency)动辄数秒,远低于业界对“即时”响应的期望;而Parasail、Friendli等第三方平台仅收取2到4美元,即可获得高达100万Token的几乎零延迟体验。

若与更大规模云厂商相比,差距仍明显。微软Azure托管DeepSeek模型的价格约为官方价格的2.5倍,但首Token延迟却少了25秒,CP值优势一目了然。值得注意的是,即使以相同延迟水平衡量价格,DeepSeek也并非最佳选择,众多托管商已趁机在价格战上抢占先机。

**报告直指,在AI的世界里,算力就是王道。美国的出口管限制缩小了中国AI模型的算力。DeepSeek只能将最少的算力用于对外推理服务,而将绝大部分算力资源保留给内部研发。**最终,中国DeepSeek用户已呈现“僵尸化”,市占率下滑。

阅读本文之前,你最好先了解...

为了更深入地理解DeepSeek的困境,你需要了解以下几个关键概念:

  • 通用人工智能(AGI): AGI是指能够执行各种人类智力任务的人工智能系统,例如学习、推理、规划和创造。深思科技(DeepSeek)宣称其目标是开发AGI模型。
  • Token经济学: Token是一种计量AI阅读与写作的单位。AI模型根据输入和输出Token的数量进行收费。
  • 首Token延迟 (First Token Latency): 指用户发送请求到模型获得第一个Token回复的时间间隔。

这些概念将帮助你理解以下几点:

  • DeepSeek专注于AGI开发,这意味着它可能牺牲了用户体验来追求更复杂的算法和更大的模型规模。
  • 即使DeepSeek的收费价格低廉,但其首Token延迟较高,会影响用户使用体验,导致他们选择其他提供更快响应速度的服务。
  • 美国对中国芯片出口的限制,加剧了DeepSeek算力不足的问题,使其难以开发更强大的模型和提供更好的服务。

这些因素共同构成了DeepSeek目前的困境:

  • 技术上的挑战: AGI开发难度高,需要大量的算力和时间投入。
  • 用户体验问题: 首Token延迟过长影响了用户的使用体验。
  • 芯片禁售的影响: 限制了DeepSeek模型的规模和性能升级。

这些因素共同导致DeepSeek的用户流失,市占率下滑,最终面临困境。

如果你有其它意见,请评论留言。

文章为网友上传,如果侵权,请联系我们

发表评论