近日,人工智能大模型领域迎来新一轮价格调整,DeepSeek-V4系列模型宣布大幅降价,引发行业广泛关注。此次调价涉及全系两款核心产品,其中输入缓存命中场景下的价格直接降至首发价的十分之一,展现出极具竞争力的市场策略。
具体来看,DeepSeek-V4-Flash模型每百万tokens输入(缓存命中)价格降至0.02元,而Pro版本则调整为0.025元。值得注意的是,Pro版本还推出了限时优惠活动:4月25日至5月5日期间,输入(缓存未命中)价格从原价12元降至3元,输出价格从12元降至6元,降幅达75%。Flash版本的其他价格保持不变,输入(缓存未命中)仍为1元,输出为2元。
行业分析显示,此次降价后DeepSeek在国内市场的价格优势显著扩大。根据公开数据对比,其定价策略已低于多数国内同类产品。有开发者通过实际使用场景测算,调整后的价格体系可为用户节省约73%的成本。这种变化被网友形象地比喻为"手机流量从5元1G降至5毛1G",直观反映出价格调整的幅度。
价格变动引发了技术社区的热烈讨论。部分用户认为这是DeepSeek通过技术优势抢占市场份额的战略举措,其开源架构和长上下文处理能力已形成差异化竞争力。开发者群体中开始出现将工作流程从Claude或GPT迁移至DeepSeek的讨论,认为当前是评估替代方案的最佳时机。更有观点指出,如此力度的折扣可能重塑AI应用的经济模型,使中小团队获得使用顶级模型的机会。
市场观察人士指出,DeepSeek的降价策略与开源生态建设形成协同效应。通过降低使用门槛,该模型正在快速吸引开发者构建应用生态,这种"技术普惠"模式可能改变现有竞争格局。特别是对于预算有限的创业团队,顶级模型的可及性提升将加速商业模式的验证周期,推动AI技术向更多垂直领域渗透。









