
昨天12月31日,阿里云通义千问视觉理解模型宣布全线降价超过80%,这一消息瞬间在行业内引起了轩然大波。其中,Qwen-VL-Plus的降价幅度更是高达81%,输入价格仅为0.0015元/千tokens,这一价格创下了全网最低记录。而更高性能的Qwen-VL-Max也降至0.003元/千tokens,降幅同样惊人,达到了85%。
这一降价潮并非突如其来,早在今年9月19日,阿里云就已经对其三款通义千问主力模型进行了降价。其中,Qwen-Turbo的价格较之前直降85%,低至百万tokens 0.3元,Qwen-Plus和Qwen-Max的输入价格也分别再降价80%和50%。如此频繁的降价和如此大的降价幅度,让人不禁猜测,这背后到底是技术进步的必然结果,还是市场竞争日益激烈下的无奈之举?
事实上,目前国内大模型市场可谓是热火朝天,除了阿里云的通义千问外,还有腾讯的混元语言大模型、字节的豆包、百度文心一言、科大飞讯的讯飞星火、京东的言犀、华为的PanGu-Σ以及快手的快意等众多大模型。这些大模型的投入成本都相当高,包括模型规模、训练数据、硬件设施、研发周期以及后续维护等多个方面。随着模型规模的增加,计算资源成本也可能进一步上升。
然而,尽管投入巨大,但相比ChatGPT通过其会员订阅制,及API调用费用来回血,国内的大模型相对更难些。国内toC市场的付费意愿并不高,这主要是由于用户的付费习惯尚未形成(说白了,还是收入水平有限么,不差钱,付个费算什么),以及大模型的使用场景相对偶尔。此外,产品使用满意度也是影响用户付费意愿的重要因素之一。这些问题并非一朝一夕能够解决,因此,对于想要在人工智能领域深耕的公司来说,toB市场或许是大模型最好的出路。
通过大模型技术解决痛点业务场景的问题,给企业带来降本、增效、提质、拉需、创利等实际价值,确实是一个值得尝试的方向。然而,现实情况可能并不如想象中那么美好。大模型本身虽然样样通,但通并不代表精。在真正的商业化领域,专与精才是生存之道。因此,大模型在toB市场的应用也需要不断探索和优化。
针对此次降价,阿里云百炼相关负责人表示:“此次降价主要得益于阿里云基础设施和模型结构的持续优化,以及大模型调用量指数型增长带来的规模效应。我们希望第一时间把技术红利释放给所有用户。”
虽然阿里云的官方表态来看,成本降低带来的红利,所以降价。但也不得不认为是当前市场环境决定的,大模型越来越多,竟争肯定也会越来越激烈,使用满意度一时难以改变,不如先把价格做下来,抢占市场,才是重要的。也只有通过更多的企业或用户使用反馈,才能更好的探索发现产品本身的方向和问题,进一步改进产品本身,提高产品的竞争力,最终存活下来。百花齐放只能一时,并不能一世,最终鹿死谁手,很难说。
不过,可以预见的是,在未来一段时间内,大模型的使用成本将会更低,越来越普及,同时也将越来越专业。这不仅是技术进步带来的必然结果,也是市场竞争下的必然选择。我们继继关注一下2025年吧,看看啥情况。