5月22日,科大讯飞宣布,讯飞星火API能力免费开放。此前一天,阿里云宣布旗下通义千问GPT-4级主力模型降价,百度则宣布旗下文心大模型两大主力模型全面免费。随着大模型厂商技术角逐进一步激烈,行业开启价格战信号明显,“尽快抢占市场”正成为头部玩家共同的策略。通过降低价格门槛,大模型厂商有望吸引更广泛的企业用户群体,从而进一步平衡收入和成本。同时,更多C端用户有望免费使用基础AI应用,庞大的访问量有助于企业进一步提升模型服务能力,完成良性循环
◎记者 孙小程
大模型价格战继续硝烟四起,不断有新面孔加入战局。
5月22日,科大讯飞宣布,讯飞星火API能力正式免费开放。其中,讯飞星火Lite API永久免费开放,讯飞星火顶配版(Spark3.5 Max)API价格低至0.21元/万tokens。目前,百度文心一言ERNIE-4.0和阿里通义千问Qwen-Max的定价为1.2元/万tokens。
对于加入价格战,科大讯飞表示,新的价格体系将帮助开发者降低调用成本,驱动产品创新验证,解决真实世界的刚需。
科大讯飞目标:汇聚100万开发者
在今年2月的内部年会上,面向2024年,科大讯飞董事长刘庆峰提出了讯飞大模型战略的年度四大目标:底座大模型领先,星火通用大模型国内领先对标GPT-4;赋能软硬件产品,赋能智能硬件终端1000万、独立软件用户数过亿;行业应用领先,教育、医疗、金融、汽车等领域市场第一;开发者生态领先,汇聚100万开发者形成行业第一生态。
近段时间以来,科大讯飞在大模型领域进展颇多。4月26日,讯飞星火大模型V3.5“上新”,科大讯飞正式发布业界首个长文本、长图文、长语音大模型。升级后的讯飞星火不仅能够对各种信息来源的海量文本、图文资料、会议录音等进行快速学习,还能够在各种行业场景给出专业、准确回答。
科大讯飞还进一步升级了星火语音大模型,首发多情感超拟人合成,具备情绪表达能力,并推出一句话声音复刻功能。广汽埃安旗下昊铂HT 2024款车型已率先搭载科大讯飞超拟人合成技术,并于4月25日在全球上市。
4月23日,刘庆峰在业绩说明会上表示,预计2024年50%的研发投入用于大模型底座建设;预计今年6月,讯飞星火大模型能够对标GPT-4turbo当前最好水平。未来,科大讯飞围绕基础大模型的投入可能在研发投入中的占比会变成30%,应用的投入占比将增加,虽然占比降低但围绕基础大模型的研发投入规模依然会随着产业落地规模的增长而增长。
“随着底座基础模型能力的大幅提升,AI各类技术研究的底座逻辑在未来一两年内都要被大模型技术重写,再上一个大台阶。同时,我们也在积极研究通过‘蒸馏’‘减枝’,将模型变小,从而将其应用于手机、家庭、汽车等场景。”刘庆峰说。
降价能否带来“多赢”
在大模型价格战上,科大讯飞下场前,各大互联网巨头已是激战正酣。
5月21日,阿里云宣布旗下通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。1块钱可以买到200万tokens,相当于5本《新华字典》的文字量。降价后,通义千问的价格约为GPT-4价格的1/400。
在阿里云官宣数小时后,百度也迅速出手,于同日午后突然宣布旗下文心大模型两大主力模型全面免费,且立即生效。
此前,字节跳动于5月15日宣布豆包大模型正式开启对外服务,豆包通用模型pro-32k版、pro-128k版在企业市场的推理输入价格分别仅为0.0008元/千tokens、0.005元/千tokens,较行业降幅达99.3%、95.8%。
华龙证券研报表示,随着国内外大模型厂商技术角逐进一步激烈,大模型行业开启价格战信号明显。通过降低价格门槛,大模型厂商有望吸引更广泛的企业用户群体,从而进一步平衡收入和成本。同时,更多C端用户有望免费使用基础AI应用,庞大的访问量有助于企业进一步提升模型服务能力,完成良性循环。
零一万物CEO李开复认为:“在一定程度上,整个行业每年降低10倍推理成本是可以期待的,而且也应该发生。今天可能处在一个比较低的点,但是我觉得如果说以后大约以一年降价10倍来看,这是一个好消息。因为今天的API模型调用还是一个非常低的比例,如果一年降低10倍,那众多的人都可以用上。”
不过,在李开复看来,大模型疯狂降价或是一场“双输”。“我觉得大模型公司不会这么不理智。因为技术还是最重要的,如果是技术不行,纯粹靠贴钱、赔钱去做生意,我们绝对不会跟这样的定价来做对标,我们对自己模型表现是非常自豪的。”李开复说。