新火種AI|國產AI大模型打響首波“價格戰”
作者:一號
編輯:美美
AI大模型的價格要被打下來了。
5月15日,字節跳動在火山引擎原動力大會上正式發布豆包大模型。它日均處理1200億Tokens文本,生成3000萬張圖片。但豆包大模型在過去一年所取得的成就并非發布會上最亮眼的。
實際上,大模型的價格才是此次發布會最大的亮點。據介紹,豆包主力模型在企業市場的定價只有0.0008元/千tokens,0.8厘就能處理1500多個漢字,比行業便宜99.3%。
外界普遍認為,這是字節跳動率先在大模型領域發起了“價格戰”。
國產大模型開打“價格戰”
以豆包通用模型pro-32k版為例,模型推理輸入價格為0.0008元/千Tokens,而市面上同規格模型的定價一般為0.12元/千Tokens,是豆包模型價格的150倍。可以說,豆包大模型的定價,成功地把大模型價格從“分”時代拉到了“厘”時代。
而在5月11日,智譜 AI 大模型開放平臺上線了新的價格體系,新注冊用戶可以獲得額度從500萬 tokens 提升至2500萬 tokens,并且個人版 GLM-3Turbo模型產品的調用價格從5元/百萬tokens降低至1元 / 百萬 tokens。
阿里云則是在今日拋出重磅炸彈,通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,即0.5厘/千tokens,緊追豆包大模型的定價,來了個大跳水,直降97%,擊穿了全球底價。
而百度這邊,則是宣布文心大模型兩大主力模型,分別支持8K和128k上下文長度的ERNIE Speed、ERNIE Lite全面免費。可以說,國產AI大模型之間的首波“價格戰”,正在打響。國內大模型已從參數規模、性能指標“卷”到了token價格,從以分計價發展到以厘計價。
大模型“卷”價格是必然
據國家數據局數據,國內10億參數規模以上的大模型數量已經超過了100個。而除了少數幾個大模型,例如文心一言、通義千問、豆包ai以及Kimi Chat等,能夠在To C市場上有一定的知名度,其他絕大部分的大模型都尚未能在To C市場上找到自己的位置。
因此,To B市場成為了大部分大模型廠家著力占領的市場。然而,To B市場的游戲規則從未改變,面對大量同質化的大模型,“卷”價格幾乎是必然發生的事情。在哪家便宜就薅哪家的羊毛的心理驅動下,你不降價,客戶就會跟著別人跑。在價格戰之后,服務將是下一個開“卷”的點,直至最終留下模型效果好、價格低、服務好的企業。
大模型價格戰的打響,意味著在去年上半年還是藍海的大模型行業,如今已是紅海。之所以將豆包大模型的價格定到以“厘”計價。字節跳動火山引擎總裁譚待是這么說的,“今年是大模型提升應用之年,需要將AI相關生態建立起來,但是創新的風險成本很高,只有把試錯成本降低,才能實現更大范圍的普及”。
2023年,中國AI大模型行業市場規模為147億元,預計2024年將增長至216億元。中國用戶數量龐大、場景多樣,大模型之間打響“價格戰”,將有利于國產大模型的生存和市場的持續發展。因此,無論是市場驅動還是促進行業發展,國產大模型之間“卷”價格幾乎是必然會發生的事情。
“價格戰”加速行業滲透
加速行業滲透,是大模型商業化的最后一公里。
盡管大模型“價格戰”已經打響,但并不意味著國內大模型市場已經到了發展后期。實際上,國內大模型市場仍在發展的初期階段,“池塘還在培養的過程”。大模型廠家之間應當通過技術提升和改革來降低成本,而不能僅僅為了占領市場而降價,讓價格低于企業實際成本,從而陷入惡性競爭的循環,讓價格戰失了“底線”。
當前大模型“價格戰”,應當以實現大模型應用落地,讓更多人受益為主,而非占領市場,以虧損來換收入并不可取。在將大模型普及之后,企業需要繼續以提升大模型能力為目標,以產品力去征服客戶。
與此同時,國產大模型產業實際上仍面臨算力瓶頸的問題。國內高性能AI芯片市場受進口限制和技術瓶頸的雙重影響,這將成為制約大模型產業發展的一個重要因素。“價格戰”或許也將促進自主高性能AI芯片的研發以及優化算力配置等。
轉載請在文章開頭和結尾顯眼處標注:作者、出處和鏈接。不按規范轉載侵權必究。
未經授權嚴禁轉載,授權事宜請聯系作者本人,侵權必究。
本文禁止轉載,侵權必究。
授權事宜請至數英微信公眾號(ID: digitaling) 后臺授權,侵權必究。
評論
評論
推薦評論
暫無評論哦,快來評論一下吧!
全部評論(0條)