字节跳动,“放大招”了!
5月15日,火山引擎发布会上,字节正式对外发布豆包大模型,并宣布了0.0008元/千Tokens的超低定价。
火山引擎还做了个类比:一元钱就能买到豆包主力模型的125万Tokens,大约200万个汉字,相当于三本《三国演义》。
豆包大模型的上线,意味着字节正式加入今年全球最火热的大模型战局。
坊间有评论认为,作为国内最激进的互联网公司,字节跳动在大模型的投入上是不够的。但从去年11月开始,字节开始把越来越多的资源放到AI探索上:根据晚点LatePost报道,梁汝波不仅在OKR里强调将调整公司组织配合AI战略,新的研发也在组建。此前,抖音前任CEO张楠也宣布要聚焦剪映,寻求在AI辅助创作上的的突破。
内部多次大调整,似乎也意味着字节要拿出真正实力来决胜AIGC时代。
大模型“价格战”打响
豆包大模型的推出,正式打响了国内大模型价格战。
近期,全球AIGC领域最热议话题莫属于OpenAI发布了最新旗舰生成AI模型GPT-4o,不仅拥有业内最前沿强悍的技术,还拥有更低的价格。
与GPT-4 Turbo相比,GPT-4o速度提升了两倍,速率限制高出了5倍,价格还减半。值得注意的是,OpenAI还允许客户无须注册ChatGPT就可直接使用该服务,将使用条件限制取消。
OpenAI的这波操作,促使国内做大模型大厂们不得不思考接下来如何将技术提升上去,同时价格还得压下来。
字节推出国内超低价的豆包大模型,也算是跟进OpenAI这波操作。
据了解,豆包大模型定价只有0.0008元/千Tokens(即0.8厘处理1500多个汉字),宣称比行业便宜99.3%。同时豆包大模型应用场景也十分最丰富,目前日均处理1200亿Tokens文本,生成3000万张图片。
除字节外,其他大模型厂商们也开始行动了。
近日,幻方量化旗下DeepSeek(深度求索)推出第二代MoE模型DeepSeek-V2,该模型API定价为每百万Tokens输入1元、输出2元(32K上下文),价格为GPT-4 Turbo的近百分之一。
此外,智谱 AI 大模型开放平台也推出全新价格体系,新注册客户可以获得额度从500万tokens 提升至2500万tokens,同时个人版 GLM-3Turbo模型产品的价格从5元/百万tokens降低至1元/百万 tokens。
大家加快技术速率升级与降价,归根结底是大模型要真正的“落地”。
据麦肯锡报告分析,到2030年,大模型有望在全球推动49万亿人民币的经济增量。市场是十分庞大的,但此前大模型处于一种“虚高”状态中。
如今你随机问10个人,可能9个都不清楚大模型究竟是什么。
需要大模型的客户端,又用不起。坊间传闻,GPT-4的训练成本高达10亿美元;百度十多年间在AI上的投入超过1000亿元。
研发成本过大决定着定价高,导致中小企业压根用不起。
腾讯云副总裁吴运声接受媒体采访曾表示,“为什么腾讯云在去年提行业大模型,是因为通用大模型很大,真正要在行业里面用起来有很多门槛。客户买不起,买了推理也推理不起,哪怕精调也太贵了。”
消费者不清楚,企业端用不起,自然而然“大模型也被传出是‘概念产品’”。不过,现在掀起的技术升级与降价风潮,势必对大模型真正的“接地气”利好。
To C再To B,全新大模型商业化路径
回到字节,则早有AI大模型的野心。
发布豆包大模型前,字节就在AI应用上试水。
豆包,原名云雀大模型在去年8月推出,是国内首批通过算法备案的大模型之一。同时字节近期接连推出AI产品,包括拥有AI生图功能的“星绘”、AI角色互动的“话炉”以及对标小红书的“可颂”等。
从云雀大模型的研发到大模型服务平台豆包的推出,再到产品应用,可以看出字节AIGC领域布局上进行了全方位覆盖的打法。
豆包大模型的正式推出,字节做大模型真实意图也展露出来:
依旧要做爆款应用,只是这次打造的是“系统型超级应用”,面向的是C端市场。
目前国内大多大模型厂商是基于基础模型再自研出自家通用大模型,比如百度文心一言,需要进行大量的学习训练再展开实际应用,还是被定义为通用大语言模型,面对的客群也主要B端企业客户。
豆包是一个大模型,但并不像通用大模型,其概念更像AGI即更全面的人工智能系统。
目前,豆包不单具备识别、语音合成等大模型基础通用的功能,它还可以通过各种学习训练成专有模型或者嵌入应用。
据透露,基于豆包大模型,字节不仅打造了AI对话助手“豆包”,还有AI应用开发平台“扣子”、互动娱乐应用“猫箱”,以及星绘、即梦等AI创作工具,同时还把大模型接入抖音、番茄小说、飞书、巨量引擎等50余个业务。
训练或是嵌入AI应用越多,这个大模型就有海量数据和场景可以做训练支撑,功能与场景也更将全面,这也意味着大模型的自主训练学习的能力会更强,这也更接近AGI的概念了。
超低价及嵌入应用这两点,也表明是字节做大模型面向的是C端市场,其未来或许是想靠庞大的客户量进一步驱动大模型的发展,进而再发展该领域B端客户,这是典型的“用C端应用来做B端产品的思维”。
但这个靠大模型驱动的AI应用体系一旦形成,可预测的是字节未来或许将打造一个“系统型超级应用。”
试想一下,嵌入豆包大模型的应用或是衍生出的AI应用,在技能上是无边界的,这也意味AI应用功能部分可能会重合,应用的差异性将会缩小,最后或许就合并形成一个系统型超级应用(可通过模型训练学习后功能齐全的应用)
这也意味着,未来AI手机或许也只需要一个功能齐全的系统型超级应用了。那时候,就不是应用间的竞争,而是超级应用间的竞争,厂商们可能都需要自研大模型,要么就要像有大模型的厂商去购买了。
字节这步大模型的“棋”,布得很大。
机遇与挑战几何?
野心纵然再大,也得有能力去实现。那么,字节做大模型的优势有哪些?
一是客户;二是资金了。
作为国内爆款应用最多的大厂之一,字节旗下抖音国内就有超7亿客户,TikTok在全球也拥有超10亿客户,完全具备大模型训练时所需的庞大客户数据做支撑。
字节的资金储备也充足。
4月,胡润研究院发布了《2024全球独角兽榜》,字节跳动以1.56万亿元人民币的价值连续三年成为全球价值最高的独角兽全球价值最高的独角兽。另据市场消息,2023年,字节营收达到了1200亿美元,这年息税折旧摊销前利润就超过400亿美元。
不过,大模型领域所需的资金投入是“无底洞”。
字节收入是多,但公司如今也再寻找“第二增长曲线”。
本身而言,字节旗下爆款应用是高度依赖客户的,如今随着互联网客户增长的见顶以及内容平台的激烈竞争,字节业绩增长也显著放缓。挖增,同时也是所有内容平台要破的困局。
布局AI领域,是提供给了字节收入的新路径,但也加大了研发、营销多方面的资金投入量。此外,字节训练的又是一个功能性更全的大模型系统,资金投入更是庞大。
所以对于字节而言,要做好大模型,投入大也是其需要面对的第一大难关。
还有技术上的难关。
与GPT-4相比,国内的大模型整体都处于一个落后的状况。不过,豆包大模型要打造的模型概念更系统复杂,这也意味着其不仅需要海量数据支撑,还需丰富的场景支撑,而这背后需要更为庞大的算力支撑。
三,应用落地上的难关。
字节能不能打造出系统型超级应用先不说。
大家做出的大模型多为生成式AI,落地场景一般是嵌入AI应用中。
但如今AI应用都远未普及,许多客户可能都还分不清AI应用与普通应用间的区别,甚至还有都没用过AI应用的。
可见,大模型在应用落地上任重而道远。
豆包大模型目前又处于起步阶段,客户量反响都还不好拿来说。但将豆包大模型嵌入自家应用体系中,势必会打破各个应用的边界,应用的功能或将重合,这是字节可能先要面对的问题。
总的来看,字节入局大模型领域的姿势是很新颖,但注定也是长路漫漫。然而一旦踏上正轨,字节或能迎来一个全新的“系统型超级应用”爆款时代。
参考资料:
1、琢磨事:国内的AI大模型,为什么应该做系统型超级应用?
2、互联网怪盗团:字节跳动的AI野心
来源 | 伯虎财经(bohuFN)
作者 | 安晓
字节跳动开始大规模的进军ai,开辟全新的赛道。