字节豆包大模型祭出“白菜价”,这波操作有点东西

 邮箱网  0条评论  1091次浏览  2024年05月17日 星期五 09:26

分享到: 更多
来源:IT之家 作者:汐元 责编:汐元

5 月 15 日,火山引擎春季 Force 原动力大会正式在北京国贸大酒店举办,在大会上,字节跳动豆包大模型正式发布。火山引擎总裁谭待在会上介绍,经过一年时间的迭代和市场验证,豆包大模型正成为国内使用量最大、应用场景最丰富的大模型之一,目前日均处理 1200 亿 Tokens 文本,生成 3000 万张图片。

大的使用量,才能打磨出好模型,也能大幅降低模型推理的单位成本。豆包主力模型在企业市场的定价只有 0.0008 元 / 千 Tokens,0.8 厘就能处理 1500 多个汉字,比行业便宜 99.3%。

谭待表示,超低定价来自于用技术优化成本的信心,并不是用“补贴”争夺市场。让每一家企业都用得起好模型,将助力企业以更低成本加速业务创新。


火山引擎总裁谭待

众所周知,2024 年正值生成式 AI 在千行百业落地应用的重要时间点,AI 大模型也成为各大企业重塑业务流程“关键工具”。在这个过程中,作为大模型服务提供者的云计算大厂们,自然扮演着重要的角色,同时,他们会采取怎样的技术路径、产品战略,如何满足不同客户的需求,也将深刻印象 AI 大模型规模化应用的进程。

对于这些问题,在这次春季 Force 原动力大会上,火山引擎也给出了自己的回答。

AI 大模型赋能千行百业成趋势,但企业面临这些困难和痛点
要理解火山引擎对于 AI 大模型规模化应用的战略和主张,我们首先需要知道千行百业的企业对于大模型使用的需求和痛点究竟是怎样的。

首先,企业为什么需要使用大模型,或者说 AI 大模型能够为企业带来什么?这个问题可以从三个层面来回答。

第一点,AI 大模型可以满足企业对产品或服务体验创新的需求,企业想要进一步发展,就必须对自己的产品和服务持续优化创新。当传统的方式对于产品体验的提升达到边际效应时,大模型的应用就可以大幅突破瓶颈。比如电商企业可以利用大模型应用对用户的购物行为和喜好进行分析,从而推荐更加符合用户口味的商品,同时大模型还能对用户反馈进行实时监测和分析,优化产品功能和性能等,这些都能帮助企业在具体业务场景中提升创新能力,改善用户体验。

第二点,就是大模型可以通过自动化和智能化的手段,满足企业降本增效的需求。AI 大模型对于加快业务流程、优化决策和提升团队效率有很大的帮助,比如蒙牛基于豆包大模型搭建了 AI 广告投手智能体,通过智能化调优实现效果最大化,节省预算 30% 以上。

第三点,AI 大模型也可以满足企业对于差异化优势的追求,企业可以基于自身的业务和数据特征打造出独特的领域大模型,在市场竞争中借助 AI 获得差异化的竞争力。

可以说,大模型在不同领域的企业中应用,已经是不可逆的趋势,但是在目前,企业使用大模型重走业务流程时,也存在诸多痛点。

比如,眼下市面上模型种类众多,厂商众多,加上很多企业在大模型业务落地方面缺少实践经验,难以让大模型与业务更好地适配,应用效果也难保障,这些都造成企业在模型选型方面难以抉择。

同时模型使用的成本也难以控制,包括模型训练和精调的算力成本、海量数据采集、清洗和标注的数据成本,以及专业算法人才的人力成本等。

同时,模型落地难度大也是痛点,很多企业缺少模型训练、推理、评测、精调等流程的平台,缺少必要的模型扩展插件和简单易上手的应用开发工具,也模型调优等方面的经验。

最后,很多企业也担心模型使用中的安全可信问题,比如缺少安全资质的模型容易出现合规隐患,模型也可能为用户输出不合规的敏感内容,以及企业在公有云上使用大模型服务,网络架构不透明、数据处理流程也不清晰,无法达到审计要求。

满足企业的需求,解决企业的痛点,就是火山引擎 AI 大模型战略的底层逻辑,这次正式发布的豆包大模型则是这种底层逻辑的体现。

字节豆包大模型这些优势,充分满足好模型的要求

前面我们说到,选型困难是很多企业选用大模型时遭遇的痛点,而字节跳动豆包大模型丰富的应用场景则可以帮助企业解决“选择困难症”。

1、解决企业模型落地的困难

豆包大模型原名“云雀”,是国内首批通过算法备案的大模型之一。字节跳动基于豆包大模型打造了 AI 对话助手“豆包”、AI 应用开发平台“扣子”、互动娱乐应用“猫箱”,以及星绘、即梦等 AI 创作工具,并把大模型接入抖音、番茄小说、飞书、巨量引擎等 50 余个业务,用以提升效率和优化产品体验。


同时,在苹果 App Store 和各大安卓应用市场,豆包 App 的下载量在 AIGC 类应用中已经排名第一,同时豆包上已有超过 800 万个智能体被创建,月度活跃用户达到 2600 万。

可见,豆包大模型在这次正式发布前,已经经历了非常丰富的应用场景的历练。

字节跳动做了很多学习和探索,希望找到适合的大模型应用形态,以足够自然的交互方式,为用户的生活和工作带来便利。

在大会上,字节跳动产品和战略副总裁朱骏表示。

为此,他们首先将豆包大模型应用于字节跳动内部的业务中,包括办公智能助手、电商导购、售后客服、营销创作、数据智能分析、编程助手等业务场景,覆盖 50 余个业务。

不仅如此,火山引擎还和众多行业客户共创,包括智能终端、汽车、金融、消费和互联网等领域。例如小米的小爱语音助手于豆包大模型合作,提升了语音能力、知识储备和性能效率,华硕 a 豆系列笔记本则与豆包大模型合作,带来了为豆叮 AI 助手应用,招商银行基于扣子和豆包大模型搭建了可以推荐餐饮优惠门店的“掌上生活”bot,以及能汇总市场行情的“财富看点”bot……

同时在这次大会上,火山引擎还联合中国电动汽车百人会,与吉利汽车、长城汽车、捷途汽车、赛力斯、智己汽车等 20 余家厂商,宣布成立汽车大模型生态联盟,致力于为消费者带来汽车全场景 AI 新体验。


不同的企业在不同业务场景中,需要不同特点的模型,从而实现最佳效果和性价比。为此,豆包大模型提供了一个有多模态能力的模型家族,目前主要包括通用模型 pro、通用模型 lite、语音识别模型、语音合成模型、文生图模型等九款模型,每一款模型都有其擅长的业务类型和应用场景,为客户提供了丰富的选择。


此外,为了解决许多企业对于大模型落地经验不足等问题,火山引擎还通过方舟 2.0 平台提供了全栈模型服务,包括全链的工具,方便企业们一站式构建 AI 应用,还提供丰富的插件,包括联网插件、支持海量丰富内容和视频理解于交互的内容插件、RAG 知识库插件等等,这些都让企业落地 AI 大模型在平台、工具、经验等方面的问题迎刃而解。

不仅如此,火山引擎还为企业提供专业算法团队的支持服务,包括业务诊断、训练优化、问题解答等,进一步保障 AI 应用落地。

2、降低企业模型落地的成本

接着还有另一个关键问题,就是成本。这一点我们在本文开头也说过,豆包大模型的定价大幅低于行业价格:以豆包通用模型 pro-32k 版为例,模型推理输入价格仅为 0.0008 元 / 千 Tokens。而市面上同规格模型的定价一般为 0.12 元 / 千 Tokens,是豆包模型价格的 150 倍。

根据火山引擎公布的价格计算,一元钱就能买到豆包主力模型的 125 万 Tokens,大约是 200 万个汉字,相当于三本《三国演义》。


值得注意的是,豆包大模型的低价,不只是轻量化版本的低价,更是主力模型和最先进模型的低价。而只有低价,企业才能以极低成本使用 AI 大模型,才可以充分试错和验证,在优化产品和服务、提升组织效率、降低成本等方面实现正向收益。

而除了更低的价格,另一方面,火山引擎作为云服务提供商,其具备的强大的系统承载力,也是能够帮助企业降低成本的关键。火山引擎拥有充沛的公有云 GPU 资源池,资源潮汐调度,保障流量高峰业务稳定,同时支持创建精调模型接入点后 5 秒即可使用,瞬时可用,再加上其可以分钟级完成千卡扩缩容,极致的弹性特征,高效支撑突发流量和业务高峰,也能为企业降低成本。

3、安全,可信赖

最后不可忽视的还有字节豆包大模型的安全性。它能够提供全周期的安全可信方案。在合规性方面,豆包大模型首批通过生成式人工之智能服务安全备案,并且火山方舟通过了 SOC 2.0 以及 ISO 系列安全标准评测。

同时,豆包大模型拥有网络架构透明化的特性,访问可控,可审计,在内容安全方面也有安全防护栏提供内容风险识别能力。

而在数据安全方面,火山引擎则通过加密的传输链路、数据落盘即加密和安全沙箱等方法,在训练和部署模型过程中有效保障数据安全,防止恶意攻击和数据泄露。

结语

据麦肯锡报告分析,大模型的价值创造潜力惊人,到 2030 年,有望在全球推动 49 万亿人民币的经济增量。而眼下,大模型正处于赋能千行百业的早期,对于企业个体而言,找到适合自己的好模型,改造整个业务流程,是当前必须应该要面对的事情。

标签:字节跳动大模型豆包

我的评论:

请  后发表评论。