来源:北京商报
继微信、QQ浏览器、QQ音乐之后,腾讯文档2月17日上午宣布正式接入DeepSeek-R1满血版模型。同时当天下午已接入DeepSeek模型的腾讯AI助手元宝称,混元+DeepSeek两大模型支持深度思考功能。据统计,腾讯共有14款产品已接入DeepSeek。自大模型风起,腾讯采取跟随策略,但在开源、文生视频模型等节点上始终谨慎,当下旗下产品倍速接入Deep-Seek,业内人士不免猜测,下一个接入Deep-Seek的腾讯产品是哪个,同时好奇这其中是否藏着大模型杀手级应用。
火速接入
2月17日中午12:00,“腾讯文档正式接入DeepSeek-R1满血版”的官方推文阅读量超过6.5万,当时距离腾讯文档宣布只过了2小时16分,截至北京商报记者发稿,该文阅读量8.6万。腾讯文档官方公众号其他文章的阅读量则普遍在1万上下。
据腾讯文档介绍,接入后用户在AI文档助手中选择DeepSeek-R1模型,即可直接使用,腾讯文档小程序、网页版AI全屏页、移动端、桌面端均可体验。如选择DeepSeek-R1模型,用户可以获得经过长思考提供的更全面的答案,选用混元大模型用户则可以得到最常用、快速高效的回答。接入Deep-Seek-R1满血版模型后,腾讯文档还支持实时联网搜索,含微信公众号、腾讯文库在内的全网权威信息源。
元宝上周就接入了DeepSeek,当时提供的DeepSeek大模型仅支持联网搜索,2月17日元宝再次升级,混元+DeepSeek两大模型均支持深度思考功能。和腾讯文档一样,目前腾讯元宝内的各个模型也都覆盖公众号等腾讯生态内容及互联网信源。
当天,较早行动的QQ音乐表示,目前已集成DeepSeek-R1。基于DeepSeek-R1的深度思考,QQ音乐的AI助手在歌曲内容推荐、音乐知识问答、明星资讯搜索等进行更精准全面的音乐答复,其自研的歌曲创作大模型也正在测试部署DeepSeek。
此外,腾讯AI代码助手、腾讯元器、腾讯乐享、腾讯地图、腾讯云TI平台、腾讯云大模型知识引擎、腾讯云智算、腾讯云开发等产品也已经接入DeepSeek。
注重C端
今年开年,随着DeepSeek热度持续席卷全球,包括微软Azure、英伟达等海外科技巨头,以及国内阿里云、华为云、腾讯云、百度云、360数字安全等云厂商,纷纷选择了在自家的云服务平台上线DeepSeek大模型。
这相当于DeepSeek模型几乎成了主流AI云平台服务的标配。而在C端产品应用侧,几乎没有哪一家像腾讯这般,直接将Deep-Seek模型接入了腾讯元宝乃至微信这样的国民现象级产品。
此次的快速跟进跟腾讯的策略不无关系。2023年5月腾讯CEO马化腾这样类比AI,“对于工业革命来讲,早一个月把电灯泡拿出来,在长的时间跨度上来看是不那么重要的。关键还是要把底层的算法、算力和数据扎扎实实做好”。
谈到腾讯系产品火速接入DeepSeek,文渊智库创始人王超向北京商报记者表示,“论改造和产品能力,没什么企业比得上腾讯。大模型最大的成本是研发投入和买算力的资金,对腾讯而言,人力和算力已经投入,边际成本很低,内部重新做好资源分配和对接就可以”。
至于万众期待的大模型应用,“有两种可能性,如果是闭源的,那可能是一个全新的应用,如果是开源的,大概率出现在现有的App当中”。王超说。
淘汰阶段
尽管大厂纷纷搭上DeepSeek快车,但在AI商业爆发前夜,在模型优化和算力利用等方面,仍面临着诸多瓶颈。有业内人士称,进入2025年,在DeepSeek率先将大模型价格降至GPT-4的1%后,国内大模型赛道就已经进入了残酷的淘汰阶段。
以GPT-4为例,其训练过程需要使用海量的数据和强大的算力,耗费了巨大的成本。虽然大厂们在模型架构设计、算法优化等方面进行了大量的尝试,但要在保证模型性能的前提下,进一步提高模型的训练和推理效率,仍是一个巨大挑战。
而在算力利用上,目前AI计算主要依赖于GPU等专用硬件,但GPU的算力利用率并不高,存在着严重的资源浪费。据相关数据,OpenAI在训练GPT-4的过程中,其算力的利用率仅为32%—36%,大模型训练的有效算力利用率往往不足50%。这不仅增加了AI研发的成本,也限制AI技术的大规模应用。
不过,最大的挑战依旧是目前AI产品的盈利模式尚不清晰,这也是商业化变现的难点之一。虽然这几年来,AI技术在很多领域都有开始落地应用,但如何将这些应用转化为实际的商业价值,仍是一个有待长期探索的问题。
北京商报记者 魏蔚