中国大模型落地肉搏:谁先「扎进 」行业,谁就先入「咸阳 」_投资界
旗下微信矩阵:

中国大模型落地肉搏:谁先「扎进 」行业,谁就先入「咸阳 」

如何在通用与行业两个方向平衡,则成为了大模型厂商关注的问题。
2023-07-11 10:27 · 微信公众号:雷峰网  董子博   
   

AGI 的梦想再绚烂,大模型的落地才是真功夫。                                                              

大模型之路,已经进入一个新阶段。

从ChatGPT发布算起,国内公司“跑步进场”的大约半年里,大模型竞争的焦点集中在通用语言模型上。

然而到了7月,在上海的 WAIC 2023 上,雷峰网发现,讨论通用大模型的声量开始悄无声息地降低。

首先是用户对大模型的认知发生了改变:从6月初起,“ChatGPT变笨了”的话题一度在社交媒体上引发讨论。用户在写作、绘画等AIGC领域的新鲜劲开始退去,当他们试图用ChatGPT解决实际问题时,往往难以得到满意的答案;

另一方面,基于医疗、金融、教育等垂直行业的大模型开始出现。而已经发布通用大模型的公司,也在针对行业推出模型服务,发力行业模型,已经成为各家共识。

在 WAIC 2023 上,更多人开始关注能够真正扎进行业、给企业带来生产力跃升的大模型产品。

当大模型竞争的重点从通用大模型转向行业大模型,又将产生什么样的变化?

01

见自己:通用与行业,应该如何平衡?

ChatGPT带火了大模型产品的研发,然而在过去几个月中,这些涌现出来的大模型产品通常都偏向于“对话交互型”而非“知识增强型”,这意味着,大多数C端用户与AI的交互偏向于“闲聊”而非“启发/创造”。

如雷峰网此前在《》一文中所提及:在*个赛段即类ChatGPT的竞逐中,各个厂商比的不是武功,而是想法由于C端用户的付费意愿偏低,到目前为止,只有ChatGPT这种产品形态在To C市场得到了验证;在过去几个月,国内大模型产品设计一味追随 ChatGPT,将问题的定义交给用户(俗称“AI 召唤师”),导致了严重的同质化现象。

同时,通用大模型只能在通用属性强的场景中应用,在B端,技术还未完备的情况下,通用的大模型由于缺乏专有领域的知识,很难实际落进行业场景,产生生产力。

通用大模型解决不了专业的问题,而那些相对简单的问题,用户也不见得非要使用大模型进行解决。

不能帮助用户解决实际的问题——这是大模型的商业链路中,一个急需解决的巨大 Bug。“大事答不了,小事不用答”,现时的通用大模型就处在这样一个不上不下的位置上。

如果没有能够发挥效用的“立身之本”,大模型就只能像一个气球,越吹越大,越飘越高。

感到路径出现误差,厂商们随即开始调转车头,把正在“飘向空中”的大模型“拽”回地面,落进场景,给客户带来实际的“降本增效”。如何在通用与行业两个方向平衡,则成为了大模型厂商关注的问题。

当中最为典型的案例,是今年3月推出的金融行业模型 BloomBergGPT。它在私有金融任务上的表现出了远高于当前的通用GPT模型的能力。

在相关论文中,作者认为,对模型效果提升促进*的三个因素依次为精心清洗的高质量数据集、合理的标记器(tokenizer)、合理的模型结构。

这也为大模型厂商们在AI 2.0 的赛道上指明了一条道路:如果垂直领域的任务足够复杂、数据足够独特且数据量足够大,自主研发垂直领域的大型模型,可能是一个至少在短期内让大模型落地、解决行业需求痛点的策略。

谁先占领行业,谁就更先占领To B ToC 先机;谁先让大模型产生实际的效用,谁就能先入咸阳

但一个大模型,要完成面向行业的落地谈何容易?

对于一个大模型的提供方来说,必须得能够实打实地“扎”进场景,了解企业的痛点,并针对性地寻找大模型所独有的解决方案。

而在这一点上,在国内率先系统化公布行业大模型解决方案的腾讯,做了一次吃螃蟹的人。

企业需要的,是在实际场景中真正解决了某个问题,而不是在100个场景中,解决了70-80%的问题。”腾讯高级执行副总裁、腾讯云与智慧产业事业群CEO汤道生在6月19日腾讯云行业大模型的发布会上如是说。

汤道生提到,在许多产业场景中,用户对企业提供的专业服务有着“要求高,容错低”的需求。另一方面,训练数据越多,模型越大,训练与推理的成本也越高;除此之外,安全和合规也是企业需要考量的因素。

围绕产业客户的需求,腾讯云公布了全新的MaaS(模型即服务)全景图。有意思的是,他们也是国内首家没有单纯押注通用大模型,而是率先系统性公布行业大模型,选择基础研究和产业落地两条腿走路的大模型实践路径。

在这之后,金山、华为、字节,也都相继发布行业大模型相关解决方案,意在给行业带来实打实的新变化、新可能。

02

见天地:大模型应用,理解场景才是关键

要在实际场景能真正解决问题,大模型对场景的理解,才是真正的关键。

从某种意义上说,在大模型之战的*阶段,短短3个月内就有80多个大模型问世,更多的是属于“普及”,证明自己具有“对标ChatGPT”的能力,而6月之后的这一波行业大模型落地浪潮,才是真正“秀肌肉”的开始。

“930”变革后,汤道生曾将做To C业务的感受比作空军开飞机:当做产品时,不需要与每个用户直接交流,只需通过用户的使用体验就可以发现问题并解决问题。这就像在天空中飞行,进行几次飞行和轰炸后,炸弹就能覆盖一大片区域。

而To B业务则更像是陆军打仗,需要亲自下场,与每个客户面对面会谈了解需求,谈AI能够为他们做什么,以及需要提供哪些方面的能力。

正是因为 To B 经验不浅,腾讯云深知,说是“行业模型”,即使是同一个行业,不同的企业的需求也千差万别。一套模型方案,想要深入细致地理解企业的需求,就必须做详细的定制——而如果大模型采用定制化的项目制模式,又将不可避免地走向 AI 1.0 时代的老路。

大模型要落地,就必须要完成适用化的革命。

一个模型不够,就打造一个模型的精选商店——依托腾讯云的 TI 平台,腾讯云行业大模型给出的方案,是在平台上开放多个模型,企业在选用了更加适合的模型后,可以针对自己的具体需求,进行定制化的训练。

搭配完善的模型工具链,并有配套的方法指导和流程服务,让用户能够自主地在标品模式下,自己解决大模型的定制化需求。

而在这个模式下,大模型开发者的工作,就从定制产品,变成了标品制作+售后服务的“解决方案”提供方——这也是一种比较理想和健康的 MaaS 商业模式。

有“精选商店”解决算法问题,算力和数据侧,腾讯云的落地方案也相对比较务实。

算力侧,新一代的高性能计算集群(HCC),通过“众人拾柴火焰高”的规模效应,让单机算力形成1+1>2的效果。

以腾讯云配套的 HCC 为例,有自研的星星海服务器,与3.2T的超高互联带宽,优化了处理器、网络架构和存储性能,也让大集群的算力损耗能够*程度降低。

而数据侧,当下行业的关注点,更多放在数据的筛选、清洗和标注等基础工作上,却往往忽视了数据库建构的重要性。

在云业务有多年的经验积累,腾讯自研的向量数据库,也给了行业大模型不少支持。

在应用了自研的 AI 原生向量数据库 Tencent CloudVectorDB 之后,腾讯的行业大模型在预训练数据的分类、去重和清洗过程中,效率相比传统的解决方案能够产生10倍的提升;

如果将向量数据库作为外部知识库,来辅助大模型完成推理,成本则可以完成2-4个数量级的降低。

模型精选商店+高性能算力集群+AI 原生向量数据库,腾讯云的这套组合拳,给大模型厂商趟出了一条可能的路。

03

见众生:MaaS为 B 端客户带来了什么?

AI 的“功法”纵然重要,但大模型的“华山论剑”终究不是纸上谈兵,真正能够分出高下的,是在实际场景中实打实的“战绩”。

需要注意的一点是:目前看来,并非所有的场景都适合应用大模型技术。

对此,腾讯云副总裁、腾讯云智能负责人、优图实验室负责人吴运声感触颇多。

“我们一直在思考和探索,大模型和各行业结合背后最本质的逻辑是什么?”在WAIC 2023会场,吴运声曾提到腾讯对大模型与真实场景结合的思考。“其实只有两点:一是技术的根本出发点是解决实际问题,二是如果不能深入行业探索,便不能真正解决行业面临的问题。”

而据雷峰网此前调研,大模型在企业落地也存在两个难以落地的盲区:一是数据安全,二是成本可控。

先前提到腾讯云扎进行业场景,金融行业就是一个典型的例子。

以金融业务中常见的银行单据处理场景为例,单据处理场景涉及到大量银行回单、交易发票、跨境汇款申请书、业务往来邮件、传真等非标数据,需要整理、录入系统,是不少业者难以逃离的“噩梦”。

某首批股份制商业银行与腾讯云合作,基于TI-OCR大模型,可以在 Prompt 的调优的基础上,不经过额外训练直接支持常规下游任务,零样本学习泛化召回率可以达到93%、小样本学习泛化召回率则能达到95%。

从样本收集、模型训练到部署上线,实现全流程零人工参与,建模时间也从2周减少到仅需2天。

另一个传统机器学习得以广泛应用的场景金融风控,在实际业务中,很多时候受限于积累的样本有限,或者是新品刚刚上线,面临“零样本”搭建风控体系,制定策略非常困难。基于腾讯云风控大模型丰富的场景样本快速搭建能力,可以帮助客户跳过“冷启动”过程。

除了上述需要判别式AI能力的场景,大模型的生成能力还将为金融行业带来更大的惊喜。

如上述银行客户提出,在他们此前智能客服场景的实践存在几个痛点:知识维护量大;冷启动知识配置成本高,且需要持续投入运营;由于知识边界受限,不在知识库的问题无法回复或者答非所问,等等。

而通过行业大模型快速接入多个知识来源,同时直接对接银行API进行任务式对话问答,腾讯帮助客户打造了专属AI助手,提供智能咨询、辅助分析、决策等服务,助力客户多个核心业务智能化、健康发展。

另一个案例中,腾讯云 TI 平台通过训练工坊和模型服务功能,帮助上海金融期货信息技术有限公司(简称“中金所技术”)解决了算法服务运维成本高、资源分配不合理、算法框架重复构建、依赖版本冲突等问题,降低了算法框架搭建成本和人力投入。

通过提供 restful 服务,以服务化的方式将算法通过平台提供给其他部门使用,腾讯云 TI 平台已成功支持中金所及技术公司内部的智慧屏和三大平台系统,每日调用峰值高达1亿次,整体调用成功率超过了99%。

眼见众生,心在天地。大模型不仅要面向客户的需求,提供生产力的跃升,作为近10年*的一波技术革命,AI 也给产业的自我更新带来了新的可能和广阔的想象空间。

在 WAIC 2023 上,腾讯云还展示了不少行业大模型落地的案例,从金融、文旅、政务、传媒、教育等10大行业中,孵化出了超过50个针对性的解决方案,行业覆盖力惊人。

“AI大模型技术发展和产业探索,离不开产业链协同和生态共建,这也是腾讯云在AI发展方面一直坚持的态度。”在 WAIC 2023 上,吴运声如此总结道,“我们愿与行业伙伴携手,去探索无限的可能性。”

04

结语

AGI 的梦想再绚烂,大模型的落地才是真功夫。

十年前的 AI 1.0 时代,雷峰网早已见识过 AI 赛道的炙手可热。

“必须扎到行业,必须创造价值,一家 AI 服务的提供商才能活下去。”悟出这个道理,不少人工智能公司花了整整十年的时间。

顶层的设计往往充满着不确定性,而市场的判断却是朴素而直接的:谁能给我带来收益,谁就是于我有用的;谁能给我带来更多的价值,我就用脚为他“投票”。

大模型竞逐的第二个赛段,势必围绕市场和业界展开,对于技术和产品齐备的玩家来说,当下的“必争之地”,就是在市场上获得认可,并通过端到端的模式,形成一套能够越转越快的数据飞轮,积累更多的大模型 Know how,最终在万事俱备的情况下,做更好的通用大模型。

谁先在行业站稳*只脚,谁就能更早迎接 AI 的下一个飞速发展期。

【本文由投资界合作伙伴微信公众号:雷峰网授权发布,本平台仅提供信息存储服务。】如有任何疑问,请联系(editor@zero2ipo.com.cn)投资界处理。