OpenAI o1拉开中美大模型差距?专家:CoE架构和混合大模型可与之匹敌

 邮箱网  0条评论  2061次浏览  2024年09月18日 星期三 10:05

分享到: 更多
新浪科技讯 9月16日下午消息,日前,OpenAI 发布 o1-preview,问鼎最强大语言模型,引发业内关注。国内也产生了质疑的声音:为何大模型领域国内追赶了一两年,差距好像没见缩小,甚至是扩大了。

根据行业专家张俊林的观点,事实可能并非如此。o1-preview 之所以能够更强,其方法本质上是思维链(Chain-of-Thought, CoT)的自动化。通过 CoT 把一个复杂问题拆解成若干简单步骤,这有利于大模型解决复杂逻辑问题,但之前这个过程主要靠人工来达成。o1 采用的这种方法,将使得 Prompt 工程逐渐消亡,也就是说所有复杂人工环节的自动化成为了大势所趋。

但其实,这种思想和方法并非OpenAI的首创。早在7月底的ISC.AI2024大会上,360集团创始人周鸿祎就宣布,“用基于智能体的框架打造慢思考系统,从而增强大模型的慢思考能力”。360发布的CoE(Collaboration-of-Experts,专家协同)技术架构及混合大模型,就是该方法的产物,并且该技术架构已经落地到了多个产品中;值得一提的是,在大模型技术前沿,国内比 OpenAI 在开放协作的道路上走的更远。比如 CoE 架构并非只接入了一家企业的模型,而是由360牵头,百度、腾讯、阿里巴巴、智谱AI、Minimax、月之暗面等16家国内主流大模型厂商合作打造,目前已经接入了这些企业的54款大模型产品,未来预计会全量接入100多款大模型产品。

标签:OpenAI大模型中美

我的评论:

请  后发表评论。