在对大模型准确率的不断追求之下,一场AI界的“慢”革命已经在悄然上演。
9月13日,OpenAI内部代号“草莓”的全新大模型——o1-preview正式发布。就如同OpenAI的每一次新品发布,都无一例外成为了全球AI行业关注的焦点,凭借出色的推理能力和新颖的思维链(Chain-of-thought , CoT)原理详解技术,并在物理问题时,o1达到了真人博士的水平,这一出众的成绩,让o1一问世,立刻吸引了行业的目光。
而o1最大的突破,便是其所强调的“慢思考”能力。一时间,关于大模型推理的“快思考、慢思考”的讨论,迅速成为了业内的热点话题。
然而,AI行业内关于“慢思考”话题的起源,并非来自OpenAI。大模型之家了解到,早在7月底的ISC.AI大会上,360集团创始人周鸿祎便首次提出了AI“快思考”和“慢思考”的概念,并成功将其应用于实际产品中。
OpenAI的“慢思考”风口,已被国内捷足先登
那么,究竟什么是“慢思考”?
这个问题可以追溯到著名认知心理学家、2002年诺贝尔经济学奖得主——丹尼尔·卡尼曼的著作《思考,快与慢》中。在书中,他阐述了人类大脑处理信息的两种不同方式:快速直觉反应(系统一)和慢速深入分析(系统二)。
而所谓AI的“慢思考”,就是AI在遇到复杂问题时,能够模仿人类的思维方式,通过多步推理和深入思考,最终得出答案的过程。
通过一系列逻辑推理步骤,帮助模型逐步分解问题并找到答案,大幅优化了AI的回答精准度,特别是在复杂推理任务中的表现尤为突出。
这样一来,AI就不再只是依赖海量数据的训练,而是开始学会如何有效地思考和解决问题。随着“慢思考”能力的提升,大模型不仅在速度上,更在深度和精度上不断进步,让AI变得更加可信与可靠。
为了实现“慢思考”,o1大模型与其他对话式AI最大的区别在于它会在回答之前进行10秒钟以上“思考”,有助于模型避免出错,并提供更全面的解答。
但这又带来了另一个问题,o1大模型每次“思考”的10秒,却给用户带来了“反应迟钝”的负面体验。
事实上,这个问题早已被“卷服务”“卷体验”的国内大模型厂商想在了前面。
在ISC.AI2024大会期间,360提出了CoE(Collaboration of Experts,专家协同)架构。这一架构借鉴了大脑的功能分区结构,根据任务阶段,调动各功能中枢协同工作。
基于“类脑分区协同”的原理,CoE架构能够整合多个大模型与专家模型,形成一个强大的协作网络。通过思维链和多系统协同,CoE可以同时实现“快思考”和“慢思考”。例如,第一个模型负责给出初步回答,第二个模型则会进行反思与纠错,第三个模型则会总结并优化最终答案。这种分工协作的模式,使得CoE架构在推理任务中的表现更加灵活且精准,尤其在处理复杂问题时,能与OpenAI o1-preview媲美,甚至在某些场景下更胜一筹。
打开场景,打开格局
在理念上得“天时”,让CoE架构能够国内大模型发展能够领先OpenAI,那么国内丰富的场景,不仅带来了五花八门的智能化需求,也为大模型应用的创新与试错提供了广阔的空间,无疑成为了AI应用发展的“地利”。
周鸿祎曾表示:“大模型的技术突破已经使得AI在多个领域展现出前所未有的潜力,而真正的挑战在于如何将这些技术融入到具体的应用场景中,为各行各业创造实际价值。”
国内不少AI公司都从自身出发,将自家的明星产品利用大模型技术进行重构,为用户带来更好的体验与更高的效率。而得益于理论上的前瞻,OpenAI如今提出的思维链理念与技术,早在几个月前,就已经被国内应用到了产品之中,并取得了显著的成功。
作为CoE架构最为成功的落地应用之一,2024年1月,360AI搜索上线后,每月的访问量增速高达113%,迅速成长为全球访问量最大的AI原生搜索引擎。
“搜索+AI”的概念虽不新颖,但在大模型时代,Prompt成为了横在用户面前的“门槛”。“门槛”越低,体验越好,但产品研发就更加困难。如何将这一概念落到实处,提升用户搜索体验,却是一个不小的挑战。360AI搜索的成功,其背后的CoE架构功不可没。
360AI搜索的「深入回答」模式,在一次AI搜索的背后包含了至少7-15次的大模型调用,让AI根据有限的提示词理解用户意图,并对任务进行拆解,构建AI工作流,使多个大模型协同运作。这样,用户不需要提供专业的Prompt,用自然语言交流就能提供更精准的答案,实现了对复杂搜索问题的高效处理。
例如,在面对中文诗词翻译等高难度任务时,360AI搜索能够调用多个模型,既有通过“快思考”给出初步答案的效率体验,也提供了深入反思和纠错,再到最终的总结和优化的“慢思考”能力。
而360AI浏览器也让浏览器这个“长期无新意”的市场带来一些新的思潮。凭借对用户使用场景的深刻理解,360AI浏览器在浏览网页、观看图片、收听博客视频、视频,打开电子书、PDF文档等场景中,将文档分析、文档解读、脑图生成、视频内容生活、音频文字生成等AI能力“放到用户手边”,开箱即用。这一功能的背后,同样是基于CoE架构,通过多模型协作,让其在复杂场景下的应用变得更加广泛和高效。
国产大模型结盟“复联”,能否挑战OpenAI
尽管OpenAI在资本、算力等硬件条件上占据优势,但不可否认的是,“单打独斗”在AI领域难以维持正在成为行业共识。国内的大模型企业正通过开放合作,逐渐形成强大的合力,共同推动AI产业发展。
其中这一合作模式的最佳代表,便是由360牵头的国产大模型联盟。7月,在ISC.AI 2024上,360与百度、腾讯、阿里巴巴、智谱AI、Minimax等16家国内主流大模型厂商达成合作,共同打造了一个覆盖广泛的大模型合作平台,并结合多家的大模型能力,”让用户可一站式体验所有国内领先的大模型产品。
目前,这一平台已经接入了54款大模型产品,未来预计将扩展到100多款大模型。
对于用户而言,可以任意调用16家大模型产品,根据需求调用最优的模型,为自己提供服务。
通过这种方式,每家企业都可以根据自身的专长,开发出针对性最强的模型,而在需要处理复杂问题时,则可以通过CoE架构进行多模型协作,从而保证结果的准确性和效率,并通过用户的实际使用和反馈,厂商可以不断改进产品和技术。
而在近期,360还基于CoE技术架构打造了国内首个大模型竞技平台——模型竞技场(bot.360.com)。在多模型协作模式下,用户可以从16家国内主流大模型厂商提供的54款大模型中,任意选择3款进行“同台竞技”,在响应速度、耗时、效率等多个维度进行量化比拼,以此达成超越单个大模型回答的更优效果。
通过“以赛代练”的模式,既能帮助用户找到最优的大模型,提供更为精准和全面的答案;也能够及时为大模型企业及时获得用户的使用反馈,对产品进行查漏补缺。
从实际效果来看,在多模型协作的状态下,基于CoE架构的混合大模型AI助手Beta版以80.4测试总分,大幅超越GPT-4o的69.22分,且在11个能力维度上全面领先。即使是对于最新发布的 o1-preview,CoE 架构在未经专门优化的情况下也展现出了优势,特别是在中文语境下的任务中,其表现尤为出色。
尽管OpenAI在某些领域依然保持领先,但通过国内16家大模型厂商的“抱团”合作,已经逐渐缩小了与OpenAI的差距,并在多个领域展现出了独特的竞争力。
正如孟子所言:“天时不如地利,地利不如人和。”通过与多家国内大模型厂商的合作,更是实现了国内大模型企业的“人和”,这一合作不仅弥补了单一企业在算力上的不足,也使得整个国内AI领域呈现出百花齐放的局面。
看到这里,也就不难理解,为什么国内15家大模型企业能够如此团结一致,加入到360的开放AI生态当中,陪着周鸿祎“打团战”。
AI技术的发展不仅是技术层面的较量,更是理念与创新的碰撞。360在CoE架构上的前瞻见解,也让我们看到在全球AI技术发展竞赛中,中国企业所扮演的角色正在从“追赶者”逐渐成为领跑者。
凭借CoE“快思考”与“慢思考”相结合的创新技术,不仅缩短了与国际大厂的差距,更是在某些领域实现了弯道超车。而国内大模型生态的逐渐成熟,无疑为AI技术在各个行业的广泛落地打下了坚实的基础。
360牵头的大模型联盟,标志着AI生态的“开放协作”依然成为主流趋势,这种通过共享资源、共同进步的模式,展示了国内大模型企业在技术创新和商业落地上的高度灵活性与敏捷性。技术与合作的力量,正在为中国的AI企业打开新的机遇之窗,未来AI市场的版图或将因此发生颠覆性改变。
原创文章,作者:志斌,如若转载,请注明出处:http://damoai.com.cn/archives/7280