2024 AI大模型生态暨算力大会,20位大咖领衔共探「AI NATIVE,生成未来」

2024 AI大模型生态暨算力大会,20位大咖领衔共探「AI NATIVE,生成未来」

大模型之家讯 9月25日,由AI大模型工场主办AI大模型生态暨算力大会今日举行。作为国内最具影响力与最懂大模型的AI生态大会,大会讨论了AI大模型的最新进展和未来发展趋势。

2024年被业内称为大模型应用落地元年,大模型产业应用落地不断提速,已覆盖多个行业和领域。AI大模型正逐渐成为当代全球科技领域的重要支柱,正以前所未有的迅猛之势驱动社会跃迁。

在大模型时代,AI原生需要回到问题的起点,用AI的视角思考,用AI的方式解决,完成下到上的全面变革,用AI生成未来。AI赋能不再是“各行各业+人工智能”,而是“人工智能X各行各业”。

随着大模型被越来越多的行业应用,它也催生了巨大的经济价值。目前,人工智能大模型产业是北京市的主导产业之一。据报道,2024年,北京市人工智能产业核心产值有望突破2500亿元,辐射产值规模超万亿元,成为全国人工智能发展的领头羊。从各个方面来看,大模型都是我们必须关注的领域。

基于这样的行业洞察,「AI Native,生成未来」成为本次大会主题词,中国信通院总工程师郭亮、360副总裁梁志辉、商汤科技产品总监、小浣熊家族产品负责人贾安亚、云知声技术副总裁刘升平、阿里云智能飞天实验室资深产品专家江潇、面壁智能副总裁缪钧玮、智谱AI大模型产业加速器总监邓瑞恒等二十位行业大咖来到大会现场探讨分享自身进展和独特观察。本次AI大模型生态暨算力大会采用线上图文直播+线下参展两种方式进行,共有数十家主流媒体进行了现场报道。

作为本次大会的主办方,AI大模型工场是一家大模型领域垂直行业媒体,专注深度解读大模型行业动态,提供一手消息。如今,已成为大模型行业内最具影响力的产业风向标之一,是2024年度TOP10AI领域媒体。目前,AI大模型工场服务了国内超上百家大模型厂商,有超几十个大模型垂直活跃社群,包含算力,大厂基础大模型,还有教育,医疗,电商等垂直类应用社群,覆盖十万名AIGC大模型从业者,拥有上百万大模型粉丝,服务包括华为、腾讯、阿里、百度、科大讯飞、智谱,360等头部大模型厂商。

AI大模型工场联合创始人孟好为表示未来更想作为大模型媒体生态平台,为各位大模型公司做好服务和对接,一起迎接大模型浪潮下新商业未来。

2024 AI大模型生态暨算力大会,20位大咖领衔共探「AI NATIVE,生成未来」

“我们站在这个新时代的门口,唯一可以确定的是,AI的未来将超乎我们的想象。而我们每个人,都是这个未来的一部分。”

近二十位行业大咖齐聚:AI进入大模型时代下半场

首先发言的是中国信通院云大所总工程师郭亮,他重点提到了算力。据郭亮观察,在通算时代,中国的算力年增长率高于大洋彼岸,增速在30%左右,大洋彼岸在10%左右。进入智算时代后,中国在智能计算方面遇到了很大的挑战。其中,最主要的挑战是在智能算力方面存在巨大的缺口,这会限制大模型的发展。

2024 AI大模型生态暨算力大会,20位大咖领衔共探「AI NATIVE,生成未来」

随后发言的是360集团副总裁梁志辉,他详细介绍了大模型在360AI搜索和360AI浏览器方面的应用,特别是AI搜索领域的最新进展与成果。

梁志辉首先强调了360在大模型应用探索中,找到的明星应用场景360 AI搜索。这款应用自年初发布以来,迅速在PC端积累了大量用户,8月份用户量已超过2亿,月活跃用户达到8000万。其核心特点在于,通过大模型技术实现了“你看、你问我答”的交互体验,彻底改变了传统搜索引擎“输入问题-返回链接”的模式。

2024 AI大模型生态暨算力大会,20位大咖领衔共探「AI NATIVE,生成未来」

360AI搜索接入了包括360智脑、文心一言、通义千问、豆包、Kimi等国内最强的16家大模型,基于360过去积累的搜索数据和用户行为,360AI搜索建立了强大的意图识别模型,来实现对于用户意图更加精准的理解;通过任务分解和模型调度,实现了对众多专家模型的智能调度,进而实现远超传统搜索引擎的智能化、灵活性和效率,实现了“让最强的模型解决最难的问题”。

最后,梁志辉介绍了360自研的CoE(Collaboration-of-Experts)技术架构,通过思维链和“多系统协同”的方式实现了大模型的“快思考”和“慢思考”。基于CoE架构的另一产品AI助手支持用户自定义调用和调试模型,提供了竞技场模式、组队PK、多模型协作等功能,进一步提升了用户体验。目前,这些产品已在手机端和PC端上线,用户可直接访问体验。

之后出场的是商汤科技产品总监、小浣熊家族产品负责人贾安亚,她分享了商汤在大模型领域的一些经验,重点提及了小浣熊AI大模型Copilot系列产品。小浣熊产品包括两个助手,一个是面向开发者的代码助手,一个是面向广泛办公人群的数据分析助手。

2024 AI大模型生态暨算力大会,20位大咖领衔共探「AI NATIVE,生成未来」

云知声技术副总裁刘升平,以云知声推出的山海大模型为例,分享了公司在大模型训练上的一些经验。比如,大模型训练的四个步骤:预训练、微调、偏好学习和Self Play优化。同时,提出了面向应用场景的优化方法,包括七种武器(如提示词工程、检索增强等)和一个秘方(数据训练的生产、选择与配比)。

2024 AI大模型生态暨算力大会,20位大咖领衔共探「AI NATIVE,生成未来」

刘升平还强调,大模型有不同的层次,不是通用大模型包打天下。面向不同的行业、面向不同的企业、面向不同的应用,需要相应级别的大模型。

在本次大会上,阿里云智能飞天实验室资深产品专家江潇也来到了现场,他带来了阿里云在通用大模型上的打法。

阿里云在去年10月发布了大模型产品“百炼”为例,这款产品的底层是阿里云AI计算服务PaaS和IaaS层的基础能力。基于MaaS(模型即服务)能力,阿里云打造了两个生态。第一个是应用生态,基于本身的大模型,阿里云自研了大模型分析、大模型写作、大模型会议客服等原生应用,另外还有一些合作伙伴,他们也可以在这个平台上为开发者做服务。

2024 AI大模型生态暨算力大会,20位大咖领衔共探「AI NATIVE,生成未来」

第二个是模型生态,通用大模型有大语言模型,除了这一部分,还有开源模型、行业大模型、多模态模型,和三方的百川、月之暗面的模型,都能在百炼的平台上进行服务调用。这些共同构筑了整体大模型的生态,目前这个平台已经有30多万企业客户进行注册和使用。

随后,面壁智能副总裁缪钧玮详细分享了面壁智能在端侧模型领域的探索与成就,以及他们对大模型“落地”的见解和策略。

缪钧玮指出,高效大模型的关键在于知识密度,即模型能力与模型参数之比。高知识密度意味着在更少的参数下实现更强的模型性能。同时提出“面壁定律”,指出随着技术进步,小尺寸模型将逐渐具备与过去大尺寸模型相媲美的能力,且推理成本将大幅下降。通过大模型底层的技术洞察,面壁智能发现大模型的知识密度平均每 8 个月提升一倍,这被称为“大模型时代的摩尔定律”,也称「面壁定律」。

2024 AI大模型生态暨算力大会,20位大咖领衔共探「AI NATIVE,生成未来」

他通过绘制模型能力与计算资源需求的曲线,展示了未来小尺寸模型在端侧设备上的应用前景。当模型能力与硬件计算能力相交时,即可实现特定任务的落地。随着手机、汽车等端侧设备计算能力的提升,多模态、RAG等复杂任务将在边缘计算中得到实现。

缪钧玮强调,面壁智能的愿景是将大模型推向离用户更近的地方,让终端设备具备AI能力。他们希望通过整合终端设备的计算能力,共同完成复杂任务,向通用人工智能(AGI)方向迈进。这一战略不仅将降低AI应用的门槛和成本,还将极大地扩展AI的应用场景和可能性。

最后,智谱AI大模型产业加速器总监邓瑞恒,分享了智谱AI在大模型产业上的一些思考。

2024 AI大模型生态暨算力大会,20位大咖领衔共探「AI NATIVE,生成未来」

智谱AI在大模型的发展上,强调计算能力和数据质量的重要性。同时抛出了关于大模型应用层公司,如何形成竞争壁垒并获取垄断利润的讨论。

他还提出了对于何为AI Native应用的看法,表示如果有新的终端硬件出现,可能会带来全新的AI Native产品,从而改变现有的移动互联网生态。

智谱Z计划对创业公司的支持态度是开放的,不强求所支持的公司必须基于智谱的模型,而是侧重大模型生态的建设和能力互补。

新趋势与大生态:大模型需要学会慢思考

目前在大模型爆发的第22个月,大模型产业在应用上已经落地了一段时间,各行各业在大模型的帮助下,正在走出藩篱。在这一过程中,大模型企业在都收获颇丰,并对未来趋势有了自己的判断,嘉宾们在会上对这些内容也做了精彩分享。

当前,大模型凭借海量的知识储备,能够对简单问题做出快速、精确的处理,但随着用户量的增长和用户需求复杂度的提升,大模型未来不得不处理一些更复杂的问题。在梁志辉看来,此时大模型应具备“慢思考”能力。

2024 AI大模型生态暨算力大会,20位大咖领衔共探「AI NATIVE,生成未来」

“慢思考”是相对于“快思考”而言的,什么是快思考?简单来说就是直觉型任务,如1+1等于几,无论是人脑还是大模型,推理一次就能得出答案。

如果你让大模型给你出一份游戏行业的研究报告,在执行任务的过程中,大模型会把任务拆解成多搜索任务,让多搜索任务同时完成,最后才能进行推理。这一过程需要多个大模型、多个API、多个工具才能完成,这就属于“慢思考”。针对这一趋势,360在7月底发布了CoE架构,CoE架构背后的大模型数量更多,有16家大模型,总共112个模型在背后工作,可以让生成能力最强的模型来解决慢思考任务,同时让多个模型进行配合、反思,去产出更高质量的答案。

相比之下,传统的MoE架构虽然背后也有多个大模型支持,但1个任务只能让1个模型进行回答。

此外,自从大模型出现后,市场上就出现了“AI会取代人类”“AI会抢走我们工作”的担忧,对于这一点,商汤科技产品总监贾安亚提到了一组数据,一定程度上解释了这些担忧。

一份对全球开发者的访谈数据显示,目前有超过6成的开发者已经开始或持续使用AI代码类工具,AI让他们获得了高达55%的提效。值得注意的是,其中的某些细分场景的提效不足55%,比如代码补全、代码重构等都没有超过50%。

2024 AI大模型生态暨算力大会,20位大咖领衔共探「AI NATIVE,生成未来」

为什么总的效率能超过55%?这是因为软件研发是团队协作任务,并不是一个人单点能把全链路事情做完。在这个情况下,AI提升的并不只是单个人、单个工种的工作效率,AI在单个任务、单个工种之上,提升了整体的团队效率。

可以看到,大模型在本质上和我们过去发明的汽车、电灯等工具没有区别,我们创造他们的目标都是为了我们能更好地工作和生活。而当他们被创造出来并被社会认可后,我们的生活确实变得更好了,更重要的是,就业市场会在这一过程中释放韧性。比如,当汽车出现后,马车逐步推出历史舞台,车夫也“失业了”,但市场上有出现了汽车司机这一职业。

换句话说,无论是个人还是公司,面对巨变,都只能拥抱变化,改变自己,这样才能获得新的机会。

总的来看,随着其大模型深度融入各行各业,一个生机勃勃的大模型生态体系正逐步构建完善。从算力、存储等基础设施到大语言模型、多模态大模型再到百花齐放的AI应用,属于大模型的时代才刚刚到来。

原创文章,作者:王昊达,如若转载,请注明出处:http://damoai.com.cn/archives/7396

(0)
上一篇 2024年9月26日 上午10:17
下一篇 2024年9月28日 上午8:44

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注