360开源视觉语言对齐模型FG-CLIP2:细粒度识别性能取得突破

大模型之家讯 11月3日,360方面宣布正式开源视觉语言对齐模型FG-CLIP2(Fine-Grained CLIP 2)。该模型的主要技术突破聚焦于“细粒度识别”能力,旨在提升机器对现实世界的视觉理解精度,使其在识别对象时从“大概”走向“精确”。官方表示,这类能力被视为推动AI技术从概念走向实际落地的关键环节。

360开源视觉语言对齐模型FG-CLIP2:细粒度识别性能取得突破

根据360公布的数据,在多项中文视觉语言基准测试(benchmark)中,FG-CLIP2表现优于包括谷歌(Google)与Meta在内的同类系统。然而具体测试指标及范围,仍以官方公开数据为准。

当前,视觉语言模型正被视为通向通用人工智能(AGI)的一条重要路径,而细粒度识别能力的提升,被业内认为将直接影响AI在安防、制造、搜索与信息检索等领域的应用成熟度。随着FG-CLIP2开源,国内外技术社区对其未来发展以及在产业中的实用表现仍保持持续关注。

原创文章,作者:志斌,如若转载,请注明出处:http://damoai.com.cn/archives/13449

(0)
上一篇 7小时前
下一篇 2024年7月17日

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注