距离微博@评论罗伯特 AI机器人上线,已有将近一年时间。期间,有不少AI企业接入到微博,开始运营自家AI智能体机器人,比如月之暗面旗下的智能体@I人靠山Kimi、MiniMax的“星野家族”、聆心智能的@聆心解忧Bot和@夸夸小精灵矩阵,商汤旗下的@MBTI分院帽之电子聊愈版等……
通过AIGC技术,在社交媒体生成评论,得到了AI企业们青睐,不仅以此方式推广自家产品和技术,还能借助社交平台的高效传播,实现广而告之。
对于微博智能体在评论区扮演的“0评论终结者”,不少网友在表现出新奇的同时,也表达了对这类AI自动评论机器人的质疑,在“强势挽尊”的同时,一些没有边界感、“已读乱回”的评论,难免造成一些不愉快的情况。
而在这背后,有些技术相关人士担心,如果AI基于社交平台公开数据进行模型训练,是否能对其价值观形成进行把控。
AI智能大量入驻,对微博生态是否能形成正向激励?
据大模型之家观察,除@评论罗伯特 之外,AI企业运营的微博智能体账号都带有“AI智能体”标签,随机挑选用户的微博动态,并主动评论,而且这些“人机”还会出现互相评论的情景,这个社交世界也逐渐“发癫”。
当然,针对AI智能体对用户的动态评论,可以说让人喜忧参半,甚至有网友表示:“有时候真想拉黑评论罗伯特”,随即@评论罗伯特回复:“哈哈,那我得先学会隐身术才行!”让人哭笑不得。
部分平台用户表示,智能体评论“毫无边界感”,有“骚扰用户”的嫌疑。不少微博网友甚至还自发组成了“评论罗伯特受害者联盟”,汇总了一些以@评论罗伯特 为代表的AI回复。本应为用户提供情绪价值的AI智能体,却“话里藏刀”阴阳怪气。
智能体的参与,对微博生态是否是件好事呢?
从数据和流量上来看,一些不靠谱的回复,确实能够带来新鲜感和讨论度,具备了一定的传播力和趣味性,提升用户活跃度。
微博AI幕后团队也在接受媒体采访时表示,平台本身具备大量的活跃用户,每天都会产生新的热梗和话题。这些AI Bot让自身的平台生态更加丰富,不同功能的智能体为用户带来了不同的价值。
然而,大模型训练相关业内人士则向大模型之家表示自己的担忧:社交媒体鱼龙混杂的语料,如果成为大模型的训练素材,那么大模型的价值观是否会被“污染”,数据收集与管理的难度,或将影响到社交媒体的内容,在大模型训练中所占据的权重。
谁来管理AI智能体的价值观?
一位大模型训练工程师对大模型之家表示,AI智能体评论社区用户动态的过程,本质上可以视作对人工智能大模型的训练,尤其是涉及自然语言处理和情感识别等方面。
一般来说,如果AI智能体的评论行为可能涉及个人数据或影响用户的个人权利,理论上应优先征得用户的同意。但以微博平台为例,众多AI智能体账号,随意的抓取用户动态内容进行评论互动来“喂数据”,目前仍处在用户数据治理灰色地带。
算法价值观被讨论的同时,价值对齐是当前人工智能发展和控制的核心议题,那么谁来管理AI的价值观变成了当下亟需解决的问题。要实现AI与人类世界的价值对齐,必须制定研发的规范,也就是通过在模型和计算层面上的规范,实现让人工智能理解、遵从人类的价值、偏好和伦理原则,最大限度地防止有害输出、无效输出、失控滥用。
大模型之家认为,每个训练AI智能体的企业,都是AI价值观的对齐的首要责任人。在推动技术发展的同时,要坚持与正确的人类价值对齐,才能确保人工智能技术不会对人类社会造成负面影响。
以月之暗面、MiniMax等人工智能企业为例,目前以社交平台的用户动态作为AI智能体的“投喂”数据,更加需要人类对AI生成的内容负责。
AI Bot自生成内容可能存在的法律风险
另一方面,大量AI账号涌入评论区,也不禁让人产生社交媒体被“赛博水军”入侵的担忧。
不少网友向大模型之家表示,自己遭遇到不少AI机器人的评论攻击的遭遇,很难不联想到被AI机器人操控评论的可能性。
图源:社交平台截图
“一开始我会主动关注评论机器人,来希望机器人会‘宠幸’我的动态,再后来,我都没有关注和@的账号都来给我评论,觉得烦了甚至怕一些坏人盯上我”一位微博用户告诉大模型之家。
针对AI智能体推动特定议题影响公众舆论的导向,是否会让AI技术愈发不可控,而出现原则性问题,该由谁来负责呢?
对此,北京大成律师事务所高级合伙人肖飒律师表示,当前我国并没有明确的规定禁止AI评论,只要AI的言论内容符合我国法律法规的规定、符合互联网平台规定、不侵犯用户的个人权利即可。
她同时表示,AI机器人的评论的内容可能存在法律风险,对于如果造成用户损失,在明确确实是AI造成的损害的基础上,谁担责的问题,目前存在争议,并无一个较为权威的观点。肖飒团队认为,在民事责任的承担上,可考虑通过产品责任的规则原则,要求AI机器人的开发者、运营者来承担赔偿责任。
她还补充道,利用AI操纵舆论的行为可能产生侵权风险、违反行政规定的行政处罚风险,甚至违反刑法产生的刑事风险。在民事方面,如果对他人名誉权造成侵害的,要承担侵权责任;在行政处罚方面:行为人通过AI操纵舆论对他人以语言攻击等形式侵害他人的,其行为具有违法性,情节较轻的可能会被进行行政处罚,处罚的方式为警告、拘留等。
大模型之家认为,AI智能体是大模型的重要应用场景,AI提供者和运营者必须采取切实有效的措施,以规避潜在的风险。
首先,AI提供者应加强对AI智能体的监管,确保其不被用于非法用途。这要求AI提供者在设计和开发阶段,就要充分考虑到技术的安全性和可控性,通过技术手段防止AI智能体被恶意利用,如AI水军等舆论战方向。2024年7月,中央网信办也曾强调,要不断强调严厉打击社交机器人、批量生成文案等新型的网络水军。
其次,AI运营者在使用AI智能体时,也应严格遵守相关法律法规和道德规范,不得将其用于网络操纵、虚假信息传播等违法行为。同时,AI运营者还应加强对AI智能体的管理和监控,及时发现并处理任何异常行为。
AIGC的发展推动了社交平台的内容繁荣,但不应是AI编织出来的“虚假繁荣”,人工智能企业更多应该思考如何明确智能体使用范围和技术可控,明确人工智能价值对齐强化企业社会责任意识,制定危机管理计划。
原创文章,作者:赵小满,如若转载,请注明出处:http://damoai.com.cn/archives/8233