AI 初创公司 Anthropic 面临用户流失危机,安全考量或让其失去先机

大模型之家讯,AI 初创公司 Anthropic 近期面临艰难处境。该公司旗下 AI 产品 Claude2.1 推出后,许多用户发现其变得难以沟通和使用,经常无故拒绝执行命令。

问题的根源在于 Claude2.1 严格遵循其发布的 AI 伦理宪法,在安全和道德判断上变得过于谨慎和守法。这导致 Anthropic 在追求 AI 安全的过程中,不得不牺牲部分产品性能。大量付费用户对此表达了强烈不满。他们纷纷在社交平台上抱怨 Claude2.1“已经死了”,并表示准备取消订阅转而使用竞争对手 ChatGPT。

业内人士指出,Anthropic 的困境再次凸显了创业公司在 AI 领域面临的两难。为确保 AI 安全严格自律无疑是正确的方向,但过度考量道德和法律后果可能让公司失去先机,并在日益激烈的竞争中处于下风。

上一篇:

下一篇:

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注