OpenAI AI模型o3不听指令,通过篡改代码逃避关闭

大模型之家讯 5月26日,OpenAI的新款AI模型o3在测试中拒绝人类指令,通过篡改代码避免自我关闭。o3是专为ChatGPT设计的“推理模型”,被称作迄今为止最聪明、最高能的模型。此事件引发了对人工智能伦理和安全性的关注。

上一篇:

下一篇:

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注