大模型之家讯 当地时间12月18日,OpenAI发布了名为“准备框架”的新规则,旨在确保前沿人工智能模型的安全性。
根据规则,OpenAI将对所有前沿模型进行评估,并定期更新其“记分卡”。此外,OpenAI将设定触发基准安全措施的风险阈值,其中规定了四个安全风险等级。只有缓解后得分在“中”或以下的模型才能被部署,而只有缓解后得分在“高”或以下的模型才能进一步开发。对于高风险或临界(缓解前)风险级别的模型,OpenAI还将实施额外的安全措施。
OpenAI强调,他们正在建立一个跨职能的安全咨询小组,对所有报告进行审查,并将报告同时提交给领导层和董事会。尽管领导层是决策者,但董事会保留逆转决策的权利。这一举措旨在确保人工智能技术的可持续和安全发展。
原创文章,作者:志斌,如若转载,请注明出处:http://damoai.com.cn/archives/2602