OpenAI发布安全指南:董事会有权阻止CEO发布新模式
12月19日,据官方公告,OpenAI在官网发布了一份名为“准备框架”的文章(Preparedness Framework)“安全指南规定了“跟踪、评估、预测和防止日益强大的模型带来的毁灭性风险的过程”。 OpenAI表示,正在选择“准备框架”的测试版本,“准备框架”(Preparedness)“团队”将致力于确保前沿人工智能模型的安全。“准备团队”将继续对人工智能系统进行评估,以了解其在四个不同风险类别中的表现。Open人工智能正在监控所谓的“毁灭性”风险,它被定义为“所有可能造成数千亿美元财产损失或许多人严重受伤甚至死亡的风险”。 根据安全指南,领导可以根据这些报告决定是否发布新的人工智能模型,但股东有权推翻其决定。
版权声明:本站所有文章皆是来自互联网,如内容侵权可以联系我们删除!