OpenAI要求建立监管机构管控超智能
OpenAI创始人山姆·奥特曼(Sam Altman)在美国国会听证会上表示,随着人工智能迅速发展,对人类构成的潜在威胁也越来越明显。他建议国会成立一个新机构,为“超过一定能力门槛”的人工智能技术颁发许可证,在向公众发布AI系统之前,应该由可以判断该模型是否符合安全规定的专家进行独立审计。他认为,人工智能是无法自我监管的,因此我们需要像国际原子能机构(IAEA)那样的国际组织来监管超级智能领域。OpenAI三大巨头也在公司博客上发表文章,表示人类已经无法依靠现有机构来控制快速发展的人工智能技术,建立一个国际监管机构来引导人工智能发展是至关重要的。一个国际监管机构可以在确保公共安全、维护道德标准和促进全球利益相关者之间的合作方面发挥重要作用。而且,监管机构可以为人工智能的研究和开发提供必要的检查,从而为这项新兴技术带来更安全、更负责任的未来。OpenAI认为,我们需要在领先的发展之间进行某种程度的协调,并限制前沿人工智能能力的增长速度。我们最终可能需要类似于IAEA的权威机构来监管超级智能方面的努力。对于超过一定能力门槛的努力需要接受国际权威机构的检查和审计,并测试是否符合安全标准。同时,我们需要开展技术研究,确保超级智能的安全。成立一个国际监管机构需要强有力的公共监督。人类需要开发超级智能技术,但必须找到一种平衡的方式来管理其风险。