OpenAI创始人SamAltman、总裁GregBrockman和首席科学家IlyaSutskever联合在该公司官网上发布了一篇题为《超级智能的治理》的博文。文章称,人工智能系统将在大多数领域超越专家技能水平,我们可以拥有一个更加繁荣的未来,但我们必须管理风险才能实现目标。考虑到存在风险的可能性,我们不能只是被动反应,超级智能需要特殊对待和协调。
文章提出了应对风险的三布方案:1.在领先的开发工作之间进行一定程度的协调,以确保超级智能的开发方式既能维护安全又能帮助这些系统与社会顺利整合;比如世界主要政府可以设立一个项目,让许多当前的努力成为其中的一部分,或者可以集体同意,前沿人工智能能力的增长速度被限制在每年一定的速度。2.成立“人工智能版国际原子能机构”,即专门的国际监管机构,任何超过一定能力阈值的工作都需要服从于国际权威机构,该机构可以检查系统,要求审计,测试是否符合安全标准,对部署程度和安全级别进行限制,等等;这样一个机构应该把重点放在降低生存风险上,而不是应该留给各个国家的问题上,比如定义人工智能应该被允许说什么。第三,我们需要确保超级智能安全的技术能力,这是一个开放的研究问题,我们和其他人正在为此付出很多努力。
OpenAI高管认为,重要的是允许公司和开源项目开发低于重要能力阈值的模型,而无需具有繁琐的机制的监管,如许可或审计。阻止超级智能的产生是有风险和困难的,阻止它需要全球监管制度,并且即使这样也不能保证有效。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。