人工智能将在十年内超越大多数领域的“专家技能水平”,阻止“超级智能”的出现是不可能的事情。这是OpenAI 首席执行官山姆·奥特曼(Sam Altman)和他的同事Greg Brockman 和 Ilya Sutskever在近日发布的一篇博文中表达的观点。
OpenAI 的 ChatGPT 和谷歌的 Bard 等 AI 工具的迅速发展引发了广泛的争论和担忧,一些专家表示,AI 可能会消除近五分之一的工作岗位,学生会转向通过 AI 来撰写论文。但OpenAI 的高管在博文中写道,人工智能日益强大的力量更可以帮助人类。
他们认为,随着人工智能发展成为“超级智能”,这项技术需要受到监管而不是试图阻止。他们强调说,试图阻止超级智能的出现是行不通的,因为超级智能“本质上是我们所走技术道路的一部分”。
“就潜在的优势和劣势而言,超级智能将比人类过去不得不应对的其他技术更强大。”他们写道,并列举了核能和人工生物的例子。他们补充说,“我们也必须降低当今人工智能技术的风险,但超级智能需要特殊对待和协调。”
至于如何监管超级智能的发展,他们给出的方案是成立像国际原子能机构这样的组织。“任何超过特定能力(或资源,如计算)阈值的努力都需要接受国际权威机构的审查,该机构可以检查系统、要求审计、测试是否符合安全标准、限制部署程度和安全级别等。“ 他们写道。