新技术改变世界的速度在加快

发布时间:2023-06-12 00:00 来源:中国科学报 原文链接:点击获取

张宏江与山姆·阿尔特曼视频连线。

■本报记者 沈春蕾

6月10日,在2023北京智源大会“AI安全与对齐”论坛上,OpenAI联合创始人山姆·阿尔特曼以直播连线的方式发表主题演讲,并在北京智源人工智能研究院理事长张宏江的主持下,与中国人工智能(AI)研究人员进行了互动交流。

张宏江:您正在与欧盟及其他国家AI领域的人士沟通全球治理,现在进展如何?我们距离通用人工智能(AGI)时代还有多远?

山姆·阿尔特曼:这很难预测,需要通过不断研究才能得出结论,并且这条路不会一帆风顺,或许AGI很快就会到来,也或许在未来10年内,我们会拥有超强的AI系统。届时,全球监管将变得更加紧迫,历史上出现过很多因新技术改变世界的相关事例,现在这种改变速度正在加快。考虑到这种紧迫性,我认为准备好迎接这一切并就安全问题作出正确回答非常重要。

张宏江:您提到了先进AI系统的对齐问题,我也注意到在过去几年中,许多AI系统都付出很多努力来优化其对齐性能。我们可以在近几年完成对AI安全的研究吗?

山姆·阿尔特曼:“对齐”一词在不同场景中被使用,这也是我们面临的挑战,即能够安全地访问系统意味着什么。从传统意义上讲,让模型按照用户意图进行沟通的对齐是其中一部分。还有一些其他问题,如我们如何验证系统正在按照我们的意愿行事,以及我们将系统与哪些价值观对齐。我认为重要的是全面考虑如何获得安全的AI。

我认为对齐工作还在不断演变中,但这些技术很多仍停留在纸面上,我们需要超越纸上的技术,这是一个复杂问题,AI安全就是最新技术。正如我之前提到的,确定我们要与之保持一致的价值观不仅是一个技术问题,而是一个值得全社会深入讨论的社会问题。我们必须设计出公平、有代表性和包容性的系统,这不仅需要考虑AI模型本身的安全性,还需要考虑整个系统的安全性。因此,我们需要构建安全的分类器和检测器,以监测AI是否符合用户政策。这一点很重要。

此外,我认为很难预测和预先解决任何技术可能出现的问题。因此,通过从实际使用中学习并快速部署数据,并给人们提供时间来学习、更新和思考这些模型将如何影响他们的生活,这非常重要。

张宏江:您能分享一些在AI需求和决策方面取得的进展吗?在这项工作中,您的计划或想法是什么?

山姆·阿尔特曼:我认为一个重要的进展是人们开始关注如何安全建立先进AI系统的国际标准。我们希望在训练广泛模型并在其部署之前,思考应该进行什么样的测试。我们还就构建反映人们目标、价值观和实践的数据库进行了新的讨论,人们可以利用这些数据库来使他们的系统与之对齐,并探讨了开展AI安全性研究共享的形式问题。

张宏江:有一个很棒的问题来自观众——您是否打算重新开放GPT的源代码,就像在3.0之前一样?

山姆·阿尔特曼:关于源代码开放,我不太清楚,但可以确认,我们开源了一些模型,而其他模型则不开源。但随着时间的推移,可以开源的模型会越来越多。

当前,开源模型已经相当多了。我认为A-15模型起着重要作用,它为我们提供了额外的安全控制。您可以阻止某些用户,也可以阻止某些类型的微调,这是一个重要的回归点。就现在模型的规模而言,我对此并不太担心,但随着模型越来越大,确保正确性可能会变得昂贵。我认为开源一切可能不是最优路径,尽管这确实是正确路径,只是需要小心地朝着这些节点前进。

张宏江:开源模型确实有优势。无论是GPT-4还是开源的模型及简化性AI,我们有没有可能改变整个基础设施或模型架构,使其像GPT-2一样简单?对此您有何想法?从能力和安全性角度来看,我们可能确实需要一些非常不同的架构。

山姆·阿尔特曼:我认为我们将在这个能力上获得一些提高,但当前的模型类型展现的效果更好,这是一个原因。但如果在10年后出现另一个巨大飞跃,我也不会感到惊讶。另外,作为一名研究人员,我相信许多人都会好奇大模型和大容量模型在AI用户体验方面的下一步发展方向。我们是否会很快落后于增长曲线,或者下一个前沿是具有体现能力的模型,还是自主机器人?我也非常好奇接下来会发生什么。我们还没有答案。

张宏江:您对AI社区的设想是什么,在这个方向上可能具有很大推动力的因素是什么?

山姆·阿尔特曼:对我而言,没有比安全性工作更令人兴奋、活力四射、充实且重要的事情了。我坚信,如果一个人对一项重要的倡议非常认可,那将会以无穷的力量去实现它。这对我们团队来说确实如此。我们刚开始做时,觉得成功率会非常低。但如果我们能够找出如何构建AI,肯定会产生巨大变革。当然,我们必须开展安全方面的工作,这也是其中一部分,但谁也不能阻止AI的发展。

[作者:佚名]