OpenAI 警告其下一代人工智能模型存在很高的网络安全风险

Gwenda

OpenAI发出严厉警告随着其能力的快速发展,其下一代人工智能模型可能会带来该公司所说的“高”网络安全风险。微软支持的人工智能实验室周三宣布了这一消息,承认这些系统对防御者有用的能力也可能被攻击者武器化。

这一警告的时机特别值得注意,就在网络安全专家发出警报几周后关于 OpenAI 的 ChatGPT Atlas 浏览器中的漏洞。 10 月份的报告详细介绍了人工智能浏览器如何通过即时注入攻击来攻击用户,可能会窃取敏感数据,甚至耗尽银行账户。现在,OpenAI 承认,人工智能模型能力日益增强的更广泛趋势所带来的系统性风险远远超出了浏览器安全的范围。

OpenAI 不仅仅是敲响警钟并后退一步。该公司表示,它正在积极“投资加强防御性网络安全任务的模型,并创建使防御者能够更轻松地执行审核代码和修补漏洞等工作流程的工具。”

为了应对这些新出现的威胁,OpenAI 正在采取具体的组织措施。该公司宣布将成立一个名为“前沿风险委员会”的咨询小组,该小组将让经验丰富的网络防御者和安全从业人员与其内部团队密切合作。该委员会将首先关注网络安全,然后再扩展到其他前沿能力领域。

也许更有趣的是,OpenAI 表示,它将很快推出一项计划,探索为从事网络防御工作的合格用户和客户提供对增强功能的分层访问。这表明人们认识到,针对人工智能攻击的最佳防御可能是人工智能防御,但只有在正确的人手中。

该公司的风险缓解方法依赖于其所描述的“访问控制、基础设施强化、出口控制和监控的组合”。这种分层安全策略承认没有任何单一解决方案可以解决先进人工智能系统带来的多方面威胁。

即时注射问题

网络安全问题并不是什么新鲜事。早在十月份,专家警告OpenAI的ChatGPT Atlas浏览器存在安全缺陷这可能会让人工智能助手反对用户。核心问题?即时注入攻击,隐藏在网页内容中的恶意指令可能会欺骗人工智能系统执行未经授权的操作。

伦敦大学学院交互中心助理教授乔治·查尔赫布当时告诉《财富》杂志,“即时注射总是存在一些残余风险,因为这就是解释自然语言和执行动作的系统的本质。”攻击者可能会使用白色背景上的白色文本或人类难以发现但人工智能浏览器仍会读取的机器代码等技术来隐藏这些指令。

OpenAI 的首席信息安全官 Dane Stuckey 在 X 上承认,该公司正在“非常仔细地研究和减轻”有关即时注入的风险。不过,他补充说,“即时注入仍然是一个尚未解决的前沿安全问题,我们的对手将花费大量时间和资源来寻找让 ChatGPT 代理陷入这些攻击的方法。”

地缘政治背景

这一网络安全警告是在围绕人工智能发展的地缘政治紧张局势日益加剧的背景下发出的。八月,OpenAI首席执行官萨姆·奥尔特曼警告称,美国可能低估了中国的进步在人工智能领域,这表明仅靠出口管制可能并不是维持技术优势的可靠解决方案。

“你可以对一件事实行出口管制,但也许不是正确的事情……也许人们会建造晶圆厂或找到其他解决方法,”奥特曼在谈到半导体制造设施时说道。他的评论凸显了中美人工智能竞赛的深刻纠缠本质,他称这场竞赛比简单的谁领先记分牌更重要。

地缘政治层面又增加了网络安全担忧的一层。十月,OpenAI 报告称,外国对手越来越多地使用多种人工智能工具为黑客攻击提供动力并影响操作。该公司禁止了与中国政府实体相关的账户,其中包括一些要求 OpenAI 模型“为旨在监控社交媒体对话的大型系统生成工作建议”的账户。

这对行业意味着什么

OpenAI 的警告标志着人工智能行业走向成熟的时刻。多年来,有关人工智能风险的讨论往往集中在生存威胁或工作岗位流失上。现在,我们看到具体、直接的网络安全问题成为焦点。

前沿风险委员会的成立表明 OpenAI 认识到它无法单独解决这些问题。通过将外部安全专家纳入决策过程,该公司承认人工智能安全需要多样化的观点和专业知识,这是任何单一组织都无法提供的。

针对网络安全专业人员的分层访问计划还指出了更细致的人工智能部署方法。 OpenAI 似乎并没有平等对待所有用户,而是正在转向一种模型,即根据需求和专业知识授予最强大功能的访问权限,特别是当这些功能可能被滥用时。

更广泛的行业将密切关注其他人工智能公司如何应对这些挑战。我们会看到谷歌、Anthropic 或其他主要参与者发出类似的警告吗?监管机构将如何应对这些公认的风险?随着技术从令人印象深刻的演示转向具有现实世界后果的现实世界部署,这些问题将塑造人工智能发展的下一阶段。