OpenAI 警告其下一代人工智能模型存在很高的網絡安全風險

Gwenda

OpenAI發出嚴厲警告隨著其能力的快速發展,其下一代人工智能模型可能會帶來該公司所說的“高”網絡安全風險。微軟支持的人工智能實驗室週三宣布了這一消息,承認這些系統對防御者有用的能力也可能被攻擊者武器化。

這一警告的時機特別值得注意,就在網絡安全專家發出警報幾週後關於 OpenAI 的 ChatGPT Atlas 瀏覽器中的漏洞。 10 月份的報告詳細介紹了人工智能瀏覽器如何通過即時注入攻擊來攻擊用戶,可能會竊取敏感數據,甚至耗盡銀行賬戶。現在,OpenAI 承認,人工智能模型能力日益增強的更廣泛趨勢所帶來的系統性風險遠遠超出了瀏覽器安全的範圍。

OpenAI 不僅僅是敲響警鐘併後退一步。該公司表示,它正在積極“投資加強防禦性網絡安全任務的模型,並創建使防御者能夠更輕鬆地執行審核代碼和修補漏洞等工作流程的工具。”

為了應對這些新出現的威脅,OpenAI 正在採取具體的組織措施。該公司宣布將成立一個名為“前沿風險委員會”的諮詢小組,該小組將讓經驗豐富的網絡防御者和安全從業人員與其內部團隊密切合作。該委員會將首先關注網絡安全,然後再擴展到其他前沿能力領域。

也許更有趣的是,OpenAI 表示,它將很快推出一項計劃,探索為從事網絡防禦工作的合格用戶和客戶提供對增強功能的分層訪問。這表明人們認識到,針對人工智能攻擊的最佳防禦可能是人工智能防禦,但只有在正確的人手中。

該公司的風險緩解方法依賴於其所描述的“訪問控制、基礎設施強化、出口控制和監控的組合”。這種分層安全策略承認沒有任何單一解決方案可以解決先進人工智能係統帶來的多方面威脅。

即時注射問題

網絡安全問題並不是什麼新鮮事。早在十月份,專家警告OpenAI的ChatGPT Atlas瀏覽器存在安全缺陷這可能會讓人工智能助手反對用戶。核心問題?即時注入攻擊,隱藏在網頁內容中的惡意指令可能會欺騙人工智能係統執行未經授權的操作。

倫敦大學學院交互中心助理教授喬治·查爾赫布當時告訴《財富》雜誌,“即時注射總是存在一些殘餘風險,因為這就是解釋自然語言和執行動作的系統的本質。”攻擊者可能會使用白色背景上的白色文本或人類難以發現但人工智能瀏覽器仍會讀取的機器代碼等技術來隱藏這些指令。

OpenAI 的首席信息安全官 Dane Stuckey 在 X 上承認,該公司正在“非常仔細地研究和減輕”有關即時注入的風險。不過,他補充說,“即時注入仍然是一個尚未解決的前沿安全問題,我們的對手將花費大量時間和資源來尋找讓 ChatGPT 代理陷入這些攻擊的方法。”

地緣政治背景

這一網絡安全警告是在圍繞人工智能發展的地緣政治緊張局勢日益加劇的背景下發出的。八月,OpenAI首席執行官薩姆·奧爾特曼警告稱,美國可能低估了中國的進步在人工智能領域,這表明僅靠出口管制可能並不是維持技術優勢的可靠解決方案。

“你可以對一件事實行出口管制,但也許不是正確的事情……也許人們會建造晶圓廠或找到其他解決方法,”奧特曼在談到半導體製造設施時說道。他的評論凸顯了中美人工智能競賽的深刻糾纏本質,他稱這場競賽比簡單的誰領先記分牌更重要。

地緣政治層面又增加了網絡安全擔憂的一層。十月,OpenAI 報告稱,外國對手越來越多地使用多種人工智能工具為黑客攻擊提供動力並影響操作。該公司禁止了與中國政府實體相關的賬戶,其中包括一些要求 OpenAI 模型“為旨在監控社交媒體對話的大型系統生成工作建議”的賬戶。

這對行業意味著什麼

OpenAI 的警告標誌著人工智能行業走向成熟的時刻。多年來,有關人工智能風險的討論往往集中在生存威脅或工作崗位流失上。現在,我們看到具體、直接的網絡安全問題成為焦點。

前沿風險委員會的成立表明 OpenAI 認識到它無法單獨解決這些問題。通過將外部安全專家納入決策過程,該公司承認人工智能安全需要多樣化的觀點和專業知識,這是任何單一組織都無法提供的。

針對網絡安全專業人員的分層訪問計劃還指出了更細緻的人工智能部署方法。 OpenAI 似乎並沒有平等對待所有用戶,而是正在轉向一種模型,即根據需求和專業知識授予最強大功能的訪問權限,特別是當這些功能可能被濫用時。

更廣泛的行業將密切關注其他人工智能公司如何應對這些挑戰。我們會看到谷歌、Anthropic 或其他主要參與者發出類似的警告嗎?監管機構將如何應對這些公認的風險?隨著技術從令人印象深刻的演示轉向具有現實世界後果的現實世界部署,這些問題將塑造人工智能發展的下一階段。