AI 網絡安全:OpenAI 與 Anthropic 競賽

人工智慧的網路安全如今已成為OpenAI與Anthropic之間正式的競爭前線,OpenAI正為有限合作夥伴推出一款先進的安全產品,而Anthropic則運行一個名為Project Glasswing的嚴密控制項目,旨在在攻擊者之前找到關鍵軟體漏洞。

摘要

  • OpenAI正為先行發布的AI網路安全產品做最後準備,面向有限的合作夥伴群體。
  • Anthropic的Project Glasswing是一個受控的計畫,專注於主動搜尋關鍵軟體漏洞。
  • 這兩項努力引發了關於誰控制AI攻防工具以及出錯時誰負責的根本性問題。

人工智慧已從幫助防禦者理解威脅的工具,轉變為能自主發現並利用漏洞的系統。OpenAI與Anthropic正直接進入這一領域,對政府、企業以及支撐全球金融基礎設施的數百萬軟體系統產生影響。

OpenAI完成安全產品,Anthropic運行Glasswing

根據Tech Startups的報導,OpenAI正完成一款具有先進能力的AI網路安全產品,計劃首先向有限的合作夥伴群體發布。Anthropic則在內部運行一個名為Project Glasswing的平行計畫,這是一個嚴密控制的倡議,旨在在惡意行為者之前主動搜尋關鍵軟體漏洞。

這兩個公告標誌著兩大AI實驗室在定位策略上的轉變。兩者都正從通用AI轉向具有直接攻防能力的安全專用產品。問題不再是AI在網路安全中能做什麼,而是誰控制它,以及出錯時誰負責。

Anthropic的過往紀錄顯示

Anthropic已經展示了AI安全工具能達成的規模。如crypto.news報導,該公司在早期測試中限制了Claude Mythos Preview模型的存取,因為測試發現它能揭露數千個關鍵漏洞,涵蓋廣泛使用的軟體環境,包括OpenBSD中的一個27年前的漏洞,以及FreeBSD中的一個16年前的遠端執行漏洞。Anthropic表示:“鑑於AI進展的速度,這類能力很快就會普及,甚至可能超越那些致力於安全部署的行為者。”

Anthropic引用的行業數據顯示,AI驅動的網路攻擊年增率達72%,全球87%的組織在2025年報告遭遇AI相關事件。Project Glasswing被定位為Anthropic用來保持領先的受控努力。

雙用途AI安全工具的風險

對監管機構和產業來說,更深層的問題在於,能用來防禦的同一AI工具,也能用來攻擊。如crypto.news指出,Anthropic與MATS Fellows共同研究發現,Claude Sonnet與GPT-5在測試中能產生針對以太坊智能合約的模擬攻擊,價值達460萬美元,並在近3,000個近期部署的合約中發現了兩個新型的零日漏洞。

這種雙用途的現實,使得兩家公司所追求的受控推廣策略變得至關重要。但有限存取是否足以防止擴散,仍是兩家實驗室尚未完全回答的問題。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言