一直在觀察這些情況在真實組織中的展開,說實話,現在有點亂套了。



你的行銷團隊正在將客戶資料傳送到免費的 ChatGPT,你的工程師則在隨意貼上專有代碼到各種 AI 調試工具中,卻沒通知 IT。研究顯示,71% 的員工都在這麼做,57% 的人還在積極隱瞞安全團隊。

讓我夜不能寐的是:這不是出於惡意。這些人只是想提高工作速度。問題在於,免費的 AI 工具運作的模式與企業軟體完全不同。當你將資料貼入免費版本時,你不只是獲得幫助——你也在餵養訓練資料管道。那段代碼、那份客戶名單、那份策略文件?它們現在已成為模型權重的一部分。你無法刪除,也無法讓它忘記。

還記得2023年的三星嗎?工程師將敏感的原始碼貼到 ChatGPT 以進行優化。那段碼已被吸收進訓練資料中。沒了。

但事情還沒完,還更糟。如果你的團隊在沒有適當協議的情況下,將歐洲客戶資料傳送到美國的 AI 工具,你很可能已經違反 GDPR。而當員工用未經審核的 AI 生成報告或客戶交付品,模型卻胡亂捏造內容?突然間,你就面臨著將錯誤資訊當作事實傳遞給客戶的風險。這不僅是技術問題,更是聲譽災難的前兆。AI 不知道正確與捏造的差別,使用者也一樣。

真正的問題在於我所稱的治理缺口。禁止這些工具行不通,只會讓使用行為轉入地下。你需要一個不同的策略。

技術上,你可以偵測部分情況。DNS 監控可以捕捉到對 OpenAI、Anthropic、Midjourney 的流量。DLP 規則可以標記貼入聊天界面的代碼或個人識別資訊(PII)。但最好的偵測者?是你的員工。如果他們不怕受到懲罰,他們會告訴你他們在用什麼。

這裡有一個真正有效的框架:

第一,發布一份清楚的允許/封鎖清單。如果還沒有經過批准的工具,要誠實說明。對高風險域名部署 DLP 規則。由高層發送備忘錄,說明 AI 有用,但免費工具很危險。

第二,建立正式政策,分為三個層級:允許 (經過審核的企業工具)、監控 (低風險工具用於非敏感資料)、拒絕 (用於訓練你資料或缺乏安全標準的工具)。並針對不同角色進行培訓。

第三,實施瀏覽器控制,限制未授權的 AI 域名。考慮部署 AI 閘道,能在資料傳送到模型供應商前即時 redact PII。

第四,建立 AI 治理團隊,定期審查新工具與風險。讓員工能輕鬆申請新工具,避免治理成為瓶頸。

但重點是:如果你不提供更好的方案,這一切都沒用。他們用免費工具,是因為它們有效率、方便。

這裡的 BYOK(Bring Your Own Key)模式很有趣。自己帶鑰匙,意思是你的組織直接向像 OpenAI 或 Anthropic 這樣的供應商購買 API 存取權,然後接入一個平台,讓員工用單一介面存取多個模型。你掌控 API 金鑰,資料流動都在你的控制之下。沒有在你的資料上進行訓練。完全可見、完全合規。

這才是真正阻止影子 AI 的方法——不是禁止,而是讓安全的路徑變得最方便。

那些將資料貼到 ChatGPT 的員工,不是想洩漏 IP,他們只是想做好工作。問題不在於不服從——而是市場的速度超越了企業採購的速度。解決這個問題,你就解決了風險。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言