AI 使用盤點
梳理員工 AI、內部 Agent、數據源、API、文件目錄和主要風險位置。
中型企業 AI 安全防護插件
為 Claude、Codex、Google AI、本地模型或自建 Agent 加上一層可審計、 可維護的安全 Wrapper,讓 AI 只能在被授權的數據、網絡、文件和 API 範圍內工作。
Agent tried to export full customer table.
Discover / Assess / Defend / Observe
第一版聚焦企業最實際的風險:資料外洩、越權訪問、Agent 失控和出事後無法追溯。
梳理員工 AI、內部 Agent、數據源、API、文件目錄和主要風險位置。
限制 Agent 運行目錄、系統權限、CPU/RAM 和外部網絡訪問。
AI 不直接接觸核心數據庫,只通過授權 API 和 RAG Gateway 取得資料。
電話、電郵、客戶資料、密鑰和合約字段可被自動打碼或阻止。
每個 Agent 只可使用被授權工具,高風險操作默認關閉或轉人工審批。
記錄 prompt、輸出、工具調用、攔截原因,讓事件可追溯和復盤。
Demo Cockpit
以下使用模擬數據展示客戶上線後可能看到的監控畫面。它不是完整安全平台, 而是用來說明安全 Wrapper 的工作方式。
Request Flow
一個 AI 請求從員工輸入到輸出結果,會經過多層檢查和記錄。
Data Gateway
AI 不直接碰核心數據庫。所有資料查詢先進入 API / RAG Gateway, 再根據角色、字段、用途和風險等級返回授權內容。
Sandbox & Permissions
每個 Agent 有獨立運行空間,文件、網絡、工具調用和高風險操作都被限制。
Audit Trail
讓客戶看到出事時可以查:誰發起、哪個 Agent、調了甚麼工具、為何被攔截。
| Time | User | Agent | Action | Risk | Result |
|---|
FAQ
不是。它專注於企業使用 AI 時的數據、權限、工具調用、Agent 行為和審計邊界。
不能,也不應該這樣承諾。它的目標是降低日常 AI 使用中的主要業務風險。
原則上支持。防護層重點在企業系統和 AI 使用流程之間,不綁定單一模型。
基礎版不建議包含。這類高風險操作需要限額、審批流、人工確認和更嚴格日誌。
Next Step
用 45 - 60 分鐘確認現有 AI 使用場景、數據風險和優先保護範圍。