人工智慧像初級開發人員一樣編寫程式碼,安全部門感受到了這一點2025.10.28人工智慧OX Security的《青年軍:人工智慧程式碼安全危機》報告揭示,AI生成程式碼雖加速開發,卻隱藏結構性安全缺陷。
人工智慧代理安全:誰的責任?2025.10.20人工智慧分析企業部署人工智慧代理(Agentic AI)所面臨的網路安全挑戰,聚焦於安全意識教育的不足、供應商與客戶間的共享責任模型,以及在快速發展的AI競賽中,安全測試被犧牲的風險。
ISO 42001 AIMS導入與實作探討 – AIMS風險管理2025.10.19人工智慧本報告系統整理 ISO 42001 AIMS 國際標準風險管理要求,結合大型語言模型(LLM)資料中毒與代理系統(Agentic AI)安全研究,揭示 AI 治理全景與實務框架。內容涵蓋風險識別、評估、控制、監測與持續改進,並提供組織導入 AIMS 的具體策略,確保 AI 系統的透明性、可信度與問責性,協助企業建立可審核、可持續的人工智慧風險管理體系。
當人工智慧代理加入團隊時:沒有人預料到的隱藏安全變化2025.10.15人工智慧探討自主型AI代理程式在企業環境中帶來的全新且隱藏的安全風險,分析其與傳統非人類身份(NHI)的本質差異,並提出追蹤所有權、運用意圖情境和預設唯讀權限等創新的身份管理與治理策略,以確保AI高速運作下的企業安全與可責性。
從提示到協定:代理系統、MCP、Vibe 編碼和模式感知工具如何重塑軟體工程2025.10.15人工智慧探討四種正在徹底改變軟體開發流程的尖端模型:代理系統(Agentic Systems)、模型上下文協議(MCP)、氛圍編碼(Vibe Coding)和基於模式的編碼(Schema-Based Coding)。現代軟體工程面臨著情境切換耗時、跨平台整合複雜、需求溝通效率低下以及數據結構與應用邏輯不同步等核心挑戰。
ISO 42001 AIMS導入與實作探討 – 組織全景分析2025.10.12人工智慧t初略解析 ISO 42001 AIMS 導入的關鍵節點。透過實際案例,瞭解如何進行 AI 組織全景分析 (Context Analysis),有效識別 AI 倫理、資安風險,並建立涵蓋 AI 生命週期的治理與監督迴路,確保您的 AI 應用符合國際標準與法規要求。
AI-SPM 會成為安全採用 AI 的標準安全層嗎?2025.10.09人工智慧融入Palo Alto Networks、Tenable等產業觀點,闡述AI-SPM如何透過持續發現、評估與修復機制,有效應對大型語言模型(LLM)帶來的即時注入、資料外洩、模型中毒及影子AI等獨特風險,確保組織在多雲環境中安全、合規且可擴展地採用人工智慧。