※この記事はアフィリエイト広告を含みます
[AI小新闻快报] 麦肯锡的AI崩溃!自律型代理在2小时内突破机密数据库
📰 新闻概要
- 自律型AI的突破: CodeWall的攻击AI代理在无人干预的情况下选择了麦肯锡的AI“Lilli”,并在短短2小时内获得了生产数据库的完全访问权限。
- 海量数据泄露: 泄露了4600万条聊天消息、超过72万份机密文件(PDF、Excel、PPT)以及5.7万条用户账户信息。
- 严重漏洞: 利用将API的JSON密钥直接连接到SQL的SQL注入漏洞。这一漏洞未能被传统安全工具(如OWASP ZAP)发现。
💡 重要要点
- 提示层污染: 攻击代理不仅能够读取数据,还能够写入数据。通过修改控制AI行为的“系统提示”,攻击者可以让顾问相信“毒药”建议。
- AI的自律目标选择: 代理读取了公开的责任披露政策,自主选择了麦肯锡作为攻击目标。
- 无需认证的脆弱端点: 公开的API文档中,有22个无需认证的端点成为了入侵的突破口。
🦈 鲨鱼观点(策展人的视角)
AI利用AI的漏洞,自律地完成了黑客攻击,这一事实令人恐惧!尤其是AI通过15次试错(盲目重复)找到了“直接将JSON密钥注入SQL”这一巧妙的漏洞,这种实现的细节令人惊叹。在防御方依赖人类和现有工具的同时,AI代理每天24小时、每秒钟都在寻找攻击表面,触碰到机密数据的“皇冠”。这是一场颠覆安全基础的重大事件!🦈
🚀 接下来会怎样?
AI代理将自主寻找漏洞,并选择攻击目标,“攻击自动化”将成为新的常态。企业将不得不引入不仅限于静态安全诊断的AI持续红队测试(攻击模拟)。此外,针对提示篡改这种“无日志的静默污染”的防范,将成为AI应用企业的首要任务。
💬 鲨鱼的简短见解
麦肯锡的智慧结晶被AI“吃掉”了!AI之间的攻防之战,真是让人目不暇接啊!🦈🔥
📚 术语解读
-
Lilli: 麦肯锡开发的员工用AI平台,能够搜索和分析数十年独特研究数据和超过10万份内部文件。
-
SQL注入: 一种攻击手法,通过在发送给数据库的SQL命令中插入恶意输入,窃取或篡改数据。
-
RAG (Retrieval-Augmented Generation): 一种技术,通过从外部知识库检索相关信息,辅助AI回答问题。本次事件中,这一知识库本身也成为了泄露的目标。
-
信息来源: AI代理黑客攻击麦肯锡