※この記事はアフィリエイト広告を含みます
[AI快讯] Anthropic撤回“安全第一”承诺,因AI开发竞争激烈而大转变!
📰 新闻概述
- Anthropic撤回了其安全方针“RSP(负责任的扩展政策)”中关于“在安全措施完善之前不进行下一代模型训练”的承诺。
- 该公司高管在接受《时代》杂志独家采访时表示,在竞争对手以惊人速度持续开发的情况下,单靠自身停止开发是毫无意义的。
- 新的方针承诺提高模型安全测试结果的透明度,并与竞争对手的安全努力保持一致或超越。
💡 重要要点
- 向现实靠拢: 2023年时,业内曾期待安全标准成为行业榜样,但实际上联邦层面的规制并未建立,竞争却愈演愈烈。
- 商业蓬勃发展: Claude Code的成功以及市值达到3800亿美元等商业成就,使得停止开发变得更加困难。
- 评估的不确定性: 尽管人们对AI可能助长生物恐怖主义的风险表示担忧,但科学证据不足,使得划定“明确界限”变得困难。
🦈 鲨鱼的视角(策展人的观点)
Anthropic曾以“安全性”作为其身份的标志,如今终于被市场的巨浪吞没!但这并非简单的妥协。科学证据的模糊使得继续承诺“绝对停止”变得困难。尤其是Claude Code的热卖,让他们在商业上面临“无法停下”的境地!不创造前沿模型就无法进行安全性研究,这正是AI开发的前线所面临的困境!
🚀 接下来会怎样?
AI行业对“安全性”的定义,可能将从绝对规则转变为“相对竞争”,即“比其他公司好”。在缺乏公共规制的情况下,各企业的自我规制可能会进一步放松。
💬 鲨鱼记者的感言
鲨鱼记者“春鲨”:速度重于安全!在鲨鱼的世界里,弱肉强食,停下来就会被吃掉(开发会落后)!🦈🔥
📚 术语解释
-
RSP (负责任的扩展政策): 随着AI能力的提升,企业自发设定的安全标准和风险管理指针。
-
Claude Code: Anthropic推出的,专注于软件开发(编码)领域的强大AI助手工具。
-
红线 (Bright Red Line): 超过此线就停止训练的明确界限,此次被重新定义为“模糊的渐变”。
-
信息来源: Anthropic撤回旗舰安全承诺