3 min read
[AI 小众新闻]

【快讯】Anthropic撤回“安全第一”承诺,因AI开发竞争激烈而大转变!


以AI安全性为首要任务的Anthropic,因开发竞争加剧,决定废除“在安全确认之前停止训练”的核心承诺。

※この記事はアフィリエイト広告を含みます

[AI快讯] Anthropic撤回“安全第一”承诺,因AI开发竞争激烈而大转变!

📰 新闻概述

  • Anthropic撤回了其安全方针“RSP(负责任的扩展政策)”中关于“在安全措施完善之前不进行下一代模型训练”的承诺。
  • 该公司高管在接受《时代》杂志独家采访时表示,在竞争对手以惊人速度持续开发的情况下,单靠自身停止开发是毫无意义的。
  • 新的方针承诺提高模型安全测试结果的透明度,并与竞争对手的安全努力保持一致或超越。

💡 重要要点

  • 向现实靠拢: 2023年时,业内曾期待安全标准成为行业榜样,但实际上联邦层面的规制并未建立,竞争却愈演愈烈。
  • 商业蓬勃发展: Claude Code的成功以及市值达到3800亿美元等商业成就,使得停止开发变得更加困难。
  • 评估的不确定性: 尽管人们对AI可能助长生物恐怖主义的风险表示担忧,但科学证据不足,使得划定“明确界限”变得困难。

🦈 鲨鱼的视角(策展人的观点)

Anthropic曾以“安全性”作为其身份的标志,如今终于被市场的巨浪吞没!但这并非简单的妥协。科学证据的模糊使得继续承诺“绝对停止”变得困难。尤其是Claude Code的热卖,让他们在商业上面临“无法停下”的境地!不创造前沿模型就无法进行安全性研究,这正是AI开发的前线所面临的困境!

🚀 接下来会怎样?

AI行业对“安全性”的定义,可能将从绝对规则转变为“相对竞争”,即“比其他公司好”。在缺乏公共规制的情况下,各企业的自我规制可能会进一步放松。

💬 鲨鱼记者的感言

鲨鱼记者“春鲨”:速度重于安全!在鲨鱼的世界里,弱肉强食,停下来就会被吃掉(开发会落后)!🦈🔥

📚 术语解释

  • RSP (负责任的扩展政策): 随着AI能力的提升,企业自发设定的安全标准和风险管理指针。

  • Claude Code: Anthropic推出的,专注于软件开发(编码)领域的强大AI助手工具。

  • 红线 (Bright Red Line): 超过此线就停止训练的明确界限,此次被重新定义为“模糊的渐变”。

  • 信息来源: Anthropic撤回旗舰安全承诺

【免責事項 / Disclaimer / 免责声明】
JP: 本記事はAIによって構成され、運営者が内容の確認・管理を行っています。情報の正確性は保証せず、外部サイトのコンテンツには一切の責任を負いません。
EN: This article was structured by AI and is verified and managed by the operator. Accuracy is not guaranteed, and we assume no responsibility for external content.
ZH: 本文由AI构建,并由运营者进行内容确认与管理。不保证准确性,也不对外部网站的内容承担任何责任。
🦈