※この記事はアフィリエイト広告を含みます
[AI小新闻快讯] 「OpenAI是个大骗子」Anthropic首席执行官对军事合同的尖锐批评
📰 新闻概要
- Anthropic的首席执行官达里奥·阿莫代发内部备忘录,称OpenAI与国防部的军事合同主张是“彻头彻尾的谎言”。
- Anthropic拒绝了与国防部的无限制访问合同,理由是未能获得禁止国内监视和自律武器使用的承诺。
- OpenAI声称遵循与Anthropic类似的“红线”来签订合同,但阿莫代对此表示,这只是“安抚员工的表面安全”。
💡 重要要点
- Anthropic原有的2亿美元合同未能妥协于军方提出的“任何合法使用”的要求。
- OpenAI与国防部签约后,ChatGPT的卸载数量增长了295%,而Anthropic的应用在应用商店中排名上升至第二,公众舆论开始倾向于支持Anthropic。
- 阿莫代批评OpenAI的首席执行官山姆·阿尔特曼伪装成“和平使者”,并警告OpenAI员工不要被这种“信息操控”所欺骗。
🦈 鲨鱼的视角(策展人的观点)
这场对立不仅仅是商业竞争,更是争夺“AI灵魂”的斗争!Anthropic拒绝了军方的“合法就可以”的要求,而OpenAI却在“合同上写了就没问题”的妥协中显得格外值得关注。法律是会随着时代和政权而变化的,当前的“合法”可能会导致未来的“屠杀”,阿莫代对此做出了具体指摘!尤其是“表面安全”这一术语,深刻揭示了OpenAI以形式伦理法规为掩护的态度。这种伦理立场的差异,已经在用户大量流失的具体数字中显现出当今趋势的恐怖性!
🚀 接下来会怎样?
随着公众和媒体对OpenAI的军事合作产生怀疑,Anthropic的支持(英雄化)将愈发增强。OpenAI内部员工可能会意识到这种“谎言”,人才流失的情况可能再次加速。
💬 鲨鱼的一句话
“彻头彻尾的谎言”,比鲨鱼的嘴巴还要红啊!在伦理上与之抗争的Anthropic,真是太酷了!🦈🔥
📚 术语解说
-
DoD (美国国防部): 负责美国军事事务的政府部门,在AI技术的军事应用方面拥有巨额预算。
-
Safety Theater (表面安全): 实际上并未提高安全性,仅通过形式化程序或声明来制造安全感的现象。
-
Lawful Use (合法使用): 在法律允许的范围内使用。然而,由于法律本身可能会发生变化,这种方式被批评为伦理约束不足。
-
信息来源: Dario Amodei calls OpenAI’s messaging around military deal ‘straight up lies’