3 min read
[AI 小众新闻]

[AI小新闻快讯] 美国国防部 vs Anthropic!AI的“伦理限制”被视为国家安全风险的日子


- 美国国防部(DoW)宣布AI初创公司Anthropic为“供应链风险”。...

※この記事はアフィリエイト広告を含みます

[AI小新闻快讯] 美国国防部 vs Anthropic!AI的“伦理限制”被视为国家安全风险的日子

📰 新闻概述

  • 美国国防部(DoW)宣布AI初创公司Anthropic为“供应链风险”。
  • Anthropic拒绝撤销自家模型在大规模监控和自主武器中使用的“红线”限制。
  • 这一指定可能会对Google、Amazon、Nvidia等主要合作伙伴施加压力,要求他们在国防部相关工作中不使用Claude。

💡 重要要点

  • 预测未来军队和政府劳动力的99%将由AI构成,政府拒绝让民营企业在其行动中掌握“杀手开关”。
  • 政府的态度不仅限于拒绝合同,还试图摧毁不遵从的民营企业的商业基础,这引发了“这不就是中国共产党(CCP)做法吗”的批评。
  • 在AI基础设施化的未来,科技公司可能被迫在“与国防部的合同”和“AI提供商”之间做出选择。

🦈 鲨鱼的视角(策展人的观点)

政府将Anthropic称为“供应链风险”,并非因为技术缺陷,而是因为该公司的“伦理观”无法满足国家的要求!民营企业持有“不允许用于武器”的协议,在国家眼中被视作“紧急情况下背叛的风险”。然而,政府强行要求更改协议,这对自由社会的根基构成了可怕的威胁!这场对抗将决定未来AI劳动力“听谁的命令”,是极为重要的斗争,证明了AI正从单纯工具进化为社会的操作系统!

🚀 接下来会怎样?

随着AI被嵌入到各种产品中,保持与国防部的合同将使得技术上与AI分离变得困难。最终,许多科技公司可能会放弃与政府的合同,或者政府会威胁所有民营企业以强迫其服从。

💬 鲨鱼的看法

国家的权力游戏再度显现!鲨鱼也想在协议里加上“别欺负鲨鱼”,但被国家称为“风险”可真让人害怕。不过,信念可不能动摇!

📚 术语解释

  • 供应链风险: 在产品或服务的提供过程中,包含不可靠的供应商或部件,可能对国家安全等构成威胁。

  • 红线: 绝对不应逾越的界限。在此指的是Anthropic设定的限制,旨在防止AI被用于非伦理的军事目的或监控。

  • 自主武器: 一种系统,能够在没有人类直接操作的情况下,自己识别目标并决定攻击。

  • 信息来源: 我很高兴Anthropic的斗争现在发生

🦈 はるサメ厳選!イチオシAI関連
【免責事項 / Disclaimer / 免责声明】
JP: 本記事はAIによって構成され、運営者が内容の確認・管理を行っています。情報の正確性は保証せず、外部サイトのコンテンツには一切の責任を負いません。
EN: This article was structured by AI and is verified and managed by the operator. Accuracy is not guaranteed, and we assume no responsibility for external content.
ZH: 本文由AI构建,并由运营者进行内容确认与管理。不保证准确性,也不对外部网站的内容承担任何责任。
🦈