※この記事はアフィリエイト広告を含みます
[AI小新闻快报] LLM是‘语言’,专家则看‘世界’。AI的下一个壁垒‘对抗推理’是什么?
📰 新闻概览
- LLM能够生成高度复杂的文本,但缺乏模拟环境和他人反应的“世界模型”的深度。
- 熟练的专家具备识别其文档如何被解读及利用(甚至被剥削)的“脆弱性”的能力。
- 当前的AI研究正在向多代理环境中的“对抗推理”和“心智理论”追踪转变。
💡 重要要点
- 模拟的深度:不仅仅是模式匹配,而是能够预测对方的激励和隐藏约束(如截止日期、政治因素等)至关重要。
- 静态分析的局限性:在商业和金融等环境中,自己的行为会改变他人的行为,因此不存在静态的正确答案。
- 三种世界模型:除了3D视频生成型和Meta的JEPA方法之外,新的“多代理的战略推理”也备受关注。
🦈 鲨鱼的视角(策展人的观点)
LLM写的邮件虽然看起来完美,但在现场专家看来,这种表述常常“不会起作用”。比如“no rush(不着急)”这样的礼貌用语,实际上在忙碌的对方的优先级算法中可能被判定为“延后处理”。如果无法识别这种“信息不对称性”和“潜在意图”,AI就无法成为真正的专家。当前从规模扩张的时代逐渐回归到“研究”的时代,这一观点引发热烈讨论!
🚀 未来会怎样?
AI将从像棋类游戏这种完全信息的游戏,进化到像扑克和商业谈判这样“不完全信息的游戏”。能够建模对方如何看待自己的并具备反向思维的“战略思考”能力的代理将成为主流。
💬 鲨鱼的点评
无法理解语言背后含义的AI,就像在海中对血腥气味毫无察觉的鲨鱼!下一个时代将是“懂得察言观色的AI”!🦈🔥
- 信息来源: 专家拥有世界模型,而LLM只拥有语言模型