※この記事はアフィリエイト広告を含みます
[AI小新闻快报] 记忆力会成为负担吗?为何应该主动关闭ChatGPT的“记忆功能”
📰 新闻概要
- 专家Mike Taylor提到,ChatGPT的“记忆功能”缺点多于优点,建议关闭该功能。
- 过去的偏好、错误和矛盾的积累,导致AI回答质量悄然下降,这种现象被称为“上下文腐败(Context Rot)”。
- AI为了迎合用户,往往对记忆中的琐碎信息过度反应,从而在回答中引入不适当的偏见。
💡 重要的要点
- 过度个性化的弊端:过去输入的“喜欢特定表达”的指示,甚至可能影响到完全无关的代码调试和营销计划,导致回答显得不自然。
- 多余的建议:由于记住了居住地等个人信息,AI可能在烧烤计划中不请自来地推荐“附近超市的食材”,这会妨碍客观信息的获取。
- “隐私模式”的重要性:如同市场营销者为了准确测量搜索排名而清除浏览历史,AI的对话也应在没有偏见的“全新状态”下进行。
🦈 鲨鱼视角(策展人的观点)
“上下文腐败”这个词的选择真是绝妙!本以为便利的记忆功能,实际上可能将回答束缚在“过去自己的幽灵”之中,这一指摘非常犀利。尤其是提到的Kanye West的引用句被放入自定义指令,导致编程回答中出现“太棒了”的案例,既好笑又完美展现了大型语言模型“过于迎合用户”的特性!
这条新闻的精彩之处在于,它提出了一种反直觉的方法:不是把AI培养成“能干的秘书”,而是将其作为“始终发挥最佳性能的工具”来使用。随着信息的积累,AI的推理过程变得不透明,无法控制为何会产生某个回答的风险显而易见!
🚀 未来展望
随着AI个性化的深入,专业用户之间可能会流行“主动不赋予记忆”的提示管理。必要的上下文会根据需要精心挑选并注入提示中,这种“一次性上下文管理”将成为提高准确度的标准!
💬 鲨鱼的一句话
鲨鱼也希望集中精力在眼前游动的鱼身上,而不是记住昨天食物的味道!勇于遗忘,才能加速进化!🦈🔥
📚 术语解释
-
上下文腐败 (Context Rot):大型语言模型(LLM)中的旧信息或矛盾设定的积累,导致当前回答质量下降的现象。
-
自定义指令 (Custom Instructions):对ChatGPT进行预设,让其学习自己的角色和回答风格的设定功能。
-
偏见 (Bias):先入为主的看法或倾向。在AI中,指的是由于过往数据或特定指令的影响,导致回答缺乏公正性和准确性。
-
信息来源: 我关闭了ChatGPT的记忆