※この記事はアフィリエイト広告を含みます
谷歌AI搜索每小时生成“数千万条虚假信息”?惊人的准确性调查引发波澜
📰 新闻概要
- 初创公司Oumi的一项研究指出,谷歌的“AI概述”每小时可能生成数千万条不准确的回答。
- 最新的双子星3模型虽然准确率提高到91%,但其回答所引用的链接中,有51%并未支持其内容,属于“无根基”回答。
- 错误回答中不仅包括名人的记录和历史事实的误认,过去甚至生成过“在披萨中放入胶水”的危险建议。
💡 重要的要点
- 根据2026年预测的每年5万亿次搜索,计算得出每分钟有数十万条虚假信息被提供给用户。
- 新闻媒体联盟(News/Media Alliance)批评谷歌在传播不负责任的信息的同时,剥夺了支持高质量新闻的点击量和广告收入。
- AI概述倾向于将Facebook的帖子或博客等不可靠来源作为事实引用,且发现故意学习虚假信息的“黑客”行为相对容易。
🦈 鲨鱼的视角(策展人的观点)
虽然准确度在提升,但“根基”却相当脆弱,真是一个极度扭曲的进化!双子星3的正确率提高到91%,但引用的链接中超过一半并未支持回答(无根基),这只能说明AI更擅长编造“貌似真实的谎言”。像是轻易相信一篇博客文章就能认定“热狗吃得最快的记者”,这种脆弱性作为搜索基础设施是致命的!在吸取出版者努力的同时,当前的现状却在扩展虚假信息的海洋,亟需用锐利的牙齿切入。谷歌方面则声称调查方法存在缺陷,但在如此多事实错误的情况下,想要辩解是非常困难的!
🚀 接下来会怎样?
对AI搜索结果的摘要进行监管、向出版者支付合理的报酬,以及对“信息的依据(基础)”进行严格透明化的要求将比以往任何时候都更为迫切。
💬 鲨鱼的看法
“在披萨里放胶水”的下一步是“香烟的健康益处”,连鲨鱼都不会说这种谎言!在信息的海洋中游泳时,千万别忘了佩戴救生衣(信息素养)!
📚 术语解说
- AI概述: 在谷歌搜索结果顶部显示的功能,AI负责总结网络上的信息并提供回答。
- 双子星3: 谷歌开发的最新AI模型。虽然相比双子星2提高了准确率,但引用的一致性仍然存在问题。
- SimpleQA: OpenAI开发的一项基准测试,用于测量AI模型基于事实进行回答的准确程度。