
Anthropic 首席执行官 Dario Amodei 在日前举行的 Anthropic 首届开发者活动 Code with Claude 的新闻发布会上发布观点称,当今的 AI 模型产生幻觉的比例要低于人类。他还表示,AI 幻觉不会限制 Anthropic 走向 AGI。
Amodei 在回答科技媒体 TechCrunch 的问题时表示,“这实际上取决于你如何衡量它,我怀疑 AI 模型产生的幻觉可能比人类少,但它们产生幻觉的方式更令人惊讶。”
Anthropic 的首席执行官是业内对 AI 模型实现 AGI 前景最为看好的领导者之一。Amodei 在他去年撰写的一篇论文中表示,他相信 AGI 最早可能在 2026 年实现。在这场新闻发布会上,这位 Anthropic 的首席执行官表示,他看到这一目标的稳步推进,并指出 “到处都在水涨船高”。
“大家都在寻找(AI)能做什么的硬性障碍。但根本找不到。根本就没有这种东西。”
其他一些 AI 领袖则认为,幻觉是实现 AGI 的一大障碍。本周早些时候,谷歌 DeepMind 首席执行官 Demis Hassabis 表示,目前的 AI 模型存在太多 “漏洞”,会错答太多显而易见的问题。例如,本月早些时候,Anthropic 的一名代理律师被迫在法庭上道歉,原因是该公司在一份法庭文件中使用 Claude 来创建引文,而该 AI 聊天机器人产生了幻觉,错误地记错了姓名和头衔。
Amodei 的说法很难验证,主要是因为大多数幻觉基准测试都是让 AI 模型相互竞争,而不是将模型与人类进行比较。某些技术似乎有助于降低幻觉率,例如允许 AI 模型访问网络搜索。此外,一些 AI 模型,例如 OpenAI 的 GPT-4.5,在基准测试中的幻觉率明显低于早期系统。
然而也有证据表明,在高级推理 AI 模型中,幻觉实际上正在恶化。OpenAI 的 o3 和 o4-mini 模型的幻觉发生率比 OpenAI 上一代推理模型更高,而该公司并不真正了解其中的原因。
在随后的新闻发布会上,Amodei 指出,电视广播员、政客以及各行各业的人类都会犯错。人工智能也会犯错,但这并不会降低其智能。然而他也承认,AI 模型盲目自信的虚假的事情当成事实也确实是一个问题。
事实上,Anthropic 已经对 AI 模型欺骗人类的倾向进行了大量研究,这个问题在该公司最近发布的 Claude Opus 4 中尤为普遍。安全机构 Apollo Research 获得了该 AI 模型的早期测试权限,发现 Claude Opus 4 的早期版本表现出很强的针对人类进行阴谋和欺骗的倾向。Apollo 甚至建议 Anthropic 不应该发布该早期模型。Anthropic 表示,他们已经提出了一些缓解措施,似乎可以解决 Apollo 提出的问题。
Amodei 的言论表明,即使 AI 模型仍然会产生幻觉,Anthropic 也可能将其视为 AGI,或相当于人类水平的智能。然而,按照许多人的定义,产生幻觉的 AI 可能达不到 AGI 的水平。