Openai的最新AI车型似乎有一个大问题。一份报告显示,GPT O3和O4-Mini以惊人的速度产生错误信息。
AI生成的错误信息(又称幻觉)在大多数人工智能服务中很常见。《纽约时报》Openai进行了一项调查,发现其自己的模型比其他模型产生的伪造内容更多。反过来,这引起了人们对其可靠性的严重关注。
GPT O3和O4-Mini已被设计为模仿人类的推理和逻辑。当这些以公共数字的基准进行测试时,发现近三分之一的GPT O3结果被发现是幻觉。相比之下,GPT O1在去年进行的测试中的错误率不到一半。 GPT O4米尼的情况甚至更糟,因为它在48%的任务上幻觉。当这些模型解决通用知识问题时,GPT O3的幻觉飙升至51%,而O4-Mini的幻觉却达到了79%。
Openai说,幻觉问题并不是因为推理模型更糟,而是因为它们的答案可以简直更详尽和冒险,而是猜测可能性,而不是重复可预测的事实。开发人员最初旨在使这些系统通过复杂的查询进行批判性思考和推理。但是,这种雄心勃勃的方法似乎导致了创造力的提高,而牺牲了事实。
这可能对Openai的Chatgpt构成一个大问题,因为诸如Anthropic Claude之类的竞争对手服务旨在更准确地提供信息。与更简单的模型集中在高信心预测上,GPT O3和O4-Mini经常推测,模糊了可能的场景和彻底捏造之间的界限。从法律专业人员到教育工作者和医疗保健提供者,这为用户增加了危险信号,在这种情况下,对AI的依赖可能导致重大失误。
建议阅读:哪个搜索引擎返回最令人震惊的结果?
AI越有用,关键错误的可能性就越大。尽管AI模型在某些任务中的表现可能会胜过人类,但不准确的风险会降低AI的整体信誉。在有效解决这些幻觉问题之前,建议用户谨慎和怀疑地了解AI生成的信息。
来源:技术雷达