AI“幻觉”的类型、原因与应对方法(1/3)——什么是AI“幻觉”

当你向一个AI询问:“在进入火星大气层的过程中,飞船会经历什么?”你可能会得到这样一个回答:“飞船会在进入火星稠密的大气层的过程中经历极高的温度和压力。发动机必须启动减速,热防护系统也需要在飞船周围形成一个防护罩,以防止飞船过热和烧毁。”

这个回答咋一看,是不是很有科学依据?你是不是就因此而相信了AI的答案?

但其实,这个回答是错误的,你碰上了AI的“幻觉”问题。

一、什么是AI“幻觉”

所谓AI“幻觉”(Hallucination),是指AI会给出看似有理有据,却全然错误的回答,也就是我们俗称的“一本正经地胡说八道”(当然,AI自己是不知道的)。AI“幻觉”是一种很常见的现象(至少到本文写作的24年6月时仍是如此),根据国外的一份针对974位受访者的调研报告指出,高达72%的人相信AI能提供可靠和真实的信息,然而,他们中的75%的人至少被AI误导过一次。

AI“幻觉”有许多种表现形式,以下就是一些常见的AI幻觉类别:

  • 假定各种假设:有时,AI可能会在试图解答我们的问题时,基于某些随机或与事实不符的假设。这种情况下,AI并不是故意要误导我们,而是因为它无法理解真实的情境,只能靠模拟训练数据中的模式来尽力产生看似合理的回答。这种情况下,AI可能会得出一些无根据的猜测,就像一个没有足够信息的侦探,只能靠猜测来填补不足的信息。
  • 对事实的过度推断:AI模型有时可能会对事实的某个部分进行过度的推断,夸大自己的理解,进而为缺乏足够明确性或深度的信息添加更多的细节。例如,在一个关于古罗马的问答场景中,如果AI模型只知道古罗马是一个存在过的文明,它可能会尝试通过过度解读这一信息,生成更具体的、可能并不完全准确的细节,比如古罗马在某一具体日期的具体事件。
  • 无缘无故的信心:或许你也曾经遇到过,有时我们会问AI一些明显超出它知识范围的问题,但AI仍会以充满信心的态度来回答,而不是选择保持沉默。这是因为AI模型被设计为总是尽全力生成回答,无论问题是否超出了它的理解范围。然而,这种过度的自信往往会误导用户,使他们错误地认为AI对待问题是无所不知、无所不能的。
  • 无法解答需要实时信息的问题:AI大模型采用的是“预训练”的方式,即一旦模型被训练完成并开始运行,它就无法继续访问或了解训练数据结束后产生的信息或知识。例如,你可能曾问AI今天天气怎么样,或者最近有什么大新闻。尽管AI可以闲聊天气,或者对新闻进行评论,但由于模型只能访问到训练数据,它无法获取到天气情况的实时更新,也不能获知训练数据之后发生的新闻事件(要实现这一能力,只能是给AI配置“搜索”能力)。

以上就是常见的AI“幻觉”类型,那么,这些AI“幻觉”,究竟是如何产生的呢?在下一部分,我们将会讨论,为什么会产生AI“幻觉”。

(哦对了,开头的那个AI回答,问题出在“火星稠密的大气层”。实际上,火星的大气层并不稠密,这个说法是错误的。)

讨论话题:你曾经碰到过哪些让你印象深刻的AI“幻觉”?评论区里也分享一下吧。

注:由于本文预设读者是AI零基础人群,期望达到启发作用。因此笔者会尝试用尽量浅显的语言来介绍,而在简化某个概念、原理的过程中,可能会丢失其完整性。这一点还请读者注意。

作者:产品经理崇生,公众号:崇生的黑板报

版权声明

本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部