AI“幻觉”的类型、原因与应对方法(2/3)——为什么会产生AI“幻觉”

要回答为什么会产生AI“幻觉”现象,首先我们需要知道AI大模型究竟是怎么运作的。

AI实际上的运作原理,简单来讲就是——不断预测在给定的语境中下一个词是什么的概率规律

想象一下你在学习新的事物时,你会对它的名称、原理、用途等进行观察和研究,从而去理解和学习其背后的原理。而AI大模型并不具备这样的“理解”能力,AI的学习过程更多的是一种模仿。它是基于海量的训练数据,建立各个信息之间的关联关系,从中它看到了哪些词组通常怎样搭配使用,但并不理解其中的实际含义。你可以理解为,AI在努力“假装”一个聪明人(即所谓“依样画葫芦”)。

简单了解了AI大模型“预测而非理解”的工作原理,我们可以开始探讨导致其出现”幻觉”的原因:

  • 数据驱动:大模型的预测基于其之前接触过的大量训练数据。这些数据的质量和多样性可以极大地影响结果。如果数据中缺少某个关键信息,模型可能无法生成正确的结果。我们可以把这个因素看作是”AI幻觉”的源头之一。
  • 模式识别:AI模型特别善于识别语言模式,并据此进行预测。然而,模型并不能理解这些模式的含义。相比于我们在看到一段话时,可以理解其立意,语气,含义甚至暗藏的讽刺,模型只是单纯地复制它的表面结构,而忽视了其内在含义。这就是第二个导致AI幻觉的主要因素。
  • 缺乏实时知识:AI大模型采用的是“预训练”的方式,即一旦模型被训练完成并开始运行,它就无法继续访问或了解训练数据结束后产生的信息或知识(这也是为什么AI无法提供实时的信息,比如最新的新闻或最新的天气报告,要实现这一能力,只能是给AI配置“搜索”能力)。对于需要实时数据的问题,模型的回答可能与现实相脱节,产生“幻觉”(当然,现今主流的大模型在针对这类实时性的问题,基本都能识别出去并给予提醒)。
  • 缺乏情境理解:最后,即使模型可以准确模拟出复杂的语言模式,也往往无法根据具体情境调整答案。例如,当被问到“今天天气怎么样”这样的问题时,模型可能会提供一个完美的,但基于过去数据的天气预报,或者一个关于天气变化的一般性叙述,而不是根据当前实际状况给出正确的回答。这是因为模型无法理解现实情境和语境,从而导致回答出现”偏离”。
  • 对提问者的迎合:AI从设定上是为提问者服务的,因此它会迎合提问者,试图预测最可能的回答。故而,AI的回答可能会被问题本身的假设所引导,即受到提问者问题引导。同一个问题,正着提还是反着提,对于AI来说其生成回答可能会有所不同。例如,如果你问AI:“你认为人们喜欢吃巧克力吗?”AI会偏向喜欢并阐述为什么巧克力受到人们欢迎。然而,如果你反过来问AI:“你认为人们不喜欢吃巧克力吗?”AI转而去偏向不喜欢并关注一些巧克力不受人喜欢的原因。

以上就是AI之所以会产生“幻觉”的原因了。那么,面对这些AI“幻觉”,我们该如何应对呢?在下一部分,我们将讨论,如何应对AI“幻觉”。

讨论话题:你曾经碰到过哪些让你印象深刻的AI“幻觉”?评论区里也分享一下吧。

注:由于本文预设读者是AI零基础人群,期望达到启发作用。因此笔者会尝试用尽量浅显的语言来介绍,而在简化某个概念、原理的过程中,可能会丢失其完整性。这一点还请读者注意。

作者:产品经理崇生,公众号:崇生的黑板报

版权声明

本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部