问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

深入研究完AI“胡说八道”的原理,发现它能说对才是奇迹!

创作时间:
作者:
@小白创作中心

深入研究完AI“胡说八道”的原理,发现它能说对才是奇迹!

引用
腾讯
1.
https://new.qq.com/rain/a/20250312A04DHD00

AI"胡说八道"的现象引发了广泛关注。研究表明,AI在处理未知领域或提示词不清晰时,容易产生"幻觉",即输出看似合理但实际错误或逻辑混乱的信息。本文将深入探讨AI"胡说八道"的原理,并提供实用的应对方法。

DeepSeek的"糊弄"案例

春节期间,一位教研老师让DeepSeek写一篇陈冲新书《猫鱼》的书评。DeepSeek迅速回复了一篇意境优美的书评,但仔细阅读后发现,内容空洞且缺乏具体细节,甚至没有提到作者陈冲的名字。

当教研老师给出更明确的提示后,DeepSeek表示全网查无此书。进一步调查发现,《猫鱼》上市时间为2024年,而当时DeepSeek的知识截止时间是2023年10月,因此无法检索到相关信息。

这个案例揭示了AI回答问题的一个重要原则:AI并非基于训练数据进行比对后给出准确答案,而是首先遵循"必须给出一个答案"的原则。当遇到超纲问题时,AI可能会开启"一本正经胡说八道"模式。

AI"胡说八道"的原理

在AI界,将这种现象称为"AI幻觉"。研究表明,ChatGPT在辨识主流新闻网站引文时的错误率高达76%,且仅有7次向用户提示不确定性。即使是专业法律AI工具,也存在较高的信息错误率。

为什么AI会出现"幻觉"?这涉及到AI输出的底层逻辑:

  1. AI主要记忆的是词语间的关联关系,而非具体信息。就像学唱外语歌曲的人可能只记住发音而不知歌词含义,AI通过统计学方法记住大量词语组合模式。

  2. AI本质上是一个填空机器。例如,在"我的妈妈有一头__"的提示下,AI会根据训练数据中出现概率最高的"乌黑长发"来填充。

  3. 训练数据的准确性会影响AI的输出。如果训练数据中"地球是平的"的表述远多于"地球是圆的",且未被标记为错误,AI很可能会输出"地球是平的"这一结论。

  4. AI难以理解复杂的表达属性。例如,讽刺性内容的表面肯定与实际否定之间的区别,仅靠数据训练的AI很难准确把握。

如何降低AI"胡说八道"的概率

虽然完全消除AI的"幻觉"很难,但可以通过以下方法降低其概率:

  1. 使用清晰明确的提示词。例如,限定输出字数、提供可靠数据来源、分配特定角色等。

  2. 警惕"创意感"强的AI。这涉及到工程师端的参数设置——温度系数。低温设置下,AI输出更接近训练数据;高温设置下,AI更富创造性但"幻觉率"也更高。

  3. 交叉验证重要细节。对于涉及事实性信息的查询,应保持警惕,通过网络搜索或咨询专家等方式进行核实。

  4. 引导模型减少幻觉。在提问时加入限定条件,如"请务必忠于原文"、"请核对事实"等。

总之,理解AI的局限性并采取适当的应对措施,可以帮助我们更好地利用AI工具,避免被"忽悠"。在享受AI带来的便利的同时,也要时刻保持人类的"主体性",对信息进行独立判断和思考。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号