问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

人工智能的局限性:大模型面临的三大难题

创作时间:
作者:
@小白创作中心

人工智能的局限性:大模型面临的三大难题

引用
CSDN
1.
https://m.blog.csdn.net/python12345_/article/details/145276700


大模型这两年被宣传得沸沸扬扬,好像它真的无所不能,似乎很快就要取代很多人的工作,但事实真的如此吗?非也。
尽管它让人们看到了通用人工智能的可能性,它可以写作、写诗、作曲、编程、画画、生成视频、写邮件等,但它并不是没有任何缺点的。
目前来说,它有三个非常大的局限性,导致它在应用过程中,并没有人们理想中那么好的效果。
这三个局限性是:知识的局限性;幻觉问题;数据安全问题。

局限一:知识的局限性

知识的局限性,是指大模型所具备的知识,完全停留在了它训练完成的那一刻。也就是说,训练数据中所包含的知识,就是大模型的所有知识。比如ChatGPT3.5的知识停留在2021年9月,ChatGPT4的知识停留在2023年4月。
如果你问它这个日期之后的知识,在不联网的情况下,它是不可能知道的。这是从时间的维度去讲,它不具备时时更新的数据。
如果从领域的维度去讲,它只具备通用领域的知识,也就是那些可以公开在网上搜索到的知识,尽管它包含海量的数据,但是它不太可能知道你个人的隐私数据,更不会知道某个公司内部的业务数据。
这种领域局限性,限制了大模型在企业中的进一步落地使用。
因为每个企业关心的问题是,大模型能否真正的帮助企业降本增效,而如果大模型连基本的业务问题都无法准确回答,那前面的目标其实很难实现。

局限二:幻觉问题

幻觉问题,是大模型老生常谈的一个问题了,几乎从它诞生的那一刻起,这个问题就经常被拿来讨论。
什么是大模型的幻觉问题呢?指它有时候会胡编乱造出一些看上去合理其实根本不符合事实的内容。
比如说,你想用大模型来帮助你查询某个主题的文献内容,然后大模型给出了很多参考文献,你真正去谷歌学术上面搜的时候,会发现很多

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号