问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

神经符号人工智能如何解决生成人工智能的可靠性问题

创作时间:
作者:
@小白创作中心

神经符号人工智能如何解决生成人工智能的可靠性问题

引用
1
来源
1.
https://www.unite.ai/zh-CN/%E7%A5%9E%E7%BB%8F%E7%AC%A6%E5%8F%B7%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E5%A6%82%E4%BD%95%E8%A7%A3%E5%86%B3%E7%94%9F%E6%88%90%E5%BC%8F%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E7%9A%84%E5%8F%AF%E9%9D%A0%E6%80%A7%E9%97%AE%E9%A2%98/

生成式人工智能近年来取得了令人瞩目的进步,它可以写文章、创作艺术作品,甚至作曲。但与此同时,它在正确理解事实方面往往做得不够好,这引发了人们对AI可靠性的担忧。神经符号AI通过将神经网络的力量与符号AI的逻辑相结合,为解决这一问题提供了新的思路。

为何生成式人工智能不可靠

生成式人工智能的工作原理是分析大量数据中的模式。这就是它预测接下来会出现什么单词或图像的方式。它就像一个功能极其丰富的高级自动完成工具,但它实际上并不“知道”任何事情。它只是在玩概率。这种对概率的依赖可能会让它变得不可预测。生成式人工智能并不总是选择最有可能的选项。相反,它会根据所学的模式从一系列可能性中进行选择。这种随机性可以让它富有创造力,但也意味着相同的输入可能导致不同的输出。在我们需要可靠答案的严肃情况下,这种不一致性会成为一个问题。

生成式人工智能不理解事实。它模仿模式,这就是为什么它有时会编造事物并将其呈现为真实的。人工智能的这种倾向通常被称为幻觉。例如,人工智能可能会编造名人名言或创建不存在的引文。当我们需要创建新内容时,这很有用,但可能是一个严重的问题,尤其是当人工智能用于提供医疗、法律或财务方面的建议时。它可能会误导人们相信根本不真实的信息。

更糟糕的是,当人工智能犯错时,它不会自我解释。没有办法检查它为什么会给出某个答案,也没有办法修复它。它本质上是一个黑匣子,将其推理隐藏在数学权重和概率的纠结中。当你寻求简单的建议或临时帮助时,这可能没什么问题,但当人工智能的决策开始影响医疗保健、工作或财务等方面时,这就更令人担忧了。如果人工智能建议一种治疗方法或做出招聘决定,不知道它为什么选择这个答案,就很难让人相信它。

生成式人工智能的核心是模式匹配。它不会推理或思考。它通过模仿训练数据来生成响应。这让它听起来像人类,但也让它变得脆弱。输入的微小变化可能会导致大错误。人工智能的统计基础依赖于模式和概率,这使其本质上是随机的。这可以产生高度自信的预测,即使这些预测是错误的。在法律咨询或医疗建议等高风险领域,这种不可预测性和缺乏可靠性会带来严重风险。

神经符号人工智能如何提高可靠性

神经符号人工智能可以解决生成式人工智能的一些可靠性挑战。它结合了两种优势:识别模式的神经网络和使用逻辑推理的符号人工智能。神经网络擅长处理复杂数据,如文本或图像。符号人工智能使用规则检查和组织这些信息。这种组合可以创建不仅更智能而且更可靠的系统。

通过使用象征性AI,我们可以为生成式人工智能添加一层推理,根据可信来源或规则验证生成的信息。这降低了人工智能产生幻觉的风险。例如,当人工智能提供历史事实时。神经网络分析数据以发现模式,而符号人工智能则确保输出准确且逻辑一致。同样的原则也可以应用于医疗保健。人工智能工具可能使用神经网络来处理患者数据,但符号人工智能确保其建议符合既定的医疗指南。这个额外的步骤使结果保持准确和有根据。

神经符号 AI 还可以为生成 AI 带来透明度。当系统通过数据进行推理时,它会准确地显示它是如何得出答案的。例如,在法律或金融领域,AI 可以指出它用来生成建议的特定法律或原则。这种透明度可以建立信任,因为用户可以看到决策背后的逻辑,并对 AI 的可靠性更有信心。

它还带来了一致性。通过使用规则来指导决策,神经符号 AI 可确保响应保持稳定,即使输入相似也是如此。这在财务规划等领域非常重要,因为一致性至关重要。逻辑推理层可使 AI 的输出保持稳定并基于可靠的原则,从而减少不可预测性。

创造力与逻辑思维的结合使神经符号生成式人工智能更加智能和安全。它不只是生成响应,而是生成您可以信赖的响应。随着人工智能越来越多地涉足医疗保健、法律和其他关键领域,神经符号人工智能等工具提供了一条前进的道路。当决策产生实际影响时,它们带来的可靠性和信任才是真正重要的。

案例研究:GraphRAG

GraphRAG(图形检索增强生成)展示了如何结合生成式 AI 和神经符号式 AI 的优势。生成式 AI 和大型语言模型 (LLM) 一样,可以创建令人印象深刻的内容,但它往往在准确性或逻辑一致性方面存在问题。

GraphRAG 通过将知识图谱(一种符号 AI 方法)与 LLM 相结合来解决此问题。知识图谱将信息组织成节点,使跟踪不同事实之间的联系变得更加容易。这种结构化方法有助于 AI 以可靠的数据为基础,同时仍能产生创造性的反应。

当你向 GraphRAG 提问时,它不仅仅依赖模式。它会将答案与图表中可信的信息进行交叉引用。这一附加步骤可确保答案合乎逻辑且准确,从而减少传统生成式 AI 中常见的错误或“幻觉”。

整合神经符号和生成式人工智能的挑战

然而,将神经符号 AI 与生成 AI 结合起来并不容易。这两种方法的工作方式不同。神经网络擅长处理复杂的非结构化数据,如图像或文本。另一方面,符号 AI 专注于应用规则和逻辑。将这两者结合起来需要在创造力和准确性之间取得平衡,而这并不总是容易实现的。生成 AI 的全部目的都是产生新的、多样化的结果,而符号 AI 则以逻辑为基础。找到一种让两者协同工作而不影响性能的方法是一项棘手的任务。

未来要遵循的方向

展望未来,神经符号 AI 与生成模型的协同作用具有很大的改进潜力。一个令人兴奋的可能性是创建可以根据需要在两种方法之间切换的混合系统。对于需要准确性和可靠性的任务,例如医疗保健或法律,系统可以更多地依靠符号推理。当需要创造力时,它可以切换到生成 AI。人们也在努力使这些系统更容易理解。改进我们追踪其推理的方式将有助于建立信任和信心。随着 AI 的不断发展,神经符号 AI 可以使系统更智能、更可靠,确保它们既富有创造力又值得信赖。

底线

生成式人工智能功能强大,但其不可预测性和缺乏理解性使其在医疗保健、法律和金融等高风险领域并不可靠。神经符号人工智能可能是解决方案。通过将神经网络与符号逻辑相结合,它增加了推理、一致性和透明度,减少了错误并增加了信任。这种方法不仅使人工智能更智能,而且还确保其决策可靠。随着人工智能在关键领域发挥更大的作用,神经符号人工智能提供了一条前进的道路——我们可以依靠人工智能提供的答案,尤其是在生命和生计受到威胁时。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号