AIGC:从‘金鱼记忆‘到‘过目不忘‘,实例解密大模型是如何记住对话的上下文的?
创作时间:
作者:
@小白创作中心
AIGC:从‘金鱼记忆‘到‘过目不忘‘,实例解密大模型是如何记住对话的上下文的?
引用
CSDN
1.
https://m.blog.csdn.net/surfirst/article/details/143063154
大语言模型(LLM)在对话中表现出"记忆"能力,似乎能够记住之前的对话内容。但实际上,这种"记忆"是如何实现的呢?本文将通过三个部分来探讨这个问题。
1. 无记忆的大模型
首先,让我们看一个简单的程序,展示大模型在默认情况下是没有任何记忆的:
import os
from dotenv import load_dotenv
from langchain_openai import AzureChatOpenAI
from langchain_core.messages import HumanMessage
# 加载环境变量和设置模型
load_dotenv()
model = AzureChatOpenAI(
azure_endpoint=os.getenv("AZURE_OPENAI_ENDPOINT"),
azure_deployment=os.getenv("AZURE_OPENAI_DEPLOYMENT_NAME"),
openai_api_version=os.getenv("AZURE_OPENAI_API_VERSION"),
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
)
# 第一次对话
message = HumanMessage(content="I am Bob")
response = model.invoke([message])
print("Model's response:")
print(response.content)
# 第二次对话
message = HumanMessage(content="What's my name?")
response = model.invoke([message])
print("Model's response:")
print(response.content)
让我们看看这个程序的运行结果:
Model's response:
Hello Bob! It's nice to meet you. Is there anything I can help you with today?
Model's response:
I apologize, but I don't have any prior context or information about your name. Each interaction with me starts fresh, and I don't retain information from previous conversations. If you'd like me to know your name, you'll need to tell me in this current conversation. So, may I ask what your name is?
从这个运行结果中,我们可以清楚地看到:
- 在第一次对话中,模型正确地响应了"I am Bob"这个陈述。
- 然而,在第二次对话中,当我们问"What’s my name?"时,模型无法回答这个问题。它表示没有任何先前的上下文或信息来知道用户的名字。
- 模型明确指出每次交互都是全新的开始,它不会保留之前对话的信息。
这个例子清楚地展示了大模型在默认情况下是没有"记忆"的。每次调用都是独立的,模型无法记住之前的对话内容。这就是为什么在实际应用中,我们需要特别的机制来维护对话的上下文。
2. 提供对话历史实现"记忆"
那么,如何让模型"记住"之前的对话呢?答案是:我们需要在每次提问时,将整个对话历史发送给模型。下面是一个实现这一功能的程序:
import os
from dotenv import load_dotenv
from langchain_openai import AzureChatOpenAI
from langchain_core.messages import HumanMessage
from langgraph.checkpoint.memory import MemorySaver
from langgraph.graph import START, MessagesState, StateGraph
# 加载环境变量和设置模型
load_dotenv()
model = AzureChatOpenAI(
model_name="gpt-4",
azure_endpoint=os.getenv("AZURE_OPENAI_ENDPOINT"),
azure_deployment=os.getenv("AZURE_OPENAI_DEPLOYMENT_NAME"),
openai_api_version=os.getenv("AZURE_OPENAI_API_VERSION"),
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
)
# 设置对话图和记忆
workflow = StateGraph(state_schema=MessagesState)
def call_model(state: MessagesState):
response = model.invoke(state["messages"])
return {"messages": response}
workflow.add_edge(START, "model")
workflow.add_node("model", call_model)
memory = MemorySaver()
app = workflow.compile(checkpointer=memory)
# 进行对话
config = {"configurable": {"thread_id": "tom"}}
# 第一次对话
query = "Hi! I'm Bob."
input_messages = [HumanMessage(query)]
output = app.invoke({"messages": input_messages}, config)
output["messages"][-1].pretty_print()
# 第二次对话
query = "What's my name?"
input_messages = [HumanMessage(query)]
output = app.invoke({"messages": input_messages}, config)
output["messages"][-1].pretty_print()
让我们看看这个程序的完整运行结果:
Human: Hi! I'm Bob.
AI: Hello Bob! It's nice to meet you. How can I assist you today?
在这个例子中,我们使用了MemorySaver
来保存对话历史,并在每次调用时将整个对话历史发送给模型。这样,模型就能"记住"之前的对话内容,并正确回答"What’s my name?"这个问题。
3. 总结:大模型的"记忆"机制与限制
通过以上两个例子,我们可以得出以下结论:
- 大模型本身没有长期记忆能力。每次调用都是独立的,不会自动记住之前的对话内容。
- 要实现"记忆"效果,我们需要在每次调用时提供完整的对话历史。这就是为什么在实际应用中,我们常常需要保存和管理对话历史。
- 所有的大模型都有对话中token数量的限制。这个限制实际上决定了模型能够"记住"的对话长度。例如,如果一个模型的token限制是4096,那么当对话历史超过这个限制时,我们就需要进行截断或者使用更复杂的方法来管理长对话。
- 这种基于输入的"记忆"机制也解释了为什么大模型可能会产生矛盾的回答 - 如果我们没有提供完整的上下文,模型就可能基于不完整的信息给出不一致的回答。
- 在实际应用中,开发者需要权衡记忆的长度和调用的成本。保存更长的对话历史可以提供更好的上下文理解,但也会增加API调用的成本和延迟。
总的来说,大模型的"记忆"能力是通过每次提供完整对话历史来实现的。这种机制虽然有其局限性,但也为我们提供了灵活管理对话上下文的可能性。在开发基于大模型的应用时,理解并合理利用这一机制是至关重要的。
热门推荐
Rust语言入门必读:五本经典书籍推荐
适合养生喝的5种茶,不爱喝茶的人也值得一试!
马斯克的“考成法”:453年前的似曾相识
情绪劳动如何影响睡眠?4个实用方法改善睡眠质量
食品加工中常用的除铁器类型有哪些?
科学证实的NMN功效是什么?有副作用吗?挑选4大原则唤醒青春亮白因子
单元测试中的错误注入是什么
五部经典的高分国产动漫剧,部部都是好评如潮,一部没看太遗憾!
三相电机是什么意思,详解三相电机的定义和原理
全网爆火的茼蒿拌豆腐,真的能掉秤吗?
春日必吃!茼蒿拌豆腐的低卡高蛋白营养密码
农村人情婚俗越变越快,“闪婚闪离”的婚姻破碎危机开始涌现
C语言判断目录是否存在:三种方法详解与实战应用
什么是集中竞价交易的规则?这种交易规则的实施效果如何?
如何查看设置里备份的照片
《绝境盟约》:人性挣扎中的生存抉择
中央空调工作原理 三种常见中央空调原理详解
多传感器融合详解
只有一个手指尖发麻怎么办?可能的原因及就诊建议
八字日主旺衰判断方法详解:从入门到精通
AI写历史文案:探索写作技巧、素材与爱情故事
LG洗衣机故障代码FE的检修与维修方法(解决LG洗衣机故障代码FE的有效办法)
《诗经·玄鸟》原文及赏析
阀门制图用什么软件编程
成年人的关系,不是用情来维系的,而是靠价值交换来维系的
孩子晚上睡觉总说热睡不着怎么办?
【前端项目实操】VUE路由简介及使用指南
安徽,正在抬高长三角的下限
如何快速增强免疫力?4大关键提升身体防御力!
ZGC可伸缩低延迟垃圾收集器深度解析