AIGC:从‘金鱼记忆‘到‘过目不忘‘,实例解密大模型是如何记住对话的上下文的?
创作时间:
作者:
@小白创作中心
AIGC:从‘金鱼记忆‘到‘过目不忘‘,实例解密大模型是如何记住对话的上下文的?
引用
CSDN
1.
https://m.blog.csdn.net/surfirst/article/details/143063154
大语言模型(LLM)在对话中表现出"记忆"能力,似乎能够记住之前的对话内容。但实际上,这种"记忆"是如何实现的呢?本文将通过三个部分来探讨这个问题。
1. 无记忆的大模型
首先,让我们看一个简单的程序,展示大模型在默认情况下是没有任何记忆的:
import os
from dotenv import load_dotenv
from langchain_openai import AzureChatOpenAI
from langchain_core.messages import HumanMessage
# 加载环境变量和设置模型
load_dotenv()
model = AzureChatOpenAI(
azure_endpoint=os.getenv("AZURE_OPENAI_ENDPOINT"),
azure_deployment=os.getenv("AZURE_OPENAI_DEPLOYMENT_NAME"),
openai_api_version=os.getenv("AZURE_OPENAI_API_VERSION"),
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
)
# 第一次对话
message = HumanMessage(content="I am Bob")
response = model.invoke([message])
print("Model's response:")
print(response.content)
# 第二次对话
message = HumanMessage(content="What's my name?")
response = model.invoke([message])
print("Model's response:")
print(response.content)
让我们看看这个程序的运行结果:
Model's response:
Hello Bob! It's nice to meet you. Is there anything I can help you with today?
Model's response:
I apologize, but I don't have any prior context or information about your name. Each interaction with me starts fresh, and I don't retain information from previous conversations. If you'd like me to know your name, you'll need to tell me in this current conversation. So, may I ask what your name is?
从这个运行结果中,我们可以清楚地看到:
- 在第一次对话中,模型正确地响应了"I am Bob"这个陈述。
- 然而,在第二次对话中,当我们问"What’s my name?"时,模型无法回答这个问题。它表示没有任何先前的上下文或信息来知道用户的名字。
- 模型明确指出每次交互都是全新的开始,它不会保留之前对话的信息。
这个例子清楚地展示了大模型在默认情况下是没有"记忆"的。每次调用都是独立的,模型无法记住之前的对话内容。这就是为什么在实际应用中,我们需要特别的机制来维护对话的上下文。
2. 提供对话历史实现"记忆"
那么,如何让模型"记住"之前的对话呢?答案是:我们需要在每次提问时,将整个对话历史发送给模型。下面是一个实现这一功能的程序:
import os
from dotenv import load_dotenv
from langchain_openai import AzureChatOpenAI
from langchain_core.messages import HumanMessage
from langgraph.checkpoint.memory import MemorySaver
from langgraph.graph import START, MessagesState, StateGraph
# 加载环境变量和设置模型
load_dotenv()
model = AzureChatOpenAI(
model_name="gpt-4",
azure_endpoint=os.getenv("AZURE_OPENAI_ENDPOINT"),
azure_deployment=os.getenv("AZURE_OPENAI_DEPLOYMENT_NAME"),
openai_api_version=os.getenv("AZURE_OPENAI_API_VERSION"),
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
)
# 设置对话图和记忆
workflow = StateGraph(state_schema=MessagesState)
def call_model(state: MessagesState):
response = model.invoke(state["messages"])
return {"messages": response}
workflow.add_edge(START, "model")
workflow.add_node("model", call_model)
memory = MemorySaver()
app = workflow.compile(checkpointer=memory)
# 进行对话
config = {"configurable": {"thread_id": "tom"}}
# 第一次对话
query = "Hi! I'm Bob."
input_messages = [HumanMessage(query)]
output = app.invoke({"messages": input_messages}, config)
output["messages"][-1].pretty_print()
# 第二次对话
query = "What's my name?"
input_messages = [HumanMessage(query)]
output = app.invoke({"messages": input_messages}, config)
output["messages"][-1].pretty_print()
让我们看看这个程序的完整运行结果:
Human: Hi! I'm Bob.
AI: Hello Bob! It's nice to meet you. How can I assist you today?
在这个例子中,我们使用了MemorySaver来保存对话历史,并在每次调用时将整个对话历史发送给模型。这样,模型就能"记住"之前的对话内容,并正确回答"What’s my name?"这个问题。
3. 总结:大模型的"记忆"机制与限制
通过以上两个例子,我们可以得出以下结论:
- 大模型本身没有长期记忆能力。每次调用都是独立的,不会自动记住之前的对话内容。
- 要实现"记忆"效果,我们需要在每次调用时提供完整的对话历史。这就是为什么在实际应用中,我们常常需要保存和管理对话历史。
- 所有的大模型都有对话中token数量的限制。这个限制实际上决定了模型能够"记住"的对话长度。例如,如果一个模型的token限制是4096,那么当对话历史超过这个限制时,我们就需要进行截断或者使用更复杂的方法来管理长对话。
- 这种基于输入的"记忆"机制也解释了为什么大模型可能会产生矛盾的回答 - 如果我们没有提供完整的上下文,模型就可能基于不完整的信息给出不一致的回答。
- 在实际应用中,开发者需要权衡记忆的长度和调用的成本。保存更长的对话历史可以提供更好的上下文理解,但也会增加API调用的成本和延迟。
总的来说,大模型的"记忆"能力是通过每次提供完整对话历史来实现的。这种机制虽然有其局限性,但也为我们提供了灵活管理对话上下文的可能性。在开发基于大模型的应用时,理解并合理利用这一机制是至关重要的。
热门推荐
九江学院附属医院救治多例电击伤患者 被电击伤如何自救互救?
玉灵膏的配方比例与功效:龙眼肉和西洋参的黄金配比
离婚后办理不动产证需要什么资料
如何通过饮食调理气血?推荐这些食物
北京市十大旅游景点
电子背散射衍射技术(EBSD):原理、应用及样品制备详解
会议系统设备不兼容问题全面解析:从硬件到软件探索高效解决方案
软件升级后兼容性问题及解决方案探讨
职场加薪的六点要求:提升自己的价值与谈判力
教你几招如何应对身边那些“恶心奇葩”的同事
行人交通安全,不容忽视
电动车骑行安全指南:从交通规则到充电安全全方位防护
出版社编辑是做什么的工作
雷达信号处理中的恒虚警检测(CFAR)技术详解
US Crude Oil Prices Data|原油价格数据集|市场分析数据集
活塞环在不同应用中的特性
一键启动电池没电怎么办?处理方法与预防措施全攻略
内蒙古地区在民国时期为何被一分为四
三清山超详细旅游攻略,拿走不谢!
从 CUDA 对 AI 芯片思考
以“精准服务”为笔,绘就营商环境新图景!九里亭街道深入推进“服务包”制度
反思智能体:提升AI决策能力的利器
反馈+反思=加速成长
海南十大必玩景点全攻略!假期这样玩才过瘾,最后一个太惊艳!
《熵减法则》:对抗无序的方法论
3月LPR出炉,已连续5个月维持不变,释放什么信号
河北方言历史:老乡见老乡,说话听不懂,如何认识你的老乡?
普通话标准音,为何从河北滦平县采集,而不是北京?
尊龙:从孤儿到“亚洲第一美男”的传奇人生
窃密木马借"壁纸引擎"传播,Steam "再中招"