AIGC:从‘金鱼记忆‘到‘过目不忘‘,实例解密大模型是如何记住对话的上下文的?
创作时间:
作者:
@小白创作中心
AIGC:从‘金鱼记忆‘到‘过目不忘‘,实例解密大模型是如何记住对话的上下文的?
引用
CSDN
1.
https://m.blog.csdn.net/surfirst/article/details/143063154
大语言模型(LLM)在对话中表现出"记忆"能力,似乎能够记住之前的对话内容。但实际上,这种"记忆"是如何实现的呢?本文将通过三个部分来探讨这个问题。
1. 无记忆的大模型
首先,让我们看一个简单的程序,展示大模型在默认情况下是没有任何记忆的:
import os
from dotenv import load_dotenv
from langchain_openai import AzureChatOpenAI
from langchain_core.messages import HumanMessage
# 加载环境变量和设置模型
load_dotenv()
model = AzureChatOpenAI(
azure_endpoint=os.getenv("AZURE_OPENAI_ENDPOINT"),
azure_deployment=os.getenv("AZURE_OPENAI_DEPLOYMENT_NAME"),
openai_api_version=os.getenv("AZURE_OPENAI_API_VERSION"),
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
)
# 第一次对话
message = HumanMessage(content="I am Bob")
response = model.invoke([message])
print("Model's response:")
print(response.content)
# 第二次对话
message = HumanMessage(content="What's my name?")
response = model.invoke([message])
print("Model's response:")
print(response.content)
让我们看看这个程序的运行结果:
Model's response:
Hello Bob! It's nice to meet you. Is there anything I can help you with today?
Model's response:
I apologize, but I don't have any prior context or information about your name. Each interaction with me starts fresh, and I don't retain information from previous conversations. If you'd like me to know your name, you'll need to tell me in this current conversation. So, may I ask what your name is?
从这个运行结果中,我们可以清楚地看到:
- 在第一次对话中,模型正确地响应了"I am Bob"这个陈述。
- 然而,在第二次对话中,当我们问"What’s my name?"时,模型无法回答这个问题。它表示没有任何先前的上下文或信息来知道用户的名字。
- 模型明确指出每次交互都是全新的开始,它不会保留之前对话的信息。
这个例子清楚地展示了大模型在默认情况下是没有"记忆"的。每次调用都是独立的,模型无法记住之前的对话内容。这就是为什么在实际应用中,我们需要特别的机制来维护对话的上下文。
2. 提供对话历史实现"记忆"
那么,如何让模型"记住"之前的对话呢?答案是:我们需要在每次提问时,将整个对话历史发送给模型。下面是一个实现这一功能的程序:
import os
from dotenv import load_dotenv
from langchain_openai import AzureChatOpenAI
from langchain_core.messages import HumanMessage
from langgraph.checkpoint.memory import MemorySaver
from langgraph.graph import START, MessagesState, StateGraph
# 加载环境变量和设置模型
load_dotenv()
model = AzureChatOpenAI(
model_name="gpt-4",
azure_endpoint=os.getenv("AZURE_OPENAI_ENDPOINT"),
azure_deployment=os.getenv("AZURE_OPENAI_DEPLOYMENT_NAME"),
openai_api_version=os.getenv("AZURE_OPENAI_API_VERSION"),
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
)
# 设置对话图和记忆
workflow = StateGraph(state_schema=MessagesState)
def call_model(state: MessagesState):
response = model.invoke(state["messages"])
return {"messages": response}
workflow.add_edge(START, "model")
workflow.add_node("model", call_model)
memory = MemorySaver()
app = workflow.compile(checkpointer=memory)
# 进行对话
config = {"configurable": {"thread_id": "tom"}}
# 第一次对话
query = "Hi! I'm Bob."
input_messages = [HumanMessage(query)]
output = app.invoke({"messages": input_messages}, config)
output["messages"][-1].pretty_print()
# 第二次对话
query = "What's my name?"
input_messages = [HumanMessage(query)]
output = app.invoke({"messages": input_messages}, config)
output["messages"][-1].pretty_print()
让我们看看这个程序的完整运行结果:
Human: Hi! I'm Bob.
AI: Hello Bob! It's nice to meet you. How can I assist you today?
在这个例子中,我们使用了MemorySaver
来保存对话历史,并在每次调用时将整个对话历史发送给模型。这样,模型就能"记住"之前的对话内容,并正确回答"What’s my name?"这个问题。
3. 总结:大模型的"记忆"机制与限制
通过以上两个例子,我们可以得出以下结论:
- 大模型本身没有长期记忆能力。每次调用都是独立的,不会自动记住之前的对话内容。
- 要实现"记忆"效果,我们需要在每次调用时提供完整的对话历史。这就是为什么在实际应用中,我们常常需要保存和管理对话历史。
- 所有的大模型都有对话中token数量的限制。这个限制实际上决定了模型能够"记住"的对话长度。例如,如果一个模型的token限制是4096,那么当对话历史超过这个限制时,我们就需要进行截断或者使用更复杂的方法来管理长对话。
- 这种基于输入的"记忆"机制也解释了为什么大模型可能会产生矛盾的回答 - 如果我们没有提供完整的上下文,模型就可能基于不完整的信息给出不一致的回答。
- 在实际应用中,开发者需要权衡记忆的长度和调用的成本。保存更长的对话历史可以提供更好的上下文理解,但也会增加API调用的成本和延迟。
总的来说,大模型的"记忆"能力是通过每次提供完整对话历史来实现的。这种机制虽然有其局限性,但也为我们提供了灵活管理对话上下文的可能性。在开发基于大模型的应用时,理解并合理利用这一机制是至关重要的。
热门推荐
诗歌的道家思想(探索中国古代诗歌与道家哲学的奇妙融合之道)
小额理财产品有哪些?2025小额理财赚钱技巧?
一村“烧炮”多人被炸伤,家属讲述事发经过,上万网友爱心接力
港片爱情经典之《阿郎的故事》
为什么大家都用小苏打清洗蔬果类农产品?
台式电脑换新机数据迁移怎么操作?这样做就对了!
起诉都需要准备什么材料
计算机视觉在 OCR 中的作用:增强文字识别能力
最新研究:多吃鱼油可降低炎症性肠病发病风险
天津失业金领取指南:条件、金额与期限全解析
俄罗斯蜜蜡:自然与人文的完美结合
相同的LLM在「不同GPU上」会产生不同输出?为什么?
原神角色强度排行榜,这三个角色才是真的惨,从幻神变成下水道
《暗黑破坏神4》光追硬件需求评测:画面锦上添花,显卡非RTX不可
服刑人员劳动一个月,能拿多少钱?
信用卡逾期协商还款免息的具体步骤及注意事项
UBC的学术排名分析与解读
培育爱科学勇探索的“科创娃”!浙大科普基地落户温州这所中学……
狗头是什么意思(起源、表情包、影响与社会意义)
二战中的战略欺骗艺术
为爱轻装上阵,小而美极简轻婚礼正流行
传统扎染如何与现代科技共舞?2024 中国海安“扎染文化科技日”在华艺集团召开
房间里有甲醛呆的时间久会怎么样?探讨甲醛对健康的影响
垃圾箱删除的文件怎么恢复正常?3个方法帮你强力恢复回收站
法律资源共享是什么
提升110警情处置效率,“AI指挥官”来助力
黄金技术分析:深入剖析与实用方法技巧
如何网上申请办理护照
机器学习的四大学派:符号主义学派、贝叶斯学派、连接主义学派与进化仿生学派
工业污水处理厂的臭味检测和去除方法