问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

LangChain:使用表达式语言优化提示词链

创作时间:
作者:
@小白创作中心

LangChain:使用表达式语言优化提示词链

引用
CSDN
1.
https://blog.csdn.net/neweastsun/article/details/145378699

LangChain Expression Language(LCEL)是LangChain推出的一种用于构建和编排链(chains)、代理(agents)等组件的声明式语言。它允许开发者以一种简洁、直观的方式将不同的LangChain组件组合在一起,定义复杂的工作流,而无需编写大量的传统Python代码来实现组件之间的连接和交互。本文将详细介绍LCEL的定义、作用、优势,并通过简单示例和复杂组合示例,帮助读者快速掌握LCEL的使用技巧。

定义

LangChain Expression Language(LCEL)是LangChain推出的一种用于构建和编排链(chains)、代理(agents)等组件的声明式语言。它允许开发者以一种简洁、直观的方式将不同的LangChain组件组合在一起,定义复杂的工作流,而无需编写大量的传统Python代码来实现组件之间的连接和交互。

作用

  • 快速构建工作流:能够快速将各种LangChain组件(如大语言模型、提示模板、工具等)组合成一个完整的工作流。例如,开发者可以轻松地将一个大语言模型与特定的提示模板以及一些外部工具(如搜索引擎、数据库查询工具)组合在一起,实现一个具备信息检索和知识问答功能的应用。
  • 清晰表达逻辑:以声明式的方式描述组件之间的交互逻辑,使得代码更加清晰易懂。无论是简单的线性流程还是复杂的分支、循环逻辑,都能通过LCEL清晰地表达出来,便于开发者理解和维护。
  • 灵活配置和调整:方便开发者对工作流进行灵活的配置和调整。可以根据不同的需求,快速替换工作流中的某个组件,或者修改组件之间的连接方式,而不需要对整个代码结构进行大规模的改动。

优势

  • 简洁性:相比传统的Python代码实现方式,LCEL代码更加简洁。它减少了大量的样板代码,让开发者能够更专注于业务逻辑的定义,提高了开发效率。
  • 可读性:声明式的语法使得代码的可读性大大提高。即使是非专业的开发者也能快速理解工作流的整体结构和各个组件之间的关系,便于团队协作和知识共享。
  • 可组合性:支持将多个较小的工作流组合成更大、更复杂的工作流。这种高度的可组合性使得开发者可以根据不同的场景和需求,灵活地构建各种复杂的应用。

简单示例

以下是一个简单的LCEL示例,展示了如何使用LCEL构建一个基本的问答链:

from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
from langchain.schema.runnable import RunnablePassthrough
import os

# 设置 OpenAI API 密钥
os.environ["OPENAI_API_KEY"] = "your_openai_api_key"

# 初始化大语言模型
llm = ChatOpenAI(temperature=0)

# 定义提示模板
prompt = ChatPromptTemplate.from_messages([
    ("human", "{question}")
])

# 使用 LCEL 构建链
chain = (
    RunnablePassthrough.assign() 
    | prompt 
    | llm
)

# 提出问题
question = "苹果公司是哪一年成立的?"
answer = chain.invoke({"question": question})

print(f"问题: {question}")
print(f"答案: {answer.content}")

在这个示例中,首先初始化了OpenAI的聊天模型和一个简单的提示模板。然后使用LCEL的语法,通过|符号将RunnablePassthrough、提示模板和大语言模型连接起来,构建了一个完整的问答链。最后,向链中输入一个问题,调用invoke方法获取模型的回答并打印输出。

提示词链组合示例

我们只需将标题值嵌入到下一个提示模板中,并使用RunnablePassthrough。现在,如果我们想进一步延长这个过程,我们可以简单地重复该过程。

import streamlit as st
from langchain.chat_models import ChatOpenAI
from langchain.prompts import PromptTemplate
from langchain.schema import StrOutputParser
from langchain.schema.runnable import RunnablePassthrough

st.title('Story Creator')
topic = st.text_input('Choose a topic to create a story about')

title_prompt = PromptTemplate.from_template(
    "Write a great title for a story about {topic}"
)

story_prompt = PromptTemplate.from_template(
    """You are a writer. Given the title of story, it is your job to write a story for that title.
Title: {title}"""
)

llm = ChatOpenAI()

title_chain = title_prompt | llm | StrOutputParser()
story_chain = story_prompt | llm | StrOutputParser()

chain = {"title": title_chain} | RunnablePassthrough.assign(story=story_chain)

if topic:
    result = chain.invoke({"topic": topic})
    st.header(result['title'])
    st.write(result['story'])

这里主要解释下核心代码:

  • streamlit是一个用于快速构建数据应用和Web界面的Python库。如果未接触过,可以简单理解未html表单,下面是设置表单页面标题,然后定义输入文本框。
  • st.title('Story Creator'):在Streamlit应用中设置页面标题为Story Creator。
  • st.text_input('Choose a topic to create a story about'):创建一个文本输入框,提示用户输入一个用于创作故事的主题,并将用户输入的值存储在变量topic中。
  • title_chain:将title_promptllmStrOutputParser|操作符连接起来,形成一个链。这个链的作用是根据用户输入的主题生成故事标题,并将模型的输出解析为字符串。
  • story_chain:将story_promptllmStrOutputParser|操作符连接起来,形成一个链。这个链的作用是根据生成的标题创作故事,并将模型的输出解析为字符串。
  • chain:将title_chainstory_chain组合起来。{"title": title_chain}表示将title_chain的输出作为键为title的值,RunnablePassthrough.assign(story=story_chain)表示将story_chain的输出作为键为story的值,最终形成一个包含标题和故事内容的结果。

现在我们知道如何用RunnablePassthrough传递值。下面我们想进一步延长这个过程,我们可以简单地重复该过程。

import streamlit as st
from langchain.chat_models import ChatOpenAI
from langchain.prompts import PromptTemplate
from langchain.schema import StrOutputParser
from langchain.schema.runnable import RunnablePassthrough

st.title('Story Creator')
topic = st.text_input('Choose a topic to create a story about')

title_prompt = PromptTemplate.from_template(
    "Write a great title for a story about {topic}"
)

story_prompt = PromptTemplate.from_template(
    """You are a writer. Given the title of story, it is your job to write a story for that title.
Title: {title}"""
)

review_prompt = PromptTemplate.from_template(
    """You are a critic. Given a story, it is your job to write a review for that story.
Title: {title}
Story: {story}"""
)

llm = ChatOpenAI()

title_chain = title_prompt | llm | StrOutputParser()
story_chain = story_prompt | llm | StrOutputParser()
review_chain = review_prompt | llm | StrOutputParser()

chain = ({"title": title_chain}
         | RunnablePassthrough.assign(story=story_chain)
         | RunnablePassthrough.assign(review=review_chain))

if topic:
    result = chain.invoke({"topic": topic})
    st.header(result['title'])
    st.write(result['story'])
    st.header("Review")
    st.write(result['review'])

该示例在之前基础上,增加了评论功能。

总结

LCEL能够快速将各种LangChain组件(如大语言模型、提示模板、工具等)组合成一个完整的工作流。让开发者可以轻松地将大语言模型与特定的提示模板以及一些外部工具组合在一起,灵活地满足各类需求应用。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号