文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

LangChain简化ChatGPT工程复杂度使用的方法是什么

2023-07-05 18:28

关注

这篇文章主要介绍了LangChain简化ChatGPT工程复杂度使用的方法是什么的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇LangChain简化ChatGPT工程复杂度使用的方法是什么文章都会有所收获,下面我们一起来看看吧。

什么是LangChain?

使用ChatGPT大家可能都是知道prompt, 

(1)想像一下,如果我需要快速读一本书,想通过本书作为prompt,使用ChatGPT根据书本中来回答问题,我们需要怎么做? 

(2)假设你需要一个问答任务用到prompt A,摘要任务要使用到prompt B,那如何管理这些prompt呢?因此需要用LangChain来管理这些prompt。

LangChain的出现,简化了我们在使用ChatGPT的工程复杂度。

LangChain中的模块,每个模块如何使用?

前提:运行一下代码,需要OPENAI_API_KEY(OpenAI申请的key),同时统一引入这些库:

# 导入LLM包装器from langchain import OpenAI, ConversationChainfrom langchain.agents import initialize_agentfrom langchain.agents import load_toolsfrom langchain.chains import LLMChainfrom langchain.prompts import PromptTemplate

LLM:从语言模型中输出预测结果,和直接使用OpenAI的接口一样,输入什么就返回什么。

llm = OpenAI(model_name="text-davinci-003", temperature=0.9) // 这些都是OpenAI的参数text = "What would be a good company name for a company that makes colorful socks?"print(llm(text)) // 以上就是打印调用OpenAI接口的返回值,相当于接口的封装,实现的代码可以看看github.com/hwchase17/langchain/llms/openai.py的OpenAIChat

以上代码运行结果:

Cozy Colours Socks.

Prompt Templates:管理LLMs的Prompts,就像我们需要管理变量或者模板一样。

prompt = PromptTemplate(    input_variables=["product"],    template="What is a good name for a company that makes {product}?",)// 以上是两个参数,一个输入变量,一个模板字符串,实现的代码可以看看github.com/hwchase17/langchain/prompts// PromptTemplate实际是基于StringPromptTemplate,可以支持字符串类型的模板,也可以支持文件类型的模板

以上代码运行结果:

What is a good name for a company that makes colorful socks?

Chains:将LLMs和prompts结合起来,前面提到提供了OpenAI的封装和你需要问的字符串模板,就可以执行获得返回了。

from langchain.chains import LLMChainchain = LLMChain(llm=llm, prompt=prompt) // 通过LLM的llm变量,Prompt Templates的prompt生成LLMChainchain.run("colorful socks") // 实际这里就变成了实际问题:What is a good name for a company that makes colorful socks?

Agents:基于用户输入动态地调用chains,LangChani可以将问题拆分为几个步骤,然后每个步骤可以根据提供个Agents做相关的事情。

# 导入一些tools,比如llm-math# llm-math是langchain里面的能做数学计算的模块tools = load_tools(["llm-math"], llm=llm)# 初始化tools,models 和使用的agentagent = initialize_agent(    tools, llm, agent="zero-shot-react-description", verbose=True)text = "12 raised to the 3 power and result raised to 2 power?"print("input text: ", text)agent.run(text)

通过如上的代码,运行结果(拆分为两个部分):

> Entering new AgentExecutor chain... I need to use the calculator for thisAction: CalculatorAction Input: 12^3Observation: Answer: 1728Thought: I need to then raise the previous result to the second powerAction: CalculatorAction Input: 1728^2Observation: Answer: 2985984Thought: I now know the final answerFinal Answer: 2985984> Finished chain.

Memory:就是提供对话的上下文存储,可以使用Langchain的ConversationChain,在LLM交互中记录交互的历史状态,并基于历史状态修正模型预测。

# ConversationChain用法llm = OpenAI(temperature=0)# 将verbose设置为True,以便我们可以看到提示conversation = ConversationChain(llm=llm, verbose=True)print("input text: conversation")conversation.predict(input="Hi there!")conversation.predict(  input="I'm doing well! Just having a conversation with an AI.")

通过多轮运行以后,就会出现:

Prompt after formatting:
The following is a friendly conversation between a human and an AI. The AI is talkative and provides lots of specific details from its context. If the AI does not know the answer to a question, it truthfully says it does not know.
Current conversation:
Human: Hi there!
AI:  Hi there! It's nice to meet you. How can I help you today?
Human: I'm doing well! Just having a conversation with an AI.
AI:  That's great! It's always nice to have a conversation with someone new. What would you like to talk about?

具体代码

如下:

# 导入LLM包装器from langchain import OpenAI, ConversationChainfrom langchain.agents import initialize_agentfrom langchain.agents import load_toolsfrom langchain.chains import LLMChainfrom langchain.prompts import PromptTemplate# 初始化包装器,temperature越高结果越随机llm = OpenAI(temperature=0.9)# 进行调用text = "What would be a good company name for a company that makes colorful socks?"print("input text: ", text)print(llm(text))prompt = PromptTemplate(  input_variables=["product"],  template="What is a good name for a company that makes {product}?",)print("input text: product")print(prompt.format(product="colorful socks"))chain = LLMChain(llm=llm, prompt=prompt)chain.run("colorful socks")# 导入一些tools,比如llm-math# llm-math是langchain里面的能做数学计算的模块tools = load_tools(["llm-math"], llm=llm)# 初始化tools,models 和使用的agentagent = initialize_agent(tools,                         llm,                         agent="zero-shot-react-description",                         verbose=True)text = "12 raised to the 3 power and result raised to 2 power?"print("input text: ", text)agent.run(text)# ConversationChain用法llm = OpenAI(temperature=0)# 将verbose设置为True,以便我们可以看到提示conversation = ConversationChain(llm=llm, verbose=True)print("input text: conversation")conversation.predict(input="Hi there!")conversation.predict(  input="I'm doing well! Just having a conversation with an AI.")

关于“LangChain简化ChatGPT工程复杂度使用的方法是什么”这篇文章的内容就介绍到这里,感谢各位的阅读!相信大家对“LangChain简化ChatGPT工程复杂度使用的方法是什么”知识都有一定的了解,大家如果还想学习更多知识,欢迎关注编程网行业资讯频道。

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯