0
点赞
收藏
分享

微信扫一扫

LangChain记忆能力与ConversationChain会话链使用

人类之间聊天往往涉及上下文,通过不断的沟通对话让讨论持续下去,并在某些方向得以深入。

在应用LangChain中,我们也同样会对对话的机器人、或者大语言模型产生类似的期待:

我们与模型之间的对话,能否产生类似于人类短时记忆的存储机制,让模型能够记住前面聊天中谈及的问题,并有针对性的影响和应用到后续的沟通过程中。

通过采用记忆模组,我们可以在会话链中加入类似的短时记忆效果。

这里也建议我们,为了产生更好的沟通效果,最好能够在询问过程中逐步深入,让每一次提问都能够与前文的回复相连接,逐步深化主题,提升大模型的响应效果。

示例代码如下:

from llm_chatglm import ChatGLM
llm=ChatGLM()

from langchain.chains import ConversationChain
conversation = ConversationChain(llm=llm,verbose=True)

output = conversation.predict(input="你好")
print(output)

output = conversation.predict(input="西安在哪里")
print(output)

output = conversation.predict(input="那里有哪些值得推荐的风景名胜")
print(output)


举报

相关推荐

0 条评论