人类之间聊天往往涉及上下文,通过不断的沟通对话让讨论持续下去,并在某些方向得以深入。
在应用LangChain中,我们也同样会对对话的机器人、或者大语言模型产生类似的期待:
我们与模型之间的对话,能否产生类似于人类短时记忆的存储机制,让模型能够记住前面聊天中谈及的问题,并有针对性的影响和应用到后续的沟通过程中。
通过采用记忆模组,我们可以在会话链中加入类似的短时记忆效果。
这里也建议我们,为了产生更好的沟通效果,最好能够在询问过程中逐步深入,让每一次提问都能够与前文的回复相连接,逐步深化主题,提升大模型的响应效果。
示例代码如下:
from llm_chatglm import ChatGLM
llm=ChatGLM()
from langchain.chains import ConversationChain
conversation = ConversationChain(llm=llm,verbose=True)
output = conversation.predict(input="你好")
print(output)
output = conversation.predict(input="西安在哪里")
print(output)
output = conversation.predict(input="那里有哪些值得推荐的风景名胜")
print(output)