当前位置: 首页 > news >正文

网站 国外服务器wordpress动图打开很慢

网站 国外服务器,wordpress动图打开很慢,西安市高新区建设规划局网站,电子商务网站建设与管理的背景整理并翻译自DeepLearning.AILangChain的官方课程:Memory Memory 使用open ai的API调用GPT都是单次调用,所以模型并不记得之前的对话,多轮对话的实现其实是将前面轮次的对话过程保留,在下次对话时作为输入的message数组的一部分&…

整理并翻译自DeepLearning.AI×LangChain的官方课程:Memory

Memory

使用open ai的API调用GPT都是单次调用,所以模型并不记得之前的对话,多轮对话的实现其实是将前面轮次的对话过程保留,在下次对话时作为输入的message数组的一部分,再将新一轮对话的提问也放入message数组,再发起一次API调用,即构手动建对话流(以上笔者注)。

构建对话流(LangChain称作对话链)可以使用LangChain提供的memory(记忆)这个组件来实现,本节就是例子:
在这里插入图片描述
在这里插入图片描述
设置verbose标志为true能看到完整的对话链:
在这里插入图片描述
能看出LangChain的ConversationChain其实默认提供了一个提示词,该提示词简单设定了对话场景和GPT扮演的角色AI,并要求GPT在不知晓问题答案时老老实实回答不知道以杜绝幻觉现象。

继续提问第二个问题“What is 1+1”
在这里插入图片描述
继续提问第三个问题“What is my name?”
在这里插入图片描述
可以看到,对话历史不断累积,输入也变得越来越长

memory.buffer内存储了所有的对话历史,不含输入提示词的其他部分。
在这里插入图片描述
使用memoryload_memory_variables()方法可以看到,memory维护一个变量字典,其中有一个名为history的变量存储了对话历史。
在这里插入图片描述
可以直接使用memorysave_context方法构建对话历史(笔者注:此时对话历史中AI的回答是人为指定的,不是真实的GPT回复,这里是为了演示,实际使用时不推荐这么做,GPT的真实回复可能和指定的不同,并没有完全使用GPT)。
在这里插入图片描述
在这里插入图片描述

Memory(记忆)

在这里插入图片描述
大语言模型是无状态的

  • 每一个对话都是独立的
    对话机器人表现出记忆能力其实是因为实现的时候将整个对话作为上下文输入给了大语言模型

LangChain提供了多种类型的memory来存储和累积对话。

ConversationBufferWindowMemory可以指定memory的的缓存大小(以对话轮数为单位):
在这里插入图片描述
k=1仅存储一轮对话作为历史,上上轮对话将会丢失:
在这里插入图片描述
ConversationTokenBufferMemory可以指定memory的token数量(笔者注:这个比较实用,因为GPT有最大token数限制,同时也是按token数计费的)。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
ConversationSummaryBufferMemory可以将对话以摘要的形式存储:
在这里插入图片描述
上图中max_token_limit=400,足够存储整个对话历史,如果我们将max_token_limit=100,将会触发以摘要形式存储对话历史来满足最大token数限制:
在这里插入图片描述
尝试使用摘要对话历史提问:
在这里插入图片描述
可以回答的不错,查看对话历史:
在这里插入图片描述
发现LangChian将提问内容摘要在System角色里面(和GPT API的system不是同一个,但使用了同样的名称)以满足最大token数限制。

Memory类型

在这里插入图片描述
ConversationBufferMemory

  • 该类型memory在一个变量中存储和提取对话信息

ConversationBufferWindowMemory

  • 该类型memory存储将随时间进行的对话交互以列表的形式存储,但仅存储k轮对话

ConversationTokenBufferMemory

  • 该类型memory存储最近的对话交互,并且使用token长度而不是对话论述来决定是否刷新对话交互历史

ConversationSummaryMemory

  • 该类型memory存储随时间进行的对话的摘要

更多memory类型

在这里插入图片描述
Vector data memory(向量数据memory)

  • 在一个向量数据库中存储从对话(或者其他途径)获得的文本,查询时检索和文本最相关的块

Entity memory(实体memory)

  • 使用一个LLM,它可以记住某个实体的详细信息

可以同时使用多种memory,例:对话memory + 实体memory来回忆个人信息

也可以将对话保存在传统数据库中,比如key-value存储或者SQL。

http://www.yayakq.cn/news/677359/

相关文章:

  • 公众号链接的手机网站怎么做中企动力邮箱设置
  • 网站建设定义浙江特种作业证件查询
  • 网站做等保是按照什么定级别的二维码网页制作价格
  • 亚马逊网站建设做什么wordpress标题都是大写
  • 设计师接私活的网站上海市教育网官网
  • 女人和男人做爰网站开拓网站建设
  • 私人网站建设方案书框架栏目访链家网网站开发
  • 360免费建站官网入口不带区域的公司名称怎么注册
  • 江安县建设招标网站跨境电商培训
  • 劳动仲裁院网站建设南昌net网站开发
  • 南京网站开发价格上海装修公司电话
  • 官网网站源码中国铁建官网
  • 去百度建网站中山做网站哪家专业
  • 百度网站免费电话自己电脑 wordpress
  • 网站页面创意商城县建设局网站
  • 电话用网站做综合布线外链推广平台
  • 网站空间到期提示买东西网站建设
  • 便捷网站建设哪家好免费素材视频网站
  • 心理咨询网站建设wordpress 调用GPS
  • dede网站站内推广方法seo代理
  • 做网站的如何兼职常用wordpress搭建环境
  • 晋城网站建设费用网站开发程序开发
  • 厦门做企业网站找谁中视频自媒体平台注册
  • 相亲网站建设友情链接如何添加
  • 长治推广型网站建设电商设计需要具备什么
  • 常州新北区建设局网站网站建设需要多少钱小江
  • 网站 aspx 模板外卖小程序源码
  • 域名解析到别人网站化妆培训学校网站源码 下载
  • 国外品牌网站新农村建设管理网站
  • 上海欣扬集团 网站建设电商网站建设过程