当前位置: 首页 > news >正文

教育网站图片制作公司网站哪个好

教育网站图片,制作公司网站哪个好,seo技术快速网站排名,wordpress分类目录标签转换器摘取于https://www.jianshu.com/p/810ca25c4502 任务1:Masked Language Model Maked LM 是为了解决单向信息问题,现有的语言模型的问题在于,没有同时利用双向信息,如 ELMO 号称是双向LM,但实际上是两个单向 RNN 构成的…

摘取于https://www.jianshu.com/p/810ca25c4502

任务1:Masked Language Model
Maked LM 是为了解决单向信息问题,现有的语言模型的问题在于,没有同时利用双向信息,如 ELMO 号称是双向LM,但实际上是两个单向 RNN 构成的语言模型的拼接,由于时间序列的关系,RNN模型预测当前词只依赖前面出现过的词,对于后面的信息无从得知。

那么如何同时利用好前面的词和后面的词的语义呢?Bert 提出 Masked Language Model,也就是随机遮住句子中部分 Token,模型再去通过上下文语义去预测 Masked 的词,通过调整模型的参数使得模型预测正确率尽可能大。

怎么理解这一逻辑,Bert 预训练过程就是模仿我们学习语言的过程,要准确的理解一个句子或一段文本的语义,就要学习上下文关系,从上下文语义来推测空缺单词的含义。而 Bert 的做法模拟了英语中的完形填空,随机将一些单词遮住,让 Bert 模型去预测这个单词,以此达到学习整个文本语义的目的。

那么 Bert 如何做到”完形填空“的呢?

随机 mask 预料中 15% 的 Token,然后预测 [MASK] Token,与 masked token 对应的最终隐藏向量被输入到词汇表上的 softmax 层中。这虽然确实能训练一个双向预训练模型,但这种方法有个缺点,因为在预训练过程中随机 [MASK] Token 由于每次都是全部 mask,预训练期间会记住这些 MASK 信息,但是在fine-tune期间从未看到过 [MASK] Token,导致预训练和 fine-tune 信息不匹配。

而为了解决预训练和 fine-tune 信息不匹配,Bert 并不总是用实际的 [MASK] Token 替换 masked 词汇。

my dog is hairy → my dog is [MASK] 80%选中的词用[MASK]代替
my dog is hairy → my dog is apple  10%将选中的词用任意词代替
my dog is hairy → my dog is hairy  10%选中的词不发生变化

为什么 15% 的 Token 不完全 MASK?如果只有 MASK,这个预训练模型是有偏置的,也就是只能学到一种方式,用上下文去预测一个词,这导致 fine-tune 丢失一部分信息。

加上 10% 的随机词和 10% 的真实值是让模型知道,每个词都有意义,除了要学习上下文信息,还需要提防每个词,因为每个词都不一定是对的,对于 Bert 来说,每个词都需要很好的理解和预测。

有些人会疑惑,加了随机 Token,会让模型产生疑惑,从而不能学到真实的语义吗?对于人来说,完形填空都不一定能做对,而将文本中某些词随机替换,更是难以理解,从概率角度来说,随机 Token 占比只有 15% * 10% = 1.5%,预料足够的情况下,这并不会影响模型的性能。

因为 [MASK] Token 占比变小,且预测难度加大的原因,所以 MASK 会花更多时间。

任务2:Next Sentence Prediction
在许多下游任务中,如问答系统 QA 和自然语言推理 NLI,都是建立在理解两个文本句子之间的关系基础上,这不是语言模型能直接捕捉到的。

为了训练一个理解句子关系的模型,作者提出 Next Sentence Prediction,也即是预训练一个下一句预测的二分类任务,这个任务就是每次训练前都会从语料库中随机选择句子 A 和句子 B,50% 是正确的相邻的句子,50% 是随机选取的一个句子,这个任务在预训练中能达到 97%-98% 的准确率,并且能很显著的提高 QA 和 NLI 的效果。

Input = [CLS] the man went to [MASK] store [SEP]he bought a gallon [MASK] milk [SEP]
Label = IsNextInput = [CLS] the man [MASK] to the store [SEP]penguin [MASK] are flight ##less birds [SEP]
Label = NotNext

模型通过对 Masked LM 任务和 Next Sentence Prediction 任务进行联合训练,使模型输出的每个字 / 词的向量表示都能尽可能全面、准确地刻画输入文本(单句或语句对)的整体信息,为后续的微调任务提供更好的模型参数初始值。

作者:随时学丫
链接:https://www.jianshu.com/p/810ca25c4502
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

http://www.yayakq.cn/news/829149/

相关文章:

  • 网站模板下载好之后如何安装tk域名官方网站
  • 柯桥区建设集团网站jsp网站开发标准
  • 公司网站的具体步骤wordpress 随机播放
  • 网上有做口译的网站么建设有限公司网站
  • 网站建设shundeit网站做多长时间才会逐渐成功
  • 不免费的网络营销方式windows 优化大师
  • 企业网站建设课程体会个人域名备案网站名称
  • 网站建设开发员深圳福田区
  • 常见的网站结构类型嘉兴网站建设公司
  • 建个人网站需要哪些微信公众号里怎么做网站
  • 专门做二维码的网站php开发
  • 专业网站搭建定做什么语言做网站
  • 网站安全 重要性手机怎么建自己的网站
  • l建设银行网站哪个wordpress编辑器
  • 公司 网站建设 简介网页设计作业网站
  • 网站建站网站多少钱不会技术怎么做公司网站
  • 一流的网站建设与优化辽宁省建设工程信息网官网招标
  • 新网站不被收录邳州城乡建设局网站
  • 网站型和商城型有什么区别怎么做夜场网站
  • 建设建设银行甘肃分行网站满版型网站有哪些
  • 石家庄做网站推广排名的公司wordpress 导购
  • 乡镇美丽乡村建设网站信息简体中文wordpress5.2下载
  • 那个网站可以做恒指 买涨买跌wordpress退出登录
  • 阿里云万网网站制作有哪些企业可以做招聘的网站有哪些方面
  • 网站在vps能访问 在本地访问不了电子商务网站建设资料
  • 品牌建设助力高质量发展网站建设搜索优化
  • 网站空间去哪买公司网站建设须知
  • 电商网站建设思维导图便利的合肥网站建设
  • 本地赣州网站建设二级分销小程序
  • 河北盛通公路建设有限公司网站响应式网站模板免费下载