当前位置: 首页 > news >正文

行业门户网站程序电子商务网站建设策划方案

行业门户网站程序,电子商务网站建设策划方案,网站建设平台设备,网站刷单账务处理怎么做基础篇:Transformer 引言模型基础架构原论文架构图EmbeddingPostional EncodingMulti-Head AttentionLayerNormEncoderDecoder其他 引言 此文作者本身对transformer有一些基础的了解,此处主要用于记录一些关于transformer模型的细节部分用于进一步理解其具体的实现机…

基础篇:Transformer

  • 引言
  • 模型基础架构
    • 原论文架构图
    • Embedding
    • Postional Encoding
    • Multi-Head Attention
    • LayerNorm
    • Encoder
    • Decoder
    • 其他

引言

此文作者本身对transformer有一些基础的了解,此处主要用于记录一些关于transformer模型的细节部分用于进一步理解其具体的实现机制,输入输出细节,以及一些理解.此文会不定期更新用于记录新学习到的知识.

模型基础架构

原论文架构图

首先给出的是原论文 Attention is all you need中的架构图,我们会在这个篇章部分分列模型pipeline中的各个部件。在最后给出关于这个模型图中没有的细节补充。

论文原图

Embedding

其使用的是nn.embedding来进行初始化,根据词表里的数量和设置的隐层维度来初始化,可训练。(**TODO:**这里会存在词表的初始化问题,即分词方法,在后续介绍)

Postional Encoding

两种编码方式,learned PE是绝对位置编码,即直接随机初始化一个可训练的参数;Sinusoidal PE为相对位置的三角编码,首先根据位置pos和隐层维度位置i得到embedding值
f ( p o s , i ) = s i n ( p o s 1000 0 i N ) i f i 为奇数   e l s e c o s f(pos,i)=sin(\frac{pos}{10000^{\frac{i}{N}}}) \ \ \ \ if\ \ i为奇数\ \ else\ \ cos f(pos,i)=sin(10000Nipos)    if  i为奇数  else  cos

Multi-Head Attention

单头attention 的 Q/K/V 的shape和多头attention 的每个头的Qi/Ki/Vi的大小是不一样的,假如单头attention 的 Q/K/V的参数矩阵WQ/WK/WV的shape分别是[512, 512] (此处假设encoder的输入和输出是一样的shape),那么多头attention (假设8个头)的每个头的Qi/Ki/Vi的参数矩阵WQi/WKi/WVi大小是[512, 512/8].

LayerNorm

BatchNorm本质是对同一个批次中,每一个数据样本的不同通道求均值方差,通道之间不进行交互,并通过滑动动量平均的方式将批次的均值方差记录下来用于推理。BN相对更适合在数据批次上具有统计意义的问题,其会抹平特征之间的差异,保留样本之间的大小关系。而在NLP任务当中,每个句子内部的特征大小关系才是需要保留的,不同句子之间关联不大,因此抹平样本之间的大小关系更为合适。

Encoder

Encoder一般包含两部分,self-attention和feed-forward。每一层Encoder都有独立的一组权重参数。最后一层Encoder得到的Wk,Wv用于计算Decoder的cross-attention。

Decoder

Decoder一般包含三个部分,self-attention, encoder-decoder-attention和feed-forward。在这里和这里有一些关于Decoder实际部署时的运行细节。

在训练的时候,Decoder通过mask得到ground truth的shift-right的下三角矩阵,对于位置t,其拥有前t-1个时刻的所有信息,之后计算矩阵得到该位置的output,该output和同位置的ground truth计算损失(即teach forcing的方法)。在推理时,通过padding一个一个输入,但只取最后一个时刻的output作为全局的预测结果,因此可能存在非对应位置最优解(即beam search)。

其他

  • 编码层解码层堆栈:事实上encoder和decoder是可以进行stack的,原论文图中只展示了一层,其实际实现逻辑是下图。
    在这里插入图片描述
  • transformer只能够处理定长输入和定长输出,对于长度不定的数据,通过padding -INF等方法来进行补全,由于softmax的存在这些会约等于0。
http://www.yayakq.cn/news/767171/

相关文章:

  • 企业网站 优点红色大气企业网站
  • 商务网站专题页wordpress 必须登录
  • 如何在网站上木马我想创建一个网站自己玩玩
  • 免费网页制作的网站qq电脑版
  • 做图网站有哪些一个完整的营销策划方案范文
  • 微信小程序广告收益游戏优化大师有用吗
  • 网站备案 类型某网站建设方案
  • 做网站是不是要有数据库中企动力做网站服务怎么样
  • 单位做网站注意什么问题网站宣传创意视频
  • 江西那家做网站公司好网站正在建设中请稍后
  • 做快消品的网站广西网联电线电缆有限公司
  • 做动漫图片的网站wordpress变微软雅黑
  • 网站运营优化培训深圳市广告传媒有限公司
  • 查询公司的网站备案信息查询广州网站建设gzzhixun
  • 怎么做手机版网站中国最著名的40个建筑
  • 有哪些做的好看的网站视频剪辑在哪里学
  • 凡科建站网站怎样做软件下载自有电脑做网站服务器
  • 广东建设工程注册中心网站郑州网站排名优化公司
  • 网站备案地区黄山seo排名优化技术
  • 申请免费网站需要什么条件建设网站需要营业执照吗
  • 昆明网站定制开发发卡网站源码下载
  • 网站备案 材料嘉兴企业网络营销推广平台
  • 长沙营销网站设计网站开发浏览器兼容性
  • 建网站租服务器多少钱库存网站建设定制
  • 深圳网站建设服务清单wordpress替换dede
  • 网站建设公司shundeit网页制作工具教程
  • 新密做网站网站二维码代码
  • h5响应式网站开发90后做网站月入万元
  • 四川网站制作中装建设重组消息
  • 阿里云做电影网站宽带