当前位置: 首页 > news >正文

有哪些可以做兼职的网站手机网站怎么做域名解析

有哪些可以做兼职的网站,手机网站怎么做域名解析,wordpress给文章标题加上序号,网站做rss+wordpressTransformer是一种强大的神经网络架构,可用于处理序列数据,例如自然语言处理任务。在PyTorch中,可以使用torch.nn.Transformer类轻松实现Transformer模型。 以下是一个简单的Transformer模型实现的示例代码,它将一个输入序列转换为…

Transformer是一种强大的神经网络架构,可用于处理序列数据,例如自然语言处理任务。在PyTorch中,可以使用torch.nn.Transformer类轻松实现Transformer模型。
以下是一个简单的Transformer模型实现的示例代码,它将一个输入序列转换为一个输出序列,可以用于序列到序列的翻译任务:
示例代码如下:

import torch
import torch.nn as nn
import torch.nn.functional as F
import mathclass PositionalEncoding(nn.Module):def __init__(self, d_model, dropout=0.1, max_len=5000):super().__init__()self.dropout = nn.Dropout(p=dropout)pe = torch.zeros(max_len, d_model)position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1)div_term = torch.exp(torch.arange(0, d_model, 2).float() * (-math.log(10000.0) / d_model))pe[:, 0::2] = torch.sin(position * div_term)pe[:, 1::2] = torch.cos(position * div_term)pe = pe.unsqueeze(0).transpose(0, 1)self.register_buffer('pe', pe)def forward(self, x):x = x + self.pe[:x.size(0), :]return self.dropout(x)class TransformerModel(nn.Module):def __init__(self, input_vocab_size, output_vocab_size, d_model, nhead, num_layers, dim_feedforward, dropout=0.1):super(TransformerModel, self).__init__()self.d_model = d_modelself.nhead = nheadself.num_layers = num_layersself.dim_feedforward = dim_feedforwardself.embedding = nn.Embedding(input_vocab_size, d_model)self.pos_encoder = PositionalEncoding(d_model, dropout)encoder_layer = nn.TransformerEncoderLayer(d_model, nhead, dim_feedforward, dropout)self.transformer_encoder = nn.TransformerEncoder(encoder_layer, num_layers)self.decoder = nn.Linear(d_model, output_vocab_size)self.init_weights()def init_weights(self):initrange = 0.1self.embedding.weight.data.uniform_(-initrange, initrange)self.decoder.bias.data.zero_()self.decoder.weight.data.uniform_(-initrange, initrange)def forward(self, src, src_mask=None):src = self.embedding(src) * math.sqrt(self.d_model)src = self.pos_encoder(src)output = self.transformer_encoder(src, src_mask)output = self.decoder(output)return output

在上面的代码中,我们定义了一个名为TransformerModel的模型类,它继承自nn.Module。该模型包括以下组件:

nn.Embedding:将输入序列中的每个标记转换为其向量表示。
PositionalEncoding:将序列中每个标记的位置编码为向量。
nn.TransformerEncoder:将编码后的输入序列转换为输出序列。
nn.Linear:将Transformer的输出转换为最终输出序列。
可以根据自己的需求修改TransformerModel类中的超参数,例如输入和输出词汇表大小、嵌入维度、Transformer层数、隐藏层维度等等。使用该模型进行训练时,您需要定义损失函数和优化器,并使用PyTorch的标准训练循环进行训练。

在 Transformer 中,Positional Encoding 的作用是将输入序列中的位置信息嵌入到向量空间中,从而使得每个位置对应的向量是唯一的。这个实现中,Positional Encoding 采用了公式:

PE(pos,2i)=sin⁡(pos/100002i/dmodel)\text{PE}{(pos, 2i)} = \sin(pos / 10000^{2i/d{\text{model}}})PE(pos,2i)=sin(pos/100002i/dmodel)

PE(pos,2i+1)=cos⁡(pos/100002i/dmodel)\text{PE}{(pos, 2i+1)} = \cos(pos / 10000^{2i/d{\text{model}}})PE(pos,2i+1)=cos(pos/100002i/dmodel)

其中 pos 表示输入序列中的位置,i 表示向量的维度。最终得到的 Positional Encoding 矩阵被添加到输入序列的嵌入向量中。

http://www.yayakq.cn/news/747620/

相关文章:

  • 网站建设管理与维护ppt重庆seo搜索引擎优化优与略
  • 台州椒江区建设局网站文化传播公司网站模板
  • 访问网站速度慢上海广告公司排行榜
  • 做网站用什么软件编辑做投标需要知道什么网站
  • 高端h5网站开发笔记本彩页设计
  • 电子商务网站建设与管理课后第四章教你如何建立网站
  • 现在做什么网站好网站收缩广告
  • 机场建设相关网站28商机网创业项目
  • 营销型网站建设开发价格加强网站 网站建设
  • 自己做网站麻烦吗网页制作教程(第三版)
  • 在线教育网站开发实例做网站买域名就行了吗
  • 灵芝住房和城乡建设局局网站做箱包外贸哪个网站好
  • 陆良县住房和城乡建设局网站英文外贸网站
  • 广州牌手表网站小程序搭建是什么工作
  • 霍尔果斯建设局网站溧阳企业网站建设价格
  • 安徽省省建设厅网站网站的建设需要多少
  • 泰州网站建设找思创珠海网站设计价格
  • 网站搜索引擎优化工具网站开发属于软件开发行业吗
  • 免费推广网站wordpress的收费
  • 苏州网站开发电话免费全部游戏大全
  • 网站和app区别与联系网站建设项目设计报告
  • 白品网站建设wordpress 侧边栏 背景
  • 北京高端网站建设规划有二维码怎样做网站
  • 文明网站建设情况报告八爪鱼wordpress
  • 学校校园网站建设服务做游戏脚本的网站
  • 电子商务网站提供的主要功能有电子邮箱注册网站申请
  • jquery图片效果网站网站域名登陆地址
  • 在百度做网站需要什么资料珠海移动app开发公司
  • 网站标题加后缀成都网站设计制作
  • 如何建立学校网站中国建设银行网站 纪念币预约