当前位置: 首页 > news >正文

建设网站带后台管理ppt模板大师

建设网站带后台管理,ppt模板大师,电子商务就业前景和就业方向,asp 网站图标1.网络结构 主要贡献: 提出了一种多尺度空间光谱Transformer网络光谱多头注意力旨在提取光谱特征引入多尺度波段/补丁嵌入来提取多尺度特征自监督训练 痛点:卷积核的感受野有限,基于卷积神经网络CNN的融合方法无法利用特征图中的全局关系…

1.网络结构
在这里插入图片描述

主要贡献:

  • 提出了一种多尺度空间光谱Transformer网络
  • 光谱多头注意力旨在提取光谱特征
  • 引入多尺度波段/补丁嵌入来提取多尺度特征
  • 自监督训练

痛点:卷积核的感受野有限,基于卷积神经网络CNN的融合方法无法利用特征图中的全局关系。

方法:该文利用Transformer从整个特征图中提取全局信息进行融合的强大能力,提出一种新型多尺度空间光谱Transformer网络(MSST-Net)。

该网络是一个双分支网络,分别从HSI中提取光谱特征,从MSI中提取空间特征。

在特征提取之前,执行跨模态串联以实现两个分支之间的跨模态信息交互。然后,我们提出一种光谱变压器(SpeT)来提取光谱特征,并引入多尺度带/补丁嵌入,通过SpeT和空间变压器(SpaT)获得多尺度特征。为了进一步提高网络的性能和泛化,我们提出了一种自监督预训练策略,其中专门设计了掩码带自动编码器(MBAE)和掩蔽补丁自动编码器(MPAE),用于SpeTs和SpaT的自监督预训练。

两个浅层特征提取模块

  • 一个卷积层,用于提取浅层特征

两种深层特征提取模块

  • 光谱特征提取
  • 空间特征提取

一个图像重建模块

  • 两个卷积层
  • GELU激活函数·

2. 具体模块

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
B l 0 B_l^0 Bl0代表第 l l l层第0个,维度是 D s p e D_{spe} Dspexc 这个 c = 16 ∗ 2 l − 1 c=16*2^{l-1} c=162l1, D s p e D_{spe} Dspe=32
文章设定层数为3层, l = 1 , 2 , 3 l=1,2,3 l=1,2,3
在这里插入图片描述
在这里插入图片描述

P l 0 P_l^0 Pl0维度为 N ∗ D s p a , p = 8 ∗ 2 l − 1 N*D_{spa},p=8*2^{l-1} NDspa,p=82l1,p是每个patch的大小, N = H ∗ W P 2 N=\frac{H*W}{P^2} N=P2HW , D s p a D_{spa} Dspa=256

3.数据集

在这里插入图片描述
在这里插入图片描述

LRHSI:采用wald’s协议,对CAVE、Havard、WDCM数据集采用高斯滤波+下采样,比例因子4和8
HRMSI:CANE和Harvard数据,3波段,采用NikonD700光谱响应矩阵
WDCM数据集,10波段,采用哨兵-2 A的光谱响应矩阵生成

对于真实数据集YRE,我们将观测到的HSI和MSI降采样为3后生成训练样本。原来的HSI被当做真实值。训练后,我们将原始HSI和MSI融合,使用训练后的模型估计HR-HSI。

4.训练设置

4.1.自监督训练

从零开始训练网络需要大量的时间和数据。因此,我们希望该网络能够得到更好的初始化训练。换句话说,我们需要一个预训练网络,在下次执行类似任务时能快速获得更好的结果。一般来说,训练前学习可以分为有监督学习和无监督学习。自监督学习是有监督学习和无监督学习之间的一种中间形式。它在训练前阶段使用未标记的数据集,并在各种应用中产生了有希望的结果。因此,我们以一种自我监督学习的方式对我们的模型进行了预训练。
本来MAE是非对称的,本文改了一下改成对称的
本文采用对称编码器-解码器结构的MAE
Masked patches autoencoder :MPAE
the masking ratiois 50%

Masked bands autoencoder :MBAE
the masking ratios of the LR-HSIs to 75%

4.2.微调

微调的目的是将预训练好的模型应用于后续的图像融合任务中。我们首先使用预先训练过的编码器来更新我们的网络的参数,然后对整个网络进行端到端微调。使用比训练前更大的补丁进行微调通常是更有益的。为了进一步提高预训练的变压器编码器提取LR-HSI的光谱特征和HR-MSI的空间特征的能力,我们使用比预训练尺寸更大的补丁进行端到端微调。

在这里插入图片描述

我们首先将hr - msi输入到MPAE中,将lr - hsi输入到MBAE中进行自监督预训练,然后将两个预训练好的编码器的参数加载到所提出的网络中进行端到端微调

CAVE预训练之后,在CAVE和Harvard上微调, 在harvard数据集上的实验可以看做对网络泛化能力的一个测试

参数设置:
优化器选用AdamW
在这里插入图片描述
学习率:CAVE:1.0e-3和Harvard:1.0e-4
batch size:32
epoch:5000
在预训练中,将训练集的HR-MSIs裁剪成大小为128×128像素的patches,从而将训练集的LR-HSIs裁剪成大小为128/𝑟×128/𝑟像素的patches,其中𝑟为降采样比(4/8)。
在端到端微调中,HR-MSIs被裁剪成大小为192×192像素的patches,LR-HSIs被裁剪成大小为192/𝑟×192/𝑟像素的patches。

4.3与其他方法比较

为了有效地评价该方法的性能,我们引入了7种最先进的融合方法进行比较,包括两种传统方法,即FUSE [8]和CNMF [24],四种基于cnn的方法,即.,DBIN[66],MHF-Net[32],UAL[38]和SSR-NET [14],以及一种新提出的基于变压器的方法,融合器[54]。在不同的比较方法中的参数是根据作者的代码或参考文献中的建议来设置的。这两种传统方法在MATLAB(R2013a)服务器2012上进行测试,使用两个Intel Xeon E5-2650处理器和128GB内存,基于深度学习的方法由Pytorch 1.10.0在Python 3.7上使用NVIDIA A40的GPU。

5.结果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

来自文章:Multiscale spatial–spectral transformer network for hyperspectral and multispectral image fusion

http://www.yayakq.cn/news/756271/

相关文章:

  • 影视网站代理wordpress+外观+权限
  • 公司要建设网站需要那些程序网页传奇手游排行榜前十名
  • 去后台更新一下网站做网站的接口是意思
  • 重庆网站建设红旗河沟大学生二手书网站开发需求
  • 适合公司建设的网站网站访问对应二级域名
  • 北京建网站软件泰安齐鲁人才网
  • 重庆建设厅的网站首页中山网站开发招聘
  • 建设网站不用模板可以吗连云港网站建设sitall
  • 上饶市建设局网站wordpress中文企业模板下载
  • 企业网站的宣传功能体现在()wordpress 百万级数据
  • 武进网站建设基本流程小工具文本wordpress
  • 宁波市建设厅网站首页南京网站设计案例
  • 广西网站怎么制作区块链交易网站建设
  • 免费行情软件网站大全网页版黄骅市领导班子最新调整
  • 苏州企业网站建设设计制作公司中国建设银行官方网站登录
  • wordpress saml小说网站怎么做seo
  • 机械网站建设公司网站数字化建设
  • 沈阳php网站网页设计与制作基础
  • 响应式手机网站怎么做wordpress所有图片
  • 公司营销型网站制作wordpress默认固定链接
  • 做网站优化有什么方法免费快速网站
  • 合肥本地建网站支付网站建设费用做账
  • 湖南省建设厅假网站wordpress不能外部链接
  • 加强文化网站建设网站正在建设中 模版
  • 物流网站建设的需求分析行业门户网站营销案例
  • 如何注册网站域名和购买虚拟主机干净无广告的搜索引擎
  • 在哪些网站能接到活做东营网站seo服务
  • 成都网站排名 生客seo怎么样wordpress 投票 插件
  • wordpress做图片站的可能性h5响应式网站是什么
  • 怎么制作自己的免费网站宁夏水利厅建设管理处网站