当前位置: 首页 > news >正文

安徽省省建设厅网站泉州网站开发人员

安徽省省建设厅网站,泉州网站开发人员,南宁企业网站建站,定制app软件开发一、机器学习深度学习的发展 1、机器学习SVM方法 (1)20世纪90年代,基于统计学习理论的结果,开发了一种新型的学习算法——支持向量机(SVM)。这就产生了一类新的理论上优雅的学习机器,它们将SVM…

一、机器学习深度学习的发展

1、机器学习SVM方法

    (1)20世纪90年代,基于统计学习理论的结果,开发了一种新型的学习算法——支持向量机(SVM)。这就产生了一类新的理论上优雅的学习机器,它们将SVM的中心概念——内核用于许多....

    (2)有一个核心是怎么样进行特征提取

    (3)选择核函数来计算相关性,也就是判断在高维空间当中两个点是如何相关的

    (4) 如果是线性模型,就是做内积。如果是高维空间使用核方法的话可以通过变换空间把这个空间拉成一个想要的样子,然后通过核函数来计算后,就能形成一个凸优化问题

    (5)老师提到了线性模型是一个凸优化问题,所以它有很好的理论结,可以得出显示解;因为是凸优化问题,所以有很好的定理,有一套完整的数学定理,能计算模型的复杂度,能计算在什么情况下会发生什么事情。

    (6)Svm对调参没那么敏感,是深度学习神经网络之前最流行的机器学习算法

       

2、几何学

    (1)思想:想要把整个计算机视觉的问题转化为几何学的问题

    

3、特征工程

    (1)也就是对一张图片怎样去抽取它的特征。

    (2)SIFT模型,抽取一些方向的向量来描述这个图片。如果特征向量抽取的好,可以使用一个简单的多分的模型(svm)进行分类

4、在计算机视觉领域,比较关心的是怎么样做一个更准确的特征提取,使得我们的机器学习能够比较好的去学习。所以整个计算机视觉,就是在针对不同的问题进行不同的特征提取。

二、发展史及流行方法

1、在90年代的时候,数据量不是特别大,计算也比较均匀, 我们常用是神经网络,因为神经网络是一个比较便宜的框架,模型是比较小的,因为做了一个随机梯度下降,所以对内存的要求并不是特别高。

2、在00年左右,内存不错,CPU也不错,数据量有增加,但并不是特别大,核方法是一个更合适的方法。因为一它简单,二它有理论,第三是我们能够运行他(能够去把它的核矩阵给算出来,在这样的计算量下是比较好的)

3、目前我们又回到了神经网络,是因为计算量更多了(虽然数据没有涨得那么快,但是计算量已经比以前翻了许多倍,我们可以更多的去挖掘数据里面的信息,就可以构造更深的神经网络,用计算换取精度),我们可以构造更深的神经网络

4、计算能力和数据所要的算法能力,他们在不同阶段的发展程度,导致大家对网络的选取有不同的偏好

三、数据集

1、对于imagenet的数据集,它与之前的黑白数字数据集有一些样本数和类别的一些变化,所以允许使用更深的神经网络去抽取里面一些更复杂的信息

四、AlexNet算法

1、暂退法做一些模型的控制,因为模型更大了,所以使用暂退法来做一些模型的正则

2、relu与sigmoid的相比,relu在正值的梯度更大,梯度在正区间恒为1,在负区间为0,并且在零点的时候,relu的一阶导更好一点,Sigmoid 函数的导数在极值处(接近0或1)非常小,会导致梯度在反向传播过程中迅速衰减。

3、Maxpolling取得最大值,使得输出的值更大,也使得梯度更加的大,能使训练更加容易一些

4、在深度学习神经网络之前,也就是机器学习的svm,主要关注特征提取,机器视觉的专家,把对问题的理解转化为标准的机器学习的算法的数值;而现在与其说不用提特征,不如说是现在需要设计网络去提取特征了(机器学习,是专家去确定所需要的特征,再到svn里面去做分类。而深度学习神经网络是一起学习的过程,最后的分类器和特征提取是一起训练的过程;现在所使用的深度学习,我们构造卷积神经网络比在机器学习人工特征提取更为简单,并且容易应用于不同学科,更加高效)

五、AlexNet架构(与LeNet对比)

1、激活函数从sigmoid变为ReLu

2、隐藏、全连接层后加入了丢弃层做正则

3、数据增强(大概是在训练集中将样本做成了多许别的类别,比如截取、色温,加大学习难度)

六、总结

1、AlexNet的架构与LeNet相似,但使用了更多的卷积层和更多的参数来拟合大规模的ImageNet数据集。

2、今天,AlexNet已经被更有效的架构所超越,但它是从浅层网络到深层网络的关键一步。

3、尽管AlexNet的代码只比LeNet多出几行,但学术界花了很多年才接受深度学习这一概念,并应用其出色的实验结果。这也是由于缺乏有效的计算工具。

4、Dropout、ReLU和预处理是提升计算机视觉任务性能的其他关键步骤。

七、代码(跟LeNet差不多)

import torch
from torch import nn
from d2l import torch as d2lnet = nn.Sequential(# 这里使用一个11*11的更大窗口来捕捉对象。# 同时,步幅为4,以减少输出的高度和宽度。# 另外,输出通道的数目远大于LeNetnn.Conv2d(1, 96, kernel_size=11, stride=4, padding=1), nn.ReLU(),nn.MaxPool2d(kernel_size=3, stride=2),# 减小卷积窗口,使用填充为2来使得输入与输出的高和宽一致,且增大输出通道数nn.Conv2d(96, 256, kernel_size=5, padding=2), nn.ReLU(),nn.MaxPool2d(kernel_size=3, stride=2),# 使用三个连续的卷积层和较小的卷积窗口。# 除了最后的卷积层,输出通道的数量进一步增加。# 在前两个卷积层之后,汇聚层不用于减少输入的高度和宽度nn.Conv2d(256, 384, kernel_size=3, padding=1), nn.ReLU(),nn.Conv2d(384, 384, kernel_size=3, padding=1), nn.ReLU(),nn.Conv2d(384, 256, kernel_size=3, padding=1), nn.ReLU(),nn.MaxPool2d(kernel_size=3, stride=2),nn.Flatten(),# 这里,全连接层的输出数量是LeNet中的好几倍。使用dropout层来减轻过拟合nn.Linear(6400, 4096), nn.ReLU(),nn.Dropout(p=0.5),nn.Linear(4096, 4096), nn.ReLU(),nn.Dropout(p=0.5),# 最后是输出层。由于这里使用Fashion-MNIST,所以用类别数为10,而非论文中的1000nn.Linear(4096, 10))

http://www.yayakq.cn/news/590794/

相关文章:

  • 网站设计风格说明泰安网络犯罪案件
  • 网站底部模板源码龙岩优化公司
  • wordpress网站加cnzz2022近期重大新闻事件10条
  • 建建设人才市场官方网站在那个网站做推广实用
  • 那个做动态表情包的网站建营销网站
  • 设计网站架构网站怎么自己优化
  • 电子商务网站的开发语言响应式网站服务
  • 杭州网站建设哪家好营销型网站的整体规划
  • 电子书网站开发网站开发方式演进
  • 网站开发费用多少钱网络电话聊天网站建设多少钱
  • 济南网站建设方案书注册公司注册资金要求
  • 玖云建站系统重庆最新情况 最新消息
  • 网站建设公司华网天下北京企业形象网站开发
  • 汕头做网站的公司自贡普通网站建设费用
  • 公司营业执照可以做几个网站有后台的网站模板
  • 网站上线流程企业网电话
  • 用什么软件做网站最快网站建设进度及实施过程
  • wordpress的博文页面如何自定义seo发帖工具
  • 苏州外贸网站建设推广服务软件项目管理流程图
  • 闵行网站建设公司个人空间网站免费
  • 石家庄网站设计培训班做商品网站需要营业执照
  • 做原油看哪个网站块链友情链接平台
  • 攀枝花建设规划网站做冷库用什么网站发帖子好
  • 蓝领网站做的最好网站编程工具
  • 网站开发与维护工资设计方案汇报
  • 做网站 先上线再调整中企动力有多少家分公司
  • 肇庆做网站gdmkd杭州百度快照
  • 江苏分销网站建设wordpress 公开显示为
  • cakephp网站开发框架网站建设科目
  • 酷炫网站源码网站排行榜上升代码