当前位置: 首页 > news >正文

怎么制作网站后台专做hip hop音乐的网站

怎么制作网站后台,专做hip hop音乐的网站,中国住房建设网官方网站,国家信用信息公示系统河北机器学习简介 机器学习是人工智能的一个实现途径深度学习是机器学习的一个方法发展而来 机器学习:从数据中自动分析获得模型,并利用模型对未知数据进行预测。 数据集的格式: 特征值目标值 比如上图中房子的各种属性是特征值,然…

机器学习简介

  • 机器学习是人工智能的一个实现途径
  • 深度学习是机器学习的一个方法发展而来 

机器学习:从数据中自动分析获得模型,并利用模型对未知数据进行预测。 

数据集的格式:  

特征值+目标值

比如上图中房子的各种属性是特征值,然后房屋价格是目标值。

注:

  • 对于每一行数据我们可以称之为样本
  • 有些数据集可以没有目标值——聚类

深度学习机器学习的关系:

深度学习是使用深度神经网络的机器学习。

——机器学习里面有种结构叫神经网络,神经网络多层的就叫深度学习,深度就是多层次的意思。

机器学习算法分类:

有目标值-监督学习

                目标值是类别(如猫、狗)——分类问题

                目标值是连续型的数据(如房屋价格)——回归问题

无目标值-无监督学习

机器学习开发流程:

数据集的使用

常用数据集有sklearn、kaggle和UCI,这里以sklearn举例 :

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_splitdef datasets_demo():# 获取数据集iris = load_iris()  # load获取小规模数据集,fetch获取大规模数据集print("鸢尾花数据集:\n", iris)print("查看数据集描述:\n", iris.DESCR)  # 除了 .属性 的方式也可以用字典键值对的方式 iris["DESCR"]print("查看特征值的名称:\n", iris.feature_names)print("查看特征值:\n", iris.data, iris.data.shape)# 数据集划分x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2, random_state=22)# 四个x、y分别是训练集特征值,测试集特征值,训练集目标集和测试集目标集,这同时也是这个API的返回值的顺序# test_size为测试集大小(float),默认是0.25,将大多的数据用于训练,测试集一般占20~30%,用于模型评估# 伪随机,random_state是随机数种子(不同的种子会造成不同的随机采样结果,相同的种子采样结果相同),如果后面要比较不同算法的优劣,那么数据划分方式要一样,即随机数种子一样以控制变量print("训练集的特征值:\n", x_train, x_train.shape)return Noneif __name__ == "__main__":datasets_demo()

特征工程

特征工程是使用专业背景知识和技巧处理数据,使得特征能在机器学习算法上更好的作用的过程。

数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已。

特征提取: 

将任意数据(文本或图像)转换为可用于机器学习的数字特征。

特征值化是为了让计算机更好的去理解数据。

  • 字典特征提取(特征离散化)
  • 文本特征提取
  • 图像特征提取(深度学习再介绍) 

矩阵 matrix 二维数组

向量 vector 一维数组

类别——> one-hot编码(即独热编码)

如果将类别直接表示成数字,那么数字有大小会误将类别也分大小,为了使各类别公平,让几个类别就几个位置,是这个类别就置1,不是就置0,即one-hot编码处理。

字典特征提取 

from sklearn.feature_extraction import DictVectorizerdef dict_demo():data = [{'city': '北京', 'temperature': 10}, {'city': '上海', 'temperature': 15}, {'city': '深圳', 'temperature': 20}]# 实例化一个转换器类transfer = DictVectorizer(sparse=False) # 默认返回sparse稀疏矩阵(只将非零值按位置表示出来,节省内存,提高加载效率)# 调用fit_transform(),实现数据转换data_new = transfer.fit_transform(data)print("data_new:\n", data_new)print("特征名字:\n", transfer.get_feature_names_out())return Noneif __name__ == "__main__":dict_demo()

文本特征提取

英文特征提取样例:

from sklearn.feature_extraction.text import CountVectorizerdef count_demo():data = ["I like C++,C++ like me", "I like python,python also like me"]  # 一般以单词作为特征,会忽略单个字母的单词# 如果是中文则还需要分词将词语隔开(按空格识别),如data = ["我 爱 中国"],同样也会忽略单个中文字# 实例化一个转换器类transfer = CountVectorizer()  # CountVectorizer(),统计每个样本特征词出现的个数,没有sparse=False这个参数# 如果transfer = CountVectorizer(stop_words=["also","me"])意为特征词里去掉also、me这些词,表示这些词不适合作特征# 调用fit_transform(),实现数据转换data_new = transfer.fit_transform(data)print("data_new:\n", data_new.toarray())  # 用toarray方法等效于sparse=Falseprint("特征词:\n", transfer.get_feature_names_out())return Noneif __name__ == "__main__":count_demo()

中文特征提取样例:

from sklearn.feature_extraction.text import CountVectorizer
import jiebadef cut_word(text):return " ".join(list(jieba.cut(text)))  # 先转成list列表再转成字符串,jieba是中文分词组件def count_demo():data = ["我爱广东", "我爱中国"]data_new = []for sent in data:data_new.append(cut_word(sent))# 实例化一个转换器类transfer = CountVectorizer()# 调用fit_transform(),实现数据转换data_final = transfer.fit_transform(data_new)print("data_new:\n", data_final.toarray())  # 用toarray方法等效于sparse=Falseprint("特征词:\n", transfer.get_feature_names_out())return Noneif __name__ == "__main__":jieba.setLogLevel(jieba.logging.INFO)  # 去除报错count_demo()

关键词:在某一类别的文章中出现的次数很多,而在其他类别的文章中出现类别很少的词。

Tf-idf文本特征提取

  • TF-IDF的主要思想:如果某个词或短语在一篇文章中出现的概率高,并且在其他文章中很少出现,则认为此词或短语具有很好的类别区分能力,适合用来分类。
  • TF-IDF的作用:用以评估一个词对于一个文件集或一个语料库中的其中一份文件的重要程度。

公式 

  • 词频(term frequency,tf)指的是某一个给定的词语在该文件中出现的频率
  • 逆向文档频率(inverse document frequency,idf)是一个词语普遍重要性的度量。某一特定词语的idf,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取以10为底的对数得到

        tfidf_{i,j}=tf_{i,j}{\times}idf_{i,j} 

最终得出结果可以理解为重要程度。 

from sklearn.feature_extraction.text import TfidfVectorizer
import jiebadef cut_word(text):return " ".join(list(jieba.cut(text)))def tfidf_demo():data = ["相遇,是一种美丽,像一座小城向晚,映着夕阳的绚烂。","对执着的人来说,最难莫过于放弃,在间断间续的挣扎中,感谢时间的治愈。","过去无法重写,但它却让我更加坚强。感谢每一次改变,每一次心碎,每一块伤疤。"]data_new = []for sent in data:data_new.append(cut_word(sent))# 实例化一个转换器类transfer = TfidfVectorizer()# 调用fit_transform(),实现数据转换data_final = transfer.fit_transform(data_new)print("data_new:\n", data_final.toarray())print("特征词:\n", transfer.get_feature_names_out())return Noneif __name__ == "__main__":jieba.setLogLevel(jieba.logging.INFO)  # 去除报错tfidf_demo()

特征预处理 

通过一些转换函数将特征数据转换成更加适合算法模型的特征数据过程 。

数值型数据的无量纲化

  • 归一化
  • 标准化

为什么要进行归一化/标准化?

特征的单位或者大小相差较大,或者某特征的方差相比其他的特征要大出几个数量级,容易影响(支配)目标 结果,使得一些算法无法学习到其他特征。

测试数据(data.txt):

height,weight,sex
178,60,1
173,60,2
180,65,1
182,70,1
168,55,2

归一化 

通过对原始数据进行变换把数据映射到(默认为[0,1])之间。

x^{'}=\frac{x-min}{max-min}                               x^{''}=x^{'}*(mx-mi)+mi 

作用于每一列,max为一列的最大值,min为一列的最小值,mxmi分别为指定区间值,默认mx为1,mi为0,x^{''}为最终结果。

from sklearn.preprocessing import MinMaxScaler
import pandas as pddef minmax_demo():# 读取数据data = pd.read_csv("data.txt")data = data.iloc[:, :2]  # 提取所需数据,行全部都要,列要前两列print("data:\n", data)# 实例化一个转换器类transfer = MinMaxScaler()  # 默认是transfer = MinMaxScaler(feature_range=(0,1))即区间[0,1]# 调用fit_transform()data_new = transfer.fit_transform(data)print("data_new:\n", data_new)return Noneif __name__ == "__main__":minmax_demo()

如果最大值/最小值刚好是异常值,那么归一化的结果就不准确,这种方法鲁棒性较差,只适用于传统精确小数据场景。 

标准化 

通过对原始数据进行变换,把数据变换到均值为0,标准差为1的范围里。

x^{'}=\frac{x-\bar{x}}{\sigma }

\bar{x}为均值,\sigma为标准差 。

如果数据量较大,少量的异常值对均值和标准差的影响均很小。 

from sklearn.preprocessing import StandardScaler
import pandas as pddef stand_demo():# 读取数据data = pd.read_csv("data.txt")data = data.iloc[:, :2]  print("data:\n", data)# 实例化一个转换器类transfer = StandardScaler()# 调用fit_transform()data_new = transfer.fit_transform(data)print("data_new:\n", data_new)return Noneif __name__ == "__main__":stand_demo()

在已有样本足够多的情况下比较稳定,适合现代嘈杂大数据场景。

特征降维 

降维是指在某些限定条件下,降低随机变量(特征个数,得到一组“不相关”主变量(特征与特征之间不相关)的过程。 

特征太多会造成数据的冗余,故需降维,而在训练都是用特征进行学习,如果特征之间相关性较强,会对算法的结果影响较大,相关的特征比如相对湿度与降雨量。

特征选择 

Filter过滤式

  • 方差选择法
  • 相关系数

Embeded嵌入式

  • 决策树
  • 正则化
  • 深度学习 

方差选择法:低方差特征过滤

  • 特征方差小:某个特征大多样本的值比较相近——如鸟是否有爪子这个特征,方差为0,去除
  • 特征方差大:某个特征很多样本的值都有差别——保留
from sklearn.feature_selection import VarianceThreshold
import pandas as pddef variance_demo():# 读取数据data = pd.read_csv("data.txt")print("data:\n", data)# 实例化一个转换器类transfer = VarianceThreshold(threshold=1)  # 表示方差小于threshold的特征都会被删掉(阈值),默认threshold=0# 调用fit_transform()data_new = transfer.fit_transform(data)print("data_new:\n", data_new)return Noneif __name__ == "__main__":variance_demo()

相关系数

举例:皮尔逊相关系数——适用于连续型数据

r=\frac{n\sum xy-\sum x\sum y}{\sqrt{n\sum x^{2}-(\sum x)^{2}}\sqrt{n\sum y^{2}-(\sum y)^{2}}}

其中,-1\leqslant r\leqslant 1,性质如下:

from scipy.stats import pearsonr
import pandas as pddef pearsonr_demo():# 读取数据data = pd.read_csv("data.txt")print("data:\n", data)# 计算两个变量之间的皮尔逊相关系数r = pearsonr(data["height"], data["weight"])print("相关系数:\n", r)  # 第一个为相关系数,第二个为相关系数显著性,p值越小表示相关系数越显著return Noneif __name__ == "__main__":pearsonr_demo()

主成分分析(PCA)

  • 定义:高维数据转化为低维数据的过程,在此过程中可能会舍弃原有数据,创造新的变量。
  • 作用:是数据维度压缩,用损失少量信息(尽可能保留更多的信息)的代价尽可能降低原数据的维度(复杂度)。
from sklearn.decomposition import PCAdef pca_demo():# 读取数据data = [[2, 8, 4, 5], [6, 3, 0, 8], [5, 4, 9, 1]]# 实例化一个转换器类transfer = PCA(n_components=2) # n_components如果传的是整数就代表降为几个特征(降为几维),如果传的是小数就代表要保留百分之几的信息# 调用fit_transform()data_new = transfer.fit_transform(data)print("data_new:\n", data_new)return Noneif __name__ == "__main__":pca_demo()
http://www.yayakq.cn/news/578151/

相关文章:

  • 水贝做网站公司服装设计公司室内平面图
  • 网站栏目模块莱芜市在线论坛话题
  • 用word做网站学网页设计学徒培训
  • 福永专业外贸网站建设公司群晖里的wordpress如何删除
  • 潍坊网站制作保定公司电话微信网页版无法登录
  • 网站站群建设进度wordpress 控制每页显示文章数
  • 做网站一定要域名吗网站建设义乌
  • 济宁网站优化公司广州最专业的网站建设
  • 为朋友做的网站海门市规划建设局网站
  • 网站开发深圳网站建设对电子商务的作用
  • 校园网站建设必要性网站行业关键词
  • 网站维护界面seo流量排行榜神器
  • 给帅哥做奴视频网站地址html网页制作期末大作业成品
  • asp网站源码免费版宁波设计公司排行榜
  • 少儿编程自学网站护肤品网站优化案例
  • cp网站建设网站制作工作室制作平台
  • 室内装修设计软件app海口seo网络推广
  • 网站进入沙盒后山南网站建设
  • 网站建设合同范文58同城如何发广告
  • 城固城乡建设规划网站门户网站优化方案
  • 网站视频做背景关于小学网站建设的论文
  • 千里马招标网站wordpress什么意思
  • 南昌企业制作网站设计文字设计成图形logo
  • 邯郸建设局公开网站wordpress链接设置方法
  • dedecms购物网站html5网页制作源码大全
  • 百度站长提交工具网站收录 百度自动增加参数
  • 做网站注意设么免费注册网站平台
  • 销售网站开发长沙中建设计院网站
  • 公司网站需要备案绵阳网络推广公司
  • 用自己的电脑做网站划算客户拒绝做网站的理由