流程上一上
机器学习的数据来源
我们一般用列向量来表示一个样本及其所有特征值
把列向量转置后组合可以组合成一个矩阵
(下图表述不是很对,图中的一个样本应该是一行,其中有多个特征值)
我们也可以把数据集放到坐标系中表示,每一个特征值的大小对应一个轴的坐标大小(有多少个特征值坐标系就有多少维度)
一般来说,我们会对坐标系里面的样本用拟合的曲线进行分类,而且维度很高
对于特征的获取
特征可以很抽象,甚至是来源于我们逻辑之外的
:::warning 在深度学习中,特征(权重)的获取是由BP算法在训练中不断矫正权重参数达成的 :::
机器学习的分类(性质列举)
从结果上机器学习算法的典型举例
进行以下分类任务和回归任务的绝大多数算法属于监督学习
分类任务
多分类任务
识别动物类型,人脸识别,文字识别,自动驾驶,风险评级,训练玩简单游戏的AI
二分类任务
注意
![{(IHM8WZVV52WOT%KE.png
多标签任务
把图片放到多个类别中(打上多个标签),甚至可以从由这种方法来进行更精细的分类或者预测
回归任务
结果是一个连续数字的值,而非用拟合曲线分类
![{(IHM8WZVV52WOT%KE.png
注意:在一些情况下回归任务可以被转化为分类任务,比如说人为的把成绩分等级,把连续的操作转化为有限的类别(例如方向盘转动的角度,刹车和油门的档位级别,)
从原始数据特性上机器学习算法的典型举例
:::danger 注意,以下为算法的某一性质分析,一个算法可能有许多个不互斥的性质 :::
监督学习
给机器训练用的数据有对应的答案用于验证
非监督学习
训练的数据没有任何标记或者答案(待续)
![OG1VU}285QUJVGGRHMXB@J.png
降维处理的意义:特征提取,降低数据维度,极大地减少数据处理量,
方便数据可视化(因为人类是很难直观理解高维信息的)
非监督学习可以剔除数据中的异常点
半监督学习
一部分数据集有对应的答案/标记,但是另一部分没有,这种数据大多数是直接来源于生活中的原始数据。
从方法特性上机器学习算法的典型举例
增强学习
及时得到反馈并改变行动方式的学习
批量学习和在线学习
批量学习
输入大量已经收集到的数据来训练模型,模型训练成功后即可投入使用(样例不再改变模型)
优点:成型快,效率高
缺点:难以与时俱进,时效性和可塑性不高![GDBNO9E$~E4I@29N4W@1)K.png
在线学习
除了输入大量已经收集到的数据来训练模型,还会将即时收集到的数据(带有答案的样例)也投入模型进行模型的训练和优化
可用非监督学习进行异常数据排除
参数学习和非参数学习
参数学习
数据集经过算法的学习,获得了拟合于数据集的算法中的参数,那么这个数据集就可以不再利用,转而利用更简洁的参数
非参数学习
![Y@W`P%B0}N_N05Z4JSZW8T.png
机器及学习的哲学思考
2001年,微软的研究表明,数据量足够大,机器学习的预测能力就会变得很强——数据是核心
——对于算法来说什么是“简单”?是储存空间小,时效性高还是算力消耗小,暂无绝对的定论
但是,或许可以通过算法创造数据,算法也可能成为核心
注意:这里指的是该算法用于所有的问题,而在特定的问题中,不同的算法表现不一样,所有算法没有绝对的优劣之分
对于机器学习的预测结果的看待:根据已经确定等事实所得出的数据对未来进行预测,本就是具有不确定性的,机器学习更像是远超所有人类记忆力和判断力的产物,对世界进行逆向工程或者是黑盒预测。