简答题:(40)

1. KNN与k-means异同点(B卷K-means算法伪代码)

KNN与k-means算法的异同点如下: 异同点:

  1. 解决问题不同:KNN是用于分类和回归问题的监督学习方法,而k-means是用于聚类问题的无监督学习方法。
    2. 数据处理方式不同:KNN算法是对数据点进行分类或回归,而k-means算法是对数据点进行聚类。
    3. 算法原理不同:KNN方法通过计算数据点之间的距离,来寻找离测试样本最近的K个训练样本进行分类或回归;k-means方法通过迭代计算数据点与聚类中心之间的距离,来不断更新聚类中心,直到聚类中心不再变化,从而达到聚类的目的。

相同点:

  1. 都是基于距离度量的算法,都需要计算数据点之间的距离。
    2. 都需要确定K值,KNN算法中的K代表要选择几个最近的邻居,而k-means算法中的K代表要分成几个簇。
    3. 都需要进行模型选择和评估,根据测试集的效果来确定最终模型的好坏。

以下是B卷中K-means算法的伪代码:

  1. 随机选取K个初始聚类中心
    2. 将每个数据点分配到距离最近的聚类中心
    3. 更新每个聚类的中心点
    4. 重复执行第2步和第3步,直到聚类中心不再变化或者达到最大迭代次数
  1. 输入:样本数据集 X,簇的个数 k
  2. 输出:聚类结果 C,每个样本所属的簇
  3. 1. 从数据集中随机选择 k 个样本作为初始的聚类中心点
  4. 2. 重复以下步骤直到满足收敛条件:
  5. a. 对于数据集中的每个样本 x_i
  6. - 计算 x_i 与每个聚类中心点的距离,并将样本分配到与之距离最近的聚类中心的簇中
  7. b. 对于每个簇 c_j
  8. - 计算该簇内所有样本的均值作为新的聚类中心点
  9. 3. 返回每个样本所属的簇 C

2. 朴素贝叶斯算法流程—处理垃圾邮件(B卷朴素贝叶斯算法在外卖小哥正向评价判断)

image.png 老师PPT判断一封邮件是否为垃圾邮件可以简化为如下概率问题:
①、P(垃圾|邮件内容): 一个邮件内容为垃圾邮件的概率。
②、P(正常|邮件内容): 一个邮件内容为正常邮件的概率。

题目1
下图中:①、蓝色区域代表正常邮件②、橙色代表垃圾邮件③、假如每封邮件10个词汇。④、红色邮件代表:邮件中出现了几次“购买”词汇
image.png
正常邮件含有”购买“词的概率是:
①、(1+2)/2410 = 3/240: 24乘10表示一共有24封正常邮件,每封邮件有10个单词。
垃圾邮件含有”购买“词的概率是:
②、(1+1+1+3+1)/(12
10 ) = 7/120: 12乘10表示一共有12封垃圾邮件,其中每封邮件有10个单词。

题目2
现在已知有训练样本如下:
①垃圾邮件三封,一共8个词,内容如下:
1.点击 更多 信息
2.最新 产品
3.信息 点击 链接
②、正常邮件三封一共6个词:
1.开会
2.信息 详见 邮件
3.最新 信息
image.png
image.png
image.png
image.png

朴素贝叶斯是一种基于贝叶斯定理的分类算法,常用于文本分类和垃圾邮件过滤。它的核心思想是假设所有的特征都是相互独立的,然后根据特征的条件概率进行分类。

  1. 朴素贝叶斯算法的流程:

输入:训练数据集X,训练数据的标签y,待分类的样本x。
输出:样本x的分类结果。

  1. 统计训练数据集中每个类别的先验概率P(Y):计算每个类别在训练集中的出现频率,并除以训练样本的总数。
  2. 计算每个特征的条件概率P(X|Y):对于每个特征,计算该特征在给定类别下的条件概率。这可以通过将特征值与对应类别的训练样本进行匹配来实现。
  3. 计算待分类样本x属于每个类别的后验概率P(Y|X):使用贝叶斯定理,结合先验概率和条件概率,计算样本x属于每个类别的后验概率。后验概率最大的类别将被认为是样本x的分类结果。
  4. 输出:将样本x分配给具有最大后验概率的类别。

需要注意的是,为了避免概率为0的情况,通常会引入平滑技术(如拉普拉斯平滑)来处理。此外,在实际中,朴素贝叶斯算法通常使用对数概率来避免数值下溢。
对于连续特征,朴素贝叶斯算法通常会使用概率密度函数(如高斯分布)对其进行建模,然后使用特征的概率密度函数来计算条件概率。

  1. 处理垃圾邮件

当应用于垃圾邮件过滤时,朴素贝叶斯算法的处理流程如下:

  1. 数据准备:首先,将已有的邮件数据集分为训练集和测试集。训练集用于学习模型的参数,测试集用于评估模型的性能。
  2. 特征提取:从每封邮件中提取特征,常见的特征包括词频、词汇出现的概率等。特征提取过程将邮件转化为特征向量,其中每个特征表示某个单词或词汇的出现与否。
  3. 训练模型:使用训练集对朴素贝叶斯模型进行训练。对于每个特征向量,计算其对应的条件概率。
  4. 预测分类:对于待分类的新邮件,将其转化为特征向量,并使用训练好的模型计算每个类别(垃圾邮件或正常邮件)的后验概率。选择后验概率较大的类别作为最终的分类结果。
  5. 模型评估:使用测试集评估模型的性能,计算准确率、召回率、F1分数等指标来衡量模型的效果。

需要注意的是,在实际应用中,可能需要进行特征选择和特征权重调整,以提高模型的准确性。此外,预处理步骤如去除停用词、词干提取等也可以应用于朴素贝叶斯算法来提高性能。
朴素贝叶斯算法在垃圾邮件过滤中的优势在于其快速、简单且可扩展,同时能够处理大量的特征和样本。它的一个假设是特征之间的独立性,这在实际中可能不成立,但在大多数情况下仍能给出良好的分类结果。

  1. 外卖小哥正向评价判断

朴素贝叶斯算法可以应用于外卖小哥正向评价的判断,即根据评价文本判断该评价是正向的还是负向的。

以下是朴素贝叶斯算法在该场景下的处理流程:

  1. 数据准备:收集一定数量的评价数据,包括正向评价和负向评价。这些评价应尽可能具有代表性和多样性。
  2. 特征提取:从每个评价文本中提取特征,可以使用词袋模型(bag of words)或者词频统计作为特征。对文本进行分词、去除停用词、词干提取等预处理操作。
  3. 数据标注:根据评价的标签(正向或负向),为每个评价文本分配正确的标签。这些标签将用于训练模型。
  4. 训练模型:使用带有正确标签的评价数据集训练朴素贝叶斯分类模型。模型将使用特征向量和对应的标签学习文本特征与标签之间的关联。
  5. 预测分类:对于待分类的新评价,将其转化为特征向量,并使用训练好的模型计算正向评价和负向评价的后验概率。选择后验概率较大的类别作为最终的分类结果。
  6. 模型评估:评估模型的性能,可以使用测试集计算分类准确率、召回率、F1分数等指标来评估模型的表现。

需要注意的是,准确的分类结果需要依赖于准确的数据标注和具有代表性的训练数据。此外,对文本特征的选择和预处理也会影响模型的性能。

3. SVM(线性可分,非线性可分的各自的判断数学表达)

老师PPT通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,即支持向量机的学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。

线性分类器
解决的问题:
根据一个带有类别标号的训练集合,通过学习一个线性分类面,使得训练集合按照类别进行划分通常转化成一个优化问题以两类监督分类问题问题为例来解释

分类面:把一个空间按照类别切分两部分的平面,在二维空间中,分类面相当于一条直线,三维空间中相当于一个平面,高维空间为超平面
线性分类面函数形式为:image.png
image.png,image.png是分类面函数参数,image.png是输入的样本, image.png权向量,image.png是偏移量
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png SVM(支持向量机)是一种常用的分类和回归算法。在进行分类问题时,SVM的主要目标是找到一个超平面(线性或非线性)来将两个不同的类别分开。 线性可分的情况下,SVM的判断数学表达式为:

w^Tx + b ≥ 1, y = +1 (属于正类)

w^Tx + b ≤ -1, y = -1 (属于负类)

这个表达式中,w是超平面的法向量,b是偏移量,x是输入特征向量,y是输出类别。

非线性可分的情况下,SVM使用核函数对原始数据进行映射,将其转换到高维空间,使其变成线性可分的问题。在这种情况下,SVM的判断数学表达式可以写成:

∑(i=1 to m)αiyixi•x + b ≥ 1, y = +1 (属于正类)

∑(i=1 to m)αiyixi•x + b ≤ -1, y = -1 (属于负类)

这里 y 是输出类别,αi 是对应训练样本的拉格朗日乘子,xi 是训练样本的属性向量,m 是样本数量,b 是偏移量,核函数 K(xi, x) 将输入属性映射到其他空间中,其中 x 是输入样本属性向量。

当核函数 K(xi, x) 选用不同的函数形式时,SVM就对应不同的分类器模型,比如线性核、多项式核、高斯核等。

4. Apriori关联规则挖掘、

老师PPT关联规则挖掘:在交易数据、关系数据或其他信息载体中,查找存在于项目集合或对象集合之间的频繁模式、关联、相关性、或因果结构。
应用:购物篮分析、交叉销售、产品目录设计、 loss-leader analysis、聚集、分类等。
举例: 规则形式: “Body ® Head [support, confidence]”.buys(x, “diapers”) ® buys(x, “beers”) [0.5%, 60%]major(x, “CS”) ^ takes(x, “DB”) ® grade(x, “A”) [1%, 75%]

给定: (1)交易数据库 (2)每笔交易是:一个项目列表 (消费者一次购买活动中购买的商品)
查找: 所有描述一个项目集合与其他项目集合相关性的规则
E.g., 98% of people who purchase tires and auto accessories also get automotive services done
应用

=> 护理用品 (商店应该怎样提高护理用品的销售?)
家用电器 =>
(其他商品的库存有什么影响?)
在产品直销中使用附加邮寄
Detecting “ping-pong”ing of patients, faulty “collisions”
image.pngimage.png
查找所有的规则 X & Y => Z 具有最小支持度和可信度支持度, s, 一次交易中包含{X 、 Y 、 Z}的可能性可信度, c, 包含{X 、 Y}的交易中也包含Z的条件概率
最小支持度为50%, 最小可信度为 50%, 则可得到
A => C (50%, 66.6%)
C => A (50%, 100%)

image.png 关联规则挖掘算法Apriori术语

  • 项集:在数据库中出现的属性值的集合。
  • K_项集:包含K个项的项集。
  • 频繁项集:满足最小支持度要求的项集。关联规则一定是在满足用户的最小支持度要求的频繁项集中产生的,因此,关联规则挖掘也就是在数据库中寻找频繁项集的过程。 Apriori算法是一个经典的关联规则挖掘算法,用来挖掘数据集中的频繁项集和关联规则。这个算法的基本思路是:先找出数据集中的所有频繁项集,然后由频繁项集生成关联规则。Apriori算法的过程大致可分为两个步骤:
  1. 找出频繁项集
    在第一步中,Apriori算法从单个项开始,依次遍历数据集中的所有项,并统计它们出现的频次。接下来,算法会对频次进行筛选,去掉低频项,只保留出现频率高于阈值的项,生成新的频繁项集。

在继续搜索新的频繁项集时,我们需要对原始项集的组合进行扩展,生成更长的候选项集。具体实现时,我们可以利用频繁项集的性质进行剪枝,例如如果一个项集中有某个子项集是非频繁的,那么这个项集也一定是非频繁的,可以直接剪掉。

这个过程可以持续进行下去,直到不能再生成新的频繁项集为止。

  1. 由频繁项集生成关联规则
    在第二步中,Apriori算法会利用频繁项集生成关联规则。具体来说,算法会针对每一个频繁项集,生成所有可能的非空子集,逐一计算它们的支持度和置信度,对这些关联规则进行筛选,只保留支持度、置信度高于阈值的规则。

Aprior算法的时间复杂度较高,因为它需要进行大量的数据扫描和组合操作。不过,针对大规模数据集,可以使用优化手段,如FPGrowth算法等来进行更高效的频繁项集挖掘。

5. PCA与LDA

PCA和LDA都是常用的特征提取方法,用于将高维的数据降维到低维表示,以方便分类、聚类等机器学习任务的处理。两者都广泛应用于模式识别、人脸识别、图像处理等领域。下面简要介绍一下它们的主要思想及使用场景。

  1. PCA (Principal Component Analysis, 主成分分析)

PCA是一种通过线性变换将原始数据投影到新的低维空间中的算法。PCA寻找一个线性变换,使得变换后的数据具有最大的方差,从而保留了原始数据的大部分信息。换句话说,PCA主要是用于找到投影后各个特征向量之间相关性最小的主成分,使得经过主成分变换后的数据能够尽量保留原有的特征,并且降维的同时尽量保持数据的信息量不变。通常情况下,PCA中使用的特征选择策略是基于数据的协方差矩阵而提出来的。

所以,PCA适用于无监督降维,也就是没有类别标签,不需要事先知道数据的类别,仅仅需要找到数据中最主要的特征信息进行降维。

  1. LDA (Linear Discriminant Analysis, 线性判别分析)

LDA是一种有监督降维算法,在PCA的基础上发展而来。LDA 下降后,新的低维度特征的特定类别将具有最佳的判别性,即,最小化特征间的协方差,同时最小化类别内的散度,最大化类别间的间隔(即使类别最大化)。LDA降维的基本思想是在保证信息最大化的同时,最大化样本分类的间隔,即在原始高维数据中找出能够最好地区分不同类别的特征并保留下来,削减其他不相关特征。

因此,LDA适用于有监督降维,数据需要事先知道类别标签。在分类任务中表现较好。

总之,PCA和LDA都是非常有用的特征提取方法,PCA主要用于无监督降维,而LDA主要用于有监督降维。根据实际任务,可以根据需要选择合适的方法。

6. 推荐算法

老师PPT**1、协同过滤推荐算法**
image.png
1.1基于记忆的推荐
1.基于用户(user-based)的推荐
image.png
根据余弦相似度计算用户间相似度
image.png
根据计算出来的相似度估计用户评分:(2.5)image.png

2.基于项目(item-based)的推荐
image.png
根据余弦相似度计算项目间相似度
image.png
根据计算出来的相似度估计评分
image.png

1.2 基于模型的推荐
采用统计学、机器学习、数据挖掘等方法,根据用户历史数据建立模型,并产生合理推荐。
简单的评分模型:image.png

1.基于朴素贝叶斯分类的推荐
朴素贝叶斯分类方法的前提是假设样本的各个属性相互独立
image.png
由朴素贝叶斯假设可得:
image.png
2.基于线性回归的推荐
线性预测模型:image.png
u=(x1,x2,… ,xn)表示用户u对n个项目的评分
p=(a1,a2,… ,an)表示评分系数、m表示偏差

3.基于马尔科夫决策过程MDP的推荐
借鉴强化学习(reinforcement learning)的思想,把推荐过程建模为MDP最优决策问题,即如何产生一个能最大用户收益的推荐项目列表.将MDP模型定义为一个4元组(S,A,R,Pr)推荐过程对应的MDP过程:
image.png

除以上介绍的方法外,基于模型的协同过滤方法还包括基于聚类的Gibbs抽样方法,概率相关方法和极大熵方法等. 基于模型的协同过滤算法能在一定程度上解决基于记忆的推荐算法面临的主要困难,在推荐性能上更优,但通常算法复杂,计算开销大.

2、基于内容的推荐
image.png
1.文本推荐方法
根据历史信息构造用户偏好文档,计算推荐项目与文档的相似度,将最相似的项目推荐给用户.
采用TF-IDF方法:image.png
Term Frequency:词频image.png
Inverse Document Frequency:逆向文件频率image.png
相似度计算公式:image.png

2.基于潜在语义分析的推荐(LSA和SVD)
关键词的同义和多义现象导致文档相似度不准确. 提出了潜在语义分析方法(Latent Semantic Analysis,LSA).
LSA方法基于SVD分解:image.png
然后把Ʃ的r个对角元素的前k个保留(最大的k个), 后面最小的r-k个奇异值置0, 得到Ʃk;最后计算一个近似的分解矩阵: image.png

3.自适应推荐
偏好文档是基于内容推荐的关键.用户的兴趣会随时间动态变化,因此需要及时更新偏好文档. 采用更新用户文档的自适应过滤方法:
(1)首先确定用户偏好模型
(2)选择合适的阈值进行过滤
(3)比较每一次的偏差
(4)根据偏差以及阈值调整公式算下一轮的阈值
(5)迭代直到取得合适的阈值
image.png

3、基于图结构的推荐
用户项目矩阵可建模为二部图,节点表示拥护和项目,借鉴动态网络资源分配过程。该方法的推荐过程如下:
①建立推荐二部图.image.png

②计算资源分配矩阵W.
image.png
image.png
③针对指定用户计算各项目的资源分配.
fi=(ai1,ai2,… ,aim)表示用户i的初始资源分配,由图可知用户y1的初始资源分配:image.png
f′i表示用户i的最终资源分配,则有f′i= Wfi.用户1的最终资源分配为
image.png
④根据最终资源分配从大到小产生除了用户已经偏好项目外的推荐.对用户1推荐项目的排序是:3>1>4>2=5

4、混合推荐&其他推荐算法
混合推荐:为解决以上三种算法各自问题而提出的.
image.png
其他推荐:基于关联规则(啤酒-尿布)和基于知识的推荐

5、推荐系统的评价准则
1.平均绝对误差(mean absolute error,MAE)用于度量推荐算法的估计评分与真实值之间的差异.
image.png
2.均方根误差(root mean squared error,RMSE)RMSE是Netflix竞赛(电影推荐)采用的评价准则.RMSE值越小,算法的准确度越高.
image.png
3.查全率(recall)用于度量推荐列表中是否包含了用户偏好的全部项目.
image.png
4.查准率(precision)用于度量推荐列表中是否都是用户偏好的项目.image.png
Li表示推荐算法为用户i产生的推荐列表,Ri表示测试集中用户i偏好的全部项目. 推荐算法是一种利用机器学习和数据挖掘技术,为用户提供个性化推荐的算法。它根据用户的历史行为、个人兴趣和偏好,以及物品的属性和特征,通过分析和挖掘这些数据,预测用户可能感兴趣的物品,并向用户推荐合适的内容。 以下是几种常见的推荐算法:

  1. 基于内容的推荐算法: 这种算法通过分析物品的属性和特征,与用户的历史行为进行匹配,为用户推荐具有相似特征的物品。例如,基于文本内容的推荐可以根据物品的文本描述和用户的兴趣,推荐相关的文章或新闻。

  2. 协同过滤算法: 协同过滤算法基于用户的行为历史和与其他用户的相似性,推荐那些与用户具有相似兴趣的物品。这种算法可以基于用户行为(用户-物品关系)或物品的特征(物品-物品关系)来进行推荐。例如,基于用户行为的协同过滤可以根据用户的购买历史,向其推荐其他购买过相似物品的用户还购买过的物品。

  3. 矩阵分解算法: 矩阵分解算法将用户-物品的关系矩阵分解为两个低维的矩阵,以捕捉隐藏的用户和物品特征。通过学习和预测这些潜在特征,可以进行个性化的推荐。矩阵分解算法在协同过滤中广泛使用,例如基于奇异值分解(SVD)的方法。

  4. 深度学习算法: 深度学习在推荐系统中也有广泛应用。通过建立深度神经网络模型,可以从用户和物品的大量特征中学习到更高层次的表示和特征,从而提高推荐的准确性和表现力。

这些算法在实际推荐系统中常常结合使用,根据具体的场景和需求进行调整和优化。推荐算法的发展也是一个不断演进的过程,研究者们一直在探索和提出新的算法来改进推荐效果。

7. Sunday算法

老师PPT其移动位数 = 模式串长度 - 该字符最右出现的位置(以0开始) = 模式串中该字符最右出现的位置到尾部的距离 + 1。

Sunday算法是一种用于字符串匹配的算法,其主要思想是将匹配过程向右移动,直到出现第一个无法匹配的字符。然后根据该字符在模式串中出现的位置,将模式串向右移动一定的距离,使得该字符与文本串中的下一个字符对齐。这样可以减少不必要的比较次数,提高匹配速度。 具体实现步骤如下:

  1. 预处理模式串中每个字符最右边出现的位置(记为loctab[])
    2. 从左往右匹配文本串和模式串,如果当前字符匹配,则向右移动一位继续匹配
    3. 如果当前字符不匹配,则查看文本串中下一个待匹配的字符(记为nextchar),并在模式串中找到nextchar的位置(记为j)。
    4. 如果j为0,则将模式串整体向右移动1位,否则将模式串移动j位(即使得nextchar与文本串中的下一个字符对齐)
    5. 重复步骤2-4直到匹配成功或者文本串匹配结束。

Sunday算法的时间复杂度为O(n+m),其中n和m分别为文本串和模式串的长度。由于其简单易实现、效率高等优点,被广泛应用于文本匹配领域。

8. 最短路径

老师PPT**Dijkstra算法
当所有 wij ≥0 时,本算法是用来求给定点vs到任一个点vj 最短路的公认的最好方法。
事实:如果P是D中从vs到vj的最短路,vi是P中的一个点,那么,从vs沿P到vi的路是从vs到 vi的最短路。
最短路的子路也是最短路。
image.png
image.png
Untitled ‑ Made with FlexClip.gif
image.png
image.png
Ford算法
image.png
image.png
image.png
image.png
Floyd算法**
image.png
image.png
image.png
image.png

最短路径是图论中的一个经典问题,主要目的是在从图中的某一起点到某一终点的所有路径中找出一条距离最短的路径。这里的距离可以指代多种类型的度量标准,如边权、节点间距离、时间等。 最短路径问题可以用多种算法解决,其中Dijkstra算法和Bellman-Ford算法是最为常见的两种。

Dijkstra算法是一种贪心算法,具体思路是从起点开始,不断选择当前距离起点最近的一个节点,并将其加入“已访问”集合中。然后以该节点为中心,更新与其相邻的节点到起点的距离,若更新后的距离比之前的短,则将其加入候选节点集合。最后重复该过程,直到终点被加入“已访问”集合或者所有与起点相连的节点都被访问过。Dijkstra算法可以求解带权有向图或无向图的最短路径,时间复杂度为O(n^2)。

Bellman-Ford算法是一种动态规划算法,通过不断迭代更新各个节点到起点的最短距离,直到收敛为止。具体过程是,首先给所有节点赋初值为正无穷大,起点的值赋为0。然后依次遍历所有边,对每条边(u, v)进行松弛操作:如果起点到u的距离加上(u, v)的权值小于终点到v的距离,则更新v的距离值。Bellman-Ford算法可以处理带负权边的图,时间复杂度为O(nm),其中n和m分别为图中节点数和边数。

除了上述两种算法,还有Floyd-Warshall算法和SPFA算法等用于解决最短路径问题的算法,根据实际问题的规模和复杂度要求选择合适的算法才能保证算法效率。

9. 背包问题

背包问题是一个经典的组合优化问题,主要涉及在给定容量的情况下,如何选择一些物品放入背包中,使得在重量限制下价值最大化。 背包问题通常分为两种类型:0/1背包和完全背包。

在0/1背包问题中,每个物品只能选择放入或不放入背包中,不能分成多个部分。因此可将问题转化为一个二进制决策问题,有一个固定容量的背包和n个物品,第i个物品的重量为wi,价值为vi,问在不超过背包容量的情况下,如何选择物品使得总价值最大。

解决0/1背包问题的经典算法是动态规划算法,其基本思路是利用子问题的最优解推导出整个问题的最优解。
具体实现时可建立一个二维数组dp,其中dp[i][j]表示前i个物品在不超过j的容量下能够达到的最大价值。对于第i个物品,有两种选择:放入背包或不放入背包。如果选择放入,则需要考虑第i个物品占据j容量的贡献变化;如果选择不放入,则需要使用前i-1个物品达到容量j的最大价值。根据这两种选择,可得到状态转移方程:dp[i][j] = max(dp[i-1][j], dp[i-1][j-wi]+vi)。

完全背包问题则允许每种物品在背包中存在无限个,因此可将问题转化为一个组合问题。即有一个固定容量的背包和n个物品,第i个物品的重量为wi,价值为vi,问在不超过背包容量的情况下,如何选择物品使得总价值最大。

解决完全背包问题的经典算法同样是动态规划算法。但是相比0/1背包,需要修改状态转移方程: dp[i][j] = max(dp[i-1][j-kwi]+kvi) (0 <= k <= maxj/wi)。
其中k表示第i个物品选取的个数,最大值由物品的数量和容量限制决定。这是因为对于每个物品,可以选择0个或多个,因此需要在每个阶段找到最大的k,使得能够放入背包的数量最大。

10. 距离的度量方法

折叠

1. 欧氏距离(Euclidean Distance)

欧氏距离是最容易直观理解的距离度量方法,我们小学、初中和高中接触到的两个点在空间中的距离一般都是指欧氏距离。
image.png

  • 二维平面上点a(x1,y1)与b(x2,y2)间的欧氏距离:

image.png

  • 三维空间点a(x1,y1,z1)与b(x2,y2,z2)间的欧氏距离:

image.png

  • n维空间点a(x11,x12,…,x1n)与b(x21,x22,…,x2n)间的欧氏距离(两个n维向量):

image.png

  • Python计算欧氏距离: ```python

    计算欧氏距离

import numpy as np

初始化

numpy数组

point1 = np.array((1, 2, 3)) point2 = np.array((1, 1, 1))

计算欧氏距离

使用 linalg.norm() 这个函数为计算 数组对应位相减平方和再开方

dist = np.linalg.norm(point1 - point2)

打印计算欧氏距离

print(dist)

  1. ![image.png](https://cdn.nlark.com/yuque/0/2023/png/22782459/1679756302169-62300eac-1aaa-4a67-a57e-20502dc62bfd.png#averageHue=%23fafafa&clientId=u3d4d7920-4884-4&from=paste&height=1050&id=uab9be12f&originHeight=1050&originWidth=1920&originalType=binary&ratio=1&rotation=0&showTitle=false&size=145064&status=done&style=none&taskId=u42ed0266-4eab-4a91-861a-359154bb36f&title=&width=1920)
  2. <a name="RKa93"></a>
  3. ## 2. 曼哈顿距离(Manhattan Distance)
  4. 顾名思义,在曼哈顿街区要从一个十字路口开车到另一个十字路口,驾驶距离显然不是两点间的直线距离。这个实际驾驶距离就是“曼哈顿距离”。曼哈顿距离也称为“城市街区距离”(City Block distance)。<br />![image.png](https://cdn.nlark.com/yuque/0/2023/png/22782459/1679534023682-bb30a385-f272-44da-b235-ba5705370fc1.png#averageHue=%23d1d3d0&clientId=u7e3f2a1f-856d-4&from=paste&id=u80d2987c&originHeight=425&originWidth=600&originalType=url&ratio=1&rotation=0&showTitle=false&size=344728&status=done&style=none&taskId=u4d1138e6-d6c6-4086-ab54-c7e411bb561&title=)
  5. - 二维平面两点a(x1,y1)与b(x2,y2)间的曼哈顿距离:
  6. ![image.png](https://cdn.nlark.com/yuque/0/2023/png/22782459/1679534024170-1838bfbd-1c55-4682-99d8-865aedc45931.png#averageHue=%23090807&clientId=u7e3f2a1f-856d-4&from=paste&id=u88b553b4&originHeight=21&originWidth=183&originalType=url&ratio=1&rotation=0&showTitle=false&size=3246&status=done&style=none&taskId=u174f5478-5567-4f94-a371-f4fed31be51&title=)
  7. - n维空间点a(x11,x12,…,x1n)与b(x21,x22,…,x2n)的曼哈顿距离:
  8. ![image.png](https://cdn.nlark.com/yuque/0/2023/png/22782459/1679534024203-e4a819ce-7a0f-4615-87fb-a9eabca825dc.png#averageHue=%23030302&clientId=u7e3f2a1f-856d-4&from=paste&id=u2d4f62c5&originHeight=62&originWidth=156&originalType=url&ratio=1&rotation=0&showTitle=false&size=3869&status=done&style=none&taskId=u298edcf2-0530-4d54-a1a9-b88cadf4ff5&title=)
  9. - Python计算曼哈顿距离:
  10. ```python
  11. # 曼哈顿距离
  12. # 1、接受两个坐标。
  13. # 2、对两个坐标的x值求解差的绝对值。
  14. # 3、对y值求解差的绝对值。
  15. # 4、讲两个绝对值相加。
  16. def func(x,y):
  17. return sum(map(lambda i, j : abs(i-j), x, y))
  18. print(func([1,2],[3,4]))

image.png

3. 切比雪夫距离 (Chebyshev Distance)

国际象棋中,国王可以直行、横行、斜行,所以国王走一步可以移动到相邻8个方格中的任意一个。国王从格子(x1,y1)走到格子(x2,y2)最少需要多少步?这个距离就叫切比雪夫距离。
image.png

  • 二维平面两点a(x1,y1)与b(x2,y2)间的切比雪夫距离:

image.png

  • n维空间点a(x11,x12,…,x1n)与b(x21,x22,…,x2n)的切比雪夫距离:

image.png

  • Python计算切比雪夫距离:

    1. # 契比雪夫距离
    2. import numpy as np
    3. v1 = np.array([1,2,3])
    4. v2 = np.array([4,7,5])
    5. print(abs(v1 - v2).max())

    image.png

    4. 闵可夫斯基距离(Minkowski Distance)

    闵氏距离不是一种距离,而是一组距离的定义,是对多个距离度量公式的概括性的表述。

  • 闵氏距离定义:

  • 两个n维变量a(x11,x12,…,x1n)与b(x21,x22,…,x2n)间的闵可夫斯基距离定义为:

image.png
其中p是一个变参数:
当p=1时,就是曼哈顿距离;
当p=2时,就是欧氏距离;
当p→∞时,就是切比雪夫距离。
因此,根据变参数的不同,闵氏距离可以表示某一类/种的距离。

  • 闵氏距离,包括曼哈顿距离、欧氏距离和切比雪夫距离都存在明显的缺点。
  • e.g. 二维样本(身高[单位:cm],体重[单位:kg]),现有三个样本:a(180,50),b(190,50),c(180,60)。那么a与b的闵氏距离(无论是曼哈顿距离、欧氏距离或切比雪夫距离)等于a与c的闵氏距离。但实际上身高的10cm并不能和体重的10kg划等号。
  • 闵氏距离的缺点:
  • (1)将各个分量的量纲(scale),也就是“单位”相同的看待了;
  • (2)未考虑各个分量的分布(期望,方差等)可能是不同的。
  • Python计算闵氏距离(以p=2的欧氏距离为例): ```python

    闵可夫斯基距离(Minkowski Distance)

    import numpy as np from numpy import linalg as LA

a1 = np.array([-3, -5, -7, 2, 6, 4, 0, 2, 8]) a2 = np.array([1, 2, 3, 4, 5, 6, 7, 8, 9]) b1 = a1.reshape((3, 3)) b2 = a2.reshape((3, 3)) print(b1) print(b2) ‘’’ [[-3 -5 -7] [ 2 6 4] [ 0 2 8]] ‘’’

print(“曼哈顿距离:”,np.linalg.norm(b1-b2, ord=2))

print(“曼哈顿距离:”,np.linalg.norm(b1-b2, ord=1))

print(“切比雪夫距离:”,np.linalg.norm(b1-b2, ord=np.inf))

  1. ![image.png](https://cdn.nlark.com/yuque/0/2023/png/22782459/1679758307256-903358e7-eca6-4c76-8156-d17fc56a6ba8.png#averageHue=%23faf9f9&clientId=u3d4d7920-4884-4&from=paste&height=1050&id=ubf0cfe73&originHeight=1050&originWidth=1920&originalType=binary&ratio=1&rotation=0&showTitle=false&size=167323&status=done&style=none&taskId=u341c74fa-b957-486f-8707-230594838f4&title=&width=1920)<br />numpy本身也提供了通过闵氏距离修改p值来直接实现包括曼哈顿距离在内的多种距离计算方式
  2. ```python
  3. def minkowski_distance(vec1, vec2, p=3):
  4. """
  5. 闵氏距离
  6. 当p=1时,就是曼哈顿距离
  7. 当p=2时,就是欧氏距离
  8. 当p→∞时,就是切比雪夫距离
  9. :param vec1:
  10. :param vec2:
  11. :param p:
  12. :return:
  13. """
  14. # return sum([(x - y) ** p for (x, y) in zip(vec1, vec2)]) ** (1 / p)
  15. return np.linalg.norm(vec1 - vec2, ord=p)
  16. def cosine_distance(vec1, vec2):
  17. """
  18. 夹角余弦
  19. :param vec1:
  20. :param vec2:
  21. :return:
  22. """
  23. vec1_norm = np.linalg.norm(vec1)
  24. vec2_norm = np.linalg.norm(vec2)
  25. return vec1.dot(vec2) / (vec1_norm * vec2_norm)
  26. def euclidean_distance(vec1, vec2):
  27. """
  28. 欧氏距离
  29. :param vec1:
  30. :param vec2:
  31. :return:
  32. """
  33. # return np.sqrt(np.sum(np.square(vec1 - vec2)))
  34. # return sum([(x - y) ** 2 for (x, y) in zip(vec1, vec2)]) ** 0.5
  35. return np.linalg.norm(vec1 - vec2, ord=2)
  36. def manhattan_distance(vec1, vec2):
  37. """
  38. 曼哈顿距离
  39. :param vec1:
  40. :param vec2:
  41. :return:
  42. """
  43. # return np.sum(np.abs(vec1 - vec1))
  44. return np.linalg.norm(vec1 - vec2, ord=1)
  45. def chebyshev_distance(vec1, vec2):
  46. """
  47. 切比雪夫距离
  48. :param vec1:
  49. :param vec2:
  50. :return:
  51. """
  52. # return np.abs(vec1 - vec2).max()
  53. return np.linalg.norm(vec1 - vec2, ord=np.inf)
  54. def hamming_distance(vec1, vec2):
  55. """
  56. 汉明距离
  57. :param vec1:
  58. :param vec2:
  59. :return:
  60. """
  61. return np.shape(np.nonzero(vec1 - vec2)[0])[0]
  62. def jaccard_similarity_coefficient(vec1, vec2):
  63. """
  64. 杰卡德距离
  65. :param vec1:
  66. :param vec2:
  67. :return:
  68. """
  69. return dist.pdist(np.array([vec1, vec2]), 'jaccard')

5. 标准化欧氏距离 (Standardized Euclidean Distance)

定义: 标准化欧氏距离是针对欧氏距离的缺点而作的一种改进。标准欧氏距离的思路:既然数据各维分量的分布不一样,那先将各个分量都“标准化”到均值、方差相等。假设样本集X的均值(mean)为m,标准差(standard deviation)为s,X的“标准化变量”表示为:
image.png

  • 标准化欧氏距离公式:

image.png
如果将方差的倒数看成一个权重,也可称之为加权欧氏距离(Weighted Euclidean distance)。

  • Python计算标准化欧氏距离(假设两个分量的标准差分别为0.5和1): ```python

    5. 标准化欧氏距离 (Standardized Euclidean Distance)

    import numpy as np x=np.random.random(10) y=np.random.random(10)

X=np.vstack([x,y])

sk1=0.5 sk2=1 d1=np.sqrt(((x - y) 2 /sk1).sum()) d2=np.sqrt(((x - y) 2 /sk2).sum()) print(‘d1:’,d1) print(‘d2:’,d2)

  1. ![image.png](https://cdn.nlark.com/yuque/0/2023/png/22782459/1679759223240-8d27bbd2-853d-4c21-8c4c-f6f950fa7485.png#averageHue=%23faf9f9&clientId=ubbe72a9e-b134-4&from=paste&height=1050&id=u3eb3aebb&originHeight=1050&originWidth=1920&originalType=binary&ratio=1&rotation=0&showTitle=false&size=166177&status=done&style=none&taskId=u570d3d37-fe41-4a21-a600-86f4aaa511e&title=&width=1920)
  2. <a name="A5njt"></a>
  3. ## 6. 马氏距离(Mahalanobis Distance)
  4. 马氏距离的引出:<br />![image.png](https://cdn.nlark.com/yuque/0/2023/png/22782459/1679534025534-3e5f8ef5-6f01-47c0-bab6-f41af2d05f26.png#averageHue=%23f3f3f3&clientId=u7e3f2a1f-856d-4&from=paste&id=u6fe6d3f5&originHeight=84&originWidth=190&originalType=url&ratio=1&rotation=0&showTitle=false&size=7676&status=done&style=none&taskId=u7f68570d-ed84-4b22-af95-079cbe589e0&title=)<br />上图有两个正态分布的总体,它们的均值分别为a和b,但方差不一样,则图中的A点离哪个总体更近?或者说A有更大的概率属于谁?显然,A离左边的更近,A属于左边总体的概率更大,尽管A与a的欧式距离远一些。这就是马氏距离的直观解释。
  5. - 概念:马氏距离是基于样本分布的一种距离。物理意义就是在规范化的主成分空间中的欧氏距离。所谓规范化的主成分空间就是利用主成分分析对一些数据进行主成分分解。再对所有主成分分解轴做归一化,形成新的坐标轴。由这些坐标轴张成的空间就是规范化的主成分空间。
  6. ![image.png](https://cdn.nlark.com/yuque/0/2023/png/22782459/1679534025640-ba36f2f8-7cdd-4e51-a80f-26892a087d08.png#averageHue=%23f8f8ed&clientId=u7e3f2a1f-856d-4&from=paste&id=u44c5a911&originHeight=441&originWidth=450&originalType=url&ratio=1&rotation=0&showTitle=false&size=143435&status=done&style=none&taskId=u1bf4e1c3-612a-4abb-bb93-0d40bdc9beb&title=)
  7. - 定义:有M个样本向量X1~Xm,协方差矩阵记为S,均值记为向量μ,则其中样本向量X到μ的马氏距离表示为:
  8. ![image.png](https://cdn.nlark.com/yuque/0/2023/png/22782459/1679534025709-6c9ecb9d-83bf-4eb0-bc95-d82f28a12f58.png#averageHue=%23050404&clientId=u7e3f2a1f-856d-4&from=paste&id=ub5295dbb&originHeight=42&originWidth=207&originalType=url&ratio=1&rotation=0&showTitle=false&size=4692&status=done&style=none&taskId=uca46ce83-0011-49af-b4a4-a1d2d4ad86a&title=)<br />向量Xi与Xj之间的马氏距离定义为:<br />![image.png](https://cdn.nlark.com/yuque/0/2023/png/22782459/1679534026136-27d80d88-4c01-4151-b413-d614ef96a9f9.png#averageHue=%23060504&clientId=u7e3f2a1f-856d-4&from=paste&id=u587037b8&originHeight=42&originWidth=252&originalType=url&ratio=1&rotation=0&showTitle=false&size=6228&status=done&style=none&taskId=u2d1aa9a8-d9da-4343-87f9-c5fa7643dd3&title=)<br />若协方差矩阵是单位矩阵(各个样本向量之间独立同分布),则Xi与Xj之间的马氏距离等于他们的欧氏距离:<br />![image.png](https://cdn.nlark.com/yuque/0/2023/png/22782459/1679534026178-7ff29403-8838-465e-967e-3b4a65b6e099.png#averageHue=%23070605&clientId=u7e3f2a1f-856d-4&from=paste&id=ubf3b44f7&originHeight=42&originWidth=224&originalType=url&ratio=1&rotation=0&showTitle=false&size=5742&status=done&style=none&taskId=uc74a5d80-c53e-4347-95f8-1a80527ce45&title=)<br />若协方差矩阵是对角矩阵,则就是标准化欧氏距离。
  9. - 欧式距离&马氏距离:
  10. ![](https://cdn.nlark.com/yuque/0/2023/gif/22782459/1679534026620-c46b4390-7dd2-4ea9-ae97-7a62960ce102.gif#averageHue=%23f5f3e5&clientId=u7e3f2a1f-856d-4&from=paste&id=ubb8b8f6f&originHeight=244&originWidth=400&originalType=url&ratio=1&rotation=0&showTitle=false&status=done&style=none&taskId=u7eb65eaf-9278-4cb1-8bba-e68d4a3bc62&title=)<br />![](https://cdn.nlark.com/yuque/0/2023/gif/22782459/1679534026897-fdb9df79-ceb0-4a9a-b827-5b00da65bcdf.gif#averageHue=%23f5f3e5&clientId=u7e3f2a1f-856d-4&from=paste&id=u349b9b6b&originHeight=244&originWidth=400&originalType=url&ratio=1&rotation=0&showTitle=false&status=done&style=none&taskId=ub8d66e5f-b645-4118-9e68-27dcddb88b8&title=)
  11. - 马氏距离的特点:
  12. - 量纲无关,排除变量之间的相关性的干扰;
  13. - 马氏距离的计算是建立在总体样本的基础上的,如果拿同样的两个样本,放入两个不同的总体中,最后计算得出的两个样本间的马氏距离通常是不相同的,除非这两个总体的协方差矩阵碰巧相同;
  14. - 计算马氏距离过程中,要求总体样本数大于样本的维数,否则得到的总体样本协方差矩阵逆矩阵不存在,这种情况下,用欧式距离计算即可。
  15. - Python计算马氏距离:
  16. ```python
  17. # 马氏距离(Mahalanobis Distance)
  18. # -*- coding: utf-8 -*-
  19. import numpy as np
  20. x = np.random.random(10)
  21. y = np.random.random(10)
  22. # 马氏距离要求样本数要大于维数,否则无法求协方差矩阵
  23. # 此处进行转置,表示10个样本,每个样本2维
  24. X = np.vstack([x, y])
  25. XT = X.T
  26. # 方法二:根据scipy库求解
  27. from scipy.spatial.distance import pdist
  28. d2 = pdist(XT, 'mahalanobis')
  29. print('马氏距离:',d2)

image.png

7. 余弦距离(Cosine Distance)

几何中,夹角余弦可用来衡量两个向量方向的差异;机器学习中,借用这一概念来衡量样本向量之间的差异。

  • 二维空间中向量A(x1,y1)与向量B(x2,y2)的夹角余弦公式:

image.png

  • 两个n维样本点a(x11,x12,…,x1n)和b(x21,x22,…,x2n)的夹角余弦为:

image.png
即:
image.png
夹角余弦取值范围为[-1,1]。余弦越大表示两个向量的夹角越小,余弦越小表示两向量的夹角越大。当两个向量的方向重合时余弦取最大值1,当两个向量的方向完全相反余弦取最小值-1。

  • Python计算夹角余弦: ```python

    夹角余弦

    -- coding: utf-8 --

    import numpy as np from scipy.spatial.distance import pdist

x = np.random.random(10) y = np.random.random(10)

solution

dist1 = 1 - np.dot(x, y) / (np.linalg.norm(x) * np.linalg.norm(y)) print(‘x’, x) print(‘y’, y) print(‘余弦距离:’, dist1)

  1. ![image.png](https://cdn.nlark.com/yuque/0/2023/png/22782459/1679760065378-c6b3d321-0a67-4835-8c5f-e0156db84429.png#averageHue=%23f9f8f8&clientId=ubbe72a9e-b134-4&from=paste&height=1050&id=ub2b3f3e9&originHeight=1050&originWidth=1920&originalType=binary&ratio=1&rotation=0&showTitle=false&size=187127&status=done&style=none&taskId=u9673e823-45bf-4822-a8f6-c69a786a51b&title=&width=1920)
  2. <a name="DeSHe"></a>
  3. ## 8. 汉明距离(Hamming Distance)
  4. ![image.png](https://cdn.nlark.com/yuque/0/2023/png/22782459/1679534027035-f85e630c-ff91-4fdb-9ffd-29ab3db39f15.png#averageHue=%23030000&clientId=u7e3f2a1f-856d-4&from=paste&id=ucc396be5&originHeight=225&originWidth=370&originalType=url&ratio=1&rotation=0&showTitle=false&size=28264&status=done&style=none&taskId=ua5718b33-a0f2-4034-9b68-bf5948758d5&title=)
  5. - 定义:两个等长字符串s1s2的汉明距离为:将其中一个变为另外一个所需要作的最小字符替换次数。例如:
  6. - 汉明重量:是字符串相对于同样长度的零字符串的汉明距离,也就是说,它是字符串中非零的元素个数:对于二进制字符串来说,就是 1 的个数,所以 11101 的汉明重量是 4。因此,如果向量空间中的元素ab之间的汉明距离等于它们汉明重量的差a-b
  7. - 应用:汉明重量分析在包括信息论、编码理论、密码学等领域都有应用。比如在信息编码过程中,为了增强容错性,应使得编码间的最小汉明距离尽可能大。但是,如果要比较两个不同长度的字符串,不仅要进行替换,而且要进行插入与删除的运算,在这种场合下,通常使用更加复杂的编辑距离等算法。
  8. - Python计算汉明距离(Matlab2个向量之间的汉明距离的定义为2个向量不同的分量所占的百分比):
  9. ```python
  10. # 汉明距离(Hamming distance)
  11. # -*- coding: utf-8 -*-
  12. from numpy import *
  13. matV = mat([[1,1,0,1,0,1,0,0,1],[0,1,1,0,0,0,1,1,1]])
  14. smstr = nonzero(matV[0]-matV[1])
  15. print(shape(smstr[0])[0])
  16. import numpy as np
  17. x=np.random.random(10)>0.5
  18. y=np.random.random(10)>0.5
  19. x=np.asarray(x,np.int32)
  20. y=np.asarray(y,np.int32)
  21. d1=np.mean(x!=y)
  22. print('汉明距离:', d1)

image.png
数据处理与智能决策-第一次作业-翁修林-物联12002-202004071

二.算法设计(与简答题可能会交替)(30分)

1. 排序算法设计

冒泡排序

老师PPT算法描述

  • 设待排序记录序列中的记录个数为n
  • 一般地,第i趟起泡排序从1到n-i+1
  • 依次比较相邻两个记录的关键字,如果发生逆序,则交换之
  • 其结果是这n-i+1个记录中,关键字最大的记录被交换到第n-i+1的位置上,最多作n-1趟。

image.png

  1. // 输入:待排序数组arr,数组长度n
  2. BubbleSort(arr, n) {
  3. for (i = 0; i < n-1; i++) {
  4. for (j = 0; j < n-i-1; j++) {
  5. // 比较相邻元素,如果前一个元素大于后一个元素,则交换位置
  6. if (arr[j] > arr[j+1]) {
  7. swap(arr[j], arr[j+1]);
  8. }
  9. }
  10. }
  11. }

快速排序

老师PPT算法特点:

  • 快速排序是通过比较关键码、交换记录,
  • 以某个记录为界(该记录称为支点),将待排序列分成两部分
  • 一部分所有记录的关键码大于等于支点记录的关键码
  • 另一部分所有记录的关键码小于支点记录的关键码

image.png
image.png

  1. // 输入:待排序数组arr,起始索引low,结束索引high
  2. QuickSort(arr, low, high) {
  3. if (low < high) {
  4. // 分区操作,返回基准值的索引
  5. pivotIndex = Partition(arr, low, high);
  6. // 对基准值左边的子数组进行快速排序
  7. QuickSort(arr, low, pivotIndex - 1);
  8. // 对基准值右边的子数组进行快速排序
  9. QuickSort(arr, pivotIndex + 1, high);
  10. }
  11. }
  12. // 分区操作函数
  13. Partition(arr, low, high) {
  14. // 选择基准值为数组的第一个元素
  15. pivot = arr[low];
  16. left = low;
  17. right = high;
  18. while (left < right) {
  19. // 从右往左找到第一个小于基准值的元素
  20. while (arr[right] >= pivot && left < right) {
  21. right--;
  22. }
  23. if (left < right) {
  24. arr[left] = arr[right];
  25. left++;
  26. }
  27. // 从左往右找到第一个大于基准值的元素
  28. while (arr[left] <= pivot && left < right) {
  29. left++;
  30. }
  31. if (left < right) {
  32. arr[right] = arr[left];
  33. right--;
  34. }
  35. }
  36. // 将基准值放入最终位置
  37. arr[left] = pivot;
  38. return left;
  39. }

直接插入排序

老师PPTimage.png
image.png
image.png

  1. // 输入:待排序数组arr,数组长度n
  2. InsertionSort(arr, n) {
  3. for (i = 1; i < n; i++) {
  4. key = arr[i]; // 当前待插入的元素
  5. j = i - 1;
  6. // 将大于key的元素后移
  7. while (j >= 0 && arr[j] > key) {
  8. arr[j+1] = arr[j];
  9. j--;
  10. }
  11. arr[j+1] = key; // 将key插入到正确的位置
  12. }
  13. }

希尔排序

老师PPTimage.png
image.png
image.png

  1. // 输入:待排序数组arr,数组长度n
  2. ShellSort(arr, n) {
  3. // 定义增量序列
  4. h = 1;
  5. while (h < n/3) {
  6. h = 3 * h + 1;
  7. }
  8. // 按照增量序列进行排序
  9. while (h >= 1) {
  10. for (i = h; i < n; i++) {
  11. key = arr[i]; // 当前待插入的元素
  12. j = i - h;
  13. // 将大于key的元素后移
  14. while (j >= 0 && arr[j] > key) {
  15. arr[j+h] = arr[j];
  16. j -= h;
  17. }
  18. arr[j+h] = key; // 将key插入到正确的位置
  19. }
  20. h = h / 3; // 缩小增量
  21. }
  22. }

选择排序

老师PPTimage.png
image.png

  1. // 输入:待排序数组arr,数组长度n
  2. SelectionSort(arr, n) {
  3. for (i = 0; i < n-1; i++) {
  4. minIndex = i; // 默认将当前索引设置为最小元素的索引
  5. // 在未排序部分寻找最小元素的索引
  6. for (j = i+1; j < n; j++) {
  7. if (arr[j] < arr[minIndex]) {
  8. minIndex = j;
  9. }
  10. }
  11. // 将最小元素与当前位置进行交换
  12. tmp = arr[i];
  13. arr[i] = arr[minIndex];
  14. arr[minIndex] = tmp;
  15. }
  16. }

堆排序

  1. // 输入:待排序数组arr,数组长度n
  2. HeapSort(arr, n) {
  3. // 构建初始堆
  4. for (i = n/2 - 1; i >= 0; i--) {
  5. Heapify(arr, n, i);
  6. }
  7. // 依次取出堆顶元素,调整堆
  8. for (i = n-1; i > 0; i--) {
  9. // 将堆顶元素与当前最后一个元素交换
  10. tmp = arr[0];
  11. arr[0] = arr[i];
  12. arr[i] = tmp;
  13. // 调整堆
  14. Heapify(arr, i, 0);
  15. }
  16. }
  17. // 调整堆
  18. Heapify(arr, n, root) {
  19. largest = root; // 默认将当前根节点设置为最大元素的索引
  20. left = 2 * root + 1; // 左子节点的索引
  21. right = 2 * root + 2; // 右子节点的索引
  22. // 在根节点、左子节点和右子节点中找到最大元素的索引
  23. if (left < n && arr[left] > arr[largest]) {
  24. largest = left;
  25. }
  26. if (right < n && arr[right] > arr[largest]) {
  27. largest = right;
  28. }
  29. // 如果最大元素的索引不是根节点,则交换根节点和最大元素的位置,并继续调整子树
  30. if (largest != root) {
  31. tmp = arr[root];
  32. arr[root] = arr[largest];
  33. arr[largest] = tmp;
  34. Heapify(arr, n, largest);
  35. }
  36. }

归并排序

  1. // 归并排序的伪代码
  2. // 归并排序函数,输入:待排序数组arr,数组长度n
  3. MergeSort(arr, n) {
  4. if (n <= 1) {
  5. return; // 当数组长度小于等于1时,直接返回,不需要进行排序
  6. }
  7. // 计算中间索引
  8. mid = n / 2;
  9. // 创建临时数组,用于存放分割后的子数组
  10. leftArray[mid];
  11. rightArray[n - mid];
  12. // 将原数组按照中间索引分割为两个子数组
  13. for (i = 0; i < mid; i++) {
  14. leftArray[i] = arr[i];
  15. }
  16. for (i = mid; i < n; i++) {
  17. rightArray[i - mid] = arr[i];
  18. }
  19. // 递归调用归并排序函数对左半部分和右半部分进行排序
  20. MergeSort(leftArray, mid);
  21. MergeSort(rightArray, n - mid);
  22. // 合并排好序的左半部分和右半部分
  23. Merge(arr, leftArray, mid, rightArray, n - mid);
  24. }
  25. // 合并两个子数组的函数
  26. Merge(arr, leftArray, leftSize, rightArray, rightSize) {
  27. i = 0; // leftArray的索引
  28. j = 0; // rightArray的索引
  29. k = 0; // arr的索引
  30. // 依次比较leftArray和rightArray中的元素,将较小的元素放入arr
  31. while (i < leftSize && j < rightSize) {
  32. if (leftArray[i] <= rightArray[j]) {
  33. arr[k] = leftArray[i];
  34. i++;
  35. } else {
  36. arr[k] = rightArray[j];
  37. j++;
  38. }
  39. k++;
  40. }
  41. // 将leftArray中剩余的元素复制到arr中
  42. while (i < leftSize) {
  43. arr[k] = leftArray[i];
  44. i++;
  45. k++;
  46. }
  47. // 将rightArray中剩余的元素复制到arr中
  48. while (j < rightSize) {
  49. arr[k] = rightArray[j];
  50. j++;
  51. k++;
  52. }
  53. }

2. 优化算法设计

单目标优化算法和多目标优化算法是解决优化问题的两种不同方法。 单目标优化算法旨在寻找一个最优解,使目标函数的值最小或最大化。这种算法只优化一个特定的目标函数,无论是最小化还是最大化。

常见的单目标优化算法包括:

  1. 梯度下降法(Gradient Descent):通过计算目标函数的梯度来更新参数,以寻找目标函数的最优解。
  2. 遗传算法(Genetic Algorithm):模拟自然进化的过程,通过选择、交叉和变异等操作来搜索最优解。
  3. 粒子群优化(Particle Swarm Optimization):模拟鸟群寻找食物的行为,通过不断调整粒子的位置和速度来搜索最优解。
  4. 蚁群算法(Ant Colony Optimization):模拟蚂蚁在搜索食物过程中释放信息素的行为,通过信息素的累积和挥发来搜索最优解。

而多目标优化算法则是在考虑多个目标函数的情况下寻找一组解,以形成一种称为“帕累托前沿”的解集合。这个解集合是在不利影响其他目标函数的情况下,无法再进一步改善任何目标的解。

常见的多目标优化算法包括:

  1. NSGA-II(Non-Dominated Sorting Genetic Algorithm II):通过非支配排序、拥挤度距离等指标来搜索帕累托前沿。
  2. MOEA/D(Multi-Objective Evolutionary Algorithm based on Decomposition):将多目标优化问题分解为多个子问题,并通过解的交叉和变异来搜索帕累托前沿。
  3. SPEA2(Strength Pareto Evolutionary Algorithm 2):利用解的支配关系和拥挤度距离来保持搜索空间的多样性,并搜索帕累托前沿。
  4. MOPSO(Multi-Objective Particle Swarm Optimization):将粒子群优化算法扩展到多目标优化问题,通过适应度值和轨迹的更新来搜索帕累托前沿。

这两种类型的优化算法在解决不同类型的问题时具有不同的优势和适应性。单目标优化算法适用于目标明确的问题,而多目标优化算法适用于需要平衡多个目标指标的问题。

3. 常见的深度学习模型及优缺点

常见的深度学习模型以及它们的优缺点如下:1. 卷积神经网络(Convolutional Neural Networks,CNN):
- 优点:适用于图像和视频处理任务,具有自动提取特征的能力,能够处理平移不变性,参数共享可减少模型复杂度。
- 缺点:对于大规模数据和较复杂的图像结构,模型可能需要更多的时间和计算资源进行训练。

  1. 循环神经网络(Recurrent Neural Networks,RNN):
    - 优点:适用于序列数据处理任务,能够建模时序关系和上下文信息。
    - 缺点:处理长期依赖关系时存在梯度消失和梯度爆炸问题,限制了其在长序列任务中的表现。

  2. 长短时记忆网络(Long Short-Term Memory,LSTM):
    - 优点:是RNN的一种改进,能够更好地处理长期依赖关系,避免梯度消失和梯度爆炸的问题。
    - 缺点:相对于标准RNN,LSTM模型具有更多的参数,需要更多的计算资源和时间进行训练。

  3. 生成对抗网络(Generative Adversarial Networks,GAN):
    - 优点:通过生成器和判别器的对抗训练,能够生成逼真的样本,适用于图像、语音、文本生成等领域。
    - 缺点:训练GAN需要较长的时间,且模型的训练过程不稳定,可能会出现模式崩溃和模式塌陷的问题。

  4. 转移学习(Transfer Learning):
    - 优点:能够利用在一个任务上学到的知识和参数来加速和改善在相关任务上的性能;减少对大量标注数据的需求。
    - 缺点:对于两个任务之间差异较大的情况,转移学习效果可能会受到限制。

这些深度学习模型在不同的任务和领域中有着广泛的应用。每个模型都有其独特的优点和缺点,选择合适的模型要根据具体问题和数据情况。进一步了解每个模型的详细原理和实践指导,可以参考相关的学术论文、教材和在线资源。

4. 常见的分类器及其数学基础

常见的分类器及其对应的数学基础如下:

  1. 逻辑回归(Logistic Regression):
    • 数学基础:逻辑回归使用了逻辑函数(sigmoid函数),该函数将输入特征的线性组合映射到一个概率值(0到1之间)。通过最大似然估计或最小化损失函数的方式,在训练过程中优化模型参数。
  2. 支持向量机(Support Vector Machines,SVM):
    • 数学基础:SVM的核心思想是通过在高维空间中找到最优的分离超平面来进行分类。使用核函数将输入特征映射到高维空间,在此空间中寻找能够最大化正负样本间隔(间隔最大化)的超平面。
  3. 决策树(Decision Trees):
    • 数学基础:决策树算法使用基于信息增益、基尼系数等准则的分裂判定条件,通过对特征进行递归划分,构建一棵树形结构用于分类。决策树的划分过程通过计算特征的纯度来确定最佳划分。
  4. 随机森林(Random Forest):
    • 数学基础:随机森林是基于决策树的集成学习方法。它运用随机特征选择和随机样本抽样的技术,构建多个决策树,并通过投票或平均的方式进行分类预测。
  5. 朴素贝叶斯(Naive Bayes):
    • 数学基础:朴素贝叶斯分类器基于贝叶斯定理和特征之间的独立性假设。它通过计算样本在给定类别下的条件概率,并选择最大概率的类别作为预测结果。
  6. K近邻算法(K-Nearest Neighbors,KNN):
    • 数学基础:KNN基于样本之间的距离进行分类。它计算测试样本与训练集中最近的k个样本的类别,并使用多数投票的方式确定测试样本的类别。

这些分类器都有其数学基础和算法原理,理解这些数学基础可以帮助我们更好地理解和使用这些模型。深入学习这些算法的数学基础将有助于对它们的工作原理和特点有更深入的理解。

5. 递归与非递归的转换

递归和非递归是两种不同的编程或问题解决方法。在递归中,问题被划分为较小的子问题,而在非递归中,问题通过迭代的方式解决。在某些情况下,递归可能更简洁和直观,而非递归则更高效。 递归转换为非递归通常可以通过使用栈或队列来实现。以下是一种通用的递归与非递归转换的方法:

  1. 将递归函数中递归调用的参数和局部变量放入栈或队列中。
  2. 使用循环来模拟递归的执行过程。
  3. 在每次循环迭代中,从栈或队列中获取参数和局部变量。
  4. 将子问题的计算结果存储在需要的地方,以供后续的计算使用。
  5. 循环终止条件通常是栈或队列为空,即没有更多的子问题需要解决。

通过这种转换,可以将递归函数转换为非递归的迭代形式,从而实现递归调用的效果。

需要注意的是,并非所有的递归函数都可以简单地转换为非递归形式。有些复杂的递归问题可能需要其他的解决思路,例如动态规划或分治策略。

在实际编程中,递归和非递归的选择通常基于问题的复杂性、效率需求以及程序的可读性。递归可以使代码更简洁和易于理解,但在处理大规模问题时可能会导致栈溢出或效率低下。非递归则可以规避这些问题,但可能需要更多的代码和辅助数据结构。

因此,在将递归转换为非递归时,需要权衡使用递归或非递归的优缺点,并根据具体问题和应用场景做出合适的选择。

6. 优化,单目标与多目标评价函数设计

在机器学习和优化问题中,评价函数被用来衡量模型或优化算法的性能。评价函数分为单目标和多目标评价函数。 单目标评价函数设计时,我们关注一个主要的目标或指标,并将其最大化或最小化。常见的单目标评价函数设计包括:

  1. 损失函数(Loss Function):用于衡量模型在训练数据上的误差,例如均方误差(Mean Squared Error,MSE)或交叉熵(Cross-Entropy)损失函数。
  2. 准确率(Accuracy):用于衡量分类模型在测试数据上的分类准确率。
  3. R-Squared(R²):用于衡量回归模型对目标变量的解释程度。
  4. 对数似然(Log-Likelihood):用于衡量概率模型对观测数据的拟合程度。

多目标评价函数设计考虑到多个目标或指标,并通常涉及它们之间的权衡或折衷关系。常见的多目标评价函数设计方法包括:

  1. 加权函数法(Weighted Sum Method):将每个目标函数乘以一个权重并求和,这种方法假定所有目标函数具有相同的重要性。
  2. 线性规划法(Linear Programming Method):通过线性规划模型,将多个目标函数约束到一组可行解,选择满足优化目标的最优解。
  3. Pareto前沿(Pareto Front):Pareto前沿是指在多个目标函数之间没有一个可以在所有目标上优于其他解的解集。通过比较不同目标函数之间的权衡,找到Pareto前沿上的最优解。

在评价函数的设计过程中,需要考虑问题的特点、优化目标的关联性、数据的可用性等因素。重要的是根据具体问题和需求选择或设计适合的评价函数,并在优化过程中对其进行迭代和改进。

三,填空题(10分),选择题(20分)

1. 监督学习与无监督学习

监督学习和无监督学习是机器学习中两种基本的学习范式。 监督学习是通过给定的输入数据和相应的标签或目标值来进行训练的。在监督学习中,我们知道要解决的问题以及正确的答案是什么,因此可以训练一个模型来学习输入与输出之间的映射关系。常见的监督学习任务包括分类(将实例分到不同的类别)和回归(预测数值型目标变量)。监督学习的训练过程通常包括构建模型、定义损失函数和使用优化算法来最小化损失函数。

无监督学习则是在没有标签或目标值的情况下学习数据的结构和模式。无监督学习的目标是发现数据中的隐藏结构或关系,或者对数据进行聚类或降维。常见的无监督学习任务包括聚类(将相似的实例分到一组)和降维(减少特征的数量或维度)。无监督学习的训练过程通常包括构建模型、定义相似度或距离度量,并使用算法来聚类、建模或降维数据。

监督学习和无监督学习在应用和方法上有所不同。监督学习通常需要有标注的数据和先验知识,可以用于训练和评估模型。而无监督学习不需要标签,只依赖于数据本身的统计特性或结构。因此,监督学习通常可以解决更具体和明确定义的问题,而无监督学习则更适用于探索性分析、数据预处理和特征抽取等任务。

在实际应用中,监督学习和无监督学习经常结合使用。例如,可以使用无监督学习进行数据降维,然后使用监督学习算法对降维后的数据进行分类。或者使用无监督学习进行聚类,然后使用监督学习将新的数据点分配到聚类中。这种结合使用可以提高模型的性能和处理的效率。

2. 背包问题

背包问题是一个经典的组合优化问题,涉及如何在给定容量的背包中选择一些物品,以使得它们的总价值最大化,同时保持其总重量不超过背包的容量。 背包问题有两种常见的形式:0-1背包问题和分数背包问题。

  1. 0-1背包问题(0-1 Knapsack Problem):在0-1背包问题中,每个物品要么完全放入背包,要么完全不放入背包。也就是说,每个物品的选择是二进制的(0或1)。问题的目标是选择一组物品,使得它们的总价值最大化,同时总重量不超过背包的容量。
  2. 分数背包问题(Fractional Knapsack Problem):在分数背包问题中,每个物品可以选择放入背包的一部分。这意味着每个物品的选择是一个0到1之间的实数,表示放入的物品的比例。问题的目标是选择一组物品,使得它们的总价值最大化,同时总重量不超过背包的容量。

解决背包问题的常见方法是动态规划。动态规划算法通过构建一个二维表格,根据不同的物品和背包容量进行递推计算,最终得到最优解。对于0-1背包问题,动态规划算法可以使用一个表格来表示选择每个物品和不同背包容量下的最大总价值。而对于分数背包问题,动态规划算法可以使用一个表格来表示物品的单位价值和放入的比例,然后按照单位价值的降序选择物品。

此外,背包问题也可以通过贪心算法和回溯算法进行解决。贪心算法每次选择当前看起来最优的策略,而回溯算法则是通过尝试所有可能的组合来找到最优解。然而,贪心算法只适用于分数背包问题,对于0-1背包问题不一定能得到最优解,而回溯算法在背包容量较大时可能会有指数级的时间复杂度。

背包问题在组合优化和动态规划领域有广泛的应用,例如资源分配、作业调度和投资组合优化等。

3. 分支限界法

分支限界法是解决优化问题的一种算法策略,可以应用于背包问题等组合优化问题。它通过将问题分解为一系列子问题,并使用启发式的方式逐步搜索可能的解空间来找到最优解。 具体而言,分支限界法首先确定一个上界(或下界),该上界表示问题的最优解的可能取值范围。然后,从问题的初始状态开始,生成一个候选解,并进行评估。根据评估的结果,可以进一步展开(分支)候选解空间,并对子问题进行求解。在求解子问题时,可能会应用剪枝操作,即通过某些规则或条件来判断某些子问题的解不会是最优解,从而避免继续搜索这些子问题。

分支限界法通过不断生成候选解、评估和分支的过程,在解空间中逐步收敛,直到找到问题的最优解或确定无解。因为每次扩展子问题时,分支限界法能够剪去一些明显不是最优解的子问题,所以它能够在搜索过程中减少搜索空间,提高求解速度。

在背包问题中,分支限界法可以根据当前背包的剩余容量和价值上界,选择一个物品进行添加或不添加,从而生成子问题,并计算出子问题的解空间。通过不断分支、评估和剪枝,可以逐步搜索可能的解空间,并找到最优解。

需要强调的是,实际应用中,分支限界法的性能高度依赖于剪枝条件的设置和启发式规则的选择。不同的问题可能需要设计不同的剪枝策略,以在搜索空间中更有效地寻找最优解。

4. 聚类算法(层次,密度,网格)

聚类算法是一类常用的无监督学习算法,用于将相似的数据样本分组成具有相似特征的簇。层次聚类、密度聚类和网格聚类是三种常见的聚类算法。

    1. 层次聚类(Hierarchical Clustering):层次聚类是一种基于树形结构的聚类方法,可分为自上而下的凝聚层次聚类和自下而上的分裂层次聚类。
      • 凝聚层次聚类从每个样本开始,逐步合并最相似的簇,直到所有样本都合并为一个簇。通过计算簇间的相似度来确定合并的次序。
      • 分裂层次聚类从一个包含所有样本的簇开始,逐步将簇分裂为更小的簇,直到每个样本成为一个独立簇。通过计算簇内的相似度来确定分裂的方式。
    1. 密度聚类(Density-based Clustering):密度聚类算法将簇定义为高密度区域中的数据点,并且将低密度区域的数据点视为噪声或边界点。
      • DBSCAN(Density-Based Spatial Clustering of Applications with Noise)是最常用的密度聚类算法。它通过确定样本的密度和邻域关系来识别核心样本、邻域样本和噪声。
    1. 网格聚类(Grid-based Clustering):网格聚类算法将数据空间划分为规则的网格单元,并在每个单元中进行聚类。
      • STING(Statistical Information Grid)和CLIQUE(CLustering InQUEst)是两个常见的网格聚类算法,它们通过统计信息和关联规则来进行聚类。

这些聚类算法各有优劣,适用于不同的数据分布和应用场景。选择合适的聚类算法需要考虑数据的特征以及聚类目标。

5. A*算法

A算法是一种基于启发式搜索的路径规划算法,用于在图形或网络中找到最短路径。它通过评估每个节点的代价函数(启发式函数),结合节点的实际代价和启发式估计,来选择下一个要扩展的节点,以尽可能快地达到目标节点。 具体而言,A算法在搜索过程中维护两个重要的值。第一个值是G值,表示从起始节点到当前节点的实际代价。第二个值是H值,即启发式函数估计的从当前节点到目标节点的代价。

A*算法的搜索过程可以概括为以下步骤:

  1. 创建一个优先级队列(通常使用最小堆),将起始节点加入队列,并将其G值设置为0。
  2. 从队列中选取代价最低的节点进行扩展,即选择F值(F = G + H)最小的节点。
  3. 对于选中的节点,计算其子节点的G值和H值,并将子节点加入队列。
  4. 重复步骤2和3,直到找到目标节点或队列为空。

A*算法的优势在于利用启发式函数的估计,可以在搜索过程中有针对性地选择扩展节点,从而减少搜索的时间和空间复杂度。它在解决路径规划等问题时表现出色,尤其在图形或网络较大的情况下。

需要注意的是,A算法的性能高度依赖于所选择的启发式函数。一个良好的启发式函数应该能够提供准确的估计值,以便A算法能够尽可能地接近最优解。但有时可能会存在启发式函数引起的误导,导致找到的路径并非最短路径。因此,在使用A*算法时,选择合适的启发式函数是非常重要的。

6. 哈希算法

哈希算法(Hashing)是一种将输入数据(称为“键”或“消息”)通过哈希函数转换为固定长度的输出值(称为哈希值或散列值)的算法。它主要用于数据的索引、加密、校验等应用。 哈希算法的特点是将任意长度的输入数据转换为固定长度的哈希值。无论输入数据的大小如何,生成的哈希值长度是固定的。这个固定长度通常较短,例如32位或64位,使得哈希值占用的空间相对较小。此外,相同的输入数据将始终生成相同的哈希值,而不同的输入数据很难生成相同的哈希值(即哈希冲突的概率非常低)。

哈希算法具有以下几个重要的特性:

  1. 一致性:相同的输入将始终生成相同的哈希值。
  2. 定长输出:无论输入数据的大小如何,哈希值的长度是固定的。
  3. 高效性:计算哈希值的过程应该是高效的,不受输入数据大小的影响。
  4. 碰撞概率低:不同的输入数据生成相同哈希值的概率应该非常低。

哈希算法的应用非常广泛。其中一些主要应用包括:

  • 数据索引:哈希算法可以将键映射到索引,以快速查找和访问数据。
  • 数据校验:通过比较哈希值,可以验证数据的完整性,确保数据在传输或存储过程中没有被篡改。
  • 加密和安全:哈希算法可用于对密码进行哈希,以存储和验证用户凭据,以及生成数字签名和消息认证码等安全功能。

常见的哈希算法包括MD5、SHA-1、SHA-256等,它们在不同的安全性和性能要求下被广泛使用。需要注意的是,随着计算能力的提升,一些传统的哈希算法可能会面临安全性问题,因此在使用时应根据具体需求选择适当的哈希算法。

7. 线性回归

线性回归是一种用于建立和预测连续数值输出的机器学习算法。它建立一个线性关系的数学模型,将输入特征与输出变量之间的关系建模为一个线性方程。 具体来说,线性回归使用输入特征的线性组合来预测输出变量的值。对于简单线性回归,只有一个输入特征,模型的线性方程可以表示为:y = mx + b。其中,y是输出变量的预测值,x是输入特征的值,m是斜率(表示特征对输出变量的影响),b是截距(表示在输入特征为0时的预测输出值)。

线性回归的目标是找到最佳的斜率和截距值,使得模型预测的值与真实的输出值之间的差异最小化。这通常通过最小化平方误差来实现,即使得预测值和实际值的差的平方和最小。这一方法称为最小二乘法。

线性回归可用于以下场景:

  1. 数据分析和预测:通过对输入特征和输出变量之间的线性关系建模,可以预测未来的观测值,或分析变量之间的关系。
  2. 特征选择:线性回归可以用于评估每个特征对输出变量的影响,并选择对模型预测能力最有贡献的特征。
  3. 解释变量:线性回归可以提供每个特征的系数,这些系数表示了特征对输出变量的影响程度。

要训练线性回归模型,通常使用最小二乘法(例如正规方程)或优化算法(例如梯度下降法)来最小化预测值和实际值之间的差异。在训练完成后,可以使用模型进行预测,提供输入特征的值,即可得到输出变量的预测值。

线性回归是一种简单但强大的机器学习算法,它在各种领域和问题中都有广泛的应用,如经济学、社会科学、金融预测等。

8. 支持度与置信度计算

支持度(Support)和置信度(Confidence)是关联规则中常用的两个度量指标。 支持度衡量的是一个关联规则在数据集中出现的频率,表示给定条件的事件发生的概率。它可以被定义为关联规则中同时出现的项集在数据集中出现的频率。支持度可以帮助我们找到频繁项集,即在数据集中经常同时出现的项集。

支持度的计算公式为:
Support(A→B) = P(A∪B)
其中,A和B分别表示关联规则的前项和后项。P(A∪B)表示同时包含A和B的事务的概率。

置信度衡量的是关联规则的准确性,即在前项出现的条件下,后项出现的概率。它可以被定义为给定前项的条件下同时出现的项集在数据集中出现的频率。置信度可以帮助我们评估关联规则的可靠性和相关性。

置信度的计算公式为:
Confidence(A→B) = P(B|A) = P(A∪B) / P(A)
其中,P(B|A)表示在前项A发生的条件下后项B发生的概率。P(A∪B)表示同时包含A和B的事务的概率,P(A)表示前项A出现的概率。

以购物篮分析为例,假设我们有一个超市的交易数据集,包含了许多购物篮的记录。我们想要计算一条关联规则 “牛奶→面包” 的支持度和置信度。

假设数据集中有100个购物篮,其中有50个购物篮同时包含了牛奶和面包,那么该关联规则的支持度为:
Support(牛奶→面包) = 50 / 100 = 0.5

假设有60个购物篮中有牛奶,其中有50个购物篮同时包含了牛奶和面包,那么该关联规则的置信度为:
Confidence(牛奶→面包) = 50 / 60 ≈ 0.83

支持度和置信度是关联规则中常用的度量指标,可用于评估关联规则的重要性和准确性。高支持度的规则表示在数据集中经常同时出现,而高置信度的规则表示在给定条件下具有较高的可靠性。

9. 数据清洗方法

数据清洗是数据预处理的重要步骤,目的是去除无效、错误或冗余的数据,使数据适合于后续的分析和建模。以下是一些常用的数据清洗方法:

  1. 处理缺失值:检测和处理数据中的缺失值是数据清洗的关键步骤。可以通过删除包含缺失值的行、使用默认值填充缺失值、通过插值方法填充缺失值或使用机器学习算法预测缺失值来处理缺失值。
  2. 处理重复值:检测和处理数据中的重复值是消除冗余数据的重要步骤。可以通过删除重复的行或使用合适的数据去重技术(如哈希算法、RemoveDuplicates函数等)来处理重复值。
  3. 异常值处理:检测和处理数据中的异常值可以避免它们对分析和建模的影响。可以使用统计方法(如3σ原则)或基于模型的方法(如聚类、回归等)来识别和处理异常值,可以选择删除、替换或使用插值方法进行异常值的处理。
  4. 数据类型转换:将数据转换为正确的数据类型有助于提高数据的一致性和可用性。例如,将文本字符串转换为数值类型、将日期时间转换为日期时间对象、将分类变量转换为数值编码等。
  5. 处理不一致的数据:数据可能存在不一致的情况,如大小写混用、拼写错误等。通过进行统一化,如转换为小写字母、使用拼写检查等,可以提高数据的一致性。
  6. 特殊字符处理:数据中可能存在特殊字符、符号或噪声,如不可打印字符、换行符等。可以使用正则表达式或字符串处理方法将这些特殊字符进行处理或删除。
  7. 数据格式统一:数据的格式应该一致,如日期格式、货币格式、单位格式等。可以使用日期函数、格式化方法或字符串操作来统一数据的格式。
  8. 处理不完整的数据:某些情况下,数据可能不完整,例如有些字段没有填写。可以根据领域知识,使用默认值或其他补全方式来填充不完整的数据。
  9. 特征标准化:在某些情况下,数据的特征可能具有不同的尺度或范围。通过标准化或归一化等方法,可以将所有的特征转换为相同的尺度,以便在后续的分析中比较和处理。

这些是常见的数据清洗方法,具体方法的选择取决于数据的特征和问题的需求。同时,进行数据清洗时,应该根据领域知识,理解数据背后的含义,并与数据的所有者和使用者进行充分的沟通和协商。

10. 常见数据决策算法

以下是一些常见的数据决策算法:

  1. 决策树(Decision Tree):决策树是一种基于树状结构的分类和回归算法。它通过对数据集进行递归的二分划分,构建一棵树形结构来进行决策。决策树易于理解和解释,并且可以处理各种类型的数据。常用的决策树算法包括ID3、C4.5和CART等。
  2. 随机森林(Random Forest):随机森林是一种集成学习算法,通过在训练集上训练多棵决策树并综合它们的预测结果来进行决策。每棵决策树由随机选择的特征子集进行训练,通过投票或平均的方式来得出最终的决策结果。随机森林具有较高的准确性和鲁棒性,并且对于大型数据集和高维数据有较好的适应性。
  3. 朴素贝叶斯(Naive Bayes):朴素贝叶斯是一种基于贝叶斯定理的分类算法。它假设特征之间是独立的,并使用贝叶斯公式来计算给定特征的条件概率,从而进行分类。朴素贝叶斯算法具有简单快速、适用于高维数据和对缺失数据不敏感等优点。
  4. 逻辑回归(Logistic Regression):逻辑回归是一种广义线性模型,用于解决二分类问题。它使用逻辑函数将输入特征映射到一个概率值,并根据概率值进行分类决策。逻辑回归具有可解释性强、训练和预测速度快的特点。
  5. 支持向量机(Support Vector Machines,SVM):支持向量机是一种在高维空间中进行分类和回归的有监督学习算法。它通过找到一个最优的超平面(或者更一般地,一个最优的分割超平面)来进行分类。支持向量机具有对高维数据处理能力强、泛化能力好的特点。
  6. K最近邻(K-Nearest Neighbors,KNN):K最近邻是一种基于实例的分类算法,它根据与待分类实例最近的K个训练实例的标签进行决策。KNN可以处理多分类问题,并且对于训练数据分布不规则的情况也适用。
  7. 强化学习(Reinforcement Learning):强化学习是一种机器学习方法,用于训练智能体从与环境的交互中学习如何做出决策。强化学习的目标是通过最大化累积奖励来找到最优的决策策略。

这些算法都是常见的数据决策算法,在不同的问题和数据集上可能具有不同的表现。选择适当的算法要根据具体的问题描述、数据特征以及算法的优缺点进行综合考虑。

11. 大数据特点

老师PPTimage.png 大数据的特点常常被总结为4V,即数据的体量(Volume)、多样性(Variety)、速度(Velocity)和价值(Value)。

  1. 体量(Volume):体量指的是大数据的规模或大小。大数据通常以TB、PB甚至EB级别的数据量出现。与传统规模的数据相比,大数据的庞大体量需要使用特殊的技术和工具来存储、处理和分析。
  2. 多样性(Variety):多样性指的是大数据的来源和形式的多样性。大数据来自各种不同的源头,例如结构化数据(如传统数据库中的表格数据)、半结构化数据(如XML文件、日志文件)和非结构化数据(如文本、图像、音视频等)。这种多样性要求在处理和分析大数据时具备处理不同格式和类型数据的能力。
  3. 速度(Velocity):速度指的是大数据的生成和处理速度。大数据往往是实时或近实时产生的,例如社交媒体平台上的实时数据流、物联网设备产生的传感器数据等。这要求对大数据进行快速、及时的处理和分析,以便能够实时获取有用的信息和见解。
  4. 价值(Value):价值指的是大数据中蕴含的潜在商业价值和洞察力。大数据分析的主要目标是从大量的数据中提取有价值的信息、发现新的趋势、预测未来的趋势,并为决策和创新提供支持。通过深入分析和挖掘大数据,可以发现隐藏在数据中的机会和价值。

这些4V特点使得大数据的处理和分析变得更加具有挑战性。企业和组织需要使用大数据技术和工具,如分布式计算、机器学习和人工智能等,来充分利用大数据的潜力,为业务决策和创新提供支持。

12. 稀疏与特征提取方法

稀疏性和特征提取是机器学习中处理高维数据和减少冗余的常用方法和技术。下面介绍一些常见的稀疏性处理和特征提取方法: 稀疏性处理方法:

  1. L1正则化(L1 Regularization):通过在模型的损失函数中添加L1范数惩罚项,使得模型倾向于选择少数非零的特征,从而实现稀疏性。L1正则化可以应用于线性回归、逻辑回归等模型中。
  2. L2正则化(L2 Regularization):与L1正则化类似,但L2正则化倾向于让特征的系数趋近于零而非完全等于零。L2正则化一般通过在损失函数中添加L2范数惩罚项实现,能有效降低特征的权重,实现稀疏性。
  3. Elastic Net:Elastic Net是L1正则化和L2正则化的组合,既能够选择重要的特征,也能够对特征进行缩减,同时兼顾了L1和L2正则化的优点。
  4. 基于树模型的特征选择:通过决策树、随机森林等树模型,可以计算特征的重要性,然后选择重要特征。树模型中的特征重要性可以通过基尼系数、信息熵等指标进行衡量。

特征提取方法:

  1. 主成分分析(Principal Component Analysis,PCA):PCA是一种常用的降维方法,能够将高维数据转换为低维空间的主成分。主成分是原始特征的线性组合,能够尽可能保留原始数据的信息。
  2. 线性判别分析(Linear Discriminant Analysis,LDA):LDA是一种有监督的线性降维方法,旨在最大化类内散度同时最小化类间散度。LDA能够保持不同类别之间的分离性,有助于提取重要特征。
  3. 非负矩阵分解(Non-negative Matrix Factorization,NMF):NMF是一种无监督的特征提取方法,将非负矩阵分解为两个非负矩阵的乘积。NMF能够提取数据的隐含结构,对于非负数据和文本数据等有较好的效果。
  4. 字典学习(Dictionary Learning):通过学习数据的字典(稀疏表示)和对应的编码,可以提取具有判别性的特征表示。字典学习可以通过迭代优化的方式来学习数据的字典和编码矩阵。

这些方法和技术根据不同问题和数据类型的特点,可以选择合适的稀疏性处理和特征提取方法来优化模型性能。在实际应用中,也可以根据具体情况选择多种方法的组合,以达到更好的效果。

13. 最短路径问题

老师PPT**Dijkstra算法
当所有 wij ≥0 时,本算法是用来求给定点vs到任一个点vj 最短路的公认的最好方法。
事实:如果P是D中从vs到vj的最短路,vi是P中的一个点,那么,从vs沿P到vi的路是从vs到 vi的最短路。
最短路的子路也是最短路。
image.png
image.png
Untitled ‑ Made with FlexClip.gif
image.png
image.png
Ford算法
image.png
image.png
image.png
image.png
Floyd算法**
image.png
image.png
image.png
image.png

14. 回溯

回溯(Backtracking)是一种常用的算法技巧,特别适用于解决组合优化问题、搜索问题和满足约束条件的问题。回溯算法通过递归的方式,尝试在问题的解空间中搜索所有可能的解,并在搜索的过程中根据问题的约束条件进行剪枝,减少无效的搜索路径,从而找到问题的解。 回溯算法的一般步骤如下:

  1. 定义问题的状态:将问题的解表示为一个状态或状态集合。
  2. 定义状态转移函数:根据问题的约束条件,定义状态转移函数,表示在当前状态下,如何转移到下一个状态。
  3. 定义终止条件:根据问题的要求定义终止条件,当满足终止条件时,得到问题的一个解或最优解。
  4. 进行回溯搜索:在当前状态下,按照状态转移函数生成下一个状态,并进行剪枝操作来减少无效的搜索路径。然后,递归地对下一个状态进行搜索,直到满足终止条件。

回溯算法的关键在于状态的回退。当搜索到某个状态时,如果发现该状态不满足问题的约束条件,或者已经搜索过该状态,就需要回退到之前的状态,并继续搜索其他可能的路径。通过不断地回退和探索,最终可以找到问题的解或最优解。

回溯算法的时间复杂度通常很高,因为它需要搜索整个状态空间。为了提高算法的效率,可以采用一些优化技巧,例如剪枝操作、启发式搜索、动态规划等。

回溯算法在很多经典问题中都有应用,比如八皇后问题、0/1背包问题、图的哈密顿回路等。对于具体的问题,需要根据其特点来设计相应的状态表示和状态转移函数,并合理选择回溯的搜索策略。

15. 属性量纲转换

属性量纲转换是指将具有不同量纲(单位)的属性进行转换,使它们具有相同的量纲。这是在机器学习和数据分析中常用的一项预处理技术,用于处理具有不同度量单位的属性或特征值,以确保它们在模型训练过程中能够被正确处理。 常见的属性量纲转换方法包括:

  1. 标准化(Standardization):
    标准化是将属性数据转换为均值为0、方差为1的标准正态分布。具体而言,对于每个属性,通过减去属性的均值,然后除以属性的标准差,可以实现标准化。标准化能够消除不同属性之间的量纲差异,使得属性具有可比性。
  2. 归一化(Normalization):
    归一化是将属性数据缩放到一个固定的范围,通常是0到1之间。归一化方法常用的有最大最小归一化和Z-Score归一化两种。最大最小归一化将属性值映射到指定的最小值和最大值之间,Z-Score归一化则将属性值转换为符合标准正态分布的形式,使得均值为0、方差为1。
  3. 对数转换(Log Transformation):
    对数转换是一种常用的非线性转换方法,特别适合用于处理偏态分布的数据。对数转换通过取属性值的对数来减小数据中的极端值,使得数据更符合正态分布。对数转换可以应用于属性的原始值,也可以应用于标准化或归一化后的值。
  4. 区间缩放(Scaling):
    区间缩放是将属性数据按比例缩放到一个区间,通常是[-1, 1]或[0, 1]区间。区间缩放可以通过简单的线性变换来实现,即对属性值进行线性映射。

属性量纲转换的选择应该根据数据的分布特征和预测模型的要求来确定。一般来说,线性模型(如线性回归、逻辑回归)对于标准化或归一化后的数据比较敏感,而树模型(如决策树、随机森林)对于原始数据或区间缩放后的数据更为适应。因此,在进行属性量纲转换时需要仔细考虑数据的性质和所使用算法的要求,以获得更好的模型性能。