问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

余弦相似度(Cosine Similarity)

创作时间:
作者:
@小白创作中心

余弦相似度(Cosine Similarity)

引用
CSDN
1.
https://blog.csdn.net/weixin_43156294/article/details/145274120

余弦相似度是一种用于衡量两个向量之间相似度的度量方法。在向量空间模型中,它通过计算两个向量夹角的余弦值来确定它们的相似程度。对于两个非零向量A和B,余弦相似度的取值范围是[-1,1]。当余弦相似度为1时,表示两个向量完全相似;当为-1时,表示完全相反;当为0时,表示两个向量正交(即相互垂直,没有任何相似成分)。

一、数学公式

对于两个n维向量A = (a1, a2, ⋯, an)和B = (b1, b2, ⋯, bn),余弦相似度的计算公式为:

Cosine Similarity(A,B) = (∑i=1n aibi) / (√∑i=1n ai2 × √∑i=1n bi2)

分子部分∑i=1n aibi是向量A和B的内积,它体现了两个向量在各个维度上的分量乘积之和,反映了两个向量在同一方向上的“协同程度”。分母部分√∑i=1n ai2 × √∑i=1n bi2是两个向量的模(长度)的乘积,其中√∑i=1n ai2是向量A的模,√∑i=1n bi2是向量B的模。

二、计算步骤示例

假设我们有两个向量A = (1, 2, 3)和B = (2, 4, 6)。

首先计算分子,即内积:

∑i=13 aibi = 1×2 + 2×4 + 3×6 = 2 + 8 + 18 = 28

然后计算向量A的模:

√∑i=13 ai2 = √(12+22+32) = √(1 + 4 + 9) = √14

接着计算向量B的模:

√∑i=13 bi2 = √(22+42+62) = √(4 + 16+36) = √56 = 2√14

最后计算余弦相似度:

Cosine Similarity(A,B) = 28 / (√14×2√14) = 28 / (2×14) = 1

这表明向量A和B是完全相似的,从向量本身也可以看出B是A的两倍,方向完全相同。

三、优点与局限性

优势

  1. 计算简单高效
    余弦相似度的计算主要基于向量的内积和向量的模,这些运算在数学上是比较基础和高效的。对于高维向量空间,其计算复杂度主要取决于向量的维度,通常是线性时间复杂度O(n)(其中n是向量维度)。例如,在处理大规模文本数据时,将文本转换为词向量(可能是几百维甚至上千维)后,能够快速计算余弦相似度,从而可以在短时间内处理大量的文本对之间的相似度计算。
    计算公式简单明了,易于理解和实现。在编程实现过程中,只需要按照公式进行基本的乘法、加法和开方运算即可。以Python为例,使用NumPy库可以很方便地实现余弦相似度的计算。

  2. 与向量长度无关
    余弦相似度只关注向量的方向,不考虑向量的长度。这在很多应用场景中是非常有优势的。例如,在文本相似度计算中,两篇文本的长度(即文档中包含的单词数量)可能不同,但只要它们在主题和语义方向上一致,就可以得到较高的余弦相似度。比如一篇简短的科技新闻和一篇详细的科技论文,尽管篇幅差异巨大,但如果都在讨论同一种新技术,通过合适的向量表示(如词向量或TF-IDF向量),它们之间仍能有较高的余弦相似度。
    在推荐系统中,对于用户兴趣向量和物品特征向量,即使用户兴趣的强烈程度(向量长度可以理解为兴趣强度)不同,或者物品的某些特征明显程度(也可以用向量长度表示)不同,只要方向一致,仍然可以认为用户对该物品有较高的兴趣倾向。例如,一个用户对科幻电影有中等程度的喜好,另一个用户对科幻电影有强烈的喜好,他们与某一部科幻电影的特征向量的余弦相似度都可能较高,从而都有可能被推荐这部电影。

  3. 对高维数据适应性良好
    在高维数据空间中,余弦相似度能够有效地衡量向量之间的相似程度。随着数据维度的增加,它依然能够稳定地工作。例如,在现代自然语言处理中,词向量通常是高维的(如300维或更多),通过余弦相似度可以很好地比较这些高维词向量之间的语义相似度。
    对于图像识别等领域,经过特征提取后的图像特征向量也可能是高维的,余弦相似度能够在这些高维向量之间进行相似度判断,帮助完成图像检索、分类等任务。例如,在一个拥有大量高分辨率图像的数据库中,利用卷积神经网络提取图像特征向量,通过余弦相似度可以高效地找到与给定图像相似的其他图像。

  4. 具有直观的几何解释
    从几何角度看,余弦相似度就是两个向量夹角的余弦值。这种几何解释使得它的结果非常直观易懂。当余弦相似度为1时,表示两个向量夹角为0°,即完全重合,方向完全相同;当为0时,表示夹角为90°,两个向量正交,没有相似成分;当为-1时,表示夹角为180°,方向完全相反。这种直观的解释有助于在各种应用场景中理解和解释结果。
    在数据分析和可视化中,例如对用户行为数据进行可视化后,通过余弦相似度来衡量不同用户行为向量之间的关系,可以根据几何意义直观地判断用户之间是相似(夹角小)还是不相似(夹角大)。

劣势

  1. 未考虑维度重要性差异
    余弦相似度平等地对待向量的每个维度,没有考虑不同维度在衡量相似度时可能具有不同的重要性。在实际应用中,某些维度可能对相似度的判断更为关键。例如,在文本向量表示中,如果使用词袋模型,所有单词(维度)都被同等对待,但实际上一些关键词可能比其他普通词汇更能体现文本的主题和相似度。
    在产品推荐的场景中,对于用户兴趣向量和产品特征向量,如果某些产品特征(如电子产品的芯片性能)对用户的购买决策至关重要,而其他特征(如产品外观颜色)相对次要,余弦相似度无法体现这种重要性差异,可能会导致推荐结果不够精准。

  2. 只能衡量线性关系相似程度
    余弦相似度本质上是基于线性代数的方法,它主要衡量的是线性关系下的相似程度。对于非线性关系的对象,其效果可能不佳。例如,在一些复杂的数据分布场景中,数据点之间可能存在复杂的非线性关系,仅仅依靠余弦相似度可能无法准确捕捉对象之间的真实关系。
    在处理具有复杂语义关系的文本时,如隐喻、反讽等修辞手法,简单的向量表示和余弦相似度可能无法很好地理解文本之间的深层次关系。同样,在图像数据中,如果图像的特征之间存在复杂的非线性组合关系,余弦相似度可能无法充分挖掘这些关系来准确判断图像的相似性。

  3. 对数据分布敏感
    余弦相似度的结果可能会受到数据分布的影响。在不同的数据分布情况下,相同的余弦相似度值可能代表不同的实际相似程度。例如,在一个数据集中,如果数据点分布较为稀疏,向量之间的夹角可能普遍较大,此时余弦相似度较低,但这并不一定意味着数据点之间的实际差异很大;相反,在一个数据密集的区域,余弦相似度较高,但实际差异可能也比较显著。
    在文本数据中,如果词汇表中的词汇分布不均匀(如某些领域的专业词汇出现频率很低,而一些通用词汇出现频率很高),那么通过词向量计算余弦相似度时,可能会受到这种不均匀分布的影响,导致相似度判断出现偏差。

  4. 缺乏语义理解深度
    尽管余弦相似度可以在一定程度上衡量向量之间的相似性,但它缺乏对语义的深入理解。在自然语言处理中,它只是基于向量的数学运算来判断相似度,对于文本的语义、语法、语用等方面的信息不能很好地利用。例如,对于两个句子,一个是主动语态,一个是被动语态,但表达的意思相同,余弦相似度可能会因为句子结构的不同而受到影响,无法准确地判断它们在语义上是等价的。

四、应用场景

1. 自然语言处理(NLP)

  • 文本分类
    原理:将文本转换为向量表示后,通过余弦相似度来判断新文本与已知类别文本向量的相似程度,从而确定新文本所属类别。例如,将新闻文章表示为词向量或TF-IDF向量,对于一篇新的新闻文章,计算它与体育类、娱乐类、科技类等不同类别文章向量的余弦相似度,将其分类到相似度最高的类别中。
    示例:假设有一个新闻分类系统,已经有体育类文章向量组(由多篇体育文章向量组成)和娱乐类文章向量组。一篇新文章经过处理后得到向量A,分别计算A与体育类文章向量组中各向量的余弦相似度的平均值S1,以及与娱乐类文章向量组中各向量的余弦相似度的平均值S2。如果S1 > S2,则将这篇新文章分类为体育类。

  • 文本聚类
    原理:把文本转换为向量后,根据余弦相似度来聚合相似的文本。可以从大量文本中发现主题相似的文本簇,每个簇代表一个主题或主题的一个子类别。例如,在学术文献聚类中,根据文献内容向量的余弦相似度将关于同一研究方向(如机器学习算法改进、生物基因编辑技术等)的文献聚集在一起。
    示例:给定一组学术论文向量,从第一篇论文向量开始,计算它与其他论文向量的余弦相似度。如果相似度超过一定阈值,就将这些论文归为一个簇。然后对未归类的论文重复这个过程,直到所有论文都被归类到某个簇或者形成新的簇。

  • 信息检索与问答系统
    原理:在搜索引擎中,将用户查询和文档都表示为向量,通过余弦相似度找到与用户查询最相关的文档。在问答系统中,用于衡量问题和答案候选文本之间的相关性。例如,当用户在搜索引擎中输入“人工智能在医疗领域的应用”,搜索引擎将用户查询转换为向量,与网页文档向量进行余弦相似度计算,将相似度高的网页排在前面。
    示例:对于一个问答系统,问题向量为Q,答案库中的答案向量分别为A1, A2, ⋯, An。计算Q与每个Ai的余弦相似度,选择相似度最高的几个答案作为推荐答案提供给用户。

  • 文本相似度分析(抄袭检测等)
    原理:比较两篇或多篇文本的相似度,判断是否存在抄袭或内容重复的情况。将文本转换为向量后,较高的余弦相似度意味着文本内容在某种程度上相似。例如,在学术论文抄袭检测中,比较待检测论文和已有论文的余弦相似度,若相似度过高,可能存在抄袭嫌疑。
    示例:两篇论文经过处理后得到向量P1和P2,计算它们的余弦相似度。如果相似度达到一定的高值(如0.8以上),就需要进一步检查是否存在抄袭,比如检查相似的段落、引用等细节。

2. 推荐系统

  • 基于内容的推荐
    原理:将用户兴趣和物品(如商品、电影、音乐等)的特征都表示为向量,通过余弦相似度计算用户对物品的兴趣程度。例如,在电影推荐中,用户对电影类型(如爱情、动作、科幻等)的喜好程度可以构成用户兴趣向量,电影本身的类型特征也可以构成电影向量,通过计算两者的余弦相似度来推荐电影。
    示例:用户U的兴趣向量为IU = (0.8, 0.2, 0.4)(分别表示对爱情、动作、科幻电影的喜好程度),电影M的特征向量为FM = (0.7, 0.3, 0.5)。计算它们的余弦相似度为S = (0.8×0.7 + 0.2×0.3+0.4×0.5) / (√(0.82+0.22+0.42)×√(0.72+0.32+0.52)),根据S的大小来决定是否推荐电影M给用户U。

  • 协同过滤中的相似用户或物品发现
    原理:在协同过滤推荐算法中,需要找到与目标用户相似的用户或者与目标物品相似的物品。通过余弦相似度来衡量用户-用户向量或物品-物品向量之间的相似性。例如,在电商推荐系统中,将用户购买行为向量(如购买商品的类别、频率等)进行比较,找到相似的用户,为目标用户推荐相似用户购买过的商品。
    示例:用户A的购买行为向量为VA = (1, 0, 1, 0)(表示购买了第一类和第三类商品,未购买第二类和第四类商品),用户B的购买行为向量为VB = (1, 1, 0, 0)。计算它们的余弦相似度,若相似度较高,说明用户A和B购买行为相似,可以将用户B购买过而用户A未购买的商品推荐给用户A。

3. 计算机视觉

  • 图像检索
    原理:将图像特征提取后表示为向量,通过余弦相似度在图像数据库中检索与给定图像相似的图像。例如,使用卷积神经网络(CNN)提取图像的特征向量,当用户输入一张风景照片时,计算该照片特征向量与数据库中其他风景照片特征向量的余弦相似度,返回相似度高的照片。
    示例:给定一张查询图像,其特征向量为Iq,图像数据库中有n张图像,特征向量分别为I1, I2, ⋯, In。计算Iq与每个Ii的余弦相似度,将相似度排名靠前的图像作为检索结果返回给用户。

  • 图像分类与聚类(辅助)
    原理:在图像分类和聚类过程中,余弦相似度可以作为一种辅助手段来衡量图像特征向量之间的相似性。例如,在对动物图像分类时,将动物图像特征向量进行比较,相似的动物(如不同品种的狗)可能具有较高的余弦相似度,有助于分类和聚类。
    示例:在一个动物图像聚类任务中,先提取图像的特征向量,然后计算向量之间的余弦相似度。将相似度高的图像聚为一类,比如将所有狗的图像聚为一类,所有猫的图像聚为一类等。

4. 数据挖掘与数据分析

  • 异常检测(辅助)
    原理:在数据集中,正常数据点之间的余弦相似度可能在一定范围内,而异常数据点与正常数据点的余弦相似度往往较低。可以通过计算数据点之间的余弦相似度来辅助发现异常数据。例如,在网络流量数据挖掘中,正常流量模式的数据向量之间有较高的余弦相似度,异常流量(如DDoS攻击流量)与正常流量数据向量的余弦相似度较低。
    示例:对于一个网络流量数据集,将每个流量数据片段表示为向量。计算各个向量之间的余弦相似度,建立正常流量相似度的阈值。当出现新的流量数据向量,若其与正常流量向量的余弦相似度低于阈值,则可能是异常流量。

  • 数据关联分析(辅助)
    原理:在分析多个数据属性之间的关联关系时,余弦相似度可以作为一种衡量指标。如果两个数据属性向量的余弦相似度较高,可能意味着它们之间存在较强的关联关系。例如,在分析客户购买行为数据时,比较购买商品A的客户特征向量和购买商品B的客户特征向量的余弦相似度,以判断商品A和B是否有关联(如是否存在配套购买的情况)。
    示例:在电商数据中,购买高端相机的客户特征向量(如年龄、消费能力等)与购买专业镜头的客户特征向量通过余弦相似度进行比较。如果相似度较高,可能表明购买高端相机和购买专业镜头这两个行为存在关联,商家可以据此进行套餐销售等营销活动。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号