模型常见距离公式

最近须要不断沉淀,距离公式永远不能忘记web

欧氏距离

最简单直接的距离度量方法
在这里插入图片描述机器学习

标准化欧氏距离

标准化欧氏距离是针对欧氏距离的缺点而做的一种改进。
思路:既然数据各维份量的分布不同,那先将各个份量都“标准化”到均值、方差相等。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-fHFQ0A7c-1584257314937)(在这里插入图片描述)]](https://img-blog.csdnimg.cn/20200315152810535.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3B0Nzk4NjMzOTI5,size_16,color_FFFFFF,t_70)svg

曼哈顿距离

方格型的区域,从一点到达另外一点,显然车辆行走的距离不是两点间的直线距离,而是能够认为不一样坐标系上两位置的差值求和
在这里插入图片描述学习

切比雪夫距离

在这里插入图片描述

闵可夫斯基距离(Minkowski Distance)

闵氏距离不是一种距离,而是一组距离(以上三组距离公式)的定义,是对多个距离度量公式的归纳性的表述。
在这里插入图片描述
闵氏距离的缺点:
将各个份量的量纲(scale),也就是将单位相同的看待;
未考虑各个份量的分布(指望,方差等)多是不一样的xml

马氏距离

两个正态分布图,它们的均值分别为a和b,但方差不同,则图中的A点离哪一个整体更近?或者说A有更大的几率属于谁?显然,A离左边的更近,A属于左边整体的几率更大,尽管A与a的欧式距离远一些。这就是马氏距离的直观解释。
在这里插入图片描述
马氏距离表示 数据的协方差距离。它是一种有效的计算两个位置样本集的类似度的方法
与欧式距离不一样的是,它考虑到各类特性之间的联系,即独立于测量尺度。
马氏距离定义:设整体G为m维整体(考察m个指标),均值向量为μ=(μ1,μ2,… …,μm,),协方差阵为∑=(σij),
则样本X=(X1,X2,… …,Xm,)与整体G的马氏距离定义为:
在这里插入图片描述
马氏距离也能够定义为两个服从同一分布而且其协方差矩阵为∑的随机变量的差别程度:若是协方差矩阵为单位矩阵,马氏距离就简化为欧式距离;若是协方差矩阵为对角矩阵,则其也可称为正规化的欧式距离。
马氏距离特性
1)量纲无关,排除变量之间的相关性的干扰;
2)马氏距离的计算是创建在整体样本的基础上的,若是拿一样的两个样本,放入两个不一样的整体中,最后计算得出的两个样本间的马氏距离一般是不相同的,除非这两个整体的协方差矩阵碰巧相同;
3)计算马氏距离过程当中,要求整体样本数大于样本的维数,不然获得的整体样本协方差矩阵逆矩阵不存在,这种状况下,用欧式距离计算便可。
4)还有一种状况,知足了条件整体样本数大于样本的维数,可是协方差矩阵的逆矩阵仍然不存在,好比三个样本点(3,4),(5,6),(7,8),这种状况是由于这三个样本在其所处的二维空间平面内共线。这种状况下,也采用欧式距离计算。blog

余弦距离(Cosine Distance)

几何中,夹角余弦可用来衡量两个向量方向的差别;机器学习中,借用这一律念来衡量样本向量之间的差别。
在这里插入图片描述
在这里插入图片描述图片

汉明距离(Hamming Distance)

两个等长字符串s1与s2的汉明距离为:将其中一个变为另一个所须要做的最小字符替换次数。ci

杰卡德距离(Jaccard Distance)

杰卡德类似系数(Jaccard similarity coefficient):两个集合A和B的交集元素在A,B的并集中所占的比例,称为两个集合的杰卡德类似系数,用符号J(A,B)表示:
在这里插入图片描述
杰卡德距离(Jaccard Distance):与杰卡德类似系数相反,用两个集合中不一样元素占全部元素的比例来衡量两个集合的区分度:
在这里插入图片描述字符串