实际上还是先标准化,再求内积。也就是求相关系数,或者进行线性回归,列回归方程,找决定系数。这两个向量的线性程度越高,相关系数就越高。
这个有现实意义。
因为一般两个随机向量。他们的单位大多是不一样。所以需要先统一到一个尺度上来,也就是进行标准化。
两个向量的内积与它们的夹角有关。但是因为这个夹角还取决于两个向量的模,所以只有在标准化以后才能用内积直接表示这个夹角,也就是相关性。
后面那个我觉得好像一般实际中是,当求出相关系数之后,可以对相关系数进行假设检验。看是否显著。
【 在 gnwd 的大作中提到: 】
: 还是不大一样
: 主要是概念上的区别。
: 比如平面上的N个点,要看他们是不是有线性形态,从样本协方差来算,构成的两个向量(这N个点的X坐标构成一个向量,Y坐标构成另一个)就是N维的空间的,计算出来的内积并不是两个N维随机向量的协方差(一会补充解释),只能叫做内积。如果是想要计算两个N维随机向量的协方差,如果不知道总体分布,那还得采样,一个随机向量有M个样本,每个样本都是N维向量,那这个时候,协方差怎么算呢?
: ...................
--
修改:Hihere FROM 139.162.57.*
FROM 139.162.57.*