Apr 21, 2011

Autocorrelation matrix and Hessian matrix in image processing

请先阅读 Corner detection@Wikipedia Harris corner 部分。
Autocorrelation matrix (or second moment matrix) A: 我觉得称为 correlation matrix 更为恰当。
注意自相关矩阵不能忽略加窗 W(u,v) 叠加,光有后面部分不能算。因为它类似协方差矩阵(covariance matrix),是一种期望。W 在实现中虽然是高斯窗,但不是起到平滑的作用。

实际上,所谓的 autocorrelation 是指二维随机向量 (Ix Iy) 的自相关,不同 position 算是不同的 samples.

Autocorrelation: is the cross-correlation of a signal with itself. 
统计学上,对于随机过程,自相关是 E{x(t)x(t+\tau)}(Wikipedia 上说等同于 autocovariance)
信号处理上,自相关是信号和其延迟版本的相关

Aucovariance 类似于 autocorrelation,但是考虑了 mean.

关键是图像处理上,怎么理解图像,是看为随机过程,还是看为一维或二维信号。

而上面所述的 autocorrelation 则是把(Ix Iy)图像看为随机向量。

为什么 Autocorrelation matrix 能用于描述一个点局部邻域的梯度分布呢?参见Corner detection@Wikipedia Harris corner 部分
为什么能用 Det(A)/Trace(A) 来代表角点程度?
另A的特征值由大到小为a,b,且a=kb,则 ab/(a+b)=a/(1+k), k 太大或a太大,都会导致结果太小

Hessian Matrix:
要把图像想象为三维空间中的曲面。
(u v) -> (u v I(u v)) 为 surface patch
用于描述 local curvature of a function of many variables
由泰勒展开
H 的特征值正比于 principle curvatures
参见
1. Computer vision: A modern approach
2. Elementary Differential Geometry - Andrew Pressley
H 衡量的是曲面和其切平面的偏差,斜平面的 Hessian 为0,也可以理解为对局部曲面的抛物面近似。
principle curvatures 找到曲率最大的和最小的 normal curve,其方向为 principle directions.
这两个曲率为 principle curvatures.
principle curvatures 和 principle directions 对应 H 的特征值和特征向量。

0 comments: