要点回顾
- VC 维(Vapnik-Chervonenkis dimension) 是指:存在大小为 m 的样本集能被假设空间 H 完全打散(shatter),且不存在大小为 m+1 的样本集能被打散,则 VC(H)=m。
- 若对每一个正整数 m 都能找到可被打散的 m 个点,那么 VC(H)=∞。
1. 定义最近邻假设空间 H
给定一个度量空间 (X,d)(下面可取 Rd 与欧氏距离),
对任何有限标注训练集
S={(x1,y1),…,(xn,yn)},xi∈X,yi∈{0,1},
定义1-NN 分类器
hS(x)=yi∗,i∗=arg1≤i≤nmind(x,xi),
若有平局,可规定任一确定的破局规则(对我们的证明无影响)。
把所有这样的 hS 收集起来,就得到假设空间 H。
2. 构造可被打散的任意大小样本集
给定任意正整数 m,构造互不相同且彼此间距大于 0 的点
Cm={x1,…,xm}⊂X.
最直观的做法:令 xi=(i,0,…,0),点与点的距离等于 ∣i−j∣>0;
也可以在单位圆内取任意互不相邻的小球中心,只要保证 每个点到自身的距离 0 与 到其它点的距离 >0 即可。
3. 任意标注均可实现
- 取这 m 个点的任意标签向量 (y1,…,ym)∈{0,1}m。
- 构造训练集 S={(xi,yi)}i=1m。
- 考察诱导出的 1-NN 分类器 hS。
因为
d(xi,xi)=0<d(xi,xj)(j=i),
对每个 xi 来说 它自身就是唯一最近邻,于是
hS(xi)=yi,i=1,…,m.
换言之,不论怎样给 Cm 标签,都存在 H 中的某个假设恰好实现这些标签。
4. 推论:VC 维为无穷大
- 上述步骤对任何正整数 m 都成立 ⇒ 对每个 m 都能找到大小为 m 的集合被 H 打散;
- 因此 VC(H) 不受上界约束,记为 VC(H)=∞。
备注与扩展
- k-NN(固定有限 k) 的假设空间同样 VC 维无限,只需把每个点复制 k - 1 个靠得足够近的同标签伪点,使得目标点的 k 个最近邻仍由其自身阵营构成。
- 证明并不依赖于欧氏空间的维数,只要求度量满足 d(x,x)=0<d(x,y)(x=y)。
- 该结论说明最近邻方法的“表面”模型复杂度极高;其实际泛化能力更多依赖于平滑的度量结构、样本量以及留出集验证等技巧,而非传统 VC 理论能充分解释。
这样就完成了“最近邻分类器假设空间 VC 维为无穷大”的证明。