感知器的分类函数为 $f(x) = sign(wx + b) $,在阅读书籍时发现有两种update rule:
为什么会产生两种形式呢?
- 第一种其实是误分类驱动的,对于错误集 $M =\lbrace x_i | f(x_i) \ne y_i \rbrace $, 其损失函数为:
我们采用随机梯度下降法,每次随机选取一个误分类点$(x_i, y_i)$ ,得到更新法则(1)。这种对错误分类结果进行修正的方法可以通过迭代解释。假设有误分类实例 $x_i$,更新前$w^{t}$,更新后$w^{t+1}$,迭代前后的函数关系为:
其中$\delta > 0$,现在分情况讨论:
$y_i = +1, f^t(x_i) = -1$
修正后函数值向+1方向改变
$y_i = -1, f^t(x_i) = +1$
修正后函数值向-1方向改变
- 第二种是MSE推理得到的,,也被称作Hebb’s rule,考虑损失函数:
求导后使用随机梯度下降法更新便得到式子(2)