0%

Perceptron

感知器的分类函数为 $f(x) = sign(wx + b) $,在阅读书籍时发现有两种update rule:

为什么会产生两种形式呢?

  • 第一种其实是误分类驱动的,对于错误集 $M =\lbrace x_i | f(x_i) \ne y_i \rbrace $, 其损失函数为:

我们采用随机梯度下降法,每次随机选取一个误分类点$(x_i, y_i)$ ,得到更新法则(1)。这种对错误分类结果进行修正的方法可以通过迭代解释。假设有误分类实例 $x_i$,更新前$w^{t}$,更新后$w^{t+1}$,迭代前后的函数关系为:

其中$\delta > 0$,现在分情况讨论:

  1. $y_i = +1, f^t(x_i) = -1$

    修正后函数值向+1方向改变

  2. $y_i = -1, f^t(x_i) = +1$

    修正后函数值向-1方向改变

  • 第二种是MSE推理得到的,,也被称作Hebb’s rule,考虑损失函数:

求导后使用随机梯度下降法更新便得到式子(2)