E6_ML - KernelMethods - Examples Exercises.pdf
Il percettrone trova l’iperpiano per dati linearmente separabili, con diversi vantaggi:
Ma come facciamo a trovare il miglior iperpiano in task di separabilità lineare? Con i SVM, che fanno esattamente questo.
Equazione dell’iperpiano:
$$ w\cdot x + b=0 $$
Se il valore di $x$ soddisfa l’equazione, vuol dire che giace sull’iperpiano.
E se invece il punto non è sull’iperpiano? Possiamo comunque usare l’equazione per capire da che parte sta: se $wx+b$ è positiva, il ponto è sopra l’iperpiano, altrimenti sotto.
Con questo meccanismo funziona la regola di classificazione.
Dato un training example $(x,y)$, e un iperpiano definito da un vettore $w$ e un bias $b$, possiamo computare il numero $\beta = w\cdot x + b$ per trovare la distanza da quel punto e l’iperpiano.
Se moltiplichiamo $\beta$ per il valore di $y$,
$$ f = y(w\cdot x + b) $$
Il segno di $f$ sarà sempre: