steker Neka je zadana sljedeća situacija:
Neka je \mathcal{X} = \mathbb{R}, odnosno n = 1, i naravno \mathcal{Y} = \left\{-1, +1\right\}, te neka je skup primjera za učenje
\mathcal{D} = \left\{\left( x^{(i)}, y^{(i)} \right)\right\} = \left\{\left(2, -1\right), \left(6, +1\right)\right\}
Jasno je da su primjeri linearno odvojivi.
Odgovor D implicira da postoji mogućnost da će SVM izabrati ovakvu hipotezu
h \left(x ; w_1, w_0\right) = x - 5
odnosno da je w_1 = 1 i w_0 = -5
što bi značilo da je granica x = 5
problem je kod ovog “… za najbliže primjere” jer se tu nigdje ne spominje da SVM udaljenost najbližih primjera mora maksimizirati, pa je prema tom odgovoru moguće da mu je najbliži samo jedan primjer (u našem primjeru ova šestica), i za taj primjer da vrijedi y h(x) = 1. To naravno kod pravog SVM-a nije istina, jer on maksimizira minimalnu udaljenost, i to je sve ukodirano sa onim problemom minimizacije kvadrata vektora težina uz ograničenja da hipoteze moraju dati iznose apsolutno veće od 1.