Metoda podpůrných vektorů
Na rozdíl od Fisherovy lineární diskriminace, která stanovuje lineární hranice, ať už jsou třídy lineárně separabilní či nikoliv, a mezi lineárně separabilními a neseparabilními úlohami nijak nerozlišuje, metoda podpůrných vektorů umožňuje odlišit jednotlivé typy úloh (znázorněné na Obr. 2). Mluvíme tedy o:
- lineární verzi metody podpůrných vektorů pro lineárně separabilní třídy (anglicky maximal margin classifier),
- lineární verzi metody podpůrných vektorů pro lineárně neseparabilní třídy (anglicky support vector classifier),
- nelineární verzi metody podpůrných vektorů (anglicky support vector machine).
Přesto se však v angličtině často mezi těmito třemi situacemi terminologicky nerozlišuje a používá se obecný název „support vector machines“ (SVM). I v češtině se mnohdy všechny tyto tři případy označují souhrnně jako „metoda podpůrných vektorů“.
Dříve, než si představíme jednotlivé verze metody podpůrných vektorů, krátce srovnáme výhody a nevýhody Fisherovy lineární diskriminace a metody podpůrných vektorů. Výhodou SVM je, že na rozdíl od FLDA nemá předpoklady normálního rozdělení. Nevýhodou oproti FLDA však je, že v případě lineárně neseparabilních úloh vyžaduje SVM stanovení parametrů (např. parametru C) a u nelineární SVM dokonce i volbu typu jádra. I přes nutnost stanovování parametrů však SVM zůstává jedním z nejpoužívanějších klasifikačních algoritmů vůbec.