arborele de decizie construiește modele de clasificare sau regresie sub forma unei structuri arborescente. Utilizează un set de reguli if-then care se exclude reciproc și este exhaustiv pentru clasificare. Regulile sunt învățate secvențial folosind datele de antrenament pe rând. De fiecare dată când se învață o regulă, tuplurile acoperite de reguli sunt eliminate. Acest proces este continuat pe setul de instruire până la îndeplinirea unei condiții de reziliere.
arborele este construit într-o manieră recursivă de sus în jos. Toate atributele ar trebui să fie categorice. În caz contrar, acestea ar trebui discretizate în avans. Atributele din partea de sus a arborelui au un impact mai mare asupra clasificării și sunt identificate folosind conceptul de câștig de informații.
un arbore de decizie poate fi ușor supra-montat generând prea multe ramuri și poate reflecta anomalii datorate zgomotului sau valorilor aberante. Un model supra-montat are o performanță foarte slabă asupra datelor nevăzute, chiar dacă oferă o performanță impresionantă asupra datelor de antrenament. Acest lucru poate fi evitat prin pre-tăiere care oprește construcția copacilor devreme sau post-tăiere care îndepărtează ramurile din copacul complet crescut.
Bayes naiv
Bayes naiv este un clasificator probabilistic inspirat de teorema Bayes sub o presupunere simplă, care este atributele sunt condițional independente.
clasificarea se realizează prin derivarea posteriorului maxim care este maxim p(ci / X) cu presupunerea de mai sus care se aplică teoremei Bayes. Această presupunere reduce foarte mult costul de calcul doar prin numărarea distribuției clasei. Chiar dacă presupunerea nu este valabilă în majoritatea cazurilor, deoarece atributele sunt dependente, Bayes surprinzător de naiv a reușit să funcționeze impresionant.
naiv Bayes este un algoritm foarte simplu de implementat și rezultate bune au obținut în majoritatea cazurilor. Poate fi ușor scalabil la seturi de date mai mari, deoarece necesită timp liniar, mai degrabă decât prin aproximare iterativă costisitoare, așa cum este utilizat pentru multe alte tipuri de clasificatori.
Bayes naiv poate suferi de o problemă numită problema probabilității zero. Când probabilitatea condiționată este zero pentru un anumit atribut, nu reușește să dea o predicție validă. Acest lucru trebuie stabilit în mod explicit folosind un estimator Laplacian.
rețele neuronale artificiale
>
rețeaua neuronală artificială este un set de unități de intrare / ieșire conectate în care fiecare conexiune are o greutate asociată cu ea inițiată de psihologi și neurobiologi pentru a dezvolta și testa analogii computaționali ai neuronilor. În timpul fazei de învățare, rețeaua învață prin ajustarea greutăților astfel încât să poată prezice eticheta de clasă corectă a tuplurilor de intrare.
există multe arhitecturi de rețea disponibile acum, cum ar fi Feed-forward, convoluțional, recurent etc. Arhitectura adecvată depinde de aplicarea modelului. În majoritatea cazurilor, modelele feed-forward oferă rezultate destul de precise și, în special pentru aplicațiile de procesare a imaginilor, rețelele convoluționale au performanțe mai bune.
pot exista mai multe straturi ascunse în model în funcție de complexitatea funcției care va fi mapată de model. Având mai multe straturi ascunse va permite să modeleze relații complexe, cum ar fi rețelele neuronale profunde.
cu toate acestea, atunci când există mai multe straturi ascunse, este nevoie de o mulțime de timp pentru a instrui și ajusta wights. Celălalt dezavantaj al este interpretabilitatea slabă a modelului în comparație cu alte modele, cum ar fi arborii de decizie, datorită semnificației simbolice necunoscute din spatele greutăților învățate.
dar rețelele neuronale artificiale au funcționat impresionant în majoritatea aplicațiilor din lumea reală. Este o toleranță ridicată la datele zgomotoase și capabilă să clasifice modelele neinstruite. De obicei, rețelele neuronale artificiale funcționează mai bine cu intrări și ieșiri cu valoare continuă.
toți algoritmii de mai sus sunt cursanți dornici, deoarece pregătesc un model în avans pentru a generaliza datele de antrenament și a le folosi pentru predicție mai târziu.
k-cel mai apropiat vecin (KNN)
k-cel mai apropiat vecin este un algoritm de învățare leneș care stochează toate instanțele corespund punctelor de date de formare în spațiul n-dimensional. Când se primesc date discrete necunoscute, analizează cel mai apropiat k numărul de instanțe salvate (vecinii cei mai apropiați)și returnează cea mai comună clasă ca predicție, iar pentru datele cu valoare reală returnează media k vecinii cei mai apropiați.
în algoritmul cel mai apropiat vecin ponderat la distanță, acesta cântărește contribuția fiecăruia dintre vecinii k în funcție de distanța lor folosind următoarea interogare, oferind o greutate mai mare vecinilor apropiați.
Usually KNN is robust to noisy data since it is averaging the k-nearest neighbors.