Teoria e Tecniche di
  Pattern Recognition

  

Università degli Studi di Cassino

Corso di Laurea Specialistica in
Ingegneria delle Telecomunicazioni

   prof. Francesco Tortorella  (mail)

     Anno Accademico 2004/2005

     terzo quadrimestre

 


 

 

Organizzazione del corso

 
Lezioni
Luned́ 14.00-16.00  aula informatica "M. Balzano"
Marted́ 14.00-16.00 aula 1N.5
Venerd́ 11.00-13.00 aula 1N.3
 
Ricevimento studenti

Per domande e/o richieste di chiarimenti su argomenti del corso, il prof. Tortorella riceve presso il suo studio il luned́ dalle 16.00 alle 18.00

Libro di testo

Pattern Classification, Second Edition
Richard O. Duda, Peter E. Hart, David G. Stork

John Wiley & Sons, 2001

 

 

 

AVVISI RELATIVI AL CORSO

Sedute d'esame:

  • marted́ 5 luglio ore 10.00

  • marted́ 12 luglio ore 10.00

 


 
Link utili
 

 

 


 

 
Calendario provvisorio del corso
(Nota: i riferimenti al libro di testo sono relativi sia alla 3a ed. in inglese (3EN) che alla 2a ed. in italiano (2IT))
 Sett.  Data  Argomenti della lezione

Riferimenti sul libro di testo

 Esercitazioni

1

venerd́ 29/4

Presentazione del corso: organizzazione, materiale didattico. Descrizione di un sistema generico di Pattern Recognition.
(lez 0, lez1)

 

 

2

luned́ 2/5

Sistema di riconoscimento basato su tecniche di PR. Definizione di features, spazio delle features, regioni di classificazione. Sistemi di classificazione basati sull'apprendimento. Il problema della generalizzazione.
(lez1)

 

 

marted́ 3/5

Teoria bayesiana della decisione. PDF condizionate alle classi. Teorema di Bayes e calcolo della probabilità a posteriori. Criterio di decisione MAP per problemi a due classi e multiclasse. Dimostrazione dell'ottimalità del criterio MAP.
(lez2)
   

venerd́ 6/5

Classificazione cost-sensitive. Definizione di rischio condizionale. Criterio di decisione per problemi a due classi e multiclasse. Criterio MiniMax a due classi.
 (lez2)

   
3

luned́ 9/5

Esercitazione: problema di classificazione a due classi con pdf gaussiane. Calcolo delle probabilità a posteriori e del LR. Calcolo del costo bayesiano
 

 

 

marted́ 10/5

Criterio di Neyman-Pearson a due classi. Opzione di rigetto in problemi multiclasse con costi uniformi.
(lez2)

 

 

venerd́ 13/5

Opzione di rigetto in problemi a due classi con costi non uniformi. Funzioni discriminanti.
(lez2)

 

 

4

luned́ 16/5

Esercitazione:  Realizzazione di funzion discriminanti

 

 

marted́ 17/5

Problemi con densità gaussiane: matrici di covarianza uguali e diagonali, matrici di covarianza uguali non diagonali, matrici di covarianza diverse. Classificatori lineari e quadratici.
(lez2)

 

 

venerd́ 20/5

Curva ROC: definizione e proprietà. Applicazione del criterio di Bayes, del criterio di Neyman-Pearson, del criterio minimax.
(lez2)

 

 

5

luned́ 23/5

Esercitazione: Realizzazione di classificatori lineari e quadratici.    

marted́ 24/5

La curva ROC per valutare i classificatori. Area sotto la curva (AUC); equivalenza con la statistica WMW. Stima delle densità: approccio parametrico e non parametrico. Approccio parametrico: stima Maximum Likelihood.
(lez2, lez3)
   

venerd́ 27/5

Approccio parametrico: stima bayesiana. Approccio non parametrico: finestra di Parzen.
(lez3)
   
6

luned́ 30/5

Esercitazione: Classificatori lineari e quadratici. Curva ROC.

   

marted́ 31/5

Tecniche non parametriche: approccio Nearest Neighbor. Funzioni discriminanti lineari. Generalità. Problemi a due classi. Problemi multiclasse: limitazioni. Problemi a due classi linearmente separabili.
(lez3, lez4)

   

venerd́ 3/6

No lezione

   
7

luned́ 6/6

Esercitazione: Realizzazione di classificatori basati sulla finestra di Parzen. Classificatori K-NN.

   

marted́ 7/6

Algoritmi per la costruzione di funzioni discriminanti lineari: algoritmo del Perceptron, algoritmo MSE, algoritmo di Widrow-Hoff.
Reti Neurali: introduzione. Il Multi Layer Perceptron (MLP).
(lez4, lez5)
   

venerd́ 10/6

Reti Neurali:Algoritmo di back propagation. Reti Radial Basis Functions (RBF).
(lez5)
   
8

luned́ 13/6

Esercitazione:  Classificatori MLP.

   

marted́ 14/6

Apprendimento Statistico. Errore strutturale. Support Vector Machines per problemi linearmente separabili.
(lez6)
   

venerd́ 17/6

Support Vector Machines per problemi non linearmente separabili: soft margin. Kernel.
(lez6)
   
9

luned́ 20/6

Esercitazione:

   

marted́ 21/6

Sistemi di classificazione cooperanti
()
   

venerd́ 24/6

Sistemi di classificazione cooperanti
()
   
         
     

 

     

 

       

 

     

 

       

 

       

 

 

 

© 2005 Francesco Tortorella.
Ultimo aggiornamento: 13/06/05.