Pattern Recognition

  • Type: Exam (PR)
  • Chair: KIT-Fakultäten - KIT-Fakultät für Informatik - Institut für Anthropomatik und Robotik - IAR Beyerer
  • Semester: WS 22/23
  • Time: Fr 2023-03-17
    08:00 - 10:00, once
    Übersicht gebuchte Klausuren
    Virtuell


    Fr 2023-03-17
    08:00 - 10:00, once
    20.40 Fritz-Haller Hörsaal (HS37)
    20.40 Architekturgebäude (EG)


  • Lecturer: Prof. Dr.-Ing. Jürgen Beyerer
  • SWS: 2
  • Lv-No.: 7500111
VoraussetzungenEmpfehlungen:

Kenntnisse der Grundlagen der Stochastik, Signal- und Bildverarbeitung sind hilfreich.

Beschreibung

Merkmale:

  • Merkmalstypen
  • Sichtung des Merkmalsraumes
  • Transformation von Merkmalen
  • Abstandsmessung im Merkmalsraum
  • Normalisierung von Merkmalen
  • Auswahl und Konstruktion von Merkmalen
  • Reduktion der Dimension des Merkmalsraumes

Klassifikatoren:

  • Bayes'sche Entscheidungstherorie
  • Parameterschätzung
  • Parameterfreie Methoden
  • Lineare Diskriminanzfunktionen
  • Support Vektor Maschine
  • Matched Filter, Templatematching
  • Klassifikation bei nominalen Merkmalen

Lernen:

  • Bias und Varianz
  • Leistungsbestimmung von Klassifikatoren
LiteraturhinweiseWeiterführende Literatur

- Richard O. Duda, Peter E. Hart, Stork G. David. Pattern Classification. Wiley-Interscience, second edition, 2001
- K. Fukunaga. Introduction to Statistical Pattern Recognition. Academic Press, second edition, 1997
- R. Hoffman. Signalanalyse und -erkennung. Springer, 1998
- H. Niemann. Pattern analysis and understanding. Springer, second edition, 1990
- J. Schürmann. Pattern classification. Wiley & Sons, 1996
- S. Theodoridis, K. Koutroumbas. Pattern recognition. London: Academic, 2003
- V. N. Vapnik. The nature of statistical learning theory. Springer, second edition, 2000

Lehrinhalt

Merkmale:

  • Merkmalstypen
  • Sichtung des Merkmalsraumes
  • Transformation der Merkmale
  • Abstandsmessung im Merkmalsraum
  • Normalisierung der Merkmale
  • Auswahl und Konstruktion von Merkmalen
  • Reduktion der Dimension des Merkmalsraumes

Klassifikatoren:

  • Bayes'sche Entscheidungstherorie
  • Parameterschätzung
  • Parameterfreie Methoden
  • Lineare Diskriminanzfunktionen
  • Support Vektor Maschine
  • Matched Filter, Templatematching
  • Klassifikation bei nominalen Merkmalen

Allgemeine Prinzipien:

  • Vapnik-Chervonenkis Theorie
  • Leistungsbestimmung von Klassifikatoren
  • Boosting
ArbeitsbelastungGesamt: ca. 90h, davon
1. Präsenzzeit in Vorlesungen: 20h
2. Vor-/Nachbereitung derselbigen: 20h
3. Prüfungsvorbereitung und Präsenz in selbiger: 50h
Ziel
  • Studierende haben fundiertes Wissen zur Auswahl, Gewinnung und Eigenschaften von Merkmalen, die der Charakterisierung von zu klassifizierenden Objekten dienen. Studierende wissen, wie der Merkmalsraum gesichtet werden kann, wie Merkmale transformiert und Abstände im Merkmalsraum bestimmt werden können. Des weiteren können Sie Merkmale normalisieren und Merkmale konstruieren. Darüber hinaus wissen Studierende wie die Dimension des Merkmalsraumes reduziert werden kann.
  • Studierende haben fundiertes Wissen zur Auswahl und Anpassung geeigneter Klassifikatoren für unterschiedliche Aufgaben. Sie kennen die Bayes'sche Entscheidungstherorie, Parameterschätzung und parameterfreie Methoden, lineare Diskriminanzfunktionen, Support Vektor Maschine und Matched Filter. Außerdem beherrschen Studierende die Klassifikation bei nominalen Merkmalen.
  • Studierende sind in der Lage, Mustererkennungsprobleme zu lösen, wobei die Effizienz von Klassifikatoren und die Zusammenhänge in der Verarbeitungskette Objekt – Muster – Merkmal – Klassifikator aufgabenspezifisch berücksichtigt werden. Dazu kennen Studierende das Prinzip zur Leistungsbestimmung von Klassifikatoren sowie das Prinzip des Boosting.
PrüfungDie Erfolgskontrolle wird in der Modulbeschreibung erläutert.