Mustererkennung

  • Type: Vorlesung (V)
  • Semester: SS 2018
  • Time: 18.04.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten


    25.04.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    02.05.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    09.05.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    16.05.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    23.05.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    30.05.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    06.06.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    13.06.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    20.06.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    27.06.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    04.07.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    11.07.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    18.07.2018
    14:00 - 15:30 wöchentlich
    50.34 Raum -101
    50.34 INFORMATIK, Kollegiengebäude am Fasanengarten


  • Lecturer: Prof. Dr.-Ing. Jürgen Beyerer
  • SWS: 2
  • Lv-No.: 24675
VoraussetzungenEmpfehlungen:

Kenntnisse der Grundlagen der Stochastik, Signal- und Bildverarbeitung sind hilfreich.

Beschreibung

Merkmale:

  • Merkmalstypen
  • Sichtung des Merkmalsraumes
  • Transformation von Merkmalen
  • Abstandsmessung im Merkmalsraum
  • Normalisierung von Merkmalen
  • Auswahl und Konstruktion von Merkmalen
  • Reduktion der Dimension des Merkmalsraumes

Klassifikatoren:

  • Bayes'sche Entscheidungstherorie
  • Parameterschätzung
  • Parameterfreie Methoden
  • Lineare Diskriminanzfunktionen
  • Support Vektor Maschine
  • Matched Filter, Templatematching
  • Klassifikation bei nominalen Merkmalen

Lernen:

  • Bias und Varianz
  • Leistungsbestimmung von Klassifikatoren
LiteraturhinweiseWeiterführende Literatur

- Richard O. Duda, Peter E. Hart, Stork G. David. Pattern Classification. Wiley-Interscience, second edition, 2001
- K. Fukunaga. Introduction to Statistical Pattern Recognition. Academic Press, second edition, 1997
- R. Hoffman. Signalanalyse und -erkennung. Springer, 1998
- H. Niemann. Pattern analysis and understanding. Springer, second edition, 1990
- J. Schürmann. Pattern classification. Wiley & Sons, 1996
- S. Theodoridis, K. Koutroumbas. Pattern recognition. London: Academic, 2003
- V. N. Vapnik. The nature of statistical learning theory. Springer, second edition, 2000

Lehrinhalt

Merkmale:

  • Merkmalstypen
  • Sichtung des Merkmalsraumes
  • Transformation der Merkmale
  • Abstandsmessung im Merkmalsraum
  • Normalisierung der Merkmale
  • Auswahl und Konstruktion von Merkmalen
  • Reduktion der Dimension des Merkmalsraumes

Klassifikatoren:

  • Bayes'sche Entscheidungstherorie
  • Parameterschätzung
  • Parameterfreie Methoden
  • Lineare Diskriminanzfunktionen
  • Support Vektor Maschine
  • Matched Filter, Templatematching
  • Klassifikation bei nominalen Merkmalen

Allgemeine Prinzipien:

  • Vapnik-Chervonenkis Theorie
  • Leistungsbestimmung von Klassifikatoren
  • Boosting
ArbeitsbelastungGesamt: ca. 90h, davon
1. Präsenzzeit in Vorlesungen: 20h
2. Vor-/Nachbereitung derselbigen: 20h
3. Prüfungsvorbereitung und Präsenz in selbiger: 50h
Ziel
  • Studierende haben fundiertes Wissen zur Auswahl, Gewinnung und Eigenschaften von Merkmalen, die der Charakterisierung von zu klassifizierenden Objekten dienen. Studierende wissen, wie der Merkmalsraum gesichtet werden kann, wie Merkmale transformiert und Abstände im Merkmalsraum bestimmt werden können. Des weiteren können Sie Merkmale normalisieren und Merkmale konstruieren. Darüber hinaus wissen Studierende wie die Dimension des Merkmalsraumes reduziert werden kann.
  • Studierende haben fundiertes Wissen zur Auswahl und Anpassung geeigneter Klassifikatoren für unterschiedliche Aufgaben. Sie kennen die Bayes'sche Entscheidungstherorie, Parameterschätzung und parameterfreie Methoden, lineare Diskriminanzfunktionen, Support Vektor Maschine und Matched Filter. Außerdem beherrschen Studierende die Klassifikation bei nominalen Merkmalen.
  • Studierende sind in der Lage, Mustererkennungsprobleme zu lösen, wobei die Effizienz von Klassifikatoren und die Zusammenhänge in der Verarbeitungskette Objekt – Muster – Merkmal – Klassifikator aufgabenspezifisch berücksichtigt werden. Dazu kennen Studierende das Prinzip zur Leistungsbestimmung von Klassifikatoren sowie das Prinzip des Boosting.
PrüfungDie Erfolgskontrolle wird in der Modulbeschreibung erläutert.