* Einführung: Motivation, Anwendungen, Überblick.
* Bayessche Schätzung: Allgemeiner Bayesscher Schätzer, MMSE-Schätzer, MAP-Schätzer, ML-Schätzer.
* Bayessche Klassifizierung: Allgemeiner Bayesscher Klassifikator, MAP-Klassifikator, ML-Klassifikator.
* Exponentialfamilie: Definition und Ausdrücke, Log-partition-Funktion, erschöpfende Statistik, a-posteriori-Verteilung, konjugierte a-priori-Verteilung, Bayessche Schätzer, Beispiele.
* Bayessche Netze: Definition, grundlegende Beispiele, bedingte Unabhängigkeit, d-Trennungs-Eigenschaft, Markov-Decke.
* Elementare Verteilungen and konjugierte a-priori-Verteilungen: Gauss, Gamma, Invers-Gamma, Wishart, Invers-Wishart, Bernoulli, Beta, Multinomial, Dirichlet, Student-t, Einbettung in die Exponentialfamilie, elementare Inferenzprobleme.
* Monte Carlo-Methoden: Verwerfungsmethode, Importance Sampling, MCMC-Methoden, Metropolis-Hastings-Algorithmus, Zyklen von MCMC-Kernen, Gibbs-Sampling.
* Variationelle Bayessche Methoden: Laplace-Approximation, evidence lower bound, Mean-field-Approximation, CAVI-Algorithmus, stochastische variationelle Inferenz, variationeller EM-Algorithmus, Expectation-Propagation-Algorithmus.
Themen zur Auswahl (die Studierenden entscheiden sich für zwei davon):
* Inferenz in probabilistischen Netzen: Faktorgraph, Sum-Product-Algorithmus, Max-Sum-Algorithmus, loopy belief propagation.
* Gaußsche Mischverteilung: Definition, ML-Methoden, Monte Carlo-Methoden, variationelle Bayessche Methoden, Clusteranalyse.
* Gaußprozess-Regression: Gaußprozess-Modell, Regression, Bestimmung der Hyperparameter, Gaußprozess-Klassifizierung, relevance vector machine.
* Bayessches tiefgehendes Lernen: Bayessches Neuronales Netz, Bestimmung der Gewichte, variationelle Bayessche Methoden, Dropout.