Korbinian Strimmer, Uni Leipzig, Wintersemester 2009/10
Synopsis:
Organisatorische Details zur Vorlesung (z.B. Raum und Zeit) finden Sie im kommentierten Vorlesungsverzeichnis WS 2009/10.Ziel der Vorlesung ist es, die konzeptionellen Grundlagen des maschinellen Lernes zu verstehen. Ein Großteil der Vorlesung beschäftigt sich mit statistischen Lernverfahren und Informationstheorie.
Geplante Inhalte:
- Zufallsvariablen und Wahrscheinlichkeitstheorie
- Stochastische Modellierung
- Entropy und Information
- Maximum likelihood und Bayesianische Inferenz
- Clustering und Klassifikation
- Resampling Verfahren (Bootstrap und MCMC)
- Modellwahl und Hypothesentesten
- Hochdimensionale Statistik und Regularisierung
- Analyse räumlich-zeitlich korrellierter Daten
Vorlesungskript:
Parallel zur Vorlesung entsteht ein Skript (in Englisch) mit dem Titel "Statistical Thinking", in dem Sie alle wichtigen Formel und Konzepte nachlesen können. Das für jede Vorlesung relevante Material finden in den untenstehenden Links.
Empfohlene Literatur:
- D. R. Cox. 2006. Principles of statistical inference. CUP.
- F. M. Dekking et al. 2005. A modern introduction to probability and statistics: understanding why and how. Springer.
- P. J. Diggle. 1990. Time Series: A Biostatistical Introduction. OUP.
- P. J. Diggle und P. J. Ribeiro Jr. 2007. Model-based geostatistics. Springer.
- T. Hastie, R. Tibshirani, and J. Friedman. 2001. The elements of statistical learning. Springer.
- M. L. Lavine. 2005. Introduction to statistical thought.
- D. J. C. MacKay. 2003. Information theory, inference, and learning algorithms. CUP.
Software:
- R Project for Statistical Computing: http://www.r-project.org
Vorlesungsübersicht:
Datum | Besprochene Konzepte | Literatur |
---|---|---|
13. Oktober | Einführung: Uberblick, was ist Statistik | Lavine (Kap. 1) |
20. Oktober | Zufallsvariablen: Zufallsvariable, Beobachtungen, Dichtefunktion, Verteilungsfunktion, Erwartungswert, Varianz, Median, Quantilfunktion, Kovarianz, Korrelation, Identitäten für Erwartungswert und (Ko)varianz, Unabhängigkeit, Variablentransformation, Delta Methode, Jensen Ungleichung. | Kap. 2 in "Statistical Thinking" |
27. Oktober | Verteilungen: Normalverteilung, Multivariate Normalverteilung, Exponentialverteilung, Gammaverteilung, Binomialverteilung, Poissonverteilung, Lokationsparameter, Skalenparameter, Varianzstabilisierung. | Katalog wichtiger Verteilungen |
3. November | Information: Kullback-Leibler Divergenz, Boltzmann Entropie, Shannon Entropie, Mutual Information, Mutual Information zwischen normalverteilten Variablen, Fisher Informationsmatrix | Kap. 4 in "Statistical Thinking" |
10. November | Enfällt. | |
17. November | Inferenz: Statistisches Lernen, Probabilistische Modellierung von Daten, Unsicherheitverteilung Parameter, Schätzfunktion, Eigenschaften von Schätzern, Bias, MSE, Varianz-Bias Zerlegung, Effizienz, Konsistenz, Stichprobenverteilung, Hierarchie Inferenzmethoden: KL, Maximum likelihood, Kleinste Quadrate, Penalized ML, Bayes, empirisches Bayes. Einfache Schätzer: empirischer Erwartungswert, empirische Varianz, Explorative Datenanalyse, Streudiagramm, histogramm, Boxplot, QQ-Plot | |
24. November | Likelihood Inferenz: Kullback-Leibler Distanz, Approximation grosse Stichprobeb, Maximum-Likelihood, Least-Squares, Likelihood Funktion, Score Funktion, (beobachtete) Fisher Information, Mittelwert als MLE, quadratische Approximation, Likelihood interval, Wald interval, Likelihood ratio, Transformationsinvarianz, Optimalität für große Stichproben, Bias. Cramer-Rao Ungleichung, Overfitting, Suffizienz. | |
1. Dezember | Regularisierung und Shrinkage: Entscheidungstheorie, Risko, Verlustfunktion,
Hochdimensionale Inferenz, "small n, large p" Daten (z.B. DNA Chips, Proteomics),
Stein-Paradox,
James-Stein Schätzer, Dominanz, Zulässigkeit, Shrinkage, Model Averaging, Bias-Varianz Trade-off,
Regularisierung, hierarchische Modelle, empirische Bayes Inferenz, Shrinkage Schätzer für Varianz und
Korrelation. Entscheidungstheorie, Bayes Risko.
Computerdemonstration:
|
Efron and Morris 1977 - Stein's paradox in statistics. Scientific American 236:119-127. |
8. Dezember | Frequentistische Fehlerabschätzung: Delta Methode (univariat und multivariat), Standardkonfidenzintervalle, Bootstrapverfahren, Bootstrap-Schätzer für Varianz und Bias, Bootstrap-Schätzer für Konfidenzintervall, Bagging, Jacknife, Prädiktionsfehler, Schätzung duch Kreuzvalidierung. Computerdemonstration: Alle Beispiele benutzen R: | Efron and Gong 1983 - A leisurely look at the bootstrap, the jackknife, and cross-validation. American Statistician 37:36-48. |
15. Dezember | Bayesianische Inferenz und Sampling Strategien: Bayes' Theorem, A Priori Verteilung, A Posteriori Verteilung, Kredibilitätsintervall, Unterschied zu klassischer Statistik (zufällige Parameter), Bayesian Learning, Zusammenhang mit Shrinkage (Linearität in Exponentialfamilie, Regularisierung), Wahl der Priori, Kompatibilität Priori VT und Likelihood, Jeffreys prior, Referenz Prior, Posteriori Matching Priors. Rejection Sampling, Importance Sampling, Markov Chain Monte Carlo (MCMC), Metropolis Algorithmus, Metropolis Hastings, Gibbs Sampling, Reversible Jump MCMC, Hamiltonian MCMC. Computerdemonstration: Alle Beispiele benutzen R: | Mackay Kap. 29 (Monte Carlo Methods) und Kap. 30 (Efficient Monte Carlo Methods). |
Frohe Weihnachten und eine guten Rutsch ins Jahr 2010! | ||
5. Januar | Statistisches Testen und Modellwahl: Nullmodell, Alternativverteilung, Mischmodell, Wahl des Schwellenwertes, Fisher's p-Werte (nur Nullmodell), Bayesianische Entscheidungsregel (Nullmodell plus Alternative), Sensitivität, Spezifizität, Power, Recall, False Discovery Rate, False Nondiscovery Rate, True Discovery Rate, Precision, multiples Testen. | PAM und
RDA papers, overview of FDR methods. |
12. Januar | Klassifikationsverfahren: Prädiktionsproblem, Mischmodell, Diskriminanzfunktion, Entscheidungsgrenzen, Zentroide, gemeinsame oder getrennte Kovarianzmatrizen, Quadratische Diskriminanzanalyse (QDA), Lineare Diskriminanzanalyse (LDA), Diagonale Diskriminanzanalyse (DDA), weitere Verfahren (SVM, Naive Bayes, logistische Regression), Variablenselection, LDA für zwei Klassen, t-Statistik. Regularisierte Diskriminanzanalyse, PAM (Tibshirani), RDA (Hastie). Computerdemonstration: Alle Beispiele benutzen R: | Hastie et al., Kap. 4. |
19. Januar | Regression: Lineares Modell, Prediktoren, Response, Regressionskoeffizienten, Residual, RSS, Normalengleichung, Least-Squares Schätzer, ML Schätzer, Zusammenhang Regressionskoeffizient und partieller Korrelation und partieller Varianz, generalisierte lineares Modell (GLM), Link Funktion, Exponentialfamilie, logistische Regression und Logit Link, generalisiertes additives Modell (GAM), Ridge Regression, Lasso Regression, L1 und L2 Penalisierung, Dantzig Selector, LARS, Elastic Net, Variablenselektion. | Hastie et al. (Kapitel 3) |
26. Januar | Zeitreihenanalyse: Zeitreihe, longitudinale Daten, Trend, Autocovarianz, Autokorrelation, Stationarität, Variogramm, Korrelogramm, Periodogramm, Spektrum, Schätzung der Autocorrelation, AR Modell, VAR Modell, State-Space Modell, ARMA, GARCH. | Diggle (Kapitel 1 bis 3) |
2. Februar |
Räumliche Statistik:
Räumliche Daten, räumliches Modellieren, räumliche Kovarianzfunktion,
geostatistische Modell, Stationarität, Istropie, Gauss-Modell, räumliches GLM,
räumliches Variogramm, Matern Kovarianzfunktion, räumliche Prädiktion,
Kriging. Computerdemonstration: |
Diggle und Ribeiro Jr. (Kapitel 1-3) |