Statistique inférentielle

M1 class for Mathematics students of UFR Mathématiques Informatique Mécanique at université de Lorraine

Type: CM+TD+TP
Academic year: 25/26
Semester: S2
Language: French

Textes de référence

  • P-A. Cornillon, N. Hengartner, E. Matzner-Løber, L. Rouvière, Régression avec R, edpsciences, lien
  • A. Guyader, Statistique mathématique, notes de cours, Master Mathématiques et Applications, Sorbonne Université, pdf
  • A. Monfort, Cours de statistique mathématique, Economica, Paris.
  • L. Wasserman, All of nonparametric statistics, Springer New York, lien

Tableau de bord

Leçon n° Date Sujet
1 30.01 Introduction au modèle de regression linéaire simple. Motivations, définition, hypothèses sur la perturbation. Écriture vectorielle et interpretation géométrique. Méthode d’estimation des moindres carrés ordinaires : forme quadratique des moindres carrés, déduction des estimateurs \(( \hat{a}, \hat{b})\), leurs propriétés : centre de gravité, absence de biais, variances et covariance. Théorème de Gauss-Markov (énoncé). Rappels sur la loi normale en dimension 1.
2 06.02 Consequences du Théorème de Gauss-Markov. Coefficient de détermination \(R^2 \) et caveat sur son interpretation. Modèle de regression linéaire simple avec perturbation normale. Propriétés des ses estimateurs du maximum de vraisemblance : comparaison avec les estimateurs MCO. Rappel sur les gaussiennes multivariées : méthodes d’échantillonnage, projection orthogonale sur un sous-espace (loi de la norme au carré du projeté), loi jointe des projections orthogonaux sur deux sous-espaces, loi sous l’action d’une matrice symétrique définie positive générale. Application : loi du triplet \(( \hat{a}, \hat{b},\hat{\sigma}^2)\).
3 13.02 Prévision dans la regression linéaire simple. Trois exercices sur la regression linéaire simple : calculs de \(\hat{a}, \hat{b}, R^2\) (à la main), interpretation géométrique du produit des pentes dans les deux regression possibles. Introduction au modèle de regression multiple : définition et interpretation géométrique. Moindres carrés ordinaires (début).
4 20.02 Propriétés des estimateurs MCO. Théorème de Gauss-Markov (avec démonstration). Application : estimateurs affines sans biais de variance minimale. Coefficient de determination et son interpretation géométrique. Modèle de regression linéaire multiple avec perturbation gaussienne : MCO vs MV, exhaustivité, minimalité et totalité de \(( \hat{b}^t,\hat{\sigma}^2)\) et sa loi. Prévision (début).