Séminaire des Doctorant·e·s
mercredi 26 avril 2017 à 11h30 - Salle 109
Paul-Marie Grollemund (Laboratoire de Mathématiques Blaise Pascal - Université Clermont Auvergne)
Loi à priori informative (suite et fin)
Supposons détenir des données $x_i$ pour $i=1,\dots,n$ issues de l'observation d'un phénomène d'intérêt, qu'on notera $X$. On suppose que si on répète l'observation des données dans un cadre expérimental identique, on n'obtiendra pas forcément les mêmes observations $x_i$. En cela, on considère que le phénomène $X$ est "aléatoire", et de même pour les observations $x_i$. Supposons maintenant un modèle pour décrire ces données aléatoires : $$x_i | \theta \sim \mathcal{L}_{\theta},$$ où $\theta$ est le paramètre du modèle et $\mathcal{L}_{\theta}$ est une loi de probabilité. Autrement dit, pour une valeur fixée du paramètre, on suppose que la loi de probabilité des $x_i$ est $\mathcal{L}_{\theta}$. L'inférence statistique consiste alors à estimer $\theta$ à partir des observations $x_i$ afin d'en déduire des caractéristiques du phénomène $X$. Moralement, on estime la loi de probabilité $\mathcal{L}_{\theta}$ qui décrit "le mieux" les données $x_i$. Dans un cadre bayésien, on considère que le paramètre $\theta$ est lui aussi une quantité aléatoire. Ainsi, pour construire un modèle bayésien complet, une étape fondamentale est de définir $\pi$, la loi de probabilité du paramètre $\theta$. Cette loi de probabilité est (en théorie) indépendante des données $x_i$ et représente ce qu'on "pense" du paramètre $\theta$. En cela, on qualifie $\pi$ comme la loi de probabilité \textit{a priori} de $\theta$. Par exemple, si avant d'avoir observé les données $x_i$, on pense que $\theta$ devrait plutôt être autour de 1, on pourrait définir une loi de probabilité dont la masse globable est concentrée autour de 1. Généralement en statistique bayésienne, il est commun de choisir une loi de probabilité, dite non-informative, qui ne privilégie \textit{a priori} aucune valeur de $\theta$. Une des vertues de ce choix est qu'elle mène à effectuer une inférence statistique "objective". Or dans certains contextes, il est plus approprié de choisir une loi \textit{a priori} informative qui favorise certaines valeurs de $\theta$. Durant cet exposé, après une rapide introduction à la modélisation bayésienne, nous présenterons un contexte agronomique où il est intéressant de construire une loi \textit{a priori} informative. Nous expliquerons comment cette loi peut se construire à partir des connaissances des agronomes et nous présenterons les résultats obtenus pour faire ressortir l'apport des connaissances \textit{a priori} dans l'estimation de $\theta$.