Séminaire de Probabilités et Statistique
lundi 13 janvier 2014 à 15:00 - UM2 - Bât 09 - Salle de conférence (1er étage)
Quentin Paris (CREST - ENSAE ParisTech)
Un modèle pour la réduction de la dimension en régression
Dans cet exposé nous nous intéressons au problème suivant: Les estimateurs classiques de la fonction de régression convergent d'autant plus lentement que la dimension de la variable explicative est grande. Dans la littérature, un grand nombre de contributions importantes étudient ce problème (modèles "single-index", "additif", "projection pursuit" ou "sufficient dimension reduction" par exemple). Dans beaucoup de modèles proposés, la fonction de régression est supposée être la composée d'une matrice de rang petit par une fonction régulière. Dans ce contexte, il est prouvé que l'on peut construire des estimateurs de la régression qui convergent à une vitesse rapide qui dépend du rang de cette matrice et non plus de la dimension de la variable explicative. Dans cette présentation nous étudions un modèle général pour l'estimation de la fonction de régression qui s'inspire des travaux existant mais dans lequel nous autorisons des transformations non linéaires de la variable explicative. Dans le modèle proposé, la fonction de régression r est supposée être la composée "g rond h" de deux fonctions (inconnues) appartenant respectivement à deux classes de fonctions G et H fixées par l'utilisateur. Ici nous autorisons les éléments de H à être non linéaires. Cette généralisation permet l'obtention de vitesses de convergence plus rapides que dans les modèles mentionnés ci-dessus. Sous des hypothèses de régularité sur g et sous des conditions sur l'entropie métrique de la classe H, nous obtenons des bornes minimax sur les vitesses de convergence des estimateurs de r dans le cadre de notre modèle. Les vitesses obtenues sont adaptatives par rapport à un paramètre important (et inconnu) du modèle appelé "dimension réduite". Les résultats proposés suggèrent un lien entre la régularité des fonctions dans la classe G, la complexité de la classe H et les vitesses de convergence dans notre modèle. Certaines des techniques employées sont issues de travaux récents en minimisation du risque empirique (Koltchinskii, 2006).