Séminaires


Retour à la liste de tous les séminaires


Conditions de marge pour la quantification vectorielle

Le : 26/11/2012 11h00
Par : Clément LEVRARD (UPMC et Orsay)
Lieu : I103
Lien web :
Résumé : D'un point de vue théorique, résumer une distribution de probabilité P en k points significatifs est un problème complexe, même lorsque l'on a connaissance à priori de cette distribution. La quantification vectorielle désigne l'art de trouver ces k points significatifs, en n'ayant accès qu'à un n-échantillon de la loi P. Nous nous intéresserons à une procédure de quantification minimisant un certain risque empirique, et, en exploitant les analogies formelles entre cette procédure et les techniques de minimisation de risque empirique en classification supervisée, nous détaillerons les différentes vitesses de convergence vers l'optimum de cette procédure, lorsque la taille de l'échantillon croît. Sous certaines conditions, cette convergence peut être plus rapide que 1/sqrt{n} (que l'on prouvera être la vitesse "normale" de convergence). Comme en classification supervisée, on peut exhiber des conditions suffisantes et intuitives, ressemblant beaucoup aux conditions de marge introduites par Mammen et Tsybakov, ou Massart, qui garantissent une convergence rapide de cette procédure de quantification.