Thèse soutenue le 26 septembre 2014 par Giona Matasci, Institut des dynamiques de la surface terrestre
Parmi les types de mesures par télédétection, les images optiques sont certainement l’une des sources de données les plus largement utilisées pour l’observation de la Terre. Elles fournissent des informations détaillées concernant le rayonnement électromagnétique réfléchi ou émis par chaque pixel de la zone étudiée. À travers un processus appelé classification supervisée, ces images permettent d’identifier de façon automatique et précise les objets à la surface de notre planète. À cet égard, lors de la production d’une carte de la couverture du sol, la disponibilité d’exemples d’entrainement représentatifs de chaque classe thématique est cruciale pour le succès de la procédure de classification.
Cependant, dans des applications concrètes, en raison de plusieurs contraintes dans la collecte des échantillons, les pixels étiquetés sont généralement rares. Lors de l’analyse d’une image pour laquelle ces exemples clés ne sont pas disponibles, une solution viable consiste à recourir aux données de terrain appartenant à d’autres images précédemment acquises. Cette option est intéressante, mais plusieurs facteurs tels que les conditions atmosphériques, au sol et d’acquisition peuvent entraîner des différences radiométriques entre les images, empêchant partiellement le transfert des connaissances d’une image à l’autre.
L’objectif de cette Thèse est de fournir aux analystes d’images de télédétection des techniques de traitement appropriées pour assurer la portabilité des modèles de classification entre les différentes images. Le but ultime est de cartographier l’occupation du sol sur de grandes étendues spatiales et temporelles à partir d’un minimum d’informations au sol. Pour corriger, ou tout simplement quantifier les changements observés dans la distribution statistique des spectres des matériaux, nous étudions quatre approches issues du champ d’études de l’apprentissage automatique.
Premièrement, nous proposons une stratégie pour échantillonner intelligemment l’image à classifier afin d’acquérir les étiquettes thématiques en correspondance que des pixels les plus utiles. Cette routine itérative est basée sur une évaluation constante de la pertinence pour la nouvelle image des données d’entrainement initiales appartenant à une image différente.
Dans un deuxième temps, nous présentons une approche pour réduire les différences radiométriques entre les images en projetant les pixels respectifs dans un nouvel espace de données commun. Des méthodes à noyaux pour la réduction de dimensionnalité adaptées pour de tels problèmes sont analysées. Il est montré qu’après cette normalisation relative, les
capacités de généralisation entre images d’un classificateur sont fortement augmentées.
Ensuite, nous testons une récente mesure non-paramétrique de distance entre distributions de probabilité pour évaluer les distorsions causées par des différences dans la géométrie d’acquisition affectant des séries d’images multi-angulaires. En outre, la portabilité des modèles de classification à travers les séquences est aussi mesurée. Dans ces deux exercices, nous discutons l’efficacité des méthodes classiques de normalisation à base statistique et physique.
Enfin, nous explorons une nouvelle famille d’approches fondées sur les représentations parcimonieuses des échantillons afin de convertir réciproquement l’espace de données de deux images. La fonction de projection joignant les images permet de synthétiser de nouveaux pixels avec des caractéristiques plus proches qui faciliteront finalement la cartographie de l’occupation du sol entre des images différentes.