Chaque année, plus d'une centaine de satellites d'observation sont mis en orbite pour produire de nouvelles images de la Terre, de plus en plus riches en contenu grâce à des capteurs de plus en plus perfectionnés. À eux deux, les satellites jumeaux du système français Pléiades lancés en 2011 produisent ainsi un millier d'images quotidiennes avec une résolution de 70 cm/pixel, couvrant la surface de toute la Terre. Les satellites américains de DigitalGlobe vont encore plus loin, étant capables de fournir des images avec des détails de l'ordre de 30 cm dans une vaste gamme de bandes spectrales. Mais que deviennent ces petabits de données produites chaque jour au-dessus de nos têtes ? Force est de constater que la majeure partie d'entre elles restent lettre morte, faute de moyens disponibles pour extraire des connaissances à partir des fichiers bruts non structurés.
De nombreux scientifiques s'attachent actuellement à remédier à cet état de fait, et dans leurs rangs figure Yuliya Tarabalka, spécialiste en analyse automatique des images de télédétection. « Après un postdoc à la NASA et au CNES, j'ai d'abord intégré l'équipe Ayin d'Inria, aujourd'hui dissoute, avant de rejoindre Titane en 2015, précise-t-elle. Au fil des années, j'ai ressenti un besoin grandissant de développer mon propre projet de recherche. De fait, en 2016, dans le sillage d'une première expérience de transfert industriel auprès du CNES, je suis partie en quête de financements. » Et ce, avec succès, puisqu'en l'espace de six mois sur l'année 2017, la chercheuse s'est vu octroyer une bourse ANR JCJC pour son projet EPITOME , ainsi que des financements d'autres partenaires (le CNES et Acri-ST d'une part, Thalès et le laboratoire Géoazur d'autre part) qui ont permis de lancer trois thèses.
Un pont entre le deep learning et la modélisation géométrique
Au total c'est donc une équipe de huit personnes qui cherche à relever les défis de l'extraction d'information à partir de données satellitaires à large échelle. « Le nom du projet ANR ne doit rien au hasard, ajoute Yuliya Tarabalka. Si officiellement EPITOME est l'acronyme de "Efficient rePresentation TO structure large scale satellite iMagEs", c'est également un mot du grec ancien qui signifie "pour faire court" et désigne un condensé d'une œuvre. Cela résume parfaitement ce que nous voulons faire : concevoir une représentation générique, fiable et compacte pour les images satellites. » Concrètement, l'équipe s'oriente vers une représentation vectorielle multirésolution, susceptible d'offrir des niveaux de détails différents – mais toujours signifiants – en fonction de la résolution. Pour ce faire elle fera appel aux méthodes de l’apprentissage profond mais aussi aux outils de modélisation géométrique avec, en ligne de mire, la réalisation d'un algorithme de vectorisation qui donnerait à voir simplement les informations essentielles contenues dans les fichiers bruts fournis par les capteurs des satellites.
Monitorer … et pourquoi pas prédire ?
Les débouchés potentiels de ces travaux sont nombreux et dans des domaines aussi variés que la planification urbaine, l'agriculture de précision, le monitoring des systèmes et des ressources terrestres ou encore le suivi des catastrophes naturelles ou anthropogéniques. "Sur le long terme nos recherches pourraient également contribuer à la construction de meilleurs modèles de prédiction des catastrophes naturelles. C'est d'ailleurs ce qui m'amène à collaborer avec le laboratoire Géoazur dans le cadre d'un autre projet lauréat ANR consacré à la dynamique des failles sismiques et des tremblements de terre", évoque Yuliya Tarabalka en conclusion.
Le deep learning au service de la qualité des images
Parallèlement à ses recherches sur les représentations efficaces, l'équipe pilotée par Yuliya Tarabalka travaille également sur le développement d'une nouvelle méthode d'optimisation de la qualité des images satellites également appuyée sur l’apprentissage profond. En pratique, il s'agira d'optimiser les techniques de pan-sharpening qui visent à produire des images couleurs de très haute résolution à partir de la fusion entre deux types de données produites par les capteurs : les images panchromatiques (noir et blanc) en très haute définition d'une part et les images couleurs d'une résolution plus faible d'autre part. Un enjeu important car les images utilisées aujourd'hui ne se prêtent pas une classification fiable de leur contenu ce qui limite naturellement leur usage.