Assessing the Effect of Protected Areas on People’s Livelihoods, Social Values and Perceptions of Nature and its Benefits
Thèse en sciences de l’environnement, soutenue le 3 mai 2024 par Marina Cracco, rattachée à l’Institut de géographie et durabilité (IGD) de la FGSE.
Si nous tenons à préserver la biodiversité mondiale en déclin et maintenir les moyens de subsistance dépendants de la nature, nous devons nous saisir des outils pertinents, tels que les parcs naturels. Cependant, malgré l’abondance de recherche sur les parcs naturels, l’on continue de déplorer un manque de connaissances et de données probantes sur leurs effets, leur succès ou leurs échecs dans la conservation de la biodiversité et le maintien des moyens de subsistance des populations, ainsi que sur la façon dont elles interagissent avec les valeurs et les perceptions des gens. Par conséquent, l’objet de cette thèse est de comprendre l’influence des parcs sur les valeurs des individus et les avantages tirés de la nature.
Pour étudier ce sujet, j’ai utilisé des cadres conceptuels internationaux. Cette thèse emploie un éventail de méthodes mixtes. Entre eux, une enquête quantitative et une analyse de contenu qualitative des perceptions et des valeurs à l’intérieur et à l’extérieur des parcs. Cette recherche a été menée en Suisse où l’on observe un regain d’intérêt pour la conservation de sa biodiversité en voie de disparition, en utilisant certaines catégories de parcs comme modèles régionaux de développement durable.
Les principaux résultats de la thèse démontrent que les Parcs Naturels Régionaux (PNR), un genre spécifique de parcs en Suisse, exercent des influences variables sur les personnes. Tout d’abord, il ressort que les PNR n’ont aucun effet positif ou négatif sur les moyens de subsistance des agriculteurs vivant dans ces zones par rapport aux moyens de subsistance des agriculteurs vivant en dehors des PNR. En outre, les résidents des PNR attachent une valeur en soi élevée à la nature, percevant leurs parcs et zones protégées comme fournissant plus d’avantages liés à la nature que d’autres zones ; quant aux personnes vivant à l’intérieur et à l’extérieur des PNR, elles avaient une perception légèrement différente des changements dans l’état de la nature. Enfin, cette thèse dévoile les valeurs sociales silencieuses et la lassitude du discours à l’égard d’une espèce charismatique et controversée : le loup. Fait important, la thèse montre comment une méthode qualitative, censée pouvoir identifier les perceptions de sujets sensibles, pourrait en fait avoir entravé leur détection.
Finalement, cette thèse présente les principales recommandations en matière de recherche, de politique et de gestion des parcs.
Comment la croûte continentale de la Terre s’est-elle formée et transformée au cours des temps géologiques ?
Cette question sur le début des dynamiques fondamentales de notre planète reste non résolue. Jack Gillespie, qui vient de prendre ses fonctions de Maître assistant Ambizione1 à la Faculté de géosciences et de l’environnement (FGSE), souhaite élucider ce mystère.
Comment inférer une histoire de plus de 4,5 milliards d’années ?
Jack Gillespie : Je suis géochimiste des isotopes. Grâce à la composition isotopique des roches, je tente de comprendre ce qu’elles ont vécu – les processus géologiques qu’elles ont traversés au cours de leur longue histoire. Grâce à ces « traceurs », je m’attelle à résoudre cette question qui me taraude : la Terre des origines était-elle similaire à celle que nous connaissons ? Ou l’environnement tectonique des premiers temps et qui a conduit à la Terre d’aujourd’hui était-il profondément différent ?
« Nous savons si peu de chose de l’origine de la planète sur laquelle nous vivons »
Jack Gillespie
Pourquoi les premiers temps de la Terre vous intéressent-ils ?
J. G. : L’ampleur de notre ignorance est immense. Nous connaissons si peu de choses sur une période si grande ! C’est ce que je trouve captivant. Et plus nous remontons dans le temps, plus le défi est important, car nous disposons d’archives de plus en plus petites et fragmentées. Les roches les plus anciennes dont nous disposons ont 4 milliards d’années. Pendant les 500 premiers millions d’années, nous ne disposons simplement d’aucune roche intacte.
A présent, de quelle manière pouvez-vous relever ce défi de saut dans le passé lointain ?
J. G. : Aujourd’hui, nous pouvons « faire plus avec moins ». Nous avons amélioré notre compréhension conceptuelle et nos capacités techniques. Nous pouvons donc examiner un très petit volume de matériel et en extraire plus d’informations. Il y a quelques décennies encore, les géologues devaient réduire et dissoudre de gros morceaux de roches pour en arracher des enseignements géochimiques.
Mon projet synthétise et rassemble un ensemble d’avancées puissantes afin de mettre en place de nouveaux outils qui pourront relever ce défi.
«Les conditions qui prévalaient lors de la formation d’une roche laissent des signatures différentes dans les minéraux. Nous les déchiffrons pour tenter de reconstituer ces conditions.»
Était-ce une période infernale, comme le suggère son nom « Hadéen », en référence au dieu des enfers, Hadès ? Cette idée est quelque peu datée et nous savons depuis un certain temps que ce n’était pas exactement le cas. Mais la nature des paysages primaires et les forces qui les ont gouvernés pendant l’Hadéen et l’Archéen restent incertaines. Certains mettent l’accent sur l’histoire violente et mouvementée de la Terre primitive, telle qu’illustrée à gauche, avec des ciels embrasés et des météorites déferlant de toute part.
D’autres affirment que la vision plus paisible de droite, avec ses volcans et ses étendues d’eau tranquilles, est plus fidèle à la réalité. Ce scénario est convaincant, les mares chaudes à la lisière de la terre étant considérées comme un endroit propice à l’éclosion de la vie.
Pourquoi avoir choisi la FGSE pour votre projet Ambizione ?
J. G. : Plusieurs groupes à Institut des sciences de la Terre (ISTE) s’interrogent sur les débuts de la Terre, nos approches s’enrichiront les unes les autres. Johanna Marin Carbonne travaille sur le lien entre l’atmosphère, l’océan et les continents primitifs, les processus qui ont conduit à la vie et à l’oxygénation de l’atmosphère. Othmar Müntener s’intéresse à la création de la croûte terrestre.
La sonde ionique SIMS du bâtiment est également idéale pour ce que je veux faire : mesurer de minuscules éléments, et en extraire des informations.
Ambizione est une bourse carrière du Fonds National Suisse, à destination des jeunes chercheuses et chercheurs (dans les quatre ans suivant l’obtention du doctorat) qui ambitionnent réaliser et diriger un projet de manière autonome. Les subsides sont octroyés pour une période de quatre ans. ↩︎
Des spécialistes de l’UNIL co-dirigent des forages scientifiques de près d’un kilomètre de profondeur, qui visent à atteindre et à documenter, pour la première fois, la base de la croûte continentale et la transition vers le manteau terrestre. D’envergure internationale, le projet se déroule dans le Piémont, en Italie, dans une zone où les roches profondes sont atteignables grâce à un raccourci naturel.
De quoi se compose l’intérieur de notre planète ? Comment la croûte terrestre s’est-elle formée, et jusqu’à quelle profondeur peut-on trouver de la vie ? Ces questions fondamentales se heurtent depuis des années à des obstacles techniques et financiers. Malgré plusieurs tentatives, l’humain n’est en effet jamais parvenu à explorer de manière continue les roches au-delà de la croûte terrestre pour atteindre la couche suivante : le manteau, situé habituellement à une trentaine de kilomètres de profondeur.
Des scientifiques de la Faculté des géosciences et de l’environnement de l’UNIL coordonnent un projet international qui pourrait changer la donne. Baptisé DIVE (pour Drilling the Ivrea-Verbano zonE), ce programme organise des forages scientifiques dans la zone géologique dite d’Ivrea-Verbano (Piémont, Italie) dans les Alpes, dont le caractère unique devrait permettre, en première mondiale, de percer la croûte et d’atteindre le manteau terrestre supérieur.
Une région aux caractéristiques pratiquement uniques au monde
« Depuis environ 35 millions d’années, les plaques continentales africaine (Adria) et européenne se rapprochent l’une de l’autre. Au moment de leur collision dans ce secteur, l’Adria est passée sur le dessus, entraînant la formation des Alpes », explique György Hetényi, professeur à l’UNIL et partie prenante du projet. « Ce phénomène, accompagné d’effets d’érosion, a fait remonter des roches situées ordinairement à des dizaines de kilomètres de profondeur ». Ainsi, les Alpes forment, sur une cinquantaine de kilomètre en surface, un « raccourci » vers le manteau terrestre, qui se trouve alors pratiquement à portée de main. Autre particularité de cette région : la croûte continentale est exceptionnellement bien conservée et intacte, sans fragmentation majeure.
Dans le village de Megolo di Mezzo, un forage (le deuxième du projet DIVE) a donc été initié en novembre 2023, et se terminera en avril 2024. D’une profondeur actuelle de 870 mètres, le trou devrait atteindre à terme près d’un kilomètre, et permettre de documenter le début de la transition entre la croûte continentale et le manteau. Sur le terrain, les spécialistes analysent déjà les carottes qui sont extraites au fur et à mesure par les foreurs, à l’aide de deux containers scientifiques, l’un dédié aux études géologiques, et l’autre à l’aspect biologie et analyse des gaz (tels que l’hydrogène ou d’autres gaz rares). Une équipe de microbiologistes cherche quant à elle à savoir s’il existe des organismes capables de survivre dans des conditions de pression extrême, en profondeur.
Par la suite, les précieuses carottes seront transférées dans les différentes universités, selon leur domaine d’expertise. « A l’Université de Lausanne, nous étudions en particulier la chimie et la composition isotopique des roches, ainsi que leurs propriétés thermiques et sismiques », précise Othmar Müntener, professeur à l’UNIL, initiateur et co-responsable du projet. « Ces analyses nous donneront des informations inédites sur la formation et la composition de la croûte terrestre. »
Le gros du travail reste encore à faire, mais les premiers résultats, issus notamment du premier forage – qui a atteint 578 m de profondeur – , commencent à tomber, et ils présentent déjà quelques surprises. « Il y a plus de souffre, de carbone, de fractures et surtout une variabilité spatiale surprenante par rapport à ce que l’on s’attendait à trouver dans la croûte inférieure », observe György Hetényi. « Nous découvrons aussi la présence de minéraux tels que le graphite dans des quantités inattendues. »
La prochaine étape consiste à présent à terminer ce deuxième forage et à poursuivre les analyses scientifiques. Un troisième forage est prévu, qui serait cette fois consacré à l’analyse et à la traversée complète de la transition croûte–manteau.
DIVE est un projet international financé par l’International Continental Scientific Drilling Program (ICDP), qui rassemble des équipes multidisciplinaires émanant de sept pays et d’une vingtaine d’universités. Initié par l’Université de Lausanne, ce programme vise à effectuer des forages scientifiques afin de traverser la croûte continentale inférieure, d’atteindre le manteau supérieur, et d’analyser les roches profondes de notre planète. Il se divise en deux grandes phases. La première est en cours avec deux forages, et la deuxième est en préparation en vue d’un troisième forage d’ici quelques années. Les analyses menées sur ces roches encore jamais étudiées touchent à des domaines aussi variés que la géophysique, la géochimie, la géodynamique, la pétrologie, la rhéologie (la manière dont les roches se déforment) ou encore la microbiologie.
La prof. Anindita Samsu s’est embarquée dans un programme mondial pour les femmes et les personnes non binaires dans le domaine des STIMM (science, technologie, ingénierie, mathématiques et médecine).
Ce programme de leadership de 12 mois a pour but de favoriser l’inclusivité, l’innovation ainsi que la durabilité écologique et sociale. La professeure Samsu a renouvelé son engagement à agir pour le climat et à incarner son propre style d’encadrement.
Dès qu’elle a entendu parler de l’initiative Homeward Bound (« retour au bercail »), Anindita Samsu a voulu y participer. La mission du programme est de construire un réseau mondial de leaders femmes et non-binaires capables de relever les défis les plus urgents de la planète. Homeward Bound a l’ambition d’accroître leur influence, estimant que l’équilibre entre les hommes et les femmes dans les directions est bénéfique pour tous. Le programme valorise également de nouvelles façons de diriger : plus collaboratives, plus inclusives et plus axées sur le concept d’un « foyer global ».
Il a fallu cinq ans à Anindita pour s’inscrire au programme, qu’elle a rejoint en 2022 à l’issue d’un processus de sélection compétitif. Elle nous explique comment cette expérience unique a changé et renforcé sa vision en tant que chercheuse, chef d’équipe et enseignante.
Les participantes à Homeward Bound ont suivi des sessions sur le leadership, la visibilité, la stratégie, le bien-être et les sciences antarctiques. Le programme consiste en 24 ateliers sur un an. Pour Anindita, un des apports les plus intéressant était l’Inventaire des styles de vie (LSI). « Conçu comme un outil de diagnostic de notre mode de pensée et de comment nos collègues nous voient, il donne un éclairage sur notre efficacité comme cheffe d’équipe et sur les barrières que nous plaçons nous-même sur notre chemin » (photo : A. Samsu).
Qu’avez-vous appris sur votre style d’encadrement ?
Anindita Samsu : Cette expérience m’a permis de confirmer la validité de mon approche. J’ai réalisé que même si ma façon de diriger est peu conventionnelle, elle n’en est pas moins valable ou efficace dans le monde universitaire. Je suis convaincue que chaque personne, avec son bagage unique, ses compétences et son expérience de vie, peut contribuer au succès d’une institution comme l’UNIL.
Je considère mon style de leadership comme consultatif, adaptatif et bienveillant. Cela ne veut pas dire que je me plie à ce que tout le monde veut, mais j’aime prendre du recul et écouter, en faisant le point sur ce qui est dit (directement et indirectement), avant de donner mon avis ou de prendre une décision. Avec mon groupe de recherche, je dirige en quelque sorte depuis l’avant, le milieu ou les coulisses – en fonction de ma familiarité avec le sujet ou de là où je pense pouvoir contribuer de la manière la plus efficace. Je ne suis certainement pas conflictuelle, j’essaie plutôt de persuader les autres par le raisonnement ou l’enthousiasme, et je suis capable rester sur mes positions lorsqu’on me contredit. Au final, je pense simplement que je peux travailler de manière plus constructive avec quelqu’un lorsque nous avons un respect et une confiance mutuels.
« Je pense qu’il est important de promouvoir et d’accueillir la diversité des styles d’encadrement ».
Anindita Samsu
Anindita Samsu faisait partie de la 7e cohorte de Homeward Bound. Le programme offre aux participantes un environnement immersif pour réfléchir à des solutions durables pour l’avenir. Il s’est terminé par un voyage de 19 jours dans la péninsule antarctique, avec l’impressionnant spectacle d’une région profondément touchée par le changement climatique, une destination qui a d’ailleurs été l’objet d’un intense débat parmi les participantes (photo : A. Samsu).
Cette expérience changera-t-elle votre vie professionnelle ?
A. S. : En tant que jeune professeure, je suis confrontée à de nouveaux défis et j’apprends constamment. Le voyage m’a apporté une vision plus claire et une stratégie à mettre en œuvre dans mes recherches : quels projets mener, comment choisir une équipe et interagir avec elle.
J’ai la certitude que tant que j’ai en vue les résultats les plus importants, je prendrai la bonne décision. Je me sens plus confiante dans ma façon de travailler et dans la façon dont je veux entraîner mon équipe dans ma démarche. Il est important pour moi de m’assurer que mon groupe et moi-même travaillons à la réalisation d’objectifs communs et convergents, et que nous nous soutenons et nous améliorons mutuellement. Je suis très enthousiaste à l’idée d’aller de l’avant et de mener à bien cette conviction.
« Je suis convaincue que soutenir mon équipe et mes collègues est un moyen efficace d’interagir avec eux. »
Anindita Samsu
L’un des souvenirs les plus marquants de la professeure Samsu est un moment de sérénité sur le pont du navire. Elle se tenait seule à l’extérieur, contemplant les îles et les icebergs par une mer calme. Elle se sentait en sécurité et en paix, et ce alors même qu’elle se trouvait sur ce petit navire au milieu de l’océan, entourée d’une nature sauvage, loin de la civilisation et de l’hôpital le plus proche. Ce moment d’émerveillement a réaffirmé les choix qu’elle veut faire en tant que cheffe d’équipe et être humain pour contribuer à un avenir sûr et durable pour toutes et tous (photo : A. Samsu).
Cette expérience a-t-elle changé votre engagement et votre vision ?
A. S. : Le programme offre des conditions propices à la réflexion sur la manière dont nous pouvons contribuer, en tant que leaders STIMM, à un avenir durable. Il se termine par un voyage en Antarctique, où les effets du changement climatique sont frappants malgré son isolement. Ce voyage nous a offert un environnement dynamique favorable à la discussion et à la collaboration. Mais, compte tenu de l’empreinte carbone d’une expédition en Antarctique, nous avons constamment réfléchi à la manière de rendre ce programme plus durable à l’avenir.
En fin de compte, nous avons toutes beaucoup appris de cette expérience. Nous avons changé notre façon de voir beaucoup de choses, dans nos activités au travail, mais aussi dans nos vies personnelles. Nous avons pris l’engagement d’aider à promouvoir, faciliter et diriger des initiatives bénéfiques pour la société et l’environnement. J’espère également qu’en partageant ce que nous avons appris, nous inciterons d’autres personnes à agir.
De Chat GPT au traitement d’images, en passant par les traducteurs universels, les algorithmes d’intelligence artificielle (IA) sont partout et influencent plus que jamais notre rapport au monde et à la société. Dans le monde scientifique, l’AI est déjà largement utilisée depuis plusieurs années dans de nombreux domaines des sciences médicales, sociales humaines et naturelles. Qu’en est-il dans les géosciences ?
Nous faisons le point avec huit scientifiques de la FGSE, qui nous expliquent comment l’IA s’intègre dans leur recherche, la font évoluer, et pose de nouveaux défis ! Découvrez les projets de ces scientifiques ou retrouvez ci-dessous une synthèse des avantages et des limites de l’utilisation de l’IA dans leurs recherches.
« Au-delà de ses applications puissantes pour la recherche, les outils de visualisations de l’IA sont très utiles pour la communication avec le grand public ».
Guillaume Jouvet
Guillaume Jouvet dope ses modèles pour simuler et étudier l’évolution des glaciers dans le passé et dans le futur. L’IA lui permet de travailler à des échelles de temps de plus en plus grandes et à des résolutions spatiales de plus en plus fines. Il utilise également l’IA dans d’autres contextes.
L’apprentissage automatique permet à Tom Beucler de prévoir la formation de cyclones tropicaux de manière plus fiable que les modèles classiques et d’améliorer le réalisme des orages dans les modèles climatiques. En tant que chercheur impliqué dans le développement de l’intelligence artificielle, il met également en garde contre ses possibles dérives.
« Il faut prendre garde à éviter une utilisation potentiellement biaisée de l’apprentissage automatique, lorsque celui-ci n’est pas encadré par des lois scientifiques ou éthiques ».
« l’IA offre une belle opportunité de collaborations avec des scientifiques issus de différents domaines ».
Marj Tonini
Marj Toniniconçoit des modèles basés sur l’IA pour évaluer les impacts des risques naturels sur l’environnement, tels que les feux de forêt ou les glissements de terrain. En combinant des bases de données sur les risques naturels et des données environnementales grâce à des algorithmes de machine learning, elle peut cartographier l’exposition aux risques et identifier les zones les plus vulnérables. Elle perçoit également d’autres avantages à cet outil.
De nombreuses gouvernances urbaines souhaitent favoriser la mobilité douce. Comment procéder ? Quels aménagements sont-ils les plus pertinents ? Comment se comportent les cyclistes dans le trafic ? Christian Kaiser contribue à répondre à ces questions en utilisant des outils de visualisation interactifs couplés à des algorithmes de deep-learning.
« Avant cette recherche, je ne pensais pas que le machine learning puisse être très utile dans le domaine de la géophysique ».
Niklas Linde
Niklas Linde apprend à l’IA à reconnaître et générer des structures géologiques pour modéliser le sous-sol. Sceptique au départ, il a su s’approprier les algorithmes développés pour générer des images.
Céline Rozenblat étudie les villes et leur développement. Elle entrevoit un potentiel de l’IA dans ce domaine pour faire émerger des liens entre différentes composantes du fonctionnement des cités (urbanisme, relations sociales, mobilité etc). Elle reste cependant pragmatique sur l’utilisation de l’IA de manière générale.
« L’impact de l’IA dépend de la manière dont elle est utilisée. On peut l’appliquer comme une recette de cuisine, ce qui ne génère pas de nouvelle connaissance, mais on peut aussi l’utiliser pour aller au-delà des principes connus ».
« L’avènement actuel de l’IA est notamment dû à l’arrivée massive de données numériques et aux progrès dans l’utilisation de la puissance de calcul des ordinateurs pour les exploiter ».
Grégoire Mariéthoz
Les données sont un élément-clé de l’utilisation de l’IA. Or celles-ci ne sont pas toujours en nombre suffisant ou de qualité satisfaisante (passage de satellites à intervalles de temps éloignés ou images radars tronquées par exemple). Grégoire Mariéthoz développe des méthodes statistiques permettant de combler les lacunes des données éparses ou fragmentaires, afin d’optimiser leur exploitation.
Qu’elles et ils soient précurseur·ses, utilisateur·rices occasionnel·es ou inconditionnel·es de l’IA, ces scientifiques en tirent ainsi bénéfice pour doper leurs modèles, accroître leurs échelles spatiales et temporelles, améliorer et affiner leurs prévisions ou encore découvrir de nouveaux paradigmes.
Un regard extérieur est fourni par Gérald Hessqui apporte sa vision d’épistémologue et d’éthicien sur l’essor de l’intelligence artificielle dans notre quotidien.
L’intelligence artificielle : oui mais pourquoi ?
Traditionnellement, la modélisation environnementale est au cœur de nombreuses recherches en géosciences, par exemple pour anticiper les changements climatiques, comprendre la dynamique des nappes d’eau souterraines, ou le fonctionnement des cités. Les modèles classiques (i.e sans intégration de l’IA) reposent souvent sur des équations mathématiques complexes, articulées autour de multiples variables (comme la température, l’humidité, la topographie, l’altitude, l’exposition, etc.). Pour être exploités, ces modèles nécessitent une grande puissance de calcul des ordinateurs (qui se traduit également par de long temps de calculs) et sont efficaces surtout pour décrire des processus pour lesquels toutes les variables sont mesurables et identifiées. Dès lors que l’on souhaite intégrer des éléments aléatoires (non prévisibles), modéliser des zones dans lesquelles les mesures sont impossibles (pour des raisons d’accès ou d’absence d’appareils de mesure par exemple) ou élargir les échelles de temps ou d’espace, la complexité des calculs augmente et dépasse souvent les capacités des ordinateurs.
Gagner en précision et surmonter les limites de calcul
C’est ici que l’intelligence artificielle entre en scène. « Avec l’IA on peut exploiter la capacité de calcul des cartes graphiques des ordinateurs, ce qui offre la possibilité d’effectuer un nombre incroyable d’opérations en parallèle. C’est comme si on avait 10’000 2CV à la place de 6 Ferraris », explique Guillaume Jouvet. De plus le machine learning et le deep learning rendent les calculs plus efficients car ils conservent en mémoire les résultats obtenus à chaque étape (ils se basent sur les calculs déjà effectués pour en effectuer de nouveaux). En tirant ainsi parti de toute l’information contenue dans les données, le machine learning permet d’améliorer les prédictions, de faire émerger plus clairement les liens entre les variables étudiées et de réduire la complexité des modèles. Plusieurs protagonistes affirment par ailleurs qu’« avec l’IA il est beaucoup plus simple d’intégrer et tester des variables de nature différentes dans leurs modèles que dans un modèle classique ».
Marj Tonini a notamment tiré profit de ces atouts pour développer un modèle de mesure des risques d’incendie, par la suite adopté comme standard européen : « Nous avons testé les modélisations avec et sans IA pour des prédictions de risque de feux sur des zones pour lesquelles on ne dispose pas de données. Les modélisations avec IA se sont révélées significativement plus fiables que celles obtenues avec des modèles “classiques“ ».
Ainsi face aux défis de la modélisation environnementale, l’IA offre une solution novatrice en permettant d’explorer plus à fond les modèles sur des échelles spatiales et temporelles étendues, ou faire émerger des liens de cause à effet potentiellement inattendus.
L’IA, un outil puissant qui demande précaution et réflexion
L’intelligence artificielle est indéniablement une révolution technologique, mais son utilisation nécessite une approche réfléchie. Les actrices et acteurs du domaine s’accordent sur un point : il est essentiel de respecter des principes de base lors de l’utilisation de l’IA. Cela inclut la nécessité d’avoir des ensembles de données pertinents et volumineux pour entraîner les modèles, la conception d’algorithmes efficaces, et de rester cohérent avec les connaissances théoriques des processus étudiés. « Il ne faut pas utiliser l’IA “tous azimuts“. Nous devons conserver un sens critique par rapport aux données et aux modèles appliqués. Identifier clairement les problèmes et déterminer quelles données sont pertinentes pour les résoudre demeure essentiel ».
Grégoire Mariéthoz précise quant à lui que « le choix d’utiliser l’IA doit se poser dès la conception du modèle ». Il est important de faire un bilan du gain de temps offert par l’IA sur les calcul et l’exploitation des données, par rapport au temps nécessaire à la récolte de grandes quantités de données et à l’entraînement des algorithmes sur ces celles-ci. La décision d’intégrer l’IA ou non dans un modèle dépend autant de cette balance d’investissement en temps que des résultats escomptés.
En résumé, l’IA est un outil puissant, mais son utilisation nécessite un équilibre entre le potentiel innovant qu’elle offre et les précautions indispensables pour éviter des dérives. Les chercheur·es insistent sur « l’importance de la réflexion éthique, du respect des principes de base et du discernement continu, lors de l’intégration de l’IA dans les modèles scientifiques. C’est ainsi que nous pourrons pleinement tirer parti de cette technologie tout en minimisant les dérives potentielles ».
Repousser les frontières de la connaissance environnementale
L’IA permettrait ainsi de repousser les frontières de la connaissance environnementale. « Elle ouvre de nouveaux horizons et représente un outil qui permettra de franchir de nouveaux caps », se réjouit Guillaume Jouvet. Tom Beucler entrevoit même un potentiel renversement du processus scientifique dans certains contextes. « Plutôt que de partir d’hypothèses théoriques que l’on vérifie ensuite au moyen de données, en utilisant l’IA, on part des données pour formuler de nouvelles hypothèses, avec le potentiel de raffiner ou même de remettre en cause les modèles existants. Cette dynamique pourrait éventuellement nous faire découvrir de nouveaux processus physiques ».
De telles découvertes se concrétiseront-elles ? En tous les cas, le développement constant de nouveaux algorithmes et l’intégration de l’IA aux formations des futurs scientifiques, contribueront sans aucun doute à son essor dans la recherche en géosciences pour les années à venir.
Quelques définitions
IA : L’intelligence artificielle (IA) désigne la capacité d’une machine, d’un programme informatique ou d’un système informatique à effectuer des tâches qui nécessitent généralement l’intelligence humaine. Cela inclut des activités telles que la résolution de problèmes, l’apprentissage, la reconnaissance de motifs, la compréhension du langage naturel, la perception visuelle, et bien d’autres. L’objectif de l’intelligence artificielle est de développer des systèmes capables de prendre des décisions autonomes, d’apprendre à partir de l’expérience, et de s’adapter à des environnements changeants.
Machine learning (apprentissage automatique) : sous-catégorie de l’IA qui vise à donner aux ordinateurs la capacité d’ « apprendre » à partir des données par une approche mathématique. Ces derniers peuvent ainsi résoudre des tâches pour lesquelles ils n’ont pas été spécifiquement programmés et de prendre des décisions ou de réaliser des tâches sans intervention humaine directe.
Deep learning (apprentissage profond) : sous-catégorie de machine learning basée sur une structure en réseau neuronal à plusieurs niveaux. L’apprentissage profond a connu des avancées significatives grâce à l’augmentation de la puissance de calcul et à la disponibilité de grandes quantités de données, ce qui en fait une technique clé pour des applications telles que la vision par ordinateur, la reconnaissance vocale et la traduction automatique.
Modèle stochastique : un modèle stochastique est un modèle mathématique qui prend en compte l’incertitude ou le caractère aléatoire dans ses composants. Contrairement aux modèles déterministes qui produisent des résultats identiques pour des conditions initiales données, les modèles stochastiques intègrent des éléments de hasard dans leurs formulations. Ces modèles sont souvent utilisés pour représenter des phénomènes influencés par des variables aléatoires ou des processus aléatoires.
Dans un modèle stochastique, les résultats ne sont pas prédéterminés, mais sont plutôt caractérisés par des distributions de probabilité. Cela permet de mieux représenter des phénomènes réels qui peuvent être soumis à des variations imprévisibles ou à des fluctuations aléatoires. Les modèles stochastiques sont couramment utilisés dans divers domaines tels que la finance, la météorologie, la physique des particules, et d’autres domaines où l’incertitude et le hasard jouent un rôle significatif.
Tom Beucler, Institut des dynamiques de la surface terrestre
Tom Beucler est physicien du climat. Il intègre depuis longtemps l’intelligence artificielle dans ses recherches, dont une partie porte spécifiquement sur l’apprentissage machine.
Son objectif est d’améliorer la modélisation de la physique atmosphérique, notamment afin d’augmenter la qualité des prévisions météorologiques et des projections du changement climatique. Outre leur intérêt scientifique, ces projections sont importantes pour pouvoir anticiper certains événements climatiques extrêmes qui se produisent déjà, ou risquent de se produire, dans le contexte de l’évolution du climat.
Améliorer les modèles grâce aux réseaux de neurones tout en respectant les lois de la physique
L’atmosphère suit des lois physiques qui peuvent être traduites en équations. La complexité atmosphérique provient de la multitude de variables et d’échelles impliquées, qui peuvent interagir entre elles. Lorsque qu’il désire modéliser cette complexité, Tom Beucler se retrouve vite face aux limites de la capacité de calcul des ordinateurs. Il intègre les réseaux de neurones pour réduire le coût de calcul, avec la possibilité de combiner des variables de natures multiples (modèles haute-résolution, radars météorologiques, images satellites, etc). Ceci lui permet d’améliorer et simplifier la représentation des processus complexes et rendre les modèles atmosphériques plus accessibles car moins coûteux.
Tom Beucler précise qu’il arrive que les calculs basés uniquement sur des données et des algorithmes conduisent à des résultats incompatibles avec les lois physiques (par exemple, il a obtenu des résultats ne satisfaisant pas la loi de conservation de la masse et de l’énergie). Afin d’éviter cela, il intègre dans ses modèles d’IA la connaissance physique (apprentissage machine « guidé par la physique », où les modèles IA opèrent sur les données dans un cadre contraint par des connaissances physiques, évitant ainsi les résultats incohérents).
Grâce aux outils de la modélisation statistique, Tom Beucler et son équipe ont déjà pu obtenir des améliorations dans la modélisation de la formation et de l’évolution des cyclones tropicaux : là où les modèles classiques donnent de nombreux « faux positifs » (le modèle prédit un cyclone là où il n’y en a pas), les modèles plus cohérents avec les données observationnelles permet de conserver les prédictions correctes, tout en réduisant considérablement les « faux positifs ».
Il est essentiel de respecter des règles éthiques et scientifiques dans l’application de l’IA
Selon Tom Beucler : « L’utilisation de l’IA peut conduire à un renversement du processus scientifique » (voir encadré). Cependant, il met en garde contre une utilisation potentiellement biaisée de l’apprentissage machine lorsque celui-ci n’est pas encadré par des lois scientifiques ou éthiques. On peut relever des biais même dans le contexte de l’étude de la météorologie : les régions « riches » ont une densité de capteurs de données beaucoup plus élevée que les régions moins favorisées. Dans le cas de la prévision de formation des cyclones, ceci se traduit par des prédictions beaucoup plus fiables au large des côtes américaines que dans le nord de l’océan Indien par exemple.
L’IA : une (r)évolution dans la recherche ?
Tom Beucler parle d’un passage d’une approche scientifique ascendante (bottom-up) à une approche scientifique descendante (top-down) : traditionnellement, la recherche se développe à partir d’une théorie, dont les hypothèses sont testées en collectant des données sur le terrain. Le type de données collectées est déterminé par l’objectif poursuivi (approche bottom-up des hypothèses aux données). Avec l’IA, toutes les données pertinentes sont traitées et utilisées pour mettre en évidence des modèles ou des interactions entre différents paramètres (approche top-down des données aux hypothèses). Tom Beucler déclare que : « Cela laisse ouverte la possibilité de découvrir de nouvelles interactions ou équations, à condition que les données utilisées soient contrôlées (pertinentes, non biaisées) et que les résultats puissent être contraints dans un cadre théorique cohérent ».
Guillaume Jouvet, Institut des dynamiques de la surface terrestre
Guillaume Jouvet est mathématicien et glaciologue. Parmi ses projets figurent la modélisation de la dynamique glaciaire (manière dont la glace se déplace au sein d’un glacier au cours du temps), l’évolution de la couverture glaciaire alpine dans le temps et l’étude des glaciers côtiers (dont la langue se termine dans un milieu marin).
L’intégration de l’intelligence artificielle dans ses recherches vise à ouvrir de nouvelles portes pour explorer la dynamique des glaciers, comprendre leur rôle passé sur la formation de notre paysage, anticiper leur évolution, et évaluer les conséquences potentielles sur des secteurs tels que le tourisme alpin, ou la gestion des risques.
La modélisation de la dynamique glaciaire est une tâche complexe, impliquant la résolution d’équations intégrant une multitude de paramètres, qu’ils soient climatiques, physiques ou géomorphologiques. Traditionnellement, cette approche était limitée par la capacité de calcul des ordinateurs, en raison du nombre important de données et de paramètres à considérer. C’est là que le deep-learning a pu permettre à Guillaume Jouvet de maximiser l’utilisation de la puissance de calcul disponible de ses ordinateurs et d’optimiser l’efficacité des calculs de modélisation (voir encadré).
Passer d’une échelle au kilomètre à une échelle d’une centaine de mètres
Dans le contexte de la dynamique glaciaire, l’IA permet à Guillaume Jouvet de revolutionner ses modélisations, que ce soit en termes de temporalité ou de résolution spatiale. Il vise par exemple à améliorer la résolution d’une simulation de l’évolution de la couverture glaciaire alpine sur 120 000 ans, que lui et ses collègues ont réalisée sur la base d’un modèle classique.
Son objectif est de passer d’une échelle de 2 km à une échelle de 200 mètres. Ce gain énorme est possible grâce au deep learningqui permet de tirer parti de la puissance de calculs ds ordinateurs (voir encadré). Avec cette nouvelle stratégie, les couteux calculs effectués auparavant dans les modèles classiques sont remplacés par des opérations d’apprentissage peu onéreuses. La nouvelle modélisation haute résolution permettra de résoudre enfin la topographie complexe des Alpes, et d’explorer de nouvelles questions de recherche.
L’IA : un moyen de franchir de nouveaux caps
En dehors de la recherche pure, Guillaume Jouvet utilise également l’IA dans un but de communication, et propose par exemple la production d’iimages satellites de paysages alpins plausible au temps des glaciations, en utilisant l’IA générative. Il estime que « L’IA est un outil très performant pour réaliser des visualisations artistiques et ainsi aider à la vulgarisation scientifique auprès d’un large public ».
Pour Guillaume Jouvet, « l’IA ouvre de nouveaux horizons et représente un outil qui permettra de franchir de nouveaux caps ». Selon lui la principale limite réside dans le fait que l’on ne peut s’appuyer que sur des connaissances/données dont on dispose déjà (i.e. on ne crée pas de nouvelle connaissance).
Comment doper son ordinateur grâce à l’IA
Guillaume Jouvet nous explique comment on peut optimiser la puissance de calcul des ordinateurs via l’IA en utilisant les Graphic Processing Units (GPU) des ordinateurs : usuellement les gens travaillent sur le processeur central de l’ordinateur (CPU) qui traite les instructions contenues dans les programmes informatiques en cours d’exécution, effectue des calculs, gère les opérations de la mémoire et coordonne les activités des différents composants du système. Ce processeur a une vitesse d’exécution maximale définie en Gigahertz.
Le GPU est l’unité de traitement graphique de l’ordinateur qui permet traditionnellement d’optimiser l’affichage et le rendu des images et des vidéos. L’énorme avantage du GPU par rapport au CPU est qu’il dispose de milliers d’unités qui peuvent effectuer des opérations en parallèle, alors que le CPU dispose de seulement quelques processeurs (plus rapides). Guillaume Jouvet image cette différence : « Dans le CPU on a 6 Ferraris et dans le GPU on a 10’000 2CV. Ainsi avec le GPU on a la capacité d’effectuer un nombre incroyable d’opérations en parallèle« . La grande difficulté réside dans le fait qu’il faut rendre les calculs « parallélisables » pour résoudre les équations afin qu’ils soient exploitables par le GPU. L’IA est alors la clef pour cela, car les modèles IA (contrairement au modèle numériques classique) se parallélise naturellement très bien.
Grégoire Mariéthoz, Institut des dynamiques de la surface terrestre
Grégoire Mariéthoz s’intéresse à différents processus environnementaux liés à l’hydrologie et au climat:
Comment déterminer la couverture neigeuse sur la base d’images satellites ? Comment les régimes de précipitations vont-ils évoluer avec le changement climatique ? Quelle sera l’influence du changement climatique sur la végétation alpine ?, etc.
Pour comprendre ces processus naturels et leur évolution, Grégoire Mariéthoz utilise des modèles stochastiques qui traduisent les variabilités spatiales et temporelles de ces systèmes. Les données liées aux paramètres étudiés font partie des éléments-clés pour pouvoir développer ces modèles. Bien qu’on observe actuellement un afflux de données numériques provenant de multiples systèmes de capteurs, celles-ci ne sont pas toujours en nombre suffisant pour étudier certains paramètres ou zones spécifiques (nombre de capteurs limité, mesures très ponctuelles, événements rares etc.). Grégoire Mariéthoz et son équipe développent des méthodes statistiques qui visent à combler ces lacunes et à optimiser l’information issue des données à disposition.
Procéder de proche en proche pour remplir les vides
Ces méthodes présentent un intérêt notamment dans l’étude des processus à petite échelle temporelle ou géographique. Ces approches sont importantes, sachant que les phénomènes climatiques les plus violents se produisent généralement dans des zones très ciblées et peuvent occasionner localement beaucoup de dégâts (tornades, orages violents, trombes d’eau etc). Ces événements sont actuellement difficiles à prévoir et tendent à devenir plus fréquents avec le changement climatique. Le challenge auquel est confronté Grégoire Mariéthoz face à ces questions est d’arriver à identifier des schémas cohérents à partir de données très fragmentaires et de processus parfois aléatoires.
Pour y parvenir, ce dernier développe des outils qui permettent de déduire la valeur d‘un paramètre situé près d’une mesure directe, en s’appuyant sur des lois physiques et diverses méthodes statistiques. En procédant ainsi de proche en proche, il lui est possible de combler des intervalles manquants entre deux mesures et d’obtenir des sets de données complets. Grégoire Mariéthoz a pu ainsi modéliser des historiques de pluviométrie, reconstituer des images tronquées, ou recréer l’historique de la couverture neigeuse dans les alpes (cf encadré).
L’utilisation de l’IA progresse, mais ne remplace pas tous les modèles
Si l’IA et ses algorithmes existent depuis longtemps déjà, Grégoire Mariéthoz la voit se développer maintenant grâce entre autres, à l’avalanche massive de données exploitables, à la densification de divers capteurs (satellites, radars, webcams) et à la mise à disposition de ces données en open source. La disponibilité d’ordinateurs de plus en plus performants joue aussi un rôle. L’IA fournit ainsi des outils intéressants (comme ChatGPT ou les générateurs d’images), mais elle ne répond pas à toutes les situations et ne peut pas créer de nouvelles connaissances. Selon lui un modèle basé sur l’IA n’est pas forcément meilleur qu’un autre : « Si l’on veut modéliser un événement ou un phénomène précis, les modèles classiques peuvent souvent être implémentés en tenant compte de la connaissance des processus. En revanche, lorsque beaucoup de données sont disponibles, il peut devenir intéressant d’intégrer l’IA et de consacrer du temps à récolter la masse de données nécessaire et à entraîner l’ordinateur. Cette balance d’investissement de temps est l’un des critères déterminants pour le choix d’utilisation de l’IA.»
Déterminer l’évolution de la couche neigeuse au cours du temps à partir d’images satellites actuelles
Grégoire Mariéthoz et ses collègues ont pour objectif de modéliser l’évolution de la couverture neigeuse en Suisse, notamment car celle-ci représente un très bon indicateur des variations de température et de climat, et peut impacter fortement l’hydrologie locale lors de sa fonte. La quantité de neige couvrant une zone donnée peut être observée soit directement, par des mesures au sol et des stations météo, soit indirectement, via des images satellites. Ces images sont parfois difficiles à interpréter : des zones à l’ombre peuvent être considérées comme sans neige car plus sombres (actuellement certains satellites fournissent des données plus fiables grâce à l’ajout de mesure de rayonnement infrarouge notamment), ou la vision du sol est perturbée par la présence d’une couche nuageuse. A cela s’ajoute le rythme des prises de vue qui est irrégulier, (tous les 3 à 5 jours), ce qui rend imparfaitement compte d’un phénomène pouvant évoluer d’un jour à l’autre.
Pour contourner ce problème, Grégoire Mariéthoz s’est basé sur le principe que l’évolution de la couverture neigeuse suit des schémas constants d’une année à l’autre, lorsque les conditions météo sont similaires. Il a développé des algorithmes apprenant à l’ordinateur à relier les valeurs de températures et de précipitations mesurées au sol, à la couverture neigeuses observée sur des images satellites interprétables sans ambiguïté (en incluant également d’autres paramètres géomorphologiques comme la topographie et l’exposition). En reprenant les données climatiques de différentes périodes, il lui a ainsi été possible de créer des images satellites “synthétiques“ de la couverture neigeuse des régions observées. Les projections effectuées ont pu être validées, d’une part avec une comparaison par rapport à des mesures faites sur site, et d’autre part avec des images prises par un autre satellite. Dans tous les cas, les images synthétiques prédisent une répartition de la couverture neigeuse plus proche de la réalité que celle des modèles traditionnels qui se basent uniquement sur les processus physiques de fonte de la neige.
Pour aller plus loin
Modèle stochastique : Un modèle stochastique est un modèle mathématique qui prend en compte l’incertitude ou le caractère aléatoire de certains des paramètres étudiés. Contrairement aux modèles déterministes qui produisent des résultats identiques pour des conditions initiales données, les modèles stochastiques intègrent des éléments de hasard dans leurs formulations. Ces modèles sont souvent utilisés pour représenter des phénomènes influencés par des variables aléatoires ou des processus aléatoires.
Dans un modèle stochastique, les résultats ne sont pas prédéterminés, mais sont plutôt caractérisés par des distributions de probabilité. Cela permet de mieux représenter des phénomènes réels qui peuvent être soumis à des variations imprévisibles ou à des fluctuations aléatoires. Les modèles stochastiques sont couramment utilisés dans divers domaines tels que la finance, la météorologie, la physique des particules, et d’autres domaines où l’incertitude et le hasard jouent un rôle significatif.
Marj Tonini, Institut des dynamiques de la surface terrestre
PAT-chercheur à la Faculté des géosciences et de l’environnement et directrice du Swiss Geocomputing Centre, Marj Tonini travaille depuis près de 20 ans sur la modélisation des risques naturels, tels que les feux de forêt ou les glissements de terrain, la production de scénarios prédictifs ou encore les changements d’affectation des territoires
Elle fournit notamment des cartes d’occurrences de risques utilisées par les gouvernances locales pour la gestion de zones sensibles situées sur leur territoire.
Un afflux de données offrant la possibilité d’intégrer l’IA aux modèles
Au début de ses recherches, Marj Tonini travaillait sur des modèles de cartographie « classiques ». Ces modèles sont basés sur des connaissances environnementales solides, où chaque zone est décrite par de nombreux paramètres (pente, nature du sol, couverture de la végétation etc.). Pour définir un risque de feu de forêt par exemple, on intègre ces variables en les pondérant selon leur influence relative sur ce phénomène de risque (par exemple le type de végétation ou l’occupation du sol). Marj Tonini nous explique que « ces modèles ont le désavantage de dépendre de la subjectivité des scientifiques, qui décident du poids attribué aux différentes variables, et qu’ils nécessitent beaucoup de temps pour tester diverses configurations« .
Marj Tonini s’est intéressée à l’intégration du machine learning, au moment où plusieurs éléments favorisaient cette démarche : « L’utilisation de l’intelligence artificielle dans mes modèles a été rendue possible grâce à l’augmentation massive des données à disposition (p.ex. base de données spatio-temporel en format digital, images satellitaires), ainsi qu’à l’accroissement de la puissance de calcul des ordinateurs. »
Les algorithmes utilisés rendant les calculs beaucoup plus efficients, lui ont permis de jongler plus facilement avec les différentes variables afin d’affiner ses modèles. Les prédictions sur des zones pour lesquelles il manquait de données directes (cf encadré) ont ainsi pu être améliorées. De plus, la possibilité de traiter des paramètres aléatoires, permet de fournir des résultats sous forme de cartes d’occurrences de risques (estimer la probabilité qu’un incendie se déclare dans une zone donnée avec un certain marge d’incertitude) qui améliorent l’exploitation des informations pour les utilisateurs finaux (gouvernances communales, régionales par exemple).
L’utilisation de l’IA a une marge de progression dans le domaine des géosciences
Selon Marj Tonini, « l’utilisation de l’IA dans le domaine des géosciences est encore marginale (<20% des recherches en géosciences) ». Ce pourcentage devrait augmenter avec l’intégration de l’apprentissage des techniques de machine learning et de la science des données dans les formations de base des étudiant.e.s et doctorant.e.s. Elle-même enseigne à des étudiant.e.s de niveau master et constate leur envie d’intégrer l’IA dans leurs travaux. « Il est toutefois nécessaire d’attirer leur attention sur les écueils à éviter. Il faut par exemple disposer de suffisamment de données, partir de questions pertinentes, ne pas confondre corrélations et causalité et pouvoir vérifier les résultats sur des nouvelles données », illustre la chercheuse.
Par ailleurs, Marj Tonini relève que « l’IA peut être un moyen intéressant pour initier des collaborations, par exemple entre personnes qui maîtrisent un domaine scientifique et des spécialistes en machine learning, ou entre scientifiques de domaines différents utilisant les mêmes algorithmes pour l’intégration de l‘IA dans leur recherche ». Elle-même collabore avec des scientifiques issus de différents domaines et au sein de diverses institutions et pays.
D’une première publication à un standard européen
« Un des exemples que je peux citer est celui de ma collaboration avec le Centre International pour le Monitorage Environnemental en Italie (CIMA) », explique Marj Tonini. « Un de leur représentants m’avait contactée à la suite de ma première publication sur l’utilisation du machine learning dans un modèle destiné à analyser les risques de feux de forêt. Il disposait de données collectées sur 30 ans, et voulait savoir si elles pouvaient être introduite dans mon modèle », se rappelle-t-elle.
Le groupe du CIMA (secteur « Gestion des risques d’incendie et conservation des forêts ») avait conçu un modèle déterministe très sophistiqué qu’ils souhaitaient comparer aux modèles intégrant le machine learning. Les deux approches ont pu être comparées sur la base de 80% des données existantes, en faisant des projections sur un 20% des donnée indépendantes. Le modèle basé sur l’AI a obtenu des résultats bien meilleurs que le modèle déterministe plus « classique ». Marj Tonini nous indique que suite à ces résultats « le modèle a finalement été adopté comme standard pour la cartographie du risque incendie élaborée au niveau locale et européen par le centre CIMA ».
Niklas Linde est géophysicien. Il s’intéresse plus particulièrement aux processus environnementaux en lien avec l’hydrogéologie.
Son intérêt pour l’utilisation de l’apprentissage profond a commencé début 2017 avec pour objectif de mieux intégrer les contraintes géologiques dans les modélisations inverses1.
Les modélisations hydrogéologiques sont intéressantes pour étudier les flux souterrains (écoulement des eaux souterraines, transport de contaminants p.ex.). Comme les données ne couvrent pas l’entier des volumes étudiés, il est nécessaire d’y intégrer de la géostatistique : attribution à chaque point d’une fonction statistique pour les différents facteurs mesurés (perméabilité, conductivité, etc.). Ceci permet de déduire ces valeurs pour les autres points de proche en proche, afin d’obtenir finalement une vision complète de la zone étudiée. En complexifiant les calculs, ce processus augmente considérablement le temps nécessaire pour obtenir des résultats (réalisations) et limite la possibilité de tester de multiples hypothèses.
Apprendre à l’IA à reconnaître et générer des structures géologiques
L’idée originale de son collègue Eric Laloy a été d’utiliser les algorithmes de modèles génératifs profonds, (comme par exemple, les applications qui créent des nouveaux visages à partir d’images de millions de visages),pour générer des nouvelles images géologiques avec des caractéristiques similaires à celles d’images existantes (images d’entraînement). Dans le cadre des recherches de Niklas Linde et ses collaborateurs, les images d’entraînement, sont constituées par exemple d’affleurements rocheux, qui représentent une bonne indication de la nature du sous-sol environnant. Les algorithmes ont été entraînés grâce à une multitude de telles images pour qu’ils apprennent à représenter ces structures et leurs propriétés.
Les applications de cette méthode sur des modélisations d’aquifères (structures géologiques contenant de l’eau de manière permanente ou temporaire) ont montré des résultats supérieurs à ceux obtenus avec des méthodes plus classiques. Niklas Linde ajoute : « Les valeurs probabilistes obtenues via ces modélisations rendent les résultats potentiellement plus exploitables pour les utilisateurs sur le terrain (on peut prédire avec quelle probabilité le sous-sol d’une zone donnée renferme telle ou telle propriété géophysique) ». L’objectif pour la suite est d’améliorer les algorithmes afin de diminuer le temps nécessaire à leur entraînement, et de rendre les modèles encore plus précis.
Sceptique au départ
Niklas Linde déclare : « Avant cette recherche, je ne pensais pas que le machine learning puisse être très utile dans le domaine de la géophysique ». Les modèles réalisés à partir des données et des modèles physiques lui semblaient en effet suffisamment précis et préférables, par rapport à une approche basée sur les données. Confronté à des modèles de la subsurface de plus en plus complexes, il a fait partie des précurseurs de l’utilisation de l’apprentissage profond dans le domaine (cf encadré). Le développement de l’utilisation de l’IA dans les géosciences et les progrès réalisés par la suite montrent que le coût d’intégration du machine learning dans un modèle complexe, est largement compensé par les avantages en termes de capacité à représenter des relations complexes et des tester une grande quantité des modèles différents.
Un rôle de précurseur
Niklas Linde et ses collègues ont fait partie des précurseurs de l’utilisation de l’apprentissage profond dans les géosciences pour générer, avec des modélisations inverses, des modèles géologiquement réalistes de la subsurface qui sont en accord avec les données géophysiques. Lors de la soumission de leur premier article décrivant cette approche en 2017, l’éditeur a refusé de le publier, car cette approche ne leur est pas apparue pertinente. L’article a finalement été accepté par un autre éditeur. Le deuxième article sur ce sujet a aussi été refusé avant d’être accepté en 2018 après une re-soumission. Actuellement les publications sur l’utilisation de l’apprentissage profond dans les géosciences sont nombreuses.
La modélisation inverse consiste à partir de la récolte de données en surface ou dans des forages, puis d’effectuer une modélisation de la forme et des propriétés du sous-sol pouvant satisfaire ces données. ↩︎
Céline Rozenblat, Institut de géographie et durabilité (IGD)
Céline Rozenblat est géographe spécialiste des systèmes complexes. Ses recherches portent principalement sur les villes et les différents réseaux qui supportent leur fonctionnement.
Son objectif est de pouvoir modéliser leurs multiples dimensions – urbaines, économiques, sociales ou environnementales – afin de comprendre leurs interactions et identifier les moteurs d’évolution de la cité.
Céline Rozenblat a utilisé l’IA pour la première fois dans un mandat réalisé en collaboration avec l’Organisation Mondiale de la Santé. L’objectif de cette étude était d’identifier quelles actions publiques ou privées répondaient ou non à des enjeux de santé urbaine dans différentes régions du monde, et comment ces enjeux et ces actions étaient ou non liées aux questions de développement durable.
Des millions de publications et de sites web d’institutions ont été analysés, afin d’en extraire le contenu et classifier les termes apparaissant ensemble. Plutôt que d’effectuer une classification standard, les scientifiques ont utilisé une modélisation thématique1 (Topic Modelling), pour identifier des associations de mots pertinentes. L’un des résultats obtenus montre que les actions sont davantage cloisonnées (les questions de santé demeurant très distinctes des questions de durabilité) là où les institutions existent depuis longtemps (comme en Europe et en Amérique du nord). Selon Céline Rozenblat, « Les résultats de cette approche ont mis en lumière des relations plus claires, plus épurées (avec moins de paramètres) et plus robustes, qu’avec les modèles standards de classifications ».
Les villes changent de forme ou grandissent – mais pourquoi ?
Actuellement, Jingyan Yu, post-doctorante du groupe de Céline Rozenblat, étudie l’évolution de l’étalement des villes du monde au cours du temps. Initialement uniquement axée sur l’analyse d’images satellites (différences de contenu des pixels – ville versus non-ville), ses modèles intègrent l’IA pour qualifier les changements observés, et tentent désormais d’inclure des modèles liés au fonctionnement urbain, afin de comprendre quels paramètres influencent le plus l’accroissement ou le changement de forme de la ville.
Mêler boîte noire et boîte blanche pour pouvoir travailler dans une zone grise
Céline Rozenblat reste pragmatique quant à l’utilisation de l’IA. Elle reconnaît ses atouts avec des outils puissants, tels que Chat GPT, qui facilitent la communication et le traitement de l’information. Selon elle, les modèles intégrant l’IA ne doivent cependant pas remplacer les modèles classiques « explicatifs », mais les compléter. Le machine learning a ses limites, car il fonctionne souvent sur des moyennes ne générant pas de résultat innovant (voir aussi l’encadré). De plus, il existe un effet « boîte noire » entre les données d’entrée et les résultats de sortie, qui ne permet pas toujours de comprendre comment on en est arrivé au résultat. Selon Céline Rozenblat « il est pertinent de pouvoir avoir une combinaison des deux approches : utilisation de l’IA sur les données (boîte noire) couplée à un modèle connu et maîtrisé (boîte blanche) pour pouvoir travailler dans une boîte grise ».
L’une des utilisations prometteuses de l’IA selon elle, est son rôle potentiel dans le soutien des régions en voie de développement. Par exemple l’augmentation et la systémisation de l’analyse des images satellites grâce à l’IA peut aider à la gestion du territoire, de régions dans lesquelles les ressources pour effectuer des mesures de terrain ou échanger des données sont limitées.
Selon Céline Rozenblat, l’impact de l’IA dépend de la manière dont elle est utilisée. On peut l’appliquer comme une recette de cuisine, ce qui ne génère pas de nouvelle connaissance. Mais on peut aussi l’utiliser pour aller au-delà des principes connus. Elle mentionne notamment l’approche qui consiste à trouver des équations à partir de l’analyse de milliers de données (processus connu sous le nom de « machine scientists »). Ici l’objectif est de laisser l’IA tester de multiples équations au sein des données pour en extraire les plus favorables (celles qui expriment le mieux les relations entre ces données). L’IA est indispensable car elle combine des milliers de types d’équations qu’il serait impossible de tester avec des modèles standards. Il est ensuite possible de sélectionner l’équation la plus pertinente par rapport au modèle théorique ou de confronter différentes équations pour obtenir des débats enrichissants. Céline Rozenblat décrit ce processus dans un MOOC sur l’approche systémique de la santé urbaine (Healthy Urban Systems) comportant plusieurs chapitres consacrés à l’IA.
La modélisation thématique utilise le machine learning pour identifier des structures de textes ou groupes de mots similaires au sein d’un corps de texte. ↩︎
Gérald Hess est philosophe, spécialiste en éthique et philosophie de l’environnement. Il a également enseigné l’épistémologie à la faculté des lettres de l’UNIL.
Ses projets actuels portent sur la relation de l’humain avec la nature. Il a fait paraître à l’automne 2023 un livre intitulé Conscience cosmique : pour une écologie à la première personne dans lequel il cherche à expliciter un rapport à la nature (ou à l’environnement naturel) qui précède celui que la pensée scientifique objective inévitablement par ces concepts, ces lois et ses modèles, et qui fonde ou devrait fonder notre rapport à la nature. Il apporte ici son regard d’éthicien et épistémologue sur l’essor de l’intelligence artificielle.
On peut remonter jusqu’à l’Antiquité pour retrouver les premières tentatives de compréhension et d’ « automatisation » du raisonnement. En développant la science de la logique, qui visait à caractériser des mécaniques de raisonnement correctes, Aristote utilisait par exemple des syllogismes pour enchaîner deux propositions à une troisième (qui découlait logiquement des deux autres).
Au XIIème siècle, Leibnitz a formulé mathématiquement ces lois logiques, afin de pouvoir déterminer la validité d’un raisonnement par un calcul. Par la suite de nombreux scientifiques ont tenté de mécaniser ces calculs logiques, et les faire effectuer par des machines. L’un des plus connus est Alan Turing qui a construit sa fameuse machine dans les années 1950.
Le terme intelligence artificielle est officiellement apparu en 1956, dans un projet soumis par quatre chercheurs américains, désireux d’étudier l’intelligence à l’aide des ordinateurs. Leurs hypothèses se fondaient sur le fait que certains mécanismes cognitifs de l’intelligence humaine pourraient être reproduits à partir du modèle de l’ordinateur. Après des débuts chaotiques, c’est vers 1980 que les progrès des techniques de formalisations mathématiques ont permis de concevoir les algorithmes d’apprentissage (basés sur des réseaux similaires à ceux des neurones). Depuis les années 2000, l’augmentation de la puissance des ordinateurs et l’accumulation de données numériques accessibles ont permis l’explosion du développement de l’IA dans de multiples domaines.
Des enjeux pas forcément nouveaux, mais plus visibles
Pour Gérald Hess, l’intelligence artificielle ne soulève pas de nouvelles questions fondamentales du point de vue épistémologique. Les bouleversements des sciences du numérique sont apparus principalement avec l’avènement d’internet puis des réseaux sociaux. L’accès instantané à toutes sortes d’informations, le contact et les échanges permanents au sein de communautés plus ou moins éclectiques ont significativement modifié la relation des gens à la connaissance, ainsi que leur représentation du monde. Les moteurs de recherche disposent depuis longtemps de la capacité à utiliser les données numériques pour cibler les contenus pertinents, traduire des textes ou identifier des lieux à partir d’images. Dans ces contextes, l’intelligence artificielle n’est pas fondamentalement différente des algorithmes utilisés a à ce jour traiter l’information de façon intentionnelle et elle n’engendre pas de nouveaux comportements, mais agit comme un amplificateur en permettant une exploitation massive de ces données.
Dans le domaine des sciences, les chercheuses et chercheurs auront toujours le dernier mot
Dans le cadre de la recherche, l’intelligence artificielle est un outil puissant par exemple pour les modélisations numériques de phénomènes complexes. Elle améliore la précision des modèles et diminue les temps de calcul. Cependant, elle ne modifie pas fondamentalement la démarche scientifique. « Ce sont toujours les chercheuses et chercheurs qui décident quelles données doivent être analysées, avec quelle méthode, et qui évaluent la pertinence des résultats obtenus ». L’intelligence artificielle ne fait qu’agir sur les données qu’on lui fournit, et ne peut pas tirer seule les conclusions des analyses effectuées.
Dans ce sens on peut voir l’IA comme une simple évolution de l’intégration d’outils numériques dans les méthodes scientifiques. Pour certaines applications comme les modélisations, elle peut représenter une révolution, tant l’apport de l’IA repousse les limites de ce qu’il était impossible de réaliser auparavant).
Des applications parfois loin de l’éthique
« L’exploitation des données n’est éthique que si elle se fonde sur le bien commun ». Gérald Hess voit un enjeu éthique important dans l’augmentation de l’exploitation des données numériques, notamment via les réseaux sociaux et les moteurs de recherche. On ne sait pas quelles données sont utilisées, par qui et dans quel but. Les règlementations et législations sont en retard par rapport à la technologie et aux business développés sur ses avancées. L’intelligence artificielle qui démultiplie le potentiel d’exploitation des données numériques accélère ce décalage. Les nombreuses applications intégrant l’IA (ou non) montrent un potentiel croissant pour influencer, à notre insu, nos choix et nos opinions, voire notre perception du monde. Il existe un risque de glisser petit à petit dans un monde dans lequel la frontière entre la réalité et le monde virtuel numérique sera de plus en plus floue.
Ce risque ne date pas du développement de l’intelligence artificielle, mais il gagne en importance avec elle. Déjà avec les réseaux sociaux, le risque de se mouvoir dans une bulle informationnelle, sans vraiment sans rendre compte, suivant la participation à certains groupes, a pour conséquence de construire une réalité virtuelle qui ne correspond pas à la réalité. L’IA amplifie ce risque, car elle peut littéralement fabriquer une nouvelle réalité à partir des données existantes, plus vraie que nature, à un coût financier très bas et de façon très facile. Pensons à des photos-montages qui donnent l’illusion d’une situation réelle, mais qui, en fait, n’a jamais existé ; ou à des textes poétiques ou littéraires qui ressemblent à ceux d’auteurs réels, sans que ces derniers les aient vraiment produits. Bien sûr, tout cela a existé bien avant le développement de l’IA, mais ce qui est inquiétant c’est la simplicité et la précision avec laquelle cette illusion peut être déployée.
Chat GPT ou chat de Schrödinger : un outil génial, un fléau ou les deux à la fois ?
Gérald Hess se pose des questions concernant la plateforme CHatGPT. Cet outil accessible, très puissant, qui peut par exemple rédiger des textes pointus sur n’importe quel sujet suffisamment documenté sur internet modifie certaines règles. En tant qu’enseignant, il se demande comment intégrer cet outil dans ses cours ? Dans quelle mesure lui sera-t-il possible d’évaluer si les textes rendus ont été rédigés par les étudiants ou ChatGPT ? Comment vérifier ce que les étudiant.e.s ont compris ?
Par ailleurs Gérald Hess constate, qu’avec l’utilisation croissante de Chat GPT dans la rédaction d’articles scientifiques, une certaine standardisation du langage apparaît. Les styles propres ont tendance à se diluer au profit de termes et d’expressions récurrentes voire banales. Il prône une certaine vigilance pour que cette standardisation du langage ne s’étende pas à la pensée que celui-ci traduit.
Christian Kaiser est géographe spécialiste en géographie computationnelle. Ses recherches portent sur la visualisation interactive des données dans divers domaines, tels que la socio-économie ou les structures urbaines.
Plusieurs des projets auxquels il collabore visent à décrire et comprendre la mobilité dans le réseau urbain : combien de personnes se déplacent ? par quels moyens ? quels sont les déplacements préférentiels ? combien de temps durent-ils ? où se situent les nœuds d’engorgement du trafic ?
Lorsque l’on désire étudier le trafic dans une agglomération ou un quartier, il est nécessaire de déterminer les déplacements effectués par ses nombreux usagers. Dans ce but, Christian Kaiser utilise des caméras situées aux endroits stratégiques de la ville qui transmettent directement les informations captées aux logiciels de visualisation (ces caméras n’enregistrent pas de film préservant ainsi la confidentialité des données). Grâce au deep-learning, il entraîne ces logiciels à reconnaître les différents objets qui se déplacent (piétons, cyclistes, voitures). L’enjeu est d’obtenir une reconnaissance suffisante de chaque objet, pour pouvoir le distinguer des autres, et déterminer son parcours propre ou son temps de déplacement par exemple.
Cette méthode a permis d’améliorer nettement les capacités de reconnaissance des logiciels de visualisation. On atteint ainsi actuellement une reconnaissance fiable de 90% des objets évoluant dans le trafic, contre 70% initialement. Les déplacements individuels sont ainsi mieux déterminés, donnant de précieuses informations sur les trajets préférentiels ou les alternatives choisies par les différents usagers. Par ailleurs les algorithmes permettent également de regrouper des comportements de déplacement similaires (clustering), trop complexes à identifier de manière immédiate en raison du nombre très élevé d’images à interpréter.
L’IA, un net progrès pour les outils de visualisation numérique et d’autres développements à venir
Si Christian Kaiser n’aime pas le terme intelligence artificielle (auquel il préfère apprentissage statistique), il relève les progrès énormes engendrés dans le domaine de la visualisation numérique. « On est passé de blocs informes à des structures reconnaissables ». Par ailleurs le nombre et la qualité des données à disposition se sont également améliorées. Il est par exemple possible de discerner les bandes cyclables sur les images satellites ou déterminer la fonction d’un bâtiment selon les allées et venues répertoriées à ses alentours. Pour la suite, Christian Kaiser entrevoit un potentiel d’évolution sur la reconnaissance de texte et la possibilité de faire dessiner des cartes sur la base de descriptions écrites.
Ce que l’on veut faire, que l’on peut faire et qu’on a le droit de faire
Si les résultats obtenus en utilisant l’apprentissage automatique sont très bons, il faut cependant rester vigilant quant à son utilisation « Il y a ce que l’on veut faire, ce que l’on peut faire et ce qu’on a le droit de faire. Les cadres légaux définissent très clairement des règles empêchant d’empiéter sur la vie privée des gens, ce qui est très bien ». Dans le contexte de recherches en milieu urbain basées sur la visualisation et la reconnaissance d’images, il est important de pouvoir se fier à ces cadres et de veiller à s’y tenir.
Christian Kaiser va contribuer à un projet financé par Interact en collaboration avec Patrick Rérat (professeur à l’IGD) et Stéphane Bolognini (chef de section au service de mobilité de la Ville de Lausanne). Ce projet vise à déterminer les comportements des cyclistes, suite à l’introduction de la possibilité de tourner à droite à certains feux rouges. Plusieurs caméras disposées à des carrefours avec et sans cette option pour analyser le comportement des cyclistes : utilisent-ils cette possibilité ou non ? Si oui comment le font-ils ? Si non quelles sont leur réticences à le faire etc.. Dans le cadre de ce projet le deep-learning servira au traitement automatique des données transmises par les caméras.
Floreana Miesen est technicienne de terrain et collabore à divers projets à l’Institut des dynamiques de la surface terrestre (IDYST). Natalie Emch est conseillère en équité, diversité et inclusion (EDI) à la Faculté des géosciences et de l’environnement. En participant à ce groupe de réflexion, elles souhaitent que le terrain soit une expérience professionnelle et d’apprentissage positive pour toutes et tous. Trois autres personnes travaillent également au sein du groupe : Prof. Georgina King, Dr Ian Delaney et Léa Rodari.
Le travail sur le terrain constitue un élément crucial de l’enseignement et de la recherche en géographie et en sciences de la Terre et de l’environnement. Il joue souvent un rôle décisif dans la trajectoire professionnelle des étudiantes et étudiants et dans la réalisation des objectifs de recherche. La reconnaissance de son importance soulève une préoccupation : comment rendre le travail sur le terrain aussi inclusif et accessible que possible ?
Pour répondre à cette question, Floreana Miesen et Natalie Emch participent activement à un groupe de travail chargé d’élaborer une boîte à outils afin d’améliorer l’accessibilité des camps de terrain. Le but est de proposer des solutions qui répondent aux divers besoins, en intégrant dans la réflexion l’ensemble de la communauté estudiantine et de recherche.
Pouvez-vous nous dire davantage sur ce groupe de travail « bonnes pratiques pour le travail sur le terrain » ?
N.E : Le groupe de travail s’efforce de rassembler les expériences et conseils des membres de la Faculté de géosciences de l’environnement issus de perspectives et d’instituts différents. Notre objectif est de produire un Manuel de bonnes pratiques – une ressource utile à la fois pour le personnel enseignant et le corps estudiantin. Il s’agira d’un document d’appui pour la préparation et l’organisation de tout type de camp de terrain que ce soit dans un objectif d’enseignement ou de recherche. À la différence d’un ensemble de règles ou de directives rigides, le manuel vise à inspirer et à guider. Il couvre des aspects tels que la communication, les installations sanitaires, l’accessibilité au matériel, pour ne citer que quelques exemples. Nous aimerions que la communauté sache qu’il existe une structure de soutien à la faculté pour relever les défis liés au terrain.
Quel sera le contenu de ce manuel ?
F.M. : Le document est structuré autour de questions simples destinées au personnel enseignant et aux participant·es. Elles portent sur des questions de sécurité et de bien -être. Par exemple : « Les personnes participantes ont-elles été informées du programme journalier, de la couverture du réseau de téléphonie mobile, des coutumes locales, de l’équipement à apporter et de la manière de l’obtenir… ? » « En tant que participant·e, suis-je mal à l’aise sur une question que je souhaite soulever avec les responsables ? » « Y a-t-il des contraintes dont je pourrais faire part à l’équipe d’organisation, telles que des responsabilités familiales ? »
L’important est de favoriser une communication en temps utile et un dialogue ouvert entre l’équipe d’organisation et les participants et participantes. Cette initiative vise à sensibiliser au fait que les étudiant·es n’osent peut-être pas exprimer des préoccupations importantes, telles que la sécurité et les besoins personnels. Il est essentiel d’éviter de supposer que tout le monde a un sac de couchage, est allé au sommet de montagnes ou est libéré de ses obligations familiales !
« L’objectif du document est d’éliminer les obstacles qui peuvent entraver la participation et l’apprentissage, et de créer des conditions sûres et agréables pour tout le monde. »
Floreana Miesen
Un travail en cours – votre apport est le bienvenu !
Vous étudiez, enseignez, êtes impliqué·e dans la recherche à la FGSE ? Vous souhaitez partager votre expérience sur le terrain ? Ou vous voulez simplement en savoir davantage ? N’hésitez pas à contacter le groupe de travail.
Nous continuons à recueillir des contributions provenant de différents points de vue et des trois instituts. Entre autres, nous accueillons volontiers des suggestions sur les points suivants :
Quel type de soutien est nécessaire pour organiser un camp de terrain réussi ? (Formation sur la gestion des conflits, sur la manière de gérer l’anxiété… ?)
De quelles informations avez-vous besoin pour vous préparer à participer à un camp de terrain en toute confiance ?
Pourquoi ce projet de guide de bonnes pratiques ?
N.E. : L’UNIL s’est engagée à améliorer le bien-être de ses membres et l’inclusion des personnes, indépendamment de leur sexe, de leur origine ethnique ou migratoire, de leur handicap… Ce travail est donc une contribution à l’ambition de l’UNIL de lutter contre l’inégalité. Les questions de sécurité et d’intégrité personnelle sur le terrain font partie du plan d’action de l’UNIL pour l’égalité, la diversité et l’inclusion et notre groupe de travail s’inscrit dans cet engagement.
« Lorsque les gens se sentent en sécurité, respectés, valorisés et soutenus, ils sont en mesure de contribuer activement. »
Natalie Emch
Natalie Emch, pourquoi ce projet est-il important pour vous ?
N. E. : Lorsque je suis arrivée en 2022, un atelier animé par Ann Rowan (Université de Bergen, Norvège) venait d’avoir lieu à la FGSE. Il abordait la question de l’inclusion dans le travail de terrain.
Les commentaires des étudiant·es ont mis en lumière que le travail sur le terrain était très apprécié, car il permet d’acquérir un savoir-faire scientifique et pratique distinct de celui de la salle de cours. Cependant, des inquiétudes, un certain manque de clarté concernant les responsabilités et les conditions de travail sur le terrain qui peuvent interférer avec l’apprentissage ont aussi été exprimés. Nous avons observé qu’en raison des structures hiérarchiques et du fait que les étudiant·es sont évalués, il leur est parfois mal aisé de s’exprimer.
C’est à partir de là qu’est née la décision de créer un groupe de travail pour traiter cette question et d’élaborer un manuel de bonnes pratiques. En tant que conseillère EDI au sein de la FGSE, j’ai adhéré à ce projet et j’espère que ce travail attirera davantage de diversité dans le domaine.
Pour Floreana, le travail sur le terrain est l’occasion de voir et de sentir les paysages étudiés. (Photo : Nikola Schulte-Kellinghaus)
Floreana Miesen, pourquoi ce projet est-il important pour vous ?
F. M. : J’aime tout ce qui a trait au travail sur le terrain. Pendant mes études de géographie en Allemagne, j’ai eu l’occasion de participer à de nombreux cours et recherches sur le terrain. J’avais le sentiment que c’était vraiment une des meilleures façons d’apprendre. Le travail sur le terrain a été ma motivation pour postuler à ce poste à l’IDYST. Aujourd’hui encore, j’apprécie la diversité des projets et des manières de faire sur le terrain.
Cependant, je constate que le corps estudiantin est parfois confronté à des difficultés. Par exemple, ielles se sentent parfois dépassé·es par le décalage entre leur expérience de randonnées en privé et la rigueur du travail sur un terrain montagneux.
Je suis convaincue que pour se concentrer sur les objectifs d’apprentissage, les étudiant·es ne doivent pas se préoccuper de gérer les défis liés aux besoins personnels exacerbés par un stage sur le terrain. En abordant des questions telles que les exigences en matière de condition physique, les contraintes personnelles ou les limitations financières, ce manuel propose des stratégies visant à réduire les obstacles à l’entrée.
« J’aimerais transmettre mon enthousiasme pour le travail sur le terrain et faire en sorte que davantage de personnes puissent profiter pleinement de cette expérience. »
Une démarche FGSE sur le bien-être et la sécurité à plusieurs volets
La FGSE a à cœur de protéger ses étudiant·es et ses collaborateur·rices et d’améliorer les conditions d’étude et de recherche à tous points de vue, à travers différents organes (Comité d’hygiène et sécurité, Commission de l’égalité, Commission d’éthique, soutiens internes aux collaborateurs), et aussi par des démarches plus informelles comme celle de la réalisation de ce Manuel.
La directive terrainrequiert essentiellement de chaque personne concernée par des travaux de terrain de pratiquer préalablement une évaluation des risques adéquate, de manière autonome et personnelle. Elle s’intéresse plutôt, mais pas uniquement, à la sécurité physique dans les camps de terrain, alors que le Manuel de bonnes pratiques est centré sur la sécurité émotionnelle et l’intégrité personnelles des personnes participant à des camps ou excursions, de manière à les rendre plus accessibles.
Ce Manuel en devenir développe, approfondit et vient aussi compléter très utilement des notions qui figurent dans la seconde directive, consacrée aux éléments à prendre en compte plus généralement lors des activités hors campus.
Thèse en sciences de la Terre, soutenue le 14 mars 2024 par Zhang Chongmin, rattaché à l’Institut des sciences de la Terre (ISTE) de la FGSE.
Le radar à pénétration de sol (GPR) est un outil géophysique populaire pour l’exploration près de la surface grâce à son potentiel d’imagerie à haute résolution dans les milieux géologiques électriquement résistifs. La reconstruction des traces manquantes constitue un défi courant dans le traitement des données de GPR de réflexion, l’objectif final étant d’obtenir un ensemble de données à haute résolution régulièrement échantillonné qui puisse être correctement migré, visualisé et interprété. Dans la pratique, les besoins sont généralement au nombre de trois :
le comblement des lacunes ;
la régularisation de l’espacement des traces ;
la densification des traces.
Ce dernier besoin est plus évident dans la collecte de données 3D GPR, où un compromis est souvent fait, favorisant la couverture des données au détriment de la qualité des données.
Dans cette thèse de doctorat, trois nouvelles techniques de reconstruction GPR basées sur les statistiques de points multiples (MPS) et l’apprentissage profond (DL) sont proposées. Plus précisément, dans le premier projet, je présente une stratégie de reconstruction de profils 2D GPR basée sur un algorithme MPS récemment développé, appelé Quick Sampling (QS). Dans le deuxième projet, je m’appuie sur l’approche basée sur QS développée dans le premier projet pour mettre au point une méthode de densification des données de GPR en domaine 3D. Dans le dernier projet, j’ai abordé le problème de la densification des données 3D GPR d’un point de vue différent en utilisant les réseaux antagonistes génératifs.
Ces trois techniques s’appuient sur des données d’entraînement pour obtenir des informations détaillées sur le caractère des structures de réflexion attendues dans le sous-sol, qui sont exploitées pour obtenir des résultats très réalistes, même en présence de repliement spatial. L’application réussie de ces techniques est observée dans les données GPR de terrain et synthétiques. Dans l’ensemble, je conclus que l’utilisation des approches MPS et DL de pointe est très prometteuse pour la reconstruction des traces de GPR manquantes.