Nous avons étudié l’impact du changement climatique sur 100 communes françaises en 48 heures. Voici comment et ce que nous avons appris.
Callendar est une start-up spécialisée dans l’exploitation des projections climatiques. Nous prenons les résultats des travaux scientifiques de modélisation du climat et nous en faisons des informations exploitables par des entreprises, des collectivités ou même des particuliers. Nous ne sommes ni les seuls ni les premiers à proposer ce service mais il y a quelque chose qui nous rend uniques : nous nous appuyons sur des solutions technologiques pour produire ces informations à moindre coût et les rendre accessibles au plus grand nombre. Après tout pourquoi faire faire par un ingénieur ce qu’un programme peut faire beaucoup plus vite ?
Nous avons voulu profiter des élections municipales, initialement prévue les 15 et 22 mars, pour tester nos solutions à grande échelle en offrant gratuitement nos services. Entre le 10 et le 22 mars, il vous suffisait de visiter la page dédiée à cette opération et d’entrer le nom d’une commune française et votre adresse mail pour recevoir quelques instants plus tard un rapport d’une dizaine de pages sur les effets du changements climatique dans votre ville.
Chacun de ces rapports était produit à la demande de façon entièrement automatique grâce à un programme réunissant des outils développés par Callendar au cours de sa première année d’existence.
L’opération a bien sur était un peu perturbée par l’actualité mais nous avons tout de même reçu, et satisfait, près de 100 demandes pendant les premières 48h. Au total, nous avons reçu 208 demandes portant sur 178 communes.
Conception des rapports
A quoi ressemblent les documents produits ? Un exemple est disponible ici.
Nous nous adressons à des élus, des candidats ou des électeurs, nous nous sommes donc concentrés sur un horizon de temps relativement court (du point de vue climatologique) avec une perspective de long-terme lorsqu’elle semble importante. Chaque rapport contient des informations sur l’évolution passées de la température et des précipitations dans la commune et leurs tendances à l’horizon 2020–2050. Une seconde partie porte sur l’évaluation des effets concrets de ces évolutions : durée des vagues de chaleur, aridification du climat, présence de vecteurs de maladie…
La production de ces documents s’appuie sur deux sources de données : des données météorologiques historiques réanalysées issus du programme européen d’observation spatiale, Copernicus, et les projections climatiques réalisées dans le cadre du projet Euro-Cordex. L’évaluation des impacts est basées sur ces données et sur des méthodologies issues de la littérature scientifique : Michelozzi, 2007 pour les vagues de chaleur, Martonne, 1926 pour l’aridité, etc.
Une fois calculé, les résultats sont présentés sous forme de graphiques et/ou de texte. Le texte sert avant tout à renforcer les graphiques, à aider à leur interprétation ou contextualiser l’information.
Hierarchiser : la climatologie croise le big data
Le contenu exact du rapport doit varier en fonction de la situation de chaque commune. L’élévation du niveau de la mer par exemple devra impérativement figurer pour une ville côtière mais elle n’est probablement pas essentielle pour une commune du Cantal.
Tous les cas ne sont pas aussi évidents : l’effet d’une canicule, par exemple, dépend de l’urbanisme, de la présence de populations vulnérables, etc. Dans beaucoup de rapports, on constate que la durée moyenne annuelle des vagues de chaleur va doubler au cours des prochaines décennies, cette information doit être mise en avant pour une commune urbaine avec un nombre important de personnes âgées mais on pourra peut-être donner la priorité à d’autres risques si on est dans une commune peu dense ou plus jeune.
Si on n’est pas capable de sélectionner, les impacts les plus significatifs pour chaque recherche, on risque de perdre rapidement l’utilisateur dans un fatras d’informations qui lui sont peu utiles. Pire : une mauvaise hiérarchisation pourrait le convaincre que le changement climatique sera anodin pour lui.
Dans la plupart des cas, sélectionner ces “bonnes informations” serait facile pour un être humain doté d’un peu d’expérience et de bon sens mais c’est un vrai défi pour un système entièrement automatisé.
Une chose est claire. Pour résoudre ce problème, il nous faut des données complémentaires : profils socio-économiques des communes issus de le l’INSEE, données d’occupation des sols… Et voilà comment la climatologie rencontre le big data.
Les limites d’un système expert
Une fois ces informations acquises encore faut-il savoir les interpréter. Initialement, nous nous sommes appuyés sur une base de règles. Par exemple : si la durée des vagues de chaleur est multipliée par 2 ou plus et la densité de la population dans la commune est supérieure à 4000 habitants par kilomètre carré et le pourcentage d’habitants de plus de 75 ans est supérieur à 10%, alors mentionner cet indicateur.
Cette approche basée sur des règles explicites correspond à un système expert classique. Lorsque nous avons voulu faire évoluer ce système suite aux premiers retours d’utilisateurs, nous avons été rapidement confronté à une limite classique de cette solution : il devient très vite difficile de la faire grandir. Si on veut par exemple ajouter un indicateur, la modification des règles de sélection et de rédaction nécessite un travail disproportionné.
Cela nous a convaincu de changer l’architecture du programme. Pour commencer, nous avons isolé le calcul et la rédaction pour chaque indicateur de façon à avoir un programme autonome beaucoup plus facile à maitriser.
Isoler le calcul de chaque indicateur signifie qu’il peut être nécessaire d’accéder plusieurs fois à une même donnée si elle entre dans le calcul de plusieurs indicateurs. Cette approche entraine donc une dégradation des performances que nous avons cherché à compenser en optimisant par ailleurs le fonctionnement de notre programme. Finalement nous sommes parvenus à réduire sensiblement le volume de calculs nécessaire pour produire chaque rapport.
Enfin, nous avons complètement repris le système de sélection en remplaçant la base de règle par un système de score avec une formule standard pour chaque indicateur.
Conclusion et perspectives
Cette nouvelle version a été mise en ligne le 16 mars et elle a pu être testée sur une centaine de requêtes. Au terme de cette expérience, nous avons un système robuste (il a été largement testé et débuggé), performant (le temps de calcul n’est pas une limite) et capable d’évoluer et de grandir (la nouvelle architecture permet de modifier et d’ajouter sans difficulté des indicateurs).
C’est la principale conclusion de cette expérience : nous avons fait la preuve qu’il est possible de mettre à disposition une information locale et de qualité sur les effets du changement climatique sans aucune intervention humaine. Nous pensons que cette expérience annonce une révolution pour l’adaptation au changement climatique : la possibilité de reproduire à l’infini avec un coût quasi-nul des études qui sont encore longues et coûteuses, et ainsi d’allouer les (faibles) moyens disponibles beaucoup plus au traitement et beaucoup moins au diagnostic.
Evidemment, cette expérience a aussi mis en évidence des voies d’amélioration sur lesquelles nous allons travailler au cours des prochaines semaines et des prochains mois. La forme du rapport peut être améliorée, de nouveaux impacts peuvent être ajoutés, etc.
Mais c’est l’étape de sélection des indicateurs significatifs qui nécessite le plus de travail. Notre système de score a représenté un réel progrès : il permet d’éliminer efficacement les impacts non-significatifs, cependant la hierarchisation des impacts significatifs reste perfectible. Peut-on faire mieux avec des algorithmes d’intelligence artificielle, par exemple une random forest ? Probablement, mais il faut au préalable créer des jeux de données d’apprentissage. Cela ne se fera pas sans investissement mais nous n’avons aucun doute : le jeu en vaut la chandelle.
Auteur : Thibault Laconde, fondateur de Callendar.