L’intelligence artificielle, miracle ou mirage technologique ?
L’intelligence artificielle (IA) est partout : dans nos applications, nos moteurs de recherche, nos assistants vocaux et, depuis peu, au cœur des débats politiques et économiques. Portée aux nues comme solution à tous nos maux – crise climatique, éducation, productivité – elle est aussi dénoncée pour ses impacts écologiques massifs et son opacité. Dans cet échange entre Lorraine Boudard et Lou Welgryn pour Au Poste !, nous plongeons dans les zones d’ombre et l’impact environnemental de l’IA pour mieux en comprendre les enjeux, les risques, et les alternatives possibles.
L’IA, une technologie survalorisée au service du profit
Une course mondiale aux milliards. L’IA est aujourd’hui au centre d’une véritable frénésie d’investissement. Emmanuel Macron annonce 17 milliards d’euros, Joe Biden en promet 500 milliards via le projet Stargate, et Sam Altman (OpenAI) rêve tout haut de 7 000 milliards pour créer une « super-intelligence » capable de résoudre la crise climatique. Cette inflation d’annonces témoigne d’une mythification de l’IA, perçue comme une solution miracle à des problèmes bien réels… sans jamais démontrer son efficacité réelle.
Une rhétorique du retard pour justifier l’injustifiable. Le discours dominant autour de l’IA repose sur une logique binaire : investir massivement ou « se faire dépasser par les Chinois ». Cette rhétorique crée un climat d’urgence artificiel, qui détourne l’attention des enjeux climatiques, de la crise des services publics et des inégalités sociales. La technologie devient une fin en soi, indépendamment de ses usages réels ou de son utilité sociale.
L’impact environnemental de l’IA
Une consommation énergétique incontrôlée. Selon l’Agence Internationale de l’Énergie, les centres de données représentent 1,5 % de la consommation mondiale d’électricité en 2023 – un chiffre qui pourrait doubler d’ici 2030. L’IA y joue un rôle central, avec une demande énergétique multipliée par 6 à 12 d’ici là. En France, des centres comme ceux de Marseille génèrent des conflits d’usage : l’électrification des ferries est compromise par les besoins énergétiques de ces infrastructures numériques.
Un retour au charbon et au gaz. Face à la demande, les géants du numérique relancent des centrales fossiles. Aux États-Unis, des centrales à charbon rouvrent pour alimenter les data centers. Microsoft a même investi dans des mini-réacteurs nucléaires. Résultat : une explosion des émissions de CO₂, bien loin des engagements climatiques des entreprises du secteur. Google a ainsi vu ses émissions augmenter de 50 % depuis 2019.
Un stress hydrique croissant. L’IA consomme aussi d’énormes quantités d’eau pour refroidir les serveurs. Une session de 20 requêtes sur ChatGPT pourrait consommer jusqu’à 500 000 litres d’eau. Dans des zones déjà en tension, comme l’Arizona ou Taïwan, les data centers entrent en concurrence directe avec l’agriculture ou l’accès des populations à l’eau potable.
Des métaux rares pour des usages futiles. Les technologies d’IA reposent sur des composants très gourmands en métaux rares et terres rares : cobalt, lithium, cuivre, silicium purifié… Ces ressources sont également indispensables à la transition énergétique. Leur extraction, notamment en République Démocratique du Congo, s’accompagne souvent de violations des droits humains et de désastres environnementaux.
L’opacité comme mode de fonctionnement
Des chiffres sous-estimés, des effets sous-évalués. Les géants de la tech minimisent l’impact environnemental de l’IA, jouant sur les marges des bilans carbone (scope 2, achats d’électricité « verte », etc.). Une étude du Guardian a révélé que les émissions réelles des data centers pouvaient être sous-estimées de 662 %. Sans transparence, difficile de réguler ou même de comprendre les véritables enjeux.
Une boîte noire démocratique : Au-delà des données environnementales, les IA sont conçues et contrôlées par une poignée d’entreprises. Leur fonctionnement, leurs biais, leurs décisions, leurs usages restent largement opaques. Leur pouvoir grandissant menace les libertés individuelles et démocratiques, notamment par le biais des algorithmes de recommandation.
Des usages sociaux à interroger
L’IA : solution ou faux remède ? Certains promettent que l’IA va « réparer le climat », optimiser la gestion des ressources, aider à détecter les incendies ou améliorer les soins médicaux. Mais dans les faits, aucune étude sérieuse ne prouve que la numérisation a eu un effet positif sur la transition écologique. Pire : elle crée souvent des effets rebonds.
Un outil d’aliénation cognitive : Des chercheurs ont observé que l’usage massif de GPS ou d’IA générative altère les capacités cognitives humaines : orientation spatiale, formulation d’idées, pensée critique. Les professeurs témoignent de l’impact de ChatGPT sur les étudiants : incapacité à structurer un raisonnement ou à penser sans assistance algorithmique.
Le rôle de la désinformation et des algorithmes
IA et fake news climatiques : L’IA générative facilite la production de contenus trompeurs à grande échelle. La désinformation climatique représente déjà 13 % de la désinformation en ligne, devant l’Ukraine. L’algorithme de recommandation amplifie les contenus les plus viraux, souvent les plus faux, polarisants et climato-sceptiques.
Médias et réseaux sociaux : des complices involontaires ? Les réseaux sociaux, conçus pour maximiser le temps passé à l’écran, favorisent les contenus extrêmes. Même les médias traditionnels participent à la désinformation, parfois involontairement, en relayant des narratifs contestables. Le travail de veille critique de collectifs comme Kotaklima devient crucial.
Des alternatives à construire collectivement
Sortir du techno-solutionnisme : L’IA n’est ni bonne ni mauvaise en soi : tout dépend des usages que l’on en fait. Des applications dans la santé ou la prévention climatique peuvent être utiles si elles sont encadrées, pensées collectivement et développées en open source. Cela suppose de sortir de la logique de l’offre imposée pour se concentrer sur la demande réelle.
Favoriser les choix politiques et citoyens : Les solutions individuelles (changer d’app, quitter une plateforme) ont un impact limité. En revanche, des choix collectifs peuvent tout changer. L’interdiction du scoring social en Europe est un bon exemple. Pourquoi ne pas aller plus loin ? Une convention citoyenne sur l’IA pourrait définir démocratiquement les usages acceptables et les limites à ne pas franchir.