Ces derniers temps, l’impact écologique des intelligences artificielles, et en particulier des IA génératives comme ChatGPT, suscite de nombreuses interrogations. Utiliser un chatbot consomme-t-il vraiment autant d’énergie ? Faut-il culpabiliser quand on lui dit « merci » ?
Tout est parti d’un message publié le 16 avril sur X (anciennement Twitter), dans lequel un internaute s’interrogeait avec humour : « Je me demande combien OpenAI dépense en électricité à cause des gens qui disent “s’il vous plaît” et “merci” à ChatGPT. » Une remarque qui a fait sourire Sam Altman, le PDG d’OpenAI, qui a répondu que ces dépenses représentaient « des dizaines de millions de dollars bien investis ». Cette simple blague a relancé une question bien plus sérieuse : quelle est la véritable empreinte écologique de ces intelligences artificielles que l’on utilise tous les jours ?
À chaque fois que l’on échange avec ChatGPT, on déclenche une série d’opérations dans d’énormes centres de données répartis aux quatre coins du globe. Ces serveurs, conçus pour réaliser des calculs complexes à une vitesse impressionnante, doivent fonctionner 24h/24 et sont très gourmands en électricité.
Mais ce n’est pas tout : pour éviter qu’ils ne surchauffent, ces centres nécessitent un système de refroidissement puissant, ce qui alourdit encore davantage leur empreinte carbone. Et n’oublions pas non plus le réseau internet et les infrastructures nécessaires pour faire circuler toutes ces données.
En résumé, on peut distinguer deux niveaux d’impact environnemental :
D’un côté, l’empreinte liée à l’entraînement du modèle d’IA, qui représente un coût énergétique massif mais ponctuel.
De l’autre, l’impact lié à l’utilisation quotidienne, plus modeste à l’échelle individuelle, mais qui s’accumule avec le temps.
Dès 2021, des chercheurs de Google et de l’université de Berkeley ont tenté d’estimer la consommation énergétique de l’entraînement de GPT-3 (le modèle derrière ChatGPT). Résultat : environ 1 287 MWh d’électricité, soit l’équivalent d’une année de consommation pour 120 foyers américains.
Et cela ne s’est pas arrangé avec les générations suivantes. Selon le data scientist Kasper Groes Albin Ludvigsen, GPT-4 aurait nécessité entre 51 et 62 millions de kWh pour son entraînement – environ 40 à 50 fois plus que GPT-3. En termes d’émissions, cela représente jusqu’à 29 600 tonnes de CO₂, soit l’équivalent de 14 800 allers-retours Paris–New York en avion.
D’accord, l’entraînement est énergivore. Mais qu’en est-il des simples questions que l’on pose à ChatGPT au quotidien ? Certains experts avancent des chiffres alarmants. Par exemple, selon Dejan Glavas, professeur à l’ESSCA, une requête sur ChatGPT générerait jusqu’à 60 fois plus de CO₂ qu’une recherche Google. Cela ferait réfléchir avant de poser une question anodine au chatbot.
Mais d’autres voix nuancent cette vision. L’institut Epoch AI, spécialisé dans les études sur l’intelligence artificielle, a publié en février 2025 une estimation bien plus modeste : une interaction moyenne consommerait seulement 0,3 watt-heure. Pour vous donner une idée, c’est moins que ce qu’utilise une ampoule LED en une minute, et largement inférieur à la consommation journalière d’un foyer américain moyen (plus de 28 000 Wh par jour).
Même pour une personne qui utiliserait intensivement ChatGPT, l’impact reste donc relativement limité à l’échelle individuelle. Et ce chiffre tend à baisser avec l’amélioration des modèles et des technologies utilisées.
L’un des principaux leviers pour limiter l’empreinte écologique des IA réside dans la conception de modèles plus légers. C’est justement le pari de DeepSeek, une entreprise chinoise qui mise sur des modèles plus compacts, mais toujours performants.
Comment s’y prennent-ils ? En combinant plusieurs approches :
Une sélection rigoureuse des données d’apprentissage pour optimiser la qualité plutôt que la quantité ;
Une architecture plus efficace, qui réduit le nombre de calculs nécessaires ;
Des techniques de compression comme la distillation ou la quantification, qui allègent le modèle sans sacrifier la performance ;
Une spécialisation sur certaines tâches (comme le raisonnement logique ou la génération de code), au lieu de vouloir tout faire à la fois.
Ces modèles allégés offrent une alternative intéressante, même si, pour l’instant, ils restent encore en retrait face aux géants comme GPT-4 sur certains usages.
Pas vraiment. Oui, l’intelligence artificielle a un coût environnemental, notamment au moment de sa création. Mais dire « merci » ou « s’il vous plaît » n’a pas un impact majeur sur la consommation d’électricité. En réalité, c’est un geste humain qui coûte peu… et qui peut rapporter beaucoup en matière de respect et de bonnes pratiques numériques.
Et qui sait, avec les futurs modèles, peut-être que l’on pourra conjuguer performances, utilité… et sobriété énergétique.