Devenue un geste de plus en plus ancré dans le quotidien, une simple requête à ChatGPT a des conséquences environnementales importantes, comme le révèle un chercheur américain.
En plus de débats moraux, géostratégiques et technologiques, l’intelligence artificielle générative suscite de nombreuses questions sur son impact environnemental. L’année dernière déjà, Greenly avait estimé que la version GPT-3 du nouveau service d’IA émettrait 240 tonnes de CO2 équivalent (CO2e), soit l’équivalent de 136 voyages aller-retour entre Paris et New York. Cette fois, c’est un chercheur à l’université de Riverside aux États-Unis, Shaolei Ren, qui a essayé de déterminer la quantité de ressources consommées par ChatGPT d’OpenAI pour une simple requête comme écrire un courriel de 100 mots.
Gourmand en eau et en électricité
Résultat, cela équivaut à peu près à une bouteille d’eau pleine et à suffisamment d’énergie pour allumer 14 ampoules LED pendant une heure. Des chiffres inquiétants d’autant qu’ils sont à multiplier par le nombre d’utilisateurs dans le monde. Selon le chercheur, si un travailleur américain sur dix écrit un courriel une fois par semaine avec ChatGPT, cela nécessiterait 435 millions de litres d’eau par an, l’équivalent de la consommation pendant un jour et demi de tous les foyers de Rhode Island. En matière d’électricité, cette simple activité permettrait d’éclairer tous les foyers de la ville de Washington pendant 20 jours, soit 121 517 mégawattheures.
Intensifier le stress hydrique
Comme Greenly l’année dernière, Shaolei Ren souligne que le problème vient avant tout des datacenters. Les calculs nécessaires à une requête ChatGPT mobilisent des serveurs qui dégagent alors de la chaleur. Il faut donc une énorme quantité d’eau pour faire baisser la température. Or les datacenters sont souvent situés dans des endroits déserts comme l’Arizona et l’Iowa, ce qui risque d’accentuer le stress hydrique déjà présent
Par FUTURA
Comments