Sam Altman et l’empreinte de l’IA

Le CEO d’OpenAI, en déplacement à New Delhi pour l’AI Impact Summit, a tenté de désamorcer les critiques sur la consommation énergétique des modèles de langage. Sa stratégie ? Comparer l’apprentissage machine au développement humain. Une rhétorique qui réveille de vieux débats philosophiques sur la nature même de l’intelligence.

iA versus Humain : un parallèle audacieux

Face aux inquiétudes sur l’impact environnemental des datacenters, Sam Altman a choisi une ligne de défense singulière : l’équivalence biologique. Selon lui, si l’on s’offusque de l’énergie nécessaire pour entraîner un modèle d’IA, on oublie qu’il faut environ 20 ans de vie, et toute la nourriture consommée durant cette période, pour qu’un être humain devienne « intelligent ».+1

Cette comparaison a immédiatement suscité un tollé, certains observateurs y voyant une vision « dystopique ». Matt Stoller, de l’American Economic Liberties Project, a fustigé cette approche consistant à mettre sur un pied d’égalité morale « un très gros tableur et un bébé ».

Chiffres clés : une croissance sous haute tension

Les données de l’Agence Internationale de l’Énergie (AIE) soulignent l’ampleur du défi :

  • En 2024, les datacenters représentaient 1,5 % de la consommation mondiale d’électricité.
  • Cette consommation devrait croître de 15 % par an jusqu’en 2030, soit quatre fois plus vite que les autres secteurs.
  • Altman lui-même reconnaît que cette évaluation publique est « juste » et appelle à une transition rapide vers le nucléaire ou le renouvelable.

Pourtant, le CEO d’OpenAI balaie d’un revers de main d’autres critiques, notamment sur l’eau. Il qualifie de « totalement fake » les données suggérant que chaque requête ChatGPT consomme d’importantes quantités d’eau, affirmant que les nouveaux centres n’utilisent plus le refroidissement par évaporation.

L’angle philo : Le retour de « l’Homme-Machine »

Pour les professionnels de la tech et des médias, ce discours n’est pas nouveau : il s’inscrit dans une filiation philosophique qui rappelle le mécanisme du XVIIe siècle. En utilisant des termes comme « training » (entraînement) pour décrire l’expérience humaine, Altman réduit le vivant à un simple traitement de données.

C’est une forme de néo-taylorisme de l’esprit : l’humain est perçu comme une machine biologique lente et gourmande, là où l’IA serait une version optimisée du même processus. Cette vision pose une question éthique majeure pour l’industrie : si nous acceptons cette équivalence, nous acceptons que le calcul prime sur la conscience.

Le paradoxe de l’utilité : 70% de « loisir » ?

Le « solutionnisme technologique » d’Altman — l’idée que l’IA sauvera le monde — se heurte à la réalité des usages. Un rapport d’OpenAI de septembre 2025 révèle que 70 % des messages adressés à ChatGPT ne sont pas liés au travail.

« Il est difficile de justifier une telle infrastructure si la majorité de l’utilisation ne sert pas à résoudre les défis mondiaux », souligne Mike Weinstein, expert en durabilité.

Quelle efficacité ?

Dans un marché où les critères RSE deviennent contractuels, cette « désacralisation » de l’humain au profit de la machine pourrait devenir un frein. Si l’IA est vendue comme un outil de productivité infinie, son coût énergétique réel et sa perception philosophique « déshumanisante » forceront les marques à arbitrer : l’efficacité justifie-t-elle de « laisser ces geeks détruire la Terre », pour reprendre les mots du commentateur Jeff Johnson ?

Retour en haut