Les géants tech restent silencieux…

Le 22 octobre 2025, le Future of Life Institute a publié un appel sans précédent : l’interdiction pure et simple du développement de la SuperIntelligence Artificielle. En 48 heures, la mobilisation a explosé, passant de 700 signataires initiaux à plus de 30 000 aujourd’hui selon ControlAI. Parmi eux, 5 lauréats du prix Nobel dont Geoffrey Hinton (prix Nobel de physique 2024), considéré comme l’un des « parrains de l’IA », et Yoshua Bengio, le scientifique le plus cité au monde dans le domaine.

Le texte de l’appel est sans ambiguïté :

We call for a prohibition on the development of SuperIntelligence, not lifted before there is
1. broad scientific consensus that it will be done safely and controllably, and
2. strong public buy-in.

Nous appelons à l’interdiction du développement de la SuperIntelligence, interdiction qui ne devra pas être levée avant :
1. qu’un large consensus scientifique ne confirme que ce développement pourra être réalisé de manière sûre et contrôlable,
2. avec une forte adhésion du public.

Cette SuperIntelligence désigne une IA capable de « surpasser considérablement tous les humains dans pratiquement toutes les tâches cognitives », selon le texte officiel.

L’appel met en garde contre des risques graves : obsolescence économique des humains, perte de libertés civiles et de dignité, risques pour la sécurité nationale, et même « extinction potentielle de l’humanité ».
Mais face à cette mobilisation historique, un silence assourdissant : aucune entreprise tech majeure n’a publié de réaction officielle.

La liste des signataires révèle une coalition inédite. Au-delà des scientifiques de premier plan comme Stuart Russell (UC Berkeley), on trouve des entrepreneurs comme Steve Wozniak (cofondateur d’Apple) et Richard Branson (Virgin), des figures politiques aux antipodes comme Steve Bannon (ex-conseiller de Trump) et Susan Rice (ancienne conseillère sécurité nationale d’Obama), des membres de la famille royale britannique (le prince Harry et Meghan Markle), et des célébrités telles que will.i.am, Joseph Gordon-Levitt ou encore l’historien Yuval Noah Harari.
Point remarquable : Leo Gao, membre de l’équipe technique d’OpenAI, a signé l’appel, révélant une dissidence au sein même de l’entreprise la plus emblématique de l’IA générative.

Mais les absences sont tout aussi éloquentes. Sam Altman (PDG d’OpenAI), Mark Zuckerberg (Meta), Demis Hassabis (Google DeepMind) et Dario Amodei (Anthropic) n’ont pas signé. Ces quatre dirigeants, à la tête des entreprises qui développent les IA les plus avancées au monde, poursuivent leur course à la superintelligence en affichant des investissements massifs.

Sam Altman incarne la contradiction la plus frappante. En 2015, il qualifiait le développement de la SuperIntelligencede « plus grande menace pour l’existence continue de l’humanité ». 10 ans plus tard, le ton a radicalement changé. En janvier 2025, il écrivait : « Nous commençons à tourner notre attention au-delà de l’AGI, vers la superintelligence dans le vrai sens du terme. » En septembre 2025, il déclarait que la superintelligence pourrait être atteinte « d’ici cinq ans », soit vers 2030. Sur le réseau social X, il a certes affirmé espérer « commencer beaucoup plus de débat public très bientôt », mais sans signer l’appel ni publier de réaction officielle…

Mark Zuckerberg affiche une stratégie encore plus agressive. À l’été 2025, il a créé un laboratoire de SuperIntelligence avec un investissement initial de 15 milliards de dollars. En septembre, il s’est dit prêt à « gaspiller quelques centaines de milliards de dollars » pour ne pas être dépassé par ses concurrents. Sa justification est purement concurrentielle : « Si vous développez trop lentement et que la superintelligence est possible dans trois ans, mais que vous la développez en supposant qu’elle sera là dans cinq ans alors, vous êtes tout simplement hors-jeu. »

Demis Hassabis présente un paradoxe similaire. En avril 2025, Google DeepMind publiait un rapport de 145 pages prédisant que l’AGI pourrait arriver d’ici 2030 et causer des « risques existentiels » qui « détruiraient définitivement l’humanité ». Deux mois plus tard, en juin, Hassabis déclarait vouloir que « Gemini soit la toute première AGI », prévue « juste après 2030 ». Il assure que l’AGI devrait traiter les humains « comme un parent aimant », un espoir qui ne repose sur aucune garantie technique démontrée.

Dario Amodei, PDG d’Anthropic, quantifie explicitement le risque : entre 10 et 25% de probabilité d’une « catastrophe civilisationnelle induite par l’IA ». Il prévoit que l’IA surpassera les humains « dans presque tout » d’ici 2027. Malgré ces chiffres alarmants, Anthropic poursuit son développement et Amodei a publié en octobre 2025 une déclaration sur « l’engagement d’Anthropic envers le leadership américain en IA ».

Face à ce consensus alarmiste des « parrains de l’IA », une voix dissidente se fait entendre avec force : celle de Yann LeCun, directeur scientifique de l’IA chez Meta et professeur à NYU. Il qualifie les craintes d’extinction par IA de « ridiculement stupides » et affirme : « Les machines n’auront pas de comportements spontanés de domination du monde car ils n’émergeront pas automatiquement de l’entraînement de modèles génératifs. » Pour LeCun, les prédictions de superintelligence imminente relèvent de « la science-fiction ».
Pourtant, les risques concrets s’accumulent. Selon Charbel-Raphaël Ségerie, directeur exécutif du Centre pour la sécurité de l’IA (CESIA), une IA a déjà réussi à mener des cyberattaques avec le niveau d’un expert de 20 ans d’expérience en seulement 30 minutes, contre 40 heures pour un humain. Les systèmes d’alignement actuels se révèlent fragiles : le modèle LLaMA a été détourné pour moins de $200.

Les réactions gouvernementales restent timides face aux intérêts économiques.
En Californie, le projet de loi SB 1047 visant à réguler l’IA a été opposé d’un veto par le gouverneur Gavin Newsom en septembre 2025.
L’Union européenne a bien adopté l’AI Act en 2024, mais la France et l’Allemagne plaident pour une régulation « légère » afin de favoriser l’innovation. Le Royaume-Uni privilégie une approche « pro-innovation » avec une régulation sectorielle.
Les sondages montrent pourtant que l’opinion publique soutient massivement la régulation, voire l’interdiction, de l’IA surhumaine.

La question demeure : dans cette course effrénée où les leaders reconnaissent eux-mêmes des risques de 10 à 25% de catastrophe civilisationnelle, qui a réellement le pouvoir d’appuyer sur le frein ?