Terminator 2.0 : un accord conclu entre Chat GPT et le Pentagone ouvre la voie aux tueries «autonomes et sans supervision humaine»


Main dans la main avec Donald Trump, Sam Altman a annoncé la signature d’un accord permettant à l’armée étasunienne d’utiliser les modèles d’OpenAI dans un cadre militaire


Terminator, une arme humanïéode dote d'une intelligence artificielle : bientôt une réalité avec le partenariat entre OpenAI et le Pentagone ?

La Boîte de Pandore est désormais grande ouverte aux pires dystopies. L’usage militaire qui pourrait être fait des modèles d’intelligence artificielle laisse imaginer un champ des possibles gigantesque, et le menu fait cauchemarder. Êtes-vous plutôt toutou autonome équipé d’une mitraillette, drones policiers actifs 24h sur 24h, ou soldats boostés aux puces bio-technologiques ?

Un partenariat avec l’armée sans limite éthique

La guerre – du génocide à Gaza en passant par l’Ukraine et l’Iran – est toujours une aubaine pour les vendeurs de mort. Véritable poule aux œufs d’or, les massacres de masse bénéficient en premier lieu au secteur des nouvelles technologies, dont les promoteurs sont ravis de voir de nouvelles parts de marché s’ouvrir pour leurs gadgets. L’annonce d’un partenariat d’une telle ampleur entre OpenAI et l’administration Trump, à la veille de nouveaux massacres de masse au Moyen Orient, n’est pas une coïncidence et laisse présager du pire.

Pour rappel, OpenAI ce sont 900.000 millions d’utilisateurs par semaine au début de l’année 2026. Fondée en 2015 par Sam Altman et Elon Musk – deux archétypes des nerds de la Silicon Valley – la structure a été initialement construite comme une organisation à but non-lucratif, avec comme objectif affiché la création d’une IA «sûre et bénéfique pour l’humanité». 4 ans plus tard, la start up abandonnait ce modèle et commençait à engranger les milliards dans des levées de fonds gigantesques.

Le Pentagone, en signant cet accord avec la maison de ChatGPT, n’était pas à son coup d’essai. Des négociations similaires avait déjà été entamées avec une autre entreprise californienne, Anthropic. Plus frileuse que sa rivale OpenAI, la firme a donc été écartée d’un potentiel accord avant d’être qualifiée par Trump «d’entreprise d’IA radicale de gauche», pour avoir eu le malheur de demander des garanties de sécurité sur l’usage qui serait fait de ses technologies. Plus spécifiquement, des clauses pour prévenir la surveillance massive de la population ou la création d’armes autonomes létales avaient été réclamées…

Quelques heures à peine après l’éviction d’Anthropic, Sam Altman annonçait en grande pompe sur ses réseaux sociaux son nouveau partenariat avec le Pentagone. Mais cette fois, le deal surprise ne fait aucune mention des garanties de sécurité évoquées. L’entreprise se contente d’indiquer, par une formulation très floue, qu’elle autorise l’usage de ses technologies «pour toute finalité légale», laissant planer une ambiguïté dangereuse dont on ne sait que trop bien qu’elle profitera aux vendeurs de morts en tout genre.

Résistances internes

Face à cette collusion dangereuse entre le secteur numérique privé et l’armée, 700 salarié·es d’OpenAI et de Google, pourtant pas franchement réputé·es pour leurs engagements humanistes, ont signé une lettre ouverte à l’adresse de leur direction pour protester contre la signature de l’accord. Ils et elles dénonçaient notamment l’usage qui pourrait être fait de ces technologies, comme «la surveillance de masse» voire la possibilité de «tuer de manière autonome sans supervision humaine».

Loin d’être innocente ou «apolitique» comme ses partisans n’ont de cesse de l’affirmer, l’IA a quitté le camp des vivants il y a bien longtemps. Depuis 2023 des programmes d’intelligence artificielle sont ainsi massivement utilisés par l’armée sioniste à Gaza dans ses campagnes de bombardement de masse. Un de ces programmes, cyniquement nommé «Where’s Daddy ?» permettait par exemple de déterminer si des cibles éventuelles rejoignaient leur domicile, tandis qu’un autre calculait la probabilité qu’un Palestinien soit membre du Hamas.

La France aussi rêve de devenir le leader européen en matière d’IA adaptée à l’armement. Une agence ministérielle dédiée a été créée, dotée d’un généreux budget. Elle a déjà élaboré le projet Pendragon, prévu pour être opérationnel d’ici 2027 : il s’agit «d’unités robotiques de combat», avec des machines tueuses autonomes. Dans cette course folle, tout le monde s’y met, la Chine, la Russie, la Grande Bretagne, et toutes les lignes rouges éthiques sont déjà abandonnées.

Les enjeux qui devraient attirer notre attention au sujet de l’IA ne peuvent se réduire à la question de la souveraineté et de son impact écologique. La survie de l’humanité est bien trop importante pour que l’on continue à débattre de quelle IA est la plus «verte», ou lequel de ses PDG est le moins fasciste. Face à l’offensive néo-libérale qui veut faire des questions éthiques autour de l’IA une simple affaire de consommation individuelle profondément dépolitisante, celles et ceux qui luttent pour le vivant doivent garder à l’esprit que l’IA vient avec son monde, et que son monde n’est que mort et désolation.


Nos dossiers sur l’intelligence artificielle ici :

AIDEZ CONTRE ATTAQUE

Depuis 2012, nous vous offrons une information de qualité, libre et gratuite. Pour continuer ce travail essentiel nous avons besoin de votre aide.

Faites un don à Contre Attaque, chaque euro compte.