IA #03 : L’Intelligence Artificielle comme agent mortel


Contre Attaque vous propose une série de 5 articles pour mieux comprendre l’intelligence artificielle. Quelle est son histoire et son état à l’heure actuelle, ses pratiques dans le domaine militaire, son impact sur l’environnement et que faire des ses “exploits” ? Le domaine de l’intelligence artificielle est gigantesque et les investissements dans ce domaine augmentent de 30% chaque année. Chaque jour des nouveautés apparaissent, cette série d’articles ne prétend pas être exhaustive mais donne des clés de lecture pour une techno-critique de l’IA qui s’impose dans nos sociétés.


Un robot tueur piloté par une intelligence artificielle.

En mars 2024 Sébastien Lecornu, alors Ministre des Armées, avait annoncé la création de l’AMIAD (Agence dédiée au Développement de l’Intelligence Artificielle de Défense). Totalement contaminé par le virus technophile, celui-ci annonçait alors : «J’ai la conviction que la France sera le numéro 1 en Europe de l’IA militaire et dans le Top 3 mondial». Oui, mais pour faire quoi ? Lecornu voulait alors une révolution «dans la manière de faire la guerre». Une formulation alarmante. Serait-ce le début d’un argumentaire légitimant les massacres parce que la guerre serait devenue intelligente ?

Le génocide assisté par ordinateur : une expérience israélienne

Cette pente glissante est déjà prise par Israël, qui réalise le premier génocide assisté par ordinateur. Deux intelligences artificielles sont utilisées dans l’armée, «Lavenders» (lavandes) pour établir une liste de cibles à éliminer, et une autre baptisée «Gospel» (Évangile) pour sélectionner des cibles et bombarder Gaza.

«Lavenders» a atteint son paroxysme avec 37.000 cibles identifiées. Ce chiffre vertigineux s’explique car n’importe quel contact ou lien avec une personne associée au Hamas est ajoutée à la liste macabre. Une fois les cibles identifiées, l’IA «Gospel» traque, cible et propose des bombardements en identifiant précisément les victimes collatérales. L’IA donne lieu à des ordres de tirs qui sont parfois pris en 20 secondes.

La technologie déresponsabilise

L’armée israélienne prend parfois 20 secondes pour décider de la vie ou de la mort des personnes visées, dont les victimes civiles suggérée par l’intelligence artificielle. Cette rapidité d’exécution ne peut pas permettre de prendre conscience de l’ensemble des conséquences, de traiter un cas dans son intégralité. C’est donc à l’intelligence artificielle qu’est confiée cette réflexion.

Dans un précédent article, nous avons bien montré que dans le cas où l’intelligence artificielle fait une prédiction, le décisionnaire à tendance à la suivre presque à chaque fois. La conséquence de cette tendance est que l’explicabilité de la décision n’est plus possible et que la responsabilité de l’horreur échappe au décisionnaire. Il devient ainsi plus facile de tuer puisque ce n’est plus le raisonnement humain qui décide mais la machine qui suggère : « une usine d’assassinats de masse ».

L’ignominie est encore plus grande lorsqu’on pense au paramétrage humain de cette IA : l’amélioration de ces métriques implique nécessairement des arbitrages, comme 1 cible atteinte pour 10, 100, 1000 civils tués. Qui peut s’ériger au-dessus des populations et décider d’une telle chose ? L’histoire nous l’enseigne, le présent nous le rappelle horriblement, ce sont les fascistes.

En 2015 et en 2018, des lettres signées par des milliers d’expert de la robotique et de l’IA avaient été publiées demandant à l’ONU, avec une insistance peu commune de la part des technocrates, de bloquer les développements des robots-tueurs. Elon Musk avait notamment fait partie de ces signataires. C’est donc à minima la troisième fois qu’Elon Musk signe des lettres pour alerter sur l’usage de l’intelligence artificielle. Mais qu’on ne s’y trompe pas, ce n’est pas par bonté d’âme si Musk alerte face aux dangers de l’IA, mais pour freiner ses concurrents sur lesquels il a pris du retard.

Une CyberWeek de la mort à Rennes

En septembre dernier, à l’université de Rennes, se tenait un cycle de conférences sur l’intelligence artificielle qui avait donné lieu à une riposte anti-industrielle. C’est à nouveau à Rennes, du 18 au 21 novembre 2024, que se tiendra une «European CyberWeek», soit une «semaine européenne de l’informatique» mais en anglais ça sonne mieux et surtout on comprend moins que ça ne veut tout et rien dire. L’objectif y sera de croiser les domaines militaires et l’intelligence artificielle, un programme macabre,

Parmi les principaux partenaires de cette CyberWeek, on retrouve Thalès, société française d’armement qui collabore avec l’armée génocidaire israélienne en livrant des composants et équipements nécessaire à leurs drones tueurs. On trouve aussi Airbus qui développe le Système de Combat Aérien du Futur (SCAF) de l’Europe, un gigantesque projet de traitement de données permettant une reconstitution de la situation sur le terrain. C’est «l’internet des objets» militaires. C’est-à-dire la volonté de transmettre et traiter plus vite l’information militaire grâce aux technologies de Thalès et autres entreprises de mort comme Dassault. La 5G pour la transmission des données, des supercalculateurs et système d’Intelligence Artificielle pour leur traitement.

Dernier des trois partenaires principaux : Capgemini, une multinationale française qui entend «libérer les énergies humaines par la technologie pour un avenir inclusif et durable». Autrement dit une entreprise qui entend développer la technologie pour combler les limites de l’humain dans un avenir divisé entre les individus qui auront accès à la technologie et les autres, sur fond de techno-solutionnisme des problèmes sociétaux.

Si ces entreprises de mort n’hésitent pas à marchander la vie humaine grâce à l’IA, c’est parce que ce marché qui pesait déjà 6,3 milliards d’euros en 2020 pourrait augmenter fortement jusqu’à atteindre plus de 19 milliards en 2029. Sans surprise, le marché le plus important est détenu par la première puissance impérialiste, les États-Unis. Avec l’élection récente de Donald Trump qui a promis de mener guerre aux «ennemis de l’intérieur» et qui est fasciné par Hitler, il est probable que ce marché grandisse encore d’avantage.

Technologies usant de l’IA dans le domaine militaire

Aux États-Unis

En 2020, la DRAPA (Defense Advanced Research Projects Agency) a organisé une simulation de combat entre son meilleur pilote de F-16 et une IA. Cette dernière, développée par Herons Systèmes, a gagné les 5 combats simulés. Heron Systems est une entreprise californienne qui développe des agents autonomes et des systèmes multiagents alimentés par l’intelligence artificielle. Pour pouvoir réaliser cette simulation, la firme avait été mise en concurrence avec sept autres entreprises. L’IA est une course dans laquelle les « meilleures » auront un avantage considérable, rendant la guerre toujours plus déséquilibrée en faveur des grandes puissances.

En conclusion de cette expérience, le pilote battu par l’IA a considéré qu’il ferait maintenant confiance aux algorithmes de combat aérien, en particulier à leur mouvement de motricité fine (et donc de manœuvre), à leur capacité de prise de décision rapide et à leur capacité de ciblage. Il modérait toutefois un peu ce propos, considérant que la simulation ne rendait pas compte de l’ensemble des contraintes de la vie réelle. Un pas de plus dans l’absence de prise de décision humaine dans les actes de guerre, et donc de la déresponsabilisation humaine face aux conséquences.

En 2023 un général expliquait, lors d’une conférence organisée par la Royal Aeronautical Society, qu’un drone équipé d’IA et ayant pour mission la destruction de sites contenant des missiles sol-air, avait choisi de détruire la tour de communication de l’opérateur, empêchant ce dernier de le contrôler. L’opérateur simulait une intervention humaine pour empêcher le drone de détruire sa cible. Ce drone, entraîné a ne pas tuer son opérateur, avait donc trouvé une autre manière de faire pour échapper à son contrôle.

Face au scandale provoqué par ses propos, l’armée américaine avait rapidement fait machine arrière, expliquant que le général s’était mal exprimé et qu’il s’agissait d’une « expérience de pensée ». Aucune expérience de ce type n’aurait eu lieu. Face à l’opacité des expérimentations, même « l’expérience de pensée » d’un tel sujet est alarmante. Le professeur Yoshua Bengio, un des « parrains » de l’IA, décrit l’armée comme «l’un des pires endroits où l’on pourrait placer une IA superintelligente». Tout est dit.

Mais cela n’arrête pas les expérimentations pour autant : l’armée de l’Air des États-Unis développe un drone « Skyborg » dont les premiers essais remontent à 2021 et qui serait majoritairement contrôlé par l’IA. Ces drones doivent voler au coté d’avions de chasse et effectuer des missions dangereuses. Cela signifie sortir du domaine de la simulation. Ces drones seraient des sortes de R2-D2, selon Will Roper, responsable du projet. Soit disant inspiré de Star Wars, ce parallèle utilise la culture populaire pour faire accepter dans l’opinion ce qui n’est rien d’autre que des robots tueurs.

En France

Le Ministère des Armées publie, sur son site, 6 cas d’usage de l’intelligence artificielle dans le domaine militaire français. Parmi ces technologies on trouve :

  • Oreilles d’or, le traitement des données acoustiques issues des sous-marins, habituellement écouté par les oreilles d’or humaine, une capacité d’écoute presque illimitée.
  • DeMAIA, un équipement des véhicules blindés pouvant détecter des cibles jusqu’à trois kilomètres, une surveillance totale.
  • IA FPN, pour détecter les pilotes qui ne réussiront pas leur formation et les évincer dès le début de leur parcours afin d’en minimiser le coût.

Le contrôle technologique de la société civile

Si ces exemples d’intelligence artificielle militaire sont développés d’abord à des fins de massacre, ces fonctionnements pourraient aussi se déverser dans la société civile à travers la techno-surveillance. Après tout, c’est pour des usages militaires que le GPS a été développé. Et la militarisation de la police est toujours en cours, alors que cette police utilise déjà des grenades explosives, a le droit de conserver son arme de service à son domicile ou met en joue systématiquement les manifestant-es avec des armes «à létalité réduite» comme le LBD, responsable d’un nombre hallucinant de mutilations. Il ne faut donc pas être naïf, les dirigeants voudront faire passer tout ou partie de ces technologies militaires dans la société civile.

Imaginons que les trois technologies françaises évoquées précédemment se déversent dans la société civile : se déplacer dans l’espace public deviendrait ultra-contrôlé et le moindre déplacement ou parole hors-normes, pourrait être synonyme de contrôle de police, de répression menant à des violences policières. Ce processus est d’ailleurs déjà enclenché puisque Laurent Nuñez souhaite rendre permanente l’expérimentation « temporaire » de la vidéo-surveillance algorithmique rendue possible lors des JO de Paris 2024. Oui l’oxymore «expérimentation temporaire permanente» fait partie du vocabulaire des politiques répressives françaises.

Dans le domaine de l’éducation, l’IA permettant de prédire l’échec de formation de pilotes pourrait être intégrée à Parcoursup, qui est déjà un outil du maintien de l’ordre, protégeant la bourgeoisie d’une population qui risquerait de bousculer l’ordre inégalitaire que le capitalisme nous impose. Le mythe de la méritocratie n’en finirait plus de s’effondrer puisque, pour des raisons encore plus obscures, les lycéen-nes se verraient refuser l’un ou l’ensemble de leurs vœux d’enseignement supérieur.

L’intelligence artificielle n’est donc qu’une excuse pour prolonger les fonctionnements de plus en plus militarisés de nos sociétés. Ce n’est en aucun cas une nécessité : une société «civilisée» ne devrait-elle pas pouvoir produire autre chose que de la pensée morbide et des technologies liberticides ?


Prochain épisode : L’intelligence artificielle et la poursuite du saccage environnemental.

Les épisodes précédents sont ici :

Faire un don à Contre Attaque pour financer nos articles en accès libre.

Pour ne rien manquer de nos publications, suivez-nous sur nos réseaux



Laisser un commentaire