Contre Attaque vous propose une série de 5 articles pour mieux comprendre l’intelligence artificielle. Quelle est son histoire et son état à l’heure actuelle, ses pratiques dans le domaine militaire, son impact sur l’environnement et que faire des ses « exploits » ? Le domaine de l’intelligence artificielle est gigantesque et les investissements dans ce domaine augmentent de 30% chaque année. Chaque jour des nouveautés apparaissent, cette série d’articles ne prétend pas être exhaustive mais donne des clés de lecture pour une techno-critique de l’IA qui s’impose dans nos sociétés.
Le terme d’intelligence artificielle (IA) apparaît pour la première fois en 1956. Marvin Minsky indique avoir créé ce terme pour récolter des fonds parce que le terme était prometteur. Pour autant, l’intelligence artificielle n’est en réalité que partiellement intelligente, et surtout artificielle. En effet l’IA n’est que le produit d’une sorte de bachotage de la part d’une machine.
Il existe plusieurs formes d’IA, mais toutes sont issues d’un fonctionnement similaire nécessitant une grande quantité de données et une énorme puissance de calcul. C’est pour cela que si le terme existe depuis les années 1956, ce n’est que récemment que ses fonctionnalités se sont imposées dans nos vies.
L’objectif de l’IA est de répliquer des comportements humains et ses sens. La raison, mais aussi la vue, le langage, l’ouïe, le toucher. Sa mise en place repose sur de l’entraînement : il s’agit de montrer à une machine un ensemble de données et de lui donner le résultat à trouver. Puis on montre des données à la machine et on mesure l’écart entre le résultat obtenu et le résultat voulu. Si le résultat est insuffisant c’est qu’il il faut plus de données, plus d’entraînement ou les deux. Ce point est primordial car il montre que l’intelligence artificielle fait des erreurs. Mais aussi que l’intelligence artificielle dépend de métriques qu’on lui demande de maximiser.
L’intelligence artificielle dans le système bancaire
Prenons un exemple utilisé aujourd’hui dans le domaine bancaire. Plaçons-nous du côté des capitalistes qui doivent où non accorder un crédit à un client. L’IA est utilisée pour prédire le risque de non-remboursement du crédit par le client.
Le résultat peut être correct, l’IA accorde le crédit et le client rembourse, ou l’IA n’accorde pas le crédit et le client n’aurait pas pu rembourser son crédit. Le résultat peut aussi être incorrect, l’IA accorde un crédit que le client ne rembourse pas, ou l’IA n’accorde pas le crédit alors que le client aurait bien pu le rembourser. La précision de l’IA définira le nombre de crédit accordés bien remboursés.
Mais une précision de 100% peut indiquer plusieurs situations, comme l’ensemble des crédits demandés ont été accordés et remboursés, ou 1 seul crédit est accordé et il est bien remboursé. Dans le deuxième cas, la banque n’a pas de défaut de paiement, mais elle a sûrement un manque à gagner. La machine cherchant à obtenir un score de 100% de réussite aura tendance à minimiser le risque, et donc à refuser toujours plus de crédits, y compris à des gens qui auraient effectivement pu rembourser la banque. Il faut donc ajouter une autre métrique appelé le «rappel», qui définit le nombre de crédits accordés et bien remboursés sur le nombre de crédits total qui auraient été bien remboursés. Ainsi, si ce score est faible, c’est que les crédits sont sous-accordés.
Si le ré-entrainement fait monter ce résultat, c’est que plus de crédits sont accordés, donc qu’il y a plus de risques de défaut de paiement. Si les métriques peuvent être complexifiées, ce sera toujours le résultat d’un arbitrage humain. Dans cet exemple, il s’agit pour la banque de trouver l’équilibre entre le manque à gagner des crédits non accordés et les pertes des crédits non remboursés.
C’est l’un des problèmes de l’intelligence artificielle : en remplaçant l’analyse humaine par l’IA pour gagner en «efficacité», il faut nécessairement décider qu’une part de l’erreur sera imputée à la machine et non pas à l’humain, avec notamment comme conséquence l’inexplicabilité de l’erreur. Si l’IA s’améliore, elle ne sera jamais infaillible.
Les capitalistes ont trouvé la parade à ce dilemme : ils mettent un humain entre l’IA et le client pour donner le change. Le résultat sera ainsi réinterprété par l’humain afin de ne pas entrer dans un système où l’IA décide. Seulement voilà, la Cour Européenne de Justice, en décembre 2023, a rendu un arrêt «SCHUFA», du nom d’une banque allemande, qui montrait que dans l’immense majorité des cas l’humain suivait la décision de l’IA. Un pigeon placé là pour rassurer et qui ne fait que cliquer sur un bouton. Mais un pigeon qui prolonge les arbitrages capitalistes des banques, rendant toujours plus inaccessible et discriminatoire l’accès au financement des plus précaires. Seuls les plus riches peuvent avoir de l’argent en avance, un principe du capitalisme financier que l’IA vient aggraver.
D’où viennent toutes ces données ?
La réponse à cette question est malheureusement très simple : de partout. Les données utilisées sont issues de l’ensemble des données générées et collectées par le monde numérique. Sans le savoir vous avez probablement déjà participé à générer des jeux de données d’entraînement. Par exemple les Captcha, ces petites questions insupportables avec des images que l’on vous pose quand vous essayer de vous connecter sur un site : «sélectionnez toutes les cases qui contiennent une moto».
Sous couvert de sécuriser le site, les données sont récupérées pour indiquer à une machine les images qui contiennent une moto et celle qui n’en contiennent pas. Testez la prochaine fois qu’un Captcha se présente, sélectionnez aussi une image qui ne contient pas de moto, vous arriverez tout de même à accéder au site. C’est notamment Google, par son module «ReCaptcha», qui utilise ce travail d’entraînement gratuit.
Amazon, par sa plateforme Mechanical Turk, génère aussi des données par l’exploitation ubérisée de 15.000 à 50.000 personnes qui réalisent des tâches informatiques répétitives. Ces travailleurs du clic sont payés à la tâche, comme celle de caractériser des images. Le salaire médian est de 2 dollars de l’heure, aucune protection sociale, pas de vacances : une main d’œuvre corvéable à merci. L’entreprise de Jeff Bezos est ainsi l’aboutissement du capitalisme le plus obscène.
Un premier exemple d’intelligence artificielle dans l’histoire
Avant d’avoir cette puissance de calcul et l’accès à ces ensembles de données, et même avant l’invention du terme d’intelligence artificielle, le cas emblématique d’usage d’une pseudo-forme d’intelligence machine est celui qui concerne Enigma, l’outil de communication de la seconde guerre mondiale qui cryptait les messages Nazis. Si les chiffres varient en fonction du nombre de rotors utilisés, Enigma aurait permis jusqu’à 15 milliards de séquences d’encryptage différentes.
Les techniques habituelles de décryptage utilisées par les Anglais devinrent alors inefficaces, et ce n’est que par l’invention de l’ordinateur par Alan Turing (entre autres) que les failles ont pu être trouvées. L’astuce résidait dans l’invention d’une machine qui pouvait tester jusqu’à 20.000 combinaisons par secondes. Comme aucun humain ou groupe d’humain ne pouvait tester des combinaisons à cette vitesse, cette invention a joué un rôle majeur dans le décryptage, bien que des documents trouvés à bord de sous-marins allemands aient aussi aidé à comprendre le code. C’est cela l’intelligence artificielle : faire calculer des robots à une vitesse bien plus rapide que l’humain pour réaliser un objectif définit par l’humain.
Alan Turing n’a ensuite cessé, dès la fin de la guerre, de prévenir des usages néfastes de l’IA dans nos sociétés. Il imagine un test de Turing et anticipe le jour où l’humanité ne saura plus distinguer si elle s’adresse à un autre humain ou à une machine. Ce jour est arrivé.
Prochain épisode : L’intelligence artificielle de nos jours.
3 réflexions au sujet de « IA #01 : Histoire et principes de l’intelligence artificielle »
Pour l’exemple de la banque le problème c’est d’identifier les défaillants, donc on entraine le réseau (enfin si c’est la technologie choisie il y en a d’autres) sur des exemples de défaillants jusqu’à ce qu’il apprenne à les reconnaitre à 99% (bon ensuite il y aura 1% d’erreur mais machine ou humain le zero échec n’existe pas !
Et contrairement à ce que vous affirmez l’IA est une bonne technique c’est juste que les humains sont pas au niveau pour l’utiliser sans risque 🙂
par ailleurs Enigma était une machine electro mécanique, mais pas la première c’est Zuse en Allemagne vers 1930 qui a crée le premier ordinateur electro mécanique (relais)
Heureusement les nazis étaient cons sinon j’écrirais cette rubrique en allemand 🙂
Très bonne vulgarisation, merci.