ANGLE MORT par Fernand Le Pic

ARG AI

La «singularité» demeure encore, pour le quidam, un vocable en rapport avec l'unicité. A moins qu'on ne soit physicien et qu'on l'utilise au sens technique du point de densité infinie, ou encore un matheux traitant des transitions de ses objets mathématiques. Mais il y a bien plus déconcertant.

C'est aujourd'hui l'univers de l'Intelligence Artificielle (IA) et de la robotique surdouée qui s'est approprié cette sémantique. Il s'agit de nous préparer à ce moment hypothétique où les machines intelligentes pourront concevoir seules des machines encore plus intelligentes qu'elles-mêmes, et provoqueront ainsi un décrochage exponentiel d'intelligence artificielle, qui tendra vers un infini sidéral, et laissera l'humain sur le carreau de son minable cortex biologique. Or, des industriels de la robotique, principalement médicale pour faire bonne figure, et militaire pour la bonne cause, nous prédisent que ce point de rupture est pour très très bientôt. En clair, ces braves ingénieurs, encore humains, sont en train de lâcher dans la nature des robots-guérisseurs et des robots-soldats autonomes, infiniment plus intelligents que nous, et cela dans une mesure bientôt irrattrapable par nos synapses.

Le mariage homme-machine comme seule issue?

Au cas où nous voudrions rester dans la course, il nous faudra accepter d'hybrider nos neurones avec la «machine». Tel sera le prix de notre admission et de notre maintien dans la société paradisiaque qui se profile. Notre survie dépendra du degré de fusion-absorption que nous serons prêts à concéder à ces intelligences supérieures déjà nées ou en gestation avancée. A moins qu'elles nous l'imposent tout simplement. C'est cela la Singularity, et c'est très sérieux.

Des chercheurs en IA et des ONG se mobilisent déjà pour imposer un cadre éthique et limitatif à ces développements. Il y a quelques semaines à Genève, l'ONG Campaign to stop killer robots a présenté une vidéo très explicite lors de la Conférence sur la limitation de certaines armes conventionnelles (CCAC). On y voit des essaims de micro-drones pas plus grands que des gros papillons définir leurs cibles librement et sans aucune intervention humaine, puis les occire à coup sûr, grâce à leur mini-charge explosive pénétrante. Ce type de capacité léthale autonome constitue à l'évidence une anomalie au sens du droit humanitaire. Cela fait plus de 15 ans que Ray Kurzweil, directeur de l'ingénierie chez Google, l'annonçait dans son best-seller The Singularity Is Near.

Il y écrivait qu'en 2010, la capacité de calcul des ordinateurs serait analogue à l'intelligence humaine. Les cas les plus inoffensifs nous sont déjà connus, comme ces ordinateurs qui nous battent aux échecs et au go ou encore cette IA qui conduit nos voitures. Il prédisait également, pour la même année 2010, qu'on aurait considérablement progressé dans la modélisation mathématique de cerveau humain. Le projet Blue Brain de l'EPFL (Lausanne) lui donne raison.

Il prophétisait encore qu'un ordinateur passerait avec succès le test de Turing vers 2030. Un test qui consiste à programmer une machine afin de berner des ingénieurs en faisant passer ses réponses à des questions aléatoires pour des réponses humaines. C'est fait depuis 2016, au sein du Computer Science and Artificial Intelligence Lab (CSAIL) du MIT. Or, les spécialistes s'accordent à considérer que c'est ce moment-là qui ouvre la voie à la «singularité». Kurzweil estime qu'elle sera atteinte vers 2045. Côté «fusion», on y est presque aussi avec par exemple la dentelle neuronale (neural lace), développée par la société californienne Neuralink, dont l'objet social est de fusionner le cerveau humain et l'IA. Cette maille électronique hyperfine et contrôlable de l'extérieur a déjà été injectée avec succès dans des cerveaux de souris. On y a observé qu'elle était graduellement reconnue par l'organisme comme une partie naturelle du cerveau et que ce dernier se connectait à elle.

L'avenir de la guerre est pavé de neurones

Au-delà des applications prometteuses pour les maladies de Parkinson ou d'Alzheimer, toutes les armées sont sur le pont. C'est une nouvelle course à l'armement silencieuse qui est déjà très engagée. Au-delà des robots tueurs autonomes, l'enjeu n'est rien moins que le contrôle du cerveau. Côté Pentagone la DARPA ne chôme pas. Elle avance sur la conversion directe des signaux électrochimiques des neurones en langage digital (1.0). Elle travaille aussi activement au contrôle de la mémoire. On importera directement des données dans le cerveau comme on télécharge un fichier sur son ordinateur. Mais qui marquera la limte entre l'injection de compétences et l'injection d'ordres? Bien entendu, l'interface fonctionnera dans les deux sens, avec une possibilité de sauvegarde des souvenirs. La porte est donc ouverte aux plus prodigieux moyens de contrôle de l'homme et si nécessaire, de soumission.

On connait aussi les robots chiens et les humanoïdes acrobates de Boston Dynamics, ancienne filiale de Google, puis de sa holding Alphabet. Elle vient d'être cédée à Softbank, géant japonais des télécoms. Son fondateur et patron, Masayoshi Son, ne veut pas rater l'occasion de devenir le futur leader de la singularity. Lui et ses associés militaires ont bien compris qu'ils devaient vite trouver un havre à l'abri de toute contrainte légale, au moment où 22 pays approuvent l'idée d'interdire les robots tueurs autonomes. Il leur faut une extraterritorialitée garantie et si possible beaucoup d'énergie solaire à capturer, ainsi qu'un fort potentiel d'hydratation. Pour finir, il leur faudra l'assurance d'une protection armée très adéquate.

Ce territoire, ils viennent de le trouver, c'est NEOM, le projet saoudien de mégapole du futur situé à l'embouchure du Golfe d'Aqaba, non loin des pépinières d'ingénieurs israéliennes. On raille beaucoup ce projet pharaonique comme le dernier caprice d'un prince héritier mégalo. Il est au contraire à prendre très au sérieux et les 500 milliards de dollars qui doivent y être investis seront très certainement réunis: on n'arrêtera plus Singularity.

Source: Antipresse.