lundi 26 juin 2017

L'INTELLIGENCE ARTIFICIELLE : POTENTIELS, DANGERS, RISQUES EXISTENTIELS. EST-CE L'ANNONCE DE LA FIN DE L'HUMANITÉ ?



En 2014, plusieurs scientifiques de renom, dont Stephen Hawking et Bill Joy ont appelé les spécialistes en Intelligence artificielle (A.I.) à un moratoire immédiat sur les recherches poursuivies dans ce domaine, jusqu’à ce que les dangers potentiels inhérents à ce domaine aient été clairement circonscrits et des garde-fous érigés. 
Pour Stephen Hawking et Nick Bostrom, le danger potentiel est immense et relève du risque existentiel, autrement dit, de la fin possible de l’humanité.
D’autres scientifiques, dont Jaron Lanier et Ray Kurzweil considèrent que leur inquiétude est exagérée et que les bienfaits que l’humanité peut tirer des applications de l’intelligence artificielle sont trop importants et nécessaires pour inhiber la recherche, alors que celle-ci peut facilement parer aux supposés dangers.
Toutefois, quelle que soit la vision qu’on adopte à l’égard de l’A.I., l’avènement de cette technologie a et aura des effets tellement disruptifs sur notre civilisation, qu’on peut parler de déchirement des modes de production économiques. Quant à ses effets sur la production intellectuelle, ceux-ci pourraient être cataclysmiques.
À ce sujet, on peut probablement dire, que demain est déjà là.

Définition
Rappelons brièvement que ce qu’on appelle l’intelligence artificielle (A.I) recouvre présentement un large éventail de logiciels, capables de gérer ou de résoudre des problèmes à l’instar d’un être humain : les GPS des smartphones, l’ordinateur Deep Blue de IBM, ayant battu le meilleur joueur d’échec Kasparov en 1989, la plateforme analytique de IBM, Watson, qui gagna le championnat mondial de jeopardy et qui probablement révolutionnera les diagnostics médicaux, l’ordinateur deep-mind alpha-go de Google qui gagna trois parties de go contre le tenant du titre mondial Lee Sedol, et tous les programmes capables de passer le test de Turing, c’est-à-dire la faculté d’une machine, au travers d’une conversation, à être confondue avec un être humain véritable.
L’A.I ou plus spécifiquement l’AGI (Artificial General Intelligence) serait en somme, la capacité d’un ensemble artificiel à résoudre des problèmes dont la solution n’est nullement évidente ni triviale. À l’extrême limite, l’A.I serait à même de procéder à une auto-amélioration d’elle-même, sans limite.
À ce stade-ci, il n’existe encore aujourd’hui, aucune véritable A.G.I. Personne ne croit que Deep-Blue, Deep-mind, Alpha-go ou Watson soient le siège d’une véritable pensée autonome, à l’instar de la pensée humaine. Leur architecture ne ressemble absolument pas à celle des circuits synaptiques du cerveau humain. Mais il n’est ni impossible, ni assuré qu’on arrive ou qu’on échoue à simuler dans les prochaines décennies un niveau d’intelligence humaine.
Si toutefois cela advenait, on peut imaginer deux possibilités : soit une intelligence, puissante, dénuée de toute conscience d’elle-même et opérant à l’intérieur de sa programmation, soit une intelligence, dotée d’une forme de conscience de soi et dès lors capable d’intentionnalité, échappant ainsi à sa programmation initiale.

Potentiels et bénéfices
La possibilité de bénéficier d’une telle ressource d’innovation dans tous les domaines, correspondrait très exactement au contrôle du génie de la lampe d’Aladin. Aucun problème ne serait hors de portée si l’intelligence qui l’examine est elle-même sans limite. Plus prosaïquement, de nombreux problèmes en apparence presque insolubles aujourd’hui, tels les changements climatiques pourraient être abordés plus efficacement et résolus.

Types de dangers
L’A.I. ne pourra être autre chose qu’une véritable boite de Pandore.
D’abord, il faut résolument présumer qu’aucun grand acteur étatique ou non étatique ne se laissera arrêter par aucun moratoire s’il a le sentiment que ses concurrents iront de l’avant dans tous les cas. C’est ce qui se passe déjà dans le domaine militaire.

Quelques conséquences prévisibles :

1.     La disparition du travail. Sur un mode mineur, la robotisation est déjà en marche et selon plusieurs chercheurs 40% de tous les jobs existants présentement vont disparaître dans les vingt prochaines années. Non seulement ce qui se mécanise facilement comme le transport routier, ou même ce qui parait a priori non programmable, la robotisation des services humains à la personne, mais aussi ce qui semble relever de la réflexion originale, comme les analyses et articles de journaux.

2.     La mort par inadvertance. On a avancé l’exemple célèbre d’une A.I ayant pour mandat de fabriquer des trombones sans tenir compte d’aucune autre contrainte. Si la programmation est mal faite, on peut avoir une A.I qui décide de contrôler toutes les sources de métal du monde entier ainsi que ses sources énergétiques pour assurer la production ininterrompue de trombones. Condamnant ainsi par inadvertance l’humanité à la mort par application systématique de ses instructions de départ.

3.     Le décrochage menant à la fin de toute recherche originale. Imaginons des avancées mathématiques par une A.I, dont la preuve requerrait de la part d’êtres humains, 5, 10, 20 ou 30 ans de travail pour confirmer sa véracité. Quel mathématicien entreprendrait un tel travail ? Qu’il prouve que l’A.I. a vu juste ou pas, sa carrière serait fichue, car il n’aurait rien produit d’original lui-même. Cette réflexion me vient en pensant aux 7 années de travaux d’Andrew Wiles dans sa démonstration d’un des théorèmes de Fermat. Présentement, un très brillant mathématicien japonais Shinichi Mochizuki[1] a développé tout un ensemble d’objets mathématiques permettant d’aborder des conjectures irrésolues (dont la conjecture abc). Sa présentation est très complexe et requerrait un énorme investissement en termes de temps.  Très peu de mathématiciens l’ont fait. Mais plus prosaïquement, au-delà des mathématiques, si les avancées scientifiques résultent de plus en plus de travaux d’A.I., comment les hommes vont-ils pouvoir rester dans la course et ne pas devenir juste des appendices de la machine, programmant simplement ce que l’A.I. doit rechercher ?

4.     Une A.I. dotée d’intentionnalité. Celle-ci s’améliorerait sans cesse et ses capacités cognitives dépasseraient immensément celles de l’homme. Or on imagine difficilement une entité consciente et dotée d’intentionnalité (agency) accepter d’être inféodée à une autre espèce nettement inférieure. Cette situation signerait très rapidement la fin de l’humanité.

Léon Ouaknine




[1] https://www.slate.fr/lien/61611/mathematiques-mochizuki-theorie-nombres-premiers.  Pour sa démonstration, Mochizuki a développé des techniques que très peu d’autres mathématiciens comprennent complètement et qui utilisent de nouveaux «objets» mathématiques. «A ce stade, il est probablement le seul à les connaitre tous» estime Goldfeld. Et pour cause: la démonstration du Japonais est détaillée dans quatre articles scientifiques, qui reposent chacun sur d’autres longs articles. Brian Conrad de l’université de Stanford, explique :
« Comprendre une démonstration longue et sophistiquée peut nécessiter un énorme investissement en termes de temps, et la volonté des autres scientifiques de faire un tel travail dépend non seulement de l’importance de l’annonce mais aussi des états de service de l’auteur.»

Aucun commentaire:

Enregistrer un commentaire