Deux livres pour mieux comprendre les défis sociétaux de l'Intelligence Artificielle
09/10/2023
J’ai commencé à écrire sur les sujets liés à l’Intelligence Artificielle (IA) en 2017, avec deux billets de blog pour présenter les concepts de base, les trois familles d’IA:
- A N I : Artificial Narrow Intelligence, des IA mono tâches.
- A G I : Artificial General Intelligence, des IA capables de faire aussi bien que les humains dans tous les domaines informationnels.
- A S I : Artificial Super Intelligence, des IA dont les capacités sont supérieures à celles de tous les humains.
Au cours de ces dernières années, j’ai lu plusieurs dizaines d’ouvrages qui parlent d’Intelligence Artificielle. Ils ne représentent qu’une infime partie de la littérature sur ce sujet.
J’ai choisi aujourd’hui de vous recommander deux livres très différents, mais qui, chacun dans son style, devraient vous aider à mieux comprendre pourquoi l’IA est à mon avis l’innovation la plus importante dans le monde du numérique.
- Scary Smart, par Mo Gawdat.
- Life 3.0, par Max Tegmark.
Ce ne sont pas des livres “techniques”: ils ne parlent pas ou peu des solutions existantes où des technologies nécessaires pour faire fonctionner les outils numériques IA.
Ces deux livres mettent l’accent sur les relations entre les humains et l’Intelligence Artificielle, comme le démontrent les deux phrases que l’on trouve en couverture:
- Scary Smart: The Future of Artificial Intelligence and How You Can Save Our World.
- Life 3.0: Being human in the age of Artificial Intelligence.
Ces deux ouvrages sont de grands succès de librairie; je n’ai pas la prétention de vous faire “découvrir” des pépites ignorées.
Scary Smart est d'abord facile, il peut se lire rapidement et il présente les idées de l’auteur de manière très didactique. C’est un grand compliment de ma part: il est difficile de parler d’un sujet aussi important d’une manière accessible au plus grand nombre. Bravo, Mo Gawdat.
Life 3.0 demande un effort de lecture plus important, mais je vous promet que vous ne serez pas déçu et qu’il vous fera faire des pas de géant dans votre compréhension des défis majeurs que l’IA pose à l’humanité.
Dans la suite de ce texte, je présente quelques-unes des idées qui m’ont le plus interpellées dans ces deux livres.
Il ne s’agit pas d’en faire un résumé.
Je souhaite simplement vous donner envie de les acheter et… de les lire.
Scary Smart, par Mo Gawdat
Le livre Scary Smart a été publié récemment, en 2022. Il comprend deux parties très différentes:
- The scary part, la partie “effrayante”.
- Our Path to Utopia, notre chemin vers l’utopie.
J’ai beaucoup aimé la première partie: elle présente de manière très didactique et claire sa vision des évolutions de l’IA, vers l’AGI, Artificial General Intelligence et l’ASI, Artificial Super Intelligence.
Les quatre messages essentiels à retenir:
- L’IA va arriver et on ne peut pas stopper son arrivée.
- Les machines deviendront plus intelligentes que les hommes, et plus vite que vous le pensez.
- L’IA va diriger notre futur, il faut l’accepter et s’y préparer.
- Des erreurs et des impacts négatifs forts vont se produire.
Il propose même un calendrier:
- AGI en 2029. Je trouve cette précision surprenante, et j’aurais préféré qu’il dise “autour des années 2030”.
- ASI: en 2049 les IA seront un milliard de fois plus “intelligentes” que les humains les plus brillants. On y retrouve le concept de “singularité”, souvent évoqué quand on parle d’IA.
J’aime aussi beaucoup cette idée, qui met l’accent sur l’importance des données:
“Les “émotions” ressenties par les IA ne viennent pas des programmes mais des données qu’elles analysent. Ces données servent à “éduquer” les IA comme nous le faisons avec nos enfants.”
Ce n’est pas le code qui va dicter les comportements des IA, mais les données que nous leur fournissons pour leur apprentissage.
Le discours actuel sur les biais des IAG va dans ce sens: les IAG ne font que propager les idées dominantes dans notre société. Ce ne sont pas les IAG qu’il faut critiquer, mais… nous tous.
Demander aux IAG d’être plus vertueuses que nous, quelle outrecuidance!
L’humanité a beaucoup de défauts:
- L’humanité est “arrogante” et a beaucoup de mal à imaginer que d’autres formes d’intelligence puissent exister.
- Les humains n'ont pas une bande passante suffisante pour partager efficacement nos connaissances, à l’inverse des machines.
- L’humanité travaille sur l’intelligence en “silos”: personne ne peut avoir une vision unifiée du monde.
Sa vision du futur est effectivement “scary”:
- L’IA n’est plus un outil, comme les créations techniques actuelles, c’est une intelligence comme vous et moi.
- Personne, absolument personne ne peut prédire ce qui va se passer.
- Nous ne serons pas assez intelligents pour comprendre les ASI.
- Personne ne peut imaginer ce que les IA super intelligentes seront capables d’inventer. Ceci équivaut à demander à une mouche comment fonctionne un ordinateur!
- Les humains n’auront plus grand chose à proposer pour contribuer au marché du travail.
Ces hypothèses vous inquiètent, vous font peur?
La deuxième partie de ce livre est là pour proposer des solutions et éviter que le futur d’une l’humanité dominée par l’IA ne soit apocalyptique.
J’ai un vrai problème: je ne suis absolument pas convaincu par les réponses apportées par Mo Gawdat.
Quelles sont-elles? Je vous laisse les découvrir…
Life 3.0, par Max Tegmark
Life 3.0 est un livre plus ancien que Scary Smart; ll a été publié en 2017.
Il existe aussi en version française, la vie 3.0, que je n’ai pas lue.
Max Tegmark est un physicien, professeur au MIT à Boston, avec de fortes compétences dans l’étude du cosmos et en Machine Learning.
Il est le créateur du “ FLI, Future of Life Institute”, à l'origine de la grande réunion de 135 spécialistes de l’IA à Puerto Rico en 2015. Elle a réuni l’élite scientifique mondiale sur le sujet.
Sa culture scientifique et son goût pour le cosmos influencent beaucoup sa vision de l’avenir du monde.
Après un chapitre 5 consacré aux 10 000 prochaines années, le chapitre 6 n’hésite pas à analyser le prochain… milliard d’années et au-delà!
La principale valeur de ce livre est pour moi le très grand nombre de questions complexes qu’il pose concernant l’intelligence, l’humanité, l’IA et leurs interactions.
Je l’ai lu avec un crayon et il y a très peu de pages (il y en a 335) où je n’ai pas souligné une phrase importante.
J’ai choisi, de manière très personnelle, une toute petite partie des messages que portent ce livre et qui m’ont particulièrement marqués.
Sa définition de l’intelligence: la capacité à atteindre des objectifs complexes.
L’intelligence n’implique pas de jugements de valeur sur le bien ou le mal: des personnes peuvent être très intelligentes et aider les autres ou leur faire du mal. C'est la même chose pour les IA.
Il y a deux formes d’intelligence:
- Basée sur le carbone, l’humanité.
- Basée sur le silicium, l’IA.
Une machine super intelligente sera capable de concevoir d’autres machines encore plus intelligentes. Conséquence: la première ASI sera la dernière invention que l’humanité fera, l’ASI prendra ensuite le relais. Ce sera un point de rupture: quand les progrès des IA ne seront plus créés par les humains, mais par les IA elles-mêmes. Les progrès de ces IA deviendront exponentiels.
Avoir aujourd’hui avec tous les responsables politiques et économiques des conversations sur l’IA est essentiel, en termes d’urgence et d’impacts. Comment répondre à cette question: c’est quoi être un humain dans un monde où existe une ASI?
Bien avant que nous soyons concernés par le fait que les ASI remplacent l’humanité, les impacts négatifs sur le marché du travail vont être majeurs. (C’est le grand sujet à court terme, que j’ai évoqué dans un billet récent.)
Dans le chapitre 7, Max Tegmark analyse en profondeur le thème des “objectifs” (goals en anglais) de ces IA:
- Oui, les IA ont des objectifs.
- Comment aligner les objectifs des IA avec ceux de l’humanité: il reste trois problèmes pas encore résolus:
- Les apprendre aux IA.
- Faire que ces IA les acceptent.
- Faire que les IA les gardent.
Il n’y a pas d’AI mauvaises à priori, simplement le risque est que leurs objectifs ne soient pas alignés avec les nôtres.
Enfin, et c’est pour moi le chapitre le plus instructif, le chapitre 5 présente 12 scénarios différents sur les relations entre les ASI et les humains.
Ce premier tableau définit ces 12 scénarios.
C’est l’une des analyses les plus complètes que j’ai pu lire sur ce sujet essentiel.
Ce second tableau anticipe les impacts sur l’humanité de ces scénarios.
Le moins que l’on puisse dire, c’est qu’ils ne sont pas nombreux, les scénarios positifs pour l’humanité.
Je vous laisse analyser ces 12 scénarios et choisir celui qui vous convient le mieux.
Max Tegmark, lui, refuse de choisir, et laisse les lecteurs faire leur choix;
Vous l’avez compris, c’est un livre passionnant, essentiel.
Toute personne qui pense que l’avenir de l’humanité dépend en grande partie de notre capacité à comprendre les évolutions possibles des IA doit faire l’effort de lire ce livre.
Ensuite, et ensuite seulement, il est possible d’avoir des points de vue différents, mais argumentés sérieusement, sur ces impacts de l’IA sur l’humanité.
Les discours “café du commerce” sur l’IA, ce n’est vraiment plus le moment!