Trois niveaux d’intelligence artificielle : trois challenges majeurs pour l’humanité - Deuxième partie
27/02/2017
Dans la première partie de cette analyse, j’ai présenté les trois familles d’intelligence artificielle (IA) et l’état actuel de l’A N I, Artificial Narrow Intelligence, l’IA spécialisée sur une seule activité.
Face à nous, les A N I ont gagné la bataille des usages spécialisés. Il reste encore quelques activités humaines pour lesquelles des solutions A N I sont encore en retrait, en particulier dans le domaine des arts et de la pensée, oui ; pour combien de temps ?
Je prendrai un seul exemple, dans le domaine de la musique. Flow Machines est un projet de recherche européen qui a pour objectif de créer des musiques originales à l’aide d’outils d’IA.
Cette vidéo YouTube, Daddy’s car, composée dans le style des Beatles, en présente l’un des premiers résultats.
A G I : Artificial General Intelligence
Rappel : une A G I est une intelligence artificielle capable de réaliser de très nombreuses activités différentes, comme un être humain.
En 2017, il n’existe aucune A G I opérationnelle, et il faudra encore beaucoup d’années pour atteindre ce niveau d’IA.
Par contre, de nombreux outils sont déjà disponibles, qui nous permettent de faire progresser très vite cette quête de l’A G I.
Dans la première partie de ce texte, j’ai présenté Libratus, l’IA qui a battu les champions de Poker. Libratus n’est pas un logiciel d’A N I, spécialement construit pour jouer au poker ; c’est un logiciel généraliste, qui a été utilisé dans ce projet poker, mais peut s’attaquer à de nombreuses autres tâches. C’est la définition même d’un outil A G I.
L’offre de solutions logicielles A G I grandit très vite, et je n’en connais pas tous les exemples. J’en ai sélectionné deux parmi ceux que j’ai étudiés :
- Kimera : en toute modestie, Kimera se considère comme «La» société A G I, comme le proclame leur baseline : «The AGI Company» ! Kimera met la barre très haut en ce qui concerne ses objectifs : Nigel, son A G I, ambitionne d’être un algorithme capable de s’attaquer à n’importe quel domaine ! La démarche, originale, consiste à s’appuyer sur les millions d’objets connectés à Internet pour créer une intelligence collective.
- Maluuba : cette entreprise a été créée par des chercheurs de l’université de Waterloo au Canada. Leur centre de recherche, créé en 2015, est basé à Montréal, l’un des hauts lieux de l’IA. Ils se présentent clairement comme des acteurs de l’A G I. L’objectif actuel de Maluuba est d’appliquer les techniques du Machine Learning à la compréhension du langage humain. Microsoft a racheté Maluuba en janvier 2017.
Le rachat rapide de toutes les startups logicielles dans le domaine de l’IA par les géants du Web et du Cloud, Google, Microsoft, Baidu, Alibaba..., est un phénomène général et qui pose beaucoup de problèmes, en particulier en Europe, où la recherche en IA est d’excellente qualité, mais ne dispose pas des moyens financiers et humains nécessaires. Je rappelle que le responsable mondial de la recherche en IA chez Facebook est le Français Yann LeCun, titulaire d’un doctorat de l’Université Pierre et Marie Curie.
Ces géants du Web possèdent tous les composants techniques nécessaires au développement de l’IA :
- Puissance de calcul infinie.
- Capacité de stockage infinie.
- Des bases de contenus gigantesques, en textes, images et vidéos.
- Des milliards de clients.
S’ils sont en plus capables de s’approprier toutes les intelligences humaines qui travaillent sur l’IA, leur domination actuelle de l’IA va encore s’accentuer et plus aucune organisation, privée ou publique, ne sera capable de les concurrencer. Je comprends aussi très bien pourquoi les chercheurs se laissent tenter : ils trouvent des environnements techniques exceptionnels qui leur permettent d’accélérer dans leurs recherches et d’en trouver rapidement des usages opérationnels.
L’Europe a déjà perdu la bataille du Cloud Public, elle est aussi en train de perdre celle de l’IA, est c’est beaucoup, beaucoup plus préoccupant.
Avec la croissance exponentielle de la puissance des infrastructures informatiques, calcul, stockage et réseau, avec les progrès fulgurants des outils logiciels d’IA et de Machine Learning, il est évident pour moi que l’arrivée de l’A G I n’est qu’une question d’années.
Combien d’années, «That’s the question!».
A S I : Artificial Super Intelligence
Les hommes n’ont pas trop de mal à imaginer ce que pourrait faire une A G I, c’est-à-dire une IA capable d’avoir des comportements, des activités proches des personnes «normales» avec lesquelles ils vivent en permanence.
Pendant longtemps, et de manière surprenante pour moi, les spécialistes de l’IA s’étaient concentrés sur le niveau A G I, persuadés que ce serait une cible très lointaine et difficile à atteindre. Ils ne se préoccupaient donc pas de ce qui pourrait se passer... après.
Les experts ont aujourd’hui compris que l’A G I n’est… qu’une étape dans la croissance des potentiels des outils de l’IA. On rentrera aussi tôt après dans l’ère de l’A S I, Artificial Super Intelligence, en clair :
A S I = une intelligence Artificielle qui dispose d’une capacité supérieure à celle de tout être humain.
La croissance exponentielle de la puissance des outils, évoquée plus haut, fait que les écarts entre les potentiels de l’A S I et ceux de l’espèce humaine vont grandir à une vitesse... exponentielle.
Avec l’A S I, on rentrera dans un monde que nous avons beaucoup de mal à appréhender.
Que se passera-t-il quand l’écart entre l’intelligence humaine et l’A S I sera du même ordre de grandeur que celui qui sépare l’intelligence d’une fourmi de celle d’un homme ?
Comment réagiront ces millions d’outils A S I face aux hommes, ces créatures aux potentiels intellectuels extrêmement limités ?
Combien d’années faudra-t-il pour atteindre le niveau A S I d’intelligence Artificielle ? Cette étape, nommée «Singularity» par les experts en IA, peut arriver très vite, dès 2045, si on fait confiance aux prévisions de l’un des plus célèbres d’entre eux, Ray Kurzweil, qui travaille depuis 2012 chez Google-Alphabet.
La question a été posée à un panel d’experts par deux des plus grands spécialistes de l’Artificial Super Intelligence, Müller et Bostrom : ce schéma résume les réponses obtenues :
- Médiane des réponses pour A G I : 2040.
- Médiane des réponses pour A S I : 2060.
Si l’on en croit ces experts, il faudra environ 20 années pour passer de l’étape A G I à celle d’A S I.
C’est sur le nombre d’années qui sépare ces deux étapes qu’il y a le plus de divergences entre les points de vue des experts ;
- Des dizaines d’années ?
- Quelques années ?
- Quelques jours ?
Je pense personnellement pour une période très courte entre A G I et A S I, mais c’est plus basé sur une intuition qu’une analyse rationnelle.
Pour tous ceux qui souhaitent vraiment approfondir le thème de l’A S I, je recommande la lecture de deux des livres majeurs sur le sujet :
- SuperIntelligence, de Nick Bostrom ; c’est pour beaucoup la «bible» sur ce sujet.
- The Master Algorithm, de Pedro Domingos : l’ambitieuse quête de l’algorithme maître qui permettrait de tout résoudre.
Attention, ce ne sont pas des ouvrages à la lecture facile ; j’ai plus d’une fois fait l’impasse sur quelques démonstrations mathématiques qui dépassaient mon niveau actuel de maîtrise de cette science...
A S I : impacts
L’A S I sera-t-elle un jour une réalité ? Je comprends que certains en doutent et rejettent cette idée. Cette question me fait penser au célèbre pari de Pascal concernant l’existence de Dieu.
Sans prendre parti pour ou contre l’existence de Dieu, Pascal montre que le choix rationnel est celui de l’existence, car il y a beaucoup à perdre si Dieu existe alors que la perte est faible si Dieu n’existe pas.
Je vous propose de faire un «Pari de Pascal A S I» : nier l’arrivée de solutions A S I serait beaucoup plus dangereux pour l’humanité que d’en accepter l’arrivée et de s’y préparer, immédiatement.
OpenAI est un groupe de réflexion créé par Elon Musk et soutenu par de nombreuses personnalités et entreprises comme AWS, Infosys ou Microsoft.
Dans cet interview pour le journal Guardian, Elon Musk exprime l’idée que l’IA est le principal danger qui menace l’humanité.
D’autres voix se sont élevées pour alerter le monde sur les dangers potentiels de l’A S I ; je pense en particulier à Stephen Hawking et Bill Gates.
Toutes ces personnes «Super Intelligentes» insistent beaucoup sur le mot «potentiels» quand elles parlent des risques liés à l’arrivée de l’ A S I ; je partage cette position raisonnable, qui consiste à alerter immédiatement sur ce challenge majeur pour l’humanité.
Les objectifs prioritaires sont de se poser les questions essentielles, d’orienter le mieux possible les avancées inéluctables de l’IA pour réduire la probabilité que l’humanité ne soit détruite par des solutions A S I, bien avant l’arrivée d’un astéroïde géant ou les catastrophes causées par le changement climatique.
Personne ne peut, ne doit rester indifférent devant le gigantesque défi que pose à l’humanité l’arrivée, rapide, avant la fin de ce siècle, de solutions d’IA beaucoup plus intelligentes que nous tous.