Quatre risques numériques majeurs pour notre planète : 2022 - 2030+ (Troisième partie)
29/11/2021
Dans la première partie de cette analyse, j’ai présenté le danger numérique le plus immédiat, les cyberattaques sur les infrastructures physiques de transport.
Dans la deuxième partie, j’ai analysé quels pourraient être les impacts d’une guerre dans le détroit de Taiwan sur l’industrie des microprocesseurs.
Dans cette troisième partie, j'aborde le thème des risques liés à la croissance exponentielle des potentiels des technologies numériques.
Exponentiel ! C’est le mot clef de ce billet.
(Texte exceptionnellement long, vu la richesse des thèmes abordés.)
Horizon 2030 : non-maîtrise de la croissance exponentielle des potentiels des technologies numériques
Je vous propose de commencer par un rappel des fondamentaux de la croissance exponentielle.
L'exponentiel est un phénomène fréquent dans la nature : la diffusion des virus, la croissance du nombre de bactéries dans des tubes d’essai ont des croissances exponentielles. La pandémie COVID-19 a fait beaucoup pour que la compréhension des impacts d’une croissance exponentielle augmente dans le monde entier.
Même la croissance de vos avoirs financiers placés à 2% dont vous réinvestissez les dividendes suit une croissance exponentielle, même si ce n’est pas très “visible”.
Dans la suite de ce texte, quand je parlerai de croissance exponentielle, je ferai les hypothèses suivantes :
● Le taux de croissance annuel est supérieur à 20%.
● La durée de cette croissance est supérieure à 20 ans.
Ces deux dimensions, taux et durée, sont essentielles pour comprendre les véritables impacts d’une croissance exponentielle. Dans ce tableau, je compare les croissances d’un investissement selon que le taux est de 10%, 20% ou 50%, sur une durée de 10 et 20 années.
Je suis abonné depuis plusieurs années à “Exponential View”, la lettre d’information d’Azeem Azhar. Il a publié en septembre 2021 un livre, sobrement intitulé Exponential. C’est une bonne synthèse sur le sujet et il vous permettra d’approfondir une grande partie des thèmes que j’aborde dans ce billet. Cet ouvrage a été nommé livre technologique de l’année 2021 par le journal Financial Times.
Pour faciliter la compréhension des défis posés par la croissance exponentielle des technologies numériques, je les ai groupés en trois familles :
● Les décalages entre des technologies exponentielles et un monde linéaire ou logarithmique.
● La naissance, croissance et domination d’entreprises capables de maintenir une croissance exponentielle de leurs activités.
● Trois technologies exponentielles de rupture, que je considère comme les plus importantes : le Cloud Public, l’Intelligence Artificielle (IA) et l’informatique quantique.
Décalages entre des technologies exponentielles et un monde linéaire ou logarithmique
Il y a déjà 5 ans, en novembre 2016, Thomas Friedman publiait “Thank You for Being Late”, livre remarquable qui évoquait les décalages entre des technologies exponentielles et la capacité plus lente du monde à s’adapter. Je l’ai déjà cité dans un billet précédent sur notre capacité à absorber l’innovation.
J’en ai extrait ce graphique en y ajoutant mon grain de sel. Il n’y a pas d’échelle de temps précise, mais il indique clairement que nous avons passé un cap majeur : les technologies évoluent maintenant plus vite que nos capacités à les maîtriser.
Friedman parle de l’adaptabilité humaine ; je l’ai segmentée en quatre composants:
● Les personnes, en tant qu’individus. C’est à titre personnel que nous sommes les plus rapides pour accepter les innovations numériques. C’est vrai dans le monde entier, depuis la banalisation d’Internet et des smartphones, il y a 15 ans.
● Les entreprises, privées ou publiques. Elles ont plus de mal à absorber les nouvelles technologies. De nombreux fournisseurs l’ont compris et proposent en priorité leurs innovations au grand public avant de le faire pour les entreprises. Quelques exemples :
○ Google : Gmail est né en 2004, Google Apps en 2007.
○ Facebook (Meta) : Workplace est annoncé en 2016, regroupant des fonctions disponibles sur les solutions grand public depuis 5 à 10 ans.
● Les gouvernements. Leur temps de réponse aux innovations est, sauf exception, très lent. Les manques d’appétences et de compétences de la majorité des personnages publics pour le numérique sont catastrophiques.
● Les lois. Suite logique du point précédent, les lois qui abordent les sujets numériques sont toujours dramatiquement décalées par rapport à la réalité des technologies. J’ai écrit sur mon blog tout le “bien” que je pensais du principe de précaution inséré dans la constitution française, l’outil anti-innovation le plus puissant que je connaisse.
Quels sont les risques liés à l’irruption de l’exponentiel dans nos vies ?
● Nous avons tous énormément de mal à visualiser ce qu’est une croissance exponentielle. Nous sommes nés dans une culture de l’évolution linéaire.
● Le deuxième, c’est de ne pas comprendre qu’un monde exponentiel change les règles du jeu classiques, et dans tous les domaines, techniques, humains et organisationnels.
● Le troisième et hélas le plus dangereux c’est de croire que nous avons le temps et qu’il n’y a aucune urgence à s’adapter.
La naissance, croissance et domination d’entreprises capables de maintenir une croissance exponentielle de leurs activités
Dans le paragraphe précédent, j’ai parlé des entreprises qui ont beaucoup de mal à s’adapter à des évolutions exponentielles. Ce sont en priorité toutes celles qui travaillent dans des secteurs où les dimensions physiques des biens et des services créent des limites logiques à la croissance. Les économistes parlent de la réduction des retours marginaux.
Le nombre de réfrigérateurs ou de voitures par foyer, le nombre de comptes bancaires ne peuvent croître de manière infinie. La croissance de ces marchés est représentée par une courbe en S, avec une accélération forte au début suivie d’une saturation progressive.
On le voit bien sur ce célèbre graphique qui montre que la vitesse d’adoption de nouveaux produits est de plus en plus rapide, mais passe par une asymptote quand on approche des 100% de taux d’équipement.
Un livre publié par Geoffrey West en 2017, “Scale”, sur les lois universelles de la croissance démontre que, en 2010, le taux de croissance des 30 000 entreprises qu’il avait étudiées était de zéro.
La situation change du tout au tout quand on parle d’entreprises dont les marchés sont des biens ou services numériques ; les limites physiques à la croissance disparaissent.
Ces entreprises nées avec le numérique sont capables de créer des cultures de croissance exponentielle de leurs activités.
Les effets “réseaux” de cette croissance permettent d’accroître la performance des entreprises du numérique avec leur taille, à l’inverse des entreprises classiques.
Les chiffres de Netflix sont très révélateurs de cette rupture :
● En 2010, 2 100 employés, 2,1 B$ de CA, 1 M$ par employé.
● En 2020, 9 400 employés, 25 B$ de CA, 2,7 M$ par employé, 3 fois plus !
Ce graphique financier montre à quel point cette évolution a été rapide et profonde.
En 2005, avant le smartphone et la croissance du Web, les entreprises ayant les plus grandes valorisations boursières étaient dans des secteurs classiques. Microsoft était la seule entreprise du secteur informatique dans la liste.
En 2020, les entreprises du secteur numérique trustent les premières places. La seule exception est la société pétrolière Saudi Aramco. Il est révélateur de voir que Tesla figure dans cette liste ; j’y reviendrai.
Ces technologies numériques à large spectre, Internet, smartphone, clouds publics ont un autre impact majeur : elles permettent à des secteurs d’activités traditionnels de se réinventer en devenant des métiers où le numérique est omniprésent.
J’ai sélectionné deux secteurs où ce mouvement est très fort, la santé et l’automobile.
L’industrie de la santé.
Dans un billet récent de mon blog, je parle de la recherche d’un vaccin COVID-19 par la société Moderna. En utilisant le Cloud Public AWS, elle a expliqué que le temps nécessaire pour trouver le vaccin était passé de 20 mois à 42 jours, une réduction dans un rapport 14.
Un autre exemple est celui de la séquence d’analyse d’un génome humain :
● Première réussite en l’année 2000 : coût estimatif de 500 M$ à 1 000 M$.
● En 2021, ce coût est tombé à environ 100$.
● Cette baisse correspond à une exponentielle 1000 fois plus rapide que la loi de Moore pour les microprocesseurs.
L’industrie automobile.
Cette industrie traditionnelle vit une triple rupture : moteurs électriques, informatique omniprésente et évolution vers la conduite autonome. Une voiture, c’est aujourd’hui un ensemble d’ordinateurs hyper puissants sur quatre roues.
L’impact économique sur ce secteur est impressionnant. Ce graphique montre que la valorisation boursière des trois principales entreprises historiques qui produisent 22 millions de véhicules est de 505 B$, quand les trois fournisseurs de rupture, natifs électriques, produisent seulement 500 000 véhicules et sont valorisés 1 300 B$.
La valorisation, rapportée au nombre de véhicules, est dans un rapport 115!
Quels sont les dangers numériques majeurs dans ce cas ?
Les géants natifs du numérique ont réussi à construire une culture interne de croissance exponentielle qu'ils ont maintenue pendant plus de 20 années. Rien n’indique qu’ils ne sont pas capables de le faire pendant les 10 ou 20 années qui viennent.
Des secteurs entiers de l’économie vont devenir numériques dans des métiers qui avaient une culture de croissance faible et linéaire : finance, assurance, transport, distribution…
Faisons l’hypothèse, optimiste, que les entreprises traditionnelles sont capables d’atteindre un taux de croissance de 10%. En regardant le tableau financier au début de ce billet, elles peuvent croître 6,7 fois d’ici à 2041 quand les géants du numérique pourraient le faire plus de 3 000 fois s’ils sont capables de maintenir leur croissance actuelle de 50%.
Peut-on envisager, peut-on accepter que des entreprises comme Google, Amazon, Microsoft, Tesla et autres Apple deviennent 5, 10 ou 100 fois plus grandes qu’aujourd’hui ?
Peut-on envisager, peut-on accepter que des milliers d’entreprises traditionnelles, leaders actuels de leurs secteurs d’activités, soient marginalisées dans les 20 ans qui viennent ?
Peut-on créer dans ces entreprises traditionnelles une culture de croissance exponentielle avant qu’il ne soit trop tard ?
Ce sont des questions essentielles pour l’avenir des économies traditionnelles. Faire l’autruche et ne pas se les poser, c’est certainement la plus mauvaise réponse.
On retrouve aussi les difficultés évoquées précédemment : il devient impératif que les gouvernements et les lois soient capables de s’adapter beaucoup plus vite à cette nouvelle situation économique de rupture.
En seront-ils capables ?
Trois technologies exponentielles de rupture
Ces trois technologies de rupture sont : le Cloud Public, l’Intelligence Artificielle (IA) et l’informatique quantique.
Cloud Public, le grand catalyseur
En 2021, le Cloud Public n’est plus une innovation ! Ce schéma donne les dates de naissance des principaux composants du Cloud Public :
● SaaS, Software as a Service : Salesforce en 2000.
● IaaS, Infrastructures as a Service : AWS, Amazon Web Services en 2007.
● PaaS, Platform as a Service : Google Compute Engine en 2009.
● (Pour rappel) : j’ai été cofondateur de Revevol, la première société de services dans le Cloud, en 2006.
La première phase de la croissance exponentielle des solutions Cloud Public couvre la période 2007 à 2017. Ceci ne veut pas dire que cette croissance est ralentie en 2018, au contraire. Depuis 2018, les jeux sont faits, les grands acteurs sont en place et il n’y a plus une seule entreprise raisonnable qui n’a pas décidé de basculer l’essentiel de ses usages numériques sur le Cloud Public.
Pour enfoncer le clou (pas le cloud), j’ai représenté sur ce graphique la valeur boursière, le 15 novembre 2021, des trois géants occidentaux du Cloud Public, Amazon, Microsoft et Google.
● Ces valeurs boursières sont comprises entre 1 800 milliards et 2 500 milliards de dollars.
● La somme des valeurs boursières de cinq grands “anciens combattants” de l’informatique, Intel, Cisco, Oracle, SAP et IBM n’atteint pas les 1 000 milliards de dollars, la moitié de la valeur de chacun des trois leaders.
● Les valeurs boursières cumulées des entreprises du CAC 40 français sont de 2 364 milliards d’euros, soit environ 2 700 milliards de dollars.
Il est urgentissime de ne plus perdre une semaine de plus à se lamenter sur les combats perdus comme les infrastructures cloud public IaaS. Je me suis longuement exprimé sur les erreurs de l’Europe dans ce domaine dans ce billet récent.
L’une des caractéristiques intéressantes des innovations numériques, c’est qu’elles se font la “courte échelle”. Elles servent d’accélérateur pour de nouvelles solutions : les réseaux sans fil très haut débit accélèrent les usages du Cloud Public, qui à son tour crée une demande forte pour des transferts de données.
Le Cloud Public est devenu aujourd’hui la fondation des autres innovations numériques à croissance exponentielle.
En 2021, ne pas basculer rapidement sur des solutions Cloud Public, IaaS, SaaS ou PaaS n’est plus une option.
Comment qualifier entreprises, dirigeants et DSI qui s’obstineraient dans ce refus ?
Je pourrais utiliser des mots tels que ringard ou retardataire.
Je préfère utiliser le mot “logarithmique”. Maintenir le statu quo, ne rien changer aux modes d’utilisation actuels des outils numériques, ressasser les alibis éculés sur les dangers du Cloud Public, c’est avoir une démarche logarithmique de non-évolution.
En 2022, l’offense maximale que l’on pourra faire à un dirigeant ou un DSI sera de le traiter de dirigeant logarithmique ou de DSI logarithmique.
Intelligence Artificielle
L’expression et les concepts de base de l’Intelligence Artificielle ont été formalisés lors de la célèbre conférence de 1956 à l’Université de Dartmouth aux États-Unis.
C’était il y a plus de 65 ans !
Il a fallu attendre 50 ans avant que les outils numériques disponibles permettent de mettre en pratique les concepts développés pendant cette conférence.
Comme le montre ce schéma, c’est le Cloud Public qui a permis à l’IA de décoller. L’analogie avec l’industrie des voitures électriques est frappante.
● L’IA a besoin de beaucoup de puissance de calcul : elle est disponible dans le Cloud Public.
● L’IA a besoin de grandes capacités de stockage de données : elles sont disponibles dans le Cloud Public.
● L’énergie dont a besoin l’IA, ce sont des données : les grands acteurs du Cloud Public, Amazon, Google et autres ont des millions de clients pour alimenter en données leurs algorithmes.
Après la décennie Cloud Public, entre 2007 et 2017, la décennie IA prend le relais en 2018 et aura une croissance exponentielle exceptionnelle au minimum jusqu’en 2027.
L’Intelligence Artificielle est un exemple emblématique de la capacité de combiner les progrès exponentiels de plusieurs technologies numériques pour aller encore plus vite.
J’en prendrai deux exemples simples.
Les processeurs spécialisés dans l’IA voient leurs performances s’accélérer encore plus vite que les processeurs universels tels qu’Intel. Ce graphique, extrait du livre “Exponential”, compare la pente de la loi de Moore (Intel) à celle des processeurs IA.
L’accélération des performances est spectaculaire.
Nvidia est l’un des fournisseurs les plus innovants de processeurs spécialisés pour l’IA.
Il suffit que Nvidia annonce de nouveaux processeurs pour qu’AWS les propose dans ses Clouds Publics.
Regardez bien ce tableau : une dizaine de nouvelles instances de calcul, dans des gammes de puissance très large, permettent, immédiatement, à toute entreprise qui souhaite travailler sur des projets ambitieux en IA d’avoir de nouveaux outils à sa disposition.
Nouveaux processeurs + Cloud Public = progrès immédiats en IA !
Où en est-on, en 2021, en Intelligence Artificielle ?
En 2017, j’ai écrit deux billets sur l’IA, ici et là. Pour l’essentiel, ils restent pertinents.
Les professionnels de l’IA parlent de trois niveaux d’Intelligence Artificielle :
● ANI : Artificial Narrow Intelligence, une IA monoactivité.
● AGI : Artificial General Intelligence, une IA capable de résoudre des problèmes très variés, à l’image de ce dont sont capables une femme ou un homme.
● ASI : Artificial Super Intelligence, une IA ayant des capacités supérieures à celles des humains les plus intelligents.
En 2021, les solutions ANI sont omniprésentes dans les entreprises innovantes, construites pour l’essentiel avec des outils de Machine Learning et Deep Learning.
Nous connaîtrons une croissance exponentielle des usages ANI pendant les 5 à 10 prochaines années.Tous les géants du numérique, et en particulier du Cloud Public, investissent massivement dans l’IA de type ANI.
C’est aussi un secteur où l’innovation est portée par des startups. Comme le montre ce graphique, les investissements dans les startups IA ont atteint 70 B$ en 2020.
Dans le secteur de l’IA aussi, la compétition entre les USA et la Chine est maximale.
80% des investissements sont réalisés en Chine et aux USA ; la part de l’Europe est, gentiment dit, très modeste.
Verra-t-on, avant l’année 2030, la naissance de solutions IA en AGI ou ASI ? Je ne pense pas être le seul à ne pas pouvoir répondre à cette question.
Les risques posés par l’arrivée, un jour, de solutions d’IA en AGI et ASI sont immenses.
Serons-nous capables de maîtriser ces outils avant qu’ils ne nous contrôlent ? Nous avons encore quelques années devant nous pour y réfléchir, mais il n’est pas trop tôt pour se pencher sérieusement sur le sujet.
En attendant, les risques majeurs ne sont pas à chercher dans les dangers potentiels d'une IA de type AGI ou ASI. On les trouve dans l’incapacité de trop nombreuses entreprises à utiliser immédiatement, et efficacement, les remarquables solutions d’IA simples disponibles. En plus, ces solutions vont s’améliorer de manière spectaculaire dans les années qui viennent.
Informatique quantique
Je pense qu'il n'existe pas un sujet numérique plus complexe que celui de l’informatique quantique.
Mes compétences sur ce sujet sont minimales, mais j’ai quand même décidé d’en parler ; l’informatique quantique, quand elle sera disponible, possède toutes les caractéristiques d’une technologie de rupture.
Cette vidéo de 4 minutes, tournée dans le centre de recherches Google sur l’informatique quantique, donne une bonne idée de la complexité du sujet et de l’importance des investissements nécessaires.
À tous ceux qui souhaitent aborder sérieusement le sujet, je recommande la lecture d’un ouvrage exceptionnel, écrit par Olivier Ezratty : “Comprendre l’informatique quantique, édition 2020”.
Cet ouvrage, disponible gratuitement en PDF, contient 682 pages ; même si, comme moi, vous ne comprenez pas tout, sa lecture est passionnante. Il contient au début un portrait des grands scientifiques mondiaux qui ont permis la naissance de toutes les sciences et technologies sur lesquels s’appuient aujourd’hui les entreprises qui ont pour objectif de développer des ordinateurs quantiques opérationnels.
La lecture de cet ouvrage permet de se rendre compte de l’extraordinaire complexité du sujet. Cela aide beaucoup à lire avec un œil critique les annonces spectaculaires sur le sujet.
Des géants de l’informatique comme IBM, Google, Microsoft ou Intel, des startups qui ont levé beaucoup d’argent comme Rigetti Computing (200 M$), D-Wave (200 M$) ou IonQ (85M$) travaillent à la création d’ordinateurs quantiques. Ils utilisent tous des technologies très différentes, preuve s’il en est que l’on est vraiment au tout début de cette révolution technologique.
Ils partagent tous un même objectif : créer la "suprématie quantique”.
Cette suprématie quantique signifie que ces ordinateurs quantiques seront capables de performances des milliers de fois supérieures à celles des plus puissants ordinateurs binaires existants.
J’ai regroupé dans ce tableau quatre annonces récentes qui parlent de suprématie quantique. Ce sont, par dates d’annonce croissante :
● 2018 : À la conférence Disrupt, l’informatique quantique sera une réalité dans 3 ans, en clair en 2021.
● 2019 : une annonce par Google, ensuite retirée, proclamait avoir fait en 20 minutes ce que le plus puissant ordinateur mettrait 10 000 années à calculer.
● 2020 : Une équipe chinoise annonce être capable de réaliser des calculs spécifiques 100 trillions de fois plus rapidement que le superordinateur le plus avancé.
● 2021 : Le dirigeant d’une grande société de Venture Capital annonce que les ordinateurs quantiques seront, avant 2030, 1 trillion de fois plus rapides que les ordinateurs les plus puissants.
Faut-il croire toutes ces annonces ? Non !
Il y a quelques jours, sur ArXiv, le site Web sérieux qui publie des études scientifiques avant qu’elles n’aient été relues par d’autres spécialistes, une équipe chinoise a publié une étude montrant qu’elle pouvait, en changeant d’algorithme, exécuter le programme cité par Google sur un ordinateur binaire classique, et plus vite !
Si je devais répondre à la question : quand la suprématie quantique deviendra une réalité, et en rappelant que mes compétences dans le domaine sont minimales, je dirai :
Pas avant 2025, probablement avant 2030.
D'où vient cette grande incertitude ? Pour réussir, l’informatique quantique doit maîtriser un grand nombre de technologies différentes, comme des températures proches du zéro absolu. L’informatique quantique bénéficie bien sûr des avancées du Cloud Public et de l’IA, mais ce n’est pas suffisant.
Ce qui me fascine et me fait peur en même temps avec l’informatique quantique ?
Si les prédictions de certains spécialistes se réalisent, on quitterait le monde de la croissance exponentielle des performances pour entrer dans celui du… double exponentiel.
Ce tableau explique la différence de croissance entre l’exponentiel simple et double.
Exemple : pour n = 5, une croissance exponentielle donne 32, une croissance double exponentielle en est déjà à 4,3 milliards ! Les chiffres suivants n’ont plus aucun sens pour moi.
Hartmut Neven, l’un des responsables du laboratoire de quantum computing de Google a proposé, modestement, de remplacer la loi de Moore par la loi de Neven :
“La croissance de la puissance de calcul des ordinateurs quantiques suivra une croissance double exponentielle.”
En résumé, l’informatique quantique :
● Deviendra une réalité.
● À quelle date ? Personne ne peut le dire aujourd’hui.
● Son arrivée sera la plus grande rupture connue dans le monde du numérique depuis qu’il existe.
● Anticiper ses bénéfices et domaines prioritaires d’usages est impossible, aujourd’hui.
● Anticiper ses risques est impossible, aujourd’hui.
Synthèse : s’adapter à un monde exponentiel
Depuis le début des années 2000, nous sommes rentrés dans un monde où la croissance exponentielle des technologies numériques va tout balayer sur son passage.
Imaginer un seul instant que l’on peut ralentir ces progrès technologiques exponentiels est une illusion, et une illusion mortelle ; elle peut laisser croire qu’il n’est pas nécessaire de s’y adapter, et très vite.
Ce schéma de synthèse résume très bien la situation pour les dix années qui viennent :
● Trois vagues technologiques majeures.
● Le Cloud Public est omniprésent, et sert de fondations pour les deux autres.
● L’Intelligence Artificielle, et en particulier ses composants Machine Learning et Deep Learning est déjà là. Elle va pénétrer toutes nos activités humaines.
● L’informatique quantique pourrait trouver de premiers usages opérationnels avant les années 2030.
● Des entreprises “exponentielles” sont nées au cours des 20 dernières années et vont continuer leur croissance à des rythmes très élevés pendant cette décennie.
Face à ces vagues exponentielles qui peuvent tout emporter sur leur passage, j’ai identifié de très nombreux risques, et ce sont tous des risques majeurs :
● Au niveau individuel, rester à quai et perdre tout contrôle sur sa vie numérique.
● Pour les entreprises, rester “logarithmiques” et se faire phagocyter par celles qui sont ou auront su devenir exponentielles.
● Pour les États, rester passif, légiférer mal et tardivement, lutter contre cette vague exponentielle au lieu de l’accompagner et d’y rechercher des bénéfices pour les citoyens.
Dans les trois cas, j’ai utilisé le mot “rester”. Ce n’est pas fortuit : l'inaction est, de loin, le plus grand des dangers.
Attendre, c’est reculer !
Dans la quatrième partie de cette analyse des risques liés au numérique, j’aborderai le thème du réchauffement climatique de la planète.