Quand un travailleur terrain donne des leçons de management aux dirigeants d'une entreprise du CAC 40

 

Couverture Ouvrier qui murmuraitPendant cette fin de semaine, j’ai dévoré d’une seule traite un livre exceptionnel qui… ne parle pas de numérique!

Il s’agit de “L’ouvrier qui murmurait à l’oreille des cadres”, écrit par Jean-Michel Frixon

Je vous recommande chaudement de le lire. C’est un livre court, bien écrit et personne ne peut rester insensible aux messages humanistes qu’il véhicule.

C’est le deuxième livre écrit par Jean-Michel Frixon. Dans son premier ouvrage, “Michelin, Matricule F7246710”, il raconte ses 43 ans passés chez Michelin comme ouvrier. 

Ce premier livre a eu des impacts surprenants, qu’il raconte dans le deuxième.

Je vais utiliser plusieurs citations tirées de ce livre pour illustrer les messages essentiels qu’il porte.

Ils sont rares, les livres écrits par un ouvrier et qui parlent d’une manière aussi brillante des graves erreurs de management trop souvent commises dans les entreprises.

J’y suis d’autant plus sensible que depuis plusieurs années, avec WizyVision, la solution SaaS/Cloud que nous avons développée, nous équipons en priorité les équipes terrain, les personnes dont parle Jean-Michel Frixon.

Nous rencontrons trop souvent des problèmes similaires à ceux évoqués dans ce livre.

Je n’ai pas souhaité faire un résumé de ce livre. J’ai fait le choix, personnel, de mettre en lumière les thèmes qui m’ont le plus marqués. Chacun d’entre vous, après l’avoir lu, pourra y trouver d’autres enseignements utiles.

Vous êtes dirigeant, cadre, confortablement installé dans votre bureau, ou en télétravail, à l’abri du bruit, de la chaleur ou du froid: lisez ce livre, tous!

Vous comprendrez la réalité de la vie de ces travailleurs terrain, que vous ne rencontrez jamais. Ce sont des hommes et des femmes de très grande valeur, pour qui la qualité du travail réalisé est essentielle, qui ne peuvent pas télétravailler et vous demandent simplement… d’aller à leur rencontre et de les respecter.

 

Le sujet du livre

Livre 1 Jean-Michel Frixon Matricule 7246710Après le succès surprise de son premier livre, et une forte exposition médiatique, Jean-Michel Frixon a été contacté par les dirigeants de Michelin.

Je cite:

  • P 79 - Demande faite par le Directeur industriel monde de Michelin, Jean-Christophe Guérin. Mr Frixon, accepteriez-vous de réaliser un tour de France des usines Michelin au début de l’année 2022, pour rencontrer les ouvriers dans les ateliers, mais aussi d’intervenir auprès des différents cadres, dans le but de témoigner votre vision du management…?
  • P 64 - C’est un col bleu qui s’exprimera à des cols blancs!
  • P 91 - Demande faite par Mr Florent Ménégaux, PDG de Michelin:… mais j’ai vraiment besoin de vous, de votre aide, et sincèrement je vous en remercie par avance…

Ce livre, c’est l’histoire extraordinaire de ce projet, des rencontres avec les dirigeants du COMEX de Michelin et de plusieurs de ses visites dans des usines du Groupe Michelin.

 

Managers, allez sur le terrain !

C’est un reproche unanime de l’auteur et des personnes qu’il a rencontrées: les cadres et les dirigeants ne vont jamais assez au contact du terrain.

Je cite:

  • Page 75 - Je comprends aisément que vos emplois du temps ne vous laissent guère le loisir de vous rendre dans les ateliers. Cela dit, ne serait-ce que deux ou trois fois par an, il est nécessaire et indispensable d’aller sur le terrain. Ne déléguez surtout pas cette mission à un subalterne! Oui, il faut vous rendre physiquement dans les ateliers pour rencontrer les ouvriers… Une dernière chose, dans la mesure de vos possibilités, ne prévenez pas de votre venue!
  • Page 107 - Un ouvrier: Nos hiérarchiques…? Bah, il faudrait qu’ils viennent un peu plus nous voir sur le terrain, pour se rendre compte de la charge de travail. 
  • Page 115 - Commentaire d’un directeur d’usine: nous n’avons pas su détecter cette évidence pourtant simple, de l’utilité de notre présence plus fréquente auprès d’eux.

La déconnexion entre le monde du terrain des bureaux, des cadres et dirigeants est généralisée. Elle est très mal vécue par les personnes sur le terrain.

C’est une démarche que je pratique depuis des années: à chacune de mes missions de transformation numérique, je passe plus de 70% de mon temps sur le terrain, pour rencontrer les personnes qui “font”. 

Mon constat est le même: rien ne se passe sur le terrain comme l’imaginent les cols blancs de la DSI. Eux aussi, ils ne vont jamais assez sur le terrain; j’y reviendrai à la fin de ce texte.

 

Et le respect ?

Ce qui choque le plus les collaborateurs terrain, les ouvriers de Michelin, c’est le manque de considération de leurs activités par les responsables, qu’ils soient les chefs directs ou les dirigeants de haut niveau.

Je cite encore Jean-Michel Frixon:

  • P56 - Je ne porte plus les regards lourds et trop souvent condescendants de certains cols blancs.
  • P 60 - Jean-Christophe Guérin, directeur industriel monde, membre du COMEX… Son état de sidération à la découverte de comportements avilissants de certains managers rencontrés au cours de ma carrière.
  • P 61 - Ma rage et ma colère étaient seulement à l’encontre de mon chef de service injurieux, insolent et irrespectueux.
  • P 105 - Un ouvrier: je n’en dirais pas autant avec mon hiérarchique! D’ailleurs, si j’ai un souci dans mon travail, ce n’est pas la peine que j’aille le voir, il n’y connaît rien!
  • P 128 -  Là où les erreurs de management engendrent le plus souvent des blessures profondes et indélébiles
  • P 166 - Ma plus grande adversité fut bien celle d’affronter à longueur de temps, le manque de légitimité et de reconnaissance de la part de nombreux hiérarchiques, habillés des seuls vêtements de l’arrogance, de la suffisance et de l’incompétence.

Et il y a des dizaines d’autres citations du même type que j’aurais pu reprendre.

Et on ne parle pas des usines du XIXe siècle. Il s’agit d’une grande entreprise française, à la fin du XXe et au début du XXIe siècle.

Méconnaissance de la noblesse des métiers manuels, mépris pour les personnes qui les exercent, ces comportements sont encore beaucoup trop fréquents chez les chefs directs de ces collaborateurs terrain et les dirigeants des entreprises en France, et dans le monde entier.

Et ne me dites pas que cela ne se passe pas dans votre entreprise! L’une des leçons les plus claires que j’ai tirée de cette lecture c’est, pour beaucoup de dirigeants, la découverte de comportements dont ils n’avaient pas conscience, étant trop loin du terrain.

Comme on le verra dans le paragraphe suivant, ce sentiment était sincère, et la réaction des dirigeants de Michelin a été exemplaire et remarquable.

 

Dirigeants de Michelin, une réaction exceptionnelle

Logo MichelinBravo, les dirigeants de Michelin! Je suis très admiratif de la manière dont ils ont réagi, et rapidement, à la publication du premier livre de Jean-Michel Frixon.

Ils auraient pu ignorer ce message fort, mettre la poussière sous le tapis, attendre que la vaguelette d’indignation s’arrête. Au contraire, ils sont allés vers l’auteur, avec beaucoup de respect et de bienveillance.

Il y a trois moments forts dans ce livre qui montrent à quel point les dirigeants de Michelin ont pris conscience de l’importance du message porté par Jean-Michel Frixon:

  • Le chapitre “Le tête-à-tête”, qui commence page 91. Il raconte en détail la rencontre de l’auteur avec Florent Ménégaux, le PDG de Michelin. Je l’ai lu avec beaucoup d’émotion. C’est tout sauf un “coup de communication”, comme vont l’interpréter, je le crains, trop de personnes qui refusent de croire qu’un dirigeant et un ouvrier puissent avoir un dialogue ouvert et guidé par un respect mutuel.
  • Les chapitres “Un parterre de hauts cadres”, page 69 et “La parole d’un ouvrier”, page 73 qui racontent l’intervention de Jean-Michel Frixon devant tous les dirigeants industriels mondiaux du groupe Michelin. Ces pages montrent à quel point, dans des entreprises courageuses comme Michelin, un dialogue ouvert et porteur d’avenir peut s’ouvrir entre les dirigeants et un ouvrier.
  • Et bien évidemment, tous les chapitres qui racontent ses visites dans cinq usines du groupe Michelin, pendant lesquelles il rencontre à chaque fois des ouvriers et des dirigeants de ces usines. Ce sont des moments forts, qui ne peuvent pas laisser insensible un lecteur, s’il a un minimum de sensibilité aux relations humaines dans les entreprises industrielles.

Vous qui lisez ce billet de blog et travaillez dans une grande entreprise qui emploie des travailleurs terrain: êtes-vous prêts à suivre la même démarche que Michelin?

Vous n’avez pas un Jean-Michel Frixon dans votre entreprise? Et si vous l’invitiez à parler devant votre COMEX, dans les semaines qui viennent?

 

Similarités avec le numérique au service des équipes terrain

Priorité au terrain DTNDans le livre que j’ai co-écrit en 2018 avec Dominique Mockly, PDG de Teréga, “Dirigeants, acteurs de la Transformation Numérique”, il y a, page 136, un schéma qui préconise de redonner le pouvoir au terrain, de privilégier une démarche “Bottom Up” plutôt que la démarche actuelle qui est très “Top Down”.

J’ai retrouvé dans le livre de Jean-Michel Frixon le même message:

Ce qui font “savent”. 

L’expression “Cols blancs, cols bleus” est peut-être moins utilisée aujourd’hui, mais elle est omniprésente dans le livre de Jean-Michel Frixon. Mettre les cols blancs au service des cols bleus, inverser la pyramide du pouvoir dans les entreprises, c’est une priorité absolue.

On doit la retrouver dans le domaine de l'informatique et du numérique! 

Les grands projets “Top Down”, les ERP intégrés, sont dans plus de 90% des cas rejetés par les acteurs opérationnels du terrain, et avec raison. Demander à un travailleur terrain de remplir un formulaire ou un écran SAP ou Oracle, il faut n’avoir jamais été sur le terrain pour penser que c’est une bonne idée!

J’ai réalisé il y a quelques années une mission pour un grand constructeur automobile français: il s’agissait de proposer une solution informatique pour des usines de taille moyenne à installer dans des pays à faible culture industrielle. 

J’ai demandé à visiter une “petite” usine du groupe pour mieux comprendre quelles pouvaient être les attentes des utilisateurs. Les équipes informatiques à qui j’ai fait la demande m’ont demandé: pourquoi?

J’ai insisté et des personnes de la DSI ont accepté de m'accompagner pendant la visite de cette petite usine à l’ouest de la France. 

Les trois principaux résultats de cette visite:

  • Les équipes informatiques qui travaillaient sur ce projet n'avaient jamais mis les pieds dans une usine de leur entreprise. C’est moi qui les ai obligés à faire cette visite!
  • Le directeur de l’usine nous a très bien reçus et nous a dit: merci d’être venu me voir, cela fait 15 ans que personne de la DSI n’est venu visiter mon usine.
  • A la fin de la journée, les informaticiens qui m’avaient accompagné m’ont dit: “On a appris beaucoup de choses”!

Toutes ces expériences m’ont amené à créer il y a 4 ans WizyVision, la première solution numérique universelle au service des équipes terrain.

WizyVision a été construit pour répondre aux véritables attentes et contraintes des collaborateurs terrain.

Tout se fait depuis un smartphone, autour de la photo et de la voix, sans avoir besoin d’utiliser le clavier du smartphone.

A ma grande surprise, et j’en suis ravi, Jean-Michel Frixon a cité une situation dans laquelle WizyVision aurait été une excellente réponse.

Je cite:

 P 106 - Dans un atelier logistique des transports.… se présente un routier de nationalité étrangère qui présente ses documents. Il ne parle pas la langue de Molière. L’ouvrier, lui, ne parle pas la langue de Shakespeare et demande l’aide de sa collègue.

Ce problème de la faible maîtrise de la langue est un sujet essentiel sur le terrain. WizyVision, en s’appuyant sur la photo et la voix, permet à toute personne illettrée ou qui ne maîtrise pas la lecture ou l’écriture d’utiliser des outils numériques.

Dans l’exemple cité, WizyVision qui embarque de l'Intelligence Artificielle aurait permis de lire tout le texte, quelle que soit la langue utilisée. Aussi dopées à l’IA, les fonctions voix vers texte et texte vers la voix auraient facilité des échanges entre ces deux personnes, sans risques d’erreur de compréhension.

Amis informaticiens, DSI et responsables du numérique, vous aussi, sortez de vos bureaux climatisés, allez dans les usines, sur les chantiers, dans les magasins, rencontrez des travailleurs terrain et accompagnez-les dans leurs activités quotidiennes.

Vous découvrirez, en quelques heures, quelques jours, quels sont les “irritants” quotidiens de leurs métiers, auxquels des solutions numériques simples comme WizyVision peuvent répondre en quelques heures sans avoir besoin de faire un schéma directeur à 5 ans ou de réfléchir pendant des mois à une “intégration” aux outils informatiques existants.

La bonne nouvelle pour vous rassurer: 100% des fonctionnalités de WizyVision sont ouvertes par API pour échanger, si et seulement si c’est nécessaire, avec les applications “Cols Blancs” existantes. Cela évitera de créer une “informatique fantôme” dont vous avez si peur.

Le CIGREF, Club Informatique des Grandes Entreprises Françaises, a pris il y a quelques semaines, l’excellente initiative de créer un groupe de travail sur le numérique au service des équipes terrain.

Je leur propose d’inviter Jean-Michel Frixon à plancher devant leur groupe de travail. Même si le numérique n’est pas son domaine de compétences dominant, je suis certain qu’il peut apporter beaucoup à ce groupe de travail.

 

Synthèse

Vous êtes dirigeant, responsable opérationnel dans une entreprise qui emploie des travailleurs terrain? 

Faites un investissement “somptuaire”: achetez autant d’exemplaires du livre de Jean-Michel Frixon, à 15,50 €, que vous avez de membres du COMEX ou de responsables opérationnels, et demandez-leur à tous de le lire.

Vous ne le regretterez pas!

Jean-Michel FrixonJe ne sais pas si Jean-Michel Frixon est prêt à refaire, en dehors de Michelin, le séminaire qu’il a animé pour le COMEX de cette entreprise.

Posez-lui la question. S’il répond oui, ce sera l’un des meilleurs investissements que vous pourrez faire pour améliorer le management de votre entreprise et favoriser des échanges plus fréquents entre le monde du bureau et celui des équipes terrain.

Sans collaborateurs terrain, votre entreprise n’existe pas.

Sans solutions numériques adaptées aux attentes de vos collaborateurs terrain, le système d’information de votre entreprise ne peut pas fonctionner efficacement.

Redonner le pouvoir, la priorité au terrain, doit devenir votre priorité en 2023.

Merci, merci, merci, Jean-Michel Frixon, pour cet ouvrage exceptionnel qui porte un message positif, d’espoir, dont on a vraiment besoin en France en ce moment.

 


Chip War : la guerre des composants électroniques - Première partie

 

XChipWar book cover J’ai profité d’une activité professionnelle plus calme pendant les derniers jours de l’année 2022 pour terminer la lecture du livre de Chris Miller, CHIP WAR.

Je lis beaucoup, et ce livre est l’un de ceux qui m'a le plus impressionné en 2022.

Dans ce billet, je vous présente quelques-unes des idées les plus importantes que j’ai retenues de cette lecture.

J’espère surtout qu’il vous donnera envie de le lire dans son intégralité.

Il se lit comme un roman policier, alors qu’il parle de technologies et de stratégie mondiale. C’est un beau compliment…

 

Un thème clé: l’importance de l’industrie des composants électroniques

Cela fait plusieurs années que je m’intéresse à ce sujet.

Cette industrie des composants électroniques a démarré dans les années 1960. Aujourd’hui, il n’y a plus un seul secteur économique qui ne dépende pas, plus ou moins fortement, de ces composants.

Au CES (Consumer Electronics Show) 2023 qui vient de se terminer à Las Vegas, Honda a présenté un prototype du véhicule électrique autonome Afeela sur lequel ils travaillent, avec… Sony et Qualcomm. 

Sur ce schéma, on voit les 45 capteurs qui seront utilisés pour permettre le niveau 3 d’autonomie. Le nombre de processeurs et la puissance numérique embarquée sur un véhicule de ce type sont impressionnants.

XSony Honda Afeela 45 sensors

Ce billet que j’ai écrit en 2021 présente un panorama raisonnablement complet de cette industrie.

A la fin de l’année 2021, dans une analyse des principaux risques qui menacent notre planète, j’ai parlé de la volonté de la Chine d’envahir Taiwan, ce qui aurait des conséquences dramatiques sur l’industrie des composants électroniques.

Dans les “Vœux du Président de la République Française pour le numérique”, l’industrie des composants électroniques occupe une place de choix.

Maintenant que tous les pays ont pris conscience de l’importance de cette industrie, il est essentiel d’en comprendre la variété et la complexité.

 

Composants électroniques : deux industries très différentes

Pour bien comprendre les enjeux mondiaux de cette industrie, il est indispensable de séparer le marché en deux familles:

  • Les composants simples, qui s’appuient sur des technologies bien maîtrisées et matures.
  • Les composants haut de gamme, construits avec les technologies les plus avancées du moment.

Ce schéma permet de mieux visualiser les progrès exponentiels réalisés dans la construction de ces composants électroniques.

XARM Chip 1985  Vs M1 Apple 2020

A gauche, un processeur ARM de première génération:

  • Construit en 1985.
  • Lithographie en 3 µm.
  • 25 000 transistors.

A droite, un processeur ARM M1 développé par Apple:

  • Construit en 2020.
  • Lithographie en 5 nm.( Rappel : 1 µm = 1000 nm.).
  • 16 milliards de transistors = multiplication par 640 000 du nombre de transistors par rapport au processeur de 1985.

La segmentation en deux familles permet de suivre les évolutions de cette industrie des composants électroniques.

XChips deux industries séparées

 

Famille des composants simples, sur technologies anciennes

A la fin des années 1950 et au début des années 1960, les premiers composants électroniques à base de transistors remplacent les processeurs à tubes.

Texas Instruments, Intel sont nés pendant cette période.

Les principaux composants que l’on retrouve dans cette famille sont:

  • Les microprocesseurs simples, présents dans des milliers d’objets courants tels que les téléviseurs, les machines à laver…
  • Les mémoires DRAM (Dynamic Random Access Memory). Ce sont des mémoires qui ont besoin d’être alimentées en énergie pour fonctionner et que l’on trouve dans tous les ordinateurs. L’industrie des DRAM a connu trois zones géographiques leaders successifs:
    • Les Etats-Unis avec la Silicon Valley.
    • Le Japon pendant les années 1980.
    • La Corée du Sud et d'autres pays d’Asie aujourd’hui.
  • Les mémoires Flash ou NAND. Ce sont des mémoires qui sont capables de stocker des informations sans être alimentées en énergie.

Les outils de lithographie utilisés pour les fabriquer sont bien maîtrisés: ce sont des solutions DUV (Deep UltraViolet) qui gravent le plus souvent entre 200 et 300 nm.

 

Famille des composants haut de gamme

La principale différence avec les composants simples est liée aux solutions de lithographie utilisées: les solutions EUV (Extreme UltraViolet), avec des gravures comprises aujourd’hui entre 13 et 3 nm.

Je reviendrai plus longuement sur ce sujet clé de la lithographie dans la suite de ce texte.

Les principaux composants qui ont besoin de l’EUV sont:

  • Les microprocesseurs universels haut de gamme tels que l’Apple ARM M2.
  • Les cartes graphiques de Nvidia, de plus en plus utilisées en Intelligence Artificielle.
  • Les processeurs spécialisés dans l’Intelligence Artificielle. C’est dans ce domaine que les progrès sont les plus spectaculaires depuis 2020. On assiste aussi à la multiplication de solutions spécifiques proposées par les géants du Cloud Public tels que:
    • Les processeurs TPU (Tensor Flow) par Google.
    • Les processeurs Inferencia par AWS.

 

Lithographie : LA clé de l’explosion des performances des composants électroniques

Comme on l’a vu dans le début de ce texte, les techniques de lithographie sont au cœur de l’accroissement des performances des composants électroniques.

Le terme exact à utiliser serait la photolithographie, pour se différencier des techniques anciennes d’impression sur papier. Dans la pratique, toute la profession utilise le mot lithographie, ce que je fais dans ce texte.

XPremier circuit en lithographieJay Lathrop qui travaillait chez Texas Instruments a inventé la lithographie en utilisant un microscope… à l’envers pour réduire la taille d’une image. Le brevet a été déposé en 1957.

Cette image montre l’un des premiers composants “dessiné” avant d’être photolithographié.

Comme pour les mémoires DRAM, l’industrie a migré géographiquement:

  • Le leadership initial était aux Etats-Unis avec l'entreprise GCA au début des années 1980.
  • Nikon et Canon au Japon deviennent dominants à la fin des années 1980.

Les machines de cette génération travaillaient avec les solutions DUV : Deep Ultraviolet Light,  entre 200 et 300 nm.

Le basculement vers la génération d’après, EUV: Extreme Ultraviolet Light pour graver en 15 nm ou moins était considérée par les fournisseurs existants comme extrêmement difficile, voire impossible

Et c’est à ce moment qu’a commencé l’aventure ASML…

 

ASML, le seul fournisseur mondial d’outils de lithographie EUV

En 1984, le groupe hollandais Philips avait transféré ses compétences en lithographie dans une société indépendante, ASML. Philips avait aussi investi dans la “startup” TSMC à Taiwan, ce qui a facilité les collaborations entre ASML et TSMC.

GCA, qui était le leader américain des solutions DUV, a mis la clé sous la porte en 1990.

En 2001, ASML achète le seul acteur en lithographie restant aux Etats-Unis, SVG.

Après des dizaines de milliards d’investissements, dont 12 milliards par Intel, et des années de travail, ASML est en 2023, le SEUL fabricant au monde capable de construire des machines qui gravent en EUV.

Il faut bien comprendre les impacts de ce monopole ASML: 100% de l’industrie mondiale des composants électroniques haut de gamme est dépendante des machines de lithographie construites par ASML.

Cette situation est résumée sur ce schéma.

XChip Monopole ASML Duopole TSMC Samsung

Cette fragilité de l’industrie est accentuée par le fait que ASML est un intégrateur de dizaines de milliers de composants très haut de gamme, dont beaucoup sont aussi fournis par une seule entreprise. Dans cet écosystème, il y a quelques acteurs essentiels:

  • Zeiss, fabricant allemand d’optiques de précision, est le SEUL à pouvoir fabriquer les miroirs dont a besoin ASML
  • Trumpf, autre acteur allemand, est le SEUL fabricant de lasers au dioxyde de carbone capable de fournir les lasers nécessaires pour ASML. ASML a financé pour 1 milliard de dollars la recherche de Trumpf.
  • Cymer est un acteur américain fournisseur de sources de lumière nécessaires pour les lasers. C’est le SEUL fournisseur pour ASML, qui a pris la décision d’acheter l’entreprise.

ASML, Zeiss, Trumpf, Cymer, ce sont tous des MONOPOLES mondiaux dans l’industrie des composants électroniques. Cette industrie est d’une extraordinaire fragilité

Un accident industriel sur une seule de ces quatre entreprises peut bloquer toute l’industrie du numérique au niveau mondial.

La croissance exponentielle des performances de ces outils de lithographie EUV continue. Les premières machines ASML fonctionnant en 3 nm ont été livrées en 2022 à Samsung et TSMC.

XASML 150 M$ machine Une “petite” machine ASML coûte entre 100 et 200 M$. Celle représentée ici:

  • A un prix de vente de 150 M$. 
  • Est de la taille d’un autobus. 
  • Demande 40 conteneurs et 3 avions-cargos pour être expédiée.

Ce ne sont pas des machines qui se vendent en grand nombre! Fin 2022, ASML n’avait livré que 140 machines EUV dans le monde.

Sur le schéma du monopole ASML, j’ai rajouté un “duopole +”, celui des fondeurs, des entreprises industrielles capables de mettre en œuvre les outils ASML pour fabriquer les composants haut de gamme.

Pourquoi parler de “duopole +”?

  • TSMC, basé à Taiwan, est le premier fondeur mondial de composants haut de gamme.
  • Samsung, basé en Corée du Sud, est le deuxième fondeur.
  • Intel est loin derrière en matière de volumes, le + de la bande. L’avenir d’Intel dans les composants très haut de gamme n’est pas garanti.

Les liens entre ASML et TSMC sont très étroits.

Le premier fondeur à utiliser les nouvelles générations de matériels ASML est le plus souvent TSMC, comme le montrent ces deux annonces récentes:

XTSMC 2 nm TSMC prévoit de livrer les premiers composants en 2nm début 2026.

- TSMC annonce qu’il va construire à Taiwan une nouvelle usine pour des puces en 1 nm.

Le fournisseur des matériels permettant la fabrication de ces nouvelles générations de composants sera… ASML.

N’oublions pas que passer du 2 nm au 1 nm, cela… double le nombre de transistors que l’on peut graver sur la même surface!

Cette remarquable vidéo


qui présente l’histoire d’ASML dure presque 20 minutes, mais je vous conseille vraiment de prendre le temps de la visionner. Elle a été préparée avec l’aide de Chris Miller, l’auteur du livre qui m’a servi de référence pour écrire ce billet.

 

L’après EUV : High NA EUV

Dans votre prochain dîner en ville, vous pourrez parler de “High NA EUV” et votre prestige comme spécialiste du numérique va grimper en flèche!

NA signifie Numerical Aperture, l'équivalent de la focale d'un appareil photographique. EUV travaille avec un NA de 0,33 et High NA EUV avec un NA de 0,55.

Cette nouvelle génération de lithographie devrait arriver à partir de 2025. Cet article explique, dans un langage raisonnablement simple, les différences entre EUV et High NA EUV.

ASML travaille sur cette nouvelle génération High NA EUV et son premier client sera… Intel!

Intel espère ainsi retrouver une position de leader vis-à-vis de ces deux concurrents asiatiques, TSMC et Samsung.

Ces nouvelles machines seront encore plus complexes, plus grandes et plus chères que les EUV actuelles, comme le montre cette photo. Le prix d'une machine High NA EUV sera de 300 M$.

EUV vs High NA EUV

 

Dans cette première partie de ce billet, j’ai présenté les dimensions techniques et industrielles de cette guerre des composants électroniques.

Dans la deuxième partie, j'aborderai les enjeux géopolitiques majeurs posés par la dimension stratégique de cette industrie des composants électroniques.

 


Quatre risques numériques majeurs pour notre planète : 2022 - 2030+ (Troisième partie)

 

XExponential with man runningDans la première partie de cette analyse, j’ai présenté le danger numérique le plus immédiat, les cyberattaques sur les infrastructures physiques de transport.

Dans la deuxième partie, j’ai analysé quels pourraient être les impacts d’une guerre dans le détroit de Taiwan sur l’industrie des microprocesseurs.

Dans cette troisième partie, j'aborde le thème des risques liés à la croissance exponentielle des potentiels des technologies numériques.

Exponentiel ! C’est le mot clef de ce billet.

(Texte exceptionnellement long, vu la richesse des thèmes abordés.)

 

Horizon 2030 : non-maîtrise de la croissance exponentielle des potentiels des technologies numériques

Je vous propose de commencer par un rappel des fondamentaux de la croissance exponentielle.

L'exponentiel est un phénomène fréquent dans la nature : la diffusion des virus, la croissance du nombre de bactéries dans des tubes d’essai ont des croissances exponentielles. La pandémie COVID-19 a fait beaucoup pour que la compréhension des impacts d’une croissance exponentielle augmente dans le monde entier.

Même la croissance de vos avoirs financiers placés à 2% dont vous réinvestissez les dividendes suit une croissance exponentielle, même si ce n’est pas très “visible”.

XPuissance exponentielDans la suite de ce texte, quand je parlerai de croissance exponentielle, je ferai les hypothèses suivantes :

● Le taux de croissance annuel est supérieur à 20%.

● La durée de cette croissance est supérieure à 20 ans.

Ces deux dimensions, taux et durée, sont essentielles pour comprendre les véritables impacts d’une croissance exponentielle. Dans ce tableau, je compare les croissances d’un investissement selon que le taux est de 10%, 20% ou 50%, sur une durée de 10 et 20 années.

XExponential book coverJe suis abonné depuis plusieurs années à “Exponential View”, la lettre d’information d’Azeem Azhar. Il a publié en septembre 2021 un livre, sobrement intitulé Exponential. C’est une bonne synthèse sur le sujet et il vous permettra d’approfondir une grande partie des thèmes que j’aborde dans ce billet. Cet ouvrage a été nommé livre technologique de l’année 2021 par le journal Financial Times.

Pour faciliter la compréhension des défis posés par la croissance exponentielle des technologies numériques, je les ai groupés en trois familles :

● Les décalages entre des technologies exponentielles et un monde linéaire ou logarithmique.

● La naissance, croissance et domination d’entreprises capables de maintenir une croissance exponentielle de leurs activités.

● Trois technologies exponentielles de rupture, que je considère comme les plus importantes : le Cloud Public, l’Intelligence Artificielle (IA) et l’informatique quantique.

 

Décalages entre des technologies exponentielles et un monde linéaire ou logarithmique

Il y a déjà 5 ans, en novembre 2016, Thomas Friedman publiait “Thank You for Being Late”, livre remarquable qui évoquait les décalages entre des technologies exponentielles et la capacité plus lente du monde à s’adapter. Je l’ai déjà cité dans un billet précédent sur notre capacité à absorber l’innovation.

J’en ai extrait ce graphique en y ajoutant mon grain de sel. Il n’y a pas d’échelle de temps précise, mais il indique clairement que nous avons passé un cap majeur : les technologies évoluent maintenant plus vite que nos capacités à les maîtriser.

XThanks for being late

Friedman parle de l’adaptabilité humaine ; je l’ai segmentée en quatre composants:

Les personnes, en tant qu’individus. C’est à titre personnel que nous sommes les plus rapides pour accepter les innovations numériques. C’est vrai dans le monde entier, depuis la banalisation d’Internet et des smartphones, il y a 15 ans.

Les entreprises, privées ou publiques. Elles ont plus de mal à absorber les nouvelles technologies. De nombreux fournisseurs l’ont compris et proposent en priorité leurs innovations au grand public avant de le faire pour les entreprises. Quelques exemples :

○ Google : Gmail est né en 2004, Google Apps en 2007.

○ Facebook (Meta) : Workplace est annoncé en 2016, regroupant des fonctions disponibles sur les solutions grand public depuis 5 à 10 ans.

Les gouvernements. Leur temps de réponse aux innovations est, sauf exception, très lent. Les manques d’appétences et de compétences de la majorité des personnages publics pour le numérique sont catastrophiques.

Les lois. Suite logique du point précédent, les lois qui abordent les sujets numériques sont toujours dramatiquement décalées par rapport à la réalité des technologies. J’ai écrit sur mon blog tout le “bien” que je pensais du principe de précaution inséré dans la constitution française, l’outil anti-innovation le plus puissant que je connaisse.

XAdS DPC Slow fast snail S 102818567Quels sont les risques liés à l’irruption de l’exponentiel dans nos vies ?

● Nous avons tous énormément de mal à visualiser ce qu’est une croissance exponentielle. Nous sommes nés dans une culture de l’évolution linéaire.

● Le deuxième, c’est de ne pas comprendre qu’un monde exponentiel change les règles du jeu classiques, et dans tous les domaines, techniques, humains et organisationnels.

● Le troisième et hélas le plus dangereux c’est de croire que nous avons le temps et qu’il n’y a aucune urgence à s’adapter.

 

La naissance, croissance et domination d’entreprises capables de maintenir une croissance exponentielle de leurs activités

Dans le paragraphe précédent, j’ai parlé des entreprises qui ont beaucoup de mal à s’adapter à des évolutions exponentielles. Ce sont en priorité toutes celles qui travaillent dans des secteurs où les dimensions physiques des biens et des services créent des limites logiques à la croissance. Les économistes parlent de la réduction des retours marginaux.

Le nombre de réfrigérateurs ou de voitures par foyer, le nombre de comptes bancaires ne peuvent croître de manière infinie. La croissance de ces marchés est représentée par une courbe en S, avec une accélération forte au début suivie d’une saturation progressive.

On le voit bien sur ce célèbre graphique qui montre que la vitesse d’adoption de nouveaux produits est de plus en plus rapide, mais passe par une asymptote quand on approche des 100% de taux d’équipement.

XTechnology adoption goes faster over time

XCover book  Scale by Geoffrey West Un livre publié par Geoffrey West en 2017, “Scale”, sur les lois universelles de la croissance démontre que, en 2010, le taux de croissance des 30 000 entreprises qu’il avait étudiées était de zéro.

La situation change du tout au tout quand on parle d’entreprises dont les marchés sont des biens ou services numériques ; les limites physiques à la croissance disparaissent.

Ces entreprises nées avec le numérique sont capables de créer des cultures de croissance exponentielle de leurs activités.

Les effets “réseaux” de cette croissance permettent d’accroître la performance des entreprises du numérique avec leur taille, à l’inverse des entreprises classiques.

Les chiffres de Netflix sont très révélateurs de cette rupture :

● En 2010, 2 100 employés, 2,1 B$ de CA, 1 M$ par employé.

● En 2020, 9 400 employés, 25 B$ de CA, 2,7 M$ par employé, 3 fois plus !

XMarket value tech giantsCe graphique financier montre à quel point cette évolution a été rapide et profonde.

En 2005, avant le smartphone et la croissance du Web, les entreprises ayant les plus grandes valorisations boursières étaient dans des secteurs classiques. Microsoft était la seule entreprise du secteur informatique dans la liste.

En 2020, les entreprises du secteur numérique trustent les premières places. La seule exception est la société pétrolière Saudi Aramco. Il est révélateur de voir que Tesla figure dans cette liste ; j’y reviendrai.

Ces technologies numériques à large spectre, Internet, smartphone, clouds publics ont un autre impact majeur : elles permettent à des secteurs d’activités traditionnels de se réinventer en devenant des métiers où le numérique est omniprésent.

J’ai sélectionné deux secteurs où ce mouvement est très fort, la santé et l’automobile.

L’industrie de la santé.

Dans un billet récent de mon blog, je parle de la recherche d’un vaccin COVID-19 par la société Moderna. En utilisant le Cloud Public AWS, elle a expliqué que le temps nécessaire pour trouver le vaccin était passé de 20 mois à 42 jours, une réduction dans un rapport 14.

XGenome sequencing costs downUn autre exemple est celui de la séquence d’analyse d’un génome humain :

● Première réussite en l’année 2000 : coût estimatif de 500 M$ à 1 000 M$.

● En 2021, ce coût est tombé à environ 100$.

● Cette baisse correspond à une exponentielle 1000 fois plus rapide que la loi de Moore pour les microprocesseurs.

L’industrie automobile.

Cette industrie traditionnelle vit une triple rupture : moteurs électriques, informatique omniprésente et évolution vers la conduite autonome. Une voiture, c’est aujourd’hui un ensemble d’ordinateurs hyper puissants sur quatre roues.

XClassical vs electrical cars vendors dataL’impact économique sur ce secteur est impressionnant. Ce graphique montre que la valorisation boursière des trois principales entreprises historiques qui produisent 22 millions de véhicules est de 505 B$, quand les trois fournisseurs de rupture, natifs électriques, produisent seulement 500 000 véhicules et sont valorisés 1 300 B$.

La valorisation, rapportée au nombre de véhicules, est dans un rapport 115!

Quels sont les dangers numériques majeurs dans ce cas ?

Les géants natifs du numérique ont réussi à construire une culture interne de croissance exponentielle qu'ils ont maintenue pendant plus de 20 années. Rien n’indique qu’ils ne sont pas capables de le faire pendant les 10 ou 20 années qui viennent.

Des secteurs entiers de l’économie vont devenir numériques dans des métiers qui avaient une culture de croissance faible et linéaire : finance, assurance, transport, distribution…

Faisons l’hypothèse, optimiste, que les entreprises traditionnelles sont capables d’atteindre un taux de croissance de 10%. En regardant le tableau financier au début de ce billet, elles peuvent croître 6,7 fois d’ici à 2041 quand les géants du numérique pourraient le faire plus de 3 000 fois s’ils sont capables de maintenir leur croissance actuelle de 50%.

XAdS DPC truck crushing competition S 124316691Peut-on envisager, peut-on accepter que des entreprises comme Google, Amazon, Microsoft, Tesla et autres Apple deviennent 5, 10 ou 100 fois plus grandes qu’aujourd’hui ?

Peut-on envisager, peut-on accepter que des milliers d’entreprises traditionnelles, leaders actuels de leurs secteurs d’activités, soient marginalisées dans les 20 ans qui viennent ?

Peut-on créer dans ces entreprises traditionnelles une culture de croissance exponentielle avant qu’il ne soit trop tard ?

Ce sont des questions essentielles pour l’avenir des économies traditionnelles. Faire l’autruche et ne pas se les poser, c’est certainement la plus mauvaise réponse.

On retrouve aussi les difficultés évoquées précédemment : il devient impératif que les gouvernements et les lois soient capables de s’adapter beaucoup plus vite à cette nouvelle situation économique de rupture.

En seront-ils capables ?

 

Trois technologies exponentielles de rupture

Ces trois technologies de rupture sont : le Cloud Public, l’Intelligence Artificielle (IA) et l’informatique quantique.

Cloud Public, le grand catalyseur

En 2021, le Cloud Public n’est plus une innovation ! Ce schéma donne les dates de naissance des principaux composants du Cloud Public :

● SaaS, Software as a Service : Salesforce en 2000.

● IaaS, Infrastructures as a Service : AWS, Amazon Web Services en 2007.

● PaaS, Platform as a Service : Google Compute Engine en 2009.

● (Pour rappel) : j’ai été cofondateur de Revevol, la première société de services dans le Cloud, en 2006.

XDates naissance Cloud IaaS SaaS PaaS Revevol

La première phase de la croissance exponentielle des solutions Cloud Public couvre la période 2007 à 2017. Ceci ne veut pas dire que cette croissance est ralentie en 2018, au contraire. Depuis 2018, les jeux sont faits, les grands acteurs sont en place et il n’y a plus une seule entreprise raisonnable qui n’a pas décidé de basculer l’essentiel de ses usages numériques sur le Cloud Public.

XValeurs boursières acteurs cloudsPour enfoncer le clou (pas le cloud), j’ai représenté sur ce graphique la valeur boursière, le 15 novembre 2021, des trois géants occidentaux du Cloud Public, Amazon, Microsoft et Google.

● Ces valeurs boursières sont comprises entre 1 800 milliards et 2 500 milliards de dollars.

● La somme des valeurs boursières de cinq grands “anciens combattants” de l’informatique, Intel, Cisco, Oracle, SAP et IBM n’atteint pas les 1 000 milliards de dollars, la moitié de la valeur de chacun des trois leaders.

● Les valeurs boursières cumulées des entreprises du CAC 40 français sont de 2 364 milliards d’euros, soit environ 2 700 milliards de dollars.

Il est urgentissime de ne plus perdre une semaine de plus à se lamenter sur les combats perdus comme les infrastructures cloud public IaaS. Je me suis longuement exprimé sur les erreurs de l’Europe dans ce domaine dans ce billet récent.

L’une des caractéristiques intéressantes des innovations numériques, c’est qu’elles se font la “courte échelle”. Elles servent d’accélérateur pour de nouvelles solutions : les réseaux sans fil très haut débit accélèrent les usages du Cloud Public, qui à son tour crée une demande forte pour des transferts de données.

Le Cloud Public est devenu aujourd’hui la fondation des autres innovations numériques à croissance exponentielle.

En 2021, ne pas basculer rapidement sur des solutions Cloud Public, IaaS, SaaS ou PaaS n’est plus une option.

Xvitesse logarithmique organisations vs technologieComment qualifier entreprises, dirigeants et DSI qui s’obstineraient dans ce refus ?

Je pourrais utiliser des mots tels que ringard ou retardataire.

Je préfère utiliser le mot “logarithmique”. Maintenir le statu quo, ne rien changer aux modes d’utilisation actuels des outils numériques, ressasser les alibis éculés sur les dangers du Cloud Public, c’est avoir une démarche logarithmique de non-évolution.

En 2022, l’offense maximale que l’on pourra faire à un dirigeant ou un DSI sera de le traiter de dirigeant logarithmique ou de DSI logarithmique.

 

Intelligence Artificielle

XDarthmouth summer plaqueL’expression et les concepts de base de l’Intelligence Artificielle ont été formalisés lors de la célèbre conférence de 1956 à l’Université de Dartmouth aux États-Unis.

C’était il y a plus de 65 ans !

Il a fallu attendre 50 ans avant que les outils numériques disponibles permettent de mettre en pratique les concepts développés pendant cette conférence.

Comme le montre ce schéma, c’est le Cloud Public qui a permis à l’IA de décoller. L’analogie avec l’industrie des voitures électriques est frappante.

XAI - Moteur cloud - énergie data

● L’IA a besoin de beaucoup de puissance de calcul : elle est disponible dans le Cloud Public.

● L’IA a besoin de grandes capacités de stockage de données : elles sont disponibles dans le Cloud Public.

● L’énergie dont a besoin l’IA, ce sont des données : les grands acteurs du Cloud Public, Amazon, Google et autres ont des millions de clients pour alimenter en données leurs algorithmes.

X2007 - Cloud  2017 - Machine Learning - ExponentialAprès la décennie Cloud Public, entre 2007 et 2017, la décennie IA prend le relais en 2018 et aura une croissance exponentielle exceptionnelle au minimum jusqu’en 2027.

L’Intelligence Artificielle est un exemple emblématique de la capacité de combiner les progrès exponentiels de plusieurs technologies numériques pour aller encore plus vite.

J’en prendrai deux exemples simples.

Les processeurs spécialisés dans l’IA voient leurs performances s’accélérer encore plus vite que les processeurs universels tels qu’Intel. Ce graphique, extrait du livre “Exponential”, compare la pente de la loi de Moore (Intel) à celle des processeurs IA.

L’accélération des performances est spectaculaire.

XAI law vs Moore Law

XNew IA TensorFlow processors NVIDIA on AWSNvidia est l’un des fournisseurs les plus innovants de processeurs spécialisés pour l’IA.
Il suffit que Nvidia annonce de nouveaux processeurs pour qu’AWS les propose dans ses Clouds Publics.

Regardez bien ce tableau : une dizaine de nouvelles instances de calcul, dans des gammes de puissance très large, permettent, immédiatement, à toute entreprise qui souhaite travailler sur des projets ambitieux en IA d’avoir de nouveaux outils à sa disposition.

Nouveaux processeurs + Cloud Public = progrès immédiats en IA !

Où en est-on, en 2021, en Intelligence Artificielle ?

En 2017, j’ai écrit deux billets sur l’IA, ici et . Pour l’essentiel, ils restent pertinents.

Les professionnels de l’IA parlent de trois niveaux d’Intelligence Artificielle :

● ANI : Artificial Narrow Intelligence, une IA monoactivité.

● AGI : Artificial General Intelligence, une IA capable de résoudre des problèmes très variés, à l’image de ce dont sont capables une femme ou un homme.

● ASI : Artificial Super Intelligence, une IA ayant des capacités supérieures à celles des humains les plus intelligents.

En 2021, les solutions ANI sont omniprésentes dans les entreprises innovantes, construites pour l’essentiel avec des outils de Machine Learning et Deep Learning.

Nous connaîtrons une croissance exponentielle des usages ANI pendant les 5 à 10 prochaines années.Tous les géants du numérique, et en particulier du Cloud Public, investissent massivement dans l’IA de type ANI.

C’est aussi un secteur où l’innovation est portée par des startups. Comme le montre ce graphique, les investissements dans les startups IA ont atteint 70 B$ en 2020.

XInvestissements startup dans AI USA Chine Europe

Dans le secteur de l’IA aussi, la compétition entre les USA et la Chine est maximale.

80% des investissements sont réalisés en Chine et aux USA ; la part de l’Europe est, gentiment dit, très modeste.

Verra-t-on, avant l’année 2030, la naissance de solutions IA en AGI ou ASI ? Je ne pense pas être le seul à ne pas pouvoir répondre à cette question.

Les risques posés par l’arrivée, un jour, de solutions d’IA en AGI et ASI sont immenses.

Serons-nous capables de maîtriser ces outils avant qu’ils ne nous contrôlent ? Nous avons encore quelques années devant nous pour y réfléchir, mais il n’est pas trop tôt pour se pencher sérieusement sur le sujet.

En attendant, les risques majeurs ne sont pas à chercher dans les dangers potentiels d'une IA de type AGI ou ASI. On les trouve dans l’incapacité de trop nombreuses entreprises à utiliser immédiatement, et efficacement, les remarquables solutions d’IA simples disponibles. En plus, ces solutions vont s’améliorer de manière spectaculaire dans les années qui viennent.

 

Informatique quantique

Je pense qu'il n'existe pas un sujet numérique plus complexe que celui de l’informatique quantique.

Mes compétences sur ce sujet sont minimales, mais j’ai quand même décidé d’en parler ; l’informatique quantique, quand elle sera disponible, possède toutes les caractéristiques d’une technologie de rupture.

Cette vidéo de 4 minutes, tournée dans le centre de recherches Google sur l’informatique quantique, donne une bonne idée de la complexité du sujet et de l’importance des investissements nécessaires.

XCouverture livre Quantique OlivierÀ tous ceux qui souhaitent aborder sérieusement le sujet, je recommande la lecture d’un ouvrage exceptionnel, écrit par Olivier Ezratty : “Comprendre l’informatique quantique, édition 2020”.

Cet ouvrage, disponible gratuitement en PDF, contient 682 pages ; même si, comme moi, vous ne comprenez pas tout, sa lecture est passionnante. Il contient au début un portrait des grands scientifiques mondiaux qui ont permis la naissance de toutes les sciences et technologies sur lesquels s’appuient aujourd’hui les entreprises qui ont pour objectif de développer des ordinateurs quantiques opérationnels.

La lecture de cet ouvrage permet de se rendre compte de l’extraordinaire complexité du sujet. Cela aide beaucoup à lire avec un œil critique les annonces spectaculaires sur le sujet.

Des géants de l’informatique comme IBM, Google, Microsoft ou Intel, des startups qui ont levé beaucoup d’argent comme Rigetti Computing (200 M$), D-Wave (200 M$) ou IonQ (85M$) travaillent à la création d’ordinateurs quantiques. Ils utilisent tous des technologies très différentes, preuve s’il en est que l’on est vraiment au tout début de cette révolution technologique.

Ils partagent tous un même objectif : créer la "suprématie quantique”.
Cette suprématie quantique signifie que ces ordinateurs quantiques seront capables de performances des milliers de fois supérieures à celles des plus puissants ordinateurs binaires existants.

J’ai regroupé dans ce tableau quatre annonces récentes qui parlent de suprématie quantique. Ce sont, par dates d’annonce croissante :

XNews on Quantum computing

● 2018 : À la conférence Disrupt, l’informatique quantique sera une réalité dans 3 ans, en clair en 2021.

● 2019 : une annonce par Google, ensuite retirée, proclamait avoir fait en 20 minutes ce que le plus puissant ordinateur mettrait 10 000 années à calculer.

● 2020 : Une équipe chinoise annonce être capable de réaliser des calculs spécifiques 100 trillions de fois plus rapidement que le superordinateur le plus avancé.

● 2021 : Le dirigeant d’une grande société de Venture Capital annonce que les ordinateurs quantiques seront, avant 2030, 1 trillion de fois plus rapides que les ordinateurs les plus puissants.

Faut-il croire toutes ces annonces ? Non !

Il y a quelques jours, sur ArXiv, le site Web sérieux qui publie des études scientifiques avant qu’elles n’aient été relues par d’autres spécialistes, une équipe chinoise a publié une étude montrant qu’elle pouvait, en changeant d’algorithme, exécuter le programme cité par Google sur un ordinateur binaire classique, et plus vite !

Si je devais répondre à la question : quand la suprématie quantique deviendra une réalité, et en rappelant que mes compétences dans le domaine sont minimales, je dirai :

Pas avant 2025, probablement avant 2030.

D'où vient cette grande incertitude ? Pour réussir, l’informatique quantique doit maîtriser un grand nombre de technologies différentes, comme des températures proches du zéro absolu. L’informatique quantique bénéficie bien sûr des avancées du Cloud Public et de l’IA, mais ce n’est pas suffisant.

Ce qui me fascine et me fait peur en même temps avec l’informatique quantique ?

XDouble exponentielleSi les prédictions de certains spécialistes se réalisent, on quitterait le monde de la croissance exponentielle des performances pour entrer dans celui du… double exponentiel.

Ce tableau explique la différence de croissance entre l’exponentiel simple et double.

Exemple : pour n = 5, une croissance exponentielle donne 32, une croissance double exponentielle en est déjà à 4,3 milliards ! Les chiffres suivants n’ont plus aucun sens pour moi.

Hartmut Neven, l’un des responsables du laboratoire de quantum computing de Google a proposé, modestement, de remplacer la loi de Moore par la loi de Neven :

“La croissance de la puissance de calcul des ordinateurs quantiques suivra une croissance double exponentielle.”

En résumé, l’informatique quantique :

● Deviendra une réalité.

● À quelle date ? Personne ne peut le dire aujourd’hui.

● Son arrivée sera la plus grande rupture connue dans le monde du numérique depuis qu’il existe.

● Anticiper ses bénéfices et domaines prioritaires d’usages est impossible, aujourd’hui.

● Anticiper ses risques est impossible, aujourd’hui.

 

Synthèse : s’adapter à un monde exponentiel

Depuis le début des années 2000, nous sommes rentrés dans un monde où la croissance exponentielle des technologies numériques va tout balayer sur son passage.

Imaginer un seul instant que l’on peut ralentir ces progrès technologiques exponentiels est une illusion, et une illusion mortelle ; elle peut laisser croire qu’il n’est pas nécessaire de s’y adapter, et très vite.

XTechnology exponential 3 waves + enterprisesCe schéma de synthèse résume très bien la situation pour les dix années qui viennent :

● Trois vagues technologiques majeures.

● Le Cloud Public est omniprésent, et sert de fondations pour les deux autres.

● L’Intelligence Artificielle, et en particulier ses composants Machine Learning et Deep Learning est déjà là. Elle va pénétrer toutes nos activités humaines.

● L’informatique quantique pourrait trouver de premiers usages opérationnels avant les années 2030.

● Des entreprises “exponentielles” sont nées au cours des 20 dernières années et vont continuer leur croissance à des rythmes très élevés pendant cette décennie.

Face à ces vagues exponentielles qui peuvent tout emporter sur leur passage, j’ai identifié de très nombreux risques, et ce sont tous des risques majeurs :

● Au niveau individuel, rester à quai et perdre tout contrôle sur sa vie numérique.

● Pour les entreprises, rester “logarithmiques” et se faire phagocyter par celles qui sont ou auront su devenir exponentielles.

● Pour les États, rester passif, légiférer mal et tardivement, lutter contre cette vague exponentielle au lieu de l’accompagner et d’y rechercher des bénéfices pour les citoyens.

XAttendre  c'est reculerDans les trois cas, j’ai utilisé le mot “rester”. Ce n’est pas fortuit : l'inaction est, de loin, le plus grand des dangers.

     Attendre, c’est reculer !

Dans la quatrième partie de cette analyse des risques liés au numérique, j’aborderai le thème du réchauffement climatique de la planète.


Hommage à Clayton Christensen, un géant de la pensée managériale

 

Clayton Christensen HBRLe 23 janvier 2020 est mort à 67 ans Clayton Christensen, un des plus grands penseurs de ces dernières années sur la stratégie des entreprises. Par ses écrits, il a influencé d’innombrables dirigeants, de Intel à Apple en passant par les fondateurs de startups. Je suis fier de dire que j’ai utilisé ses idées dans des startups avec lesquelles j’ai collaboré et d’autres où je travaille encore. J’en présente un exemple récent à la fin de ce billet.

En 2006, il y a 14 ans, au début de ce blog et à la veille de créer l’entreprise Revevol, j’avais écrit un billet pour expliquer les principes de base de la démarche de Clayton Christensen.

J’ai décidé de le republier aujourd’hui, tel quel, sans en changer un seul mot. Le fait que ce texte soit encore d’actualité est le meilleur hommage que je puisse rendre à cet homme exceptionnel.

J’ai ajouté quelques paragraphes à la fin du billet de 2006 pour illustrer l’influence majeure que continue à avoir Clayton Christensen dans l’industrie du numérique.

 

Billet original de 2006

Christensen photoClayton Christensen, professeur à l’Université de Harvard, a écrit trois livres importants sur l’innovation :

- The Innovator's Dilemma

- The Innovator's Solution

- Seeing What's Next : Using Theories of Innovation to Predict Industry Change

Les idées qu’il défend permettent d’appréhender les mécanismes de base de l’innovation et expliquent pourquoi tant d’entreprises et de produits nouveaux échouent.  Ces idées s’appliquent à tous les secteurs d’activité, mais sont particulièrement pertinentes pour tout ce qui touche aux technologies de l’information.

Christensen bookC’est une lecture indispensable pour toute personne qui s’intéresse sérieusement aux innovations et à leurs impacts.

Ce texte présente un résumé très succinct des idées de Christensen et mon interprétation de leurs applications dans le monde de l’informatique, et en particulier du Web 2.0.

Les points clefs de la démarche de Christensen

Sur ce premier graphique, une ligne représente le rythme d’évolution du progrès technique. Les performances des matériels et des logiciels s’améliorent en permanence ; la capacité des disques durs double tous les ans.

Christensen model 1

La deuxième droite représente l’évolution des attentes des clients ; elle évolue moins rapidement que les performances des outils.

J’ai fait apparaître deux familles de produits, A et B.

A : Produits matures, surdimensionnés

Les produits de type A ont dépassé les attentes de la très grande majorité des utilisateurs.  En informatique, de nombreux produits appartiennent à cette famille ; citons, par exemple :

- Les bases de données Oracle ou DB2

- La suite bureautique Office

- Les processeurs Intel pour PC professionnels

Chacun pourra, à sa guise, rajouter d’autres produits à cette liste.

Les fournisseurs de ces produits se heurtent à un problème sérieux : ils ont de plus en plus de mal à convaincre le marché que les nouvelles versions apportent une valeur ajoutée suffisante pour justifier un changement.

B : Produits encore insuffisants

Il existe encore beaucoup de produits dont les performances ne sont pas jugées satisfaisantes par la majorité des utilisateurs ;  ce sont, par exemple :

- La vitesse des réseaux mobiles 3G pour le transfert des données

- L’autonomie des batteries des micro-ordinateurs portables

- La distance utile d’usage des bases Wi-Fi.

Les fournisseurs de ces produits sont dans une situation très positive ; toute amélioration des performances est immédiatement plébiscité par le marché, jusqu’au jour où ils croisent la ligne des attentes et se retrouvent en postillon de type A.

Les appareils de photos numériques en fournissent un bon exemple ; jusqu’en 2005, le nombre de mégapixels était un argument de vente important, car les utilisateurs voyaient clairement la différence entre 2 et 5 Mégapixels.  Cette course est aujourd’hui terminée ; pour la très grande majorité des photographes amateurs, une photo de 10 MPixels, imprimée en 10x15, n’est pas visuellement meilleure que si elle pesait 6 MPixels.

Innovations de rupture

L’un des apports essentiels de Christensen a été de mettre en évidence ce qu’il nomme les innovations de rupture.

Christensen model 2

Face à la saturation progressive du marché, pour les produits de type A, des entreprises innovantes lancent des produits de rupture, qui en font beaucoup moins, mais à des prix très compétitifs.

Ces produits ont l’intelligence de ne pas attaquer de front les leaders, mais commencent par prendre deux marchés clefs : les personnes qui se contentent de solutions raisonnables et les “non-utilisateurs ” actuels qui ne pouvaient pas acheter les produits leaders.

La Logan de Renault illustre parfaitement ce processus ; elle est vendue dans les pays émergents comme première voiture, dans une configuration minimale, autour de 5000 euros.  Dans les pays avancés, la Logan est achetée dans une version “haut de gamme”, à 9000 euros, par des personnes qui ont découvert qu’elles n’ont pas besoin de “plus” de voiture pour répondre à leurs véritables attentes.

Je propose de définir deux familles de produits innovants, C et D.

C : Produits innovants, en devenir

Skype à ses débuts, Asterisk, l’autocommutateur Open Source, l’immense majorité des start-ups à succès rentrent sur le marché avec des produits de type C ; ils ont des fonctions minimales, incomplètes, mais les proposent à des prix très bas, voire même gratuitement.

En proposant des services au rapport qualité/prix imbattable, les produits de type C trouvent rapidement des “clients innovants” qui sont capables d’arbitrer entre fonctionnalités, performances et coûts et savent utiliser ces produits en tenant compte de leurs limites.

D : Produits innovants, proche maturité

David GoliathTrès rapidement, en quelques mois, les produits de type C ont trouvé leur marché et des millions de clients les utilisent.  Ils évoluent alors rapidement vers des produits de type D, dans la situation “idéale” où il y a une bonne adéquation entre leurs fonctionnalités et les attentes de la majorité des clients, et non plus seulement des clients innovants.

Skype, aujourd’hui, en est une bonne illustration : avec la fonction SkypeOut d’appels économiques de tous les numéros, la possibilité d’utiliser un téléphone “normal” au lieu d’un casque et des dizaines d’autres améliorations, Skype est proche de la réponse complète, économique et raisonnable aux attentes des particuliers et des entreprises

MySQL, JBoss, sont d’autres exemples de produits qui ont atteint le niveau D.  En répondant bien aux attentes du cœur de marché, ils commencent alors à sérieusement concurrencer les fournisseurs produits de type A, qui doivent se concentrer sur les clients ayant des besoins très complexes, ce qui devient un marché de ... niche.

Fournisseurs : quelle stratégie d’innovation ?

Le modèle d’innovation A/B/C/D proposé par Christensen est très efficace pour aider un fournisseur dans sa stratégie d’innovation.

Castle- Face à un marché de type A, la meilleure solution consiste le plus souvent à ... chercher un autre créneau.  Les acteurs en place, puissants et à forte notoriété, ont les moyens marketing et financiers de s’opposer efficacement à toute tentative d’entrée sur ce marché.

- Si le marché est en situation B, toute innovation qui apporte une réelle amélioration des performances sera rapidement acceptée par les clients et a beaucoup de chance de réussir.  La couverture nationale de la France en réseau Edge par Bouygues Telecom, le succès fulgurant du Wi-Fi, première solution rapide de réseau sans fil sont des exemples d’innovation de type B.

- Trouver un produit ou un service de type C est la voie royale de l’innovation moderne.  L’entreprise répond à une double demande, de clients attirés par une solution plus économique et de nouveaux clients, non-utilisateurs actuels de ces services, le plus souvent pour des raisons de coût. Les fournisseurs de solutions A sont désarmés face à ces innovations de rupture C car ils ne peuvent pas mettre en danger leur rente de situation en répondant par des baisses de prix massives.

- Passer rapidement au niveau D des services proposés est indispensable si l’innovateur veut protéger son marché initial et rentrer sur le marché de masse des clients aux attentes raisonnables. La principale difficulté sera souvent de savoir résister au danger de l’hypertrophie fonctionnelle. En se transformant en fournisseur de type A, il laisserait alors le champ libre à un nouvel innovateur de type C, capable de l’attaquer avec une nouvelle offre de rupture !

DSI : décisions intelligentes face à l’innovation

Ce même modèle A/B/C/D peut être utilisé par un DSI pour mieux analyser les innovations qui lui sont proposées.

- Face à un nouveau service de type A, la meilleure réponse consiste à refuser les nouvelles versions qui n’offrent aucun avantage important à l’immense majorité des utilisateurs.  C’est souvent difficile, car ce sont les fournisseurs déjà en place, connus, puissants qui proposent des solutions A.

- Pour un DSI, une innovation de type B est “idéale”. Il pourra proposer à ses clients un nouveau service, de nouveaux niveaux de performance qui seront accueillis avec enthousiasme pas les utilisateurs.

- Les innovations de type C sont plus délicates à gérer par la DSI ; c’est le cas, aujourd’hui, de la majorité des Services Web 2.0 pour les entreprises.

La clef de la réussite consiste à choisir, comme premiers clients, des petits groupes d’utilisateurs innovants, raisonnables, capables de comprendre les avantages et les limites des solutions et de s’y adapter.  C’est dans ma mise en œuvre réussie de solutions de type C que l’on reconnaît les meilleurs DSI innovants.

Bouée- Un DSI a deux approches possibles pour les solutions de type D. Il peut attendre que les produits aient atteint le niveau D, en faisant l’impasse sur les offres de type C ; ce sera la stratégie choisie par une majorité de DSI, “prudent” face à l’innovation.

Pour ceux qui auront installé, à petite échelle, des solutions de type C, le passage en D se fera naturellement, par extension des premières implantations à l’ensemble de l’entreprise et en s’appuyant sur les nouvelles versions de ces services, arrivés à maturité. La probabilité de réussite sera plus élevée, la mise en route plus rapide.

L’analyse proposée par Christensen est un outil extrêmement puissant de compréhension des différentes facettes de l’innovation.

En positionnant toute innovation qui lui est proposée dans l’une des quatre familles A/B/C/D, un DSI peut, rapidement, proposer une réponse adaptée à son style de management et à la capacité de son organisation à absorber des innovations.

Refuser des innovations de rupture, type C, peut être la meilleure décision pour un DSI prudent dans une organisation traditionnelle !

J’espère, et je suis sûr qu’il y a quand même quelques DSI innovants pour les mettre en œuvre et donner à leurs entreprises un avantage concurrentiel significatif.

Optimiste je suis né, optimiste je reste !

Fin du texte du billet original

-------------------------------------------------------------------------------------------

 

Théories de Clayton Christensen : elles sont là pour durer

HBR Essentials on ChristensenClayton Christensen était professeur à Harvard ; cette université a eu la bonne idée de regrouper et de publier immédiatement dans ce catalogue les principaux articles qu’il a écrits pour la HBR, Harvard Business Review ; bravo pour la réactivité.

Le succès planétaire de ses livres a fait que l’expression “Disruptive Innovation” a souvent été utilisée de manière erronée. C’est pour cela que Clayton Christensen a publié en 2015 un long article qui clarifie sa position sur les usages “excessifs” de son modèle d’innovation.

A titre d’illustration, il explique pourquoi Uber n’est pas, selon lui, une entreprise “disruptive”, contrairement à ce que pense la majorité des personnes.

Andrew Ng on ChristensenDe très nombreux témoignages ont été publiés dans la journée qui a suivi l’annonce de son décès. Tous saluent ses grandes qualités humaines et le fait que ses idées seront encore au cœur des réflexions stratégiques des dirigeants pendant de nombreuses années.

J’ai pensé que la meilleure manière de lui rendre hommage était d’illustrer, sur le cas concret d’une startup dont je suis l’un des dirigeants, comment son modèle a servi de base à sa création et à son démarrage.

 

Illustration sur un cas concret : WizyVision en 2020

WizyVision propose des solutions qui permettent à toutes les entreprises de gérer en SaaS, Software as a Service, leurs contenus multimédias, images, photos et vidéos, ce que nous avons nommé un “Média Hub”.

WizyVision HP

Aujourd’hui, le marché des contenus multimédias a quelques caractéristiques fortes :

● Il a pour nom DAM : Digital Asset Management.

● Il s’adresse en priorité aux départements communication et marketing.

● Il offre des fonctions haut de gamme telles que la gestion des droits ou la capacité de créer et modifier des images et des vidéos.

● Les fournisseurs dominants sont de grandes entreprises qui sont présentes sur ce marché DAM depuis plusieurs dizaines d’années : Adobe, OpenText…

● Ce sont des solutions chères, donc réservées à un tout petit nombre d’utilisateurs dans les entreprises.

Les solutions DAM actuelles sont en position "A" sur les graphiques de Christensen. (Voir billet de 2006).

Pour cette “étude de cas”, je vais m’appuyer sur quelques phrases clefs, extraites de cet article de 2015 cité plus haut, pour illustrer comment WizyVision répond à la définition ”innovation de rupture”. Cette analyse pédagogique permet de mieux comprendre les fondamentaux d’une démarche de ce type.

Christensen model for WizyVision

Phrase 1 : “Disruption” describes a process whereby a smaller company with fewer resources is able to successfully challenge established incumbent businesses. (La rupture décrit un processus où une entreprise plus petite, avec moins de ressources, est capable de défier avec succès des entreprises présentes sur ces marchés depuis longtemps.)

WizyVision, née en 2019, emploie une dizaine de salariés et se développe sur fonds propres, qui ne se mesurent pas en millions d’euros ! En 2019, Adobe, créée en 1982, 21 000 salariés, avait un Chiffre d’Affaires de 11 milliards de dollars. OpenText, la plus grande entreprise de logiciels du Canada, née en 1991, emploie 12 000 personnes et son Chiffre d’Affaires 2019 était de 3 milliards de dollars.

 

Phrase 2 : In the case of new-market footholds, disrupters create a market where none existed. Put simply, they find a way to turn nonconsumers into consumers. (Dans le cas des entreprises qui s’attaquent à un nouveau marché, les entreprises de rupture créent un marché qui n’existait pas. Dis simplement, elles trouvent le moyen de transformer les non-consommateurs en consommateurs.)

WizyVision vs DAM Small group  large GroupWizyVision s’adresse à tous les collaborateurs d’une entreprise, qui n’ont pas accès aujourd’hui à un DAM, et propose, à des prix très compétitifs, les fonctions essentielles d’accès et de collaboration sur des contenus photos et vidéos. Le coût de la solution est indépendant du nombre d’utilisateurs, ce qui permet de proposer des services nouveaux à 100% des collaborateurs d’une entreprise.

En 2020, WizyVision se trouve en position "C" sur les courbes de Christensen.

 

Phrase 3 : Disruptive innovations, on the other hand, are initially considered inferior by most of an incumbent’s customers. (Les innovations de rupture sont, d’un autre côté, considérées au début comme inférieures par la majorité des clients existants.)

WizyVision a été éliminé d’appels d’offres DAM “classiques” car nous n’avions pas la réponse à l’impressionnante liste des fonctionnalités demandées. Ceci nous a amenés à changer notre nom initial, WizDAM, en WizyVision pour nous démarquer clairement des solutions DAM existantes.

 

Phrase 4 : The term “disruptive innovation” is misleading when it is used to refer to a product or service at one fixed point, rather than to the evolution of that product or service over time. (L’expression “innovation de rupture” n’est pas adaptée quand elle est utilisée pour parler d’un produit ou d’un service à un instant donné, plutôt que de se référer à l’évolution de ce produit ou de ce service dans le temps.)

WIzyVision de C à D sur ChristensenWizyVision démarre en 2020 avec une offre MVP (Minimum Viable Product) qui propose les fonctions de base suffisantes pour apporter de la valeur à des utilisateurs qui n’avaient jusqu’à présent jamais eu accès à un outil leur permettant de gérer leurs contenus multimédias. En s’appuyant sur la puissance des clouds publics et des outils d’Intelligence Artificielle, l’offre de WizyVision évolue très vite et développe des services innovants que les fournisseurs classiques seront incapables de proposer. Il s’agit en priorité de répondre aux attentes des collaborateurs opérationnels pour des cas d’usages métiers spécifiques, dopés à l’Intelligence Artificielle.

L'objectif de WizyVision est de se trouver, le plus vite possible, en position "D" sur les courbes de Christensen.

Phrase 5 : The fact that disruption can take time helps to explain why incumbents frequently overlook disrupters. (Le fait que cette rupture prend du temps explique pourquoi les fournisseurs existants ignorent souvent les entreprises de rupture sur leurs marchés.)

Il est encore trop tôt pour savoir si WizyVision sera ou non sur le radar des leaders actuels des outils DAM. Mon sentiment est qu’ils vont considérer que le marché va rester focalisé sur les besoins spécialisés et complexes des départements de communication et de marketing. Le “nouveau” marché des usages multimédia pour tous les collaborateurs d’une entreprise ne leur semblera pas porteur, et ils seraient incapables de l’adresser au vu de leurs structures de coûts.

 

Phrase 6 : In contrast, the digital technologies that allowed personal computers to disrupt minicomputers improved much more quickly. (En revanche, ce sont les technologies numériques qui ont permis aux ordinateurs personnels de perturber beaucoup plus vite les mini-ordinateurs.)

C’est l’un des avantages clefs de lancer une entreprise numérique en 2020. En proposant dès le début une offre SaaS sur un cloud public, WizyVision a la capacité de rendre ses solutions immédiatement accessibles aux entreprises du monde entier. En s’appuyant sur les meilleurs logiciels existants dans les domaines du stockage, du traitement des images et des vidéos, de l’intelligence artificielle, WizyVision est en capacité de rentrer très vite dans un grand nombre d’entreprises et d’avoir un plus grand nombre d’utilisateurs de ses solutions que les grands acteurs existants, limités au seul créneau des départements marketing et communication.

 

Phrase 7. Some disruptive innovations succeed; some don’t. (Quelques innovations de rupture réussissent, d’autres pas.)

AdS DPC failure success S 133104203Créer une entreprise est toujours difficile et parsemé d’incertitudes ! Suivre à la lettre les enseignements de Clayton Christensen et avoir tous les attributs d’une innovation de rupture n’est pas une garantie de succès ! Il faudra attendre quelques années pour savoir si WizyVision réussit à s’imposer en répondant à des attentes qui n’étaient pas couvertes par les solutions existantes.

Rendez-vous est pris en 2022 !

 

Synthèse

AdS DPC Leadership S 170209190Clayton Christensen fait partie de ces très rares personnes qui auront profondément influencé des milliers de dirigeants. Il leur a permis :

● “Disrupteurs”, de faire tomber plus rapidement les acteurs dominants.

● “Disruptés”, de mieux comprendre les risques et s’adapter pour résister aux nouveaux entrants.

Ces combats entre “disrupteurs” et “disruptés” vont s’intensifier dans les années qui viennent. Les dirigeants qui ne l’ont pas encore fait doivent impérativement lire les principaux ouvrages de Clayton Christensen et, surtout, en appliquer les principes dans leurs différents métiers.

Le monde a perdu, cette semaine, un très grand monsieur.

 


Numérique, technologies, au service de la planète ?

 

Cover book More for LessEt si la croissance du numérique et de toutes les technologies innovantes était bonne pour la planète ?

En cette période de COP25, se poser la question a du sens.

Je viens de terminer la lecture de “More From Less”, de Andrew McAfee, économiste et chercheur au MIT de Boston, publié il y a quelques semaines.

Dans une période où le pessimisme l’emporte, en particulier sur l’avenir de notre planète, il est réconfortant de lire un ouvrage qui propose une vision optimiste, positive de ce qu’il est possible de faire, rapidement.

Comme le dit un commentaire de Christine Lagarde sur la couverture, son contenu est vraiment contre-intuitif”. J’ai moi aussi eu souvent des réactions de surprise ou de rejet devant certaines des affirmations et démonstrations d’Andrew McAfee. 

Cet ouvrage n’est pas la seule source que j’ai utilisée pour écrire ce billet, trois fois plus long que d’habitude, mais c’est lui qui m’a donné envie de l’écrire.

Je vous demande aussi d’avoir le “courage” de ne pas rejeter les idées que je présente avant de l'avoir lu dans son intégralité.

 

Un peu d’histoire économique : avant la révolution industrielle

More From Less” est un livre d’économiste, et l’on s’en rend compte rapidement : il y a de nombreuses références à des études scientifiques et beaucoup de graphiques qui illustrent des tendances à long terme.

Face aux défis posés par le réchauffement climatique, beaucoup pensent que la solution de tous les maux de la planète est dans le retour au passé, à l’époque qui a précédé la révolution industrielle, qui a commencé vers les années 1800.

Auriez-vous souhaité vivre avant l’année 1800 ? Moi, non !

En 1800, il y avait un milliard de personnes sur terre, dont l’espérance de vie moyenne était de... 40 années.

Comme le montre ce graphique, cette espérance de vie avait des hauts et des bas prononcés ; les graves crises sanitaires, telles que la peste, déclenchaient des baisses brutales de l’espérance de vie des humains. 

Sur la période 1000 - 1800, cette espérance de vie a été en moyenne de 28 années !

Espérance vie monde 1500 - 2015

Sur cette même période, 1000 - 1800, le revenu par personne avait augmenté de 50%, en… 800 ans, un taux de croissance exceptionnel !

 

La première révolution industrielle, à partir de l'année 1800

La première machine à vapeur de Watt et Boulton date de l’année 1776. C’est pour de nombreux historiens de l’économie “l’idée la plus puissante au monde”, et elle annonce la première révolution industrielle.

La croissance économique décolle rapidement à partir de l’année 1800. L’une des caractéristiques essentielles de cette première révolution industrielle, c’est le parallélisme entre cette croissance économique et la consommation de ressources matérielles extraites de la terre, comme le démontre Andrew McAfee dans son livre. 

J’en ai extrait deux graphiques qui illustrent ce parallélisme :

- Croissance économique des USA et la consommation d’acier, d’aluminium et d’engrais, entre les années 1900 et 1970.

PRI - US GDP & Ressources :: 1900 - 1970

- Croissance économique des USA et la consommation d’énergie, entre les années 1800 et 1970.

PRI - US GDP & Energy :: 1800 - 1970

Il n’a pas fallu très longtemps pour que des économistes s’inquiètent de cette forte croissance ; ce pessimisme se retrouve dans deux ouvrages cités par Andrew McAfee.

- William Jevons publie en 1865 “la question du charbon”. Il prédit qu’au rythme actuel de croissance de sa consommation, tout le charbon disponible aura disparu en moins de 100 ans.

  - Alfred Marshall publie “Principes de l’économie” en 1890. Ce livre de 800 pages, un grand texte à la base de l’économie moderne, annonce que “we want more”, que l’humanité en demande toujours plus et que les ressources de la terre ne sont pas infinies.

L’année 1970 marque un tournant majeur dans cette prise de conscience des impacts négatifs d’une croissance parallèle de l’économie et des ressources consommées.

Earth Day 22 April 1970  New York TimesLe 22 avril 1970, le premier “Earth Day”, jour de la terre, est organisé aux USA. Plus de 20 millions de personnes défilent dans les rues. Républicains et démocrates, pour une fois unis, y participent et les premières lois environnementales sont votées avant la fin de l’année 1970 :

  • Création de l’agence de protection de l’environnement, EPA.
  • Lois de protection des espèces en danger.
  • Lois sur air propre et eau propre : clean air, clean water.

Il y a un avant et un après “Earth Day”, qui est célébré tous les ans le 22 avril.

Andrew McAfee note dans son livre que l’humanité a toujours tendance à donner plus de valeur aux visions pessimistes face à celles qui sont optimistes. Nostradamus en est un bon exemple.

Ceci se vérifie dans les années qui suivent “Earth Day”. Cet article regroupe 18 prédictions de catastrophes qui, heureusement, ne se sont pas produites.

J’en ai extrait trois, à titre d’exemple :

  • Paul Ehrlich était l’un des plus pessimistes : il annonçait que, entre 1980 et 1989 (admirez la précision) 4 milliards de personnes, dont 65 millions d’Américains, allaient mourir de faim.
  • L’écologiste Kenneth Watt, l’organisateur de la Earth Day, prédisait que l’on allait vers un “âge de glace” avec une température qui baisserait de 4° d’ici à 1990 et de 11° en 2000 !
  • Un scientifique de l’académie des sciences, Harrison Brown, annonçait que les réserves d’or, d’argent, de plomb et de zinc auraient disparu en 1990, et celles de cuivre en 2000.

Cette année 1970 est aussi emblématique, car l’économie mondiale allait basculer dans la deuxième vague de la révolution industrielle, et personne ne s’en était rendu compte...

 

Révolution industrielle : l’après 1970, la dématérialisation de l’économie

C’est à mon avis l’apport principal de Andrew McAfee dans son livre, “More From Less”.

Il met clairement en évidence que, depuis 1970, il n’y a plus de parallélisme entre la croissance économique et l’usage des ressources finies de la terre.

Il a donné le nom de “dématérialisation” à ce phénomène majeur qui lui permet d’être raisonnablement optimiste sur l’avenir de la planète.

Il avait abordé le sujet dans son livre précédent, “Second Machine Age”, publié en 2015 et co-écrit avec Eric Brynjolfsson.

Un autre texte essentiel sur ce sujet a été publié en 2015 par Jesse Ausubel : “Le retour de la nature, comment la technologie libère l’environnement”. Quelques graphiques utilisés dans ce billet en sont extraits. 

C’est un document de quelques pages, dont la lecture est indispensable pour toute personne qui souhaite comprendre “rationnellement” les mutations positives et rapides de l’économie mondiale. Vous ne sortirez pas “indemne” de cette lecture !

Ces trois graphiques, choisis parmi plusieurs dizaines, illustrent ce découplage entre la croissance économique et la consommation de ressources physiques limitées, qui a commencé, je le rappelle, dès 1970, il y a 50 ans.

Découplage de la consommation d’énergie et de l’émission de CO2 aux USA (1800 à 2017).

US GDP & Energy 1800 - 2017

Décroissance des usages de matières premières aux USA (1900 à 2015)

Décroissance usages matières premières USA

Maïs aux USA : découplage entre surfaces plantées et production (1870 à 2015)

Rendements Mais USA

Un autre phénomène remarquable et positif c’est produit depuis 1970 : les conditions de vie de l’immense majorité de l’humanité se sont améliorées de manière exceptionnellement rapide.

En voici deux exemples : 

- Le nombre de personnes vivant en situation d’extrême pauvreté, avec moins de 1,25$ par jour, a fortement baissé depuis les années… 1970.

Population extreme powerty 1820 - 2015

- Nourriture, en Kcalories, disponible par personne, par continent. En 1970, l’Amérique du Sud, l’Asie et l’Afrique et la moyenne du Monde étaient sous le niveau de 2 500 Kcalories, correspondant aux besoins d’une personne qui travaille à temps plein. Depuis 2013, plus aucun continent n’est sous ce seuil.

Food in KCal : region 1970 - 2013

L’image de l’évolution du monde que me renvoient ces statistiques est… encourageante, alors que le discours dominant que j’entends tous les jours est anxiogène.

Qui croire ?

 

Deux visions du futur

Deux visions opposées du futur de la planète s’opposent aujourd’hui.

La première, pessimiste, alarmiste, considère que nous avons choisi le mauvais chemin, celui de la croissance, et qu’il est urgent de faire marche arrière.

Dans cette vision négative, les quatre cavaliers de l’apocalypse qui menacent le monde d’une mort rapide sont :

  • La croissance économique sans limites.
  • La mondialisation.
  • Les inégalités sociales.
  • La surpopulation.

4 cavaliers apocalypse

La deuxième, défendue avec brio par Andrew McAfee, considère que l’on est sur la bonne voie, que la dématérialisation de l’économie est une réalité en 2019 et que c’est au contraire… en accélérant que l’on pourra créer un monde où les futures générations pourront dire merci à leurs parents pour les actions qu’ils ont menées.

Il ne suffit pas d’avoir choisi la bonne direction, il faut continuer à agir avec force pour que les très nombreux problèmes qui restent à régler, et en priorité les évolutions du climat, trouvent des solutions pérennes.

Les “quatre chevaux de l’optimisme”, définis par Andrew McAfee comme moteurs de ces évolutions vers un monde meilleur sont :

  • Le capitalisme.
  • Le progrès technologique, et en priorité le numérique. (Technological progress)
  • Des gouvernements responsables. (Responsive Government)
  • La prise de conscience du public. (Public Awareness)

4 chevaux optimisme CTGP

Quelles sont les meilleures pistes, les plus grands dangers qui menacent cette dématérialisation de nos activités économiques ?


Accélérer la dématérialisation de l’économie

C’est le thème central du livre “More From Less” ; je vous en conseille fortement la lecture pour en comprendre dans le détail les modalités, que je vais résumer dans ce paragraphe.

Capitalisme

Liberté d’entreprendre, faire confiance au marché, encourager et rémunérer les entrepreneurs qui prennent des risques, investir pour réduire ses coûts, rechercher des profits… ce ne sont pas des démarches “honteuses”.

La situation est limpide : toutes les économies “riches” sont capitalistes en 2019.

Le contre-exemple parfait est celui du Venezuela. C’était, en 2001, le plus riche des pays d’Amérique du Sud avant qu'il ne bascule dans le socialisme pour devenir en moins de 20 ans un enfer pour ses citoyens. En 2018, 5 000 personnes par jour ont fui en Colombie. Le taux d’inflation de septembre 2019 n’était que de 39113 %, en “progrès” par rapport à celui d’août qui avait atteint 58561 %.

Deuxième exemple : l’Afrique subsaharienne  a un retard économique majeur par rapport au reste du monde ; c’est dans cette région que le nombre de régimes politiques ouverts et capitalistes est le plus faible.

A l’inverse, entre 1978 pour la Chine, et 1991 pour l’Inde, 40% de la population mondiale est devenue “plus capitaliste”, avec à la clef les extraordinaires résultats économiques obtenus par ces deux pays.

Le niveau de dématérialisation de l’économie, le niveau de santé varie fortement en fonction du niveau de développement économique des pays comme le montrent ces deux exemples :

- Les rendements agricoles, bœuf et lait, ont fait des progrès spectaculaires dans les pays riches, beaucoup moins dans les autres.

Animal yields by economical level of countries

Les taux de mortalité des mères et des enfants en bas âge ont baissé beaucoup plus vite dans les pays riches que dans les pays peu développés.

Maternal & child mortality:region 1990 - 2015

Les impacts de ces inégalités sur l’état de la planète ? Indira Gandhi l’a bien compris en disant lors de la première conférence de l’ONU sur l’environnement en 1972 que la pauvreté est le plus grand pollueur”. Les économies riches polluent beaucoup moins que les pauvres. C’est en créant plus de croissance, plus de richesse, avec plus d’innovation et de capitalisme que l’on peut améliorer la situation mondiale.

Innovations technologiques et numériques

Nous sommes devenus meilleurs dans ce que nous faisions ! La deuxième vague de la révolution industrielle, poussée en priorité par la croissance exponentielle de la puissance des outils numériques accélère ce découplement de la croissance économique et de l’extraction de ressources de la terre.

L’exemple le plus emblématique est celui du smartphone, apparu en 2007 : un smartphone de 200 g et quelques centaines d’euros remplace aujourd’hui :

  • De nombreux objets physiques :
    • Téléphone classique
    • Appareil de photo
    • Caméscope
    • Lecteur de cassettes audio ou de CD 
    • Lecteur de DVD
    • GPS
    • Réveil
    • Montre
    • Radio
    • Calculatrice

Smartphone remplace nombreux objets

Oui, un smartphone consomme des métaux nobles et rares et de l’énergie pour être fabriqué. Oui, il consomme aussi de l’énergie pendant ses usages. Dans les deux cas, c’est beaucoup moins que ce que consommaient l’ensemble des outils qu’il remplace. 

Merci, le smartphone ! Grâce à vous, la planète se porte mieux !

  • De nombreux supports “physiques” d’information :
    • Cartes routières imprimées
    • Album de photos
    • Encyclopédies et dictionnaires
    • Guides de voyages, de restaurants, d’hôtels...
    • Agenda papier, à renouveler tous les ans
    • Annuaire téléphonique de ses contacts
    • Collections de disques vinyle, de CD et de DVD
    • ...

Smartphone remplace nombreux contenus

Quel est le coût pour la planète d’un DVD que l’on achète pour visionner un film, que l’on garde et que l’on ne “re-garde” jamais plus ? Les dizaines de kilos de papier de l’Encyclopedia Universalis que personne ne consultera plus jamais, car les informations qu’elle contient sont obsolètes ont représenté beaucoup de bois et d’énergie pour être fabriqués.

Il existe de nombreuses démarches d’innovations techniques possibles pour accélérer cette dématérialisation de l’économie. Les quatre principales sont bien identifiées :

  • Réduire les usages : les premières boîtes de Coca-Cola en aluminium pesaient 85 g en 1996 ; elles pèsent 12,85 g en 2011. Cela représente une diminution du poids de 85 %.
  • Remplacer : un kilogramme d’Uranium 235 dans une centrale nucléaire procure autant d’énergie que 2 à 3 millions de tonnes de charbon. C’est aussi une ressource non renouvelable, oui, mais de plus en plus recyclable, et elle n’émet aucun gaz à effet de serre.
  • Optimiser : le taux de remplissage des avions est passé de 56 % en 1971 à 81% en 2018 avec le développement des programmes informatiques de “Yield Management” qui optimisent ce taux de remplissage en faisant varier les prix de vente. Une augmentation de 44 % de l’efficacité du transport aérien mondial, c’est tout sauf marginal. Ils sont hélas encore nombreux ceux qui regrettent la “bonne vieille époque” où le prix d’un billet de train ou d’avion était stable et prévisible...
  • Supprimer : les énergies hydrauliques, éoliennes et solaires ne consomment aucune ressource terrestre périssable pendant leur fonctionnement. Elles consomment des ressources pour leur fabrication, oui, mais comme toutes les sources d’énergie, telles que les turbines à gaz ou les moteurs diesels. Le numérique est un très bon élève dans ce domaine. Comme le montre ce graphique, les entreprises GAFAM, si souvent décriées, sont les plus vertueuses du monde dans leurs usages d’énergies renouvelables. Elles représentent 5 des 6 meilleurs au monde ; Google est maintenant à 100 %. Merci aux GAFAM, de la part de la planète reconnaissante…

Best users energy Google

 

Gouvernements responsables

Le capitalisme, l’innovation sans aucun contrôle peuvent engendrer des catastrophes et la majorité des économistes responsables disent que les gouvernements ont des rôles clefs à jouer pour fixer des règles fortes qui protègent les personnes et la planète.

Ce sont les gouvernements qui doivent prendre en compte les “externalités négatives”, aussi appelées les “spillovers”. Une entreprise qui pollue l’air ambiant ou la rivière où elle déverse ses déchets chimiques sans pénalités ne fera probablement pas beaucoup d’efforts pour réduire ses nuisances.

Tout n’est pas noir dans ce domaine, et plusieurs succès majeurs ont déjà été obtenus.

La suppression des émissions de CFC, pour protéger la couche d’ozone, en est un bon exemple. Le protocole de Montréal signé en 1987 prévoyait au départ une réduction de 50% des émissions ; il a été étendu rapidement à 100%. Les entreprises qui utilisaient ces gaz pour leurs produits tels que les aérosols ont rapidement trouvé des substituts et ont, en même temps, réduit leurs prix de revient !

CFC reduction

Autre succès majeur : les émissions de polluants par les voitures, y compris les SUV et les Pick-up, ont été réduites de 99% aux USA entre 1970 et 2019, avec des moteurs qui en plus sont 42% plus légers. Et c’est aux USA ! L’Europe a fait beaucoup mieux.

Il reste beaucoup de problèmes majeurs pour lesquels il n’existe pas, aujourd’hui, de solutions satisfaisantes.

Andrew McAfee a clairement identifié le domaine où le rôle des états est primordial : gérer la “tragédie” des ressources communes, accessible par tous, n’appartenant à personne, comme les océans et les problèmes de sur-pêche. Dans ce domaine aussi, nous avons fait des progrès, insuffisants, mais réels.

Le rejet des plastiques dans les mers est l’un de ces sujets à régler de toute urgence ; on estime ce volume à 8 millions de tonnes par an. Ce chiffre fait peur, et c’est bien sur l’objectif.

Et si, sur ce défi précis, l’on regardait avec un peu de pragmatisme et de rationalité la réalité.

Pour résoudre ce problème, un jeune hollandais de 18 ans, Boyan Slat, a créé en 2013 la société OceanCleanUp. Son histoire est passionnante, inspirante et confirme qu’il faut faire confiance à la jeunesse, à l’entreprise et la technologie pour s’attaquer aux grands problèmes du monde.

Sa première idée était de récupérer les plastiques déjà dans l’océan et il a construit des bateaux qui sont opérationnels pour cela.

Il s’est ensuite posé une excellente question : et si l’on prenait le problème à la base : que ce passerait-il si on pouvait intercepter ces plastiques dans les rivières avant qu’ils n’atteignent la mer ?

Des caméras posées sur les ponts des rivières, aidées par des logiciels d’intelligence artificielle, ont mesuré le volume de plastique charrié par les rivières du monde. Ces mesures, loi de Pareto oblige, ont montré que 1 000 rivières étaient responsables de 80 % des rejets de plastique dans la mer.

Un peu d’arithmétique simple, partant du chiffre de 8 millions de tonnes par an, montre que ces 1 000 rivières transportent chacune en moyenne 6 400 tonnes par an, soit 17 tonnes par jour.

La nouvelle version de leur bateau, baptisé “interceptor”, annoncé en fin 2019, est capable d’ingurgiter entre 50 et 100 tonnes de plastiques par jour. Il est alimenté à 100 % en énergie solaire et peut fonctionner 24h/24. Le premier bateau a été testé avec succès aux Pays-Bas, qui n’est pas le pays le plus ensoleillé du monde !

Bateau ramassage plastiques rivières

Regardez cette vidéo de 25 minutes,


c’est une excellente cure d’optimisme avant le début de la nouvelle année !

En prenant l’hypothèse basse de 50 tonnes, et sans tenir compte des progrès qui seront réalisés au cours des prochaines années, il suffirait de 1000 bateaux OceanCleanUp dans le monde pour que le flux de plastiques nouveaux dans la mer soit tari. Boyan Slat c’est fixé comme objectif de fabriquer ces 1 000 bateaux en 5 ans ! Bravo pour l’ambition.

Les trois premiers sont déjà opérationnels en Indonésie, Malaisie et Vietnam ; les deux prochains seront en République Dominicaine et à … Los Angeles.

Je ne connais pas le prix de vente d’une tonne de plastique aux entreprises qui les recyclent, mais chaque bateau peut récupérer jusqu’à 18 000 tonnes de plastiques par an. Je suis prêt à parier que cette opération sera économiquement rentable, sans avoir besoin de subventions des états.

J’ai choisi d’analyser pour vous en détail ce problème précis pour montrer que l’on peut, que l’on doit être optimiste.

J’aimerais bien que toutes les personnes qui se plaignent en permanence de la pollution des mers par les plastiques et qui en parlent dans les médias se fassent le relais de ce projet “OceanCleanUp” pour que tous les gouvernements des pays où sont ces 1 000 rivières commandent immédiatement leur “Interceptor”. Ce que je crains, c’est qu’ils ne le fassent pas en prétextant que “cela ne peut pas fonctionner” alors que leur véritable motivation est toute autre, hélas. Si cela fonctionne, mon métier de lanceur d’alerte disparaît !

Andrew McAfee confirme la tendance de l’humanité à donner plus de valeur aux visions pessimistes face à celles qui sont optimistes. Il cite dans son livre plusieurs économistes qui essaient d’aller contre ce biais négatif, mais avec beaucoup de difficultés : Simon, Rosling, Pinker, Roser….

 

Le défi le plus urgent : réchauffement climatique

LE problème le plus urgent, non réglé aujourd’hui est celui du climat. Il a été remarquablement résumé par le scientifique Kim Nicolas :

  • Ça se réchauffe.
  • C’est nous.
  • Nous en sommes sûrs.
  • C’est mauvais.
  • Nous pouvons trouver des solutions.

Nasa Climate

De premières solutions sont connues, telles qu’une taxe carbone mondiale. En faisant payer, cher, les pollueurs, qui sont pour l’essentiel des acteurs économiques “capitalistes”, on peut leur faire confiance pour trouver des moyens techniques et numériques innovants pour réduire leur facture. 

L’absence totale de résultats significatifs après la COP25 qui vient de se terminer à Madrid n’est pas un signal positif. 25 000 personnes se sont réunies pendant 2 semaines, sans trouver le moindre accord sérieux. En 2020, à l’inverse de ce qui c’était passé en 1970 après le “Jour de la terre” ou à Montréal en 1987 pour le CFC, il existe trop de gouvernements “irresponsables”, tels que les USA ou le Brésil, dont les dirigeants incompétents refusent les évidences scientifiques et croient, ou font semblant de croire que le réchauffement de la terre n’est pas lié aux activités humaines.

Un accord sur une taxe carbone n’a pas pu être signé ; c’était pourtant l’objectif prioritaire de cette COP25...

 

Défis pour les années 2020 - 2025

AdS DPC green HopeNous connaissons les quatre chevaux de l’optimisme qui peuvent, ou non, nous faire avancer rapidement vers un monde meilleur.

Où en sommes-nous, à la veille de l’année 2020 ?

Je sens profondément qu’il y a d’excellentes raisons de garder espoir

Je suis très optimiste sur la dimension technologique et numérique, raisonnablement optimiste sur la dimension capitalisme, prudent sur la dimension politique et très inquiet en ce qui concerne le grand public.

Technologie et numérique

Des milliers d’entreprises existantes, des milliers d’entrepreneurs travaillent tous les jours, dans le monde entier, pour imaginer des innovations technologiques de rupture qui apporteront des réponses aux nombreux défis qu’il faut affronter pour permettre à notre planète de rester un lieu de vie exceptionnel pour tous les humains.

Sur cette dimension “technologie”, je ne suis pas inquiet, au contraire. Nous aurons à notre disposition de plus en plus de solutions performantes pour continuer à dématérialiser notre économie.

Capitalisme

Le capitalisme moderne fonctionne bien, plutôt mieux qu’il y a des dizaines d’années. Le financement des startups en est un bon exemple : il est plus facile en 2020 de lancer des entreprises innovantes qu’il y a 20 ans.

Appuyer sur les accélérateurs de l’innovation technologique et numérique et de plus de capitalisme est la meilleure solution pour améliorer la situation de la planète, et non pas un ralentissement et un retour à monde ancien, perçu comme meilleur, alors que ce n’était absolument pas le cas.

Gouvernements responsables

Je n’ai pas envie de sombrer dans un pessimisme noir que l’absence totale de résultats de la COP25 pourrait déclencher. Les décisions du continent Europe de devenir “neutre carbone” en 2050 sont encourageants, même si la Pologne a refusé de s’engager. Des pays comme la Hongrie et la République tchèque ont obtenu que le nucléaire fasse partie des solutions envisageables ; il faut les remercier de cette position qui pourrait permettre à d’autres pays, comme la France, de “redécouvrir” les vertus des solutions nucléaires pour apporter rapidement des solutions fiables et sûres aux enjeux climatiques mondiaux.

Prise de conscience du public

Je suis beaucoup plus inquiet sur la dimension prise de conscience du public

La volonté des jeunes générations de s’attaquer au problème du réchauffement climatique me remplit d’espoir. En même temps, le suis consterné par leur trop forte sensibilité aux “fake news” et leur tendance à rechercher des solutions dans le passé plutôt que de se projeter dans un futur où l’innovation technologique est l’une des clefs du succès.

Les croyances qui ont bloqué et bloquent encore l’évolution raisonnable, raisonnée des innovations et d’une croissance “More From Less” sont de plus en plus nombreuses, fortes et inquiétantes. 

Quelques illustrations :

Terre plate créationistes

  • La terre est plate. Même s’ils sont ultra-minoritaires, il est quand même très “surprenant” de constater qu’il existe encore des personnes qui sont convaincues que la terre est plate, quand des millions d’images venant des satellites démontrent le contraire.
  • Le créationnisme, persuadé que le monde c’est créé comme l’indique la Bible. Ce mouvement est très présent aux USA comme le démontre, hélas, la création en 2016 du parc d’attractions Ark au Kentucky. Il présente aux visiteurs, heureusement moins nombreux que prévu, l’histoire de l’humanité en suivant à la lettre les enseignements de la Bible.
  • Les vaccins sont dangereux pour les enfants. Apprendre que la France fait partie des pays champions du monde des anti vaccins ne me rend pas très fier d’être français. Bravo, l’Europe ! Le nombre de cas de rougeole a doublé sur les six premiers mois de 2019 par rapport à 2018, avec déjà une centaine de morts qui auraient pu être évités. Et si l’on passait une loi permettant que les parents qui ne vaccinent pas leurs enfants puissent être jugés comme assassins de ces autres enfants morts par leur faute ?
  • L’énergie nucléaire est dangereuse. La France est l’un des pays d’Europe qui a le meilleur bilan carbone grâce au pari politique et économique audacieux du Général de Gaulle dans les années 1970 de promouvoir une énergie électrique avec une forte composante nucléaire. Rationnellement, c’est l’énergie la moins dangereuse du monde, mais essayer d’en convaincre des organismes comme Greenpeace, c’est tout sauf simple ! Que c’est difficile pour ces personnes, ces organismes qui ne prennent en compte que l’affectif de faire des choix cartésiens ! La fusion nucléaire, les nouvelles “petites” centrales sont des pistes d’amélioration exceptionnelles. Ne pas soutenir ces innovations, ne pas y investir, c’est rendre un très très mauvais service à la planète. 
  • Tous les OGM doivent être interdits. Le “golden rice” est un riz génétiquement modifié pour apporter des vitamines A aux personnes qui en manquent. L’UNICEF estime que 670 000 personnes meurent et 500 000 enfants deviennent aveugles chaque année à cause de cette carence. Les progrès sont tels que le "golden rice" version 2 est disponible depuis 2005 et produit 23 fois plus de vitamine A que la version 1. 107 prix Nobel sont pour, la Fondation Bill et Melinda Gates soutient le projet, mais Greenpeace est contre, car… cela ouvrirait la porte à d’autres OGM ! Ils font croire que les “grands méchants” industriels vont utiliser le "golden rice" comme un cheval de Troie pour inonder ensuite la planète d’autres OGM. Avoir ces millions de morts sur la conscience, cela ne les empêche pas de dormir ? Ces raisonnements “extrémistes” sont mortellement dangereux. Oui, il est réaliste de penser que certains OGM vont créer des crises alimentaires, oui, mais d’autres, beaucoup d’autres vont sauver des millions de vie. Cette culture assassine du risque zéro est l’une des plus grandes menaces pour l’humanité.

Anti Vaccins & nucléaire

Comment éviter que ces croyances dangereuses, superstitions colportées par des inconscients qui ignorent la rationalité et la science ne bloquent des solutions qui peuvent rapidement sauver notre planète ?

Il faudra beaucoup de courage aux gouvernants de tous les pays du monde pour s’engager dans ces combats.

 

Synthèse

DTN - Pari de Pascal - Avenir climatMerci à tous ceux qui auront fait l’effort de lire jusqu’à la fin ce long billet. A l’aube de l’année 2020, il pose beaucoup de questions essentielles sur l’avenir de l’humanité.

Je vous propose un nouveau “Pari de Pascal” pour la planète :

- Hypothèse “Dieu Existe” = la dématérialisation existe. L’accélération du mouvement industriel de dématérialisation de l’économie permet de préparer un avenir positif, le dérèglement climatique restant une priorité absolue.

- Hypothèse “Dieu n’existe pas” : il faut appuyer sur le frein, ralentir la croissance, la mondialisation, l’innovation technologique et numérique, freiner la croissance démographique pour espérer revenir à un monde meilleur, dans lequel nous étions auparavant.

Je vous souhaite à tous une excellente année 2020, en exprimant le souhait que cette nouvelle année se termine avec un maximum d’avancées positives, rendues possibles par de belles innovations numériques et technologiques de rupture, que ni vous ni moi ne connaissons encore.

Mises à jour permanentes : je vais ajouter périodiquement des informations qui peuvent enrichir le débat sur ce sujet essentiel.

18 décembre 2019. De manière volontaire, toute la profession du transport maritime mondial vient de décider d'établir une taxe de 2$ par tonne sur le combustible très polluant utilisé par les navires qui font du transport international. Le "Capitalisme" va investir sur 10 ans 5 milliards de dollars avec pour objectif de devenir neutre carbone en 2050. Ils n'ont pas attendu des subventions des états, bravo.

18 décembre 2019. Une remarquable liste de 99 événements positifs pour la planète qui se sont déroulés en 2019 dans tous les domaines abordés dans ce billet : climat, santé, standard de vie, numérique, énergie...


Un si long silence…

 

AdS DPC Silence emoticon 30562777Trois mois sans publier un nouveau billet sur mon blog, cela ne m’était jamais arrivé !

Il y a une raison à ce silence, même si ce n’est pas une excuse.

 Je viens de terminer la rédaction d’un livre qui sera publié début septembre 2018. Il est coécrit avec Dominique Mockly, PDG de Teréga, opérateur français d'infrastructures gazières, auteur de "L'entreprise cerveau : petite apologie de la curiosité " publié en 2015 aux éditions Débats Publics et qui a engagé une Transformation importante de l'entreprise qu'il dirige avec un volet numérique décisif."

Son titre :

Dirigeants, Acteurs de la Transformation Numérique

C’est, à ma connaissance, la première fois qu’un dirigeant et un spécialiste du numérique mettent en commun leurs compétences pour traiter ce sujet.

Il sera publié directement sur Amazon, en format papier et en format Kindle. Dans un autre billet, publié sur ce blog quelques jours avant la sortie de ce livre, j’en présenterai les principaux thèmes. Les lecteurs de mon blog y retrouveront un grand nombre des idées que j’y défends depuis de nombreuses années.

C’est un ouvrage court, destiné en priorité aux dirigeants d’entreprises, publiques et privées, grandes et moyennes.

Ses principaux objectifs :

  • Aider les dirigeants à comprendre les potentiels et les challenges de la Transformation Numérique de leur entreprise.
  • Leur faire découvrir les potentiels immédiats des solutions numériques opérationnelles.
  • Présenter les démarches de rupture qui permettent de mettre en œuvre, rapidement, une Transformation Numérique dans leur entreprise.
  • Etablir les règles d’une gouvernance efficace pour une Transformation Numérique réussie.

J’anime depuis des années des séminaires en interne pour aider des dirigeants à se préparer efficacement à la Transformation Numérique de leur entreprise.

L’écriture de ce livre m’a donné l’idée de proposer un séminaire interentreprises pour des dirigeants qui souhaitent aussi pouvoir échanger avec des dirigeants d’autres entreprises.

Séminaire Cap Institut DTN Louis NaugèsL’Institut CapGemini, avec qui je collabore depuis de nombreuses années, a accepté de le mettre à son catalogue. C’est le seul séminaire de ce catalogue qui dure une seule journée, pour permettre à des dirigeants de trouver plus facilement le temps d’y participer.

Son titre, vous l’avez deviné :

Dirigeants, Acteurs de la Transformation Numérique.

La première session aura lieu fin août 2018, avant la rentrée, pour permettre aux dirigeants qui y participeront de préparer leur plan d’action pour 2019.

Dès demain, promis, je reprends la publication de mes billets sur ce blog, avec la fréquence habituelle.

 


Tout savoir sur les réseaux sociaux

 

Gutenberg BibleOui, il m’arrive encore de lire de «vrais» livres ! J’en parle de temps en temps sur mon blog, que ce soit Nicholas Carr sur les impacts d’Internet sur notre cerveau (Il vient d’être traduit en français sous le titre «Internet rend-il bête ?») ou Christensen sur l’innovation.

Le livre, une technologie révolutionnaire ? Pour ceux qui ne l’auraient pas encore vue, je vous conseille ce petit chef-d'œuvre d’humour, disponible sur YouTube :

   

 

Réussir avec les réseaux sociaux

JF RuizAujourd’hui, je voudrais vous faire partager le plaisir que j’ai eu à lire le livre de Jean-François Ruiz, «Réussir avec les réseaux sociaux», livre qu’il a eu la gentillesse de m’offrir il y a quelques jours.

Ce n’est pas le premier livre que je lis sur ce sujet, en Anglais ou en Français. 

C’est par contre le premier que j’ai envie de recommander à toute personne intéressée par le sujet, et quel que soit son niveau de maîtrise du sujet.

Que vous soyez totalement débutant sur le sujet ou présent et actif sur les réseaux sociaux depuis plusieurs années, vous trouverez dans ce petit livre, facile et agréable à lire, des dizaines d’informations et d’idées que l’on peut mettre en pratique immédiatement.

 

Le contenu, en quelques lignes

Couverture RSE RuizL’essentiel y est ! Les principes, un panorama des principales solutions du marché, comment se comporter sur un réseau social, les principaux risques, les  usages personnels et professionnels, comment gérer sa présence multiréseaux, s’assurer une bonne visibilité....

Le chapitre «panorama des réseaux sociaux» sera probablement l’un des plus lus ; les avantages respectifs et différences entre les «grands» acteurs du marché, Facebook, LinkedIn, Twitter, Viadeo ou Xing sont clairement expliqués.

Il y a aussi quelques lignes sur les anciennes gloires telles que MySpace et quelques réseaux de niche : ASmallWorld ou Digikaa.

Ecrire un livre sur un sujet aussi évolutif est délicat : de nouvelles solutions naissent en permanence et Jean-François a du rajouter quelques pages sur la solution dont tout le monde parle, Google+; même s’il ne l’a pas placée dans la liste des grands du marché.

 

Google+ NaugèsBeaucoup de liens, des résumés clairs et un petit «quiz» à la fin de chacun des chapitres pour tester sa compréhension ; l’organisation du livre en permet une lecture très modulaire, chacun à son rythme.

 

Une forte orientation RSE, Réseaux Sociaux d’Entreprise

RSE 2C’est pour mol l’un des points les plus forts de ce livre ; la dimension professionnelle des réseaux sociaux est très bien analysée.

On y trouve d’excellents conseils pour les personnes qui souhaitent utiliser les réseaux sociaux pour améliorer leur efficacité au travail ou donner plus de visibilité à leurs compétences ; essayer de progresser dans sa vie professionnelle n’est pas un vilain défaut !

Il y a aussi des pages que tout responsable d’entreprise, tout DSI qui souhaite promouvoir un RSE dans son entreprise lira avec beaucoup de profits :

- Comment démarrer un RSE.

- Comment le faire vivre.

- Les principaux écueils à éviter.

  

Un livre écrit en mode «collaboratif 2.0»

Collaboration

Jean-François n’est pas le seul auteur de ce livre ; il a fait appel aux compétences de 14 autres personnes, toutes bien sur citées à la fin de l’ouvrage.

Ce livre est aussi intéressant dans la manière dont il a été écrit et réalisé : comment faire travailler 15 personnes sur un même texte ? Cela ne surprendra pas les lecteurs de ce blog d’apprendre que l’outil utilisé pour écrire ce livre était, bien sûr, Google Apps ! 

C’est un exemple emblématique de la valeur de ces outils collaboratifs natifs, les seuls qui permettent à un groupe de personnes, appartenant toutes à des entreprises différentes, travaillant dans des lieux différents, de produire rapidement un document aussi complexe que ce livre.

Il m’a été très difficile d’essayer d’imaginer qui avait pu écrire telle ou telle partie du livre ; c’est la meilleure preuve de la réussite de ce travail collectif.

Disclaimer : je connais Jean-François depuis plusieurs années et il a participé à l’une des premières missions de Revevol lors du démarrage de la société.

 

 


«L’homo interneticus» restera-t-il «l’homo sapiens» ? (Deuxième partie)


Nicolas Carr Rappel : Le troisième livre de Nicholas Carr, «What the Internet is doing to our brains: the shallows.», s’intéresse aux impacts d’Internet sur le cerveau humain. La première partie de cette analyse a mis en évidence les découvertes récentes des neurosciences sur l’extraordinaire plasticité de notre cerveau.

Cette deuxième partie fait le point sur les liens entre le fonctionnement de notre cerveau et Internet.
Hyperliens, multimédia, instantanéité, multitâches, bidirectionnalité... Ce sont, pour Nicholas Carr, les éléments qui différencient le plus Internet de nos «outils de l’esprit» traditionnels.

J’ai aussi choisi de mettre en évidence trois thèmes majeurs des «shallows» :
- Le bouleversement de notre relation au livre.
- Les processus de mémorisation.
- Les rôles et la responsabilité de... Google dans ces mutations.


Hypermédia

Hypermedia La numérisation de tous les contenus, textes, images, sons, vidéos a mis fin à la fragmentation historique des médias et de leurs outils de consommation.

Un livre pour un texte, un vinyle pour la musique, une cassette VHS pour un film, tout ceci disparait rapidement, remplacé par des «pages Web» multimédias où l’on peut accéder instantanément à un document PDF, Pandora pour sa radio sur mesure et à une vidéo YouTube.

Ces contenus multimédias se transforment en «hypermédia » par la généralisation des liens hypertextes. Si l’on y rajoute le multifenêtrage, l’interactivité, l’Internet se transforme en un :

  «Écosystème de technologies d’interruption»

L’hégémonie du Web sur le packaging et la circulation de l’information numérique devient totale, marginalisant progressivement tous les autres médias.
Nicolas Carr cite plusieurs études qui démontrent que plus il y a de liens, plus la dimension multimédia d’une page Web est grande, moins la compréhension d’un texte est bonne !
Tout ce passe comme si nos cerveaux, débordés par ces hyperliens, le multitâche, la variété des médias, retournaient à un état plus primitif, pré-Gutenberg !


Instantanéité

Eparpiller - Confetti Pour un «digital native» de la génération Y, devenir invisible sur le Web si l’on ne réagit pas en permanence, si l’on ne nourrit pas son réseau social est un risque majeur qu’il ne peut plus prendre.
S’y rajoute la nature «bi directionnelle » du Web 2.0, très différente des médias historiques tels que livre, presse, radio ou TV ; elle nous pousse à réagir en permanence et augmente encore le nombre d’interruptions que doit gérer notre cerveau.

Un internaute est aussi accaparé par la forte dimension «physique» du Web : on clique, on passe en mode portrait ou paysage sur l’iPhone ou l’iPad, on réagit à des signaux sonores ou visuels, on fait glisser sa souris....
En résumé :

L’Internet accapare notre attention pour mieux... l’éparpiller !


Le livre et Internet

Pour Nicholas Carr, l’impact d’internet sur notre capacité de lecture et de compréhension d’un livre classique, papier, est l’un des plus forts et des plus préoccupants.

Old Book Ce n’est pas la première fois que la fin des livres avait été annoncée, par erreur. Lamartine en 1831 disait que le seul livre survivant serait un journal. Philip Hubert pronostiquait, en 1889, après l’invention du phonographe que l’on écouterait les livres.

Quelques idées-forces défendues par Nicholas Carr :
- Avec Internet, on passe plus de temps à lire, mais... moins de temps à lire des livres.
- Les mots de l’écran ne sont plus les mots du livre.
- Nous avons migré vers un mode de lecture instantanée : pages Web, publicité, menus, étiquettes...Il est très différent du mode de lecture en profondeur que nous utilisions pour les livres.
Christian Science Monitor - La majorité des Américains passent plus de 8 heures par jour devant un écran, de TV, d’ordinateur ou de téléphone, souvent simultanément et moins de temps à ouvrir des revues et surtout des livres. Ceci a déjà entrainé la disparition ou la Webisation de journaux historiques, tels que le «Christian Science Monitor» et le mouvement s’accélère.

Internet a commencé à bouleverser tout l’écosystème du livre classique, papier, qui existait depuis plus de 500 ans.
Tout change ! Comment on écrit, comment on lit et comment on commercialise le livre.

Japan Mobile Novel Au Japon, les «nouvelles» écrites depuis des téléphones mobiles sont devenues des best-sellers ; en 2007 les trois meilleures ventes appartenaient à cette catégorie.

Le succès des e-books se confirme ; il sera amplifié par la banalisation des «fonctions e-book» sur des outils numériques universels tels que les smartphones ou l’iPad.
Mais, un e-book avec des liens, ce n’est plus un livre !

Vook 1 Les «vooks» (vidéobooks) débarquent ! De grands éditeurs tels que Simon & Schuster, proposent des livres avec des vidéos incrustées dans les pages virtuelles.

En analysant le mouvement des yeux sur une page Web, on a découvert que l’internaute faisait de plus en plus une lecture en mode «F». Il lit les premières lignes en entier, survole à moitié le milieu de la page et saute rapidement à la page suivante.

Book scanner for Google Pour numériser les livres, Google a mis au point des outils capables de lire 430 langages différents. Malgré les difficultés actuelles et transitoires rencontrées par Google Books, sur les copyrights, les réticences de certains gouvernements, ce mouvement est irréversible ; demain, tous les livres seront disponibles en mode numérique !
Oui, mais numériser un livre, c’est rompre sa linéarité et encourager sa lecture, sa consommation par tout petits morceaux, comme on lit des citations.

L’impact des réseaux sociaux sur le livre est aujourd’hui marginal, mais va s’amplifier. Des groupes de lecteurs commencent à «remixer» des livres, à partager leurs réactions, à mettre des commentaires...
Va-t-on assister la fin de l’écriture et de la lecture solitaire ?

Un livre classique est un produit fini, sur le Web il devient un processus continu. En résumé :

Comment lit-on sur le Web ? On ne lit pas !


La mémoire et Internet

Petit rappel.
Short term memory Le cerveau utilise deux zones de mémoire très différentes, court terme et long terme. Nos processus de pensée, nos actions de «traitement» de l’information se réalisent dans la mémoire court terme ; les informations qui y résident ont une durée de vie très courte.

La mémoire long terme est utilisée pour garder, de manière pérenne, les informations, mais le processus de mise en mémoire long terme est très complexe et consommateur de temps.
Pour en comprendre l’essentiel, et si vous ne l’avez pas encore fait, je vous conseille vivement de lire le célèbre texte de George Miller «The Magical Number Seven, Plus or Minus Two: Some Limits on our Capacity for Processing Information» écrit en 1956. (Le nombre magique sept, plus ou moins deux...)

Peut-on, doit-on externaliser sa mémoire sur Internet ?
Beaucoup de scientifiques pensent que c’est inéluctable et... une bonne chose. Le cerveau, libéré de ce travail de mémorisation, pourrait se consacrer à beaucoup d’autres activités plus «nobles».
Nicolas Carr prend clairement position contre cette thèse, et la considère même comme très dangereuse.

Computer memory human memory L’analogie de la mémoire humaine fonctionnant comme une mémoire informatique est tentante :
Mémoire court terme = mémoire de l’ordinateur.
Mémoire long terme = disques magnétiques ou «Cloud».

Oui, mais cette analogie est... totalement fausse. Le modèle «informatique» de la mémoire ne correspond absolument pas à la réalité d’une mémoire humaine, organique, vivante et dynamique.

Passer de la mémoire court terme à la mémoire long terme, pérenne est un processus complexe qui prend au moins une heure. La mise en mémoire long terme de nouvelles informations induit des changements anatomiques dans le cerveau, des réactions chimiques et la création de nouvelles synapses.

Le vieux dicton : «on apprend mieux en dormant» est confirmé par les éludes les plus récentes, qui montrent que le cerveau a besoin de temps pour mémoriser «chimiquement» les informations.

Ce qui inquiète beaucoup Nicholas Carr, c’est que nos modes d’usages d’Internet induisent une perte progressive de notre capacité à créer des mémoires pérennes : «L’acquisition de connaissance dans la mémoire long terme, «deep learning & thinking», est rendue très difficile par Internet».

C’était principalement par la lecture «profonde» des livres que nous nourrissions notre mémoire long terme. Si, comme l’a montré le paragraphe précédent, notre capacité à lire des livres se réduit fortement, notre mémoire long terme ne va plus être alimentée !

Memory loss Nicholas Carr pense qu’Internet nous donnera l’illusion de disposer d’une mémoire long terme infinie ; rien n’est plus faux !
En surchargeant notre mémoire court terme par des milliers d’interruptions, Internet réduit fortement notre capacité à créer une mémoire long terme structurée et cohérente, ce qui avait été l’une des plus grandes avancées des 500 dernières années.

Si Nicholas Carr a raison sur ce point, c’est très inquiétant.


Google, Dieu ou Satan ?

Nicholas Carr a une vision très ambivalente de Google. Il est le premier à reconnaître les apports du moteur de recherche et des autres outils grand public, qu’il utilise beaucoup. Il est en même temps très critique de la vision «technocentrique» de leurs dirigeants.
Article Is google making us stupid L’article qui a servi de base à ce livre, publié il y a deux ans dans la revue «The Altantic», avait d’ailleurs pour titre :
«Is Google Making Us Stupid?» (Est-ce que Google nous rend idiot ?»
(Il a été traduit en français)

Nicholas Carr évoque une «Eglise Google» et aucun de ses trois principaux responsables n’échappe à sa critique, même si c’est Eric Schmidt qui est le plus mis en cause, avec des citations telles que  :
«Google est construit sur la science de la mesure.»
« Le moteur de recherche parfait = qui comprend exactement ce que vous voulez dire et vous donne exactement ce que vous désirez.»
«... Utiliser la technologie pour résoudre des problèmes qui n’ont jamais été résolus, et l’Intelligence artificielle est le plus complexe de tous !» (Interview en 2005).

Google good or evil Question posée par Sergey Brin : « Google : Dieu ou Satan ?»

Larry Page : le cerveau ne ressemble pas à un ordinateur, c’est un ordinateur.

Pour Nicholas Carr, l’objectif de toutes les actions et de tous les produits de Google est clair : réduire le coût d’accès à Internet et en accroître la couverture en termes de contenu». Je le cite :
«Google is in the business of distraction»
(Google est dans le métier de l’interruption)

Nicholas Carr résume ainsi ses craintes :
«Ce que Taylor a réalisé pour le travail manuel,
Google le fait pour le travail du cerveau.»

Nicholas Carr ne fait pas de l’anti-Google primaire, au contraire. Il est très admiratif de l’intelligence de ses équipes et de ses milliers d’ingénieurs, capables de développer des outils que tous les internautes ont envie d’utiliser.
Ce qui l’inquiète, c’est la «faiblesse de l’homme» face à la puissance des outils du Web !


Synthèse

Brain internet Fantasmes ? Réalités ? Les profondes et rapides mutations du cerveau humain induites par l’usage intensif d’Internet : faut-il s’en inquiéter ?
Je vous encourage fortement à lire les «Shallows» de Nicholas Carr, à en découvrir les richesses et surtout à vous faire votre propre opinion sur les thèses qu’il défend.

Fat woman gym 2 Quand nos nouveaux modes de vie citadins ont multiplié le nombre de personnes obèses (75 % des Américains sont en surpoids), on a vu fleurir des gymnases.
Quels seront les nouveaux «gymnases de l’esprit» dont nous aurons besoin pour maintenir nos cerveaux en forme si Internet se transforme en «junk food» intellectuelle ?

L’internet, n’est ni ange ni démon, mais modifie en profondeur, et très vite, les mécanismes profonds de notre cerveau. En être conscient, c’est déjà une première victoire.
Comprendre les impacts potentiels, c’est pouvoir réagir, apprendre à utiliser Internet différemment, à prendre conscience des risques.

Si j’avais une seule critique à faire à Nicholas Carr, ce serait de ne pas proposer de réponses à la question de fond qu’il pose dans son livre :
«Si Internet risque de nous rendre stupide, quels sont les remèdes à cette possible dégénérescence de notre cerveau ?»

Comme il avait beaucoup de mal à terminer son livre, Nicholas Carr c’était «mis au vert», physiquement, et au sens Web, en réduisant fortement ses usages Internet. A la fin de cette période, qu’il a beaucoup appréciée, il a résumé son sentiment ainsi :

«I missed my old brain.» (Mon vieux cerveau me manquait.)

Et si la lecture des «Shallows» était un premier pas vers un usage plus responsable d’Internet ?

«L’homo interneticus» restera-t-il «l’homo sapiens» ?


The shallows couverture  Nicholas Carr vient de publier son troisième livre, au titre inquiétant :

«What the Internet is doing to our brains: the shallows.»
(Les impacts d’Internet sur nos cerveaux : les bas-fonds.)


Ce sera encore un grand succès de librairie, après ses deux ouvrages précédents, «Does IT matters?», qui avait secoué la profession informatique et «The big switch», très orienté «Cloud Computing» et dont j’ai déjà parlé dans ce blog.

Je viens de terminer la lecture des «Shallows» ; j’ai été passionné, interpellé !
Toute personne qui s’intéresse à l’évolution de l’humanité, qu’elle soit ou non grande utilisatrice d’Internet, le lira avec intérêt, surprise et/ou inquiétude, car il aborde des thèmes majeurs et... troublants.

Shallows versions by language S J’aurais aussi aimé pouvoir vous dire qu’il est possible de le lire en français. Comme le montre cette liste des éditions disponibles, la langue de Molière ne fait pas partie des priorités pour la traduction de ce livre ; le portugais et le coréen seront disponibles avant le français !

Je vous en conseille vivement la lecture cet été ; il ne vous laissera pas indifférent !
Vous serez aussi, comme moi, frappé par la «forme» de ce livre ; c’est un vrai livre à l’ancienne, vierge de tout schéma, graphique, tableau, images ou .... liens internet !

Tout le contraire de ce blog !



Résumé, pour un «homo interneticus»

Dans «The Shallows», Nicholas Carr constate que, comme beaucoup d’Internautes, il a de plus en plus de mal à lire des documents qui dépassent quelques lignes.

C’est en pensant à vous, Internaute intensif, «homo interneticus», que je résume dans ce paragraphe les idées clefs de son livre, au cas où vous n’auriez plus le courage ou la capacité de lire l’intégralité de ce blog, ou... le livre de Carr, qui, tous les deux dépassent... les 140 caractères !

Homo interneticus

- Les travaux récents de la neuroscience démontrent que notre cerveau est dans un état d’apprentissage permanent ; nous développons de nouveaux modes de pensée, mais nous pouvons aussi perdre les anciens si nous les pratiquons moins.
- Les outils «informationnels» changent nos manières de penser et d’agir.
- Les changements induits par ces outils dans nos manières de penser sont très rapides et souvent irréversibles.
- Internet, le plus récent de ces outils, aura au moins autant d’impacts sur nos cerveaux que l’alphabet, les cartes, l’horloge ou l’imprimerie.
-  Si on met de côté l’alphabet et le système numérique, l’Internet pourrait être la technologie de changement de nos cerveaux la plus puissante, au moins depuis l’apparition du livre.
- L’Internet est à notre service et devient aussi notre maître.
- L’internaute perd une grande partie de ses capacités de concentration, de contemplation et de réflexion.
- Déléguer à Internet notre mémoire est une grave erreur ; le fonctionnement de la mémoire humaine n’est pas comparable à celle d’un ordinateur.
- La lecture complète d’un livre devient impossible ou insupportable pour beaucoup d’internautes, y compris ceux qui ont fait de longues études littéraires.
- Ce que Taylor a réalisé pour le travail manuel, Google risque de le faire pour le travail du cerveau.


Une plongée dans des recherches récentes des neurosciences

Neuro - science Une partie importante du livre de Carr fait le point sur les dernières avancées de la neuroscience sur nos modes de pensées. Bien que totalement incompétent dans ce domaine, j’ai trouvé passionnant ces chapitres, dont je vais tenter d’extraire quelques idées-forces.

- Contrairement aux idées qui avaient cours durant les siècles derniers, le «câblage» de notre cerveau ne se termine pas à l’adolescence.
Depuis une quarantaine d’années, grâce aux progrès des outils d’analyse du cerveau, des dizaines d’expériences ont démontré l’étonnante plasticité du cerveau humain. En résumé :
- Tous les circuits neuronaux, qu’ils concernent le toucher, l’ouïe, la vision, la pensée, l’apprentissage, la mémoire sont sujets au changement, rapidement, et à tout âge.
- Notre cerveau est «massivement modifiable» ; cette capacité, même si elle décroit un peu avec l’âge, ne disparait jamais.
- Plasticité ne signifie pas élasticité. En clair, lorsque notre cerveau développe de nouvelles connexions, il peut aussi laisser mourir les anciennes, si elles ne sont plus utilisées avec une fréquence suffisante.


Quelques exemples

Nicholas Carr a réalisé un gros travail de compilation sur des études récentes menées par les meilleures équipes de recherche en neuroscience.
Il a aussi réalisé un important travail historique sur ce sujet, en remontant à la plus haute antiquité.

1- Des expériences passionnantes ont été menées sur des personnes ayant eu un accident cérébral et devenues hémiplégiques. Il est possible, après quelques semaines d’exercices intensifs, de permettre au cerveau de se «re-programmer» et de redonner une forte autonomie à des patients qui avaient perdu le contrôle de la main et du pied touchés par cet accident.
Au-delà de ces cas extrêmes, l’idée clef que j’en retiens et que la plasticité du système nerveux est son état «normal» pendant toute la vie.

2 - A la suite d’une chute de cheval, Friedrich Nietzsche, à 34 ans, perdait la vue et avait de plus en plus de difficultés à lire et à écrire.

MAE Mailing Hansen 2 En... 1882, il acheta une des premières machines à écrire, inventée par le danois Malling- Hansen, qui travaillait pour l’Institut Royal Hollandais des sourds-muets.
Ayant acquis la maîtrise de ce clavier, il recommença à écrire, les yeux fermés. Très vite, ses lecteurs lui firent remarquer qu’il avait changé de style ; ses textes étaient plus denses, plus courts. Nietzsche répondit : « Vous avez raison, nos outils d’écriture influent sur la création de nos pensées». 

Que peut-il se passer, aujourd’hui, avec les SMS et Twitter ?


3 - On a demandé à deux groupes de personnes, l’un composé d’Internautes chevronnés, l’autre de novices n’ayant jamais navigué sur le Web, d’utiliser un navigateur pour des tâches simples. Les zones du cerveau activées pour ces deux groupes étaient très différentes.

Brain-scan Le groupe de novices a ensuite suivi un entrainement d’exercices de recherche sur le Web, d’une heure par jour pendant 6 jours. Les mêmes tests ont été à nouveau réalisés pour les deux groupes et... les mêmes zones du cerveau étaient maintenant activées, pour les novices comme pour les pros !

En 6 heures ! Quelles peuvent être les conséquences sur notre cerveau de centaines d’heures d’usages d’Internet ?

4 - «Nous devenons ce que nous pensons
Des expériences ont démontré que les changements dans nos cerveaux peuvent être déclenchés par nos seules pensées, sans aucune action physique. L’une des expériences citées compare deux groupes de personnes apprenant à jouer une mélodie simple au piano.
Un premier groupe l’a fait physiquement, en pratiquant sur un piano, l’autre l’a fait «virtuellement», assis devant un piano, mais sans jamais toucher le clavier.
Dans les deux groupes, les changements mesurés dans le cerveau ont été identiques.


Les outils qui ont modifié nos manières de penser, notre cerveau

Nicholas Carr les appelle les «intellectual technologies», les «outils de l’esprit». Ce sont les principaux outils qui ont profondément modifié les modes de pensée de l’humanité et... ils sont très peu nombreux.
Il en cite quatre :
- L’alphabet, mis au point par les Grecs en 750 AC, avec son jeu de caractères très dense de 24 signes, il a permis l’essor de l’écriture comme substitut à la voix dans le transfert de la connaissance.
Socrate, l’orateur, contre Platon, l’écrivain, c’est un vieux débat !

- La cartographie, pour nos relations à l’espace.

- L’horloge mécanique, pour nos relations au temps ; ce sont les moines qui en sont à l’origine, pour pouvoir mieux rythmer leurs cycles de prières.

Clay, Papyrus, Wax - Les différents supports de l’écriture, la lourde argile des Sumériens contre le papyrus léger des Egyptiens (PC de bureau contre PC portable !), l’arrivée de la tablette de cire (iPad !), premier support effaçable. Ce sont surtout, au milieu du XV siècle, les inventions de Gutenberg qui ont permis la diffusion massive et économique de la connaissance écrite.

- La réduction de la taille des outils, que ce soit la montre portable ou le format «octavo» des livres (notebook !), en les démocratisant et en permettant un accès en mobilité a profondément changé les usages.
 
Depuis une quinzaine d’années, l’Internet a pris le relais comme nouvel «outil de l’esprit». Il aura des impacts sur le fonctionnement de notre cerveau au moins aussi importants, et plus rapides que  les quatre technologies historiques.

(Fin de la première partie)
La suite de ce texte sur l’»homo Interneticus» sera publiée dans un deuxième billet.
Elle fera le point sur quelques-uns des forts changements induits par internet, et en particulier sur le fonctionnement de notre mémoire, les dangers de nos dépendances à Google, notre difficulté à nous concentrer et à lire des livres «en profondeur».

A lire d’urgence, pour comprendre l’avenir de l’informatique !

Cover_big_switch_3 Nicolas Carr est devenu célèbre après avoir publié un article, puis un livre sur le thème :
Does IT matter? ( Est-ce que l’informatique est importante ?)

Il vient de publier son deuxième livre :
“The Big switch”

Un titre difficile à traduire, surtout après avoir compris que le mot “Switch” est utilisé pour parler de l’informatique et de l’énergie électrique. (Google translate propose : “Le grand passage” ! Cela rassurera les personnes qui m’avaient reproché de faire l’éloge de ce service de traduction)
Je propose quand même : “Le grand virage”, sachant qu’il est possible de trouver mieux ; j’accepterai avec plaisir les suggestions des lecteurs.

Ce livre est déjà disponible sur Amazon.com et annoncé sur Amazon.fr ; je reviendrais sur ce point à la fin de ce texte.


L’avenir de l’informatique = “On the Cloud”

La première partie du livre, les 7 premiers chapitres, est une remarquable démonstration de l’évolution des infrastructures informatiques “on the cloud” et des applications vers une logique SaaS, Software as a Service”.

Burdenwheel_2 Nicolas Carr reprend l’analogie entre l’évolution de l’électricité et de l’informatique.
Au milieu du XIX siècle, chaque entreprise industrielle fabriquait son énergie ; l’un des exemples cités est celui de la plus grande roue hydraulique du monde, de 20 mètres de haut, construite par Henry Burden, pour fabriquer des clous pour les rails et des fers pour les chevaux.

50 ans plus tard, cette roue était immobile, inutile, remplacée par de l’énergie électrique, grâce aux inventions de Thomas Edison.
Centralebugey 30 ans plus tard, les “utilities” électriques, créées par Samuel Insull, un collaborateur d’Edison, fonctionnant en courant alternatif et à partir de centrales très puissantes, avaient marginalisé les petites centrales locales en courant continu d’Edison

Rice_data_centerNicolas Carr pronostique que l’informatique va, rapidement, suivre une évolution similaire :
- Les entreprises ont créé leur propre énergie informatique à l’époque des Mainframes et du client serveur

Datacenter_abandonn - Les progrès des réseaux et du Web vont, rapidement, rendre obsolètes les centres de calcul construits par les entreprises pour leurs propres usages.

Googledatacenter_2 - L’essentiel de l’énergie informatique mondiale sera, très rapidement, fournie par les “centrales nucléaires informatiques” construites à coups de milliards de dollars par Google, Amazon, eBay ou Microsoft.
Carr cite (page 67) une étude qui estime que Google a un prix de revient informatique 10 fois plus bas que celui d’une entreprise normale !


Électricité, énergie informatique : similarités, différences

Carr note aussi avec pertinence que l’énergie informatique et l’électricité partagent deux caractéristiques fondamentales :
Google_data_center_2 - Économies d’échelle en production : centrales nucléaires ou thermiques, centres de calculs géants permettent des économies d’échelle majeures ; ceci se traduit par des prix de revient très compétitifs qui rendent les petites unités de production non concurrentielles.

- Transport aisé sur de longues distances : les réseaux haute tension, les fibres optiques permettent de transporter électrons ou bits sur des milliers de kilomètres.

La principale différence tient aux “usages”, aux applications, et c’est là où l’analogie s’arrête.
Les outils d’utilisation des réseaux électriques, lampes, machines à laver, aspirateurs... sont locaux, branchés sur des prises universelles
Saas_2
En informatique, les “utilities” peuvent aussi transmettre des applications ; toute la démarche SaaS, Software as a Service, est basée sur ce principe.
Il est aussi possible d’utiliser, pendant une période transitoire, des applications “locales”, sur un PC par exemple.

Carr pronostique que les SaaS vont rapidement s’imposer, que ce soit pour des usages bureautiques, Google apps, ou des applications structurées telles que celles proposées par Salesforce.com et son écosystème.

L’informatique “On the cloud” peut donc proposer et les infrastructures, puissance de calcul et réseaux, et les usages, en SaaS.
Pour définir cet ensemble, Carr utilise souvent dans son livre l’expression World Wide Computer (WWC), qu’il espère voir remplacer World Wide Web.


Deuxième partie du livre : impacts sociétaux

Je ne vais pas commenter en détail la deuxième partie de “The Big Switch”, à partir du chapitre 8.  Nicolas Carr se livre à une analyse beaucoup plus philosophique des impacts potentiels du World Wide Computer. 

Fighting_the_net_2 Il se montre plutôt pessimiste, en termes d’emplois, de sécurité, de protection des données individuelles et des évolutions de l’humanité.  Le titre du chapitre 9 est à cet égard très révélateur :
“Fighting the Net”: (Combattre Internet)
Cette partie est plus centrée sur les impacts du WWC sur les personnes que sur les entreprises ; sa lecture est intéressante, mais moins directement applicable aux décisions que doivent prendre les entreprises.


Remarques sur la “forme” de ce livre

J’ai été frappé par le coté 100 % textuel de cet ouvrage qui parle de technologie ; pas un seul graphique, une image, une photo dans les 250 pages de ce livre !
Il y a par contre une longue bibliographie, de plus de 20 pages, avec quelques liens Web.

Carr_blog_2 Je vais proposer à Nicolas Carr de mettre sur son blog, dont je conseille beaucoup la lecture, une page où seront disponibles tous les liens ; ceci devrait faciliter la vie de ses lecteurs !


Remarques sur l’achat de livres en France et aux USA

Full_cost_carr_amazoncom_2 J’ai acheté le livre de Nicolas Carr sur Amazon.com dès sa parution ; il m’a été livré en une semaine, le 2 janvier 2008.  Comme j’en avais acheté deux exemplaires, le prix, livré à Paris, était de $46,23, en tenant compte de la remise de 34 %, légale aux USA.

Big_switch_amazonfr_2 En France, il n’est toujours pas disponible : pour profiter de la livraison gratuite, à partir de 20 euros, il faut aussi en acheter 2 exemplaires.
L'analyse économique des deux options d'achats est instructive :
- Prix achat US, 2 livres livrés Paris : $ 46,23 soit 31,23 €
- Prix achat France 2 livres : 37,12€
- “Bénéfices” : 6 euros (20 %) + disponibilité immédiate !


En guise de conclusion

Le message de Nicolas Carr est clair :

Hors de l’informatique “On the cloud”, pas de salut !

On_the_cloud_2 Infrastructures hébergées et SaaS seront les solutions dominantes demain, pour les entreprises de toutes tailles, de tous les secteurs économiques.

Ce n’est pas moi qui vais dire le contraire !