Hommage à Clayton Christensen, un géant de la pensée managériale

 

Clayton Christensen HBRLe 23 janvier 2020 est mort à 67 ans Clayton Christensen, un des plus grands penseurs de ces dernières années sur la stratégie des entreprises. Par ses écrits, il a influencé d’innombrables dirigeants, de Intel à Apple en passant par les fondateurs de startups. Je suis fier de dire que j’ai utilisé ses idées dans des startups avec lesquelles j’ai collaboré et d’autres où je travaille encore. J’en présente un exemple récent à la fin de ce billet.

En 2006, il y a 14 ans, au début de ce blog et à la veille de créer l’entreprise Revevol, j’avais écrit un billet pour expliquer les principes de base de la démarche de Clayton Christensen.

J’ai décidé de le republier aujourd’hui, tel quel, sans en changer un seul mot. Le fait que ce texte soit encore d’actualité est le meilleur hommage que je puisse rendre à cet homme exceptionnel.

J’ai ajouté quelques paragraphes à la fin du billet de 2006 pour illustrer l’influence majeure que continue à avoir Clayton Christensen dans l’industrie du numérique.

 

Billet original de 2006

Christensen photoClayton Christensen, professeur à l’Université de Harvard, a écrit trois livres importants sur l’innovation :

- The Innovator's Dilemma

- The Innovator's Solution

- Seeing What's Next : Using Theories of Innovation to Predict Industry Change

Les idées qu’il défend permettent d’appréhender les mécanismes de base de l’innovation et expliquent pourquoi tant d’entreprises et de produits nouveaux échouent.  Ces idées s’appliquent à tous les secteurs d’activité, mais sont particulièrement pertinentes pour tout ce qui touche aux technologies de l’information.

Christensen bookC’est une lecture indispensable pour toute personne qui s’intéresse sérieusement aux innovations et à leurs impacts.

Ce texte présente un résumé très succinct des idées de Christensen et mon interprétation de leurs applications dans le monde de l’informatique, et en particulier du Web 2.0.

Les points clefs de la démarche de Christensen

Sur ce premier graphique, une ligne représente le rythme d’évolution du progrès technique. Les performances des matériels et des logiciels s’améliorent en permanence ; la capacité des disques durs double tous les ans.

Christensen model 1

La deuxième droite représente l’évolution des attentes des clients ; elle évolue moins rapidement que les performances des outils.

J’ai fait apparaître deux familles de produits, A et B.

A : Produits matures, surdimensionnés

Les produits de type A ont dépassé les attentes de la très grande majorité des utilisateurs.  En informatique, de nombreux produits appartiennent à cette famille ; citons, par exemple :

- Les bases de données Oracle ou DB2

- La suite bureautique Office

- Les processeurs Intel pour PC professionnels

Chacun pourra, à sa guise, rajouter d’autres produits à cette liste.

Les fournisseurs de ces produits se heurtent à un problème sérieux : ils ont de plus en plus de mal à convaincre le marché que les nouvelles versions apportent une valeur ajoutée suffisante pour justifier un changement.

B : Produits encore insuffisants

Il existe encore beaucoup de produits dont les performances ne sont pas jugées satisfaisantes par la majorité des utilisateurs ;  ce sont, par exemple :

- La vitesse des réseaux mobiles 3G pour le transfert des données

- L’autonomie des batteries des micro-ordinateurs portables

- La distance utile d’usage des bases Wi-Fi.

Les fournisseurs de ces produits sont dans une situation très positive ; toute amélioration des performances est immédiatement plébiscité par le marché, jusqu’au jour où ils croisent la ligne des attentes et se retrouvent en postillon de type A.

Les appareils de photos numériques en fournissent un bon exemple ; jusqu’en 2005, le nombre de mégapixels était un argument de vente important, car les utilisateurs voyaient clairement la différence entre 2 et 5 Mégapixels.  Cette course est aujourd’hui terminée ; pour la très grande majorité des photographes amateurs, une photo de 10 MPixels, imprimée en 10x15, n’est pas visuellement meilleure que si elle pesait 6 MPixels.

Innovations de rupture

L’un des apports essentiels de Christensen a été de mettre en évidence ce qu’il nomme les innovations de rupture.

Christensen model 2

Face à la saturation progressive du marché, pour les produits de type A, des entreprises innovantes lancent des produits de rupture, qui en font beaucoup moins, mais à des prix très compétitifs.

Ces produits ont l’intelligence de ne pas attaquer de front les leaders, mais commencent par prendre deux marchés clefs : les personnes qui se contentent de solutions raisonnables et les “non-utilisateurs ” actuels qui ne pouvaient pas acheter les produits leaders.

La Logan de Renault illustre parfaitement ce processus ; elle est vendue dans les pays émergents comme première voiture, dans une configuration minimale, autour de 5000 euros.  Dans les pays avancés, la Logan est achetée dans une version “haut de gamme”, à 9000 euros, par des personnes qui ont découvert qu’elles n’ont pas besoin de “plus” de voiture pour répondre à leurs véritables attentes.

Je propose de définir deux familles de produits innovants, C et D.

C : Produits innovants, en devenir

Skype à ses débuts, Asterisk, l’autocommutateur Open Source, l’immense majorité des start-ups à succès rentrent sur le marché avec des produits de type C ; ils ont des fonctions minimales, incomplètes, mais les proposent à des prix très bas, voire même gratuitement.

En proposant des services au rapport qualité/prix imbattable, les produits de type C trouvent rapidement des “clients innovants” qui sont capables d’arbitrer entre fonctionnalités, performances et coûts et savent utiliser ces produits en tenant compte de leurs limites.

D : Produits innovants, proche maturité

David GoliathTrès rapidement, en quelques mois, les produits de type C ont trouvé leur marché et des millions de clients les utilisent.  Ils évoluent alors rapidement vers des produits de type D, dans la situation “idéale” où il y a une bonne adéquation entre leurs fonctionnalités et les attentes de la majorité des clients, et non plus seulement des clients innovants.

Skype, aujourd’hui, en est une bonne illustration : avec la fonction SkypeOut d’appels économiques de tous les numéros, la possibilité d’utiliser un téléphone “normal” au lieu d’un casque et des dizaines d’autres améliorations, Skype est proche de la réponse complète, économique et raisonnable aux attentes des particuliers et des entreprises

MySQL, JBoss, sont d’autres exemples de produits qui ont atteint le niveau D.  En répondant bien aux attentes du cœur de marché, ils commencent alors à sérieusement concurrencer les fournisseurs produits de type A, qui doivent se concentrer sur les clients ayant des besoins très complexes, ce qui devient un marché de ... niche.

Fournisseurs : quelle stratégie d’innovation ?

Le modèle d’innovation A/B/C/D proposé par Christensen est très efficace pour aider un fournisseur dans sa stratégie d’innovation.

Castle- Face à un marché de type A, la meilleure solution consiste le plus souvent à ... chercher un autre créneau.  Les acteurs en place, puissants et à forte notoriété, ont les moyens marketing et financiers de s’opposer efficacement à toute tentative d’entrée sur ce marché.

- Si le marché est en situation B, toute innovation qui apporte une réelle amélioration des performances sera rapidement acceptée par les clients et a beaucoup de chance de réussir.  La couverture nationale de la France en réseau Edge par Bouygues Telecom, le succès fulgurant du Wi-Fi, première solution rapide de réseau sans fil sont des exemples d’innovation de type B.

- Trouver un produit ou un service de type C est la voie royale de l’innovation moderne.  L’entreprise répond à une double demande, de clients attirés par une solution plus économique et de nouveaux clients, non-utilisateurs actuels de ces services, le plus souvent pour des raisons de coût. Les fournisseurs de solutions A sont désarmés face à ces innovations de rupture C car ils ne peuvent pas mettre en danger leur rente de situation en répondant par des baisses de prix massives.

- Passer rapidement au niveau D des services proposés est indispensable si l’innovateur veut protéger son marché initial et rentrer sur le marché de masse des clients aux attentes raisonnables. La principale difficulté sera souvent de savoir résister au danger de l’hypertrophie fonctionnelle. En se transformant en fournisseur de type A, il laisserait alors le champ libre à un nouvel innovateur de type C, capable de l’attaquer avec une nouvelle offre de rupture !

DSI : décisions intelligentes face à l’innovation

Ce même modèle A/B/C/D peut être utilisé par un DSI pour mieux analyser les innovations qui lui sont proposées.

- Face à un nouveau service de type A, la meilleure réponse consiste à refuser les nouvelles versions qui n’offrent aucun avantage important à l’immense majorité des utilisateurs.  C’est souvent difficile, car ce sont les fournisseurs déjà en place, connus, puissants qui proposent des solutions A.

- Pour un DSI, une innovation de type B est “idéale”. Il pourra proposer à ses clients un nouveau service, de nouveaux niveaux de performance qui seront accueillis avec enthousiasme pas les utilisateurs.

- Les innovations de type C sont plus délicates à gérer par la DSI ; c’est le cas, aujourd’hui, de la majorité des Services Web 2.0 pour les entreprises.

La clef de la réussite consiste à choisir, comme premiers clients, des petits groupes d’utilisateurs innovants, raisonnables, capables de comprendre les avantages et les limites des solutions et de s’y adapter.  C’est dans ma mise en œuvre réussie de solutions de type C que l’on reconnaît les meilleurs DSI innovants.

Bouée- Un DSI a deux approches possibles pour les solutions de type D. Il peut attendre que les produits aient atteint le niveau D, en faisant l’impasse sur les offres de type C ; ce sera la stratégie choisie par une majorité de DSI, “prudent” face à l’innovation.

Pour ceux qui auront installé, à petite échelle, des solutions de type C, le passage en D se fera naturellement, par extension des premières implantations à l’ensemble de l’entreprise et en s’appuyant sur les nouvelles versions de ces services, arrivés à maturité. La probabilité de réussite sera plus élevée, la mise en route plus rapide.

L’analyse proposée par Christensen est un outil extrêmement puissant de compréhension des différentes facettes de l’innovation.

En positionnant toute innovation qui lui est proposée dans l’une des quatre familles A/B/C/D, un DSI peut, rapidement, proposer une réponse adaptée à son style de management et à la capacité de son organisation à absorber des innovations.

Refuser des innovations de rupture, type C, peut être la meilleure décision pour un DSI prudent dans une organisation traditionnelle !

J’espère, et je suis sûr qu’il y a quand même quelques DSI innovants pour les mettre en œuvre et donner à leurs entreprises un avantage concurrentiel significatif.

Optimiste je suis né, optimiste je reste !

Fin du texte du billet original

-------------------------------------------------------------------------------------------

 

Théories de Clayton Christensen : elles sont là pour durer

HBR Essentials on ChristensenClayton Christensen était professeur à Harvard ; cette université a eu la bonne idée de regrouper et de publier immédiatement dans ce catalogue les principaux articles qu’il a écrits pour la HBR, Harvard Business Review ; bravo pour la réactivité.

Le succès planétaire de ses livres a fait que l’expression “Disruptive Innovation” a souvent été utilisée de manière erronée. C’est pour cela que Clayton Christensen a publié en 2015 un long article qui clarifie sa position sur les usages “excessifs” de son modèle d’innovation.

A titre d’illustration, il explique pourquoi Uber n’est pas, selon lui, une entreprise “disruptive”, contrairement à ce que pense la majorité des personnes.

Andrew Ng on ChristensenDe très nombreux témoignages ont été publiés dans la journée qui a suivi l’annonce de son décès. Tous saluent ses grandes qualités humaines et le fait que ses idées seront encore au cœur des réflexions stratégiques des dirigeants pendant de nombreuses années.

J’ai pensé que la meilleure manière de lui rendre hommage était d’illustrer, sur le cas concret d’une startup dont je suis l’un des dirigeants, comment son modèle a servi de base à sa création et à son démarrage.

 

Illustration sur un cas concret : WizyVision en 2020

WizyVision propose des solutions qui permettent à toutes les entreprises de gérer en SaaS, Software as a Service, leurs contenus multimédias, images, photos et vidéos, ce que nous avons nommé un “Média Hub”.

WizyVision HP

Aujourd’hui, le marché des contenus multimédias a quelques caractéristiques fortes :

● Il a pour nom DAM : Digital Asset Management.

● Il s’adresse en priorité aux départements communication et marketing.

● Il offre des fonctions haut de gamme telles que la gestion des droits ou la capacité de créer et modifier des images et des vidéos.

● Les fournisseurs dominants sont de grandes entreprises qui sont présentes sur ce marché DAM depuis plusieurs dizaines d’années : Adobe, OpenText…

● Ce sont des solutions chères, donc réservées à un tout petit nombre d’utilisateurs dans les entreprises.

Les solutions DAM actuelles sont en position "A" sur les graphiques de Christensen. (Voir billet de 2006).

Pour cette “étude de cas”, je vais m’appuyer sur quelques phrases clefs, extraites de cet article de 2015 cité plus haut, pour illustrer comment WizyVision répond à la définition ”innovation de rupture”. Cette analyse pédagogique permet de mieux comprendre les fondamentaux d’une démarche de ce type.

Christensen model for WizyVision

Phrase 1 : “Disruption” describes a process whereby a smaller company with fewer resources is able to successfully challenge established incumbent businesses. (La rupture décrit un processus où une entreprise plus petite, avec moins de ressources, est capable de défier avec succès des entreprises présentes sur ces marchés depuis longtemps.)

WizyVision, née en 2019, emploie une dizaine de salariés et se développe sur fonds propres, qui ne se mesurent pas en millions d’euros ! En 2019, Adobe, créée en 1982, 21 000 salariés, avait un Chiffre d’Affaires de 11 milliards de dollars. OpenText, la plus grande entreprise de logiciels du Canada, née en 1991, emploie 12 000 personnes et son Chiffre d’Affaires 2019 était de 3 milliards de dollars.

 

Phrase 2 : In the case of new-market footholds, disrupters create a market where none existed. Put simply, they find a way to turn nonconsumers into consumers. (Dans le cas des entreprises qui s’attaquent à un nouveau marché, les entreprises de rupture créent un marché qui n’existait pas. Dis simplement, elles trouvent le moyen de transformer les non-consommateurs en consommateurs.)

WizyVision vs DAM Small group  large GroupWizyVision s’adresse à tous les collaborateurs d’une entreprise, qui n’ont pas accès aujourd’hui à un DAM, et propose, à des prix très compétitifs, les fonctions essentielles d’accès et de collaboration sur des contenus photos et vidéos. Le coût de la solution est indépendant du nombre d’utilisateurs, ce qui permet de proposer des services nouveaux à 100% des collaborateurs d’une entreprise.

En 2020, WizyVision se trouve en position "C" sur les courbes de Christensen.

 

Phrase 3 : Disruptive innovations, on the other hand, are initially considered inferior by most of an incumbent’s customers. (Les innovations de rupture sont, d’un autre côté, considérées au début comme inférieures par la majorité des clients existants.)

WizyVision a été éliminé d’appels d’offres DAM “classiques” car nous n’avions pas la réponse à l’impressionnante liste des fonctionnalités demandées. Ceci nous a amenés à changer notre nom initial, WizDAM, en WizyVision pour nous démarquer clairement des solutions DAM existantes.

 

Phrase 4 : The term “disruptive innovation” is misleading when it is used to refer to a product or service at one fixed point, rather than to the evolution of that product or service over time. (L’expression “innovation de rupture” n’est pas adaptée quand elle est utilisée pour parler d’un produit ou d’un service à un instant donné, plutôt que de se référer à l’évolution de ce produit ou de ce service dans le temps.)

WIzyVision de C à D sur ChristensenWizyVision démarre en 2020 avec une offre MVP (Minimum Viable Product) qui propose les fonctions de base suffisantes pour apporter de la valeur à des utilisateurs qui n’avaient jusqu’à présent jamais eu accès à un outil leur permettant de gérer leurs contenus multimédias. En s’appuyant sur la puissance des clouds publics et des outils d’Intelligence Artificielle, l’offre de WizyVision évolue très vite et développe des services innovants que les fournisseurs classiques seront incapables de proposer. Il s’agit en priorité de répondre aux attentes des collaborateurs opérationnels pour des cas d’usages métiers spécifiques, dopés à l’Intelligence Artificielle.

L'objectif de WizyVision est de se trouver, le plus vite possible, en position "D" sur les courbes de Christensen.

Phrase 5 : The fact that disruption can take time helps to explain why incumbents frequently overlook disrupters. (Le fait que cette rupture prend du temps explique pourquoi les fournisseurs existants ignorent souvent les entreprises de rupture sur leurs marchés.)

Il est encore trop tôt pour savoir si WizyVision sera ou non sur le radar des leaders actuels des outils DAM. Mon sentiment est qu’ils vont considérer que le marché va rester focalisé sur les besoins spécialisés et complexes des départements de communication et de marketing. Le “nouveau” marché des usages multimédia pour tous les collaborateurs d’une entreprise ne leur semblera pas porteur, et ils seraient incapables de l’adresser au vu de leurs structures de coûts.

 

Phrase 6 : In contrast, the digital technologies that allowed personal computers to disrupt minicomputers improved much more quickly. (En revanche, ce sont les technologies numériques qui ont permis aux ordinateurs personnels de perturber beaucoup plus vite les mini-ordinateurs.)

C’est l’un des avantages clefs de lancer une entreprise numérique en 2020. En proposant dès le début une offre SaaS sur un cloud public, WizyVision a la capacité de rendre ses solutions immédiatement accessibles aux entreprises du monde entier. En s’appuyant sur les meilleurs logiciels existants dans les domaines du stockage, du traitement des images et des vidéos, de l’intelligence artificielle, WizyVision est en capacité de rentrer très vite dans un grand nombre d’entreprises et d’avoir un plus grand nombre d’utilisateurs de ses solutions que les grands acteurs existants, limités au seul créneau des départements marketing et communication.

 

Phrase 7. Some disruptive innovations succeed; some don’t. (Quelques innovations de rupture réussissent, d’autres pas.)

AdS DPC failure success S 133104203Créer une entreprise est toujours difficile et parsemé d’incertitudes ! Suivre à la lettre les enseignements de Clayton Christensen et avoir tous les attributs d’une innovation de rupture n’est pas une garantie de succès ! Il faudra attendre quelques années pour savoir si WizyVision réussit à s’imposer en répondant à des attentes qui n’étaient pas couvertes par les solutions existantes.

Rendez-vous est pris en 2022 !

 

Synthèse

AdS DPC Leadership S 170209190Clayton Christensen fait partie de ces très rares personnes qui auront profondément influencé des milliers de dirigeants. Il leur a permis :

● “Disrupteurs”, de faire tomber plus rapidement les acteurs dominants.

● “Disruptés”, de mieux comprendre les risques et s’adapter pour résister aux nouveaux entrants.

Ces combats entre “disrupteurs” et “disruptés” vont s’intensifier dans les années qui viennent. Les dirigeants qui ne l’ont pas encore fait doivent impérativement lire les principaux ouvrages de Clayton Christensen et, surtout, en appliquer les principes dans leurs différents métiers.

Le monde a perdu, cette semaine, un très grand monsieur.

 


Numérique, technologies, au service de la planète ?

 

Cover book More for LessEt si la croissance du numérique et de toutes les technologies innovantes était bonne pour la planète ?

En cette période de COP25, se poser la question a du sens.

Je viens de terminer la lecture de “More From Less”, de Andrew McAfee, économiste et chercheur au MIT de Boston, publié il y a quelques semaines.

Dans une période où le pessimisme l’emporte, en particulier sur l’avenir de notre planète, il est réconfortant de lire un ouvrage qui propose une vision optimiste, positive de ce qu’il est possible de faire, rapidement.

Comme le dit un commentaire de Christine Lagarde sur la couverture, son contenu est vraiment contre-intuitif”. J’ai moi aussi eu souvent des réactions de surprise ou de rejet devant certaines des affirmations et démonstrations d’Andrew McAfee. 

Cet ouvrage n’est pas la seule source que j’ai utilisée pour écrire ce billet, trois fois plus long que d’habitude, mais c’est lui qui m’a donné envie de l’écrire.

Je vous demande aussi d’avoir le “courage” de ne pas rejeter les idées que je présente avant de l'avoir lu dans son intégralité.

 

Un peu d’histoire économique : avant la révolution industrielle

More From Less” est un livre d’économiste, et l’on s’en rend compte rapidement : il y a de nombreuses références à des études scientifiques et beaucoup de graphiques qui illustrent des tendances à long terme.

Face aux défis posés par le réchauffement climatique, beaucoup pensent que la solution de tous les maux de la planète est dans le retour au passé, à l’époque qui a précédé la révolution industrielle, qui a commencé vers les années 1800.

Auriez-vous souhaité vivre avant l’année 1800 ? Moi, non !

En 1800, il y avait un milliard de personnes sur terre, dont l’espérance de vie moyenne était de... 40 années.

Comme le montre ce graphique, cette espérance de vie avait des hauts et des bas prononcés ; les graves crises sanitaires, telles que la peste, déclenchaient des baisses brutales de l’espérance de vie des humains. 

Sur la période 1000 - 1800, cette espérance de vie a été en moyenne de 28 années !

Espérance vie monde 1500 - 2015

Sur cette même période, 1000 - 1800, le revenu par personne avait augmenté de 50%, en… 800 ans, un taux de croissance exceptionnel !

 

La première révolution industrielle, à partir de l'année 1800

La première machine à vapeur de Watt et Boulton date de l’année 1776. C’est pour de nombreux historiens de l’économie “l’idée la plus puissante au monde”, et elle annonce la première révolution industrielle.

La croissance économique décolle rapidement à partir de l’année 1800. L’une des caractéristiques essentielles de cette première révolution industrielle, c’est le parallélisme entre cette croissance économique et la consommation de ressources matérielles extraites de la terre, comme le démontre Andrew McAfee dans son livre. 

J’en ai extrait deux graphiques qui illustrent ce parallélisme :

- Croissance économique des USA et la consommation d’acier, d’aluminium et d’engrais, entre les années 1900 et 1970.

PRI - US GDP & Ressources :: 1900 - 1970

- Croissance économique des USA et la consommation d’énergie, entre les années 1800 et 1970.

PRI - US GDP & Energy :: 1800 - 1970

Il n’a pas fallu très longtemps pour que des économistes s’inquiètent de cette forte croissance ; ce pessimisme se retrouve dans deux ouvrages cités par Andrew McAfee.

- William Jevons publie en 1865 “la question du charbon”. Il prédit qu’au rythme actuel de croissance de sa consommation, tout le charbon disponible aura disparu en moins de 100 ans.

  - Alfred Marshall publie “Principes de l’économie” en 1890. Ce livre de 800 pages, un grand texte à la base de l’économie moderne, annonce que “we want more”, que l’humanité en demande toujours plus et que les ressources de la terre ne sont pas infinies.

L’année 1970 marque un tournant majeur dans cette prise de conscience des impacts négatifs d’une croissance parallèle de l’économie et des ressources consommées.

Earth Day 22 April 1970  New York TimesLe 22 avril 1970, le premier “Earth Day”, jour de la terre, est organisé aux USA. Plus de 20 millions de personnes défilent dans les rues. Républicains et démocrates, pour une fois unis, y participent et les premières lois environnementales sont votées avant la fin de l’année 1970 :

  • Création de l’agence de protection de l’environnement, EPA.
  • Lois de protection des espèces en danger.
  • Lois sur air propre et eau propre : clean air, clean water.

Il y a un avant et un après “Earth Day”, qui est célébré tous les ans le 22 avril.

Andrew McAfee note dans son livre que l’humanité a toujours tendance à donner plus de valeur aux visions pessimistes face à celles qui sont optimistes. Nostradamus en est un bon exemple.

Ceci se vérifie dans les années qui suivent “Earth Day”. Cet article regroupe 18 prédictions de catastrophes qui, heureusement, ne se sont pas produites.

J’en ai extrait trois, à titre d’exemple :

  • Paul Ehrlich était l’un des plus pessimistes : il annonçait que, entre 1980 et 1989 (admirez la précision) 4 milliards de personnes, dont 65 millions d’Américains, allaient mourir de faim.
  • L’écologiste Kenneth Watt, l’organisateur de la Earth Day, prédisait que l’on allait vers un “âge de glace” avec une température qui baisserait de 4° d’ici à 1990 et de 11° en 2000 !
  • Un scientifique de l’académie des sciences, Harrison Brown, annonçait que les réserves d’or, d’argent, de plomb et de zinc auraient disparu en 1990, et celles de cuivre en 2000.

Cette année 1970 est aussi emblématique, car l’économie mondiale allait basculer dans la deuxième vague de la révolution industrielle, et personne ne s’en était rendu compte...

 

Révolution industrielle : l’après 1970, la dématérialisation de l’économie

C’est à mon avis l’apport principal de Andrew McAfee dans son livre, “More From Less”.

Il met clairement en évidence que, depuis 1970, il n’y a plus de parallélisme entre la croissance économique et l’usage des ressources finies de la terre.

Il a donné le nom de “dématérialisation” à ce phénomène majeur qui lui permet d’être raisonnablement optimiste sur l’avenir de la planète.

Il avait abordé le sujet dans son livre précédent, “Second Machine Age”, publié en 2015 et co-écrit avec Eric Brynjolfsson.

Un autre texte essentiel sur ce sujet a été publié en 2015 par Jesse Ausubel : “Le retour de la nature, comment la technologie libère l’environnement”. Quelques graphiques utilisés dans ce billet en sont extraits. 

C’est un document de quelques pages, dont la lecture est indispensable pour toute personne qui souhaite comprendre “rationnellement” les mutations positives et rapides de l’économie mondiale. Vous ne sortirez pas “indemne” de cette lecture !

Ces trois graphiques, choisis parmi plusieurs dizaines, illustrent ce découplage entre la croissance économique et la consommation de ressources physiques limitées, qui a commencé, je le rappelle, dès 1970, il y a 50 ans.

Découplage de la consommation d’énergie et de l’émission de CO2 aux USA (1800 à 2017).

US GDP & Energy 1800 - 2017

Décroissance des usages de matières premières aux USA (1900 à 2015)

Décroissance usages matières premières USA

Maïs aux USA : découplage entre surfaces plantées et production (1870 à 2015)

Rendements Mais USA

Un autre phénomène remarquable et positif c’est produit depuis 1970 : les conditions de vie de l’immense majorité de l’humanité se sont améliorées de manière exceptionnellement rapide.

En voici deux exemples : 

- Le nombre de personnes vivant en situation d’extrême pauvreté, avec moins de 1,25$ par jour, a fortement baissé depuis les années… 1970.

Population extreme powerty 1820 - 2015

- Nourriture, en Kcalories, disponible par personne, par continent. En 1970, l’Amérique du Sud, l’Asie et l’Afrique et la moyenne du Monde étaient sous le niveau de 2 500 Kcalories, correspondant aux besoins d’une personne qui travaille à temps plein. Depuis 2013, plus aucun continent n’est sous ce seuil.

Food in KCal : region 1970 - 2013

L’image de l’évolution du monde que me renvoient ces statistiques est… encourageante, alors que le discours dominant que j’entends tous les jours est anxiogène.

Qui croire ?

 

Deux visions du futur

Deux visions opposées du futur de la planète s’opposent aujourd’hui.

La première, pessimiste, alarmiste, considère que nous avons choisi le mauvais chemin, celui de la croissance, et qu’il est urgent de faire marche arrière.

Dans cette vision négative, les quatre cavaliers de l’apocalypse qui menacent le monde d’une mort rapide sont :

  • La croissance économique sans limites.
  • La mondialisation.
  • Les inégalités sociales.
  • La surpopulation.

4 cavaliers apocalypse

La deuxième, défendue avec brio par Andrew McAfee, considère que l’on est sur la bonne voie, que la dématérialisation de l’économie est une réalité en 2019 et que c’est au contraire… en accélérant que l’on pourra créer un monde où les futures générations pourront dire merci à leurs parents pour les actions qu’ils ont menées.

Il ne suffit pas d’avoir choisi la bonne direction, il faut continuer à agir avec force pour que les très nombreux problèmes qui restent à régler, et en priorité les évolutions du climat, trouvent des solutions pérennes.

Les “quatre chevaux de l’optimisme”, définis par Andrew McAfee comme moteurs de ces évolutions vers un monde meilleur sont :

  • Le capitalisme.
  • Le progrès technologique, et en priorité le numérique. (Technological progress)
  • Des gouvernements responsables. (Responsive Government)
  • La prise de conscience du public. (Public Awareness)

4 chevaux optimisme CTGP

Quelles sont les meilleures pistes, les plus grands dangers qui menacent cette dématérialisation de nos activités économiques ?


Accélérer la dématérialisation de l’économie

C’est le thème central du livre “More From Less” ; je vous en conseille fortement la lecture pour en comprendre dans le détail les modalités, que je vais résumer dans ce paragraphe.

Capitalisme

Liberté d’entreprendre, faire confiance au marché, encourager et rémunérer les entrepreneurs qui prennent des risques, investir pour réduire ses coûts, rechercher des profits… ce ne sont pas des démarches “honteuses”.

La situation est limpide : toutes les économies “riches” sont capitalistes en 2019.

Le contre-exemple parfait est celui du Venezuela. C’était, en 2001, le plus riche des pays d’Amérique du Sud avant qu'il ne bascule dans le socialisme pour devenir en moins de 20 ans un enfer pour ses citoyens. En 2018, 5 000 personnes par jour ont fui en Colombie. Le taux d’inflation de septembre 2019 n’était que de 39113 %, en “progrès” par rapport à celui d’août qui avait atteint 58561 %.

Deuxième exemple : l’Afrique subsaharienne  a un retard économique majeur par rapport au reste du monde ; c’est dans cette région que le nombre de régimes politiques ouverts et capitalistes est le plus faible.

A l’inverse, entre 1978 pour la Chine, et 1991 pour l’Inde, 40% de la population mondiale est devenue “plus capitaliste”, avec à la clef les extraordinaires résultats économiques obtenus par ces deux pays.

Le niveau de dématérialisation de l’économie, le niveau de santé varie fortement en fonction du niveau de développement économique des pays comme le montrent ces deux exemples :

- Les rendements agricoles, bœuf et lait, ont fait des progrès spectaculaires dans les pays riches, beaucoup moins dans les autres.

Animal yields by economical level of countries

Les taux de mortalité des mères et des enfants en bas âge ont baissé beaucoup plus vite dans les pays riches que dans les pays peu développés.

Maternal & child mortality:region 1990 - 2015

Les impacts de ces inégalités sur l’état de la planète ? Indira Gandhi l’a bien compris en disant lors de la première conférence de l’ONU sur l’environnement en 1972 que la pauvreté est le plus grand pollueur”. Les économies riches polluent beaucoup moins que les pauvres. C’est en créant plus de croissance, plus de richesse, avec plus d’innovation et de capitalisme que l’on peut améliorer la situation mondiale.

Innovations technologiques et numériques

Nous sommes devenus meilleurs dans ce que nous faisions ! La deuxième vague de la révolution industrielle, poussée en priorité par la croissance exponentielle de la puissance des outils numériques accélère ce découplement de la croissance économique et de l’extraction de ressources de la terre.

L’exemple le plus emblématique est celui du smartphone, apparu en 2007 : un smartphone de 200 g et quelques centaines d’euros remplace aujourd’hui :

  • De nombreux objets physiques :
    • Téléphone classique
    • Appareil de photo
    • Caméscope
    • Lecteur de cassettes audio ou de CD 
    • Lecteur de DVD
    • GPS
    • Réveil
    • Montre
    • Radio
    • Calculatrice

Smartphone remplace nombreux objets

Oui, un smartphone consomme des métaux nobles et rares et de l’énergie pour être fabriqué. Oui, il consomme aussi de l’énergie pendant ses usages. Dans les deux cas, c’est beaucoup moins que ce que consommaient l’ensemble des outils qu’il remplace. 

Merci, le smartphone ! Grâce à vous, la planète se porte mieux !

  • De nombreux supports “physiques” d’information :
    • Cartes routières imprimées
    • Album de photos
    • Encyclopédies et dictionnaires
    • Guides de voyages, de restaurants, d’hôtels...
    • Agenda papier, à renouveler tous les ans
    • Annuaire téléphonique de ses contacts
    • Collections de disques vinyle, de CD et de DVD
    • ...

Smartphone remplace nombreux contenus

Quel est le coût pour la planète d’un DVD que l’on achète pour visionner un film, que l’on garde et que l’on ne “re-garde” jamais plus ? Les dizaines de kilos de papier de l’Encyclopedia Universalis que personne ne consultera plus jamais, car les informations qu’elle contient sont obsolètes ont représenté beaucoup de bois et d’énergie pour être fabriqués.

Il existe de nombreuses démarches d’innovations techniques possibles pour accélérer cette dématérialisation de l’économie. Les quatre principales sont bien identifiées :

  • Réduire les usages : les premières boîtes de Coca-Cola en aluminium pesaient 85 g en 1996 ; elles pèsent 12,85 g en 2011. Cela représente une diminution du poids de 85 %.
  • Remplacer : un kilogramme d’Uranium 235 dans une centrale nucléaire procure autant d’énergie que 2 à 3 millions de tonnes de charbon. C’est aussi une ressource non renouvelable, oui, mais de plus en plus recyclable, et elle n’émet aucun gaz à effet de serre.
  • Optimiser : le taux de remplissage des avions est passé de 56 % en 1971 à 81% en 2018 avec le développement des programmes informatiques de “Yield Management” qui optimisent ce taux de remplissage en faisant varier les prix de vente. Une augmentation de 44 % de l’efficacité du transport aérien mondial, c’est tout sauf marginal. Ils sont hélas encore nombreux ceux qui regrettent la “bonne vieille époque” où le prix d’un billet de train ou d’avion était stable et prévisible...
  • Supprimer : les énergies hydrauliques, éoliennes et solaires ne consomment aucune ressource terrestre périssable pendant leur fonctionnement. Elles consomment des ressources pour leur fabrication, oui, mais comme toutes les sources d’énergie, telles que les turbines à gaz ou les moteurs diesels. Le numérique est un très bon élève dans ce domaine. Comme le montre ce graphique, les entreprises GAFAM, si souvent décriées, sont les plus vertueuses du monde dans leurs usages d’énergies renouvelables. Elles représentent 5 des 6 meilleurs au monde ; Google est maintenant à 100 %. Merci aux GAFAM, de la part de la planète reconnaissante…

Best users energy Google

 

Gouvernements responsables

Le capitalisme, l’innovation sans aucun contrôle peuvent engendrer des catastrophes et la majorité des économistes responsables disent que les gouvernements ont des rôles clefs à jouer pour fixer des règles fortes qui protègent les personnes et la planète.

Ce sont les gouvernements qui doivent prendre en compte les “externalités négatives”, aussi appelées les “spillovers”. Une entreprise qui pollue l’air ambiant ou la rivière où elle déverse ses déchets chimiques sans pénalités ne fera probablement pas beaucoup d’efforts pour réduire ses nuisances.

Tout n’est pas noir dans ce domaine, et plusieurs succès majeurs ont déjà été obtenus.

La suppression des émissions de CFC, pour protéger la couche d’ozone, en est un bon exemple. Le protocole de Montréal signé en 1987 prévoyait au départ une réduction de 50% des émissions ; il a été étendu rapidement à 100%. Les entreprises qui utilisaient ces gaz pour leurs produits tels que les aérosols ont rapidement trouvé des substituts et ont, en même temps, réduit leurs prix de revient !

CFC reduction

Autre succès majeur : les émissions de polluants par les voitures, y compris les SUV et les Pick-up, ont été réduites de 99% aux USA entre 1970 et 2019, avec des moteurs qui en plus sont 42% plus légers. Et c’est aux USA ! L’Europe a fait beaucoup mieux.

Il reste beaucoup de problèmes majeurs pour lesquels il n’existe pas, aujourd’hui, de solutions satisfaisantes.

Andrew McAfee a clairement identifié le domaine où le rôle des états est primordial : gérer la “tragédie” des ressources communes, accessible par tous, n’appartenant à personne, comme les océans et les problèmes de sur-pêche. Dans ce domaine aussi, nous avons fait des progrès, insuffisants, mais réels.

Le rejet des plastiques dans les mers est l’un de ces sujets à régler de toute urgence ; on estime ce volume à 8 millions de tonnes par an. Ce chiffre fait peur, et c’est bien sur l’objectif.

Et si, sur ce défi précis, l’on regardait avec un peu de pragmatisme et de rationalité la réalité.

Pour résoudre ce problème, un jeune hollandais de 18 ans, Boyan Slat, a créé en 2013 la société OceanCleanUp. Son histoire est passionnante, inspirante et confirme qu’il faut faire confiance à la jeunesse, à l’entreprise et la technologie pour s’attaquer aux grands problèmes du monde.

Sa première idée était de récupérer les plastiques déjà dans l’océan et il a construit des bateaux qui sont opérationnels pour cela.

Il s’est ensuite posé une excellente question : et si l’on prenait le problème à la base : que ce passerait-il si on pouvait intercepter ces plastiques dans les rivières avant qu’ils n’atteignent la mer ?

Des caméras posées sur les ponts des rivières, aidées par des logiciels d’intelligence artificielle, ont mesuré le volume de plastique charrié par les rivières du monde. Ces mesures, loi de Pareto oblige, ont montré que 1 000 rivières étaient responsables de 80 % des rejets de plastique dans la mer.

Un peu d’arithmétique simple, partant du chiffre de 8 millions de tonnes par an, montre que ces 1 000 rivières transportent chacune en moyenne 6 400 tonnes par an, soit 17 tonnes par jour.

La nouvelle version de leur bateau, baptisé “interceptor”, annoncé en fin 2019, est capable d’ingurgiter entre 50 et 100 tonnes de plastiques par jour. Il est alimenté à 100 % en énergie solaire et peut fonctionner 24h/24. Le premier bateau a été testé avec succès aux Pays-Bas, qui n’est pas le pays le plus ensoleillé du monde !

Bateau ramassage plastiques rivières

Regardez cette vidéo de 25 minutes,


c’est une excellente cure d’optimisme avant le début de la nouvelle année !

En prenant l’hypothèse basse de 50 tonnes, et sans tenir compte des progrès qui seront réalisés au cours des prochaines années, il suffirait de 1000 bateaux OceanCleanUp dans le monde pour que le flux de plastiques nouveaux dans la mer soit tari. Boyan Slat c’est fixé comme objectif de fabriquer ces 1 000 bateaux en 5 ans ! Bravo pour l’ambition.

Les trois premiers sont déjà opérationnels en Indonésie, Malaisie et Vietnam ; les deux prochains seront en République Dominicaine et à … Los Angeles.

Je ne connais pas le prix de vente d’une tonne de plastique aux entreprises qui les recyclent, mais chaque bateau peut récupérer jusqu’à 18 000 tonnes de plastiques par an. Je suis prêt à parier que cette opération sera économiquement rentable, sans avoir besoin de subventions des états.

J’ai choisi d’analyser pour vous en détail ce problème précis pour montrer que l’on peut, que l’on doit être optimiste.

J’aimerais bien que toutes les personnes qui se plaignent en permanence de la pollution des mers par les plastiques et qui en parlent dans les médias se fassent le relais de ce projet “OceanCleanUp” pour que tous les gouvernements des pays où sont ces 1 000 rivières commandent immédiatement leur “Interceptor”. Ce que je crains, c’est qu’ils ne le fassent pas en prétextant que “cela ne peut pas fonctionner” alors que leur véritable motivation est toute autre, hélas. Si cela fonctionne, mon métier de lanceur d’alerte disparaît !

Andrew McAfee confirme la tendance de l’humanité à donner plus de valeur aux visions pessimistes face à celles qui sont optimistes. Il cite dans son livre plusieurs économistes qui essaient d’aller contre ce biais négatif, mais avec beaucoup de difficultés : Simon, Rosling, Pinker, Roser….

 

Le défi le plus urgent : réchauffement climatique

LE problème le plus urgent, non réglé aujourd’hui est celui du climat. Il a été remarquablement résumé par le scientifique Kim Nicolas :

  • Ça se réchauffe.
  • C’est nous.
  • Nous en sommes sûrs.
  • C’est mauvais.
  • Nous pouvons trouver des solutions.

Nasa Climate

De premières solutions sont connues, telles qu’une taxe carbone mondiale. En faisant payer, cher, les pollueurs, qui sont pour l’essentiel des acteurs économiques “capitalistes”, on peut leur faire confiance pour trouver des moyens techniques et numériques innovants pour réduire leur facture. 

L’absence totale de résultats significatifs après la COP25 qui vient de se terminer à Madrid n’est pas un signal positif. 25 000 personnes se sont réunies pendant 2 semaines, sans trouver le moindre accord sérieux. En 2020, à l’inverse de ce qui c’était passé en 1970 après le “Jour de la terre” ou à Montréal en 1987 pour le CFC, il existe trop de gouvernements “irresponsables”, tels que les USA ou le Brésil, dont les dirigeants incompétents refusent les évidences scientifiques et croient, ou font semblant de croire que le réchauffement de la terre n’est pas lié aux activités humaines.

Un accord sur une taxe carbone n’a pas pu être signé ; c’était pourtant l’objectif prioritaire de cette COP25...

 

Défis pour les années 2020 - 2025

AdS DPC green HopeNous connaissons les quatre chevaux de l’optimisme qui peuvent, ou non, nous faire avancer rapidement vers un monde meilleur.

Où en sommes-nous, à la veille de l’année 2020 ?

Je sens profondément qu’il y a d’excellentes raisons de garder espoir

Je suis très optimiste sur la dimension technologique et numérique, raisonnablement optimiste sur la dimension capitalisme, prudent sur la dimension politique et très inquiet en ce qui concerne le grand public.

Technologie et numérique

Des milliers d’entreprises existantes, des milliers d’entrepreneurs travaillent tous les jours, dans le monde entier, pour imaginer des innovations technologiques de rupture qui apporteront des réponses aux nombreux défis qu’il faut affronter pour permettre à notre planète de rester un lieu de vie exceptionnel pour tous les humains.

Sur cette dimension “technologie”, je ne suis pas inquiet, au contraire. Nous aurons à notre disposition de plus en plus de solutions performantes pour continuer à dématérialiser notre économie.

Capitalisme

Le capitalisme moderne fonctionne bien, plutôt mieux qu’il y a des dizaines d’années. Le financement des startups en est un bon exemple : il est plus facile en 2020 de lancer des entreprises innovantes qu’il y a 20 ans.

Appuyer sur les accélérateurs de l’innovation technologique et numérique et de plus de capitalisme est la meilleure solution pour améliorer la situation de la planète, et non pas un ralentissement et un retour à monde ancien, perçu comme meilleur, alors que ce n’était absolument pas le cas.

Gouvernements responsables

Je n’ai pas envie de sombrer dans un pessimisme noir que l’absence totale de résultats de la COP25 pourrait déclencher. Les décisions du continent Europe de devenir “neutre carbone” en 2050 sont encourageants, même si la Pologne a refusé de s’engager. Des pays comme la Hongrie et la République tchèque ont obtenu que le nucléaire fasse partie des solutions envisageables ; il faut les remercier de cette position qui pourrait permettre à d’autres pays, comme la France, de “redécouvrir” les vertus des solutions nucléaires pour apporter rapidement des solutions fiables et sûres aux enjeux climatiques mondiaux.

Prise de conscience du public

Je suis beaucoup plus inquiet sur la dimension prise de conscience du public

La volonté des jeunes générations de s’attaquer au problème du réchauffement climatique me remplit d’espoir. En même temps, le suis consterné par leur trop forte sensibilité aux “fake news” et leur tendance à rechercher des solutions dans le passé plutôt que de se projeter dans un futur où l’innovation technologique est l’une des clefs du succès.

Les croyances qui ont bloqué et bloquent encore l’évolution raisonnable, raisonnée des innovations et d’une croissance “More From Less” sont de plus en plus nombreuses, fortes et inquiétantes. 

Quelques illustrations :

Terre plate créationistes

  • La terre est plate. Même s’ils sont ultra-minoritaires, il est quand même très “surprenant” de constater qu’il existe encore des personnes qui sont convaincues que la terre est plate, quand des millions d’images venant des satellites démontrent le contraire.
  • Le créationnisme, persuadé que le monde c’est créé comme l’indique la Bible. Ce mouvement est très présent aux USA comme le démontre, hélas, la création en 2016 du parc d’attractions Ark au Kentucky. Il présente aux visiteurs, heureusement moins nombreux que prévu, l’histoire de l’humanité en suivant à la lettre les enseignements de la Bible.
  • Les vaccins sont dangereux pour les enfants. Apprendre que la France fait partie des pays champions du monde des anti vaccins ne me rend pas très fier d’être français. Bravo, l’Europe ! Le nombre de cas de rougeole a doublé sur les six premiers mois de 2019 par rapport à 2018, avec déjà une centaine de morts qui auraient pu être évités. Et si l’on passait une loi permettant que les parents qui ne vaccinent pas leurs enfants puissent être jugés comme assassins de ces autres enfants morts par leur faute ?
  • L’énergie nucléaire est dangereuse. La France est l’un des pays d’Europe qui a le meilleur bilan carbone grâce au pari politique et économique audacieux du Général de Gaulle dans les années 1970 de promouvoir une énergie électrique avec une forte composante nucléaire. Rationnellement, c’est l’énergie la moins dangereuse du monde, mais essayer d’en convaincre des organismes comme Greenpeace, c’est tout sauf simple ! Que c’est difficile pour ces personnes, ces organismes qui ne prennent en compte que l’affectif de faire des choix cartésiens ! La fusion nucléaire, les nouvelles “petites” centrales sont des pistes d’amélioration exceptionnelles. Ne pas soutenir ces innovations, ne pas y investir, c’est rendre un très très mauvais service à la planète. 
  • Tous les OGM doivent être interdits. Le “golden rice” est un riz génétiquement modifié pour apporter des vitamines A aux personnes qui en manquent. L’UNICEF estime que 670 000 personnes meurent et 500 000 enfants deviennent aveugles chaque année à cause de cette carence. Les progrès sont tels que le "golden rice" version 2 est disponible depuis 2005 et produit 23 fois plus de vitamine A que la version 1. 107 prix Nobel sont pour, la Fondation Bill et Melinda Gates soutient le projet, mais Greenpeace est contre, car… cela ouvrirait la porte à d’autres OGM ! Ils font croire que les “grands méchants” industriels vont utiliser le "golden rice" comme un cheval de Troie pour inonder ensuite la planète d’autres OGM. Avoir ces millions de morts sur la conscience, cela ne les empêche pas de dormir ? Ces raisonnements “extrémistes” sont mortellement dangereux. Oui, il est réaliste de penser que certains OGM vont créer des crises alimentaires, oui, mais d’autres, beaucoup d’autres vont sauver des millions de vie. Cette culture assassine du risque zéro est l’une des plus grandes menaces pour l’humanité.

Anti Vaccins & nucléaire

Comment éviter que ces croyances dangereuses, superstitions colportées par des inconscients qui ignorent la rationalité et la science ne bloquent des solutions qui peuvent rapidement sauver notre planète ?

Il faudra beaucoup de courage aux gouvernants de tous les pays du monde pour s’engager dans ces combats.

 

Synthèse

DTN - Pari de Pascal - Avenir climatMerci à tous ceux qui auront fait l’effort de lire jusqu’à la fin ce long billet. A l’aube de l’année 2020, il pose beaucoup de questions essentielles sur l’avenir de l’humanité.

Je vous propose un nouveau “Pari de Pascal” pour la planète :

- Hypothèse “Dieu Existe” = la dématérialisation existe. L’accélération du mouvement industriel de dématérialisation de l’économie permet de préparer un avenir positif, le dérèglement climatique restant une priorité absolue.

- Hypothèse “Dieu n’existe pas” : il faut appuyer sur le frein, ralentir la croissance, la mondialisation, l’innovation technologique et numérique, freiner la croissance démographique pour espérer revenir à un monde meilleur, dans lequel nous étions auparavant.

Je vous souhaite à tous une excellente année 2020, en exprimant le souhait que cette nouvelle année se termine avec un maximum d’avancées positives, rendues possibles par de belles innovations numériques et technologiques de rupture, que ni vous ni moi ne connaissons encore.

Mises à jour permanentes : je vais ajouter périodiquement des informations qui peuvent enrichir le débat sur ce sujet essentiel.

18 décembre 2019. De manière volontaire, toute la profession du transport maritime mondial vient de décider d'établir une taxe de 2$ par tonne sur le combustible très polluant utilisé par les navires qui font du transport international. Le "Capitalisme" va investir sur 10 ans 5 milliards de dollars avec pour objectif de devenir neutre carbone en 2050. Ils n'ont pas attendu des subventions des états, bravo.

18 décembre 2019. Une remarquable liste de 99 événements positifs pour la planète qui se sont déroulés en 2019 dans tous les domaines abordés dans ce billet : climat, santé, standard de vie, numérique, énergie...


Un si long silence…

 

AdS DPC Silence emoticon 30562777Trois mois sans publier un nouveau billet sur mon blog, cela ne m’était jamais arrivé !

Il y a une raison à ce silence, même si ce n’est pas une excuse.

 Je viens de terminer la rédaction d’un livre qui sera publié début septembre 2018. Il est coécrit avec Dominique Mockly, PDG de Teréga, opérateur français d'infrastructures gazières, auteur de "L'entreprise cerveau : petite apologie de la curiosité " publié en 2015 aux éditions Débats Publics et qui a engagé une Transformation importante de l'entreprise qu'il dirige avec un volet numérique décisif."

Son titre :

Dirigeants, Acteurs de la Transformation Numérique

C’est, à ma connaissance, la première fois qu’un dirigeant et un spécialiste du numérique mettent en commun leurs compétences pour traiter ce sujet.

Il sera publié directement sur Amazon, en format papier et en format Kindle. Dans un autre billet, publié sur ce blog quelques jours avant la sortie de ce livre, j’en présenterai les principaux thèmes. Les lecteurs de mon blog y retrouveront un grand nombre des idées que j’y défends depuis de nombreuses années.

C’est un ouvrage court, destiné en priorité aux dirigeants d’entreprises, publiques et privées, grandes et moyennes.

Ses principaux objectifs :

  • Aider les dirigeants à comprendre les potentiels et les challenges de la Transformation Numérique de leur entreprise.
  • Leur faire découvrir les potentiels immédiats des solutions numériques opérationnelles.
  • Présenter les démarches de rupture qui permettent de mettre en œuvre, rapidement, une Transformation Numérique dans leur entreprise.
  • Etablir les règles d’une gouvernance efficace pour une Transformation Numérique réussie.

J’anime depuis des années des séminaires en interne pour aider des dirigeants à se préparer efficacement à la Transformation Numérique de leur entreprise.

L’écriture de ce livre m’a donné l’idée de proposer un séminaire interentreprises pour des dirigeants qui souhaitent aussi pouvoir échanger avec des dirigeants d’autres entreprises.

Séminaire Cap Institut DTN Louis NaugèsL’Institut CapGemini, avec qui je collabore depuis de nombreuses années, a accepté de le mettre à son catalogue. C’est le seul séminaire de ce catalogue qui dure une seule journée, pour permettre à des dirigeants de trouver plus facilement le temps d’y participer.

Son titre, vous l’avez deviné :

Dirigeants, Acteurs de la Transformation Numérique.

La première session aura lieu fin août 2018, avant la rentrée, pour permettre aux dirigeants qui y participeront de préparer leur plan d’action pour 2019.

Dès demain, promis, je reprends la publication de mes billets sur ce blog, avec la fréquence habituelle.

 


Tout savoir sur les réseaux sociaux

 

Gutenberg BibleOui, il m’arrive encore de lire de «vrais» livres ! J’en parle de temps en temps sur mon blog, que ce soit Nicholas Carr sur les impacts d’Internet sur notre cerveau (Il vient d’être traduit en français sous le titre «Internet rend-il bête ?») ou Christensen sur l’innovation.

Le livre, une technologie révolutionnaire ? Pour ceux qui ne l’auraient pas encore vue, je vous conseille ce petit chef-d'œuvre d’humour, disponible sur YouTube :

   

 

Réussir avec les réseaux sociaux

JF RuizAujourd’hui, je voudrais vous faire partager le plaisir que j’ai eu à lire le livre de Jean-François Ruiz, «Réussir avec les réseaux sociaux», livre qu’il a eu la gentillesse de m’offrir il y a quelques jours.

Ce n’est pas le premier livre que je lis sur ce sujet, en Anglais ou en Français. 

C’est par contre le premier que j’ai envie de recommander à toute personne intéressée par le sujet, et quel que soit son niveau de maîtrise du sujet.

Que vous soyez totalement débutant sur le sujet ou présent et actif sur les réseaux sociaux depuis plusieurs années, vous trouverez dans ce petit livre, facile et agréable à lire, des dizaines d’informations et d’idées que l’on peut mettre en pratique immédiatement.

 

Le contenu, en quelques lignes

Couverture RSE RuizL’essentiel y est ! Les principes, un panorama des principales solutions du marché, comment se comporter sur un réseau social, les principaux risques, les  usages personnels et professionnels, comment gérer sa présence multiréseaux, s’assurer une bonne visibilité....

Le chapitre «panorama des réseaux sociaux» sera probablement l’un des plus lus ; les avantages respectifs et différences entre les «grands» acteurs du marché, Facebook, LinkedIn, Twitter, Viadeo ou Xing sont clairement expliqués.

Il y a aussi quelques lignes sur les anciennes gloires telles que MySpace et quelques réseaux de niche : ASmallWorld ou Digikaa.

Ecrire un livre sur un sujet aussi évolutif est délicat : de nouvelles solutions naissent en permanence et Jean-François a du rajouter quelques pages sur la solution dont tout le monde parle, Google+; même s’il ne l’a pas placée dans la liste des grands du marché.

 

Google+ NaugèsBeaucoup de liens, des résumés clairs et un petit «quiz» à la fin de chacun des chapitres pour tester sa compréhension ; l’organisation du livre en permet une lecture très modulaire, chacun à son rythme.

 

Une forte orientation RSE, Réseaux Sociaux d’Entreprise

RSE 2C’est pour mol l’un des points les plus forts de ce livre ; la dimension professionnelle des réseaux sociaux est très bien analysée.

On y trouve d’excellents conseils pour les personnes qui souhaitent utiliser les réseaux sociaux pour améliorer leur efficacité au travail ou donner plus de visibilité à leurs compétences ; essayer de progresser dans sa vie professionnelle n’est pas un vilain défaut !

Il y a aussi des pages que tout responsable d’entreprise, tout DSI qui souhaite promouvoir un RSE dans son entreprise lira avec beaucoup de profits :

- Comment démarrer un RSE.

- Comment le faire vivre.

- Les principaux écueils à éviter.

  

Un livre écrit en mode «collaboratif 2.0»

Collaboration

Jean-François n’est pas le seul auteur de ce livre ; il a fait appel aux compétences de 14 autres personnes, toutes bien sur citées à la fin de l’ouvrage.

Ce livre est aussi intéressant dans la manière dont il a été écrit et réalisé : comment faire travailler 15 personnes sur un même texte ? Cela ne surprendra pas les lecteurs de ce blog d’apprendre que l’outil utilisé pour écrire ce livre était, bien sûr, Google Apps ! 

C’est un exemple emblématique de la valeur de ces outils collaboratifs natifs, les seuls qui permettent à un groupe de personnes, appartenant toutes à des entreprises différentes, travaillant dans des lieux différents, de produire rapidement un document aussi complexe que ce livre.

Il m’a été très difficile d’essayer d’imaginer qui avait pu écrire telle ou telle partie du livre ; c’est la meilleure preuve de la réussite de ce travail collectif.

Disclaimer : je connais Jean-François depuis plusieurs années et il a participé à l’une des premières missions de Revevol lors du démarrage de la société.

 

 


«L’homo interneticus» restera-t-il «l’homo sapiens» ? (Deuxième partie)


Nicolas Carr Rappel : Le troisième livre de Nicholas Carr, «What the Internet is doing to our brains: the shallows.», s’intéresse aux impacts d’Internet sur le cerveau humain. La première partie de cette analyse a mis en évidence les découvertes récentes des neurosciences sur l’extraordinaire plasticité de notre cerveau.

Cette deuxième partie fait le point sur les liens entre le fonctionnement de notre cerveau et Internet.
Hyperliens, multimédia, instantanéité, multitâches, bidirectionnalité... Ce sont, pour Nicholas Carr, les éléments qui différencient le plus Internet de nos «outils de l’esprit» traditionnels.

J’ai aussi choisi de mettre en évidence trois thèmes majeurs des «shallows» :
- Le bouleversement de notre relation au livre.
- Les processus de mémorisation.
- Les rôles et la responsabilité de... Google dans ces mutations.


Hypermédia

Hypermedia La numérisation de tous les contenus, textes, images, sons, vidéos a mis fin à la fragmentation historique des médias et de leurs outils de consommation.

Un livre pour un texte, un vinyle pour la musique, une cassette VHS pour un film, tout ceci disparait rapidement, remplacé par des «pages Web» multimédias où l’on peut accéder instantanément à un document PDF, Pandora pour sa radio sur mesure et à une vidéo YouTube.

Ces contenus multimédias se transforment en «hypermédia » par la généralisation des liens hypertextes. Si l’on y rajoute le multifenêtrage, l’interactivité, l’Internet se transforme en un :

  «Écosystème de technologies d’interruption»

L’hégémonie du Web sur le packaging et la circulation de l’information numérique devient totale, marginalisant progressivement tous les autres médias.
Nicolas Carr cite plusieurs études qui démontrent que plus il y a de liens, plus la dimension multimédia d’une page Web est grande, moins la compréhension d’un texte est bonne !
Tout ce passe comme si nos cerveaux, débordés par ces hyperliens, le multitâche, la variété des médias, retournaient à un état plus primitif, pré-Gutenberg !


Instantanéité

Eparpiller - Confetti Pour un «digital native» de la génération Y, devenir invisible sur le Web si l’on ne réagit pas en permanence, si l’on ne nourrit pas son réseau social est un risque majeur qu’il ne peut plus prendre.
S’y rajoute la nature «bi directionnelle » du Web 2.0, très différente des médias historiques tels que livre, presse, radio ou TV ; elle nous pousse à réagir en permanence et augmente encore le nombre d’interruptions que doit gérer notre cerveau.

Un internaute est aussi accaparé par la forte dimension «physique» du Web : on clique, on passe en mode portrait ou paysage sur l’iPhone ou l’iPad, on réagit à des signaux sonores ou visuels, on fait glisser sa souris....
En résumé :

L’Internet accapare notre attention pour mieux... l’éparpiller !


Le livre et Internet

Pour Nicholas Carr, l’impact d’internet sur notre capacité de lecture et de compréhension d’un livre classique, papier, est l’un des plus forts et des plus préoccupants.

Old Book Ce n’est pas la première fois que la fin des livres avait été annoncée, par erreur. Lamartine en 1831 disait que le seul livre survivant serait un journal. Philip Hubert pronostiquait, en 1889, après l’invention du phonographe que l’on écouterait les livres.

Quelques idées-forces défendues par Nicholas Carr :
- Avec Internet, on passe plus de temps à lire, mais... moins de temps à lire des livres.
- Les mots de l’écran ne sont plus les mots du livre.
- Nous avons migré vers un mode de lecture instantanée : pages Web, publicité, menus, étiquettes...Il est très différent du mode de lecture en profondeur que nous utilisions pour les livres.
Christian Science Monitor - La majorité des Américains passent plus de 8 heures par jour devant un écran, de TV, d’ordinateur ou de téléphone, souvent simultanément et moins de temps à ouvrir des revues et surtout des livres. Ceci a déjà entrainé la disparition ou la Webisation de journaux historiques, tels que le «Christian Science Monitor» et le mouvement s’accélère.

Internet a commencé à bouleverser tout l’écosystème du livre classique, papier, qui existait depuis plus de 500 ans.
Tout change ! Comment on écrit, comment on lit et comment on commercialise le livre.

Japan Mobile Novel Au Japon, les «nouvelles» écrites depuis des téléphones mobiles sont devenues des best-sellers ; en 2007 les trois meilleures ventes appartenaient à cette catégorie.

Le succès des e-books se confirme ; il sera amplifié par la banalisation des «fonctions e-book» sur des outils numériques universels tels que les smartphones ou l’iPad.
Mais, un e-book avec des liens, ce n’est plus un livre !

Vook 1 Les «vooks» (vidéobooks) débarquent ! De grands éditeurs tels que Simon & Schuster, proposent des livres avec des vidéos incrustées dans les pages virtuelles.

En analysant le mouvement des yeux sur une page Web, on a découvert que l’internaute faisait de plus en plus une lecture en mode «F». Il lit les premières lignes en entier, survole à moitié le milieu de la page et saute rapidement à la page suivante.

Book scanner for Google Pour numériser les livres, Google a mis au point des outils capables de lire 430 langages différents. Malgré les difficultés actuelles et transitoires rencontrées par Google Books, sur les copyrights, les réticences de certains gouvernements, ce mouvement est irréversible ; demain, tous les livres seront disponibles en mode numérique !
Oui, mais numériser un livre, c’est rompre sa linéarité et encourager sa lecture, sa consommation par tout petits morceaux, comme on lit des citations.

L’impact des réseaux sociaux sur le livre est aujourd’hui marginal, mais va s’amplifier. Des groupes de lecteurs commencent à «remixer» des livres, à partager leurs réactions, à mettre des commentaires...
Va-t-on assister la fin de l’écriture et de la lecture solitaire ?

Un livre classique est un produit fini, sur le Web il devient un processus continu. En résumé :

Comment lit-on sur le Web ? On ne lit pas !


La mémoire et Internet

Petit rappel.
Short term memory Le cerveau utilise deux zones de mémoire très différentes, court terme et long terme. Nos processus de pensée, nos actions de «traitement» de l’information se réalisent dans la mémoire court terme ; les informations qui y résident ont une durée de vie très courte.

La mémoire long terme est utilisée pour garder, de manière pérenne, les informations, mais le processus de mise en mémoire long terme est très complexe et consommateur de temps.
Pour en comprendre l’essentiel, et si vous ne l’avez pas encore fait, je vous conseille vivement de lire le célèbre texte de George Miller «The Magical Number Seven, Plus or Minus Two: Some Limits on our Capacity for Processing Information» écrit en 1956. (Le nombre magique sept, plus ou moins deux...)

Peut-on, doit-on externaliser sa mémoire sur Internet ?
Beaucoup de scientifiques pensent que c’est inéluctable et... une bonne chose. Le cerveau, libéré de ce travail de mémorisation, pourrait se consacrer à beaucoup d’autres activités plus «nobles».
Nicolas Carr prend clairement position contre cette thèse, et la considère même comme très dangereuse.

Computer memory human memory L’analogie de la mémoire humaine fonctionnant comme une mémoire informatique est tentante :
Mémoire court terme = mémoire de l’ordinateur.
Mémoire long terme = disques magnétiques ou «Cloud».

Oui, mais cette analogie est... totalement fausse. Le modèle «informatique» de la mémoire ne correspond absolument pas à la réalité d’une mémoire humaine, organique, vivante et dynamique.

Passer de la mémoire court terme à la mémoire long terme, pérenne est un processus complexe qui prend au moins une heure. La mise en mémoire long terme de nouvelles informations induit des changements anatomiques dans le cerveau, des réactions chimiques et la création de nouvelles synapses.

Le vieux dicton : «on apprend mieux en dormant» est confirmé par les éludes les plus récentes, qui montrent que le cerveau a besoin de temps pour mémoriser «chimiquement» les informations.

Ce qui inquiète beaucoup Nicholas Carr, c’est que nos modes d’usages d’Internet induisent une perte progressive de notre capacité à créer des mémoires pérennes : «L’acquisition de connaissance dans la mémoire long terme, «deep learning & thinking», est rendue très difficile par Internet».

C’était principalement par la lecture «profonde» des livres que nous nourrissions notre mémoire long terme. Si, comme l’a montré le paragraphe précédent, notre capacité à lire des livres se réduit fortement, notre mémoire long terme ne va plus être alimentée !

Memory loss Nicholas Carr pense qu’Internet nous donnera l’illusion de disposer d’une mémoire long terme infinie ; rien n’est plus faux !
En surchargeant notre mémoire court terme par des milliers d’interruptions, Internet réduit fortement notre capacité à créer une mémoire long terme structurée et cohérente, ce qui avait été l’une des plus grandes avancées des 500 dernières années.

Si Nicholas Carr a raison sur ce point, c’est très inquiétant.


Google, Dieu ou Satan ?

Nicholas Carr a une vision très ambivalente de Google. Il est le premier à reconnaître les apports du moteur de recherche et des autres outils grand public, qu’il utilise beaucoup. Il est en même temps très critique de la vision «technocentrique» de leurs dirigeants.
Article Is google making us stupid L’article qui a servi de base à ce livre, publié il y a deux ans dans la revue «The Altantic», avait d’ailleurs pour titre :
«Is Google Making Us Stupid?» (Est-ce que Google nous rend idiot ?»
(Il a été traduit en français)

Nicholas Carr évoque une «Eglise Google» et aucun de ses trois principaux responsables n’échappe à sa critique, même si c’est Eric Schmidt qui est le plus mis en cause, avec des citations telles que  :
«Google est construit sur la science de la mesure.»
« Le moteur de recherche parfait = qui comprend exactement ce que vous voulez dire et vous donne exactement ce que vous désirez.»
«... Utiliser la technologie pour résoudre des problèmes qui n’ont jamais été résolus, et l’Intelligence artificielle est le plus complexe de tous !» (Interview en 2005).

Google good or evil Question posée par Sergey Brin : « Google : Dieu ou Satan ?»

Larry Page : le cerveau ne ressemble pas à un ordinateur, c’est un ordinateur.

Pour Nicholas Carr, l’objectif de toutes les actions et de tous les produits de Google est clair : réduire le coût d’accès à Internet et en accroître la couverture en termes de contenu». Je le cite :
«Google is in the business of distraction»
(Google est dans le métier de l’interruption)

Nicholas Carr résume ainsi ses craintes :
«Ce que Taylor a réalisé pour le travail manuel,
Google le fait pour le travail du cerveau.»

Nicholas Carr ne fait pas de l’anti-Google primaire, au contraire. Il est très admiratif de l’intelligence de ses équipes et de ses milliers d’ingénieurs, capables de développer des outils que tous les internautes ont envie d’utiliser.
Ce qui l’inquiète, c’est la «faiblesse de l’homme» face à la puissance des outils du Web !


Synthèse

Brain internet Fantasmes ? Réalités ? Les profondes et rapides mutations du cerveau humain induites par l’usage intensif d’Internet : faut-il s’en inquiéter ?
Je vous encourage fortement à lire les «Shallows» de Nicholas Carr, à en découvrir les richesses et surtout à vous faire votre propre opinion sur les thèses qu’il défend.

Fat woman gym 2 Quand nos nouveaux modes de vie citadins ont multiplié le nombre de personnes obèses (75 % des Américains sont en surpoids), on a vu fleurir des gymnases.
Quels seront les nouveaux «gymnases de l’esprit» dont nous aurons besoin pour maintenir nos cerveaux en forme si Internet se transforme en «junk food» intellectuelle ?

L’internet, n’est ni ange ni démon, mais modifie en profondeur, et très vite, les mécanismes profonds de notre cerveau. En être conscient, c’est déjà une première victoire.
Comprendre les impacts potentiels, c’est pouvoir réagir, apprendre à utiliser Internet différemment, à prendre conscience des risques.

Si j’avais une seule critique à faire à Nicholas Carr, ce serait de ne pas proposer de réponses à la question de fond qu’il pose dans son livre :
«Si Internet risque de nous rendre stupide, quels sont les remèdes à cette possible dégénérescence de notre cerveau ?»

Comme il avait beaucoup de mal à terminer son livre, Nicholas Carr c’était «mis au vert», physiquement, et au sens Web, en réduisant fortement ses usages Internet. A la fin de cette période, qu’il a beaucoup appréciée, il a résumé son sentiment ainsi :

«I missed my old brain.» (Mon vieux cerveau me manquait.)

Et si la lecture des «Shallows» était un premier pas vers un usage plus responsable d’Internet ?

«L’homo interneticus» restera-t-il «l’homo sapiens» ?


The shallows couverture  Nicholas Carr vient de publier son troisième livre, au titre inquiétant :

«What the Internet is doing to our brains: the shallows.»
(Les impacts d’Internet sur nos cerveaux : les bas-fonds.)


Ce sera encore un grand succès de librairie, après ses deux ouvrages précédents, «Does IT matters?», qui avait secoué la profession informatique et «The big switch», très orienté «Cloud Computing» et dont j’ai déjà parlé dans ce blog.

Je viens de terminer la lecture des «Shallows» ; j’ai été passionné, interpellé !
Toute personne qui s’intéresse à l’évolution de l’humanité, qu’elle soit ou non grande utilisatrice d’Internet, le lira avec intérêt, surprise et/ou inquiétude, car il aborde des thèmes majeurs et... troublants.

Shallows versions by language S J’aurais aussi aimé pouvoir vous dire qu’il est possible de le lire en français. Comme le montre cette liste des éditions disponibles, la langue de Molière ne fait pas partie des priorités pour la traduction de ce livre ; le portugais et le coréen seront disponibles avant le français !

Je vous en conseille vivement la lecture cet été ; il ne vous laissera pas indifférent !
Vous serez aussi, comme moi, frappé par la «forme» de ce livre ; c’est un vrai livre à l’ancienne, vierge de tout schéma, graphique, tableau, images ou .... liens internet !

Tout le contraire de ce blog !



Résumé, pour un «homo interneticus»

Dans «The Shallows», Nicholas Carr constate que, comme beaucoup d’Internautes, il a de plus en plus de mal à lire des documents qui dépassent quelques lignes.

C’est en pensant à vous, Internaute intensif, «homo interneticus», que je résume dans ce paragraphe les idées clefs de son livre, au cas où vous n’auriez plus le courage ou la capacité de lire l’intégralité de ce blog, ou... le livre de Carr, qui, tous les deux dépassent... les 140 caractères !

Homo interneticus

- Les travaux récents de la neuroscience démontrent que notre cerveau est dans un état d’apprentissage permanent ; nous développons de nouveaux modes de pensée, mais nous pouvons aussi perdre les anciens si nous les pratiquons moins.
- Les outils «informationnels» changent nos manières de penser et d’agir.
- Les changements induits par ces outils dans nos manières de penser sont très rapides et souvent irréversibles.
- Internet, le plus récent de ces outils, aura au moins autant d’impacts sur nos cerveaux que l’alphabet, les cartes, l’horloge ou l’imprimerie.
-  Si on met de côté l’alphabet et le système numérique, l’Internet pourrait être la technologie de changement de nos cerveaux la plus puissante, au moins depuis l’apparition du livre.
- L’Internet est à notre service et devient aussi notre maître.
- L’internaute perd une grande partie de ses capacités de concentration, de contemplation et de réflexion.
- Déléguer à Internet notre mémoire est une grave erreur ; le fonctionnement de la mémoire humaine n’est pas comparable à celle d’un ordinateur.
- La lecture complète d’un livre devient impossible ou insupportable pour beaucoup d’internautes, y compris ceux qui ont fait de longues études littéraires.
- Ce que Taylor a réalisé pour le travail manuel, Google risque de le faire pour le travail du cerveau.


Une plongée dans des recherches récentes des neurosciences

Neuro - science Une partie importante du livre de Carr fait le point sur les dernières avancées de la neuroscience sur nos modes de pensées. Bien que totalement incompétent dans ce domaine, j’ai trouvé passionnant ces chapitres, dont je vais tenter d’extraire quelques idées-forces.

- Contrairement aux idées qui avaient cours durant les siècles derniers, le «câblage» de notre cerveau ne se termine pas à l’adolescence.
Depuis une quarantaine d’années, grâce aux progrès des outils d’analyse du cerveau, des dizaines d’expériences ont démontré l’étonnante plasticité du cerveau humain. En résumé :
- Tous les circuits neuronaux, qu’ils concernent le toucher, l’ouïe, la vision, la pensée, l’apprentissage, la mémoire sont sujets au changement, rapidement, et à tout âge.
- Notre cerveau est «massivement modifiable» ; cette capacité, même si elle décroit un peu avec l’âge, ne disparait jamais.
- Plasticité ne signifie pas élasticité. En clair, lorsque notre cerveau développe de nouvelles connexions, il peut aussi laisser mourir les anciennes, si elles ne sont plus utilisées avec une fréquence suffisante.


Quelques exemples

Nicholas Carr a réalisé un gros travail de compilation sur des études récentes menées par les meilleures équipes de recherche en neuroscience.
Il a aussi réalisé un important travail historique sur ce sujet, en remontant à la plus haute antiquité.

1- Des expériences passionnantes ont été menées sur des personnes ayant eu un accident cérébral et devenues hémiplégiques. Il est possible, après quelques semaines d’exercices intensifs, de permettre au cerveau de se «re-programmer» et de redonner une forte autonomie à des patients qui avaient perdu le contrôle de la main et du pied touchés par cet accident.
Au-delà de ces cas extrêmes, l’idée clef que j’en retiens et que la plasticité du système nerveux est son état «normal» pendant toute la vie.

2 - A la suite d’une chute de cheval, Friedrich Nietzsche, à 34 ans, perdait la vue et avait de plus en plus de difficultés à lire et à écrire.

MAE Mailing Hansen 2 En... 1882, il acheta une des premières machines à écrire, inventée par le danois Malling- Hansen, qui travaillait pour l’Institut Royal Hollandais des sourds-muets.
Ayant acquis la maîtrise de ce clavier, il recommença à écrire, les yeux fermés. Très vite, ses lecteurs lui firent remarquer qu’il avait changé de style ; ses textes étaient plus denses, plus courts. Nietzsche répondit : « Vous avez raison, nos outils d’écriture influent sur la création de nos pensées». 

Que peut-il se passer, aujourd’hui, avec les SMS et Twitter ?


3 - On a demandé à deux groupes de personnes, l’un composé d’Internautes chevronnés, l’autre de novices n’ayant jamais navigué sur le Web, d’utiliser un navigateur pour des tâches simples. Les zones du cerveau activées pour ces deux groupes étaient très différentes.

Brain-scan Le groupe de novices a ensuite suivi un entrainement d’exercices de recherche sur le Web, d’une heure par jour pendant 6 jours. Les mêmes tests ont été à nouveau réalisés pour les deux groupes et... les mêmes zones du cerveau étaient maintenant activées, pour les novices comme pour les pros !

En 6 heures ! Quelles peuvent être les conséquences sur notre cerveau de centaines d’heures d’usages d’Internet ?

4 - «Nous devenons ce que nous pensons
Des expériences ont démontré que les changements dans nos cerveaux peuvent être déclenchés par nos seules pensées, sans aucune action physique. L’une des expériences citées compare deux groupes de personnes apprenant à jouer une mélodie simple au piano.
Un premier groupe l’a fait physiquement, en pratiquant sur un piano, l’autre l’a fait «virtuellement», assis devant un piano, mais sans jamais toucher le clavier.
Dans les deux groupes, les changements mesurés dans le cerveau ont été identiques.


Les outils qui ont modifié nos manières de penser, notre cerveau

Nicholas Carr les appelle les «intellectual technologies», les «outils de l’esprit». Ce sont les principaux outils qui ont profondément modifié les modes de pensée de l’humanité et... ils sont très peu nombreux.
Il en cite quatre :
- L’alphabet, mis au point par les Grecs en 750 AC, avec son jeu de caractères très dense de 24 signes, il a permis l’essor de l’écriture comme substitut à la voix dans le transfert de la connaissance.
Socrate, l’orateur, contre Platon, l’écrivain, c’est un vieux débat !

- La cartographie, pour nos relations à l’espace.

- L’horloge mécanique, pour nos relations au temps ; ce sont les moines qui en sont à l’origine, pour pouvoir mieux rythmer leurs cycles de prières.

Clay, Papyrus, Wax - Les différents supports de l’écriture, la lourde argile des Sumériens contre le papyrus léger des Egyptiens (PC de bureau contre PC portable !), l’arrivée de la tablette de cire (iPad !), premier support effaçable. Ce sont surtout, au milieu du XV siècle, les inventions de Gutenberg qui ont permis la diffusion massive et économique de la connaissance écrite.

- La réduction de la taille des outils, que ce soit la montre portable ou le format «octavo» des livres (notebook !), en les démocratisant et en permettant un accès en mobilité a profondément changé les usages.
 
Depuis une quinzaine d’années, l’Internet a pris le relais comme nouvel «outil de l’esprit». Il aura des impacts sur le fonctionnement de notre cerveau au moins aussi importants, et plus rapides que  les quatre technologies historiques.

(Fin de la première partie)
La suite de ce texte sur l’»homo Interneticus» sera publiée dans un deuxième billet.
Elle fera le point sur quelques-uns des forts changements induits par internet, et en particulier sur le fonctionnement de notre mémoire, les dangers de nos dépendances à Google, notre difficulté à nous concentrer et à lire des livres «en profondeur».

A lire d’urgence, pour comprendre l’avenir de l’informatique !

Cover_big_switch_3 Nicolas Carr est devenu célèbre après avoir publié un article, puis un livre sur le thème :
Does IT matter? ( Est-ce que l’informatique est importante ?)

Il vient de publier son deuxième livre :
“The Big switch”

Un titre difficile à traduire, surtout après avoir compris que le mot “Switch” est utilisé pour parler de l’informatique et de l’énergie électrique. (Google translate propose : “Le grand passage” ! Cela rassurera les personnes qui m’avaient reproché de faire l’éloge de ce service de traduction)
Je propose quand même : “Le grand virage”, sachant qu’il est possible de trouver mieux ; j’accepterai avec plaisir les suggestions des lecteurs.

Ce livre est déjà disponible sur Amazon.com et annoncé sur Amazon.fr ; je reviendrais sur ce point à la fin de ce texte.


L’avenir de l’informatique = “On the Cloud”

La première partie du livre, les 7 premiers chapitres, est une remarquable démonstration de l’évolution des infrastructures informatiques “on the cloud” et des applications vers une logique SaaS, Software as a Service”.

Burdenwheel_2 Nicolas Carr reprend l’analogie entre l’évolution de l’électricité et de l’informatique.
Au milieu du XIX siècle, chaque entreprise industrielle fabriquait son énergie ; l’un des exemples cités est celui de la plus grande roue hydraulique du monde, de 20 mètres de haut, construite par Henry Burden, pour fabriquer des clous pour les rails et des fers pour les chevaux.

50 ans plus tard, cette roue était immobile, inutile, remplacée par de l’énergie électrique, grâce aux inventions de Thomas Edison.
Centralebugey 30 ans plus tard, les “utilities” électriques, créées par Samuel Insull, un collaborateur d’Edison, fonctionnant en courant alternatif et à partir de centrales très puissantes, avaient marginalisé les petites centrales locales en courant continu d’Edison

Rice_data_centerNicolas Carr pronostique que l’informatique va, rapidement, suivre une évolution similaire :
- Les entreprises ont créé leur propre énergie informatique à l’époque des Mainframes et du client serveur

Datacenter_abandonn - Les progrès des réseaux et du Web vont, rapidement, rendre obsolètes les centres de calcul construits par les entreprises pour leurs propres usages.

Googledatacenter_2 - L’essentiel de l’énergie informatique mondiale sera, très rapidement, fournie par les “centrales nucléaires informatiques” construites à coups de milliards de dollars par Google, Amazon, eBay ou Microsoft.
Carr cite (page 67) une étude qui estime que Google a un prix de revient informatique 10 fois plus bas que celui d’une entreprise normale !


Électricité, énergie informatique : similarités, différences

Carr note aussi avec pertinence que l’énergie informatique et l’électricité partagent deux caractéristiques fondamentales :
Google_data_center_2 - Économies d’échelle en production : centrales nucléaires ou thermiques, centres de calculs géants permettent des économies d’échelle majeures ; ceci se traduit par des prix de revient très compétitifs qui rendent les petites unités de production non concurrentielles.

- Transport aisé sur de longues distances : les réseaux haute tension, les fibres optiques permettent de transporter électrons ou bits sur des milliers de kilomètres.

La principale différence tient aux “usages”, aux applications, et c’est là où l’analogie s’arrête.
Les outils d’utilisation des réseaux électriques, lampes, machines à laver, aspirateurs... sont locaux, branchés sur des prises universelles
Saas_2
En informatique, les “utilities” peuvent aussi transmettre des applications ; toute la démarche SaaS, Software as a Service, est basée sur ce principe.
Il est aussi possible d’utiliser, pendant une période transitoire, des applications “locales”, sur un PC par exemple.

Carr pronostique que les SaaS vont rapidement s’imposer, que ce soit pour des usages bureautiques, Google apps, ou des applications structurées telles que celles proposées par Salesforce.com et son écosystème.

L’informatique “On the cloud” peut donc proposer et les infrastructures, puissance de calcul et réseaux, et les usages, en SaaS.
Pour définir cet ensemble, Carr utilise souvent dans son livre l’expression World Wide Computer (WWC), qu’il espère voir remplacer World Wide Web.


Deuxième partie du livre : impacts sociétaux

Je ne vais pas commenter en détail la deuxième partie de “The Big Switch”, à partir du chapitre 8.  Nicolas Carr se livre à une analyse beaucoup plus philosophique des impacts potentiels du World Wide Computer. 

Fighting_the_net_2 Il se montre plutôt pessimiste, en termes d’emplois, de sécurité, de protection des données individuelles et des évolutions de l’humanité.  Le titre du chapitre 9 est à cet égard très révélateur :
“Fighting the Net”: (Combattre Internet)
Cette partie est plus centrée sur les impacts du WWC sur les personnes que sur les entreprises ; sa lecture est intéressante, mais moins directement applicable aux décisions que doivent prendre les entreprises.


Remarques sur la “forme” de ce livre

J’ai été frappé par le coté 100 % textuel de cet ouvrage qui parle de technologie ; pas un seul graphique, une image, une photo dans les 250 pages de ce livre !
Il y a par contre une longue bibliographie, de plus de 20 pages, avec quelques liens Web.

Carr_blog_2 Je vais proposer à Nicolas Carr de mettre sur son blog, dont je conseille beaucoup la lecture, une page où seront disponibles tous les liens ; ceci devrait faciliter la vie de ses lecteurs !


Remarques sur l’achat de livres en France et aux USA

Full_cost_carr_amazoncom_2 J’ai acheté le livre de Nicolas Carr sur Amazon.com dès sa parution ; il m’a été livré en une semaine, le 2 janvier 2008.  Comme j’en avais acheté deux exemplaires, le prix, livré à Paris, était de $46,23, en tenant compte de la remise de 34 %, légale aux USA.

Big_switch_amazonfr_2 En France, il n’est toujours pas disponible : pour profiter de la livraison gratuite, à partir de 20 euros, il faut aussi en acheter 2 exemplaires.
L'analyse économique des deux options d'achats est instructive :
- Prix achat US, 2 livres livrés Paris : $ 46,23 soit 31,23 €
- Prix achat France 2 livres : 37,12€
- “Bénéfices” : 6 euros (20 %) + disponibilité immédiate !


En guise de conclusion

Le message de Nicolas Carr est clair :

Hors de l’informatique “On the cloud”, pas de salut !

On_the_cloud_2 Infrastructures hébergées et SaaS seront les solutions dominantes demain, pour les entreprises de toutes tailles, de tous les secteurs économiques.

Ce n’est pas moi qui vais dire le contraire !


Réseaux sociaux professionnels

P_barrab_2 Lulu, le célèbre site de publication d’ouvrages online, c’est enrichi depuis le 28 octobre 2007 d’un nouveau titre :

Business Social Networking

écrit par Patrick Barrabé et Eric Herschkorn.

Je les remercie de m’avoir donné l’opportunité de préfacer cet ouvrage consacré à un thème dont l’importance devient chaque jour plus grande.


Comment se procurer ce texte

Dans la droite lignée du Web 2.0, cet ouvrage est publié sous la licence Creative Communs.  En bonus, le texte complet de cette licence CC est imprimée à la fin de l’ouvrage.

Rsp_20_cover Pour obtenir ce livre, vous pouvez :
- Vous inscrire au groupe créé sur ce thème sur ... Facebook, évidemment !
Vous y trouverez les url des différentes modalités d'acquisition.

- Télécharger, gratuitement, le PDF si, par le plus grand des hasards, vous n’êtes pas encore sur Facebook.

- Accéder au site Lulu.com pour en acheter la copie papier, si vous êtes encore très attaché aux livres sous leur forme traditionnelle !
Le prix de vente est de 6, 01 euros (ne me demandez pas pourquoi il y a ce centime)


Vous donner envie de le lire

Je vous encourage à lire ce livre, dont l’un des premiers avantages est la concision ; il comprend 70 pages, tout compris !

Cet ouvrage est très orienté activités professionnelles commerciales ; les liens entre les CRM traditionnels et les réseaux sociaux professionnels font partie des thèmes majeurs étudiés

Les 6 idées force que les auteurs ont choisi de mettre en lumière :

1. Les cadres décideurs, qui ne font pas partie de la force de vente, sont les meilleurs vecteurs d’augmentation de votre chiffre d’affaire.

2. La règle des 80/20 est obsolète.

3. La longue traîne doit devenir votre modèle économique.

4. Votre modèle bureautique doit intégrer des outils collaboratifs en ligne.

5. Vous devez utiliser au quotidien des outils de réseau social sur internet.

6. Il est temps de mettre en place des procédures de gestion de l’identité numérique des salariés et de l’entreprise.

A la lecture de ces idées force, les fidèles lecteurs de mon blog comprendront immédiatement pourquoi j’ai accepté de préfacer cet ouvrage.

J’y ai aussi découvert un nouvel acronyme en trois lettres :
PRM  : Partner Relationship Management


Principaux réseaux sociaux professionnels étudiés

Logo_4_rseau_sociau_3 Sans grande surprise, les quatre solutions professionnelles étudiées sont :
- 6nergiesnet
- Linkedin
- Viadeo
- Xing

A la fin de l’ouvrage, vous trouverez un tableau très complet et détaillé qui compare les fonctionnalités de ces quatre solutions.

Et Facebook ?
Facebook_interactive_graph_2 Rassurez vous ! Même si Facebook ne fait pas partie des quatre solutions étudiées en détail, on en parle dans plusieurs pages du livre.
C’est sur Facebook que le groupe des personnes ayant envie de dialoguer sur ce thème a été créé !

En résumé, merci à Patrick et à Eric d’avoir écrit ce petit livre, utile, simple et sympa.


Et si Nicolas Sarkozy était un... DSI !

Couverture_sarkozy_1 Témoignage, de Nicolas Sarkozy, est sorti en librairie le 17 juillet 2006 ; je l’ai lu avec attention. J’ai été rapidement frappé par la pertinence de beaucoup de messages, qui pourraient être appliqués dans le monde des .. Systèmes d’Information (SI) ; ceci m’a amené à en faire une deuxième lecture en imaginant que Nicolas Sarkozy était un DSI ; quelles pourraient être ses recommandations ?

Dans beaucoup de phrases, il suffit de remplacer "politique" par Systèmes d’Information ; des citations (en italique) serviront de fil conducteur à ce texte ; j’ai choisi de travailler par petites touches, nombreuses et courtes.


Anticiper
..celui qui ne construit pas l’avenir est condamné à le subir p 10”
Ils confondent la vision avec la prophétie p 13

Devant les mutations prévisibles et profondes, réseaux rapides, Web 2.0... un DSI ne peut plus attendre que ses fournisseurs favoris lui dictent sa stratégie, il doit faire des choix et les assumer.

Je, nous
Deux choses difficiles ... ne pas se tromper dans le choix de ses collaborateurs p 20
Je” est certainement le mot le plus utilisé dans ce livre ; un rôle de leader ne peut pas se déléguer. En même temps, il insiste sur l’importance du travail d’équipe. Le binôme Je-Nous, une des clefs de la réussite, en informatique aussi.

Client, communication
Un homme politique doit se mettre au service de ses “clients”, les citoyens.
Aller à la rencontre des Français est exigeant p 30
Parce que l’on bien expliqué, “l’opinion publique” vous autorise l’action. La communication est devenue le préalable à l’action. p 52

Les clients, internes et externes, des SI sont comme les Français ; ils n’acceptent plus les dictats de leurs informaticiens et veulent comprendre, participer. 
Le succès des blogs et du Web 2.0 en est un exemple éclatant.

Pilotage
Savoir placer le curseur des informations qui doivent vous remonter ...
Trop d’informations et l’on est instantanément noyé  p 21.

Cette double recommandation est pertinente pour le DSI, dont les tableaux de bord doivent être simples ; elle l’est surtout pour les outils qu’il met à disposition de ses clients.

Parler simple
Il n’est pas interdit, il est même recommandé d’employer un langage simple qui ne soit pas simpliste..p 96
Son livre en est un bon exemple : style clair, phrases courtes, pas de mots compliqués ; on est loin d’un discours “à la ENA”.  Trop de DSI sont les champions du discours incompréhensible, dans la forme comme dans le fond.

Projet court
Quand on veut vraiment aboutir, on n’a pas besoin de trois mois ! p 37
Ce livre a été écrit, produit, diffusé en quatre mois, en ayant même l’intelligence de retarder sa sortie de quelques jours pour cause de 14 juillet Chiraquien.
Un bon antidote aux projets pharaoniques, qui sont planifiés sur 3 ans et en durent 5.

Faire du terrain Sarkozy_sangatte_1
Aucun dossier...ne remplace l’expérience du terrain ... pour comprendre les dysfonctionnements du système.p 23
Quel est el pourcentage du temps d’un responsable informatique passé dans ses bureaux, à lire des dossiers par rapport au temps sur le terrain, avec de vrais utilisateurs ?

Solutions imparfaites
une partie de notre immobilisme....attendont d’avoir des solutions parfaites avant de commencer à agir.... Que des avantages à essayer, à expérimenter....p 28
Qu’il est difficile d’obtenir qu’un projet informatique soit lancé sans un cahier des charges de 300 pages ; qu’il est difficile d’installer des outils en émergence, pour des usages mal connus !

Aller vite
montrer... tout ce qu’un ministre peut entreprendre en quelques mois, avec de la volonté, de la détermination et de l’imagination p 34
Demander des solutions dans des délais très courts est un excellent antidote à des réflexions qui n’en finissent pas, à des choix de solutions qui durent des mois, à toutes ces bonnes excuses pour ne pas avancer.

Pensée unique
La diversité renforce l’unité p 215
Je souffre suffisamment du poids de la pensée unique p 235
Je n’ai jamais crains d’avoir des positions minoritaires p 108

Oser ne pas suivre les modes, ne pas choisir le même logiciel, le même fournisseur que tout le monde, ce n’est pas habituel dans le monde de l’informatique, qui aime trop le panurgisme.

Pouvoir
Faire pression ‘J’avais menacé de grands groupes industriels...(baisse des prix dans la distribution) p 57
Les responsables informatiques ne doivent jamais oublier que ce sont eux qui ont le pouvoir, pas les fournisseurs.  A eux de se faire respecter, d’imposer leurs conditions, quand elles sont raisonnables.

Doute et action
J’essaie de ne jamais considérer comme acquises une certitude, une idée reçue, une vérité d’évidence p 43
...Le meilleur allié de la précarité est l’immobilisme p 125

Hésiter, beaucoup réfléchir avant la décision, ouvrir les yeux pour envisager des solutions différentes, ce sont des étapes importantes et difficiles.  Par contre, il faut agir sans délai, une fois que la décision est prise.

Rupture
Le mot “rupture” était trop violent, pas assez policé,et même anxiogène. ..
Le mot changement a perdu toute signification...p 225
... il est préférable de reconstruire intégralement une politique... s’empiler sur des dispositifs anciens p 238

Les systèmes d’information doivent-ils évoluer lentement, dans la continuité de l’existant, ou passer par des phases de rupture.  Mon pronostic est que nous rentrons, pour des cinq années qui viennent, plus dans une logique de rupture que de changement continu.

Technologies : peut mieux faire !

Podcast_sarkozy_2 Il y a là un écart, surprenant pour moi, entre les usages raisonnablement modernes que fait Nicolas Sarkozy des technologies et le peu de place qu’elles occupent dans son livre.
Il a été le premier homme politique Français important à être interviewé par Loïc Le Meur, dans un célébrissime Podcast réalisé, le 23 décembre 2005.

Son blog, qu’il ne rédige pas lui-même, est ouvert depuis quelques semaines.

J’ai cherché, vainement, des références aux apports potentiels des nouvelles technologies pour aider la France, ses entreprises et ses administrations, à être plus compétitives.
J’espère que dans la version, 2.0 bien évidemment, de ce livre, cet oubli sera réparé.

Il est aussi dommage, à mon avis, qu’un livre soit publié en 2006 sans proposer une version PDF, téléchargeable depuis son site.  Il aurait même été astucieux d’en proposer une version gratuite. 
Les rares auteurs innovants qui ont tenté cette expérience disent que cela a plutôt favorisé la vente des versions papier.

Changer de métier
...quoi qu’il arrive, je ne terminerai pas ma vie professionnelle en faisant de la potitique p 275
Bienvenue dans le club ! Beaucoup de grandes organisations auraient, en Nicolas Sarkozy, un DSI de choc capable de reconstruire des SI qui en ont bien besoin.
Mon verdict : Nicolas Sarkozy pourrait, rapidement, être nommé “DSI de l’année”.
Question : en quelle année ?

Petite synthèse
Tout responsable informatique, quelles que soient ses idées politiques, trouvera dans ce livre des idées importantes, utiles, rafraîchissantes, opérationnelles, pour mieux faire son métier.

Après avoir présenté, il y a quelques semaines, un recueil de “worst practices”, dans le livre de Olivier Giesbert sur Chirac, il est réconfortant de lire des pages qui apportent une vision positive du futur.  Merci, Nicolas !
(Après le tutoiement de rigueur dans le podcast de Loïc Le Meur, l’usage du prénom s’impose !)

PS : Je ne connais pas, personnellement, Nicolas Sarkozy et ne suis pas inscrit à l’UMP.


Un livre doublement innovant !

J’ai acheté il y a quelques jours “Getting real” un livre qui est “extra-ordinaire” à plusieurs titres.

Getting_real_the_book_price_1 Ce livre est l’un des premiers ouvrages à n’être disponible qu’en format PDF et aucune version papier n’est prévue !.

Vous pouvez l’acheter sur le site de 37Signals  :


37Signals, qui est-ce ? C’est l’une des start-up Web 2.0 les plus innovantes.  Avec une toute petite équipe de cinq développeurs, ils ont construit et vendu à plus de 400 000 exemplaires des services Web tels que Basecamp,  Campfire ou Ruby on Rails. Ce sont de véritables petits bijoux, simples, minimalistes, faisant très bien l’essentiel de ce qu’on leur demande.

C’est aussi l’un des premiers livres où aucun nom d’auteur ne figure sur la première page ; ouvrage collectif, il est simplement signé 37signals. A aucun n’endroit, n’apparaît le nom des auteurs ; belle modestie.

Le modèle économique utilisé pour la commercialisation est très intéressant. Vous pouvez acheter la version individuelle, pour $19 ; il existe aussi une version Corporate, à $49, que vous pouvez ensuite distribuer librement dans votre entreprise.
Une fois que vous avez acheté votre livre, vous pouvez immédiatement le télécharger ; à moins de 500 Ko, ce n’est pas cela qui va encombrer vos réseaux.
La version que vous recevez est en PDF non sécurisé !  37Signals fait confiance à ses clients, et cela marche ! Ils vous demandent simplement de ne pas le distribuer et chaque exemplaire comporte, en bas de page, votre nom sur l’exemplaire qui vous appartient. En 48h, ils ont vendu près de 2000 copies, dont 10% Corporate, alors qu’il est très facile de distribuer le PDF à tout le monde.
Ils ont ainsi réalisé en deux jours environ $30 000 de CA, donc de marge, car le coût de distribution est marginal.  Dans un modèle classique, où l’éditeur laisse au maximum 10% du CA à l’auteur, obtenir la même marge aurait demandé la vente de 20 000 exemplaires, sur plusieurs mois.

J’étais l’un des premiers à acheter ce livre. Le lendemain, j’ai eu la surprise de recevoir un courriel me disant :” les premiers lecteurs nous ont proposé quelques améliorations et ont corrigé quelques typos ; vous pouvez revenir sur notre site et télécharger la nouvelle version, gratuitement bien sûr !”.

J’ai gardé pour la fin l’essentiel, le contenu.

N’achetez pas, ne lisez surtout pas ce livre si vous êtes un adepte des démarches de développement classiques, avec cahier des charges, analyse préalable des besoins des utilisateurs, planning détaillé plurimensuels, méthodes qui conduisent le plus souvent à l’échec.
Les auteurs expliquent simplement, clairement les démarches utilisées pour développer des services Web performants ; aller à l’essentiel, en faire le minimum, savoir dire non aux demandes des utilisateurs, ...

Aurez-vous le courage de mettre ce parfait manuel de désapprentissage des  “bonnes pratiques” de développement entre les mains de vos équipes ?
En ayant fait l’expérience cette semaine, je puis vous garantir que les réactions sont souvent très violentes !
Si vous savez accepter le challenge de lire “Getting Real” jusqu’au bout, de ne pas considérer comme irréalistes les méthodes proposées, vous n’en sortirez pas indemnes, mais... vous aurez probablement fait l’un des meilleurs investissements en apprenant à construire des applications raisonnables, vite et économiquement.

PS : Je ne touche aucune commission sur les ventes de “Getting Real” !