Transformation Numérique : l’après COVID-19, mode d’emploi pour 2020

 

(Long billet : l’importance du sujet l’impose et vous avez probablement un peu plus de temps que d’habitude pour le lire et... mettre en pratique les recommandations qu’il contient.)

Couverture livre DTN copie 2Depuis quelques semaines, dans le monde entier, le Coronavirus COVID-19 a obligé toutes les organisations, privées ou publiques, petites, moyennes ou grandes à apprendre à travailler autrement, très vite et sans préavis.

A la fin de l’année 2018, j’avais publié avec Dominique Mockly, PDG de Teréga, le livre :

Dirigeants, Acteurs de la Transformation Numérique

Ce livre, écrit avec Google Docs et publié sur Amazon pour s’appuyer sur les outils modernes du Cloud Computing, ne faisait pas référence au COVID-19. Il a aidé des organisations innovantes qui avaient bien avancé dans leur Transformation Numérique à s’adapter rapidement aux nouveaux modes de travail rendu indispensables par les règles de confinement.

Mise à jour du 17 avril 2020 : ce livre est maintenant disponible en format numérique, Kindle.

A l’inverse, dans une majorité d’entreprises, cette pandémie COVID-19 a mis en évidence des défaillances de leur Système d’Information et la possibilité pour leurs collaborateurs de travailler efficacement, loin de leurs bureaux traditionnels.

Ce billet aborde les thèmes suivants :

  • Principaux dysfonctionnements mis en évidence.
  • Comment une Transformation Numérique réussie a permis de mieux résister.
  • Comment se préparer pour redémarrer, autrement.
  • Pourquoi, demain, on doit, on peut concilier Transformation Numérique et Frugalité Numérique.
  • Quelles sont les décisions prioritaires à prendre avant la fin de l’année 2020.

(Pour éviter de répéter ce que j’ai souvent écrit dans ce blog, je vais référencer de nombreux billets déjà publiés.)

 

Dysfonctionnements d’un Système d’Information mis en évidence par le COVID-19

AdS DPC Confinement COVID-19 S 332567052Les strictes mesures de confinement annoncées en mars 2020 dans de nombreux pays, et exécutoires en quelques heures, ont obligé les entreprises, leurs collaborateurs et leurs partenaires à bouleverser leurs modes de travail et d’organisation. Fin mars 2020, la moitié de la population mondiale était confinée à son domicile.

Tous les défauts des informatiques archaïques, que je dénonce depuis plus de dix ans, ont immédiatement resurgi. Pour ne pas accabler ces entreprises qui font l’autruche, je ne citerai que les plus évidents.

Centres de calcul privés (appelés à tort clouds privés) sous-dimensionnés

Le confinement est annoncé en France le 17 mars. Immédiatement, les sites des grands acteurs du commerce comme Monoprix ou Leclerc… ne répondent plus ! Surprise ? Non !

Sites marchands down coronavirus

Est-ce que vous pensez que la demande n’a pas augmenté au moins autant sur le site d’Amazon ? Avez-vous entendu parler d’une panne sur le site marchand Amazon ? Non !

OVH Panne 30 mars 2020Même les hébergeurs ne sont pas à l’abri de ces pannes : OVH en a fait la démonstration le 30 mars 2020. Il faudra bien qu'un jour les hébergeurs et leurs clients finissent par comprendre que leur métier n’a strictement rien à voir avec celui des fournisseurs industriels de Clouds Publics comme AWS, Azure ou GCP.

Croire encore en 2020 que la sécurité des accès se fait par des VPN (Virtual Private Networks)

Les défenseurs de VPN me font penser à… “la belle au bois dormant”. Ils se sont endormis en l’an 2000 et ont été réveillés sans ménagement en 2020 par des milliers d'utilisateurs désespérés qui essayaient vainement de travailler, confinés dans leur domicile.

En 2017, j’avais écrit un billet expliquant pourquoi le principe de la sécurité “périmétrique” était un mythe périmé et dangereux. Je ne suis pas le seul à le penser, heureusement.

Death of VPN with Coronavirus

Encore trop de collaborateurs équipés de PC fixes

Old Desktop PCDans le grand public, si l’on met de côté les “gamers”, les ventes de PC fixes ont disparu. Ce n’est hélas pas encore le cas dans toutes les entreprises. PC mobiles et Chromebooks sont les seuls objets d’accès professionnels qui permettent de travailler en tout lieu, à toute heure.

Ces déficiences techniques sont graves, mais ce n’est rien par rapport aux visions dépassées de dirigeants et à l’absence de préparation des salariés aux nouveaux modes de travail qu’il est nécessaire de maîtriser pour être efficace en mode “confinement”.

C’est le cas en France, comme le montre cet article de la revue Capital.

Ce n’est pas mieux aux USA ! Le CEO de Charter, grande entreprise du secteur des télécoms, ose écrire aux salariés que : “travailler au bureau est plus efficace pour tous, y compris ceux qui pourraient télétravailler”.

Watching you WFHLa paranoïa des dirigeants qui ont peur de perdre le contrôle sur les activités des salariés qu’ils ne “voient pas” peut prendre des formes extrêmes : une entreprise annonce que tout ce que font leurs salariés sur leur PC est enregistré : sites Web visités, une copie d’écran toutes les dix minutes...

Education Nationale & CoronavirusOn en a eu aussi un exemple éclatant dans le monde de l’éducation nationale, quand plus de 15 millions d’apprenants ont dû basculer en mode enseignement à distance en 48 heures. Je ne mets pas en cause le dévouement et les efforts de l’immense majorité des enseignants, mais l’absence d’innovation dans les outils numériques déployés dans les écoles, lycées et universités.

J’avais abordé, il y a juste un an, ce sujet majeur dans un billet.

Dès 2014, j’avais identifié les 10 “ex bonnes pratiques” qu’il fallait abandonner et les dix NBP, Nouvelles Bonnes Pratiques, à adopter pour la période 2014-2021.

Hélas, en 2020, ces “ex bonnes pratiques” sont encore trop incrustées dans les entreprises qui n’ont pas pris le chemin de leur Transformation Numérique.

Je terminais ce billet en donnant rendez-vous en 2021 pour établir les NBP pour la décennie qui commence en 2021. A mon grand désespoir, je suis encore, en 2020, obligé de me battre pour que les NBP de 2014 soient mises en œuvre.

Sept outils innovation - Traditionnels copieDur, dur, de changer les organisations et leur SI !

J’avais aussi écrit en 2017 un autre billet qui identifiait sept signaux forts d’innovation ; ils sont plus que jamais d’actualité.

Il y a, heureusement, des entreprises qui ont pu s’adapter immédiatement aux défis posés par le confinement COVID-19.

 

Transformation Numérique réussie : meilleure résistance aux crises telles que COVID-19

Depuis plus de dix ans, dans ce blog, par mes actions de sensibilisation et missions de conseil, je pousse les organisations à réinventer leurs usages et leurs infrastructures informatiques et numériques.

Beaucoup reste à faire : en reprenant la courbe de Gauss de l’innovation que j’ai souvent utilisée, j’estime que la France est encore entre la zone “innovateurs” et “majorité initiale”.

Moins de 20 % des entreprises françaises ont basculé dans un monde “numérique prioritaire”, “Digital First” en anglais.

Gauss innovation -Etat France 2:2020

Il faut énormément de courage de la part des dirigeants et des équipes de professionnels du numérique pour aller au-delà des mots et passer à l’action ; je l’ai expliqué en détail dans ce billet au titre clair : Transformation Numérique, le courage ou la trouille.

J’ai pu échanger ces derniers jours avec les rares entreprises que je connais et qui ont entrepris depuis plusieurs années une Transformation Numérique majeure. Cela fait chaud au cœur quand un dirigeant félicite publiquement son DSI après une conférence vidéo qui a réuni plusieurs centaines de personnes et qui a fonctionné sans hiatus, car les collaborateurs étaient bien équipés et… bien préparés.

Techniquement, il n’y a rien de magique : on connaît très bien les outils et solutions à mettre en œuvre pour qu’une entreprise soit prête à affronter une crise comme celle du COVID-19.

J’ai publié en 2017 plusieurs billets qui identifiaient les technologies clés des prochaines années ; les échanges “vidéos” en faisaient bien sûr partie.

La liste qui suit n’est pas exhaustive, mais va à l’essentiel.

Basculement des infrastructures sur des Clouds publics industriels

Ceci permet de répondre aux évolutions imprévisibles de la demande des entreprises :

● Variabilité de la charge.

● Résilience.

● Fiabilité.

Même les géants du Cloud n’ont pas toujours la puissance disponible pour faire face à de fortes augmentations des usages, comme ce fut le cas pour Microsoft 365.

Bravo quand même, Microsoft, qui a su faire face, sans trop réduire les services proposés, à une augmentation de sa charge très importante, proche de 800 %. Combien d’entreprises gérant elles-mêmes leurs infrastructures en auraient été capables ?

Généralisation des accès aux applications par navigateur

Chromebooks sold out Covid-19Ceci permet à tout collaborateur, quel que soit son objet d’accès, PC Windows, Mac, smartphones, tablettes ou Chromebook, d’accéder à l’ensemble des applications de son entreprise, où qu’il soit. Les avantages des Chromebooks sont encore plus évidents dans ces périodes de crise ; j’en ai longuement parlé dans ce billet.

Ce Tweet donne une liste de produits en rupture de stock aux USA : les Chromebooks en font partie, mais, hélas, après les armes à feu !

Des usages SaaS, Software as a Service, pour toutes les fonctions support

G Suite de Google n’a connu aucune panne significative au niveau mondial depuis le début de la crise.

Des dizaines d’autres fournisseurs de solutions SaaS, tels que Workday, Coupa ou Talentsoft, ont encaissé de fortes croissances de la demande tout en garantissant un haut niveau de service.

La nouvelle vedette du logiciel, Zoom, qui permet des vidéoconférences de haute qualité avec une facilité d’usage exceptionnelle a connu une forte croissance du nombre d’entreprises qui l’ont déployé, comme le montre ce graphique. N’oublions pas que Zoom existe depuis… plus de dix ans, et avait déjà démontré la qualité de ses services.

Number new users Zoom

Autre chiffre éloquent : le nombre de nouveaux utilisateurs pendant les 3 premiers mois de 2020 est supérieur à ceux de toute l’année 2019 !

Ceci ne doit pas occulter les sérieuses zones d’ombre de Zoom, en particulier sur la sécurité et la confidentialité des échanges. Des alternatives protégeant mieux la confidentialité des données existent : parmi les meilleures, Whereby, société norvégienne et 100% compatible avec le standard WebRTC, ce qui évite toute installation sur les postes de travail.

Sécurité, confiance, confidentialité des données

Cela fait longtemps que de remarquables outils existent, qui permettent aux collaborateurs des entreprises qui ont basculé sur les clouds publics de travailler en toute confiance ; je vous renvoie à ce long billet sur ce thème.

Quelques exemples :

Zscaler help for Coronavirus● Pour accéder de chez soi aux applications de l’entreprise sans souffrir les lenteurs d’un VPN, la solution Zscaler est une excellente réponse. Une entreprise de plus de 70 000 collaborateurs a remplacé au mois de mars 2020 ses VPN catastrophiques par Zscaler.

● Les solutions de SSO, Single Sign On, qui permettent de sélectionner les applications auxquelles on peut accéder à distance en toute sécurité.

En partageant avec tous ses clients ses connaissances, Zscaler protège efficacement, immédiatement, contre les attaques “innovantes” des hackers qui utilisent les craintes liées au COVID-19.

C’est parce qu’elles avaient pris en compte les dimensions humaines, culturelles et organisationnelles, en accompagnant tous les collaborateurs dans ce voyage passionnant qu’est une Transformation Numérique que des entreprises ont pu, immédiatement, basculer dans des modes de travail distribué.

Pour les autres, il est urgent de… s’y préparer, sérieusement.

 

Se préparer, pendant les semaines qui viennent

Who leads Digital TransformationCe Tweet résume remarquablement bien la situation : Le COVID-19 sera le catalyseur principal des nombreuses Transformations Numériques qui vont démarrer pendant la deuxième moitié de l’année 2020.

L’activité économique va rester faible pour la majorité des entreprises en avril et mai 2020.

Dirigeants et responsables informatiques des entreprises qui n’ont pas encore sérieusement “numérisé” votre entreprise, je vous propose de profiter de ces deux mois pour vous mettre en ordre de bataille avant de passer à l’action.

Information et sensibilisation

Commandez immédiatement (dès qu’Amazon livrera) un exemplaire de “Dirigeants, Acteurs de la Transformation Numérique” pour chacun de vos dirigeants, pour chaque collaborateur de votre DSI et demandez-leur de le lire avant la fin du mois de mai 2020.

Ils auront acquis les bases essentielles pour préparer les étapes suivantes.

En mai ou juin, si vous pouvez organiser un séminaire, en ligne ou en présentiel, d’une journée pour, ensemble, échanger sur ces thèmes, ce sera très utile.

Travail distribué, WFH en anglais (Working From Home)

Il ne suffit pas de donner un PC portable à un collaborateur, un accès internet aux applications de l’entreprise pour que, par un coup de baguette magique, il s’adapte immédiatement à ces nouveaux modes de travail.

Lisez, faites lire les trois livres publiés par les fondateurs de Basecamp, une remarquable solution SaaS de gestion d’activités. Ils ont été, depuis le premier jour, les pionniers du travail à distance.

Rework, publié en 2010, il y a dix ans, déjà !

Remote, publié en 2013.

It doesn't have to be crazy at work, publié en 2018.

Three books Basecamp

Ces trois livres sont courts, remarquablement écrits, faciles à lire, pragmatiques et remplis d’excellents conseils que l’on peut mettre en pratique immédiatement.

Des dizaines de personnes se sont proclamées expertes en télétravail ces dernières semaines. Rien ne remplacera jamais les dix ans d’expérience de Basecamp dans ces domaines.

Ces trois livres sont redevenus des “best-sellers” depuis quelques semaines, quelle surprise !

Pour compléter ces ouvrages, les règles de communications professionnelles efficaces utilisées en interne par Basecamp sont aussi une lecture indispensable.

Créez, dès que les activités de votre organisation auront repris un rythme presque normal, un groupe de combat qui aura deux missions :

● Mettre en pratique, avant la fin de l’année 2020, de premiers éléments d’une Transformation Numérique. Ce point est détaillé dans la suite du billet.

● Définir, avant la fin de l’année 2020, la nouvelle stratégie numérique qui sera déployée à partir de 2021.

 

COVID-19, Transformation Numérique et… Frugalité Numérique

La Frugalité Numérique a pour objectif de prendre en compte les dimensions énergétiques et climatiques de toute action dans le domaine du numérique. C’est un sujet que j’ai abordé dans plusieurs billets en ce début d’année 2020.

Excellente nouvelle : j’ai démontré que les meilleures décisions concernant une Transformation Numérique réussie sont aussi… les meilleures décisions en matière de Frugalité Numérique.

Je prendrai juste un chiffre extrait de l’un de mes billets sur le sujet :

Fermer ses centres de calcul privés et basculer sur des clouds publics divise au minimum par 6 la consommation d’énergie électrique nécessaire pour exécuter toutes les applications de l’entreprise.

Je vous propose donc de faire… d’une pierre deux coups.

Une pierre deux coups Transformation  Frugalité numérique

Votre entreprise peut, en démarrant dans la deuxième moitié de l’année 2020, se fixer deux objectifs simultanés :

● Accélérer sa Transformation Numérique.

● Lancer de premières actions pour améliorer sa Frugalité Numérique.

En regroupant ces deux objectifs, ils seront plus faciles à atteindre que de manière séparée. Vous pourrez plus facilement motiver tous vos collaborateurs en mettant en évidence les bénéfices de cette double transformation, pour eux, leur entreprise et la planète.

 

Un avant, un après COVID-19, pour votre Transformation Numérique

En juin 2020, après 3 mois de confinement qui auront impacté les modes de fonctionnement de 100% des organisations, la vie économique va redémarrer, lentement.

Devant l’immensité des tâches qui attendent les entreprises après plusieurs mois d’activités réduites, face à des marchés dont on ne sait pas comment ils vont réagir, la tentation sera forte de revenir au statu quo.

Il y a deux démarches possibles, remarquablement résumées par ce double dessin :

1. Ce n’est pas le moment, c’est impossible.

2. Transformer ce défi en opportunité : rien n’est impossible.

Just do nothing  its impossible 2

Mon pronostic est clair : le monde « post COVID-19 » ne sera plus le même qu’avant la pandémie :

● Le grand public ne l’acceptera plus.

● Les collaborateurs auront de nouvelles exigences.

● Les états changeront leurs stratégies en matière d’approvisionnement, de relocalisation d’activités…

● Les clients grand public et professionnels  des entreprises seront plus exigeants et basculeront dans un monde “numérique prioritaire”.

Les entreprises n’auront pas le choix : une Transformation Numérique forte et rapide deviendra indispensable. Au lieu de subir cette mutation, dirigeants et responsables informatiques peuvent prendre les devants et transformer ce défi en opportunité.

Que c’est-il passé entre février et fin mars 2020 ?

Du jour au lendemain, les entreprises ont dû apprendre à travailler en réduisant fortement leurs modes de fonctionnement habituels :

● Disparition des réunions physiques.

● Des bureaux centraux vidés de la majorité de leurs collaborateurs.

● Sans aucune possibilité de se déplacer sur de longues distances, en avion, en train ou en voiture.

● En ne participant plus aux grands salons professionnels de leur secteur d’activité.

● Sans organiser ou participer à des formations en présentiel.

● En ne rencontrant plus physiquement leurs prospects pour présenter leurs offres.

● ….

Ce sont les activités en bleu sur le graphique ci-dessous. Le niveau de réduction de chacune de ces activités est différent : il est passé d’une base 100 en février 2020 à un taux réduit A1, probablement compris entre - 50% et - 100%.

COVID-19 : un avant  un après

Du jour au lendemain, les entreprises ont été obligées de pousser de nouveaux usages :

● Un nombre beaucoup plus élevé de salariés qui travaillent depuis chez eux.

● Une explosion du nombre d’audio et vidéo conférences.

● Travailler à plusieurs sur un même document.

● Organiser des formations “on line”. (C’est ce que m’a demandé de faire le Mastère Système d’Information de Grenoble Ecole de Management où j’interviens, pour un cours de deux journées.)

● Créer des Webinaires pour présenter leurs solutions à des prospects.

● ...

Ce sont les activités en rouge sur le graphique ci-dessus. Le niveau de croissance de chacune de ces activités est différent : il est passé d’une base 100 en février 2020 à un taux plus élevé N1, probablement compris entre + 50% et + 2 000%.

 

Transformation Numérique : actions concrètes prioritaires en 2020

Je vous propose de partir du schéma des activités qui ont baissé et monté entre février et avril 2020.

Pour chacune de ces activités, vous pouvez :

● Mesurer les niveaux de départ, base 100 à fin février 2020.

● Mesurer quel est le niveau, A1 ou N1, atteint par chaque activité, à fin mars ou fin avril.

Profitez des semaines qui viennent pour déterminer, en concertation entre toutes les parties prenantes, collaborateurs, informaticiens et dirigeants, les nouveaux niveaux, A2 ou N2, que vous souhaitez atteindre à la fin de l’année 2020 pour chacune des activités.

Fin mars 2020, le cabinet d’études 451 Research a publié les résultats d’une enquête auprès de dirigeants. J’en ai extrait le tableau suivant, qui montre quels sont les impacts permanents probables du COVID-19 sur les modes de travail. Il peut vous aider à formuler vos propres hypothèses.

451 research - COVID-19 impacts on ways of working

La démarche la plus mauvaise serait le “laissez faire” et d’attendre pour voir quel sera le nouveau point d’équilibre atteint quand l’entreprise aura retrouvé un niveau d’activité proche de la normale.

BAU, Business As Usual, n’est plus une option. Les entreprises doivent “profiter” des ruptures créées par le COVID-19 pour reprendre la main et faire des choix forts sur les nouveaux modes de travail, les nouveaux outils numériques qu’elles souhaitent mettre en œuvre avant la fin de l’année 2020.

C’est ce que j’ai appelé les “Objectifs Management” sur le schéma présenté plus haut.

J’ai construit ce tableau pour vous aider dans votre réflexion ; les chiffres qu’il contient sont donnés à titre d’exemple et ne sont pas des recommandations.

Après COVID-19 - priorités modes de travail

Chaque entreprise doit sélectionner les activités qu’elle a identifiées comme pertinentes et :

● Mesurer les valeurs en janvier 2020.

● Mesurer les valeurs en avril 2020.

● Déterminer des objectifs pour décembre 2020.

Une Transformation Numérique complète demande de repenser l’ensemble des usages numériques de l’entreprise ; elle demande plusieurs années d’efforts intenses.

L’urgence, la priorité d’ici la fin de l’année 2020 est de se concentrer sur les usages et les outils universels liés aux activités communes à la grande majorité des collaborateurs.

Cette priorité peut se résumer en une phrase simple :

Travailler, collaborer, partager et communiquer... autrement

 

Synthèse : optimisme et action

Il y aura un avant et un après COVID-19, et ils seront différents, dans toutes les entreprises.

AdS DPC Before After Sea view S 176408860

Pour préparer un “après” qui est “meilleur” pour les entreprises, leurs collaborateurs, sans oublier la planète, accélérer Transformation Numérique et Frugalité Numérique seront indispensables dès la deuxième moitié de l’année 2020.

Les outils numériques pour le faire sont tous opérationnels, fiables, économiques, prêts à être déployés immédiatement.

Vos prochaines étapes :

● Utiliser les deux mois qui viennent pour établir un plan d’action pour 2020.

● Le mettre en œuvre, dès le milieu de l’année.

Bon courage ! Faire d’un gigantesque défi mondial une opportunité, c’est encore possible !


Frugalité Numérique : Réseaux (Quatrième partie)

 

AdS DPC wireless symbol with key S 173234095Thème de ce quatrième billet sur la Frugalité Numérique : les réseaux.

Liens vers les trois billets précédents :

Premier billet : présentation générale de la thématique Frugalité Numérique.

Deuxième billet : les centres de calcul.

Troisième billet : les objets d’accès.

Trouver des informations claires et fiables sur les dimensions énergies pour les réseaux a été beaucoup plus complexe que je pouvais le penser en commençant cette étude.

Des chiffres alarmistes ont été publiés sur les consommations d’énergies liées aux usages des réseaux, et en particulier de la vidéo.

L’exemple des annonces de Greenpeace, résumé dans le graphique ci-dessous, est emblématique.

Greenpeace infographics on networks

De son côté, le « Shift project », qui réalise des études intéressantes sur les usages numériques, à publié en 2019 un rapport au titre alarmiste : “L’insoutenable usage de la vidéo en ligne”. J’y reviendrai à la fin de ce billet.

Attention : les résultats de mes analyses vont en surprendre plus d’un.

Je m’attends à des réactions fortes des “puristes” de l’écologie qui ne vont pas aimer du tout ce que j’écris et démontre dans ce billet.

 

Hypothèse : les réseaux numériques sont indispensables

Les réseaux de transport de données sont indispensables pour des usages numériques, pour les entreprises et le grand public. C’est la quatrième infrastructure clef, après l’eau, l’électricité et les réseaux de transport physique.

Comme pour toute technologie numérique, il faut clairement différencier les dimensions infrastructures et usages des réseaux. Ce billet n’analyse que la dimension infrastructures des réseaux, un billet entier sera consacré aux usages.

Les infrastructures réseaux, comme les voies ferrées pour la SNCF, représentent des investissements à long terme très élevés. Leur consommation d’énergie est peu impactée par les usages. Une fibre optique, une borne WiFi, qu’elles soient au repos ou qu’elles transportent des vidéos, consomment à peu près autant d’énergie.

Dans le domaine des réseaux haut débit sans fil 4G et 5G, tous les opérateurs travaillent sur des méthodes d’optimisation de ces réseaux pour que le coût énergétique du bit transmis soit le plus faible possible et optimisé en fonction de la charge.

De très nombreux articles scientifiques sont publiés en ce moment sur ces sujets et proposent des méthodes d’optimisation à fort potentiel.

GSMA network energy optimisationVoici quelques liens vers ces études, souvent très techniques et à fort contenu mathématique :

Les entreprises utilisatrices de ces réseaux n’ont pas vraiment leur mot à dire sur ces sujets ; elles peuvent simplement espérer que les opérateurs feront de leur mieux pour continuer à améliorer la performance énergétique des réseaux qu’ils proposent.

 

Réseaux : infrastructures

Pour la majorité de leurs composants, les infrastructures réseau ne sont pas déployées par les entreprises ou les particuliers, mais par des acteurs industriels, opérateurs télécoms en priorité.

Ce schéma de base présente les grands composants d’une architecture de réseaux numériques.

Frugalité Numérique - Schéma principe réseaux

Les réseaux vont chercher les données dans des centres de calcul d’entreprises et des clouds publics. J’ai traité ce sujet dans la deuxième partie de ces billets.

Le transport longue distance (WAN, Wide Area Network) et moyenne distance (MAN, Metropolitan Area Network) est réalisé par des fibres optiques, très peu consommatrices d’énergie. Les fibres modernes nécessitent un répéteur d’amplification du signal tous les 100 km. Le nouveau câble sous-marin entre les Etats-Unis et la France, Dunant, financé à 100% par Google, opérationnel en 2020 aura une capacité de 250 Terabit/s, permettant le transport simultané de plus de 100 millions de vidéos haute définition.

Pour la distribution de proximité (dernier km ou “last mile”) les deux principales options sont la fibre optique et les réseaux haut débit sans fil, 4G et bientôt 5G.

Dans ses locaux, l’entreprise est responsable de l’installation des réseaux numériques. En 2020, le sans-fil est dominant : WiFi, souvent complété par des petites antennes (FemtoCell ou PicoCell) qui sont des relais 4G et 5G pour assurer une meilleure couverture.

Les contenus numériques sont “consommés” par des objets d’accès, que j’ai étudié dans la troisième partie de ces billets.

 

Réseaux sans-fil dans les entreprises : quelle consommation d’énergie

Dans ce domaine des réseaux LAN (Local Area Network), les chiffres sont raisonnablement bien connus, pour le WiFi et les réseaux 4G et 5G.

Puissance maxi WiFi 2  4 et 5 MhzLes réseaux WiFi utilisent deux bandes de fréquences, 2,4 GHz et 5 GHz. En France la puissance maximale d’émission est limitée à :

  • 100 mW dans la bande 2,4 GHz, en intérieur et en extérieur.
  • 200 mW dans la bande 5 GHz, en intérieur. L’expression “PIRE” utilisée dans le tableau ci-dessous signifie : “Puissance Isotrope Rayonnée Equivalente”. Ils auraient pu choisir un acronyme plus sympathique !

Selon leur puissance et leurs performances, les bornes WiFi consomment entre 5 et 20 watts ; je vais utiliser comme valeur moyenne 10 watts, l’équivalent d’une ampoule basse consommation. En faisant l’hypothèse qu’une borne WiFi dans une entreprise permet à une dizaine de personnes de se connecter, on arrive à 1 Wh par personne de puissance électrique pour permettre des communications à très haut débit.

Les chiffres sont similaires pour les FemtoCell ou PicoCell : elles consomment entre 7 et 15 watts, 10 watts en moyenne.

En résumé : une entreprise peut fournir un double accès très haut débit, WiFi et 4G/5G par FemtoCell, à chaque collaborateur pour une consommation d’énergie de 2 watts par heure. Ceci représente la consommation fixe permanente, indépendamment du fait que le réseau soit utilisé ou pas.

 

Impacts positifs de l’amélioration des performances techniques : WiFi et 5G

Le WiFi est une technologie jeune, du début des années 2000. La première version, WiFi 1, avait une vitesse maximale de 11 Mb/s. En 2020, les bornes WiFi 6, disponibles depuis plus d’un an, permettent une vitesse maximale de 20 Gb/s.

Cette amélioration d’un rapport 2 000 dans la vitesse de transmission, donc dans la capacité de transporter plus de bits, c’est faite à… consommation énergétique stable, la puissance nécessaire pour alimenter une borne WiFi restant de l’ordre de 10 watts. La puissance d’émission est toujours limitée à 100 ou 200 mW.

Ceci à une conséquence majeure, positive, et trop souvent oubliée par les organisations et personnes qui se plaignent de l’augmentation de la demande de bande passante liée à une meilleure qualité des images, photos et vidéos.

En 20 ans, le coût énergétique de transmission en WiFi d’un bit

a été divisé par 2 000 !

Oui, le volume de données transmises augmente vite. Une étude de Cisco montre que le volume de données à transmettre sera multiplié par 3 entre 2017 et 2022. 70% de ces données seront transmises en sans fil, dont 51% en WiFi. C’est beaucoup, oui, mais c’est moins que l’amélioration des performances des réseaux WiFi !

Cisco VNI 2017 2022 Wifi 4G

On retrouve aussi cette croissance exponentielle des débits dans les réseaux mobiles. En 2020, la 5G a une vitesse théorique de 10 Gb/s en débit descendant, 10 000 fois plus que le débit théorique de 1 Mb/s de la 3G des années 2005.

Résumons :

  • Réseaux WiFi : débit multiplié par 2 000 en 20 ans.
  • Réseaux sans fil : débit multiplié par 10 000 en 15 ans.
  • Augmentation de la demande de bande passante : 3 fois plus en 5 ans.

Les performances des fibres optiques sont elles aussi en croissance exponentielle. La nouvelle fibre Equinao, qui relie le Portugal à l’Afrique du Sud, financée par Google, a une capacité… 20 fois supérieure à celle de toutes les fibres existantes sur ce même parcours ! Dans les réseaux WAN et MAN, les performances vont aussi augmenter plus vite que la demande.

Ces améliorations exponentielles des vitesses de tous les réseaux, LAN, MAN et WAN vont continuer pendant longtemps. C’est une très bonne nouvelle pour la planète :

La capacité des réseaux va augmenter plus vite que la demande

et le coût énergétique des réseaux va rester stable =

 plus de données transmises à énergie constante.

Pour compléter cette analyse avec d’autres bonnes nouvelles, j’ai choisi de comparer l’usage d’une borne WiFi et d’un four à micro-ondes, qui fonctionnent tous les deux sur la même fréquence de 2,4 GHz. Les résultats sont “intéressants”.

Energie usages : WiFi vs Microonde

  • En fonctionnement, un micro-ondes consomme environ 1 000 W, une borne WiFi, 100 mW, soit 10 000 fois moins : 1 minute de micro-ondes = 166 heures de WiFi.
  • En organisant 2 heures de vidéoconférences par jour, 200 jours par an, l’énergie utilisée est équivalente à 2,5 minutes de micro-onde… par an !
  • En mode veille, un micro-ondes consomme 26 kW par an, une borne WiFi 88 kW.

Ces chiffres montrent que les coûts énergétiques des réseaux sans fil pour des usages numériques dans les entreprises sont très bas, comparés à toutes les autres consommations d’énergie liées à l’éclairage, au chauffage ou à la climatisation.

In Memoriam : réseaux filaires en entreprise

Je n’ai pas évoqué les réseaux filaires historiques, téléphoniques ou Ethernet, qui ont été très longtemps dominants dans les entreprises. De plus en plus d’entreprises, telles que Veolia ou Sanofi, profitent d’un déménagement pour les supprimer. C’est une excellente démarche pour réduire les consommations d’énergie qui étaient liées aux téléphones IP et aux centraux téléphoniques.

 

Coûts énergétiques des réseaux de transport CDN, MAN et WAN

Quel est le coût de transport des données entre les centres de calcul où elles sont stockées et les bornes WiFi des entreprises, la partie “CDN” du schéma présenté au début de ce billet ?

Les données générales sur ce sujet sont difficiles à obtenir et c’est compréhensible, au vu de la variété et du nombre d’acteurs.

J’ai choisi d’utiliser le cas de l’un des plus grands transporteurs de contenus numériques au monde, Netflix. Pourquoi ? Les données publiées par Netflix permettent de faire des calculs précis et sérieux.

 

Exemple chiffré : Netflix

Netflix logoNetflix publie tous les ans des chiffres détaillés sur ses abonnés et sur ses consommations d’énergie électrique.
N’oublions pas que Netflix est considéré par beaucoup d’organisations militantes pour le climat comme un “grand méchant” pollueur, à l’origine d’usages immodérés des réseaux.

Le document de référence que je vais utiliser pour ces calculs est leur “Environmental Social Governance Report” pour 2019.

Netflix, un bon élève pour la Frugalité Numérique !

Netflix utilise des algorithmes propriétaires de compression des flux vidéos qui réduisent dans un rapport trois les volumes de données transmis. Quand on sait que Netflix représente environ 15% des flux vidéos mondiaux, c’est une économie majeure. Bravo, Netflix.

Netflix a été l’une des premières grandes entreprises d’Internet à basculer sur le cloud d’Amazon, AWS : en 2012, 95% de ses usages étaient déjà sur AWS. Aujourd’hui, Netflix utilise AWS et GCP de Google pour 100% de ses usages numériques. Dans mon billet qui analyse les centres de calcul, j’ai montré que Google et Amazon étaient les meilleurs élèves de la classe et géraient mieux que quiconque leurs centres de calcul. En 2019, Google était à 100% en énergies renouvelables et AWS à environ 50%.

AdS DPC Solar and wind energy S 44797039Netflix évalue à 357 000 MWh sa consommation d’énergie pour ses infrastructures externalisées et la compense à 100% avec des certificats régionaux d’énergies renouvelables. Si je comprends bien, Netflix compense à 100% des énergies qui sont déjà 100% renouvelables. Concrètement, plus on utilise Netflix qui compense à près de 200%, meilleur c’est pour le climat !

Bravo, Netflix pour ces choix d’infrastructures, bons pour la planète.

Netflix utilise ses propres infrastructures pour le transport des flux, dans la partie CDN, Content Distribution Network. La consommation d’énergie de Netflix pour ses usages internes et pour ses CDN a été de 94 000 MWh en 2019. Netflix compense aussi à 100% en crédits d’énergies renouvelables ses dépenses énergétiques CDN. Bravo, Netflix.

Dans mes calculs, je fait l’hypothèse que 100% de cette consommation d’énergie est liée à ses activités CDN, et donc la majorer, ne connaissant pas la part relative à leurs usages internes tels que gestion de leurs bureaux.

Les chiffres pour 2018 sont de 194 000 MWh pour les centres de calcul et de 51 000 MWh pour la partie CDN.

Une étude, réalisée pour l’année 2018 par un organisme d’analyse des consommations de vidéos par les personnes, donne les chiffres suivants, pour Netflix :

  • Nombre d’abonnés dans le monde : 140 millions.
  • Temps moyen d’utilisation de Netflix : 71 minutes par jour.
  • Nombre d’heures Netflix visionnées par jour : 165 millions.

Tous ces chiffres me permettent de calculer le coût énergétique CDN d’une heure de vidéo Netflix, résumé dans le tableau ci-dessous, en utilisant les chiffres de 2018.

Netflix Energie CDN et Data Center

J’ai refait plusieurs fois les calculs, tant les résultats m’ont surpris : 1 heure de vidéo transportée par Netflix consomme 0,84 Wh. Pour simplifier, je vais arrondir à 1 Wh.

1 heure de vidéo Netflix transportée par Internet = 1 Wh

Permettez-moi maintenant de revenir sur les chiffres de Greenpeace que j’avais cités au début de ce billet. On y trouve la phrase suivante :

“Il faut plus d’énergie pour diffuser une vidéo HD en streaming depuis le Cloud que pour fabriquer et expédier un DVD”

J’ai cherché, sans succès, leurs sources ; je vous ai donné les miennes. Mes calculs correspondent exactement à ce qu’ils nomment le “streaming depuis le Cloud”.

Qui croire ?

Je ne connais pas le coût énergétique complet de fabrication d’un DVD, de l’extraction des matériaux nécessaires à sa fabrication, des matériaux nécessaires à son emballage, de son transport depuis un pays asiatique, de sa mise à disposition dans un point de vente en France, de son transport chez le client final et de l’énergie consommée par le lecteur de DVD pour transmettre les données sur une télévision, un PC ou un smartphone. Je suis par contre certain que c’est… sensiblement plus élevé que le 1 Wh de son streaming depuis le Cloud !

En prenant comme hypothèse très basse que toutes ces actions consomment au minimum 1 kWh, on arrive à la conclusion “intéressante” suivante :

Visualiser une heure de vidéo depuis Internet est

1 000 fois moins consommateur d’énergie que d’acheter un DVD !

 

Retour sur le document vidéo en ligne du Shift Project

Dans l’introduction de ce billet, j’ai cité le document du Shift project de 2019 qui alertait sur les risques que faisait peser sur la planète la croissance des flux vidéos.


Shift Project répartition vidéosCe long document de 38 pages contient beaucoup d’informations intéressantes :

  • Oui, la vidéo représente près de 80% des flux de données.
  • Oui, sa répartition par familles d’usages pose des questions de société, par exemple le volume important des flux pornographiques.
  • Oui, il insiste sur les usages et leurs dimensions sociales, humaines et politiques.

Par contre, certaines recommandations de ce rapport me semblent peu pertinentes, car elles mélangent les dimensions usages, dominantes, et infrastructures, pas assez étudiées à mon avis.

Ce document ne prend pas en compte la croissance exponentielle des performances des réseaux, plus rapide que les volumes des données à transmettre.

Exemple de recommandation peu pertinente : demander aux utilisateurs de visualiser une vidéo avec une définition minimale n’a aucun impact sur la consommation d’énergie, comme je l’ai montré dans mon analyse. Sur une borne WiFi qui n’est pratiquement jamais saturée, diffuser en basse définition ou en 4K n’a aucun impact sur la consommation d’énergie de cette borne.

Tenir des discours alarmistes, faire du “numérique bashing”, ce sont de très mauvaises idées qui rendent un mauvais service à la planète. Si l’on souhaite que les dirigeants, les DSI et les collaborateurs des entreprises prennent des décisions efficaces pour améliorer la Frugalité Numérique de leur entreprise, il est essentiel de tenir un discours rationnel et factuel, pour leur permettre de déclencher des actions qui auront des impacts concrets et rapides.

 

Synthèse sur les consommations énergétiques des infrastructures réseau

J’ai passé beaucoup de temps à chercher des données fiables, à faire des calculs clairs correspondant à l’ensemble des étapes du transport de données par des réseaux numériques, depuis les centres de calcul jusqu’à leur arrivée sur les objets d’accès.

  • Les dépenses énergétiques LAN et MAN/WAN sont identiques, 1Wh.
  • Sur le réseau LAN, on utilise l’une des deux technologies, WiFi et 4G/5G.

En résumé :

1 heure de vidéo transmise d’un centre de calcul

à un objet d’accès consomme 2 Wh.

J’ai été surpris par ces résultats ! L’important est qu’ils sont très encourageants pour l’avenir du numérique dans les entreprises.

Ils sont résumés en enrichissant l’un des premiers schémas de ce billet.

Frugalité Numérique - réseaux - 1 heure vidéo

Je vous propose de terminer ce billet par un message fort et positif :

Un usage numérique qui apporte de la valeur à une entreprise

ne doit jamais être freiné par l’idée que la consommation de réseaux

qu’il induit est mauvaise pour la planète.

 


Frugalité Numérique : objets d’accès. (Troisième partie)

 

AdS DPC Objets d'accès PC  tablette smartphone S 106566518Ce troisième billet sur le thème de la Frugalité Numérique traite des objets d’accès, PC, smartphones, tablettes ou chromebooks utilisés par les collaborateurs d’une entreprise pour accéder à leurs usages numériques.

Premier billet : présentation générale de la thématique Frugalité Numérique.

Deuxième billet : les centres de calcul.

Dans le tableau de répartition des responsabilités entre les six domaines d’actions et les différents acteurs présenté à la fin du premier billet, j’ai indiqué que les deux populations clefs pour les objets d’accès étaient les collaborateurs et la DSI. L’objet d’accès est en effet le seul composant d’infrastructure qu’un collaborateur “touche” ; réseaux sans fil et serveurs sont des composants virtuels pour lui. Ces deux populations seront au centre des décisions concernant les objets d’accès.

 

Objets d’accès : dimensions énergétiques et matérielles

Un smartphone, une tablette, un PC portable Windows ou un Chromebook demandent de l’énergie pour être fabriqués et consomment de l’énergie pendant leur utilisation. Posez autour de vous la question suivante :

Si vous utilisez votre smartphone pendant 3 ans, quel est le pourcentage d’énergie utilisée pour sa fabrication par rapport à son usage ?

Vous constaterez que peu de personnes se sont spontanément posées la question et leurs réponses seront très variées.

Plusieurs études fournissent des réponses, différentes, à cette question. J’ai choisi de vous présenter les résultats de celle réalisée par l’European Environmental Bureau (EEB) ; elle est complète, sérieuse et donne des chiffres pour les smartphones et les PC portables dans l’Union Européenne.

PC portables

Les résultats de l’étude EEB sont résumés dans le tableau ci-dessous.

EBB Notebook energy numbers

Les chiffres clefs :

  • Avec comme hypothèse que la durée de vie utile d’un PC portable est de 4,5 années, il consomme autant d’énergie pour sa fabrication, 50%, que pour son utilisation.
  • Le parc installé en Europe, de l’ordre de 150 millions, génère environ 13 millions de tonnes de CO2 par an.

Smartphones

Cette même étude donne les chiffres suivants pour les smartphones :

EBB smartphones energy numbers

  • Dans ce cas, l’hypothèse de la durée de vie est de 3 ans : la fabrication d’un smartphone consomme 3 fois plus d’énergie que son usage !
  • Le parc installé en Europe, de 630 millions de smartphones, émet 14 millions de tonnes de CO2 par an, à peu près autant que les PC portables. Comme il y a 4 fois plus de smartphones que de PC, ceci signifie qu’un smartphone est 4 fois moins polluant, en CO2, qu’un PC portable.

Un axe d’action recommandé par EBB est d’augmenter la durée de vie d’un smartphone. Si l’on passe de 3 ans à 4 ans, ce qui n’est pas déraisonnable, leurs calculs montrent que l’impact est significatif : La réduction de l’émission de CO2 correspond à celle d’un million de voitures.

EEB Frugalité - augmenter durée vie smartphones

Individuellement, PCs et smartphones émettent peu de CO2 ; collectivement, ils sont des producteurs importants de CO2.

Augmenter la durée de vie utile de ces objets d’accès est un moyen efficace de réduire leurs impacts sur la planète : ceci pose la double question de leur réparabilité et de leur obsolescence.

 

Objets d’accès : réparabilité et Frugalité Numérique

L’immense majorité des anciens téléphones portables, non-smartphones, Nokia, Motorola… permettaient l’échange immédiat des batteries. C’est devenu rare sur les smartphones actuels.

Le cas des batteries est un exemple parmi d’autres de la difficulté croissante de réparation des smartphones et PC modernes.

En 2019, j’ai eu deux expériences “inacceptables” dans ce domaine :

  • Batterie remplacement MacBook airLa batterie de mon ordinateur de secours, un Apple Macbook Air de 6 ans, a rendu l’âme. Le point de vente Apple où je suis allé pour la remplacer m’a dit : « votre ordinateur a plus de 5 ans, nous n’avons donc pas de batteries de rechange ». Leur proposition “frugale” était de le reprendre pour 50 € si j’achetais un nouvel ordinateur. Changer d’ordinateur parce que la batterie est morte, c’est comme changer de voiture parce que les pneus sont usés ! Une recherche rapide sur Amazon m’a permis de trouver une batterie compatible, à moins de 50 €, livrée avec les tournevis permettant de démonter les vis “propriétaires” d’Apple. Il faudra un jour qu’Apple m’explique quelle est la valeur ajoutée pour les clients d’avoir inventé des vis différentes du reste du monde !
  • La même mésaventure m’est arrivée avec une montre Motorola. Après seulement 3 ans de vie, la batterie est morte et Motorola m’a écrit : “nous avons arrêté de fabriquer des montres et donc de les réparer” ! Les fournisseurs automobiles sont obligés de proposer des pièces de rechange pendant un minimum de 10 années après l’arrêt de fabrication d’un modèle. Il est urgent qu’une loi du même type soit promulguée en Europe. La batterie de rechange pour cette montre existe sur Amazon, à moins de 20 € !

Motorola montre 360 batterie

Honte à ces deux entreprises, Apple et Motorola, filiale du chinois Lenovo, pour leur absence totale de considération pour la réparabilité de leurs produits. Avant de leur acheter un nouvel objet d’accès, demandez une réponse écrite à la question : pendant combien d’années garantissez-vous la réparabilité de vos produits ?

Une entreprise peut exiger que les objets d’accès qu’elle achète, smartphones, PC portables ou tablettes soient facilement réparables ; c’est essentiel quand elle a comme objectif d’en augmenter la durée de vie utile.

La société américaine Ifixit est spécialisée dans l’analyse de la réparabilité des objets numériques. A chaque sortie d’un nouvel appareil, elle en achète un exemplaire, le démonte et lui donne une note de réparabilité comprise entre 0, impossible à réparer et 10 si c’est très facile.

Dans le tableau ci-dessous, j’ai choisi six exemples emblématiques d’objets d’accès sortis en 2019, représentant les deux extrêmes de la notation : PC portables, tablettes et smartphones.

IFIXIT Score 2019 best worst smartphone tablet PC

  • PCs portables : note 1/10 pour Macbook pro, 10/10 pour HP Elite book.
  • Tablettes : note 2/10 pour iPad 7, 9/10 pour HP Elite.
  • Smartphones : note 2/10 pour Samsung Fold (à la fiabilité “faible”) et 10/10 pour Fairphone 3.

 

Un bon exemple de réparabilité : le smartphone Fairphone 3

Fairphone 3 components + IFIXIT noteUne jeune société des Pays-Bas, Fairphone, propose des smartphones Android qui ont été pensés, dès le premier jour, pour être le plus faciles possible à réparer. Ce sont les seuls smartphones au monde à avoir obtenu la note de 10/10 chez Ifixit.

Leur modèle le plus récent, Fairphone 3, est un smartphone aux performances raisonnables, vendu 450 €. Sur leur site, le prix des principaux composants est affiché :

Fairphone spare parts prices

  • Batterie : 29,95 €
  • Ecran : 89,95 €
  • Caméras : 49,95 €

Tout est prévu pour que le remplacement soit réalisable par les équipes internes d’une entreprise sans avoir besoin de renvoyer le Fairphone 3 au fournisseur.

Des entreprises avec qui je collabore ont acheté quelques exemplaires de Fairphone 3 pour les tester avant de les recommander ; c’est une démarche pragmatique que je propose de généraliser dans toutes les entreprises.

Si, comme je l’espère, le nombre d’entreprises qui s’équipent de Fairphone 3 augmente, je suis persuadé que d’autres fournisseurs entendront le message et feront les efforts nécessaires pour proposer de nouveaux modèles plus faciles à réparer.

Vous souhaitez augmenter au maximum raisonnable la durée de vie utile de tous vos objets d’accès : si la réponse est oui, je vous propose de prendre une décision simple et radicale :

Interdiction totale d’acheter un objet d’accès

qui a un score Ifixit inférieur à 6

Ceci va faciliter vos processus d’achat et de sélection, en réduisant fortement le nombre d’objets d’accès qui répondent à ce critère éliminatoire.

Aurez-vous le… courage de prendre cette décision ?

 

Objets d’accès : obsolescence et Frugalité Numérique


Le marché mondial des objets d’accès est stabilisé depuis quelques années. Pour la période 2020 - 2022, le Gartner Group confirme cette tendance, comme le montre ce tableau. Chaque année, plus de 2 100 millions d’objets numériques d’accès seront vendus, un chiffre élevé, rapporté à la population mondiale d’un peu plus de 7 700 millions de personnes.

Worldwide devices shipments Gartner 2020 - 2022

Dans une logique de Frugalité Numérique, c’est une bonne nouvelle ; les entreprises peuvent espérer une raisonnable stabilité de l’offre et de la demande d’objets d’accès.

Anticiper les évolutions technologiques pour réduire l’obsolescence

Une voiture bien entretenue avait une durée de vie utile supérieure à 10 ans. C’est de moins en moins vrai au vu des ruptures technologiques majeures qui secouent l’industrie automobile, électricité et conduite autonome. Il faut aujourd’hui se poser la question de la pertinence d’un achat d’un véhicule 100% thermique et anticiper les évolutions des offres et de la demande.

Les mêmes questions se posent aux responsables des choix et des achats d’objets d’accès dans les entreprises.

AdS DPC Anticipate S 180296971Si je souhaite que l’objet d’accès acheté aujourd’hui ait une durée de vie maximale, il est indispensable d’anticiper les évolutions techniques qui pourraient le rendre obsolète alors qu’il continuerait à bien fonctionner.

Voici, à titre d’exemples, quelques questions qu’il faut se poser :

  • Les réseaux 5G sont annoncés : à quelle date, en 2020, 2021 ou 2022, faudra-t-il exiger qu’un modem 5G soit disponible sur un smartphone.
  • La version 6 du WiFi est disponible : quand les nouvelles bornes déployées dans les bureaux devront-elles être en version 6 ? Quand mettre dans les appels d’offres de PC portables que la compatibilité WiFi 6 est obligatoire ?
  • Les Chromebooks deviennent des alternatives crédibles aux PC portables Windows. Ils sont maintenant capables d’exécuter toutes les applications Android. Conséquence : acheter un Chromebook qui n’a pas d’écran tactile est une erreur.
  • Installer des cartes SIM 4G et 5G sur des PC portables et des tablettes devient possible. Faut-il en faire une priorité ou est-ce que l’utilisation d’un smartphone comme routeur est suffisante ?
  • Faut-il fixer des capacités minimales pour les mémoires, les processeurs, les capacités des capteurs photographiques, la taille des écrans... ? Si oui, lesquelles ?
  • ...

Pour aider dans ces décisions, une entreprise peut se fixer une durée de vie minimale pour chaque famille d’objets d’accès.

Je vous propose d’utiliser comme minima les chiffres suivants :

  • Smartphones : 4 années.
  • PC portables : 6 années. Google garantit maintenant qu’un Chromebook pourra être mis à jour pendant un minimum de 8 années.
  • Tablettes : 5 années.

 

Objets d’accès : une nouvelle collaboration entre DSI et collaborateurs

En privilégiant la réparabilité et une durée de vie technique allongée, les entreprises peuvent augmenter la durée de vie utile de tous les objets d’accès. C’est en agissant sur ces deux dimensions que l’entreprise peut améliorer sa Frugalité Numérique pour les objets d’accès.

Les dimensions techniques réglées, reste le plus difficile : mettre en œuvre les changements humains et organisationnels qui permettent d’en tirer parti.

Une nouvelle démarche est nécessaire : je l’ai nommée :

OAaaS : Objet d’Accès as a Service

Le schéma ci-dessous résume les principes de la démarche OAaaS.

OAaaS - Frugalité Numérique

Les principes en sont simples, la mise en œuvre, beaucoup moins !

L’idée forte est la suivante : il faut réduire la dimension “personnelle” des objets d’accès et les banaliser.

Pour assurer le succès de cette démarche, la DSI et les collaborateurs devront travailler avec de nouvelles responsabilités mutuelles.

 

Objets d’accès : responsabilités des collaborateurs

Pour accéder à mes applications professionnelles, j’ai besoin d’objets d’accès. La démarche proposée permet à chaque collaborateur de choisir le ou les objets dont il a besoin, à un instant donné, pour des activités qui peuvent changer selon les lieux ou les conditions de travail.

En prenant comme exemple les voitures de services, je peux demander un 4x4 pour mener une inspection dans une région de montagne et une petite voiture facile à garer si je dois rencontrer un client dans une grande ville.

Google Fi pricingAvec beaucoup de pragmatisme, je vais demander aux équipes de la DSI de m’équiper en fonction de mes besoins spécifiques, et changeants :

  • Pour mes usages permanents “normaux”, je considère qu’un Chromebook tactile de 13 pouces est l’objet d’accès le mieux adapté, complété par un smartphone Android milieu de gamme.
  • Je pars pour une tournée internationale dans quatre pays différents pendant 10 jours : je vais souhaiter partir avec deux ordinateurs portables pour éviter des problèmes en cas de vol ou de casse. Je demanderai aussi un téléphone “Google Fi”, acheté aux USA, qui permet un roaming international à coût raisonnable dans 200 pays.
  • Je vais travailler pendant 48 heures dans une zone avec des risques d’explosion, comme une raffinerie de pétrole : je vais demander une tablette “ATEX”, anti-explosion.

Ces règles d’attribution d’objets d’accès aux collaborateurs ont pour objectif principal d’optimiser, et les usages et le parc installé. Il ne s’agit pas de changer pour changer, mais il faut casser le principe actuel de l’attribution “définitive” d’un objet d’accès à un collaborateur.

Pour fonctionner, la démarche OAaaS s’appuie sur des principes simples et peu nombreux :

  • Le nombre, la nature et la puissance des objets d’accès utilisés par un collaborateur ne sont pas liés à son niveau hiérarchique ou à la direction où il travaille. Les dirigeants sont rarement les personnes qui ont le plus besoin d’outils puissants !
  • Les objets d’accès sont affectés aux collaborateurs selon leurs besoins professionnels à un moment donné.
  • Un collaborateur dont le métier ou les besoins numériques évoluent se verra proposer des objets d’accès différents, si nécessaire.
  • Quand un collaborateur a besoin d’un objet d’accès spécialisé pour une mission de quelques jours, il fait une demande à la DSI, qui lui remettra ceux qui correspondent le mieux à sa demande.

Pour répondre à ces nouveaux modes de “consommation” d’objets d’accès, les équipes de la DSI doivent, elles aussi, changer leurs modes de fonctionnement.

 

Objets d’accès : responsabilités de la DSI

La DSI devient gestionnaire d’un parc d’objets d’accès, mis au service de tous les collaborateurs de l’entreprise. Toutes les “bonnes pratiques” d’une gestion de parcs, automobile par exemple, peuvent être reprises pour cette gestion d’objets d’accès.

  • La priorité reste bien sûr d’offrir le meilleur service possible aux collaborateur:
    • Une variété suffisante : tailles d’écrans, puissance.
    • La capacité de répondre à des demandes ponctuelles, pour des objets d’accès spécialisés.
    • La mise à disposition d’objets d’accès performants, modernes et durables.
  • La DSI propose une variété raisonnable d’objets d’accès à son catalogue, pour couvrir l’essentiel des attentes des collaborateurs de l’entreprise :
    • Caractéristiques techniques : puissance, poids, taille, mémoire...
    • PCs, Smartphones, Tablettes et Chromebooks.
    •  …

Parc Objets accès - smartphones PC Tablettes

  • La DSI optimise le parc d’objets d’accès en privilégiant la réparabilité et la durée de vie utile, comme on l’a vu plus haut. Lorsque les parcs sont importants, il peut être envisagé de disposer d’un atelier interne pour les réparations de base et accélérer les remises en service.
  • La rotation des objets d’accès devient une pratique courante : tout objet d’accès qui est retourné à la DSI peut être réalloué à une autre personne.
  • Pour les objets d’accès en fin de vie utile, le recyclage fait partie des priorités.

 

Objets d’accès : usages professionnels et personnels

Pour améliorer leur Frugalité Numérique, les entreprises doivent se poser la question des usages professionnels et personnels des objets d’accès.

Comme on l’a vu plus haut, la part de l’énergie nécessaire pour fabriquer un smartphone ou un PC portable est importante.

C’est encore plus vrai pour la consommation des matériaux, souvent rares, utilisés pour leur fabrication.

La majorité des PC portables, chromebooks, tablettes ou smartphones peuvent être utilisés pour des usages professionnels et personnels.

Il est aujourd’hui possible de séparer efficacement, sur un même objet d’accès, les usages personnels et professionnels en déployant des solutions EMM (Enterprise Mobile Management) dont c’est l’une des fonctions essentielles.

Ceci permet de répondre aux inquiétudes sur la confidentialité des données et des usages, la sécurité des contenus professionnels, les risques de “surveillance” des collaborateurs et autres “alibis” utilisés pour maintenir le statu quo.

Si les collaborateurs et la DSI acceptent d’utiliser les mêmes objets d’accès pour tous les usages, les impacts énergétiques sont faciles à mesurer :

  • Sur 4 années, utiliser un seul smartphone au lieu de deux réduit de 37% la consommation d’énergie électrique. Le calcul est simple :
    • 2 smartphones : 75% x 2 pour production et 25% x 2 pour usages = 200.
    • 1 seul smartphone : 75% x 1 et 25% x 2 = 125.
  • Sur 5 années, utiliser un seul PC portable au lieu de deux réduit de 25% la consommation d’énergie électrique, selon un calcul similaire :
    • 2 PC portables : 50% x 2 pour production et 50% x 2 pour usages = 200.
    • 1 seul PC portable : 50% x 1 et 50% x 2 = 150.

Partage Laptop Smartphone perso - professionnel

Les impacts sur la consommation de matières premières rares sont évidents ! Utiliser un seul smartphone, un seul PC portable divise par deux cette consommation.

Deux démarches différentes permettent de partager un seul objet d’accès pour ses usages personnels et professionnels :

  • BYOD : Bring Your Own Device : un collaborateur utilise un objet d’accès personnel pour ses usages professionnels.
  • COPE : Company Owned, Personally Enabled : un collaborateur utilise un objet d’accès fourni par entreprise pour ses usages personnels.

BYOD et COPE peuvent s’appliquer à des PC portables, des tablettes ou des smartphones.

Ces démarches BYOD et COPE sont beaucoup moins fréquentes que je pouvais l’espérer il y a quelques années : des réticences fortes sont venues des deux côtés, utilisateurs et DSI.

Expliquer aux collaborateurs et aux DSI que ces démarches ont des impacts forts et immédiats sur la consommation d’énergie et l’usage de ressources rares peut leur redonner un fort regain d’intérêt. Ce serait une bonne nouvelle de plus pour la planète !

 

Indicateurs de performance (KPI) Frugalité Numérique pour parc d’objets d’accès

Pour suivre les progrès réalisés dans une démarche Frugalité Numérique, la DSI peut choisir un petit nombre d’indicateurs de performances (KPI) dédiés. Il est important de ne pas mélanger ces KPIs avec ceux, plus traditionnels, utilisés pour le suivi financier des objets d’accès.

Je vous propose une première liste de KPIs pertinents pour suivre les progrès de la Frugalité Numérique dans sa dimension Objets d’Accès :

  • Age moyen du parc.
  • Age moyen des objets retirés.
  • Pourcentage des objets réparés et remis en circulation.
  • Pourcentage d’objets en BYOD.
  • Pourcentage d’objets en COPE.

KPI gestion Parc Objets accès

Ces KPIs, suivis mensuellement, sont calculés pour chaque famille d’objets d’accès, PC, Smartphones, Chromebooks et Tablettes.

 

Synthèse

Win Win Frugalité Entreprise planèteLes objets d’accès sont l’une des composantes les plus efficaces des outils numériques pour sensibiliser rapidement une entreprise aux potentiels de la Frugalité Numérique.

Chaque collaborateur est concerné, chaque collaborateur peut mesurer l’impact de ses décisions individuelles, telles que BYOD ou COPE, prises en accord avec celles de l’entreprise.

C’est aussi un moyen efficace pour donner plus de visibilité à la DSI qui, en soutien des collaborateurs, va montrer qu’elle participe activement à l’amélioration de la Frugalité Numérique, au service de la planète.

Obtenir rapidement des résultats significatifs, mesurables, et qui parlent à tout le monde en privilégiant une démarche innovante de gestion des objets d’accès, c’est un bon exemple d’un projet “gagnant - gagnant “.

 

Quatrième partie : les réseaux


Hommage à Clayton Christensen, un géant de la pensée managériale

 

Clayton Christensen HBRLe 23 janvier 2020 est mort à 67 ans Clayton Christensen, un des plus grands penseurs de ces dernières années sur la stratégie des entreprises. Par ses écrits, il a influencé d’innombrables dirigeants, de Intel à Apple en passant par les fondateurs de startups. Je suis fier de dire que j’ai utilisé ses idées dans des startups avec lesquelles j’ai collaboré et d’autres où je travaille encore. J’en présente un exemple récent à la fin de ce billet.

En 2006, il y a 14 ans, au début de ce blog et à la veille de créer l’entreprise Revevol, j’avais écrit un billet pour expliquer les principes de base de la démarche de Clayton Christensen.

J’ai décidé de le republier aujourd’hui, tel quel, sans en changer un seul mot. Le fait que ce texte soit encore d’actualité est le meilleur hommage que je puisse rendre à cet homme exceptionnel.

J’ai ajouté quelques paragraphes à la fin du billet de 2006 pour illustrer l’influence majeure que continue à avoir Clayton Christensen dans l’industrie du numérique.

 

Billet original de 2006

Christensen photoClayton Christensen, professeur à l’Université de Harvard, a écrit trois livres importants sur l’innovation :

- The Innovator's Dilemma

- The Innovator's Solution

- Seeing What's Next : Using Theories of Innovation to Predict Industry Change

Les idées qu’il défend permettent d’appréhender les mécanismes de base de l’innovation et expliquent pourquoi tant d’entreprises et de produits nouveaux échouent.  Ces idées s’appliquent à tous les secteurs d’activité, mais sont particulièrement pertinentes pour tout ce qui touche aux technologies de l’information.

Christensen bookC’est une lecture indispensable pour toute personne qui s’intéresse sérieusement aux innovations et à leurs impacts.

Ce texte présente un résumé très succinct des idées de Christensen et mon interprétation de leurs applications dans le monde de l’informatique, et en particulier du Web 2.0.

Les points clefs de la démarche de Christensen

Sur ce premier graphique, une ligne représente le rythme d’évolution du progrès technique. Les performances des matériels et des logiciels s’améliorent en permanence ; la capacité des disques durs double tous les ans.

Christensen model 1

La deuxième droite représente l’évolution des attentes des clients ; elle évolue moins rapidement que les performances des outils.

J’ai fait apparaître deux familles de produits, A et B.

A : Produits matures, surdimensionnés

Les produits de type A ont dépassé les attentes de la très grande majorité des utilisateurs.  En informatique, de nombreux produits appartiennent à cette famille ; citons, par exemple :

- Les bases de données Oracle ou DB2

- La suite bureautique Office

- Les processeurs Intel pour PC professionnels

Chacun pourra, à sa guise, rajouter d’autres produits à cette liste.

Les fournisseurs de ces produits se heurtent à un problème sérieux : ils ont de plus en plus de mal à convaincre le marché que les nouvelles versions apportent une valeur ajoutée suffisante pour justifier un changement.

B : Produits encore insuffisants

Il existe encore beaucoup de produits dont les performances ne sont pas jugées satisfaisantes par la majorité des utilisateurs ;  ce sont, par exemple :

- La vitesse des réseaux mobiles 3G pour le transfert des données

- L’autonomie des batteries des micro-ordinateurs portables

- La distance utile d’usage des bases Wi-Fi.

Les fournisseurs de ces produits sont dans une situation très positive ; toute amélioration des performances est immédiatement plébiscité par le marché, jusqu’au jour où ils croisent la ligne des attentes et se retrouvent en postillon de type A.

Les appareils de photos numériques en fournissent un bon exemple ; jusqu’en 2005, le nombre de mégapixels était un argument de vente important, car les utilisateurs voyaient clairement la différence entre 2 et 5 Mégapixels.  Cette course est aujourd’hui terminée ; pour la très grande majorité des photographes amateurs, une photo de 10 MPixels, imprimée en 10x15, n’est pas visuellement meilleure que si elle pesait 6 MPixels.

Innovations de rupture

L’un des apports essentiels de Christensen a été de mettre en évidence ce qu’il nomme les innovations de rupture.

Christensen model 2

Face à la saturation progressive du marché, pour les produits de type A, des entreprises innovantes lancent des produits de rupture, qui en font beaucoup moins, mais à des prix très compétitifs.

Ces produits ont l’intelligence de ne pas attaquer de front les leaders, mais commencent par prendre deux marchés clefs : les personnes qui se contentent de solutions raisonnables et les “non-utilisateurs ” actuels qui ne pouvaient pas acheter les produits leaders.

La Logan de Renault illustre parfaitement ce processus ; elle est vendue dans les pays émergents comme première voiture, dans une configuration minimale, autour de 5000 euros.  Dans les pays avancés, la Logan est achetée dans une version “haut de gamme”, à 9000 euros, par des personnes qui ont découvert qu’elles n’ont pas besoin de “plus” de voiture pour répondre à leurs véritables attentes.

Je propose de définir deux familles de produits innovants, C et D.

C : Produits innovants, en devenir

Skype à ses débuts, Asterisk, l’autocommutateur Open Source, l’immense majorité des start-ups à succès rentrent sur le marché avec des produits de type C ; ils ont des fonctions minimales, incomplètes, mais les proposent à des prix très bas, voire même gratuitement.

En proposant des services au rapport qualité/prix imbattable, les produits de type C trouvent rapidement des “clients innovants” qui sont capables d’arbitrer entre fonctionnalités, performances et coûts et savent utiliser ces produits en tenant compte de leurs limites.

D : Produits innovants, proche maturité

David GoliathTrès rapidement, en quelques mois, les produits de type C ont trouvé leur marché et des millions de clients les utilisent.  Ils évoluent alors rapidement vers des produits de type D, dans la situation “idéale” où il y a une bonne adéquation entre leurs fonctionnalités et les attentes de la majorité des clients, et non plus seulement des clients innovants.

Skype, aujourd’hui, en est une bonne illustration : avec la fonction SkypeOut d’appels économiques de tous les numéros, la possibilité d’utiliser un téléphone “normal” au lieu d’un casque et des dizaines d’autres améliorations, Skype est proche de la réponse complète, économique et raisonnable aux attentes des particuliers et des entreprises

MySQL, JBoss, sont d’autres exemples de produits qui ont atteint le niveau D.  En répondant bien aux attentes du cœur de marché, ils commencent alors à sérieusement concurrencer les fournisseurs produits de type A, qui doivent se concentrer sur les clients ayant des besoins très complexes, ce qui devient un marché de ... niche.

Fournisseurs : quelle stratégie d’innovation ?

Le modèle d’innovation A/B/C/D proposé par Christensen est très efficace pour aider un fournisseur dans sa stratégie d’innovation.

Castle- Face à un marché de type A, la meilleure solution consiste le plus souvent à ... chercher un autre créneau.  Les acteurs en place, puissants et à forte notoriété, ont les moyens marketing et financiers de s’opposer efficacement à toute tentative d’entrée sur ce marché.

- Si le marché est en situation B, toute innovation qui apporte une réelle amélioration des performances sera rapidement acceptée par les clients et a beaucoup de chance de réussir.  La couverture nationale de la France en réseau Edge par Bouygues Telecom, le succès fulgurant du Wi-Fi, première solution rapide de réseau sans fil sont des exemples d’innovation de type B.

- Trouver un produit ou un service de type C est la voie royale de l’innovation moderne.  L’entreprise répond à une double demande, de clients attirés par une solution plus économique et de nouveaux clients, non-utilisateurs actuels de ces services, le plus souvent pour des raisons de coût. Les fournisseurs de solutions A sont désarmés face à ces innovations de rupture C car ils ne peuvent pas mettre en danger leur rente de situation en répondant par des baisses de prix massives.

- Passer rapidement au niveau D des services proposés est indispensable si l’innovateur veut protéger son marché initial et rentrer sur le marché de masse des clients aux attentes raisonnables. La principale difficulté sera souvent de savoir résister au danger de l’hypertrophie fonctionnelle. En se transformant en fournisseur de type A, il laisserait alors le champ libre à un nouvel innovateur de type C, capable de l’attaquer avec une nouvelle offre de rupture !

DSI : décisions intelligentes face à l’innovation

Ce même modèle A/B/C/D peut être utilisé par un DSI pour mieux analyser les innovations qui lui sont proposées.

- Face à un nouveau service de type A, la meilleure réponse consiste à refuser les nouvelles versions qui n’offrent aucun avantage important à l’immense majorité des utilisateurs.  C’est souvent difficile, car ce sont les fournisseurs déjà en place, connus, puissants qui proposent des solutions A.

- Pour un DSI, une innovation de type B est “idéale”. Il pourra proposer à ses clients un nouveau service, de nouveaux niveaux de performance qui seront accueillis avec enthousiasme pas les utilisateurs.

- Les innovations de type C sont plus délicates à gérer par la DSI ; c’est le cas, aujourd’hui, de la majorité des Services Web 2.0 pour les entreprises.

La clef de la réussite consiste à choisir, comme premiers clients, des petits groupes d’utilisateurs innovants, raisonnables, capables de comprendre les avantages et les limites des solutions et de s’y adapter.  C’est dans ma mise en œuvre réussie de solutions de type C que l’on reconnaît les meilleurs DSI innovants.

Bouée- Un DSI a deux approches possibles pour les solutions de type D. Il peut attendre que les produits aient atteint le niveau D, en faisant l’impasse sur les offres de type C ; ce sera la stratégie choisie par une majorité de DSI, “prudent” face à l’innovation.

Pour ceux qui auront installé, à petite échelle, des solutions de type C, le passage en D se fera naturellement, par extension des premières implantations à l’ensemble de l’entreprise et en s’appuyant sur les nouvelles versions de ces services, arrivés à maturité. La probabilité de réussite sera plus élevée, la mise en route plus rapide.

L’analyse proposée par Christensen est un outil extrêmement puissant de compréhension des différentes facettes de l’innovation.

En positionnant toute innovation qui lui est proposée dans l’une des quatre familles A/B/C/D, un DSI peut, rapidement, proposer une réponse adaptée à son style de management et à la capacité de son organisation à absorber des innovations.

Refuser des innovations de rupture, type C, peut être la meilleure décision pour un DSI prudent dans une organisation traditionnelle !

J’espère, et je suis sûr qu’il y a quand même quelques DSI innovants pour les mettre en œuvre et donner à leurs entreprises un avantage concurrentiel significatif.

Optimiste je suis né, optimiste je reste !

Fin du texte du billet original

-------------------------------------------------------------------------------------------

 

Théories de Clayton Christensen : elles sont là pour durer

HBR Essentials on ChristensenClayton Christensen était professeur à Harvard ; cette université a eu la bonne idée de regrouper et de publier immédiatement dans ce catalogue les principaux articles qu’il a écrits pour la HBR, Harvard Business Review ; bravo pour la réactivité.

Le succès planétaire de ses livres a fait que l’expression “Disruptive Innovation” a souvent été utilisée de manière erronée. C’est pour cela que Clayton Christensen a publié en 2015 un long article qui clarifie sa position sur les usages “excessifs” de son modèle d’innovation.

A titre d’illustration, il explique pourquoi Uber n’est pas, selon lui, une entreprise “disruptive”, contrairement à ce que pense la majorité des personnes.

Andrew Ng on ChristensenDe très nombreux témoignages ont été publiés dans la journée qui a suivi l’annonce de son décès. Tous saluent ses grandes qualités humaines et le fait que ses idées seront encore au cœur des réflexions stratégiques des dirigeants pendant de nombreuses années.

J’ai pensé que la meilleure manière de lui rendre hommage était d’illustrer, sur le cas concret d’une startup dont je suis l’un des dirigeants, comment son modèle a servi de base à sa création et à son démarrage.

 

Illustration sur un cas concret : WizyVision en 2020

WizyVision propose des solutions qui permettent à toutes les entreprises de gérer en SaaS, Software as a Service, leurs contenus multimédias, images, photos et vidéos, ce que nous avons nommé un “Média Hub”.

WizyVision HP

Aujourd’hui, le marché des contenus multimédias a quelques caractéristiques fortes :

● Il a pour nom DAM : Digital Asset Management.

● Il s’adresse en priorité aux départements communication et marketing.

● Il offre des fonctions haut de gamme telles que la gestion des droits ou la capacité de créer et modifier des images et des vidéos.

● Les fournisseurs dominants sont de grandes entreprises qui sont présentes sur ce marché DAM depuis plusieurs dizaines d’années : Adobe, OpenText…

● Ce sont des solutions chères, donc réservées à un tout petit nombre d’utilisateurs dans les entreprises.

Les solutions DAM actuelles sont en position "A" sur les graphiques de Christensen. (Voir billet de 2006).

Pour cette “étude de cas”, je vais m’appuyer sur quelques phrases clefs, extraites de cet article de 2015 cité plus haut, pour illustrer comment WizyVision répond à la définition ”innovation de rupture”. Cette analyse pédagogique permet de mieux comprendre les fondamentaux d’une démarche de ce type.

Christensen model for WizyVision

Phrase 1 : “Disruption” describes a process whereby a smaller company with fewer resources is able to successfully challenge established incumbent businesses. (La rupture décrit un processus où une entreprise plus petite, avec moins de ressources, est capable de défier avec succès des entreprises présentes sur ces marchés depuis longtemps.)

WizyVision, née en 2019, emploie une dizaine de salariés et se développe sur fonds propres, qui ne se mesurent pas en millions d’euros ! En 2019, Adobe, créée en 1982, 21 000 salariés, avait un Chiffre d’Affaires de 11 milliards de dollars. OpenText, la plus grande entreprise de logiciels du Canada, née en 1991, emploie 12 000 personnes et son Chiffre d’Affaires 2019 était de 3 milliards de dollars.

 

Phrase 2 : In the case of new-market footholds, disrupters create a market where none existed. Put simply, they find a way to turn nonconsumers into consumers. (Dans le cas des entreprises qui s’attaquent à un nouveau marché, les entreprises de rupture créent un marché qui n’existait pas. Dis simplement, elles trouvent le moyen de transformer les non-consommateurs en consommateurs.)

WizyVision vs DAM Small group  large GroupWizyVision s’adresse à tous les collaborateurs d’une entreprise, qui n’ont pas accès aujourd’hui à un DAM, et propose, à des prix très compétitifs, les fonctions essentielles d’accès et de collaboration sur des contenus photos et vidéos. Le coût de la solution est indépendant du nombre d’utilisateurs, ce qui permet de proposer des services nouveaux à 100% des collaborateurs d’une entreprise.

En 2020, WizyVision se trouve en position "C" sur les courbes de Christensen.

 

Phrase 3 : Disruptive innovations, on the other hand, are initially considered inferior by most of an incumbent’s customers. (Les innovations de rupture sont, d’un autre côté, considérées au début comme inférieures par la majorité des clients existants.)

WizyVision a été éliminé d’appels d’offres DAM “classiques” car nous n’avions pas la réponse à l’impressionnante liste des fonctionnalités demandées. Ceci nous a amenés à changer notre nom initial, WizDAM, en WizyVision pour nous démarquer clairement des solutions DAM existantes.

 

Phrase 4 : The term “disruptive innovation” is misleading when it is used to refer to a product or service at one fixed point, rather than to the evolution of that product or service over time. (L’expression “innovation de rupture” n’est pas adaptée quand elle est utilisée pour parler d’un produit ou d’un service à un instant donné, plutôt que de se référer à l’évolution de ce produit ou de ce service dans le temps.)

WIzyVision de C à D sur ChristensenWizyVision démarre en 2020 avec une offre MVP (Minimum Viable Product) qui propose les fonctions de base suffisantes pour apporter de la valeur à des utilisateurs qui n’avaient jusqu’à présent jamais eu accès à un outil leur permettant de gérer leurs contenus multimédias. En s’appuyant sur la puissance des clouds publics et des outils d’Intelligence Artificielle, l’offre de WizyVision évolue très vite et développe des services innovants que les fournisseurs classiques seront incapables de proposer. Il s’agit en priorité de répondre aux attentes des collaborateurs opérationnels pour des cas d’usages métiers spécifiques, dopés à l’Intelligence Artificielle.

L'objectif de WizyVision est de se trouver, le plus vite possible, en position "D" sur les courbes de Christensen.

Phrase 5 : The fact that disruption can take time helps to explain why incumbents frequently overlook disrupters. (Le fait que cette rupture prend du temps explique pourquoi les fournisseurs existants ignorent souvent les entreprises de rupture sur leurs marchés.)

Il est encore trop tôt pour savoir si WizyVision sera ou non sur le radar des leaders actuels des outils DAM. Mon sentiment est qu’ils vont considérer que le marché va rester focalisé sur les besoins spécialisés et complexes des départements de communication et de marketing. Le “nouveau” marché des usages multimédia pour tous les collaborateurs d’une entreprise ne leur semblera pas porteur, et ils seraient incapables de l’adresser au vu de leurs structures de coûts.

 

Phrase 6 : In contrast, the digital technologies that allowed personal computers to disrupt minicomputers improved much more quickly. (En revanche, ce sont les technologies numériques qui ont permis aux ordinateurs personnels de perturber beaucoup plus vite les mini-ordinateurs.)

C’est l’un des avantages clefs de lancer une entreprise numérique en 2020. En proposant dès le début une offre SaaS sur un cloud public, WizyVision a la capacité de rendre ses solutions immédiatement accessibles aux entreprises du monde entier. En s’appuyant sur les meilleurs logiciels existants dans les domaines du stockage, du traitement des images et des vidéos, de l’intelligence artificielle, WizyVision est en capacité de rentrer très vite dans un grand nombre d’entreprises et d’avoir un plus grand nombre d’utilisateurs de ses solutions que les grands acteurs existants, limités au seul créneau des départements marketing et communication.

 

Phrase 7. Some disruptive innovations succeed; some don’t. (Quelques innovations de rupture réussissent, d’autres pas.)

AdS DPC failure success S 133104203Créer une entreprise est toujours difficile et parsemé d’incertitudes ! Suivre à la lettre les enseignements de Clayton Christensen et avoir tous les attributs d’une innovation de rupture n’est pas une garantie de succès ! Il faudra attendre quelques années pour savoir si WizyVision réussit à s’imposer en répondant à des attentes qui n’étaient pas couvertes par les solutions existantes.

Rendez-vous est pris en 2022 !

 

Synthèse

AdS DPC Leadership S 170209190Clayton Christensen fait partie de ces très rares personnes qui auront profondément influencé des milliers de dirigeants. Il leur a permis :

● “Disrupteurs”, de faire tomber plus rapidement les acteurs dominants.

● “Disruptés”, de mieux comprendre les risques et s’adapter pour résister aux nouveaux entrants.

Ces combats entre “disrupteurs” et “disruptés” vont s’intensifier dans les années qui viennent. Les dirigeants qui ne l’ont pas encore fait doivent impérativement lire les principaux ouvrages de Clayton Christensen et, surtout, en appliquer les principes dans leurs différents métiers.

Le monde a perdu, cette semaine, un très grand monsieur.

 


Frugalité Numérique : centres de calcul (Deuxième partie)

 

AdS DPC Data Center horizontal cloud S 34080396J’ai commencé l’année 2020 par le premier d’une longue série de billets sur la Frugalité Numérique.

J’aborde aujourd’hui l’un des six domaines d’action que j’y ai identifié, les centres de calcul, Data Center en anglais.

Commencer par les centres de calcul n’est pas anodin ; c’est trop souvent sur eux que se concentre la vindicte des écologistes mal informés, qui les accusent d’être de grands méchants consommateurs d’énergie.

Ce billet démontre que faire des choix “frugaux” pour ses centres de calcul est l’une des décisions les plus positives pour la planète que peuvent prendre les entreprises, avec des impacts forts et immédiats.

 

Les centres de calcul dans le monde

La demande d’usages numériques augmente dans le monde, que ce soit pour le grand public ou pour les entreprises : ceci induit une croissance de la puissance de calcul et des volumes de données stockées dans les centres de calcul.

Ces centres de calcul utilisent de l’électricité, beaucoup d’électricité et de nombreuses personnes, qui cherchent des solutions pour réduire les émissions de CO2 s’en inquiètent, à juste raison.

Plusieurs études ont été faites sur ce sujet. Tous ces résultats sont à prendre avec beaucoup de précautions, comme le démontre la grande dispersion des mesures. Les écarts sont importants sur les chiffres de consommation actuels, ils le sont encore plus sur les prévisions à 5 ou 10 ans.

En décembre 2017, un article de la revue Forbes donne les chiffres suivants :

  • Au niveau mondial, les centres de calcul ont consommé 416 térawatts, ce qui représente 3% de toute l’énergie électrique mondiale.
  • Ceci correspond à 1,4 fois l’énergie électrique consommée au Royaume-Uni.
  • Cette consommation va doubler en quatre ans.

Andres Andrae, qui travaille pour Huawei en Suède a mené une autre étude. Elle est citée par la revue Nature en 2018 et reprise par la revue Fortune en 2019. Elle annonce que les centres de calcul ont représenté 2% de la demande mondiale d’électricité. C’est un chiffre inférieur de 33% à celui de la revue Forbes !

Le laboratoire “Ernest Orlando Lawrence Berkeley National” a réalisé en 2016 l’étude la plus complète que je connaisse (65 pages) : elle présente plusieurs scénarios d’évolution des centres de calcul aux États-Unis entre 2010 et 2020. J’y ferai plusieurs fois référence dans ce billet (étude Berkeley).

L’une des principales raisons pour laquelle il est difficile d’avoir des chiffres fiables vient du fait que la majorité des centres de calcul sont de petite ou très petite taille, dans des PME, comme le montre ce graphique tiré de l’étude Berkeley.

Berkeley servers numbers: size DC

 

Centres de calcul pour les entreprises : principales options

En simplifiant au maximum, les entreprises ont trois options principales pour leurs centres de calcul :

● Posséder leurs centres de calcul privés. C’était, jusqu’il y a peu, le choix le plus répandu. Dans les PME, on parle souvent de “salles machines”. Les grandes entreprises ont eu récemment la mauvaise idée de les renommer “cloud privé”.

● L’hébergement. Les hébergeurs, tels que OVH ou OBS (Orange Business Services) existent depuis plusieurs dizaines d’années. Ces hébergeurs mutualisent des centres de calcul, souvent plus efficients, et chaque entreprise cliente y installe tout ou partie de ses serveurs.

● Le Cloud Public. De grands fournisseurs industriels d’énergie informatique proposent aux entreprises d’utiliser cette énergie à la carte, selon leurs besoins. Les entreprises ne sont plus propriétaires de leurs serveurs. C’est un thème que j’ai très souvent abordé dans ce blog.

Centres de calcul - trois options interne  hébergé Cloud public

Dans ce billet, c’est la seule dimension énergétique de ces trois options qui est analysée.

Je ne vais pas faire durer plus longtemps le “suspense” : la seule manière pour une entreprise de réduire fortement et rapidement l’impact énergétique de ses centres de calcul est de… les fermer le plus vite possible et de basculer sur des clouds publics.

L’option hébergement est souvent plus efficace que les centres de calcul privés, mais toujours moins efficace que les clouds publics.

 

Une excellente nouvelle : les entreprises ferment leurs centres de calcul privés

Il y avait 13 millions de serveurs aux États-Unis en 2010. L’étude Berkeley propose deux scénarios principaux, concernant les évolutions du nombre de serveurs physiques :

● Le scénario Current Trends (Rien ne change). Les entreprises gardent leurs centres de calcul ; pour faire face à la croissance de la demande de traitement, le nombre de serveurs monte à 18 millions.

● Le scénario Best Practices (en pratique, Clouds Publics). Dans ce cas, le nombre total de serveurs descend à 10 millions, sans changer la capacité de traitement.

Etude Berkeley nb servers BaU Hyperscale

Ce basculement partiel sur des clouds publics réduit le nombre de serveurs physiques de 8 millions : il passe de 18 millions à 10 millions. Ceci correspond à une réduction de 45% du nombre de serveurs.

La planète ne va pas s’en plaindre…

La société d’études Synergy Research Group vient de publier, fin 2019, une étude qui confirme ce mouvement de fond : en 2019, pour la première fois, les dépenses des entreprises dans des solutions cloud ont dépassé celles pour les centres de calcul privé.

Synergy - private DC investments vs Public cloud

La planète ne va pas s’en plaindre…

 

Les serveurs OCP, Open Compute Project

Dans l’ancien monde informatique, les entreprises achetaient leurs serveurs à de grands fournisseurs historiques qui avaient pour noms Dell, HP, Lenovo, IBM…

À l’initiative de Facebook, les grands acteurs du Cloud Public ont formé, en 2011, une organisation nommée OCP, Open Compute Project. Google, Microsoft et beaucoup d’autres entreprises ont rejoint OCP. OCP met en “Open Source” les meilleures pratiques dans le domaine des matériels tels que serveurs ou disques.

Efficiencies of OCP serversCes serveurs sont fabriqués par les grands industriels chinois et coréens. Ils sont optimisés pour avoir des prix de revient les plus bas et surtout pour consommer le moins d’énergie possible. À titre d’illustration, ils ne sont pas équipés de lumières qui indiquent leur état de fonctionnement, car… personne ne regarde les serveurs dans les clouds publics, tout étant géré à distance. Ceci est très bien expliqué dans un article de la revue Nature, publiée en 2018, dont est extrait le texte ci-dessus. Un chiffre résume cette efficacité : un serveur OCP remplace en moyenne… 3,75 serveurs classiques !

En 2020, le basculement des géants du cloud public sur des serveurs OCP ou équivalents est terminé, comme le montre ce graphique tiré de l’étude Berkeley.

Unbranded servers used by hyperscale

Dans les entreprises, et de manière scandaleuse, les responsables des achats d’infrastructures ignorent et font l’impasse sur les serveurs OCP, qu’ils pourraient acheter pour remplacer les serveurs démodés commercialisés par les grandes marques historiques, déjà citées, en fin de vie.

OCP used worldwide = 50% less energy in data centersOCP estime que si toutes les entreprises utilisaient leurs serveurs, la consommation d’énergie des centres de calcul serait divisée par deux !

Et ce sont ces mêmes entreprises qui osent parler de réduire leurs impacts énergétiques et sont incapables de prendre une décision aussi simple, possible depuis plusieurs années.

Des paroles, oui, c’est facile. Des actes…

 

E-TRAP : un modèle d’analyse énergétique des centres de calcul

Les études que j’ai menées avec quelques entreprises innovantes m’ont permis d’imaginer un modèle d’analyse des performances énergétiques des centres de calcul des entreprises.

Le l’ai nommé E-TRAP : la capacité à atTRAPer” l’Energie !

Frugalité numérique - Modèle E-TRAP - Data Centers

Les principaux composants du modèle E-TRAP sont, de droite à gauche :

● Les Applications.

● Le TUS : Taux d’utilisation des serveurs.

● Le PUE : Power Usage Effectiveness.

● Le type d’énergie utilisée : Renouvelable ou carbonée.

● L’Energie totale consommée.

Les Applications

Les centres de calcul hébergent les serveurs et les supports de stockage des données nécessaires pour faire fonctionner des applications. Dans ce billet, la pertinence de ces applications n’est pas mise en cause ; ce sujet serait traité dans un autre billet, dédié aux applications.

L’objectif “Frugalité Numérique” d’un centre de calcul est clair : consommer le minimum d’énergie pour qu’une application s’exécute. Les trois paramètres TUS, PUE et type d’énergie déterminent le niveau de Frugalité Numérique obtenu.

TUS : Taux d’utilisation des serveurs

Un serveur physique consomme de l’énergie quand il est en fonctionnement, indépendamment du fait qu’une application s’exécute ou pas.

Le TUS mesure le pourcentage du temps “utile” de fonctionnement d’un serveur, c’est-à-dire quand une application est opérationnelle par rapport au temps total sous tension. Un TUS de 1 correspond au cas théorique idéal d’un serveur utilisé à 100%, un TUS de 0,1 signifie qu’une application utilise 10% du temps total d’un serveur.

Il existe de nombreuses raisons pour lesquelles un TUS de 1 ne sera jamais atteint :

● Une application chargée dans un serveur n’est pas active en permanence. Une application de calcul d’un prêt immobilier par un banquier n’est utilisée que lorsqu’un client fait une demande, et reste inactive le reste du temps.

● Le taux d’usage d’une application varie beaucoup selon les heures de la journée, les périodes de l’année. L’application ‘Parcoursup” d’inscription dans les universités françaises à des pointes très fortes d’usages, selon le rythme des examens, et un niveau d’usage proche de zéro le reste du temps.

● Plusieurs techniques, telles que la virtualisation, permettent à un serveur physique d’être utilisé en même temps par plusieurs applications, pour optimiser son usage.

L’étude Berkeley a calculé le TUS selon les types de centres de calcul dans les trois familles présentées auparavant :

● Internal (Interne).

● Service provider (hébergeur).

● Hyperscale (Clouds Publics).

Server usage level by 3 familiesCe tableau donne le TUS moyen de ces trois familles, sur la période 2000 - 2010 et une estimation pour l’année 2020.

Si l’on prend ces chiffres pour 2020, un fournisseur de Cloud Public a un TUS 3,33 fois plus performant (50% vs 15%) que les serveurs gérés en interne par une entreprise. C’est un chiffre cohérent avec ceux que l’on a déjà vus plus haut.

PUE : Power Usage Effectiveness

Le PUE (indicateur normalisé par l’ISO) mesure d’efficacité énergétique d’un centre de calcul, en séparant :

● L’énergie électrique utilisée pour alimenter les serveurs, l’énergie “utile”.

● Les dépenses “indirectes” d’énergie, pour des activités telles que la climatisation ou l’éclairage.

Le PUE théorique optimum est de 1, quand 100% de l’énergie est utilisée pour les serveurs.

PUE des Clouds publics

Les fournisseurs de Clouds publics ont fait des efforts majeurs pour réduire leur PUE. Ils sont en 2020 proches de 1,1, comme le montre ce graphique correspondant à Google. On y observe des variations saisonnières liées à la météo, mais la moyenne s’établit à 1,11.

PUE Google Data Center 2008 - 2019

Améliorer ce chiffre de 1,11 est difficile ; leurs centres de calcul les plus modernes atteignent 1,07 ; des progrès peuvent au mieux réduire de 10% la consommation d’énergie électrique.

PUE des centres de calcul gérés par les entreprises

De nombreuses études ont été réalisées sur les PUE des centres de calcul gérés par les entreprises. L’une des plus complètes est menée chaque année par le “Uptime Institute”, qui interroge des milliers d’entreprises, dans le monde entier.

Le graphique ci-dessous montre l’évolution du PUE des plus grands centres de calculs privés du monde, ceux qui ont les meilleurs résultats à cause d’évidentes économies d’échelle.

PUE enterprise Uptime Institute

Les entreprises ont aussi amélioré leur PUE entre 2006 et 2014, en le réduisant de plus de 30%. Comme pour les Clouds publics, les réductions de PUE deviennent de plus en plus difficiles.

Pour l’année 2019, le PUE des meilleurs centres de calcul privés est de 1,67.

Dans les centres de calcul des entreprises grandes et moyennes, ce PUE dépasse souvent 2 et il peut atteindre 3 ou 4 dans les “salles machines” des PME ou TPE.

 

Energies renouvelables, énergies carbonées

Un centre de calcul peut être alimenté en énergie carbonée, cas le plus fréquent aujourd’hui, ou en énergies renouvelables.

Dans ce domaine aussi, les grands acteurs du cloud public font des efforts majeurs pour basculer sur des énergies renouvelables.

Le graphique ci-dessous montre l’évolution rapide de Google vers des énergies 100% renouvelables.

Google 100 % renovable energy 2018

Depuis 2017, les centres de calcul de Google sont à 100% alimentés en énergies renouvelables ou, quand cela n’est pas possible, couverts par des rachats de crédits d’énergies renouvelables.

En 2019, Google a annoncé un investissement de 600 M$ pour accroître la puissance de son centre de calcul d’Hamina en Finlande. En même temps, Google a signé un accord pour l'achat d'énergie éolienne en provenance de Suède.

Google est pour le moment le plus en avance des grands acteurs du cloud public dans sa migration réussie vers du 100% renouvelable, mais Azure, AWS et Alibaba ont pris le même chemin.

J’ai utilisé le graphique ci-dessous dans mon billet de la fin de l’année 2019 mais je le reprends ici, car il montre que les trois entreprises américaines qui, en mars 2018, avaient le plus investi dans les énergies renouvelables sont… les trois géants du Cloud public, Google, Amazon et Microsoft.

Best users USA of renewable energy

Maintenant que les trois éléments clefs du modèle E-TRAP qui déterminent la consommation d’énergie d’un centre de calcul sont compris et maîtrisés, il est possible de comparer les choix qui s’offrent aux entreprises pour améliorer la Frugalité Numérique de leurs centres de calcul.

 

R2E : Ratio d’Efficacité Energétique d’un centre de calcul

Pour mesurer le rapport entre l’énergie qui rentre dans un centre de calcul et celle qui sert à activer une application, je vous propose d’utiliser un ratio que j’ai nommé :

Ratio Efficacité Energétique (R2E).

Son calcul est très simple :

                                                         100 x PUE

R2E : Ratio Efficacité Energétique = ---------------

                                                               TUS

Un centre de calcul “énergétiquement parfait” aurait un R2E de 100, correspondant à un PUE de 1 et un TUS de 100%.

R2E d’un Cloud Public

En utilisant les chiffres présentés dans ce billet, PUE de 1,1 et TUS de 50%, on obtient, pour un cloud public un R2E de :

R2E : (100 x 1,10)/0,5 = 220

Plus de la moitié de l’énergie qui rentre dans un Cloud Public est consommée sans apporter de valeur. C’est sur le TUS que des progrès importants peuvent encore être réalisés.

Calcul du R2E d’un centre de calcul privé

En prenant l’exemple d’une grande entreprise qui a un PUE de 2 et un TUS de 15%, on obtient un R2E pour un centre de calcul privé de :

R2E : (100 x 2)/0,15 = 1333

Ce R2E devrait donner des “sueurs froides” à tous les dirigeants : l’énergie qui rentre dans un centre de calcul d’entreprise est… 13 fois supérieure à l’énergie utile !

Présenté autrement, moins de 8% de l’énergie électrique qui rentre dans un centre de calcul d’entreprise est utile, 92% est gaspillée !

 

Synthèse : basculer sur les clouds publics, c’est bon pour la planète

La comparaison de ces deux R2E est sans appel.

Une entreprise qui abandonne ses centres de calcul privés et bascule sur des clouds publics augmente dans un rapport 1333/220 = 6 son efficacité énergétique !

Si l’on tient aussi compte de la dimension renouvelable vs carbonée, le bilan est encore plus impressionnant et positif :

● Basculement sur le cloud public GCP de Google : consommation d’énergie divisée par 6, consommation d’énergie carbonée ramenée à zéro.

● Basculement sur les clouds publics AWS ou Azure, en faisant l’hypothèse qu’ils sont déjà à environ 50% d’énergies renouvelables : consommation d’énergie divisée par 6, consommation d’énergie carbonée divisée par 12.

Ces résultats sont des moyennes mondiales : les TPE et PME ont des résultats encore plus catastrophiques, et les entreprises qui disposent de très grands centres de calcul privés font... un peu mieux.

Ce dernier tableau met devant leurs responsabilités tous les dirigeants qui souhaitent passer à l’action et améliorer fortement la Frugalité Numérique de leur entreprise.

Frugalité Numérique centre calcul - Electricité & renouvelable

C’est une excellente nouvelle pour les entreprises qui ont pris la décision de basculer vers les clouds publics. En plus de tous les bénéfices que j’ai présentés dans ce blog depuis 10 ans, rentabilité, sécurité, flexibilité, innovation, OPEX… elles découvrent un maxi-bonus : cette décision les positionne parmi les championnes de la Frugalité Numérique.

Toutes les autres entreprises, qui avaient encore des doutes sur la pertinence d’une migration sur les clouds publics avant la lecture de ce billet, ont maintenant un argument “massue” qui leur permettra de dire à leurs dirigeants, leurs informaticiens et surtout à tous leurs collaborateurs :

“Nous migrons vers les clouds publics pour aider au sauvetage de la planète”.

Qui oserait, aujourd’hui, résister face à un tel argument ?

Vous ?

 

Troisième partie : les objets d'accès

Quatrième partie : les réseaux


Frugalité Numérique : première partie

AdS DPC Souris Verte frugalité SS 61824038J’ai terminé 2019 par un long billet optimiste sur les impacts positifs potentiels de l’innovation et du numérique sur la planète.

Je démarre 2020 avec le premier d’une longue série de billets sur la Frugalité Numérique.

Je souhaiterais que ce thème soit présent dans les réflexions de tous les dirigeants et responsables du numérique au cours de cette année 2020.

 

Le numérique : bon pour l’entreprise, bon pour la planète

AdS DPC 2020 numérique with hand SS 306954428Ce préalable, très court, est indispensable avant de parler de Frugalité Numérique.

Non, non et non ! Le numérique n’est pas nocif pour la planète, comme je l’ai longuement expliqué dans mon billet de fin d’année 2019.

C’est par plus d’innovations, plus d’entrepreneuriat, plus de numérique que l’humanité peut imaginer rapidement des solutions qui permettront de mettre un coup d’arrêt au réchauffement climatique et de trouver des méthodes efficaces pour réduire les niveaux de CO2 déjà présents.

La dématérialisation de l’économie est l’option la plus prometteuse et nous en voyons tous les jours des exemples encourageants. (J’invite ceux qui ne l’ont pas fait à lire mon dernier billet).

Les ventes d’appareils de photos numériques illustrent très bien cette dématérialisation. Comme le montre ce graphique, leurs ventes se sont écroulées avec la diffusion massive des smartphones.

Digital cameras sales down

Entre 2010 et 2018, les smartphones ont réduit de 100 millions par an les ventes d’objets numériques lourds et chers. Sur cette même période, c’est environ 550 millions d’appareils photo numériques qui n’ont pas été fabriqués et vendus ! Ceci mérite une médaille d’honneur pour les smartphones avec la mention “La planète reconnaissante”.

 

Frugalité : faire mieux avec moins

Livre guide innovation FrugaleSobriété numérique, green IT, frugalité numérique, de nombreuses expressions sont utilisées pour parler d’un même thème : minimiser les impacts environnementaux du numérique.

J’ai choisi de privilégier l’expression “Frugalité Numérique” car elle porte un message positif :

La frugalité, c’est faire mieux avec moins.

A la fin de l’année 2019, j’ai eu l’occasion d’échanger avec Navi Radjou, co-auteur d’un livre passionnant et… optimiste sur ces sujets de la frugalité, dans tous les domaines et pas seulement le numérique : “Le guide de l’innovation frugale”.

AdS DPC Light bulb & tree green SS 227727671La frugalité, ce n’est pas faire moins, mais faire mieux. Des mouvements très forts, très vocaux, prônent le “numérique bashing” : le numérique, c’est mauvais pour la planète, il faut réduire ses usages du numérique, ne plus utiliser de smartphones, ne plus regarder de vidéos en streaming… Je suis en totale opposition avec ces démarches rétrogrades, comme je l’ai longuement expliqué dans mon dernier billet de 2019.

La démarche de Frugalité Numérique que je porte est tournée vers le futur, vers l’innovation, vers plus de numérique. Elle permet, en même temps :

  • De promouvoir des usages innovants du numérique.
  • De le faire en réduisant les impacts environnementaux du numérique.

Opposer ces deux idées est dangereux, pour le numérique, et pour la planète !

 

Frugalité Numérique

AdS DPC possible impossible S 52425151Aujourd’hui, les performances des outils numériques sont telles que la probabilité de ne pas pouvoir mettre en œuvre une solution numérique pour répondre à une demande des entreprises est proche de 0 %.

C'est une situation récente ; pendant longtemps, il n’y avait pas de réponses techniques à toutes les demandes de traitement, de stockage ou de transport d’information.

Toutes les barrières technologiques ont disparu. Au vu de la croissance exponentielle de la performance des outils numériques au cours des prochaines années, il sera de plus en facile de répondre à une demande d’usages numériques.

En clair, dans le domaine du numérique, l’offre est en avance sur les usages possibles.

Une entreprise peut, en 2020, répondre à toute demande de nouveaux usages numériques en s’appuyant sur la puissance des outils existants. Raison de plus pour s’interroger, pour bien réfléchir avant de formuler une demande de nouveaux usages numériques.

Deux des principaux enjeux du numérique pour la planète sont l’énergie et l’utilisation de métaux rares. Toutes les solutions numériques ne se valent pas dans leurs impacts sur l’environnement et les différences entre elles sont très importantes. Les prochains billets que je vais publier sur ce thème auront pour objectif prioritaire d’aider les entreprises à faire les choix numériques qui sont les plus positifs pour la planète.

La bonne nouvelle : il est possible de concilier innovation numérique et défense de la planète.

La mauvaise nouvelle : la majorité des solutions informatiques existantes sont… mauvaises pour la planète.

Prendre en compte la dimension Frugalité Numérique dans leur démarche de Transformation Numérique devient un impératif pour toutes les entreprises.

 

Six principaux domaines d’action

Il n’existe pas de réponses globales à la recherche de solutions numériques frugales. Il est impératif de travailler par “composants” pour trouver, cas par cas, les meilleures réponses. Les travaux que je mène sur ce sujet m’ont permis d’identifier six domaines d’action différents :

Frugalité Numérique - six composants

  •  Les centres de calculs.
  • Les réseaux, filaires et sans fil.
  • Les objets d’accès : PC, smartphone, tablette, chromebook...
  • Le stockage des données, centralisé ou distribué.
  • Les impressions.
  • Les applications.

Chacun de ces domaines fera l’objet d’un billet spécifique.

Les cinq premiers font partie des infrastructures numériques, au service du sixième, les applications. Le CTO, Chief Technical Officer, responsable des infrastructures, a un rôle essentiel dans la définition d’une démarche de Frugalité Numérique. Ce sont sur ses épaules que repose l’essentiel des décisions et des actions.

Est-ce qu’il existe un autre domaine d’action que j’aurais ignoré ? Si oui, je suis preneur de vos remarques à ce sujet.

 

Quatre familles d’acteurs


Frugalité Numérique - Quatre acteursLa réussite d’une démarche de Frugalité Numérique demande l’implication forte de tous les acteurs de l’entreprise :

  • Les dirigeants.
  • La DSI.
  • Les responsables métiers.
  • L’ensemble de tous les collaborateurs.

Les dirigeants

Devenir une entreprise frugale numérique demande beaucoup d’efforts de remise en cause d’habitudes de travail bien ancrées dans la culture de l’entreprise. Comme il est difficile de se montrer ouvertement contre une démarche qui a pour objectif d’aider la planète, les résistances seront masquées, insidieuses et plus délicates à affronter. Les dirigeants doivent être “acteurs” de cette démarche, comme ils doivent l’être pour accompagner une Transformation Numérique.

La DSI

Peu importe le nom ! DSI, Direction du Numérique ou autre, ce sont eux qui portent l’essentiel des efforts de mise en œuvre des outils et solutions numériques. Ce sont aussi eux qui verront le plus de changements dans leurs différents métiers.

Les responsables métiers

Leur domaine prioritaire de responsabilité, ce sont les applications. Maintenant que tout est techniquement possible, qu’il n’y a plus de limites à la volumétrie des données, aux calculs les plus complexes, il leur faudra beaucoup de courage pour rester raisonnable. Il n’est pas toujours facile de rouler à 120 km/h quand on conduit une voiture qui peut facilement atteindre les 250 km/h !

Les collaborateurs

Chaque collaborateur, quel que soit son métier, peut contribuer à améliorer l’impact de ses actes quotidiens sur l’avenir de la planète. Imprimer un peu moins, plus en noir et blanc qu’en couleur, garder son smartphone un an de plus, éviter d’envoyer un courriel à des listes de diffusion trop longues… ces dizaines de petits gestes, répétés tous les jours, par tous les collaborateurs donneront des résultats spectaculaires à la fin de l’année.

Une des clefs de la réussite : la fierté !

AdS DCP proud woman fierté SS 133751643Malgré les difficultés induites par une démarche forte de Frugalité Numérique, je suis très optimiste sur la réussite finale. Les toutes premières actions menées avec des entreprises innovantes et courageuses m’ont convaincu que c’était un moyen remarquable de mobiliser beaucoup d’énergies et de créer un fort sentiment partagé de fierté.

Je suis devenu frugal numérique, et j’en suis fier !

 

Matrice des rôles : domaines - acteurs

Six domaines d’actions, quatre familles d’acteurs : et si on menait un travail d’analyse pour répartir au mieux les rôles de chacun dans ces différents domaines d’actions ?

J’ai imaginé cette matrice, pour faciliter cette d’analyse.

Frugalité Numérique tableau domaines acteurs vide

J’ai placé la Direction Générale dans un rôle de gouvernance de l’ensemble de la démarche, sans essayer de lui donner des règles spécifiques par domaine d’action.

Le mode d’emploi est simple : pour chaque ligne, vous devez repartir 5 étoiles entre les trois familles d’acteurs : collaborateurs, directions métiers et DSI. Le nombre d’étoiles mesure l’importance relative de chaque famille d’acteurs, pour chacun des domaines d’actions.

Le total par colonne donne le poids relatif de chaque famille d’acteurs.

Je vous propose de distribuer cette matrice autour de vous, dans différents groupes, et de demander à chacun de vous donner ses pondérations.

Vous pouvez aussi la remplir vous-même.

Cet exercice peut être réalisé deux fois :

  • Immédiatement, avant que j’aie publié les autres billets sur chacun des domaines. Ceci permettra de mesurer la position initiale des personnes interrogées.
  • Après avoir lu tous les billets publiés ; les écarts éventuels entre les deux réponses seront intéressants à analyser.

Pour illustrer la démarche, je vous partage ma vision actuelle de cette répartition des rôles. Elle n’est en aucune manière “la” bonne réponse ! Nous avons tous des sensibilités spécifiques sur ces sujets, et c’est en comparant des points de vue différents que l’on peut avancer et faire des progrès.

Frugalité Numérique tableau domaines acteurs LN

 

Synthèse

AdS DPC Do more with less SS 276368839Faire plus avec moins dans le numérique, c’est un beau sujet qui pourrait être très fédérateur dans votre entreprise en 2020. Pourquoi ?

- C’est un thème urgent : le numérique représente entre 2 % et 3 % de la consommation d’énergie dans le monde. Il est possible d’accroître les usages du numérique tout en réduisant sa part d’usage de l’énergie dans le monde, en devenant plus… frugal numérique.

- C’est un thème porteur d’avenir : Il permet de lutter contre le pessimisme ambiant et la tentation du retour à un “monde ancien meilleur” en réduisant les usages du numérique, ce qui serait une catastrophe mondiale.

- C’est un thème porteur de sens pour tout le monde : l’immense majorité des collaborateurs des entreprises, l’immense majorité des professionnels du numérique sont conscients des défis posés à la planète et de l’urgence de mener des actions fortes pour la protéger. Ils seront tous prêts, tous enthousiastes pour suivre les recommandations qui seront faites pour que la Frugalité Numérique dans leur environnement de travail devienne un grand succès.

AdS DPC save the planet old typewriter S 290895250Difficile de trouver un thème plus fédérateur, plus porteur de fiertés, individuelles et collectives !

Je prévois d’écrire un billet séparé pour préciser comment mener une démarche de Frugalité Numérique performante pour chacun des 6 domaines du numérique.

Tout ceci devrait se transformer, d’ici à la fin de l’année 2020, en un livre dont le titre sera, vous l’avez deviné, Frugalité Numérique.

Si votre entreprise fait partie des “early adopters” qui souhaitent entreprendre immédiatement une démarche de Frugalité Numérique, parlons-en ; je suis prêt à vous accompagner !

Je l’ai déjà fait...

 

Deuxième partie : les centres de calcul

Troisième partie : les objets d'accès

Quatrième partie : les réseaux


Numérique, technologies, au service de la planète ?

 

Cover book More for LessEt si la croissance du numérique et de toutes les technologies innovantes était bonne pour la planète ?

En cette période de COP25, se poser la question a du sens.

Je viens de terminer la lecture de “More From Less”, de Andrew McAfee, économiste et chercheur au MIT de Boston, publié il y a quelques semaines.

Dans une période où le pessimisme l’emporte, en particulier sur l’avenir de notre planète, il est réconfortant de lire un ouvrage qui propose une vision optimiste, positive de ce qu’il est possible de faire, rapidement.

Comme le dit un commentaire de Christine Lagarde sur la couverture, son contenu est vraiment contre-intuitif”. J’ai moi aussi eu souvent des réactions de surprise ou de rejet devant certaines des affirmations et démonstrations d’Andrew McAfee. 

Cet ouvrage n’est pas la seule source que j’ai utilisée pour écrire ce billet, trois fois plus long que d’habitude, mais c’est lui qui m’a donné envie de l’écrire.

Je vous demande aussi d’avoir le “courage” de ne pas rejeter les idées que je présente avant de l'avoir lu dans son intégralité.

 

Un peu d’histoire économique : avant la révolution industrielle

More From Less” est un livre d’économiste, et l’on s’en rend compte rapidement : il y a de nombreuses références à des études scientifiques et beaucoup de graphiques qui illustrent des tendances à long terme.

Face aux défis posés par le réchauffement climatique, beaucoup pensent que la solution de tous les maux de la planète est dans le retour au passé, à l’époque qui a précédé la révolution industrielle, qui a commencé vers les années 1800.

Auriez-vous souhaité vivre avant l’année 1800 ? Moi, non !

En 1800, il y avait un milliard de personnes sur terre, dont l’espérance de vie moyenne était de... 40 années.

Comme le montre ce graphique, cette espérance de vie avait des hauts et des bas prononcés ; les graves crises sanitaires, telles que la peste, déclenchaient des baisses brutales de l’espérance de vie des humains. 

Sur la période 1000 - 1800, cette espérance de vie a été en moyenne de 28 années !

Espérance vie monde 1500 - 2015

Sur cette même période, 1000 - 1800, le revenu par personne avait augmenté de 50%, en… 800 ans, un taux de croissance exceptionnel !

 

La première révolution industrielle, à partir de l'année 1800

La première machine à vapeur de Watt et Boulton date de l’année 1776. C’est pour de nombreux historiens de l’économie “l’idée la plus puissante au monde”, et elle annonce la première révolution industrielle.

La croissance économique décolle rapidement à partir de l’année 1800. L’une des caractéristiques essentielles de cette première révolution industrielle, c’est le parallélisme entre cette croissance économique et la consommation de ressources matérielles extraites de la terre, comme le démontre Andrew McAfee dans son livre. 

J’en ai extrait deux graphiques qui illustrent ce parallélisme :

- Croissance économique des USA et la consommation d’acier, d’aluminium et d’engrais, entre les années 1900 et 1970.

PRI - US GDP & Ressources :: 1900 - 1970

- Croissance économique des USA et la consommation d’énergie, entre les années 1800 et 1970.

PRI - US GDP & Energy :: 1800 - 1970

Il n’a pas fallu très longtemps pour que des économistes s’inquiètent de cette forte croissance ; ce pessimisme se retrouve dans deux ouvrages cités par Andrew McAfee.

- William Jevons publie en 1865 “la question du charbon”. Il prédit qu’au rythme actuel de croissance de sa consommation, tout le charbon disponible aura disparu en moins de 100 ans.

  - Alfred Marshall publie “Principes de l’économie” en 1890. Ce livre de 800 pages, un grand texte à la base de l’économie moderne, annonce que “we want more”, que l’humanité en demande toujours plus et que les ressources de la terre ne sont pas infinies.

L’année 1970 marque un tournant majeur dans cette prise de conscience des impacts négatifs d’une croissance parallèle de l’économie et des ressources consommées.

Earth Day 22 April 1970  New York TimesLe 22 avril 1970, le premier “Earth Day”, jour de la terre, est organisé aux USA. Plus de 20 millions de personnes défilent dans les rues. Républicains et démocrates, pour une fois unis, y participent et les premières lois environnementales sont votées avant la fin de l’année 1970 :

  • Création de l’agence de protection de l’environnement, EPA.
  • Lois de protection des espèces en danger.
  • Lois sur air propre et eau propre : clean air, clean water.

Il y a un avant et un après “Earth Day”, qui est célébré tous les ans le 22 avril.

Andrew McAfee note dans son livre que l’humanité a toujours tendance à donner plus de valeur aux visions pessimistes face à celles qui sont optimistes. Nostradamus en est un bon exemple.

Ceci se vérifie dans les années qui suivent “Earth Day”. Cet article regroupe 18 prédictions de catastrophes qui, heureusement, ne se sont pas produites.

J’en ai extrait trois, à titre d’exemple :

  • Paul Ehrlich était l’un des plus pessimistes : il annonçait que, entre 1980 et 1989 (admirez la précision) 4 milliards de personnes, dont 65 millions d’Américains, allaient mourir de faim.
  • L’écologiste Kenneth Watt, l’organisateur de la Earth Day, prédisait que l’on allait vers un “âge de glace” avec une température qui baisserait de 4° d’ici à 1990 et de 11° en 2000 !
  • Un scientifique de l’académie des sciences, Harrison Brown, annonçait que les réserves d’or, d’argent, de plomb et de zinc auraient disparu en 1990, et celles de cuivre en 2000.

Cette année 1970 est aussi emblématique, car l’économie mondiale allait basculer dans la deuxième vague de la révolution industrielle, et personne ne s’en était rendu compte...

 

Révolution industrielle : l’après 1970, la dématérialisation de l’économie

C’est à mon avis l’apport principal de Andrew McAfee dans son livre, “More From Less”.

Il met clairement en évidence que, depuis 1970, il n’y a plus de parallélisme entre la croissance économique et l’usage des ressources finies de la terre.

Il a donné le nom de “dématérialisation” à ce phénomène majeur qui lui permet d’être raisonnablement optimiste sur l’avenir de la planète.

Il avait abordé le sujet dans son livre précédent, “Second Machine Age”, publié en 2015 et co-écrit avec Eric Brynjolfsson.

Un autre texte essentiel sur ce sujet a été publié en 2015 par Jesse Ausubel : “Le retour de la nature, comment la technologie libère l’environnement”. Quelques graphiques utilisés dans ce billet en sont extraits. 

C’est un document de quelques pages, dont la lecture est indispensable pour toute personne qui souhaite comprendre “rationnellement” les mutations positives et rapides de l’économie mondiale. Vous ne sortirez pas “indemne” de cette lecture !

Ces trois graphiques, choisis parmi plusieurs dizaines, illustrent ce découplage entre la croissance économique et la consommation de ressources physiques limitées, qui a commencé, je le rappelle, dès 1970, il y a 50 ans.

Découplage de la consommation d’énergie et de l’émission de CO2 aux USA (1800 à 2017).

US GDP & Energy 1800 - 2017

Décroissance des usages de matières premières aux USA (1900 à 2015)

Décroissance usages matières premières USA

Maïs aux USA : découplage entre surfaces plantées et production (1870 à 2015)

Rendements Mais USA

Un autre phénomène remarquable et positif c’est produit depuis 1970 : les conditions de vie de l’immense majorité de l’humanité se sont améliorées de manière exceptionnellement rapide.

En voici deux exemples : 

- Le nombre de personnes vivant en situation d’extrême pauvreté, avec moins de 1,25$ par jour, a fortement baissé depuis les années… 1970.

Population extreme powerty 1820 - 2015

- Nourriture, en Kcalories, disponible par personne, par continent. En 1970, l’Amérique du Sud, l’Asie et l’Afrique et la moyenne du Monde étaient sous le niveau de 2 500 Kcalories, correspondant aux besoins d’une personne qui travaille à temps plein. Depuis 2013, plus aucun continent n’est sous ce seuil.

Food in KCal : region 1970 - 2013

L’image de l’évolution du monde que me renvoient ces statistiques est… encourageante, alors que le discours dominant que j’entends tous les jours est anxiogène.

Qui croire ?

 

Deux visions du futur

Deux visions opposées du futur de la planète s’opposent aujourd’hui.

La première, pessimiste, alarmiste, considère que nous avons choisi le mauvais chemin, celui de la croissance, et qu’il est urgent de faire marche arrière.

Dans cette vision négative, les quatre cavaliers de l’apocalypse qui menacent le monde d’une mort rapide sont :

  • La croissance économique sans limites.
  • La mondialisation.
  • Les inégalités sociales.
  • La surpopulation.

4 cavaliers apocalypse

La deuxième, défendue avec brio par Andrew McAfee, considère que l’on est sur la bonne voie, que la dématérialisation de l’économie est une réalité en 2019 et que c’est au contraire… en accélérant que l’on pourra créer un monde où les futures générations pourront dire merci à leurs parents pour les actions qu’ils ont menées.

Il ne suffit pas d’avoir choisi la bonne direction, il faut continuer à agir avec force pour que les très nombreux problèmes qui restent à régler, et en priorité les évolutions du climat, trouvent des solutions pérennes.

Les “quatre chevaux de l’optimisme”, définis par Andrew McAfee comme moteurs de ces évolutions vers un monde meilleur sont :

  • Le capitalisme.
  • Le progrès technologique, et en priorité le numérique. (Technological progress)
  • Des gouvernements responsables. (Responsive Government)
  • La prise de conscience du public. (Public Awareness)

4 chevaux optimisme CTGP

Quelles sont les meilleures pistes, les plus grands dangers qui menacent cette dématérialisation de nos activités économiques ?


Accélérer la dématérialisation de l’économie

C’est le thème central du livre “More From Less” ; je vous en conseille fortement la lecture pour en comprendre dans le détail les modalités, que je vais résumer dans ce paragraphe.

Capitalisme

Liberté d’entreprendre, faire confiance au marché, encourager et rémunérer les entrepreneurs qui prennent des risques, investir pour réduire ses coûts, rechercher des profits… ce ne sont pas des démarches “honteuses”.

La situation est limpide : toutes les économies “riches” sont capitalistes en 2019.

Le contre-exemple parfait est celui du Venezuela. C’était, en 2001, le plus riche des pays d’Amérique du Sud avant qu'il ne bascule dans le socialisme pour devenir en moins de 20 ans un enfer pour ses citoyens. En 2018, 5 000 personnes par jour ont fui en Colombie. Le taux d’inflation de septembre 2019 n’était que de 39113 %, en “progrès” par rapport à celui d’août qui avait atteint 58561 %.

Deuxième exemple : l’Afrique subsaharienne  a un retard économique majeur par rapport au reste du monde ; c’est dans cette région que le nombre de régimes politiques ouverts et capitalistes est le plus faible.

A l’inverse, entre 1978 pour la Chine, et 1991 pour l’Inde, 40% de la population mondiale est devenue “plus capitaliste”, avec à la clef les extraordinaires résultats économiques obtenus par ces deux pays.

Le niveau de dématérialisation de l’économie, le niveau de santé varie fortement en fonction du niveau de développement économique des pays comme le montrent ces deux exemples :

- Les rendements agricoles, bœuf et lait, ont fait des progrès spectaculaires dans les pays riches, beaucoup moins dans les autres.

Animal yields by economical level of countries

Les taux de mortalité des mères et des enfants en bas âge ont baissé beaucoup plus vite dans les pays riches que dans les pays peu développés.

Maternal & child mortality:region 1990 - 2015

Les impacts de ces inégalités sur l’état de la planète ? Indira Gandhi l’a bien compris en disant lors de la première conférence de l’ONU sur l’environnement en 1972 que la pauvreté est le plus grand pollueur”. Les économies riches polluent beaucoup moins que les pauvres. C’est en créant plus de croissance, plus de richesse, avec plus d’innovation et de capitalisme que l’on peut améliorer la situation mondiale.

Innovations technologiques et numériques

Nous sommes devenus meilleurs dans ce que nous faisions ! La deuxième vague de la révolution industrielle, poussée en priorité par la croissance exponentielle de la puissance des outils numériques accélère ce découplement de la croissance économique et de l’extraction de ressources de la terre.

L’exemple le plus emblématique est celui du smartphone, apparu en 2007 : un smartphone de 200 g et quelques centaines d’euros remplace aujourd’hui :

  • De nombreux objets physiques :
    • Téléphone classique
    • Appareil de photo
    • Caméscope
    • Lecteur de cassettes audio ou de CD 
    • Lecteur de DVD
    • GPS
    • Réveil
    • Montre
    • Radio
    • Calculatrice

Smartphone remplace nombreux objets

Oui, un smartphone consomme des métaux nobles et rares et de l’énergie pour être fabriqué. Oui, il consomme aussi de l’énergie pendant ses usages. Dans les deux cas, c’est beaucoup moins que ce que consommaient l’ensemble des outils qu’il remplace. 

Merci, le smartphone ! Grâce à vous, la planète se porte mieux !

  • De nombreux supports “physiques” d’information :
    • Cartes routières imprimées
    • Album de photos
    • Encyclopédies et dictionnaires
    • Guides de voyages, de restaurants, d’hôtels...
    • Agenda papier, à renouveler tous les ans
    • Annuaire téléphonique de ses contacts
    • Collections de disques vinyle, de CD et de DVD
    • ...

Smartphone remplace nombreux contenus

Quel est le coût pour la planète d’un DVD que l’on achète pour visionner un film, que l’on garde et que l’on ne “re-garde” jamais plus ? Les dizaines de kilos de papier de l’Encyclopedia Universalis que personne ne consultera plus jamais, car les informations qu’elle contient sont obsolètes ont représenté beaucoup de bois et d’énergie pour être fabriqués.

Il existe de nombreuses démarches d’innovations techniques possibles pour accélérer cette dématérialisation de l’économie. Les quatre principales sont bien identifiées :

  • Réduire les usages : les premières boîtes de Coca-Cola en aluminium pesaient 85 g en 1996 ; elles pèsent 12,85 g en 2011. Cela représente une diminution du poids de 85 %.
  • Remplacer : un kilogramme d’Uranium 235 dans une centrale nucléaire procure autant d’énergie que 2 à 3 millions de tonnes de charbon. C’est aussi une ressource non renouvelable, oui, mais de plus en plus recyclable, et elle n’émet aucun gaz à effet de serre.
  • Optimiser : le taux de remplissage des avions est passé de 56 % en 1971 à 81% en 2018 avec le développement des programmes informatiques de “Yield Management” qui optimisent ce taux de remplissage en faisant varier les prix de vente. Une augmentation de 44 % de l’efficacité du transport aérien mondial, c’est tout sauf marginal. Ils sont hélas encore nombreux ceux qui regrettent la “bonne vieille époque” où le prix d’un billet de train ou d’avion était stable et prévisible...
  • Supprimer : les énergies hydrauliques, éoliennes et solaires ne consomment aucune ressource terrestre périssable pendant leur fonctionnement. Elles consomment des ressources pour leur fabrication, oui, mais comme toutes les sources d’énergie, telles que les turbines à gaz ou les moteurs diesels. Le numérique est un très bon élève dans ce domaine. Comme le montre ce graphique, les entreprises GAFAM, si souvent décriées, sont les plus vertueuses du monde dans leurs usages d’énergies renouvelables. Elles représentent 5 des 6 meilleurs au monde ; Google est maintenant à 100 %. Merci aux GAFAM, de la part de la planète reconnaissante…

Best users energy Google

 

Gouvernements responsables

Le capitalisme, l’innovation sans aucun contrôle peuvent engendrer des catastrophes et la majorité des économistes responsables disent que les gouvernements ont des rôles clefs à jouer pour fixer des règles fortes qui protègent les personnes et la planète.

Ce sont les gouvernements qui doivent prendre en compte les “externalités négatives”, aussi appelées les “spillovers”. Une entreprise qui pollue l’air ambiant ou la rivière où elle déverse ses déchets chimiques sans pénalités ne fera probablement pas beaucoup d’efforts pour réduire ses nuisances.

Tout n’est pas noir dans ce domaine, et plusieurs succès majeurs ont déjà été obtenus.

La suppression des émissions de CFC, pour protéger la couche d’ozone, en est un bon exemple. Le protocole de Montréal signé en 1987 prévoyait au départ une réduction de 50% des émissions ; il a été étendu rapidement à 100%. Les entreprises qui utilisaient ces gaz pour leurs produits tels que les aérosols ont rapidement trouvé des substituts et ont, en même temps, réduit leurs prix de revient !

CFC reduction

Autre succès majeur : les émissions de polluants par les voitures, y compris les SUV et les Pick-up, ont été réduites de 99% aux USA entre 1970 et 2019, avec des moteurs qui en plus sont 42% plus légers. Et c’est aux USA ! L’Europe a fait beaucoup mieux.

Il reste beaucoup de problèmes majeurs pour lesquels il n’existe pas, aujourd’hui, de solutions satisfaisantes.

Andrew McAfee a clairement identifié le domaine où le rôle des états est primordial : gérer la “tragédie” des ressources communes, accessible par tous, n’appartenant à personne, comme les océans et les problèmes de sur-pêche. Dans ce domaine aussi, nous avons fait des progrès, insuffisants, mais réels.

Le rejet des plastiques dans les mers est l’un de ces sujets à régler de toute urgence ; on estime ce volume à 8 millions de tonnes par an. Ce chiffre fait peur, et c’est bien sur l’objectif.

Et si, sur ce défi précis, l’on regardait avec un peu de pragmatisme et de rationalité la réalité.

Pour résoudre ce problème, un jeune hollandais de 18 ans, Boyan Slat, a créé en 2013 la société OceanCleanUp. Son histoire est passionnante, inspirante et confirme qu’il faut faire confiance à la jeunesse, à l’entreprise et la technologie pour s’attaquer aux grands problèmes du monde.

Sa première idée était de récupérer les plastiques déjà dans l’océan et il a construit des bateaux qui sont opérationnels pour cela.

Il s’est ensuite posé une excellente question : et si l’on prenait le problème à la base : que ce passerait-il si on pouvait intercepter ces plastiques dans les rivières avant qu’ils n’atteignent la mer ?

Des caméras posées sur les ponts des rivières, aidées par des logiciels d’intelligence artificielle, ont mesuré le volume de plastique charrié par les rivières du monde. Ces mesures, loi de Pareto oblige, ont montré que 1 000 rivières étaient responsables de 80 % des rejets de plastique dans la mer.

Un peu d’arithmétique simple, partant du chiffre de 8 millions de tonnes par an, montre que ces 1 000 rivières transportent chacune en moyenne 6 400 tonnes par an, soit 17 tonnes par jour.

La nouvelle version de leur bateau, baptisé “interceptor”, annoncé en fin 2019, est capable d’ingurgiter entre 50 et 100 tonnes de plastiques par jour. Il est alimenté à 100 % en énergie solaire et peut fonctionner 24h/24. Le premier bateau a été testé avec succès aux Pays-Bas, qui n’est pas le pays le plus ensoleillé du monde !

Bateau ramassage plastiques rivières

Regardez cette vidéo de 25 minutes,


c’est une excellente cure d’optimisme avant le début de la nouvelle année !

En prenant l’hypothèse basse de 50 tonnes, et sans tenir compte des progrès qui seront réalisés au cours des prochaines années, il suffirait de 1000 bateaux OceanCleanUp dans le monde pour que le flux de plastiques nouveaux dans la mer soit tari. Boyan Slat c’est fixé comme objectif de fabriquer ces 1 000 bateaux en 5 ans ! Bravo pour l’ambition.

Les trois premiers sont déjà opérationnels en Indonésie, Malaisie et Vietnam ; les deux prochains seront en République Dominicaine et à … Los Angeles.

Je ne connais pas le prix de vente d’une tonne de plastique aux entreprises qui les recyclent, mais chaque bateau peut récupérer jusqu’à 18 000 tonnes de plastiques par an. Je suis prêt à parier que cette opération sera économiquement rentable, sans avoir besoin de subventions des états.

J’ai choisi d’analyser pour vous en détail ce problème précis pour montrer que l’on peut, que l’on doit être optimiste.

J’aimerais bien que toutes les personnes qui se plaignent en permanence de la pollution des mers par les plastiques et qui en parlent dans les médias se fassent le relais de ce projet “OceanCleanUp” pour que tous les gouvernements des pays où sont ces 1 000 rivières commandent immédiatement leur “Interceptor”. Ce que je crains, c’est qu’ils ne le fassent pas en prétextant que “cela ne peut pas fonctionner” alors que leur véritable motivation est toute autre, hélas. Si cela fonctionne, mon métier de lanceur d’alerte disparaît !

Andrew McAfee confirme la tendance de l’humanité à donner plus de valeur aux visions pessimistes face à celles qui sont optimistes. Il cite dans son livre plusieurs économistes qui essaient d’aller contre ce biais négatif, mais avec beaucoup de difficultés : Simon, Rosling, Pinker, Roser….

 

Le défi le plus urgent : réchauffement climatique

LE problème le plus urgent, non réglé aujourd’hui est celui du climat. Il a été remarquablement résumé par le scientifique Kim Nicolas :

  • Ça se réchauffe.
  • C’est nous.
  • Nous en sommes sûrs.
  • C’est mauvais.
  • Nous pouvons trouver des solutions.

Nasa Climate

De premières solutions sont connues, telles qu’une taxe carbone mondiale. En faisant payer, cher, les pollueurs, qui sont pour l’essentiel des acteurs économiques “capitalistes”, on peut leur faire confiance pour trouver des moyens techniques et numériques innovants pour réduire leur facture. 

L’absence totale de résultats significatifs après la COP25 qui vient de se terminer à Madrid n’est pas un signal positif. 25 000 personnes se sont réunies pendant 2 semaines, sans trouver le moindre accord sérieux. En 2020, à l’inverse de ce qui c’était passé en 1970 après le “Jour de la terre” ou à Montréal en 1987 pour le CFC, il existe trop de gouvernements “irresponsables”, tels que les USA ou le Brésil, dont les dirigeants incompétents refusent les évidences scientifiques et croient, ou font semblant de croire que le réchauffement de la terre n’est pas lié aux activités humaines.

Un accord sur une taxe carbone n’a pas pu être signé ; c’était pourtant l’objectif prioritaire de cette COP25...

 

Défis pour les années 2020 - 2025

AdS DPC green HopeNous connaissons les quatre chevaux de l’optimisme qui peuvent, ou non, nous faire avancer rapidement vers un monde meilleur.

Où en sommes-nous, à la veille de l’année 2020 ?

Je sens profondément qu’il y a d’excellentes raisons de garder espoir

Je suis très optimiste sur la dimension technologique et numérique, raisonnablement optimiste sur la dimension capitalisme, prudent sur la dimension politique et très inquiet en ce qui concerne le grand public.

Technologie et numérique

Des milliers d’entreprises existantes, des milliers d’entrepreneurs travaillent tous les jours, dans le monde entier, pour imaginer des innovations technologiques de rupture qui apporteront des réponses aux nombreux défis qu’il faut affronter pour permettre à notre planète de rester un lieu de vie exceptionnel pour tous les humains.

Sur cette dimension “technologie”, je ne suis pas inquiet, au contraire. Nous aurons à notre disposition de plus en plus de solutions performantes pour continuer à dématérialiser notre économie.

Capitalisme

Le capitalisme moderne fonctionne bien, plutôt mieux qu’il y a des dizaines d’années. Le financement des startups en est un bon exemple : il est plus facile en 2020 de lancer des entreprises innovantes qu’il y a 20 ans.

Appuyer sur les accélérateurs de l’innovation technologique et numérique et de plus de capitalisme est la meilleure solution pour améliorer la situation de la planète, et non pas un ralentissement et un retour à monde ancien, perçu comme meilleur, alors que ce n’était absolument pas le cas.

Gouvernements responsables

Je n’ai pas envie de sombrer dans un pessimisme noir que l’absence totale de résultats de la COP25 pourrait déclencher. Les décisions du continent Europe de devenir “neutre carbone” en 2050 sont encourageants, même si la Pologne a refusé de s’engager. Des pays comme la Hongrie et la République tchèque ont obtenu que le nucléaire fasse partie des solutions envisageables ; il faut les remercier de cette position qui pourrait permettre à d’autres pays, comme la France, de “redécouvrir” les vertus des solutions nucléaires pour apporter rapidement des solutions fiables et sûres aux enjeux climatiques mondiaux.

Prise de conscience du public

Je suis beaucoup plus inquiet sur la dimension prise de conscience du public

La volonté des jeunes générations de s’attaquer au problème du réchauffement climatique me remplit d’espoir. En même temps, le suis consterné par leur trop forte sensibilité aux “fake news” et leur tendance à rechercher des solutions dans le passé plutôt que de se projeter dans un futur où l’innovation technologique est l’une des clefs du succès.

Les croyances qui ont bloqué et bloquent encore l’évolution raisonnable, raisonnée des innovations et d’une croissance “More From Less” sont de plus en plus nombreuses, fortes et inquiétantes. 

Quelques illustrations :

Terre plate créationistes

  • La terre est plate. Même s’ils sont ultra-minoritaires, il est quand même très “surprenant” de constater qu’il existe encore des personnes qui sont convaincues que la terre est plate, quand des millions d’images venant des satellites démontrent le contraire.
  • Le créationnisme, persuadé que le monde c’est créé comme l’indique la Bible. Ce mouvement est très présent aux USA comme le démontre, hélas, la création en 2016 du parc d’attractions Ark au Kentucky. Il présente aux visiteurs, heureusement moins nombreux que prévu, l’histoire de l’humanité en suivant à la lettre les enseignements de la Bible.
  • Les vaccins sont dangereux pour les enfants. Apprendre que la France fait partie des pays champions du monde des anti vaccins ne me rend pas très fier d’être français. Bravo, l’Europe ! Le nombre de cas de rougeole a doublé sur les six premiers mois de 2019 par rapport à 2018, avec déjà une centaine de morts qui auraient pu être évités. Et si l’on passait une loi permettant que les parents qui ne vaccinent pas leurs enfants puissent être jugés comme assassins de ces autres enfants morts par leur faute ?
  • L’énergie nucléaire est dangereuse. La France est l’un des pays d’Europe qui a le meilleur bilan carbone grâce au pari politique et économique audacieux du Général de Gaulle dans les années 1970 de promouvoir une énergie électrique avec une forte composante nucléaire. Rationnellement, c’est l’énergie la moins dangereuse du monde, mais essayer d’en convaincre des organismes comme Greenpeace, c’est tout sauf simple ! Que c’est difficile pour ces personnes, ces organismes qui ne prennent en compte que l’affectif de faire des choix cartésiens ! La fusion nucléaire, les nouvelles “petites” centrales sont des pistes d’amélioration exceptionnelles. Ne pas soutenir ces innovations, ne pas y investir, c’est rendre un très très mauvais service à la planète. 
  • Tous les OGM doivent être interdits. Le “golden rice” est un riz génétiquement modifié pour apporter des vitamines A aux personnes qui en manquent. L’UNICEF estime que 670 000 personnes meurent et 500 000 enfants deviennent aveugles chaque année à cause de cette carence. Les progrès sont tels que le "golden rice" version 2 est disponible depuis 2005 et produit 23 fois plus de vitamine A que la version 1. 107 prix Nobel sont pour, la Fondation Bill et Melinda Gates soutient le projet, mais Greenpeace est contre, car… cela ouvrirait la porte à d’autres OGM ! Ils font croire que les “grands méchants” industriels vont utiliser le "golden rice" comme un cheval de Troie pour inonder ensuite la planète d’autres OGM. Avoir ces millions de morts sur la conscience, cela ne les empêche pas de dormir ? Ces raisonnements “extrémistes” sont mortellement dangereux. Oui, il est réaliste de penser que certains OGM vont créer des crises alimentaires, oui, mais d’autres, beaucoup d’autres vont sauver des millions de vie. Cette culture assassine du risque zéro est l’une des plus grandes menaces pour l’humanité.

Anti Vaccins & nucléaire

Comment éviter que ces croyances dangereuses, superstitions colportées par des inconscients qui ignorent la rationalité et la science ne bloquent des solutions qui peuvent rapidement sauver notre planète ?

Il faudra beaucoup de courage aux gouvernants de tous les pays du monde pour s’engager dans ces combats.

 

Synthèse

DTN - Pari de Pascal - Avenir climatMerci à tous ceux qui auront fait l’effort de lire jusqu’à la fin ce long billet. A l’aube de l’année 2020, il pose beaucoup de questions essentielles sur l’avenir de l’humanité.

Je vous propose un nouveau “Pari de Pascal” pour la planète :

- Hypothèse “Dieu Existe” = la dématérialisation existe. L’accélération du mouvement industriel de dématérialisation de l’économie permet de préparer un avenir positif, le dérèglement climatique restant une priorité absolue.

- Hypothèse “Dieu n’existe pas” : il faut appuyer sur le frein, ralentir la croissance, la mondialisation, l’innovation technologique et numérique, freiner la croissance démographique pour espérer revenir à un monde meilleur, dans lequel nous étions auparavant.

Je vous souhaite à tous une excellente année 2020, en exprimant le souhait que cette nouvelle année se termine avec un maximum d’avancées positives, rendues possibles par de belles innovations numériques et technologiques de rupture, que ni vous ni moi ne connaissons encore.

Mises à jour permanentes : je vais ajouter périodiquement des informations qui peuvent enrichir le débat sur ce sujet essentiel.

18 décembre 2019. De manière volontaire, toute la profession du transport maritime mondial vient de décider d'établir une taxe de 2$ par tonne sur le combustible très polluant utilisé par les navires qui font du transport international. Le "Capitalisme" va investir sur 10 ans 5 milliards de dollars avec pour objectif de devenir neutre carbone en 2050. Ils n'ont pas attendu des subventions des états, bravo.

18 décembre 2019. Une remarquable liste de 99 événements positifs pour la planète qui se sont déroulés en 2019 dans tous les domaines abordés dans ce billet : climat, santé, standard de vie, numérique, énergie...


Pseudo Cloud, ou Cloud Natif ?

 

Menteur grand nez CloudEn 2019, connaissez-vous un seul DSI, un seul fournisseur de solutions numériques qui ne se déclare pas être un très grand fan du Cloud ? Moi, non. 

Après 15 ans d’existence, l’expression “Cloud Computing” fait partie des “meubles numériques” et plus personne n’ose se déclarer ouvertement contre.

Petit problème : le mot Cloud a autant de significations différentes que de personnes qui l’utilisent.

Il devient urgent de clarifier la situation ; je vous propose de simplifier l’analyse en séparant en deux grandes familles les visions “Cloud” des entreprises :

  • Pseudo Cloud : utilisation de solutions Cloud pour faire comme avant, pour ne rien changer en profondeur.
  • Cloud Natif : utiliser intelligemment les nouveaux potentiels du Cloud pour repenser ses usages numériques, autrement.

 

Le Cloud, le vrai, aujourd’hui

J’écrivais déjà en 2012, il y a plus de 7 ans, un billet sur le “faux cloud”, et ce texte reste, hélas, d’actualité.

AdS DPC IaaS  PaaS  SaaS S 162794428Les fondamentaux du cloud sont très stables, depuis les années 2007 :

  • Des infrastructures IaaS, Infrastructure as a Service, que l’on paye à l’usage, en OPEX.
  • Des applications SaaS, Software as a Service, multi-tenant, avec une même instance pour tous les clients.
  • Des outils de développement PaaS, Platform as a Service, de plus en plus indépendants des infrastructures, avec les démarches Serverless.

Ce ne sont pas des concepts d’une extrême complexité ! Fournisseurs et DSI sont tous capables de les comprendre.

Pourquoi faut-il, en 2019, que je rencontre encore des personnes intelligentes qui, en apparence, parlent de Clouds qui n’ont rien à voir avec ces idées simples ?

 

Pseudo Cloud : comment le reconnaître

DPC Choice highway S 55298497Vous ne rencontrerez jamais une personne qui vous dira qu’elle a une démarche “pseudo cloud”. Il y a heureusement des indicateurs clefs qui ne trompent pas, et qui permettent d’identifier cet animal bizarre qui se dit cloud, essaie de ressembler au cloud, mais n’a rien de commun avec un cloud natif.

La liste qui suit, de décisions Pseudo Cloud, n’est pas exhaustive, mais permet d'identifier les entreprises Pseudo Cloud avec une marge d’erreur inférieure à 10 %.

Migrer ses machines virtuelles (VM) sur le cloud.

Oui, il est possible de porter rapidement des VM sur Azure, GCP de Google ou AWS. Ces trois grands acteurs industriels du cloud public ont tous signé des accords avec VMware pour faciliter cette migration.

Porter ses applications historiques sur le cloud.

Exécuter Oracle Applications sur AWS ou SAP sur Azure, c’est possible depuis longtemps. Cela a un nom, depuis plus de 30 ans : l’hébergement d’applications, qui existait bien avant l’arrivée du premier cloud public, AWS en 2007.

Choisir une application en “mode SaaS”.

Derrière ce vocable “mode SaaS”, les éditeurs historiques proposent le plus souvent des applications traditionnelles hébergées, multi-instances, mono-tenant, qui n’ont aucune des caractéristiques des véritables applications SaaS, multi-tenant.

Man falling in SAP:4HANAMigrer ses applications SAP vers S/4 HANA

J’ai écrit un billet entier pour dire tout le “bien” que je pense de cette démarche.

C’est beaucoup plus dangereux qu’un simple portage à l’identique d’une application SAP classique sur une infrastructure Cloud. Avec HANA, la malheureuse entreprise qui se laisse piéger devient doublement prisonnière de SAP, pour ses applications et pour ses… infrastructures en étant obligé de choisir une base de données propriétaire SAP.

Choisir des applications de BI, Business Intelligence à installer sur poste de travail

On peut citer, parmi les plus connues, Qlik Sense ou Tableau. Comme tous les usages Cloud Natif, les applications de BI doivent pouvoir être utilisées depuis un navigateur ; DataStudio de Google en est un bon exemple.

Utiliser des outils bureautiques installés sur PC.

C’est l’exemple le plus classique, le plus répandu que je connais de Pseudo Cloud. Une majorité d’entreprises font aujourd’hui le choix d’Office 365 et croient, ou font semblant de croire qu’elles… migrent sur le Cloud. Dans 90 % des cas, elles continuent à déployer la version PC d’Office, avec Word, PowerPoint ou Excel, ce qui est la négation d’une solution Cloud Native.

AdS DPC homéopathie S 24910859Tous ces indicateurs ont un point commun : ils permettent aux entreprises de continuer à fonctionner “comme avant le cloud”. Ils représentent :

  • Des changements homéopathiques dans tous les domaines d’infrastructures, d’applications, d’externalisation, de développement.
  • Des changements homéopathiques dans les modes de travail des collaborateurs, qui continuent à utiliser leurs applications paléontologiques telles que Microsoft Office sur leur PC ou SAP.
  • Des changements homéopathiques dans la gouvernance des SI, toujours considérés comme des centres de coûts.

Rappel : la France vient de décider que l’homéopathie avait des résultats “peu probants”, mais n’était pas dangereuse pour la santé. La même remarque peut être faite pour les démarches “Pseudo Cloud” : elles n’ont aucune efficacité prouvée, mais sont sans risques à court terme.

 

Cloud Natif : signes distinctifs

Aujourd’hui, les géants du IaaS proposent des offres d’une exceptionnelle richesse, et qui s’améliorent tous les ans.

Ce double tableau montre l’évolution du nombre de services proposés par GCP, Google Cloud Platform, entre février 2017 et juillet 2019. L’évolution des offres AWS est très similaire.

Google GCP 2017 vs 2019

La majorité de ces services n’existe pas dans les solutions numériques “pré cloud”. Connaître, maîtriser et savoir utiliser ces centaines de services, c’est un travail à temps plein, qui demande des compétences exceptionnelles, réparties dans des équipes de haut niveau.

Ce deuxième tableau, d’avril 2018, présente les logos de… 5000 logiciels SaaS pour les seules fonctions marketing et commerciales ! Malgré mes efforts et une veille technologique quotidienne de 2 heures, je n’en connais pas plus de 3 % à 5 %.

Marketing map solutions

Avoir une démarche “Cloud Natif”, c’est comprendre et accepter que le panorama des offres du Cloud n’a plus rien à voir avec ce qui était disponible il y a 10 ou 15 ans. C’est aussi comprendre et accepter qu’il faut tout repenser, remettre à plat, dans les infrastructures, les usages et les développements.

  • Essayer de répliquer dans ses petits centres de calcul privés la richesse fonctionnelle d’un AWS ou d’un GCP : absurde, impossible, ridicule, hors de prix…
  • Continuer à penser ERP intégré, quand des dizaines de milliers de solutions SaaS remarquables, chacune dans leurs créneaux proposent des solutions plus ergonomiques, plus économiques, plus performantes, plus rapides à déployer, c’est conduire une voiture du début du 20è siècle à l’époque des véhicules électriques et autonomes.

J’ai regroupé ces quatre images automobiles qui illustrent bien ces différences d’approches :

Canoo Electric Car

  • Une des premières voitures à moteur était une voiture à cheval à laquelle on avait ajouté un moteur thermique (Musée de Mulhouse). Une bonne représentation des ERP des années 1990.
  • A côté, j’ai mis une photo de la “nouvelle” Porsche électrique Taycan annoncée en septembre 2019. Rien ne vous choque sur cette photo ? Regardez bien ! Elle porte la mention “Turbo” ! Turbo sur un véhicule électrique, ils ont tout compris chez Porsche ! Une excellente illustration des ERP en 2019, tels SAP/4 HANA, qui n’ont rien compris à la profonde évolution des solutions cloud natives.
  • En dessous, il y a deux photos, externes et internes, d’un nouveau véhicule électrique, de l’entreprise Canoo. Tout a été repensé, de A à Z, pour profiter des innovations rendues possibles par des moteurs électriques placés dans les roues.

Les entreprises cloud natives ont compris et accepté qu’il est indispensable de tout remettre à plat. Quelques exemples de décisions Cloud Natif :

  • Fermer le plus vite possible tous mes centres de calculs archaïques.
  • Créer des équipes d’infrastructures de haut niveau qui maîtrisent les solutions IaaS.
  • Essayer de trouver parmi les milliers de solutions SaaS disponibles des réponses “raisonnables” aux attentes des métiers pour les fonctions support.
  • Développer, avec des équipes internes de “builders”, les applications cœur métiers en microservices, Serverless…
  • Redonner leur indépendance aux données, les sortir du carcan des applications historiques.
  • Repenser les échanges avec la DG et les directions métiers, se mettre à leur service et répondre rapidement à leurs demandes légitimes d’innovations rapides.

Rien de tout cela n’est facile, dans un monde Cloud Natif, j’en suis conscient. Je sais aussi que c’est totalement impossible dans une démarche Pseudo Cloud.

 

Les “Exits” vers un Cloud Natif

Ce billet est écrit début octobre 2019, avant qu’une décision définitive sur le Brexit ne soit prise. 

Sans attendre le résultat du Brexit, je propose aux responsables de la Transformation Numérique de leur entreprise de mettre en chantier trois “Exit” numériques ; ceci ne concerne que les entreprises qui ont encore comme “membres” de leur espace numérique ces solutions historiques.

Pseudo Cloud - Cloud Natif fournisseurs

  • SAPExit : c’est de loin le plus difficile ! J’ai écrit l’année dernière un long billet qui présente les nouvelles compétences nécessaires à la DSI pour réussir à sortir de SAP. En y mettant beaucoup d’énergie et de courage, il faudra probablement 3 à 7 ans aux grandes entreprises pour réussir leur SAPExit. Raison de plus pour démarrer, immédiatement !
  • OraclExit : il peut prendre deux formes, selon les entreprises, exit des bases de données et/ou des applications. Cet Exit est probablement celui qui sera le plus rentable, surtout pour la partie bases de données, qui sont omniprésentes dans les grandes entreprises.
  • VMware Tansu = containers + VMVMExit : Passer d’une plateforme VM à des containers est de loin le plus rapide et le plus facile de tous les Exit. Bravo à VMWare qui a bien compris que les containers ont gagné la partie et propose maintenant Tanzu, sa solution maison containers.

 

Un test simple : êtes-vous Pseudo Cloud ou Natif Cloud ?

Je vous propose un test simple pour vous aider à comprendre à quel groupe appartient votre entreprise. Il comporte dix thèmes et pour chacun vous devez choisir une seule des deux réponses, en mettant 1 dans la colonne PC (Pseudo Cloud) ou CN (Cloud Natif).

Important : il ne s’agit pas d’évaluer la situation actuelle, mais la cible que vous avez définie pour votre Transformation Numérique.

Ce tableau, que vous pouvez agrandir et copier, vous servira pour enregistrer vos réponses.

Matrice Pseudo Cloud - Cloud Natif

Une rapide explication pour chacun de ces thèmes :

  • ERP intégrés vs Best of Breed. Est-ce qu’un ERP intégré fait partie de votre démarche ou est-ce que vous optez en priorité pour des solutions SaaS “Best of Breed”.
  • Souhaitez-vous garder des applications historiques, en mode hébergé, ou basculer au maximum sur des solutions SaaS multi-tenant.
  • Voyez-vous un avenir aux grandes applications monolithiques ou avez-pris la décision de privilégier des applications microservices, qui communiquent par API.
  • Est-ce que l’externalisation des développements restera la règle ou allez-vous reconstruire des équipes importantes de développement en interne pour reprendre la maîtrise de vos applications cœur métier.
  • Allez-vous continuer à utiliser des VM ou vont-elles être rapidement remplacées par des containers.
  • Des centres de calcul privés, aussi appelés Clouds Privés, garderont-ils une place importante dans le futur ou voyez-vous l’avenir de vos infrastructures dans des solutions IaaS, avec une démarche DataCenterLess (sans centres de calculs privés).
  • Pensez-vous que vos collaborateurs ne peuvent pas travailler sans Office sur leurs postes de travail ou qu’une bureautique “Web” comme G Suite est la meilleure réponse pour eux.
  • Serez-vous capable, ou non, d’éliminer pour la grande majorité des collaborateurs toutes les applications installées sur les PC pour basculer vers des solutions navigateurs.
  • Vos dirigeants et directeurs financiers sont-ils prêts à accepter que les budgets du numérique basculent d’une culture CAPEX, investissements, à une approche OPEX, coûts de fonctionnement.
  • Pour la sécurité, allez-vous continuer à faire confiance à des pare-feux traditionnels, périmétriques, qui protègent vos lieux de travail, ou acceptez-vous de déployer des pare-feux dans le cloud, tels que Zscaler, qui protègent les accès de vos collaborateurs où qu’ils soient.

Comment analyser vos résultats

Comptez combien de “1” vous avez dans la colonne CN, Cloud Natif :

Echelle 10 niveaux Pseudo Natif Cloud

  • De zéro à trois : votre entreprise a clairement choisi une démarche Pseudo Cloud.
  • De quatre à six : vous hésitez entre les deux démarches, mais êtes bien parti pour devenir rapidement Cloud Natif.
  • De sept à dix : vous avez basculé dans une véritable logique Cloud Natif.

 

En synthèse : la situation actuelle en France

Je vais réutiliser la courbe de Gauss de l’innovation, qui répartit les entreprises en cinq grandes familles.

Gauss Innovation - Pseudo vs Natif Cloud

Sur la courbe de gauche, j’ai représenté la situation du Pseudo Cloud : il ne reste plus qu’un tout petit nombre d’entreprises retardataires à considérer qu’elles ne sont pas Cloud, mais au sens Pseudo Cloud.

La courbe de droite correspond aux entreprises qui sont vraiment Cloud Natives. Elles sont encore dans la famille des premiers adopteurs, largement minoritaires.

Dirigeants et responsables de la Transformation Numérique, le plus dangereux est de se mentir à soi-même et de se persuader que l’on est Cloud Natif quand en réalité on est resté dans une démarche Pseudo Cloud.
J’espère que ce billet vous aidera à mieux comprendre à laquelle de ces deux familles appartient votre entreprise.




 B I S D : la version 2 du modèle B I S

 

AdS DPC Version 2 V2 S 36888272En janvier 2015, il y a plus de 4 ans, j’ai publié sur ce blog un billet présentant le modèle B I S, une approche innovante pour définir les principaux composants d’un Système d’Information.

Ce modèle B I S est rapidement devenu une référence pour nombre d’entreprises innovantes. Il est aussi l’une des bases du livre que j’ai co-écrit avec Dominique Mockly, P-DG de Teréga :

Dirigeants, Acteurs de la Transformation Numérique

La mise en œuvre du modèle B I S m’a permis de réussir de nombreuses missions d’accompagnement de la Transformation Numérique d’entreprises. Mais, progressivement, je me suis rendu compte qu’une dimension majeure n’était pas prise en compte de manière satisfaisante par ce modèle : la gestion des données.

Je suis aujourd’hui convaincu que les entreprises doivent mettre les données au cœur de leur stratégie numérique et que le modèle B I S initial n’accordait pas suffisamment d’importance à cette dimension données.

Je vous propose, aujourd’hui, une version 2 du modèle B I S, qui ajoute cette dimension D, pour Données.

Il devient le modèle... B I S D.

 

Rappel : le modèle B I S, version initiale

(Pour les lecteurs qui ne sont pas familier avec le modèle B I S)

Les fondamentaux

Les trois composants du modèle B I S sont :

Modèle B I S

I = Infrastructures. Serveurs, réseaux, objets d’accès, les fondations d’un Système d’Information, sur lesquelles sont construits les usages.

S = Support. les usages universels, que l’on rencontre dans toutes les entreprises : messagerie, budgets, gestion des ressources humaines, achats…

B = Business (cœur métier en français). Les usages spécifiques d’une activité : équilibrage offre et demande d’énergie chez EDF, gestion des prêts immobiliers dans une banque, gestion des wagons pour la SNCF…

 

B I S et Cloud Public

Le Cloud Public est aujourd’hui la seule réponse pérenne pour construire un Système d’Information en s’appuyant sur le modèle B I S.

I : infrastructures. Les entreprises basculent leurs usages sur les solutions IaaS, Infrastructures as a Service, des grands acteurs mondiaux : AWS d’Amazon, Google GCP ou Microsoft Azure.

S : Usages Support. Pour 99 % des usages support il existe des solutions SaaS, Software as a Service. Des dizaines de milliers de solutions SaaS sont disponibles pour les usages support.

B : Business. L’offre de solutions SaaS verticales, spécialisées pour un métier, s’enrichit tous les jours. Quand les entreprises souhaitent créer de la compétitivité ou se différencier de leurs concurrents, elles construisent des applications sur mesure en utilisant les outils PaaS, Plateforme as a Service, disponibles dans le Cloud Public.

 BIS Cloud Public - Infra  Soutien  Métiers

Comme le démontre ce graphique, les clouds publics peuvent accueillir tous les composants d’un Système d’Information, organisé autour du modèle B I S.

 

Le modèle B I S D

En relisant mon billet de 2015 qui présentait le modèle B I S, j’ai noté avec intérêt que l’un des premiers commentaires posait déjà la question… des données. 

Commentaire Données sur blog B I SAvec un peu de retard, j’y répond, aujourd’hui !

Les trois composants du modèle B I S initial ne changent pas et leurs rôles restent identiques.

La composante D, Données, s’intercale entre les infrastructures et les usages.

Nouveau modèle BISD - Infra  Soutien  Métiers -Data

L’objectif prioritaire est de donner leur indépendance aux données. Les données sont créées et utilisées par les applications, S et B, hébergées et gérées par les infrastructures, I. Les données n’appartiennent plus aux infrastructures ou aux usages, elles doivent avoir leur vie propre.

Donner leur indépendance aux données aura des impacts majeurs sur les choix d’architecture d’un Système d’Information ; ils sont présentés dans les prochains paragraphes.

 

Différentes familles de données, différents outils logiciels

AdS DPC SQL S 138586261Poser la question suivante à un informaticien : quels sont les outils à utiliser pour gérer des données. Dans la majorité des cas la réponse sera : une base de données SQL.

Oracle, SQL Server, MySQL et quelques autres seront les solutions les plus souvent citées.

Depuis plus de 30 ans, ces outils ont été utilisés dans les entreprises pour gérer des données structurées, et ils répondent très bien à cette demande.

Aujourd’hui, cette réponse n’est plus satisfaisante :

  • La nature des données utilisées est devenue très variée.
  • De nombreuses familles de données sont peu structurées.
  • Utiliser un seul outil pour des familles de données différentes devient une aberration.

AdS DPC Marteau et vis S 102413693“Pour un marteau, tout devient un clou” : cette expression correspond très bien au réflexe de beaucoup de professionnels de la gestion des données. Je maîtrise très bien les bases de données SQL, je vais les utiliser pour toutes les familles de données.

Une fois de plus, privilégier l’unicité des solutions pour “simplifier la vie” des informaticiens est une très mauvaise idée.

Les entreprises auront de plus en plus besoin de gérer des données de natures très différentes. 

Six familles techniques de données

Sans prétendre à l’exhaustivité, j’ai identifié six familles principales de données :

  • Données numériques structurées : financières,  commerciales, RH...
  • Documents bureautiques : textes, tableaux, présentations…
  • Données multimédia : photos, images, vidéos, sons…
  • Séries temporelles : financières, techniques…
  • Données géographiques : plans, cartes, représentations de réseaux de distribution…
  • Données modèles 3D : ingénierie, aviation...

En 2019, la bonne démarche consiste à proposer un outil logiciel différent pour chacune de ces familles de données. Ce seront, bien sur, toutes des solutions dans les clouds publics !

Chaque entreprise devra sélectionner un ensemble de solutions de gestion de données qui répond le mieux possible à leurs besoins. Une banque n’aura pas besoin de choisir un outil de gestion de modèles 3D si elle n’en a pas l’usage.

Dans certains domaines, les offres sont bien connues et pérennes. C’est le cas des données structurées, des modèles 3D ou des documents bureautiques.

C’est plus difficile dans des domaines comme les données géographiques, temporelles ou multimédia. Les offres qui dominent aujourd’hui le marché ont été construites sur des architectures anciennes, le plus souvent client/serveur. Les solutions “natives cloud” sont peu nombreuses et, souvent, moins abouties. C’est particulièrement vrai pour la gestion des actifs multimédia : la grande majorité des solutions existantes DAM, Digital Asset Management, sont en fin de vie.

 

Double vision des données, infrastructures et usages

N’essayez pas d’expliquer aux collaborateurs de votre entreprise les avantages d’une démarche multi-solutions logicielles pour gérer les données de leur entreprise ; ce n’est pas leur préoccupation principale ! Comme pour tous les choix d’infrastructures, il faut accepter d’être “invisible” et que les métiers ne souhaitent qu’une chose, que les contraintes “techniques” n’interfèrent pas avec leurs usages.

Les métiers ont une vision… métier des données : ils souhaitent parler de clients, de salariés, de produits ou d’objets industriels.

Vision métiers des données

Je vous propose un exemple simple pour illustrer cette double vision, technique et métiers, dans les ressources humaines. Le responsable RH de l’entreprise souhaite “tout savoir” sur Louis Naugès :

  • Sa date d’entrée dans l’entreprise et son salaire : ces données seront dans des bases structurées SQL.
  • Une photo récente : elle est dans la base multimédia.
  • Le support qu’il a utilisé pour la présentation de l’entreprise aux nouveaux embauchés ; il est dans la base des documents bureautiques.

Répondre de manière transparente à cette requête est tout sauf simple, mais les équipes d’infrastructures données devront être capables de le faire.

 

Un lien entre ces deux visions : le catalogue de données

Etre capable de trouver et accéder les données dont on a besoin, à un instant donné, pour un usage donné spécifique, en toute transparence et sans avoir à connaître les moyens techniques utilisés pour les gérer, c’est un défi majeur auquel toutes les entreprises vont se confronter dans les années qui viennent.

La démarche que je propose est de créer un catalogue de données de nouvelle génération, capable d’établir un pont transparent entre la vision métiers et la vision technique des données.

Deux visions données + Catalogue données

Ce sera tout sauf simple : le client principal de ce catalogue de données est un collaborateur de l’entreprise, sans compétences particulières en informatique, qui souhaite :

  • Savoir quelles sont les données disponibles qui pourraient l’intéresser.
  • Y accéder facilement.
  • Les visualiser, rapidement, dans son navigateur favori.

Metadata, Intelligence Artificielle, souplesse, ergonomie orienté en priorité vers les clients internes et externes du SI, tout reste à inventer aujourd’hui pour créer ces nouveaux outils de gestion de catalogues de données.

Je n’ai pas encore trouvé de solutions SaaS catalogue de données qui répondent bien à ces besoins. Dans une première étape, les entreprises qui souhaitent les mettre en œuvre devront s’appuyer sur des équipes de développement internes pour les construire.

Je prédis un succès exceptionnel au premier éditeur de logiciels capable de proposer un outil SaaS universel pour créer un catalogue de données.

 

Responsable les données : un métier d’avenir

Ads DPC Data Management & people S 104880742Difficile d’utiliser CDO, Chief Data Officer, pour définir ce métier ; ces initiales évoquent le métier de Chief Digital Officer. Il faudra trouver un autre acronyme !

DMO, Data Management Officer pourrait être une option, similaire à PMO, pour la gestion des projets.

N’hésitez pas à me proposer d’autres options.

Bien au delà des fonctions actuelles d’administrateur de bases de donnés, ce nouveau métier demande des doubles compétences, techniques et métiers.

DMO half man half womanComprendre et maîtriser toute la richesse et la variété des données d’une entreprise, gérer ce capital donnée dans la durée, le faire vivre et évoluer en permanence, assurer une veille technologique pour profiter des innovations majeures qui vont arriver dans ces domaines… ce nouveau métier a des potentiels majeurs.

Aux premières personnes qui vont participer à la création de ce poste, capables d’en comprendre les défis et les potentiels, je prédis un avenir professionnel radieux !

 

Résumé

Ads DPC Data Vision S 116698217Le capital données est aujourd’hui un actif essentiel de toutes les entreprises. Elles doivent en reprendre le contrôle et gérer leurs données de manière aussi indépendante que possible des infrastructures, des applications et des fournisseurs.

En ajoutant la dimension D au modèle B I S initial, le modèle B I S D a pour ambition d’aider les entreprises à être encore plus performantes dans leur Transformation Numérique.

Je reprends la célèbre devise des mousquetaires en l’adaptant au monde des données de l’entreprise :

La donnée au service de tous, tous au service de la donnée 

Dans une prochaine série de billets, je reviendrai sur ces thèmes de l’indépendance et du contrôle de leur destin numérique par les entreprises.


Clouds Publics : la confiance...

 

AdS DPC cloud risk walking S 201821174Je ne pensais pas devoir, en 2019, écrire encore sur ce sujet !

En 2011, j’avais publié dans ce blog un billet sur la “néphophobie”, la peur du cloud. Son contenu est, malheureusement, toujours d’actualité.

Je rencontre encore tous les jours dans mes séminaires et missions de conseil, des entreprises de toute taille, privées et publiques, qui me disent que les solutions Clouds Publics ne sont pas possibles pour elles, pour des raisons de “confidentialité” ou de “sécurité”.

Les solutions clouds publics d’infrastructures IaaS (Infrastructures as a Service) existent depuis 2006, avec AWS (Amazon Web Services) et les usages SaaS (Software as a Service) depuis 1999, avec Salesforce.

Si “clouds publics” était synonyme de “dangers publics”, cela se saurait...

 

Deux questions distinctes, sécurité et confidentialité

Cloud security vs confidentialityLes deux questions universelles posées par les entreprises sont toujours les mêmes :

  • Quel est le niveau de sécurité des infrastructures informatiques que j’utilise ?
  • Est-ce que mes données sont bien protégées ?

C’est en séparant clairement ces deux questions que l’on peut progresser rapidement, proposer des réponses précises et créer la confiance dans les Clouds Publics.

La première des tactiques des anti-clouds et de regrouper ces questions pour rendre plus opaque la situation ; il ne faut pas tomber dans ce piège.

La deuxième tactique utilisée par les anti-clouds est de poser la question dans l’absolu : peut-on faire confiance aux Clouds Publics ?

La seule question qui vaille est relative : entre Clouds Publics et solutions gérées en interne, dans mes centres de calcul privés, quelle est la meilleure, ou la moins mauvaise solution en matière de sécurité et de confidentialité ?

Vos données sont, au choix :

  • Dans des infrastructures qui vous appartiennent, gérées par vous ou hébergées.
  • Dans des Clouds Publics.

Il n’y a pas d’autres options.

Peut-on garantir une sécurité parfaite ? Non !

Peut-on garantir une confidentialité parfaite ? Non !

Toute personne qui prétend le contraire est un menteur ou un imbécile.

Je vous propose de traiter séparément, sereinement, logiquement, ces deux thèmes, sécurité et confidentialité.

 

Sécurité des Clouds Publics

Logo Géants CloudEn 2019, quatre fournisseurs, et quatre fournisseurs seulement, proposent des solutions IaaS industrielles et pérennes : (par ordre alphabétique)

  • Aliyun, du chinois Alibaba.
  • AWS, Amazon Web Services.
  • GCP, Google Cloud Platform.
  • Azure, de Microsoft.

Cet oligopole regroupe des entreprises sérieuses, professionnelles, qui investissent massivement dans des infrastructures informatiques de qualité.

Ils investissent aussi massivement dans la sécurité de leurs infrastructures, avec des équipes dont la taille approche ou dépasse le millier de personnes.

Security of on the cloudLeur rôle est clair, comme le présente ce schéma : mettre à la disposition de leurs clients des infrastructures dont ils garantissent la sécurité, la sécurité du cloud.

Ils ne sont pas responsables de ceux que font leurs clients avec ces infrastructures. Un constructeur automobile est responsable de la qualité des voitures qu’il commercialise, qui passent des tests de plus en plus difficiles. Il ne peut pas garantir qu’un conducteur qui conduit avec 3 g d’alcool à 120 km/h en ville ne va pas causer des catastrophes humaines.

Bien conscients que cette question est essentielle pour garantir leur succès à long terme, les quatre géants des Clouds Publics publient de nombreux documents présentant leurs démarches pour garantir un niveau de sécurité très élevé.

Je vous propose de lire quelques-uns de ces documents, de Alibaba, AWS, Google ou Azure.

Posez-vous ensuite honnêtement la question : est-ce que mes équipes internes sont capables de proposer des niveaux de sécurité au moins aussi élevés que ces professionnels du cloud ?

La fiabilité de ces fournisseurs est remarquable, oui. Elle ne sera jamais parfaite et aucun d’entre eux ne propose des contrats SLA de garantie de services à 100% : ils savent très bien qu’aucune entreprise n’est à l’abri d’une panne ou d’un incident, technique ou humain.

Cloud Downtime 2018 - AWS  GCP  AzureCe graphique donne les temps de panne (downtime) d’AWS, Google et Microsoft pour 2018. C’est le nombre total de minutes d’interruption de services sur toute l’année 2018. Pour mieux apprécier leur performance, il faut savoir que l’interruption d’un seul service dans une seule zone géographique est comptabilisée.

Niveau exceptionnel de sécurité, niveau exceptionnel de fiabilité : les géants du Cloud Public ont démontré depuis de nombreuses années qu’ils sont capables de faire mieux que 99,999 % des entreprises qui essaient de gérer en interne leurs infrastructures informatiques.

Tous les dirigeants rationnels et honnêtes l’ont compris ; problème réglé !

Reste maintenant à aborder un thème plus polémique, celui de la confidentialité des contenus. Avant, il est indispensable d’étudier la géopolitique des acteurs concernés, et en priorité, celle des “anciens combattants” de l’informatique.

 

Les anciens combattants, vecteurs d’une épidémie mortelle, la trouille

Les solutions Clouds Publics d’infrastructures et d’usages bouleversent tous les secteurs d’activités informatiques ; les constructeurs historiques, qui ne sont pas idiots, l’ont bien compris et... ont choisi la trouille comme arme de défense principale.

J’ai regroupé dans ce schéma les “anciens combattants” de l’informatique dans cinq grandes familles :

  • Les fournisseurs d’infrastructures.
  • Les éditeurs de logiciels historiques, et en particulier les ERP intégrés.
  • Les vendeurs de solutions archaïques de sécurité, dont la peur est le fond de commerce.
  • Les consultants en sécurité, avocats et juristes, autres champions de la peur.
  • Et, bien sûr, les nombreux DSI qui défendent leurs anciens attributs de pouvoir tels que les centres de calcul privés.

Anciens combattants Cloud

Fournisseurs historiques d’infrastructures

OCP logo  OCP acceptedIls vendaient des serveurs, des disques de stockage ; ils ont pour nom Dell, HP ou IBM. Les géants du Cloud Public n’achètent pas chez eux : ils sont trop chers et pas assez performants. Google et les autres font fabriquer directement leurs matériels en Asie, avec des modèles dont la majorité est en Open Source, fédéré par l’association OCP, Open Compute Project, créée par Facebook en 2011.

Les entreprises qui migrent sur le cloud n’achètent plus leurs matériels. Les maxi-entreprises comme Bank of America qui peuvent encore se permettre de garder des centres de calculs privés le font en.. achetant des serveurs compatibles OCP.

Etonnez-vous que ces fournisseurs historiques fassent la gueule et essaient de convaincre leurs ex-clients que le Cloud Privé est plus sûr que le Cloud Public.

Editeurs historiques d’applications

Il était un temps, fort lointain, où les entreprises achetaient des logiciels à installer dans leurs centres de calcul, payaient fort cher des licences et des contrats de maintenance. Elles avaient aussi la joie de devoir gérer elles-mêmes les mises à jour, pour le plus grand bonheur des ESN, Entreprises de Services Numériques. Les deux champions incontestés de cet ancien monde avaient pour nom SAP et Oracle. Allergiques aux solutions SaaS natives, multi-tenant, ces éditeurs essaient de survivre en faisant croire que l’hébergement dans le cloud d’instances spécifiques à chaque client, c’est beaucoup mieux.

Vendeurs de solutions archaïques de sécurité

Security appliancesLes lecteurs de ce blog qui ont connu l’informatique de grand-papa vont regarder ce schéma avec un œil attendri : cela leur rappellera leur jeunesse, époque révolue où il fallait installer des dizaines de serveurs spécialisés pour chaque fonction de sécurité. On les nommait “appliances”, cela faisait plus chic et moderne. Les leaders de ces marchés avaient pour nom Cisco, Fortinet ou Palo Alto Networks.

Clouds Publics = disparition des centres de calcul des entreprises.

Clouds Publics = disparition du marché des appliances de sécurité en tout genre.

Consultants en sécurité, avocats et juristes

AdS DPC Cyberwar S 121916236Qu’elle était sympathique l’époque où les entreprises essayaient, sans succès, de gérer elles-mêmes la sécurité et la confidentialité dans leurs informatiques internes. Des armées de consultants en sécurité leur apprenaient les meilleures pratiques dans ces domaines. Les nouvelles menaces arrivaient plus vite que leurs capacités à les gérer et créaient de nouveaux flux de revenus sans fin.

Juristes et avocats étaient prêts à aider les entreprises à régler les nombreux litiges que créaient ces failles continues de sécurité. Les Clouds Publics assèchent ces vieux marchés lucratifs ; ces professionnels du droit mettent maintenant leurs espoirs dans des lois telles que le RGPD qui créent de nouvelles contraintes, de nouvelles craintes.

DSI historiques, qui défendent leurs territoires de pouvoir

AdS DPC Manager with umbrella danger S 168264171Ces quatre familles de fournisseurs historiques, dont l’avenir est fortement compromis par les solutions Clouds Publics, ne survivraient pas longtemps s’ils n’avaient pas… l’oreille attentive d’un grand nombre de DSI qui se sentent, eux aussi, menacés par le tsunami Cloud Public.

Fournisseurs et DSI historiques, unis par une même peur du futur, propagent cette trouille auprès de leurs dirigeants et collaborateurs. Le moindre incident dans le Cloud Public, et il y en a, est monté en épingle, utilisé comme un épouvantail très efficace. Ils oublient simplement de dire que toutes les grandes failles informatiques de ces dernières années, toutes les pertes de données pour des dizaines et centaines de millions de personnes ont toutes, sans exception, eu lieu dans leurs centres de calcul internes, véritables passoires numériques.

 

Confidentialité des données

La protection des données utilisées par les entreprises, qu’elles concernent les clients externes, les collaborateurs, les produits… est depuis toujours une priorité.

L’arrivée des solutions de Clouds Publics ne crée pas un nouveau problème de protection, mais oblige les entreprises à s’adapter à de nouveaux défis, à rechercher de nouvelles solutions.

Une fois de plus, il ne faut pas raisonner dans l’absolu et se poser une mauvaise question :

“Est-ce que mes données sont bien protégées dans les clouds publics ?”

AdS DPC Data stored every where 84427391La bonne démarche consiste à comparer les solutions dans les clouds publics avec la situation actuelle, avec des données souvent stockées dans des centres de calcul internes, dans des serveurs répartis dans toute l’entreprise et aussi sur des centaines, des milliers de PC, smartphones et autres tablettes.

La seule question raisonnable à se poser est :

Est-ce que l’utilisation de Clouds Publics rend moins bonne ou améliore la protection de mes données ?

Pour les entreprises positives, raisonnables, rationnelles qui ont compris les potentiels des clouds publics il est facile de traduire cette question générale en la décomposant en une suite de questions plus techniques et en recherchant, cas par cas, s’il existe des réponses de qualité.


Sans prétendre à l’exhaustivité, j’ai identifié quelques questions principales à se poser :

  • Utiliser un parefeu (Firewall) pour mieux contrôler les données qui entrent et sortent.
  • Chiffrer des données, quelles données.
  • Utiliser une solution de SSO, Single Sign On, pour faciliter la vie des utilisateurs et éviter un trop grand nombre de mots de passe.
  • CASB explained in RedUtiliser une Authentification forte, une double authentification pour compléter les mots de passe.
  • Mettre en œuvre des copies de sécurité (Backup) pour se protéger des pertes volontaires ou involontaires de données
  • Choisir un CASB, Cloud Access Security Broker, outils récents créés spécialement pour protéger les Clouds.
  • ….

Les professionnels de la sécurité informatique pourront trouver que mon analyse est très incomplète, mais j’assume une démarche pragmatique et raisonnable qui va à l’essentiel.

Avant de présenter quelques solutions qui répondent à ses demandes légitimes, il faut poser une question préalable sur la motivation des entreprises et des DSI qui mènent ces études.

AdS DPC positive vs negative S 189391249Je les classe en deux familles :

  • Les entreprises positives, qui recherchent vraiment des solutions, et sont ravies quand on leur propose des réponses raisonnables.
  • Les entreprises négatives, qui cherchent des “alibis” pour ne pas aller vers des solutions Clouds Publics, et font “la gueule” à chaque fois qu’une solution proposée fait tomber une barrière dans la course de haies qu’elles organisent en espérant ne jamais arriver au bout.

Entreprises à la recherche d’alibis, passez votre chemin, assumez votre à priori négatif et ne faites pas perdre votre temps à des fournisseurs ou consultants qui chercheront, en vain, à vous aider.

Pour les autres, la bonne nouvelle est qu’il existe des solutions de grande qualité, que je regroupe sous le nom TaaS : Trust as a Service, Confiance comme un service.

 

Solutions TaaS : Trust as a Service

Vous êtes, honnêtement, prêt à basculer tout ou partie de votre environnement numérique dans des Clouds Publics si vous trouvez des réponses de qualité à vos préoccupations légitimes.

Votre démarche peut être décomposée en trois étapes :

  • Commencez par sélectionner les fonctionnalités dont vous avez vraiment besoin, dans la liste que j’ai préparée.
  • Recherchez les solutions disponibles sur le marché. L’offre TaaS est pléthorique, avec plusieurs dizaines de produits de grande qualité.
  • Faites confiance à vos équipes techniques pour évaluer et sélectionner les solutions qui, selon elles, sont les mieux adaptées à vos attentes spécifiques. Ce ne doit pas être systématiquement le plus complet ou le plus cher.

Ce tableau ne prétend pas à l’exhaustivité ; je l’ai créé pour renforcer le message : pour chaque fonction recherchée, il existe de nombreuses solutions. Tous les produits cités font partie des leaders de leurs marchés respectifs.

Outils solutions Cloud Confiance

A titre d’exemple pour la ligne SSO : Okta, Ping et OneLogin sont de remarquables solutions et toutes ont été choisies par des entreprises que je connais. Quelle est la meilleure ? Il n’y a aucune réponse possible à cette question.

 

La confiance... ne se décrète pas

Vous faites confiance à votre banquier, votre médecin, votre coach sportif pour vous accompagner et vous aider, chacun dans leurs domaines. Ce n’est pas une confiance aveugle, mais raisonnée.

Votre entreprise doit suivre la même démarche concernant le choix de ses partenaires dans le Cloud Public : créer les conditions d’une confiance raisonnable.

AdS DPC aviophobie peur avion S 79412735Cette confiance n’est pas seulement rationnelle, elle ne se décrète pas. Je prends l’avion plus de 100 fois par an et fais confiance à quelques compagnies aériennes à qui je confie ma vie. Je connais des personnes, intelligentes, qui souffrent d’aviophobie (ou aérodromophobie) et préfèrent prendre leur voiture pour des voyages de plus de 2 000 km. Les statistiques sont formelles : la probabilité de mourir d’un accident de voiture sur 2 000 km est beaucoup plus élevée qu’en avion. Cela ne suffira pas à les faire changer d’avis et à prendre l’avion.

Si vous souffrez d’une néphophobie maladive, ma recommandation est très simple : n’allez pas vers des solutions Clouds Publics.

Pour terminer, je vais prendre deux exemples très révélateurs du comportement des anti Clouds Publics qui cherchent, et trouvent, de bonnes raisons de ne pas y aller.

Cloud Act

Ah, cet épouvantail extraordinaire qui a pour nom Cloud Act ! Impossible de participer à une réunion sur les dangers du Cloud sans que l’on évoque le Cloud Act. Combien de personnes se sont données la peine de savoir ce que signifie “Cloud” dans Cloud Act ?

Cloud = Clarifying Lawful Overseas Use of Data Act. Ce n’est qu’un acronyme, pas très heureux, il faut en convenir. Le Cloud n’a strictement rien à voir avec le Cloud Act ; il traite de l’accès aux données en dehors du territoire américain, mais indépendamment de la nature des infrastructures qui hébergent ces données !

A l’inverse, ils sont peu nombreux à parler de la position de la France sur ces sujets.

Espionnage : la France au premier rang avec l’ANSSI !

ANSSI Accès serveurs en FranceDes enfants de chœur, les Français ? Pas du tout ! Tout le monde espionne tout le monde et la France est très bien placée dans le palmarès des champions. Vous souhaitez protéger vos données ? Ne les mettez surtout pas dans des serveurs hébergés en France : l’ANSSI (Agence Nationale de la Sécurité des Systèmes d’Information) s’arroge le droit d’accéder à toute donnée qui a le malheur de se trouver dans un serveur situé sur le territoire français !

 

Synthèse

AdS DPC old planes S 121561349Ces combats d’arrière-garde sur les dangers du Cloud Public, libre à vous de continuer à les mener dans les années qui viennent.
Vous trouverez de très nombreux fournisseurs prêts à vous conforter dans vos peurs, vos trouilles, vos angoisses métaphysiques, ravis de vous fourguer des solutions hors de prix et inutiles, ceintures et bretelles, pour vous protéger de risques inexistants.

Si c’est votre vision du futur, votre culture, ne m’appelez pas pour vous accompagner dans vos stratégies numériques du XXe siècle, qui vous mèneront, rapidement, dans le mur.