75 % des serveurs dans les entreprises auront disparu en 2020 ! L’hécatombe annoncée devient réalité

 

AdS DPC Cimetière militaire S 72348903Dès 2009, je faisais dans ce blog le pronostic que les centres de calcul des entreprises allaient progressivement se vider de leurs serveurs. Je terminais ce billet avec une prévision : le nombre de serveurs dans les centres de calcul pourrait se réduire de 60 à 90 % d’ici à 2020, en citant 80 % comme pourcentage le plus probable.

En juin 2016 le Laboratoire National de l’Université de Berkeley a publié une étude d’une exceptionnelle richesse sur «La consommation d’énergie des centres de calcul aux USA». Les universités de Stanford, Northwestern et Carnegie Mellon, ainsi que le département d’énergie du gouvernement américain ont participé à cette étude.

Berkeley study - US Energy Data Center

L’essentiel des données que je vais utiliser dans ce billet provient de ce document de plus de 60 pages. C’est une lecture obligatoire pour tous les responsables informatiques. Il analyse les impacts de l’arrivée des acteurs «Hyperscale», en clair les industriels du Cloud Public, sur les serveurs, les outils de stockage, les outils de réseaux et la consommation d’énergie des centres de calcul aux USA, sur la période 2000 - 2020.

 

Croissance du Cloud Public = disparition des serveurs d’entreprise

Il n’est pas nécessaire d’être un grand mathématicien pour comprendre cette équation :

            CTE = (NSE + NSCP) x PMUS

  • CTE = Charge de travail des entreprises, les applications à exécuter.
  • NSCP = Nombre de Serveurs Clouds Publics.
  • NSE = Nombre de Serveurs Entreprises.
  • PMUS = Puissance Moyenne Utile d’un Serveur.

Serveurs entreprises down, Cloud UpDeux facteurs vont jouer un rôle clef dans cette équation :

  • Amélioration de PMUS : croissance de la puissance des serveurs à coût constant, virtualisation, containers... tous ces paramètres évoluent dans le même sens et permettent de traiter plus d’applications par serveur.
  • Basculement sur les Clouds Publics, ce qui entraîne un accroissement très rapide de NSCP.

Le résultat de ces deux évolutions ? NSE, le nombre de serveurs entreprises, chute très vite.

  

Impacts croissance Cloud Public sur vendeurs de serveurs aux entreprises

Ce graphique est extrait de l’étude américaine citée dans l’introduction.

Evolution Nb serveurs vendus, hyperscale vs classique

Il demande quelques explications :

  • En ordonnée, le nombre de serveurs installés dans les centres de calcul.
  • L’année de rupture des tendances : 2014.
  • Hyperscale : les mégas centres de calcul, construit en majorité par les grands acteurs industriels du Cloud Public, AWS, Google, Microsoft...
  • Non Hyperscale : les «petits» centres de calcul, de moins de 10 000 serveurs, ce que certains appellent encore «Clouds Privés» et que je préfère nommer «Centres de Calculs Privés».

D’ici 2020, le basculement vers un scénario Hyperscale aura deux impacts majeurs :

  • Le nombre total de serveurs installés va légèrement baisser entre 2014 et 2020, alors que la puissance informatique consommée va continuer à exploser. Ceci confirme la très forte amélioration de la performance des serveurs (PMUS) et leur meilleure utilisation par les industriels du Cloud. Le nombre de serveurs sera en 2020 au même niveau qu’en 2010.
  • La part des serveurs dans les centres de calcul privés va baisser de 75% entre 2014 et 2020. C’est une vitesse de décroissance jamais vue jusqu’à présent ! Si l’on fait l’hypothèse que la durée de vie d’un serveur est de 4 à 5 années, ceci signifie en pratique que l’immense majorité des serveurs en fin de vie ne seront pas remplacés.

Unbranded vs branded servers - US Data Center study Ce schéma présente le fonctionnement de l’industrie de fabrication des serveurs.

  • Les seules entreprises qui fabriquent vraiment des serveurs sont des sociétés «unbranded», de marque blanche, toutes situées en Asie. Ces entreprises gigantesques, telles que Foxconn ou Quantra, sont inconnues du grand public et des DSI. Ce sont les mêmes qui fabriquent l’essentiel des PC ou des smartphones.
  • Les grandes entreprises qui vendent des serveurs aux entreprises, Dell, HP, Lenovo, IBM... se fournissent aussi chez les mêmes «unbranded», rajoutent leurs logos, leurs fortes marges, leurs coûts de marketing et de commercialisation. Ce sont ces marques qui ont la «confiance» des DSI des grandes entreprises.
  • Les industriels du Cloud Public, AWS, Google... font fabriquer directement leurs serveurs chez les mêmes fabricants que Dell ou HP, mais selon leurs  propres spécifications. Ils n’ont aucun coût supplémentaire et obtiennent donc des serveurs 40 et 50 % moins chers que les entreprises qui achètent des marques.

Fabricants serveurs massacreCombinez ces deux mouvements, les entreprises n’achètent plus de serveurs et les industriels du Cloud les font fabriquer directement ; quelle en est la conséquence inéluctable ? La mort très rapide de tous les fournisseurs historiques de serveurs auxquels les entreprises faisaient encore confiance, il n’y a pas si longtemps.

Ce bain de sang économique ne va pas seulement toucher les fabricants, mais aussi tout l’écosystème qui les entoure ; je pense en particulier aux distributeurs et aux petites sociétés de services qui vivent de l’installation et de la maintenance de ces serveurs HP, Dell, Lenovo ou autres.

Ce graphique résume très bien l’évolution du marché des serveurs d’ici 2020.

% unbranded servers Cloud - US Data Center study - % unbranded servers Cloud

  • 100 % des industriels du Cloud Public se fourniront chez les «unbranded».
  • Le marché des serveurs sera à 90% alimenté par les «unbranded».
  • Il restera des miettes, de l’ordre de 10 %, pour les vendeurs de marques.

Permettez-moi un conseil d’investissement : si vous souhaitez perdre l’essentiel de vos économies d’ici 2020, achetez vite des actions de fournisseurs de serveurs de marque...

  

Impacts sur la stratégie serveurs des entreprises 

Quelle que soit leur taille, la stratégie serveurs des entreprises est maintenant d’une grande simplicité :

        Arrêt immédiat et définitif de tout achat d’un seul nouveau serveur.

J’avais déjà évoqué ce thème, ici et .

Pourquoi cette décision devient de plus en plus évidente ?

  • Le nombre de serveurs présents dans vos centres de calcul est déjà supérieur à la demande.
  • Ils ne sont pas toujours utilisés de manière optimale.
  • Le basculement vers des solutions Cloud, IaaS et SaaS, va accélérer la baisse de la demande pour vos serveurs actuels.

 

Impacts sur la consommation d’énergie électrique

J’avais déjà écrit que le Cloud Computing était une excellente nouvelle pour la planète.

Le thème principal de cette remarquable étude sur les centres de calcul aux USA était l’impact des évolutions prévues de la consommation d’énergie électrique. Elle confirme que le basculement sur les solutions de Cloud Public a des impacts majeurs, positifs, sur la consommation d’énergie électrique, comme le montre ce graphique.

US Data Center study - Energy savings: servers, disks...

En 2020, la consommation annuelle d’électricité aurait été de l’ordre de 200 milliards de KW/h en 2020 si rien n’avait changé. Grâce au Cloud Public, elle restera stable, autour de 90 KW/h, deux fois moins !

Qui oserait s’en plaindre ?

 

Synthèse

Good NewsLe basculement massif et rapide vers des solutions industrielles de Clouds Publics va s’accélérer d’ici à 2020.

  • C’est une très mauvaise nouvelle pour les fournisseurs historiques de serveurs.
  • C’est une excellente nouvelle pour les entreprises et les DSI qui vont bénéficier de meilleurs services, à moindre coût.
  • C’est une excellente nouvelle pour notre planète Terre.

Manager fired En 2016, lutter contre cette révolution positive est inacceptable, et tout contrevenant doit être sévèrement sanctionné. A partir d’aujourd’hui, tout DSI qui autorise l’achat d’un seul nouveau serveur subira un sort radical : 

  • Faute professionnelle grave.
  • Licenciement immédiat.
  • Pas d’indemnités !

Cela fera de la place pour des DSI plus innovants, plus courageux !

 


Un scandale qui n’a que trop duré : les tarifs mafieux des télécoms professionnels

 

Prolétaires de tous les paysEntreprises de tous les pays, unissez-vous ! Vos opérateurs télécom vous exploitent honteusement !

 Pourquoi, aujourd’hui, détourner cette citation de Karl Marx pour parler de l’exploitation de l’ensemble des entreprises par les opérateurs télécom quand ils vantent les mérites de leurs solutions «dites professionnelles» ?

C’est un scandale qui dure depuis trop longtemps, mais les écarts entre les tarifs grand public et professionnel des opérateurs télécom sont aujourd’hui devenus tellement absurdes qu’il est temps de pousser un véritable coup de gueule sur ce sujet.

Je m’étais déjà élevé, en 2007, contre les tarifs de gangsters d’un hôtel de luxe à Paris qui faisait payer le WiFi à 50 € par jour.

En réponse à mon blog, le tarif avait été ramené à 20 € par jour. Je suis retourné dans cet hôtel en mars 2016 et le WiFi était, enfin, gratuit pour tout le monde.

J’espère que ce billet aura des impacts similaires, plus rapidement !

 

Prix actuels proposés par les opérateurs aux entreprises 

DPC Mafia three men S 103435177Scandaleux, mafieux, inadmissibles, confiscatoires... les mots me manquent pour exprimer mon indignation quand je lis les propositions commerciales envoyées aux entreprises, et en particulier aux PME, par les opérateurs télécom.

Ce sujet a été abordé avec les participants d’un séminaire que j’animais fin mars 2016 à Paris. Nous avons partagé quelques chiffres ; l’un d’entre eux, DSI dans une PME d’une centaine de personnes en Bretagne, m’a envoyé des exemples de réponses à un appel d’offres, fin 2015. D’autres participants ont confirmé avoir reçu des offres similaires.

Tarif Orange pro fibre PME

Cette proposition a été envoyée par un «petit opérateur national», Orange.

Trois chiffres la résument : plus de 2 200 € par mois, pour 40 Mb/s et un engagement de 36 mois pour l’entreprise.

L’analyse de cette offre, outre son prix démentiel, m’amène à me poser plusieurs questions :

  • De la fibre optique à 20 Mb/s ? Comment est-ce possible quand que le minimum de vitesse sur des fibres est supérieur à 100 Mb/s ? Cela coûte probablement plus cher à l’opérateur de limiter artificiellement la bande passante que de laisser l’entreprise utiliser toute la capacité disponible.
  • 20, 30 ou 40 Mb/s sur la même proposition, avec des prix de vente strictement proportionnels. J’ai beaucoup de mal à imaginer la différence de coût d’installation et de fourniture du service par Orange entre ces trois vitesses...
  • Contrat de 36 mois : cela transforme, en pratique, un budget OPEX en CAPEX. L’entreprise s’engage pour 79 400 €, pour 40 Mb/s et jusqu’en 2018.

Tarif Fibre Bretagne Telecom PME

Une autre des offres reçues émane de Bretagne Télécom ; on reste dans les mêmes ordres de grandeur.

Une fibre 20 Mb/s et un lien cuivre SDSL 8 Mb/s, 28Mb/s au total, pour un prix que varie de 1620 € à 1398 € par mois, en osant proposer un contrat sur... 60 mois.

Le discours de ces opérateurs mafieux aux tarifs mafieux est bien rodé : avec ces tarifs professionnels, nous vous garantissons un service de très haut niveau. Si seulement c’était vrai... Sur le site d’Orange, les garanties proposées sont :

  • Un niveau de service de 99,8 %.
  • 4h pour rétablissement de la ligne en cas de panne.

Ce sont des chiffres très moyens et qui ne justifient en rien ces tarifs en or massif.

  

Et pendant ce temps-là... dans le grand public

Dans le classement des pays sur les coûts d’accès Internet grand public, la France est bien placée ; merci la concurrence, merci Free, à l’origine de cette baisse des prix dont ont bénéficié tous les clients.

Arcep Abonnés Haut débit Q4 2015

L’ARCEP publie tous les trimestres de remarquables statistiques, gratuites, sur les réseaux en France. Fin 2014, 27 millions de foyers avaient des accès haut débit à Internet, et plus de 4 millions, 15 % d’entre eux, étaient en très haut débit, supérieur à 30 Mb/s.

A quel prix ? Pour rester cohérent avec les chiffres que j’ai donnés pour la PME bretonne, j’ai regardé les offres proposées par Orange en fibre optique grand public, visibles ci-dessous.

Offre Orange grand public 500 Mb:sCette offre à... 500 Mb/s (flèche rouge) est actuellement en promotion à 29 € par mois. Le débit montant garanti n’est «que» de 200 Mb/s.

Le prix sans promotions, incluant la Livebox, donc le routeur WiFi, est de 46 € par mois, chiffre que je vais utiliser dans la comparaison qui suit.

Je ne tiendrai pas compte des autres avantages, tels que l’accès à 140 chaînes de télévision, qui ont peu d’intérêt dans le monde professionnel.

Cette offre demande un engagement de 12 mois de la part du client grand public, à comparer aux 36 mois de l’entreprise.

Orange Fibre pro vs grand public

Dans ce tableau très simple, j’ai comparé les deux offres d’Orange :

  • Professionnelle à 40 Mb/s, symétrique.
  • Grand public à 500 Mb/s descente, 200 Mb/s montée.

Un chiffre saute aux yeux : le coût au Mb/s de la solution professionnelle est... 600 fois plus élevé que celui de la solution grand public en descente, 240 fois plus élevé en montée.

Retour sur l’argument «massue» des opérateurs pour essayer de justifier l’injustifiable, cet écart de prix, la «qualité de service pro», dont à vu plus haut qu’elle n’était pas exceptionnelle.

Et si la qualité de service grand public était meilleure que la pro ? Quand on a 27 millions de clients grand public, la fiabilité devient essentielle sous peine d’avoir des coûts de maintenance prohibitifs.

Je reviens maintenant sur le cas du DSI de cette PME qui souhaite proposer le meilleur service possible à ses clients internes. Je lui propose de comparer deux options :

  • L’offre «professionnelle» d’Orange à 2 200 € pour 40 Mb/s.
  • Prendre 5 abonnements grand public soit 230 €, 10 fois moins cher, pour une bande passante de 2 500 Mb/s, 60 fois plus.

Oui, vous avez bien lu : 60 fois plus, 10 fois moins cher.

Pour augmenter la fiabilité, il pourra choisir ses 5 abonnements chez des opérateurs différents, et garantir ainsi un niveau de service très largement supérieur à celui de la solution professionnelle.

  

Nouvelles offres professionnelles, sans fil

L’arrivée de la 4G/LTE permet de proposer des solutions très haut débit sans fil. Comme le montre ce graphique, la vitesse moyenne de descente en France, mi 2015, était supérieure à 30 Mb/s. Cette même étude donne une vitesse de montée supérieure à 10 Mb/s.

LTE download speed France

Pourquoi ne pas faire profiter les entreprises de cette solution ? Des opérateurs télécom l’ont compris et proposent maintenant des «routeurs LTE» fixes à déployer dans les entreprises.
Tarifs BouyguesTel Routeur 4G pro

J’ai choisi, à titre d’exemple, l’offre proposée par Bouygues Telecom :

  • Routeur 4G/4G+ (LTE Advanced, pour les initiés).
  • 100 Go de données par mois.
  • 99 € par mois.

Comme toutes les offres sans fil, il existe une limite au volume de données échangées. Dans cet exemple, le Go supplémentaire coûte 5 € ; il suffit de dépasser de 20 Go pour payer le prix de deux abonnements, qui permettent... 100 Go de plus.

Si je fais l’hypothèse, raisonnable, que ce réseau 4G propose un débit descendant de 40 Mo, j’ai un coût au Mo de 2,5 €, à comparer aux 55 € du réseau professionnel Orange.

Je peux maintenant proposer au DSI de cette PME bretonne une nouvelle solution, au même coût global, encore plus fiable, car elle combine le filaire et le sans fil :

  • Trois abonnements filaires = 138 € pour 1 500 Mb/s.
  • Un abonnement sans fil : 99 € pour 40 Mb/s, option de secours suffisante en cas de panne simultanée, improbable, des 3 abonnements filaires.

  

La révolte des acheteurs

DPC Revolt 2016 S 90443617J’espère que la révolte des acheteurs de services de télécommunications professionnels va démarrer en 2016.

Les grandes entreprises devraient être à la pointe de ce combat, car elles ont en interne les compétences pour challenger les fournisseurs historiques. C’est plus difficile pour les PME et les TPE qui se sentent désarmées, face à leurs fournisseurs télécom. En France, Orange occupe une position beaucoup plus dominante dans le monde professionnel que dans le grand public.

Les entreprises peuvent choisir comme exigence cette phrase tirée d’une publicité de Samsung :

Samsung du pro aussi pro que mon perso

«Je veux du pro, aussi pro que mon perso», en rajoutant

«au même prix que mon perso».

A court terme, la démarche la plus rapide, la plus efficace est de demander pour chaque implantation géographique de l’entreprise des réponses chiffrées aux branches professionnelles et grand public des opérateurs. Certains d’entre eux s’y opposent, mais je ne vois pas pourquoi cela ne serait pas répréhensible sous le principe du «refus de vente».

 

Nouveaux entrants, nouveaux espoirs

DPC WMAN S 75805873J’ai privilégié dans cette analyse les offres d’accès à Internet, au Cloud, au Web : dans le jargon des télécoms, on parle de MAN, Metropolitan Area Network, des accès de moyenne distance, compris entre 1 et 50 km environ.

J’avais, dans un billet récent, parlé de WaaS, WAN as a Service, pour remplacer les solutions longues distances MPLS, fin de vie, commercialisées par les opérateurs historiques.

Je vous propose aujourd’hui un nouvel acronyme, MaaS, MAN as a Service, pour des offres de réseaux MAN proposés comme des services.

MaaS - MAN as a Service

Les entreprises peuvent exiger, pour chacune de leurs implantations, des offres «as a Service», flexibles, sur des durées maximales de 12 mois, et qui proposent, selon les lieux :

  • Des liaisons filaires fibres, de 100 Mb/s à 10 Gb/s.
  • Des liaisons filaires xDSL, de 5 à 100 Mb/s.
  • Des «fibres noires», fibres non utilisées par les opérateurs. On peut les activer pour relier une implantation d’entreprise avec un POP, Point de Présence d’opérateur, pour accéder à Internet.
  • Des liaisons sans fil 4G/4G+.
  • Des liaisons satellites, telles que celles proposées par Tooway, à 20 Mb/s descente et 6 Mb/s montée, en versions grand public et professionnelle.

Qui seront les premiers fournisseurs à oser se positionner sur le marché du MaaS, à rechercher les meilleures solutions, les meilleurs rapports vitesse/coût pour les entreprises ? Je leur pronostique un avenir radieux et une croissance très forte de leur activité dans les 5 années qui viennent.

Carte Kosc TelecomKosc Telecom pourrait être l’un de ces acteurs de rupture. Avec l’aide de BPI France en 2016, il a pour ambition de secouer le marché français, et ce n’est pas moi qui vais m’en plaindre !

DPC tous ensemble SS 100633149Je suis prêt à aider les fournisseurs MaaS de nouvelle génération et les entreprises à construire, ensemble, des offres professionnelles qui ne seront plus des escroqueries monumentales.

Il y a des centaines de millions d’euros à gagner, et rapidement, pour les entreprises.

 


La guerre du Cloud : quels vainqueurs ? Les fournisseurs historiques ou les natifs ?

 

DPC Missiles war S 103991771Une guerre sans merci a commencé ! Les entreprises vont être les témoins et les arbitres de la plus grande bataille jamais livrée entre fournisseurs informatiques.

Les infrastructures Cloud et les usages SaaS deviennent les solutions par défaut pour toutes les entreprises. C’est une réalité depuis 2015 pour les entreprises innovantes (courbe de Gauss de l’innovation). Ce le sera pour la majorité des entreprises en 2021.

Tout va se jouer entre 2015 et 2021, une période très courte à l’échelle de l’histoire de l’informatique.

Gauss Curve Innovation 2015 - 2021

En 2022, on visitera les entreprises «ringardes - laggards» pour redécouvrir comment on travaillait «avant».

Les seuls fournisseurs crédibles au début de la prochaine décennie ? Ceux qui proposent de véritables solutions Cloud et SaaS.

Qui seront-ils ?

  

Le Cloud public, seul marché informatique en croissance

Les jeux sont faits : le Cloud public a définitivement gagné la bataille. C’est ce que j’écrivais en août 2015 ; c’est encore plus vrai aujourd’hui. 

Toutes les études, tous les analystes confirment que les différents marchés du Cloud public, IaaS, PaaS ou SaaS sont en croissance forte alors que les autres marchés de l’informatique, serveurs, logiciels traditionnels sont sur le déclin.

IaaS PaaS SaaS market

Cette étude de TBR montre que le marché du Cloud va doubler entre 2015 et 2020, passant de 80 à 167 milliards de dollars.

Il reste encore de trop nombreux DSI et fournisseurs «anciens combattants» qui font semblant de croire qu’il y a encore un avenir pour des solutions dites de Cloud privé. Dans leur vision rétrograde, continuer à investir dans ses propres infrastructures ou des licences logicielles reste une bonne option pour les prochaines années.

Yeti Cloud PrivéC’est un combat d’arrière-garde, perdu d’avance. L’image qui me vient à l’esprit quand j’entends parler de Cloud privé, c’est celle d’un animal mythique, le Yeti : tout le monde en parle, personne ne l’a jamais rencontré !

Conscients de cette révolution, brutale et très rapide, il n’y a plus un seul fournisseur informatique qui ne proclame pas qu’il est «Cloud über alles».

 

  

Les fournisseurs historiques

DPC Old Gun S 103199049L’immense majorité des fournisseurs informatiques sont nés avant l’année 2000 et font partie de ceux que je nomme historiques ; ce n’est pas un défaut, mais une réalité. Depuis les années 1960, ils vendaient des serveurs, des routeurs, des disques, des licences logicielles à des clients pour qui cela représentait des dépenses en capital, du CAPEX.

Leurs modèles économiques, les modes de rémunération des commerciaux, les cycles de renouvellement des produits, les contrats de maintenance... tout était construit sur ce modèle « ventes par fournisseurs - CAPEX pour les entreprises clientes ».

L’arrivée du Cloud représente une rupture totale dans toutes les dimensions de leurs activités :

DPC dollar rupture S 12210436

  • Les ventes sont remplacées par des revenus mensuels ou annuels.
  • Les commerciaux doivent vivre avec des commissions réparties sur plusieurs années.
  • Leurs clients ont la possibilité de remettre en cause leurs choix en permanence.
  • Le rythme de développement, de mise à jour des solutions s’accélère. Une démarche pluriannuelle est remplacée par des mises à jour trimestrielles, mensuelles, voire hebdomadaires.

Seront-ils capables de s’adapter à temps pour ne pas se faire distancer par les fournisseurs Clouds natifs ? De la réponse à cette question dépend leur capacité à rester pertinents pour leurs clients.

 

Les fournisseurs Cloud/SaaS natifs

DPC Woman Lotus in Cloud S 63582089Les fournisseurs Cloud/SaaS natifs sont nés au début des années 2000 ;  Salesforce a été le grand précurseur. La majorité sont arrivés au milieu de la décennie, à partir de 2005, comme Google avec Google Apps ou AWS, Amazon Web Services.

Ils n’ont jamais vendu autre chose que des «services» d’infrastructures ou d’applications, en OPEX.

Leur culture, leur mode d’organisation, leurs équipes de développement et leurs commerciaux sont Cloud natifs, et ils n’ont jamais connus d’autre monde.

Il existe aujourd’hui plusieurs milliers de fournisseurs natifs Cloud, principalement dans le domaine des usages SaaS. Tous les éditeurs que je rencontre depuis quelques années sont natifs Cloud, sans exception.

 

Historiques contre natifs

Il n’y a qu’un seul marché informatique professionnel, et il très stable en volume, comme le montre cette étude de la société Accelerance.

Accelerance - IT market 2005 - 2015

Sur la période 2010 - 2015, le CA mondial de l’informatique a peu évolué, autour de 3 500 milliards de dollars.

Sur un marché stable, l’arrivée de nouveaux acteurs ne peut se faire qu’au détriment des anciens, et c’est ce que l’on va observer entre 2015 et 2021. Si le Chiffre d’Affaires des fournisseurs «clouds natifs» augmente fortement, cela aura pour conséquence que celui des fournisseurs historiques va... fortement baisser.

Pour illustrer ces mutations, je vous propose d’analyser trois marchés :

  • Fournisseurs IaaS, Infrastructures as a Service
  • Solutions SaaS de bureautique
  • Logiciels structurés.

Les acteurs du marché IaaS

C’est un marché intéressant, très caractéristique de la migration de l’Ancien Monde vers le nouveau :

IaaS - Servers vs Services providers

  • Le nombre d’acteurs importants est très réduit, au vu des investissements majeurs nécessaires pour être crédibles.
  • On y trouve des acteurs natifs IaaS :  AWS et Google.
  • Des acteurs historiques, IBM et Microsoft, ont créé des offres IaaS.
  • Des acteurs historiques, Dell et HP, ont essayé de se lancer sur le marché IaaS mais ont rapidement jeté l’éponge.

Les différences de «culture» entre ces fournisseurs restent fortes :

  • On ne verra jamais AWS ou Google commercialiser des serveurs ; ils ne proposent que des «services» d’infrastructures.
  • Dell, HP et les autres fournisseurs historiques de serveurs vont continuer, pendant de nombreuses années, à vendre des serveurs, tant que des DSI et des entreprises traditionnelles n’auront pas compris qu’acheter un serveur n’a plus de sens aujourd’hui.
  • IBM et Microsoft ont un pied dans les services IaaS, mais gardent... l’autre pied dans les serveurs. Ces deux acteurs ont annoncé récemment qu’ils étaient prêts à commercialiser du «Cloud in a Box», en clair, leurs solutions IaaS à installer dans les centres de calculs privés des entreprises.

Cloud in a Box - IBM & Microsoft

Solutions SaaS de bureautique

DPC mailbox cloud S 104330624C’est un sujet que j’ai traité plusieurs fois dans mon blog.

Aujourd’hui, les entreprises ont le choix entre deux solutions industrielles :

  • Google Apps, native SaaS, disponible depuis 2007.
  • Office 365, version «cloudifiée» d’Exchange et Office, lancée par Microsoft en 2011.

IBM était le deuxième leader historique de ce marché, entre 1990 et 2010, avec Lotus Notes-Domino. Sa nouvelle offre «cloud» Verse, arrivée trop tard, a très peu de chances de réussite.

AWS a lui aussi lancé une offre de bureautique SaaS en 2015, sous le nom de Workmail. Je pense que leur probabilité de devenir un acteur majeur de ce marché n’est pas très élevée.

 Logiciels structurés

La même analyse pourrait être faite dans tous les domaines du Système d’Information, et en particulier dans celui des logiciels structurés correspondant aux applications informatiques classiques.

L’opposition est totale entre les solutions ERP intégrées fin de vie, SAP ou Oracle Applications, et les nouvelles solutions SaaS «best of breed», Salesforce ou Adaptive Insight.

SaaS acquired companies logosConfrontés à l’impossibilité technique et culturelle de transformer leurs solutions historiques en véritables solutions SaaS, ces grands acteurs historiques n’ont pas d’autres options, pour exister sur le Cloud, que de racheter des éditeurs natifs SaaS :

  • SAP avec SuccessFactors ou Concur.
  • Oracle avec Taleo ou Eloqua.

Ceci leur permet de claironner, haut et fort, que leur Chiffre d’Affaires dans le Cloud est en forte croissance alors que l’essentiel de cette croissance vient de solutions qu’ils ont acquises.

Il n’y a pas un seul domaine de l’informatique qui va échapper à ce combat des fournisseurs historiques contre les Clouds natifs.

 

Entreprises, arbitres de ce duel des anciens et des modernes

DPC arbitre carton rouge S 57628772Historiques ou Clouds natifs ? Ce sont les entreprises et les DSI qui vont désigner les vainqueurs de demain.

Une grande entreprise française de plus de 100 000 salariés, avec qui j’ai eu l’honneur de collaborer à l’élaboration de leur stratégie IT, l’a bien compris. Le CTO, Chief Technical Officer, a publié un court document de 2 pages qui établit les clauses «éliminatoires» lors de la sélection de solutions logicielles.

Avec son accord, j’en ai extrait ces quelques lignes ; elles devraient faire partie de la stratégie IT de toutes les entreprises, quelle que soit leur taille.

IT Strategy french organization

Au fur et à mesure que les entreprises avancent sur la courbe de Gauss de l’innovation, les deux majorités, initiales et tardives, vont basculer l’essentiel de leur Système d’Information vers des solutions Cloud.

DPC Pie Chart S 89880934En 2021, comment le marché des solutions informatiques professionnelles sera-t-il réparti entre :

  • Les fournisseurs historiques.
  • Les fournisseurs historiques qui ont essayé de basculer vers le Cloud.
  • Les fournisseurs natifs Cloud.

Je vous laisse mettre les pourcentages sur ce «camembert»...

 


Qui sera le prochain géant des plateformes Clouds ?

 

DPC Giant Cloud Girafe S 100019673Les plateformes industrielles Clouds Publics sont devenues, en moins de dix ans, les solutions de base pour toutes les entreprises «raisonnables». Il existe encore un dernier bastion d’entreprises rétrogrades qui n’ont pas pris ce virage, mais je ne suis pas très optimiste sur leur avenir.

Ces premières années du Cloud ont permis l’émergence de géants généralistes, qui répondent aux attentes de toutes les entreprises.

On voit maintenant apparaître de nouvelles familles de plateformes Cloud, qui prennent une approche verticale, en se spécialisant sur des usages pertinents pour des secteurs d’activité bien définis.

C’est cette deuxième famille de solutions que je fais évoquer dans ce billet, mais en faisant auparavant un point sur l’état du marché, fin 2015.

 

Le marché IaaS/PaaS, fin 2015

Logos Géants Cloud PublicLes géants actuels, AWS, Google, IBM et Microsoft ont gagné la bataille industrielle des plateformes de Clouds Publics. J’avais publié il y a quelques mois un billet sur ce sujet.

Leurs offres IaaS (Infrastructures as a Service) et PaaS (Platform as a Service) sont complémentaires, et de plus en plus difficiles à séparer. Ces plateformes s’adressent en priorité aux professionnels de l’informatique, pour les infrastructures et les applications, ce qui explique le rapprochement entre IaaS et PaaS. 

Amateurs, s’abstenir.

Comme le montrent clairement les chiffres publiés par Synergy Research, la part de marché des quatre leaders augmente tous les ans. Au deuxième trimestre 2015, cette part de marché était supérieure à celle de tous leurs concurrents, ce qui n’était pas le cas il y a deux ans, en 2013.

Synergy research Cloud IaaS Q2 2015

La purge du marché est bien entamée ; c’est une excellente nouvelle pour les entreprises clientes qui n’auront plus comme fournisseurs que de véritables industriels. Deux illustrations :

La disparition des clouds «souverains» français : CloudWatt est absorbé par Orange et Numergy par SFR ; fin de la récré.

DPC Game Over Slot Machine S 95635148La sortie de ces marchés par des fournisseurs importants qui ont compris qu’ils n’avaient ni les compétences ni les moyens d’investir. La liste est déjà longue, et va s’enrichir en 2016 :

  • Verizon, qui met en vente 48 centres de calculs.
  • Rackspace, qui a abandonné la partie en 2014.
  • HP, qui choisi de s’associer avec l’un des quatre grands, Microsoft Azure.
  • Dell est aussi sorti du marché et met tous ses espoirs dans le rapprochement avec EMC, opération qui est loin d’être acquise.
  • ...

Pendant ce temps là, AWS, numéro un de ce marché, loin devant ses concurrents, continue sa croissance impressionnante.

AWS Numbers 4 quarters 2015 - copie

Les chiffres parlent d’eux-mêmes :

  • CA 2015 proche de 8 B$.
  • Bénéfices : 1,8 B$.
  • Taux de croissance Q4 2015 par rapport à Q4 2014 : 70 %.

AWS est l’activité la plus rentable d’Amazon. Nous sommes nombreux à penser qu’AWS deviendra une entreprise indépendante d’Amazon. Quand ? Je n’en ai pas la moindre idée.

  

Emergence de Clouds Publics verticaux

Predix LogoPredix ? Vous ne connaissez pas encore cette offre ? C’est l’un des futurs grands acteurs du Cloud Public, l’un des premiers à se positionner sur un marché vertical, celui de l’industrie.

Predix est une plateforme Cloud Public, IaaS & PaaS, pour le monde industriel, pour prendre en charge les applications IoT (Informatique des objets). General Electric (GE), l’entreprise industrielle aux 300 000 salariés et avec un CA de 150 B$, est à l’origine de la création de Predix.

GE Cloud Predix HP

GE se définit maintenant comme «The Digital Industrial», en ligne avec la quatrième révolution industrielle dont on a beaucoup parlé à Davos il y a quelques jours.

GE Internal usage Aviation of Predix benefitsQui mieux que GE pouvait proposer un Cloud industriel ? La division GE Aviation a servi de «cobaye» et obtenu d’excellents résultats, comme le confirme ce graphique.

Predix est encore en version ß, mais les grands usages sont clairement identifiés :

Why use Predix

  • Relier des machines au Cloud et entre elles. Un exemple cité par GE est la possibilité pour des éoliennes d’un parc énergétique de dialoguer entre elles pour échanger des informations sur leurs conditions de fonctionnement.
  • Construire des applications spécialisées, cœur métiers, pour mieux gérer ces actifs industriels
  • Anticiper les pannes et les incidents, d’où le nom «Predix», venant de prédictif.

Toutes les entreprises industrielles, toutes les entreprises qui ont des projets IoT devraient, immédiatement, ouvrir un compte Predix pour en découvrir les potentiels, mais aussi les limites.

 

Un improbable trio, GE, Predix et AWS 

A la conférence annuelle AWS, Re-Invent, qui avait lieu en octobre 2015 à Las Vegas, Jim Fowler, CIO de GE faisait partie des clients d’AWS invités à présenter leurs expériences. Son intervention, passionnante, est dans cette vidéo ; elle se situe entre les instants 1h11 et 1h19.

 

AWS Re-invent 2015 - GE Oil & Gas 52% reduction TCOLe message est très clair : GE considère AWS comme un partenaire stratégique et souhaite lui confier des dizaines de milliers d’applications. Un exemple cité par Jim Fowler est celui de la branche «Oil & Gas» ; plus de 50 % des applications ont été portées sur AWS avec une réduction du TCO de 52 %.

Mais c’est la où situation devient «intéressante» : à cette même conférence Re-Invent, AWS annonce qu’il lance un Cloud pour... l’IoT !

AWS IoT platform at Re-invent 2015

Cette plateforme est maintenant disponible sur le site AWS France.

Les plateformes GE Predix et AWS IoT s’adressent au même marché, celui des entreprises industrielles ; elles sont en concurrence frontale.

Cette situation est passionnante, car elle illustre très bien le modèle B I S que j’ai proposé au début de l’année 2015, et dont GE semble s’inspirer :

  • GE confie à un tiers, AWS, les fonctions infrastructures et Support, « I et S ».
  • GE garde pour lui les fonctions cœur métiers, « B », et construit Predix pour les héberger.

J’ai représenté sur ce schéma le rôle de ces plateformes, pour GE et pour les entreprises industrielles.

Trio GE AWS Predix

  • GE confie à AWS ses usages non cœur métiers, « I et S ».
  • GE déploie ses applications cœur métiers, « B » sur sa plateforme maison Predix.
  • Les entreprises industrielles ont le choix entre deux plateformes de Cloud pour l’IoT, Predix et AWS IoT.

Il sera intéressant de suivre ces deux plateformes pour voir qui peut devenir le leader :

  • GE : le professionnel de l’industrie qui devient fournisseur de Cloud.
  • AWS : le professionnel du Cloud qui devient fournisseur pour l’industrie.

Les paris sont ouverts.

 

Résumé

DPC activity sector S 66370529L’émergence de plateformes Clouds Publics pour des marchés verticaux démarre avec l’arrivée de Predix. Ce mouvement devrait s’amplifier dans les années qui viennent. Santé, secteur public, finances... La liste est longue des secteurs d’activité potentiels pour lesquels une plateforme Cloud verticale a du sens.

Il y a peut-être là une possibilité pour l’Europe, pour la France, de se repositionner sérieusement sur les marchés IaaS/PaaS avec des offres verticales ciblées. En agissant très vite, il reste une petite chance de réussite...

 

MAJ du 4 février 2016

Microsoft vient de confirmer l'ouverture de son Cloud Azure IoT. Il est très probable que Google et IBM vont suivre rapidement. Fin 2016, l'offre de solutions de Clouds Publics spécialisés IoT sera... en avance sur la demande.

 


Sortir d’un obscurantisme moyenâgeux : une priorité absolue pour la DSI

 

DPC ? on keyboard  S 80537639Que font vos clients internes avec leur PC ?

Quels sont les usages « Cloud Publics » déployés par les directions métiers ?

La « non-connaissance » des usages des outils mis en œuvre par la DSI dans les entreprises est impressionnante, et en particulier dans les très grandes.

Pour préparer la « modernisation de son SI », pour tirer parti des potentiels majeurs de la R2I, Révolution Industrielle Informatique, il est indispensable et urgent de connaître la réalité des usages actuels.

DPC Knowledge key to success S S 47197173J’ai une excellente nouvelle pour vous : il existe aujourd’hui des outils très performants qui permettent de sortir rapidement de cette ignorance pour basculer dans une culture de la connaissance approfondie des usages informatiques.

Dans ce billet, je vais aborder deux sujets prioritaires :

  • Les usages des PC Windows.
  • Les usages du Cloud Public.

  

Mesurer tous les usages d’un PC Windows 

J’avais déjà écrit un billet sur les usages de Microsoft Office, « La vérité sur les usages de Microsoft Office » et je m’appuyais sur les mesures réalisées avec l’outil logiciel Softwatch.

Softwatch Office stats heavy users vs LightComme on le voit sur ce graphique, la richesse des résultats obtenus est exceptionnelle et les outils d’analyse proposés permettent une compréhension très fine des usages, collaborateur par collaborateur.

Une version plus complète de ce produit, « Softwatch Optimize IT premium », permet de mesurer tous les usages d’un PC Windows, et pas seulement ceux de Microsoft Office.

Comme les PC Windows restent la fenêtre sur l’essentiel des applications « historiques » déployées dans les grandes entreprises, ces mesures permettent d’obtenir une photographie très précise de la réalité des principaux usages informatiques actuels.

Softwatch classe les clients internes en deux familles :

  • Usages légers : inférieurs à 12 ou 15 minutes par jour.
  • Usages avancés (Heavy users) : supérieurs à 12 ou 15 minutes par jour.

Softwatch Heavy users by company sizes Ce tableau compare les pourcentages d’usages avancés entre :

  • SMB : entreprises de 100 à 1 000 personnes.
  • LCS : entreprises de 1 000 à 10 000 personnes.
  • VLCS : entreprises de plus de 10 000 personnes.

Les écarts d’usages entre ces différentes tailles d’entreprises sont très faibles, plus faibles que ce que je l’imaginais.

DPC Stairs from dark to light S 59333357Softwatch m’a confirmé qu’une campagne de mesures de 3 mois est suffisante pour obtenir des résultats d’une grande fiabilité.

Imaginez que vous puissiez savoir quelle est la réalité des usages de tous vos logiciels d’entreprise avant la préparation de votre prochain budget ?

C’est maintenant possible, et il serait vraiment dommage de ne pas en profiter pour passer de l’ombre à la lumière !

 

Mesurer tous les usages des Clouds Publics

Les usages « innovants », on les trouve aujourd’hui dans le Cloud Public, depuis un navigateur et/ou un objet mobile.

Cela fait des années que le grand public l’a bien compris comme le montrent les succès de Gmail, Box, Dropbox et autres LinkedIn.

DPC Cloud Black shadow S 56930311Dans les entreprises, clients internes et directions métiers en ont rapidement découvert les avantages, parfois plus vite que... les DSI et les RSSI ! 

Et... le « Cloud fantôme » a pris son essor.

De nombreux outils, SaaS évidemment, permettent de découvrir tous les usages du Cloud Public dans les entreprises. Netskope est l’une des solutions les plus performantes que je connaisse pour faire émerger ces usages que la DSI ignore.

Netskope a posé cette question à de très nombreux DSI : quel est, à votre avis, le nombre d’applications Cloud utilisé dans votre entreprise ?

Netskope Iceberg 10 xComme le montre ce schéma, entre l’estimation des DSI, 40 à 50 environ, et la réalité, 400, il y a un rapport 10 !

Les réactions des responsables informatiques et de la sécurité des SI à qui je présente ces résultats sont très similaires :

  • Ce n’est pas possible chez nous.
  • Il faudra remettre les « contrevenants » dans le droit chemin.
  • Nous allons bloquer ces applications non autorisées.
  • ....

Pour être efficace, le comportement des responsables informatiques et sécurité doit être exactement... l’inverse :

  • Bravo pour cette volonté de travailler plus efficacement et d’avoir choisi les outils du Cloud Public.
  • Nous allons vous aider à mieux utiliser ces outils en collaborant avec vous.
  • En clair, il faut positiver ces usages et féliciter les directions métiers. 

Netskope a publié récemment le « hit-parade » des dix applications fantômes les plus utilisées, présentées sur ce schéma.

Netskope Cloud Fantôme usagesCe qui saute aux yeux, c’est que ces usages fantômes répondent à des attentes universelles, simples et logiques :

  • Quatre applications permettent de partager des contenus, des fichiers : Box, Amazon Cloud Drive, Google Drive et Dropbox.
  • Quatre applications correspondent à des usages « sociaux » : Twitter, Facebook, Google Plus et Linkedin.

Les réponses de la DSI sont donc très faciles à mettre en œuvre. Prenons l’exemple du partage de fichiers ; la DSI peut dire aux clients internes et aux directions métiers : « nous allons vous aider à mieux utiliser ces outils et à protéger les contenus que vous décidez de partager ». Pour cela, nous allons choisir l’une de ces solutions et vous demander de transporter vos contenus sur celle qui aura été choisie. C’est ce qu’a fait General Electric, qui a choisi Box pour ses 300 000 salariés.

  

Connaître, pour agir

DPC Knowledge into action S 75403280Armée de cette double connaissance des usages historiques, depuis un PC et des usages innovants dans le Cloud Public, la DSI peut rapidement passer à l’action et obtenir des résultats positifs pour toutes les entités concernées : 

  • Les clients internes, en leur proposant des postes de travail et des services mieux adaptés à la réalité de leurs usages.
  • Les Directions métiers, en les aidant à mieux utiliser et à sécuriser les applications « fantômes ».
  • Les financiers, en réduisant les dépenses liées à des licences logicielles inutiles.
  • Les DSI, en prenant une démarche proactive vers les clients internes et les directions métiers et en n’étant plus ceux qui disent « non ».
  • Les RSSI, en construisant une plateforme de « confiance » permettant à tous les salariés d’utiliser efficacement les seuls outils dont ils ont réellement besoin.

  

Connaître, un investissement au ROI spectaculaire

DPC ROI S 73419599L’investissement que vous allez faire dans les 3 mois qui viennent, pour mener cette double campagne de mesures sur les PC Windows et les usages du Cloud Publics vous permettra de préparer votre budget de l’année prochaine :

  • Où seront supprimés immédiatement des millions d’euros dépensés inutilement aujourd’hui dans des logiciels peu ou pas utilisés.
  • Sans réduire les services proposés à vos clients internes, au contraire.

Everything about Sex : ITCette connaissance, cette transparence sur la réalité des usages informatiques dans votre entreprise, aucune personne de bonne volonté ne peux être contre.

En paraphrasant un film célèbre, je vous propose de vous aider à répondre à la question : 

« Tout ce que vous avez toujours voulu savoir sur «les usages informatiques»... sans jamais oser le demander »

 


Combien d’informaticiens professionnels, demain ? L’urgence ! Anticiper 2021+, dès aujourd’hui. Première partie : les faits

 

Storm beachA la veille d’une période qui va permettre aux informaticiens de prendre quelques jours ou semaines de vacances, je risque, par ce billet, de gâcher une partie de leurs vacances ; je m’en excuse par avance !

Cela fait plus de 30 années que je travaille dans le monde de l’informatique et j’ai vécu les grandes mutations qui ont secoué notre industrie sur cette période, le PC, Internet... Je suis aujourd’hui profondément persuadé que la R2I, la Révolution Industrielle Informatique qui a démarré est, de très loin, la plus profonde mutation que va connaître notre industrie et qu’elle aura des impacts majeurs sur les métiers et l’emploi des informaticiens.

 

Pourquoi ce cri d’alerte ? Pourquoi maintenant ?

Conférence Louis Naugès suisseAu cours de ces derniers mois, j’ai animé des dizaines de séminaires, inter et intra entreprises, rencontré des centaines d’informaticiens devant qui je présentais les potentiels et les challenges du Cloud Computing et de la R2I, la Révolution Industrielle Informatique.

Dans l’immense majorité des cas, les messages sont bien passés, bien reçus et considérés comme intéressants et pertinents. 

Par contre, dans les échanges qui suivaient mes interventions, j’ai été frappé par le calme « olympien » d’un grand nombre de mes interlocuteurs, comme s’ils ne se sentaient pas vraiment concernés par les révolutions que j’annonçais.

Je n’avais probablement pas expliqué suffisamment, pas insisté avec la force nécessaire sur le côté inéluctable, brutal et rapide de ces (r)évolutions.

 

2021 +

Logo 2021+Je vous propose de vous projeter dans la prochaine décennie, dans les années 2021+, et de visualiser ce que seront les grandes caractéristiques de l’informatique à cette époque.

Pourquoi 2021+ ? C’est suffisamment loin pour que l’on ne soit pas prisonnier des contraintes à court terme. C’est suffisamment proche pour que l’on puisse, raisonnablement, anticiper les grands changements.

Quelle sera la situation, à partir de l’année 2021 :

Google-glass-in-white

  • 6 milliards de personnes seront équipées d’objets mobiles connectés en permanence.
  • Nous serons équipés de multiples smartphones, tablettes, PC portables et de nouvelles générations d’objets mobiles « wearable », tels que les Google Glass ou les montres iWatch, tous commercialisés à des prix très bas.
  • 50 milliards d’objets, voitures, capteurs, distributeurs... seront connectés.
  • Les réseaux sans fil haut débit et très haut débit, disponibles partout, auront des vitesses supérieures aux attentes de la grande majorité des utilisateurs. 
  • Les fournisseurs industriels d’infrastructures proposeront toute la puissance de calcul et la capacité de stockage dont on aura besoin à des coûts extrêmement compétitifs.
  • Plus de 80 % des besoins applicatifs, professionnels et grand public, seront couverts par des solutions industrielles SaaS, Software as a Service, de très haute qualité, à des coûts très bas.

On peut bien sur contester certains de mes chiffres, mais l’essentiel est de comprendre, d’accepter les ordres de grandeur de mes prévisions, que j’ai voulues conservatrices.

Vous n’êtes pas convaincu ? 

Global phones subscribtions:populationCe graphique montre que le nombre d’abonnements à des réseaux mobiles est, en 2013, pratiquement équivalent aux nombres d’habitants sur la terre. 

Il faut bien sur tenir compte du fait que de nombreuses personnes ont plusieurs abonnements, mais ces deux courbes vont se croiser en 2014 !

 

Impacts sur les emplois en Informatique

De nombreuses études ont été publiées, qui tentent de démontrer l’impact bénéfique Cloud Computing sur l’emploi.

Cloud computing job creation 2015Une étude IDC, sponsorisée par Microsoft, annonce 14 millions de créations d’emplois d’ici 2015.

Une autre étude, financée par EMC2, prévoit la création de 2,4 millions d’emplois d’ici 2015, pour la seule zone Europe.

Dans ces deux études, il s’agit d’emplois directs et indirects, en clair dans tous les secteurs de l’économie et pas seulement dans les métiers de l’informatique.

Est-ce que les emplois informatiques directs seront plus nombreux en 2021+ qu’en 2013 ? Réponse : non !

Est-ce que les emplois informatiques directs seront beaucoup moins nombreux en 2021+ qu’en 2013 ? Réponse : oui !

Job destructionIl est rare que l’industrialisation d’un secteur crée plus d’emplois directs qu’elle n’en détruit : je ne vois pas pourquoi l’informatique serait une exception à cette règle.

Il faut donc poser la question qui fâche :

Combien d’informaticiens professionnels seront nécessaires dans les entreprises en 2021+ ?

Plus que le secteur d’activité, c’est la taille des entreprises qui me servira de critère principal dans mon analyse.

 

Informaticiens dans les TPE et PME

NO ITEn 2021+, la situation sera claire :

  • Aucune TPE/PME n’hébergera de serveurs.
  • 100 % de leurs applications seront en SaaS.

Il y aura donc zéro possibilité d’emploi dans les TPE/PME pour les professionnels de l’infrastructure ou du développement d’applications.

Ces entreprises auront par contre besoin d’un professionnel de haut niveau, connaissant bien l’offre et leur secteur d’activité, capable de les aider à choisir les composants IaaS et SaaS dont elles ont besoin. Dans la majorité des entreprises, ce ne sera pas un job à temps plein, un peu comme le font aujourd’hui les experts comptables.

CCI, Chambres d’Agriculture et Chambres de Métiers pourront jouer un rôle clef de conseil et de mutualisation de ressources pour leurs adhérents.

 

Informaticiens dans les organisations de taille moyenne

Je mettrai dans cette famille les organisations, publiques ou privées, qui font travailler aujourd’hui moins de 50 informaticiens.

Shrinking IT teamEn 2021+, dans ces organisations :

  • Il n’y aura plus de centres de calcul privés : les éventuels besoins en serveurs spécialisés seront pris en charge par les grands acteurs industriels du monde IaaS, AWS (Amazon Web Services), GCE (Google Compute Engine), IBM ou Microsoft. Une équipe de gestionnaires d’infrastructures, très réduite, restera nécessaire pour optimiser ces usages IaaS.
  • Des professionnels des usages resteront indispensables, mais en très petit nombre, pour sélectionner les solutions SaaS correspondantes à 80 % ou 90 % des besoins et développer les applications cœur métier que l’entreprise souhaitera garder pour accroître sa compétitivité et se différencier de ses concurrents.

De combien va se réduire la taille des équipes informatiques dans ces entreprises moyennes ? Une fourchette de 60 % à 80 % me parait réaliste.

 

Informaticiens dans les grandes organisations

Ce sont dans ces organisations que l’on trouve la majorité des informaticiens, avec des équipes qui peuvent dépasser les 5 000 personnes.

IT team large organizations 50:50Dans ces grandes organisations, les effectifs d’informaticiens sont le plus souvent répartis à parts égales entre :

  • Des informaticiens salariés.
  • Des personnes externes, venant pour l’essentiel de sociétés de services.

Cette caractéristique est fondamentale, car elle constitue ce que l’on appelle « pudiquement » une variable d’ajustement des effectifs.

I love mainframeLa majorité de ces grandes organisations ont une informatique constituée de strates techniques successives avec encore beaucoup de solutions « historiques » :

  • Infrastructures : Mainframe IBM, AS/400, serveurs Unix de Sun-Oracle, HP ou IBM... Ces familles de serveurs ne peuvent pas migrer sur des IaaS industriels, composés pour l’essentiel de serveurs X86. J’ai longuement parlé de ce sujet dans un texte récent sur l’amaigrissement des centres de calculs.
  • Universities teach cobol 1 of 4
  • Applications : Cobol reste un langage informatique très utilisé dans les grandes organisations ! Les chiffres sont contestés, mais le Gartner Group estimait à plus de 240 milliards le nombre de lignes de Cobol utilisées dans les entreprises. La migration de tous les usages transverses vers des solutions SaaS permettra de réduire la « surface » des applications historiques, mais je ne suis pas prêt à parier sur la mort du Cobol en 2021+ !

De manière paradoxale, ce sont donc les informaticiens qui travaillent sur les infrastructures et les applications les plus anciennes dont l’emploi ...sera le moins menacé !

La réduction des effectifs d’informaticiens sera donc moins prononcée dans les grandes organisations qui ne devraient perdre « que » :

  • 50 % d’informaticiens dans les équipes d’infrastructures.
  • 50 % d’informaticiens dans les équipes d’études.

Ce sont évidemment les sociétés de services qui vont souffrir le plus de ces ajustements, car il est plus facile pour une grande organisation de terminer un contrat de services que de supprimer des postes internes.

 

Anticiper, aujourd’hui, pour éviter des catastrophes humaines, demain

Faire autrucheIl est toujours possible de faire l’autruche, de nier des changements majeurs qui se profilent à l’horizon parce que cela dérange et remet en cause le statu quo. 

Je pense qu’il vaut mieux affronter, immédiatement, ces ruptures pour éviter des catastrophes humaines dans les dix années qui viennent...

Dans la deuxième partie de cette analyse, je proposerai des pistes d’action pour toutes les entités concernées :

  • Les informatiques internes des entreprises.
  • Le monde de l’éducation.
  • Les fournisseurs informatiques.
  • Les sociétés de services informatiques.
  • Le monde politique.
  • ...

Dans la troisième partie, je répond à deux questions : quels sont les emplois d'avenir ? Où ?

 


Les centres de calculs de demain : un régime d’amaigrissement de choc !

 

I shrunk the kids« Chérie, j’ai rétréci les gosses ». Dans ce film célèbre, un scientifique réduit fortement la taille d’un groupe d’enfants.

La R2I, Révolution Industrielle Informatique va avoir le même effet sur tous les centres de calcul informatiques des entreprises, de toutes les entreprises, quelle que soit leur taille.

Cet amaigrissement, inéluctable, va être rapide et brutal ; comment l’anticiper, le gérer, s’y préparer ? Ce sont des questions que tous les responsables informatiques, et en priorité ceux qui gèrent les infrastructures doivent se poser, aujourd’hui.

 

La situation actuelle

AWS market growth copieL’utilisation de solutions Cloud Computing industrielles d’infrastructures, IaaS (Infrastructure as a Service) reste encore largement minoritaire, même si les deux leaders mondiaux, Amazon avec AWS et Google avec GCE ont des taux de croissance impressionnants.

L’essentiel des applications d’une entreprise fonctionne encore sur des serveurs qu’elle achète, en CAPEX.

CCP - Aujourd'huiPour savoir quelles sont celles qui sont susceptibles d’être confiées à des serveurs tiers, je vous propose le modèle d’analyse représenté sur ce schéma.

Votre CCP, Centre de Calcul privé héberge :

  • Des applications universelles, transverses, messagerie, CRM, gestion budgétaire, décisionnel...
  • Des outils spécialisés de développement d’applications, quand bien sur il existe des équipes de développeurs en interne.
  • Des usages « cœur métier », très spécifiques de vos activités ; les serveurs sur lesquels fonctionnent vos applications peuvent être :
  •     Des serveurs x86, Intel ou AMD, fonctionnant sous Linux ou Windows Server.
  •     Des serveurs qui utilisent des OS ou matériels propriétaires, Z/OS ou AS/400 d’IBM, Sun Ultrasparc....

Cette distinction est importante, car les solutions IaaS actuelles ne couvrent que les serveurs X86.

Avant de s’intéresser aux véritables solutions Cloud Computing, innovantes, flexibles et très économiques, il faut tordre le cou à deux démarches dangereuses, poussées par l’immense majorité des fournisseurs informatiques historiques, la virtualisation et le Cloud privé

 

La virtualisation, l’arme de défense des acteurs historiques

Virtualization ServicesLa virtualisation est une technique très ancienne, proposée par IBM et Digital Equipment depuis les années 80. Elle a été remise à la mode il y a plus de  dix ans et le leader actuel de ce marché est VMWare.

Les solutions IaaS sont une catastrophe pour les vendeurs de serveurs et des logiciels associés, car les entreprises qui migrent sur le Cloud... n’achètent plus de serveurs.

Ces fournisseurs tiennent donc un discours très bien rodé : « Avant de migrer vers le Cloud, commencez par virtualiser tous vos serveurs. »

Cette démarche est très dangereuse, à éviter absolument ! Ce qu’ils vous proposent, c’est de virtualiser, donc de conserver en interne vos serveurs.

La bonne démarche, que l’on verra plus loin, consiste d’abord à externaliser un maximum d’applications en SaaS (Software as a Service) et les serveurs qui vont avec. On peut éventuellement, ensuite, virtualiser les serveurs qui restent.

Virtualiser un serveur Exchange ou Lotus Notes quand la décision raisonnable consiste à basculer sa messagerie sur un cloud public est le parfait exemple d’une décision... peu raisonnable ! (pour garder un langage châtié).

 

Cloud Privé, le Yeti de l’informatique

Après avoir réussi leur première entourloupette avec la virtualisation, les fournisseurs historiques ont inventé un deuxième truc encore plus nul, connu sous le nom de « Cloud Privé ».

Journey to the private cloudC’est encore un discours qui a pour seul objectif de défendre les intérêts des vendeurs de serveurs, qui essaient par tous les moyens de retarder la migration des entreprises vers de véritables solutions Clouds, publics ou communautaires.

Le discours est toujours le même : « Commencez votre migration vers le Cloud par une première étape, la construction d’un Cloud Privé ». 

Ces Clouds privés sont évidemment présentés comme pleins de qualité, sécurité, confidentialité, économie...

YetiIl y a un seul petit problème : les clouds privés n’existent pas ! Ils me font penser au Yeti, animal mythique dont tout le monde parle et que personne n’a jamais vu.

Quand l’entreprise construit un cloud privé, elle fait des dépenses d’investissements, en CAPEX, ce qui est la négation du Cloud qui privilégie les dépenses de fonctionnement, OPEX, sujet traité récemment dans ce blog.

Je préfère donc parler de CCP, Centre de Calcul Privé, qui correspond à la réalité des serveurs que vous gardez sous votre contrôle.

 

Une stratégie moderne et innovante

Maintenant que les deux démarches archaïques et dangereuses ont été éliminées, il est temps de mettre en œuvre la stratégie innovante et très rentable présentée dans les lignes qui suivent.

Elle est visualisée sur le schéma ci-dessous, avec 5 décisions différentes :

CCP - Aujourd'hui, demain

  • 1 - Pour 100 % des applications universelles déployées dans votre entreprise, il existe d’excellentes solutions SaaS. En basculant sur ces solutions, vous éliminez immédiatement... tous les serveurs qui étaient utilisés pour les héberger. Cela représente le plus souvent de 30 à 50 % de vos serveurs.
  • 2 - En basculant tous le travail des développeurs sur des solutions PaaS, Platform as a Service, vous allez faire beaucoup d’heureux :
  •     Les développeurs, qui auront enfin toute la puissance de calcul dont ils ont besoin, et en permanence.
  •     Les financiers, car les coûts de développement vont être réduits dans un rapport dix ou plus. Le nombre de serveurs utilisés pour des développements représente souvent moins de 10 % du total des serveurs, mais c’est toujours cela de gagné.
  • 3 - J’ai séparé les serveurs x86 en deux groupes : ceux qui sont utilisés pour des applications qui peuvent très bien être exécutées sur des plateformes IaaS ; c’est l’immense majorité de vos applications actuelles.
  • 4 - Pour les rares applications sur serveurs x86 que vous ne pouvez pas migrer sur une plateforme IaaS, il vous reste deux options :
  •     L’hébergement (Hosting), qui consiste à louer des serveurs chez un hébergeur, solution qui existe depuis des dizaines d’années.
  •     Les garder dans votre CCP, Centre de Calcul privé.
  • 5 - Il n’est pas possible, aujourd’hui, d’utiliser une solution IaaS pour les serveurs non x86. Vous pouvez donc, comme pour la situation 4 ci-dessus :
  •     Choisir l’hébergement.
  •     Les garder dans votre CCP.

 

Votre Centre de Calcul Privé, demain

Empty-data-centerVotre parc existant de serveurs a maintenant bien maigri :

  • Tous ceux utilisés pour les applications 1, 2 et 3 du schéma précédent ont disparu de votre stock.
  • Pour les applications 4 et 5, une partie a migré chez des hébergeurs ; ils ne sont plus chez vous, même si vous devez encore vous en occuper de temps en temps.
  • Il reste, peut-être, de 5 à 20 % de vos serveurs initiaux qui doivent, objectivement, rester dans votre nouveau Centre de Calcul privé, qui va passer de la taille XXL à la taille 8 ans !

J’allais oublier ! Vous pouvez, maintenant, virtualiser les serveurs restants pour en réduire un peu plus le nombre.

Produire de l’énergie informatique en interne ? Ce n’est vraiment plus d’actualité !

 


2013 - 2016 : solutions stabilisées, usages innovants généralisés

 

InnovationEn informatique, les périodes de rupture de l’offre alternent avec des périodes de stabilisation et de généralisation des usages de ces outils, devenus plus faciles à déployer grâce à leur raisonnable maturité.

En 2013, après une période de très fortes innovations, nous sommes entrés dans une période de « stabilisation de l’offre », et c’est une excellente nouvelle pour les entreprises ; elles vont pouvoir concentrer leur énergie sur le déploiement massif des innovations nées dans la période 2007 - 2012.

 

Rappel : les vagues précédentes : 1990 - 2000 et 2000 - 2007.

Microsoft avait été le grand gagnant de la décennie 1990 - 2000 ; le PC Windows-Office est devenu le poste de travail de plus de 90 % des utilisateurs professionnels de l’informatique. 

2007 rupture - StabilisationLes deux autres grandes innovations : 

  • La vague ERP, emmenée par SAP, a tout submergé sur son passage.
  • Linux, le premier grand succès du mouvement Open Source.

Il ne c’est pas passé grand-chose d’intéressant du coté de l’offre dans la première moitié des années 2000 ; les entreprises en ont profité pour confirmer et stabiliser leurs choix techniques. Les migrations de versions de logiciels étaient, pour l’essentiel, les seuls grands changements.

  

Période de rupture : 2007 - 2012

La période 2007 - 2012 a vu naître un très grand nombre de ruptures majeures dans l’offre et l’arrivée de nombreuses solutions innovantes, dans tous les domaines des infrastructures et des usages.

Alternance rupture - StabilisationSans vouloir être exhaustif, je peux citer :

  • Les postes de travail mobiles : smartphones, tablettes, PC portables.
  • Les réseaux sans fil haut débit, 3G+ et LTE.
  • Les clouds publics industriels : Amazon Web Services, Google...
  • Les usages transverses SaaS : CRM, RH, budgets, Business Intelligence, BPM ...
  • Les solutions de « participatique » sur le Cloud.
  • SoLoMo : Social, Local et Mobile, les bases des nouveaux usages.
  • ....

Ces ruptures ont donné naissance à des produits et solutions qui ont atteint, en 2013, un niveau de maturité raisonnable.

 

Postes de travail : des prix en forte baisse

J’ai une autre bonne nouvelle à vous annoncer : nous allons assister, au cours des 2 à 3 prochaines années, à une forte baisse du prix de vente des postes de travail professionnels utilisés dans les entreprises, comme le montre ce tableau.

Baisse prix postes travail 2013 -15En 2013, il faut encore débourser :

  • Entre 300 € (Nexus 4 8 Go) et 900 € (iPhone 5 64 Go) pour un smartphone.
  • Entre 200 € (Nexus 7 8 Go) et 1 100 € (Surface Pro avec clavier) pour une tablette.
  • Entre 300 € (Chromebook Samsung) et 1 500 € (MacBook pro Retina) pour un PC portable.

Il existe bien sur des produits moins chers et plus chers, mais ces chiffres représentent des fourchettes raisonnables de ce qu’achètent aujourd’hui les entreprises.

Projetons-nous fin 2015 ; j’ai estimé, dans le tableau ci-dessus, les nouvelles fourchettes des prix de vente de ces familles de postes de travail. Le « panier moyen » devrait baisser d’environ 50 %, avec des performances en hausse. C’est quand même une excellente nouvelle pour les entreprises.

ARM processor $ 200 smartphonesAu moment où je terminais ce billet, ARM, le fournisseur des processeurs pour la très grande majorité des smartphones et tablettes, confirme mes hypothèses avec l’annonce de Cortex A12, une nouvelle famille de processeurs quadricœurs pour les smartphones à ... 200 $.

 

Période de déploiement intensif : 2013 - 2016

Des milliers d’entreprises innovantes ont montré la voie : la majorité des entreprises peut, tranquillement, prendre exemple sur leurs succès et déployer ce qui fonctionne déjà très bien chez les innovateurs.

R2I G9+Les briques de base de cette R2I, Révolution Industrielle Informatique, sont bien connues :

  • Des réseaux sans fil haut débit, à coût raisonnable.
  • Des postes de travail mobiles, à coût raisonnable.
  • Toute la puissance de calcul dont on a besoin sur des Cloud publics, à coût raisonnable.
  • Des centaines de services SaaS, à coût raisonnable.
  • La possibilité d’assurer une excellente sécurité et confidentialité, à un coût raisonnable.

Innovation strategyChaque entreprise peut, doit, aujourd’hui, définir sa stratégie d’innovation dans les usages pour les trois ans qui viennent, en faisant son « marché » parmi cette très grande panoplie de solutions disponibles.

Sur le plan financier, ces innovations dans les usages vont permettre d’accélérer le basculement d’une approche CAPEX, investissements, vers une démarche en priorité orientée vers des budgets OPEX, de fonctionnement. Tous les dirigeants assisteront aussi avec plaisir à une baisse de leurs coûts informatiques.

Si, Directeur Général ou DSI de mon entreprise, je devais définir une cible 2016 raisonnable en quelques mots simples, ce serait :

Happy users100 % de mes clients, 100 % de mes collaborateurs peuvent, depuis n’importe quel objet mobile, accéder, en tout lieu, chaque fois qu’ils le souhaitent, à l’ensemble des services qu’ils sont en droit d’attendre de mon entreprise.

 

L’après 2016

Baby Google GlassLes innovations de rupture qui vont à nouveau ébranler le monde de l’informatique devraient pointer le bout de leur nez à partir de 2016.

Quelles seront les prochaines innovations de rupture qui vont nous permettre de travailler autrement, de proposer de nouveaux services innovants à nos clients externes et à nos collaborateurs ?

Chacune, chacun d’entre nous a des idées sur ces sujets : on aura d’autres occasions d’en reparler.

 


All About The Cloud : retour sur cette conférence à San Francisco

 

AATC 2013 logoTous les ans, la SIIA (Software & Information Industry Association) organise la conférence AATC, All About The Cloud, « tout sur le cloud ». J’ai eu l’opportunité d’y participer cette année, du 7 au 9 mai, à San Francisco.

C’est un lieu de rencontre avec l’offre de solutions et une excellente occasion de dialoguer avec des acteurs importants du marché du Cloud.

Il ne serait pas raisonnable d’essayer de présenter ici toutes les conférences ; j’ai choisi de faire un rapide résumé de 3 ou 4 d’entre elles et de mettre en « vedette » l’exposé d’Adrian Cockcroft, « Director of Infrastructure, Cloud Systems » de Netflix.

 

Netflix, quand un industriel du logiciel collabore avec un industriel de l’infrastructure

Adrian Netflix CTONetflix est le premier fournisseur mondial de VOD, Vidéo à la demande. L’exposé fait par Adrian Cockcroft sur leur stratégie Cloud était vraiment impressionnant.

Tous les responsables d’infrastructures et d’applications des grandes et très grandes entreprises devraient s’inspirer de la démarche « industrielle » de Netflix, qui explique comment on peut fournir des services de qualité avec des composants imparfaits. Il définit très bien ce « nouveau challenge d’ingénierie » : « Construire des services extrêmement agiles et à très haute disponibilité en utilisant des composants éphémères et souvent cassés (broken) »

Une version très proche de sa présentation faite à AATC 2013 est disponible sur le Web, sur... Slideshare, cela va de soi !

Netflix OSS logoNetflix est en train de développer une plateforme logicielle, 100 % Open Source évidemment, qui permettra de développer des services industriels à très haute volumétrie.

Le titre de son exposé était : Dystopia as a Service

Je me suis précipité sur Wikipédia pour savoir ce que signifie dystopie ; c’est l’inverse de l’utopie. 

On retrouve dans son remarquable exposé une opposition classique entre le monde anglo-saxon, très pragmatique, et la culture française qui privilégie trop souvent l’utopie du parfait.

C’est particulièrement vrai en informatique où nous avons inventé des absurdités qui ont pour noms maîtrise d’ouvrage, maîtrise d’œuvre et autres cahiers des charges de centaines de pages censés représentés les besoins idéaux des utilisateurs.

NetFlix Pattern failuresComme le dira souvent Adrian dans son exposé, nous vivons dans un monde imparfait où il y a des :

  • Pannes matérielles.
  • Pannes d’infrastructures logicielles.
  • Pannes d’applications.

Toute la démarche « dystopienne » de Netflix consiste à accepter qu’un monde informatique parfait ne soit qu’une utopie et faire en sorte que les clients de Netflix disposent de services de très haute qualité, indépendamment de toutes les pannes qui se produisent dans les différents composants informatiques utilisés.

Netflix share of downloadPour ceux qui ne connaissent pas bien Netflix, ses clients représentent un tiers des flux internet, le double de ceux de YouTube !

A titre d’illustration, Netflix a fait récemment un test de « survie » en fermant d’un seul coup 1/3 des serveurs utilisés pour vérifier que cette « grande panne » n’avait aucun impact sur la qualité perçue du service.

Une autre idée forte que j’ai retenue de cette présentation est celle de la démarche « BusDevOps » : les métiers (Business) travaillent avec les développeurs (Dev) et l’exploitation (Operations). Chaque ligne BusDevOps travaille indépendamment des autres, peut apporter chaque jour, chaque minute, des modifications aux services proposés et doit pouvoir le faire sans se préoccuper des potentiels impacts sur les autres BusDevOps ! Plus facile à dire qu’à réaliser !

Je reviens maintenant au titre de ce paragraphe : industriel du logiciel, industriel de l’infrastructure.

Netflix est le premier client mondial d’AWS, Amazon Web Services, lui-même premier fournisseur mondial d’IaaS (Infrastructure as a Service) et y consomme plus d’un milliard d’heures de calcul par mois !

Adrian Cockcroft a présenté son estimation de la croissance de la puissance des infrastructures d’AWS : elle double tous les ans, ce qui correspond à une multiplication par 10 tous les 3 ans !

Growth Amazon, seen by Netflix

Son message était clair : oui, nous pourrions investir des centaines de millions de dollars dans notre propre infrastructure, mais :

  • AWS le fait plus vite et mieux que nous, et nous permet d’avoir à tout moment une puissance de calcul adaptée à une demande très variable selon les jours et les heures de la journée.
  • Nous préférons investir 100 M$ dans notre cœur de métier, les contenus vidéos, plutôt que dans des serveurs.

Pour conclure sur cette impressionnante et très innovante vision de l’évolution des applications industrielles Cloud à haute volumétrie, je reviens sur la dimension Open Source du projet.

Netflix a mis en Open Source tous ses travaux dans les solutions logicielles, et explique très bien pourquoi dans ces deux slides :

Netflix OSS projectQuatre objectifs :

  • Transformer leurs solutions actuelles en standards et meilleures pratiques du marché.
  • Embaucher, garder et motiver les meilleurs collaborateurs.
  • Faire de Netflix une marque technologique.
  • Profiter en interne de la création d’un écosystème autour de ces solutions Open Source.

Prochaines étapes :

  • Priorité actuelle à l’amélioration des fonctionnalités et la « scalabilité » puis, dans une deuxième étape, à la portabilité sur d’autres infrastructures IaaS.
  • Transformer cet ensemble de composants en une plateforme.
  • Faire grandir l’écosystème autour de ses solutions.
  • Promotion d’un nouveau concept que j’aime beaucoup ! MTBIAMSH « Mean Time Between Idea And making Stuff Happen » = réduction du délai entre une idée et sa réalisation.

Cela fait vraiment plaisir, rend encore plus optimiste de rencontrer des entreprises aussi innovantes et capables de faire avancer les meilleures pratiques qui rendront le « nuage » encore plus indispensable, demain.

Merci, Netflix, merci Adrian pour cet exposé !

 

Bill McNee, CEO de Saugatuck Technology

Bill McNee AATC 2013Bill est bien connu des lecteurs de ce blog et intervient souvent dans les conférences Cloud. Saugatuck Technology est l’une des meilleures sources d’information que je connaisse sur la réalité du marché Cloud / SaaS dans les grandes entreprises.

Saugatuck - Shift to SaaSIl a présenté les résultats d’une enquête qu’il vient de terminer en avril 2013 ; l’un des graphiques qu’il en a extrait illustre très bien l’impressionnante croissance du Cloud dans les grandes entreprises : entre 2013 et 2015, plus de 50 % des entreprises auront porté la majorité de leur portefeuille applicatif sur le Cloud.

 

Le concours du meilleur Geek

Un peu d’humour, cela fait aussi du bien ! 

Geeks CompetitionTrois dirigeants d’entreprises à succès du Cloud, Dave Batt, CEO de FPX, Rick Nucci, fondateur de Boomi, revendu à Dell et Treb Ryan, fondateur d’Opsource, revendu à Dimension Data, ont accepté de se participer à un concours de questions sur le Cloud, dans la logique d’un jeu télévisé bien connu.

Je ne sais pas combien de dirigeants français accepteraient de ce livrer en public à ce petit jeu, qui mettrait en évidence leurs connaissances ou... non-connaissances du Cloud Computing.

  

Table ronde sur « Opportunities Ahead » (Les opportunités, demain)

AATC Louis Round Table 1J’ai participé à cette table ronde, la dernière de la conférence, avec d’autres « analystes » : Jeff Kaplan, Maribel Lopez et Phil Wainewright, qui sont des personnes que je connais depuis longtemps.

La dynamique « Cloud - Mobile » a été au cœur des débats, et de nombreux thèmes que j’aborde dans mon blog ont été au centre des échanges, HTML5, WebRTC, la place des « app store », l’émergence d’un monde IT plus industriel...

A la fin de la table ronde, l’animateur a demandé à chacun quel serait le thème « à la mode » en 2014 : j’ai répondu le « wearable computing », en faisant référence aux iWatch d’Apple ou aux Google Glass. On fera le point, dans un an...

 

Les Codies Awards

Pendant le déjeuner de clôture, la SIIA a remis les Codie Awards qui récompensent les « meilleures solutions » logicielles de l’année 2013 ; il y avait cette année... 27 catégories différentes, donc 27 vainqueurs ; vous trouverez ici la liste des gagnants.

Vainqueurs Prix Coodies awardsHeureusement que la cérémonie de remise des prix avait lieu pendant le déjeuner, ce qui permettait une alternance entre les remises de prix et les différentes étapes du déjeuner !

  

Trophées EuroCloud France 2013

EuroCloud Etats générauxIl y aura dans quelques jours, le 21 mai à Paris, une manifestation proche dans son esprit de la réunion à laquelle je viens d’assister, les Etats Généraux du Cloud Computing, organisés par EuroCloud France, auxquels il est encore possible de s’inscrire.

EuroCloud et la SIIA viennent d’ailleurs de signer un accord de collaboration pour promouvoir les solutions Cloud et SaaS sur les marchés mondiaux.

Au cours de cette journée seront remis les trophées du Cloud, septième édition ; il n’y a que six catégories différentes de prix, face aux 27 des AATC 2013. 

Je suis membre du jury et nous avons analysé plus de 100 dossiers, ce qui confirme, si cela était nécessaire, l’importance de cette révolution. 

 


Informatique : la disparition des investissements par les entreprises !

 

OpEX CapEXNon, il ne s’agit pas d’annoncer une catastrophe économique qui ferait que les entreprises arrêteraient d’investir en Informatique.

Il s’agit au contraire d’une excellente nouvelle pour des dirigeants, les directeurs financiers et les informaticiens : la grande majorité des « investissements » que l’on retrouve dans un budget CAPEX (Capital) vont passer dans un budget de fonctionnement OPEX (Operations).

Ce Tsunami financier va toucher tous les domaines de l’informatique, infrastructures et usages.

 

Infrastructures

Réseaux, serveurs et postes de travail, les trois composants principaux d’une infrastructure informatique sont impactés par cette révolution. 

Réseaux 

Depuis longtemps, l’immense majorité des entreprises achètent leurs réseaux externes à des opérateurs et sont déjà en OPEX. Ce mouvement c’est étendu aux réseaux mobiles, qui deviennent le moyen d’accès dominant de tous les utilisateurs.

La situation est différente en ce qui concerne les réseaux internes, les LAN Local Area Networks, qui sont encore majoritairement en Ethernet filaire, mais la situation change très vite.

OneAccess RouterDe plus en plus d’entreprises basculent sur des réseaux LAN Wi-Fi quand le nombre d’utilisateurs ne dépasse pas une centaine dans un même lieu. Ces réseaux peuvent maintenant être déployés avec des performances professionnelles et se substituer totalement aux réseaux filaires, éliminant tous les investissements en câblage et commutateurs Ethernet.

C’est ce que permettent maintenant des solutions multiaccès comme celles proposées par OneAccess

OpenFlow routerPour les grands sites qui auront encore besoin, pendant de nombreuses années, de réseaux filaires très rapides, les investissements seront encore nécessaires, mais fortement réduits par le déploiement des SDN, Software Defined Networks et en particulier des solutions Open Source autour d’Open Flow.

Serveurs

AWS vs GCEPour les entreprises petites ou moyennes, la question ne se pose plus ; leurs coûts de gestion en interne d’un parc de quelques dizaines ou centaines de serveurs deviennent prohibitifs face aux prix que peuvent leur proposer les grands industriels tels que AWS d’Amazon, Azure de Microsoft ou GCE (Google Compute Engine). 

Les deux autres avantages évidents d’un passage en OPEX :

  • Flexibilité ; on ne paye que les heures utilisées.
  • Puissance variable : j’ai toujours accès à la puissance dont j’ai besoin, même si j’ai de fortes variations d’activité.

Pour les très grandes entreprises, ce basculement vers des solutions IaaS (Infrastructure as a Service) prendra plus de temps. 

Netflix on AWS - Things we don't doL’un des exemples les plus significatifs est celui de Netflix, le leader américain de la VOD (Vidéo à la Demande). Netflix consomme 1 milliard d’heures de calcul par mois sur AWS, correspondant à 95% de sa consommation informatique. Cette slide est extraite d’une présentation faite par le CEO de Netflix et présente les principales raisons de ce choix. Le mot « wait » (attendre) y est présent plusieurs fois !

Postes de travail

C’est, aujourd’hui, le poste de dépenses le plus élevé du budget informatique des grandes entreprises. Le TCO, Total Cost of Ownership, des PC Windows, de loin les postes de travail les plus répandus dans les entreprises, est évalué par le Gartner Group à 3500 $ par an, comme je le rappelais récemment.

Trois évolutions majeures vont changer la donne et réduire, fortement, les investissements des entreprises pour leurs postes de travail :

IDC market share mobile device

  • La domination des objets mobiles : tablettes, smartphones, PC mobiles représentent plus de 80 % des objets d’accès vendus en 2012. La majorité des smartphones sont déjà commercialisés avec un contrat mensuel couvrant l’objet d’accès et le coût du réseau.
  • De plus en plus d’entreprises lancent des programmes BYOD (Bring Your Own Device) et BYON (Bring Your Own Network). lL’investissement est pris en charge par le collaborateur et l’entreprise lui verse une somme mensuelle : on passe d’un budget CAPEX à OPEX.
  • Chromebook Leasing $28Autre exemple : Google a lancé un programme de « location » des Chromebooks, couvrant, pour une somme variant de 20 $ à 30 $, tous les coûts sur une période de 3 ans, avec renouvellement du matériel à la fin de la période. Cette démarche sera rapidement imitée par un grand nombre de fournisseurs. 

 

Usages

Dans le domaine des usages, les choses sont beaucoup plus simples : les solutions SaaS, Software as a Service, s’imposent pour toutes les processus transverses et les applications de communication et de collaboration, de « participatique ».

Une étude récente, réalisée par le cabinet américain Saugatuck, montre que, en 2016, moins de 15 % des applications déployées le seront en mode traditionnel « on premise ».

Saugatuck growth public cloud vs private

Et... 100 % des applications SaaS sont facturées en fonction du temps, du nombre d’utilisateurs ou du niveau de ressources consommées ; ce sont donc, dans 100 % des cas, des dépenses OPEX !

Il faudra encore de nombreuses, trop nombreuses années, aux grandes organisations pour se libérer de leurs logiciels intégrés et autres ERP, mais le budget CAPEX qui leur est consacré va progressivement se réduire.

 

Les fournisseurs investissent ... les clients utilisent

Ce n’est pas parce que les entreprises utilisatrices vont arrêter leurs investissements en infrastructures et usages que ces investissements vont disparaître ! Ils seront pris en charge par les ... fournisseurs de solutions Cloud d’infrastructures IaaS ou d’applications SaaS.

Accenture - CLoud InvestmentsAccenture a calculé le montant des investissements réalisés entre 2009 et 2012 par des « petits » acteurs industriels ayant pour noms Amazon, Apple, Google ou Microsoft ; ces chiffres se passent de commentaires...

Google Infrastructures spending 2012Cet autre graphique montre que le montant des investissements trimestriels réalisés par Google a doublé en un an, en passant de 600 M à 1 200 M de dollars.

Il ne s’agit pas de solutions « low cost », avec le sens péjoratif que l’on donne souvent à cette expression. Il s’agit au contraire de solutions « haut de gamme » dont les prix de vente vont baisser régulièrement avec l’aide des fournisseurs industriels qui sont capables d’en réduire fortement le prix de revient et font profiter leurs clients de leurs économies d’échelle.

 

Le challenge spécifique des organismes publics

Ce basculement de CAPEX vers OPEX est très bien accepté par les entreprises privées ; il est plus difficile à gérer dans les entreprises publiques.

Pourquoi ? Les budgets d’investissements et de fonctionnement sont très séparés, étanches et avec souvent des sources de revenus très différentes.

G-Cloud UK government marketplaceJ’ai souvent eu à affronter ce problème dans des projets Cloud Computing pour les organismes publics qui sont souvent obligés de trouver des « astuces » financières permettant de « capitaliser » des dépenses de fonctionnement de type SaaS !

Pour répondre à ce problème, la démarche suivie par le gouvernement britannique est très intelligente ; il a créé G-Cloud, une place de marché SaaS où toutes les solutions, préapprouvées, peuvent être mises en œuvre immédiatement sans avoir besoin de passer par des procédures classiques d’appel d’offres.

  

Tendances

Ce mouvement de fond, d’une informatique CAPEX vers une informatique OPEX, ne se fera pas en quelques mois !

Comme c’est la règle depuis une dizaine d’années :

Consumerization of ITLe grand public montre la voie ; cela fait bien longtemps que plus personne ne gère ses serveurs en local et on constate un mouvement très rapide vers l’archivage « Cloud » avec Box, Dropbox, iCloud ou Gdrive.

  • Les entreprises petites et moyennes prennent rapidement le relais. Elles ont plus de flexibilité pour changer leurs solutions informatiques existantes.
  • Les grandes organisations mettent plus de temps à migrer vers des solutions OPEX ; il leur est plus difficile et long de sortir de leurs investissements « legacy » dans les infrastructures et les applications.

NirvanaConfier à de grands fournisseurs industriels la responsabilité des investissements en infrastructures et usages informatiques ; leur acheter les seules ressources dont on a besoin, quand on en a besoin, avec la certitude de ne jamais avoir à investir sur des ressources que l’on est certain de ne jamais pouvoir optimiser...

Ce « nirvana » informatique est à votre portée ; il serait vraiment dommage de ne pas en profiter !