Previous month:
mars 2008
Next month:
mai 2008

DEI, Dépendance Energie Informatique : un nouvel enjeu mondial ?




Cloud computing ?  L’avenir de l’informatique professionnelle est “on the cloud” avec des applications de plus en plus SaaS, Software as a Service” ; les lecteurs de mon blog savent que je suis persuadé que ce double mouvement est irréversible.

Être convaincu qu’une évolution est positive ne signifie pas pour autant avoir une vision manichéenne du monde et nier qu’il puisse toujours exister des éléments négatifs, dans toute évolution.

Togo Hier soir, dans l’avion qui me ramenait en France, après une semaine passée au Togo, où je commence une mission de refonte complète du Système d’Information de l’une des plus grandes entreprises locales, je me suis posé la question de la “dépendance” de plus en plus forte de nos économies vis-à-vis d’infrastructures techniques.
Dans ce cas précis, j’avais passé une journée dans l’agence de vente de Kpalimé, située à 120 km de la capitale Lomé.
L’alimentation électrique y est défaillante ; il arrive souvent que l’électricité soit coupée pendant plusieurs heures, voire une journée entière.
Aujourd’hui, quand ces incidents se produisent, les collaborateurs de cette entreprise n’ont plus accès à leur Système d’Information et sont, en pratique, empêchés de travailler. 
La première solution que je vais proposer est de les équiper tous de PC portables avec quelques batteries supplémentaires ; reliés à un réseau CDMA sans fil qui reste opérationnel pendant les coupures de courant, ils pourront ainsi continuer à rendre les services attendus par leurs clients.

Je me suis alors posé la question : “Serons-nous aussi, demain, dépendant pour notre “énergie informatique” ?


Les différentes formes d’”Energie Informatique”.

Nicolas Carr, dans son dernier livre, “The big switch”, explique que les entreprises vont progressivement abandonner leur production d’énergie informatique et l’acheter à des fournisseurs spécialisés qui ont pour nom Amazon, eBay, Google, Microsoft ou Yahoo.

Comme dans le cas du pétrole, ces achats pourront prendre plusieurs formes :

Oilfield - “On the cloud computing”, avec achat d’énergie de base, de calcul ou de stockage.  Le meilleur exemple en est aujourd’hui les Web services bien connus d’Amazon, S3, SimpleDB ou EC2. C’est l’équivalent de l’achat de pétrole brut, qui est ensuite exporté pour un traitement ultérieur

Refinery - SaaS, Software as a Service.  Dans ce cas, l’entreprise achète un produit fini, directement utilisable, comme le sont les produits pétroliers raffinés, essence ou gazole.  Google, Salesforce et des dizaines d’autres acteurs sont présents sur ce marché.

Cloud, PaaS, SaaS - PaaS, Platform as a Service.  Depuis peu, les entreprises peuvent acheter des produits “semi-finis”, des plateformes de développement construites “on the Cloud”, avec lesquelles elles vont elles même construire des produits finis spécialisés, qu’elles ne trouvent pas sur le marché.
L’industrie chimique en est un bon exemple ; elle achète aux pétroliers des produits raffinés de base et les transforme en produits à forte valeur ajoutée.
Cloud Computing ? PaaS ? SaaS ? Très rapidement, les entreprises de toute taille, de tout secteur pourront se fournir en énergie informatique plus ou moins “élaborée”, en fonction de leurs besoins spécifiques.

Se pose alors, rapidement, la question d’une possible dépendance des entreprises vis-à-vis de leurs fournisseurs.


DEI : Dépendance Énergie Informatique

Dépendance Dans nos économies modernes et complexes, toutes les entreprises sont déjà en état de forte “dépendance” potentielle pour de nombreuses infrastructures telles que  :
- L’énergie électrique.
- Les réseaux de transport informatique.
- Les réseaux de transport physiques.
- L’approvisionnement en pétrole.

En basculant progressivement vers le trio des solutions Cloud Computing, PaaS et SaaS, les entreprises vont se créer une nouvelle dépendance que je propose d’appeler :

DEI : Dépendance Énergie Informatique

Il est important, face à cette nouvelle dépendance qui se prépare, d’en comprendre les principales caractéristiques :

- Tous les grands acteurs sont aujourd’hui, sans exception, des entreprises américaines importantes

- L’Europe, l’Asie et bien sûr la France n’ont pas, aujourd’hui, d’acteurs industriels importants qui ont réalisé les très lourds investissements qui leur permettraient d’être compétitifs sur ces marchés du Cloud Computing, PaaS et SaaS.

- La DEI n’est pas à prendre à la légère ; en cas de coupure des services, les entreprises ne pourront plus travailler !

- Est-il possible de se protéger efficacement de possibles incidents ?
Pas de train À la différence du pétrole, il est difficile de faire des réserves d’énergie informatique.

À la différence de l’énergie électrique, il est difficile de créer des générateurs auxiliaires. 

À la différence du transport, où l’on peut parfois substituer le rail à la route, il est difficile de trouver des services de remplacement.


Charibde ou Scylla ?

Candle J’entends déjà les voix qui vont s’élever en prêchant, doctement, pour “l’indépendance énergie informatique”.
Pour cela, je préfère m’éclairer à la bougie, garder mes petits serveurs maisons et ne pas me brancher sur le grand réseau industriel d’énergie informatique.

Je m’attends même à entendre des personnes dire :
“Vous vous rendez compte ! Même Louis Naugès, l’un des plus grands défenseurs des solutions Web 2.0, SaaS... tire le signal d’alarme !”

Avant toute décision stratégique, l’honnêteté intellectuelle m’impose d’expliquer aux responsables quels sont les éléments à prendre en compte, positifs et négatifs.

Charybde et scylla Dirigeants et DSI sont devant deux stratégies possibles, deux familles de risques :

- Refuser le mouvement vers le Cloud Computing, PaaS et SaaS, pour ne pas affronter une possible DEI.  Ils s’exposent alors à un risque certain de perte de compétitivité, de surcoûts informatiques et de rater le train de la modernité des infrastructures informatiques et des solutions SaaS.

- Choisir immédiatement une stratégie “Cloud computing” en assumant le risque potentiel de DEI.
Reste une question à laquelle il est difficile de répondre :
Quel est le risque réel de DEI pour une entreprise française ou européenne ?


Dépendance Énergie Informatique, quel risque réel ?

Éliminons une première hypothèse : je ne crois absolument pas que les grands acteurs industriels déjà cités, Amazon, Google ou Yahoo présentent le moindre risque. Je ne mets pas en doute leur volonté, leur stratégie de fournir les meilleurs services possible, au meilleur prix, à tous leurs clients du monde entier.
La carte des centres de calcul de Google que j’ai présentée dans un texte précédent en est une bonne illustration ; Google localise ses serveurs au plus près de ses clients pour éviter la latence dans les réseaux et optimiser les temps de réponse.

il faut donc faire un peu de “politique-fiction ” et essayer d’imaginer les conditions mondiales qui pourraient faire courir à nos entreprises un réel risque de DEI :

Iran - Une troisième guerre mondiale ? Je n’ai aucune compétence pour en évaluer la probabilité.  Dans ce cas, il y aura probablement d’autres priorités !

- Des attaques terroristes : les solutions “Cloud Computing” sont le meilleur rempart possible contre ce risque.

- Des attaques ciblées, lancées par le gouvernement américain qui obligerait les acteurs du “Cloud Computing” à couper le robinet de l’énergie informatique vers tel ou tel pays ; encore faudrait-il qu’il en ait les moyens légaux.
C’est la démarche suivie actuellement par la Russie avec ses menaces périodiques de coupure des approvisionnements en gaz vers certains de ces voisins.
Dans le cas du Cloud Computing, c’est beaucoup plus difficile vu la nature très maillée du réseau et la distribution mondiale des data centers.

Ceci ne veut pas dire que tout doit être fait pour réduire au maximum les véritables risques de DEI.
L’Europe a les moyens, économiques, humains, scientifiques et techniques de créer des plateformes de Cloud Computing, PaaS et SaaS de qualité mondiale.
Je ne suis par contre pas très optimiste sur sa capacité à mobiliser ces énergies, quand on voit les difficultés du projet Galileo ou de l’échec de la simple collaboration franco-allemande dans le domaine des moteurs de recherches, Quaero pour ne pas le nommer.

Harakiri Personnellement, ma recommandation, mon choix est clair :

Il serait suicidaire de ne pas aller au plus vite vers des solutions Cloud Computing, PaaS et SaaS. Simplement il faut le faire en sachant qu’il y a un risque latent de DEI, à minimiser et... assumer !

Web 2.0, “On the cloud” : mais où ?


Cloud Infrastructures Services Pour savoir parler Web 2.0, il est de bon ton de déclarer que les nouvelles applications SaaS, Software as a Service, “multi-tenant”, sont hébergées “On the cloud”.

Traduisons en langage “normal” :
- Quelques fournisseurs, très puissants et peu nombreux, construisent des centres informatiques gigantesques, répartis dans le monde entier. Cet ensemble constitue le “Nuage” d’infrastructures.

- Ces “usines informatiques” servent de support aux services Web 2.0, anciennement appelés applications, partagés par des millions de personnes.
Amazon Towers
- Une seule instance de ces services est utilisée par tous les clients, d’où est née l’expression “multi-tenant”, que l’on peut illustrer par un immeuble partagé par plusieurs locataires. 

A l’inverse, les applications traditionnelles “hosted” ou hébergées ressemblent à des maisons individuelles, chaque client disposant de sa propre version de l’application.

Restait une question sans réponse claire : où se trouvent les centres de traitement qui composent le “Cloud” ?
Des informations qui viennent d’être publiées sur le plus grand acteur du “Cloud”, Google, permettent, enfin, de lever un coin du voile.


Les centres de calcul de Google, démasqués

Il a quelques semaines, on a posé la question à Eric Schmidt, Président de Google :
” Combien avez-vous de centres de calcul et où sont-ils situés ?
Sa réponse a été immédiate : “je ne sais pas !”
Le nombre de centres de calculs, de serveurs, leur localisation étaient des informations que Google refusait de communiquer.

Data CenterKnowledge logo Grâce au blog DataCenter Knowledge, qui fait un excellent travail de veille sur le sujet, une partie du mystère vient d’être levé.

Cette carte mondiale a été construite, évidemment sur Google Maps, par Pingdom, une entreprise qui mesure la performance des data centers.
Data Centers Google Monde

Pour ceux d’entre vous qui “s’obstinent” à garder des centres de calculs privés, je vous conseille de vous abonner aux services de Pingdom ; ils vous permettront de suivre en permanence vos performances, vues par vos clients.

Je trouve, personnellement, ces résultats fascinants !
Je ne pense pas être le seul à découvrir l’étendue de ce réseau de centres de calcul de Google, dont je n’imaginais pas à quel point il était mondial.
Quelques résultats intéressants :

Data Centers Google USA - Contrairement aux idées reçues, un très grand nombre de sites sont installés en dehors des États-Unis. Attention, rien ne dit que chaque point de la carte correspond à des centres de même puissance.

- Les centres de calcul répartis sur le territoire américain représentent vraisemblablement l’essentiel de la puissance globale du “Cloud Google”.

Data Centers Google Europe - L’Europe est beaucoup plus présente que je ne le pensais ! Combien de fois ai-je entendu la remarque faite par des DSI, surtout du secteur public ou universitaire : “Jamais je n’hébergerai mes données aux Etats-unis !”

Sachant que les données sont répliquées sur plusieurs centres de calcul, ces cartes montrent bien l’inanité de ces remarques ; le “Cloud” est mondial et faire référence à une zone géographique n’a plus de sens.

- La répartition des centres de calcul est très proche des zones où sont concentrées la majorité des internautes. Ceci permet de réduire au minimum la latence et explique l’excellence des temps de réponse, quel que soit le lieu où l’on se connecte.


Puissance, puissance !

New Google Data Center En 2007, Google a investi 2,4 milliards de dollars pour construire quatre nouveaux méga-centers.  L’unité d’œuvre d’un centre de calcul est aujourd’hui de 600 $M.  Sachant que Google investit chaque année entre 13 et 14 % de son CA dans de nouveaux centres, il est facile d’imaginer que 2008 verra naître 6 nouveaux centres de calcul pour un investissement de 3,6 milliards de dollars.
Cette photo aérienne montre le chantier de l’un de ces nouveaux “mini-centres”.

Je vous conseille aussi de visualiser le diaporama qui présente l’un des nouveaux sites en construction à Eemshaven, aux Pays-Bas ; il contient une cinquantaine d’excellentes photos.
Ceux qui pourraient encore douter de la dimension et de l’importance de ces investissements ne peuvent pas ne pas être impressionnés par la taille de ce chantier.

Pour en savoir plus, vous pouvez aussi consulter une excellente FAQ sur les Data Centers de Google (en anglais).


Et les autres ?


Microsoft, Amazon, eBay, Salesforce et quelques autres ont des stratégies similaires.  40 Foot Container Data Center Microsoft a brutalement accéléré ses investissements, il y a 2 ou 3 ans, et doit être, à mon avis, aujourd’hui le deuxième grand locataire du “Cloud”.

Microsoft a choisi la solution des containers de 40 pieds pour ces nouveaux centres de calculs ; d’après leurs analyses, ce sont des solutions plus performantes en termes énergétiques.
Ce qui ne manque pas de sel, c’est que l’entreprise qui a déposé récemment des brevets sur les centres de calculs à base de containers est... Google !

Une dernière remarque :
Je ne dispose d’aucune information privilégiée venant de Google ; toutes ces informations sont disponibles sur le Web. Si, comme moi, ce sujet vous passionne, je vous encourage à suivre les nombreux liens que j’ai référencés.

Bon voyage “On the Google Cloud” !