Previous month:
avril 2023
Next month:
juin 2023

Comment fonctionne un LLM, Large Language Model

 

AdS DPC LLM S 594717293Les LLM, Large Language Models, sont à la base des nouvelles solutions d’IAG, IA Générative, telles que ChatGPT.

Concernant les IAG, je vous renvoie à deux billets récents que j'ai publié sur mon blog.

Les LLM ne sont utilisés que pour un sous-ensemble des IAG. Il existe aussi des solutions de haute qualité pour les images et photos, les vidéos, les sons, les codes logiciels…

Au vu des impacts immédiats et majeurs des LLM et IAG, je pense que nous devons tous faire l’effort d’en comprendre les fonctionnements, quelle que soit notre activité.

Pour répondre à cette question, je vous propose deux réponses:

  • La première, c’est de poser la question à… ChatGPT.
  • La deuxième, c’est de regarder une vidéo d’un des dirigeants d’OpenAI, fondateur de ChatGPT.

J’avais prévu de publier ce texte directement sur LinkedIn, mais la réponse donnée par ChatGPT est trop longue pour tenir dans les limites de longueur autorisées par LinkedIn.
J’ai donc été amené à le publier sous la forme d’un billet sur mon blog.

 

Réponse de ChatGPT à la question:  Comment fonctionne un Large language model

OpenAI ChatGPT Logo
Les limites de ces outils m’ont sauté aux yeux, immédiatement.

La première question que j’avais posée était: 

Comment fonctionne un LLM?

La réponse que j’ai obtenue concernait… un Master of Laws, comme le montre ce début de réponse.

ChatGPT

Un Master of Laws (LLM) est un programme de troisième cycle qui permet d'approfondir ses connaissances juridiques dans un domaine spécifique. Voici comment fonctionne généralement un programme de LLM :

J’ai modifié ma question en précisant la signification que je donnais à LLM, Large Language Model et ChatGPT a répondu de manière pertinente à ma demande.

Comment fonctionne un Large Language Model?

J’ai été surpris, agréablement surpris, par la qualité et la pertinence de cette réponse.

J’ai posé la question en français et en anglais; les deux réponses étaient quasiment les mêmes.

Voici la réponse obtenue, en 7 points et un commentaire final.

—-------------------------------------------------

Un large modèle de langage, tel que GPT-3.5, fonctionne grâce à une technique d'apprentissage profond appelée réseau neuronal transformateur. Voici une explication simplifiée de son fonctionnement :

  1. Données d'entraînement : Les grands modèles de langage nécessitent une quantité considérable de données textuelles pour l'entraînement. Pendant la phase d'entraînement, le modèle est exposé à une grande variété de sources textuelles, notamment des livres, des articles, des sites web et d'autres textes écrits. Ces données textuelles servent de base de connaissances à partir de laquelle le modèle apprend des motifs, des structures linguistiques et des relations entre les mots.
  2. Architecture : Les grands modèles de langage utilisent une architecture transformateur, qui est un type de réseau neuronal profond spécialement conçu pour traiter des données séquentielles telles que du texte. Les transformateurs sont composés de plusieurs couches d'auto-attention et de réseaux neuronaux à propagation avant.
  3. Tokenisation : Les entrées textuelles sont divisées en unités plus petites appelées "tokens". Un token peut représenter un seul caractère, un mot ou même des sous-unités de mots, selon la stratégie de tokenisation utilisée. La tokenisation permet au modèle de traiter et de comprendre le texte de manière plus fine.
  4. Pré-entraînement : Les grands modèles de langage passent par une phase de pré-entraînement où ils apprennent à prédire le mot suivant dans une phrase ou à compléter des mots manquants. Ainsi, le modèle acquiert une compréhension des motifs statistiques et des relations contextuelles entre les mots dans les données d'entraînement. Ce processus de pré-entraînement aide le modèle à apprendre la grammaire, la syntaxe et un certain niveau de compréhension sémantique.
  5. Ajustement fin : Après le pré-entraînement, les grands modèles de langage passent par une phase d'ajustement fin pour adapter le modèle à des tâches ou des applications spécifiques. Cela implique d'entraîner le modèle sur des ensembles de données spécifiques qui sont adaptés à la tâche souhaitée, telle que répondre à des questions, générer du texte ou traduire des langues. L'ajustement fin permet au modèle de se spécialiser et de fournir des réponses plus précises et contextuellement appropriées pour des cas d'utilisation spécifiques.
  6. Inférence : Une fois que le modèle de langage est entraîné et ajusté finement, il est prêt pour l'inférence. Lors de l'inférence, un utilisateur saisit une consigne ou une question en texte et le modèle la traite, analyse le contexte et génère une réponse en fonction de ses connaissances acquises et des schémas appris à partir des données d'entraînement. La réponse est généralement générée en échantillonnant ou en classant une liste de mots ou de tokens susceptibles de suivre la séquence de texte en fonction des probabilités apprises par le modèle.
  7. Apprentissage itératif : Les grands modèles de langage peuvent être continuellement améliorés et mis à jour grâce à un processus d'apprentissage itératif. En exposant le modèle à de nouvelles données ou en l'ajustant finement avec des ensembles de données supplémentaires spécifiques à une tâche, le modèle peut acquérir de nouvelles connaissances et s'adapter à l'évolution des schémas et contextes linguistiques.

Il est important de noter que les grands modèles de langage tels que GPT-3.5 sont extrêmement complexes et impliquent de nombreux détails techniques au-delà de cette explication simplifiée. Cependant, cette vue d'ensemble devrait vous donner une compréhension générale des principes sous-jacents du fonctionnement d'un grand modèle de langage.

—----------------------------------------------------

Vous connaissez beaucoup de personnes qui seraient capables de répondre immédiatement à cette question d’une manière aussi claire et complète?

Moi, non.

 

Vidéo d’Andrej Karpathy pendant les journées Build de Microsoft en mai 2023

Andrej Karpathy OpenAIVous souhaitez en savoir plus?

Vous êtes prêt à faire l’effort de rentrer dans plus d’informations techniques?

Vous pouvez consacrer 45 minutes de votre temps à regarder une vidéo?

Si vous avez répondu oui à ces trois questions, alors je vous conseille vivement de regarder cette vidéo de l’intervention de l’un des fondateurs d’OpenAI, Andrej Karpathy, pendant les journées Build organisées par Microsoft en mai 2023.

Rappel: Microsoft a investi environ 10 milliards de dollars dans OpenAI.

C’est très dense. Pour en tirer vraiment profit, il vaut mieux rester concentré et ne pas essayer de consulter en même temps son smartphone ou sa boîte mail.

Je ne suis pas certain d’avoir tout compris, mais les messages essentiels, oui.

 

Le pragmatisme de Microsoft

 Nadella & Chief of research SCet article demande un abonnement payant pour être lu, mais les premières phrases sont suffisamment intéressantes pour que je le cite.

Il montre les réactions de Nadella, CEO de Microsoft, quand Peter Lee, responsable de la recherche chez Microsoft, lui explique que leurs chercheurs avaient été “estomaqués” par la performance de GPT-4.

Il l'interrompt et lui pose une question simple: “Comment OpenAI a pu construire cette solution avec 250 personnes quand nous avons chez Microsoft une équipe de recherche de 1 500 personnes qui travaille sur l’IA depuis des dizaines d’années?”

Cette remarque fera plaisir à tous ceux qui pensent que la taille d’une équipe de recherche n’est pas une garantie de réussite, et c’est même souvent le contraire.

En même temps, les ressources d’infrastructures informatiques nécessaires pour faire tourner ces modèles de LLM sont tellement importantes qu’OpenAI a besoin du Cloud Azure de Microsoft pour fonctionner.

OPenAI + Microsoft d’un côté, Google de l’autre pour créer BARD, on retrouve les deux géants du Cloud Public derrière les leaders actuels des outils d’IAG pour les textes.

 

Situation du marché LLM + IAG textes, fin 2024

Dans ce schéma, j’ai résumé ma vision de ce que “pourrait” être le marché des LLM et IAG textes à la fin de l’année 2024, dans 18 mois.

LLM main solutions

Je vous propose de l’analyser du bas vers le haut.

Les sources de LLM

Les quatre principales sources de LLM connues aujourd’hui sont:

  • Microsoft et OpenAI
  • Google
  • Facebook, dont on parle moins, avec LLaMa, qui est Open Source.
  • La communauté Open Source. Un texte attribué à un collaborateur de Google affirmerait que Google a très peur de ce que cette communauté pourrait produire.

Produits disponibles aujourd’hui

Les deux principaux produits issus de ces LLM que les entreprises peuvent utiliser directement aujourd’hui sont ChatGPT de Microsoft et BARD de Google.

Solutions disponibles, fin 2023

Microsoft et Google ont tous les deux annoncé qu’ils vont “intégrer” leurs solutions dans leurs produits logiciels ayant le plus d’utilisateurs dans le monde, leurs suites collaboratives Microsoft 365 et Google Workspace.

Solutions disponibles, fin 2024

Les principaux éditeurs de logiciels d’entreprise, aussi bien les historiques comme SAP que les natifs SaaS comme Workday vont ajouter des fonctionnalités issues des LLM dans leurs offres. Il est encore trop tôt pour savoir quels choix ils feront dans l’oligopole des fournisseurs de ces LLM.

A la fin de l’année 2024, je fais les hypothèses suivantes concernant les usages de ces LLM par les entreprises, publiques ou privées:

  • 10% en direct depuis ChatGPT ou BARD.
  • 30% à partir des solutions bureautiques collaboratives Microsoft 365 et Google Workspace.
  • 60% depuis tous les autres logiciels déjà déployés dans ces entreprises.

En résumé, les usages “indirects” de ces outils d’IAG devraient rapidement représenter 90% des usages face aux 10% d’usages en direct, qui sont ceux dont on parle le plus en ce moment.


Incendie Global Switch : réflexions sur la résilience des Clouds Publics

 

XData Center Global Switch ClichyL’un des centres de calcul d’un grand hébergeur mondial, Global Switch, situé à Clichy en région parisienne, a été victime d’un incendie dans la semaine du 24 avril 2023. 

Ces incendies sont rares, mais ils se produisent de temps en temps et aucune entreprise n’est à l’abri d’un tel accident dans un centre de calcul, qu’il soit:

  • Géré directement par l’entreprise, “On Premise”.
  • Chez un hébergeur.
  • Sous la responsabilité d’un acteur du Cloud Public.

Cet incendie a immédiatement déclenché une polémique sur la qualité des services proposés par les géants du cloud public américain. Pourquoi? Le Cloud Public GCP de Google a été touché et des services proposés par une “Zone France Paris” ont été indisponibles pendant plusieurs heures.

Mon ami Alain Garnier, PDG de Jamespot, a immédiatement publié sur LinkedIn une vidéo pour commenter cet incident. Il m’a personnellement cité en me reprochant gentiment d'être un “suppôt” des géants du Cloud Public. 

Suppôt, non, mais grand fan, oui. Sur ce point, il a tout à fait raison et je ne m’en suis jamais caché, depuis plus de 15 ans.

Cette mise en cause et cet accident m’ont donné l’envie et l’occasion d’apporter des éclaircissements sur les différentes implantations géographiques des géants du Cloud Public.

C’est un sujet qui est rarement abordé et amène trop d’entreprises à faire des erreurs qu’elles pourraient éviter quand elles travaillent avec les grands acteurs du Cloud Public.

Ce que j'explique dans ce texte est valable pour tous les grands acteurs du Cloud Public, AWS d’Amazon, Azure de Microsoft et GCP de Google. 

 

L’incendie: les faits

XDeux sites touchés par incendieDans la nuit du 25 au 26 avril 2023, un incendie a éclaté dans un des centres de calcul de l’hébergeur Global Switch, situé à Clichy, en région parisienne. Cet incendie a entraîné l’arrêt de ce centre de calcul.

De nombreuses organisations qui hébergeaient leurs services numériques dans ce centre de calcul ont annoncé que ces services étaient indisponibles. Parmi les organisations importantes touchées, on peut citer le service Cybermalvaillance du gouvernement français et la ville de Lille.

C'est à chacune de ces entreprises qu’il incombe la responsabilité d’avoir préparé leur PRA, Plan de Reprise d’Activité. J’espère que c’était le cas pour la majorité d’entre elles.

Mais c’est bien évidemment le “client” Google-GCP de ce centre de calcul qui a retenu l’attention et fait couler le plus d’encre, ce qui est logique.

Un géant du Cloud Public, un “Hyperscaler” qui subit une panne, c’est suffisamment rare pour que la planète numérique française s’en émeuve.

XGoogle Cloud sous l'eau

J’ai un “scoop” pour les personnes qui sont ravies de pouvoir critiquer le supposé manque de résilience des géants du Cloud Public: des pannes, ils en ont en permanence, et j’y reviens longuement dans le prochain paragraphe.

Depuis des années, Google met à la disposition de ses clients un tableau de bord de l’état de fonctionnement de tous ses services, dans chaque région géographique. 

Il est mis à jour en temps réel. Voilà un instantané d’une partie de ce tableau, le 26 avril 2023: il indique clairement que tous les services dans la “Zone Europe-West9, Paris” sont indisponibles.

XPanne GCP France 26:4:2023

Cette zone de GCP est répartie chez quatre hébergeurs différents, comme le rappelle Google dans un communiqué: 

Google Cloud se reposant sur trois autres datacenters de la région parisienne (Interxion, Data4 et Telehouse), la firme a proposé à ses clients de « basculer » temporairement et d’éviter la zone affectée (europe-west9).”

La redondance, le PRA natif font partie des services standards de GCP.
Aucun client n’a perdu de données comme le rappelait Emmanuelle Olivié-Paul, utilisatrice de GCP dans cette zone, dans sa réponse au billet LinkedIn d’Alain Garnier que je cite au début de ce billet.

XPanne GCP France 29:4:2023

Ce deuxième instantané du tableau de disponibilité des services de GCP, pris le 29 avril 2023, montre que la situation est normalisée.

 

Les Clouds Publics, des pannes en permanence

Qui peut croire, ou tenter de faire croire que les infrastructures géantes des fournisseurs de Clouds Publics ne tombent jamais en panne?

Je n’ai jamais, je ne tiendrai jamais un tel discours, ce serait ridicule.

XCloud Downtime 2018 - AWS  GCP  AzureDans un billet de blog publié en 2019, il y a quatre ans, sur le thème “Clouds Publics, la confiance”, j’abordais une fois encore ce sujet. J’avais inséré ce graphique qui mettait en évidence les temps de panne de GCP, AWS et Azure pour l’année 2018.

Toute personne qui essaie de me faire dire le contraire, ou est de mauvaise foi, ou n’a jamais lu mes écrits.

Une étude très récente, publiée en mars 2023 par Parametrix, société spécialisée dans l’assurance des risques numériques, fait le point sur toutes les pannes qui se sont produites en 2022 chez AWS, GCP et Azure.

XParametrix report title Cloud Downtime 2023

J’ai extrait de ce rapport cette phrase qui résume bien la situation:

“In 2022, Parametrix identified a total of 1190 performance disruptions across this cloud landscape. Some 41.4% of these events, 492 in total, were classified by Parametrix as critical.” (C’est moi qui ai mis en gras quelques mots.)

Oui, vous avez bien lu, près de 1200 incidents en une année, plus de 3 par jour! Ils sont nuls, ces géants du Cloud Public!

XParametrix Main Cloud Outages causes 2022Ce graphique, présent dans ce rapport, indique les principales causes de ces incidents.

Les incidents matériels sur les infrastructures physiques, comme les incendies, sont de loin les… moins fréquents, à 8,33%, 3,5 fois moins que ceux causés par des erreurs humaines.

Ce que demandent les clients d’AWS, GCP ou Azure, ce n’est pas qu’ils leur garantissent qu’ils n’auront jamais de pannes, ce qui serait une demande idiote.

Ce que demandent ces clients, c’est qu’AWS, GCP ou Azure mettent en œuvre toutes les procédures et méthodes nécessaires pour les mettre à l’abri de ces pannes inévitables.

XClouds Publics protection des clients des pannes

Et cela, AWS, GCP et Azure le font, et le font très bien!

Ce n’est pas pour cela que les entreprises doivent basculer dans les Clouds Publics sans prendre des précautions importantes, au contraire.

L’une des premières décisions à prendre, et elle est essentielle, c’est de bien choisir la ou les zones géographiques dans lesquelles elles vont déployer leurs applications.

C’est ce que j’analyse dans le paragraphe qui suit.

 

Les différentes familles d’implantation des géants du Cloud Public

Les informations que j’utilise sont publiques; toutes les entreprises peuvent y accéder quand elles doivent choisir leurs fournisseurs d’infrastructures Cloud Public.

Je vais illustrer mon analyse par l’exemple de GCP de Google, qui a été mis en cause à la suite de cet incendie.

Comme je l’ai écrit plus haut, j’aurais pu faire la même démonstration pour AWS ou Azure.

Les fournisseurs de Cloud Public proposent trois grandes familles d’implantations:

  • Les centres de calcul dont ils sont propriétaires et qu’ils gèrent eux-mêmes.
  • Des centres de calcul qui appartiennent à des hébergeurs et où ils localisent une partie de leurs services IaaS.
  • Des points de présence: ce sont des petits sites qui ont pour fonction principale de proposer des accès par fibres optiques à des centres de calcul GCP. Ils sont utilisés pour réduire la latence.

Cette liste, disponible sur le site de GCP, identifie en toute transparence ces différentes familles d’implantations.

XFamilles de centres de calcul Google

Centres de calculs appartenant à GCP

Un grand centre de calcul, construit et géré par GCP, représente un investissement supérieur à 500 millions de dollars et peut atteindre 1 ou 2 milliards de dollars.

Cette carte du monde montre l’implantation des centres de calculs qui appartiennent à GCP.

XCarte Mondiale Centre de Calcul Google

Google dispose de centres de calcul en propre dans 36 régions, réparties sur 109 zones. Ils sont en priorité installés aux Etats-Unis et en Europe.

Centres de calculs “Edge”, hébergés

Pour assurer une présence dans le plus grand nombre possible de pays, Google GCP installe une partie de ses services chez des hébergeurs locaux, comme Global Switch en France.

Dans cette configuration, GCP n’est pas maître de la gestion des centres de calcul, qui est déléguée aux hébergeurs.

C’est ce qui permet à GCP d’annoncer une présence dans plus de 200 pays.

Ce sont souvent des installations “politiques”, réalisées pour répondre aux exigences de certains pays ou entreprises qui exigent que leurs données soient stockées sur leur territoire.

“Edge” ne veut pas dire une installation unique: pour des raisons évidentes de résilience, GCP répartit ses installations “Edge” chez des hébergeurs différents. Dans le cas de Paris, ils sont quatre.

On le voit sur cette carte, où sont aussi indiqués les centres de calcul en périphérie, nommés “Edge".

XGoogle Data Center with Edge ones

Il existe un moyen simple de vérifier si une zone géographique GCP est gérée par Google en direct ou hébergée: il suffit de compter le nombre de services disponibles. Ils sont beaucoup plus nombreux dans les zones gérées en direct par Google.

Cette carte met aussi en évidence un autre investissement majeur de Google, dans les fibres optiques sous-marines.

Points de présence

Sur cette autre carte Google, les principaux points de présence sont visualisés.

XGoogle network with 7500 access point

Google annonce qu’il dispose de 7 500 points de présence dans le monde. C’est une bonne nouvelle. Ceci permet à toute entreprise, où qu’elle soit située, de trouver un point de présence proche qui garantit un accès rapide, par fibre optique, à GCP.

Le cas de l’Europe

En analysant les données fournies par Google, j’ai pu construire ce tableau qui fait le point sur la situation actuelle des implantations de GCP en Europe. Ce n’est qu’une photographie à un instant donné, de nouveaux investissements étant réalisés en permanence.

XData Center Google Europe

Au moment où je publie ce texte, GCP est présent dans la majorité des grands pays européens, dans 35 villes:

  • 6 implantations de centres de calcul appartenant à Google. Ils sont tous situés dans des pays de l’Europe du Nord.
  • 29 implantations “Edge”, hébergés. 
  • C’est le cas de la France, où il n’y a pas de centres de calcul appartenant à Google, mais deux “Edge” à Paris et Marseille. 

Dans le paragraphe qui suit, je présente mes recommandations concernant les différentes options qui s’offrent à une entreprise, publique ou privée, quand elle doit choisir les zones géographiques où elle souhaite déployer ses usages numériques dans un Cloud Public.

 

Recommandations

L’immense majorité des entreprises publiques et privées ont le libre choix du pays où elles peuvent utiliser des services de Clouds Publics, et c’est une très bonne chose.

Il y a quelques exceptions, variables selon les pays.

Listes hébergeurs certifiés HDSEn France, la plus connue est celle liée aux données de Santé. Il est obligatoire d’obtenir une certification HDS, Hébergement de Données de Santé, pour proposer des services dans ce domaine. Comme le montre cette liste officielle, publiée par le ministère de la Santé et de la Prévention, plusieurs centaines d’organisations sont certifiées HDS.

AWS, GCP et Azure font partie de cette liste, et cela ne surprendra personne.

Conséquence: Google est obligé d’utiliser les zones hébergées en France pour les données de santé et ne peut pas les porter sur des centres de calcul qu’il gère en direct.

Pour toutes les autres entreprises, le choix est libre, même s’il y a souvent des pressions politiques pour que l’hébergement ait lieu en France.

Si votre entreprise décide ou préfère héberger ses applications et ses données en France, elle a le choix entre des grands acteurs du Cloud Public, tous présents en France, ou des acteurs français eux aussi présents en France.

Si je fais le choix de travailler avec GCP pour tout ou partie de mes usages numériques, j’ai plusieurs options:

  • Je choisis un “Edge” en France: si tous les services dont j’ai besoin sont disponibles dans cette zone, c’est une piste raisonnable.
  • Je choisis une zone gérée directement par Google, par exemple en Belgique ou aux Pays-Bas. Je suis certain d’accéder à tous les services disponibles et à des infrastructures uniquement dédiées à GCP.
  • Je choisis d’utiliser plusieurs zones pour mes usages. C’est une évidence pour les entreprises qui sont présentes à l’international.

Depuis peu, GCP propose aux entreprises un nouveau service: Cloud Region Picker.

Il permet de choisir la zone où elles peuvent exécuter leurs programmes en tenant compte du poids respectif que l’on donne à trois paramètres:

  • L’impact carbone.
  • Le coût.
  • La latence.

Les réponses varient toutes les 5 minutes, en fonction des conditions météos des différentes zones et des taux d’utilisation des ressources.

GCP Region Picker 2 optionsDans cet exemple, réalisé à Paris le 1er mai 2023 à 13h, j’ai regardé deux options. Dans les deux cas j’ai gardé une latence identique, à 50% d’importance:

  • Option du haut: prix,critère essentiel. Impact carbone, critère pas important.
  • Option du bas: prix, critère pas important. Impact carbone, critère essentiel.

Les résultats sont spectaculaires: GCP propose 4 zones pour chaque option, et ce sont au total 8 zones différentes qui sont proposées.

Je trouve cette initiative excellente et elle n’est disponible que chez les géants du Cloud Public, qui ont des installations dans le monde entier et peuvent faire profiter leurs clients de toutes les possibilités d’ensoleillement ou de vent.

C’est une excellente opportunité pour les entreprises de montrer concrètement qu’elles ont envie d’œuvrer pour une véritable frugalité numérique.

Reste une option que je n’ai pas encore abordée, le multi-cloud. Elle est recommandée par Alain Garnier dans la vidéo dont je parle au début.

Que faut-il en penser?

 

Multi Cloud et résilience

AWS Azure GCP logosUne démarche Multi Cloud consiste à utiliser plusieurs fournisseurs différents de services Cloud pour son entreprise.

C’est une idée vieille comme le monde, celle qui consiste à ne pas mettre “tous ses œufs dans un même panier”.

Est-ce une bonne idée d’utiliser une démarche Multi Cloud pour améliorer la résilience de son Système d’Information en cas d’accidents comme l’incendie de Global Switch?

La réponse est claire: non, non et non!

Pourquoi? Imaginez que vous utilisez GCP pour votre application de gestion commerciale et que le site qui l’héberge prend feu. Combien de temps vous faudrait-il pour trouver une version de cette application compatible avec un autre Cloud comme AWS et l’y déployer? Poser la question, c’est y répondre.

Si la réponse Multi Cloud n’est pas la bonne, quelle démarche faut-il privilégier? 

Elle est beaucoup plus simple, et je l’ai présentée dans ce billet: une démarche multi sites chez le même fournisseur de Cloud. Rien de plus simple! La réplication dans une autre zone géographique prendra instantanément le relais, sans aucun délai.

Ceci ne veut absolument pas dire que la démarche Multi Cloud n’a aucun intérêt, au contraire. La majorité des entreprises avec lesquelles je travaille ont choisi deux ou au maximum trois fournisseurs parmi AWS, GCP ou Azure.

Ce n’est jamais pour répondre à des problèmes de résilience.

Quelles sont les raisons qui militent pour le Multi Cloud?

  • Résilience? Non.
  • Services Clouds de base? Non. Tous les fournisseurs proposent des services de base en calcul, stockage, bases de données qui sont très proches les uns des autres.
  • Services avancés différents? Oui. C’est de loin la raison principale. Chaque grand acteur a des domaines spécialisés pour lesquels il propose des services meilleurs que ses concurrents. C’est le cas avec AWS pour l’informatique industrielle et IoT. C’est le cas pour GCP dans le domaine du Big Data et du décisionnel.
  • Faire jouer la concurrence entre les fournisseurs? C’est parfois le cas, mais moins souvent qu’on ne le croit.

 

Résumé

J’ai eu l’opportunité d’acquérir en France une formation d’ingénieur, qui m’a aidé à avoir des raisonnements scientifiques, rationnels et pragmatiques.

AdS DPC Résilience S 101375048Ce texte ne parle que de la meilleure manière de garantir la fiabilité et la résilience de ses infrastructures dans des Clouds Publics, de garantir une continuité de services quand des catastrophes comme un incendie ou une erreur humaine se produisent, incidents qui sont inévitables.

Traiter les sujets importants, un par un, c’est la seule manière rationnelle de progresser que je connaisse.

Rappel: Il y a de nombreux autres sujets “chauds” quand on aborde le thème des Clouds Publics. Ils ne sont pas traités dans ce texte.

J’ai écrit des dizaines de billets sur mon blog qui parlent de toutes les autres facettes du Cloud Public, et ce depuis 15 ans.