Previous month:
mars 2017
Next month:
août 2017

Le Cloud Public expliqué à une… Direction financière

 

Chenille PapillonIl existe encore de nombreuses, trop nombreuses DSI, Direction des Systèmes d’Information, rattachées à une Direction financière.

Il est temps que, à l’image de la chenille qui se transforme en papillon pour prendre son envol, les DSI s’émancipent du carcan de la Direction financière.

En même temps, l’évolution des métiers financiers peut servir de guide à ce qui doit se passer dans le monde des Systèmes d’Information.

 

Evolution métiers des Directions financières au XXe siècle

Il était fréquent, au début du XXe siècle que les grandes entreprises gèrent leurs propres banques.

Finances - Ancien monde

Il était « risqué » de faire confiance à des banques externes, et ces entreprises pensaient que leur argent était plus en sécurité à l’intérieur de leurs murs !

Aujourd’hui, toutes les entreprises ont abandonné cette fonction « banque interne » et ont externalisé ces activités, non cœur métier, à des banques professionnelles à qui elles font « confiance ».

Finances - nouveau monde

Il existe d’excellents logiciels SaaS, Software as a Service, tel que Kyriba, pour les aider à gérer leurs finances et trésoreries réparties dans plusieurs banques.

Avec un décalage de plusieurs dizaines d’années, ces mêmes entreprises vont faire suivre le même chemin à leurs centres de calcul.

  

Les centres de calcul, au début du XXIe siècle

Au début de ce siècle, toutes les entreprises géraient elles-mêmes leurs centres de calcul, qui abritaient leurs applications informatiques.

Centre Calcul Privés - Ancien monde

Protégées par des pare-feu censés les protéger des « méchants » vivant à l’extérieur, les bandits de la forêt de Sherwood, elles confiaient leur Système d’Information à des collaborateurs internes.

Il y a urgence à abandonner ces « ex bonnes pratiques » comme nous le rappellent tous les jours les catastrophes induites par cette gestion en interne.

  

La faillite des centres de calcul privés

Il ne se passe pas une seule semaine sans que l’on apprenne que de grandes entreprises ont été victimes de l’amateurisme de leurs équipes informatiques internes.

Sur les seuls 15 derniers jours du mois de mai 2017, j’ai retenu trois « incidents » qui ont frappé des « PME » européennes.

A la suite de l’attaque WannayCry, qui ne pouvait se diffuser que dans des centres de calcul incapables d’avoir des serveurs à jour des correctifs de sécurité Windows, des dizaines d’entreprises ont subi des pertes importantes. 

Renault a fermé l’une de ses usines pendant toute une journée.

Usine Renault à l'arrêt

  • Quel est le coût financier de cet arrêt en perte de Chiffres d’Affaires dû à la non-production des voitures ?
  • Quel est le coût pour Renault de cet arrêt sur le plan de l’image de l’entreprise ?

Telefonica todos à casaTelefónica, l’opérateur national de télécommunications en Espagne a envoyé un message à tous ses collaborateurs :

  • Arrêtez immédiatement tous vos ordinateurs.
  • Rentrez chez vous !

Mêmes questions :

  • Quel est le coût financier de cet arrêt en perte d’activités ?
  • Quel est le coût pour Telefónica de cet arrêt sur le plan de l’image de l’entreprise ?

A la suite d’une panne informatique, British Airways a été obligé d’annuler tous ses vols au départ de Londres pendant le Week End.

British airways cancels flights

  • Quel est le coût financier de cet arrêt en perte de Chiffres d’Affaires dû à l’annulation de plusieurs centaines de vols ?
  • Quel est le coût pour British Airways de cet arrêt sur le plan de l’image de l’entreprise ?

Arrêtons ces massacres ! Il est temps que tous les DSI, de toutes les entreprises du monde, comprennent qu’ils n’ont ni les compétences ni les ressources pour gérer professionnellement leurs centres de calcul privés. Ces centres de calcul privés sont de véritables passoires à la merci d’attaquants professionnels qui ne vont plus leur laisser une seule chance de protéger efficacement leurs entreprises.

Et ne venez pas me dire que vous êtes bien meilleur que les DSI de Renault, Telefónica ou British Airways ; ce sont sûrement des personnes de qualité qui essaient de faire, le mieux possible, leur métier. Ils sont simplement face à une réalité que beaucoup ont du mal à accepter : gérer un centre de calcul privé de manière efficace et sécurisée est devenu une tâche impossible.

 

Le Cloud Public, seule solution raisonnable en 2017

Il y a dix ans, Amazon créait, avec son département AWS, Amazon Web Services, le premier acteur du marché IaaS, Infrastructure as a Service. Aujourd’hui, les trois grands fournisseurs de plateformes IaaS, AWS, Google Cloud Platform et Microsoft Azure ont gagné la bataille du Cloud : les solutions Cloud Public vont faire disparaître tous les centres de calcul privés, que certains persistent à appeler Clouds Privés.

Des milliers d’entreprises aujourd’hui, toutes demain, feront confiance à ces géants industriels pour gérer leurs infrastructures informatiques, comme elles ont confié leur argent à de grandes banques.

Cloud Public - Nouveau Monde

Pour assurer cette « confiance », il existe un grand nombre de solutions SaaS, Software as a Service, tel que Zscaler présenté sur ce graphique, permettant de construire une plateforme de « Trust », TaaS, Trust as a Service. 

Avant que cette victoire du Cloud Public ne soit complète, il reste un dernier obstacle à franchir, et il est de taille : la réticence, la résistance de quelques DSI qui n’ont pas le courage de sauter le pas, qui craignent, à tort, de perdre le contrôle de leurs infrastructures.

  

Résumé

Les Directeurs financiers des entreprises ont compris, il y a longtemps, qu’il n’était pas raisonnable d’essayer d’être aussi efficaces que des banquiers professionnels.

Les DSI des entreprises comprennent, aujourd’hui, qu’il n’est pas raisonnable d’essayer d’être aussi efficaces que des fournisseurs de Clouds Publics d’infrastructures.

Les quatre schémas de ce billet montrent comment les entreprises vont répliquer les décisions prises sur les "banques internes" dans les "infrastructures informatiques internes".

AdS DPC Time for action S 55654090Attendrez-vous d’être la prochaine victime d’une cyberattaque pour basculer sur le Cloud Public ?

Attendrez-vous le prochain plantage de votre centre de calcul privé actuel pour basculer sur le Cloud Public ?

Il est plus intelligent de devancer une catastrophe annoncée, inéluctable, et de préparer, aujourd’hui, la migration de vos infrastructures informatiques sur des Clouds Publics industriels, économiques, surs et pérennes.

 


2017 : après 2007, autre année charnière pour l’innovation technologique ? Troisième partie

 

AdS DPC Numbers 3 S- 33894499Dans la première partie de cette série de billets, j’ai présenté les sept technologies nées en 2007 et qui sont devenues incontournables en 2017.

Dans la deuxième partie, j’ai abordé deux sujets : la croissance exponentielle des performances et le rôle essentiel des microprocesseurs spécialisés. 

Dans cette troisième partie, je traite le thème 2, Intelligence Artificielle et Machine Learning.

 

Intelligence Artificielle (IA), Machine Learning (ML)

En 2016, j’ai écrit deux billets sur « La décennie Machine Learning », ici et .

Début 2017, j’ai analysé les trois niveaux de l’Intelligence Artificielle dans deux textes, ici, et .

Aujourd’hui, ce sont les impacts à long terme de l’IA et du ML que je vous propose d’anticiper.

2007 - Cloud  2017 - Machine Learning - ExponentialLa croissance « exponentielle » des usages IA/ML sera encore plus rapide que celle du Cloud Computing au cours de la décennie 2007 - 2016.    

Image Interview Jeff BezosAvec l’IA et le ML, nous sommes au tout début d’une révolution majeure. Jeff Bezos, PDG d’Amazon, l’a bien résumé dans une interview récente :

« Machine Learning et Intelligence Artificielle sont une couche horizontale à haut potentiel. Ils vont améliorer et donner plus de potentiels à toutes les entreprises, toutes les organisations gouvernementales, tous les organismes à but non lucratif. En pratique, il n’existe pas une seule institution dans le monde qui ne peut pas être améliorée par le Machine Learning ».

Il y a deux messages clefs dans cette analyse :

  • Technologies horizontales, transverses.
  • Impacts universels, dans tous les secteurs d’activité.

 

IA et ML, technologies horizontales, transverses

Dans la deuxième partie de cette analyse, j’ai insisté sur l’apport des processeurs spécialisés à l’IA et au ML ; ils vont rendre possibles des milliers de nouvelles applications que personne, aujourd’hui, n’est capable d’imaginer. 

Les solutions horizontales d’IA/ML sont déjà disponibles dans toutes les grandes plateformes Cloud Public, IaaS, SaaS et PaaS. Ceci permet aux organisations de toute taille, de tout secteur, d’ajouter de l’IA et du ML dans tous leurs usages informatiques. Demain, IA et ML seront « natifs » dans les solutions SaaS du marché mises en œuvre. La priorité, en 2017, est donc d’imaginer comment les applications « cœur métier », développées en interne, peuvent aujourd’hui s’appuyer sur l’IA et le ML pour offrir des services innovants, porteurs de compétitivité et de différentiation.

Trois composants BIS - Infra  Soutien  Métiers -IA ML

Comme ces solutions techniques sont disponibles sur des clouds publics, les PME peuvent lutter à armes égales avec les grandes organisations. Les Directions Générales et les DSI qui seront les premiers à déployer ces usages IA/ML innovants vont donner à leur entreprise une longueur d’avance sur la concurrence.

Il est essentiel de comprendre qu’une entreprise « normale », qui n’a pas les moyens d’embaucher des spécialistes de haut niveau de l’IA/ML, pourra accéder à des solutions mettant à sa disposition des fonctionnalités très avancées, dont la complexité sera masquée grâce aux efforts des ingénieurs logiciels des grands fournisseurs de plateformes d’IA/ML.

Je vous propose de rajouter à chaque nouveau projet d’application cœur métier une ligne : « comment utiliser l’IA et le ML pour rendre cette application plus compétitive ? »

  

IA et ML, impacts universels

L’IA et le ML seront omniprésents en 2027. Les 5 ou 6 milliards d’internautes utiliseront de manière transparente et naturelle des solutions d’IA/ML dans toutes leurs activités personnelles et professionnelles. J’ai beaucoup de mal à imaginer l’étendue et la variété de mes usages ML/IA quotidiens, transparents en 2021.

La vie quotidienne de milliards de personnes dépendra de plus en plus de ces outils ML/IA, comme elle dépend déjà aujourd’hui de l’électricité et de leur smartphone. Nous en avons déjà les prémices aujourd’hui ; je prendrai un seul exemple :

Smart Traffic for FranceBeaucoup de personnes ne sont plus capables de s’orienter dans leurs déplacements sans des applications comme Google Maps ou Waze qui leur dictent le meilleur chemin d’un point A à un point B. Il existe même une application dédiée à la France, Smart Traffic !

Les conséquences à long terme en sont très claires et … inquiétantes :

Addiction ML et IA

En 2027, il n’existera plus une seule activité économique dans le monde, plus une seule personne, qui ne dépendra pas, pour sa vie et son activité quotidienne, de solutions très puissantes de Machine Learning et d’Intelligence Artificielle.

  

Les nouveaux maîtres du monde

Pour réussir dans le ML/IA, il est nécessaire de disposer :

  • De puissances de calcul infinies.
  • De capacités de stockage infinies.
  • De « Zetta octets » de données.
  • D’outils très puissants de ML/IA, matériels et logiciels.
  • D’équipes de très haut niveau qui maîtrisent ces outils.

Aujourd’hui, dans les pays occidentaux, Amazon, Facebook, Google et Microsoft sont les seuls à disposer de ces cinq armes indispensables.

Masters of the Universe - A  F  G  M

Il s’y rajoute une dimension clef dont nous ne sommes pas tous conscients : l’avantage concurrentiel des entreprises qui maîtrisent ces outils augmente avec le temps. Les deux dimensions clefs de ce pouvoir sont les outils ML/IA et les données :

  • Plus j’ai de données, plus mes outils ML/IA deviennent performants.
  • Plus mes outils ML/IA s’améliorent, mieux ils sont capables de tirer de la valeur des données existantes.

 On rentre avec le ML/IA dans une spirale de la puissance qui, elle aussi, est… exponentielle !

On me pose souvent la question de la place d’Apple dans la période 2017 - 2027. Je n’ai pas cité Apple dans la liste des géants de demain, pourquoi ?

AdS DPC Rotten Apple S 57192021En mai 2017, Apple est l’entreprise qui a la plus forte valorisation boursière, proche de 800 milliards de dollars. Apple tire 70 % de ses revenus et de ces bénéfices de la plateforme iPhone. Cette dépendance ne garantit pas un avenir radieux pour Apple, car cette domination est fragile, comme on le verra dans un prochain texte. L’objet smartphone, l’interface tactile représentent une étape dans l’évolution des technologies ; nombreux sont ceux qui annoncent déjà la « fin du smartphone ». Si c’est le cas, Apple n’a, pour le moment, aucune source de revenus et de bénéfices capable de se substituer à l’iPhone.

BAT - Baidu Alibaba TencentDans 3 à 5 ans, les leaders occidentaux du ML/IA seront rejoints par leurs équivalents chinois, qui ont pour nom Baidu, Alibaba ou Tencent, regroupés sous le nom BAT. Ces géants asiatiques investissent massivement dans l’IA et le ML, recrutent les meilleurs talents, y compris ceux de la Silicon Valley ou d’Europe, et disposent, grâce à la taille de leur marché, de toutes les données nécessaires pour alimenter leurs solutions d’IA/ML.

Il sera intéressant de voir si, dans quelques années, les différences fortes de comportement des populations, enregistrées dans ces bases de données, donnent naissance à des solutions d’IA/ML ayant des comportements…différents.

 

Synthèse

Abraham Lincoln on the futureEn 2027, toutes les entreprises, tous les particuliers utiliseront, des dizaines de fois par jour, des outils dans lesquels l’Intelligence Artificielle et le Machine Learning seront omniprésents.

Quels en seront les impacts ? Je pense que personne ne peut répondre avec précision à cette question. Ce n’est pas une raison pour ne pas investir immédiatement dans ces technologies, au contraire.

Comme le disait Abraham Lincoln : « Le meilleur moyen de prédire l’avenir, c’est de le créer. ».


2017 : après 2007, autre année charnière pour l’innovation technologique ? Deuxième partie

 

AdS DPC 2017 Start S 123980981Regarder 2007 depuis 2017 pour déterminer les technologies qui ont profondément marqué cette décennie est raisonnablement facile ; c’est ce que j’ai fait dans la première partie de cette analyse.

Regarder 2027 depuis 2017 pour essayer d’anticiper les technologies, émergentes en 2017, qui seront considérées en 2017 comme ayant eu le plus grand impact sur cette période est plus... délicat.

Je n’ai pas trop mal réussi dans cet exercice au cours des dix dernières années, comme le montrent les nombreux textes que j’avais publié dans ce blog et qui sont référencés dans la première partie de ce billet.

J'essaie, avec beaucoup d’humilité, de refaire l’exercice pour la période 2017 - 2027. J’ai choisi sept technologies émergentes qui, comme pour la période 2007 - 2017, pourraient changer profondément nos usages des technologies informatiques. Ces sept technologies sont :

1 - Microprocesseurs spécialisés

2 - Intelligence Artificielle, Machine Learning...

3 - Réseaux 5G

4 - Edge Computing

5 - Nouvelles interfaces homme-machine

6 - Réalité Augmentée, Réalité Virtuelle

7 - Transports autonomes.

Plusieurs billets seront nécessaires pour traiter les sept thèmes.

Avant d’analyser ces sept technologies, il est important de prendre conscience qu’un mot, qui s’applique à ces sept technologies, explique l’impressionnante vitesse de ces évolutions : ce mot, c’est... exponentiel.

 

Croissance exponentielle

Gilder  Moore LawsProcesseurs, mémoires numériques, réseaux... toutes les technologies d’infrastructures voient leurs performances s’accroître de manière exponentielle. C’était vrai jusqu’à aujourd’hui, comme le rappellent ces courbes qui montrent les évolutions de ces trois domaines, avec des doublements tous les 18 mois pour les processeurs et tous les 9 mois pour la capacité des réseaux.

Cette «exponentialité» des performances va continuer entre 2017 et 2027, mais n’oublions pas que la pente d’une courbe exponentielle se rapproche rapidement de la verticale. A ce moment-là, les performances augmentent de plus en plus vite, en valeur absolue.

Exponential with manEn 2017, nous entrons dans une période de «verticalité exponentielle». En clair, cela signifie que toutes les limites que l’on connaissait en matière de performances des outils informatiques vont rapidement disparaître.

Sans Limites ! Sans limites dans la puissance de calcul. Sans limites dans les capacités de stockage. Sans limites dans les possibilités de transport de l’information.

2027, bienvenue dans un monde où les limites à la performance des technologies informatiques ont disparu !

  

1 - Les microprocesseurs spécialisés

DPC Microprocessor SS 80618919Les microprocesseurs généralistes, d’Intel, AMD ou ARM sont aujourd’hui les moteurs principaux de l’informatique. Ils auront encore un rôle important à jouer pendant les 10 ans qui viennent, mais ne seront plus des vecteurs d’innovation.

Je pronostique que ce sont de nouvelles générations de microprocesseurs spécialisés qui rendront possibles l’essentiel des innovations majeures des années 2017 - 2027. Ils resteront invisibles au grand public, comme le sont souvent les infrastructures informatiques qui servent de fondation aux nouveaux usages.

Je les place en première position dans cette liste des sept technologies ; sans eux, rien de ce que je présente dans ces billets ne serait possible.

Les premières versions de ces nouvelles familles de microprocesseurs sont déjà là, en 2017. Les progrès exponentiels dans leur puissance, au cours des 10 prochaines années, vont ouvrir des chantiers d’innovations difficiles à imaginer aujourd’hui.

Sans prétendre à l’exhaustivité, la petite dizaine de familles de microprocesseurs spécialisés présentés donnent une bonne photographie de la variété des options disponibles.

 

Processeurs graphiques (GPU)

Les cartes graphiques (GPU) existent depuis longtemps ; leurs domaines d’usages prioritaires étaient jusqu’à présent l’accélération graphique des affichages, en particulier pour les jeux vidéos.

GTX 1080 new Nvidia GPUNvidia, leader actuel des processeurs GPU, continue à investir dans des cartes pour la vidéo et les jeux, comme le montre l’annonce récente de la carte GTX 1080, plus puissante que la génération actuelle et consommant trois fois moins d’énergie.

Le nouveau champ d’action de ces cartes graphiques est dans l’Intelligence artificielle et en particulier le Machine Learning (ML).

Avec la DGX-1, Nvidia propose un super ordinateur pour l’Intelligence Artificielle (IA) :

  • Construit en utilisant les cartes graphiques Tesla P100 ; le nom n’a sûrement pas été choisi par hasard !
  • Promet des performances entre 30 et 250 fois supérieures à celles fournies par des solutions n’utilisant que des processeurs traditionnels.

Super computer AI Nvidia

Ces solutions sont disponibles pour toutes les entreprises ; les grands acteurs du IaaS, dont Google, IBM et Microsoft ont annoncé le support de ces cartes graphiques dans leurs environnements.

Les professionnels du sujet disent que ces cartes GPU sont très efficaces lors de la phase d’apprentissage des logiciels de Machine Learning. D’autres processeurs, comme les TPU présentées dans le paragraphe suivant, sont plus performants pour exécuter ces logiciels.

 Mise à jour 10 mai 2017 : NVidia vient d'annoncer ses résultats trimestriels : + 50 % de CA, + 100 % sur les bénéfices, grace aux ventes de GPU dans les centres de calcul.

Intelligence Artificielle (IA) et Machine Learning (ML)

Une nouvelle génération de processeurs, nés pour l’IA et le ML, pointe le bout de son nez. Ce ne sont pas des Intel ou des Nvidia qui les conçoivent, mais des entreprises du Cloud comme Google.

Google TPU processorLa plateforme logicielle de ML de Google a pour nom TensorFlow ; il était donc logique de créer le TPU, TensorFlow Processing Unit, processeur dédié pour cette plateforme. Les fans de technologies trouveront dans cet article une présentation détaillée de l’architecture TPU.

Chip Dédié Google AI = less Data CentersLes TPU sont massivement déployés dans les centres de calcul de Google. Un article publié dans Wired explique que Google a évité de construire une douzaine de nouveaux centres de calcul grâce à la puissance de ces TPU.

 

La création de processeurs spécialisés IA s’accélère en 2017 : parmi les nouveau-nés, il y a Gloq, société créée par des anciens de… Google. Inutile de chercher leur site Web, il n’y en a pas. Ceci ne les a pas empêchés de lever 10 M$ !

Il n’est plus possible de citer toutes les startups dans ce domaine, car leur nombre augmente très vite ; parmi les annonces récentes :

  • KnuEdge, fondée par des anciens de la NASA, avec 100 M$ d’investissements.

Knu:Edge Neural CPU

  • DynamIQ, créé par ARM, le leader des processeurs pour smartphones et qui a lui aussi décidé de se joindre à ce mouvement.

 

Processeurs quantiques

Les premiers processeurs quantiques sont nés il y a près de 10 ans, en 2009.

Processeur quantiqueCe sont des technologies très complexes, dans lesquelles les « bits » sont remplacés par des «qubits », capables de prendre plusieurs états. Pour fonctionner, un calculateur quantique doit être totalement isolé du monde extérieur.

Des progrès majeurs ont été réalisés récemment dans les ordinateurs quantiques depuis que des géants de l’informatique comme IBM ou Google ont décidé d’y investir massivement.

Google devrait annoncer, avant la fin de l’année… 2017, un processeur 50 qubits ; il pourrait devenir le calculateur le plus puissant du monde !

On entendra beaucoup parler de qubits entre 2017 et 2027. Je suis prêt à parier que beaucoup d’informaticiens diront en 2027 :

« Comment pouvait-on faire de l’informatique en 2017, quand les processeurs quantiques n’existaient pas ? »

 

Processeurs «programmables» FPGA

L’industrie informatique utilise depuis longtemps des processeurs ASIC (Application Specific Integrated Circuit). Ce sont des processeurs spécialisés pour une tache, performants, mais que l’on ne peut pas modifier ensuite.

Altera fpgaLes processeurs FPGA (Field Programmable Gate Arrays) représentent la nouvelle génération des ASIC.

La différence essentielle entre les deux familles : la logique de fonctionnement des FPGA est modifiable par les utilisateurs, ce qui donne beaucoup plus de souplesse et permet de faire évoluer les usages au cours du temps.

Les deux leaders, Xiling et Altera, représentent environ 90 % du marché des processeurs FPGA.

Le marché des processeurs FPGA est-il vraiment stratégique ? Pour vous en convaincre, il suffit de savoir qu’Intel a déboursé 16,7 milliards de dollars pour racheter Altera ! C’est le plus important investissement jamais réalisé par Intel.

AWS F1 FPGA EC2L’importance croissante des processeurs FPGA est confirmée par le fait que les grands acteurs du Cloud comme AWS commencent à les proposer à leurs clients. On les trouvera de plus souvent dans le traitement de la voix et de l’image.

A côté de ces nouvelles familles de processeurs à usages potentiels très variés, on note l’émergence de nouvelles familles de processeurs dédiés à une seule activité. Sans prétendre à l’exhaustivité, j’ai choisi 4 domaines spécialisés :

  • La voix
  • L’image
  • Le transport
  • La sécurité 

Traitement de la voix

Amazon Echo - Just AskLes succès d’Amazon avec Echo et de Google avec Home, leurs boîtiers pilotés à la voix, montrent l’importance croissante des « interfaces voix ».

Des équipes du MIT ont développé des microprocesseurs spécialisés dans la reconnaissance vocale, capables de fonctionner avec une consommation électrique divisée par... 100. Ils pourront être déployés partout, à coût très bas, y compris dans des environnements industriels où les avantages du pilotage à la voix sont évidents.

La reconnaissance vocale est l’une des sept autres innovations que j’analyse ici ; une fois encore, c’est grâce aux performances de microprocesseurs spécialisés que les progrès les plus spectaculaires seront rendus possibles. Qui a financé cette recherche ? Le constructeur de microprocesseurs Quanta, basé en Corée du Sud.

 Pour des usages « plus classiques » autour du son, les GPU sont encore très utilisés : c’est le cas par exemple de Shazam, l’application capable de reconnaître en quelques secondes plus de 40 millions de thèmes musicaux. Shazam s’appuie de plus en plus sur les solutions Cloud de Google qui propose des GPU en IaaS.

 

Vision : processeur d’images

La reconnaissance d’images dans des photos et des vidéos est une priorité pour des entreprises comme Google ou Facebook. Dans ce domaine aussi, on a vu apparaître des acteurs spécialisés tels que Movidius avec ses processeurs Myriad.

Fathom by MovidiusPour rester dans la course et offrir des solutions spécialisées à ces clients, Intel a aussi racheté Movidius.

En 2016, Movidius a présenté Fathom, une clef USB dans laquelle est logé un processeur d’images Myriad ; ceci permet de rajouter un réseau neuronal de traitement de l’image à un PC classique ! Prix de vente de cette clef de calcul neuronal ? Environ 100 $.

 

Processeurs Transport

Voitures, camions, autobus… Tout le secteur du transport se prépare à l’invasion des véhicules autonomes. Les besoins de calcul dans les processeurs embarqués dans ces objets roulants sont gigantesques et vont donc demander des… processeurs spécialisés.

Nvidia automous carNvidia a annoncé Xavier, son processeur pour véhicules autonomes, qui sera disponible… fin 2017. Avec 7 milliards de transistors et une puissance de calcul de 20 TOPS (Trillion Operation Per Second), il va transformer tout véhicule en un super ordinateur.

Au CES de 2017, Nvidia a présenté une voiture Lincoln équipée avec Xavier. 

 

Processeurs sécurité

Nous utilisons tous depuis des dizaines d’années des processeurs spécialisés pour la sécurité pour nos cartes de crédit.

La course poursuite entre « les gendarmes et les voleurs » dans le cyberespace demande de plus en plus de puissance de calcul, donc des… processeurs spécialisés.

Gogole Security chip TitanPour améliorer la sécurité de ces centres de calcul, Google a annoncé en… 2017 Titan, un processeur dédié à la sécurité.

Du côté des objets d’accès, c’est SK Telecom, en Corée du Sud, qui présente un tout petit processeur pour smartphones, capable de générer de manière vraiment aléatoire des nombres premiers, indispensables dans les processus de chiffrement.

 

Synthèse  

Cette liste de nouvelles générations de microprocesseurs peut vous paraître un peu longue ; elle est pourtant incomplète et a pour seul objectif de vous faire toucher du doigt à quel point les microprocesseurs spécialisés seront les portes d’entrée indispensables pour la majorité des grandes innovations technologiques des 10 prochaines années. 

Troisième partie : Intelligence Artificielle et Machine Learning


2017 : après 2007, autre année charnière pour l’innovation technologique ? Première partie

 

2007 logo2007 ? Pourquoi proposer aujourd’hui ce retour en arrière de 10 ans quand je privilégie dans ce blog des réflexions sur les 5 ou 10 prochaines années ?

2007 restera dans l’histoire de l’informatique une année charnière, qui a vu la naissance de très nombreuses technologies innovantes, de rupture. J’ai souvent eu l’occasion, en dix années d’écriture de billets sur ce blog, de traiter ces différents sujets.

Dans 10 ans, en 2027, est-ce que l’on considérera aussi que 2017 a été une autre année charnière ? C’est ce scénario que je vous propose d’analyser dans ces billets.

Comprendre le passé pour mieux anticiper l’avenir, c’est parfois un exercice utile.

  

2007  : sept innovations technologiques extraordinaires

DPC number 7 SSUn monde sans smartphones, sans réseaux sans-fil rapides omniprésents ? Pour beaucoup d’entre nous, et en particulier les 12 - 20 ans, c’est difficile à imaginer, aujourd’hui. On oublie vite que ces innovations n’ont pas toujours été à nos côtés.

J’ai choisi les sept innovations qui, à mon avis, ont eu le plus d’impacts sur nos vies personnelles et professionnelles. Votre sélection est peut-être différente de la mienne, on pourra échanger sur ces écarts dans les commentaires.

 

1 - Smartphone

Steve Jobs with iPhoneLe lancement de l’iPhone 1 par Steve Jobs est l’événement fondateur de cette année 2007. C’est aussi, à mon avis, l’innovation technologique qui a le plus marqué ces dix dernières années.

Nombreux sont ceux qui n’en ont pas compris immédiatement l’importance ; le plus célèbre d’entre eux ? Steve Ballmer, CEO de Microsoft, qui déclarait que l’iPhone n’avait pas la moindre chance de prendre des parts de marché !

Ballmer iPhone no chance

Les chiffres du Gartner sont sans appel : en 2016, il s’est vendu 1 500 M de smartphones contre 270 M de PC, 5,5 fois plus.

Sales 2016 - PC vs Smartphones 

2 - Infrastructures Cloud, IaaS, Infrastructures as a Service

BusinessWeek Bezos AWS 2007AWS, Amazon Web Services, la branche IaaS d’Amazon est née fin 2006, début 2007. Je n’oublierai jamais les réactions «amusées» des grands fournisseurs historiques de serveurs, Dell, HP, IBM et des DSI «sérieux» des grandes entreprises françaises face à ce vendeur de livres qui se prenait pour un fournisseur de solutions informatiques quand je leur annonçais que c’était l’avenir des infrastructures informatiques.

En 2016, AWS a dépassé les 12 milliards de dollars de CA avec un bénéfice supérieur à 3 milliards de dollars.

AWS Sales 2016

 

3 - Les usages universels «Bureautique» dans le Cloud

C’est en février 2007, à Blog LN Google Apps 2007Paris, que Google a annoncé Google Apps, la version professionnelle de ses outils universels grand public autour de Gmail.

Des entreprises innovantes françaises, Valeo, Essilor... avaient accepté de tester cette solution avant son annonce officielle. Là encore, c’était un fournisseur «grand public» qui osait s’attaquer aux leaders historiques de l’époque, Microsoft et IBM.

Aujourd’hui, les entreprises «traditionnelles» peuvent faire semblant de migrer leur bureautique dans le cloud en choisissant la solution Office 365 de Microsoft, solution qui leur évite d’apporter le moindre changement dans les usages de leurs collaborateurs.

 

4 - Réseaux sans fil rapides, 3G, 4G et WiFi

En 2017, la probabilité de ne pas trouver un réseau 3G, 4G ou WiFi pour accéder à Internet et au Cloud est devenue très faible. Dans tous les pays, tous les continents, les infrastructures de réseaux sans fil sont déployées et permettent un accès banalisé aux solutions Cloud.

Voice & Data Mobile 2007 - 2011

Comme le montre très bien cette étude Ericsson, les échanges de données sur les réseaux mobiles étaient inexistants en 2007 ; dès 2011, les flux de données sur réseaux mobiles étaient trois fois supérieurs aux échanges voix.

 

5 - L’omniprésence de la vidéo numérique

YouTube a été racheté par Google en 2006 et lancé en 2007.

Fin 2015, 400 heures de vidéos étaient montées sur YouTube chaque... minute. En 2017, le milliard de vidéos vues par jour a été dépassé.

Video importe Youtube

Facebook, Netflix... font aussi partie de ces fournisseurs de contenus vidéos devenus incontournables, et qui n’existaient pas en 2007.

Il ne viendrait plus à l’esprit d’une seule entreprise de ne pas avoir, en 2017, un ou plusieurs canaux «corporate» YouTube !

YouTube presence of cars vendors

 

6 - L’explosion des réseaux sociaux, grand public et professionnels

C’est en 2007 que Facebook, qui jusqu’à cette date, était réservé au monde éducatif (.edu) s’est ouvert à tous.

Facebook active users 2007 - 2012

Les 800 millions de membres actifs étaient atteints dès 2011 ; ils sont aujourd’hui 1 300 millions.

LinkedIn 500 M UsersLe leader des réseaux sociaux professionnels, LinkedIn, vient d’annoncer en avril 2017 qu’il avait franchi la barre des 500 millions de membres actifs.

Après les échecs répétés des RSE (Réseaux Sociaux d’Entreprise) déployés en Intranet, les entreprises commencent à utiliser pour leurs collaborateurs des solutions grand public adaptées telles que Workspace by Facebook.

 

7 - Les solutions SaaS, Software as a Service, pour usages support

Marché CRM en 2007Salesforce a été la première solution SaaS sur le marché au début des années 2000. En 2007, Salesforce représentait moins de 10 % du marché des logiciels CRM, comme le montre ce graphique.

Aujourd’hui, en 2017, plus de 5 000 solutions SaaS de haute qualité couvrent 99 % des besoins des entreprises pour toutes les fonctions support, telles que CRM, pilotage RH, gestion des budgets ou trésorerie.

 

 

Synergie

AdS DPC Synergy hands S 45041751Ces sept innovations sont importantes, prises individuellement. Mais c’est leur synergie qui a déclenché l’explosion exponentielle des usages numériques de ces dix dernières années. Le smartphone est devenu la fenêtre universelle pour visualiser des contenus, des vidéos, des applications professionnelles, alimenté par des réseaux mobiles rapides et la capacité infinie de stockage dans les infrastructures Cloud, encourageant leur partage dans les réseaux sociaux.

Dans les prochains billets de cette série, je vous proposerai ma sélection des sept technologies, émergentes en 2017, qui pourraient devenir indispensables en 2027.

Deuxième partie : Croissance exponentielle et processeurs spécialisés.

Troisième partie : Intelligence Artificielle et Machine Learning.