Previous month:
mai 2006
Next month:
juillet 2006

Géoportail, suite - J+ 5

Jamais mon blog n’avait connu un tel niveau d’usage ; j’ai eu plusieurs milliers de visites sur mon texte qui parlait de Geoportail et Google Earth. Probablement les déçus de Geoportail qui sont venus sur mon blog : merci à Typepad d’avoir tenu le choc, lui !

J’ai attendu cinq, longues, journées, avant de réagir aux très nombreux messages reçus, par mail ou par blog.
Plutôt que de rajouter un nouveau commentaire, je pense plus raisonnable de publier un nouveau texte.

Que dire ?

Mes pronostics les plus sombres se sont, hélas, réalisés ; j’aurais été très heureux de pouvoir faire mon “mea culpa” et d’annoncer que mes réactions et craintes, à chaud, ne s’étaient pas réalisées.

Malgré des dizaines et des dizaines d’essais, à différentes heures de la journée et de la nuit, je n’ai toujours pas été capable de visualiser une seule image de Geoportail ; toutes les personnes qui ont laissé des commentaires sur ce blog sont dans la même situation.
Pagesjaunesfr_1 Seuls quelques informaticiens hyperpros, qui ne sont pas, à ma connaissance, les clients cibles de Geoportail, ont réussi à apercevoir quelques images !
Pagesjaunes.fr semble donc, pour le moment, la meilleure solution pour accéder aux images de l’IGN. France Télécom, qui envisage de vendre Pages jaunes, doit être ravi de cette publicité gratuite que lui fait l’IGN !

Les réactions... ahurissantes, de l’IGN !

Des excuses, des regrets, des propositions de solutions ? J’attends toujours !
L’innovation prend des formes surprenantes ; même si je ne les ai pas connus, il semble que la solution retenue par l’IGN ressemble aux coupons de rationnement alimentaire pendant la guerre de 40 , vous aurez droit à 30 minutes de Geoportail par semaine, aux heures imposées.
Oser proposer, dans un monde où il y a 1 000 millions d’internautes, des heures de visites, comme cela se passe dans les musées, j’avoue que cette idée saugrenue ne me serait jamais venue.

Les budgets

Les seuls chiffres dont je peux parler sont ceux qui ont été communiqués dans la presse, car je ne connais pas les détails de l’opération. Le chiffre qui circule le plus souvent est d’une dépense de 6 à 8 millions d’euros pour le seul développement du “service Web” Geoportail.  Les bases d’images utilisées existaient déjà.
Un responsable de l’IGN, cité par 01.net aurait dit : « On ne pouvait pas surdimensionner les machines, c'est quand même de l'argent public »
Je ne suis même pas sûr qu’il se soit rendu compte de l’énormité de sa déclaration : dépenser l’argent du contribuable pour développer une belle application, c’est bien.  En dépenser sur l’intendance, des serveurs d’infrastructures pour que ce Service Web soit accessible, ce n’est pas noble, ce n’est pas important.Nouveaux_centres_google_1

Ce que je disais sur le profond mépris pour les infrastructures se confirme, hélas.
Sur cette photo, on aperçoit le chantier de construction des nouveaux centres de traitement que prépare Google ; chaque rectangle blanc, et il y en aura trois, est de la taille d’un stade de football américain.
De quoi héberger quelques serveurs !

L’innovation ?

Tous les commentaires confirment que les images préexistaient et que Geoportail n’a pas eu à créer une base d’images nouvelles. C’est d’ailleurs comme cela que fonctionne Google Earth, en achetant des images existantes dans les différents pays.
Cette ré-utilisation d’un capital image me paraît une bonne idée encore que... d’après les commentaires très bien renseignés (merci NicolaG), l’âge de certaines images et leur non-cohérence en termes de formats et d’échelle puissent poser un jour problème (le jour, s’il arrive, où l’on pourra consulter les images sur Geoportail.)
Je n’ai rien lu de nos politiques qui relativisent l’innovation de Geoportail dans ce domaine. J’étais, comme beaucoup, persuadé qu’il s’agissait d’un grand effort national de création et mise à disposition d’images nouvelles.

La qualité des images

Les rares personnes qui ont eu accès aux images, avant l’ouverture au public et la fermeture opérationnelle du site, ont un sentiment “mitigé” sur la supposée supériorité technique de Geoportail par rapport à Google Earth.
Ille_sur_tet_pages_jaunes_ign J’ai recherché sur pagesJaunes les images IGN de mon petit village natal des Pyrénées, Ille / Têt.  Elles sont meilleures que celles de Google Earth, mais pas d’une qualité époustouflante.Ille_sur_tet_google_earth







Encore plus grave que ce que je craignais

Résumons :
- La base d’images utilisée était déjà disponible, et ne brille pas par sa fraîcheur et sa vitesse de mise à jour.
- Les seuls investissements (de 6 à 8 millions d’euros) ont été faits sur la nouvelle couche applicative Geoportail.
- Rien de sérieux n’a été fait, n’y n’est prévu, en termes d’infrastructures serveurs et réseaux, que ce soit en interne IGN ou en externalisation.
- Une inaccessibilité structurelle qui devrait durer tant que les Français auront la drôle d’idée de vouloir consulter Geoportail aux heures qui les intéressent et aussi souvent que cela leur fait plaisir. 
Où va-t-on, mon bon Monsieur, si on autorise l’utilisation d’Internet sans contraintes ?

J’aurai, heureusement, des sujets plus “positifs” à traiter dans les jours qui viennent.


GeoPortail vs Google Earth, deux visions ... des Systèmes d’Information

Logo_geoportail Non, je ne vais pas vous parler des différences techniques, telles que la couverture ou le niveau de définition des images qui existent entre la nouvelle offre Geoportail, annoncée en France le 23 juin par l’IGN et Google Earth.
Je suis beaucoup plus intéressé, fasciné, par les différences d’approches entre ces deux solutions, par l’abîme culturel qui les sépare.

L’annonce !

Le 23 juin 2006, deux événements majeurs ont marqué la France : la difficile qualification de notre équipe de foot pour la suite de la coupe du monde et... l’annonce officielle de Geoportail, le nouveau service de l’IGN permettant de voir “La France d’en haut” (Tout un symbole, un an avant les élections présidentielles !)

« Remarquable, merveilleux, étonnant ! C'est un enjeu de modernisation pour l'Etat qui doit être exemplaire dans l'usage des nouvelles technologies » a déclaré Jacques Chirac, à qui l’on a fait une démonstration privée, au Palais de l’Elysée, avant l’ouverture au public.

« Vraie merveille de la technologie, spectaculaire, éblouissant de simplicité » s’exclament en cœurPerben nos trois ministres, Dominique Perben, Jean-François Copé et Nelly Olin, chargés de “couper le ruban” inaugural, avant 12 h 30, heure de l’ouverture officielle au “public d’en bas”.

“Une carte de France à faire pâlir Google Earth” titrent nos amis de 01.net.

Face à ces merveilleuses déclarations, j’ai un ...

“Petit” problème !

J’aurais bien aimé illustrer ce texte d’une image venant de Geoportail.  Bêtement, comme beaucoup d’autres Français, j’ai essayé de me connecter sur ce site pour profiter de cette merveille technologique française, seul pays à proposer une “riposte nationale” à Google Earth. (Il paraît qu’aucun des trois ministres présents à l’inauguration n’a prononcé ce nom tabou !)

Quelle surprise ! Ce service innovant a provoqué un afflux de visiteurs sur le site de l’IGN !  Nous avons tous été accueillis par le merveilleux message ci-joint !
Message_geoportail_nombreux_1
J’ai même essayé de me connecter pendant le match de foot France - Togo, en pensant, naïvement, avoir une petite chance d’y accéder ; peine perdue !
Geoportail_1 Je n’ai réussi à obtenir que la carte mondiale m’indiquant toutes les zones géographiques couvertes par Geoportail. 
Ceci m’a au moins permis de corriger une lacune impardonnable de ma culture géographique nationale et de découvrir l’existence d’un territoire que j’ignorais, les ... îles Crozet. Merci, l’IGN.

Iles_crozet_1
Heureusement que Wikipédia m’a permis de combler ce déficit de connaissance en me proposant, immédiatement, une carte de ces îles, avec, il est vrai, une définition totalement inacceptable !

Je ne désespère pas, le 24 décembre 2006 vers 23h 59, d’avoir enfin accès à ce merveilleux service que le monde entier doit nous envier ! 
Rendez-vous compte, nous sommes le seul pays à proposer une couverture à 50 cm par pixel, sur 100 % du territoire ! Ne pouvant le vérifier, je suis même prêt à faire une confiance “aveugle” à l’IGN et croire que les 400 000 photos utilisées permettent cette précision.

Un condensé des “maux” SI à la Française.

Je ne conteste pas les “bonnes intentions” qui ont pu présider au lancement de Geoportail.  Je constate simplement que c’est un parfait condensé des erreurs commises par trop de responsables informatiques qui lancent des grands projets, dont nous sommes tellement friands en France.
Comparer Geoportail et Google Earth, c’est un exercice “douloureux” mais qu’il faut avoir le courage de faire pour comprendre les maux dont nous souffrons trop souvent.
N’ayant, en rien, participé à ce projet, je ne peux en faire qu’un diagnostic externe, au vu des résultats.

Quels sont les principaux défauts de Geoportail ?

- Unicité
Tout ou rien, du Mont Saint-Michel au moindre village, il n’était pas envisageable d’ouvrir le service tant que tout ne serait pas au même niveau. Il serait trop dangereux de se mettre à dos le maire d’une commune qui n’aurait pas, immédiatement, eu droit au même service, à la même qualité que Mr Delanoé, maire de Paris.

- Universel
La moindre parcelle du territoire national doit être traitée de la même manière.  Je n’ose même pas me poser la question du rapport coût/valeur de l’envoi d’une équipe photographique aux îles Crozet et Quergelen pour y réaliser des images qui seront consultées par des millions de personnes.

- Parfait
Il ne doit surtout pas manquer un “bouton de guêtres” sur le service proposé, à l’ouverture ! Versions beta, connaît pas !
N’aurait-il pas été plus raisonnable, plus efficace, d’ouvrir le service dès que les premières 10 000 photos auraient été prises ? Ceci aurait permis aux internautes de tester le service et de proposer des améliorations.
Quel crime de lèse-majesté que d’imaginer que les utilisateurs pourraient avoir une vision et des attentes différentes de celles de la maîtrise d’ouvrage !
Nous aurions alors assisté à des échanges “intéressants” entre maîtrise d’œuvre, maîtrise d’ouvrage, maîtrise d’œuvre déléguée à la maîtrise d’ouvrage et maîtrise d’ouvrage déléguée à la maîtrise d’œuvre pour savoir qui devait prendre en charge la responsabilité, et les budgets, relatifs à ces demandes de modifications que le “vulgum pecus” avait l’outrecuidance de suggérer.

- Meilleur
Eiffel_tower_google_earth_1 Google Earth nous propose une définition de 2 m ; nous ferons mieux !
L’Astérix informatique qui sommeille dans l’esprit de nos politiques prend le relais et les pousse à développer des outils, des solutions qui doivent impérativement être meilleures que ce que font nos amis étrangers, surtout s’ils sont américains !

La leçon n’a toujours pas été comprise et la prochaine catastrophe annoncée s’appelle Quaero, le moteur de recherche national (avec une participation théorique allemande) pour lequel vont être dépensés des dizaines de millions d’euros. 
Loic le Meur a présenté avec brio, sur son blog, les 10 raisons de l’échec programmé de de projet.

- Mépris pour les Infrastructures

Fallait-il un schéma directeur à cinq ans pour prévoir que la demande serait forte les premiers jours ?
L’essentiel des investissements a dû être réalisé dans le développement des applications et les probables dépassements n’ont pas permis d’investir sur les infrastructures informatiques suffisantes pour supporter la charge.
Google investit des milliards de dollars dans des infrastructures, serveurs, réseaux, pour garantir une performance optimale de ses services.
Est ce que les informaticiens de l’IGN ignorent qu’il existe des sociétés spécialisées très performantes, telles que Akamai, qui peuvent mettre à la disposition de leurs clients des infrastructures capables d’absorber les pointes de charge ?  Ont-ils entendu parlé de l’informatique “On demand” qu’IBM et autres HP auraient été ravis de mettre à leur disposition ?
Mépris pour la logistique, ignorance ou absence de budgets ? Peu importe la raison, cette non-adéquation des infrastructures à la demande prévisible est inacceptable.

- Contrôle étatique
Le service universel c’est bien, mais l’intérêt national, la sécurité, et mille autres raisons créent des exceptions. J’imagine sans peine les dizaines de réunions qui ont pu avoir lieu pour choisir les zones “sensibles” qu’il fallait protéger de la curiosité du citoyen lambda. 
Un bon exemple : il serait malséant que nous puissions admirer ... le château qui sert de résidence secondaire de Jacques Chirac en Corrèze ; il a donc été effacé de la carte ! C’est au moins aussi stratégique que l’Île longue, à Brest, qui abrite nos rares sous marins nucléaires.

- Statique
Saura-t-on un jour combien a coûté la création de ces 400 000 photos aériennes ?
Un premier élément de réponse a été fourni par le responsable de l’IGN qui, à une question sur la fréquence de mise à jour des photos a répondu :
“ Il est prévu une actualisation tous les ... cinq ans”.
50 cm tous les cinq ans, par avion ou 2 m tous les mois, par satellite ? Quelle est la solution qui offre le meilleur rapport coût/valeur ?
Google et Microsoft proposent déjà des images 3D, haute définition, prises par avion volant à basse altitude ou par des voitures. La différence : elles ne sont pas disponibles pour toutes les zones, en même temps.

- Management centralisé
La liste des organismes publics qui ont collaboré au projet Geoportail est impressionnante ; c’est d’ailleursPartenaires_geoportail_2 l’une des rares informations accessibles sur le site de Geoportail !

Je n’ai lu nulle part que Geoportail avait, comme Google Earth, ouvert ses API pour permettre à des entreprises ou des particuliers de s’appuyer sur ce lourd investissement public pour proposer, imaginer des services nouveaux.
En moins d’un an, des dizaines de Mashup Google Earth ont fleuri, couvrant aussi bien le domaine des agences immobilières que le golf. D’entrée de jeu, les responsables de Google, qui ne sont pas les personnes les moins brillantes du monde, ont pris la décision de laisser le pouvoir à l’intelligence des internautes de tout pays pour imaginer de nouveaux services.
Envisager qu’une PME innovante, Française ou non, puisse imaginer un service non prévu par notre “intelligencia” nationale, ose profiter de cet important investissement public pour faire des bénéfices, cette horrible idée n’a jamais traversé l’esprit des responsables de Geoportail.

- Hexagonal
Une couverture parfaite des 700 000 ou 800 000 Km2 que représentent l’ensemble des territoires français, pourquoi pas. 
Je croyais que la France faisait partie d’un ensemble plus large, l’Europe. J’aimerais croire que l’IGN et le gouvernement français ont, immédiatement, prévenu nos voisins et amis espagnols, allemands, belges... de nos projets, de nos choix techniques, pour envisager, avec eux, une collaboration efficace.
Face à la couverture, imparfaite, mais mondiale, d’un Google Earth et des autres solutions de Mapi et Microsoft, aurait-il été idiot de créer une dynamique européenne pour mutualiser les efforts, les ressources et les résultats ?

J’arrête là ce jeu de massacre  !
Images d’en haut, France d’en haut, Informatique d’en haut, quelle belle cohérence ! Quels merveilleux résultats !

Quel futur ?

Avertissement : Toute ressemblance entre les caractéristiques de Geoportail et celles des SI de certaines de nos grandes entreprises serait une simple coïncidence !

Universel, unique, centralisé, contrôlé par des organismes publics, statique, inutilisable, Geoportail est la parfaite caricature d’un “SI made in France” !

Imparfait, incomplet, innovant, ouvert, collaboratif, opérationnel, utile, évolutif, pragmatique, Google Earth est un bon exemple d’un “SI made in Web 2.0” !

J’ose espérer que Geoportail, dernier avatar des “SI à la Française”, aura au moins réussi, comme vaccin efficace, pour tous nos responsables informatiques.
Il les protégera, définitivement, contre ces maladies redoutables qui nous empêchent de développer des SI modernes et efficaces.

On peut toujours rêver !

Mise à jour du 28 Juin 2006

Devant la richesse et la force des commentaires générés par ce texte, et pour tenir compte des "surprenantes" évolutions du problème, je viens de publier un nouveau texte sur le sujet.


Bill, Ray et Steve (suite, mais pas fin !)

Les choses vont vite, très vite, chez Microsoft, après l’annonce du “retrait” de Bill Gates (Voir texte précédent). 
Sans aucun préavis, Le départ de Martin Taylor a été annoncé ce mercredi 21 juin (Jour de la musique, ou des chaises musicales ?)
`
Un rapide historique est utile pour comprendre la signification de ce premier changement important.

Cossget_the_facts_ms_campaigns_1 Martin Taylor, Senior VP avec 13 ans d’ancienneté chez Microsoft, était directement rattaché à Steve Ballmer. 
Il s’était rendu “tristement” célèbre sur Internet en prenant la responsabilité de la campagne menée par Microsoft contre les logiciels Open Source, sous le nom de “Get the Facts”.

Toute personne qui en naviguant sur Internet, lisait un document sur Linux ou d’autres logiciels libres voyait apparaître dans son navigateur une des nombreuses publicités de Microsoft “démontrant” que Linux avait un TCO plus élevé que Windows, que Linux sur Mainframe coûtait 10x plus cher que Windows, que...
Toutes ces allégations étaient étayées par des études menées par de grands cabinets, tels que Meta et Forrester, financés par Microsoft.
Je serais curieux de savoir quel est le pourcentage de lecteurs de ces très coûteuses campagnes qui ont été convaincus par ces dires !

Revenons à la chronologie du départ de Martin Taylor.

- 15 Juin : Bill Gates annonce qu’ll céde sa place de Chief Software Architect a Ray Ozzie
- Mardi 20 juin, Martin Taylor a encore comme titre officiel :
“Corporate vice president, Windows Live and MSN”
- Mardi 20 juin, Microsoft annonce, dans un communiqué de presse qui cite Taylor, la nouvelle version de Windows Live Messenger, qui doit remplacer MSN Messenger, très célèbre en France.
- Mercredi 21 juin : départ de Martin Taylor.

Je vous en propose une analyse très simple :
Ray Ozzie est maintenant responsable des offres “Live” de Microsoft, ce qui fait que Martin Taylor, depuis quelques jours, dépend de lui, et il a deux défauts rédhibitoires :
- C’est une “Créature” de Steve Ballmer.
- Il est définitivement brûlé auprès de la communauté des développeurs Open Source.

En éliminant immédiatement Martin Taylor, Ray Ozzie transmet trois messages forts :
- Je suis maintenant le Boss de toute l’offre “Moderne” de Microsoft.
- Je ne souhaite pas avoir autour de moi des personnes trop marquées par leur attachement à Steve Ballmer, image de l’"ancienne" culture.
- Je lance un message d’apaisement, de paix, à toute la communauté Open Source ; Microsoft va cesser immédiatement cette guerre sans merci contre les solutions Open Source et entamer une collaboration avec vous.
Boxing_gloves

La guerre des chefs a commencé !
Martin Taylor n’en sera pas la dernière victime.


Bill, Ray et Steve

Les faits

Billgates Bill Gates vient d’annoncer qu’il va, en juillet 2008, abandonner son rôle actif dans le management de Microsoft, en tant que CSA, Chief Software Architect.

Lors de cette déclaration, jeudi 15 juin, après la clôture de la bourse de New York, Bill Gates a fait deux annonces :

Ray Ozzie, le créateur de Lotus Notes et embauché chez Microsoft, il y a moins de deux ans, actuellement Chief Technology Officer, le remplacera immédiatement au poste de CSA.

Craig Mundle sera le responsable Chief Research and Strategy Officer.I_year_microsoft_share_1

Steve Ballmer, reste CEO de Microsoft.

En transactions hors séances, le cours de Microsoft a légèrement baissé après cette annonce.

La vidéo de cette annonce est déjà disponible sur le Web, grace à news.com

Une analyse, à chaud.

Cette déclaration signifie que Bill Gates n’est plus, à partir d’aujourd’hui, en charge directe des activités de Microsoft.  Personne ne sera dupe de l’annonce d’une période de transition théorique de deux années.
Que ce soit dans les entreprises ou en politique, un responsable qui fixe la date de son prochain départ perd immédiatement tout pouvoir effectif.
Posez la question à Jacques Chirac !

Steve_ballmer Il est intéressant de noter que dans son annonce, Bill Gates cite peu Steve Ballmer à qui 'il a laissé le soin de conclure la présentation !

Que signifie ce changement, non prévu ? Quelles peuvent en être les impacts sur la stratégie produits de Microsoft ?
Quelles conséquences pour les clients, nombreux, de cette entreprise ?

J’avais déjà, il y a quelques mois, anticipé dans un texte précédent “Bill (Gates) aurait-il compris ?” les problèmes sérieux qui se posaient à Microsoft ; j’y faisais référence au rôle clef que pourrait jouer Ray Ozzie dans le renouveau stratégique de Microsoft.
Ray_ozzie_1
Tant que Bill Gates était présent, il gardait un rôle majeur de modérateur entre les différents courants qui existaient au sein de Microsoft.
L’annonce de son prochain départ va faire sauter le couvercle de la marmite !

La querelle des anciens et des modernes

Il existe deux groupes clairement opposés au sein de Microsoft, même si les discours officiels nous jurent qu’ils travaillent la main dans la main.

Napoleonempereur_2 Les anciens représentent les équipes qui ont connu les grands succès des années 90, autour des deux produits phares que sont Windows et Office.  Ce sont eux qui continuent à apporter 1 milliard de dollars de bénéfices chaque mois dans les comptes de Microsoft.
Ce sont les mêmes qui mettent plus de cinq ans à sortir, péniblement, une nouvelle version d’un OS, Vista, en ayant pris soin, au cours de ce long, coûteux et douloureux processus d’en faire disparaître progressivement la majorité les éléments innovants tels que WinFS.
Steve Ballmer a été l’un des artisans de ce remarquable succès.

Les modernes travaillent sur les offres “Live”, orientées services Web.  Ils ont gardé les nomsImpressionnnisme_1 “historiques”, Windows live et Office live, mais je suis prêt à parier que c’est sous la pression de Steve Ballmer.
Ce sont des équipes plus petites, plus flexibles, plus innovantes, qui sortent des nouveaux produits, souvent en ß, tous les mois.
Ray Ozzie, l’homme qui a depuis toujours compris l’importance du travail collaboratif et du Web, tout d’abord avec Lotus Notes, puis avec Groove Networks, est l’animateur de ces équipes.

Les modernes sont à l’aise dans une culture Web 2.0 et savent bien que leurs adversaires, Google, Yahoo, eBay ou Amazon, ont une grande longueur d’avance.
Ils ont les compétences, l’enthousiasme et les ressources nécessaires pour devenir, rapidement, des challengers redoutables des leaders actuels du secteur.

Bill Gates ayant maintenant perdu son pouvoir de modérateur, il faut s’attendre à des conflits de plus en plus violents et ouverts entre les anciens et les modernes.
Vaches à lait Windows et Office, en fin de vie, contre innovation, futur et revenus incertains, tout oppose ces deux visions d’un monde technologique qui va vivre des mutations très fortes au cours des cinq prochaines années.

Mon pronostic

Que peut-il se passer, dans les mois qui viennent ?
Il est toujours risqué de faire un pronostic, mais je vais m’y essayer.

Je n’imagine pas que la cohabitation entre Ray Ozzie et Steve Ballmer puisse durer très longtemps.

Je pronostique donc que Steve Ballmer aura quitté Microsoft, avant le retrait définitif de Bill Gates, en juillet 2008. 
Tiendra-t-il jusqu’à la fin de l’année 2007 ? Je n’en suis pas sûr !


Des outils, bureautiques Web 2.0, par dizaines !

Même s’il existe depuis plus de 30 ans, le mot Bureautique n’a pas toujours la même signification pour tous. Je vous en propose une définition simple :

Un outil logiciel générique qu’une personne contrôle et maîtrise.

Ms_office_logo_1 Dans le monde professionnel, après plus de 10 ans de domination du couple PC Windows-Office, c’est répandue une vision terriblement réductrice de la bureautique.
Faites l’expérience et demandez à une personne qui travaille avec un PC ce que sont ses outils bureautiques ; dans plus de 90 % des cas, elle vous répondra : Office, Word, Excel, Outlook...

Visicalc_2
Toute nouvelle génération d’infrastructures informatiques commence par proposer des outils bureautiques, et le Web 2.0 ne fait pas exception à la règle.  Pour mémoire, ce sont les tableurs Visicalc et 123 qui ont été les premiers outils best-sellers sur les PC MS/DOS des années 80.

En moins de 12 mois, un très grand nombre de composants bureautiques Web 2.0 ont fait leur apparition sur le marché.
Pour éviter les erreurs commises dans les années 90, je vous demande de garder en permanence à l’esprit les trois clefs de la réussite d’une bureautique Web 2.0 :
- Proposer une très grande variété d’outils aux fonctionnalités différentes.
- Proposer, pour chaque fonctionnalité, des niveaux de puissance différents.
- Rester dans une logique de composants, en évitant comme la peste la tentation de la suite intégrée.

Variété des fonctionnalités

Empreintevis_1 La liste qui suit n’est pas limitative, mais donne une premier inventaire de la grande variété des outils bureautiques possibles :
- Ecrire des textes, des blogs, des wikis
- Calculer, gérer des tableaux de chiffres
- Gérer, améliorer des images et des photos
- Préparer un montage vidéo en y ajoutant des pistes sonores
- Dessiner, en 2D ou 3D
- Préparer une présentation simple ou multimédia
- Construire des graphiques
- Communiquer, par email, chat ou SMS
- Partager, gérer un agenda
- ... Autres outils, que chacun(e) d’entre vous peut rajouter à cette liste.

Pour illustrer l’innovation induite par l’arrivée des solutions Web 2.0, je prendrais un exempleSketchup_image_1 récent. 
Google propose une version gratuite de SketchUp, un logiciel de modélisation 3D.  Cet outil permet de créer des volumes en 3D, tels que des bâtiments ; il est aussi possible de les positionner sur une image GoogleEarth.

Des niveaux de puissance différents.

Que ce soit pour dessiner, écrire, préparer des montages vidéo ou faire des maquettes en 3D, il n’y a aucune raison pour que les centaines de millions d’utilisateurs potentiels de ces outils aient besoin d’un même niveau de puissance, ou aient envie de faire les efforts nécessaires pour acquérir la maîtrise d’outils aux fonctionnalités très riches.
Le nombre minimum de niveaux de puissance, pour chaque outil, peut être estimé à trois ou quatre :
- Débutant
- Confirmé
- Expert
- Professionnel

Photoshop_logo_1 J’ai trop souvent entendu le discours suivant : pour simplifier ... la vie des informaticiens, il suffit de donner aux utilisateurs les outils les plus puissants, même s’ils ne s’en servent que pour des fonctionnalités de débutant.  C’est une grave erreur.
La courbe d’apprentissage d’un Photoshop n’est pas comparable à celle de iPhoto de Apple ; pour éliminer les yeux rouges, ce dernier est largement suffisant !

Cette variété de niveaux se retrouve aussi pour chaque utilisateur : le niveau de puissance dont j’ai besoin ne sera pas le même pour tous les outils bureautiques Web 2.0. Le roi du tableur n’est pas forcément le champion des effets photographiques ou du montage vidéo !

Prenons un exemple : Onetrumédia est un outil Web 2.0 de montage vidéo et photo annoncé trèsOnetruemedia_video_editing_2 récemment.  Dans sa version actuelle, il répond bien aux attentes des utilisateurs débutants ou confirmés.
Je comprends le professionnel du montage vidéo, qui jongle toute la journée avec le logiciel "Première" qui me dit :
“Ce sont des outils qui ne répondent pas à mes besoins”. 
Je n’accepte pas qu’il fasse la moue en disant : “Ce sont des jouets, des gadgets beaucoup trop rustiques”.
Permettre à des millions de personnes de réaliser leurs premiers montages photos et de les montrer, fièrement, à leurs amis ou à leur famille, c’est le bel objectif, ambitieux, de Onetruemedia.

Matrice_bureautique_web_20_1 Un tableau, qui croise fonctionnalités et niveaux, peut, déjà être prérempli par un très grand nombre d’outils bureautiques Web 2.0.  Aujourd’hui, la colonne Expert restera, souvent, vide ; c’est une situation transitoire.
NumSum ou WikiCalc sont des tableurs Web 2.0 bien adaptés aux attentes des utilisateurs débutants ou confirmés ; aujourd’hui, ils ne répondent pas, et ne cherchent pas, à remplacer Excel pour le contrôleur de gestion d’une grande entreprise. Demain ?
(Les étoiles qui figurent dans ce tableau correspondent à mon profil)

Cette double variété, fonctionnalités et niveaux de puissance, est rendue possible par l’utilisation systématique de formats standards tels que JPEG, PNG ou ODF.

La situation actuelle, transitoire

Les suites bureautiques intégrées actuelles ont un triple inconvénient :
- Un choix limité de composants, imposé par les fournisseurs.
- Un choix “limité” de puissance, pour chaque composant.
- Accessoirement, un coût d’acquisition non marginal, au moins pour la suite bureautique la plus célèbre actuelle, Office de Microsoft !
Si vous tenez, absolument, à utiliser une suite bureautique archaïque, un minimum d’intelligence et de bon sens amène à choisir la solution Open Source OpenOffice.

Dorénavant, l’achat, par un responsable informatique, d’une suite bureautique intégrée payante doit déclencher une décision immédiate de la part de la Direction Générale :
Licenciement immédiat, pour faute professionnelle lourde, sans indemnités!
(Que les lecteurs qui pensent que j’exagère, un peu, me le pardonnent !)

Si, comme je l’espère, les entreprises acceptent le challenge de former leurs collaborateurs aux potentiels des outils Web 2.0, cette maîtrise du Web 2.0 par les millions de personnes va faire exploser la demande et l’offre d’outils bureautiques, toutes fonctions, tous niveaux.

En résumé, nous aurons, rapidement, à notre disposition une offre complète d’outils bureautiques Web 2.0 très variés, de différents niveaux de puissance, non intégrés, utilisant des formats standards. 

Quelle bonne nouvelle, quand le futur est porteur d'autant d’espoir !

PS : Il y a fort longtemps, j’ai créé le néologisme “Bureautique” qui est une marque déposée.
Rassurez-vous, il n’y aura jamais de poursuites pour usage de ce mot qui est rentré dans le dictionnaire !


Urgence nationale ? Un Permis de Conduire Web 2.0 !

Flickr_photosharing_1 Blogs, Wikis, partages de documents multimédias... des dizaines de “services” Web 2.0 sont aujourd’hui disponibles ; ils sont, dans leur immense majorité, utilisés par des personnes jeunes, pour leurs activités personnelles, quotidiennes, normales.

Ces “digitaux natifs” utilisent ces outils de manière naturelle, sans avoir suivi le moindre cours de formation (Leurs professeurs, ou ignorent jusqu’à l’existence de ces outils ou sont incapables de s’en servir, et à plus forte raison d’en assurer l’apprentissage).
Snowboarder
Parlez avec eux, regardez les agir : ils ont trouvé, seuls, des usages qui leurs conviennent et ne peuvent plus se passer de ces outils, qui font partie de leur quotidien.

Le challenge Web 2.0, dans le monde professionnel.

Image_bureau Il suffit de traverser la porte d’une tour, d’un bureau pour basculer dans un monde... différent ! 
Dans ces espaces professionnels, l’existence des logiciels Web 2.0 est inconnue, leur usage inexistant, leur utilité, mise en doute.
Dirigeants, informaticiens, cadres, employés, sont, pour une fois, tous unis dans une ignorance absolue des outils logiciels du Web 2.0 et des usages qu’en font leurs enfants ou leurs petits-enfants.

Oh, certes, dans ces mêmes bureaux, ils sont des millions à utiliser des outils informatiquesSkieur_analogiste d’anciennes générations ; ils n’en ont pas acquis la maîtrise et n’ont ni l’envie ni le droit de créer des informations, d’alimenter l’Intranet avec leurs commentaires, leurs idées ou suggestions.

On peut, bien sur, accepter cette dichotomie, cette fracture numérique Web 2.0 et attendre, tranquillement, que les travailleurs d’aujourd’hui laissent la place à la génération suivante. 

En a-t-on le temps ? Est-ce raisonnable ?
Ma réponse est claire :  Non !

Pourquoi agir, immédiatement ?

Il y a trois raisons de base qui poussent à l’action immédiate :
- Les services Web 2.0 existants sont des outils performants, économiques, rapides à installer et qui peuvent aider les entreprises à accroître leur compétitivité. 
Chauffeur_ancien_1 Le nombre, la variété et la qualité de ces services vont exploser dans les années qui viennent ; il serait dommage, voire dangereux, pour une entreprise, de se priver de ces armes efficaces.
- Il n’y a aucune raison objective pour que les “plus de 25 ans”, qui ne sont pas nés digitaux, soient incapables d’acquérir la maîtrise raisonnable de ces outils.
- Les entreprises auront de moins en moins le temps, et les moyens, de fournir à tous leurs collaborateurs des “chauffeurs Web 2.0” capables de les transporter dans ce nouvel espace numérique où il sera rapidement indispensable de naviguer.

Objectifs

L’image de l’auto-école s’impose naturellement. Chaque année, des milliers de personnes font unAuto_ecole investissement de quelques dizaines d’heures pour acquérir leur “sésame rose”. 
Cette formation initiale ne transforme pas l’élève en un pilote prêt à gagner un grand prix de Formule 1.  Elle lui met, plus raisonnablement, le pied à l’étrier et lui permet, ensuite et progressivement, d’améliorer sa maîtrise des différents véhicules qu’il sera amené à conduire.
Pc_web_20_1 De la même manière, ce Permis de Conduire Web 2.0 (PCWeb2.0) ne va pas transformer un manager en as du Web, capable de construire le site ou le blog qui va gagner le grand prix de l’innovation ou de la qualité.  Il y a des professionnels pour cela, comme il existe une profession de pilotes de Formule 1.

Ce premier apprentissage des services Web 2.0 permettra à chacun de :
- Découvrir les potentiels, et les limites, de ces outils.
- Commencer à imaginer les usages professionnels qu’il pourrait en faire.
- Enfin et surtout, augmenter sa confiance en lui en se disant : “I did it !”

Pour qui ?

Je vois trois groupes de personnes pour qui l’obtention d’un PCWeb2.0 sera indispensable.
- Les salariés des grandes entreprises : Je pense en priorité aux directions opérationnelles, commerciales, achats ou de production ; ils pourront, leur PCWeb2.0 en poche, prendre en main les services qui peuvent les aider à être plus efficaces dans leur vie quotidienne.

-Les Dirigeants de PME ou TPE : L’essentiel du tissu économique Français est constitué de PME, qui, en majorité, n’ont pas d’informaticiens en résidence, ou très peu.
Chaque fois que les dirigeants de ces entreprises avaient besoin d’utiliser des outils informatiques, ils étaient obligés de sous-traiter à des SSII et se trouvaient en situation de totale dépendance.  L’acquisition d’un PCWeb2.0 leur donnera, pour la première fois, une maîtrise partielle de leur SI. 
Il ne s’agit pas, bien sûr, de leur faire construire des applications back-office, telles que la paye ou la comptabilité, qui resteront sous-traitées, mais de prendre en main une partie importante du front-office.

- Les informaticiens : je suis toujours surpris de constater qu’un grand nombre de professionnels de l’informatique n’ont pas fait l’effort d’acquérir une maîtrise minimale des outils dont ils parlent.  Autant cela était compréhensible à l’époque des outils logiciels complexes (Java, XML..), autant cela devient inacceptable quand les outils acquièrent la simplicité que l’on connaît aujourd’hui. Ne pas avoir un niveau de maîtrise égal ou supérieur à celui de leurs “clients ” deviendra très vite difficile à assumer !

Comment ?

Face à ce challenge, passionnant, et après en avoir longuement parlé avec des responsables opérationnels et des informaticiens sensibilisés à ce défi, j’ai préparé, avec les équipes de Microcost, un produit PCWeb2.0 qui devrait, j’en suis persuadé, donner des résultats spectaculaires.
Pour l’essentiel, ce produit est basé sur les principes suivants :Vue_cyber10_proche_3
- Priorité à la pratique : plus de 80 % du temps est consacré à l’utilisation directe des services Web 2.0 par chaque participant.
- Travail en groupe : deux équipes, de 5 à 7 personnes, doivent réaliser une tache en commun.  Web 2.0 privilégie le travail collaboratif et le partage de connaissances.
- La formation dure deux journées ; c’est le minimum raisonnable pour acquérir un niveau minimal de maîtrise de quelques services Web 2.0.
- Pendant ces deux journées, les participants ont accès aux seuls Services 100% Web 2.0 et seulement à cela ! Ils ne peuvent utiliser ni Outlook, ni Office...Tout se fait au travers d’un navigateur.

Avec qui ?

Face àl’ampleur  de la tache, à l’urgence, la réussite de cette campagne massive d’acquisition d’un PCWeb2.0 demande la collaboration de nombreuses organisations.
Logo_cci J’espère que les chambres de commerce et d’industrie (CCI), les associations professionnelles, les directions RH et  informatiques des grandes entreprises ainsi que de nombreux organismes de formation participeront à cet effort.

Pour quels résultats ?

La France compte aujourd’hui environ 20 millions de salariés, dont 10 millions sont des utilisateurs quotidiens d’un PC dans leurs activités professionnelles.  Les 20 millions peuvent devenir les détenteurs potentiels d’un PCWeb2.0 !
Est-ce réaliste ? Est-ce possible ? Oui !

Quel est le pourcentage d’adultes qui, en France, ont fait l’effort d’apprendre à conduire et n’ont jamais été capable d’obtenir leur carton rose ? 5 %, 10 %. maximum.
Je suis persuadé qu’il est plus facile, et moins dangereux, d’obtenir son PCWeb2.0 !


Innovation : Un code identifiant 2D lisible par mobile !

L’un des avantages de mon métier est de découvrir, souvent, des technologies innovantes dont les potentiels sont très prometteurs.

Qr_code_in_japan_1 La technique CR, un code d’identification 2D, fait partie de cette famille.
Mis au point et déjà utilisé au Japon, le code CR permet de créer un code d’identification en deux dimensions
C’est, depuis l’année 2000, un standard ISO.

Comparée aux outils traditionnels, tels que le code barre, la solution CR présente beaucoup d’avantages :
- Une grande capacité : en mode alphanumérique, il est possible de coder plus de 4000 caractères.
Qr_vs_barcode_1
- Une dimension compacte : grâce à l’approche 2D, la surface du code est très réduite.

Qr_code_damaged

- Une forte insensibilité aux détériorations : selon les niveaux de redondance utilisés, on peut relire un code détruit à 30 % par des rayures ou des salissures.

- Des angles de lecture très ouverts : grâce à des capteurs de positions dans trois coins, il n’est pas nécessaire d’être dans l’axe pour lire un code CR..
- Sergmentation possible : un code CR peut être découpé en plusieurs zones différentes et indépendantes.
- Lecture optique : des logiciels, gratuits et ouverts, permettent la lecture optique des codes CR.

La solution CR n’est pas unique ; d’autres approches sont possibles et peuvent concurrencer CR.  Mytago, une start-up américaine, est l’une des plus récentes alternatives à CR.

Potentiels.

Aussi séduisante soit-elle, une technologie n’a de valeur que par les applications qu’elle rend possible.  Le code optique CR a vu ses usages exploser quand la majorité des téléphones portables ont été équipés d’un appareil photo et des logiciels capables de les lire.
Il devient maintenant possible, pour toute personne disposant d’un téléphone mobile raisonnablement récent, de lire un code CR sans effort..

Les usages potentiels, innovants, astucieux, efficaces du code CR sont faciles à imaginer. Dans des dizaines de métiers, permettre à un client potentiel d’identifier immédiatement un produit ou un service à partir de son téléphone portable permettra d’offrir un avantage concurrentiel important.
Déjà, au Japon, de nombreuses revues impriment le code CR à côté de l’annonce d’un produit pour en faciliter l’achat.

Rien de plus simple que d’imprimer sur sa carte de visite un code CR reprenant l’ensemble desQr_code_carte_visite_ln informations s’y trouvant, plus d’autres éventuelles, et de faciliter ainsi à vos interlocuteurs la resaisie éventuelle de ces informations dans leur fichier de contacts, sur téléphone mobile, PDA ou ordinateur portable !

Actions possibles

En France et en Europe, l’utilisation des codes CR est encore, à ma connaissance, très confidentielle.  On se retrouve, comme souvent, devant un problème de type “la poule et l’œuf”. 
Comment amorcer la pompe ?

Le marché le plus porteur est probablement celui des “digitaux natifs”, qui sont très à l’aise avec leur téléphone portable qu’ils utilisent déjà pour des dizaines de manières différentes.
Les premiers usages à succès au Japon et dans d’autres pays asiatiques peuvent donner des idées.  Je suis par contre persuadé qu’il y a encore des dizaines d’applications innovantes qui n’ont pas été essayées et que la culture européenne ne garantira pas le succès des applications se bornant à reproduire ce qui a fonctionné en Asie.

Tshirt_with_barcode Il est, par exemple, déjà possible d’imprimer un T-shirt avec un code CR qui présente des informations que la personne qui le porte souhaite transmettre.
Un clic de mon téléphone portable sur le T-shirt de la personne en face de moi suffira pour connaître ses goûts et ses attentes ; on peut en dire, des choses, avec 3 000 caractères !
Difficile d’imaginer plus simple, plus efficace, pour rompre la glace dans une discothèque ou autre lieu public !

Les directions commerciales, du marketing et des systèmes d’information devraient se réunir pour réfléchir, rapidement, aux potentiels des codes CR dans leurs métiers. 
C’est, à mon avis, l’un des rôles essentiels d’une DSI que d’alerter les directions métiers de son entreprise, le plus souvent, possible, de l’émergence de nouvelles technologies dont les potentiels sont potentiellement importants. .

Les opérateurs téléphoniques mobiles, Orange, SFR, BouyguesTel ou les MNVO peuvent aussi jouer un rôle important en investissant dans la diffusion de téléphones “CR ready” et en évangélisant leurs clients professionnels sur cette technique.

Complémentarités

J’entends déjà les voix qui s’élèvent pour prédire que le code CR va échouer, ou, à l’inverse, marginaliser les solutions existantes telles que codes-barres et RFID.
Je préfère imaginer les complémentarités de ces différentes solutions.
- Pourquoi remplacer les codes-barres dans des environnements industriels ou alimentaires où ils donnent satisfaction ?
- Pourquoi enterrer prématurément les solutions RFID, en émergence, alors que la lecture radio d’une information est probablement une excellente solution dans de très nombreuses situations ?

Les entreprises qui seront les premières à comprendre les potentiels, et les limites, des solutions CR seront celles qui imagineront des applications à forte valeur ajoutée pour leurs clients.
N’oublions pas qu’il y a aujourd’hui plus de 2 milliards de personnes qui utilisent un téléphone mobile ; en 2010, ce chiffre dépassera les 3 milliards et on peut estimer que plus de la moitié seront équipés d’un appareil photographique capable de lire un code CR. 

Un marché potentiel de 1,5 milliard de clients, cela vaut peut-être la peine de s’y intéresser !