Red Flag : le danger, mortel, d’un principe de précaution mal utilisé - Deuxième partie
23/08/2018
Dans la première partie, j’ai présenté les risques d’une démarche « Red Flag » qui consiste à voter des lois censées protéger la population, selon le célèbre « principe de précaution », mais qui ont comme conséquence de bloquer l’innovation dans les technologies et usages numériques.
L’exemple étudié était celui des véhicules autonomes.
L’intelligence Artificielle, les données personnelles et la santé sont trois autres domaines qui seront profondément chamboulés par l’accroissement exponentiel de la puissance des outils numériques. Face à des ruptures majeures, difficiles à anticiper, le risque « Red Flag » est très fort dans ces trois domaines.
Intelligence Artificielle
J’ai plusieurs fois présenté les potentiels de l’Intelligence Artificielle dans ce blog, en particulier ici et là.
La Chine a compris que la maîtrise de l’Intelligence Artificielle était l’une des clés du succès pour un état et en a fait une priorité pour son gouvernement, avec le plan AI 2030, lancé en 2017.
Ce plan prévoit trois étapes :
- 2020 : se mettre au niveau des meilleurs, en clair des Etats-Unis.
- 2025 : devenir le meilleur dans quelques domaines clés de l’IA.
- 2030 : être le leader mondial de l’Intelligence Artificielle.
Pour améliorer l’efficacité de son plan IA, le gouvernement chinois est très directif ; il a réparti les secteurs d’actions prioritaires entre les trois géants du numérique, Alibaba, Baidu et Tencent. Connaissant les liens très forts qui unissent ces entreprises avec le gouvernement, il est peu probable qu’elles ne respectent pas cette « directive » !
Aujourd’hui, les Etats-Unis sont encore les plus avancés dans la maîtrise des technologies de l’IA ; pour combien de temps ? La nouvelle équipe politique arrivée avec Donald Trump ne brille pas par sa connaissance et son intérêt pour l’innovation numérique.
Plus inquiétant encore, il a créé un comité pour piloter l’IA aux Etats-Unis ; petit problème, les organismes supposés l’aider ont des postes vacants au niveau des dirigeants !
Eric Schmidt, ancien Président de Alphabet-Google, est persuadé que les Etats-Unis auront été dépassés par la Chine dès 2025.
Lors d’une conférence en juillet 2018, VeraLinn Jamieson, Général de l’US Air Force, a fait part de sa préoccupation sur ce même sujet : elle aussi est persuadée que les Etats-Unis vont perdre la bataille de l’IA, et donne quelques chiffres intéressants :
- Dépenses US en IA en 2017 : 2 milliards de dollars.
- Dépenses Chine en IA en 2017 : 12 milliards de dollars.
- Dépenses Chine en IA en 2020 : 70 milliards de dollars.
L’Europe a déjà perdu une première bataille essentielle, celle du cloud public, qui sert de fondation numérique pour l’avancée des solutions d’Intelligence Artificielle.
La France a fait réaliser par une équipe dirigée par un brillant mathématicien Cedric Vilani un rapport sur l’IA, publié en mars 2018.Ce rapport a le mérite de poser beaucoup de bonnes questions et de rappeler que c’est au seul niveau de l’Europe que l’on peut espérer concurrencer la Chine et les Etats-Unis.
Est-ce qu’il a déclenché un tsunami intellectuel en France et en Europe, une prise de conscience forte que nous risquons de perdre la bataille essentielle des 10 prochaines années ? Hélas, non, et ce rapport terminera, comme beaucoup, sa vie sur une étagère, couvert de poussières…
Un exemple édifiant et récent, daté du 4 juillet 2018, confirme que j’ai raison de m’inquiéter : l’adoption par la France d’un projet de loi « Cyber », ramassis de recettes anciennes, qui n’ont jamais fonctionné, telles que celle d’un cloud souverain de sinistre mémoire.
C’est une parfaite illustration d’une loi « Red Flag » proposée par des personnes dont la compréhension des défis du monde numérique ne me semble pas très élevée…
Pour conclure sur une vision positive, je vous propose de lire l’interview de Diane Greene, CEO de Google Cloud ; elle présente, très bien, les challenges de la cohabitation entre des technologies qui avancent très vite et des régulateurs qui ne sont pas capables d’aller aussi vite.
J’en ai extrait une phrase sur le thème de l’Intelligence Artificielle qui va tout à fait dans le sens de ce blog :
« But I personally think it’s important not to hamper the good it can do because of the bad it can do. »
(Mais je pense personnellement qu’il ne faut pas entraver le bien qu’elle (IA) peut faire à cause du mal qu’elle peut aussi faire.)
Données personnelles
Images, visages, photos et vidéos, données financières ou de santé, géolocalisation, achats sur internet, commentaires sur hôtels ou restaurants, réseaux sociaux, meta-données d’échanges numériques… la liste est longue des traces numériques laissées par des milliards de personnes, tous les jours.
Ces données personnelles sont des « ingrédients » essentiels pour les outils d’IA et de Machine Learning.
Les capacités et performances des outils numériques permettent aujourd’hui, et demain encore plus, de mémoriser et d’analyser toutes ces données, sans contraintes de volumétrie et de temps de traitement.
Il est facile d’imaginer des centaines d’usages positifs et innovants rendus possibles par l’exploitation de ces données :
- Personnaliser les recommandations d’achats, de voyage, de lecture en fonction de nos préférences.
- Optimisation des covoiturages et codéplacements pour réduire les coûts de transports, les dépenses énergétiques et les émissions de CO2.
- Meilleure qualité, plus grande efficience des services publics liés à l’unicité et le partage des informations.
- ...
Il est aussi facile d’imaginer des centaines d’usages négatifs et dangereux de ces mêmes données :
- Surveillance policière des « mauvais citoyens » comme cela se pratique dans de nombreux pays : la Chine en est l’exemple le plus impressionnant.
- Publicités ciblées et envahissantes à tout moment, en tout lieu.
- Contrôle excessif des salariés par les entreprises.
- ...
L’Europe a imposé en 2018 un ensemble de directives sur la protection des données personnelles, le RGPD, Règlement Général de Protection des Données. (GDPR en Anglais).
J’accepte de faire l’hypothèse positive que les personnes qui ont travaillé sur le RGPD étaient uniquement guidées par de bonnes intentions. On peut faire la même hypothèse sur les députés anglais qui avaient voté la loi « Red Flag » originale.
Quelle sera notre analyse « objective » du RGPD dans 10 ou 15 ans ? Est-ce que le RGPD aura eu un impact majoritairement positif en protégeant les citoyens européens ? Est-ce qu’il sera considéré comme une loi « Red Flag » qui a bloqué l’innovation en Europe et permis aux Etats-Unis et à la Chine de prendre une avance encore plus insurmontable dans les usages de l’Intelligence Artificielle ?
Je vois au moins trois des principes du RGPD qui peuvent le transformer en « Red Flag » :
- Limitation de la conservation : des découvertes scientifiques faites dans les prochaines années pourraient, pour déboucher sur des bénéfices pratiques, nécessiter de longues séries de données historiques qui auront été détruites pour respecter le RGPD.
- Limitation des finalités : l’impossibilité d’utiliser des données pour des usages non prévus dés le départ peut bloquer des applications innovantes, impossibles à anticiper aujourd’hui, pour lesquels ces données seraient indispensables.
- Minimisation des données : ne pas pouvoir mémoriser des données que l’on pourrait saisir facilement parce qu’elles ne sont pas indispensables pour le seul traitement autorisé peut appauvrir notre connaissance et rendre impossibles de nouveaux usages à forte valeur ajoutée, des recherches scientifiques ou médicales majeures.
Il n’est pas « politiquement correct » d’oser s’attaquer au RGPD et à sa « noble » mission de protéger les citoyens européens des grands méchants GAFAM américains et BATX chinois.
Posez-vous honnêtement la question : quelle est, selon vous, la probabilité que le RGPD soit considéré en 2025 comme une loi « Red Flag » ?
Le fait que le RGPD puisse être une mauvaise idée n’est plus un sujet tabou ;
Cet article, publié début août 2018, en est une bonne illustration. Il annonce clairement la couleur : « Le RGPD va éroder notre vie privée, pas la protéger ».
Monde de la santé
Le monde de la santé est un secteur dans lequel les avancées du numérique sont spectaculaires; c’est aussi celui qui peut :
- Le plus bénéficier des avancées de l’Intelligence Artificielle.
- Créer le plus grand nombre de lois « Red Flag ».
C’est aussi dans la santé que convergent les deux autres domaines présentés dans ce texte, l’Intelligence Artificielle et les données personnelles.
J’ai sélectionné quelques-unes des nombreuses innovations annoncées ces derniers mois dans le monde de la santé :
- Une meilleure compréhension du système immunitaire.
- Un logiciel d’IA obtient de meilleures notes à un examen pour devenir médecin généraliste que les humains.
- Des outils de Machine Learning qui peuvent rendre des traitements anti cancéreux moins nocifs.
- Il serait possible de mieux anticiper les patients d’un hôpital qui pourrait être en danger de mort.
- En Chine, l’IA a fait mieux que 15 médecins dans le diagnostic de tumeurs cancéreuses.
- DeepMind, une des filiales AI de Google, annonce qu’elle peut diagnostiquer des défauts de la vision aussi bien que des spécialistes.
Et nous n’en sommes qu’au tout début !
Donner son corps pour la science : il a fallu des siècles pour que cela devienne acceptable ; il y a encore trop de personnes qui refusent de le faire.
Donner ses « données médicales » pour la science : ce sera un combat encore plus difficile, mais vital pour l’avenir de l’innovation au service de la santé des 7 milliards d’humains. Peut-on concilier une raisonnable protection de ses données de santé avec leur partage pour faire avancer la science ? J’en suis persuadé, mais fais encore partie de la minorité.
Je reviens une dernière fois sur la croissance impressionnante de la Chine dans le domaine de l’Intelligence Artificielle en vous recommandant de lire ce texte récent, publié par Peter Diamantis, qui résume très bien les avantages concurrentiels de ce pays :
- Abondance des données.
- Des entrepreneurs très agressifs.
- Une forte montée des compétences locales.
- Le rôle clé du gouvernement.
Compétence en IA, pas de RGPD, excellente maîtrise de la médecine : tout est en place pour faire de la Chine le pays leader mondial des innovations dans le monde de la santé.
Si cette analyse ne vous fait pas peur, ne vous fait pas craindre pour l’avenir de l’Europe, alors, bienvenue dans un monde ancien qui veut encore croire que des lois « Red Flag » peuvent protéger les personnes en bloquant des évolutions technologiques majeures.
Synthèse
Toute innovation numérique crée des risques potentiels nouveaux pour les citoyens, les entreprises et les états, oui bien sûr.
Toute innovation numérique apporte des bénéfices potentiels nouveaux aux citoyens, aux entreprises et aux états, oui bien sûr.
Peut-on anticiper avec précision ces risques ou ces bénéfices ? Non, bien sûr !
Il nous faudra choisir en permanence entre deux approches :
- Principe de précaution : on part de l’hypothèse que les risques sont supérieurs aux bénéfices ; on essaie de bloquer l’innovation.
- Principe d’innovation : on fait l’hypothèse que les bénéfices sont supérieurs aux risques : on décide d’y aller.
J’ai clairement choisi mon camp : le danger mortel, c’est de tuer l’innovation, de perdre la bataille de la compétitivité mondiale. Nous devons de toute urgence redécouvrir les vertus du risque, de l’échec, du fait que les voitures autonomes, l’intelligence artificielle appliquée à la santé vont tuer des personnes.
Tout espoir n’est pas perdu ! L’Europe vient d’échapper, pour le moment, à une loi « Red Flag » ; elle a bloqué, provisoirement, une loi qui aurait pu étendre de manière déraisonnable les droits de copyright aux contenus numériques on-line.
Bonjour Monsieur Naugès.
Excellent article, comme toujours.
Mais attention tout de même à l'enthousiasme parfois "naïf" (au sens où il ne voit que le bon côté de la chose, pas au sens enfantin) d'un futur tel que vous le décrivez.
Bien sûr que, comme vous le dites, cela peut se résumer à "peser le pour et le contre" et accepter de perdre un peu si l'ensemble y gagne.
Mais tout de même :
La santé, les données personnelles et/ou le big data :
-1- La cartographie des gènes humains.
-11- Vous écrivez : Une meilleure compréhension du système immunitaire. Mais bien sûr que vous avez raison ! voici son corollaire :
-12- Le fantasme des banques et des assurances pour tout connaître de vous et de vous proposer des offres « personnalisées », donc, plus dispendieuses …
-13- Et de vous accorder, ou non, un prêt, une complémentaire, parce que vous êtes porteur du gène lambda.
-14- Nous serons donc « malussés » à cause de nos gènes …
-2- Mes habitudes de vie, par exemple, le compteur Linky.
-21- EDF va recevoir les données instantanées de ma consommation et déduira, notamment, combien nous sommes, quand nous nous levons, quittons la maison ...
-22- Que va faire EDF avec tout ça ? Quel rapport avec les économies d’énergie ?
-3- Les cartes de fidélité, ou la conséquence inattendue de nos habitudes de consommation.
-31- Une femme de 30 ans n’achète plus de produits d’hygiène féminine.
-32- Elle reçoit aussitôt des propositions de biberons, de layettes …
-321- Elle ne voulait une carte de fidélité que pour cumuler des points, mais elle n’a pas assez réfléchi aux conséquences.
-33- Mais non, elle a juste menti sur son âge quand elle a rempli sa carte de fidélité.
-331- Notez que si elle avait donné son âge réel, elle aurait sans doute reçu des propositions de cachets contre les bouffées de chaleur.
-34- Mais non, elle a bien 30 ans, mais, pour pouvoir acheter la maison de ses rêves avec son mari et obtenir un prêt, son banquier lui a demandé, et elle a accepté, de subir une intervention chirurgicale, car il savait déjà qu’elle était porteuse d’un gène spécifique qui pourrait transformer en cellules cancéreuses certains de ses organes.
-35- Désolé, c’est peut-être un peu cru, mais l’exemple est parlant …
-4- Les Ressources Humaines.
-41- J’envoie mon CV.
-411- Un robot va en analyser les mots-clés, c’est quand même le minimum.
-412- Il va ensuite, surtout, fouiller Internet pour voir ce qu’il peut trouver sur moi.
-413- Et grâce à ce qu’il va obtenir, il va déduire qu’il existe un risque évalué à 31.416% (oui, 3 décimales, cela permet de vendre plus cher la prestation), avec un taux de confiance de 95% (parce que cela lui donne un droit à l’erreur), que je quitte l’entreprise dans les 2 premières années.
-414- Et que conclura le robot s’il ne trouve rien sur moi ?
-415- Et si le robot peut accéder à la banque des gènes humains ?
-4151- Il trouvera que je cours le risque à 27.183% d’un absentéisme élevé à cause de la présence d’un gène …
-416- Dans les 3 cas, je ne serai pas embauché, ni même convoqué à un entretien …
-42- Je me souviens, quand j’ai commencé à travailler en 1987, après foultitudes d’entretiens en face à face, l’on disait « Il me faut ce gars, parce que bla bla bla ».
-43- Aujourd’hui, l’on dit « Je ne peux pas prendre ce gars, parce que bla bla bla ».
-44- Beau dévoiement du processus de recrutement, non ?
-45- Quelle place occupe l’Humain dans ces Nouvelles Ressources Humaines ?
Et j’en passe et des meilleures …
Ce futur ne se résume donc t-il qu'à une balance avantages / inconvénients ?
Déjà que j’ai du mal avec les coupures publicitaires à la TV, les démarchages téléphoniques, les SMS non sollicités, les spams que l’on n’arrive jamais à éradiquer malgré nos désinscriptions multiples …
Si l’on parle du droit des salariés à être déconnectés de leur travail, du droit des citoyens à l’oubli numérique, peut-on alors envisager un droit des individus à refuser d’être analysés ?
Si je puis ne pas créer de compte FaceBook ou Twitter, si je choisis de ne pas m’enregistrer sous LinkedIn ou Viadeo, si je décide de ne pas étaler ma vie sur Internet, si je ne prends pas de carte de fidélité, parce que ce sont des choix personnels et volontaires, suis-je réellement en capacité de bien en connaître toutes les conséquences, tant dans ma vie privée que dans ma vie professionnelle ?
Vous dites : Ces données personnelles sont des « ingrédients » essentiels pour les outils d’IA et de Machine Learning.
Vraiment ?
Pourquoi n’ai-je pas d’autre possibilité que d’accepter de livrer aux financiers / aux banquiers / aux assureurs / aux data analysts / aux entreprises commerciales mes données personnelles, mes habitudes de vie ? Et sans doute bientôt mon corps ? (La question n’étant pas de savoir si cela se produira, car cela se produira, mais plutôt quand). Finalement, mon corps et mes données m’appartiennent-ils réellement ? Va-t-on vers une Humanité 2.0 ? Est-ce un progrès sociétal ?
Vous dites encore : Personnaliser les recommandations d’achats, de voyage, de lecture en fonction de nos préférences.
Il est donc écrit que je ne suis plus capable de choisir par moi-même ? Je dois être aiguillé dans mes choix ?
Moi qui adore farfouiller, musarder un peu partout, prendre mon temps avant de me décider, me voilà bien ...
L'un n'empêche pas l'autre me dire-vous. Oui, mais quand même ...
Que ce soit bien clair, je ne conteste aucunement l’automatisme, les systèmes experts, le machine learning, je ne réfute pas la télémédecine ou la recherche fondamentale. Il est évident que, dans ces domaines, ces nouveaux outils sont indispensables et sauveront de plus en plus de vies.
Je suis évidemment d’accord avec le big data lorsqu’il s’agit de données scientifiques pour la recherche, ou pour analyser les tendances du marché et développer de nouveaux produits, ou encore pour des études commerciales dans les rapports habituels clients / fournisseurs consentis et surtout éclairés. Mais quand il s’agit de données personnelles plus ou moins (et plutôt moins que plus) anonymisées dont les propriétaires ne connaissent rien des tenants et aboutissants …
Que faut-il pour s’en protéger ? Une instance mondiale ? La CNIL ? Que propose réellement la RGPD ?
Aparté amusant : j’ai demandé à mon administration fiscale, conformément à la loi Informatique et Libertés, de me désinscrire de sa liste. Eh bien, elle ne l’a pas fait :-).
L’Homme va-t-il se transformer en une marchandise qu’il faut analyser, décortiquer, échantillonner, mettre en quartiles, exprimer (au sens où l’on exprime le jus d’un citron en le pressant, pas au sens où l’on lui donne la parole) à l’envi pour en extraire sa substantifique moelle, c’est à dire son argent ? N’est-il donc devenu qu’un porte-monnaie à vider ?
L’intelligence artificielle :
Je regrette, je vais un peu me répéter par rapport à votre précédent post.
-5- La voiture sans pilote de niveau 5.
-51- 1 piéton traverse une rue et n'a pas vu la voiture qui arrive.
-52- La voiture n'a d'autre choix que de :
-521- se déporter à gauche et, malheureusement, une voiture vient en sens inverse.
-522- se déporter à droite, mais elle va devoir rouler sur un trottoir.
-523- continuer tout droit, et donc frapper le piéton de plein fouet.
-53- La reconnaissance faciale de la caméra du véhicule autonome a détecté :
-531- que la voiture arrivant en face est occupée par une famille de 4 personnes.
-532- que sur le trottoir de droite marchent une mère de famille et ses 2 enfants.
-533- que le piéton traverse seul.
-54- A ma gauche : 4 morts, à ma droite : 3 morts, au centre : 1 mort.
-55- Faites vos jeux : L’algorithme va-t-il choisir « 1 mort » ? Pourquoi ?
-56- Dans votre précédent post, l’un de vos lecteurs a trouvé l’hypothèse de l’accident absurde. C’est son droit le plus strict. Pour ma part, je considère qu’il y a là un réel vide juridique sur la responsabilité engagée. Et d’aucuns ne manqueront pas de s’y engouffrer (victimes pour se faire indemniser, accusés pour se dédouaner). Qui sera responsable ? Le propriétaire du véhicule ? Le développeur ? Ou pire, la voiture ?
-57- Si c’est le nombre de victimes à choisir qui vous gêne, dites-vous que la caméra a détecté une personne de 30 ans dans la voiture venant d’en face, qu’elle a estimé l’âge du piéton à 50 ans, et qu’un passant de 85 ans marche sur le trottoir. Ou encore que la caméra a détecté 3 fois 1 homme de 25 ans, célibataire et sans enfant …
Je ne dis pas qu’il ne faut pas construire de véhicules autonomes, c’est réellement un progrès extraordinaire, mais la vraie question derrière tout cela, c’est : qui sera responsable entre la machine et l’Homme ? Qui portera le chapeau en cas de problème ? Quels seront les recours à disposition ? Car arrivera bien assez tôt le jour où il faudra trancher …
Peut-on laisser un algorithme décider dans ce genre de situation ? Cela me rappelle les mauvais films de science-fiction des années 1970 …
Tout ceci n’aura de sens que si l’on y joint une notion d’éthique : Si l’on parle de loi bioéthique, faudra-t-il parler un jour de loi IT-éthique ?
Comment l’innovation numérique, l’intelligence artificielle, le big data doivent-ils se mettre au service de leurs utilisateurs quand il s’agit de données personnelles, dans des buts purement mercantiles, sans s’immiscer dans la vie privée des gens, sans la livrer en pâtures, sans la mettre en danger ?
Si le "Red Flag" est un danger potentiel, l'idéologie "Nous faisons tout ce que nous savons faire" et son inévitable corollaire "Si nous ne le faisons pas, d'autres le feront à notre place" est tout aussi dangereuse, vous ne trouvez pas ?
Cela revient à se poser la question suivante : Les robots (programmes, machines), mais aussi les programmeurs, les utilisateurs, doivent-ils avoir un nouveau code de l’honneur ? Un nouveau sens moral ? Des nouveaux droits ? Des nouveaux devoirs ?
Pour moi, ce sont là des questions essentielles qui forment tout l’enjeu de ces technologies …
Et cela va donner du travail aux politiques, juristes et autres avocats de tout poil pendant des lustres !
C’était un (très) long post, je le reconnais, et qui a posé bien plus de (mauvaises) questions qu’il n’aura apporté de (bonnes) réponses. Malheureusement, bien qu’évidemment admiratif sur la technicité et l’intelligence de tous ces outils, je resterai sceptique quant à leur utilisation tant que je n’aurai pas été convaincu par les réponses qui doivent être apportées …
Je concède enfin m’être fait plaisir et m’être quelque peu défoulé dans cette perspective du « tout intégré », mais j’avoue, toute honte bue, que ce futur-là me fiche quand même un peu la trouille ...
Et quoi que l’on en dise, il est malheureusement au moins aussi probable que ceux que vos lecteurs ont habilement décrits dans votre précédent sujet. D’ailleurs, ce futur ultra connecté est déjà là, mais sous une apparence moins élaborée. Je suis en effet persuadé que chacun d’entre nous a déjà rencontré l’une ou l’autre de ces situations, ou sous une forme équivalente. C’est seulement la conjonction de l’ensemble qui est encore peu vraisemblable aujourd’hui, d’où l’intérêt d’y réfléchir …
Pour celles et ceux qui pensent que je suis en plein délire paranoïaque, je cite mes sources :
- L’exemple 1 (la banque des gènes et son partage vers le Privé) : Tout le monde en parle.
- L’exemple 2 (Le compteur Linky) est issu d’un reportage d’Envoyé Spécial il y a 2 mois.
- L’exemple 3 (La carte de fidélité, sauf l’exemple génétique) est issu d’un reportage d’Envoyé Spécial il y a moins de 2 ans.
- L’exemple 4 (Le robot recruteur, sans l’exemple génétique, avec pourcentage de probabilité, mais sans marge d’erreur ni décimale) est issu d’une présentation d’un cabinet Big Five sur la dématérialisation RH faite en mai 2017 près de Lille.
- L’exemple 5 (La voiture sans pilote, pour la première possibilité de décision) est issu d’une présentation d’un cabinet d’avocats spécialisés dans le numérique faite en octobre 2017 à Lille.
Je suis toujours à côté de la plaque ?
Merci de m’avoir lu jusqu’au bout !
Bien à vous,
Bertrand Dubois
Rédigé par : Bertrand | 24/08/2018 à 09:44
@ Bertrand
Quelle richesse dans votre réponse, qui est beaucoup plus qu'un commentaire ; un grand merci.
Tous les exemples que vous donnez sont pertinents et représentent souvent la réalité quotidienne de beaucoup de personnes.
Les dangers potentiels sont très forts, dans tous les domaines que j'ai évoqué, et dans beaucoup d'autres. Oui, la connaissance génétique peut vous pénaliser dans vos assurances, elle peut aussi vous sauver la vie, vous aider à vous alimenter avec un régime sur mesure, réduire les coûts des systèmes de santé par une meilleure prévention...
Votre exemple concernant les véhicules autonomes est intéressant ; il passionne les juristes mais reste une question marginale. Face aux millions d'assassins potentiels qui aujourd'hui, conduisent en envoyant des SMS, bourrés, à 90 km/h en ville, ces véhicules niveau 5 représentent un progrès gigantesque, qu'il serait criminel de freiner. Les quelques, éventuels, décès qu'ils pourraient provoquer pour des erreurs de logiciels, resteront une goutte d'eau par rapport aux massacres routiers actuels.
Ce qui me préoccupe vraiment, m'inquiète beaucoup, c'est l'inconscience des entreprises et des pays, leur incapacité à comprendre les gigantesques challenges auxquels il faut faire face, aujourd'hui. L'Europe devient un nain numérique, le sera de plus en plus, "protégée" par des barrières dérisoires telles que le RGPD.
Nos entreprises, nos pays se comportent de plus en plus comme des retraités qui pensent pouvoir vivre encore longtemps sur leurs acquis ; c'est une démarche suicidaire.
Rédigé par : Louis Nauges | 24/08/2018 à 11:18
Bonjour Mr Naugès,
J'ai dû vous croiser il y a longtemps je ne sais où dans une conférence, puis ai redécouvert votre sagacité à l'occasion de votre billet de début 2015 sur les ERP qu'un contact m'avait signalé.
Je suis un peu partagé en revanche sur l'enthousiasme apparemment sans limite dont vous témoignez ici à propos des innovations. Si je n'appréciais votre sagesse et la pertinence de vos billets, et si un autre que vous en était l'auteur, je pourrais le qualifier de "naïf" voire "béat".
D'abord vous rassurer: je suis depuis toujours un technophile, et ai passé la plus grande partie de ma vie professionnelle à promouvoir l'innovation technologique. Je suis naturellement peu enclin à suivre certains dans les frayeurs non fondées que suscite toute innovation (en vrac: le TGV, le minitel (si si...), le Wifi, Linky, ...).
Pour en venir à votre sujet, je vous suis totalement sur le progrès que peut représenter une voiture autonome par rapport aux dangereux chauffards que nous croisons (ou que nous sommes parfois...). Sans parler du fait qu'à mon sens, l'usage pour tous nos besoins d'un véhicule individuel privé est une notion dépassée, mais c'est un autre débat.
Je peux à la rigueur vous suivre sur le risque de "red flag" que vous signalez à propos du GDPR, bien que je pense que cette initiative ait au moins le mérite de sensibiliser individus et entreprises aux risques liés à leurs données personnelles. Les GAFA et autres sociétés basant leur business sur ces données ne sont pas des philanthropes, et lorsqu'il s'agit de profit et éthique, cette dernière ne fait pas le poids...
Enfin, sur la santé et l'IA, il se trouve que j'ai eu l'occasion de participer, il y a plus de 30 ans, aux premiers travaux français sur le sujet. On parlait alors de systèmes experts, et de compilation de règles d'inférence à partir de bases de données de cas cliniques (on dirait aujourd'hui qu'il s'agissait de big data). Les motivations étaient évidemment louables, les résultats (déjà à l'époque) encourageants. Et, bien sûr, la CNIL existait déjà. Nous avions anonymisé soigneusement les données dès le départ et ne les traitions que sur un plan statistique. De nos jours, je suis prêt à faire confiance à un certain nombre d'innovateurs et chercheurs, du monde informatique et/ou médical, qui ne veulent évidemment que notre bien-être. Mais résisteront-ils longtemps à la pression ou à la concurrence des organismes bancaires ou des compagnies d'assurance, qui consacreront des budgets monstrueux aux fins d'améliorer leurs performances. Au-delà de ces acteurs privés évidents, même les pouvoirs publics pourraient être tentés de dérives dangereuses ou inquiétantes: n'a-t'on pas vu évoquer à plusieurs époques , dans notre pays, des projets ou intentions de fichage des enfants "à risque" (j'ai participé il y a quarante ans déjà à une table ronde organisée par le Ministère de la Santé qui projetait de bâtir un fichier appelé "GAMIN", prétendument censé détecter et prévenir les handicaps)...
En conclusion, sur le fond, je serais tenté de vous suivre sans réserve sur le principe général que l'innovation, dans notre domaine comme dans les autres, ne doit pas être freinée "a priori" par un principe de précaution mal compris, ou par des considérations parfois irrationnelles.
Mais la balance risques-bénéfices est-elle aussi binaire que vous le présentez ?
S'il s'agit simplement de risques "scientifiques" ou "techniques" découlant naturellement de toute innovation, on peut effectivement vous suivre: des hommes ont payé de leur vie les premiers essais de voler, les premiers chirurgiens de la myopie, en URSS, ont crevé les yeux de quelques moujiks, etc... On peut considérer que les premiers piétons tués par des véhicules autonomes sont le prix à accepter...
Mais il en va autrement de l'utilisation massive de nos données à des fins commerciales, ou de l'utilisation pernicieuse, évoquée plus haut, des données de santé... Pensez-vous que les géants du tabac ou que les industriels de l'agrochimie, informés très tôt des méfaits de leur activité sur la santé publique, ont hésité longtemps lors de leur analyse "bénéfices-risques" (à supposer qu'ils se soient posés la question) ? Que pensez-vous des explications pitoyables de Mr Zuckerberg après l'affaire Cambridge Analytica, et du soupçon que cet exemple fait peser sur toutes les manipulations possibles du fonctionnement de nos démocraties.
Il est donc essentiel que les individus et la société civile soient vigilants en permanence, d'autant plus que l’accélération vertigineuse de l'innovation peut faire oublier la prudence ou la sagesse.
Et, au sein de la société, il me paraît intéressant que les ingénieurs que nous sommes, sur la base d'une compétence partagée, défendent une vision équilibrée dans laquelle l'humain soit notre première préoccupation.
Puisqu'on parlait de santé, pourquoi ne pas emprunter aux médecins un de leurs principes essentiels "primum non nocere", "d'abord ne pas nuire".
Rédigé par : Laurent M | 26/08/2018 à 19:33
@ Laurent
Votre texte est passionnant, merci.
Nous sommes sur la même longueur d'onde ; les choix sont complexes, difficiles, devant l'accélération des mutations rendues possibles par les technologies numériques.
C'est un "Pari de Pascal" permanent : quelle est la meilleure décision face à des incertitudes.
J'ai beaucoup insisté sur le thème de la santé, car je pense que c'est celui qui va nous poser le plus de problèmes, et vous en évoquez quelques uns.
"D'abord ne pas nuire" a pour écho chez Google "Don't do evil".
Ce qui m'inquiète vraiment beaucoup, c'est que le monde politique a une compréhension très "moyenne" des potentiels et risques liées à ces innovations. Ils sont beaucoup plus sensibles au "court terme", au "populisme".
Elus pour quelques années, ils ne pensent pratiquement jamais au long terme.
En résumé, je pense que nous sommes dans une époque ou le principe de précaution poussé à l'extrême l'emporte sur le principe d'innovation, et c'est très grave.
J'accepte être considéré comme "naif" ou "béat" si cela peut réduire les risques majeurs que courent l'Europe et la France de devenir des territoires dépassés.
Rédigé par : Louis Nauges | 26/08/2018 à 20:43
@ Louis
Votre réponse me confirme que vous n'êtes ni naïf ni béat (ce que je n'ai jamais cru).
Je vous rejoins totalement sur le risque que nous courons de nous faire "décrocher" pour de mauvaises raisons.
Cela ne date pas non plus d'hier (Plan Calcul, "Unidata", etc...). Même quand ils semblent favorables à l'innovation ou à la disruption, bien souvent nos dirigeants ne savent que dérouler le tapis rouge aux GAFAM, ou faire des selfies avec leurs dirigeants...
La France et l'Europe me paraissent avoir tout de même quelques atouts, dans les logiciels et les sciences fondamentales. Et, dans une certaine mesure, les décisions politiques ou économiques me semblent bien moins capables de nuire aux innovations évoquées que jadis, quand l'industrie informatique ou électronique demandait des investissements colossaux. On peut juste déplorer que nous ayons perdu pratiquement toute indépendance dans ces domaines.
Soyons donc effectivement de farouches prosélytes de l'innovation et du progrès, mais, de nos jours, cela impose d'intégrer à cette attitude une démarche éthique et humaniste. Nous serons d'autant plus crédibles.
Rédigé par : Laurent Moussu | 27/08/2018 à 11:39
@Laurent
Vous avez raison, nous avons en France et en Europe des atouts, en priorité humains.
Il suffit de voir le nombre de cerveaux français qui travaillent chez les GAFAM et, de plus en plus, en Chine.
Il ne faut pas avoir peur de s'appuyer sur les infrastructures Cloud des géants actuels, sur les logiciels d'IA existants, dont la majorité sont en Open Source.
A nous de créer des usages innovants, comme la société Navya de Lyon qui commercialise ses véhicules autonomes à Las Vegas !
Il est quand même surprenant que créateur français des navettes fluviales électriques soit obligé d'aller les tester... sur le lac Léman en Suisse !
Rédigé par : Louis Nauges | 27/08/2018 à 11:49
Cher Louis,
Merci pour cet article sur l’IA.
J’ai contribué aux travaux de Cedric Villani sur l’IA et je suis désolée de voir qu’aucun projet fédérateur n’en soit ressorti, pas même l’amorce d’un élan européen … inquiétant ? je crois plutôt que l’heure n’est pas venue : la collectivité n’est pas prête à comprendre que la domination des GAFA et des BATX n’est pas une fatalité, bien au contraire et qu’une autre voie est possible.
Ainsi, vous, comme moi et comme bien d’autres, nous devons redoubler d’efforts pour construire des hypothèses de redéploiement qui finiront bien par mobiliser le sens de la sauvegarde de nos intérêts car la question in fine est bien de savoir « quel monde acceptons-nous pour nos enfants ».
A mon tour de vous proposer la lecture du billet de mon blog qui explique pourquoi et comment l’avenir se présente à nous, européens, sous un jour favorable, à condition de se mobiliser.
http://s298243136.onlinehome.fr/dotclear/index.php?post/2018/07/19/Six-d%C3%A9fis-impos%C3%A9s-par-l%E2%80%99IA
Voici les grandes lignes de mon raisonnement :
• Les GAFA et les BATX ont été conçus pour gouverner le monde à travers des outils d’influence.
• Cette approche présente deux inconvénients qui les rendent sans avenir :
1. ils sont centralisateurs et donc fragiles. Dans la nature, le gigantisme n’a jamais été pérenne.
2. ils visent à normaliser les comportements. Donc, ils nient la réalité de la vie qui a un besoin vital de progresser. Or la progression passe par les processus « essais – erreur » qui doit au contraire se nourrir de la diversité des individus.
• l’Europe se trouver progressivement dans une posture favorable :
1. elle est le berceau de la démocratie, de l’Open Source et du P2P. elle prend sa place dans les objets connectés et ses mathématiciens sont recherchés dans le monde entier.
2. Elle est le coin de la planète qui a accumulé le plus de savoirs. Elle n’a pas décroché face aux autres continents. elle peut donc redonner un coup d’accélérateur.
3. de par son histoire, elle a été contrainte d’inventer (et elle tâtonne encore) une gouvernance coopérative, beaucoup plus favorable au respect des potentialités et à l’adaptabilité des individus et des institutions.
4. Elle est surtout le coin de la planète où la vigilance est la plus vive en matière de protection sociale, partage des savoirs et respect de l’environnement. Elle est donc capable d’attirer des talents.
Nos représentants politiques sont peu outillés pour construire un projet fédérateur car ils ont tordu le coup aux futurologues et disent que les prospectivistes leur font perdre du temps. Ils n’ont pas de projets autres que l’idée qu’ils se font des « équilibres budgétaires » qui sont guidés par leur capacité à monétiser leurs dettes et maintenir « l’emploi à tout prix » … deux notions qui sont à revoir, précisément en se tournant vers les « disrupteurs » ! Le monde qui vient à nous à grand pas ne ressemble pas du tout à celui que nous commençons à quitter depuis la fin du siècle dernier.
Voilà pourquoi l’article de mon blog commence par le défi démocratique.
Rédigé par : geneviève bouché | 29/08/2018 à 12:50
@ Geneviève.
Très honoré d'avoir le commentaire d'une personne qui a travaillé sur le rapport Vilani. Sur ce point, vous confirmez, hélas, ce que je dis ; il n'a eu aucun impact mobilisateur pour les politiques.
J'ai aussi lu avec attention votre blog, très bien argumenté et riche d'informations.
Je crains par contre que les remèdes que vous proposez ne soient pas suffisants dans un monde qui va très très vite. Mon cri d'alarme "Red Flag" est lié au fait que l'Europe et la France n'avancent pas assez vite et que des lois "Red Flag" pourraient encore plus ralentir l'escargot technologique que nous sommes devenus !
Nos atouts majeurs, tels que la qualité des élites et des chercheurs que nous formons dans ces domaines sont "piratés" par les GAFAM et BATX qui viennent s'installer en France et leurs proposent des environnements de travail exceptionnels avec des salaires très supérieurs à ce qu'ils ont dans des centres de recherche français.
Rédigé par : Louis Nauges | 29/08/2018 à 16:05
Thank you for this article on AI
Rédigé par : Pricepacific Inc | 24/10/2018 à 10:24