Archive for the ‘Français’ Category

Le DMP, la Cour des comptes et la Lune

Tuesday, August 28th, 2012

D’après un article du Monde, il semble établi que le rapport de la Cour des comptes sur le DMP ne sera pas élogieux. Prélude probable à un nouveau cycle où les technocrates auditent les technocrates afin d’apporter avec solennité de mauvaises solutions à de faux problèmes.

Signe d’un monde qui marche sur la tête, le DMP persiste à être le seul "machin" existant pour lequel il y a confusion du concept et de son implémentation. « DMP » est à la fois le nom du concept à développer et du service que tente de délivrer l’agence d’état créée pour l’occasion.

Imaginez un monde où il n’y aurait qu’un modèle d’automobile, mettons la Trabant, et où les mots automobile ou voiture n’existeraient pas. C’est un monde où il serait impossible de se demander si la Trabant est une bonne voiture, de se demander si on peut créer une meilleure voiture que la Trabant, etc.
Même chose pour le DMP. Le DMP est-il un bon DMP ? Est-il possible de créer un DMP mieux que le DMP ? Tentez-donc d’auditer le DMP avec de telles contraintes sémantiques…

Trichons un peu en exhibant les termes "DMP concept" et "DMP implémentation" et demandons nous ce qu’ils recouvrent.

Le DMP concept a réussi à ne jamais étre défini… tout en évoluant régulièrement : sous Xavier Bertrand 1, il devait servir à éviter les examens redondants, lutter contre la iatrogénie et, en conséquence, faire économiser des milliards à l’assurance maladie ; aujourd’hui c’est le support de la continuité des soins… mais comme la continuité des soins n’est pas définie, c’est exactement ce que vous avez envie d’imaginer.

Le DMP implémentation est une sorte de système d’information hospitalier géant basé sur le principe du « dossier maximal commun » ou « dossier des dossiers ».

Alors, le DMP (implémentation) est-il un DMP (concept), un bon DMP, le meilleur des DMPs ?

Bien malin qui pourrait répondre puisque le DMP concept n’est pas défini. Si la question était de savoir si le DMP implémentation servait à quelque chose, je pourrais démontrer que ce n’est pas le cas et même que c’est un projet terriblement rétrograde pour le système de santé. Mais ne doutons pas que l’audit se concentrera sur la question de savoir si tout a été fait pour que le DMP soit un bon DMP.

Ce qu’on perd dans cette confusion généralisée, c’est l’intelligence du processus, et, pour ceux qui ont capacité à innover, l’envie (ou même simplement la capacité) à apporter leur pierre à l’édifice.

Dans un billet récent, Daniel Burrus rendait hommage à la mémoire de Neil Armstrong en rappelant l’anecdote qui l’avait marqué lors de leur rencontre. Armstrong expliquait que, lors du développement du projet Apollo, il est arrivé régulièrement que les équipes de conception se trouvent dans une impasse, en arrivent à dire « nous avons tout essayé, et nous somme définitivement coincés » ou « il faut arrêter le projet, il n’y a pas de solution scientifique à ce problème ». Et à chaque fois que les meilleurs ingénieurs et scientifiques de la NASA arrivaient à une telle impossibilité de franchir une étape, il leur était rappelé « Nous allons sur la lune »… alors ils se regardaient les uns les autres, et ils essayent à nouveau… et ils parvenaient à une solution fonctionnelle.

Pour réaliser de grandes choses, il faut une vision claire et motivante, généralement d’un niveau supérieur. Comme l’a dit Saint-Exupéry « si tu veux construire un bateau, ne rassemble pas des hommes pour aller chercher du bois, préparer des outils, répartir les tâches, alléger le travail, mais enseigne aux gens la nostalgie de l’infini de la mer ». Comme on en est loin en ce qui concerne le DMP et son enfermement technocratique !

Il n’est pas certain qu’on puisse sauver ce dossier dans lequel, la Cour des comptes le rappelle, plus de 200 millions d’euros ont été dépensés. Pour tenter quelque chose, il faudrait d’urgence :

  • Geler le projet actuel, qui va dans le mur et, plus grave, a développé une véritable culture de la lutte contre l’innovation.
  • Prendre le temps de développer une vision inspirante, elle même en cohérence avec un récit plausible de l’évolution du domaine de la santé (dont la médecine n’est qu’un composant).
  • Organiser le projet selon une gouvernance latérale et non pas hiérarchique

Qu’un de ces trois piliers viennent à manquer et nous serions repartis pour une nouvelle étape digne des Shadok… ce qui, après tout ne serait pas si grave puisqu’il est désormais prouvé qu’il est à jamais impossible que le DMP soit vraiment un DMP, puisque le DMP est livré à l’imagination de chacun tandis que le DMP parait inutile à la plupart d’entre eux. Bref, tout va pour le mieux… tant qu’on pompe.

Groupama gagne la Volvo Ocean Race

Tuesday, July 3rd, 2012

Belle victoire, superbes bateaux… félicitations à toute l’équipe et à Franck Cammas

Intéressante interview de Thierry Péponnet… dont j’ai eu l’occasion d’admirer le tableau arrière lorsque je régatais en 470.

Dans l’esprit du Page Rank

Sunday, May 20th, 2012

Mercredi 16 Mai, Antonio Casilli a clos son cycle de séminaires de l’EHESS 2011/2012 (sous la bannière « étudier les cultures du numérique : approches théoriques et empiriques ») par une belle conférence de Dominique Cardon.

Contexte savant, puisque Dominique Cardon est à la fois sociologue au Laboratoire SENSE (Orange Labs), chercheur associé au Centre d’études des mouvements sociaux (CEMS/EHESS), animateur de la revue Réseaux et auteur du livre La Démocratie Internet. Promesses et limites (Seuil, 2010).

Titre énigmatique « Dans l’esprit du PageRank. Un essai d’anthropologie de l’algorithme de Google ».

Le résultat, c’est 3 pages de notes pour une grosse heure de présentation, signe d’un discours dense et édifiant… que je vais tenter de retranscrire ici.

Introduction

L’ambition de Dominique Cardon est de scruter le web au travers des métriques qui l’organisent et des algorithmes qui les mettent en œuvre.

Sa recherche sur le Page Rank de Google s’appuie sur une lecture extensive, elle même mise en perspective sur le socle théorique des travaux sur le web politique, fortement influencé par Habermas.
L’espace politique idéal, dont le web pourrait être un exemple, est alors caractérisé par deux critères :

  • une expression libre et sans contrainte,
  • la force intégratrice de la discussion.

Si on peut s’accorder sur la validité du premier point, le second fait largement débat, Habermas ayant lui-même affirmé dans un discours que l’Internet est qualifié par « la fragmentation de petites niches de discussion qui n’arrivent pas à se coordonner ». Pour Dominique Cardon, les métriques et algorithmes qui classent les informations sont précisément le « lieu » où se produit cette intégration si cruciale… et méritent donc une étude attentive.

Cinq grands principes sont à la base des algorithmes qui organisent aujourd’hui le web :

  • éditorialisation, le classement « manuel » par des opérateurs humains, « à la Yahoo »,
  • moteurs de recherche,
  • mesure d'audience,
  • affinité, par exemple en fonction du volume d’abonnements sociaux,
  • vitesse, classement par fraîcheur, le plus récent au dessus.

Si les trois premiers principes existent sur tous les médias, les deux derniers sont spécifiques des réseaux sociaux. La plupart des métriques qui animent les recherches au sein des sites sont bâties par agencement de ces cinq principes.

Dans l’esprit du Page Rank

La question clé posée par Dominique Cardon, sous le titre Dans l’esprit du Page Rank est « quelle est l’idée que se fait Google du web et du monde ».

L’origine du Page Rank apparaît quasi-simultanément dans la publication de Jon M. Kleinberg « Authoritative Sources in a Hyperlinked Environment » et dans celle de Brin et Page « The Anatomy of a Large Hypertextual Web Search Engine ». Son principe est de rompre avec la stratégie utilisée par les moteurs de recherche d’alors, basée sur l’analyse sémantique des pages, en partant de l’idée que, au travers des liens qui caractérisent l’environnement hypertextuel, ce sont « les pages qui parlent aux pages » et qu’il n’est pas besoin d’exhiber une logique supérieure de catégorisation.
Pour le dire plus simplement, plutôt que de tenter de trier les pages en fonction d’une arborescence artificielle de catégories, il suffit de mesurer la façon dont la connaissance s’associe (par lien hypertexte) à la connaissance. C’est une logique dite « démocratique » ; en réalité largement méritocratique puisque toutes les pages ne sont pas dotées de la même autorité.

Ainsi, le monde statistique que « dessine » le Page Rank est basé sur une forme de miracle de l’intégration réalisé par l’intelligence des foules d’internautes qui publient. Cette qualité « issue de la multitude » est, par exemple, conforme à la constatation faite par Wikipédia que les articles les plus en accord avec les critères de qualité du site sont généralement ceux qui ont le plus de contributeurs.

Dominique Cardon envisage ce mécanisme sous deux angles, une version « de gauche » et une version « de droite ».

Dans la version de gauche, décrite par Yochai Benkler, le mécanisme à l’œuvre est celui de la coordination d’actions inconscientes. Les bases du raisonnement sont fournies de longue date, par ailleurs sans rapport entre elles, par Galton (avec son expérience du poids d’un bœuf mieux approché par la moyenne des évaluations naïves que par chaque expert) et par le théorème du Jury de Condorcet, qui établit que, sous certaines conditions (que la bonne réponse ait plus d’une chance sur deux de se produire, qu’il n’y ait pas d’influence d’un votant sur l’autre et que les votants soient sincères dans leur choix), la décision du groupe est supérieure à celle de chaque individu, et sa qualité augmente avec la taille du groupe.
Dans ce cadre, le Page Rank intervient comme moteur du « modèle par la discussion » où les éléments les plus saillants des micro-discussions de niche parviennent à remonter dans des sphères plus larges qu’elles ensemencent, et ainsi de suite en faisant remonter vers le niveau global le meilleur grain des discussions locales.

Dans la version de droite, c’est le théorème de la diversité de Scott Page et la logique du marché prédictif qui servent de modèle en posant qu’il y a deux dimensions à la capacité d’un groupe à faire des prédictions intelligentes : le niveau d’expertise individuelle des membres du groupe et la diversité de leurs opinions (voir l’article de la revue Clés De Gustave Lebon à James Surowiecki : bêtise ou sagesse des foules ?).
On peut augmenter la performance prédictive du groupe en jouant sur l’une ou l’autre, ou sur les deux à la fois en attirant les opinions les plus diverses possibles, de la part de gens intéressés et même passionnés – comme le sont forcément des parieurs. Un marché prédictif attire donc les gens qui ne sont pas forcément experts, mais qui se croient bien informés (et le sont parfois), et il les pousse à oser être originaux et à ne pas être d’accord entre eux, pour parier les uns contre les autres dans l’espoir de remporter le gros lot (d’où une diversité d’opinion).
Le Page Rank est alors le moteur d’arbitrage qui, dans ce marché prédictif des opinions, permet une convergence similaire à la « main invisible » d’Adam Smith sur les marchés financiers.

Limites du modèle

Dominique Cardon insiste sur le fait que cette mécanique n’est opérante que si les acteurs ne se préoccupent pas de l’existence du Page Rank. Toutes les stratégies de Search Engine Optimization (SEO) qui visent, par des artifices multiples, à améliorer le classement d’une page contrarient le « miracle de l’agrégation » ; comparables à des délits d’initiés, ils amènent Google, qui se veut au sens propre comme au sein figuré la « main invisible » du processus, à faire sa propre justice en dégradant violemment certains sites suspectés de triche.

Google est ainsi à la fois l’ordonnanceur du Web, avec un algorithme qu’il garde secret, et le juge des bonnes pratiques, avec des adaptations non moins secrètes du même algorithme. Considération aggravante, c’est également un acteur du domaine, que ce soit par ses autres initiatives ou, surtout, par la vente d’espaces publicitaires.
Google affirme conserver un mur étanche entre le « monde organique » du web trié par le Page Rank et le « monde stratégique » des liens commerciaux. C’est une chose de faire une confiance aveugle à Google dans ses affirmations de n’avantager ni ses propres pages ni celles de ses meilleurs clients, c’en est une autre d’imaginer que la barrière soit si étanche entre un monde organique idéalement désintéressé et un monde stratégique qui resterait alors le seul espace de jeu des calculateurs.

Par ailleurs, que le modèle soit « de droite » ou « de gauche », l’Internet documentaire tel qu’il est rêvé par Google pour constituer un « espace efficient » pour le Page Rank possède une topologie de rhizome non organisé.

Pourtant, dans la réalité, 90 % du Page Rank global est réparti sur 10% des sites, situation entretenue et aggravée par l’effet Mathieu (ou effet d’avantage cumulatif) qui veut que les sites les plus visibles sont également ceux qui attirent les connexions des nouveaux entrants. Par ailleurs, la règle implicite des attachements préférentiels, qui veut qu’on « ne cite jamais plus petit que soi » aspire le Page Rank des petits sites (qui citent les gros) vers les gros (qui ne citent pas les petits).

De façon contradictoire, le Web, par l’effet du Page Rank, est donc beaucoup plus hiérarchisé et moins rhizomatique que le monde cible de Google.

L'irruption du « Web social »

L’irruption massive des réseaux sociaux, dans le sillage de l’emblématique Facebook, fait basculer le Web documentaire vers l’Internet des personnes et s’accompagne en conséquence d’un tropisme pour le classement par affinité.

Pour Dominique Cardon, la mécanique profonde du Web documentaire opère par transfert de la qualité d’un auteur à sa production ; à la façon dont le talent d’un écrivain matérialisé sous forme d’un livre permet à cet ouvrage de recevoir le Prix Goncourt.
Dans un univers hypertexte, les pages sont reliées entre elles par des liens qui matérialisent une forme de reconnaissance de valeur. Dans ces conditions, on peut modéliser le Web comme un espace autonome de documents qui emmagasinent le talent de leurs auteurs et peuvent en transférer une partie à d’autres documents par la « tuyauterie » des liens. Le Page Rank mesure alors la qualité dynamique issue de ces échanges dans un monde des documents mathématiquement parfait… car isolé de tout artifice humain.
Par ailleurs, c’est un monde relativement élitiste puisque seuls les internautes qui publient participent à l’évaluation de la qualité.

Avec la floraison des boutons « I Like It », la qualité est jugée en direct par des internautes au sein d’un cercle qui n’est plus restreint à ceux qui publient. La qualité s’attachent alors aux personnes. Comme l’exprime Dominique Cardon, on porte des badges, on investit dans la production du jugement une valorisation de soi-même.
L’application de ce principe donne vie à une nouvelle métrique, le Edge Rank, qui classe les documents en fonction des liens entre les personnes.

Conclusion

Le monde idéal du Page Rank était l’univers des documents. Par la pratique du mode rédigé, qui induit une distance suffisante entre le sujet et le sujet auteur et donne au document une qualité autonome, ce monde était partagé de façon étanche entre un domaine organique non marchand et un domaine stratégique marchand.

Le Web des personnes, au contraire, est intégralement expressif, c'est-à-dire pleinement calculateur et sensible aux pratiques complexes des sociétés humaines comme le « renvoi d’ascenseur ».

Dominique Cardon entame, par l’étude du web en fonction de ses métriques, un travail de recherche passionnant.

Mon grain de sel

En écrivant cet article, suis-je simplement sensible au mouvement « Publish What You Learn », sans autre idée que de produire un document de bonne facture… ou bien ai-je en tête de l’utiliser pour me valoriser au sein des réseaux sociaux ? Pur idéalisme ou pur calcul ?

Comme il n’existe pas de monde où les documents, détachés de leur auteur, danseraient ensemble le Page Rank, ni de société humaine fonctionnelle sans qu’il y existe un espace didactique désintéressé, je me permets d’affirmer que tout discours publié sur le Web procède simultanément des deux intentions, éclairer autrui et se valoriser.
Dans ce contexte, le Page Rank et le Edge Rank mesurent alors le succès de ces deux intentions et le monde idéal devient le lieu où celui qui avait pour but d’édifier humblement obtienne un bon Page Rank tandis que celui qui cherchait à se mettre en avant avec une production simplement voyante ou provocante voit son Edge Rank augmenté.

En prenant un peu plus de recul, je vois la démarche de Dominique Cardon comme la quête fondamentale qui consiste à analyser un espace d’échanges (le Web, ou plutôt les Webs, si on distingue ses dimensions documentaires et sociales) en fonction du mécanisme de mesure de la qualité qui s’y applique.

Comme je l’ai souvent écrit, je suis sur ce sujet un adepte de Robert M. Pirsig et de la façon dont il a défini la Qualité (avec un Q majuscule) dans son roman « Traité du zen et de l’entretien des motocyclettes » : la Qualité est la fusion de l’âme et du savoir faire technique. Le principe qui fait de l’œuvre la prolongation naturelle de la main de l’artisan ou du cerveau de l’inventeur. Elle s’oppose à la vision dualiste usuelle qui distingue fortement le concepteur et la conception, le sujet et l’objet.

Comme l’explique Pirsig, « au moment de la perception de la Qualité pure ou, sans même parler de perception, au moment de la Qualité pure, il n’existe ni sujet ni objet. Il n’existe qu’un sens de la Qualité – d’où naîtra plus tard la conscience du sujet et de l’objet. Au moment de la Qualité pure, sujet et objet sont identiques. […] Cette identité est la base même du travail artisanal, dans tous les arts appliqués. C’est elle qui manque à la technicité moderne, fondée sur une conception dualiste. Le créateur ne s’identifie nullement à ce qu’il crée, le consommateur ne s’identifie pas à ce qu’il possède ».

Nous sommes très proches de la maxime de Jacques Puisais (œnologue créateur de l’Institut du Goût) : « Un vin juste doit avoir la gueule de l’endroit où il est né et les tripes de celui qui l’a fait ». Ainsi, une « bouteille de Qualité » rassemble dans un même flacon le vigneron, sa terre et son vin.

Que le Web actuel propose des « métriques de la qualité » qui ne fonctionne que dans le monde des documents ou uniquement dans l’univers du jugement de surface du « I Like It » me semble amplement démontrer son immaturité. Immaturité qui, avec mes critères d’analyse – qui tiennent qu’un produit réussi ressemble à son auteur – est parfaitement illustré par les géants actuels du web : que ce soit Marc Zuckerberg ou Brin et Page, ce sont des êtres qu’on peut probablement qualifier de géniaux, mais dont l’humanisme est limité à la portion congrue.

En parallèle au Web « de la maison de verre » où Facebook et Google tentent de nous convaincre que l’intimité est un concept dépassé, il est urgent de créer un Internet humaniste.
Et après tout, s’il fallait, pour le construire, prendre le contrepied de la mécanique actuelle dominée par de jeunes Geeks étasuniens, ce serait un magnifique défi à relever pour les citoyens mûrs de la vieille Europe.

DMP… instantané de la Pompe Shadok

Wednesday, March 14th, 2012

Le DMP est une entreprise courageuse. Annoncé il y a 8 ans, lancé puis relancé, puis vraiment lancé début 2011 avec un objectif à un an de quelques millions de dossier ouverts, il n’en totalise actuellement que quelques dizaines de milliers.

Le désastre est désormais visible en ligne avec, aujourd’hui, une carte qui montre la situation fin février 2012 :

Vous y trouverez le nombre de DMP ouverts région par région. Le tableau ci-dessous montre la situation par ordre décroissant :

Picardie 19481
Alsace 18683
Aquitaine 15261
Franche Comté 8958
Rhône Alpes 5739
Pays de Loire 2374
Bourgogne 2346
Centre 2282
Nord-Pas de Calais 1895
Champagne Ardenne 1734
Provence Alpes Côte d’Azur 1701
Midi Pyrénées 1283
Limousin 1113
Languedoc Rousillon 950
Ile de France 772
Poitou Charentes 433
Haute normandie 370
Bretagne 362
Lorraine 268
Basse Normandie 86
Auvergne 84
Corse 1

Le plus pitoyable, c’est que ceux qui connaissent un peu ce dossier vous diront que les seules régions qui ont plus de 5000 DMP ouverts sont celles où existaient des expérimentations de longue date qui ont été “déversées” dans le DMP officiel… et encore, certaines régions, comme la Franche-Comté annonçaient depuis des années des dossiers locaux plus peuplées de plusieurs ordres de grandeur !

Il serait probablement cruel de rapprocher les 772 DMP ouverts en Ile de France des centaines de millions d’euros dépensés en huit ans. En réalité, en cette période électorale, il est temps de se demander quelle est l’utilité d’un tel projet.

Si vous allez sur le site de l’ASIP, vous serez probablement frappé par l’écart entre le discours d’auto-contentement de cette agence d’état et ses ridicules résultats. Au moment du bilan, il faudra se demander jusqu’à quel point cette véritable propagande n’avait pas pour rôle de bloquer toute innovation en santé.
Affirmer que “l’information de santé est une prérogative de l’état”, c’est explicitement empêcher toute initiative de ces startups qui relèveraient volontiers le défi de mettre réellement la personne au centre du système… voire de fédérer ainsi un réseau de personnes qui pourraient contester à l’Assurance Maladie et à la tutelle une gestion très sous-optimale, et totalement ancrée dans un paradigme obsolète, du système de santé.

Dans un domaine où tant est à changer, il faut exiger un bilan sans concession de l’échec sans limites du DMP et exiger une forme de Freedom to innovate.

Ajout 17/03/2012 : Le coût réel du DMP reste controversé.

Le député (socialiste) Gérard Bapt a écrit sur Mediapart que le DMP avait coûté 200 millions d’euros.

Sur Twitter, Marie-Françoise de Pange (@MFdePange) a écrit le 15 mars “JY Robin répond à Bapt coût du DMP : 94 m€ jusqu’en 2010 , 60 après

Ce chiffre me paraissait étonnant car, dans une interview à Impact-Santé, Jean-Yves Robin annonçait “Quant au budget de l’ASIP publié dans le rapport annuel d’activité, il a été initialement de 80 millions d’euros pour 2011. Depuis le gel du FIQCS, il est tombé à 66 millions d’euros.
Les chiffres annuels et les chiffres cumulés ne me paraissaient pas homogènes (budget cumulé de 94 M€ pour les 6 années 2005-2010, soit en gros 16 M€ de moyenne annuelle).

J’ai donc interpellé @MFdePange pour savoir si le budget antérieur était bien cumulé ou annuel. Ce à quoi @JYRobin a répondu plutôt laconiquement : “Cumulés évidemment. Il suffit de lire

Je me suis permis d’insister car, si on simule une augmentation linéaire du budget, on parviendra à un cumul de 94 M€ si on suppose une augmentation de 4,5 M€ par an (4,5 M€ la première année, 9 M€ la deuxième, etc donnent une somme cumulée de 94,5 M€ sur 6 ans). Cette simulation donne 27 M€ pour 2010 et le décrochage de 2011 à 80 M€ est alors considérable.

Ce matin, @JYRobin a répondu “On parle du budget DMP pas du budget ASIP. 30me pour le DMP tout compris. Lire budget ASIP

Si on en croit ce message, on arrive “assez harmonieusement” à une prolongation de la simulation linéaire (qui donnerait 31,5 M€ pour la 7ème année). Il faudra attendre l’audit de la cour des comptes pour le valider. Chacun sait que, dans l’établissement d’un budget, on possède une large liberté d’affectation des charges fixes à un poste ou à un autre en fonction de l’histoire qu’on souhaite raconter.

Au final, les sommes en jeu restent considérables pour un dossier qui n’est toujours pas capable de donner une réponse (qui ne soit pas purement politique) aux questions fondamentales :

  • Quelle est la fonction ?
  • La technologie retenue est-elle pertinente pour cette fonction ?
  • Quelle est le public visé ?
  • Les moyens de diffusion sont-ils adaptés à ce public ?

Recherche trapéziste timide

Sunday, February 5th, 2012

Bel article de Seth Godin, dont je me permets de proposer une traduction.

Vous êtes à la recherche d’un trapéziste timide… je vous souhaite bonne chance, car il n’y en a pas.

Si vous hésitez au moment de sauter d’une corde à l’autre, vous ne durerez pas bien longtemps.

C’est le cœur de ce qui fait que l’innovation fonctionne au sein de certaines organisations, que l’industrie meurt, qu’il est douloureux de tenter de maintenir un status quo tout en prenant part à une révolution.

Prenez autant de vitesse que vous le pouvez, trouvez un passage et lancez-vous. Vous n’atteindrez jamais la prochaine corde si vous restez agrippé à celle-ci.

Ecogen… démarrage imminent

Sunday, November 27th, 2011

L’étude Ecogen démarre Lundi. Ce sera sans aucun doute un évènement marquant pour ceux qui y auront participé. Par son ampleur, d’abord, on en attend plus de cinquante thèses de médecine générale ; par son ambition, ensuite, puisqu’il s’agit de décortiquer la dynamique de dizaines de milliers de consultations.

J’ai eu le bonheur d’assister la semaine dernière à une après-midi de formation autour du délicat problème de la séparation analytique des éléments d’une consultation de médecine générale.
Le matériel de formation était tout d’abord, très classiquement, constitué de cas cliniques imprimés sur lesquels les médecins – dûment dotés de stylos 4 couleurs – s’appliquaient à souligner les motifs, les résultats de consultation et les procédures réalisées ou prescrites. Et ce n’est pas si simple qu’il y paraît !
Vinrent ensuite des séquences vidéos de consultations fictives, l’exercice étant de retrouver les mêmes éléments au sein de cette « minuscule scène de théâtre » qu’est une consultation de médecine générale. Et je peux vous garantir qu’il peut se dire beaucoup de choses pendant ces quelques minutes et qu’il faut un véritable travail d’analyse et de synthèse pour démêler l’écheveau de l’échange et en extraire les axes de travail, la dynamique de la consultation, depuis le point d’entrée (les motifs) jusqu’aux actions (les procédures) en passant par les axes de travail (les résultats).

Est-ce utile ?

On pourrait en douter quand on voit les notes souvent désordonnées, parfois illisibles qui matérialisent bien souvent une consultation médicale, que ce soit sur un bristol ou dans un logiciel de gestion de cabinet. Cependant, distinguer clairement des résultats de consultation, c’est tout simplement se mettre en position de répondre à la question fondamentale « sur quoi va-t-on travailler ? ».

C’est un domaine que j’explore depuis plus de dix ans avec la Ligne de vie. La copie d’écran d’Episodus, ci-dessous, montre bien comment, de l’événement ponctuel de la consultation, naissent et/ou se transforment des lignes qu’on pourrait appeler « épisodes de soins » ou, dans le vocabulaire de la Ligne de vie, qui intègre la prévention, des « préoccupations de santé ».

A nouveau, est-ce utile ?

C’est utile, et même fondamental, si on comprend la santé d’une personne comme un projet au long cours dont le médecin généraliste est en charge. Parce qu’un projet, c’est une équipe réunie autour d’une vision commune des préoccupations prises en charge et des objectifs à atteindre.

Ce n’est pas un hasard si l’un des objectifs secondaires de l’étude Ecogen porte sur la « transférabilité » des tâches effectuées par le médecin généraliste. Les participants devront indiquer, pour toutes les procédures réalisées ou prescrites si, pour ce patient, à ce moment précis de son parcours de soins, cette procédure aurait pu être réalisée ou prescrite par un autre acteur et, si oui, par quel autre professionnel de santé et sous quelles conditions (dossier partagé, protocole prédéfini, supervision du généraliste…).

Ce point a beaucoup inquiété les futurs participants lors de la séance de formation à laquelle j’ai assisté. Comment eux, encore stagiaires, pouvaient-ils estimer quelque chose d’aussi délicat que d’attribuer à d’autres une partie du travail réalisé par leur maître de stage ?

Il y a deux façons d’envisager cette question. La première, à l’ancienne, est de comprendre le champ des prérogatives du médecin généraliste comme une forme d’acquis, de pré carré. La seconde, autrement plus moderne, est de comprendre la santé comme un travail d’équipe, de placer le médecin généraliste comme chef d’orchestre, et de décider crânement que c’est à lui de distribuer les rôles d’une façon hautement personnalisée. Il ne s’agit pas de dire « une infirmière peut suivre le diabète », mais, pour Mme Dupont, une infirmière à la formation adéquate peut se charger de telle et telle tâches.

En sensibilisant les stagiaires à la définition des résultats et procédures de consultation, Ecogen leur permet de définir les éléments du projet de santé des patients. En les faisant s’interroger sur la répartition des rôles au sein de ce projet, Ecogen les place en position d’encadrement des opérations.

C’est une vision résolument moderne de la médecine, et j’espère que la cinquantaine de stagiaires prendra du plaisir à ouvrir cette voie… et même que certains d’entre eux feront de cette nouvelle approche le sujet de leur thèse.

Fillon malade ?

Thursday, August 25th, 2011

D’après l’Express, le premier ministre Fillon serait atteint de “fallite”. Manifestement un type d’inflammation qui provoquerait une sur-élasticité de l’organe d’état.

Fallite

Université d’été de la e-santé – Atelier santé 2.0

Saturday, July 2nd, 2011

L’Université d’été de la e-santé se tiendra du 6 au 8 juillet 2011 à Castres. En compagnie de Jean-Michel Billaut et Hervé Servy, je participerai à l’animation de l’Atelier Santé 2.0 le jeudi 7 juillet de 9h15 à 10h15.

Avec un Grand Observateur (doubles majuscules car Jean-Michel Billaut a été élu Personnalité numérique 2010 par l’Acsel et a reçu le prix du Promoteur de la société numérique 2011), deux entrepreneurs et une salle chauffée à blanc, le 2.0 en santé n’a qu’à bien se tenir… il sera démystifié, puis disséqué, avant que ses entrailles subtilement réarrangées ne permettent une tentative historique de prédiction de sa trajectoire future !

L’enjeu est d’importance… et Hervé Servy a imaginé pour l’occasion une règle du jeu inhabituelle : déterminer à l’avance une liste de questions et donner à chaque animateur 2 minutes pour les traiter avant de faire réagir la salle. Hervé, probablement influencé par ses développements actuels sur une version de Sanoia adaptée au speed dating, avait prévu que les participants notent les prestations des animateurs. Cette idée a été abandonnée au profit d’une participation active de tous (j’espère que, entre autres moyens, nous pourrons utiliser pleinement Twitter).

Pour mettre à égalité les participants et les intervenants, les deux autres compères m’ont autorisé à publier les fameuses questions de cette séance de « speed brainstorming » ; je les assortirai d’un court commentaire pour mieux en cerner les contours. Toute transgression sera évidemment permise, mais l’équation qui consistait à ajouter forte diversité d’angle de vue, volontaire brièveté d’intervention et flou d’interprétation des questions me semblait de résolution trop périlleuse.

Voici donc la liste retenue :

Santé 2.0 ?

Le terme 2.0 est un terme tellement générique qu’il serait illusoire d’en parler durant une heure sans commencer par le définir. Il n’est pas question de s’accorder sur une définition commune, mais plutôt, pour chacun de commencer par définir d’où il parle.

Google Health : pourquoi la fin ?

L’actualité est riche, profitons-en pour amorcer les débats. Est-ce le besoin ou le marché qui font défaut ? Pour créer le flux nécessaire, faut-il rendre compatible les applications locales ou passer à autre chose ? Confrontation d’opinions et échauffement garanti pour un démarrage sur les chapeaux de roue !

DMP = 1.0 ou 2.0 ?

La pertinence du DMP aura été traitée en filigrane dans la question précédente (DMP = besoin – marché). La question sera quand même posée de savoir si la création ASIPienne entre ou non dans le cadre de la santé 2.0.

PatientsLikeMe : Quel retour sur exhibitionnisme ?

PatientsLikeMe est un exemple emblématique du 2.0 étasunien. Il semble plus naturel là-bas qu’ici d’étaler au grand jour ses informations intimes, de la mise en ligne de son génome à la publication de son poids sur Twitter. Peut-on espérer un réel retour sur investissement de cette exposition ? (en dehors de celui, en dollars, de l’hébergeur).

Mes données sont en sécurité ?

Fort d’avoir trouvé une réponse personnelle à la question précédente, vous avez choisi, pour exposer vos données de santé sur Internet, le service qui vous offre le meilleur ratio bénéfice risque. Ce pari est-il garanti dans la durée ? On pense évidemment au piratage, mais le plus banal reste probablement le changement de politique de l’hébergeur ou la réquisition étatique.

No more Mediator : Afssaps 2.0, Prescrire 2.0 ou autre ?

Actualité à nouveau, mais cette fois ci dans le domaine de la sécurité médicale. La future information de référence proviendra-t-elle d’agences gouvernementales miraculeusement guéries de leur sclérose, d’une réelle appropriation de la qualité par les professionnels eux même, ou bien d’ailleurs (associations d’usagers, industriels…).

2012 : votre prédiction (en e-santé)

2011 devait être une année banale, mais ce fut, jusqu’ici, une succession ininterrompue d’événements. Il serait étonnant que 2012 ne réserve pas quelques surprises de taille. Chacun dira, depuis son porte d’observateur ou d’entrepreneur, ce qu’il voit poindre à l’horizon en e-santé… avec l’ambition démesurée que la synthèse de ces éclairages complémentaires engendre une projection cohérente. Peut-être prendrons nous alors rendez-vous pour entamer l’Atelier 2012 sur un bilan de cette capacité prédictive ?

Si une question fondamentale vous paraît manquer à cette liste, n’hésitez pas à la proposer sur Twitter… ce qui me donne l’occasion de vous signaler que le hashtag de l’événement est #esantecastres

À Jeudi, à Castres !

Bonnes nouvelles des conspirateurs du Futur

Monday, June 27th, 2011

Quel beau titre que celui du livre de Michel Godet : « Bonnes nouvelles des conspirateurs du Futur ».

Il y narre la trajectoire de quatorze hommes et femmes de terrain qui, au-delà de toute attente et souvent dans des conditions difficiles, ont su rebondir à partir d’eux-mêmes et d’initiatives innovantes et ambitieuses… démontrant que le levier des projets et la force des liens sont capables de changer le monde et de permettre à chacun de devenir entrepreneur de sa vie ; rien de moins qu'un « conspirateur du futur ».

Michel Godet a livré une forme de résumé de son ouvrage dans un récent article du journal Le nouvel Économiste :

Le mal est en nous, les solutions aussi !

Arrêtons de pleurer sur le monde dans lequel on est. Nous connaissons une croissance sans précédent dans l’histoire de l’humanité. Le niveau de vie par habitant a augmenté de 50 % depuis 1980 et il va encore augmenter, l’espérance de vie aussi. Les problèmes pourraient être en nous, les solutions aussi. Pourquoi cette espèce de recherche de bouc émissaire ? Nous sommes dans une cité d’abondance.

Mais on est devenu riche en biens, pauvre en liens. Il faut cesser de vouloir construire un projet de société imposé d’en haut et regarder ce qui marche sur 20 ans. Donc il faut repenser complètement nos modes d’action. Et faire porter les efforts sur l’éducation. Il n’est de richesse qu’un homme éduqué. Sinon c’est une catastrophe, vous avez des barbares à vos portes. Faisons des innovations. Nous avons démontré que 80 % de l’innovation n’est pas technique mais sociale, commerciale, organisationnelle, financière.

Le vrai problème ? Insérer chacun dans une dynamique de projets. Ce sont les 14 histoires que je raconte dans mon livre : ces gens ne se posent pas la question. Ils entreprennent. Quand vous avez un projet, vous ne vous demandez pas pourquoi vous vous levez le matin. Vous vous levez pour faire avancer votre projet. Et vous suscitez l’adhésion et l’enthousiasme autour de vous, ce qui diffuse par contagion des bonnes pratiques. La réalité du terrain dépasse souvent la fiction des rêves et des projets qu’ils suscitent. Le désir est producteur d’avenir et la force des projets est le principal levier pour changer le monde. Dans toutes mes histoires de projets réussis, on retrouve des hommes imprégnés de valeurs essentielles, comme la ténacité, la confiance, le travail et le plaisir des liens solidaires.

Ces conspirateurs du futur ne se connaissent pas, mais ils vont, je l’espère, se reconna&icirc:tre et donner aux autres l’envie de suivre leur exemple.

Lean et santé

Saturday, June 18th, 2011

Dans un précédent billet, je citais un tweet de Jacques Lucas :

@Jcqslucas :
@p_ameline Y a-t-il un chemin éthique entre le Tout État et la Jungle?Ou entre L’Etat providence et la non protection medico-sociale?

Pour lever tout doute sur le fait que sa question n’était pas une interrogation, mais une interpellation, il a, en réponse, précisé sa pensée :

@Jcqslucas :
@p_ameline Belles réflexions. Mais, quand je pose la question sur le chemin, c’est que je pense qu’il existe. Il faut prendre ce chemin là.

Il faut donc prendre ce chemin là ; entre les extrêmes… mais quel chemin ?

Faisons un petit détour par deux autres tweets qui se sont intercalés dans le fil de discussion :

@cmattler :
@Jcqslucas @p_ameline Sachant qu’il y a une infinité de chemins entre ces deux extrêmes, cela reviendrait à dire qu’il n’y a plus d’éthique

@cmattler :
@Jcqslucas @p_ameline ou qu’il ne faut pas chercher l’éthique dans le chemin, mais dans les pas de ceux qui l’emprunteront…

Magie de Twitter (et de son exigence de « pensée condensée ») ; en quelques mots voici dessiné un paysage propice à réflexion éclairée :

  • Les attracteurs massifs que sont le tout état et le non état cachent une multitude de chemins intermédiaires.
  • Les chemins intermédiaires ne sont pas encore tracés, mais ils peuvent naître des besoins vrais de leurs usagers

C’est désormais une approche classique quand on crée un ensemble architectural de ne pas créer les chemins à l’avance et d’attendre que, des circulations naturelles sur les pelouses, se dessinent les axes de circulation à aménager.

Plus l’environnement est complexe et plus l’échec est garanti pour celui qui pense qu’il connait la solution à l’avance et peut la cristalliser avant mise en service.

Proposition résumée dans un récent tweet provocant de Dominique Dupagne :

@Web_Neuronal
Sur les médias sociaux, validation du concept bio qui m’est cher : mieux vaut agir avant de réfléchir http://bit.ly/mPZxBc

Ne croyez pas que Dominique Dupagne agisse vraiment avant de réfléchir… il exprime ici le fait que, dans les univers à forte plasticité, le résultat d’une action modifie (parfois fortement) l’environnement environnant. Le temps de conception et de développement d’une solution « finalisée » est alors trop long à l’échelle de la vitesse d’évolution du biotope cible… et lorsque cet édifice sera prêt à implanter, il sera presque toujours anachronique dans le nouveau paysage.

On pourra argumenter sur le fait que dans le domaine qui nous préoccupe, il est habituel de penser que l’état est légitime à imposer des solutions monopolistiques et que la quasi-absence de mouvement donne l’illusion d’un glacis intangible. C’est un mirage, car si le domaine ne voit pas sa surface modelée en permanence par la réponse à des solutions innovantes, il est, du fait de l’évolution réelle des besoins de la population, le lieu de changements souterrains profonds. Les tensions considérables qui s’accumulent en sous-sol rendent illusoire la mise en œuvre de tout système massif.

En réponse à la caricaturale plasticité du Web, une démarche est en cours de formalisation aux états-Unis : le « lean ».

Le lean répond à la problématique ancienne, qui a fait naître les méthodologies « agiles », que la plupart des solutions informatiques échouent parce que le développement en cascade qui étudie les besoins avant rédaction d’un cahier des charges, obtention d’un budget puis appel d’offre de développement, développement et recette donne naissance à des systèmes de piètre qualité et inadaptés.
Le défaut de qualité provient à la fois de la trop grande complexité initiale du projet dans un cadre budgétaire fixé artificiellement, ce qui est très peu propice à la mise en place de la couche qualitative (épine dorsale de tests unitaires et fonctionnels).
L’inadaptation est liée à la fois à la perte de substance dans la chaîne de réalisation (qui sait réellement exprimer ses besoins ? qui sait les transformer fidèlement en un cahier des charges ? qui sait construire une solution fidèle dans la lettre et l’esprit ?) et, comme je l’ai déjà exprimé, au fait que, entre le moment où le futur utilisateur exprime ses besoins et le moment où le système est livré (typiquement plusieurs années), le besoin a considérablement évolué.

La réponse « agile » est d’intégrer le futur utilisateur dans l’équipe de développement et, grâce à des cycles de développement très courts, de lui permettre de guider l’évolution selon ses besoins réels. En utilisant réellement un système initialement très simple mais dont il commande les axes d’évolution « à l’usage réel », il a de grandes chances d’investir son budget dans des fonctions réellement utiles. Par ailleurs, cette contrainte pour l’équipe de développement de devoir suivre un client opportuniste oblige à la mise en place d’une démarche qualitative qui restera une garantie d’évolutivité du système final.

Le Lean est une généralisation de ces concepts de base à un univers considérablement élargi. Les entrepreneurs du Web ont constaté que la démarche ancienne, qui passait par la longue et difficile réalisation d’un plan d’affaires afin de convaincre des acteurs du capital-risque d’investir massivement pour financer une équipe de développement posait deux problèmes majeurs : pour convaincre les financeurs du sérieux du projet, il fallait concevoir un système « bourré de fonctions » et, compte tenu du temps passé à écrire le business plan, à chercher le financement et à transformer le tout en centaines de millier de lignes de codes… le train était presque toujours parti entre temps. Le Web avait changé, des concurrents directs ou indirects étaient déjà en place… et le capital risqueur, parfaitement conscient de la situation, avait déjà coupé les vivres.

La réponse est désormais classique : concentrer son idée en 5 fonctions et la mettre en ligne. Ensuite, être très attentif aux réactions des utilisateurs et faire évoluer le système en cycles rapides (parfois un par jour).

Il serait naïf de penser que le Lean est facile et garantit le succès. Les systèmes de contrôle qualité doivent être extrêmement sophistiqués, et il faut savoir réagir très rapidement aux demandes des utilisateurs tout en gardant une vision « tête haute » de la direction globale. Pour un « voileux » comme moi, c’est somme toute assez naturel : il faut s’adapter de façon rapide et opportuniste aux facéties du plan d’eau tout en ayant une idée assez précise – mais qui reste fortement modifiable – du chemin à parcourir.

Pourra-t-on appliquer le Lean à l’univers de la santé ? C’est, à mon sens, la seule méthode actuellement à notre disposition pour ne pas échouer à coup sûr.

Les obstacles sont nombreux, principalement liés à la totale inadaptation des services de l’état à une approche qui ne soit pas en cascade – ce qui est, entre autres, lié à notre système de lois écrites.

L’autre risque majeur, dans un système qui doit posséder une forte capacité de déformation dans la recherche de la forme optimale, c’est que certains acteurs conçoivent leur pratique comme immuable, que ce soit par incapacité à s’extraire de paradigmes usés jusqu’à la corde ou par respect obligé des obligations éthiques qui encadrent ces usages anciens.

C’est un domaine où l’Ordre des Médecins peut jouer un rôle particulièrement délétère (en limitant l’espace de recherche à des optimums locaux situés à courte distance des usages immémoriaux), ou, au contraire, extrêmement positif en prenant la responsabilité de contribuer à l’encadrement éthique d’axes d’exploration atypiques (qui seront assez naturellement concurrents des solutions officielles).

L’honorable représentant de l’Ordre explicitement à l’origine de ce billet se retrouve implicitement à sa conclusion. Souhaitons que soient fécondes les réflexions qu’il fait actuellement naître au sein de cette organisation.

Accélération

Sunday, August 29th, 2010

Hartmut Rosa est allemand, comme le suggère son prénom ; il n’est, par contre, pas professeur de latin, comme pourrait l’indiquer son nom, mais de sociologie. Il vient de publier « Accélération » aux éditions La Découverte : une véritable « critique sociale du temps » susceptible de penser ensemble les transformations du temps, les changements sociaux et le devenir de l’individu et de son rapport au monde.

Une interview d’Hartmut Rosa, intitulée « Au secours ! Tout va trop vite ! », a été publiée dans un récent numéro du Monde Magazine. Il y décrit brillamment comment l’accélération de tous les processus temporels de notre société contribue massivement à son instabilité :

À l’accélération technique, à celle des rythmes de vie, il faut ajouter une accélération sociale. Aujourd'hui, aucune situation n’est assurée, la transmission n’est pas garantie, le précaire règne. Il est symptomatique de constater que les parents ne croient plus que leurs enfants auront des vies meilleures que les leurs. Ils se contentent d’espérer qu’elles ne seront pas pires.

Il existe une autre raison pour laquelle les gens se sentent si mal, déprimés, voire suicidaires au travail. Régulièrement, les dirigeants des entreprises présentent de nouveaux projets, des stratégies pour gagner du temps et de l’argent, rentabiliser la production, dégraisser les effectifs. Ou encore, ils mettent en place de nouveaux outils informatiques plus performants, ou des concepts marketing présentés comme innovants, ou réorganisent les chaînes de travail, et ainsi de suite. Les marchés financiers saluent ces mouvements comme autant de signes positifs d’activité.

Mais très souvent, ces formes frénétiques d’accélération et de réorganisation ne procèdent pas d’un processus d’apprentissage à l’intérieur de l’entreprise, ou d’une meilleure utilisation des talents, il s’agit presque toujours de changements aléatoires, erratiques, caractériels, des changements pour le changement, dépourvus de sens. Et comme la plupart du temps ils ne débouchent sur aucune amélioration réelle, ils accroissent le sentiment de dévalorisation et d’anxiété chez les travailleurs concernés. Dans le même temps, les directions d’entreprise entendent conserver leurs « normes de qualité », ajoutent toujours de nouvelles formes de classement, d’évaluation et de notation des employés, créant une tension supplémentaire qui finit par rattraper les dirigeants eux-mêmes.

Le résultat peut être observé dans presque toutes les sphères du travail contemporain, à tous les niveaux des entreprises. Les employés se sentent non seulement stressés et menacés, mais encore sous pression, désarmés, incapables de montrer leur talent, bientôt découragés. Voyez comme partout les enseignants se plaignent de ne plus avoir de temps pour apprendre à leurs étudiants, les médecins et infirmières pour s’occuper humainement de leurs patients, les chercheurs pour se consacrer sans être soumis à des évaluations permanentes. D’où ce sentiment de courir sur un tapis roulant ou une pente qui s’éboule. Au final, nous éprouvons tous ce que le sociologue Alain Ehrenberg nomme la « fatigue d’être soi » (Odile Jacob, 1998) tandis que, constate-t-il, la dépression devient la pathologie psychique la plus répandue de la modernité avancée.

Il développe également l’évolution considérable de la façon dont les individus se représentent leur trajectoire temporelle, leurs projets d’avenir et la manière de raconter leur histoire individuelle :

Jusqu’à aujourd'hui, la modernité comme l’idée de progrès nous promettaient que les gens finiraient par être libérés de l’oppression politique et de la nécessité matérielle, pourraient vivre une existence choisie et autodéterminée. Cette idée repose sur la supposition que nous portons tous quelque chose qui ressemble à un « projet d’existence », notre propre rêve de ce qu’on pourrait appeler la « bonne vie ». C’est pourquoi, dans les sociétés modernes, les individus développaient de véritables « identités narratives » qui leurs permettaient de relater l’histoire de leur parcours comme autant d’histoires de conquêtes, certes semées d’embûches, mais allant vers cette « bonne vie » dont ils rêvaient.

Désormais, il devient impossible de développer ne serait-ce que qu’un début de projet d’existence. Le contexte économique, professionnel, social, géographique, concurrentiel est devenu bien trop fluctuant et rapide pour qu’il soit plausible de prédire à quoi notre monde, nos vies, la plupart des métiers, et nous-mêmes, ressembleront dans quelques années.

Le concept d’identité narrative est particulièrement intéressant ; je commence à étudier comment, en tant qu’outil de réappropriation de son projet d’existence, en faire un des pivots de la Ligne de Vie.

Syndrome de Dunning-Kruger

Saturday, June 26th, 2010

Dans plusieurs articles, j’ai tenté de définir le type de mal dont sont atteints nos ministres. Il m’a toujours semblé qu’il faut un talent particulier pour prendre systématiquement les mauvaises décisions alors que le hasard devrait, en moyenne, limiter le taux d’erreur à une fois sur deux.

En septembre 2008, je pensais que, comme les Aymaras, ils tournaient le dos à l’axe naturel du temps, orientés vers un passé connu et tournant le dos à un avenir qui n’est, par essence, pas lisible. En août 2009, préoccupé par les visions d’après-crise je constatais grâce à Bernard Stiegler et Isaac Johsua que, aveuglés par la pensée unique, ils tenteront toujours de sauver ce qui ne peut plus l’être au détriment de ce qui devrait naître.
Mes recherches récentes m’ont enfin permis de qualifier très précisément le mal et de lui donner un nom : syndrome de Dunning-Kruger.

Comme l’explique un article du New-York Times, le syndrome de Dunning-Kruger a été décrit par ses auteurs à partir du « cas clinique » d’un pauvre homme qui avait attaqué deux banques la même journée à visage découvert car il était persuadé que le jus de citron dont il s’était enduit la peau le rendait invisible des caméras de surveillance. Même après son arrestation, l’individu restait incrédule sur l’échec de sa stratégie qu’il avait, pensait-il, testé avec succès au moyen d’un Polaroid.
Le titre de l’article écrit par David Dunning, un professeur de psychologie sociale à Cornell et Justin Kruger, un de ses étudiants, est particulièrement explicite : "Unskilled and Unaware of It: How Difficulties of Recognizing One’s Own Incompetence Lead to Inflated Self-assessments" (Journal of Personality and Social Psychology, 1999, vol. 77, no. 6, pp. 1121-1134). On pourrait le traduire par : « Pas doué et inconscient de l’être : comment la difficulté à reconnaitre sa propre incompétence mène à un gonflement de l’auto-satisfaction »

Comme l’expliquent les auteurs, « quand les gens sont incompétents dans les stratégies qu’ils adoptent pour réussir et obtenir satisfaction, ils sont victimes d’une double malédiction : non seulement ils induisent des conclusions erronées et font des choix malheureux, mais, en plus, leur incompétence leur ôte toute capacité à s’en rendre compte. Tout au contraire, ils restent sur l’impression fausse d’avoir fait exactement ce qu’il fallait. »

Quiconque a entendu Roselyne Bachelot s’exprimer sur sa pitoyable gestion de la grippe A, ou a suivi les errances de Xavier Bertrand dans la mise en œuvre du Dossier Médical Personnel, reconnaitra jusqu’à la caricature le syndrome de Dunning-Kruger : alors qu’il est désormais de notoriété publique que l’échec de leur démarche était garanti dès l’origine, les deux personnages ne le comprennent toujours pas et défendent bec et ongle la pertinence de leurs choix.

Le syndrome de Dunning-Kruger étant une anosognosie, une pathologie ignorée de celui qui en est atteint, les médecins consultés doutent qu’il puisse exister un traitement médical.
Avoir pu poser un diagnostic nous permet au moins de prendre les précautions qui s’imposent quant à la confiance qu’il convient de leur accorder. Il est également possible de mieux comprendre par quel mécanisme les technocrates et les industriels, qui accumulent pourtant échec après échec, peuvent opposer aux tenants de solutions alternatives un « principe de réalité » qui leur permet, sans changer de stratégie, de financer la prochaine itération.

Zen, Shadoks et Entretien des motocyclettes

Sunday, June 20th, 2010

Le livre de Robert M. Pirsig « Traité du zen et de l’entretien des motocyclettes » m’avait fait forte impression lors d’une première lecture estudiantine. Je le reprends 24 ans plus tard, aiguillonné par une citation glanée dans un article récemment transmis par Dominique Dupagne parce qu’il résonnait parfaitement en phase avec DesBons. Me voici donc à nouveau plongé dans le périple motocycliste du narrateur du roman, espérant retrouver le contexte d’une phrase plutôt énigmatique : “But even though quality cannot be defined, you know what quality is.” Me voici également à nouveau séduit par la pertinence du fil de pensée de cet homme qui, avec un couple d’amis, traverse, ou plutôt fait corps, avec les paysages grandioses d’Amérique du nord.

Perturbé par l’obstination que mettent ses compagnons de voyage à refuser de se préoccuper de la mécanique de leur engin et, à la réflexion, à tout objet technologique, le narrateur a soudain l’illumination d’une forme de refus radicale : « Je me disais que cela devait aller plus loin que la technologie ; mais je vois, maintenant, que c’est bien cela qui est en cause. Mais ce n’est pas seulement cela : ils rejettent du même coup une force mal définie, une force de mort, inhumaine, mécanique et aveugle, qui justement donne naissance à la technologie. Un monstre hideux, qu’ils redoutent et qu’ils fuient, tout en sachant qu’ils ne lui échapperont pas. Il existe des gens qui comprennent cette force et qui la maîtrisent : ce sont justement les technocrates. Quand ils décrivent leur métier, leur langage est inhumain : il n’y est question que de rouages, de rapport entre des éléments incompréhensibles et qui le resteront aussi longtemps qu’on en parlera. »

J’ai immédiatement repensé à une phrase récemment écrite sur la liste Fulmedico par Gilles Perrin à propos d’une réunion rhône-alpine sur les systèmes collectifs en santé : « Pour le DMP personne ne semblait en avoir un… mais tout le monde en causait avec force termes techniques. 2-3 médecins généralistes égarés dans la salle leur ont rappelé ce qu’était la vraie vie d’un docteur….. pas sûr qu’ils aient compris ; pas grave la manne financière ne se tarit pas. »

Le DMP est sans contexte l’archétype de la technocratie : l’humain n’est jamais présent chez ceux qui en parlent car il leur suffit, comme l’écrit Pirsig, d’évoquer des rouages et des éléments incompréhensibles pour conserver l’illusion que quelque chose naitra un jour sans qu’il n’ait jamais été nécessaire de l’avoir inventé.

Mon ami Denny Adelman vient de me signaler un superbe article du Gardian, The Internet: Everything you ever need to know par John Naughton, qui fournit des pistes d’analyse du phénomène. D’après lui, la 5ème chose à savoir sur Internet, c’est que “Complexity is the new reality” :

“Even if you don’t accept the ecological metaphor, there’s no doubt that our emerging information environment is more complex – in terms of numbers of participants, the density of interactions between them, and the pace of change – than anything that has gone before. This complexity is not an aberration or something to be wished away: it’s the new reality, and one that we have to address. This is a challenge, for several reasons. First, the behaviour of complex systems is often difficult to understand and even harder to predict. Second, and more importantly, our collective mindsets in industry and government are not well adapted for dealing with complexity. Traditionally, organisations have tried to deal with the problem by reducing complexity – acquiring competitors, locking in customers, producing standardised products and services, etc. These strategies are unlikely to work in our emerging environment, where intelligence, agility, responsiveness and a willingness to experiment (and fail) provide better strategies for dealing with what the networked environment will throw at you.”

Après avoir fait le bilan que notre nouvel environnement est plus complexe – en terme de nombre de participants, de densité d’interaction entre eux et de rythme d’évolution – que tout ce qui a existé auparavant, John Naugthon fait la constatation que cette complexité n’est pas une aberration, ou quelque chose dont il faudrait souhaiter la disparition, mais la nouvelle réalité, et qu’il faut s’en accommoder. Il explique alors que c’est un défi à relever car le comportement d’un système complexe est souvent difficile à comprendre et encore plus difficile à prédire… mais ensuite, et surtout, parce que notre état d’esprit collectif industriel et gouvernemental n’est pas bien adapté à composer avec la complexité. Traditionnellement, les organisations ont tenté de régler leurs problèmes en réduisant la complexité – en acquérant des concurrents, en rendant les consommateurs captifs, en produisant des produits et services standardisés, etc. Ces stratégies ont peu de chance de marcher dans notre environnement émergeant où l’intelligence, l’agilité, la réactivité et l’envie d’expérimenter (et d’échouer) fournissent de meilleures stratégies pour composer avec ce que l’environnement en réseau vous enverra à la figure.

Il n’y a rien d’autre à dire pour expliquer pourquoi nos industriels et notre gouvernement (qui ne comprend que les appels d’offres de grande envergure, de "généralisation") vont subir des déconvenues majeures dans les nouveaux services en santé. Le Dossier Pharmaceutique (DP) dont les pharmaciens sont si fiers est un bel exemple de réduction de la complexité : c’est tout simplement l’extension d’un produit de gestion de stocks, qui permet de tracer la destination théorique de produits dotés d’un code barre. La grosse entreprise qui a fourni le DP, notre fleuron national Atos, a également remporté le marché de généralisation du nouveau DMP et de la messagerie de l’ordre des médecins. Pour les raisons parfaitement expliquées par Naugthon, ces projets vont probablement tous échouer (même celui de l’ordre, qui aurait été si utile aux patients en fournissant une adresse de messagerie en medecin.fr, garantie d’échanges au sein d’un domaine à l’éthique garantie)… et tous pour les mêmes raisons : ils sont conçus par des techniciens dont le savoir-faire est de gommer la complexité… dans un monde qui se bâtit sur elle.

Il faut désormais se détourner de ces ruines en devenir et tenter crânement sa chance en mobilisant, comme le dit Naughton, intelligence, agilité, réactivité et envie d’expérimenter (sans craindre d’échouer pour apprendre) pour ramener de la chaleur humaine dans ce monde étrange et fascinant qui nait sous nos yeux.

Consultation publique sur l’action "soutien aux usages, services et contenus numériques innovants"

Monday, June 7th, 2010

Le Secrétariat d’État chargé de la Prospective et du Développement de l’Économie numérique vient de publier une consultation publique préalable aux investissements du "grand emprunt".

La e-santé fait l’objet des pages 26 à 28, reproduites ci-dessous :

Périmètre

La lutte contre le développement des maladies chroniques, la pénurie des professionnels de santé, l’autonomie des personnes dépendantes et la maîtrise des dépenses de santé sont autant d’enjeux cruciaux pour l’avenir du secteur de la santé. La thématique de l’e-santé est incontournable afin de répondre à ces enjeux dans un contexte où les citoyens ont de plus en plus des comportements de consommateurs pour leur santé et leur bien être, et où l’usage croissant des nouvelles technologies dans la vie quotidienne (large diffusion d’internet, du mobile et du haut débit) constitue une réelle opportunité pour l’adaptation du monde de la santé aux réalités actuelles et à venir.

Faire progresser la santé par l’e-santé c’est utiliser les technologies de l’information et de la communication pour répondre aux nouvelles exigences des patients, des professionnels de santé, des établissements de soins et des institutionnels avec des objectifs de coûts maîtrisés. L’e-santé permettra en outre de passer d’une médecine « curative » à une médecine préventive
potentiellement moins onéreuse et de limiter les différences sociales et territoriales. Elle permettra enfin une médecine plus efficace grâce à la création de bases de référence et d’expertise. Les marchés associés représentent d’importants enjeux pour notre industrie et un vaste gisement d’emplois.

Axes d’intervention

Un programme en deux volets complémentaires est envisagé :

  • un volet de soutien à l’innovation et au développement d’une industrie compétitive dans le domaine de l’e-santé. Un appel à projets pourrait être lancé à cet effet pour favoriser l’émergence de filières industrielles favorables à la santé et à l’autonomie des personnes dépendantes. Cet appel s’adresserait en priorité aux filières qui ne sont pas aujourd’hui suffisamment mobilisées autour du sujet mais qui peuvent produire de nouvelles offres afin de répondre à la forte demande des consommateurs en matière de solutions pour leur santé et leur bien-être, notamment les filières traditionnellement éloignées de l’e-santé (bâtiment, textile1, transports, loisirs2, etc.). Cet appel permettrait aux filières concernées de se positionner sur des marchés appelés à une très forte croissance en faisant émerger, via des projets structurants rassemblant de nombreux acteurs et notamment de PME, de nouvelles solutions et des services innovants d’e-santé (ex : coaching autour de certaines pathologies, bâtiments intelligents…) et de mettre en place des modèles économiques associés. Un financement complémentaire en prise de capital de sociétés serait également prévu. Dans un premier temps, un appel à intentions pourrait être lancé pour encourager ces filières à s’organiser en proposant des projets structurants.
  • un volet de mise en place de pilotes structurants de transformation du système de santé pour passer à l’ère numérique. Afin de mettre en place de façon durable des solutions d’e-santé à grande échelle une réorganisation de l’offre de soin et une forte implication des acteurs universitaires, hospitaliers et ambulatoires est nécessaire. Ce développement nécessite également l’émergence de nouveaux acteurs économiques en capacité de proposer ces services qui doivent s’inscrire, en fonction de leur nature, dans les modèles économiques propres au secteur. Ces nouvelles offres de services et de soins s’appuyant sur les technologies numériques permettront une meilleure prise en charge et un meilleur suivi des patients notamment dans le cadre des maladies chroniques ainsi qu’un meilleur niveau d’expertise (systèmes d’aide à la décision, bases de connaissance…) Elles ont le potentiel d’assurer une réduction des dépenses de santé en particulier en réduisant le nombre et la durée des hospitalisations ainsi que les déplacements et en améliorant l’efficacité des décisions thérapeutiques. Les projets pourraient en priorité porter sur la mise en place de plates-formes mutualisées d’information, de coordination des différents acteurs du monde médico-social ou d’orientation et suivi de certaines pathologies, ou sur la mise en place de solutions de maintien à domicile de personnes dépendantes. Une attention particulière sera portée aux attentes des citoyens et à l’acceptabilité sociétale de ces nouvelles approches.

    Un appel à projets intervenant à la fois en subvention et avances remboursables ainsi qu’en investisseur avisé (prêts et apports en fonds propres) pourrait être lancé pour accélérer cette transformation sur plusieurs régions pilotes. Des cofinancements des
    collectivités locales et des organismes liés à la santé seront recherchés pour un montant au moins équivalent à celui investi par l’Etat. Ce volet de l’emprunt national constituerait ainsi un accélérateur de réforme et viserait à tester en vraie grandeur des nouvelles organisations qui pourraient ensuite être généralisées pour accompagner la réorganisation nécessaire de l’offre de soins. Il permettra :

    • une action ciblée sur des projets régionaux pour amener l’offre à maturité et réaliser des vitrines ;
    • des réalisations reproductibles généralisées hors emprunt national.

    Les axes de ce second volet pourraient notamment être les suivants :

    • améliorer le suivi des personnes à domicile, notamment pour les malades chroniques et personnes âgées et/ou dépendantes ;
    • réduire les hospitalisations conventionnelles par l’hospitalisation à domicile et améliorer la coordination hôpital-ville ;
    • améliorer l’accès aux soins de premier recours et faciliter l’accès aux consultations pour les personnes isolées.
Q 5.b.1 : La démarche proposée associant soutien à l’innovation et au développement d’une industrie compétitive dans le domaine et soutien à la mise en place de pilotes structurants pour accélérer la transformation du système de santé vous paraît-elle adaptée ?
Q 5.b.2 : Quels seraient les projets les plus structurants en matière d’e-santé ? Pouvez-vous préciser les enjeux sanitaires et économiques associés ?
Q 5.b.3 : Sur les deux volets, quelles applications particulières vous sembleraient-elles à privilégier ?
Q 5.b.4 : Comment s’assurer de l’effet de levier sur l’économie de cette partie de l’emprunt national ? En particulier, certains critères de sélection, points de vigilance ou conditions à réunir, notamment en termes de freins à lever, vous semblent-ils importants à prendre en compte ?
Q 5.b.5 : Quel modèle économique de pérennisation voyez-vous ?
Q 5.b.6 : Quelle articulation devrait être trouvée entre les différents acteurs : Etat, collectivités territoriales, acteurs privés ?

Belle époque 2.0

Friday, September 11th, 2009

Revivre la « Belle époque », c’est l’évocation faite par le président de l’ARCEP, Jean-Ludovic Silicani, lors du séminaire « Numérique : investir aujourd’hui pour la croissance de demain » organisé par Nathalie Kosciusko-Morizet le 10 septembre à la Maison de la Chimie. Le but avoué étant de convaincre Alain Juppé et Michel Rocard d’orienter une partie des subsides du futur « Grand emprunt » vers des investissements numériques.

La journée était fort logiquement organisée en trois tables rondes : Infrastructures et réseaux, Logiciels et services et Patrimoine et industrie culturelles. Je n’ai assisté qu’aux deux premières, et je n’ai donc pas eu le plaisir de siffler la diatribe pro-hadopi (anecdote narrée sur le flux Twitter ; tag #emprunt).

La première table ronde fût fort efficace. Michel Mercier, ministre de l’espace rural animait le tout avec un volontarisme affiché : couvrir au plus vite 100% du territoire en très haut débit.

La stratégie qui semble faire consensus est de distinguer trois types de zones :

  • La zone 1 correspond aux métropoles, où le modèle économique favorable permet de laisser opérer le secteur privé.
  • La zone 3 correspond aux milieux très peu denses, où la rentabilité est dérisoire. La connexion étant une mesure d’aménagement du territoire, elle sera financée par subventions.
  • La zone 2 représente le reste du territoire, où une rentabilité est possible, mais trop faible pour permettre une compétition entre acteurs privés ; le modèle évoqué par Augustin de Romanet, DG de la Caisse des dépôts, pourrait passer par un opérateur mutualisé, regroupant les opérateurs privés, les collectivités locales et la CDC.

Tous les participants semblaient partager un bel enthousiasme face à la grandeur et l’ampleur de la tâche : affronter un défi dix fois plus complexe que l’ADSL afin d’amener la fibre au pied des clochers et d’éviter à tout prix que la fracture numérique isole le quart de nos concitoyens qui vivent en zone rurale.
Tous, sauf un, Yves Gassot, DG de l’IDATE, qui a affirmé que la stratégie raisonnable serait de fixer pour 2015 le déploiement du très haut débit dans les agglomérations et la généralisation de l’ADSL ailleurs. Comprenant que si peu d’ambition menaçait de gâcher l’événement, il n’a pas osé trop insister.
A titre personnel, si j’avais à poursuivre la conversation, c’est lui que j’irais voir ; manifestement il sait pourquoi et comment les autres risquent fort d’échouer. Je reviendrai plus loin sur les désastres que peut générer une volonté politique de généralisation trop hâtive d’une technologie.

La seconde table ronde sur les logiciels et services, animée par Hervé Novelli, secrétaire d’état au commerce, artisanat et PME, était très hétérogène et, a fortiori raccourcie en raison d’un petit désordre d’organisation : il n’était pas prévu d’intervention de Michel Rocard, mais, de crainte que la presse puisse supposer qu’il était mis à l’écart, il a pris la parole entre les deux tables rondes… disant lui-même avec humour qu’il aurait aimé « mettre fin au fantasme politique qui veut qu’un homme politique soit destiné à parler, qu’il connaisse le sujet ou non ».

Premier orateur, Marc Simoncini, PDG de Meetic, a décrit, en se comparant à son homologue étasunien combien le biotope européen est difficile. Pour toucher un volume de prospects donné, là où l’américain déploie un site, dans un pays, dans une langue, tout en étant proche des acteurs qui portent l’innovation technique, y compris la main d’œuvre universitaire, Meetic a dû déployer 16 sites dans 13 langues et peine à trouver des compétences techniques.
L’image de Marc Simoncini est de dire qu’il coure un 110 mètre haies alors que les concurrents US courent à plat. Malheureusement, s’il a fort bien décrit l’espace du problème, il a échoué à donner des directions plausibles pour trouver des solutions. Sa conclusion étant que l’avantage de la société européenne c’est que, si elle réussit malgré la difficulté, il sera difficile pour une société américaine de venir la concurrencer sur un marché si complexe.

Il me semble que la comparaison avec un sprint (qui se ferait avec ou sans obstacles) n’est pas pertinente, précisément parce qu’elle permet difficilement d’esquisser un espace de la solution. Un modèle inspiré du biotope naturel me parait beaucoup plus adapté : les États-Unis offrent des grandes plaines fertiles et irriguées là où l’Europe présente aux offreurs de services un environnement aride et constitué de climats hétérogènes. Là où le modèle américain est basé sur le dynamisme des grands territoires, le bouillonnement des idées et le réensemencement permanent (celui qui tombe repoussera plus haut), le modèle européen adopte une stratégie de plante de rocaille où la rareté des ressources rend d’autant plus périlleuse chaque strate de croissance que chacun sait que celui qui tombe restera à terre pour longtemps. Marc Simoncini a raison de dire que si une plante de rocailles a pu s’accrocher, puis s’étendre au-delà de son environnement initial, elle sera difficilement concurrencée par les céréales américaines… mais c’est probablement signe que cette plante est exceptionnelle (bravo Marc) et qu’en application du « principe du survivant », il sera bien difficile de l’utiliser comme modèle de conduite générale.

Trouver des solutions un tant soit peu généralisable est complexe, je n’ai pas de solution miracles, mais au moins quelques pistes sur ce qu’il faudrait faire, et sur ce qu’il faut surtout éviter.

Le modèle qui mène à l’échec certain est celui du Dossier Médical Personnel (DMP). Grand projet emblématique et valorisant (réduire le déficit de la sécurité sociale en économisant des milliards d’euros tout en sauvant des centaines de millier de vies), la généralisation du DMP a été annoncée à court terme, et même inscrite dans la loi. La conjonction d’un délai intenable et d’une volumétrie massive a tué toutes les entreprises qui avaient une vision suffisante du domaine pour tenter d’y innover et a circonscrit le débat entre une administration bien incapable d’inventer le bouquet de services Web 2.0 nécessaire et les grosses SSII qui attendaient qu’on leur fournisse un cahier des charges. Le DMP n’existera pas tant qu’il conservera ses caractéristiques létales d’enfermement technocratique. Ce travers semble également connu aux Etats-Unis, puisque Price B. Floyd (Principal Deputy Assistant Secretary of Defense for Public Affairs) vient d’affirmer au Gov 2.0 Summit : "It would have taken the government till 2025 to build twitter. It would take years just to do the RFPs."

A l’opposé, le concept de « gouvernement invisible » est très séduisant : l’état pourrait financer des composants de facilitation (sorte de système d’exploitation sur lequel se lancent les applications logicielles) et fournir ainsi aux entrepreneurs un substrat favorable. Il serait très utile, par exemple, de disposer d’outils de localisation afin de produire aisément des services multilingues. On peut également imaginer l’investissement stratégique dans des composants de gestion des connaissances susceptibles de donner aux services européens une génération d’avance.

Il existe probablement beaucoup d’autres pistes à explorer mais les solutions seront toutes subtiles et nécessiteront une authentique vision de l’avenir du domaine… et c’est bien ce qui explique, au sein de ce séminaire, que les propositions en terme de logiciels et services aient été si faibles face à une table ronde « infrastructure et réseaux » dont les membres font des propositions simples à comprendre, puisque 70% de l’effort est constitué de travaux de BTP.

Le danger est bien grand que nos autoroutes de l’information flambant neuves soient principalement empruntées par les services américains et que la Belle époque convoitée ne reste qu’un rêve lointain. Après tout, les américains affichent ouvertement leur volonté de créer un monde 2.0 ("How Twitter will change the way we live" annonçait la revue Time en juin) et la question principale est peut-être de savoir si la France, qui a eu cette prétention pendant des siècles, reste capable d’ambition.

Pour revenir au sujet du séminaire, il resterait beaucoup de travail avant d’espérer dégager des propositions suffisamment concrètes pour être candidates au Grand emprunt ; le séminaire aura au moins eu le mérite de permettre d’en faire le constat.

Récursivité de l’échec technocratique

Sunday, August 23rd, 2009

L’Ena et l’énarchie constituaient le sujet de l’émission L’esprit public d’aujourd’hui sur France Culture. Les technocrates de tout poils n’y étaient pas particulièrement à la fête ! J’ai sélectionné deux interventions successives de Philippe Meyer et de Max Gallo qui mettent superbement en perspective le caractère systémique de l’échec d’un certain type de projets lorsqu’ils sont menés par les technocrates et les politiques.

Si la critique secondaire porte sur la servilité du technocrate vis-à-vis du politique, la critique principale porte sur l’incapacité d’analyse diachronique des dossiers et la restriction de la vision à une gestion des problèmes de l’instant.

Ceux qui connaissent mon credo et mes technologies distingueront sans peine dans ces critiques la cause « récursive » de l’échec du DMP :

  • Non seulement le DMP est un dossier pour lequel chaque nouvelle équipe technocratique a fait le procès de la précédente pour justifier d’une totale remise à plat de la stratégie… c’est un système qui semble s’orienter au hasard à chaque changement de Direction et de concentrer à chaque fois sur la seule obtention des pleins pouvoirs pour foncer tout droit avec la plus grande efficacité.
  • Cette cécité historique empêche chaque nouvelle équipe de déceler l’analyse profonde du problème qui réside précisément dans l’incapacité à inventer les nécessaires technologies de la continuité des soins (une approche diachronique centrée sur l’individu) en se focalisant sur la coordination des soins (les outils efficaces pour les acteurs du moment confrontée à un problème donné).

Pour que le DMP des Shadoks réussisse, il faudrait non seulement que ces derniers adoptent un nouveau paradigme, mais qu’ils comprennent que leur projet est au service d’un changement de paradigme du même ordre en santé… autant dire que nous sommes condamnés à les regarder pomper dans le vide pendant une durée indéterminée…

Visions de l’après-crise

Saturday, August 1st, 2009

Partant manifestement du principe que le calme estival est propice à la réflexion, le quotidien La Tribune donne chaque jour la parole à des acteurs, des observateurs et des penseurs de notre société sur le thème « Visions de l’après-crise ».

Cette série est remarquable à deux titres : d’abord, même si chaque chroniques est courte (environ mille mots), elles proposent toutes une profondeur de réflexion qui pourrait en faire une amorce de programme, ensuite, même si certains angles de vue peuvent être dérangeants, leur ensemble fournit un panorama réellement édifiant.

Signe que le moment est critique, les philosophes ont la part belle.

Pourtant, lorsqu’on demande à Marcel Gauchet si ce n’est pas aux philosophes de faire émerger de nouveaux modèles, il répond sans ambiguïté que « Les choses ne se passent pas de cette façon. L’invention de nouvelles façons de penser est un processus collectif beaucoup plus complexe. Les philosophes viennent après, éventuellement pour amplifier le mouvement. Ce n’est pas Marx qui a inventé le socialisme, même s’il a beaucoup fait pour lui. “La chouette de Minerve ne s’envole qu’à la nuit tombée”, comme disait Hegel, qui savait de quoi il parlait. »

Il n’empêche que les philosophes sont probablement ceux qui apportent le plus au débat. Grâce au recul conféré par leur statut, ils peuvent se dispenser des analyses et des propositions liées à la « mécanique » de la crise. En l’occurrence, les philosophes interrogés par La Tribune se place suffisamment « en dehors de la boite » pour voir la crise comme une singularité dans un mouvement global.

Jean-Pierre Dupuy (dont j’ai cité le concept de « Catastrophisme éclairé » dans mes prévisions pour 2009) ne voit dans la crise que le symptôme d’un mal systémique : « Bien avant que cette crise n’éclate, nous savions que le mode de vie des sociétés dites développées n’était pas généralisable à toute la planète ni susceptible de se perpétuer indéfiniment. Viendrait donc un moment où la conscience de cette double impossibilité serait telle que la complexe et fragile logique des anticipations, qui soutient la croissance du capitalisme, se déréglerait et même s’effondrerait brutalement. ». Il nous dépeint une société où Ponzi est roi : « De même que la pyramide de Madoff n’est stable que si l’on croit qu’elle va s’évaser à perpétuité, de même que le mécanisme des subprimes implique que l’on se persuade que la valeur des biens immobiliers continuera toujours de grimper, et que tout se casse la figure au moment où l’on comprend qu’il n’en est rien, le capitalisme s’effondrera lorsqu’on cessera de croire à son immortalité. Nous en sommes encore loin. »

Cette vision d’une société aveugle qui, comme un personnage de Tex Avery, coure dans le vide sans s’en rendre compte est partagé par Raphaël Enthoven : « Je vois [] "une foule innombrable d’hommes semblables et égaux qui tournent sans repos sur eux-mêmes pour se procurer de petits et vulgaires plaisirs, dont ils emplissent leur âme. Chacun d’eux, retiré à l’écart, est comme étranger à la destinée de tous les autres : ses enfants et ses amis particuliers forment pour lui toute l’espèce humaine ; quant au demeurant de ses concitoyens, il est à côté d’eux, mais il ne les voit pas ; il les touche et ne les sent point ; il n’existe qu’en lui-même et pour lui seul… " Le fait que Toqueville, qui a écrit cela entre 1835 et 1840, ait toujours raison prouve que notre époque n’a rien de singulier. »

Nos sociétés seraient donc par essence « mal nées », ou plus probablement atteintes d’un mal insidieux : une vision profondément faussée du concept de « modernité ». C’est ce qu’explique clairement Pierre-Henri Tavoillot « La première modernité s’était construite autour du projet qu’il fallait rompre avec la tradition pour produire un monde meilleur. Son équation était : plus de raison et de science = plus de liberté = plus de bonheur pour l’humanité. Le spectacle des tragédies du XXe siècle l’a rendue douteuse: la raison ne rend pas forcément plus libre ; et la liberté produit autant de fragilités que de bonheur. C’est ce que la crise vient confirmer : elle est l’œuvre d’une rationalité instrumentale (l’hyperconsommation et la finance), non maîtrisée, qui se préoccupe exclusivement des moyens (comment gagner plus ?) sans considération des fins (pour quoi faire ?). »
Ceux qui connaissent Jean-Pierre Dupuy ne seront pas étonnés de le voir grandement limiter la place réservée aux sciences dans l’espace des solutions : « L’optimisme béat consiste à ne pas se préoccuper de ces questions [la crise écologique] car, pense-t-on, la science et la technique nous sortiront d’affaire comme elles l’ont toujours fait dans le passé. Recevant la médaille d’or 2009 du CNRS, le physicien Serge Haroche affirmait que “c’est la science qui permettra de résoudre tous les problèmes qui nous seront posés à l’avenir, qu’ils soient politiques ou sociaux”. Ce scientisme est irresponsable. La science et la technique seront utiles certes, mais à condition qu’elles ne se substituent pas à une révolution dans la manière dont les hommes vivent ensemble. »

C’est donc bien « la manière dont les hommes vivent ensemble » qui pose problème, et tous les philosophes convergent sur ce point.

Une crise si profondément ancrée dans le destin tragique de l’humanité devrait mener au désespoir le plus profond ; pourtant la plupart des personnalités interrogées finissent sur une note optimiste ; Bernard Spitz nous en livre la clé : « Crise vient du grec Krisis qui signifie “l’instant de la décision”. La crise est peut-être une immense chance de réaliser les réformes que nous n’avons pas su faire dans la société d’abondance, comme après la Seconde Guerre Mondiale, nous avions réformé l’ensemble du système international. L’instant de la décision est venu… »

L’instant de quelle décision ?

Marcel Gauchet donne une piste intéressante : « Les destins se forgent toujours en fonction de deux pôles : d’un côté, l’héritage, ce que l’on est par l’histoire et qui détermine notre identité. De l’autre, la capacité de se donner un but plausible, susceptible de créer une mobilisation collective. C’est bien ce que tente de faire Barack Obama en Amérique. »

Bernard Stiegler propose même des pistes : « Selon moi, ce qui est en train de disparaître, c’est un monde où il existe d’un côté des producteurs et de l’autre, des consommateurs. D’autres modèles commencent à se développer avec la révolution numérique. Sur Internet, il n’y a ni des producteurs ni des consommateurs mais des contributeurs. On entre dans la nouvelle logique de l’économie contributive, qui repose sur des investissements personnels et collectifs et qui crée une autre forme de valeur. Les exemples ne manquent pas, du logiciel libre à Wikipédia. Une récente étude de l’Union européenne pronostique que près d’un tiers de l’activité dans l’économie numérique fonctionnera sur un tel modèle d’ici trois ans. Mais il ne concerne pas uniquement l’informatique, il peut également se décliner dans l’énergie, avec les modèles décentralisés, la distribution alimentaire ou la mode… »

S’il fallait exhiber un concept unique pour résumer l’ensemble des propositions des intervenants, je laisserais probablement Pierre-Henri Tavoillot mettre en avant sa notion de « développement durable de la personne » qu’il définit comme « une sorte de motion de synthèse entre le développement économique, le développement humain (promu par Amartya Sen) et le développement durable. Elle insiste sur le fait que le développement concerne d’abord un individu, qui vit plus longtemps, bénéficie d’une éducation plus longue et cherche à léguer à ses enfants un monde vivable, sans trop de conflits ni de dévastations. Cette aspiration est un formidable contrepoids à l’hypercapitalisme, pourvu qu’on sache le traduire en action politique ! »

« Action politique » ; le grand mot est lâché et il est présent, d’une manière ou d’une autre, dans chacune des « visions de l’après-crise » réunies par La Tribune.

Denis Kessler est peut-être utopique en évoquant une politique totalement réinventée autour du constat que « les "villes monde" telles que les avaient conçues Fernand Braudel » n’ont plus cours car « le monde est devenu une ville » : « Les marchés nous disent ce que le politique n’a pas toujours totalement compris : le monde sera sans cesse davantage dématérialisé, car toutes les frontières traditionnelles disparaissent, emportées par les vagues économiques. Voilà pourquoi les crises ne s’arrêtent plus aux frontières. Or nos institutions sont encore très souvent nationales ! Pour penser globalement, il faut que chacun soit prêt à définir des nouvelles règles et des nouveaux modes de fonctionnement à l’échelle mondiale, quitte à abandonner une partie de sa souveraineté sur des domaines clé : les impôts, l’éducation, le domaine militaire, policier, sanitaire, financier, et prudentiel, en acceptant de se soumettre aux nouvelles règles communes. »

Plus pragmatique, Marcel Gauchet prédit qu’« il est probable que la sortie de crise se traduira par un redoublement de la compétition entre des pays qui auront renforcé leur cohérence dans l’épreuve. »

Pour dire vrai, les visions sont généralement pessimistes en ce qui concerne notre vieille Europe ; Bernard Stiegler fustige le manque de vision politique : « à l’heure où tout s’écroule, tout est fait pour empêcher le vieux monde et des vieux acteurs de disparaître. Toute la classe politique défend la consommation même si elle sait bien que cela ne peut pas durer. On essaye de sauver la télévision, qui n’a pas vu venir le numérique, ou les constructeurs automobiles, qui misaient hier encore sur la surpuissance de leurs moteurs ! »

Manifestement, il émerge que les Aymaras qui nous gouvernent risquent fort de ne pas être à la hauteur des défis. Isaac Johsua s’en lamente « De façon assez incroyable, malgré l’ampleur de la crise, la pensée unique occupe toujours l’espace. […] L’enjeu est de taille, nous ne devons pas jouer petit, mais ouvrir toutes grandes les portes de la pensée. »

D’une semaine de vacances à Lausanne, je retirerai que, hormis le plaisir de se baigner dans le lac, la beauté des vignes du Lavaud, l’impressionnante machine à vent que constitue le nouvel Alinghi et l’appétence des Suisses pour le bruit des gros moteurs les jours ordinaires et celui des pétards le jour de la fête nationale, la crise y pose des problèmes inconnus ailleurs : un des articles du magazine Bilan (l’équivalent local de l’Expansion) de cet été est titré « Une vague de riches britanniques va déferler sur la Suisse ».
On y apprend que les HNWI (les high net worth individuals… désignant, dans le jargon de la banque privée, les personnes qui détiennent plus de 1 million de dollars) vont arriver en masse en 2010, en conséquence de la très conséquente augmentation du taux d’imposition au Royaume-Unis. « Tous les hauts revenus sont concernés, des industriels aux célébrités. En outre, les résidents étrangers non domiciliés dans le pays – les « non dom » – voient fondre leurs avantages. Autant de candidats à l’exil en Suisse, où nombre d’entre eux peuvent bénéficier d’une taxation d’après la dépense, le fameux forfait fiscal. »
Cet afflux risque fort de compliquer la rentrée scolaire, d’autant plus que Bilan prévoit que « les riches britanniques sont loin d’être les seuls à lorgner vers la Suisse. Dans le sillage des efforts de l’Union Européenne pour renflouer ses caisses, la pression monte contre l’évasion fiscale, tandis que s’annonce des hausses d’impôts. ». Alexandre Zeller, CEO de HSBC Private Bank Suisse a, d’après le magazine, affirmé dans la presse qu’il s’attend à un afflux de nantis étrangers sur le sol helvétique : « Les nouveaux arrivants veulent simplement se rapprocher de leur fortune. La clientèle détenant des avoirs non déclarés dans nos banques peut facilement se mettre en règle avec le fisc en se domiciliant en Suisse. »

C’est peut être, après tout, la vision la plus claire et la plus optimiste qu’il soit possible d’avoir de l’après crise : les nantis se seront à la fois rapprochés de leur fortune et mis en règle avec le fisc… en devenant Suisses !

Echouer… ou regarder les autres

Tuesday, January 27th, 2009

Dans un récent billet, Bob Sutton avoue son obsession à propos de l’échec et lance à ce sujet un débat opposant Eleanor Roosevelt et Randy Komisar.

Eleanor Roosevelt a affirmé avec humour : “Learn from the mistakes of others. You can’t live long enough to make them all yourself.” (Apprenez des erreurs des autres. Vous ne vivrez jamais assez longtemps pour les commettre toutes vous même). Randy Komisar, un guru américain de l’entrepreneuriat, affirme de son côté que “yes, you can learn from others, but the only way to really, really get your money’s worth, is to do it yourself because nothing else creates that hollow feeling in your stomach.” (oui, vous pouvez apprendre des autres, mais le seul moyen de vraiment, vraiment en avoir pour votre argent, c’est de faire vous même car rien d’autre ne crée cette sensation particulière dans votre ventre).

Faut-il apprendre en regardant les autres descendre en flamme ou en se brûlant soi-même les ailes ? Le débat trouve une résonance particulière dans le Système d’erreurs qu’est devenu en France la gestion des informations de santé.

Je me souviens d’échanges sur la liste Fulmedico où je démontrais qu’il ne fallait pas participer aux expérimentations du DMP car elles étaient construites pour échouer. L’approche Eléonorienne !

Probablement inspirés par Komisar, les médecins ont participé malgré tout, avec pour conséquence que les plus éclairés d’entre eux ont fait échouer l’expérimentation menée dans la Loire. Avec le recul, il est remarquable que, de l’ensemble de ces expérimentations pitoyables, seule celle où des expérimentateurs ont mis en évidence une faille de sécurité majeure soit considérée comme un échec.

En réalité, les médecins n’ont pas été partie prenante d’un échec… ils ont empêché qu’un système non fonctionnel reçoive le label positif que le système espérait pouvoir lui décerner. Au lieu d’éclairer la controverse entre Eléonor et Komisar, ils ont ainsi ouvert une troisième voie, qui risque de devenir un “sport national” : la meilleure façon d’apprendre, c’est d’aller faire échouer les constructions technocratiques.

Episodus en Open source

Wednesday, September 24th, 2008

C’est un projet qui me tenait à cœur depuis longtemps… je profite, en ce 24 septembre, des bons auspices cumulés de l’anniversaire de mon compère Jean-François Brûlet et de la journée Paris, Capitale du Libre.

Plus sérieusement, ce travail de longue haleine est justifié par la stabilisation de ma situation personnelle, en grande partie grâce au dynamisme du Club Nautilus, qui a été créé par les utilisateurs des modules de comptes rendus d’endoscopie digestive et d’échocardiographie, et par l’avancement des projets internationaux, au Brésil par exemple.

L’open source est indéniablement un moyen de garantir les investissements de ceux qui me font confiance, c’est aussi, et surtout, une façon de mettre « sur la table » les technologies de continuité des soins qui doivent accompagner l’évolution de la médecine.

Il ne faut pas se leurrer, les technologies anciennes, adaptées à une vision ponctuelle du patient, ne ressentiront pas avant longtemps les secousses de la mise à disposition de la communauté des technologies de gestion de la connaissance et de suivi au long cours : les logiciels d’aujourd’hui suffisent à outiller et maintenir des pratiques anciennes… faire naître une démarche plus moderne se heurte au problème de la poule et de l’œuf : comment valoriser des outils qui obligent à « voir autrement » avant que leurs utilisateurs soient en mesure de réaliser qu’ils permettent de « voir mieux ».

J’ai dépensé une énergie considérable à créer des technologies puis à les « apprivoiser » au sein d’un logiciel réellement utilisé par des médecins… il est temps de les banaliser, d’en faire la norme, de faire passer l’informatique médicale du temps de la photographie, du bilan instantané, à l’ère du film, de la vision continue.

Si, dans les mois ou les années qui viennent, il devient courant et naturel de « raconter l’histoire de santé d’un individu » et d’y prendre sa juste place en contribuant à un projet de santé en collaboration avec les autres membres d’une équipe, ce sera signe que cette « annonce du 24 septembre » aura porté ses fruits !

Dans les jours qui viennent, je choisirai une « forge » ou déposer les sources et mettre en place étape par étape les composants de travail collaboratif…

Leçon afghanes

Wednesday, August 20th, 2008

La mort de dix militaires français nous frappe d’autant plus que, fort heureusement, c’est encore, pour nous, un événement exceptionnel.

Le blog Secret Défense donne des éclaircissements édifiants sur les circonstances du drame.

  1. Les talibans ont eu l’initiative. La colonne française a été prise par surprise. Les talibans, même s’ils ont perdu des hommes au cours de l’action, avaient décidé où, quand et comment agir. Les Français n’ont pu que réagir. A la guerre, avoir l’initiative est en général plutôt bon signe.
  2. La colonne française a été attaquée dans un col. Elle n’avait, au sens propre, pas la capacité de voir au delà de la colline. Des moyens aériens, drones ou hélicoptères, auraient pu précéder la colonne et reconnaitre les lieux. La France n’a pas de drones en Afghanistan, et elle ne possède que deux très précieux hélicoptères Caracal, qui ont utilisés plus tard pour l’évacuation sanitaire.
  3. A l’approche du col, les paras ont débarqués des VAB qui leur assuraient un minimum de protection. C’est à pied qu’ils sont allés reconnaître les lieux et qu’ils ont été pris sous le feu de l’ennemi. Les habitudes et règlements de l’infanterie (légère) ont été respectés. Faute de moyens aériens, n’était-il pas possible d’envoyer un véhicule blindé reconnaître l’itinéraire ?

Par une étrange et cruelle coïncidence, ces circonstances font écho à de récentes discussions de vacances avec un ami de voile de longue date, qui travaille depuis plusieurs années à la conception de drones au sein d’une grande entreprise française. Il me disait que les Canadiens sont devenus clients de son entreprise car, extrêmement concernés par la vie de leurs soldats, ils refusent d’intervenir militairement sans recueil d’informations préalable.

Le drame récent démontre que la France n’a pas ces scrupules.

Pire, lors d’une intervention à la radio, l’auteur du blog Secret Défense expliquait que les militaires français achètent de leurs deniers une partie de leur matériel – par exemple des duvets pour avoir chaud la nuit ou des chaussures de qualité pour pallier l’obsolescence des traditionnelles Rangers.

Le drame afghan démontre malheureusement que les errances du DMP semblent généralisées au sein de l’administration :

  1. un total manque de vision (qui donc sait ce qu’on va faire dans cette galère ? qui peut encore croire aux arguments infantilisants qui nous sont servis ?)
  2. un manque de moyens qui rend bien pitoyable la fanfaronnade politique (et sa technique récente de story telling)
  3. une stratégie inadaptée aux enjeux modernes (… en retard d’une guerre)
  4. une profond dédain pour les acteurs de terrain (la piétaille).

Est-ce exagéré de comparer un conflit militaire et le monde de la santé ? Y-a-t-il un rapport entre le combat par les armes pour la sécurité et la lutte individuelle pour conserver ou restaurer la « paix des organes » ?
Je le crois, et je suis persuadé que ce sont deux domaines dont les ressorts récents peuvent être compris en utilisant un modèle commun de « société » d’hommes ou de cellules confrontées à des menaces internes ou externes, et des moyens technologiques de recueil d’information et d’action plus ou moins ciblées, plus ou moins pertinentes.

Le bilan terrifiant, c’est que la France démontre dans les deux domaines qu’elle est plus proche de l’ex-URSS que d’un pays moderne…


css.php