Blog Odyssée » 2007 » March

Archive for March, 2007

Exemplaire DMP

Wednesday, March 28th, 2007

Le quotidien La Tribune vient de publier une série d’article sous la bannière Le meilleur de la stratégie et du management. Ce dossier est issu de la collaboration entre les chercheurs du CRG, pôle de recherche en économie et gestion de l’École polytechnique et du CNRS, et les consultants de la société Bearing Point.

Dans son texte intitulé “Le pilotage des projets publics confiés à l’industrie”, Robert Picard, du CRG, écrit :

«Dans les projets qui font une part significative à des technologies nouvelles, non complètement maîtrisées, ou qui visent des services nouveaux dont l’acceptation par les utilisateurs ne peut être connue à l’avance, les sciences de gestion nous enseignent que la ” coproduction ” de la solution par le mandataire et le mandant constitue la meilleure façon de garder l’opération sous contrôle. Des allers retours constants sont nécessaires entre la vision initiale et l’expérience apportées par des essais pratiques, partiels et progressifs.

Les praticiens du PPP (partenariat public privé) soulignent que ce type de contrat exige un professionnalisme accru en gestion de projet, montage financier, évaluation du risque. Le dialogue compétitif, souvent trop long, vise à réduire la dissymétrie informationnelle entre mandataire et mandant. Mais c’est l’expérience qui engage la coproduction de la solution future. Or le financement de telles expérimentations, en particulier lorsqu’elles mobilisent plusieurs acteurs en parallèle, reste problématique, comme l’a montré le cas du dossier médical personnel informatisé (DMP)»

Le DMP est donc cité par les chercheurs du pôle de recherche en économie et gestion de l’École polytechnique comme exemple d’expérimentation problématique.
Pourtant, au même moment, à un journaliste qui lui demandait « Comment expliquez vous les difficultés à mettre en oeuvre le DMP qui ne sera pas opérationnel au 1er Juillet 2007, comme le prévoyait la loi ? », le Ministre de la santé répondait :

«Les premières étapes ont été accomplies. Sur le projet le plus important des trente dernières années en matière d’informatisation du système de santé, je préfère que l’on se donne quelques mois de plus pour avoir toutes les garanties techniques, juridiques et pour que la confiance soit au rendez-vous. La Cnil a demandé davantage de détails que prévu mais je préfère répondre à toutes ses questions. Il y a eu des remarques des médecins et des associations de patients. Je préfère les intégrer pour que le DMP voie le jour demain et puisse assurer ses premiers pas. Là où il est appliqué, le DMP est un succès. Nous allons donc prolonger les expérimentations. Les budgets nécessaires vont être attribués.»

Symbole d’échec ici, affirmation de réussite tranquille là… qu’est ce qui explique un tel écart d’appréciation ?
Il serait tentant de répondre qu’un Ministre qui est sur le point de renoncer à son maroquin pour se consacrer entièrement à la fonction de porte parole du candidat le mieux placé dans la course présidentielle a tout intérêt à repousser l’heure du bilan à un futur indéterminé tout en fredonnant l’air du « tout va très bien, Madame la Marquise ». Il serait donc de bonne guerre d’attribuer l’épaisse fumée à un mauvais réglage temporaire de la cheminée du château.

Malheureusement, je pense que l’hypothèse la plus probable est bien pire : le Ministre est de bonne foi ; il ne mesure simplement pas l’écart considérable entre ce qui est mis en œuvre par ses services et ce qu’il serait nécessaire de réaliser pour influer positivement sur la santé des Français… et sur la compétitivité des entreprises.

Cette différence s’exprime assez simplement : les plans du Ministre concernent un système fermé (un système d’information hospitalier à l’échelle du pays) alors que la seule solution viable réside dans la mise en place d’un espace de services ouvert. Fermé c’est simple au point de s’inscrire presque entièrement dans quelques décrets ; ouvert c’est complexe car il faut satisfaire une demande fantastiquement hétérogène.

Mais justement, cette variété de la demande, que devrait satisfaire un système ouvert, ne condamne-t-elle pas un système fermé à ne jamais sortir du cadre expérimental ? C’est probablement l’une des questions qui préoccupera la Service Research and Innovation Initiative, une entité créée aux Etats-Unis par de grandes enterprises et des universitiés de renom pour étudier formellement la “science des services”.

C’est une preuve supplémentaire que les espaces de service vont faire l’objet d’investissements considérables outre-atlantique et que le DMP n’est pas seulement un échec du partenariat public privé, comme le souligne le CRG, mais bien une historique occasion manquée dans la mise en place d’un environnement réellement moderne.

Mais peut-être faut il se résigner à laisser ce rôle à d’autres ; comme l’a récemment écrit mon ami Denny sur son blog :

«In a land where there are 400 different words for cheese but none for customer satisfaction it is not surprising that French customer service has the reputation of being the worst in this quadrant of the galaxy.»

Si nous ne voulons pas nous résigner au secteur des fromages, il va falloir voter pour un candidat qui porte haut les concepts d’innovation et de soutien aux entrepreneurs. Malheureusement celui qui brandit ce drapeau plus haut que les autres a précisément pour porte parole l’homme qui a fait du DMP cet exemple de la vanité technocratique.

Ce sera donc les fromages !

Webmergence

Sunday, March 18th, 2007

Robert Laughlin won the 1998 Nobel Prize in physics. Hence when this major player in the scientific community published a book entitled A Different Universe: Reinventing Physics from the Bottom Down in 2005, it was immediately a big thing. In this book, Robert Laughlin argues that the most fundamental laws of nature are “emergent”: it means that they result from the global behavior of large agglomerations of matter, without to owe anything to the laws that apply to any individual component. For example, the laws that control the behavior of a sand hill are not predictable from any materials science principle applied to a lone sand grain. In the same way, the behavior of an avalanche – where the surface snow flows as if it was a liquid above the lower snow layer – cannot be understood through the modeling of individual snow grains; this behavior “emerges” from complex interactions between the moving layer and the support layer.

When I heard about Robert Laughlin’s emergence theory, I immediately remembered that in 2001, when making the first demonstrations of the Ligne de vie, I was used to saying that while putting at work public information systems in the medical domain, we would have to take into account that such a wide scale network would eventually reach the complexity level where “the whole is more than the sum of its parts”. And the example that I usually gave was precisely the sand hill.
This “Proust madeleine cake”, added to the consciousness that, from this time on, the web has constantly been evolving toward more and more interaction between its members (a thread that is even reinforced by the web 2.0 wave), immediately made me ask myself if it would be consistent to apply the emergence theory to the laws that rule the mass-behavior on the Internet.

I guess that it is probably true, and, what is more, it is possible to give an example that is really characteristic of this uncoupling between a mass law and the behavior of individuals: the “Long Tail” phenomenon.

The phrase The Long Tail was first coined by Chris Anderson in an October 2004 Wired Magazine article. It describes the aspect of sales graphs observed when selling goods on the Internet. Instead of the usual half-bell curve that we can observe for traditional stores, because best sellers account for a massive part in it, this graph exhibits a very wide distribution, where seldom sold products represents a larger surface than success stories. As it was described by an Amazon employee, “We sold more books today that didn’t sell at all yesterday than we sold today of all the books that did sell yesterday.”
It could be sensible to explain the Long Tail by the simple evidence that traditional stores’ shelves have a fixed length and storekeepers must give the priority to fast selling products. On the contrary, “e-shelves” have a virtually unlimited size. But shelves length is not enough, because anyway best sellers are always on the first pages of any web site while unknown titles are relegated in the back-store.

The real explanation of the Long Tail must be found in internauts interaction. In order to lead to a compulsory additional buying, when you want to buy something on Amazon and many other web sites, you are displayed with the products that were also selected by other internauts that already bought the same thing. It is highly efficient because if I like a book and I am warmly advised to read another, totally unknown, book by those who also liked the former one, then I will probably be teased enough to buy it, even if I have never heard of it before.

Amazon didn’t create this “other readers advices” functionality in order to build a Long Tail Effect, they just wanted to have their web site become more user friendly and create compulsory purchases. In the same way, Internauts didn’t really look for unknown works (who can already read all the best sellers? which works, besides, have been tailored in order to please the mass). The Long Tail “emerged” from the multiplicity of interactions among the web community. It is a typical example of what we could call “webmergence”.

Of course, a theory can never be built from a single example (or even 1000 examples), but there is undoubtedly something to be dug there, and we can already foresee the possible consequences of webmergence.

Webmergence stipulates that the laws that will rule mass behaviors on the Internet can be guessed neither from individual behavior nor from technical tricks. On the contrary, when a mechanism will instigate the interaction of a sufficient number of people, we can expect to see unexpected meta-behavior emerge: the laws of Internet’s physics.

In the medical domain, for example, we can deduce from this that it is actually useless to build from scratch a huge information system in order to avoid iatrogenic injuries or medical acts redundancy. On the contrary, what should be done is to ease the creation of a bunch of systems that both can be widely distributed and allow a sufficient interaction between their users; then help those whose emerged global behaviors are in the expected direction.

Robert Laughlin’s theory declares as obsolete the constructivist approach inherited from the industrial revolution. Webmergence could set the limits of a similar utopia in the far more modern world of information systems.

webmergence

Sunday, March 11th, 2007

Robert Laughlin a obtenu le Prix Nobel de physique en 1998. C’est donc un des acteurs majeurs de la communauté scientifique et, lorsqu’il a écrit, en 2005, « Un Univers différent », ce livre n’est donc pas passé inaperçu et a même lancé un débat fondamental. Robert Laughlin y soutient que toutes les lois de la nature sont « émergentes », c’est-à-dire qu’elles résultent d’un comportement d’ensemble, sans presque rien devoir à celles qui régissent chaque composant individuel. Par exemple, les lois qui régissent le comportement d’une dune de sable ne sont pas prédictibles à partir des règles de la mécanique appliquées à un grain de sable isolé, mais émergent des interactions entre un très grand nombre de grains. De la même façon, les lois qui régissent une avalanche – où la neige de surface « coule » comme si elle était liquide au dessus de la strate neigeuse sous-jacente – n’est pas compréhensible si on modélise isolément chaque grain ; ce comportement « émerge » d’interactions complexes entre la couche mobile et la couche de support.

En prenant connaissance de la théorie de Rober Laughlin, je me suis souvenu qu’en 2001, lors des premières présentations de la Ligne de vie, j’avais coutume d’expliquer qu’en mettant en œuvre des systèmes d’information collectifs en santé, il faudrait tenir compte du fait qu’un réseau de cette échelle atteindrait immanquablement un niveau de complexité où « le tout est plus que la somme des parties » et l’exemple que je donnais alors était précisément celui de la dune de sable.
Cette « madeleine de Proust », couplée à la conscience que, depuis cette époque, le web a sans cesse évolué vers une plus grande interaction entre internautes (tendance qui ne fait que s’accentuer depuis la vague Web 2.0), m’a immédiatement fait me demander s’il n’était pas pertinent d’appliquer la théorie de l’émergence aux lois qui régissent les macro-comportements sur l’Internet.

A la réflexion, c’est très probablement le cas, et il existe même un exemple qui me semble typique de ce découplage entre une loi de masse et un comportement individuel : le phénomène de la « longue traîne ».

Popularisé par Chris Anderson dans un article de 2004 de Wired Magazine, sous le nom de « Long Tail », ce concept décrit la forme que prend la courbe des ventes de produits sur l’Internet. Au lieu de la courbe en demi-cloche du commerce traditionnel, où les « produits leaders » représentent l’essentiel des ventes, cette courbe montre une distribution très large, où le volume de l’ensemble des produits rarement vendus est aussi conséquent que celui des produits à succès. Comme l’a résumé un employé d’Amazon : « Aujourd’hui, on vend plus de livre qui ne se vendaient pas du tout hier qu’on ne vend de livres qui se vendaient hier ».
Mécaniquement, la Longue traîne pourrait s’expliquer par le fait que les étagères du monde réel ont une taille fixe, ce qui oblige les commerçant à ne s’approvisionner qu’en produits à rotation rapide, alors que les « e-étagères » ont une taille virtuellement sans limite. Mais c’est loin d’être suffisant car les « best sellers » sont toujours en page d’accueil du site, reléguant les titres peu connus dans l’arrière-boutique.
La véritable explication de la Longue traîne, réside dans l’interaction entre internautes ; car – pour déclencher une impulsion d’achat supplémentaire, les sites comme Amazon vous signalent à chaque achat quels autres produits ont été achetés par les internautes qui ont aimé celui que vous achetez. C’est un mécanisme redoutablement efficace car si j’aime un livre, et que ceux qui l’ont également aimé me recommandent chaudement un autre livre, même parfaitement inconnu, je serais peut être suffisamment intrigué par cette « perle rare » pour passer à l’acte.
Amazon n’a pas créé cette fonctionnalité de « conseil des autres lecteurs » pour créer un effet de Longue traîne, ils cherchaient simplement à rendre leur site plus humain et à susciter des achats d’impulsion. De la même façon, les internautes n’étaient pas spécialement en quête d’ouvrages inconnus (qui a déjà le temps de lire tous les best-sellers ? – ouvrages qui, par ailleurs sont parfaitement conçus pour plaire au plus grand nombre). La Longue traîne a « émergé » de la multiplicité d’interactions au sein de la communauté du web. C’est un cas typique de ce qu’on pourrait appeler la « webMergence ».

Evidemment, on ne bâti pas une théorie à partir d’un exemple (ou même de 1000 exemples), mais il y a indéniablement quelque chose à creuser, et on peut déjà s’intéresser aux conséquences prévisibles de la webmergence.

La webmergence stipule donc que les lois qui régiront les comportements globaux sur Internet ne sont déductibles ni du comportement individuel ni de la mécanique mise en place, mais qu’au contraire lorsqu’un mécanisme mettra en interaction un nombre suffisant d’individus, on pourra s’attendre à voir émerger des meta_comportements imprévisibles : les futures lois de la physique de l’Internet.

On peut donc en déduire, par exemple, dans le domaine médical, qu’il est vain de tenter de créer ex-nihilo un système qui réduise la iatrogénie ou la redondance d’examen. Au contraire, il faut stimuler la création de systèmes qui puissent à la fois être largement diffusés et créer des interactions entre utilisateurs, et subventionner ceux qui font émerger les comportements globaux les plus favorables.

La théorie de Robert Laughlin rend caduque l’approche réductioniste introduite par Descartes. La webmergence pourrait bien sonner le glas de l’utopie mécaniste dans le monde bien plus récent des systèmes d’information.

Understanding web 2.0

Sunday, March 4th, 2007

Yes, you can understand what web 2.0 is about… and it can take just 5 minutes :



Many thanks to Xavier Quilliet for pointing out this video on his blog.


css.php