webmergence

Robert Laughlin a obtenu le Prix Nobel de physique en 1998. C’est donc un des acteurs majeurs de la communauté scientifique et, lorsqu’il a écrit, en 2005, « Un Univers différent », ce livre n’est donc pas passé inaperçu et a même lancé un débat fondamental. Robert Laughlin y soutient que toutes les lois de la nature sont « émergentes », c’est-à-dire qu’elles résultent d’un comportement d’ensemble, sans presque rien devoir à celles qui régissent chaque composant individuel. Par exemple, les lois qui régissent le comportement d’une dune de sable ne sont pas prédictibles à partir des règles de la mécanique appliquées à un grain de sable isolé, mais émergent des interactions entre un très grand nombre de grains. De la même façon, les lois qui régissent une avalanche – où la neige de surface « coule » comme si elle était liquide au dessus de la strate neigeuse sous-jacente – n’est pas compréhensible si on modélise isolément chaque grain ; ce comportement « émerge » d’interactions complexes entre la couche mobile et la couche de support.

En prenant connaissance de la théorie de Rober Laughlin, je me suis souvenu qu’en 2001, lors des premières présentations de la Ligne de vie, j’avais coutume d’expliquer qu’en mettant en œuvre des systèmes d’information collectifs en santé, il faudrait tenir compte du fait qu’un réseau de cette échelle atteindrait immanquablement un niveau de complexité où « le tout est plus que la somme des parties » et l’exemple que je donnais alors était précisément celui de la dune de sable.
Cette « madeleine de Proust », couplée à la conscience que, depuis cette époque, le web a sans cesse évolué vers une plus grande interaction entre internautes (tendance qui ne fait que s’accentuer depuis la vague Web 2.0), m’a immédiatement fait me demander s’il n’était pas pertinent d’appliquer la théorie de l’émergence aux lois qui régissent les macro-comportements sur l’Internet.

A la réflexion, c’est très probablement le cas, et il existe même un exemple qui me semble typique de ce découplage entre une loi de masse et un comportement individuel : le phénomène de la « longue traîne ».

Popularisé par Chris Anderson dans un article de 2004 de Wired Magazine, sous le nom de « Long Tail », ce concept décrit la forme que prend la courbe des ventes de produits sur l’Internet. Au lieu de la courbe en demi-cloche du commerce traditionnel, où les « produits leaders » représentent l’essentiel des ventes, cette courbe montre une distribution très large, où le volume de l’ensemble des produits rarement vendus est aussi conséquent que celui des produits à succès. Comme l’a résumé un employé d’Amazon : « Aujourd’hui, on vend plus de livre qui ne se vendaient pas du tout hier qu’on ne vend de livres qui se vendaient hier ».
Mécaniquement, la Longue traîne pourrait s’expliquer par le fait que les étagères du monde réel ont une taille fixe, ce qui oblige les commerçant à ne s’approvisionner qu’en produits à rotation rapide, alors que les « e-étagères » ont une taille virtuellement sans limite. Mais c’est loin d’être suffisant car les « best sellers » sont toujours en page d’accueil du site, reléguant les titres peu connus dans l’arrière-boutique.
La véritable explication de la Longue traîne, réside dans l’interaction entre internautes ; car – pour déclencher une impulsion d’achat supplémentaire, les sites comme Amazon vous signalent à chaque achat quels autres produits ont été achetés par les internautes qui ont aimé celui que vous achetez. C’est un mécanisme redoutablement efficace car si j’aime un livre, et que ceux qui l’ont également aimé me recommandent chaudement un autre livre, même parfaitement inconnu, je serais peut être suffisamment intrigué par cette « perle rare » pour passer à l’acte.
Amazon n’a pas créé cette fonctionnalité de « conseil des autres lecteurs » pour créer un effet de Longue traîne, ils cherchaient simplement à rendre leur site plus humain et à susciter des achats d’impulsion. De la même façon, les internautes n’étaient pas spécialement en quête d’ouvrages inconnus (qui a déjà le temps de lire tous les best-sellers ? – ouvrages qui, par ailleurs sont parfaitement conçus pour plaire au plus grand nombre). La Longue traîne a « émergé » de la multiplicité d’interactions au sein de la communauté du web. C’est un cas typique de ce qu’on pourrait appeler la « webMergence ».

Evidemment, on ne bâti pas une théorie à partir d’un exemple (ou même de 1000 exemples), mais il y a indéniablement quelque chose à creuser, et on peut déjà s’intéresser aux conséquences prévisibles de la webmergence.

La webmergence stipule donc que les lois qui régiront les comportements globaux sur Internet ne sont déductibles ni du comportement individuel ni de la mécanique mise en place, mais qu’au contraire lorsqu’un mécanisme mettra en interaction un nombre suffisant d’individus, on pourra s’attendre à voir émerger des meta_comportements imprévisibles : les futures lois de la physique de l’Internet.

On peut donc en déduire, par exemple, dans le domaine médical, qu’il est vain de tenter de créer ex-nihilo un système qui réduise la iatrogénie ou la redondance d’examen. Au contraire, il faut stimuler la création de systèmes qui puissent à la fois être largement diffusés et créer des interactions entre utilisateurs, et subventionner ceux qui font émerger les comportements globaux les plus favorables.

La théorie de Robert Laughlin rend caduque l’approche réductioniste introduite par Descartes. La webmergence pourrait bien sonner le glas de l’utopie mécaniste dans le monde bien plus récent des systèmes d’information.

Comments are closed.


css.php