Under the Waves
Saturday, June 9th, 2012Photographer artist Asako Narahashi interviewed by Bridget Fitzgerald.
Kawaguchiko, 2003 From the series half awake and half asleep in the water
Ashleigh Brilliant |
Photographer artist Asako Narahashi interviewed by Bridget Fitzgerald.
Kawaguchiko, 2003 From the series half awake and half asleep in the water
The Economist’s cover page is pretty explicit!
It is now up to Europe’s politicians to deal finally and firmly with the euro. If they come up with a credible solution, it does not guarantee a smooth ride for the world economy; but not coming up with a solution guarantees an economic tragedy. To an astonishing degree, the fate of the world economy depends on Germany’s chancellor, Angela Merkel.
Discovering Jonathan Harris was purely a serendipity process. I was musing for nice design pieces at Swiss Miss when struck by a post headline shouting "Jonathan Harris: Rethinking Social Networking". Not easy a task, not a benign ambition!
In this speech, Jonathan Harris describes the four pivotal trends in social networking… four trends that are reshaping culture and brain chemistry in the digital age: Compression, Disposability, Curation, and Self-Promotion.
Would such topics make sens for you, then rush to Modern Medicine, his latest opus.
My favorite quote:
All technology extends some pre-existing human urge or condition: a hammer extends the hand, a pencil extends the mind, a piano extends the voice. All technology amplifies something we already possess. [...] When designing technology, you should understand what human urge or condition you will be extending.
A great 2005 Ted talk by Clay Shirky where he points out how valuable the "power law" distribution of effort can be – especially compared with the many limits faced by brick and mortar institutions. It leads him to question institutions as enabler or as obstacle… and predict a 50 years chaotic process to have them been replaced by sets of collaboration groups.
Mercredi 16 Mai, Antonio Casilli a clos son cycle de séminaires de l’EHESS 2011/2012 (sous la bannière « étudier les cultures du numérique : approches théoriques et empiriques ») par une belle conférence de Dominique Cardon.
Contexte savant, puisque Dominique Cardon est à la fois sociologue au Laboratoire SENSE (Orange Labs), chercheur associé au Centre d’études des mouvements sociaux (CEMS/EHESS), animateur de la revue Réseaux et auteur du livre La Démocratie Internet. Promesses et limites (Seuil, 2010).
Titre énigmatique « Dans l’esprit du PageRank. Un essai d’anthropologie de l’algorithme de Google ».
Le résultat, c’est 3 pages de notes pour une grosse heure de présentation, signe d’un discours dense et édifiant… que je vais tenter de retranscrire ici.
L’ambition de Dominique Cardon est de scruter le web au travers des métriques qui l’organisent et des algorithmes qui les mettent en œuvre.
Sa recherche sur le Page Rank de Google s’appuie sur une lecture extensive, elle même mise en perspective sur le socle théorique des travaux sur le web politique, fortement influencé par Habermas.
L’espace politique idéal, dont le web pourrait être un exemple, est alors caractérisé par deux critères :
Si on peut s’accorder sur la validité du premier point, le second fait largement débat, Habermas ayant lui-même affirmé dans un discours que l’Internet est qualifié par « la fragmentation de petites niches de discussion qui n’arrivent pas à se coordonner ». Pour Dominique Cardon, les métriques et algorithmes qui classent les informations sont précisément le « lieu » où se produit cette intégration si cruciale… et méritent donc une étude attentive.
Cinq grands principes sont à la base des algorithmes qui organisent aujourd’hui le web :
Si les trois premiers principes existent sur tous les médias, les deux derniers sont spécifiques des réseaux sociaux. La plupart des métriques qui animent les recherches au sein des sites sont bâties par agencement de ces cinq principes.
La question clé posée par Dominique Cardon, sous le titre Dans l’esprit du Page Rank est « quelle est l’idée que se fait Google du web et du monde ».
L’origine du Page Rank apparaît quasi-simultanément dans la publication de Jon M. Kleinberg « Authoritative Sources in a Hyperlinked Environment » et dans celle de Brin et Page « The Anatomy of a Large Hypertextual Web Search Engine ». Son principe est de rompre avec la stratégie utilisée par les moteurs de recherche d’alors, basée sur l’analyse sémantique des pages, en partant de l’idée que, au travers des liens qui caractérisent l’environnement hypertextuel, ce sont « les pages qui parlent aux pages » et qu’il n’est pas besoin d’exhiber une logique supérieure de catégorisation.
Pour le dire plus simplement, plutôt que de tenter de trier les pages en fonction d’une arborescence artificielle de catégories, il suffit de mesurer la façon dont la connaissance s’associe (par lien hypertexte) à la connaissance. C’est une logique dite « démocratique » ; en réalité largement méritocratique puisque toutes les pages ne sont pas dotées de la même autorité.
Ainsi, le monde statistique que « dessine » le Page Rank est basé sur une forme de miracle de l’intégration réalisé par l’intelligence des foules d’internautes qui publient. Cette qualité « issue de la multitude » est, par exemple, conforme à la constatation faite par Wikipédia que les articles les plus en accord avec les critères de qualité du site sont généralement ceux qui ont le plus de contributeurs.
Dominique Cardon envisage ce mécanisme sous deux angles, une version « de gauche » et une version « de droite ».
Dans la version de gauche, décrite par Yochai Benkler, le mécanisme à l’œuvre est celui de la coordination d’actions inconscientes. Les bases du raisonnement sont fournies de longue date, par ailleurs sans rapport entre elles, par Galton (avec son expérience du poids d’un bœuf mieux approché par la moyenne des évaluations naïves que par chaque expert) et par le théorème du Jury de Condorcet, qui établit que, sous certaines conditions (que la bonne réponse ait plus d’une chance sur deux de se produire, qu’il n’y ait pas d’influence d’un votant sur l’autre et que les votants soient sincères dans leur choix), la décision du groupe est supérieure à celle de chaque individu, et sa qualité augmente avec la taille du groupe.
Dans ce cadre, le Page Rank intervient comme moteur du « modèle par la discussion » où les éléments les plus saillants des micro-discussions de niche parviennent à remonter dans des sphères plus larges qu’elles ensemencent, et ainsi de suite en faisant remonter vers le niveau global le meilleur grain des discussions locales.
Dans la version de droite, c’est le théorème de la diversité de Scott Page et la logique du marché prédictif qui servent de modèle en posant qu’il y a deux dimensions à la capacité d’un groupe à faire des prédictions intelligentes : le niveau d’expertise individuelle des membres du groupe et la diversité de leurs opinions (voir l’article de la revue Clés De Gustave Lebon à James Surowiecki : bêtise ou sagesse des foules ?).
On peut augmenter la performance prédictive du groupe en jouant sur l’une ou l’autre, ou sur les deux à la fois en attirant les opinions les plus diverses possibles, de la part de gens intéressés et même passionnés – comme le sont forcément des parieurs. Un marché prédictif attire donc les gens qui ne sont pas forcément experts, mais qui se croient bien informés (et le sont parfois), et il les pousse à oser être originaux et à ne pas être d’accord entre eux, pour parier les uns contre les autres dans l’espoir de remporter le gros lot (d’où une diversité d’opinion).
Le Page Rank est alors le moteur d’arbitrage qui, dans ce marché prédictif des opinions, permet une convergence similaire à la « main invisible » d’Adam Smith sur les marchés financiers.
Dominique Cardon insiste sur le fait que cette mécanique n’est opérante que si les acteurs ne se préoccupent pas de l’existence du Page Rank. Toutes les stratégies de Search Engine Optimization (SEO) qui visent, par des artifices multiples, à améliorer le classement d’une page contrarient le « miracle de l’agrégation » ; comparables à des délits d’initiés, ils amènent Google, qui se veut au sens propre comme au sein figuré la « main invisible » du processus, à faire sa propre justice en dégradant violemment certains sites suspectés de triche.
Google est ainsi à la fois l’ordonnanceur du Web, avec un algorithme qu’il garde secret, et le juge des bonnes pratiques, avec des adaptations non moins secrètes du même algorithme. Considération aggravante, c’est également un acteur du domaine, que ce soit par ses autres initiatives ou, surtout, par la vente d’espaces publicitaires.
Google affirme conserver un mur étanche entre le « monde organique » du web trié par le Page Rank et le « monde stratégique » des liens commerciaux. C’est une chose de faire une confiance aveugle à Google dans ses affirmations de n’avantager ni ses propres pages ni celles de ses meilleurs clients, c’en est une autre d’imaginer que la barrière soit si étanche entre un monde organique idéalement désintéressé et un monde stratégique qui resterait alors le seul espace de jeu des calculateurs.
Par ailleurs, que le modèle soit « de droite » ou « de gauche », l’Internet documentaire tel qu’il est rêvé par Google pour constituer un « espace efficient » pour le Page Rank possède une topologie de rhizome non organisé.
Pourtant, dans la réalité, 90 % du Page Rank global est réparti sur 10% des sites, situation entretenue et aggravée par l’effet Mathieu (ou effet d’avantage cumulatif) qui veut que les sites les plus visibles sont également ceux qui attirent les connexions des nouveaux entrants. Par ailleurs, la règle implicite des attachements préférentiels, qui veut qu’on « ne cite jamais plus petit que soi » aspire le Page Rank des petits sites (qui citent les gros) vers les gros (qui ne citent pas les petits).
De façon contradictoire, le Web, par l’effet du Page Rank, est donc beaucoup plus hiérarchisé et moins rhizomatique que le monde cible de Google.
L’irruption massive des réseaux sociaux, dans le sillage de l’emblématique Facebook, fait basculer le Web documentaire vers l’Internet des personnes et s’accompagne en conséquence d’un tropisme pour le classement par affinité.
Pour Dominique Cardon, la mécanique profonde du Web documentaire opère par transfert de la qualité d’un auteur à sa production ; à la façon dont le talent d’un écrivain matérialisé sous forme d’un livre permet à cet ouvrage de recevoir le Prix Goncourt.
Dans un univers hypertexte, les pages sont reliées entre elles par des liens qui matérialisent une forme de reconnaissance de valeur. Dans ces conditions, on peut modéliser le Web comme un espace autonome de documents qui emmagasinent le talent de leurs auteurs et peuvent en transférer une partie à d’autres documents par la « tuyauterie » des liens. Le Page Rank mesure alors la qualité dynamique issue de ces échanges dans un monde des documents mathématiquement parfait… car isolé de tout artifice humain.
Par ailleurs, c’est un monde relativement élitiste puisque seuls les internautes qui publient participent à l’évaluation de la qualité.
Avec la floraison des boutons « I Like It », la qualité est jugée en direct par des internautes au sein d’un cercle qui n’est plus restreint à ceux qui publient. La qualité s’attachent alors aux personnes. Comme l’exprime Dominique Cardon, on porte des badges, on investit dans la production du jugement une valorisation de soi-même.
L’application de ce principe donne vie à une nouvelle métrique, le Edge Rank, qui classe les documents en fonction des liens entre les personnes.
Le monde idéal du Page Rank était l’univers des documents. Par la pratique du mode rédigé, qui induit une distance suffisante entre le sujet et le sujet auteur et donne au document une qualité autonome, ce monde était partagé de façon étanche entre un domaine organique non marchand et un domaine stratégique marchand.
Le Web des personnes, au contraire, est intégralement expressif, c'est-à-dire pleinement calculateur et sensible aux pratiques complexes des sociétés humaines comme le « renvoi d’ascenseur ».
Dominique Cardon entame, par l’étude du web en fonction de ses métriques, un travail de recherche passionnant.
En écrivant cet article, suis-je simplement sensible au mouvement « Publish What You Learn », sans autre idée que de produire un document de bonne facture… ou bien ai-je en tête de l’utiliser pour me valoriser au sein des réseaux sociaux ? Pur idéalisme ou pur calcul ?
Comme il n’existe pas de monde où les documents, détachés de leur auteur, danseraient ensemble le Page Rank, ni de société humaine fonctionnelle sans qu’il y existe un espace didactique désintéressé, je me permets d’affirmer que tout discours publié sur le Web procède simultanément des deux intentions, éclairer autrui et se valoriser.
Dans ce contexte, le Page Rank et le Edge Rank mesurent alors le succès de ces deux intentions et le monde idéal devient le lieu où celui qui avait pour but d’édifier humblement obtienne un bon Page Rank tandis que celui qui cherchait à se mettre en avant avec une production simplement voyante ou provocante voit son Edge Rank augmenté.
En prenant un peu plus de recul, je vois la démarche de Dominique Cardon comme la quête fondamentale qui consiste à analyser un espace d’échanges (le Web, ou plutôt les Webs, si on distingue ses dimensions documentaires et sociales) en fonction du mécanisme de mesure de la qualité qui s’y applique.
Comme je l’ai souvent écrit, je suis sur ce sujet un adepte de Robert M. Pirsig et de la façon dont il a défini la Qualité (avec un Q majuscule) dans son roman « Traité du zen et de l’entretien des motocyclettes » : la Qualité est la fusion de l’âme et du savoir faire technique. Le principe qui fait de l’œuvre la prolongation naturelle de la main de l’artisan ou du cerveau de l’inventeur. Elle s’oppose à la vision dualiste usuelle qui distingue fortement le concepteur et la conception, le sujet et l’objet.
Comme l’explique Pirsig, « au moment de la perception de la Qualité pure ou, sans même parler de perception, au moment de la Qualité pure, il n’existe ni sujet ni objet. Il n’existe qu’un sens de la Qualité – d’où naîtra plus tard la conscience du sujet et de l’objet. Au moment de la Qualité pure, sujet et objet sont identiques. […] Cette identité est la base même du travail artisanal, dans tous les arts appliqués. C’est elle qui manque à la technicité moderne, fondée sur une conception dualiste. Le créateur ne s’identifie nullement à ce qu’il crée, le consommateur ne s’identifie pas à ce qu’il possède ».
Nous sommes très proches de la maxime de Jacques Puisais (œnologue créateur de l’Institut du Goût) : « Un vin juste doit avoir la gueule de l’endroit où il est né et les tripes de celui qui l’a fait ». Ainsi, une « bouteille de Qualité » rassemble dans un même flacon le vigneron, sa terre et son vin.
Que le Web actuel propose des « métriques de la qualité » qui ne fonctionne que dans le monde des documents ou uniquement dans l’univers du jugement de surface du « I Like It » me semble amplement démontrer son immaturité. Immaturité qui, avec mes critères d’analyse – qui tiennent qu’un produit réussi ressemble à son auteur – est parfaitement illustré par les géants actuels du web : que ce soit Marc Zuckerberg ou Brin et Page, ce sont des êtres qu’on peut probablement qualifier de géniaux, mais dont l’humanisme est limité à la portion congrue.
En parallèle au Web « de la maison de verre » où Facebook et Google tentent de nous convaincre que l’intimité est un concept dépassé, il est urgent de créer un Internet humaniste.
Et après tout, s’il fallait, pour le construire, prendre le contrepied de la mécanique actuelle dominée par de jeunes Geeks étasuniens, ce serait un magnifique défi à relever pour les citoyens mûrs de la vieille Europe.
The latest if not the last video from a compilation of data and facts to know about social media:
Dans une de ses vieilles chansons, Felix-Hubert Thiéfaine décrivait une jeune femme qui “croisait les jambes si haut qu’un lui voyait le bout des seins”. Il semblerait, d’après le e-journal Gerontoprevention de Christophe Trivalle, que les étasuniens soient actuellement taraudés par les stars qui montrent le côté d’une poitrine qui défie crânement la gravité ambiante.
Nul doute, et il suffit de considérer ci-dessous la photo de Gwyneth Paltrow (en couverture de Harper’s Bazaar) qui illustre un article sur le sujet, que cette conduite érotico-chic est susceptible de raccourcir significativement la durée de vie de nos ainés et que c’est donc un sujet qui entre de plain pied dans la gérontoprévention.
Le DMP est une entreprise courageuse. Annoncé il y a 8 ans, lancé puis relancé, puis vraiment lancé début 2011 avec un objectif à un an de quelques millions de dossier ouverts, il n’en totalise actuellement que quelques dizaines de milliers.
Le désastre est désormais visible en ligne avec, aujourd’hui, une carte qui montre la situation fin février 2012 :
Vous y trouverez le nombre de DMP ouverts région par région. Le tableau ci-dessous montre la situation par ordre décroissant :
Picardie | 19481 |
Alsace | 18683 |
Aquitaine | 15261 |
Franche Comté | 8958 |
Rhône Alpes | 5739 |
Pays de Loire | 2374 |
Bourgogne | 2346 |
Centre | 2282 |
Nord-Pas de Calais | 1895 |
Champagne Ardenne | 1734 |
Provence Alpes Côte d’Azur | 1701 |
Midi Pyrénées | 1283 |
Limousin | 1113 |
Languedoc Rousillon | 950 |
Ile de France | 772 |
Poitou Charentes | 433 |
Haute normandie | 370 |
Bretagne | 362 |
Lorraine | 268 |
Basse Normandie | 86 |
Auvergne | 84 |
Corse | 1 |
Le plus pitoyable, c’est que ceux qui connaissent un peu ce dossier vous diront que les seules régions qui ont plus de 5000 DMP ouverts sont celles où existaient des expérimentations de longue date qui ont été “déversées” dans le DMP officiel… et encore, certaines régions, comme la Franche-Comté annonçaient depuis des années des dossiers locaux plus peuplées de plusieurs ordres de grandeur !
Il serait probablement cruel de rapprocher les 772 DMP ouverts en Ile de France des centaines de millions d’euros dépensés en huit ans. En réalité, en cette période électorale, il est temps de se demander quelle est l’utilité d’un tel projet.
Si vous allez sur le site de l’ASIP, vous serez probablement frappé par l’écart entre le discours d’auto-contentement de cette agence d’état et ses ridicules résultats. Au moment du bilan, il faudra se demander jusqu’à quel point cette véritable propagande n’avait pas pour rôle de bloquer toute innovation en santé.
Affirmer que “l’information de santé est une prérogative de l’état”, c’est explicitement empêcher toute initiative de ces startups qui relèveraient volontiers le défi de mettre réellement la personne au centre du système… voire de fédérer ainsi un réseau de personnes qui pourraient contester à l’Assurance Maladie et à la tutelle une gestion très sous-optimale, et totalement ancrée dans un paradigme obsolète, du système de santé.
Dans un domaine où tant est à changer, il faut exiger un bilan sans concession de l’échec sans limites du DMP et exiger une forme de Freedom to innovate.
Ajout 17/03/2012 : Le coût réel du DMP reste controversé.
Le député (socialiste) Gérard Bapt a écrit sur Mediapart que le DMP avait coûté 200 millions d’euros.
Sur Twitter, Marie-Françoise de Pange (@MFdePange) a écrit le 15 mars “JY Robin répond à Bapt coût du DMP : 94 m€ jusqu’en 2010 , 60 après”
Ce chiffre me paraissait étonnant car, dans une interview à Impact-Santé, Jean-Yves Robin annonçait “Quant au budget de l’ASIP publié dans le rapport annuel d’activité, il a été initialement de 80 millions d’euros pour 2011. Depuis le gel du FIQCS, il est tombé à 66 millions d’euros.”
Les chiffres annuels et les chiffres cumulés ne me paraissaient pas homogènes (budget cumulé de 94 M€ pour les 6 années 2005-2010, soit en gros 16 M€ de moyenne annuelle).
J’ai donc interpellé @MFdePange pour savoir si le budget antérieur était bien cumulé ou annuel. Ce à quoi @JYRobin a répondu plutôt laconiquement : “Cumulés évidemment. Il suffit de lire”
Je me suis permis d’insister car, si on simule une augmentation linéaire du budget, on parviendra à un cumul de 94 M€ si on suppose une augmentation de 4,5 M€ par an (4,5 M€ la première année, 9 M€ la deuxième, etc donnent une somme cumulée de 94,5 M€ sur 6 ans). Cette simulation donne 27 M€ pour 2010 et le décrochage de 2011 à 80 M€ est alors considérable.
Ce matin, @JYRobin a répondu “On parle du budget DMP pas du budget ASIP. 30me pour le DMP tout compris. Lire budget ASIP”
Si on en croit ce message, on arrive “assez harmonieusement” à une prolongation de la simulation linéaire (qui donnerait 31,5 M€ pour la 7ème année). Il faudra attendre l’audit de la cour des comptes pour le valider. Chacun sait que, dans l’établissement d’un budget, on possède une large liberté d’affectation des charges fixes à un poste ou à un autre en fonction de l’histoire qu’on souhaite raconter.
Au final, les sommes en jeu restent considérables pour un dossier qui n’est toujours pas capable de donner une réponse (qui ne soit pas purement politique) aux questions fondamentales :
Remember using a cristal pen to adjust tape rewind… some kind of “Madeleine de Proust”…
Outstanding artwork.
In Japan, [salt] is indispensable in the death culture… In the beginning, I was interested in the fact that salt is used in funerals or in its subtle transparency. But gradually, I came to a point where the salt in my work might have been a part of some creature and supported their lives. Now I believe that salt enfolds the memory of lives.
From trendland.net
Le monde appartient à ceux qui se lèvent de bonheur, dit le proverbe (à peine remanié)… grâce à la Beetlecam, les lions du Masai Mara vont contribuer au sourire du jour :
BRINGING HER DAUGHTER TO WORK: Licia Ronzulli, Italy’s member of the European Parliament, voted Wednesday during a session in Strasbourg, France, with her daughter in her lap.
From Wall Street Journal
Flavia Fontana-Giusti décrit avec humour sa pitoyable tentative d’explication de ce qu’est l’Open Data à son père et sa belle-mère… cette dernière s’exclamant in fine « Avec toutes les restrictions budgétaires en cours, ils dépensent de l’argent pour ça ? C’est incroyable ! ». Vulnerant omnes, ultima necat !
L’Open Data s’explique pourtant très simplement : il suffit de dire que la libre mise à disposition des silos de données publiques permet de faire naître de nouveaux services aux citoyens.
L’expérience de Flavia nous apprend que cette explication n’est probablement pas compréhensible pour la plupart des gens ou à tout le moins, qu’ils estiment futiles les éventuels services nés de ce processus.
Comment expliquer qu’un mouvement considéré comme crucial au sein du cercle averti des acteurs du web paraisse trivial au plus grand nombre ?
Je pense posséder, au moins en partie, la clé du paradoxe : dans un monde dont la complexité augmente sans cesse, et à vitesse croissante, les services permis par l’Open Data sont des « passeurs » : ils analysent un vaste ensemble de données pour éclairer la prise de décision. À la façon dont la publication des cartes marines a démocratisé les déplacements, ils ouvrent des « voies de navigation » dans un monde massivement interconnecté.
Pour comprendre l’intérèt de l’Open Data, comme pour comprendre, à une autre époque, le caractère stratégique des cartes de navigation, il faut avoir une intelligence du « monde qui arrive », du développement des moyens de communication et de l’augmentation de la complexité des échanges (et de l’optimisation des actes quotidiens) au sein du « village planétaire ». Le désintérêt pour l’Open Data vient du fait que, au sein du monde « classique » – que les anglo-saxon affublent du sobriquet de « brick and mortar », ces concepts ne sont pas encore apparents.
S’il est un domaine où ce paradoxe est criant, c’est bien celui de la santé.
Dans un univers dont les pratiques séculaires ont été façonnées par la prise en charge de problèmes aigus, la vision reste celle du beau diagnostic, du geste sûr, de l’humanisme paternel et protecteur. Pourtant, et même si ces valeurs ont encore leur place, la santé a déjà majoritairement basculé dans le domaine de la prévention et du suivi chronique, c’est-à-dire de la gestion du risque, c’est-à-dire de la gestion d’information en univers complexe.
Le paradoxe que j’ai décrit plus haut est parfaitement matérialisé en santé : on ne parle que de « médecine hautement personnalisée » tandis que l’application sur le terrain est toujours plus orienté vers les pratiques « de masse ». Il faudrait que toutes les femmes de plus de 50 ans fassent ceci, que tous les hommes de plus de 50 ans fassent cela, que tout médecin généraliste vaccine X % de sa patientèle contre la grippe, que la prévention individualisée se fasse toute petite devant la prévention dite « organisée » (terme marketing pour ne pas dire « de masse »).
La médecine ne progressera pas tant que les données d’une même personne ne seront pas intelligemment mises à disposition de son équipe de santé, et tant que les données publiques des citoyens ne seront pas ouvertes à ceux qui peuvent les mettre au service de chacun.
Ce qui est fondamental ici, ce n’est pas simplement de passer du fermé à l’ouvert, mais bien, ce faisant, d’évoluer d’une logique de gestion des données à une logique de services.
Certains vous parleront de secret nécessaire ou de données indirectement nominatives. Vous parviendrez souvent à les rassurer en leur expliquant que l’état de l’art est plus avancé qu’ils ne le pensent et que le rapport bénéfice risque (individuel ou collectif) est favorable au monde ouvert. Les autres sont soit trop ancrés dans le passé, soit trop conscients que leur importance provient essentiellement de l’asymétrie d’information qu’ils parviennent à conserver en leur faveur.
Bel article de Seth Godin, dont je me permets de proposer une traduction.
Vous êtes à la recherche d’un trapéziste timide… je vous souhaite bonne chance, car il n’y en a pas.
Si vous hésitez au moment de sauter d’une corde à l’autre, vous ne durerez pas bien longtemps.
C’est le cœur de ce qui fait que l’innovation fonctionne au sein de certaines organisations, que l’industrie meurt, qu’il est douloureux de tenter de maintenir un status quo tout en prenant part à une révolution.
Prenez autant de vitesse que vous le pouvez, trouvez un passage et lancez-vous. Vous n’atteindrez jamais la prochaine corde si vous restez agrippé à celle-ci.
There is definitely something wrong about intellectual property.
Wikipedia mentioned it quite dramatically with a blackout page protesting against SOPA.
Milos Paripovic used a humorous way to make fun of patents craze with his iPoo toilet
Via George Takai
Les chroniques les plus percutantes de Seth Godin sont souvent les plus courtes. Celle d'aujourd'hui est de cette verve. Je la reproduis ci-dessous, ainsi qu’une tentative de traduction.
Walking away from "real"
As in, "that’s not a real football team, they don’t play in Division 1" or "That stock isn’t traded on a real exchange" or "Your degree isn’t from a real school."
Real contains all sorts of normative assumptions and implicit criticisms for those that don’t qualify. Real is just one way to reject the weird.
My problem with the search for the badge of real is that it trades your goals and your happiness for someone else’s.
Véritable comme dans les expressions "ce n'est pas une véritable équipe de foot, ils ne jouent pas en première division", "cette action n’est pas négociable dans une véritable bourse" ou "votre diplôme n'a pas été délivré par une véritable école".
Véritable contient toutes sortes de suppositions normatives et de critiques implicites envers ceux qui sont supposés ne pas l’être. Véritable est tout bonnement une manière de rejeter l’étrange.
Mon problème dans la recherche du badge "Véritable" c’est qu’elle troque vos objectifs et votre bonheur contre ceux d’un autre.
L’étude Ecogen démarre Lundi. Ce sera sans aucun doute un évènement marquant pour ceux qui y auront participé. Par son ampleur, d’abord, on en attend plus de cinquante thèses de médecine générale ; par son ambition, ensuite, puisqu’il s’agit de décortiquer la dynamique de dizaines de milliers de consultations.
J’ai eu le bonheur d’assister la semaine dernière à une après-midi de formation autour du délicat problème de la séparation analytique des éléments d’une consultation de médecine générale.
Le matériel de formation était tout d’abord, très classiquement, constitué de cas cliniques imprimés sur lesquels les médecins – dûment dotés de stylos 4 couleurs – s’appliquaient à souligner les motifs, les résultats de consultation et les procédures réalisées ou prescrites. Et ce n’est pas si simple qu’il y paraît !
Vinrent ensuite des séquences vidéos de consultations fictives, l’exercice étant de retrouver les mêmes éléments au sein de cette « minuscule scène de théâtre » qu’est une consultation de médecine générale. Et je peux vous garantir qu’il peut se dire beaucoup de choses pendant ces quelques minutes et qu’il faut un véritable travail d’analyse et de synthèse pour démêler l’écheveau de l’échange et en extraire les axes de travail, la dynamique de la consultation, depuis le point d’entrée (les motifs) jusqu’aux actions (les procédures) en passant par les axes de travail (les résultats).
Est-ce utile ?
On pourrait en douter quand on voit les notes souvent désordonnées, parfois illisibles qui matérialisent bien souvent une consultation médicale, que ce soit sur un bristol ou dans un logiciel de gestion de cabinet. Cependant, distinguer clairement des résultats de consultation, c’est tout simplement se mettre en position de répondre à la question fondamentale « sur quoi va-t-on travailler ? ».
C’est un domaine que j’explore depuis plus de dix ans avec la Ligne de vie. La copie d’écran d’Episodus, ci-dessous, montre bien comment, de l’événement ponctuel de la consultation, naissent et/ou se transforment des lignes qu’on pourrait appeler « épisodes de soins » ou, dans le vocabulaire de la Ligne de vie, qui intègre la prévention, des « préoccupations de santé ».
A nouveau, est-ce utile ?
C’est utile, et même fondamental, si on comprend la santé d’une personne comme un projet au long cours dont le médecin généraliste est en charge. Parce qu’un projet, c’est une équipe réunie autour d’une vision commune des préoccupations prises en charge et des objectifs à atteindre.
Ce n’est pas un hasard si l’un des objectifs secondaires de l’étude Ecogen porte sur la « transférabilité » des tâches effectuées par le médecin généraliste. Les participants devront indiquer, pour toutes les procédures réalisées ou prescrites si, pour ce patient, à ce moment précis de son parcours de soins, cette procédure aurait pu être réalisée ou prescrite par un autre acteur et, si oui, par quel autre professionnel de santé et sous quelles conditions (dossier partagé, protocole prédéfini, supervision du généraliste…).
Ce point a beaucoup inquiété les futurs participants lors de la séance de formation à laquelle j’ai assisté. Comment eux, encore stagiaires, pouvaient-ils estimer quelque chose d’aussi délicat que d’attribuer à d’autres une partie du travail réalisé par leur maître de stage ?
Il y a deux façons d’envisager cette question. La première, à l’ancienne, est de comprendre le champ des prérogatives du médecin généraliste comme une forme d’acquis, de pré carré. La seconde, autrement plus moderne, est de comprendre la santé comme un travail d’équipe, de placer le médecin généraliste comme chef d’orchestre, et de décider crânement que c’est à lui de distribuer les rôles d’une façon hautement personnalisée. Il ne s’agit pas de dire « une infirmière peut suivre le diabète », mais, pour Mme Dupont, une infirmière à la formation adéquate peut se charger de telle et telle tâches.
En sensibilisant les stagiaires à la définition des résultats et procédures de consultation, Ecogen leur permet de définir les éléments du projet de santé des patients. En les faisant s’interroger sur la répartition des rôles au sein de ce projet, Ecogen les place en position d’encadrement des opérations.
C’est une vision résolument moderne de la médecine, et j’espère que la cinquantaine de stagiaires prendra du plaisir à ouvrir cette voie… et même que certains d’entre eux feront de cette nouvelle approche le sujet de leur thèse.
From KISSmetrics.