La République face au défi du numérique

Bernard Stiegler
28 octobre 2014

Intervention de M. Bernard Stiegler, philosophe, directeur de l'Institut de recherche et d'innovation (IRI) et président de l'association Ars Industrialis, coauteur, avec Denis Kambouchner et Philippe Meirieu, de « L'école, le numérique et la société qui vient » (Mille et une nuits), au colloque "République et numérique" du 28 octobre 2014.

Texte original sur fondation-res-publica.org

La République et le numérique : un sujet très difficile parce que le numérique est une réalité extrêmement évolutive.

Je commencerai par quelques généralités.

Le numérique ne se limite pas à l’Internet. Aujourd’hui, le numérique c’est aussi votre automobile. Les nouvelles automobiles sont déjà connectées et celles qui vont être mises sur le marché très bientôt n’auront plus de chauffeur. Je constatais hier encore lors d’une séance de prospective de la SNCF avec quelle rapidité ces nouvelles technologies se concrétisent. Le numérique est une transformation de tous les objets quotidiens.

Le numérique est d’abord une technologie de publication.

Ce qui fait qu’on parle de numérique et pas simplement d’informatique, c’est d’abord la grande transformation qui s’est produite en 1993 dans le monde occidental puis très rapidement dans le monde entier avec ce qu’on appelle le Web.

Le Web, apparu le 30 avril 1993 dans le domaine public, avait été élaboré dès 1989 à Genève au CERN (Organisation européenne pour la recherche nucléaire). Avec le Web, l’informatique (on parlait aussi de télématique) est devenue numérique. Et, à partir de ce moment, s’est posé le problème de la numérisation. J’ai moi-même été missionné à cette époque par la Région Nord-Pas-de-Calais pour réfléchir à la politique de numérisation. Il ne s’agissait pas simplement de numérisation des archives et du patrimoine mais de l’intériorisation, de la prise en compte, de l’inscription de la dynamique créée par le Web et le numérique dans les plans de développement de la région. Nos interlocuteurs étaient alors La Redoute et Les Trois Suisses dont je crains qu’ils n’aient pas bien vu la nature de ce qui se passait.

Le numérique est une technologie de publication qui nous permet de « poster » sur le Web des textes, des photographies, des enregistrements vidéo etc. mais aussi, parfois sans le savoir, d’émettre des data (données) et métadata (métadonnées) qui permettent à des opérateurs, y compris à la NSA (National Security Agency), de nous tracer.

C’est un processus de publication au sens où, dans un livre intitulé « Les savoirs de l’écriture en Grèce ancienne », Marcel Détienne expliquait qu’à partir de la fin du VIIème siècle avant J.C., une nouvelle forme de communauté s’était constituée sur la base d’un processus de publication, la polis (Πόλις), à l’intérieur de laquelle s’était constituée une politeia (Πολιτεία), à l’origine de la res publica, traduction en latin d’un concept qui vient de la Grèce et qui, si l’on en croit Detienne et son prédécesseur et maître Jean-Pierre Vernant, était lui-même un processus de publication à l’origine de la constitution d’une forme de communauté que nous appellerons républicaine, dont la démocratie est un cas particulier.

Je veux insister sur ce point parce que, parmi les multiples façons d’aborder le sujet du numérique, il y a, comme toujours, « un petit bout et un grand bout de la lorgnette ». Le « petit bout » consiste à se demander ce que le numérique fait à nos façons de conduire, à notre fiscalité etc. Une autre manière de prendre le problème consiste à se demander en quoi la res publica est reconstituée, mais en même temps destituée, par le numérique.

On peut comparer à certains égards, ce que le numérique fait au territoire à ce que la télévision a fait au territoire. Je connais un peu le monde de la télévision : bien avant d’être directeur général adjoint de l’INA, je suis né sur un émetteur de la radio nationale (l’émetteur de Villebon-sur-Yvette, qu’a fait sauter l’OAS quand j’étais enfant) car mon père était technicien à la RTF. Dans les villages, les grands médias de masse (la radio, la télévision) ont vidé les bistrots et les églises, entamant un processus de désertification qui s’est combiné avec l’automobile, les réseaux autoroutiers, les zones d’activités commerciales (c’est-à-dire la destruction des commerces dans les centres urbains) etc. Cette très grande transformation urbaine a fait système avec les grands caractères spécifiques de la société fordo-keynésienne.

Il semble que le niveau de pertinence de ces médias, en tout cas jusqu’à l’apparition de la « bande FM » (dont les fameuses « radios libres » au début des années 80), est le niveau national : une télévision « nationale », celle du général de Gaulle, une radio « nationale », par opposition aux radios périphériques (Radio Luxembourg et Europe) qui émettent illégalement, aux lisières du territoire, des émissions financées par la publicité, ce que ne voulait pas le général de Gaulle.

Les choses vont évoluer dans les années 70, avec Valéry Giscard d’Estaing, puis dans les années 80, avec François Mitterrand qui décide la privatisation de l’audiovisuel.

Mais dans tous les cas, ces médias analogiques restent des médias à maîtrise nationale, même si avec la télévision satellitaire, la télévision est devenue elle-même de plus en plus globale.

À l’INA, nous avons beaucoup réfléchi sur ces questions. Le numérique semble être bien pis encore en termes de « déterritorialisation », terme usité par Gilles Deleuze. Le numérique fait qu’aujourd’hui il y a une réticulation planétaire de tous les « citoyens du monde » (peut-être devrais-je plutôt parler de « consommateurs du monde », « activistes du monde », « révoltés du monde » … ?).

Le numérique entraîne donc une globalisation encore bien plus grande mais, en même temps, il ouvre la possibilité des politiques territoriales. Aujourd’hui, en France, très peu de collectivités territoriales ont une vraie politique des réseaux. Elles pourraient très bien en avoir mais elles ne le veulent pas. C’est regrettable car les très grands réseaux du type Facebook ont une politique qui consiste à court-circuiter ces territoires bien plus encore qu’ils ne l’ont été par les grands médias de masse.

Le numérique, pour moi et pour Ars Industrialis que je représente ici, est un pharmakon (φάρμακον), au sens où Socrate dit un jour à un jeune Athénien, Phèdre, de se méfier de l’écriture des Sophistes, ces marchands qui usent de l’écriture comme d’un poison. Pour Socrate, l’écriture en soi n’est pas un poison mais un pharmakon, c’est-à-dire à la fois un poison et un remède. Il est très important de noter que pour Socrate l’écriture est la condition de possibilité de la science, de l’histoire, du droit positif, des mathématiques etc. La question n’est pas la toxicité de l’écriture mais la toxicité de ceux qui font de l’écriture un moyen de domination sur les esprits des jeunes Athéniens, responsable, aux yeux de Socrate et de Platon, de la guerre civile que subit Athènes en cette période extrêmement difficile pour la grande Grèce et sa capitale.

Je vous tiens ces propos très généraux pour essayer d’inscrire la question des rapports entre la chose publique, la res publica, et le numérique dans la longue histoire des rapports entre la chose publique et la publication. Il n’y a pas de chose publique qui ne soit publiée, c’est ce qui constitue la chose comme étant publique. Il y a une très longue histoire de la publication « démocratique » ou « républicaine », c’est-à-dire accessible à tous les citoyens. Elle commence avec les Grecs.

D’ailleurs, Marcel Détienne, dans « Les Savoirs de l’écriture en Grèce ancienne » (1988), compare l’écriture à la télématique (le Web n’existe pas encore et je pense que Détienne ne connaît pas l’Internet bien qu’il existe déjà) développée par la France à partir de la fin des années 70. La France a eu une grande politique, au CNET (Centre national d'études des télécommunications), dans les années 70 : l’industrie du téléphone était en train de s’écrouler et le plan d’équipement de toute la France impulsé par Valéry Giscard d’Estaing arrivait à sa limite. Il fallait donc trouver de nouveaux projets industriels pour éviter les licenciements et maintenir cette activité industrielle. Un rapport, confié à Simon Nora et Alain Minc : « L’informatisation de la société » prescrivait un certain nombre de visions, engageant la puissance publique (notamment la direction générale des télécommunications) à investir dans l’image de synthèse (l’INA en a beaucoup profité), la télématique etc. Tout cela a abouti à une politique admirée dans le monde entier et prise en exemple par les Californiens qui, à cette époque-là, se demandaient comment faire évoluer l’Internet. C’est en 1989 que le CERN, s’appuyant sur ces expériences de serveurs et de messageries (qui étaient en fait des messageries roses : le pharmakon est toujours ce qui se développe dans tous les sens), a conçu le Web. Cette invention européenne a été livrée au domaine public en 1993 parce que les dix concepteurs de cette technologie – les deux principaux étant Tim Berners Lee et Robert Cailliau – ont considéré qu’en tant que fonctionnaires européens, payés par l’Union Européenne, ils ne pouvaient s’approprier ce travail.

À la même époque, en 1989, un jeune Américain, Al Gore, avait publié en tant que sénateur du Tennessee un rapport montrant que l’avenir de l’Amérique – qui allait très mal à cette époque-là – résidait dans le numérique. Ce futur vice-président des États-Unis s’empare de cette invention du Web… et l’Europe n’en fait rien. Aucune politique nationale, aucune politique internationale. Vingt-et-un ans plus tard, il nous reste nos yeux pour pleurer !

Je sors d’une réunion que j’ai organisée dans mon institut avec la grande presse, les grands éditeurs, l’audio-visuel public, quelques acteurs de la production audio-visuelle privée, avec des gens qui venaient d’Espagne (Prisma), de Belgique etc. pour déplorer l’effondrement de l’industrie éditoriale européenne, qui est en train de disparaître. Il n’y a pas que Libération qui ait des difficultés. À l’exception de Médiapart qui, dès l’origine, a été pensé comme un projet numérique de presse, tous les autres sont en très mauvaise posture. Et si rien de salvateur ne se passe dans les dix ans qui viennent, nous n’aurons plus d’industrie éditoriale, plus d’industrie culturelle. Cela veut dire que nous n’aurons plus d’universités, parce qu’une université sera demain un système éditorial. La politique des books mise en place aux États-Unis consiste à poser qu’une université doit publier, doit devenir éditrice. Elle doit publier dans de nouveaux formats et construire des prescriptions nouvelles de formats éditoriaux sur le Web et sur le numérique. Si, aujourd’hui, nous sommes en train de nous effondrer, c’est parce que nous ne pouvons plus avoir de politique industrielle et de recherche autonome depuis que l’Europe nous a imposé un certain nombre de prescriptions technocratiques, mais aussi idéologiques. Nous sommes désormais dans l’imitation d’un écosystème qui vient de Californie, auquel nous essayons de nous adapter, en nous soumettant aux modèles de Google, de Facebook et d’Amazon. C’est une catastrophe car se soumettre à ces modèles c’est intérioriser leurs standards et à un moment donné disparaître, être absorbés par eux.

Le numérique est une transformation absolument colossale, du même niveau que le taylorisme au début du XXème siècle ou que l’apparition de la machine à vapeur et de l’automatisation des machines-outils au début du XIXème siècle.

C’est également une transformation complète des savoirs.

Le Conseil national du numérique (CNN), dont je fais partie depuis deux ans et demi, vient de publier le rapport « Jules Ferry 3.0 ». Le titre n’est pas de moi mais, bien qu’il soit un peu métaphorique ou rhétorique, je ne le renie pas. Ce rapport avait été demandé par l’administration de Vincent Peillon qui, entre temps, a quitté le gouvernement, remplacé par Benoît Hamon qui a lui-même quitté le gouvernement… Nous avons eu trois ministres successifs. La commande initiale n’étant plus vraiment portée, le Conseil national du numérique s’est autosaisi, comme il en a le droit, de cette question du numérique à l’école.

Discutant de ces questions avec Vincent Peillon lorsqu’il était arrivé, je lui avais exposé ma position : si nous considérons que la rationalité s’acquiert, nous sommes des êtres rationnels en puissance. Mais il y a une rationalité apodictique qui correspond au canon géométrique depuis Thalès, au VIIème siècle avant JC. C’est sur cette base que l’académie Platon a été pensée et le système académique est toujours pensé sur cette base. Si nous pensons que nous devons agir rationnellement en nous conformant à des prescriptions le plus proches possible d’un raisonnement apodictique, c’est-à-dire d’une démonstration, alors, introduire le numérique à l’école, c’est commencer par l’introduire à l’université et, au sein de l’université, dans les écoles doctorales. On ne doit pas introduire dans l’école quelque chose qui n’a pas été rationnalisé, analysé, pensé, conçu et éventuellement transformé par l’approche rationnelle de la « faculté », des doctes, des savants. À cela, Vincent Peillon m’avait répondu : ce que vous dites est absolument rationnel mais impraticable parce que les enfants sont déjà dans le numérique, tous ont des smartphones, des iPad dans les poches.

Il avait raison, le numérique est partout aujourd’hui, surtout chez les enfants qui sont une cible privilégiée. La campagne de marketing de Noël dernier a fait la promotion des tablettes pour bébés. Et elles se sont massivement vendues : des tablettes pour enfants d’un an intégrées à des chaises pour bébé !

Cela pose quand même quelques problèmes. Je travaille avec des médecins américains qui, dès 2007, ont établi que la toxicité de la fréquentation des médias électroniques et de la télévision chez les enfants américains est absolument monstrueuse. Une étude parue l’année dernière fait apparaître, sans établir de relation de causalité, une corrélation étroite entre l’explosion de l’autisme dans les années 80 et l’explosion des chaînes de télévision s’intéressant aux enfants. Aujourd’hui énormément de gens travaillent sur ces questions. Ces technologies qui arrivent dans nos sociétés les transforment profondément. Elles ont des effets extrêmement profonds sur le développement psychique des enfants. Leur introduction à l’école est donc un peu problématique. En même temps, les enfants ont déjà des rapports à cette technologie parce que le marché, qui s’est substitué à l’État et à la puissance publique, prescrit les comportements.

Face à cela, il est très important de développer une « science » numérique. Il est très important que les historiens, les géographes, les psychologues, les linguistes, comme les mathématiciens, les informaticiens, les physiciens ou les biologistes, repensent le savoir à l’époque du numérique.

Aujourd’hui, on parle beaucoup de big data, c’est-à-dire de capacités de calcul absolument hallucinantes sur des milliards de données, simultanément, en temps réel. Cela pose de très gros problèmes pour la définition des objets astronomiques. L’Institut de Recherche et d’Innovation travaille avec le CEA sur l’effet du numérique sur la conception en planétologie. Il se trouve que j’ai beaucoup travaillé sur les instruments scientifiques. Vincent Minier, astrophysicien au CEA, est venu me parler il y a un an d’un projet de critique sur ces instruments numériques extraordinairement efficients mais qui, en même temps, créent des situations où la science ne sait plus comment conceptualiser et formaliser les résultats. C’est un problème qui se pose dans tous les domaines.

En statistiques, le big data est un problème fondamental qui concerne la République car la république moderne est une république de la statistique. Si les statistiques sont « explosées » par le numérique, le pouvoir politique l’est également. J’observe d’ailleurs que David Cameron confie à Facebook un rôle de production de statistiques pour la Grande-Bretagne : ce ne sont plus les instituts publics de Grande-Bretagne qui fournissent un certain nombre de données mais Facebook !

Il y a là des transformations considérables qui, pour s’opérer et se développer au bénéfice de tous, exigent que toutes les facultés (au sens d’institutions académiques) s’emparent de ces objets et forment de nouveaux docteurs, de nouveaux directeurs de recherche, de nouveaux professeurs et, finalement, de nouveaux professeurs des écoles. C’est le point de vue du CNN. Mais le numérique est là et nous ne pouvons attendre dix ans les résultats d’une telle politique pour agir. Aussi avons-nous mis en place une politique de recherche contributive qui doit permettre à des démarches de ce type de pénétrer très rapidement le milieu scolaire. Il s’agit de la recherche-action : les recherches de thèses se font sur des territoires des écoles, des collèges, des lycées, avec des professeurs, des éditeurs, des parents, des élus, des entrepreneurs etc.

C’est une question fondamentale : la République c’est d’abord le savoir. La République est à mes yeux une forme de communauté, apparue chez les Grecs, où le savoir rationnel, c’est-à-dire le savoir publiquement critiqué comme « chose publique », constitue le critère de décision de la puissance publique. Une république numérique ne peut donc être qu’une république du savoir numérique. Et elle doit développer des « sachants » et des savants numériques, non pas des informaticiens mais des géographes du numérique, des historiens du numérique, des linguistes du numérique etc.

Cela me paraît fondamental pour que l’Europe puisse reprendre la place qu’elle a abandonnée depuis vingt-et-un ans. Pour la reconquérir elle doit s’en donner les moyens, en mobilisant l’intelligence collective (les jeunes générations n’attendent que cela), en pratiquant les choses de façon rationnelle, avec des critères d’exigence qui ne soient pas ceux du marché (c’est-à-dire des sophistes).

Le problème est là : le marché, ce sont les sophistes. Grand admirateur de Protagoras (j’ai repris un texte de Protagoras dans ma thèse), je ne dirai pas, comme Platon, que les Sophistes sont des bandits. Ce n’est pas ce que disait Socrate dont Protagoras était le meilleur ami. Je dis simplement qu’on ne peut pas laisser les marchands s’auto-prescrire leurs comportements. Imaginez qu’à la place du numérique ou de l’écriture nous parlions de l’héroïne. Très utile dans les hôpitaux, la molécule d’héroïne est un très bon médicament. Mais si les pharmaciens distribuent librement l’héroïne, ce sont des dealers. Il ne faut donc pas laisser les sophistes décider à qui on distribue cette catégorie de molécules, de pharmakon, dont le numérique est un cas.

Le numérique est en train de poser un immense problème qui va nous obliger, que nous le voulions ou non, à répondre aux questions que je viens de poser et à bien d’autres que je n’imagine pas encore. Cette question, c’est l’automatisation. Le numérique est une technologie d’automatismes, les algorithmes sont des automates logiques qui permettent d’intégrer toutes sortes d’autres automatismes (cerveaux-mécanismes, circuits électriques… mais aussi nos propres automatismes) et d’en démultiplier la puissance. Une cellule vivante est un système automatique. Le vivant est un système de répétition qui fait des boucles automatisées. Les gènes qui nous sont transmis par la reproduction sexuée de notre espèce sont des automatismes (face à telle situation se déclenche automatiquement une réaction génétique). Nos comportements psychiques, tels que Freud les étudie au début du XXème siècle comme pulsions, sont des automatismes. On peut susciter des érections chez des hommes avec des images parce qu’on met en œuvre des processus automatiques. De même on peut provoquer des réactions d’agressivité dans certaines circonstances par des processus automatiques. J’ai serré la main à un certain nombre de personnes en arrivant tout à l’heure par un automatisme social. Si nous étions au Japon, personne ne se serait serré la main, car cet automatisme n’existe pas au Japon. Ces automatismes sociaux, psychiques et biologiques sont aujourd’hui articulés avec des automatismes technologiques et machiniques, via le numérique, parce que le numérique est capable de tracer tous nos automatismes biologiques, psychiques et sociaux. Facebook et tous les systèmes de captation de data sont des systèmes de description de ce type d’automatismes et de combinaison de ces automatismes à très grande échelle avec les fameux big data, ces systèmes de calculs intensifs qui permettent d’adresser des prescriptions à des comportements collectifs plus ou moins singuliers par des automates qui réagissent plus vite que nous : en moyenne, l’influx nerveux fait 40 mètres/seconde, il peut aller jusqu’à 100 mètres/seconde avec beaucoup d’entraînement par exemple chez le virtuose qui appuie sur une touche de piano. Mais sur une fibre optique, l’influx électrique, qui est d’ailleurs photonique, fait 200 000 kilomètres/seconde. C’est absolument incommensurable !

Ce n’est pas sans conséquences. Selon un article du Journal du dimanche de ce week-end, la France va perdre trois millions d’emplois dans les dix ans qui viennent. C’est un scénario optimiste. Le 19 juillet dernier, en Belgique, le journal Le soir a publié une autre étude de l’institut Bruegel (Brussels European and Global Economic Laboratory) qui annonçait que la Belgique allait perdre 50 % de ses emplois dans les dix ans qui viennent. Le département d’économie d’Oxford a fait une étude sur la nomenclature des 462 types de professions ou tâches recensées par le Bureau international du travail et a conclu qu’aux États-Unis, 47 % des emplois sont menacés de disparition dans les dix ans qui viennent. Le 13 mars dernier, à Washington, Bill Gates, a annoncé devant un parterre d’entrepreneurs que dans les vingt ans qui viennent, avec la numérisation, l’automatisation généralisée aura détruit tous les emplois.

Faut-il aller jusque-là ? Je ne sais pas. Georges Friedmann avait publié en 1950 un livre très important qui mérite d’être relu, « Où va le travail humain ? », que Dominique Méda a partiellement repris dans son dernier livre « Réinventer le travail ». Selon elle, le Marx intéressant n’est pas dans « Le Capital » mais dans les « Grundrisse ». C’est le Marx de 1857 qui fait une hypothèse très théorique (qu’il n’a pas reprise à Manchester) : si on poursuit logiquement tout ce qui se passe, les automates vont tout prendre en charge, donc le travail va disparaître. À ce moment-là il va falloir réinventer un autre travail tout à fait différent, qui n’est pas salarié, qui est fait pour le plaisir : « le travail libéré ».

Face au développement de la société numérique, qui sera de plus en plus une société automatique, il est fondamental pour l’Europe de prendre en charge dès maintenant différents aspects :

Il faut reconstruire une politique industrielle française et européenne qui n’existe plus. Il ne subsiste aujourd’hui qu’un lobbying industriel auprès du ministère de l’Industrie pour l’inciter à agir dans le sens des intérêts des grands groupes et non des PME qui en auraient tellement besoin. Ce n’est pas ainsi qu’on fait une politique industrielle.

Pendant que j’étais directeur de l’INA, où j’avais, avec le service des études, la responsabilité d’observer la vie industrielle planétaire, le 3 avril 1997, aux États-Unis, la FCC (Federal Communications Commission) a annoncé qu’en 2003 les stations analogiques disparaîtraient et qu’en 2006 les fréquences seraient rendues à l’armée. Cela a produit entre 1997 et 2003 une explosion de l’initiative économique pour développer des industries numériques destinées à l’audiovisuel – si important aux États-Unis – et une effervescence d’investissements, notamment dans la Silicon Valley. Cela s’appuyait sur une politique des années 1950, portée par l’armée américaine, d’intégration du numérique et de l’informatique dans les processus contemporains, à travers une politique de recherche militaire mais avec des processus de transfert extrêmement raisonnés vers l’industrie, donc le civil. Lorsque la DARPA (Defense Advanced Research Projects Agency) a créé ARPAnet (Advanced Research Projects Agency Network), elle a commencé dès les années 70 à y intégrer les universités de Stanford etc. (moi-même j’étais sur Internet dans les années 1980 à l’université de Compiègne). C’était une politique d’intégration de la recherche fondamentale portée par les militaires avec le monde universitaire et, finalement, un transfert vers le monde économique.

C’est ce que nous n’avons pas fait, c’est ce que nous avons cessé de faire depuis les années 70 parce qu’une fable s’était répandue selon laquelle c’est le marché qui doit prescrire la recherche. Le marché, totalement mimétique, est anti-recherche, il ne s’intéresse qu’à ce dont il connaît les retours sur investissement. Certes il y a des entrepreneurs qui ne sont pas des « marchands » mais des ingénieurs, des gens qui portent des projets industriels et qui croient à quelque chose. Dans « L’éthique protestante ou l’esprit du capitalisme », Max Weber expose qu’à l’origine du capitalisme il y a d’abord des gens qui veulent changer le monde et qui, certes, veulent gagner de l’argent, mais ce n’est pas le marché qui au départ conduit le capitalisme. Aujourd’hui nous croyons que Google est sorti de la capacité extraordinaire qu’a Stanford de créer des PME. Mais Google, à la fin des années 90, est le résultat de la rencontre entre un théoricien de Stanford, deux étudiants brillants et quarante ans d’investissements de l’armée américaine dans la bibliométrie, la scientométrie, les technologies de l’information etc. Herbert Schiller, professeur à San Diego, a montré que les pouvoirs publics américains avaient investi en vingt ans mille milliards de dollars dans le multimédia. C’est pourquoi, en 1997, le vice-président de Microsoft s’était déplacé pour annoncer à tous les patrons de l’audiovisuel européen que désormais Microsoft était leur interlocuteur, et non plus Sony, et non plus l’industrie de l’audiovisuel.

Il faut beaucoup d’investissement public. Il y a eu une catastrophe économique en 2008, on a redonné beaucoup d’argent aux banques sans leur imposer la moindre condition de refinancement alors que c’eût été l’occasion rêvée de les obliger à reconstituer un projet et un programme de recherche fondamentale dans ces domaines.

Il faut une politique industrielle. Il faut la reconstruire. Nous avons encore en Europe, en Allemagne, en France, en Angleterre, les meilleurs mathématiciens en mathématiques appliquées, de très bons spécialistes des télécommunications. Presque tous les standards qui se sont imposés au niveau mondial sont sortis du CNET (Centre national d'études des télécommunications), à Issy-les-Moulineaux. Les réseaux ATM (Asynchronous Transfer Mode), le système de téléphone cellulaire, d’innombrables standards de ce type et le Web sont des productions européennes qui ont été exploitées par les États-Unis. Nous avons donc les moyens de développer ces technologies.

Pour les développer, pour avoir une grande politique industrielle, il faut avoir une grande politique de recherche fondamentale.

Une politique industrielle, c’est une politique économique, c’est de la recherche appliquée. Mais celle-ci suppose une recherche fondamentale, c’est-à-dire une politique scientifique. Il faut reconstruire une politique scientifique. La grandeur de la France et de l’Europe fut d’être le continent d’une politique scientifique. La France (le modèle napoléonien) et l’Allemagne (l’université de Berlin) ont été en compétition et ont été un modèle pour le monde entier dans ce processus. C’était ce qui constituait la chose publique, la res publica.

Le numérique aujourd’hui redistribue complètement les cartes, comme l’imprimerie les avait redistribuées autrefois et avait été à l’origine de la République des Lettres, la République des savants. Il est aujourd’hui fondamental de reconstruire un programme dans ce domaine. Mais pour cela il faut faire face à l’incroyable défi économique qui se présente à nous avec les trois millions de chômeurs qui vont s’ajouter dans les dix ans qui viennent à la masse des chômeurs existants. C’est l’effondrement du système économique tel que nous le connaissons depuis le début du XXème siècle, qui fonctionne sur la base d’une organisation du rapport entre production et consommation telle que, en tant que producteur, j’acquiers un pouvoir d’achat qui me donne un statut de consommateur et je peux faire tourner la machine. Aujourd’hui on n’a plus besoin des producteurs. Mercedes a supprimé les ouvriers dans la production des moteurs depuis longtemps. Une usine modèle tourne déjà depuis une bonne dizaine d’années à côté de Munich. Actuellement c’est toute l’industrie et tous les services qui sont en train de se robotiser. Dans un numéro récent de Libération, Laurent Alexandre, un chirurgien, disait que les chirurgiens étaient les plus menacés à court-terme parce que les robots sont beaucoup plus sûrs que les praticiens. Une entreprise spécialisée dans l’opération de la prostate a été capitalisée très haut à Wall Street. C’est en train de s’imposer. Les choses vont extrêmement vite. Les premiers à être touchés seront les chirurgiens, puis les lawyers etc. Toutes les professions, y compris les professions intellectuelles, sont touchées, et non pas simplement la manutention comme on l’a cru pendant longtemps.

Il y a à concevoir un nouveau projet social qui repose sur la valorisation du travail libre, du « travail libéré » (selon l’expression de Marx dans les Grundrisse). Les gens qui travaillent pour Wikipédia – j’en connais beaucoup – le font pour l’amour de l’art, la beauté du geste, pour le plaisir de faire quelque chose d’intéressant, d’intelligent. Ils ne le font pas pour gagner de l’argent puisque ce n’est pas rémunéré. Il va falloir payer ces gens. En effet, pour que la production des robots soit vendue, il faut que les gens aient une capacité d’achat.

Ars industrialis préconise la généralisation du statut des intermittents du spectacle, un système qui consiste en un financement du développement des capacités des gens, conditionné à la mise en œuvre de leur capacité sociale dans la puissance publique, les associations, la production d’entreprise, ou un travail économique tout à fait classique. Nous pensons qu’il faut inventer quelque chose de ce type-là, tout à fait nouveau, qui n’a rien à voir avec le revenu minimum d’existence aussi appelé revenu minimum garanti, lequel n’est pas dynamique. Nous préconisons un processus dynamique conçu à partir du modèle de l’intermittence, ce qui ne veut pas dire qu’il faut respecter ce modèle à la lettre. Nous pensons que c’est la seule issue pour que l’intelligence collective s’empare de l’automatisation.

L’automatisation est ce qui permet de gagner du temps. Soit ce temps libéré va se nourrir à la politique de TF1 du « temps de cerveau disponible », qui fait baisser un peu plus le niveau de capacité cérébrale (production d’incapacitation), soit on décide de développer, à travers une politique de l’éducation nationale, une politique de citoyenneté, l’augmentation de la capacitation dont nous avons absolument besoin. En effet, la planète est confrontée à des défis qui, a priori, sur le papier, semblent insolubles : si l’on s’en tient à l’état des choses et que l’on prolonge les courbes, c’est la catastrophe absolue à très court terme, ce dont tout le monde est d’ailleurs convaincu, ce qui fait que tout le monde est déprimé, que plus personne n’investit et que la spirale du pire s’aggrave.

Il y a un formidable enjeu : la néguentropie. Aujourd’hui, l’industrie, au sens très large, l’industrie des services autant que l’industrie tout court, est devenue productrice d’entropie, sous forme de CO2, sous forme de standardisation des comportements et de big data. C’est très grave. Ce qui fait qu’une société est intelligente, c’est-à-dire capable de se complexifier et de tolérer sa propre complexité en se donnant un avenir, c’est l’intelligence collective. Or aujourd’hui notre technologie ne produit pas d’intelligence, elle met de l’intelligence dans des machines. Chris Anderson, gourou californien du numérique, rédacteur en chef de Wired (la grande revue américaine qui donne le « la » à toute l’industrie américaine) a publié en juin 2008 un article intitulé The End of Theory sur le fonctionnement de Google : des systèmes de requête extrêmement efficaces permettent de trouver ce qu’on cherche en quelque 0,06 seconde, en Chine, au cœur de l’Amazonie, n’importe où. Un traducteur automatique chinois-français, par exemple, permet, même si la traduction vaut ce qu’elle vaut, de comprendre le contenu d’un message reçu en chinois. C’est formidable. Chris Anderson ajoute qu’il n’y a pas de linguiste chez Google, personne ne parle chinois. Les traducteurs, qui travaillent sur les big data, sont capables à la vitesse de la lumière de scanner les comportements de deux milliards d’internautes et, à travers ces processus, d’identifier par les mathématiques appliquées des processus de régularité et, par des statistiques probabilitaires et des chaînes de Markov, de trouver finalement des traductions qui correspondent à peu près à l’état de fait des pratiques internationales de la planète. Anderson en déduit qu’il n’est plus nécessaire de former des linguistes. Pourquoi gaspiller de l’argent à former des linguistes ? Les mathématique appliquées, les data scientists (professionnels de la gestion et de l’analyse du Big data) sont beaucoup plus efficaces. Il fait le même constat concernant la santé : Google a fait beaucoup mieux et plus rapidement que l’OMS lors de la fameuse épidémie de grippe qui menaçait le monde. Pourquoi payer des biologistes et des médecins ? Pourquoi ne pas tout transformer en savoirs, des mathématiques appliquées à la biologie, aux langues etc. ?

La réponse – et la contradiction – a été apportée à Chris Anderson par quelqu’un qui n’en avait d’ailleurs pas l’intention et n’avait peut-être pas lu cet article : Alan Greenspan, convoqué au Sénat à Washington le 23 octobre 2008, a été sommé d’expliquer les raisons pour lesquelles il avait laissé s’installer un ensemble d’instruments financiers ultra-spéculatifs et extrêmement dangereux qui avaient produit une insolvabilité planétaire, sans parler du scandale de Bernard Madoff, ancien patron du Nasdaq (National Association of Securities Dealers Automated Quotations), et tant d’autres choses (Lehman Brothers qu’il n’a pas soutenue etc.). Le système de défense d’Alan Greenspan consista à prétendre qu’il n’avait fait qu’appliquer les recommandations de plusieurs prix Nobel d’économie : tous les agents ont un comportement rationnel qu’il faut être capable de calculer et ce calcul automatisé va permettre de produire un système vertueux. Alan Greenspan a reconnu qu’il aurait fallu faire une critique de tout cela, en élaborer la théorie. Autrement dit, Greenspan a plaidé pour une capacité de désautomatisation de ces processus.

Nous avons devant nous tous ces défis à résoudre. La résolution de ces défis est tout à fait possible à la condition de « prendre par les cornes le taureau numérique » et de réélaborer une vraie politique publique, une vraie citoyenneté, par une vraie politique scientifique. Nous n’avons pas beaucoup de temps pour le faire et si nous ne le faisons pas nous serons confrontés à la déferlante de l’automatisation qui est en train de s’étendre dans le monde entier.