LE FIL DES PAGES

15 février 2012

Sur « Humain – Une enquête philosophique sur ces révolutions qui changent nos vies », de M. Atlan et R-P. Droit (Flammarion, 2012)

Filed under: Démocratie,Homme,Internet,Sciences — Auteur @ 10 h 01 min
Tags: , ,

Monique Atlan, Roger-Pol Droit : Humain – Une enquête philosophique sur ces révolutions qui changent nos vies (Flammarion, 2012)

 

Ce bref compte rendu d’un excellent ouvrage de vulgarisation (une introduction non seulement aux recherches scientifiques sur l’homme mais aussi aux débats philosophiques qu’elles font naître) est délibérément partiel. Il ne retient du long et riche exposé que ce qui concerne les rapports de ces révolutions scientifiques et techniques « qui changent nos vies » avec la politique démocratique (ce qui est loin de constituer l’essentiel de l’ouvrage, même si la question est abordée de manière récurrente). Je laisse par exemple de côté tout ce qui, dans l’ouvrage, concerne les débats scientifiques proprement dits (entre la psychanalyse et les neurosciences, par exemple, ou au sein de ces dernières), ou encore les débats philosophiques (autour de la nature de la conscience, avec les interviews de David Chalmers, par exemple), ou les différentes approches sur les rapports de la philosophie et de la science (dans le chapitre sur le cerveau, avec les interviews de M. Canto-Sperber et Francis Wolff, par exemple).

Ce compte rendu est complété par quelques remarques, questions et suggestions personnelles.

                                                  

                                                  * * *

 

L’ouvrage est né du constat d’un « étrange hiatus entre les mutations scientifiques et techniques innombrables de notre époque et la réflexion sur l’homme ». Ce constat est triple : les sciences et techniques semblent pour la première fois en mesure de transformer radicalement l’homme ; la question de l’humain (sa nature, ses limites) est partout présente dans les réflexions des chercheurs scientifiques (des décisions pratiques en dépendent, parfois des politiques : on ne prendra pas les mêmes décisions, par exemple, selon que l’on pense l’homme comme radicalement distinct de l’animal ou non) ; enfin, les philosophes ont, pour la plupart, déserté ce terrain.

Afin de réinvestir ce champ, les auteurs prennent comme guide la question suivante : les techniques en question signifient-elles une évolution de l’homme ou une rupture avec ce qu’a été jusqu’ici l’homme ?

L’objectif de cette réflexion est de permettre à l’homme de choisir, à l’avenir, ce qu’il voudra être. On remarquera que s’assigner un tel objectif suppose déjà un choix philosophique : l’homme a une essence, ou une condition (peu importe le terme), qui est de choisir librement, et il ne doit pas la perdre (c’est ce que rappelle F. Fukuyama dans l’ouvrage, lorsqu’il affirme que tout notre ordre politique démocratique repose sur une définition de l’homme comme être libre et responsable, et c’est aussi ce que dit, à la fin du livre, J. Habermas). À de multiples reprises émerge dans l’ouvrage l’idée qu’il y a une essence de l’homme de laquelle nous ne pouvons ni ne devons nous déprendre (à propos du temps numérique sans avenir ni passé, les auteurs rappellent que sans un temps ouvert sur ces deux dimensions « l’humain risque de se perdre » ; et ils se demandent constamment « quel visage de l’humain nous paraît préférable, ou inacceptable ? »). Plus largement – et cette remarque est loin de constituer à mes yeux une critique – les choix philosophiques des auteurs percent à de multiples reprises (j’y reviendrai en conclusion), ne serait-ce que dans leur décision d’inclure dans leur enquête les « sciences de l’homme » (au sens restreint de ce terme : anthropologie, psychanalyse, etc.), choix qui repose sur une critique, explicite, de tout réductionnisme (par exemple celui, assez fréquent, d’une approche purement biologique de l’homme).

 

L’enquête prend la forme d’un voyage (au sens figuré comme au sens propre) passionnant, au cours duquel les auteurs rendent visitent à un grand nombre de scientifiques, techniciens et philosophes parties prenantes de ces révolutions (des spécialistes de tous les domaines du savoir contemporain : biologie, neurosciences, intelligence artificielle, informatique, économie, anthropologie, psychanalyse, etc.). Les deux auteurs, qui rapportent leurs propos tout en les commentant et en les situant dans leur contexte historique (grâce à  d’utiles rappels d’histoire des sciences, des techniques et de la philosophie) présentent aussi leurs propres perspectives, discrètement (car ils entendent laisser le lecteur se forger une opinion) mais, à la fin de l’ouvrage en particulier, clairement.

 

Ce qui frappe dans les multiples réponses de cette enquête, c’est la diversité de celles-ci, diversité que les auteurs tiennent à respecter. Techniciens, scientifiques et philosophes divergent à la fois sur l’ampleur de la révolution en question (Henri Atlan, par exemple, nous ramène sur terre en estimant qu’aucun changement radical de l’homme ne s’annonce, qu’il s’agit simplement de lui adjoindre de puissantes prothèses – et le point de vue de l’anthropologue Françoise Héritier n’est pas très différent) et sur la valeur qu’il convient de lui reconnaître : les réponses, sur ce dernier point, vont des espoirs techno-millénaristes (Rey Kurtzweil, par exemple) jusqu’aux craintes et prédictions apocalyptiques (proches de celles exprimées dans les romans de science-fiction), en passant par des réponses plus sobres, plus sceptiques ou plus nuancées (Étienne Klein, par exemple, reconnaît que la frontière entre changer les conditions de vie de l’homme et transformer l’homme est désormais floue, puisque les techniques nouvelles pourraient « changer les rapports à la vie, à la mort et à autrui, c’est-à-dire à la condition humaine » – ce qui, notons-le, revient quand même à affirmer qu’il y a une condition humaine qui se définit par la vie, la mort, autrui… même si le rapport à ces dimensions de la condition humaine est historiquement variable !).

Sans prendre une position trop tranchée, les auteurs de l’ouvrage soulignent quand même que des courants comme le transhumanisme sont à la frontière de la science et de la religion, et ne font souvent que réactualiser des mythes ancestraux (création d’un homme immortel, etc.). M. Atlan et R-P. Droit adoptent une position équilibrée (par exemple dans le très intéressant chapitre consacré à Internet et à la culture numérique), refusant de céder aux craintes ou espoirs délirants de certains de leurs interlocuteurs (américains, pour l’essentiel – il est remarquable de voir à quel point les chercheurs européens cultivent un rationalisme plus sobre parce que plus critique), sans pour autant sous-estimer l’ampleur des « révolutions » en cours (dont certaines peuvent modifier, effectivement, l’essence de l’homme).

Un des intérêts de ce livre, pour résumer ce premier volet, est de donner un sens un peu plus précis, par des recherches empiriques et un travail de clarification conceptuelle, à cette expression de « révolutions qui changent nos vies » –qui peut signifier aussi bien un changement dans le cadre de l’essence ou de la condition humaine qu’un changement de celle-ci (distinction que les auteurs reprennent en se référant à celle, kantienne, des bornes et des limites). Qu’il n’y ait pas de réponse définitive à la question de savoir quelles sont l’ampleur et la valeur de ces révolutions, que les réponses varient selon les auteurs et aussi selon le domaine de l’activité humaine envisagé, n’a rien de surprenant.

Un dernier point : il me semble que l’on peut faire, en lisant l’ouvrage, une distinction entre des discours purement idéologiques (qui poursuivent une chimère comme l’immortalité, ou la société définitivement harmonieuse que produirait une radicale transformation biologique de l’homme par lui-même) et des discours techniques, scientifiques et philosophiques plus prudents (qui attirent l’attention sur des transformations possibles de l’homme, et pas seulement dans l’homme, soit pour les faire advenir soit pour les contrecarrer). Les auteurs ne font pas cette distinction (et on comprend pourquoi : même les discours les plus fous pourraient déboucher sur une pratique modifiant radicalement l’homme), mais il me semble qu’elle est présente dans l’ouvrage. Les auteurs, discrètement, prennent souvent une certaine distance par rapport à ces discours les plus idéologiques, relativisant ainsi les espoirs millénaristes et les craintes apocalyptiques, pour prendre appui sur des scientifiques, techniciens et philosophes qui mettent en évidence des promesses et des menaces bien réelles.

 

                                                        *  *  *

 

Certaines parties de l’ouvrage abordent, plus ou moins directement, la question des rapports de ces « révolutions » scientifiques et techniques (si vraiment de révolutions il s’agit, ce qui on l’a vu fait objet de débats) à la sphère politique. Je ne retiens que deux dimensions de cette question. La seconde est explicitement envisagée par les auteurs, alors que la première (qui s’appuie sur la distinction que je viens de faire entre deux types de discours sur les « révolutions » en question) me semble suscitée par la lecture de l’ouvrage. (Je laisse délibérément de côté les pages très intéressantes que les auteurs consacrent aux effets politiques contradictoires d’Internet, dans son rapport à la démocratie, dans la mesure où ce débat est aujourd’hui bien connu – ce qui ne signifie pas que le lecteur ne trouvera pas matière à penser dans ces pages).

 

1) Comment comprendre ce fait, sur lequel insistent les auteurs, qu’est l’étroite imbrication, aux U.S.A surtout, des recherches scientifiques et techniques, avec leurs puissants appuis dans l’appareil d’État et l’appareil militaire, et des mythologies techno-millénaristes, souvent voisines de celles développées par les sectes, par exemple les courants transhumanistes (dont certains représentants sont proches des sphères du pouvoir américain) ? Les auteurs ne posent pas explicitement cette question, que l’on pourrait poser. S’agit-il là d’une inévitable impureté, nécessaire à la recherche scientifique (impureté qui a toujours existé, si l’on pense aux développements religieux qui ont accompagné la naissance de la science moderne, chez Newton par exemple), d’un échafaudage idéologique ayant une fonction heuristique ? C’est ce que pense par exemple J.C. Milner, à la fin de l’ouvrage : « la recherche scientifique, pour fonctionner, doit sans cesse recevoir des sortes d’injections imaginaires ; cette dimension de délire accompagne la science depuis le début ». Ou s’agit-il d’une illusion, proche de celle qui a été développée au XXe siècle par les pouvoirs totalitaires (qui voulaient tous « créer un homme nouveau »), illusion qui toucherait aussi les sociétés et les pouvoirs démocratiques ?

Il est à remarquer que cette idéologie techno-millénariste relève d’une pensée technocratique, mais que celle-ci, comme en témoignent de nombreux interviews du livre, ne prend pas la forme traditionnelle de la croyance en la maîtrise de l’histoire par une élite possédant le savoir technique et scientifique, mais la forme nouvelle d’une croyance en un progrès de l’humanité découlant de manière immanente de l’auto-développement des techniques (il s’ensuit que cette forme de technocratie peut avoir un caractère anti-élitiste, anti-hiérarchique). On pourrait parler de déterminisme technique pour caractériser cette idéologie, différente de l’idéologie technocratique du XIXe (celle de Comte et d’autres) et du XXe siècle (le dirigisme, la planification). Un exemple de ce déterminisme est donné dans l’ouvrage par Gérard Berry, qui réfute l’interprétation déterministe qui est souvent donnée de la « loi de Moore » (la croissance de la puissance des ordinateurs irait à l’infini) pour rappeler ce qu’a dit véritablement Moore (le nombre de transistors par unité de surface va doubler pendant deux ans pendant une période indéterminée, et, comme le dit Berry, « ce doublement dépend de nous, pas de la nature »).

Si certains des discours sur « les révolutions qui changent notre vie » relèvent bien d’une illusion de ce type, comment expliquer le fait que les démocraties, où le débat est censé éliminer les arguments insuffisants et les bouffées irrationnelles, a fortiori dans le domaine de la recherche scientifique, engendrent de telles mythologies et une telle croyance dans le déterminisme de la technique ? S’agit-il simplement d’une conséquence de la liberté de la recherche (qui n’aurait pas d’effets négatifs, ces scories provisoires finissant par s’éliminer) ou d’une insuffisance des démocraties ? Et peut-être d’une insuffisance de la manière dont elles organisent la recherche scientifique, comme le remarque J. Habermas à la fin de l’ouvrage (« tout cela a lieu en dehors de toute publicité, au sein d’entreprises privées »).

Pour étayer cette dernière hypothèse, une question posée par les auteurs me paraît précieuse : ces utopies technologiques ne seraient-elles pas des substituts de la politique, ayant leur origine dans une incapacité à penser en termes véritablement politiques la transformation des sociétés humaines, qui se voit alors confiée au devenir autonome de la technique ? Il se pourrait bien que les croyances millénaristes et le déterminisme technique aient leur origine dans les insuffisances de notre pratique politique démocratique.

 

2) Un deuxième problème politique est celui de savoir, une fois écartés les discours mythologiques, si et comment les sociétés démocratiques peuvent réguler l’usage de ces techniques, lorsqu’elles débouchent sur une transformation dans (et surtout de) l’homme qui ne nous paraît pas acceptable. Dans son interview passionnante, F. Fukuyama insiste sur le danger technocratique qui guette, sur les nouvelles possibilités d’ingénierie sociale ouvertes par ces techniques (régulations de l’humeur par les drogues, voire possibilité d’effacer la mémoire d’un individu, etc.), et ces menaces ne sont pas, cette fois, de vains fantasmes, elles sont bien réelles. Même les transformations dans et de l’homme que l’on s’accorderait à trouver positives posent des questions, celle par exemple de savoir si chacun pourra avoir accès à ces modifications (on pourrait envisager, à la limite, deux humanités, si l’expression a encore un sens, ayant divergé génétiquement ou d’une autre manière). Les Européens, dans l’ouvrage, sont visiblement plus sensibles à ces questions que les Américains (du moins que les chercheurs américains).

 

Les sociétés démocratiques peuvent-elles réguler l’usage de ces techniques, et comment ?

Une première réponse consisterait à dire qu’il n’y a aucune régulation démocratique possible. Cette réponse ne se confond pas avec la croyance déterministe en la technique, dont nous avons parlé plus haut. Elle reviendrait simplement à constater un changement inéluctable, une révolution déjà en cours dans ou de la condition de l’homme. Certaines évolutions du monde contemporain peuvent nous conduire à adopter une telle réponse. À propos du temps numérique contemporain (dans le prolongement d’une interview de François Hartog), les auteurs écrivent ceci : « la tentation d’en finir avec le temps par le triomphe du numérique ne constitue pas véritablement un projet explicite, organisé, planifié », c’est une tendance qui « travaille indiscutablement le grand chantier du monde actuel ». On voit mal, si elle n’est pas un projet explicite, comment un projet humain pourrait alors la réguler. Il en va de même de la globalisation de l’économie, ou encore de l’urbanisation, aux conséquences anthropologiques importantes, dont les auteurs nous disent qu’elle consiste en processus « plutôt subis que construits, plutôt rencontrés que voulus ». C’est pourquoi les auteurs ont raison de poser la question suivante : « sur les mutations en cours, quel est notre pouvoir d’agir ? ».

On pourrait, à partir de ces remarques, aller au-delà de ce qu’affirment les auteurs, en suggérant qu’on ne peut pas exclure a priori que nous n’ayons aucune prise sur certaines des « révolutions » que nous vivons. C’est bien dans ce sens qu’allait, par exemple, M. Heidegger, dans ses écrits sur la technique (et peut-être Sloterdijk, si je comprends bien les propos de cet auteur, qui ici comme ailleurs ne brillent pas par leur clarté). Ou bien l’on pourrait suggérer encore que si certains processus de changement radical de l’humanité sont déjà en cours, il pourrait ne plus y avoir de moyen de les contrecarrer (une telle réponse devrait toutefois expliquer pourquoi l’auteur d’une telle affirmation, lui, échapperait, par la conscience qu’il en a, à cette transformation – ce qui rend l’hypothèse assez fragile).

Une deuxième réponse consiste à affirmer que la plupart de ces « révolutions » sont susceptibles de régulation, sous différentes formes. On peut en effet  fort bien refuser la première réponse et soutenir, comme le fait R. Sennett dans l’ouvrage, que « la science et la technique ne constituent pas une force autonome qui fait faire aux gens ce qu’elle veut ».

Au sein de cette deuxième réponse, une divergence nette apparaît entre ceux qui font confiance à une auto-régulation de la communauté scientifique (par exemple par l’open source, qui pourrait permettre d’éviter les dérives terroristes ou totalitaires,, ceux qui misent sur des comités réunissant scientifiques et « humanistes » et ceux qui insistent sur la régulation démocratique par les élus du peuple. René Frydman, par exemple, va dans cette dernière direction, en proclamant sa confiance et son espoir « dans la responsabilité et maturité des citoyens comme des institutions ; la démocratie, en ce domaine, fonctionne » ; la même idée est formulée par J. Habermas : « c’est finalement une affaire qui relève de la formation de la volonté démocratique, à condition que règne le pluralisme idéologique ».

On peut ajouter que des formules combinant les trois types de régulation sont évidemment possibles…

 

                                                      * * *

 

Je reviens, en guise de conclusion, sur la définition de l’homme que les auteurs, à la fin de l’ouvrage, me semblent assumer de plus en plus explicitement. Renvoyant dos à dos le naturalisme (qui résorbe l’homme dans la nature) et l’anti-naturalisme (qui le pense comme un empire dans un empire), ils insistent sur l’inscription de l’homme dans la nature et la spécificité de son rapport à celle-ci, qui empêche d’en faire un animal parmi d’autres : « estomper les frontières entre monde humain et monde naturel, sans pour autant – c’est là le point essentiel – abandonner cette part d’intervention intelligente et d’activité inventive qui signale notre espèce ». Les auteurs prennent appui sur divers philosophes pour étayer cette définition de l’homme, en particulier sur la distinction que fait G. Canguilhem entre la nature comme milieu (pour l’animal) et comme environnement (pour l’homme).

C’est à partir d’une telle définition qu’ils peuvent accepter, sans le moindre dogmatisme, un discours normatif. Si l’homme est bien cela, toute modification radicale de son essence qui le ramènerait à l’animal (ou à un être d’un type inimaginable) peut et doit être refusée, comme le pensent de nombreux auteurs à la fin de l’ouvrage. Une telle attitude ne se confond aucunement avec le rejet des transformations bénéfiques dans le cadre de l’essence de l’homme (et non de cette essence). Les auteurs ne me paraissent pas très loin de la position formulée avec clarté par le philosophe belge G. Hottois (dans Le signe et la technique) : nous devons refuser les modifications radicales de l’homme, dont le critère est le suivant : elles remettent en cause ce qu’il nomme son éthicité, c’est-à-dire sa capacité à faire des choix libres et d’être responsables de ces choix (c’est ce que dit, dans un autre langage, C. Jamblet, à la fin de l’ouvrage : la singularité de l’homme est « sa capacité à instaurer des normes »). Au-delà des fantasmes techno-millénaristes, il semble bien que certaines techniques actuelles puissent bien menacer cette éthicité de l’homme. Comme le dit R. Brague, à la fin du livre, notre responsabilité est aujourd’hui radicale, parce que le projet de la modernité scientifique donne à l’humanité la possibilité inédite de prendre en main la totalité de son destin, « de décider à présent de sa propre légitimité, des raisons qu’elle a de vivre, au sens très concret de donner la vie, ou éventuellement de disparaître ».

Cela ne doit pas nous conduire à rejeter les multiples innovations techniques bénéfiques qui repoussent, pour reprendre la distinction kantienne, les bornes de la condition humaine, sans toucher à ses limites constitutives. En résumant un entretien avec G. Hansel, les auteurs concluent en évoquant « cette attitude qui se refuse à diaboliser la science ou à la sacraliser, qui ne voit pas immanquablement la connaissance scientifique comme une menace d’apocalypse et de cataclysme, mais qui ne s’interdit pas pour autant de juger ni de refuser – au cas par cas – selon des principes éthiques, telle ou telle innovation et qui rappelle enfin que la responsabilité demeure nôtre, entièrement ».

Une dernière remarque : la sympathie dont font constamment preuve les deux auteurs envers leurs interlocuteurs (qui n’exclut pas le regard critique), l’attention à l’individualité de chacun de ceux, techniciens, scientifiques ou philosophes avec lesquels ils s’entretiennent, rendent ce livre particulièrement agréable à lire et véritablement attachant.

 

Publicités

11 novembre 2011

28 octobre 2011

Sur « Pour un humanisme numérique », de Milad Doueihi (Seuil, 2011)

Filed under: culture numérique,Internet — Auteur @ 13 h 57 min
Tags: ,

Milad Doueihi : Pour un humanisme numérique (Seuil, 2011)

 

S’agissant de la culture numérique, il existe quelques livres écrits par des lettrés ignorant à peu tout des techniques sur lesquelles ils s’aventurent à porter des jugements aussi hasardeux que péremptoires. Il existe aussi quantité d’ouvrages écrits par des spécialistes d’Internet qui n’ont pas la moindre idée de la culture classique à laquelle ils opposent mécaniquement la culture numérique. Milad Doueihi (titulaire de la Chaire de recherche sur les cultures numériques à l’Université Laval, Québec) fait partie d’une espèce rare, celle des lettrés qui, parce qu’ils ont fait l’effort d’étudier les techniques numériques, savent de quoi ils parlent quand ils avancent le concept de culture numérique.

Cette dernière expression ne va pas de soi. Milad Dehoui s’attache à montrer qu’elle a un sens. Les techniques numériques, en tant qu’elles constituent un lieu de sociabilité, sont, comme toute grande innovation technique, inséparables d’une culture (et d’une culture qui ne réduit pas à ce que certains lettrés nomment avec condescendance « civilisation technique »). L’auteur désigne par « humanisme théorique » les rapports complexes de cette technique-culture avec la culture héritée du passé, celle qui a régné jusqu’à une époque récente : « L’humanisme numérique… est le résultat d’une convergence entre notre héritage culturel complexe et une technique devenue un lieu de sociabilité sans précédent » (9).

Parler de convergence ne suffit pas. Encore faut-il montrer en quoi elle consiste précisément : une réinterprétation des catégories, objets et comportements hérités de l’antiquité et des Lumières. L’ouvrage s’attache à mettre en évidence quelques-unes de ces réinterprétations, en partant de ce fait fondamental, technique et culturel à la fois, qu’est le passage de l’informatique (le calcul) au numérique (un ensemble de techniques modifiant fortement l’écriture, la communication, l’échange, le savoir, la sociabilité). Les quatre chapitres qui suivent le chapitre introductif étudient certaines de ces réinterprétations (« les liens de l’amitié », la « culture anthologique », « l’oubli de l’oubli » et « l’index et le visage »).

Le lecteur, avant même de découvrir chacun de ces chapitres (et tout particulièrement celui sur la « culture anthologique », qui présente un ensemble d’analyse très fines et très originales), sera sans doute frappé, comme je l’ai été, par la manière dont Milad Doueihi, dans ce livre exigeant (parfois même difficile) réussit à nous faire voir ce que nous avons sous les yeux et que nous ne voyons pas. L’ouvrage suscite l’étonnement, au sens que les philosophes ont donné à ce mot. Qui d’entre nous, pour ne prendre que cet exemple, s’est déjà émerveillé, en transformant une image avec ses doigts sur son Iphone ou son Ipad, de cette convergence nouvelle de l’œil et de la main ? Il faut connaître le statut de l’image dans la culture classique, et être capable de le comparer avec nos pratiques nouvelles en matière d’image, pour voir ce que tout le monde fait et voit sans rien voir…

Le chapitre sur l’amitié et les réseaux sociaux ose partir d’Aristore, de Cicéron et d’autres encore, pour mettre en évidence la réinterprétation de nos concepts et de nos pratiques de l’amitié. C’est parce qu’il sait ce qu’est l’amitié dans la tradition occidentale que Milad Doueihi peut voir, par contraste mais aussi continuité, ce que sont les réseaux sociaux. Plutôt que de résumer ce chapitre, je me contente de citer un passage qui illustre, sur un point particulier, la démarche qui est celle de tout l’ouvrage : « Peut-on ou doit-on tout partager avec son ami, avec ses amis ? Peut-on ou doit-on abandonner toute propriété individuelle au profit de la collectivité ? Ou bien faut-il préserver la propriété individuelle et la soumettre au choix de l’ami ? Derrière ces questions on retrouve les problèmes qui sont en grande partie les nôtres aujourd’hui dans la culture numérique : quels sont les liens entre le partage, l’amitié numérique et le domaine public ? Quelles sont les formes d’échange et l’économie qui les soutient dans le monde de la sociabilité numérique ? Est-ce que l’amitié inaugure une nouvelle ère, avec un nouveau paradigme de la propriété et de la valorisation ? Ou bien s’agit-il tout simplement d’une exploitation économique classique de la mise en forme numérique de l’amitié et de ses extensions par les plates-formes actuelles ? ». Seul un auteur familier à la fois d’Aristote et de Mark Zuckergerg peut poser ces questions philosophiques. Je laisse le lecteur découvrir les riches analyses de ce chapitre (en particulier, du bas de la page 88 au haut de la page 91, celles, très denses, sur ce que pourraient être, avec le Web 3.0, les diverses figures de la sociabilité numérique, et de notre sociabilité tout court).

Le chapitre sur l’anthologie tire sa force de la connaissance que l’auteur a de la pratique anthologique au cours des siècles (outre ce chapitre, on pourra lire, sur ce point, le paragraphe du chapitre I intitulé « De la sagesse biblique au fragment numérique », qui trace en quelques pages une histoire du fragment, de la scholie classique jusqu’au commentaire numérique). Cette culture classique permet à l’auteur de voir que le fragment, omniprésent aujourd’hui dans la culture numérique, n’est plus lié à la rareté de l’information et du savoir, comme il l’a été pendant longtemps, mais à la surabondance de ceux-ci. Le lecteur découvrira, dans le chapitre III, une histoire de l’anthologie et une analyse remarquablement fine des différentes formes de celle-ci. L’anthologie, sous ses figures nouvelles, est bien « la forme et le format par excellence de la civilisation numérique » (106). Il ne m’est pas possible, dans le cadre de ce bref résumé, de rendre compte de toute la richesse de ce chapitre. Je me contente d’attirer l’attention sur ce qui est, pour l’auteur, un corrélat de la forme anthologique : les modifications de l’identité (la transformation de la catégorie d’auteur, l’émergence d’une identité numérique faite de « fragments de personnalité »). À partir de la page 107, cette analyse des figures de l’anthologie et des fragments de la personnalité se nourrit d’une étude très attentive des modifications induites par le cloud computing. Les pages consacrées à Storify, ReadSocial, Qwiki, Wolfran/Alpha ou Quora étayent les hypothèses théoriques de l’auteur, toujours construites à partir d’études empiriques précises.

Signalons, pour finir, dans les derniers chapitres, une analyse très stimulante de l’avatar (page 148), non dépourvue d’humour (l’auteur pose les mêmes questions, concernant l’avatar, que celles que les métaphysiques classiques posaient à propos du sujet et de son âme : « Un avatar a-t-il des droits ? Quel est son destin ? Peut-il mourir ? Ressusciter – surtout qu’il est lui-même l’agent d’une incarnation ? Un avatar plus ou moins autonome, c’est-à-dire mû par des connaissances et un vécu qui ne sont pas exclusivement une extension de son initiateur, a-t-il le droit de se détacher de son créateur, de se libérer et de retrouver une existence autonome ? »). Et une étude remarquable de l’oubli, et du concept de patrimoine (en relation avec le droit à l’oubli, l’auteur dit très justement que « l’oubli est l’impensé et l’impensable de la culture numérique, car il a toujours été considéré comme quelque chose à conquérir », 155).

Bref, ce livre est un vrai régal, malgré sa densité, et parfois le caractère allusif de certains développements ou rapprochements (avec le concept de rugosité chez Mandelbrot, par exemple, dans un paragraphe qui aurait pu être plus explicite).

Ces modestes remarques sont simplement apéritives.

 

2 octobre 2011

Sur « Le sacre de l’amateur », par Patrice Flichy (Seuil, 2010)

Sur la base d’une description fine de la pratique des amateurs, l’auteur s’attache à mettre en évidence, à l’encontre à la fois de ceux qui saluent la revanche des amateurs (la victoire sur les experts de « l’intelligence collective ») et de ceux qui craignent que l’amateur médiocre se substitue au professionnel talentueux, que les compétences des amateurs se développent indépendamment de celles des experts mais permettent de dialoguer avec ceux-ci et parfois de les contredire (par la construction de contre-expertises).

Les pratiques des amateurs, qui ne sont pas propres à nos sociétés, prennent aujourd’hui une importance particulière et des formes nouvelles. Elles sont rendues possibles par l’accroissement du niveau moyen de l’instruction et les nouveaux outils offerts par Internet. Leur étude sociologique montre clairement que les amateurs, dont les figures sont diverses (l’artisan, celui qui réalise, n’est pas le connaisseur, celui qui apprécie) n’entendent pas rivaliser avec les experts mais développer une « expertise ordinaire », fondée sur l’expérience et l’échange. Le monde des amateurs est plus, selon P. Flichy, celui de l’entre-deux que du mélange : « l’amateur se tient à mi-chemin de l’homme ordinaire et du professionnel, entre le profane et le virtuose, l’ignorant et le savant, le citoyen et l’homme politique » (11).

L’auteur étudie tour à tour les pratiques des amateurs dans le champ des arts, de la politique et de la connaissance.

Je me contente de signaler, dans le chapitre consacré aux arts, les analyses fines et suggestives que l’auteur fait d’une pratique bien connue, mais souvent mal comprise, celle des fans (cf. les pages sur la « réception créatrice » qui caractérise cette pratique, proche de celles que l’on peut rencontrer dans les cultures préindustrielles, où les contes, par exemple, pouvaient être réappropriés en permanence par les auditeurs et lecteurs). Le lecteur philosophe ou juriste trouvera dans ce chapitre des analyses permettant de nourrir la réflexion sur le brouillage des catégories qu’opèrent les pratiques des amateurs. La pratique des fans a pour conséquence, par exemple, que « les producteurs ne créent plus des œuvres, mais des univers ; l’auteur devient un world maker » (33) ; « les frontières entre production et réception s’effacent, comme entre le spectacle et la vie » (42).

Le chapitre consacré à la politique est tout aussi stimulant. L’auteur est particulièrement sensible au caractère multiple du nouvel espace public qui résulte des pratiques d’amateurs dans le champ politique (l’amateur peut intervenir pour s’exprimer ou débattre, mais il peut aussi chercher à mettre en place de nouvelles formes d’action). L’auteur consacre des pages brèves mais éclairantes à la première forme (qu’il nomme « l’amateur de politique », par opposition à celle de « l’engagement en amateur »), en distinguant différents registres (celui du témoignage et de la sociabilité, celui de la résolution des problèmes publics par le débat). Attentif à la nouveauté de ces formes, les décrivant précisément, l’auteur se garde cependant de les idéaliser, comme en témoignent les pages consacrées aux « différentes formes de débat public » (50-54). Le débat public des amateurs est certes souvent loin de correspondre aux normes idéales du débat démocratique, telles qu’elles ont été formulées par Habermas, par exemple. Mais elles nous rappellent que la démocratie est souvent plus conflictuelle et plus passionnée que ne le pensent les théoriciens de l’espace public comme lieu d’échange d’arguments rationnels (je renvoie le lecteur à la remarquable page 52). P. Flichy conclut en rappelant que « le vrai pouvoir reste celui des élus, des experts-spécialistes et des journalistes professionnels » (63) et que la démocratie réticulaire et les médias citoyens sont au mieux des compléments. Mais ces compléments constituent autant de contre-pouvoirs indispensables à la démocratie contemporaine : « il y a là une forme modeste mais capitale d’action politique » (63).

Concernant le champ de la connaissance, le lecteur pourra découvrir des analyses particulièrement intéressantes sur la contre-expertise scientifique (par Wikipédia, par exemple) ; sur la collaboration entre médecins et malades (grâce à des logiciels permettant d’incorporer et d’agréger les données fournies par les amateurs, en l’occurrence les malades) ; sur la « recherche en plein air » (nécessitant des observations in situ, pour lesquelles les pratiques des amateurs sont précieuses) dans les domaines de l’informatique, de la botanique ou de l’ornithologie : « ce que le savoir local perd en universalité, il peut le gagner en précision et en capacité de description » (78) ; sur les « conférences de consensus » dans le traitement des questions concernant les risques globaux (les analyses que l’auteur leur consacre,  aux pages 83-84, sont particulièrement précises et nuancées). L’auteur, ici comme dans l’ensemble de l’ouvrage, ne cache pas les tensions et les incompréhensions, mais il se garde aussi bien de rejeter ces nouvelles pratiques que de les idéaliser.

Il ressort de ce livre qu’Internet, principal vecteur de ces nouvelles pratiques d’amateurs, ne signifie ni la disparition des experts (médecins, scientifiques, etc.), ni celle des médiateurs (documentalistes, journalistes, enseignants, etc.). Concernant ces derniers, Internet n’est pas « le média de l’abolition de la médiation », malgré ce que l’on nomme l’intermédiation (l’agrégation des multiples apports des amateurs par un programme), mais le métier des médiateurs, comme celui des experts, est profondément transformé. Les internautes ne sont qu’une part de l’intermédiation, l’autre part est constituée par les spécialistes de la médiation, qui sélectionnent l’information en dialogue avec les amateurs.

Patrice Flichy résume en quelques mots, dans sa conclusion, la thèse sur laquelle son étude des nouvelles pratiques des amateurs débouche :

« Dans les domaines où il s’est forgé des compétences, l’amateur peut exceptionnellement remplacer l’expert, mais il lui importe surtout de constituer sa propre opinion et de la défendre. Il peut accéder à une masse d’informations qui lui étaient inconnues auparavant : grâce à elles, il est capable de tenir un discours critique, d’évaluer la position de l’expert-spécialiste par rapport à son expérience ou à ses propres pratiques. Il acquiert ainsi les ressources et la confiance qui lui permettent de se positionner par rapport au professionnel, de l’interroger, de le surveiller, voire de le contester en lui tenant un discours argumenté sur ses opinions. L’amateur fait descendre l’expert-spécialiste de son piédestal, refuse qu’il monopolise les débats publics, utilise son talent ou sa compétence comme un instrument de pouvoir » (89).

30 août 2011

Sur « The Master Switch. The Rise and Fall of Informations Empires » (Tim Wu)

Filed under: Câble,Censure,Internet,Médias,Télévision — Auteur @ 15 h 06 min
Tags: , , , ,

Tim Wu : The Master Switch. The Rise and Fall of Information Empires (A Knopf Book, 2010, Amazon Kindle edition).

Ce livre, qui présente une théorie de la naissance et de l’évolution des moyens de communication aux États-Unis, est passionnant de part en part. L’auteur soutient que chaque nouveau moyen de communication ouvre un cycle, qui commence par une période d’innovation (pendant laquelle ce nouveau moyen de communication s’oppose aux moyens de communication dominants et se développe de manière créatrice, ouverte et multiple) et se poursuit par un développement où il tend à devenir à son tour un monopole (soit par une intervention directe de l’État – comme dans le cas de la BBC, conçue comme un service public visant à éduquer le peuple britannique – soit par une intervention indirecte, comme aux États-Unis, où de puissants groupes – AT&T, NBC… – sont devenus des monopoles avec l’appui de la puissance publique). Ces monopoles, à leur tour, seront menacés par l’ouverture d’un nouveau cycle d’innovation (où l’intervention de l’État, là également, jouera un rôle important).

L’horizon et l’enjeu d’une telle théorie sont clairs : il s’agit de savoir si elle s’applique à Internet, si le réseau des réseaux connaîtra (connaît déjà ?) une évolution identique à celle qu’ont connue le téléphone, la radio, la télévision, l’industrie cinématographique… Ce livre n’est donc pas un livre d’histoire, même s’il est pour l’essentiel consacré au passé des moyens de communication américains Il ne perd jamais de vue notre présent et la question de l’avenir d’Internet.

1) le point de départ: l’existence des monopoles

Sur l’exemple du téléphone, de la radio, du film et de la télévision, l’auteur commence par montrer comment ces moyens de communication ont émergé pour se constituer ensuite en monopoles. Sans restituer cette évolution, je me contente de résumer les pages où l’auteur dégage la fonction de ces monopoles, qui constitueront, à la fin du XXe siècle, la base à partir de laquelle émergeront d’autres moyens de communication (le câble et Internet, en particulier).

La constitution des monopoles ou quasi-monopoles s’est certes accompagnée, dans les discours et dans les pratiques des entreprises dominantes, d’un sens de la responsabilité publique. L’objectif était de servir le bien public (en témoigne le discours d’AT&T au début du XXe siècle). Un des intérêts du livre est d’ailleurs d’accorder autant d’importance aux institutions mises en place qu’à l’idéologie qu’elles génèrent. Le développement du téléphone, par exemple, s’est accompagné d’un discours utopique très proche de celui qui sera tenu au moment de la création d’Internet : «  a universal wire system for the electrical transmission of intelligence… from every one in every place to every one in every other place, a system as universal and as extensive as the highway system of the country which extents from every man’s door to every other man’s door » » (Theodore Vail, 1922). La radio, pour prendre un autre exemple, a été pensée, à ses débuts, comme une interconnexion universelle devant ennoblir l’individu, le libérer de ses impulsions immédiates, de manière à restaurer la communauté humaine. Dans le contexte américain, cette idéologie prendra parfois des formes explicitement religieuses : « Radio proves the truth of the omnipotence of the Almighty » (Mark Caspar, 1924), puisqu’elle réalise un équivalent de l’omniscience divine, un sujet collectif omniscient, un « all-seeing eye » (711-18).

Cela n’empêchera pas les monopoles d’exercer, en même temps, une contrainte puissante non seulement sur l’innovation technologique (verrouillée) mais sur la liberté de parole et sur la création culturelle. La liberté de parole effective ne doit pas en effet être mesurée à l’aune des textes constitutionnels (le First Amendement de la Constitution américaine, par exemple), qui sont seulement « a tiny part of the picture ». Les Américains idéalisent « the market place of ideas » : « the shape or even existence of any such market place depends far less on our abstract values than on the structure of the communications and culture industries » (261-67). La liberté de parole dépend d’abord de « who control the master switch » (261-67) : « in the United States, it is industrial structure that determines the limits of free speach » (2300-07). L’auteur montre comment, en Grande-Bretagne, la BBC est devenue un service d’éducation du peuple, aux mains de l’État, comment, aux USA, l’industrie du film, parce que centralisée (par Adolph Zukor) a rendu possible le Production Code de 1934 (une censure puissante mise en place en 1934 sous la pression du groupe de pression catholique The Legion of Decency). La fermeture technologique rend possible la mainmise de certains groupes sociaux sur le moyen de communication : « the transformation in Hollywood content was so abrupt as to be schocking, and it demonstrates a substantial vulnerability of highly centralised systems : while designed for stability’s sake, they are in fact susceptible to extremely drastic disruption » (2260-66). La censure peut n’avoir aucun rapport avec la centralisation et le monopole, qui n’ont pas été construits à cet effet (le discours des dirigeants d’Hollywood en témoigne clairement) mais la structure centralisée rend possible la censure dans certaines circonstances (le droit d’entrée au moyen de communication étant fermé, aucun nouveau moyen de communication ne peut équilibrer celui soumis à la censure). Ce que le Production code montre, c’est que le First Amendement protège seulement « from government’s limiting our freedom of speech, but it has nothing to say about anything we might do to limit one another’s » (2307-14).

Tim Wu dresse ainsi un bilan mitigé des réseaux de communication centralisés des années 30, de l’idéal de monopole éclairé d’AT&T dans la radio par exemple : « the networks of the 1930s can be credited with creating a broad listnership for quality programming, such as the famous radio serials of the period » (1586-1602). L’auteur montre que ces monopoles ont souvent fonctionné comme des services publics (l’argent gagné avec l’entertainment finançait des sustaining programs peu rentables). Mais ils ont en même temps opéré une clôture technologique. Wu le montre clairement sur l’exemple du téléphone (AT&T bloquera assez longtemps des inventions qui auraient pu remettre en cause son monopole, en particulier l’écouteur privé, non audible par les voisins) ou sur le cas de la FM (inventée dans le milieu des années 30 au sein d’un laboratoire d’AT&T mais qu’AT&T refusera de développer de peur de perdre son monopole), ou encore de la télévision (dont les premiers essais remontent à la fin des années 20 mais dont le développement sera bloqué jusque dans les années 40). Même en faisant abstraction d’épisodes comme le Production Code de l’industrie cinématographique (cf. plus haut), la clôture technologique, verrouillant toute innovation n’ayant pas lieu dans le cadre du monopole, aboutira à une limitation de la liberté de parole moins dramatique mais bien réelle, par exemple dans le cas de la télévision : « two (later three) networks defining the medium that would define America, offering programm aimed at the masses, homogeneous in sensibility, broadly drawn and unprovocative by design, according to the imperatives of entertainment that sells » (2600-07).

2) l’innovation par le démantèlement des monopoles

La suite du livre décrit le processus de démantèlement des monopoles, qui s’est opéré diversement, selon les moyens de communication. Ce démantèlement a été rendu possible par des innovations techniques, mais il n’aurait pas abouti sans l’intervention de l’État américain décidé à briser, pour diverses raisons, les monopoles dominants. En 1948, par exemple, l’État brise le monopole des compagnies d’Hollywood, en les obligeant à vendre leurs salles de cinéma. C’est la fin du « studio system » (une sorte de cartel vertical), qui permettra l’arrivée de nouveaux films étrangers et qui s’accompagnera de la fin du Production Code et de la censure (ce qui donnera naissance à la deuxième vague du cinéma d’Hollywood, la grande période d’expérimentation et d’innovation des années 70). De même, l’État favorisera, sous Nixon, l’émergence du câble, qui brisera le système du monopole des trois chaînes de télévision et facilitera l’émergence de multiples chaînes nouvelles. Et l’on sait que, en 1984, l’État démantèlera Bell, après un long combat contre l’entreprise qui aux yeux de l’auteur est le monopole par excellence, rendant ainsi possible Internet (par exemple en favorisant la production et généralisation du modem, qui ne pouvait exister tant qu’il était impossible de rajouter quoi que ce soit sur une ligne téléphonique ; et en ouvrant le marché des data processing et des online providers, duquel AT&T fut écartée lors du démantèlement, ce qui permit l’apparition d’America Online, de Compuserve, etc.).

3) le retour à la centralisation

L’ouvrage s’attache à décrire longuement la fin du cycle, c’est-à-dire la nouvelle centralisation qui succéda à cette période de démantèlement. L’auteur étudie en particulier la stratégie d’AT&T, qui vers la fin du XXe siècle réussit à regagner une grande partie de son pouvoir dans domaine du téléphone (ce qui rendit possible l’utilisation de ce dernier,  par l’administration Bush, à des fins de sécurité) et la constitution d’empires multimédias (Turner, Time Warner) intégrant films, information, entertainment, produits culturels, télévision (grâce à la reprise en main des câblo-opérateurs, par Ted Turner en particulier, et la création d’un network câblé national, CNN). Les raisons de cette recentralisation sont complexes (du côté des empires multimédias : économie d’échelle, couverture des risques sur les films grâce à la taille, etc. ; du côté du téléphone : le monopole est la meilleure manière de garantir la rentabilité de l’entreprise).

Cette recentralisation n’est cependant pas un simple retour à la case départ, ce que l’auteur met bien en évidence dans le cas du câble. La constitution d’empires, dans ce domaine, s’est accompagnée d’une multiplication des chaînes, reflétant divers goûts du public (contrairement à l’idéologie des fondateurs du câble, qui était tournée vers le bien commun). Une telle fragmentation a suscité les critiques des penseurs républicains (au sens philosophique des republicanists, non au sens politique américain), par exemple celles de Cass R. Sunstein,  qui déplorent la perte de l’espace public. Tim Wu fait cependant remarquer, en réponse à ces critiques, que les nouveaux médias reflètent peut-être seulement l’atomisation du public, sans la créer : « there is a difference, of course, between recognizing and creating a social reality » (3888). Quoi qu’il en soit, cette différence (des monopoles non plus homogènes mais organisant une fragmentation du public, en particulier en utilisant la publicité ciblée, personnalisante) ne semble pas déterminante aux yeux de l’auteur. Il s’agit pour lui d’une variante du monopole. La fragmentation de l’espace public (sur Internet, sur le câble…) est certes interprétée par l’auteur comme un retour à la situation qui régnait aux États-Unis avant la centralisation (« in fact, the triopoly of NBC, CBS, and ABC itself mark an aberrant time in the history of America », 3916), mais la fragmentation est désormais d’un type nouveau (elle ne se fait plus essentiellement « according to class, ethnicity, region, and other factors », 3916). C’est une fragmentation qui est devenue compatible avec le monopole. Cette combinaison originale de centralisation et fragmentation distingue, aux yeux de l’auteur, notre situation de celle de l’époque des médias et de celle des pays totalitaires.

4) Internet : une rupture, mais jusqu’à quel point ?

Internet est pensé, par rapport à ce troisième stade (celui de la recentralisation), comme l’unique exception « to this dominion of big business ».

La raison de cette exception est à chercher dans la singularité de cette innovation technologique  qu’est Internet par rapport à toutes celles qui ont précédé : « the computer and the Internet attempted to give individuals a degree of control, of decision-making power unprecedented in a communication system » (3147-54). Dans l’idée de ses fondateurs, la priorité était donnée à l’augmentation des capacités humaines (« human augmentation ») : utiliser les ordinateurs interconnectés et interactifs comme une aide dans le processus de pensée (pour se souvenir, organiser un texte, traiter et partager l’information, etc.). Cela en utilisant le réseau téléphonique de AT&T de manière entièrement nouvelle pour interconnecter les ordinateurs (« packet networking » utilisant n’importe quelle voie entre les ordinateurs en réseau). Ce qui supposait l’invention d’un nouveau langage (TCP) connectant les différents réseaux existants entre eux, sur lesquels Internet, le réseau des réseaux, n’avait aucun pouvoir.

Dit autrement, Internet est un réseau décentralisé et ouvert, par construction. Selon les fondateurs d’Internet, le network est un moyen (middle) peu spécialisé, au service des fins (ends) c’est-à-dire des utilisateurs. Internet s’est développé, rappelle l’auteur dans des pages éclairantes, dans le climat des théories économiques libérales de l’époque et leur critique de la centralisation (Hayek).

On sait que les pionniers d’Internet ont cru que cette exception allait transformer progressivement le paysage de l’information. Mais les groupes multimédias et les entreprises d’Internet ont rapidement donné un autre visage au réseau : « the Internet either remade in their likeness, or at the very least rendered harmless to their core business interests » (4691-99). Cette évolution a eu lieu parce que l’Internet, une fois devenu le moyen de diffusion de toutes les données, quelle que soit leur nature, menaçait les groupes multimédias.

Le début de cette reprise fut cependant un échec : celui de la fusion de Time Warner et AOL (le premier censé amener le contenu et le second le canal). De manière convaincante, l’auteur montre que la raison de cet échec est à chercher dans la neutralité du Net (le client d’AOL pouvait surfer en un clic loin de Time Warner, et inversement celui de Time Warner pouvait facilement aller vers  un autre provider) et du modèle déjà dépassé que représentait AOL (une plateforme fermée). Time Warner et AOL, nés dans un autre contexte culturel, ne pouvaient prendre conscience de la spécificité d’Internet : le réseau ne repose pas sur « a control of the consumer », à la différence de tous les médias antérieurs.

C’est cette même neutralité qui a fait la fortune de Google, Apple, Amazon et autres, « firms that, far for discouraging or circumscribing consumer choice, would aim to put everything one could want within easy reach » (4920-27). Ces entreprises ont découvert que « in an age of open protocols, all the advantage of integration – the synergies and efficiences of joint operations – could be realized without actual corporate mergers » (4966-7062), comme on l’a vu dans le cas de l’Iphone (la synergie sans fusion d’Apple et de Google a été célébrée, un temps, par les deux entreprises).

Mais la clôture fait aujourd’hui retour, selon l’auteur, avec Apple et ses contrats exclusifs (par exemple avec AT&T aux USA), sa plateforme fermée Itunes, ses applications verrouillées pour Iphone et Ipad : « Hollywood’s content, AT&T lines and Apple’s gorgeous machines – an information paradise of sorts » (4997-5004). La pratique et l’idéologie de Google sont différentes, plus utopiques, plus messianiques (ouverture du Net, organisation de l’information par les moteurs de recherche, contestation du droit de propriété, etc.) : « they envisioned taking the Internet revolution into every sector of the information realm – to video and film, television, books, newspaper, and magazine publishing, telephony – every whay that human send or receive information » (4997-5004). Pour Tim Wu, le conflit entre Apple et Google reproduit celui qui a été décrit tout au long de cet ouvrage : « It is the old conflict between the concepts of the open system and the closed, between the forces of centralized order and those of dispersed variety » (5316-23).

On peut se demander cependant si cette position n’est pas quelque peu manichéenne. En ce qui concerne Google, d’abord, que l’auteur range en permanence du côté de l’ouverture, du côté de l’Internet (en tant que « free path between any two points, with no hierarchy or preferential treatment according to market capitalization, number of paid lobbyists, or any other prerogative of size and concentration », 5323-30), en oubliant les pratiques publicitaires de Google, la numérisation des livres, Google View Streets, et tout ce qui tend à ramener Google, au-delà des discours, vers le monopole. En ce qui concerne, ensuite,  les forces qui, selon l’auteur, sont opposées à l’ouverture (les bénéficiaires du copyright sont caricaturées, par exemple). Quant au traitement réservé à Apple, il relève souvent, lui aussi, d’une vision unilatérale : Iphone, Ipad et Ipod sont décrits comme des ordinateurs réduits, bridés, sans que l’auteur ne se demande jamais s’il ne s’agit pas là d’outils d’un autre type, sans qu’il ne se demande jamais non plus pourquoi le consommateur les plébiscite, se contente des applications fermées et des liens privilégiés d’Apple avec les groupes multimédias et les compagnies de téléphone, s’accommode parfaitement de la censure de certains sites, ou du respect du copyright…. Il est clair que, pour l’auteur, Apple est la figure même de la traîtrise : « a betrayal of the inspiration behind the pathbreaking device » (5381-87). Un Ipad « is designed for consumption, not creation ». Oui, et alors ?

L’auteur choisit très clairement le camp de Google, même s’il met en évidence les faiblesses de l’entreprise, qui repose tout entière sur la neutralité du Net. Un Net qui ne serait plus neutre pourrait faire payer, voire bloquer, un intermédiaire (shifter) comme Google. C’est ce que cherchent à faire les providers (de l’ADSL ou du câble) aux États-Unis. Un autre facteur de faiblesse réside aussi dans les conflits de Google avec la presse, réticente à laisser l’entreprise puiser librement dans son stock d’articles.

L’alternative, pour le futur, est simple aux yeux de Tim Wu: ou Google ou Apple, ou bien « a marriage of twenty-first-century technology and twentieth-century integrated corporate structure » (5439-46), ou bien « a contrary notion of virtue, one that can be traced back to the idealism of 1920s radio and of course the foundation of the Internet itself » (5446-53). Ce conflit est un conflit entre « competing visions of the good » (5453-60), entre une vision plus paternaliste et une conception plus libertaire, entre des instruments moins parfaits, plus risqués, mais laissant davantage de choix et des instruments parfaits, sans risques, mais refermant l’espace des choix. Wu montre que les dirigeants des deux entreprises ont une claire conscience de ce conflit : Steve Jobs déclare que « we figure out what we want. And I think we’re pretty good at having the right discipline to think through wether a lot of other people are going to want it, too » (5640-67), alors qu’Eric Schmidt affirme que « the vote is clear that the end user prefers choice, freedom and openness » (5460-67).

Le conflit est donc le même que celui qui s’est répété dans toute l’histoire restituée par l’ouvrage, avec cette différence que nous savons maintenant que la voie de la centralisation n’est pas la seule possible. Il n’en demeure pas moins que « the democratization of technological power has made the shape of the future hard to know, even for the best informed » (5475-81).

Tim Wu est bien conscient des limites de la deuxième voie, de son caractère utopique : « the apostles of openness aspire to nothing less than social transformation. They idealize a postscarcity society, one in which the assumption of limited ressources dictating traditional economic theory are overturned, a world in which most goods and services are free or practically free, thereby liberating the individual to pursue self-expression and self-actualization as an activity of primary importance » (5546-53).

C’est pourtant dans le cadre de cette deuxième voie (celle représentée par Google) que le dernier chapitre s’inscrit, en proposant des réformes politiques pour laisser ses chances à cette voie. Wu ne prône pas une regulatory approach (qui accorde trop d’importance à l’État) mais une constitutional approach, c’est-à-dire une séparation des trois pouvoirs économiques dans le domaine de l’information : le pouvoir des producteurs de contenu, le pouvoir des propriétaires de réseaux et le pouvoir de ceux qui contrôlent les outils et les accès. Ces trois pouvoirs doivent être strictement séparés, et l’État ne doit intervenir ni pour favoriser le rapprochement entre eux, ni pour favoriser, à l’intérieur de chacun d’entre eux, tel ou tel acteur. Une telle séparation des pouvoirs est nécessaire, même au prix d’une certaine perte d’efficacité. La voie de cette constitutional approach  est loin d’être facile, l’auteur le reconnaît volontiers : « To see what is sacrified to such efficiency, polish, and convenience, however, takes work, and to some it may forever remain invisible » (5604-11).

Les réformes proposées par l’auteur – dont je ne peux retenir ici que le principe, sans entrer dans le détail des institutions américaines – ne sont pas toujours d’une grande clarté : les trois pouvoirs distingués ne sont pas caractérisés précisément et Wu combine assez confusément cette constitutionnalisation avec un recours à la self-regulation, du côté des trois pouvoirs définis plus haut, et avec une surveillance par le public…. L’objectif est cependant clair: « fostering a practical environment in which the ideal [of free speech] can be realized » (5618-25).

Ce n’est pas le moindre paradoxe de cet ouvrage que d’insister fortement, à la fin, sur le caractère contingent de l’histoire (nous ne pouvons prévoir dans quel sens se développera Internet), cela après avoir présenté une conception évolutionniste et nécessitariste de l’histoire des moyens de communication (le cycle décrit par ceux-ci apparaît comme une sorte de loi de l’histoire). Le paradoxe est cependant réduit par l’idée que la connaissance du cycle pourrait nous faire échapper à celui-ci : la connaissance de la nécessité nous libérerait de celle-ci.

Une interrogation, pour terminer. L’opposition que l’auteur dresse entre Google et Apple, entre le monopole et la liberté, me paraît, comme je l’ai dit plus haut, trop schématique. Elle jette rétrospectivement un doute sur la théorie du cycle qui est au cœur de l’ouvrage. Cette dernière repose sur l’opposition du monopole sclérosant et de l’innovation technique. Il appartient évidemment aux historiens des médias américains de dire si cette théorie du cycle est empiriquement vérifiée, si l’évolution que décrit Tim Wu est bien celle que les médias américains ont connue, ou bien si elle constitue une dramatisation ad hoc, chargée de justifier la lecture que l’auteur fait du présent et de l’avenir d’Internet. Je suis évidemment incapable de répondre à cette question. Mon impression finale est plutôt mitigée. L’auteur accumule des données empiriques nombreuses pour étayer sa théorie du cycle, qui paraît globalement convaincante. Mais on sait que la théorie, dans les sciences humaines, n’est jamais loin du mythe, et que celui-ci met en œuvre des oppositions tranchées. Celle du monopole et de la liberté, de la fermeture et de l’ouverture, qui triomphe à la fin de l’ouvrage, débouche sur une sorte de gigantomachie (Apple contre Google) qui me semble un peu forcer le trait, et tirer la science du côté du mythe.

11 août 2011

Sur « The Filter Bubble » d’Eli Pariser (2011)

Eli  Pariser : The Filter Bubble : What the Internet is Hiding from You (The Penguin Press, Kindle Edition, 2011)

 

Eli Pariser, ex-directeur de Move.On Org, consacre cet ouvrage à ce qu’il estime être un fait fondamental dans la récente évolution d’Internet : la personalization (ou customization) des moteurs de recherche et réseaux sociaux, étroitement liée à l’émergence d’une publicité de plus en ciblée sur l’individu. Comme le dit Sheryl Sandberg, une des responsables de Facebook – en interprétant cette évolution comme un désir des consommateurs et des citoyens, ce qui est loin d’aller de soi – « people don’t want something targeted to the whole world – they want something that reflects what they want to see and know » (1496-1502).

Cette personalization s’est mise en place comme une réponse à ce que Steve Rubel a nommé l’attention crash (l’individu ne peut être attentif à l’ensemble de l’information proposée par le Web, il faut d’une manière ou d’une autre simplifier l’immense flot, de manière à ce qu’il puise fixer son attention). Les techniques utilisées pour construire le moi des internautes sont bien connues (dans leur principe, non dans le détail de leur fonctionnement, qui demeure très opaque) : « you are what you click » (Google) et « you are what you share » (Facebook). L’auteur montre que d’autres techniques, beaucoup plus subtiles, se profilent à l’horizon. Il va sans doute devenir possible de savoir à quel type d’argument un acheteur est sensible (certains cèdent immédiatement à une proposition de rabais immédiat, d’autres repoussent une telle proposition parce qu’ils sont sceptiques sur la qualité du produit, d’autres ont besoin de consulter des reviews avant d’acheter, etc.). Grâce à la construction d’un persuasion profiling de l’internaute, la publicité pourra alors éliminer les modes de persuasion qui répugnent à l’acheteur. Une autre technique, celle de l’analyse des sentiments est également en train de se mettre en place : l’analyse des mails et divers posts de l’individu permet de se faire une idée précise de ses sentiments et humeurs, en fonction des jours ou moments de la journée, et de cibler la publicité en conséquence (on sait que les internautes stressés sont plus enclins à l’achat compulsif, ou à soutenir un candidat émettant tel ou tel message, etc.). À la limite, l’objectif, comme le dit une responsable de Facebook, est de supprimer tout moteur de recherche : l’information viendra à vous directement, ce sera le « search without search ».

L’auteur montre de manière très convaincante que cette personalization transforme en profondeur ce que nous avons coutume de nommer l’expérience (notre perception apparemment naïve du monde). Considérons la réalité augmentée, c’est-à-dire la perception guidée par de multiples robots qui, grâce à la personnalisation, peuvent aider l’individu à voir et être informé de ce qui est important pour lui (via un smartphone ou d’autres appareils qui seront plus ou moins intégrés au corps) : « augmented reality filters offer the possibility of an annotated and hyperlinked reality, in which what we see is infused with information that allows us to work better, assimilate information more quickly, and make better decisions » (2877-82). Une telle perception ainsi augmentée « represents the end of naive empiricism, of the world as we see it » (2866-71) Notre expérience finit par devenir scientifique, avec cette contrepartie : « in exchange for convenience, you hand over some privacy and control to the machine » (2882-88), « because the transformations applied to your data are often opaque, it’s not always clear exactly what decisions are being made on your behalf, by whom, or to what end » (2380-94).

 

Les dernières lignes citées montrent clairement que l’auteur voit un danger dans cette personalization, qu’il qualifie de « return to a Ptolemaic universe in which  the sun and everything revolves around us » (213-19), ou encore d’équivalent psychologique de l’obésité : les moteurs de recherche et réseaux sociaux nous enferment non seulement dans notre identité mais dans l’identité qu’ils construisent de nous, puisque tout choix futur est guidé par cette identité et la renforce en retour. Apparemment, c’est l’identité qui construit le média, en réalité c’est le média qui construit l’identité (1681-87). La personalization marquerait la fin de la serendipity (d’une recherche qui est un mixte de méthode et de hasard, laissant place à la découverte imprévue), la fin aussi aussi du bridging capital (ce capital social qui nous ouvre à des réseaux différents). L’individu ne ferait plus sa propre vie (car il faut pour cela avoir des options très différentes, qui nous sortent de nous-mêmes). Contrairement à ce qu’affirmaient les évangélistes d’Internet, ce nouveau média pourrait donc, lui aussi, nous rendre plus passifs. La distinction entre pull technology (la TV traditionnelle) et push technology (Internet) ne serait plus pertinente (l’auteur analyse par exemple le système de YouTube appelé LeanBack, qui rapproche YouTube de la TV en proposant des vidéos enchaînées l’une à l’autre, avec une intervention minimale de l’internaute, redevenu spectateur) : « Steve Job’s proclamation that computers are for turning your brain on may have been a bit too optimistic » (954-60).

Face à ces descriptions (qui reprennent sur de nouvelles bases celles, déjà anciennes, de Carl. R. Sunstein), fines et présentées de manière vivante et convaincante, on se demande cependant par rapport à quelle perspective totale ou plus objective sur le Web la personalization pourrait constituer un danger. L’auteur affirme en effet que « personalized filters can interfere with our ability to properly understand the world » (1454-60). Que veut dire ici properly understand ? Il est clair que l’idée d’une perspective totale est un pur fantasme (celui du savoir absolu). Aussi bien l’auteur renvoie-t-il plutôt, par cette expression (properly undrestand), à la pratique des anciens médias, celle des journaux traditionnels : « to some degree, the paper is representative of the news of the day » (1460-65). Il y aurait beaucoup à dire sur ce point (les journaux traditionnels sont eux aussi des filtres, et souvent passablement paternalistes). L’expression renvoie également à l’utopie des créateurs du Web qui imaginaient, selon la formule de Tom Friedman, qu’Internet allait « to make us all next door neighbors »… La personalization signerait la mort de ce Web originel. Il semble bien qu’il y ait cependant là une nostalgie, qui repose en grande part sur une idéalisation du Web des origines (lequel était, rappelons-le, réservé à une étroite élite intellectuelle, homogène culturellement) : « In the early days of the World Wide Web… the online terrain felt like an unmapped continent, and the users considered themselves discoverers and explorers » (1415-20), alors que « Google is great at helping us find what we know we want, but not at finding what we don’t know we want » (1226-32 ; il est à remarquer qu’on pourrait tout aussi bien reprocher à Google de nous faire trouver, par la publicité, « what we don’t konw we want » !).

Certes, on accordera à l’auteur que « what is good for consumer is not necessarily good for citizens » (293-98). Mais Pariser a une forte tendance à supposer que les internautes ont des intérêts et besoins dont ils n’ont pas conscience. Le paternalisme affleure dans de nombreuses formules: « what I seem to like may not be what I actually want » (293-98 – il est amusant de retrouver cette idée platonicienne sous une plume contemporaine). L’élitisme perce également à chaque instant : « the creators of Internet envisioned something bigger and more important than a global system for sharing pictures of pets » (304-11). Ce qui était visé par les fondateurs d’Internet était plutôt « a kind of world wide metabrain » (ibid.), ce qui suppose un Internet sans publicité (on se souvient que tel était effectivement l’objectif des fondateurs de Google !).

 

S’agissant plus précisément du domaine de l’information, l’auteur fait apparaître clairement le lien entre la personalization et ce que l’on nomme en anglais (à la suite de Jon Pareles) la desintermediation : les editors professionnels humains sont remplacés peu à peu par « a mix of nonprofessional editors (our friends and colleagues) and software code to figure out what to watch, read and see. This code will drow heavily on the power of personalization » (725-30). Pariser mène une critique puissante, très convaincante, contre cette mythologie de la desintermediation, censée éroder tous les pouvoirs. Il rappelle que « the effect is to make the new mediators – the new gatekeepers – invisible » (comme l’a soutenu Tim Wu). Les nouveaux médias se nomment Craiglist (publicitaire en ligne), Amazon, Google, Facebook… Alors que nous critiquons sans cesse la presse traditionnelle, « we’ve given very little scrutinity to the interests behind the new curators » (850-56). Les descriptions fines que Pariser mène de ces new curators rejoignent celles de tous les observateurs contemporains des nouvelles formes de journalisme. Les nouveaux médias d’information sur Internet fonctionnent à peu près entièrement au traffic watching. Ce n’est pas une nouveauté dans le journalisme (la presse populaire, les tabloïds, utilisent depuis depuis longtemps le critère de l’audience) mais ce traffic watching repose désormais sur une puissante personalization et il tend à devenir l’unique mode de sélection des articles (qui doivent devenir instantanément « viraux » pour avoir une chance de survie).

Les conséquences d’une telle personalization des nouvelles sources d’information sur Internet sont importantes au niveau politique. L’auteur s’attache à dégager les effets de la personnalisation des messages durant les campagnes électorales :

1) D’abord la fragmentation de l’espace public (il devient impossible de répondre à tous les messages car personne ne les reçoit tous, même pas les dirigeants des campagnes électorales). Cette fragmentation rend impossible « a common conversation », elle-même condition de la formation d’un consensus. La personnalisation politique a le même résultat que la personnalisation publicitaire, elle enferme les individus dans une identité (les hommes politiques ou les partis deviennent l’équivalent d’une marque dans laquelle le citoyen met son identité, finement construite par la personalization) : « when people don’t have to worry about having their basic needs met, they care a lot more about having products and leaders that represent who they are » (2122-28). Les électeurs s’expriment en choisissant tel ou tel (l’auteur nomme cette tendance « postmaterial desire to maximize self-expression », 2173-78). Un tel fonctionnement de la politique a des conséquences importantes : de même qu’une marque peut s’adresser à des clientèles différentes, en adressant des messages différenciés, les hommes politiques, en ciblant ainsi les électeurs, se rendent de gouverner beaucoup plus difficile (on le voit avec B. Obama : quand vous représentez quelque chose de différent pour différents groupes ou individus, il est difficile ensuite de construire une politique faisant l’objet d’un consensus suffisant).

2) Un deuxième effet est celui de l’impossibilité de distinguer le vrai du faux. Il était possible, dans les médias traditionnels, de faire rectifier une erreur ou un mensonge : « it’s not great to have TV station owners be the sole arbitrators of truth… but it is better to have some bar for truthfulness than none at all » (2100-2106). C’est plus difficilement le cas, voire impossible, sur Internet.

La description que l’auteur fait des nouvelles sources d’information est fine et convaincante. Il n’en demeure pas moins qu’elle suscite des questions et objections quant à la signification que lui donne Eli Pariser :

1) L’auteur suppose que les citoyens ont tous également besoin d’être également informés et créatifs. Il est symptomatique qu’il invoque, lorsqu’il veut illustrer les effets néfastes de la personalization, les dangers d’une focalisation trop étroite sur nos intérêts et idées, cela dans le domaine de la recherche scientifique ! On pourrait lui objecter que tout le monde n’est pas chercheur, que les citoyens – et seulement certains d’entre eux – se pensent davantage comme des amateurs que comme des professionnels, lorsqu’ils réfléchissent aux problèmes politiques (je reprends cette distinction à l’excellent livre de Gerry Stokers, Why Politics Matter). Il y a un biais, chez l’auteur, en faveur de l’activité intellectuelle des citoyens, qui présuppose une certaine conception de la démocratie, conception qui est davantage un modèle théorique qu’un reflet de la réalité effective (en réalité les citoyens disposent d’une information limitée, ils agissent davantage à partir de sentiments que d’analyses intellectuelles, tous ne s’intéressent pas à la chose publique, etc.).

2) Il est clair que le livre tout entier repose sur un biais individualiste. L’auteur se lamente sur le fait que chacun n’a pas accès à toute l’information, que les conservateurs restent conservateurs, les libéraux restent libéraux… Mais la démocratie réelle fonctionne ainsi : la synthèse politique n’est possible, la plupart du temps sous forme de compromis, que sur la base d’une multiplicité de groupes idéologiquement homogènes. De ce point de vue, l’enfermement des individus dans une vision du monde, que renforce la personalization sur laquelle reposent les nouvelles sources d’informations sur Internet, pourrait ne pas avoir des conséquences aussi dramatiques que celles décrites par l’auteur. Il n’a de telles conséquences que par rapport à une conception idéale, et idéaliste, de la démocratie, qui est loin d’être la seule possible.

3) Enfin, tout se passe, dans ce livre, comme si l’unique source d’information des citoyens était le Web. Certes, les citoyens américains passent plus de temps sur Internet que les citoyens français. Mais l’auteur n’envisage à aucun moment le fait que les citoyens ont une information sur leur lieu de travail, dans la ville où ils vivent, dans les associations auxquels ils adhèrent, dans les établissements scolaires dans lesquels ils sont inscrits, etc. Il y a là comme une déformation professionnelle de l’auteur, qui le conduit à donner une importance démesurée aux sources d’information disponibles sur Internet.

 

L’ouvrage se termine par des considérations plus prospectives et politiques. L’auteur propose des mesures concrètes pour réformer Internet : « through a combination of individual action, corporate responsibility, and governmental regulation, it’s still possible to shift the course » (2945-52).

Pour ce qui des actions individuelles : éliminer les cookies, veiller à désactiver la personnalisation lorsque cela est possible, choisir les outils qui personnalisent le moins et sont moins opaques dans leur personnalisation (Twitter, et non Facebook), voire apprendre le langage de programmation (cette dernière mesure, particulièrement irréaliste, laisse rêveur), etc.

Pour les compagnies : les internautes doivent les aider à devenir plus transparentes et plus responsables, leur demander de recruter des ombudsmen, de laisser le droit aux citoyens de télécharger toutes les données qu’elles détiennent sur eux, de publier la manière dont elles les utilisent, etc. L’auteur envisage des procédures très complexes pour obliger les sites, moteurs et réseaux à rendre transparente la personnalisation, qui me semblent avoir très peu de chances de voir le jour (par exemple obliger la publicité en ligne à publier, pour chaque offre publicitaire qui nous parvient, les éléments de personnalisation sur laquelle elle s’appuie et donner à l’internaute la possibilité de modifier ces éléments !). Et là encore l’auteur préconise souvent des mesures qui peuvent paraître paternalistes : inciter les réseaux sociaux et moteurs de recherche à attirer l’attention des internautes « toward political engagement and citizenship » ou « stories… surpassingly important », les causes humanitaires par exemple (3148-53); ou encore mettre en place des « filtering systems to expose people to topics outside their normal experience » (3164-69). L’instrumentisation commerciale, fortement critiquée par l’auteur, semble céder la place, trop souvent dans ce livre, à l’instrumentalisation politique (au service de ce que l’auteur estime être le bien commun) ou éthique (les bonnes causes humanitaires) : « we need programmers who will build public life and citizenship into the worlds they create » (3180-85).

Au niveau des gouvernements, enfin : l’auteur envisage qu’ils peuvent faire pour contrer les effets négatifs de la personnalisation  (par exemple « requiring companies to give us real control over our personal information », 3203-8).

 

Mon impression finale est mitigée. La description que l’auteur fait de la personnalisation est fine et convaincante, construite souvent à partir d’interviews de dirigeants et programmeurs de la sphère Internet. L’auteur, qui a travaillé pendant longtemps dans ce milieu, sait de quoi il parle… Mais l’interprétation d’ensemble qu’il donne de la personalization, dans les différents domaines (commerce en ligne, information, politique…) est très fortement tributaire d’une conception de la démocratie qui, même si elle très fréquente dans la gauche libérale américaine, est loin d’être indiscutable et la seule possible. À aucun moment l’auteur ne prend de recul par rapport à cette conception rationaliste (au sens où tous les citoyens, dans une démocratie, devraient débattre et agir rationnellement, sur la base de l’information la plus complète et la plus objective possible) et élitiste (au sens où elle prétend généraliser à l’ensemble des citoyens une pratique qui est celle d’une étroite couche de la population). C’est par rapport à cette conception idéale de la démocratie que la personalization est, dans l’ouvrage, dénoncée comme un danger. C’est aussi par rapport à elle que sont avancées, à la fin de l’ouvrage, des propositions de réforme qui oscillent entre des mesures de bon sens (supprimons nos cookies), des réformes effectivement urgentes et essentielles (faire pression pour que les moteurs et réseaux n’enferment plus les internautes dans des default settings très difficiles à modifier, etc.), et d’autres mesures qui ont tendance à fuir vers l’utopie et, trop souvent, vers le paternalisme.

Il y a enfin, dans ce texte, une nostalgie, celle d’une supposée origine.  De même que les communistes ont fini par condamner le communisme réel au nom du communisme des origines, supposé pur, de même que certains libéraux en viennent à condamner le capitalisme des grandes entreprises au nom du libéralisme économique du XVIIIe, de même que certains chrétiens se réfèrent au christianisme des origines pour critiquer les églises officielles, de même il arrive de plus en plus fréquemment que s’élève, du côté des spécialistes d’Internet, une complainte nostalgique regrettant le bon vieux temps. Je ne suis pas certain que cela soit la meilleure voie pour analyser et interpréter les évolutions en cours (dont la personalization est effectivement une pièce essentielle) et pour lutter efficacement contre les effets, qui sont cependant loin d’être tous négatifs – ce que l’auteur reconnaît d’ailleurs volontiers – de ces évolutions.

6 août 2011

Sur « The Googlization of Everything » (Siva Vaidhyanathan)

The Googlization of Everything (And Why We Should Worry)

Siva Vaidhyanathan

(University of California Press, 2011, Amazon Kindle edition)


Plusieurs ouvrages récents sont consacrés à la customization (ou personalization) des moteurs de recherche (Google) et des réseaux sociaux (Facebook). Je publierai prochainement un compte rendu au livre d’Eli Pariser, The Filter Bubble, (The Penguin Press) et à d’autres, éventuellement.

Le livre de Vaidhyanathan se place d’emblée sous le signe d’une déception face à l’évolution d’Internet, qui se serait éloigné de l’utopie initiale pour devenir le lieu de « both anarchy and oligarchy ».

Il y a, dans cet ouvrage prolixe et répétitif, beaucoup d’informations et d’analyses que l’on peut retrouver un peu partout ailleurs, pas mal de lieux communs, des naïvetés (l’auteur semble s’étonner de ce qu’une recherche sur Google sur le mot God ne donne pas des résultats satisfaisants – mais qui aura jamais l’idée de faire une telle recherche ?), une tendance parfois paternaliste aussi, qui conduit l’auteur à avancer des arguments discutables (il objecte à la politique de privacy par défaut de Google que la grande masse des utilisateurs n’est pas capable de gérer activement les options proposées par le moteur de recherche : « merely setting up a menu with switches does not serve the interests of any but the most adept, engaged, and well informed », 1690-17 – ce qui est loin d’aller de soi : il se pourrait que les internautes qui ne modifient pas les options en question les trouvent utiles, ou sont totalement indifférents).

La perspective de l’auteur n’est cependant pas celle d’une hostilité systématique à Google. Il considère par exemple que Google est un filtre puissant qui fonctionne comme un nettoyeur du Net (et, dans ses relations avec les éditeurs d’images et de musique, souvent comme un garant du copyright, sur YouTube par exemple). En ce sens, il a fonction positive (même si l’auteur estime que Google, pour éviter les conflits liés à l’accusation de « contenus inappropriés », censure au-delà de ce que demande la loi américaine). Google a développé ces fonctions de régulation par opportunité, mais aussi par nécessité. Les tâches de régulation s’imposaient à une époque où elles ne pouvaient plus être effectuées au niveau national : l’auto-régulation par le marché était devenue aux USA une croyance incontestée et « the notion of gentle, creative state involvement to guide processes toward the public good was impossible to imagine, let alone propose » (807-15).

Cette ligne d’argumentation est celle de tout le reste de l’ouvrage. Toutes les fonctions assurées par Google sont, aux yeux de l’auteur, socialement nécessaires, mais elles sont biaisées par le fait que Google est devenu une entreprise commerciale et orientée vers le commerce. L’arrière-fond culturel des créateurs de Google était certes celui de l’éthique universitaire américaine, et l’entreprise en a gardé certaines caractérisistiques (« unstructured work time, horizontal management structures, multidirectional information and feedback flows, an altruistic sense of mission », 3474-81). La PageRank par consensus a son origine, on le sait, dans le critère universitaire du nombre de citations par article. Mais l’évolution de Google l’a éloigné de cette origine. Ni le fonctionnement du moteur de recherche (I) ni le projet de numérisation de la bibliothèque mondiale (II) ne sont inspirés par l’éthique initiale de Google.

(I) L’auteur décrit de manière assez précise le fonctionnement de Google comme filtre modelant nos modes de questionnement et nos listes de réponses. Il met en évidence ce qu’il estime être des biais (en faveur de la popularité par rapport à la pertinence,  en faveur des sites établis par rapport aux nouveaux sites, etc.) – mais sans jamais vraiment préciser comment un moteur de recherche alternatif pourrait fonctionner selon les critères retenus par l’auteur (comment mesurer la pertinence, au niveau de l’ensemble du Web, d’un site ?). C’est cependant, comme dans nombre de publications actuelles sur Google, la customization (ou personalization) qui retient surtout l’attention de l’auteur.

Cette personnalisation ouvre une époque nouvelle, qui nous éloigne du Panopticon décrit par Foucault. Il n’y a plus désormais d’instance centrale de surveillance.  Il serait plus pertinent de parler d’un Cryptoticon : « we don’t know all the ways we are being watched of profiled – we simply know that we are » (2135-42). Cette personnalisation, loin de ne nous empêcher d’être nous-mêmes, nous incite plutôt à nous individualiser (« express yourself »), à développer notre créativité, voire notre excentricité (de manière analogue, les caméras de Londres favorisent les conduites excentriques, comme l’ont établi certaines études sociologiques). Car la créativité et l’excentricité sont financièrement rentables (la publicité pouvant adresser des produits de niche aux individus ainsi mieux ciblés). Les protocoles de Google ou Facebook, à la différence de ce que faisait la Stasi, recherchent les individus à forte identité, subversifs, potentiellement dangereux. Ils incitent à choisir, à se choisir (cf. les « options » et « settings » des programmes). Mais les options sont en fait strictement prédéfinies et laissent de côté des alternatives peut-être plus importantes. Certes, l’individu dispose d’une certaine maîtrise sur ces options, mais seule une minorité les utilise: « Google’s great trick is to make everyone feel satisfied with the possibility of choice, without actually exercising it to change the system‘s default settings » (2157-63).

C’est essentiellement dans le domaine universitaire que l’auteur s’attache à montrer les dangers de la customization par Google (les résultats de la recherche sont filtrés par le profil du chercheur, ce qui pourrait conduire à un appauvrissement, à un repliement de chacun sur son domaine et ses propres idées). Il me semble cependant que l’auteur ne fait pas les distinctions qui s’imposent. La personnalisation peut être très efficace pour les recherches concernant les besoins de la vie quotidienne, mais la recherche universitaire ne se fait pas, et ne se fera pas pour l’essentiel, sur Google, même si ce jugement est à nuancer en fonction des niveaux et des disciplines (sur ce point, on lira les remarquables analyses que l’auteur consacre à Google Scholar, à son fonctionnement et à son importance dans certaines disciplines, ainsi que le chapitre « The Googlization of Research »). On peut douter de l’affirmation globale selon laquelle la customization « threatens republican value, such as openness to differing points of view and processes of deliberation » (3408-15). Certes, les techno-fondamentalistes ne manquent pas, et l’on trouvera toujours quelqu’un pour penser (Jeff Jarvis, par exemple) qu’Internet va remplacer l’Université (l’auteur fait d’ailleurs une excellente critique de cette rêverie) ou révolutionner la politique en rendant caduques les assemblées délibératives de la démocratie représentative…

II) Le chapitre de loin le plus précis et le plus intéressant de l’ouvrage est celui consacré à la numérisation des livres par Google. L’auteur en retrace clairement l’histoire compliquée. Là, comme ailleurs, il défend l’idée que l’origine du pouvoir que s’est arrogé Google est à chercher dans la démission des pouvoirs publics, à l’époque du néolibéralisme triomphant. Mais alors qu’ailleurs il ne propose que très peu de solutions concrètes alternatives, il plaide précisément, ici, en faveur d’une numérisation des livres par les bibliothèques elles-mêmes, en particulier les bibliothèques universitaires. Même si l’histoire semble déjà avoir tranché, les arguments avancés sont loin d’être inintéressants (en particulier son analyse du caractère inapproprié des protocoles de recherche de Google appliqué aux livres – l’internal text searching – et son plaidoyer en faveur d’autres types d’indexation, moins rudimentaires et plus fiables).

Il n’en demeure pas moins que le cœur de l’argumentation est inspiré par un sentiment de nostalgie et d’impuissance. Les promesses de l’Internet des pionniers (d’origine universitaire et non commerciale) auraient dû être relayées par l’État : « we missed an opportunity (…) we could have coordinated a grand global projet, funded by a group of concerned governments and facilitated by the best national librairies » (3741-48). Tout n’est pas encore perdu, cependant… Nous pouvons peut-être encore reconstruire un moteur de recherche et une bibliothèque mondiale, qui rendraient possible une « expanded public sphere »… Mais la conclusion de l’ouvrage, faute de pouvoir envisager une alternative crédible à l’action de Google, fuit vers l’utopie, de manière assez pathétique : l’auteur invite les lecteurs à collaborer à un Human Knowledge Project, défini de manière très vague (et même à construire le parti politique sans lequel ce projet n’aurait aucune chance de passer dans la réalité !).

Les analyses les plus stimulantes de l’ouvrage me paraissent finalement être celles où l’auteur illustre clairement l’idée selon laquelle les protocoles de Google, qui fonctionnent de manière quasi invisible pour la plupart des internautes, modèlent notre pensée et nos comportements. L’auteur considère en effet que l’impérialisme culturel n’est pas aujourd’hui une question de contenu, mais de protocoles : « if there is a dominant form of cultural imperialism, it concerns the pipelines and protocols of culture, not its products » (2075-84). Les protocoles ne sont certes pas toujours content-neutral. Mais en règle générale le contenu est relativement indifférent : « What flows from North to South does not matter as much as how it flows, how much revenue the flows generate, and who uses and reuses them » (2084-91).

L’emprise de Google sur nos pensées et nos comportements est à chercher à un autre niveau, celui du cadre, non celui du contenu : « Google defaults and ways of doing spread and structure ways of seeking, finding, exploring, buying and presenting that influence (though they do not control) habits of thought and action. These default settings, these nudges, are expressions of an ideology » (2084-91). Cette idéologie est clairement définie et assumée par Google. Sa valeur suprême est la « free expression » (c’est cette idéologie qui sous-tend, au-delà de Google, aussi bien la rétention, vente et publication des données privées, que des outils comme Google Street View, par exemple). L’auteur rappelle que cette valeur n’est pas acceptée facilement dans certains pays, même démocratiques (cf. les réactions, en France et en Allemagne, contre Google et l’accès qu’il permet aux sites antisémites). Google Street View, on le sait, suscite des réactions indignées en Allemagne ou au Japon, en raison des traditions culturelles de ces pays (au Japon les rues desservant les résidences sont considérées comme relevant de la vie privée et ne doivent donc pas être filmées). C’est pourquoi il existe une réaction démocratique contre Internet, que l’auteur perçoit fort bien : « The Internet censorship club is expanding and now includes a growing number of democracies. Legislator are under growing pressures from family groups to do something  in the face of all the threats sloshing around the Internet, and the risk of overstepping is high » (Rebecca MacKinnon, cité en 2505-11).

Il me semble cependant que l’auteur a tort de parler des « liberal values espoused by techno-fundamentalism and corporations such as Google », valeurs qui trouveraient des résistances dans certains pays démocratiques. Savoir ce que sont les valeurs libérales est certes un vaste sujet… Mais l’auteur semble ignorer que de nombreux juristes et philosophes, qui sont loin d’être des technophobes, dénoncent, aux États-Unis même, certains abus rendus possibles par les technologies nouvelles justement au nom des valeurs libérales, en particulier de la liberté (cf. S. Levmore et M.Nussbaum, The Offensive Internet, qui oppose à la conception de la libre expression qui inspire Google celle de la Constitution américaine, pour laquelle la liberté d’expression ne peut pas être absolue). L’idéologie de Google a certainement plus à voir avec les intérêts commerciaux et corporatistes (ceux des métiers de l’informatique) qu’avec les valeurs libérales.

On peut dire cela sans diaboliser Google et sans estimer, comme l’auteur, qu’il faut reconstruire ex nihilo les moteurs de la recherche ou une bibliothèque numérisée mondiale… Cette idée me semble la principale faiblesse de l’ouvrage, qui le condamne à la nostalgie (une idéalisation de l’Internet des pionniers), à l’impuissance et à l’utopie. On peut douter de la capacité des États à construire un moteur de recherche alternatif ou à numériser la bibliothèque mondiale (et l’auteur semble bien en douter aussi)… S’il en est ainsi, la seule voie possible me semble celle de la régulation, par des citoyens vigilants (Google et Facebook n’ignorent pas qu’ils sont eux aussi sous le regard des citoyens) et des États libéraux vigilants.

2 août 2011

Sur « Communication Power » (Manuel Castells)

Manuel Castells : Communication Power (Oxford University Press, 2011)

Cet ouvrage imposant (500 pages) prolonge les travaux antérieurs de l’auteur (en particulier The Rise of the Network Society) en inscrivant une théorie originale des réseaux numériques dans une théorie plus large de la network society. Je me contenterai de restituer trois axes fondamentaux de l’étude de M. Castells. Les deux premiers me paraissent constituer une approche précise et convaincante du pouvoir des médias traditionnels et de celui des nouveaux médias. Le troisième me semble par contre à la fois moins original et plus problématique.

1) M. Castells attribue une place particulière au « global networks of information and technology » (27) à l’intérieur de la société contemporaine qu’il conçoit comme « a multidimensional social structure in which networks of different kinds have different logic of value-making » (28). En un sens, le communication network est un réseau parmi d’autres, à côté d’autres réseaux globaux (économique, militaire, religieux, etc.), chacun d’entre eux définissant ce qui constitue pour lui la valeur suprême (le profit, le pouvoir militaire, le salut, etc.). En un autre sens, le communication network est la condition de fonctionnement de tous les autres réseaux (le pouvoir militaire global, par exemple, dépend des croyances de la population, de la capacité de celle-ci à accepter ou non certaines règles, donc, en fin de compte, du pouvoir de la communication) : « thus ideas, and specific sets of ideas, could assert themselves as the truly supreme value…, as a prerequisite for everything » (29). Pour le dire autrement : la communication globale définit, par ses protocoles, la valeur qui lui est propre, comme le fait tout autre réseau, mais cette valeur est celle de la communication, à l’intérieur de chaque réseau et entre ces réseaux : « the common culture of the global network society is a culture of protocols of communication enabling communication between different cultures in the basis not of shared values but of the sharing of the value of communication » (38). C’est le réseau global de communication qui permet, aujourd’hui, le fonctionnement du réseau économique mondial, ou du réseau militaire, ou terroriste, ou religieux, et qui permet à chacun d’eux d’interagir avec les autres pour les modifier et se modifier. En ce sens, le réseau mondial de communication est au-delà des cultures, il repose sur « the common belief in the power of networking and of the synergy obtained by giving to others and receiving from others » (38). L’auteur marque ainsi clairement sa distance par rapport à d’autres interprétations de nos sociétés, qui considèrent par exemple que celles-ci sont dominées par le réseau de l’économie capitaliste, ou encore par celui du cosmopolitisme politique.

Plus précisément, Castells distingue quatre tendances fondamentales des cultures contemporaines, qu’il nomme branded consumerism, cosmopolitanism, networked individualism et multiculturalism (120). Chacune d’entre elles trouve sa condition de fonctionnement et d’interaction avec les autres dans le réseau global de communication. Il n’est pas utile d’exposer ici les arguments en faveur de cette typologie, ni la définition précise de chacune de ces tendances (le branded consumerism est la global entertainment industry ; le cosmopolitanism est à entendre au sens le plus large : il peut s’agir aussi bien d’un réseau politico-militaire mondial que d’un réseau religieux, etc.). L’essentiel est de comprendre, d’une part, que ces quatre tendances, qui ne sont possibles que par des processus de communication, fragmentent celle-ci : le networked individualism, c’est-à-dire la culture de masse qui s’est développée avec Internet, fortement individualiste, n’est qu’une des formes possibles de la communication, à côté de celle que Castells nomme multiculturalism, c’est-à-dire la production et diffusion de biens culturels par des communautés se définissant par leur identité culturelle, ou encore celle qui régit le branded consumerism international. Et de comprendre, d’autre part, qu’un processus global de communication transcende tous les clivages « in a production of meanings through a series of protocols of communication that make intelligibility possible in a communication-centered culture » (125).

Cette thèse a une conséquence forte concernant le concept d’espace public, conséquence que Castells énonce de manière remarquablement claire : « the construction of the new public sphere in the network society proceeds by building protocols of communication between different communication processes » (125). L’auteur analyse finement la multiplicité de ces protocoles (qui, pour chacune des quatre tendances culturelles distinguées plus haut, ne sont pas identiques : la publicité est le protocole central du branded consumering, le networked digital hypertext celui du networked individualism, etc.). Il met aussi clairement en évidence le nouveau type d’audience qui est celui de cette nouvelle sphère publique (une audience fragmentée en individus recevant des messages mais les interprétant activement « according to their own cultural frames, and by mixing the messages from one particular source with their variegated range of communicative practices », 127). Là encore, Castells se distingue de manière remarquable de certains théoriciens de l’espace public en montrant que l’audience, loin d’être une masse passive ou, au contraire, un corps de citoyens rationnels, est à la fois passive (elle reçoit quantité de messages qu’elle reprend à son compte) et active (elle les interprète en fonction de ses schémas cognitifs et de l’information dont elle dispose). Comme le dit Russell Neuman, cité par Castells, « the average audience member pays relatively little attention, retains only a small fraction, and is not the slightest bit overloaded by the flow of information or the choices available among the media and messages » (128). L’audience contemporaine est ainsi, selon Castells, une « creative audience, the source of a remix culture that characterizes the world of mass self-communication » (132), une audience dont la diversité contrebalance la concentration du pouvoir qui est une des tendances caractéristiques des réseaux globaux (136).

2) Un deuxième intérêt de l’ouvrage est de dégager, en prenant appui sur de nombreuses études empiriques, les processus cognitifs et émotionnels que les individus mettent en œuvre dans le nouvel espace public dont il vient d’être question. Là encore, Castells se démarque de conceptions concurrentes simplistes, pour lesquelles l’opinion publique est formée (par les pouvoirs politiques et les médias), ou exprime des intérêts préexistants, ou se forme (selon le modèle rationaliste délibératif).  Il insiste au contraire sur le fait que la construction de l’opinion publique est un processus complexe où interviennent à la fois les élites politiques et médiatiques (la télévision et la radio, rappelle opportunément l’auteur, sont encore la source dominante d’information politique, malgré la montée en puissance d’Internet), qui fournissent des cadres d’interprétation, et les citoyens, qui traitent les données mises à leur disposition.

Concernant le premier pont, la formation de l’opinion par les élites, l’ouvrage a le mérite de rappeler que les médias structurent très fortement l’opinion publique (en choisissant à la fois ce sur quoi il faut penser et ce qu’il faut en penser). En d’autres termes, l’espace public n’est jamais vierge, comme le laissent entendre parfois les chantres naïfs du nouvel espace public qu’ouvrirait Internet, il est toujours déjà organisé par les élites, selon un processus complexe où interviennent diverses instances (le pouvoir politique, les médias, les réactions du public), diverses motivations (le niveau des médias, par exemple, filtre les données émanant du pouvoir politique en fonction de ses propres intérêts) et divers traitements cognitifs et émotionnels des données.

Concernant le second point, un mérite de l’ouvrage est d’attirer l’attention sur l’importance des traitements cognitifs et émotionnels mis en œuvre par des citoyens davantage mus par des valeurs, croyances et dispositions que par des intérêts matériels (153). Un seul exemple : pour éviter la dissonance émotionnelle, les individus cherchent systématiquement les informations qui confirment leurs propres interprétations, quitte à fuir les médias nationaux pour aller s’informer, via Internet, sur d’autres supports. Ce qui pourrait paraître un enfermement dans leur propre pensée (« people tend to believe what they want to believe ») peut aussi être lu comme une forme de résistance aux cadres d’interprétation dominants (165). Le rôle de l’affectivité, dans ces processus, est essentiel (en particulier dans le rapport des citoyens aux partis et candidats qui font le lien entre les valeurs et croyances des individus et leurs intérêts, 154).

La description que Castells fait de l’espace public réel n’équivaut pas à un rejet de l’idéal démocratique, pour lequel des sujets rationnels choisissent leurs gouvernants après délibération dans un espace public ouvert. Elle signifie simplement que la démocratie procédurale, telle qu’elle a été décrite par les théoriciens politiques, n’est qu’un idéal-type (190), dont il est essentiel, si l’on veut qu’il ait quelque chance de devenir un jour effectif, de connaître la distance qu’il entretient par rapport à l’espace public réel structuré par les diverses élites : « this is not a normative call for the triumph of emotional politics, let alone for irrational decision-making. Rather, this is a recognition of the actual way people process signals on the basis of which they make their decisions, for themselves and for the world at large on behalf of themselves » (191). En d’autres termes, il existe un niveau proprement politique, qui n’est pas exclusivement celui de la délibération rationnelle, niveau que l’idéal démocratique doit prendre en compte : « to reach the level of policy decision-making, democratic procedures have to be followed with the full understanding of the processes involved. And these processes are largely emotional, articulated around conscious feelings and connected to choices that elicit a complex array of responses dependent on the stimuli received from our communication environnment » (191). La conception rationaliste de la politique n’a quelque chance de quitter le champ de l’utopie que si elle devient consciente des limites, dans le processus politique, de la rationalité (192). Le public ne se désintéresse pas des enjeux substantiels de la politique, mais il faut prendre conscience que ces derniers, s’ils doivent être perçus par une large audience, « have to be presented in the language of infotainment ». Cela signifie que « the imagined cultural past and the notion of the loss of deliberative democracy are often the result of a nostalgic, elitist bias » (201).

C’est sur la base d’une telle analyse que Castells modère fortement la thèse, qui est devenue un lieu commun, d’une crise de la démocratie : « While there is no doubt about the worldwide crisis of political legitimacy, it is unclear if and how this translates into a crisis of democracy » (295). La crise de la légitimité politique consiste dans le décalage, dans les démocraties, entre « their constitutional rules and the beliefs of their citizen » (295). Ce décalage est dû, entre autres, à la crise de l’État-nation, qui aujourd’hui fait face à de nouvelles légitimités,  débordé qu’il est, à l’extérieur, par les réseaux globaux de l’économie, du pouvoir et de l’information, et à l’intérieur par l’émergence d’identités culturelles affirmant de plus en plus leur indépendance (295). Les médias jouent un rôle fondamental dans cette crise de légitimité, en focalisant l’attention sur les scandales politiques. Il faut cependant constater que « in spite of massive citizen disaffection vis-à-vis the political class, and vis-à-vis democracy as they experience it, often that not people around the world have not given up their political ideals, though they interpret them in their own way » (297) : ils sanctionnent davantage les sortants, suscitent de nouveaux partis et leaders, qui peuvent favoriser l’émergence de nouveaux projets politiques, mais aussi celle de mouvements populistes.  En ce sens, il est abusif de parler de crise de la démocratie.

En un autre sens cependant, qui fait l’objet du long dernier chapitre de l’ouvrage, il est possible de parler de crise de la démocratie, si l’on considère les bouleversements que connaissent actuellement les médias, avec l’émergence d’Internet. Le communication power est aujourd’hui fortement divisé entre ce que Castells nomme les messagers (les mass media traditionnels et les nouveaux médias numériques contrôlés par ceux qui les construisent et les gèrent) et les messages émanant des communications horizontales rendues possibles par Internet (donc par ces nouveaux médias). En d’autres termes, « the medium is not the message, although it conditions the format and distribution of the message » (418) : les messages peuvent remettre en cause les messagers, « once in cyberspace, people may have all kinds of ideas, including challenging corporate power, dismantling government authority, and changing the cultural foundations of our aging/aching civilization », 421). Pour revenir à la crise de la démocratie, il s’ensuit que « the practice of democracy is called into questions when there is a systematic dissociation between communication power and representative power » (298). Pour le dire plus concrètement, « the most important crisis of democracy under the conditions of media politics is the confinment of democracy to the institutional realm in a society in which meaning is produced in the sphere of media » (298). Cette constatation conduit l’auteur à estimer que « democracy can only be reconstructed in the specific conditions of the network society if civil society, in its diversity, can break through the corporate, bureaucratic and technological barriers of societal image-making » (298).

L’hypothèse envisagée à la fin de l’ouvrage est donc celle selon laquelle « the same pervasive multidimodal communication environment that encloses the political mind in the media networks may provide a medium for the diverse expression of alternative messages in the age of mass self-communication » (298). L’auteur est conscient qu’il pourrait s’agir là d’une nouvelle forme d’utopie : « Is this really so ? ».

3) M. Castells estime que le nouvel espace public, celui de l’époque de la « network society » caractérisée par la « mass self-communication », favorise l’émergence de nouveaux mouvements sociaux, cela bien que cet espace soit fortement structuré par « different forms of control and manipulation » et de ce fait « biased towards the builders and caretakers of this space » (302). C’est parce que cet espace est, par construction, ouvert, qu’il est le lieu d’une « battle of images and frames » qui vise à reprogrammer les réseaux de communication : « because they are multimodal, diversified and pervasive, communication networks are able to include and enclose cultural diversity and a multiplicity of messages to a much greater extent than any other public space in history » (302). À la condition qu’ils acceptent de se couler dans les protocoles existants (y compris les formes nouvelles prises par les mass media traditionnels) pour les transformer, de nouveaux mouvements sociaux peuvent émerger. Une tâche fondamentale pour eux est cependant de préserver d’abord « freedom and fairness in the deployment of management of the networked infrastructure of communication and in the practice of the multimedia industry » (302). En d’autres termes, « communication politics becomes dependant upon the politics of communication » (303).

À l’appui de cette thèse, Castells évoque plusieurs formes de ce qu’il nomme les insurgent social movements : la nouvelle conscience écologique, la lutte en faveur d’une mondialisation juste, l’élection d’Obama interprétée comme une « insurgent politics » (par exemple par le passage à un nouveau mode de financement de la politique), les mouvements insurrectionnels contre les despotismes du Moyen-Orient, etc.

On peut cependant s’interroger sur la pertinence qu’il y a à ranger des phénomènes aussi différents sous la même catégorie, celle d’une « potential synergy between the rise of mass self-communication and the autonomous capacity of civil societies around the world to shape the process of social change » (303).

La dernière partie de l’ouvrage me paraît en effet fragile à plusieurs titres.

(a) Les insurgent movements que décrit Castells pourraient fort bien trouver leur place dans le système économique et politique actuel sans le modifier fondamentalement. On peut rester sceptique devant l’affirmation selon laquelle les formes d’auto-organisation rendues possibles par la network society seraient l’ébauche d’une « societal organization around networked self-management » (345 ; il est à remarquer que l’auteur ne donne jamais à cette expression un sens vraiment précis). Il semble, trop souvent à la fin de l’ouvrage, que le sociologue soit tenté de céder la place à l’activiste, ou du moins qu’il accorde une oreille trop complaisante aux chantres de l’utopie du networked self-management, voire d’un brumeux communisme numérique, ou à ceux, plus naïfs encore, de la mobil-ization (constater le rôle des communications par Facebook ou Twitter dans les révolutions arabes récentes est une chose, y voir un tournant fondamental, là et ailleurs, en faveur de la démocratie en est une autre).

(b) Castells rappelle qu’Internet, comme toute technique, peut être utilisé pour opprimer aussi bien que pour libérer, mais ce rappel fonctionne souvent dans l’ouvrage comme une clause purement formelle. L’auteur n’envisage en effet que très allusivement les phénomènes que d’autres auteurs, Martha Nussbaum par exemple, rangent sous l’appellation de the offensive Internet (cf. S. Levmore and M. Nussbaum, The Offensive Internet, 2010). On pourrait contester, qui plus est, l’opposition oppression/libération, qui reproduit un schéma traditionnel (celui présent dans les théories de l’aliénation) et montrer que les nouvelles formes d’organisation économique, ou encore les nouvelles formes d’expression, s’articulent beaucoup plus finement avec le système économique ou le système des médias actuels, qu’il est par ailleurs peu éclairant de ranger sous la catégorie large et vague d’oppression.

(c) La défense de l’ouverture, de la neutralité et de la transparence des protocoles d’Internet est effectivement essentielle. Castells me semble voir à juste titre dans ce que l’on nomme la gouvernance d’Internet un problème politique fondamental. Les nouveaux mouvements sociaux ne pourront produire « another world » (je laisse à l’auteur la responsabilité de cette expression, qui me semble reposer sur un abus, malheureusement très fréquent, de l’adjectif autre) que si les citoyens et leurs États conservent le contrôle, d’une manière ou d’une autre, de ces protocoles : il n’est possible de reprogrammer que si l’on conserve un accès au programme. Mais là encore l’auteur oppose trop mécaniquement les communicating subjects et les controllers of societal communiation nodes (413). La reproduction pure et simple, par Castells, du récit anarcho-libéral des fondateurs d’Internet lui interdit ne serait-ce que d’examiner précisément les formes de régulation (au niveau européen ou national, par exemple) qui n’ont pas pour objectif de museler Internet mais de maîtriser les effets pervers que peuvent entraîner certains usages. Pour ne prendre qu’un exemple, Castells affirme qu’Internet renverse la relation traditionnelle entre les gouvernements et les citoyens, puisque, désormais, ce ne sont plus les premiers qui peuvent épier les seconds, mais l’inverse : « we are all now potential paparazzi » (413). Certes… Mais l’affaire Murdoch devrait nous rendre un peu plus prudents dans l’utilisation de cette métaphore. La transparence, l’open data movement, sont effectivement des tendances fondamentales de nos démocraties. Il n’en demeure pas moins que, comme tous les contre-pouvoirs, ils doivent être organisés (comme en témoignent les réactions des dirigeants des pays démocratiques contre Wikileaks, ou les réactions des citoyens contre les pratiques criminelles de la presse Murdoch).

Pour ces trois raisons, la fin de l’ouvrage me paraît nettement moins originale que le début. Elle se contente souvent d’entonner un refrain progressiste (l’ouvrage a été visiblement écrit au moment de l’élection d’Obama et des espoirs qu’elle suscitait) et anarcho-libéral (les analyses de la fin de l’ouvrage témoignent d’un ancrage dans le discours qui a accompagné l’émergence d’Internet) qui me paraît constituer, aujourd’hui, un obstacle à l’analyse fine du phénomène Internet, en particulier de ses effets politiques – et aussi un obstacle à la défense des potentialités démocratiques de la network society, qui paraît beaucoup plus complexe que ce que laisse penser le dernier chapitre du livre. Celui-ci oppose en effet de manière manichéenne les forces libératrices, celles de la société civile connectée en réseau, et les « government, parties, corporations, interest groups, churches, gangsters, and power apparatuses of every possible origin and kind » dont la priorité serait de museler « the potential of mass self-communication in the service of their specific interest » (414). Mais il me paraît vraiment difficile, pour ne pas dire impossible, de construire une théorie libérale d’Internet sans considérer que les gouvernements, les partis, les entreprises et les églises sont aussi des institutions libérales fondamentales (et, pour les deux dernières, des institutions centrales, à côté de la presse et des multiples associations, de cette société civile au nom de laquelle parle l’auteur).

Il faut cependant ajouter que, d’une certaine manière, ces appareils de pouvoir contribuent, pour Castells, à l’avènement de la société civile connectée autogouvernée. Mais ils le font par une sorte de ruse de l’histoire : « the more corporations invest in expanding communication networks (benefiting from a hefty return), the more people build their own networks of mass self-communication, thus empowering themselves » (421). Peut-on se contenter de reproduire, comme le fait l’auteur, ce vieux schéma téléologique et dialectique (qui a son origine dans le felix culpa chrétienne : le bien se réalise finalement dans l’histoire par son contraire, le mal) ? L’histoire est peut-être plus contingente, et moins dialectique… Remarquons cependant, pour rendre justice à l’auteur, que son optimisme historique est parfois contrebalancé par des accents réalistes. Les envolées utopiques cèdent alors la place aux constatations prosaïques : « However, for the time being, there is an unequal competition between professional media production and our low-quality home home videos and blog gossip » (422). On peut nuancer ce constat pessimiste (les médias professionnels, qui présentent d’ailleurs une grande diversité, sont peut-être moins puissants que ne le pense l’auteur, et les productions des citoyens, dont les meilleures peuvent être aujourd’hui  intégrées aux productions des médias professionnels, plus inventives et élaborées qu’il ne le pense), mais cela supposerait sans doute d’abandonner l’opposition qui gouverne finalement l’ensemble de ce livre, celle de la sphère du pouvoir (L’État, les médias, les grandes entreprises, etc.) et de la sphère de la liberté (l’individu, les communautés formées librement par eux, la société civile, etc.).

22 juillet 2011

Sur « A New Theory of Information and the Internet. Public Spheres meets Protocol » (Balnaves and Willson)

Filed under: Démocratie,Espace public,Internet — Auteur @ 12 h 43 min
Tags: , , ,

Mark Balnaves and Michele Willson : A New Theory of Information and the Internet. Public Spheres meets Protocol (Peter Lang, 2011)

Ce livre, écrit par deux universitaires du Department of Internet Studies de Curtin University (Australie), risque de décourager le lecteur, en raison de la technicité des trois premiers chapitres. Seuls les spécialistes en théorie de l’information (au sens que les cybernéticiens donnent à ce mot) peuvent juger l’affirmation selon laquelle la théorie présentée dans cet ouvrage est nouvelle. Mais l’essentiel n’est pas là. La suite de l’ouvrage présente en effet une théorie d’Internet, certes étayée sur cette théorie de l’information, mais suffisamment indépendante de celle-ci pour être lue et évaluée sans avoir à se prononcer sur la validité des premiers chapitres. Que cette théorie d’Internet soit elle-même nouvelle ou non  n’est pas non plus la question essentielle (elle me paraît plutôt consister en une synthèse cohérente et personnelle de travaux déjà existants). Les titres ont leur raison (celle des éditeurs) que la raison ne connaît pas…

Disons, en simplifiant beaucoup, que les auteurs choisissent, parmi les théories de l’information existantes, une tradition – qu’ils nomment non réaliste – impliquant que la recherche d’information (sur un moteur de recherche, par exemple) modifie le savoir de celui qui effectue la recherche, c’est-à-dire ne se contente pas d’augmenter celui-ci. C’est à partir d’une telle perspective que les auteurs en viennent à rapprocher le concept de protocole, tel qu’il a été élaboré en particulier par A.E. Galloway, de la théorie de l’agir communicationnel d’Habermas.

Si la recherche d’information modifie le savoir, c’est en effet parce qu’elle s’effectue à partir de protocoles qui, à différents niveaux, structurent la communication, c’est-à-dire définissent un certain nombre de contraintes et possibilités d’action (affordances). Une bonne partie de l’ouvrage est consacrée à la définition de ces contraintes et possibilités. Penons par exemple, pour rester au plus près du vécu des internautes, les protocoles qui organisent des communications à distance, indirectes (c’est-à-dire en l’absence de l’interlocuteur), anonymes, multiples et simultanées (l’utilisateur pouvant être au même moment sur Facebook et LinkedIn, par exemple). De tels protocoles rendent possibles des types de communication ayant des propriétés particulières, qui modifient le savoir des usagers et la distribution sociale de ce savoir. De la même manière, un protocole comme celui de Wikipedia modifie le savoir des usagers, du fait qu’il fournit, par construction, des réponses particulières à ces questions : qui produit le savoir et comment ? par qui et comment est-il reçu ? de quoi est-il le savoir ? comment et à quelle fin est-il utilisé ? de quel savoir l’utilisateur produisant ou recevant ce savoir est-il lui-même l’objet ? etc.). Généralisons : « protocol, the rules governing material code at various levels, sets the material context for accessibility to the social distribution of knowlege in the Internet » (176).

Une des propriétés de ces protocoles est, aux yeux des auteurs, essentielle : ils sont plus ou moins visibles. Le savoir est certes déterminé mais par les protocoles, non « by the people themselves » (170), mais les utilisateurs ont plus ou moins conscience des algorithmes qui organisent leur communication et leur savoir (un exemple : ce que nous nommons, depuis quelque temps, la « neutralité du Net », est en train de devenir visible – mais bien d’autres protocoles sont totalement hors de portée du non-spécialiste). Il s’agit là d’une propriété nouvelle, car même si les règles régissant une conversation de salon ou le fonctionnement de l’accès au savoir dans une bibliothèque étaient loin d’être toutes transparentes aux agents, le degré d’opacité et d’invisibilité des protocoles d’Internet est beaucoup plus élevé. L’internaute, par exemple, peut croire être connecté anonymement sans l’être, il peut penser à tort qu’il efface ses écrits ou paroles, etc. (qui connaît le mode de fonctionnement  d’Acxiom, l’agrégateur au travail derrière Google ?).

Les auteurs ne décrivent pas systématiquement ces protocoles, mais l’idée qu’ils développent est claire. Ils l’illustrent, à plusieurs reprises, de manière suggestive. En suivant Geiger, ils montrent par exemple que contrairement à une idée répandue – par Habermas en particulier – les protocoles d’Internet ne fragmentent pas l’espace public mais opèrent une intégration particulière de celui-ci, qui s’effectue non par l’échange des discours et la construction d’une synthèse rationnelle, mais par des algorithmes :

…the opinions crafted by individuals (presumably after or through discourse in a small community) can be aggregated and passed to other users and communities for further discussion and subsequent aggregation. Such sites cut out the human mediation traditionally required in a social network, allowing for a seemingly social direct representation of public opinion in the blogosphere. Through a system of uncoordinated coordination, collective action has become possible on a previously unimaginable scale, due to the small amount of effort required by each human in order to bring about the social « wisdom of crowds » (R.S. Geiger, « Does Habermas Understand the Internet ? The Algorithmic Construction of the Blogo/Public Sphere », Gnovis, 2009 – cité par les auteurs à la page 135).

 

 

Il n’a pas été question, jusqu’ici, de questions normatives, simplement d’une description des effets des protocoles sur la communication et le savoir. Mais la perspective des auteurs a, très clairement, un horizon normatif : « an awareness of the possibilities of theses constructs, of the affordances of technological environs and tools for communication, data gathering, or online moderation is important for understanding the possibility for collaborative activity and the degree to which actions, issues and discussions can be freely and openly canvassed or enacted » (146).

C’est à ce point de l’argumentation des auteurs que Galloway rejoint Habermas… La théorie de l’agir communicationnel d’Habermas met en effet en évidence qu’aucune communication n’est immédiate, et que celle qui a lieu dans l’espace public démocratique suppose un ensemble de règles, qu’Habermas explicite longuement dans ses ouvrages (ce sont les règles logiques et éthiques régissant le discours non stratégique : universalité de l’espace public, reconnaissance mutuelle des participants en tant qu’agents libres, également rationnels et raisonnables, débattant des affaires publiques, etc.). Or, par bien de leurs aspects les protocoles d’Internet peuvent apparaître comme des intermédiaires proches de ce qu’Alfred Schutz (auquel les auteurs consacrent des pages intéressantes) et Habermas nomment l’espace public démocratique.

L’intérêt de l’ouvrage est de ne céder ni à l’utopie selon laquelle les propriétés des protocoles actuels d’Internet et les règles de l’espace public au sens d’Habermas convergeraient (on se souvient des grandiloquentes proclamations de John Perry Barlow à ce sujet), ni à l’idée selon laquelle ils divergeraient inévitablement (Internet serait une « zero institution » au sens que Jodi Dean donne à cette expression, c’est-à-dire une institution « which makes no normative claim » et ne peut de ce fait qu’être un lieu de dissensions infinies). Les auteurs discutent, en particulier, les analyses d’Habermas (dans un article de 2006 ; « Political Communication in Media Society ») selon lesquelles les protocoles d’Internet permettent certes d’organiser des actions contre les régimes autoritaires mais conduisent inévitablement à la fragmentation de l’espace public en multiples espaces réunissant des activistes mobilisés en faveur de causes diverses, dont l’action ne peut déboucher sur une réelle perspective politique que s’ils rejoignent l’espace public démocratique, dont la presse est le vecteur principal. Les auteurs se font les échos des critiques selon lesquelles Habermas, dans cet article, sous-estimerait le potentiel démocratique d’Internet, les facteurs « which combine to allow quality material to emerge to public attention » (Axel Bruns, dans un article de 2007, « Habermas and/against the Internet »).

Les analyses concrètes des auteurs (qu’il n’est pas possible de résumer ici) tendent à montrer qu’Internet « presents fascinating challenges for the maintenance of the public sphere » (95). Le regard qu’ils portent sur la contribution d’Internet à la vie démocratique est certes lucide et sans illusion : « at best, current deliberative practices on the Internet are closer to a form of activism than to a public sphere embedded in law for participatory democracy » (160). Ils montrent par exemple que les nouveaux agrégateurs (Google Social Search, Twitter Lists), s’ils font émerger « quality material to public attention », comme il a été dit plus haut, enferment souvent à nouveau les internautes dans les sphères limitées de leurs intérêts et valeurs (ce qu’avait déjà souligné Cass R.Sunstein), en utilisant les réseaux sociaux comme des filtres confinant les usagers dans « a gated community, limited to a pre-screened list of like-minded individuals and groups » (138).

Aussi bien, ce n’est pas du côté des pratiques politiques actuelles permises par Internet qu’il faut chercher les « fascinating challenges » dont parlent les auteurs, mais du côté des potentialités démocratiques des protocoles. Ceux-ci, on l’a vu, ont pour caractère essentiel l’invisibilité, qui leur confère leur pouvoir : « the more ignorant people become about the underlying infrastructures delivered by the Internet, then the more influential that system(s) would become » (169). Mais une société démocratique peut prendre conscience de cet état de choses et poser la question de la visibilité de ces protocoles : « how might we make visible and critique the intentional and unintentional… barriers that direct the flow of online activity and encourage uncritical, instrumental navigation online ? » (114). Les questions essentielles que posent l’existence des protocoles d’Internet (que rendent-ils possibles ? qu’interdisent-ils ? comment déterminent-ils le contenu auquel accède l’usager ? à quels niveaux ? quelles données concernant l’usager stockent-ils, et où ? quel est leur degré de transparence et le contrôle que le citoyen a sur eux ?, etc.) sont autant de défis à la pratique démocratique. C’est en posant ces questions qu’une société démocratique s’engage dans la voie du renforcement de l’espace public : « a generalisation of competence of the informed citizen with the Internet, the autors would argue, would start with at least these questions. If a citizen cannot engage the Internet at this level and relies solely on recipe knowledge, then they cannot in all honest be called informed » (117).

Poser la question de la gouvernance d’Internet, au sens le plus large du terme, est donc pour les auteurs le seul moyen de sortir des discours utopiques (les protocoles d’Internet vont étendre et approfondir la démocratie) et réactionnaires (ils sont une menace pour la démocratie) : « the next step… is to create transparent algorithms that can assist deliberative democratic process on the Internet and, perhaps more importantly, expand the capability of citizens to undestand the effects of the material technology of the Internet on their decisions and their identities » (171). Concrètement : nous pouvons construire des protocoles qui n’enferment pas les citoyens dans des sphères où ils ne rencontrent plus que l’écho de leur propre voix, qui n’exploitent plus leurs données personnelles et, surtout, qui ne leur ôtent plus la capacité de juger et modifier les outils qu’ils utilisent.

Reprenant une idée de Galloway, les auteurs estiment que les protocoles actuels « are driven at present not by policies or regulations that want to expand a public sphere but by logics of ease in the very material creation of the Internet » (118). Cette « logics of ease » n’est pas dénoncée par les auteurs comme un mal intrinsèque, ou une conspiration capitaliste. Elle a simplement des effets, qu’il faut comprendre et transformer de manière à ce que les protocoles d’Internet renforcent l’espace public dans le sens d’une « genuine communication » et d’un « collaborative knowledge building » (118). Les protocoles actuels, qui semblent suivre « the easiest and thus the most logical approach », cachent ou rendent moins désirables des protocoles alternatifs, qu’une société démocratique doit rendre à nouveau visibles.

Prolongeant des analyses de S. Coleman au sujet de la BBC, les auteurs en viennent à envisager en particulier la création d’un public search engine, qui « would need to keep transparent the coding behind it and the organizing logic and intent of the algorithms that run it – keeping the purpose and practice of these open for the public deliberation and input by all. Relevance would then be determined by public, not commercial, needs (including the the design of the information retrieval system) » (175).

 

Il me semble qu’une telle proposition suscite deux interrogations distinctes.

La première est de savoir si les auteurs, qui dénoncent les utopies qui ont accompagné le développement des protocoles d’Internet, ne proposent pas à leur tour une mesure dont on peut se demander si elle est faisable et souhaitable. Á supposer qu’un tel moteur de recherche public puisse jamais voir le jour, quelles seraient ses chances de succès et sa contribution effective au développement de l’espace public démocratique ?

Je ne m’engagerai pas davantage dans cette première interrogation. La seconde me paraît moins visible mais tout aussi importante. Les auteurs, en reprenant sans distance critique les analyses d’Habermas relatives à l’espace public, n’érigent-ils pas une conception particulière de la démocratie comme la seule possible, cela sans la moindre justification? L’utopie pourrait bien être à chercher non pas dans telle ou telle mesure préconisée par les auteurs (la construction d’un moteur de recherche public, par exemple) mais dans l’idée que l’espace public démocratique est un espace universel où débattent des sujets rationnels pleinement informés. Une telle conception de la démocratie a, on le sait, été souvent critiquée (entre autres, vigoureusement, par M. Walzer dans Politics and passion). On peut à juste titre se demander si cet agir communicationnel, pour reprendre le terme d’Habermas, n’idéalise pas l’espace démocratique réel (les intellectuels ont souvent tendance à penser le débat démocratique à l’image du colloque universitaire – en l’idéalisant fortement, d’ailleurs). Il est symptomatique que les auteurs, parce qu’ils suivent Habermas sans le questionner, présentent comme des évidences empiriques ce qui ne va pas du tout de soi : que les citoyens « expect a public culture of shared knowledge, values and points of reference », qu’ils rejettent les pratiques par lesquels les hommes politiques « buy citizen votes and their power through the Internet » par des campagnes électorales onéreuses et d’habiles manipulations, etc. Il y a, derrière ces assertions et d’autres du même type (175-176), une certaine naïveté qui a pour effet de tracer une ligne contestable entre les pratiques politiques réelles, incluant celles qui passent par les protocoles actuels d’Internet – pratiques bien hâtivement qualifiées de contraires à l’éthique régissant la démocratie – et des pratiques idéales, celles au nom desquelles les auteurs proposent de réformer les protocoles d’Internet. Il est clair, par exemple, que si l’on suit les auteurs dans la conception qu’ils se font du citoyen informé (comme un citoyen dont l’accès à l’information n’est pas limité par des protocoles l’enfermant dans une perspective étroite), on ne peut qu’en venir à préconiser un moteur de recherche qui « can be used to carefully manage and maintain a representative sample of the most relevant and broad-reaching commentary and developments on any topic or issue » (139). Mais cette opposition entre des citoyens enfermés dans des horizons étroits et des citoyens pleinement informés « on any topic or issue » est-elle pertinente ? N’y a-t-il pas, derrière une telle opposition, le mythe d’un citoyen pleinement informé ? Qu’est-ce qu’être pleinement informé et pleinement informé sur tout ? Est-ce vraiment cela, être un citoyen éclairé, dans nos démocraties réelles ? Avec ces questions, c’est l’idée même que se forme Habermas de l’espace public démocratique qui perd de son évidence.

On peut penser que la critique que j’avance ici est par trop conservatrice. Elle pourrait rejoindre celle de Michael Schudson :

Citizens can be monitored rather than informed. A monitoral citizen scans (rather than reads) the informational environment in a way so that he or she me be alerted on a very wide variety of issues for a very wide variety of ends and may be mobilized around those issues in a large variety of ways… Monitorial citizens tend to be defensive rather than pro-active. They are perhaps better informed than citizens of the past in that, somewhere in their heads, they have more bits of information, but there is no assurance that they know at all what to do with what they know. They have no more virtue than citizens of the past – but not less, either » (« Changing Concepts of Democracy », MIT Communications Forum, 1998).

Mais même si le point de vue de Schudson est précieux (tout ce qui peut nous mettre en garde contre l’utopie est bienvenu) ma critique est différente de la sienne. Il ne fait pas de doute, comme l’a brillamment montré Pierre Rosanvallon dans La contre-démocratie, que les formes modernes d’activisme, indépendamment même de l’utilisation des outils offerts par Internet, peuvent dégrader les contre-pouvoirs indispensable à toute démocratie et engendrer ce que P. Rosanvallon nomme une impolitique (et Schudson des actions « defensive rather than pro-active »), c’est-à-dire des actions visant tout au plus à surveiller le pouvoir, à s’opposer à lui, à l’affaiblir, mais renonçant à toute politique positive orientée vers le bien commun. Il ne s’ensuit pas, cependant, que l’action des citoyens, dans nos démocraties, soient condamnées à cette impolitique, comme Rosanvallon le dit lui-même fortement à la fin de l’ouvrage. Le scepticisme de Schudson semble bien reposer, finalement, sur le même présupposé que l’utopisme de nos auteurs (un utopisme d’ailleurs modéré, quand on pense à d’autres variantes, plus exubérantes, qui ont accompagné la construction d’Internet). Ce présupposé consiste à opposer la sphère de l’universel (l’espace public habermasien, lieu de la délibération rationnelle) et les multiples sphères du particulier (celles où les citoyens se mobilisent en faveur de telle ou telle cause) ou, pour le dire autrement, à opposer « genuine communication » et « uncritical, instrumental navigation on line », comme le font trop souvent les auteurs de l’ouvrage. Si l’on pense l’espace public démocratique d’une autre manière, en rupture avec l’idéalisation qu’est le modèle délibératif, si l’on considère qu’il est constitué de sujets non pas individuels mais collectifs (institutions, partis, syndicats, groupes de pression, associations de la société civile, etc.), dont le savoir et la rationalité sont limités (comme en témoigne l’importance, dans la vie politique, des croyances, des symboles, des émotions et des passions), on sera amené à envisager de manière plus positive et nuancée les effets des protocoles d’Internet sur la vie publique (pour une étude fine de ces effets, de leurs promesses et de leurs limites, cf. Dominique Cardon, La démocratie Internet).

Pour revenir au titre de l’ouvrage : ce qu’il y a de plus nouveau dans cette étude est sans doute l’insistance particulière des auteurs sur la nécessité, dans nos sociétés démocratiques, de rendre visibles les protocoles que nous utilisons quotidiennement, d’en mettre clairement en évidence les effets, de manière à pouvoir les utiliser davantage au service des pratiques démocratiques. Mais comme toute réflexion sur les rapports d’Internet et de la démocratie, la réflexion des auteurs engage également une conception de la démocratie, qui ne me semble pas, en l’occurrence, la seule possible – ce qui relativise à mes yeux la pertinence des mesures qu’ils proposent (un moteur de recherche public, par exemple).

 

25 juin 2011

Sur « Réponses à Hadopi » de J. Branco

Quelques réflexions sur deux ouvrages récents consacrés à Hadopi : Réponses à Hadopi, de J. Branco (Capricci, 2010) et Lutte contre le téléchargement illégal, par E. Derieux et A. Granchet (Lamy, 2010).

Il est difficile d’imaginer contraste plus grand entre le premier ouvrage, pamphlet dogmatique et naïf, et le second, étude documentée, argumentée et nuancée dans ses conclusions, dans l’ensemble sceptiques quant à l’efficacité d’Hadopi.

J. Branco (cofondateur de la plate-forme Création Public Internet) a visiblement le plus grand mal à imaginer que quelqu’un puisse ne pas être de son avis. Les défenseurs d’Hadopi se rangent en fait pour lui soit dans la catégorie des exploiteurs soit dans celle des ignorants. La première catégorie comprend, entre autres, les « sociétés d’auteurs et grands groupes », qui n’ont d’autre objectif que de rançonner le consommateur. L’auteur ne s’embarrasse pas d’arguments à leur propos, il préfère mobiliser les attaques ad hominem (en rapportant des ragots de cocktails sur le salaire de tel ou tel ou le luxe dans lequel vivrait telle ou telle société de défense des ayants droit, ou des insinuations sur l’âge avancé des artistes ayant signé une pétition en faveur d’Hadopi, etc.). Quant à la catégorie des ignorants, elle englobe tous ceux, mis à part ceux figurant dans la catégorie précédente, qui ne partagent pas l’avis de l’auteur : le Parlement a voté la loi Hadopi « sans disposer de l’information lui permettant de voter en conscience » ; les sociétés d’auteurs, du moins celles qui sont honnêtes, « n’auraient jamais dû appuyer une telle erreur » ; les artistes du cinéma ont été empêchés « de se prononcer en connaissance de cause » ; l’industrie musicale « commet l’erreur historique et presque [sic]  mortelle de réduire considérablement son offre au tournant du siècle – plusieurs mois avant la démocratisation du partage » ; le gouvernement « se réclame d’un moment qu’en vérité il ne comprend pas », etc. Résumons : « ni les pouvoirs publics ni les principaux pouvoirs économiques et artistiques n’ont pour l’heure pris en compte cette révolution » (le numérique). Cela fait du monde ! Mais qui pourrait arrêter celui qui détient la vérité ? Certes, il est difficile de penser que les agents sociaux ignorent leurs véritables intérêts. Mais on peut toujours s’en sortir en en faisant des « alliés objectifs du projet de loi » (37). On aurait pu croire ce vocable révolu… Mais non : Costa-Gravas entre dans cette catégorie, en compagnie de « vieilles gloires, très qualité française » et de « machines à blockbusters ».

L’idée selon laquelle tous ceux qui ne sont pas de mon avis sont dans l’erreur conduit, ici comme ailleurs, à de nombreuses contorsions. Comment expliquer que les grands groupes cinématographiques, qui selon l’auteur (qui ne s’embarrasse pas d’études empiriques) ont intérêt au piratage, l’ignorent? C’est qu’en fait ils le savent mais ont peur d’autre chose (que le buzz de ceux qui pratiquent le téléchargement illégal remette en cause « les machines du marketing », le contrôle des attachés de presse, des avant-premières et des teasings « ou même la critique », 55). La stratégie argumentative – si l’on peut parler ainsi – est claire : on peut toujours essayer de retomber sur ses pieds, même quand on vient de faire une voltige périlleuse et maladroite…

Dogmatique, l’ouvrage l’est, à l’évidence. Mais le plus étonnant est la naïveté et légèreté dont fait preuve l’auteur, presque à chaque page. Passons sur les formules qui ont sans doute échappé à l’auteur : telle ou telle mesure envisagée par le Parlement « ferait de la Chine un paradis des libertés informatiques comparé à la France ». Mais comment comprendre qu’on puisse, à quelques pages d’intervalle, accuser une loi d’être liberticide et affirmer en même temps qu’elle est dénuée de toute efficacité, qu’elle est une loi mort-née ? Comment peut-on affirmer, sans la moindre preuve, que le cinéma ne subit « aucun contrecoup visible » du fait téléchargement illégal, que « les copies téléchargées n’entraînent pas de dépenses supplémentaires pour les ayants droit, la copie n’étant pas dérobée à son fabricant mais effectuée par le particulier lui-même » (avec le même argument on peut justifier toute contrefaçon), que les efforts pour développer l’offre légale sont inexistants, que le streaming légal n’a pas d’avenir économique (on peut le penser, mais encore faut-il avancer des arguments en faveur de cette affirmation), etc.

Il est clair, quand on lit attentivement ce livre, que ces naïvetés ont une racine commune, qui affleure à plusieurs reprises : « la culture est devenue subitement un marché symétrique où l’offre, court-circuitant les filtres de l’industrie, provient toujours plus des consommateurs eux-mêmes » (49), « quelques acteurs décidaient hier ce qui devait être produit et diffusé ; aujourd’hui, ce sont les consommateurs qui, par le biais des réseaux parallèles, redistribuent les produits » (56). Ce primat du consommateur est posé à chaque instant dans l’ouvrage, et il y prend le statut d’une véritable loi de l’histoire (le téléchargement illégal est un fait irréversible, comme l’est pour l’auteur la diffusion illégale des documents diplomatiques et politiques). Il est étroitement lié à la thèse d’un déterminisme par la technique (ce sont les développements de celle-ci qui rendent le téléchargement illicite et la fuite inéluctables) et d’une profonde sous-estimation du politique (« les gouvernements seront toujours perdants (…) à preuve l’affaire Wikileaks »).  Cet étrange libéralisme – qui n’en est pas un, bien que le discours se réclame à chaque instant de la liberté – me semble bien en fait n’être que l’habillage d’une brutale affirmation : seuls les intérêts du consommateur comptent. Il est bien difficile de donner un nom à cette idéologie, apparemment libérale, en réalité populiste et techniciste à la fois.  Mais ses traits sont clairs : jamais l’auteur ne parvient à penser que nos sociétés sont des sociétés complexes, où les intérêts (ceux des consommateurs, ceux des éditeurs, ceux des auteurs…) sont réellement divers ; jamais il ne parvient à penser que la politique consiste à harmoniser, ou souvent simplement à arbitrer, entre ces conflits, comme cela a été fait avec Hadopi (dont je ne dis pas qu’elle soit la seule ou la meilleure des solutions).

Une fois posé ce primat du consommateur (dont on se demande bien, tel qu’il est formulé, quelle place il laisse aux auteurs), il ne reste plus à l’auteur qu’à osciller entre les vœux pieux (« il sera donc nécessaire d’élaborer un pacte de confiance entre les pouvoirs publics, les industries culturelles et les internautes et citoyens, afin d’aboutir à une législation contenue de comportements aujourd’hui irréversibles, contre compensation en bonne et due forme ») et un dirigisme old style qui pointe clairement son nez à la fin de l’ouvrage. L’auteur se présente comme un fervent défenseur de la licence globale. Pourquoi pas ? L’expression recouvre des réalités très différentes et il existe des versions solides et défendables de celle-ci. Mais à aucun moment l’auteur n’envisage les objections de principe à cette licence, pourtant bien connues (dans un tel système tout le monde paie pour le comportement de quelques-uns, et cette solution peut à terme dénaturer les fondements mêmes de la propriété intellectuelle et du droit d’auteur) et ne tente d’y répondre. Il se contente de proposer une licence globale (qui serait un « service public », à l’instar du téléphone et du haut débit, sic, 67 !) dont la description laisse rêveur : « les sommes seront redistribuées aux ayants droit selon une base proportionnelle au nombre de téléchargements, mesurés par des sondages, et complétée par une redistribution favorisant la diversité culturelle. Cette base pourra être lissée avec un aplatissement de la courbe de redistribution des ayants droits au profit des ayants droit les moins reconnus… » (passons sous silence l’usine à gaz encore plus baroque que l’auteur invente, à la page 69, pour le cinéma). L’auteur reconnaît que cette construction hasardeuse aurait des conséquences et des effets pervers (par exemple la disparition de la VOD de masse, « marché de toute façon peu profitable aujourd’hui et quasi inexistant ») mais semble faire confiance à un État qui aura cessé de « de répondre par à-coups aux desiderata industriels et prendra enfin ses responsabilités ».

Ce n’est pas le moindre paradoxe de cet ouvrage qu’après une charge d’allure libertaire, dans un style assez fréquent dans certains milieux d’Internet, il retombe finalement dans un vague et plat dirigisme. L’Etat vient finalement sanctionner et achever l’évolution inéluctable de l’histoire…

L’interview de Jean-Luc Godard, qui clôt le volume, est rafraîchissante. L’interviewé (quel âge a-t-il, au fait ?) y roule dans la farine l’intervieweur, en déclarant, à la cantonade, que « le seul droit de l’auteur, c’est son devoir de créer », ou que « je n’ai pas grand avis sur la loi Hadopi, qui est ridicule et criminelle », ou encore que « les tableaux devraient circuler… une semaine chez chacun, pour qu’on ait le temps de les voir ».

Quelques mots sur l’autre ouvrage, celui d’E. Derieux et d’A. Granchet, Lutte contre le téléchargement illégal (Lamy, 2011). C’est, en 200 pages d’une grande clarté, un exposé à la fois simple et profond des faits et de tous les arguments relatifs au téléchargement illégal. Leur jugement n’est pas tendre : « ce dispositif juridique spécifique de lutte contre le téléchargement illégal, qui n’est pourtant qu’une contrefaçon parmi d’autres, risque de s’avérer tout aussi inadapté et inefficace » (196). Mais il est fondé. Il vient en conclusion d’une argumentation ouverte, confrontant prudemment les divers points de vue et ne perdant jamais de vue les faits. Question de méthode et d’honnêteté intellectuelle…

Page suivante »

Propulsé par WordPress.com.