LE FIL DES PAGES

11 août 2011

Sur « The Filter Bubble » d’Eli Pariser (2011)

Eli  Pariser : The Filter Bubble : What the Internet is Hiding from You (The Penguin Press, Kindle Edition, 2011)

 

Eli Pariser, ex-directeur de Move.On Org, consacre cet ouvrage à ce qu’il estime être un fait fondamental dans la récente évolution d’Internet : la personalization (ou customization) des moteurs de recherche et réseaux sociaux, étroitement liée à l’émergence d’une publicité de plus en ciblée sur l’individu. Comme le dit Sheryl Sandberg, une des responsables de Facebook – en interprétant cette évolution comme un désir des consommateurs et des citoyens, ce qui est loin d’aller de soi – « people don’t want something targeted to the whole world – they want something that reflects what they want to see and know » (1496-1502).

Cette personalization s’est mise en place comme une réponse à ce que Steve Rubel a nommé l’attention crash (l’individu ne peut être attentif à l’ensemble de l’information proposée par le Web, il faut d’une manière ou d’une autre simplifier l’immense flot, de manière à ce qu’il puise fixer son attention). Les techniques utilisées pour construire le moi des internautes sont bien connues (dans leur principe, non dans le détail de leur fonctionnement, qui demeure très opaque) : « you are what you click » (Google) et « you are what you share » (Facebook). L’auteur montre que d’autres techniques, beaucoup plus subtiles, se profilent à l’horizon. Il va sans doute devenir possible de savoir à quel type d’argument un acheteur est sensible (certains cèdent immédiatement à une proposition de rabais immédiat, d’autres repoussent une telle proposition parce qu’ils sont sceptiques sur la qualité du produit, d’autres ont besoin de consulter des reviews avant d’acheter, etc.). Grâce à la construction d’un persuasion profiling de l’internaute, la publicité pourra alors éliminer les modes de persuasion qui répugnent à l’acheteur. Une autre technique, celle de l’analyse des sentiments est également en train de se mettre en place : l’analyse des mails et divers posts de l’individu permet de se faire une idée précise de ses sentiments et humeurs, en fonction des jours ou moments de la journée, et de cibler la publicité en conséquence (on sait que les internautes stressés sont plus enclins à l’achat compulsif, ou à soutenir un candidat émettant tel ou tel message, etc.). À la limite, l’objectif, comme le dit une responsable de Facebook, est de supprimer tout moteur de recherche : l’information viendra à vous directement, ce sera le « search without search ».

L’auteur montre de manière très convaincante que cette personalization transforme en profondeur ce que nous avons coutume de nommer l’expérience (notre perception apparemment naïve du monde). Considérons la réalité augmentée, c’est-à-dire la perception guidée par de multiples robots qui, grâce à la personnalisation, peuvent aider l’individu à voir et être informé de ce qui est important pour lui (via un smartphone ou d’autres appareils qui seront plus ou moins intégrés au corps) : « augmented reality filters offer the possibility of an annotated and hyperlinked reality, in which what we see is infused with information that allows us to work better, assimilate information more quickly, and make better decisions » (2877-82). Une telle perception ainsi augmentée « represents the end of naive empiricism, of the world as we see it » (2866-71) Notre expérience finit par devenir scientifique, avec cette contrepartie : « in exchange for convenience, you hand over some privacy and control to the machine » (2882-88), « because the transformations applied to your data are often opaque, it’s not always clear exactly what decisions are being made on your behalf, by whom, or to what end » (2380-94).

 

Les dernières lignes citées montrent clairement que l’auteur voit un danger dans cette personalization, qu’il qualifie de « return to a Ptolemaic universe in which  the sun and everything revolves around us » (213-19), ou encore d’équivalent psychologique de l’obésité : les moteurs de recherche et réseaux sociaux nous enferment non seulement dans notre identité mais dans l’identité qu’ils construisent de nous, puisque tout choix futur est guidé par cette identité et la renforce en retour. Apparemment, c’est l’identité qui construit le média, en réalité c’est le média qui construit l’identité (1681-87). La personalization marquerait la fin de la serendipity (d’une recherche qui est un mixte de méthode et de hasard, laissant place à la découverte imprévue), la fin aussi aussi du bridging capital (ce capital social qui nous ouvre à des réseaux différents). L’individu ne ferait plus sa propre vie (car il faut pour cela avoir des options très différentes, qui nous sortent de nous-mêmes). Contrairement à ce qu’affirmaient les évangélistes d’Internet, ce nouveau média pourrait donc, lui aussi, nous rendre plus passifs. La distinction entre pull technology (la TV traditionnelle) et push technology (Internet) ne serait plus pertinente (l’auteur analyse par exemple le système de YouTube appelé LeanBack, qui rapproche YouTube de la TV en proposant des vidéos enchaînées l’une à l’autre, avec une intervention minimale de l’internaute, redevenu spectateur) : « Steve Job’s proclamation that computers are for turning your brain on may have been a bit too optimistic » (954-60).

Face à ces descriptions (qui reprennent sur de nouvelles bases celles, déjà anciennes, de Carl. R. Sunstein), fines et présentées de manière vivante et convaincante, on se demande cependant par rapport à quelle perspective totale ou plus objective sur le Web la personalization pourrait constituer un danger. L’auteur affirme en effet que « personalized filters can interfere with our ability to properly understand the world » (1454-60). Que veut dire ici properly understand ? Il est clair que l’idée d’une perspective totale est un pur fantasme (celui du savoir absolu). Aussi bien l’auteur renvoie-t-il plutôt, par cette expression (properly undrestand), à la pratique des anciens médias, celle des journaux traditionnels : « to some degree, the paper is representative of the news of the day » (1460-65). Il y aurait beaucoup à dire sur ce point (les journaux traditionnels sont eux aussi des filtres, et souvent passablement paternalistes). L’expression renvoie également à l’utopie des créateurs du Web qui imaginaient, selon la formule de Tom Friedman, qu’Internet allait « to make us all next door neighbors »… La personalization signerait la mort de ce Web originel. Il semble bien qu’il y ait cependant là une nostalgie, qui repose en grande part sur une idéalisation du Web des origines (lequel était, rappelons-le, réservé à une étroite élite intellectuelle, homogène culturellement) : « In the early days of the World Wide Web… the online terrain felt like an unmapped continent, and the users considered themselves discoverers and explorers » (1415-20), alors que « Google is great at helping us find what we know we want, but not at finding what we don’t know we want » (1226-32 ; il est à remarquer qu’on pourrait tout aussi bien reprocher à Google de nous faire trouver, par la publicité, « what we don’t konw we want » !).

Certes, on accordera à l’auteur que « what is good for consumer is not necessarily good for citizens » (293-98). Mais Pariser a une forte tendance à supposer que les internautes ont des intérêts et besoins dont ils n’ont pas conscience. Le paternalisme affleure dans de nombreuses formules: « what I seem to like may not be what I actually want » (293-98 – il est amusant de retrouver cette idée platonicienne sous une plume contemporaine). L’élitisme perce également à chaque instant : « the creators of Internet envisioned something bigger and more important than a global system for sharing pictures of pets » (304-11). Ce qui était visé par les fondateurs d’Internet était plutôt « a kind of world wide metabrain » (ibid.), ce qui suppose un Internet sans publicité (on se souvient que tel était effectivement l’objectif des fondateurs de Google !).

 

S’agissant plus précisément du domaine de l’information, l’auteur fait apparaître clairement le lien entre la personalization et ce que l’on nomme en anglais (à la suite de Jon Pareles) la desintermediation : les editors professionnels humains sont remplacés peu à peu par « a mix of nonprofessional editors (our friends and colleagues) and software code to figure out what to watch, read and see. This code will drow heavily on the power of personalization » (725-30). Pariser mène une critique puissante, très convaincante, contre cette mythologie de la desintermediation, censée éroder tous les pouvoirs. Il rappelle que « the effect is to make the new mediators – the new gatekeepers – invisible » (comme l’a soutenu Tim Wu). Les nouveaux médias se nomment Craiglist (publicitaire en ligne), Amazon, Google, Facebook… Alors que nous critiquons sans cesse la presse traditionnelle, « we’ve given very little scrutinity to the interests behind the new curators » (850-56). Les descriptions fines que Pariser mène de ces new curators rejoignent celles de tous les observateurs contemporains des nouvelles formes de journalisme. Les nouveaux médias d’information sur Internet fonctionnent à peu près entièrement au traffic watching. Ce n’est pas une nouveauté dans le journalisme (la presse populaire, les tabloïds, utilisent depuis depuis longtemps le critère de l’audience) mais ce traffic watching repose désormais sur une puissante personalization et il tend à devenir l’unique mode de sélection des articles (qui doivent devenir instantanément « viraux » pour avoir une chance de survie).

Les conséquences d’une telle personalization des nouvelles sources d’information sur Internet sont importantes au niveau politique. L’auteur s’attache à dégager les effets de la personnalisation des messages durant les campagnes électorales :

1) D’abord la fragmentation de l’espace public (il devient impossible de répondre à tous les messages car personne ne les reçoit tous, même pas les dirigeants des campagnes électorales). Cette fragmentation rend impossible « a common conversation », elle-même condition de la formation d’un consensus. La personnalisation politique a le même résultat que la personnalisation publicitaire, elle enferme les individus dans une identité (les hommes politiques ou les partis deviennent l’équivalent d’une marque dans laquelle le citoyen met son identité, finement construite par la personalization) : « when people don’t have to worry about having their basic needs met, they care a lot more about having products and leaders that represent who they are » (2122-28). Les électeurs s’expriment en choisissant tel ou tel (l’auteur nomme cette tendance « postmaterial desire to maximize self-expression », 2173-78). Un tel fonctionnement de la politique a des conséquences importantes : de même qu’une marque peut s’adresser à des clientèles différentes, en adressant des messages différenciés, les hommes politiques, en ciblant ainsi les électeurs, se rendent de gouverner beaucoup plus difficile (on le voit avec B. Obama : quand vous représentez quelque chose de différent pour différents groupes ou individus, il est difficile ensuite de construire une politique faisant l’objet d’un consensus suffisant).

2) Un deuxième effet est celui de l’impossibilité de distinguer le vrai du faux. Il était possible, dans les médias traditionnels, de faire rectifier une erreur ou un mensonge : « it’s not great to have TV station owners be the sole arbitrators of truth… but it is better to have some bar for truthfulness than none at all » (2100-2106). C’est plus difficilement le cas, voire impossible, sur Internet.

La description que l’auteur fait des nouvelles sources d’information est fine et convaincante. Il n’en demeure pas moins qu’elle suscite des questions et objections quant à la signification que lui donne Eli Pariser :

1) L’auteur suppose que les citoyens ont tous également besoin d’être également informés et créatifs. Il est symptomatique qu’il invoque, lorsqu’il veut illustrer les effets néfastes de la personalization, les dangers d’une focalisation trop étroite sur nos intérêts et idées, cela dans le domaine de la recherche scientifique ! On pourrait lui objecter que tout le monde n’est pas chercheur, que les citoyens – et seulement certains d’entre eux – se pensent davantage comme des amateurs que comme des professionnels, lorsqu’ils réfléchissent aux problèmes politiques (je reprends cette distinction à l’excellent livre de Gerry Stokers, Why Politics Matter). Il y a un biais, chez l’auteur, en faveur de l’activité intellectuelle des citoyens, qui présuppose une certaine conception de la démocratie, conception qui est davantage un modèle théorique qu’un reflet de la réalité effective (en réalité les citoyens disposent d’une information limitée, ils agissent davantage à partir de sentiments que d’analyses intellectuelles, tous ne s’intéressent pas à la chose publique, etc.).

2) Il est clair que le livre tout entier repose sur un biais individualiste. L’auteur se lamente sur le fait que chacun n’a pas accès à toute l’information, que les conservateurs restent conservateurs, les libéraux restent libéraux… Mais la démocratie réelle fonctionne ainsi : la synthèse politique n’est possible, la plupart du temps sous forme de compromis, que sur la base d’une multiplicité de groupes idéologiquement homogènes. De ce point de vue, l’enfermement des individus dans une vision du monde, que renforce la personalization sur laquelle reposent les nouvelles sources d’informations sur Internet, pourrait ne pas avoir des conséquences aussi dramatiques que celles décrites par l’auteur. Il n’a de telles conséquences que par rapport à une conception idéale, et idéaliste, de la démocratie, qui est loin d’être la seule possible.

3) Enfin, tout se passe, dans ce livre, comme si l’unique source d’information des citoyens était le Web. Certes, les citoyens américains passent plus de temps sur Internet que les citoyens français. Mais l’auteur n’envisage à aucun moment le fait que les citoyens ont une information sur leur lieu de travail, dans la ville où ils vivent, dans les associations auxquels ils adhèrent, dans les établissements scolaires dans lesquels ils sont inscrits, etc. Il y a là comme une déformation professionnelle de l’auteur, qui le conduit à donner une importance démesurée aux sources d’information disponibles sur Internet.

 

L’ouvrage se termine par des considérations plus prospectives et politiques. L’auteur propose des mesures concrètes pour réformer Internet : « through a combination of individual action, corporate responsibility, and governmental regulation, it’s still possible to shift the course » (2945-52).

Pour ce qui des actions individuelles : éliminer les cookies, veiller à désactiver la personnalisation lorsque cela est possible, choisir les outils qui personnalisent le moins et sont moins opaques dans leur personnalisation (Twitter, et non Facebook), voire apprendre le langage de programmation (cette dernière mesure, particulièrement irréaliste, laisse rêveur), etc.

Pour les compagnies : les internautes doivent les aider à devenir plus transparentes et plus responsables, leur demander de recruter des ombudsmen, de laisser le droit aux citoyens de télécharger toutes les données qu’elles détiennent sur eux, de publier la manière dont elles les utilisent, etc. L’auteur envisage des procédures très complexes pour obliger les sites, moteurs et réseaux à rendre transparente la personnalisation, qui me semblent avoir très peu de chances de voir le jour (par exemple obliger la publicité en ligne à publier, pour chaque offre publicitaire qui nous parvient, les éléments de personnalisation sur laquelle elle s’appuie et donner à l’internaute la possibilité de modifier ces éléments !). Et là encore l’auteur préconise souvent des mesures qui peuvent paraître paternalistes : inciter les réseaux sociaux et moteurs de recherche à attirer l’attention des internautes « toward political engagement and citizenship » ou « stories… surpassingly important », les causes humanitaires par exemple (3148-53); ou encore mettre en place des « filtering systems to expose people to topics outside their normal experience » (3164-69). L’instrumentisation commerciale, fortement critiquée par l’auteur, semble céder la place, trop souvent dans ce livre, à l’instrumentalisation politique (au service de ce que l’auteur estime être le bien commun) ou éthique (les bonnes causes humanitaires) : « we need programmers who will build public life and citizenship into the worlds they create » (3180-85).

Au niveau des gouvernements, enfin : l’auteur envisage qu’ils peuvent faire pour contrer les effets négatifs de la personnalisation  (par exemple « requiring companies to give us real control over our personal information », 3203-8).

 

Mon impression finale est mitigée. La description que l’auteur fait de la personnalisation est fine et convaincante, construite souvent à partir d’interviews de dirigeants et programmeurs de la sphère Internet. L’auteur, qui a travaillé pendant longtemps dans ce milieu, sait de quoi il parle… Mais l’interprétation d’ensemble qu’il donne de la personalization, dans les différents domaines (commerce en ligne, information, politique…) est très fortement tributaire d’une conception de la démocratie qui, même si elle très fréquente dans la gauche libérale américaine, est loin d’être indiscutable et la seule possible. À aucun moment l’auteur ne prend de recul par rapport à cette conception rationaliste (au sens où tous les citoyens, dans une démocratie, devraient débattre et agir rationnellement, sur la base de l’information la plus complète et la plus objective possible) et élitiste (au sens où elle prétend généraliser à l’ensemble des citoyens une pratique qui est celle d’une étroite couche de la population). C’est par rapport à cette conception idéale de la démocratie que la personalization est, dans l’ouvrage, dénoncée comme un danger. C’est aussi par rapport à elle que sont avancées, à la fin de l’ouvrage, des propositions de réforme qui oscillent entre des mesures de bon sens (supprimons nos cookies), des réformes effectivement urgentes et essentielles (faire pression pour que les moteurs et réseaux n’enferment plus les internautes dans des default settings très difficiles à modifier, etc.), et d’autres mesures qui ont tendance à fuir vers l’utopie et, trop souvent, vers le paternalisme.

Il y a enfin, dans ce texte, une nostalgie, celle d’une supposée origine.  De même que les communistes ont fini par condamner le communisme réel au nom du communisme des origines, supposé pur, de même que certains libéraux en viennent à condamner le capitalisme des grandes entreprises au nom du libéralisme économique du XVIIIe, de même que certains chrétiens se réfèrent au christianisme des origines pour critiquer les églises officielles, de même il arrive de plus en plus fréquemment que s’élève, du côté des spécialistes d’Internet, une complainte nostalgique regrettant le bon vieux temps. Je ne suis pas certain que cela soit la meilleure voie pour analyser et interpréter les évolutions en cours (dont la personalization est effectivement une pièce essentielle) et pour lutter efficacement contre les effets, qui sont cependant loin d’être tous négatifs – ce que l’auteur reconnaît d’ailleurs volontiers – de ces évolutions.

6 août 2011

Sur « The Googlization of Everything » (Siva Vaidhyanathan)

The Googlization of Everything (And Why We Should Worry)

Siva Vaidhyanathan

(University of California Press, 2011, Amazon Kindle edition)


Plusieurs ouvrages récents sont consacrés à la customization (ou personalization) des moteurs de recherche (Google) et des réseaux sociaux (Facebook). Je publierai prochainement un compte rendu au livre d’Eli Pariser, The Filter Bubble, (The Penguin Press) et à d’autres, éventuellement.

Le livre de Vaidhyanathan se place d’emblée sous le signe d’une déception face à l’évolution d’Internet, qui se serait éloigné de l’utopie initiale pour devenir le lieu de « both anarchy and oligarchy ».

Il y a, dans cet ouvrage prolixe et répétitif, beaucoup d’informations et d’analyses que l’on peut retrouver un peu partout ailleurs, pas mal de lieux communs, des naïvetés (l’auteur semble s’étonner de ce qu’une recherche sur Google sur le mot God ne donne pas des résultats satisfaisants – mais qui aura jamais l’idée de faire une telle recherche ?), une tendance parfois paternaliste aussi, qui conduit l’auteur à avancer des arguments discutables (il objecte à la politique de privacy par défaut de Google que la grande masse des utilisateurs n’est pas capable de gérer activement les options proposées par le moteur de recherche : « merely setting up a menu with switches does not serve the interests of any but the most adept, engaged, and well informed », 1690-17 – ce qui est loin d’aller de soi : il se pourrait que les internautes qui ne modifient pas les options en question les trouvent utiles, ou sont totalement indifférents).

La perspective de l’auteur n’est cependant pas celle d’une hostilité systématique à Google. Il considère par exemple que Google est un filtre puissant qui fonctionne comme un nettoyeur du Net (et, dans ses relations avec les éditeurs d’images et de musique, souvent comme un garant du copyright, sur YouTube par exemple). En ce sens, il a fonction positive (même si l’auteur estime que Google, pour éviter les conflits liés à l’accusation de « contenus inappropriés », censure au-delà de ce que demande la loi américaine). Google a développé ces fonctions de régulation par opportunité, mais aussi par nécessité. Les tâches de régulation s’imposaient à une époque où elles ne pouvaient plus être effectuées au niveau national : l’auto-régulation par le marché était devenue aux USA une croyance incontestée et « the notion of gentle, creative state involvement to guide processes toward the public good was impossible to imagine, let alone propose » (807-15).

Cette ligne d’argumentation est celle de tout le reste de l’ouvrage. Toutes les fonctions assurées par Google sont, aux yeux de l’auteur, socialement nécessaires, mais elles sont biaisées par le fait que Google est devenu une entreprise commerciale et orientée vers le commerce. L’arrière-fond culturel des créateurs de Google était certes celui de l’éthique universitaire américaine, et l’entreprise en a gardé certaines caractérisistiques (« unstructured work time, horizontal management structures, multidirectional information and feedback flows, an altruistic sense of mission », 3474-81). La PageRank par consensus a son origine, on le sait, dans le critère universitaire du nombre de citations par article. Mais l’évolution de Google l’a éloigné de cette origine. Ni le fonctionnement du moteur de recherche (I) ni le projet de numérisation de la bibliothèque mondiale (II) ne sont inspirés par l’éthique initiale de Google.

(I) L’auteur décrit de manière assez précise le fonctionnement de Google comme filtre modelant nos modes de questionnement et nos listes de réponses. Il met en évidence ce qu’il estime être des biais (en faveur de la popularité par rapport à la pertinence,  en faveur des sites établis par rapport aux nouveaux sites, etc.) – mais sans jamais vraiment préciser comment un moteur de recherche alternatif pourrait fonctionner selon les critères retenus par l’auteur (comment mesurer la pertinence, au niveau de l’ensemble du Web, d’un site ?). C’est cependant, comme dans nombre de publications actuelles sur Google, la customization (ou personalization) qui retient surtout l’attention de l’auteur.

Cette personnalisation ouvre une époque nouvelle, qui nous éloigne du Panopticon décrit par Foucault. Il n’y a plus désormais d’instance centrale de surveillance.  Il serait plus pertinent de parler d’un Cryptoticon : « we don’t know all the ways we are being watched of profiled – we simply know that we are » (2135-42). Cette personnalisation, loin de ne nous empêcher d’être nous-mêmes, nous incite plutôt à nous individualiser (« express yourself »), à développer notre créativité, voire notre excentricité (de manière analogue, les caméras de Londres favorisent les conduites excentriques, comme l’ont établi certaines études sociologiques). Car la créativité et l’excentricité sont financièrement rentables (la publicité pouvant adresser des produits de niche aux individus ainsi mieux ciblés). Les protocoles de Google ou Facebook, à la différence de ce que faisait la Stasi, recherchent les individus à forte identité, subversifs, potentiellement dangereux. Ils incitent à choisir, à se choisir (cf. les « options » et « settings » des programmes). Mais les options sont en fait strictement prédéfinies et laissent de côté des alternatives peut-être plus importantes. Certes, l’individu dispose d’une certaine maîtrise sur ces options, mais seule une minorité les utilise: « Google’s great trick is to make everyone feel satisfied with the possibility of choice, without actually exercising it to change the system‘s default settings » (2157-63).

C’est essentiellement dans le domaine universitaire que l’auteur s’attache à montrer les dangers de la customization par Google (les résultats de la recherche sont filtrés par le profil du chercheur, ce qui pourrait conduire à un appauvrissement, à un repliement de chacun sur son domaine et ses propres idées). Il me semble cependant que l’auteur ne fait pas les distinctions qui s’imposent. La personnalisation peut être très efficace pour les recherches concernant les besoins de la vie quotidienne, mais la recherche universitaire ne se fait pas, et ne se fera pas pour l’essentiel, sur Google, même si ce jugement est à nuancer en fonction des niveaux et des disciplines (sur ce point, on lira les remarquables analyses que l’auteur consacre à Google Scholar, à son fonctionnement et à son importance dans certaines disciplines, ainsi que le chapitre « The Googlization of Research »). On peut douter de l’affirmation globale selon laquelle la customization « threatens republican value, such as openness to differing points of view and processes of deliberation » (3408-15). Certes, les techno-fondamentalistes ne manquent pas, et l’on trouvera toujours quelqu’un pour penser (Jeff Jarvis, par exemple) qu’Internet va remplacer l’Université (l’auteur fait d’ailleurs une excellente critique de cette rêverie) ou révolutionner la politique en rendant caduques les assemblées délibératives de la démocratie représentative…

II) Le chapitre de loin le plus précis et le plus intéressant de l’ouvrage est celui consacré à la numérisation des livres par Google. L’auteur en retrace clairement l’histoire compliquée. Là, comme ailleurs, il défend l’idée que l’origine du pouvoir que s’est arrogé Google est à chercher dans la démission des pouvoirs publics, à l’époque du néolibéralisme triomphant. Mais alors qu’ailleurs il ne propose que très peu de solutions concrètes alternatives, il plaide précisément, ici, en faveur d’une numérisation des livres par les bibliothèques elles-mêmes, en particulier les bibliothèques universitaires. Même si l’histoire semble déjà avoir tranché, les arguments avancés sont loin d’être inintéressants (en particulier son analyse du caractère inapproprié des protocoles de recherche de Google appliqué aux livres – l’internal text searching – et son plaidoyer en faveur d’autres types d’indexation, moins rudimentaires et plus fiables).

Il n’en demeure pas moins que le cœur de l’argumentation est inspiré par un sentiment de nostalgie et d’impuissance. Les promesses de l’Internet des pionniers (d’origine universitaire et non commerciale) auraient dû être relayées par l’État : « we missed an opportunity (…) we could have coordinated a grand global projet, funded by a group of concerned governments and facilitated by the best national librairies » (3741-48). Tout n’est pas encore perdu, cependant… Nous pouvons peut-être encore reconstruire un moteur de recherche et une bibliothèque mondiale, qui rendraient possible une « expanded public sphere »… Mais la conclusion de l’ouvrage, faute de pouvoir envisager une alternative crédible à l’action de Google, fuit vers l’utopie, de manière assez pathétique : l’auteur invite les lecteurs à collaborer à un Human Knowledge Project, défini de manière très vague (et même à construire le parti politique sans lequel ce projet n’aurait aucune chance de passer dans la réalité !).

Les analyses les plus stimulantes de l’ouvrage me paraissent finalement être celles où l’auteur illustre clairement l’idée selon laquelle les protocoles de Google, qui fonctionnent de manière quasi invisible pour la plupart des internautes, modèlent notre pensée et nos comportements. L’auteur considère en effet que l’impérialisme culturel n’est pas aujourd’hui une question de contenu, mais de protocoles : « if there is a dominant form of cultural imperialism, it concerns the pipelines and protocols of culture, not its products » (2075-84). Les protocoles ne sont certes pas toujours content-neutral. Mais en règle générale le contenu est relativement indifférent : « What flows from North to South does not matter as much as how it flows, how much revenue the flows generate, and who uses and reuses them » (2084-91).

L’emprise de Google sur nos pensées et nos comportements est à chercher à un autre niveau, celui du cadre, non celui du contenu : « Google defaults and ways of doing spread and structure ways of seeking, finding, exploring, buying and presenting that influence (though they do not control) habits of thought and action. These default settings, these nudges, are expressions of an ideology » (2084-91). Cette idéologie est clairement définie et assumée par Google. Sa valeur suprême est la « free expression » (c’est cette idéologie qui sous-tend, au-delà de Google, aussi bien la rétention, vente et publication des données privées, que des outils comme Google Street View, par exemple). L’auteur rappelle que cette valeur n’est pas acceptée facilement dans certains pays, même démocratiques (cf. les réactions, en France et en Allemagne, contre Google et l’accès qu’il permet aux sites antisémites). Google Street View, on le sait, suscite des réactions indignées en Allemagne ou au Japon, en raison des traditions culturelles de ces pays (au Japon les rues desservant les résidences sont considérées comme relevant de la vie privée et ne doivent donc pas être filmées). C’est pourquoi il existe une réaction démocratique contre Internet, que l’auteur perçoit fort bien : « The Internet censorship club is expanding and now includes a growing number of democracies. Legislator are under growing pressures from family groups to do something  in the face of all the threats sloshing around the Internet, and the risk of overstepping is high » (Rebecca MacKinnon, cité en 2505-11).

Il me semble cependant que l’auteur a tort de parler des « liberal values espoused by techno-fundamentalism and corporations such as Google », valeurs qui trouveraient des résistances dans certains pays démocratiques. Savoir ce que sont les valeurs libérales est certes un vaste sujet… Mais l’auteur semble ignorer que de nombreux juristes et philosophes, qui sont loin d’être des technophobes, dénoncent, aux États-Unis même, certains abus rendus possibles par les technologies nouvelles justement au nom des valeurs libérales, en particulier de la liberté (cf. S. Levmore et M.Nussbaum, The Offensive Internet, qui oppose à la conception de la libre expression qui inspire Google celle de la Constitution américaine, pour laquelle la liberté d’expression ne peut pas être absolue). L’idéologie de Google a certainement plus à voir avec les intérêts commerciaux et corporatistes (ceux des métiers de l’informatique) qu’avec les valeurs libérales.

On peut dire cela sans diaboliser Google et sans estimer, comme l’auteur, qu’il faut reconstruire ex nihilo les moteurs de la recherche ou une bibliothèque numérisée mondiale… Cette idée me semble la principale faiblesse de l’ouvrage, qui le condamne à la nostalgie (une idéalisation de l’Internet des pionniers), à l’impuissance et à l’utopie. On peut douter de la capacité des États à construire un moteur de recherche alternatif ou à numériser la bibliothèque mondiale (et l’auteur semble bien en douter aussi)… S’il en est ainsi, la seule voie possible me semble celle de la régulation, par des citoyens vigilants (Google et Facebook n’ignorent pas qu’ils sont eux aussi sous le regard des citoyens) et des États libéraux vigilants.

2 août 2011

Sur « Communication Power » (Manuel Castells)

Manuel Castells : Communication Power (Oxford University Press, 2011)

Cet ouvrage imposant (500 pages) prolonge les travaux antérieurs de l’auteur (en particulier The Rise of the Network Society) en inscrivant une théorie originale des réseaux numériques dans une théorie plus large de la network society. Je me contenterai de restituer trois axes fondamentaux de l’étude de M. Castells. Les deux premiers me paraissent constituer une approche précise et convaincante du pouvoir des médias traditionnels et de celui des nouveaux médias. Le troisième me semble par contre à la fois moins original et plus problématique.

1) M. Castells attribue une place particulière au « global networks of information and technology » (27) à l’intérieur de la société contemporaine qu’il conçoit comme « a multidimensional social structure in which networks of different kinds have different logic of value-making » (28). En un sens, le communication network est un réseau parmi d’autres, à côté d’autres réseaux globaux (économique, militaire, religieux, etc.), chacun d’entre eux définissant ce qui constitue pour lui la valeur suprême (le profit, le pouvoir militaire, le salut, etc.). En un autre sens, le communication network est la condition de fonctionnement de tous les autres réseaux (le pouvoir militaire global, par exemple, dépend des croyances de la population, de la capacité de celle-ci à accepter ou non certaines règles, donc, en fin de compte, du pouvoir de la communication) : « thus ideas, and specific sets of ideas, could assert themselves as the truly supreme value…, as a prerequisite for everything » (29). Pour le dire autrement : la communication globale définit, par ses protocoles, la valeur qui lui est propre, comme le fait tout autre réseau, mais cette valeur est celle de la communication, à l’intérieur de chaque réseau et entre ces réseaux : « the common culture of the global network society is a culture of protocols of communication enabling communication between different cultures in the basis not of shared values but of the sharing of the value of communication » (38). C’est le réseau global de communication qui permet, aujourd’hui, le fonctionnement du réseau économique mondial, ou du réseau militaire, ou terroriste, ou religieux, et qui permet à chacun d’eux d’interagir avec les autres pour les modifier et se modifier. En ce sens, le réseau mondial de communication est au-delà des cultures, il repose sur « the common belief in the power of networking and of the synergy obtained by giving to others and receiving from others » (38). L’auteur marque ainsi clairement sa distance par rapport à d’autres interprétations de nos sociétés, qui considèrent par exemple que celles-ci sont dominées par le réseau de l’économie capitaliste, ou encore par celui du cosmopolitisme politique.

Plus précisément, Castells distingue quatre tendances fondamentales des cultures contemporaines, qu’il nomme branded consumerism, cosmopolitanism, networked individualism et multiculturalism (120). Chacune d’entre elles trouve sa condition de fonctionnement et d’interaction avec les autres dans le réseau global de communication. Il n’est pas utile d’exposer ici les arguments en faveur de cette typologie, ni la définition précise de chacune de ces tendances (le branded consumerism est la global entertainment industry ; le cosmopolitanism est à entendre au sens le plus large : il peut s’agir aussi bien d’un réseau politico-militaire mondial que d’un réseau religieux, etc.). L’essentiel est de comprendre, d’une part, que ces quatre tendances, qui ne sont possibles que par des processus de communication, fragmentent celle-ci : le networked individualism, c’est-à-dire la culture de masse qui s’est développée avec Internet, fortement individualiste, n’est qu’une des formes possibles de la communication, à côté de celle que Castells nomme multiculturalism, c’est-à-dire la production et diffusion de biens culturels par des communautés se définissant par leur identité culturelle, ou encore celle qui régit le branded consumerism international. Et de comprendre, d’autre part, qu’un processus global de communication transcende tous les clivages « in a production of meanings through a series of protocols of communication that make intelligibility possible in a communication-centered culture » (125).

Cette thèse a une conséquence forte concernant le concept d’espace public, conséquence que Castells énonce de manière remarquablement claire : « the construction of the new public sphere in the network society proceeds by building protocols of communication between different communication processes » (125). L’auteur analyse finement la multiplicité de ces protocoles (qui, pour chacune des quatre tendances culturelles distinguées plus haut, ne sont pas identiques : la publicité est le protocole central du branded consumering, le networked digital hypertext celui du networked individualism, etc.). Il met aussi clairement en évidence le nouveau type d’audience qui est celui de cette nouvelle sphère publique (une audience fragmentée en individus recevant des messages mais les interprétant activement « according to their own cultural frames, and by mixing the messages from one particular source with their variegated range of communicative practices », 127). Là encore, Castells se distingue de manière remarquable de certains théoriciens de l’espace public en montrant que l’audience, loin d’être une masse passive ou, au contraire, un corps de citoyens rationnels, est à la fois passive (elle reçoit quantité de messages qu’elle reprend à son compte) et active (elle les interprète en fonction de ses schémas cognitifs et de l’information dont elle dispose). Comme le dit Russell Neuman, cité par Castells, « the average audience member pays relatively little attention, retains only a small fraction, and is not the slightest bit overloaded by the flow of information or the choices available among the media and messages » (128). L’audience contemporaine est ainsi, selon Castells, une « creative audience, the source of a remix culture that characterizes the world of mass self-communication » (132), une audience dont la diversité contrebalance la concentration du pouvoir qui est une des tendances caractéristiques des réseaux globaux (136).

2) Un deuxième intérêt de l’ouvrage est de dégager, en prenant appui sur de nombreuses études empiriques, les processus cognitifs et émotionnels que les individus mettent en œuvre dans le nouvel espace public dont il vient d’être question. Là encore, Castells se démarque de conceptions concurrentes simplistes, pour lesquelles l’opinion publique est formée (par les pouvoirs politiques et les médias), ou exprime des intérêts préexistants, ou se forme (selon le modèle rationaliste délibératif).  Il insiste au contraire sur le fait que la construction de l’opinion publique est un processus complexe où interviennent à la fois les élites politiques et médiatiques (la télévision et la radio, rappelle opportunément l’auteur, sont encore la source dominante d’information politique, malgré la montée en puissance d’Internet), qui fournissent des cadres d’interprétation, et les citoyens, qui traitent les données mises à leur disposition.

Concernant le premier pont, la formation de l’opinion par les élites, l’ouvrage a le mérite de rappeler que les médias structurent très fortement l’opinion publique (en choisissant à la fois ce sur quoi il faut penser et ce qu’il faut en penser). En d’autres termes, l’espace public n’est jamais vierge, comme le laissent entendre parfois les chantres naïfs du nouvel espace public qu’ouvrirait Internet, il est toujours déjà organisé par les élites, selon un processus complexe où interviennent diverses instances (le pouvoir politique, les médias, les réactions du public), diverses motivations (le niveau des médias, par exemple, filtre les données émanant du pouvoir politique en fonction de ses propres intérêts) et divers traitements cognitifs et émotionnels des données.

Concernant le second point, un mérite de l’ouvrage est d’attirer l’attention sur l’importance des traitements cognitifs et émotionnels mis en œuvre par des citoyens davantage mus par des valeurs, croyances et dispositions que par des intérêts matériels (153). Un seul exemple : pour éviter la dissonance émotionnelle, les individus cherchent systématiquement les informations qui confirment leurs propres interprétations, quitte à fuir les médias nationaux pour aller s’informer, via Internet, sur d’autres supports. Ce qui pourrait paraître un enfermement dans leur propre pensée (« people tend to believe what they want to believe ») peut aussi être lu comme une forme de résistance aux cadres d’interprétation dominants (165). Le rôle de l’affectivité, dans ces processus, est essentiel (en particulier dans le rapport des citoyens aux partis et candidats qui font le lien entre les valeurs et croyances des individus et leurs intérêts, 154).

La description que Castells fait de l’espace public réel n’équivaut pas à un rejet de l’idéal démocratique, pour lequel des sujets rationnels choisissent leurs gouvernants après délibération dans un espace public ouvert. Elle signifie simplement que la démocratie procédurale, telle qu’elle a été décrite par les théoriciens politiques, n’est qu’un idéal-type (190), dont il est essentiel, si l’on veut qu’il ait quelque chance de devenir un jour effectif, de connaître la distance qu’il entretient par rapport à l’espace public réel structuré par les diverses élites : « this is not a normative call for the triumph of emotional politics, let alone for irrational decision-making. Rather, this is a recognition of the actual way people process signals on the basis of which they make their decisions, for themselves and for the world at large on behalf of themselves » (191). En d’autres termes, il existe un niveau proprement politique, qui n’est pas exclusivement celui de la délibération rationnelle, niveau que l’idéal démocratique doit prendre en compte : « to reach the level of policy decision-making, democratic procedures have to be followed with the full understanding of the processes involved. And these processes are largely emotional, articulated around conscious feelings and connected to choices that elicit a complex array of responses dependent on the stimuli received from our communication environnment » (191). La conception rationaliste de la politique n’a quelque chance de quitter le champ de l’utopie que si elle devient consciente des limites, dans le processus politique, de la rationalité (192). Le public ne se désintéresse pas des enjeux substantiels de la politique, mais il faut prendre conscience que ces derniers, s’ils doivent être perçus par une large audience, « have to be presented in the language of infotainment ». Cela signifie que « the imagined cultural past and the notion of the loss of deliberative democracy are often the result of a nostalgic, elitist bias » (201).

C’est sur la base d’une telle analyse que Castells modère fortement la thèse, qui est devenue un lieu commun, d’une crise de la démocratie : « While there is no doubt about the worldwide crisis of political legitimacy, it is unclear if and how this translates into a crisis of democracy » (295). La crise de la légitimité politique consiste dans le décalage, dans les démocraties, entre « their constitutional rules and the beliefs of their citizen » (295). Ce décalage est dû, entre autres, à la crise de l’État-nation, qui aujourd’hui fait face à de nouvelles légitimités,  débordé qu’il est, à l’extérieur, par les réseaux globaux de l’économie, du pouvoir et de l’information, et à l’intérieur par l’émergence d’identités culturelles affirmant de plus en plus leur indépendance (295). Les médias jouent un rôle fondamental dans cette crise de légitimité, en focalisant l’attention sur les scandales politiques. Il faut cependant constater que « in spite of massive citizen disaffection vis-à-vis the political class, and vis-à-vis democracy as they experience it, often that not people around the world have not given up their political ideals, though they interpret them in their own way » (297) : ils sanctionnent davantage les sortants, suscitent de nouveaux partis et leaders, qui peuvent favoriser l’émergence de nouveaux projets politiques, mais aussi celle de mouvements populistes.  En ce sens, il est abusif de parler de crise de la démocratie.

En un autre sens cependant, qui fait l’objet du long dernier chapitre de l’ouvrage, il est possible de parler de crise de la démocratie, si l’on considère les bouleversements que connaissent actuellement les médias, avec l’émergence d’Internet. Le communication power est aujourd’hui fortement divisé entre ce que Castells nomme les messagers (les mass media traditionnels et les nouveaux médias numériques contrôlés par ceux qui les construisent et les gèrent) et les messages émanant des communications horizontales rendues possibles par Internet (donc par ces nouveaux médias). En d’autres termes, « the medium is not the message, although it conditions the format and distribution of the message » (418) : les messages peuvent remettre en cause les messagers, « once in cyberspace, people may have all kinds of ideas, including challenging corporate power, dismantling government authority, and changing the cultural foundations of our aging/aching civilization », 421). Pour revenir à la crise de la démocratie, il s’ensuit que « the practice of democracy is called into questions when there is a systematic dissociation between communication power and representative power » (298). Pour le dire plus concrètement, « the most important crisis of democracy under the conditions of media politics is the confinment of democracy to the institutional realm in a society in which meaning is produced in the sphere of media » (298). Cette constatation conduit l’auteur à estimer que « democracy can only be reconstructed in the specific conditions of the network society if civil society, in its diversity, can break through the corporate, bureaucratic and technological barriers of societal image-making » (298).

L’hypothèse envisagée à la fin de l’ouvrage est donc celle selon laquelle « the same pervasive multidimodal communication environment that encloses the political mind in the media networks may provide a medium for the diverse expression of alternative messages in the age of mass self-communication » (298). L’auteur est conscient qu’il pourrait s’agir là d’une nouvelle forme d’utopie : « Is this really so ? ».

3) M. Castells estime que le nouvel espace public, celui de l’époque de la « network society » caractérisée par la « mass self-communication », favorise l’émergence de nouveaux mouvements sociaux, cela bien que cet espace soit fortement structuré par « different forms of control and manipulation » et de ce fait « biased towards the builders and caretakers of this space » (302). C’est parce que cet espace est, par construction, ouvert, qu’il est le lieu d’une « battle of images and frames » qui vise à reprogrammer les réseaux de communication : « because they are multimodal, diversified and pervasive, communication networks are able to include and enclose cultural diversity and a multiplicity of messages to a much greater extent than any other public space in history » (302). À la condition qu’ils acceptent de se couler dans les protocoles existants (y compris les formes nouvelles prises par les mass media traditionnels) pour les transformer, de nouveaux mouvements sociaux peuvent émerger. Une tâche fondamentale pour eux est cependant de préserver d’abord « freedom and fairness in the deployment of management of the networked infrastructure of communication and in the practice of the multimedia industry » (302). En d’autres termes, « communication politics becomes dependant upon the politics of communication » (303).

À l’appui de cette thèse, Castells évoque plusieurs formes de ce qu’il nomme les insurgent social movements : la nouvelle conscience écologique, la lutte en faveur d’une mondialisation juste, l’élection d’Obama interprétée comme une « insurgent politics » (par exemple par le passage à un nouveau mode de financement de la politique), les mouvements insurrectionnels contre les despotismes du Moyen-Orient, etc.

On peut cependant s’interroger sur la pertinence qu’il y a à ranger des phénomènes aussi différents sous la même catégorie, celle d’une « potential synergy between the rise of mass self-communication and the autonomous capacity of civil societies around the world to shape the process of social change » (303).

La dernière partie de l’ouvrage me paraît en effet fragile à plusieurs titres.

(a) Les insurgent movements que décrit Castells pourraient fort bien trouver leur place dans le système économique et politique actuel sans le modifier fondamentalement. On peut rester sceptique devant l’affirmation selon laquelle les formes d’auto-organisation rendues possibles par la network society seraient l’ébauche d’une « societal organization around networked self-management » (345 ; il est à remarquer que l’auteur ne donne jamais à cette expression un sens vraiment précis). Il semble, trop souvent à la fin de l’ouvrage, que le sociologue soit tenté de céder la place à l’activiste, ou du moins qu’il accorde une oreille trop complaisante aux chantres de l’utopie du networked self-management, voire d’un brumeux communisme numérique, ou à ceux, plus naïfs encore, de la mobil-ization (constater le rôle des communications par Facebook ou Twitter dans les révolutions arabes récentes est une chose, y voir un tournant fondamental, là et ailleurs, en faveur de la démocratie en est une autre).

(b) Castells rappelle qu’Internet, comme toute technique, peut être utilisé pour opprimer aussi bien que pour libérer, mais ce rappel fonctionne souvent dans l’ouvrage comme une clause purement formelle. L’auteur n’envisage en effet que très allusivement les phénomènes que d’autres auteurs, Martha Nussbaum par exemple, rangent sous l’appellation de the offensive Internet (cf. S. Levmore and M. Nussbaum, The Offensive Internet, 2010). On pourrait contester, qui plus est, l’opposition oppression/libération, qui reproduit un schéma traditionnel (celui présent dans les théories de l’aliénation) et montrer que les nouvelles formes d’organisation économique, ou encore les nouvelles formes d’expression, s’articulent beaucoup plus finement avec le système économique ou le système des médias actuels, qu’il est par ailleurs peu éclairant de ranger sous la catégorie large et vague d’oppression.

(c) La défense de l’ouverture, de la neutralité et de la transparence des protocoles d’Internet est effectivement essentielle. Castells me semble voir à juste titre dans ce que l’on nomme la gouvernance d’Internet un problème politique fondamental. Les nouveaux mouvements sociaux ne pourront produire « another world » (je laisse à l’auteur la responsabilité de cette expression, qui me semble reposer sur un abus, malheureusement très fréquent, de l’adjectif autre) que si les citoyens et leurs États conservent le contrôle, d’une manière ou d’une autre, de ces protocoles : il n’est possible de reprogrammer que si l’on conserve un accès au programme. Mais là encore l’auteur oppose trop mécaniquement les communicating subjects et les controllers of societal communiation nodes (413). La reproduction pure et simple, par Castells, du récit anarcho-libéral des fondateurs d’Internet lui interdit ne serait-ce que d’examiner précisément les formes de régulation (au niveau européen ou national, par exemple) qui n’ont pas pour objectif de museler Internet mais de maîtriser les effets pervers que peuvent entraîner certains usages. Pour ne prendre qu’un exemple, Castells affirme qu’Internet renverse la relation traditionnelle entre les gouvernements et les citoyens, puisque, désormais, ce ne sont plus les premiers qui peuvent épier les seconds, mais l’inverse : « we are all now potential paparazzi » (413). Certes… Mais l’affaire Murdoch devrait nous rendre un peu plus prudents dans l’utilisation de cette métaphore. La transparence, l’open data movement, sont effectivement des tendances fondamentales de nos démocraties. Il n’en demeure pas moins que, comme tous les contre-pouvoirs, ils doivent être organisés (comme en témoignent les réactions des dirigeants des pays démocratiques contre Wikileaks, ou les réactions des citoyens contre les pratiques criminelles de la presse Murdoch).

Pour ces trois raisons, la fin de l’ouvrage me paraît nettement moins originale que le début. Elle se contente souvent d’entonner un refrain progressiste (l’ouvrage a été visiblement écrit au moment de l’élection d’Obama et des espoirs qu’elle suscitait) et anarcho-libéral (les analyses de la fin de l’ouvrage témoignent d’un ancrage dans le discours qui a accompagné l’émergence d’Internet) qui me paraît constituer, aujourd’hui, un obstacle à l’analyse fine du phénomène Internet, en particulier de ses effets politiques – et aussi un obstacle à la défense des potentialités démocratiques de la network society, qui paraît beaucoup plus complexe que ce que laisse penser le dernier chapitre du livre. Celui-ci oppose en effet de manière manichéenne les forces libératrices, celles de la société civile connectée en réseau, et les « government, parties, corporations, interest groups, churches, gangsters, and power apparatuses of every possible origin and kind » dont la priorité serait de museler « the potential of mass self-communication in the service of their specific interest » (414). Mais il me paraît vraiment difficile, pour ne pas dire impossible, de construire une théorie libérale d’Internet sans considérer que les gouvernements, les partis, les entreprises et les églises sont aussi des institutions libérales fondamentales (et, pour les deux dernières, des institutions centrales, à côté de la presse et des multiples associations, de cette société civile au nom de laquelle parle l’auteur).

Il faut cependant ajouter que, d’une certaine manière, ces appareils de pouvoir contribuent, pour Castells, à l’avènement de la société civile connectée autogouvernée. Mais ils le font par une sorte de ruse de l’histoire : « the more corporations invest in expanding communication networks (benefiting from a hefty return), the more people build their own networks of mass self-communication, thus empowering themselves » (421). Peut-on se contenter de reproduire, comme le fait l’auteur, ce vieux schéma téléologique et dialectique (qui a son origine dans le felix culpa chrétienne : le bien se réalise finalement dans l’histoire par son contraire, le mal) ? L’histoire est peut-être plus contingente, et moins dialectique… Remarquons cependant, pour rendre justice à l’auteur, que son optimisme historique est parfois contrebalancé par des accents réalistes. Les envolées utopiques cèdent alors la place aux constatations prosaïques : « However, for the time being, there is an unequal competition between professional media production and our low-quality home home videos and blog gossip » (422). On peut nuancer ce constat pessimiste (les médias professionnels, qui présentent d’ailleurs une grande diversité, sont peut-être moins puissants que ne le pense l’auteur, et les productions des citoyens, dont les meilleures peuvent être aujourd’hui  intégrées aux productions des médias professionnels, plus inventives et élaborées qu’il ne le pense), mais cela supposerait sans doute d’abandonner l’opposition qui gouverne finalement l’ensemble de ce livre, celle de la sphère du pouvoir (L’État, les médias, les grandes entreprises, etc.) et de la sphère de la liberté (l’individu, les communautés formées librement par eux, la société civile, etc.).

22 juillet 2011

Sur « A New Theory of Information and the Internet. Public Spheres meets Protocol » (Balnaves and Willson)

Filed under: Démocratie,Espace public,Internet — Auteur @ 12 h 43 min
Tags: , , ,

Mark Balnaves and Michele Willson : A New Theory of Information and the Internet. Public Spheres meets Protocol (Peter Lang, 2011)

Ce livre, écrit par deux universitaires du Department of Internet Studies de Curtin University (Australie), risque de décourager le lecteur, en raison de la technicité des trois premiers chapitres. Seuls les spécialistes en théorie de l’information (au sens que les cybernéticiens donnent à ce mot) peuvent juger l’affirmation selon laquelle la théorie présentée dans cet ouvrage est nouvelle. Mais l’essentiel n’est pas là. La suite de l’ouvrage présente en effet une théorie d’Internet, certes étayée sur cette théorie de l’information, mais suffisamment indépendante de celle-ci pour être lue et évaluée sans avoir à se prononcer sur la validité des premiers chapitres. Que cette théorie d’Internet soit elle-même nouvelle ou non  n’est pas non plus la question essentielle (elle me paraît plutôt consister en une synthèse cohérente et personnelle de travaux déjà existants). Les titres ont leur raison (celle des éditeurs) que la raison ne connaît pas…

Disons, en simplifiant beaucoup, que les auteurs choisissent, parmi les théories de l’information existantes, une tradition – qu’ils nomment non réaliste – impliquant que la recherche d’information (sur un moteur de recherche, par exemple) modifie le savoir de celui qui effectue la recherche, c’est-à-dire ne se contente pas d’augmenter celui-ci. C’est à partir d’une telle perspective que les auteurs en viennent à rapprocher le concept de protocole, tel qu’il a été élaboré en particulier par A.E. Galloway, de la théorie de l’agir communicationnel d’Habermas.

Si la recherche d’information modifie le savoir, c’est en effet parce qu’elle s’effectue à partir de protocoles qui, à différents niveaux, structurent la communication, c’est-à-dire définissent un certain nombre de contraintes et possibilités d’action (affordances). Une bonne partie de l’ouvrage est consacrée à la définition de ces contraintes et possibilités. Penons par exemple, pour rester au plus près du vécu des internautes, les protocoles qui organisent des communications à distance, indirectes (c’est-à-dire en l’absence de l’interlocuteur), anonymes, multiples et simultanées (l’utilisateur pouvant être au même moment sur Facebook et LinkedIn, par exemple). De tels protocoles rendent possibles des types de communication ayant des propriétés particulières, qui modifient le savoir des usagers et la distribution sociale de ce savoir. De la même manière, un protocole comme celui de Wikipedia modifie le savoir des usagers, du fait qu’il fournit, par construction, des réponses particulières à ces questions : qui produit le savoir et comment ? par qui et comment est-il reçu ? de quoi est-il le savoir ? comment et à quelle fin est-il utilisé ? de quel savoir l’utilisateur produisant ou recevant ce savoir est-il lui-même l’objet ? etc.). Généralisons : « protocol, the rules governing material code at various levels, sets the material context for accessibility to the social distribution of knowlege in the Internet » (176).

Une des propriétés de ces protocoles est, aux yeux des auteurs, essentielle : ils sont plus ou moins visibles. Le savoir est certes déterminé mais par les protocoles, non « by the people themselves » (170), mais les utilisateurs ont plus ou moins conscience des algorithmes qui organisent leur communication et leur savoir (un exemple : ce que nous nommons, depuis quelque temps, la « neutralité du Net », est en train de devenir visible – mais bien d’autres protocoles sont totalement hors de portée du non-spécialiste). Il s’agit là d’une propriété nouvelle, car même si les règles régissant une conversation de salon ou le fonctionnement de l’accès au savoir dans une bibliothèque étaient loin d’être toutes transparentes aux agents, le degré d’opacité et d’invisibilité des protocoles d’Internet est beaucoup plus élevé. L’internaute, par exemple, peut croire être connecté anonymement sans l’être, il peut penser à tort qu’il efface ses écrits ou paroles, etc. (qui connaît le mode de fonctionnement  d’Acxiom, l’agrégateur au travail derrière Google ?).

Les auteurs ne décrivent pas systématiquement ces protocoles, mais l’idée qu’ils développent est claire. Ils l’illustrent, à plusieurs reprises, de manière suggestive. En suivant Geiger, ils montrent par exemple que contrairement à une idée répandue – par Habermas en particulier – les protocoles d’Internet ne fragmentent pas l’espace public mais opèrent une intégration particulière de celui-ci, qui s’effectue non par l’échange des discours et la construction d’une synthèse rationnelle, mais par des algorithmes :

…the opinions crafted by individuals (presumably after or through discourse in a small community) can be aggregated and passed to other users and communities for further discussion and subsequent aggregation. Such sites cut out the human mediation traditionally required in a social network, allowing for a seemingly social direct representation of public opinion in the blogosphere. Through a system of uncoordinated coordination, collective action has become possible on a previously unimaginable scale, due to the small amount of effort required by each human in order to bring about the social « wisdom of crowds » (R.S. Geiger, « Does Habermas Understand the Internet ? The Algorithmic Construction of the Blogo/Public Sphere », Gnovis, 2009 – cité par les auteurs à la page 135).

 

 

Il n’a pas été question, jusqu’ici, de questions normatives, simplement d’une description des effets des protocoles sur la communication et le savoir. Mais la perspective des auteurs a, très clairement, un horizon normatif : « an awareness of the possibilities of theses constructs, of the affordances of technological environs and tools for communication, data gathering, or online moderation is important for understanding the possibility for collaborative activity and the degree to which actions, issues and discussions can be freely and openly canvassed or enacted » (146).

C’est à ce point de l’argumentation des auteurs que Galloway rejoint Habermas… La théorie de l’agir communicationnel d’Habermas met en effet en évidence qu’aucune communication n’est immédiate, et que celle qui a lieu dans l’espace public démocratique suppose un ensemble de règles, qu’Habermas explicite longuement dans ses ouvrages (ce sont les règles logiques et éthiques régissant le discours non stratégique : universalité de l’espace public, reconnaissance mutuelle des participants en tant qu’agents libres, également rationnels et raisonnables, débattant des affaires publiques, etc.). Or, par bien de leurs aspects les protocoles d’Internet peuvent apparaître comme des intermédiaires proches de ce qu’Alfred Schutz (auquel les auteurs consacrent des pages intéressantes) et Habermas nomment l’espace public démocratique.

L’intérêt de l’ouvrage est de ne céder ni à l’utopie selon laquelle les propriétés des protocoles actuels d’Internet et les règles de l’espace public au sens d’Habermas convergeraient (on se souvient des grandiloquentes proclamations de John Perry Barlow à ce sujet), ni à l’idée selon laquelle ils divergeraient inévitablement (Internet serait une « zero institution » au sens que Jodi Dean donne à cette expression, c’est-à-dire une institution « which makes no normative claim » et ne peut de ce fait qu’être un lieu de dissensions infinies). Les auteurs discutent, en particulier, les analyses d’Habermas (dans un article de 2006 ; « Political Communication in Media Society ») selon lesquelles les protocoles d’Internet permettent certes d’organiser des actions contre les régimes autoritaires mais conduisent inévitablement à la fragmentation de l’espace public en multiples espaces réunissant des activistes mobilisés en faveur de causes diverses, dont l’action ne peut déboucher sur une réelle perspective politique que s’ils rejoignent l’espace public démocratique, dont la presse est le vecteur principal. Les auteurs se font les échos des critiques selon lesquelles Habermas, dans cet article, sous-estimerait le potentiel démocratique d’Internet, les facteurs « which combine to allow quality material to emerge to public attention » (Axel Bruns, dans un article de 2007, « Habermas and/against the Internet »).

Les analyses concrètes des auteurs (qu’il n’est pas possible de résumer ici) tendent à montrer qu’Internet « presents fascinating challenges for the maintenance of the public sphere » (95). Le regard qu’ils portent sur la contribution d’Internet à la vie démocratique est certes lucide et sans illusion : « at best, current deliberative practices on the Internet are closer to a form of activism than to a public sphere embedded in law for participatory democracy » (160). Ils montrent par exemple que les nouveaux agrégateurs (Google Social Search, Twitter Lists), s’ils font émerger « quality material to public attention », comme il a été dit plus haut, enferment souvent à nouveau les internautes dans les sphères limitées de leurs intérêts et valeurs (ce qu’avait déjà souligné Cass R.Sunstein), en utilisant les réseaux sociaux comme des filtres confinant les usagers dans « a gated community, limited to a pre-screened list of like-minded individuals and groups » (138).

Aussi bien, ce n’est pas du côté des pratiques politiques actuelles permises par Internet qu’il faut chercher les « fascinating challenges » dont parlent les auteurs, mais du côté des potentialités démocratiques des protocoles. Ceux-ci, on l’a vu, ont pour caractère essentiel l’invisibilité, qui leur confère leur pouvoir : « the more ignorant people become about the underlying infrastructures delivered by the Internet, then the more influential that system(s) would become » (169). Mais une société démocratique peut prendre conscience de cet état de choses et poser la question de la visibilité de ces protocoles : « how might we make visible and critique the intentional and unintentional… barriers that direct the flow of online activity and encourage uncritical, instrumental navigation online ? » (114). Les questions essentielles que posent l’existence des protocoles d’Internet (que rendent-ils possibles ? qu’interdisent-ils ? comment déterminent-ils le contenu auquel accède l’usager ? à quels niveaux ? quelles données concernant l’usager stockent-ils, et où ? quel est leur degré de transparence et le contrôle que le citoyen a sur eux ?, etc.) sont autant de défis à la pratique démocratique. C’est en posant ces questions qu’une société démocratique s’engage dans la voie du renforcement de l’espace public : « a generalisation of competence of the informed citizen with the Internet, the autors would argue, would start with at least these questions. If a citizen cannot engage the Internet at this level and relies solely on recipe knowledge, then they cannot in all honest be called informed » (117).

Poser la question de la gouvernance d’Internet, au sens le plus large du terme, est donc pour les auteurs le seul moyen de sortir des discours utopiques (les protocoles d’Internet vont étendre et approfondir la démocratie) et réactionnaires (ils sont une menace pour la démocratie) : « the next step… is to create transparent algorithms that can assist deliberative democratic process on the Internet and, perhaps more importantly, expand the capability of citizens to undestand the effects of the material technology of the Internet on their decisions and their identities » (171). Concrètement : nous pouvons construire des protocoles qui n’enferment pas les citoyens dans des sphères où ils ne rencontrent plus que l’écho de leur propre voix, qui n’exploitent plus leurs données personnelles et, surtout, qui ne leur ôtent plus la capacité de juger et modifier les outils qu’ils utilisent.

Reprenant une idée de Galloway, les auteurs estiment que les protocoles actuels « are driven at present not by policies or regulations that want to expand a public sphere but by logics of ease in the very material creation of the Internet » (118). Cette « logics of ease » n’est pas dénoncée par les auteurs comme un mal intrinsèque, ou une conspiration capitaliste. Elle a simplement des effets, qu’il faut comprendre et transformer de manière à ce que les protocoles d’Internet renforcent l’espace public dans le sens d’une « genuine communication » et d’un « collaborative knowledge building » (118). Les protocoles actuels, qui semblent suivre « the easiest and thus the most logical approach », cachent ou rendent moins désirables des protocoles alternatifs, qu’une société démocratique doit rendre à nouveau visibles.

Prolongeant des analyses de S. Coleman au sujet de la BBC, les auteurs en viennent à envisager en particulier la création d’un public search engine, qui « would need to keep transparent the coding behind it and the organizing logic and intent of the algorithms that run it – keeping the purpose and practice of these open for the public deliberation and input by all. Relevance would then be determined by public, not commercial, needs (including the the design of the information retrieval system) » (175).

 

Il me semble qu’une telle proposition suscite deux interrogations distinctes.

La première est de savoir si les auteurs, qui dénoncent les utopies qui ont accompagné le développement des protocoles d’Internet, ne proposent pas à leur tour une mesure dont on peut se demander si elle est faisable et souhaitable. Á supposer qu’un tel moteur de recherche public puisse jamais voir le jour, quelles seraient ses chances de succès et sa contribution effective au développement de l’espace public démocratique ?

Je ne m’engagerai pas davantage dans cette première interrogation. La seconde me paraît moins visible mais tout aussi importante. Les auteurs, en reprenant sans distance critique les analyses d’Habermas relatives à l’espace public, n’érigent-ils pas une conception particulière de la démocratie comme la seule possible, cela sans la moindre justification? L’utopie pourrait bien être à chercher non pas dans telle ou telle mesure préconisée par les auteurs (la construction d’un moteur de recherche public, par exemple) mais dans l’idée que l’espace public démocratique est un espace universel où débattent des sujets rationnels pleinement informés. Une telle conception de la démocratie a, on le sait, été souvent critiquée (entre autres, vigoureusement, par M. Walzer dans Politics and passion). On peut à juste titre se demander si cet agir communicationnel, pour reprendre le terme d’Habermas, n’idéalise pas l’espace démocratique réel (les intellectuels ont souvent tendance à penser le débat démocratique à l’image du colloque universitaire – en l’idéalisant fortement, d’ailleurs). Il est symptomatique que les auteurs, parce qu’ils suivent Habermas sans le questionner, présentent comme des évidences empiriques ce qui ne va pas du tout de soi : que les citoyens « expect a public culture of shared knowledge, values and points of reference », qu’ils rejettent les pratiques par lesquels les hommes politiques « buy citizen votes and their power through the Internet » par des campagnes électorales onéreuses et d’habiles manipulations, etc. Il y a, derrière ces assertions et d’autres du même type (175-176), une certaine naïveté qui a pour effet de tracer une ligne contestable entre les pratiques politiques réelles, incluant celles qui passent par les protocoles actuels d’Internet – pratiques bien hâtivement qualifiées de contraires à l’éthique régissant la démocratie – et des pratiques idéales, celles au nom desquelles les auteurs proposent de réformer les protocoles d’Internet. Il est clair, par exemple, que si l’on suit les auteurs dans la conception qu’ils se font du citoyen informé (comme un citoyen dont l’accès à l’information n’est pas limité par des protocoles l’enfermant dans une perspective étroite), on ne peut qu’en venir à préconiser un moteur de recherche qui « can be used to carefully manage and maintain a representative sample of the most relevant and broad-reaching commentary and developments on any topic or issue » (139). Mais cette opposition entre des citoyens enfermés dans des horizons étroits et des citoyens pleinement informés « on any topic or issue » est-elle pertinente ? N’y a-t-il pas, derrière une telle opposition, le mythe d’un citoyen pleinement informé ? Qu’est-ce qu’être pleinement informé et pleinement informé sur tout ? Est-ce vraiment cela, être un citoyen éclairé, dans nos démocraties réelles ? Avec ces questions, c’est l’idée même que se forme Habermas de l’espace public démocratique qui perd de son évidence.

On peut penser que la critique que j’avance ici est par trop conservatrice. Elle pourrait rejoindre celle de Michael Schudson :

Citizens can be monitored rather than informed. A monitoral citizen scans (rather than reads) the informational environment in a way so that he or she me be alerted on a very wide variety of issues for a very wide variety of ends and may be mobilized around those issues in a large variety of ways… Monitorial citizens tend to be defensive rather than pro-active. They are perhaps better informed than citizens of the past in that, somewhere in their heads, they have more bits of information, but there is no assurance that they know at all what to do with what they know. They have no more virtue than citizens of the past – but not less, either » (« Changing Concepts of Democracy », MIT Communications Forum, 1998).

Mais même si le point de vue de Schudson est précieux (tout ce qui peut nous mettre en garde contre l’utopie est bienvenu) ma critique est différente de la sienne. Il ne fait pas de doute, comme l’a brillamment montré Pierre Rosanvallon dans La contre-démocratie, que les formes modernes d’activisme, indépendamment même de l’utilisation des outils offerts par Internet, peuvent dégrader les contre-pouvoirs indispensable à toute démocratie et engendrer ce que P. Rosanvallon nomme une impolitique (et Schudson des actions « defensive rather than pro-active »), c’est-à-dire des actions visant tout au plus à surveiller le pouvoir, à s’opposer à lui, à l’affaiblir, mais renonçant à toute politique positive orientée vers le bien commun. Il ne s’ensuit pas, cependant, que l’action des citoyens, dans nos démocraties, soient condamnées à cette impolitique, comme Rosanvallon le dit lui-même fortement à la fin de l’ouvrage. Le scepticisme de Schudson semble bien reposer, finalement, sur le même présupposé que l’utopisme de nos auteurs (un utopisme d’ailleurs modéré, quand on pense à d’autres variantes, plus exubérantes, qui ont accompagné la construction d’Internet). Ce présupposé consiste à opposer la sphère de l’universel (l’espace public habermasien, lieu de la délibération rationnelle) et les multiples sphères du particulier (celles où les citoyens se mobilisent en faveur de telle ou telle cause) ou, pour le dire autrement, à opposer « genuine communication » et « uncritical, instrumental navigation on line », comme le font trop souvent les auteurs de l’ouvrage. Si l’on pense l’espace public démocratique d’une autre manière, en rupture avec l’idéalisation qu’est le modèle délibératif, si l’on considère qu’il est constitué de sujets non pas individuels mais collectifs (institutions, partis, syndicats, groupes de pression, associations de la société civile, etc.), dont le savoir et la rationalité sont limités (comme en témoigne l’importance, dans la vie politique, des croyances, des symboles, des émotions et des passions), on sera amené à envisager de manière plus positive et nuancée les effets des protocoles d’Internet sur la vie publique (pour une étude fine de ces effets, de leurs promesses et de leurs limites, cf. Dominique Cardon, La démocratie Internet).

Pour revenir au titre de l’ouvrage : ce qu’il y a de plus nouveau dans cette étude est sans doute l’insistance particulière des auteurs sur la nécessité, dans nos sociétés démocratiques, de rendre visibles les protocoles que nous utilisons quotidiennement, d’en mettre clairement en évidence les effets, de manière à pouvoir les utiliser davantage au service des pratiques démocratiques. Mais comme toute réflexion sur les rapports d’Internet et de la démocratie, la réflexion des auteurs engage également une conception de la démocratie, qui ne me semble pas, en l’occurrence, la seule possible – ce qui relativise à mes yeux la pertinence des mesures qu’ils proposent (un moteur de recherche public, par exemple).

 

25 juin 2011

Sur « Réponses à Hadopi » de J. Branco

Quelques réflexions sur deux ouvrages récents consacrés à Hadopi : Réponses à Hadopi, de J. Branco (Capricci, 2010) et Lutte contre le téléchargement illégal, par E. Derieux et A. Granchet (Lamy, 2010).

Il est difficile d’imaginer contraste plus grand entre le premier ouvrage, pamphlet dogmatique et naïf, et le second, étude documentée, argumentée et nuancée dans ses conclusions, dans l’ensemble sceptiques quant à l’efficacité d’Hadopi.

J. Branco (cofondateur de la plate-forme Création Public Internet) a visiblement le plus grand mal à imaginer que quelqu’un puisse ne pas être de son avis. Les défenseurs d’Hadopi se rangent en fait pour lui soit dans la catégorie des exploiteurs soit dans celle des ignorants. La première catégorie comprend, entre autres, les « sociétés d’auteurs et grands groupes », qui n’ont d’autre objectif que de rançonner le consommateur. L’auteur ne s’embarrasse pas d’arguments à leur propos, il préfère mobiliser les attaques ad hominem (en rapportant des ragots de cocktails sur le salaire de tel ou tel ou le luxe dans lequel vivrait telle ou telle société de défense des ayants droit, ou des insinuations sur l’âge avancé des artistes ayant signé une pétition en faveur d’Hadopi, etc.). Quant à la catégorie des ignorants, elle englobe tous ceux, mis à part ceux figurant dans la catégorie précédente, qui ne partagent pas l’avis de l’auteur : le Parlement a voté la loi Hadopi « sans disposer de l’information lui permettant de voter en conscience » ; les sociétés d’auteurs, du moins celles qui sont honnêtes, « n’auraient jamais dû appuyer une telle erreur » ; les artistes du cinéma ont été empêchés « de se prononcer en connaissance de cause » ; l’industrie musicale « commet l’erreur historique et presque [sic]  mortelle de réduire considérablement son offre au tournant du siècle – plusieurs mois avant la démocratisation du partage » ; le gouvernement « se réclame d’un moment qu’en vérité il ne comprend pas », etc. Résumons : « ni les pouvoirs publics ni les principaux pouvoirs économiques et artistiques n’ont pour l’heure pris en compte cette révolution » (le numérique). Cela fait du monde ! Mais qui pourrait arrêter celui qui détient la vérité ? Certes, il est difficile de penser que les agents sociaux ignorent leurs véritables intérêts. Mais on peut toujours s’en sortir en en faisant des « alliés objectifs du projet de loi » (37). On aurait pu croire ce vocable révolu… Mais non : Costa-Gravas entre dans cette catégorie, en compagnie de « vieilles gloires, très qualité française » et de « machines à blockbusters ».

L’idée selon laquelle tous ceux qui ne sont pas de mon avis sont dans l’erreur conduit, ici comme ailleurs, à de nombreuses contorsions. Comment expliquer que les grands groupes cinématographiques, qui selon l’auteur (qui ne s’embarrasse pas d’études empiriques) ont intérêt au piratage, l’ignorent? C’est qu’en fait ils le savent mais ont peur d’autre chose (que le buzz de ceux qui pratiquent le téléchargement illégal remette en cause « les machines du marketing », le contrôle des attachés de presse, des avant-premières et des teasings « ou même la critique », 55). La stratégie argumentative – si l’on peut parler ainsi – est claire : on peut toujours essayer de retomber sur ses pieds, même quand on vient de faire une voltige périlleuse et maladroite…

Dogmatique, l’ouvrage l’est, à l’évidence. Mais le plus étonnant est la naïveté et légèreté dont fait preuve l’auteur, presque à chaque page. Passons sur les formules qui ont sans doute échappé à l’auteur : telle ou telle mesure envisagée par le Parlement « ferait de la Chine un paradis des libertés informatiques comparé à la France ». Mais comment comprendre qu’on puisse, à quelques pages d’intervalle, accuser une loi d’être liberticide et affirmer en même temps qu’elle est dénuée de toute efficacité, qu’elle est une loi mort-née ? Comment peut-on affirmer, sans la moindre preuve, que le cinéma ne subit « aucun contrecoup visible » du fait téléchargement illégal, que « les copies téléchargées n’entraînent pas de dépenses supplémentaires pour les ayants droit, la copie n’étant pas dérobée à son fabricant mais effectuée par le particulier lui-même » (avec le même argument on peut justifier toute contrefaçon), que les efforts pour développer l’offre légale sont inexistants, que le streaming légal n’a pas d’avenir économique (on peut le penser, mais encore faut-il avancer des arguments en faveur de cette affirmation), etc.

Il est clair, quand on lit attentivement ce livre, que ces naïvetés ont une racine commune, qui affleure à plusieurs reprises : « la culture est devenue subitement un marché symétrique où l’offre, court-circuitant les filtres de l’industrie, provient toujours plus des consommateurs eux-mêmes » (49), « quelques acteurs décidaient hier ce qui devait être produit et diffusé ; aujourd’hui, ce sont les consommateurs qui, par le biais des réseaux parallèles, redistribuent les produits » (56). Ce primat du consommateur est posé à chaque instant dans l’ouvrage, et il y prend le statut d’une véritable loi de l’histoire (le téléchargement illégal est un fait irréversible, comme l’est pour l’auteur la diffusion illégale des documents diplomatiques et politiques). Il est étroitement lié à la thèse d’un déterminisme par la technique (ce sont les développements de celle-ci qui rendent le téléchargement illicite et la fuite inéluctables) et d’une profonde sous-estimation du politique (« les gouvernements seront toujours perdants (…) à preuve l’affaire Wikileaks »).  Cet étrange libéralisme – qui n’en est pas un, bien que le discours se réclame à chaque instant de la liberté – me semble bien en fait n’être que l’habillage d’une brutale affirmation : seuls les intérêts du consommateur comptent. Il est bien difficile de donner un nom à cette idéologie, apparemment libérale, en réalité populiste et techniciste à la fois.  Mais ses traits sont clairs : jamais l’auteur ne parvient à penser que nos sociétés sont des sociétés complexes, où les intérêts (ceux des consommateurs, ceux des éditeurs, ceux des auteurs…) sont réellement divers ; jamais il ne parvient à penser que la politique consiste à harmoniser, ou souvent simplement à arbitrer, entre ces conflits, comme cela a été fait avec Hadopi (dont je ne dis pas qu’elle soit la seule ou la meilleure des solutions).

Une fois posé ce primat du consommateur (dont on se demande bien, tel qu’il est formulé, quelle place il laisse aux auteurs), il ne reste plus à l’auteur qu’à osciller entre les vœux pieux (« il sera donc nécessaire d’élaborer un pacte de confiance entre les pouvoirs publics, les industries culturelles et les internautes et citoyens, afin d’aboutir à une législation contenue de comportements aujourd’hui irréversibles, contre compensation en bonne et due forme ») et un dirigisme old style qui pointe clairement son nez à la fin de l’ouvrage. L’auteur se présente comme un fervent défenseur de la licence globale. Pourquoi pas ? L’expression recouvre des réalités très différentes et il existe des versions solides et défendables de celle-ci. Mais à aucun moment l’auteur n’envisage les objections de principe à cette licence, pourtant bien connues (dans un tel système tout le monde paie pour le comportement de quelques-uns, et cette solution peut à terme dénaturer les fondements mêmes de la propriété intellectuelle et du droit d’auteur) et ne tente d’y répondre. Il se contente de proposer une licence globale (qui serait un « service public », à l’instar du téléphone et du haut débit, sic, 67 !) dont la description laisse rêveur : « les sommes seront redistribuées aux ayants droit selon une base proportionnelle au nombre de téléchargements, mesurés par des sondages, et complétée par une redistribution favorisant la diversité culturelle. Cette base pourra être lissée avec un aplatissement de la courbe de redistribution des ayants droits au profit des ayants droit les moins reconnus… » (passons sous silence l’usine à gaz encore plus baroque que l’auteur invente, à la page 69, pour le cinéma). L’auteur reconnaît que cette construction hasardeuse aurait des conséquences et des effets pervers (par exemple la disparition de la VOD de masse, « marché de toute façon peu profitable aujourd’hui et quasi inexistant ») mais semble faire confiance à un État qui aura cessé de « de répondre par à-coups aux desiderata industriels et prendra enfin ses responsabilités ».

Ce n’est pas le moindre paradoxe de cet ouvrage qu’après une charge d’allure libertaire, dans un style assez fréquent dans certains milieux d’Internet, il retombe finalement dans un vague et plat dirigisme. L’Etat vient finalement sanctionner et achever l’évolution inéluctable de l’histoire…

L’interview de Jean-Luc Godard, qui clôt le volume, est rafraîchissante. L’interviewé (quel âge a-t-il, au fait ?) y roule dans la farine l’intervieweur, en déclarant, à la cantonade, que « le seul droit de l’auteur, c’est son devoir de créer », ou que « je n’ai pas grand avis sur la loi Hadopi, qui est ridicule et criminelle », ou encore que « les tableaux devraient circuler… une semaine chez chacun, pour qu’on ait le temps de les voir ».

Quelques mots sur l’autre ouvrage, celui d’E. Derieux et d’A. Granchet, Lutte contre le téléchargement illégal (Lamy, 2011). C’est, en 200 pages d’une grande clarté, un exposé à la fois simple et profond des faits et de tous les arguments relatifs au téléchargement illégal. Leur jugement n’est pas tendre : « ce dispositif juridique spécifique de lutte contre le téléchargement illégal, qui n’est pourtant qu’une contrefaçon parmi d’autres, risque de s’avérer tout aussi inadapté et inefficace » (196). Mais il est fondé. Il vient en conclusion d’une argumentation ouverte, confrontant prudemment les divers points de vue et ne perdant jamais de vue les faits. Question de méthode et d’honnêteté intellectuelle…

15 juin 2011

Sur « Cultures du numérique » (Communications, n°88, 2011)

Le récent numéro de Communications (n°88, 2011), dont le maître d’œuvre est Antonio A. Casilli (Centre Edgar-Morin HAC EHESS/ CNRS) a, entre autres mérites, celui de sortir des sentiers battus. On y trouvera des approches inattendues de la culture numérique (une description fine de l’e-santé, par D. Dupagne, par exemple, ou une synthèse sur le Net art, par J.P. Fourmentraux) ainsi que de très bons articles sur des thèmes plus classiques mais traités de manière à la fois synthétique et, parce que nuancée, nouvelle (« Édition électronique », par P. Mounier et M. Dacos, « Administration électronique », par P. Dagiral, « Prosumer », par G. Beaudouin, qui analyse avec précision les nouvelles formes de consommation-production). Tout au plus peut-on regretter que certains phénomènes qui commencent à être ici et là étudiés, par exemple la violence sur Internet (cf. le récent The Offensive Internet, de M. Nussbaum et S. Levmore), ou encore la cybercriminalité, ou l’activisme du type de celui d’Anonymous, ou de Lulz Security, qui sont une des dimensions de la culture numérique, ne soient pas envisagés dans ce numéro (il est vrai que les derniers développements de cet activisme sont particulièrement récents).

L’article intitulé « Propriété intellectuelle » (F. Rochelandet) réussit le tour de force de présenter en quelques pages l’essentiel de la question. Il s’agit d’une synthèse très équilibrée qui emporte l’adhésion (même si j’ai du mal à suivre l’auteur dans la proposition finale, celle d’un système de licences où « les individus pourraient faire des dons directement aux auteurs selon la valeur qu’ils attribuent à leurs œuvres, dons qu’ils pourraient ensuite déduire fiscalement » – opération dont la faisabilité me paraît pour le moins douteuse).

L’article « Réseaux sociaux sur Internet » (D. Cardon, par ailleurs auteur de l’excellent livre La démocratie numérique) fait une description très fine des diverses formes de conversation dans les réseaux. La fin de l’article (pages 146-147) propose une grille de lecture très convaincante, d’une part de l’affaiblissement de la frontière entre l’espace public traditionnel et celui de la conversation ordinaire (en opposant la lecture républicaine, qui se désole de cette disparition de la frontière entre professionnels et amateurs, et celle qui voit en ce phénomène un empowerment des citoyens) – d’autre part de la manière dont Internet recompose l’espace public en sollicitant les affects et la subjectivité des internautes (en opposant une lecture biopolitique, qui voit dans ce phénomène de nouvelles formes de domination, à la suite de Foucault, et une lecture que l’auteur nomme par la pollinisation, qui insiste davantage sur ses conséquences positives : « les coopérations sur Internet produisent des externalités positives pour l’ensemble de la collectivité : une intelligence collective, des biens communs qui ne peuvent être appropriés par l’État ou le marché, de nouvelles formes d’échanges culturels »). La fin de l’article, très nuancée, tente de montrer que chacune de ces interprétations peut contenir une part de vérité, tant les phénomènes que l’on range sous le titre de culture numérique sont ambivalents : on assiste à « un refus de plus en plus affirmé par les individus… de s’en remettre à d’autres pour choisir, organiser et hiérarchiser l’information », mais, en même temps, « en augmentant la compétition entre les individus en quête de reconnaissance, les réseaux sociaux de l’Internet contribuent aussi à uniformiser les manières de se présenter, de se singulariser et d’agir les uns envers les autres ».

Cette sensibilité aux ambivalences et contradictions de la culture numérique, signe d’un point de maturité atteint par la réflexion sociologique sur Internet, caractérise d’ailleurs la quasi-totalité des interventions. Pour ne citer qu’un dernier exemple, N. Auray, dans son article intitulé « Solidarités », met très clairement en évidence les contradictions des communautés créatives : de jeunes musiciens peuvent témoigner d’une générosité radicale, en rendant leurs œuvres librement téléchargeables, tout en se livrant à une concurrence acharnée pour accéder à une parcelle de visibilité sur les plates-formes de réseau social, le numérique exacerbant cette lutte pour la gloire ou l’attention.

Ce court volume, j’espère l’avoir fait sentir, est un instrument précieux pour mieux comprendre notre présent numérique et éclairer nos choix.

 

 

 

23 mai 2011

Sur « La vie privée en péril. Des citoyens sous contrôle » (Alex Türk)

Alex Türk : La vie privée en péril. Des citoyens sous contrôle. (O. Jacob, avril 2011)

Le livre que signe l’actuel président de la Commission Nationale de l’Informatique et des Libertés (par ailleurs enseignant en droit public et sénateur) est passionnant, à trois titres au moins : (1) en raison de la perspective théorique qui guide l’ensemble de l’ouvrage, celle de la défense des libertés constitutives de l’État de droit, (2) du fait de la synthèse remarquablement claire des atteintes à la vie privée en France qui constitue le cœur de l’ouvrage et, (3) des informations précieuses qu’il fournit au lecteur sur le fonctionnement de cette autorité indépendante qu’est la CNIL.

Je me contenterai de développer le point (1) en attirant l’attention, en ce qui concerne les points (2) et (3) sur quelques idées essentielles de l’ouvrage.

(1) La perspective théorique qui guide l’ouvrage est partout présente, et clairement explicitée dans la conclusion. L’auteur, qui renvoie dos à dos les technophobes et ceux qui voient dans toute régulation des techniques informatiques par l’État un acte liberticide, inscrit délibérément sa réflexion dans la défense du libéralisme politique. À l’instar de Tocqueville dans De la démocratie en Amérique, il met en garde contre le fait que « si l’on ne réagit pas, la période durant laquelle la vie privée du citoyen, son intimité, son identité auront été reconnues et préservées, n’aura été qu’une parenthèse ». Nous sommes donc à un moment critique, et plutôt étrange : « alors que, de nos jours encore, des populations luttent pour accéder à cette vision de l’État de droit, ne serait-il pas paradoxal que nos sociétés qui s’en étaient dotées reculent sous la pression des technologies du numérique ? » (262).

Axel Türk rejoint bien d’autres auteurs qui, parce qu’ils ne perdent jamais de vue les principes de l’État de droit (le respect de la vie privée), en viennent à questionner le développement des technologies informatiques, sans se laisser impressionner ni par le caractère apparemment inéluctable de ce développement (« You already have zero privacy. Get over it », comme l’a dit un jour un patron de Sun Microsystems) ni par les arguties visant à justifier les atteintes à la vie privée (la conscience que des « banqueroutes de réputation » sont désormais possibles devrait nous conduire à changer notre conception de l’identité – c’est-à-dire à changer d’identité lorsque nous avons perdu la maîtrise de nos données personnelles –, théorie qu’Axel Türk nomme « patrimonialisation de l’identité » et qu’il oppose à celle selon laquelle « l’identité est un droit fondamental attaché à la personne pour la durée de sa vie », 120). Il rejoint, sur ce point, entre autres, l’excellent ouvrage récent de Martha Nussbaum et Saul Levmore, The Offensive Internet (Harvard University Press, 2010) – preuve qu’il est quelque peu risqué, comme l’auteur a parfois tendance à le faire, de mettre tous les « universitaires américains » dans le même sac…

L’auteur rappelle, avec Baudelaire, que le droit de s’en aller (de préserver mon anonymat, ma solitude : mon droit à l’opacité) et le droit de se contredire (de changer, d’évoluer, de mûrir : mon droit à la transparence, c’est-à-dire à l’accès à tous les fichiers me concernant, de manière à ce que mon identité ne soit jamais figée) sont des droits fondamentaux dans une démocratie libérale. De tels droits doivent primer par rapport à tout développement des techniques de l’informatique. Exiger que Google, par exemple, respecte les trois principes du consentement, de la transparence et de l’oubli (159), ce n’est pas être technophobe, c’est rappeler un principe fondamental de l’État de droit : « la vie en communauté n’est possible – « tolérable » – que dans le respect mutuel de l’intimité », qui préserve les chances d’exercer nos libertés individuelles (123). Il s’ensuit que « nous n’avons pas à adapter le mode d’exercice du respect de notre vie privée et de notre identité au développement des technologies du numérique. Nous devons maîtriser celles-ci pour faire en sorte de préserver notre sphère de vie privée tout en l’enrichissant » (124).

(2) Ayant ainsi rappelé le primat du droit sur la technique, Axel Türk présente de manière remarquablement claire et synthétique, sur la base de l’expérience acquise à la tête de la CNIL, l’ensemble des menaces inhérentes au traçage, à la biométrie, à la géolocalisation, à la vidéosurveillance et à la traque numérique sur Internet.

Le lecteur, même celui qui estime être très bien informé en cette matière, découvrira l’ampleur de ces menaces, pour la plupart invisibles (et qui le seront davantage encore avec les nanotechnologies). Et il les découvrira, sur des cas très précis, traités par la CNIL, d’une très grande complexité (faut-il autoriser des cantines scolaires avec accès par reconnaissance du contour de la main ? faut-il installer un système de géolocalisation des nourrissons dans une maternité ? faut-il autoriser le vidéocomptage des passants du métro s’arrêtant devant un panneau publicitaire intelligent ? etc.). Il découvrira aussi l’ampleur des protestations contre ces menaces, en Europe comme aux États-Unis (par exemple aux pages 131 et suivantes, dans des paragraphes très informés sur Facebook et Google), émanant tant des citoyens que des instances indépendantes de régulation.

Mais l’intérêt de l’ouvrage est loin d’être seulement descriptif. L’auteur s’attache à réfuter avec vigueur les justifications des ces atteintes, par exemple le slogan « rien à cacher, rien à me reprocher » (dont A. Türk fait une très bonne critique, en montrant que de n informations apparemment innocentes on peut extraire une information n+1 que l’on ne souhaitait pas rendre publique, 129), ou d’autres idées du même type…

Parce l’auteur ne se départit jamais de son fil directeur (la défense des libertés), il ne tombe à aucun moment dans les jérémiades « humanistes » (le mot a souvent bon dos), c’est-à-dire technophobes. S’agissant des réseaux sociaux, par exemple, il se contente de rappeler que le rapport entre le fournisseur et le client relève du droit de la consommation, que le premier met un dispositif technologique au service du second, que le second met un certain nombre de données au service du premier et que chacun, dans ce contrat, a des droits et des devoirs (159). S’agissant des fichiers destinés à la lutte contre le terrorisme et la criminalité, de la vidéosurveillance, de la géolocalisation, l’auteur n’entend aucunement nier les réels services que ces techniques rendent et le fait qu’ils soient un vecteur de progrès social. Il demande simplement que nous devenions capables d’évaluer ces techniques, avec les moyens technologiques et juridiques nécessaires, au niveau national, européen et international, avant qu’il ne soit trop tard. Tout comme le pensait Tocqueville au début du XIXe siècle, Axel Türk, qui se méfie de l’idée d’une technique s’autorégulant (soit par des codes de bonne conduite, soit par des protocoles techniques), estime qu’il pourrait y avoir, si nous n’y prenons garde, des points de non-retour – exactement comme c’est le cas en matière d’écologie.

(3) Le lecteur pourra lire enfin, dans la dernière partie de l’ouvrage, un bilan précis de l’activité de la CNIL. Il découvrira comment la régulation fine des technologies de l’informatique, loin d’être paralysante, permet de trouver, non sans difficulté souvent, non sans échecs parfois, un point d’équilibre entre progrès technique et social et respect des libertés. A. Türk isole trois niveaux de cette régulation (celle de nature pédagogique – le livre contient de remarquables pages sur l’action pédagogique de la CNIL auprès des jeunes élèves – celle de nature technique et celle de nature juridique, au niveau du droit national, européen et international, et en particulier par la mise en place d’autorités de régulation indépendantes).

Concernant l’autorité que l’auteur connaît particulièrement bien, la CNIL, on lira le passionnant dernier chapitre, qui relate, de manière très vivante, les rapports complexes de l’autorité indépendante avec l’exécutif, le Parlement, la magistrature, le public, l’Union Européenne, les États-Unis… Un vrai régal, une leçon de droit et de politique à ciel ouvert. Un livre à mettre entre toutes les mains.

16 mai 2011

Sur « La révolution du livre numérique »

Filed under: Internet,Livre numérique — Auteur @ 17 h 47 min
Tags:

M. Tessier, B. Racine, J-N. Jeanneney, F. Samuelson, B. Fixot, T. Cremisi, L. Ferry : La révolution du livre numérique (Odile Jacob, 2011).

Ce livre, qui réunit des contributions de tous les acteurs du livre numérique (bibliothécaires, éditeurs, agents littéraires, experts, etc.) est sans doute la meilleure introduction, à ce jour, à l’ensemble des espoirs que le livre numérique suscite et des problèmes qu’il pose. Non que l’ouvrage soit complet (on regrettera par exemple qu’il n’y ait pas une ligne sur l’utilisation pédagogique du livre numérique et sur l’édition scolaire, et seulement une vague allusion à l’immense intérêt que le livre numérique fait naître dans les pays en voie de développement). Mais il présente de manière remarquablement claire quelques débats fondamentaux (sous quelles conditions les bibliothèques peuvent-elles collaborer avec Google pour la numérisation de leurs livres ? faut-il, et comment peut-on, mettre en place, en France, une plate-forme unique du livre numérique ? qui doit déterminer le prix du livre numérique ? quel doit-être son taux de TVA ? etc.).

Les interventions les plus stimulantes sont, à mes yeux, celles qui refusent de s’enfermer dans des dichotomies simplistes (celle l’ordre et du vrac dans l’accès aux données, par exemple). Marc Tessier, en particulier, montre qu’il est possible et nécessaire d’articuler les modes d’organisation cohérents (ceux des grandes bibliothèques) et la liberté de butiner le patrimoine sur les moteurs de recherche, et que cette articulation va dans le sens de l’intérêt du grand public, des auteurs et des éditeurs. Il plaide, comme Bruno Racine, pour une collaboration exigeante avec Google (en attirant en particulier l’attention, comme dans les divers rapports dont il a été le maître d’œuvre, sur la nécessité, pour les bibliothèques, de ne pas confier à Google l’exclusivité sur le patrimoine, tant du point de vue du mode d’accès que de la conservation et de la commercialisation des fichiers). A remarquer, une excellente analyse, par Bruno Racine, du sens et de l’enjeu de la numérisation, par Google, des œuvres protégées par le droit d’auteur, et des procès en cours à ce sujet, tant aux États-Unis qu’en Europe (68) et une bonne synthèse, dans l’intervention de François Samuelson, des problèmes que pose l’exploitation des droits numériques (128).

On peut trouver nettement moins convaincantes les interventions qui, comme celle de J-N. Jeanneney, opposent mécaniquement l’ordre au vrac, au risque de sous-estimer les compétences et l’autonomie des citoyens et de prôner une conception paternaliste de la culture (« Il me semble en effet qu’une profusion non organisée, non classée et non inventoriée n’a guère d’intérêt, surtout pour les néophytes, qui ont justement besoin d’être guidés (…). Vous et moi, nous appartenons à une génération formée à un autre type de culture, il nous est donc aisé de nous orienter dans le vrac car nous savons ce que nous recherchons (…). Nos enfants, eux, possèdent la plupart du temps une culture « zapping » plus morcelée et, parfois, plus superficielle, même si elle n’est pas forcément moins riche »).

Un regret : très peu d’interventions abordent avec précision la question de la nature du livre numérique et s’attachent à décrire le type d’objet dont il s’agit. B. Racine remarque, sans vraiment développer ce point, que le livre numérique n’est pas un fac-similé d’ouvrages existants, qu’il va sans doute évoluer dans le sens d’une production hybride (avec image, vidéo, musique, etc.) et interactive, à tel point qu’on peut se poser la question de savoir s’il s’agit bien « du même objet ». Teresa Cremisi est la seule à consacrer une description précise à ce sujet, sur l’exemple, en particulier, de la bande dessinée et du roman, vendu par épisodes, sur les mobiles. Mais il est clair que la portée de ce phénomène n’est pas perçue de la même manière par tous (l’éditeur B. Fixot, de manière symptomatique, conçoit ce nouveau type d’objet comme la juxtaposition d’un livre traditionnel et d’un « enrichissement multimédia des contenus »). L’intervenant apparaissant sous le nom de Conseil d’analyse de la société fait remarquer à juste titre qu’il y a là une manière de sous-estimer la nouveauté du livre numérique. Il me semble évident que certains des problèmes commerciaux et juridiques abordés dans l’ouvrage souffrent de cette conscience insuffisante de la nouveauté de cet objet qu’est le livre numérique.

15 mai 2011

Sur « The Offensive Internet »

Filed under: Internet,Libertés,Vie privée — Auteur @ 12 h 59 min
Tags: , ,

(edited by Saul Levmore and Martha C. Nussbaum, Harvard University Press, 2010)

L’ouvrage édité par S. Levmore et M.C. Nussbaum, qui rassemble des contributions de juristes et philosophes, est l’un des premiers à se pencher sur un phénomène dont une dimension est visible et fait l’objet de débats (la divulgation des données privées par des entreprises comme Facebook ou Google), mais dont une autre dimension, pourtant tout aussi réelle, a moins retenu l’attention (les multiples et graves atteintes à la vie privée dont les citoyens eux-mêmes sont les auteurs). Par la diversité et la profondeur de ses analyses, l’ouvrage fera date. Il est remarquable tant au niveau descriptif qu’aux niveaux théorique et normatif.

Les auteurs s’attachent d’abord à mettre en évidence un ensemble de faits. Les nouveaux outils du Web 2.0 rendent possibles des atteintes à la vie privée qui sont à la fois qualitativement nouvelles et, quantitativement, sans commune mesure avec celles que nos sociétés ont connues jusqu’à une époque récente. Ces atteintes sont trop souvent passées sous silence, ou écartées d’un revers de main par les inventeurs et promoteurs de ces outils (on connaît la déclaration de Scott McNealy, de Sun Microsystems : « You already have zero privacy. Get over it »). L’intérêt de l’ouvrage, au niveau descriptif, est de montrer, d’une part, que de nombreux citoyens sont victimes des hate groups, du cyber bullying, plus généralement de la divulgation d’informations qui, exactes ou mensongères, leur nuisent gravement et, d’autre part, que les femmes et les membres des diverses minorités, tout particulièrement lorsqu’ils réussissent professionnellement, sont les cibles privilégiées de ces pratiques. Sans forcer le trait, les divers auteurs dressent, sobrement, un tableau souvent terrifiant du pouvoir que ces outils confèrent à ceux qui, pour des raisons commerciales, encouragent certaines violations de la vie privée (Facebook, Google, etc.) mais aussi et surtout – car cette dimension du phénomène est moins connue – qu’ils confèrent à tous ceux qui sont décidés à nuire à leurs concitoyens (campagnes visant à obtenir la fermeture de sites féministes, ou appartenant à des minorités, ou considérés comme progressistes ; harcèlement du type Google bombing visant à détruire la réputation de la victime et conduisant certaines femmes à quitter un cours, ou une université ou un poste, en raison d’appels au viol et au meurtre, avec publication des noms, coordonnées et photos des victimes, etc.).

Plusieurs des contributions montrent, contre le discours qui est encore dominant dans certains milieux proches d’Internet, que les citoyens, même lorsqu’il leur arrive de favoriser par leurs pratiques les violations qu’ils dénoncent, condamnent moralement l’idée d’une transparence complète, parce qu’ils estiment qu’un monde où la vie privée n’existerait plus est un monde moins souhaitable qu’un monde régulant la divulgation des données personnelles dans le but de protéger la liberté individuelle et le self-development : « privacy has persisted as a major social desire and goal » (29). Brian Leter, dans cette perspective, attire l’attention sur la différence  que les citoyens font entre les tortious harms (ceux susceptibles d’un recours en justice, pour diffamation ou harcèlement par exemple) et les dignitary harms (« that are real enough to those affected and recognized by ordinary standards of decency, though not generally actionable », 155), ces atteintes à la vie privée qui peuvent engendrer l’humiliation, la dépression, la perte de confiance en soi ou la peur, mais qui ne sont pas encore réprimées par le droit.

Certains auteurs décrivent finement la structure de ce sentiment d’être menacé par des pratiques plus répandues qu’on ne l’imagine. Daniel J. Solove montre par exemple que les citoyens, lorsqu’ils protestent contre les atteintes à leur vie privée, font clairement la distinction entre secrecy et accessibility : ils souhaitent, par exemple, partager des informations personnelles avec leurs amis sur Facebook mais ils refusent, comme en 2006, le News Feed avertissant automatiquement leurs amis de tout changement dans leur profil ; ou, comme en 2007, le Social Ads and Beacon, par lequel Facebook informait les amis de leurs achats sur tel ou tel site (c’est une chose que d’informer soi-même ses amis de tel ou tel achat ou de l’intérêt de tel site, c’en est une autre que de confier cette tâche à un robot de Facebook).

Les auteurs s’attachent, en second lieu, à expliquer les faits ainsi décrits et caractérisés. Un intérêt de l’ouvrage est la diversité des approches méthodologiques. Le phénomène est suffisamment complexe pour recevoir un éclairage psychologique et anthropologique (on lira les fines analyses de Martha C. Nussbaum, librement inspirées de Nietzsche, sur les mécanismes psychologiques de la misogynie haineuse encouragée par la relation anonyme et sans contact qui est encore possible sur Internet) ou un éclairage plus sociologique (l’article de Cass S. Sunstein reprend et approfondit ses analyses bien connues des différents types de rumeurs : informational cascades, reputational cascades et group polarization). Ces analyses sont précieuses en ce qu’elles mettent en évidence que, contrairement à ce que pensent naïvement les chantres des nouveaux outils informatiques, ces derniers n’ont pas seulement un effet libérateur sur les relations humaines. Comme toute innovation technique, ils ouvrent la possibilité de nouvelles relations qui sont loin d’être transparentes. Ni immédiatement visibles ni immédiatement compréhensibles, elles doivent être étudiées, plus que cela n’a été le cas jusqu’ici, par les spécialistes des sciences humaines et par les philosophes.

À un troisième niveau, normatif, l’ouvrage défriche de manière systématique les enjeux éthiques et juridiques du phénomène.

Les contributeurs attirent l’attention sur le retard de la réflexion éthique et du droit américain en matière de protection des données de la vie privée (l’enjeu commercial étant moindre, il n’y a pas encore d’équivalent, concernant la vie privée, de la législation protégeant le copyright). Ils mettent en particulier en évidence que le First Amendement de la Constitution (« Congress shall make no law abridging the freedom of speech ») est souvent interprété de manière contestable, de manière à empêcher toute régulation dans le domaine de la liberté de parole. Dans un article remarquable, John Deigh montre que la tradition libérale, de Mill à Scanlon ou Meiklejohn, a cherché à protéger la liberté d’expression de toute interférence du pouvoir politique, ceci parce qu’elle avait constamment en vue non pas le droit de celui qui s’exprime mais les droits de ceux bénéficiant de la libre expression. Lorsque l’État porte atteinte à la liberté de parole, il prive les citoyens d’informations ou d’arguments essentiels à l’exercice de la démocratie. Il s’ensuit que quand le contenu exprimé est, sans contestation possible, malveillant, c’est-à-dire va à l’encontre des intérêts des citoyens, le cas ne tombe plus sous la protection du First Amendment. Le législateur peut alors être autorisé à réguler, avec prudence, la libre expression (il ne s’agit pas, par exemple, d’interdire toute parole purement émotive, même violente et injurieuse, car celle-ci peut avoir, comme le fait remarquer Meiklejohn, une valeur politique, ce qui n’est pas le cas des vociférations racistes ou homophobes des supporters d’une équipe de football, ni d’un blog visant à détruire une jeune juriste, pour la seule raison qu’elle est femme, noire, belle et intelligente, et qu’elle a réussi sa vie professionnelle et privée).

Plusieurs auteurs n’hésitent pas à aller contre le courant dominant, qui enterre souvent le droit à la vie privée au nom d’un prétendu changement des mentalités et d’une plus grande tolérance de la société à l’égard de la libre expression. A. Chander pense au contraire que « new technologies make the public disclosure tort more necessary than even before » (125). Même si, en ce domaine, il faut éviter de sur-réagir. Ils rappellent que le droit à la protection de la vie privée doit être équilibré par le droit à la publication de tout ce qui est newsworthy, c’est-à-dire a une importance pour le débat démocratique public et la découverte de la vérité – ce qui  n’est pas le cas dans la plupart des violations de la vie privée dont l’ouvrage fait état.

Il est à remarquer que parmi les diverses réformes envisagées par les auteurs nombreuses sont celles qui se situent en amont du recours au système judiciaire (lourd et cher, on le sait, aux États-Unis).

Signalons seulement, pour ce qui concerne les atteintes à la vie privée qui sont le fait d’individus haineux, les notice and take-down procedures, sur le modèle de celles utilisées dans la lutte contre le piratage, avec leurs avantages (elles permettent souvent d’éviter un recours juridique) et leurs inconvénients (le chilling effect pouvant paralyser l’expression publique, ou encore les notifications intentionnellement fausses, etc.). D’autres contributions construisent des plaidoyers convaincants en faveur de la non-anonimity, qui permettrait d’éliminer des sites spécialisés dans la diffamation anonyme (JuicyCampus, AutoAdmit, etc.), même si l’application concrète d’une telle mesure soulève de nombreux problèmes. Pour ce qui concerne les atteintes à la vie privée qui sont le fait d’entreprises en situation de quasi-monopole naturel (Google, Facebook) des mesures visant à garantir l’existence de moteurs de recherche concurrents sont sans doute un des moyens les plus efficaces de faire respecter la vie privée – surtout si elles sont accompagnées de mesures rendant contraignantes la reviewability et la revisability, c’est-à-dire le droit du citoyen à faire supprimer ou corriger les informations malveillantes le concernant, ou à faire insérer une réponse.

Même si la régulation d’Internet est une tâche autant culturelle que légale, les contributeurs appellent par ailleurs à une réforme de la législation existante en vue d’une « new and more nuanced conception of public and private life » (23). Pour ne retenir qu’une des réformes proposées : une loi relative à l’utilisation, par les entreprises, cabinets de recrutement, sociétés d’assurance, etc., des données disponibles sur Google, est une tâche urgente aux États-Unis et ailleurs (un demandeur d’emploi devrait avoir le droit de consulter l’ensemble des données qui ont été prises en compte lors de l’examen de son dossier de candidature).

L’intérêt de l’ouvrage réside, on le voit, dans la multiplicité des propositions de réforme qu’il avance, sans jamais passer sous silence les objections que celles-ci peuvent susciter (en particulier celle selon laquelle des institutions comme Facebook ou Google pourraient être des self-adjusting systems : la constatation du caractère peu fiable des innombrables révélations sur la vie privée pourrait amener le public à les neutraliser, voire, comme l’envisage Geoffrey R. Stone à titre d’hypothèse, à considérer les erreurs des autres, lorsqu’elles sont avérées, dans un contexte plus large et dans l’histoire d’un individu ; les atteintes à la vie privée pourraient ainsi déboucher, paradoxalement, sur une meilleure compréhension des actions humaines et un degré plus élevé de tolérance).

Entre l’élitisme réactionnaire (qui dénonce et méprise ces outils nouveaux sans parvenir à corriger les conséquences de leur utilisation) et la démagogie utopique (qui absolutise la libre expression, comme d’autres absolutisent le libre marché, sans la moindre considération pour ceux qui sont victimes de l’anarchie actuelle), l’ouvrage a l’immense mérite d’argumenter en faveur d’une régulation intelligente d’Internet, au service de la liberté individuelle et de la démocratie.

« Page précédente

Propulsé par WordPress.com.