LE FIL DES PAGES

11 août 2011

Sur « The Filter Bubble » d’Eli Pariser (2011)

Eli  Pariser : The Filter Bubble : What the Internet is Hiding from You (The Penguin Press, Kindle Edition, 2011)

 

Eli Pariser, ex-directeur de Move.On Org, consacre cet ouvrage à ce qu’il estime être un fait fondamental dans la récente évolution d’Internet : la personalization (ou customization) des moteurs de recherche et réseaux sociaux, étroitement liée à l’émergence d’une publicité de plus en ciblée sur l’individu. Comme le dit Sheryl Sandberg, une des responsables de Facebook – en interprétant cette évolution comme un désir des consommateurs et des citoyens, ce qui est loin d’aller de soi – « people don’t want something targeted to the whole world – they want something that reflects what they want to see and know » (1496-1502).

Cette personalization s’est mise en place comme une réponse à ce que Steve Rubel a nommé l’attention crash (l’individu ne peut être attentif à l’ensemble de l’information proposée par le Web, il faut d’une manière ou d’une autre simplifier l’immense flot, de manière à ce qu’il puise fixer son attention). Les techniques utilisées pour construire le moi des internautes sont bien connues (dans leur principe, non dans le détail de leur fonctionnement, qui demeure très opaque) : « you are what you click » (Google) et « you are what you share » (Facebook). L’auteur montre que d’autres techniques, beaucoup plus subtiles, se profilent à l’horizon. Il va sans doute devenir possible de savoir à quel type d’argument un acheteur est sensible (certains cèdent immédiatement à une proposition de rabais immédiat, d’autres repoussent une telle proposition parce qu’ils sont sceptiques sur la qualité du produit, d’autres ont besoin de consulter des reviews avant d’acheter, etc.). Grâce à la construction d’un persuasion profiling de l’internaute, la publicité pourra alors éliminer les modes de persuasion qui répugnent à l’acheteur. Une autre technique, celle de l’analyse des sentiments est également en train de se mettre en place : l’analyse des mails et divers posts de l’individu permet de se faire une idée précise de ses sentiments et humeurs, en fonction des jours ou moments de la journée, et de cibler la publicité en conséquence (on sait que les internautes stressés sont plus enclins à l’achat compulsif, ou à soutenir un candidat émettant tel ou tel message, etc.). À la limite, l’objectif, comme le dit une responsable de Facebook, est de supprimer tout moteur de recherche : l’information viendra à vous directement, ce sera le « search without search ».

L’auteur montre de manière très convaincante que cette personalization transforme en profondeur ce que nous avons coutume de nommer l’expérience (notre perception apparemment naïve du monde). Considérons la réalité augmentée, c’est-à-dire la perception guidée par de multiples robots qui, grâce à la personnalisation, peuvent aider l’individu à voir et être informé de ce qui est important pour lui (via un smartphone ou d’autres appareils qui seront plus ou moins intégrés au corps) : « augmented reality filters offer the possibility of an annotated and hyperlinked reality, in which what we see is infused with information that allows us to work better, assimilate information more quickly, and make better decisions » (2877-82). Une telle perception ainsi augmentée « represents the end of naive empiricism, of the world as we see it » (2866-71) Notre expérience finit par devenir scientifique, avec cette contrepartie : « in exchange for convenience, you hand over some privacy and control to the machine » (2882-88), « because the transformations applied to your data are often opaque, it’s not always clear exactly what decisions are being made on your behalf, by whom, or to what end » (2380-94).

 

Les dernières lignes citées montrent clairement que l’auteur voit un danger dans cette personalization, qu’il qualifie de « return to a Ptolemaic universe in which  the sun and everything revolves around us » (213-19), ou encore d’équivalent psychologique de l’obésité : les moteurs de recherche et réseaux sociaux nous enferment non seulement dans notre identité mais dans l’identité qu’ils construisent de nous, puisque tout choix futur est guidé par cette identité et la renforce en retour. Apparemment, c’est l’identité qui construit le média, en réalité c’est le média qui construit l’identité (1681-87). La personalization marquerait la fin de la serendipity (d’une recherche qui est un mixte de méthode et de hasard, laissant place à la découverte imprévue), la fin aussi aussi du bridging capital (ce capital social qui nous ouvre à des réseaux différents). L’individu ne ferait plus sa propre vie (car il faut pour cela avoir des options très différentes, qui nous sortent de nous-mêmes). Contrairement à ce qu’affirmaient les évangélistes d’Internet, ce nouveau média pourrait donc, lui aussi, nous rendre plus passifs. La distinction entre pull technology (la TV traditionnelle) et push technology (Internet) ne serait plus pertinente (l’auteur analyse par exemple le système de YouTube appelé LeanBack, qui rapproche YouTube de la TV en proposant des vidéos enchaînées l’une à l’autre, avec une intervention minimale de l’internaute, redevenu spectateur) : « Steve Job’s proclamation that computers are for turning your brain on may have been a bit too optimistic » (954-60).

Face à ces descriptions (qui reprennent sur de nouvelles bases celles, déjà anciennes, de Carl. R. Sunstein), fines et présentées de manière vivante et convaincante, on se demande cependant par rapport à quelle perspective totale ou plus objective sur le Web la personalization pourrait constituer un danger. L’auteur affirme en effet que « personalized filters can interfere with our ability to properly understand the world » (1454-60). Que veut dire ici properly understand ? Il est clair que l’idée d’une perspective totale est un pur fantasme (celui du savoir absolu). Aussi bien l’auteur renvoie-t-il plutôt, par cette expression (properly undrestand), à la pratique des anciens médias, celle des journaux traditionnels : « to some degree, the paper is representative of the news of the day » (1460-65). Il y aurait beaucoup à dire sur ce point (les journaux traditionnels sont eux aussi des filtres, et souvent passablement paternalistes). L’expression renvoie également à l’utopie des créateurs du Web qui imaginaient, selon la formule de Tom Friedman, qu’Internet allait « to make us all next door neighbors »… La personalization signerait la mort de ce Web originel. Il semble bien qu’il y ait cependant là une nostalgie, qui repose en grande part sur une idéalisation du Web des origines (lequel était, rappelons-le, réservé à une étroite élite intellectuelle, homogène culturellement) : « In the early days of the World Wide Web… the online terrain felt like an unmapped continent, and the users considered themselves discoverers and explorers » (1415-20), alors que « Google is great at helping us find what we know we want, but not at finding what we don’t know we want » (1226-32 ; il est à remarquer qu’on pourrait tout aussi bien reprocher à Google de nous faire trouver, par la publicité, « what we don’t konw we want » !).

Certes, on accordera à l’auteur que « what is good for consumer is not necessarily good for citizens » (293-98). Mais Pariser a une forte tendance à supposer que les internautes ont des intérêts et besoins dont ils n’ont pas conscience. Le paternalisme affleure dans de nombreuses formules: « what I seem to like may not be what I actually want » (293-98 – il est amusant de retrouver cette idée platonicienne sous une plume contemporaine). L’élitisme perce également à chaque instant : « the creators of Internet envisioned something bigger and more important than a global system for sharing pictures of pets » (304-11). Ce qui était visé par les fondateurs d’Internet était plutôt « a kind of world wide metabrain » (ibid.), ce qui suppose un Internet sans publicité (on se souvient que tel était effectivement l’objectif des fondateurs de Google !).

 

S’agissant plus précisément du domaine de l’information, l’auteur fait apparaître clairement le lien entre la personalization et ce que l’on nomme en anglais (à la suite de Jon Pareles) la desintermediation : les editors professionnels humains sont remplacés peu à peu par « a mix of nonprofessional editors (our friends and colleagues) and software code to figure out what to watch, read and see. This code will drow heavily on the power of personalization » (725-30). Pariser mène une critique puissante, très convaincante, contre cette mythologie de la desintermediation, censée éroder tous les pouvoirs. Il rappelle que « the effect is to make the new mediators – the new gatekeepers – invisible » (comme l’a soutenu Tim Wu). Les nouveaux médias se nomment Craiglist (publicitaire en ligne), Amazon, Google, Facebook… Alors que nous critiquons sans cesse la presse traditionnelle, « we’ve given very little scrutinity to the interests behind the new curators » (850-56). Les descriptions fines que Pariser mène de ces new curators rejoignent celles de tous les observateurs contemporains des nouvelles formes de journalisme. Les nouveaux médias d’information sur Internet fonctionnent à peu près entièrement au traffic watching. Ce n’est pas une nouveauté dans le journalisme (la presse populaire, les tabloïds, utilisent depuis depuis longtemps le critère de l’audience) mais ce traffic watching repose désormais sur une puissante personalization et il tend à devenir l’unique mode de sélection des articles (qui doivent devenir instantanément « viraux » pour avoir une chance de survie).

Les conséquences d’une telle personalization des nouvelles sources d’information sur Internet sont importantes au niveau politique. L’auteur s’attache à dégager les effets de la personnalisation des messages durant les campagnes électorales :

1) D’abord la fragmentation de l’espace public (il devient impossible de répondre à tous les messages car personne ne les reçoit tous, même pas les dirigeants des campagnes électorales). Cette fragmentation rend impossible « a common conversation », elle-même condition de la formation d’un consensus. La personnalisation politique a le même résultat que la personnalisation publicitaire, elle enferme les individus dans une identité (les hommes politiques ou les partis deviennent l’équivalent d’une marque dans laquelle le citoyen met son identité, finement construite par la personalization) : « when people don’t have to worry about having their basic needs met, they care a lot more about having products and leaders that represent who they are » (2122-28). Les électeurs s’expriment en choisissant tel ou tel (l’auteur nomme cette tendance « postmaterial desire to maximize self-expression », 2173-78). Un tel fonctionnement de la politique a des conséquences importantes : de même qu’une marque peut s’adresser à des clientèles différentes, en adressant des messages différenciés, les hommes politiques, en ciblant ainsi les électeurs, se rendent de gouverner beaucoup plus difficile (on le voit avec B. Obama : quand vous représentez quelque chose de différent pour différents groupes ou individus, il est difficile ensuite de construire une politique faisant l’objet d’un consensus suffisant).

2) Un deuxième effet est celui de l’impossibilité de distinguer le vrai du faux. Il était possible, dans les médias traditionnels, de faire rectifier une erreur ou un mensonge : « it’s not great to have TV station owners be the sole arbitrators of truth… but it is better to have some bar for truthfulness than none at all » (2100-2106). C’est plus difficilement le cas, voire impossible, sur Internet.

La description que l’auteur fait des nouvelles sources d’information est fine et convaincante. Il n’en demeure pas moins qu’elle suscite des questions et objections quant à la signification que lui donne Eli Pariser :

1) L’auteur suppose que les citoyens ont tous également besoin d’être également informés et créatifs. Il est symptomatique qu’il invoque, lorsqu’il veut illustrer les effets néfastes de la personalization, les dangers d’une focalisation trop étroite sur nos intérêts et idées, cela dans le domaine de la recherche scientifique ! On pourrait lui objecter que tout le monde n’est pas chercheur, que les citoyens – et seulement certains d’entre eux – se pensent davantage comme des amateurs que comme des professionnels, lorsqu’ils réfléchissent aux problèmes politiques (je reprends cette distinction à l’excellent livre de Gerry Stokers, Why Politics Matter). Il y a un biais, chez l’auteur, en faveur de l’activité intellectuelle des citoyens, qui présuppose une certaine conception de la démocratie, conception qui est davantage un modèle théorique qu’un reflet de la réalité effective (en réalité les citoyens disposent d’une information limitée, ils agissent davantage à partir de sentiments que d’analyses intellectuelles, tous ne s’intéressent pas à la chose publique, etc.).

2) Il est clair que le livre tout entier repose sur un biais individualiste. L’auteur se lamente sur le fait que chacun n’a pas accès à toute l’information, que les conservateurs restent conservateurs, les libéraux restent libéraux… Mais la démocratie réelle fonctionne ainsi : la synthèse politique n’est possible, la plupart du temps sous forme de compromis, que sur la base d’une multiplicité de groupes idéologiquement homogènes. De ce point de vue, l’enfermement des individus dans une vision du monde, que renforce la personalization sur laquelle reposent les nouvelles sources d’informations sur Internet, pourrait ne pas avoir des conséquences aussi dramatiques que celles décrites par l’auteur. Il n’a de telles conséquences que par rapport à une conception idéale, et idéaliste, de la démocratie, qui est loin d’être la seule possible.

3) Enfin, tout se passe, dans ce livre, comme si l’unique source d’information des citoyens était le Web. Certes, les citoyens américains passent plus de temps sur Internet que les citoyens français. Mais l’auteur n’envisage à aucun moment le fait que les citoyens ont une information sur leur lieu de travail, dans la ville où ils vivent, dans les associations auxquels ils adhèrent, dans les établissements scolaires dans lesquels ils sont inscrits, etc. Il y a là comme une déformation professionnelle de l’auteur, qui le conduit à donner une importance démesurée aux sources d’information disponibles sur Internet.

 

L’ouvrage se termine par des considérations plus prospectives et politiques. L’auteur propose des mesures concrètes pour réformer Internet : « through a combination of individual action, corporate responsibility, and governmental regulation, it’s still possible to shift the course » (2945-52).

Pour ce qui des actions individuelles : éliminer les cookies, veiller à désactiver la personnalisation lorsque cela est possible, choisir les outils qui personnalisent le moins et sont moins opaques dans leur personnalisation (Twitter, et non Facebook), voire apprendre le langage de programmation (cette dernière mesure, particulièrement irréaliste, laisse rêveur), etc.

Pour les compagnies : les internautes doivent les aider à devenir plus transparentes et plus responsables, leur demander de recruter des ombudsmen, de laisser le droit aux citoyens de télécharger toutes les données qu’elles détiennent sur eux, de publier la manière dont elles les utilisent, etc. L’auteur envisage des procédures très complexes pour obliger les sites, moteurs et réseaux à rendre transparente la personnalisation, qui me semblent avoir très peu de chances de voir le jour (par exemple obliger la publicité en ligne à publier, pour chaque offre publicitaire qui nous parvient, les éléments de personnalisation sur laquelle elle s’appuie et donner à l’internaute la possibilité de modifier ces éléments !). Et là encore l’auteur préconise souvent des mesures qui peuvent paraître paternalistes : inciter les réseaux sociaux et moteurs de recherche à attirer l’attention des internautes « toward political engagement and citizenship » ou « stories… surpassingly important », les causes humanitaires par exemple (3148-53); ou encore mettre en place des « filtering systems to expose people to topics outside their normal experience » (3164-69). L’instrumentisation commerciale, fortement critiquée par l’auteur, semble céder la place, trop souvent dans ce livre, à l’instrumentalisation politique (au service de ce que l’auteur estime être le bien commun) ou éthique (les bonnes causes humanitaires) : « we need programmers who will build public life and citizenship into the worlds they create » (3180-85).

Au niveau des gouvernements, enfin : l’auteur envisage qu’ils peuvent faire pour contrer les effets négatifs de la personnalisation  (par exemple « requiring companies to give us real control over our personal information », 3203-8).

 

Mon impression finale est mitigée. La description que l’auteur fait de la personnalisation est fine et convaincante, construite souvent à partir d’interviews de dirigeants et programmeurs de la sphère Internet. L’auteur, qui a travaillé pendant longtemps dans ce milieu, sait de quoi il parle… Mais l’interprétation d’ensemble qu’il donne de la personalization, dans les différents domaines (commerce en ligne, information, politique…) est très fortement tributaire d’une conception de la démocratie qui, même si elle très fréquente dans la gauche libérale américaine, est loin d’être indiscutable et la seule possible. À aucun moment l’auteur ne prend de recul par rapport à cette conception rationaliste (au sens où tous les citoyens, dans une démocratie, devraient débattre et agir rationnellement, sur la base de l’information la plus complète et la plus objective possible) et élitiste (au sens où elle prétend généraliser à l’ensemble des citoyens une pratique qui est celle d’une étroite couche de la population). C’est par rapport à cette conception idéale de la démocratie que la personalization est, dans l’ouvrage, dénoncée comme un danger. C’est aussi par rapport à elle que sont avancées, à la fin de l’ouvrage, des propositions de réforme qui oscillent entre des mesures de bon sens (supprimons nos cookies), des réformes effectivement urgentes et essentielles (faire pression pour que les moteurs et réseaux n’enferment plus les internautes dans des default settings très difficiles à modifier, etc.), et d’autres mesures qui ont tendance à fuir vers l’utopie et, trop souvent, vers le paternalisme.

Il y a enfin, dans ce texte, une nostalgie, celle d’une supposée origine.  De même que les communistes ont fini par condamner le communisme réel au nom du communisme des origines, supposé pur, de même que certains libéraux en viennent à condamner le capitalisme des grandes entreprises au nom du libéralisme économique du XVIIIe, de même que certains chrétiens se réfèrent au christianisme des origines pour critiquer les églises officielles, de même il arrive de plus en plus fréquemment que s’élève, du côté des spécialistes d’Internet, une complainte nostalgique regrettant le bon vieux temps. Je ne suis pas certain que cela soit la meilleure voie pour analyser et interpréter les évolutions en cours (dont la personalization est effectivement une pièce essentielle) et pour lutter efficacement contre les effets, qui sont cependant loin d’être tous négatifs – ce que l’auteur reconnaît d’ailleurs volontiers – de ces évolutions.

6 août 2011

Sur « The Googlization of Everything » (Siva Vaidhyanathan)

The Googlization of Everything (And Why We Should Worry)

Siva Vaidhyanathan

(University of California Press, 2011, Amazon Kindle edition)


Plusieurs ouvrages récents sont consacrés à la customization (ou personalization) des moteurs de recherche (Google) et des réseaux sociaux (Facebook). Je publierai prochainement un compte rendu au livre d’Eli Pariser, The Filter Bubble, (The Penguin Press) et à d’autres, éventuellement.

Le livre de Vaidhyanathan se place d’emblée sous le signe d’une déception face à l’évolution d’Internet, qui se serait éloigné de l’utopie initiale pour devenir le lieu de « both anarchy and oligarchy ».

Il y a, dans cet ouvrage prolixe et répétitif, beaucoup d’informations et d’analyses que l’on peut retrouver un peu partout ailleurs, pas mal de lieux communs, des naïvetés (l’auteur semble s’étonner de ce qu’une recherche sur Google sur le mot God ne donne pas des résultats satisfaisants – mais qui aura jamais l’idée de faire une telle recherche ?), une tendance parfois paternaliste aussi, qui conduit l’auteur à avancer des arguments discutables (il objecte à la politique de privacy par défaut de Google que la grande masse des utilisateurs n’est pas capable de gérer activement les options proposées par le moteur de recherche : « merely setting up a menu with switches does not serve the interests of any but the most adept, engaged, and well informed », 1690-17 – ce qui est loin d’aller de soi : il se pourrait que les internautes qui ne modifient pas les options en question les trouvent utiles, ou sont totalement indifférents).

La perspective de l’auteur n’est cependant pas celle d’une hostilité systématique à Google. Il considère par exemple que Google est un filtre puissant qui fonctionne comme un nettoyeur du Net (et, dans ses relations avec les éditeurs d’images et de musique, souvent comme un garant du copyright, sur YouTube par exemple). En ce sens, il a fonction positive (même si l’auteur estime que Google, pour éviter les conflits liés à l’accusation de « contenus inappropriés », censure au-delà de ce que demande la loi américaine). Google a développé ces fonctions de régulation par opportunité, mais aussi par nécessité. Les tâches de régulation s’imposaient à une époque où elles ne pouvaient plus être effectuées au niveau national : l’auto-régulation par le marché était devenue aux USA une croyance incontestée et « the notion of gentle, creative state involvement to guide processes toward the public good was impossible to imagine, let alone propose » (807-15).

Cette ligne d’argumentation est celle de tout le reste de l’ouvrage. Toutes les fonctions assurées par Google sont, aux yeux de l’auteur, socialement nécessaires, mais elles sont biaisées par le fait que Google est devenu une entreprise commerciale et orientée vers le commerce. L’arrière-fond culturel des créateurs de Google était certes celui de l’éthique universitaire américaine, et l’entreprise en a gardé certaines caractérisistiques (« unstructured work time, horizontal management structures, multidirectional information and feedback flows, an altruistic sense of mission », 3474-81). La PageRank par consensus a son origine, on le sait, dans le critère universitaire du nombre de citations par article. Mais l’évolution de Google l’a éloigné de cette origine. Ni le fonctionnement du moteur de recherche (I) ni le projet de numérisation de la bibliothèque mondiale (II) ne sont inspirés par l’éthique initiale de Google.

(I) L’auteur décrit de manière assez précise le fonctionnement de Google comme filtre modelant nos modes de questionnement et nos listes de réponses. Il met en évidence ce qu’il estime être des biais (en faveur de la popularité par rapport à la pertinence,  en faveur des sites établis par rapport aux nouveaux sites, etc.) – mais sans jamais vraiment préciser comment un moteur de recherche alternatif pourrait fonctionner selon les critères retenus par l’auteur (comment mesurer la pertinence, au niveau de l’ensemble du Web, d’un site ?). C’est cependant, comme dans nombre de publications actuelles sur Google, la customization (ou personalization) qui retient surtout l’attention de l’auteur.

Cette personnalisation ouvre une époque nouvelle, qui nous éloigne du Panopticon décrit par Foucault. Il n’y a plus désormais d’instance centrale de surveillance.  Il serait plus pertinent de parler d’un Cryptoticon : « we don’t know all the ways we are being watched of profiled – we simply know that we are » (2135-42). Cette personnalisation, loin de ne nous empêcher d’être nous-mêmes, nous incite plutôt à nous individualiser (« express yourself »), à développer notre créativité, voire notre excentricité (de manière analogue, les caméras de Londres favorisent les conduites excentriques, comme l’ont établi certaines études sociologiques). Car la créativité et l’excentricité sont financièrement rentables (la publicité pouvant adresser des produits de niche aux individus ainsi mieux ciblés). Les protocoles de Google ou Facebook, à la différence de ce que faisait la Stasi, recherchent les individus à forte identité, subversifs, potentiellement dangereux. Ils incitent à choisir, à se choisir (cf. les « options » et « settings » des programmes). Mais les options sont en fait strictement prédéfinies et laissent de côté des alternatives peut-être plus importantes. Certes, l’individu dispose d’une certaine maîtrise sur ces options, mais seule une minorité les utilise: « Google’s great trick is to make everyone feel satisfied with the possibility of choice, without actually exercising it to change the system‘s default settings » (2157-63).

C’est essentiellement dans le domaine universitaire que l’auteur s’attache à montrer les dangers de la customization par Google (les résultats de la recherche sont filtrés par le profil du chercheur, ce qui pourrait conduire à un appauvrissement, à un repliement de chacun sur son domaine et ses propres idées). Il me semble cependant que l’auteur ne fait pas les distinctions qui s’imposent. La personnalisation peut être très efficace pour les recherches concernant les besoins de la vie quotidienne, mais la recherche universitaire ne se fait pas, et ne se fera pas pour l’essentiel, sur Google, même si ce jugement est à nuancer en fonction des niveaux et des disciplines (sur ce point, on lira les remarquables analyses que l’auteur consacre à Google Scholar, à son fonctionnement et à son importance dans certaines disciplines, ainsi que le chapitre « The Googlization of Research »). On peut douter de l’affirmation globale selon laquelle la customization « threatens republican value, such as openness to differing points of view and processes of deliberation » (3408-15). Certes, les techno-fondamentalistes ne manquent pas, et l’on trouvera toujours quelqu’un pour penser (Jeff Jarvis, par exemple) qu’Internet va remplacer l’Université (l’auteur fait d’ailleurs une excellente critique de cette rêverie) ou révolutionner la politique en rendant caduques les assemblées délibératives de la démocratie représentative…

II) Le chapitre de loin le plus précis et le plus intéressant de l’ouvrage est celui consacré à la numérisation des livres par Google. L’auteur en retrace clairement l’histoire compliquée. Là, comme ailleurs, il défend l’idée que l’origine du pouvoir que s’est arrogé Google est à chercher dans la démission des pouvoirs publics, à l’époque du néolibéralisme triomphant. Mais alors qu’ailleurs il ne propose que très peu de solutions concrètes alternatives, il plaide précisément, ici, en faveur d’une numérisation des livres par les bibliothèques elles-mêmes, en particulier les bibliothèques universitaires. Même si l’histoire semble déjà avoir tranché, les arguments avancés sont loin d’être inintéressants (en particulier son analyse du caractère inapproprié des protocoles de recherche de Google appliqué aux livres – l’internal text searching – et son plaidoyer en faveur d’autres types d’indexation, moins rudimentaires et plus fiables).

Il n’en demeure pas moins que le cœur de l’argumentation est inspiré par un sentiment de nostalgie et d’impuissance. Les promesses de l’Internet des pionniers (d’origine universitaire et non commerciale) auraient dû être relayées par l’État : « we missed an opportunity (…) we could have coordinated a grand global projet, funded by a group of concerned governments and facilitated by the best national librairies » (3741-48). Tout n’est pas encore perdu, cependant… Nous pouvons peut-être encore reconstruire un moteur de recherche et une bibliothèque mondiale, qui rendraient possible une « expanded public sphere »… Mais la conclusion de l’ouvrage, faute de pouvoir envisager une alternative crédible à l’action de Google, fuit vers l’utopie, de manière assez pathétique : l’auteur invite les lecteurs à collaborer à un Human Knowledge Project, défini de manière très vague (et même à construire le parti politique sans lequel ce projet n’aurait aucune chance de passer dans la réalité !).

Les analyses les plus stimulantes de l’ouvrage me paraissent finalement être celles où l’auteur illustre clairement l’idée selon laquelle les protocoles de Google, qui fonctionnent de manière quasi invisible pour la plupart des internautes, modèlent notre pensée et nos comportements. L’auteur considère en effet que l’impérialisme culturel n’est pas aujourd’hui une question de contenu, mais de protocoles : « if there is a dominant form of cultural imperialism, it concerns the pipelines and protocols of culture, not its products » (2075-84). Les protocoles ne sont certes pas toujours content-neutral. Mais en règle générale le contenu est relativement indifférent : « What flows from North to South does not matter as much as how it flows, how much revenue the flows generate, and who uses and reuses them » (2084-91).

L’emprise de Google sur nos pensées et nos comportements est à chercher à un autre niveau, celui du cadre, non celui du contenu : « Google defaults and ways of doing spread and structure ways of seeking, finding, exploring, buying and presenting that influence (though they do not control) habits of thought and action. These default settings, these nudges, are expressions of an ideology » (2084-91). Cette idéologie est clairement définie et assumée par Google. Sa valeur suprême est la « free expression » (c’est cette idéologie qui sous-tend, au-delà de Google, aussi bien la rétention, vente et publication des données privées, que des outils comme Google Street View, par exemple). L’auteur rappelle que cette valeur n’est pas acceptée facilement dans certains pays, même démocratiques (cf. les réactions, en France et en Allemagne, contre Google et l’accès qu’il permet aux sites antisémites). Google Street View, on le sait, suscite des réactions indignées en Allemagne ou au Japon, en raison des traditions culturelles de ces pays (au Japon les rues desservant les résidences sont considérées comme relevant de la vie privée et ne doivent donc pas être filmées). C’est pourquoi il existe une réaction démocratique contre Internet, que l’auteur perçoit fort bien : « The Internet censorship club is expanding and now includes a growing number of democracies. Legislator are under growing pressures from family groups to do something  in the face of all the threats sloshing around the Internet, and the risk of overstepping is high » (Rebecca MacKinnon, cité en 2505-11).

Il me semble cependant que l’auteur a tort de parler des « liberal values espoused by techno-fundamentalism and corporations such as Google », valeurs qui trouveraient des résistances dans certains pays démocratiques. Savoir ce que sont les valeurs libérales est certes un vaste sujet… Mais l’auteur semble ignorer que de nombreux juristes et philosophes, qui sont loin d’être des technophobes, dénoncent, aux États-Unis même, certains abus rendus possibles par les technologies nouvelles justement au nom des valeurs libérales, en particulier de la liberté (cf. S. Levmore et M.Nussbaum, The Offensive Internet, qui oppose à la conception de la libre expression qui inspire Google celle de la Constitution américaine, pour laquelle la liberté d’expression ne peut pas être absolue). L’idéologie de Google a certainement plus à voir avec les intérêts commerciaux et corporatistes (ceux des métiers de l’informatique) qu’avec les valeurs libérales.

On peut dire cela sans diaboliser Google et sans estimer, comme l’auteur, qu’il faut reconstruire ex nihilo les moteurs de la recherche ou une bibliothèque numérisée mondiale… Cette idée me semble la principale faiblesse de l’ouvrage, qui le condamne à la nostalgie (une idéalisation de l’Internet des pionniers), à l’impuissance et à l’utopie. On peut douter de la capacité des États à construire un moteur de recherche alternatif ou à numériser la bibliothèque mondiale (et l’auteur semble bien en douter aussi)… S’il en est ainsi, la seule voie possible me semble celle de la régulation, par des citoyens vigilants (Google et Facebook n’ignorent pas qu’ils sont eux aussi sous le regard des citoyens) et des États libéraux vigilants.

23 mai 2011

Sur « La vie privée en péril. Des citoyens sous contrôle » (Alex Türk)

Alex Türk : La vie privée en péril. Des citoyens sous contrôle. (O. Jacob, avril 2011)

Le livre que signe l’actuel président de la Commission Nationale de l’Informatique et des Libertés (par ailleurs enseignant en droit public et sénateur) est passionnant, à trois titres au moins : (1) en raison de la perspective théorique qui guide l’ensemble de l’ouvrage, celle de la défense des libertés constitutives de l’État de droit, (2) du fait de la synthèse remarquablement claire des atteintes à la vie privée en France qui constitue le cœur de l’ouvrage et, (3) des informations précieuses qu’il fournit au lecteur sur le fonctionnement de cette autorité indépendante qu’est la CNIL.

Je me contenterai de développer le point (1) en attirant l’attention, en ce qui concerne les points (2) et (3) sur quelques idées essentielles de l’ouvrage.

(1) La perspective théorique qui guide l’ouvrage est partout présente, et clairement explicitée dans la conclusion. L’auteur, qui renvoie dos à dos les technophobes et ceux qui voient dans toute régulation des techniques informatiques par l’État un acte liberticide, inscrit délibérément sa réflexion dans la défense du libéralisme politique. À l’instar de Tocqueville dans De la démocratie en Amérique, il met en garde contre le fait que « si l’on ne réagit pas, la période durant laquelle la vie privée du citoyen, son intimité, son identité auront été reconnues et préservées, n’aura été qu’une parenthèse ». Nous sommes donc à un moment critique, et plutôt étrange : « alors que, de nos jours encore, des populations luttent pour accéder à cette vision de l’État de droit, ne serait-il pas paradoxal que nos sociétés qui s’en étaient dotées reculent sous la pression des technologies du numérique ? » (262).

Axel Türk rejoint bien d’autres auteurs qui, parce qu’ils ne perdent jamais de vue les principes de l’État de droit (le respect de la vie privée), en viennent à questionner le développement des technologies informatiques, sans se laisser impressionner ni par le caractère apparemment inéluctable de ce développement (« You already have zero privacy. Get over it », comme l’a dit un jour un patron de Sun Microsystems) ni par les arguties visant à justifier les atteintes à la vie privée (la conscience que des « banqueroutes de réputation » sont désormais possibles devrait nous conduire à changer notre conception de l’identité – c’est-à-dire à changer d’identité lorsque nous avons perdu la maîtrise de nos données personnelles –, théorie qu’Axel Türk nomme « patrimonialisation de l’identité » et qu’il oppose à celle selon laquelle « l’identité est un droit fondamental attaché à la personne pour la durée de sa vie », 120). Il rejoint, sur ce point, entre autres, l’excellent ouvrage récent de Martha Nussbaum et Saul Levmore, The Offensive Internet (Harvard University Press, 2010) – preuve qu’il est quelque peu risqué, comme l’auteur a parfois tendance à le faire, de mettre tous les « universitaires américains » dans le même sac…

L’auteur rappelle, avec Baudelaire, que le droit de s’en aller (de préserver mon anonymat, ma solitude : mon droit à l’opacité) et le droit de se contredire (de changer, d’évoluer, de mûrir : mon droit à la transparence, c’est-à-dire à l’accès à tous les fichiers me concernant, de manière à ce que mon identité ne soit jamais figée) sont des droits fondamentaux dans une démocratie libérale. De tels droits doivent primer par rapport à tout développement des techniques de l’informatique. Exiger que Google, par exemple, respecte les trois principes du consentement, de la transparence et de l’oubli (159), ce n’est pas être technophobe, c’est rappeler un principe fondamental de l’État de droit : « la vie en communauté n’est possible – « tolérable » – que dans le respect mutuel de l’intimité », qui préserve les chances d’exercer nos libertés individuelles (123). Il s’ensuit que « nous n’avons pas à adapter le mode d’exercice du respect de notre vie privée et de notre identité au développement des technologies du numérique. Nous devons maîtriser celles-ci pour faire en sorte de préserver notre sphère de vie privée tout en l’enrichissant » (124).

(2) Ayant ainsi rappelé le primat du droit sur la technique, Axel Türk présente de manière remarquablement claire et synthétique, sur la base de l’expérience acquise à la tête de la CNIL, l’ensemble des menaces inhérentes au traçage, à la biométrie, à la géolocalisation, à la vidéosurveillance et à la traque numérique sur Internet.

Le lecteur, même celui qui estime être très bien informé en cette matière, découvrira l’ampleur de ces menaces, pour la plupart invisibles (et qui le seront davantage encore avec les nanotechnologies). Et il les découvrira, sur des cas très précis, traités par la CNIL, d’une très grande complexité (faut-il autoriser des cantines scolaires avec accès par reconnaissance du contour de la main ? faut-il installer un système de géolocalisation des nourrissons dans une maternité ? faut-il autoriser le vidéocomptage des passants du métro s’arrêtant devant un panneau publicitaire intelligent ? etc.). Il découvrira aussi l’ampleur des protestations contre ces menaces, en Europe comme aux États-Unis (par exemple aux pages 131 et suivantes, dans des paragraphes très informés sur Facebook et Google), émanant tant des citoyens que des instances indépendantes de régulation.

Mais l’intérêt de l’ouvrage est loin d’être seulement descriptif. L’auteur s’attache à réfuter avec vigueur les justifications des ces atteintes, par exemple le slogan « rien à cacher, rien à me reprocher » (dont A. Türk fait une très bonne critique, en montrant que de n informations apparemment innocentes on peut extraire une information n+1 que l’on ne souhaitait pas rendre publique, 129), ou d’autres idées du même type…

Parce l’auteur ne se départit jamais de son fil directeur (la défense des libertés), il ne tombe à aucun moment dans les jérémiades « humanistes » (le mot a souvent bon dos), c’est-à-dire technophobes. S’agissant des réseaux sociaux, par exemple, il se contente de rappeler que le rapport entre le fournisseur et le client relève du droit de la consommation, que le premier met un dispositif technologique au service du second, que le second met un certain nombre de données au service du premier et que chacun, dans ce contrat, a des droits et des devoirs (159). S’agissant des fichiers destinés à la lutte contre le terrorisme et la criminalité, de la vidéosurveillance, de la géolocalisation, l’auteur n’entend aucunement nier les réels services que ces techniques rendent et le fait qu’ils soient un vecteur de progrès social. Il demande simplement que nous devenions capables d’évaluer ces techniques, avec les moyens technologiques et juridiques nécessaires, au niveau national, européen et international, avant qu’il ne soit trop tard. Tout comme le pensait Tocqueville au début du XIXe siècle, Axel Türk, qui se méfie de l’idée d’une technique s’autorégulant (soit par des codes de bonne conduite, soit par des protocoles techniques), estime qu’il pourrait y avoir, si nous n’y prenons garde, des points de non-retour – exactement comme c’est le cas en matière d’écologie.

(3) Le lecteur pourra lire enfin, dans la dernière partie de l’ouvrage, un bilan précis de l’activité de la CNIL. Il découvrira comment la régulation fine des technologies de l’informatique, loin d’être paralysante, permet de trouver, non sans difficulté souvent, non sans échecs parfois, un point d’équilibre entre progrès technique et social et respect des libertés. A. Türk isole trois niveaux de cette régulation (celle de nature pédagogique – le livre contient de remarquables pages sur l’action pédagogique de la CNIL auprès des jeunes élèves – celle de nature technique et celle de nature juridique, au niveau du droit national, européen et international, et en particulier par la mise en place d’autorités de régulation indépendantes).

Concernant l’autorité que l’auteur connaît particulièrement bien, la CNIL, on lira le passionnant dernier chapitre, qui relate, de manière très vivante, les rapports complexes de l’autorité indépendante avec l’exécutif, le Parlement, la magistrature, le public, l’Union Européenne, les États-Unis… Un vrai régal, une leçon de droit et de politique à ciel ouvert. Un livre à mettre entre toutes les mains.

15 mai 2011

Sur « The Offensive Internet »

Filed under: Internet,Libertés,Vie privée — Auteur @ 12 h 59 min
Tags: , ,

(edited by Saul Levmore and Martha C. Nussbaum, Harvard University Press, 2010)

L’ouvrage édité par S. Levmore et M.C. Nussbaum, qui rassemble des contributions de juristes et philosophes, est l’un des premiers à se pencher sur un phénomène dont une dimension est visible et fait l’objet de débats (la divulgation des données privées par des entreprises comme Facebook ou Google), mais dont une autre dimension, pourtant tout aussi réelle, a moins retenu l’attention (les multiples et graves atteintes à la vie privée dont les citoyens eux-mêmes sont les auteurs). Par la diversité et la profondeur de ses analyses, l’ouvrage fera date. Il est remarquable tant au niveau descriptif qu’aux niveaux théorique et normatif.

Les auteurs s’attachent d’abord à mettre en évidence un ensemble de faits. Les nouveaux outils du Web 2.0 rendent possibles des atteintes à la vie privée qui sont à la fois qualitativement nouvelles et, quantitativement, sans commune mesure avec celles que nos sociétés ont connues jusqu’à une époque récente. Ces atteintes sont trop souvent passées sous silence, ou écartées d’un revers de main par les inventeurs et promoteurs de ces outils (on connaît la déclaration de Scott McNealy, de Sun Microsystems : « You already have zero privacy. Get over it »). L’intérêt de l’ouvrage, au niveau descriptif, est de montrer, d’une part, que de nombreux citoyens sont victimes des hate groups, du cyber bullying, plus généralement de la divulgation d’informations qui, exactes ou mensongères, leur nuisent gravement et, d’autre part, que les femmes et les membres des diverses minorités, tout particulièrement lorsqu’ils réussissent professionnellement, sont les cibles privilégiées de ces pratiques. Sans forcer le trait, les divers auteurs dressent, sobrement, un tableau souvent terrifiant du pouvoir que ces outils confèrent à ceux qui, pour des raisons commerciales, encouragent certaines violations de la vie privée (Facebook, Google, etc.) mais aussi et surtout – car cette dimension du phénomène est moins connue – qu’ils confèrent à tous ceux qui sont décidés à nuire à leurs concitoyens (campagnes visant à obtenir la fermeture de sites féministes, ou appartenant à des minorités, ou considérés comme progressistes ; harcèlement du type Google bombing visant à détruire la réputation de la victime et conduisant certaines femmes à quitter un cours, ou une université ou un poste, en raison d’appels au viol et au meurtre, avec publication des noms, coordonnées et photos des victimes, etc.).

Plusieurs des contributions montrent, contre le discours qui est encore dominant dans certains milieux proches d’Internet, que les citoyens, même lorsqu’il leur arrive de favoriser par leurs pratiques les violations qu’ils dénoncent, condamnent moralement l’idée d’une transparence complète, parce qu’ils estiment qu’un monde où la vie privée n’existerait plus est un monde moins souhaitable qu’un monde régulant la divulgation des données personnelles dans le but de protéger la liberté individuelle et le self-development : « privacy has persisted as a major social desire and goal » (29). Brian Leter, dans cette perspective, attire l’attention sur la différence  que les citoyens font entre les tortious harms (ceux susceptibles d’un recours en justice, pour diffamation ou harcèlement par exemple) et les dignitary harms (« that are real enough to those affected and recognized by ordinary standards of decency, though not generally actionable », 155), ces atteintes à la vie privée qui peuvent engendrer l’humiliation, la dépression, la perte de confiance en soi ou la peur, mais qui ne sont pas encore réprimées par le droit.

Certains auteurs décrivent finement la structure de ce sentiment d’être menacé par des pratiques plus répandues qu’on ne l’imagine. Daniel J. Solove montre par exemple que les citoyens, lorsqu’ils protestent contre les atteintes à leur vie privée, font clairement la distinction entre secrecy et accessibility : ils souhaitent, par exemple, partager des informations personnelles avec leurs amis sur Facebook mais ils refusent, comme en 2006, le News Feed avertissant automatiquement leurs amis de tout changement dans leur profil ; ou, comme en 2007, le Social Ads and Beacon, par lequel Facebook informait les amis de leurs achats sur tel ou tel site (c’est une chose que d’informer soi-même ses amis de tel ou tel achat ou de l’intérêt de tel site, c’en est une autre que de confier cette tâche à un robot de Facebook).

Les auteurs s’attachent, en second lieu, à expliquer les faits ainsi décrits et caractérisés. Un intérêt de l’ouvrage est la diversité des approches méthodologiques. Le phénomène est suffisamment complexe pour recevoir un éclairage psychologique et anthropologique (on lira les fines analyses de Martha C. Nussbaum, librement inspirées de Nietzsche, sur les mécanismes psychologiques de la misogynie haineuse encouragée par la relation anonyme et sans contact qui est encore possible sur Internet) ou un éclairage plus sociologique (l’article de Cass S. Sunstein reprend et approfondit ses analyses bien connues des différents types de rumeurs : informational cascades, reputational cascades et group polarization). Ces analyses sont précieuses en ce qu’elles mettent en évidence que, contrairement à ce que pensent naïvement les chantres des nouveaux outils informatiques, ces derniers n’ont pas seulement un effet libérateur sur les relations humaines. Comme toute innovation technique, ils ouvrent la possibilité de nouvelles relations qui sont loin d’être transparentes. Ni immédiatement visibles ni immédiatement compréhensibles, elles doivent être étudiées, plus que cela n’a été le cas jusqu’ici, par les spécialistes des sciences humaines et par les philosophes.

À un troisième niveau, normatif, l’ouvrage défriche de manière systématique les enjeux éthiques et juridiques du phénomène.

Les contributeurs attirent l’attention sur le retard de la réflexion éthique et du droit américain en matière de protection des données de la vie privée (l’enjeu commercial étant moindre, il n’y a pas encore d’équivalent, concernant la vie privée, de la législation protégeant le copyright). Ils mettent en particulier en évidence que le First Amendement de la Constitution (« Congress shall make no law abridging the freedom of speech ») est souvent interprété de manière contestable, de manière à empêcher toute régulation dans le domaine de la liberté de parole. Dans un article remarquable, John Deigh montre que la tradition libérale, de Mill à Scanlon ou Meiklejohn, a cherché à protéger la liberté d’expression de toute interférence du pouvoir politique, ceci parce qu’elle avait constamment en vue non pas le droit de celui qui s’exprime mais les droits de ceux bénéficiant de la libre expression. Lorsque l’État porte atteinte à la liberté de parole, il prive les citoyens d’informations ou d’arguments essentiels à l’exercice de la démocratie. Il s’ensuit que quand le contenu exprimé est, sans contestation possible, malveillant, c’est-à-dire va à l’encontre des intérêts des citoyens, le cas ne tombe plus sous la protection du First Amendment. Le législateur peut alors être autorisé à réguler, avec prudence, la libre expression (il ne s’agit pas, par exemple, d’interdire toute parole purement émotive, même violente et injurieuse, car celle-ci peut avoir, comme le fait remarquer Meiklejohn, une valeur politique, ce qui n’est pas le cas des vociférations racistes ou homophobes des supporters d’une équipe de football, ni d’un blog visant à détruire une jeune juriste, pour la seule raison qu’elle est femme, noire, belle et intelligente, et qu’elle a réussi sa vie professionnelle et privée).

Plusieurs auteurs n’hésitent pas à aller contre le courant dominant, qui enterre souvent le droit à la vie privée au nom d’un prétendu changement des mentalités et d’une plus grande tolérance de la société à l’égard de la libre expression. A. Chander pense au contraire que « new technologies make the public disclosure tort more necessary than even before » (125). Même si, en ce domaine, il faut éviter de sur-réagir. Ils rappellent que le droit à la protection de la vie privée doit être équilibré par le droit à la publication de tout ce qui est newsworthy, c’est-à-dire a une importance pour le débat démocratique public et la découverte de la vérité – ce qui  n’est pas le cas dans la plupart des violations de la vie privée dont l’ouvrage fait état.

Il est à remarquer que parmi les diverses réformes envisagées par les auteurs nombreuses sont celles qui se situent en amont du recours au système judiciaire (lourd et cher, on le sait, aux États-Unis).

Signalons seulement, pour ce qui concerne les atteintes à la vie privée qui sont le fait d’individus haineux, les notice and take-down procedures, sur le modèle de celles utilisées dans la lutte contre le piratage, avec leurs avantages (elles permettent souvent d’éviter un recours juridique) et leurs inconvénients (le chilling effect pouvant paralyser l’expression publique, ou encore les notifications intentionnellement fausses, etc.). D’autres contributions construisent des plaidoyers convaincants en faveur de la non-anonimity, qui permettrait d’éliminer des sites spécialisés dans la diffamation anonyme (JuicyCampus, AutoAdmit, etc.), même si l’application concrète d’une telle mesure soulève de nombreux problèmes. Pour ce qui concerne les atteintes à la vie privée qui sont le fait d’entreprises en situation de quasi-monopole naturel (Google, Facebook) des mesures visant à garantir l’existence de moteurs de recherche concurrents sont sans doute un des moyens les plus efficaces de faire respecter la vie privée – surtout si elles sont accompagnées de mesures rendant contraignantes la reviewability et la revisability, c’est-à-dire le droit du citoyen à faire supprimer ou corriger les informations malveillantes le concernant, ou à faire insérer une réponse.

Même si la régulation d’Internet est une tâche autant culturelle que légale, les contributeurs appellent par ailleurs à une réforme de la législation existante en vue d’une « new and more nuanced conception of public and private life » (23). Pour ne retenir qu’une des réformes proposées : une loi relative à l’utilisation, par les entreprises, cabinets de recrutement, sociétés d’assurance, etc., des données disponibles sur Google, est une tâche urgente aux États-Unis et ailleurs (un demandeur d’emploi devrait avoir le droit de consulter l’ensemble des données qui ont été prises en compte lors de l’examen de son dossier de candidature).

L’intérêt de l’ouvrage réside, on le voit, dans la multiplicité des propositions de réforme qu’il avance, sans jamais passer sous silence les objections que celles-ci peuvent susciter (en particulier celle selon laquelle des institutions comme Facebook ou Google pourraient être des self-adjusting systems : la constatation du caractère peu fiable des innombrables révélations sur la vie privée pourrait amener le public à les neutraliser, voire, comme l’envisage Geoffrey R. Stone à titre d’hypothèse, à considérer les erreurs des autres, lorsqu’elles sont avérées, dans un contexte plus large et dans l’histoire d’un individu ; les atteintes à la vie privée pourraient ainsi déboucher, paradoxalement, sur une meilleure compréhension des actions humaines et un degré plus élevé de tolérance).

Entre l’élitisme réactionnaire (qui dénonce et méprise ces outils nouveaux sans parvenir à corriger les conséquences de leur utilisation) et la démagogie utopique (qui absolutise la libre expression, comme d’autres absolutisent le libre marché, sans la moindre considération pour ceux qui sont victimes de l’anarchie actuelle), l’ouvrage a l’immense mérite d’argumenter en faveur d’une régulation intelligente d’Internet, au service de la liberté individuelle et de la démocratie.

Propulsé par WordPress.com.