LE FIL DES PAGES

11 août 2011

Sur « The Filter Bubble » d’Eli Pariser (2011)

Eli  Pariser : The Filter Bubble : What the Internet is Hiding from You (The Penguin Press, Kindle Edition, 2011)

 

Eli Pariser, ex-directeur de Move.On Org, consacre cet ouvrage à ce qu’il estime être un fait fondamental dans la récente évolution d’Internet : la personalization (ou customization) des moteurs de recherche et réseaux sociaux, étroitement liée à l’émergence d’une publicité de plus en ciblée sur l’individu. Comme le dit Sheryl Sandberg, une des responsables de Facebook – en interprétant cette évolution comme un désir des consommateurs et des citoyens, ce qui est loin d’aller de soi – « people don’t want something targeted to the whole world – they want something that reflects what they want to see and know » (1496-1502).

Cette personalization s’est mise en place comme une réponse à ce que Steve Rubel a nommé l’attention crash (l’individu ne peut être attentif à l’ensemble de l’information proposée par le Web, il faut d’une manière ou d’une autre simplifier l’immense flot, de manière à ce qu’il puise fixer son attention). Les techniques utilisées pour construire le moi des internautes sont bien connues (dans leur principe, non dans le détail de leur fonctionnement, qui demeure très opaque) : « you are what you click » (Google) et « you are what you share » (Facebook). L’auteur montre que d’autres techniques, beaucoup plus subtiles, se profilent à l’horizon. Il va sans doute devenir possible de savoir à quel type d’argument un acheteur est sensible (certains cèdent immédiatement à une proposition de rabais immédiat, d’autres repoussent une telle proposition parce qu’ils sont sceptiques sur la qualité du produit, d’autres ont besoin de consulter des reviews avant d’acheter, etc.). Grâce à la construction d’un persuasion profiling de l’internaute, la publicité pourra alors éliminer les modes de persuasion qui répugnent à l’acheteur. Une autre technique, celle de l’analyse des sentiments est également en train de se mettre en place : l’analyse des mails et divers posts de l’individu permet de se faire une idée précise de ses sentiments et humeurs, en fonction des jours ou moments de la journée, et de cibler la publicité en conséquence (on sait que les internautes stressés sont plus enclins à l’achat compulsif, ou à soutenir un candidat émettant tel ou tel message, etc.). À la limite, l’objectif, comme le dit une responsable de Facebook, est de supprimer tout moteur de recherche : l’information viendra à vous directement, ce sera le « search without search ».

L’auteur montre de manière très convaincante que cette personalization transforme en profondeur ce que nous avons coutume de nommer l’expérience (notre perception apparemment naïve du monde). Considérons la réalité augmentée, c’est-à-dire la perception guidée par de multiples robots qui, grâce à la personnalisation, peuvent aider l’individu à voir et être informé de ce qui est important pour lui (via un smartphone ou d’autres appareils qui seront plus ou moins intégrés au corps) : « augmented reality filters offer the possibility of an annotated and hyperlinked reality, in which what we see is infused with information that allows us to work better, assimilate information more quickly, and make better decisions » (2877-82). Une telle perception ainsi augmentée « represents the end of naive empiricism, of the world as we see it » (2866-71) Notre expérience finit par devenir scientifique, avec cette contrepartie : « in exchange for convenience, you hand over some privacy and control to the machine » (2882-88), « because the transformations applied to your data are often opaque, it’s not always clear exactly what decisions are being made on your behalf, by whom, or to what end » (2380-94).

 

Les dernières lignes citées montrent clairement que l’auteur voit un danger dans cette personalization, qu’il qualifie de « return to a Ptolemaic universe in which  the sun and everything revolves around us » (213-19), ou encore d’équivalent psychologique de l’obésité : les moteurs de recherche et réseaux sociaux nous enferment non seulement dans notre identité mais dans l’identité qu’ils construisent de nous, puisque tout choix futur est guidé par cette identité et la renforce en retour. Apparemment, c’est l’identité qui construit le média, en réalité c’est le média qui construit l’identité (1681-87). La personalization marquerait la fin de la serendipity (d’une recherche qui est un mixte de méthode et de hasard, laissant place à la découverte imprévue), la fin aussi aussi du bridging capital (ce capital social qui nous ouvre à des réseaux différents). L’individu ne ferait plus sa propre vie (car il faut pour cela avoir des options très différentes, qui nous sortent de nous-mêmes). Contrairement à ce qu’affirmaient les évangélistes d’Internet, ce nouveau média pourrait donc, lui aussi, nous rendre plus passifs. La distinction entre pull technology (la TV traditionnelle) et push technology (Internet) ne serait plus pertinente (l’auteur analyse par exemple le système de YouTube appelé LeanBack, qui rapproche YouTube de la TV en proposant des vidéos enchaînées l’une à l’autre, avec une intervention minimale de l’internaute, redevenu spectateur) : « Steve Job’s proclamation that computers are for turning your brain on may have been a bit too optimistic » (954-60).

Face à ces descriptions (qui reprennent sur de nouvelles bases celles, déjà anciennes, de Carl. R. Sunstein), fines et présentées de manière vivante et convaincante, on se demande cependant par rapport à quelle perspective totale ou plus objective sur le Web la personalization pourrait constituer un danger. L’auteur affirme en effet que « personalized filters can interfere with our ability to properly understand the world » (1454-60). Que veut dire ici properly understand ? Il est clair que l’idée d’une perspective totale est un pur fantasme (celui du savoir absolu). Aussi bien l’auteur renvoie-t-il plutôt, par cette expression (properly undrestand), à la pratique des anciens médias, celle des journaux traditionnels : « to some degree, the paper is representative of the news of the day » (1460-65). Il y aurait beaucoup à dire sur ce point (les journaux traditionnels sont eux aussi des filtres, et souvent passablement paternalistes). L’expression renvoie également à l’utopie des créateurs du Web qui imaginaient, selon la formule de Tom Friedman, qu’Internet allait « to make us all next door neighbors »… La personalization signerait la mort de ce Web originel. Il semble bien qu’il y ait cependant là une nostalgie, qui repose en grande part sur une idéalisation du Web des origines (lequel était, rappelons-le, réservé à une étroite élite intellectuelle, homogène culturellement) : « In the early days of the World Wide Web… the online terrain felt like an unmapped continent, and the users considered themselves discoverers and explorers » (1415-20), alors que « Google is great at helping us find what we know we want, but not at finding what we don’t know we want » (1226-32 ; il est à remarquer qu’on pourrait tout aussi bien reprocher à Google de nous faire trouver, par la publicité, « what we don’t konw we want » !).

Certes, on accordera à l’auteur que « what is good for consumer is not necessarily good for citizens » (293-98). Mais Pariser a une forte tendance à supposer que les internautes ont des intérêts et besoins dont ils n’ont pas conscience. Le paternalisme affleure dans de nombreuses formules: « what I seem to like may not be what I actually want » (293-98 – il est amusant de retrouver cette idée platonicienne sous une plume contemporaine). L’élitisme perce également à chaque instant : « the creators of Internet envisioned something bigger and more important than a global system for sharing pictures of pets » (304-11). Ce qui était visé par les fondateurs d’Internet était plutôt « a kind of world wide metabrain » (ibid.), ce qui suppose un Internet sans publicité (on se souvient que tel était effectivement l’objectif des fondateurs de Google !).

 

S’agissant plus précisément du domaine de l’information, l’auteur fait apparaître clairement le lien entre la personalization et ce que l’on nomme en anglais (à la suite de Jon Pareles) la desintermediation : les editors professionnels humains sont remplacés peu à peu par « a mix of nonprofessional editors (our friends and colleagues) and software code to figure out what to watch, read and see. This code will drow heavily on the power of personalization » (725-30). Pariser mène une critique puissante, très convaincante, contre cette mythologie de la desintermediation, censée éroder tous les pouvoirs. Il rappelle que « the effect is to make the new mediators – the new gatekeepers – invisible » (comme l’a soutenu Tim Wu). Les nouveaux médias se nomment Craiglist (publicitaire en ligne), Amazon, Google, Facebook… Alors que nous critiquons sans cesse la presse traditionnelle, « we’ve given very little scrutinity to the interests behind the new curators » (850-56). Les descriptions fines que Pariser mène de ces new curators rejoignent celles de tous les observateurs contemporains des nouvelles formes de journalisme. Les nouveaux médias d’information sur Internet fonctionnent à peu près entièrement au traffic watching. Ce n’est pas une nouveauté dans le journalisme (la presse populaire, les tabloïds, utilisent depuis depuis longtemps le critère de l’audience) mais ce traffic watching repose désormais sur une puissante personalization et il tend à devenir l’unique mode de sélection des articles (qui doivent devenir instantanément « viraux » pour avoir une chance de survie).

Les conséquences d’une telle personalization des nouvelles sources d’information sur Internet sont importantes au niveau politique. L’auteur s’attache à dégager les effets de la personnalisation des messages durant les campagnes électorales :

1) D’abord la fragmentation de l’espace public (il devient impossible de répondre à tous les messages car personne ne les reçoit tous, même pas les dirigeants des campagnes électorales). Cette fragmentation rend impossible « a common conversation », elle-même condition de la formation d’un consensus. La personnalisation politique a le même résultat que la personnalisation publicitaire, elle enferme les individus dans une identité (les hommes politiques ou les partis deviennent l’équivalent d’une marque dans laquelle le citoyen met son identité, finement construite par la personalization) : « when people don’t have to worry about having their basic needs met, they care a lot more about having products and leaders that represent who they are » (2122-28). Les électeurs s’expriment en choisissant tel ou tel (l’auteur nomme cette tendance « postmaterial desire to maximize self-expression », 2173-78). Un tel fonctionnement de la politique a des conséquences importantes : de même qu’une marque peut s’adresser à des clientèles différentes, en adressant des messages différenciés, les hommes politiques, en ciblant ainsi les électeurs, se rendent de gouverner beaucoup plus difficile (on le voit avec B. Obama : quand vous représentez quelque chose de différent pour différents groupes ou individus, il est difficile ensuite de construire une politique faisant l’objet d’un consensus suffisant).

2) Un deuxième effet est celui de l’impossibilité de distinguer le vrai du faux. Il était possible, dans les médias traditionnels, de faire rectifier une erreur ou un mensonge : « it’s not great to have TV station owners be the sole arbitrators of truth… but it is better to have some bar for truthfulness than none at all » (2100-2106). C’est plus difficilement le cas, voire impossible, sur Internet.

La description que l’auteur fait des nouvelles sources d’information est fine et convaincante. Il n’en demeure pas moins qu’elle suscite des questions et objections quant à la signification que lui donne Eli Pariser :

1) L’auteur suppose que les citoyens ont tous également besoin d’être également informés et créatifs. Il est symptomatique qu’il invoque, lorsqu’il veut illustrer les effets néfastes de la personalization, les dangers d’une focalisation trop étroite sur nos intérêts et idées, cela dans le domaine de la recherche scientifique ! On pourrait lui objecter que tout le monde n’est pas chercheur, que les citoyens – et seulement certains d’entre eux – se pensent davantage comme des amateurs que comme des professionnels, lorsqu’ils réfléchissent aux problèmes politiques (je reprends cette distinction à l’excellent livre de Gerry Stokers, Why Politics Matter). Il y a un biais, chez l’auteur, en faveur de l’activité intellectuelle des citoyens, qui présuppose une certaine conception de la démocratie, conception qui est davantage un modèle théorique qu’un reflet de la réalité effective (en réalité les citoyens disposent d’une information limitée, ils agissent davantage à partir de sentiments que d’analyses intellectuelles, tous ne s’intéressent pas à la chose publique, etc.).

2) Il est clair que le livre tout entier repose sur un biais individualiste. L’auteur se lamente sur le fait que chacun n’a pas accès à toute l’information, que les conservateurs restent conservateurs, les libéraux restent libéraux… Mais la démocratie réelle fonctionne ainsi : la synthèse politique n’est possible, la plupart du temps sous forme de compromis, que sur la base d’une multiplicité de groupes idéologiquement homogènes. De ce point de vue, l’enfermement des individus dans une vision du monde, que renforce la personalization sur laquelle reposent les nouvelles sources d’informations sur Internet, pourrait ne pas avoir des conséquences aussi dramatiques que celles décrites par l’auteur. Il n’a de telles conséquences que par rapport à une conception idéale, et idéaliste, de la démocratie, qui est loin d’être la seule possible.

3) Enfin, tout se passe, dans ce livre, comme si l’unique source d’information des citoyens était le Web. Certes, les citoyens américains passent plus de temps sur Internet que les citoyens français. Mais l’auteur n’envisage à aucun moment le fait que les citoyens ont une information sur leur lieu de travail, dans la ville où ils vivent, dans les associations auxquels ils adhèrent, dans les établissements scolaires dans lesquels ils sont inscrits, etc. Il y a là comme une déformation professionnelle de l’auteur, qui le conduit à donner une importance démesurée aux sources d’information disponibles sur Internet.

 

L’ouvrage se termine par des considérations plus prospectives et politiques. L’auteur propose des mesures concrètes pour réformer Internet : « through a combination of individual action, corporate responsibility, and governmental regulation, it’s still possible to shift the course » (2945-52).

Pour ce qui des actions individuelles : éliminer les cookies, veiller à désactiver la personnalisation lorsque cela est possible, choisir les outils qui personnalisent le moins et sont moins opaques dans leur personnalisation (Twitter, et non Facebook), voire apprendre le langage de programmation (cette dernière mesure, particulièrement irréaliste, laisse rêveur), etc.

Pour les compagnies : les internautes doivent les aider à devenir plus transparentes et plus responsables, leur demander de recruter des ombudsmen, de laisser le droit aux citoyens de télécharger toutes les données qu’elles détiennent sur eux, de publier la manière dont elles les utilisent, etc. L’auteur envisage des procédures très complexes pour obliger les sites, moteurs et réseaux à rendre transparente la personnalisation, qui me semblent avoir très peu de chances de voir le jour (par exemple obliger la publicité en ligne à publier, pour chaque offre publicitaire qui nous parvient, les éléments de personnalisation sur laquelle elle s’appuie et donner à l’internaute la possibilité de modifier ces éléments !). Et là encore l’auteur préconise souvent des mesures qui peuvent paraître paternalistes : inciter les réseaux sociaux et moteurs de recherche à attirer l’attention des internautes « toward political engagement and citizenship » ou « stories… surpassingly important », les causes humanitaires par exemple (3148-53); ou encore mettre en place des « filtering systems to expose people to topics outside their normal experience » (3164-69). L’instrumentisation commerciale, fortement critiquée par l’auteur, semble céder la place, trop souvent dans ce livre, à l’instrumentalisation politique (au service de ce que l’auteur estime être le bien commun) ou éthique (les bonnes causes humanitaires) : « we need programmers who will build public life and citizenship into the worlds they create » (3180-85).

Au niveau des gouvernements, enfin : l’auteur envisage qu’ils peuvent faire pour contrer les effets négatifs de la personnalisation  (par exemple « requiring companies to give us real control over our personal information », 3203-8).

 

Mon impression finale est mitigée. La description que l’auteur fait de la personnalisation est fine et convaincante, construite souvent à partir d’interviews de dirigeants et programmeurs de la sphère Internet. L’auteur, qui a travaillé pendant longtemps dans ce milieu, sait de quoi il parle… Mais l’interprétation d’ensemble qu’il donne de la personalization, dans les différents domaines (commerce en ligne, information, politique…) est très fortement tributaire d’une conception de la démocratie qui, même si elle très fréquente dans la gauche libérale américaine, est loin d’être indiscutable et la seule possible. À aucun moment l’auteur ne prend de recul par rapport à cette conception rationaliste (au sens où tous les citoyens, dans une démocratie, devraient débattre et agir rationnellement, sur la base de l’information la plus complète et la plus objective possible) et élitiste (au sens où elle prétend généraliser à l’ensemble des citoyens une pratique qui est celle d’une étroite couche de la population). C’est par rapport à cette conception idéale de la démocratie que la personalization est, dans l’ouvrage, dénoncée comme un danger. C’est aussi par rapport à elle que sont avancées, à la fin de l’ouvrage, des propositions de réforme qui oscillent entre des mesures de bon sens (supprimons nos cookies), des réformes effectivement urgentes et essentielles (faire pression pour que les moteurs et réseaux n’enferment plus les internautes dans des default settings très difficiles à modifier, etc.), et d’autres mesures qui ont tendance à fuir vers l’utopie et, trop souvent, vers le paternalisme.

Il y a enfin, dans ce texte, une nostalgie, celle d’une supposée origine.  De même que les communistes ont fini par condamner le communisme réel au nom du communisme des origines, supposé pur, de même que certains libéraux en viennent à condamner le capitalisme des grandes entreprises au nom du libéralisme économique du XVIIIe, de même que certains chrétiens se réfèrent au christianisme des origines pour critiquer les églises officielles, de même il arrive de plus en plus fréquemment que s’élève, du côté des spécialistes d’Internet, une complainte nostalgique regrettant le bon vieux temps. Je ne suis pas certain que cela soit la meilleure voie pour analyser et interpréter les évolutions en cours (dont la personalization est effectivement une pièce essentielle) et pour lutter efficacement contre les effets, qui sont cependant loin d’être tous négatifs – ce que l’auteur reconnaît d’ailleurs volontiers – de ces évolutions.

6 août 2011

Sur « The Googlization of Everything » (Siva Vaidhyanathan)

The Googlization of Everything (And Why We Should Worry)

Siva Vaidhyanathan

(University of California Press, 2011, Amazon Kindle edition)


Plusieurs ouvrages récents sont consacrés à la customization (ou personalization) des moteurs de recherche (Google) et des réseaux sociaux (Facebook). Je publierai prochainement un compte rendu au livre d’Eli Pariser, The Filter Bubble, (The Penguin Press) et à d’autres, éventuellement.

Le livre de Vaidhyanathan se place d’emblée sous le signe d’une déception face à l’évolution d’Internet, qui se serait éloigné de l’utopie initiale pour devenir le lieu de « both anarchy and oligarchy ».

Il y a, dans cet ouvrage prolixe et répétitif, beaucoup d’informations et d’analyses que l’on peut retrouver un peu partout ailleurs, pas mal de lieux communs, des naïvetés (l’auteur semble s’étonner de ce qu’une recherche sur Google sur le mot God ne donne pas des résultats satisfaisants – mais qui aura jamais l’idée de faire une telle recherche ?), une tendance parfois paternaliste aussi, qui conduit l’auteur à avancer des arguments discutables (il objecte à la politique de privacy par défaut de Google que la grande masse des utilisateurs n’est pas capable de gérer activement les options proposées par le moteur de recherche : « merely setting up a menu with switches does not serve the interests of any but the most adept, engaged, and well informed », 1690-17 – ce qui est loin d’aller de soi : il se pourrait que les internautes qui ne modifient pas les options en question les trouvent utiles, ou sont totalement indifférents).

La perspective de l’auteur n’est cependant pas celle d’une hostilité systématique à Google. Il considère par exemple que Google est un filtre puissant qui fonctionne comme un nettoyeur du Net (et, dans ses relations avec les éditeurs d’images et de musique, souvent comme un garant du copyright, sur YouTube par exemple). En ce sens, il a fonction positive (même si l’auteur estime que Google, pour éviter les conflits liés à l’accusation de « contenus inappropriés », censure au-delà de ce que demande la loi américaine). Google a développé ces fonctions de régulation par opportunité, mais aussi par nécessité. Les tâches de régulation s’imposaient à une époque où elles ne pouvaient plus être effectuées au niveau national : l’auto-régulation par le marché était devenue aux USA une croyance incontestée et « the notion of gentle, creative state involvement to guide processes toward the public good was impossible to imagine, let alone propose » (807-15).

Cette ligne d’argumentation est celle de tout le reste de l’ouvrage. Toutes les fonctions assurées par Google sont, aux yeux de l’auteur, socialement nécessaires, mais elles sont biaisées par le fait que Google est devenu une entreprise commerciale et orientée vers le commerce. L’arrière-fond culturel des créateurs de Google était certes celui de l’éthique universitaire américaine, et l’entreprise en a gardé certaines caractérisistiques (« unstructured work time, horizontal management structures, multidirectional information and feedback flows, an altruistic sense of mission », 3474-81). La PageRank par consensus a son origine, on le sait, dans le critère universitaire du nombre de citations par article. Mais l’évolution de Google l’a éloigné de cette origine. Ni le fonctionnement du moteur de recherche (I) ni le projet de numérisation de la bibliothèque mondiale (II) ne sont inspirés par l’éthique initiale de Google.

(I) L’auteur décrit de manière assez précise le fonctionnement de Google comme filtre modelant nos modes de questionnement et nos listes de réponses. Il met en évidence ce qu’il estime être des biais (en faveur de la popularité par rapport à la pertinence,  en faveur des sites établis par rapport aux nouveaux sites, etc.) – mais sans jamais vraiment préciser comment un moteur de recherche alternatif pourrait fonctionner selon les critères retenus par l’auteur (comment mesurer la pertinence, au niveau de l’ensemble du Web, d’un site ?). C’est cependant, comme dans nombre de publications actuelles sur Google, la customization (ou personalization) qui retient surtout l’attention de l’auteur.

Cette personnalisation ouvre une époque nouvelle, qui nous éloigne du Panopticon décrit par Foucault. Il n’y a plus désormais d’instance centrale de surveillance.  Il serait plus pertinent de parler d’un Cryptoticon : « we don’t know all the ways we are being watched of profiled – we simply know that we are » (2135-42). Cette personnalisation, loin de ne nous empêcher d’être nous-mêmes, nous incite plutôt à nous individualiser (« express yourself »), à développer notre créativité, voire notre excentricité (de manière analogue, les caméras de Londres favorisent les conduites excentriques, comme l’ont établi certaines études sociologiques). Car la créativité et l’excentricité sont financièrement rentables (la publicité pouvant adresser des produits de niche aux individus ainsi mieux ciblés). Les protocoles de Google ou Facebook, à la différence de ce que faisait la Stasi, recherchent les individus à forte identité, subversifs, potentiellement dangereux. Ils incitent à choisir, à se choisir (cf. les « options » et « settings » des programmes). Mais les options sont en fait strictement prédéfinies et laissent de côté des alternatives peut-être plus importantes. Certes, l’individu dispose d’une certaine maîtrise sur ces options, mais seule une minorité les utilise: « Google’s great trick is to make everyone feel satisfied with the possibility of choice, without actually exercising it to change the system‘s default settings » (2157-63).

C’est essentiellement dans le domaine universitaire que l’auteur s’attache à montrer les dangers de la customization par Google (les résultats de la recherche sont filtrés par le profil du chercheur, ce qui pourrait conduire à un appauvrissement, à un repliement de chacun sur son domaine et ses propres idées). Il me semble cependant que l’auteur ne fait pas les distinctions qui s’imposent. La personnalisation peut être très efficace pour les recherches concernant les besoins de la vie quotidienne, mais la recherche universitaire ne se fait pas, et ne se fera pas pour l’essentiel, sur Google, même si ce jugement est à nuancer en fonction des niveaux et des disciplines (sur ce point, on lira les remarquables analyses que l’auteur consacre à Google Scholar, à son fonctionnement et à son importance dans certaines disciplines, ainsi que le chapitre « The Googlization of Research »). On peut douter de l’affirmation globale selon laquelle la customization « threatens republican value, such as openness to differing points of view and processes of deliberation » (3408-15). Certes, les techno-fondamentalistes ne manquent pas, et l’on trouvera toujours quelqu’un pour penser (Jeff Jarvis, par exemple) qu’Internet va remplacer l’Université (l’auteur fait d’ailleurs une excellente critique de cette rêverie) ou révolutionner la politique en rendant caduques les assemblées délibératives de la démocratie représentative…

II) Le chapitre de loin le plus précis et le plus intéressant de l’ouvrage est celui consacré à la numérisation des livres par Google. L’auteur en retrace clairement l’histoire compliquée. Là, comme ailleurs, il défend l’idée que l’origine du pouvoir que s’est arrogé Google est à chercher dans la démission des pouvoirs publics, à l’époque du néolibéralisme triomphant. Mais alors qu’ailleurs il ne propose que très peu de solutions concrètes alternatives, il plaide précisément, ici, en faveur d’une numérisation des livres par les bibliothèques elles-mêmes, en particulier les bibliothèques universitaires. Même si l’histoire semble déjà avoir tranché, les arguments avancés sont loin d’être inintéressants (en particulier son analyse du caractère inapproprié des protocoles de recherche de Google appliqué aux livres – l’internal text searching – et son plaidoyer en faveur d’autres types d’indexation, moins rudimentaires et plus fiables).

Il n’en demeure pas moins que le cœur de l’argumentation est inspiré par un sentiment de nostalgie et d’impuissance. Les promesses de l’Internet des pionniers (d’origine universitaire et non commerciale) auraient dû être relayées par l’État : « we missed an opportunity (…) we could have coordinated a grand global projet, funded by a group of concerned governments and facilitated by the best national librairies » (3741-48). Tout n’est pas encore perdu, cependant… Nous pouvons peut-être encore reconstruire un moteur de recherche et une bibliothèque mondiale, qui rendraient possible une « expanded public sphere »… Mais la conclusion de l’ouvrage, faute de pouvoir envisager une alternative crédible à l’action de Google, fuit vers l’utopie, de manière assez pathétique : l’auteur invite les lecteurs à collaborer à un Human Knowledge Project, défini de manière très vague (et même à construire le parti politique sans lequel ce projet n’aurait aucune chance de passer dans la réalité !).

Les analyses les plus stimulantes de l’ouvrage me paraissent finalement être celles où l’auteur illustre clairement l’idée selon laquelle les protocoles de Google, qui fonctionnent de manière quasi invisible pour la plupart des internautes, modèlent notre pensée et nos comportements. L’auteur considère en effet que l’impérialisme culturel n’est pas aujourd’hui une question de contenu, mais de protocoles : « if there is a dominant form of cultural imperialism, it concerns the pipelines and protocols of culture, not its products » (2075-84). Les protocoles ne sont certes pas toujours content-neutral. Mais en règle générale le contenu est relativement indifférent : « What flows from North to South does not matter as much as how it flows, how much revenue the flows generate, and who uses and reuses them » (2084-91).

L’emprise de Google sur nos pensées et nos comportements est à chercher à un autre niveau, celui du cadre, non celui du contenu : « Google defaults and ways of doing spread and structure ways of seeking, finding, exploring, buying and presenting that influence (though they do not control) habits of thought and action. These default settings, these nudges, are expressions of an ideology » (2084-91). Cette idéologie est clairement définie et assumée par Google. Sa valeur suprême est la « free expression » (c’est cette idéologie qui sous-tend, au-delà de Google, aussi bien la rétention, vente et publication des données privées, que des outils comme Google Street View, par exemple). L’auteur rappelle que cette valeur n’est pas acceptée facilement dans certains pays, même démocratiques (cf. les réactions, en France et en Allemagne, contre Google et l’accès qu’il permet aux sites antisémites). Google Street View, on le sait, suscite des réactions indignées en Allemagne ou au Japon, en raison des traditions culturelles de ces pays (au Japon les rues desservant les résidences sont considérées comme relevant de la vie privée et ne doivent donc pas être filmées). C’est pourquoi il existe une réaction démocratique contre Internet, que l’auteur perçoit fort bien : « The Internet censorship club is expanding and now includes a growing number of democracies. Legislator are under growing pressures from family groups to do something  in the face of all the threats sloshing around the Internet, and the risk of overstepping is high » (Rebecca MacKinnon, cité en 2505-11).

Il me semble cependant que l’auteur a tort de parler des « liberal values espoused by techno-fundamentalism and corporations such as Google », valeurs qui trouveraient des résistances dans certains pays démocratiques. Savoir ce que sont les valeurs libérales est certes un vaste sujet… Mais l’auteur semble ignorer que de nombreux juristes et philosophes, qui sont loin d’être des technophobes, dénoncent, aux États-Unis même, certains abus rendus possibles par les technologies nouvelles justement au nom des valeurs libérales, en particulier de la liberté (cf. S. Levmore et M.Nussbaum, The Offensive Internet, qui oppose à la conception de la libre expression qui inspire Google celle de la Constitution américaine, pour laquelle la liberté d’expression ne peut pas être absolue). L’idéologie de Google a certainement plus à voir avec les intérêts commerciaux et corporatistes (ceux des métiers de l’informatique) qu’avec les valeurs libérales.

On peut dire cela sans diaboliser Google et sans estimer, comme l’auteur, qu’il faut reconstruire ex nihilo les moteurs de la recherche ou une bibliothèque numérisée mondiale… Cette idée me semble la principale faiblesse de l’ouvrage, qui le condamne à la nostalgie (une idéalisation de l’Internet des pionniers), à l’impuissance et à l’utopie. On peut douter de la capacité des États à construire un moteur de recherche alternatif ou à numériser la bibliothèque mondiale (et l’auteur semble bien en douter aussi)… S’il en est ainsi, la seule voie possible me semble celle de la régulation, par des citoyens vigilants (Google et Facebook n’ignorent pas qu’ils sont eux aussi sous le regard des citoyens) et des États libéraux vigilants.

Propulsé par WordPress.com.