Filter Bubble - Eli Pariser (1980), "The Filter Bubble: What the Internet Is Hiding from You" (2011) - Lawrence Lessing (1961), "Code : And Other Laws of Cyberspace"(1999), "Free Culture: The Nature and Future of Creativity" (2004) - Siva Vaidhyanathan, "The Googlization of Everything: (And Why We Should Worry)" (2010) - ...


Web Intelligence ? Le World Wide Web est l’infrastructure sous-jacente d’une société de l’information basée sur Internet dans laquelle naviguent des milliards de personnes pour interagir sur Internet. De nos jours, le web n'est plus seulement une plateforme pour publier et accéder à l’information, mais en est devenu le véritable écosystème de la pensée, au sens global du terme, complétant l'univers médiatique dans lequel tout être humain se développe désormais : des services "intelligents" s'y sont développés, "intelligents" parce qu'ils semblent en mesure de répondre à toutes nos questions, et parce qu'ils vont jusqu'à modifier les conditions et le contenu de nos existences, parfois très prosaïquement en nous guidant pour faire nos choix, d'achats, de restaurant, de vacances, de rencontres, parfois plus subtilement en nous proposant de minuscules interprétations de ce monde ou nous reliant les uns aux autres via un vaste système d'interactions qui nous semble parfaitement neutre et riche. Mais plus encore, nous explique Lawrence Lessing,  La loi et, de plus en plus, la technologie interfèrent avec une liberté que la technologie et la curiosité assureraient autrement (The law and, increasingly, technology interfere with a freedom that technology, and curiosity, would otherwise ensure). Eli Pariser ou Lawrence Lessing, deux visions complémentaires d'une même même menace portant sur nos libertés ...

 

- "... Just as the factory farming system that produces and delivers our food shapes what we eat, the dynamics of our media shape what information we consume. Now we’re quickly shifting toward a regimen chock-full of personally relevant information. And while that can be helpful, too much of a good thing can also cause real problems. Left to their own devices, personalization filters serve up a kind of invisible autopropaganda, indoctrinating us with our own ideas, amplifying our desire for things that are familiar and leaving us oblivious to the dangers lurking in the dark territory of the unknown. In the filter bubble, there’s less room for the chance encounters that bring insight and learning. Creativity is often sparked by the collision of ideas from different disciplines and cultures..."

 

"... Tout comme le système d'agriculture industrielle qui produit et livre nos aliments façonne ce que nous mangeons, la dynamique de nos médias façonne les informations que nous consommons. Aujourd'hui, nous nous dirigeons rapidement vers un régime rempli d'informations personnellement pertinentes. Et si cela peut être utile, l'excès d'une bonne chose peut aussi causer de réels problèmes. Laissés à eux-mêmes, les filtres de personnalisation constituent une sorte d'autopropagande invisible qui nous endoctrine avec nos propres idées, amplifie notre désir de ce qui nous est familier et nous rend inconscients des dangers qui nous guettent dans le territoire obscur de l'inconnu. 

 

- Dans la bulle du filtre, il y a moins de place pour les rencontres fortuites qui permettent de comprendre et d'apprendre. La créativité naît souvent du choc d'idées issues de disciplines et de cultures différentes..." (Eli Pariser, "The Filter Bubble: What the Internet Is Hiding from You, 2011).

 

- “Pinterest, like virtually every other Web site and social network, is trying to make its site more personalized. And so, because I like Brussels sprouts and lentil soup and ricotta with honey, the site is showing me those foods, to the exclusion of all other foods, all the time.”  (Dewey, Caitlin. “What You Don't Know About Internet Algorithms Is Hurting You. (And You Probably Don't Know Very Much!)” Washington Post, March 23),

 

 

Mais dans tous les cas, cette "intelligence", n'est fondamentalement que le résultat d'une analyse d'informations générées par les interactions entre des milliards d'utilisateurs et les contenus du web, et que la conséquence du développement d’algorithmes "intelligents" en mesure de donner du sens et de l’utilité à cette information. Malheureusement la grande technicité des systèmes mis en oeuvre, le fondement mathématique et statistique de leur structure, rebute bien des utilisateurs et donnent à leur concepteur une liberté et un pouvoir difficilement accessible à toute pensée un peu critique. Jadis, les réseaux de neurones étaient tombés en disgrâce dans les milieux de la recherche: aujourd'hui avec l’avènement d’un gigantesque ensembles de données accessibles, - ou du moins que nous jugeons telle alors qu'en fait peu de ces données nous sont véritablement accessibles en l'état, on confond encore et toujours le fonds et la forme -, ces technologies ont montré à nouveau leur utilité. Tous ces "services" qui désormais peuplent le Web sont fortement ancrés dans l’application de l’informatique aux problèmes du monde réel et les algorithmes "intelligents" en font partie, et pour longtemps ...

Pour qu’une démocratie fonctionne, les gens doivent avoir un point de départ commun, un sens partagé de ce qui est vrai. Sur cette base commune d’information et de connaissances, les gens peuvent débattre et se poser des questions sur la façon dont la société devrait être gouvernée. Mais, à certains égards, nos fenêtres sur le monde deviennent plus individualisées et isolées. Les intermédiaires numériques, ou go-betweens, connus sous le nom de filtres en ligne, font partie du problème et peuvent mener à une situation connue sous le nom de "bulle de filtre" ...

La "filter bubble" se réfère à l'état dans lequel un utilisateur d'internet se retrouve isolé dans une bulle d'informations qui correspond à ses propres préférences et croyances. Ce phénomène est principalement le résultat des algorithmes de personnalisation utilisés par les moteurs de recherche comme Google, les réseaux sociaux comme Facebook ou Twitter, et même les plateformes de streaming comme YouTube. Ces algorithmes de personnalisation analysent en effet nos activités en ligne (clics, recherches, likes, partages, etc.) pour nous proposer du contenu qui correspond à nos intérêts présumés. Deux individus effectuant une même recherche sur Google peuvent obtenir des résultats très différents, en fonction de leurs historiques de navigation, de leurs préférences, ou de leur localisation géographique. Deux individus effectuant les mêmes recherches via deux moteurs différents auront dans la plupart des cas des propositions dispatates, et plus encore s'ils sont localisés en des régions distantes ...

 

Certes, le Web est vaste et les filtres nécessaires pour tenter de traverser cet océan d’informations, ces centaines de milliards de pages web qui, pr ailleurs, sont déjà fortement filtrées et indexées ..

La neutralité du Net est une vaste question qui place en première ligne les fournisseurs d'accès à Internet (FAI, - qui doivent traiter toutes les données circulant sur le réseau de manière égale, sans discrimination ni tarification différenciée selon le type de contenu, l'utilisateur, la plateforme, ou l'application-,  et les gouvernements et instances publiques qui détiennent le pouvoir de règlementation. Le filtrage des pages Web, mis en oeuvre par les opérateurs (FAI), peut se faire de plusieurs façons, selon les pays et les régulations locales : par filtrage DNS (Domain Name System) ou URL, par analyse des paquets de données en transit (Deep Packet Inspection),  par blocage des adresses IP associées à certains serveurs, mais aussi par catégories ou sur listes noires et blanches. L'indexation des pages Web est par contre un processus principalement associé aux moteurs de recherche (bien que les opérateurs puissent influencer l'accès à certaines pages Web et la performance des connexions), exploration par des "crawlers" ou "spiders" qui parcourent le Web en suivant les liens d'une page à l'autre, analyses et indexation (contenu, mots-clés, métadonnées), puis classement dans les résultats de recherche, via la partie algorithmique, en fonction de leur pertinence par rapport à la requête utilisateur.


La stratégie dite de "filter bubble" a fait ainsi l'objet de bien des contestations. L'utilisateur est exposé en priorité à des informations qui renforcent ses croyances existantes, - on parle autant d'isolement idéologique ou social que de renforcement de son entre-soi". L'utilisateur ne bénéficie absolument pas de cette extraordinaire ouverture sur le monde et à ces milliards de données et d'information de toutes sortes qui pourraient éventuellement nourrir sa pensée : non, la limitation de l'accès à plus de diversité est une règle implicite de nos moteurs de recherche ou de leurs équivalents. En limitant l'exposition à des opinions divergentes et en confortant les points de vue, comment penser que des citoyens puissent comprendre ou accepter des perspectives différentes de ce qui constitue l'essentiel de leur logique personnelle ... 


"Neither Facebook nor Google nor Pinterest explains the intricacies of its code,” écrit le Washington Post reporter Caitlin Dewey dans un article datant de 2015. “Even though algorithms arguably shape how we think and what we know, no one gets to open them up and see how they work"...

En 2011, Facebook, via un algorithme des plus complexes, personnalisait les articles de sorte que les nouvelles qui semblaient intéresser le plus un utilisateur apparaissaient au sommet du fil d’actualité de celui-ci. Un algorithme qui ne se contentait pas de déterminer si vous aviez "aimer" quelque chose, mais jouer de la prédiction des comportements des utilisateurs en affectant un degré de pertinence à chaque "post" : le post qui figurait en tête de liste était ainsi susceptible, parmi des milliers d’autres, comme celui qui vous ferez rire, pleurer, sourire, cliquer, aimer, partager ou commenter... En mars 2016, Instagram a annoncé qu’il commencerait à filtrer le contenu: " Avec la croissance d’Instagram, il est devenu plus difficile de suivre toutes les photos et vidéos que les gens partagent. Cela signifie que vous ne voyez souvent pas les messages qui vous tiennent le plus à cœur" (As Instagram has grown, it's become harder to keep up with all the photos and videos people share. This means you often don't see the posts you might care about the most); et pour résoudre ce problème, Instagram adoptera un algorithme qui ordonnera les messages dans un flux en fonction des likes, de la relation entre la personne avec le compte Instagram et celui qui a posté une image; et de la date à laquelle le message a été publié. En 2018, Snapchat annonçait un algorithme qui recommanderait désormais ses articles selon la « pertinence personnelle » (personal relevance) plutôt que par ordre chronologique. L’algorithme de YouTube détermine quant à lui une grande partie du contenu proposé à l'utilisateur, y compris les vidéos « recommandées » (recommended) et la sélection des milliards de vidéos qui seront « à suivre » (up next), et chaque jour, à travers le monde, plus d’un milliard d’heures de vidéo sont ainsi regardées sur le site; mais en 2019, YouTube s’est engagé dans un billet de blog à « améliorer les recommandations » après qu’une enquête du Wall Street Journal ait révélé que l’algorithme « conduit souvent les utilisateurs vers des chaînes qui présentent des théories de conspiration, des points de vue politiques et des vidéos trompeuses, même lorsque ces utilisateurs n’ont pas manifesté d’intérêt pour ce contenu » (often leads users to channels that feature conspiracy theories, political viewpoints and misleading videos, even when those users haven't shown interest in such content)...

Le fondateur de Facebook justifiera ces choix de conception en affirmant que le réseau social offre aux utilisateurs un éventail d’informations beaucoup plus vaste que ne l’ont jamais proposé les médias traditionnels : et dans ce contexte les bulles de filtre ne peuvent être sujets à polémique, l'environnement social qui est le nôtre n'est-il pas déjà constitué de personnes partageant les mêmes expériences ou les mêmes croyances ...  Le réseau social de microblogage qu'est Twitter ne montre-t-il pas combien nous recherchons les membres de notre supposée "tribu" pour partager les mêmes opinions sans la moindre nuance. On peut toutefois noter qu'avant Internet,  Snapchat, Instagram ou YouTube, s'il y avait en effet beaucoup moins de choix dans les médias, on prenait en général plus de temps pour suivre l’actualité, et le journaliste le plus populaire aux États-Unis de 1962 à 1981, Walter Cronkite, était alors reconnnu comme « l’homme le plus digne de confiance en Amérique » (the most trusted man in America): et c'est aux mêmes sources que l'on se référait pour partager une même vérité de base sur la réalité avant d'y poser notre jugement propre. Vue peut-être idylique, mais la complexification et la manipulation des sources d'information pose aujourd'hui problème. 

Une étude du Pew Research Center et de la Knight Foundation a révélé que plus de 40 % des adultes américains puisent l'actualité de ce monde dans un flux Facebook. "Escape Your Bubble" est une extension Chrome qui permet d’insérer des messages dans votre fil d’actualité Facebook comme autant de points de vue sur tel ou tel problématique : si vous êtes un démocrate cherchant à mieux comprendre les républicains, le service insérera des messages soulignant « les aspects positifs de ceux que vous souhaitez comprendre et accepter davantage », s'ouvre ainsi, non sans naïveté, une technologie qui entend prendre en charge, pour chacun d'entre nous, une meilleure compréhension des points de vue opposés ("You'll learn to understand and accept thy fellow countrymen"). 


Pour la pensée critique (critical thinking), ou ce qu'on dénonce comme de l'activisme, l'essentiel est d'apprendre à diversifier nos sources d'information, dans les réseaux sociaux comme à l'extérieur de ces réseaux ("using library computers is an effective way of fighting filter bubbles"), et à contourner ces bulles de filtre indirectement formées par les services et les plateformes que nous utilisons en ligne. Les filtres en ligne « savent » ce qui se passe en tout être humain et nous donnent ce que nous voulons voir et lire. Plus encore, naviguant dans un contexte virtuel qui nous semble parfaitement  familier, comment maintenir son attention et tout simplement réfléchir. Les filtres personnalisés agissent sur les parties les plus compulsives de notre corps ...

 

"Personalized filters play to the most compulsive parts of you, creating “compulsive media” to get you to click things more. The technology mostly can’t distinguish compulsion from general interest - and if you’re generating page views that can be sold to advertisers, it might not care. The faster the system learns from you, the more likely it is that you can get trapped in a kind of identity cascade, in which a small initial action - clicking on a link about gardening or anarchy or Ozzy Osbourne - indicates that you’re a person who likes those kinds of things. This in turn supplies you with more information on the topic, which you’re more inclined to click on because the topic has now been primed for you.

 

« Les filtres personnalisés jouent sur les aspects les plus compulsifs de votre personnalité, en créant des « médias compulsifs » qui vous incitent à cliquer davantage. La technologie ne peut généralement pas distinguer la compulsion de l'intérêt général - et si vous générez des pages vues qui peuvent être vendues à des annonceurs, elle peut ne pas s'en soucier. Plus le système apprend rapidement à vous connaître, plus vous risquez d'être pris au piège d'une sorte de cascade identitaire, dans laquelle une petite action initiale - cliquer sur un lien concernant le jardinage, l'anarchie ou Ozzy Osbourne - indique que vous êtes une personne qui aime ce genre de choses. Vous obtenez alors davantage d'informations sur le sujet, sur lesquelles vous êtes plus enclin à cliquer parce que le sujet a été préparé pour vous.

 

Especially once the second click has occurred, your brain is in on the act as well. Our brains act to reduce cognitive dissonance in a strange but compelling kind of unlogic - “Why would I have done x if I weren’t a person who does x - therefore I must be a person who does x.”Each click you take in this loop is another action to self-justify - “Boy, I guess I just really love ‘Crazy Train.’ ” When you use a recursive process that feeds on itself, Cohler tells me, “You’re going to end up down a deep and narrow path.” The reverb drowns out the tune. If identity loops aren’t counteracted through randomness and serendipity, you could end up stuck in the foothills of your identity, far away from the high peaks in the distance.

And that’s when these loops are relatively benign. Sometimes they’re not.

We know what happens when teachers think students are dumb: They get dumber. In an experiment done before the advent of ethics boards, teachers were given test results that supposedly indicated the IQ and aptitude of students entering their classes. They weren’t told, however, that the results had been randomly redistributed among students. After a year, the students who the teachers had been told were bright made big gains in IQ. The students who the teachers had been told were below average had no such improvement.

 

En particulier, une fois que le deuxième clic s'est produit, votre cerveau est également impliqué. Notre cerveau agit pour réduire la dissonance cognitive dans une sorte d'illogisme étrange mais convaincant : « Pourquoi aurais-je fait x si je n'étais pas une personne qui fait x - donc je dois être une personne qui fait x ? » Chaque clic que vous faites dans cette boucle est une autre action à autojustifier : « Bon sang, je crois que j'aime vraiment “Crazy Train” ». « Lorsque vous utilisez un processus récursif qui se nourrit de lui-même, Cohler me dit : « Vous finirez par emprunter un chemin profond et étroit ». La réverbération étouffe la mélodie. Si les boucles d'identité ne sont pas contrecarrées par le hasard et la sérendipité, vous risquez de vous retrouver coincé dans les contreforts de votre identité, loin des hauts sommets qui se dessinent au loin.

Dans ce cas, ces boucles sont relativement bénignes. Parfois, ce n'est pas le cas.

Nous savons ce qui se passe lorsque les enseignants pensent que les élèves sont stupides : Ils deviennent plus bêtes. Dans une expérience réalisée avant l'avènement des comités d'éthique, des enseignants ont reçu des résultats de tests censés indiquer le QI et les aptitudes des élèves entrant dans leurs classes. Ils n'ont cependant pas été informés que les résultats avaient été redistribués au hasard entre les élèves. Au bout d'un an, les élèves dont on avait dit aux enseignants qu'ils étaient brillants ont fait des progrès considérables en termes de QI. Les élèves dont on avait dit qu'ils étaient en dessous de la moyenne n'ont pas progressé.

 

So what happens when the Internet thinks you’re dumb? Personalization based on perceived IQ isn’t such a far-fetched scenario - Google Docs even offers a helpful tool for automatically checking the grade-level of written text. If your education level isn’t already available through a tool like Acxiom, it’s easy enough for anyone with access to a few e-mails or Facebook posts to infer. Users whose writing indicates college-level literacy might see more articles from the New Yorker; users with only basic writing skills might see more from the New York Post.

In a broadcast world, everyone is expected to read or process information at about the same level. In the filter bubble, there’s no need for that expectation. On one hand, this could be great - vast groups of people who have given up on reading because the newspaper goes over their heads may finally connect with written content. But without pressure to improve, it’s also possible to get stuck in a grade-three world for a long time..."

 

Que se passe-t-il lorsque l'internet pense que vous êtes stupide ? La personnalisation basée sur le QI perçu n'est pas un scénario si farfelu que cela - Google Docs propose même un outil utile pour vérifier automatiquement le niveau d'un texte écrit. Si votre niveau d'études n'est pas encore connu grâce à un outil comme Acxiom, il est assez facile pour quiconque ayant accès à quelques courriels ou posts Facebook de le déduire. Les utilisateurs dont l'écriture indique un niveau universitaire verront davantage d'articles du New Yorker, tandis que ceux qui n'ont que des compétences de base en écriture verront davantage d'articles du New York Post.

Dans un monde de diffusion, tout le monde est censé lire ou traiter l'information à peu près au même niveau. Dans la bulle de filtre, cette attente n'a pas lieu d'être. D'un côté, cela pourrait être formidable : de vastes groupes de personnes qui ont abandonné la lecture parce que les journaux leur passaient au-dessus de la tête pourraient enfin se connecter à un contenu écrit. Mais sans pression pour s'améliorer, il est également possible de rester bloqué dans un monde de niveau 3 pendant longtemps... » (Eli Pariser)

 

« Un monde construit à partir du familier est un monde dans lequel il n'y a rien à apprendre ...»

 

"In the filter bubble, there’s less room for the chance encounters that bring insight and learning. Creativity is often sparked by the collision of ideas from different disciplines and cultures. Combine an understanding of cooking and physics and you get the nonstick pan and the induction stovetop. But if Amazon thinks I’m interested in cookbooks, it’s not very likely to show me books about metallurgy. It’s not just serendipity that’s at risk. By definition, a world constructed from the familiar is a world in which there’s nothing to learn. If personalization is too acute, it could prevent us from coming into contact with the mind-blowing, preconceptionshattering experiences and ideas that change how we think about the world and ourselves.

 

« Dans la bulle du filtre, il y a moins de place pour les rencontres fortuites qui permettent de comprendre et d'apprendre. La créativité naît souvent du choc d'idées issues de disciplines et de cultures différentes. En combinant la compréhension de la cuisine et de la physique, on obtient la poêle antiadhésive et la cuisinière à induction. Mais si Amazon pense que je m'intéresse aux livres de cuisine, il est peu probable qu'il me montre des livres sur la métallurgie. Ce n'est pas seulement la sérendipité qui est en danger. Par définition, un monde construit à partir du familier est un monde dans lequel il n'y a rien à apprendre. Si la personnalisation est trop poussée, elle pourrait nous empêcher d'entrer en contact avec des expériences et des idées époustouflantes, qui bouleversent les idées reçues et changent notre façon de voir le monde et de nous-mêmes ..." (Eli Pariser)


"The Filter Bubble: What the Internet Is Hiding from You" (2011), by Eli Pariser (1980)

Eli Pariser est particulièrement connu pour avoir popularisé le concept de la "Filter Bubble" dans son livre "The Filter Bubble: What the Internet is Hiding from You" (2011), un concept qui a eu un impact significatif sur la manière dont les spécialistes des médias et les utilisateurs perçoivent l'influence des algorithmes sur notre consommation de l'information en ligne.

Eli Pariser, qualifié d'activiste, a grandi dans le Maine et est apparu sur la scène publique après les attentats du 11 septembre 2001, lorsqu'il a fondé un site devenu acteur majeur dans les campagnes politiques et les levées de fonds en ligne aux États-Unis, puis en s'impliquant dans une organisation mondiale de mobilisation citoyenne en ligne, qui s'efforçait de permettre aux citoyens du monde entier de s'exprimer sur des questions internationales.

 

On the Concept of the Filter Bubble - De la nature invisible de la "bulle de filtre", de la stratégie algorithmique qui façonne le contenu dans lequel va naviguer l'utilisateur, au détriment de bien d'autres qui pourraient éventuellement  modifier son point de vue ...

"Your filter bubble is your own personal, unique universe of information that you live in online. And what's in your filter bubble depends on who you are, and it depends on what you do. But the thing is, you don't decide what gets in. And more importantly, you don't actually see what gets edited out..."

"The basic code at the heart of the new Internet is pretty simple. The new generation of Internet filters looks at the things you seem to like - the actual things you’ve done, or the things people like you like- and tries to extrapolate. They are prediction engines, constantly creating and refining a theory of who you are and what you’ll do and want next. Together, these engines create a unique universe of information for each of us - what I’ve come to call a filter bubble- which fundamentally alters the way we encounter ideas and information.

Of course, to some extent we’ve always consumed media that appealed to our interests and avocations and ignored much of the rest. But the filter bubble introduces three dynamics we’ve never dealt with before. 

 

« Le code de base au cœur du nouvel Internet est assez simple. La nouvelle génération de filtres Internet examine les choses que vous semblez aimer - les choses que vous avez réellement faites, ou les choses que les gens comme vous aiment - et tente d'extrapoler. Ce sont des moteurs de prédiction, qui créent et affinent en permanence une théorie de qui vous êtes et de ce que vous ferez et voudrez ensuite. Ensemble, ces moteurs créent un univers d'information unique pour chacun d'entre nous - ce que j'ai appelé une bulle de filtre - qui modifie fondamentalement la façon dont nous rencontrons les idées et les informations. Bien sûr, dans une certaine mesure, nous avons toujours consommé des médias qui correspondaient à nos centres d'intérêt et à nos passions et ignoré la plupart des autres. Mais la bulle de filtre introduit trois dynamiques auxquelles nous n'avions jamais été confrontés auparavant. 

 

First, you’re alone in it. A cable channel that caters to a narrow interest (say, golf) has other viewers with whom you share a frame of reference. But you’re the only person in your bubble. In an age when shared information is the bedrock of shared experience, the filter bubble is a centrifugal force, pulling us apart. Second, the filter bubble is invisible. Most viewers of conservative or liberal news sources know that they’re going to a station curated to serve a particular political viewpoint. But Google’s agenda is opaque. Google doesn’t tell you who it thinks you are or why it’s showing you the results you’re seeing. You don’t know if its assumptions about you are right or wrong—and you might not even know it’s making assumptions about you in the first place. My friend who got more investment-oriented information about BP still has no idea why that was the case - she’s not a stockbroker.

 

Tout d'abord, vous êtes seul dans cette situation. Une chaîne câblée qui s'adresse à un public restreint (par exemple, le golf) a d'autres téléspectateurs avec lesquels vous partagez un cadre de référence. Mais vous êtes seul dans votre bulle. À une époque où l'information partagée est le fondement de l'expérience partagée, la bulle de filtre est une force centrifuge qui nous sépare les uns des autres.

Deuxièmement, la bulle de filtre est invisible. La plupart des téléspectateurs qui regardent des sources d'information conservatrices ou libérales savent qu'ils vont sur une chaîne conçue pour servir un point de vue politique particulier. Mais l'agenda de Google est opaque. Google ne vous dit pas qui il pense que vous êtes, ni pourquoi il vous affiche les résultats que vous voyez. Vous ne savez pas si les hypothèses qu'il formule à votre sujet sont justes ou erronées, et vous ne savez peut-être même pas qu'il formule des hypothèses à votre sujet. Mon amie qui a reçu des informations plus orientées vers l'investissement à propos de BP ne sait toujours pas pourquoi c'était le cas - elle n'est pas courtière en valeurs mobilières.

 

Because you haven’t chosen the criteria by which sites filter information in and out, it’s easy to imagine that the information that comes through a filter bubble is unbiased, objective, true. But it’s not. In fact, from within the bubble, it’s nearly impossible to see how biased it is. Finally, you don’t choose to enter the bubble. When you turn on Fox News or read The Nation, you’re making a decision about what kind of filter to use to make sense of the world. It’s an active process, and like putting on a pair of tinted glasses, you can guess how the editors’ leaning shapes your perception. You don’t make the same kind of choice with personalized filters. They come to you - and because they drive up profits for the Web sites that use them, they’ll become harder and harder to avoid...."

 

Parce que vous n'avez pas choisi les critères selon lesquels les sites filtrent l'information, il est facile d'imaginer que l'information qui passe à travers une bulle de filtre est impartiale, objective, vraie. Mais ce n'est pas le cas. En fait, de l'intérieur de la bulle, il est presque impossible de voir à quel point elle est biaisée. Enfin, vous ne choisissez pas d'entrer dans la bulle. Lorsque vous regardez Fox News ou lisez The Nation, vous décidez du type de filtre à utiliser pour comprendre le monde. Il s'agit d'un processus actif et, comme lorsque l'on met une paire de lunettes teintées, on peut deviner comment l'orientation des rédacteurs en chef influe sur notre perception. Vous ne faites pas le même type de choix avec les filtres personnalisés. Ils viennent à vous et, parce qu'ils augmentent les profits des sites Web qui les utilisent, il sera de plus en plus difficile de les éviter...."

 

"Conscience des algorithmes" - Le concept de la "Filter Bubble" introduit par Pariser décrit le phénomène par lequel les algorithmes de personnalisation créent un espace d'information isolé pour chaque utilisateur, en ne montrant que des contenus conformes à ses intérêts et croyances antérieurs. Ce qui a pour effet immédiat de limiter l'exposition de chacun à des opinions différentes ou opposées. Une idée qui a fortement influencé la manière dont les spécialistes des médias sociaux et du marketing numérique abordent la création et la diffusion de contenus.

 

Le rôle des plateformes, telles que Facebook et Google, furent l'objet de ses critiques  : les algorithmes qu'elles mettent en oeuvre renforcent les biais cognitifs et réduisent l'ouverture d'esprit, ce qui n'est pas sans conséquence dans un environnement démocratique. Plaidant ainsi pour une plus grande transparence et responsabilité des entreprises technologiques concernant leurs algorithmes, et pour tout dire pour une totale mise en oeuvre de la diversité des contenus dans nos réseaux sociaux, c'est bien plus globalement l'influence des technologies sur la société, et en particulier la manière dont l'information est présentée aux utilisateurs, qui est porté au débat public. Le contexte politique et social se prête particulièrement à ce type de question, à l'ère des fake news et de la polarisation politique croissante au sein de très nombreuses sociétés de ce monde. 

 

 On the Dangers of Personalized Content - on peut estimer qu'un contenu personnalisé fourni par un moteur de recherche, est incontournable compte tenu la quantité et de la qualité des informations existantes dans le Web, mais cette personnalisation peut réduire la vision du monde des utilisateurs en renforçant constamment leurs croyances existantes. Faut-il  renforcer les préférences des utilisateurs ou les interpeller avec des contenus diversifiés qui élargissent leurs perspectives?

 

"The new generation of Internet filters looks at the things you seem to like—the actual things you've done, or the things people like you have done—and tries to extrapolate...they're taking our past behaviors to infer our future ones. And in the process, they can make our world narrower..."

On peut ainsi observer une certaine perte de sérendipité au cours des expériences en ligne auxquelles s'adonne l'utilisateur ..

 "What we're seeing today is more of a passing from the idea of the Internet as a marketplace of ideas to something that's more of a platform for marketing. And as the algorithms get better and better at predicting what we want, they also reduce the possibility of serendipity."

 

 On the Responsibility of Online Platforms - Pariser traite enfin de la responsabilité des plateformes en ligne dans l'élaboration de l'expérience des utilisateurs. « Dans la bulle de filtre, il y a moins de place pour les rencontres fortuites qui permettent de comprendre et d'apprendre. Ce qui nous reste, c'est une sorte d'autopropagande invisible, qui nous endoctrine avec nos propres idées, amplifie nos désirs pour les choses qui nous sont familières et nous rend inconscients des dangers qui se cachent dans le territoire obscur de l'inconnu. » (In the filter bubble, there’s less room for the chance encounters that bring insight and learning. What we’re left with is a kind of invisible autopropaganda, indoctrinating us with our own ideas, amplifying our desires for things that are familiar, and leaving us oblivious to the dangers lurking in the dark territory of the unknown). Et si l'on se place sur le long-terme, si l'on veut bien examiner les implications sociétales plus larges d'une telle personnalisation de notre existence virtuelle passée sur le Web, on peut s'interroger sur son impact sur l'avenir de notre démocratie. C'est un véritable appel à la responsabilité des professionnels des médias sociaux, leur rappelant le pouvoir d'influence qu'ils détiennent et l'importance de maintenir un équilibre entre personnalisation et diversité de l'information ("Personalization is based on a bargain. In exchange for showing us more of what we want, companies get to learn more about us. But there’s a hidden cost to this convenience: the way it undermines the open-endedness that is so important to a democratic society").


Lawrence Lessig (1961)

Lawrence Lessig, professeur de droit à l'université de Harvard (après avoir enseigné à Stanford), notamment en droit constitutionnel, droit de la propriété intellectuelle et droit de l'internet, est connu principalement pour ses travaux relatifs aux questions de propriété intellectuelle, de censure et de gouvernance de l'internet. Ses opinions sur la libre circulation de l'information et les effets des technologies numériques sur la culture et la démocratie sont importantes pour comprendre les dynamiques actuelles des plateformes numériques. Il participa en 2001 à la création de "Creative Commons", une  organisation à but non lucratif qui fournit des licences de droits d'auteur flexibles pour permettre aux créateurs de partager leur travail plus librement tout en conservant certains droits. Il conteste de même les législations relatives au droit d'auteur, qu'il considère souvent comme trop restrictives. Dans "Free Culture. How Big Media Uses Technology and the Law to Lock Down Culture and Control Creativity" soutient que les lois sur le droit d'auteur doivent être réformées pour mieux s'adapter à l'ère numérique et encourager l'innovation. En 2024, dans "How to Steal a Presidential Election", Lawrence Lessig, avec Matthew Seligman, avait dénoncé comment, avec des moyens parfaitement légaux, le résultat d'une élection  présidentielle américaine pouvait être renversée et permettre à un parti politique d’installer son propre candidat à la place du véritable vainqueur. Un livre qui constitue un véritable appel pour renforcer le système jugé fragile de l'élection aux Etats-Unis avant que la démocratie américaine ne soit compromise à jamais.

 

"Code : And Other Laws of Cyberspace"(1999)

S'il est bien des livres qui nous décrivent comment les plateformes, que nous utilisons, régulent le comportement des utilisateurs à travers leur architecture logicielle, "Code" (publié en 1999, avec une version révisée appelée "Code 2.0" publiée en 2006), de Lawrence Lessig, constitue en la matière une référence incontournable. Il nous aide non seulement à comprendre les implications profondes des décisions de conception de ces plateformes, non seulement sur l'expérience utilisateur, mais aussi sur les libertés civiles en ligne. Le concept de "code" comme loi est crucial pour comprendre les dynamiques de pouvoir dans le cyberespace, et les responsabilités éthiques des développeurs et des entreprises technologiques. Les thèmes abordés, tels que la régulation de la vie privée, la censure, et la manière dont les lois traditionnelles interagissent avec le cyberespace, sont toujours d'actualité. 

Comment le code informatique, tout comme la loi, régule les comportements dans le cyberespace : pour l'auteur, le "code informatique"  est une forme de régulation aussi puissante que les lois, et il façonne entièrement notre expérience du numérique...

 

"In real space, we recognize how laws regulate — through constitutions, statutes, and other legal codes. In cyberspace, we must understand how code regulates — how the software and hardware that make cyberspace what it is regulate cyberspace as it is." (Dans l'espace réel, nous reconnaissons comment les lois régulent - à travers les constitutions, les statuts, et d'autres codes légaux. Dans le cyberespace, nous devons comprendre comment le code régule - comment les logiciels et le matériel qui constituent le cyberespace régulent le cyberespace tel qu'il est).

 

Lessig commence par expliquer que dans le monde physique, le comportement est régulé par quatre forces : la loi, les normes sociales, les marchés, et l'architecture (l'environnement physique). Il transpose ce modèle au cyberespace, où le "code" (le logiciel et les protocoles qui régissent Internet) joue le rôle de l'architecture. 

Lessig propose ensuite une idée que l'on peut jugée "révolutionnaire" : le code informatique agit comme une loi dans le cyberespace. Il définit ce que les utilisateurs peuvent et ne peuvent pas faire en ligne. Il peut, par exemple, restreindre l'accès à certains sites Web, contrôler la manière dont les informations sont partagées, ou protéger la vie privée des utilisateurs.

 

- "The code that we create or allow to be created today will determine the freedoms and controls of the future" (Le code que nous créons ou permettons d'être créé aujourd'hui déterminera les libertés et les contrôles de demain)...

- "There is no reason to think that the decisions made in this space will naturally be made to protect values we consider fundamental. If we want our values to be protected, we must act to protect them" (Il n'y a aucune raison de penser que les décisions prises dans cet espace seront naturellement faites pour protéger les valeurs que nous considérons comme fondamentales. Si nous voulons que nos valeurs soient protégées, nous devons agir pour les protéger)...

 

Pouvoir des Gouvernements et des Entreprises - Lessig met en garde contre le fait que le "code", souvent créé par des entreprises privées, donne un pouvoir immense aux développeurs et aux entreprises technologiques. Cela signifie que des entités non élues peuvent avoir une influence considérable sur la liberté des individus en ligne. D'où l'importance de la Régulation Démocratique. Lessig plaide pour une intervention démocratique dans la régulation du cyberespace. Il insiste sur le fait que la société doit veiller à ce que le code soit conçu de manière à respecter les valeurs démocratiques, telles que la liberté d'expression, la vie privée, et l'équité.

 

 

Lessig en vient à discuter de l'architecture de ce fameux "cyberespace", de comment elle peut être modifiée pour mieux protéger les libertés civiles. Et Il aborde ainsi des questions toujours d'actualité et non encore résolue plus de vingt ans plus tard, comme l'anonymat en ligne, la censure, et la surveillance. Il explore au passage comment ce "code" peut être conçu pour promouvoir des objectifs sociaux et politiques....


"Free Culture: The Nature and Future of Creativity" (2004)

"The free culture that I defend in this book is a balance between anarchy and control. A free culture, like a free market, is filled with property. It is filled with rules of property and contract that get enforced by the state. But just as a free market is perverted if its property becomes feudal, so too can a free culture be queered by extremism in the property rights that define it. That is what I fear about our culture today. It is against that extremism that this book is written" - Dans "Free Culture: The Nature and Future of Creativity" (2004), Lawrence Lessig, « le penseur le plus important en matière de propriété intellectuelle à l’ère d’Internet » (The New Yorker), affirme que jamais auparavant dans l’histoire humaine le pouvoir de contrôler le progrès créatif n’a été aussi concentré entre les mains de quelques puissants, les soi-disant "Big Media". Jamais auparavant les pouvoirs culturels n’ont pu exercer un tel contrôle sur ce que nous pouvons et ne pouvons pas faire avec la culture qui nous entoure. Notre société défend la liberté des marchés et de l’expression; pourquoi donc permet-elle un tel contrôle de haut en bas? Perdre notre longue tradition de culture libre, c’est perdre notre liberté de créer, notre liberté de conception et, en fin de compte, notre liberté d’imaginer. Un livre disponible sous une licence Creative Commons, ce qui reflète directement les principes qu'il défend.  

 

Dans sa préface, Lessig nous explique son absolu rejet de toute concentration du pouvoir sous toutes ses formes (politique, corporatif, médiatique, culturel, que la diffusion du pouvoir au niveau  local encourage la participation individuelle et qui constitue l’essence même du fédéralisme et la plus grande expression de la démocratie. Mais son argument de "la culture libre" ne porte pas seulement sur cet effet de concentration du pouvoir constaté dans sa diffusion même, que dans son aspect moins visible, une concentration du pouvoir produite ou ajustée par un changement radical de la portée effective de la loi. La loi se modifie insensiblement, et modifie notre culture ; et de fait, cette évolution devrait nous inquiéter...

 

Qu'entendre par "culture libre"?

"... As I explain in the pages that follow, we come from a tradition of “free culture”—not “free” as in “free beer” (to borrow a phrase from the founder of the free-software movement, but “free” as in “free speech,” “free markets,” “free trade,” “free enterprise,” “free will,” and “free elections.” A free culture supports and protects creators and innovators. It does this directly by granting intellectual property rights. But it does so indirectly by limiting the reach of those rights, to guarantee that follow-on creators and innovators remain as free as possible from the control of the past. A free culture is not a culture without property, just as a free market is not a market in which everything is free. The opposite of a free culture is a “permission culture”—a culture in which creators get to create only with the permission of the powerful, or of creators from the past.

If we understood this change, I believe we would resist it. Not “we” on the Left or “you” on the Right, but we who have no stake in the particular industries of culture that defined the twentieth century. Whether you are on the Left or the Right, if you are in this sense disinterested, then the story I tell here will trouble you. For the changes I describe affect values that both sides of our political culture deem fundamental..."

 

« .. Comme je l'explique dans les pages qui suivent, nous sommes issus d'une tradition de « culture libre » - non pas « libre » comme dans «free beer» (pour reprendre une expression du fondateur du mouvement des logiciels libres (Richard M. Stallman, "Free Software, Free Societies"), mais « libre » comme dans « libre expression », « libre marché », « libre commerce », « libre entreprise », « libre arbitre » et « élections libres ». Une culture libre soutient et protège les créateurs et les innovateurs. Elle le fait directement en accordant des droits de propriété intellectuelle. Mais elle le fait indirectement en limitant la portée de ces droits, afin de garantir que les créateurs et les innovateurs qui suivent restent aussi libres que possible du contrôle du passé. Une culture libre n'est pas une culture sans propriété, tout comme un marché libre n'est pas un marché où tout est gratuit. Le contraire d'une culture libre est une « culture de la permission » - une culture dans laquelle les créateurs ne peuvent créer qu'avec la permission des puissants ou des créateurs du passé.

Si nous comprenions ce changement, je pense que nous y résisterions. Non pas « nous » à gauche ou « vous » à droite, mais nous qui n'avons aucun intérêt dans les industries culturelles particulières qui ont défini le vingtième siècle. Que vous soyez de gauche ou de droite, si vous êtes dans ce sens désintéressé, alors l'histoire que je raconte ici vous troublera. En effet, les changements que je décris affectent des valeurs que les deux camps de notre culture politique considèrent comme fondamentales...."

 

- "Culture has been locked down by a few who claim control over ideas that should be free for all of us to build upon" (La culture a été verrouillée par quelques-uns qui revendiquent le contrôle d'idées qui devraient être libres pour que nous puissions tous les exploiter)...

- "We must make it possible for creative people to have the opportunity to freely create and share their work without fear of legal reprisal." (Nous devons permettre aux créateurs d'avoir la possibilité de créer et de partager librement leur travail sans crainte de représailles juridiques).

- "The law of copyright was originally intended to create incentives for the creation of new works, not to reward existing works with perpetual control" (La loi sur le droit d'auteur avait à l'origine pour but de créer des incitations à la création de nouvelles œuvres, et non de récompenser les œuvres existantes par un contrôle perpétuel) ...

 

Lessig décrit une "culture libre" (Free Culture) comme une culture qui encourage la création, le partage, et la diffusion des idées. D'où sa critique relative aux lois actuelles sur le droit d'auteur qui, selon lui, limitent cette liberté et étouffent l'innovation, des droits d'auteur  qui favorisent les grandes entreprises au détriment du public. L'auteur en appelle à une réforme pour que le système de droits d'auteur prenne en compte le nouveau contexte dans lequel se développe désormais notre société numérique.

 

 - ".. Thus, as we'll see more clearly in the chapters below, the law's role is less and less to support creativity, and more and more to protect certain industries against competition. Just at the time digital technology could unleash an extraordinary range of commercial and noncommercial creativity, the law burdens this creativity with insanely complex and vague rules and with the threat of obscenely severe penalties .."

(le rôle de la loi est de moins en moins de soutenir la créativité et de plus en plus de protéger certaines industries contre la concurrence. Au moment où la technologie numérique pourrait libérer une gamme extraordinaire de créativité commerciale et non commerciale, la loi alourdit cette créativité avec des règles incroyablement complexes et vagues et avec la menace de sanctions obscènes sévères. 

 

- "... The “cut and paste” world that defines the Internet today will become a “get permission to cut and paste” world that is a creator's nightmare. What's needed is a way to say something in the middle—neither “all rights reserved” nor “no rights reserved” but “some rights reserved”—and thus a way to respect copyrights but enable creators to free content as they see fit. In other words, we need a way to restore a set of freedoms that we could just take for granted before..." ( Le monde du « copier-coller » qui définit l'internet aujourd'hui deviendra un monde où il faudra obtenir la permission de copier-coller, ce qui est un cauchemar pour les créateurs. Ce qu'il faut, c'est un moyen de dire quelque chose au milieu - ni « tous les droits réservés », ni « aucun droit réservé », mais « certains droits réservés » - et donc un moyen de respecter les droits d'auteur tout en permettant aux créateurs de libérer le contenu comme ils l'entendent. En d'autres termes, nous avons besoin d'un moyen de restaurer un ensemble de libertés que nous pouvions considérer comme allant de soi auparavant...).

 

Lessig analyse comment les grandes entreprises médiatiques utilisent les lois et la technologie pour exercer un contrôle sur la culture, et le plus souvent au détriment des utilisateurs et des créateurs indépendants. Le livre explore enfin comment la technologie, notamment Internet, a transformé la manière dont les œuvres culturelles sont produites et consommées. Il souligne  ainsi que les lois doivent évoluer pour s'adapter à ce nouveau type d'évolution technologique ...


"The Googlization of Everything: (And Why We Should Worry)", Siva Vaidhyanathan (2010)

Un ouvrage qui met en lumière comment Google, par son monopole de facto sur la recherche en ligne, a façonné non seulement l'accès à l'information, mais aussi la manière dont nous interagissons avec celle-ci. Vaidhyanathan, professeur de médias et d'études culturelles à l'Université de Virginie, souligne que la domination de Google s'étend bien au-delà du moteur de recherche, influençant tout, des publicités ciblées à la collecte de données personnelles, ce qui a des répercussions directes sur la manière dont les réseaux sociaux fonctionnent aujourd'hui.

Au début, le World Wide Web était excitant et ouvert jusqu’à l’anarchie, un vaste et intimidant dépôt de confusion non indexée. Dans ce chaos créatif, Google est entré avec sa mission éblouissante : « Organiser l’information du monde et la rendre accessible à tous » (To organize the world’s information and make it universally accessible), ainsi que sa devise souvent citée « Ne soyez pas mauvais » (Don’t be evil). Dans ce livre provocateur, Siva Vaidhyanathan examine la manière dont nous avons utilisé et adopté Google et la résistance croissante à son expansion à travers le monde. Il expose le côté sombre de nos fantasmes sur Google, en soulevant les questions relatives à la propriété intellectuelle. Il évalue l’impact global de Google, en particulier en Chine, et explique l’effet insidieux de la googlisation sur notre façon de penser. Enfin, Vaidhyanathan propose la construction d’un écosystème Internet conçu pour bénéficier au monde entier et empêcher une entreprise brillante et puissante de tomber dans le « mal » qu’elle s’était engagée à éviter.

 

"LIVING AND THINKING WITH GOOGLE

"As with any system of belief, ideologies underlying the rise of Google have helped shape the worldview of those who created it as well as those who use and believe in it. For some, seeking wisdom and guidance in navigating the world in the early years of the twenty-first century,  Google looks like the model for everything and the solution to every  problem.To most people, Google seems helpful and benevolent. For some would-be reformers, particular practices of the company demand scrutiny within the faith. For apostates, Google has fallen from its heights of moral authority.Google’s ideological roots are well documented. Google’s founders and early employees believe deeply in the power of information technology to transform human consciousness, collective and individual. Less well understood are the theories that inform how Google interacts with us and how we interact with Google. Increasingly, Google is the lens through which we view the world. Google refracts, more than reflects, what we think is true and important. It fi lters and focuses our queries and explorations through the world of digitized information. It ranks and links so quickly and succinctly, reducing the boiling tempest of human expression into such a clean and navigable list, that it generates the comforting and perhaps necessary illusion of both comprehensiveness and precision. Its process of collecting, ranking, linking, and displaying knowledge determines what we consider to be good, true, valuable, and relevant. The stakes could not be higher.

 

Comme tout système de croyance, les idéologies qui sous-tendent l'essor de Google ont contribué à façonner la vision du monde de ceux qui l'ont créé, ainsi que de ceux qui l'utilisent et y croient. Pour certains, en quête de sagesse et de conseils pour naviguer dans le monde des premières années du XXIe siècle, Google apparaît comme le modèle à suivre et la solution à tous les problèmes. Pour certains réformateurs en herbe, certaines pratiques de l'entreprise exigent un examen approfondi de la part des croyants. Pour les apostats, Google a perdu son autorité morale. Les racines idéologiques de Google sont bien documentées. Les fondateurs et les premiers employés de Google croient profondément au pouvoir des technologies de l'information pour transformer la conscience humaine, collective et individuelle. Les théories qui sous-tendent la manière dont Google interagit avec nous et dont nous interagissons avec Google sont moins bien comprises. De plus en plus, Google est la lentille à travers laquelle nous voyons le monde. Google réfracte, plus qu'il ne reflète, ce que nous pensons être vrai et important. Il filtre et concentre nos requêtes et nos explorations dans le monde de l'information numérisée. Il classe et relie si rapidement et succinctement, réduisant la tempête bouillante de l’expression humaine en une liste si claire et navigable, qu’elle génère l’illusion réconfortante et peut-être nécessaire d’exhaustivité et de précision. Son processus de collecte, de classement, de mise en relation et d’affichage des connaissances détermine ce que nous considérons comme étant bon, vrai, valable et pertinent. Les enjeux ne pourraient être plus élevés.

 

 For those of us who trudge through torrents of data, words, sounds, and images, Google has become a blessing. More than guiding us to answers and opportunities, it fi lters out noise: it prevents us from being distracted by the millions of documents that might serve our needs by guessing fairly accurately what we do need. So it’s almost impossible to imagine living a privileged, connected, relevant life in the early twentyfi rst century without Google. It has become a necessary — seemingly natural — part of our daily lives. How and why did this happen? What are the ramifi cations of such widespread dependence?

 

Pour ceux d’entre nous qui traversent des torrents de données, de mots, de sons et d’images, Google est devenu une bénédiction. Plus que de nous guider vers des réponses et des opportunités, il met en valeur le bruit : il nous empêche d’être distraits par les millions de documents qui pourraient servir nos besoins en devinant assez précisément ce dont nous avons besoin. Il est donc presque impossible d’imaginer vivre une vie privilégiée, connectée et pertinente au début du XXe siècle sans Google. Cela est devenu une partie nécessaire — apparemment naturelle — de notre vie quotidienne. Comment et pourquoi cela s’est-il produit? Quelles sont les conséquences d’une telle dépendance généralisée?

 

To answer those questions, we must ask some other hard questions about how Google is not only “creatively destroying” established players in various markets but also altering the very ways we see our world and ourselves.If Google is the dominant way we navigate the Internet, and thus the primary lens through which we experience both the local and the global, then it has remarkable power to set agendas and alter perceptions. Its biases (valuing popularity over accuracy, established sites over new, and rough rankings over more fl uid or multidimensional models of presentation) are built into its algorithms. And those biases affect how we value things, perceive things, and navigate the worlds of culture and ideas. In other words, we are folding the interface and structures of Google into our very perceptions. Does anything (or anyone) matter if it (or she) does not show up on the fi rst page of a Google search?

 

Pour répondre à ces questions, nous devons poser d’autres questions difficiles sur la façon dont Google ne se contente pas de « détruire par la créativité » les acteurs établis dans divers marchés, mais modifie également la manière même dont nous voyons notre monde et nous-mêmes. Si Google est la façon dominante de naviguer sur Internet, et donc le principal prisme par lequel nous expérimentons à la fois le local et le global, alors il a un pouvoir remarquable pour fixer des agendas et modifier les perceptions. Ses biais (valoriser la popularité par rapport à l’exactitude, les sites établis par rapport aux nouveaux et les classements approximatifs par rapport à des modèles de présentation plus fluides ou multidimensionnels) sont intégrés dans ses algorithmes. Et ces préjugés influent sur la façon dont nous valorisons les choses, percevons les choses et naviguons dans le monde de la culture et des idées. En d’autres termes, nous plions l’interface et les structures de Google dans nos propres perceptions. Est-ce que quelque chose (ou quelqu’un) importe si cela (ou elle) n’apparaît pas sur la première page d’une recherche Google?

 

Here are some of the big questions facing us in the coming years: Who—if not Google—will control, judge, rank, fi lter, and deliver to us essential information? What is the nature of the transaction between Google’s computer algorithms and its millions of human users? How 

have people been using Google to enhance their lives? Is it the best possible starting point (or end point) for information seeking? What is the future of expertise in an age dominated by Google, bloggers, and Wikipedia? Are we headed down the path toward a more enlightened age and enriching global economy, or are we approaching a dystopia of social control and surveillance?

 

IMAGINEERING GOOGLIZATION

This book employs what I call a “technocultural imagination.” A person who relies on a technocultural imagination asks these sorts of questions: Which members of a society get to decide which technologies are developed, bought, sold, and used? What sorts of historical factors influence why one technology “succeeds” and another fails? What are the cultural and economic assumptions that infl uence the ways a technology works in the world, and what unintended consequences can arise from such assumptions? Technology studies in general tend to address several core questions about technology and its effects on society (and vice versa): 

To what extent do technologies guide, infl uence, or determine history? To what extent do social conditions and phenomena mold technologies? Do technologies spark revolutions, or do concepts like revolution raise expectations and levels of effects of technologies?

 

Ce livre utilise ce que j’appelle une « imagination technoculturelle ». Une personne qui s’appuie sur une imagination technoculturelle pose ce genre de questions : quels membres d’une société décident quelles technologies sont développées, achetées, vendues et utilisées? Quels sont les facteurs historiques qui expliquent pourquoi une technologie « réussit » et une autre échoue? Quelles sont les hypothèses culturelles et économiques qui influencent le fonctionnement d’une technologie dans le monde, et quelles conséquences imprévues peuvent découler de telles hypothèses? Les études technologiques ont généralement tendance à aborder plusieurs questions fondamentales sur la technologie et ses effets sur la société (et vice versa) : dans quelle mesure les technologies guident-elles, influencent-elles ou déterminent-elles l’histoire? Dans quelle mesure les conditions sociales et les phénomènes façonnent-ils les technologies? Les technologies sont-elles des révolutions, ou bien des concepts comme la révolution suscitent-ils des attentes et des niveaux d’effets des technologies ? ..."

 

The chapters that follow attempt to answer such questions. The first two chapters explore the moral universe of Google and its users. I don’t really care if Google commits good or evil. In fact, as I explain below, the slogan “Don’t be evil” distracts us from carefully examining the effects of Google’s presence and activity in our lives...."


"The Net Delusion: The Dark Side of Internet Freedom", Evgeny Morozov (2011)

Evgeny Morozov, chercheur et essayiste biélorusse spécialisé dans les impacts sociaux, politiques et culturels des nouvelles technologies, est surtout connu pour ses critiques acerbes à l'égard de tout optimisme technologique. Dans "The Net Delusion", il conteste l'idée répandue selon laquelle Internet favoriserait automatiquement la démocratie et la liberté. Il y explique comment les régimes autoritaires peuvent aussi utiliser les technologies numériques pour réprimer les opposants, surveiller les citoyens et manipuler l'opinion publique. mais comment aussi, tout autant, gouvernements, entreprises et autres acteurs de nos démocraties utilisent la technologie pour consolider leur pouvoir, souvent au détriment des droits humains. Morozov encourage donc à considérer les implications éthiques, politiques et sociales des nouvelles technologies avant de les adopter aveuglément.

Dans "To Save Everything, Click Here: The Folly of Technological Solutionism" (2013), il s'attaque à ce qu'il appelle le «solutionnisme technologique», l'idée que tous les problèmes sociaux, politiques ou personnels peuvent être résolus par la seule technologie. Il argue que cette approche simpliste ignore la complexité des problèmes humains et peut même aggraver certains d'entre eux ...