Big Brother : un mythe à déconstruire
1984 est-il toujours opérant pour penser les formes de surveillance contemporaines ?
Les débats à l’Assemblée Nationale autour du projet StopCovid n’y ont pas échappé : dès lors que la surveillance numérique et le traçage de nos comportements en ligne sont sur la table, les références orwelliennes sont toujours promptes à apparaître. Tout comme il existe un « point Chine » ou un « point Black Mirror », le « point Big Brother » est une constante qui a la fâcheuse tendance à limiter tout débat sur l’éthique de la technologie en elle-même.
Big brother partout, surveillance nulle part
Sept décennies après la publication de 1984 de George Orwell, Big Brother demeure la métaphore incontournable pour aborder la surveillance, servie ad nauseam, quitte à friser l’absurde (cf le site Wired qui n’hésite pas à titrer : « Quand l’oignon frit rencontre 1984 »1, pour évoquer la vidéosurveillance d’une franchise de steak…). C’est bien clair : 1984 et Big Brother écrasent toutes les métaphores à plate couture lorsqu’il s’agit de faire peur. En 2013, après les révélations d’Edward Snowden dévoilant l’ampleur de la surveillance mise en place par la NSA, le livre d’Orwell se classait parmi les best-sellers sur Amazon. Rebelote en 2017, où, une semaine après l’investiture de Donald Trump à la Maison Blanche, le roman se hissait à nouveau en tête des ventes, un peu comme si le Ministère de la Vérité détenait la clé pour déchiffrer le président fraîchement élu. En 2014, une étude de PEN America2 a même révélé que dans plus de 100 articles consacrés à la surveillance, 1984 était, non pas la principale, mais la seule et unique référence littéraire utilisée. Preuve, s’il en fallait, qu’il serait temps de sortir hors du cadre orwellien pour penser la surveillance contemporaine.
Big Brother, Big Mother, Tiny Brothers…
Pourtant, lorsqu’il s’agit de proposer de meilleures métaphores, même les penseurs que l’on pourrait qualifier d’ « hétérodoxes » tournent inlassablement autour du même pot. Figure de proue de la technocritique, la célèbre sociologue Shoshana Zuboff, autrice de The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power parle ainsi de « Big Other » pour qualifier le système de surveillance mis en œuvre par les mastodontes du numérique à des fins de rentabilité. L’auteur de science-fiction français Alain Damasio, lui met en garde contre « Big Mother » et son « lait numérique » pour insister sur la dimension « couvante » de la surveillance numérique, tandis que le sociologue américain William G. Staples préfère parler des « Tiny Brothers », ces mécanismes « utilisés par les organisations publiques et privées et par les personnes qui ont autorité sur nous pour influencer nos choix et nos habitudes, suivre de près nos performances, et recueillir des informations sur nous »3. Piégée à son propre jeu, la critique de la surveillance peine à s’émanciper de la figure de son grand frère orwellien.
Pourquoi la métaphore s’essouffle
« Big Brother is watching you » : bien que la célèbre devise accroche, elle échoue à rendre compte de ce à quoi nous sommes confrontés au quotidien. D’abord parce que dans 1984, Orwell imagine un État totalitaire où le parti unique contrôle tout et surveille tout le monde, s’efforçant de briser le libre arbitre des citoyens. Ce n’est, a priori, pas le monde dans lequel nous vivons, ni celui vers lequel nous nous dirigeons. Si la surveillance existe et s’étend bel et bien, elle ne s’incarne pas dans une figure totalitaire mais plutôt dans la multiplicité de dispositifs hétérogènes et parfois absurdes. À l’instar de Ring, cette simple sonnette connectée devenue en quelques années le premier réseau de « surveillance individualisée de masse » aux États Unis. En décembre 2019, une enquête de Motherboard4 révélait que la start-up (rachetée en 2018 par Amazon) commercialisant des sonnettes avec caméras connectées, avait conclu des partenariats avec des forces de police locales, brouillant encore un peu plus les frontières entre surveillance publique et privée. Couplée à son application Neighbors, Ring permet aux habitants d’un même quartier de partager les enregistrements de leurs caméras et de signaler à leurs voisins tout individu ou comportement suspect. Et in fine, via un principe de « vigilance citoyenne », de se surveiller entre eux.
La référence à Big Brother passe sous silence cette surveillance horizontale, les imbrications entre le public et privé ainsi que la panoplie de « trucs et bidules connectés » que nous utilisons au quotidien. Pire, elle laisse à croire qu’elle se distribue de manière uniforme sur tous les citoyens, et non qu’elle s’applique de manière exacerbée sur les plus fragiles et marginalisés.
À force de cuisiner Big Brother à toutes les sauces, force est de constater que l’expression a perdu de sa substance, et ne permet pas de saisir avec précision la nature diffuse, discriminatoire et parfois absurde de la surveillance, qu’elle soit gouvernementale ou privée. Alors que la technologie de surveillance se complexifie, l’utilisation d’un langage juste et de métaphores plus précises permettrait de mieux informer celles et ceux qui vivent sous son regard, voire même d’inspirer à la maîtriser. Quitte à laisser derrière nous, une fois pour toute ce bon vieux George.
1 At an Outback Steakhouse Franchise, Surveillance Blooms, publié le 19 octobre 2019 sur le site de Wired
2 Sweep, Harvest, Gather: Mapping Metaphors to Fight Surveillance, étude publiée le 10 Avril 2014 par PEN America
3 How our culture of surveillance dictates our lives, publié le 24 Janvier 2014 sur USA Today
4 How Ring Went From ‘Shark Tank’ Reject to America’s Scariest Surveillance Company, publié le 3 décembre 2019 sur Motherboard
La sousveillance : un outil de réplique technologique citoyenne ?
Dans le contexte des manifestations mondiales contre les violences policières, l’impératif de « filmer la police » a refait surface, accompagné d’un épineux casse-tête éthique : un contrôle technologique et citoyen du pouvoir est-il possible ?
Il y a près de 2 000 ans, dans l’une de ses Satires, le poète romain Juvénal posait la question suivante : Quis custodiet ipsos custodes ?, à savoir « Mais qui donc garde les gardiens ? ». Cette locution, déclinable à l’infini (qui contrôle les contrôleurs ? qui juge les juges ? etc) est un point de départ qui nous mène à nous interroger : Mais qui donc surveille les surveillants ?
Filmer l’injustice
Historiquement, les violences racistes aux Etats-Unis ont souvent percé dans le débat public grâce à des images. En 1955, c’est une photographie du visage défiguré d’Emmett Till (âgé de 14 ans lorsqu’il a été kidnappé et lynché à mort parce qu’il était Noir et avait osé s’adresser à une femme blanche) qui marque un tournant dans le mouvement pour les droits civiques. Quelques décennies plus tard, ce seront des images filmées par un citoyen depuis son balcon montrant le passage à tabac de Rodney King par la police qui conduiront aux fameuses émeutes de Los Angeles en 1992 suite à l’acquittement des officiers impliqués.
Depuis, la pratique du « copwatching » s’est répandue en France, en témoignent les nombreuses blessures des gilets jaunes largement documentées ou encore l’intervention - tragique - sur le livreur Cédric Chouviat, elle aussi filmée et diffusée massivement. Pour Amal Bentounsi, membre du collectif « Urgence notre police assassine », la vidéo « est la seule arme citoyenne » efficace, poursuivant que sans vidéo de George Floyd, il n’y aurait « pas eu d’indignation mondiale »[1]. Et on est en droit de se le demander : si la jeune Darnella Frazier, en chemin pour retrouver ses amis n’avait pas filmé la scène à l’aide de son téléphone portable, la mort de George Floyd aurait-elle eu le même écho ?
Sousveiller pour mieux lutter
C’est ici qu’intervient la notion de sousveillance, théorisée par Steve Mann. Il y a trente-cinq ans, cet ingénieur (et pionnier des « wearable tech ») imaginait un monde où les caméras seraient devenues omniprésentes et en mesure de partager tout ce qu’elles filmaient. De là, est née l’idée que des millions de personnes avec des petites caméras pourraient collectivement tenir les autorités responsables de leurs actes en les filmant puis en diffusant les images. Ça vous rappelle quelque chose ?
L’idée est simple : si les organisations étatiques et commerciales disposent d’un nombre grandissant d’outils pour surveiller les citoyens, chacun d’entre nous a lui aussi à sa disposition un arsenal qui lui permet de produire et de diffuser des images à chaque instant (avec, en premier lieu, un smartphone dans la poche). Pourquoi alors ne pas se réapproprier ces outils de surveillance pour les détourner dans une forme de « réplique technologique citoyenne » ?
Ainsi, là où la « sur-veillance » désigne une modalité de contrôle où le regard vient d’au-dessus, de ceux qui détiennent le pouvoir, la « sous-veillance » est son miroir, où le regard vient d’en dessous, de ceux qui sont soumis à l’autorité. Pour Mann, la sousveillance serait une sorte de panoptique (au sens de Foucault) inversé. Elle désigne alors les capacités données à chaque citoyen de faire usage des dispositifs numériques pour « regarder d’en bas » les différentes formes de pouvoirs étatiques ou commerciaux.
Pour le chercheur Camille Alloing, « telle que conceptualisée par Steve Mann, la sousveillance peut donc être citoyenne, au sens où elle est pratiquée de manière réactive par un individu étant face à une situation où les « surveillants » semblent aller au-delà de leurs prérogatives ou de la loi dans l’espace public »[2]. L’enjeu est tout bête : il s’agit de responsabiliser les surveillants en retournant leurs outils contre eux, et laisser agir l’effet Hawthorne, selon lequel un individu a tendance à normaliser son comportement lorsqu’il se sait observé.
Un fantasme techno-utopien ?
Si l’idée de la sousveillance est séduisante en théorie, le MIT en liste les limites[3], dont la principale est que les preuves vidéo n’impliquent que trop peu la responsabilité de ceux qui sont filmés. En 2014, la mort d’Eric Garner étouffé par un policier a été filmée, et très largement diffusée sans que le policier en question n’ait été inculpé. Une étude menée à Washington en 2017[4] a par ailleurs démontré qu’obliger plus de 1000 policiers à porter une caméra embarquée pour filmer leurs interactions n’avait rien changé au problème : la différence de comportement entre les policiers qui se savaient surveillés et ceux qui savaient qu’ils ne l’étaient pas était statistiquement insignifiante. Une autre étude[5] a elle conclu que « le port de caméras embarquées augmente les agressions contre les policiers et ne réduit pas l’usage de la force par la police ».
Le MIT conclut que « l’espoir que des caméras omniprésentes puissent à elles seules contrebalancer le racisme systémique » est « un fantasme techno-utopien »… Pour autant il est important de reconnaître où la sousveillance nous a menée jusqu’à présent : pour mobiliser contre une injustice donnée, il faut d’abord qu’il y ait un consensus sur l’existence de cette injustice. Mais si aujourd’hui, la sousveillance permet indéniablement de prouver l’existence d’abus systémiques généralisés et de provoquer l’indignation morale, sa capacité à opérer un véritable changement reste encore à démontrer.
Sources :
- « “Le Copwatch” : quand filmer les forces de l’ordre devient un rempart aux dérives » publié le 13/06/2020 sur LEXPRESS.fr
- « La sousveillance. Vers un renseignement ordinaire », Camille Alloing, 2016
- « Why filming police violence has done nothing to stop it », publié le 03/06/2020 par le MIT Technology Review
- « Evaluating the Effects of Police Body-Worn Cameras : A Randomized Controlled Trial », David Yokum, Anita Ravishankar, Alexander Coppock, 2017
- « Wearing body cameras increases assaults against officers and does not reduce police use of force: Results from a global multi-site experiment », European Journal of Criminology 2016
Peut-on tromper les algorithmes ?
Comment échapper, résister, voire saboter la surveillance numérique ? À rebours des appels à la déconnexion, les partisans de l’obfuscation nous invitent à déployer une multitude de données personnelles dans l’optique de duper les radars.
En 2009, deux chercheurs taïwanais font une découverte étonnante : des petites araignées originaires du Pérou semblent sans aucune raison apparente sculpter de fausses araignées sur leurs toiles à partir de débris de plantes et d’insectes morts. Rapidement, ils réalisent que cette tactique permet aux cyclosa mulmeinensis de créer des leurres et de tromper leurs prédateurs afin de leur échapper. Quel rapport avec le numérique, nous direz-vous ?
Construire des leurres numériques pour brouiller ses traces
À la manière des cyclosa mulmeinensis, les universitaires Helen Nissenbaum et Finn Brunton défendent la mise en place de « leurres numériques » via la technique de l’obfuscation, qu’ils définissent comme le fait de « produire délibérément des informations ambigües, désordonnées et fallacieuses et à les ajouter aux données existantes afin de perturber la surveillance et la collecte des données personnelles »[1]. Car la dure réalité est que, dans notre monde hyper surveillé, nous ne disposons pas d’une pléthore d’options lorsqu’il s’agit de rendre nos données illisibles… Nous pouvons les détruire (tout simplement), les chiffrer, ou encore, et c’est l’option qui nous intéresse, les « empoisonner », c’est-à-dire les noyer dans un océan d’informations factices.
Dans la vie de tous les jours, pratiquer l’obfuscation signifie simplement « noyer le poisson » : c’est par exemple, pour un avocat, le fait de communiquer le maximum de pièces à son adversaire la veille d’une audience dans l’espoir d’enterrer un détail crucial. En informatique, l’obfuscation consiste à submerger un programme avec du code sans lien apparent. Pour nous autres, il s’agit d’utiliser une multitude de méthodes pour inonder nos profils d’informations contradictoires. Bref, une véritable campagne de « désinformation personnelle » pour duper les algorithmes des plateformes en enveloppant ses informations personnelles de « bruit », et rendre leur identification plus longue et contraignante.
Dans un contexte d’asymétrie de pouvoir évident entre plateformes et utilisateurs, l’obfuscation s’apparente à une manœuvre de judo ingénieuse. Une manière de construire des leurres numériques, à la manière des araignées cyclosa, pour renverser ses prédateurs. C’est un moyen pour les personnes en position de faiblesse relative - c’est-à-dire nous tous, par rapport à Google, Facebook, et consorts - de se défendre, et d’exploiter la faiblesse inhérente de nos adversaires, à savoir un appétit insatiable pour les données. La philosophie qui sous-tend l’obfuscation, ce n’est donc pas d’échap ;per à la surveillance ni de s’y opposer frontalement. C’est plutôt d’accepter ses propres limites face à des acteurs plus puissants et tenter de trouver des brèches dans lesquelles inscrire sa résistance.
Mais plus largement, pour Helen Nissenbaum et Finn Brunton, avoir recours à l’obfuscation, ce n’est pas seulement défendre sa propre vie personnelle, c’est aussi combattre le modèle économique des plateformes de l’intérieur. En polluant les données collectées par les traqueurs publicitaires, celles-ci perdent alors toute leur valeur et leur intérêt commercial. Pour reprendre les termes employés par les deux chercheurs, l’obfuscation, serait « l’arme des faibles », utilisée pour se donner les moyens d’agir en faveur d’une plus grande protection de la vie privée, et créer une friction, un glitch, dans les rouages d’un modèle économique prédateur.
Une stratégie d’autodéfense numérique ?
Pourquoi alors, malgré la répétition des scandales liés aux données, l’obfuscation ne s’est-elle pas démocratisée ? Ce ne sont pourtant pas les outils qui manquent : on peut citer Ad Nauseam[2], qui clique sur toutes les publicités de manière aléatoire et permet d’envoyer simultanément des dizaines de requêtes parallèles sur des sujets sans aucun lien apparent. C’est aussi le navigateur sécurisé Tor, qui brouille l’activité en ligne avec celle des autres utilisateurs de Tor. Ou encore l’extension de navigateur Go Rando[3], qui choisit au hasard des « réactions » sur Facebook, et le projet HyperFace qui consiste à perturber les systèmes de reconnaissance faciale - non pas en cachant un visage donné, mais en créant l’illusion de plusieurs visages[4].
Plus récemment, le projet de navigation incognito lancé par Mozilla, Track This[5], promet de tromper les entreprises de retargeting un peu trop indiscrètes en créant un double numérique à l’opposé de ses habitudes de consommation. Le principe est simple (même si la réalisation est plus fastidieuse) : une fois un faux profil de consommateur sélectionné, Track This ouvre 100 onglets correspondants (pour le profil « influenceuse », il s’agira de sites de produits de beauté comme Glossier ou Goop, de compléments alimentaires, de pantalons de yoga, d’agences de voyage etc) et inonde ainsi les traqueurs publicitaires d’informations non pertinentes.
Vous l’aurez compris, l’obfuscation mobilise des tactiques toutes plus ingénieuses les unes que les autres et offre les moyens de sortir d’une forme de résignation face à la surveillance numérique. Mais elle reste pour l’instant de l’ordre du bricolage et ne parvient pas à renverser l’asymétrie de pouvoir flagrante entre plateforme et utilisateurs… À part si tout le monde s’y met ?
Sources :
- « Obfuscation. La vie privée, mode d’emploi », Helen Nissenbaum, Finn Brunton, 2019
- https://adnauseam.io/
- https://bengrosser.com/projects/go-rando/
- « Why filming police violence has done nothing to stop it », publié le 03/06/2020 par le MIT Technology Review
- « Anti-surveillance clothing aims to hide wearers from facial recognition », publié le 04/01/17 sur The Guardian
- https://trackthis.link/
Sommes-nous condamnés à « doomscroller » ?
Ces derniers mois, un mal étrange a rongé toute une partie de l’humanité : celui de consulter frénétiquement sur ses écrans des informations exclusivement négatives. Ce mal a un nom : bienvenue dans l’ère du « doomscrolling ».
Depuis huit mois maintenant, notre quotidien a la fâcheuse tendance à se répéter, inlassablement. Chaque soirée s’achève comme la journée a commencé : dans un flux continu de nouvelles, a priori plutôt mauvaises, ingéré en passant d’un écran à l’autre - téléphone, tablette, ordinateur portable, télévision. Dans une recherche désespérée de clarté, nous sommes nombreux à faire défiler, résignés, une cascade d’informations toutes plus désastreuses les unes que les autres sur nos écrans, de préférence avant de nous coucher, effaçant par la même occasion tout espoir d’une bonne nuit de sommeil. Comment sortir de ce vortex infernal ?
Scroller jusqu’aux abysses…
Cette pratique consistant à parcourir sans relâche les réseaux sociaux et à engloutir sans fin des informations exclusivement négatives a désormais un nom : le doomscrolling. Trouvant son origine sur Twitter en 2018, pour Ariane Ling, chercheuse en psychiatrie à l’université de New York, il fait référence à « l’acte de faire défiler sans fin ses applications d’information, Twitter et les réseaux sociaux et d’y consulter des mauvaises nouvelles »1. Et que ce soit la pandémie (évidemment) mais aussi le terrorisme, les catastrophes naturelles (incendies en Californie, en Australie, l’ouragan Iota), la crise économique ou encore les vidéos de violences policières : 2020 nous aura apporté son lot d’occasions propices à nous désespérer, nous énerver, nous indigner mais avant toute chose… à nous faire scroller ! Pourtant, vous vous en doutez, le passage en revue systématique de toute l’actualité sur des faits en grande majorité négatifs, dont les circonstances échappent par ailleurs en grande partie à notre contrôle n’est a priori pas le meilleur outil pour doper notre moral (et, a fortiori encore moins si c’est fait à 1h de matin, au lit).
Si l’on peut bien sûr accuser les algorithmes de recommandation de nos chers réseaux sociaux d’en être à l’origine – leur design n’arrange rien, il faut bien l’admettre – cette accoutumance compulsive à des informations négatives s’avère pourtant bien plus complexe. Selon la professeure de psychologie clinique Mary McNaughton-Cassill, nous serions prédisposés à accorder plus d’attention aux informations négatives qu’aux informations positives, car notre cerveau serait instinctivement à l’affût de potentiels dangers2. Qui plus est, nous vivons une période où chaque nouvel article, flash info ou tweet a le pouvoir de nous communiquer des informations cruciales ayant un effet direct sur nos vies. Le moment que nous vivons encourage donc une forme d’hypervigilance et nous sommes logiquement à la recherche d’informations dans l’espoir de trouver une réponse, un moyen de reprendre le contrôle. En bref, les circonstances actuelles, notre tendance à privilégier le négatif, ainsi que les algorithmes des réseaux sociaux, rendent le doomscrolling (et ses conséquences) presque inévitables.
Le syndrome du grand méchant monde
Ce phénomène n’est pourtant pas nouveau. Dans les années 70 déjà, le sociologue américano-hongrois George Gerbner pointait du doigt le syndrome du grand méchant monde (en VO, « Mean World Syndrome »). Étudiant l’impact de la télévision sur la société américaine, ses recherches ont révélé que les gens qui regardent beaucoup la télévision (« heavy viewers ») ont tendance à considérer le monde comme plus impitoyable, effrayant et dangereux qu’il ne l’est en réalité. Et le doomscrooling peut entraîner les mêmes effets à long terme sur la santé mentale : absorber quotidiennement tout le chaos du monde nous rend plus enclins à une vision anxiogène, et conduit, in fine, à un plus haut niveau de stress. Alors, comment guérir ce mal du siècle ? En Suisse, voilà 10 ans qu’a ouvert une clinique pour « guérir les accros d’info »3. Mais en attendant d’être tous hospitalisés, quelques petites actions à faire pour regarder moins d’atrocités en boucle sont accessibles : fixer des horaires pour consulter les informations, désactiver ses notifications, vérifier périodiquement la raison pour laquelle vous avez ouvert votre téléphone (ai-je trouvé l’information que je cherchais ? Si oui, je n’ai plus besoin de le consulter), prendre des actions pour ne pas demeurer passif face à un défilement d’informations révoltantes (s’engager en ligne, apporter son soutien, etc). Car si s’informer est essentiel, s’assommer volontairement d’un tourbillon de négativité n’est, de prime abord, bénéfique pour personne.
Gleefreshing : la lumière au bout du tunnel ?
La découverte d’un vaccin, la défaite de Donald Trump : si vous avez suivi ces informations compulsivement avec anticipation plutôt qu’avec crainte, si vous avez frénétiquement envoyé des mèmes sur Pfizer ou visionné en boucle des vidéos d’explosion de joie dans les rues de Philadelphie, alors vous avez été atteint de « gleefreshing », soit l’exact inverse du doomscrolling4. Il y a même un peu de « schadenfreude » dans notre consommation récente des réseaux sociaux, ce terme allemand qui désigne la joie éprouvée devant le malheur des autres (la joie de constater la mine défaite de Donald Trump au lendemain de l’annonce de la victoire de Joe Biden, par exemple). Car si la pandémie est loin d’avoir cessé, que le réchauffement climatique promet son lot de défis à venir et qu’une vague de pauvreté s’abat sur l’Europe, profitons des bonnes nouvelles tant qu’elles arrivent… Et prions très fort pour que 2021 soit l’année du gleefreshing.
1 « Doomscrolling Isn’t Helping Our Well Being Warn Experts » , Forbes, Septembre 2020
2 « Doomscrolling: Why We Just Can’t Look Away », Wall Street journal, Juin 2020
3 « Une “clinique” pour guérir les accros d’info », L’Express, Avril 2011
4 « We’re No Longer Doomscrolling. Now We’re Gleefreshing », Slate, Novembre 2020
Covid-19 : l’IA à l’épreuve de la réalité
Depuis les années 2010, l’intelligence artificielle promet monts et merveilles via la collecte et la mise en corrélation de données. La crise sanitaire a mis en évidence la fragilité de ces présages. L’occasion de réactualiser certaines prophéties ?
Promesses versus réalité
Cela aurait dû être son heure de gloire. Avec des milliards de dollars investis ces dernières années, l’IA - souvent présentée comme une solution miracle, capable d’émanciper l’humanité voire de la sauver de la mort - tenait là son occasion de briller. Rappelez-vous : au début des années 2010, certains (comme le Guardian ou encore la Harvard Business Review) n’hésitaient pas à prophétiser la disparition des médecins au profit d’algorithmes super-intelligents. Avec son entité Calico, Google promettait même de résoudre la mort comme si elle n’était qu’une vulgaire équation. Vaincre la mort grâce aux algorithmes, la promesse était belle. En une de son magazine, le Time s’interrogeait sérieusement : « Can Google solve death ? » (Google peut-il sauver de la mort ?). Comme souvent en matière d’IA, la prospective tourne alors à plein régime. Mais force est de constater que dix ans plus tard, la crise de la Covid-19 a démontré la fragilité de ces promesses. Et que les prophéties dantesques de la « mort de la mort » ont buté sur le réel.
Dans le même temps, la capacité de l’IA à combattre le coronavirus a fait l’objet d’un grand battage médiatique. En partie justifié. La pandémie a mis en évidence l’utilité d’un certain nombre de modèles d’intelligence artificielle - que ce soit dans le champ médical (biochimie du virus, diagnostic, tri des patients ) ou hors médical (livraison à domicile, télétravail, modération). Mais ils ont aussi prouvé leurs limites. L’IA n’a pas, comme certains le prétendent, prédit la pandémie avant l’homme (c’est la solution tout à fait « low tech » Promed qui a lancé l’alerte en premier ), ni permis d’éviter les solutions « archaïques » du confinement ou du traçage humain. En clair, on pourrait rejoindre l’analyse du très respecté spécialiste en intelligence artificielle Kai-Fu Lee : le bilan de l’IA dans la lutte contre la Covid est, en somme, assez décevant (il vaudrait selon lui un « B-moins »). Et Kai-Fu Lee est tout sauf un technophobe destructeur d’antennes 5G : en 2016, il présentait même un TED Talk intitulé « Comment l’IA peut sauver l’humanité » , c’est dire !
Un « signal d’alarme »
La crise de la Covid a marqué un avertissement pour un certain nombre de domaines : écologie, économie, inégalités sociales, etc. Mais pour Gary Marcus, docteur en sciences cognitives du MIT, elle devrait aussi être un « signal d’alarme » pour l’IA. « Nous voudrions une IA capable de raisonner de manière causale, capable d’éliminer la désinformation. Nous voudrions pouvoir guider les robots afin de maintenir les humains hors de situations dangereuses, prendre soin des personnes âgées. L’IA existe depuis 60 ans et je ne pense pas qu’il soit déraisonnable de souhaiter que nous ayons déjà accompli un certain nombre de ces choses. Mais l’IA que nous avons actuellement à notre disposition s’applique à des jeux, à la transcription voire même à des aspirateurs. Elle est vraiment très loin de ce qu’on nous avait promis.»
On ne peut que rejoindre son constat, à savoir qu’une grande partie des recherches en IA a été consacrée à des technologies qui n’aident pas franchement le monde de manière significative (citons, au hasard, le sèche-cheveux intelligent, la gamelle pour chat « boostée à l’IA », mais aussi, plus sérieusement, le ciblage publicitaire). Il y a près de 10 ans, un des premiers employés de Facebook, responsable du département « data » de l’entreprise avait cette phrase, restée célèbre depuis « The best minds of my generation are thinking about how to make people click ads » («Les meilleurs esprits de ma génération réfléchissent à la manière de faire cliquer les gens sur les annonces »). Aujourd’hui 10 ans plus tard, l’épiphanie de ce jeune ingénieur, Jeff Hammerbacher, reste d’actualité : les esprits les plus brillants de notre génération travaillent toujours à nous faire cliquer sur des pubs, et une grande partie de la recherche en IA menée par les géants du numérique s’oriente vers cet objectif. Il y a bel et bien un gouffre entre promesses et réalité.
Aujourd’hui le discours simplificateur selon lequel l’IA pourrait « remplacer les médecins » paraît terriblement présomptueux au vu des images d’hôpitaux débordés et du dévouement du personnel soignant. Plus largement, quelle que soit la meilleure voie à suivre, la leçon d’humilité donnée par la pandémie devrait servir à motiver les chercheurs en IA à repenser les problèmes qu’ils et elles essaient de résoudre. La crise sanitaire est un avertissement, une inspiration pour mettre fin aux promesses en carton et aux applications inutiles voire néfastes à la société, afin de faire de l’IA un outil qui peut vraiment faire une différence. Le monde évolue à toute vitesse et il est temps que l’orientation des recherches en IA change tout autant.
Dites bonjour au splinternet !
Guerre sino-américaine, censure, réglementations tous azimuts : le rêve du « World Wide Web », un internet globalisé et universel, recule à petits pas pour laisser place à un espace numérique fragmenté. Plongée géopolitique dans l’ère du « splinternet ».
Une « balkanisation » d’internet
Et hop, encore un mot-valise ! Quelques décennies après sa naissance, le bilan du « World Wide Web » fait grise mine et cède le passage à ce qu’on appelle désormais le « splinternet » (contraction de « split » donc, et de « internet »). Concrètement, le splinternet renvoie à un une « balkanisation » d’internet, soit, pour le dire plus clairement, à une fragmentation du réseau tel que nous le connaissons en plusieurs réseaux autonomes.
Ce constat, pourtant, peut sembler un brin déconcertant. Si l’on regarde autour de nous, force est de constater que ce sont quelques géants technologiques qui assoient un contrôle toujours plus envahissant sur nos espaces en ligne. Google, Facebook et consorts sont omniprésents, ce qui, de prime abord, laisserait plutôt penser à une centralisation qu’à une « balkanisation ». Pourtant, depuis quelque temps déjà, l’idée du splinternet fait son petit bonhomme de chemin. Le premier à l’avoir évoqué, le libertarien Clyde Wayne Crews, appelait dès 2001 à ce fameux splinternet dans une tribune intitulée « One Internet is not enough » (Un seul Internet ne suffit pas). Plus récemment, ce n’est autre que l’ancien patron de Google, Eric Schmidt, qui s’inquiétait des conséquences d’une telle scission. Pour le Forum économique mondial, le splinternet a déjà eu lieu et son rapport « Future of the Internet » estime qu’il se décline sur trois niveaux : technique, politique et commercial.
Mais qu’est-ce que le splinternet impliquerait concrètement aujourd’hui ? Tout bonnement la fin du World Wide Web, au profit d’un patchwork de territoires numériques concurrents et conflictuels. À ses débuts, Internet a été conçu comme un réseau mondial dans lequel l’information pouvait circuler sans presque aucune limite, sans la moindre attention portée aux frontières. Ça, c’était donc la théorie. En pratique, les choses ont tourné un peu différemment.
Un empire au « 4 royaumes »
Si aujourd’hui le splinternet est sur toutes les lèvres, c’est que son scénario se précise. Ce 2 février 2021, l’ancien président russe Dmitri Medvedev a annoncé que la Russie était « prête » à se déconnecter de l’Internet mondial. Ce tour de force fait suite au projet de loi dit « sur la souveraineté numérique », puis à une « opération déconnexion » menée en grandes pompes en 2019. Son but : tester la robustesse de Runet, un réseau souverain russe, parallèle à Internet, et donc in fine la possibilité pour le pays de s’affranchir du terrain de jeu mondial. Et si des voix critiques se sont élevées pour qualifier le projet de loi de « rideau de fer de l’Internet », propice à faciliter la censure des contenus politiques dissidents, force est de constater que la Russie avance à grands pas dans cette direction.
Contrairement à la Russie, la Chine elle ne cherche pas à développer son propre réseau souverain, mais à renforcer son contrôle sur le réseau existant. Vous avez déjà certainement entendu parler de la « grande muraille numérique » par le biais duquel Pékin bloque l’accès à Google, Youtube, Facebook, Instagram entre autres, mais aussi à de nombreux sites d’information occidentaux. Dernière cible en date du fer de lance chinois : l’application Clubhouse, censurée après quelques semaines seulement d’activité. Une censure qui ne semble pas avoir pris les utilisateurs chinois de court, qui se réunissaient au sein de l’application sur des groupes de discussion tels que « Avez-vous été invité à prendre le thé pour avoir utilisé Clubhouse ? ». À savoir qu’en Chine, « être invité à prendre le thé » est un moyen détourné pour signifier que l’on se fait interroger par la police. Autant dire que le sort subi par Clubhouse n’a pas surpris grand monde.
Mais sur l’échiquier politique, il n’y a pas que la Chine et la Russie qui interdisent les logiciels étrangers et renforcent leur souveraineté numérique. À Washington, tant les démocrates que les républicains ont soutenu le combat de Donald Trump contre TikTok ou WeChat, tandis que le FBI a pour sa part acté que toute application russe était une « menace potentielle ». Du côté de l’UE, c’est un splinternet un peu plus « doux » qui se dessine, avec Thierry Breton aux manettes pour faire plier les Big Tech aux réglementations européennes, par le biais notamment du Digital Services Act et du Digital Markets Act. En clair : chacun trace son chemin !
Tout se passe donc comme si plusieurs versions du Web émergeaient, avec des enjeux technologiques, mais aussi politiques mondiaux. La conséquence directe de ces différentes stratégies serait, d’après les chercheurs en informatique Kieron O’Hara et Wendy Hall, la création d’un empire numérique aux « 4 royaumes » (Chine, États-Unis, Russie et UE), avec des règles et un fonctionnement distincts pour chacun.
Aujourd’hui, il faudrait donc parler des internets - au pluriel - avec des systèmes différents, voire rivaux. Des systèmes plus fragmentés, où chaque espace géographique disposerait de sa propre bulle de contenu et de services, en lieu et place d’un patrimoine commun d’information et d’interconnexion. Le splinternet est-il pourtant une si mauvaise chose ? Si certains hurlent au loup, d’autres pointent du doigt l’utopie du « World Wide Web » comme étant avant tout américaine, et surtout née obsolète. Après tout, l’Internet libre, ouvert et mondialisé a-t-il déjà vraiment existé ? Rien de moins certain !
Pouvons-nous sortir de nos cocons numériques ?
Le célèbre écrivain de SF Alain Damasio aime à parler de « technococon », d’autres préfèrent le qualificatif de « bulles » numériques. La technologie nous enferme-t-elle vraiment ? Et si oui, comment en échapper ?
Avant les bulles : les « petites boîtes »
Dès les années 2000, le chercheur canadien Barry Wellman théorise le changement causé par l’irruption d’Internet dans la structure de nos relations sociales à l’aide de la métaphore des « petites boîtes ». Selon lui, nous vivions jusque dans les années 80 dans une société dite de « petites boîtes » (en référence à « Little Boxes », chanson contestataire et classique de la folk des années 60), des univers étanches avec des liens très forts au sein de petites communautés. Puis, toujours selon Wellman, l’avènement d’Internet et des réseaux sociaux, en permettant une explosion des possibilités de connexions sociales, aurait provoqué la bascule d’une société caractérisée par une petite quantité de « liens forts » vers une nouveau mode d’organisation aux multiples « liens faibles ». Faisant, par la même occasion, voler en éclat nos fameuses « petites boîtes ».
Pourtant, aujourd’hui, la plupart des plateformes sociales (Facebook en tête) n’affichent plus pour ambition de « connecter le monde » comme c’était le cas à leurs débuts mais insistent plutôt sur leur mission de créer des « communautés » Le changement de slogan opéré par Mark Zuckerberg en 2017 est à ce titre révélateur : l’ambitieux « Making the world more open and connected » a laissé place au plus doux « Give people the power to build communities and bring the world closer together ». Plus question donc, de connecter à tort et à travers, mais plutôt de solidifier des espaces clos au sein desquels les utilisateurs se sentent à leur aise.
Les « bulles de filtres » : fable ou réalité ?
En parallèle de ce retour en force des communautés, l’analyse en termes de bulles s’est généralisée pour illustrer la manière dont les réseaux nous enferment. Il y a pile dix ans, l’activiste Eli Pariser parlait pour la première fois dans un célèbre TED Talk de « bulles de filtres », expliquant par là que les algorithmes des réseaux sociaux nous emprisonnent dans nos certitudes. En ligne, nous évoluerions dans une bulle informationnelle qui nous expose exclusivement à des opinions que l’on partage déjà (à savoir, pour l’illustrer simplement, des contenus de gauche si vous êtes de gauche, des contenus de droite si vous êtes de droite). Depuis, l’expression est régulièrement convoquée pour expliquer tout un tas de travers contemporains allant de la polarisation des idées jusqu’au complotisme, en passant par les fake news. Les bulles de filtres expliqueraient alors notre incapacité à envisager la complexité du monde.
Mais c’est sans compter que cette analyse en termes de « bulles » ne récolte plus franchement les vivats de la communauté académique. Une étude réalisée par l’universitaire Richard Fletcher a notamment nuancé cette analyse en avançant plusieurs arguments : tout d’abord, la télévision demeure le principal canal d’information, loin devant les réseaux sociaux, ce qui relativise la portée réelle des bulles informationnelles que l’on pourrait y trouver. Et surtout, cette même étude conclut que les gens qui s’informent sur les réseaux sociaux ont tendance à être exposés à une plus grande variété de sources que ceux qui s’informent ailleurs (eh oui !). L’analyse en termes de « bulles de filtres » est-elle alors encore opérante ?
Les « bulles de goûts » et la curiosité algorithmique
Mais au-delà des opinions politiques, existe-t-il des « bulles de goût » ? Nos choix en matière de divertissement ont pour beaucoup été relégués aux algorithmes. Et les plateformes comme Netflix, Spotify ou même Youtube ont la fâcheuse tendance à digérer ce qu’on a déjà ingéré pour suggérer des contenus similaires (vous aimez les comédies romantiques ? En voici cinq autres !). À chaque choix de film, série, musique, elles se chargent de décortiquer nos habitudes pour déterminer les contenus les plus propices à prolonger notre engagement au sein de leurs interfaces. Quitte à nous piéger dans un vortex infernal de rom-coms à petit budget. Comment faire alors pour musarder et se laisser surprendre par des contenus originaux ? Autrement dit : comment errer en terrain inconnu ?
À l’échelle individuelle, qu’il s’agisse de l’information en ligne ou de découvertes culturelles, plusieurs pistes peuvent être explorées afin de sortir de son cocon numérique. Il peut, par exemple, s’agir de suivre sur les réseaux sociaux des personnalités avec lesquelles nous sommes fondamentalement en désaccord, afin de se confronter à un spectre politique le plus large possible. Des médias en ligne, comme Buzzfeed, ont également testé des fonctionnalités afin d’exposer leurs lecteurs à des contenus radicalement différents de ceux auxquels ils étaient habitués. En matière de divertissement, le New York Times recommande de raviver notre curiosité en mettant en place quelques bonnes pratiques, comme celle de s’en tenir aux playlists réalisées par des humains ou de désactiver les fonctionnalités de lecture automatique (quand c’est possible). Dans un article de Wired, le professeur en informatique Peter Knees propose lui de « creuser la longue traîne » de Spotify (moins poussée par son algorithme de recommandation), ou même de changer radicalement la logique de recommandation musicale, en la basant sur « les propriétés du son » (instrumentalité, tempo, etc.) et non sur ses propriétés culturelles. Voire carrément, d’appliquer la politique de la terre brûlée et de « créer un nouveau compte, pour l’entraîner à partir d’une base tout à fait différente ». En clair, de remettre les compteurs à zéro… Alors, on efface tout et on recommence ?