This website requires JavaScript.

Numérique Éthique vous est utile (ou pas) ? Dites-nous tout en 5 minutes ici

Acculturation
Article

Les GAFA et leurs algorithmes : faut-il s’en méfier ?

3min
14.02.2020

Les algorithmes des géants du web, nourris aux données personnelles, influencent la vie quotidienne de milliards d’utilisateurs. La méfiance et l’incompréhension du système interrogent sur la manipulation possible des usagers par ces algorithmes.

Est-ce que le manque d’éducation autour des données crée de la méfiance ?

Probablement, les data sont représentées comme complexes et inaccessibles aux non-professionnels. C’est dans ce contexte précis que la formation et l’éducation autour des données sont des outils qui permettent de démystifier ce sujet.

Ces outils peuvent être utilisés pour développer des connaissances dans le domaine des données, des algorithmes et ainsi réduire la méfiance existante autour de ces enjeux. L’inconnu et l’ignorance aboutissent à la méfiance, c’est ici que l’éducation et le savoir ont une place centrale. C’est en donnant de la visibilité aux enjeux présents autour des données qu’il sera possible de faire disparaître la méfiance.

Comment pourrait-on permettre plus de transparence de la part des GAFA vis à vis des usagers ?

Les GAFA ont un avantage considérable dans le domaine des data, et donc peu d’intérêt à modifier leur fonctionnement actuel. Prenons l’exemple de Google, son moteur de recherche représente environ 90 % des parts de marché de l’indexation en France.

Les techniques d’indexation existent depuis qu’il a été nécessaire de caractériser des informations pour pouvoir les retrouver dans des masses de documents. Actuellement, Google est donc essentiel pour l’utilisation d’internet et aucune autre solution ne rivalise à son niveau.

Pour sortir de ce schéma, la solution pourrait être la supranationalisation de l’index de Google. Une impulsion étatique rendrait plus lisible et transparent le système mis en place par les GAFA vis à vis des données des utilisateurs. Imaginer un index mutualisé, financé par les institutions publiques, composé d’une dizaine de moteurs de recherche différents, performants et avantageux pour les utilisateurs.

Depuis le RGPD, contrairement aux algorithmes, l’accès aux data tend à se démocratiser. Comment mettre en marche une démocratisation des algorithmes ?

Les problèmes de transparence sont liés au manque de connaissances et d’informations accessibles sur la façon dont nos data sont gérées. De ce fait, cette transparence est profondément liée à l’apprentissage, l’utilisateur doit saisir quelles variables il représente dans le système afin de le comprendre et de pouvoir ensuite jouer un rôle dans l’interprétation de ses données. Actuellement, l’usager a la possibilité d’influencer l’algorithme en masquant certaines publications sur Facebook ou Google par exemple, mais ce ne sont que des actions partielles.

La solution pour une véritable démocratisation des algorithmes existe, elle se trouve dans la data visualisation1 et la mise en place d’algorithmes graphiques.

Par exemple, YouTube pourrait proposer un curseur gradué de 0 à 100 qui permettrait à l’utilisateur de choisir ses propositions de vidéos (musique, humour, lifestyle, etc.) en fonction de ses envies ou besoins du moment. Cela permettrait à l’utilisateur d’avoir une forme de contrôle et de compréhension des algorithmes.

Suite à l’étude : “Infox : nouvelle épidémie du web”2, nous avons vu que les algorithmes favorisent le développement de certaines fake news. Qu’en pensez-vous ?

L’individualisation des résultats accroît l’effet partisan, en effet les algorithmes proposent des informations en lien avec les données de l’utilisateur : goûts, valeurs, engagements, intérêts.

L’utilisateur ne sera que très rarement confronté à des informations qui ne l’intéressent pas, ses valeurs partisanes ne sont donc aucunement confrontées à une quelconque opposition.

Malgré la connaissance de ce phénomène, aucune solution n’est mise en place pour endiguer le développement des fake news et l’individualisation des données. En conséquence, certains courants alternatifs réussissent facilement à s’emparer du débat à travers les algorithmes, en diffusant à grande échelle des fake news.

La question du numérique renvoie à des questions de démocratie, quand nous maîtrisons le numérique, nous maîtrisons la parole. Dans le futur, pourrait-on imaginer juger des algorithmes responsables de la désinformation ?

La question du numérique est une question citoyenne. Nous devons repenser l’accès à l’information en matière de politique. Depuis trois ou quatre ans, la désinformation disponible sur internet a eu des conséquences politiques indéniables mais anticipables.

Par conséquent, il y a un enjeu de formation mais qui n’est pas suffisant, un régime de sanctions devrait être mis en place lors de phénomènes de désinformation massivement orchestrés.


1 La visualisation des données est un ensemble de méthodes de représentation graphique, en deux ou trois dimensions, utilisant ou non de la couleur et des trames. Les moyens informatiques permettent de représenter des ensembles complexes de données, de manière plus simple, didactique et pédagogique.

2 https://www.mesdatasetmoi-observatoire.fr/article/etude-infox

Retour