This website requires JavaScript.

Numérique Ethique vous est utile (ou pas) ? Dites-nous tout en 5 minutes ici

Vie privée
Article

L’IA, menace pour la privacy et la liberté individuelle ?

30.01.2018

L’intelligence artificielle fait l’objet de nombre d’appréhensions. Au-delà des risques de court terme, il convient d’éduquer les individus à décrypter l’influence des algorithmes sur la construction de leurs décisions, afin d’en conserver la maîtrise.

Juridiquement, le terme de « privacy » est défini comme la capacité et possibilité pour un individu de maîtriser la diffusion de ses données personnelles : à qui, quand, où, pourquoi ?

En français, on parle de respect de la vie privée. A cet égard, Internet constitue à la fois une menace et une opportunité pour les individus, dont les données sont collectées et utilisées par les marques et différents acteurs numériques.

Privacy paradox

Partout dans le monde, on observe un décalage entre attitudes et comportements appelé « privacy paradox » : alors qu’ils se disent très soucieux du respect de leur vie privée, les individus n’hésitent pas à prendre des risques et à communiquer leurs données personnelles, ou à accepter qu’elles soient collectées.

L’explication tient dans le décalage temporel entre les menaces et les bénéfices liés à l’exploitation de ces données : si le risque paraît lointain et abstrait, les bénéfices, eux, sont souvent immédiats et concrets. Donner ses informations personnelles permet d’obtenir une gratification ou réduction immédiates, ou d’acquérir un bien personnalisé.

Les services géolocalisés

Les données personnelles permettent aux marques de personnaliser la relation et d’offrir des promotions ou produits uniques, supposés attirer le chaland car adaptés à ses besoins. Deux types de personnalisation sont possibles, qui peuvent être liées :

  • aux données personnelles telles que la date de naissance, les préférences d’achat ou les centres d’intérêt.
  • au contexte relatif au site consulté ou, dans la vie réelle, à sa géolocalisation. Résultat : nous recevons des offres spécifiques en fonction du lieu où nous nous trouvons. Cela peut aller du taxi qui sait vous localiser au coupon de réduction que l’on reçoit lorsque l’on passe devant une enseigne bien connue.

Lorsqu’elles ne sont pas sollicitées par les individus, les personnalisations peuvent conduire à un sentiment d’intrusion puis d’irritation envers la marque, à l’instar des envois push. Les messages push reçus à l’initiative de l’utilisateur sont à l’inverse reçus plus favorablement. Enfin, un message d’information est moins bien perçu qu’un message commercial promotionnel.

Ces attitudes envers l’adoption de services personnalisés s’inscrivent dans un contexte global de « marketing de la permission » : le consommateur souhaite choisir quelle marque s’adresse à lui, quand, sur quel support (tablette, ordinateur, portable)… ce qui le conduit à installer des bloqueurs de publicité (Adbloquers).

L’IA comme innovation de rupture

C’est dans cet environnement socio-technique qu’arrive l’intelligence artificielle (IA).

Elle fait couler beaucoup d’encre, occupe des tribunes entières dans les médias, notamment du fait des différents rapports sollicités par le gouvernement sur le sujet. Mais pour le grand public, l’IA reste assez mystérieuse et son périmètre flou : qu’est-ce que l’IA pourra apporter aux citoyens, consommateurs et collaborateurs ?

Comme toute innovation de rupture, elle suscite deux réactions diamétralement opposées. Pour les uns, elle serait à même de résoudre tous les problèmes alors que pour les autres, elle engendrerait le chaos. En son temps, l’électricité via ses lignes de haute tension était accusée de provoquer la stérilité masculine. On sait depuis que le stress a un impact beaucoup plus certain sur ce point !

La rapidité avec laquelle les innovations numériques déferlent sur nous n’est pas là pour faciliter un débat serein et une prise de recul. Rappelons par exemple que pour atteindre 100 millions d’utilisateurs, l’aviation a mis 70 ans et Facebook 9 mois. 38 ans ont été nécessaires à la radio pour toucher 50 millions d’utilisateurs, 13 ans à la télévision et 4 ans à internet.

Concernant l’IA, la menace perçue par les individus porte essentiellement sur les emplois qu’elle risque de balayer.

Ainsi que le montrait dès 1942 l’économiste Joseph Schumpeter, l’impact sur l’emploi est inévitable : les innovations de rupture sont source de destruction créatrice. A court terme, elles détruisent des emplois, avant d’en créer d’autres requérant de nouvelles qualifications. L’aspect qui nous intéresse ici est l’impact de l’IA sur la privacy, sur notre autonomie de prise de décision et notre liberté individuelle.

Le périmètre de l’IA

Il importe au préalable de rappeler sur quel périmètre porte l’intelligence artificielle. L’IA est porteuse de nombreux bénéfices potentiels : traitement d’une grande quantité de données ; aide à la décision pour les professionnels (médecin, assureur, juge…) et les individus ; personnalisation d’offres ; etc. Tout n’est pas à jeter ! Mais les décideurs se doivent d’en conserver la maîtrise, et de se réserver la possibilité de faire un choix différent de celui qui est recommandé.

L’exigence communément revendiquée est celle de la transparence des algorithmes. A condition de ne pas se heurter à l’obstacle de la propriété industrielle, la transparence peut révéler que l’algorithme ajoute de l’arbitraire lorsqu’il ne sait pas trancher. Une première solution consiste à faire auditer ces systèmes par les différents acteurs impliqués (experts, utilisateurs, citoyens) afin de proposer une certification similaire à celle de certains logiciels.

Transparence et certification ne sont toutefois pas suffisantes et ne doivent en aucun cas exonérer les acteurs de leurs responsabilités.

Transparence des algorithmes et interprétation des résultats

Pour beaucoup d’entre nous, comprendre le fonctionnement algorithmique n’apporte pas grand-chose. Il est bien plus utile pour l’utilisateur concerné d’être précisément guidé dans l’interprétation des résultats obtenus.

Pour le médecin, il s’agit de savoir sur quels symptômes l’IA s’est basée et comment elle les a pondérés. L’internaute s’intéressera aux aspects de son profil ayant conduit à telle notification, recommandation ou promotion.

Ces informations peuvent être particulièrement complexes, notamment si l’IA relève de mécanismes de deep ou machine learning, qui supposent de reconstituer a posteriori la logique de l’algorithme.

Il conviendrait déjà d’accompagner les recommandations d’éléments d’explication. Quels sont les critères pris en compte et avec quelle pondération ? Le débat a déjà été ouvert avec le classement des résultats proposés par les moteurs de recherche. Google affiche le résultat (Serp) sans transparence aucune sur la qualité des sources étudiées et l’algorithme de classement utilisé. Comment dès lors lui faire confiance et prendre des décisions en toute liberté et connaissance de cause ?

Ceci nous amène à interroger la légitimité et les limites de l’extrême personnalisation. Si l’assurance, s’appuie sur une mutualisation des risques, le marketing peut conduire à enfermer les goûts des consommateurs et à ne plus laisser aucune place au hasard.

Le règlement européen général sur la protection des données (RGDP) qui arrive en mai prochain accorde, dans certains cas, le droit d’accéder à l’ensemble de ces données de traitement et d’intervention humaine, voire de s’y opposer… mais comment s’assurer de son impact réel sur les pratiques ?

Développer la formation de chacun

Il convient premièrement de rendre les algorithmes compréhensibles par l’ensemble des acteurs concernés (citoyens, concepteurs, professionnels…) et de les auditer via un comité ad hoc. Deuxièmement, il est nécessaire d’améliorer la connaissance du public sur ces sujets techniques, de le former aux enjeux liés à l’éthique de l’IA, et de l’informer sur les possibilités d’action et de recours à sa disposition.

Cette formation numérique des citoyens est fondamentale pour que chacun puisse se saisir des enjeux qui structurent leurs vies privées et professionnelles, et impactent leur santé et leur bien-être. Ainsi, chacun pourrait participer aux débats, faire entendre sa voix, être force de proposition et orienter les prochains développements vers un plus grand bénéfice citoyen, sans discrimination.

En conclusion, si l’IA sera un tsunami irréversible dans les années à venir, il convient de comprendre l’influence des algorithmes sur notre liberté individuelle pour garder la maîtrise de nos décisions.

Réclamer la transparence des algorithmes n’est malheureusement pas suffisant. Il faut certes les comprendre mais surtout maîtriser les critères de choix qui président aux décisions. Pour y parvenir, nos deux principaux atouts résident dans la régulation, qui impose la transparence, et dans l’éducation des citoyens-consommateurs.

Retour