data protection

Données personnelles et libre arbitre : une question de rythme

Avec la rentrée en vigueur de la RGPD, on parle beaucoup des exigences européennes sur les nouvelles politiques de confidentialité. Cependant, on a trop peu abordé les fondements éthiques sur la protection des données. Réflexion sur la notion de libre arbitre et le besoin d’encourager chaque citoyen à s’interroger sur la valeur de ses données. 

L’intimité d’être chez soi. ©Mehdi Vilquin

J’étais assise à côté de Guillaume à notre table de café habituelle en septembre dernier. On rattrapait le temps perdu et les vacances d’été. Nous discutions lorsqu’il me pointa une photo sur son portable. En me penchant, je me retrouvais face à un écran noir. Devant ma surprise, Guillaume éclata de rire. Il avait oublié son filtre de confidentialité, qui empêche à des voisins de métro trop curieux de voir le contenu de ses messages et recherches privés. Devant cet écran opaque, gage pour Guillaume d’une certaine tranquillité, j’étais perplexe. Guillaume pouvait sans doute cacher une part de sa vie privée, mais en aucun cas ses données personnelles. Demain, dans une vie professionnelle où son employeur serait propriétaire de ses emails, pouvant même consulter ses fenêtres de navigation et le temps passé sur chaque site durant son temps de travail, un tel filtre suffirait-il à le protéger ?

Je n’arrivais pas à savoir si dans cette nouvelle ère hyperconnectée, une telle protection était un acte de militantisme ou de naïveté.

J’imaginais Guillaume à la place de Mae, protagoniste du livre Le Cercle de Dave Eggers. Mae rejoint Le Cercle, l’entreprise internet la plus puissante au monde, dont le motto est «Sharing is Caring ». Au fur et à mesure que sa carrière progresse, les écrans autour d’elle s’accumulent, retransmettant en direct l’ensemble de ses activités. Cette transparence complète promet une meilleure performance individuelle et collective d’après les dirigeants de l’entreprise.

C’est l’argument le plus souvent invoqué quant à l’usage de nos données privées.

Cette collecte massive de nos données repose sur la supposition que nous privilégions l’efficacité de services au dépend des enjeux éthiques liés à notre vie privée. Or, cette supposition est rarement remise en question et ouvertement débattue dans la sphère publique.

Les débats sur la RGPD, et toutes ces notifications de mises à jour de politiques de confidentialités, ont trop peu abordé la raison d’être de la protection des données et ses fondements éthiques. En scrutant nos faits et gestes, et connaissant les détails de notre vie privée, ce n’est rien moins que notre libre-arbitre qui est touché.

Avec plus de 150 millions de capteurs connectés attendus dans les 10 prochaines années, nous n’en sommes qu’au commencement. Les avancées en matière d’Intelligence Artificielle (IA) et d’Objets Connectés entraîneront un doublement des données toutes les 12 heures. Avec autant d’Objets Connectés présents dans la sphère publique et privée, il est difficile de comprendre les implications dans notre quotidien. Au nom d’une meilleure performance et accessibilité, les citoyens-utilisateurs sont contraints au partage de leurs données – ce fuel qui conditionne toute avancée en machine learning.

Déjà, les risques d’abus sont signalés. Le Center on Privacy and Technology de la Georgetown Law School révéla ainsi que certains départements de police aux Etats-Unis utilisent des outils de reconnaissance faciale pour scanner en temps réel le visage de citoyens sur les caméras de surveillance. C’est la première fois que les forces de l’ordre ont accès à une technologie si puissante, dont l’usage est imparfaitement réglementé, avec une si vaste base de données.

Si l’objectif national est d’améliorer la sécurité et d’arrêter de violents criminels ou même terroristes, il sans nul doute maximisé. Cependant, le fait que le visage de chaque citoyen soit potentiellement scanné, reconnu et stocké par les forces de l’ordre dans des événements publics aussi variés que des concerts ou manifestations, porte dangereusement atteinte à notre liberté d’expression.

Dans la recherche du juste équilibre entre respect de la vie privée et meilleure efficacité, ce sont nos critères de performance et de réussite qui doivent être questionnés.

L’une des raisons pour laquelle nous nous penchons rarement sur le coût éthique de l’usage de nos données, c’est que ce coût nous est souvent dissimulé. En d’autres termes, les recommandations algorithmiques correspondent si bien à notre personnalité, que les décisions qui en résultent semblent être les nôtres.

En triant les individus en différentes catégories et en leur assignant des e-scores pour déterminer leur taux d’employabilité ou taux d’intérêt, on augmente l’efficacité de nos services. Cependant, l’opacité des algorithmes, et le fait que l’on ignore quels critères personnels sont pris en compte pour nous évaluer, affecte directement notre libre arbitre et droit à l’autodétermination informationnelle.

Le cours de la bourse humaine. © Mehdi Vilquin and Pablo Hnatow

En perdant le contrôle de nos informations personnelles, et laissant quelqu’un d’autre décider de nos résultats de recherche, articles de flux d’actualités ou recommandations d’achats, une “bulle de filtres” floute la clarté de notre vision (Pariser, 2011). Cette bulle nous pousse dans un état d’isolation sociale et intellectuelle sans que nous soyons toujours capable de le reconnaître.

Comme le souligne Evgeny Morozov “un fil de fer invisible” se développe autour de nous et “le plus d’informations nous révélons sur nous-même, le plus dense et invisible ce fil de fer devient.”

Une étude de l’Université de l’Illinois sur l’algorithme de Facebook vient soutenir cette hypothèse. Plus de 62% des utilisateurs interrogés ignoraient que Facebook influençait leur newsfeed: la plupart d’entres eux pensaient que ce qu’ils partageaient était immédiatement relayé auprès de leur réseau. De même, un rapport du Pew Research Center parut en 2016 signalait que 73% des Américains pensaient que leurs résultats de recherche étaient impartiaux.  

Les recommandations algorithmiques nous aveuglent. © Mehdi Vilquin

C’est pour cela que l’on doit parler des fondements éthiques derrière la RGPD, et éclairer l’ensemble des citoyens sur les risques liés à la collecte de données personnelles.

Le vrai enjeu est d’éviter la polarisation du débat et le mythe du 100% de données privées.

L’enjeu n’est pas de défendre l’efficacité des services ou l’éthique des données, mais de conduire les citoyens à s’interroger sur la valeur de leurs données et l’usage qu’ils souhaitent en faire. Il y a certaines données que nous acceptons de partager, d’autres que nous voulons à tout prix protéger, et d’autres encore que nous sommes prêts à négocier. Des solutions sont à notre portée… Profitons du momentum créé par la RGPD pour aborder ces enjeux et trouver le juste équilibre.