PRISM: "Se laisser diriger par les données, c'est le déclin total de la politique"

0

Le quotidien The Guardian "forcé" par le gouvernement britannique à détruire des documents concernant le programme PRISM, le compagnon du journaliste Glenn Greenwald (en charge de ce dossier) arrêté et interrogé pendant neuf heures à l'aéroport d'Heathrow par les autorités britanniques: les révélations d'Edward Snowden sur le programme PRISM ont clairement prouvé que nos traces numériques obnubilent la NSA. Mais aussi d'autres agences gouvernementales.

Car tous les jours, c'est à une véritable déferlante de données numériques que nous assistons. Leur masse totale s'élève à 1.200 milliards de milliards d'octets. Un chiffre qui passe dans l'esprit, sans jamais pouvoir être vraiment saisi. 90% de ces données ont été créées au cours des deux dernières années.

Antoinette Rouvroy, chercheur au Centre de Recherches Information, Droit et Société de l'Université de Namur, se penche depuis plusieurs années sur l'utilisation qu'on peut faire du flux de données afin d'anticiper à la fois les évènements et les comportements.

La récolte de données numériques (Photo:  Peter Patau/ Avril 2013/ Flickr-CC)(Photo: Peter Patau/ Avril 2013/ Flickr-CC)

La numérisation de nos vies et la multiplication de nos traces numériques, en ligne et hors ligne (par la vidéosurveillance, par exemple) rend possible, selon vous, une "nouvelle manière de gouverner". Vous la qualifiez de "gouvernementalité algorithmique". De quoi s’agit-il?

Antoinette Rouvroy: "C'est un mode de gouvernement qui s'appuie exclusivement sur les données numériques. Les traces numériques alimentent un grand corps statistique impersonnel (le big data) qui se prête au calcul algorithmique. Ces calculs vont permettre d'extraire des modèles prédictifs de comportements, des profils. L'objectif est, pour les bureaucraties publiques – les États – ou privées – les entreprises -, d'anticiper les phénomènes (comme un acte terroriste) ou de les orienter (comme un comportement d'achat) grâce à ces profils, sans avoir à en comprendre les causes ni à se confronter à des sujets.

La volonté d'accoler des profils prédéterminés au champ d'action des individus dispense de prendre en compte les éléments du monde physique, les personnes, leurs expériences, leurs témoignages ou leurs intentions. Ainsi, à la différence de la prévention, qui présuppose la connaissance des causes probables d'un évènement futur, on ne suit ici qu'une logique purement statistique. On se fie à ces profils, difficilement contestables car surgis d'algorithmes en apparence neutres et objectifs. La discussion démocratique sur les critères de catégorisation des individus (leur mérite, leur histoire, leurs besoins, les risques dont ils sont porteurs) disparaît au profit du traitement opéré par les machines."

Comment opère ce nouveau gouvernement?

"Il y a d'abord la collecte des données. Il ne s’agit pas réellement d’une collecte, mais d’une disponibilité de fait. Personne ne 'donne ses données', mais, quoi que nous fassions sur la toile, nous laissons des traces numériques dont nous ne contrôlons ni les trajectoires, ni les usages. La disponibilité des données ne rencontre que peu d’opposition dans le public, d’autant qu’elle permet une personnalisation parfois bien pratique des contenus en fonction du 'profil' de chaque internaute.

De plus, la plupart de ces traces ne semblent même pas signifiantes pour l’individu qui les laisse. Elles sont souvent triviales et on n’aurait pas l’idée de les considérer comme faisant partie de notre vie privée. Elles ne deviennent 'intéressantes' qu’à partir du moment où on les agrège avec d’autres données pour façonner le profil de la personne. On ne recueille pas seulement des signes, mais aussi des signaux (un grattement de nez sur une caméra peut être interprété comme un signal de nervosité). Et même s'ils n'ont aucune signification, ils restent calculables."

Prédire les actes

Simultanément à la récolte, il y a la question du stockage...

Quoi qu'on fasse sur la toile, on laisse des traces numériques dont on ne contrôle ni les trajectoires, ni les usages

"Parce que les capacités de stockage semblent augmenter de façon exponentielle, au point de sembler illimitées, on pense intuitivement que tout cela est neutre sous l’angle de la consommation des ressources. Il n’en est rien: les centres de traitement de données (data center) sont très gourmands en énergie et ont un impact écologique important.

Ensuite vient la seconde phase. Les algorithmes de data mining font émerger des "modèles de comportements", c’est-à-dire des profils: consommateur X, fraudeur potentiel, employé fiable et productif, terroriste, élève à haut potentiel, etc. On peut construire toutes sortes de modèles grâce à l'application d'algorithmes fondés sur des statistiques tirées du flux de données. Sauf qu'on inverse les usages traditionnels de la statistique. D'habitude, on construit des hypothèses a priori, on récolte les données et on vérifie. Ici, on récolte les données puis on va commencer à anticiper sur le réel.

Dans un troisième temps, ces profils permettent, au départ de caractéristiques observables, d'induire d'autres caractéristiques, inobservables cette fois. Au lieu de se fonder sur le CV et l’expérience passée d’un candidat à l’embauche, par exemple, l’employeur qui ferait usage de ces nouvelles techniques pourra, grâce au profilage, détecter à l'avance des caractéristiques aussi imperceptibles que la propension du candidat à quitter anticipativement son emploi, ou à résister au stress. Ou alors, sur base de trajectoires spécifiques d’un individu dont l’identité n’est même pas connue, filmée de très haut par un drone, en induire qu’il s’agit d’un terroriste potentiel."

Les sondages effectués après l'affaire PRISM montraient qu'environ la moitié des Américains jugeaient normal que leur vie privée soit troquée contre la promesse d'être en sécurité. Mais les anticipations permises par la NSA sont-elles vraiment fiables?

"Tout d'abord, il ne s'agit pas tant d'accepter ou de ne pas accepter d'être surveillé. Aujourd’hui, utiliser Internet, c’est laisser des traces. Il s'agit d'une adhésion par défaut. Et les majors de l'Internet collaborent avec les gouvernements. Après on peut se demander si les systèmes prédictifs sont réellement efficaces. On nous dit qu'une série d'attentats a pu être déjouée. C'est une question difficile à trancher car ces systèmes anticipent des actes qui devraient être commis dans l'avenir. Mais il s'agit d'actes qui ne sont pas très fréquents et qui ne sont perpétrés que par une infime minorité de gens.

On n'est pas dans l'acte d'achat d'une boîte de Pampers, pour lequel il y a une profusion de données. Ici, la base statistique permettant la prédiction est très faible. On manque de moyens d'évaluation a posteriori pour valider les prédictions. Comme c'est invérifiable, le système est donc incontestable. Voilà sa force."

Quelles conséquences cela peut-il avoir?

"Un nombre important de faux-positifs, c'est-à-dire les personnes arrêtées – ou même abattues par des frappes de drones - qui n'avaient peut-être aucune intention terroriste, et un recul net de la présomption d'innocence. On peut toujours imaginer que les Américains acceptent que cela en vaille la peine.

Aux USA, la lutte anti-terroriste permet de ne rien révéler, ni de la décision des instances qui ont à évaluer la légitimité des recherches, ni même la masse de données récoltées. En Europe, c'est différent, car il est prévu dans la directive européenne sur la rétention des données que les états auront à faire connaître à leurs citoyens l'étendue et la nature des données qui auront été éventuellement exploitées."

Antoinette Rouvroy (Photo: UNamur.be)

Antoinette Rouvroy (Photo: UNamur.be)

Méta-données, mon amour

Somme-nous à l'abri pour autant d'une surveillance "extérieure" à l'Europe? Le scandale PRISM a prouvé le contraire.

"Avec la gouvernementalité algorithmique, il n'y a plus de notion de frontières, ni de limitation temporelle ou spatiale de la puissance de l’Etat, américain en l’occurrence. Dans l'Union européenne on reste encore attaché à des conceptions très traditionnelles: on protège, plus ou moins effectivement, les données à caractère personnel. Mais les méta-données, qui intéressent beaucoup les gouvernements-surveillants, ne sont pas toujours à caractère personnel."

Qu'est-ce qu'une méta-donnée?

"Il s'agit, dit vulgairement, de données à propos de données: l’adresse de départ et d’arrivée d’un courriel, la durée d’une communication téléphonique, le lieu où a été prise une photo. C'est tout sauf les contenus substantiels. On sait par exemple que les Américains sont de moins en moins intéressés à connaître l'identité des individus ou ce qu’ils font effectivement, et de plus en plus à savoir où ils se trouvent, quel est leur réseau, quelles sont leurs connexions sur les réseaux sociaux, etc.

Dans l'ouvrage 'Théorie du drone', Grégoire Chamayou explique assez bien les conséquences extrêmes de ce glissement: frappes de 'signatures' (élimination de personnes dont on ne connaît pas l’identité mais que leur profil désigne comme terroriste potentiel), puis frappe répétée prenant pour cible cette fois les personnes venues secourir les cibles touchées, ou qui suivent leur cortège funéraire. On est ici dans ce que le philosophe italien Giorgio Agamben appelle de la 'vie nue': les gens ne sont pas ciblés comme individus, comme personnes, comme sujets. C'est juste de la vie qui peut s'arrêter par des calculs de machine.

La gestion de l'incertitude – dans ce cas-ci, l'épouvantail brandi de la menace terroriste - permet dès lors tout?

"Je vois un véritable retour de la raison d'État. Cela fait des années que les USA sont en guerre, et justifient la suspension d’un certain nombre de droits et liberté fondamentaux par l’état d’exception (la guerre contre le terrorisme), mais cet état d’exception, à force de durer, est devenu la règle. Autant les drones que les révélations de Snowden nous montrent comment la loi peut être suspendue et comment la notion de souveraineté n'est plus contenue dans les frontières des états. Elle se déplace dans les airs avec les drones, et à travers les câbles grâce à Internet.

En même temps, la notion de sécurité, élevée en logique absolue, est incompatible avec toute idée de projet, car faire du projet, c'est prendre des risques. Il n'y aura bientôt plus qu'une vénération pour l'intelligence des données, qui nous indiqueront que faire, à la place des sujets que nous sommes. Un choix facile, qui marque le déclin total de la politique. Faire de la politique ce n’est pas déléguer la décision à des machines hypervigilantes, c’est trancher en situation d’incertitude et assumer la décision."

Réinverstir dans l'humain

Longtemps, on a dit que les "Big Data", les données de masse, constituait un flux impossible à structurer, à analyser.

"Mais ces nouveaux dispositifs nous dispensent justement d'analyser, d'évaluer. Les algorithmes le font pour nous, et on s'y fie. IBM planche sur une perspective de développement technologique, 'l'autonomic computing' pour gérer l'interconnexion et la multiplication des bases de données et des terminaux de toutes sortes. L'idée serait d'avoir des ordinateurs capables de se programmer eux-mêmes, un peu comme le corps humain."

De nombreuses études (en Angleterre et en Allemagne notamment) ont déjà prouvé, par exemple, que les caméras de surveillance n'avaient qu'un impact très marginal, voire négatif sur la sécurité. Pourquoi continuer à investir là-dedans?

"Tout d'abord, on croit encore dans l'équation dépassée 'progrès technologique = progrès humain'. Pourtant, les caméras ont peut être permis d'imputer des faits a posteriori à leurs auteurs, mais n'ont jamais empêché de passer à l'acte. Une étude londonienne a démontré qu'elles accroissaient le sentiment d'insécurité. L'autorité symbolique de l'agent de police, même s'il pouvait être paternaliste ou intrusif, s'est éloignée.

On va vers une vénération de l'intelligence des données: elles nous indiqueront que faire, à la place des sujets que nous sommes

De plus, il y a moins d'assistance à personne en danger, puisqu'on croit (à tort), qu'un policier va arriver, alerté par la caméra. Le lien social est en voie de rupture. En Angleterre, faute de personnel, on a même proposé à Monsieur et Madame Tout-le-monde de surveiller les images renvoyées par les caméras de vidéosurveillance à partir de chez eux. Idéal pour façonner une société paranoïaque."

Face à la gouvernementalité algorithmique, vous dressez un "éloge de la récalcitrance". En quoi consiste-t-il?

"La vie est irréductible au réel numérisé. La naissance, la mort, la maladie: aucun de ces événements n’est véritablement prévisible, aucun corps vivant, en tant qu’il est porteur d’événements, n'est numérisable. Il faut être récalcitrant à l’idée que tout peut être numérisé, et que les évaluations et anticipations des machines, plus 'objectives', sont nécessairement justes. Elles ne le sont pas. Les algorithmes financiers dans le trading à haute fréquence, les drones autonomes armés font un sale boulot, sans état d’âme, en toute objectivité. Le marketing personnalisé en fonction de propensions d’achat calculées à notre insu, anticipant sur la formation et l’expression de nos choix, nous imposent des désirs qui nous précèdent.

Que faire? Réinvestir dans le commun, prendre corps en dehors du flux de données. On nous parle sans cesse du temps réel, mais il ne s'agit là que d'un temps-machine. L'être humain, lui, se vit dans la durée. La fascination actuelle pour ces algorithmes, pour ces big data, l’obsession de la prédiction et de la personnalisation accompagnent un refus catégorique et un déni de l’erreur. Dans la gouvernementalité algorithmique, rien n’est jamais un échec. Lorsque la sauvagerie des faits s’écarte des prédictions, cet écart est réingurgité dans la base statistique pour affiner les modèles. Plus ça rate, plus ça réussit. On n'accepte plus l'erreur, la fatalité de l'erreur.

Il faut renouer avec le sens de la tragédie: à chaque moment, on peut mourir foudroyé. C’est bien là ce qui donne son sens et sa valeur à la durée de la vie. Quant à la technologie, il faut remettre de l'homme dans la machine. Lui permettre de se positionner comme un sujet, et non seulement comme une cible. La liberté, ce n'est pas un nom, un droit qui va nous tomber tout cuit entre les mains. C'est un verbe, un faisceau de pratiques."