Pré-Print de Beaude, Boris. « Sur les traces numériques de l’individu », dans Calbérac, Yann, Olivier Lazzarotti, Jacques Lévy et Michel Lussaul (dir.), Carte d’identité. L’espace au singulier, coll. Colloque de Cerisy, Paris, Hermann Éditeurs, 2019, p. 203-48.
RDF (Zotero)

Sur les traces numériques de l’individu

« Pour penser la trace, il faut à la fois la penser comme effet présent et signe de sa cause absente. Or dans la trace matérielle, il n'y a pas d'altérité, pas d'absence. Tout en elle est positivité et présence. »

Paul Ricœur, 1998, Ce qui nous fait penser, la nature et la règle, dialogue avec Jean-Pierre Changeux, Odile Jacob, p. 128.

Depuis les révélations d’Edward Snowden en 2013, la surveillance massive des individus par l’Agence de sécurité nationale des États-Unis (NSA) ne fait plus aucun doute. Depuis 2017, avec l’élection de Donald Trump, puis la votation du Brexit, le ciblage politique des citoyens a révélé à quel point la communication politique avait changé. En 2018, les fake news, les bots ou les bulles de filtres occupent activement Google, Facebook, Twitter ainsi que la plupart des parlements. Emblématiques du renouveau des médiations sociales, ces firmes transnationales sont à présent désignées comme les principaux responsables d’une situation susceptible de perturber les fondements des démocraties occidentales. La liberté d’expression et la vie privée sont soumises à rude épreuve dès lors que l’expression individuelle et la traçabilité des pratiques numériques se sont généralisées. Ce moment singulier de l’humanité oppose des régimes tels que ceux de la Chine ou de la Russie, qui imposent un contrôle étroit des médias sociaux, à des régimes tels que ceux des États-Unis ou du Royaume-Uni, qui prônent une plus grande ouverture, mais qui sont à présent démunis tout en se révélant incapables de gérer la complexité du monde qu’ils ont pourtant largement contribué à créer.

Sans grilles de lecture adéquates, il est difficile de saisir les fondements de cette dynamique. Il est aussi très tentant de n’y voir que des symptômes de la complexité qui caractérise la politique mondiale contemporaine. Pourtant, si ces événements ont placé la surveillance et le ciblage au cœur du débat politique, ils ne sont que les dernières manifestations d’une dynamique engagée dès les années 90. À l’initiative des États-Unis, avec l’ouverture d’Internet à l’ensemble de la population, il est apparu progressivement que le corolaire du déploiement massif des médiations numériques fut celui de leur traçabilité. Il est ainsi convenu de rappeler que Google et Facebook ont construit la majeure partie de leur activité sur un principe élémentaire : capter l’attention en proposant des services attractifs, susceptibles de saisir la singularité des individus afin de les exposer à des publicités ciblées, dont la valeur s’en trouve augmentée.

La traçabilité des pratiques individuelles n’est pas en marge d’Internet et n’est en rien une exception : elle est au contraire au cœur même de son fonctionnement ; elle en constitue le modèle économique dominant. Google et Facebook sont les bénéficiaires les plus emblématiques de cette traçabilité inédite. Amazon, Netflix ou Spotify tracent aussi le moindre de nos actes afin de les associer à ceux d’autres individus ayant des comportements semblables. Wikipédia organise la légitimité des utilisateurs en traçant la moindre de leurs interventions. La presse suit attentivement la lecture et le partage des articles afin d’adapter son offre. Plus généralement, tout intermédiaire susceptible d’avoir accès à des données personnelles s’assure de les valoriser, à l’image des fournisseurs d’accès à Internet ou des opérateurs de télécommunications mobiles. Aussi, États, entreprises, citoyens et clients se demandent comment maitriser l’ampleur de cette traçabilité, tant elle a pris des proportions démesurées en l’espace d’à peine deux décennies. L’attrait pour de telles données est à présent considérable, et largement incontrôlé.

Les traces numériques sont si convoitées que leur exploitation massive expose à des situations individuelles et collectives de plus en plus sensibles et problématiques. Dès lors, la question de la pertinence d’une telle traçabilité se pose en des termes renouvelés et engage à se demander plus explicitement quel intérêt y a-t-il à être à ce point sur les traces numériques des individus ? Afin de répondre à cette question, nous proposons de considérer plus précisément l’avènement de cette traçabilité, afin de mieux saisir les fondements de son importance si soudaine. Nous tenterons de saisir à quel point la valeur heuristique de ces traces diffère considérablement selon que l’on considère le passé, le présent ou l’avenir. Aussi, parce que l’exploitation de ces traces est d’autant plus efficace qu’elle s’étend à l’ensemble des pratiques (localisation, relations, consommation…), nous rappellerons à quel point cette traçabilité est devenue éminemment politique.

Pourquoi suivre l’individu à la trace ? Est-ce pour prédire l’avenir, pour organiser le présent ou pour rendre responsable du passé ? La traçabilité constitue un enjeu scientifique, économique et politique qui exige de questionner ce que la traçabilité individuelle engage en termes de coexistence, de capacité à saisir ce qui est et à supposer ce qui vient. Avec la prolifération incontrôlée des traces, il convient d’en saisir la puissance, mais aussi les limites. Sans précaution, le risque est grand de méconnaitre le présent et de perdre prise sur l’avenir.

1. L’espace des traces

L’évidence contemporaine de la traçabilité numérique de l’individu ne dispense pas de la situer dans une perspective élargie. Parmi les lectures possibles de cette situation singulière, nous proposons de l’appréhender comme la convergence du projet philosophique et politique des Lumières, du projet positiviste du XIXe siècle et du déploiement intense des moyens de communication du XXe siècle, dont Internet constitue l’un des aboutissements les plus saisissants.

L’idée selon laquelle il serait pertinent de considérer les individus et leurs devenirs singuliers suppose effectivement, en premier lieu, que l’individu constitue une unité élémentaire significative, que la connaissance de ses pratiques élémentaires soit désirable et que cette connaissance soit finalement saisissable. Les recensements et les sondages ont longtemps contribué à ce projet, mais la traçabilité numérique, qui s’est développée massivement en l’espace de vingt ans à peine, constitue une opportunité relativement inédite de saisir en d’autres termes les faits sociaux (Boullier, 2015).

La traçabilité numérique des pratiques individuelles n’est aucunement l’émanation d’une soudaine révélation d’un potentiel sous-exploité qui n’attendait qu’à être révélé. Sa théorisation s’inscrit au contraire dans une pensée déjà clairement formulée aux fondements des sciences sociales. Ce projet fut particulièrement bien porté par Auguste Comte, avant d’être tout à fait explicite chez Gabriel Tarde à la fin du XIXe siècle (Beaude, 2015 ? Beaude, 2017). En revanche, le projet était hypothétique et ne pouvait être envisagé concrètement avant le déploiement des dispositifs de médiations numériques susceptibles de tracer les pratiques élémentaires (Latour, 2010 ? Venturini, 2010).

La qualité la plus remarquable de ce moment singulier tient probablement à la consubstantialité de la traçabilité des pratiques et de l’environnement qui les accueille. Le numérique n’est en cela pas tant un moyen de suivre les individus dans leurs actes élémentaires, mais plutôt une dimension de l’environnement qui les rend possibles. Internet et les terminaux de connexions, tels que les smartphones, ne sont pas des dispositifs d’enregistrement des pratiques. Ce sont de puissants moyens de communication qui rendent conjointement possible l’enregistrement des pratiques élémentaires qui s’y déploient. Il est en cela tout à fait imaginable qu’Internet, comme la téléphonie mobile, ne soient pas les puissants dispositifs de traçabilité qu’ils sont finalement devenus. La traçabilité généralisée peut effectivement être saisie comme une possibilité technique qui s’actualise par sa valeur économique et fonctionnelle. En d’autres termes, Internet a profondément changé les pratiques, tout en permettant de les suivre à la trace selon des modalités inédites, dont nous n’avons probablement pas encore saisi toute la puissance1.

La rupture la plus fondamentale que cela représente pour les sciences sociales tient à une inversion du biais d’acquisition conventionnel des connaissances : alors que les recensements et les sondages interféraient considérablement sur le cours de l’action, exprimant ce que les individus veulent bien dire en situation d’observation, la traçabilité numérique se contente d’enregistrer des pratiques qui ne s’inscrivent que très exceptionnellement dans une perspective de recherche. C’est au contraire la traçabilité elle-même qui finit par transformer activement l’environnement des pratiques lorsqu’elle est réutilisée dans l’architecture de l’interaction des espaces numériques eux-mêmes (Beaude, 2015).

Google, YouTube et Facebook réorganisent perpétuellement la hiérarchie entre les contenus selon l’usage qui en est fait, instituant structurellement la hiérarchie des relations sociales par leur seule effectivité. Revenir sur les conditions de la traçabilité, de son traitement numérique et de sa relation complexe à l’individu permet en cela de mieux comprendre pourquoi l’actualité se focalise sur les bulles de filtre, les infox, l’astroturfing2 et plus communément le ciblage publicitaire et politique. La traçabilité numérique de l’individu apparait en cela de plus en plus détournée, vulnérable et incapable de produire du sens, la performativité de tels dispositifs encourageant à en perturber activement les traces, tant elles sont devenues un enjeu stratégique d’existence sociale (bots, faux comptes…). La récente condamnation de huit personnes ayant organisé une manipulation massive des données de consultation de contenus publicitaires en prenant le contrôle de plus d’un million d’ordinateurs pendant plusieurs années est symptomatique de cette fiction de la page vue3. En l’absence de corps, nous n’avons jamais l’assurance qu’il y ait des yeux. Pour mieux saisir cette disjonction croissante entre la trace et sa signification, nous proposons de reconsidérer le fondement le plus évident de la traçabilité : l’espace.

1.1. Être au Monde

En 1966, lors d’une conférence diffusée sur France Culture, Michel Foucault se désespérait de la relation inéluctable entre son âme et son corps4. Il regrettait de ne pas pouvoir « se déplacer sans lui ». Il déplorait ce corps « toujours là où je suis ». Le corps apparaît telle une « topie impitoyable », un lieu auquel nous ne pouvons jamais nous soustraire. Mais au fil de son exposé, œuvrant à s’extraire de cette condition, il propose d’inverser son point de vue. Finalement, le corps est un lieu, mais un lieu « lié à tous les ailleurs du monde ». Le corps est « un point zéro du monde ». Cette conférence surprend par l’intimité du propos à laquelle Michel Foucault se livrait rarement, mais elle est plus intéressante encore par la perspective relationnelle de l’espace qui sous-tend son propos. Nous sommes intimement liés à notre corps, qui est toujours situé, en relation à l’ensemble du Monde.

D’un point de vue existentiel, il s’agit d’une position forte qui ne devrait jamais être négligée. Être, c’est être là, toujours situé, mais en relation à l’altérité du Monde qui nous accueille (Levy, 1994 ? Beaude, 2012). L’individu se constitue ainsi, dès la naissance, par les relations continues qu’il entretient avec son environnement. L’habitus chez Mauss et Bourdieu ou la discipline chez Foucault traduisent cette propension à incorporer les expériences que nous faisons de notre altérité spécifique, la faisant nôtre à chacune des relations que nous entretenons avec le Monde qui nous entoure. Le social, de ce point de vue, est consubstantiellement spatial. Il est toujours une relation passée, présente ou à venir, mais qui n’a de sens que par l’effectivité du lien qui s’établit entre des réalités (Beaude, 2017).

L’espace est pourtant trop souvent confondu avec le territoire, considéré comme le support évident des relations sociales. Et à trop chercher dans l’espace un repère stable pour saisir le changement, nous ne réalisons pas que nous choisissons, sans trop l’assumer, de nous concentrer sur les entités qui présentent la plus grande stabilité relationnelle. Fleuves, littoraux, plaines et montages furent autant de repères pour situer l’histoire. L’erreur fut pourtant considérable de ne pas saisir le caractère exceptionnel de la stabilité relative des relations entre les entités constitutives de ces espaces particuliers. La géomorphologie présente l’avantage d’inscrire l’humanité dans un temps long, mais faut-il à ce point être négligent pour ne pas voir que même la géologie est faite de ses périodes qui soulignent que dans d’autres circonstances, même la roche n’est pas un repère inaltérable et statique ? Parfois elle s’effondre même sous son propre poids. La dérive des continents est lente, mais inéluctable. Avec plus d’attention, nous reconnaissons volontiers que ce ne sont même pas les continents qui dérivent, mais les entités qui les constituent, jusqu’à ce qu’elles s’agencent autrement.

L’espace, cela ne fait plus aucun doute, est fondamentalement relationnel (Levy, 1994 ? Levy, 1999). S’il est utile de se référer aux entités dont les relations sont les plus stables, retenues pour leurs qualités en apparence inébranlables, il est en revanche peu avisé de ne pas saisir à quel point cette stabilité est provisoire en plus d’être particulièrement rare. Il est même aisé de se défaire de cette aporie. Si l’espace est une chose, où peut-elle bien être ? À vrai dire, où est l’espace ? La récursivité de cette question engage à saisir l’impasse dans laquelle nous nous trouvons lorsque nous concevons l’espace comme une chose et non comme l’ordre des choses (Beaude, 2012). L’illusion selon laquelle nous pourrions voir l’espace et non le temps est pourtant bien entretenue. Aussi, imaginer que l’espace serait matériel alors que le temps ne le serait pas relève de la même illusion et des mêmes présupposés matérialistes, qui limitèrent trop longtemps notre capacité à saisir les relations moins matérielles et plus éphémères5.

Nous voyons le temps comme nous voyons l’espace, dans la simple relation entre les choses, successivement ou simultanément. Dire que l’on ne « se baigne jamais dans la même rivière » ne suffirait pas à convaincre les plus récalcitrants. Sans prudence, certains avanceraient que le lit du fleuve, lui, reste stable. Faudrait-il être encore plus radical et dire que l’on ne s’assied jamais sur le même banc ? Peut-être qu’en accélérant le temps, à l’image des vidéos constituées d’images successives prises sur plusieurs jours, la qualité ontogénétique des êtres s’imposerait avec plus d’évidence, rappelant qu’ils évoluent sans cesse à partir d’eux-mêmes avant de disparaitre sous d’autres formes.

Le sens commun, comme une part non négligeable des sciences sociales, demeure néanmoins relativement éloigné de cette conception de l’espace, dont l’efficience s’est pourtant imposée en physique il y a plus d’un siècle et fut saisissable en philosophie dès le XVIIe siècle. Malgré leur attention privilégiée pour les relations, les sciences sociales éprouvent toujours quelques difficultés à se soustraire à une conception matérialiste et positionnelle de l’espace. Peu matérialistes dans leur ensemble6, l’espace semble être ce résidu auquel les sciences sociales s’attachent pour ancrer une réalité qui ne saurait être autrement. Cet héritage ne les prédisposa malheureusement pas à apprécier la spatialité spécifique des médiations numériques qui se sont déployées au cours des vingt dernières années (Beaude, 2012 ? Beaude, 2017). L’importance des contextes, des configurations et plus généralement des réseaux souligne pourtant la dimension fondamentalement réticulaire du social (Levy, 1994). La relation, sans aucun doute, n’est pourtant rien d’autre que de l’espace.

L’espace est précisément ce qui est entre nous. C’est pourquoi, avec la mondialisation et l’urbanisation du Monde, d’éminents géographes déclinèrent le paradigme relationnel à l’espace, offrant ainsi le contexte dont les relations sociales manquent trop souvent (Harvey, 2004 ? Massey, 1999 ? Thrift, 2006 ? Levy, 1994). Mais comme épris d’un étrange dualisme, et pourtant largement investie dans les perspectives constructivistes, relationnelles, immatérielles et idéelles des existences contemporaines, la géographie reste étrangement matérialiste lorsqu’il est question d’Internet.

À l’opposé, il est intéressant de constater que Michel Serres fut l’un des rares philosophes à ne pas avoir critiqué Internet lors de son émergence, insistant au contraire sur son potentiel et sa cohérence avec la propension de l’humanité à s’organiser sur des distances de plus en plus étendues. Particulièrement connaisseur de la pensée de Leibniz, auquel il dédia sa thèse, il s’en amusa d’ailleurs en 2012 en suggérant qu’« Internet, c’est Liebniz sans dieu ». Or, c’est en effet à Leibniz, dont l’influence fut considérable sur la pensée relationnelle de l’espace, que l’on doit ce qui peut être considéré comme l’un des fondements du paradigme relationnel du social. Pour paraphraser Leibniz, « l’espace est l’ordre des coexistences et le temps est l’ordre des existences successives » (Robinet, 1991 p.42).

En cela, le social est intrinsèquement spatial et l’espace est au fondement de la pensée de l’individu et de la société, respectivement comme séparation et comme relation organisée entre les êtres ainsi distanciés. Augustin Berque explicite cette symbiose entre le spatial et le social en des termes particulièrement stimulants, lorsqu’il oppose le topos aristotélicien, qui suppose l’existence du lieu en soi, à la conception platonicienne de la chôra, qui pose le lieu comme espace existentiel, qui n’existe pas indépendamment des réalités qui le constitue (Berque, 2003). Les choses sont ainsi toujours situées et il n’y a pas de situation sans choses (Berque, 2000 p. 20). La distance constitue en cela une problématique fondamentale du social (Lévy, 1994 ? 1999 ? 2003), car elle définit non seulement l’individualisation des choses dont on pense l’écart, mais aussi les relations à l’altérité qui les constitue. Sans distance, il n’y a ni espace, ni individu, ni relation, ni social, ni société. La distance constitue en cela une problématique fondamentale du social (Lévy, 1994 ? 1999 ? 2003), car elle définit non seulement l’individualisation des choses dont on pense l’écart, mais aussi les relations à l’altérité qui les constitue.

1.2. Synchôrisation des pratiques

La dimension spatiale du social est si importante que nous aurions tord de sous-estimer combien le Monde a fondamentalement changé en l’espace de vingt ans. L’avènement conjoint des terminaux mobiles et d’Internet a marginalement changé notre environnement matériel. Il y a bien quelques centres de données, des câbles plus nombreux, un peu plus d’énergie consommée, quelques métaux rares extraits des sols, mais tout cela est peu de choses si l’on compare de telles transformations à celles qui prévalurent lors de la révolution industrielle, ou à l’exploitation de ces ressources dans d’autres domaines7. L’essentiel des relations étant établi par l’intermédiaire de fil de cuivres, de fibres optiques ou d’ondes électromagnétiques, dont les câbles ou les routeurs sont très largement dissimulés, le déploiement très rapide d’Internet ne fut que très marginalement perceptible.

C’est finalement l’importance prise par quelques entreprises parmi les plus emblématiques et des incidents de plus en plus nombreux qui révèlent l’intensité des (re)médiations numériques contemporaines (Beaude, 2017). En l’espace de deux décennies à peine, Amazon, Google et Facebook comptent parmi les entreprises les plus valorisées au Monde, avec quelques homologues chinoises telles que Baidu, Tencent et Alibaba. Apple, devenue l’une des entreprises les plus valorisées, doit elle aussi l’essentiel de sa croissance à la sortie de l’iPhone il y a à peine 10 ans8.

À l’intensité des échanges matériels engagés avec la révolution industrielle, la prolifération des échanges d’informations ces dernières années a considérablement changé la relation que nous entretenons avec l’altérité. Contrairement au sens commun, c’est précisément la maitrise croissante des distances qui singularise de plus en plus les individus, en augmentant les virtualités de l’action. Nous assistons certes à des phénomènes d’homogénéisation à l’échelle de la planète, mais il s’agit essentiellement d’une homogénéisation des processus de différenciations. En d’autres termes, il y a certes des marques qui s’imposent mondialement et des normes considérables dans les transports. Néanmoins, cette homogénéité somme toute limitée constitue autant d’appuis par lesquels s’expriment et se déploient les expériences singulières.

Le numérique illustre parfaitement cela. Internet, comme le web, reposent sur des standards qui rendent possible l’interopérabilité à l’échelle planétaire. Les dispositifs matériels de connexion sont eux-mêmes très standardisés et les systèmes d’exploitation Android et iOS se partageant la quasi-totalité du marché de l’Internet mobile. C’est pourquoi il est utile de s’attarder sur la communication d’Apple et de Google, lorsque ces entreprises suggèrent respectivement de « penser différent » ou d’« être ensemble, mais pas les mêmes »9. En mobilisant de tels messages, ces entreprises proposent une offre standardisée à partir de laquelle peuvent s’exprimer les expériences singulières. Ces entreprises, au cœur des médiations numériques contemporaines, proposent les conditions standards à partir desquelles les virtualités du numérique s’actualisent.

Manifestement, en une vingtaine d’années à peine, les modalités pratiques de l’interaction sociale ont profondément changé, démultipliant une multitude de liaisons numériques dont la réalité n’est plus à démontrer (Casilli, 2010). La télévision, la radio, la presse et plus généralement l’audiovisuel font l’objet de transformations remarquables. La finance, le commerce et la communication composent fébrilement avec des opportunités qui perturbent leurs conventions. La politique est elle aussi traversée par une relation différente aux citoyens, plus directe, mais aussi plus sensible et plus fragile. Les rencontres, plus ou moins « amoureuses », s’inscrivent aussi dans cet environnement renouvelé. Concrètement, alors que les moyens de transport ont augmenté la circulation des réalités matérielles tout au long du XXe siècle, les moyens de transmission de l’information ont connu un changement radical avec le développement d’Internet et de la téléphonie mobile. Si l’on considère plus spécifiquement la conjonction de la mobilité et de la télécommunication, cela fait moins d’une décennie que l’humanité dispose d’un espace en commun qui autorise des relations permanentes, synchrones, symétriques, mobiles, personnelles et sans apriori à l’échelle de la planète (Beaude, 2012).

À la différence de la radio, de la télévision ou du téléphone, Internet est une meta-technologie spatiale qui ne se contente pas des flux. Internet transmet tout aussi bien les flux télévisuels, radiophoniques ou téléphoniques, qu’il autorise de nouvelles pratiques, créant non seulement des relations éphémères, mais aussi des environnements stables au sein desquels s’exprime une part croissante des relations sociales contemporaines. En cela, Internet est très rapidement devenu social, autorisant des expressions individuelles de toutes parts, sur une page personnelle dans un premier temps, puis sur des blogs, avant de se manifester massivement dans ce qu’il est convenu d’appeler les médias sociaux. Facebook, Instagram ou YouTube sont autant d’espaces qui ne font qu’accueillir et organiser les expressions individuelles. WhatsApp, Messenger ou Messages organisent les communications en créant une confusion permanente entre la synchronisation de l’échange et la profondeur de son archivage. Enfin, Wikipédia autorise sans apriori la coproduction d’une encyclopédie devenue le site d’information le plus consulté au monde.

En d’autres termes, nous n’assistons pas tant à la synchronisation du Monde, qui fut engagée il y a déjà quelques siècles, mais plutôt à ce qui pourrait être qualifié de synchôrisation (Beaude, 2012 ? Beaude, 2013 ? Beaude, 2014). Progressivement engagé avec la roue, la route, le rail, le bateau, l’avion, le télégraphe, le téléphone, la radio ou la télévision, Internet a effectivement radicalisé le processus par lequel nous établissons un espace en commun. La synchôrisation est ce processus par lequel nous œuvrons à rendre la distance non pertinente. Si la synchronisation à l’échelle d’une pièce ou d’un village fut relativement simple, elle fut beaucoup plus longue à l’échelle d’une région, d’un continent et plus encore de la planète. Il en va de même de la synchôrisation. Elle s’impose lors d’une coprésence au sein d’une même pièce, mais il a fallu des siècles avant de la rendre possible à l’échelle du Monde.

1.3. Synchôrisation des traces

Les corps, les aliments, les matières premières ou les biens transformés, de par leurs masses et leurs volumes significatifs, exigent une énergie et des moyens considérables pour circuler à l’échelle planétaire. Le commerce de marchandises s’est mondialisé avec la synchôrisation des réalités matérielles, mais ces dernières décennies la synchôrisation de l’information fut nettement plus importante. Aussi, une part considérable des réalités matérielles qui avait vocation à faire circuler de l’information (courrier, CD, DVD, journal…) fut dématérialisée afin d’exploiter pleinement ce découplage entre la vitesse de transmission numérique de l’information et la lenteur des moyens du déplacement des autres réalités, très nombreuses elles aussi, qui ne peuvent être transmise sous cette forme.

Or, ce découplage constitue l’attrait principal d’Internet. Lorsque l’information est au cœur d’une problématique de distance, Internet tend effectivement à être l’espace privilégié pour y répondre. Le texte et le son, puis les images et la vidéo, d’une qualité croissante, y trouvèrent la spatialité la plus optimale. Internet devint progressivement le dispositif de transmission de la musique, de la radio et de la télévision, autorisant peu à peu des pratiques plus innovantes, asynchrones et plus interactives. La VOD, les podcasts, le replay, les likes, les partages ou les commentaires s’inscrivent dans cette évolution significative des médiations contemporaines. La messagerie, elle aussi, par courriel ou instantanée, individuelle ou collective, a considérablement redéfini le statut de la correspondance papier, de plus en plus affecté à l’administration et à la publicité.

Cette remédiation établie, Internet transforma plus encore les logiques d’intermédiation, au cœur de l’économie, jusqu’à l’expression même d’ubérisation. Le succès de cette expression témoigne parfaitement de la dynamique sous-jacente dont elle est le nom, qui n’est autre que la radicalisation de l’économie de marché. Du transport individuel aux services à la personne en passant par l’hébergement, l’ubérisation peut tout aussi bien être appliquée à la logique plus générale des « plateformes », espaces de médiation vides qui n’attendent que leurs usagers et leurs contributions pour se développer. Facebook, Instagram, Tinder ou YouTube, par exemple, peuvent tout aussi bien être considérés comme de simples espaces qui accueillent l’offre et la demande de relations sociales ou de contenus. Pour le dire plus simplement, si Internet est devenu aussi important, dans son ensemble comme dans ses parties les plus emblématiques, c’est essentiellement parce qu’il est l’espace constitué de toutes ces relations, mais aussi la condition de leur perpétuation. Cette propension à accueillir une part croissante des relations sociales constitue un enjeu social, économique et politique majeur, dont nous ne cessons de saisir l’ampleur à la mesure de leurs déploiements.

En se soustrayant aux contraintes de la matérialité au profit de la maitrise de l’énergie, en substituant la transmission au déplacement, la matérialité se situe dès lors non pas dans ce qui est communiqué, mais dans ce qui autorise la communication. L’enjeu stratégique de la matérialité est en cela plus situé (dispositif de connexion, de calcul, de stockage, d’usage…), alors que ce qui circule se limite à de l’énergie. Ce glissement du déplacement à la transmission autorisa des vitesses incommensurables, sans lesquelles la synchôrisation mondiale de l’information serait sans commune mesure. Initié dans des formes unidirectionnelles et limité avec la radio et la télévision, ce glissement a développé des modèles économiques spécifiques qui reposent en très grande partie sur les économies d’échelles — coût marginal de production négligeable — associées aux effets de réseaux — intérêt quadratique avec le nombre d’usagers.

Dans de telles circonstances, des services majeurs tels que Google Search, Google Map, Google Docs, Facebook, mais aussi Craigslist, Wikipédia, YouTube ou Spotify ainsi que de très nombreux services d’accès illégal à des ressources audiovisuelles peuvent être fournis gratuitement. En revanche, si Wikipédia repose sur les dons, il s’agit d’une exception. Le modèle économique qui s’est largement imposé avec le développement d’Internet fut sans conteste celui de la gratuité financée par la publicité ciblée. La presse fut particulièrement affectée par ce modèle, s’ajustant au plus près de la demande au point de renoncer parfois à ce qu’elle offrait, cherchant à revaloriser des contenus dont le coût de production reste élevé, alors que celui de leur reproduction est devenu négligeable.

Comprendre cette transformation de l’économie de l’information exige néanmoins de considérer une dernière qualité de la spatialité d’Internet. Aux économies d’échelles et aux effets de réseaux, s’ajoute une autre disposition spécifique : la haute traçabilité des pratiques. Internet, plus que tout autre espace, se caractérise en effet par une traçabilité inédite, autorisant virtuellement l’enregistrement du moindre acte élémentaire ainsi que sa transmission instantanée. Ce potentiel de traçabilité, associé au modèle économique de la gratuité financée par la publicité, s’est traduit en quelques années en un dispositif de traçabilité massif et sans précédent. Une traçabilité qui opère de plus en plus comme une surveillance qui permet de profiler les individus et de maximiser le rendement de l’espace, en ciblant au plus près ceux qui en font l’expérience. Cette traçabilité s’est progressivement étendue à l’ensemble des pratiques numériques, augmentant plus encore le rendement de la publicité. Google et Facebook, en suivant les individus de site en site par l’entremise de leurs scripts respectifs (analytiques pour Google et sociaux pour Facebook), étendent plus encore l’hypercentralité de leurs propres espaces, disposant peu à peu de la perception la plus exhaustive des pratiques individuelles que l’humanité est produite en quelques millénaires. À la synchôrisation des pratiques correspond ainsi celle des traces, produisant un phénomène conjoint d’hypercentralisation au seul profit de quelques acteurs qui en ont une totale maitrise.

1.4. La traçabilité numérique de l’individu

Le potentiel de traçabilité des pratiques numériques est si puissant, qu’il s’est imposé à l’ensemble des dispositifs et des services. De la gouvernance de Wikipédia qui passe par les historiques de contribution aux suggestions de Spotify, Netflix ou Amazon, en passant par la hiérarchie des contenus sur Google ou Facebook et plus généralement dans le cadre de la publicité ciblée, l’exploitation des traces numériques ne constitue pas l’exception, mais la norme. En assurant une plus grande traçabilité des pratiques, en ajustant les contenus aux utilisateurs et en proposant des publicités plus « engageantes », la valeur des traces n’a cessé d’augmenter avec l’extension de leur collecte, la généralisation de leur association et le raffinement de leur traitement.

Yves Citton, après avoir attentivement décrit l’économie de l’attention héritée des économies d’échelles et des effets de réseaux (Citton, 2014), dénonçait récemment ce glissement de l’économie de l’attention à celle des traces attentionnelles (Citton, 2018). Les traces attentionnelles constituent finalement ce par quoi l’économie de l’attention trouve son expression la plus aboutie. Nos attentions sont tracées pour nous être restituées sous d’autres formes, afin de susciter de nouveaux engagements. C’est précisément la raison pour laquelle, en réponse à l’économie de l’attention, Google répond que cela n’est pas ce qui constitue le cœur de leur métier. Créant une habile passerelle entre l’économie de l’attention et l’économie des traces attentionnelles, Sébastien Missoffe, directeur général de Google France, préfère parler d’économie de l’intention. L’activité de Google ne consisterait pas tant à capter notre attention, mais plutôt à créer l’environnement favorable à l’expression de nos intentions. Il s’agit en cela de saisir nos intentions au plus près de leur expression, avant même qu’elles ne surviennent. En insistant sur le modèle économique, l’économie de l’attention sous-estimerait l’adhésion des individus. Or, les traces attentionnelles permettent précisément de produire cette convergence entre l’individualisation consentie du service et le rendement du ciblage publicitaire.

Ce passage des traces d’attentions aux intentions constitue probablement l’un des enjeux politiques majeurs d’Internet. Qu’il s’agisse d’une intention de consommation ou de vote, l’architecture qui organise nos pratiques numériques, la collecte des traces, leur synchôrisation par quelques acteurs et leurs restitutions trop souvent imperceptibles transforme en profondeur l’expérience et la production d’un monde commun. De plus en plus individualisées, les spatialités numériques participent d’un monde familier pour ceux qui l’expérimentent et opaque pour ceux qui lui sont extérieurs. Plus précisément, à l’exemple du scandale de Cambridge Analytica, seul Facebook disposait d’une vision globale de ce à quoi furent exposés les citoyens américains ou britanniques lors des campagnes de Trump ou du Brexit, soulignant le décalage croissant entre nos perceptions individuelles et collectives du Monde. Bien que cela fut relativement bien accepté pour la publicité, la déclinaison du ciblage à la communication politique contribua à la prise de conscience du pouvoir que détiennent à présent quelques acteurs.

En maitrisant conjointement la spatialité des traces et des pratiques numériques, Google et Facebook comptent en effet parmi les seuls à disposer d’un tel pouvoir sur les conduites individuelles et collectives. Alors que dans les années 90, nous connaissions les résultats d’une recherche sur Google pour un terme particulier, cela fait à présent des années que ces résultats sont trop individualisés pour être comparables, n’autorisant plus la moindre expérience commune de la hiérarchie de l’information. Aussi, nous assistons à une inversion des chambres d’échos politiques, historiquement assurés par des chaines de télévision ou des journaux. À présent, les bulles ne se constituent pas autour de médias qui tiennent une ligne éditoriale spécifique, mais autour de médias sociaux, très peu nombreux, qui s’adaptent continuellement à chaque individu. S’il était relativement simple de définir la ligne éditoriale de Fox New, Breitbart, The Guardian ou Libération, cela ne fait plus aucun sens de parler de celle de Google ou de Facebook. Suspectée d’être démocrate, force est de constater que la responsabilité supposée de Facebook dans l’élection de Trump ou dans le Brexit mérite une attention, alors même que les journalistes spécialisés n’avaient pas saisi l’ampleur du ciblage politique qui leur échappait de par leurs propres affinités.

L’expérience d’Amazon, de Google, de YouTube, de Spotify ou de Facebook est à présent si personnelle que nous pourrions être tentés d’y voir l’acmé de l’expression de l’individu. Pourtant, il y a de très nombreuses raisons de ne pas succomber trop rapidement aux attraits des bulles de filtres constituées dans une telle opacité (Pariser, 2011). Car si les traces individuelles sont massivement collectées et analysées, leur traitement reste relativement opaque malgré les enjeux considérables qu’il recouvre. Cette propension des maitres de la synchôrisation de nos traces attentionnelles est précisément de vouloir en savoir le plus possible sur nous tout en en disant le moins possible sur eux-mêmes.

Constituant peu à peu cette black box society particulièrement bien décrite par Frank Pasquale (Pasquale, 2015), le pouvoir de ceux qui disposent d’une telle maitrise des pratiques numériques individuelles et collectives devrait questionner bien au-delà du partage des données avec des tiers ou de la fiscalité relative à la croissance considérable de leur revenu. Car finalement, en limitant le partage des données et en normalisant la fiscalité de leurs revenus, nous ne ferions que leur octroyer le monopole légitime de ce pouvoir inédit. Or, limité à quelques acteurs privés, il serait bien présomptueux d’imaginer que la publicité ciblée demeurera le cœur de l’activité de ces rares entreprises ces prochaines années. Maitriser la synchôrisation est un pouvoir dont nous ne faisons qu’entrevoir les virtualités. Saisir ce qui advient exige de reconsidérer avec attention ce que recouvre cette systématisation de la traçabilité, et cet acharnement à être à ce point sur la trace des individus.

Ainsi, l’enjeu de la traçabilité devient tel que les individus sont paradoxalement de moins en moins saisissables, opposant à l’opacité relative des algorithmes celle de la mise en scène de leurs traces (Cardon, 2008 ? Cardon, 2015). Partiellement enregistrées, activement orientées, les pratiques individuelles, tel qu’elles sont saisies par les traces numériques, encouragent à questionner de plus en plus la confiance que nous pouvons leur accorder, leur statut étant toujours incertain. Partielles et partiales, les traces numériques ne nous disent pas tout des individus. En l’absence de corps, c’est la relation même à un individu qui peut être discutée (Rouvroy, 2010), alors que de plus en plus de bots ou de professionnels contribuent à les produire selon des intérêts particuliers.

L’identité numérique est ainsi construite selon de multiples modalités qui engagent à distinguer, au-delà des identités agissantes, les identités déclarées des identités calculées (Georges, 2009), tout en considérant la puissance des identités projetées (Cardon, 2008). Louise Merzeau aimait rappeler, avec Milad Doueihi, qu’il nous faut apprendre à jouer de la « polyphonie » du double numérique, qui n’a pas « la rigidité d’une étiquette sociale ». L’identité constituée par nos traces « laisse une place à l’ironie, au mensonge, à la fiction » (Merzeau, 2009). Exploiter les traces numériques, c’est leur accorder de l’importance. Une fois admise la valeur de ces traces, l’intérêt devient grand de les détourner, de les orienter ou de les obscurcir.

2. Le temps des traces

Une fois considérées la spatialité des pratiques numériques et l’ampleur de leur traçabilité, une fois considérées la captation des traces et l’hypercentralité des acteurs qui en ont la plus grande maitrise, il convient d’en penser aussi la temporalité. Car la trace, fondamentalement, s’inscrit aussi dans le temps. Pour reprendre ce propos de Paul Ricœur dans un échange avec Jean-Pierre Changeux, il faut « penser la trace comme effet présent et signe de sa cause absente » (Changeux, 1998 p. 128). Toute l’importance de la trace tient dans le signe de ce qui n’est plus et que nous souhaiterions pourtant connaitre.

En cela, la temporalité de la trace peut être pensée selon ces deux dimensions : ce que la trace est en tant que trace et ce qu’elle nous dit de ce qui n’est plus en tant que signe. Mais du signe à la trace, le chemin est obscur et incertain. Or, à la différence de la plupart des traces qui participent de nos histoires, les traces numériques seraient trop souvent supposées entretenir une analogie parfaite entre le signe et la trace (Merzeau, 2009 ? Cardon, 2015 ? Beaude, 2015). Parce qu’elles sont sciemment constituées, du like actif à la géolocalisation passive, la trace semble être le signe indiscutable de ce qui n’est plus : l’appréciation d’une chose, la localisation en un lieu… Pourtant, sans contexte, sans présence, comment pourrions-nous avoir cette assurance ? L’appréciation porte-t-elle sur la dénonciation d’un acte ou sur l’acte dénoncé ? La localisation est-elle celle d’une personne ou celle du dispositif qui lui est associé ?

Pourquoi tracer à ce point les pratiques ? Pourquoi profiler avec un tel acharnement des identités supposées ? Est-ce pour connaitre leurs histoires ou pour infléchir leurs avenirs ? Les traces, comme signes, disposent en effet d’une valeur descriptive tellement étendue, qu’elle crée une confusion entre ce qu’elle nous dit de ce qui n’est plus et ce qu’elle suppose de ce qui n’est pas encore. Les traces nous informent non seulement sur des états, mais aussi sur des dynamiques, des probabilités, des intentions. Il y a dans cet intérêt profond pour les traces, dans cette architecture monumentale et inédite qui les accueille, les constitue, les agrège, les analyse et les restitue partiellement, une volonté de puissance dont les fondements tiennent au pouvoir de la connaissance. Savoir ce qui a été permettrait d’avoir plus de prises sur ce qui est.

Ce pouvoir de l’information est d’autant plus explicite qu’il est convenu de parler de « pétrole du XXIe siècle ». La création de valeur viendrait de la connaissance fine de son environnement, de ses clients, de leurs déplacements, de leurs achats, de leurs historiques de recherche et de navigation, de leurs relations sociales et, de plus en plus, de leurs corps. Une analogie d’autant plus étrange qu’elle n’insiste que sur la valeur marchande, le pétrole et les données étant par ailleurs incommensurables. Le pétrole est une ressource naturelle située et limitée, c’est-à-dire une valorisation de qualités spécifiques de notre environnement biophysique, alors que les données sont totalement construites, personnelles et non limitées. Cette confusion largement répandue souligne à quel point la valeur de la donnée n’est pas saisie dans ce qu’elle a de particulier : elle n’a de sens que dans sa profondeur temporelle et spatiale. Alors que la valeur du pétrole, comme celle de l’or, est relativement insensible à sa quantité, la valeur des données croît considérablement avec leur nombre.

Afin de mieux saisir la valeur des données et plus précisément cette tension entre le passé et l’avenir porté par les traces accessibles présentement, nous proposons de distinguer ces trois temporalités de la trace. Selon que les traces soient utilisées pour lire le passé, pour dire le présent ou pour pré-dire l’avenir, leurs qualités diffèrent et les attentes à leur égard plus encore. Cette hypertracabilité réactive en effet des conceptions délaissées par les sciences sociales et ressuscite l’engouement positiviste qui prévalait au XIXe siècle. Il n’est en cela pas surprenant de constater que cet espoir renouvelé en la quantification des réalités sociales intéressent de plus en plus les physiciens et les informaticiens, qui y trouvent un nouveau champ d’investigation particulièrement stimulant. La trace, dans de telles circonstances, semble apporter les conditions de l’induction, de l’expérimentation et de la prédiction, sans lesquelles les sciences sociales ne pourraient tout à fait prétendre au statut de science.

La politique, mais aussi l’économie, trouvent aussi dans cette abondance de données les fondements de leur investigation au plus près des dynamiques individuelles et collectives, au point d’y voir les prémices d’une data driven society, un mode d’existence collectif dont les conduites seraient organisées et régulées par les données. Être à ce point sur les traces de l’individu constitue manifestement un enjeu scientifique, économique et politique majeur, dont il convient de clarifier plus encore les fondements, tant les attentes à l’égard de ces traces sont révélatrices d’une conception de la politique profondément scientiste, œuvrant à substituer aux échecs du structuralisme et des idéologies totalitaires l’idéal de la neutralité des faits et de l’ordre des lois naturelles.

2.1. Lire le passé

La connaissance, comme pouvoir d’agir avec discernement, en adéquation avec son environnement, entretient une relation complexe avec le passé. Cumulative, la connaissance est néanmoins toujours partielle, située et héritée. Une histoire, comme association narrative entre des faits révolus, pourrait être racontée tout autrement, non seulement avec une connaissance complémentaire d’autres faits, mais aussi dans la manière de les associer. Aussi, nous sommes paradoxalement tentés de nous plonger toujours plus dans les détails qui font nos histoires, tout en voulant s’y soustraire par une connaissance plus approfondie de la logique des choses. L’astronomie et la physique, en particulier, œuvrent essentiellement à cela, dispensant d’observer de nouveaux détails une fois les « lois » qui organisent la relation entre les planètes ou les particules identifiées. Tant qu’une nouvelle observation ne remet pas en cause ces lois, ces dernières dispensent paradoxalement d’observer.

La tentation est grande de transposer cela à la dynamique des sociétés, rappelant la tension toujours vive entre les démarches nomothétique et idiosyncrasique. La maitrise du cours de la l’action constitue un enjeu tel que la recherche de structures sous-jacentes, de lois générales et d’invariants ne saurait être négligée. La tentation est grande de se plonger dans le passé pour s’informer des innombrables situations singulières et y chercher un ordre si ce n’est rassurant, tout du moins éclairant sur ce qui vient.

Tout héritage constitue en cela une trace de nos histoires. Le texte, parfois daté, parfois datable, constitue l’une des sources privilégiées, histoire d’histoires qui nous donne le sentiment de faire parler ce qui n’est plus. Les objets nous informent aussi, sous des formes souvent dégradées et sans la moindre parole, de pratiques probables, mais toujours supposées. L’association des traces matérielles de notre passé conforte des hypothèses, apaise des doutes et renforce parfois des certitudes. Par association et datation de plus en plus fines et complexes, des histoires se constituent et se précisent. Néanmoins, aussi fines soient-elles, le doute reste immense quant à leur valeur actuelle. Pour nous en convaincre, alors que les analogies avec l’entre-deux-guerres se font de plus en plus nombreuses, quelles conclusions pourrions-nous en tirer dans un monde où la Chine est devenue l’une des plus grandes puissances militaires et où la dissuasion nucléaire a profondément transformé le statut de la force devenue ultime ? Ce que nous apprennent les traces de notre passé, c’est à quel point les situations peuvent sembler proches, tout en étant à ce point singulières. Force est de constater que l’histoire ne se répète jamais. Au mieux, elle présente des analogies éclairantes, mais toujours insuffisantes.

En cela, en quoi le numérique présenterait-il une exception à ce constat pourtant lourd de ses récurrences. Est-ce la quantité des traces qui nous laisse à ce point espérer ? Est-ce leur diversité au plus près des pratiques qui mérite d’en reconsidérer la pertinence ? Est-ce leur association plus intime à des individus qui leur donnerait plus de valeur ? Est-ce, enfin, la capacité de traitement informatique de ces traces qui nous laisse espérer que le futur s’y trouverait, même s’il était bien dissimulé ?

Nous serions tentés d’y voir une radicalisation de la distinction entre la conscience discursive et la conscience pratique (Giddens, 1984). Les traces seraient-elles à ce point plus expressives et plus fidèles que les mots ? Serions-nous incapables de décrire nos propres existences au point que nos traces seraient plus explicites, plus fiables et plus certaines ? Aurions-nous même du mal à reconnaitre notre propre histoire, à en avoir conscience et à donner du sens à des actes que nous ne comprenons pas nous-mêmes ?

Les attentes à l’égard des traces sont en cela à la hauteur de nos ignorances. Nous aimerions tant comprendre d’où nous venons, où nous en sommes et où nous allons. Aussi, il est supposé qu’il nous faut prendre du recul et ne pas nous perdre dans les détails de l’histoire. Associer le plus de choses entre elles et saisir ce qui les relie. C’est, en quelque sorte, ce à quoi nous invite Franco Moretti, lorsqu’il engage à ne plus lire des livres pour faire de la littérature (Moretti, 2013). En suggérant que l’exigence de la lecture impose de se focaliser sur des œuvres et des auteurs jugés majeurs, il appelle à une lecture distante, qui encouragerait à ne pas se perdre dans les discours trop situés pour mieux en saisir la singularité, les éléments saillants, les surgissements et, ainsi, d’opérationnaliser des hypothèses d’ordre plus général (Moretti, 2015).

L’attrait pour le distant reading tient peut être à la sobriété de l’expression, qui évite l’opposition épuisée entre le quantitatif et le qualitatif. Elle suggère juste que le traitement numérique de l’information permet de prendre du recul sur les cas particuliers et de mieux en saisir l’éventuelle singularité, ou au contraire l’héritage et l’inscription dans une dynamique plus générale. Car si la littérature est en mesure d’opérationnaliser ses concepts depuis peu (Moretti, 2015), les sciences sociales, par les recensements et les enquêtes, pratiquent le distant reading depuis fort longtemps, offrant à la sociologie une histoire déjà riche de la quantification.

Mais aussi intense et extensive que puisse être la production contemporaine des traces numériques, elle n’en demeure pas moins très fragmentaire et particulièrement contemporaine. La trace, devenue numérique, oppose ainsi les processus de numérisation de traces plus conventionnelles, dont les humanités numériques affinent sans cesse l’étendue et la démarche (Moretti, 2013) et l’exploitation des traces nativement numériques, activement engagée par la DMI — Digital Methods Initiative — promus par Richard Rogers (Rogers, 2013), et plus généralement par de plus en plus de physiciens et d’informaticiens qui trouvent dans ces données de nouveaux champs d’investigation (Lazer, 2009 ? Pentland, 2014 ? Barabasi, 2016).

L’actualité de ce processus encourage à toujours saisir la qualité fragmentaire de ces traces, qui ne disent jamais ce qui n’a pas été traduit en nombre. L’initiative de Google Ngram Viewer est l’une des plus emblématiques de l’opacité de ce qui n’est pas tracé (Michel, 2011), tout comme l’API de Twitter qui ne nous assure pas plus de l’exhaustivité de ce à quoi elle donne accès (boyd, 2012). La trace ne dispense pas non plus de considérer sa partialité, lorsqu’elle ne représente aucune société de référence. Des textes anciens ne parlent-ils pas du point de vue de leur auteur, des tweets rendent-ils compte d’autre chose que ce qui anime ceux qui s’expriment par cette médiation ?

Enfin, aussi contemporaines que puissent être les traces numériques, beaucoup ne sont pas accessibles, lorsqu’elles ne sont tout simplement pas archivées ou même illisibles. Que dire, enfin, de la variation des traces, lorsqu’il est difficile de saisir si elles relèvent de la pratique ou de l’environnement des pratiques (Marres, 2017 ? Shaw:2015). Une chute brutale de contribution sur une page de Wikipédia est-elle liée à une absence d’intérêt pour la page, un durcissement des conditions d’accès aux contributions pour les non-initiés ou un problème ponctuel de serveurs ? Sans contexte, de quoi les traces peuvent-elles bien être le signe (Merzeau, 2009 ? boyd, 2012) ?

Aussi, avec la fusion entre l’architecture des médiations numériques et celle de leur traçabilité, la simplicité de certains phénomènes observés n’est-elle pas à l’image de celle des formes d’interactions possibles et imposées par les plateformes selon leurs propres intérêts ? Alors que nous pensons décrire des phénomènes sociaux, ne sommes-nous pas en train d’étudier la société comme des éthologues qui croiraient décrire le comportement de fauves dans la savane alors qu’ils les observeraient dans un zoo (Tornberg, 2018) ?

2.2. Dire le présent

Finalement, la prudence nous engage à attendre des traces une fonction essentiellement descriptive, partielle et incertaine, dont la valeur heuristique est importante, mais la plupart du temps limitée. Une prudence pourtant trop rare, lorsque les traces collectées tendent vers le présent, avant d’être restituées dans le cours de l’action.

L’actualité des traces constitue effectivement l’une des dimensions fondatrices du big data. Avec la quantité (volume) et à la diversité (variété) des données, la vélocité, conçue comme la tendance vers la restitution en temps réel des traces produites, serait l’une des caractéristiques du big data, telle qu’elle fut proposée en 2001 par META Group (devenu Gartner). Très largement reprise depuis, cette conception reste très utilisée par les principaux acteurs du domaine (Laney, 2001 ? Mayer Schonberger, 2013).

L’exigence du big data s’est traduite par des développements spécifiques en termes d’infrastructures. Certains préférant ainsi définir le big data par le traitement de données qui ne sauraient être réalisé par des moyens conventionnels, repoussant continuellement la limite de sa définition aux performances actuelles. D’autres, tels que Chris Anderson, ont préféré insister sur un seuil qui marquerait une rupture paradigmatique avec les ordres de grandeur précédents, évoquant la fin des théories avec l’âge du petabyte (Anderson, 2008).

Peu importent les définitions et les conceptions du big data — qui nous informent plus sur la pluralité du phénomène que sur le phénomène lui-même —, ses manifestations les plus évidentes sont la plupart du temps ancrées dans l’instant. Si des chercheurs s’intéressent à la numérisation des archives (textes anciens, tableaux…), cette démarche s’inscrit très marginalement dans ce qui relève du big data, l’essentiel des moyens mis en œuvre étant consacré à l’exploitation de traces nativement numériques susceptibles d’informer plus directement le présent. Qu’il s’agisse de géolocalisations, d’historiques de navigation web, de posts, de likes ou de shares, l’histoire de ces traces est mobilisée pour mieux saisir les virtualités du présent.

Ce principe est poussé à une telle extrémité que la publicité ciblée fait l’objet d’une concurrence entre les annonceurs au moment même de l’affichage selon les qualités supposées de la cible. Cette association d’historiques individuels susceptibles de mieux singulariser les virtualités présentes est aussi au cœur des suggestions de Spotify ou d’Amazon. Elle est aussi exploitée dans le cadre de Google Map afin d’informer sur la fluidité de la circulation ou à la fréquentation de lieux spécifiques (magasins, musées…). Pour pouvoir être mobilisé dans l’instant, le big data suppose d’agréger continuellement les traces, dans des proportions qui dépassent largement ce qui prévalait il y a à peine vingt ans. La synchôrisation des pratiques associée à celle de leurs traces participe ainsi d’un feed-back d’une rare puissance, qui convoque sans cesse le passé dans le présent au risque de le reproduire sur lui-même ou de le transformer au prisme de la restitution partielle et souvent partiale de notre passé.

L’engouement initial pour le big data, particulièrement bien illustré par Chris Anderson, entretient l’illusion selon laquelle « les faits parleraient d’eux-mêmes ». Avec de telles quantités de données, les hypothèses, les modèles et les tests seraient devenus « obsolètes ». Le Petabyte nous autoriserait enfin à dire que la « corrélation suffit » (Anderson, 2008). Physicien de formation, Chris Anderson esquissait dès 2008 la résurgence du déterminisme naturelle qui s’est depuis particulièrement imposé dans la physique sociale d’Alex Pentland ou d’Albert-László Barabási et plus généralement dans les computational social science (Lazer, 2009). Car même si ces chercheurs mobilisent souvent des modèles et des théories qui s’inspirent de la pensée complexe et de l’analyse de réseaux, les présupposés restent très similaires : des lois naturelles organiseraient le monde social comme tout autre monde et la quantité des données disponibles permettrait enfin de faire des sciences sociales.

Le cas le plus emblématique, au cœur des prémices du big data et de sa promotion, est certainement la prévision de la grippe annoncée par Google en 2008. En développant une approche sans apriori, qui reposait sur la seule corrélation des recherches sur Google avec les épidémies de grippes des années précédentes, Google annonçait disposer de deux semaines d’avance sur la prévision de la grippe émise par le CDC (Centers for Disease Control and Prevention). Pourtant, dès l’année suivante, Google Flu Trends ne fonctionnait déjà plus. Malgré toutes les prudences, l’équipe de Google avait pêché par excès de corrélations et d’overfitting, le modèle étant incapable de s’adapter à la variation des recherches à venir, aux changements de ses propres algorithmes de suggestion et aux événements tels que le h2N1 (Lazer, 2014). Le projet a finalement été amélioré en utilisant des méthodes mixtes, avant d’être abandonné, les prédictions n’étant finalement pas supérieures à de simples projections des déclarations officielles des années précédentes.

Pourtant, le mythe de la performance de Google Flu Trends fut longtemps entretenu, au point d’être au cœur de l’introduction de l’ouvrage de référence sur le big data de Viktor Mayer-Schönberger et Kenneth Cukier, pourtant publié en 2013 (Mayer Schonberger, 2013). Ils annonçaient une « révolution qui allait changer notre façon de vivre, de travailler et de penser ». Une révolution qui repose sur la quantité, car si « la corrélation est utile dans un small-data world, elle brillerait vraiment dans le contexte du big data ». Rappelant ce qu’est une corrélation, ils expliquaient que plus les personnes d’une région étaient nombreuses à chercher des termes particuliers sur Google, et plus le nombre de personnes contaminées par la grippe était important dans cette région. Cette hypothèse était pourtant déjà réfutée par la pratique dès 2009 (Butler, 2013), en plus de l’être aussi théoriquement (Taleb, 2012), les corrélations fallacieuses augmentant quadratiquement avec le nombre de variables, ce qui était bien entendu l’une des principales faiblesses de l’approche adoptée alors par Google.

Aussi, l’ambiguïté entre la description du présent et la prédiction de l’avenir se fait de plus en plus grande. Les embouteillages illustrent parfaitement cela, lorsque Google annonce un embouteillage probable à 17h sur un tronçon en fonction de la fréquentation habituelle de ce tronçon. Cette pré-diction étant historique, elle nous décrit une situation à venir sur la base de son histoire. Il s’agit d’une probabilité élémentaire, dont la sophistication tient essentiellement à la quantité de données et de situations que Google doit collecter et traiter pour les restituer à chaque individu selon le cours de leur action individuelle. Or, prédire le monde social n’est pas aisé. Même les embouteillages, qui résultent d’une activité très normalisée et en cela relativement prévisible (Levy, 1996), restent sujets à de nombreux imprévus, qui ne sauraient être saisis par la simple lecture de nos traces. Un simple incident affectant un véhicule (relatif à ses composants ou au comportement de son conducteur) ou au contraire un événement singulier susceptible d’affecter la région (festival, Tour de France, convoi exceptionnel) suffit à déjouer les prédictions qui supposent l’avenir contenu dans le passé. C’est finalement en associant les traces les plus distantes à notre situation que Google nous informe sur notre présent à venir : à quelques kilomètres, dans quelques minutes, la circulation ne sera plus la même.

Enfin, le big data est régulièrement convoqué contre les catégories, contre l’homme moyen, contre les classes sociales et plus généralement contre toute forme d’écrasement du sujet, réduit a priori à un groupe de référence. La catégorie socioprofessionnelle, l’âge, le genre ou le lieu de résidence sont autant d’attributs qui seraient des réductions grossières de la pluralité des êtres. Avec Bruno Latour, nous serions tentés de penser que nous pouvons enfin réaliser l’ambition théorique de Tarde et suivre singulièrement les individus et les relations qui fondent le social (Latour, 2010). Il serait enfin possible d’être au plus près de la société en train de se faire et des collectifs en train de se constituer. Nous aurions enfin la possibilité d’observer l’individuation et les processus d’émergence de singularités. Le big data permettrait de se passer des catégories a priori, au bénéfice de descripteurs individuels plus inductifs et analogiques aux pratiques effectives et non supposées. Pour la première fois, les sciences « interprétatives » disposeraient de moyens comparables à ceux qui sont utilisés en sciences « naturelles » (Latour, 2010 p. 161).

Néanmoins, l’abandon de la « statistique sociale organisée autour de catégories stables et d’une loi normale » si bien décrite par Desrosières au profit d’une statistique « personnalisant la prédiction pour chaque individu » témoignerait aussi d’une « radicalisation de l’incertitude sur les causes du comportement individuel » (Benbouzid, 2018 p. 29). Or, en « déployant une grande imagination méthodologique pour s’assurer que les données parlent aux calculateurs sans l’intervention modélisatrice des chercheurs, ces derniers ont une tendance immédiate à prolonger le geste inductif d’une hypothèse naturalisante » (Benbouzid, 2018 p. 22).

Cette disposition particulière à l’égard des traces numériques constitue l’un des enjeux épistémologiques les plus importants de la traçabilité numérique des individus (Kitchin 2013 ? 2014 ? Beaude 2017). Elle questionne plus fondamentalement les perspectives constructivistes de la réalité déjà si bien décrite par Ian Hacking. Plus précisément, les attentes à l’égard du big data dépendent étroitement du rapport que nous avons à la contingence, au nominalisme et à la stabilité des phénomènes observés (Hacking, 1999). Les approches les plus idéalistes du big data exigent effectivement de privilégier l’inéluctabilité à la contingence, le structurisme-inhérent au nominalisme et la stabilité externe à la stabilité interne. Il s’agit en effet de saisir l’organisation inévitable du monde social à partir de l’observation de relations externes entre des entités dont l’organisation est d’autant plus stable qu’elle relève de structures inhérentes. À l’opposé, les critiques les plus sévères soulignent la contingence des phénomènes observés, dont l’éventuelle stabilité ne serait que provisoirement entretenue par un équilibre précaire entre les dispositions internes et externes des entités considérées.

Se pose ainsi la question de la complexité. Afin de souligner cette tension entre la qualité des entités reliées et la quantité des relations entre ces entités, Peter et Anton Törnberg suggèrent qu’il est décisif de réconcilier le compliqué (interaction limitée entre des entités sophistiquées) et le complexe (interaction sophistiquée entre des entités simples) (Morin:1990 ? Tornberg, 2018). Or, dans un tout autre registre, Albert Piette ne disait pas autre chose dans sa critique du relationnisme (Piette, 2014). Car si l’on saisit très bien l’importance de la « révolution copernicienne » du passage de l’objet en la relation dans la pensée de l’objet lui-même (Heinich, 2016), l’insistance pour la relation et pour la complexité se fait trop souvent au détriment de la pensée du sujet. Pris dans un entrelacs de relations innombrables, le sujet s’efface, et le volume d’être qui le caractérise se trouve réduit à ses relations observables (Piette, 2014). Pourtant, en opposant les exo-relations (relations de l’individu à son environnement) et les endo-relations (incorporation des exo-relations), Albert Piette nous rend sensibles à ce qui est en puissance dans l’instant sans être totalement exprimé, mais aussi à ce qui est exprimé dans l’instant, mais puisé dans des expériences passées. Il est question non seulement des dispositions naturelles à agir en relation, mais aussi des dispositions acquises, dans la perspective de Leibniz, de l’accumulation de ces perceptions insensibles qui constituent le même individu.

C’est pourquoi la question majeure relative aux traces numériques des individus est plus fondamentalement celle de la détermination des individus. La valeur des traces est ainsi fondée non seulement sur leur capacité supposée à dire ce que sont les individus, mais plus encore à déterminer ce qu’ils sont en puissance.

2.3. Pré-dire

« Une intelligence qui pour un instant donné, connaitrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l'avenir comme le passé, serait présent à ses yeux » (Laplace, 1825 p. 4). C’est en ces termes que Laplace introduisait au début du XIXe siècle son essai philosophique sur les probabilités. C’est aussi en ces termes que le débat se prolongea jusqu’à aujourd’hui. Les espoirs à l’égard de l’intelligence artificielle ne s’expriment pas autrement, associant dans sa forme la plus récente la performance du machine learning à la prolifération de traces, pour prédire les embouteillages, les intentions d’achats, la récidive criminelle, l’adéquation d’un candidat ou l’orientation sexuelle, avec cet espoir de totalisation du réel (Rouvroy, 2013).

Animée par la performance de l’astronomie, la tentation de Laplace était grande de prolonger cette performance en l’étendant à l’ensemble des réalités constitutives de nos existences. C’est d’ailleurs précisément cette intention qui fonda le positivisme d’Auguste Comte. Il suggéra que si l’astronomie était la première des sciences, c’est essentiellement parce qu’elle était la plus simple. Le développement de sciences de plus en plus complexes, allant de l’astronomie à la sociologie, en passant par la physique, la chimie et la biologie, exigeait de s’extraire des états antérieurs de pensée — théologique et métaphysique (Comte, 1844). Or, la très haute traçabilité numérique des individus semble encourager de plus en plus de physiciens à investiguer ce nouveau domaine particulièrement stimulant, mobilisant les modèles qui firent leurs preuves dans l’étude des phénomènes physiques, et donnant finalement naissance à la physique sociale que Comte appelait de ses vœux.

Après l’astronomie, la physique s’est en effet imposée comme une discipline d’excellence, qui brille par ses performances et sa capacité à rendre compte de l’organisation des entités matérielles avec de plus en plus de finesse. Après Auguste Comte, la tentation est donc grande d’imaginer que les limites des sciences sociales seraient essentiellement liées à la rareté des observations et à la réticence à l’égard des expérimentations, des lois et de la prédiction. C’est clairement en ces termes que le physicien Ducan Watts, devenu sociologue, dénonce les faiblesses des sciences sociales qui ne sauraient prétendre à la scientificité tant qu’elles ne s’imposeront pas une clarification de leurs ambitions, des dispositifs d’expérimentations standardisés et des démonstrations qui reposeraient sur le seul critère de scientificité valable : la prédiction (Watts, 2014). En plus de la théologie et de la métaphysique, les sciences sociales devraient aussi se soustraire à la confusion qu’elles entretiennent avec le sens commun (Watts, 2011 ? Watts:2014).

C’est aussi la démarche de physiciens qui ne se revendiquent pas d’être sociologues, tels qu’Alex Pentland. Ce dernier préfère parler ouvertement de social physics, mais sans la moindre allusion à Quetelet, Comte ou Tarde, pas plus qu’à Durkheim, Weber, Bourdieu, Giddens ou Foucault (Pentland, 2014). Pour Pentland, les sciences sociales, résumées aux marchés d’Adam Smith et aux classes de Karl Marx, seraient totalement dépassées, approximatives et incapables de saisir la complexité du monde social, qui se situerait essentiellement dans l’organisation des innombrables relations entre les individus qui le constituent. Les classes et les marchés reposeraient sur des moyennes grossières et entretiendraient des stéréotypes (Pentland, 2014 p. 190). Pentland reproche ainsi aux sciences sociales de ne pas considérer la singularité des individus, tout en refusant de saisir à quel point ils sont pourtant prévisibles. S’inscrivant pleinement dans une perspective relationnelle du social, il omet pourtant de se référer à plus d’un siècle de sciences sociales, qui ont largement discuté cette position qui est au fondement même de la sociologie.

Le manque d’intérêt le plus total pour les sciences sociales contemporaines est en effet très répandu dans le contexte des sciences sociales computationnelles, telles qu’elles furent annoncées et développées par Alex Pentland, mais aussi par Albert-László Barabási (Lazer, 2009). Dans une confusion étrange entre prédiction et description, Barabási a en effet progressivement constitué une science des réseaux (Barabasi, 2002 ? Barabasi, 2010 ? Barabasi:2016), qui s’appliquerait à tous les phénomènes sociaux, telle une quête vers une explication totale, qui constitue d’ailleurs le cœur de son dernier ouvrage. Dans The Formula, il annonce l’avènement d’une science du succès et les lois qui le gouverneraient, concluant que « comme toutes les lois scientifiques, elles sont universelles et éternelles. Elles étayent des millions d’histoires individuelles, de succès et d’échecs », tout en étant ignorées par ceux qui les éprouvent, de Martin Luther King aux Beatles en passant par Einstein (Barabasi, 2018 p. 242).

Au même titre que d’autres démarches portant sur la mobilité ou le marché de l’art et publiées dans Nature et Science (Fraiberger, 2018 ? Song, 2010), Barabási décline sa science des réseaux en « révélant » les lois qui organisent le monde ainsi que la haute détermination des phénomènes sociaux. Pour Barabási, et plus encore pour Pentland, il ne s’agit pas tant d’expliquer ou de trouver des causes aux faits sociaux singuliers, mais d’identifier des relations stables entre les phénomènes observés, d’autant plus prévisibles que l’imitation, l’engagement et les habitudes seraient les dynamiques les plus fondamentales du social (Pentland, 2014). Pentland suggèrent qu’avec la prolifération des traces numériques, nous pouvons enfin étudier les individus, comme nous étions les atomes, les fourmis ou les abeilles (Pentland, 2014 p. 97-98, 190, 209). Une telle démarche serait possible, car il n’y aurait pas de distinction significative entre « les fourmis, les bactéries, les cellules, les paradigmes scientifiques ou les marchés » et il n’y aurait « pas de différence claire entre le biologique et le social » (Latour, 2010 p.  160-161).

Aussi, il est frappant de constater à quel point les similitudes entre la social physics contemporaine et la physique sociale du XIXe siècle sont importantes. Dans le prolongement d’Auguste Comte, il ne s’agit pas de chercher une cause à ce qui advient, mais d’en identifier les régularités dans le changement apparent. « La véritable science, bien loin d’être formée de simples observations, tend toujours à dispenser, autant que possible, de l’exploration directe, en y substituant cette prévision rationnelle, qui constitue, à tous égards, le principal caractère de l’esprit positif […]. Ainsi, le véritable esprit positif consiste surtout à voir pour prévoir, à étudier ce qui est afin d’en conclure ce qui sera, d’après le dogme général de l’invariabilité des lois naturelles » (Comte, 1844 p. 16-17). « En un mot, la révolution fondamentale qui caractérise la virilité de notre intelligence consiste essentiellement à substituer partout à l’inaccessible détermination des causes proprement dites la simple recherche des lois, c’est-à-dire des relations constantes qui existent entre les phénomènes observés. Qu’il s’agisse des moindres ou des plus sublimes effets, de choc et de pesanteur comme de pensée et de moralité, nous n’y pouvons vraiment connaitre que les diverses liaisons mutuelles propres à leur accomplissement, sans jamais pénétrer le mystère de leur production » (Comte, 1844 p. 13).

Or, dès la fin du XIXe siècle, Tarde nous rendait déjà sensibles à la fragilité de tels espoirs. Bien que la sociologie de Tarde soit mobilisée contre celle de Durkheim pour souligner la puissance des traces numériques dans le contexte des sciences sociales contemporaines (Latour, 2010), Tarde exprimait ainsi ses doutes : « Est-ce qu’on ne surfait pas la statistique quand on émet, à propos d’elle, certaine espérance qu’il me faut indiquer en finissant ? Comme on voit ses résultats numériques se régulariser, affecter plus de constance, à mesure qu’elle porte sur de plus grands nombres, on est quelquefois enclin à penser qu’un moment viendra où tout, dans les phénomènes sociaux, sera réductible en formules mathématiques. D’où l’on induit abusivement que le statisticien pourra un jour prédire l’état social futur aussi sûrement que l’astronome la prochaine éclipse de Vénus. En sorte que la statistique serait destinée à plonger toujours plus avant dans l’avenir comme l’archéologie dans le passé. Mais nous savons par tout ce qui précède que la statistique est circonscrite dans le champ de l’imitation et que celui de l’invention lui est interdit » (Tarde, 2001 p. 196).

L’invention, comme émergence spécifique, rendrait vaines les aspirations à prédire l’avenir sur la simple considération des régularités statistiques. Il ne s’agirait pas tant de l’incertitude relative aux phénomènes complexes, mais d’une disposition particulière dont les êtres les plus sensibles à leur environnement seraient dotés, et qui serait particulièrement marquée chez les humains. L’imitation expliquerait en cela la performance des modèles prédictifs, le monde social étant très largement constitué d’habitus, de normes, de conventions et de routines, mais l’invention expliquerait la faiblesse de ces modèles à prédire au-delà de ce qui est déjà connu et à saisir le changement qui ne s’inscrirait pas dans la simple reproduction de l’existant. L’imitation étant néanmoins si prégnante, et les modes d’organisation collective si contraigants, la performance des modèles prédictifs encourage à leur accorder plus de puissance qu’ils n’en ont réellement.

Par ailleurs, les critiques à l’égard du positivisme furent importantes en Allemagne dès le début du XXe siècle, avec Max Weber et Georg Simmel. Karl Popper a lui aussi consacré une part importante de ses recherches à émettre une critique du positivisme, particulièrement en sciences sociales, préférant le principe de réfutation aux lois prétendument universelles. Werner Heisenberg, prix Nobel de physique pour ses travaux sur la mécanique quantique, exprima lui aussi la faiblesse du positivisme, en des termes particulièrement efficaces, telle une critique avant l’heure des revendications de Watts et de Barabási. « Les positivistes ont une solution simple : le monde doit être divisé selon ce qui peut être exprimé clairement, et le reste, que nous ferions mieux de passer sous silence. Mais qui peut concevoir une philosophie plus inutile, considérant que ce que nous ne pouvons pas exprimer clairement ne saurait être considéré ? Si nous omettons tout ce qui n’est pas clair, nous nous retrouverons probablement avec des tautologies triviales et complètement inintéressantes » (Heisenberg, 1971 p. 213).

Pablo Jensen, physicien ayant suffisamment été exposé à la complexité des réalités sociales, dénonce brillamment les apories de l’acharnement contemporain à prolonger de tels espoirs. En témoignant de sa propre expérience et en s’appuyant sur de nombreuses recherches pourtant légitimées par leurs pairs, il explique pourquoi « la société ne se laisse pas facilement mettre en équation ». Il souligne bien que « la science favorise le contrôle des objets du monde, en découvrant, par manipulations dans les laboratoires, des relations constantes au sein du changement » (Jensen, 2018 p. 23). Mais il conclut, comme de nombreux sociologues avant lui, que les individus ne se laissent pas saisir avant autant de facilité que les atomes. À la mesure de ses confrontations à la complexité spécifique des réalités sociales, il devenait « plus sensible à ce que John Law a appelé l’approche baroque », dont les « adeptes éprouvent une certaine volupté à décrire les spécificités de chaque situation concrète dans le détail, et se méfient du formalisme, qui a tendance à homogénéiser, à cacher la complexité des parties. Ils s’opposent aux romantiques, qui voient la complexité dans le global, émergeant de l’interaction de myriades de particules, pensées comme homogènes et simples » (Jensen, 2018 p. 307-308). Comme si la provocation ne suffisait pas, il rappelle dès le début de l’ouvrage que l’idée selon laquelle la sociologie devrait s’inspirer de l’épistémologie éprouvée de la physique néglige les fondements même de la sociologie. C’est au contraire la démarche statistique de Quetelet qui inspira James Clerk Maxwell, lorsqu’il postula que les imprévisibilités des trajectoires individuelles des atomes se compensent lorsqu’on en agrège un grand nombre » (Jensen, 2018 p. 22).

Prédire constitue en cela un enjeu scientifique, mais aussi un enjeu de pouvoir, qui encourage à chercher des régularités dans le changement apparent. Mais la puissante résurgence du positivisme du XIXe siècle devrait tout de même nous interroger. Est-il à ce point nécessaire de rappeler les différences entre dire et prédire, entre comprendre et expliquer ou entre expliquer et prédire ? Est-il nécessaire de rappeler que la prédiction de l’exceptionnel, qui nous intéresse particulièrement, est autrement plus difficile que la prédiction de l’ordinaire, précisément parce qu’elle est exceptionnelle ? Avant même de considérer le propre de l’humain, alors que la physique éprouve encore des difficultés à saisir la chute d’une feuille ou l’effet des nuages sur le climat, pourquoi prétendre à la prédiction des phénomènes sociaux les plus complexes, tels que les crises politiques et économiques ?

Cette aspiration à la prédiction des phénomènes sociaux s’explique probablement par le besoin que nous éprouvons à mieux contrôler nos devenirs individuels et collectifs et à la régularité provisoire de la plupart de nos comportements qui nous y encouragent. Mais n’est-ce pas cette stabilité apparente qui présente pourtant le moins d’intérêt, sa description ne pouvant que saisir l’ordinaire que nous connaissons déjà, sans lui donner le moindre sens et en ne saisissant pas les émergences qui nous intéressent le plus ? Est-ce bien cela le pouvoir en société ? Le pouvoir des sciences sociales est-il de dire ce que le monde sera au regard de ce qu’il a été ou de dire ce qu’il pourrait être ? Cette question élémentaire rappelle à quel point les illusions du déterminisme animent particulièrement la physique sociale et les sciences sociales computationnelles. En introduction à un manuel de Machine learning, l’auteur en rappelle d’ailleurs avec justesse le fondement : « les analyses prédictives reposent sur une assomption : l’histoire se répète » (Dangeti, 2017 p. 46). Force est pourtant de constater qu’elle ne se répète jamais.

2.4. Virtualités des traces, virtualités de l’individu

Si la prédiction constitue un enjeu scientifique, économique et politique majeur, sa transposition de la physique aux sciences humaines et sociales n’a rien d’anodin. La prédiction questionne effectivement l’agentivité et le virtuel, niant le sujet et n’accordant à la politique qu’une fonction d’accompagnement de l’ordre naturel des choses.

Antoinette Rouvroy et Thomas Berns, dans leur réflexion sur la gouvernementalité algorithmique, questionnent précisément les perspectives d’émancipation dans le contexte de la prédiction algorithmique (Rouvroy, 2013). Sur les pas de Gilles Deleuze, ils questionnent aussi le nouveau pouvoir statistique, qui repose sur des fragments infra-individuels et supra-individuels, avant de s’exercer sur des sujets « dividualisés » (Rouvroy, 2010). Ils concluent par l’importance de la posture foucaldienne d’une « approche généalogique articulant les modes de production du savoir aux modes d’exercice du pouvoir », tout en appelant à des méta-droits : à l’oubli, à la désobéissance et à (se) rendre compte. Ils dénoncent ainsi la double disparition de la personne opérée par le big data, qui ne permet ni d’être personne, ni d’être une personne, le sujet de droit devant être en mesure d’avoir prise sur les traces qui le représente.

Cette tension entre la vie privée et la réduction de l’être à ses traces fragmentaires pose effectivement des problèmes majeurs de gouvernance, en opposant à la recherche de causes, de motivations et d’explications la perspective statistique et inductive. Les déplacements, les pages consultés, les contenus partagés et appréciés et plus généralement toutes les formes de socialités sont toujours plus agrégées, par de moins en moins d’acteurs, qui souhaite en savoir de plus possible tout en en disant le moins possible (Pasquale, 2015). Rouvroy et Berns dénoncent cette confusion croissante entre les données et les obtenus déjà soulignée par Bruno Latour (Latour, 1993 p. 188), et particulièrement développée par Jérôme Denis (Denis, 2018). Enfin, l’idée selon laquelle les données parleraient d’elles-mêmes suggère les sujets n’auraient plus rien à dire, car tout serait déjà pré-dit (Rouvroy, 2016) ! C’est en effet la puissance du sujet qui est remise en cause en contestant la capacité des individus à choisir les actualités de leurs virtualités (Deleuze, 1968).

Rouvroy et Berns critiquent finalement l’automatisation qui « passerait directement des pulsions à l’action », et se demandent ce que pourrait être l’émancipation lorsque nos désirs nous précèdent (Rouvroy, 2016) ! N’est-ce pas précisément cela qui stimule la recherche et les investissements dans ce domaine ? N’est-ce pas la prétention de l’humain à s’accorder un statut à part qui est remise en cause par l’extension de la pensée positive à l’ensemble du réel ? Le big data et la traçabilité numérique des individus n’est-elle pas animée par la volonté d’objectiver le sujet et de gouverner le cours de ses actions ? À la critique éthique de ce que recouvre la gouvernementalité algorithmique, ne devrions-nous pas dénoncer plus ouvertement la limite de ses présupposés scientifiques ? Ne devrions-nous pas insister plus encore sur la faiblesse de ses hypothèses ?

Les exemples de la délégation à des algorithmes dans le cadre de l’évaluation du risque de récidive, du déploiement des forces de l’ordre, de l’octroi de prêts bancaire ou du tri des dossiers de candidature sont particulièrement éclairants. Dans tous ces cas, la critique porte essentiellement sur le biais des algorithmes, qui discrimineraient les minorités et reproduiraient les inégalités sociales (ONeil, 2016). Pourtant, le procédé d’apprentissage ne fait la plupart du temps que reproduire les discriminations existantes, vécues par les victimes ou mises en œuvre par les juges, les forces de l’ordre ou les recruteurs. La gouvernementalité algorithmique, dans ces cas, procède essentiellement par systématisation de ce qui fut pratiqué ouvertement sans algorithme pendant des années.

L’expérience récente d’Amazon dans le domaine est particulièrement éclairante (Dastin, 2018). En constatant qu’un de leurs logiciels de présélection des dossiers induisait des discriminations selon le genre, et ce malgré la suppression de cette information dans les dossiers, Amazon a communiqué qu’elle ne souhaitait pas procéder ainsi. Le genre étant particulièrement discriminant pour certains postes sur la base des recrutements antérieurs, les profils de candidats féminins étaient systématiquement écartés par l’algorithme, dont la performance avait rendu possible l’identification du genre par de simples éléments de langage. La prédiction, de ce point de vue, ne disait rien de l’avenir, mais elle nous informait beaucoup sur la pratique des recruteurs et sur l’avenir qu’ils produisaient depuis des années. Au même titre que la récidive, les algorithmes d’apprentissage nous informent plus sur le passé que sur l’avenir. En décidant de ne pas appliquer cet algorithme, Amazon ne critiquait pas sa performance à prédire d’après ce qui se pratiquait dans l’entreprise, mais plutôt son souhait d’infléchir l’avenir en ne reproduisant pas les pratiques passées dès lors qu’elles ne sont plus souhaitables.

Alors que la critique a dénoncé la faiblesse de l’algorithme, Amazon a au contraire critiqué sa performance à reproduire les biais des recruteurs. Pourquoi Amazon, comme d’autres acteurs, s’évertuent-ils à vouloir changer l’avenir, si l’avenir est à ce point déterminé par nos actes passés ? Pourquoi la domination des hommes à des postes de directions ou dans certains domaines pourrait-elle changer ? Pourquoi les noirs américains pourraient-ils commettre moins d’actes criminels ? Pourquoi les cambrioleurs pourraient-ils changer de stratégies une fois les lieux et le rythme de leurs pratiques identifiés ? Pourquoi l’appréciation de la criminalité par l’acte commis aurait-elle moins d’intérêt que la considération de l’environnement qui l’a rendu possible ? Si Amazon décide activement de changer sa pratique de recrutement, si certains tribunaux prennent du recul sur la délégation à des algorithmes et si la police prédictive est de plus en plus critiquée, c’est essentiellement parce que nous nous autorisons non seulement à dénoncer ce que nous produisons (les algorithmes) mais aussi ce qu’ils nous disent de nos pratiques antérieures, et que nous ne souhaiterions pas reproduire. Si Amazon croit en la pertinence d’un tel choix et en sa capacité à infléchir l’avenir, c’est précisément parce que l’histoire de l’humanité est pleine de ruptures, de positions réflexives et de prédictions fragiles.

Dans la critique de la gouvernementalité algorithmique, il y a une critique plus générale de sa société de référence et de l’automatisation des discriminations, de l’enfermement sur soi-même et des déterminations plus construites que naturelles (Eubanks, 2018). Cette critique s’inscrit dans une volonté politique de changement, de refus des discriminations arbitraires et de l’essentialisation des êtres comme de la naturalisation de leurs comportements et de leurs situations. C’est pourquoi il ne faudrait pas se méprendre lorsque l’on décide de supprimer les biais perceptibles dans les algorithmes d’apprentissage. En faisant cela, nous ne corrigeons pas toujours des erreurs de mesure, nous corrigeons aussi ce que nous percevons a posteriori comme des erreurs de nos comportements. En faisant cela, nous créons un autre monde, inconnu, et nous choisissons activement de ne pas suivre nos propres traces.

Il convient donc de mieux saisir la confusion entre les virtualités des traces numériques et les virtualités des individus. Il nous faut saisir plus précisément les faiblesses de l’induction à prédire les comportements humains à partir de leurs traces numériques. Pour cela, nous pouvons émettre deux hypothèses : (1) les traces, aussi nombreuses soient-elles, n’expriment qu’une infime partie de l’être et de la coexistence. (2) La réflexivité des individus augmente significativement la complexité des interactions au-delà de ce qui a pu être étudié dans le cadre de la physique.

Dire que le big data est trop petit n’est pas une provocation, mais une précaution. Est-il seulement concevable que l’individu puisse être totalement analysé numériquement, alors qu’il n’est lui-même pas tout à fait traduit en traces numériques ? Nous l’avons vu du point de vue des spatialités, la traçabilité est considérable, mais très partielle et peu représentative. Les biais de l’inégale représentation des individus et des pratiques, associés à ceux de l’architecture qui accueille les pratiques et organise leur traçabilité, leur analyse et leur restitution encourage à la prudence et à une meilleure qualification de la valeur très locale des traces (boyd, 2012 ? Rogers, 2013 ? Boullier, 2015). Nous l’avons vu aussi du point de vue de la temporalité, les traces nativement numériques sont récentes et procèdent selon des inférences discutables, tout en sous-estimant ce qui, dans le présent, est hérité de nos expériences passées sans les exprimer totalement.

Dis autrement, c’est parce que les humains ont une capacité particulièrement importante à incorporer leurs expériences passées (endo-relations) que celles-ci ne peuvent pas être négligées. Par ailleurs, le monde social a de particulier que les choses n’y sont jamais égales par ailleurs et que l’isolation des êtres ne nous dit rien de ce qu’ils seront une fois réunis (Jensen, 2018 p. 148). La faiblesse de la physique sociale, des sciences sociales computationnelles, de l’économie orthodoxe et comportementale, mais aussi de la psychologie expérimentale est d’entretenir l’illusion selon laquelle les individus seraient des entités neutres qui réagiraient également à des configurations spécifiques. L’histoire de l’humanité, sur quelques millénaires, souligne pourtant à quel point les humains se distinguent du reste de leur environnement par leur capacité créative tout à fait exceptionnelle.

Ne devrions-nous pas prêter plus d’attention à ce constat trop souvent négligé ? Au-delà de leur capacité à incorporer des expériences riches et diverses, pourquoi les individus ne se laisseraient-ils pas saisir avec la même efficacité que les atomes ou les abeilles ? Afin de mieux saisir la puissance et les limites du big data, ne faudrait-il pas prendre plus au sérieux le paradoxe selon lequel les individus pourraient faire l’objet d’analyses comparables à celles qui sont opérées sur des bactéries ou des fourmis, tout en admettant qu’il n’est pas anodin d’exposer ainsi ce qui pourrait relever de l’intime ? La question de l’intime et de la vie privée, devenue omniprésente dans le domaine de la traçabilité numérique, semble n’être qu’une précaution méthodologique ou éthique, qui ne nous dirait rien de plus sur les individus que ce qu’ils souhaiteraient garder privé.

Pourtant, la vie privée nous dit quelque chose de bien plus fondamental. En 2009, alors président de Google, Eric Schmidt suggéra à une journaliste de CNBC que « si nous avions quelque à cacher, nous aurions probablement mieux fait de ne pas le faire ». La viralité de ce propos ne saurait être qu’une simple manifestation du puritanisme américain auquel Google ne se soustrait que partiellement. Il est en effet d’autant plus paradoxal que c’est précisément parce que l’action s’inscrit dans des régimes d’interprétations variables et construits que l’on ne peut pas préjuger a priori de la convenance d’un acte. L’obédience religieuse, l’orientation sexuelle ou l’opposition à un régime politique autoritaire ne saurait être universellement concevable, pas plus que la notion de vie privée (Solove, 2008). Cette sensibilité à l’image de soi et au regard des autres ne peut pas être dissociée de ce qui caractérise probablement le plus les humains parmi tous les êtres. Au-delà de la vie privée, elle rend compte de notre sensibilité particulière à notre environnement, à la très grande diversité des êtres singuliers et des valeurs inégalement partagées, mais aussi à notre capacité à changer selon le regard que d’autres nous portent. Si cette dernière qualité est partagée avec quelques grands mammifères, les humains excellent particulièrement dans ce domaine, ajoutant à la partialité de notre traçabilité et à l’exigence supérieure de ce qui devrait être tracé pour pouvoir nous saisir, notre capacité réflexive à changer de comportement. Aussi, parce que notre connaissance est fortement cumulative et parce qu’elle s’alimente d’elle-même, la prédiction s’en trouve largement affectée. Un modèle prédictif des marchés financiers, à peine connu, changerait les pratiques antérieures au point de remettre en cause sa propre performance.

Cette limite fut particulièrement bien dénoncée par Karl Popper dans sa critique de l’historicisme. Popper, qui lui préfère l’historicité, rappelle que l’incidence d’une prédiction sur ce qui est prédit est une idée bien ancienne. Popper parle de l’Oedipus effect pour décrire cette manifestation radicale de la prédiction sur le cours des existences, à l’exemple d’Oedipe qui tua son père à la suite de la prophétie qui annonçait cet acte et qui lui valut d’être abandonné (Popper, 2002 p. 11). Ce principe est aussi très bien décrit par la « loi de Goodhart », du nom de son auteur, qui dénonçait la faiblesse des indicateurs dès lors qu’ils deviennent un enjeu économique, social ou politique. Dans de telles circonstances, les acteurs sont fortement incités à changer de comportement afin de faire varier l’indicateur selon leurs propres intérêts (Goodhart, 1984).

L’Oedipus effect comme la loi de Goodhart témoigne de la rupture épistémologique fondamentale particulièrement bien décrite par Ian Hacking lorsqu’il opposa les sciences interactives et les sciences non interactives, et plus généralement les objets selon que leur genre soit interactif ou indifférent aux énoncés qui sont produits à leur égard (Hacking, 1999 chap. IV et V). Alors que l’ANT et Michel Callon insistent sur l’importance de considérer symétriquement l’ensemble des entités agissantes qui participent d’une problématique particulière (Callon, 1986), Hacking rend sensible au fait que l’interaction problématique ne tient pas seulement à la subjectivité du chercheur ou à la perturbation de l’environnement étudié par les instruments, mais plus encore à l’incidence des discours portés sur les objets sur le comportement de ces mêmes objets. Afin de rendre plus intelligible ce que recouvre la construction sociale de la réalité, Hacking oppose la femme réfugiée à la dolomite, montrant que la construction de la « femme réfugiée » est susceptible de changer son comportement, alors qu’il importe peu à la dolomite d’être pensée comme « roche sédimentaire ». Si la pensée à une incidence sur les roches, c’est essentiellement par le comportement de ceux qui la nomment ainsi, et non par le comportement de la dolomite elle-même.

Si Comte, Watts, Popper, Hacking et Jensen, qui ne partagent pas du tout la même épistémologie, s’entendent sur la complexité supérieure des sciences sociales, il est de plus en plus important de distinguer ceux qui négligent ce que recouvre l’interactivité entre les énoncés et les actes, et ceux qui considèrent au contraire que c’est précisément l’enjeu qui constitue le cœur des sciences sociales. Alors même que le genre interactif n’est pourtant plus à démontrer, l’intérêt grandissant de la physique pour les traces numériques se traduit pourtant par la réactivation d’une épistémologie que l’on pensait révolue. L’effectivité historique de cette discipline et la richesse des données exploitées ne font pourtant qu’accroitre sa légitimité, Nature et Science acceptant enfin de considérer les réalités sociales. Mais à trop négliger les virtualités spécifiques des individus et la fragilité des traces numériques, la physique et les sciences sociales computationnelles ne s’exposent-elles pas à une affaire Sokal inversée ? À trop négliger le propre de l’humain, la physique et l’informatique ne se risquent-elles pas à des négligences et à des omissions qu’elles ne s’autoriseraient pas sur d’autres sujets ? Assurées de l’avènement des sciences sociales sans même considérer leurs fondements et leur histoire pourtant commune, les sciences sociales computationnelles ne prennent-elles pas le risque de passer complètement à côté de leur objet ?

Conclusion

En l’espace d’à peine deux décennies, quelques acteurs ont conjointement pris le contrôle de la synchôrisation des pratiques numériques et de leur traçabilité. Essentiellement au nom de l’individualisation des services, les données collectées sont de plus en plus extensives, de plus en plus centralisées et de plus en plus associées, dans une grande opacité au service d’intérêts peu explicites. Mais alors même que cette hypercentralité de la traçabilité ne cesse de s’étendre, à l’image de l’accord récent entre Google et Mastercard, les traces ne sont jamais assez nombreuses pour saisir l’individu dans sa totalité. Sur les traces numériques de l’individu, le risque est toujours grand de se perdre, et de ne jamais trouver le moindre individu.

Réduit à ses traces numériques, l’individu n’est pas même l’ombre de lui-même. On imagine un individu clarifié alors même que la multitude des relations qui l’animent s’impose plus encore par leur richesse et leur inaccessibilité. Sur les traces numériques de l’individu, nous réalisons à quel point il est une altérité singulière dont il est prudent de ne pas définir à priori les limites et les bornes. Les traces permettent de mieux le connaitre, mais sans jamais en saisir l’essentiel. Alors, pourquoi être à ce point sur les traces de l’individu ? Pour cibler la publicité, pour communiquer avec plus de précision ou pour réduire les risques financiers ? S’agit-il toujours de prédire l’individu en puissance, de saisir ses intentions, sa fiabilité ou son adéquation ?

Alors que l’on peine à cibler convenablement la publicité, pourquoi les enjeux de la vie privée ne nous alertent-ils pas plus sur la spécificité des individus ? L’importance accordée à la vie privée peut-elle être dissociée de l’importance que les individus accordent au regard d’autrui, à l’interprétation et à la réflexivité ? Lorsque Antoinette Rouvroy déplore que nous ne puissions plus être absolument personne ou être totalement une personne, elle dénonce aussi la perte de contrôle sur notre propre identité. Un contrôle d’autant plus important que le monde social est un monde de représentations du monde, des représentations qui peuvent être décisives sur les devenirs individuels et collectifs. Or, sur les traces de l’individu, nous ne percevons qu’un être fragmenté, dont le volume d’être est écrasé et dont les virtualités sont réduites à de simples projections.

Le réductionnisme est inévitable pour penser et pour produire des énoncés partagés, mais dans la traçabilité numérique, la réduction n’est-elle pas grotesque ? La prédiction est au mieux une description convenable du passé. Lorsque Goldman Sachs et UBS imaginent respectivement le Brésil et l’Allemagne en finale de la Coupe du Monde de football, ils ne font que décrire le passé en le projetant à peine, incapables d’imaginer les performances de l’équipe de Belgique et plus encore de la Corée du Sud ou de la Croatie, malgré la traçabilité considérable de leurs joueurs et les enjeux symboliques de cette performance. Dès lors, au-delà de la gestion du risque, comment prétendre prédire le social lorsqu’un simple jeu aux règles particulièrement claires reste insaisissable, tant les aléas et les singularités individuelles et collectives sont déjà trop nombreuses ?

C’est précisément parce que notre regard sur le Monde change que nous changeons le Monde et qu’il ne saurait être prévisible dans les mêmes termes que ceux qui furent éprouvés dans l’étude de notre environnement biophysique. La stabilité relative des phénomènes physiques doit beaucoup à leur indifférence à nos discours, et c’est précisément cette indifférence qui autorise des performances hautement valorisées, qui encouragent à les transposer aux relations sociales. En revanche, imaginer que la prolifération soudaine de données sur les pratiques individuelles suffit à transposer l’épistémologie des sciences physiques à la société est non seulement une illusion, mais aussi une méconnaissance profonde de la singularité des sciences sociales. Une telle prétention sous-estime la pauvreté des traces à saisir la profondeur des individus. Elle néglige en particulier la capacité exceptionnelle des individus à incorporer singulièrement des expériences du Monde. Elle s’inscrit aussi dans une conception particulièrement pauvre de la relation, qui omet tout autant la qualité des êtres en relation que de la relation elle-même.

En quelques millénaires à peine, nous assistons pourtant à un phénomène particulièrement saisissant : nous disposons conjointement d’une plus grande connaissance de notre environnement biophysique, dont nous maitrisons progressivement les relations structurelles, et d’une plus grande liberté individuelle, dès lors que nous réalisons à quel point nos propres déterminations sont en grande partie le fait de nos croyances et plus encore de celles des autres. En cela, les sciences sociales computationnelles prennent peut-être de l’avance dans l’étude des exo-relations, mais cette avance se fait largement au détriment des endo-relations, rendant impossible leur projet au-delà des déterminations les plus évidentes et de rares invariants anthropologiques. Les attentes à l’égard de la traçabilité puisent en cela leur justification dans un déterminisme naturel qui n’est pas plus explicite qu’il ne serait assumé.

Or, la traçabilité est hautement politique, lorsqu’elle pense l’identité non seulement en termes d’identification du sujet, mais plus encore en termes de désirabilité. La Chine, en opérant une traçabilité multidimensionnelle orientée vers la régulation des pratiques, serait-elle en avance dans sa capacité à organiser automatiquement la coexistence, ou ne ferait-elle qu’accentuer une conception atomique des individus qui n’ont qu’à se conformer à des attentes déjà exprimées ? En systématisant ce que l’on peut observer pour la publicité, la suggestion de contenus audiovisuels, l’octroi de prêts, l’établissement de primes d’assurances, la gestion des ressources humaines ou l’appréhension de la récidive, la Chine n’acte-t-elle pas ouvertement une logique algorithmique particulièrement conservatrice, qui supposerait que « les individus sont rarement à la hauteur de leurs désirs » (Cardon, 2018 p. 53) ?

Enfin, devenue à ce point politique, la traçabilité des individus ne questionne-t-elle pas plus généralement la relation problématique entre l’individu et la société, dès lors que l’individu serait socialement construit, mais individuellement responsable ? À la dualité entre habitant et habité, correspond effectivement celle entre responsable et responsabilisé. Lorsque la complexité du Monde se retrouve en chaque individu, qui devrait en porter individuellement la responsabilité ? Si nous étions prédéterminés à ce point, et que la récidive était prédictible, de quoi serions-nous responsables ? Ne sommes-nous pas accusés d’être responsables précisément lorsqu’on nous reproche d’avoir été irresponsables ?

Le droit présente cet impératif, mais aussi cette ambiguïté, de choisir continuellement entre l’agent et l’acteur. C’est en effet « la croyance en un sujet autonome qui permet de lui attribuer une responsabilité, notamment légale, et celle en un agent déterminé socialement qui encourage à rechercher des influences sociales, qui sont politiquement cruciales » (Jensen, 2018 p. 273). Alors que la responsabilité relève des mêmes ressorts que le mérite, les individus tendent ainsi à valoriser les mérites individuels et les démérites collectifs, ils s’évertuent à chercher des causes internes dans la réussite et des causes externes dans l’échec. Pourtant, si nous nous attardons un instant sur les circonstances atténuantes, qui apprécient la part respective de responsabilité entre l’individu et son environnement, nous comprenons qu’elles s’arrêtent à l’indicible. Si nous pouvions vraiment suivre l’individu à la trace, ne conclurions-nous pas qu’il n’y a que des circonstances atténuantes ?

Alors, encore, pourquoi être à ce point sur les traces numériques des individus ? Nous ne pouvons pas reprocher à une entreprise de vouloir gérer ses risques spécifiques, nous saisissons bien l’importance d’isoler des êtres devenus indésirables à une société de référence, mais nous pouvons conjointement nous demander quel monde produisent de telles résolutions, lorsque les êtres sont ainsi réduits à des traces partielles selon des intérêts particuliers. La politique est en cela un projet d’une rare complexité, dont la résolution exige que la responsabilité soit à l’échelle des relations qui organisent nos existences. Tant que nous cherchons des êtres plus responsables que d’autres, nous ne saisissons pas à quel point cela nous empêche de penser et d’organiser notre avenir en commun. Paradoxalement, c’est notre obstination à nous assujettir des déterminations qui n’existent pas qui contribue à les actualiser et à ralentir l’horizon ultime de la coexistence et de la politique : le Monde.

Bibliographie


  1. L’intensité du traitement médiatique et scientifique dans le domaine témoigne probablement plus de l’importance du numérique dans les médiations sociales contemporaines que de la maitrise que nous en avons.↩︎

  2. Pratique qui consiste à simuler un engagement autour d’une cause.↩︎

  3. Cf. Department of Justice, U.S. Attorney’s Office, Eastern District of New York : « Global Botnets Shut Down Following Arrests », le 27 novembre 2018.↩︎

  4. Michel Foucault, Le corps utopique, 7 décembre 1966, France Culture.↩︎

  5. Cette remarque se distancie de la critique de l’idéalisme, qui relève d’un autre débat. Elle oppose le matériel et l’immatériel et non le matériel et l’idéel.↩︎

  6. Si ce n’est pour ancrer les descriptions fines et se prémunir de la métaphysique.↩︎

  7. Contrairement aux idées reçues, la consommation des centres de données reste marginale au regard de la consommation globale. Par ailleurs, il s’agit du secteur qui a fait le plus d’efforts. Les centres de données d’Apple, par exemple, sont alimentés à 100 % par des énergies renouvelables. Par ailleurs, les métaux rares sont utilisés dans de très nombreux autres domaines et c’est probablement la mobilité qui sera à l’avenir la plus consommatrice, les voitures électriques étant beaucoup plus exigeantes que les smartphones dans ce domaine.↩︎

  8. La vente d’ordinateur ne représente plus qu’une part marginale de l’activité d’Apple.↩︎

  9. Ce sont respectivement les campagnes marquantes de ces deux entreprises, en 1997 pour Apple lors du retour de Steve Job à la direction de l’entreprise et en 2016 pour Google lors d’une importante promotion d’Android.↩︎

  10. Il est d’ailleurs surprenant de constater la polarisation autour de Cambridge Analytica, alors même que la pratique est courante, à l’image de Deep Root Analytics, une autre entreprise de ciblage politique dont l’activité est restée relativement confidentielle malgré une faille majeure en juin 2017 (O’Sullivan, 2017).↩︎

  11. Les inquiétudes récentes relatives à la branche de Google consacré à l’intelligence artificielle (Deep Mind) dans le domaine de la santé illustrent parfaitement cela, lorsque la même entreprise dispose d’autant d’information sur les pratiques numériques de ses clients tout en étant susceptible de les croiser à des données médicales particulièrement confidentielles. Hern A. « Google “betrays patient trust” with DeepMind Health move ». The Guardian. 14 novembre 2018.↩︎

  12. Richard Rogers parle de Repurposing pour décrire la pratique qui consiste à utiliser des traces produites dans un contexte particulier pour répondre à d’autres problématiques.↩︎

  13. Le problème de l’archivage et de la lisibilité des traces est si prononcé que Vinton Cerf, l’un des concepteurs d’Internet, alerta en 2015 du risque d’un âge sombre d’Internet si nous n’anticipons pas l’obsolescence radicale de l’histoire contemporaine médiée par Internet (Cerf, 2015).↩︎

  14. Pour plus d’information sur le ciblage d’audience, la documentation de Google est particulièrement éclairante : https://support.google.com/google-ads/answer/2497941.↩︎

  15. Les moyens mis en oeuvre par Google et d’autres acteurs sont d’ailleurs considérables et souvent opaques, au point de susciter de plus en plus de défiance. Le cas de Teemo est particulièrement édifiant, cette entreprise ayant tracé continuellement les déplacements de millions d’individus sans leur consentement (cf. enquête de Numérama sur le sujet https://www.numerama.com/politique/282934-enquete-comment-les-apps-figaro-lequipe-ou-closer-participent-au-pistage-de-10-millions-de-francais.html).↩︎

  16. L’overfitting est la sur-adaptation du modèle aux données existantes.↩︎

  17. Google présente cela sobrement sur la page du projet : https://www.google.org/flutrends/about/↩︎

  18. Malgré sa préférence pour la « physique sociale », ce terme était déjà utilisé par Quetelet, dont l’approche privilégiait la moyenne à la relation. La démarche de Quetelet était trop éloignée pour être associée au projet d’Auguste Comte.↩︎

  19. Sur ce point, le projet FuturICT est particulièrement édifiant. Retenu parmi les six finalistes qui prétendaient à l’obtention d’un financement d’un milliard d’euros (FET Flagship), ce projet ambitionnait de capter le plus de données possible afin de prévoir les crises politiques et économiques. À l’issue de la sélection, un projet de simulation du cerveau humain lui a été préféré…↩︎