Digitalisation et société : concepts et enjeux critiques

Digitalisation et société

De quoi parle-t-on quand on parle de digitalisation de la société ? Derrière ce signifiant flou, adresse-t-on ce concept à l’économie digitale de notre société, ou bien veut-on désigner par-là un tournant social et politique plus large ? Notamment vécue au quotidien dans les entreprises, dans les institutions de service public ou dans la sphère domestique, la digitalisation semble désigner le renforcement de l’usage des technologies numériques afin d’optimiser certains processus précis. Mais – dès lors qu’on en analyse les concepts et les impacts – apparaissent l’idéologie et le projet que ces technologies sous-tendent : cette analyse propose de montrer les tenants et les aboutissants, notamment en revenant sur le sens des concepts d’informatique, d’algorithme et de digitalisation.

Type de publication

Année de publication

Auteur.rice

Thématique

Catégorie

INTRODUCTION

Les outils numériques, par leur développement incessant autant que par leur implantation de plus en plus profonde au sein de toutes les dimensions de la société, ont reconfiguré dans une très large mesure la rationalité humaine à partir de procédés et de concepts singuliers et souvent difficiles à appréhender. Parmi les symptômes les plus directs de ce bouleversement, il convient de prêter particulièrement attention à la façon dont prolifère le vocabulaire conceptuel qui désigne les spécificités de l’ère numérique. Les quelques concepts fondamentaux que désignent les termes « numérique », « digital », « informatique », « données », « algorithmes », « big data », etc., alors qu’ils sont désormais omniprésents dans le langage courant, sont difficiles à distinguer ou à figurer concrètement. Pourtant, à l’heure où l’on parle de la digitalisation comme d’un « tournant épistémologique, anthropologique et plus largement civilisationnel »[1] de l’histoire humaine, la grande élasticité des référentiels disponibles pour penser les effets, sinon les impacts, de cette digitalisation sur notre société nous empêche souvent de comprendre l’immensité de la reconfiguration qu’elle implique.

Cette analyse voudrait, dans ce contexte, revenir sur quelques-uns de ces concepts et tenter d’en donner des définitions qui soient en mesure de mettre en valeur les enjeux critiques qu’ils sous-tendent. Nous pensons en effet qu’il est utile de comprendre « le numérique » non pas seulement comme un ensemble de techniques et de technologies, mais bien comme une façon de conceptualiser, de penser et de comprendre la société et notre environnement. Les associations socioculturelles qui réalisent un travail sur et à partir de l’informatique et du numérique en général sont souvent confrontées à la difficulté de devoir expliquer les opérations technico-pratiques nécessaires à l’usage des outils informatiques avant de pouvoir exposer toute l’importance sociale, culturelle et politique de ce même usage. Cet état de fait pose lui-même problème dans la mesure où il contraint ses acteurs à rester enfermés dans la question du « comment accéder au numérique », sans jamais avoir l’occasion de poser celle du « pourquoi ». Depuis que la course au tout-numérique semble devenir inévitable, il nous semble fondamental de s’armer en conséquence pour y maintenir esprit critique et autonomie. Si les ateliers de pratique informatique sont essentiels dans cette perspective, s’outiller d’une compréhension critique des nouvelles grilles de lecture qu’impose le paradigme digital dans nos sociétés l’est tout autant : qu’est-ce que la rationalité numérique/digitale ? Qu’implique le fait de penser en termes de logique algorithmique ? Peut-on parler de nouvelles formes de gouvernance spécifiquement digitales ?

Nous éviterons cependant de donner un simple glossaire du langage numérique : cette opération n’atteindrait pas l’exhaustivité qui rendrait l’exercice nécessaire et utile. En revanche, nous voudrions exposer comment, à partir d’une simple triade conceptuelle (digitalisation – informatique – algorithmique), peut être appréhendée de façon intégrée et critique la logique présente liant digitalisation et société. Nous espérons qu’avec cette base analytique, où nous serons forcés de simplifier certains aspects techniques, nos lecteurs seront mieux outillés pour formuler des formes de réponses alternatives à la question « quelle société numérique voulons-nous ? ». Une question qui, dès à présent et dans les prochaines décennies, a toutes les chances de devenir aussi fondamentale que les deux autres nœuds problématiques essentiels de notre présent, à savoir le problème écologique et le problème de l’économie politique du capitalisme.

L’INFORMATIQUE COMME SYSTÈME

L’informatique désigne, dans son sens le plus basique, une science technique centrée sur la problématique du traitement automatique des informations par des machines capables d’opérer ces mêmes opérations de traitement : le plus couramment, elle renvoie donc au traitement automatique de l’information par ordinateur. L’histoire de cette science est aussi complexe que la diversité des concepts sur lesquels elle s’appuie. Gilles Dowek, par exemple, associe à l’informatique au moins quatre concepts originels qui, tous, lui préexistent mais qui auraient été profondément renouvelés et étendus par leur articulation à l’informatique : l’algorithme, la machine, le langage et l’information.

[…] ces concepts sont tous antérieurs à l’informatique, mais […] l’informatique les a complètement renouvelés et, surtout, articulés en une science et une technique cohérente. Cette pluralité conceptuelle, qui est peut-être la grande originalité de l’informatique, est à l’origine d’une pluralité de visions de l’informatique et d’une pluralité de ses mythes fondateurs.[2]

La genèse de ce domaine nous renseigne donc sur le fait que, d’un point de vue général, le propre de l’ère de l’informatique et, nous le verrons, de ce que nous nommons communément la digitalisation est d’avoir reconfiguré et réarticulé des concepts, des domaines et des opérations qui leur préexistaient mais qui, sous l’effet de cette réarticulation, ont profondément changé de sens.

La science informatique peut donc être comprise comme la science propre d’un système qui, du monde, ne garde que ce qui peut être traité de façon automatique par une machine en général, et par un ordinateur spécifiquement. À cette fin, elle dispose de méthodes et de langages spécifiques (algorithmes et codes) capables de traiter des informations. Ces informations doivent avoir un format adapté aux machines qui assurent ces fonctionnalités, soit être des données numériques binaires. L’informatique suppose donc un geste de conversion ou de transcodage d’informations (au sens large du terme) en valeurs chiffrées qui pourront alors être traitées par ordinateur afin de réaliser, à partir d’elles, un certain nombre d’opérations. Ce transcodage numérique de l’information correspond à la définition minimale des mots digitalisation (digit signifiant « chiffre » en anglais) et/ou numérisation (soit le processus de transformation d’informations non numériques en valeurs numériques). Quant à lui, le traitement des informations numériques par un ordinateur afin de réaliser des opérations (soit calculer les « solutions » des « problèmes » posés à l’ordinateur) correspond à la définition minimale de l’algorithme numérique.

Si ces définitions n’offrent pas un concept très pratique de ce que l’on rencontre quotidiennement dans la société digitalisée, elles exposent en revanche le squelette technico-conceptuel de la rationalité qu’impose la digitalisation progressive (et massive) de notre société, à savoir une approche qui témoigne « dès son origine de la volonté d’entretenir un rapport quantitatif au réel »[3]. Cette approche est, fondamentalement et structurellement, orientée par des exigences d’optimisation et d’efficacité propres à ce qui est automatisé, transformant ces exigences en valeurs en soi. En effet, l’architecture technique que définit l’informatique expose d’emblée, sans trop d’ambiguïtés, que ce que nous nommons couramment le « numérique » renvoie à un genre de rationalisation du réel par les nombres, c’est-à-dire à un grand exercice de quantification du réel. Dans les mots d’Éric Sadin, les technologies numériques changent tout bonnement la façon dont on se rapporte au réel :

Le numérique, soit l’instauration d’un rapport au réel placé sous le sceau de la puissance objectivante et non ambiguë des mathématiques et des nombres.[4]

C’est sur cette première base que le rapport entre digitalisation et société peut être interrogé : si la société se digitalise, il faut en conclure qu’elle s’oriente vers des rapports davantage polarisés par le quantitatif, l’optimisation et l’efficacité, tant il est vrai que ce que l’on nomme parfois la société de l’information « est un idéal qui possède les mêmes attributs que la dynamique technique sur laquelle il repose »[5].

Mais avant d’exposer la nature sociétale et politique de ce système informatique, il nous faut développer plus avant la spécificité de l’approche algorithmique qu’il suppose : par la particularité des unités de base avec lesquelles elle fonctionne, soit les données numériques, et par la réduction qu’elle opère sur la complexité générale du réel qu’elle traite.

ALGORITHMES ET BIG DATA

1. Algorithmique et optimisation du calcul des « solutions »

Nous avons vu que l’algorithme définissait, en informatique, une méthode importante de résolution des problèmes qu’on demande aux machines informatiques de traiter. Cette méthode repose sur la structuration en séquence d’un ensemble d’opérations de traitement de données afin d’aboutir à la solution visée. L’exemple extra-informatique le plus simple pour illustrer ce qu’est un algorithme peut être celui de la recherche d’un mot dans le dictionnaire. Prenons la totalité des entrées du dictionnaire en tant qu’elles forment les données de base du problème de trouver, de la façon la plus efficace possible (rapidement et sans erreur), la définition d’un mot donné. Dans cet exemple, l’algorithme désigne la description précise des opérations simples à accomplir (séquentiellement) pour trouver, de façon optimale, le résultat souhaité : on regarde la première lettre du mot, et on la compare avec celle des mots de la page que présente le dictionnaire ouvert. En fonction de la position relative des deux lettres en question dans l’ordre alphabétique, les pages sont tournées en avant ou en arrière, jusqu’à ce que les premières lettres coïncident. Puis on reproduit la même procédure avec la deuxième lettre du mot, puis la troisième, etc. On obtient ainsi, de façon automatique, la solution correcte au problème initialement posé. Sans s’appesantir sur le fait qu’un certain nombre de structures et de normes sont ici déjà données (ici, l’objet dictionnaire, son classement par ordre alphabétique, etc.), l’intérêt d’un algorithme bien programmé est que ces tâches répétitives puissent être réalisées automatiquement, de la façon la plus efficace possible. Ceci est d’autant plus vrai qu’en informatique, la capacité de traitement des ordinateurs (bien qu’immense aujourd’hui) est limitée :

Quelle que soit leur puissance théorique, les machines informatiques réelles sont soumises à des limitations physiques touchant à la puissance de calcul, c’est-à-dire le nombre d’opérations élémentaires pouvant être effectuées chaque seconde, ainsi qu’à la mémoire disponible, c’est-à-dire la quantité d’informations qu’un programme peut avoir à disposition, ou auxquelles il peut accéder à tout moment en un temps raisonnable. On peut ainsi évaluer le « coût » d’une opération informatique ou d’un calcul, au sens large, par le temps et la mémoire que nécessite son exécution. Une part importante de la recherche en algorithmique consiste à élaborer des algorithmes de plus en plus efficaces, c’est-à-dire ayant un « coût » le plus faible possible. Il apparaît souvent qu’un effort d’analyse important au moment de la conception permet de mettre au point des algorithmes extrêmement puissants vis-à-vis des applications, avec des gains de temps exceptionnels.[6]

On peut donc dire que la puissance des algorithmes repose sur la qualité de la formulation logique de la structure d’opérations qu’ils traitent, de la quantité de données qu’ils sont en mesure de mobiliser et du faible « coût » qu’ils représentent, au sens précédemment défini.

Un algorithme est donc une séquence d’opérations visant à permettre la résolution systématique des problèmes qu’il décrit. Nul besoin d’entrer dans la complexité des multiples algorithmes existant aujourd’hui : dans notre perspective, il est plus intéressant et suffisant de montrer que l’automatisation que suppose l’algorithme conditionne la façon dont on pose, à l’ère de la digitalisation, les problèmes à résoudre. La problématique est particulièrement importante dans la mesure où, aujourd’hui, l’usage des algorithmes touche très fréquemment à la résolution de problématiques sociétales. Prenons quelques exemples simples : on peut faire un usage d’algorithmes pour résoudre des problèmes du type « comment rentabiliser maximalement le processus de production de tel produit dans mon entreprise ? », « comment maximiser l’attention qu’un client fournira à mon produit ? », « comment organiser l’information disponible pour maximiser le vote pour tel candidat ? », etc. Ces problématiques peuvent être l’objet d’un travail algorithmique qui, sur base d’une collecte massive de données numériques (soit des fragments de réel compilés sous la forme d’informations numériques), va tenter de fournir automatiquement la meilleure solution au problème posé : par exemple (simplifié), en comparant systématiquement le nombre d’occurrences d’éléments de langage (mots-clés, signes, gestes, images, symboles, thèmes, etc.) avec le nombre d’interactions positives que ces occurrences génèrent (« like », « partages », « clics », temps d’attention, etc.) et en fournissant, comme solution, les éléments de langage les plus à même de « séduire » telle assemblée d’auditeurs/téléspectateurs/etc. ayant notifié en ligne qu’ils participeraient à tel meeting politique. L’idée sous-jacente étant que plus la quantité de données disponibles est grande, plus la pertinence de la solution trouvée par l’algorithme (dont la performance est aujourd’hui telle qu’il sera en mesure d’optimiser la solution qu’il propose en fonction des solutions précédentes qu’il avait déjà rendues possibles, soit d’améliorer per se la qualité de sa propre méthode de traitement) est forte. Sociétalement, cela signifie qu’il importe de maximiser la capacité humaine à capter des données sous un format numérique (digitalisation), d’améliorer systématiquement nos capacités de traitement et de stockage de ces données (innovation informatique) et de penser la façon la plus optimale d’utiliser ces données et cette capacité de traitement pour fournir des réponses adaptées aux problèmes que l’on se pose (algorithmique). En des termes plus simples, il s’agit d’une concentration sociétale très forte sur deux opérations que l’on sait être aujourd’hui incontournables : contrôler et anticiper. Ainsi, les problèmes dont la position est « autorisée » sont ceux dont la solution peut être anticipée en termes d’optimisation et d’efficacité sur base du contrôle permettant de capter le plus grand nombre possible de données pertinentes.

2. Du transcodage au Big Data

Du fait même de la fonction de traitement propre aux ordinateurs, le système informatique connecté forme aussi un immense réseau de machines à enregistrement d’informations, suivant – comme nous le disions – un principe de « transcodage » d’informations de toutes sortes en données numériques binaires, traitables par ces maxi-calculateurs que sont les ordinateurs. L’immense quantité de données aujourd’hui enregistrées et traitées en continu forme le résultat de cet immense chantier d’enregistrement qu’incarne la bien nommée digitalisation contemporaine. À titre d’exemple, si l’on veut se figurer la quantité de données que peut représenter aujourd’hui l’activité numérique mondiale, on peut se référer à l’illustration « Internet minute » publiée par World Economic Forum et Visual Capitalist[7], qui montre la quantité d’activités que peut représenter, en particulier via les grandes plateformes privées du web, une minute sur internet en 2018 : sachant que chacune de ces activités est enregistrée sous forme de données et de métadonnées[8], on peut aisément imaginer l’étendue colossale des informations produites par cet enregistrement digital continu. Ces « océans » de données sont décrits, dans les mots de Sadin, comme résultant du mariage en un même fleuve de deux confluents venant continuellement en nourrir le flux :

Le premier [confluent] renvoie aux gestes individuels et collectifs qui se réalisent de façon délibérée (conversations téléphoniques, transmissions de messages, navigations Internet, achats via des cartes de crédit, transactions bancaires, modalités d’imposition, comptes de sécurité sociale,…).[9]

Cette première catégorie d’activités génératrices de données numériques concerne en général des activités pour lesquelles des sociétés – publiques et privées ­– proposent des services numériques que les individus sont amenés à utiliser, souvent par choix délibéré, même s’il y a d’importantes ambiguïtés quant à la nature de cette liberté de choix (ces services peuvent par exemple être imposés par les pouvoirs publics, ou former, à grand renfort de stratégies de marketing, des intermédiaires indispensables à de nombreuses fonctions sociales dont les individus n’ont pas envie d’être dépossédés). Elles correspondent donc, en principe, au niveau de transcodage en données où les personnes ont le plus de marge de manœuvre pour choisir ce qu’ils acceptent de « digitaliser » ou non[10].

À cette production « active » de données est aussi associée toute une capture « passive » de données qui repose, en règle générale, sur la multiplication des capteurs qu’on associe à de plus en plus d’éléments de notre réalité quotidienne.

Le second [confluent] concerne les procédés « passifs », généralement imperceptibles, qui enregistrent toutes sortes d’informations et témoignent de multiples états de la réalité : trajets des personnes, images de vidéosurveillance, physiologie des corps via des bracelets connectés, indications relatives aux conditions météorologiques, à la qualité de l’air, au trafic routier…[11]

Cette deuxième forme d’enregistrement du réel sous format numérique correspond à la forme à la fois la plus insidieuse et la plus profonde de digitalisation : la transformation de plus en plus étendue (la visée est officiellement celle de la capture intégrale) du monde et de ce qui le compose en fonctions de calcul numérique, mais sans que les algorithmes qui traitent ces données ne puissent être l’objet d’une discussion, d’une délibération politique. En effet, ce traitement de données ne nécessite aucun consentement, les capteurs étant presque systématiquement automatisés. Il y a ici, beaucoup plus radicalement encore que dans le premier « confluent », une vision de société qui se dessine à travers le prisme du système informatique, de plus en plus intégral et global : celle d’une rationalisation du monde et de son fonctionnement par le numérique dans le but de l’inscrire dans un processus d’auto-adaptation continue en fonction de l’hyperréactivité des multiples capteurs capables de suggérer/imposer algorithmiquement des réactions « adaptées » à toutes les variations du réel. Cela signifie potentiellement que dans ce processus qu’on nomme « digitalisation », la réaction à adopter face à la diversité des situations que nous rencontrons appartiendra de moins en moins au libre arbitre de l’être humain et de plus en plus à l’optimalité de l’algorithmique qui, sur les océans de « data » aujourd’hui nommés « Big Data », fournira automatiquement les « solutions » aux problèmes rencontrés au quotidien. Bien entendu, les choix personnels sont déjà visés par ce « solutionnisme » algorithmique : on imagine déjà des modèles numériques qui décideront, à la place des individus, ce qui doit être fait chaque jour. On imagine surtout ces modèles comme des capacités privatisables et, de fait, privatisées : ce système informatique-algorithmique-digitalisation n’est déjà plus (voire n’a jamais été) un bien commun appartenant à chaque Homme, mais l’un des systèmes dont les acteurs qui le dominent se comptent sur les doigts d’une main. On revient ici à la question de la façon dont la digitalisation structure les problèmes à résoudre. Dans la mesure où la manière dont le problème est formulé doit permettre d’aboutir à une solution à travers une séquence algorithmique établie suivant des critères d’efficacité et optimisation, c’est finalement la capacité même de problématiser le monde – de choisir, individuellement et collectivement, ce qui dans monde fait problème –, qui risque à terme d’être aliénée.

CONCLUSION – LA POLITIQUE DES SOCIÉTÉS DIGITALISÉES

Nous avons pu voir que le renforcement de l’intervention du système informatique dans notre quotidien suppose la mobilisation d’un certain nombre de concepts qui, bien qu’ils semblent être purement techniques, sont porteurs de logiques qui, plus que de fournir une représentation du monde, contribuent largement à produire le monde. Dans le paradigme sociétal qui s’impose à travers la digitalisation, c’est à un monde qui doit toujours davantage être numérisable, transcodable, optimisable, que nous faisons face : tous les problèmes qui s’y posent y sont systématiquement envisagés à travers le prisme de leur « solution » potentielle. On passe ainsi d’une logique d’analyse qui pourrait se concentrer sur les causes des phénomènes vers une concentration exclusive sur leurs effets et vers l’ajustement de nos choix, actes et logiques sur la mesure et le calcul de ces mêmes effets. L’ère digitale, bien qu’on ne puisse affirmer qu’elle soit seule responsable de ce changement, contribue fondamentalement à cette nouvelle polarisation sociétale dont le motif – la colonne vertébrale – repose sur un gouvernement des effets, c’est-à-dire sur une forme de pouvoir qui agit sur les effets que produisent les dispositifs mis en place. Pour mieux comprendre ceci, on peut se référer à une thèse de Giorgio Agamben. Il relevait, lors de sa conférence de 2013 intitulée « Pour une théorie du pouvoir destituant », que cette convergence de la gouvernementalité vers la gestion des effets était l’une des reconfigurations politiques les plus importantes de ces dernières décennies. C’est ce qu’il désigne comme le théorème de gouvernementalité de Quesnay, c’est-à-dire l’idée de renverser le processus d’action du pouvoir : en prenant l’exemple de la famine, l’approche de ce théorème dirait qu’il n’est ni possible ni utile de prévenir la famine, mais qu’en revanche le bon gouvernement doit la laisser arriver et se rendre capable de la gouverner une fois qu’elle est apparue. Plus que d’être l’un des motifs classiques du libéralisme moderne, cela change toute la conception classique du pouvoir :

Cela signifie une transformation historique de l’idée même de gouvernement, qui renverse la relation hiérarchique traditionnelle entre causes et effets. Étant donné que la gestion des causes est difficile et coûteuse, il est plus sûr et utile d’essayer de contrôler les effets. […] L’Ancien Régime visait à gouverner les causes, la modernité prétend en contrôler les effets. Et cet axiome s’applique à tous les domaines : de l’économie à l’écologie, de la politique étrangère et militaire aux mesures internes de la police. Nous devons comprendre que les gouvernements européens ont aujourd’hui renoncé à toute tentative de règlement des causes, ils veulent seulement en régir les effets. Et le théorème de Quesnay rend également compréhensible un fait qui semble par ailleurs inexplicable : je parle de la convergence paradoxale d’un paradigme absolument libéral dans l’économie, avec un paradigme sans précédent et tout aussi absolu de contrôle étatique et policier. Si le gouvernement vise les effets et non les causes, il sera obligé d’étendre et de multiplier les contrôles. Les causes demandent à être connues, tandis que les effets ne peuvent être que vérifiés et contrôlés.[12]

Dans son livre Le mirage numérique. Pour une politique du Big Data, Evgeny Morozov avance que la politique menée par la Silicon Valley, haut lieu de l’oligopole dirigeante dans le domaine digital (les GAFAM[13] et quelques autres opérateurs), correspond directement à cette reconfiguration de la logique du pouvoir[14]. Selon ses propres termes, « la régulation algorithmique est la mise en œuvre de ce programme politique sous une forme technologique »[15].

Notre courte analyse des quelques concepts spécifiques au « champ numérique » nous a fait voir combien, dès lors que toutes les structures de la société tendent à se digitaliser, l’exigence d’efficacité et le culte de l’optimisation devenaient les données premières des politiques censées réguler ces mêmes structures. En focalisant l’attention sur un « gouvernement des effets », la régulation par les algorithmes renvoie à l’idée de devoir toujours viser l’obtention du « résultat le plus efficace », tout en affirmant (non sans idéologie) que, grâce à l’enregistrement et au traitement simultanés des données captées sur l’intégralité du réel, notre système ne cessera de s’adapter « au mieux » à ce même réel et à sa régulation. Selon Morozov, c’est de cette façon que s’expose le principe fondamentalement politique de la révolution numérique, qu’il nomme après d’autres « principe d’ultrastabilité », c’est-à-dire un principe de régulation « qui permet à un système de rester stable tout en apprenant et en s’adaptant constamment à des circonstances changeantes »[16]. En effet, ce que la digitalisation promet à la société, c’est de devenir un jour capable de mesurer en permanence et en temps réel ce qui se passe en son sein (grâce au feedback de données d’utilisateurs qui peuvent, n’importe quand, donner leur avis sur quelque chose et, en parallèle, grâce au feedback des mesures passives que réalisent les milliers de capteurs qui, à longueur de temps, alimentent les océans de données permettant aux algorithmes de fournir « la meilleure solution possible »), et par-là permettre une intervention politique toujours « fondée sur les faits » et « axée sur les résultats ». La digitalisation désigne donc, bien plus qu’une adaptation sociétale aux nouvelles technologies numériques, une transformation de l’idéologie politique néolibérale : Morozov l’exprime en termes de « solutionnisme », soit l’idée pourtant simpliste qu’à tous les problèmes qui se posent, il y a une solution et qu’il faut seulement optimiser nos calculs pour trouver automatiquement et systématiquement la « solution la plus efficace » – ce qui constitue la manière la plus efficace de ne pas poser la question de savoir quels sont les problèmes dont la position est politiquement pertinente et comment ils méritent d’être posés. Ce principe politique est derrière tout le mouvement d’encouragement à la digitalisation : augmenter notre capacité à transcoder le monde en données numériques binaires, « optimiser » nos algorithmes pour les rendre plus efficaces, assurer l’ultrastabilité de notre système en le rendant capable de s’adapter continuellement aux effets anticipables et anticipés de nos choix et des événements, mêmes imprévisibles. Même si l’on croyait sérieusement que ce mouvement aboutisse effectivement à une stabilisation du réel, il est clair que ce qu’il empêcherait par là même est que le réel – ses causes – soit critiqué et transformé.

On comprend bien-sûr que cette vision de société comporte des biais très importants : elle ne demeure pertinente que tant qu’on maintient l’efficacité comme seul critère d’évaluation. Par exemple, appliquée à la question de la santé, cette vision induit une obsession pour la prévention des risques. Pour ne pas être malade, la meilleure solution serait d’éviter ce qui rend malade et pour ce faire, il faudrait mesurer à tout moment, grâce à de multiples capteurs, les effets de nos comportements sur notre santé. Cette analyse continue, prise dans le calcul algorithmique, nous permettra de recevoir une alerte sur les risques encourus (« vous roulez trop vite », « vous êtes en train de fumer », « votre cœur bat trop vite », « votre glycémie monte trop haut », « vous avez regardé votre écran pendant plus de deux heures sans pause », « vous écoutez la musique trop fort », etc. ad nauseam). Dans une perspective plus dure, on pourrait passer de cette régulation théorique du comportement par des notifications (alertes) à une régulation plus directe (prise de contrôle de la voiture à distance en cas de danger, désactivation de fonctionnalités du téléphone quand quelqu’un conduit, ou encore l’imposition de conditions d’accès aux protections sociales, comme l’avait proposé un think tank anglais en recommandant « de conditionner les allocations logement à la fréquentation des salles de gym »[17]). L’évaluation et le contrôle permanent des « modes de vies » en regard de normes sociétales imposées par ceux qui paient la programmation de ces algorithmes deviennent l’horizon de la gouvernementalité digitalisée, laissant par ailleurs complètement tomber les valeurs propres à la problématisation politique du réel. On peut, par exemple, s’accorder sur l’idée que la sécurité, l’éducation, la démocratie culturelle sont des résultats désirés pour la société, mais ce que manquerait l’approche digitale, c’est que toute la question politique se joue dans l’accord des individus sur « comment » atteindre ces résultats, et non sur la qualité du résultat lui-même. En effet, même si l’on disposait, grâce à toutes les données du monde et à de supers algorithmes, d’une cartographie intégrale et complète du réel tel qu’il peut être mesuré maintenant, cela ne permettrait que de formuler les « solutions les plus efficaces » en fonction de l’état présent du monde, sans qu’à aucun moment les problèmes qui demeurent insolvables numériquement (parce qu’ils supposent entre autres une transformation des causes de l’état présent du monde et non seulement une intervention sur ses effets) puissent y trouver une place quelconque : l’injustice, les tensions culturelles, la subjectivité et les ambivalences existentielles, les ambivalences idéologiques, les perspectives émancipatoires, tout ça est et demeure proprement non transcodable. D’un point de vue bien plus politique, en restant dans l’exemple du domaine de la santé, l’approche digitale ne pourrait que manquer la responsabilité de l’industrie agro-alimentaire et de ses modes de production sur la faible qualité, par exemple, des nutriments : en d’autres termes, elle invisibilisera toujours totalement le fait que les comportements et les faits mesurables prennent, en réalité, place dans une économie politique, dans une culture, dans une histoire.

Face à cette inclusion indéfinie de l’existence humaine et du réel tout entier dans des flux numériques, il n’y a certes pas lieu d’opposer une technophobie idiote, teintée de l’angélisme d’une ère pré-numérique (« c’était mieux avant les ordinateurs »). Au contraire, ce que montre l’analyse des concepts ici mobilisés, c’est que l’opération de transcodage de logiques politiques en logiques numériques est le fait de choix et d’idéologies portés par des acteurs identifiables, qui mobilisent énormément d’énergie à présenter la « digitalisation » comme un bouleversement naturel et inévitable de l’histoire humaine. La technologie, par définition riche d’importants potentiels sociaux et d’ouvertures sur des types d’agencements créatifs nouveaux, doit plutôt être comprise, appropriée et – au besoin – détournée dans ses usages. Nous rejoignons ici la position défendue par Sadin lorsqu’il dit qu’il

convient de marquer une distance, d’être capable de saisir, au-delà de la vitesse et de la profondeur d’imprégnation des technologies, la nature des structures qui se mettent en place. Il devrait revenir au pouvoir politique d’établir des cadres d’évaluation et de décision non soumis à la séduction ou au vertige des innovations et des discours.[18]

Nous avons voulu ici exposer le squelette conceptuel permettant de saisir en quoi le digital est intrinsèquement lié à une vision de société. Ce qui nous semble fondamental n’est pas de dire que la politique doit sortir de son « vertige » digital. Au contraire, il convient de mesurer et d’assumer que, d’emblée et depuis l’origine, le numérique est de facto politique. Et que ce n’est pas à travers le prisme du vocabulaire technico-technologique qu’il faut appréhender l’évolution sociétale contemporaine désignée par le terme « digitalisation », mais bien directement à travers le prisme politique : de quel type de société digitale voulons-nous ? Voulons-nous confier nos modes de gouvernance à des logiques algorithmiques ? Pensons-nous que l’efficacité est la valeur première de nos sociétés ?

C’est une nouvelle conscience politique, juridique et citoyenne qui doit émerger, ne consistant pas à réagir sur le moment à des révélations ou à des événements marquants, mais à saisir la puissance d’intelligibilité du réel permise par le traitement computationnel ainsi que l’étendue de ses possibles effets.[19]

Ce travail, en Belgique du moins, ne nous semble réalisable que par deux secteurs : le scolaire et l’associatif. C’est précisément l’ambition de cette analyse : proposer les éléments nécessaires à poser la question de la nécessité et de l’urgence d’un tel chantier.

  • [1] SADIN, E., La vie algorithmique. Critique de la raison numérique., Paris, L’échappée, 2015, p.30.
  • [2] DOWEK, G., « Les origines de l’informatique », dans Cahiers philosophiques, 2015|2, n°141, p.7.
  • [3] SADIN, E., La vie algorithmique, Op.Cit., p.45.
  • [4] Ibid., p.34.
  • [5] MONDOUX, A., Technique, individuation et (re)production sociale. La musique numérique MP3, thèse de doctorat en sociologie, Montréal, Université du Québec, 2007, p.425.
  • [6] FLAJOLET, P., PARIZOT, É., « Qu’est-ce qu’un algorithme ? », sur interstices.info, mis en ligne le 24/02/2004. URL : https://interstices.info/quest-ce-quun-algorithme/
  • [7] Disponible en ligne sur https://www.weforum.org/agenda/2018/05/what-happens-in-an-internet-minute-in-2018 (consulté le 06/03/2019).
  • [8] La métadonnée est une donnée servant à décrire une autre donnée (par exemple, l’heure de son enregistrement, le temps nécessaire à son traitement, son format numérique, etc.)
  • [9] SADIN, E., Op.Cit., p.23.
  • [10] On parle bien de « marge de manœuvre » tant on sait qu’entre ce qui est « consenti » et ce qui est effectivement transcodé et enregistré existe un important différentiel. Bien plus, les utilisateurs n’ont aucune prise sur ce qui est produit sur base de ces données primaires.
  • [11] SADIN, E., Op.Cit., p.23.
  • [12] AGAMBEN, G., « For a theory of destituent power », conférence à Athènes le 16/11/2013, publiée en ligne sur chronomageu.eu. URL : http://www.chronosmag.eu/index.php/g-agamben-for-a-theory-of-destituent-power.html (consulté le 07/03/2019). Notre traduction.
  • [13] Soit Google, Amazon, Facebook, Apple et Microsoft.
  • [14] MOROZOV, E., Le mirage numérique. Pour une politique du Big Data, Paris, Éditions Amsterdam (coll. « Les prairies ordinaires »), 2015. Voir pp. 118-119.
  • [15] Ibid., p.118.
  • [16] Ibid., p.115.
  • [17] Exemple rapporté par Morozov, voir Ibid., p.119.
  • [18] SADIN, E., Op.Cit., p.224.
  • [19] Ibid., p.226.