Numérisation des services publics et gouvernance néolibérale

Permanences Critiques 8. Numérisation des services publics et gouvernance néolibérale. Une étude de Cécile Piret.

Cette étude propose une critique de la numérisation actuelle des services  d’intérêt public en montrant que, sous le discours dominant de l’inévitabilité et de la neutralité des technologies, se déploie l’idéologie du solutionnisme technologique qui soutient efficacement l’option de la gouvernance néolibérale par les données. En déconstruisant la rationalité de cette idéologie et en montrant les effets actuels de sa mise en pratique, nous proposerons alors de penser la numérisation comme une opération de bureaucratisation néolibérale du monde qui génère de nouvelles formes de dominations et de violences sur les individus.

Type de publication

Année de publication

Auteur.rice

Thématique

Catégorie

Introduction 

Cette étude a pour point de départ un paradoxe frappant : alors que les processus de numérisation n’ont jamais subjugué autant de dimensions de notre existence, individuelle et collective, et par là même, soulevé d’enjeux cruciaux et transversaux, force est de constater qu’ils sont peu soumis à la concertation et/ou à la négociation avec les citoyens, le secteur associatif ou les organisations syndicales, quelle qu’en soit la forme. Les politiques qui œuvrent à la numérisation de la société agissent comme s’il n’y avait pas de choix politiques situés en la matière mais simplement des évidences dictées par le progrès technologique, et il n’est par conséquent pas considéré combien devrait être nécessaire de soumettre ces décisions à une quelconque délibération. Cette situation génère ce que plus d’un dénonce comme étant un « impensé » de la numérisation, un impensé plus que préoccupant au vu des effets de la numérisation sur la société contemporaine qu’il faudrait pourtant, absolument, donner à penser. Pire, il semblerait que toute velléité d’interroger et de douter des processus de numérisation soit directement taxée de technophobe et arriérée, rendant tout débat inenvisageable ou stérile avant même qu’il n’ait lieu. Or, une conséquence directe de ce paradoxe est l’absence d’une réflexion dans le débat politique et public, ouverte et claire, sur la numérisation : trop rare est la lecture approfondie proposée aux citoyens quant à ses enjeux, sinon celle préfabriquée par les acteurs privés eux-mêmes – les seuls acteurs, soit concertés, soit déjà présents en amont des prises de décision comme groupe de pression[1] – qui ne voient dans les défis posés par la numérisation que ceux qui font obstacle à leur propre agenda stratégique en la matière.

Cela nous semble d’autant plus problématique lorsqu’il s’agit de penser des enjeux démocratiques aussi importants que ceux de la numérisation des services d’intérêt public dont on a, en Belgique, considéré pour la première fois toute la portée depuis son accélération lors des confinements liés à la pandémie de la Covid-19. Depuis, des collectifs citoyens et/ou associatifs ont pourtant dénoncé (et dénoncent toujours) l’imposition rapide d’un « tout-au-numérique » ayant empêché bon nombre d’individus d’accéder à des services et à des droits sociaux. Fermeture des guichets et des espaces d’accueil, suppressions de services locaux de proximité, prises de rendez-vous disponibles uniquement sur internet ou documents administratifs mis, par défaut, exclusivement en ligne, etc., le tout combiné à des rares services physiques passablement dégradés sont les premières conséquences les plus visibles de la numérisation des services publics telle qu’elle est, aujourd’hui, réalisée. Il est significatif que ces différents collectifs, précisément pour s’opposer au manque de concertation, mènent depuis lors des actions visant à interpeller les responsables politiques pour les inciter à se positionner sur les constats émis par ceux-ci[2].

Nous voudrions dans cette étude, et ce pour nous joindre aux combats actuels qui sont menés pour infléchir de tels processus, proposer certains éléments d’analyse critique de la numérisation des services d’intérêt public ou général[3]. S’il n’est pas possible ici d’aborder l’étendue des enjeux soulevés par ce qu’il convient d’appeler le capitalisme numérique – ou techno-capitalisme – (notamment sur l’environnement, sur le travail, sur la souveraineté, etc.), nous souhaiterions mettre en évidence la manière dont l’usage des outils numériques participe à l’extension d’une gouvernance néolibérale par les données dont les conséquences ont peu à voir avec les qualités intrinsèquement positives qui sont généralement prêtées aux nouvelles technologies afin de justifier leur implémentation rapide : elles remettent, au contraire, fondamentalement en question des principes historiquement émancipateurs, égalitaires et démocratiques de ces services[4].

Considérant l’actuelle absence de délibération que nous avons évoquée, il semble nécessaire, dans un premier temps, de déconstruire le prêt-à-penser dominant en la matière, qui aborde la numérisation par des catégories qui posent problème parce qu’elles ne remettent pas fondamentalement en question l’impensé de la numérisation et qui, pour cette raison, confisquent les possibilités d’un réel débat. Pour cela, nous pensons qu’il y a tout intérêt à s’interroger sur ce qui, dans la mise en œuvre et l’orientation des politiques numériques elles-mêmes, génère en soi une difficulté à se réapproprier de manière critique les processus de numérisation. Nous argumenterons que la gouvernance par indicateurs qui caractérise les politiques numériques actuelles renforce le solutionnisme technologique ambiant, c’est-à-dire l’idéologie selon laquelle il y aurait des solutions techniques à des problèmes sociaux, et qui a, notamment, pour effet d’atrophier drastiquement la pensée politique du et sur le numérique. Nous nous attacherons à en déconstruire le mode de connaissance issu d’une épistémologie positiviste du monde social, dont les principes, pourtant questionnables, desservent une gouvernementalité technocratique qui tend à s’imposer comme la meilleure forme de régulation du social à mesure que la numérisation des services publics s’accomplit. Dans un second temps, nous analyserons les conséquences de la mise en pratique de ce prêt-à-penser idéologique lorsque les technologies numériques outillent voire supplantent les prises de décisions politiques. Nous tenterons de développer l’hypothèse selon laquelle la numérisation en cours est un puissant opérateur de la bureaucratisation néolibérale du monde, et qu’elle en amplifie son contrôle sur la vie sociale, surtout pour les personnes précarisées et paupérisées. Nous chercherons, en particulier, à identifier les nouvelles formes de domination et de violences générées par ces outils dont l’opacité se révèle un obstacle considérable à la contestation tant individuelle que collective et, partant, un enjeu essentiel dont il faut se saisir dans les luttes contre les processus actuels de numérisation.

  1. Des contresens d’un prêt-à-penser défaillant…
    1. Du solutionnisme technologique pour les services publics

Dans sa note de politique générale datant du 4 novembre 2020 et présentée à la Chambre, Mathieu Michel, alors nouveau Secrétaire d’État à la Digitalisation, chargé de la Simplification administrative, de la Protection de la vie privée et de la Régie des bâtiments, présentait les grandes lignes de son nouveau plan Digital Belgium[5]. Une des lignes centrales du plan concernait la numérisation des services fournis par les administrations publiques, ou, pour faire plus court, le développement de l’e-gouvernement, afin d’œuvrer à la « simplification administrative » et à une plus « grande accessibilité » de ces dits services. Pour y parvenir, le Secrétaire d’État entend déployer des outils technologiques numériques dont l’objectif est la création d’une mise en réseau permettant la centralisation et l’échange des données et, surtout, de rendre leur utilisation davantage impérative par la logique du « digital par défaut », soit, pour reprendre ses termes, « la priorisation affirmée des solutions numériques pour tout nouveau processus [6] ». Il s’agit, outre d’adopter le projet du Conseil Européen « Single Digital Gateway » (point d’accès à la mobilité à l’intérieur des pays membres), de centraliser les données juridiques et administratives des citoyens dans une application qui deviendrait le point d’entrée unique des services digitaux de l’administration belge (projet Be App) ; d’utiliser, en collaboration avec le secteur privé, une interface « eBox » pour les correspondances entre les administrations et les citoyens (devenus, dans le document, des utilisateurs) ; ou encore de généraliser la carte d’identité électronique (eID) comme outil d’authentification numérique. Plus récemment, Mathieu Michel a annoncé la mise en place pour 2023 du Digital Wallet, une application qui regroupera ces différentes fonctionnalités[7].

Mais d’où vient cette préoccupation politique, semble-t-il urgente et prioritaire, pour faire de la Belgique « un précurseur en matière de digitalisation des services publics », pour reprendre encore les termes de M. Michel[8] ? Pour remonter aux raisons et aux principes qui guident la politique belge en la matière depuis plusieurs années, il faut s’intéresser aux directives européennes qui surdéterminent les politiques numériques de ses États membres, à travers divers indicateurs dont l’indice DESI (Indice de l’économie et de la société numérique). En effet, la Commission Européenne, depuis 2014, attribue à chaque pays membre un score global de digitalisation à partir des quatre indicateurs composant l’indice DESI, soit le « capital humain », la « connectivité », « l’intégration de la technologie numérique », et les « services publics numériques [9] ». Ce dernier a été revu afin qu’il puisse intégrer les ambitions déclarées de l’Union Européenne de procéder à la digitalisation complète des services publics à l’horizon 2030. En ligne de mire : la numérisation de l’administration publique et des services d’intérêt général, des soins de santé, de la justice, des transports en commun, de la gestion de l’espace urbain et du stationnement, etc. La politique numérique belge, dans les mains des partis libéraux et aiguillée par des « Digital Minds » – groupe de pression qui, pour l’essentiel, est composé d’entreprises privées et d’associations patronales[10] – est explicitement alignée sur ces quatre indicateurs DESI, auxquels ces acteurs se réfèrent régulièrement, pour évaluer à la fois les progrès et les actions prioritaires à mener[11].

Or, nous voudrions souligner ici que l’indice DESI, en tant qu’horizon normatif des politiques numériques, est un puissant vecteur de diffusion d’un solutionnisme technologique ambiant. D’abord, cet indicateur ne permet en aucun cas de s’interroger sur le pourquoi et le comment de la numérisation, mais participe activement à normaliser et naturaliser les choix pris en la matière. C’est, comme le rappellent Giannone et Santaniello, le puissant effet de la gouvernance par les indicateurs, qui fournit des orientations semble-t-il « dépolitisées » sur la manière dont les politiques numériques devraient être mises en œuvre, tout en en conformant les enjeux aux indicateurs auxquels ils correspondent d’une façon auto-référentielle. La Commission européenne se présente comme « une sorte de classificateur invétéré qui, par le biais des classements et d’évaluations, vise à orienter les comportements des États vers un objectif souhaité et (les) encourage à respecter leurs engagements [12] », tandis que les décideurs nationaux se réfèrent quant à eux à l’indice DESI pour justifier et légitimer leurs décisions en la matière. Penser la numérisation de la société revient à se conformer aux choix préétablis des indicateurs DESI, à répondre à l’injonction d’améliorer la position d’un pays dans le classement global. Mais il est difficile de remettre en question les logiques d’une politique auto-référentielle lorsqu’on s’applique à la mettre en œuvre. Autrement dit, la gouvernance numérique par l’indicateur DESI génère en tant que telle de l’impensé, du non-questionnable. En promouvant une vision particulière des politiques numériques par le biais des classements, l’Union Européenne, à travers cet indice, met en même temps de côté toute vision alternative qui se voit dès lors ignorée, réduite voire évaluée négativement – et qui, par exemple, permettrait de discuter de la propriété des infrastructures ou des biens communs numériques[13]. Sous cette apparence « neutre » et « rationnelle » de l’indice DESI, le programme digital de l’Union Européenne s’inscrit pourtant dans le noyau idéologique et économique néolibéral de ses origines, lequel se combine efficacement avec l’idéologie du solutionnisme technologique.

Brillamment critiquée par Evgeny Morozov depuis déjà plusieurs années, cette idéologie est au cœur des discours des principales figures de proue des industries technologiques de la Silicon Valley et tend à envahir les discours politiques et médiatiques majoritaires sur le numérique[14] ; et ce en particulier parce que le solutionnisme technologique ne prétend pas uniquement apporter des solutions techniques à des améliorations de type individuel, mais aussi plus largement supplanter la puissance publique dans la résolution des enjeux sociaux auxquels la société est confrontée. Il est intéressant, pour notre propos, de nous attacher à en déplier la logique implicite telle que véhiculée par l’indicateur européen. Selon celui-ci, la numérisation est 1) une évolution de la société inévitable (« Qu’on le veuille ou non, le numérique se développe partout ») et 2) foncièrement positive puisqu’elle permet de répondre à une série de problématiques sociales (comme « simplifier » les démarches administratives des citoyens). Par conséquent, 3) le fait que des pans de la société ne soient pas encore (suffisamment) numérisés devient un problème en soi (pointé du doigt par l’index DESI). Pour le résoudre, 4) la solution évidente, qui se justifie d’elle-même, est de développer davantage la numérisation. Ainsi, la suite logique de ces affirmations, qui devrait en fait être rigoureusement démontrée et débattue, est toujours présentée comme une vérité impensée, et aboutit à une rhétorique argumentative qui consiste à justifier des politiques de numérisation par l’inévitabilité d’un processus dont on s’attache pourtant activement à en étendre la portée. L’essentiel de cet argumentaire, en particulier, se situe dans l’idée motrice d’un progrès latent : les technologies numériques seraient vectrices de progrès parce qu’elles apporteraient des solutions, innovantes de surcroît, à peu près à tout. Ce désir d’amélioration, bien sûr, est en soi une bonne chose. Mais, comme l’a développé Morozov, cette quête d’amélioration par les technologies se fonde sur une lecture court-termiste et superficielle de l’activité que l’on cherche à optimiser. Le principal problème se situe alors dans le fait que la pensée solutionniste opère un profond remaniement des questions que l’on se pose et des problèmes initiaux, jusqu’à en créer des nouveaux pour y répondre, reconfigurant par conséquent l’ensemble des situations sociales impactées par l’introduction des nouvelles technologies.

Pour reprendre le cas qui nous occupe, la numérisation des services à partir desquels les citoyens accèdent aux administrations publiques est associée a priori à une amélioration sociétale, à la simplification administrative et à une plus grande accessibilité sécurisée à ses services, sans qu’elle ne réponde toutefois à un besoin qui aurait été identifié en amont de la prise de décision. On crée alors délibérément une dépendance au numérique via le digital par défaut qui, comme on pouvait s’y attendre, engendre plus de problèmes que ceux initialement posés. Non seulement les problèmes préexistants – qui sont largement liés aux décennies de désinvestissement dans les services publics – ont été écartés de l’agenda politique, mais en plus on produit des inégalités numériques qui viennent creuser les inégalités sociales préexistantes. Autrement dit, on déclenche de nouveaux problèmes issus d’une pratique que l’on a cherché à améliorer sans tenir compte de son contexte (en l’occurrence, ici, inégalitaire). Pour y remédier, on inscrit alors à l’agenda politique des projets bien intentionnés en faveur de l’inclusion numérique, comme récemment, le projet Connectoo, consistant en une formation brevetée pour les fonctionnaires proposant une aide numérique aux citoyens ayant des difficultés à accéder aux services publics en ligne. Des dépenses publiques sont par conséquent réalisées dans ce type de mesures (plutôt que dans des mécanismes visant plus directement à réduire les inégalités sociales), sans même se demander s’il est souhaitable qu’il faille désormais se former pour accéder à des services dont certains sont vitaux. D’une certaine façon, le solutionnisme technologique s’auto-justifie en créant des nouveaux problèmes qui amènent de nouvelles réponses, et ainsi de suite. Il réduit, par conséquent, le débat politique au carcan qui est le sien, participant de ce fait à l’appauvrissement généralisé de la pensée politique sur le numérique, mais aussi sur tous les domaines auxquels il tend à s’appliquer.

Il y a, en particulier, un aspect du solutionnisme technologique qui nous semble central pour saisir la problématique de la numérisation des services d’intérêt public : le fait que l’idéologie solutionniste opère par décontextualisation. Pour reprendre Morozov, « le contexte dans lequel se déroule la pratique que [les solutionnistes] cherchent à optimiser ne compte pas, du moment que l’on peut améliorer son efficacité [15] ». Quand elle sert à justifier les processus de numérisation des services publics, cette idéologie opérant par abstraction du contexte rentre alors en collision avec des logiques et des pratiques internes à ces services. Pour en rendre compte, il nous semble important de nous intéresser au versant méthodologique du solutionnisme technologique.

    1. Le positivisme digital comme fondement épistémologique

Dans son livre To the Cloud, Big Data in a Digital world[16], Vincent Mosco s’attache à déconstruire et à pointer les dangers de l’épistémologie du Big Data qu’il définit comme le positivisme digital. Avec le développement du capitalisme numérique et la concentration de son industrie, l’auteur soutient qu’un nouveau mode informationnel réactivant les mythes scientifiques d’un positivisme naïf et radical s’est répandu non seulement parmi les data scientist, mais aussi parmi les responsables politiques qui défendent l’option d’une gouvernance par les données.

Selon Mosco, deux technologies numériques contemporaines essentielles ont permis d’étendre et d’accentuer les bouleversements informationnels et démocratiques ayant émergé avec internet : l’infrastructure du Cloud computing (ou « informatique en nuage ») – soit le passage du stockage digital d’informations sur un ordinateur ou sur un serveur interne au stockage sur des serveurs à distance – ; et les Big Data – soit les analyses quantitatives des mégadonnées ou données massives stockées et centralisées sur le Cloud, dont la quantité et l’hétérogénéité impliquent des nouveaux outils de traitement automatique. Mais l’analyse de ces mégadonnées, si elle requiert techniquement des outils puissants, repose sur des principes en réalité assez simples : les analystes font des corrélations afin de trouver des relations entre les variables dont les caractéristiques d’intensité, de forme et de grandeur peuvent être établies, et qui donnent des informations, escomptées ou non, sur lesquelles s’établissent des prédictions. Cédric Durand l’analyse d’une manière similaire à Mosco en soulignant que :

Trois éléments principaux caractérisent les Big Data : le fait d’être générées en continu, de viser simultanément à l’exhaustivité et à la granularité, et d’être produites de façon flexible afin de pouvoir toujours s’annexer des sources de données supplémentaires. Autrement dit, les Big Data agrègent des informations relevant de différents domaines, non nécessairement liés les uns aux autres au préalable. Ces données hétérogènes sont traitées de manière agnostique : on fait apparaître des relations sans chercher à les expliquer. Ces propriétés des Big Data nourrissent une épistémologie empiriste naïve, l’idée étant que ce nouveau régime de connaissance procéderait par pure induction automatique – les données livreraient la vérité sans passer par le détour de la théorie[17].

L’analyse des Big Data ne cherche pas à expliquer la nature ou la signification des corrélations (causales ou non, par exemple), mais sa puissance informationnelle réside dans la possibilité de les générer à une échelle dont le gigantisme est inédit. Dès lors, ces outils analytiques peuvent se targuer d’avoir une capacité prédictive puissante, permettant de capturer le présent pour anticiper le futur et donc, de contrôler voire de modifier des comportements, comme le soutient Shoshana Zubbof[18], mais aussi d’être au fondement d’une gouvernementalité algorithmique caractérisée par une forme de régulation automatique du social par le traitement des données et par la modélisation, l’anticipation et l’affectation par avance des comportements prévisibles[19].

Mosco, quant à lui, met en évidence les nuances à apporter quant au progrès informationnel que constituerait les Big Data dans la compréhension des phénomènes sociétaux, et dès lors dans son utilisation par les pouvoirs publics. Alors même que les majeurs du numérique utilisent souvent l’argument scientifique pour justifier leurs pratiques, il défend que les Big Data constituent un ensemble de mythes, une histoire sublime sur la capacité informationnelle des données stockées sur le Cloud, moins « disruptive » que ce que ses défendeurs avancent. D’abord, parce que le spectre de questions que l’on peut poser aux données récoltées dépend de la nécessité mais aussi de la pertinence de leur quantification. La composante subjective des phénomènes sociaux, par exemple, ne peut être quantifiée qu’au prix d’une distorsion et d’un appauvrissement de leurs complexités à travers leur transformation en valeurs métriques dont l’intérêt est très relatif (par exemple, lorsqu’il s’agit d’attribuer à des goûts ou des sentiments de satisfaction des notes de 1 à 5). Il en résulte une réduction des interrogations pouvant être posées :

Étant donné que la recherche quantitative fonctionne mieux sur des données qui ne comportent que peu de subjectivité, les analystes ont tendance à négliger des questions qui nécessitent une réflexion approfondie. Il est beaucoup plus facile d’analyser les résultats à portée de main d’un choix électoral (il y a peu de subjectivité dans la détermination de la personne pour laquelle on vote) ou de compter la fréquence des termes de recherche que d’examiner, par exemple, comment un jeune devient raciste. Cette dernière implique une toute autre méthodologie, qui peut utiliser des données quantitatives, mais qui nécessite également de l’observation étroite et des entretiens approfondis – en d’autres termes, une étude qualitative minutieuse qui vise à comprendre la subjectivité complexe qui compose les expériences personnelles et interpersonnelles[20].

Mosco pointe ainsi également, depuis une critique épistémologique, ce que Evgeny Morozov dénonce comme le réductionnisme inhérent au solutionnisme technologique : on ne s’attache qu’à des problèmes qu’on peut résoudre de manière prévisible, et cette prévisibilité elle-même dépend de la quantification. On a, autrement dit, une méthodologie qui va présélectionner les problèmes sociétaux que l’on se pose.

De par l’aspect extractiviste du capitalisme numérique, donc par la capture agressive et infinie des données sur chaque aspect de la vie qu’il opère, la quantification tend à coloniser également d’autres régimes de connaissance. Pour reprendre, à nouveau, Morozov, c’est « cet aspect impérialiste de la quantification qui est si troublant, et sa propension à occulter d’autres manières d’aborder le phénomène qui seraient alors plus pertinentes mais éventuellement moins tangibles[21] ». Par conséquent, le positivisme digital réduit l’analyse du monde social aux seules approches quantitatives et tend à ignorer les apports des sciences sociales, de l’Histoire, de la philosophie, à la compréhension des phénomènes sociaux. En particulier, les Big Data ignorent, dans le traitement des corrélations, technique centrale des généralisations, deux dimensions pourtant fondamentales pour leur interprétation : la théorie et l’Histoire. Les partisans les plus fervents des Big Data affirment qu’ils constitueraient une révolution scientifique car ils seraient a-théorique. Chris Anderson, éditorialiste de The Wired, en est devenue une figure de proue avec son article « The End of Theory[22] », affirmant que les Big Data libéreraient les analystes du devoir de formuler des hypothèses et de tester des théories car les données parleraient d’elles-mêmes de par leur quantité. Si tou·te·s ne partagent pas cette position scientifique, il y a néanmoins un certain consensus sur l’intérêt à appliquer des méthodes mathématiques et à laisser les généralisations émerger des données[23]. Le contexte historique, de la même façon, est écarté parce que les Big Data prennent les données comme des évènements ponctuels, discrets, désancrés de la densité du social[24].

Par conséquent, donc, la promesse scientifique des Big Data réside dans le fait qu’ils constitueraient un régime de connaissance moins entaché par la subjectivité humaine, et partant, tireraient leur légitimité d’une montée en généralisation supposément plus objective et neutre. Bien sûr, aujourd’hui, cette affirmation semble de moins en moins défendable. De nombreux chercheurs et analystes, dans des champs scientifiques variés, montrent combien l’imbrication entre agentivité humaine et dispositif technique est profonde à la fois dans les intentions, le design et le contexte d’utilisation : que ce soit dans la manière dont les informaticiens insufflent des normes sociales, volontairement ou non, dans les algorithmes, dans les choix techniques qui sont effectués selon les finalités de ces mêmes algorithmes, c’est-à-dire les types de problèmes que l’on cherche à résoudre computationnellement[25] ou, plus globalement, dans la manière dont les technologies reproduisent et même accentuent les préjugés et les stéréotypes sociaux, alors même que des catégories devenues courantes telles que l’intelligence artificielle ou le machine et deep learning renforcent cet imaginaire de techniques qui s’auto-engendrent sans l’action humaine[26]. Les données elles-mêmes, le rappelle Cédric Durand, ne sont pas de la matière brute :

Les données, aussi massives soient-elles, relèvent du domaine de la représentation, elles expriment un point de vue nécessairement partiel et ne font sens qu’en lien avec une connaissance préalablement constituée. Elles ne sont pas innocentes. Elles contiennent de la théorie, cristallisée dans les algorithmes qui les organisent, sachant que la recherche de régularité qui les gouverne présuppose la construction d’hypothèses[27].

Mais dans le cadre de pensée du positivisme digital, la question de la subjectivité et des enjeux normatifs et éthiques qu’elle poserait, est appréhendée en tant que « biais ». Pour les sciences sociales inspirées par l’épistémologie positiviste, il a longtemps été considéré que les effets d’un dispositif d’enquête pouvaient engendrer des biais méthodologiques, entendus comme des formes de « distorsions », des « bruits », des « perturbations » de la réalité étudiée. De la même façon, les biais algorithmiques seraient alors des effets indirects, secondaires ou non-intentionnels des technologies numériques. Ce faisant, les « biais » renforcent le mythe d’une neutralité et d’une objectivité technologique atteignable, puisqu’il serait alors simplement possible de supprimer ou d’amoindrir des biais considérés avant tout comme des erreurs corrigibles et temporaires du dispositif technique.

Prenons l’exemple du traitement des « biais » discriminatoires, pointé du doigt par Elise Berlinksi et Marianne Strauch. Un biais discriminatoire, à suivre sa définition statistique et sociale, serait un « niveau de déformation que l’algorithme applique à la réalité[28] ». Les algorithmes, dans certains cas, ne reflèteraient pas la société, mais en renverraient une vision déformée. Mais, alors qu’un algorithme est entraîné, fondamentalement, pour discriminer, c’est-à-dire pour trier, filtrer, catégoriser, y aurait-il des discriminations « objectives » et « rationnelles », et d’autres qui ne le seraient pas ? Autrement dit, dans les conceptions du monde social qui sont incorporées dans l’algorithme, où se situe, la frontière entre ce qui est « biaisé » et ce qui ne le serait pas ? Qui dessine cette frontière, et selon quelles conceptions éthiques et quelles idéologies sous-jacentes ? Bien sûr, il faut dénoncer la manière dont les algorithmes, par les fonctions qu’on leur donne, amplifient les discriminations – nous y reviendrons –, mais en considérant les discriminations comme des biais, on élude la question centrale de la sédimentation et de la réactivation des rapports sociaux de pouvoir dans l’ensemble des conceptions du monde, y compris algorithmiques. Cela revient à transformer une question éminemment politique en une question technique, et, par la même occasion, renforce la légitimité des entreprises technologiques dans leur prétention à se substituer aux États quand il s’agit de résoudre des problématiques sociales.

Dès lors, on peut légitimement se demander si la dimension proprement politique du positivisme digital n’est pas, en premier lieu, de dissimuler cette dernière. Les mythes qui entourent ce régime de connaissance subliment les technologies numériques elles-mêmes et les fétichisent de façon à véhiculer l’idéal d’un progrès universel et apolitique. Or, le progrès scientifique du positivisme digital en tant qu’appréhension des phénomènes sociaux est assez contestable, d’autant plus lorsque cette méthodologie opère une quantification-réduction du social qui soutient un solutionnisme technologique dont la rationalité – envahissante – est elle-même douteuse. Si, avec Vincent Mosco, nous venons de souligner les limites scientifiques d’une épistémologie fondée à la fois sur un empirisme et un positivisme naïfs, il faut à présent s’interroger sur les conséquences politiques de cette idéologie formée par le couple solutionnisme technologique – positivisme digital. Il est intéressant de reprendre à cet égard l’analyse que Pierre Bourdieu faisait du néolibéralisme comme « utopie en voie de réalisation », afin de souligner que la théorie du monde social de cette idéologie, en devenant un programme politique, transforme le réel pour se donner les moyens et les conditions de sa réalisation et de sa justification[29]. C’est à travers cet immense travail politique (c’est là la nécessité du digital par défaut et de la numérisation forcée) que ce discours peut alors appliquer sa propre logique à l’ensemble de la société. Ce faisant, les conséquences et les problèmes générés par cette mise en pratique sont d’autant plus difficiles à identifier qu’ils deviennent, dans cette idéologie, des externalités négatives nécessaires ne remettant en aucun cas en question les processus en cours. Nous voudrions, pourtant, dans la section suivante, montrer à partir de cas d’utilisation actuelle de technologies numériques dans les administrations publiques, combien elles accentuent les formes de pouvoir du capitalisme néolibéral contemporain et, partant, en augmentent la domination et les violences sur les individus.

  1. …et des effets de sa mise en pratique
    1. L’extension de la bureaucratisation néolibérale 

De façon concomitante à la centralisation des données numérisées, un nombre croissant de technologies numériques au sein des services publics est utilisé pour des fonctions d’automatisation, d’évaluation et de prédiction. C’est le cas aux États-Unis, où Virginia Eubanks analyse le déploiement de ces usages, à échelle locale, dans les procédures automatisées d’octroi d’aides sociales, dans l’évaluation de la vulnérabilité de personnes sans abri pour orienter le choix d’attribution de logements disponibles, ou encore pour établir un score de prédiction de risque d’exposition d’enfants aux violences intra-familiales[30]. C’est le cas aussi en Belgique, où l’outil OASIS (Organisation Anti-fraude des Services d’inspection sociale) réalise du profilage pour lutter contre le travail au noir[31] ; c’est le cas également en France[32] ou aux Pays-Bas, pour détecter des perceptions d’indus par des bénéficiaires d’allocations familiales.

Penchons-nous sur le cas hollandais, devenu « l’affaire des allocations familiales », qui constitue un cas d’école des tendances que nous souhaiterions mettre en évidence et dont Amnesty International a fait un précieux rapport[33]. Le gouvernement hollandais, qui fait de la lutte contre la fraude sociale une thématique centrale de ses priorités politiques depuis les années 1980, introduit dès 2013 au sein de l’administration fiscale un système d’automatisation visant à déceler des demandes erronées ou frauduleuses d’allocations familiales destinées à fournir une aide pour les frais de garde d’enfants. Pour identifier des auteur·e·s présumé·e·s de fraude, un score de risque a été associé à chaque ménage. Un modèle de classification des risques a été mis en place à travers un algorithme « auto-apprenant » détectant sur cette base des demandes suspectes. Ce caractère auto-apprenant signifie que l’on a doté le système algorithmique d’un outil permettant à l’algorithme d’apporter des changements à son fonctionnement sur base des informations reçues et paramétrées. A chaque demande d’aide pour les gardes d’enfants a été attribué un score, selon une dizaine de facteurs de risque détectés et la pondération utilisée, mais aussi en fonction de l’apprentissage évolutif de l’algorithme : plus une demande entrante ressemblait à une demande précédemment classée comme inexacte, plus le score de risque à cette nouvelle demande était élevé. Le système sélectionnait ensuite les demandes dont le score de risque était élevé afin qu’un fonctionnaire de l’administration examine le dossier. Celui-ci avait le pouvoir de qualifier une demande de frauduleuse sans pour autant qu’il ait reçu la moindre information sur les raisons pour lesquelles un score de risque élevé avait été attribué au demandeur[34].

Un facteur important de détermination de cas suspect a été la nationalité des demandeurs. La variable « citoyen néerlandais ou non » a été à la base d’une représentation disproportionnée des individus d’origine étrangère ciblés par le système. Il a par la suite non seulement été admis que l’algorithme avait été paramétré pour lier l’origine ethnique ou nationale à une présomption de fraude, mais en outre, cela a été à la base de généralisations créant une boucle discriminatoire. Amnesty International mentionne qu’une alerte à la fraude concernant une centaine de personnes ayant la nationalité ghanéenne a entraîné, et ce par la recherche manuelle des fonctionnaires dans la base de données, une enquête réalisée sur l’ensemble des demandeurs de cette nationalité[35]. Cet exemple montre que certains fonctionnaires de l’administration assumant un lien entre fraude et l’origine ethnique ou nationale des individus ont sciemment utilisé l’algorithme pour sa capacité à homogénéiser facilement un groupe social. Cette opération de classement a ainsi mené à l’identification de milliers de familles, souvent étrangères et à bas revenus, qui ont été accusées de fraude. Elles ont alors subi un contrôle invasif de la part de l’administration, sommées de fournir des justificatifs prouvant que l’aide familiale servait bien à payer la garde de leurs enfants, ainsi que des sanctions rapides et automatiques : dès l’accusation de fraude, les parents n’ont plus pu solliciter d’aide pour la garde de leurs enfants, il leur a été exigé des remboursements d’indus au montant exorbitant et, en cas de non reversement, l’administration recourait à un recouvrement agressif pour solder la dette[36]. Cette pratique de scoring, ayant plongé ces familles dans une détresse sociale, psychologique et financière, s’est en outre révélée tout à fait défaillante dans la mission qu’on lui avait donnée : il s’avérera bien plus tard que les accusations de fraude étaient fausses dans 94% des cas[37].

Cette affaire nous semble illustrer – hélas – brillamment la tendance de fond de la numérisation des services publics, soit la manière dont le contrôle, la surveillance et la punition des populations opprimées – qui s’inscrit elle-même dans l’histoire plus longue de l’État social actif et/ou de la gestion moralisatrice et méritocratique de la pauvreté – s’opère de plus en plus à travers l’apparence froide et objective de ce que Béatrice Hibou appelle la bureaucratisation néolibérale. Par cette notion, l’auteure fait référence à une forme sociale de pouvoir et de gouvernance politique qui repose sur des processus d’abstraction issues du monde de l’entreprise et du marché :

Cette qualification peut paraître étrange : pourquoi choisir ce terme [de bureaucratisation néolibérale] pour parler de la situation actuelle où des normes, procédures, opérations de codage ou de catégorisation, bref des formalités principalement issues d’une certaine conception du marché et de l’entreprise, prolifèrent, voire “envahissent”, le quotidien de nos vies ? Tout simplement parce que, d’une part, ces formalités peuvent être lues comme procédant d’un processus de rationalisation, de la volonté de calculabilité et de prévisibilité, de la recherche de neutralité et d’objectivité… caractéristiques de la bureaucratie, et parce que, d’autre part, ces formalités sont avant tout des abstractions issues du monde du marché et de l’entreprise et diffusées à l’ensemble de la société (…) et que cette diffusion de normes, de procédures et de catégories, notamment à l’Etat, est l’une des caractéristiques du néolibéralisme – même si la bureaucratisation étatique au XIXè siècle a aussi emprunté, au moins partiellement, au mode de gouvernement des entreprises (système des plantations et des compagnies concessionnaires)[38].

La bureaucratisation néolibérale, autrement dit, procède par une mise en conformité de l’ensemble de la vie quotidienne aux principes du marché, de la concurrence et de l’entreprise, ce qui nécessite des opérations de codification, de quantification, de catégorisation, d’évaluation, etc. La proposition théorique d’Hibou est alors, à contre-courant de l’association entre néolibéralisme et « moins d’État », de considérer la manière dont l’État renouvelle ses principes et ses actions afin de travailler activement à la transformation de la vie sociale pour rendre possible l’extension de la rationalité néolibérale du marché, de la concurrence et de l’entreprise. Dans une acception wébéro-marxienne, en effet, la bureaucratie serait « le cadre social le plus adéquat à l’organisation capitaliste de la production et à celle d’une société adaptée aux fins de la production[39] ». Les politiques de numérisation actuelles, en ce sens, n’œuvrent pas tant à la « simplification » administrative, qu’à ce chantier extractiviste nécessaire au développement de la rationalité économique du capitalisme néolibéral.

Or, comme le montre le scandale hollandais des allocations familiales, les technologies numériques accroissent la puissance et la normalisation de la bureaucratie néolibérale en étendant ses domaines d’applications par la capture de données sur l’existence humaine. Mais aussi parce qu’elles véhiculent parfaitement, comme nous l’avons vu, une rationalité néolibérale de formalisation par abstraction, entendue comme ce « travail d’abstraction qui entend faire entrer la réalité complexe dans des catégories, des normes, des règles générales et formelles issues d’une pensée qui rationalise la société et le gouvernement des biens, des hommes et des territoires à partir du marché et de l’entreprise[40] ». Nous pourrions ainsi affirmer que le processus d’abstraction que les technologies numériques opèrent sur les réalités sociales une fois transformées en données est concomitant au capitalisme numérique. Maxime Ouellet propose de l’appréhender dans la continuité de l’analyse marxiste du travail qui, une fois exploité par le capital, devient du travail abstrait pour la valeur d’échange :

(…) la mise en place d’une gouvernance algorithmique est indissociable des mutations contemporaines du capitalisme. En effet, le capitalisme de plateforme accumule de manière prédatrice en ponctionnant une rente sur les échanges symboliques des usagers, qui, une fois transformés en données numériques, peuvent être marchandisés ou valorisés sous la forme d’actifs intangibles dans la sphère boursière (Durand, 2020 ; Ouellet, 2019). Dans ce contexte s’opère un processus d’abstraction similaire à celui qu’avait analysé Marx pour le travail. En effet, de la même manière que le travail concret, une fois subsumé par le capital, devient le travail abstrait produisant une forme abstraite de richesse, la valeur (Marx, 1993), la langue n’est plus l’expression d’une culture particulière, mais devient une langue universelle abstraite, un code composé de données numériques[41].

Toutefois, l’intérêt de l’analyse d’Hibou est de montrer que ce processus existe aussi même lorsque ces fonctions de l’État n’ont pas encore été, en tant que telles, privatisées : dans ces domaines aussi, il y a une transformation non pas du travail mais des différentes composantes de la vie humaine, qui mène simultanément à l’abstraction, à l’homogénéisation et à la mise en comparaison à des fins de surveillance et d’efficacité. Des outils numériques similaires dans le privé ou dans le public vont être utilisés pour des services dont la valeur d’usage est pourtant différente, et les composantes de la vie humaine vont avoir en commun de devenir des données exploitables et comparables et, partant, se réduire à un code numérique. Ainsi, dans l’affaire des allocations familiales, l’évaluation des individus via un score a, dans le même mouvement, homogénéisé des groupes sociaux à partir de la réduction des situations sociales à certains facteurs clés, et a fait de ce score abstrait  une orientation de l’action politique. En prenant le résultat du classement de risque de fraude comme représentation de la réalité mise en chiffres, il y a une assimilation directe du codage à la réalité. Pour reprendre les termes d’Hibou, cette situation montre que l’abstraction bureaucratique devient une fiction de la réalité et, par conséquent, il devient possible de gouverner à distance en recourant à cette abstraction, en gouvernant tout en ignorant le contexte élargi. Hibou reprend le travail d’Arthur Stinchcombe qui :

« (…) analyse la formalisation bureaucratique comme le développement d’une abstraction de données proliférantes, ce processus permettant de gouverner l’action sociale sans devoir revenir aux données originales. Il rappelle que le propre de cette élaboration réside précisément dans cette facilité : lorsque les choses et les comportements sont formalisés, il n’est pas nécessaire d’aller voir constamment « derrière », de comprendre ce qui les sous-tend pour agir et gouverner[42].

C’est, de la même façon, ce qu’illustre notre cas d’étude : les travailleurs de l’administration ont eu le pouvoir de qualifier ou non une demande de frauduleuse sur base uniquement de ce score (et sur aucune autre information, sans chercher à aller voir « derrière »), et, en outre, sans non plus qu’il ait été convenu bon de les informer sur les facteurs paramétrant le score. Cette forme de domination par des opérations d’abstraction génère ainsi des « discriminations rationnelles » à travers lesquelles la rationalité des chiffres et la technocratie cachent le racisme et le classisme d’État.

Mais les technologies numériques ne s’inscrivent pas seulement dans ces processus de bureaucratisation néolibérale en en diffusant leur forme de pouvoir, elles en augmentent aussi ses potentiels autoritaires : d’une part, parce que, nous l’avons dit, elles ont la possibilité de capturer toujours plus de pans de la vie en société et de produire des données sur notre existence – et, par-là, elles participent activement à la démultiplication de la bureaucratie néolibérale et de ses formes de régulation et de contrôle – ; d’autre part, parce qu’elles portent en elles une dimension autoritaire qui soutient particulièrement bien les dimensions répressives du néolibéralisme. Comme Nicolas Marion l’a mis en évidence, si les technologies numériques soutiennent si bien les tendances autoritaires du capitalisme contemporain, ce n’est pas seulement parce qu’elles sont mises au service d’un contrôle accru, mais aussi parce qu’elles portent en elles des caractéristiques de techniques autoritaires qui diminuent l’autonomie et l’auto-capacitation des groupes sociaux[43]. Celle de l’asymétrie informationnelle, dans le cas qui nous occupe, en est révélatrice et absolument centrale : l’opacité de l’algorithme pour les familles a contrasté avec leur survisibilisation (qui se fait aussi à leur insu), c’est-à-dire la surexposition de leur vie intime par la technologie. Et cela a eu des effets considérables sur leur possibilité même de contestation : pendant des années, les familles accusées de fraude n’ont reçu aucune réponse à leurs questions et en particulier, les demandes d’informations sur la manière dont leur dossier avait été analysé ont souvent été refusées. Les familles qui en ont été victimes n’ont ainsi pas su qu’elles faisaient l’objet d’un profilage racial. L’opacité du système de notation a en outre privé les parents des voies de recours, rendu presque impossible par le fonctionnement auto-apprenant du système algorithmique utilisé[44]. Il s’agit ainsi d’une atteinte en acte d’un droit démocratique essentiel, dont l’effet direct est de renforcer la dimension autoritaire de l’État.

    1. De nouvelles violences numériques

Pour toutes ces raisons, si ces technologies numériques sont « disruptives », ce n’est pour nous pas tant – on l’aura compris – pour leur lot de progrès et d’innovations positives, mais plutôt pour les nouvelles formes de dominations et de violence sociales qu’elles génèrent, bien trop sous-identifiées et donc sous-estimées par les référentiels dominants quand il s’agit de penser les enjeux sociaux du numérique. Nous voudrions, en particulier, identifier ici les violences qui sont générées par l’abstraction bureaucratique et dont l’extension caractérise la domination exercée par la gouvernance par les données.

En soi, cela est de plus en plus dénoncé, la dématérialisation des services et des guichets d’accueil accentue les contraintes bureaucratiques qui procèdent d’un gouvernement à distance. Avant tout, parce qu’elles génèrent des formes d’aliénation accrues dans le rapport aux administrations de l’État. On peut les saisir dans les expériences typiquement kafkaïennes d’une bureaucratie où les individus doivent remplir en ligne des démarches absurdes, lourdes et redondantes, passant d’un service téléphonique à un autre en débouchant sur une voie sans issue, avec des difficultés en cascade pour parvenir à faire ce qui était initialement prévu et avec l’impossibilité de trouver une personne responsable capable de trouver une solution. Autrement dit, c’est l’expérience d’une bureaucratie sans visage ni répondant, omniprésente mais insaisissable, où la possibilité d’interpeller un·e de ses représentant·e·s – notamment pour contester une décision préjudiciable et pour laquelle aucune explication n’a été donnée – paraît de plus en plus inatteignable. Ce qui se joue alors dans la dématérialisation des administrations publiques, c’est l’extension d’une domination par abstraction qui agit par réduction des situations et des significations et qui décomposent notamment les parcours sociaux dans des unités de codages présélectionnés. C’est, pour reprendre Hibou, l’exercice d’un « contrôle social par invisibilisation de certains aspects de la vie en société, par impossibilité aussi de restituer la complexité du quotidien [45] ». On peut comprendre alors toute l’importance de la critique des travailleurs sociaux sur la déshumanisation engendrée par la fermeture des guichets sur les individus et sur leur propre travail[46]. D’un côté, la complexité des situations sociales et administratives des individus, surtout des plus précarisés, est difficile à « traduire » numériquement, ce qui mène dans certains cas à des situations de blocages administratifs et de pertes de droits, accentuant en outre le phénomène de non-recours dont l’importance avait déjà été signalée avant la dématérialisation des guichets[47]. D’un autre côté, le travail même des travailleurs sociaux est redéfini par l’externalisation de la prise en charge des services administratifs sur les citoyens, qui transforme les pratiques et les logiques professionnelles propres par des normes consistant à « enformer les êtres et les événements » dans des procédures numérisées[48].

Cette domination par abstraction a en outre pour conséquence de rigidifier les situations sociales. Les technologies numériques ne font à cet égard pas que reproduire les inégalités sociales en les « automatisant », elles renforcent leur caractère contraignant et déterminant au sein des relations de pouvoir. Du côté de l’exercice du pouvoir politique s’opère un processus de transformation des rapports sociaux systémiques de domination en catégories digitales. Il n’est plus question d’agir à partir d’une lecture relationnelle des déterminants sociaux, puisque celle-ci est annihilée par la codification numérique et la rationalité de la bureaucratisation néolibérale. Les inégalités sociales de tous types sont objectivées et réifiées pour devenir des attributs individuels à catégoriser, trier et comparer. Par conséquent, les choix politiques qui s’appuient sur ces données renforcent l’apparence immuable, naturelle et individuelle des déterminants sociaux. Par la même occasion, la signification politique de ces choix est occultée par la rationalité des chiffres (« math-washing »).

Du côté des personnes qui subissent ces dominations, ces opérations de codification et de quantification de leurs origines sociales ont pour effet majeur de les cadenasser encore davantage dans ces situations de domination. C’est le constat que tire Virginia Eubanks de l’analyse fine de ces dispositifs numériques d’encadrement, de surveillance et de punition des pauvres et à partir de laquelle elle propose le concept de « poorhouse digital » (Digital Poorhouse). Elle identifie par ce concept une forme renouvelée par la digitalisation des maisons de pauvres du 18e et du début du 19e siècle aux États-Unis, institutions d’enfermement des pauvres par les autorités locales et de travail forcé dans des conditions inhumaines. Si elles n’existent plus matériellement depuis la moitié du 19e siècle, pour l’auteure, les outils numériques d’automatisation de prises de décisions dans les politiques sociales s’inscrivent pleinement dans les mêmes logiques de régulation de la pauvreté : le poorhouse digital décourage les pauvres d’accéder aux ressources publiques, contrôle leur travail et leur vie privée, et punit ceux qui ne respectent pas les règles. Mais contrairement aux anciens établissements qui matérialisaient ce contrôle et qui pouvaient, de manière non intentionnelle, créer des solidarités entre les personnes internées, cet enfermement devient plus insidieux avec les technologies numériques. Eubanks utilise la métaphore de la toile d’araignée numérique pour rendre compte de cette dimension essentielle du poorhouse digital :

Imaginez le poorhouse digital comme une toile d’araignée invisible tissée de fils de fibre optique. Chaque fil de la toile fait office de microphone, d’appareil photo, de lecteur d’empreintes digitales, de traceur GPS, de fil de déclenchement d’alarme et de boule de cristal. Certains de ces fils sont collants. Ils sont interconnectés, créant un réseau qui transmet des pétaoctets de données. Nos mouvements font vibrer la toile, révélant notre position et notre direction. Chacun de ces filaments peut être activé ou désactivé. Ils remontent dans l’histoire et se projettent dans l’avenir. Ils nous relient par des réseaux d’association à ceux que nous connaissons et aimons. Au fur et à mesure que l’on descend dans l’échelle socio-économique, les fils sont tissés plus densément et un plus grand nombre d’entre eux sont activés[49].

Autrement dit, le poorhouse digital possède une triple caractéristique d’invisibilisation, de fixation et d’individualisation du contrôle social qui en accentue ses formes de violences. L’invisibilisation du contrôle, nous l’avons vu, est largement due à la complexité et à l’opacité du fonctionnement des technologies numériques. Souvent, également, cette absence de transparence est délibérée, intentionnellement choisie par les administrations qui les utilisent. C’est ce qui ressort en effet des enquêtes réalisées sur les cas d’usage d’algorithmes dans les administrations que nous mentionnions ci-dessus. La Quadrature du Net, dans ses nombreux articles sur la CAF, a montré le refus réitéré de celle-ci d’ouvrir la boîte noire de l’algorithme utilisé[50]. Virginia Eubanks, en étudiant les services pour les personnes sans-abris à Los Angeles, a été confrontée à la même volonté par l’administration de tenir secrets non seulement les paramétrages de l’algorithme mais son utilisation même. Et c’est l’argument des autorités pour le garder secret qui est sans doute le plus interpellant : il s’agirait d’éviter ainsi que les groupes ciblés par l’algorithme puissent le manipuler[51].

Le poorhouse digital, ensuite, tend à engluer les personnes opprimées dans des données dont les traces peuvent avoir potentiellement des effets à long terme. Les possibilités actuelles de croisement et de partage de données sur la situation présente des individus mais aussi sur des erreurs ou des actes commis dans le passé, des pathologies médicales antérieures ou, plus largement, des choix liés au parcours social augmentent les possibilités punitives de l’État en même temps qu’elles diminuent l’auto-détermination des individus[52]. Dès lors, les caractéristiques d’invisibilisation et de fixation de cet emprisonnement digital ont pour conséquence l’individualisation des problèmes rencontrés avec les administrations, l’isolement social et la culpabilité. Bien sûr, ce sont les personnes les plus précarisées qui subissent davantage le poorhouse digital, de par leur dépendance plus grande aux aides sociales, et donc leur plus grande exposition aux multiples démarches liées à la conditionnalité de ces aides. Ce sont donc surtout sur ces groupes sociaux que l’on récolte, croise et analyse des données privées à des fins de contrôle social. Plus on descend dans les strates socio-économiques les plus basses, plus on est empêtré dans des procédures d’évaluation et d’analyse du passé. Mais Virginia Eubanks rappelle que nous vivons toutes et tous dans ce poorhouse digital déspatialisé et tentaculaire, dès lors qu’il est devenu presque impossible de ne pas laisser de traces numériques dont l’utilisation à long terme et par des régimes politiques à venir est encore inenvisageable. Par conséquent, s’il y a une caractéristique essentielle des nouvelles formes de violences numériques à mettre en évidence, c’est cet écart béant entre le contrôle croissant du technocapitalisme numérique sur l’existence humaine et l’aliénation actuelle des individus quant aux possibilités, pourrions-nous dire, de reprendre le contrôle sur le contrôle qui s’exerce sur eux.

  1. Conclusion

Cette étude nous mène finalement à ce constat central : l’idéologie dominante du solutionnisme technologique et son épistémologie positiviste conduit, dans sa mise en pratique, à une extension de la gouvernance néolibérale dont les acteurs trouvent dans les technologies numériques des nouvelles voies de justification. En appréhendant cette gouvernance comme un processus de bureaucratisation du quotidien, nous pouvons considérer que la numérisation des services d’intérêt public rend possible l’intrusion des logiques du marché au sein de ces dits services. Là où cette numérisation s’est accomplie sous la forme de processus d’automatisation de décisions politiques à travers des outils algorithmiques, on assiste systématiquement à une incursion de pratiques d’évaluation, de classification, de priorisation et d’infériorisation, de discrimination, etc., qui exacerbe une rationalité néolibérale en contradiction avec des principes d’égalité et de solidarité des missions d’intérêt général. On assiste alors à une amplification des rapports d’oppression existants alors qu’au même moment, les possibilités collectives pour les combattre à un niveau systémique sont mises en difficulté par la numérisation elle-même. Il y a, soulignons-le, un élément-clé qui ressort en effet de cette étude : les processus numériques actuels génèrent des formes d’aliénation et de dépossession qui diminuent l’autonomie des individus. L’opacité actuelle sur les usages des technologies est centrale pour comprendre cette tendance. Et il est important ici de souligner que cette opacité, certes due à la complexité des outils numériques et en particulier algorithmiques, est aussi actuellement soit volontairement entretenue, soit trop peu soulevée et dénoncée[53]. Or, parmi les nombreux enjeux critiques que soulèvent les politiques de numérisation, celui-ci nous semble hautement stratégique. Rappelons un élément certes banal mais nécessaire : dans les luttes pour une autre société numérique, comme pour tout mouvement social, la constitution d’un rapport de force est une condition indispensable. Mais il est difficile d’établir un rapport de force sans avoir pleinement connaissance des processus en cours. Pensons à la manière dont, historiquement, le pouvoir ouvrier s’est construit dans les entreprises au sein de comité de consultation et de négociation où les représentants syndicaux pouvaient, stratégiquement, s’informer avant tout des intentions de l’employeur. Pour terminer, nous pourrions alors mettre en évidence la nécessité d’inventer et d’imposer des comités de concertation pour toutes procédures décisionnelles entourant les processus de numérisation et qui constitueraient des lieux possibles pour, a minima, opposer au solutionnisme technologique et à la gouvernance néolibérale une tout autre vision politique de la société numérique.

  • [1] Marion Nicolas, « De la puissance du privé dans l’agenda numérique belge », Bruxelles Laïque Echos, décembre 2018 [En ligne], URL : https://echoslaiques.info/de-la-puissance-du-prive-dans-lagenda-numerique-belge/, consulté le 1er août 2023.
  • [2] De plus en plus de collectifs en Belgique s’emparent en effet de la numérisation afin de la constituer comme objet de contestations et de propositions d’alternatives. Citons, ici, le Comité Humain du Numérique qui propose la constitution d’un Code du numérique (https://codedunumerique.be/), TechnoPolice qui dénonce les techniques des vidéosurveillances (https://technopolice.be/), ou la campagne de l’ARC « Politiques numériques – Demandez le programme ! » (https://www.arc-culture.be/politiques-numeriques-demandez-le-programme/).
  • [3] Nous nous référons ici, à la suite de Périnne Brotcorne, aux services publics mais également aux services dits d’intérêt public, qui recouvrent certes des fonctionnalités larges (santé, transport, administration, mutualité, etc.) mais qui sont caractérisées par des principes communs d’intérêt général. Voir notamment : Brotcorne Périnne, « Services d’intérêt général et numérique : une rencontre/conciliation qui ne va pas de soi », Analyse de l’ARC, 2018 [En ligne], URL : https://www.arc-culture.be/publications/services-dinteret-general-et-numerique-une-rencontre-conciliation-qui-ne-va-pas-de-soi/, consulté le 21 août 2023.
  • [4] Ibid.
  • [5] Michel Mathieu, « Note de politique générale », 2020, document accessible en ligne : https://www.dekamer.be/flwb/pdf/55/1580/55K1580011.pdf.
  • [6] « Note de politique générale », op.cit., p.5. Faisons remarquer qu’alors que cette note a été rédigée après le premier confinement, il n’y est aucunement question d’aborder la possibilité du maintien d’un accès physique aux administrations, alors que cette absence a largement été décriée par de nombreux collectifs citoyens et associatifs. Mathieu Michel n’y fait référence que de manière très floue et euphémisée, mentionnant que « de nombreux services de l’État se sont déjà digitalisés avec succès (Myminfin, Mypension…) tout en restant accessible de manière ponctuelle » (Nous soulignons). Ibid., p.6. Il n’est donc pas étonnant qu’à l’échelle régionale, comme avec le projet d’ordonnance « Bruxelles numérique », la logique du digital par défaut tend aussi à s’imposer comme nouvelle norme sociale. Il nous semble alors pertinent de la considérer comme une condition nécessaire au déploiement de la numérisation telle qu’elle est prévue, et qu’à ce titre, sauf mouvement social d’ampleur, il ne sera pas question de revenir en arrière.
  • [7] Voir https://michel.belgium.be/fr/en-2023-un-portefeuille-digital-pour-tous.
  • [8] « Note de politique générale », op. cit.
  • [9] Il y aurait tout un travail d’investigation à mener quant à la genèse de l’indice DESI et du choix de ses composantes (quels sont les acteurs qui les ont choisis, à partir de quelles intentions et de quels intérêts ? etc.). Contentons-nous ici simplement de remarquer qu’il s’inscrit dans la prolifération d’indices sur la digitalisation de l’économie, tant issus de compagnies privées telles que l’indice de l’entreprise Huawei (Global Connectivity Index), que d’organismes internationaux comme le Forum Economique Mondial (le Networke Readiness Index).
  • [10] Au fédéral, Mathieu Michel (MR) a succédé à Alexander de Croo (Open VLD) ; sous la législature 2019-2024, aux Régions, la compétence numérique revient au Ministre Borsu (MR) en Wallonie, au Ministre Clerfayt (DéFI) à Bruxelles, et à Jan Jambon (NVA) en Flandre. La composition des Digital Minds peut se trouver ici : https://michel.belgium.be/fr/premiere-reunion-des-digital-minds-smartnation
  • [11] Voir https://economie.fgov.be/fr/themes/line/les-tic-en-belgique/barometre-de-la-societe-de/indice-desi-2022.
  • [12] Giannone Diego, Santanielle, Mauro, « Governance by indicators : the case of the Digital Agenda for Europe », Information, Communication & Society, vol. 22, n°13, pp. 1889-1902, 2019, pp.1899-1900. (Notre traduction).
  • [13] Ibid.
  • [14] Morozov Evgeny, Pour tout résoudre, cliquez ici. L’aberration du solutionnisme technologique, Limoges, Fyp éditions, 2014.
  • [15] Ibid., p.28.
  • [16] Mosco Vincent, To the Cloud. Big Data in a Turbulent World, Boulder, London, Paradigm Publishers, 2014.
  • [17] Durand Cédric, Technoféodalisme. Critique de l’économie numérique, Paris, La Découverte, 2020, p.103-104.
  • [18] Zuboff Shoshanna, L’âge du capitalisme de surveillance, Paris, Editions Zulma, 2020.
  • [19] Rouvroy Antoinette, Berns Thomas, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, 2013/1, n°177, pp. 163-196.
  • [20] Mosco, V., To the Cloud., op.cit. p.198. (Nous traduisons).
  • [21] Morozov E., Pour tout résoudre, cliquez ici. L’aberration du solutionnisme technologique, op. cit., p. 252.
  • [22] https://www.wired.com/2008/06/pb-theory/ , cité par Mosco, Ibid.
  • [23] Mosco Vincent, To the cloud, op.cit.
  • [24] Ibid.
  • [25] Grossman Jérémy, Reigeluth Tyler, « Perspectives on algorithmic normativities : engineers, objects, activities », Big Data&Society, 6 (2), 2019 ; voir aussi l’article de Florian Jaton dans ce numéro.
  • [26] Marques Julie, « Le principe de justice dans la gouvernance de l’Intelligence artificielle au prisme du genre, de classe et de race », Terminal, n°132-133, 2022 [En ligne], URL : https://journals.openedition.org/terminal/8288#text , consulté le 31 juillet 2023.
  • [27] Durand Cédric, Technoféodalisme, op.cit., p.477.
  • [28] Berlinski Elise, Strauch Marianne, « Les biais algorithmiques, ou comment ne plus penser les discriminations », AOC, novembre 2020 [En ligne], URL : https://aoc.media/analyse/2020/09/17/les-biais-algorithmiques-ou-comment-ne-plus-penser-les-discriminations/#_ftn6, consulté le 03 août 2023.
  • [29] Bourdieu Pierre, « L’essence du néolibéralisme », Le Monde diplomatique, mars 1998, p.3.
  • [30] Eubanks Virginia, Automating Inequality. How High-Tech tools profile, police and punish the poor, New-York, St Martin’s Press, 2018.
  • [31] Voir Degrave Elise, « The use of secret algorithms to combat social fraud in Belgium », European Review of Digital Administration & Law, n°1-2, vol°1, pp. 167-178, 2020.
  • [32] Voir l’article de La Quadrature du Net dans ce numéro.
  • [33] Amnesty International : “Xenophobic Machines. Discrimination through unregulated use of algorithms in the dutch childcare benefits scandal”, 2021 [En ligne], URL : https://www.amnesty.org/en/documents/eur35/4686/2021/en/, consulté le 20 juillet 2023.
  • [34] Ibid.
  • [35] Ibid.
  • [36] Voir : https://www.mediapart.fr/journal/international/111122/aux-pays-bas-un-algorithme-discriminatoire-ruine-des-milliers-de-familles.
  • [37] Ibid.
  • [38] Hibou Béatrice (sldr), p.9, Introduction in La Bureaucratisation néolibérale, Paris, La Découverte, 2013, p.9.
  • [39] Lefort Claude, « Qu’est-ce que la bureaucratie ? » , Arguments, n° 17, 1960, cité par Hibou Béatrice, La bureaucratisation du monde à l’ère néolibérale, Paris, La Découverte, 2012, p.21
  • [40] Hibou Béatrice, La bureaucratisation du monde à l’ère néolibérale, op. cit., p.34.
  • [41] Ouellet Maxime, « Pour une théorie critique de la gouvernance algorithmique et de l’intelligence artificielle », Tic&Société, vol. 15, n°1, 2021, p.19.
  • [42] Hibou Béatrice, La bureaucratisation du monde à l’ère néolibérale, op. cit., p.32.
  • [43] Marion Nicolas, « L’autoritarisme discret du techno-capitalisme », Permanences Critiques, n°1, pp. 14-35, juin 2021.
  • [44] Amnesty International, art.cit.
  • [45] Hibou B., La bureaucratisation du monde à l’ère néolibérale, op. cit., p.98
  • [46] « Quand le digital s’attaque au travail social », un entretien avec Magali Gillard et Nora Poupart, Permanences Critiques, n°5, pp. 53-64, automne 2022.
  • [47] Sur la manière dont le non-recours est aggravé par la numérisation des services sociaux, voir Noël Laurence, « Non-recours aux droits et précarisations en Région bruxelloise », Brussels Studies, n°157, 2021 [En ligne], URL : http://journals.openedition.org/brussels/5569, consulté le 22 août 2023.
  • [48] Hibou B., op. cit.
  • [49] Eubanks Virginia, Automating Inequality, op.cit., p.188-189,notre traduction.
  • [50] Voir les articles publiés sur le site https://www.laquadrature.net/.
  • [51] Eubanks révèle ainsi que des travailleurs de ce service ont reçu des instructions en interne ordonnant de « Ne pas donner au client une copie du VI-SPDAT [index de vulnérabilité]. Ne pas mentionner que les personnes recevront un score. Nous ne voulons pas alerter les clients et rendre l’outil inutile ».,Eubanks V., op.cit.,p.185, notre traduction.
  • [52] Eubanks V., Automating Inequality, op.cit.
  • [53] Partant de ce constat, il y aurait un travail d’enquête important à réaliser afin de comprendre quels sont les acteurs qui prennent la décision ou autorisent de maintenir secret l’usage d’outils algorithmiques, à travers quelles intentions, etc.