Effets et mécanismes du numérique dans et sur notre société


L’outil serait neutre, seul son usage pourrait être jugé moralement ?


Philosophie de la technique et fin de la politique : un outil neutre ?

L’informatique est classiquement considérée comme le prolongement opérationnel des mathématiques, la représentation « calculable » du monde, avec les trois hypothèses que :
  • • Il est possible d’avoir une représentation (toujours plus précise avec le temps et l’augmentation du stockage et de la puissance de calcul) des activités de toute organisation ;
  • • Il est possible de faire des opérations sans erreur sur cette représentation, pour obtenir des résultats, des agrégations, simplifications, projections, interpolations… ;
  • • qui une fois transposées dans le « réel », permettront d’agir avec efficacité.

L’implicite de ce « principe de réalité » univoque et non discutable (en fait hypothèse de représentation parfaite), formulé dans l’expression de sens commun que « les chiffres ne mentent pas » et visible dans notre quotidien d’agent public, prend un relief nouveau avec les analyses très éclairantes d’Alain Supiot sur la gouvernance par les nombres1 : « La gouvernance par les nombres [destitue le] gouvernement par les lois. Comme la planification, elle substitue le calcul à la loi, comme fondement de la légitimité de la norme. Mais cette norme opère de l’intérieur, à la manière de la norme biologique ou du logiciel d’un ordinateur, par le simple jeu du calcul d’utilité individuelle. […] À la différence du gouvernement, qui opère en surplomb des gouvernés et subordonne la liberté individuelle au respect de certaines limites, la gouvernance part de cette liberté, qu’elle ne cherche pas à limiter mais à programmer. D’une manière générale la gouvernance occupe une position centrale dans un champ sémantique qui congédie le vocabulaire de la démocratie politique (gouvernement, peuple, souveraineté, territoire, liberté, justice, jugement, règle, réglementation, représentation, travailleur, syndicats, négociation collective) au profit de celui de la gestion (gouvernance, société civile, subsidiarité, espace, flexibilité, efficacité, évaluation, objectif, régulation, transparence, capital humain, partenaires sociaux, dialogue social). »
Sans pouvoir déduire de cette analyse que le numérique est nécessairement l’outil de la gouvernance par les nombres, nous sommes incités à la plus grande vigilance, l’imaginaire et le vocabulaire associés étant bien positionnés comme ne relevant pas du débat, du politique, mais de la simple optimisation technique ou gestionnaire2.

Cette analyse, faite sur la base du droit, des rapports de force et de discours, est renforcée par les constats faits dans la durée sur la mise en œuvre concrète de dispositifs numériques (d’ailleurs appelées dans un cadre marchand « solutions » par les entreprises qui les vendent, mais le constat est similaire pour des mises en œuvre publiques). Evgeny Morozov l’a décrit sous le terme de « Solutionnisme technologique3 » :
  • • une « solution technique » viendra toujours décaler, repousser voire élargir le problème, s’il n’est pas perçu et traité aussi dans ses autres aspects (relationnel, organisationnel…) ;
  • • quelquefois, le « problème » est en fait construit pour faire apparaitre comme solution un objet ou dispositif.

L’analyse peut être portée sur chacune des hypothèses de départ, par exemple : qui choisit les représentations ? selon quelles justifications ? quels sont les biais historiques dans la facilité d’obtenir les données correspondantes ? quel est le contrôle (transparence, explicabilité) sur les algorithmes ? etc. Les questions éthiques, politiques, économiques sont donc indissociablement liées, et ce à toutes les échelles4.

En résumé, l’usage du numérique induit par construction, et à moins d’être inclus dans un dispositif qui le contraint à autre chose :
  • • une déterritorialisation, et même une déspacialisation5, c’est-à-dire que les dépendances d’un agent se déplacent d’agents locaux vers d’autres agents, le réseau de dépendances étant plus « étendu » ;
  • • un renforcement de l’écrit et du code dans les modes de représentations (suivant une gradation intuition – oral – écrit – codifié – légalisé – naturalisé), et donc de pouvoir (c’est ce que décrit Lawrence Lessig dans son article « Code is law6 ».

Outil et usage : peut-on concevoir ou choisir en maitrisant les liens ?
Après avoir fait le constat qu’il y a une adhérence entre un outil (ou instrument, dispositif…) et des principes ou valeurs, et que ces principes ou valeurs nous importent, comment qualifier ce lien ou ces liens ? Par exemple, peut-on dire d’un logiciel, défini par son code [et éventuellement sa licence], qu’il est « conforme à », qu’il « contribue à », « soutient » ou « contrevient » à une valeur ? Et même si ça n’est pas possible, comment confronter outil et valeur, dans notre cas par ex. logiciel et valeur, ou système d’information et valeur(s).
Couramment, on considère qu’un objet matériel (outil, infrastructure) permet / contraint / détermine un ou des usages (et inversement, on lit que les usages reposent sur / nécessitent / supposent / et éventuellement détournent l’objet matériel, qui a été conçu avec un objectif en tête, une gamme d’usages).
Il peut être éclairant pour mieux comprendre les relations de distinguer plusieurs niveaux au sein de l’objet, particulièrement dans le cas du numérique :
  • • Paramétrage : qui a la capacité de modifier les règles locales, les adaptations particulières ?
  • • Codage : qui a la capacité (technique, cognitive, légale…) de modifier les règles de fonctionnement générales ?
  • • Substrat matériel (client/terminal, et infrastructure, réseau).
Quelques exemples permettent d’illustrer à la fois une certaine capacité d’action en tant que concepteur (ou chargé du paramétrage, de la mise en œuvre…) d’un outil, mais aussi l’illusion de croire qu’on pourrait déterminer et contrôler l’impact d’un nouvel outil :
  • • [accessibilité, inclusion] Un site Web peut être certifié par rapport à une norme WCAG, qui détermine un certain nombre de règles pour s’assurer que le contenu informatif du site sera accessible malgré certains handicaps. Les limites apparaissent dans ce cas comme dans celui d’un bâtiment accessible aux fauteuils roulants : quelle accessibilité pour les malvoyants dans le cas du bâtiment ? pour les personnes atteintes de troubles cognitifs, ou ne disposant pas d’un ordinateur assez performant, ou encore connaissant mal ses droits ou la langue française, dans celui du site Web ?
  • • [accessibilité, inclusion] De même pour un système d’information, dont les différents éléments sont qualifiés en termes d’accessibilité, de sorte que le risque qu’un usager soit confronté à une page ininterprétable pour lui est évalué comme faible ;
  • • [transparence, respect données personnelles, sécurité] Système de filtrage sécuritaire de l’organisation (proxy tel que celui dont est doté le Département, capable de déchiffrer les flux réseaux pour identifier des menaces… les navigateurs Web des agents étant configurés pour faire confiance à ce « gendarme » local, qui acquière donc la capacité technique de s’approprier les mots de passe saisis).
  • • [transparence, respect données personnelles, sécurité] aucun des éléments techniques à la base du réseau d’une organisation ne sont tout à fait maitrisables… faut-il chercher à évaluer les risques ?
  • • [données personnelles] il est possible de mettre en œuvre un dispositif de géolocalisation des agents d’une organisation, légitime pour remplir une mission précise, mais comment s’assurer que les données collectées ne serviront pas à un autre usage ?

Il n’y a donc pas de réponse évidente a priori malgré l’existence d’indices, bonnes pratiques, normes : un produit industriel ou alimentaire peut être certifié sur la base de son origine, de son processus de production/récolte, de ses propriétés physiques (sans bisphénol, charge admissible maximum en kN…) mais un logiciel ou un système d’information ne pourrait être pleinement labellisé/contrôlé qu’en situation :
  • • En conformité avec les valeurs et les buts (raison d’être) de l’organisation qui le met en œuvre/ l’emploie ;
  • • En conformité avec les objectifs attendus, donc aux besoins auxquels il est censé répondre ;
  • • En respectant les règles et pratiques des organisations ou groupes qui l’emploient ;
  • • En respectant les règles et contrat auxquels il a été soumis lors de sa conception, sa fabrication, et celles des logiciels ou matériels dont il dépend ;
  • • En prenant en compte les charges liées à sa conception, fabrication, maintenance, ces financements ou droits étant eux-mêmes conformes aux valeurs de l’organisation et à ses buts.
Ce niveau d’exigence peut sembler inatteignable et donc irréaliste. Rien n’empêche pour autant de se doter progressivement des moyens nécessaires, en partant du constat que la pratique au sein de chaque organisation permet d’évaluer par rapport à une expérience antérieure : proposer un outil en se basant sur des usages « similaires », proposer un outil et des usages, accompagner et animer, puis constater une gamme d’usages.
Il semble donc nécessaire de croiser les compétences multiples des experts de l’usage (les usagers ou bénéficiaires), des métiers, de la coopération, de la technique, et d’envisager cette question comme à la fois éminemment technique et éminemment politique, ce qui veut dire se doter des outils institutionnels où croiser les expertises et les missions.


Représentation ou institution d’un nouveau phénomène ?

En nous focalisant sur les bénéfices du numérique, et en voulant accompagner le changement en minimisant les écarts avec une situation antérieure (par exemple en utilisant un vocabulaire de l’analogie), mesurons-nous bien tous les effets du changement d’outil, en termes d’organisation mais aussi de perception des objectifs et des valeurs ? Comme le décrit Hubert Guillaud, « Transformer une fiche d’information en base de données n’est pas un acte anodin. Nous avons l’impression que ce n’est qu’un changement de support, alors que c’est profondément un changement de nature. Rendre les dossiers interopérables, pouvoir les trier massivement, faire des rapprochements, des calculs… modifie profondément le rapport à ces informations en les rendant productives justement, mais en oubliant ce qu’elles recouvrent vraiment, à savoir des gens. En permettant de « mieux » (et il faudrait discuter de ce « mieux ») gérer les pauvres, de mieux calculer leurs allocations, de mieux classer les étudiants selon leur « mérite », leurs notes, le risque est que nous n’ayons plus à l’avenir besoin d’éradiquer la pauvreté ou les inégalités. Il suffira de les gérer avec le moins de ressources possibles calculées par les machines. » Autrement dit, nous partons d’une simple « représentation », mais nous modifions les pratiques, les rapports de force, les places de chaque acteur (pourquoi sinon utiliser des méthodes d’« accompagnement au changement » ?). Qui vérifie ensuite que les « représentants » (codeurs) ont bien été d’efficaces (et/ou honnêtes ?) porte-paroles, de qui et pour qui ? Comment faire confiance à des techniciens-interprètes dont une des valeurs cardinales est la « transparence » (un logiciel est « bien conçu » si l’on oublie sa présence, s’il nous aide à réfléchir ou travailler sans qu’on s’aperçoive du travail qu’il effectue à notre place…)

Jusqu’à maintenant, les applications dont est doté le Département codent des procédures de décision (par exemple pour attribuer une aide ou une allocation), et pas les décisions elles-mêmes (contrairement à un outil comme ParcoursSup par exemple), mais les questions de gouvernance algorithmique1 (et de surveillance) se posent de plus en plus souvent… et à l’inverse certaines modalités de choix pourraient être remises en question au vu d’une analyse précise de leurs conséquences2 (par exemple pour la viabilité hivernale, déneiger en priorité certains axes plus petits, car le nombre de personnes vulnérables qu’ils desservent est plus important que les axes « principaux », pourtant empruntés en moyenne par plus de véhicules).

Définition positive du logiciel comme institution, et non comme instrument

Les communs tels que décrits par Elinor Ostrom3 désignent des formes d'usage et de gestion collective d'une ressource ou d'une chose par une communauté. Elle les caractérise par l’articulation de trois termes : une ressource (une chose tangible ou intangible), une communauté, une pratique de mise en commun ou de faire en commun qui établit des règles d’accès et de partage (commoning)4.


Un logiciel peut être construit comme un commun, à partir du moment où il repose sur :
  • • Un investissement sans possibilité d’appropriation (caractère open source « copyleft5 ») ;
  • • La gestion commune de son évolution
  • • Et surtout, la définition commune de ses objectifs.
Une innovation très intéressante de la plateforme de démocratie participative Decidim6 , est d’inclure les valeurs (déterminant fortement les objectifs et donc les usages du logiciel) dans la licence logicielle, qu’on pourrait définir comme « logiciels libres à mission ». Il s’agit d’ailleurs là d’un Partenariat Public-Commun7 , dans la mesure où la municipalité de Barcelone finance l’investissement.


Libertariens et technocapitalisme

L’idéologie dans laquelle baignent la plupart des pionniers d’internet, peut être caractérisée comme libertaire, « libérale » au sens politique, c’est-à-dire basée sur l’idée d’une démocratisation (empowerment ou émancipation), le réseau étant vu comme l’alternative à la centralisation, et donc internet étant « anarchiste » par construction…
La politique des standards ouverts, de la force publique « plateforme » est paradoxale : en facilitant une certaine transparence et donc la possibilité à de nouveaux acteurs de s’emparer d’une technique (et en théorie du marché qui va avec), elle cherche à lutter contre une prise de pouvoir d’acteurs privés qui « découperaient » les coopérations publique-publique.
Pour autant, du fait des effets de club et de réseau, cette politique permet souvent la prise de pouvoir par quelques acteurs très puissants, qui se retrouvent en situation de monopole.
La démarche open source ou open data peut donc jouer (quelquefois malgré elle) pour le camp de la « concurrence libre et non faussée ».

En réalité, le développement des startups et des « Big Techs » (GAFAM et leurs équivalents chinois BATX, mais aussi plus largement multinationales du numérique) s’est fait avec l’aide des Etats (et en particulier des Etats-Unis), du fait de l’apport déterminant qu’elles leur ont apporté d’un point de vue géopolitique. Cette énorme croissance est donc liée au cadre du néolibéralisme, qui débute dans les années 70 et perdure encore, avec en France la FrenchTech , le développement de sociétés de sécurité avec la vidéosurveillance sur le territoire national qui va de pair avec la vente de technologies à d’autres pays (dont certaines dictatures…). Une association comme le Coter Numérique8, regroupement des « décideurs IT des collectivités », néglige complètement les effets d’instrumentalisation possible, en décrivant le partenariat public-privé comme nécessairement vertueux, l’innovation étant affichée comme critère cardinal.

Pourtant, il n’y a pas à chercher longtemps pour trouver les rapports de pouvoir et les instrumentations : l’ampleur des questions et redéploiements au niveau géopolitique entre acteurs transnationaux et nationaux (débats sur la souveraineté numérique avec le RGPD, le cloud souverain, les accords UE-US comme le Privacy Shield9 ) a conduit certains observateurs à parler de « féodalité numérique10 ».

En quoi sommes-nous concernés localement ?

A plusieurs niveaux :
  • • Sur le choix d’un logiciel, d’une application, identifier les hypothèses de gestion derrière le modèle choisi pour représenter l’activité : est-ce qu’on décrit principalement les objets de travail (très rare, sauf dans le SIG), les procédures de travail (processus iterop de mobilité, de demande de télétravail), est-ce qu’on mélange les deux (gestion des cycles de visite des ouvrages d’art) ?
  • • Sur le choix de l’hébergement de notre système d’information, ou d’une partie du SI (pour l’instant assez peu externalisé, et pour des éléments non stratégiques : les réservations de salles par ex.)
  • • Si nous voulons développer une meilleure maitrise de notre SI avec des développements en interne, il s’agit de prendre en compte et articuler ces trois aspects conjointement dans un contexte « open source » :
  • 1. les modalités de financement,
  • 2. les propriétés « non concurrentielles » des communs numériques11 (dupliquer ou partager ne réduit pas la ressource),
  • 3. et les dynamiques de ressources finies liées à la création et à la maintenance12

Financements, marchés publics et « libre concurrence »

L’impact du numérique au sens large sur le financement et la gouvernance des services publics locaux a été finement analysé par le groupement d’acteurs « Modèles économiques urbains13 » aux différents niveaux :
  • • Qui paiera la ville (de) demain ?
  • • Quels seront les opérateurs de services urbains de la ville de demain ?
  • • Qui gouvernera la ville (de) demain ?
  • • (et au-delà du seul numérique) Les modèles économiques des services urbains au défi de la sobriété.
Bien que cette étude ait été produite pour les villes et affinées pour les métropoles, la mécanique est sensiblement identique et s’applique sur de nombreux points aux départements :
  • • Préemption des thématiques et de la définition du service public ;
  • • Privatisation de certains services
  • • Concentration des prestataires (éditeurs pour la partie logicielle) ;
  • • Financement public du travail de conception, sans en retirer le bénéfice local correspondant ;
  • • Rarement de contre-pouvoir aux prestataires…
Le phénomène a également été décrit et analysé à une échelle nationale dans l’ouvrage « Privatisation numérique : Déstabilisation et réinvention du service public14 »

En quoi sommes-nous concernés localement ?

Il est rare que nos capacités de choix dans une consultation publique ne soient pas limitées, avec une dépendance forte à un éditeur, ce qui nous impose de conserver un logiciel inadapté, ou de payer une redevance élevée, non seulement par rapport à une situation de plus grande concurrence, mais aussi par rapport à un développement en interne, sur la période d’utilisation totale de l’outil.
Actions possibles :
  • • dans un cadre d’externalisation, admettre qu’il faut financer du temps et de l’expertise dans les clubs utilisateurs ou les groupes d’expertise, en partenariat avec d’autres Départements ou collectivités, ET récupérer ce financement dans les consultations suivantes ;
  • • augmenter nos capacités de discernement, notre maitrise des politiques publiques, nos capacités de co-conception, de développement, d’hébergement (de manière plus générale, maîtrise des infrastructures).


Nouvelle offre, nouveaux acteurs

Le paysage étant fortement modifié, les impacts existent à la fois sur les moyens :
  • • Les infrastructures de traitements, de collecte de données, d’hébergement sont de plus en plus confiées à des acteurs privés… ce qui leur donne un pouvoir de décision ou de négociation toujours plus fort ;
  • • La culture de l’innovation technique étant portée à l’intérieur des organisations avec des arguments du type « il faut s’équiper de cette nouvelle arme, sinon nous serons vulnérables, et en étant moins efficaces que d’autres car plus scrupuleux sur les moyens, notre raison d’être en tant que fournisseur de service public sera mise à mal » défendu dans le cas de l’« intelligence artificielle » par un agent de Département15
… et sur les activités ou missions, avec la pression des nouveaux acteurs du numérique sur des services qui pourraient être soutenus par le public : livraison de repas, services à domicile etc.

En quoi sommes-nous concernés localement ?

  • • Qui est bénéficiaire de la mise en place de la fibre sur le Département ? Y a-t-il eu une évaluation socioéconomique de cet investissement massif ? (la question aurait pu se poser de manière très proche pour les antennes relai).
  • • Lorsque le Département fournit gratuitement la mise à jour de la représentation numérique de son réseau routier à des acteurs d’ampleur nationale (TomTom ) ou internationale (Waze, Esri), et doit payer pour récupérer des données d’usage par ces mêmes acteurs, alors même que l’usage des GPS induit une utilisation du réseau routier qui n’est pas adapté par rapport à ses choix de conception et de maintenance (concrètement, poids lourds empruntant des voies secondaires non dimensionnées pour eux, ce qui les fatigue prématurément, quand ça ne les détruit pas) : comment faire en sorte de récupérer un pouvoir d’action face à ces acteurs privés ?

Une émancipation possible pour tous ?

Le numérique, suite de l’automatisation et de la robotisation, permettrait de libérer les hommes de tâches fastidieuses, comme les machines en général, sur une base énergétique puis cognitive. En fait, on constate une reconfiguration, certaines personnes ou certains groupes de personnes étant très largement gagnants au détriment d’autres : constitution d’une classe de travailleurs du clic1, invisibilisation d’un travail de tous (pour les plateformes, mais aussi dans les activités quotidiennes dans le monde professionnel), et mise en situation de dépendance ou de vulnérabilité du fait d’un changement de statut (par exemple avec l’ubérisation, passage du salariat à l’auto-entrepreneuriat).
Au-delà de l’impact sur le travail (et les revenus), les modèles idéologiques2 et économiques des plateformes qui utilisent les données comportementales des utilisateurs comme matière première induisent en fait, non seulement une accumulation illégitime de données personnelles, mais aussi une modification des comportements eux-mêmes, ainsi que l’a montré Shoshana Zuboff dans son analyse sur le « capitalisme de surveillance » (expression qu’elle a forgée et titre de son livre).
La question peut se poser en termes de longueur minimale de la chaîne de responsabilités : souhaitons nous prendre en compte le bien-être (ou sa négation) :
  • • des agents ? quel collectif de travail « métier », quelle place d’un suivi des tâches, réduction des effectifs…
  • • des habitants (bénéficiaires/électeurs/contribuables) ? inclusion vs externalisation des « entrées de données » via des formulaires ; quelle valeur ajoutée en regard des dépenses d’informatisation ?
  • • des français ?
  • • des êtres humains ? on s’intéresse alors au travail forcé, au travail d’enfants, aux conditions de travail incompatibles avec la dignité humaine1, aux conflits liés à la terre et à l’accès aux ressources2
  • • ou à l’« environnement » au sens large (conditions de la vie sur terre).

Commentaires