Design et Culture Numérique

Deux mille vingt trois

Université de Nimes

 
███████╗██████╗ ██╗████████╗ ██████╗ 
██╔════╝██╔══██╗██║╚══██╔══╝██╔═══██╗
    █████╗  ██║  ██║██║   ██║   ██║   ██║
██╔══╝  ██║  ██║██║   ██║   ██║   ██║
 ███████╗██████╔╝██║   ██║   ╚██████╔╝
╚══════╝╚═════╝ ╚═╝   ╚═╝    ╚═════╝ 
  

Pour son projet thématique de l'année 2023-2024, l'option Design et Cultures numériques de la Licence Design de l'Université de Nîmes réalise un objet éditorial en web-to-print. Les textes réunis sont sélectionnés en fonction du cadre pédagogique et des thématiques de travail des étudiant·es qui en rédigent la présentation. Cet ouvrage est le premier livre imprimé édité et composé avec l'outil collaboratif BOOKOLAB.

Ces textes donnent lieu à une expérimentation à visée pédagogique dont l'objet est de permettre aux étudiant·es de mieux appréhender les métiers associés aux domaines de la conception éditoriale, graphique, de l'impression numérique, et du façonnage. Portant un intérêt particulier à l'enjeu actuel de la multiplicité des conditions d'accès à un même contenu et à la diversité des supports de lecture, ce projet constitue également une initiation aux techniques de conception graphique et éditoriale multisupport. La composition graphique de ce recueil a été entièrement réalisée avec les outils et technologies du web (html, css). Une version web existe également.

La conception de la mise en page d'un ouvrage avec les technologies du web permet une découverte de la programmation au service d'une pratique graphique. Cette initiation est assurée par un membre du collectif de designers graphiques Bonjour Monde. Ces dernières années, un intérêt pour la programmation, le hack et les valeurs du logiciel libre a émergé chez certain·es designers graphiques. L'utilisation de techniques et outils libres pousse à faire un pas côté dans l'écosystème de création, quitte à assumer une certaine maladresse mais non sans contrepartie.

Inscrivant leur métier dans la tradition de garant de l'accessibilité à l'information, ces designers rejoignent des valeurs issues de la culture des logiciels libres. Le code ouvert, la possibilité de le modifier et de se l'approprier sont considérées comme une condition inaliénable d'accessibilité. Le code devient matière de création au même titre que la typographie et le texte.

Outre l'enjeu de création du design graphique libre qui, adoptant des méthodes encore peu usitées, conçoit des objets graphiques singuliers, cette initiation aux langages standards du web est aussi l'occasion d’expérimenter un processus de création dit en single source publishing qui permet de faire d'une page web un livre et qui constitue un enjeu majeur face aux mutations des pratiques de lecture. Considérant l'imprimé comme un support parmi d'autres, tels que l'écran d'ordinateur ou le petit écran mobile, la conception éditoriale en single source publishing vise à décliner la mise en forme d'un même contenu sémantique (au format html) au moyen de feuilles de style spécifiques, adaptées aux différents supports de lecture. En modifiant leur chaine de travail, les designers sont en mesure de garantir l'accessibilité d'un contenu (texte, information) tout en maitrisant la pérennité et l'interopérabilité des technologies mobilisées pour sa diffusion.

Les objectifs pédagogiques adressent plusieurs aspects du design.

  1. Design éditorial : veille au respect de l'appareillage critique dans la version remise en forme ainsi qu'au respect de la mention des sources et du contexte d'édition initiale.
  2. Design graphique : sous la coordination d'un designer invité, les étudiant·es ont définit une charte graphique puis l'ont déclinée dans les différentes parties de l'ouvrage, renouant ainsi avec le système de la pecia de l'Université du XIIIeme siècle qui découpait un volume en plusieurs cahiers confiés simultanément à différents scribes pour leur reproduction. L’écriture et la mise en page d’un même livre pouvait donc varier d’un cahier à l’autre.
  3. Convergence entre écran et imprimé : les outils mobilisés pour ce projet participent d'une introduction aux enjeux du single source publishing et prennent en compte la mutation des chaines éditoriales avec la conception simultanée pour écran et pour imprimer.

Le recueil est produit en plusieurs exemplaires à destination strictement non commerciale, destinés aux étudiant·es, à la bibliothèque et aux archives de la filière design de l'université de Nîmes, aux responsables pédagogiques de l'établissement et aux enseignant·es de l'option. Ils peuvent en outre être présentés dans des manifestations visant à valo-riser l'offre pédagogique de l'université de Nîmes (tel que des salons étudiants, journées portes ouvertes).

 
Lucile Haute
█▓▒▓█▀██▀█▄░░▄█▀██▀█▓▒▓█
█▓▒░▀▄▄▄▄▄█░░█▄▄▄▄▄▀░▒▓█
█▓▓▒░░░░░▒▓░░▓▒░░░░░▒▓▓█
& Benjamin Dumond
█▓▒▓█▀██▀█▄░░▄█▀██▀█▓▒▓█
█▓▒░▀▄▄▄▄▄█░░█▄▄▄▄▄▀░▒▓█
█▓▓▒░░░░░▒▓░░▓▒░░░░░▒▓▓█
SOMM
AIRE
SOMMAIRE
S̷̥̓́̔̊Ö̸̧̤́̔̎́̿M̴̨͚̅M̸͓͋́͝A̷͉̗̺͗̽͜͝İ̶̻̩R̵̩͕̞̗̩̈́̏Ȇ̵̹
S̵̼̪̩͐́Ờ̷̜̗͑Ṃ̴͉̓M̷̖̓̚A̸̹͚̪̔̍̕Ǐ̴̻͖͂̔R̷̢̲̾͑E̵͚̘͉͆́
Ṡ̶̨̧̛͉̤͍̱̾̆͘Ȍ̷̧̰̼̻̤̀ͅM̸̭͓͑̈́̎͑͠M̸̬̊́̌͗̚͝A̵̭̓͂Į̶̡͍̭̟̉̈́͌̕̚R̷͚̙̟̻̣̗̣͛͌̐̾͑͠Ȅ̵͇̳̐͗͂͘
INTRO
Le théoricien Yves Citton explore le lien que nous entretenons avec nos différents médias d’information. Il parle cependant de « mutations » induites par l'ère numérique dans laquelle nous sommes désormais immergés. Cette ère semble infinie et ouvre de nouvelles perspectives sur la notion d'« attention » : les nouvelles technologies pourraient-elles un jour en être pourvues, alors que jusqu’à présent cette capacité était considérée comme propre à l’humanité ?
Le défi réside alors dans la compréhension de ce que cela pourrait engender et dans la recherche d'un équilibre entre nous et nos médias.

Pour une ecologie de l'attention et de ses appareils

Toute l’information imaginable semble accessible en quelques clics et nos ap-pareils nous sollicitent sans cesse pour orienter nos choix dans cet univers infini. Ce fai-sant, le numérique change
la manière dont nous sommes attentifs à ce qui nous occupe et à ce qui nous entoure. Nous avons interrogé Yves Citton sur la portée de ce change-ment et sur le rôle propre
qu’y jouent les nouveaux médias. Ils s’y révèlent ambivalents, et laissent
dès lors prise au politique
et à l’engagement.

Interview de Yves Citton par Thomas Lemaigre dans La Revue Nouvelle 2016/8 (N° 8)

Toute l’information imaginable semble accessible en quelques clics et nos ap-pareils nous sollicitent sans cesse pour orienter nos choix dans cet univers infini. Ce fai-sant, le numérique change
la manière dont nous sommes attentifs à ce qui nous occupe et à ce qui nous entoure. Nous avons interrogé Yves Citton sur la portée de ce change-ment et sur le rôle propre
qu’y jouent les nouveaux médias. Ils s’y révèlent ambivalents, et laissent
dès lors prise au politique
et à l’engagement.

La Revue Nouvelle : Quel est
le cheminement intellectuel parcouru pour arriver à cette notion d’écologie de l’attention, au cœur de vos travaux des dernières années ?

Yves Citton : Je viens de la littérature et d’une réflexion de théorie littéraire sur
ce qu’est lire et en quoi les livres ne sont vivants que dans la mesure où des lec-teurs ou des collectivités
y investissent de l’intérêt,
de l’attention et du temps.
Un livre existe parce que quelqu’un l’interprète et en fait quelque chose.
Se crée alors une dynamique entre
lui et le médium, qui est mort
en tant que tel, mais qui a pu anticiper notre attention.

Vous pourriez vous dire que c’est de la communication, mais si vous regardez tout cela du point de vue de la lit-térature, vous vous apercevez qu’il se passe plein d’autres choses — surtout si quelqu’un écrit en 1720 et qu’on le lit
en 2016. Il y a une puissance d’agir propre au médium
et cela vaut pour tous les médias, au sens très large, pas seulement les médias
de masse. C’est cette puis-sance qui m’intéresse.

Le pouvoir du lecteur

Les médias sont dépendants de l’attention humaine et l’on pourrait se dire que nous tous, en tant que spectateurs, nous avons un pouvoir énor-meen fait souvent un emblème
de passivité, regarder un film
ou une série TV est bien une
forme d’activité. Politique-regarder un film ou une série TV est bien une forme d’activité. d’hui, la façon dont nous
voyons le monde (et non la façon dont nous voyons le monde (et non seulement les écrans) prend des formes et des contenus qui lui viennent de ce qui est filtré par les médias.forme d’arbres, à tel animal plutôt qu’à tel autre, à telle couleur plutôt qu’à telle
autre.

C’est vraiment l’interface entre médias et attention qui m’intéresse : les médias sont des appareils qui transportent des enregistrements, des filt-rages de données sensibles

Les médias sont dépendants de l’attention humaine et l’on pourrait se dire que nous tous, en tant que spectateurs, nous avons un pouvoir énor-me parce que nous regardons la télévision. Même si l’on
en fait souvent un emblème de passivité, regarder un film ou une série TV est bien une forme d’activité. Politique-ment, cette idée me semblait intéressante. Par ailleurs,
il faut reconnaître que dans l’autre sens, de facto aujour-d’hui, la façon dont nous voyons le monde (et non seulement les écrans) prend des formes et des contenus qui lui viennent de ce qui est filtré par les médias. Même lorsque je regarde une forêt, j’ai en tête des images de re-portage à la Walt Disney qui m’ont rendu sensible à telle forme d’arbres, à tel animal plutôt qu’à tel autre, à telle couleur plutôt qu’à telle
autre.

C’est vraiment l’interface entre médias et attention qui m’intéresse : les médias sont des appareils qui transportent des enregistrements, des filt-rages de données sensibles

et intellectuelles, et ces appa-reils sont investis par une attention qui va elle-même filtrer, choisir, sélectionner
ce qui vient du médium.
Ce sont des rapports très complexes parce que le mé-dium même impose certaines choses et, en même temps, dans ce qui est imposé,
le spectateur a toujours une certaine marge d’activité.

C’est une approche que
le chercheur Stanley Fish
a poussée jusqu’au bout
en disant que le texte ne nous impose aucune signification,le texte ne nous impose aucune signification, que ce sont toujours les
« communautés interprétatives » qui construisent tel ou tel sens dans le texte.
la loi ou les textes sacrés :
la loi n’est que ce qu’en fait
le juge, qui doit toujours l’in-terpréter. Il s’agit donc d’un regard à la fois très subversif et très émancipateur, parce que cela veut dire que c’est nous en tant qu’interprètes qui tenons le marteau par
le manche.

et intellectuelles, et ces appa-reils sont investis par une attention qui va elle-même filtrer, choisir, sélectionner
ce qui vient du médium.
Ce sont des rapports très complexes parce que le mé-dium même impose certaines choses et, en même temps, dans ce qui est imposé,
le spectateur a toujours une certaine marge d’activité.

C’est une approche que
le chercheur Stanley Fish
a poussée jusqu’au bout
en disant que le texte ne nous impose aucune signification, que ce sont toujours les « communautés interpréta-tives » qui construisent tel
ou tel sens dans le texte.

Il parlait d’abord en tant que critique littéraire, mais en fait cela se comprend aussi pour le numérique, et même pour la loi ou les textes sacrés :
la loi n’est que ce qu’en fait
le juge, qui doit toujours l’in-terpréter. Il s’agit donc d’un regard à la fois très subversif et très émancipateur, parce que cela veut dire que c’est nous en tant qu’interprètes qui tenons le marteau par
le manche.

 

RN : Comment cette interaction entre le médium et son utilisateur mute-t-elle avec les technologies de l’information ?

YC : J’aime bien l’idée de mutation.

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

mutation

Que veut dire mutation ? Que l’on ne part pas de rien, il ne s’agit pas de création ex nihilo. Il y avait quelque chose, mais cette chose, qui est là depuis longtemps, change suffisam-ment de caractéristiques pour avoir l’air de changer de na-ture. Il y a toujours eu, j’imagine, un sentiment de la part des humains que la vie est courte, que l’on aimerait faire plein de choses et que l’on n’en a pas le temps. On trouve
à toutes les époques de l’histoire des gens qui s’inquiètent
de ce déferlement de savoirs, de textes, etc. Comment peut-on s’y retrouver ?

La logique à l’œuvre a été très bien décrite par le chercheur et critique d’art Jonathan Crary à propos de la période 1860-1890. Il montre qu’il s’y passe toute une série de choses sur l’attention. D’une part, le travail en usine force les contre-maîtres et les patrons à contraindre l’attention et la concen-tration des ouvriers. Puis, il faut vendre cette production,
et donc capter l’attention flottante des consommateurs par
la réclame. C’est aussi le moment où se mettent en place, surtout en Allemagne, des mesures très précises des capaci-tés physiques du système nerveux humain : à partir de quelle vitesse on voit passer un objet, à partir de quelle fréquence on entend un son, etc. On prend le système sen-soriel humain comme une sorte de machine qui détecte,
ou non, certains phénomènes et l’on mesure cela précisé-ment. Enfin, toujours à cette époque, se développent plein
de nouveaux médias comme le télégraphe, le téléphone,
le cinéma, puis la radio, la télévision, ainsi que d’autres qui ont rapidement disparu. mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation

Ce sont là de nouvelles machines pour distraire,
au sens étymologique : je suisje suis ici, mais mon attention est tirée loin d'ici.niques va exploser à travers tout le XXe siècle pour nous rendre attentifs à des choses qui sont dans d’autres es-paces-temps, aux JO de Rio en ce moment même, ou dans un vieux film d’Orson Welles. Cela existait déjà avant : lire un roman était déjà « se dis-traire », aller dans un autre espace-temps, mais l’industri-alisation, la publicité, les nou-veaux médias, et la capacité
à mesurer très précisément les capacités du système nerveux humain, cela amène une nouvelle dynamique, déjà une mutation.

Ce sont là de nouvelles machines pour distraire,
au sens étymologique : je suis ici, mais mon attention est ti-rée loin d'ici. Cette « distrac-tion » par des moyens tech-niques va exploser à travers tout le XXe siècle pour nous rendre attentifs à des choses qui sont dans d’autres es-paces-temps, aux JO de Rio en ce moment même, ou dans un vieux film d’Orson Welles. Cela existait déjà avant : lire un roman était déjà « se dis-traire », aller dans un autre espace-temps, mais l’industri-alisation, la publicité, les nou-veaux médias, et la capacité
à mesurer très précisément les capacités du système nerveux humain, cela amène une nouvelle dynamique, déjà une mutation.

Les médias fournissent des gens

Nous vivons une autre mutation, disons à partir des années 1970 où apparaît cette notion de surcharge informationnelle. Des chercheurs et des artistes prennent vraiment conscience de cela, comme Richard Serra et sa vidéo Television delivers people en 1973. Vingt ans plus tard, internet se déploie comme une sorte de médiathèque infinie… Le sentiment d’épuisement de l’attention devient de plus en plus intense.

Il convient à ce propos de distinguer deux logiques : il y a la surcharge informationnelle par opportunité et la surcharge par sollicitation. Je regarde cette vidéo sur Youtube alors qu’il y en a des millions d’autres dont je sais que beaucoup seront sans doute mieux que celle-ci. Donc je vais en regar-der trente secondes, puis je vais zapper… C’est la surcharge par opportunité, une première mutation qui fait que cela s’accélère, que nous sommes de plus en plus impatients face à la pression qualitative. Si j’ai accès à trois films, ce ne sera pas difficile de choisir celui qui me plaît le plus, si j’en ai deux millions, ce sera plus compliqué. Mais cet embarras
du choix, pour moi, ce n’est pas le plus important.

L’autre surcharge, ce sont les sollicitations : ce n’est pas uni-quement moi qui peux aller prendre ces contenus, beaucoup sont poussés vers moi, et je suis même sommé de répondre. Le philosophe italien Maurizio Ferraris parle de « mobilisa-tion totale ». Nous sommes vraiment assiégés par nos appa-reils connectés. Les barrières se brouillent entre les diffé-rentes sphères de l’existence du fait qu’il y a trop de sollici-tations pour que, avec les quelques heures de veille dont
on dispose chaque jour, l’on puisse répondre à toutes.
La mutation, c’est le fait qu’il ne s’agit plus seulement pour moi, à un moment donné, d’avoir le meilleur film, mais
de répondre ou non au médium qui m’en informe, avec éventuellement des conséquences pas du tout anodines, comme de me faire virer de mon travail, d’être impoli,
ou encore de sous-cultiver ma notoriété et, de ce fait, renoncer à un revenu futur. Surcharge par opportunité
et par sollicitation jouent en un continuum très étendu
de formes de pouvoir sur mon attention. On peut donc parler de mutation au sens de phénomènes quantitatifs qui ont des transformations qualitatives, parce qu’au bout d’un moment de ce jeu, certains peuvent se retrouver tellement épuisés qu’ils tombent en dépression ou en « burn-out numérique ».

 

Répondre, c’est exister

RN : N’y a-t-il pas là un para-doxe de la part de ces opéra-teurs culturels ou médiatiques dominants, qui poussent l’accélération de ces notifi-cations, donc qui tendent
à susciter cet épuisement,
alors que le médium nécessite
un utilisateur subjectivement impliqué et actif ?

YC : Cette mutation
de l’activité du lecteur, c’est en quelque sorte le passage du livre ou du web 1.0
à l’internet d’aujourd’hui, dans lequel on a introduit l’interactivité. Non seule-ment vous accédez à ce qui est posté, mais vous pouvez y répondre, vous pouvez vous-même poster vos propres contenus, etc. Mais le numérique comme tel n’est pas seul en cause. Cela devient intéressant quand,
à l’intérieur du numérique, on arrive à classifier un peu les choses. Si l’unidirection-nalité des mass médias
se renverse et que chacun devient le média de l’autre en produisant de la matière qui va nourrir l’intelligence collective, c’est plutôt positif, c’est une sorte de démocrati-sation merveilleuse.
C’est central dans le numérique,
et il faut le cultiver.
En même temps, on en voit plutôt la face sombre, à sa-voir que nous devons parti-ciper et nous exprimer,
et donc chaque fois que l’on regarde quelque chose
se produit une sorte d’injonction, il faut que
tu répondes et que
tu montres que tu existes.

Le paradoxe, c’est justement l’ambivalence que porte chaque évolution : il y a des tendances qui sont tout
à fait dangereuses et d’autres qui sont merveilleuses.

Intervient ici la notion de subjectivité computation-nelle. Se construire soi-même comme sujet, cela
se fait à travers des condi-tionnements, des conditions de communication, de pen-sée, de survie, et c’est
à l’intérieur de nos échanges avec nos semblables et dans notre environnement que nous construisons chacun notre singularité.

Il s’agit désormais de reconnaître que les médias numériques jouent un rôle de plus en plus important, au point de restructurer nos subjectivations. Il s’agit de comprendre en quoi être sujet en 2016 et en 1970, c’est quelque chose de différent, parce qu’un téléphone portable connecté est différent d’un téléphone par ligne fixe.moins cher, etc. Et en même temps — et la distinction
va être là —, on va produire des traces instantanées. Il y a là quelque chose d’absolu-ment nouveau pour l’histoire de l’humanité : tout ce que l’on fait avec le numérique laisse des traces, dont plein d’acteurs ont intérêt à s’em-parer, même sans avoir accès au contenu même, à ce qui s’est dit au téléphone dans notre exemple. Il est clair que quand vous envoyez un cour-riel avec Gmail, il y a un enre-gistrement automatique extérieur aux deux communi-cants. Il y a toujours un tiers.

Il s’agit désormais
de reconnaître que les médias numériques jouent un rôle
de plus en plus important,
au point de restructurer nos subjectivations. Il s’agit
de comprendre en quoi être sujet en 2016 et en 1970, c’est quelque chose de différent, parce qu’un téléphone por-table connecté est différent d’un téléphone par ligne fixe.
Il y a des choses que l’on peut toujours faire ensemble, comme parler avec un parent lointain, et le progrès tech-nique rend cela plus facile, moins cher, etc. Et en même temps — et la distinction
va être là —, on va produire des traces instantanées. Il y a là quelque chose d’absolu-ment nouveau pour l’histoire de l’humanité : tout ce que l’on fait avec le numérique laisse des traces, dont plein d’acteurs ont intérêt à s’em-parer, même sans avoir accès au contenu même, à ce qui s’est dit au téléphone dans notre exemple. Il est clair que quand vous envoyez un cour-riel avec Gmail, il y a un enre-gistrement automatique extérieur aux deux communi-cants. Il y a toujours un tiers.

C’est quelque chose que notre vocabulaire n’a pas encore intégré : la « donnée » est une forme de prise. Les données ne sont jamais données, elles se trouvent être des données parce que quelqu’un a jugé bon de les prendre. Dès lors,
si chaque fois que l’on avait un énoncé avec le mot « don-née », on le remplaçait par « prise », cela donnerait des effets politiques tout à fait intéressants. On retrouve
là l’ambivalence déjà évoquée : les données, c’est le don, c’est le gratuit, c’est merveilleux de donner sans compter, etc., mais rappelons-nous que si les données ont été prises, elles ont été prises pour des raisons précises, qui appartiennent en général soit à des forces de police, soit à des forces commerciales du marché capitaliste.

Brad Pitt, les tomates et vous

RN : Après Snowden,
on ne peut plus réfléchir à ces questions de la même manière, même si internet n’est plus concevable sans ces « prises » de données. Mais voyez-vous aussi à l’œuvre d’autres logiques des big data que celles du contrôle sécuritaire et des superprofits financiers ?

YC : Il y a de plus en plus
de prises qui sont artis-tiques, tout un art qui
se développe sur les métadonnées, sur ce jeu entre données et prises. J’ai beaucoup d’admiration
et de grands espoirs que par des moyens artistiques nous puissions à la fois mieux comprendre ce qui se passe et ce que l’on pourrait faire. On constate quand même
un déficit assez catastro-phique en la matière de la part des politiques, alors que justement du côté écono-mique, Gafam1 et autres sont bien en avance vu les attentes de profit que nourrissent ces formes d’économie.

Un enjeu est notamment
de situer le rôle de chacun, du quidam. C’est justement en tant que n’importe qui que mes données valent quelque chose parce que n’importe qui, on peut
le transformer en statis-tiques, et qu’en même temps c’est ma singularité que l’on vise et que l’on calcule. Pour les big data, nous sommes tous des quidams singula-risés. Et l’on retrouve toujours la même ambi-valence : chacun fait partie
à la fois de ce qui est exploité et de ce qui exploite, chacun est soumis aux médias
et chacun a une certaine marge de pouvoir sur eux. Notre subjectivité computa-tionnelle est clivée. Il s’agit de ne pas trop s’exploiter les uns les autres et finalement de ne pas trop s’exploiter soi-même…

RN : Vous distinguez plusieurs types d’attention, notamment l’attention collective, c’est-à-dire le fait que nous baignons tous dans un certain nombre de discours et de formats portés par nos médias, et qui cadrent les jeux de notre attention individuelle
et de notre attention conjointe (en groupe). Vous parlez même d’« envoûtement médiatique », pour traduire comment cette attention collective surplombe chacun et nous imprègne. Mais
ce contenu, dans l’air du temps, n’est-il pas lui aussi clivé, variable en fonction d’où chacun se situe dans la société ? Il suffit de vivre avec des adolescents pour se rendre compte que tout le monde
ne vit pas dans la même économie de l’attention. Ne conviendrait-il pas de parler d’« économies des attentions » ?

YC : Sans doute. Mais il n’est pas complètement idiot
de parler de l’attention au singulier. Le penseur allemand Georg Franck a écrit l’un des premiers ouvrages qui s’intitulait L’économie de l’attention en 1998. Il y part certes
du constat qu’il n’y a que des attentions dont les objets, les régimes, les qualités, les intensités, etc., sont tellement différents que l’on ne peut pas les comparer : être attentif
à un film, être attentif à la route quand vous conduisez, être attentif quand vous lisez un roman, être attentif à un ami malade, tout cela est trop irréductible
, il y a à priori une multiplicité d’attentions hétérogènes, hétéroclites, etc. Mais si Franck parle d’économie de l’attention au singulier, c’est qu’il est en train de se passer quelque chose de nouveau parce qu’émerge une mesure homogénéisatrice de l’atten-tion. Le meilleur exemple d’une telle mesure, c’est Pagerank de Google, l’algorithme qui édite les pages de résultats
de vos recherches, qui décide quels items s’affichent, dans quel ordre et aussi comment cela va se monnayer. Si vous êtes Brad Pitt beaucoup de gens parlent de vous, vous pouvez faire de la pub et vous êtes payé des millions
à l’heure. Si vous n’êtes pas Brad Pitt vous ne serez pas payé, etc. Si vous recherchez « tomate » ou votre nom
de quidam, vous générerez des flux d’argent tout à fait différents. C’est quelque chose comme une mesure mondialisée, qui homogénéise toutes les différences
et qui lie une certaine valeur à notre attention.

La subjectivation par les saillances

RN : Nous avons l’habitude d’opposer attention et distraction. Vous vous méfiez de cette vision de l’attention. Pourquoi ?

YC : Il me semble que c’est une vision qui nous emmène dans des discours néoréac-tionnaires parce qu’elle contient un manichéisme simplificateur : « C’est bien d’être attentif ou concentré sur quelque chose et c’est mal d’être distrait ». J’y vois une trace de ce que pointe Jonathan Crary à propos
de l’industrialisation au XIXe siècle : c’est vraiment une position de patron et de contremaître, « je veux que dans mon usine les gens soient attentifs, parce que j’ai des ennuis s’ils commencent

RN : Nous avons l’habitude d’opposer attention et distraction. Vous vous méfiez de cette vision de l’attention. Pourquoi ?

YC : Il me semble que c’est une vision qui nous emmène dans des discours néoréac-tionnaires parce qu’elle contient un manichéisme simplificateur : « C’est bien d’être attentif ou concentré sur quelque chose et c’est mal d’être distrait ». J’y vois une trace de ce que pointe Jonathan Crary à propos
de l’industrialisation au XIXe siècle : c’est vraiment une position de patron et de contremaître, « je veux que dans mon usine les gens soient attentifs, parce que j’ai des ennuis s’ils commencent

à papoter sur la chaîne
de montage ». J’y vois
en particulier beaucoup
de parallélisme avec certains discours enseignants. Comme si la seule bonne façon d’être en classe était d’être complè-tement obnubilé par le flux
de parole qui sort de la bouche de l’enseignant et de prendre des notes, à l’exclusion de toute autre chose. Alors que rêvasser un petit peu pendant que l’enseignant parle peut souvent être plus intéressant… C’est Roland Barthes qui dit quelque part que les moments où on lit vraiment sont les moments où on lève les yeux du livre, quand il se passe quelque chose entre ce que dit l’auteur et ce que vous en faites, vous lecteur actif, avec vos circonstances historiques, vos luttes politiques, votre subjectivité singulière.

La concentration n’est ni un bien ni un mal en soi, c’est juste un mode d’attention parmi d’autres, avec ses forces et ses limites. Je préfère parler de différentes qualités et situ-ations attentionnelles.
La question n’est plus d’être attentif contre distrait, dans
le bien contre le mal, mais
de savoir quelles bonnes attentions développer dans

à papoter sur la chaîne
de montage ». J’y vois
en particulier beaucoup
de parallélisme avec certains discours enseignants. Comme si la seule bonne façon d’être en classe était d’être complè-tement obnubilé par le flux
de parole qui sort de la bouche de l’enseignant et de prendre des notes, à l’exclusion de toute autre chose. Alors que rêvasser un petit peu pendant que l’enseignant parle peut souvent être plus intéressant… C’est Roland Barthes qui dit quelque part que les moments où on lit vraiment sont les moments où on lève les yeux du livre, quand il se passe quelque chose entre ce que dit l’auteur et ce que vous en faites, vous lecteur actif, avec vos circonstances historiques, vos luttes politiques, votre subjectivité singulière.

La concentration n’est ni un bien ni un mal en soi, c’est juste un mode d’attention parmi d’autres, avec ses forces et ses limites. Je préfère parler de différentes qualités et situ-ations attentionnelles.
La question n’est plus d’être attentif contre distrait, dans
le bien contre le mal, mais
de savoir quelles bonnes attentions développer dans

telle circonstance. Et il se peut que cela ressemble à de la dis-traction. Il y a un véritable nuancier des attentions que chacun agence en fonction des circonstances. Les neuro-scientifiques comme Jean-Philippe Lachaux montrent que pour un système nerveuxpour un système nerveux humain, y compris l’appareil sensoriel, c’est un régime tout à fait exceptionnel d’être concentré sur une seule chose à la fois.ce qui est de l’ordre du fond
et ce qui est de l’ordre de la figure qui en émerge.
Il ne faut pas réduire l’atten-tion à une question de sail-lance : quelque chose qui s’impose à notre attention, comme une sirène de pom-piers, une lumière qui clignote, etc., en rapport avec un impératif de survie. Le tra-vail de l’attention, c’est juste-ment, hors situation évidente de saillance, d’ex-traire d’un fond quelque chose qui va être une figure. On en revient directement au numérique, aux écrans et à la surcharge informationnelle par solli-citation. Tel message, fond et forme, qui nous sollicite à travers les écrans, a-t-il

telle circonstance. Et il se peut que cela ressemble à de la dis-traction. Il y a un véritable nuancier des attentions que chacun agence en fonction des circonstances. Les neuro-scientifiques comme Jean-Philippe Lachaux montrent que pour un système nerveux humain, y compris l’appareil sensoriel, c’est un régime tout à fait exceptionnel d’être concentré sur une seule chose à la fois.La fonction première est d’être sensible à plein
de choses en même temps
et de constamment décider
ce qui est de l’ordre du fond
et ce qui est de l’ordre de la figure qui en émerge.
Il ne faut pas réduire l’atten-tion à une question de sail-lance : quelque chose qui s’impose à notre attention, comme une sirène de pom-piers, une lumière qui clignote, etc., en rapport avec un impératif de survie. Le tra-vail de l’attention, c’est juste-ment, hors situation évidente de saillance, d’ex-traire d’un fond quelque chose qui va être une figure. On en revient directement au numérique, aux écrans et à la surcharge informationnelle par solli-citation. Tel message, fond et forme, qui nous sollicite à travers les écrans, a-t-il

été voulu comme une sail-lance ou comme un support au travail actif de l’attention créatrice ? Ce n’est pas l’écran comme tel qui fait problème, c’est ce qui y est proposé comme écologie de l’attention, comme situations et comme qualités attentionnelles.

été voulu comme une sail-lance ou comme un support au travail actif de l’attention créatrice ? Ce n’est pas l’écran comme tel qui fait problème, c’est ce qui y est proposé comme écologie de l’attention, comme situations et comme qualités attentionnelles.

L’âge de l’exoattention

RN : Repartons de l’idée très générale que l’être humain occidental de 2016 est tout
le temps pris entre ses limites
et sa volonté de les dépasser, entre son souci et sa crainte
de l’autonomie. Les promesses d’autoaccomplissement des individus et d’autoconstruction de la société sont des principes actifs des réalités de notre modernité. Au vu de tout cela, ces idées de subjectivation computationnelle, de surcharge par sollicitation et de commen-surabilité de tous les types d’attention relèvent-elles toujours de cette modernité-là ? Ou sommes-nous en train
de passer dans un autre régime ?

YC : Katherine Hayles est une chercheuse américaine qui a très bien décrit les ambivalences de la place des médias dans nos régimes d’attention. Elle critique ainsi le projet trans-humaniste : pour elle, cette idée de télécharger son cerveau sur un ordinateur
et ensuite le transférer dans un autre corps, jeune, pour devenir immortel, etc., c’est nier la complexité de la con-naissance humaine, qui est une connaissance corporée. Notre attention est embar-quée dans un corps sensible au plaisir, à la douleur, à la beauté. Or ces sensibilités sont filtrantes. L’humain construit à travers elles toutes ses connaissances.
Le corps n’est pas réductible
à une prothèse du cerveau,
il n’en est pas séparable.

C’est avec cette grille de lecture qu’il convient d’examiner
ce que j’appelle l’exoattention, qui peut donner un morceau de réponse sur l’enjeu de l’autonomie. De quoi s’agit-il ? Cela s’ancre dans cette idée que depuis le paléolithique toute l’histoire de l’humanité peut être comprise comme l’histoire d’habiletés qui étaient d’abord corporées, mais que les humains arrivent à extérioriser sous la forme d’outils. Qu’est-ce qu’un silex ? C’est un ongle plus puissant.
On extériorise la mémoire à travers l’écriture, la capacité d’entendre à travers l’enregistrement par gramophone, etc. Jusqu’à présent et pour simplifier, on extériorisait des enregistrements bruts de tout filtrage : le micro ne sélectionne pas, parmi tout ce qui se passe, ce qui est pertinent ou pas.Votre écoute maintenant, elle, sélectionne ce que je dis et ne fait pas attention au bruit de fond, alors qu’un micro enregistrerait au même niveau ce bruit et nos voix. L’attention est restée le propre de l’humain.

Mais depuis cinq ans, on crée des algorithmes qui pratiquent l’apprentissage profond, le deep learning. Il s’agit de fournir plein de données à une machine — avec les big data c’est facile, on en récupère partout — et ces algorithmes font émerger, non pas la signification, mais des corrélations. À partir d’un certain point, ces corrélations émergent
« toutes seules », sans que les humains aient besoin de dire à la machine à quoi faire attention. Or le travail de l’atten-tion, c’est exactement cela, vous avez un champ de données sensibles, de stimulus, vous les traitez avec plusieurs filtres différents, ce qui génère des figures qui s’extraient d’un fond. Jusqu’à présent seuls les humains pouvaient le faire. Depuis moins d’une dizaine d’années, grâce à la combinai-son d’algorithmes, des big data, d’énormes puissances
de calcul et des gens intelligents qui arrivent à concevoir
et utiliser cela, Amazon, Google, la NSA, etc., fonctionnent tous à cela. L’exoattention a donc extrait de nous, de nos corps, de nos subjectivités, cette aptitude à distinguer les figures d’un fond, soit une partie de l’interface même entre soi et le monde qu’est l’attention.

C’est de nouveau quelque chose d’ambivalent. Soit c’est la fin de l’humain parce que ce qui fait son essence, c’est juste-ment de rendre certaines choses pertinentes ou pas. Nous serions alors en train de basculer dans le transhumain
ou dans le posthumain. Soit l’extériorisation nous laisse toujours dans une position autonome, à la fois en amont parce que c’est nous qui fabriquons ces algorithmes, ces données, ces ingénieurs et ces industries, et également
en aval, où il y a de l’humain qui interprète tout cela, qui
y donne sens. Personne ne me force à acheter ce qu’Amazon a décrété être bon pour moi.

Ce qui nous échappe

Cela deviendrait vraiment dangereux là où justement je ne pourrais plus choisir parmi les sollicitations que m’envoie Amazon, là où je serais forcé de brancher mes yeux ou mes oreilles sur certaines figures. Il y a un épisode2 d’une série de la BBC Black Mirror, où, dans un monde dystopique, les habitants n’ont plus le choix de se débrancher d’images violentes, de publicité, de sexe, etc. Pour pouvoir choisir
ce qu’ils voient, ils doivent payer.
Cela illustre à merveille
un danger potentiel de cette nouvelle exoattention.

À l’inverse, il me semble que nous avons vraiment besoin
de l’exoattention, par exemple pour savoir quelles sont les conséquences environnementales de nos actions, lorsque
je règle mon thermostat, lorsque j’achète tel type de pommes venant du Chili, etc. L’exoattention, cela peut me donner accès à des plans de réalité que je n’ai pas les moyens d’appréhender, moi tout seul et tout petit, des analyses qui se calculent sans que je le sache et qui dépassent complè-tement la conscience personnelle. On peut tout à fait le faire aujourd’hui. Avec une application comme BuYCott, vous pouvez savoir en scannant le code-barre d’un produit s’il
a été produit dans des conditions sociales ou environnemen-tales éhontées. Oui, l’exoattention impliquera la prise
de données, du contrôle, mais si cela nous rend les trans-formations climatiques moins calamiteuses, pourquoi pas ?

RN : Et avec une complexité particulière. Si l’on reprend l’exemple du silex, vous et moi on peut — cela va peut-être prendre du temps — apprendre à en fabriquer un, taillé comme il faut, etc. Alors que programmer des algorithmes…

YC : Ce n’est pas cela qui me préoccupe. Programmer des algorithmes, maintenant, il se trouve des ressources pour l’apprendre ou pour payer les gens qui savent le faire. Je ne désespère pas que l’on puisse s’éduquer les uns les autres pour que l’on soit tous un peu hacker en amateur, c’est même un des impératifs de l’éducation du XXIe siècle.

Ce qui me préoccupe, c’est que l’exoattention s’appuie sur des objets technologiques comme des circuits intégrés. Les produire, non seulement je ne sais pas comment
on fait, mais nous sommes incapables de le faire dans des conditions conviviales, non industrielles, non aliénantes : cela ne peut en effet se pro-duire que dans d’immenses usines, des installations com-plètement aseptisées, qui mobilisent des millions d’euros de capital fixe. Quelque chose comme un téléphone portable, il y a dedans tellement de degrés

YC : Ce n’est pas cela qui me préoccupe. Programmer des algorithmes, maintenant, il se trouve des ressources pour l’apprendre ou pour payer les gens qui savent le faire. Je ne désespère pas que l’on puisse s’éduquer les uns les autres pour que l’on soit tous un peu hacker en amateur, c’est même un des impératifs de l’éducation du XXIe siècle.

Ce qui me préoccupe, c’est que l’exoattention s’appuie sur des objets technologiques comme des circuits intégrés. Les produire, non seulement je ne sais pas comment
on fait, mais nous sommes incapables de le faire dans des conditions conviviales, non industrielles, non aliénantes : cela ne peut en effet se pro-duire que dans d’immenses usines, des installations com-plètement aseptisées, qui mobilisent des millions d’euros de capital fixe. Quelque chose comme un téléphone portable, il y a dedans tellement de degrés

d’hétéronomie ! La micro-électronique, le code, la pro-priété intellectuelle, les imbrications entre les différentes applications… C’est sûr que ce n’est pas
du silex ! Donc qu’est-ce que l’on en fait ? Est-ce qu’il faut les condamner parce qu’il n’y a moyen de les produire que de façon hétéronome ? Et aller vivre avec des low tech ? Cela ne me semble pas ridicule, et je respecte les gens qui font ce choix-là, ils ont compris de façon assez forte quelque chose que l’on suspecte et ils agissent
en conséquence. Nous avons cependant en commun
le nucléaire, les pesticides,
la fin de la biodiversité, tous ces risques et transformations globaux dont personne ne peut s’abriter, même dans une retraite rurale. Or le numé-rique est un moyen incon-tournable pour essayer de rendre tout cela habitable malgré tout.

Le défi est de réussir à faire
le pont entre l’un et l’autre,
à la fois développer des ancrages locaux d’autonomie et se brancher sur des réseaux planétaires qui passent par l’électricité, les apps, les Gafam, etc. Il me semble que

d’hétéronomie ! La micro-électronique, le code, la pro-priété intellectuelle, les imbrications entre les différentes applications… C’est sûr que ce n’est pas
du silex ! Donc qu’est-ce que l’on en fait ? Est-ce qu’il faut les condamner parce qu’il n’y a moyen de les produire que de façon hétéronome ? Et aller vivre avec des low tech ? Cela ne me semble pas ridicule, et je respecte les gens qui font ce choix-là, ils ont compris de façon assez forte quelque chose que l’on suspecte et ils agissent
en conséquence. Nous avons cependant en commun
le nucléaire, les pesticides,
la fin de la biodiversité, tous ces risques et transformations globaux dont personne ne peut s’abriter, même dans une retraite rurale. Or le numé-rique est un moyen incon-tournable pour essayer de rendre tout cela habitable malgré tout.

Le défi est de réussir à faire
le pont entre l’un et l’autre,
à la fois développer des ancrages locaux d’autonomie et se brancher sur des réseaux planétaires qui passent par l’électricité, les apps, les Gafam, etc. Il me semble que

c’est dans ce grand écart que doit se penser le politique aujourd’hui.

1 | Voir l’article de Thomas Lemaigre dans La Revue Nouvelle 2016/8 (N° 8).

2 | « Fifteen Million Merits », épisode 2 de la saison 1, 2011.

c’est dans ce grand écart que doit se penser le politique aujourd’hui.

INTRO


Cet article de Chantal Morley et Pascale Kuntz propose une vue d’ensemble
sur l’autonomisation des femmes dans
le numérique à travers le cyberféminisme.
Il nous présente les trois formes de pouvoir
qui favorisent l’empowerement des femmes
dans le monde des technologies numériques depuis les années 1980.
A savoir le pouvoir avec, c’est-à-dire la puissance de la collaboration entre femmes
et du collectif ; le pouvoir pour qui a pour capacité d’améliorer les manières
de communiquer notamment avec la création
de la « femtech » ; et le pouvoir intérieur
qui renvoie à la prise de conscience
de soi et de la volonté de dépasser l’oppression masculine dans ce domaine.

Empowerment des femmes par les technologies numériques : pouvoir avec, pouvoir pour et pouvoir intérieur

Empowerment des femmes par les technologies numériques :
pouvoir avec, pouvoir pour et pouvoir intérieur
 

I. Introduction

II. La construction d'un pouvoir avec

  1. L'empowerment par une communauté d'experts
  2. L'empowerment par des réseaux de pouvoir
  3. L'empowerment par le soutien vers et dans les métiers
    des TIC

III. L'exercice
du pouvoir pour

  1. Les logiques de genre dans la conception
    des technologies numériques
  2. Une reproduction intentionnelle des stéréotypes de genre
  3. Les biais genres via les données et les sources
    de connaissance
  4. Les biais dans les protocoles d'expérimentations
  5. Une visibilité des enjeux des enjeux de genre
    dans les modèles et les logiciels de décision
  6. L’empowerment par la maîtrise de ses données corporelles : la « femtech »

IV. Le développement
du pouvoir intérieur

V. Discussion

VI. Conclusion

 

I. Introduction

Les métiers du numérique apparaissent aujourd’hui comme des territoires marqués
au masculin dans la plupart des pays
occidentaux (Ashcraft et al., 2016),
avec une sousreprésentation accrue des femmes (European Commission, 2018),
alors que ce n’est qu’à partir des années 1980
que l’espace du numérique s’est reconfiguré
en excluant matériellement ou symboliquement
les femmes des métiers du logiciel (Abbate, 2012 ; Hicks, 2017).

 

De nombreuses initiatives institutionnelles
ont été lancées pour inverser la tendance,
tel le projet européen WICT (2004) qui a émis des recommandations concernant la formation,
le marché du travail et les entreprises.
Le projet SIGIS (Strategies of Inclusion : Gender and the Information Society)
a recensé plusieurs dizaines d’initiatives
en Europe qui témoignent d’une participation
de femmes dans le numérique, afin d’inspirer
des politiques d’attraction et d’inclusion
des femmes. Son rapport final (SIGIS, 2004, pp. 42-43) identifie trois façons d’apporter
aux femmes l’empowerment nécessaire pour leur inclusion dans les technologies de l’information (TI) : insertion dans des communautés
et des réseaux, mise en visibilité
des professionnelles des TI, et formation.
Nous voulons ici cibler plus particulièrement l’empowerment par les technologies.
De nombreux travaux sur la relation entre
technologie et genre ont posé la question
en termes de pouvoir, souvent pour analyser
la technologie comme moyen, lieux et pratiques
de domination (matérielle ou symbolique),
mais aussi pour défendre l’idée qu’elle peut être

outil de résistance et d’empowerment (par exemple : Wajcman, 2004 ;Faulkner, 2001 ;Plant, 1996 ; Omrod, 1995 ; Haraway, 1990).

 

L’objectif de l’article est d’étudier différentes pratiques
de maîtrise et de mobilisation des technologies numériques,
qui ont été mises en œuvre par des femmes afin d’augmenter
leur pouvoir et celui d’autres femmes dans le numérique.
Nous avons privilégié des pratiques non mixtes, car les deux facettes de la non-mixité — se protéger et se construire (Lewis et al., 2015) — ont un impact possible
sur l’empowerment. L’empowerment est défini comme
« un processus par lequel des individus développent leur capacité d’agir et d’acquérir un pouvoir » (Biewener, Bacqué, 2015, p. 69). Pour comprendre l’apport des TIC (Technologies de l’information et de la communication),
nous nous sommes appuyées sur le cadre théorique
de la typologie des formes de pouvoir, souvent utilisée
par les auteur.es féministes (Guétat-Bernard, Lapeyre, 2017, p. 10 ; Biewener, Bacqué, 2015, p. 80) : pouvoir avec, pouvoir pour, pouvoir intérieur, pouvoir sur, et nous avons choisi des cas satisfaisant aux critères suivants :
a) des initiatives spontanées ;
b) par des femmes engagées dans les technologies numériques ;
c) dans le but de développer leur pouvoir et celui d’autres femmes par le numérique ;
d) depuis le moment où la participation des femmes
a commencé à décliner.

Notre étude n’a pas vocation à dresser un panorama exhaustif : elle repose sur un échantillon ayant une représentativité théorique (Miles et Huberman, 2003, p. 62), c’est-à-dire visant à comprendre des phénomènes émergents, au cours desquels des femmes en situation de minorité non dominante dans le domaine des technologies numériques, ont pu se saisir de ces technologies pour augmenter leur pouvoir et celui d’autres femmes.

 

Nos cas sont donc illustratifs des différents types de pouvoir. Ils témoignent tous d’une capacité d’action des initiatrices
qui, pour s’opposer à une situation de domination
ou de discrimination liée à l’exercice d’un pouvoir 
sur, ont développé d’autres formes de pouvoir. Le premier,
celui du pouvoir avec, repose sur la force du collectif :
nous montrons comment certains réseaux de femmes,
à différents niveaux et avec différents objectifs, augmentent leur capacité à entrer et/ou à agir dans le numérique.
Le second type correspond au pouvoir pour : nous donnons
à voir comment certaines femmes ont investi un champ d’application technologique leur permettant d’augmenter
la maîtrise de leur corps. Le troisième type, celui du pouvoir intérieur, renvoie au développement de la confiance
en soi et au dépassement d’une domination intériorisée (Calvès, 2009, p. 739) : nous l’illustrons avec les artistes
de la première vague du cyberféminisme.

 

II. La construction
d’un pouvoir avec

 

 

 

La notion de pouvoir avec est liée
à la capacité de s’organiser pour défendre un objectif commun.
Il existe une variété de situations
où des femmes se saisissent
des technologies numériques
pour se rassembler et s’entraider,
dans un contexte où la domination masculine ne leur laisse
que peu de place. Il s’agit  
de création de réseaux, le plus souvent informels, sans structure hiérarchique. Nous présentons trois types de cas : la collaboration entre expertes informatiques ; le soutien pour progresser vers des positions de pouvoir ; l’incitation à dépasser la barrière de la masculinité
des TIC.

a. L’empowerment par une communauté d’expertes :

Anita Borg, chercheure connue pour ses contributions
aux systèmes d’exploitation tolérants aux pannes, a lancé
en 1987 aux États-Unis le premier réseau d’expertes
en informatique. Cette communauté en ligne a commencé
à fonctionner grâce à une messagerie expérimentale que Borg était en train de développer, et elle appela cette communauté Systers. L’objectif était de partager de l’information
et des conseils sur les systèmes d’exploitation, ce qui offrait
aux chercheures une alternative au mentorat auquel
elles avaient peu accès, et une plate-forme d’échanges accueillante sur laquelle elles ne risquaient ni insultes,
ni harcèlement, ce qui était une pratique fréquente
dans les forums d’informaticiens. En dix ans le nombre
de participantes est passé de 20 à 2 500. Le réseau en compte aujourd’hui 7 500 et s’inscrit dans une communauté plus large, celle de l’Institut AnitaB.org. Cette initiative a ouvert
la voie à la mise en relation numérique d’expertes dans d’autres domaines (histoire, économie, physique, théologie…) (Regan Shade, 1994).

 

D’autres réseaux autour de l’expertise informatique
ont vu le jour, notamment en lien avec le mouvement
du logiciel libre, où la communauté des développeurs
se montrait particulièrement hostile aux femmes assimilées
à ce que rejetaient les activistes du libre (F/LOSS, 2006). Par exemple Debian Women (autour du système d’exploitation Debian) ou LinuxChix (autour du système d’exploitation Linux).

 

b. L’empowerment par des réseaux de pouvoir

L’objectif de cette deuxième catégorie de réseaux
est d’augmenter le nombre de femmes aux postes de pouvoir dans les TIC, particulièrement sujets au plafond de verre.
En 1989, une entrepreneuse dans le numérique Carolyn Leighton a constitué un réseau de femmes travaillant
dans les TIC - Women in Technology International (WITI),
qui s’est ensuite élargi aux femmes technophiles
pour leur offrir des opportunités de formation (webinaire),
de mentorat ou d’emplois, ainsi qu’aux entreprises en quête
d’une diversité accrue dans les postes techniques.
Ce réseau, qui depuis 2001, s’appelle WITI Professional Association, se présente comme le réseau le plus important
(167 000 adhérent.es), et rassemble des individus
(97 % femmes) avec un haut niveau de formation,
et utilisant ou mettant en œuvre des technologies
dans leur vie professionnelle. Le réseau favorise
leur progression professionnelle.

 

Dans le même esprit, le réseau Women who Code créé en 2011 par trois femmes alliant compétences en marketing digital
et en développement informatique, a pour but ultime
une représentation proportionnelle de femmes à tous niveaux dans le secteur du numérique. À la différence de WITI,
ses membres sont toutes en poste dans le numérique (plus 75 % dans des postes techniques, et 15 % dans des postes d’encadrement ou de direction). Le réseau leur propose
des moyens d’évoluer, ainsi que des opportunités d’emploi,
de visibilité et de participation à des conférences dans les TI.

 

 

c. L’empowerment par le soutien vers et dans les métiers des TIC

Cette troisième catégorie de réseaux cherche à attirer des filles et femmes dans le secteur du numérique en les rendant
plus visibles et en leur apportant un soutien, notamment
en proposant des formations en ligne sous différentes formes. Nos exemples traduisent une diversité de cibles. Le réseau Girls in Tech (GIT) a été fondé aux États-Unis en 2007
par une femme ayant d’abord fait carrière dans le marketing
– Adriana Gascoigne – et qui en est toujours présidente,
pour inciter les femmes à entrer dans les TIC, en particulier dans les industries des TI et les start-up numériques. Ce réseau revendique plus de 100 000 membres, avec des chapitres dans 36 pays et des actions propres au contexte de chaque pays. L’objectif majeur est de développer la confiance en soi par des conférences et des formations en ligne (développement de sites Web, infographie…), mais aussi des rassemblements en face
à face (ateliers pratiques, concours …) qui permettent
de rencontrer des professionnelles, ainsi que des hackathons mixtes menés dans un esprit d’égalité.

 

De façon plus ciblée, le réseau Duchess, fondé en 2007
aux Pays-Bas par l’informaticienne Clara Ko, rassemble
des informaticiennes travaillant sur les technologies Java (langage datant de 1995). Il compte 550 membres, dans 60 pays, et vise à valoriser et promouvoir les femmes travaillant dans le monde Java. Le réseau français, Duchess France,
a été créé en 2010 pour donner aux femmes plus de visibilité dans la communauté Java, et faire connaître ces métiers techniques afin de susciter de nouvelles vocations.
C’est une communauté de techniciennes passionné.es,
qui partagent des connaissances, et poussent les chercheures
à augmenter leur participation dans les conférences avec
un accompagnement très pragmatique (ateliers de préparation à l’écriture de communications, sessions de coaching pour répéter les présentations). Il est dirigé par une équipe
de 11 femmes, toutes spécialistes du langage Java.

 

La diversité ethnique dans les métiers du numérique
est particulièrement faible aux États-Unis. Cela explique
le lancement en 2011 de Black Girls Code (BGC)
par une ingénieure ayant travaillé plus de vingt ans dans
les biotechnologies, Kimberly Bryant. Son action consiste
à former des filles, et à combler la fracture numérique
qui pénalise particulièrement celles qui se trouvent dans
un milieu défavorisé. L’objectif annoncé est de former 1 million
de filles d’ici à 2040 ! Notre dernier exemple est Lesbian
who tech qui répond à l’invisibilisation des lesbiennes
et des queers dans les métiers du numérique, invisibilisation
qui se retrouve aussi dans les études féministes sur la relation entre genre et technologie (Landström, 2007).
Fondé en 2012 par Leanne Pittsford pour augmenter
la diversité de genre dans le secteur du numérique, ce réseau
a ouvert trois ans plus tard une antenne en France. Son objectif
est d’offrir l’appui du groupe pour prendre confiance et sortir de l’invisibilité dans le milieu professionnel.
Le réseau rassemble aujourd’hui des femmes
qui se reconnaissent comme lesbiennes ou non-binaires,
et revendique plus de 50 000 membres.

 

III. L’exercice du pouvoir pour

 

 

 

 

 

 

 

 

 

 

La notion de pouvoir pour est liée à l’exercice

de la capacité d’action pour des développements tournés vers l’émancipation. On peut observer

un empowerment de ce type dans l’émergence, sous l’impulsion de femmes, de produits/services visant euxmêmes l’empowerment
des utilisatrices. Le contexte dans lequel
ces activités sont menées est celui de biais discriminants (sexe, ethnie) pouvant accompagner certains développements
en Intelligence Artificielle, notamment
lors de l’utilisation de données massives (big data) pour différentes applications : reconnaissance
des formes et modèles de décision, morphologie genrée des robots et des assistants virtuels (boyd, Crawford, 2012). Ces initiatives montrent une prise en main, souvent
par des femmes, de problèmes jusque-là ignorés. Avant de présenter un cas d’empowerment
des femmes par la mobilisation de technologies numériques récentes, nous allons voir comment des logiques de genre peuvent influencer
la production de ces technologies.

 

a. Les logiques de genre dans la conception de technologies numériques

Le caractère mécanique des raisonnements logiques associés aux algorithmes leur a souvent conféré un caractère d’objectivité. Cette propriété est aujourd’hui largement discutée (Cardon, 2015), et différents évènements ont attiré l’attention du public, comme le processus de recrutement interne d’Amazon qui, assisté par un algorithme d’intelligence artificielle (IA), s’est révélé faire preuve de discrimination sexiste à l’embauche. Dans le domaine de l’IA, les résultats produits par les programmes qui transcrivent en machine
les méthodes abstraites que sont les algorithmes, dépendent
de nombreux facteurs dont les variables que manipulent
les algorithmes, l’écriture des programmes, et les données fournies en entrée. Certaines procédures permettent aujourd’hui, dans certains cas, de sélectionner
« automatiquement » des variables « pertinentes », mais l’écriture de ces procédures reposent sur une activité humaine. De plus, l’écriture des programmes relève avant tout
de l’expertise technique et de l’expérimentation. Et, comme
le souligne Schmitt (2016) « la croyance dans l’existence
de données ‘brutes’, non biaisées, non manipulées, qui seraient l’exact reflet des faits qu’elles représentent et parleraient
d’elles-mêmes (…) traduit une conception aujourd’hui largement reconnue comme illusoire » (p. 87).

 

L’humain reste donc au cœur du processus de conception
et les technologies numériques n’échappent pas aux influences du monde social, et donc aux relations de genre. La logique
de genre peut intervenir à différentes étapes de la conception, intentionnellement ou non. On peut distinguer quatre situations, qui peuvent parfois se combiner dans certaines applications opérationnelles : la reproduction intentionnelle
de stéréotypes de genre ; la production de biais genrés ;
la validation expérimentale des technologies
sur des échantillons biaisés d’usagers ; et l’invisibilité
des enjeux d’égalité dans des logiciels de décision.
Nous illustrons ci-dessous ces quatre situations.

b. Une reproduction intentionnelle des stéréotypes de genre

Pour certains usages ciblés, les stéréotypes de genre sont volontairement reproduits. C’est notamment le cas pour
les assistant.es virtuel.les et les robot.es. Laura, Julie Desk
et Sophia sont des noms choisis pour les assistants vocaux
et les robots qui accompagnent désormais les usagers
de services, les salariés d’entreprises, et les expérimentations
en IA. Ainsi, la robote Sophia cumule différents attributs sexués à la fois dans son design avec une apparence très féminisée et dans la communication autour de sa présentation :
« Hi, I am Sophia (…) Think of me as a personification
of our dreams for the future of AI (…) ». De plus, la voix
de ces agents conversationnels active des stéréotypes.
La version américaine de Siri a « la voix d’une adolescente,
une qualité de voix un peu mignonne, sentimentale, qui évoque
celle d’une jeune femme que l’on pourrait aimer »
(Cassel, 2018).

 

c. Les biais genrés via les données et les sources de connaissances

La deuxième situation est l’introduction de biais de genre,
non explicitement intentionnelle, par des algorithmes d’intelligence artificielle qui apprennent à partir
des bases de données biaisées. Un des facteurs majeurs
de l’efficacité croissante des logiciels d’apprentissage automatique repose sur la taille et la qualité des bases
de données qui servent à les entraîner. Or des recherches récentes mettent en évidence le caractère genré de certaines bases et des résultats biaisés qu’elles engendrent. Par exemple, une étude récente de trois logiciels majeurs reconnaissance faciale –basés sur une typologie binaire classiquement utilisée dans ce domaine– a montré qu’ils avaient tous de meilleures performances sur les visages d’hommes (Buolamwini
et Gebru
, 2018).

 

En traitement automatique de la langue, les approches les plus populaires de représentation des termes encodent
des associations sexistes, telles que « man is to computer programmer as woman is to homemaker » (Bolukbasi et al, 2016). Ces associations sexistes explicites peuvent s’associer
à une non neutralité plus cachée. Dans Wikipédia, largement utilisé en ingénierie des connaissances, les articles consacrés
à des femmes soulignent souvent leurs statuts de femmes
en précisant leurs maris, leurs enfants, et leurs parcours singuliers en tant que femmes (Wagner et al. 2016).
De plus, Wikipédia concentre les inégalités femmes-hommes avec une invisibilité des femmes puisque moins de 20 %
des 30 millions de fiches sont consacrées à des femmes.

 

d. Les biais dans les protocoles d’expérimentations

Si une part de l’informatique reste théorique et la rapproche des mathématiques, une part croissante est devenue expérimentale. La validation des artefacts produits est alors soumise aux questionnements de protocoles expérimentaux. Lorsque ces derniers incluent des utilisateur.es l’existence
de biais genrés devient une hypothèse légitime à tester.
À notre connaissance, en informatique, aucune étude à large échelle n’a analysé sous l’angle du genre la composition
des échantillons de tests. Or, comme ceux-ci sont souvent menés dans les environnements de développement où la sur-représentation masculine est attestée, la probabilité de biais
est assez forte. Le témoignage de la directrice du laboratoire Facebook AI Research de Montréal sur une expérience
d’un de ses stages de jeunesse portant sur un système
de reconnaissance vocale dans les cockpits d’hélicoptères
est une illustration paradigmatique : « Le système était
en place, nous étions en train de le tester (…). Tout à coup, l’équipe se rend compte que tous les sujets de l’étude
sont des hommes. Je me retrouve donc aux commandes
d’un hélicoptère, dans le rôle du sujet féminin. ».

 

e. Une invisibilité des enjeux de genre dans les modèles et les logiciels de décision

Le premier workshop autour des questions de genre
dans la principale conférence internationale d’interaction
homme-machine (CHI) confirme que souvent le genre
n’est pas un facteur explicitement considéré dans le design
des technologies interactives et lorsqu’il l’est les produits sont élaborés à partir de modèles idéalisés (Thomas et Mavin, 2014). Dans le domaine de l’aide à la décision, les enjeux d’égalité sont très peu présents et certaines n’hésitent
pas à affirmer que « the features of commercial software tools are usually optimized around the preferences of male developers » (Williams, 2014).

 

f. L’empowerment
par la maîtrise de ses données corporelles : la « femtech »

Dans ce contexte de l’innovation numérique, peu féminisé
et peu marqué par des préoccupations de genre, certaines femmes se sont positionnées sur des niches encore
peu explorées manifestant ainsi une capacité d’action
et favorisant un empowerment accru pour d’autres femmes.
L’exemple le plus notable est celui des technologies de suivi
de données corporelles spécifiques aux femmes.
Les applications qui s’inscrivent dans le mouvement
du « quantified self » ont été lancées en 2008 et visent
à recueillir des données corporelles personnelles (tension, calories consommées, sommeil, nombre de pas…) à des fins d’analyse. Elles ont connu un essor considérable,
avec des objectifs de santé ou de bien-être. Cependant,
les innovateurs du numérique ont largement ignoré
les usages féminins spécifiques. Ainsi, l’outil santé d’Apple
et la plateforme HealthKit n’ont intégré un suivi de la santé reproductive qu’au bout d’un an, en 2015, sous la pression
des utilisatrices, et un des principaux outils du marché, Fitbit, n’a ajouté une fonction de suivi menstruel qu’en 2018.
Pourtant, dès 2009, une jeune entrepreneuse danoise, Ida Tin, cherchant un moyen de suivre son cycle menstruel
et ses périodes de fertilité, a conçu et fait développer
une application de suivi des cycles qui a conduit en 2012
à l’application allemande Clue. Tin a voulu une interface d’apparence neutre (couleur, tonalité, images…) en phase avec des contenus scientifiquement fondés. Cette application gratuite qui revendique 2,5 millions d’utilisatrices dans
180 pays, a été présentée dans la presse comme « The health
app that hopes to empower women » (BBC News, 20153 ).

 

Quelques années après, devant l’engouement des utilisatrices, les applications se sont multipliées (Myamoto et Pau, 2018), notamment aux États-Unis (Glow, Period tracker Lite…) et au Japon (Luna Luna, Selene Calendar…). Aujourd’hui, ces applications sont souvent référencées
par le terme « Femtech », qui a été forgé à la fin des années 2000 par Ida Tin. Elles apportent aussi des informations, conseils, moyens d’échanges sur la santé spécifique des femmes (cycles menstruels, fécondation, grossesse, contraception, syndrome prémenstruel, sexualité…). Elles augmentent
la capacité de décision et l’autonomie des utilisatrices,
par une connaissance accrue du fonctionnement de leurs corps
et de la reproduction, et une maîtrise de leurs données personnelles. Ces thèmes, qui semblaient tabous dans le monde de l’innovation numérique, ont été initialement portés
par des femmes, et ensuite investis plus largement compte tenu des enjeux financiers.

 

En France, la première conférence sur « L’état de l’art
de la menstrutech » s’est déroulée en 2018 dans le cadre
du festival Futur.e.s . Des plateformes pour soutenir le secteur
de la Femtech, en particulier les entrepreneuses, ont vu le jour (France Femtech, Eve Femtech Hub…) pour inciter
à des innovations technologiques permettant aux femmes
de s’impliquer dans une maîtrise accrue de leur santé reproductive. Les applications sur téléphone mobile dédiées
à la santé des femmes nourrissent de grands espoirs pour l’empowerment des femmes (autonomie, responsabilisation) dans les pays en voie de développement.

 

Cependant, une recherche sur le projet Motech (Mobile Technology for Community Health) 5 pour le suivi
de grossesse au Ghana et en Inde montre que les conditions dans lesquelles l’utilisation de l’outil a été pensée et organisée
n’a guère augmenté la capacité d’action de ces femmes
(Al Dahdah, 2017). En effet, l’outil a, le plus souvent,
été imposé à un échantillon de femmes sans qu’elles aient donné leur accord ; en Inde, les femmes ont découvert
a posteriori que son utilisation n’était pas gratuite ;
les brefs messages vocaux hebdomadaires qui leur dictaient
le comportement à adopter, ont souvent été perçus comme
des injonctions peu fondées car contraires à leur propre expérience et savoir local ; le système ne permettait aucun dialogue avec les émetteurs de ces messages ; certains ordres étaient inconciliables avec leur propre calendrier (aller à une consultation le jour de marché) ou leur état à ce moment-là (absence de lactation) ou les moyens disponibles (absence
de transport le jour de l’accouchement). Au lieu d’augmenter

la capacité d’action, ce système était au contraire un facteur d’aliénation. Le processus d’empowerment est soumis
à une condition majeure : une utilisation volontaire
par des femmes qui intègrent le dispositif dans leur
vie au quotidien, non par des prescriptions à respecter,
mais par des informations pouvant avoir un sens. Cela renvoie à la conception de l’outil, fondée sur un modèle abstrait
et une vision simplifiée des problèmes de santé dans les pays
en développement (ignorance des femmes), sans adaptation aux conditions locales.

 

IV. Le développement du Pouvoir intérieur

 

Le pouvoir intérieur correspond à une dimension subjective de l’empowerment : c’est la prise
de conscience de soi comme un être pleinement humain et peut-être le développement
d’une identité renouvelée. Pour illustrer
ce troisième type d’empowerment, nous avons retenu le cas de la première vague
du cyberféminisme, et plus particulièrement celui du premier groupe artistique qui s’est revendiqué comme cyberféministe. En 1991, quatre artistes australiennes prennent le nom de VSN Matrix, VSN pouvant être lu comme Vénus ou comme
un acronyme connotant le monde des affaires,
et la matrice jouant sur l’ambiguïté entre utérus

et matrice numérique. Ce groupe publie

un Manifeste cyberféministe pour le 21e siècle sous forme d’une image digitale représentant
une sphère avec un texte provocateur,
qui se répandit de façon virale sur les listes
de diffusion féministes et fut traduit
en plusieurs langues.

 

Les artistes ont été inspirées
par le Manifeste cyborg (Haraway, 1990) qui propose une vision de l’identité
et des rapports entre humain.es, renouvelée par les possibilités d’hybridation entre vivants
et artefacts. Sans développer
les formes variées prises
par le cyberféministe dans
les années 1990 (Paasonen, 2011), nous voulons pointer
sur le collectif VSN Matrix
dans la mesure où la première vague du cyberféminisme
fut très souvent associée
aux créations numériques.

Ces artistes se sont saisies des technologies numériques avec l’utopie qu’elles pourraient « create new languages, programs, platforms, images, fluid identities and multi-subject definitions in cyberspace » (Fernandez et Wilding, 2002, p. 21).
Au-delà du plaisir de jouer avec la technologie, elles cherchent
à développer leur capacité d’action et à affirmer une identité
qui ne soit pas définie par rapport à un modèle masculin toujours posé comme l’original et l’idéal (Wajcman, 2004,
p. 63). On peut donc voir dans cette affirmation émergente
du cyberféminisme le développement d’un pouvoir intérieur, nourri par la diffusion électronique du « virus du féminisme » (Plant, 1996), mais aussi par l’appropriation technique (Couey, 2003). VSN Matrix a notamment développé
un jeu vidéo qui s’appuie sur la métaphore du hacker,
mais de façon subversive : l’objectif du jeu est de pénétrer

dans les banques de données de l’ennemi principal (Big Daddy),
mais pour les altérer et non pas pour en prendre le contrôle (Sofia, 2003).

 

 

 

 

V. Discussion

 

 

La mise en place de réseaux a répondu
à des contextes où l’on trouvait pratiques d’exclusion, plafond de verre, image masculine des TIC, fracture digitale entre hommes
et femmes, et marginalisation des femmes.
Margré la diversité de leurs origines et de leurs terrains de déploiement, ces réseaux présentent plusieurs caractéristiques communes.
Ce sont des espaces de ressources : ils offrent
des informations, des connaissances
et des formations. Ce sont des espaces d’aide
et collaboration, soit sur des problèmes
ou projets, soit par des accompagnements
dans le parcours professionnel.

 

Ce sont aussi des espaces de renforcement personnel,
par la mise en visibilité de soi devant d’autres
et par les retours positifs qu’on en reçoit. Ce sont enfin
des espaces de construction d’une identité collective positive.

 

Ces réseaux montrent la capacité de s’organiser pour agir
à la fois sur la dimension individuelle de l’empowerment
(développement des capacités personnelles, efficacité personnelle accrue) et sur sa dimension collective
(conquériret défendre une place pour les femmes
dans le monde professionnel du numérique).
Ils suggèrent que l’empowerment requiert des espaces
collectifs de construction d’une identité
empowered. La dimension mono-sexuée de ces réseaux
de femmes permet d’échapper aux normes d’interaction
socio-sexuées et aux pratiques de domination de genre.
C’est aussi l’assurance de pouvoir développer autonomie
et confiance en soi. Le cas de la femtech témoigne d’un déficit
de pensée du genre dans le développement informatique
qui peut se révéler une source d’opportunités :
c’est en se glissant dans les interstices qui, invisibles au départ, ne sont pas un enjeu de pouvoir, que des femmes
ont pu innover.

 

La possibilité pour des artistes de subvertir le cyberespace
est le signe de l’émergence d’une conscience critique qui conduit
à renverser les effets aliénants de la technologie. 
Les illustrations que nous avons données font apparaître
deux dimensions du pouvoir décrites par (Guérin, 2017).

 

La première est celle de la matérialité du pouvoir. Les processus d’empowerment (pouvoir avec, pouvoir pour, pouvoir intérieur) n’auraient pu émerger si les femmes initiatrices n’avaient
eu l’accès et la maîtrise technologique nécessaires
pour construire des alternatives (réseau, site, logiciel…).
Cette dimension matérielle du pouvoir montre l’importance
d’une plus grande mixité dans les métiers du numérique,
que ce soit dans le développement, la recherche
ou l’entreprenariat.

 

 

La deuxième dimension est celle de l’affect.
Alors que les sentiments négatifs (mépris, humiliation, invisibilité…) entravent la capacité d’action, les sentiments positifs (amitié, plaisir…) la favorisent. Dans nos cas, on peut relever que le refus d’être marginalisées (difficulté d’accès
à des groupes), ignorées (compétences peu reconnues, attentes ignorées), dépréciées (images négatives) a conduit des femmes à innover et à s’emparer de technologies. Le plaisir de créer,
qui a été dynamisé par des réponses positives (développement d’un réseau, utilisation d’un logiciel…) a été un facteur fort d’empowerment. La création de communautés a suscité
de nouvelles relations favorisant la reconnaissance mutuelle.

 

VI. Conclusion

 

 

 

 

 

Notre étude des trois formes de processus d’empowerment dans le numérique
–porté par un collectif (pouvoir avec),
visant à une autonomie accrue (pouvoir pour), permettant de dépasser une domination intériorisée– montre que les innovations numériques ont très vite été utilisées
par des femmes pour acquérir du pouvoir depuis plus de trente ans. Depuis une dizaine d’années, les technologies du Web 2.0 (blogs, podcasts, réseaux sociaux numériques…) ont été utilisées par de nombreux mouvements féministes,
ce que l’on regroupe sous le terme
« cyberféminisme ». Débordant le contour
de sa première vague, le cyberféminisme (parfois qualifié de « 2.0 ») est aujourd’hui défini comme « une pratique activiste, liée à l’idéologie d’ouverture propre au réseau, visant le partage
de connaissances autant techniques
que théoriques de même que l’accessibilité
des outils de création et de diffusion
pour les femmes et groupes de femmes »
(Lalonde, 2012, p. 9).


Des recherches récentes montrent de jeunes féministes
non professionnelles du numérique, qui ont développé
des compétences techniques leur permettant de ne plus être dépendantes de professionnels extérieurs (Jouët et al., 2017). Cependant au-delà de cette acquisition de compétences d'utilisatrices éclairées, on observe une baisse continue
de professionnelles des TIC (voir par exemple l'initiative
du collectif Femmes@Numérique). Comme nous l'avions analysé dans des travaux précédents, ce phénomène
est directement lié à la persistance d'un stéréotype dévalorisant les femmes par rapport à la technique
( Morley et McDonnell , 2017), qui est source
de discrimination.

 

Quelle que soit sa forme, l'empowerment des femmes
par les TIC atteint ses limites pour lutter contre
ces discriminations insidieuses. L'analyse des succès locaux d'inclusion d'une mixité durable dans les filières du numérique met en lumière le rôle essentiel d'un changement de culture pour la rendre inclusive ( Morley et Collet , 2017).
La non-acceptation sociale des biais générés
par les applications d'apprentissage automatique et plus généralement des logiciels se manifeste depuis quelques années par des publications aussi bien académiques (par exemple
Burnett et al. , 2016) que grand public (par ex. O'Neil , 2016 ; Criado Pérez, 2019). Les cas d'empowerment
par la prise en main de conception technologique
par des femmes sont embryonnaires, mais s'ouvrent
sur un champ de recherche qui questionne sous l'angle
du genre les processus de décision et de conception
de produits/services numériques utilisés au quotidien.

INTRO
Dans cet article, Julien Nelson s'intéresse aux fake news, un phénomène dont l'impact semble croître de concert avec l'évolution des technologies, le menant jusqu'à sa forme la plus sophistiquée: les deepfakes. Il s'inscrit dans le domaine de la cyberpsychologie – l'étude de la compréhension des phénomènes psychiques en rapport avec l'espace virtuel. Privilégiant les approches expérimentales, cet état de l'art nous permet de comprendre les limites de nos processus cognitifs (prise de décision, biais, vérité illusoire, raisonnement partisan...) qui nous prédisposent à croire des informations fausses ou truquées. 

Fake news et deepfakes

 Fake news et deepfakes
Fake news
et deepfakes
 
 
Fake news et deepfakes
 
Fake news et deepfakes Fake news et deepfakes
 
 
 
Fake news et deepfakes
Fake news et deepfakes
 
deepfakes
 
 
 
 
Fake news
 

une approche cyberpsychologique

Julien NELSON
 
 
 

1. Introduction

Le présent article est une réponse à un appel fait par la recherche en sémiotique pour caractériser un ensemble de phénomènes (textuels et/ou visuels) ayant fait l’objet d’une attention médiatique particulière ces dernières années, regroupés sous le terme global de fake news. Plus particulièrement, il s’agit ici de faire le point sur les apports d’une perspective théorique et empirique spécifique, à la compréhension de ces phénomènes : celle de la cyberpsychologie, et notamment de la psychologie expérimentale sur laquelle elle s’appuie. Nous aborderons en premier lieu la question des fake news et des connaissances issues de la cyberpsychologie relatives à leur crédibilité. Dans un second temps, nous aborderons une évolution technologique récente : celle des deepfakes, qui posent des questions nouvelles sur les facteurs influençant la crédibilité des fake news, mais aussi sur les stratégies qui permettent de s’en prémunir.

Le présent article est une réponse à un appel fait par la recherche en sémiotique pour caractériser un ensemble de phénomènes (textuels et/ou visuels) ayant fait l’objet d’une attention médiatique particulière ces dernières années, regroupés sous le terme global de fake news. Plus particulièrement, il s’agit ici de faire le point sur les apports d’une perspective théorique et empirique spécifique, à la compréhension de ces phénomènes : celle de la cyberpsychologie, et notamment de la psychologie expérimentale sur laquelle elle s’appuie. Nous aborderons en premier lieu la question des fake news et des connaissances issues de la cyberpsychologie relatives à leur crédibilité. Dans un second temps, nous aborderons une évolution technologique récente : celle des deepfakes, qui posent des questions nouvelles sur les facteurs influençant la crédibilité des fake news, mais aussi sur les stratégies qui permettent de s’en prémunir.
 
Le présent article est une réponse à un appel fait par la recherche en sémiotique pour caractériser un ensemble de phénomènes (textuels et/ou visuels) ayant fait l’objet d’une attention médiatique particulière ces dernières années, regroupés sous le terme global de fake news. Plus particulièrement, il s’agit ici de faire le point sur les apports d’une perspective théorique et empirique spécifique, à la compréhension de ces phénomènes : celle de la cyberpsychologie, et notamment de la psychologie expérimentale sur laquelle elle s’appuie. Nous aborderons en premier lieu la question des fake news et des connaissances issues de la cyberpsychologie relatives à leur crédibilité. Dans un second temps, nous aborderons une évolution technologique récente : celle des deepfakes, qui posent des questions nouvelles sur les facteurs influençant la crédibilité des fake news, mais aussi sur les stratégies qui permettent de s’en prémunir.


Une fake news est ainsi définie comme un élément médiatique factuellement inexact mais présenté par son émetteur comme ayant une valeur de véracité avec une volonté explicite de tromper le récepteur de ce dernier (Pennycook & Rand, 2021). Si le phénomène est ancien – Kalsnes (2018) donne plusieurs exemples datant de la fin du XIXème siècle visant par exemple à augmenter les chiffres de vente d’un journal, à divertir un public, ou encore à attiser des sentiments d’hostilité à l’égard d’une minorité – ce terme est réapparu au cours des cinq dernières années, à la faveur de deux phénomènes distincts : (1) la survenue de plusieurs évènements démocratiques historiques, par exemple le référendum sur l’appartenance du Royaume-Uni à l’Union Européenne, qui a donné lieu au Brexit, ou encore l’élection de Donald Trump à la présidence des Etats-Unis d’Amérique, qui en a incontestablement popularisé l’usage et (2) l’irruption des réseaux sociaux dans ces évènements, comme vecteurs de ces messages erronés mais susceptibles d’infléchir sur les résultats des votes. L’intérêt de la psychologie pour ce thème émergent est double. En premier lieu, il permet d’explorer des thèmes classiques en psychologie sociale tels que la formation de croyances et ses liens avec la prise de décision, sous un angle nouveau : l’étude de la crédulité et des facteurs individuels et contextuels qui la favorisent (Forgas & Baumeister, 2019). En second lieu, naturellement, l’objectif de telles études est souvent de proposer des pistes pour prévenir de telles tromperies ou d’en atténuer les conséquences.

ISIS set the Eiffel Tower on fire

2. Exposition aux fake news et prise de décision

2.1. L’approche classique de la prise de décision en psychologie cognitive

L’intérêt récent pour les fake news tient à leurs effets supposés sur la prise de décision humaine. En psychologie cognitive, un programme de recherche initié dans les années 1960 et 1970 a contribué à montrer en quoi l’être humain ne pouvait être considéré comme un agent décisionnel parfaitement rationnel

est un type de siège, c'est-à-dire de meuble muni d’un dossier et destiné à ce qu’une personne s’assoit dessus.

(Kahneman et al., 1982). En effet, selon le modèle classique défendu notamment en sciences économiques, lorsque l’être humain est confronté à une situation où (1) il peut choisir entre plusieurs actions possibles et (2) de ce choix découlera une issue plus ou moins avantageuse, alors sa décision reposera sur un calcul intégrant, d’une part, le caractère plus ou moins avantageux de chaque issue et d’autre part, la probabilité que telle décision donnera effectivement lieu à telle issue. Dans une situation simpliste dite de jugement sous certitude, où telle action donnera lieu, dans tous les cas, à une issue donnée, la prise de décision est fondée uniquement sur l’évaluation des bénéfices comparés de chaque issue. En pratique, cependant, le lien entre un choix et une issue n’est pas certain. La qualité de la prise de décision dépendra de celle de l’information sur laquelle elle s’appuie. Cependant, l’être humain dispose de ressources limitées pour la prise de décision, que celles-ci soient internes – c’est à dire cognitives, par exemple attentionnelles ou mnésiques

uniquement sur l’évaluation des bénéfices comparés de chaque issue. En pratique, cependant, le lien entre un choix et une issue n’est pas certain. La qualité de la prise de décision dépendra de celle de l’information sur laquelle elle s’appuie. Cependant, l’être humain dispose de ressources limitées pour la prise de décision, que celles-ci soient internes – c’est à dire cognitives, par exemple attentionnelles ou
uniquement sur l’évaluation des bénéfices comparés de chaque issue. En pratique, cependant, le lien entre un choix et une issue n’est pas certain. La qualité de la prise de décision dépendra de celle de l’information sur laquelle elle s’appuie. Cependant, l’être humain dispose de ressources limitées pour la prise de décision, que celles-ci soient internes – c’est à dire cognitives, par exemple attentionnelles ou

En biologie ce qui concerne la mémoire, ou des moyens facilitant la conservation des souvenirs.

– ou externes à l’individu, par exemple lorsqu’une décision est prise sous contrainte temporelle. Dans ces situations de prise de décision sous incertitude, l’agent décisionnel ne traite pas toutes les informations dont il dispose, mais juste suffisamment d’informations pour parvenir à une issue satisfaisante (Simon, 1957). Ce faisant, il s’appuie sur des heuristiques,

Partie de l’histoire de la science qui consiste à la recherche des documents. Et discipline qui consiste à formuler les règles de la recherche scientifique.

c’est-à-dire des principes visant à simplifier les traitements d’information impliqués dans le calcul des probabilités de chaque issue et les utilités associées (Tversky & Kahneman, 1974). La notion de biais renvoie au fait que ces jugements subjectifs sont parfois erronés, et ce de manière prévisible.

2.2. L’effet de vérité illusoire

Une première piste pour comprendre les effets des fake news sur la prise de décision a été mise en évidence par Hasher et al. (1977). Ces auteurs ont exposé leurs participants à quarante affirmations plausibles et leur ont demandé d’en évaluer la vraisemblance. Ils ont répété l’expérience trois fois à deux semaines d’intervalle. D’une session à l’autre, la moitié des affirmations présentées était nouvelle, tandis que les autres étaient répétées d’une fois sur l’autre. Les résultats ont montré que la simple exposition répétée à une affirmation augmentait sa vraisemblance perçue. Cet effet dit de vérité illusoire pourrait expliquer la croyance dans la véracité des fake news, dès lors que celles-ci sont diffusées massivement via les réseaux sociaux et les canaux médiatiques traditionnels.


Deux explications ont été avancées pour expliquer l’effet de vérité illusoire. La première, dite référentielle, repose sur le fait que l’individu est capable de se souvenir qu’il a déjà été exposé à une affirmation. De plus, si l’affirmation était accompagnée d’une information sur sa valeur de vérité – vraie ou fausse – l’individu peut se référer à cette information (Brown & Nix, 1996). La seconde, dite non-référentielle, intervient même lorsque l’individu ne dispose pas d’une information de véracité, et repose sur le fait que la simple exposition répétée à une même affirmation facilite son traitement cognitif ultérieur. Cette facilité de traitement est perçue à son tour comme un indice de la véracité de l’affirmation (Unkelbach & Stahl, 2009). Autrement dit, la simple exposition répétée à une fake news pourrait suffire à rendre celle-ci crédible aux yeux du lecteur.

Deux explications ont été avancées pour expliquer l’effet de vérité illusoire. La première, dite référentielle, repose sur le fait que l’individu est capable de se souvenir qu’il a déjà été exposé à une affirmation. De plus, si l’affirmation était accompagnée d’une information sur sa valeur de vérité – vraie ou fausse – l’individu peut se référer à cette information (Brown & Nix, 1996).
Deux explications ont été avancées pour expliquer l’effet de vérité illusoire. La première, dite référentielle, repose sur le fait que l’individu est capable de se souvenir qu’il a déjà été exposé à une affirmation. De plus, si l’affirmation était accompagnée d’une information sur sa valeur de vérité – vraie ou fausse – l’individu peut se référer à cette information (Brown & Nix, 1996).

 

Ce phénomène est d’autant plus préoccupant que l’effet de vérité illusoire persiste même lorsque l’individu dispose déjà de connaissances qui permettent de contredire l’information erronée (Fazio et al., 2015).

Pope Francis endorses Donald Trump for president


L’effet de vérité illusoire apparaît donc comme un processus explicatif clé de l’efficacité des fake news. Heureusement, la simple exposition répétée à une information ne suffit pas pour augmenter sa véracité perçue. Pennycook et al. (2018, étude 1) ont montré que cet effet n’existait qu’à la condition que l’information présentée, quoique fausse, restait néanmoins plausible. Une information peu plausible – dans l’article cité, « la Terre est un carré parfait » - ne donnera pas lieu à cet effet.

 

 

2.3. Vérité illusoire et raisonnement partisan

L’exemple que nous venons de citer est édifiant. L’affirmation « la Terre est un carré parfait » est manifestement fausse – en l’occurrence, contredite par un consensus scientifique, lui-même construit sur la base d’une expérience commune de plusieurs millénaires. Pourtant, ce type d’affirmation continue de susciter une adhésion au moins de certains groupes sociaux, par exemple autour de la résurgence de la théorie de la « Terre plate »

 

Ce type de croyance est largement débattu en ligne, avec des arguments avancés en faveur comme en défaveur de cette thèse.

 

Entretenir une croyance minoritaire (ici, que la Terre est plate) n’implique pas seulement d’accorder une crédibilité aux affirmations en faveur de cette thèse, mais aussi d’accorder une plus faible crédibilité à celles qui la contredisent – ou encore à accorder une forte crédibilité aux informations contribuant à discréditer ces sources1.

La terre est plate

1 Notons à ce propos que le terme de fake news est réapparu dans la conscience populaire lorsque le Président américain Donald Trump l’a utilisé à plusieurs reprises pour discréditer des informations véhiculées dans les médias traditionnels (presse, télévision), ayant a priori subi un processus éditorial classique.


L’intérêt académique récent pour les fake news s’est inscrit dans le contexte politique, et plus particulièrement dans le contexte politique américain. Ce système a pour caractéristique de comporter deux partis au idéologies distinctes (Républicain vs. Démocrate). Le débat public repose sur la diffusion d’informations par de multiples canaux médiatiques, y compris des canaux où la diffusion est largement facilitée mais le processus éditorial peut être absent. Cette configuration particulière a été à l’origine de l’hypothèse suivante : l’orientation idéologique pourrait influer sur la crédibilité qu’un individu apporte à une information. Cette hypothèse, appelée du raisonnement motivé, propose que le traitement de l’information par un individu serait biaisé en fonction de ses convictions idéologiques. Plus particulièrement, l’individu accorderait davantage de crédibilité aux affirmations concordant avec ses convictions, et moins de crédibilité aux affirmations discordantes (Kahan, 2013).

pourrait influer sur la crédibilité qu’un individu apporte à une information. Cette hypothèse, appelée du raisonnement motivé, propose que le traitement de l’information par un individu serait biaisé en fonction de ses convictions idéologiques. Plus particulièrement, l’individu accorderait davantage de crédibilité aux affirmations concordant avec ses convictions, et moins de crédibilité aux affirmations discordantes (Kahan, 2013).
pourrait influer sur la crédibilité qu’un individu apporte à une information. Cette hypothèse, appelée du raisonnement motivé, propose que le traitement de l’information par un individu serait biaisé en fonction de ses convictions idéologiques. Plus particulièrement, l’individu accorderait davantage de crédibilité aux affirmations concordant avec ses convictions, et moins de crédibilité aux affirmations discordantes (Kahan, 2013).

 


Kahan et al. (2011) ont ainsi évalué la crédibilité perçue de trois individus fictifs, mais présentés comme experts d’un domaine idéologiquement clivant – le changement climatique et son origine anthropique, l’énergie nucléaire, et la législation en faveur du port d’armes, respectivement – présentés comme exprimant une opinion en relation avec leur sujet d’expertise. L’orientation de cette opinion était manipulée expérimentalement. Les auteurs ont mesuré l’expertise perçue de l’individu : ce dernier était perçu comme d’autant plus expert que ses conclusions s’accordaient avec les convictions idéologiques du participant.

 

Pennycook et al. (2018, étude 2) ont étudié l’impact de ce « raisonnement partisan » sur la perception de la véracité d’informations présentées dans un format semblable à un post Facebook (Tableau 1). Les informations étaient de nature politique et idéologiquement orientées, i.e., mettant en valeur ou non un politicien.


Pennycook et al. (2018, étude 2) ont étudié l’impact de ce « raisonnement partisan » sur la perception de la véracité d’informations présentées dans un format semblable à un post Facebook (Tableau 1). Les informations étaient de nature politique et idéologiquement orientées, i.e., mettant en valeur ou non un politicien à la tendance politique bien connue. La moitié des informations présentées était fausse, les autres étaient vraies. Enfin, dans le cas des fake news, les auteurs ont également manipulé expérimentalement la présence ou l’absence d’un bandeau indiquant que la véracité de l’information était disputée par un tiers.

 
Conformément à la procédure classiquement adoptée dans les travaux sur l’effet de vérité illusoire (Hasher et al., 1977; cf. partie 2.1), la passation expérimentale se déroulait en plusieurs étapes, avec une étape de familiarisation suivie d’une étape d’évaluation, dans laquelle la moitié des informations présentées était familière, et les autres étaient nouvelles. Les résultats ont montré que les informations familières étaient perçues comme plus vraisemblables que les informations nouvelles, suggérant un effet de vérité illusoire.

Conformément à la procédure classiquement adoptée dans les travaux sur l’effet de vérité illusoire (Hasher et al., 1977; cf. partie 2.1), la passation expérimentale se déroulait en plusieurs étapes, avec une étape de familiarisation suivie d’une étape d’évaluation, dans laquelle la moitié des informations présentées était familière, et les autres étaient nouvelles.

 

Les résultats ont montré que les informations familières étaient perçues comme plus vraisemblables que les informations nouvelles, suggérant un effet de vérité illusoire.

 

D’autre part, les informations (effectivement) vraies étaient perçues comme plus vraisemblables que les informations fausses. En revanche, aucun effet d’interaction n’a été détecté : l’exposition préalable augmentait la crédibilité perçue des informations, que celles-ci soient vraies ou fausses. Les auteurs ont aussi contrôlé l’orientation idéologique des participants (Démocrate ou Républicaine) à l’aide d’un questionnaire.

 

Pour examiner la présence d’un biais partisan, ils ont classé les informations présentées suivant leur compatibilité avec l’orientation du participant (concordante ou discordante). Les résultats ont montré que les informations présentées étaient perçues comme plus vraisemblables si elles étaient concordantes avec l’orientation du participant que dans le cas contraire. En revanche, il n’y a pas eu d’effet d’interaction : l’exposition répétée à

Pour examiner la présence d’un biais partisan, ils ont classé les informations présentées suivant leur compatibilité avec l’orientation du participant (concordante ou discordante). Les résultats ont montré que les informations présentées étaient perçues comme plus vraisemblables si elles étaient concordantes avec l’orientation du participant que dans le cas contraire. En revanche, il n’y a pas eu d’effet d’interaction : l’exposition répétée à un message faux conduisait les participants à y accorder plus de crédibilité, que ce message soit en accord ou non avec leurs convictions. Ces résultats montrent que le raisonnement partisan pourrait conduire un individu à accorder de la crédibilité à une fake news dès lors que celle-ci est conforme à ses convictions.

 

Orientation idéologique ou croyances existantes ? L’étude que nous venons de présenter montre que les fake news semblent être d’autant plus facilement acceptées qu’elles sont compatibles avec les orientations politiques de l’individu. Pennycook et Rand (2021)
Orientation idéologique ou croyances existantes ? L’étude que nous venons de présenter montre que les fake news semblent être d’autant plus facilement acceptées qu’elles sont compatibles avec les orientations politiques de l’individu. Pennycook et Rand (2021)

2.4. Orientation idéologique ou croyances existantes ?

L’étude que nous venons de présenter montre que les fake news semblent être d’autant plus facilement acceptées qu’elles sont compatibles avec les orientations politiques de l’individu. Pennycook et Rand (2021) ont cependant montré une limite de cette étude, lié au phénomène dit de la « troisième variable » (Shadish et al., 2002).

 

L'orientation politique présente des corrélations élevées avec de nombreuses variables, et il est possible que l’effet apparent de l’orientation politique soit en fait dû à d’autres variables qui lui sont corrélées.

 

Parmi ces variables, on peut retenir les croyances existantes du participant. Cette explication de l’effet de vérité illusoire a le premier avantage de permettre un lien théorique avec un biais cognitif bien connu : le biais de confirmation (Nickerson, 1998). Ce biais conduit l’individu à accorder plus de crédit à des indices confirmant une hypothèse existante, et moins de crédit à des indices infirmant cette hypothèse.


Un second avantage de cette interprétation est qu’elle permet d’élargir le débat sur la vulnérabilité aux fake news au-delà du champ politique. Par exemple, les réseaux sociaux sont le lieu de nombreux débats sur l’efficacité de vaccins et le lien entre la vaccination et la survenue d’autres troubles.

 

L’exemple le plus connu est la croyance en un prétendu lien entre la vaccination à la rougeole, aux oreillons et à la rubéole (dit vaccin ROR) et l’autisme, lien pourtant démenti par la littérature scientifique (DeStefano & Shimabukuro, 2019).

 

Nyhan et al. (2014) ont évalué l’efficacité de différentes stratégies visant à dissiper les croyances erronées sur un lien entre le vaccin ROR et l’autisme. Trois d’entre elles reposaient sur l’exposition à des informations émanant d’une source officielle, le CDC (Centers for Disease Control and Prevention) : un démenti sur le lien entre vaccination et autisme, une description des symptômes et risques associés aux maladies que le vaccin permet de prévenir, et un récit d’une mère relatant l’hospitalisation de son enfant atteint de la rougeole. La dernière consistait à exposer les participants à des photos d’enfants atteints des maladies. L’expérimentation prévoyait enfin une condition contrôle dans laquelle les participants n’étaient exposés à aucune intervention.

Les antennes 5G propagent le coronavirus Les antennes 5G propagent le coronavirus Les antennes 5G propagent le coronavirus


L’étude a montré un résultat surprenant : quand bien même les interventions pouvaient réussir à dissiper les croyances erronées sur les effets des vaccins, ceci ne se traduisait pas nécessairement par un effet favorable sur les intentions à vacciner son enfant. Chez les parents nourrissant les attitudes les plus négatives à l’égard du vaccin, l’exposition pouvait même donner lieu à une hostilité plus prononcée au vaccin.

 

2.5. Les deepfakes : un nouveau medium de désinformation

Le terme de deepfake désigne un type de contenu d’émergence récente exploitant les technologies du

deep learning,

L’apprentissage profond est un type d’intelligence artificielle dérivé de l’apprentissage automatique , où la machine est capable d’apprendre par elle-même. Contrairement à la programmation où elle exécute des règles prédéterminées.

issues du domaine de l’Intelligence Artificielle, pour créer des contenus très réalistes avec l’intention de manipuler le spectateur (Verdoliva, 2020). Si les finalités peuvent être variées – divertir un auditoire, encourager une réflexion citoyenne sur les dérives de la technologie – l’objectif est parfois de tromper l’auditoire, par exemple en fournissant un support réaliste dans lequel un individu connu semble émettre des propos qu’il n’a jamais émis.

 

La vidéo virale You won’t believe what Obama says in this video2 combine deux de ces finalités. Une première partie, falsifiée, met en scène l’ex-président américain Barack Obama qui semble proférer des insultes à l’encontre de son successeur Donald Trump. La seconde partie constitue un démenti, où il est révélé qu’il s’agissait d’un montage, les propos étant prononcés par un imitateur. 

deepfakes deepfakes deepfakes deepfakes


Cette vidéo a fait date, non seulement parce qu’elle a permis de sensibiliser le grand public aux problématiques informationnelles des deepfakes, mais aussi parce qu’elle illustrait des progrès techniques frappants pour l’époque (Suwajanakorn et al., 2017).

 
You won't believe what Obama says in this video You won't believe what Obama says in this video You won't believe what Obama says in this video You won't believe what Obama says in this video You won't believe what Obama says in this video You won't believe what Obama says in this video You won't believe what Obama says in this video You won't believe what Obama says in this video
You won't believe what Obama says in this video
You won't believe what Obama says in this video You won't believe what Obama says in this video You won't believe what Obama says in this video You won't believe what Obama says in this video You won't believe what Obama says in this video You won't believe what Obama says in this video You won't believe what Obama says in this video
 

2https://www.youtube.com/watch?v=cQ54GDm1eL0

 

Ils ont exposé des participants à trois contenus possibles : (a) un extrait trompeur court dans lequel « Obama » insultait explicitement Donald Trump, (b) un extrait trompeur long comprenant l’intégralité de l’intervention d’« Obama »,

La littérature actuelle concernant les deepfakes se concentre principalement sur la mise au point de solutions techniques visant à identifier ces derniers. En comparaison, peu de travaux se sont intéressés aux aspects psychologiques de l’exposition à ces contenus. Vaccari et Chadwick (2020) ont examiné la crédibilité perçue de la vidéo que nous venons d’évoquer. Ils ont exposé des participants à trois contenus possibles : (a) un extrait trompeur court dans lequel « Obama » insultait explicitement Donald Trump, (b) un extrait trompeur long comprenant l’intégralité de l’intervention d’« Obama », mais pas la seconde partie révélant la tromperie ; et (c) la vidéo intégrale comportant l’allocution d’Obama et la révélation qu’il s’agit d’un extrait manipulé (Figure 1). A l’issue du visionnage, il était demandé aux participants si à leur avis Obama avait bien prononcé l’insulte contre Trump (oui / non / ne sait pas)

 

Figure 1 – Conditions expérimentales dans l’étude de Vaccari et Chadwick (2020)

Secret pedophila ring and @HillaryClinton is at the center.

Les résultats montrent que 49,2% des participants avaient été dupés par la vidéo. Ce chiffre intègre les participants ayant déclaré que l’insulte avait vraiment été prononcée (16,0%) et ceux ayant répondu qu’ils ne savaient pas si l’extrait était authentique ou non (33,2%). Si la proportion des participants ayant cru à l’authenticité de l’insulte ne différait pas significativement suivant la condition, le contenu de la vidéo a eu un effet significatif sur la proportion des participants ayant déclaré l’authenticité incertaine. Cette proportion était supérieure dans la condition « extrait long » (36,9%) et dans la condition « extrait court » (35,1%) par rapport à la condition « extrait intégral » (27,5%). Surtout, les auteurs ont montré que l’exposition à un média trompeur pouvait éroder la confiance dans les informations diffusées sur les médias sociaux, et que cet effet était causalement expliqué par l’incertitude ressentie quant à la véracité d’un contenu trompeur.

 

Moliner (2016) a proposé un programme de recherche sur le thème de la psychologie sociale de l’image, dans lequel il est supposé que la transmission de l’information via l’image implique que l’émetteur de l’image et son destinataire partagent un ensemble de croyances collectives. La psychologie sociale invite à donner, dans cet ensemble, une place particulière aux catégorisations sociales et aux stéréotypes

Variété de courge dont les fruits, le plus souvent de forme allongé sont consommés à un stade très jeune.

Pizza gate

(Figure 2). Assurément, les deepfakes représentent une situation dans laquelle ce contrat n’est pas respecté, dans la mesure où l’émetteur est animé de l’intention de tromper le destinataire, c’est-à-dire de présenter comme véridique une information fausse. Nous avons vu que cette tromperie peut s’appuyer sur des croyances partagées : l’étude de ces dernières et de leur influence sur la croyance dans les deepfakes pourrait offrir de nouvelles perspectives de prévention de leurs effets néfastes.

 

Figure 2 – Schéma d’un programme de recherche sur la psychologie sociale des deepfakes, adapté de Moliner (2016)

2. Conclusions

Le présent article s’est donné pour objectif de faire un état de quelques travaux actuels en psychologie sur le thème des fake news. Plus particulièrement, cette synthèse porte sur les travaux relevant d’une approche expérimentale. Ce champ de recherches constitue un prolongement naturel de travaux classiques en psychologie cognitive et sociale sur le raisonnement. Il montre que les fake news tirent parti de limites endogènes

interne, qui se transforme de lui-même, sans intervention de l’extérieur

au raisonnement humain : l’exposition constante à des contenus trompeurs, notamment via les réseaux sociaux, tend à faciliter le traitement cognitif d’informations erronées. De plus, face à une fake news, nous ne sommes pas un terrain neutre : nos convictions antérieures peuvent influer sur notre vulnérabilité à ces informations erronées, tant dans la mesure où elles peuvent influer sur nos croyances et nos actions, que dans la mesure où nous pouvons choisir de les propager.

 

Ces travaux de recherche permettent aussi d’évaluer l’efficacité d’interventions visant à prémunir le grand public des effets indésirables des fake news. Les évolutions de la technologie ouvrent des possibilités nouvelles pour la manipulation de contenus textuels et imagés de plus en plus vraisemblables, mais aussi pour de nouvelles stratégies de prévention

du raisonnement humain : l’exposition constante à des contenus trompeurs, notamment via les réseaux sociaux, tend à faciliter le traitement cognitif d’informations erronées. De plus, face à une fake news, nous ne sommes pas un terrain neutre :
du raisonnement humain : l’exposition constante à des contenus trompeurs, notamment via les réseaux sociaux, tend à faciliter le traitement cognitif
du raisonnement humain : l’exposition constante à des contenus trompeurs, notamment via les réseaux sociaux, tend à faciliter le traitement cognitif
du raisonnement humain : l’exposition constante à des contenus trompeurs, notamment via les réseaux sociaux, tend à faciliter le traitement cognitif d’informations erronées. De plus, face à une fake news, nous ne sommes pas un terrain neutre :
INTRO

Dans cet article, la designeuse Nolwenn Maudet explore l'évolution des templates en tant qu'éléments graphiques et numériques distincts, depuis l'ère de la publication assistée par ordinateur (PAO) jusqu'à l'ère du web et des réseaux sociaux. L'émergence des templates dans l'histoire de la PAO a permis de démocratiser la publication individuelle en facilitant la création de documents professionnels. Parce que ces modèles ont considérablement modifié les méthodes du design graphique, ils ont joué un rôle paradoxal dans la configuration visuelle : ils émancipent les non-graphistes, tout en imposant des normes esthétiques "par défaut". Avec l'avènement du web, les templates se transforment en dissociant la composition sémantique de la page de son apparence graphique, menant à une rigidification croissante de l'utilisation des systèmes de gestion de contenu (CMS). Il devient ainsi nécessaire d'analyser les différentes forces qui ont faconnés cette évolutionles templates afin de mieux interroger les outils graphiques d'aujourd'hui.

Une breve histoire des templates, entre autonomisation et controle des graphistes amateurs

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

INTRO
Cet article de Mariem Guellouz publié dans la revue Sextant explore le cyberféminisme comme un espace oppositionnel. Il positionne les luttes féministes numériques dans l’histoire plus globale des mouvements sociaux et révèle la singularité du cyberféminisme, liée d'une part aux moyens techniques de sa production et, d'autre part, à la résurgence des luttes des femmes dans différentes vagues et générations de féministes. L'article propose d’aborder les discours du cyberféminisme comme une e-littératie produite par des féministes tunisiennes qui utilisent les outils numériques pour construire un mouvement féministe collaboratif et des réseaux de sororité

 

Le
cyberfeminisme
comme
espace
oppositionnel
 

Force d’émancipation langagière et risque
de désinvestissement politique

Cyberfeminism as an Oppositional Space.

Force of Linguistic emancipation and
Risk of Political Disinvestment

Mariem Guellouz

 

 

Introduction

L’abondance des termes référant aux luttes politiques
et citoyennes numériques tels que cybermilitantisme, cyberactivisme, cybercitoyenneté, blog engagé, technomilitantisme, e-militantisme révèle l’hétérogénéité des approches disciplinaires et des pratiques militantes liées &
agrave; la technologie numérique. Les travaux académiques sur le cybermilitantisme s’accordent sur l’importance du rôle du Web dans la transformation des rapports au politique
et à la citoyenneté1 et abordent les pratiques militantes numériques en interrogeant leur continuité / discontinuité avec les processus du militantisme hors ligne. Dans ce sens, Granjon qualifie de « néomilitantisme » les pratiques politiques ayant comme support les technologies
de l’information et de la communication, qu’il considère comme « la traduction technologique d’un type précis d’engagement militant»

La reconfiguration des espaces de lutte est à considérer comme la conséquence de la porosité des frontières qui séparent les espaces numériques du public et du privé,
de l’oral et de l’écrit et de l’action collective et individuelle. Cet article positionne les luttes féministes en ligne dans l’histoire plus globale des mouvements sociaux, prenant &
agrave; son compte l’hypothèse du risque de dépolitisation du cyberféminisme s’il est considéré comme un mouvement autonome dissocié du reste des luttes sociales et politiques2. Cependant, la présente étude révèle qu’au-delà de cette continuité, le cyberféminisme détient une singularité liée d’une part aux moyens technologiques de sa production
et d’autre part à la reconfiguration de la lutte féministe
à travers les différentes vagues et générations de féministes. Doit-on considérer le·la cyberféministe comme un·e acteur·trice qui a un parcours de militant·e hors ligne qu’il·elle adapte aux technologies de l’information
et de la communication ou comme un·e militant·e qui utilise exclusivement ces moyens numériques dans sa lutte ?

Afin d’éviter la vacuité de ces différentiations, cet article envisage le cyberféminisme tel un processus multiforme
et hétérogène qui dépasse les oppositions classiques entre
l’« en ligne » et l’« hors ligne ». Les « mobilisations
du clavier »3permettent ainsi de repenser le rôle des organisations intermédiaires entre les militant·es et l’État. Avec la révolution tunisienne, les réseaux sociaux numériques se sont dotés d’une perspective politique
et sociale, devenant des lieux de circulation d’une parole contestataire et militante. S’emparant de ces outils numériques, les féministes ont investi ces espaces comme lieu privilégié de lutte où se mettent en scène des réseaux
de sororité.
Afin d’éviter toute forme d’idéalisation, il est important de complexifier l’analyse en prenant en compte une distance critique avec ces procédés numériques et de les confronter
à leurs contradictions et à leurs failles. S’inscrivant dans
le champ d’une sociolinguistique critique et politique qui donne toute sa place à une démarche anthropologique numérique et partant d’une recherche de terrain en ligne4 qui se caractérise par la veille numérique, l’observation participante et les entretiens menés avec des cybermilitantes, cette recherche propose d’aborder les discours du cyberféminisme comme une formation discursive qualifiée d’« e-littératie féministe ».

Si la notion de « littératie » renvoyait au départ renvoyait au départ à laà la capacité de lire et d’écrire,
sa définition est aujourd’hui plus large et englobe les formes dynamiques d’échanges et d’interactions écrites5. Je l’utilise dans cet article en tant que compétence sociale d’expression, d’interaction et de productions discursives hétérogènes.
Il s’agit alors d’une part d’interroger la portée émancipatrice et performative de cette elittératie et d’autre part
de la confronter au concept d’« espace public oppositionnel ». Cette notion pensée par Negt6 est une réponse critique aux conceptualisations de Habermas sur la sphère publique 7 et considère que face à l’exclusion des dominé·es de l’espace public bourgeois se dresse un « espace oppositionnel »
où se déploient les voix minoritaires.

Contextualisation : mouvements sociaux et cybermilitantisme en Tunisie

Qualifié par les médias occidentaux de « révolution 2.0 »
ou de « révolution Internet », le soulèvement populaire
de 2010-2011 en Tunisie a été rapidement articulé
aux pratiques militantes sur les réseaux sociaux numériques. L’idéalisation du cyberactivisme tunisien
par les médias occidentaux allait dans le même sens que
les discours romantiques sur le pacifisme des mouvements sociaux tunisiens, minimisant ainsi la puissance de la lutte populaire dans l’espace public et réduisant sa force politique à l’efficacité des technologies de l’information. Abbas revient sur le risque d’une telle lecture qui confond « le média avec le contenu et avec la cause du mouvement protestataire »8 . Pourtant, la méfiance de toute forme de réduction des luttes populaires au cyberactivisme n’est pas en contradiction avec une réflexion sur sa dimension émancipatrice.

Une épaisseur historique s’impose afin d’analyser
le corpus cyberféministe en le situant dans la continuité d’une histoire des usages militants et contestataires numériques en Tunisie. La spécificité du cybermilitantisme tunisien tient à plusieurs facteurs, tels que la prise de risque, le contournement de la censure et la dimension résistante9. Si, par exemple, avant et pendant la révolution, Facebook
a représenté un espace de contournement de la parole institutionnelle prorégime, quelques mois après
la révolution, il est devenu un espace de politisation.
Ce constat invite à penser ces nouvelles sphères militantes envisageant la lutte féministe dans une continuité des luttes pour l’égalité sociale et la dignité et c’est dans ce sens que
cet article examine le cyberféminisme tunisien
en interrogeant sa possibilité de se situer dans la lignée d’autres mouvements sociaux en Tunisie.

 

Des luttes féministes au cyberféminisme tunisien

Connu pour la force de son féminisme étatique10, le pouvoir politique tunisien a longuement instrumentalisé la cause
des femmes pour des logiques politiques, sociales, géopolitiques et néolibérales11. L’expression « l’exception tunisienne » concerne essentiellement les avancées juridiques en matière de droits des femmes inscrites dans
le Code du statut personnel depuis 1956. Le récit national retiendra la figure du président Habib Bourguiba comme celle d’un libérateur allant parfois jusqu’à omettre le rôle
des luttes féminines qui ont précédé ses décisions juridiques. Marzouki insiste sur les conséquences de cette idéalisation : « Ce geste sera garant de la dette historique dont doivent être reconnaissantes les femmes de Tunisie envers leur libérateur mais il apposera surtout le sceau de la confusion entre politique étatique et devenir féminin. Devançant
les intéressées quant à toute possibilité d’intervention propre, le chef de l’État leur aménagera les voies de leur libération mais les mettra, du même coup, de façon quelque peu paradoxale, sous sa tutelle. »12 Si le cadre juridique garantit les mêmes droits à toutes les femmes, le risque consisterait néanmoins à minimer les inégalités d’accès
à ce cadre. Ne disposant pas des mêmes bénéfices sociaux
et culturels, certaines femmes défavorisées ou marginalisées ne peuvent facilement jouir de ces lois.

Depuis la période coloniale, plusieurs générations
de féministes ont milité pour la reconnaissance des droits des femmes sur le plan social et politique en les articulant avec d’autres revendications telles que les luttes anticoloniales, contre la dictature, la précarité et la domination de classe 13… Lakhel revient, lors d’une enquête de terrain, sur les deux dernières générations de féministes tunisiennes et, en explicitant leurs spécificités, elle considère que « la première, constituée de femmes nées peu avant
ou après l’indépendance, a lancé le mouvement féministe autonome des années 1980, mouvement qui a articulé

les premières revendications féministes sortant du giron bourguibien. […] La seconde “génération militante” est constituée de femmes nées sous Ben Ali et dont
le militantisme féministe a vu le jour à partir de sa chute
en 2011 »14. Les féministes de la nouvelle génération, tout en étant présentes dans les luttes sur le terrain, se sont aussi emparées des réseaux sociaux numériques comme un outil, un média, un partenaire de lutte15.

 

Plusieurs figures importantes ont marqué ce champ militant. Lina Ben Mhenni, jeune militante et cyberdissidente décédée en 2020 à l’âge de 36 ans, a tenu
un blog nommé Tunisian Girl qui a subi plusieurs tentatives de censure et lui a valu des années de répression. S’inscrivant dans des mouvements sociaux postrévolution tels que « Manish Msameh », les écrits de Lina Ben Mhenni avaient aussi une portée féministe où elle abordait des questions liées à la domination de classe, la précarité
et la violence subies par les femmes. En ce qui concerne
les luttes féministes et queer, la figure de Khookha Mcqueer est importante à citer. Celle-ci se définit comme une femme transgenre et non binaire, performeuse et militante féministe et queer. Ses posts et ses publications tendent
à visibiliser le vécu des personnes queer et à produire une parole féministe et queer où elle évoque les discriminations juridiques et sociales à l’égard des femmes transsexuelles.

Même si plusieurs féministes et des cybermilitant·es politiques ont marqué le champ militant de ces dernières années, il est encore difficile de circonscrire le cyberféminisme tunisien tant il réfère à des pratiques différenciées et hétérogènes qui se sont largement transformées dans le temps16. S’il a été considéré comme un postféminisme, le cyberféminisme ne peut se réduire
à la simple étude féministe sur le rôle et les pratiques féminines en ligne. Les autrices fondatrices du mouvement dès les années 1990 ont permis le développement d’une distance critique nécessaire face au risque d’un techno-utopisme. Paasonen retrace cette histoire et insiste: « Due to

Plant’s visibility, cyberfeminism became associated with her work and, consequently, critiques concerning it be those ones of de-politicization or technoutopianism became extended to cyberfeminism as a whole. »

 

Une première question s’impose : le préfixe « cyber » invite-t-il à repenser la pratique du militantisme féministe ? Il est difficile de proposer une définition homogène du cyberféminisme au vu de la singularité des rapports que chaque féministe établit entre la notion de « cyber » et celle de féminisme : « the relationship between “cyber” and “feminism” is, then, far from a simple one and many cyberfeminist articulations have involved a certain logic
of “thinking against” the notion of feminism while paying less attention to both the continuities and inner diversity
of feminist thought across different decades ». L’importante présence numérique des femmes lors des révolutions arabes a attiré l’attention de plusieurs chercheur·euses et médias
qui n’ont pas hésité à projeter des modèles d’émancipation eurocentrés sur les luttes des femmes arabes. Newson et Lengel rappellent que plusieurs médias et travaux ont longuement insisté sur la problématique de l’invisibilisation des femmes dans l’espace public arabe17.

Cet imaginaire s’érige en continuité avec un discours colonial et orientaliste sur l’enfermement des femmes arabes dans les sphères non mixtes du privé et s’inscrit à contre-courant des observations de terrain ainsi que des images
de révolte qui ont traversé le monde arabe, contredisant ainsi l’hypothèse de l’implantation du cyberféminisme comme conséquence de la supposée expulsion des femmes de l’espace public de contestation18. La prise en compte de cette complexité du rapport des femmes arabes à la lutte dans l’espace public n’exclut en rien l’importance de l’espace numérique dans la construction et la circulation d’une parole féministe périphérique.Dans les dix entretiens menés lors de cette recherche, les militantes ont insisté sur
le rôle joué par les réseaux sociaux numériques dans leur formation féministe et leur accès à cette parole militante,

mais elles ont aussi toutes insisté sur les risques
de dépolitisation des luttes quand elles sont réduites aux espaces numériques.

 

Les pratiques numériques féministes observées en ligne sont multiples (des groupes privés, des pages publiques
de signalement de harcèlement, de demande de soutien ou d’aide, de partage d’informations) – et se partagent entre
des espaces ouverts mixtes et d’autres restreints aux membres du collectif et non mixtes. Les collectifs étudiés (Falgatna, Chaml, Enazada) se réclament d’un féminisme qui s’éloigne des pratiques du féminisme institutionnel ou d’organisations associatives et regroupent de jeunes militantes aux affiliations politiques différenciées, même
si les observations révèlent que plusieurs d’entre elles s’affirment comme étant des femmes de gauche. Dans
sa préface à l’ouvrage de Negt, Alexandre Neummen se pose cette question : « Que se passe-t-il lorsque les groupes sociaux écartés de la délibération publique entrent en action et prennent la parole, en dehors de l’espace politique reconnu ? La force des choses et la volonté des acteurs veulent alors que se forme un espace public oppositionnel, répondant à ses propres formes de communication. »19

Les réseaux sociaux numériques représentent aussi pour les groupes militants non institutionnalisés
un « espace oppositionnel » qui permet par les contournements20 du discours du féminisme institutionnel et/ou associatif de créer un espace contestataire de la marge en dehors des lieux légitimes de l’exercice du pouvoir afin
de réinventer des sphères spatiotemporelles de la lutte politique. Le cyberféminisme ne se substitue pas aux organisations et aux associations féministes et il ne s’agit pas dans ce qui suit de minimiser la force de ces structures présentes depuis les luttes anticoloniales en Tunisie, mais
de comprendre les processus complexes et la dynamique de la lutte horizontale, collaborative. La participation des femmes au processus révolutionnaire n’est ni homogène ni linéaire et se caractérise par une circularité des individus et des discours entre les différentes sphères et réseaux
de militantisme. Elle est multiforme et se différencie selon les contextes, comme le rappelle Krefa :

"Diplômées chômeuses, ouvrières, paysannes, étudiantes, artistes, prostituées, magistrates et avocates, blogueuses, mères de « blessés et martyrs », féministes, syndicalistes, antiracistes, femmes niqabées, militantes LBT (lesbiennes, bisexuelles et transsexuelles) ont investi différemment l’usine, la rue, Internet et les places publiques, les administrations ainsi que les institutions « transitoires » et élues. Engagées dans des combats menés pour des revendications sectorielles, pour l’égalité entre les sexes, contre les structures de l’ancien parti hégémonique ou les différents gouvernements, à travers des actions collectives mixtes ou non mixtes, elles ont défié des policiers, des patrons, d’autres acteurs protestataires et – faits passés plus inaperçus – des époux et des parents21."

Le discours féministe des collectifs de jeunes militantes invite à une interrogation sur la place des luttes féministes dans le cadre plus global des mouvements sociaux.

 

Données et terrains

En plus des observations,
des entretiens et de la participation aux actions, mon terrain sur les nouveaux mouvements féministes
à post révolution a consisté aussi en une importante veille numérique. Cependant, plusieurs données du corpus ne peuvent être exploitées pour des questions éthiques, étant moi-même impliquée dans la cause féministe
et proche de plusieurs militantes, ayant aussi participé à plusieurs actions et par une volonté de ne pas mettre en danger les autres féministes, je n’évoquerai pas et je n’utiliserai pas les interactions et témoignages ayant ayant eu lieu dans le cadre des groupes privés
ou secrets qui se veulent être des espaces d’échange « safe ». ll me fallait donc faire le choix de ne jamais utiliser ces données pour assurer la sécurité des militantes et pour respecter les principes de sororité et d’hospitalité.Par ailleurs, il est impossible de ne pas être influencée par ces actions privées qui constituent un savoir situé,difficilement exploitable mais qui nourrit de manière forte l’analyse. Les observations de terrain ont été effectuées lors de ma participation aux groupes en ligne mais aussi lors de ma présence à certaines réunions, événements, manifestations féministes qui ont eu lieu à Tunis et à Paris entre 2012 et 2022.

Dix entretiens sous forme de récits de vie ont été menés entre 2021 et 2022. Sept entretiens ont été menés en ligne (par Zoom) et trois en rencontrant physiquement les militantes qui vivent actuellement à Paris. Toutes les féministes avec qui j’ai pu m’entretenir sont des femmes que j’ai rencontrées à différents événements féministes en ligne et hors ligne et un lien amical s’est formé avec plusieurs d’entre elles. Elles sont instruites et ont suivi une formation universitaire, proviennent de la classe moyenne et bénéficient d’un capital social et culturel, même si certaines sont encore précaires sur le plan professionnel.Les entretiens libres portaient sur leur Fparcours de féministe et sur leur engagement. La question du cyberactivisme s’est posée de manière récurrente puisqu’elles ont toutes en partage cette pratique depuis la révolution tunisienne. Par ailleurs, mon analyse porte aussi sur les pages publiques de trois groupes féministes que je différencie selon les actions qu’elles mettent en avant même s’il y a une dynamique et une interaction continue entre les trois : Falgatna, Enazada, Chaml. Toutes les données recueillies sur ces pages publiques sont regroupées, dans cet article, sous le nom d’« e-littératie féministe ». Cette littératie n’est pas une écriture littéraire mais un ensemble de pratiques technodiscursives hétérogènes : textes fictionnels, littéraires, témoignages, lettres, soutiens, partages d’informations, demandes de conseils, solidarité. Cette analyse sociolangagière et discursive tend à prendre en compte les spécificités technologiques des productions féministes en ligne.

 

"
Falgatna : j’ai assisté à la naissance du groupe dès ses débuts. Le mot veut dire en dialecte tunisien « on étouffe ou on explose, on n’en peut plus ». Falgatna possède un logo et une identité visuelle. Dans son histoire en ligne, il est inscrit en arabe standard : « Falgatna, un mouvement féministe intersectionnel citoyen et indépendant. La page a été créée le 16 décembre 2019. » En ce qui concerne les informations sur l’administration de la page, il est noté que plusieurs administrateur·trices peuvent prendre la main sur la page qui, au 1er février 2022, a 11K abonnées. Les publications de Falgatna se divisent en différentes catégories : soutien aux autres militantes féministes arrêtées ou victimes de violences policières ; partage des informations sur les actions et les mouvements ; partage d’informations sur d’autres associations (Damj, points antidiscriminations) ; publication de soutiens personnels de la part d’autres militantes (par exemple les pratiques de dedipix) et publication de tracts/manifestes pour dénoncer, soutenir ou annoncer de nouvelles actions. En général, ces textes sont écrits de manière collective dans les deux langues selon les compétences langagières des militantes. Enazada est le #MeToo tunisien et consiste à recueillir des témoignages de victimes de viol et de harcèlement en protégeant leur identité et en leur apportant un soutien moral ou juridique.
 
 
Dans sa biographie, le collectif se présente de la manière suivante : « La page Enazada est un safe space à disposition des survivant·es d’agressions sexuelles et de harcèlement. » Le 3 septembre 2021, les administratrices publient sur leur page une annonce en arabe et en anglais : « Enazada est un mouvement féministe indépendant qui n’appartient à aucune organisation politique et aucun parti. Il a été fondé le 15 octobre 2019 par des féministes indépendantes. » Notons qu’une autre page du même nom et utilisant le même hashtag est liée à une ONG (Aswat Nissa) financée par des bailleurs de fonds que nous n’étudions pas dans ce qui suit. Chaml définit ainsi ses actions : « Qu’est-ce que Chaml ? Nous sommes un collectif féministe créé en 2014 par un groupe de jeunes féministes tunisiennes qui ressentent le besoin de s’exprimer, d’échanger sur des questions liées aux femmes et qui, de par leur diversité, sont désireuses de déconstruire le mythe de “la femme tunisienne”. ». Les militantes précisent qu’il s’agit « d’un collectif non mixte ouvert à toute personne s’identifiant comme femme en accord avec notre vision ». Le collectif organise différentes actions : cafés-rencontres, création de contenus, publication de textes littéraires, projections-débats, lectures-performances, campagnes de sensibilisation, ateliers de formation. En plus de la page Facebook, le collectif a un blog où les membres peuvent publier des textes, des témoignages qui seront aussi publiés sur la page Facebook.
"
 

L’e-littératie féministe comme espace oppositionnel d’émancipation

Je regroupe toutes les formes d’écriture dans le cadre de ces groupes / collectifs militants dans le genre que je qualifie d’« e-littératie féministe ». Les autrices s’expriment dans ces espaces numériques de manières multimodales et plurilingues. En effet, dans toutes les pages étudiées, les productions se caractérisent par leur hétérogénéité (des textes accompagnés ou non d’images, des technomots, des liens hypertextes) et se présentent sous différentes formes : des récits de vie, des témoignages de violence subie, des témoignages de parcours de révolte ou de rébellion, des soutiens publics à des victimes, des dénonciations de discrimination, des annonces de postes ou de bourses, des discussions théoriques, des demandes de soutien ou de conseils, des partages de sentiments et d’expériences. Notons la circularité de ces publications entre les différentes pages Facebook et les blogs. L’émancipation langagière se repère alors à différents niveaux dans le cadre de cette e-littératie féministe : le plurilinguisme / la traduction, la construction d’un savoir collaboratif et l’hyperénonciation féministe et intersectionelle.

 

 

Le plurilinguisme et la pratique de la traduction

Dans les entretiens, les féministes affirment que leur premier accès au féminisme dans la période des événements révolutionnaires s’est effectué en ligne. Elles insistent sur l’importance qu’ont jouée les blogs et les textes « classiques » du féminisme en ligne dans leur formation féministe. Plusieurs d’entre elles disent avoir eu accès à ces textes en langue française, mais insistent sur le fait qu’arabiser les concepts a représenté un acte important dans leur parcours féministe. Les deux fondatrices de Chaml, Y. et A.22, m’ont expliqué que tout en étant imprégnées par la langue française, leurs premiers posts et textes féministes en ligne ont été produits en arabe. Y. précise : « J’ai commencé à écrire des posts explicitement en arabe. C’était ma revanche sur la dictature et la langue de bois. » L’analyse des pages révèle cependant l’aspect plurilingue de ces productions. L’écriture numérique permettant de déjouer les normativités scripturales en dépassant les oppositions entre oral et écrit met en œuvre un plurilinguisme politique et émancipateur. Ainsi, la juxtaposition de langues dans un même énoncé libère celle qui écrit en créant des espaces de créativité lexicale et en puisant dans d’autres registres. Les autrices oscillent entre arabe standard, littéraire, dialectal, parfois utilisent le français ou l’anglais pour s’exprimer. En plus du plurilinguisme, une pratique de la traduction vers l’arabe est à analyser comme l’émancipation d’un discours féministe eurocentré.

 

La complexité qui caractérise ce plurilinguisme numérique réside dans la contradiction de ses effets puisqu’il relève d’une part d’une maîtrise élitiste de plusieurs registres langagiers et d’autre part de la volonté de vulgariser la connaissance en s’adressant à un grand nombre de lectrices, quel que soit leur niveau scolaire23. Cependant, il est important de noter que l’usage de la langue française, dans ces groupes, est secondaire mais important24.

Les rapports entre la pratique du français et le féminisme sont liés à des logiques économiques et coloniales. En effet, l’histoire du féminisme en Tunisie est articulée à un imaginaire du progrès social où la francophonie joue un rôle déterminant en tant que distinction sociale faisant de cette « exception tunisienne » un mythe réservé à une tranche privilégiée de la société.

Ce que nous qualifions comme étant un « francoféminisme »25 relève de ces idéologies langagières qui lient la pratique de la langue française à celle du féminisme et qui relèvent d’un intertexte hérité de la période de la construction de l’État-nation français autour d’une langue universelle, celle du progrès et de la modernité. Le plurilinguisme observé dans les interactions en ligne et l’usage de l’arabe standard ainsi que du tunisien relèvent d’une émancipation langagière qui s’observe dans les traductions, les tentatives de trouver une terminologie féministe arabe, dans les discussions avec des féministes du monde arabe et dans les productions de textes féministes et contestataires en arabe.

à bas l’homophobie, à bas le totem de la )» مطوط ةلوجرلا ايبوفوموهلا، طقسي طقست virilité ») : ce titre d’article révèle par exemple les efforts de traduction, que ce soit par des processus de translittération ou de réinvention langagière. Ces processus témoignent d’une volonté d’affirmer une identité féministe arabe. D’autres articles optent pour le bilinguisme : le sexisme subtil dans la publicité tunisienne ةقرفتلا  سنوتلا راهشلإا يف ةيسنجلا

 

La construction d’un savoir collectif et collaboratif

  1. décrit comment, dans les groupes de parole non mixtes hors ligne, la récurrence des témoignages sur la violence sexuelle a constitué une véritable prise de conscience féministe et a donné lieu à l’émergence d’un blog :
On a alors eu l’idée d’écrire, car c’est aussi ce qu’on sait faire. On n’avait pas les moyens de faire autre chose. L’écriture est ce qui nous semblait être le plus simple et on s’est dit avec A. pourquoi est-ce qu’on ne ferait pas un appel, venez écrire, dire la vérité de notre vécu… le blog a ainsi été créé et la page aussi"

 

Dans les entretiens, l’écriture en ligne est conçue comme un espace de transmission et de sororité qui allie les femmes et leurs vécus. Plusieurs posts et articles proposent des conseils sur la sexualité et les relations amoureuses. Les stratégies discursives telles que l’humour, la métaphorisation et les hyperboles sont courantes et permettent de donner aux articles une dimension ludique, didactique et non injonctive26. La construction de savoirs collaboratifs ainsi que la mise en place de communautés de pratiques s’observent et font de ces réseaux sociaux numériques un « espace tiers » où se déploie une parole féministe.

Dans la page d’Enazada, la didactique s’observe dans les conseils juridiques aux victimes tels que : « Que faire quand une femme subit une agression ? Que faire dans le cas d’un viol conjugal ? Quels sont nos droits ? Comment porter plainte ? » La page propose aussi des conseils d’éducation sexuelle, comme : « Qu’est-ce que le plaisir sexuel ? Est-ce que la femme perd sa libido après la ménopause ? »D’autres articles vont dans ce sens dans le blog de Chaml : « Un homme tunisien proféministe est-il possible ?/ La bibliothèque virtuelle féministe de Chaml - Chaml's online feminist library/Le sexisme subtil dans la publicité tunisienne Il s’agit de ressources importantes mises à «. راهشلإا سنوتلا  يف ةيسنجلا ةقرفتلا disposition gratuitement pour se documenter, se former ou pour proposer des réflexions collectives et didactiques sur le féminisme. Dans l’entretien mené avec H.27 , celle-ci insiste sur le rôle joué par Internet dans son apprentissage du féminisme :

 

"Moi je ne viens pas d’une famille militante, le féminisme je l’ai appris sur Internet. Personne, ni ma mère ni ma tante, je ne l’ai pas lu dans les livres, dans notre maison, je l’ai trouvé sur Google, Internet. Tu as les notions du féminisme mais après c’est autre chose. C’est un très long process."

 

Les textes / posts publiés sur Facebook ainsi que sur le blog de Chaml participent à développer une conscientisation et une formation féministe ainsi qu’à la circulation d’une littératie militante plurilingue et facile d’accès. Ces partages d’informations et de ressources contribuent à la formation d’une sororité politique qui s’observe aussi dans les manifestes officiels de soutien et de solidarité avec les militantes qui sont arrêtées ou harcelées ou qui subissent des formes de discrimination.

 

Une hyperénonciation féministe, intersectionnelle et mémorielle

Un discours de la sororité se manifeste sous différentes formes dans les corpus analysés : soutien, solidarité, partage d’informations sur la santé, le psychisme, offres d’emploi, bourses, témoignages, demandes de conseils. Les enquêtées interrogées considèrent que les réseaux sociaux numériques ont permis de forger un espace de sororité nationale et internationale. Une dynamique de circularité entre les groupes est observée. En effet, les militantes passent d’un groupe à un autre et j’ai pu retrouver les mêmes féministes dans les trois groupes analysés. Dans ce sens, A. B.28 précise :

"Falgatna est née dans Chaml et on a utilisé les bureaux de Chouf." 29

 

Les militantes interrogées insistent sur le rôle joué par Facebook dans la rencontre avec les autres féministes du monde arabe et la constitution de collectifs panarabes mais aussi internationaux avec les féministes sud-américaines. Pour Sh.30, cette sororité qui dépasse les oppositions entre les espaces de l’« en ligne » et de l’« hors ligne » et les frontières nationales s’est observée dans l’apprentissage du chant féministe El violador eres tu 31 qui a été performé dans plusieurs pays grâce aux partages sur les réseaux sociaux numériques. Le collectif Falgatna a traduit les paroles en tunisien et a exécuté le chant sur une place à Tunis32. Les traductions et les répétitions ont oscillé entre les espaces de l’« en ligne » et de l’« hors ligne » et Sh. précise :

 
"
Je vois Falgatna non pas comme un mouvement qui a une identité mais comme un collectif de sororité. Pour moi, quand je pense à Falgatna, j’ai toujours l’image d’une fille dans sa chambre qui s’enferme à clé avec son téléphone devant elle et qui répète avec nous (live Facebook). Je trouve ça génial car le jour du happening féministe (à Tunis), on a vu arriver des filles qu’on n’avait jamais vues avant et elles nous ont dit « on a tout appris grâce au live Facebook », c’était le climax du cyberféminisme en Tunisie!
"

 

 

Le chant a circulé entre les pays, les espaces numériques, les appareils, les médias et les langues. Il est un exemple concret de la construction d’un savoir collectif et collaboratif qui s’effectue de manière horizontale dans les lieux de sororité. Sa viralité et sa dimension internationale et plurilingue appuient l’effet de sa performativité féministe. A. B., du groupe Falgatna, explique le rôle des réseaux sociaux dans la transmission du chant.Ces témoignages de sororité sont observés aussi dans les récits de vie, tel cet extrait de blog partagé sur Facebook. La répétition de la modalité appréciative qu’on y lit atteste d’une affirmation du sentiment féministe :

"Mais finalement, j’aime quelques aspects de moi, de la « féministe faible » que je suis. J’aime comment je suis prête à couper tous mes liens avec un homme s’il ne me respecte pas. J’aime comment ma colère, ma rage de féministe me donnent du courage pour affronter mes plus grandes peurs. J’aime le respect que j’ai dans ma tête, pour toute personne, indépendamment de son genre et de sa couleur… J’aime le fait que les hommes sont juste pour moi des Homo Sapiens et pas des dieux33."

"On a commencé à utiliser les lives pour l’apprentissage de la performance et des paroles, et les autres commentaient en direct et on pouvait répondre aux gens en direct… C’est incroyable cet outil, je suis trop contente d’être née dans un monde où Internet existe. La charte a été écrite par l’intelligence collective d’un groupe de 200 personnes."

Les espaces numériques permettent à une voix de l’intime de s’exprimer au-delà des normativités. Plusieurs textes parlent de sexualité, de rapports intimes avec liberté et sont lus, discutés et réappropriés par d’autres femmes comme des espaces privilégiés d’une parole de « l’extime »34. De plus, cette e-littératie féministe ne se limite pas à la question de la domination masculine.

Les collectifs incluent les problématiques d’homophobie, de transphobie, de conditions de vie des femmes précaires et exploitées, les luttes des femmes ouvrières et rurales. &lt>La domination raciale est aussi évoquée et de nouveaux collectifs destinés aux luttes des femmes noires en Tunisie ont vu récemment le jour35. Dans ce sens, et même si à ce stade de la recherche, il est difficile d’évoquer une identité politique commune et précise de ces collectifs, il semble qu’une approche intersectionnelle les lie, comme l’affirment les militantes lors des entretiens dans lesquels elles se revendiquent toutes du féminisme intersectionnel tout en ayant des définitions différenciées de ce concept.

Les processus discursifs tels que la citation d’autres féministes, le partage des publications, les discussions entre les militantes et la possibilité d’une circulation à grande échelle des productions numériques détachent les autrices de leur statut de source énonciative et les positionnent en tant qu’e-hyperénonciatrices féministes36 productrices d’une savoir commun formant un thésaurus féministe collaboratif et polyphonique. Malgré la force performative de ces discours, les possibilités d’épuisement des ressources militantes et le manque d’une vision politique commune représentent un risque de dépolitisation de ces actions.

 

Du risque de la « dépolitisation » du discours cyberféministe

L’interdiscours du féminisme institutionnel, ayant marqué les espaces mémoriels de lutte, s’est déployé dans les espaces publics d’une société civile légitime qui avait accès à un statut privilégié et s’est constituée en tant qu’opinion publique plutôt consensuelle. Sh. insiste sur son parcours de militante marxiste-léniniste où les luttes sociales telles que le féminisme ne pouvaient être considérées comme une lutte en soi au risque d’une réappropriation d’un discours bourgeois et institutionnel.

Elle évoque comment elle a pris conscience, lors de son engagement dans les syndicats étudiants, de l’importance de la problématique féministe :

"Je croyais en la priorité de la lutte des classes, c’est le combat principal et les luttes secondaires peuvent se résoudre d’ellesmêmes après."

Newson et Lengel considèrent que ces cyberactivistes sont majoritairement des femmes instruites détenant un statut social plutôt privilégie37. En effet, les premières blogueuses sont des étudiantes ou des militantes ayant déjà une formation politique dans le champ militant hors ligne. L’e-littératie féministe sur Facebook a aussi les traits d’une appartenance de classe spécifique, plutôt francophone et aisée. Lecomte insiste sur le statut privilégié des jeunes cyberactivistes :

"Ils étaient en effet pour la plupart de jeunes adultes instruits et cosmopolites issus des classes moyennes, bénéficiant d’une relative sécurité financière et évoluant dans les centres urbains du littoral tunisien ou dans de grandes villes occidentales." 38

 

L’espace public oppositionnel court aussi le risque de devenir un lieu de reproduction d’une parole légitime et élitiste. Les processus langagiers de résistance tels que l’anonymat, les pseudonymes, les contournements énonciatifs et les échanges privés39 sur les réseaux sociaux deviennent alors des sphères nécessaires et périphériques qui défient les appareils idéologiques et répressifs sans pour autant échapper aux formes de récupération institutionnelle tels les bailleurs de fonds et les ONG.

Les entretiens menés avec les militantes permettent de faire entendre l’idée d’une récupération de la lutte féministe par les mêmes outils qui ont permis sa circulation et sa construction. Ils révèlent aussi que les collectifs en ligne sont par leur caractère horizontal voués à n’être que des espaces

de sororité ne pouvant s’organiser de manière structurelle et politisée.

 

Pour M.40, la lutte féministe doit intégrer la lutte pour le droit d’accès à l’eau et aux conditions sociales des femmes travailleuses notamment dans le domaine du textile. Elle refuse de porter plainte contre le cyberharcèlement dont elle a été victime, car elle souhaite que le cyberactivisme soit un lieu de transmission populaire qui prend en compte les luttes de classes.Lors de l’entretien, elle insiste sur le danger de logiques capitalistes dans la récupération des luttes féministes.

"Je ne peux pas en tant que féministe utiliser mes privilèges contre les autres personnes. Ce que j’observe et ce qui m’a amenée à désactiver Facebook et à me retirer pas mal de fois est que nous, en tant que femmes mais aussi en tant que défenseurs des droits humains, hommes et femmes, on exerce nos privilèges autrement. On ne sait pas discuter avec les autres. […] fais ton devoir d’une conscientisation populaire même sur Facebook avec un statut puisqu’il y a plein de gens qui te lisent et te suivent."

Le débat sur la pertinence ou non d’envisager une quatrième vague puise ses sources dans la complexité des processus de lutte féministe en ligne. En effet, une féministe de la première, seconde ou troisième vague pourrait s’approprier les outils du Web pour prolonger son discours et ses pratiques. Sh. insiste sur ce point :

"Il faut se méfier d’identifier la lutte comme en ligne car le jour où t’as plus Internet, t’as plus de lutte. Je ne suis pas pour le terme lutte en ligne, cybermilitant, c’est trop loin de nous. J’ai des étudiants qui n’ont même pas de réseau sur leur téléphone."

Défendre l’existence d’une quatrième vague consiste à adopter le point de vue d’une autonomie et d’une spécificité du féminisme 2.041.

Lors des entretiens, plusieurs militantes précisent que Facebook n’est pas toujours un espace allié et qu’il fait courir le risque d’une dépolitisation, comme l’affirme H. :

 

"Facebook est devenu un espace avec lequel on ne peut plus rien faire. Il est complètement récupéré par les codes du système et les outils du système et la preuve est que Facebook veut fermer les pages féministes. Quand Facebook n’a pas envie de toi, il ne t’aide pas au contraire, il leur facilité leur mission à eux. Tu sais que tu gênes quand Facebook te ferme ton compte / ta page ; d’ailleurs, c’est arrivé à plusieurs reprises depuis la révolution."

 

Les féministes interrogées souffrent d’une forme d’épuisement moral et parfois physique. Elles insistent sur les déceptions, la fatigue et les formes de violence exacerbées par la lutte en ligne. La question de la dissolution des groupes s’est posée à différents moments du terrain.

 

Des expressions telles que « je suis esquintée », « je suis épuisée, déçue » sont récurrentes dans les entretiens. Les militantes questionnent le caractère horizontal du groupe et la part inégale de la participation de chacune à la formation d’une intelligence collective. Le cyberféminisme court le risque d’une dépolitisation à cause de ce caractère horizontal, comme l’affirme Sh. Elle insiste sur l’importance des gestes imperceptibles dans le cyberféminisme. Elle défend le geste banal, quotidien comme étant plus performatif que les collectifs de sororité.  Pour elle, le cyberféminisme se déploie dans cette e-littératie individuelle qui se traduit par des images, des commentaires, des citations, des exemples partagés sur sa page privée sur Instagram.

 

La question est de comprendre en quoi la performativité de cette e-littératie lui permet de se constituer en tant que projet politique ou dans la continuité d’autres mouvements sociaux.

"Moi, je ne suis pas fan des mouvements horizontaux, ce n’est pas mon truc. Je pense que ça affaiblit la lutte. C’est dans le quotidien, les signes subtils qui montrent que tu es féministe, par exemple sur Insta, je suis suivie par 16K, je ne sais pas pourquoi ! D’une manière intuitive, je me suis retrouvée à présenter un modèle alternatif, y a des filles, les lycéennes de 15 ans, 16 ans et c’est là où le féminisme fait un effet pour de bon, dans les storys, les posts, dans les questions auxquelles tu réponds […] le vrai changement qui se fait en ligne se fait dans le geste débile banal de tous les jours."

À ce sujet, Marzouki pose une question essentielle : « Peut-on considérer le mouvement des femmes comme un mouvement social ? » Cette interrogation met en garde contre le risque de désolidariser la cause des femmes du reste des luttes sociales. Marzouki cite Touraine en guise de première réponse

"Ce mouvement pour l’égalité est un mouvement proprement politique qui vise à obtenir la modification des lois et aussi des mœurs. Action très importante mais qu’on ne peut confondre avec un mouvement social… Qu’ils puissent s’allier, se mêler, se confondre parfois, n’empêche pas que l’un se place au niveau des rapports de classes, l’autre à celui du système politique."42 

 

L’autrice commente sa citation en rappelant qu’il n’est pas possible de nier le rôle des luttes féministes dans les changements sociaux : En se positionnant dans un espace oppositionnel périphérique et en se différenciant des luttes institutionnelles et/ou organisationnelles, les luttes féministes de la jeune génération offrent de nouveaux modèles de lutte horizontaux, inclusifs et collaboratifs tout en assumant leur propre fragilité de pérennisation des actions et d’un désinvestissement militant comme évoqué plus haut ; lors de l’enquête, deux groupes ont posé la question de leur possible dissolution suite à une fatigue militante et un désinvestissement observé chez plusieurs participantes.

"Bien que cette définition du rôle du mouvement féministe puisse apparaître comme réductrice, il n’en demeure pas moins qu’elle lui reconnaît son caractère symétrique et contributif au mouvement du changement social. Et c’est par l’intermédiaire de l’organisation que peut être concrétisée cette tendance vers la réalisation des valeurs de l’égalité et de la démocratie."

Les dynamiques au sein des groupes révèlent une complexité des luttes féministes en ligne qui, tout en affirmant que la sororité est une possible force de contestation politique, courent le risque d’une part de se limiter aux interactions ponctuelles tels les manifestes de soutien et d’autre part de ne pas s’inscrire dans un projet politique commun et fédérateur à long terme.

Les réseaux sociaux numériques se constituent en tant que champ d’expérimentation politique où chacune avec sa langue, ses moyens et ses compétences est autorisée à exprimer sa voix, à la joindre aux autres voix, souvent inaudibles, en constituant un espace polyphonique, ouvert et inclusif que j’ai qualifié d’« e-littératie ». Ils sont en ce sens un espace oppositionnel qui, malgré sa portée émancipatrice, est loin d’échapper aux différentes formes de récupération institutionnelle et de désinvestissement politique.

Notes

1. Voir à ce sujet G. Pleyers, « Présentation », Réseaux, no spécial Militantisme en réseaux, 181, 5, 2013, p. 9-21 ; F. Granjon, L’Internet militant. Mouvement social et usages des réseaux télématiques, Paris, Apogée, 2001 ; D. Cardon, La Démocratie Internet : promesses et limites, Paris, Seuil, 2010 et P. Sedda, « L’Internet contestataire comme pratique d’émancipation », Les Cahiers du numérique, 11, 2015/4, p. 25-52.

 

2. Jardim-Pinto, étudiant les mouvements féministes brésiliens, considère que les avancées féministes « n’ont signifié ni une instauration définitive de la question des sexes dans la politique du pays ni un accroissement de l’identité féministe parmi les femmes. ». C. Jardim-Pinto, « Les féministes : mouvements sociaux et sujet politique », Les Cahiers du CEDREF, 6, 1997, p. 103

 

3. R. Badouard, « Les mobilisations de clavier. Le lien hypertexte comme ressource des actions collectives en ligne », Réseaux, 181, 5, 2013, p. 87-117.

 

4. À ce sujet, voir C. Hine, Virtual Ethnography, Londres, Sage, 2000 ; M. Pastinelli, « Pour en finir avec l’ethnographie du virtuel ! Des enjeux méthodologiques de l’enquête de terrain en ligne », Anthropologie et sociétés, 35(1-2), 2011, p. 35-52

 

5. B. Fraenkel et A. Mbodj-Pouye, « Introduction. Les New Literacy Studies, jalons historiques et perspectives actuelles », Langage et société, 133, 3, 2010, p. 7-24.

 

6. O. Negt, L’Espace public oppositionnel, Paris, Payot, 2007.

 

7. J. Habermas, L’Espace public. Archéologie de la publicité comme dimension constitutive de la société bourgeoise, [1962], traduit de l’allemand par Marc B. de Launay, Paris, Payot, 1978.

8. N. Abbas, « La Tunisie, une révolution Internet ? », La Vie des idées, 22 septembre 2015

 

9. R. Lecomte considère qu’il existe trois grandes périodes du militantisme numérique en Tunisie : « Depuis la fin des années 1990 jusqu’à l’amorce du soulèvement révolutionnaire, nous décomposons l’histoire des usages citoyens et protestataires du Net par les Tunisiens en trois grandes périodes, trois configurations caractérisées par de nouveaux acteurs, de nouveaux dispositifs techniques mobilisés et de nouvelles formes d’expression politique et d’action protestataire : l’âge de la cyberdissidence, l’âge des blogs citoyens et, enfin, l’âge des réseaux sociaux. » R. Lecomte, « Expression politique et activisme en ligne en contexte autoritaire. Une analyse du cas tunisien », Réseaux, 181, 2013/5, p. 51-86.

 

10. Dès l’indépendance en 1956, un Code du statut personnel est proclamé où les droits des femmes sont inscrits juridiquement, ce qui vaudra à la Tunisie une réputation de précurseur dans le reste du monde arabe. Ce féminisme étatique, même s’il a permis d’inscrire juridiquement et constitutionnellement les droits des femmes, reste attaché à une vision institutionnelle et ne résout pas les rapports sociaux de genre notamment pour les femmes dont le statut social est le plus fragile, comme les femmes rurales. Voir D. Mahfoudh et A. Mahfoudh, « Mobilisations des femmes et mouvement féministe en Tunisie », Nouvelles Questions féministes, 33, 2, 2014, p. 14-33 ; S. Bessis, « Le féminisme institutionnel en Tunisie », Clio. Femmes, genre, histoire, no spécial Femmesdu Maghreb, 1999, S. Ben Achour, « Le Code tunisien du statut personnel, 50 ans après : les dimensions de l’ambivalence », L’Année du Maghreb, no spécial Femmes, famille et droit, 2005-2006/2, p. 55-70.

11. A. Jomier, « Laïcité et féminisme d’État : le trompe-l’œil tunisien », La Vie des idées, 12 avril 2011

 

12. I. Marzouki, Le Mouvement des femmes en Tunisie au XXe siècle : féminisme et politique, [Tunis], Paris, Maisonneuve et Larose, Cérès Prod, 1993.

 

13. Nous n’évoquons pas dans cet article les mouvements féministes à référence religieuse qui ont aussi eu un impact important dans les luttes féminines postrévolution, comme le rappelle S. Kébaili : « Au lendemain de la révolution de décembre 2010-janvier 2011, plusieurs voix de femmes se sont élevées pour défendre un militantisme alternatif et critique du mouvement féministe laïc » (S. Kebaïli, « Expérience de la répression et mobilisations de femmes dans la Tunisie post-révolution. Le cas d’une association à référent islamique », Archives de sciences sociales des religions, 181/1, 2018, p. 121-140).

 

14. L’autrice insiste aussi sur les interactions entre deux générations : « Par ailleurs, il faut souligner que des dialogues existent entre les militantes des deux générations, notamment au sein du groupe Chaml où quelques femmes de la première génération militante s’activent, publient et réagissent » (M. Lakhel, Militer et transmettre : une étude des frictions entre « générations » de féministes, Beyrouth, Conseil arabe pour les sciences sociales, 2021

 

15. Au sujet du cyberfeminisme arabe, voir B. Andorf, « Female Reverberations Online: An Analysis of Tunisian, Egyptian, and Moroccan Female Cyberactivism During the Arab Spring », International Studies Honors Projects, Paper 20, 2014, A. Abdlgalil, Cyber-feminism and Facebook: A comparative study of Arab Women's Organization activity in Tunisia, Lebanon, and Egypt, thèse de master, Nouveau Caire, American University in Cairo, 2018, H. Atifi et Z. Touati, « Nouvelles revendications féministes et médias numériques. Contournement des interdits sociaux et religieux en Tunisie et Maroc », ESSACHESS. Journal for Communication Studies, 13, 1(25), 2020, p. 179-208

 

16. S. Paasonen, « Revisiting cyberfeminism », Communications, 36, 2011, p. 335-352

 

17. V. Newsom et L. Lengel, « Arab Women, Social Media, and the Arab Spring: Applying the framework of digital reflexivity to analyze gender and online activism », Journal of International Women's Studies, 13(5), 2012, p. 31-45

 

18. M. Sellami, « Représentations des violences faites aux femmes dans l’espace public en Tunisie postrévolutionnaire : un enjeu politique de genre », Cahiers du genre, 72, 1, 2022, p. 175-206.

 

19. A. Neumann, « Préface », in O. Negt, L’Espace public oppositionnel, Paris, Payot, 2007.

 

20. Sedda insiste sur cet aspect et explique comment Internet contribue à la création « d’espaces info-communicationnels “oppositionnels‟ » (P. Sedda, op. cit.).

 

21. A. Kréfa, « Les rapports de genre au cœur de la révolution », Pouvoirs, 156, 1, 2016, p. 119-136.

 

22. Y. et A. sont les fondatrices du collectif Chaml. Elles sont nées dans le début des années 1980 et elles ont toutes les deux suivi un parcours universitaire. Y. travaille dans le secteur public alors qu’A. est salariée dans le privé.

 

23. Le français, par son histoire coloniale en Tunisie, s’impose comme la langue de l’émancipation alors même qu’il devient la langue d’une élite bourgeoise, citadine, parfois déconnectée des réalités sociales et politiques du pays.

 

24. M. Guellouz, « The Construction of “Tunisianity” through Sociolinguistics Practices from the Tunisian Independence to 2016 », Journal of Arabic and Islamic Studies, 16, 2017, p. 290-298.

 

25. M. Guellouz et S. Kebaili, « Francoféminisme : une histoire postcoloniale », The Markaz Review, 14 février 2021

 

26. Dans cet article paru en tunisien sur le blog du collectif Chaml, les autrices proposent des conseils aux hommes pour mieux faire l’amour. Le terme utilisé pour l’expression « faire l’amour », « ta’mel wed », est une expression quasi argotique utilisée en dialecte tunisien et considérée comme taboue ou de la catégorie des gros mots.

 

27. H. est une jeune militante trentenaire très active sur les réseaux sociaux. Elle est aussi chercheuse en sociologie, journaliste et consultante.

 

28. A. B. est trentenaire, elle a suivi un parcours universitaire. Elle est employée dans une entreprise privée. Elle est parmi les fondatrices de Falgatna et a été activiste dans plusieurs collectifs féministes.

 

29. Chouf est le nom d’un collectif féministe queer.

 

30. Sh. est une jeune militante de 29 ans, universitaire, chercheuse, très active sur les réseaux sociaux.

 

31. « El violador eres tú – letra completa del himno feminista. Un violador en tu camino », La Nacion Costa Rica, 2019

 

32. Falgatna : flashmob féministe contre les agressions sexuelles, Tunis, Nawaat, 2019

 

33. Alivesomehow420, « Ruminations dépressives féministes »

 

34. H. C. de Chanay et L. Rosier, « Faces extimes sur Facebook : un point de vue “personnel” », Cahiers de praxématique, 66, 2016

 

35. Le collectif « Voix des femmes tunisiennes noires » dont les fondatrices sont Huda Mzioudet et Maha Abdelahamid.

 

36. D. Maingueneau, « Hyperénonciateur et “particitation” », Langages, no spécial Effacement énonciatif et discours rapportés, A. Rabatel (dir.), 156, 2004, p. 111-116.

 

37. V. Newsom et L. Lengel, op. cit.

 

38. R. Lecomte, op. cit.

 

39. Dans sa critique de Habermas, Fraser propose d’introduire la notion de « contre-public subalterne » afin de penser la sphère publique dans une pluralité qui inclut les sans-voix (N. Fraser, « Repenser la sphère publique : une contribution à la critique de la démocratie telle qu’elle existe réellement. Extrait de Habermas and the Public Sphere, sous la direction de Craig Calhoun, Cambridge, MIT Press, 1992, p. 109-142 », Hermès, la revue, 31, 2001/3, p. 147).

 

40. M. est militante et actrice de la société civile. Elle est artiste/designer et détient sa marque de vêtement.

 

41. D. Bertrand, « L’essor du féminisme en ligne. Symptôme de l’émergence d’une quatrième vague féministe ? », Réseaux, 208-209(2-3), 2018, p. 232-257.

 

42. A. Touraine, « Contre l’anti-sociologie », in Lettres à une étudiante, Paris, Seuil, 1974, cité dans I. Marzouki, op. cit.

INTRO
Cet article de Jean-François Perrat parcour les notions de deep web et de dark web
dans le contexte des services cachés de Tor.
L'auteur étudie les connotations de profondeur et d'obscurité liées à ces mots, en mettant
en lumière les nuances et les implications culturelles. Une exploration empirique
du web.onion annonce des préoccupations légitime. L'auteur met en garde vis-à-vis de l'utilisation sans distinction de ces mots, préconisant l'adoption d'une terminologie plus précise dans la recherche scientifique afin d'éviter la confusion. Le texte traite de manière approfondie de la sémantique
et des représentations associées aux espaces numériques cryptés. 

Un « Deep / dark web » ? Les métaphores de la profondeur et de l’ombre sur le réseau Tor

 

Introduction

The onion router (Tor1) est à la fois un réseau de serveurs et un protocole de communication sur Internet permettant de ne pas dévoiler son adresse Internet Protocol (IP) personnelle aux hôtes consultés. Il permet également la consultation de location-hidden services ou, par ellipse, hidden services2, dont l’adresse IP est elle-même cachée aux internautes qui les consultent.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Tor
est souvent
décrit comme faisant
faisant partie du
« deep web » ou
du « dark web » (Solomon, 2015).
Nous verrons que ces appellations
sont d’un usage courant, que
ce soit dans la presse, les conversations
courantes ou même les publications scientifiques.
Le terme « deep web » renvoie à l’idée que Tor
et ses hidden services seraient comme séparés
du reste des lieux du World Wide Web (WWW),
qu’il y aurait une forme de discontinuité entre
ces deux espaces. « Dark web » renvoie pour sa part
à l’idée que des pratiques illégales (vente de drogue et
pédocriminalité notamment) y seraient
particulièrement courantes. Ces deux appellations
s’appuient sur des métaphores spatiales renvoyant à

l’idée de profondeur ou d’ombre pour décrire Tor. Bien que ces métaphores me semblent en partie révélatrices sur la nature de ce réseau et des lieux internétiques constitué par les hidden services, elles éloignent également le locuteur de leur réalité technique. Or, pour reprendre Bernard Debarbieux, « [la] production de représentations et des systèmes d’objets dont elles sont faites, a des finalités pratiques ; elle guide l’action et est, dans le même temps, motivée par elle.

 

 

Elles font que chacun de ces objets, une fois désigné et circonscrit, une fois rapporté à une catégorie particulière, constitue un ‘‘horizon d’attente’’ (Ricoeur, 1985) qui oriente les pratiques des usagers de l’objet en question » (Debarbieux, 2004, p. 25). Il importe donc de questionner ces métaphores pour s’assurer de penser au mieux les objets qu’elles désignent et les spatialités qui y ont lieu. Quel « horizon d’attente » ces métaphores contribuent-elles à engendrer ? Peut-on envisager d’autres choix terminologiques plus adéquats à la réalité technique et empirique de Tor et de ses hidden services ?

 

Cet article vise donc à interroger cette production de représentations en regard de ce qui est fait de et dans Tor, en reprenant le triptyque de l’espace conçu-perçu-vécu d’Henri Lefebvre (Lefebvre, 1974). Il s’agira d’évaluer à quel point les termes de « deep » ou de « dark web » peuvent prétendre devenir des « catégorie[s] analytique[s] ou [des] concept[s] » s’appuyant utilement sur une « ressource métaphorique » (Debarbieux, 2014, paragr. 31), ou s’il faut se concentrer sur « l’explicitation et (...) l’exploitation de leur caractère poétique » (idem).
Pour ce faire, nous ferons d’abord une présentation et une histoire succincte de Tor, visant à décrire la manière dont son espace est conçu d’un point de vue technique. Nous nous interrogerons ensuite sur les représentations les plus courantes du « deep » et du « dark web », qu’elles soient discursives ou iconographiques. Ces représentations seront mises en regard de la manière dont Tor et ses lieux sont empiriquement vécus par leurs utilisateurs.

 

La construction de Tor et de ses hidden services

Tor : un outil pour naviguer sur le WWW

 

Tor est à la fois un réseau de routeurs et un protocole de chiffrement, permettant une anonymisation forte des échanges en ligne. Il est fondé sur le principe du « routage en oignon » (Syverson et al., 1997) qui multiplie les intermédiaires entre le client d’où est émis une requête internétique et le serveur auquel cette requête s’adresse, tout en chiffrant l’ensemble de la chaîne de transmission. Développé au sein des services de renseignement militaires états-uniens depuis le milieu des années 1990 (d’abord par l’Office of Naval Research, puis très vite la Defense Advanced Research Projects Agency également)³ et disponible en source ouverte depuis 2003 (Syverson, 2005), sa fonction première est de permettre la consultation du WWW sans compromettre l’identité du client.
Le Transmission Control Protocol (TCP), à savoir le protocole standard régulant le transfert des données entre un client et un serveur sur Internet, requiert de connaître les adresses Internet Protocol (IP) du client comme du serveur pour établir la transmission entre eux. Le protocole de Tor permet d’établir la transmission entre un client utilisant Tor et un serveur classique sans que l’adresse IP du client soit divulguée au serveur : le client Tor transmet sa requête à un premier proxy Tor (le point d’entrée4), qui la transmet à un deuxième proxy ne connaissant lui-même que l’adresse du nœud précédent, et qui le transmet ensuite à un troisième et dernier proxy qui assumera la connexion avec le serveur (on parle de nœud de sortie). Ainsi, le serveur ne connaît que l’adresse IP du nœud de sortie, et les proxys Tor eux-mêmes ne connaissent que l’adresse du maillon qui les précède et de celui qui les suit immédiatement dans la chaîne de transmission (voir Illustration 1). C’est la raison pour laquelle ce type de routage est dit « en oignon » : il rajoute toute une série de « couches » successives dans la transmission de l’information, qui font obstacle aux attaques visant à connaître le contenu d’un échange via Tor ou l’identité du client, notamment les attaques dites de l’homme du milieu.

 

Les hidden services de Tor

 

Bien que le réseau Tor soit donc largement connecté au WWW5 et que ce dernier soit presque entièrement accessible via Tor, l’inverse n’est pas vrai. Depuis 2003, il est possible non plus seulement pour les clients Tor, mais aussi pour les serveurs adéquatement configurés, de cacher leur adresse IP – qui reste inconnue aux clients leur adressant des requêtes à travers le réseau Tor. Cette fonctionnalité a permis la création de services appelés location-hidden services, plus couramment, hidden services (Dingledine et al., 2004), et parfois Onion services dans la documentation du projet Tor6. Ces services sont accessibles uniquement via le réseau Tor. Bien que spécifiques à Tor, ils ont eux aussi une URL (Uniform Resource Locator). Leur nom de domaine de premier niveau (TLD) est .onion (et non .com, .fr, ou autres domaines plus répandus). Tor a en effet son propre système chiffré de résolution de nom de domaine (DNS), à savoir l’opération qui consiste à fournir l’adresse IP d’un serveur à un client pour lui permettre d’initier la connexion.
Dans le protocole de Tor, la connexion client-serveur se fait sans que le client ni le serveur ne connaissent leurs adresses IP respectives. Les annuaires DNS classiques, quant à eux, ne recensent pas les adresses .onion. Le TLD .onion est néanmoins reconnu officiellement par les instances de régulation technique d’Internet (ICANN, IANA et IETF) depuis le 9 septembre 2015 et l’entrée en vigueur du request for comments (RFC) 7686. Le domaine .onion appartient désormais à la liste des « domaines spéciaux », eux-mêmes encadrés par le RFC 6761.

 

En rendant presque impossible de retrouver l’IP et donc l’identité légale des personnes y interagissant, le protocole de Tor a fait émerger les hidden services comme des lieux de pseudonymat quasi inviolable. Ils constituent une forme paroxystique de ce qui est couramment appelé le « deep web »7, quand ils ne sont pas appelés « dark web » pour insister sur l’illégalité des pratiques qui y ont ou qui sont censées y avoir lieu (Moore & Rid, 2016).
Il est à noter que cette terminologie n’est pas employée dans la documentation officielle du Tor Project. D’autres sous-réseaux dont les finalités pratiques sont comparables à celle de Tor existent, comme Freenet, Invisible Internet Project (I2P), ou encore GNUNet, mais Tor est à la fois le plus étendu et le plus connu.

 

Le site metrics.torproject.org, officiellement rattaché au projet Tor, fournit des statistiques d’utilisation du réseau.
De 2014 à nos jours, le nombre d’utilisateurs uniques quotidiens de Tor est estimé à environ 2 000 000. Parmi eux, la majeure partie semble utiliser Tor pour se connecter au WWW : le débit total moyen sur le réseau Tor à l’été 2018 est légèrement supérieur à 100 Gbits/s, contre un peu plus de 1 Gbits/s pour le débit total moyen vers ou depuis les services .onion. Il semble donc raisonnable de dire que la connexion au WWW est le principal usage de Tor.

 

La disjonction entre le WWW et le web .onion

 

En première approximation, le réseau Tor n’est donc qu’une partie du réseau Internet. Il s’agit d’un réseau superposé dont les serveurs sont des serveurs internétiques, et dont les échanges de données se font à travers la même infrastructure matérielle. Mais si l’on suit la réflexion plus générale initiée par Alexander Galloway à propos d’Internet, c’est finalement en mettant la question du « protocole » (Galloway, 2004) de Tor au centre de la réflexion qu’on comprend en quoi il institue une forme de discontinuité entre Internet et les hidden services, ainsi qu’entre le WWW et le web des sites .onion. Il est en effet impossible d’accéder au web .onion sans configurer son navigateur pour router ses données vers un proxy Tor local, ou en utilisant simplement le Tor Browser déjà configuré à cette fin. Les différences de protocole de communication utilisés au niveau de la couche transport créent donc la discontinuité entre ces deux types d’espaces.
Cela explique en partie pourquoi les appellations de « deep » ou de « dark web », par opposition à ce qui est souvent appelé « surface web » ou « clear web », sont si communes. C’est plus particulièrement l’absence de recours au protocole DNS qui distingue les location-hidden services du reste d’Internet en termes d’accessibilité, en protégeant au passage leur adresse IP et incidemment l’identité légale de leur hébergeur.

 

Pour autant, il ne faut pas exagérer cette différence dans la conception de ces deux espaces. En effet, les protocoles et langages de plus haut niveau employés sur Tor et les hidden services ainsi que sur Internet et les sites du WWW sont les mêmes, en particulier HTTP (HyperText Transfer Protocol) et HTML (HyperText Markup Language). Ainsi, le Tor Browser n’est lui-même qu’une variante légèrement modifiée d’une version dite ESR (Extended Support Release) du navigateur Mozilla Firefox. N’importe quel navigateur permet de se rendre sur le web .onion, pour peu qu’il soit configuré pour utiliser le client Tor indépendamment installable.
Les bases pratiques de la navigation sur le WWW ou le web .onion du point de vue de l’utilisateur sont donc les mêmes, avec des pages web classiques, des adresses web (quoiqu’elles finissent en .onion), des liens hypertextes, etc.

 

Les hidden services, des « lieux » d’Internet ?

 

Cette approche technique n’explicite cependant pas quelle est la géographicité de Tor : dans quelle mesure un réseau informatique et des protocoles dédiés, qu’il s’agisse d’Internet en général ou de Tor en particulier, peuvent-ils faire émerger de l’espace ? En quoi les pratiques en ligne sur Tor relèvent-elles d’une géographie du numérique ?

 

La prise en compte des TIC comme une thématique légitime dans le champ de la géographie française commence dans les années 1970 et s’affermit dans les années 1980, notamment sous l’impulsion d’Henry Bakis (Bakis, 1980).
S’il s’est d’abord agi d’aborder la question sous l’angle de la géographie industrielle, en étudiant par exemple l’inscription spatiale d’une firme comme IBM (Bakis, 1977),
il a rapidement été question d’interroger plus fondamentalement quels pouvaient être les effets des TIC sur l’espace géographique et les pratiques spatiales, dans la mouvance de travaux comme ceux de Thorngren, sur le développement régional en Suède (Thorngren, 1970 ; 1977), ou de Abler sur le téléphone et le système métropolitain aux États-Unis (Abler, 1977). En matière de mobilités, la thématique de la substitution (ou non) des déplacements par la télécommunication, très active depuis les années 1960, est dépassée dans les années 1980 par la question du rapport entre les télécommunications et la forme même des villes (Schwanen, 2017), ou encore par la question de la structuration de l’espace industriel par les réseaux de télécommunication et non plus seulement la localisation des matières premières ou des réseaux de transport (Bakis, 1985).

 

Ces réflexions sont prolongées et amplifiées dans les années 1990 avec l’émergence du réseau mondial Internet et du World Wide Web. Une tendance à penser que les TIC pourraient s’exonérer de l’espace matériel et des territoires au profit des télécommunications, à la fois quasi instantanées et peu coûteuses en énergie, est alors montée en puissance (Bakis & Vidal, 2007). Les possibilités concrètes offertes par le télétravail ou le commerce en ligne, ainsi que le succès des thématiques du « village global » (McLuhan & Fiore, 1967) ou du « cyberespace » (Gibson, 1994), y ont largement contribué. L’urbaniste et architecte William J. Mitchell va par exemple jusqu’à avancer que « le Net nie la géométrie » (Mitchell, 1999, p. 8).
Nous serions alors entrés à l’ère d’un « espace de flux » (Castells, 1996). Cette remise en cause de l’utilité de la coprésence physique aurait même dû pour certains précipiter la fin des villes.

 

La « fin de la géographie » annoncée n’a évidemment pas eu lieu : la prégnance des facteurs de localisation, des économies d’échelle et des effets d’agrégation n’a pas été abolie par Internet en ce qui concerne les biens matériels (Lasserre, 2000). Plus encore, Internet a même renforcé le besoin d’une approche territoriale du numérique et des TIC dans la mesure où la présence d’infrastructures de télécommunication et des capacités locales à en tirer parti contribuent à accentuer concurrences et hiérarchies territoriales (Bakis & Vidal, 2007). Contre le mythe de l’aspatialité d’Internet, les aménageurs ont eux-mêmes théorisé le problème de la « fracture numérique » entre les territoires (Dupuy, 2007). Cette « impasse » théorique de la fin de la géographie serait née d’une trop grande « préoccupation pour les usages » d’Internet, faisant fi de sa « matérialité » (Duféal & Grasland, 2003, paragr. 1).

 

Entre la fin des années 1990 et les années 2000, un consensus largement partagé s’est établi autour de l’idée qu’il fallait aborder Internet dans une approche territoriale, spatialisée, en rupture avec les apories sus-citées comme avec les approches trop sectorielles des économistes (Duféal, 2004, chap. 1 et 2). Internet ne devait pas être conçu comme abolissant l’espace, mais comme « [augmentant] » les capacités d’interaction des territoires, de leurs habitants et de leurs institutions (Musso, 2008, p. 33) dans des approches interrogeant l’interspatialité entre espace en ligne et espace territorial. Selon un terme forgé par Henry Bakis, l’espace géographique du XXIe siècle serait un « géocyberespace » hybridant le géoespace traditionnel au « cyberespace » informationnel (Bakis, 20078 ; Bakis & Vidal, 2007) en un complexe où les délimitations seraient de plus en plus floues. Dans sa thèse, Marina Duféal a ainsi retrouvé la même structure dans les liens entre sites institutionnels des communes de l’arc méditerranéen que dans leur système urbain géospatial (Duféal, 2004).
Elle suggère aussi qu’un phénomène territorial comme l’insularité corse se retrouve dans son « inscription spatiale » en ligne (Duféal, 2005). Thierry Joliveau développe quant à lui l’idée de « géoweb » pour décrire les services cartographiques en ligne tels que Google Maps (Joliveau, 2011), et plus largement de « géonumérisation » pour décrire le « processus de transcription au moyen d’outils informatiques des objets, êtres, phénomènes, activités, images, textes ... localisés sur la surface terrestre » (Joliveau, 2007), terme également repris par Henri Desbois (2015).

 

Prenant acte de l’aporie de l’aspatialité d’Internet, d’autres approches géographiques interrogeant davantage les spatialités en ligne pour elles-mêmes n’en émergent pas moins
dans les années 2000 et 2010. D’une part, autour de Frédérick Douzet et de la chaire Castex (Paris VIII-IHEDN), créée en 2011, qui cherchent à préciser la notion de « cyber » d’un point de vue géopolitique, et qui abordent le « cyberespace » comme un « théâtre d’opérations » ou un « domaine » à part entière, y compris dans sa dimension informationnelle (Desforges, 2018 ; Douzet et al., 2014). La matérialité du réseau et les acteurs territoriaux, en particulier les États, restent bien sûr prépondérants aussi dans cette approche. D’autre part, Boris Beaude propose d’envisager plus radicalement les spatialités propres d’Internet. En s’appuyant sur la théorie de l’espace notamment développée par Jacques Lévy (1994), il avance qu’Internet est un espace « réticulaire », immatériel et de métrique topologique (Beaude, 2013). Dans cette conception relationnelle de l’espace, la référence au territoire / géoespace n’est plus essentielle : l’espace n’est pas réductible à l’étendue terrestre, il est « [une] des dimensions de la société, correspondant à l’ensemble des relations que la distance établit entre différentes réalités » (Lévy & Lussault, 2013).
Malgré son immatérialité, « Internet est [donc] un espace réel et actuel » (Beaude, 2012, p. 43). Pour reprendre le triptyque d’Henry Bakis, il s’agit peu ou prou de considérer le « cyberespace » également pour lui-même, sans s’obliger à en envisager systématiquement l’interspatialité avec le géoespace à travers la notion de géocyberespace9. Boris Beaude propose ainsi de considérer Internet comme un
ensemble de « lieux » au sens plein, non métaphorique, à savoir un ensemble d’« [espaces] dans [lesquelles] la distance n’est pas pertinente » (Lévy, 2003). Dans ces « lieux réticulaires (...), la non-pertinence de la distance est fondée sur la communication » (Beaude, 2012, p. 51). Mais ce qui fait d’Internet un espace, à la différence de « moyens de transmission antérieurs » (téléphone, radio, télévision…), c’est la « permanence » de ses lieux (idem, p. 54-55). Cette propriété permet non plus seulement la synchronisation d’acteurs distants, comme pouvait déjà le faire le téléphone, mais leur « synchorisation » (Beaude, 2012, chap. 2), c’est-à-dire le partage non d’un temps (formé sur khrónos) mais d’un espace commun (formé sur chôra). L’intérêt de cette propriété avait déjà été identifié par le philosophe de la technique Andrew Feenberg dans les années 1990 pour le travail collaboratif sur des documents partagés, ou pour les réunions de malades en ligne (Feenberg, 2004 ; Feenberg et al., 1996). La conceptualisation de la synchorisation à propos des lieux dits réticulaires est l’apport majeur de Boris Beaude en géographie du numérique – et ce qui fait la différence entre Internet comme espace et, par exemple, le réseau téléphonique comme simple technologie spatiale. Le concept de synchorisation ne s’applique bien sûr pas spécifiquement aux lieux internétiques : tout lieu est un espace de synchorisation. Mais les propriétés d’Internet, notamment la vitesse de transmission et son accessibilité grandissante (canaux multiples, couverture croissante…), en font « l’un des plus puissants espaces qui organisent le monde contemporain » (Beaude, 2012, p. 66‑67).

 

 

Boris Beaude appelle ainsi à faire une lecture spatiale de ce qu’il appelle les lieux réticulaires, ou lieux d’Internet. Dans un texte de 2015, il présente par exemple Wikipedia autant comme un site web que comme le lieu réticulaire qui rend possible la production même de cette encyclopédie participative (Beaude, 2015). L’anthropologue Sandra Houot questionne pour sa part les nouvelles relations permises au sein de communautés musulmanes diasporiques à travers leurs spatialités numériques (Houot, 2016). Le géographe Jean-Christophe Plantin estime quant à lui que le concept de synchorisation est utile pour dépasser l’utilisation de graphes dans « [l’analyse] des pratiques de communication en ligne » (Plantin, 2014, paragr. 26). Et c’est dans cette approche émergente que le présent article s’inscrit à son tour.

 

En somme, on peut donc dire que le web .onion est un espace internétique au sens plein, et que les hidden services sont autant de lieux d’Internet, malgré le fait que Tor s’appuie sur certains protocoles spécifiques dans la couche transport. En particulier, il n’y a pas de spécificité de Tor en ce qui concerne le navigateur, et donc pas de spécificité des pratiques usuelles de navigation des internautes passant par Tor.
En tant qu’espaces d’interaction en ligne, le WWW et le web .onion différent donc moins par le répertoire des spatialités qui peuvent s’y déployer que par les ressources et les compétences spatiales requises pour y circuler.

 

Un espace représenté comme radicalement autre

 

Bien que Tor soit fondamentalement un réseau de serveurs superposé à Internet, et que les hidden services soient des hôtes utilisant des protocoles de haut niveau banals, ils sont souvent représentés comme participant d’un espace autre, singulier, en rupture avec le reste d’Internet et du WWW :
le « deep / dark web ». Cette tendance ne s’applique bien sûr pas à tous les discours sur Tor, mais elle s’observe en revanche dans tous les types de discours - notamment journalistiques, politiques, artistiques ou même scientifiques, ainsi que dans les discours ordinaires, plus ou moins experts sur la question. Un « imaginaire social » (Debarbieux, 2015, chap. Introduction) de Tor est à la fois instituant de et institué par ces discours, dans un processus de co-construction dynamique. Nous allons voir que les thématiques de l’ombre et de la profondeur sont structurantes dans cet imaginaire.

 

Le « deep / dark web », un espace de non-droit ?

Dans le discours de la presse écrite

 

On peut tenter d’objectiver ce sentiment que Tor, le « deep web » et leurs avatars sont caricaturés comme des zones de non-droit, à la fois sulfureuses et subversives, en analysant un corpus large d’articles de presse, comme le font de plus en plus de géographes sur des sujets variés (Comby et al., 2011). À cette fin, j’utiliserai la base de données d’articles de presse du service Factiva10. La requête, faite le 13 août 2018, a porté sur l’ensemble du contenu des articles recensés dans la base (titres et corps de texte). Pour cibler au mieux le sujet et obtenir une sélection d’articles évoquant Tor à coup sûr, la formule en était « “onion router” or “routeur en oignon” », en conservant les guillemets. Les deux expressions étant sans équivoque dans les deux langues, le résultat ne contenait pas de bruit, et n’a pas nécessité d’affiner davantage la requête. L’ajout de termes comme « dark net », par exemple, ne fait que limiter le corpus et biaiser le résultat.

 

Le corpus résultant contient 1 125 références, dont 985 en anglais et 139 en français (dont 2 résultant de la requête « routeur en oignon » seule). Seuls le français et l’anglais ont été retenus dans la mesure où je n’aurais pas été capable de déterminer la part de résultats non pertinents dans d’autres langues. Par ailleurs, le corpus est déjà significatif à 1 125 références, contre un peu moins du double (2 124) toutes langues incluses. En termes de distribution temporelle, on observe une rupture très nette en 2013, qui correspond au moment des révélations d’Edward Snowden, et à la fermeture très médiatisée d’un hidden service de vente de drogue, Silk Road, par la police fédérale (FBI) des États-Unis : 996 articles, soit 87 % de la base, ont été publiés depuis 2013, dont 223 (20 %) pour cette seule année.

 

Intéressons-nous désormais au traitement qui est fait de Tor dans les articles retenus. Factiva affecte 1 092 articles d’un ou plusieurs « sujet(s) » (100 types de sujets, 2 085 sujets affectés en tout), à savoir un mot-clé rendant compte de la thématique générale de l’article (voir Illustration 2). Les trois premiers « sujets » renvoient clairement à la criminalité, et même la pornographie est légèrement plus mentionnée que la protection de la vie privée (en sixième position).
Cette dernière, pourtant fondamentale dans la conception de Tor, apparaît comme un sujet presque minoritaire (70 documents), largement concurrencé par le « cybercrime », la drogue, la pornographie, voire la pédopornographie (le sujet de la « maltraitance sur les enfants » spécifiquement compte 45 documents). Ce, même si un certain nombre d’articles des catégories « informations politiques générales » et « informations sociétaires (sic) et industrielles » pourraient s’en rapprocher, et que cette catégorisation ne donne que la tonalité générale de l’article, sans exclure que d’autres sujets soient également abordés sur un mode mineur. La moitié des articles du corpus traitent essentiellement d’activités criminelles sur Tor (crime, enlèvement, trafic d’êtres humains, terrorisme, recel, pédopornographie...). Factiva propose enfin un nuage de mots et expressions, fondé sur la récurrence des mots et groupes nominaux dans le corpus. Le terme « dark web » est le plus employé (355), devant « deep web » (198)
et « dark net » (98) qui restent parmi les occurrences les plus nombreuses. Ce, bien avant « personnal data », qui a néanmoins le mérite d’apparaître.

 

Il va sans dire que ce discours médiatique n’est pas neutre. Certes, il est fait de Tor bien des usages illégaux, voire criminels (voir la partie Criminalité et « dark web »).
Pour autant, le fait que ces pratiques soient préférentiellement mises en avant nourrit et légitime indirectement une volonté de contrôle de cet espace. Au-delà de la sphère médiatique, dont on peut supposer que la recherche de sensationnel est le principal moteur, les discours alarmistes permettent surtout au pouvoir politique d’asseoir la régulation policière de l’espace des hidden services.

 

Dans le discours des pouvoirs publics

 

Depuis 2015, c’est souvent à travers la lutte
antiterroriste que Tor est évoqué dans les médias, en particulier par les pouvoirs publics. Alors ministre de l’Intérieur, Bernard Cazeneuve a même explicitement déclaré que « Ceux qui nous frappent utilisent le Darknet et des messages chiffrés pour accéder à des armes » à l’Assemblée nationale le 22 mars 2016, à la suite des attentats de Paris et Bruxelles. Ce, même si l’achat d’armes pour les attentats de 2016 est vraisemblablement passé par des voies plus classiques11.

 

Plus récemment, en juin 2017, le président français Emmanuel Macron déclarait quant à lui vouloir encore « améliorer les moyens d’accès aux contenus cryptés (sic), dans des conditions qui préservent la confidentialité des correspondances, afin que ces messageries ne puissent pas être l’outil des terroristes ou des criminels »12. Une telle déclaration cible directement l’utilisation de moyens de communication chiffrées de pair à pair, et plus indirectement des solutions comme Tor. Dans tous les cas, il s’agit de rendre possible le déchiffrement de contenus chiffrés, par les pouvoirs publics et plus seulement par les interlocuteurs concernés.

 

 

En août 2018 enfin, les représentants des services de renseignement de l’Australie, des États-Unis, de la Grande-Bretagne, du Canada et de la Nouvelle-Zélande, qui collaborent très activement dans la collecte et le traitement de masse de données personnelles, ont à leur tour réaffirmé leur opposition au principe du chiffrement de bout en bout, dans le but affiché de lutter contre la criminalité et contre le terrorisme (« Five Country Ministerial 2018 », 2018).
Là encore, des protocoles comme celui de Tor sont visés.
La divulgation de documents professionnels internes à la NSA et au GCHQ par Edward Snowden avait par ailleurs déjà révélé en des termes on ne peut plus clairs l’opinion de membres de ces services de renseignement : « Tor pue » (« Tor stinks »), car il permet de dissimuler la majorité des identités de ses utilisateurs (Ball et al., 2013). On peut raisonnablement estimer que cette opinion était et reste répandue dans ces milieux, et qu’elle donne encore une clé de lecture pertinente des déclarations plus récentes sus-évoquées

 

Les sorties de M. Macron ou de M. Cazeneuve et, plus largement, les revendications policières réclamant toujours plus de dérogations pour utiliser les données personnelles des citoyens et passer outre leur chiffrement, participent donc surtout d’une logique séculaire du pouvoir policier : l’intérêt est d’avoir un accès facile à un maximum d’informations dans tous les espaces de la vie sociale13. Cette volonté de lutte contre les moyens de chiffrement, dont Tor, s’inscrit historiquement dans la suite des Crypto Wars américaines et françaises (Tréguer, 2017, chap. 9), qui ont vu la progressive
« libéralisation » (idem) des moyens de chiffrement pour les citoyens, sans contrôle étatique. Avec les attentats de New York le 11 septembre 2001 (Tréguer, 2017, p. 413‑414), puis ceux de Paris en janvier et novembre 2015, la volonté des pouvoirs publics de limiter l’effectivité des solutions de chiffrement est de plus en plus (ré)affirmée. Entretenir la réputation sulfureuse d’outils comme Tor permet de justifier la restriction des libertés individuelles dans le domaine. Cette représentation pour le moins dépréciative de Tor a même été inscrite au Journal officiel de la république française n° 0225, texte n° 110, en septembre 2017. La traduction officiellement préconisée pour « dark net » y est « internet clandestin », dont la définition précise qu’elle s’étend également « par extension, [à] l’ensemble des activités, souvent illicites, qui y sont pratiquées ».
Cette définition officialise un des usages courants qui fait du « dark web » la partie illégale du « deep web » - ce dernier terme étant traduit de manière plus neutre par
« aby
sse »

ou
« toile
profonde

Le Marianas Web : une mise en fiction du deep web 

 

Au-delà de ces représentations plus ou moins idéologiques sur les hidden services dans les médias ou dans les discours politiques, ces derniers inspirent la production d’images, voire de véritables fictions, portant plus spécifiquement sur la notion de « profondeur » du deep web. Une imagerie souvent reprise est par exemple celle de l’iceberg, dans laquelle la partie émergée figure le WWW, et la partie immergée le « deep » voire le « dark web ».
Mais le recours aux métaphores de la profondeur et de l’ombre pour décrire le web .onion peut également dépasser le simple intérêt illustratif ou didactique pour prendre une dimension complètement fictionnelle, sans qu’il soit toujours évident de faire la part des choses entre l’erreur, la désinformation, voire la légende urbaine ou le canular.

 

Je m’intéresserai particulièrement ici au discours sur le « Marianas web », qui est le meilleur exemple de dérive à partir de la métaphore de la profondeur. Tout un discours sur les prétendus « niveaux » d’Internet s’est développé avec l’émergence du web .onion, dans lequel l’incompréhension technique le dispute à la désinformation, voire à l’affabulation pure et simple. La description de ces niveaux est assez fluctuante, même s’ils sont souvent au nombre de cinq.
Une infographie humoristique (voir Illustration 3) publiée le 1er septembre 2012 sur le site de partage imgur.com semble en être l’origine. Il est difficile de faire l’histoire d’une légende urbaine et de lui attribuer une origine unique. Elles naissent autant d’un événement déclencheur que d’un substrat plus confus d’idées et de préconceptions qui les rendent possibles et leur donnent forme. Néanmoins, la journaliste Violet Blue propose une lecture du phénomène et a tracé l’origine de cette légende urbaine dans un article pour le site web Engadget (Blue, 2015).

 

Le premier niveau est généralement le « web clair », à savoir le WWW, dont la définition est plus ou moins bien rendue. Du deuxième au quatrième niveau, on oscille entre « deep web » simple (hidden services, intranets gouvernementaux, réseaux de hackers) et « dark markets » (les plateformes de vente en ligne proposant des produits illégaux, comme des armes, des logiciels de piratage ou des drogues). Le cinquième niveau est presque toujours le mythique Marianas web, à propos duquel les opinions varient. Nommé en l’honneur de la fosse des Mariannes dans l’océan Pacifique, il pourrait être l’infrastructure de base absolue d’Internet, ou encore un réseau occulte tenu par les services de renseignement ou par les hackers les plus talentueux. Les informations qui y circuleraient seraient hautement confidentielles. Les protocoles de communication y seraient si radicalement différents qu’il faudrait un « ordinateur quantique » pour le parcourir.

 

Elle n’était qu’une farce au départ, mais l’image est devenue virale, et certains l’ont prise au sérieux. Soit, au second degré, pour en faire par exemple le prétexte à un blog littéraire14. Soit, au premier degré, dans des espaces de conversation variés (forums, sites de partage, blogs, commentaires des vidéos sur des sites comme YouTube, etc.). Certains rapportent même « y avoir été », quand ils n’ont pas carrément pu en ramener, non sans risque, des éléments probants15. Le Marianas Web s’inscrit en fait plus largement dans une sous-culture numérique adolescente, où l’on aime jouer à se faire peur et à effrayer ses amis crédules, tout en se prévalant de compétences informatiques supérieures pour les impressionner. La plupart des contenus signalés comme venant du Marianas Web ne font que reprendre les discours complotistes et négationnistes habituels, revisités sous un nouvel angle pseudo-technique.

 

L’espace de Tor et de ses hidden services tel qu’il est représenté dans les exemples vus jusqu’alors est révélateur de l’imaginaire social de personnes qui ont finalement une connaissance technique et empirique limitée des protocoles et des lieux de Tor. Les désignations métaphoriques telles que « deep web » ou « dark web » semblent jouer un rôle prééminent dans la construction de cet imaginaire.
Cela concourt à donner de Tor et de ses hidden services l’image d’un réseau à part, presque disjoint d’Internet et du WWW. Mais au-delà de ces représentations très souvent exogènes et de la conception du protocole, qu’en est-il des spatialités des utilisateurs de Tor ?

 

Un espace de pratiques en ligne pas si spécifiques

 

La médiatisation et les prises de position publiques à propos de Tor ne s’appuie généralement pas sur une expérience largement partagée de ces lieux d’Internet : l’espace .onion n’est pas vécu par une grande partie des personnes qui (se) le représentent. Si le domaine .onion n’est pas un domaine internétique tout à fait générique dans la mesure où il implique l’utilisation de protocoles qui lui sont propres, les spatialités qui ont cours sur le web .onion sont-elles si spécifiques que les représentations communes le suggèrent ?

« Going deeper ? »

 

La métaphore de la profondeur est la plus reprise quand il s’agit d’évoquer Tor et ses hidden services. Elle laisse notamment entendre qu’il y aurait plusieurs « niveaux » d’Internet, plus ou moins compartimentés. De fait, il s’agit d’un topos qu’on retrouve bien souvent dans les conversations à propos de réseaux comme Tor, et jusque dans des sites ou des forums qui sont eux-mêmes des hidden services. L’un des sites d’actualités dédiés les plus actifs, DeepDotWeb.com (aussi disponible via Tor à DeepDot35Wvmeyd5.onion), et créé fin 2013, reprend par exemple la métaphore de la profondeur dans sa devise : « Surfacing the News of the Deep Web ».

 

La volonté « d’aller plus profond » est suffisamment répandue parmi les (néo)utilisateurs de Tor pour que le réseau social Galaxy2, très actif avant sa désactivation en 2017, ait d’ailleurs dû y consacrer un paragraphe pour prévenir les nombreuses demandes de personnes qui se seraient mises à utiliser Tor à cette fin, ou pour partir en quête du Marianas Web : « [Question] Going deeper ? [Réponse] Depends on your definition of “going deeper”. If you refer to the image with an iceberg and wants to get into the next “level”, then you might have misunderstood some things at best, or be the target of a prank/troll at worst. “Going deeper” is more about exploring more taboo and/or hidden subject rather than entering a new “physical/virtual” level. The .clos network and Mariannas (sic) Web are also a scams »16. Dépassant la seule mise au point technique sur l’absence de niveaux du Web, cette rubrique propose une explication de ce qui ferait l’intérêt métaphorique de la notion de profondeur appliquée aux hidden services de Tor : pouvoir parler de sujets considérés comme « tabous ».

 



La profondeur du « deep web » serait donc d’abord celle des échanges qui s’y tiendraient, par opposition à la superficialité supposée des conversations tenues sur le WWW. Contrairement à ce qu’Elizabeth Stoycheff a pu observer sur Facebook à propos notamment des pensées minoritaires ou subversives après les révélations Snowden, il n’y aurait pas de « chilling effect » (Stoycheff, 2016) inhibant la liberté d’expression sur Tor. S’il ne s’agit pas de dire qu’il est impossible d’exprimer des opinions minoritaires ou subversives sur le WWW, force est de constater qu’elles sont très répandues sur une large part des lieux de discussion .onion. À titre d’exemple, un groupe de discussion parmi les plus animés dans la durée sur Galaxy2 avait été initié par une femme curieuse de recueillir sans jugement la parole de pédophiles. Il semblerait que les restrictions éventuelles à la liberté d’expression dans les lieux de discussion .onion soient d’abord le fait des hébergeurs eux-mêmes, selon leurs valeurs éthiques personnelles.
 

 

L’idée qu’une différence de nature existerait entre le WWW et le web .onion semble globalement partagée et diffusée par une grande partie des utilisateurs et vulgarisateurs du web .onion, dans les conversations en ligne (Gehl, 2016) ou dans les textes introductifs à Tor. Elle fait d’ailleurs écho à la critique médiatique et politique récurrente sur le fait que la dissimulation possible des identités légales sur Tor ouvrirait précisément la porte aux pratiques les plus répréhensibles. Il y a un contraste fort entre ces deux groupes à propos de cette spécificité de Tor : volontiers effrayante et dangereuse pour les uns, elle est plutôt considérée comme positive et libératrice pour les autres. Robert W. Gehl, sur la base d’une étude anthropologique du forum .onion anglophone Dark Web Social Network et d’entretiens avec certains de ses membres, a ainsi identifié une tendance au « tehno-élitisme » (Gehl, 2016, p. 1228, trad. pers.), qu’il présente comme « structurante pour la communauté » (idem). Malgré le fait que le web .onion ne soit constitué que de pages web tout à fait classiques, majoritairement en HTML, il n’est en fait pas si facile d’y évoluer pour la plupart des internautes (Winter et al., 2018). Ce techno-élitisme se manifeste par les spatialités en ligne spécifiques des personnes fréquentant ce forum, permises par leur plus grande « maîtrise spatiale » (Lussault, 2013, p. 44) d’Internet. Cette plus grande maîtrise se fonde notamment sur :

 

 

On peut ici faire un parallèle entre les « [communautés] » (Gehl, 2016) .onion et la « Mouvance du logiciel libre » (Giraud & Schoonmaker, 2015), à laquelle appartient du reste le projet Tor. Dans les deux cas, il y a investissement d’une « marge » valorisant « l’idée de liberté (autonomie, déréglementation, souveraineté) » (Giraud & Schoonmaker, 2015, paragr. 5). Cette marge est celle « d’espaces d’avant-garde » (idem, paragr. 1) qui, en n’étant pas « [hypercentraux] » comme le sont Facebook ou Google sur Internet (Beaude, 2012), offrent la possibilité de les habiter autrement, et notamment sans régulation étatique / policière. Il s’agit en somme moins d’aller plus profond que d’aller là où l’on peut être libre, là où « l’anomie peut alors devenir autonomie ; [et] le contact avec la sauvagerie ou le chaos, une interface de commutation voire de compossibilité entre espaces de représentation différents » (Giraud & Schoonmaker, 2015, paragr. 1)17. Certains discours sur le web .onion francophone vantent ainsi l’absence de carcan et l’ouverture d’esprit supposée des personnes fréquentant le « DW » (« deep web ») par rapport au « clear » (le WWW) :

« Arf faut dire ce qui est aussi, vous ne trouverez pas des exemples d’escroqueries ou des conseils pour tuer votre beau père sur le clear ou alors vous serez vite banni du forum.

La liberté d’expression ici est bien plus importante et permet a la fois de trouver des renseignements que l’on a pas ailleurs mais aussi des liens ou des personnes pouvant vous aider a arriver a vos buts.

Ici on croise toute sorte de gens, une Multiconnexion comme j’aime l’appelé, permettant de discuter et trouver son “bonheur” ou d’essayer de comprendre certaines personnent plus ouvertes a la discution.

De plus nous pouvons parler librement de sujets dit “tabou” sur le clear, la vrai liberté d’expression je la trouve sur le DW. (...) »

 

 

On remarquera cependant que la « vrai (sic) liberté d’expression » vantée par ce participant au forum French Deep Web se manifeste par le type de renseignements disponibles, la qualité et la diversité des interlocuteurs potentiels, mais d’abord et avant tout par la possibilité d’aborder des sujets illégaux, voire criminels, sous un angle très pragmatique. Le web .onion est-il donc aussi « dark » que le présentent volontiers ses détracteurs ?

 

 

 

 

Criminalité et « dark

 

À l’instar des représentations iconographiques exogènes, beaucoup de pages .onion adoptent l’imagerie de l’ombre et de la dissimulation, sans forcément proposer de contenus illégaux par ailleurs. Les thèmes graphiques sombres sont très communs, et contrastent avec les couleurs plus claires qu’on retrouve sur la plupart des sites web classiques. Il ne faut cependant pas exagérer l’importance de ces choix graphiques : nombres de sites .onion très fréquentés ne les reprennent pas. Les hidden wikis, qui proposent des listes thématiques de liens .onion, utilisent pour la plupart le moteur MediaWiki développé pour Wikipédia, et reprennent son fond blanc. Même de grandes places de marché illégales (ou « dark markets ») comme Dream Market ou Silk Road 3, ou des méta-moteurs de recherche sur ces places de marché, comme Grams, reprennent l’esprit des chartes graphiques de sites du WWW comme eBay ou Google. On peut même faire l’hypothèse que bien des sites .onion reprenant jusqu’à la caricature l’imagerie du « 

deep dark web »

cherchent à attirer les utilisateurs novices en quête des contenus sulfureux qu’on ne trouverait que sur le « dark net », selon la connaissance qu’ils en ont eu à travers les discours les plus courants. La page d’accueil du site Shadow Web, une arnaque ancienne et bien connue du web .onion, en est une bonne illustration. La couleur de fond est noire, l’image centrale présente une descente d’escalier suggérant l’accès à des contenus plus « profonds ». Le texte d’accompagnement insiste sur le caractère « secret » et trop « sombre pour le deep web » (trad. pers.) des contenus proposés.

 

Mais au-delà de l’imagerie et des arnaques de ce type, qu’en est-il de la prévalence de la criminalité sur le web .onion, dont on a vu qu’il était volontiers présenté comme un moyen privilégié d’accéder à des contenus, des services, ou encore des biens illégaux ? Deux estimations se voulant exhaustives ont notamment été proposées.

 

En 2016, la société Intelliag a estimé que 48 % des 30 000 sites .onion recensés par leur spider proposaient des contenus ou services illégaux au sens des droits des États-Unis et du Royaume-Uni (Intelliag, 2016). Cette estimation se fonde sur les résultats d’un algorithme d’apprentissage profond, entraîné à partir de la catégorisation manuelle de 1 000 sites .onion. Les sites de partage illégal de fichiers soumis à droit d’auteur et de diffusion illégale de fichiers (« leaked data ») compteraient pour près de 60 % de la quinzaine de milliers de
sites illégaux

recensés. La chercheuse indépendante Sarah Jamie Lewis nuance ces résultats dans son premier OnionScan Report (Jamie Lewis, 2016) : elle avance qu’une part importante des sites recensés comme illégaux par Intelliag étaient hors ligne au moment de son propre scan, et que nombre des pages d’accueil des sites restants étaient des clones parfaits après comparaison à l’aide d’une fonction de hachage. Si tant est que la procédure d’identification des sites illégaux par Intelliag soit pertinente, la proportion de 48 % de sites illégaux lui semble devoir être fortement revue à la baisse. Ce, à plus forte raison que cette pratique de multiplication de sites identiques avec des adresses différentes est généralement le fait des arnaqueurs prétendant proposer des contenus illégaux contre rémunération, ou encore des éditeurs souhaitant multiplier les adresses possibles pour un même site (par souci de redondance ou encore pour répartir la charge des connexions). Sarah Jamie Lewis n’est cependant pas en mesure d’indiquer si la proportion de clones et de sites hors-ligne est la même en ce qui concerne les services .onion considérés comme légaux dans la base de données d’Intelliag, ce qui limite également la portée de sa critique.

 

Une autre évaluation du nombre de services .onion illégaux a été proposée par Daniel Moore et Thomas Rid début 2016 (Moore & Rid, 2016). Ils ont également procédé à un crawl entre janvier et mars 2015 qui leur a permis de recenser 5 205 sites actifs, dont 2 723 proposant du contenu textuel. Ils ont ensuite recouru eux aussi à un traitement algorithmique à l’aide d’une machine à vecteurs de support entraînée à partir d’un échantillon de sites labellisés manuellement. Au terme du traitement, 1 547 sites .onion relèveraient d’activités illégales, soit 57 % du total. Les deux auteurs ont identifié douze types d’activités illégales. Parmi les sites jugés illégaux, les deux premières catégories sont « Drogues » et « Finance », ce qui ne correspond pas aux résultats obtenus par Intelliag.

 

La différence de résultats entre Intelliag et Moore & Rid en ce qui concerne leur typologie ou le nombre de services recensés n’est pas étonnante : on ne sait rien de précis du crawler d’Intelliag, mais son programme diffère a priori de celui du crawler de Moore et Rid, ainsi que leurs jeux respectifs d’adresses initiales, et leurs dates de collecte. Il est plus surprenant que les types d’activités illégales en ligne proposés dans ce rapport et cet article diffèrent à ce point. Néanmoins, tous deux pointent le fait que les contenus et services illégaux, y compris ceux visant à arnaquer des aspirants arnaqueurs, sont très présents sur les hidden services. Même si les
activités délictuelles

et criminelles sont présentes aussi sur le WWW, il ne fait guère de doute non plus que c’est en moindre proportion que sur le web .onion, tant en termes de nombres de sites concernés que d’échanges entre individus. La navigation via Tor, et en particulier sur le web .onion, est en effet moins aisée que sur le WWW du fait de temps de latence élevés, d’une capacité réduite, et de l’absence de moteurs de recherche efficaces. En outre, là où la majorité de la population est connectée à Internet, en particulier dans les pays développés, le nombre d’utilisateurs de Tor est en comparaison infime, limitant d’autant l’effet de réseau pour la sociabilité. Le web .onion est aujourd’hui surtout fréquenté par des personnes pour qui le gain en termes de

dissimulation

de leur identité dépasse ces inconvénients non négligeables (Winter et al., 2018). Divers types d’activités illégales ou criminelles ont bel et bien cours sur les hidden services de Tor.

 

Il ne fait guère de doute que le trafic de drogues concentre une grande part, sinon la majorité des activités illégales du web .onion : la vente par correspondance de drogue y est facile et assez peu risquée, et le web .onion fournit en outre des espaces d’échange entre consommateurs et/ou entre vendeurs propices à la réduction des risques (la rencontre physique avec un vendeur n’est plus nécessaire, les produits sont de meilleure qualité) et à la meilleure connaissance des produits et de leurs modes de consommation (Bancroft & Reid, 2015 ; Van Hout & Bingham, 2013). Ainsi, en deux ans et demi d’activité, la première version du célèbre « dark market » Silk Road (fermé par le FBI en 2013) aura généré un chiffre d’affaires d’1,2 milliards de dollars étatsuniens, essentiellement lié au commerce de drogues (Frediani, 2016).

 

La pédopornographie serait également un domaine d’activités criminelles très représenté sur les hidden services d’après le résultat des crawls sus-évoqués. Cependant, le partage de contenus pédopornographiques semble mieux adapté à des réseaux orientés vers le partage de fichiers de pair à pair, comme Freenet ou I2P, mode de partage qui ne permet pas la pseudonymisation de l’adresse IP dans le protocole de Tor (Aked, 2011). Des hidden services utilisant plutôt des protocoles comme FTP (File Transfer Protocol) via Tor n’en existent pas moins. Il existe également des sites .onion diffusant des contenus pédopornographiques sur des pages .html. Lolita City, site .onion fermé en 2011 par le collectif
hacktiviste

Anonymous (Gallagher, 2011), en a longtemps été la figure de proue. Il est difficile d’évaluer à quel point des réseaux comme Tor, I2P ou Freenet sont employés par des pédocriminels, l’accès à la plupart de ces contenus étant soumis à autorisation par les hébergeurs, souvent après un processus de cooptation. Le collectif Anonymous, qui s’inscrit dans une mouvance a priori favorable à l’utilisation généralisée de Tor et consorts, n’en a pas moins effectué en 2011 une attaque par déni de service contre le principal acteur .onion d’hébergement gratuit et non modéré, Freedom Hosting, après avoir affirmé qu’il hébergeait la majeure partie des fichiers

pédopornographiques

accessibles via Tor. Cette opération a été le prélude à la fermeture du service par le FBI la même année (Poulsen, 2013).

 

 

D’autres types d’activités illégales ont lieu assez couramment sur les hidden services, comme l’échange de numéros de cartes de crédit volées, la vente de logiciels piratés, de virus ou de contenus privés volés, etc. L’évaluation de leur importance relative est à ce jour difficile, ce qu’illustre les différences entre les recensions et les typologies proposées par Intelliag et Moore & Rid. Sur le web .onion francophone, le forum French Deep Web abrite ainsi de nombreux sujets dédiés à l’
escroquerie

(carding,

usurpation

d’identité bancaire…), au

piratage

informatique, ou encore à l’achat et à la consommation de drogues illégales, en plus de classiques sections d’actualités ou de présentation des membres.

 

 

On peut donc faire l’hypothèse que les

délinquants et les criminels

sont sur-représentés sur le web .onion par rapport au WWW. Eric Jardine avance que cette sur-représentation serait plus importante dans les pays démocratiques où la répression policière contre les activistes est moins forte (Jardine, 2015), même si cette assertion semble tenir surtout au fait qu’Eric Jardine distingue entre criminalité et certaines formes d’activisme qu’il considère légitimes, là où ces formes d’activisme sont simplement

considérées comme criminelles

dans les régimes autoritaires qu’il évoque. Pour nuancer l’importance de la sur-représentation apparente des pages proposant des contenus illégaux sur le web .onion, il faut également préciser qu’il n’est pas toujours aisé de faire la part des choses entre les offres véritables et les arnaques ou scams. Le consensus général qui semble se dégager dans les échanges tenus en ligne par les utilisateurs de Tor est qu’une grande part des pages proposant des services illégaux sont en fait des arnaques elles-mêmes. En matière de drogues, si l’affaire Silk Road a fait grand bruit, une part non-négligeable du

trafic

en ligne n’en a pas moins lieu sur le WWW. Paradoxalement moins bien connu que le trafic sur les hidden services, il concernerait davantage les drogues de synthèse au

statut légal flou,

ou des

drogues

illégales dont la vente est organisée notamment sur des réseaux sociaux ou les messageries privées de forums de discussion du WWW, selon un rapport de l’European Monitoring Centre for Drugs and Drug Addiction (Mounteney et al., 2016). En matière d’activités illégales en ligne plus généralement, il faut également noter que le site Infraud, fermé le 27 juin 2018 par les polices de plusieurs pays occidentaux, aura réalisé un chiffre d’affaire d’un demi-milliard de dollars étatsuniens en sept ans d’existence sur le WWW, soit plus longtemps que Silk Road 1 et Alphabay réunis (Greenberg, 2018). En matière de

terrorisme,

il apparaît de plus en plus clairement que la propagande, la

radicalisation,

et même une bonne partie des communications plus opérationnelles, se font essentiellement sur le WWW : les pouvoirs publics travaillent d’ailleurs surtout avec de grands acteurs du WWW comme Twitter, Facebook ou Google pour réguler la propagande terroriste (Crosset & Dupont, 2018).

 

En somme, bien que les utilisateurs eux-mêmes se représentent le web .onion comme spécifique et reprennent volontiers les métaphores spatiales de l’

ombre

et de la

profondeur

pour marquer cette différence, il s’agit plutôt d’évoquer la plus grande liberté d’expression qui y serait possible. Et la présence de contenus et de

services illégaux et criminels

sur le web .onion ou sur d’autres services internétiques proches via Freenet ou I2P, même importante, ne doit pas faire oublier que le WWW est largement touché aussi, malgré le fait que les internautes et les services y soient plus facilement traçables par défaut.

 

 

Conclusion

J’ai proposé d’interroger la pertinence ou « [vivacité] » métaphorique (Ricoeur, 1975) des notions de profondeur et d’ombre motivant l’emploi des termes « deep web » et « dark web », à l’aune d’une lecture du réseau des location-hidden services de Tor comme un espace conçu, perçu et vécu (Lefebvre, 1974). En abordant Tor d’un point de vue technique, comme un espace conçu, la légitimité de l’emploi des épithètes « deep » et « dark » accolées à « web » semble tantôt justifiable, tantôt inopportune, selon les protocoles considérés. L’intérêt de l’emploi du terme web semble en revanche plus évident :

associé au WWW, il connote l’utilisation de protocoles de la couche application et de langages utilisés également via Tor. En ce sens, l’opposition entre World Wide Web ou simplement Web (entendus comme nom propre et éventuellement naturalisés en français) et web .onion (désignant un réseau de sites et de pages web se distinguant par leur TLD) me semble intéressante. La logique semble pouvoir s’étendre sans problème de compréhension au reste du vocabulaire courant du Web : forum .onion, lien .onion, service .onion, etc. selon la norme suivie dans le présent article.

Plus spécifiquement, l’usage des métaphores désignant les hidden services renvoie à l’idée d’une profondeur cachée et d’une inaccessibilité pour le « deep », à laquelle il faut rajouter l’idée d’une illicéité, voire d’une monstruosité des usages pour le « dark » – les deux champs notionnels se recoupant aussi parfois. De ce point de vue, l’analyse de productions fictionnelles, textuelles et/ou iconographiques nous a permis de mettre au jour tout un imaginaire puissamment fécondé par ces métaphores, métaphores dont l’intérêt pour la production artistique est indéniable. L’analyse de discours médiatiques et politiques a, pour sa part, révélé une certaine crispation autour d’enjeux sécuritaires et policiers, qui font rejouer des peurs anciennes sur les dangers d’Internet à ses débuts – même s’il est désormais d’un usage banal – ou du chiffrement comme arme potentielle entre les mains des criminels et autres terroristes.

Chez certains acteurs, il est finalement probable que la
métaphore du « dark » engendre moins un « horizon
d’attente » (Ricoeur, 1985, cité par Debarbieux, 2004) critique
à l’égard du web .onion qu’elle n’est en fait engendrée par cet horizon d’attente, négatif a priori. J’ai enfin proposé une
lecture plus empirique du web .onion, à travers des études







données qu’on pourrait qualifier « de terrain », au plus proche
de la réalité empirique des *.onion. Certaines craintes,
exprimées surtout par des acteurs désireux de renforcer la régulation du web .onion, semblent plutôt fondées :
la vente de drogue et la pédocriminalité
y semblent particulièrement














répandues en comparaison de
ce qu’on observe sur
le WWW.
Bien que la concentration de certains types d’activités illicites
sur le prétendu « internet clandestin » justifie sans doute une
attention accrue des autorités, cela ne doit pas faire oublier
que l’essentiel de l’activité criminelle a lieu sur le WWW,
dont l’ombre porte beaucoup plus loin que celle des marchés
noirs .onion. Au bout du compte, on peut comprendre que les
expressions « deep web » et « dark web » aient largement été
reprises pour parler de Tor et de ses hidden services dans le
langage courant. Ces métaphores sont même séduisantes à
bien des égards. Pourtant, et même si le signifié d’une
métaphore n’a pas vocation à être parfaitement adéquat à son
signifiant, je préconise de ne pas ou plus employer les termes
« deep web » et « dark web » pour évoquer les location-
hidden services de Tor (et probablement pas non plus les
eepsites d’I2P ni les Freesites de Freenet), en particulier dans
la littérature scientifique. En effet, le flou de la définition de
ces termes est aujourd’hui trop grand pour qu’ils soient
sérieusement employés pour évoquer Tor, même sur un
registre ouvertement métaphorique. Malgré « leur
caractère poétique » (Debarbieux, 2014, paragr. 31), dont
j’ai essayé de rendre compte, ces termes me
semblent devoir être disqualifiés comme
« catégorie[s] analytique[s] ou concept[s] »
(idem), au risque de donner caution
à des expressions créant
plus de confusion qu’elles ne
concourent à l’intellection
des objets qu’elles
désignent.
NOTES
1

Les développeurs du projet Tor recommandent l’utilisation de l’acronyme « Tor » et non « TOR », à l’encontre des conventions typographiques habituelles. Cette recommandation, passée dans l’usage, sera suivie dans cet article.

2

Cette ellipse peut mener à des effets de sens indésirés : comme on le verra, les services en question ne sont pas du tout « hidden » ou « cachés » par définition, seule leur adresse IP (Internet Protocol) l’est. L’usage est toutefois si répandu, y compris chez les développeurs de Tor, que je le reprends ici. Il est toutefois exclu de traduire par « service caché », ce qui mènerait à un contresens.

3

Les techniques de chiffrement numérique étaient alors soumises à un très fort contrôle par les pouvoirs publics, étant considérées comme des « armes et munitions soumises à contrôle », de nature militaire. Ce régime est assoupli par l’executive order n° 13026 du 15 novembre 1996, signé par le président Clinton, puis les outils de chiffrement sont retirés de la liste en 2000 à l’initiative d’Al Gore (Tréguer, 2017, p. 308).

4

Plus précisément, Tor crée d’abord un serveur proxy virtuel en local sur la machine cliente.




5

Cette interconnexion n’est pas complète. Certains sites web et certains pays, comme la Chine, l’Iran ou la Turquie, entravent la navigation des internautes passant par Tor.

6

Voir « Tor : Onion Service Protocol » à l’adresse https://www.torproject.org/docs/onion-services [en ligne], consulté le 14/08/2018.

7

Le terme de « deep web » a une définition assez large. L’usage courant le décrit comme l’ensemble des sites et ressources internétiques qui ne sont pas indexés par les moteurs de recherche comme Google ou Bing. Ils sont accessibles par Internet, mais plus difficilement – quand ils ne requièrent pas l’utilisation de programmes spécifiques, comme le navigateur Tor Browser, pour accéder aux hidden services. Il est difficile de clairement tracer la ligne entre « deep web » et « clear web » dans ces acceptions.

8

Le concept date de 1997 : Bakis, H., (1997), From Geospace to Geocyberspace ; Territories and Teleinteraction, pp. 15-49, in Roche E. M. & Bakis H. (eds., 1997), Developments in telecommunications. Between global and local, Avebury. (NDLR).

9

Dans la même mesure où il est possible d’avoir une approche géographique de réalités matérielles sans nécessairement mettre au premier plan leur inscription en ligne.

10

Factiva est une base de données destinée aux chercheurs, et aux professionnels de l’analyse de réputation des entreprises et des marques. Le service est proposé par Reuters et Dow Jones & Company. Elle permet de manipuler d’importants corpus, notamment des articles de presse, et donne accès aux bases de la plupart des grands journaux. Factiva est l’un des meilleurs services de ce type, et se targue de donner accès à plus de 32 000 sources dans 28 langues différentes.

11

Voir l’article « Coulibaly aurait acheté des armes à un Carolo », F. D., La Dernière Heure, 14 janvier 2015. En ligne : https://tinyurl.com/2t2577xb. Consulté le 01/XI/2016.

12

Déclaration d’Emmanuel Macron lors de la déclaration conjointe avec Theresa May le 13 juin 2017. En ligne : https://tinyurl.com/3bwhdd67 (consulté le 13/08/2018).

13

Dans Surveiller et Punir, Foucault décrit la police, depuis le XVIIIe siècle, comme « (…) un appareil qui doit être coextensif au corps social tout entier et non seulement par les limites extrêmes qu’il rejoint, mais par la minutie des détails qu’il prend en charge. Le pouvoir policier doit porter ‘‘sur tout’’ (...) » (Foucault, 1975, p. 249).

14

Le blog « Search for Marianas Web », initié en 2013 et toujours actif au 14 août 2018, est une des initiatives du genre les plus poussées. Il est consultable à l’adresse https://tinyurl.com/49nr3zz3.

15

Un exemple, par ailleurs anecdotique, est celui de ce membre de YouTube qui fournit une liste des sites qu’il a pu y trouver à cette adresse : https://ghostbin.com/paste/fndv8. Trafic d’êtres humains, cultes sataniques, snuff movies… on retrouve l’éventail de fantasmes qui avaient cours à propos d’Internet à ses débuts, et des hidden services aujourd’hui.

16

FAQ de Galaxy2, consultée le 29/11/2016, et auparavant accessible via Tor à cette adresse : https://tinyurl.com/29h9452j L’URL a été reprise par Galaxy3, nouveau site de réseautage social reprenant les codes graphiques de Galaxy2 mis en ligne le 25 juillet 2018.

17

Si l’on reprend le propos du livre d’Alexander Galloway en 2004 évoqué dans la partie 1.2., il est intéressant de noter que les hidden services relancent en pratique l’idée d’un Internet décentralisé, en ne conservant que la pile « horizontale » de protocoles TCP/IP, sans le contrôle « vertical », et notamment étatique, introduit par l’usage généralisé du protocole DNS.

INTRO


Cet article de Stéphane Amalto, Françoise bernard et Éric Boutin est paru en 2021 dans la revue Communication & organisation. Depuis leur perspective de chercheurs en communication numérique, les auteurs comparent les notions d'engagements sur les réseaux sociaux numériques (RSN) et celles en Sciences de l'Information-Communication (SIC) et démontrent ainsi des divergences quant à la définition du terme. Il est question dans cet article de savoir si nous sommes engagé ou si nous nous engageons sur les réseaux sociaux et comment intervient cet engagement sur les différentes plateformes.

Les réseaux sociaux numériques redéfinissent-ils l’engagement ?

 
Les réseaux sociaux numériques redéfinissent-ils l’engagement ?
 

La socialisation de la notion d’engagement s’est fortement élargie au fil des ans et le mot « engagement » semble être de plus en plus utilisé, notamment sur le Web.
À l’élargissement des usages répond l’hétérogénéisation
des définitions, la notion revêtant rarement la même signification d’un texte à l’autre, d’un usage à l’autre.
Après s’être encore interrogés, certains d’entre nous (Amato et Boutin 2012) posions une nouvelle fois ce type de question. S’engage-t-on ou est-on engagé, par exemple ?
En Sciences de l’Information et de la Communication (SIC), la communication engageante a acquis valeur de paradigme (Bernard 2018).

En marketing et dans la littérature anglo-saxonne,
le mot engagement a longtemps renvoyé à la conception
de Morgan et Hunt qui s’exprime par le mot commitment.
À ce stade, il convient de préciser que plusieurs mots anglo-saxons renvoient au mot français « engagement » :
bond / binding, commitment, involvment, pledge, engagement. Or l’orientation, et peut-être surtout la force des liens constituée par ces engagements, peuvent varier de manière significative. Il peut même exister des cas où,
au sein d’une communauté donnée, l’acception du même mot renvoie à des orientations différentes. Helme-Guizon
et Amato avaient éprouvé la nécessité de clarifier leur positionnement pour définir leur usage du terme.
Ils développaient aussi un propos s’adressant principalement aux membres de la discipline sciences de gestion mais s’inspirant fortement de travaux développés en psychologie sociale, dans une perspective info-communicationnelle.

Différentes communautés semblent donc venir apporter leur conception de l’engagement : communautés
scientifiques, communautés linguistiques, communautés d’usages et de pratiques, communautés culturelles…

Aujourd’hui, la question de l’engagement paraît renouvelée par les réseaux sociaux numériques (RSN), à considérer en tant que dispositifs socio-techniques. Qu’en est-il vraiment ?

L’engagement des réseaux sociaux numériques

Aux définitions académiques s’ajoutent un ensemble d’autres définitions. Certaines d’entre elles sont liées à des grandes institutions et à leurs systèmes de valeurs institutionnelles (l’armée, les organisations religieuses,
le mariage, etc.), d’autres ont émergé dans la sphère
de l’économie et du marketing. Des marques, des produits
et les RSN semblent aujourd’hui créer leur propre définition de l’engagement. Dans le contexte de certains services,
il peut être décrit comme « le niveau d’immersion dans
une expérience » (Amato 2018). Prenons le cas de Twitter.
Ce RSN distingue l’engagement et le taux d’engagement.

Pour définir le taux, il est nécessaire de prendre
en compte le nombre d’impressions. Voici donc les trois définitions de Twitter¹ :

1
¹https://help.twitter.com/fr/managing-your-account/using-the-tweet-activity-dashboard

Si les RSN sont différents, le « taux d’engagement »
se rapproche généralement du calcul suivant :
Taux d’engagement = nombre d’interactions / nombre d’impressions x 100

Pour Google Analytics, l’engagement désigne toute interaction des utilisateurs avec un site ou une application.

 

Pour Facebook, le taux d’engagement correspond au nombre d’individus qui ont aimé, partagé, commenté ou cliqué sur une publication par rapport au nombre total
d’individus qui ont vu cette publication. Cet indicateur est censé permettre la mesure de l’intérêt des internautes pour une publication en particulier.

De façon générale ces définitions trouvent leur origine dans une façon d’envisager le marketing, l’engagement publicitaire désignant le fait d’interagir avec un élément publicitaire.

Dans toutes ces définitions, nous pouvons d’ores et déjà constater deux faits qui nous paraissent importants, concernant l’ « engagement des RSN » :

Ni le sens (informatif, affectif ; positif, négatif) ni le coût que peut revêtir ce mini-acte pour celui qui le produit n’apparaît réellement bien pris en compte.

Le taux d’engagement est une métrique qui semble particulièrement utile pour les community managers afin
– c’est du moins ce qui semble être présupposé – de leur permettre, de façon utilitaire, de chercher à optimiser l’impact de leurs pratiques, de leurs messages (cf. critères intrinsèques de viralité indépendamment de la structure réticulaire des followers), de façon comparative et « scorée », justement dans l’idée d’optimiser le « taux d’engagement », les interactions avec notamment une marque,
un message, un individu. Ainsi, « L’animation de communauté peut quant à elle faire référence,
en termes de métrologie, à la notion «d’engagement» plus que de notoriété, c’est-à-dire de participation des publics
à la communication des organisations dans le cadre sociotechnique offert par les plateformes numériques, par exemple, en posant une question à «sa communauté» afin de la faire réagir. » (Alloing et Pierre 2019 : 90-91).

Ce taux devient de plus en plus important chez ceux qui l’observent pour au moins deux raisons :

 

La plateforme Twitch, quant à elle, présente de façon directe et explicite son petit traité de « rétention des nouveaux spectateurs »² à l'usage des jeunes gens.

2
²https://www.twitch.tv/creatorcamp/fr-fr/connect-and-engage/new-viewer-retention/

L’implication est à nouveau au centre des préoccupations :
« Twitch propose aussi un certain nombre d’outils pour aider les créateurs à accroître l’implication des spectateurs sur leur chat et augmenter les chances qu’un nouveau spectateur revienne lors d’un prochain stream. » L’URL de la page qui porte cette proposition est intéressante car elle montre bien le lien étroit établi entre deux mots-clés :
« connect and engage ». Aussi, le titre « Impliquer les spectateurs » présent sur la page Web française est
la traduction de « Engaging Viewers », sur la page Web américaine de la plateforme de streaming. Il est alors possible de s’interroger sur le choix opéré : fournir une sorte de précis de « captologie » (Fogg, Cuellar et Danielson) appliquée au streaming plutôt que des conseils plus liés aux contenus (e-sport, talks, etc.).

Ces pratiques sont aujourd’hui intégrées par une large population. La figure de l’individu influenceur semble avoir été institutionnellement légitimée puisque le mot
« influenceur » a été introduit dans l’édition 2021
du Larousse, avec deux définitions :

 
On note que la première définition met l’accent sur la visibilité médiatique plutôt que sur la légitimité. Dans une forme de réplication de l’expérience de Milgram, il avait été effectivement
montré que la visibilité médiatique conférait aujourd’hui autant sinon plus de pouvoir d’influence que la légitimité de la valeur de la science (Oberlé, Beauvois et Courbet).

Par ailleurs, la question posée par l’engagement et les réseaux sociaux numériques a fait l’objet d’une autosaisine du Conseil économique, social et environnemental (Aschieri et Popelin) pour laquelle l’un d’entre nous avait été reçu en entretien privé. La troisième chambre de la République
a donc cherché, elle aussi, à s’emparer d’un sujet de première importance, en adoptant une acception du mot engagement. Déjà, la question des influenceurs est posée.

Elle paraît plus aiguë aujourd’hui avec
le développement des usages liés au Web de flux et à l’essor assez impressionnant de plateformes telles que Twitch que nous avons évoquée. La question du statut des jeunes influenceurs ne fait que depuis peu l’objet d’une réflexion quant à sa réglementation³.

3
³https://www.lemonde.fr/pixels/article/2020/06/25/le-senat-adopte-la-loi-pour-encadrer-le-travail-des-enfants-influenceurs_6044204_4408996.html?utm_term=Autofeed&utm_medium=Social&utm_source=Twitter#Echobox=1593111224


Il paraîtrait souhaitable d’adjoindre une dimension psychologique aux questionnements en cours afin
de déterminer si ce type d’activité pourrait entraîner des
« comportements excessifs et problématiques avec Internet », voire des « troubles addictifs » (Courbet, Fourquet-Courbet et Amato), notamment liés à un « engagement » mal maîtrisé. Effectivement, la « génération 3.0 » (Lardellier) apparaît hyper-connectée, « communique
à outrance », très souvent en solitaire. Sur des plateformes qui voient émerger des pratiques gagnant en puissance, il est possible de constater le cas de streamers débutants désirant accroître leur « commu » (pour communauté) et les gains financiers générés, en s’appuyant sur les chiffres fournis par les dispositifs eux-mêmes. Il s’agit souvent de conquérir
et de fidéliser un nombre important de followers ou
de viewers. Les chiffres fournis deviennent un miroir digital de désirabilité sociale, filtre et philtre, donc, puisqu’il s’agit de susciter un attachement fort. C’est donc beaucoup
à travers eux que les influenceurs, ou ceux qui cherchent
à le devenir, se perçoivent et perçoivent ceux qui les suivent.

Dans un contexte d’économie de l’attention (Citton),
de capitalisme des émotions (Alloing et Pierre 2017), dans lequel émerge un « digital labor » (Cardon et Casilli), le mot engagement pourrait apparaître comme vidé de
sa substance et il ne servirait plus guère qu’à scorer
des intérêts mutuels même si déséquilibrés, entre des plateformes et ses usagers, quitte à encourager des pratiques pas toujours vertueuses.


L’engagement en SIC : aspects théoriques et praxéologiques

Une proposition consistante concernant l’engagement
a émergé à partir de « migrations conceptuelles entre SIC
et psychologie sociale » (Bernard 2007).

Auparavant, une distinction capitale entre deux types de raisons de l’engagement est établie (Bernard et Joule). Celui-ci peut être interne ou externe :

La différence est d’importance car dans le premier cas,
« le sujet s’engage » alors que dans le second cas, « le sujet est engagé ». Cette dernière formulation est parfois difficile à faire admettre car, implicitement, cette conception d’un individu engagé par une situation sociale donc en quelque sorte malgré lui (vs. qui s’engage) vient souligner les limites de la rationalité humaine.

Plusieurs définitions viennent éclairer cet engagement : Dans leur recherche, Kiesler et Sakumura énoncent dès
le résumé de l’article (Kiesler et Sakumura 349) :
« Commitment is defined as a binding of the individual to behavioral acts […] » (l’engagement est défini par un lien entre l’individu et ses actes comportementaux). Plus loin dans le texte (p. 350), il est écrit : « […] the model assumes the subject is pledged or bound by the performance of an overt act. » (le modèle suppose que le sujet est engagé ou lié par l’exécution d’un acte manifeste.) Il nous paraît très important de noter que les mots commitment, binding, pledged, bound traduisent des liens forts qui vont au-delà
de ceux qui peuvent être associés à l’idée d’implication.

Par la suite, la définition va être retravaillée :
« L’engagement correspond, dans une situation donnée, aux conditions dans lesquelles la réalisation d’un acte ne peut être imputable qu’à celui qui l’a réalisé » (Joule et Beauvois 60). Ici, le lien devient la conséquence de l’engagement et,
là encore, la nuance est capitale : il y a création de lien parce qu’il y a eu engagement.

Prenons un exemple tiré de Freedman et Fraser. Se voir proposer librement par un membre du comité communautaire pour la sécurité routière d’apposer
un autocollant sur lequel il est écrit « Conduisez prudemment » relève d’un engagement externe. Il ne s’agit pas d’un acte réalisé spontanément sur la base de sa volonté.

Il s’agit donc d’étudier les conditions situationnelles générant de l’engagement. Pour Joule et Beauvois (op. cit.), qui ont établi une solide théorisation à laquelle nous nous référons, il existe deux grandes catégories : la taille de l’acte et les raisons de l’acte. Des situations qui suivent, nous pouvons trouver des exemples concernant des interactions médiées et médiatisées sur Internet.

 

La taille de l’acte

La visibilité de l’acte :

Un acte réalisé en public est plus engageant qu’un acte réalisé de façon anonyme. Par exemple, afficher
sa photographie, sa véritable identité (vs. pseudonymat) est une façon, sur Internet, d’être engagé par un acte public.

Un acte explicite est plus engageant qu’un acte ambigu.
Par exemple, la participation à une pétition en ligne renvoie normalement de façon univoque à une conviction plutôt qu’à un acte ambigu.

Un acte irrévocable est plus engageant qu’un acte révocable. Par exemple et de façon implicite, pour les twittos avertis, le fait de poster un message sur Twitter rend l’acte pour ainsi dire irrévocable. Effectivement, il suffit que le message soit retweeté pour qu’il échappe au contrôle de son premier
émetteur. Ainsi, il existe des comptes (exemple : @FallaitPasSuppr pour « Fallait pas supprimer » qui visibilisent à nouveau des messages d’autres comptes ne les assumant plus et ayant cherché à les effacer a posteriori. Par là même, @FallaitPasSuppr contribue à illustrer l’« effet Streisand4 ».
4
4https://www.franceinter.fr/emissions/la-fenetre-de-la-porte/la-fenetre-de-la-porte-24-decembre-2018

Un même acte répété plusieurs fois produit plus d’engagement qu’un acte réalisé une seule fois. On notera qu’il peut s’agir d’actes différents si ces derniers ont
la même signification du point de vue de celui qui les émet. Par exemple, plusieurs micro-actes répétés (tels des clics de souris) sont plus engageants qu’un seul lors de l’interaction qui motive l’action considérée.


L’importance de l’acte :

Un acte est d’autant plus engageant qu’il est lourd
de conséquences. Par exemple, pour
un étudiant, un questionnaire à choix multiple (QCM) en ligne sera perçu comme ayant plus de conséquences s’il a un impact concernant l’obtention d’une unité d’enseignement (UE).

Plus un acte est coûteux en temps, en énergie ou en argent, plus il est engageant. Par exemple, avoir à rédiger soi-même un texte est plus engageant qu’avoir à valider par un clic
un texte ayant pourtant la même signification globale.


Les raisons de l’acte

Les raisons d’ordre externe (i.e. récompenses ou punitions, par exemple) désengagent tandis que les raisons d’ordre interne engagent. Par exemple, suivre des propositions gouvernementales5 et adopter certaines « […] pratiques numériques face à l’urgence », sans pour cela avoir été contraint ni indemnisé, renvoie à une forme d’engagement attribué à des sources causales internes.

5
5https://www.gouvernement.fr/risques/s-engager-pour-aider-en-cas-de-crise

Un acte est d’autant plus engageant qu’il est réalisé sans pression extérieure. Il s’agit même peut-être
là de la condition la plus importante pour qu’il y ait production d’engagement. En 2003, Jacob, Guéguen et Pascual parvenaient à induire un effet en faisant cliquer
des sujets expérimentaux sur un lien se présentant sous
la forme d’un bouton sur lequel il était écrit « Vous êtes libre de cliquer ici ». Nous faisons quant à nous l’hypothèse qu’en 2020, la « culture 2.0 » ayant infiltré les esprits, le type d’interaction induit le sentiment recherché. Ou alors,
la formulation traditionnelle explicite de l’évocation sémantique d’un sentiment de liberté - peut-être aujourd’hui datée - serait à réviser pour ne pas apparaître étrange.
Cet aspect serait à réévaluer expérimentalement.

On voit bien que pour qui sait manipuler certaines circonstances, il devient envisageable de créer des conditions sur le Web qui rendent un acte, aussi minime soit-il – tel un clic de souris – engageant. Formulée ainsi, la proposition pourrait presque aller dans le sens des taux d’engagement
définis par les RSN. Mais la communication engageante inclut la délicate question du sens de l’acte, comme abordé précédemment. La question s’en trouve complexifiée et pourrait trouver deux exemples triviaux dans les questions « Ce que liker veut dire ? » ou « Ce que cliquer veut dire ? ».

Effectivement, un algorithme, aussi sophistiqué soit-il, est-il-capable d’évaluer et donc de pondérer l’intensité que porte un « Like » ou un « clic de souris », l’éventuel « second degré » qu’il contient, sa signification subtile… ?
C’est un peu le sens d’un questionnement ouvert à propos du « sens du clic » (Amato 2014).

Si la conjugaison de toutes ces variables – ici présentées avec des exemples issus d’horizons différents – renforce
le lien entre l’individu et ses actes comportementaux,
la présence d’une seule d’entre elles peut suffire à générer
de l’engagement. Mais si celui qui cherche à optimiser
et assurer la force du lien essaie d’agir sur toutes
les variables en même temps, le chercheur expérimentaliste préférera souvent le principe de parcimonie (cf. lex parsimoniae, ou, autrement, rasoir d’Ockham) afin d’isoler la ou les variables les plus déterminantes.


Les engagements et l’engagement : entre divergences et continuités

Nous avons choisi de ne citer que deux façons de présenter l’engagement en SIC qui pourraient apparaître comme présentant certains points de contact. Nous n’abordons pas d’autres modélisations ou théorisations, telle celle d’inspiration goffmanienne (i.e. engagement / pare-engagement).

Dans ce qui précède, nous pouvons extraire des points communs et des points de divergences.

Le plus simple serait de ne considérer que le mot
« engagement » sans prendre en compte ce qu’il recouvre. Nous avons pu constater qu’issu de la littérature anglo-saxonne et ainsi traduit en français, son origine renvoie
à plusieurs mots et surtout significations. L’engagement
des RSN évoque plutôt l’idée d’implication sans que l’on ne puisse en dire beaucoup plus. L’engagement, en SIC, (commitment, binding, pledged, bound), traduit, évoque plutôt l’idée de promesse, d’obligation, de gage ou
de garantie. Nous pourrions dire que nos actes nous obligent et nous définissent, quand il y a engagement (cf. variables contextuelles). Ajoutons que la nature du lien qui unit l’individu à ses actes comportementaux reste floue, contingente et dépendant du dispositif socio-technique, quand il s’agit de tenter de définir l’engagement des RSN. L’engagement tel qu’il est formulé en SIC est quant à lui ciselé, univoque, précisément défini, donc.

L’engagement des RSN relève plutôt du registre
de l’interaction tandis que l’engagement tel qu’il est connu en SIC embrasse l’interaction et le champ beaucoup plus riche et complexe de la communication.

On peut considérer qu’il n’existe pas de théorie des engagements sur les RSN, ce qui présupposerait d’ailleurs que ce type d’engagement ne relèverait pas seulement d’une sous-catégorie de la théorie générale de l’engagement.
Celle-ci, quant à elle, a aujourd’hui valeur de paradigme. Rappelons que Kurt Lewin, s’il ne l’a pas formulée explicitement, en avait saisi et pour ainsi dire appliqué
les principes lorsqu’il a travaillé sur des problématiques
de communication sanitaire, aux États-Unis, durant la Seconde Guerre mondiale. Et c’est à lui que l’on attribue la célèbre formule « Il n’y a rien de plus pratique qu’une bonne théorie » qui prend ici un sens particulier.

S’il est évident que l’engagement des RSN peut être intégré dans des formes de communication d’influence,
les choses sont plus subtiles concernant la théorie
de l’engagement et la communication engageante.
Les théories de l’influence, en communication, s’y intéressent (Bernard 2015). Cela ne manque pas de poser des réflexions d’ordre éthique. Et même si les « applications »
de la communication engageante s’inscrivent très majoritairement dans un programme de recherche ouvert concernant la communication d’action et d’utilité sociétales (Bernard 2006), concernant principalement environnement et santé, des débats ont lieu (Le Cornec Ubertini).
Au-delà de ces débats, notons que deux études (Dillard, Hunter et Burgoon ; Dillard et Hale) montrent qu’une technique trouvant ses soubassements dans la théorie de l’engagement influence effectivement les comportements individuels, que la requête soit pro-sociale ou commerciale, mais que la taille des effets est plus importante dans le cas des requêtes pro-sociales.

 
L’engagement : questions de traduction, de significations mais aussi enjeux d’interdisciplinarité
En introduction, nous avons peut-être été un peu vite en écrivant que plusieurs mots anglo-saxons se traduisent par le seul mot « engagement », en français :
bond / binding, commitment, involvment, pledge, engagement. En effet, nous avons ensuite traité d’engagement de façon quelque peu indifférenciée.

Nous avons, à dessein et pour délimiter notre propos, restreint notre article aux SIC et à la psychologie sociale. Voire à certaines façons de concevoir la notion dans ces disciplines ou des disciplines voisines. D’autres mises en relation peuvent être proposées dans le champ des SHS
et tout particulièrement de la sociologie. Par exemple, nous aurions pu aborder la conception de l’engagement (involvment) pour le sociologue américain Howard Becker, inscrit dans la tradition de l’École de Chicago.
Dans son texte, traduction d’un article initialement publié en 1960, le distinguo entre « s’engager » et « être engagé » est déjà présent : « la distinction entre l’engagement comme action (ou engagement en acte) et l’engagement comme état est malaisé à traduire en français, la langue anglaise permettant de distinguer plus clairement ces deux modalités de l’engagement. Nous avons traduit “made a commitment” par “s’engageant” et “being committed” par “étant engagé” » (Becker 182). Nous aurions aussi bien évidemment pu aborder, dans une autre perspective - celle de l’interaction
en face-à-face - les idées d’engagement (involvment)
et de pare-engagement (involvment shield) pour Erving Goffman. Ces mises en regard textuelles et conceptuelles peuvent donc être poursuivies… le chantier reste ouvert.

INTRO


Cet article porte sur les récits écologiques et numériques, et sur les modifications qu’ils prédisent pour la société. Philippe Pochet nous parle dans un premier temps de ces deux notions de manière séparée afin d’en comprendre leurs points essentiels. Dans un second temps, il les regroupe dans le but de montrer l’importance de les rassembler de manière cohérente pour pouvoir progresser sur ces deux points pour l’avenir de la société.

Numérique et écologie : comment concilier ces deux récits de l'avenir ?

 

 

Résumé : 

Notre avenir sera façonné par une double transition, numérique et écologique. Mais ces deux récits sont encore écrits séparément et ne dessinent pas le même futur. L’enjeu pour la social-démocratie dans les décennies qui viennent est de les articuler de manière cohérente.

Plan:

  1. Comprendre et concilier deux métachangements
    1. Adaptation ou révolution ?
    2. Une hiérarchisation ?
    3. Les convergences
    4. Les différences
  2. Un socle commun : développer un récit positif
  3. Un changement de narratif en deux temps 
 

Nos sociétés sont confrontées à des changements multiples auxquels les acteurs politiques peinent à trouver un sens. Avec l’élection de Donald Trump, le Brexit et la montée des populismes et de l’autoritarisme, on pressent bien qu’il se produit une rupture. Mais laquelle ? D’un côté, on constate la montée de la demande de protection et une remise en question de la globalisation. Mais de l’autre, on voit s’imposer des programmes de dérégulation économique. La social-démocratie, dont les programmes semblaient plus que jamais d’actualité, paraît pour le moins désorientée. Après avoir symbolisé la lutte des classes, puis l’intégration des plus défavorisés aux classes moyennes et la protection sociale pour tous, elle peine à se renouveler. Elle avait réussi à répondre aux enjeux centraux du siècle dernier. Mais quels sont les enjeux centraux d’aujourd’hui ?

L’un des principaux est de combiner les deux grands récits qui vont façonner notre futur : la digitalisation de l’économie (et de la société) et les conséquences du changement climatique. Ces deux récits nous prédisent des modifications radicales. C’est un chantier énorme, car les forces sous-jacentes qui animent ces récits vont en partie dans des directions opposées. Par exemple, on ne peut pas dire que la France doit être le leader global dans le nouveau monde des big data et de la révolution technologique et en même temps prôner un social-écologisme soutenant les circuits courts et la démocratie locale. Ou alors il faut dire clairement comment concilier les deux objectifs. C’est pour répondre à cette nécessité que la social-démocratie devra renouveler son offre politique.

Numérique et lutte contre le changement climatique : c’est en inscrivant ces deux aspects fondamentaux de notre avenir dans un ensemble commun, au lieu de les considérer en parallèle, qu’un nouveau discours peut être fécond. Il devra aussi tenir compte du contexte politique : quelles alliances, quelles coalitions majoritaires possibles dans un temps de rétrécissement de la base électorale et de fragmentation de l’espace politique ?

 

Les politiques destinées à faire face, d’un côté, au changement climatique. et, de l’autre, à la digitalisation de l’économie auront d’énormes impacts sur l’emploi, la forme des entreprises et les conditions de travail [Degryse, 2015 ; Laurent et Pochet, 2015]. Or elles font très rarement l’objet d’une approche intégrée. Quand on inscrit ensemble les mots « numérique » et « climat » dans un moteur de recherche, on est surpris par le faible nombre de résultats. Sur le site de France stratégie, le think tank du gouvernement français, les deux termes sont bien associés, mais les études sont cloisonnées. Et lorsqu’on trouve un lien, c’est de manière subordonnée, par exemple dans des contributions sur le coût énergétique croissant de la révolution numérique, ou sur la façon dont celle-ci peut favoriser la transition écologique.

Comprendre et concilier deux métachangements

 

Les communautés académiques qui travaillent sur le climat et sur la numérisation ont, les unes et les autres, des visions prospectives dans leurs spécialités. Mais il ne peut y avoir plusieurs futurs. La tentative de conciliation n’est pas simple. Les acteurs et les dynamiques sociales ne sont pas les mêmes. Les futurs possibles restent, dans les deux cas, des questions ouvertes. Certains aspects sont relativement bien documentés (les émissions de CO2 par exemple), mais d’autres demeurent inconnus ou controversés, en particulier les conséquences en matière d’emploi. La digitalisation menacerait 47 % des emplois selon certaines études [Frey et Osborne, 2013] ou moins de 10 % selon les résultats d’un travail récent de l’OCDE [Arntz et al., OCDE, 2016]. Il n’y a pas de déterminisme technologique ou climatique : tout dépendra de la manière dont les conséquences seront gérées. Certes, l’avenir n’est pas écrit, mais pour l’orienter, il faut pouvoir le penser. L’existence de deux narratifs séparés ne nous y aide pas.

 

Adaptation ou révolution ?

Première constatation, chacun de ces deux grands récits a (au moins) deux versions : pour certains, il s’agit d’une évolution certes profonde, mais sans rupture ; pour d’autres, d’une révolution, d’un changement de paradigme.

 

Dans la première version, le changement est considéré comme largement maîtrisable avec les moyens et les institutions de la société d’aujourd’hui. Il ne s’agit pas de changer de logiciel mais de l’adapter. Par exemple, il faut moderniser la protection sociale en l’adaptant aux nouveaux parcours professionnels. Cette approche se retrouve assez souvent dans les social-démocraties des pays nordiques, qui sont des économies ouvertes devant innover pour rester compétitives et ayant entamé une transition énergétique sans grands débats internes.

 

Dans la seconde version, il s’agit d’un changement de paradigme qui imposera de repenser des structures fondamentales de nos sociétés. Ceci signifie par exemple, pour un récit radical de la quatrième révolution industrielle (big data, ubérisation, robotisation, etc.), que nos enfants vont vivre dans un monde complètement différent du nôtre et occuper des emplois dont on ne connaît même pas le nom et la nature aujourd’hui. Selon le récit radical de la crise écologique et climatique, nous allons devoir trouver un modèle économique de décroissance et de nouveaux systèmes de redistribution et de protection sociale.

 

Évolutifs ou révolutionnaires, ces deux grands changements doivent évidemment être d’abord analysés séparément, car ils sont soumis à des forces et façonnés par des acteurs distincts. Mais il faut ensuite combiner différents scénarios et les hiérarchiser, avec une large incertitude sur les futurs plausibles. Par exemple, en matière de transport, va-t-on vers des véhicules électriques individuels (poursuite du modèle actuel) ? Ou bien vers le développement de transports collectifs (train, bus électriques, avec un investissement massif de l’État) et d’une mobilité « douce » (vélo et marche) ? Ou encore vers une sorte de BlaBlaCar électrique généralisé (collaboratif ou capitaliste) ? Les trois options sont possibles. Elles mixent environnement et technologies, mais représentent des enjeux et ont des conséquences très différents, qu’il s’agisse des acteurs (publics ou privés), des investissements ou de la géographie économique.

 

Une hiérarchisation ?

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Une approche des différences entre les transitions numérique et climatique a été proposée par la Fondation Internet nouvelle génération (Fing) dans une publication [2015] synthétisée comme suit sur InternetActu.net : « Si les transitions écologiques ont un but, elles ne connaissent pas le chemin pour y parvenir ; à l’inverse, si la transition numérique transforme le monde, elle ne sait pas toujours dans quel but. Ces deux transitions ont besoin l’une de l’autre pour coordonner leurs objectifs et leurs moyens. Il est nécessaire de rapprocher les acteurs du changement climatique des acteurs de la technologie. [1] (en anglais)"

Ce texte suggère, à juste titre, qu’il existe une hiérarchie entre les deux récits. La transition écologique s’impose de façon impérative, sous peine d’exposer la planète à des phénomènes extrêmes et irréversibles. En revanche, la numérisation n’est que la troisième, quatrième, voire cinquième, selon les auteurs, révolution technologique du capitalisme [Valenduc et Vendramin, 2016].

Notes
[1]"De la transition numérique à la résilience écologique », par Hubert Guillaud, www.internetactu.net, mars 2016.

 

Si elle est maîtrisée et encadrée, la transition numérique peut donc être pensée, de façon plus traditionnelle, comme un facteur de croissance et d’opportunités de redistribution. Il n’en est pas de même avec la transition écologique, qui remet en question plus profondément le modèle économique dominant, et en particulier la notion de croissance. C’est pourquoi elle pose à la social-démocratie et aux syndicats des problèmes plus difficiles.

Nous sommes donc bien confrontés à des scénarios qui se rattachent à deux visions de l’avenir. Reste à savoir comment les articuler tout en les hiérarchisant. On trouve, sur ce sujet, des points de convergence et des points de tension.

Cependant, il est vrai que certains aspects de la transition numérique émergent brutalement dans la vie quotidienne et requièrent des mesures rapides (tout en permettant des mobilisations, comme dans le cas d’Uber), alors que la transition climatique (hors événements extrêmes) est moins visible et peine davantage à mobiliser les acteurs collectifs.

 

Les convergences

Le premier point d’accord est qu’il faut s’attendre à une « rupture » en matière technologique (on a atteint un point de basculement, « disruptif », en matière de puissance des ordinateurs et de gestion des données) comme en matière de climat (le seuil d’émissions où le changement devient incontrôlable). Cela signifie qu’on ne retournera pas à l’état antérieur (le rêve des Trente Glorieuses), et aussi que le mouvement actuel de globalisation néolibérale prendra fin. La rupture implique une transition vers un état différent, et sans doute à terme plus stable. Cette transition se fera au cours des vingt ou trente prochaines années et ira en s’accélérant. Il s’agit donc en principe d’un processus dynamique plus que d’un grand basculement (mise à part l’hypothèse d’une catastrophe climatique).

Autre point commun : les deux récits s’ancrent dans une croyance fondamentale en la technologie. C’est évident pour ce qui concerne le « nouveau monde » digital, mais l’idée que le défi climatique sera relevé, au moins en partie, grâce aux technologies (solaires et éoliennes principalement) est tout aussi largement répandue. Toutefois, dans le premier récit, les évolutions technologiques sont plutôt des ruptures (machines apprenantes), tandis que dans le second, elles existent déjà (sauf peut-être la capture et le stockage du carbone) mais doivent être optimisées.

 

Cet accent mis sur l’importance de la technologie fait apparaître un nouveau point commun : dans les deux récits, l’éducation et la formation tout au long de la vie sont présentées comme le meilleur moyen de se préparer aux changements à venir. Cette conviction est partagée par la Commission européenne [European Political Strategy Centre, 2016] et par la gauche dans son ensemble. Mais quelles sont précisément les compétences nécessaires pour le futur ? La réponse n’est pas évidente : les compétences relationnelles, les capacités de collaboration et de « transversalité » pourraient être les plus utiles dans un monde où les machines apprennent de plus en plus vite et dépassent les compétences humaines dans un nombre toujours plus important de domaines.

 

Les différences

Inversement, ces deux récits divergent par d'autres aspects. En particulier à propos de l'espace pertinent à privilégier, de la compétition ou de la coopération, et, enfin, de l'égalité-inégalité jugée nécessaire. Le récit de la digitalisation nous dit : "Le monde est global et interconnecté." Ce renforcement de la globalisation entraîne une concurrence accrue entre les travailleurs de l'ensemble des pays, pour des tâches parcellisées, notamment via les plates-formes numériques. Cela touche aussi des fonctions jusqu'ici relativement protégées, comme la traduction. On voit émerger de nouveaux modèles productifs, notamment à partir des plates-formes capitalistes (comme Uber, Airbnb, Google, Facebook...), qui vont radicalement restructurer le tissu économique.

Le récit environnemental est, quant à lui, beaucoup plus attaché aux territoires. Il suggère un recul de la mondialisation du fait du coût croissant de l'énergie et de la réduction obligatoire des émissions liées au transport. L'échelle devient de plus en plus locale et l'accent est mis sur la nécessité de circuits courts (il faut cependant souligner qu'une partie du récit sur la digitalisation - les "makers", les imprimantes 3D, les nouveaux artisans - s'aligne sur ce nouveau localisme).

Voilà donc le premier point de rupture : local versus global, local globalisé ou encore global localisé. Quelle est l'échelle pertinente ? Les partis populistes ont choisi le national protecteur, mais où se situe la social-démocratie ? L'Europe, longtemps présentée comme un espace intermédiaire entre le national et le global, semble être devenue le lieu de la globalisation néolibérale voulue et subie. Elle n'est plus guère mobilisée comme champ de régulation pour le futur.

 

Dans le récit digital, les priorités sont mises sur la compétition et l'innovation. L'agenda digital européen se centre sur la compétition avec les Etats-Unis et la Chine pour le leadership mondial des technologies du futur. En même temps, la logique du numérique engendre des inégalités croissantes et accentue la concentration ("the winner takes all" [Thiel, 2016]). Le travail devient parcellaire (effectuer des tâches plutôt qu'avoir un emploi, être autoentrepreneur plutôt que salarié), les limites entre travail et loisir deviennent de plus en plus floues (on reste connecté en permanence). Et la classe moyenne se réduit progressivement.

Au contraire, le récit environnemental met l'accent sur la coopération, la nécessité de trouver des solutions communes. Pour réussir la transition climatique, la question de l'égalité est centrale, tout comme celle de la justice (justice environnementale et transition juste). L'agenda écologique comporte la réduction du temps de travail, s'appuie sur l'économie sociale au sens

large et insiste sur la capacité de retrouver le contrôle de son temps [Méda, 2013].

Pour conclure provisoirement, si les deux récits présentent quelques convergences, ils s'opposent sur des points essentiels : la conception du travail, l'attention portée à l'égalité, la réorganisation de l'espace. Ces divergences ne sont cependant pas toujours irréductibles - il est notable que les deux récits convergent sur l'idée d'un revenu de base qui permettrait à chacun de survivre dans ce nouvel environnement.

 

Qu'est-ce que cela implique pour la social-démocratie ? Tout d'abord, d'avoir un socle de base de principes à partir desquels aborder les deux récits. Ensuite, de fixer des directions, adaptables en fonction de la rapidité des changements. Enfin, d'articuler les différents niveaux d'action.

 

Face aux nouveaux enjeux, il nous faut consolider la réflexion sur ce qui constitue notre horizon : une société inclusive, où l'économie est un instrument et non une fin, où le travail et l'emploi visent le développement et l'épanouissement humain, où les inégalités sont réduites, où les risques sociaux et environnementaux sont pris en charge collectivement. Il existe dans la tradition sociale-démocrate au moins trois domaines - protection sociale, emploi, inégalités - qui méritent d'être mis en avant.

Un socle commun : développer un récit positif

1. Alors que notre protection sociale est menacée de régression, la question climatique pourrait fournir l'occasion d'inverser la tendance. Le réchauffement climatique, en effet, ne représente pas seulement un risque environnemental, mais aussi un risque social collectif [Laurent, 2011 ; Laurent et Pochet, 2015]. Or la couverture des risques collectifs est bien une affaire de protection sociale. Ainsi pouvons-nous repenser la transition en considérant que la protection sociale doit pouvoir couvrir le nouveau risque collectif que représente le réchauffement climatique. Mais les enjeux de transition et de protection concernent aussi l'économie numérique. Là, il ne s'agit plus d'assurer un nouveau risque, mais de combler les "trous" dans un système qui n'avait pas été conçu pour couvrir des travailleurs aux statuts et trajectoires multiples.

 

2. Deuxième axe : fournir des emplois de qualité. Les syndicats expriment la crainte que la transition détruise des emplois, mais des transferts sont possibles : si, là, des emplois sont perdus, ici, de nouveaux sont créés, notamment des emplois "verts". Ces derniers devront être "décents", au sens que donne à ce mot l'Organisation internationale du travail. Ce pourrait être l'occasion de rouvrir les débats sur la qualité du travail. Enfin, les tâches parcellaires que fournissent les plates-formes de type Uber ouvriront un champ de forte mobilisation, car les excès et abus sont toujours porteurs d'indignation, et, ainsi, de possible régulation.

 

 

3. Dernier point essentiel : les inégalités et la justice sociale. De nombreuses études ont montré que les handicaps se cumulent : les plus défavorisés en matière de revenus sont aussi ceux qui subissent les conditions écologiques les plus dégradées (bruit, pollution, etc.). Justice sociale et justice environnementale peuvent être envisagées de façon complémentaire [Laurent, 2011]. Du côté des travailleurs dépendant des plates-formes capitalistes "extractives" (c'est-à-dire où le centre monopolise les bénéfices), l'objectif pourrait être d'évoluer progressivement vers un modèle plus collaboratif, où les bénéfices seraient distribués entre les acteurs de coopératives numériques [Bauwens, 2015].

 

Comme le souligne Robert Boyer [2015], "aucune grande crise ne s'est traduite par un amendement à la marge du modèle antérieur [...]. Les révolutions technologiques ne portent leurs fruits qu'après la synchronisation d'un ensemble d'organisations, d'institutions, de compétences et d'interventions publiques [...]. La multiplicité des acteurs, des intérêts, des visions et des stratégies implique un long processus de tâtonnement, puis d'apprentissage, avant que s'affirme un régime viable à l'échelle d'une génération".

Un changement de narratif en deux temps

Un tel changement est, par essence, long, complexe, avec des avancées et des reculs, avec des conflits, parce que d'importants intérêts sont en jeu, notamment ceux des gagnants du régime précédent. Il faut donc prendre en considération la variable temporelle : tout ne va pas changer d'un jour à l'autre. D'où l'importance d'une direction claire mais flexible, adaptable aux différents scénarios.

 

Cela dit, les deux récits (révolution numérique, transition écologique) impliquent des contextes politiques différents. Dans le cas du numérique, on a affaire à des plates-formes capitalistes extractives (qui captent la valeur ajoutée) face à une fragmentation de la force de travail, parcellisée et globalisée (le plus souvent). Rien de neuf pour la gauche dans ce grand retour en arrière à la fin du XIXe siècle. D'une certaine façon, les recettes sont bien connues et la partie localisée des plates-formes (transport urbain, location touristique, livraison, services de proximité tels que le jardinage ou le baby-sitting...) est relativement facile à réglementer. Les luttes sociales et syndicales ressortent de répertoires d'action connus, y compris l'utilisation des ressources du droit pour requalifier les emplois.

 

En revanche, la question du changement climatique est bien plus complexe. Il s'agit de convaincre une large partie de la population, sur un temps très long, de se plier à des choix radicaux, qui touchent tant la production que la consommation. Une telle mutation devrait faire l'objet d'un consensus large et durable, au-delà des cycles électoraux [Stern, 2015]. Elle implique un changement fondamental des règles du jeu politique, qui consiste trop souvent à s'opposer (comme l'élection de Trump nous le rappelle) aux politiques menées par le gouvernement précédent.

 

Pour le moment, ce n'est pas à cette dynamique consensuelle qu'on assiste. L'émergence, à la gauche de la social-démocratie, de mouvements qui ont souvent un discours écologique structuré a fragmenté encore davantage le champ politique, au lieu de l'unifier autour d'objectifs communs.

 

C'est pourquoi il faudrait sans doute distinguer les stratégies à mener en fonction de l'horizon temporel. Pour les court et moyen termes, l'enjeu principal est de constituer une force de plus en plus puissante réunissant des syndicats, des mouvements sociaux, des ONG, et peut-être aussi des organisations de consommateurs sensibilisées aux questions de développement et de consommation durables, des entrepreneurs de PME, des indépendants ayant une vision "soutenable" - et souvent plus "juste" - de l'économie (économie circulaire, recyclage, nouveaux modes de gestion plus responsables et plus économes des ressources, etc.). Pourraient aussi s'y joindre les sous-traitants de grandes entreprises, les agriculteurs qui travaillent pour l'agro-industrie ou la grande distribution, souvent écrasés par les logiques financières de leurs donneurs d'ordres.

 

Pour rassembler le plus largement possible, les forces sociales-démocrates ne devraient sans doute pas présenter un programme revendicatif très long et détaillé. Il leur faudrait au contraire mettre en avant quelques points stratégiques susceptibles d'emporter l'adhésion la plus large possible. L'enjeu principal est de sortir d'un capitalisme prédateur. En termes d'espace pertinent, les lieux les plus favorables pour mener l'action sont certainement les grandes villes : malgré les déroutes électorales au niveau national, de nombreuses grandes agglomérations sont gouvernées par des équipes sociales-démocrates, le plus souvent en alliance avec d'autres partis de gauche, écologistes ou centristes. Elles sont des lieux d'innovation et d'expérimentation, y compris dans les nouvelles formes de gouvernance et de participation (voir, par exemple, les villes rassemblées dans le Cities Climate Leadership Group [C40]). Elles sont aussi les lieux d'un vécu partagé, au-delà des inégalités, qu'il s'agisse d'embouteillages ou de pollution de l'air. Ce sont, enfin, des espaces où les progrès peuvent être réalisés et constatés assez rapidement.

 

Mais il s'agit, à terme, de bâtir un véritable récit novateur, partagé non pas par une petite élite, mais par une large majorité des acteurs. Ceci est une tâche bien plus complexe, car les oppositions au changement seront frontales. Y parvenir passera par l'organisation de "tables de consensus" et de "tables de conflits". Les tables de consensus servent à examiner les points d'accord. Ainsi, entre les forces de gauche et du centre, les ONG et les syndicats, certains courants parmi les chefs d'entreprise, ou même certains opérateurs sur les marchés financiers, il existe déjà une série d'accords et de coopérations. Un exemple intéressant dans le domaine du changement climatique est celui de l'accord entre les syndicats britanniques (TUC) et Greenpeace. Les deux parties ont aussi formulé, dans ce même document, toutes leurs divergences, notamment à propos de la capture du carbone : les syndicats britanniques affirment qu'elle est possible, invoquant notamment l'utilisation des puits de pétrole, dont l'expérimentation est envisagée en Ecosse ; l'ONG, quant à elle, pense que la capture du carbone est une technologie sans issue. On peut noter que des désaccords sur bien des points n'empêchent pas de bâtir progressivement sur le socle commun. On n'élude ni les conflits, ni les difficultés, mais le dialogue permet au moins une conversation sur les désaccords, et donc la possibilité de progresser. C'est aussi ce qui s'est passé aux Etats-Unis avec l'alliance "blue-green" entre certains grands syndicats et des ONG environnementales. C'est une méthode difficile à pratiquer, mais en existe-t-il une autre quand l'objectif est de rassembler à long terme ?

 

Rassembler ses forces et les articuler de manière cohérente, constante mais flexible dans une perspective de long terme : tel pourrait être le nouveau mot d'ordre de la social-démocratie pour faire face aux défis des deux ou trois prochaines décennies.

INTRO


Il est question dans cet article du positionnement des entreprises vis-à-vis des logiciels privés et de la credibilisation des logiciels en libres acces dans le milieu du graphisme. Pour y repondre, l’association OLA adresse plusieurs questions relevant de l’implication sociale et de la liberté de chacun. Là où beaucoup de designers et graphistes utilisent les logiciels adobe, l’association prones l’utilisation de logiciels libres.

Licence libre , Pour ou contre ?

Est-il possible de faire du graphisme avec un logiciel sous licence libre ? Quels sont les défis et les opportunités liés à ce type d’approche ?

Pour répondre à ces questions, nous avons rencontré l'association Outils Libres Alternatifs, dont le mais est de promouvoir les principes du F/LOSS dans le domaine du design.

Back Office Bonjour OLA, qui es-tu exactement ?

 

Nous (Raphaël Bastide, Sarah Garcin et Bachir Soussi Chiadmi) portons tous deux casquettes : nous sommes designers et développeurs
soit au gui Studio, soit en freelance.
Nos activités quotidiennes impliquent beaucoup de programmation, nous nous sommes donc inévitablement impliqués dans la culture du logiciel libre qui fait tant partie de la scène

Pourquoi souhaitez-vous travailler avec des « outils alternatifs » au lieu du logiciel Adobe qu'utilise la plupart des designers ?

Au début des années 1980, Richard Stallman, développeur au MIT, prônait la libre circulation des informations issues du mouvement hacker.
Un jour, il s'est rendu compte que son imprimante Xerox ne lui envoyait aucun message d'erreur en cas de bourrage papier.

 

Lorsqu'il a essayé de le modifier lui-même, il a constaté que le code source du programme d'impression était « fermé » par l'éditeur.

 

Frustré par ces limitations, il se lance en 1983 dans le projet GNU (« GNU's Not Unix »), création d'un système d'exploitation dont le code source était ouvert et pouvait donc être modifié à volonté.

 

Ainsi, chacun peut facilement comprendre la technique de fonctionnement de son OS, le configurer et le modifier comme bon lui semble.

 

De nos jours, avec l'hégémonie d'Adobe, il nous semble que la plupart des artistes et designers se trouvent dans la même situation que Stallman en son temps.

 

En utilisant les mêmes logiciels de création propriétaires, ils se retrouvent confrontés à des interfaces et des fonctions préétablies, déterminées par l'éditeur, et ne peuvent les modifier. Nous avons créé l'organisation OLA pour promouvoir les alternatives.

Y a-t-il une forme d'implication sociale inhérente à cette démarche ?

Pour nous, utiliser des logiciels libres s'inscrivent dans une société plus ouverte, dans le respect des libertés de chacun

 

Notre approche rejoint la définition donnée par Ivan Illich [critique de la société industrielle] de « l'outil convivial » qui, dans son ouvrage, doit répondre à trois exigences :


Il doit susciter l'efficacité sans porter atteinte à l'autonomie...personnel

- Elle ne doit créer ni esclaves ni maîtres

- il doit élargir le rayon d'action du personnel.

 

Cependant, ces défis sociaux ne constituent pas la seule souffrance de l'OLA.
En utilisant ces « outils alternatifs », elle a pour objectif plus large de renouveler les résultats possibles avec l'informatique

Dans quelles initiatives spécifiques êtes-vous engagés ?

Pour l'heure, nous avons conçu un type d'atelier accessible à tous (professionnels, étudiants, enseignants, hackers, etc.), et gratuit pour les membres de l'association.
Chaque événement est organisé autour d'un logiciel libre, et nous invitons les gens à le découvrir à travers des productions individuelles et collectives.
Les speed talks, qui sont de courtes présentations de projets en dehors de l'atelier, galvanisent et rythment les ateliers.
Chaque atelier est un lieu d'échanges et d'apprentissages partagés, et nous avons progressivement constitué une communauté curieuse et critique qui s'est rassemblée autour de « l'utopie tangible » 3 du logiciel libre.
OLA s'inscrit à part entière dans le mouvement soutenu par d'autres initiatives comme l'Association April 4 , La Quadrature du Net 5 et l'Open Source Publishing Collective.
L'un de nos principaux enjeux est de dénicher les rarissimes artistes et designers francophones qui utilisent des logiciels libres et souhaitent partager leurs activités.

Comment décrivez-vous ce qu'ils produisent ?

Trois ateliers de deux jours ont déjà eu lieu à La Générale 7 , centre de création du 11 ème arrondissement de Paris.

« Experimenting With Free Publication [ OLA#0—Expérimenter l'édition libre ] » (mai 2015) , était consacré à Scribus , un logiciel libre de PAO .
Les participants ont travaillé autour du thème « Utiliser, Modifier , Diffuseur » , avec l'aide d'Aurélie Delafon, secrétaire de rédaction et maquettiste du magazine Le Tigre , aujourd'hui disparu , entièrement réalisé avec Scribus.
Cet atelier a donné lieu à la production d'un document imprimé représentant l'ensemble des contributions.

Le deuxième atelier, « Experimenting With Free 3D [ OLA#1 — Expérimenter la 3D libre ] » (octobre 2015) , animé par Aby Batti (game designer et co-fondateur du studio de jeux vidéo indépendant SharpSense), proposait de modéliser des objets imaginaires à l'aide du logiciel gratuit Blender.
Le résultat de l'atelier 8 a pris la forme d'un espace 3D en ligne ( WebGL ) , directement explorable avec un navigateur Web pour découvrir les projets de chacun.
Le troisième, « Experimenting with Pure Data [ OLA#2—Expérimenter Pure Data ] » (juillet 2015) était consacré à la création d'un instrument de musique numérique et physique.

Pourquoi avoir choisi des formes de transmission courtes (deux jours), sur « terrain neutre » , plutôt qu'une intervention à plus long terme au sein des écoles existantes ?

Le format atelier propose une implication complète dans une activité particulière, dans un délai fixé à l'avance, ce qui procure une expérience intense et non édulcorée.
Le court laps de temps nous permet de nous adapter aux horaires chargés des participants, qui sont rarement libres plusieurs jours de suite.

 

l'implication sociale,

 

le rythme de distribution (« sortir tôt, sortir souvent »)

 

et échanges de connaissances.

 

Par ailleurs, La Générale, qui hébergeait jusqu'à présent les ateliers OLA, est loin d'être un « terrain neutre »
Cette coopérative artistique, politique et sociale est un lieu socialement engagé, dont l'engagement correspond à notre propre philosophie.
Nous sommes également tous les trois professeurs dans des écoles d'art, où nous sensibilisons nos élèves aux logiciels libres.
Vous affirmez vouloir également sensibiliser les professionnels.

Pensez-vous que ces ateliers peuvent influencer leurs activités, alors que les logiciels présentés ne sont pas nécessairement les plus productifs (!), et sont toujours le fruit de l'imagination d'amateurs ?

L'une des premières idées d'OLA a été d'inviter des professionnels qui utilisent des logiciels libres dans leur travail créatif quotidien.
Ils nous montrent par exemple qu'il est possible de produire [des documents professionnels] avec ce genre d'outil.
Certains logiciels libres sont certes moins efficaces que leurs concurrents propriétaires, mais ce n'est pas vrai dans la plupart des cas.

 

De plus, leur paradigme d'utilisation n'est pas le même :
d'une part, certains logiciels se veulent universels (on peut pour ainsi dire tout faire avec eux), mais ils dissimulent leur architecture interne, alors que là où le logiciel libre est concerné, il forme un écosystème riche et varié aux permutations infinies.
Les progiciels gratuits sont plus spécifiques et sont conçus pour des tâches simples et spécialisées.
Le mirage du « super-outil créatif » est remplacé par la réinvention permanente des outils de production, qui permet un renouveau créatif.
Par ailleurs, les logiciels libres sont rarement le fruit de l'imagination d'amateurs – car il faut un minimum de compétences techniques – mais sont développés par des professionnels pendant leur temps libre, ou financés par des entreprises.
Chacun est donc libre, au cas par cas, de choisir l'outil qui lui convient le mieux.
L'essentiel est d'avoir le choix.

Ne craignez-vous pas que le spectre très large des progiciels présentés (travail graphique imprimé avec Scribus, modélisation 3D avec Blender, sound design avec Pure Data) n'offre qu'un aperçu succinct et relativement technique des outils ?
Les activités des participants ont-elles changé ?

Nous ne présenterons pas de logiciels, mais plutôt les activités personnelles et artistiques des personnes que nous invitons.
Ce sont des activités avec lesquelles les participants expérimentent.
Nous n'avons pas d'objectifs impliquant des niveaux de maîtrise des outils techniques.
Notre objectif est la découverte et l'expérimentation.
C'est pourquoi nous attachons une grande importance au résultat. Ce que les participants retenus sont propres à chaque individu et les retours sont positifs.

A terme, et compte tenu de votre modèle économique, comment allez-vous trouver le temps d'organiser ces événements gratuits ?
Comment allez-vous rassembler une communauté plus large et franchiser ce cap ?

Nous avons un modèle économique équilibré basé sur le volontariat et l'adhésion. Nous organisons ces ateliers pour le plaisir, et pour l'engagement social qu'ils représentent.

Comme les développeurs de logiciels libres, nous le faisons pendant notre temps libre, par passion et pour le plaisir de découvrir de nouveaux outils.

D'ailleurs, les institutions nous accompagnent dans cette démarche.

Par exemple, La Générale nous a mis à disposition un lieu et le Centre d'art Synesthésie à Saint-Denis, près de Paris, financera trois ateliers OLA en 2016-2017.


Cela nous permettra d'inviter des personnes hors région parisienne, et de les rémunérer. L'association est jeune et continue de grandir.
INTRO


Alors que l’intelligence artificielle devient de plus en plus utilisée, cet article observe les défis éthiques qui accompagnent son développement rapide. Depuis la justesse éthique de son utilisation jusqu’à l’effet qu’elle peut avoir sur une société, Joé T. Martineau insiste sur l’importance d’une réflexion éthique vis-à-vis de cette technologie en progression constante.

Transition numérique et intelligence artificielle : d’importants enjeux éthiques à surveiller

TRANSITION NUMÉRIQUE
ET
INTELLI
GENCE ARTIFICIELLE :
D’IMPORTANTS ENJEUX
ÉTHIQUES
À
SURVEILLER JOÉ T.
MARTINEAU

Transition numérique et intelligence artificielle : d’importants enjeux éthiques à surveiller 


Alors que l’intelligence artificielle se fait de plus en plus présente et que la transition vers le numérique permet aux orga-nisations de gagner en efficacité, des voix s’élèvent pour appeler à un questi-onnement éthique sur ces avancées tech-nologiques. Voici un aperçu des prin-cipaux enjeux à surveiller dans ce domaine. Les technologies occupent une place grandissante, tant dans la vie des individus qu’au sein des organisations. Au cours des dernières années, elles ont fait des pas de géant et sont aujourd’hui capables de réaliser des tâches variées et de plus en plus complexes. Certaines d’entre elles, en particulier l’intelligence artificielle (IA), ont progressé à une vitesse stu-péfiante et ouvrent des perspectives qu’on peinait à imaginer il y a deux décennies à peine. Source de progrès, l’introduction massive de ces technologies soulève aussi bon nombre de questions. C’est ici que l’éthique entre en scène…


Utilisation, explicabilité, responsabilité et sens moral


Grâce à l’exploitation des données mas-sives et au recours à l’apprentissage profond (deep learning), l’IA connaît un essor sans précédent. Le secteur de la santé en a largement bénéficié – la radiologie diagnostique, par exemple –, mais ce n’est pas le seul domaine où l’IA permet d’améliorer les pratiques. L’IA est aussi à l’œuvre dans les services professionnels,  le commerce de détail et une foule d’autres domaines où l’analyse de données, l’auto-matisation et l’amélioration de la prise de décision peuvent générer de la valeur. Pour les organisations, ces avancées techno-logiques visent l’amélioration des processus, de la performance et, éventuellement, de la rentabilité, d’où le vif intérêt qu’elles leur portent. Or, il y a encore peu d’encadrement réglementaire de l’IA, et même si certaines lois sont proposées, les progrès dans ce domaine sont si rapides que de futures régle-mentations pourraient devenir rapidement obsolètes. D’importants enjeux éthiques liés au développement de l’IA ont trait à la gouvernance des données. En effet, les technologies d’intelligence artificielle mobi-lisant l’apprentissage automatique s’ap-puient sur une énorme quantité de données pour entraîner leurs algorithmes. Par conséquent, les données sont devenues des ressources précieuses et convoitées par différents acteurs publics et privés. De nombreux enjeux éthiques sont donc liés à la nature même de ces données, à la façon dont elles sont collectées, entreposées, utilisées et partagées. Par exemple, peut-on dire qu’une personne a réellement consenti de façon volontaire et éclairée à l’utilisation et au partage de ses données personnelles parce qu’elle a coché rapidement une case afin d’avoir accès à une application mobile ? D’autres enjeux concernent directement les systèmes d’IA développés ou déployés dans les organisations. On peut se questionner d’emblée sur les objectifs poursuivis par ceux-ci. En effet, tout développement technologique n’est pas nécessairement souhaitable dans tout con-texte, et ce n’est pas parce qu’une avancée ouvre de nouvelles portes que nous devrions nécessairement les franchir. Pensons au clonage des embryons humains : nous savons que c’est possible scientifiquement, mais en tant que société, en prenant en compte diverses consi-dérations éthiques, nous avons décidé que ce développement n’était pas souhaitable. C’est un peu la même logique avec certaines applications d’IA qui ne cor-respondraient pas nécessairement à notre vision du bien commun ou du progrès social. De plus, même si plusieurs technologies ont été développées en toute intégrité, certaines d’entre elles peuvent présenter un potentiel d’utilisation mal-veillante ou non éthique. Par exemple, les robots tueurs et la militarisation de l’IA constituent une menace pour la vie humaine. Le double usage des technologies de l’IA dans le domaine de la santé peut également poser problème. Par exemple, dans le contexte de la pandémie de COVID-19, les applications de traçage pour pister les contacts des individus par le biais de la géolocalisation de leur téléphone portable ont fait l’objet de débats dans de nombreux pays, les législateurs se questionnant non seulement sur leurs avantages réels, mais aussi sur les risques de dérives. Se pose également l’enjeu de l’imputabilité. Par exemple, si une erreur venait à survenir à la suite d’une décision d’un professionnel de la santé soutenue par un système d’IA, notamment sur le choix d’un traitement ou d’un médicament à prescrire, à qui faudrait-il attribuer la responsabilité de cette erreur ? Au professionnel de la santé, au système d’IA, aux individus impliqués dans son développement,à l’entreprise qui l’a mis en marché ? Le fait de déléguer l’entière responsabilité décisionnelle et morale à des machines représente un autre enjeu éthique. Sommes-nous prêts à accepter que ces dernières en viennent, dans certains contextes, à remplacer complètement le jugement des individus ? De quelle façon les véhicules autonomes prendront-ils des décisions concernant la vie et la mort de piétons, de cyclistes ou de conducteurs d’autres véhicules ? Les robots - compa-gnons seront-ils à même de juger de situations qui ont une dimension éthique ? Autant de problématiques qui sont loin d’être résolues. Autre préoccupation ma-jeure : la confiance envers ces techno-logies et leur acceptabilité sociale. Ainsi, la confiance envers les technologies d’IA est indispensable à leur acceptation par les différents acteurs dans nos sociétés, qu’ils soient des professionnels, des ges-tionnaires, des décideurs ou des utilisateurs. Si le public est méfiant ou ne comprend pas le fonctionnement d’une technologie, il pourrait la rejeter, ce qui nuira nécessairement à son utilisation et à son adoption. De plus, pour certaines de ces technologies, notamment celles qui mobilisent l’apprentissage profond, il existe ce qu’on appelle un phénomène de « boîte noire » : il est parfois difficile de comp-rendre et d’expliquer comment le système est arrivé à une suggestion ou à une décision. Or, ce manque d’explicabilité est problématique, car moins un système est transparent, moins les utilisateurs lui feront confiance et voudront l’adopter. Au bout du compte, les entreprises pourraient avoir investi dans des technologies coû-teuses et sophistiquées qu’elles devront mettre au rancart, faute d’acceptabilité sociale. Par ailleurs, puisque leur app-rentissage repose sur des données et des décisions humaines parfois imparfaites, ces systèmes peuvent reproduire et amplifier les biais et les performances au détriment de certains groupes margin-alisés. C’est ce qu’on appelle la « discrimination algorithmique ».


Perturbation du marché du travail et fracture numérique


Mais, au-delà des enjeux liés à l’utilisation, à l’explicabilité, à la responsabilité ou au sens moral de ces technologies, il y a aussi la perturbation potentielle du marché du travail engendrée par l’intégration de l’IA, l’automatisation et la robotisation. Ces percées pourraient en effet se solder par la disparition ou la transformation de millions d’emplois dans tous les secteurs d’activité. Une véritable révolution qui entraînera la transformation profonde des tâches, des rôles et de l’identité pro-fessionnelle, et qui nécessitera une réflexion sur l’évolution du travail. Qui plus est, l’IA n’est jamais fatiguée : elle peut être à l’œuvre 24 heures sur 24, sept jours sur sept, et elle n’a pas d’attentes en matière de salaire, de conditions de travail ou d’avantages divers. Dans ce contexte, les entreprises peuvent être tentées de remplacer l’humain par la machine, surtout en période de pénurie de main-d’œuvre. Mais, au-delà de cette pénurie, la façon dont ces technologies viendront bouleverser le marché de l’emploi et les moyens que nous utiliserons pour nous adapter à ces transformations soulèvent des questions auxquelles il est encore difficile de répondre. Le risque de fracture numérique doit aussi être soigneusement soupesé. On sait que l’accès aux technologies d’IA est souvent limité aux personnes et aux organisations issues de pays riches ou de milieux socio-économiques favorisés. Ces inégalités renforcent les disparités sociales existantes et affectent considérablement la qualité et la représentativité des données disponibles pour créer, développer et déployer des systèmes d’intelligence artificielle qui respectent les principes d’équité, de di-versité et d’inclusion qui devraient se trouver au cœur de l’IA responsable. Mentionnons aussi les impacts envi-ronnementaux du développement de l’IA, compte tenu de l’énorme quantité d’énergie utilisée pour former les algorithmes d’apprentissage automatique, ainsi que l’infrastructure nécessaire pour soutenir leur développement et l’entre-posage des données. Ces facteurs gonflent la dette énergétique des tech-nologies d’intelligence artificielle.


Une nécessaire réflexion

l’IA responsable. Certaines organisations, comme
Accenture ou Microsoft, ont également mis sur pied des cadres normatifs en matière d’éthique de l’IA.
Mais le défi consiste à arriver à traduire ces principes de haut niveau en pratiques de gestion
concrètes. Pour réussir à intégrer ces principes dans la pratique, il sera essentiel de travailler en
interdisciplinarité. Les ingénieurs, les développeurs, de nombreuses catégories de professionnels et les experts
en éthique devront œuvrer main dans la main.Pour les organisations, les besoins en sensibilisation et en formation
sont grands. L’éthique est un sérieux enjeu susceptible d’avoir de lourdes répercussions qui peuvent aller
jusqu’à compromettre à la fois l’utilisation et l’adoption de ces technologies. Les organisations devraient donc
se montrer proactives et éviter d’effectuer une profonde transformation numérique sans se questionner sur les
enjeux éthiques que ce changement soulève.Il leur faudra aussi s’assurer que les technologies envisagées
auront effectivement un apport positif et seront une source
d’amélioration et non l’inverse. Là encore, l’expertise
des spécialistes en éthique
aidera à réaliser

un bilan des
enjeux propres à l’organisation et établira les bonnes
pratiques à intégrer ainsi que les précautions à prendre. La vigilance
est de mise, car la pression est forte pour adopter l’IA en
raison de ses avantages sur le plan de l’efficacité et
de la productivité.

Alors, comment s’assurer
que ces technologies soient utilisées à bon escient et éviter les dérives potentielles ? De
quelle façon réduire les risques sans compromettre le développement et la
croissance des entreprises ? Comment renforcer la confiance
des citoyens envers l’IA et son utilisation
par les entreprises ? Dans un tel contexte,
l’éthique
est devenue un incontournable. Rappelons
que celle-ci est une réflexion sur nos préférences,
nos choix et nos comportements qui vise le bien
commun. Elle doit aussi englober tous les acteurs de la société,
n’oublier personne et s’assurer de ne pas créer d’iniquité.D’ores et
déjà, de nombreux acteurs se sont mobilisés pour tenter d’établir des principes directeurs
en matière d’éthique des données et d’IA. Mentionnons, le groupe de l’OCDE sur l’IA, le Groupe d’experts
de haut niveau de la Commission européenne sur l’IA, la Feuille de route américaine sur l’IA, l’Observatoire
international sur les impacts sociétaux de l’IA et des technologies numériques
ainsi que l’Institut d’éthique de l’IA de Montréal, pour ne nommer
que ceux-là. En 2018, la Déclaration de Montréal pour un développement responsable de l’IA a aussi énoncé dix
grands principes à suivre. L’adhésion à ceux-ci demeure
toutefois volontaire. D’ailleurs, à travers le monde, il existe plus de 80 chartes de cet ordre qui visent à encadrer le
développement de

INTRO
Dans ce texte, Roxane Jubert aborde l’écologie de l’écosphère en se concentrant sur le domaine de la communication visuelle. Au vu du changement paradigmatique actuel, il est primordial que chaque concepteur prenne sa part de responsabilité vis-à-vis de l’environnement. Roxane Jubert développe l’idée que le design se doit d’intégrer les notions d’écologie et de responsabilité dans son système de conception.

La communication visuelle et graphique à l’aune des défis environnementaux : des priorités à redéfinir

 

 

Roxane Jubert

Enseignante-chercheuse à l’École Nationale Supérieure des Arts Décoratifs, Université PSL, EnsadLab Paris,France

 

 

 

 

Dans notre monde contemporain acculé par les enjeux environnementaux, la communication visuelle occupe
une place telle que ces défis rejaillissent fortement
sur elle: ils l’interrogent en profondeur, de façon toujours plus pressante. Percevoir ou admettre ces répercussions implique de nouveaux regards, focalisés sur la soutenabilité. Pour les pratiques graphiques, dans toute leur diversité,
cela suppose des approches renouvelées par l’intégration
de données et de priorités issues du monde extérieur
– à même de déplacer bon nombre de critères et de codes professionnels, tels qu’ils se sont progressivement constitués au fil du temps (en particulier depuis la massification
de la production et le déploiement des supports, à l’œuvre depuis le XIX e siècle). Pour l’essentiel, cette croissance graphique s’est opérée sans préoccupation environnementale, ce qui s’en ressent toujours largement01, et ce malgré les réels efforts et les implications de différents acteurs de la communication et de l’industrie graphiques. En soi, cet état de fait persistant constitue aussi un sujet d’étude fondamental, propice à expliciter notre monde
et à mieux le comprendre-

qu’il s’agisse, d’une part, de ses incessantes sollicitations visuelles, des modes de production et de consommation, des comportements, des stéréotypes ou des excès,

et, d’autre part, des espérances, des possibles, des propositions constructives ou des actions bienfaisantes.

Penser et concevoir le graphisme en accordant une place centrale aux questions écologiques

(qu’il s’agisse du milieu, de l’environnement, des ressources, de la soutenabilité, de la durabilité, etc.)

– indissociables des enjeux sociaux et économiques – obligent à un déplacement important, sur différents plans. En effet, une nette distanciation s’impose face
à ce qui constitue notre époque: le déferlement
des messages, l’omniprésence des images graphiques
et typographiques, l’état de saturation qui en découle (phénoménal, démesuré, et parfois étourdissant)
– le tout sur fond de vitesse, de court-termisme02, d’impératif de visibilité et de rentabilité.
De fait, l’une des réorientations majeures consisterait
à accepter et à adopter une vision globale, raisonnée
et volontariste, selon laquelle il ne peut plus s’agir
de produire toujours davantage – par défaut
ou par conditionnement, par plaisir ou par intérêt –,
mais de produire autrement, de se comporter autrement. Ceci suppose une forte considération pour ce qui relève
du contexte, des soubassements et des implications,
non seulement écologiques, sociaux et économiques,
mais aussi psychologiques, perceptifs, relationnels, etc.
La complexité de la situation, des phénomènes
et des mécanismes à l’œuvre nécessite tout à la fois
des clés de lecture, des analyses multidisciplinaires,
des investigations, des études d’impact,
des enquêtes, des données statistiques, des décryptages, etc. Nombreux sont les auteurs, à travers le monde,
qui apportent des éclairages fructueux sur la diversité
de ces sujets et enjeux (mis en relief depuis un demi-siècle)
– tels Lester Brown, Katherine Hayles, Naomi Klein
ou Amartya Sen. Pour prendre un exemple très significatif concernant la France, les publications de l’association Ars Industrialis, autour de Bernard Stiegler, apportent
de nombreux éléments féconds pour le cadre général
de ces réflexions. À la fin de l’ouvrage Réenchanter
le monde, les fondateurs de cette association décrivent
«un nouveau modèle industriel reposant sur le constat qu’après la matière, l’esprit est devenu la première ressource industrielle, en même temps que la seule chance
pour que la planète sache faire face aux énormes défis
qui l’attendent»03 (Stiegler et al., 2006, p.169).
Dans le livre Pour en finir avec la mécroissance, paru
il y a dix ans, Bernard Stiegler affirmait déjà
que «la nouvelle perspective économique est celle
de la contribution, qui ne s’inscrit plus dans le modèle production/consommation. Le modèle industriel consumériste est […] révolu […]. La question
est alors d’identifier les possibilités de constitution
d’un nouveau système» (Stiegler et al., 2009, p.17 et 21).
Désormais, l’on ne compte plus les auteurs dont les alertes convergent vers un appel à une mutation profonde,
et exhortent à interroger chaque secteur d’activité. Le monde graphique n’échappe pas à de telles visées – dignes du plus vif intérêt, salutaires et vitales au point de devoir s’instituer parmi les fondamentaux de demain.

 

1.  — Vers un graphisme responsable et soutenable

Nombre d’analyses et perspectives entrent
en résonance avec différents écrits consacrés au design
et à la communication soutenables, de Victor Papanek
à nos contemporains, sans compter les avant-courriers
tels William Morris. Dans son ouvrage fondateur Design
for the real world: human ecology and social change,
un manifeste célèbre et éminemment critique (publié initialement en 1970 en suédois), Papanek s’insurge contre «l’industrie, main dans la main avec la publicité
et le marketing» (Papanek, 1973, p.282). Déjà, il situe
et interroge le design du point de vue des «conditions optimales pour la société humaine sur la Terre […,]

du système écologique et éthologique dans sa globalité […, des] limites de nos ressources […, des] règles de gestion fondamentales de la vie humaine sur la planète Terre» (p.335 et 336).

Ce qui le conduit, en conclusion, à exiger que «les designers s’engagent à n’accepter aucun travail destructeur
sur un plan biologique ou social» (p.337). Bien que ce livre ne traite pas de design graphique, Papanek y dénonce avec véhémence le système publicitaire. Il pointe
là un phénomène de masse, qui ira croissant,
en contradiction avec la quête d’un design intégrant l’écologie. En effet, les estimations récentes du nombre d’impacts publicitaires reçus au quotidien varient beaucoup 04, mais affichent des chiffres pouvant aller d’environ 1500 ou 2500 à 15000 (ce qui, en tous les cas, apparait exorbitant – et constitue un axe essentiel de réflexion en vue d’une communication visuelle soutenable et non intrusive) 05. Cela se double d’une autre expansion majeure,
que rapporte d’entrée de jeu l’ouvrage Infobésité: «l’humanité a produit au cours des 30 dernières années plus d’informations qu’en 2 000 ans d’histoire, et ce volume d’informations double tous les 4 ans» (Aron et Petit [1997], cités dans SauvajolRialland, 2013, p.11). Il faudra attendre un certain temps pour voir publiés un ensemble de livres spécifiquement consacrés au graphisme soutenable.
Ces publications deviennent tangibles à partir de la fin des années 2000. Principalement étasuniennes, elles restent
peu nombreuses. Se succèdent ainsi les titres

 

Green graphic design (Dou - gherty, 2008),

 

Sustainable graphic design (Jedlicka, 2010),

 
 

Sustainable graphic design: principles and practices (Fine, 2016),

 
 
 

Design to renourish: sustainable graphic design in practice (Benson et Perullo, 2017).

 
 
 

En France, la réception de cette littérature n’a pas encore
eu lieu. Pour preuve, le gigantesque Catalogue Collectif
de France n’indique en tout et pour tout qu’un seul exemplaire de chacun de ces titres, tous à la bibliothèque
de l’École Nationale Supérieure des Arts Décoratifs06.
Dans Green graphic design, Brian Dougherty présente
la méthode inspiratrice du designing backwards
[concevoir ou designer à rebours], qui consiste
à considérer d’abord la fin du cycle de vie d’un projet
, pour remonter progressivement jusqu’au studio
de design – complété d’un processus décrit en six phases:

 

déchet, utilisateur, livraison, entrepôt, reliure, impression (p.48-49).

 

L’ouvrage Design to renourish, paru récemment, contient
un entretien avec le studio de graphisme barcelonais
La Page Original, lequel explique avoir «développé
un système pour mesurer l’impact environnemental
de [ses] projets, basé sur une analyse du cycle de vie»
(p.82). De tels ouvrages restent sans équivalent en langue
française. Tout porte néanmoins à croire ou à espérer
que cet état de fait évoluera à moyen terme. Aujourd’hui,
il est possible de considérer que les pratiques graphiques
et tout ce qui les constitue sont reliés à deux hémisphères vitaux:

                          d’un côté, leur histoire (dans le temps long),

et de l’autre les problématiques écologiques, voire écosophiques

 

– qui font sens et interpellent de façon complémentaire.
Pour ce qui est de l’histoire du graphisme, il a fallu attendre,
en France, le tournant des années 2000 pour qu’elle trouve
vraiment sa place, bien après la parution de l’ouvrage
fondateur de Philip B. Meggs A history of graphic design,
en 198307. De tout cela ressort la question des enjeux relatifs
à une véritable connexion entre la pratique, son histoire
et l’environnement ou l’écologie – considérés dans différente articulations possibles. En comparaison du design
d’objet, de l’architecture et du textile, voire de l’art (Ardenne, 2018), la communication visuelle tarde à s’ouvrir
largement à de nouvelles perspectives fondées sur l’impératif de soutenabilité, pourtant retentissant,
et désormais incontournable. Dans différents champs
de la création et de la pensée, une nouvelle vision du monde
s’affirme et agit sur des plans aussi divers que la matérialité,
la limitation ou l’épuisement des ressources, l’obsolescence,
la consommation énergétique – et tout ce qui peut se révéler
délétère et à impact négatif du point de vue environnemental, social et sanitaire.

Dans le champ de la communication visuelle et du design graphique, la perspective d’intégrer la dimension écologique pourrait se révéler exceptionnellement stimulante. Elle questionne tout

                       à la fois les supports les messages, les signes, «l’économie de l’expression08», la lecture, les médiums, les technologies (hautes et basses), le numérique, le papier, les encres, les certifications, les labels, les normes, la production, la perception, la cognition, la réception, le psychisme, etc.

 

Reste à espérer que tout cela se développe et s’étoffe
de manière à atteindre un stade comparable à des secteurs
voisins, qui voient fleurir les termes «écodesign»,
«écoconception», «design durable» ou «design
écologique». Pour pouvoir s’inscrire dans ce changement
de paradigme et y contribuer, la communication visuelle
et graphique doit aller au-delà de la reproduction
ou de la déclinaison des codes établis et des formes
instituées, de la focalisation sur la personne
du designer09 et sur la visibilité de sa production.
Elle doit composer aussi bien avec son milieu
qu’avec l’état du monde. Elle se trouve concernée
par des sujets aussi divers que la saturation du champ
visuel, la surcharge informationnelle, la captation
et la fragmentation de l’attention, la surproduction,
l’emprise de l’obsolescence10, la gestion des forêts,
les flux mondiaux de papier et de pâte à papier,
la toxicité matérielle, le rejet de nos déchets,
y compris technologiques.

 

2.  — Réflexions et actions: une variété de pistes à l’œuvre

Hors des questions directement relatives à l’équilibre
ou au déséquilibre planétaire, divers arguments
plaident en faveur d’un positionnement actif du graphisme
(considéré au sens large) sur ce plan. Ici résonnent
encore les idées de Papanek, formulées il y a plus
d’un demi-siècle: «le designer doit être conscient
de sa responsabilité sociale et morale» (rééd. 1973,
p.107). D’un tout autre point de vue, Étienne Robial
estimait, il y a peu et sans détour, que la France
est «un pays sinistré graphiquement»11 (il s’agit
bien sûr d’un point de vue global, et non sur le détail).
Aussi divers soient-ils, de tels avis incitent
à une reconsidération des pratiques, à une évolution
inspirée par les approches vertueuses (ou tendant
à le devenir). Si beaucoup reste à faire en matière
d’environnement, un certain nombre de directions
positives sont amorcées concernant la communication
visuelle et la production graphique (ainsi que tout
ce qui peut leur être associé) – qu’elles soient à l’étude
ou déjà en application. En France même, il est possible
d’identifier plusieurs lignes actives, auxquelles contribuent
à divers degrés industriels,

décideurs, chercheurs, ingénieurs, experts, laboratoires d’idées, concepteurs, organisations professionnelles, organisations non gouvernementales, associations, collectifs activistes, désobéissants, etc.

 

Sur un plan plus large, il faut compter avec le rôle
des élèves et des étudiants (pour les actualités, voir
l’adhésion massive au Manifeste étudiant pour un réveil
écologique 12, qui sonne comme un appel lucide
et une alerte), et avec des travaux comme ceux du think
tank The Shift Project13– tout ceci devant aussi exhorter
à de nouvelles approches dans l’enseignement du design
graphique en France, que les problématiques
environnementales concernent au même titre que bien
d’autres pratiques. Dans ce paysage ambivalent, sinon
clivé, plusieurs axes de travail concernant,

d’une part, la création et la production graphiques,

et de l’autre la communication, bénéficient d’avancées notables en France.

Ils peuvent relever aussi bien de la mise en œuvre concrète ou de l’action que de la recherche et de la connaissance. Une bonne partie concerne la matérialité, la production, les supports et les techniques du point de vue de leur impact environnemental.

Le secteur de l’imprimerie et des industries graphiques fournit des efforts certains, au moins depuis la fin des années 1990,

pour ce qui est du parc matériel, du papier, de l’encre, des labels, des certifications, des normes, de la pénibilité, du gaspillage14.

 

La question du livre et de l’environnement se trouve
mise en lumière ces derniers temps: en attestent
les rapports Un livre français: évolutions et impacts
de l’édition en France (BAS IC, 2017) et Les livres
de la jungle: l’édition Jeunesse abîme-t-elle les forêts?
(WWF France, 2018), ainsi que les journées Livre,
lecture et environnement, une histoire à poursuivre 15,
organisées par le ministère de la Culture,
la Bibliothèque nationale de France et le Centre national
du livre (2018 et 2019). Consacrés aux enjeux
environnementaux du livre et de l’édition, ces deux
rapports proposent chacun une série de recommandations
concrètes16. L’étude du BAS IC, qui rapporte qu’«environ
20 à 25% de la production annuelle de livres serait
pilonnée» (p.15), décrit les impacts concernant

l’emploi, le gaspillage, les déchets, la santé, les émissions de polluants, la consommation d’eau et d’énergie, les terres agricoles, la déforestation indirecte, la dégradation des sols, etc.

En conséquence, les options en faveur du livre écoconçu
consisteraient à «lever les freins liés au “papier grisé” […,]
favoriser les papiers de grammage plus faible […,] préférer
les encres végétales […,] plus généralement, concevoir
un livre plus facilement recyclable en fin de vie» (p.51).
Par ailleurs, la place prépondérante prise par les techniques
et les supports numériques suscite de plus en plus d’études
sur leurs conséquences environnementales, écologiques,
sanitaires et sociales – aboutissant à une mise en garde,
lisible dès ces titres et sous-titres: Impacts écologiques
des technologies de l’information et de la communication:
les faces cachées de l’immatérialité (2012), Peut-on croire
aux TIC vertes? Technologies numériques et crise
environnementale (2012), La face cachée du numérique:
l’impact environnemental des nouvelles technologies (2013),
L’âge des low tech: vers une civilisation techniquement
soutenable (2014), La guerre des métaux rares: la face
cachée de la transition énergétique et numérique (2018).
Citons aussi le rapport Pour une sobriété numérique (The
Shift Project, 2018). De quoi réfléchir très sérieusement,
et de quoi infléchir nos pratiques. La plupart
de ces publications comportent une multitude
d’informations sous forme d’analyses, de tableaux
et de données chiffrées – statistiques, environnementales,
économiques, géographiques17. S’ajoutent encore
les titres qui relèvent de la communication, dont Le guide
de l’éco-com - munication: pour une communication plus
responsable (2007) ou De la publicité à la communication
responsable (2014) – et, par ailleurs, différents textes
émanant des mouvements antipublicitaires, ainsi
que des manifestes. Si l’on en juge par les publications,
bon nombre de ces thématiques se sont déployées
dans le courant des années 2010.

 
 

Conclusion -- viser le bien-être et le bien commun

En 2008, après plusieurs alertes données par d’autres
auteurs et créa - teurs, l’ouvrage Green graphic design
considérait que «les idées qui relèvent de l'ère
de la soutenabilité” transformeront notre industrie
[du design graphique]» (Dougherty, p.26). L’auteur
affirmait en conclusion que «les designers graphiques
ont un rôle essentiel à jouer dans la transformation plus
vaste vers des économies soutenables» (p.183)18.
Cette perspective est indissociable du fait que le cadre
de vie et l’espace urbain ont des impacts tant sur le milieu
et l’environnement que sur la santé, la perception,
le psychisme, les comportements. Tout ce qui relève
de la communication visuelle y prend une large part
(graphisme, publicité, logotypes, presse et édition,
panneaux, écrans, ephemera, affichage dit dynamique,
bannières, bâches géantes sur des monuments, etc.).
Cela a sans doute des incidences bien plus importantes
que ce qu’il est possible d’imaginer – d’autant qu’il s’agit
souvent de visuels s’imposant à nous en une surabondance
telle qu’ils ne peuvent que submerger nos seuils
d’assimilation,et mutiplier ou déformer nos processus
perceptifs non conscients.Tenant compte de cet excès
de sollicitations et de stimuli,le psychiatre Christophe
André estime que «nous évoluonsde plus en plus
dans des environnements “psychotoxiques”,
qui fragmentent notre attention» (2011, p.96); il y voit
une source de «pollutions psychiques, qui contaminent
notre esprit» (p.135). En réaction à notre environnement
quotidien, nous devrions soutenir l’idée de bien-être visuel,
et même de bien commun visuel 19, comme constitutifs
du bien-être et du bien-vivre. Face à une écosphère
en déséquilibre, transitions ou mutations s’imposent
et plaident pour un rôle actif de la communication
visuelle et de la production graphique – qui doivent répondre à des défis écologiques
et environnementaux, et qui, en retour, peuvent apporter
leur contribution et leur réflexion à l’avenir du monde.

01. Cet état de fait est manifeste, par exemple, dans l’enseignement du graphisme en France, où les étudiantes et étudiants conscients et concernés par les problématiques écologiques peuvent se trouver livrés à eux-mêmes lorsqu’ils poursuivent des projets ou recherches sur ces sujets.

02. Certains auteurs, tel Thierry Libaert, allant jusqu’à employer le terme «ultra-courttermisme».

 

03. Extrait du texte «Motion adoptée par Ars Industrialis à la veille du sommet de Tunis», reproduit à la fin de l’ouvrage.

 

04. La quantification de notre exposition aux messages, impacts, signes et autres stimuli publicitaires et commerciaux fait l’objet d’estimations très variables. Voir à ce sujet: Ignacio Ramonet, «La fabrique des désirs», Le Monde diplomatique, mai 2001, 566, p.9, ainsi que l’article «Mesure de la pression publicitaire: un état des lieux» (2018) sur https://antipub.org/ pression-publici - taire-etat-des-lieux/.

 

05. Au sujet des signes, du marketing et de la société de consommation, voir le chapitre «Design, crime et marketing» dans le Court traité du design de Stéphane Vial (rééd. 2014, p.17-26).

 

06. Catalogue Collectif de France, consulté en ligne le 15 juin 2019. Ce catalogue permet d’interroger les collections de plus de 5000 bibliothèques et centres de documenta - tion (comptant un très grand nombre d’établissements français d’enseignement supérieur), dont plus d’une centaine sont implantés sur d’autres continents.

 

07. Et ce malgré l’existence, dans les publications françaises, d’histoires du livre, de l’écriture, de l’affiche, de l’imprimerie, des caractères, etc. – de telles contributions ayant été ou étant, pour certaines, très avancées du point de vue de la recherche ou de la connaissance, et, pour d’autres, représentées par des titres anciens, parfois très instructifs.

 

08. Une formule [Oeconomie des Ausdrucks] empruntée ici au court texte de El Lissitzky, «Topographie de la typo - graphie», publié en 1923 dans la revue Merz (repris dans Blistène et Legrand, 1993, p.504).

 

09. Voir Papanek, rééd. 1973, p.52 et passim .

 

10. Qu’il s’agisse d’obsolescence planifiée, technique, logicielle, psycholo - gique, esthétique, etc.

 

11. Étienne Robial, émission radiophonique À voix nue: «Manipulateur visuel (5/5): on n’est pas là pour faire joli», France Culture, 2 novembre 2018.

 

12. Publié en ligne en septembre 2018 (https://pour-unreveil-ecologique.fr), le Manifeste étudiant pour un réveil écologique est également accessible en langue anglaise, sous le titre Wake up call on the environment: a student Manifesto (https://pour-un-re - veil-ecologique.fr/index. php?lang=en).

 

13. Notamment le rapport «Mobiliser l’enseigne - ment supérieur pour le climat».

 

14. Ce qui n’empêche nullement les problèmes ou risques globaux liés à la délocalisation, à la traçabilité des matières premières, au transport, à la pollution, à l’impact écologique des arbres transgéniques, etc.

 

15. Journées consacrées à la «filière durable du livre et de la lecture», ayant eu lieu à la Bibliothèque nationale de France en 2018 et au Centre national du livre en 2019.

 

16. Le rapport du WW F formule les quinze recommandations suivantes: «aux éditeurs et groupes d’édition / 1 Développez une fibre verte […] 2 Publiez une politique papier […] 3 Analysez précisément les risques […] 4 Donnez la priorité à des papiers responsables […] 5 Vérifiez la qualité du papetier ou du papier […] 6 Faites tester vos livres […] 7 Engagez un audit indépendant […] 8 Jouez la transparence […] 9 Faites œuvre de pédagogie»; «aux auteurs et donneurs d’ordres / 10 Exigez des pratiques environnemen - tales responsables»; «aux acheteurs et lecteurs / 11 Évitez les livres imprimés en Asie sans mention crédible […] 12 Exigez de la transparence […] 13 Offrez plusieurs vies à vos livres»; «aux autorités publiques / 14 Demandez l’inclusion des livres dans le RB UE [Règlement sur le bois de l’ Union européenne] […] 15 Faites la promotion de l’écoconception et du made in France» (p.122-123).

 

17. Voir par exemple les rapports Un livre français: évolutions et impacts de l’édition en France et Les livres de la jungle: l’édition Jeunesse abîme-t-elle les forêts?

 

18. Sur ce point, voir aussi le texte «Manifes - tons-nous», de la Société des designers graphiques du Québec (accessible en ligne).

 

19. Une requête en ligne (15 juin 2019) n’indique aucune occurrence de ces trois termes accolés: bien commun visuel.

 

20. Texte accessible en ligne à https://www.ensad.fr/ sites/default/files/ ecoconception_ etapes_243.pdf

INTRO
Cette partie aborde l'histoire des feuilles de style en cascade (CSS), en passant par l'origine du code html. Docteur en design graphique et ergonomie, Julie Blanc nous explique le lien entre ces feuilles de style et le processus de mise en page. Comment structurer un livre par la structure d'un code, comment agencer les éléments, comment rapprocher la mise en page d'un site web d'une édition print : voilà des questions auxquelles Julie Blanc tend à nous donner des réponses. 

Plaidoyer pour une mise en page comme programme

Design ✦ Arts ✦ Médias
Si Jan Tschichold avait connu les feuilles de style en cascade
PLAIDOYER POUR UNE MISE EN PAGE EN CASCADE
 
 
 
Julie Blanc
Julie Blanc est doctorante en design graphique et ergonomie (EUR ArTeC / Université Paris 8 – EA349 / EnsadLab). Dans sa pratique professionnelle, elle contribue au développement de Paged.js et conçoit différents projets éditoriaux multi-supports avec l’utilisation des technologies du web, notamment le langage CSS. Site web: julie-blanc.fr
Résumé
Depuis une dizaine d'années, des designers graphiques utilisent les technologies du Web pour la composition de publications imprimées. Les feuilles de style en cascade CSS, pensées pour adapter la mise en forme des documents à une multitude de périphériques de sorties (écran comme imprimé), sont au cœur de ces pratiques. Nous tentons de montrer en quoi elles ont à voir avec des notions fondamentales de la mise en page – rôle traditionnel des typographes, maquettistes et designers graphiques – mais les redistribuent dans une série de concepts programmatiques.
Abstract
For a decade, graphic designers used web technologies for the typesetting and the layout of printed publications. Cascading style sheets (CSS), designed to adapt the layout of documents to a multitude of output devices, are the core of these practices. In this publication, we try to show how they are related to fundamental notions of page layout - the traditional role of typographers and graphic designers – and how they redistribute them in a series of programmatic concepts.

Le 11 novembre 2021, dans le cadre de l'Open Publishing Fest, une session intitulée « Un voyage web2print » a réunit quatre designers graphiques et artistes – Kiara Jouhanneau, Raphaël Bastide, Julien Bidoret et Amélie Dumont – qui ont présenté des projets utilisant les technologies du web pour la conception d'objets imprimés. Sept jours plus tard, dans le même cadre, les designers Nicolas Taffin et Julien Taquet ont à leur tour discuté de la manière dont ces technologies aident les « book developers » à publier leur contenu dans une session nommée « Paged design around the corners ».

Ces sessions offrent un aperçu de ce qui anime aujourd'hui une petite communauté de designers graphiques qui s'emploient à utiliser les technologies du Web et la programmation pour la composition de publications imprimées. Les feuilles de style en cascade, appelées CSS (de l'anglais Cascading Style Sheets) sont au cœur de ces pratiques. Elles représentent un langage informatique descriptif permettant de coder la mise en forme de documents structurés sur le web. Pensées pour établir des constantes de mise en forme documentaire basées sur la structure sémantique, on trouve les feuilles de styles dans les traitements de texte et dans les logiciels de PAO (Publication Assistée par Ordinateur). La notion de cascade apparaît quand à elle avec le Web.

 

Dès son invention, CSS permet d’adapter la mise en forme des documents à une multitude de périphériques de sorties (écran comme imprimé), mais ses possibilités de mise en page pour les sorties imprimées ont longtemps été ignorées. Elles font aujourd'hui un retour en force auprès de communautés open-source de designers graphiques1, auprès de l'industrie éditoriale2 et dans des initiatives proposant de nouvelles plateformes de publications3.

 

Aujourd'hui en France et notamment dans les écoles d'art et de design, l'utilisation de CSS pour l'impression trouve un écho dans des pratiques graphiques et artistiques pour ses possibilités d'expérimentations graphiques multimédias. Les présentations de Kiara Jouhanneau et Julien Bidoret illustrent cette idée. Pour son projet de diplôme Rêve Party4, Kiara Jouhanneau a ainsi utilisé les technologies du Web pour mélanger interactions à l'écran, fonts variables animées et jeux d'impression. Pour un workshop consacré à Élisée Reclus5, Julien Bidoret a proposé d’intervenir de manière interactive dans des fanzines ensuite imprimés. Un système de webcam connecté en direct permettait de prendre des photos disposées en fond de page. De manière plus générale, les améliorations récentes de CSS (grilles, boîtes flexibles, dégradés, rotations, transformations et animations, SVG, fontes variables, modes de fusion, etc.) rendent le langage de plus en plus attrayant pour les expérimentations graphiques. Les préoccupations éminemment politiques concernant les dimensions libres et open-source de ces technologies en renforcent l'engouement.

 

 

Figure 1. Rêve Party, projet de diplôme de Kiara Jouhanneau.

 

✧ Figure 2 ✧ Capture d'écran de la présentation de Julien Bidoret à propos du worshop L'idéal Anarchique

 

Les présentations de Nicolas Taffin – designer graphique et éditeur – et Raphaël Bastide – artiste multi-facettes – montrent un autre aspect de l'utilisation des technologies du web pour l'impression, davantage tourné vers l'édition structurée6 et la transformation des aspects collaboratifs de la chaîne éditoriale7. Ces technologies permettent en effet de concevoir des chaînes unifiées et délinéarisée grâce aux outils et aux méthodes issus de la programmation et auxquelles les technologies du web sont adaptées8. De plus, cette organisation technique permet de proposer des publications reposant sur le principe single source publishing9, une méthode de gestion de contenu qui permet de produire plusieurs sorties (site web, livre numérique, livre imprimé, etc.) à partir d'un même contenu.

 

✧ Figure 3 ✧ Mise en page affichée dans un navigateur web (à gauche) et son code source CSS (à droite). Projet en cours de Benjamin Gremillon.

 

Malgré ce que ces présentations donnent à voir, peu de designers graphiques utilisent réellement les technologies du Web pour la mise en page imprimée. Elles représentent un champ très spécialisé qui implique des connaissances complémentaires provenant de milieu souvent cloisonnés tant au niveau des formations qu'au niveau des métiers. Les compétences nécessaires concernent en effet autant l'édition structurée, le design graphique que le développement web. Et même au sein de ces champs, une bonne compréhension de d'HTML et de CSS est souvent rare.

De plus, ces pratiques souffrent d'une image négative de la programmation web et sa supposée incompatibilité avec une activité graphique sensible, précise et en maîtrise. Le vieil adage de la mise en relation du fond et de la forme est souvent présenté comme un des aspects primordiaux du design graphique (l’idée que chaque texte appelle une mise en page qui lui soit propre) et paraît illusoirement incompatible avec le principe technique de séparation du fond et de la forme que propose les technologies du Web.

Un des objectifs de cette publication est de rappeler que CSS est un langage tout à fait adapté à la conception graphique, puisqu'il a été créé pour décrire la présentation de document. Nous défendons même l'idée que son utilisation s'inscrit dans une suite logique de l'histoire de la composition et de la mise en page, si chère au célèbre typographe Jan Tschichold.

La notion de feuille de style à l'origine de l'appellation de CSS est définie comme « a set of rules that associate stylistic properties and values with structural elements in a document, thereby expressing how to present the document10 ». C'est une définition tout à fait compatible avec la production de livres imprimés. Elle nous rappelle qu'avant l'apparition de la PAO, le travail des designers et typographes consistait à fournir à l'imprimeur (composition au plomb) ou l'opérateur (photocomposition) un ensemble de règles stylistiques et de contraintes définissant le gabarit d'un livre et les caractéristiques des blocs typographiques. Coder en CSS, consiste à fournir ces mêmes informations au navigateur web.

En contextualisant les origines de la création du Web, nous expliquerons comment HTML et CSS ont été imaginés pour décrire, structurer, lier, rendre lisible et styliser les documents, servant ainsi tout à fait le rôle des designers graphiques, des maquettistes et des typographes. Puis, à travers trois exposés qui sont autant d'exemples, nous décrirons comment les technologies du Web traduisent des notions fondamentales de mise en page et de composition – structuration typographique, relations entre les éléments, grilles, gabarits, etc. En creux, nous montrerons comment certaines de ces notions sont rejouée par des logiques de programmation et s'ouvrent à de nouveaux possibles esthétiques.

 

✦1✦Un Web de documents entre structure et présentation

La composition de livres imprimés est une activité vieille de plusieurs siècles avec un ensemble de règles et de traditions transmises par des générations de typographes, compositeurs et imprimeurs. De nouveaux possibles apparaissent avec chaque évolution technique, que cela soit dans les ateliers de composition mécanique (Monotype et Linotype) ou avec la lumière (photocomposition), puis avec la micro-informatique et ses logiciels de PAO. Puis, l'apparition du Web et de la demande accrue de publications multimédias font entrer dans la composition et la typographique des principes de flexibilité et fluidité des éléments pour les adapter à des pagessans dimensions fixes. Le développement web explose à la fin des années 2000 et devient peu à peu une spécialité cloisonnée de la composition des objets imprimée. Pour autant, si nous regardons attentivement l'histoire de l'apparition du Web, ce cloisonnement peut être remis en question.

En effet, si aujourd'hui, le Web semble plus à voir avec des sites marchands, des applications closes et des réseaux sociaux, nous avons tendance à oublier qu'il a principalement été créé pour la publication de documents. En 1991, lorsque Tim Berners-Lee, informaticien britannique au CERN, publie le premier site web présentant les caractéristiques de son invention, il déclare: « The WorldWideWeb (W3) is a wide-area hypermedia information retrieval initiative aiming to give universal access to a large universe of documents 11 ». Le scientifique tente ainsi de construire une toile de documents connectés, en particulier d'articles scientifiques, qu'il souhaite rendre accessibles aux scientifiques du monde entier gratuitement 12. Ajoutons qu'en 1993, le Web a été placé dans le domaine public, signalant la volonté d’ouverture et d’universalisme du projet. 13

✧ Figure 4 ✧ Premier site web publié le 6 août 1991, affiché dans le navigateur web original de NeXT (reconstruit en 2009 par le CERN: https://worldwideweb.cern.ch/browser/). Crédits: CERN.

Dans cette idée, le Web requiert un langage simple, lisible et accessible sur toute plateforme. C'est ainsi que Tim Berners-Lee, secondé par Robert Cailliau, ingénieur et informaticien belge, propose l'HyperText Markup Language (HTML), un langage de balisage permettant de représenter la structure d'un document web à l'aide de balises ajoutées entre des phrases ou des mots pour indiquer le rôle du texte. Afin de l'afficher sur n'importe quel terminal quelle que soit sa capacité graphique d'affichage14, HTML est volontairement un langage très simple, et, surtout, sans aucune indication de mise en forme ou possibilité de contrôle de sa présentation, excluant toute modification des polices de caractères, des couleurs ou de la taille du texte15.

Très vite, les auteurs des sites web, ainsi que les utilisateurs demanderont de plus en plus un moyen d'avoir la main sur ce rendu. Des efforts sont menés aussitôt pour proposer des concepts de feuilles de styles pouvant s'appliquer à cet HTML et répondre à des besoins de présentation. En 1994, Håkon Wium Lie, informaticien norvégien, rejoint par Bert Bos, informaticien néerlandais, formule une proposition de Cascading HTML Style Sheets, vite abrégé en CSS. La proposition repose sur l'ambition de séparer complètement la structure HTML de son rendu visuel grâce à des principes de sélecteurs des éléments HTML spécifiés en CSS. Le principe de cascade, c'est-à-dire la possibilité pour le style d'un document d'être hérité à partir de plusieurs « feuilles de style » séduit la communauté du web qui cherchaient un moyen d'arbitrer entre plusieurs sources de mise en forme des éléments (issues des préférences stylistiques des auteurs, des navigateurs et des utilisateurs). Il faudra cependant attendre le début des années 2000 pour que CSS commence à être correctement implémenté dans les navigateurs web. 16

La création de CSS repose donc sur l'ambition de séparer le contenu et la structure sémantique d'un document de son rendu visuel. Ce principe de séparation du fond et de la forme est un principe informatique connu mais le Web est le seul environnement à avoir poussé cette idée aussi loin et à si grande échelle.17 L'affichage doit être proposé pour une multitude de médias afin que n'importe qui puisse y avoir accès. 18 Dès sa première proposition, envoyée le 10 octobre 1994 sur la liste de diffusion www-talk@cern.ch, Håkon Wium Lie indique que CSS est, lui aussi, pensé pour tous les médias, y incluant le papier: « Current browsers consider the computer screen to be the primary presentation target, but [CSS] has the potential of supporting many output media, e.g. paper, speech and braille.19 »

Les requêtes médias, proposée dès 2002 20, consolideront cette idée et la rendront techniquement possible. Elles consistent en des expressions CSS permettant de définir si les styles s'appliquent à tel ou tel type de média. Par exemple, tous les styles contenus dans la requête @media print { ... } ne s'appliqueront qu'à la sortie imprimée de la page web. (Tous les navigateurs possèdent aujourd'hui des fonctionnalités d'impression, souvent disponible dans le menu Fichier > Imprimer).

CSS est encore aujourd'hui le seul langage entièrement dédié à la présentation visuelle de documents et au rendu graphique des pages web. C’est une invention unique dans le domaine informatique pour répondre à un enjeu jusqu'alors jamais imaginée dans l'histoire des médias: pouvoir, techniquement, exprimer à quel type de périphérique et quelle taille d'écran une règle stylistique particulière doit s'appliquer. Il est de ce fait, un langage profondément graphique, parfaitement adapté à la mise en page de tous types documents, en y incluant la composition imprimée.

Pendant longtemps, les contraintes techniques lié aux technologies du Web ne permettaient pas de produire des mises en pages élaborées. Il n'était donc pas intéressant pour les designers graphiques de pratiquer ces technologies. Les choses se sont vites améliorées, les navigateurs web implémentant peu à peu des spécifications CSS permettant des rendus typographiques et graphiques de plus en plus poussés. Ces six dernières années ont notamment été marquées par des évolutions fulgurantes, depuis l'implémentation des grilles et des boîtes flexibles en CSS jusqu'au développement d'un nouveau format de polices de caractère permettant de rendre les fontes variables – le format OpenType variable fonts (OTVF).

Aujourd'hui, il est possible de concevoir des mises en page uniques (à l'écran comme pour l’imprimé) dans lesquelles la relation spatiale entre les éléments typographiques et les images est essentielle pour des raisons esthétiques et pour la compréhension du texte. Des fonctionnalités nécessaires à l'impression (sauts de pages, numéros de pages, titres courants, gabarits de pages, notes en bas de page, marges en miroir, etc.) peuvent aussi être utilisées directement en CSS21. En complément, l'utilisation de scripts permet de contourner les limitations des d'algorithmes de césures des navigateurs ou d'améliorer la prise en charge de certaines spécificités de mises en pages complexes (notes en marges, image pleine page, etc.). La composition pour l'imprimé avec les technologies du Web ne possède ainsi plus beaucoup de limites.

Nous allons à présent nous attarder sur la manière dont les technologies du Web traduisent des notions fondamentales de mise en page et de composition dans leur fonctionnement. Nous avons choisi d’explorer cette question à travers trois exposés liés à la structure du code, l’agencement des éléments par des grilles et des exemples d’hybridations entre logique du Web (flux, ancrage et flexibilité) et logique de l’imprimé.

✦2✦ Premier exposé: Structurer le livre,structurer le code

Si l'on considère un livre avec l'œil d'un auteur, d'un lecteur ou du designer graphique qui le compose, une édition est toujours structurée. Les éditions sont organisés en entités telles que les sections, les chapitres, les titres, les paragraphes, les notes, les citations, etc. Cette structure intellectuelle, logique, permet au lecteur de se repérer dans l'organisation du livre. Elle se reflète dans la structure visuelle de l'édition: les chapitres débutent sur une nouvelle page pour marquer une rupture forte, un titre sera mis en avant par une stylisation différente que le texte courant, les paragraphes sont indiqués par un retour à la ligne et un alinéa, etc.

Dans les logiciels actuellement les plus utilisés dans l'édition, InDesign pour la mise en page et Microsoft Word et Google Docs pour le traitement de texte, cette division entre structure logique et structure visuelle se retrouve la plupart du temps confondue. Les panneaux et galeries de « style » proposées permettent d'appliquer aux éléments des mises en forme prédéfinies par l'utilisateur qui peuvent ensuite être modifiées sur l'ensemble des éléments de même type. Un indice de ce manque d'approche de structuration logique est ainsi l'impossibilité de baliser des ensembles d'éléments afin de les regrouper en chapitres, en sections ou en encarts. Ces regroupements ne peuvent s'exprimer que visuellement – par des sauts de pages, des encarts visuels, des espacements dans la page, etc.

Les logiciels de traitement de texte et de PAO, en privilégiant la composition visuelle de la mise en forme des textes, marquent donc pour les designers graphiques une perte technique dans la structuration logique des mises en page22. À l'inverse, l'utilisation des technologies du web impose ce type de structuration puisque HTML propose un balisage sémantique des documents. Cette structuration est de plus beaucoup plus précise grâce aux principes d'arborescence et d'attributs complémentaires.

La caractéristique la plus importante des documents HTML, se situe en effet dans leur fonctionnement en arborescence. HTML définit la structure de la page web afin que le navigateur puisse créer un DOM (Document Object Model), une représentation de la page web et de ses éléments sous forme d’arbre où chaque embranchement est appelé « nœud ». Ainsi, les éléments peuvent être imbriqués les uns dans les autres et font références les uns aux autres en tant que parents ou enfants, ou éléments frères – tout comme dans un arbre arborescent23.

✧ Figure 5 ✧ Code HTML d'un élément tableau et sa représentation sous forme de DOM.

Les balises actuellement disponibles en HTML sont suffisantes pour couvrir les principaux éléments utilisés en édition, comme le montre la structuration HTML de cet article-même. Les possibilités d'ajouts d'identifiants uniques ou de classes spécifiques pour définir des ensembles d'éléments permettent une structuration plus fine. Ainsi, le bout de code ci-dessous rend évidente la structuration d'un texte et attribue à chaque section des informations complémentaires:

<section id="introduction">

...

</section>

<section class="chapitre" id="chapitre-1">

...

</section>

<section class="chapitre" id="chapitre-2">

...

</section>

Les styles CSS sont associés aux éléments HTML grâce à des sélecteurs ce qui permet une approche très fine de l'organisation du document. Ces sélecteurs peuvent être simple – .chapitre sélectionne tous les éléments avec une classe « chapitre » – ou se combiner – h1 + p sélectionnera le premier paragraphe qui suit immédiatement un titre de premier niveau. Certaines combinaisons de sélecteurs CSS sont aussi très complexes afin de cibler des éléments de manière contextuelle sur la base de leurs ancêtre et leur place dans le DOM. La déclaration .chapitre + aside > h2:nth-of-type(2) permet par exemple de sélection le deuxième titre (h2:nth-of-type(2) d’un élément d’aparté (aside) qui suit immédiatement un élément défini comme un chapitre (.chapitre).

Les mécanismes de propagation des valeurs de CSS – comme la cascade, l'héritage ou les valeurs initiales – permettent d'agir sur plusieurs éléments en même temps. Une même propriété peut se répercuter sur plusieurs éléments et inversement, un même élément peut hériter de plusieurs propriétés stylistiques. C'est l'organisation du code CSS et le choix des sélecteurs qui indique au navigateur quelles styles doivent s'appliquer, sans avoir besoin de spécifier explicitement les valeurs de toutes les propriétés pour chacun des éléments.

Le principal avantage est que les feuilles de styles peuvent être courtes et peu verbeuses. Il est facilement possible de monter en généralité par l'interaction des déclarations et des sélecteurs entre eux. De nombreuses informations stylistiques peuvent être déduites du contexte de l'arborescence et s'additionner entre elles. Un même type d'élément, par exemple un titre, pourra ainsi être stylisé de manière complètement différente en fonction de sa position dans la structure du livre (est-ce un titre de chapitre ou le titre de l'introduction?) tout en gardant certaines propriétés communes qui n'auront été déclarées qu'une seule fois pour tous les éléments de même type.

Ces mécanismes de feuilles de style ne s'appliquent pas seulement aux éléments textuels mais aussi aux éléments graphiques et iconographiques, et même à la structure globale du livre24. Cela astreint les designers graphique à penser la forme du livre comme un ensemble de règles contextuelles et hiérarchisées qui interagissent les unes des autres en s'appuyant sur la structure logique de l'édition. Ainsi, la construction d'une feuille de style engage l'idée d'une construction de relations significatives entre les éléments de la structure du texte et un aller-retour entre plusieurs granularités – règles s'appliquant au niveau du livre, au niveau d'un chapitres ou sur plusieurs éléments. Les exceptions restent toujours possibles grâce aux mécanismes d'identification unique qui permettent de les spécifier. Notons que cette structuration du livre sous forme de règles graphiques et typographiques est le travail du designer graphique de manière générale25 mais cette idée est ici encodée dans le fonctionnement du langage CSS.

Cet exposé nous montre que le principe de séparation du fond et de la forme à travers HTML et CSS implique pour les designers graphiques une préoccupation importante de la hiérarchie des documents et leur compréhension sémantique. À travers les lignes de code, c’est une systématisation entre structure intellectuelle, structure techniques et structure visuelle qui est proposée. Les mécanismes des les feuilles de style CSS offre par ailleurs des logiques beaucoup plus puissantes que leurs équivalences dans des logiciels plus classiques de traitement de textes et de PAO.

 
 

✦3✦ Deuxième exposé: agencer les relations entre éléments

Une partie de l'activité de composition des designers graphiques consiste à agencer les éléments du livre dans l'espace de la page. Selon Jan Tschichold, une mise en page parfaite « repose sur une parfaite harmonie de toutes les parties » et cette harmonie « dépend du choix des bons rapports ou proportions » entre tous les éléments du livre (marges, bloc d'empagement, interlignages, interlettrages, etc.) 26. Pour déterminer ces rapports et ces proportions, les designers graphiques ont conçu un ensemble de dispositifs structurants reposant sur différents repères visuels et un ensemble de règles destinés à guider et faciliter la création.

Parmi ces dispositifs à leur disposition, les deux plus connus sont la grille modulaire et la grille de ligne de base27. Elles permettent de faciliter l'alignement et la répartition du contenu et d’obtenir des espacements cohérents pour une meilleure cohésion de la composition globale malgré la diversité du contenu et des forces de corps typographiques différentes.

Ces grilles sont souvent conçues à l'aide de tracés géométriques et de calculs mathématiques calculés en amont puis traduits sous forme de valeurs fixes et de repères visuels dans les logiciels de PAO. Des fonctionnalités de magnétisme permettent de faciliter le placement des éléments sur ces repères, mais globalement, un changement dans la grille implique à minima quelques corrections manuelles et parfois un long travail de remise en page dans le logiciel.

Les grilles peuvent être travaillées de façon très différentes avec les technologies du Web et tirer parti des avantages de la programmation. Pour illustrer cette idée, nous prendrons en exemple deux extraits de code produits pour un catalogue du Musée Saint-Raymond de Toulouse28.

✦3✦1 Aligner les éléments sur la ligne de base

Le premier extrait concerne l'alignement des éléments textuels selon l'idée d'une ligne de base imaginaire qui aurait une hauteur de 14 pixels:

body { --baseline: 14px; font-size: 12px; } h1 { font-size: 2.2em; line-height: calc(var(--baseline)*3); margin-bottom: calc(var(--baseline)*8); } p { font-size: 1em; line-height: var(--baseline); } figure { height: calc(var(--baseline)*12); }

Ce code utilise les possibles des fonctions de calculs et de variables en CSS. Les variables CSS sont des propriétés personnalisées permettant de définir des valeurs utilisables et répétable à travers le document. Le premier bloc de l'extrait indique que la variable nommée baseline a pour valeur 14 pixels. Le reste du code utilise cette variable dans des fonctions calc(), qui permettent de réaliser des opérations mathématiques en CSS (addition, soustraction, division et multiplication) pour calculer la valeur d'une propriété de type numérique.

L'association de ces deux fonctions permet d'insérer une logique mathématique dans la définition des espaces de la mise en page afin de garder les alignements des éléments textuels. Ainsi, dans le deuxième bloc qui s'applique à tous les titre de premier niveau (h1), la deuxième ligne indique que l'interlignage (line-height) a pour valeur trois fois la hauteur de la ligne de base. Notons que ce système de calcul et de variable a aussi été utilisé pour définir la hauteur des figures du texte, afin qu'elles restent alignées sur la ligne de base comme nous le montre le dernier bloc.

✦3✦2 Construire une grille modulaire

Le deuxième extrait (simplifié pour les besoins de la démonstration) montre comment a été encodé une grille modulaire utilisée pour les pages des cahiers d'images du catalogue :

.grid-img { --columns-nbr: 12; --rows-nbr: 10; --height-rows: var(--baseline)*5; width: 100%; height: calc(var(--height-rows)*var(--rows-nbr) + var(-- baseline)*(var(--rows-nbr)-1)); display: grid; grid-template-columns: repeat(var(--columns-nbr), 1fr); grid-template-rows: repeat(var(--rows-nbr), 1fr); grid-gap: var(--baseline); } #grid-3 img { grid-column: 7/end; grid-row: 1/6; }

Nous voyons à nouveau qu'un ensemble de variables et de calculs ont été utilisés pour la construction de la grille. Certaines de ces variables servent à stocker le nombre de colonnes et de rangées de la grille (respectivement, --columns-nbr:12 et --rows-nbr: 10) ainsi que la hauteur d'une rangée de la grille qui correspond à un multiple de la ligne de base (--height-rows: var(-- baseline)*5). Ces variables ont été réutilisées dans la suite du code. Ainsi, la hauteur de la grille (height: calc(...) additionne et multiplie différentes variables qui correspondent au nombre de rangées de la grille, à la hauteur de ces rangées (elle-même dépendante de la ligne de base) et à la hauteur des gouttières (correspondant à la hauteur d'une ligne de base). Le reste du code sont des propriétés spécifiques aux grilles CSS permettant de définir le nombre de colonnes (gridtemplate-columns), le nombre de rangées (grid-template-rows), la hauteur et la largeurs des gouttières (grid-gap) et le placement de l'image dans la grille (le dernière bloc de code).

Ce code fait ainsi correspondre les tracés de la ligne de base aux tracés de la grille modulaire pour que les images soient parfaitement alignées sur les deux types de grilles. Cela est visible sur la figure suivante où ont été affichés les tracés régulateurs des deux grilles à l'aide de l'outil d'inspection du navigateur.

 

✧ Figure 6 ✧ Tracés régulateurs de la ligne de base et de la ligne modulaire sur une double page du catalogue, affichés à l'aide des outils d'inspection du navigateur web.

Dans ce code, les différents éléments de la mise en page – les interlignages, la taille et les marges des éléments textuels, la hauteur des figure ou encore les grilles – sont dépendants d'une seule valeur (ici, la hauteur de la ligne de base) et relatifs les uns aux autres. Ces relations sont encodées en CSS grâce au jeu des variables et des calculs (et grâce aux unités relatives pour la taille des polices de caractères). La force de ce système est qu'il est possible, à tout moment, de changer la ligne de base du document en changeant la variable baseline. Tous les éléments de la mise en page se seraient alors adaptés automatiquement en gardant les rapports de proportions encodés et en restant alignés sur les différentes grilles29.

Cet exposé nous montre que les concepts programmatiques de variables et calculs s’allient au principe graphique des grilles (modulaire et de ligne de base) en systématisant certaines de leurs notions par un encodage technique fort. Ce code reste toutefois visible et lisible pour les designers graphiques, notamment parce que CSS est un langage descriptif.

 

✦4✦ Troisième exposé: hybrider logique du Web et logique de l'imprimé (flux, ancrage et flexibilité)

L'arrivée du Web a complètement transformé les manières de penser la mise en forme. La diversité des possibilités d'affichage des sites web – et particulièrement la variabilité des tailles d'écrans et des fenêtres de navigation – implique l'impossibilité de penser la mise en page selon un format fixe. Il en résulte que les documents web répondent à un certain nombre de caractéristiques – tels que le flux, l'ancrage ou l'adaptation dynamique – sur lesquels les designers graphiques s'appuient pour mettre en forme des sites web.

Les propriétés CSS offrent un panel de mécanismes permettant d'agir avec ces caractéristiques pour répondre aux besoins de mises en page variables (responsive): grilles, boîtes flexibles, flotteurs, positionnements relatifs et absolus, etc. Ces techniques, souvent réunies sous l'appellation de css layout, permettent de changer le positionnement des éléments les uns par rapport aux autres sans toucher à la structure HTML et en conservant leur place dans l'arborescence.

Bien que la conception d'un livre imprimé impose un retour à une logique de format fixe – celui des pages imprimées – l'utilisation des technologies du Web implique que le document HTML et les feuilles de styles CSS gardent leurs caractéristiques. Nous montrons dans ce troisième exposé, deux mises en page de livres imprimés qui mettent à profit les particularité du flux et les avantages de propriétés CSS censées répondre à des mises en pages flexibles de l'écran.

 

✦4✦1 Flux et ancrage des éléments

Par défaut, le code HTML d'une page web est interprétée de manière séquentielle par les navigateurs qui affichent les différentes éléments balisés dans l'ordre où ils apparaissent dans la structure du code. Les éléments sont disposés par défaut les uns en dessous des autres et s'étirent horizontalement selon la place disponible. Cette affichage séquentiel se nomme le flux. Mettre en page un livre imprimé consiste à fragmenter ce flux qui sera distribué dans des pages au format fixe30.

Toutefois, les éléments qui se suivent logiquement dans le HTML peuvent aussi avoir besoin d’être déplacés sur la page indépendamment de la logique du flux afin de rendre la mise en page plus équilibrée, plus lisible ou améliorer la compréhension du discours. Par exemple, des publications imprimées à la mise en page riche nécessitent un déplacement des éléments en haut ou en bas de la page, des images en pleine page, des éléments mis en exergues ou encore des notes de page.

Pour répondre à ces exigence de présentation, les propriétés de css layout conviennent tout à fait et certaines ont même étaient imaginées spécialement pour la mise en page imprimée31. Mais leur utilisation implique que les designers graphiques comprennent cette logique de flux et l'adapte à la page. Un avantage important est que, même si les éléments sont déplacés visuellement et « retirés » du flux grâce aux propriétés CSS, ils restent liés à leur emplacement d'origine dans le fichier HTML. Si on veut utiliser un vocabulaire plus proche de celui des designers graphiques habitués aux logiciels de PAO, nous pourrions dire que tout élément est « ancré » dans le flux – c’est-à-dire qu’un élément reste toujours lié aux éléments qui le précèdent et le suivent. L'ancrage au flux peut parfois être vu comme une contrainte mais il peut aussi être utilisé pour ses avantages.

Nous en trouvons un exemple dans la mise en page du livre Controverses mode d'emploi32 conçu avec HTML et CSS par Sarah Garcin. Les notes du texte sont disposées dans l'espace disponible des marges extérieures du livre, tout en restant à hauteur de l'appel de note correspondant. Pour arriver à ce résultat, Sarah a utilisé des propriétés de positionnements CSS fixes et relatives en appliquant quelques lignes de code à l'ensemble des notes. Notons, qu'elle a dû coupler son CSS à un script calculant la hauteur des notes et les repositionnant, permettant d'éviter que les notes se chevauchent ou dépassent de la page33. Ce mécanisme de mise en page est beaucoup plus laborieux sur un logiciel de PAO classique, où les designers graphiques sont plus habitués à disposer ce type d'élément « à la main ». Pour le travail de Sarah Garcin, les notes étant liées à leur emplacement d'origine dans le document HTML, elles restaient correctement positionnées dans la page à hauteur de l'appel de note malgré tout changement dans la mise en page.

 

Figure 7. Double page du livre Controverses mode d'emploi présentant de notes en marge. Crédit: Sarah Garcin

✦4✦2 Flexibilité, laisser de la marge à la machine

Afin de répondre aux caractéristiques du design de site web dans des navigateurs aux dimensions variables, une grande partie des propriétés CSS de mises en page permettent de définir le comportement d'éléments les uns par rapport aux autres dans un espace donné sans en définir leurs dimensions ou leur positionnement de manière fixe.

Pour cela, les propriétés de boîte flexible – « flexbox » – sont particulièrement intéressantes. Elles dictent la distribution d'éléments dans un espace donné selon des règles d'alignements et de proportions. Cette méthode permet de rendre les éléments fluides car ils s'adaptent à l'espace disponible selon une direction choisie: ils s'étirent pour remplir de l'espace supplémentaire et se rétractent pour s'insérer dans des espaces plus petits34. Leur taille peut aussi être variable selon le contenu: par exemple, plus un titre a de mot, plus il prendra de l'espace. Particulièrement efficace pour le design de sites web s'adaptant à la taille de l'écran, ces méthodes de boîtes flexibles peuvent être tout aussi pertinentes pour le design de livres imprimés.


✧ Figure 8 ✧ Exemples de comportement des éléments avec les propriétés flexbox. Crédit: freecodecamp.org

Nous en retrouvons un usage particulièrement créatif dans le livre CityFab2.docs mis en page par Amélie Dumont. Les pages de titres des tutoriels du livre sont constituées d'une série de cinq éléments constants: un titre, une image d’illustration, le logo du logiciel utilisé, un paragraphe introductif et une numérotation. Certaines propriétés des éléments sont définies de manière fixe (c'est par exemple le cas de la largeur des éléments du bas de la page) mais pour le reste, Amélie a utilisé les propriétés des boîtes flexibles pour « laisser le contenu prendre la place dont il avait besoin et donc obtenir des pages qui avaient une grille à peu près similaire mais en même temps qui n'étaient jamais tout à fait la même35 ».

L'utilisation de filets autour des éléments souligne l'idée des boîtes et laisse trace dans la page de la manière dont la composition a été programmée. Les figures ci-dessus montre la mise en page finale de différentes pages de titres. Nous voyons bien que la composition est différente à chaque page – notamment la dimension des espaces – pourtant c'est la même syntaxe CSS qu'Amélie a appliquée à toutes les pages. En choisissant des propriétés flexibles, Amélie laisse « un petit peu de marge à la machine [...] et à la manière dont elle est programmée, pour finir la mise en page36 ».

 

✧ Figure 9 ✧ Pages de titres du livre CityFab2.docs mis en page par Amélie Dumont.

✧ Figure 10 ✧ Scan d'une double page du livre CityFab2.docs. Crédit: Amélie Dumont.

Cet exposé et ses deux exemples nous montre donc un certain jeu entre des logiques de mise en page propres à l’affichage sur des écrans aux dimensions indéterminées et des logiques de mise en page pour un format fixe tel que celui des pages imprimées. Cette hybridation n’est possible que parce que CSS offre les mécanismes nécessaires aux deux médias dans une continuité technique assez unique.

 

✦5✦ Conclusion: la mise en page comme programme, penser avec le code

 

Dans son Manuel de typographie et de mise en page, François Richaudeau définit la typographique, entendue au sens large de la composition, comme des « règles de construction des systèmes [de pages] 37 ». En nous invitant à penser la mise en page de manière systémique à l'aide d'une série d'instructions et de règles dépendantes les unes aux autres, les mécanismes des feuilles de style CSS permettent de faciliter certaines décisions de mise en page rationalisables et paramétrables se prêtant particulièrement bien à la programmation (grille, hiérarchie typographique relative, ancrage des notes en marges, etc.).

Faisant cela, les technologies du Web rejouent techniquement des notions fondamentales de mise en page déjà présentes dans l'histoire du design graphique. Toutefois, elles redistribuent certaines de ces notions dans une série de concepts programmatiques basés sur des logiques d'arborescence, d'hérédité, de variables, de calculs mathématiques, de flux, d'ancrage. En cela elles montrent aussi certaines ruptures et autorisent un renouvellement des pratiques et des logiques créatives des designers graphique.

Notre troisième exposé met ainsi en évidence que les feuilles de style peuvent être utilisées de façon créative dans les mises en pages imprimées en montrant quelque chose de ce qui fait la caractéristique de CSS: un langage créé pour répondre à la variabilité des supports et des dimensions d'affichage d'un document. De la même manière, l’imbrication des éléments dans une arborescence contextuelle invite à penser des jeux graphiques pouvant potentiellement s’appuyer sur cette arborescence ou la refléter.

L’utilisation de scripts augmente encore les possibles; notamment parce que la mise en page pour l’imprimé et pour l’écran depuis un environnement unifié invite à des hybridations avec des processus et des technologies utilisées par ailleurs dans les mouvements artistiques de creative coding de manière plus générale (appel à des bases de données, utilisation d’API, dessins vectoriels génératifs, etc.)38

Ainsi, l’utilisation du code invite à concevoir des mises en page qui n'auraient pas pu être pensées si elle n'avait pas directement travaillées dans les navigateurs web et avec HTML et CSS, embarquant avec elles quelque chose qui touche aux caractéristiques de ces langages. Les technologies du Web invitent donc les designers graphiques à penser le code comme un appareil réflexif intégré au processus de création.

Il ne s'agit pas pour autant de réduire le design graphique aux seuls outils qui permettent de le produire. Ni de déléguer à un programme le savoir-faire des typographes-maquettistes et designers graphiques, en réduisant la mise en page à une approche objective et une méthode rationalisante.39 Ainsi, une systématisation de certains principes de composition et de mise en page à travers le code ne signifie pas une optimisation des méthodes et principes de conception. Les procédures « automatisées » dans l'édition ne remplaceront jamais une bonne maquette, dédiée à la lecture, faite par un ou une designer graphique compétente et guidée par le jugement humain.

L'art de la composition et de la mise en page appartient aux designers graphiques et typographes, ils en connaissent les règles. Les technologies du Web leur permettent d'exprimer cet art en dialogue avec le code en les confrontant à certaines logiques de description, de systématisation et de programmation.

INTRO
Cette partie introduit les principes de la permacomputation, inspirés de la permaculture, comme une nouvelle forme de conception technologique et informatique. Ces principes sont détaillés en plusieurs points, tels que : la réduction de la consommation d'énergie, la durée de vie des composants, la création de systèmes plus petits et plus compréhensibles, ainsi qu’aux besoins que possèdent les systèmes informatiques (adaptation aux changements, leur environnement d'exploitation, etc). Le texte nous encourage à aborder une approche plus locale et diversifié et apporte une réflexion sur l'impact environnemental que possède la technologie, de nos jours.

permacomputing/ Principles

 

 

 

These

design   p r i n c i p l e s

have been modeled after those of permaculture.

These are primarily design/practice principles and not philosophical ones, so feel free to disagree with them, refactor them, and (re-)interpret them freely. Permacomputing is not prescriptive, but favours instead situatedness and awareness of the diversity of context. Said differently, its design principles can be as much helpful as a way to guide practice in a specific situation, as it can be used as a device to help surface systemic issues in the relationship between computer technology and ecology.

 

CareforlifeCareforlifeCareforlifeCareforlifeCareforlife

CareforlifeCareforlifeCareforlifeCareforlifeCareforlife

CareforlifeCareforlifeCareforlifeCareforlifeCareforlife

CareforlifeCareforlifeCareforlifeCareforlifeCareforlife

CareforlifeCareforlifeCareforlifeCareforlifeCareforlife

CareforlifeCareforlifeCareforlifeCareforlifeCareforlife

CareforlifeCareforlifeCareforlifeCareforlifeCareforlife

CareforlifeCareforlifeCareforlifeCareforlifeCareforlife

 

 

CareforchipsCareforchipsCareforchipsCareforchipsCareforchips

CareforchipsCareforchipsCareforchipsCareforchipsCareforchips

CareforchipsCareforchipsCareforchipsCareforchipsCareforchips

CareforchipsCareforchipsCareforchipsCareforchipsCareforchips

CareforchipsCareforchipsCareforchipsCareforchipsCareforchips

CareforchipsCareforchipsCareforchipsCareforchipsCareforchips

CareforchipsCareforchipsCareforchipsCareforchipsCareforchips

CareforchipsCareforchipsCareforchipsCareforchipsCareforchips

 

 












This is the ethical basis that permacomputing builds on. It refers to the permacultural principles of "care for the earth" and "care for people", but can be thought of as the basic axiom for all choices.

Create low-power systems that strengthens the biosphere and use the wide-area network sparingly. Minimize the use of artificial energy, fossil fuels and mineral resources. Don't create systems that obfuscate waste.

 

 

 

 

Production of new computing hardware consumes a lot of energy and resources. Therefore, we need toi maximize the lifespans of hardware components – especially microchips, because of their low material recyclability. Respect the quirks and peculiarities of what already exists and repair what can be repaired. Create new devices from salvaged components. Support local time-sharing within your community in order to avoid buying redundant stuff. Push the industry towards Planned longevity. Design for disassembly.

 

Keep it small

 Keep it small

  Keep it small

   Keep it small

    Keep it small

      Keep it small

     Keep it small

         Keep it small

          Keep it small

           Keep it small

             Keep it small

      Keep it small

 



Small systems are more likely to have small hardware and energy requirements, as well as high understandability. They are easier to understand, manage, refactor and repurpose.

Dependencies (including hardware requirements and whatever external software/libraries the program requires) should also be kept low. Avoid pseudosimplicity such as user interfaces that hide their operation from the user. Accumulate wisdom and experience rather than codebase. Low complexity is beautiful. This is also relevant to e.g. visual media where "high quality" is often thought to stem from high resolutions and large bitrates. Human-scale: a reasonable level of complexity for a computing system is that it can be entirely understood by a single person (from the low-level hardware details to the application-level quirks). Scalability (upwards) is essential only if there is an actual and justifiable need to scale up; down-scalability may often be more relevant. Abundance thinking. If the computing capacity feels too limited for anything, you can rethink it from the point of view of abundance (e.g. by taking yourself fifty years back in time): tens of kilobytes of memory, thousands of operations per second – think about all the possibilities!

 

 

Hope for the best, prepare for the worst.

It is a good practice to keep everything as resilient and collapse-tolerant as possible even if you don't believe in these scenarios. While being resilient and building on a solid ground, be open to positive and utopian possibilities. Experiment with new ideas and have grand visions. Design for descent.

 

 

Keep it  f   l   e   x   i   b   l   e

Flexibility means that a system can be used in a vast array of purposes, including ones it was not primarily designed for. Flexibility complements smallness and simplicity. In an ideal and elegant system, the three factors (smallness, simplicity and flexibility) support each other.

If it is possible to imagine all the possible use cases when designing a system, the design may very well be too simple and/or too inflexible. Smallness, simplicity and flexibility are also part of the "small, sharp tools" ideal of the Unix command line. Here the key to flexibility is the ability to creatively combine small tools that do small, individual things. Computing technology in general is very flexible because of its programmability. Programming and programmability should be supported and encouraged everywhere, and artificial lock-ins that prevent (re)programming should be broken. Design systems you can gradually modify and improve while running them.

 

 






Build on a solid

ground

ground

ground

ground

ground

ground

ground

ground

ground

ground

ground

ground

ground

ground

ground

ground

ground

ground

ground



It is good to experiment with new ideas, concepts and languages, but depending on them is usually a bad idea. Appreciate mature technologies, clear ideas and well-understood theories when building something that is intended to last. Avoid unreliable dependencies, especially as hard (non-optional) dependencies. If you can't avoid them (in case of software), put them available in the same place where you have your program available. It is possible to support several target platforms. In case of lasting programs, one of these should be a bedrock platform that does not change and therefore does not cause software rot. Don't take anything for granted. Especially don't expect the infrastructure such as the power grid and global networking to continue working indefinitely. You may also read this as "grow roots to a solid ground". Learn things that last, enrich your local tradition, know the history of everything.

 

Amplify awareness

Computers were invented to assist people in their cognitive processes. "Intelligence amplification" was a good goal, but intelligence may also be used narrowly and blindly. It may therefore be a better idea to

amplify

awareness.

Awareness

means

awareness

of whatever is concretely going on in the world/environment but also

awareness

of how things work and how they situate in their contexts (cultural, historical, biological etc).
You don't need to twiddle with everything in order to understand it. Yin hacking emphasizes observation.
It may also often be a good idea to amplify the computer's

awareness

of its physical surroundings with things like sensors.

 

Expose everything

               everything

                 everything

                   everything

                     everything

                       everything

                         everything

                            everything

                          everything

                        everything

                      everything

                    everything

                  everything

                everything

As an extension of "amplify awareness": Don't hide information!

Keep everything open, modifiable and flexible.
Share your source code and design philosophies.
State visualization: Make the computer visualize/auralize its internal state as well as whatever it knows about the state of its physical environment. Regard this visualization/auralization as a background landscape: facilitate observation but don't steal the attention. Also, don't use too much computing resources for this (updating a full-screen background landscape tens of times per second is a total overkill).

 

 

Respond to c

                     h     a

                n              g

                       e

                          s


Computing systems should adapt to the changes in their operating environments (especially in relation to energy and heat). 24/7 availability of all parts of the system should not be required, and neither should a constant operating performance (e.g. networking speed).

In a long term, software and hardware systems should not get obsoleted by changing needs and conditions. New software can be written even for old computers, old software can be modifed to respond to new needs, and new devices can be built from old components. Avoid both software rot and retrocomputing.

 

 

Every-

thing has a            place

 

 

 

 

Be part of your local energy/matter circulations, ecosystems and cultures. Cherish locality, avoid centralization. Strengthen the local roots of the technology you use and create.

While operating locally and at present, be aware of the entire world-wide context your work takes place in. This includes the historical context several decades to the past and the future. Understanding the past(s) is the key for envisioning the possible futures.

Nothing is "universal". Even computers, "universal calculators" that can be readapted to any task, are full of quirks that stem from the cultures that created them. Don't take them as the only way things can be, or as the most "rational" or "advanced" way.
Every system, no matter how ubiquitous or "universal" it is, is only a tiny speckle in a huge ocean of possibilities. Try to understand the entire possibility space in addition to the individual speckles you have concrete experience about.
Appreciate diversity, avoid monoculture. But remember that ?standards also have an important place.
Strict utilitarianism impoverishes. Uselessness also has an important place, so appreciate it.
You may also read this principle as: There is a place of everything. Nothing is obsolete or irrelevant. Even if they lose their original meaning, programmable systems may be readapted to new purposes they were not originally designed for. Think about technology as a rhizome rather than a "highway of progress and constant obsolescence".
There is a place for both slow and fast, both gradual and one-shot processes. Don't look at all things through the same glasses.

INTRODUCTION

Dans cette partie, nous aborderons la relation entre les humains et la technologie en traitant notamment les thèmes du code et des logiciels libres. ————— Dans « Code is Law », Laurence Lessig présente l’irrégularité et le caractère changeant du cyberespace ainsi que les tenants et aboutissants qui tournent autour de sa régulation par le code. ————— Dans le « Manifeste pour une guérilla en faveur du libre-accès », Aaron Swartz nous propose de s'approprier le libre-accès en contestation aux entreprises créant des logiciels propriétaires, afin de lutter contre la privatisation du savoir. ————— Harry Halpin nous explique l'importance des logiciels libres dans son texte « Logiciel Libre ». Il traite les questions de liberté des humains dans un monde régit par la technologie. ————— Dans l'essai introductif Learn to Code vs. Code to Learn, Silvio Lorusso met en confrontation d'une part sur ce que nous apporte et nous apprend la pratique du codage qui serait, selon lui, plus avantageux et émancipateur.

License libre test

Est-il possible de faire du graphisme avec un logiciel sous licence libre ?

Quels sont les défis et les opportunités liés à ce type d’approche ?

Pour répondre à ces questions, nous avons rencontré l'association Outils Libres Alternatifs, dont le mais est de promouvoir les principes du F/LOSS dans le domaine du design.

Back Office Bonjour OLA, qui es-tu exactement ?

Nous (Raphaël Bastide, Sarah Garcin et Bachir Soussi Chiadmi) portons tous deux casquettes : nous sommes designers et développeurs, soit au gui Studio, soit en freelance.

Nos activités quotidiennes impliquent beaucoup de programmation, nous nous sommes donc inévitablement impliqués dans la culture du logiciel libre qui fait tant partie de la scène.

L'utilisation d'outils « alternatifs » nous est apparu comme un domaine d'exploration particulièrement riche, avec ses méthodologies favorisant le travail collaboratif et le partage d'expériences.

Afin de sensibiliser un plus grand public à ces enjeux, nous avons fondé l'Association OLA en 2014. , octobre 2015.

INTRO

Dans cet article, Alexandre Grefen retrace l’histoire de l’IA par le projet CultureIA. Pour cela, l'auteur présente les capacités de l’intelligence artificielle. Selon lui, l’IA a énormément évolué mais pas au point d’avoir un raisonnement analogique. Il fait également mention des travaux de Turing sur la question du remplacement des humains par les machines. Pour finir, il est convaincu par l’idée que « l’IA produit du futur à partir des données du passée ».

IA: pour une histoire culturelle

IA :
POUR
UNE
HIST
OIRE
CULT
URE
LLE
IA :
POUR
UNE
HIST
OIRE
CULT
URE
LLE
IA:
IA:
IA:
IA:
IA:
IA:
IA:
 

Resumé

Cet article revient sur l’historiographie de l’intelligence artificielle (IA) pour proposer une nouvelle histoire culturelle de l’IA. Cette nouvelle approche est incarnée par le projet CulturIA, financé par l’Agence Nationale de la Recherche. CulturIA étudie l’histoire culturelle de l’intelligence artificielle (IA) de sa « préhistoire » aux développements contemporains du deep learning.

L’hypothèse de recherche de CulturIA s’appuie sur la

nécessité de comprendre l’IA non seulement comme un ensemble d’algorithmes, mais aussi comme une « technoculture » où les sciences impliquées (mathématiques, sciences de l’information et sciences cognitives) sont inscrites dans des institutions qui configurent les pratiques scientifiques, mais également dans des contextes culturels situés et dans des imaginaires qui impliquent des idéologies, des fictions et des représentations sensibles. Pour cela, CulturIA associe l’histoire des sciences, l’histoire des idées et la sociologie des sciences et des techniques avec l’analyse de terrain.

Auteur

Directeur de recherche CNRS au sein de l’unité Théorie et

histoire des arts et des littératures de la modernité (UMR7172, THALIM, CNRS / Université Sorbonne Nouvelle – Paris 3), Alexandre Gefen est historien des idées et de la littérature. Après un programme de recherche consacrées aux fictions de de l’Intelligence Artificielle (ia-fictions.net) il est porteur principal (PI) du projet ANR « CulturIA », pour une histoire culturelle de l’IA.

alexandre.gefen@cnrs.fr

 

Cette réflexion s’insère dans le cadre du projet le projet « CulturIA », financé par l’Agence Nationale de la Recherche qui étudie l’histoire culturelle de l’intelligence artificielle (IA) de sa « préhistoire » aux développements contemporains.

L’IA peut se définir comme l’ensemble de méthodes

mathématiques et de technologies informatiques destinées à résoudre des problèmes ordinairement traités par l’esprit humain, de l’accompagnement des tâches humaines (les outils numériques) à la substitution à l’humain (c’est l’horizon d’une « IA générale » capable de produire des raisonnements).

Nous en sommes à une étape intermédiaire de ce 

développement technologique entamé concrètement depuis les années 1950, mais fantasmé depuis des millénaires : l’IA offre déjà de meilleures performances que l’Homme pour de nombreuses tâches spécialisées (classification d’images et de documents, traduction, analyse des tendances et prédiction, production de sons, textes et images, résolution, jeux élaborés).

L’IA a montré sa capacité également à simuler 

plausiblement certaines interactions et, depuis 2014, des agents conversationnels arrivent à passer le test de Turing imaginé par le mathématicien en 1950 (réussir à tromper un être humain sur l’identité de celui qui échange avec vous dans une pièce). Le modèle de langage GPT 3 (ce qu’on appelle un « Large Langage Model ») a avalé 175 milliards de paramètres et est capable d’avoir une conversation plausible sur des sujets complexes, de suggérer des réponses élaborées, de recommander des livres, d’imiter de grands écrivains, de traduire d’une langue à une autre. Mais GPT3 ne fait que des prévisions (transfer learning) à partir de textes appris ; il n’est pas capable de raisonnement par analogie et n’a pas de représentation du monde : au sens de John Searle qui critiquait le test de Turing dans un article célèbre 1 par la métaphore de la « chambre chinoise », il manipule des symboles mais ne pense pas.

Les derniers développements de l’IA voient les progrès de

l’apprentissage machine et l’émergence d’un deep learning non supervisé qui utilise des réseaux imitant les neurones humains, capables de travailler sur des données brutes, non préparées et non structurées, sans avoir besoin qu’on lui indique les traits discriminants des données, capables aussi de les classer tout seul, mais en s’appuyant sur d’énormes quantités de données. On pense ici à Alphago qui a appris le go en jouant contre lui-même ou aux GAN (Generative Adversarial Network) qui se mettent en compétition sous le regard d’un algorithme tiers qui évalue leurs progrès.

Ces développements récents et l’émergence

d’applications industrielles ont nourri d’intenses débats qui questionnent les représentations du partage entre le vivant et la machine 2, interrogent les notions d’autonomie 3et d’originalité 4, modifient notre rapport à la mémoire 5, reformulent nos catégories philosophiques 6, éthiques 7 et esthétiques en interrogeant l’idée même de culture 8. Mais plutôt que de restreindre l’IA à des dilemmes moraux et politiques qui simplifient le propos à outrance 9, il est temps de faire de l’IA un objet culturel riche doté d’une histoire propre, en particulier culturelle. Cette approche contraste, d’une part, avec les tendances réduisant l’IA à un désastre économique ou civilisationnel et, d’autre part, avec les approches faisant de l’IA une solution miraculeuse à tous les défis sociétaux.
 
1 John
R. Searle
« Minds,
brains, and
programs »,
Behavioral
and Brain
Sciences,
septembre
1980, vol.
3, no 3, p.
417 424.
1980
1980
1980
1980
1980
1980
1980
1980
1980
1980
1980
1980
2 Denis
Vidal, Aux
frontières
de l’humain:
dieux, figures
Behavioral
de cire, robots
et autres artefacts,
Paris, Alma, 2016.
2016
2016
2016
2016
2016
2016
2016
2016
2016
3 William F. Lawless
et Donald A. Sofge,
Evaluations: Autonomy
and artificial intelligence
A threat or savior?, New
York, Springer, 2017,
295-316 p. ; V. Dignum,
« Ethics in artificial
intelligence: Introduction
tothe special issue»,
Ethics and Information
Technology, 2018,
vol. 20, n 1, p.
1‑3; Simon Chesterman,
« Artificial intelligence
and the problem of autonomy»,
Notre Dame Journal on
Emerging Technologies, 2020,
vol. 1, no 2, p. 210‑250.
2017
2017
2017
2017
2017
2017
2017
2017
2017
2017
2017
2017
2017
 
4 Timothy
L. Butler
« Can a
computer
be an author?
Copyright
aspects
of artificial
intelligence»,
Hastings
Communi-
cation &
Entertainment
Law Journal
1982, vol.4,
no.4, p.
707‑747;
Andres
Guadamuz,
« Do and-
roids dream
of electric
copyright?
Comparative
analysis of
originality in
artificial
intelligence
generated works»,
Intellectual
Property Quarterly,
2017, vol. 2017,
no 2, p. 169-186.
1987
1987
1987
1987
1987
1987
2017
2017
2017
2017
2017
2017
5 Eduard
F. Villaronga,
Peter Kieseberg
et Tiffany Li,
« Humans
forget,
machines
remember:
Artificial
intelligence
and the
right to be
forgetten»
Computer
Law &
Security
Review,
2018, vol.
34, no 2, p.
304-313
6 Wendy Hui
Kyong. Chun,
Programmed
visions:
Software
and memory,
Cambridge,
MIT Press, 2011.
 
7 Virginia Dignum,
«Ethics in artificial
intelligence: Intro-
duction o the special
issue», Ethics
and Information
Technology, 2018,
vol.20, no 1, p. 1‑3;
A. Etzioni et O. Etzioni,
« Incorporating
ethics into artificial
intelligence », The
Journal of Ethics,
2017, vol. 21,n
4, p. 403‑418.
2018
2018
2018
2018
2018
2018
2018
8 Margaret-
Ann Boden,
«Creativity
and artificial
intelligence»,
Artificial
Intelligence,
1998, vol. 103,
n 1-2, p. 347 356;
Philippe Esling
et Ninon Devis,
«Creativity in the
era of artificial
intelligence»,
Journées d'Infor-
matique Musicale,
Strasbourg,
octobre 2020
⟨hal-03208010⟩.
9 Vanessa Nurock,
«Généalogie de la
morale mécanisée»
dans M.-H. Parizeau
et S. Kash (eds.),
Robots et sociétés:
enjeux éthiques et
politiques, Laval,
Les Presses de
l’Université Laval,
2019, p. 31‑50.
 
10 Kate
Crawford
et Vladan
Joler,
Anatomy
of an AI
system:
The Amazon
Echo as an
anatomical
map of human
labor,
data and
planetary
resources,
New York, AI
Now Institute
and Share
Lab, 2018.
2018
2018
2018
2018
2018
2018
2018
11 Alexander
Campolo et
Kate Crawford,
« Enchanted
determinism:
Power without
responsibility
in artificial
intelligence »,
Engaging
Science,
Technology
and Society,
2020, vol.
6, p. 1‑19.
12 Gaston
Bachelard,
La Formation
de l’esprit
scientifique :
contribution :
une psycha-
nalyse de la
conaissance
objective,
Paris,
J. Vrin,
1938.
 

Car l’IA est en réalité un phénomène scientifique

et intellectuel multidisciplinaire et un objet culturel global, incluant l’histoire de la philosophie autant que l’histoire des mathématiques ou de la biologie. Elle recouvre une variété de savoirs allant de la philosophie du raisonnement aux sciences cognitives (les réseaux de neurones ont fourni un modèle à une discipline qui essaye bien souvent de reproduire des mécanismes humains ou adopte au moins des métaphores : réseaux à « mémoire » ou à « attention »). Certaines avancées sont technologiques (la loi de Moore), d’autres relèvent des progrès lents des mathématiques (algèbre linéaire), sur un vaste spectre de domaines disciplinaires. L’histoire culturelle des idées doit produire à la fois l’identification de points de rupture (l’invention du fameux perceptron fondé sur la théorie du feedback) et de « pentes faibles » (le progrès des automates), ds « seuils épistémologiques » 12(comme la logique formelle développée par l’école de Vienne) et d’ « unités architectoniques » (l’ère de la cybernétique, celle du deep learning) pour emprunter le vocabulaire de l’archéologie foucaldienne, modèle intellectuel qui nous invite à penser l’IA avant l’IA, avant son invention dans les années 1950.

Cette archéologie de l’IA n’est pas réductible à un modèle 

linéaire: elle a souvent avancé par à-coups. Nombreux sont en effet les projets restés virtuels faute de technologie (la machine de Babbage, machine à calculer programmable imaginée en 1834 mais qui n’a jamais fonctionné), les objets oubliés pendant des millénaires (les automates grecs élaborés), les inventions sans avenir (la machine d’Anticythère premier calculateur analogique antique permettant de calculer des positions astronomiques ou la machine de Wilhelm Schickard qui précède l’invention de Pascal, la Pascaline, première machine à calculer moderne, de vingt ans), comme fréquents sont les moments de suspension (l’hiver de l’IA, ce ralentissement des recherches dans les années 70), les anticipations forcenées et les tricheries (le canard mécanique de Vaucanson censé simuler la digestion, le Turc mécanique canular de la fin du XVIIIesiècle réalisé par Johann Wolfgang von Kempelen et qui impressionna le monde entier).

Or cette histoire de l’IA n’a été que très partiellement tracée :

malgré les travaux de Pratt 13 et Nilsson 14, il faut recourir aux excellents chapitres introductifs du manuel de référence de Norvig et Russell, Artificial Intelligence: A Modern Approach. Ces travaux centrés sur la naissance de l’IA au sein de la cybernétique ou son histoire strictement scientifique ne permettent ni d’en mesurer les extensions pluridisciplinaires actuelles, ni de faire une histoire intellectuelle d’un projet aux dimensions scientifiques et aux résonances culturelles multiples. La synthèse récente de l’Université de Stanford porte le regard vers le futur plutôt que vers le passé 15.

Si certains créateurs de l’IA ont accédé au statut de célébrités 16,

peu de travaux ont été menés avec les développeurs et entrepreneurs de l’IA eux-mêmes, et jamais avec une perspective socio-anthropologique. De même, bien que ses acteurs aient souvent porté un discours public, ils ont rarement fait l’objet d’enquêtes dédiées, hormis dans une perspective critique 17 ou de philosophie politique 18.

La dimension culturelle de l’IA est présente dans le très

important projet Global AI Narrative 19 mais celui-ci entend proposer une approche internationale panoramique, en produisant des sondages et non pas un récit historique intégré qui est le cœur de notre projet. Du calculateur astronomique d’Anticythère aux ordinateurs, en passant par la Pascaline, l’analytical engine de Babbage, le logic piano de William Stanley Jevons ou le joueur d’échecs de Torrès-
 
13 Vernon
Pratt,
Machines à
penser : une
histoire de
l’intelligence
artificielle,
Paris,
Presses
Universitaires
de France,
1995.
14 Nils
John
Nilsson,
The
Quest
for art-
ificial
intelli-
gence:
A history
of ideas
and achi-
evements,
Cambridge,
Cambridge
University
Press,
2009.
15 Peter Stone,
Artificial
intelligence
and life in
2030. One
hundred year
study on
artificial
intelligence:
Report of the
2015-2016
study panel,
San Francisco,
Stanford
University,
2016.
2016
2016
2016
2016
2016
2016
2016
 
16 Andrew Hodges,
Alan Turing ou l’éni-
gme de l’intelligence
artificielle, traduit
par N. Zimmermann,
Paris, Éditions
Payot & Rivages,
2004 ; C. Metz,
« Turing Award
won by 3 pioneers
in artificial
intelligence », The
New York Times,
27 mars 2019.
17 Antonio A
Casilli et
Dominique Méda,
En attendant
les robots :
enquête sur
le travail
du clic, Paris,
Éditions du
Seuil, 2021 ;
Kate Crawford,
Atlas of AI:
Power, politics,
and the plane-
tary costs of
artificial
intelligence,
New Haven,
Yale University
Press, 2021.
2021
2021
2021
2021
2021
2021
2021
2021
2021
2021
2021
2021
18 Gaspard
Koenig,
La Fin de
l’individu :
voyage d’un
philosophe
au pays de
l’intelligence
artificielle,
Paris, Éditions
de l’Observa-
toire, 2019.
 
19 Stephen
Cave et
Kanta Dihal,
Global AI
Narratives
Project,
https://www.
ainarratives.com,
(consulté le
20 janvier 2022).
20 Stephen Cave,
Kanta Dihal et
Sarah Dillon,
AI, narratives:
A history of
imaginative
thinking about
intelligent
machines, Oxford,
Oxford University
Press, 2020.
21 Clifford
Pickover,
Artificial
intelligence:
An illustrated
history.
From medieval
robots to
neural networks,
New York,
Sterling
Publishing
Company, 2019.
22 Kevin LaGrandeur,
Artificial Slaves.
Androids and
Intelligent Networks
in Early Modern
Literature and
Culture, Abingdon
-on-Thames, Routledge,
2017; Adelheid Vos-
kuhl, Androids in
the Enlightenment:
Mechanics, artisans,
and cultures of
the self, Chicago,
Chicago University
Press, 2013.
2013
2013
2013
2013
2013
2013
2013
 
23 Damien Broderick,
Consciousness
and Science
fiction, New York,
Springer, 2018.
2018
2018
2018
2018
2018
2018
2018
2018
2018
2018
2018
2018
24 Fred Turner,
L’Usage de l’art :
de Burning Man à
Facebook, art,
technologie et
management dans
la Silicon Valley.
C&F Éditions, Caen,
C&F Éditions, 2020.
25 Pierre
Cassou-Noguès,
Technofictions,
Paris, Les
Éditions du
Cerf, 2019.
2019
2019
2019
2019
2019
2019
2019
2019
2019
2019
2019
2019
2019
2019
2019
2019
2019
2019
26 Daniel Crevier,
The Tumultuous
history of the
Artificial
Intelligence,
New York,
Basic Books, 1993.
 
Quevedo, la préhistoire de l’IA s’incarne dans des objets matériels et concrets. Elle s’accompagne aussi d’images et de fictions 20 du Golem à Blade Runner, de la légende des Géants de bronze de Talos à Terminator. Ces dimensions visuelles ont donné lieu à des travaux pour le moment sommaires, comme le projet d’histoire illustrée de l’IA de Pickover 21, ou centrés uniquement sur l’époque historique particulière des Lumières 22 et le thème des automates.

La question des représentations fictionnelles de l’IA reste

éclatée dans les essais de référence 23 ou les encyclopédies de la science-fiction, et demeure marquée par une approche thématique qu’il s’agit de dépasser par un travail en commun des historiens des sciences et de la culture. Il faut au contraire souligner les liens étroits entre les productions artistiques et les programmes technologiques, y compris dans les industries de l’IA 24: l’art est non seulement le reflet des technologies, mais permet de prendre la mesure de ses réalisations. Ainsi, c’est avec la création de tableaux que l’on a pris conscience de la puissance des Generative Adversarial Networks et avec la production d’histoires vraisemblables ou de pastiches de grands auteurs que le modèle linguistique GPT-3 a démontré ses pouvoirs.

La fiction a été utilisée pour anticiper les multiples

conséquences des transformations technologiques induites par l’IA 25. Yan le Cun, l’un des inventeurs des réseaux de neuronnes convolutifs qui sont à l’origine du deep learning moderne, raconte l’influence qu’a eu sur lui l’ordinateur de science-fiction HAL de 2001 l’Odyssée de l’espace, expérience séminale pour le jeune homme qu’il était et médiation fictionnelle pour de nombreux chercheurs en IA – et sans avoir besoin de rappeler qu’Ada Lovelace était la fille de Lord Byron, comment oublier que Norbert Wiener et Marvin Minsky, deux des pères fondateurs de l’intelligence artificielle, ont écrit des romans ?

L’histoire à retracer de l’IA ne saurait donc être abstraite et

uniquement conceptuelle : l’IA est un ensemble de technologies indissociable de rêves et de fantasmes, ses applications sont tributaires de valeurs et d’idéologies situées. Il reste à faire une histoire longue et délibérément transculturelle de l’IA proposant de confronter les gestes artistiques aux discours des scientifiques créateurs d’IA, de manière à proposer des points de comparaison, de convergence ou d’écart entre les différents discours propres aux territoires respectifs de l’art et de la science. Il faut donc humaniser et incarner l’histoire de l’IA, des androïdes féminines qui hantent nos mémoires au corps gay de Turing en passant par les animaux, montrer qu’elle n’est pas produite par une logique scientifique déterministe, mais au contraire qu’elle s’articule à l’histoire sociale, politique et culturelle et même littéraire.

On y rencontre nos vieilles inquiétudes sur le remplacement

par la machine, ce que Günther Anders nommait la « honte prométhéenne », autant que de vieux fantasmes érotiques. La pomme croquée avec laquelle Turing se suicide évoque puissamment le péché de connaissance et celle d’Ève dans la Genèse, tant il est vrai que bien souvent les inventions technologiques de l’IA viennent puiser dans le répertoire mythique. L’histoire sociale de l’IA puise ses racines dès le XVIIIe siècle : le métier à tisser de Jacquard, premier exemple de cartes perforées à l’aube de l’informatique moderne, sera l’occasion de la première révolte contre les machines, celle des canuts à Lyon qui en 1831 brisèrent les métiers à tisser.

La tradition des automates alimente les rêveries sur le potentiel

magique des machines anthropomorphes, mais aussi les cauchemars sur le remplacement des humains par des formes de vie supérieures. Dans cette histoire déjà longue, les miracles côtoient les tragédies. Charles Babbage reprend les cartes de Jacquard dans sa machine analytique. Ada Lovelace a l’idée de rédiger le premier algorithme exécutable permettant de réaliser une série de calculs inscrits sur les cartes perforées. Ces cartes perforées sont centrales dans les mécanismes d’enregistrement et de classement moderne : en 1928, IBM fit ainsi breveter ses cartes à 80 colonnes. Sur ces cartes, les caractères alphanumériques étaient figurés par des perforations rectangulaires disposées en 80 colonnes parallèles, réparties sur 12 lignes. Les coins coupés permettaient de repérer le sens d’insertion dans le chargeur de cartes. IBM racheta ensuite l’entreprise allemande Dehomag qui contribua à la recension engagée à partir de 1933 par les nazis, période durant laquelle un demi-million d’enquêteurs se mit à faire du porte-à-porte. Le résultat fut porté sur des cartes de 60 colonnes, perforées au rythme de 450 000 par jour.

Pour les nazis, la colonne 22, case 3 désignait les juifs.

Au même moment, Turing inventait les « bombes » qui permirent de déchiffrer les codes de l’Enigma nazie à Blenchey Park et le « Colossus », l’un des premiers ordinateurs modernes qui fut utilisé pour préparer le débarquement de Normandie.

Cette histoire qui reste à écrire est d’autant plus importante

que le rapport entre l’IA et le temps est particulièrement riche : l’IA incarne le futur de nos technologies, mais aussi une sorte de fin du temps humain en regard de l’avènement de machines éternelles et immortelles. Ses fictions mettent en scène des perturbations chronologiques : le temps arrêté par les déterminismes (Minority report), le retour dans le passé (Terminator).

Or, l’IA produit du futur à partir de données passées.

En ce sens, elle est foncièrement rétrograde et peut favoriser des politiques de l’inertie, voire réactionnaires. En même temps, elle rêve des machines qui échappent au temps, elle promet de manière eschatologique la fin du temps humain lorsqu’adviendra, à l’heure de la « singularité technologique », le temps des machines. De manière paradoxale (proposition d’ajout), l’IA génère des peurs et des rêves.

Son histoire est non seulement « histoire tumultueuse » comme

l’écrit un de ces historiens, Daniel Crevier 26, mais aussi heurtée. Dans sa chronologie complexe planent à la fois le spectre de l’avant, celui d’un monde animiste où l’humain cohabiterait avec l’esprit des choses manifestant une divinité, celui d’un présent immobile contrôlé par des machines répétant une vision figée et déterministe de la condition humaine et celui de l’après, de la singularité ou du posthumanisme où l’être humain serait absorbé voire détruit pour le meilleur ou pour le pire dans l’intelligence des machines.
INTRO
Le texte suivant est un échange mené par la chercheuse Anne-Lyse Renon et le designer graphique Stéphane Buellet avec Roberto Gimeno à propos du laboratoire de Graphique de L'EHESS, ou anciennement nommé le Laboratoire de Cartographie, un établissement précurceur en ce qui concerne l'imagerie scientifique. Ensemble, ils vont mesurer, à des décénies d'écart, l'héritage pédagogique que Jacques Bertin et son Laboratoire ont laissé derrière eux depuis 1976.

Voir ou lire

 

L’héritage pédagogique de Jacques Bertin

 

Stéphane Buellet, Roberto Gimeno & Anne-Lyse Renon

 

Le Laboratoire de Cartographie, fondé par Jacques Bertin en 1954, devenu le Laboratoire de Graphique en 1974 (fermé en 2000), articulait de manière inédite production d’images scientifiques, représentation de données et recherches en sciences sociales. Le caractère précurseur des travaux du Laboratoire, manifeste au travers des ouvrages de Bertin, est désormais internationalement reconnu.

La « sémiologie graphique » de Jacques Bertin est une source clef dont se revendiquent aujourd’hui non seulement des cartographes, mais aussi des spécialistes de l’analyse visuelle des données et du design graphique . Sur le plan pédagogique, des recherches sur les usages possibles de la Graphique dans l’enseignement ont été menées au Laboratoire de Graphique de l’EHESS dès 1976 par Roberto Gimeno, alors collaborateur de Jacques Bertin. Ces expériences ont été réalisées avec des classes de différents niveaux en école primaire et au collège. Les élèves ont été amenés à construire des matrices et des cartes informatiques pour découvrir des typologies, inventer des concepts et accéder ainsi à de nouvelles connaissances.

 

La chercheuse Anne-Lyse Renon et le designer graphique Stéphane Buellet se sont entretenus avec Roberto Gimeno pour mesurer, à plus de trente ans d’écart, l’héritage pédagogique du Laboratoire de Graphique.

 

 

 

Anne-Lyse Renon : Roberto, vous avez été amené à travailler avec Jacques Bertin dans les années 1980. Comment en êtes-vous venu à cela ?

Roberto Gimeno : J’ai enseigné comme instituteur en Uruguay pendant plus de dix ans. J’ai toujours été intéressé par l’image et j’ai pu accéder par concours à un poste de producteur et réalisateur à la télévision scolaire de l’Éducation nationale française. Deux ans plus tard, j’ai obtenu une bourse du gouvernement français pour me spécialiser en techniques et méthodes audiovisuelles dans le cadre de l’Institut national de la recherche pédagogique (INRP) à Paris. C’est là que j’ai rencontré le sociologue et linguiste Louis Porcher qui m’a fait connaître les travaux de Jacques Bertin, qui dirigeait alors le Laboratoire de Graphique à l’EHESS, fondé en 1954.

 

Jacques Bertin m’a accepté comme étudiant en 1974 et m’a proposé, comme sujet de thèse, de mettre en relation mes formations pédagogique et de graphicien. C’est ainsi que le projet de recherche de l’utilisation de la Graphique dans l’enseignement est né et que j’ai eu accès à des écoles à Neuilly, Levallois, en Seine-Saint-Denis, etc.

Par la suite, le réseau s’est étendu. J’ai été invité à animer des stages sur l’utilisation de la Graphique dans l’enseignement, sur le traitement matriciel et la représentation de l’histoire, sur la cartographie, etc. De nouveaux enseignants s’intéressaient à ce sujet, les expériences se multipliaient.

 

Quand nous avons commencé ces travaux, l’ordinateur personnel n’était pas abordable. La question des outils infographiques s’est posée très vite pour remplacer les opérations manuelles de découpage et de collage afin d’effectuer les traitements matriciels directement à l’écran ;c’est-à-dire de visualiser des tableaux à double entrée permettant les permutations des lignes et des colonnes pour effectuer des classements.

L’héritage pédagogique de Jacques Bertin

L’héritage pédagogique de Jacques Bertin

L’héritage pédagogique de Jacques Bertin

 

 

L’héritage pédagogique de Jacques Bertin

 

L’héritage pédagogique de Jacques Bertin

 

 

L’héritage pédagogique de Jacques Bertin

 

Le premier ordinateur était un Micral 80-22G (1978) de l’entreprise française R2E, pour lequel Jean-Michel Fras et Pierre-Yves Vicens, de l’École Normale de Livry-Gargan, avaient créé un premier outil infographique qui permettait le classement des lignes et des colonnes d’une matrice et la réalisation de cartes. Ce premier outil a été amélioré et redéveloppé pour les TO7, TO7-70 et le nanoréseau de Thomson, qui faisaient partie, dès 1984-1985, du plan « Informatique pour tous » (plan IPT). Malheureusement, le choix des terminaux 8 bits de Thomson a été une catastrophe. Cela devait développer la filière française de l’informatique avec le Minitel, mais le crayon optique n’a pas résisté longtemps à la souris du Apple Macintosh (1984).

 

Dans ce cadre, nous avions répondu à un appel d’offres du ministère de l’Éducation nationale avec deux enseignants de l’École Normale d’Instituteurs d’Antony, dans les Hauts-de-Seine. Nous avions présenté un projet de logiciel de traitement matriciel et de cartographie qui a ensuite donné naissance à Cartax et Cartax PC , deux logiciels développés par Nathan Logiciels et achetés sous licence par le Ministère. Ces programmes fonctionnaient sur des postes MO5 avec une extension de RAM 64 Ko. C’est ainsi que le premier outil informatique consacré à l’enseignement a été réalisé à l’École Normale de Livry-Gargan, au début des années 1980.

Voir ou Lire Voir ou Lire Voir ou Lire

 

Anne-Lyse Renon : La cartographie s’est-elle imposée d’elle-même comme objet d’étude lors de vos ateliers, de par sa présence au sein des espaces scolaires, ou son choix est-il lié aux activités spécifiques du Laboratoire de Graphique ?

Roberto Gimeno : La cartographie a toujours fait partie des programmes scolaires, bien qu’elle se limite souvent à copier des cartes. L’informatique induisait une nouvelle approche permettant de spatialiser des donnéesn qualitatives ou quantitatives, de produire des images et des séries d’images comparables qui allaient mettre l’élève en situation dynamique de réflexion et de recherche et cela dans des domaines divers : non seulement en géographie, mais aussi en histoire, en sciences sociales en général, etc. Cette démarche pédagogique était parallèle à celle du Laboratoire de Graphique dirigé par Bertin, qui avait pour but de créer un outil infographique orienté vers la recherche et permettant des traitements matriciels. Au niveau scolaire, nos travaux ne nous ont pas permis d’atteindre ce but, c’est-à-dire de passer automatiquement de la matrice ordonnée à la carte géographique. Cette recherche est toujours d’actualité, notamment au sein du logiciel Khartis développé par l’atelier cartographique de Sciences Po. Ce projet est l’héritier direct des travaux de Bertin, mais est malheureusement trop complexe pour être utilisé dans les écoles élémentaires.

 

Stéphane Buellet : Il y a encore aujourd’hui un fossé entre la présence quasi généralisée des moyens technologiques dans les écoles, et les difficultés rencontrées par le corps pédagogique à connaître ce qu’est un ordinateur, à le maîtriser et à savoir l’utiliser au sein d’un enseignement. J’ai l’impression que le c’est même problème depuis trente ans.

 

Roberto Gimeno : La méthode proposée par Bertin était d’ordre scientifique : on se posait des questions, on formulait des hypothèses, on délimitait un domaine de recherche et des objets d’étude. On disposait d’un outil visuel et manuel, la matrice permutable, qui permettait d’effectuer un traitement, de découvrir des classes d’objets, d’obtenir des typologies et donc de construire des concepts. Et l’outil même constituait un support excellent pour interpréter les résultats et construire un discours ou un texte. Cet apprentissage de la rigueur fonctionnait depuis le CP et à tous les niveaux. Pour répondre à votre remarque, avec l’appui de chercheurs, les enseignants n’avaient aucune difficulté à s’approprier la méthode. Mais, laissés seuls, des problèmes se présentaient pour amener les enfants à construire eux-mêmes les connaissances.

 

Stéphane Buellet : Aujourd’hui, les enfants sont très tôt confrontés à un monde d’écrans où tout est plat et semble « immatériel ». Dans le travail que vous faisiez avec les petits bouts de papier, les ciseaux, l’espace et la manipulation, n’y avait-il pas quelque chose aulequel on revient actuellement ? Passer par la matérialité, surtout pour les tout petits, pour aller vers l’abstraction… Vous aviez développé cette approche avant la présence des ordinateurs en classe et finalement on y revient : les questions qui sont posées dans votre article de 1985 sur « la cartographie et l’informatique dans l’enseignement » sont toujours d’actualité.

 

Roberto Gimeno : Oui, nous partions toujours d’un travail manuel, cela permettait de passer sans aucun problème de la manipulation des matrices à l’abstraction de l’écran. Ces périodes d’oubli sont curieuses : on redécouvre comme si c’était nouveau, dix ans, vingt ans ou un siècle plus tard, quelque chose qui a déjà été développé et qui semblait acquis.

 

Stéphane Buellet : Dans un autre article de 1985 sur la « transmission des connaissances assistées par ordinateur », vous abordez l’ordinateur, la machine, comme une sorte de « dieu » tout puissant, dont on ne saurait pas ce qu’il contient. Vous dites ainsi : « Le mythe du savoir total détenu par la machine augmente encore les possibilités de transformer l’informatique en un ‹ ghetto › où seuls peuvent entrer ceux qui ‹ savent ›, et l’informatique fait le reste (est-ce l’intention des informaticiens ?). […] Si on n’y prend pas garde, les enfants n’auront comme seule référence que le ‹ grand › ordinateur (dans le sens ‹ théologique › évoqué, mais évacué par Jacques Perret dans sa création du mot ‹ ordinateur › en 1955). » Il faut, selon vous, déconstruire cette idée, notamment en travaillant « avec » la machine. Cela permet à l’enfant de comprendre que l’ordinateur réalise des choses de façon très puissante, mais qu’il peut en comprendre les règles et qu’il y a donc une limite à ces règles, un périmètre à ce que l’ordinateur peut comprendre.

 

L’héritage pédagogique de Jacques Bertin

Roberto Gimeno : À l’époque de l’article que vous citez, on imaginait que l’enfant devait apprendre à programmer, puis on a pris conscience que tout le monde ne pouvait pas devenir informaticien. En revanche, nous sommes tous des utilisateurs.

 

 

Il est donc primordial d’avoir conscience de ce qu’est un ordinateur, de comment il fonctionne, de ses limites et de ce qu’il peut nous apporter. Je ne suis pas sûr qu’on le fasse à l’école actuellement, alors que les enfants utilisent quotidiennement des terminaux numériques de toutes sortes. Déjà, à l’époque, j’étais surpris d’observer des enfants de très bas âge considérer l’ordinateur comme un objet commun, facile à maîtriser, au contraire des adultes.

 

 

Stéphane Buellet : Ces dernières années, la « tactilité » (le devenir « digital » du numérique) resserre encore davantage la relation entre l’enfant et l’ordinateur, notamment via les tablettes. Les enfants nous surprennent à deux-trois ans à les utiliser très facilement. Le rapport au toucher développe très vite un attachement, voire une addiction à l’objet. Le périphérique d’entrée classique clavier/souris est comme « effacé », et transforme le rapport que l’enfant entretenait dans le passé avec l’ordinateur (objet de bureau) en une source d’excitation captivante et complaisante.

V V VOI VOIR o ou L Li Lire

Vo Li R Loir Vi Ire

 

Roberto Gimeno : Oui, alors qu’avec le langage de programmation pour enfants LOGO (1967), il était difficile de se déplacer, non pas directement sur l’écran, mais à l’aide des touches haut/bas/droite/gauche du clavier, qui demandaient un effort considérable d’abstraction pour passer du dessin manuel à la création d’une carte sur l’écran .

Anne-Lyse Renon : Stéphane, à la lecture des articles de Roberto Gimeno datant des années 1980/1990, aurais-tu des exemples de projets de design prolongeant ces recherches ?

Stéphane Buellet : Pour rester dans le domaine de la cartographie, je pense notamment au projet Earth Wind Map de Cameron Beccario (2013), qui permet de visualiser en ligne les conditions météorologiques mondiales. Ces cartes sont animées via des données qui sont récoltées toutes les trois heures : on peut percevoir les vents, les courants marins et l’on peut quasiment « entrer dans la carte » en zoomant. Il y a de multiples projections et une grande variété de réglages d’affichage.

 

Roberto Gimeno : À mon époque, l’animation était encore inconnue alors qu’elle est très présente dans l’exemple que vous montrez. Ces transformations dynamiques sont très intéressantes, mais elles ne remplacent pas les possibilités d’analyse de séries de cartes. Les buts sont différents et les résultats complémentaires. Il faut signaler que, dans les écoles élémentaires, on travaillait en priorité à l’échelle du département, de la France et éventuellement de l’Europe. On ne passait que rarement à l’échelle mondiale.

 

Stéphane Buellet : Les projections, les orientations, sont souvent liées à des visions et à des contextes politiques mettant, par exemple, en avant les pays du Nord, comme dans la projection de Mercator (1569). C’est révélateur de la façon dont on s’approprie un territoire ou une connaissance d’un territoire. Dans ce type d’image statique, il y a la question du choix du cadrage et de ce que l’on décide de montrer. À l’inverse, dans les nouveaux dispositifs techniques comme les « 360 degrés » des caméras, ou comme dans le fond de carte dynamique de Earth Wind Map dans lequel on peut zoomer, la question du « choix de cadrage » disparaît : le lecteur/spectateur semble être omniscient et décide lui-même de ce qu’il souhaite voir.

 

Roberto Gimeno : Tout à fait, ces réflexions politiques faisaient partie des cours de cartographie ; il s’agit toujours de choix idéologiques. Dans votre exemple, on a l’illusion de pouvoir naviguer librement dans un dispositif, et pourtant il s’agit toujours de choix idéologiques, inévitables, même s’ils sont inconscients.

L’héritage pédagogique de Jacques Bertin

L’héritage pédagogique de Jacques Bertin

Anne-Lyse Renon : Ce qui est frappant dans ce genre d’objet dynamique, c’est la juxtaposition de plans qui montrent, ne serait-ce que par les bords du navigateur Web, que la carte reste toujours un cadrage. Un outil comme Google Earth (2001) donne la sensation d’un grand réalisme tridimensionnel, alors que cela reste une simulation très poussée de la réalité. Il s’agit en fait de photos associées proposant une scénarisation particulière, qui donne également l’illusion d’une toute-puissance.

Stéphane Buellet : Au-delà de cette recherche de réalisme, il y a eu ces dernières années une explosion de ce que l’on appelle la « data visualization » dans toutes les formes de médias. La redécouverte des travaux de Bertin via (entre autres) l’exposition rétrospective que tu as organisée, Anne-Lyse, à l’EHESS, met en évidence que de nombreux designers graphiques utilisent des registres formels dont ils méconnaissent souvent les fondements historiques. En lisant l’article de 1985 de Roberto Gimeno sur la cartographie et l’informatique dans l’enseignement, c’est vraiment quelque chose qui m’a frappé.J’ai découvert Bertin par hasard pour la première fois dans la thèse de Ben Fry (2004), un étudiant du MIT, et je me suis dit : « Ah ben tiens, c’est un Français ! » Je pense que bon nombre d’entre nous, designers graphiques, sommes passés par l’angle américain pour redécouvrir des travaux en fait réalisés en France ; ce qui est assez déroutant, car il n’y est pas directement question de cartographie, mais de processus logiques. Dans mes projets, j’utilise d’ailleurs beaucoup les relations entre design graphique et programmation, en tentant de jouer avec des règles et des lois.

 

Roberto Gimeno : Bertin avait été très critiqué quand il affirmait que les variables visuelles  qui transcrivent selon lui « la ressemblance, l’ordre et la proportionnalité, les trois signifiés de la graphique » — sont universelles. Il semblerait pourtant que l’histoire et l’héritage l’aient démontré. Pour exprimer les informations de manière efficace, on ne peut utiliser que certains signes et certains types de relations qui existent entre ces signes : ce sont les variables visuelles et leurs propriétés. Il y avait, dans les années de Bertin, une tendance à « mathématiser » le réel pour résoudre des questions perceptives.

 

Voir ou Lire

Stéphane Buellet : Bertin semblait vouloir assigner du sens à des formes : c’est le projet de la sémiologie graphique. Dans cette logique de systématisation, voire d’automatisation, j’aimerais avoir votre avis sur le site Web Datavizproject.com, qui propose un index visuel, à vocation exhaustive, de types de représentations de données (camembert, tableau à double entrée, barre de progression, etc.). Une des fonctionnalités de ce site permet d’associer des typologies d’entrées (input), c’est-à-dire matricielles, à des types de visualisations (output) adaptées à ces structures de données. De plus, pour chaque cas, il y a des exemples concrets d’utilisation.

Roberto Gimeno : Quand je regarde toutes ces productions, il y en a de très jolies, mais j’ai de gros doutes sur leurs capacités en tant que représentations précises d’une information. Il y a manifestement une utilisation des variables visuelles non adaptée, esthétisante. Bertin considérait que l’information devait être perçue d’un seul coup d’œil. Autrement, le lecteur se retrouve non pas devant une image « à voir », mais devant une image « à lire », et le plus souvent devant une image incompréhensible. C’est le risque quand on donne la priorité à la forme. Il faut, comme le disait Bertin, choisir entre « voir ou lire ».

 

Colophon

Ouvrage collectif pirate réalisé entre le 5 octobre 2023
et le 1er décembre 2023 par les étudiant·es de troisième
année la Licence Design de l'Université de Nîmes,
dans le contexte pédagogique du projet thématique
de l'option Design et cultures numériques.

Édité et composé en css avec BOOKOLAB, un outil col-
laboratif permettant d'éditer et de mettre en forme des
publications pour lecture à l'écran et sur support imprimé
(conception : Lucile Haute ; développement et réalisation :
Arman Mohtadji & Benjamin Dumond ; réalisé avec le
soutien du Laboratoire Projekt).

Imprimé et relié à l'Université de Nîmes en 35 exemplaires non commerciaux.
La direction éditoriale a été assurée par Lucile Haute et la
direction artistique et technique par Benjamin Dumond.

Mise en Page

Margaux Niset, Inès Bussède :

« Empowerment des femmes
par les techno-
logies numériques : pouvoir avec, pouvoir pour
et pouvoir intérieur »

Morgane Errico Lange, Lisa Rap

« Dans la revue nouvelle : pour une écologie
de l’attention
et de ses appareils », Jean-François Perrat

Nicolas Gueibe

« La com-
munication visuelle
et graphique
à l’aune des défis environnementaux : des priorités
à redéfinir »

Laurine Chavroche, Turkay Akyol

« Numérique
et écologie : comment concilier ces deux récits
de l'avenir ? »

Camille Nicolas, Méline Lopez

« Fake news
et deepfakes :
une approche cyberpsychologique »

Morgane Joly, Malwina Jaworska

« Le cyber-
feminisme comme espace oppositionnel »





Zoé Tanneau, Catalina Lican

« Une brève histoire
des templates, entre autonomisa-
tion et contrôle
des graphistes amateurs »

 

Talia Halawi

« Transition numérique
et intelligence artificielle : d’importants enjeux éthiques
à surveiller. »




Younes El Hasnaoui

«IA : Pour une histoire culturelle»

Arthur Coing, Trystan Jego

« Les réseaux sociaux numériques redéfinissent-ils l’engagement ? »

Selena Talerico, Chloé Luciani

« Pour une écologie
de l’attention
et de ses appareils »

Jade Biscara

« Si Jan Tschichold avait connu les feuilles de style
en cascade :  plaidoyer pour une mise en page comme programme »

Simone Michel

« Permacomputing/ Principles »

Rayane Slilla

« Entretien avec Raphaël Bastide, Sarah Garcin, Bachir Soussi Chiadmi »

 

Caractères Typographiques

Ausrine dessiné par Studio Cryo distribuée
par Berzulis sous licence OFL.

Adelphe dessiné par Eugénie Bidaut distribué par Typothèque sous licence OFL.

Roberte dessiné par Eugénie Bidaut distribué par Typothèque sous licence OFL.



Ausrine

Adelphe

Roberte

 

Édition n°

 

 

 

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35