Don’t be evil

La construction et l’évolution des interfaces humain·e machine

Alice Ricci
Sous la direction d’Anne Laforet
Atelier de Communication graphique
DNSEP 2021
Haute école des arts du Rhin

« Organize the world information » Google1
« Facilitate the world conversation » Twitter 2


« Connect the world » Facebook3

« What’s happening? » Twitter prompt4
« What’s on your mind, <Alice>? » Facebook prompt5

« If you hold up your thumb against the midday sun in just the right way, you can block it from view. Just one thumb, covering 1.985x1030 kg of hot plasma. For that one moment you hide the source of all life from view with a single digit. »6

Ce mémoire est composé d’une version web, disponible à l’adresse memoire.alicericci.eu, ainsi que d’une version papier.

Certains termes ne possédant pas d’équivalent ou de traduction adaptée en français, ils sont donc dans le texte dans leur langue originale, l’anglais. Toutes les traductions ont étés faites par moi-même.

Introduction

J’aime bien la technologie et je l’utilise souvent, alors parfois, on parle de moi comme une « geek ». Ce terme, pourtant voulu par celleux qui l’emploi à mon égard comme un adjectif drôle ou mignon, est toujours dérangeant pour moi. Il me dégoûte. Je ne suis pas une geek.

Je ne suis fan ni de Star Wars, ni de Star Trek, ni de science-fiction, je n’ai d’ailleurs pas de passion particulière pour la Nasa ou l’espace. Je n’ai jamais joué à Donjons et Dragons ou autres jeux de rôles. J’ai arrêté de jouer aux jeux vidéo vers l’adolescence. Je n’ai jamais monté ou bidouillé d’ordinateurs.

Je ne corresponds pas au stéréotype des personnes intéressées par la technologie.

Et pourtant moi aussi je suis légitime.

J’ai toujours ressenti un malaise face à ce terme et c’est en me documentant sur l’histoire de l’informatique que j’ai trouvé des clefs de compréhension de ce sentiment. Comme le retrace la journaliste Emily Chang dans son livre Brotopia : breaking up the boys’ club of Silicon Valley7, particulièrement dans la sous-partie « How women got profiled out »8, les femmes (ainsi que toutes les personnes minorisées) ont été systématiquement chassées de l’industrie, notamment à travers l’institution de profils, de stéréotypes, et de pratiques de recrutement. Elle explique notamment que dans le milieu des années 60, deux psychologues, William Cannon et Dallis Perry, ont été recrutés par une entreprise de logiciels afin d’établir un profil type des personnes qui seraient intéressées par la programmation. Après un sondage effectué sur 1378 personnes travaillant dans le milieu, dont seulement 186 étaient des femmes9, il est déterminé, entre autres, qu’un des traits de personnalité des personnes qui programment est d’être asocial. Leur test de personnalité vient remplacer les tests d’aptitudes existants utilisés dans l’éducation, l’orientation et le recrutement. Celui-ci surqualifie de manière disproportionnée les hommes blancs. « Women already working in the field paid the price for not fitting this stereotype. »10. Ces stéréotypes ont ensuite été transmis et consolidés par la culture populaire, notamment à travers le cinéma, puis dans l’éducation et les universités, Jane Margolis et Allan Fisher parlent alors de « geek mythology »11 (mythologie du geek).

En tant qu’utilisatrice d’internet, j’ai vu à travers les années les sites que j’utilisais changer et grandir, et comment les contenus disponibles sur ceux-ci se transformaient en même temps. Je me suis toujours demandé comment certains sites ont créé différents comportements, différentes attitudes, et plus généralement comment le design d’un objet conditionnait son usage et la relation que l’on pouvait avoir avec. La façon dont on s’exprime n’est pas la même que l’on soit sur Twitter ou Facebook. La culture et les idées qui ont émergé de Tumblr sont radicalement opposées à celle de Reddit. C’est à partir de ces constats que j’ai commencé ma réflexion sur les interfaces humain·e machine.

Une interface, c’est tout ce qu’il y a entre et qui permet d’échanger, par exemple, pour discuter avec une personne, j’utilise l’interface du langage. Les interfaces humain·e machine, c’est donc tout ce qu’il y a entre nous, les humain·es, et les machines, il s’agit donc à la fois d’éléments physiques, comme un clavier ou un écran, d’éléments graphiques, comme une fenêtre d’ordinateur ou un curseur, mais aussi d’éléments invisibles à l’utilisateur·rice comme un algorithme ou une base de données.

Comme le souligne Branden Hookway dans son livre Interface12, les interfaces humain·e machine ne sont pas des technologies en soit, mais des formes de relation avec la technologie : « […] the interface describes the ways in which humanness is implicated in its relation with technology. For even at the moment human and machine come into contact, their encounter has already been subject to a mediation. »13. Par souci de confort de lecture, le terme interface est utilisé dans tout le texte pour désigner les interfaces humain·e machine.

Au début de mes recherches, j’étais focalisée sur la notion d’intention et d’accidents dans le design. Lors d’une discussion avec Anne, ma tutrice, je lui ai fait part de mes préoccupations à travers une réflexion : « Ceux qui ont lancé Airbnb, leur but n’était pas de gentrifier les villes ». Elle m’a alors répondu que le problème ne résidait pas forcément dans leurs intentions, mais plutôt dans le fait qu’ils ne se soient pas posé la question des conséquences que leur produit pourrait avoir sur la société. Se pose alors la question, qui traverse tout le mémoire, de qui sont celleux qui fabriquent ces interfaces, pour qui iels le font, et dans quels contextes elles ont été produites.

Les interfaces ne sont pas statiques. Les utilisateur·rices s’en emparent, et les font évoluer à travers leurs usages, qui ne sont pas forcément ceux qui ont été prévus par leurs concepteur·trices. Celleux-ci peuvent alors choisir de modifier leur interface pour intégrer ces usages ou bien au contraire pour les limiter. Si cet aspect d’échange entre concepteur·trices et utilisateur·rices est très intéressant, il n’est pas développé dans ce mémoire.

Ce mémoire a été construit comme une revue avec une approche thématique : il est composé de trois articles et un étude de cas. Chaque article aborde une période, un enjeu ou un aspect diffèrent de l’évolution des interfaces. Il s’agit de remettre en question et dénaturaliser des choses qui paraissent évidentes dans leurs usages.

Si la notion d’interface humain·e machine est interrogée globalement, notamment dans l’article « Pourquoi les interfaces sont-elles comme elles sont ? », une attention particulière est portée aux interfaces web et à leurs algorithmes, avec un retour sur leur historique dans l’article « Du web vernaculaire aux plateformes algorithmiques ? » Pendant mes recherches, j’ai rencontré une difficulté : le manque d’historisation des interfaces et du logiciel en général. Celle-ci est mise en perspective dans l’article « Comment archiver des interfaces web ou des algorithmes ? ». Autant que possible, mon analyse se base sur une expérience personnelle de celles-ci. Mon intérêt personnel pour la plateforme YouTube et son algorithme de recommandation m’a amenée à mener une étude de cas de celle-ci, intitulée « YouTube, son évolution et son algorithme », en déployant notamment des outils techniques d’aspiration de données.

La notion d’interface ainsi que les outils technologiques mobilisent beaucoup d’enjeux différents, que j’ai n’ai pas pu tous aborder. Certains sont évoqués rapidement, comme l’invisibilisation du travail humain dans les systèmes d’intelligence artificielle, ou des questions d’uniformisation pour des raisons d’ergonomie. D’autres, comme l’accessibilité, les formes colonialisme numérique ou la personnalisation comme outil d’internationalisation n’ont pas été inclus.

Don’t be evil, qui signifie littéralement « Ne soyez pas malveillants », a été pendant longtemps14 la devise informelle de Google. Si ce slogan n’a jamais été revendiqué publiquement, il fait partie de la culture de l’entreprise. C’est une approche passive qui se reflète dans la conception des interfaces. Il s’agit de la perpétuation d’un statu quo. Faire le strict minimum pour ne pas être « malveillant », cela veut dire ne pas prendre en compte les inégalités et discriminations déjà présentes et lutter contre.

1 « Organiser les informations du monde »

2 « Faciliter la conversation mondiale »

3 « Connecter le monde »

4 « Quoi de neuf ? »

5 « Que voulez-vous dire, <Alice> ? »

6 « Si vous positionnez correctement votre pouce à l’encontre du soleil de midi, vous pouvez bloquer complètement sa vue. Juste un pouce, recouvrant 1,985 x1030 de plasma brûlant. Pendant instant, vous cachez la source de toutes vies avec un seul doigt », Craighead, Alison et Jon Thomson. « The Internet of Living Things », dans Kholeif, Omar (éd.). I Was Raised on the Internet. DelMonico Books·Prestel, 2018. p. 142.

7 Chang, Emily. Brotopia: breaking up the boys’ club of Silicon Valley. Portfolio/Penguin, 2018.

8 « Comment les femmes ont étés exclues »

9 « In fact, the word “women” or “woman” didn’t appear once in Cannon and Perry’s eighty-two-page paper; they refer to the entire group surveyed as “men”. », en français : « Dans les faits, le mot “femmes” ou “femme” n’a pas été mentionné une seule fois dans le document de Cannon et Perry, qui compte 82 pages. Ils désignent tout le groupe sondé comme des “hommes”. » Chang, Emily. Op. cit. dans la sous partie « How women got profiled out »
Certains ouvrages ont été consultés sous la forme numérique d’EPUB : dans ce cas là, lors de la citation, le numéro de page est remplacé par le nom du chapitre ou la sous-partie.

10 « Les femmes qui travaillaient déjà dans le milieu ont payé le fait de ne pas correspondre à ce stéréotype » Chang, Emily. Op. cit. dans la sous partie « How women got profiled out »

11 Margolis, Jane, et Allan Fisher. Unlocking the Clubhouse: Women in Computing. Cambridge. MIT Press, 2003.

12 Hookway, Branden. Interface. Cambridge. MIT Press, 2014.

13 « […] l’interface décrit la manière dont l’humanité est présente dans sa relation avec la technologie. Car même au moment où l’humain·e et la machine entrent en contact, leur rencontre a déjà fait l’objet d’une médiation. », Ibid., p. 1.

14 En 2018, celui-ci a été retiré pour être remplacé par « Do the right Thing » (« Faites les bonnes choses »).

Pourquoi les interfaces sont-elles comme elles sont ?

Il y a une barre. Elle clignote. Breveté en 19701 par Charles A. Kiesling, il s’agit d’un curseur textuel. Mis en place à l’époque et encore utilisé aujourd’hui, c’est un des éléments les plus rudimentaires de l’interface visuelle des ordinateurs. À sa conception, il s’agissait d’un curseur horizontal se positionnant au-dessus du caractère sélectionné. L’affichage alterne entre le caractère et le curseur. Aujourd’hui, il est plus connu sous sa forme verticale, qui se glisse entre les caractères. Cette barre est allongée afin de ne pas être confondue avec un i majuscule ou un l, quelle que soit la typographie de composition. Sa présence indique la possibilité de rentrer du texte. Son clignotement permet de la distinguer du reste du texte et de la localiser dans l’écran, mais indique aussi que l’ordinateur est prêt à recevoir du texte : en cas de problème le curseur s’immobilise. Il y a donc un feedback (retour) entre l’utilisateur·rice et la machine. De la même façon, lorsque l’utilisateur·rice est en train de taper, le clignotement s’interrompt.

Les premiers ordinateurs étaient des grosses machines mécaniques contrôlées via des boutons, et des interrupteurs. Sont ensuite arrivés les ordinateurs électroniques, qui utilisaient des câbles. Ces systèmes ont étés conçus principalement dans l’optique d’être fiable, la priorité n’était pas de les rendre faciles à utiliser et à les opérer. Rentrer un programme dans l’un de ces ordinateurs prenait des jours voire des semaines entières, il fallait minutieusement et scrupuleusement tourner tous les boutons nécessaires ou bien faire les bons rapports. Ce travail était majoritairement effectué par des femmes qui ont ensuite été poussées à sortir du champ de l’informatique pour laisser la place aux hommes, lorsque celui-ci a pris de l’importance. Dans les années 1950, les cartes perforées ainsi que les bandes magnétiques deviennent la norme, ce qui permet de stocker un programme et le réutiliser plus tard ou bien sur une autre machine. Des indicateurs visuels sont mis en place à travers des lumières afin d’avoir un retour d’information en temps réel lorsqu’un programme est exécuté.

« Punch tape is a great example—this was explicitly designed to be easy for computers. The continuous nature of tape made it easy to handle mechanically, and the holes could be reliably detected with a mechanical or optical system, which encoded instructions and data. But of course, human don’t think in terms of little punched holes and strips of paper, so the burden was on the programmer. »2

Il n’y avait pas vraiment d’interface humain·e -machine, ou bien elles étaient primitives : l’humain·e fournit laborieusement un input, c’est-à-dire une entrée de données, la machine exécute le programme jusqu’à sa complétion et produit ensuite le résultat ou output (sortie) qui est imprimé sur du papier. À mesure que le secteur se développe et que les machines deviennent plus sophistiquées, la nécessité d’accélérer le processus et pour les humain·es de pouvoir intervenir pendant l’exécution d’un programme devient plus pressante. Un des premiers vecteurs de cette mise en place d’interaction est le clavier. Il découle des machines à écrire, très répandues à l’époque, et devient l’interface humain·e-machine. Combiné avec un télétype, il donne naissance à l’interface en ligne de commande. Tout passe par le texte : l’opérateur·trice tape sur le clavier une commande, c’est-à-dire un mot clé spécial puis appuie sur la touche « entrée ». L’ordinateur « répond » en imprimant le résultat de la commande. Le temps nécessaire pour entrer des informations dans la machine réduit drastiquement. Dans un premier temps il n’y a pas d’écran, tout passe à travers l’impression du texte sur papier.

En 1897, le tube cathodique est inventé par Karl Ferdinand Braun.3 Il est commercialisé à partir de 1922. Cette technologie se développe à travers la télévision. En 1954, est inventé l’écran cathodique couleur. Il semblerait que le premier ordinateur usant d’un écran cathodique est le système de l’armée américaine SAGE dans les années 1950. En 1959, le PDP-1 est le premier ordinateur commercialisé équipé d’un écran. Cependant, du fait de la difficulté d’afficher du texte de manière nette, les écrans sont au début utilisés essentiellement lors de l’exécution d’un programme pour rendre compte de son avancée. Il est difficile de retracer une chronologie précise de ces changements, il n’existe pas de bonnes sources sur ce point. Je pense que c’est notamment dû au fait que beaucoup d’ordinateurs se développent en parallèle : ainsi, ce n’est pas parce qu’un ordinateur doté d’un écran sort sur le marché que tous les suivants en posséderont aussi. Mais il semblerait aussi que les informations disponibles ne se recoupent pas et sont incomplètes. S’il y a plusieurs histoires des ordinateurs, l’Anglo-saxonne est hégémonique et écrase d’autres approches. Quoi qu’il en soit, quelques années plus tard, les écrans sont deviennent indissociables des ordinateurs et apportent une interface visuelle.

En 1968, Douglas Engelbart effectue une présentation à San Francisco qui sera postérieurement désignée comme The Mother of All Demos (la mère de toutes les démos), où des recherches qui ont été produites dans le cadre d’un programme de l’université de Stanford sont exposées. Si des avancées importantes, telles que la souris, la fenêtre et l’hyperlien sont introduites, c’est surtout le format de la conférence qui marquera. Il s’agit d’une démonstration technique, réalisée en direct. Une captation de cet évènement est disponible en ligne.4 Dans celle-ci, on peut constater qu’il se place en position d’autorité. Bien qu’a priori la démonstration ait une vocation didactique, les éléments sont présentés plus qu’expliqués.

L’année suivante, sentant que les ordinateurs pourraient remplacer le papier et donc rendre les photocopieuses obsolètes, Xerox met en place le Palo Alto Research Center (PARC), laboratoire de recherche qui donnera lieu à plusieurs concepts fondamentaux. Est développée sous la direction d’Alan Kay l’interface graphique (Graphical User Interface, souvent abrégé GUI). L’interface graphique permet aux utilisateur·rices d’interagir avec la machine à travers des éléments graphiques, tels que des icônes ou audio, s’opposant aux interfaces de ligne de commande basée sur le texte. Elle repose sur la métaphore du bureau ; les icônes représentent des objets ou fonctionnalités présentes dans la version analogue de cet environnement, tels que la corbeille à papier. On peut ouvrir des fenêtres. Dans ces fenêtres s’exécutent des applications. Il y a des menus. Les contenus présents sont structurés dans une arborescence de dossiers et de fichiers. Chaque utilisateur·rice peut se créer une session, iel disposera ainsi de son propre bureau.5 Le résultat des manipulations effectué est immédiatement visible, c’est le principe de WYSIWYG (What you see is what you get: ce que vous voyez est ce que vous obtenez). Avoir un retour immédiat permet une compréhension visuelle de l’action effectuée.

Les ordinateurs ont été conçus par des scientifiques, des ingénieurs, pour des scientifiques, des ingénieurs, des comptables et en général des gens qui travaillent dans des bureaux. Bien qu’émergent à cette époque les termes de user interface (interface utilisateur·rice) et user friendly (facile d’utilisation), il s’agit d’un type d’user (utilisateur·rice) bien particulier.

« If in your office, you as an intellectual worker, were supplied with a computer display, backup up by a computer that was alive for you all and was instantly responsive to every action you had, how much value could you drive from that? »6

Le terme user se construit d’ailleurs en opposition à celui d’admin. L’user est un·e simple utilisateur·rice d’un système qui ne lui appartient pas. Il a une connotation péjorative qui est soulignée par l’insulte luser, mot valise de loser et user, désignant les local users, celleux qui utilisent un ordinateur en temps partagé. L’utilisation de l’image du bureau reflète cette conception particulière : il ne s’agit pas d’un établi, d’un plan de travail, d’un atelier, d’un studio ou d’une salle de réunion. Si en français le terme bureau désigne la table entière ainsi que le lieu de travail ou la pièce, le terme anglais original desktop implique le dessus du bureau, et donc une surface. Ces concepts de bases établis par Xerox seront plus tard repris et commercialisés par Apple puis par Microsoft.

Les interactions avec cette interface se font principalement à travers le clavier et la souris ou le pavé tactile. La souris retranscrit le mouvement de la main (ou du doigt, dans le cas du pavé tactile) dans l’espace et le traduit en mouvement du curseur. Son action correspond au fait de pointer du doigt dans l’espace physique. Parmi toutes les manières qu’ont les humain·es d’interagir avec le monde, c’est donc pointer du doigt et écrire qui ont été retenues pour les interfaces humain·es-machines. Dans The Mother of all demo, on peut apercevoir le premier curseur, il s’agit d’une flèche verticale noire. Pour des raisons de précisions et de visibilité, cette forme n’est pas gardée, et est remplacée par une flèche noire inclinée par Xerox dans le Xerox Alto. Est ensuite ajouté un contour blanc, ce qui permet de distinguer le curseur, quelle que soit la couleur du fond sur lequel il est présent. Selon les systèmes d’exploitation, le design diffère légèrement et les couleurs sont inversées. L’inclinaison est basée sur l’inclination naturelle de la main lorsque l’on pointe du doigt. Si la majorité de la population avait été gauchère, le curseur aurait sûrement été incliné de l’autre côté. Ou bien il aurait pu y avoir une option pour gauchers et une pour droitiers. À partir de 2000, le curseur présent sur Windows a aussi une ombre portée, augmentant le contraste entre l’objet et son arrière-plan. Ce changement sera adopté par Apple en 2005. L’ombre est possible grâce à l’amélioration de la qualité des écrans et de la vitesse du matériel.

La métaphore apparaît comme nécessaire dans le design afin de créer un espace de compréhension avec l’utilisateur·rice. La comparaison imagée permet de se référer à ce qui existe déjà : l’ordinateur est comme un bureau. Il ne s’agit plus alors d’une nouveauté totale, mais d’une version différente d’un objet déjà connu et utilisé ; certains aspects sont différents, mais le cadre et l’usage sont les mêmes. Dans l’article Du diagramme circulaire au réseau : comment bien digérer un camembert ?7, Fabrice Sabatier analyse la métaphore dans le contexte de visualisation des données, et souligne son importance pour imaginer des possibilités, au même titre que la fiction. Selon lui, les métaphores construisent des cadres interprétatifs, expression qu’il emprunte à Anne-Marie Gingras.8 Ce terme est pertinent dans le cadre de design d’interface : les objets, applications, icônes sont nommés et conçus dans le but d’exprimer un usage particulier.9 Le skeuomorphisme est un choix de design qui reproduit visuellement dans un élément des caractéristiques qui étaient essentielles dans son objet d’origine, en imitant par exemple une texture, afin de donner des repères à l’utilisateur·rice. Si l’on pousse le concept, la majorité des icônes informatiques sont skeuomorphique : l’icône de sauvegarde emprunte sa forme à la disquette, mais cette forme n’est pas nécessaire à son fonctionnement.

Pourquoi est-ce que cette métaphore du bureau, apparue dans les années 70 est encore utilisée aujourd’hui, et ne semble jamais être vraiment remise en cause ? Une interface abstraite serait elle possible ? Le terme switching barriers ou bien parfois switching cost (coût de sortie) désigne en économie les obstacles auxquels les usagers·usagères sont confrontés lorsqu’iels veulent changer de service. Dans le cas des interfaces, il s’agit d’un obstacle principalement cognitif et non financier. Pour une personne ayant utilisé des ordinateurs utilisant la métaphore du bureau, il serait plus dur d’adopter un autre type d’interface que pour une autre personne n’ayant jamais utilisé d’ordinateur, car il faudrait pour cela qu’elle dé-apprenne dans un premier temps l’ancien système, puis se familiarise avec le nouveau. Un exemple souvent utilisé pour illustrer ce concept est celui de la disposition QWERTY pour les claviers. Cette disposition n’est pas celle qui permet de taper l’anglais ou d’autres langues le plus rapidement, mais c’est celle qui a été historiquement choisie. Même si une nouvelle disposition, qui serait indéniablement meilleure pour x ou y raison, est mise sur le marché, il est peu probable que la majorité des utilisateur·rices décident de changer. Dans un entretien nommé La technique est-elle sédimentaire ?10 mené par Vivien Philizot, Pierre-Damien Huyghe envisage l’histoire de la technique non pas avec la notion de gain, mais avec la notion de remplacement, incluant ainsi la perte. Il associe ce terme de remplacement à une métaphore végétale de la poussée « une génération de poussées techniques met de côté, pousse, remplace la précédente ». S’il n’y a pas eu de remplacement d’interface graphique sur les ordinateurs, de nombreuses poussées ont eu lieu dans le cadre des smartphones et des tablettes tactiles.11

L’analyse qui suit est centrée sur Apple, d’une part parce que j’ai une expérience directe de leurs produits, mais aussi parce que les évolutions successives sont très bien documentées à travers l’archivage vidéo des conférences de présentations. Android est le système d’exploitation pour mobile le plus utilisé, mais de par son approche ouverte, il est très fragmenté ; il n’est pas conçu pour un appareil en particulier. Chaque constructeur le modifie et y ajoute une surcouche, il serait donc difficile d’isoler une interface : Android comprend de nombreuses interfaces différentes. Si iOS et Android dont deux systèmes d’exploitation différents, ils se recoupent sur certains points, partagent des fonctionnalités en commun et évoluent côte à côte.

En juin 2007 est introduit l’iPhone12, un smartphone entièrement tactile reposant sur la technologie du multipoint (multi-touch), et avec iPhone OS (qui deviendra plus tard iOS), un tout nouveau système d’exploitation. iOS répondant à un usage totalement différent d’un ordinateur de bureau et étant présent sur un appareil aux caractéristiques différentes (pas de clavier physique ni de souris), il ne s’agit pas d’une version miniaturisée d’un système d’exploitation d’ordinateur, mais bien d’un système à part, avec sa propre interface, ses propres codes. Il n’y a pas de bureau métaphorique, ou de fenêtre. L’interface est principalement composée d’un accueil, sur lequel sont présentes des pages contenant différentes applications arrangées en grille, ainsi que d’un dock, constitué de plusieures applications choisies par l’utilisateur·rice, qui reste présent, quelle que soit la page sur laquelle on se trouve. Le dock est une forme héritée de l’interface utilisateur·rice des ordinateurs. Introduit dans l’univers Apple avec Mac OS X en 2001, un élément similaire est présent bien plus tôt sous Windows. Il s’agit de la barre des tâches, qui apparaît dès Windows 1.0 en 1985.13 Les autres éléments importants de l’interface sont l’écran de verrouillage et la barre d’état.

Les interactions humain·es-machine passent à travers le toucher, à l’exception des quelques boutons physiques présents (boutons d’accueil, de verrouillage et de réglage du volume sonore). S’il n’y a pas de souris, les doigts reprennent sa fonction de dispositif de pointage. Les doigts étant plus gros qu’un curseur, la sélection est moins précise, la taille des éléments présents sur l’interface doit donc être adaptée. Les boutons physiques sont remplacés par des boutons numériques contextuels, apparaissant et disparaissant au besoin. En comparant l’iPhone aux téléphones présents à l’époque sur le marché, Steve Jobs évoque le sujet « They all have these keyboards that are there, whether you need then or not. »14. Un des arguments principaux de vente pour Apple est la simplicité d’usage et l’intuitivité de son interface, il n’y aurait pas besoin d’apprendre à l’utiliser, notamment parce que la manipulation se fait avec les doigts. Si l’on pense en termes de couches d’interface, un ordinateur classique serait composé de l’ordinateur lui-même, de périphériques tels que la souris ou le clavier, et de l’utilisateur·rice. L’utilisateur·rice interagit avec un des périphériques, ce périphérique transmet les informations au système, le système répond en mettant à jour l’écran et en effectuant l’action demandée. La fusion de l’écran et des périphériques d’input retire, visuellement et du côté de l’expérience utilisateur·rice, une de ces couches, rendant la manipulation plus directe.

Ordinateur ◊ écran ◊ souris - clavier ◊ humain·e
Téléphone ◊ écran ◊ humain·e

Dans l’article Menus, Metaphors and Materials: Milestones of User Interface Design, les auteurs, Boris Müller et Frank Rausch, soulignent que « One of the fundamental premises of the Xerox Star interface was the notion that users deal with data files, not with applications. »15 Dans le cadre des systèmes d’exploitation pour mobile, il s’agit du contraire, les apps sont au cœur de l’objet et les fichiers sont quasiment inexistants. Steve Jobs considère que le système de fichier est trop compliqué à apprendre, perd les gens. Dans le premier cas, un·e utilisateur·rice, va naviguer dans ses fichiers à travers l’interface d’un gestionnaire de fichiers, les ouvrir dans une application et à travers celle-ci les manipuler, les consulter ou bien en créer des nouveaux. En dehors des formats propriétaires, il est possible d’ouvrir le même fichier avec différentes applications. Dans le second, iel va naviguer à travers des applications et les utiliser. Si cette utilisation donne parfois lieu à des fichiers, ils ne sont pas nommés comme tels. Lorsque je prends une photo, je ne vois pas l’extension et il ne m’est pas demandé où l’enregistrer. La notion de localisation des données n’est pas ou peu présente. J’accède à mes données depuis l’application qui leur est spécifique, mais certains types de données peuvent être partagés entre les applications.

Si les premières versions d’iOS se reposent sur le skeuomorphisme, ce style est abandonné en 2013 avec la version iOS 7, qui introduit un nouveau langage de design, se basant principalement sur le flat design. Le flat design est une tendance de design d’interface qui se caractérise par son minimalisme, et son emploi de formes simples et d’aplats. L’interface se détache un peu plus de références directes aux objets physiques et adopte des formes qui lui sont propres. L’application Notes, était une imitation d’un bloc-note américain : le fond était jaune avec des lignes, et la typographie utilisée, Noteworthy, est manuscrite. Après le changement de design, des éléments skeuomorphiques restent, comme une texture papier pour l’arrière-plan, mais ils sont beaucoup moins présents. La couleur jaune est toujours présente, mais elle est désormais utilisée comme couleur d’accent pour les liens ou les boutons.

En plus des boutons numériques, sont introduits à travers l’utilisation du tactile multipoint des gestes : faire glisser pour déverrouiller ou pincer pour zoomer. Contrairement à un bouton, qui a une présence sur l’écran, les gestes sont souvent invisibles, en dehors d’une première initiation lors de l’activation de l’appareil. Cette initiation a pour nom l’onboarding, il s’agit d’une pratique consistant à guider l’utilisateur·rice et à lui faire découvrir l’appareil ou l’application. Elle se peut se manifester à travers des panneaux d’explications ou bien par des petits tutoriels. L’utilisateur·rice déduit la possibilité d’effectuer un geste selon le contexte : si je consulte une image, je m’attends à pouvoir zoomer dessus. Au fil des années, de nouveaux gestes sont introduits progressivement, comme glisser vers la droite pour revenir à un état précédent ou lancer un élément vers l’extérieur afin de le fermer. Un bouton est positionné à un endroit précis de l’écran, il peut donc être difficile d’accès, particulièrement si l’appareil est tenu dans une seule main. L’avantage du geste est donc qu’il peut être effectué sur toute la surface de l’écran ou du moins toute une zone de celui-ci. En 2017, 10 ans après le premier iPhone, est introduit l’iPhone X, qui abandonne le bouton physique d’accueil. Si sa version physique est supprimée, ce n’est pas pour la remplacer par une simple transposition numérique. L’interface est dorénavant gestuelle. L’action de cliquer sur le bouton pour aller à l’accueil est remplacée par le fait de glisser le doigt depuis le bas de l’écran, position où se trouvait précédemment le bouton. Une ligne est dessinée sur l’écran à cet endroit-là, pour indiquer la possibilité d’effectuer ce geste.

En mars 2020, est annoncé un nouvel accessoire pour l’iPad Pro, un clavier externe comprenant un pavé tactile. Le pavé tactile vient remplacer l’utilisation directe du doigt sur l’écran, il est prévu pour être employé lors de l’entrée de texte sur le clavier. Intervient alors la nécessité d’un curseur. Celui-ci ne prend pas la forme traditionnelle de la flèche, mais est un cercle de la taille approximative d’un doigt, l’interface de l’iPad ayant été conçue pour le tactile. Cette forme circulaire n’est pas statique, elle varie en fonction de son contexte, si le curseur passe sur un bouton, il prend sa forme. Les changements et nouveautés dans la forme matérielle des appareils ainsi que l’amélioration des performances et l’avènement de nouvelles technologies sont vecteurs des nouveautés en termes d’interaction. J’écris ce texte sur Docs, l’application en ligne de traitement de Google Drive. Dans cette interface, il n’y a pas d’icônes de disquettes pour sauvegarder. Non pas parce qu’une autre représentation de cette action a été choisie, mais parce que le document est sauvegardé automatiquement à chaque modification. Un petit nuage contenant une tique m’indique que tout a bien été sauvegardé. Lorsque j’ajoute une modification, ce nuage devient un cercle de deux flèches, accompagnées des mots « enregistrement en cours ».

En 1990, Tim Berners-Lee crée le premier navigateur web, WorldWideWeb. L’interface d’une page web est accessible à travers l’interface d’un navigateur, elle-même étant dans l’interface du matériel utilisé.

Page ◊ Navigateur ◊ matériel utilisé ◊ humain·e

Certains principes d’interaction humain-machine sont transversaux à toutes ces couches d’interfaces. Lorsque je déplace mon doigt sur le pavé tactile, le curseur se déplace de la même manière que je sois sur mon bureau ou sur une page web. Cependant le web développe aussi ses propres codes. L’idée de base du web repose sur le concept de pages et d’hyperliens entre ces pages. Un hyperlien emmène l’utilisateur·rice d’une page à une autre lorqu’iel clique dessus. Par défaut, un hyperlien textuel est bleu et le texte est souligné. Lorsqu’il est survolé, le curseur change de forme et se transforme en une petite main droite revêtue d’un gant blanc, pointant vers l’élément concerné. Un lien qui a déjà été consulté apparaît en violet. Cet indicateur de la présence d’un élément interactif est nécessaire du fait de la nature textuelle de l’élément. Pour les boutons, que ce soit dans le contexte d’une interface web ou dans celle du bureau d’ordinateur, leur forme skeuomorphique comprenant des effets d’ombres était suffisante pour indiquer leur nature. Le changement d’état lors d’un survol (hover), semble être un concept qui est né et s’est développé dans le contexte du web et des navigateurs. L’avènement du flat design et l’abandon relatif du skeuomorphisme amènent à concevoir et généraliser l’utilisation d’autres indicateurs16 : le changement de curseur devient la norme sur les éléments interactifs et est souvent accompagné d’une variation de couleur lors du survol.

Le terme d’user experience (expérience utilisateur·rice) est popularisé dans les années 1990 par Don Norman, un chercheur américain. Dans son livre The Design of Everyday Things17, est mis en avant l’importance de centrer la conception sur l’utilisateur·rice. Souvent abrégé en UX, ce terme désigne l’expérience générale qu’a une personne qui utilise un objet, quel ressenti elle a de son usage. Cela recouvre la perception, mais aussi l’ergonomie et l’efficacité. L’ergonomie apparaît comme une nécessité dans le cadre du design d’interface, les interfaces sont des outils qui ont vocation à être utilisés. L’utilisateur·rice doit pouvoir comprendre comment interagir avec ce qui lui est présenté. Un des éléments importants pour construire cette compréhension est le feedback ou rétroaction. Le feedback est le fait que lorsque j’effectue en tant qu’utilisateur·rice une action, cette action a une répercussion perceptible, qui peut prendre plusieurs formes. Cette répercussion permet de confirmer que l’action a bien été prise en compte. Lorsque j’appuie sur un bouton, il change de couleur, je sais donc que ma commande a bien été prise en compte. Un dialogue se crée entre l’humain et la machine : l’humain parle et la machine répond. Lorsque je scrolle sur une page ou une liste avec mon téléphone, quand j’arrive en bas, un effet, nommé rubber banding (élasticité) se déclenche, la surface que je manipule rebondi légèrement. Le rubber banding a été introduit avec l’iPhone en 2007, il s’agit d’une confirmation visuelle que je suis arrivé à la fin du contenu (cet effet est aussi présent en haut de page, dans le cas où l’utilisateur·rice remonte). Mon input (le scroll) a bien été pris en compte, mais l’action demandée ne peut pas être effectuée (il n’y a pas de contenu en plus à montrer dans cette région). Si cet effet n’avait pas été présent, cela aurait pu donner l’impression que le message n’a pas été reçu ou qu’il y a un problème et que la machine est bloquée. Au départ conçu pour les appareils tactiles, le rubber banding est désormais présent sur de nombreuses interfaces.

L’affordance est un concept utilisé en UX qui désigne la capacité d’un objet à suggérer sa propre utilisation. Cette capacité peut passer à travers divers médiums, comme sa forme, sa couleur ou son comportement. Dans le cadre d’une entrée de texte par l’utilisateur·rice, une ligne zigzag rouge sous un mot indique que le logiciel considère qu’il est mal orthographié. Je le sais parce qu’au primaire, j’ai eu des cours d’utilisation de Microsoft Word. Mais si ce n’avait pas été le cas, est-ce que j’aurais pu deviner, par moi-même, sa signification ? Ce zigzag apparaît après qu’un mot ait été entré, sans que l’utilisateur·rice l’ait demandé. Il s’agit donc d’une anomalie. La couleur permet de la faire ressortir et la forme la distingue d’un soulignement classique. Elle rappelle aussi le stylo rouge de la correction à l’école. On peut postuler qu’une personne remarquant cette anomalie, aille « investiguer » la situation en plaçant son curseur dessus. Lorsqu’iel interagit avec ce zigzag, des suggestions de corrections orthographiques sont proposées. Les codes du design d’interface sont des codes qui sont appris ou à apprendre, le but de l’UX est de faciliter cet apprentissage. Si je sais qu’un zigzag rouge sous un mot signifie une potentielle faute, c’est aussi parce que ce comportement, que j’ai observé au début sur Microsoft Word, est présent dans d’autres contextes et est cohérent : ce même code visuel n’est pas réutilisé différemment dans une autre application. La transparence peut être utilisée pour créer une plus grande conscience du contexte. L’animation, à travers le motion design est aussi très utilisée, particulièrement lors de chargement ou d’opérations qui sont longues. Si l’interface ne bouge pas, cela donne la sensation que la machine est immobile, bloquée. Le design de l’attente influence grandement la perception du temps, ainsi une opération qui paraît longue sera plus frustrante qu’une opération qui est longue, mais qui est médiée de façon agréable.

La standardisation ou uniformisation de certains grands principes d’interactions paraît nécessaire, sinon, à chaque interface rencontrée, il faudrait réapprendre un nouveau système, ce qui créerait une charge cognitive. Les grands acteurs du marché18 publient des grandes lignes directrices (guidelines) concernant les apps développées pour leurs plateformes. Il s’agit de recommandations, soulignant les bonnes et les mauvaises pratiques, mais aussi d’obligations dans le cas où la publication est gérée par la plateforme. Google demande aux developer·peuses Android d’utiliser le Material Design. Le Material Design est un système de design développé par Google et introduit en 2014.19 Ce langage est composé de trois grands principes. Le premier, celui qui lui donne son nom est l’utilisation de la métaphore de la matière. Tous les éléments d’une interface sont composés d’une matière flexible et tangible, similaire à du papier, mais une interprétation numérique de ce qu’est le papier. Cette métaphore dicte les comportements des surfaces utilisées. Les ombres sont utilisées pour indiquer la position d’un élément en termes de profondeur. Le deuxième principe est l’utilisation réfléchie du mouvement. Les animations ne doivent pas être utilisées de manières décoratives, mais comme vecteurs de sens. Si les règles du système se basent sur la physique du monde analogique, elles sont interprétées pour correspondre aux spécificités du médium. Un exemple donné par un des designers de l’équipe est celui de la matérialité d’un bouton. Lorsqu’on appuie sur un bouton, dans le monde analogique, ce bouton se rétracte face à la pression du doigt. Ce comportement a été repris sur les interfaces d’ordinateur, avec un artefact d’ombre lorsqu’on clique dessus. Mais sur les appareils tactiles, la surface ne réagit pas à la pression. On n’appuie ou ne clique pas vraiment, mais on « touche ». En anglais, le verbe « tap » est utilisé pour désigner cette action, il s’agit d’un court touché. Puisqu’il n’y a pas d’appui physique, imiter visuellement la rétraction créerait une dissonance entre l’expérience physique de l’utilisateur·rice et la réponse visuelle de la machine. À la place, il a été décidé qu’au contraire, le bouton effectuerait un saut visuel pour compenser la distance entre l’interface et le doigt créé par l’épaisseur de l’écran. Le dernier grand principe est l’utilisation des outils du graphisme pour mettre en place l’aspect visuel des éléments, à travers des grilles, de la typographie et l’utilisation d’une palette de couleur simplifiée. La pluralité des appareils utilisés a créé le besoin de penser un système général pour uniformiser les expériences, permettant ainsi de passer facilement d’un appareil à un autre. Si ce système a été mis en place et est utilisé par Google, la logique d’utiliser les principes et la physique du monde analogue est utilisée à travers l’industrie de design d’interface. Le postulat est celui d’un transfert de savoir, si l’utilisateur·rice sait interagir avec les objets du monde analogique, iel saura interagir avec ceux du monde numérique s’ils obéissent aux mêmes règles. Les comportements que j’ai avec des objets doivent pouvoir être les mêmes qu’ils soient analogiques ou numériques. Dans une présentation de l’interface gestuelle de l’iPhone X, Chan Karunamuni, illustre ce concept de la manière suivante : « So, if I was walking to the end of this stage here, and I realize I forgot something back there, I could just turn back immediately. And, I wouldn’t have to wait for my body to reach the end before I did that, right? So, it’s important for our interfaces to be able to reflect that ability of constantly redirecting. »20

On peut donc distinguer trois grandes ères des modes d’interactions humain-machines : la première est celle des boutons et interrupteurs physiques, ensuite sont arrivées leurs contreparties numériques, et enfin on voit se développer une ère des gestes. Ces trois ères se succèdent, mais se superposent aussi, et les différents modes d’inputs coexistent : sur un ordinateur, pour ouvrir une application je clique sur une icône (bouton numérique), pour entrer du texte je tape sur mon clavier (bouton physique), pour zoomer j’effectue un geste sur mon pavé tactile.

1 La demande de brevet a été remplie en 1967.

2 « La bande perforée en est un excellent exemple — elle a été explicitement conçue pour être commode pour les ordinateurs. La nature continue de la bande la rendait facile à manipuler mécaniquement, et les trous pouvaient être détectés de manière fiable avec un système mécanique ou optique, qui encodait les instructions et les données. Mais bien sûr, les humains ne pensent pas en termes de petits trous perforés et de bandes de papier, donc le fardeau était sur le·a programmeur·euse. », CrashCourse. Keyboards & Command Line Interfaces: Crash Course Computer Science #22. 2017. YouTube, https://www.youtube.com/watch?v=4RPtJ9UyHS0&feature=youtu.be&t=126. Consulté le 1 juin 2020.

3 « Télévision ». Wikipédia, 25 octobre 2020. Wikipedia, https://fr.wikipedia.org/w/index.php?title=T%C3%A9l%C3%A9vision&oldid=175908238. Consulté le 31 octobre 2020.

4 « The Mother of All Demos ». Conférence donnée par Douglas Engelbart. 1968. Disponible en ligne https://www.youtube.com/watch?v=yJDv-zdhzMY. Consulté le 31 octobre 2020.

5 Certains de ces éléments ne sont pas établis dès les débuts de l’interface graphique, mais interviennent plus tard.

6 « Si dans votre bureau vous, en tant que travailleur intellectuel, étiez fourni avec un écran d’ordinateur, ainsi qu’un ordinateur qui était vivant pour vous tous et répondait instantanément à chaque action que vous aviez, combien de valeur pourriez-vous obtenir à partir de cela », Engelbart, Douglas. Op. cit.

7 Sabatier, Fabrice. « Du diagramme circulaire au réseau : comment bien digérer un camembert ? », dans Philizot, Vivien, et Jérôme Saint-Loubert Bié (dir). Technique & design graphique : outils, médias, savoir. Éditions B42 et HEAR. 2020, p. 198.

8 Gingras, Anne-Marie. « Les métaphores dans le langage politique ». Politique et Sociétés, n° 30, novembre 2008, p. 159-71.

9 S’il est possible de détourner cet usage prévu et par exemple d’utiliser le logiciel de tableur Excel pour peindre, la plupart des utilisateur·rices s’en tiendront à un usage plus classique.

10 Huyghe, Pierre-Damien. « La technique est-elle sédimentaire ? ». Entretien réalisé par Vivien Philizot, dans Philizot, Vivien, et Jérôme Saint-Loubert Bié (dir), Op. cit.

11 Bien sûr, il y a eu des changements d’interfaces graphiques entre 1960 et aujourd’hui sur les ordinateurs, mais l’architecture conceptuelle basée sur le bureau reste la même.

12 Le produit est présenté en janvier, mais n’est mis en vente qu’en juin, créant ainsi une grande attente et une effervescence autour de celui-ci.

13 Elle disparaît ensuite des versions suivantes, pour réapparaître dans Windows 95.

14 « Ils ont tous ces claviers qui sont tout le temps présents, que vous en ayez besoin ou non », « iPhone Presentation ». Présentation donnée par Steve Jobs. 2007. Disponible en ligne https://www.youtube.com/watch?v=vN4U5FqrOdQ. Consulté le 31 octobre 2020.

15 « L’un des postulats fondamentaux de l’interface Xerox Star était la notion que les utilisateur·rices ont à faire à des fichiers de données, et non à des applications », Müller, Boris, et Frank Rausch. « Menus, Metaphors and Materials: Milestones of User Interface Design ». Medium, 24 juin 2020, https://medium.com/@borism/menus-metaphors-and-materials-milestones-of-user-interface-design-f3f75481c46c. Consulté le 7 juillet 2020.

16 « Why don’t <button> HTML elements have a CSS cursor pointer by default? » User Experience Stack Exchange, https://ux.stackexchange.com/questions/105024/why-dont-button-html-elements-have-a-css-cursor-pointer-by-default. Consulté le 31 octobre 2020.

17 Norman, Donald A. The design of everyday things. Basic Books, 2002.

18 Entre autres : Microsoft, Apple et Google.

19 Google Design. Making Material Design. 2015. YouTube, https://www.youtube.com/watch?v=rrT6v5sOwJg.. Consulté le 31 octobre 2020.

20 « Ainsi, si j’étais en train de marcher jusqu’au bout de cette estrade, et que je me rendais compte que j’avais oublié quelque chose de l’autre côté, je pourrais revenir en arrière immédiatement. Je n’aurais pas à attendre que mon corps atteigne ma destination initiale avant de me retourner. Donc, il est important pour nos interfaces d’être en mesure de refléter cette capacité de se rediriger constamment. », « Designing Fluid Interfaces - WWDC 2018 - Videos ». Apple Developer, https://developer.apple.com/videos/play/wwdc2018/803/. Consulté le 10 juin 2020.

Du web vernaculaire aux plateformes algorithmiques ?

Au début du world wide web, il y a eu une page. Et puis il y en a eu d’autres. Apparaît le nom « web site » ou bien « website » à la même période, en 1993, pour désigner une collection de pages web. La même année, est publié Mosaic, un des premiers navigateurs web graphiques. Son interface simple et accessible a permis de populariser le web à un public plus large. Si en français le mot « navigateur » connote d’une métaphore marine, le terme original browser, qui peut être traduit par fureter, s’appuie plutôt sur la notion de recherche et de curiosité.

Dans A Vernacular Web1, Olia Lialina, artiste et théoricienne, utilise le terme de web vernaculaire, pour décrire les débuts du world wide web, s’intéressant particulièrement au web amateur. Le web apparaissait alors comme un territoire inconnu, un futur à explorer, à la portée de tou·tes. À travers une collection d’exemples d’images, de GIF et de pratiques, elle met en perspective les changements qui ont eu lieu. Dans une vidéo publiée par Quartz sur le sujet, la journaliste décrit l’époque : « Cyberspace use to be a destination, in itself ».2. La notion d’espace est très présente et donne lieu à la création de pages web comme un chez-soi, décoré et comportant souvent une page d’accueil souhaitant la bienvenue et un livre d’or. Il n’y a pas de raison au site autre que le fait d’être un site, et de refléter la personnalité de sonsa créateur·trice et partager ses passions. Il ne s’agit pas de portfolios ou de commerces. L’esprit de communauté est fort.

En 1994, David Bohnett et John Rezner créent Geocities3, un service d’hébergement web gratuit. L’organisation du site était basée sur le concept de villes et quartiers thématiques, se basant sur une interprétation littérale d’un espace cybernétique. Les utilisateur·rices sont invité·es à choisir une ville et un quartier où placer leur page web en fonction du contenu de celles-ci. Par exemple, les sites concernant la technologie se situaient dans « SiliconValley » tandis que ceux sur les animes dans « Tokyo ». L’emplacement d’un site n’est pas lié à la localisation géographique de sonsa créateur·trice mais à un stéréotype d’un lieu. En 1999, c’était un des trois sites les plus visités au monde. Assez rapidement, le web se professionnalise et se commercialise. Il est vu par le capital risque américain comme une opportunité et des milliards de dollars sont investis, ce qui donnera lieu à la bulle spéculative « dot-com bubble ». Les codes graphiques utilisés par les précurseurs·précurseuses seront reniés et moqués.

Si les sites personnels tels qu’ils sont décrits par Olia Lialina disparaissent relativement rapidement, une autre forme qui émerge à la même période sera plus pérenne : le blog. Le premier blog, Links.net, a été créé en 1994 par Justin Hall, qui à l’époque était étudiant, et sur lequel il partage de courts posts contenant un lien vers un autre site ainsi que son avis sur son contenu. Il raconte aussi son quotidien et ses pensées. Ce format se popularise. Le nom weblog, contraction de web et log (registre, journal d’événement), a été inventé par Jorn Barger en 1997 et sera écourté en blog par Peter Merholz. Avant cela, le terme de « journal (intime) en ligne » était utilisé. Le blog rencontre la problématique de mise à jour fréquente : de nouveaux articles ou posts sont publiés de manières souvent quotidiennes. Pour cela, il fallait manuellement mettre à jour le code HTML, créant un fichier pour chaque post, et mensuellement archiver ces fichiers dans un dossier correspondant au mois ainsi que mettre à jour les éventuels menus contenant les liens vers les posts les plus récents ainsi que l’historique. C’est une méthode qui prend du temps, demande de la rigueur et à mesure qu’un blog prend de l’ampleur, cela veut dire devoir gérer des centaines voire des milliers de fichiers.

Pour remédier à cette complexité, deux approches sont inventées. La première se développe aux alentours de 1998 avec l’émergence de différences services d’hébergement de blogs, tels que Open Diary, LiveJournal ou bien Blogger. Ces sites permettent de créer son propre journal ou blog, qui sera hébergé chez eux. Cette centralisation des contenus en font des précurseurs des réseaux sociaux. Open Diary innove en rendant possible pour les lecteurs de commenter un article, rendant plus visible l’aspect communautaire de la pratique. En effet, auparavant, les interactions entre lecteur·trice et auteur·trice passaient par mail et étaient donc privées.

La deuxième approche pour remédier à cette difficulté n’est pas spécifique aux blogs, car la nécessité de mettre en place des outils pour mettre en ligne facilement, rapidement et régulièrement des contenus concerne de nombreux sites, notamment commerciaux. Il s’agit de la création de Content Management System (CMS) et de la mise en place de page web dynamiques. Une page internet statique est une page qui est présentée dans le navigateur à l’identique de la façon dont il est enregistré. Le contenu de cette page ne varie pas et toutes les personnes qui la consultent verront la même chose. Le premier CMS, FileNet, est créé en 1995. Les CMS séparent le contenu (par exemple un article de blog) de la forme et de la structure générale du site. Le CMS le plus populaire, WordPress, est lancé en 2003. Il ne s’agit plus d’éditer directement le HTML d’une page, mais rentrer le contenu dans le système qui lui ensuite générera le code source. Cette séparation contenu/forme est présente de manière profonde dans le web et est reflétée au cœur de sa structure : le contenu et la structure d’une page web sont en effet géré par le langage HTML, tandis que son aspect est déterminé par le CSS. 1997 marque un moment décisif pour le web dynamique avec la publication du Document Object Model (DOM), une interface de programmation (API) qui rend possible l’ajout ou le retrait d’éléments HTML dans un document. Cela permet par exemple d’envoyer et de recevoir des données sans devoir recharger la page.

Si ces deux approches se recoupent sur certains points, la première, en offrant l’hébergement, a une approche centralisée et repose sur la « marque », le nom du site apparaissent dans l’URL ou sur la page. La deuxième est décentralisée, chaque utilisateur·rice héberge séparément son site, et les outils utilisés pour le créer ne sont pas visibles de prime abord. Du côté de l’apparence, chaque service est différent, certains sont plus flexibles, offrant une personnalisation totale, tandis que d’autres sont plus restrictifs ou proposent des thèmes. WordPress est à la fois un hébergeur et un outil qui permet d’héberger son propre site. C’est aussi un des précurseurs, avec SquareSpace (2003) qui permet à des utilisateur·rices de construire facilement un site web sans code, en choisissant entre différents gabarits préfabriqués (template).

Cet avènement de pages web dynamiques ainsi que d’autres évolutions est caractérisé par le terme Web 2.0, qui donnera de manière rétronyme l’appellation Web 1.0 à ce qui le précède. Cette expression, initialement inventée par Darcy DiNucci en 1999, est popularisée en 2004 lors d’une conférence, Web 2.0 Summit, donnée par Tim O’Reilly et Dale Dougherty. Il ne s’agit pas tant d’un changement aussi radical qu’il a pu être décrit mais d’une évolution. La section commentaire est similaire aux livres d’or présent certains sites du Web 1.0, mais est spécifique à chaque article ou lieu de représenter un site entier. Sur Web 2.0, aussi désigné web participatif, les sites s’articulent autour de la participation de l’utilisateur·rice, et s’appuient sur des contenus qu’iel génère. Lors du Web 2.0 Summit, John Battelle et Tim O’Reilly partagent leur vision d’un « Web as Platform »4, sur lesquels les logiciels seraient construits, à la place des systèmes d’exploitation des ordinateurs. Ils mettent en avant le fait que les contenus produits par les utilisateur·rices, que ce soient des idées, des textes, des vidéos ou des photos, pourront être exploités (pour créer de la valeur). « customers are building your business for you »5. La commercialisation du web se consolide.

Il y a ce mot « plateforme ». Il est ambigu et omniprésent. Dans le cas de John Battelle et Tim O’Reilly, ce mot désigne l’environnement dans lequel un programme est exécuté. Le web devient une plateforme sur laquelle des webapps sont construites. Une webapp est une application qui tourne sur un serveur et qui est accessible à travers le navigateur. C’est un type particulier de site web construit autour de l’interactivité et la participation de l’utilisateur·rice. Souvent, l’expérience du site est spécifique à l’utilisateur·rice. Certains de ces sites sont aussi qualifiés régulièrement de plateformes. Dans sa définition technique, une plateforme web est une collection de technologies et d’interface de programmation destinées à la construction du web, répondant à des standards mis en place par diverses organisations de standardisations, dont le World Wide Web Consortium et Unicode Consortium. Selon le Conseil national du numérique, il s’agit d’un « service occupant une fonction d’intermédiaire dans l’accès aux informations, contenus, services ou biens édités ou fournis par des tiers. Au-delà de sa seule interface technique, elle organise et hiérarchise les contenus en vue de leur présentation et leur mise en relation aux utilisateurs finaux. »6.

Une plateforme web est un site web ou une application dont le fonctionnement repose sur l’hébergement de contenus produits par d’autres, souvent par ses utilisateur·rices. S’il n’y a pas de barrière financière7 à l’entrée, celle-ci se manifeste à travers la nécessité de devoir s’inscrire au service, en utilisant des données personnelles, pour pouvoir y accéder. Il y a une incitation permanente à se créer un compte et à se connecter, à travers des bannières ou des restrictions. La plupart du temps, le contenu n’est pas dans un contexte fixe, par exemple, une publication Facebook sera présente sur le profil de la personne qui la publie, ainsi que dans le fil d’actualité de ses ami·es Facebook. Dans le cas des moteurs de recherches, les contenus sont les liens. Les services d’hébergements de blogs mentionnés précédemment, Open Diary, LiveJournal et Blogger ainsi que GeoCities marquent les débuts des plateformes. Il serait intéressant de mettre en perspective cette notion de plateforme avec les forums. Les utilisateur·rices produisent les contenus, mais ce sont les entreprises qui en profitent. Peu de plateformes partagent les bénéfices financiers. Il y a une dynamique d’échange : les créateur·trices utilisent la plateforme pour héberger leurs contenus et y gagnent en visibilité, les plateformes monétisent à travers les publicités ces contenus et attirent des internautes et donc du trafic vers leur service. Les questions de visibilités et de monétisations sont cependant complexes ; j’y reviens à travers des exemples lors de mon étude de cas de YouTube.

Une plateforme est donc une infrastructure. Dans le cas d’une plateforme de blog, il s’agit d’une infrastructure qui facilite la publication d’un blog. La construction de ces plateformes est souvent vue comme un défi technique ou une opportunité entrepreneuriale, mais il n’y a pas de considération particulière pour le type de contenu qui est mis en ligne. Si on déplace cet exemple dans le monde analogue, c’est un peu comme si une personne créait une maison d’édition, mettait en place toute la structure pour faire la maquette, imprimer, relier et distribuer des livres mais n’avait pas de ligne éditoriale et acceptait automatiquement toutes les soumissions. Sous couvert de l’absence de ligne éditoriale, les grandes plateformes se sont souvent revendiquées comme neutres. Mais la mise en place des structures régit les usages.

J’ai l’impression que l’histoire d’internet, c’est aussi une histoire de l’abondance. Des milliers de pages sont mises en ligne puis des millions. Se pose alors la question de comment les trouver. Des méthodes d’indexation sont mises en place. En 1982, est lancé WHOIS, un système permettant de chercher les utilisateur·rices. En 1990, Alan Emtage écrit un programme, Archie, qui télécharge la liste de tous les fichiers des serveurs populaires sur le serveur de son université (McGill University School of Computer Science) tous les mois. Il est alors possible d’effectuer une recherche dans cet annuaire et d’obtenir l’adresse du fichier correspondant. En 1991 Tim Berners-Lee met en place The World Wide Web Virtual Library, hébergé au CERN, qui indexe et organise de manière thématique les pages web manuellement. Jusqu’en 1993, cette bibliothèque est exhaustive. Cette année-là sont créés le premier robot web, World Wide Web Wanderer par Matthew Gray au MIT, puis le premier moteur de recherche web, W3Catalog, par Oscar Nierstrasz à l’université de Genève. À partir du milieu des années 90, de nombreux moteurs de recherches commencent à émerger, certains d’origines universitaires d’autres commerciaux, ayant plus ou moins de succès. Infoseek, fondé en 1994, est le premier moteur de recherche à vendre de la publicité et à effectuer du ciblage publicitaire. Le business devient alors très lucratif.

Les premiers moteurs de recherches rencontrent des problématiques de vitesse ou performance, de stockage des données et de qualité de la recherche. Parcourir (crawler) le web prend beaucoup de temps et le stockage demande beaucoup d’espace. Il faut aussi être en mesure de répondre à la recherche d’un·e utilisateur·rice rapidement, en parcourant l’index créé le plus vite possible. Certains n’indexent que le titre des pages, par manque de capacité de stockage. À côté de ces outils ou sites web spécialisés, se développent aussi des pratiques de curation personnelles. Les sites web vernaculaires contiennent souvent des listes de liens, chacun·e partageait ses trouvailles. C’est d’ailleurs comme cela qu’a commencé Yahoo!. Les deux fondateurs, Jerry Yang et David Filo alors étudiants à Stanford, créent le site Jerry and David’s guide to the World Wide Web en 1994, un répertoire organisé de manière hiérarchique par des humain·es avec des catégories et des sous-catégories. Quelques mois plus tard, le site, qui a gagné en popularité, est renommé pour devenir Yahoo! Directory. Est ensuite intégré en 1995 un moteur de recherche, qui ne cherche pas sur le web mais dans le répertoire de Yahoo!. Jusqu’en 2002, le répertoire reste principalement alimenté des humain·es. En 1998 est fondé Google par Larry Page et Sergey Brin. Dans les débuts des années 2000 (entre 2002 et 2004), il devient le moteur de recherche le plus populaire au monde et depuis sa dominance du marché n’a fait que grandir.

Dans Algorithms of Oppression : How Search Engines Reinforce Racism8, Safiya Umoja Noble fait une étude de cas sur les biais9 racistes de Google. Elle revient notamment sur l’algorithme à la base de Google, Page rank. Page rank est un algorithme qui attribue à une page une note de popularité en fonction du nombre de liens qui pointent vers cette page. L’idée originale de celui-ci se base sur l’analyse des citations dans la recherche universitaire. Lorsqu’ils l’ont conçu, Larry Page et Sergey Brin étaient alors étudiants à Stanford. Ce système-là est lacunaire, et Safiya Umoja Noble cite certaines de ses limites : toutes les citations sont mises au même niveau alors qu’elles ne sont pas forcément exploitées de la même manière, il n’y a pas d’indication de si la recherche est en accord ou bien réfute les propositions, et les auteurs classiques ou grand public ne sont pas cités (elle cite l’exemple de Karl Marx). De plus, le monde universitaire fonctionne par cooptation. Ces problématiques sont amplifiées par l’échelle à laquelle cet algorithme est déployé, ainsi que l’absence d’évaluation par les pairs. Aujourd’hui encore, Google affiche sur chaque page le temps que la recherche a pris à faire, et le nombre de résultats, comme une fierté d’un accomplissement technique. L’efficacité des moteurs de recherches, ainsi que l’émergence d’autres formes de partages tend progressivement à diminuer ou transformer les pratiques de curations de liens telles qu’elles existaient aux débuts du web.

« If the majority rules in search engine results, then how might those who are in the minority ever be able to influence or control the way they are represented in a search engine? »10

À la fin des années 90 et au début des années 2000, un nouveau type de site émerge : les réseaux sociaux. En 1997 est lancé SixDegrees, en 2000 Makeoutclub, en 2003 Friendster et Myspace. Si certains des sites précédemment cités, comme GeoCities ou Open Diary rentrent dans la définition d’un réseau social, ce terme n’était pas utilisé à l’époque pour les designers. Les réseaux sociaux sont des plateformes qui reposent sur l’interaction sociale entre ses utilisateur·rices, à travers la création et le partage de contenus. Les pages personnelles deviennent des profils, ce qui provoque une normalisation : il y a un passage d’un espace d’informations multiples et non hiérarchisées au remplissage d’une structure à travers des champs qui ont été prédéfinis. En 2004, est lancé Facebook, par Mark Zuckerberg, alors étudiant à Harvard, qui deviendra le réseau social le plus populaire au monde en 2009.

Dans A brief history of Facebook as a media text: The development of an empty structure11 Niels Brügger analyse à travers l’angle du média textuel l’histoire de Facebook entre 2003 et 2013. Quelques mois après ses débuts, Facebook introduit le concept du mur. Les utilisateur·rices peuvent écrire sur leur propre mur ou bien sur celui de leurs ami·es. Il est présent sur la page de profil. Cependant, le seul moyen de voir si une personne avait posté un message était de visiter son profil. Ainsi, si une personne voulait voir toutes les nouveautés publiées par leurs ami·es, il lui fallait visiter tous les profils. Si le système de mur et de publication de statut est spécifique à Facebook, cette problématique de regroupement de contenus s’est posée dans d’autres contextes du web, notamment les blogs. La syndication de contenus rend une partie d’un site web accessible depuis d’autres sites. C’est cette transmission des contenus qui permet de mettre en place des flux les regroupant. L’outil de syndication web le plus connu est le format RSS (Really Simple Syndication), qui a été conçu en 1999 et qui existe encore aujourd’hui, bien que son utilisation soit en déclin. Un·e internaute peut s’abonner à des flux RSS et à travers un agrégateur ou reader avoir accès à tous les contenus à un seul endroit. Facebook n’utilise pas RSS, mais une approche similaire de flux est adoptée.

En septembre 2006 est lancé le News Feed (Fil d’actualité), qui devient la page d’accueil lorsqu’un·e utilisateur·rices est connecté. Si le terme original en anglais se réfère à la notion d’alimentation (Facebook nourrit ses utilisateur·rices de contenus), en français c’est une image, celle du fil, qui est utilisée. Auparavant, la page d’accueil était une version éditable de son propre profil. Le fil d’actualité agrège les différentes activités Facebook des ami·es de la personne connectée. Twitter, lancé en mars 2006, propose une timeline (frise chronologique) en chronologie inversée, montrant ainsi les tweets les plus récents des comptes que l’utilisateur·rice suit en premier. Sur Tumblr, lancé en 2007, cet espace est le Dashboard (tableau de bord). S’il n’a pas de dénomination particulière sur cette plateforme, ce système de fil antéchronologique est aussi présent sur Instagram, lancé en 2010. Sur YouTube la page d’abonnement a un statut différent du fait qu’elle ne soit pas au centre de l’expérience de la plateforme, mais elle repose sur un fonctionnement similaire.

Dès son lancement, le fil d’actualité Facebook est algorithmique, se reposant notamment sur EdgeRank, un algorithme se basant initialement sur trois facteurs : l’affinité entre l’auteur·trice et l’utilisateur·rice, l’attractivité du contenu, ainsi que sa fraîcheur (sa date de parution) pour choisir et ordonner les éléments qui apparaîtront dans le feed. Ce n’est pas le cas des autres plateformes, qui ont dans un premier temps une approche chronologique. Mais revient alors cette problématique de l’abondance : en fonction du nombre de personnes auxquelles l’utilisateur·rice est connecté·es, la vitesse à laquelle des contenus sont mis en ligne fait qu’ils s’accumulent dans le fil, et si iel ne consulte pas de manière très régulière la plateforme, ou remonte pas intégralement le fil seul les contenus apparaissant à la surface seront consultés. Pour transposer ce problème dans un contexte diffèrent, lorsque je discute avec un·e ami·e, je ne vais pas raconter la dernière chose qui m’est arrivée, puis l’avant-dernière, puis l’avant-avant-dernière en continuant de remonter jusqu’à la dernière conversation que l’on a eue ensemble. J’aurais plutôt tendance à raconter la chose la plus importante qui m’est arrivée récemment, ou bien à évoquer un sujet qui est pertinent en fonction de notre contexte.

À partir de 2014, Twitter commence à expérimenter avec l’idée d’une timeline algorithmique à travers Instant Timeline, une timeline pensée pour les nouveaux·elles utilisateur·rices qui n’ont encore suivi personne, et la fonctionnalité While You Were Away (« Pendant que vous etiez parti·es » ensuite renommé In case you missed it en français « Au cas où vous l’auriez manqué ») qui rassemble et insère dans le fil les meilleurs tweets qui ont été postés depuis la dernière connexion. Sur Twitter, il est possible d’« aimer » un tweet, il est alors ajouté dans une liste « J’aime » que l’ont peut consulter depuis le profil. Dorénavant, certains tweets aimés par des personnes suivies sont eux aussi insérés et mis en avant dans la timeline. En février 2016, Twitter rend la timeline algorithmique, présentant les tweets jugés les plus pertinents pour chaque utilisateur·rice en premier, l’option par défaut. Il est possible de changer ce paramètre pour revenir à une organisation antéchronologique. Quasiment au même moment, en mars 2016, Instagram effectue le même changement, soulignant lors du lancement qu’en moyenne une personne passe à côté de 70 % du contenu de son fil.12 Contrairement à Twitter, il ne s’agit pas d’une option que l’on peut changer. Si ces changements sont dans un premier temps contestés, ils ne semblent plus remis en cause aujourd’hui.

En septembre 2016 est lancé TikTok en Chine par Alex Zhu et Luyu Yang, et devient disponible mondialement en août. Il s’agit d’une application de partage de vidéos courtes. S’il existe la possibilité de s’abonner à des créateur·trices, le cœur de l’expérience et ce qui a fait le succès de l’application est son algorithme de recommandation, présent sur la page For you (Pour vous), qui est la première page qui apparaît. TikTok se distingue des autres plateformes par le fait qu’elle soit chinoise et non étasunienne mais aussi par son approche algorithmique : si les plateformes antérieures reposent sur la construction par l’utilisateur·rice à son inscription d’un graphe social et son entretien (ajouter ou retirer des connexions), TikTok plonge les personnes qui lancent l’application directement dans le fil de vidéo, et à partir de l’analyse de leurs comportements crée un graphe d’intérêt.13 Chaque vidéo publiée reçoit à ses débuts en moyenne une centaine de vues, et en fonction de l’engagement14 observé sur ses vues, un facteur de vélocité est calculé et la diffuse ou non vers une audience plus large. ByteDance, l’entreprise parente de TikTok, crée, commercialise et distribue des systèmes de distribution et de recommandation algorithmique basées sur des technologies d’intelligences artificielles. Ce sont ces technologies qui sont utilisées dans TikTok.

Il y a un passage d’un fil dont la curation est principalement faite par l’utilisateur·rice à travers les personnes avec qui iel se connecte, antéchronologique puis algorithmique, à un fil qui repose entièrement sur des technologies d’intelligences artificielles (AI powered feed), alimentées par ses comportements et qui y réagissent.

« without any active intervention on the users’ part »15

La question de l’hébergement des contenus sur des plateformes déplace une partie de la question de la modération de celui d’organismes gouvernementaux à des entreprises privées à intérêts financiers. Si un site auto hébergé présente un contenu illégal, un État peut, selon les spécificités de sa juridiction, intervenir de plusieurs manières afin de bloquer l’accès à ce site, par exemple à travers le blocage de l’URL ou la saisie des serveurs. Si un contenu présent sur une plateforme est illégal, un état peut demander son retrait. Il peut arriver, comme dans le cas de Megaupload ou de Genesis que l’accès à la plateforme soit totalement bloqué. Si les plateformes doivent être en conformité avec la législation locale, elles opèrent en plus de cela leur propre modération, selon leurs propres conditions d’utilisations, qui définissent ce qui est autorisé ou pas. Pour pouvoir utiliser leurs services, un·e utilisateur·rice doit accepter ces règles.

Lorsque YouTube a été lancé en 2005, il n’y avait aucun outil permettant d’enlever des commentaires offensants ou de signaler des vidéos, ce n’est que quelques mois plus tard qu’ils sont mis en place. Le fait de designer une plateforme sur laquelle n’importe qui peut publier sans imaginer qu’il y ait des abus, du harcèlement ou des propos discriminatoires relève d’une certaine naïveté et reflète d’un certain privilège : celui de ne jamais avoir été confronté personnellement et répétitivement à ces pratiques.

Pour appliquer ces règles, des algorithmes sont développés et des modérateur·trices sont recrutés à travers des entreprises de sous-traitance. Une partie des contenus qui sont soumis à la modération est détecté automatiquement, l’autre est signalé par les utilisateur·rices à travers l’interface de la plateforme. Les modérateur·trices sont exposé·es à longueur de journée à des contenus violents, à une cadence de travail infernale, à des mauvaises conditions de travail et sont mals payé·es. L’exposition répétée à ces contenus affecte leur santé mentale, sans pour autant que l’entreprise, que ce soit celle qui sous-traite ou qui emploie, prenne en charge les mesures nécessaires pour traiter ces traumatismes. Sarah T. Roberts utilise le terme « Commercial Content Moderation »16 pour désigner ce travail, qui est totalement invisibilisé. Elle souligne notamment que les plateformes ont un avantage financier à ne pas modérer les contenus sensationnalistes, car ils attirent du trafic vers leur site, et en général à ne pas trop être restrictif sous peine de potentiellement perdre ses utilisateur·rices. Plus un contenu est populaire et a amassé de la visibilité, plus il devient compliqué de le retirer.

Si dans un premier temps la modération se concentre surtout sur la suppression, vers la fin des années 2010, on constate un changement de discours de la part des plateformes qui parlent dorénavant de limiter la diffusion des contenus problématiques et les désamplifier. À partir de 2017, des utilisateur·rices sur Instagram remarquent que l’audience de certains de leurs posts a dramatiquement diminué. Le shadow banning est une pratique qui consiste à bloquer, partiellement ou entièrement, un·e utilisateur·rice ou son contenu sans que cela soit annoncé ou visible. Dans le cas d’Instagram, si un post est shadowbanné, il n’apparaîtra pas dans les pages de recherches ou sur un hashtag, sera moins distribué dans les fils des abonné·es, mais sera toujours visible sur le profil de la personne qui l’a posté. En 2019, YouTube annonce que les vidéos qui n’enfreignent pas le règlement de la communauté mais qui sont considéré comme « à la limite » (le terme utilisé par YouTube est « borderline »), tel que des vidéos aux propos négationnistes, verront leur recommandation réduite. Des systèmes de messages d’avertissements et des cartes de contextualisations sont mis en place. La conception américaine de la liberté d’expression est très souvent évoquée et est ancrée dans leur approche de la modération.

Le terme d’économie de l’attention est introduit en 1971 par l’économiste américain Herbert Simon et refait surface à partir de 1996. Il désigne le fait que, confronté à un accès à des grandes quantités d’informations, l’attention humaine est une ressource rare. Si les plateformes du web aiment à se penser lancées dans une mission pour rendre le monde meilleur, il n’en reste pas moins qu’il s’agit d’entreprises, pour la plupart publicitaires, dont l’intérêt économique repose sur leur capacité à exploiter notre temps. En juin 2018, est lancée avec iOS12 l’application Temps d’écran, qui retrace le temps d’utilisation des différentes applications de l’iPhone, crée des comptes rendus hebdomadaires, permet de voir le nombre de notifications envoyées par applications, et d’instaurer des limites de temps d’utilisation. Si certaines de ces fonctionnalités étaient déjà disponibles sur des applications tierces, l’intégration native au système d’exploitation est une étape importante à souligner, car elle permet une portée plus ample et souligne un positionnement de l’entreprise qui l’effectue. Le mois suivant, Google annonce des fonctionnalités similaires lors du lancement d’Android 9.17 Quelques mois plus tard, Facebook met aussi en place sur l’application Facebook et Instagram un outil similaire. Il y a une logique perverse de captation de l’attention, puis de culpabilisation de l’utilisateur·rice qui passe trop de temps sur les écrans.

Pour faire face à l’abondance de contenus, des systèmes d’automatisation, souvent algorithmiques, sont mis en place. Ces systèmes reflètent les croyances et conceptions de celleux qui les conçoivent, ils héritent donc de leur biais et automatisent des oppressions systémiques.

En septembre 2020, un de collègue de Colin Madland, lui demande comment faire pour que Zoom, le logiciel de visioconférence, n’efface pas sa tête lorsqu’il utilise un fond virtuel. Après lui avoir conseillé sans succès de se positionner devant un mur blanc et de mettre en place un bon éclairage, il l’appelle et comprends ce qui se passe : si le détourage ne fonctionne pas, c’est parce que son collègue est noir. Ce problème n’est pas nouveau, 11 ans plus tôt, en 2009, une vidéo intitulée « HP computers are racist » est publiée sur YouTube, où un homme noir démontre que son visage n’est pas reconnu par la webcam hp, tandis que celui de sa collègue blanche l’est.18 Colin Madland partage alors son constat sur Twitter, publiant des captures d’écrans comparatives19, contenant d’un côté lui-même, un homme blanc parfaitement détouré, et de l’autre son collègue, noir, dont seul le corps est détouré. Lorsque l’on voit un tweet dans la timeline, les images présentes dedans sont recadrées à une taille standard, et c’est lorsque l’on clique dessus qu’elles s’ouvrent et que l’on peut les voir en entier. Si à un moment ce recadrage a peut-être dû être effectué en prenant toujours le centre de l’image, le point le plus important d’une image ne se trouve pas forcément à son centre. Il a donc été décidé qu’un algorithme recadrerait automatiquement ces images.20 Très vite, Colin Madland se rend compte que dans les images qu’il a partagées, seul son visage apparaît dans la version recadrée. Il publie une version inversée en miroir mais le problème reste le même. Confronté à une image contenant deux visages de complexions différentes, l’algorithme se centre systématiquement sur la personne présente dans l’image qui est blanche. Si cet algorithme en particulier, mis en place en 2018, n’utilise pas la reconnaissance faciale, le résultat reste le même. Ce qui est particulièrement consternant, c’est que Twitter dit avoir spécifiquement testé la présence de biais racistes ou sexistes avant son déploiement.21 Un autre moyen de faire face à ce problème de recadrage aurait été de demander aux utilisateur·rices de préciser elleux mêmes ce qui était important sur l’image.

Ces oppressions s’accumulent et s’additionnent. Si les biais présents dans les bases de données qui servent à entraîner les algorithmes sont souvent pointés du doigt, cette vision est réductrice, néfaste et et profite aux puissant·es. Comme s’il suffisait de mieux contrôler ce qui entrait dans une base de données pour effacer des siècles d’oppressions. Les biais sont présents partout, dans les bases de données, dans la conception des algorithmes, chez les développeur·euses qui les écrivent, chez les designeur·euses qui conçoivent les interfaces, dans les entreprises, dans les usages, dans les représentations.

1 Lialina, Olia. « A Vernacular Web », dans Lialina, Olia et Dragan Espenschied (éd.). Digital Folklore: To Computer Users, with Love and Respect. merz & solitude, 2009. p. 19-34.

2 « Le cyberespace était une destination en soi », Quartz. The early internet is breaking - here’s how the World Wide Web from the 90s on will be saved. 2019. YouTube. https://www.youtube.com/watch?v=2LzyRcLJdlg&feature=youtu.be&t=400. Consulté le 13 novembre 2020.

3 À l’origine nommé Beverly Hills Internet, puis renommé Yahoo! GeoCities après son acquisition par Yahoo! en 1999.

4 « Le web tel une plateforme »

5 « Les clients construisent votre commerce pour vous »

6 Conseil national du numérique. Ambition numérique . https://cnnumerique.fr/files/2018-04/CNNum--rapport-ambition-numerique.pdf., Consulté le 31 octobre 2020.

7 La barrière financière existe à travers la nécessité d’avoir un certain matériel et une connexion à internet.

8 Noble, Safiya Umoja. Algorithms of Oppression: How Search Engines Reinforce Racism. New York. NYU Press, 2018.

9 À défaut d’un meilleur terme et parce qu’il est communément utilisé, j’utilise le terme français « biais » comme traduction de l’anglais « bias », mais il faut souligner que ce dernier a des implications politiques plus fortes.

10 « Si la majorité décide dans les résultats des moteurs de recherche, alors comment celleux qui sont dans la minorité pourraient être en mesure d’influencer ou de contrôler la façon dont iels sont représenté·es dans un moteur de recherche ? » Noble, Safiya Umoja. Op. cit. dans le chapitre « A Society, Searching »

11 Brügger, Niels. « A brief history of Facebook as a media text: The development of an empty structure ». First Monday, mai 2015. https://journals.uic.edu/ojs/index.php/fm/article/view/5423/4466. Consulté le 31 octobre 2020.

12 « See Posts You Care About First in Your Feed ». Instagram Blog, mars 2016. https://about.instagram.com/blog/announcements/see-posts-you-care-about-first-in-your-feed. Consulté le 12 octobre 2020.

13 Wei, Eugene. « TikTok and the Sorting Hat ». Remains of the Day, août 2020. https://www.eugenewei.com/blog/2020/8/3/tiktok-and-the-sorting-hat. Consulté le 25 novembre 2020.

14 Le mot anglais « engagement » est un terme utilisé dans le marketing, il s’agit de la propension d’une personne-cliente à interagir avec un contenu ou une marque. Dans le cas de TikTok, de nombreux indicateurs mesurent ce taux d’engagement, par exemple si la vidéo est regardée en entier ou si elle est partagée.

15 « Sans intervention active de la part de l’utilisateur·rice », Horning, Rob. « I Write the Songs ». Real Life, septembre 2020. https://reallifemag.com/i-write-the-songs/. Consulté le 30 novembre 2020.

16 « Modération commerciale de contenus », Roberts, Sarah T., «Commercial Content Moderation: Digital Laborers’ Dirty Work», 2016. Media Studies Publications. 12. https://ir.lib.uwo.ca/commpub/12. Consulté le 14 novembre 2020.

17 Cette option ne semble cependant pas être disponible sur toutes les distributions d’Android.

18 wzamen01. HP computers are racist. 2009. YouTube. https://www.youtube.com/watch?v=t4DT3tQqgRM. Consulté le 14 octobre 2020.

19 « https://twitter.com/colinmadland/status/1307111816250748933 ». Twitter, https://twitter.com/colinmadland/status/1307111816250748933. Consulté le 3 novembre 2020.

20 « Speedy Neural Networks for Smart Auto-Cropping of Images ». Blog Twitter Engineering, https://blog.twitter.com/engineering/en_us/topics/infrastructure/2018/Smart-Auto-Cropping-of-Images.html. Consulté le 3 novembre 2020.

21 « Transparency around Image Cropping and Changes to Come ». Blog Twitter, https://blog.twitter.com/en_us/topics/product/2020/transparency-image-cropping.html. Consulté le 3 novembre 2020.

Comment archiver des interfaces web ou des algorithmes ?

En informatique, il y a une distinction entre le hardware et le software. Le terme hardware désigne les composants physiques d’un ordinateur, tandis que software désigne un ensemble d’instructions données à un appareil informatique. Pour expliquer la différence, il est souvent dit que le hardware correspond à tout ce que l’on peut toucher, tandis que le software est impalpable. Cette image me semble cependant assez limitée : si je tiens mon ordinateur dans mes mains, je porte à la fois sa forme physique ainsi que son système d’exploitation, et toutes les données qu’il contient. Une interface, c’est à la fois dans le hardware et dans le software. Le hardware est collectionné et étudié dans des musées de l’informatique, mais souvent, ces institutions négligent l’aspect software. Il y a un manque d’historicisation de celui-ci. Ainsi, le Computer History Museum, fondé en 1996 à Mountain View en Californie n’a commencé à collectionner les codes sources de différents logiciels qu’en 2010, après un don d’Apple.

Internet Archive est une organisation à but non lucratif fondée en 1996 à San Francisco par Brewster Kahle. Si à ses débuts elle se consacre à l’archivage d’internet, elle élargit ensuite son champ, devenant une bibliothèque numérique qui rassemble à la fois des versions archivées de sites web, mais aussi d’autres objets numériques ou numérisés comme des livres, des vidéos ou des logiciels. Wayback Machine, une des initiatives d’Internet Archive, permet aux utilisateur·rices de « remonter dans le temps » et consulter les 330 milliard de pages web qui ont été archivées.1 Régulièrement, le web est parcouru (crawl) et les pages publiques sont archivées. Les propriétaires des sites peuvent choisir de ne pas être inclus, par exemple Facebook n’est pas disponible. L’accès aux archives est ouvert à tou·tes et il est aussi possible, depuis 2013, pour un·e utilisateur·rice d’archiver directement une page, à travers une option « Save page now »2 dans l’interface du site.

S’il faut souligner à quel point le travail d’Internet Archive est important, il s’agit néanmoins d’un archivage partiel, principalement visuel. La méthode de crawl fait que les hyperliens sont généralement conservés, mais les fonctionnalités des pages web dynamiques ne sont pas toujours disponibles. Il s’agit d’un crawl côté client (utilisateur·rice) qui fonctionne de manière similaire aux robots des moteurs de recherche. Tous les contenus créés avec Flash sont absents. Depuis 2013, les commentaires YouTube ne sont plus disponibles, car ils sont chargés dynamiquement. Les vidéos ne sont pas archivées et, dans un premier temps, les images ne l’étaient pas. Du fait des moyens limités de l’organisation ainsi que de son échelle massive, le chargement des pages sur Wayback Machine est relativement lent, ce qui rend la navigation de page archivée en page archivée assez fastidieuse. Wayback Machine repose sur un système qui a été pensé pour archiver des sites web statiques écrits en HTML, ce qui correspondait à la norme lors de sa conception en 2001, mais qui ne reflète pas forcément le web actuel.

Internet Archive effectue aussi une collection de logiciels, mais l’archive n’est pas très bien organisée, par exemple elle ne recense pas la date de publication du logiciel, sonses auteur·trices, ou avec quels systèmes d’exploitation il est compatible. D’autres sites, souvent entretenus par des amateur·rices, effectuent une collecte similaire, parfois en se focalisant sur un système d’exploitation, comme macintoshrepository3 ou sur une ère, comme Higher Intellect Software Archive4 dont la collection rassemble principalement des logiciels des années 80 et 90. Chacun de ces sites a une approche et un but différent, et s’adresse à un public différent.

Par exemple, Software Heritage5 est une collection de codes sources de projets montée par des chercheur·euses qui s’adresse principalement au milieu de la recherche. Dans une optique différente, WinWorld6 se distingue par son accessibilité et s’adresse à un large public. Il est souligné dans sa page « À propos » que son intention est de préserver à la fois les logiciels, mais aussi les informations nécessaires pour les faire fonctionner.7 Toutes les versions du logiciel disponibles dans l’archive sont ainsi présentées sur la même page avec leur date de publication originale. Ainsi, si une personne voulait étudier l’évolution d’un logiciel à travers les années, elle pourrait facilement télécharger toutes les versions disponibles et les installer pour les manipuler directement elle-même.

Des questions de droit se posent, certains logiciels propriétaires étant soumis au copyright. Software Heritage n’archive que le code sous licences libres. WinWorld ne recense par exemple que les versions des logiciels qui ont été abandonnées (abandonware), c’est-à-dire qui ne sont plus disponible à la vente et qui ne sont plus mis à jour, ou bêta et donc précommercialisation.

La plupart du temps, ces collections précédemment citées se concentrent sur les logiciels que l’on peut télécharger sur un ordinateur, mais ne comprends pas les applications web, ou les apps mobiles.8 Le logiciel et son archivage s’articule autour de la notion de version, chaque nouvelle version qui sort a vocation à remplacer la précédente. Sur les plateformes web, cette notion n’est pas présente, ou du moins pas de manière apparente à l’utilisateur·rice. Il n’y a pas de mise à jour à télécharger (ou de mise à jour qui se télécharge toute seule), un jour on se rend sur une page web et elle a changé. Parfois, ce changement est notifié, à travers une invitation à utiliser une nouvelle fonctionnalité (« Explore the new conversation view »), ou bien lorsqu’il s’agit d’une refonte totale (« Passer au nouveau Facebook »). En général, il n’est pas annoncé ou souligné. Lorsqu’il vient d’être acté, on le remarque, particulièrement s’il opère une modification de nos usages : un bouton qui a changé de place, une fonctionnalité qui n’existe plus. Mais généralement après quelques jours, on l’oublie et on s’habitue, on s’adapte.

Certains de ces changements ne sont pas visibles ou directement perceptibles : il s’agit des changements d’algorithmes. Si l’algorithme de recherche de Google change, est-ce qu’un·e utilisateur·rice lambda s’en rend compte ? Si iel effectue régulièrement la même recherche et qu’un jour le résultat n’est plus le même, alors oui, mais en dehors de ce cas-là, combien de temps faut-il pour en prendre conscience ? Les algorithmes sont des secrets industriels des entreprises privées qui les écrivent, d’une part pour ne pas être reproduit et exploités par la concurrence, mais aussi pour ne pas être détournés ou manipulés (game the system).

Dans le cas des moteurs de recherche, toute une industrie, celle du SEO (Search Engine Optimization, en français : « Optimisation pour les moteurs de recherche ») s’est développée. Les intérêts des moteurs de recherche et des propriétaires de site divergent : pour un moteur de recherche, le but est de présenter les résultats les plus pertinents en fonction de la requête de l’utilisateur·rice, tandis que pour le·la·les propriétaires d’un site il s’agit d’apparaître en haut des résultats dans le plus de requêtes possibles. À ses débuts, l’industrie du SEO utilisait des techniques abusives, comme le fait de spammer une page avec le plus de mots clefs possible, parfois en rendants ceux-ci invisibles à l’utilisateur·rice mais visible aux robots en affichant le texte en blanc sur blanc par exemple. Pour lutter contre ces manipulations, les moteurs de recherche modifient leurs algorithmes, en prenant en compte plus de signaux, dont certains externes, pour juger de la pertinence d’un site, et ne divulguent pas entièrement leur fonctionnement.

Comme toute une industrie s’est construite autour et qu’il y a un intérêt commercial, les changements dans les algorithmes des moteurs de recherches sont documentés. Le site searchenginejournal recense dans sa page « Google Algorithm Updates & Changes : A Complete History »9 tous les changements, qu’ils aient été annoncés par Google ou bien constatés par des acteur·trices de l’industrie. Une documentation à but commercial similaire est généralement présente dès lors que ces évolutions ont un impact financier. Par exemple, dans le cadre de mon étude de cas sur YouTube, une des sources que j’ai utilisées est des articles ou vidéos destinés à des youtubeur·euses souhaitant optimiser leurs contenus pour avoir une plus grande visibilité. En effectuant à chaque fois une recherche sur une période particulière, on peut voir comment ces conseils changent à mesure que les algorithmes changent.

Dans Le design de la transparence : une rhétorique au cœur des interfaces numériques10, Loup Cellard et Anthony Masure rappellent qu’en 2013, à la suite des révélations d’Edward Snowden, les entreprises mises en questions ont été poussées à faire preuve de plus de transparence sur leurs actions, à travers la publication de rapports de transparence. La question de l’archivage est politique : celleux qui contrôlent ce qui est archivé et comment cela est archivé obtiennent l’hégémonie de leurs récits. Si ces rapports de transparence apportent une forme d’archivage à travers des rapports d’états réguliers, il s’agit de récits conçus pour rassurer et reconquérir l’opinion publique à la suite de scandales à répétition. La forme qu’ils prennent reflète une conception de la Silicon Valley qui s’est diffusée plus largement dans le monde : celle que la data ou donnée représente et énonce sa propre réalité.11

Ces rapports biannuels se présentent sous forme de sites web remplis de chiffres, de diagrammes et autres graphiques accompagnés d’intitulés austères. Parmi les trois que j’ai consultés, seul celui de Google était disponible dans de nombreuses langues. Celui de Twitter était disponible en anglais et en espagnol, tandis que celui de Facebook uniquement en anglais, bien que ces deux plateformes soient largement implantées mondialement et qu’elles se déclinent respectivement dans 34 et 111 langues dans leur produit principal. Ces données sont disponibles au téléchargement, sous la forme de fichier CSV. Les entreprises à l’origine de ces rapports contrôlent non seulement quelles données sont divulguées, mais aussi comment elles sont collectées et présentées. Ces représentations graphiques réduisent des expériences humaines à des petits blocs de couleurs gentiment ordonnés dans une mise en page élégante.

On peut ainsi lire que sur Facebook, lors du premier trimestre de 2020, des mesures ont été prises pour 9,6 millions de contenus pour propos haineux (« 9.6M pieces of content acted on »). Cette tournure impersonnelle minimise la situation, une autre formulation pour la même information aurait pu être : « En trois mois, au moins 9,6 millions de propos haineux ont été publiés et ont nécessité de prendre des mesures ». Les mesures qui ont été prises ne sont pas détaillées. Le terme data washing, conçu en correspondance avec celui de greenwashing12, s’il reste pour l’instant assez peu répandu, me paraît intéressant pour désigner ce phénomène. La dataïfication désigne la tendance à transformer de nombreux aspects de nos vies en données, données qui sont ensuite exploitées et ont donc de la valeur.13

Cette dataïfication n’est pas seulement présente à travers les récits que construisent les entreprises qui publient ces rapports de transparences, mais est au cœur même de la conception de leurs produits.

En 2018, Twitter annonce vouloir se concentrer sur « l’amélioration de la santé de la conversation publique » (« increase the collective health, openness, and civility of public conversation »14) sur sa plateforme, ce qui nécessite de pouvoir la mesurer selon les termes de Jack Dorsey, cofondateur et PDG de Twitter (« If you want to improve something, you have to be able to measure it. »15). En reprenant le travail de Cortico16, une organisation de recherche à but non lucratif, et du MIT Lab for Social Machines, quatre principes ou indicateurs sont mis en place à cet effet :

« 1. Attention partagée : Les sujets dont on parle se recoupent-ils ?
2. Réalité partagée : Utilisons-nous les mêmes faits ?
3. Diversité : Sommes-nous exposé·es à différentes opinions basées sur la réalité partagée ?
4. Réceptivité : Sommes-nous ouvert·es, courtois·es et à l’écoute des opinions différentes ?
 »17

Est-ce que cela a du sens de réduire toute la palette des émotions et des ressentis humains en quatre ou même en des centaines de chiffres ? Si je suis énervée, est-ce que cela a du sens de quantifier ma colère ?

Dans leur texte Loup Cellard et Anthony Masure citent l’exemple d’AlgoTransparency18, une initiative de mise en transparence d’un algorithme, celui de YouTube, décrite comme « un indicateur alternatif qui permet de savoir si une vidéo de la plateforme YouTube est beaucoup plus recommandée qu’une autre. »19

Intriguée, je me rends sur le site. Un bref texte d’introduction dispersé sur plusieurs pages, reprenant le langage graphique de l’onboarding d’applications mobiles contextualise les enjeux du projet, puis le site se dévoile. Dans l’en-tête, six rubriques différentes sont proposées. Chaque fois que je clique dans une de celles-ci, le contenu de cet en-tête change, rendant la navigation perturbante. Le contenu de la page est une longue liste de vidéos, avec à côté de chacune d’entre elles un chiffre, le taux de recommandation. Sont aussi présent·es des catégories, un sélecteur de date ainsi que d’autres listes de statistiques.

Je me retrouve face à une interface qui, bien qu’elle corresponde à une norme de design web, me déstabilise : je ne comprends pas ce que je vois, comment l’interpréter. J’ai du mal à savoir si le projet est toujours en cours ou pas, dans une des rubriques sont mis en avant des événements datant de 2017 et 2018.

Dans l’onglet « À propos », on trouve les noms des personnes à l’origine de ce projet : Guillaume Chaslot, Adrien Montcoudiol, Soline Ledésert, Nicolas Wielonsky, Frédéric Bardolle et Mathieu Grac. Hormis Soline Ledésert, qui est journaliste à Arte, mais aussi designeuse de produits, et qui est aussi la seule femme, ils sont tous développeurs, entreteneurs, designeurs UX ou produits. Le fondateur du projet, Guillaume Chaslot est un ancien salarié de Google, il est parfois qualifié par la presse comme « un repenti ». Il n’est pas le seul avec ce profil de personne qui a fait sa carrière dans de grandes entreprises, puis a démissionné et est devenu activiste qui dénonce les pratiques de celles-ci : c’est notamment le cas de Tristan Harris, lui aussi ancien employé de Google, qui a fondé le Center for Humane Technology. Dans un article à ce sujet, la journaliste Maria Farrell20 les désigne sous le nom de « The Prodigal Tech Bro » (« le tech bro prodigue ») : « The Prodigal Tech Bro is a similar story, about tech executives who experience a sort of religious awakening. They suddenly see their former employers as toxic, and reinvent themselves as experts on taming the tech giants. They were lost and are now found. »21. Elle explique que non seulement ceux-ci22 sont « pardonnés » de leurs actions, mais il leur est aussi donné une autorité morale et le statut d’expert. Leur reconversion leur est profitable : ils sont accueillis à bras ouvert par la presse, friande de ce type de récit, invités à donner des conférences, publient des livres. S’ils y dénoncent certaines pratiques, c’est sans véritable remise en question des systèmes qui ont mené à celle-ci.

Si je cite cet exemple, c’est parce qu’il reflète pour moi la nécessité de ne pas laisser ceux qui conçoivent ces interfaces ou qui font partie de cet écosystème de la Silicon Valley monopoliser la parole.

L’art numérique est confronté à des problématiques de conservations similaires à celles des interfaces en général. Ainsi il est intéressant de mettre en perspectives dans ce texte les interrogations et les réponses présentes dans ce champ, afin de voir si celles-ci peuvent être déployées dans un champ plus large de conservation des interfaces.

Rhizome est une organisation à but non lucratif fondée en 1996 basée à New York par l’artiste Mark Tribe. Elle contribue à soutenir l’art numérique à travers la création d’expositions, la collection et le développement de logiciels. Elle est notamment à l’origine de Conifier (anciennement nommé Webrecorder, dorénavant une entité séparée de Rhizome), un outil d’archivage du web. Tandis que les autres outils d’archivage utilisent des robots pour crawler un site, Conifier utilise une approche différente, enregistrant les interactions d’un·e utilisateur·rice sur une page, ce qui permet d’archiver son interactivité.

En 2016, elle lance l’initiative Net Art Anthology, qui vise à historiciser le net art. Dans une conférence donnée en 2019 au Gail and Stephen A. Jarislowsky Institute for Studies in Canadian Art, Dragan Espenschied, artiste et directeur de la conservation à Rhizome, revient sur les enjeux et les outils techniques de la conservation d’art numérique dans le contexte de ce projet.23 Il évoque notamment l’œuvre StarryNight, de Mark Tribe. StarryNight, comme beaucoup d’œuvres numériques, est performative, non statique. Pour la restaurer, Dragan Espenschied a dû recréer une simulation de l’environnement de l’origine, en l’occurrence un réseau de discussion. On parle alors d’encapsulation d’une œuvre. Celle-ci est mise en place notamment grâce à l’émulation. L’émulation permet de simuler l’environnement original d’une œuvre, même si celui-ci est devenu obsolète, dans un environnement plus récent. Est ce qu’un processus similaire pourrait être envisagé, non pas à l’échelle d’une œuvre, mais à l’échelle d’une plateforme web par exemple ?

La conservation de l’art opère sur le présupposé de garder une création unique, originale, ce qui n’est pas le cas des interfaces web ou des algorithmes. Cependant, il reste tout de même intéressant d’utiliser les méthodes de réflexions de celle-ci. Dans la conservation d’une œuvre, il est important de souligner quels sont les éléments essentiels qui la constituent, qui doivent absolument être préservés. Un des aspects essentiels de l’expérience des plateformes web algorithmiques est la personnification des contenus pour l’utilisateur·rice.

Lorsque j’utilise YouTube, je le fais toujours en étant connectée depuis mon compte Google. L’interface graphique est la même pour tout le monde, mais les contenus mis en avant sur celle-ci sont propres à mes habitudes de visionnage. S’il existait un moyen d’encapsuler la version actuelle de YouTube, de sorte que l’interface graphique fonctionne de la même manière et que toutes les vidéos soient accessibles, si cet archivage ne comprend pas la possibilité de créer un compte et que les recommandations soient personnelles, alors il serait insuffisant. L’interface algorithmique fait partie de l’essence même de la version actuelle de YouTube. Les archives de ces plateformes présentes sur Wayback Machine sont donc très partielles, car elles ne présentent que la page d’accueil d’un·e utilisateur·rices non connecté·es et certaines pages visibles à tout le monde. De même, lorsque j’ai essayé d’archiver celle-ci avec Conifer cela n’a pas marché, car je n’ai pas pu me connecter à mes comptes respectifs.24

La personnification soulève également des enjeux dans l’étude de ces objets. Comment analyser une interface, ou un algorithme alors qu’iel est différent·e pour chaque utilisateur·rice ? Dans Algorithms of oppression : how search engines reinforce racism, Safiya Umoja Noble25 explique que pour étudier les résultats de recherche de Google, elle effectue un « cliché » (snapshot) d’une recherche sur un mot clef particulier, à un moment précis, comparant parfois les résultats sur plusieurs ordinateurs, et archive ensuite ce cliché à travers une capture d’écran.

Un autre enjeu de l’archivage et de la conservation des interfaces est leur multiplicité. Si on parle de Twitter, de quoi parle-t-on ? L’interface est différente sur le site web, en fonction du navigateur utilisé et du système d’exploitation, sur sa version web mobile, sur l’application Android et sur l’application iOS. Si toutes ces versions sont en général pensées en suivant les mêmes principes de design afin d’avoir une uniformité d’expérience, elles ont cependant chacune leurs spécificités. Le terme désigne aussi à la fois l’entreprise et le produit.26 Dragan Espenschied parle d’Instagram comme une marque dont les logiciels ne sont qu’un produit dérivé.27 Ces interfaces sont produites par des entreprises de capital risque, quasiment toutes américaines et basées dans la Silicon Valley, il est donc important pour leur étude de comprendre et de documenter ce contexte et cet environnement.

S’il n’est pas possible d’archiver directement ces interfaces, quelles autres formes peuvent être envisagées ? Dans The Archived Web : Doing History in the Digital Age28 ,Niels Brügger, professeur en sociologie des médias à l’université d’Aarhus au Danemark, explore les différents enjeux et méthodes liés à la fois à l’étude et la production d’histoire du web, mais aussi de comment faire de l’histoire en utilisant le web. Il remet notamment en perspective la relation qu’il y a eu entre la discipline de l’histoire et le web : dans un premier temps, les historien·nes l’ont considéré uniquement comme un outil et non une source. Il différencie le « web live » du « web archivé », soulignant que dès lors qu’un contenu n’est plus en ligne, sa nature change, et propose différentes études de cas critiques, exposant ainsi les différentes méthodes utilisées dans la recherche. Il évoque notamment le cas de Esther Weltevrede, qui dans un chapitre de sa thèse examine l’évolution de l’algorithme de recherche de Google. N’ayant pas accès directement aux algorithmes, elle décide d’étudier leurs effets.

Au-delà de la documentation, de l’archivage, et pour faire face à la dataïfication, il me semble important de raconter les interfaces, les algorithmes et leurs effets. De les mettre en récit. En septembre 2019, la Fondation Mozilla lance Regrets sur YouTube29 une campagne de sensibilisation rassemblant dix témoignages d’utilisateur·rices ou de leurs proches qui se sont vus recommandé·es des contenus étranges, dérangeants, dangereux ou radicalisant. Par exemple, un des témoignages est celui d’un·e enseignant·e, qui après avoir visionné des documentaires sur Apollo 11 voit ses recommandations YouTube remplies de vidéos conspirationnistes. Un autre projet, TheirTube, créé par le chercheur et designer Tomo Kihara et financé par la Fondation Mozilla aborde le même sujet. À travers une interface très simple, TheirTube permet de voir la page d’accueil personnelle de six profils de personnes différentes : complotiste, fruitarien, progressiste, conservateur, survivaliste et négationniste du climat. Ce projet s’auto définit comme un « simulateur de bulle de filtres ou chambre d’écho ».30

Ces deux exemples réussissent là où pour moi AlgoTransparency échoue, car ils remettent les utilisateur·rices, c’est-à-dire les humain·es, et donc les personnes affectées, au centre des préoccupations. Si la campagne « Regrets sur YouTube » a un dispositif très simple, TheirTube met en place un système technique plus complexe, mais cela n’entrave pas sa lisibilité.

Killedbygoogle31 est un site-cimetière qui recense tous les produits, services et logiciels entrepris et lancés par Google32 qui ont été abandonnés ou arrêtés et donc « tués » ou dont l’annonce de l’arrêt prochain a été faite. Cette liste open source et ouverte aux contributions comprend le nom de projet, sa date de naissance, sa date de mort, son âge lors de la mort, ainsi qu’un court texte de description. Elle aurait pu être présenté de nombreuses manières différentes, sous forme de base de données classique et de diagrammes, mais le choix de le présenter sous forme de cimetière, avec une pierre tombale pour chaque projet, amène un apport sémantique fort et une lisibilité immédiate : ce ne sont pas seulement des projets qui ont été annulés, ce sont des outils, des apps, des appareils qui ont été conçus, utilisés et aimés par des personnes avant qu’une décision d’une entreprise marque leur fin. Dans sa conférence, Dragan Espenschied remet d’ailleurs en question la pertinence du terme obsolescence, défini par Wikipédia comme « le fait pour un produit d’être dépassé […] en raison de la seule évolution technique »33, car il s’agit souvent d’une décision commerciale : « […] it’s rarely the case that something becomes obsolete, in many cases it’s a random business decision that Apple for example thinks: oh why support OpenGL, the open standard 3D graphics API when we can make our own called Metal that is much better and that uses 1% less battery on an iPhone, so we will stop supporting OpenGL although we already implemented it, it’s already there it works” […] »34.

Une autre initiative pertinente dans la documentation et la mise en perspective du contexte commercial et sociétal des décisionnaires des interfaces est @BigTechAlert35, un compte twitter qui surveille les abonnements des comptes twitter des PDGs et des cadres haut placés des entreprises de technologies. Si un abonnement à un compte ne veut pas forcément dire cautionner ou être en accord avec ses propos, c’est tout de même un indice ou une information intéressantes sur les orientations politiques de ces dirigeant·es, et les discours qu’iels côtoient. S’il est possible dans l’interface de Twitter de voir quels abonnements a un compte au moment de la consultation du profil de celui-ci, en dehors de ce projet, il n’est pas possible d’accéder à des informations telles telles que la date d’abonnement ou bien si un abonnement a été annulé.

La diffusion par la plateforme de Twitter est une approche intéressante, car elle s’inscrit dans le quotidien des utilisateur·rices de celle-ci : si je possède un compte et depuis celui-ci je m’abonne à @BigTechAlert, je verrais en temps réel ces agissements. Je n’ai pas besoin de consulter manuellement un site en particulier, les informations sont agrégées dans un flux que je suis déjà. Chris Messina, un consultant américain connu pour avoir été à l’origine de l’utilisation du hashtag sur Twitter, a aussi sur son compte twitter @chrismessina36 une pratique régulière d’archivage. Il effectue et partage une veille des changements d’interfaces qu’il observe, des logos et des notes de versions des applications, qui se mélange avec ses autres tweets.

Se pose aussi la question de qui est légitime pour questionner ces sujets-là. Comme le souligne Safiya Umoja Noble, s’il faut (peut-être) une expertise et des connaissances techniques pour changer les systèmes, ce n’est pas nécessaire pour les observer et les critiquer. C’est aussi ce que défend le chercheur universitaire Roberto Simanowski, dans The Death Algorithm and Other Digital Dilemmas37 en s’appuyant notamment sur l’essai de Martin Heidegger The Question concerning Technology pour souligner le fait que les techniciens ne sont pas forcément compétents pour comprendre l’essence de la technologie, « Because the essence of technology is nothing technological […] »38.

La soi-disant complexité technique et la construction d’un mythe autour de la soi-disant magie de la technologie répond à une stratégie freinant la critique de celle-ci, légitimant une autorégulation qui arrange bien ses producteur·trices. La place des pouvoirs publics dans cette régulation et réflexion collective est essentielle, cependant, cela ne faisant pas partie de mon domaine, je ne l’évoquerais pas ici. Je voudrais plutôt parler du rôle des artistes à travers quelques exemples de projets, dont le but n’est pas forcément explicitement une mise en archivage ou une vulgarisation d’un système technique, mais qui effectuent une mise en récit de ceux-ci.

En 2000, Jan Robert Leegte, un artiste néerlandais, produit Scrollbar Composition39, une œuvre qui utilise les barres de défilement par défaut. Ainsi, cette œuvre évolue avec le temps, à chaque fois que le design de ces éléments par défauts sont changés son apparence change. L’artiste documente ces différentes ères à travers des captures d’écrans. À l’occasion des 30 ans du web, en 2018, l’écal (École cantonale d’art de Lausanne) lance Information mesh40, une plateforme web qui recense différentes chronologies de l’histoire du web. Dans la partie Evolution of the Scrollbar41, on peut ainsi consulter et manipuler les barres de défilement de différentes périodes et systèmes d’exploitation. Un autre exemple de mise en récit d’un système technique est la vidéo Valentine in Things City42 de Viviane Komati, qui met en scène et crée un scénario autour d’un monde inspiré par les entrepôts d’Amazon, que l’entreprise nomme Fulfillment Centers (centres d’accomplissements ou d’épanouissement). Cette interprétation permet de visualiser l’architecture conçue pour les machines qui est au centre de ces lieux.

Documenter, archiver, historiciser, discuter, raconter les interfaces, le web et les algorithmes est essentiel, car comme le souligne Boris Müller et Frank Rausch dans leur texte-manifeste Menus, Metaphors and Materials : Milestones of User Interface Design43 ce sont des artefacts culturels, leur histoire est nécessaire non seulement pour la discipline du design d’interface, mais aussi pour comprendre nos sociétés. Dans le Xerox Alto, pour effectuer une sélection de texte, il n’y a pas le concept de maintenir le clic enfoncé. La souris est composée de deux boutons, pour commencer la sélection, il faut cliquer sur le bouton de gauche, puis pour la finir cliquer sur celui de droite. Le texte sélectionné n’est pas surligné, mais souligné. Il est important de mettre en perspective ces objets afin de pouvoir imaginer des possibles différents, et de se rendre compte que les interfaces que l’on utilise aujourd’hui sont le résultat de choix qui ont été faits par des personnes dans un contexte précis, et que si ce contexte, ces personnes ou ces choix avaient été différents, alors le résultat aurait été tout à fait autre.

Dans The Language of New Media, Lev Manovich met en avant la nécessité de réfléchir et produire de la théorie sur les changements qui sont en train de se produire sous nos yeux, quitte à manquer de recul, afin de fournir une base aux théoricien·nes du futur. Il regrette notamment le manque de documentation datant de l’émergence du cinéma « I wish that somebody, in 1895, 1897 or at least in 1903, had realized the fundamental significance of cinema’s emergence and produced a comprehensive record of the new medium’s emergence […] »44, et constate que la même chose est en train de se passer concernant l’émergence de ce qu’il nomme new media.

Un exemple qui reflète bien cette nécessité est le travail de danah boyd45, une chercheuse américaine en sciences humaines et sociales. En 2007, elle poste sur un son blog un article intitulé Viewing American class divisions through Facebook and MySpace46 retraçant les différences de classes des adolescent·es américain·es à travers les usages comparés de Facebook et MySpace, à travers des études de terrain. Comme Facebook était à l’origine accessible uniquement aux étudiant·es des universités, et particulièrement des grandes universités, et que MySpace était surtout centré autour de la musique, ces deux plateformes n’ont pas attiré le même type d’utilisateur·rices. Après l’ouverture de Facebook, cette séparation persiste. À la suite de ce post, elle reçoit beaucoup de réactions critiques, sur plusieurs aspects de son texte, dont une qui m’interpelle en particulier, qu’elle nomme « Like duh »47 dans un article de réponse : le fait que ce qu’elle raconte soit d’une évidence totale et donc potentiellement n’a pas lieu d’être sujet. Si peut-être, c’était une évidence en 2007 que MySpace et Facebook reflétaient dans leurs usages des différences de classe, ce ne l’était pas du tout pour moi, personne qui n’a pas vraiment vécu l’ère MySpace, et qui a lu son texte en 2020. Il me paraît donc nécessaire de non seulement produire de la théorie sur les transformations que l’on observe, mais aussi de documenter et de remettre en question ce qui nous paraît être évident.

Au-delà de la documentation, de l’archivage, il me paraît essentiel de questionner les technologies, les personnes qui les produisent et les usages que nous en avons. Ces questionnements peuvent intervenir dans des champs et des formes différentes : dans le journalisme à travers des investigations et des lanceur·euses d’alerte, dans la politique avec des audits parlementaires, mais aussi dans le champ de l’art.

James Bridle, est un artiste et théoricien, qui interroge à la fois dans son travail plastique et dans son travail théorique, différentes technologies. Dans Failing to distinguish between a tractor trailer and the bright white sky48, il explique son travail autour de l’industrie des voitures autonomes. Celles-ci sont développées par des ingénieur·es en Californie sur des voitures neuves et des autoroutes. A contrario, il entraîne un système de machine learning open source avec sa vieille voiture, sur les petites routes sinueuses de Grèce. Son système n’est pas conçu pour aller d’un point A à un point B, mais au contraire pour se perdre : « My car is designed to get lost. Rather than entering a desired destination and sitting back, surrendering decisions over routing to the machine, in return for a guaranteed arrival, my self-driving car plots a random course, taking every available exit, off-ramp and side road in order to prioritise the journey over the destination. »49

1 « Internet Archive: About IA ». Internet Archive, https://archive.org/about/. Consulté le 30 novembre 2020.

2 « Sauvegarder maintenant une page »

3 « Archive de vieux logiciels Mac ». Macintosh Repository, https://www.macintoshrepository.org/. Consulté le 22 octobre 2020.

4 « Retro/Vintage Computing Downloads ». Higher Intellect Software Archive, https://preterhuman.net/software/. Consulté le 30 novembre 2020.

5 « Software Heritage ». Software Heritage, https://www.softwareheritage.org/. Consulté le 30 novembre 2020.

6 « WinWorld: Welcome ». WinWorld, https://winworldpc.com/home. Consulté le 25 novembre 2020.

7 « to preserve and share old software, and the knowledge necessary to use that software. » « WinWorld: About ». WinWorld, https://winworldpc.com/about. Consulté le 22 octobre 2020.

8 Internet Archive a une collection d’applications iOS ainsi qu’une d’application Android, mais, comme pour toute la partie logicielle, les informations disponibles sur les fichiers sont très lacunaires.

9 « Google Algorithm Updates & Changes: A Complete History ». Search Engine Journal, https://www.searchenginejournal.com/google-algorithm-history/. Consulté le 25 octobre 2020.

10 Masure, Anthony, et Loup Cellard. « Le design de la transparence : une rhétorique au cœur des interfaces numériques », dans Philizot, Vivien, et Saint-Loubert Bié, Jérôme (dir), Op. cit.

11 Ou bien, comme le formulent Loup Cellard et Anthony Masure : « […] l’idéologie positiviste du big data selon laquelle la vérité résiderait dans l’abondance des données brutes […] » Op. cit. p. 126.

12 Selon Wikipédia, le greenwashing est procédé de marketing utilisé par une organisation dans le but de se donner une image de responsabilité écologique trompeuse, « Greenwashing ». Wikipédia, 13 novembre 2020. Wikipedia, https://fr.wikipedia.org/w/index.php?title=Greenwashing&oldid=176554923.

13 Celle-ci ne se limite pas seulement à l’industrie de la technologie, mais s’étend aussi dans la sphère des collectivités publiques, à travers les initiatives d’open data.

14 « https://twitter.com/jack/status/969234275420655616 ». Twitter, https://twitter.com/jack/status/969234275420655616. Consulté le 2 décembre 2020.

15 « Si vous voulez améliorer quelque chose, il faut pouvoir le mesurer. », « https://twitter.com/jack/status/969234283633115137 ». Twitter, https://twitter.com/jack/status/969234283633115137. Consulté le 2 décembre 2020.

16 « Cortico ». Cortico, https://www.cortico.ai. Consulté le 30 novembre 2020.

17 « Shared Attention: Is there overlap in what we are talking about?
Shared Reality: Are we using the same facts?
Variety: Are we exposed to different opinions grounded in shared reality?
Receptivity: Are we open, civil, and listening to different opinions? »

18 « YouTube recommended videos ». AlgoTransparency, https://algotransparency.org/index.html . Consulté le 2 décembre 2020.

19 Cellard, Loup et Masure, Anthony, Op. cit. p. 132

20 « The Prodigal Techbro ». The Conversationalist, 5 mars 2020, https://conversationalist.org/2020/03/05/the-prodigal-techbro/. Consulté le 30 novembre 2020.

21 « Le Prodigal Tech Bro est une histoire similaire [à celle du Fils prodigue], à propos des cadres dans les entreprises de technologie qui vivent une sorte d’éveil religieux. Ils voient soudainement leurs anciens employeurs comme toxiques et se réinventent en tant qu’experts pour maîtriser les géants de la technologie. Ils ont été perdus et sont maintenant retrouvés. ». Ibid.

22 Il s’agit uniquement d’hommes, comme le souligne Maria Farrell.

23 « Remembering Tomorrow ». Conférence donné par Espenschied, Dragan. 2019. Disponible en ligne https://www.youtube.com/watch?v=wrX-2LrsR3w. Consulté le 25 octobre 2020.

24 L’identification à Google à travers l’outil Conifer ne fonctionnait pas. Bien que j’ai rentré mes identifiants correctement, il m’était demandé de confirmer mon identité par mail, mais une fois cette vérification effectuée, je suis renvoyée à la première étape d’identification, et ce en boucle infinie.

25 Noble, Safiya Umoja. Op. cit.

26 Ainsi, parler de Twitter comme une entité qui aurait son propre pouvoir de décision par exemple en disant « Twitter va renforcer la sécurité de comptes de politiques et de journalistes américains » renforce l’invisibilisation des personnes qui sont responsables de ces décisions. S’il serait plus exact de dire par exemple, « Les dirigeant·es de Twitter ont décidé de renforcer la sécurité de comptes de politiques et de journalistes américains », il s’agit d’une convention de langage communément admise qui est utilisées dans de nombreux contextes.

27 Espenschied, Dragan. Op. cit.

28 Brügger, Niels. The archived web: doing history in the digital age. Cambridge. MIT Press, 2018.

29 « Regrets sur YouTube ». Mozilla Foundation, https://foundation.mozilla.org/fr/campaigns/youtube-regrets/ . Consulté le 2 décembre 2020.

30 « Filter bubble simulator »

31 « Killed by Google ». Killed by Google, https://killedbygoogle.com. Consulté le 28 octobre 2020.

32 Ou bien des projets qui ont été rachetés par l’entreprise.

33 « Obsolescence ». Wikipédia, 23 septembre 2020. Wikipedia, https://fr.wikipedia.org/w/index.php?title=Obsolescence&oldid=174961491.

34 « Il est rare que quelque chose devienne obsolète, souvent il s’agit d’une décision commerciale arbitraire, par exemple Apple se dit : “Tiens, pourquoi utiliser et être compatible avec OpenGL, l’interface de programmation de la norme ouverte de graphiques 3D, alors que l’on pourrait créer la notre appelée Metal, qui est beaucoup mieux et qui utilise 1 % moins de batterie sur un iPhone, on va donc arrêter d’utiliser et d’être compatible avec OpenGL, bien que nous l’ayons déjà mis en œuvre, que c’est déjà là et que ça marche” » Espenschied, Dragan. Op. cit.

35 « https://twitter.com/bigtechalert ». Twitter, https://twitter.com/bigtechalert. Consulté le 28 octobre 2020.

36 « https://twitter.com/chrismessina ». Twitter, https://twitter.com/chrismessina. Consulté le 28 octobre 2020.

37 Simanowski, Roberto. The Death Algorithm and Other Digital Dilemmas. Cambridge. MIT Press, 2018.

38 « Car l’essence de la technologie n’a rien de technologique », Heidegger, Martin. The Question Concerning Technology. https://simondon.ocular-witness.com/wp-content/uploads/2008/05/question_concerning_technology.pdf. Consulté le 29 octobre 2020.

39 Leegte, Jan Robert. Scrollbar Composition. 2000. http://www.scrollbarcomposition.com/. Consulté le 25 novembre 2020.

40 Information mesh. http://infomesh.org/. Consulté le 29 octobre 2020.

41 Matos, Sébastien. Evolution of the Scrollbar. https://scrollbars.matoseb.com. Consulté le 29 octobre 2020.

42 Komati, Viviane. Valentine in Things City. 2020. Vimeo, https://vimeo.com/409711219.

43 Müller, Boris, et Rausch, Frank. Op. cit.

44 « J’aurais aimé qu’une personne, en 1895, 1897 ou au moins en 1903, se soit rendue compte de l’importance fondamentale de l’émergence du cinéma et ait produit une archive exhaustive de l’émergence de ce nouveau média », Manovich, Lev. The Language of New Media. Cambridge. MIT Press, 2001, dans l’introduction.

45 Son nom n’est jamais capitalisé.

46 boyd, danah. Viewing American class divisions through Facebook and MySpace. http://www.danah.org/papers/essays/ClassDivisions.html. Consulté le 30 novembre 2020.

47 « Non, sans blague ?! »

48 Bridle, James, « Failing to distinguish between a tractor trailer and the bright white sky » dans Kholeif, Omar (éd.). Op. cit. p. 43-50.

49 « Ma voiture est faite pour se perdre. Plutôt que d’entrer dans une destination désirée et de rester assis, en abandonnant les décisions sur la route à la machine, en échange d’une arrivée garantie, ma voiture autonome trace un parcours aléatoire, prenant chaque sortie disponible, chaque bretelle de sortie et petite route afin de prioriser le voyage à la destination », Bridle, James. Op. cit. p. 48.

YouTube, son évolution et son algorithme (Étude de cas)

Pour faire cette étude de cas, je me suis appuyé sur le blog officiel de YouTube, lancé en juillet 2007, quelques mois après les débuts de YouTube et qui reste à ce jour actif, comme source principale. Ce blog sert de moyen de communication pour annoncer des nouveautés ou bien mettre en avant certains contenus.

En utilisant le module cheerio et Node.js, j’ai récupéré les 19981 entrées de ce blog, puis je les ai analysées afin d’en extraire les éléments importants, que j’ai ensuite catalogués dans un tableur. Une frise chronologique établie à partir d’une partie de cette base de donnée est disponible en ligne à l’adresse memoire.alicericci.eu/chronologie. Si l’usage d’une publication officielle est problématique, car celle-ci est biaisée et ne communique que sur les aspects qui bénéficient à l’entreprise, cela m’a tout de même permis d’obtenir de nombreuses informations, que j’ai ensuite vérifiées et complétées avec d’autres sources. Pour cela, j’ai souvent eu recours à la fonctionnalité du moteur de recherche Google qui permet d’effectuer une requête sur des dates précises. À la lecture de ce blog, on peut voir le passage d’une petite organisation d’une vingtaine de personnes, dont les préoccupations dans un premier temps sont d’avoir assez de serveurs pour héberger toutes les vidéos, à son rachat par Google et sa transformation en grande entreprise.

Afin d’obtenir un historique visuel de la page d’accueil de YouTube, j’ai utilisé les différents modules moment, wayback-machine, et puppeteer afin d’effectuer des captures d’écran des versions archivées sur le site Wayback Machine, de mai 2005 (date de la première archive disponible) à août 2019, à chaque fois à une semaine d’intervalle.

YouTube est un site de partage de vidéo, fondé par trois anciens employés de PayPal, Steve Chen, Chad Hurley, et Jawed Karim en février 2005, à San Mateo, en Californie. Un designer et deux ingénieurs en informatique. C’est une startup, financée à son début par le capital risque. À l’époque, il était difficile de partager des vidéos en ligne. Ce constat fait par les fondateurs est vu comme un défi technique, ou bien une opportunité. Au début, il s’agit de créer un site de rencontre, sur le modèle de HOTorNOT2, mais avec des vidéos. Cette idée est assez rapidement abandonnée, au profit d’une approche plus large.

En avril 2005, la première vidéo, Me at the Zoo3 est publiée. Un mois plus tard, la version bêta est ouverte au public, puis en décembre la version officielle est lancée. Un sketch originalement diffusé pendant Saturday Night Live, Lazy Sunday, est mis en ligne et prend de l’ampleur sur la plateforme, devenant la première vidéo virale. Lors de la création de YouTube, il n’y a pas vraiment de questionnement sur qu’est ce qui sera sur la plateforme, autre que le fait que ce sera de la vidéo. NBC, propriétaire des droits, demande à ce que cette vidéo soit retirée4, mais elle est constamment remise en ligne par de nouvelles personnes. YouTube devient non seulement un endroit où partager les vidéos que l’on a soit même créées, mais aussi un endroit de diffusion de contenus, ce qui posera de nombreux problèmes au niveau des droits.

Le 7 juillet 2005 est lancé le blog officiel de YouTube5, afin de communiquer avec le monde les nouveautés et les changements du site. Une grande partie de ce texte est basée sur l’analyse de ce blog.

Une des premières grandes préoccupations de la plateforme est de gérer la quantité de vidéo mise en ligne par jour. En 2007, six heures de vidéos sont mises en ligne par minute.6 En 2009, c’est vingt heures par minute. Ce n’est pas gérable à une échelle humaine. Techniquement, l’infrastructure doit pouvoir supporter cet afflux, mais il s’agit aussi d’organiser les contenus pour qu’ils soient facilement trouvables. Cette organisation se fait au début à travers un système de tag, lorsqu’un·e utilisateur·rice met en ligne une vidéo, iel doit renseigner des tags décrivant le contenu de la vidéo. Dans un premier temps, il est obligatoire de remplir au moins trois tags.

Sur la page d’accueil, une liste des tags est présente ainsi qu’une partie featured video (vidéos mises en avant). Il s’agit de contenus choisis par une équipe éditoriale de YouTube. Pour qu’une vidéo soit présentée, un·e utilisateur·rice peut envoyer un mail avec le lien de la vidéo.7 Un système de case à cocher lors de la mise en ligne de vidéo est ensuite mis en place pour faciliter le processus, puis il est possible de directement signaler une vidéo depuis l’interface utilisateur·rice. Le site est accusé de ne mettre en avant que du contenu sponsorisé ; pour contrer ces accusations, une publication mensuelle des vidéos qui ont été mises en avant suite à une requête est créée sur le blog de YouTube. Une fois par mois, un guest editor est invité à penser la programmation de la page d’accueil.8

Le 7 juillet 2005, est lancée une page browse (parcourir), comme réponse face aux difficultés à trouver des vidéos pertinentes et intéressantes. Depuis cette page, on peut voir les vidéos les plus récentes, les plus vues, les plus commentées et les plus ajoutées aux favoris. Est ensuite mis en place un système de chaînes en août.9 Il s’agit cependant d’un concept différent de celui qui est encore présent aujourd’hui : les chaînes agrègent des contenus similaires ensembles, et ne sont pas individuelles à un·e créateur·trice. La responsabilité de la catégorisation des vidéos est placée sur le·a créateur·trice, et ce pendant de nombreuses années. Dans un billet datant de septembre 2010 donnant des conseils pour les youtubeur·euses, YouTube10 se caractérise comme « le second plus gros moteur de recherche » et insiste sur l’importance des métadonnées : le titre, les tags, ainsi que la description. Des outils sont mis à disposition pour trouver les tags les plus pertinents, il est aussi conseillé de mettre à jour régulièrement ces données après la mise en ligne de la vidéo concernée.

À la lecture du blog officiel de YouTube, il apparaît qu’un des aspects importants du site à ses débuts est la curation. La curation est une pratique de collection, elle consiste à sélectionner soigneusement des contenus, les éditer et les partager. Une des premières fonctionnalités mises en place est la possibilité d’ajouter une vidéo à ses favoris. Le premier slogan apparaissant à côté du logo est Your digital video repository, il y a l’idée d’une collection créée et organisée par les enthousiastes de vidéo. En avril 2006 est donnée la possibilité de s’abonner aux favoris d’un·e membre. Pour expliquer cette nouveauté, l’exemple suivant est donné : « Steve finds great videos, but I really have no interest in seeing 8 million videos of his cat Stinky (sorry Stinky). Now I can subscribe to his favorites and get all the great videos he finds delivered straight to my inbox. »11. Ces utilisateur·rices curateur·trices permettent de pallier la difficulté de s’y retrouver parmi la quantité de contenus, iels agissent comme des guides. Si j’ai du mal à trouver des vidéos qui m’intéressent, je ne vais pas rester sur le site longtemps ou y revenir.

En juin 2006, un historique des 100 dernières vidéos regardées est généré, si l’utilisateur·rice a un compte et est connecté·e. Ces données sont dans un premier temps sauvegardées localement sur l’ordinateur de l’utilisateur·rice pour des raisons de confidentialité.12 Il n’existe pas d’information sur le moment à partir duquel l’historique s’est agrandi13 et a commencé à être stocké sur les serveurs de YouTube. Cependant, il est certain que ce changement a lieu puisqu’en février 2008 est lancé, d’abord de manière expérimentale, un algorithme de recommandations personnalisées basées sur les vidéos précédemment regardées et mises en favoris. Les innovations en matière de fonctionnalités pour trouver du contenu pertinent ne se sont pas totalement arrêtées, mais cet algorithme est la solution principale à ce problème.

Lors de sa première année, YouTube se concentre uniquement sur la croissance du site. Le fait d’être une startup et de bénéficier de capital extérieur a permis de ne pas avoir besoin de monétiser immédiatement leur service. L’absence ou la présence limitée de publicités a attiré les internautes. Un mois après son acquisition par Google, en novembre 2006, est initié un premier concept publicitaire : Participatory Video Ads (PVA).14 Les vidéos sponsorisées via ce programme apparaissent sur la page d’accueil du site, cette offre est destinée aux gros publicitaires puisqu’un budget minimum de 25 000 $15 est nécessaire. En mai 2007, quelques un·es des créateur·trices les plus populaires sont sélectionné·es pour avoir accès au partage de revenus et opportunités promotionnelles au même titre que les partenaires professionnels (principalement des chaînes télévisées avec lesquelles l’entreprise a des accords). Dès lors qu’une vidéo est monétisée, une publicité est placée à côté du contenu.

En août 2007, est lancé un concept publicitaire de plus grande envergure avec des publicités dans les vidéos : il s’agit d’annonces qui apparaissent en superposition de la partie basse du lecteur après que 15 secondes de vidéo soient regardées. Si l’utilisateur·rice ignore la publicité, elle disparaît au bout de 10 secondes. Il est aussi possible de la fermer plus tôt en cliquant sur la croix. Lorsque l’utilisateur·rice clique sur la publicité, le contenu original est mis en pause et une vidéo publicitaire est lancée. Cette stratégie a été pensée pour être non intrusive (ou plutôt, la moins intrusive possible). Les publicités sont placées uniquement sur les vidéos des partenaires. Google s’assure ainsi qu’elles ne sont pas disposées sur des contenus copyrightés ou jugés comme non appropriés par les publicitaires. Il est aussi possible pour les publicitaires de cibler par âge, genre, localisation, chaîne spécifique et moment de la journée. En décembre 2007, le test mit en place précédemment avec les créateur·trices les plus populaires est qualifié d’« incroyable succès »16 et le programme de partenaires est officiellement lancé : n’importe qui résidant aux États-Unis ou au Canada peut postuler pour devenir partenaire et ainsi pouvoir monétiser ses vidéos. Les critères d’acceptations sont la taille de l’audience, la régularité de mise en ligne ainsi que le respect des conditions d’utilisation. Le partage de revenu a permis de légitimer l’apparition des publicités.

À partir du moment où un intérêt financier est introduit, la plateforme se professionnalise. Quelques mois plus tard, en mars 2008 est lancé Youtube Insight (renommé en 2011 Youtube Analytics), un outil d’analyse reflétant cette professionnalisation. Il s’agit pour les créateur·trices de comprendre et de quantifier qui regarde leurs vidéos, d’où ce public vient géographiquement, et comment il a trouvé la vidéo. Ce produit est présenté comme une opportunité pour augmenter son nombre de vues et agrandir sa popularité, ces données doivent permettre de prendre des décisions afin d’optimiser la performance du contenu, comme le fait de changer l’heure de mise en ligne ou bien de créer des vidéos ciblant une population démographique particulière. Si cet outil est disponible pour tout le monde, il est souligné que pour les partenaires l’augmentation de popularité génère plus de revenus (« And for those of you who are also partners, the more popular a video is, the more advertising revenue it can generate. »17). Au fil du temps, YouTube Insight évolue et s’enrichit des nouvelles statistiques, comme le nombre de vues en fonction de groupes d’âge18, la possibilité de voir de façon régionalisée les notes mises par le public19, ou bien la possibilité d’exporter les données vers un fichier CSV.20 L’utilité de cette ressource dans le cadre d’une campagne politique pour cibler et comprendre l’électorat est aussi pointée et mise en avant en 2008 par YouTube.21

Ce gain financier potentiel attire de nombreuses personnes sur la plateforme et entraîne une course au nombre de vues. En avril 2009, Fred est la première chaîne à atteindre le million d’abonné·es. En août 2007, est proposée la possibilité de choisir sa propre miniature parmi une sélection de 3 clichés de la vidéo.22 En 2019, dans le cadre de son podcast A conversation with, Philip Defranco, évoque avec son invité Anthony Padilla, tout deux youtubeurs historiques, la façon dont il exploitait cette option en insérant des segments tels contenants des photos ou montages de femmes considérées comme attirantes, à des moments clefs de la vidéo pour qu’elles apparaissent dans la miniature. C’est un des premiers créateurs à faire du clickbait (attrape clic), d’autres suivent son exemple. « YouTube had to change thumbnail policy because I was abusing it »23. D’autres stratégies sont évoquées, basées sur le fait que le site mettait en avant à travers son interface les listes des vidéos les plus vues, les plus discutées, les plus appréciées. Le but était donc d’émerger sur ces listes afin de gagner en visibilité. Pour cela, certain·es créateur·trices engageaient des entreprises de bot afin d’augmenter artificiellement le nombre de vue, ou bien mettait en place des giveaways (concours/cadeaux) basés sur les commentaires, permettant ainsi à la vidéo de remonter sur la liste des plus discutées.

En décembre 2008, des changements structurels importants sont mis en place afin de diminuer l’exploitation des failles. Les règles quant au contenu « adulte » ou sexuellement suggestif sont durcies, dorénavant ce celui-ci ne sera accessible qu’aux utilisateur·rices de plus de 18 ans et n’apparaîtront plus dans les pages « browse », de même pour les vidéos contenants des jurons.24 La méthode dont les miniatures sont générées est aussi modifiée. Malgré cela, on trouve plusieures vidéos datant de 2009/2010 décrivant des moyens d’augmenter le nombre des vues d’une vidéo en utilisant des logiciels ou plug-ins permettant de recharger automatiquement une page à un intervalle régulier.

En mars 2012, en réponse à ces problèmes, YouTube change radicalement son approche.25 Au lieu de se concentrer sur le nombre de vue, il est décidé de favoriser le watch time, autrement dit le temps passé devant une vidéo. Si une vidéo a une miniature trompeuse, l’utilisateur·rice va cliquer dessus, puis se rendant compte de la supercherie, iel quittera rapidement la page. Avec l’ancien système, cette vidéo aurait été mise en avant dans les suggestions, après le changement ce n’est plus le cas. Il ne s’agit pas de se concentrer uniquement sur une vidéo en particulier, mais le temps passé à regarder des vidéos sur le site en général. Ainsi sont favorisées les vidéos qui ont un bon taux de rétention du viewer26 (personne qui regarde), et qui incitent aussi à regarder plus. Ce changement a accéléré et promu la croissance du contenu de gaming sur la plateforme. Les vidéos « Let’s play » sont relativement faciles à produire rapidement et fonctionnent souvent sur le principe de la série. Ainsi, après avoir fini de regarder une vidéo, le·a viewer va regarder la suivante. Ces vidéos ont en moyenne une durée plus longue (environ 10 minutes vs 4 minutes) que les sketches de comédie, format précédemment vedette de la plateforme, ce qui leur donne un avantage intrinsèque dans le contexte du watch time.27 La fréquence de mise en ligne est aussi très intense : dans une vidéo d’analyse le youtubeur Matpat de la chaîne The game theorists souligne le fait que les chaînes de gaming publient en moyenne plus de 8 vidéos par semaine, contre une ou deux pour les autres types de chaînes. En août 2013, PewDiePie devient le créateur avec le plus d’abonné·es sur le site, dépassant Smosh. Cette occurrence est le seul moment où un changement d’algorithme a été annoncé et expliqué de manière si publique. À la suite de celui-ci, il devient possible en août 2012 de créer une miniature personnalisée. Une miniature trompeuse devient inutile si la vidéo n’est pas regardée après le clic original. Quelques mois plus tard, en octobre 2012 la mesure du temps regardée par vidéo est rendue disponible sur Youtube Analytics.

En février 2017, le Wall Street Journal publie un article mettant en lumière des contenus antisémites dans plusieures vidéos de Pewdiepie, le créateur le plus populaire de la plateforme.28 À la suite de cet article, son contrat avec Disney est rompu et sa série YouTube Red est annulée. Le Wall Street Journal est accusé d’avoir isolé des extraits de ses vidéos et de les avoir présentés sans contexte et de manière à détourner ses propos. Il y a, depuis la création de YouTube, des tensions entre la plateforme et ses créateur·trices et les médias dits « traditionnels ». Les youtubeur·euses ne sont pas pris au sérieux malgré leur public grandissant. Par exemple en août 2015 un article du New York Post ayant pour titre « These idiots are making a fortune producing the dumbest stuff on the Internet »29 est publié. Cet événement est perçu comme une attaque d’une industrie mise en difficulté par des changements de pratiques et une volonté de décrédibiliser la concurrence émergente. Les noms et images de ces créateur·trices populaires sont utilisés pour attirer les clics.

En mars 2017, à peine un mois plus tard, le Times démontre que YouTube place des publicités sur des contenus terroristes, dans un article intitulé « Big brands fund terror through online adverts. »30. En réaction, de nombreuses entreprises telles que Pepsi, Coca Cola, Starbucks et Wal-Mart retirent leurs publicités de la plateforme. Le terme adpocalypse, mot valise d’advertisement (publicité) et apocalypse, émerge. Les revenus publicitaires des créateur·trices diminuent dramatiquement. Même après le retour des publicitaires, ces revenus ne retournent pas à leur état pré-adpocalypse. Google et de ce fait YouTube étant une entreprise tirant leurs revenus de la publicité, c’est l’entreprise entière qui est menacée par ce boycott. Des mesures sont prises, à la fois pour combattre le terrorisme et retirer les contenus problématiques, mais aussi pour rassurer les marques. La différence entre les contenus autorisés sur la plateforme et les contenus qui peuvent être monétisés est soulignée. C’est le début de l’ère advertiser friendly. Il est possible depuis 2008 pour les publicitaires de cibler les utilisateur·rices dans leurs campagnes.31 Lors du lancement de cette possibilité, l’exemple innocent et simple d’une boulangerie végane est évoqué : faire apparaître une publicité pour un produit végane sur des chaînes de cuisine qui se concentrent sur des recettes à base de viande paraît contre-productif. En 2017, ces outils de contrôles sont augmentés afin de permettre un ciblage toujours plus précis. Le contenu qui est classifié comme safe, c’est à dire qui ne risque pas d’offusquer les publicitaires, devient l’option par défaut. Les marques peuvent choisir d’élargir leurs campagnes sur des contenus plus divers. D’autres instances ou vagues d’apocalypses interviennent. À la suite de celles-ci, à chaque fois les règles concernant la monétisation de contenus se durcissent. À partir de février 2018, il n’est possible de monétiser sa chaîne que si celle-ci cumule 4000 heures de contenu regardé annuellement ainsi que 1000 abonnés.32

En décembre 2015, est lancé le mode restreint sur YouTube, un outil destiné premièrement aux parents afin de filtrer des vidéos inappropriées. Il est précisé que ce filtre n’est pas fiable à 100 %.33 Mais ce qui n’est pas précisé, et qui a été découvert 2 ans plus tard, en mars 2017, est que ce mode filtre tout ou une grande partie du contenu LGBTQI+.34 Le site s’est excusé et a précisé qu’il s’agissait d’une erreur.35 Un an plus tard, le 28 mai 2018, Chase Ross, un créateur transgenre parle de son expérience : une grande majorité de ses vidéos se voient appliquer une limite d’âge (aged-restricted), ce qui empêche la monétisation, et d’autres sont démonétisées.36 Ses vidéos sont signalées de manière abusive par des groupes anti-LGBTQI+, mais lorsqu’il fait appel, la décision est confirmée par YouTube. La présence du terme « trans » dans le nom de fichier de la vidéo amène une démonétisation automatique lors de la mise en ligne. Ce fait est nié par l’entreprise, mais est démontré à travers une série de tests.37 Il ne s’agit pas d’un cas isolé dans la communauté LGBTQI+.

Non seulement les créateur·trices sont financièrement affecté·es, mais le fait qu’une limite d’âge soit mise en place empêche à nombreuxses mineur·es d’avoir accès à ces ressources dont iels ont besoin. C’est du contenu éducationnel qui est retiré ou bien qui voit sa propagation largement limitée. Il est aussi révélé que ces groupes anti-LGBTQI+ précédemment cités utilisent les outils de ciblages de la plateforme afin de diffuser des publicités anti-LGBTQI+ sur des vidéos de créateur·trices LGBTQI+.38

Ce scandale est vécu de façon particulièrement amère, car il intervient durant le mois des fiertés et à l’occasion YouTube a changé ses visuels sur les réseaux sociaux pour intégrer le drapeau des fiertés.39 Tous les ans à cette période est publiée une campagne de célébration. Dans un billet accompagnant la publication de cette campagne, l’affaire est à peine évoquée et toute erreur ou responsabilité est niée.40

En 2019, Carlos Maza, un journaliste travaillant à l’époque pour Vox, raconte dans un thread sur Twitter comment, depuis qu’il a commencé à travailler pour Vox, Steven Crowder, un commentateur politique conservateur, publie régulièrement des vidéos se moquant de lui, de son orientation sexuelle et de son ethnicité.41 Ce tweet est accompagné d’une vidéo de compilation d’insultes racistes et homophobes à son encontre provenant de la chaîne YouTube de Steven Crowder. Les chaînes de Vox et de Steven Crowder ont toutes les deux une large audience. Non seulement Carlos Maza subit ce harcèlement depuis des années, mais YouTube, qui a des règles en place condamnant ce type de pratique, refuse de les appliquer, car l’entreprise serait taxée de biais anti-conservateurs.

À la suite de ce tweet qui a reçu beaucoup d’attention42, YouTube décide alors d’étudier la situation, puis après l’avoir examinée en détail, annonce qu’il ne s’agit pas d’une violation des community guidelines (règles de la communauté). Dans une mise à jour sur la situation, il est annoncé que la monétisation de la chaîne a été suspendue. Cette suspension n’est pas due au comportement de Steven Crowder ou au contenu de ses vidéos, mais au fait qu’il vendait (et portrait) des t-shirts abordant une insulte homophobe. Il ne s’agit cependant pas d’une décision permanente, la monétisation pourra être restaurée après la suppression de liens commerciaux.

Dans son thread original, Carlos Maza évoque le fait que si YouTube en venait à terminer la chaîne de Steven Crowder, ce serait lui qui en subira les conséquences à travers une vague violente de harcèlement « If Crowder loses his channel, I’m going to get hit with another avalanche of abuse and will likely get doxxed again. »43 L’intérêt financier de l’entreprise est incompatible avec leur volonté affichée de soutenir la communauté LGBTQI+.

« I’m curious, are you really sorry for anything to the LBGTQ community or are you just sorry that they were offended? »44

La censure sur internet, et particulièrement sur les réseaux sociaux ne se résume pas seulement à ce qui est autorisé ou non, mais passe par de nombreuses dynamiques de pouvoirs tels que quels contenus sont monétisés, quels contenus sont recommandés. Ces phénomènes sont invisibilisés. S’il est possible de voir si une publicité est présente ou non sur une chaîne, cette information n’est pas forcément significative, car la présence ou l’absence de cette publicité dépend de nombreux facteurs, tel que la personne qui consulte la page, son âge, si iel est connecté·e. Si une publicité est montrée, il n’est pas possible de savoir de manière sûre vers qui les revenus sont versés.

En 2016, un article scientifique est publié par des employés de Google sur la façon dont l’algorithme de recommandation fonctionne.45 Celui-ci est fondé sur des technologies de machine learning (apprentissage artificiel). Ces systèmes fonctionnent de façon obscure, même pour les personnes qui les produisent : d’une manière imagée, il s’agit d’une boîte noire à laquelle est donné un input et un but. Dans le cas de YouTube, ce but est d’augmenter le watch time. À partir de cela est produit un output. Celui-ci est testé, puis les résultats de ce test sont fournis au système. Ce processus est répété des milliards de fois, jusqu’à que les résultats soient satisfaisant. Il n’est pas possible de regarder à l’intérieur de cette boîte noire afin de déterminer comment un résultat est produit, car celle-ci est conçue par une machine pour une machine.

Progressivement, YouTube s’éloigne du système d’abonnement. Un abonnement ne reflète pas ou plus forcément la volonté de voir les vidéos d’un·e créateur·trice, mais il s’agit d’une déclaration de soutien. Poussé·e par les appels constants à le faire, un·e viewer va s’abonner à une chaîne et donc voir les vidéos de celles-ci dans sa boîte d’abonnement. Dès le milieu des années 2010, est observé que bien qu’une personne soit abonnée à une chaîne, les vidéos n’apparaissent pas dans la boîte d’abonnement de celle-ci. Est alors développée une hypothèse : si une personne ne regarde pas régulièrement les vidéos d’une chaîne, celles-ci disparaîtront automatiquement de son interface. Ainsi, même si un·e créateur·trice a un grand nombre d’abonné·es, ses vidéos n’en atteindront qu’une partie. En 2016, en réponse aux plaintes face à ce système, YouTube lance la fonctionnalité de cloche de notification, qui permet de s’assurer d’être directement notifié lors de la sortie d’une nouvelle vidéo d’une chaîne que l’on apprécie. Si le système d’abonnement devient de moins en moins central, c’est parce que l’algorithme de recommandation s’améliore et prend de plus en plus d’importance. En 2020, celui-ci est à l’origine de 70 % des vues.46

En novembre 2019, est annoncé le lancement du sous-titrage automatique à travers la reconnaissance vocale. Ce qui est annoncé comme « une innovation en accessibilité »47 deviendra un élément important de l’algorithme de recommandation et de la régulation. Au départ, la qualité de la reconnaissance vocale n’est pas très bonne et est limitée à la langue anglaise, mais au fil des années elle se perfectionne et de nouvelles langues sont intégrées. Google investit dans cette technologie à travers différents produits hors YouTube comme la recherche vocale ou bien l’Assistant Google. Dans un billet datant de 2010 listant des conseils pour un bon référencement des vidéos, il est souligné que « Our algorithms are good, but they can only read, they can’t watch your videos. ».48 La reconnaissance vocale ne permet peut-être pas à un programme de « regarder » une vidéo, mais elle lui donne accès à tout le contenu audio parlé. Les algorithmes de recherches peuvent ainsi se baser sur le contenu lui-même d’une vidéo et non uniquement sur le titre ou la description donnée par la personne qui la met en ligne. Je ne sais pas à quand cela a commencé, mais à moment j’ai commencé à remarquer que certaines personnes choisissaient de censurer les jurons, soit en les remplaçants par des bruitages, soit en coupant l’audio. Vu que l’usage de certains termes disqualifie la vidéo de la monétisation, les créateur·trices tentent alors d’évoquer certains sujets de manière détournée.49

Les problèmes de monétisation exacerbent des tensions déjà présentes entre créateur·trices indépendant·es qui créent du contenu spécifiquement pour YouTube (les youtubeur·euses) et les médias dits « traditionnels ». En octobre 2017, à la suite d’une fusillade à Las Vegas, le créateur Casey Neistat publie un appel aux dons, précisant que les revenus de cette vidéo iront aux victimes. Celle-ci est démonétisée, et YouTube explique, via son compte Twitter, que leur politique est de ne pas diffuser des publicités sur les contenus parlant des tragédies. Cependant, un autre créateur, Philip deFranco souligne que des publicités sont diffusées sur la vidéo du comédien et animateur de télévision Jimmy Kimmel abordant le même sujet.50 Cette disparité de traitement dérange : il y a l’impression que les personnes qui ont construit le succès de la plateforme sont abandonnées au profit de structures qui ont de plus grosses capacités de production et aussi d’autorégulation.

1 Cette aspiration de données a été faite en janvier 2020, depuis de nouveaux articles ont été publiés.

2 A aussi inspiré Facebook.

3 jawed. Me at the zoo. 2005. YouTube, https://www.youtube.com/watch?v=jNQXAC9IVRw. Consulté le 17 mars 2020.

4 « Lazy Sunday ». Official YouTube Blog, février 2006. https://youtube.googleblog.com/2006/02/lazy-sunday.html. Consulté le 15 novembre 2020.

5 « Our First Blog Post ». Official YouTube Blog, juillet 2005. https://youtube.googleblog.com/2005/07/greetings-everyone-thanks-for-visiting.html. Consulté le 15 novembre 2020.

6 « Zoinks! 20 Hours of Video Uploaded Every Minute! » Official YouTube Blog, mai 2009. https://youtube.googleblog.com/2009/05/zoinks-20-hours-of-video-uploaded-every_20.html. Consulté le 15 novembre 2020.

7 « A Note About Our Localized Sites ». Official YouTube Blog, juillet 2007. https://youtube.googleblog.com/2007/07/note-about-our-localized-sites.html. Consulté le 15 novembre 2020.

8 « Messaging, Vlogging and Guest Editors ». Official YouTube Blog, janvier 2007. https://youtube.googleblog.com/2007/01/messaging-vlogging-and-guest-editors.html. Consulté le 15 novembre 2020.

9 « Changes to the Site ». Official YouTube Blog, août 2005. https://youtube.googleblog.com/2005/08/we-are-ecstatic-to-announce-changes-we.html. Consulté le 15 novembre 2020.

10 Si les billets sont parfois signés par une personne ou en tant que « l’équipe YouTube » (« The YouTube Team »), ce n’est pas systématique.

11 « Steve trouve de super vidéos, mais je n’ai pas envie de voir les nombreuses vidéos qu’il poste de son chat (désolé Stinky). Dorénavant, je peux m’abonner à ses favoris et avoir accès à toutes les super vidéos qu’il trouve directement depuis ma boîte d’abonnement. », « Lots ’O New Stuff ». Official YouTube Blog, avril 2006. https://youtube.googleblog.com/2006/04/lots-new-stuff.html. Consulté le 15 novembre 2020.

12 « Not Hacked, Just Pushing ». Official YouTube Blog, juin 2006. https://blog.youtube/news-and-events/not-hacked-just-pushing/. Consulté le 15 novembre 2020.

13 En 2019, j’ai téléchargé mon propre historique des vidéos regardés. J’ai été étonnée de ne pas trouver l’intégralité des vidéos regardées, mais seulement environ 3000 entrées. Il n’y a pas d’indication sur Google Takeout, l’outil qui permet de télécharger ses données, ou sur YouTube, d’un nombre particulier de vidéos archivées ou bien d’une période au-delà de laquelle elles sont supprimées.

14 « History of Monetization at YouTube ». YouTube5Year. https://sites.google.com/a/pressatgoogle.com/youtube5year/home/history-of-monetization-at-youtube. Consulté le 25 novembre 2020.

15 Bogatin, Donna. « YouTube to Advertisers: $25,000 Please, at Least ». ZDNet, décembre 2006. https://www.zdnet.com/article/youtube-to-advertisers-25000-please-at-least/. Consulté le 15 novembre 2020.

16 « Partner Program Expands ». Official YouTube Blog, décembre 2007. https://youtube.googleblog.com/2007/12/partner-program-expands.html. Consulté le 15 novembre 2020.

17 « Et pour celleux d’entre vous qui sont aussi partenaire, plus une vidéo est populaire, plus elle génère de revenus publicitaires », « YouTube Reveals Video Analytics Tool for All Users ». Official YouTube Blog, mars 2008. https://youtube.googleblog.com/2008/03/youtube-reveals-video-analytics-tool.html. Consulté le 15 novembre 2020.

18 « Demographics Now Available in YouTube Insight ». Official YouTube Blog, mai 2008. https://youtube.googleblog.com/2008/05/demographics-now-available-in-youtube.html. Consulté le 15 novembre 2020.

19 « New YouTube Insight Feature: Do People Like Your Videos? » Official YouTube Blog, mars 2009. https://youtube.googleblog.com/2009/03/new-youtube-insight-feature-do-people.html. Consulté le 15 novembre 2020.

20 « Insight Data: Any Way You Want It, That’s the Way You Need It ». Official YouTube Blog, avril 2009. https://youtube.googleblog.com/2009/04/insight-data-any-way-you-want-it-that.html. Consulté le 15 novembre 2020.

21 « Targeting Your Political Demographic on YouTube ». Official YouTube Blog, juin 2008. https://youtube.googleblog.com/2008/06/targeting-your-political-demographic-on.html. Consulté le 15 novembre 2020.

22 « Choose Your Own Thumbnail Image ». Official YouTube Blog, août 2007. https://youtube.googleblog.com/2007/08/choose-your-own-thumbnail-image.html. Consulté le 15 novembre 2020.

23 « YouTube a dû changer sa politique concernant les miniatures des vidéos parce que j’en abusais », Defranco, Philip, dans A Conversation With. Anthony Padilla on Old vs NEW YOUTUBE, GF Reveal, & Our Sneaky Tricks | Ep. 20 A Conversation With. 2019. YouTube. https://www.youtube.com/watch?v=-3ToAeAQrdE. Consulté le 3 décembre 2020.

24 « A YouTube for All of Us ». Official YouTube Blog, décembre 2008. https://youtube.googleblog.com/2008/12/youtube-for-all-of-us.html. Consulté le 15 novembre 2020.

25 « YouTube Now: Why We Focus on Watch Time ». YouTube Creator Blog, août 2012. https://youtube-creators.googleblog.com/2012/08/youtube-now-why-we-focus-on-watch-time.html. Consulté le 15 novembre 2020.

26 Si le terme spectateur·trice est parfois utilisé pour traduire viewer, il n’est pas adapté dans le contexte de YouTube, car implique un spectacle.

27 The Game Theorists. Game Theory: How PewDiePie Conquered YouTube. 2013. YouTube, https://www.youtube.com/watch?v=EgMqhEMhVV8. Consulté le 10 août 2020.

28 Fritz, Rolfe Winkler, Jack Nicas and Ben. « Disney Severs Ties With YouTube Star PewDiePie After Anti-Semitic Posts ». Wall Street Journal, 14 février 2017. https://www.wsj.com/articles/disney-severs-ties-with-youtube-star-pewdiepie-after-anti-semitic-posts-1487034533?reflink=desktopwebshare_permalink.

29 « Ces idiot·es sont en train de devenir riches en produisant les trucs les plus stupides d’internet », Smith, Kyle. « These Idiots Are Making a Fortune Producing the Dumbest Stuff on the Internet ». New York Post, 27 août 2015. https://nypost.com/2015/08/27/these-self-important-youtube-idiots-are-destroying-culture/.

30 Mostrous, Alexi, « Big Brands Fund Terror through Online Adverts ». The Sunday Times, 9 février 2017. https://www.thetimes.co.uk/article/big-brands-fund-terror-knnxfgb98. Consulté le 15 novembre 2020..

31 « More Advertiser Control on YouTube ». Official YouTube Blog, août 2010. https://youtube.googleblog.com/2010/08/more-advertiser-control-on-youtube.html. Consulté le 15 novembre 2020.

32 « Additional Changes to the YouTube Partner Program (YPP) to Better Protect Creators ». Official YouTube Blog, janvier 2018. https://blog.youtube/news-and-events/additional-changes-to-youtube-partner/. Consulté le 15 novembre 2020.

33 Assistance YouTube. Restricted mode on YouTube. 2015. YouTube. https://www.youtube.com/watch?v=4yek0Jb0sBg. Consulté le 15 novembre 2020.

34 CNN, Sophie Lewis. « YouTube apologizes after parental-control feature blocks LGBTQ content ». CNN, https://www.cnn.com/2017/03/20/us/youtube-lgbtq-restricted-trnd/index.html. Consulté le 15 novembre 2020.
Ellis, Rowan. YouTube is Anti - LGBT? (Restricted Content Mode). 2017. YouTube. https://www.youtube.com/watch?v=Zr6pS07mbJc. Consulté le 15 novembre 2020.

35 « https://twitter.com/ytcreators/status/843884792466817024 ». Twitter, https://twitter.com/ytcreators/status/843884792466817024. Consulté le 15 novembre 2020.
« Restricted Mode: How It Works and What We Can Do Better ». Official YouTube Blog, mars 2017. https://blog.youtube/news-and-events/restricted-mode-how-it-works-and-what/. Consulté le 15 novembre 2020.

36 uppercaseCHASE1. my channel is going to be deleted.... 2018. YouTube, https://www.youtube.com/watch?v=6LnYJi_64a0. Consulté le 4 novembre 2020.

37 Nerd City, Youtube’s Biggest Lie. 2019. YouTube. https://www.youtube.com/watch?v=ll8zGaWhofU. Consulté le 15 novembre 2020.

38 Asphodel, Autumn. Massive YouTube Censorship Increase. 2017. YouTube. https://www.youtube.com/watch?v=rVuTwMVGreE. Consulté le 15 novembre 2020.

39 Fairchild, Phaylen. « YouTube Changes Social Media Icons for Gay Pride; Continues to Restrict LGBT Creators ». Medium, 9 juin 2018, https://phaylen.medium.com/youtube-changes-social-media-icons-for-gay-pride-continues-to-restrict-lgbt-creators-1984478c8d92. Consulté le 15 novembre 2020.

40 « What Are You #ProudToCreate? » Official YouTube Blog, juin 2018. https://blog.youtube/creator-and-artist-stories/what-are-you-proudtocreate/. Consulté le 15 novembre 2020.

41 « https://twitter.com/gaywonk/status/1134263774591037441 ». Twitter, https://twitter.com/gaywonk/status/1134263774591037441. Consulté le 10 juin 2019.

42 Au moment où je l’ai consulté, le 10 juin 2019 soit une dizaine de jours après sa publication, ce tweet comptait 20 472 retweets et 77 125 « J’aime »

43 « Si Crowder perd sa chaîne, il est très probable que je sois frappé par une nouvelle avalanche d’insultes et de harcèlement, et que je serais encore une fois doxé. » Le doxing est la divulgation d’informations personnelles dans le but de nuire. « https://twitter.com/gaywonk/status/1134469722785927169 ». Twitter, https://twitter.com/gaywonk/status/1134469722785927169. Consulté le 10 juin 2019.

44 « Je suis curieuse, êtes vous vraiment désolée de ce qui a été fait à la communauté LBGTQ, ou êtes vous seulement désolée qu’iels aient été offensé·es », Question posée par Ina Fried, journaliste à Axios lors d’une interview de Susan Wojcicki, PDG de YouTube, Recode. YouTube CEO Susan Wojcicki | Full interview | Code 2019. 2019. https://www.youtube.com/watch?v=jkzx9V55ptk&feature=youtu.be&t=2139. Consulté le 15 novembre 2020.

45 Covington, Paul, et al. « Deep Neural Networks for YouTube Recommendations ». Proceedings of the 10th ACM Conference on Recommender Systems. https://storage.googleapis.com/pub-tools-public-publication-data/pdf/45530.pdf. Consulté le 15 novembre 2020.

46 Solsman, Joan E. « Ever Get Caught in an Unexpected Hourlong YouTube Binge? Thank YouTube AI for That ». CNET, https://www.cnet.com/news/youtube-ces-2018-neal-mohan/. Consulté le 15 novembre 2020.

47 « Innovation in Accessibility ». Official YouTube Blog, novembre 2009. https://youtube.googleblog.com/2009/11/innovation-in-accessibility.html. Consulté le 15 novembre 2020.

48 « Nos algorithmes sont bons, mais ils peuvent seulement lire, ils ne peuvent pas regarder vos vidéos », « Tips for Partners: Words, Words, Words!! » Official YouTube Blog, septembre 2010. https://youtube.googleblog.com/2010/09/top-tips-for-partners-words-words-words.html. Consulté le 15 novembre 2020.

49 Alexander, Julia. « YouTube Is Demonetizing Videos about Coronavirus, and Creators Are Mad ». The Verge, 4 mars 2020, https://www.theverge.com/2020/3/4/21164553/youtube-coronavirus-demonetization-sensitive-subjects-advertising-guidelines-revenue. Consulté le 15 novembre 2020.

50 « https://twitter.com/phillyd/status/916132444662751259 ». Twitter, https://twitter.com/phillyd/status/916132444662751259. Consulté le 15 novembre 2020.

Ressources

Général

Benoît, Fabien. The Valley: une histoire politique de la Silicon Valley. Paris. Les Arènes, 2019.

Chang, Emily. Brotopia: breaking up the boys’ club of Silicon Valley. Londres. Portfolio/Penguin, 2018.

Collet, Isabelle. Les oubliées du numérique. Paris. Le Passeur, 2019.

Finn, Ed. What algorithms want: imagination in the age of computing. Cambridge. MIT Press, 2017.

Hao, Karen. «The problems AI has today go back centuries ». MIT Technology Review, juillet 2020 https://www.technologyreview.com/2020/07/31/1005824/decolonial-ai-for-everyone/. Consulté le 24 août 2020.

Hookway, Branden. Interface. Cambridge. MIT Press, 2014.

Noble, Safiya Umoja. Algorithms of Oppression: How Search Engines Reinforce Racism. New York. NYU Press, 2018.

Pater, Ruben. The politics of design: a (not so) global manual for visual communication. Amsterdam. BIS Publishers, 2016.

Philizot, Vivien, et Jérôme Saint-Loubert Bié (dir.). Technique & design graphique : outils, médias, savoir. Paris et Strasbourg. Éditions B42 et HEAR, 2020.

Simanowski, Roberto. The Death Algorithm and Other Digital Dilemmas. Cambridge. MIT Press, 2018.

Pourquoi les interfaces sont-elles comme elles sont ?

CrashCourse. Keyboards & Command Line Interfaces: Crash Course Computer Science #22. 2017. YouTube, https://www.youtube.com/watch?v=4RPtJ9UyHS0&feature=youtu.be&t=126. Consulté le 1 juin 2020.

« Designing Fluid Interfaces - WWDC 2018 - Videos ». Apple Developer, https://developer.apple.com/videos/play/wwdc2018/803/. Consulté le 10 juin 2020.

Google Design. Making Material Design. 2015. YouTube, https://www.youtube.com/watch?v=rrT6v5sOwJg. Consulté le 31 octobre 2020.

Masure, Anthony. Design et humanités numériques. Paris. Éditions B42, 2017.

Müller, Boris, et Frank Rausch. « Menus, Metaphors and Materials: Milestones of User Interface Design ». Medium, 24 juin 2020. https://medium.com/@borism/menus-metaphors-and-materials-milestones-of-user-interface-design-f3f75481c46c. Consulté le 7 juillet 2020.

Posy. Mouse Cursor History (and why I made my own). 2018. YouTube, https://www.youtube.com/watch?v=YThelfB2fvg.

« iPhone Presentation ». Présentation donnée par Steve Jobs. 2007. Disponible en ligne https://www.youtube.com/watch?v=vN4U5FqrOdQ. Consulté le 31 octobre 2020.

« The Mother of All Demos ». Conférence donnée par Douglas Engelbart. 1968. Disponible en ligne https://www.youtube.com/watch?v=yJDv-zdhzMY. Consulté le 31 octobre 2020.

Du web vernaculaire aux plateformes algorithmiques ?

Brügger, Niels. « A brief history of Facebook as a media text: The development of an empty structure ». First Monday, mai 2015. https://journals.uic.edu/ojs/index.php/fm/article/view/5423/4466. Consulté le 31 octobre 2020.

« L’histoire des navigateurs : des luttes de pouvoirs épiques qui nous ont apporté les navigateurs modernes ». Mozilla, https://www.mozilla.org/fr/firefox/browsers/browser-history/. Consulté le 14 juillet 2020.

Horning, Rob. « I Write the Songs ». Real Life, septembre 2020. https://reallifemag.com/i-write-the-songs/. Consulté le 30 novembre 2020.

Lialina, Olia. « A Vernacular Web », dans Lialina, Olia et Dragan Espenschied (éd.). Digital Folklore: To Computer Users, with Love and Respect. Stuttgart. merz & solitude, 2009. p. 19-34

Parham, Jason. « TikTok and the Evolution of Digital Blackface ». Wired, mars 2020. https://www.wired.com/story/tiktok-evolution-digital-blackface. Consulté le 24 août 2020.

Wei, Eugene. « TikTok and the Sorting Hat ». Remains of the Day, août 2020. https://www.eugenewei.com/blog/2020/8/3/tiktok-and-the-sorting-hat. Consulté le 25 novembre 2020.

Comment archiver des interfaces web ou des algorithmes ?

« Archive de vieux logiciels Mac ». Macintosh Repository. https://www.macintoshrepository.org/. Consulté le 22 octobre 2020.

Brügger, Niels. The archived web: doing history in the digital age. Cambridge. MIT Press, 2018.

Cox, Ines, et al. Ines Cox SAVE. Antwerp. Royal Academy of Fine Arts Antwerp, 2019.

Farrell, Maria. « The Prodigal Techbro ». The Conversationalist, mars 2020, https://conversationalist.org/2020/03/05/the-prodigal-techbro/. Consulté le 25 novembre 2020.

Govcom.org, Google and the Politics of Tabs. 2009. YouTube, https://www.youtube.com/watch?v=oxiFVcFBsUE. Consulté le 2 décembre 2020.

« GUIdebook: Graphical User Interface gallery ». GUIdebook, https://guidebookgallery.org/. Consulté le 7 juillet 2020.

« Internet Archive: Digital Library of Free & Borrowable Books, Movies, Music & Wayback Machine. ». Internet Archive, https://archive.org/index.php. Consulté le 25 novembre 2020.

Kholeif, Omar (éd.). I Was Raised on the Internet. DelMonico Books·Prestel, 2018.

« Google Graveyard - Killed by Google ». Killed by Google, https://killedbygoogle.com. Consulté le 25 novembre 2020.

Komati, Viviane. Valentine in Things City. 2020. Disponible en ligne https://vimeo.com/409711219. Consulté le 25 novembre 2020.

Leegte, Jan Robert. Scrollbar Composition. 2000. http://www.scrollbarcomposition.com/. Consulté le 25 novembre 2020.

Manovich, Lev. The Language of New Media. Cambridge. MIT Press, 2001.

« Remembering Tomorrow ». Conférence donné par Espenschied, Dragan. 2019. Disponible en ligne https://www.youtube.com/watch?v=wrX-2LrsR3w. Consulté le 25 octobre 2020.

« WinWorld: Welcome ». WinWorld, https://winworldpc.com/home. Consulté le 25 novembre 2020.

YouTube, son évolution et son algorithme (Étude de cas)

Armstrong, Paul. « PewDiePie Just Showed Every Brand Why Influencers Are Dangerous ». Forbes, février 2014. https://www.forbes.com/sites/paularmstrongtech/2017/02/14/pewdiepie-just-showed-every-brand-why-influencers-are-dangerous/. Consulté le 4 novembre 2020.

Cloud, John. « The YouTube Gurus ». Time, décembre 2006. http://content.time.com/time/magazine/article/0,9171,1570795-8,00.html. Consulté le 4 novembre 2020.

« History of Monetization at YouTube ». YouTube5Year. https://sites.google.com/a/pressatgoogle.com/youtube5year/home/history-of-monetization-at-youtube. Consulté le 25 novembre 2020.

Pepperell, Martyn. « How YouTube Autoplay Gave a Lost Japanese Classic New Life ». Dazed, 3 avril 2017, https://www.dazeddigital.com/music/article/35465/1/midori-takada-through-the-looking-glass-interview. Consulté le 2 décembre 2020.

Scott, Tom. Why The YouTube Algorithm Will Always Be A Mystery. 2017. YouTube, https://www.youtube.com/watch?v=BSpAWkQLlgM. Consulté le 4 novembre 2020.

The Game Theorists. Game Theory: How PewDiePie Conquered YouTube. 2013. YouTube, https://www.youtube.com/watch?v=EgMqhEMhVV8. Consulté le 10 août 2020.

uppercaseCHASE1. my channel is going to be deleted.... 2018. YouTube, https://www.youtube.com/watch?v=6LnYJi_64a0. Consulté le 4 novembre 2020.

Veritasium. My Video Went Viral. Here’s Why. 2019. YouTube, https://www.youtube.com/watch?v=fHsa9DqmId8. Consulté le 4 novembre 2020.

« YouTube Official Blog ». Official YouTube Blog, https://blog.youtube/. Consulté le 25 novembre 2020.

Remerciements

À Anne, ma tutrice, pour sa bienveillance sans limite, sa confiance et ses précieux conseils.

À ma mère, qui, quand j’étais enfant m’a appris à copier, coller et couper avec les raccourcis clavier.

À mon ordinateur, fidèle compagnon toujours à mes côtés.

À WordReference et son fantastique raccourci de recherche Firefox.

Aux militant·es sur Twitter qui m’ont tant appris, et de manière plus générales à toustes celleux qui publient sur internet, qui répondent aux questions posé·es, qui contribuent à des projets.

À toustes celleux qui m’ont relue et écouté.

À Gaby pour ses explications de grille de ligne de base et croquis de reliure.

Ce mémoire a été écrit sur Google Docs, puis corrigé sur InCopy avec Antidote.

La version papier a été mise en page avec InDesign. Pour la version web, la structure HTML a été générée par InDesign et le code a été écrit dans Atom.

Typographie: Panamera