top of page
Radio show microphones

Wonks and War Rooms

clipart1711928.png
Flux RSS Icon_White
Icône Spotify_Blanc
Icône de podcasts Google_White.png

Le contre-discours en tant que modération de contenu avec Kesa White

Saison 6 épisode 9 [télécharger cet épisode (MP3, 23.8MB) (en anglais uniquement)]

[Veuillez noter que le contenu du balado est traduit de la version originale anglaise.]


Dans cet épisode, Elizabeth discute de l'idée du contre-discours en tant que modération du contenu avec Kesa White, chercheuse au sujet de l'extrême droite. Kesa décrit son travail sur les « appels du pied », explique comment le contre-discours peut être utile mais ne résout pas le problème du discours de haine en ligne, et explique certains des défis auxquels les entreprises technologiques sont confrontées en matière de modération de contenu. S'appuyant sur sa propre expérience en matière de discours de haine, elle souligne combien il est important pour nous de rester « au courant » des médias sociaux et de ce qui s'y dit.


Nous lançons un appel aux personnes qui ont eu un impact ou qui ont été aidées par ce podcast - nous aimerions connaître vos opinions ! Voici un formulaire google à remplir pour nous aider à suivre l'impact de notre podcast !


Ressources supplémentaires


 

Transcription traduite de l'épisode : Le contre-discours en tant que modération de contenu avec Kesa White


Lisez la transcription traduite ci-dessous ou téléchargez une copie dans la langue de votre choix :




Elizabeth Dubois: [00:00:04] Bienvenue à Wonks and War Rooms, où la théorie de la communication politique rencontre la stratégie sur le terrain. Je suis votre animatrice, Elizabeth Dubois. Je suis professeure associée et titulaire d'une Chaire de recherche de l'Université en Politique, communication, et technologie à l'Université d'Ottawa. Mes pronoms sont elle/la. Aujourd'hui, nous parlerons de contre-discours et de modération de contenu avec Kesa White. Mais avant d'entrer dans l'épisode, je voulais juste lancer un dernier appel. Si ce podcast vous a aidé d'une manière ou d'une autre, si vous avez bénéficié d'un développement professionnel, vous l'utilisez dans votre classe, vous l'utilisez au travail, vous partagez l'épisode avec d'autres, nous aimerions le savoir. Nous essayons de suivre l'impact et les résultats de ce podcast, afin de trouver des financements supplémentaires et de pouvoir continuer à le soutenir. Vous pouvez donc consulter les notes de l'émission pour un lien vers un formulaire Google très court avec quelques questions, ou n'hésitez pas à nous envoyer un courriel à  polcommtech@ gmail.com. C'est polcommtech@gmail.com et laissez-nous savoir avec quoi le podcast a été utile. Très bien, commençons l'épisode. Kesa, pouvez-vous vous présenter ?


Kesa White: [00:01:10] Oui. Bonjour, je m'appelle Kesa White. Je travaille à plein temps dans une entreprise de technologie, mais je suis aussi chercheuse au sujet de l'extrême droite. Je travaille beaucoup sur les discours haineux, la modération des contenus, beaucoup de groupes différents et la manière dont ils utilisent les médias sociaux pour manipuler le système ou simplement diffuser leurs messages. Et mes pronoms sont elle/la.


Elizabeth Dubois: [00:01:35] Génial. Merci beaucoup pour votre présence. Kesa, nous avons beaucoup de choses à traiter aujourd'hui. Nous parlerons du contre-discours comme d'une sorte de point d'ancrage pour la conversation. Nous avons déjà consacré un épisode à la modération de contenu, dont vous trouverez le lien dans les notes de l'émission, mais pour commencer, dans la littérature universitaire, l'une des définitions que j'ai trouvées est celle d'une « réponse directe ou d'un commentaire qui contrecarre le discours haineux ou préjudiciable qui est présent » [Consultez : Thou Shalt Not Hate: Countering Online Hate Speech (en anglais)] Et dans ce cas, nous en parlons souvent sur les médias sociaux. Il existe un grand nombre de catégories différentes proposées par certains chercheurs, que je ne citerai donc pas toutes. Mais elles vont de la dénonciation des propos haineux ou dangereux à la réponse par l'humour et le sarcasme, en passant par une réponse vraiment hostile. Et ces différents types de contre-discours suscitent alors différents types de réponses de la part des personnes qui sont à l'origine des propos vraiment négatifs. Avant d'aller plus loin, est-ce que cela est correct ? Cette définition est-elle celle avec laquelle vous travaillez ? Y a-t-il des ajouts que vous souhaiteriez faire ?


Kesa White: [00:02:40] Ces définitions sont tout à fait correctes, en particulier parce que le terme « contre-discours » est devenu très large, selon la manière dont on en parle, que ce soit dans les entreprises technologiques, les universités ou les gouvernements. Je pense donc que cela couvre à peu près tout le terrain.


Elizabeth Dubois: [00:02:55] Parfait. Parlons maintenant de votre expérience avec cette idée de contre-discours. Vous avez dit que vous travaillez dans une entreprise technologique. Comment envisagez-vous le contre-discours à partir de là ? Du point de vue d'une entreprise technologique. À quoi cela ressemble-t-il ? Comment cela s'intègre-t-il ? Il est évident qu'une entreprise technologique ne peut pas contrôler l'existence ou non d'un contre-discours, mais elle peut l'encourager ou le décourager.


Kesa White: [00:03:18] Oui, parce que je porte plusieurs casquettes. Je dirais qu'entre les entreprises technologiques et le monde universitaire, je vois les deux côtés de la médaille. Et bien souvent, l'humour est utilisé pour masquer un peu ce contre-discours. Il s'agit donc d'un de ces concepts de déni plausible, qui rend très difficile la modération, mais aussi la compréhension de ce qui est dit exactement, parce que si vous n'appartenez pas à ce groupe, vous ne comprenez pas nécessairement ce dont ils parlent. L'humour est l'un des principaux moyens utilisés par ces communautés pour éviter d'être signalées pour modération, mais aussi pour faire passer leur message à leurs adeptes ou à leurs chambres d'écho, quels qu'ils soient.


Elizabeth Dubois: [00:04:08] Oui, c'est très intéressant ça. Et nous savons que l'humour et le sarcasme sont particulièrement difficiles à gérer lorsqu'il s'agit de systèmes automatisés de modération de contenu. Effectivement, pour ceux qui n'ont pas encore écouté l'épisode sur la modération de contenu, l'une des choses qui se produit lorsque les grandes plateformes essaient de maintenir un certain type d'environnement d'information, c'est qu'elles ont des approches algorithmiques ou parfois des approches basées sur l'IA pour dire : « Ok, tout contenu qui ressemble à ceci n'est pas autorisé ». Ainsi, les contenus qui ressemblent à des discours de haine ne sont pas autorisés, les contenus qui ressemblent à des contenus d'extrême droite ne sont pas autorisés, et ils ont leurs propres règles. Puis un système automatisé s'en charge. Mais le contre-discours peut souvent ressembler à un discours extrémiste ou haineux. Si l'on ajoute à cela l'humour et le sarcasme, comment savoir qui essaie honnêtement et intentionnellement d'améliorer l'espace et de le rendre plus accueillant, et qui sont les personnes qui sont là pour haïr ?


Kesa White: [00:05:12] Oui, c'est un concept très difficile à cerner parce qu'il y a les personnes qui utilisent l'humour, le sarcasme et les mèmes, qui sont une partie importante de cette culture, et les personnes qui font une blague sur ce qui a été dit à leur sujet, comme une sorte de mécanisme d'adaptation. Il est donc très difficile de les distinguer. Et je pense que nous, dans notre ensemble, entre le monde universitaire et les entreprises technologiques, devons faire mieux, car il est vraiment difficile d'être branché sur ces communautés pour commencer, pour comprendre ce qui se passe. Mais il faut aussi être capable de sympathiser avec les personnes qui utilisent l'humour pour faire face à ce qu'on dit d'elles. Il est donc vraiment difficile de modérer ce type de contenu, en particulier lorsqu'il s'agit de contenu généré par l'IA, lorsqu'il s'agit d'une modération de contenu automatisée par rapport à une modération de contenu humaine, ce qui rend les choses encore plus difficiles lorsque l'humour est capable de passer à travers le modèle de détection de l'IA, quel qu'il soit. Si le contenu est humain, modéré par des humains, c'est un peu plus facile. Mais si vous êtes quelqu'un qui n'étudie pas ces différents types de sujets, il est aussi possible de contourner ce problème. Vous avez donc plus que jamais besoin de ces personnes hautement spécialisées dans ces domaines, en particulier à l'approche des élections et des changements politiques. Il y en a à peu près partout dans le monde. Vous avez donc besoin de ces personnes spécialisées qui étudient ces sujets quotidiennement à un niveau très toxique, en passant du temps en ligne.


Elizabeth Dubois: [00:06:51] Bien sûr, ce qui nous amène à une toute autre conversation sur les impacts sur la santé mentale et les impacts sur les personnes chargées de la modération, que nous laisserons de côté pour l'instant. Mais je voudrais revenir sur ce que vous avez dit à propos de la connaissance de la communauté que vous essayez de modérer, vraiment, vraiment bien. J'ai donc mené un projet, que j'ai appelé mon projet Mean Tweets, sur le harcèlement en ligne des journalistes politiques pendant les élections fédérales de 2019 au Canada. Des étudiants ont travaillé avec notre équipe, ont parcouru les tweets et les ont analysés pour identifier ce qui relevait du harcèlement, de la négativité, de la toxicité et de la haine, et ce qui n'en relevait pas. Et même dans ce contexte, qui est assez large, toute la politique canadienne, ce n'est pas une communauté très spécialisée. Nous avons essayé de comprendre même si on utilisait des acronymes particuliers, des hashtags particuliers. Il s’agit d’un appel du pied, un langage très spécifique que certains ignorent, du genre « ça n'a pas d'importance ». Et d'autres personnes se disent : « Oh non, c'est très clairement raciste » ou « C'est très clairement sexiste ». Nous l'avons découvert parce que nous avions un tas de personnes différentes qui essayaient toutes de faire l'annotation, qui essayaient toutes d'identifier si c'était négatif ou non. Mais, [comme] vous le savez, la plupart des entreprises technologiques n'ont pas des centaines de personnes dans tous les types de communautés qui pourraient exister sur leur plateforme pour faire cela quotidiennement.


Kesa White: [00:08:22] Je dirais que le fait de passer du monde universitaire au monde de la technologie a joué en ma faveur, car j'étudiais les sujets sur lesquels je travaille aujourd'hui dans l'entreprise technologique avant même de venir ici. Lorsque vous parliez des appels du pied tantôt, mon projet avec BKC et la bourse RSM ont spécifiquement examiné les appels au pied et les différents termes sur les plateformes de médias sociaux pour voir comment ils échappent à la modération du contenu [Consultez : Not All Superheros Wear Capes: Identity Triggers the Trolls (en anglais)]. Pendant la durée de la bourse, j'ai recueilli environ 700 à 800 termes différents, comment ils sont utilisés sur différentes plateformes de médias sociaux et comment ils peuvent encore être utilisés sur ces plateformes alors qu'ils devraient être interdits, ou même simplement sur une liste de « Vous ne devriez même pas être en mesure d'utiliser ceci ». Mais pour les différentes plateformes que j'ai énumérées, j'ai comparé les plateformes grand public et les plateformes marginales. J'ai trouvé tous ces termes différents sur toutes ces plateformes et je me suis demandé comment ils pouvaient être utilisés.


Kesa White: [00:09:23] Mais pour en revenir à la conversation que nous avons maintenant, si vous ne faites pas partie de ces communautés, vous ne savez pas nécessairement ce que vous regardez, mais en venant du monde universitaire et en étant capable de voir comment ces conversations se déroulent, parce que je passe beaucoup de temps sur Telegram, les canaux et tous ces différents endroits sombres où personne d'autre ne veut aller, je suis capable de voir à quoi ressemblent ces conversations, les différents termes qu'ils utilisent. Ensuite, j'ai vu comment ces conversations se déroulaient, mais j'ai utilisé ces informations pour aller sur Facebook, Instagram, TikTok, X pour voir si l'un de ces termes était utilisé sur ces plateformes de médias sociaux. Et à ma grande surprise, beaucoup d'entre eux l'étaient, ce qui est vraiment triste. À l'œil nu, on ne sait pas forcément ce qui se passe, mais on ne peut pas interdire un émoji hot-dog parce que, pour vous, il ressemble juste à un hot-dog, mais pour eux, il signifie quelque chose de raciste. Il est vraiment difficile de modérer ces différents termes, car il s'agit souvent d'émojis ou de petits mots qui ont une double signification. Mais pour eux, c'est un terme raciste et sexiste.


Elizabeth Dubois: [00:10:32] Oui, ce projet, [nous le mettrons] en lien dans les notes de l'émission également, tout ce que vous avez mis à la disposition du public [à ce sujet], je pense que c'est fascinant et tellement important que ce travail ait été fait. Il est également important de reconnaître que cette liste évolue avec le temps. Les émojis qui sont actuellement les plus populaires pour faire des appels du pied vont changer en fonction des sujets du jour ou de l'évolution des approches de modération du contenu. Si on trouve un moyen de gérer l'émoji hot-dog, alors ils vont le remplacer par quelque chose d'autre, ce qui rend vraiment difficile ce jeu du chat et de la souris. Ce que je trouve intéressant dans le travail que vous avez réalisé sur les appels du pied c'est qu'il souligne à quel point il est important de savoir qui crée le contenu qui est diffusé, parce que l'exemple du hot-dog est vraiment bon. Si le contenu émane d'une personne connue pour son appartenance à un groupe particulièrement extrémiste, il y a beaucoup plus de chances qu'elle ne l'utilise pas pour dire : « Je suis allé à un match de base-ball et j'ai mangé un hot-dog en encourageant mon équipe préférée ». Ils l'utilisent probablement de la pire des façons, et cela pourrait nous aider à mieux comprendre comment procéder à la modération du contenu. Mais cela entraîne aussi toute une série de nouveaux problèmes, n'est-ce pas ? Dans quelle mesure pensez-vous qu'il faille, pour résoudre ce problème, mieux comprendre la personne qui publie les messages, plutôt que le contenu lui-même ?


Kesa White: [00:11:56] Je pense que c'est un mélange des deux. Parce que cela existe. Je dirais que ce sont des influenceurs extrémistes qui ont une grande portée et qui sont capables d'atteindre une grande masse de personnes par rapport à une personne de bas niveau. C'est un peu comme si vous étiez sur les forums de Chan. Bien souvent, les conseils de Chan, par exemple, ont un grand retentissement en raison de tous ces attentats et fusillades de masse dont ils sont issus, par exemple 4chan. Nous savons donc que les gens consultent ces différents tableaux et qu'ils sont en mesure d'amplifier le terme utilisé. Mais il y a aussi ces influenceurs extrémistes qui ont des millions et des milliers d'adeptes, quels qu'ils soient, et qui ont la possibilité de rendre ces termes viraux dans leur monde et de les utiliser ensuite dans différents endroits. Il est vraiment important de savoir qui utilise ces termes et ce qu'ils signifient. Mais la plupart du temps, on ne sait pas nécessairement qui est la personne derrière l'écran parce qu'elle utilise des VPN, des noms de code, etc. Il est donc très difficile de savoir qui est cette personne. Vous pourriez, par exemple, suivre leur nom d'utilisateur sur différents médias sociaux, mais les extrémistes sont intelligents, malheureusement, et c'est ce que nous ne voulons probablement pas entendre. Il se peut donc qu'ils changent leur nom d'utilisateur dans une certaine variante. Il est très important de prendre les termes avec un grain de sel, quels qu'ils soient. Qui l'utilise ? Si l'on considère le contexte dans lequel s'inscrit [le terme], quoi que l'on dise, qui est la personne, ou si c'est juste quelqu'un qui en plaisante parce que c'est un enfant, quelqu'un qui a peut-être entendu quelqu'un d'autre l'utiliser, il ne sera pas nécessairement une menace par rapport à la personne [qui] a des millions d'adeptes. Mais en fin de compte il faut toujours s'inquiéter de l'enfant qui pensait que c'était une niche et que c'était amusant, parce que c'est alors qu'il faut se demander où il a vu ce terme pour la première fois.


Elizabeth Dubois: [00:13:57] Oui, c'est vrai. Et ce que vous me dites met en évidence l'importance des relations sociales dans tout cela. Il y a le niveau « Cette personne a une grande portée parce qu'elle est un influenceur avec une tonne d'adeptes. Le risque de viralité est donc plus élevé ». Et bien sûr, oui, c'est vrai. Mais il semble aussi qu'une partie de l'histoire que vous racontez est celle de la communauté et de la manière dont elle peut se construire autour de ces termes et de l'idée d'être « au courant ». En utilisant ce type de termes, on a donc l'impression de faire partie de ce groupe. Et plus on se sent membre du groupe, plus on est sur la bonne voie en termes d'actions et de mesures qu’on est prêt à prendre. Et cette idée d'être sur l'échelle et de prendre des mesures de plus en plus intenses dans une communauté n'est pas strictement liée à l'extrémisme ou à l'extrême-droite. Nous le constatons dans toutes sortes de mouvements sociaux et politiques.


Kesa White: [00:14:52] Oui, ce que vous dites est tout à fait valable et logique. C'est l'un des moyens qu'ils utilisent pour inciter les individus à se joindre à la cause, à les recruter et à faire d'autres choses de ce genre. C'est comme si on utilisait ces termes, presque parce que c'est « ce que font les jeunes branchés » et que tout le monde veut s'intégrer, d'une manière ou d'une autre. Donc « je vais le faire parce que j'ai vu cette personne qui a un million de followers le faire », ou « j'ai vu un de mes amis le faire et je pense alors que c'est la chose la plus cool à faire ». Et puis on voit beaucoup de ces gens qui sont dans le mouvement depuis longtemps trouver ces enfants ou qui que ce soit d'autre, qui sont ces gens de bas niveau qui sont au bas de l'échelle et qui n'ont pas fait leur chemin jusqu'au sommet. Ils les poursuivront pour leur fournir davantage d'informations, pour les ramener au bercail, là où ils se sont rendus depuis le bas de l'échelle. Ils se rapprochent donc de plus en plus du sommet simplement parce qu'ils utilisent ce terme, cet appel du pied, et maintenant ils sont plus dans le coup ou sont invités à différents chats cryptés, à différents événements, peu importe, simplement parce qu'ils utilisent l'émoji hot-dog. Et maintenant, ils sont en quelque sorte au courant.


Elizabeth Dubois: [00:16:03] Oui, oui. Il est vraiment fascinant de cartographier et de comprendre tout cela. Et cela rejoint l'une des conclusions de certaines de ces recherches sur le contre-discours, qui montrent que le contre-discours, lorsqu'il émane de quelqu'un qui a toujours été dans cette communauté ou qui l'a récemment quittée, est beaucoup plus susceptible de modifier la réaction de la communauté que lorsqu'il émane d'une personne extérieure [pour plus d’information au sujet des resultats, consultez ce chapitre : Counter-speech is everyone’s responsibility in Regulating Free Speech in a Digital Age (en anglais)]. Ainsi, si quelqu'un utilise cet émoji et que quelqu'un au sein de la communauté dit : « Hé, c'est raciste. Peut-être ne devrions-nous pas faire cela, le vrai problème c’est ceci », il y a beaucoup plus de chances que cela fonctionne que si quelqu'un qui est perçu comme étant totalement étranger à la société disait exactement la même chose. Et il me semble que cela s'appuie sur une grande partie de la dynamique communautaire dont vous venez de parler.


Kesa White: [00:16:52] Oui, sans aucun doute. En effet, ce que je vois aujourd'hui peut être différent de ce que je verrai demain, car cela est en constante évolution, comme vous l'avez mentionné précédemment. C'est pourquoi il est encore plus important d'être à l'écoute de ces communautés et d'être un expert du contexte et de ce qui se dit sur les différentes plateformes de médias sociaux, ne serait-ce qu'en lisant les livres et tout le reste, parce que les choses changent constamment, ce qui rend notre travail très difficile. Mais il est très important que nous comprenions ce qui se passe sur le terrain, car en fin de compte cela pourrait faire la différence entre « C'est trop extrême », mais [aussi] entre la vie et la mort.


Elizabeth Dubois: [00:17:33] Oui, c'est vrai. Et parce que certains des contenus qui sont partagés ont vraiment des conséquences immédiates, impactantes, dans le monde réel. C'est ce que nous avons constaté partout dans le monde.


Kesa White: [00:17:45] Oui, il ne faut pas longtemps pour que les choses deviennent virales. Comme le mème Pepe. Il signifiait une chose, puis il a été coopté pour une autre chose, et il évolue, évolue et évolue. Et les mèmes Chad, les mèmes beta et les mèmes alpha, tous ces différents types de choses signifiaient à l'origine une chose, mais ont ensuite évolué et se sont transformés en quelque chose d'autre. Aujourd'hui, on l’utilise omme photo de profil, ce qui peut être un signe pour quelqu'un. Il s'agit de mèmes avec des textes différents. Cela montre à quel point les choses peuvent évoluer avec le temps, comment elles peuvent passer de quelque chose d'amusant à quelque chose qui peut être considéré comme vraiment nuisible, en fonction de ce que le texte peut dire ou même simplement de ce que le mème signifie en lui-même.


Elizabeth Dubois: [00:18:32] Oui, parce qu'une grande partie de ce qui est signifié dépend du contexte de son utilisation et de la façon dont les gens l'interprètent à ce moment-là.


Elizabeth Dubois: [00:18:41] Je voudrais changer légèrement de vitesse pendant une minute. L'une des choses que nous avons observées dans notre recherche sur les Mean Tweets et que d'autres personnes ont observé, c'est que parfois une personne, un individu, est victime d'un grand nombre de harcèlements et de haine. Et puis il y a un groupe de personnes qui prennent leur défense et qui commencent à partager tous ces commentaires très positifs, « Ignore les gens qui vous détestent », « Ils ne valent pas la peine d’y consacrer du temps ». « Tu es incroyable ». « J'aime ton travail pour ces raisons et pour celles-là ». Quel est, selon vous, l'effet de ce type de contre-discours ?


Kesa White: [00:19:16] Il y a longtemps, lorsque j'étais étudiante de premier cycle, j'ai été victime d'une tempête de trolls de la part d'un néo-nazi. Ma colocataire et moi, nous n'avions jamais rencontré cet homme de notre vie, je pense que nous avions 17-18 ans. [Nous ne savons pas vraiment pourquoi cet homme s'en prenait à nous. Et toute une tempête de discours haineux s'est abattue sur nous. Toutes nos informations personnelles ont été mises en ligne et c'était complètement fou. Mais à l'époque, comme nous étions encore étudiantes dans notre petite université d'arts libéraux, l'American University, personne ne nous connaissait vraiment [ou] ne savait ce qui se passait à l'époque. Nous n'avions donc pas de partisans à l'époque et les gens ne nous disaient pas « Oh, tout le bon travail que vous avez fait » etc. À l'époque, c'était donc une expérience traumatisante. Mais toutes ces années plus tard, lorsque ce genre de choses se produit, en particulier sur les médias sociaux, j'en vois beaucoup, comme sur Telegram et X, on voit beaucoup plus de gens qui viennent vous soutenir en disant : « Voici des messages positifs », « Voici tout le bon travail que vous avez fait ». « Gardez la tête haute ». « J'aime le travail que vous avez fait ». « Vous les énervez sans doute [et] c'est pourquoi ils se sentent obligés de vous attaquer, parce que vous avez raison ». Quoi qu'il en soit. Je pense que cela remonte le moral des troupes, mais cela peut aussi braquer les projecteurs sur vous. Cela va donc de pair, parce que cela perturbe votre santé mentale d'une certaine manière, même si, sur le moment, vous ne voulez pas l'admettre ou n'en avez pas l'air, mais je peux honnêtement dire que pendant tout ce temps, j'ai développé de l'anxiété et de la dépression. Honnêtement, cela m'aide de faire ce travail parce que je n'aimerais pas que quelqu'un ait à vivre ce que j'ai vécu pendant mes études. Le simple fait de savoir que je suis capable de faire ce travail pour rendre (ça fait tellement cliché) le monde meilleur. Lorsque je vois mes collègues ou d'autres personnes harcelées en ligne, le fait de leur envoyer des messages positifs les aide vraiment à court terme. Mais nous avons aussi besoin de solutions à long terme pour nous protéger de ce genre de situation, car ils découvrent plus d'informations sur vous, parce que vos collègues fournissent maintenant plus de liens vers votre travail. [Les personnes qui vous harcèlent ont maintenant plus d'éléments à critiquer (si votre travail est maintenant mis en valeur). Nous devons trouver des solutions à long terme à ces différents types d'attaques et de harcèlement car, malheureusement, ils continueront à se produire.


Elizabeth Dubois: [00:21:50] Oui. Et je ne sais pas ce que c'est que de vivre cela, surtout à l'âge de 17 ans. Mais il est vraiment incroyable que vous ayez pu transformer cette expérience vraiment horrible en une trajectoire de recherche aussi importante. Et je pense que vous avez raison de dire que nous avons besoin de personnes qui ont vécu ces choses horribles pour nous aider à définir et à déterminer ce que nous pouvons améliorer et comment nous pouvons y remédier. Pensez-vous que le contre-discours, qu'il s'agisse des personnes qui proposent des choses positives ou de celles qui font de la désinformation, des personnes qui soulignent l'hypocrisie et les contradictions, qui signalent des informations incorrectes, pensez-vous que ce type de contre-discours fait partie de la manière dont nous résolvons certains de ces problèmes ? Vous avez évoqué les solutions à long terme. Je ne sais pas si cela fait partie de la solution à long terme ou non. Qu'en pensez-vous ?


Kesa White: [00:22:45] J'aimerais que cela fasse partie de la solution à long terme, mais ce qui peut être un fait pour moi, peut être une fiction pour vous. C'est donc une sorte de jeu sans fin, où l'on joue à la taupe. Il y a toujours une source que tout le monde peut citer et qui peut étayer ce que vous essayez de dire, même si c'est faux. Cela peut donc être considéré comme une contradiction, mais « Oh, j'ai trouvé une source d'où que ce soit, donc cela étaye ce que je dis ». Il est donc vraiment difficile de contrer les discours de haine, malheureusement. Je sais que ce n'est pas la réponse que vous attendiez, mais il est certain que nous avons besoin de plus de solutions, car nous voyons que c'est un problème dont nous devons discuter et pour lequel nous devons trouver des solutions réelles et tangibles, afin d'empêcher que cela ne continue à se produire. Car bien sûr, vous pouvez avoir ces petits messages au bas d'un article qui disent « Ceci n'est peut-être pas une information factuelle » ou « Vérifiez vos sources », etc. Mais tout le monde ne cherche pas plus loin les sources, comme s'il s'agissait d'une simple marque sur le post. D'accord, avancez. Je vais continuer à me plonger dans la source », quelle qu'elle soit. Je ne sais donc pas ce que nous pourrions faire d'autre, car les gens font tout ce qu'ils peuvent. C'est aux individus de ces communautés qu'il incombe de changer la trajectoire et le discours, quel qu'il soit.


Elizabeth Dubois: [00:24:10] Oui, malheureusement, tout cela est très logique [rires]. L'une des catégories de contre-discours dont nous n'avons pas encore parlé et qui a été soulevée, est qu'il existe des preuves suggérant que lorsque vous répondez à un contenu haineux et extrémiste par un avertissement sur les conséquences hors ligne ou parfois en ligne, comme « Vous allez être banni » ou « La police va être appelée », ce genre de choses, cela peut parfois dissuader les gens. Qu'en pensez-vous ? Il semble que, surtout si vous ne savez pas exactement qui se cache derrière le compte, ces conséquences hors ligne ne soient pas si contraignantes que cela.


Kesa White: [00:24:51] Oh, oui. Absolument pas contraignantes. Même les cigarettes ordinaires, par exemple, portent une étiquette d'avertissement. Mais les gens continuent à fumer des cigarettes simplement parce qu'ils le peuvent, même si elles sont accompagnées d'un avertissement. Même si nous ne connaissons pas l'identité réelle de ces personnes, il existe des moyens de les découvrir et de savoir qui possède ces outils etc. Mais cela ne les dissuade pas de participer à ces actions, de dénoncer des personnes ou d'envoyer des messages. Cela va continuer à se produire parce que c'est « branché ». C'est malheureusement cool. Et le simple fait de dire qu'ils ont pu participer à quelque chose comme cela, comme une action collective, ne leur donne pas envie d'arrêter. Cela leur donne envie de continuer pour voir jusqu'où ils peuvent aller avant qu'il ne soit trop tard, car je suis sure que les insurgés ne pensaient pas qu'ils allaient se retrouver derrière les barreaux après avoir planifié quelque chose sur les médias sociaux. Alors bien sûr, s'ils avaient su cela, peut-être que certains d'entre eux auraient quand même participé, mais pas tous, car cela vaut-il vraiment la peine d'aller en prison pour certains d'entre eux ? Malheureusement, cela ne va pas s'arrêter là. Je sais que ce ne sont pas les réponses que nous souhaitons nécessairement, et cela rend notre travail beaucoup plus difficile parce que nous devons trouver des solutions tout en modérant le contenu, tout en restant à jour, alors que les choses changent tous les jours, à chaque heure, chaque minute. Il y a donc tant de choses à assimiler. Mais il existe de très bons chercheurs, et je suis sûr que si nous nous mettions tous ensemble et que nous nous isolions du monde pendant un an ou deux, nous pourrions trouver des solutions pour lutter contre tous ces problèmes. Parce que des groupes vont continuer à émerger, de nouveaux termes vont continuer à apparaître, et il y a toujours quelque chose de nouveau, ils peuvent être en train de parler de quelque chose de nouveau ou de former un nouveau groupe au moment même où nous parlons. Mais si nous ne sommes pas dans ces communautés et si nous ne savons pas de quoi on parle nécessairement, nous ne le saurons pas.


Elizabeth Dubois: [00:26:43] Oui. Ce que vous dites me rappelle également un point que l'on oublie parfois, à savoir que cela fait malheureusement partie de l'existence humaine, en tout cas de l'existence humaine nord-américaine. Et la technologie dont nous parlons n'a pas vraiment d'importance, qu'il s'agisse des médias sociaux, de la recherche, de la messagerie instantanée ou autre. Ce type de groupes ne cesse d'apparaître. Il ne s'agit donc pas seulement de trouver la bonne solution technique, mais aussi de comprendre le contexte social et de faire en sorte que ces différents types de réponses potentielles fonctionnent ensemble, tant sur le plan technique que sur le plan social et politique.


Kesa White: [00:27:23] Oui, parce que même des choses comme le climat politique ont aussi leur importance, parce que tout le monde n'est pas forcément à l'aise avec la technologie et ne va pas tout mettre sur internet. Le Ku Klux Klan existait avant l'internet et nous avons pu constater l'emprise qu'il exerçait sur la société. Il ne suffit donc pas d'utiliser l'internet pour former un groupe. Il facilite les contacts entre les personnes à travers le monde, mais cela montre qu'il n'est pas nécessaire d'avoir recours à la technologie pour rapprocher les gens. En effet, maintenant que nous constatons que la modération du contenu prend en compte un grand nombre de ces astuces et termes, nous pourrions assister à une augmentation des actions hors ligne, ne serait-ce que la participation, la planification et tout ce qui s'y rattache. Et ce n'est pas parce que nous ne voyons pas un groupe sur les médias sociaux que cela signifie nécessairement qu'il est en sommeil ou qu'il ne prévoit rien. Ils pourraient être en train de préparer quelque chose dans le sous-sol de la maison voisine. Il est donc difficile de savoir ce qui va se passer ensuite, malheureusement. La technologie nous permet de mieux comprendre ces communautés et de mieux les connaître. Mais comme je l'ai dit, il peut y avoir quelqu'un qui planifie dans son sous-sol ou un groupe entier qui planifie quelque chose, ou même simplement qui se forme, qui se rassemble, peu importe ce que c'est, ce qui rend les choses encore plus difficiles pour nous.


Elizabeth Dubois: [00:28:39] Ouf, c’'est beaucoup. Il y a vraiment beaucoup de choses sur lesquelles nous devons travailler, et je suis vraiment heureuse que vous fassiez une partie de ce travail. Nous avons beaucoup parlé du contre-discours et nous avons abordé d'autres petites pièces du puzzle de la modération, mais je me demandais si vous pouviez peut-être assembler certaines de ces pièces pour nous. Quels sont, selon vous, les principaux éléments de ce que nous pouvons ou devons faire pour lutter contre les horreurs qui apparaissent sur internet ?


Kesa White: [00:29:11] Je pense qu'il faut absolument faire appel à des chercheurs qui ont cette expertise pour pouvoir aider avec les choses qui se passent sur l'internet et être capable d'accepter le changement. Par exemple, mes parents ne connaissent pas nécessairement les tenants et les aboutissants de l'internet, mais ils sont là depuis plus longtemps que moi, et comme la technologie a pris le dessus, nous avons besoin de ces jeunes et de ces personnes qui savent comment fonctionne l'internet pour être en mesure d'apporter une sorte de changement dans ces communautés et de se rassembler pour développer des solutions, parce que nous avons tous notre propre domaine d'expertise. Je ne suis pas une experte en nationalisme chrétien, mais je connais quelqu'un qui l'est et qui pourrait apporter son expertise pour assembler cette pièce du puzzle. Je connais quelqu'un qui étudie l'État Islamique (ISIS en anglais), mais je ne l'étudie pas. Il faut donc réunir tout le monde parce que les disciplines sont similaires à certains égards, même si elles se concentrent sur des régions différentes, quelles qu'elles soient. Ils s'inspirent des tactiques des uns et des autres et savent ce qui fonctionne, ce qui ne fonctionne pas, etc. J'espère qu'à l'avenir, nous serons en mesure de développer ce sujet ou même d'avoir des conversations à ce sujet, car il s'agit de conversations très importantes, parce que nos recherches et la rédaction d'articles d'opinion ne suffisent pas. Il est donc très important d’avoir une place à la table. L'autre jour, j'ai vu un article qui disait : « S'il n'y a pas de places assises à la table, apportez votre propre chaise pliante » (en anglais). Il y a donc toujours des opportunités et des gens qui sont prêts à vous écouter si vous êtes prêt à faire le travail.


Elizabeth Dubois: [00:30:58] Oui, je pense que cela a beaucoup de sens, et l'appel à l'interdisciplinarité et à la collaboration résonne vraiment en moi, ainsi que l'appel « s'il n'y a pas de chaise disponible, apportez la chaise pliante ». Je pense que c'est très important parce que nous savons aussi que beaucoup de conversations, en particulier dans les entreprises technologiques, mais aussi dans le monde universitaire au fil des ans, finissent par concerner des hommes blancs plutôt aisés qui ont eu beaucoup d'opportunités d'accéder à ces postes très élevés dans ces organisations. C'est pourquoi il semble essentiel de s'assurer que nous construisons de nouvelles chaises, que nous les apportons et que nous les ajoutons à la table pour faire face à ce type de problèmes.


Kesa White: [00:31:41] Oui, il est très important (surtout sur ces sujets) d'accepter la diversité parce que tout le monde a des expériences différentes, vient de différentes régions du monde et a peut-être été victime à un moment donné du harcèlement et de la haine dont nous discutons. Je n'ai que 27 ans, je suis une fille noire d'une petite ville, je n'ai jamais pensé que j'allais être victime de doxing. Je ne pense pas que quelqu'un pense un jour qu'il sera victime d'une tentative d'intimidation au cours de sa vie. Ce n'était pas une bonne expérience, mais je dirais que c'est ce qui me pousse à continuer chaque jour et qui me donne envie de travailler plus dur parce que je vois à quel point je peux changer les choses, et juste mon expertise et le fait de savoir comment ces gens pensent « Qu'est-ce qui fait qu'ils me détestent ? Je suis une jeune fille de 17 ans dans une petite école de Washington, D.C. Pourquoi moi ? ». Il est également très important d'adopter la recherche interdisciplinaire et d'accueillir des personnes issues de milieux différents, car tout le monde a des perspectives et des façons différentes de voir le monde. Et nous ne pouvons pas accorder toute notre confiance à une seule personne pour qu'elle soit la seule à savoir et à dire tout.


Elizabeth Dubois: [00:32:54] Oui, je suis tout à fait d'accord. Merci beaucoup. Le temps presse. Nous allons donc passer à la dernière question, un petit quiz. Pouvez-vous donc répondre en une ou deux phrases à la question rapide « qu'est-ce que le contre-discours ? ».


Kesa White: [00:33:11] Un discours capable de contrecarrer ou de réfuter un contenu, un discours ou une rhétorique déjà prononcés, que ce soit pour faire avancer un message ou pour l'affaiblir.


Elizabeth Dubois: [00:33:28] Oui, c'est correct. Et je veux dire que dans ce cas, nous parlons de haine et de harcèlement.


Kesa White: [00:33:33] Oui, en effet.


Elizabeth Dubois: [00:33:34] Génial. Merci beaucoup. Cette conversation a été très instructive. Cela a été très utile. Bon, c'était notre épisode sur le contre-discours dans le cadre de la modération de contenu. Nous avons parlé de la lutte contre l'extrémisme, les discours de haine et toutes sortes de choses horribles sur internet. J'espère que cet épisode vous a beaucoup appris et que vous avez apprécié la conversation. Comme toujours, vous trouverez d'autres liens dans la section des ressources supplémentaires des notes d'émission, ainsi que dans les transcriptions annotées que nous mettons à disposition en anglais et en français sur le site du labo Polcommtech.ca, c'est-à-dire polcommtech.ca. Je tiens également à souligner que mon enregistrement provient du territoire traditionnel et non cédé du peuple algonquin, et je tiens à rendre hommage au peuple algonquin, en reconnaissant sa relation de longue date avec ce territoire non cédé. Merci d'avoir écouté.




Logo de la saison 6 du balado Wonks and War Rooms

1/16
bottom of page