Le Conseil de surveillance de Meta avec Julie Owono
Saison : 5 épisode : 3 [télécharger cet épisode (MP3, 28.9MB) (en anglais uniquement)]
[Veuillez noter que le contenu du balado est traduit de la version originale anglaise.]
Julie Owono est directrice exécutive d'Internet Sans Frontières et membre du Berkman Klein Center de l'université de Harvard. Elle est également membre inaugural du Conseil de surveillance de Meta, un groupe indépendant d'experts chargés d'examiner les recours contre les décisions de modération de contenu sur Facebook et Instagram, qui est le sujet de l'épisode d'aujourd'hui.
Elizabeth et Julie parlent de l'historique du comité et de la procédure d'appel, de la manière dont les cas sont choisis, des possibilités et des limites de ce qui peut être accompli avec la modération de contenu, et de la leçon que Julie a apprise au cours de son mandat au sein du comité. Elles discutent également de ce qui constitue une modération de contenu et de qui peut être impliqué dans ce processus, du paradoxe de la tolérance et de la limite à ne pas franchir lorsqu'il s'agit de limiter la liberté d'expression des gens.
Ressources supplémentaires :
Elizabeth fait plusieurs références à deux épisodes précédents qui préparent le terrain pour cet épisode : Modération des contenus avec Andrew Straight et Réglementer les géants du Web avec Taylor Owen.
Le site web du Conseil de surveillance est disponible ici, avec une description de la procédure d'appel, les décisions prises à ce jour, et les biographies des membres du conseil.
Cet article de David Wong et Luciano Floridi, paru en 2022, jette un regard plus académique sur le Conseil, évaluant ses forces et ses faiblesses et suggérant des améliorations potentielles.
Julie explique certains des principes qui régissent la manière dont le conseil d'administration choisit les dossiers à examiner, ainsi que le comité de sélection des dossiers qui prend ces décisions, lesquelles sont documentées dans le « Rulebook for Case Review and Policy Guidance ».
Julie mentionne deux cas spécifiques: le Parti des travailleurs du Kurdistan et le régime taliban en Afghanistan.
Elizabeth présente le paradoxe de l'intolérance de Karl Popper, introduit dans son ouvrage de 1945 intitulé The Open Society and its Enemies ( « La société ouverte et ses ennemis » ). Nous nous sommes appuyés sur cet article de 2015 de Brett G. Johnson, qui applique la théorie de la tolérance aux discours extrêmes et aux plateformes de médias sociaux.
Julie mentionne le comité de mise en œuvre et le suivi axé sur les données qui est effectué pour déterminer comment les recommandations du Conseil sont mises en œuvre. Pour en savoir plus, consultez le Rapport annuel du Conseil de surveillance du Conseil, les rapports trimestriels de Meta, et la page du Centre de transparence de Meta.
Transcription traduite de l'épisode : Le Conseil de surveillance de Meta avec Julie Owono
Lisez la transcription traduite ci-dessous ou téléchargez une copie dans la langue de votre choix :
Elizabeth: [00:00:04] Bienvenue à Wonks and War Rooms, où la théorie de la communication politique rencontre la stratégie sur le terrain. Je suis votre hôtesse, Elizabeth Dubois. Je suis professeure agrégée à l'Université d'Ottawa et fellow du Berkman Klein Center de l'Université de Harvard. Mes pronoms sont elle/la. Aujourd'hui, nous parlons de contenu, de modération, de gouvernance de la plateforme et du conseil de surveillance de Meta/Facebook/Instagram. Et nous avons un membre du conseil de surveillance, Julie, ici pour en parler. Julie, pouvez-vous vous présenter, s'il vous plaît?
Julie: [00:00:31] Oui. Je m'appelle Julie Owono. J'ai plusieurs casquettes : je dirige une association à but non lucratif basée à Paris, Internet Sans Frontières, qui œuvre pour la liberté d'expression en ligne. Et je suis également membre du Conseil de surveillance du Meta, dont nous allons parler aujourd'hui. Je suis également affiliée au Berkman Klein Center for Internet and Society, où j'effectue des recherches depuis trois ans sur l'intersection entre la liberté d'expression et les contenus préjudiciables, et sur la manière de trouver des solutions démocratiques à ces deux problèmes.
Elizabeth: [00:01:04] C'est merveilleux. Je suis très heureuse de vous avoir comme invitée sur le podcast aujourd'hui. Dans la plupart des épisodes, j'ai un sujet spécifique et je fais une petite introduction sur ce sujet à ce stade, puis nous passons aux questions. Mais avec cet épisode, nous faisons les choses un peu différemment parce que j'ai fait un épisode précédent sur la modération de contenu avec un ancien Googler qui a fait de la modération de contenu pour eux, et j'ai fait un épisode sur la gouvernance des plateformes avec Taylor Owen, qui est professeur à l'Université McGill. Donc pour les auditeurs, si vous n'avez pas entendu ces épisodes auparavant, vous pouvez revenir en arrière et les écouter. Ils aident vraiment à compléter cette conversation. Et ce que j'ai hâte de faire, c'est de parler aujourd'hui - en réunissant ces deux choses différentes - de ce que fait du Conseil de surveillance, de la relation entre la modération du contenu et la liberté d'expression, de la façon dont cela est lié à ce que fait Meta (la société) et de l'impact que cela a sur nous en tant qu'utilisateurs. Il y a donc tout un tas de choses à faire. Mais je pensais commencer par vous demander d'expliquer à quoi sert le Conseil de surveillance.
Julie: [00:02:06] Oui, absolument. Donc, pour ceux qui ne le savent pas, le Conseil de surveillance est composé de membres indépendants du monde entier qui se réunissent pour prendre des décisions contraignantes sur les contenus que Facebook et Instagram devraient autoriser ou supprimer de leurs plateformes, en se basant sur le respect de la liberté d'expression, de la liberté de parole et du respect des autres droits de l'homme également. Le Conseil est indépendant. C'est un organisme indépendant composé de personnes du monde entier, comme je l'ai dit. En fait, le conseil a été créé pour donner aux utilisateurs une occasion unique de faire appel des décisions de modération de contenu qui, jusqu'à présent, n'étaient prises que par une poignée de cadres de la Silicon Valley ou par des modérateurs de contenu en arrière-plan. Nous avons été créés pour tenir Meta responsable des plus grands défis, notamment en matière de modération du contenu. Et c'est, bien sûr, je veux dire, nous voyons cela comme un compliment, pas un substitut à d'autres efforts pour - dans cet espace pour tenir les médias sociaux responsables. Nous avons bien sûr besoin que les gouvernements, la société civile, les experts de l'industrie technologique et les chercheurs jouent un rôle. Mais ce que nous croyons, c'est que le processus de surveillance indépendant peut absolument contribuer à produire des décisions plus fortes et plus fondées sur des principes que ce que Meta a fait jusqu'à présent et que tout ce que Meta peut réaliser par lui-même.
Julie: [00:03:42] Donc, pour vous donner un bref historique, la Commission a commencé à traiter des affaires en octobre 2020. Nous avons été créés en mai 2020, mais nous avons commencé à prendre des affaires en octobre de la même année. Et nous recherchons généralement des cas qui représentent des problèmes importants et difficiles de modération de contenu, qui ont le potentiel d'affecter non seulement l'utilisateur individuel concerné par le contenu individuel en jeu, mais qui peuvent également affecter beaucoup plus d'utilisateurs. Et nous avons pris des cas dans le monde entier, des États-Unis, de l'Inde, de la Colombie, du Brésil, du Nigeria, et la moitié d'entre eux provenaient de ce que j'aime personnellement appeler la « majorité mondiale », que d'autres appelleront les « pays du Nord mondial ».
Elizabeth: [00:04:30] Mm hmm.
Julie: [00:04:32] Mais à travers ces affaires, nous avons examiné une série de normes communautaires de Facebook et de directives communautaires d'Instagram - allant des politiques de discours de haine à la violence et à l'incitation ou à la désinformation en matière de santé. Et oui, je peux dire qu'après deux ans, plus de deux ans maintenant, à faire ce processus...
Elizabeth: [00:04:53] Mm hmm.
Julie: [00:04:54] De nombreuses leçons ont été tirées. Et oui, je serai très heureux de les partager en détail au cours de nos discussions.
Elizabeth: [00:04:59] Merci. C'est un aperçu vraiment fantastique de ce qui se passe. Et une chose que je veux juste souligner à propos de ce que vous avez dit, c'est que, d'après ce que j'ai compris, le Conseil de surveillance s'occupe de ces cas, en quelque sorte bien après que le contenu initial ait été décidé d'être mis en ligne ou retiré.
Julie: [00:05:18] Oui.
Elizabeth: [00:05:19] Et puis l'idée est de prendre le temps de regarder en profondeur, même si une grande partie de la modération de contenu à laquelle nous pensons est très rapide, très « sur le moment » parce que les choses se répandent très vite sur Internet. Bien. Et donc c'est une sorte de pause après, pour réfléchir plus profondément. Bien.
Julie: [00:05:40] Oui, c'est ça. C'est exactement ce dont il s'agit. Il est vrai que dans la plupart des cas - parce que vous parler du processus, c'est probablement quelque chose de très important pour vos auditeurs. Ainsi, dans le processus standard, lorsqu'un utilisateur dépose un appel ou un utilisateur ou même Meta elle-même, parce que les cas peuvent provenir de ces deux conduits, l'entreprise elle-même qui lutte pour appliquer ses propres règles et les utilisateurs qui ne sont pas satisfaits d'une décision de modération. Eh bien, lorsque nous recevons un appel, la commission a 90 jours pour publier/rendre sa décision. Il est arrivé exceptionnellement qu'il soit légèrement plus élevé pour les cas très litigieux.
Elizabeth: [00:06:26] Mm hmm.
Julie: [00:06:27] Mais nous avons aussi la possibilité d'avoir un processus plus rapide. Nous n'avons pas encore utilisé ce processus, mais il existe. Mais il est vrai qu'en général, la décision de la commission intervient après coup. Néanmoins, les... les décisions que nous prenons. Comme je le disais, nous essayons de nous assurer qu'ils ont un impact non seulement sur l'utilisateur individuel, mais aussi sur les futurs cas potentiels qui ressemblent à celui que nous avons reçu. Et ce que je dis, c'est que la partie contraignante de la décision concerne l'obligation pour Facebook de retirer ou de laisser en place le contenu individuel. C'est donc la partie contraignante de notre décision. Et puis nous avons une partie plus, moins contraignante, enfin, pas contraignante, qui nous permet de faire ce que nous appelons, eh bien, des « recommandations à l'entreprise » - des recommandations sur les politiques de l'entreprise. Et ce qui est intéressant, c'est que bien que ces recommandations ne soient pas contraignantes, l'entreprise doit néanmoins répondre à ces recommandations. Et les réponses peuvent aller de « Non, nous ne mettrons pas cela en œuvre parce que ce n'est pas réalisable ou pour X raison, » à « Nous allons mettre cela en œuvre, » ou « Nous allons voir la possibilité de mettre cela en œuvre. » Et je pense que l'une des parties intéressantes du travail du conseil de surveillance est précisément cette conversation publique qui a lieu entre une plateforme et une gigantesque plateforme comme Meta. Eh bien, Facebook et Instagram spécifiquement, ayant pour la première fois, d'expliquer publiquement ses processus internes et comment il prend une décision et comment techniquement les recommandations sont réalisables ou non.
Julie: [00:08:17] Je dirais qu'il s'agit d'un grand bond en avant par rapport à la situation d'il y a trois ans, où - et je peux parler d'expérience - j'ai fait partie d'une organisation qui a fait d'innombrables recommandations à des entreprises sans nécessairement assurer un suivi, en s'engageant beaucoup avec ces plateformes, sans nécessairement voir l'effet de cet engagement. Nous assistons enfin à une discussion en direct, une discussion en ligne sur les possibilités de modération du contenu et les limites de ce qu'il est possible de faire. Et oui, pour moi, c'est là que l'impact est particulièrement intéressant. Non seulement cela apporte plus de transparence et de processus de modération du contenu, mais cela permet aussi de responsabiliser les entreprises, car, comme je le disais, il y a une partie contraignante de la décision qui oblige l'entreprise à appliquer ce que dit le conseil. Et enfin, je dirais qu'il place la modération du contenu, non pas comme un objet qui n'appartient qu'aux plateformes, mais vraiment comme une conversation de société. Où voulons-nous tracer les lignes et comment voulons-nous le faire de manière à ce que tout le monde soit informé de, oui, des processus et de la modération du contenu en général.
Elizabeth: [00:09:44] Oui, j'aime vraiment ce point que vous soulignez sur la façon dont cela crée une nouvelle transparence et cela crée aussi une nouvelle compréhension vraiment, de ce qui compte comme modération de contenu et qui doit être impliqué dans ce processus. Il s'agit d'une chose sur laquelle nous, en tant qu'utilisateurs, ne sommes pas seulement touchés, mais aussi impliqués dans une certaine mesure. Pendant longtemps, les conversations autour de l'information, de l'ordre de priorité de filtrage de contrôle que les différentes plates-formes de médias sociaux faisaient étaient comme, eh bien, « C'est notre sauce secrète, c'est notre boîte noire. On ne peut pas vous laisser entrer. Cela va permettre à tous nos concurrents de savoir que nous ne pourrons jamais y arriver ! » Et maintenant, nous voyons de nouvelles approches qui permettent une certaine transparence, permettent un certain engagement de différents types de parties prenantes comme vous le décrivez. Cela signifie que nous pouvons tous avoir une bien meilleure compréhension de la manière dont nos informations s'affichent ou non sur nos écrans, ce qui est utile à bien des égards.
Julie: [00:10:43] Absolument. Et ce que je peux dire spécifiquement à ce niveau de transparence, que j'espère que les processus et les décisions du conseil de surveillance apportent dans tout ce débat sur la responsabilité des médias sociaux, c'est que cela était attendu. Bien. Les gens attendaient ça. Et je peux juste mentionner un numéro.
Elizabeth: [00:11:07] Mm hmm.
Julie: [00:11:08] Nous avons reçu jusqu'à présent plus de 2 millions de cas soumis par des personnes qui souhaitent que leur contenu soit examiné par un organisme externe et qu'une décision soit publiée à ce sujet. 2 millions . C'est... c'est... je ne peux même pas commencer à imaginer.
Elizabeth: [00:11:28] Comment choisissez-vous?
Julie: [00:11:29] Nous essayons généralement, dans la mesure du possible, de choisir des cas qui mettent en évidence des problèmes récurrents sur la plateforme, des problèmes récurrents avec des normes communautaires différentes. Donc je parlais de discours de haine tout à l'heure. Le discours de haine est un grand pourvoyeur d'affaires. Je veux dire que les contenus modérés sur la base de discours haineux sont un grand pourvoyeur d'appels, mais aussi d'intimidation et de harcèlement. Nous avons eu des cas liés à cela. Des organisations dangereuses. De quelle organisation pouvez-vous parler ou ne pas parler sur les plateformes? Nous avons eu des cas, par exemple, liés à la discussion des droits de l'homme du chef du PKK (Parti des travailleurs du Kurdistan), le groupe kurde, et de son chef détenu par les autorités turques dans des conditions qui ont été critiquées par l'ONU. Pouvez-vous en discuter sur Facebook? Ou pouvez-vous discuter du régime taliban et de ce qu'ils font en Afghanistan sans être associé à quelqu'un qui fait l'éloge de ces organisations? Il s'agit donc d'un éventail de politiques très différentes. C'est donc, d'une part, l'un des critères.
Julie: [00:12:45] Le deuxième critère est, bien sûr, la façon dont il peut affecter non seulement l'utilisateur individuel, mais aussi potentiellement d'autres utilisateurs et potentiellement d'autres cas. Je veux dire, en évitant d'autres cas, je devrais probablement dire, pour être plus précis. Et aussi les cas qui posent des questions importantes sur la tension entre le respect des droits fondamentaux et des droits de l'homme, parce que c'est quelque chose que Meta s'est engagé à faire. Meta a toute une politique publiée publiquement sur la manière dont elle essaiera de respecter les droits de l'homme de ses utilisateurs tout en offrant ses services conformément aux principes énoncés des Nations unies—leurs Principes directeurs relatifs aux entreprises et aux droits de l’homme—qui expliquent que, bien sûr, les premiers responsables du respect et de la protection des droits de l'homme sont les gouvernements, les États.
Julie: [00:13:44] C'est leur responsabilité. Mais nous savons que d'autres acteurs peuvent, par inadvertance, avoir un impact négatif sur les droits de l'homme. Et ces acteurs sont des entreprises, car nombre d'entre elles, non seulement dans le secteur des technologies, mais aussi en général, ont un impact sur la société et les droits de l'homme. Et cela, bien sûr, est encore plus visible avec les plateformes de médias sociaux et la façon dont nous avons vu comment elles peuvent avoir un impact sur les élections, comment elles peuvent avoir un impact sur les réponses sanitaires, comment elles peuvent avoir un impact sur beaucoup d'autres questions. Nous essayons donc également de prendre des cas qui donneront l'occasion au conseil d'administration de proposer une solution pour résoudre une tension potentielle entre la protection, le maintien de certains droits de l'homme tout en permettant aux gens de continuer à s'exprimer. C'est ainsi que nous essayons de choisir les affaires. Ce n'est pas toujours facile. C'est notre tâche, celle d'un comité spécial que le conseil de surveillance a mis en place et qui s'appelle le Case Selection Committee (Comité de sélection des cas). Et oui, mais nous essayons autant que possible d'avoir une diversité géographique de cas, une diversité de politiques, donc des cas touchant à différentes normes communautaires et aussi à différents droits de l'homme en jeu dans le cas. Oui.
Elizabeth: [00:15:05] C'est logique quand on ne peut pas tout absorber. Vous obtenez ces petites bouchées et faites les plus ciblées possible pour pouvoir les développer au fil du temps.
Elizabeth: [00:15:16] Je voudrais donc changer un peu de sujet, maintenant que nous avons une bonne compréhension de base de ce que fait le Conseil de surveillance et des choix qui sont faits, pour parler de la modération du contenu en relation avec cette idée de liberté d'expression. Et souvent, la conversation s'arrête là. Mais comme la ligne suivante est comme un équilibre entre la liberté de nuire et la haine et tout ce que nous voulons protéger en termes de ce que nous pensons constituer un espace dans lequel les gens vont vouloir s'engager. N'est-ce pas? Et quand vous êtes un gouvernement, vous pensez aux droits de vos citoyens. Quand vous êtes une entreprise comme Facebook, vous devez penser un peu à ces droits, mais aussi un peu à ce que nous voulons que nos utilisateurs vivent pour qu'ils restent sur notre plateforme. Et j'imagine que le Conseil de surveillance, vous y réfléchissez un peu. Ainsi, lorsque je réfléchis à la liberté d'expression et à la manière dont elle est mise en balance avec les inconvénients potentiels, j'aime évoquer l'idée de tolérance lorsque je travaille avec des étudiants dans mes cours de communication politique. Et nous parlons du fait que, vous savez, vous n'avez pas besoin d'être d'accord avec toutes les idées, mais vous devez être tolérant envers une grande variété d'idées afin d'avoir un système démocratique fort. Mais il y a ce paradoxe que le philosophe Karl Popper a souligné, ce paradoxe de la tolérance qui dit: « Pour maintenir une société tolérante, il faut être intolérant à l'égard de l'intolérance. » Et cela devient problématique parce qu'on en revient alors à la question de savoir où tracer la ligne de démarcation entre ce qui est excessif et ce qui ne l'est pas.
Julie: [00:16:51] Ouais. Ouais.
Elizabeth: [00:16:52] Pensez-vous que cela soit lié aux questions de modération du contenu auxquelles vous êtes confrontés?
Julie: [00:16:59] Je dois dire, tout d'abord, que je suis une avide, je veux dire, la pensée de philosophes et de penseurs comme Karl Popper a vraiment influencé ma compréhension de la liberté et de la liberté d'expression, en particulier dans la société libérale. Mais je dois dire que le rôle du Conseil n'est pas nécessairement de dire à une entreprise comme Meta ce qu'elle doit tolérer ou non. Ce que nous pensons être une valeur ajoutée, c'est plutôt d'aider l'entreprise à avoir des processus internes clairs, des règles claires, des règles publiques, des principes que l'entreprise respecte, qui sont - qui permettent de faire l'équilibre nécessaire entre des droits parfois très conflictuels, n'est-ce pas? Le droit à la santé contre le droit à la libre expression, le droit à la vie contre le droit à la libre expression. Et cetera, etc. Et établir l'équilibre d'une manière qui respecte les principes internationaux des droits de l'homme. Et quels sont ces principes? Rappelons le Pacte international relatif aux droits civils et politiques qui a été adopté dans le cadre des Nations unies et que pratiquement tous les États membres des Nations unies ont accepté de respecter. Eh bien, ce pacte parle de la liberté d'expression, de beaucoup de droits, mais spécifiquement de la liberté d'expression. Et que dit cette alliance? Le pacte stipule que « les États ne doivent pas interférer avec le droit des personnes à s'exprimer. Et l'interférence ne devrait se produire que très exceptionnellement et d'une manière strictement définie et précisément d'une manière qui est légale. » Cela signifie qu'il devrait y avoir des règles qui décrivent clairement ce que vous êtes autorisé à faire ou non d'une manière qui est proportionnée. C'est-à-dire, d'une certaine manière, qu'une ingérence ne doit pas avoir des effets disproportionnés sur le droit à la liberté d'expression, mais aussi sur d'autres droits de l'homme du citoyen, de l'individu concerné.
Julie: [00:19:23] Et enfin, « la mesure d'ingérence doit être nécessaire à la réalisation de l'objectif légitime poursuivi. » Exact. Il s'agit du cadre d'analyse du conseil de surveillance de Facebook-Meta Conseil de surveillance. C'est ce que vous trouverez dans toutes nos décisions. Les règles sont-elles claires? Les règles dans ce cas sont-elles claires? L'utilisateur, l'utilisateur normal et cet utilisateur en particulier étaient-ils en mesure de savoir exactement ce qui est autorisé ou non?
Julie: [00:19:51] Deuxièmement, la censure appliquée par Facebook, si le contenu a été retiré, est-ce de la censure? Cette censure était-elle proportionnée? Devrions-nous seulement descendre? Y a-t-il d'autres moyens de rendre les choses un peu plus proportionnelles? Cette interférence appliquée par Facebook était-elle nécessaire? Y avait-il un autre moyen d'atteindre le but que vous vouliez atteindre? Si le but était de protéger la vie d'un certain groupe, y avait-il un autre moyen de le faire? Ce sont des questions auxquelles nous nous attaquons, et ce sont des réponses que nous essayons d'apporter à l'entreprise et aussi au grand public. Et ce que nous avons remarqué, c'est qu'en faisant cela, en offrant ce cadre pour résoudre cette question très complexe, parce qu'avant nous n'avions pas de cadre, avant c'était « Oh, est-ce que je suis d'accord avec ce que X, Y, Z ont dit? » Quand je dis nous, je parle de cadres de la Silicon Valley et d'autres modérateurs de contenu. Il y avait, bien sûr, des directives internes. Mais comme le montrent de nombreuses décisions du Conseil de surveillance du Meta, nombre de ces directives gagneraient à être plus claires.
Julie: [00:21:07] Meta l'admet elle-même, et c'est précisément la raison pour laquelle elle a demandé l'aide du Conseil de surveillance du Meta. Ainsi, ce cadre que nous essayons de normaliser dans l'industrie est la façon dont nous essayons de résoudre cette tension de - Oui, où tracer la ligne? Devrions-nous même le dessiner? Et si nous le faisons, comment devons-nous le faire d'une manière qui respecte les droits fondamentaux, qui respecte les principes qui soutiennent les démocraties libérales que nous avons essayé de construire et de sauvegarder au cours des 304 dernières années, disons, plus ou moins - les démocraties libérales modernes, bien sûr, dont je parle ici. Donc, oui, c'est comment, et ce n'est pas loin de ce que Popper lui-même a écrit. Il a écrit qu'il devait y avoir des interférences. Mais ce n'est pas à nous, individus, d'en décider. Je suis vraiment en train de mal paraphraser et je m'excuse auprès de Popper en particulier, mais il a également mentionné la nécessité d'un état de droit, la nécessité d'institutions pour s'assurer que cet équilibre est sauvegardé - sans.
Julie: [00:22:19] Et tout cela se résume à des contrôles et des équilibres. Tout le monde, chaque entreprise, chaque individu, chaque groupe qui a un peu de pouvoir, doit disposer de freins et de contrepoids sous différentes formes, qu'il s'agisse de processus ou d'autres institutions. Il devrait y avoir des moyens de limiter le pouvoir détenu par un très petit groupe d'individus, car quelles que soient vos bonnes intentions, vous pourriez être le plus grand sage du monde. Mais si vous avez tout le pouvoir de décider de ce qui est sage et de ce qui ne l'est pas, vous en abuserez. C'est...
Elizabeth: [00:22:58] Ouais.
Julie: [00:22:58] C'est évident. Et donc, dans les sociétés démocratiques, il est important d'avoir ces contrôles et ces équilibres. Et c'est, je dirais, probablement ce à quoi le Conseil essaie de contribuer, comment - quels sont les processus qui garantiront que ces garde-fous et ces contrôles et équilibres existeront dans la modération du contenu?
Elizabeth: [00:23:14] Oui, tout cela me semble très logique. Et je pense que vous avez raison en ce qui concerne l'idée que toute quantité de pouvoir entre les mains d'un petit groupe de personnes peut faire l'objet d'abus et finira probablement par le faire, ne serait-ce que parce que ce petit groupe de personnes n'aura qu'une seule perspective ou très peu de perspectives à partir desquelles il verra le monde entier. Et ils ne peuvent pas connaître tous les impacts immédiatement. Ils doivent mettre en place des processus pour les aider à comprendre tous ces effets d'entraînement.
Elizabeth: [00:23:46] Cela m'amène à m'interroger sur l'idée de ces espaces en ligne et sur ce que nous devrions en attendre en termes de ce que nous devrions être autorisés à publier et à partager et de ce que nous ne devrions pas. Une façon de penser à cette question est de se demander si tous les espaces en ligne - ou les médias sociaux pour être plus précis - doivent être tolérants. Devraient-ils tous être tolérants? Doivent-ils se conformer à cette sorte d'idéal démocratique? Existe-t-il des espaces où il est acceptable qu'ils soient destinés à partager des opinions très particulières et où d'autres idées peuvent être écartées et modérées? Il y a un tas de questions délicates là-dedans. Donc je vais juste laisser cette petite chose là pour que tu la résolves.
Julie: [00:24:33] Wow. J'aimerais pouvoir le faire. Mais non. Ce que je dirai, c'est que même si nous avions, ou malgré le fait que nous ayons ces plateformes dont vous parlez, qui sont des plateformes qui permettent certains types d'idées qui ne seraient probablement pas tolérées dans d'autres espaces. Même dans ces espaces, je pense qu'il y a une soif, en général, de règles, de clarté et de processus. Et c'est ce que nous voyons en réponse à de nombreuses - par exemple, aux États-Unis, certains États veulent obliger les entreprises à accepter tous les contenus, quels qu'ils soient, ou du moins à ne pas les modérer en fonction de l'affiliation politique, quoi que cela signifie. Mais même les partisans de la liberté d'expression sans entrave et de la modération sans entrave, ou de l'absence de modération, même pour ceux qui, lorsque certains de ces partisans de la liberté sans entrave s'impliquent dans la gestion d'une plateforme de médias sociaux. Oh mon Dieu, quel... je pense que c'est un grand exercice d'humilité. Pour moi, ça l'a été. Depuis que j'ai été capable d'avoir un regard plus profond sur la façon dont les médias sociaux tels que Facebook ou Instagram fonctionnent réellement. Il s'agit d'intimider et d'accommoder les opinions et l'expression de milliers, de millions d'utilisateurs, même des utilisateurs qui sont probablement sur la même longueur d'onde, qui partagent probablement certaines idées, même en cela il y aura des désaccords. Alors, comment régler ces désaccords de manière à permettre à la plateforme de continuer à prospérer? Nous avons vu avec Twitter qu'il n'y a pas de réponse facile, que vous ne pouvez pas faire l'économie d'avoir des règles claires, des règles d'avoir des processus clairs en place. Sinon, les conséquences, tout d'abord, ce qui est intéressant pour les plateformes, les annonceurs ne veulent pas être associés à une plateforme désordonnée.
Elizabeth: [00:26:51] Mm hmm.
Julie: [00:26:52] C'est déjà un argument pour s'assurer que ces règles sont en place. Mais au-delà de ça, même si les annonceurs ne sont plus là, ils sont toujours - je veux dire, il y a des conséquences pour la société, et la société a à plusieurs reprises exprimé sa volonté de ne pas vivre certaines choses en ligne. Lorsque vous prenez un contenu très spécifique tel que l'abus d'enfants, personne, personne, ne veut voir que sa timeline est remplie de matériel d'abus d'enfants. Très peu. Je veux dire, personne, malheureusement, bien sûr, ce sont des criminels, mais la majorité des gens des utilisateurs d'Internet ne veulent pas voir ça. Il y a aussi des gens qui ne veulent pas voir de nudité. Que l'on soit d'accord ou non, c'est une réalité. Que faites-vous? Allez-vous leur dire: « N'utilisez pas les plateformes de médias sociaux, n'utilisez pas l'internet de tout » ?
Elizabeth: [00:27:46] Mm
Julie: [00:27:46] Sur
Elizabeth: [00:27:46] Hmm.
Julie: [00:27:46] Tous?"
Elizabeth: [00:27:47] Mm hmm.
Julie: [00:27:47] Parce que ouais, donc tout ça pour dire que peu importe la plateforme, le type de plateforme, le type d'opinions que vous autorisez sur vos plateformes, un niveau très minimum de modération sera nécessaire. En effet, les annonceurs ne veulent pas être associés à un certain type de contenu et, plus largement, la société s'interroge de plus en plus sur l'impact qu'elle souhaite que le monde en ligne ait sur le monde hors ligne.
Elizabeth: [00:28:22] Ouais. Et j'ajouterais à cela que la plupart des outils que nous utilisons, ces outils liés à l'internet, les médias sociaux étant le principal exemple dont nous parlons aujourd'hui. Leur fonction de base est de trier, filtrer et organiser les informations. Et nous ne pensons pas toujours à cela comme à la modération du contenu. Nous avons tendance à penser à, vous savez, « Ok, la façon dont ils hiérarchisent le contenu, de sorte que les choses sur lesquelles je pourrais vouloir cliquer et que je préfère, apparaissent dans ma timeline ou mon fil d'actualité avant les choses dont je ne vais pas m'intéresser. » Ou dans la recherche, pour qu'un résultat de recherche qui m'est utile apparaisse en premier, d'accord? Nous pensons à cette sorte de travail de filtrage et d'organisation séparément d'une grande partie du travail de modération du contenu, parce que le travail de modération du contenu, je pense, finit par être vraiment lié à notre vision du moment où les droits de l'homme pourraient être violés ou ce que nous pensons être socialement acceptable d'avoir là plutôt que comme la fonctionnalité pratique que nous voyons.
Elizabeth: [00:29:27] Et donc l'une des choses que j'aime ajouter à la conversation sur la modération du contenu, c'est qu'il importe peu de savoir si nous pensons ou non que le contenu doit être modéré. Le but de la recherche et des médias sociaux est, en fait, de modérer, en termes de curation. J'aime donc partir de cette prémisse et dire: « D'accord, nous avons besoin de transparence, nous devons comprendre comment cela se passe, et nous devons ensuite ajouter toutes ces choses dont vous parliez », c'est-à-dire les choses sur lesquelles la société est déjà plus ou moins d'accord, ou même ce que nous voulons faire, le type de progrès social que nous voulons voir ou non.
Julie: [00:30:02] N'est-ce pas? Non, absolument. Et vous savez, cela me permet d'arriver avec des leçons très importantes que l'expérience du Conseil m'a enseignées. Et je pense aussi que mes collègues ont tiré jusqu'à présent cinq leçons essentielles que j'aimerais partager.
Elizabeth: [00:30:23] S'il vous plaît. Ecoutons-les.
Julie: [00:30:24] Oui. La première est, bien sûr, la gouvernance. Toute plateforme de médias sociaux, puisque nous en parlons. Mais je dirais l'industrie technologique en général - c'est très personnel - pas l'opinion du Conseil. Mais toute plateforme de médias sociaux doit avoir des organes distincts de Meta. Nous le sommes, par exemple, ce qui nous permet d'évaluer de manière indépendante les processus de modération du contenu existants et nous sépare également de tous les intérêts commerciaux et de relations publiques, qui ne nous concernent absolument pas. Si nous prenons une décision qui va être mauvaise pour les affaires de l'entreprise. Ce n'est pas... ce n'est pas quelque chose auquel on pense. Nous pensons aux droits de l'homme à dessein.
Julie: [00:31:11] La deuxième leçon est la transparence. Et vous nous avez rappelé à juste titre que, pour faire confiance aux décisions d'une entreprise, les gens doivent comprendre comment ces décisions sont prises. Et jusqu'à présent, les plateformes technologiques ont fonctionné de manière très opaque, ce qui a alimenté, vous savez, des théories sur le fait que « Oh, certaines plateformes pourraient être plus libérales ou contre, par défaut, contre les points de vue conservateurs. » Donc pour éviter cela, il est important d'être transparent. Troisième leçon, très importante, la diversité. La plupart des utilisateurs de Meta sont situés en dehors de l'Amérique du Nord et de l'Europe. Quand on y pense, cela permet de mettre en perspective tous les rapports que nous recevons lorsque nous parlons des méfaits des médias sociaux . Parce que la plupart des rapports ont tendance à se concentrer sur ces deux régions du monde, qui sont extrêmement importantes. Absolument. Mais qui ne sont pas déconnectés de ce qui se passe ailleurs. Et nous avons tendance à l'oublier. Nous avons tendance à penser que tout ce qui se passe aux États-Unis se passe aux États-Unis. Non, ça ne l'est pas. Même si...
Elizabeth: [00:32:22] Mm
Julie: [00:32:22] Vous
Elizabeth: [00:32:22] Hmm.
Julie: [00:32:22] Prenez la guerre en Ukraine, un très bon exemple. Les opérations de désinformation qui ont été, qui ont été, vous savez, inondées en ce qui concerne ce conflit, eh bien, elles vont au-delà des frontières de l'Ukraine. Ils dépassent les frontières de l'UE. Ils vont en Afrique. Il est très intéressant de - je pense que ce conflit est une étude de cas très intéressante sur l'interdépendance que nous avons à l'ère de l'information. J'utilise cet exemple pour expliquer l'importance de la diversité au-delà de l'Amérique du Nord et de l'Europe. Et c'est vraiment ce qui est à l'ADN, au cœur de l'ADN du conseil. Je suis moi-même d'origine africaine, je suis camerounaise, mais aussi française. J'ai vécu en France et je vis maintenant aux États-Unis. J'ai des collègues qui sont au Pakistan, qui sont à Taïwan, en Australie, etc.
Julie: [00:33:17] La quatrième grande leçon apprise est que nous avons besoin de principes. Les gens doivent savoir que, par principe, tout le monde est soumis aux mêmes règles. C'est une idée qui n'était pas, qui n'est toujours pas courante, parce qu'il y a toujours cette hypothèse que certaines règles s'appliquent aux autres et pas à certains autres groupes. Mais une fois ces principes clairement définis et les trois autres, à savoir la diversité, la transparence et la gouvernance, vous créez un environnement de confiance et un environnement où les gens seront plus enclins à respecter les règles et où les contenus potentiellement dangereux diminueront. Dernier point, mais non des moindres, le partenariat - une leçon très importante. Personne ne peut résoudre ce problème seul. Les plateformes ne peuvent pas résoudre ce problème seules. Les gouvernements ne peuvent pas résoudre ce problème en se contentant de réglementer.
Julie: [00:34:10] Et le conseil d'administration ne peut pas résoudre ce problème seul en prenant sa décision. Les organes de contrôle indépendants, tels que celui sur lequel je travaille, n'auront un impact durable que si les entreprises non seulement écoutent les propositions faites par ces organes de contrôle indépendants sur la base de consultations avec différentes parties prenantes - j'ai mentionné le nombre de 10 000 parties prenantes avec lesquelles nous avons interagi au cours des deux années et demie écoulées depuis que nous avons commencé à traiter des affaires. L'impact de ces organismes indépendants ne durera donc que si les entreprises non seulement écoutent notre proposition, mais y donnent suite. Et c'est une autre leçon clé et je vais finir par là.
Julie: [00:34:53] Mise en œuvre . Nous recevons souvent, en tant que membres du conseil d'administration, une question du type: « OK, vous prenez des décisions, mais la seule partie contraignante est de remettre le contenu en place ou de le retirer. Comment vous assurez-vous que vos recommandations ont un impact? », par exemple. C'est pourquoi nous avons mis en place un comité de mise en œuvre qui suit ces recommandations, les réponses de l'entreprise et la mise en œuvre effective de ces recommandations par méta. Tout cela d'une manière très publique pour continuer à permettre la conversation publique dont je parlais. Et jusqu'à présent, je peux dire que Meta a répondu à 128 de nos 180 recommandations. Et oui, je pense que c'est un très bon ratio, très mauvais en maths. Je ne pourrais donc pas vous donner les chiffres en termes de performance, mais c'est un signe encourageant que l'entreprise donne suite à la conversation. Absolument.
Elizabeth: [00:35:55] Oui, absolument. Et ce résumé de ces leçons clés est vraiment utile. Je veux dire, il y a genre 17 épisodes de podcast en plus qu'on pourrait faire, mais on n'a pas le temps pour ça. Je voudrais juste dire que dans les notes de l'émission, nous ajoutons toujours beaucoup de liens vers différentes choses, donc nous ajouterons des liens vers certains des endroits où les auditeurs peuvent aller vérifier ces statistiques de mise en œuvre et certaines des autres choses dont nous avons parlé aujourd'hui. Et il y a tellement de choses à creuser à ce sujet. Mais la chose sur laquelle je vais, en quelque sorte, nous laisser est que, lorsque nous pensons au rôle de la modération du contenu et à la relation entre les conseils de surveillance comme celui-ci [Conseil de surveillance du Meta], entre les entreprises, les gouvernements, les autres parties prenantes impliquées, les utilisateurs. Je pense que l'une des choses dont nous devons nous souvenir, c'est qu'il va continuer à évoluer et à changer, et que nous devrons continuer à mettre à jour notre compréhension du respect de cet équilibre et les meilleurs moyens de le respecter. Parce que les normes sociales changent, parce que la technologie change, parce que les règles et les réglementations changent. Et donc, plutôt que de penser à cela comme à un point final, cela fait vraiment partie du processus.
Julie: [00:37:09] Le tableau que vous dressez est très précis en ce qui concerne les changements technologiques. Nous y sommes. Nous sommes vraiment concentrés sur nos inquiétudes concernant les plateformes de médias sociaux 2.0.
Elizabeth: [00:37:21] Mm hmm.
Julie: [00:37:22] Mais, apparemment, nous sommes au bord d'une plus grande révolution. Je pense qu'on y est déjà. Nous voyons l'IA générative devenir de plus en plus populaire et normalisée. Il y a certainement de grandes choses à cela. Mais quand vous pensez au contenu de désinformation, il...
Elizabeth: [00:37:43] Mm hmm.
Julie: [00:37:44] Il pose beaucoup de questions. Nous sommes aussi probablement à la veille d'une autre révolution, sous la forme du Metaverse, qui permettra des interactions plus directes, je veux dire des interactions qui sembleront encore plus réelles que celles que nous avons déjà dans la version 2.0 des médias sociaux. Donc, oui, des changements se produisent tout le temps, et c'est précisément la raison pour laquelle nous avons besoin de ces principes qui sont en place. Ce sur quoi nous n'abdiquerons jamais. Et il est vraiment opportun d'avoir cette conversation, d'avoir ces principes établis, ces valeurs établies maintenant, ces processus étant clairement décrits maintenant et ces droits de l'homme, vous savez, cet exercice d'équilibre entre différents droits de l'homme parfois conflictuels - tout cela est nécessaire maintenant. Pour que nous puissions éviter les, oui, les pièges que...
Elizabeth: [00:38:44] Mm hmm.
Julie: [00:38:45] Nous l'avons vu ces dernières années. Donc, oui.
Elizabeth: [00:38:49] Absolument. Merci. C'est merveilleux. Très bien. Nous arrivons à l'heure. J'ai ma dernière question, qui est un petit pop quiz. La question à réponse courte d'aujourd'hui est la suivante : pouvez-vous, en une seule phrase, résumer ce que fait le Conseil de surveillance?
Julie: [00:39:11] Le Conseil de surveillance aide Meta à traiter son utilisateur de manière plus équitable et transparente.
Elizabeth: [00:39:18] C'est fantastique. Merci beaucoup. Je l'apprécie vraiment.
Julie: [00:39:21] Merci, Elizabeth.
Elizabeth: [00:39:26] Très bien. C'était notre épisode sur le conseil de surveillance. Nous avons parlé de la modération du contenu. Nous avons parlé de la liberté d'expression. Nous avons parlé de la recherche d'un équilibre entre la liberté d'expression et les divers préjudices en ligne et menaces pour les droits de l'homme. C'était un épisode complet, et j'espère que vous l'avez apprécié. Nous avons des tonnes de liens dans nos transcriptions annotées disponibles en français et en anglais, et vous pouvez consulter une variété de ressources dans les notes du spectacle. Pour en savoir plus, rendez-vous sur polcommtech.ca. Merci et bonne journée.
Comments