L'IA et la démocratie avec Seher Shafiq
Saison 6 épisode 10 [télécharger cet épisode (MP3, 23.3MB) (en anglais uniquement)]
[Veuillez noter que le contenu du balado est traduit de la version originale anglaise.]
Cette semaine, Elizabeth s'entretient avec Seher Shafiq, gestionnaire de programme à la Fondation Mozilla et expert en engagement civique, en particulier dans le contexte des élections et de l'implication des personnes marginalisées dans le vote. Ils discutent de l'impact de l'IA sur les élections canadiennes, l'engagement civique et la démocratie. Ils examinent les utilisations utiles et moins utiles des outils d'IA dans les élections et discutent de la manière dont ces outils pourraient être utilisés pour accroître l'engagement des électeurs. Seher conclut l'épisode avec des suggestions sur la façon dont nous pouvons faire face au manque de confiance dans l'IA, notamment en mettant l'accent sur la littératie numérique.
Note complémentaire : nous recueillons des exemples de l'impact du podcast et nous apprécierons votre contribution. Veuillez prendre deux minutes pour remplir ce court questionnaire afin de nous faire part de vos commentaires sur le podcast.
Ressources supplémentaires :
Elizabeth mentionne le rapport qu'elle a rédigé avec Michelle Bartleman, membre du Labo Pol Comm Tech et étudiante au doctorat, intitulé Les utilisations politiques de l’IA au Canada, qui aborde un grand nombre des sujets discutés dans cet épisode.
Consultez l'article de Valerie Wirtschafter intitulé The impact of generative AI in a global election year (L'impact de l'IA générative au cours d'une année électorale mondiale) (en anglais) pour obtenir des exemples d'appels téléphoniques robotisés et de médias utilisant l'IA pour se faire passer pour des candidats, comme l'a mentionné Seher.
Pour plus d'informations sur la menace que représentent les deepfakes (l’hypertrucage) pour les élections canadiennes, consultez L’évolution de la désinformation : un avenir « hypertruqué », un rapport publié par le SCRS.
Pour un aperçu des théories de la littératie numérique, écoutez notre dernier épisode de la saison 3 du balado : Cartographie des théories pour la littératie médiatique et numérique.
Elizabeth mentionne également deux épisodes précédents sur l'influence personnelle : La théorie de la communication à double étage avec Nick Switalski et Influence personnelle en politique.
Seher mentionne le récent rapport Training Data for the Price of a Sandwich, rédigé par Stefan Baack de la Fondation Mozilla en collaboration avec l'équipe Mozilla Insights. Il explore l'influence du corpus Common Crawl en tant qu'épine dorsale pour les grands modèles de langage : ses lacunes, ses avantages et ses implications pour une IA digne de confiance.
Pour en savoir plus sur Seher, consultez son site web, X et LinkedIn.
Transcription traduite de l'épisode : L'IA et la démocratie avec Seher Shafiq
Lisez la transcription traduite ci-dessous ou téléchargez une copie dans la langue de votre choix :
Elizabeth Dubois: [00:00:04] Bienvenue à Wonks and War Rooms, où la théorie de la communication politique rencontre la stratégie sur le terrain. Je suis votre animatrice, Elizabeth Dubois. Je suis professeure associée et titulaire d'une Chaire de recherche de l'Université en Politique, communication, et technologie à l'Université d'Ottawa. Mes pronoms sont elle/la. Aujourd'hui, nous parlerons de l'IA et des élections avec Seher Shafiq. Mais avant d'entrer dans le vif du sujet, un dernier appel : si vous avez des commentaires sur l'impact et les résultats du podcast, si vous l'avez utilisé d'une manière ou d'une autre dans votre travail ou votre vie de bénévole, n'hésitez pas à nous en faire part. Vous trouverez un lien vers une petite enquête dans les notes de l'émission, ou vous pouvez nous envoyer un courriel à polcommtech@ gmail.com. C'est polcommtech@gmail.com. Très bien, entrons dans l'épisode. Seher, pouvez-vous vous présenter ?
Seher Shafiq: [00:00:51] Bonjour, merci de m’avoir invitée. Je m'appelle Seher Shafiq. Je suis gestionnaire de programme à la Fondation Mozilla et j'ai une grande expérience de l'engagement civique, en particulier des élections et de l'engagement des électeurs pour ceux qui sont généralement sous-représentés dans la vie civique.
Elizabeth Dubois: [00:01:05] Merci beaucoup d’être là. Je suis très enthousiaste à l'idée de parler des différentes façons dont l'IA influence nos élections, notre engagement civique et notre démocratie. Je vais commencer par... Eh bien, normalement, c'est une définition assez académique. Je vais en fait consulter Wikipédia pour cette première définition : « L'intelligence artificielle (IA) au sens large est l'intelligence dont font preuve les machines, en particulier les systèmes informatiques, par opposition à l'intelligence naturelle des êtres vivants. » Voici la première phrase de la page « Artificial Intelligence » de Wikipédia (en anglais), et cela recouvre beaucoup de choses différentes. C'est très vaste. Dans certains travaux que j'ai effectués (il y a un rapport que Michelle Bartleman, qui est étudiante au doctorat à l'Université d'Ottawa, et moi-même, nous avons rédigé sur l'IA dans la politique au Canada [Consultez : Les utilisations politiques de l’IA au Canada]) et là, nous parlons de la nécessité de disposer de ces composantes essentielles de l'informatique et de la prise de décision pour définir l'intelligence artificielle. Mais en réalité, il existe une multitude de définitions différentes, qui changent au fur et à mesure que la technologie évolue. Je voudrais donc commencer par poser quelques jalons. Selon nous, qu'est-ce que l'IA ou, du moins, quels sont les outils ou les instances d'IA qui comptent le plus dans les contextes électoraux ? Y a-t-il des exemples particuliers qui vous viennent à l'esprit ?
Seher Shafiq: [00:02:21] Je pense, à mon avis (et je ne suis pas un expert technique, alors gardez cela à l'esprit), mais d'après moi, l'IA est tout ce qui prend des données et produit une moyenne statistique de ces données. La première chose qui vient à l'esprit de tout le monde est ChatGPT. Comment il peut être utilisé lors des élections pour générer très rapidement du contenu de campagne. Du contenu des médias sociaux, du contenu d'information des électeurs pour les organes de gestion des élections ou les organisations communautaires qui tentent d'atteindre les électeurs ou les bureaux de campagne qui tentent d'atteindre les électeurs. L'autre chose qui me vient à l'esprit est le son et l'image de synthèse. Il s'agit donc des appels téléphoniques non sollicités qui usurpent l'identité d'un candidat ou d'un dirigeant de la communauté [Consultez : The impact of generative AI in a global election year, un article récent (en anglais) qui donne des exemples d'usurpations d'identité de candidats utilisant l'IA]. Il s'agit même d'images générées qui pourraient être utilisées, potentiellement, pour tromper les électeurs ou pour montrer une image qui n'existe pas réellement dans le but de faire avancer une campagne politique.
Seher Shafiq: [00:03:11] Je pense également à l'analyse augmentée, que vous avez mentionnée dans votre rapport [Les utilisations politiques de l’IA au Canada], et au fait que même avant que l'IA ne nous aide à produire des analyses sur le comportement des électeurs et les résultats des prédictions électorales, même à cette époque, cela avait un impact sur la façon dont les électeurs percevaient certaines courses et sur leurs comportements électoraux. Comment cela se passe-t-il maintenant que nous pouvons obtenir ces analyses encore plus rapidement et encore plus tôt dans une course ? Et quel est l'impact sur le comportement des électeurs ? Par ailleurs, quelles sont les données qui entrent dans ces analyses et qu'est-ce qui y est représenté ? Et ces analyses représentent-elles fidèlement le sentiment des électeurs dans un cycle électoral donné ? C'est un autre point important.
[00:03:53] Et puis, dans la lignée de ChatGPT, que j'ai mentionné plus tôt, comment les chatbots [par exemple, l’assistant virtuel de la ville de Markham] peuvent être utilisés par les bureaux de campagne et les stratégies pour partager des informations avec les électeurs, mais aussi comment ils peuvent être utilisés par les organisations communautaires et les organismes de gestion des élections pour partager des informations sur les électeurs et rendre le vote plus accessible. Il y a donc beaucoup de choses, à la fois bonnes et mauvaises. En résumé, il s'agit d'une technologie très efficace qui, si elle est bien exploitée, peut avoir un impact considérable sur l'engagement des électeurs, en particulier ceux qui sont sous-représentés. Mais si elle est mal gérée et manipulée, elle pourrait accroître la méfiance de beaucoup de gens à l'égard de notre démocratie et des élections au Canada. Il y a donc beaucoup de choses à faire.
Elizabeth Dubois: [00:04:39] Il y a tellement de choses à faire. Merci de nous avoir présenté cette carte. Je pense que vous avez trouvé de très bons exemples et j'ai hâte de les étudier. Avant d'entrer dans le vif du sujet, je voulais parler un peu de l'idée de l'IA générative. Vous avez parlé de ChatGPT et de la création d'images et de sons synthétiques, etc. Tous ces éléments entrent dans la catégorie de l'IA générative, parfois appelée « IAgen ». Il s'agit d'un type de système d'intelligence artificielle capable de générer du texte, des images et d'autres médias en réponse à des instructions. C'est donc ça, ChatGPT, vous lui envoyez un message et il vous répond. Ces modèles ne génèrent pas de contenu à partir de rien. En général, ils ont été formés sur des quantités massives de données collectées sur l'internet. Ils apprennent les schémas et la structure de toutes ces données d'apprentissage. On a donc appris à ces modèles à rechercher ces modèles et ils les recherchent. C'est ce type d'analyse statistique dont vous parliez dans votre définition de l'IA. Ils génèrent ensuite un nouveau contenu présentant des caractéristiques similaires. Je tenais donc à indiquer ça, car c'est un sujet dont nous entendons parfois parler dans les médias, mais qui n'est pas nécessairement expliqué plus en détail.
Elizabeth Dubois: [00:05:58] D'accord. Voyons donc à quoi tout cela ressemble. Évidemment, il y a eu toute une conversation sur les deepfakes (l’hypertrucage) [Consultez : L’évolution de la désinformation : un avenir « hypertruqué », un rapport publié par le SCRS], cette crainte qu'un politicien soit mis dans une vidéo pour donner l'impression qu'il a dit quelque chose qu'il n'a jamais dit, ou qu'il a passé du temps avec des personnes qu'il n'a jamais rencontrées ou qu'il se trouve dans une autre sorte de position compromettante. C'est ce que nous avons constaté avec les dirigeants du monde entier. Il y a également eu des exemples avec des célébrités et des tonnes d'exemples d'usurpation d'identité généralement considérés comme plutôt négatifs, avec ce genre de conséquences manifestement négatives. Pensez-vous que les deepfakes constituent une menace majeure pour les élections ? Y a-t-il des façons d'utiliser ces vidéos générées de façon à ce qu’elles soient utiles lors des élections et des campagnes électorales ? Parce qu'à l'heure actuelle, on se dit que « toute vidéo de ce genre sera mauvaise ».
Seher Shafiq: [00:06:53] La perspective que j'apporte et l'expérience que j'ai, c'est de travailler avec des personnes qui sont déjà marginalisées par de nombreux systèmes, mais aussi par notre démocratie et nos élections. J'ai travaillé avec des immigrants et des réfugiés pour les inciter à voter et avec des organisations communautaires à travers le Canada qui se concentrent sur des populations telles que les sans-abri, les jeunes, les communautés LGBTQ, les femmes. Le point commun entre tous ces groupes est le manque de confiance dans le système, et nous savons qu'il y a une augmentation de la polarisation au Canada et dans le monde, mais il y a aussi cette confiance affaiblie et ce sentiment que « le système ne fonctionne pas pour moi », et à juste titre, parce qu'il ne fonctionne pas pour un grand nombre de raisons. Ainsi, lorsque je pense aux deepfakes, à l'IA générative et aux autres vidéos et images générées, en particulier dans le contexte des élections, je me dis que même pour les personnes ayant un niveau élevé de littératie civique et numérique, il y a tant à apprendre pour être en mesure de faire la différence entre quelque chose de vrai et quelque chose de faux. C'est pourquoi, lorsque l'on fait peser ce fardeau sur des personnes qui ont déjà des barrières linguistiques, des barrières d'alphabétisation, une méfiance à l'égard du système, il est difficile de trouver des solutions. Puis, au cours d'un cycle électoral, lorsqu'ils ont déjà l'impression que leur vote ne fait aucune différence, ils n'ont aucun intérêt à s'engager. Lorsque vous ajoutez à cela des éléments tels que des deepfakes qui se font passer pour des candidats politiques ou des célébrités qui soutiennent un candidat politique, ou encore tous les coups bas qui se produisent au cours des cycles électoraux, je crains fort que ces personnes qui ont déjà l'impression qu'il ne sert à rien de s'engager dans le système n'abandonnent tout simplement, parce qu'il n'y a aucun moyen de savoir ce qui est réel et ce qui ne l'est pas. À l'heure actuelle, au Canada, nous ne disposons pas de l'infrastructure nécessaire dans les organisations communautaires pour proposer des programmes qui réduisent l’écart entre l'éducation civique et la littératie numérique, d'amener les gens à un niveau qui leur permette de repérer ce matériel et de prendre des décisions en connaissance de cause, même sans deepfakes. Savez-vous combien de temps il faut pour s'informer sur ce qui se passe au cours d'un cycle électoral ? Et pensez aux personnes qui sont en mode survie. Les gens qui ont plusieurs emplois, qui élèvent plusieurs enfants et subissent tellement de stress mental, physique et émotionnel dans leur vie. Qui a le temps de regarder un débat et de s'informer sur tous les partis politiques, surtout lorsqu'ils ne frappent pas à votre porte parce qu'ils disposent de données indiquant que vous êtes moins enclin à voter ? Comment ce genre de personnes vont-elles s'engager dans ce niveau complexe de capacité à distinguer le vrai du faux, et c'est très complexe. Je pense que cela complique beaucoup d'obstacles qui existent déjà, que cela creuse le fossé en termes de littératie numérique et civique, et que cela a un impact disproportionné sur ceux qui sont déjà les plus sous-représentés dans nos espaces civiques et dans le vote.
Elizabeth Dubois: [00:09:46] En effet. Nous réfléchissons au rôle des médias et de la littératie numérique. J’ai fait une saison entière du podcast sur les médias et la littératie numérique [Saison 3, Épisode 9: Cartographie des théories pour la littératie médiatique et numérique]. Et oui, c'est génial. Par exemple, renforçons la littératie médiatique et numérique. Efforçons-nous d'y parvenir. Mais cela fait peser une nouvelle charge sur les gens. Et comme vous le dites, les personnes les moins susceptibles d'être ciblées par des informations correctes parce qu'il est peu probable qu'elles votent, les grandes campagnes ne leur accordent pas d'attention. Et les personnes les plus susceptibles de manquer de confiance, ou de manquer de temps et d'énergie pour comprendre, sont peut-être dans un nouveau système, essayant de travailler dans une langue qu'elles ne parlent pas. C'est comme si, couche après couche, tout s'empile contre eux. Nous avons également constaté que ces outils d'IA générative ont été utilisés spécifiquement pour cibler des communautés qui parlent des langues différentes ou sont issues de cultures différentes, et qui ont des attentes et des antécédents culturels différents. Ces outils sont souvent utilisés spécifiquement pour créer des campagnes de désinformation au sein des communautés sous-représentées.
Seher Shafiq: [00:10:51] Effectivement. C'est comme les campagnes de désinformation de WhatsApp, mais avec des stéroïdes.
Elizabeth Dubois: [00:10:56] [Rires]
Seher Shafiq: [00:10:56] Si l'on ajoute à cela l'idée des deepfakes et des contenus générés qui sont littéralement fabriqués, c'est une chose d'avoir un WhatsApp qui indique que quelqu'un vient d'écrire un essai avec des majuscules et un langage très alarmiste, et que c'est suffisamment convaincant pour qu'il soit transmis. Mais imaginez maintenant qu'il s'agisse d'une image représentant quelque chose de faux, le potentiel de propagation de cette image, encore plus rapide que celui de la désinformation, est énorme.
Seher Shafiq: [00:11:23] Je voudrais aussi parler un peu de l'analyse augmentée, parce que nous venons de parler du fait que les candidats politiques ne s'adressent pas à ceux qui sont le moins susceptibles de voter, et j'ai été bénévole pour des campagnes politiques et j'ai vécu toute l'expérience d'obtenir une liste électorale et d'aller dans un quartier. Il faut frapper à certaines portes parce qu'elles sont signalées comme des gens étant les plus susceptibles de voter. Et pour les autres, on ne perd pas son temps parce qu’on n'a pas assez de temps pour aller à chaque porte. Alors pourquoi le ferait-on ? Les élections sont en quelque sorte des jeux. C'est littéralement un jeu. Il s'agit de savoir quel est votre pouvoir de persuasion pour aller physiquement à la rencontre des gens qui vont voter, et dans quelle mesure vous pouvez le faire par rapport aux autres partis politiques. Ainsi, lorsque l'on dispose d'analyses améliorées et de microdonnées encore plus précises sur les personnes qui vont voter, pourquoi irait-on dans un immeuble d'habitation de Toronto où il n'y a personne sur la liste qui a été signalée comme ayant voté dans le passé ? Pourquoi y perdre son temps ? C'est déjà le cas, et je me suis porté volontaire pour un candidat qui se rendait encore dans ces bâtiments. Nous avons frappé à la porte de chaque personne et on nous a dit : « Personne ne vient jamais ici. Cela ne sert à rien. Vous n'êtes là que pour prendre mon vote, et vous n'allez pas faire ce qui est bon pour nos communautés ». Cela peut donc perpétuer la gamification des campagnes politiques et des stratégies de campagne et renforcer les inégalités qui existent dans le système. Parce que les stratégies de campagne consistent à frapper à la porte et à recueillir les votes. Et le fait est que l'on ne peut pas faire du porte-à-porte auprès de chaque personne.
Elizabeth Dubois: [00:12:58] Oui, exactement. À moins que vous ne soyez au Yukon, où il y a si peu de gens que vous pourriez vous rendre à chaque porte. Dans une circonscription du centre-ville de Toronto ou dans toute autre zone importante, nous ne serons pas en mesure de voir les campagnes se rendre à chaque porte. Ils doivent faire des choix, et ils le font, comme vous le dites, d'une manière qui ne fait qu'accentuer les divisions entre ceux qui sont susceptibles de voter et ceux qui ne sont pas susceptibles de voter. Et cela a toutes ces répercussions systémiques. Et c'est vraiment un problème lorsqu'il y a des groupes particuliers de personnes qui ont des besoins particuliers et qui ne sont pas invités à participer au processus de façon systématique. Il est intéressant de noter qu'en ce qui concerne l'IA, les discussions sur les biais et la discrimination intégrés dans les outils d'IA portent généralement sur la manière dont l'outil a été formé à l'automatisation de l'analyse et sur les données de formation utilisées. Mais ce que vous soulevez, je pense que c'est vraiment important dans la mesure où la façon dont les outils d'intelligence artificielle sont utilisés et incorporés dans les campagnes, même si l'outil lui-même a été conçu de manière à disposer d'une grande variété de données d'entraînement, d'une grande variété de perspectives impliquées dans la construction de l'outil, lorsqu'il est mis en œuvre dans notre structure de campagne, il va toujours être utilisé d'une manière qui amplifie ce type de divisions.
Seher Shafiq: [00:14:29] En effet. Et même lorsque ces analyses sont utilisées non pas pour des stratégies de campagne mais pour prédire les résultats des élections, la même chose peut se produire avec ces communautés. Je pense aux élections de 2022 en Ontario, où le taux de participation a été le plus faible de toute l'histoire de la province, avec 43%, et je me souviens de cette course. Je me rappelle que la plupart des gens que je connais avaient l'impression qu'il ne servait à rien de voter parce qu'ils savaient qui allait gagner les élections. Et puis il y a ces robots d'IA comme Polly, qui prédit les résultats des élections. Et je pense… d'accord, disons que Polly avait prédit que Doug Ford allait gagner, n'est-ce pas ? Polly analyse l'opinion publique, le sentiment public. Il s'agit d'analyser qui tweete à propos de quoi et quelle langue ils utilisent. Bien sûr, il s'agit d'un processus très complexe, qui ne saisit que des données qui existent en ligne. Il saisit seulement les données des personnes qui participent à des conversations sur l'élection. Qu'en est-il des personnes qui se trouvent dans les bâtiments du TCHC [Toronto Community Housing] que j'ai mentionnés et qui en parlent avec leurs amis, mais qui savent qu'il ne sert à rien de s'engager parce que l'élection est déjà gagnée.
Elizabeth Dubois: [00:15:41] Oui. Ou qui en parlent en ligne dans une langue à laquelle Polly n'a pas été particulièrement bien formée. Ainsi, les données sont peut-être ignorées parce qu'elles ne sont pas rédigées dans une langue importante, ce qui donne l'impression qu'il s'agit d'une proportion minime. Mais si l'on dispose d'un grand nombre de langues à faible proportion, on finit par exclure une part importante de la population.
Seher Shafiq: [00:16:04] En effet, c’est la langue, mais c'est aussi le fait de savoir s'ils s'engagent en ligne et où ils s'engagent. Ce qui est tordu, c'est que cela pourrait très bien être le cas et nous avons les chiffres pour le démontrer. Il se pourrait très bien que la majorité des Ontariens n'aient pas voulu voter pour Doug Ford, mais cette donnée n'a pas été prise en compte. Et ce sentiment ne s'est pas reflété dans toutes les interviews accordées par les médias, qui ont dit : « Voici la position du parti. Voici la popularité de chaque parti ». Il s'agit donc d'un message trompeur adressé au public, qui a conduit les gens à penser que leur vote n'avait pas d'importance. Cela ne sert à rien.
Elizabeth Dubois: [00:16:43] Oui. L'idée que les sondages réalisés au cours d'une campagne influencent les choix des citoyens n'est pas nouvelle. Mais je pense que ce qui est nouveau dans la manière dont ces outils d'IA sont utilisés pour essayer de faire, essentiellement, une version des sondages, c'est qu'ils traitent tellement de données et qu'ils sont présentés comme « Wow, regardez à quel point cette technologie est incroyable. C'est une boîte noire, mais c'est tellement cool qu'il faut lui faire confiance ». Et puis il y a les reportages qui utilisent des informations provenant de ces systèmes. Et nous ne comprenons même pas nécessairement comment les systèmes fonctionnent, qui a été oublié dans les calculs qui ont été faits. Pourtant, ils ont plus de pouvoir qu'un sondage téléphonique traditionnel parce qu'ils sont nouveaux et axés sur la technologie, et que nous ne les comprenons pas assez bien pour les critiquer.
Seher Shafiq: [00:17:34] En effet. C'est ce qui arrive lorsque l'on dispose d'une IA brillante et qu'elle fait l'objet d'un grand battage médiatique. Mais qui s'assoit vraiment pour déballer cette boîte noire et y jeter un coup d'œil pour voir ce qu'elle contient ? Et c'est une grande partie du travail de Mozilla. Nous avons récemment publié un rapport sur le corpus Common Crawl, qui est la base de données utilisée par un grand nombre de modèles linguistiques pour les entraîner, et sur tous les biais inhérents qu'elle contient. Je sais que c'est un peu différent de l'exemple de Polly dont nous parlons en ce moment, mais c'est un concept similaire : si vous ouvrez la boîte noire et que vous y mettez de la lumière, qu'allez-vous trouver ? Et quel est l'impact sur le comportement des électeurs ?
Elizabeth Dubois: [00:18:13] Absolument. Nous renverrons à toutes les informations publiques dont vous disposez à ce sujet. Mais je voudrais changer un peu de vitesse, parce que nous avons surtout critiqué l'IA jusqu'à présent. Et je pense que nous avons très bien réussi à mettre en évidence un grand nombre de problèmes. Mais il y a aussi des avantages potentiels, n'est-ce pas ? Vous avez mentionné, dans l'introduction, quelques-unes des façons dont l’IA pourrait être utilisée pour le bien. Parlons de certains d'entre eux. Selon vous, comment ce type d'outils pourrait-il être utilisé pour inviter les gens à participer au système politique et faire en sorte que davantage de personnes issues des groupes sous-représentés votent ?
Seher Shafiq: [00:18:46] Effectivement, il y a tellement de possibilités d'utiliser cette technologie également pour le bien. Je commencerai par parler de la manière dont les gens finissent par voter. Il ne suffit pas d'arriver au Canada ou d'avoir 18 ans pour s'engager civiquement et vouloir voter à chaque élection jusqu'à la fin de sa vie. Il y a un long chemin à parcourir pour y parvenir, et cela implique de se sentir à sa place au Canada, de faire confiance au système, de s'engager dans la vie civique et d'avoir une expérience positive, puis d'approfondir cet engagement au point de finir par voter. Plus tard, dans ce spectre d'engagement, on peut se présenter à des élections ou faire plus que voter. Surtout dans le cas des communautés marginalisées, beaucoup d'entre elles ne se voient pas représentées dans le système politique. Les premières recherches universitaires montrent que lorsque cela se produit, ces communautés sont moins susceptibles de s'engager. Ainsi, lorsque nous parlons de deepfakes et de contenu généré, nous avons désormais le pouvoir de produire très rapidement du matériel qui trouve un écho auprès de diverses communautés. On peut prendre des documents d'information sur les électeurs, par exemple ceux d'Élections Canada. Ils devraient le faire.
Elizabeth Dubois: [00:20:04] [Rires]
Seher Shafiq: [00:20:04] J'espère qu'ils sont en train d’écouter. Ainsi, ils pourraient prendre le matériel d'information des électeurs et générer très rapidement du matériel culturellement adapté qui est ensuite partagé avec différentes communautés. Les organisations communautaires et les organisations à but non lucratif peuvent faire de même.
Elizabeth Dubois: [00:20:19] Oui, absolument. Et ce type d'utilisation de ces outils, je pense que beaucoup d'organisations, en particulier une organisation comme Élections Canada, où la confiance dans leur système est très importante. Ils hésitent à commencer à utiliser ce type d'outils par crainte de réactions négatives, n’est-ce pas ? L'une de mes questions est donc de savoir comment signaler l'utilisation appropriée de ces outils et comment s'assurer qu'ils sont bien utilisés pour concevoir des contenus et des messages adaptés à la culture, par exemple. Le cas qui me vient à l'esprit et qui, selon moi, met en lumière certains des problèmes qui se posent ici est celui d'un candidat à la mairie de New York, je crois, lors des dernières élections municipales, qui ne parlait pas espagnol, mais qui disposait d'une vidéo où il s'exprimait en espagnol et délivrait les mêmes messages que ceux qu'il avait délivrés en anglais. Il ne s'agissait donc pas de dire « Oh, vous dites une chose à une communauté et quelque chose d'autre à une autre communauté ». D'une part, cela permettait de toucher une population de personnes qui appréciaient probablement beaucoup de recevoir ce contenu dans leur langue maternelle, et d'autre part, cela donnait l'impression qu'il parlait espagnol et qu'il était donc plus proche de cette communauté. Ce qui pose problème, selon moi, c'est qu'il n'a pas révélé qu'il s'agissait d'un message généré par un outil d'IA et qu'ils avaient celui-ci. Je pense que la révélation est un élément essentiel. Quels sont les autres éléments essentiels pour s'assurer que ces outils sont utilisés d'une manière qui reste digne de confiance et éthique, n’est-ce pas ?
Seher Shafiq: [00:21:57] Il est intéressant que vous parliez d'un candidat politique et je pense aux informations sur les électeurs d'Élections Canada, parce que c'est le point de vue que j'adopte. Mais vous avez raison, il faut aussi prévoir des garde-fous. Le potentiel d'exploitation de cette technologie par des acteurs bienveillants est énorme, si l'on peut dire. Comme les organismes de gestion des élections, les organisations communautaires pour atteindre ces publics. Mais il est certain que l'exemple que vous venez de donner soulève de nombreuses questions. Le fait qu'il ne parle pas espagnol, l'aspect de la non-révélation, mais aussi le fait que les communautés ne se limitent pas à leur langue. Par exemple, il ne suffit pas de prendre une vidéo d'un candidat et de le faire parler en espagnol pour convaincre les communautés que ce candidat est là pour elles. Les communautés s'en rendront compte. Mais pour répondre à votre question, je pense qu'il faut, à une époque où il est si facile et si rapide de produire ce matériel, et où l'impact des dommages est tellement élevé, qu’il est nécessaire d'actualiser les règles des campagnes politiques. Il doit y avoir une sorte de révélation. Il doit y avoir des règles concernant le niveau de « fausseté », c'est le mot qui me vient à l'esprit. On ne peut pas fabriquer des choses qui n'existent littéralement pas et les utiliser comme matériel de campagne. Il y a là un élément éthique. Je ne sais pas à quoi cela ressemble, mais il faut qu'il y ait des mises à jour, et très rapidement, parce que cette technologie progresse si vite et elle est si accessible à tout le monde. Il convient d'actualiser les règles de la campagne afin d'empêcher cette tromperie massive de personnes déjà vulnérables à la manipulation et à la tromperie par la fausse information et la désinformation intentionnelle. Je ne sais donc pas quelle est la réponse, mais...
Elizabeth Dubois: [00:23:40] Oui, je pense que nous allons tous travailler dans ce sens. Nous allons établir des normes. En fait, je pense que les organismes de gestion électorale comme Élections Canada, par exemple, ou les groupes de la société civile qui ne sont pas affiliés à un parti politique spécifique, peuvent jouer un rôle dans l'établissement de normes et dans l'adoption d'approches fondées sur l'exemple. Ils pourraient commencer à utiliser ces outils d'une manière transparente, clairement expliquée et comprise, de manière à impliquer des groupes qui ne le sont pas habituellement, mais pas d'une manière trompeuse comme le sont les campagnes de désinformation.
Seher Shafiq: [00:24:21] Oui, en particulier les organisations communautaires. Lorsque je travaillais avec eux, il y avait un tel appétit pour l'information des électeurs et pour que nous venions faire des présentations avec leurs clients d'une manière qui soit vraiment adaptée à ce groupe démographique. Et imaginez ce que l'on pourrait faire de plus si une partie de ce contenu était facilement généré, facilement personnalisé et plus facilement accessible. Les organisations communautaires pourraient économiser beaucoup d'argent en exploitant certaines de ces informations. Il ne s'agit pas de la confier entièrement à l'IA, mais de l'utiliser comme un outil permettant d'embaucher davantage de personnel.
Elizabeth Dubois: [00:24:58] Oui, absolument. Je pense qu'il y a de nombreuses opportunités. Je pense qu'une chose que j'essaie toujours de mentionner à ce stade dans une conversation comme celle-ci, c'est que beaucoup de ces outils semblent être gratuits parce qu'ils sont encore en train de former les outils et que les données que vous y mettez sont utilisées. Respectez donc la règle générale de ne pas télécharger de données personnelles lorsque vous essayez d'utiliser ces outils pour informer votre stratégie de campagne, votre approche, etc. Mais il y a certainement des façons d'expérimenter avec ces outils qui pourraient être vraiment utiles.
Seher Shafiq: [00:25:30] C'est certain.
Elizabeth Dubois: [00:25:31] D'accord. L'un des thèmes du balado cette saison a été l'évolution de l'influence personnelle sur la politique grâce à la technologie. Ainsi, lorsque je parle d'influence personnelle, je me réfère à la théorie de la communication politique, à l'idée des leaders d'opinion. Si vous ne savez pas de quoi il s'agit, vous pouvez écouter nos épisodes précédents [Consultez : La théorie de la communication à double étage avec Nick Switalski et Influence personnelle en politique], dont vous trouverez les liens dans les notes de l'émission. Mais l'essentiel est que j'ai été très intéressée par la façon dont le rôle des gens dans le partage d'informations avec leurs amis et leur famille influence leurs opinions, leurs comportements et leurs attitudes, comment tout cela change avec la technologie. Nous avons consacré un épisode au « one-step flow » et la personnalisation., en nous penchant sur des sujets tels que l'analyse augmentée et le micro-ciblage, et sur la manière dont les données relatives aux personnes peuvent être utilisées pour les cibler d'une manière telle que leurs amis et leur famille n'ont peut-être pas besoin d'être les « cibleurs », n'est-ce pas ? Le rôle des amis et de la famille n'est pas aussi important, car vous pouvez les joindre directement, ce qui est discutable quant à savoir si fonctionne réellement ou non. Je me demande si vous voyez comment ces outils d'IA générative dont nous avons parlé pourraient remplacer, augmenter ou modifier ce type d'influence personnelle, de pression sociale, de soutien social. Puis-je faire une partie du travail que font les amis et la famille pour convaincre les gens de voter, de se préoccuper du changement climatique ou de toute autre question politique ?
Seher Shafiq: [00:26:56] Je pense qu'il y a un certain spectre dans le niveau auquel ces influenceurs peuvent avoir un impact sur les opinions et les comportements. Si vous regardez TikTok et tout le contenu qui y est diffusé sur de nombreux sujets de niche qui vous sont proposés en fonction de vos centres d'intérêt, [c'est] très convaincant. J'ai beaucoup appris sur TikTok. J'ai beaucoup appris sur des points de vue différents, ou j'ai approfondi certaines choses qui me passionnent. Et cela m'influence parce que la personne qui me parle est quelqu'un qui me ressemble, c'est quelqu'un qui parle comme moi, c'est quelqu'un qui résonne avec moi et je comprends. Donc oui, dans une certaine mesure, il y a un aspect informatif et éducatif qui fonctionne. En ce qui concerne le vote, je ne pense pas que le matériel généré par l'IA en ligne puisse influencer le fait de prendre une demi-heure de sa journée pour quitter son travail et se rendre au bureau de vote. Le vote ne prend que quelques minutes. Il ne s'agit même pas de cela. Mais pour ce qui est de se rendre physiquement sur place et de faire quelque chose, je ne pense pas que l'IA aura autant d'influence que les humains, et la raison en est qu'il n'y a pas de confiance. Non, pas qu'il n'y ait pas de confiance, mais ce n'est certainement pas le même niveau de confiance que si votre sœur vous disait : « Prenons un café et votons en allant au travail aujourd'hui. »
Elizabeth Dubois: [00:28:14] En effet. Je peux même m’imaginer un environnement d'information où nous apprendrons comment ces outils seront intégrés et comment nous négocierons, en tant que société, ce qui est acceptable et ce qui ne l'est pas. Je peux même m’imaginer une situation dans laquelle nous deviendrons encore plus dépendants de nos amis, de notre famille et de nos collègues parce que, comme vous l'avez décrit plus tôt, cet environnement d'information peut être inondé d'une grande quantité d'informations. Une partie de ces informations est de la désinformation, une autre partie ne l'est pas, mais tout n’est pas pertinent. Et vers qui nous tourner ? En quoi avons-nous confiance ? Si les gens perdent déjà confiance dans les médias, ils perdent aussi confiance dans les politiciens, les partis politiques et les gouvernements. Je peux m’imaginer un monde où nous nous tournons de plus en plus vers nos amis et notre famille pour essayer de savoir si nous allons ou non prendre en compte un message que nous voyons en ligne.
Seher Shafiq: [00:29:07] En effet. Et même lorsqu'on pense aux campagnes politiques, il y a une raison pour laquelle tant d'efforts sont déployés pour faire du porte-à-porte. C'est parce que nous savons que c'est ce qui poussera réellement quelqu'un à se rendre physiquement aux urnes. Les campagnes ont la possibilité d'atteindre toutes ces personnes en ligne et de bien d'autres manières, même pas en ligne, même de manière tangible, avec des prospectus, etc. Mais il est prouvé que lorsqu’on fait du porte-à-porte, il y a plus de chances que la personne aille voter. Donc, oui, il y a quelque chose dans la connexion humaine qui ne sera jamais, jamais remplacée. Et je pense que l'influence est l'une de ces choses.
Elizabeth Dubois: [00:29:40] Effectivement. Et ce que vous dites résonne vraiment avec ce que disait Hamish Marshall, qui a participé à l'épisode sur sur le « one-step flow » et la personnalisation. C'est un directeur de campagne conservateur expérimenté et un stratège numérique, et c'est exactement ce qu'il disait. Nous pourrions parler de tout cela encore longtemps, mais nous manquons de temps. Avant de conclure, je voudrais m'assurer que nous avons un peu de temps pour parler de ce que nous ferons ensuite, n’est-ce pas ? Nous disposons d'un environnement d'information où nous savons que des outils d'IA sont utilisés dans les élections. Qui est concerné ? Comment y faire face ? Que faire face à ce manque de confiance dans l'information électorale ? Comment faire en sorte que les personnes les plus exposées dans une telle situation ne soient pas encore plus marginalisées et placées dans des positions encore plus risquées ? Avez-vous des solutions à nous proposer ?
Seher Shafiq: [00:30:32] J'ai quelques idées à ce sujet. Je pense que, tout d'abord, l'aspect de la littératie numérique est fondamental et, comme je l'ai dit, il a un impact sur ceux qui sont déjà les plus marginalisés. Nous devrions donc financer des organisations communautaires pour qu'elles s'occupent de la littératie numérique et de l'engagement civique, en particulier pendant les cycles électoraux. Les organisations communautaires sont celles qui connaissent le mieux leurs données démographiques. Les dirigeants communautaires sont ceux qui savent le mieux s'adresser à leurs communautés. Nous devrions les aider à réduire cet écart. Je pense que les règles relatives aux campagnes politiques, dont nous avons parlé avant, doivent être mises à jour afin d'interdire la production de contenus truqués destinés à tromper les électeurs. Le risque de biais est trop élevé pour que nous n'adaptions pas les règles relatives aux campagnes politiques afin de tenir compte des moyens dont disposent aujourd'hui les campagnes. Enfin, je pense que les plateformes de médias sociaux ont la responsabilité d'empêcher la diffusion de fausses informations et de désinformations, ce qui devient plus difficile lorsqu'elles ont toutes licenciés leurs équipes chargées de la confiance et de la sécurité [Consultez: Tech layoffs ravage the teams that fight online misinformation and hate speech]. Il y a donc aussi cela. Nous pourrions consacrer un épisode entier du podcast à ce sujet. Dans le même temps, les gouvernements font pression sur les entreprises de médias sociaux pour s'assurer qu'elles se comportent de manière responsable et ne propagent pas de fausses informations ou de la désinformation. Ce sont donc trois choses pour commencer.
Elizabeth Dubois: [00:31:52] C'est très bien, et j'aime vraiment que ces trois choses pour commencer, qui sont toutes des choses assez importantes, illustrent vraiment l'interdépendance de tout cela. Nous avons besoin d'un grand nombre de personnes différentes pour résoudre ce type de problème et générer de nouvelles normes et règles sur la manière dont nous allons gérer cette technologie intégrée dans nos campagnes.
Seher Shafiq: [00:32:15] Oui, c'est très complexe.
Elizabeth Dubois: [00:32:17] En effet. Très bien, dernière question. C'est l'exercice typique du balado. Nous avons donc passé tout ce temps à parler de l'IA et des élections. Pouvez-vous me dire en quelques mots comment vous définiriez l'intelligence artificielle?
Seher Shafiq: [00:32:37] Je pense que l'intelligence artificielle est tout ce qui génère un nouveau contenu sur la base des données qui ont été introduites dans une machine ou un algorithme.
Elizabeth Dubois: [00:32:47] Oui, je pense que c'est très bien. Je pense que cette définition fonctionne très bien pour l'IA générative. Je dirais simplement que nous pourrions l'élargir un peu. Il ne s'agit pas nécessairement de générer un nouveau contenu. Cela peut générer de nouvelles idées ou d'autres choses. S'il s'agit d'outils d'analyse augmentée, par exemple.
Elizabeth Dubois: [00:33:05] Génial. Merci beaucoup d'avoir discuté avec moi. C'était une excellente conversation. Bon. Voilà notre épisode sur l'IA et les élections. J'espère que vous l’avez apprécié. Comme toujours, nous avons des liens vers un grand nombre de ressources dans les notes de l'émission et dans les transcriptions annotées que nous avons mises à disposition sur notre site web. Il est disponible en anglais et en français. Rendez-vous donc sur polcommtech.com. Je tiens également à souligner que mon enregistrement provient du territoire traditionnel et non cédé du peuple algonquin, et je tiens à rendre hommage au peuple algonquin, en reconnaissant sa relation de longue date avec ce territoire non cédé. Merci d'avoir écouté.
Comments