top of page
Radio show microphones

Wonks and War Rooms

clipart1711928.png
Flux RSS Icon_White
Icône Spotify_Blanc
Icône de podcasts Google_White.png

L'utilisation de l'IA en politique canadienne

Saison : 5 épisode : 5 [télécharger cet épisode (MP3, 38.4MB) (en anglais uniquement)]

[Veuillez noter que le contenu du balado est traduit de la version originale anglaise.]


Dans cet épisode spécial, Elizabeth est rejointe par notre groupe d'experts — Samantha Bradshaw, Wendy Chun, Suzie Dunn, Fenwick McKelvey et Wendy H. Wong — pour une table ronde sur la manière dont l'intelligence artificielle est déployée dans les contextes politiques canadiens. Les sujets abordés varient de la désinformation, de la reconnaissance faciale, des médias synthétiques, des deep fakes et du clonage vocal à des termes techniques tels que les RAG et les grands modèles de langage. Nous discutons des façons dont les identités peuvent être manipulées par l'IA, de la façon dont l'IA générative crée un contenu qui dilue notre confiance dans les images et les médias, et de la façon dont l'IA s'appuie sur des données passées pour prendre des décisions concernant notre avenir. Nous examinons également des solutions potentielles à tous ces défis, y compris la manière de développer des outils et des techniques pour détecter la désinformation, et les questions relatives à la réglementation de l'IA tout en permettant son utilisation à des fins d'expression créative.


Cet épisode contient plus de ressources qu'il n'est possible d'en énumérer ci-dessous, alors jetez un coup d'œil à la transcription annotée pour trouver d'autres liens!

Ressources supplémentaires :

 

Transcription traduite de l'épisode : L'utilisation de l'IA en politique canadienne


Lisez la transcription traduite ci-dessous ou téléchargez une copie dans la langue de votre choix :


Elizabeth: [00:00:04] Bienvenue à Wonks and War Rooms, où la théorie de la communication politique rencontre la stratégie sur le terrain. Je suis votre hôtesse, Elizabeth Dubois. Je suis professeure agrégée à l'Université d'Ottawa et fellow du Berkman Klein Center. Mes pronoms sont « elle » et « la ». Aujourd'hui, nous avons un épisode spécial pour vous. Il s'agit de l'enregistrement d'un épisode en direct de Wonks and War Rooms que nous avons réalisé sur l'utilisation de l'IA dans la politique canadienne. J'espère que vous apprécierez. Samantha, pouvez-vous vous présenter, s'il vous plaît?


Samantha: [00:00:31] Oui, sans aucun doute. Merci beaucoup, professeure Dubois, d'avoir organisé cet événement. Je m'appelle Samantha Bradshaw et je suis professeure assistante à l'American University. J'étudie les nouvelles technologies et les questions de sécurité. Une grande partie de mon travail a porté sur les campagnes de désinformation en ligne. J'ai vraiment hâte d'être ici.


Elizabeth: [00:00:49] Merci. Suzie.


Suzie: [00:00:51] Bonjour à tous. Je vous remercie de m'avoir invité à venir m'entretenir avec vous tous. J'ai vraiment hâte de participer à la conversation. Je m'appelle Suzie Dunn. Je suis assistante professeure à la faculté de droit Schulich de l'université Dalhousie. La plupart de mes recherches portent sur une variété de ce que j'appelle la manipulation de l'identité. Je m'intéresse donc beaucoup aux deepfakes et aux images générées. Je mène également des recherches sur la violence facilitée par la technologie et les préjudices en ligne, ainsi que sur la manière dont l'IA peut causer des préjudices dans les espaces numériques.


Elizabeth: [00:01:21] Génial. Nous vous remercions. Et Wendy W.


Wendy W: [00:01:24] Bonjour et merci de m'accueillir. Je m'appelle Wendy Wong. Je suis professeure de sciences politiques et titulaire d'une chaire de recherche sur les principes à l'université de Colombie-Britannique. Je m'intéresse à la gouvernance mondiale et aux relations internationales, et je fais de la recherche sur les droits de l'homme depuis une vingtaine d'années. Je passe actuellement beaucoup de temps à réfléchir à la gouvernance des technologies à forte intensité de données telles que l'IA, c'est-à-dire à la manière dont nous devrions les gouverner, à la manière dont elles nous gouvernent, et aux implications politiques et sociales auxquelles nous devrions réfléchir. J'ai publié un livre en octobre chez MIT Press intitulé « We the Data Human Rights in the Digital Age ». Et je me réjouis de notre discussion d'aujourd'hui.


Elizabeth: [00:02:00] Merci, Fenwick.


Fenwick: [00:02:03] Bonjour, Elizabeth. C'est un plaisir d'être ici. Je m'appelle Fenwick McKelvey. Je suis professeur associé en politique des technologies de l'information et de la communication à l'Université Concordia. Je suis également codirecteur du nouvel Institut d'IA appliquée de l'Université Concordia, où nous examinons de nombreuses questions relatives à la gouvernance de l'IA et aux moyens de répondre aux impacts sociaux de l'IA. Je dirige également les agences de machines à l'Applied AI Institute, qui est un pôle de recherche consacré à l'intersection des agences humaines et des agences de machines. C'est un sujet qui me tient particulièrement à cœur aujourd'hui. Je pense que depuis longtemps, je me concentre sur la longue histoire de ce que l'on pourrait appeler l'intelligence artificielle en politique et je travaille sur un projet de livre sur l'histoire de l'utilisation des ordinateurs dans la politique américaine pour résoudre ses problèmes politiques internationaux et nationaux. J'ai donc hâte d'offrir un contexte historique, et peut-être de présenter certains de nos travaux antérieurs sur les robots politiques et d'autres aspects de la longue histoire du big data dans la politique au Canada. Nous vous remercions.


Elizabeth: [00:03:01] Nous vous remercions. Et Wendy C.


Wendy C: [00:03:04] Bonjour à tous. Je suis Wendy Chen. Je suis titulaire de la chaire de recherche Canada 150 sur les nouveaux médias à l'université Simon Fraser, professeure de communication et directrice du Digital Democracies Institute, où nous nous penchons sur certaines questions relatives à la polarisation, à la désinformation, mais où nous réfléchissons aussi de plus en plus à ce que nous appelons la fluidité des données. Il s'agit donc de réinventer, d'intervenir, de s'exprimer différemment et de résister à ce monde rempli de données dont nous faisons partie.


Elizabeth: [00:03:37] Nous vous remercions. Et je suis Elizabeth Dubois. Comme Florian l'a mentionné, je suis professeure associée à l'Université d'Ottawa au sein du département de communication. Je suis également titulaire d'une chaire de recherche universitaire en politique, communication et technologie. Et je dirige le laboratoire Pol Comm Tech. Cette année, je suis membre du Berkman Klein Center à Harvard. Donc, aujourd'hui, au lieu de commencer par le typique « moi » qui donne une définition du sujet pour que vous me disiez si cela a du sens ou non, je me suis dit que, puisque nous avons une telle brochette d'experts, je vous laisserais chacun me dire comment vous voyez ce qu'est l'IA et peut-être donner quelques exemples d'IA en politique au Canada, ceux qui vous intéressent le plus, les choses qui vous semblent les plus importantes dont nous parlons, quelle que soit la définition que vous voulez donner à ce terme. Je vais donner à chaque personne environ une minute pour parler de certaines de ces utilisations de l'IA envisagées de manière assez générale, puis nous entrerons dans les détails. Alors pour celui-ci, puis-je commencer par Suzie?


Suzie: [00:04:37] Bien sûr. Oui, c'est vrai. Je me penche donc sur un domaine très spécifique de l'intelligence artificielle. Je m'intéresse vraiment à la manière dont les identités peuvent être manipulées et cooptées par l'IA. Et parfois, cela prend la forme d'une désinformation ou d'un manque d'information. D'autres fois, c'est sous forme de satire. Je me penche donc beaucoup sur ce que nous appelons les médias synthétiques. On en parle souvent sous la forme de « deepfakes ». Je pense qu'il s'agit plutôt de vidéos manipulées. Il s'agit donc de fausses vidéos créées pour faire dire et faire des choses que les gens n'ont ni dites ni faites. Plus récemment, nous avons assisté à une véritable montée en puissance des images générées par l'IA. Ainsi, Midjourney, Dall-E, Stable Diffusion sont maintenant utilisés pour créer de fausses images d'hommes politiques, de faux événements historiques, de faux événements politiques. Ils font l'objet d'une grande attention de la part des médias en ce moment. Le clonage de la voix est un domaine dont on ne parle pas assez, mais qui me semble très intéressant. Il s'agit donc d'imiter la voix des gens, et je donnerai quelques exemples plus tard dans la conversation. Mais il existe des entreprises comme Descript qui permettent aux gens de mettre leur voix dans cette technologie. Vous pouvez alors taper ce que vous voulez et obtenir une réplique qui ressemble exactement à la voix d'une personne qui dit des choses qu'elle n'a jamais dites. Des conversations ont également eu lieu récemment autour de ChatGPT, selon lesquelles si vous interrogez ChatGPT ou l'un de ces grands modèles de langage sur une personne en particulier, posez-leur des questions sur un homme politique.


Suzie: [00:06:02] Vous pouvez le faire à votre sujet. S'il y a des choses sur vous sur Internet et que cela crée un texte sur une personne qui n'est pas toujours exact, il y a une certaine confusion quant à l'exactitude du contenu créé par ChatGPT. Il nous a été demandé de réfléchir aux défis et aux opportunités qu'offre cette technologie. Ainsi, certains des défis - il y a deux côtés aux défis de cette question. Tout d'abord, les gens croient aux faux contenus. Certains contenus seront donc suffisamment réalistes pour que, lorsqu'ils seront partagés sur l'internet, les gens pensent qu'il s'agit en fait d'un homme politique en train de faire quelque chose. Cela changera la façon dont les gens votent. Cela changera l'opinion que l'on a d'un homme politique en particulier. Il y a donc un risque que cette désinformation soit crue. Mais en réalité, l'une des questions les plus importantes qui se posent et qui seront les plus délicates à traiter est celle de la dilution de notre confiance dans les images et les vidéos. Auparavant, nous faisions davantage confiance aux images et aux vidéos, ainsi qu'à ce que nous lisions. Et de la même manière que nous avons toujours dû être critiques à l'égard des médias écrits, je pense que nous allons devoir être très vigilants en regardant des vidéos et des images sans nécessairement croire qu'elles sont réelles.


Suzie: [00:07:08] C'est donc un défi à relever. Et une grande partie des discussions sur les contenus générés par l'IA à propos des hommes politiques ont été plutôt négatives : ils peuvent causer de nombreux préjudices, perturber la vie politique, avoir un impact sur les élections, et cetera, et cetera. Mais l'utilisation de ce type de contenu offre également de nombreuses possibilités. Witness a publié un excellent rapport intitulé Just Joking, qui traite des deux aspects de la question : il est clair que le contenu est préjudiciable, il est clair que le contenu est satirique ou parodique ou qu'il s'agit d'un commentaire politique, et il y a une sorte de zone grise obscure. Mais de nombreux artistes et activistes utilisent le contenu généré par l'IA pour attirer l'attention sur des problèmes, même lorsqu'ils imitent nos dirigeants politiques. Ils le font d'une manière qui pourrait être plus évidente. Il est clair qu'il s'agit d'une parodie et qu'ils l'utilisent peut-être pour attirer l'attention sur des questions environnementales ou sur des problèmes de violence sexuelle. Il existe donc des utilisations créatives et positives de ce type d'IA.


Elizabeth: [00:08:03] Merci beaucoup. Passons maintenant à Wendy W.


Wendy W: [00:08:07] D'accord. Je pense donc que nous avons une excellente occasion de parler, à ce stade de l'histoire, des technologies qui entrent dans le cadre de ce que nous appelons l'IA. Je pense qu'en ce moment, il y a beaucoup d'intérêt, de fascination et d'horreur de la part du public. Mais... C'est vrai. Je ne pense pas qu'il soit évident que nous sachions réellement ce que nous voulons dire lorsque nous parlons d'IA, en particulier dans le discours public. Et je pense que nous en sommes au point où nous devons mieux comprendre de quoi nous parlons. Ainsi, certaines des choses que nous pouvons qualifier d'IA ou des choses comme les résultats que nous obtenons à partir des grands modèles de langage auxquels Suzie vient de faire référence, par exemple, devraient - ces résultats devraient nous inciter à réfléchir non seulement au texte et aux erreurs, mais aussi à la manière dont l'IA analyse, crée et diffuse ce contenu sur la base des données que nous avons créées. Et, vous savez, ou de penser différemment. Qu'en est-il des technologies de reconnaissance faciale? Il s'agit donc de technologies qui utilisent les données de notre visage pour nous comparer à d'autres visages afin de déterminer si une personne est bien celle que nous pensons qu'elle est. Ce type de technologie utilise également l'IA, ou nous pouvons penser aux chatbots IA, pas seulement ChatGPT, mais aussi à ces chatbots qui sont utilisés pour imiter les gens. Il en va de même pour des entreprises comme Replika, par exemple, qui crée des personnes synthétiques avec lesquelles converser, ou des robots qui utilisent les données des personnes pour, je cite, « les recréer » en tant que formes d'interaction pour d'autres personnes dans le monde.


Wendy W: [00:09:42] Il s'agit là d'exemples d'utilisation de l'IA. Je pense qu'il est très important de connaître les différences et les préoccupations en jeu lorsqu'il s'agit de ces différents types d'IA, car ils touchent tous à diverses façons d'exercer nos droits fondamentaux en tant qu'êtres humains, nos droits de l'homme. J'espère pouvoir en parler un peu plus aujourd'hui. On entend souvent parler de ces remises en cause de nos droits comme, entre guillemets, de « préjudices » qu'il convient de limiter. Mais je pense que nous devons réfléchir à la manière dont l'IA modifie fondamentalement nos expériences humaines. Il ne s'agit donc pas seulement de dommages, mais aussi de notre vie en général. C'est pourquoi je pense qu'en ce moment même, l'une des choses auxquelles nous devons penser en ce qui concerne la politique autour de l'IA est d'encourager et de créer des cadres de réflexion sur l'importance de l'alphabétisation numérique pour la participation démocratique. J'ai écrit à ce sujet il y a quelques semaines dans le Globe and Mail avec ma collègue Valérie Kindarji. Nous avons notamment soulevé la question de savoir ce que nous avons besoin de savoir, en tant que public, pour décider des types d'automatisation, d'apprentissage automatique ou d'IA avec lesquels nous sommes à l'aise en tant que société.


Elizabeth: [00:11:00] Nous vous remercions. Passons maintenant au Fenwick.


Fenwick: [00:11:03] Oui, je pense toujours qu'une grande partie de mon travail s'intéresse à cette sorte d'intersection entre la gouvernance de l'IA et le fait que je pense que nous pouvons l'envisager sous deux angles. La première consiste à examiner toutes les façons dont l'intelligence artificielle est aujourd'hui proposée comme solution à de nombreuses facettes différentes. Et là, je sortirais du cadre des campagnes politiques pour penser qu'il s'agit d'une solution à bon nombre de nos problèmes politiques. Ainsi, une partie de mon travail avec mon collègue, le Dr. Sophie Toupin, a en quelque sorte mis l'accent sur la façon dont l'IA est proposée comme solution au système d'immigration défaillant du Canada. La complexité de ce système, qui est en fait un site d'automatisation, montre que l'IA est actuellement un outil qui nous permet de réparer les choses. Il s'agit également d'un aspect auquel les campagnes politiques peuvent être confrontées ou non, comme l'ont été les versions antérieures de la législation canadienne sur les préjudices en ligne. Encore une fois, je voudrais féliciter Wendy pour avoir souligné l'importance des préjudices en tant qu'outil de cadrage particulièrement important. Les préjudices en ligne sont un autre domaine où l'on fait pression pour avoir des outils de modération de contenu par l'IA, des moyens d'intelligence artificielle capables de détecter et d'arrêter les discours problématiques, ainsi que certains de mes travaux antérieurs au CRTC sur l'utilisation de l'IA pour bloquer les appels frauduleux, ce qui est un mandat que nous vivons actuellement.


Fenwick: [00:12:22] Je dis cela parce qu'il est important de prêter attention à la manière dont l'intelligence artificielle change la façon dont les gouvernements et la politique fonctionnent en tant qu'outil très actif utilisé aujourd'hui pour automatiser un grand nombre de nos décisions réglementaires. Ce que je voulais souligner et qui me tient vraiment à cœur en ce moment, ce sont certains des autres travaux que je mène avec le Dr. Toupin et Maurice Jones autour de consultations au Canada. Une grande partie des consultations que nous avons eues autour de l'intelligence artificielle se sont faites par le biais de textes et d'outils de consultation très superficiels. Et je pense qu'il manque ce point d'alphabétisation qui vient d'être mentionné. Et je pense que l'un des aspects qui m'a le plus marqué dans ce groupe de travail est le fait qu'une grande partie de la façon dont nous envisageons les activités du gouvernement est basée sur des textes et limitée dans sa portée. Cela en fait un site de choix pour l'automatisation et les moyens d'utiliser des soumissions manipulées. Pour moi, l'aspect de la question sur lequel je voudrais insister à la fin est la capacité de nos institutions démocratiques et le peu d'investissement qu'elles ont fait dans la consultation publique, ce qui en fait, je pense, une cible toute désignée pour une utilisation potentiellement abusive des contenus synthétiques dont mes collègues ont parlé.


Elizabeth: [00:13:31] Nous vous remercions. Samantha.


Samantha: [00:13:32] Génial. Oui, c'est vrai. Une grande partie de mon travail a donc porté sur les opérations d'influence, les opérations d'influence étrangère et la manière dont les mauvais acteurs utilisent des bots ou de la propagande informatique pour influencer les élections et les citoyens du monde entier. Si l'on se penche sur les détails de ces campagnes, on s'aperçoit que la plupart d'entre elles ne sont pas très sophistiquées. Ils utilisent ce que de nombreux chercheurs en exploitation de l'information appellent des « copypasta », c'est-à-dire du texte copié-collé à l'infini pour amplifier un certain type de message ou de récit et essayer d'atteindre le plus grand nombre possible de globes oculaires. Cela peut se faire manuellement ou à l'aide de ce que l'on appelle parfois des « bots », c'est-à-dire des morceaux de code automatisés conçus pour imiter le comportement humain. Ils vont donc souvent, comme partager, retweeter ce message encore et encore. Et il est très facile de détecter ce type de comportement. Mais, vous savez, les plateformes disposent de nombreux outils pour identifier les mauvais acteurs qui utilisent ce type de techniques très sophistiquées. Mais lorsque nous y réfléchissons aujourd'hui dans le contexte de l'IA, de nombreuses questions se posent sur la manière dont l'IA peut améliorer ce type de comportements et de récits truqués. Si l'on prend l'exemple de ChatGPT 3, la façon dont les grands modèles de langage modifient la propagande basée sur le texte . Il ne s'agit plus seulement de copier-coller du texte. Si un modèle linguistique peut produire des itérations très différentes d'un message ayant la même signification fondamentale, cela peut contribuer à réduire le coût de production et de diffusion de la propagande et de la désinformation. Cela peut contribuer à réduire le coût de la production et de la diffusion de la propagande et de la désinformation, et permettre à un plus grand nombre d'acteurs d'entrer dans cet espace.


Samantha: [00:15:23] Nous pouvons également réfléchir à cette question dans le contexte de ce que Suzie a évoqué à propos de la génération d'images. Dans le passé, de nombreuses opérations d'information consistaient à voler des photos, mais aujourd'hui, nous avons constaté que de nombreux faux comptes utilisent des réseaux antagonistes génératifs ou RAGs pour créer une fausse photo de profil d'une personne qui n'est pas réelle mais qui pourrait ressembler à un membre d'une communauté que l'on essaie d'influencer. Cela peut être utilisé pour atteindre les bonnes personnes avec le bon message et rendre la détection par les gens ordinaires beaucoup plus difficile. Lorsque je réfléchis aux défis et aux opportunités, je pense que les questions de confiance évoquées par Susie sont vraiment très importantes, mais aussi les questions relatives à la détection et à la manière dont nous allons développer des outils et des techniques permettant d'identifier ces campagnes. Vous savez, les questions relatives à la responsabilité de chacun - quand devons-nous - à quel moment devons-nous intervenir? Quelles sont les stratégies d'intervention appropriées? Faut-il étiqueter ce type de contenu, ce type de comptes? Je pense qu'il y a beaucoup de questions sans réponse ici. Voilà donc les questions auxquelles je réfléchis beaucoup.


Elizabeth: [00:16:43] Incroyable. Nous vous remercions. Et Wendy Chen.


Wendy C: [00:16:45] Ce qui nous préoccupe le plus, c'est la manière dont les défauts techniques sont en fait porteurs de valeurs et d'hypothèses sociales et politiques. Ainsi, tous ces systèmes, qu'ils soient propriétaires ou non, perpétuent certaines notions sur la relation entre le passé et l'avenir ainsi que sur la ségrégation. Si vous réfléchissez à la manière dont ces programmes sont formés, ils sont formés à partir de données antérieures, n'est-ce pas? De nombreuses études ont montré que si le passé est biaisé, il produira des biais, car c'est la vérité de base. Mais ce qui est également essentiel, c'est qu'elles ne sont validées comme étant correctes que si elles prédisent le passé, n'est-ce pas? En fait, ils ne sont pas testés sur leur capacité à prédire l'avenir, mais plutôt sur un ensemble de données passées qui ont été mises de côté. Cela signifie donc que l'avenir doit répéter le passé à l'intérieur de certains écarts types. Il s'agit donc d'une fermeture de l'avenir qui, par essence, fait partie de tous ces systèmes. Cela ne devrait pas nous surprendre, car un grand nombre de techniques, comme la corrélation par régression linéaire et logistique, etc., qui sont si importantes, sont en fait issues de l'eugénisme du XXe siècle. L'idée était de pouvoir déterminer ce qui ne changeait pas dans l'ordre afin de pouvoir créer une certaine forme d'avenir. Un autre élément clé est qu'un grand nombre de ces systèmes, si l'on pense à la manière dont les systèmes non supervisés regroupent les éléments ou aux systèmes de recommandation, etc., sont construits sur la notion d'homophilie, c'est-à-dire l'idée que la similarité engendre la connexion, n'est-ce pas? Tous ces systèmes supposent donc que vous soyez regroupés avec des personnes qui sont, entre guillemets, « comme vous ». Cela signifie donc, en substance, que la polarisation n'est pas une erreur, mais plutôt un objectif.


Wendy C: [00:18:34] Et ce qui est essentiel dans le choix de ces « likes » qui définissent ces groupes, c'est qu'ils choisissent ceux qui sont les plus conflictuels. Ce n'est donc pas la chose la plus populaire, mais celle qui divise le plus clairement les populations. La notion même d'homophilie est issue d'études réalisées au XXe siècle, au milieu du XXe siècle, sur la ségrégation résidentielle aux États-Unis. La logique de la ségrégation est donc intégrée dans ces systèmes. Cela dit, ce que je trouve productif ou intéressant dans ces systèmes, c'est de les utiliser à contre-courant. Si vous réfléchissez à certains de ces programmes qui se sont révélés discriminatoires, tels que COMPAS, le système utilisé pour prédire le risque de récidive dans certains tribunaux aux États-Unis, il a été démontré qu'ils étaient biaisés à l'encontre de certaines minorités raciales. Il y a une façon de prendre leurs prédictions et de dire ah-ha! Ce qu'il révèle, c'est ce qui se passera à l'avenir si nous ne changeons pas nos pratiques actuelles. L'exemple qui me vient toujours à l'esprit est celui des modèles de changement climatique mondial. Lorsqu'un modèle de changement climatique mondial nous indique l'avenir le plus probable sur la base de nos actions passées. C'est le moment d'intervenir. Nous ne l'acceptons pas et nous ne disons pas : « D'accord, c'est comme ça, mais changeons les choses ». Et nous essayons de changer le monde, pas le modèle. Nous ne pensons pas qu'il s'agisse d'une erreur de modèle. Je pense donc que si nous réfléchissons ensemble aux limites mais aussi aux possibilités de ces éléments, nous pourrons trouver différentes façons de comprendre la politique, les interventions et les possibilités.


Elizabeth: [00:20:10] Merci beaucoup. Il y a tellement de choses à faire ici. Il y a tellement de points d'intersection entre toutes vos idées. Nous n'aurons pas assez de temps, mais faisons de notre mieux. Je pense que c'est le bon moment pour passer un peu de temps à réfléchir aux campagnes électorales, parce qu'elles sont en quelque sorte le moment où les utilisations politiques sont mises en lumière. Les utilisations politiques potentielles font l'objet d'une attention beaucoup plus grande, qu'il s'agisse de la couverture journalistique ou de l'expérience des citoyens ordinaires. Fen, vous pouvez peut-être nous présenter un bref historique de l'utilisation de l'IA, en revenant sur les utilisations des données dont vous avez parlé dans votre introduction. Et peut-être que Wendy Wong pourra également intervenir sur le front des données, mais nous commencerons par Fen.


Fenwick: [00:21:02] Oui, c'est vrai.


Fenwick: [00:21:03] Je commencerai par dire que le projet de livre, que j'étudie, porte sur l'utilisation des ordinateurs dans la politique américaine depuis au moins les années 1960. Je pense qu'il est vraiment important d'être conscient du fait que notre vision du fonctionnement de la politique est désormais totalement liée aux ordinateurs. S'il y a un élément à prendre en compte, c'est que nous sommes tellement convaincus que la politique est une affaire de calcul. Lorsqu'une nouvelle technologie informatique apparaît, nous la considérons comme une perturbation très radicale du fonctionnement de la politique. Et s'il y a une idée à retenir, c'est la façon dont nous pouvons utiliser ou essayer de réfléchir à la façon dont nous sommes en quelque sorte limités par le fait de penser que la politique fonctionne ou ne fonctionne pas avec les ordinateurs. Chen, je pense qu'il s'agit en partie d'une sorte de politique de l'avenir et de la manière dont nous envisageons les conséquences des ordinateurs dans notre réflexion sur l'avenir politique. Je pense que ce n'est pas le fait d'avoir une réponse qui fait partie du projet, mais c'est le fait d'être conscient qu'il y a eu, vous savez, une promesse que les ordinateurs allaient perturber la politique depuis les années 1960. L'une des tensions que nous vivons est que, depuis 70 ans, on vend les technologies comme un changement perturbateur dans l'informatique et dans la politique. Et c'est un point sur lequel je voudrais insister. Et je pense qu'il faut faire attention à ce que cela devienne une compétence, parce que si c'est le cas, alors ce que nous faisons en partie ici, c'est être capable de dénoncer des choses qui ne sont que des arguments de vente, des sornettes, vous savez, la façon polie de le dire, ils essaient de vendre les gens parce qu'il est si facile - d'être - d'être trompé en pensant que cette nouvelle application ou cette nouvelle technologie va radicalement perturber la politique.


Fenwick: [00:22:46] Je pense que c'est l'une des raisons pour lesquelles je dis qu'il est important de prêter attention à l'ancienneté de ces applications, car il est difficile de dire s'il s'agit d'une véritable nouveauté ou simplement de la dernière itération d'innovations qui se sont produites. Si vous parlez de ciblage ou de microciblage, vous le savez depuis au moins les années 1970. Je dirai que les campagnes peuvent être envisagées de deux manières et je serai bref : il y a des choses qui affectent les campagnes et d'autres que les campagnes essaient de faire elles-mêmes. Ainsi, en ce qui concerne les campagnes politiques, l'intelligence artificielle et l'IA générative ont de réelles implications pour la publicité en ligne. Les campagnes vont être affectées par les changements et la manière dont elles peuvent utiliser l'IA générative dans leur ciblage, ainsi que les personnes avec lesquelles elles essaient de se connecter, et la manière dont l'industrie va évoluer. Ainsi, dans un sens, je pense que la nature changeante de la publicité en ligne . Parce que c'est vraiment la proposition de valeur d'une grande partie de ChatGpt, va simplement générer plus de contenu de faible qualité pour la publicité, ce qui est, je pense, une partie importante de la question de savoir ce qu'il y a de perturbateur à ce sujet? Mais je pense aussi que les campagnes vont devoir s'y retrouver et que cela aura également un impact sur les zones qu'Elizabeth a identifiées, les zones grises de la publicité, les influenceurs, les robots, ces types de publicité seront également des tendances que les campagnes vont devoir gérer.


Fenwick: [00:24:05] À l'inverse, les campagnes font des choses. Et l'une des choses pour lesquelles elles utilisent des données est de prendre de meilleures décisions. Ce qu'ils essaient de faire, c'est de maximiser leurs dépenses pour s'assurer d'avoir plus d'électeurs et plus d'argent. L'une des façons dont l'IA pourrait déjà avoir un impact, bien qu'il soit difficile d'en être sûr, est l'analyse des données que toutes les campagnes effectuent pour pondérer leurs écrits, prendre des décisions sur qui est un électeur stratégique ou non, ou sur le message qui sera testé. L'intelligence artificielle va devenir un important outil de prise de décision. Des entreprises comme Blue State Digital ont déjà promis d'utiliser des personas d'intelligence artificielle pour tester leurs messages. Ce changement interne met l'accent sur la manière dont les campagnes utilisent les données, ont utilisé les données pour prendre des décisions sur les électeurs et sur la manière dont l'intelligence artificielle pourrait avoir un impact sur ces décisions.


Elizabeth: [00:24:54] C'était fantastique. Fenwick Merci beaucoup. Lors des élections fédérales de 2015 au Canada, Fenwick et moi-même nous sommes penchés sur les bots politiques dans les campagnes. Sam a déjà défini le bot pour nous, ce qui est très utile, mais c'est cette sorte de pratique et d'expérimentation continues qui, selon moi, est vraiment intéressante dans les campagnes. Si l'on ajoute à cela la très, très longue histoire de l'utilisation de données sur les personnes pour faire des choix, on obtient une image importante et intéressante, car elle n'est pas totalement perturbatrice. Tout d'un coup, nous avons une nouvelle approche de la campagne. L'IA est utilisée pour modifier les habitudes existantes. Et il y a cette histoire sur laquelle nous devons nous appuyer. Alors, oui, merci beaucoup, Fenwick, pour cela. C'est très utile. L'une des choses que vous avez dites m'a fait penser à l'idée de la promesse de l'IA par rapport à ce que l'IA peut réellement faire. Et cela me fait penser à l'affaire Cambridge Analytica et à tout cela, la peur de ce que l'entreprise a dit qu'elle pouvait faire par rapport à ce qu'elle a réellement fait. Et il a fallu beaucoup de temps pour déterminer quelles étaient les implications réelles. Et parfois, nous ne connaîtrons même pas les implications réelles. Mais le potentiel et le mythe ont également un impact politique, rien que l'idée que cela pourrait se produire. Je voulais donc passer la parole à Samantha pour une minute, car je sais que vous avez beaucoup réfléchi à l'idée d'une ingérence étrangère et à la possibilité pour différents types d'acteurs d'utiliser des approches informatiques. Parfois, nous les voyons se concrétiser, parfois non, mais ils ont tout de même eu un impact politique du simple fait de leur présence potentielle. Pouvez-vous nous en dire un peu plus à ce sujet?


Samantha: [00:26:39] Oui, c'est vrai. Je pense que ce qui est vraiment intéressant à propos de l'impact potentiel par rapport à l'impact réel lorsque l'on introduit l'idée de l'IA dans cette question, c'est que nous commençons déjà à voir des recherches qui montrent que beaucoup de ces modèles de langage génératifs peuvent produire des messages de propagande qui sont tout aussi crédibles ou persuasifs que les campagnes et les messages que nous avons vus dans le passé. D'excellentes recherches sont donc en cours. L'un de mes anciens collègues, Josh Goldstein, a mené une série d'expériences au cours desquelles il a montré à des participants des messages issus de véritables campagnes de propagande, puis a généré des messages similaires à l'aide de ces grands modèles de langage. Et la plupart du temps, ils étaient tout aussi persuasifs, voire plus, que la propagande réellement produite. Je pense que cela a des implications très importantes lorsque nous réfléchissons à l'IA dans le contexte des opérations d'information, de la politique et de l'avenir de notre démocratie. En effet, lorsque les messages deviennent plus crédibles, ils peuvent avoir un impact beaucoup plus important que ce que nous voyons actuellement avec des bots qui diffusent des messages à grande échelle et, vous savez, nous revenons à l'idée qu'ils sont également beaucoup moins faciles à découvrir que par le passé. Si les messages sont hautement adaptés et personnalisés et qu'ils sont générés par ces grands modèles linguistiques, comment pouvons-nous les détecter? Parce que ce n'est pas comme une image ou comme un RAG où l'on peut chercher des indicateurs techniques indiquant que quelque chose a été artificiellement imagé ou artificiellement créé. C'est un peu plus difficile avec le texte. Je sais qu'il existe des méthodes et que des personnes développent de nouvelles technologies pour y parvenir, mais je pense que nous devons tenir compte de différents défis lorsque nous réfléchissons à l'avenir de l'IA et des opérations d'influence à l'étranger.


Elizabeth: [00:28:44] Nous vous remercions. Je me demande, Suzie, si vous voulez participer à ce projet? Je sais que vous avez fait beaucoup de choses qui commencent à se connecter ici.


Suzie: [00:28:51] Oui, c'est vrai, c'est vrai, c'est vrai, c'est vrai. Il s'agit par exemple de déterminer les moments de la réglementation et d'examiner certaines des tendances qui se dessinent dans le monde entier. Certaines lois ont été introduites dans des endroits comme la Californie, où le délai est de 60 jours avant une élection. Vous n'avez pas le droit d'utiliser de faux deepfakes. Mais en dehors de cette période, il peut être approprié d'utiliser des deepfakes dans un contexte politique. Au Canada, l'article 91 de la Loi électorale du Canada stipule qu'il est interdit, pendant les élections, de diffuser des informations fausses sur une personne. Mais il est intéressant de voir quand nous réglementons ce type de contenu à la fois dans le cadre juridique et dans le contexte des médias sociaux. Parce que quand je pense au clonage de voix, beaucoup de sociétés de clonage de voix, celles qui sont légitimes, disent généralement que seul « vous » pouvez recréer votre voix. Vous savez, vous n'avez pas le droit de faire la voix de quelqu'un d'autre. Il existe donc des obstacles à la création de l'IA. Mais on ne constate pas les mêmes tendances dans la création d'images. On ne voit pas les mêmes tendances dans la création de vidéos en disant que la seule personne sur laquelle on a le droit de faire du faux contenu, c'est soi-même. Je pense donc qu'il existe également des moyens par lesquels les entreprises peuvent créer une réglementation en la matière. Et les règles que nous voyons dans des sites comme Twitter, TikTok et Facebook disent généralement, vous savez, vous ne devriez pas utiliser des médias synthétiques qui peuvent causer des dommages extrêmes, n'est-ce pas? Mais quelle est la définition de ce que peut être le préjudice? Parce qu'il y a une telle variété.


Suzie: [00:30:22] Quand on pense à certaines des fausses images qui sont apparues récemment, comme l'arrestation de Trump, n'est-ce pas? Il y a eu ce journaliste néerlandais Eliot Higgins, qui, vous savez, a déclaré que Trump allait être arrêté. Ce projet a fait l'objet d'un grand battage médiatique. Et puis ces fausses images ont été diffusées, ce qui peut très facilement être repris par des théoriciens du complot ou d'autres personnes qui espèrent ce type d'action. Vous savez, et il y a cette limite, vous savez, quand devrions-nous autoriser la création de ce type d'images? Parce qu'ils peuvent provoquer le chaos. Vous savez, il y a des images moins nocives comme le Pape et la veste Balenciaga. C'est vrai. Ce qui a aussi, vous le savez, des impacts politiques inhabituels, mais généralement assez inoffensifs. Je pense donc que cette définition est aussi celle de ce qui dépasse en fait ce que nous pensons devoir être limité. Et je pense que, jusqu'à présent, lorsque nous réfléchissons à certaines limites, les personnalités politiques sont souvent exclues de certaines protections juridiques lorsqu'il s'agit de la manipulation de leur image et des propos tenus à leur sujet. Mais comme nous nous dirigeons de plus en plus vers l'IA générative dans ces vidéos et contextes manipulés, nous devons nous demander quelles sont les limites de tout cela. Ensuite, les défis liés à la détection. Vous savez, les exemples de « deepfakes » que nous avons vus jusqu'à présent n'ont pas été très efficaces. Quand on pense à l'affaire du président ukrainien, hum, deepfake qui a été publiée et qui disait que vous.


Suzie: [00:31:38] Les troupes ukrainiennes doivent se rendre. Cette affirmation a été démentie assez rapidement. Nous n'avons donc pas encore vu beaucoup d'exemples qui ont eu un véritable impact. Mais je pense que nous allons nous battre pendant les prochaines années pour savoir comment définir ce que nous pensons être nuisible, comment le réglementer? Comment les entreprises de médias sociaux le réglementent-elles? Quels sont les garde-fous que nous devons mettre en place pour permettre l'utilisation créative de l'expression à travers ces différentes formes d'IA? On a beaucoup parlé ces derniers temps de l'interdiction de certaines formes d'IA, de l'interdiction de la reconnaissance faciale, de l'interdiction du développement de l'IA. Il y a une semaine ou deux, une lettre a été publiée sur la question de savoir si nous devrions arrêter le développement de ce type d'IA. Et je pense qu'il y a une vraie question sur la nature du préjudice réel à laquelle nous devons réfléchir en profondeur. Et il y a des exemples qui sont clairement nuisibles, comme une grande partie de mes recherches sur les « deepfakes » sexuels. Et je pense qu'il est assez facile d'établir des règles autour de ces questions, par exemple, nous ne devrions pas permettre que ce type de technologie soit utilisé contre des personnes telles que des journalistes comme Rana Ayyub, une journaliste indienne qui critiquait le gouvernement indien et qui a été victime de « deepfakes » sexuels, utilisés pour la discréditer. Mais je garde un œil sur cette conversation : qu'est-ce qui est préjudiciable, qu'est-ce qui dépasse les limites, quand devons-nous réglementer et quand devons-nous créer des garanties qui permettent de protéger certains de ces préjudices potentiels dont nous ne savons pas encore ce qu'ils sont. Il s'agit en grande partie de spéculations.


Elizabeth: [00:33:02] Nous vous remercions. Je l'apprécie vraiment beaucoup. Et, vous savez, du point de vue des élections aussi, il y a des choses comme vous ne pouvez pas dire à quelqu'un de se rendre au mauvais bureau de vote ou que le jour de l'élection a changé ou que vous pouvez envoyer votre vote par texto. Ce genre de choses. Il y a des choses où l'on se dit, oui, il est évident que c'est quelque chose qui ne devrait pas être autorisé. Mais vous avez raison, il y a une zone d'ombre. Le préjudice est vraiment difficile à définir. J'ai pensé que Wendy Wong voudrait peut-être intervenir sur ce sujet parce que vous avez parlé de l'idée de préjudice et de son lien avec les droits de l'homme.


Wendy W: [00:33:38] Oui, c'est vrai. C'est donc une conversation fascinante, car je pense que les autres intervenants ont vraiment abordé l'idée du choix de l'automatisation, n'est-ce pas? Le choix d'utiliser l'IA. Et ce que cela signifie, je pense, c'est la façon dont nous envisageons nos interactions sociales et politiques et la nécessité d'automatiser et d'utiliser les technologies de l'IA pour gagner, vous savez, obtenir des avantages dans un processus électoral ou pour traiter les informations que nous recevons ou pour créer certains de ces, vous savez, deepfakes et autres résultats automatisés que nous voyons là-bas et qui soulèvent vraiment des questions sur ce que nous voyons, à quel point c'est réel. Et donc, vous savez, je veux réfléchir à la façon dont les choses dont Suzie et Samantha parlent en particulier façonnent vraiment la façon dont nous apprenons et ce que nous savons, n'est-ce pas? C'est bien là le problème. Et je pense que les inconvénients sont souvent évoqués de manière très vague, comme d'autres l'ont fait remarquer. Et je pense que c'est en fait problématique parce qu'il y a des droits fondamentaux qui sont restreints, qui sont, vous savez, handicapés et blessés parce que nous n'avons pas accès à des informations fiables ou crédibles. C'est vrai. Il ne s'agit donc pas seulement de la liberté d'expression ou de l'idée que nous devrions tous avoir la liberté de conscience, mais nous pouvons réfléchir à la manière dont cette liberté pourrait être restreinte, si ce à quoi nous sommes exposés n'est tout simplement pas authentique ou n'est pas inventé ou fabriqué. Mais nous pouvons ensuite réfléchir à d'autres façons dont nos droits peuvent être affectés.


Wendy W: [00:35:10] Comme pour la liberté de réunion, si vous ne savez pas ce qui se passe, il est très difficile de résister, de savoir en quoi vous croyez, de trouver d'autres personnes qui pensent comme vous ou de discuter d'une manière qui est si fondamentale pour notre démocratie. Je pense aussi, comme vous y avez fait allusion, Elizabeth, que le droit de vote, n'est-ce pas? Je veux dire qu'il ne s'agit pas seulement d'être informé du mauvais lieu de vote. Il s'agit en fait d'être un citoyen informé et de savoir quel est le bon choix pour vous en tant qu'individu. Vous savez, je pense que nous pouvons continuer, vous savez, nous pouvons réfléchir à la manière dont cela affecte nos droits à l'éducation, aux types d'informations auxquelles nous sommes exposés, au type d'alphabétisation dont nous disposons réellement. Je pense que c'est à ce type de préjudice que nous devrions réfléchir. Nous devrions envisager de fonder cette idée non seulement sur les préjudices à court terme que de nombreuses personnes ont déjà soulignés, tels que les préjugés raciaux et la discrimination. Il s'agit là de dommages certains. Et nous pouvons constater qu'il s'agit là de violations des droits de l'homme. Mais à plus long terme, la qualité de l'information influe sur la façon dont nous nous percevons en tant qu'individus, sur nos sociétés, et donc sur la façon dont nous nous engageons les uns envers les autres, sur la façon dont nous exerçons nos droits. Vous savez, les choses que nous lisons, voyons et entendons influencent notre perception du monde. Alors comment pouvons-nous, surtout dans une démocratie comme le Canada, être des citoyens efficaces et engagés si nous ne pouvons pas vraiment être sûrs de ce que nous regardons et voyons?


Elizabeth: [00:36:34] Nous vous remercions. Et j'ai vu de nombreux hochements de tête de la part des autres panélistes à ce sujet. C'est très délicat parce que l'intérêt de ces types de préjudices potentiels plus spécifiques et plus petits qui sont abordés est qu'ils peuvent être bien délimités ou à peu près. Même ceux qui sont bien délimités deviennent rapidement indisciplinés. Mais lorsque nous passons à un niveau supérieur et que nous réfléchissons à la manière dont nous nous percevons et à la manière dont cela joue dans la démocratie, cela devient vraiment difficile d'un point de vue réglementaire et juridique. Je me demande si quelqu'un veut participer à cette idée. Où allons-nous, où allons-nous, en reconnaissant qu'il existe des possibilités très étendues. Il faut y réfléchir et il existe un potentiel de préjudice, mais aussi un potentiel d'opportunité et de droit à l'égalité. D'accord, mais que faisons-nous dans les détails pour nous assurer que le bien public est préservé?


Suzie: [00:37:40] Eh bien, je pense qu'il y a une chose à ajouter à ce que Wendy a dit également. Je pense qu'il y a beaucoup de battage médiatique autour de l'idée que l'IA va tuer le monde, et qu'il y a une véritable peur autour de l'IA. Et parfois, les dommages auxquels nous pensons sont vraiment exagérés. Et lorsque nous nous projetons dans l'avenir, nous nous demandons si l'IA va apprendre à se reprogrammer et à mettre hors service tous nos réseaux électriques. Et, vous savez, nous n'aurons même pas d'élections. Et je pense qu'il y a une partie de ce récit qui est en cours. Mais en réalité, je pense que ce dont Wendy parle, c'est que nous connaissons déjà beaucoup des méfaits de l'IA, en particulier ce que Wendy Chen disait à propos de l'idée qu'en s'appuyant sur l'IA pour créer la réalité de notre monde, nous ne faisons que reproduire tous ces problèmes et nous nous enfermons dans le passé et nous nous enfermons dans le racisme, nous nous enfermons dans le sexisme, nous nous enfermons dans ce même type de violations des droits de l'homme que nous avons vu maintes et maintes fois et maintes fois. Je pense donc que lorsque nous réfléchissons à ce sur quoi nous devons vraiment nous concentrer, je pense qu'il y a ces exemples très clairs que nous avons vus sur la façon dont l'IA provoque des préjugés discriminatoires à l'encontre des groupes qui recherchent l'égalité, et que nous pouvons peut-être nous concentrer sur certaines de ces questions qui sont vraiment importantes.


Suzie: [00:38:53] Et je pense que c'est plus délicat quand on pense à la façon dont l'IA est utilisée pour créer des mèmes, des blagues et d'autres choses, en particulier avec beaucoup de ces groupes de l'alt-right, qui sont utilisés pour déshumaniser les groupes racialisés, qui sont utilisés pour déshumaniser les femmes qui sont, vous savez, qui légitiment ensuite la discrimination à leur encontre. Il est en effet plus difficile de trouver comment les réglementer. Mais lorsque nous réfléchissons à la réglementation de l'IA et à certaines des discussions que nous devons avoir, je pense qu'il existe des idées très concrètes sur lesquelles nous pouvons nous concentrer dès maintenant, plutôt que de penser à l'exemple de Terminator, mais plutôt à la façon dont ces biais sont reproduits et à ce que nous pouvons faire concrètement. Parce qu'il y a cette mythologie autour de l'IA selon laquelle il n'y a aucune chance que nous puissions résoudre ces problèmes. Il n'est pas possible d'imposer aux créateurs d'IA des exigences telles que l'égalité et la sécurité dans les processus qu'ils mettent en œuvre pour créer ces technologies. Il y aurait peut-être lieu de réglementer la profession des personnes qui créent ce type de technologie afin qu'elles prouvent au moins qu'elles tiennent compte de ces éléments, ce qui n'est manifestement pas le cas à l'heure actuelle. Et cela entraîne des préjudices réellement discriminatoires.


Samantha: [00:40:05] Et je peux également intervenir ici, en m'appuyant sur ce qu'a dit Suzie, en pensant à la profession. Si l'on considère les personnes qui conçoivent un grand nombre de ces systèmes, on constate qu'il s'agit généralement d'ingénieurs masculins blancs basés dans la Silicon Valley. Le reste du monde n'est donc pas très bien représenté, même si ces technologies ont un impact sur toutes sortes de personnes et de manières très diverses. Dès lors, comment intégrer de manière significative des voix différentes et alternatives dans le processus de conception? Car il ne s'agit pas seulement d'embaucher plus de femmes ingénieurs ou plus d'ingénieurs noirs, il s'agit aussi de leur donner des postes significatifs au sein des entreprises pour qu'ils puissent faire la différence et apporter leur expérience vécue à la table afin que nous puissions commencer à éliminer certains préjugés et avoir d'autres voix et d'autres idées dans les processus de conception de ces systèmes qui ont de plus en plus d'impact sur nos vies et sur la politique.


Wendy C: [00:41:08] Par ailleurs, je pense que nous avons également besoin de repenser fondamentalement la méthodologie. Si nous réfléchissons à tous les systèmes dont nous parlons, nous constatons qu'ils reposent sur une surveillance élargie. Ainsi, le suivi des clics des utilisateurs, des clics de souris, etc. Il y a une logique de surveillance qui est intégrée à cela et aussi à toute la notion, trop tardive, du droit de démolir des choses. C'est vrai? Le problème avec le droit d'être effacé est que nous devons parler du droit de ne pas être pisté en premier lieu. Cela signifie qu'il faut repenser fondamentalement non seulement les lois sur la protection de la vie privée, mais aussi les lois sur notre présence en public. Parce que le problème avec la façon dont les gens parlent de la vie privée, c'est que « si les entreprises de médias sociaux ne partageaient pas leurs données avec d'autres, tout irait bien », ce qui est complètement faux. Et c'est donner cette notion de vie privée à une enceinte que nous devons remettre en question. Et beaucoup de choses dont nous parlons en termes d'images synthétiques, etc. Ceux-ci proviennent de bases de données publiques ou de la notion selon laquelle dès que vous publiez quelque chose, vous êtes public et une fois que vous êtes public, vous renoncez à vos droits. Je pense donc que, compte tenu de la manière dont nos images et nos activités sont rendues publiques, nous devenons, par essence, des célébrités, et ainsi de suite, et nous sommes traités comme tels. Nous devons réfléchir à des façons plus rigoureuses d'envisager la vie en public. Parce que ce qu'il est si important de penser en termes de médias sociaux ou de social, c'est qu'ils mélangent délibérément le public et le privé. Et nous devons être en mesure de traiter en termes de droits et de réflexion ces systèmes qui les mélangent délibérément et ne pas penser uniquement en termes d'anciennes versions de la vie privée qui ne fonctionnent pas parce qu'il y a toutes sortes de données déduites, et cetera, mais aussi cet autre aspect, qui est que nous voulons être - il y a l'engagement public qui fait partie de la démocratie et comment pouvons-nous protéger cet engagement public?


Wendy W: [00:43:05] Je pense que ce que vous venez de dire est très intéressant, Wendy, parce que, vous savez, je pense que nous réfléchissons au même problème, mais je n'y pense pas en termes de changement de nos idées sur le public, mais en termes de changement des normes relatives à la collecte de données sur nos activités, sur nos comportements. Vous savez, j'étudie ou je réfléchis beaucoup sur les données et la datafication de la vie humaine. Le lien avec l'IA, bien sûr, est que l'IA ne fonctionne que si l'on dispose d'un grand nombre de données à trier et à mettre en commun. C'est vrai. L'IA ne fonctionne pas en l'absence de cette énorme quantité de données sur le comportement humain. J'aime donc ce que vous venez de dire, Wendy, à propos de l'évolution des idées du public. Je pense également que nous devons changer nos idées sur la question de savoir s'il est acceptable de collecter des données sur chaque activité et chaque pensée que nous avons aujourd'hui. On parle souvent de l'utilisation des données, n'est-ce pas? Les données peuvent-elles être partagées? À mon avis, la collecte de données a fondamentalement changé l'expérience humaine. Qu'elles puissent être partagées ou non n'a pratiquement aucune importance, car une fois collectées, les données sont comme éternelles. Je veux dire qu'il n'y a vraiment aucun moyen de vérifier où vont les données, si elles ont été supprimées, qui les utilise ou qui utilise les données collectées.


Wendy W: [00:44:17] Dans ce sens, vous savez, en pensant à la datafication et à son lien avec l'IA, la datafication de notre société, d'une part, a permis de mettre au point des technologies fantastiques que nous avons toujours dans nos poches. Ils facilitent la démocratie, n'est-ce pas? Ils facilitent certaines des choses dont nous parlons. Mais l'aspect négatif est le suivant. Il y a tellement d'informations sur les détails de notre vie quotidienne qu'il s'agit d'un changement fondamental dans l'existence humaine. Nous n'avons jamais connu cela auparavant. Je pense qu'à l'heure actuelle, la réglementation doit s'attaquer à ce problème, et pas seulement par le biais du consentement. Il est impossible que chacun d'entre nous puisse consentir à la collecte de données. Je veux dire que nous voulons juste en finir avec cela pour pouvoir faire notre transaction et aller de l'avant. Ce que nous devons faire, c'est repenser ce niveau de consentement individuel. Par ailleurs, je pense que les gouvernements doivent vraiment être conscients des effets collectifs des données. Vous savez, je pense, Wendy, que vous avez commencé à parler de données inférées. Je veux dire qu'il s'agit d'une question de regroupement, comme vous l'avez mentionné précédemment, n'est-ce pas? Comment réunir le groupe? Ces regroupements sont importants parce qu'ils ne sont pas le fruit d'une décision consciente de notre part. Ils sont fabriqués par des algorithmes. Il s'agit là d'une différence politique et sociale très importante, que le fait de dire « je suis d'accord » ne résout absolument pas. Et nous continuons à penser que tous les mécanismes réglementaires existants croient fondamentalement au niveau individuel de consentement.


Fenwick: [00:45:33] Je pense que c'est aussi un bon point pour intervenir et expliquer pourquoi nous nous trouvons à un carrefour très important. La Chambre [des communes] est actuellement saisie du projet de loi C-27? J'oublie toujours le nombre de projets de loi ici. Il s'agit d'un projet de loi sur la réforme de la protection de la vie privée, qui comprend également une loi sur l'intelligence artificielle et les données (Artificial Intelligence and Data Act - AIDA) et certains aspects structurels de ce projet de loi sont vraiment en décalage avec ce qui est discuté ici. Il existe un réel désir d'intégrer les données anonymes et dépersonnalisées, qui ne sont pas soumises aux mêmes obligations en matière de consentement. Il s'agit donc d'une préoccupation qui va encourager la collecte massive de données tant qu'elle n'implique pas d'informations personnelles individuelles, ce qui n'est pas le cas, je pense que le thème abordé ici est celui de la responsabilité en la matière. En outre, pour en revenir à la politique de l'IA, je tiens à dire qu'une partie de ce projet de loi n'apporte pas ce dont on parle depuis des années, à savoir la protection de la vie privée, le droit à la vie privée ou les attentes en matière de protection de la vie privée pour les partis politiques. C'est quelque chose que l'on préconise depuis des années, qui semble être une solution facile, mais qui n'existe pas. J'aimerais donc attirer l'attention de mes auditeurs sur le fait qu'il est important de prêter attention à ce moment précis, car ce sont précisément ces débats qui seront soulevés lorsque le projet de loi C-27 et le projet de loi AIDA seront adoptés par l'Assemblée. Et s'il y a une opportunité de s'engager, de faire pression pour plus d'attention, pour les droits collectifs, pour plus d'attention, je pense aux risques et aux conséquences pour la déduction ainsi qu'aux obligations pour les parties sur la façon dont elles collectent les données, deux fois maintenant.


Elizabeth: [00:46:59] Merci, Fen. C'est très utile. La semaine dernière, dans le budget, il a été annoncé que les partis politiques n'étaient pas obligés d'adhérer aux législations existantes en matière de protection de la vie privée. Et donc, oui, vous avez raison. Le moment est venu. Le temps est également compté pour cet appel. Nous avons eu une très bonne conversation. Nous pourrions passer en revue bien d'autres sujets, mais il ne nous reste que quelques minutes. Je vais donc demander à chacun de conclure en 30 secondes ou une minute. On a un peu hâte de voir ce qui nous attend lors des prochaines élections au Canada. Quelle est la prochaine étape? Lorsque nous réfléchissons à la manière dont l'IA pourrait être utilisée en période électorale? Commençons par Wendy Chen.


Wendy C: [00:47:49] Oh, juste rapidement, en termes de données déduites, Teresa Scassa a fait un travail extraordinaire à ce sujet et bien d'autres, je dirais en termes de ce que j'attends pour les prochaines élections, une augmentation des questions qui divisent, une sorte de course pour trouver ces petites choses de niche qui créent des groupes de colère et les mettre tous ensemble. Il s'agit donc d'une prolifération de microdivisions et d'une mise en relation de celles-ci afin de former des majorités de colère.


Elizabeth: [00:48:20] Nous vous remercions. Passons maintenant à Suzie.


Suzie: [00:48:23] Je pense que lors des prochaines élections, dans le cadre des campagnes électorales, du personnel et d'autres choses, ils finiront probablement par avoir des déboulonneurs qui parcourront l'Internet à la recherche de faux contenus, de fausses vidéos, de fausses détections de voix. Je pense donc que le type de technologie disponible pour détecter la différence entre les vraies et les fausses vidéos va susciter beaucoup d'intérêt et qu'il va falloir élaborer des stratégies claires sur la manière dont les partis politiques vont pouvoir prouver quel contenu est réel et quel contenu est faux.


Elizabeth: [00:48:53] Merci, Samantha.


Samantha: [00:48:56] Oui, je pense que ma réponse est en quelque sorte une combinaison des deux réponses que nous venons d'entendre. Je pense qu'une grande partie de la désinformation ou de la mésinformation que nous allons voir apparaître pourrait avoir été générée par des applications basées sur l'IA. Et je pense que nous verrons également des plateformes mettre à jour leurs politiques concernant les médias synthétiques et peut-être d'autres types de politiques concernant la génération d'IA à l'approche des élections.


Elizabeth: [00:49:26] Nous vous remercions. Fenwick.


Fenwick: [00:49:27] Je dirai un test et une prédiction. Je pense qu'un test important sera de savoir si les partis annoncent qu'ils utilisent l'intelligence artificielle dans le cadre de leur salle de guerre, en faisant des démonstrations. Si nous sommes entrés dans une phase où l'IA est passée de quelque chose de cool à quelque chose d'inquiétant, nous le verrons dans la manière dont les partis associent leurs efforts de campagne à l'intelligence artificielle. Je pense que la prédiction est le fil conducteur de la lettre ouverte, c'est-à-dire un type particulier de politique en matière d'IA, où de nombreux chercheurs croient vraiment en une vision à long terme de l'intelligence artificielle comme une menace perturbatrice pour l'avenir existentiel de l'IA par rapport à d'autres questions telles que la crise climatique et l'urgence climatique. Je pense qu'il sera très intéressant de voir comment l'IA est présentée comme une question politique, si nous verrons ce genre de questions très tangibles, claires et acceptées par rapport à ce que nous savons. Le problème de l'IA est maintenant de savoir si elle sera adoptée ou si nous devrons constamment nous demander si nous vivons dans la prochaine version de Terminator.


Elizabeth: [00:50:31] Merci à . Wendy.


Wendy W: [00:50:32] Oui, dans la continuité de ce que vient de dire Fenwick. Ce que j'espère, c'est que l'on parle davantage de la manière dont l'IA s'inscrit dans la stratégie nationale. Il existe une stratégie pancanadienne. Certains des chercheurs les plus éminents du monde travaillent au Canada. L'IA est donc clairement importante. Je pense qu'il est temps que les personnes concernées deviennent des acteurs de l'information. Et l'une des choses que j'espère que le gouvernement mettra en place, c'est une réflexion très sérieuse sur l'alphabétisation numérique, qui consiste à nous aider tous à déchiffrer ce que fait la machine et à changer les termes de cette coexistence qui n'est pas inévitable, comme beaucoup d'entre nous l'ont déjà dit aujourd'hui.


Elizabeth: [00:51:17] Merci beaucoup. Merci à l'ensemble du panel. Cette discussion a été vraiment passionnante et nous aurions pu aborder bien d'autres sujets. Nous n'avons pas parlé, par exemple, de l'utilisation d'approches d'apprentissage automatique pour prédire les élections et remplacer les sondages traditionnels. Nous n'avons pas parlé des robots basés sur l'apprentissage automatique qui ont été créés pour évaluer les cas de harcèlement et de discours haineux et tenter de les contrer. Nous n'avons pas parlé des nombreuses façons dont ces outils sont utilisés pour tenter d'attirer davantage de personnes dans les systèmes démocratiques. Vous savez, nous avons passé beaucoup de temps à nous concentrer sur les défis, les préoccupations et les préjudices, mais il y a tellement plus. À la lumière de ce qui précède, nous prévoyons notamment de nous appuyer sur la conversation d'aujourd'hui pour rédiger un rapport sur l'utilisation de l'IA dans la politique canadienne, qui sera publié dans les prochains mois.


Elizabeth: [00:52:11] Enfin, je tiens à vous remercier tous d'être venus aujourd'hui, de nous avoir écoutés et d'avoir posé vos questions. Je tiens également à remercier l'initiative « IA et société » de l'Université d'Ottawa pour le soutien qu'elle a apporté à la réalisation de cet événement et du rapport qui en a découlé.


Elizabeth: [00:52:30] D'accord. C'était notre épisode. Merci beaucoup d'avoir écouté cet épisode très spécial enregistré en direct. Nous avons abordé de nombreux sujets liés à l'utilisation de l'IA en politique et nous sommes très enthousiastes à l'idée du rapport à venir. Si vous souhaitez obtenir plus d'informations sur l'un de nos panélistes ou sur l'une des ressources ou l'un des concepts dont nous avons parlé aujourd'hui, vous pouvez, comme toujours, trouver des liens dans nos notes d'émission ou vous rendre sur le site polcommtech.ca pour consulter les transcriptions annotées, qui sont disponibles en anglais et en français. Merci beaucoup et bonne journée.


Logo pour la saison 5 du balado Wonks and War Rooms

Comments


Commenting has been turned off.
1/16
bottom of page