top of page
Radio show microphones

Wonks and War Rooms

clipart1711928.png
Flux RSS Icon_White
Icône Spotify_Blanc
Icône de podcasts Google_White.png

Réglementer les géants du Web avec Taylor Owen

Saison : 4 épisode : 8 [télécharger cet épisode (MP3, 25.3MB) (en anglais uniquement)]

[Veuillez noter que le contenu du balado est traduit de la version originale anglaise.]


Taylor Owen est professeur de politique publique à la Max Bell School of Public Policy de l'Université McGill, et ses recherches portent principalement sur la réglementation technologique. Cet épisode, lui et Elizabeth définissent et catégorisent les types de régulation. Ils discutent de ce à quoi ressemble la réglementation technologique, de l'impact du lobbying sur la réglementation technologique, des raisons pour lesquelles la réglementation de la technologie est difficile et de l'équilibre que les gouvernements (au Canada et à l'étranger) doivent trouver entre les options de réglementation et le bien public. Cet épisode, enregistré en janvier 2022, n'explore pas la législation actuelle ni le fond des options réglementaires. Cependant, Elizabeth et Taylor fournissent le contexte pour comprendre quelles sont les options et pourquoi la réglementation et l'autorégulation se produisent.


Ressources supplémentaires :

 

Transcription traduite de l'épisode : Réglementer les géants du Web avec Taylor Owen


Lisez la transcription traduite ci-dessous ou téléchargez une copie dans la langue de votre choix :

Elizabeth: [00:00:04] Bienvenue à Wonks and War Rooms, où la théorie de la communication politique rencontre la stratégie sur le terrain. Je suis votre hôtesse, Elizabeth Dubois. Je suis professeure agrégée à l'Université d'Ottawa, et mes pronoms sont elle/la. Aujourd'hui, j'enregistre depuis le territoire traditionnel et non cédé du peuple algonquin. Dans l'épisode d'aujourd'hui, nous parlons de la réglementation des grandes technologies, et mon invité est Taylor Owen, qui vient d'être nommé au groupe consultatif d'experts sur la sécurité en ligne pour le gouvernement fédéral. Nous avons enregistré cet épisode en janvier dernier, avant de connaître l'existence de ce groupe consultatif et de savoir quel type de législation le gouvernement envisageait. Une grande partie de notre discussion est donc plus large et n'est pas spécifique à l'environnement politique actuel, mais je pense qu'elle offre un contexte vraiment utile. J'espère que vous apprécierez. Et sur ce, je laisse la parole à Taylor pour qu'il se présente.

Taylor: [00:00:50] Bien sûr. Salut. Je m'appelle Taylor Owen. Je suis professeur de politique publique à la Maxwell School of Public Policy de l'Université McGill. Et je travaille largement sur la réglementation des technologies en ce moment. La plupart de mes travaux portent sur la façon dont nous devrions ou ne devrions pas, ou pouvons ou ne pouvons pas, ou pouvons ou ne pouvons pas, réglementer les grandes plateformes technologiques et sur les conséquences que cela pourrait avoir.

Elizabeth: [00:01:12] Incroyable. Merci. Je suis très heureuse de vous avoir ici aujourd'hui. Nous parlons de la réglementation et de ses différentes formes, qu'elle soit appliquée ou non aux grandes entreprises technologiques. Je vais donc commencer par donner quelques définitions de base tirées de la littérature universitaire et nous verrons si cela a un sens ou non.

Taylor: [00:01:28] Ok.

Elizabeth: [00:01:29] Tout d'abord, l'un des termes que nous entendons souvent est « autorégulation », c'est-à-dire l'idée que les entreprises peuvent créer et appliquer leurs propres réglementations, n'est-ce pas? Ils sont comme, « Nous connaissons mieux notre technologie. Nous savons ce dont nos utilisateurs ont le plus besoin. Laissez-nous faire. Gouvernement. Ne t'inquiète pas. »

Taylor: [00:01:46] Ouais.

Elizabeth: [00:01:47] Ensuite, il y a cette idée de quasi-réglementation où le gouvernement crée des directives générales pour les entreprises, mais il n'y a aucun moyen réel de forcer les entreprises à suivre ces directives. C'est juste comme, « Hey, ce serait génial si tu faisais ça. Pourriez-vous s'il vous plaît? »

Taylor: [00:02:02] Oui.

Elizabeth: [00:02:02] Ensuite, nous avons la corégulation, qui serait l'idée que les entreprises technologiques créent et appliquent leurs propres réglementations. Mais le gouvernement crée un certain niveau de réglementation qui fait respecter ces réglementations. Et il y a une sorte de coopération entre le gouvernement et les entreprises pour créer cet environnement réglementaire. Et puis il y en a d'autres qui sont droits, comme, non, c'est le règlement - le gouvernement vous a dit que c'est ce qui va se passer. De haut en bas, les entreprises se mettent en place. Alors, est-ce que ça a un sens? Modifieriez-vous les définitions de l'un d'entre eux? Ajoutez d'autres catégories manquantes?

Taylor: [00:02:36] Je veux dire, je pense que ce sont absolument les catégories descriptives des différents arrangements que nous trouvons entre les acteurs du secteur public et du secteur privé dans cet espace. Mais je me demande parfois si nous n'avons pas vraiment besoin d'une seule catégorie, à savoir la réglementation. Je veux dire, en réalité, ce dont nous parlons, c'est qu'un gouvernement souhaite que les acteurs privés se comportent d'une certaine manière et crée donc des règles pour qu'ils se comportent. Or, en l'absence de cela, il n'y a pas de réglementation.

Elizabeth: [00:03:05] Bien.

Taylor: [00:03:06] Et cela et les entreprises peuvent agir comme elles le souhaitent dans le cadre des lois que nous avons définies par ailleurs dans notre économie et notre société. Ils peuvent donc fixer des règles pour l'utilisation de leurs produits. Mais ce ne sont pas vraiment des règlements. Ce ne sont que des conditions de service qui déterminent comment les gens peuvent ou ne peuvent pas utiliser leurs services. Donc si je peux, je ne peux pas afficher de la nudité sur Facebook. Ce n'est pas vraiment que je ne suis pas réglementé par Facebook. C'est juste une règle à laquelle je dois me plier si je veux utiliser le service de Facebook. Disons que Facebook me fournit [un service]. Maintenant, si le gouvernement dit à Facebook qu'il n'est pas autorisé à publier de la nudité ou, s'il le fait, qu'il doit partager des données sur ceux qui la consomment et ceux qui la partagent, ou qu'il doit être taxé pour les dommages supplémentaires qu'il pourrait causer à la société ou tout ce que le gouvernement pourrait vouloir faire. C'est un règlement. Donc oui, toutes ces catégories décrivent des arrangements différents, mais en fin de compte, je pense que c'est un peu plus binaire.

Elizabeth: [00:04:01] Oui, ça sonne vraiment juste pour moi parce que l'une des choses que je trouve frustrantes dans cet espace, c'est cette idée de vivre sans réglementation comme une sorte d'option réelle, ce qui n'est pas possible parce que ces plateformes, pour exister, pour faire une sorte de filtrage des informations pour nous sur lesquelles nous comptons et qui sont largement utiles dans nos vies. Comme s'ils devaient établir des règles pour l'utilisation de leurs outils, comme si c'était ça, leurs outils.

Taylor: [00:04:29] Bien sûr. Et elles sont également réglementées de toutes sortes de façons par les gouvernements, ne serait-ce que pour exister en tant qu'entreprise, en tant qu'entreprise de médias, en tant qu'entreprise technologique ou en tant qu'entreprise qui partage des données, ou encore pour respecter toutes sortes de règles. L'idée que cet espace n'est pas réglementé de manière significative est donc fausse. Comme nous pouvons débattre de la manière dont elle est réglementée et si elle l'est suffisamment. Mais non, c'est comme si c'était fortement réglementé. Les compagnies spatiales sont soumises à toutes sortes de règles. Les gouvernements démocratiques et les gouvernements non démocratiques ont fixé les conditions de leur existence sur leurs marchés.

Elizabeth: [00:05:03] Totalement. Ouais. Et vous faites en quelque sorte allusion à l'aspect international sur lequel nous reviendrons dans une seconde. Mais passons un peu plus de temps sur cette idée des types de réglementation qui existent déjà et, vous savez, vous venez d'en mentionner quelques-uns. Quels sont les principaux moyens auxquels vous pensez lorsque vous envisagez de réglementer les grandes technologies? Quels sont les plus grands leviers ou incitations du gouvernement que nous avons?

Taylor: [00:05:28] Ouais. Je veux dire qu'une partie du défi est que ces entreprises sont tellement de choses. Nous avons donc tendance à penser que les régimes réglementaires sont très cloisonnés en tant que secteurs de l'économie. Ainsi, nous réglementons le secteur des soins de santé d'une certaine manière et nous réglementons le secteur bancaire avec un autre ensemble de mécanismes. Nous réglementons les entreprises de médias et les diffuseurs d'une autre manière. Et c'est traditionnellement ainsi que nous avons construit cette sorte d'appareil de l'État régulateur. Et c'est parce que dans l'économie industrielle, ces choses étaient toutes différentes. Les entreprises de soins de santé et les hôpitaux étaient fondamentalement différents des banques. Et il fallait des outils différents, des régimes de surveillance différents, des lois différentes et tout le reste pour réglementer différemment. Le défi auquel nous sommes confrontés aujourd'hui est que ces plateformes sont souvent tout cela à la fois et quelque chose de nouveau. Facebook a donc essayé de lancer une monnaie. Amazon entre dans les systèmes de soins de santé. Amazon est une place de marché et une entreprise de médias, non? Comme si Google était 20 choses différentes en même temps. Nous n'avons donc pas de métaphore réglementaire qui convienne ou d'analogie qui convienne bien à ces entreprises. Il est donc difficile, je pense, de dire quelles sont les réglementations existantes qui s'appliquent à eux, car cela dépend de la version dont nous parlons et du cas d'utilisation dont nous parlons. Et c'est vraiment difficile pour les gouvernements de s'y retrouver, car ils veulent vraiment savoir dans quelle catégorie classer ces entreprises. Et il n'y en a pas. Il s'agit donc en fait de dix catégories différentes et peut-être d'une nouvelle catégorie aussi, car ils font de nouvelles choses. Et c'est pourquoi il y a cette sorte de confusion de gouvernance, je pense, du côté du gouvernement, parce qu'ils ne savent tout simplement pas quoi faire avec ces choses.

Elizabeth: [00:07:12] Oui, je pense que tu as raison. Et il y a tellement de chevauchement. Et puis il y a aussi, vous savez, comme je pense à certaines des conversations précédentes sur la façon de traiter avec les entreprises technologiques, et la grande chose était comme, vous savez, nous sommes un conduit neutre pour l'information. Nous ne sommes pas un éditeur. Nous ne nous traitons pas comme les diffuseurs et les éditeurs. Nous rendons simplement possible le partage d'informations.

Taylor: [00:07:35] Oui.

Elizabeth: [00:07:36] Et même les entreprises qui s'appuyaient fortement sur l'essai de se classer dans une catégorie distincte de celle-là, ont maintenant reconnu ces dernières années qu'en fait, parfois nous sommes dans cette catégorie, mais aussi que la plupart du temps, nous ne sommes pas dans cette catégorie.

Taylor: [00:07:51] Ouais. Tout ce débat porte sur une question fondamentale pour le développement de ces plateformes, à savoir comment allaient-elles être vues et réglementées par les gouvernements au cours de leurs premières phases de développement? Et tout le débat sur la question de savoir si elle devait être considérée comme une plateforme neutre qui n'est pas responsable des choses que ses utilisateurs disent et font sur elle, ou si elle devait être considérée comme une société de médias ou un éditeur, auquel cas elle serait tenue responsable, comme un journal ou un diffuseur, des choses qui sont dites et faites sur sa plateforme, a été un débat existentiel pour elle. Il ne fait aucun doute que si les premières versions des plateformes avaient été tenues pour responsables et traitées comme des éditeurs, nous n'aurions pas les entreprises que nous avons aujourd'hui, elles ont grandi grâce à cette protection contre la responsabilité. Et c'était en soi une décision de gouvernance. C'était un acte de gouvernance pour mettre en place une loi qui leur donnait une protection en matière de responsabilité. Il ne s'agit donc pas vraiment d'une réglementation, mais d'une règle à laquelle ils doivent se conformer, créée par les gouvernements qui leur ont donné la liberté de permettre aux utilisateurs de dire et de faire des choses qu'un éditeur normal ne ferait probablement pas.

Elizabeth: [00:09:02] Oui, tout à fait. Totalement. Et ça montre bien qu'il y a tellement d'aspects qui vont ensemble. Il existe différents types de règles qui sont mises en place ou non. Comme parfois il y a des choix intentionnels de ne pas mettre une nouvelle règle en place -

Taylor: [00:09:17] Absolument.

Elizabeth: [00:09:18] Parfois, des systèmes réglementaires entièrement nouveaux sont imaginés et mis en œuvre, et parfois il s'agit de petites modifications apportées aux systèmes existants. Il y a aussi cet effort de lobbying. J'ai entendu dans votre balado que vous avez parlé du lobby technologique avant et vous avez fait allusion dans votre dernière réponse à la façon dont ces entreprises voulaient être encadrées.

Taylor: [00:09:40] Ouais.

Elizabeth: [00:09:41] Et peut-être pouvez-vous nous parler un peu de ce qui constitue le lobby technologique, quel est son rôle? Comment cela peut-il influencer l'apparition d'un type de réglementation ou d'un autre?

Taylor: [00:09:53] Eh bien, je veux dire, à bien des égards, ce n'est pas différent de n'importe quel autre secteur, le secteur industriel, où ce sont certaines des plus grandes entreprises que nous avons connues dans l'histoire de l'humanité.

Elizabeth: [00:10:06] Yup.

Taylor: [00:10:07] Et leur marge bénéficiaire, leur profit ou leur modèle d'entreprise dépendent fortement d'un certain nombre de règles. Ils ont donc un intérêt très fort dans la manière dont ils sont ou ne sont pas réglementés, ce qui est tout à fait compréhensible.

Elizabeth: [00:10:29] Ouais. Vous avez une entreprise, vous essayez de faire des bénéfices, vous avez des actionnaires.

Taylor: [00:10:33] Bien.

Elizabeth: [00:10:33] Vous voulez avoir votre mot à dire si vous le pouvez.

Taylor: [00:10:34] Bien sûr. Et nous avons, pour le meilleur ou pour le pire dans notre système démocratique, créé des règles permettant aux entreprises ou aux entités privées de faire du lobbying et de parler aux gouvernements pour représenter leurs intérêts. Il n'est donc absolument pas surprenant que ces entreprises agissent de la sorte. Je pense que pendant longtemps, nous avons considéré que ces entreprises n'étaient pas seulement des machines à faire de l'argent pour les actionnaires. Nous les considérions comme faisant autre chose, comme fournissant des biens sociaux, des biens privés et démocratiques, comme résolvant toutes sortes de problèmes sociaux. Et c'est en partie le genre d'imagination que ces entreprises mettent en avant, n'est-ce pas.

Elizabeth: [00:11:21] Ouais.

Taylor: [00:11:21] Ils allaient être toutes ces autres choses. Ils n'étaient pas comme un constructeur automobile. Ils changeaient le monde dans la société. Et à bien des égards, ils l'ont fait de manière très significative. Mais parce que nous avions toute cette image liée, je ne pense pas que nous ayons vu leur lobbying comme une sorte de lobbying d'entreprise grossier. Nous pensions que c'était juste eux qui essayaient de nous aider à comprendre l'internet ou eux qui essayaient d'aider des politiciens stupides qui ne comprennent pas la technologie, à comprendre son fonctionnement. Mais ce n'est pas - je ne pense pas personnellement que ce soit jamais ce que c'était. Je pense qu'il a toujours été exactement ce à quoi il devrait ressembler en apparence, à savoir de grandes entreprises défendant leurs intérêts face à la réglementation gouvernementale qui affectera leurs activités. Et je pense que nous le voyons maintenant d'une manière beaucoup plus claire. Mais il a fallu du temps pour y arriver. Et maintenant, comme les plus grands lobbyistes à Bruxelles, à Paris, à Ottawa, et à DC sont des lobbyistes de la technologie. Il n'y a aucun doute là-dessus. C'est plus que n'importe quelle autre industrie.

Elizabeth: [00:12:22] Ouais. Pourquoi s'attendrait-on à ce qu'il en aille différemment pour les grandes entreprises qui déploient d'importants efforts de lobbying? C'est tout à fait logique. Le type d'éducation nécessaire pour arriver au point où ces outils pourraient être utilisés et compris suffisamment pour générer le genre de questionnement du genre : « Oh, comme est-ce que ça devrait être acceptable pour les vendeurs d'être aussi des lobbyistes au gouvernement en même temps? Est-ce que c'est normal que le directeur des affaires publiques soit aussi celui qui s'occupe du soutien technique? » Comme, vous savez, il y a beaucoup il y avait beaucoup de chevauchement, en particulier au Canada, qui est un marché assez petit.

Taylor: [00:13:01] Ouais. Tu as fait un travail incroyable sur ce sujet, mais comment? Comme les personnes qui vendent des publicités et aident les gouvernements à vendre des publicités pour les campagnes publicitaires étaient les mêmes personnes qui élaboraient également les lois et aussi. Bien. Donc, comme, c'est un défi. Et je veux dire, vous pointez du doigt ce que nous savons de ces entreprises, comme les effets de ces entreprises. Si le lobbying et les points de vue des entreprises étaient si persuasifs pour les gouvernements, c'est en grande partie parce que nous ne savions pas grand-chose des effets sur la société. En l'espace de dix ans, nous avons intégré un nouvel ensemble d'outils dans la quasi-totalité de nos interactions sociales et économiques dans des sociétés entières. Il a donc fallu du temps pour que la recherche rattrape son retard, pour que nous comprenions quels étaient les effets et pour que cette compréhension soit communiquée aux gouvernements. Alors bien sûr, les gouvernements ont demandé aux entreprises technologiques ce qui se passait ici, comment vous travailliez et comment nous devions penser à vous. Parce qu'il n'y avait pas vraiment d'alternative.

Elizabeth: [00:14:04] Ouais. Il n'y avait pas d'autre moyen de savoir.

Taylor: [00:14:06] C'est une excellente façon de le dire. Ouais. Il n'y a pas d'autre moyen de savoir.

Elizabeth: [00:14:08] Et comme, parfois il y a cette critique de, comme, un manque de transparence et de responsabilité, ce que je suis d'accord dans beaucoup de domaines quand il s'agit de la façon dont la technologie, les grandes entreprises technologiques font leurs choix. Comme si on n'en savait pas assez sur ce qui se passe à l'intérieur. Mais je pense qu'il est également important de reconnaître qu'au début, pour la plupart des entreprises technologiques, même si elles voulaient être transparentes et responsables, les choses allaient si vite et les différentes parties d'une même entreprise ne savaient pas ce qui se passait.

Taylor: [00:14:38] Non. Contrairement à ce qu'ils faisaient, ils ne collectaient pas ces données, ils ne les stockaient pas correctement. Personne ne l'a demandé. Les gouvernements n'avaient pas la capacité d'y faire face. Et donc tout cela est compréhensible que nous ayons en quelque sorte laissé cette chose se développer dans une certaine mesure sans avec une touche assez légère. Mais nous sommes dans un endroit différent maintenant.

Elizabeth: [00:14:55] Oui, exactement. C'est un monde différent, c'est un monde différent en ce moment. Nous sommes tous très, très dépendants d'un grand nombre de ces entreprises qui sont à la base de nos environnements informatiques, qui sous-tendent notre politique, notre économie, notre culture, tout cela. Bien.

Taylor: [00:15:11] Ouais.

Elizabeth: [00:15:11] Alors, où cela nous mène-t-il pour ce qui est de la réglementation actuelle et de ce qu'elle doit faire?

Taylor: [00:15:18] Combien de temps avez-vous pour en parler? Donc. Ecoutez, je veux dire, je pense que certaines choses ont fondamentalement changé par rapport au récit dont nous venons de parler. D'une part, nous en savons beaucoup plus sur les effets sociaux, économiques, comportementaux et démocratiques de l'utilisation de ces technologies dans notre société. Comme si on en savait plus. Nous en savons plus grâce aux chercheurs. Nous en savons plus grâce aux journalistes. Nous en savons plus grâce à la société civile. Nous en savons plus grâce aux enquêtes réglementaires. Bien. Nous savons juste qu'il y a en plus de toutes les choses étonnantes que ces technologies permettent. Il y a aussi des externalités négatives et des externalités négatives qui ne sont pas nécessairement corrigées par le marché lui-même. Et c'est là que nous attendons des gouvernements qu'ils réglementent, pour utiliser le terme de cette conversation.

[00:16:03] Je veux dire, c'est précisément à ce moment-là que nous attendons des gouvernements qu'ils réglementent. Lorsqu'un marché ne corrige pas une externalité négative perçue que la société démocratique estime devoir être minimisée. C'est pourquoi nous utilisons des règlements, des lois ou toute autre action gouvernementale. Et c'est donc là que nous en sommes. Donc nous savons qu'il y a des choses négatives. Nous savons également qu'il y a beaucoup de bonnes choses et que nous devons concevoir une nouvelle série d'outils ou appliquer les outils existants dont les gouvernements peuvent disposer afin de réduire ces coûts négatifs. Et c'est la conversation dans laquelle nous sommes maintenant. Nous sommes au-delà de savoir s'ils doivent être réglementés. Nous ne savons même pas quels sont les inconvénients. Je pense que tout le monde les voit, les connaît et les accepte. La question est de savoir de quels outils disposent les gouvernements démocratiques. Et nous pouvons aussi parler des gouvernements non démocratiques, mais quels sont les outils dont disposent les gouvernements démocratiques pour minimiser ces inconvénients tout en maximisant ces avantages? Et il y a beaucoup de défis à relever, car ce sont de nouvelles entreprises, comme nous le disons, ce sont de grandes entreprises. Il s'agit d'entreprises mondiales qui ne sont pas nécessairement basées au Canada. Comme nous l'avons dit, ils couvraient toutes sortes de secteurs différents. C'est un défi.

Elizabeth: [00:17:12] Ouais.

Taylor: [00:17:12] Mais c'est la tâche à accomplir. C'est la tâche de gouvernance à accomplir. Et je pense que les gouvernements essaient de trouver une solution, apprennent les uns des autres et expérimentent. Et c'est une période assez excitante pour cette conversation.

Elizabeth: [00:17:22] Oui, absolument. Et j'ajouterais, vous savez, que vous avez énuméré toutes ces différentes façons dont les choses varient. J'ajouterais qu'à l'heure actuelle, on a tendance à ne parler que des méfaits en ligne, du moins au Canada. C'est le terme qui semble le plus utilisé en ce moment.

Taylor: [00:17:38] Hmm.

Elizabeth: [00:17:38] Nous avons donc des préjudices en ligne. Je pense que l'on reconnaît qu'il s'agit d'une variété de préjudices, mais nous continuons à les regrouper comme nous devons le faire avec le projet de loi lui-même que le gouvernement fédéral traite. C'est comme les préjudices en ligne - en gros - et je dirais que tous les préjudices en ligne ne pourront pas être traités de la même manière.

Taylor: [00:17:58] Absolument pas. Absolument pas. Même les choses auxquelles on peut penser comme un spectre de toutes sortes de préjudices différents, mais même les choses qui sont clairement illégales, comme...

Elizabeth: [00:18:07] Mm hmm.

Taylor: [00:18:08] - Oubliez toutes les mauvaises choses qui ne sont pas illégales et que nous aimerions voir moins présentes sur l'internet, ce qui est une grande partie du problème. Mais tout comme les choses que le gouvernement fédéral a déclaré être illégales hors ligne, qui doivent l'être, nous devons trouver comment nous en débarrasser en ligne. Ainsi, les contenus sexualisés exploitant les enfants, les discours haineux, les menaces, l'incitation à la violence et d'autres choses que nous acceptons tous, en tant que société, à des degrés divers, sont illégaux. Comment faites-vous respecter cela en ligne? Même cela n'a pas une réponse unique. Nous traitons ces différents types de contenu et ces problèmes de manière très différente dans le monde physique, et nous devons probablement le faire aussi dans le monde numérique, n'est-ce pas? Donc, même en laissant de côté toutes les autres choses qui sont encore plus difficiles à lever.

Elizabeth: [00:18:59] Ouais. En regardant les choses qui devraient être les problèmes les plus simples, ils sont toujours très difficiles.

Taylor: [00:19:05] Absolument. Absolument. Et aucun gouvernement n'a trouvé le moyen de le faire. En fait, il n'y a pas de méthode parfaite, ce qui est difficile à accepter pour les gouvernements. Je pense que les gouvernements, si quelque chose est illégal et dangereux, l'élan du gouvernement est de l'arrêter et de le réduire à zéro.

Elizabeth: [00:19:25] Bien.

Taylor: [00:19:25] Et sur Internet, ce n'est tout simplement pas possible. Il ne s'agit donc pas d'absolus, mais de risques, de pourcentages, de probabilités et de diminution dans le temps, ce qui permet de minimiser les risques. Et que ces concepts ne sont pas toujours satisfaisants pour les régulateurs.

Elizabeth: [00:19:43] Oui. C'est difficile pour les régulateurs. C'est également difficile pour les utilisateurs. Il est difficile de comprendre pourquoi vous, en tant qu'individu, pouvez accepter que l'on vous lance un discours haineux, mais que lorsque quelqu'un qui est une personnalité publique reçoit un tel discours, cela devient un problème majeur, ou pourquoi une personne est déplacée alors qu'une autre ne l'est pas pour un contenu similaire. Ce sont des choses difficiles à comprendre quand on n'a pas une vue d'ensemble.

Taylor: [00:20:15] Oui. Et c'est une chose avec laquelle je lutte beaucoup ici. C'est que l'échelle à laquelle nous parlons de ces préjudices et abus potentiels en ligne est si vaste. Je veux dire, il y a cent milliards de contenus postés sur les services Facebook chaque jour. La quantité - et quand vous regardez certains de leurs rapports de suppression, ce qui est tout à leur honneur, ils publient de plus en plus leurs rapports Twitters sur le type de contenu qu'ils suppriment - c'est des milliards et des milliards et des milliards d'éléments de discours nuisibles. Et en tant que gouvernement s'engageant dans cette voie, vous devez faire face à cette échelle et à ce niveau. Vous ne vous débarrasserez pas de tout. Vous devez minimiser et pour minimiser, vous devez mettre des choses qui ne sont pas absolues. Et c'est une approche réglementaire que vous devez adopter, je pense. Mais cela n'enlève rien au fait, comme vous le dites, que chacun de ces discours haineux est dirigé contre une personne qui l'a reçu. Et pour eux, ils ne sont pas une statistique à cette échelle. Et ils ne se soucient pas que Facebook serve des milliards de personnes par jour parce qu'elles ont été lésées par ce discours.

Elizabeth: [00:21:26] Ouais.

Taylor: [00:21:26] Et c'est une chose très difficile à concilier. Et j'ai du mal avec celle-là, franchement. Je veux dire, en particulier quand on voit les abus, qu'on voit qui est visé par ces abus de manière disproportionnée et qui est réduit au silence par ce type de préjudice. C'est ici. Il est très difficile de dire à ces personnes, à ces groupes et à ces circonscriptions de notre société qu'il faut accepter ce degré de préjudice pour que nous puissions tous bénéficier des avantages de l'Internet. Ce n'est pas une proposition de valeur que je suis à l'aise de faire.

Elizabeth: [00:21:57] Ouais. Cela devient encore plus compliqué, comme vous le dites, lorsque nous sortons des situations où, socialement, nous pouvons convenir que les discours de haine ne devraient pas être acceptés. Et puis, il y a des choses comme la désinformation...

Taylor: [00:22:11] Hmm.

Elizabeth: [00:22:11] - où ouais, il y a un grand potentiel de préjudice public et je pense, vous savez, COVID 19 pandémie anti-vax genre de conversations, des conversations anti-masque.

Taylor: [00:22:21] Ouais.

Elizabeth: [00:22:21] Et la façon dont les données sur la santé sont ou ne sont pas présentées par différents groupes est clairement une question de santé publique. Et il y a de vraies vies en jeu. Mais aussi, ce n'est pas nécessairement illégal, n'est-ce pas?

Taylor: [00:22:42] Je veux dire, absolument. Il y a, et c'est probablement le plus gros problème avec la nature de notre discours public ou de notre sphère publique, qu'il y a tout un tas de choses qui sont, nous pouvons en convenir, positives ou négatives pour la société démocratique, qu'il s'agisse de fausses informations circulant largement ou de discours nuisibles à la santé publique qui font baisser les taux d'adoption des vaccins ou autre, de discours d'acteurs étrangers qui sapent les initiatives d'intégrité électorale. Bien. Ces choses ne sont généralement pas bonnes, mais elles ne sont pas illégales, elles circulent largement et elles peuvent être encouragées d'une manière en ligne qu'elles ne le sont pas dans le monde hors ligne.

[00:23:25] Et à bien des égards, c'est un problème bien plus grave, je pense. Mais cela ne signifie pas non plus qu'elle ne peut pas être réglementée. Et la réglementation ne se limite pas à des démantèlements binaires ou à rendre des choses illégales. Les réglementations créent également des incitations et assurent la responsabilité des systèmes et des industries. Ainsi, lorsque nous examinons le secteur financier, par exemple, ou le secteur de la santé, nous ne nous contentons pas d'interdire les résultats et de pénaliser les personnes qui font de mauvaises choses. Nous réglementons la manière dont les produits sont développés ou les incitations qui les sous-tendent ou la conception des systèmes, cette incitation qui construit. Bien.

[00:24:11] Et c'est là que nous commençons à avancer. Je pense que sur le plan de la réglementation de ces systèmes de plateformes numériques, il ne s'agit pas seulement de parler des mauvaises choses qui sont dites et faites et de leurs conséquences, mais de la structure elle-même. Et y a-t-il des incitations dans ce système que nous pouvons atteindre par le biais de la réglementation qui minimiserait l'amplification des discours nuisibles ou les motivations financières pour être un escroc anti-vax, ou la collecte de données qui permet le micro-ciblage pour les acteurs étrangers afin d'être en mesure de cibler notre comportement de vote plus efficacement. Ou bien, quelles sont les choses structurelles présentes dans ce système que les réglementations peuvent atteindre pour changer cette structure d'incitation? Et c'est aussi une réglementation.

Elizabeth: [00:24:58] Totalement, totalement. Comme ne pas laisser les publicités politiques être achetées avec des devises étrangères.

Taylor: [00:25:03] Bien. On aurait pu penser qu'on aurait pu le faire dès le début. Mais, vous savez, parfois il faut quelques courses pour apprendre ça.

Elizabeth: [00:25:10] Vous savez, vous finissez par y arriver.

Taylor: [00:25:12] Tu le fais sur certaines choses. Oui, certaines choses.

Elizabeth: [00:25:14] Lorsque nous réfléchissons à ce cas spécifique de désinfo, y a-t-il des approches qui vous semblent particulièrement prometteuses?

Taylor: [00:25:24] Ainsi, les deux grandes approches qui ont émergé pour les discours nuisibles et la désinformation sont des régimes de retrait ex post pour les choses que nous ne voulons pas. Et nous, en tant que régulateurs ou gouvernements, disons, ok, nous voulons utiliser des plateformes pour les faire tomber. Ou bien ces incitations structurelles ex ante dont je parlais et qui, à mon avis, sont bien plus efficaces. Et notre gouvernement a fait l'erreur d'opter pour la première solution dans sa proposition initiale. Et je pense qu'on fait marche arrière assez rapidement. Et nous allons maintenant voir une approche différente. On se concentre beaucoup plus sur ces choses structurelles, sur les choses structurelles. Il y a quelques trucs sur la désinformation qui fonctionnent très bien, à mon avis. L'UE a essentiellement placé l'évaluation des risques au cœur de son dispositif. Ils ont donc dit que les plateformes ont un pouvoir énorme sur les informations qui sont diffusées dans la société. Vous disposez de toutes les données sur la façon dont il circule et dont les gens le consomment et ce que vos algorithmes amplifient ou non. Et vous pouvez aussi, en tant qu'entreprise intelligente qui s'engage dans cet espace, faire une analyse de ce qui pourrait causer plus de dommages ou pas. Et est-ce que votre produit, quand vous le déployez, amplifie des choses vraiment mauvaises ou positives.

Elizabeth: [00:26:49] Mm hmm.

Taylor: [00:26:49] Et nous allons vous faire porter une partie de la responsabilité de cette évaluation des risques.

Elizabeth: [00:26:54] Bien.

Taylor: [00:26:54] Et ces rapports d'évaluation des risques vous seront demandés si, en tant que régulateurs, nous constatons qu'un produit cause un préjudice excessif à notre société. Nous n'allons donc pas vous tenir pour responsable de toutes les mauvaises choses qui sont dites. Mais si nous commençons à voir que le contenu anti-vax sévit sur votre plateforme et qu'il est dirigé vers des groupes par le biais de recommandations algorithmiques ou autre, et que nous signalons que vous devez nous le dire et nous le montrer, il vous incombe maintenant de montrer que vos produits ne créent pas ce problème et que vous avez effectué une évaluation des risques réfléchie pour montrer que les décisions de conception que vous avez mises en place ne causent pas ce problème. Et c'est un vrai changement de mentalité, je pense, non? Il n'incombe pas à l'autorité de régulation de montrer que c'est le cas. C'est à l'entreprise de montrer qu'elle ne l'est pas.

Elizabeth: [00:27:48] Ouais.

Taylor: [00:27:49] Et je pense que ce genre de changement est vraiment important. C'est donc une question qui, à mon avis, est importante. Je pense que les limites de la collecte de données seront un facteur important. Comme nous avons eu tendance à penser à la loi sur la modernisation de la vie privée comme étant une chose distincte que nous devrions mettre à jour nos lois sur la vie privée comme nous le faisons au Canada et nous parlons de le faire au Canada parce que c'est mauvais que ces données soient collectées et c'est notre point de départ, non? Que le mal social est que trop de données sont collectées. Et je ne pense pas que cela réponde vraiment au défi. Le défi consiste à savoir à quoi servent ces données. Et je pense que nous commençons à voir une vision plus nuancée de cela, que des choses comme la construction d'un algorithme de reconnaissance faciale, l'utilisation de données sur nos visages ont un niveau de risque différent et doivent donc être réglementées d'une manière différente que la collecte de données sur les choses que nous avons aimées sur les médias sociaux. Ce sont deux choses totalement différentes, avec des types de consentement différents, avec des types d'implication différents pour le contenu qui circule dans la société et ainsi de suite. Je sais que je divague un peu, mais je pense qu'il y a différentes approches nuancées dans cette approche ex-ante qui régit la structure que les gouvernements commencent à adopter. Et la matière est délicate, mais ils obtiennent

Elizabeth: [00:29:10] Ouais.

Elizabeth: [00:29:11] Oui, oui. Je pense que c'est vraiment intéressant. Et l'idée de déplacer la charge de travail pour nous montrer que vous ne faites pas de ce problème un plus gros problème qu'il ne doit l'être, je pense que c'est vraiment utile parce que ça nous ramène à des idées comme les possibilités technologiques. Bien. La saison dernière, j'ai réalisé un épisode sur les possibilités technologiques et sur la manière dont la conception d'un outil a un impact sur la façon dont nous choisissons de l'utiliser, sur le type d'informations qu'il est susceptible de véhiculer, sur les personnes qui seront en mesure d'obtenir des données et celles qui ne le seront pas, etc. Cela a tellement d'effets secondaires. Et donc, l'idée que, lors de la conception, il faut penser aux méfaits potentiels est vraiment utile. Ça me fait me demander si certaines entreprises le font mieux que d'autres. Comment le gouvernement décide-t-il quand il doit faire le contrôle? Qu'est-ce qui les empêche de cibler injustement certaines entreprises et pas d'autres?

Taylor: [00:30:07] Qui a les ressources, quelles entreprises ont les ressources pour le faire aussi? Je veux dire, c'est juste un niveau de capacité très différent de celui des entreprises, c'est sûr.

Elizabeth: [00:30:14] Ouais. Et nous avons déjà parlé de, vous savez, meta étant comme ce complet comme tout type de société à ce point. Alphabet, vous savez, on peut répondre à ce genre de réglementation, je suppose de manière raisonnable, si vous êtes une entreprise massive avec des tonnes de ressources, si vous êtes le petit concurrent qui est probablement sur le point d'être racheté par l'une d'entre elles. Pas tant que ça.

Taylor: [00:30:39] Ouais. Ouais. La loi sur les services numériques de l'UE prévoit des responsabilités différentes selon la taille de l'entreprise et le secteur d'activité. Je veux dire qu'à certains égards, ils sont très intelligents dans leur façon de procéder, mais ils ont toutes sortes de différenciations, à la fois pour la taille de l'entreprise, mais aussi pour l'utilisation de vos outils. Donc, si vous êtes une plateforme dans le secteur de la santé, vous serez réglementé de manière beaucoup plus stricte que si vous êtes une plateforme sociale, n'est-ce pas? Si vous ciblez les enfants, vous serez réglementé différemment que si vos principaux utilisateurs sont des adultes. Si vous développez une IA qui est utilisée dans le secteur du maintien de l'ordre, vous serez réglementé de manière totalement différente que si vous développez une IA pour un chatbot pour une application, vous savez. Je pense donc qu'il s'agit en partie de parvenir à différentes couches de différenciation dans toutes ces catégories différentes.

Elizabeth: [00:31:33] Ouais. Et je pense que cela nous ramène à ce dont vous avez parlé plus tôt. Comme il y a tellement de contextes différents dans lesquels la réglementation peut et ne peut pas être utile. Les types de réglementation, les types d'approches, il n'y a pas de taille unique, c'est génial. Nous l'avons résolu. Maintenant, Internet va redevenir beau. I

Taylor: [00:31:56] Totalement.

Elizabeth: [00:31:56] Redites-le comme s'il avait déjà été entièrement beau.

Taylor: [00:32:01] On peut avoir un peu de nostalgie, mais il ne faut pas en abuser. Ouais.

Elizabeth: [00:32:05] Ouais. Mais oui, c'est vraiment réconfortant de penser que nos gouvernements sont arrivés au point où nous sommes capables de penser à cela d'une manière vraiment nuancée. Et malgré le fait que cela ne cadre pas très bien avec la façon dont au moins le gouvernement canadien, mais beaucoup, beaucoup de démocraties occidentales ont, vous savez, une bureaucratie qui est vraiment divisée. Vous devez savoir à quel département ou agence quelque chose va. Et c'est bien de savoir qu'il y a des mouvements pour traiter cette question d'une manière qui soit plus représentative de ce qu'est réellement Internet.

Taylor: [00:32:43] C'est bon. Ouais. Je veux dire, je pense que nous ne voulons pas être la dernière personne à être trop optimiste sur nos chances ici, mais -

Elizabeth: [00:32:52] Ouais. Je ne pense pas que ce soit résolu. Je pense que nous venons de faire un petit pas dans la bonne direction.

Taylor: [00:32:56] Mais écoutez, si vous aviez dit il y a cinq ans que la plupart des démocraties occidentales allaient réfléchir activement à la manière de définir largement la gouvernance, l'internet de manière totalement nouvelle et imaginée, je ne sais pas, les gens ne vous auraient probablement pas cru, mais nous sommes donc dans une situation très différente.

Elizabeth: [00:33:17] Tout le monde serait comme, c'est plutôt optimiste.

Taylor: [00:33:19] Exactement. Exactement. Donc, si nous construisons les bonnes capacités pour suivre l'évolution de ces entreprises et les nouvelles choses qu'elles construisent. C'est une question ouverte. Mais.

Elizabeth: [00:33:33] Oui. Nous allons le découvrir. Très bien. Nous sommes à l'heure. Malheureusement, il y a tellement d'autres choses dont nous pourrions parler, mais nous devons nous arrêter là. Je termine chacun de mes podcasts avec un petit quizz, cependant.

Taylor: [00:33:47] Oh, mon Dieu.

Elizabeth: [00:33:49] Donc c'est facile. Tu t'en occupes. C'est une réponse courte. Comment définissez-vous ce qu'est la régulation par rapport à l'autorégulation?

Taylor: [00:34:00] La réglementation est constituée des règles que le gouvernement impose aux acteurs privés. L'autorégulation, ce sont les règles que les acteurs privés décident pour eux-mêmes, qui sont les conditions de ceux qui utilisent leurs services.

Elizabeth: [00:34:18] Génial. C'était si concis. Magnifique. Merci.

[00:34:25] Très bien. C'était notre épisode sur la réglementation des grandes entreprises technologiques. J'espère que vous l'avez apprécié. Pour en savoir plus sur ce sujet ou sur l'un des autres concepts ou théories dont nous avons parlé aujourd'hui, vous pouvez consulter les notes de l'émission ou vous rendre sur Polcommtech.ca. Cette saison spéciale sur la més- et la désinformation vous est proposée en partie grâce à une subvention du Conseil de recherches en sciences humaines du Canada et par l'Initiative de citoyenneté numérique.


Logo pour la saison 4 du balado Wonks and War Rooms

Commenti


I commenti sono stati disattivati.
1/18
bottom of page