1 00:00:05,620 --> 00:00:08,950 Dans cette première vidéo, nous allons aborder la manière 2 00:00:09,150 --> 00:00:12,370 dont les plateformes de réseaux sociaux, Facebook, Twitter, 3 00:00:12,570 --> 00:00:18,220 Instagram, YouTube, TikTok, s'y prennent pour modérer les contenus 4 00:00:18,420 --> 00:00:21,190 qui sont postés par les internautes, les contenus, c'est-à-dire les 5 00:00:21,390 --> 00:00:24,670 publications, les textes, les images, les vidéos que les 6 00:00:24,870 --> 00:00:27,580 internautes publient à longueur de journée sur leurs réseaux. 7 00:00:28,480 --> 00:00:31,060 Alors la première chose à dire, c'est que historiquement, 8 00:00:31,570 --> 00:00:34,810 sur les réseaux sociaux, la modération se fait via les 9 00:00:35,010 --> 00:00:37,720 signalements effectués par les internautes. 10 00:00:38,200 --> 00:00:40,900 Quand vous vous trouvez sur un réseau social et que vous jugez 11 00:00:41,100 --> 00:00:45,760 qu'une publication est peut-être illégale ou choquante, 12 00:00:45,960 --> 00:00:49,450 ou sexiste ou raciste, ou pour tout un tas d'autres raisons, 13 00:00:49,960 --> 00:00:53,320 et vous jugez en tant qu'usager que cette publication ne devrait 14 00:00:53,520 --> 00:00:56,680 pas se trouver sur la plateforme, vous pouvez généralement, 15 00:00:56,950 --> 00:01:00,070 en cliquant à côté, via trois petits points qui apparaissent, 16 00:01:00,490 --> 00:01:03,370 signaler à la plateforme que ce contenu est indésirable. 17 00:01:04,060 --> 00:01:06,640 Lorsque vous signalez un contenu, à l'autre bout de la chaîne, 18 00:01:06,940 --> 00:01:11,890 un modérateur ou une modératrice professionnel, va prendre une décision 19 00:01:12,100 --> 00:01:16,810 sur quoi faire de ce signalement, c'est-à-dire est-ce que le contenu 20 00:01:17,010 --> 00:01:19,600 que vous avez signalé doit rester en ligne sur la plateforme ou est-ce 21 00:01:19,800 --> 00:01:22,780 qu'à l'inverse, il doit être supprimé et disparaître de la plateforme ? 22 00:01:23,830 --> 00:01:26,740 Ce travail de modération qui est réalisé par des modérateurs et 23 00:01:26,940 --> 00:01:30,070 modératrices professionnels, il est lui même controversé. 24 00:01:30,550 --> 00:01:35,470 Il est controversé notamment parce qu'on pointe du doigt, 25 00:01:35,670 --> 00:01:38,560 notamment les journalistes qui ont enquêté sur ce sujet, 26 00:01:38,920 --> 00:01:43,210 les difficiles conditions de travail auxquelles sont soumis ces modérateurs 27 00:01:43,410 --> 00:01:44,200 et ces modératrices. 28 00:01:44,620 --> 00:01:49,600 Ils disposent généralement uniquement de quelques secondes pour pouvoir 29 00:01:49,800 --> 00:01:52,780 prendre une décision quant à un contenu qui parfois mériterait 30 00:01:52,980 --> 00:01:55,810 un peu plus de réflexion pour savoir s'il doit être supprimé ou non. 31 00:01:56,470 --> 00:02:00,940 Et bien souvent, ils sont exposés à des milliers de contenus chaque jour, 32 00:02:01,570 --> 00:02:03,610 tout en étant très mal payés. 33 00:02:06,460 --> 00:02:10,720 Deuxième type de controverse liée au travail des modérateurs le fait 34 00:02:10,920 --> 00:02:14,290 que ces modérateurs et modératrices soient exposés à des contenus 35 00:02:14,490 --> 00:02:15,250 extrêmement violents. 36 00:02:15,580 --> 00:02:18,610 À longueur de journée, ils sont exposés à des vidéos de 37 00:02:18,810 --> 00:02:23,650 meurtres, de viols, de tortures et doivent les retirer des réseaux, 38 00:02:23,980 --> 00:02:27,430 ce qui crée chez un certain nombre d'entre eux des troubles psychologiques 39 00:02:27,630 --> 00:02:32,290 pouvant même aller jusqu'à des syndromes de stress post-traumatique 40 00:02:32,620 --> 00:02:37,090 qu'on identifie généralement chez des soldats revenant du front. 41 00:02:37,690 --> 00:02:40,660 Et donc face à ces controverses, les grandes plateformes de réseaux 42 00:02:40,860 --> 00:02:45,640 sociaux ont d'abord décidé d'augmenter l'effort de modération en embauchant 43 00:02:45,840 --> 00:02:46,750 de nouveaux modérateurs. 44 00:02:47,170 --> 00:02:51,250 C'est le cas notamment chez Facebook, qui avait 7 500 modérateurs en 45 00:02:51,450 --> 00:02:55,360 2018 et qui est passé à 14 000 modérateurs en 2019. 46 00:02:55,750 --> 00:02:59,290 C'est le cas aussi chez YouTube, où le nombre de modérateurs humains 47 00:02:59,650 --> 00:03:04,210 a été augmenté à 10 000 durant l'année 2018. 48 00:03:04,410 --> 00:03:08,320 Généralement, les plateformes n'embauchent pas directement des 49 00:03:08,520 --> 00:03:09,280 modérateurs. 50 00:03:09,480 --> 00:03:12,190 Elles font appel à des agences qui sont spécialisées dans la 51 00:03:12,390 --> 00:03:13,360 communication numérique. 52 00:03:13,570 --> 00:03:16,420 Elles sous-traitent à ces agences le travail de modération et les 53 00:03:16,620 --> 00:03:20,950 agences en question vont embaucher généralement des personnes peu 54 00:03:21,150 --> 00:03:26,680 qualifiées pour réaliser ces petites tâches qui consistent à la modération 55 00:03:26,880 --> 00:03:28,000 des contenus sur les réseaux sociaux. 56 00:03:28,200 --> 00:03:31,690 Parfois, elles vont même déléguer à des travailleurs situés dans 57 00:03:31,890 --> 00:03:34,660 les pays du Sud, aux Philippines par exemple, ou en Inde, 58 00:03:34,900 --> 00:03:38,860 ce travail, on les sous-payant, ce qui pose un problème éthique 59 00:03:39,060 --> 00:03:41,620 assez important qui est que ce sont des travailleurs sous-payés 60 00:03:42,250 --> 00:03:46,900 dans les pays du Sud qui vont faire le ménage de nos réseaux sociaux 61 00:03:47,140 --> 00:03:51,700 à nous en Europe, et être exposés aux contenus très choquants que 62 00:03:51,900 --> 00:03:53,080 nous-mêmes nous postons. 63 00:03:53,280 --> 00:03:58,360 Ensuite, ces efforts de modération, ils sont très inégalement répartis 64 00:03:59,890 --> 00:04:00,650 sur la planète. 65 00:04:01,270 --> 00:04:05,350 La lanceuse d'alerte Frances Haugen, qui était une ancienne employée 66 00:04:05,550 --> 00:04:09,640 de Facebook et qui a quitté l'entreprise en volant avec elle 67 00:04:09,840 --> 00:04:14,740 un ensemble de documents internes, a par exemple révélé que sur les 68 00:04:14,940 --> 00:04:20,260 14 000 modérateurs employés par Facebook, seuls 766 modérateurs 69 00:04:21,400 --> 00:04:26,110 maîtrisent l'arabe, alors que le monde arabophone représente plus 70 00:04:26,310 --> 00:04:31,630 de 200 millions d'usagers pour Facebook, 766 modérateurs censés 71 00:04:31,830 --> 00:04:33,820 modérer 200 millions d'usagers. 72 00:04:34,480 --> 00:04:39,070 De la même façon, lorsque des violences interethniques ont éclaté en Birmanie, 73 00:04:39,340 --> 00:04:44,530 visant notamment la minorité musulmane des Rohingyas, on s'est aperçus, 74 00:04:44,730 --> 00:04:49,630 des enquêtes journalistiques l'ont révélé, que pour le pays birman, 75 00:04:50,080 --> 00:04:55,750 le Myanmar, un seul modérateur dans tout l'effectif de modération 76 00:04:55,950 --> 00:04:58,690 de Facebook, maîtrisait la langue birmane. 77 00:05:01,890 --> 00:05:04,710 Cette augmentation des efforts de modération pour les plateformes 78 00:05:04,910 --> 00:05:05,670 va dans le bon sens. 79 00:05:05,910 --> 00:05:08,700 On a besoin de davantage de modérateurs pour prendre des décisions. 80 00:05:09,000 --> 00:05:14,040 Mais pour autant, elle ne suffit pas, elle ne suffit pas face à l'avalanche 81 00:05:14,240 --> 00:05:17,550 de contenus qui sont postés tous les jours sur ces plateformes. 82 00:05:18,060 --> 00:05:22,980 Par exemple, sur YouTube, on parle de 5 à 700 heures de vidéo 83 00:05:23,310 --> 00:05:26,220 qui sont chargées chaque minute sur la plateforme. 84 00:05:26,970 --> 00:05:31,950 Chaque minute sur Twitter, 350 000 tweets sont postés et Facebook 85 00:05:32,280 --> 00:05:35,850 a près de 2 milliards d'usagers actifs au quotidien. 86 00:05:36,900 --> 00:05:39,330 Vous le comprenez bien, les plateformes pourraient embaucher 87 00:05:39,530 --> 00:05:42,540 des centaines de milliers de modérateurs, ce ne serait jamais 88 00:05:42,740 --> 00:05:47,220 suffisant pour faire face à cet afflux de contenus. 89 00:05:48,060 --> 00:05:51,690 Alors le gros enjeu pour ces plateformes, c'est ce qu'on appelle 90 00:05:51,890 --> 00:05:56,340 le passage à l'échelle, être capables de modérer à de si 91 00:05:56,540 --> 00:06:01,620 grandes échelles, on emploie le verbe to scale en anglais et c'est 92 00:06:01,820 --> 00:06:03,810 comme ça que ces plateformes en parlent. 93 00:06:04,200 --> 00:06:06,120 Alors comment elles passent à l'échelle, justement, 94 00:06:06,320 --> 00:06:07,080 ces plateformes ? 95 00:06:07,280 --> 00:06:09,660 Depuis quelques années, depuis la fin des années 2010, 96 00:06:09,930 --> 00:06:14,400 elles ont parié sur l'automatisation de la modération à travers des 97 00:06:14,600 --> 00:06:15,810 outils d'intelligence artificielle. 98 00:06:16,500 --> 00:06:19,680 On a déjà eu l'occasion dans ce cours de parler de l'intelligence 99 00:06:19,880 --> 00:06:22,980 artificielle et de parler de la manière dont ces outils fonctionnaient. 100 00:06:23,180 --> 00:06:25,980 Ici, c'est la même chose sur les plateformes de réseaux sociaux. 101 00:06:27,030 --> 00:06:32,460 On va développer des outils de reconnaissance automatique d'images 102 00:06:32,660 --> 00:06:33,420 et de textes. 103 00:06:33,720 --> 00:06:35,250 Comment cela fonctionne très concrètement ? 104 00:06:36,150 --> 00:06:40,260 On va développer des algorithmes qui vont s'entraîner suivant le 105 00:06:40,460 --> 00:06:43,800 terme utilisé dans le domaine de l'intelligence artificielle sur 106 00:06:44,000 --> 00:06:47,670 de grandes bases de données, ces bases de données qui sont composées 107 00:06:47,870 --> 00:06:50,190 des contenus déjà retirés par les modérateurs humains. 108 00:06:50,790 --> 00:06:54,480 Imaginons par exemple chez Facebook que les modérateurs humains retirent 109 00:06:54,680 --> 00:06:56,400 des contenus parce qu'ils les jugent haineux. 110 00:06:56,880 --> 00:06:59,520 Il y a des millions, des dizaines, peut-être des centaines 111 00:06:59,720 --> 00:07:03,600 de millions de contenus qui ont été retirés de la plateforme parce 112 00:07:03,800 --> 00:07:06,570 qu'ils sont haineux, et ces bases de données sont scannées 113 00:07:06,840 --> 00:07:11,130 par des algorithmes qui vont chercher à reconnaître par la suite un contenu 114 00:07:11,330 --> 00:07:15,420 haineux en identifiant certains types de phrases, certains types 115 00:07:15,620 --> 00:07:17,670 de mots, certains types d'images. 116 00:07:19,260 --> 00:07:22,110 Alors l'automatisation de la modération, elle commence à la 117 00:07:22,310 --> 00:07:26,040 fin des années 2010, mais elle est aujourd'hui devenue 118 00:07:26,240 --> 00:07:27,570 très clairement majoritaire. 119 00:07:27,870 --> 00:07:29,970 Je vous donne un chiffre pour l'illustrer. 120 00:07:30,870 --> 00:07:35,850 Chez Facebook par exemple, la part des contenus haineux retirés 121 00:07:36,050 --> 00:07:39,150 automatiquement par des outils d'intelligence artificielle était 122 00:07:39,350 --> 00:07:42,840 de 23 % lors du dernier trimestre 2017. 123 00:07:43,170 --> 00:07:47,550 Et ce pourcentage, 23 %, a augmenté continuellement jusqu'à 124 00:07:47,750 --> 00:07:51,900 arriver à 95 % au dernier trimestre 2021. 125 00:07:52,650 --> 00:07:57,030 Chez YouTube, l'automatisation de la modération suit un chemin 126 00:07:57,230 --> 00:07:57,990 similaire. 127 00:07:58,190 --> 00:08:02,820 Chez YouTube, ce sont 99 % des commentaires modérés qui le sont 128 00:08:03,120 --> 00:08:03,880 automatiquement. 129 00:08:04,770 --> 00:08:10,050 Donc aujourd'hui, la modération automatique algorithmique est devenue 130 00:08:10,250 --> 00:08:15,930 le principal outil mobilisé par les plateformes pour modérer les 131 00:08:16,130 --> 00:08:18,120 contenus publiés par les internautes. 132 00:08:18,510 --> 00:08:21,630 Et cette modération automatique n'a fait que progresser pendant 133 00:08:21,830 --> 00:08:23,760 la crise sanitaire, la crise du Covid 19. 134 00:08:23,960 --> 00:08:24,720 Pourquoi ? 135 00:08:25,050 --> 00:08:29,430 Parce que lors de la crise sanitaire, aux États-Unis et dans différentes 136 00:08:29,630 --> 00:08:32,880 parties du monde, ont eu lieu des confinements, aux États-Unis, 137 00:08:33,080 --> 00:08:35,490 pas dans tous les États-Unis, dans certains États, 138 00:08:35,880 --> 00:08:39,690 mais étant donné la nature des contenus auxquels les modérateurs 139 00:08:39,890 --> 00:08:43,110 sont exposés, les grandes compagnies comme Facebook ou YouTube ont décidé 140 00:08:43,310 --> 00:08:47,160 qu'il était compliqué de demander à des modérateurs humains de modérer 141 00:08:47,360 --> 00:08:50,940 des contenus relatifs à des scènes de meurtre ou de viol dans leur 142 00:08:51,140 --> 00:08:53,130 cercle familial et potentiellement devant des enfants. 143 00:08:53,520 --> 00:08:57,450 Alors ils ont décidé que la modération serait 100 % automatique pendant 144 00:08:57,650 --> 00:08:58,710 la crise sanitaire. 145 00:08:59,280 --> 00:09:02,370 Et pendant cette période, on a pu voir par exemple sur une 146 00:09:02,570 --> 00:09:07,170 plateforme comme YouTube que le nombre de vidéos supprimées avait 147 00:09:07,370 --> 00:09:10,800 été multiplié par deux pendant le confinement, ce qui semble indiquer 148 00:09:11,100 --> 00:09:13,590 que lorsqu'on confie les clés de la modération à des outils 149 00:09:13,790 --> 00:09:19,890 automatiques, la censure ou la modération abusive est beaucoup 150 00:09:20,090 --> 00:09:20,850 plus importante. 151 00:09:21,420 --> 00:09:25,020 Je vais y revenir tout de suite, parce que cette modération automatique, 152 00:09:25,290 --> 00:09:29,940 cette modération algorithmique, elle présente un certain nombre 153 00:09:30,140 --> 00:09:31,440 d'avantages pour les plateformes. 154 00:09:32,070 --> 00:09:36,990 On l'a vu, elles permettent de faire face à des grandes quantités 155 00:09:37,260 --> 00:09:40,890 de contenus, mais elles présentent aussi un certain nombre d'inconvénients 156 00:09:41,250 --> 00:09:43,290 et notamment deux inconvénients principaux. 157 00:09:44,430 --> 00:09:47,220 Le premier inconvénient de la modération algorithmique, 158 00:09:47,520 --> 00:09:53,700 c'est d'abord d'être facilement contournable, par exemple en ayant 159 00:09:53,900 --> 00:09:55,980 recours à des discours dissimulés. 160 00:09:56,730 --> 00:09:59,850 C'est un cas qui est très connu des groupes racistes, 161 00:10:00,050 --> 00:10:03,600 misogynes ou homophobes sur les réseaux sociaux, il suffit d'utiliser 162 00:10:03,800 --> 00:10:08,130 un mot à la place d'un autre pour pouvoir passer sous les radars 163 00:10:08,330 --> 00:10:09,690 de la détection automatique. 164 00:10:10,380 --> 00:10:15,390 Un exemple qui est connu en France, par exemple, sur les pages des 165 00:10:15,590 --> 00:10:18,900 médias français, les communautés d'extrême droite, lorsqu'elles 166 00:10:19,100 --> 00:10:23,070 veulent signifier par exemple que l'auteur d'un crime ou d'un délit 167 00:10:23,340 --> 00:10:28,260 est d'origine maghrébine ou africaine, vont utiliser ironiquement l'adjectif 168 00:10:28,460 --> 00:10:31,710 "suédois" pour les désigner en disant "encore un coup des Suédois", 169 00:10:32,550 --> 00:10:33,360 ce genre de phrases. 170 00:10:35,460 --> 00:10:38,760 Ce discours ironique, il est très facilement compris 171 00:10:38,960 --> 00:10:42,510 par les membres de ces communautés et groupes racistes, 172 00:10:42,710 --> 00:10:43,680 homophobes ou misogynes. 173 00:10:44,100 --> 00:10:48,600 Mais pour un l'algorithme qui détecte, qui cherche des mots interdits, 174 00:10:48,800 --> 00:10:53,160 le recours au mot "suédois" leur permettra de passer une fois de 175 00:10:53,360 --> 00:10:55,170 plus sous les radars de cette détection automatique. 176 00:10:55,800 --> 00:11:00,210 De la même façon, on sait que les groupes néonazis vont avoir recours 177 00:11:01,110 --> 00:11:05,370 au chiffre 88 comme comme cri de ralliement. 178 00:11:05,700 --> 00:11:08,730 Pourquoi le chiffre 88 puisque 88 c'est deux fois huit ? 179 00:11:09,060 --> 00:11:13,740 La huitième lettre de l'alphabet étant le H, 88 c'est HH, 180 00:11:13,940 --> 00:11:17,580 Heil Hitler, les réseaux néonazis connaissent la signification de 181 00:11:17,780 --> 00:11:20,490 ce chiffre, mais on ne peut pas demander non plus à un outil de 182 00:11:20,690 --> 00:11:23,880 détection automatique de retirer d'une plateforme comme Facebook 183 00:11:24,080 --> 00:11:26,550 tous les postes qui contiendraient le chiffre 88. 184 00:11:27,750 --> 00:11:30,680 Donc premier problème, cette détection automatique, 185 00:11:30,880 --> 00:11:31,980 elle est facilement contournable. 186 00:11:32,460 --> 00:11:35,610 Deuxième problème, la détection automatique, elle génère aussi 187 00:11:35,810 --> 00:11:40,020 des faux positifs, c'est-à-dire qu'elle va avoir tendance à identifier 188 00:11:40,220 --> 00:11:44,280 comme problématique une publication qui en fait ne l'est pas vraiment. 189 00:11:44,730 --> 00:11:48,740 Par exemple, lorsque quelqu'un dénonce un propos raciste en le 190 00:11:49,230 --> 00:11:53,730 reproduisant, "aujourd'hui à la caisse du supermarché, 191 00:11:53,930 --> 00:11:57,660 on m'a dit que" et on reproduit une parole raciste pour la dénoncer, 192 00:11:58,110 --> 00:12:02,400 mais là encore, l'algorithme n'arrive pas très bien à comprendre qu'il 193 00:12:02,600 --> 00:12:06,390 s'agit d'une citation et d'une dénonciation, il voit au premier degré, 194 00:12:06,590 --> 00:12:07,350 si je puis dire. 195 00:12:09,960 --> 00:12:14,850 Ou alors quand on utilise des insultes, des insultes misogynes ou homophobes 196 00:12:15,050 --> 00:12:18,000 par exemple, mais au second degré dans un groupe d'amis, 197 00:12:18,420 --> 00:12:21,780 sans avoir recours à la première signification du mot. 198 00:12:22,020 --> 00:12:24,420 Et là encore, les algorithmes d'intelligence artificielle, 199 00:12:24,810 --> 00:12:28,590 aussi performants soient-ils, n'arrivent pas à comprendre l'ironie. 200 00:12:29,370 --> 00:12:35,760 Donc le problème de ces outils, c'est aussi de créer de la censure 201 00:12:35,960 --> 00:12:38,130 là où il ne devrait pas y en avoir. 202 00:12:38,790 --> 00:12:43,260 Alors que font les plateformes pour justement limiter ces cas 203 00:12:43,460 --> 00:12:44,220 de censure abusive ? 204 00:12:45,300 --> 00:12:47,700 Des plateformes comme Facebook ou YouTube par exemple, 205 00:12:47,900 --> 00:12:49,440 ont créé des procédures d'appel. 206 00:12:49,890 --> 00:12:54,000 Ces procédures d'appel permettent à un internaute qui juge avoir 207 00:12:54,200 --> 00:13:01,740 été victime d'une censure arbitraire et non justifiée, d'exiger une 208 00:13:01,940 --> 00:13:05,730 seconde évaluation de sa publication, c'est-à-dire que si vous, 209 00:13:05,930 --> 00:13:08,640 vous êtes dans ce cas, on a retiré de la plateforme une 210 00:13:08,840 --> 00:13:11,610 de vos publications, vous jugez que ce retrait est illégitime, 211 00:13:12,000 --> 00:13:18,240 vous pouvez faire appel et demander de nouveau à un modérateur d'évaluer 212 00:13:18,440 --> 00:13:19,200 votre cas. 213 00:13:19,650 --> 00:13:24,000 Facebook et YouTube sont deux entreprises qui communiquent sur 214 00:13:24,200 --> 00:13:27,000 les chiffres de leurs procédures d'appel. 215 00:13:27,450 --> 00:13:29,910 Et lorsqu'on met le nez dans ces rapports de transparence, 216 00:13:30,240 --> 00:13:35,400 on se rend compte que entre 20 et 30 % des contenus sont restaurés 217 00:13:35,600 --> 00:13:38,520 après appel, ce qui est un chiffre très important. 218 00:13:38,880 --> 00:13:44,520 Ce qui signifie qu'entre un cinquième et un tiers des contenus qui sont 219 00:13:44,720 --> 00:13:49,200 retirés de la plateforme seraient retirés de manière abusive. 220 00:13:49,400 --> 00:13:51,810 En tout cas, c'est ce que semblent indiquer les appels. 221 00:13:52,860 --> 00:13:56,700 Cela, ces chiffres montrent bien que la modération automatique est 222 00:13:56,900 --> 00:14:00,660 faillible et que pour protéger le droit à la liberté d'expression 223 00:14:00,860 --> 00:14:03,360 des internautes, il est nécessaire que toutes les grandes plateformes 224 00:14:03,560 --> 00:14:05,490 puissent garantir des procédures d'appel. 225 00:14:06,210 --> 00:14:09,610 Certaines entreprises vont même plus loin, en mai 2020, 226 00:14:09,810 --> 00:14:13,740 Facebook a fait couler beaucoup d'encre en créant son conseil de 227 00:14:13,940 --> 00:14:18,630 surveillance qui a été surnommé dans la presse la "Cour suprême 228 00:14:18,830 --> 00:14:23,700 de Facebook", qui est une institution indépendante de la plateforme de 229 00:14:23,900 --> 00:14:26,820 réseau social, même si elle est quand même financée par la plateforme 230 00:14:27,020 --> 00:14:30,870 en question, qui réunit des personnalités de la société civile, 231 00:14:31,110 --> 00:14:35,070 des universitaires, des activistes ou autres, spécialistes de ces 232 00:14:35,270 --> 00:14:41,160 questions, et qui vont trancher des litiges délicats entre la 233 00:14:41,360 --> 00:14:45,540 plateforme et ses usagers lorsqu'il y a un désaccord. 234 00:14:47,130 --> 00:14:49,800 Cette "Cour suprême" fonctionne un peu comme une Cour de cassation 235 00:14:50,000 --> 00:14:53,130 ou une Cour de troisième niveau, c'est-à-dire que quand un internaute 236 00:14:53,370 --> 00:14:56,340 se fait supprimer du contenu et qu'il fait appel et qu'il n'est 237 00:14:56,540 --> 00:15:00,540 toujours pas satisfait de cet appel, il peut faire appel une fois de plus, 238 00:15:00,740 --> 00:15:04,800 un second appel à cette "Cour suprême", le conseil de surveillance de Facebook. 239 00:15:05,400 --> 00:15:09,150 Ce conseil de surveillance, ses décisions sont contraignantes 240 00:15:09,350 --> 00:15:14,010 pour la plateforme, c'est-à-dire que quand le conseil prend une 241 00:15:14,210 --> 00:15:18,240 décision qui va à l'encontre de ce que Facebook avait d'abord décidé, 242 00:15:18,990 --> 00:15:22,590 la plateforme s'engage à respecter les choix du conseil. 243 00:15:23,160 --> 00:15:27,660 Par exemple, ce conseil de surveillance a eu à trancher le cas de Donald 244 00:15:27,860 --> 00:15:31,650 Trump dont les comptes avaient été supprimés sur Facebook suite 245 00:15:31,850 --> 00:15:37,440 à l'assaut du Capitole et la plateforme avait conforté Facebook dans l'idée 246 00:15:37,640 --> 00:15:41,550 de supprimer les comptes de Donald Trump, jugeant qu'effectivement, 247 00:15:41,750 --> 00:15:46,830 Donald Trump avait invité, incité à l'action violente contre 248 00:15:47,030 --> 00:15:51,450 des institutions américaines mais le conseil a également décidé que 249 00:15:51,650 --> 00:15:55,550 Facebook ne pouvait pas prendre une telle décision ad vitam eternam 250 00:15:55,750 --> 00:15:59,040 et qu'elle devait tous les cinq ans revoir sa position et 251 00:15:59,240 --> 00:16:02,250 potentiellement accepter de nouveau Donald Trump sur sa plateforme. 252 00:16:02,700 --> 00:16:05,460 On le voit bien aujourd'hui, ces enjeux de litige, 253 00:16:05,660 --> 00:16:09,390 de censure abusive, appellent à de nouveaux mécanismes judiciaires 254 00:16:09,690 --> 00:16:13,290 dans lesquels des institutions indépendantes pourraient avoir 255 00:16:13,490 --> 00:16:15,810 leur mot à dire sur la manière dont modèrent les plateformes, 256 00:16:16,080 --> 00:16:20,310 mais ces institutions et ces mécanismes restent encore largement à inventer.