1 00:00:05,590 --> 00:00:07,540 De quoi les fake news sont-elles le nom ? 2 00:00:07,780 --> 00:00:11,680 Dans cette première vidéo, on va chercher à définir et 3 00:00:11,920 --> 00:00:15,550 circonscrire le phénomène de désinformation qui s’exprime à 4 00:00:15,750 --> 00:00:20,590 travers les fake news pour essayer de mieux comprendre ce qu’il recouvre. 5 00:00:21,270 --> 00:00:24,190 Première chose à dire, c’est que ce terme de fake news 6 00:00:24,520 --> 00:00:29,740 est utilisé à tort et à travers, au point d’englober des réalités 7 00:00:29,940 --> 00:00:33,910 très différentes et peut-être d’apporter plus de confusion que 8 00:00:34,110 --> 00:00:35,200 de clarté au débat. 9 00:00:35,400 --> 00:00:41,230 D’ailleurs, la chercheuse Claire Wardle préconise le fait d’arrêter 10 00:00:41,430 --> 00:00:46,660 de parler de fake news et de lui préférer d’autres termes plus précis, 11 00:00:47,020 --> 00:00:51,190 comme le terme de pollution informationnelle ou de désordre 12 00:00:51,390 --> 00:00:52,150 informationnel. 13 00:00:52,630 --> 00:00:57,430 La chercheuse Claire Wardle désigne, derrière ce thème de désordre 14 00:00:57,630 --> 00:01:01,810 informationnel, trois types de réalités différentes, trois types 15 00:01:02,010 --> 00:01:03,820 de désordre informationnel différents. 16 00:01:04,450 --> 00:01:09,250 Le premier, c’est le phénomène qu’elle désigne par la désinformation. 17 00:01:09,820 --> 00:01:15,370 La désinformation, c’est lorsqu’un contenu faux circule dans le débat 18 00:01:15,570 --> 00:01:21,310 public, mais ce contenu faux a été produit avec une volonté de 19 00:01:21,510 --> 00:01:25,000 tromper un public, c’est-à-dire que celle ou celui qui produit 20 00:01:25,300 --> 00:01:29,380 cette désinformation a tout à fait conscience que l’information est 21 00:01:29,580 --> 00:01:33,040 fausse, mais il cherche, en la mettant en circulation, 22 00:01:33,400 --> 00:01:37,360 à faire croire à ce mensonge, donc à manipuler celles et ceux 23 00:01:37,560 --> 00:01:38,830 qui y seront exposés. 24 00:01:39,030 --> 00:01:40,750 Ça, c’est la désinformation. 25 00:01:40,950 --> 00:01:41,770 Premier cas de figure. 26 00:01:42,340 --> 00:01:45,640 Deuxième cas de figure, celui de la mésinformation. 27 00:01:45,940 --> 00:01:48,940 Dans ce cas de figure, on a également un contenu faux 28 00:01:49,360 --> 00:01:53,140 qui circule dans le débat public, qui circule dans l’espace public, 29 00:01:53,410 --> 00:01:57,790 mais ce contenu a été produit sans volonté de nuire. 30 00:01:58,270 --> 00:02:02,680 Par exemple, un journaliste peut faire circuler une information 31 00:02:02,880 --> 00:02:06,940 fausse parce qu’il ne l’a pas vérifiée ou parce qu’il n’a pas croisé ses 32 00:02:07,140 --> 00:02:07,900 sources. 33 00:02:08,100 --> 00:02:12,400 Il s’agit d’une erreur de sa part, mais il n’a pas de volonté de manipuler 34 00:02:12,600 --> 00:02:15,370 l’opinion en faisant croire à un mensonge. 35 00:02:16,630 --> 00:02:18,940 Troisième cas de figure, troisième cas de désordre 36 00:02:19,140 --> 00:02:21,370 informationnel, celui de la malinformation. 37 00:02:22,390 --> 00:02:26,110 La malinformation, c’est un cas de figure qu’on retrouve le plus 38 00:02:26,310 --> 00:02:27,400 souvent sur les réseaux sociaux. 39 00:02:27,790 --> 00:02:32,530 Il correspond soit à une information qui peut être vraie ou fausse, 40 00:02:32,830 --> 00:02:40,840 mais qui correspond à une volonté de nuire, soit par exemple en publiant 41 00:02:41,040 --> 00:02:44,140 des informations personnelles à propos d’un individu sans son 42 00:02:44,340 --> 00:02:45,100 consentement. 43 00:02:45,300 --> 00:02:49,600 On peut penser par exemple à la manière dont des leaks comme on dit, 44 00:02:49,800 --> 00:02:54,100 des fuites vont faire circuler des informations vraies mais privées 45 00:02:54,300 --> 00:02:59,950 sur un individu, des photos personnelles, des vidéos, 46 00:03:00,610 --> 00:03:04,840 comme on peut en trouver dans le cas du revenge porn où on va diffuser 47 00:03:05,040 --> 00:03:07,810 des vidéos intimes d’une personne sans son consentement. 48 00:03:08,680 --> 00:03:12,370 La malinformation, c’est aussi la manière dont on va tirer de 49 00:03:12,570 --> 00:03:16,870 son contexte une information vraie, la décontextualiser, 50 00:03:17,070 --> 00:03:22,360 l’extrapoler pour lui donner une certaine lecture idéologique. 51 00:03:22,560 --> 00:03:25,760 L’information n’est pas franchement fausse, mais parce qu’elle est 52 00:03:26,140 --> 00:03:30,520 décontextualisée, extrapolée, elle est de mauvaise qualité. 53 00:03:30,720 --> 00:03:32,620 On lui donne un angle, idéologique notamment, 54 00:03:33,550 --> 00:03:38,890 très particulier, qui correspond là encore à une volonté de nuire. 55 00:03:39,940 --> 00:03:44,230 Des contenus qui sont vrais ou faux, des volontés de nuire ou pas, 56 00:03:44,430 --> 00:03:49,450 entre la désinformation, la mésinformation et la malinformation, 57 00:03:50,740 --> 00:03:55,450 on est face à des cas de figure différents qui correspondent à 58 00:03:55,650 --> 00:03:58,720 des intentions différentes, le terme d’intention est très 59 00:03:58,920 --> 00:04:05,830 important, qui appellent aussi à des réponses différenciées. 60 00:04:06,030 --> 00:04:09,340 C’est pour cela qu’il est important de les distinguer. 61 00:04:09,540 --> 00:04:13,990 Lorsqu’on parle de fake news, qu’on traduit parfois par infox, 62 00:04:15,250 --> 00:04:19,090 fausse information ou fausses nouvelles, de quoi parle-t-on ? 63 00:04:19,290 --> 00:04:24,370 On parle d’un cas particulier de désinformation dans lequel on a 64 00:04:24,570 --> 00:04:28,210 une intention de nuire en propageant des contenus faux. 65 00:04:29,080 --> 00:04:32,380 Plus exactement, lorsqu’on parle de fausses informations, 66 00:04:32,800 --> 00:04:37,960 on désigne des contenus éditoriaux qui imitent des productions 67 00:04:38,160 --> 00:04:42,880 journalistiques, des contenus éditoriaux qui imitent des productions 68 00:04:43,080 --> 00:04:43,840 journalistiques. 69 00:04:44,040 --> 00:04:47,440 Ici, le terme imiter est très important. 70 00:04:47,640 --> 00:04:48,400 Pourquoi ? 71 00:04:48,970 --> 00:04:52,120 Parce que, en anglais, lorsqu’on parle de quelque chose 72 00:04:52,320 --> 00:04:56,080 qui est faux, on peut aussi bien utiliser le terme false que le 73 00:04:56,280 --> 00:04:57,040 terme fake. 74 00:04:57,240 --> 00:05:02,140 Mais quand on choisit d’utiliser le terme fake, il y a derrière 75 00:05:02,340 --> 00:05:06,250 l’idée de produire une contrefaçon et c’est exactement ce que sont 76 00:05:06,450 --> 00:05:10,330 les fake news, des contrefaçons de produits journalistiques. 77 00:05:10,530 --> 00:05:13,390 Lorsqu’on consulte une fake news sur internet ou sur les réseaux 78 00:05:13,590 --> 00:05:18,160 sociaux, on a parfois l’impression de lire un article journalistique. 79 00:05:18,460 --> 00:05:22,030 Le titre, d’abord, ressemble à un titre de presse, la construction 80 00:05:22,230 --> 00:05:25,030 de l’article, ensuite, imite la construction d’un article 81 00:05:25,230 --> 00:05:28,150 de presse avec un chapeau, un paragraphe introductif, 82 00:05:28,420 --> 00:05:31,390 des intertitres qui permettent de relancer la lecture et des 83 00:05:31,590 --> 00:05:36,760 paragraphes courts sur un ton qui, là aussi, imite le ton utilisé 84 00:05:36,960 --> 00:05:37,780 par les journalistes. 85 00:05:38,050 --> 00:05:41,470 Donc une fake news, c’est d’abord une imitation, une contrefaçon 86 00:05:42,040 --> 00:05:43,570 d’une information journalistique. 87 00:05:44,560 --> 00:05:48,520 Pour construire une fake news, on peut avoir recours à différentes 88 00:05:48,720 --> 00:05:49,480 techniques. 89 00:05:49,680 --> 00:05:53,260 On peut avoir recours d’abord à un blanchiment d’informations 90 00:05:53,460 --> 00:05:54,220 satiriques. 91 00:05:54,580 --> 00:05:58,750 Sur le web, sur les réseaux sociaux, on retrouve beaucoup de sites 92 00:05:58,950 --> 00:06:02,440 satiriques, comme Le Gorafi, qui vont propager des mensonges, 93 00:06:02,800 --> 00:06:06,220 non pas pour manipuler l’opinion, dans l’optique de faire rire. 94 00:06:06,420 --> 00:06:11,530 Pourtant, les réseaux malintentionnés qui cherchent à manipuler l’opinion 95 00:06:11,830 --> 00:06:16,090 vont parfois récupérer des informations produites par Le Gorafi ou d’autres 96 00:06:16,290 --> 00:06:19,390 informations satiriques en les blanchissant, c’est-à-dire en faisant 97 00:06:19,590 --> 00:06:23,140 croire qu’il s’agit d’une vraie information et en tentant de manipuler 98 00:06:23,500 --> 00:06:24,820 l’opinion à son égard. 99 00:06:25,390 --> 00:06:29,080 Un cas de figure intéressant, par exemple lors de la campagne 100 00:06:29,280 --> 00:06:34,780 électorale de 2017, une information du Gorafi qui titrait : 101 00:06:34,980 --> 00:06:41,080 Macron : "Lorsque je serre la main d’un pauvre, je me sens mal toute 102 00:06:41,280 --> 00:06:42,040 la journée". 103 00:06:42,240 --> 00:06:46,810 Cette phrase et l’article qui y étaient liés avaient pour but de 104 00:06:47,010 --> 00:06:52,040 faire rire en moquant un trait de caractère qu’on prête souvent 105 00:06:52,240 --> 00:06:54,430 à Emmanuel Macron, son côté élitiste. 106 00:06:55,120 --> 00:07:01,030 Sauf que des réseaux malintentionnés avaient récupéré cette phrase et 107 00:07:01,230 --> 00:07:04,660 l’avaient accompagnée d’un montage vidéo où on voyait Emmanuel Macron 108 00:07:04,860 --> 00:07:08,320 serrer la main d’ouvriers dans une usine, puis une autre séquence 109 00:07:08,520 --> 00:07:12,700 dans laquelle il se nettoyait frénétiquement les mains en rentrant 110 00:07:12,900 --> 00:07:13,720 à l’arrière d’une voiture. 111 00:07:14,440 --> 00:07:15,760 Les deux séquences n’avaient rien à voir. 112 00:07:15,960 --> 00:07:18,670 Dans un premier cas de figure, il était effectivement en visite 113 00:07:18,870 --> 00:07:22,670 dans une usine et discutait avec les ouvriers sur le parking. 114 00:07:22,870 --> 00:07:25,450 Il avait d’ailleurs des échanges assez vifs avec ces ouvriers. 115 00:07:25,900 --> 00:07:27,880 Dans la deuxième séquence, il n’est d’ailleurs pas habillé 116 00:07:28,080 --> 00:07:28,840 de la même façon. 117 00:07:29,040 --> 00:07:32,560 On le voit rentrer dans la voiture et s’essuyer frénétiquement les 118 00:07:32,760 --> 00:07:36,430 mains parce que cette deuxième séquence correspond à une rencontre 119 00:07:36,630 --> 00:07:40,000 entre le candidat Emmanuel Macron et des marins pêcheurs dans laquelle 120 00:07:40,200 --> 00:07:42,190 il a été amené à toucher une anguille. 121 00:07:42,390 --> 00:07:45,790 Il a les mains poisseuses et s’essuie les mains lorsqu’il rentre dans 122 00:07:45,990 --> 00:07:46,750 la voiture. 123 00:07:47,530 --> 00:07:51,190 On a blanchi une information parodique pour faire croire qu’elle était 124 00:07:51,390 --> 00:07:53,680 vraie et on l’a même accompagnée d’une vidéo. 125 00:07:54,520 --> 00:07:57,580 Deuxième cas de figure, on peut aussi chercher à franciser 126 00:07:58,750 --> 00:08:00,490 des fake news étrangères. 127 00:08:01,000 --> 00:08:04,750 On regarde aux États-Unis ou en Amérique du Sud des fake news très 128 00:08:04,950 --> 00:08:08,650 populaires là-bas et on va les adapter au contexte français. 129 00:08:09,400 --> 00:08:11,920 Troisième cas de figure pour produire une fausse information, 130 00:08:12,120 --> 00:08:15,520 on peut aussi bien mettre à jour des canulars passés. 131 00:08:15,940 --> 00:08:20,530 Par exemple, dans le cas de Christiane Taubira lorsqu’elle était ministre 132 00:08:20,730 --> 00:08:23,710 de la Justice, elle a été la cible de nombreuses fake news. 133 00:08:24,430 --> 00:08:28,690 Parmi les fake news qui la ciblaient, on a pu repérer des fake news qui 134 00:08:28,890 --> 00:08:32,320 avaient été déjà été utilisées par le passé pour cibler d’autres 135 00:08:32,520 --> 00:08:36,160 ministres et qui étaient mis à jour tout simplement en changeant 136 00:08:36,360 --> 00:08:38,950 le titre du ministre visé et en visant cette fois-ci Christiane 137 00:08:39,150 --> 00:08:39,910 Taubira. 138 00:08:40,660 --> 00:08:48,430 Première caractéristique des fake news, c’est l’idée d’imiter des contenus 139 00:08:48,630 --> 00:08:50,980 journalistiques pour produire des fausses informations. 140 00:08:51,310 --> 00:08:53,920 Comme on l’a vu, il y a plusieurs manières de s’y prendre : 141 00:08:54,250 --> 00:08:58,300 blanchir des informations parodiques, franciser des fake news étrangères 142 00:08:58,500 --> 00:09:00,400 ou mettre à jour des fake news passées. 143 00:09:01,930 --> 00:09:06,100 Deuxième caractéristique, les fake news que l’on connaît 144 00:09:06,300 --> 00:09:09,640 actuellement sont produites avec deux objectifs principaux : 145 00:09:09,940 --> 00:09:16,540 soit générer des revenus publicitaires, soit servir de support à de la 146 00:09:16,740 --> 00:09:17,560 propagande politique. 147 00:09:18,550 --> 00:09:22,540 Ça peut paraître étrange de premier abord, mais les fake news peuvent 148 00:09:22,740 --> 00:09:27,610 servir à faire gagner de l’argent à celles et ceux qui les propagent. 149 00:09:28,600 --> 00:09:33,070 Je vous donne une histoire bien connue dans le monde des fake news, 150 00:09:33,270 --> 00:09:36,430 peut-être n’en avez vous pas entendu parler, qui est représentative 151 00:09:36,630 --> 00:09:39,370 de la manière dont on peut gagner de l’argent avec des fake news. 152 00:09:40,090 --> 00:09:45,370 En 2016, lors de la campagne électorale aux États-Unis qui a vu l’élection 153 00:09:45,570 --> 00:09:48,730 de Donald Trump, des journalistes américains s’étaient rendu compte 154 00:09:48,930 --> 00:09:52,630 qu’une part importante des sites qui propageaient des fake news 155 00:09:52,830 --> 00:09:57,550 pro-Trump et anti-Clinton étaient situés en Macédoine. 156 00:09:58,060 --> 00:10:02,050 Ils s’étaient demandé pourquoi des sites en Macédoine produisaient 157 00:10:02,250 --> 00:10:03,220 des fake news pro-Trump. 158 00:10:03,970 --> 00:10:08,410 Leur hypothèse était que l’équipe de campagne de Trump avait délocalisé 159 00:10:08,610 --> 00:10:12,430 en Europe centrale la production de fausses informations. 160 00:10:12,910 --> 00:10:15,880 Mais en se rendant sur place, il s’était rendu compte que les 161 00:10:16,080 --> 00:10:18,670 sites en question étaient hébergés dans un petit village en Macédoine 162 00:10:19,090 --> 00:10:23,260 et lorsqu’ils se sont rendus sur place, ils sont tombés sur des adolescents 163 00:10:23,680 --> 00:10:29,140 de 14, 15, 16 ans, qui avaient produit une centaine de sites de 164 00:10:29,340 --> 00:10:31,240 fake news afin de gagner de l’argent. 165 00:10:31,630 --> 00:10:35,440 Ils n’étaient absolument pas intéressés par la politique américaine, 166 00:10:35,710 --> 00:10:40,030 mais avaient juste compris qu’ils pouvaient trouver par ce biais 167 00:10:40,230 --> 00:10:42,490 un moyen de gagner des revenus et des revenus conséquents. 168 00:10:43,030 --> 00:10:43,840 Comment s’y prenaient-ils ? 169 00:10:44,440 --> 00:10:48,310 Ces adolescents, ces lycéens avaient construit les sites sur lesquels 170 00:10:48,510 --> 00:10:50,590 ils hébergeaient de la publicité. 171 00:10:50,790 --> 00:10:54,700 À chaque fois que quelqu’un venait sur leur site, il était exposé 172 00:10:55,150 --> 00:10:57,580 à des bannières publicitaires et à chaque fois qu’une pub était 173 00:10:57,780 --> 00:11:00,580 vue ou qu’un internaute cliquait sur une bannière publicitaire, 174 00:11:01,030 --> 00:11:05,080 ces jeunes Macédoniens touchaient quelques centimes d’euros. 175 00:11:05,770 --> 00:11:09,340 Ils écrivaient ensuite des fake news qu’ils publiaient sur leur 176 00:11:09,540 --> 00:11:15,160 site et relayaient le lien de ces fake news sur le Facebook américain 177 00:11:15,940 --> 00:11:20,680 en se disant que les Américains qui étaient friands de fake news, 178 00:11:20,880 --> 00:11:25,030 c’est pour ça qu’ils le faisaient, allaient partager et donner de 179 00:11:25,230 --> 00:11:27,370 l’ampleur à leurs fausses informations. 180 00:11:27,570 --> 00:11:29,500 C’est exactement ce qui s’est passé. 181 00:11:29,770 --> 00:11:32,710 Les Américains pro-Trump partageant ces fausses informations, 182 00:11:33,040 --> 00:11:36,220 des milliers, voire des dizaines, peut-être des centaines de milliers 183 00:11:36,420 --> 00:11:40,060 d’internautes américains cliquaient sur le lien, arrivaient sur le 184 00:11:40,260 --> 00:11:43,920 site macédonien, lisaient la fake news en question et pendant ce temps, 185 00:11:44,120 --> 00:11:47,560 ils étaient exposés à de la publicité qui faisait gagner quelques centimes 186 00:11:47,760 --> 00:11:49,000 d’euros aux adolescents. 187 00:11:49,360 --> 00:11:53,710 Ce que révélait l’enquête de BuzzFeed sur le sujet, le média américain 188 00:11:53,910 --> 00:11:57,520 qui a enquêté sur l’affaire, c’est que ces adolescents macédoniens 189 00:11:57,820 --> 00:12:00,940 pouvaient gagner jusqu’à 3 000 euros par mois avec leur site de 190 00:12:01,140 --> 00:12:05,530 fake news, alors que le salaire moyen en Macédoine tourne autour 191 00:12:05,730 --> 00:12:07,420 de 600 euros mensuels. 192 00:12:08,320 --> 00:12:11,710 Une fois de plus, il n’y avait aucune volonté politique de leur part. 193 00:12:12,250 --> 00:12:14,830 Ces adolescents cherchaient uniquement à gagner de l’argent. 194 00:12:15,580 --> 00:12:18,850 Ils avaient choisi de diffuser des fake news pro-Trump, 195 00:12:19,090 --> 00:12:23,380 tout simplement parce qu’ils avaient vu que ces contenus étaient très 196 00:12:23,650 --> 00:12:27,190 plébiscités par les internautes américains pendant la campagne. 197 00:12:29,320 --> 00:12:32,950 Une fake news peut permettre de gagner de l’argent grâce à la publicité 198 00:12:33,150 --> 00:12:33,910 en ligne. 199 00:12:34,110 --> 00:12:37,690 Mais la spécificité du phénomène que l’on connaît aujourd’hui, 200 00:12:37,890 --> 00:12:44,170 c’est d’utiliser ces fausses informations à des fins de propagande 201 00:12:44,370 --> 00:12:45,130 politique. 202 00:12:45,910 --> 00:12:49,930 Par exemple, lors de la campagne électorale française de 2017 qui 203 00:12:50,130 --> 00:12:53,470 a vu l’élection d’Emmanuel Macron, un grand nombre de fausses informations 204 00:12:53,670 --> 00:12:55,630 ont circulé sur les réseaux sociaux français. 205 00:12:56,260 --> 00:12:59,290 Je vous lis les titres de trois d’entre elles qui ont été 206 00:12:59,490 --> 00:13:05,770 particulièrement partagées : "Nouvelle loi : les célibataires 207 00:13:05,970 --> 00:13:08,200 de plus de 30 ans devront accueillir un migrant". 208 00:13:10,120 --> 00:13:14,470 Deuxième fake news : "Urgent : Macron supprime les 209 00:13:14,670 --> 00:13:15,520 allocations familiales". 210 00:13:17,290 --> 00:13:21,220 Troisième fake news : "Remplacer les jours fériés par 211 00:13:21,420 --> 00:13:22,270 des fêtes musulmanes". 212 00:13:24,010 --> 00:13:28,270 Ces fake news ont été très partagées parmi d’autres sur les réseaux 213 00:13:28,470 --> 00:13:30,070 sociaux pendant la campagne de 2017. 214 00:13:30,490 --> 00:13:33,820 Lorsque je vous lis ces titres, vous voyez bien qu’elles ne sont 215 00:13:34,020 --> 00:13:35,650 pas anodines, ces fake news. 216 00:13:35,980 --> 00:13:37,540 Elles parlent de sujets politiques. 217 00:13:37,810 --> 00:13:40,990 Elles ciblent des candidats particuliers ou elles ciblent le 218 00:13:41,190 --> 00:13:43,390 président en exercice. 219 00:13:43,870 --> 00:13:45,940 On y retrouve une tonalité xénophobe. 220 00:13:46,630 --> 00:13:51,600 Elle cible les migrants ou les droits des minorités en France. 221 00:13:51,800 --> 00:13:55,180 Elles ciblent également la minorité musulmane. 222 00:13:55,780 --> 00:13:59,020 Elles prennent à partie Emmanuel Macron qui pendant la campagne 223 00:13:59,220 --> 00:14:02,020 est l’opposant de Marine Le Pen. 224 00:14:02,220 --> 00:14:04,960 Elles incarnent un discours antisystème, anti-élus, 225 00:14:05,710 --> 00:14:09,760 avec un très fort ancrage à l’extrême droite. 226 00:14:10,720 --> 00:14:12,370 Et ça, ce n’est pas du tout anodin. 227 00:14:12,790 --> 00:14:17,020 Que ce soit en Amérique du Nord ou en Europe, les fake news politiques 228 00:14:17,260 --> 00:14:21,250 sont très majoritairement produites par des réseaux d’extrême droite 229 00:14:21,610 --> 00:14:26,050 qui utilisent les fausses informations pour décrédibiliser leurs opposants, 230 00:14:26,470 --> 00:14:30,910 ou à l’inverse, pour donner de la visibilité aux thématiques autour 231 00:14:31,110 --> 00:14:33,100 desquelles ces réseaux se mobilisent. 232 00:14:33,580 --> 00:14:38,380 Pendant la campagne électorale de 2017, ces réseaux s’étaient activés pour 233 00:14:38,580 --> 00:14:41,740 faire monter les thématiques de campagne de Marine Le Pen ou 234 00:14:41,940 --> 00:14:45,070 décrédibiliser son opposant principal Emmanuel Macron. 235 00:14:45,270 --> 00:14:49,060 C’est la deuxième caractéristique des fake news. 236 00:14:49,450 --> 00:14:53,110 Elles sont produites à des fins économiques ou à des fins politiques, 237 00:14:53,410 --> 00:14:56,080 les deux pouvant parfois se rencontrer. 238 00:14:58,420 --> 00:15:02,940 Troisième caractéristique, si on parle autant des fake news 239 00:15:03,140 --> 00:15:05,580 ces dernières années, c’est parce qu’elles circulent 240 00:15:05,780 --> 00:15:06,540 sur les réseaux sociaux. 241 00:15:07,110 --> 00:15:11,010 Le rôle des réseaux sociaux est très important dans la diffusion 242 00:15:11,210 --> 00:15:11,970 des fausses informations. 243 00:15:12,810 --> 00:15:14,280 Pourquoi est-ce un problème ? 244 00:15:14,480 --> 00:15:18,660 C’est un problème parce qu’aujourd’hui, les réseaux sociaux sont devenus 245 00:15:18,860 --> 00:15:22,890 une source d’information pour une part de plus en plus importante 246 00:15:23,090 --> 00:15:23,850 de la population. 247 00:15:24,050 --> 00:15:29,310 C’est même devenu la principale source d’information des jeunes 248 00:15:29,510 --> 00:15:32,430 Français et des plus jeunes dans le monde. 249 00:15:33,990 --> 00:15:36,550 Pourquoi est-ce que cela peut poser problème ? 250 00:15:36,750 --> 00:15:38,760 Après tout, nous sommes nombreux à nous informer sur les réseaux 251 00:15:38,960 --> 00:15:40,980 sociaux sans que cela puisse être un problème. 252 00:15:41,850 --> 00:15:45,300 Dans le cadre des fake news, cela pose problème parce que sur 253 00:15:45,500 --> 00:15:48,210 les réseaux sociaux, toutes les sources d’information 254 00:15:48,410 --> 00:15:49,740 apparaissent au même niveau. 255 00:15:52,440 --> 00:15:55,290 Que ce soit Le Monde, Libération ou Le Figaro, 256 00:15:56,070 --> 00:15:59,040 que ce soit des sites alternatifs qui propagent des fake news, 257 00:15:59,400 --> 00:16:04,380 tous le feront à partir d’une même page créée sur Facebook ou sur 258 00:16:04,580 --> 00:16:06,050 Instagram ou d’un même compte Twitter. 259 00:16:06,250 --> 00:16:08,340 Donc à la base, ils seront tous au même niveau. 260 00:16:08,790 --> 00:16:12,390 Par ailleurs, lorsque ces informations sont publiées, elles apparaissent 261 00:16:12,590 --> 00:16:14,610 toutes sous le même aspect. 262 00:16:15,210 --> 00:16:18,990 Sur Facebook ou sur Twitter, ces fausses informations apparaissent 263 00:16:19,200 --> 00:16:24,060 avec le titre, la photo qui illustre l’article, un texte qui vient 264 00:16:24,260 --> 00:16:27,600 accompagner la diffusion, mais la source elle-même apparaît 265 00:16:27,800 --> 00:16:31,140 tout en bas et paraît complètement secondaire par rapport au titre 266 00:16:31,340 --> 00:16:32,100 de l’article. 267 00:16:32,640 --> 00:16:36,810 Pour distinguer la source, il faut faire l’effort d’aller 268 00:16:37,010 --> 00:16:41,280 chercher cette source en bas, elle n’apparaît pas directement, 269 00:16:41,850 --> 00:16:45,360 alors que lorsque vous vous informez sur un site internet ou via un 270 00:16:45,560 --> 00:16:49,590 journal papier, la marque du journal apparaît en grand. 271 00:16:50,160 --> 00:16:55,770 Vous savez très bien quelle sorte d’informations vous consultez. 272 00:16:57,120 --> 00:16:59,100 Elles sont toutes au même niveau sur les réseaux sociaux, 273 00:16:59,300 --> 00:17:00,060 les informations. 274 00:17:00,260 --> 00:17:05,520 Elles apparaissent toutes sous la même forme, ce qui a pour 275 00:17:05,720 --> 00:17:11,220 conséquence de redéfinir les circuits de confiance en l’information. 276 00:17:11,420 --> 00:17:12,810 Qu’est-ce que j’entends par là ? 277 00:17:13,260 --> 00:17:15,240 Différentes études en sciences sociales l’ont montré. 278 00:17:16,560 --> 00:17:23,580 Lorsqu’on consulte une information hors ligne, on a tendance à faire 279 00:17:23,780 --> 00:17:24,870 confiance à des marques. 280 00:17:25,590 --> 00:17:28,410 Lorsque je lis Le Monde, Libération ou Le Figaro, 281 00:17:28,610 --> 00:17:31,740 j’ai confiance en l’information parce que j’ai confiance en la 282 00:17:31,940 --> 00:17:34,710 marque Le Monde, Libération, Le Figaro. 283 00:17:34,950 --> 00:17:37,920 Lorsque je regarde le Journal de France 2, je fais confiance à la 284 00:17:38,120 --> 00:17:40,800 marque France 2 ou lorsque j’écoute la matinale de France Inter, 285 00:17:41,000 --> 00:17:42,980 je fais confiance à la marque France Inter. 286 00:17:43,830 --> 00:17:47,670 Si je consulte ces informations, c’est parce que je sais qu’elles 287 00:17:47,870 --> 00:17:50,490 sont produites par des médias professionnels. 288 00:17:50,690 --> 00:17:54,390 Après, je n’ai pas forcément confiance en tout ce que disent ces marques, 289 00:17:54,590 --> 00:17:58,560 mais je les considère quand même comme plus crédibles que d’autres 290 00:17:58,890 --> 00:18:00,630 sources dont je n’aurais jamais entendu parler. 291 00:18:01,290 --> 00:18:04,320 Mais sur les réseaux sociaux, vu que la marque média apparaît 292 00:18:04,520 --> 00:18:08,640 secondaire, on a tendance à faire confiance à la personne qui partage. 293 00:18:09,810 --> 00:18:13,200 Si je vois une information sur mon fil d’actualité Facebook qui 294 00:18:13,400 --> 00:18:18,510 a été partagée par mon cousin et que ce cousin fait des études alors 295 00:18:18,710 --> 00:18:22,410 que je n’en ai pas fait, que je sais que ce cousin est politisé 296 00:18:22,610 --> 00:18:25,710 et qu’il s’intéresse à l’actualité, je vais avoir tendance à faire 297 00:18:25,910 --> 00:18:31,560 confiance d’abord à ce que partage mon cousin qu’à la source qu’il 298 00:18:31,760 --> 00:18:32,520 partage. 299 00:18:32,790 --> 00:18:35,280 Là encore, on a des études qui le montrent très clairement. 300 00:18:35,520 --> 00:18:39,000 Sur les réseaux sociaux, on regarde d’abord qui a partagé 301 00:18:39,200 --> 00:18:41,400 l’information, est-ce qu’on fait confiance à cette personne. 302 00:18:41,640 --> 00:18:44,370 Et si on fait confiance à cette personne, on aura tendance à faire 303 00:18:44,570 --> 00:18:49,170 confiance à l’information qu’il diffuse indépendamment de la source 304 00:18:49,370 --> 00:18:50,130 qu’il a utilisée. 305 00:18:50,330 --> 00:18:54,570 C’est ça la troisième caractéristique des fake news. 306 00:18:54,840 --> 00:18:58,500 Elles sont diffusées sur les réseaux sociaux et sur les réseaux sociaux, 307 00:18:58,830 --> 00:19:02,820 elles viennent concurrencer les médias traditionnels, ce qui n’existait 308 00:19:03,020 --> 00:19:05,250 pas dans le monde d’avant les réseaux sociaux. 309 00:19:05,550 --> 00:19:08,670 Il existait des fausses informations, il existait des canulars, 310 00:19:08,910 --> 00:19:12,570 il existait des théories du complot de toutes sortes. 311 00:19:12,930 --> 00:19:17,370 Mais toutes ces fausses informations ne venaient pas concurrencer les 312 00:19:17,570 --> 00:19:22,260 médias traditionnels qui bénéficiaient toujours d’une aura particulière. 313 00:19:22,680 --> 00:19:26,430 Sur les réseaux sociaux, les fake news viennent concurrencer 314 00:19:26,630 --> 00:19:30,090 les informations traditionnelles et parfois les dépassent. 315 00:19:30,450 --> 00:19:34,740 Par exemple, un journaliste américain avait montré que pendant la campagne 316 00:19:34,940 --> 00:19:39,930 électorale américaine de 2016, les 20 fake news les plus partagées 317 00:19:40,260 --> 00:19:44,370 sur Twitter avaient fait l’objet de plus de huit millions de partages. 318 00:19:44,570 --> 00:19:47,490 Les 20 fake news les plus partagées avaient fait l’objet de plus de 319 00:19:47,690 --> 00:19:49,920 huit millions de partages, alors que dans le même temps, 320 00:19:50,190 --> 00:19:54,180 les 20 articles de presse les plus partagés n’avaient occasionné que 321 00:19:54,380 --> 00:19:55,320 sept millions de partages. 322 00:19:55,520 --> 00:19:59,310 C’est bien là l’enjeu, la concurrence de ces fausses 323 00:19:59,510 --> 00:20:02,470 informations, par rapport aux médias traditionnels. 324 00:20:03,250 --> 00:20:06,670 Dans la seconde partie, on va approfondir la question de 325 00:20:06,870 --> 00:20:09,970 l’usage de ces fausses informations à des fins politiques.