1 00:00:02,820 --> 00:00:15,250 Bonjour, nous nous retrouvons pour 2 00:00:15,450 --> 00:00:19,270 ce dernier épisode de la saga sur les effets des médias, 3 00:00:19,870 --> 00:00:24,520 avec cette fois-ci l'approche cognitive appliquée aux récepteurs. 4 00:00:24,910 --> 00:00:29,230 On l'a vu dans la précédente vidéo, les approches cognitives peuvent 5 00:00:29,430 --> 00:00:32,800 nous permettre d'apprendre des choses et de remarquer un certain 6 00:00:33,000 --> 00:00:38,350 nombre de points utiles pour la manière dont les médias traitent 7 00:00:38,620 --> 00:00:39,700 l'information. 8 00:00:41,050 --> 00:00:45,010 De la même manière, on peut détailler un peu plus la manière dont les 9 00:00:45,210 --> 00:00:47,440 récepteurs vont traiter l'information. 10 00:00:49,030 --> 00:00:53,590 Les apports des sciences cognitives nous amènent à aller du côté du 11 00:00:53,790 --> 00:00:58,780 récepteur, à montrer que les effets peuvent être assez limités, 12 00:00:59,740 --> 00:01:07,690 Limités parce que l'approche cognitive 13 00:01:07,890 --> 00:01:13,690 vise, là aussi, à revaloriser la possibilité de résistance des citoyens 14 00:01:14,050 --> 00:01:16,570 face aux messages qu'ils reçoivent, qu'ils soient médiatiques ou que 15 00:01:16,770 --> 00:01:20,850 ce soit les discussions qu'on a entre amis, entre voisins, 16 00:01:21,050 --> 00:01:21,810 dans la famille, etc. 17 00:01:22,010 --> 00:01:27,190 Et sinon, ils peuvent éventuellement être plutôt puissants. 18 00:01:27,390 --> 00:01:32,770 Mais dans ce cas-là, c'est dans un cadre assez particulier 19 00:01:32,970 --> 00:01:37,780 où l'idée ne serait pas tant de nous convaincre de quelque chose 20 00:01:37,980 --> 00:01:40,900 dont on n'est pas convaincu à priori, mais plutôt de nous faire réagir. 21 00:01:41,100 --> 00:01:49,650 L'idée, ce serait de suggérer, comme nous le rappelait Tchakhotine 22 00:01:49,850 --> 00:01:58,750 d'ailleurs, de faire activer des sortes de réflexes qui nous amèneraient 23 00:01:58,950 --> 00:02:02,080 à, par exemple, des indignations ou ce genre de choses. 24 00:02:02,280 --> 00:02:09,190 Les types d'effets, évidemment, c'est soit un renforcement de nos 25 00:02:09,390 --> 00:02:13,270 opinions, notamment parce qu'on fait le choix de l'homophilie, 26 00:02:14,200 --> 00:02:19,810 on reste dans des groupes, dans des médias, dans des supports 27 00:02:20,440 --> 00:02:25,780 dont on sait a priori qu'on va y trouver ce qu'on croit déjà, 28 00:02:25,980 --> 00:02:29,560 ce à quoi on est déjà absolument convaincu, et qu'on est bien content 29 00:02:29,760 --> 00:02:32,380 d'être conforté dans ses opinions. 30 00:02:32,950 --> 00:02:41,500 Ou alors, au contraire, dit d'une façon différente, 31 00:02:41,700 --> 00:02:47,950 il peut y avoir un effet d'excitation cognitive qui est lié à tout ce 32 00:02:48,150 --> 00:02:49,900 qu'on appelle l'économie de l'attention. 33 00:02:50,100 --> 00:02:55,870 Puisque cette idée, c'est qu'on va essayer de capter notre attention 34 00:02:56,200 --> 00:03:01,480 en activant un certain nombre de biais cognitifs. 35 00:03:01,680 --> 00:03:02,740 Je vais y venir tout de suite. 36 00:03:05,440 --> 00:03:08,020 Quelle est l'idée de ce point de vue ? 37 00:03:08,220 --> 00:03:13,000 C'est que notre traitement de l'information se fait par l'activation 38 00:03:13,570 --> 00:03:16,330 de biais cognitifs et de ce qu'on appelle des heuristiques. 39 00:03:18,100 --> 00:03:21,400 Les heuristiques, ce sont, je l'ai écrit, des modèles simplifiés 40 00:03:21,600 --> 00:03:22,360 d'explications. 41 00:03:26,680 --> 00:03:27,440 Qu'en est-il exactement ? 42 00:03:31,330 --> 00:03:32,090 C'est très simple. 43 00:03:35,140 --> 00:03:39,130 J'ai déjà eu l'occasion de le dire dans ce cycle, le cerveau est une 44 00:03:39,330 --> 00:03:41,020 magnifique machine à traiter l'information. 45 00:03:41,220 --> 00:03:45,640 Nous recevons des milliers d'informations tous les jours, 46 00:03:45,840 --> 00:03:46,600 toutes les heures, etc. 47 00:03:46,800 --> 00:03:50,380 Et le cerveau trie. 48 00:03:50,580 --> 00:03:54,700 Il trie parce qu'au milieu de tout ce que l'on reçoit comme information… 49 00:03:55,210 --> 00:03:57,060 Je suis dans le studio d'enregistrement. 50 00:03:57,260 --> 00:04:02,350 Je m'aperçois qu'il y a un dessin sur la boîte sur lequel est penché… 51 00:04:02,890 --> 00:04:08,200 Je vais oublier ce dessin quand j'aurai quitté ce studio, 52 00:04:08,400 --> 00:04:12,970 parce que me souvenir exactement de la forme du dessin, 53 00:04:13,170 --> 00:04:16,570 de ce qui est sur la boîte devant moi, n'a absolument aucun intérêt. 54 00:04:17,350 --> 00:04:20,260 Je ne suis pas dessinateur, je ne compte pas le reproduire… 55 00:04:20,460 --> 00:04:24,070 Bref, ça a zéro intérêt. 56 00:04:25,150 --> 00:04:26,560 L'information est nulle. 57 00:04:26,890 --> 00:04:29,770 Et pourtant, ma rétine reçoit cette information. 58 00:04:30,160 --> 00:04:33,820 Donc mon cerveau va évacuer cette information parce qu'elle est jugée 59 00:04:34,210 --> 00:04:35,260 non pertinente. 60 00:04:35,980 --> 00:04:39,760 C'est tout le problème, d'ailleurs, de gens qui sont témoins 61 00:04:40,630 --> 00:04:45,760 dans des scènes où on leur demande, alors qu'ils ne savaient pas qu'il 62 00:04:45,960 --> 00:04:47,830 y était en train de se commettre un crime ou un délit, 63 00:04:48,610 --> 00:04:51,940 qui se trouvaient là et qui n'ont pas forcément remarqué les choses, 64 00:04:52,140 --> 00:04:55,180 et à qui on va leur demander de dire : "Mais est-ce que vous ne vous souvenez 65 00:04:55,380 --> 00:05:00,040 pas d'un détail ?", "Oui, peut-être, mais…" Sauf que le cerveau, 66 00:05:00,320 --> 00:05:02,930 même s'il avait vu ce détail à ce moment-là, comme il n'avait 67 00:05:03,130 --> 00:05:06,440 pas de sens puisqu'il ne savait pas qu'il était en train de se 68 00:05:06,640 --> 00:05:11,570 passer un délit ou un crime, ce détail, le cerveau l'a évacué 69 00:05:11,770 --> 00:05:13,730 parce qu'il n'avait aucune pertinence. 70 00:05:14,060 --> 00:05:17,420 Alors que si nous avions été en vigilance en disant "Attention, 71 00:05:18,080 --> 00:05:20,800 vous êtes dans une zone où il est en train de se passer un crime", 72 00:05:21,080 --> 00:05:25,130 mon esprit serait en éveil, je repérerais des choses et j'aurais 73 00:05:25,330 --> 00:05:30,740 eu le sentiment que ce détail était un détail étonnant, un détail 74 00:05:30,940 --> 00:05:34,460 inquiétant, qu'il pouvait avoir un rapport avec cette scène de 75 00:05:34,660 --> 00:05:35,840 crime qu'on m'a annoncée. 76 00:05:36,320 --> 00:05:41,390 Du coup, j'aurais sans doute capté mieux, fais plus attention et retenu 77 00:05:41,590 --> 00:05:42,350 cette information. 78 00:05:42,550 --> 00:05:47,390 Bref, il faut que ça fasse sens a priori pour que je capte et que 79 00:05:47,590 --> 00:05:48,740 je stocke. 80 00:05:56,190 --> 00:06:02,970 Le cerveau va prendre des informations en fonction de ce que l'on considère 81 00:06:03,170 --> 00:06:04,380 comme étant pertinent. 82 00:06:04,680 --> 00:06:10,470 Cette pertinence est liée à un certain nombre de ce qu'on va appeler 83 00:06:10,670 --> 00:06:11,850 des biais cognitifs. 84 00:06:12,050 --> 00:06:14,360 Qu'est-ce que veut dire "biais cognitifs" ? 85 00:06:14,560 --> 00:06:20,100 Ça veut dire que par rapport à un mode de traitement optimal de 86 00:06:20,300 --> 00:06:25,290 l'information, à un mode "procéduré", faisant bien la part des choses 87 00:06:25,490 --> 00:06:26,820 entre ce qui est important, ce qui ne l'est pas, 88 00:06:27,020 --> 00:06:32,610 etc., on va considérer que certaines 89 00:06:33,180 --> 00:06:36,810 informations, un bloc d'informations n'a pas de pertinence. 90 00:06:37,860 --> 00:06:40,890 Ou, au contraire, on va considérer que telle ou telle information 91 00:06:41,640 --> 00:06:46,860 est pertinente parce qu'elle active, chez moi, quelque chose. 92 00:06:47,640 --> 00:06:51,690 Quelque chose qui est de l'ordre de mes a priori cognitifs. 93 00:06:53,010 --> 00:06:54,810 Et donc, je vais le garder. 94 00:06:55,010 --> 00:06:57,690 Je vais même lui donner une pertinence, peut-être une pertinence qu'elle 95 00:06:57,890 --> 00:07:00,840 n'a pas objectivement, mais qui chez moi résonne. 96 00:07:03,330 --> 00:07:08,760 C'est le cas de toute personne qui, par exemple, a subi un traumatisme. 97 00:07:09,990 --> 00:07:13,960 Vous avez les témoignages des gens, par exemple, qui ont été au Bataclan, 98 00:07:14,160 --> 00:07:17,970 enfermés pendant l'attentat, etc., et qui vous expliquent que 99 00:07:18,170 --> 00:07:20,460 dès qu'ils entendent un bruit dans la rue, une pétarade de motos, 100 00:07:21,600 --> 00:07:24,300 ils sont paniqués, ils se replient, ils ont l'impression qu'on va leur 101 00:07:24,500 --> 00:07:25,260 tirer dessus. 102 00:07:26,850 --> 00:07:30,270 Le bruit d'une détonation devient un élément traumatisant, 103 00:07:30,470 --> 00:07:33,300 et donc extrêmement pertinent, pour dire : "Attention, 104 00:07:33,500 --> 00:07:35,680 si ça se trouve, il est en train de se préparer une deuxième fois 105 00:07:36,780 --> 00:07:39,140 un attentat ou quelque chose où on attente à ma vie, 106 00:07:39,340 --> 00:07:44,500 et donc je me protège instinctivement." Là où le passant moyen se dit que 107 00:07:44,700 --> 00:07:48,180 c'est une pétarade de motos, comme il y en a d'autres. 108 00:07:49,710 --> 00:07:52,470 Le même son n'a pas du tout la même valeur pour quelqu'un d'autre. 109 00:07:56,070 --> 00:08:01,020 Je vais prendre cette information différemment en fonction de mes 110 00:08:01,220 --> 00:08:06,530 attendus cognitifs, de mes priorités 111 00:08:06,730 --> 00:08:07,490 cognitives. 112 00:08:07,690 --> 00:08:08,630 Qu'est-ce qui est important pour moi ? 113 00:08:08,830 --> 00:08:10,640 Qu'est-ce qui est jugé important ? 114 00:08:10,840 --> 00:08:14,340 Du coup, telle information sera jugée pertinente pour quelqu'un, 115 00:08:14,540 --> 00:08:18,150 alors qu'elle sera jugée absolument non pertinente pour une autre personne. 116 00:08:18,360 --> 00:08:21,570 Ça a pu vous arriver avec des amis, des voisins, de la famille. 117 00:08:22,170 --> 00:08:25,890 "Mais quand même, moi je m'en fous." Voilà. 118 00:08:27,660 --> 00:08:31,650 Il y a une discordance de la pertinence de l'information reçue. 119 00:08:32,850 --> 00:08:37,650 Par ailleurs, non seulement on va activer des biais, 120 00:08:37,850 --> 00:08:41,280 je vais venir sur un certain nombre de biais, mais le traitement de 121 00:08:41,480 --> 00:08:45,870 l'information par notre cerveau nous amène à activer des heuristiques, 122 00:08:46,070 --> 00:08:50,330 nous dit notamment Kahneman, qui est le pape de tout ça, 123 00:08:50,530 --> 00:08:54,300 qui a eu le prix Nobel d'économie pour ses travaux sur la manière 124 00:08:54,500 --> 00:08:57,450 dont les consommateurs traitaient l'information, prenaient l'information, 125 00:08:57,750 --> 00:09:02,180 et comment l'information qu'ils avaient, déterminait leur action, 126 00:09:02,380 --> 00:09:05,710 comment on pouvait les influencer, etc., à travers le marketing et autres. 127 00:09:07,260 --> 00:09:11,430 C'est un grand spécialiste de ça, du côté j'allais dire des collabos, 128 00:09:11,630 --> 00:09:15,720 c'est-à-dire du côté de ceux qui travaillent à faire en sorte que 129 00:09:16,320 --> 00:09:19,770 la meilleure connaissance des biais permette de mieux activer un certain 130 00:09:19,970 --> 00:09:21,380 nombre de réflexes chez les consommateurs. 131 00:09:21,580 --> 00:09:22,980 Mais bon, je ferme la parenthèse. 132 00:09:23,400 --> 00:09:25,660 Ça reste des travaux extrêmement pertinents et très forts. 133 00:09:25,860 --> 00:09:31,860 Qu'est-ce que sont les heuristiques ? 134 00:09:32,060 --> 00:09:34,920 Les heuristiques, j'ai dit que c'était un schéma simplifié 135 00:09:35,120 --> 00:09:35,880 d'interprétations. 136 00:09:36,080 --> 00:09:36,840 C'est très simple. 137 00:09:38,280 --> 00:09:41,670 Je reçois un certain nombre d'informations. 138 00:09:43,260 --> 00:09:48,650 Et je ne veux pas, par paresse cognitive… 139 00:09:48,850 --> 00:09:51,180 Et quand je dis "paresse cognitive", nous sommes tous des paresseux 140 00:09:51,380 --> 00:09:52,680 cognitifs, n'est-ce pas ? 141 00:09:52,980 --> 00:09:58,290 Ça veut dire que nous ne passeront pas notre temps à douter de tout 142 00:09:59,310 --> 00:10:04,770 et à analyser en détail chacun de tous les éléments d'information, 143 00:10:04,970 --> 00:10:07,020 de tous les événements qui surviennent devant nous. 144 00:10:08,460 --> 00:10:09,600 C'est un peu comme le vélo. 145 00:10:10,800 --> 00:10:12,930 Une fois que vous avez appris à faire du vélo, vous tournez, 146 00:10:13,130 --> 00:10:14,640 vous pédalez, vous ne vous rendez même plus compte de ce que vous 147 00:10:14,840 --> 00:10:15,600 êtes en train de faire. 148 00:10:16,050 --> 00:10:17,580 Comme on dit, le vélo, ça ne s'oublie pas. 149 00:10:18,300 --> 00:10:24,030 Imaginez votre vie d'enfer si, à chaque fois que vous êtes sur un vélo, 150 00:10:24,230 --> 00:10:27,020 vous étiez là à dire : "Attention, il faut maintenant 151 00:10:27,220 --> 00:10:31,830 qu'avec la jambe gauche, j'appuie sur le pédalier gauche. 152 00:10:32,030 --> 00:10:34,800 Attention, ça remonte, maintenant c'est avec la jambe 153 00:10:35,000 --> 00:10:37,480 droite qu'il faut que je pédale." C'est l'enfer évidemment, 154 00:10:37,950 --> 00:10:41,400 si vous êtes à chaque fois obligé de penser à tous vos gestes, 155 00:10:42,450 --> 00:10:43,890 la mobilisation de tous vos muscles. 156 00:10:44,670 --> 00:10:45,630 C'est un truc automatique. 157 00:10:45,830 --> 00:10:47,180 On n'y réfléchit même plus, on pédale et voilà. 158 00:10:48,060 --> 00:10:48,820 On ne se pose plus la question. 159 00:10:51,060 --> 00:10:51,820 Fort bien. 160 00:10:55,690 --> 00:11:02,980 Le cerveau ne peut pas accepter l'idée de traiter en mode détaillé, 161 00:11:03,640 --> 00:11:09,430 en mode intensif, la totalité des 162 00:11:09,630 --> 00:11:10,390 informations reçues. 163 00:11:11,140 --> 00:11:14,560 Et pour faire ce travail, non seulement il y a tout le travail 164 00:11:14,760 --> 00:11:17,330 de mise à la poubelle, information jugée non pertinente, 165 00:11:17,650 --> 00:11:18,410 on jette. 166 00:11:18,610 --> 00:11:20,830 Mais il y a aussi les heuristiques. 167 00:11:21,030 --> 00:11:25,380 Les heuristiques, ça veut dire qu'on va rabattre des informations 168 00:11:25,600 --> 00:11:27,370 sur tel ou tel sujet, phénomène, personnes, 169 00:11:27,570 --> 00:11:31,360 etc., à du connu, à des schémas interprétatifs. 170 00:11:31,720 --> 00:11:35,230 Du coup, l'information que l'on reçoit sur un sujet, 171 00:11:35,430 --> 00:11:39,040 un objet, une personne, devient une simple illustration 172 00:11:39,370 --> 00:11:41,680 d'un schéma de lecture que l'on a déjà en soi. 173 00:11:42,220 --> 00:11:47,500 Oh là là, papi, oh les vieux au volant, c'est une catastrophe ! 174 00:11:47,700 --> 00:11:48,460 Voilà. 175 00:11:48,970 --> 00:11:51,730 J'ai remarqué que le monsieur qui est devant moi, qui ne roule pas vite, 176 00:11:51,930 --> 00:11:53,830 qui machin, etc., a les cheveux gris. 177 00:11:54,030 --> 00:11:59,670 Voilà, ce n'est pas étonnant, c'est un vieux au volant. 178 00:12:00,760 --> 00:12:01,900 Les femmes au volant… 179 00:12:02,100 --> 00:12:02,860 Voilà. 180 00:12:04,450 --> 00:12:07,360 J'active une heuristique misogyne. 181 00:12:07,810 --> 00:12:11,200 Les femmes évidemment conduisent mal, ne conduisent pas vite, 182 00:12:11,400 --> 00:12:12,160 etc. 183 00:12:12,940 --> 00:12:15,070 Elles m'entravent, moi qui veux rouler à fond. 184 00:12:15,270 --> 00:12:17,050 L'autre, elle respecte les limitations de vitesse. 185 00:12:17,290 --> 00:12:18,310 C'est bien les bonnes femmes au volant. 186 00:12:18,760 --> 00:12:21,490 C'est ça, une heuristique, qui d'ailleurs est très souvent 187 00:12:21,690 --> 00:12:23,080 liée à des stéréotypes. 188 00:12:24,460 --> 00:12:30,370 Les heuristiques, c'est un schéma simplifié d'explications du monde, 189 00:12:31,870 --> 00:12:36,070 lié à des schémas interprétatifs pré-construits que l'on a acquis 190 00:12:36,270 --> 00:12:39,670 avec son expérience et autres, et qu'on va activer. 191 00:12:41,800 --> 00:12:45,910 Je ne vais pas me poser des questions existentielles sur "Mais qu'est-ce 192 00:12:46,110 --> 00:12:50,100 que ce monsieur peut bien avoir comme caractéristiques physiques, 193 00:12:50,300 --> 00:12:54,550 psychologiques ou je ne sais quoi, qui permettraient d'expliquer pourquoi 194 00:12:54,750 --> 00:12:58,480 je trouve que quand il est au volant, il ne conduit ni assez vite, 195 00:12:58,680 --> 00:13:03,030 ni ceci, ni cela, et que ça entrave ma liberté de circulation telle que moi, 196 00:13:03,230 --> 00:13:06,070 j'aurais aimé la faire." Je vais juste me dire : "Ah ben oui, 197 00:13:06,270 --> 00:13:07,030 ça ne m'étonne pas. 198 00:13:07,230 --> 00:13:07,990 C'est encore un petit vieux au volant. 199 00:13:08,190 --> 00:13:08,950 Il faudrait mieux leur enlever le permis. 200 00:13:09,150 --> 00:13:15,340 Ils doivent passer des tests de santé, ça en éliminerait quand même un 201 00:13:15,540 --> 00:13:19,390 certain nombre, qui nous font braire sur la route." C'est ça, 202 00:13:19,590 --> 00:13:20,350 le risque. 203 00:13:20,550 --> 00:13:21,850 Comment je ramène ça à du connu ? 204 00:13:23,260 --> 00:13:25,000 Je ramène ça à des schémas connus. 205 00:13:25,480 --> 00:13:30,430 Je vous rappelle que c'est ce que l'on fait très souvent dans les 206 00:13:30,630 --> 00:13:31,390 relations humaines. 207 00:13:33,670 --> 00:13:36,970 On pose tous des étiquettes sur les gens. 208 00:13:37,960 --> 00:13:42,880 Au sens où très souvent, après 10 minutes de conversation 209 00:13:43,080 --> 00:13:46,720 avec quelqu'un, on se fait une idée et on va coller à cette personne 210 00:13:46,920 --> 00:13:47,680 une étiquette. 211 00:13:48,160 --> 00:13:50,340 C'est ce que vous faites pour les profs, je vous le signale. 212 00:13:51,490 --> 00:13:55,240 Vous êtes là, vous êtes en cours, etc., et puis très rapidement : 213 00:13:55,440 --> 00:13:57,640 "Oh, elle a l'air vachement bien. 214 00:13:57,840 --> 00:14:04,210 Qu'est-ce qu'il a l'air chiant, mon dieu…" Au bout de 10 minutes, 215 00:14:04,410 --> 00:14:08,620 vous avez déjà acquis une scène de représentation simplifiée, 216 00:14:09,850 --> 00:14:13,990 globale, d'une personne, et donc vous lui coller une étiquette. 217 00:14:14,190 --> 00:14:16,390 Et après, le difficile, c'est de décoller l'étiquette. 218 00:14:16,960 --> 00:14:20,020 Si vous êtes des gens, ce dont je ne doute pas, 219 00:14:21,460 --> 00:14:25,120 extrêmement bienveillants d'une part, et prêts à remettre en cause, 220 00:14:26,590 --> 00:14:30,700 par honnêteté intellectuelle foncière, vos préjugements, vos préjugés, 221 00:14:32,050 --> 00:14:34,600 vous pouvez décoller cette étiquette, dire : "Ah mais non, 222 00:14:34,800 --> 00:14:37,930 finalement, elle est plus sympa que ce que j'avais pensé. 223 00:14:38,130 --> 00:14:39,730 C'est vrai qu'au début, j'avais un peu un a priori, 224 00:14:39,930 --> 00:14:40,810 elle ne m'avait pas fait bonne impression. 225 00:14:41,010 --> 00:14:44,830 Mais bon, je me rends compte que j'avais tort, finalement elle est 226 00:14:45,030 --> 00:14:45,790 plutôt sympa. 227 00:14:45,990 --> 00:14:49,510 OK, on la met dans le groupe parce que moi, je ne voulais pas qu'elle 228 00:14:49,710 --> 00:14:51,700 vienne avec nous, parce qu'elle est chiante. 229 00:14:52,570 --> 00:14:56,980 Bon, finalement, ok !" Vous faites amende honorable. 230 00:14:57,190 --> 00:14:59,350 Vous reconnaissez que vous vous étiez trompé, que vous avez été 231 00:14:59,550 --> 00:15:00,610 un peu vite dans votre étiquetage. 232 00:15:01,030 --> 00:15:02,800 Mais très souvent, ce n'est pas comme ça que ça se passe. 233 00:15:03,000 --> 00:15:06,640 Très souvent, l'étiquetage, on l'a collé et on continue. 234 00:15:06,840 --> 00:15:09,520 Et après, c'est ce qui s'est passé dans les 10 premières minutes qui 235 00:15:09,720 --> 00:15:11,010 compte le plus, d'une certaine façon. 236 00:15:13,630 --> 00:15:14,920 C'est ça, les heuristiques. 237 00:15:15,710 --> 00:15:21,190 C'est le fait de rabattre des phénomènes inconnus sur du connu, 238 00:15:21,760 --> 00:15:25,600 des phénomènes qu'on pourrait analyser de façon détaillée, mais on n'a 239 00:15:25,800 --> 00:15:27,940 pas le temps, l'énergie psychique pour le faire. 240 00:15:28,480 --> 00:15:31,930 Donc on va se rabattre sur des choses plus ou moins connues. 241 00:15:32,710 --> 00:15:38,620 Quels sont les biais bien connus des travaux de sciences cognitives. 242 00:15:39,430 --> 00:15:40,190 Il y en a plein. 243 00:15:45,550 --> 00:15:48,930 Le premier point, c'est le biais d'accessibilité. 244 00:15:50,380 --> 00:15:51,850 Quand je dis qu'il y en a plein, je m'explique. 245 00:15:53,080 --> 00:15:56,110 Dans les travaux de psychologie, depuis une vingtaine d'années, 246 00:15:56,710 --> 00:15:59,980 vous avez plein de psychologues qui essayent de montrer qu'eux, 247 00:16:00,910 --> 00:16:04,280 ils ont travaillé pour identifier un biais particulier. 248 00:16:04,480 --> 00:16:08,440 Maintenant, il y a un tableau avec une centaine de biais cognitifs. 249 00:16:09,580 --> 00:16:11,410 Qui, de mon point de vue, ne me paraît pas très crédible 250 00:16:11,610 --> 00:16:14,980 parce qu'on voit bien comment certains chercheurs ont cherché à exister 251 00:16:16,480 --> 00:16:18,760 en disant : "Vous voyez, j'ai trouvé un biais cognitif", 252 00:16:18,960 --> 00:16:21,610 mais ce n'est qu'une sous-catégorie d'un biais cognitif fort, 253 00:16:24,430 --> 00:16:27,520 un peu chapeau, qui héberge d'autres biais. 254 00:16:27,720 --> 00:16:31,150 Mais on ne peut pas dire que ce soit d'une révolution copernicienne 255 00:16:31,350 --> 00:16:36,850 fantastique que d'avoir mis en évidence ce sous-biais cognitif 256 00:16:37,210 --> 00:16:38,170 d'une grande catégorie. 257 00:16:38,370 --> 00:16:39,130 Bref. 258 00:16:39,820 --> 00:16:41,920 Dans les grandes catégories, qu'est-ce qu'il y a ? 259 00:16:42,120 --> 00:16:43,600 Il y a le biais d'accessibilité, par exemple. 260 00:16:44,260 --> 00:16:47,920 Le biais d'accessibilité, notamment montré par Shanto Iyengar, 261 00:16:48,430 --> 00:16:50,890 dont j'ai déjà parlé dans ce cours. 262 00:16:53,650 --> 00:16:59,270 Et il nous dit qu'il y a une tendance 263 00:16:59,470 --> 00:17:05,990 générale à accorder un plus grand poids, une plus grande valeur aux 264 00:17:06,190 --> 00:17:10,490 considérations qui sont, momentanément au moins, 265 00:17:10,690 --> 00:17:12,950 les plus accessibles et les plus saillantes. 266 00:17:13,150 --> 00:17:19,400 Ça peut se traduire par un climat 267 00:17:19,600 --> 00:17:20,360 d'opinion. 268 00:17:20,900 --> 00:17:23,000 En ce moment, on a l'impression que… 269 00:17:23,200 --> 00:17:23,960 Alors du coup… 270 00:17:25,370 --> 00:17:29,390 Comme on baigne là-dedans, c'est l'explication accessible. 271 00:17:30,470 --> 00:17:34,130 Vous avez un cas typique, et qui marche pour le coup avec 272 00:17:34,330 --> 00:17:35,090 les journalistes. 273 00:17:35,290 --> 00:17:36,620 Parce que je parlais, dans la vidéo précédente, 274 00:17:36,820 --> 00:17:39,470 des biais cognitifs par rapport au journalisme aussi. 275 00:17:40,250 --> 00:17:43,910 Chez les journalistes, vous avez un premier accident d'avion. 276 00:17:44,110 --> 00:17:45,890 Puis, il y en a un deuxième. 277 00:17:46,090 --> 00:17:50,870 Et là, tout d'un coup, ça active chez certains l'idée que… 278 00:17:51,740 --> 00:17:52,500 La loi des séries. 279 00:17:53,540 --> 00:17:57,750 Par exemple, il y a un avion qui s'écrase au Kazakhstan dans un truc, 280 00:17:57,950 --> 00:18:00,980 il y a 30 morts : d'habitude, on n'en parle jamais parce que 281 00:18:01,180 --> 00:18:04,040 tout le monde se moque éperdument de la flotte du Kazakhstan. 282 00:18:04,250 --> 00:18:06,170 Les lignes intérieures du Kazakhstan, on n'en parle pas. 283 00:18:06,650 --> 00:18:10,190 Mais comme il y a eu deux graves accidents d'avion, qui concernent 284 00:18:10,390 --> 00:18:13,310 par contre des compagnies occidentales ou autres, ou des Occidentaux qui 285 00:18:13,510 --> 00:18:17,480 partaient en vacances, là, on va aller chercher et on 286 00:18:17,680 --> 00:18:21,050 va aller traiter ce sujet parce que tout d'un coup, ça a pris du sens. 287 00:18:21,470 --> 00:18:22,970 C'est la terrible loi des séries. 288 00:18:23,210 --> 00:18:24,680 Troisième accident en 15 jours. 289 00:18:25,850 --> 00:18:29,630 Mais si vous regardez bien, des accidents au Kazakhstan, 290 00:18:29,830 --> 00:18:31,520 il y en avait déjà eu deux il y a deux mois. 291 00:18:31,720 --> 00:18:33,800 Mais ils n'en avaient pas du tout parlé parce que ça ne faisait pas 292 00:18:34,000 --> 00:18:36,680 sens de les mettre dans la terrible loi des séries. 293 00:18:36,880 --> 00:18:38,210 Biais d'accessibilité. 294 00:18:41,000 --> 00:18:43,540 Il y a déjà les choses qui sont immédiatement accessibles. 295 00:18:43,790 --> 00:18:49,560 Il y a ce climat d'opinion, il y a ce moment où on parle beaucoup 296 00:18:49,760 --> 00:18:51,040 plus de ceci que d'habitude. 297 00:18:52,190 --> 00:18:57,740 Du coup, certains événements, certains faits paraissent fortement 298 00:18:57,940 --> 00:19:04,790 pertinents, parce qu'il y a une 299 00:19:04,990 --> 00:19:09,440 grille de lecture qui nous est fournie par les faits précédents. 300 00:19:09,640 --> 00:19:13,010 Même si, quand on regarde dans le détail, ce nouveau fait n'a 301 00:19:13,210 --> 00:19:14,330 rien à voir avec les autres. 302 00:19:14,630 --> 00:19:16,970 On croit que, mais en fait pas du tout. 303 00:19:21,350 --> 00:19:23,150 Le biais de facilité. 304 00:19:25,070 --> 00:19:31,160 Le biais de facilité, c'est cette idée qu'il y a deux 305 00:19:31,360 --> 00:19:33,440 modes de traitement de l'information. 306 00:19:34,220 --> 00:19:39,200 Il y a le mode de traitement qu'on va appeler périphérique ou, 307 00:19:39,400 --> 00:19:43,310 au contraire, le mode de traitement central. 308 00:19:44,210 --> 00:19:47,170 Central, ça veut dire qu'on concentre beaucoup de notre énergie. 309 00:19:47,370 --> 00:19:50,030 On va prendre du temps, réfléchir, lire, compléter, 310 00:19:50,230 --> 00:19:50,990 etc. 311 00:19:51,190 --> 00:19:55,130 Bref, on va mobiliser tout notre cerveau, toute notre cognition, 312 00:19:55,330 --> 00:19:58,250 toute notre intelligence pour essayer de comprendre quelque chose. 313 00:19:58,580 --> 00:20:00,230 Et on en fait un mode central. 314 00:20:00,430 --> 00:20:03,590 Vraiment, on utilise le cerveau comme un ordinateur. 315 00:20:03,790 --> 00:20:04,550 Vraiment. 316 00:20:05,150 --> 00:20:09,200 Alors que le mode périphérique, c'est : on va laisser un certain 317 00:20:09,400 --> 00:20:12,620 nombre de choses être traitées un peu à la légère, comme on dirait. 318 00:20:12,830 --> 00:20:13,940 C'est traité à la légère. 319 00:20:15,770 --> 00:20:17,570 Et l'expression veut bien dire ce que ça veut dire. 320 00:20:17,960 --> 00:20:22,370 Et donc, on va aller à la facilité. 321 00:20:26,630 --> 00:20:30,770 J'ai une explication facile sous la main. 322 00:20:30,970 --> 00:20:37,800 Oui, ça, il faut dire, avec cette météo, voilà… 323 00:20:38,630 --> 00:20:40,790 Ou, ce n'est pas étonnant, c'est un Verseau. 324 00:20:41,330 --> 00:20:44,930 Signe astrologique, ça n'a rien expliqué, mais bon, quand même. 325 00:20:45,950 --> 00:20:46,710 Ben voilà. 326 00:20:47,000 --> 00:20:49,820 Et à partir de là, je ne vais pas détailler. 327 00:20:50,020 --> 00:20:51,070 Je ne vais pas rechercher. 328 00:20:51,650 --> 00:20:53,580 C'est ce que je vous disais tout à l'heure, les vieux au volant. 329 00:20:54,290 --> 00:20:55,050 C'est un vieux au volant. 330 00:20:55,990 --> 00:20:58,580 De toute façon, peu importe la manière dont il a raisonné, 331 00:20:58,780 --> 00:20:59,900 pourquoi il a fait ci, pourquoi il a fait ça, 332 00:21:00,100 --> 00:21:01,640 quel est le contexte particulier… 333 00:21:02,090 --> 00:21:04,250 C'est un vieux au volant, ça me suffit comme explication. 334 00:21:04,450 --> 00:21:05,330 Je n'ai pas besoin d'aller chercher plus loin. 335 00:21:08,090 --> 00:21:11,360 Le biais de cohérence aussi, qui est un biais très important. 336 00:21:11,560 --> 00:21:13,370 Une fois de plus, je n'en détaille que quelques-uns. 337 00:21:13,570 --> 00:21:16,160 Et encore, quand je dis "détaille", je ne donne que des grandes lignes 338 00:21:16,360 --> 00:21:17,120 de chapitres de quelques-uns. 339 00:21:17,480 --> 00:21:22,340 Le biais de cohérence, c'est un phénomène qui est très 340 00:21:22,540 --> 00:21:23,660 important à prendre en compte. 341 00:21:24,110 --> 00:21:28,400 C'est le fait que nous cherchons — et ça rejoint notamment la face 342 00:21:28,600 --> 00:21:32,510 de Goffman —, nous cherchons à ne pas perdre la face en ayant 343 00:21:32,710 --> 00:21:34,310 l'impression de devenir incohérent. 344 00:21:35,120 --> 00:21:39,530 Et ça, le biais d'incohérence est très fort dans tout ce qui est 345 00:21:40,640 --> 00:21:43,310 de nos relations sociales, tout ce qui est lié à nos relations 346 00:21:43,510 --> 00:21:46,220 sociales, à nos relations dans un lieu collectif, parce qu'on 347 00:21:46,420 --> 00:21:48,950 a peur du jugement d'autrui, d'être perçu comme quelqu'un qui 348 00:21:49,150 --> 00:21:49,910 a changé d'avis. 349 00:21:51,080 --> 00:21:58,340 Donc il y a un biais cognitif de cohérence, en ce sens où parfois, 350 00:21:59,180 --> 00:22:06,110 le traitement de l'information peut nous amener à préférer ne 351 00:22:06,310 --> 00:22:09,230 pas prendre en compte telle ou telle information parce qu'elle 352 00:22:09,430 --> 00:22:14,570 introduit ce que les cognitivistes appellent "la dissonance cognitive", 353 00:22:14,770 --> 00:22:17,350 c'est-à-dire que ce n'est pas conforme à ce que l'on pensait. 354 00:22:17,550 --> 00:22:24,330 "Moi, je suis profondément raciste, et donc je pense que tous les Arabes 355 00:22:24,530 --> 00:22:29,370 sont des voleurs." Ou Donald Trump : "Tous les Mexicains sont des violeurs." 356 00:22:30,540 --> 00:22:31,830 Mais regardez, lui, machin… 357 00:22:32,340 --> 00:22:33,260 Regardez là… 358 00:22:38,100 --> 00:22:39,240 Dissonance cognitive. 359 00:22:39,690 --> 00:22:44,430 Je véhicule un stéréotype xénophobe, comme quoi tous les blabla sont 360 00:22:44,630 --> 00:22:45,390 comme ça. 361 00:22:45,590 --> 00:22:50,610 Et puis, tout d'un coup, on me met sous le nez des cas de 362 00:22:50,810 --> 00:22:53,610 personnes appartenant à la catégorie que j'ai stigmatisée comme étant 363 00:22:53,810 --> 00:22:58,170 ceci ou étant cela, dont on arrive à me prouver par A + B qu'ils ne 364 00:22:58,860 --> 00:23:00,950 possèdent aucune des caractéristiques que j'ai employées. 365 00:23:02,550 --> 00:23:04,680 Ah oui, mais ce sont des exceptions. 366 00:23:04,880 --> 00:23:05,640 Oui, mais… 367 00:23:07,260 --> 00:23:08,020 Je conteste. 368 00:23:08,340 --> 00:23:09,100 Ce n'est pas vrai. 369 00:23:09,300 --> 00:23:10,060 Fake news. 370 00:23:11,880 --> 00:23:17,040 On va se protéger de la dissonance cognitive en refusant d'admettre. 371 00:23:17,850 --> 00:23:20,010 On va rejeter l'information comme étant une fake news. 372 00:23:20,310 --> 00:23:24,240 On va dire : "J'ai oublié, il faut le prouver." On va être 373 00:23:24,440 --> 00:23:27,330 beaucoup plus exigeant sur le système de preuves pour intégrer cette 374 00:23:27,530 --> 00:23:32,340 information à mon système de référence, qu'avec les autres où je prends 375 00:23:32,540 --> 00:23:35,070 n'importe quelle rumeur qui conforte mon opinion. 376 00:23:37,410 --> 00:23:44,790 On en arrive à ce système qu'un collègue italien, qui s'appelle 377 00:23:44,990 --> 00:23:47,910 Brandolini, qui a appelé la loi de Brandolini en disant : 378 00:23:49,260 --> 00:23:54,120 "Le niveau d'investissement argumentatif, psychique et cognitif 379 00:23:54,320 --> 00:23:59,970 pour prouver un bobard, est 10 fois plus élevé que le niveau 380 00:24:00,330 --> 00:24:04,410 qu'il faut pour émettre un bobard." Il dit qu'il y a une asymétrie 381 00:24:04,610 --> 00:24:06,930 totale du point de vue de traitement cognitif. 382 00:24:07,130 --> 00:24:09,840 C'est-à-dire que vous pouvez convaincre quelqu'un qui est déjà convaincu 383 00:24:10,040 --> 00:24:13,500 que les vaccins, ça vous fait mourir, etc., et qui ramasse n'importe 384 00:24:13,700 --> 00:24:16,380 quelle fake news sur Internet comme preuve… 385 00:24:16,650 --> 00:24:20,220 Et dès lors que vous avez des études qui montrent que ce n'est pas vrai, 386 00:24:21,050 --> 00:24:22,120 les vaccins ne tuent pas… 387 00:24:22,740 --> 00:24:28,500 Il faut une énergie de folie, y compris en contestant les arguments 388 00:24:29,370 --> 00:24:35,550 du complotiste anti-vaccins, pour arriver éventuellement à faire 389 00:24:35,750 --> 00:24:37,770 admettre et rentrer dans le logiciel de cette personne que, 390 00:24:37,970 --> 00:24:38,730 non… 391 00:24:38,930 --> 00:24:40,500 Oui, bon, finalement, peut-être qu'effectivement, 392 00:24:41,940 --> 00:24:42,700 les vaccins ne tuent pas. 393 00:24:42,960 --> 00:24:45,210 Mais quand même, les vaccins sont dangereux, on ne sait jamais. 394 00:24:45,410 --> 00:24:46,170 Voilà. 395 00:24:46,900 --> 00:24:52,090 Donc il va souvent rebondir et quand même conserver ce principe 396 00:24:52,290 --> 00:24:55,600 de cohérence et de refus de la dissonance cognitive. 397 00:24:56,620 --> 00:25:01,450 On s'arrange pour faire en sorte qu'on ne soit pas victime de ça 398 00:25:01,650 --> 00:25:03,340 et qu'on ne soit pas déstabilisé, si vous voulez. 399 00:25:05,320 --> 00:25:10,030 Vous avez également le biais d'ancrage, qui est un biais bien connu. 400 00:25:10,570 --> 00:25:17,650 Le biais d'ancrage, c'est le fait que votre perception d'un problème 401 00:25:18,130 --> 00:25:28,030 peut être très immédiatement établie par la première information, 402 00:25:30,100 --> 00:25:33,190 la première source qui va vous confronter à une explication sur 403 00:25:33,390 --> 00:25:34,150 ce qui se passe. 404 00:25:36,730 --> 00:25:39,550 Au moment où vous découvrez les faits, vous découvrez aussi un système 405 00:25:39,750 --> 00:25:41,140 d'explication et ça s'ancre. 406 00:25:42,670 --> 00:25:46,030 Et le biais d'ancrage, c'est le fait que, dès lors que 407 00:25:46,230 --> 00:25:51,490 vous avez ancré par une première information un système d'explication, 408 00:25:52,360 --> 00:25:58,360 grand Dieu — et ça rejoint après le biais de cohérence —, 409 00:25:58,700 --> 00:26:01,300 il est très difficile d'en changer et de faire changer quelqu'un. 410 00:26:03,520 --> 00:26:08,320 Des choses se passent au moment du premier contact avec l'information, 411 00:26:08,520 --> 00:26:09,460 la connaissance, le savoir. 412 00:26:10,390 --> 00:26:13,690 Et si ça ne se passe pas bien, ou si ça se passe de façon déraillée 413 00:26:13,890 --> 00:26:16,960 par rapport à la perception réelle des faits qu'on peut avoir si on 414 00:26:17,160 --> 00:26:20,140 regarde bien les choses, peu importe, la personne a ancré 415 00:26:20,340 --> 00:26:23,890 ça avec ce système d'explication et aura du mal à s'en défaire. 416 00:26:25,780 --> 00:26:28,300 Je passe, il y en a plein d'autres. 417 00:26:29,680 --> 00:26:30,940 Il y a le biais de renforcement, évidemment. 418 00:26:31,140 --> 00:26:37,570 Ça ne s'appelait pas biais cognitif, mais c'est ce que disent déjà l'École 419 00:26:37,770 --> 00:26:40,660 de Columbia et d'autres théories des effets. 420 00:26:40,860 --> 00:26:45,910 Effectivement, c'est devenu identifié, avec des travaux à l'appui… 421 00:26:46,300 --> 00:26:50,440 Le biais de renforcement, c'est le fait que l'on a tendance 422 00:26:50,640 --> 00:26:53,410 à ne ramasser que les informations qui vont dans le sens de ce qu'on 423 00:26:53,610 --> 00:26:57,970 pense déjà et qu'on a tendance à jeter ou à faire traiter ailleurs. 424 00:26:58,330 --> 00:27:03,340 On a ça avec de l'imagerie médicale 425 00:27:03,540 --> 00:27:04,300 du cerveau. 426 00:27:04,630 --> 00:27:06,850 Vous confrontez des gens, à qui vous avez demandé quelles 427 00:27:07,050 --> 00:27:08,260 sont leurs opinions, leurs idéologies, etc., 428 00:27:08,870 --> 00:27:11,380 puis vous les confrontez à un certain nombre de textes, de documents. 429 00:27:11,620 --> 00:27:13,990 Et on voit comment, quand ils lisent et prennent possession de ces 430 00:27:14,190 --> 00:27:17,470 documents, tel truc est envoyé dans telle partie du cerveau. 431 00:27:17,670 --> 00:27:21,070 Alors que, par hasard, quand ça ne leur plaît pas, 432 00:27:21,270 --> 00:27:24,430 c'est parti de l'autre côté, voire on voit que c'est traité 433 00:27:24,630 --> 00:27:25,390 en mode superficiel. 434 00:27:25,590 --> 00:27:27,250 Alors que l'autre, ça rentre en mode centrale et que ça va tout 435 00:27:27,450 --> 00:27:29,080 de suite se loger dans telle ou telle partie du cerveau. 436 00:27:29,500 --> 00:27:33,130 Comme une armoire, comme une commode dans laquelle on vient mettre les 437 00:27:33,330 --> 00:27:35,680 exemples qui se superposent les uns aux autres et qui prouvent 438 00:27:35,880 --> 00:27:38,080 qu'on a tellement raison de penser ce qu'on pense. 439 00:27:41,830 --> 00:27:46,650 Tout ça fait que, j’en termine là, vous avez une influence quand même 440 00:27:46,850 --> 00:27:51,730 possible, mais qui est une influence qui n'est pas celle qui fait changer 441 00:27:52,060 --> 00:27:56,560 de point de vue par rapport à tous les biais que je vous ai décris, 442 00:27:56,760 --> 00:27:57,520 qui fait que… 443 00:27:58,630 --> 00:28:00,700 Bien sûr, le biais d'ancrage, par exemple, fait qu'il peut y 444 00:28:00,900 --> 00:28:01,840 avoir un rôle important des médias. 445 00:28:02,040 --> 00:28:05,380 Parce que si vous découvrez un fait prioritairement par tel ou 446 00:28:05,580 --> 00:28:07,870 tel média, avec tel système de protestation, ça s'ancre. 447 00:28:08,200 --> 00:28:09,620 Là, l'effet peut être puissant. 448 00:28:10,180 --> 00:28:13,000 Mais sinon, si c'est constitué en dehors du monde médiatique, 449 00:28:13,240 --> 00:28:15,900 vous aurez du mal à faire changer les gens d'avis. 450 00:28:16,420 --> 00:28:19,330 En revanche, ce qui est vrai et c'est comme ça que fonctionnent 451 00:28:19,530 --> 00:28:23,740 les réseaux sociaux, fondamentalement, ils font partie 452 00:28:23,940 --> 00:28:25,540 de ce qu'on a appelé l'économie de l'attention. 453 00:28:29,440 --> 00:28:32,650 L'économie de l'attention, parce que ce que l'on souhaite, 454 00:28:32,850 --> 00:28:37,600 c'est qu'on soit captivé par ce qu'on lit, qu'on ait envie de partager, 455 00:28:37,800 --> 00:28:38,560 de liker, etc. 456 00:28:38,760 --> 00:28:41,500 Que ce soit sur Facebook, sur Instagram, sur tout ce que 457 00:28:41,700 --> 00:28:42,460 vous voulez. 458 00:28:43,780 --> 00:28:47,710 Il y a des contenus, des mises en scène, etc., 459 00:28:49,570 --> 00:28:57,040 qui sont là pour activer un certain nombre de biais cognitifs et faire 460 00:28:57,240 --> 00:29:01,270 en sorte que ça nous plaise, que ça nous donne envie de partager 461 00:29:01,470 --> 00:29:02,980 et de liker. 462 00:29:03,370 --> 00:29:09,220 Parce que cette industrie se nourrit des informations obtenues grâce 463 00:29:09,420 --> 00:29:10,750 au fait qu'on like et qu'on partage. 464 00:29:11,650 --> 00:29:14,110 Facebook est le pire exemple de tout ça. 465 00:29:14,310 --> 00:29:18,160 Enfin, c'est le meilleur, et donc le pire des exemples en 466 00:29:18,360 --> 00:29:22,000 termes de machinerie qui arrive à déterminer votre profil personnel 467 00:29:22,390 --> 00:29:25,680 grâce à tout ce que vous partagez, likez, et même grâce à ce que vous 468 00:29:25,880 --> 00:29:27,680 partagez avec vos amis avec qui vous êtes abonné. 469 00:29:27,880 --> 00:29:28,640 Bref. 470 00:29:30,850 --> 00:29:33,220 La boutade, vous la connaissez : Facebook vous connaît mieux que 471 00:29:33,420 --> 00:29:34,780 votre propre femme ou votre propre mari. 472 00:29:35,860 --> 00:29:37,860 Parce qu'à travers tout ce que vous avez liké, partagé, 473 00:29:38,060 --> 00:29:45,160 ils en tirent un profilage psychologique, et donc culturel 474 00:29:45,880 --> 00:29:52,690 de vous-même, qui fait que Facebook peut après vendre, à des annonceurs, 475 00:29:52,890 --> 00:29:55,450 des profilage hyper serrés, hyper précis, etc. 476 00:29:55,650 --> 00:29:59,860 Et tout ça repose sur l'économie de l'attention, c'est-à-dire l'art 477 00:30:00,060 --> 00:30:05,380 de faire en sorte qu'on reste dépendant de ça, qu'on ait envie de partager, 478 00:30:05,580 --> 00:30:08,950 qu'on ait envie de liker, donc de fournir des informations 479 00:30:09,150 --> 00:30:11,020 à Facebook par exemple, sur ce qu'on est. 480 00:30:12,580 --> 00:30:14,440 Au risque, d'ailleurs, de nous enfermer dans des bulles 481 00:30:14,640 --> 00:30:18,280 de filtres, au sens où on resterait à l'intérieur de notre communauté. 482 00:30:18,480 --> 00:30:21,940 Cette notion a été créée en 2011, mais elle est depuis très contestée 483 00:30:22,140 --> 00:30:26,200 puisqu'elle a donné lieu à des tas de travaux de vérification. 484 00:30:26,400 --> 00:30:29,230 Et certains disent que non, ce n'est pas si enfermant que ça, 485 00:30:30,200 --> 00:30:32,950 il reste quand même la possibilité d'accéder à des gens par l'extérieur. 486 00:30:33,150 --> 00:30:34,580 Il y a des gens extérieurs qui sont dans les bulles. 487 00:30:35,030 --> 00:30:40,110 Donc ce n'est pas si enfermant que ça, 488 00:30:40,310 --> 00:30:41,070 effectivement. 489 00:30:41,270 --> 00:30:42,030 Bref. 490 00:30:42,230 --> 00:30:44,150 Enfin, en attendant, quand même, ça donne des tendances 491 00:30:44,570 --> 00:30:49,700 à s'enfermer un peu dans sa communauté de croyances, dans ses croyances. 492 00:30:51,530 --> 00:30:57,560 Et si ça agit quelque part, indépendamment de l'effet de 493 00:30:57,760 --> 00:31:01,340 renforcement, c’est dans la création d'un effet de réaction. 494 00:31:02,570 --> 00:31:06,560 Ça doit susciter de l'indignation, ça doit susciter du plaisir, 495 00:31:06,760 --> 00:31:10,160 du rire, du je ne sais pas quoi, de façon à créer des émotions qui 496 00:31:10,360 --> 00:31:11,840 nous amènent à agir. 497 00:31:12,040 --> 00:31:20,180 Vraiment, on retourne là à Tchakhotine et à cette idée qu'il y a l'activation 498 00:31:20,380 --> 00:31:24,860 d'un certain nombre de mécanismes psychiques pulsionnels qui font 499 00:31:25,060 --> 00:31:29,330 que le seul effet, mais qui est un effet très important et très 500 00:31:29,530 --> 00:31:34,100 intéressant, c'est d'activer des réactions pulsionnelle de type colère, 501 00:31:34,300 --> 00:31:36,110 indignation, joie, émotion, etc. 502 00:31:39,530 --> 00:31:44,570 Ce qui aide à définir votre profilage pour, après, vendre votre profil 503 00:31:44,770 --> 00:31:45,800 à des annonceurs publicitaires. 504 00:31:46,000 --> 00:31:50,510 Voilà, j'en ai terminé avec ce chapitre, et j'en ai donc terminé 505 00:31:50,710 --> 00:31:52,460 avec le cycle sur les effets des médias. 506 00:31:52,850 --> 00:31:56,810 Nous nous retrouverons dans de prochains épisodes pour aborder 507 00:31:57,010 --> 00:31:58,820 la question des théories de la communication. 508 00:31:59,330 --> 00:32:01,070 Merci de votre écoute et à très bientôt !