1 00:00:05,680 --> 00:00:08,740 Après avoir parlé dans la première vidéo de ce qu’est l’intelligence 2 00:00:08,940 --> 00:00:13,570 artificielle et des développements qu’elle a connus dans une actualité 3 00:00:13,770 --> 00:00:17,500 récente, dans cette seconde vidéo, nous allons aborder les imaginaires, 4 00:00:17,700 --> 00:00:21,670 les représentations collectives que nous pouvons nourrir autour 5 00:00:21,940 --> 00:00:23,230 de ces développements technologiques. 6 00:00:23,980 --> 00:00:28,900 Je vais commencer cette seconde partie à travers les données issues 7 00:00:29,100 --> 00:00:32,650 d’un article écrit par deux sociologues, Maxime Crespel et 8 00:00:32,850 --> 00:00:36,610 Dominique Cardon, paru dans la revue Réseau, article dans lequel 9 00:00:36,810 --> 00:00:41,530 les deux sociologues étudient la couverture médiatique de l’intelligence 10 00:00:41,730 --> 00:00:45,520 artificielle dans la période 2015-2019. 11 00:00:45,720 --> 00:00:49,600 Premièrement, ils notent que sur la période 2015-2019, 12 00:00:50,890 --> 00:00:56,920 les articles parlant de l’intelligence artificielle ont progressé de 163 %. 13 00:00:57,370 --> 00:01:02,560 Ils ont été plus que multipliés par deux, ce qui semble indiquer 14 00:01:02,800 --> 00:01:07,000 un véritable intérêt des médias, mais certainement aussi de la société 15 00:01:07,300 --> 00:01:10,870 pour les récents développements de l’intelligence artificielle. 16 00:01:11,470 --> 00:01:14,320 Leur étude, celle de Maxime Crespel et Dominique Cardon, 17 00:01:14,680 --> 00:01:18,670 porte sur 30 000 articles de presse qui parlent d’intelligence 18 00:01:18,870 --> 00:01:23,710 artificielle, à travers lesquels ils ont essayé d’identifier les 19 00:01:23,910 --> 00:01:27,640 craintes liées à ces développements technologiques, sachant qu’ils 20 00:01:27,840 --> 00:01:30,430 ne se sont intéressés qu’aux critiques de l’intelligence artificielle 21 00:01:30,850 --> 00:01:32,410 et non pas aux opportunités. 22 00:01:33,250 --> 00:01:35,890 Première chose que nous apprennent les deux sociologues, 23 00:01:36,090 --> 00:01:39,190 c’est que les débats publics sur l’intelligence artificielle 24 00:01:39,550 --> 00:01:45,910 s’organisent systématiquement autour d’une polarité tranchée, 25 00:01:46,240 --> 00:01:49,330 autour de deux pôles entre risques et promesses. 26 00:01:49,780 --> 00:01:52,600 On est toujours dans un point de vue très binaire par rapport à 27 00:01:52,800 --> 00:01:53,800 l’intelligence artificielle. 28 00:01:54,110 --> 00:01:59,170 Soit on fait face à des risques, soit on peut avoir accès à de nouvelles 29 00:01:59,590 --> 00:02:00,350 opportunités. 30 00:02:00,970 --> 00:02:04,570 Ils nous disent aussi que malgré la grande diversité des sujets 31 00:02:05,140 --> 00:02:09,400 abordés dans ces articles, on retrouve deux sujets dominants. 32 00:02:09,600 --> 00:02:13,960 D’une part, le fonctionnement des algorithmes tel qu’ils fonctionnent 33 00:02:14,160 --> 00:02:19,030 aujourd’hui, c’est-à-dire la manière dont ces algorithmes peuvent créer 34 00:02:19,230 --> 00:02:24,490 des problèmes, des problèmes sociaux comme de la censure sur les réseaux 35 00:02:24,690 --> 00:02:31,330 sociaux, de la discrimination, des formes de racisme dans la 36 00:02:31,530 --> 00:02:36,280 recommandation de certaines vidéos ou la promotion de contenus violents. 37 00:02:36,880 --> 00:02:40,570 Par exemple, dans les médias, on parle beaucoup de la manière 38 00:02:40,770 --> 00:02:44,590 dont la recommandation automatique sur YouTube va promouvoir des contenus 39 00:02:44,790 --> 00:02:45,550 complotistes. 40 00:02:45,750 --> 00:02:48,010 Là, on met en cause le fonctionnement de l’algorithme. 41 00:02:48,790 --> 00:02:51,610 Par exemple, on va beaucoup parler dans les médias de la manière dont 42 00:02:51,810 --> 00:02:55,510 Facebook va nous enfermer dans des espèces de bulles cognitives 43 00:02:55,710 --> 00:02:59,620 où nous sommes toujours confrontés à des informations qui nous confortent 44 00:02:59,820 --> 00:03:03,220 dans nos opinions, cette thématique de l’enfermement idéologique. 45 00:03:03,550 --> 00:03:07,660 Là aussi, on fait face à la mise en cause du fonctionnement des 46 00:03:07,860 --> 00:03:08,620 algorithmes. 47 00:03:08,980 --> 00:03:12,340 Pour autant, précisons ici que le fonctionnement de ces algorithmes 48 00:03:12,700 --> 00:03:15,430 ne repose pas toujours sur de l’intelligence artificielle, 49 00:03:15,640 --> 00:03:16,400 loin de là. 50 00:03:16,600 --> 00:03:20,020 Par exemple, les algorithmes de recommandation ne sont pas de 51 00:03:20,220 --> 00:03:21,220 l’intelligence artificielle. 52 00:03:21,420 --> 00:03:26,440 Ils reposent sur l’idée qu’on va vous recommander un contenu en 53 00:03:26,640 --> 00:03:32,020 observant ce que les gens qui ont regardé avant et qui ont consommé 54 00:03:32,220 --> 00:03:33,740 les mêmes types de produit ont consommé après. 55 00:03:35,200 --> 00:03:38,140 Si vous prenez Netflix, on va vous recommander des contenus 56 00:03:38,340 --> 00:03:40,450 parce que vous avez regardé une série. 57 00:03:40,650 --> 00:03:42,220 Imaginons que vous avez regardé Friends. 58 00:03:43,750 --> 00:03:47,380 Parce que vous avez regardé Friends, l’algorithme sait que les gens 59 00:03:47,580 --> 00:03:50,620 qui ont regardé Friends ont apprécié regarder une autre série après, 60 00:03:50,920 --> 00:03:53,320 donc on va vous recommander de regarder cette série parce que 61 00:03:53,530 --> 00:03:56,650 c’est ce que les gens qui ont fait comme vous ont fait par la suite. 62 00:03:57,250 --> 00:03:59,170 Ce n’est pas de l’intelligence artificielle, c’est de l’informatique 63 00:04:00,910 --> 00:04:01,840 on ne peut plus classique. 64 00:04:02,260 --> 00:04:05,590 Pour autant, dans les enjeux de modération, il y a de l’intelligence 65 00:04:05,790 --> 00:04:08,230 artificielle, on en a parlé lors de la première séquence. 66 00:04:09,190 --> 00:04:11,380 Ce que nous disent les deux sociologues, c’est que dans les médias, 67 00:04:11,580 --> 00:04:14,530 lorsqu’on met en cause le fonctionnement des algorithmes, 68 00:04:15,430 --> 00:04:21,520 on a tendance à confondre intelligence artificielle et informatique 69 00:04:21,720 --> 00:04:22,480 traditionnelle. 70 00:04:22,680 --> 00:04:24,400 C’est le premier grand sujet dominant. 71 00:04:24,760 --> 00:04:27,640 Le second sujet dominant, c’est celui des robots, 72 00:04:27,840 --> 00:04:32,950 c’est-à-dire les risques liés à l’émergence de machines autonomes 73 00:04:33,580 --> 00:04:38,830 qui seraient capables d’imiter ou surpasser les capacités humaines. 74 00:04:39,550 --> 00:04:42,460 Le thème des machines autonomes, c’est effectivement un thème qu’on 75 00:04:42,660 --> 00:04:43,960 retrouve beaucoup dans l’actualité. 76 00:04:44,290 --> 00:04:49,780 Pensons aux voitures autonomes, ces voitures qui se pilotent sans 77 00:04:49,980 --> 00:04:51,940 chauffeur, je reviendrais sur cet exemple tout à l’heure, 78 00:04:52,510 --> 00:04:58,000 ou aux robots capables d’effectuer des livraisons ou des robots utilisés 79 00:04:58,570 --> 00:05:02,710 sur des terrains de guerre, avec cette idée que ces machines 80 00:05:02,910 --> 00:05:05,890 sont autonomes, apprennent d’elles-mêmes et fonctionnent toutes 81 00:05:06,090 --> 00:05:06,850 seules. 82 00:05:07,050 --> 00:05:09,580 Et là, pour le coup, on est bien face à de l’intelligence 83 00:05:09,780 --> 00:05:10,540 artificielle. 84 00:05:10,810 --> 00:05:13,840 Algorithme, robot, ce que nous disent les sociologues, 85 00:05:14,040 --> 00:05:16,570 c’est que ce sont les deux grands sujets qui sont traités dans les 86 00:05:17,770 --> 00:05:19,840 médias lorsqu’on parle d’intelligence artificielle. 87 00:05:20,110 --> 00:05:23,980 Ils nous disent aussi que même si derrière, on a des craintes 88 00:05:24,340 --> 00:05:29,860 différentes dans la mesure où dans le premier cas, on parle du 89 00:05:30,060 --> 00:05:32,680 fonctionnement de l’informatique tel qu’il fonctionne aujourd’hui, 90 00:05:33,100 --> 00:05:36,370 les effets néfastes aujourd’hui de l’informatique avec les algorithmes, 91 00:05:36,730 --> 00:05:41,350 alors que dans le deuxième cas, on parle des effets futurs, 92 00:05:41,550 --> 00:05:45,490 on projette des peurs futures avec les robots autonomes. 93 00:05:46,450 --> 00:05:51,880 Malgré ces différences, on retrouve l’idée de la peur de 94 00:05:52,080 --> 00:05:55,600 l’autonomisation de nos outils informatiques. 95 00:05:55,800 --> 00:06:03,670 C’est cette idée qu’au fur et à 96 00:06:03,870 --> 00:06:07,330 mesure que ces outils s’autonomisent, nous les êtres humains, 97 00:06:07,530 --> 00:06:08,710 nous perdons le contrôle. 98 00:06:09,250 --> 00:06:12,340 Plus les technologies sont autonomes, moins nous les contrôlons, 99 00:06:12,540 --> 00:06:14,980 moins nous les dominons, peut-être devons-nous nous attendre 100 00:06:15,180 --> 00:06:17,440 à ce qu’un jour, elles puissent se retourner contre nous. 101 00:06:18,490 --> 00:06:24,280 Dans ces articles, on retrouve des thèmes très différents pour 102 00:06:24,480 --> 00:06:25,240 parler de ces sujets. 103 00:06:25,440 --> 00:06:28,300 Par exemple, la question de l’automatisation du travail avec 104 00:06:28,500 --> 00:06:30,370 des machines autonomes qui remplaceraient les êtres humains, 105 00:06:30,710 --> 00:06:34,930 les robots tueurs utilisés sur des terrains de guerre à des fins 106 00:06:35,130 --> 00:06:39,370 militaires, la reconnaissance faciale et la surveillance des populations, 107 00:06:39,760 --> 00:06:42,310 les assistants vocaux et la surveillance des foyers, 108 00:06:42,850 --> 00:06:46,210 les voitures autonomes et les risques pour la sécurité routière ou encore 109 00:06:46,410 --> 00:06:49,960 la justice prédictive et les enjeux de discriminations qui y sont liés. 110 00:06:50,470 --> 00:06:53,500 Vous voyez bien, ces sujets sont très différents, mais ils mettent 111 00:06:53,700 --> 00:06:57,010 tous en cause soit le fonctionnement d’algorithmes tels qu’ils fonctionnent 112 00:06:57,210 --> 00:07:01,540 aujourd’hui, soit des machines autonomes, donc de l’intelligence 113 00:07:02,620 --> 00:07:03,380 artificielle. 114 00:07:06,160 --> 00:07:10,420 Derrière ces articles, on retrouve aussi l’idée importante 115 00:07:10,960 --> 00:07:17,260 que pour les êtres humains, la question du contrôle et la question 116 00:07:18,070 --> 00:07:23,680 de la domestication de ces machines autonomes revêtent un enjeu éthique. 117 00:07:24,250 --> 00:07:26,620 Le mot éthique est très important. 118 00:07:26,890 --> 00:07:29,350 On est dans un cours qui s’appelle "Enjeux et éthique du numérique", 119 00:07:29,550 --> 00:07:30,860 donc on y reviendra souvent. 120 00:07:31,420 --> 00:07:35,980 Je vais faire une parenthèse pour vous expliquer de quoi parle-t-on 121 00:07:36,340 --> 00:07:40,600 exactement lorsqu’on parle d’éthique et lorsqu’on parle d’éthique du 122 00:07:40,800 --> 00:07:41,560 numérique. 123 00:07:41,760 --> 00:07:47,890 L’éthique, c’est une branche de la philosophie qui s’intéresse 124 00:07:48,090 --> 00:07:52,240 aux comportements humains, plus exactement qui s’intéresse 125 00:07:52,660 --> 00:07:55,750 aux fondements moraux des comportements humains. 126 00:07:57,340 --> 00:08:02,020 Contrairement à la sociologie qui observe les comportements, 127 00:08:02,220 --> 00:08:06,310 ce que font les êtres humains, avec l’éthique, on va observer 128 00:08:06,610 --> 00:08:11,260 les jugements moraux qui vont présider aux décisions que nous prenons 129 00:08:11,710 --> 00:08:15,490 dans différents secteurs de nos existences, d’où l’idée de fondements 130 00:08:15,690 --> 00:08:16,570 moraux de nos actions. 131 00:08:17,470 --> 00:08:20,740 Lorsque nous réalisons des actions dans notre quotidien, 132 00:08:20,940 --> 00:08:25,600 des activités, nos comportements, pas tous, mais un certain nombre 133 00:08:25,900 --> 00:08:29,200 repose sur des principes et des valeurs qui sont les nôtres. 134 00:08:30,430 --> 00:08:36,310 On essaie justement au quotidien d’accorder nos actions et nos valeurs. 135 00:08:36,510 --> 00:08:40,660 L’éthique, ce n’est pas tout à fait la philosophie, c’est une 136 00:08:40,860 --> 00:08:44,830 branche de la philosophie et ce n’est pas tout à fait la morale. 137 00:08:45,030 --> 00:08:48,700 L’éthique, c’est comme une forme de morale appliquée, 138 00:08:48,970 --> 00:08:52,210 comme une forme de mise en pratique de la morale. 139 00:08:52,660 --> 00:08:55,390 Nous avons tous des valeurs et des principes, c’est en quelque 140 00:08:55,590 --> 00:08:56,350 sorte notre morale. 141 00:08:56,620 --> 00:09:00,310 Mais la manière dont on essaie d’accorder nos actes à notre morale, 142 00:09:00,510 --> 00:09:01,270 c’est l’éthique. 143 00:09:01,470 --> 00:09:06,130 C’est à ça que nous allons nous intéresser ici lorsqu’on parle 144 00:09:06,330 --> 00:09:08,020 d’éthique de l’intelligence artificielle. 145 00:09:08,220 --> 00:09:16,360 C’est comment garantir que ces machines autonomes agissent en 146 00:09:16,560 --> 00:09:19,840 respectant un certain nombre de principes et de valeurs, 147 00:09:20,740 --> 00:09:26,200 et qu’elles agissent en respectant les droits humains les plus 148 00:09:26,530 --> 00:09:27,290 fondamentaux. 149 00:09:29,260 --> 00:09:32,410 Ces enjeux, on va en parler dans la troisième partie qui parlera 150 00:09:32,610 --> 00:09:34,840 de la régulation de l’intelligence artificielle. 151 00:09:35,830 --> 00:09:40,360 Avant cela, pour appréhender ces enjeux d’éthique de l’intelligence 152 00:09:40,560 --> 00:09:44,620 artificielle, je voudrais que vous réalisiez un petit test, 153 00:09:47,140 --> 00:09:49,630 bien connu aujourd’hui et peut-être que vous l’avez déjà fait, 154 00:09:50,020 --> 00:09:54,850 qui repose sur le fonctionnement des voitures autonomes. 155 00:09:55,510 --> 00:09:58,360 Les voitures autonomes, ce n’est peut-être pas clair pour 156 00:09:58,840 --> 00:09:59,860 chacun et chacune d’entre nous. 157 00:10:00,090 --> 00:10:02,220 De quoi parle-t-on lorsqu’on parle de voitures autonomes ? 158 00:10:02,550 --> 00:10:09,570 On parle de voitures capables de rouler sans chauffeur et dans des 159 00:10:09,930 --> 00:10:14,310 situations, dans des contextes de trafic routier normaux sans 160 00:10:14,510 --> 00:10:15,270 aucun chauffeur. 161 00:10:15,570 --> 00:10:20,160 Elles reposent sur de l’intelligence artificielle puisque se trouvent 162 00:10:20,360 --> 00:10:24,750 embarqués, dans ces voitures, des programmes qui vont apprendre 163 00:10:24,950 --> 00:10:31,260 d’eux-mêmes à reconnaître d’autres voitures, des piétons, 164 00:10:31,890 --> 00:10:36,750 la signalisation, respecter les limites de vitesse, ce genre de 165 00:10:36,950 --> 00:10:38,490 choses très importantes. 166 00:10:38,880 --> 00:10:41,650 Ça fait déjà plusieurs années que les grands géants du numérique 167 00:10:41,850 --> 00:10:44,100 travaillent au développement de ces voitures autonomes. 168 00:10:44,370 --> 00:10:48,240 Certains modèles sont déjà prêts et sont déjà en phase de test grandeur 169 00:10:48,440 --> 00:10:51,540 nature dans des villes aux États-Unis. 170 00:10:54,630 --> 00:10:58,620 Cette voiture autonome suscite aussi un certain nombre de craintes. 171 00:10:58,820 --> 00:11:03,390 Est-ce qu’on est prêt, en tant que conducteur, 172 00:11:03,780 --> 00:11:08,040 à cette perte de contrôle qui est de laisser le volant à une machine 173 00:11:08,240 --> 00:11:09,000 autonome ? 174 00:11:09,200 --> 00:11:10,020 Ce n’est pas évident pour tout le monde. 175 00:11:10,220 --> 00:11:13,230 Est-ce qu’on est prêt, d’un point de vue piéton ou d’un 176 00:11:13,430 --> 00:11:17,280 point de vue citoyen, à autoriser des voitures sans 177 00:11:17,480 --> 00:11:22,020 conducteur à rouler dans les villes avec les potentiels accidents que 178 00:11:22,220 --> 00:11:23,280 cela pourrait créer ? 179 00:11:23,480 --> 00:11:30,450 À partir du moment où on l’autorise, quel type d’éthique pouvons-nous 180 00:11:30,960 --> 00:11:35,340 embarquer dans ces voitures afin qu’elles puissent prendre des décisions 181 00:11:35,540 --> 00:11:37,320 éthiques fondamentales ? 182 00:11:39,500 --> 00:11:40,280 Je vous donne un exemple. 183 00:11:41,120 --> 00:11:43,670 Imaginez que vous vous trouvez dans une voiture autonome. 184 00:11:44,360 --> 00:11:48,290 Cette voiture n’a donc pas de conducteur, vous êtes le passager. 185 00:11:49,370 --> 00:11:51,850 Vous roulez sur une route en ville. 186 00:11:52,050 --> 00:11:56,630 Et là un piéton regarde son portable et traverse devant vous sans avoir 187 00:11:56,960 --> 00:11:58,070 remarqué la voiture. 188 00:11:58,270 --> 00:12:02,210 L’intelligence artificielle qui pilote la voiture a deux choix. 189 00:12:02,780 --> 00:12:06,590 Soit elle prend la décision de renverser le piéton, 190 00:12:07,950 --> 00:12:09,150 auquel cas vous êtes intact. 191 00:12:09,600 --> 00:12:13,680 Soit elle prend la décision de s’écarter et de rouler sur le trottoir 192 00:12:13,880 --> 00:12:16,200 pour épargner le piéton, mais auquel cas, vous risquez de 193 00:12:16,400 --> 00:12:18,960 rentrer dans le mur et à ce moment-là, c’est vous qui serez blessé. 194 00:12:19,160 --> 00:12:23,130 Qu’est-ce qu’elle doit faire la voiture autonome dans ce cas ? 195 00:12:23,330 --> 00:12:30,360 J’imagine que la plupart d’entre vous vont répondre que c’est le 196 00:12:30,560 --> 00:12:33,240 piéton qui a traversé en dehors d’un passage piéton, 197 00:12:33,440 --> 00:12:34,230 c’est lui qui est en faute. 198 00:12:34,530 --> 00:12:36,840 Il n’a pas regardé à gauche ou à droite avant de traverser, 199 00:12:37,140 --> 00:12:41,730 il est responsable, donc on peut dire que c’est à lui d’en subir 200 00:12:41,930 --> 00:12:44,970 les conséquences et d’être renversé et pas au passager de la voiture. 201 00:12:45,540 --> 00:12:46,300 Pourquoi pas ? 202 00:12:47,010 --> 00:12:51,630 Mais si je vous dis maintenant que la personne qui traverse la 203 00:12:51,830 --> 00:12:55,980 route n’est pas un piéton ordinaire, mais qu’il s’agit d’une femme enceinte 204 00:12:56,790 --> 00:13:00,300 et que le passager, à l’inverse, est un homme de 90 ans, 205 00:13:00,500 --> 00:13:04,590 est-ce que cela changerait votre avis sur la bonne décision à prendre ? 206 00:13:05,490 --> 00:13:08,190 Ou alors si je vous dis qu’il ne s’agit pas d’un piéton mais d’une 207 00:13:08,390 --> 00:13:10,470 classe d’enfants, de primaire par exemple. 208 00:13:11,160 --> 00:13:15,270 Ou si je vous dis que la voiture transporte des enfants. 209 00:13:16,170 --> 00:13:18,270 Ou si je vous dis que le passager est un criminel. 210 00:13:21,600 --> 00:13:26,010 Tous ces paramètres changent la donne et on ne peut pas décider 211 00:13:27,700 --> 00:13:33,570 de règles trop strictes, de règles trop formelles dans ce 212 00:13:33,770 --> 00:13:38,760 domaine puisque notre point de vue va évoluer en fonction du contexte. 213 00:13:39,570 --> 00:13:43,200 Pour comprendre justement quels choix nous ferions collectivement 214 00:13:43,400 --> 00:13:47,040 dans ce genre de situation, le MIT, le Massachusetts Institute 215 00:13:47,240 --> 00:13:51,960 of Technology aux États-Unis, une des grandes universités de 216 00:13:52,160 --> 00:13:54,810 technologie au monde, peut-être une des technologies 217 00:13:55,010 --> 00:13:59,070 pionnières qui a contribué au développement d’Internet et d’un 218 00:13:59,270 --> 00:14:01,200 grand nombre de technologies que nous utilisons aujourd’hui, 219 00:14:01,800 --> 00:14:04,440 le MIT a créé une plateforme qui s’appelle Moral Machine, 220 00:14:04,680 --> 00:14:11,040 machine morale, qui proposait des tests grandeur nature reposant 221 00:14:11,240 --> 00:14:12,900 sur ce principe de la voiture autonome. 222 00:14:13,860 --> 00:14:18,030 Grâce à ce petit jeu, ils ont récupéré des millions de 223 00:14:18,230 --> 00:14:22,590 participations d’internautes afin de comprendre ce que collectivement 224 00:14:22,950 --> 00:14:23,880 on pourrait décider. 225 00:14:24,080 --> 00:14:27,810 À l’échelle du globe, quels sont les grands résultats 226 00:14:28,010 --> 00:14:28,770 de ce test ? 227 00:14:30,330 --> 00:14:33,810 Nous avons tendance à sauver les humains plutôt que les animaux. 228 00:14:34,010 --> 00:14:39,120 Ensuite, nous avons tendance à faire le choix de sauver le plus 229 00:14:39,320 --> 00:14:40,830 grand nombre de vies possibles. 230 00:14:41,070 --> 00:14:43,950 Donc s’il y a une classe ou un groupe de personnes, on les sauvera 231 00:14:44,150 --> 00:14:45,840 par rapport à un individu. 232 00:14:46,040 --> 00:14:50,010 Ensuite, nous avons tendance à privilégier les jeunes par rapport 233 00:14:50,210 --> 00:14:50,970 aux plus âgés. 234 00:14:54,120 --> 00:15:02,130 Ces jugements vont évoluer en fonction des responsabilités des acteurs. 235 00:15:02,330 --> 00:15:05,970 Est-ce qu’un acteur en face de nous a enfreint le Code de la route 236 00:15:06,170 --> 00:15:08,550 et a traversé sans regarder, auquel cas peut-être que c’est 237 00:15:08,750 --> 00:15:10,050 à lui d’en payer les conséquences. 238 00:15:11,400 --> 00:15:14,040 Ces paramètres entrent aussi en jeu. 239 00:15:15,060 --> 00:15:18,330 Ce qu’a montré le MIT, c’est que ces codes éthiques de 240 00:15:18,530 --> 00:15:22,770 la voiture autonome changent suivant les régions du monde. 241 00:15:23,160 --> 00:15:26,370 Par exemple, en Asie, on a davantage tendance à sauver 242 00:15:26,570 --> 00:15:28,200 les personnes âgées par rapport à l’Europe. 243 00:15:29,060 --> 00:15:32,640 On a tendance, dans les pays du Sud, à accorder plus d’importance aux 244 00:15:32,840 --> 00:15:33,600 animaux, etc. 245 00:15:35,760 --> 00:15:40,140 Il est important de comprendre que l’éthique est toujours située, 246 00:15:40,340 --> 00:15:45,780 c’est-à-dire que le code éthique est toujours marqué par une culture, 247 00:15:45,980 --> 00:15:49,620 un contexte, même si à l’échelle du globe et des êtres humains, 248 00:15:49,890 --> 00:15:54,480 on peut considérer qu’il existe un socle fondamental, qu’il existe 249 00:15:54,680 --> 00:16:01,290 une forme d’éthique universelle de base, notamment liée au respect de la vie. 250 00:16:02,820 --> 00:16:06,120 Avant de passer à la troisième partie du cours, je vais vous inviter 251 00:16:06,510 --> 00:16:11,220 à faire ce test de la voiture autonome et à vous comparer avec les autres 252 00:16:11,420 --> 00:16:12,690 personnes qui ont rempli ce test. 253 00:16:12,890 --> 00:16:17,010 Malheureusement, le test Moral machine du MIT, vous pouvez aller 254 00:16:17,210 --> 00:16:18,600 voir en ligne, vous ne pouvez plus faire le test. 255 00:16:18,870 --> 00:16:22,170 Par contre, un test similaire est proposé par Radio Canada. 256 00:16:22,770 --> 00:16:27,240 Je vais vous en proposer le lien en complément de ce cours vidéo. 257 00:16:27,690 --> 00:16:30,620 Je vous invite par vous-même à faire le test. 258 00:16:30,820 --> 00:16:33,510 Vous verrez que les choix ne sont pas toujours aussi simples que 259 00:16:33,710 --> 00:16:35,130 ce que l’on pourrait imaginer. 260 00:16:36,390 --> 00:16:39,930 On se retrouve dans la troisième partie pour aborder les enjeux 261 00:16:40,130 --> 00:16:42,510 liés à la régulation de l’intelligence artificielle.