1 00:00:08,927 --> 00:00:11,930 Je suis à Wall Street, où tout a commencé. 2 00:00:13,724 --> 00:00:17,186 Le 6 mai 2010, à 14h45, 3 00:00:17,686 --> 00:00:21,190 un homme, assis dans la maison de ses parents, à Londres, 4 00:00:21,273 --> 00:00:24,985 a envoyé un algorithme ici, au New-York Stock Exchange, 5 00:00:25,068 --> 00:00:27,279 avec un ordre de vente d'un milliard de dollars. 6 00:00:28,697 --> 00:00:30,449 Il voulait effrayer le marché 7 00:00:30,532 --> 00:00:32,659 et annuler l'ordre à temps. 8 00:00:33,160 --> 00:00:34,411 Mais avant de le faire, 9 00:00:34,495 --> 00:00:37,247 les systèmes automatisés d'échanges du monde entier 10 00:00:37,331 --> 00:00:38,582 se sont mis à vendre, 11 00:00:39,041 --> 00:00:42,336 entraînant une réaction en chaîne creusant un fossé dans le marché. 12 00:00:44,880 --> 00:00:48,967 Le Dow Jones Industrial a chuté de mille points en 15 minutes. 13 00:00:49,051 --> 00:00:52,513 C'était presque aussi grave que la chute qui déclencha la Grande Dépression. 14 00:00:52,596 --> 00:00:55,307 Je ne sais pas du tout ce qu'il se passe ici. 15 00:00:55,390 --> 00:00:56,642 La peur règne sur le marché. 16 00:00:57,267 --> 00:00:59,645 Annulez votre croisière, transférez vos enfants dans le public. 17 00:01:00,938 --> 00:01:02,481 C'est un flash crash. 18 00:01:03,023 --> 00:01:04,066 Merde. 19 00:01:05,359 --> 00:01:08,111 Trente-six minutes plus tard, le marché se stabilisa. 20 00:01:08,195 --> 00:01:11,615 Mais le flash crash de 2010 a été le premier événement 21 00:01:11,698 --> 00:01:15,994 où les humains ont eu un aperçu direct, sanglant et terrifiant 22 00:01:16,078 --> 00:01:19,164 d'une I.A. prenant le contrôle de notre système financier. 23 00:01:20,707 --> 00:01:22,167 Et regardez où on en est. 24 00:01:24,086 --> 00:01:26,922 D'où ma présence en Inde, pour récolter du miel sauvage. 25 00:01:27,631 --> 00:01:28,966 On en reparlera plus tard. 26 00:01:29,341 --> 00:01:31,885 Pour comprendre comment une I.A. a trouvé ce lieu, 27 00:01:31,969 --> 00:01:34,429 il faut d'abord comprendre ce qu'est une I.A. 28 00:01:34,513 --> 00:01:36,431 Si vous pensez le savoir, vous avez sûrement tort. 29 00:01:37,850 --> 00:01:41,436 Que vous le vouliez ou non, on est tous lié à l'argent. 30 00:01:41,937 --> 00:01:45,315 Je suis Kal Penn et j'explore cette énorme bête 31 00:01:45,691 --> 00:01:48,068 qu'est l'économie mondiale. 32 00:01:48,151 --> 00:01:49,403 L'économie mondiale, un monstre géant 33 00:01:52,322 --> 00:01:54,199 Qu'est-ce qu'une I.A. ? 34 00:01:54,908 --> 00:01:58,579 Je suis à San Francisco pour corriger l'idée qu'on s'en fait, 35 00:01:58,662 --> 00:02:01,874 idée piochée dans la science-fiction. 36 00:02:02,541 --> 00:02:03,542 Surtout... 37 00:02:03,959 --> 00:02:07,004 Les putain de robots géants ! 38 00:02:27,107 --> 00:02:28,442 Oh, mon Dieu ! 39 00:02:30,485 --> 00:02:32,112 Je suis avec Julia Bossmann, 40 00:02:32,237 --> 00:02:36,575 du Conseil de l'Intelligence Artificielle au Forum Économique Mondial. 41 00:02:36,658 --> 00:02:40,329 Elle conseille les grands dirigeants sur le potentiel des I.A. 42 00:02:40,829 --> 00:02:44,499 Son boulot a d'autres avantages que de voir des voitures être détruites. 43 00:02:44,583 --> 00:02:47,586 Faire des selfies avec le sex-symbol du Canada, pas Drake, l'autre. 44 00:02:47,669 --> 00:02:48,754 JUSTIN TRUDEAU PREMIER MINISTRE DU CANADA 45 00:02:53,467 --> 00:02:55,385 Comment allez-vous rentrer chez vous ? 46 00:02:55,469 --> 00:02:56,803 Elle doit encore rouler. 47 00:03:01,016 --> 00:03:03,018 On se retrouve chez MegaBots, 48 00:03:03,101 --> 00:03:05,854 fabricant de robots géants qui se battent entre eux. 49 00:03:07,814 --> 00:03:10,275 Comme du catch pour les geeks. 50 00:03:13,779 --> 00:03:14,905 D'après Julia, 51 00:03:14,988 --> 00:03:17,658 ces robots sont plus qu'une attraction de la mort. 52 00:03:18,283 --> 00:03:22,412 Ce sont des dinosaures technologiques, grâce à une spécificité. 53 00:03:24,289 --> 00:03:25,582 Dans ces robots, c'est nous, le cerveau, 54 00:03:25,666 --> 00:03:27,626 mais une I.A. a son propre cerveau. 55 00:03:27,709 --> 00:03:28,752 FORUM ÉCONOMIQUE MONDIAL, EXPERTE EN I.A. 56 00:03:28,835 --> 00:03:29,711 Vous pouvez développer ? 57 00:03:29,795 --> 00:03:32,506 Aujourd'hui, on fabrique des ordinateurs 58 00:03:32,589 --> 00:03:34,132 apprenant par eux-mêmes. 59 00:03:34,591 --> 00:03:37,010 Sans forcément avoir d'entité physique. 60 00:03:37,344 --> 00:03:40,055 On a déjà créé beaucoup d'I.A. stockées 61 00:03:40,138 --> 00:03:41,765 dans d'énormes bases de données. 62 00:03:42,057 --> 00:03:46,645 Si vous deviez l'expliquer à un ado, 63 00:03:46,728 --> 00:03:48,146 comment définiriez-vous une I.A. ? 64 00:03:48,230 --> 00:03:50,691 Globalement, 65 00:03:50,774 --> 00:03:54,945 les I.A. contrôlent des machines 66 00:03:55,028 --> 00:03:58,156 sans qu'on les ait programmées pour le faire. 67 00:03:58,240 --> 00:03:59,616 Avec une programmation classique, 68 00:03:59,700 --> 00:04:02,744 on définit des règles et un algorithme, 69 00:04:02,828 --> 00:04:04,413 on sait où tout se trouve. 70 00:04:04,496 --> 00:04:07,165 Tout est paramétré par la personne qui l'a programmé. 71 00:04:07,249 --> 00:04:09,501 Dans la documentation médicale, 72 00:04:09,584 --> 00:04:12,004 la base de données contient des millions de rubriques, 73 00:04:12,087 --> 00:04:14,923 aucun médecin ne peut lire autant d'études 74 00:04:15,048 --> 00:04:17,676 pour rester à jour, mais une machine, si. 75 00:04:17,759 --> 00:04:20,220 Donc elle pourrait trouver de nouvelles idées 76 00:04:20,303 --> 00:04:21,596 pour résoudre des problèmes, 77 00:04:21,680 --> 00:04:24,766 ou découvrir des médicaments pour guérir certaines maladies. 78 00:04:24,850 --> 00:04:25,976 D'accord. 79 00:04:26,059 --> 00:04:28,395 Le domaine d'intelligence artificielle 80 00:04:28,478 --> 00:04:30,856 le plus prometteur, en ce moment, 81 00:04:30,939 --> 00:04:32,065 c'est l'apprentissage profond. 82 00:04:32,149 --> 00:04:33,608 C'est quoi ? 83 00:04:33,692 --> 00:04:36,069 L'apprentissage profond, 84 00:04:36,153 --> 00:04:39,072 c'est plusieurs niveaux profonds de systèmes neurologiques 85 00:04:39,156 --> 00:04:42,242 qui ressemblent à ce qu'on a dans le cerveau. 86 00:04:42,325 --> 00:04:45,579 On a tous ces neurones connectés les uns aux autres 87 00:04:45,662 --> 00:04:46,788 qui échangent des informations, 88 00:04:46,830 --> 00:04:50,751 et d'une certaine façon, on simule la même chose dans ces machines. 89 00:04:50,834 --> 00:04:54,546 On leur envoie des données de façon équilibrée et impartiale 90 00:04:54,629 --> 00:04:56,214 pour qu'elles apprennent. 91 00:04:56,548 --> 00:04:59,009 Prenons l'exemple de la reconnaissance faciale, 92 00:04:59,092 --> 00:05:01,511 on lui montre des images de chats et de chiens, 93 00:05:01,595 --> 00:05:03,972 ensuite, elle va passer les images en revue 94 00:05:04,056 --> 00:05:06,349 et apprendre toute seule à les reconnaître. 95 00:05:06,433 --> 00:05:10,187 Donc on n'a pas besoin de le programmer. 96 00:05:10,228 --> 00:05:11,229 Intéressant. 97 00:05:11,313 --> 00:05:14,107 Certaines machines apprennent sans l'apprentissage profond. 98 00:05:14,858 --> 00:05:16,985 Il existe des algorithmes évolutifs, 99 00:05:17,069 --> 00:05:19,863 autrement dit, on se sert d'un principe d'évolution 100 00:05:19,946 --> 00:05:24,242 et on laisse la machine tester différentes possibilités, 101 00:05:24,743 --> 00:05:27,329 ensuite, on regarde laquelle fonctionne le mieux. 102 00:05:27,412 --> 00:05:31,291 Et on l'applique à la nouvelle génération. 103 00:05:31,374 --> 00:05:34,336 Tout comme l'évolution des organismes, on définit des principes, 104 00:05:34,419 --> 00:05:37,172 et les meilleurs programmes, les plus efficaces, survivent. 105 00:05:37,255 --> 00:05:38,381 D'accord. 106 00:05:38,465 --> 00:05:40,550 Ce sont des algorithmes évolutifs. 107 00:05:40,926 --> 00:05:44,346 Et d'un point de vue financier ? 108 00:05:44,429 --> 00:05:47,724 Les I.A. doivent avoir un impact considérable sur l'économie. 109 00:05:47,808 --> 00:05:50,393 Je pense que ça va changer radicalement l'économie, 110 00:05:50,477 --> 00:05:53,313 on parle d'une nouvelle révolution industrielle. 111 00:05:53,396 --> 00:05:54,231 Intéressant. 112 00:05:54,314 --> 00:05:55,774 On dit que ce sera notre dernière invention, 113 00:05:55,857 --> 00:05:58,944 quand les cerveaux artificiels seront plus intelligents que nous, 114 00:05:59,027 --> 00:06:00,779 ils inventeront à notre place. 115 00:06:00,862 --> 00:06:03,865 On parle de "dernière invention", car ils vont tous nous tuer ? 116 00:06:04,950 --> 00:06:06,118 J'espère que non. 117 00:06:08,829 --> 00:06:12,207 On a souvent peur que les I.A. deviennent trop intelligentes 118 00:06:12,290 --> 00:06:15,001 et finissent par nous tuer. Mais pas de panique. 119 00:06:15,085 --> 00:06:19,047 Si les I.A. sont super intelligentes, c'est parce qu'elles sont super débiles. 120 00:06:19,464 --> 00:06:20,549 Viens ici, I.A. 121 00:06:21,299 --> 00:06:24,302 Imaginez que vous demandiez à une I.A. de trouver la meilleure recette de gâteau 122 00:06:24,386 --> 00:06:26,179 grâce aux algorithmes évolutifs. 123 00:06:27,973 --> 00:06:30,517 Une I.A. ne chercherait pas le meilleur moyen de le faire. 124 00:06:30,600 --> 00:06:33,520 Elle se contenterait d'essayer des milliards de fois, 125 00:06:33,603 --> 00:06:37,482 en se servant bêtement de tous les ingrédients à disposition. 126 00:06:38,441 --> 00:06:40,652 La plupart des tentatives échoueront. 127 00:06:42,320 --> 00:06:43,613 Comme celle-ci. 128 00:06:44,447 --> 00:06:45,657 Bien essayé, débilos. 129 00:06:46,616 --> 00:06:50,162 L'échec n'atteint pas une I.A. puisqu'elle ne ressent rien ! 130 00:06:50,745 --> 00:06:53,123 L'avantage des algorithmes évolutifs, 131 00:06:53,206 --> 00:06:56,293 c'est qu'en faisant tous ces essais pouvant sembler stupides, 132 00:06:56,376 --> 00:06:58,044 l'I.A. peut tomber sur la réponse 133 00:06:58,128 --> 00:07:01,464 à une question culinaire qu'aucun être humain rationnel ne se poserait, 134 00:07:01,548 --> 00:07:04,176 comme faire ce gâteau vegan sophistiqué. 135 00:07:04,259 --> 00:07:05,302 J'ai fait un gâteau. 136 00:07:06,178 --> 00:07:07,554 Bravo, I.A. 137 00:07:07,637 --> 00:07:09,097 C'est surtout des noix de cajou. 138 00:07:09,931 --> 00:07:13,143 Vous y auriez pensé ? Bien sûr que non ! 139 00:07:13,226 --> 00:07:16,521 Ce serait trop bête, comme une I.A., 140 00:07:16,605 --> 00:07:18,190 et donc, pas comme vous. 141 00:07:18,273 --> 00:07:21,067 Est-ce que cette abrutie pourrait évoluer et devenir tellement intelligente 142 00:07:21,151 --> 00:07:23,653 qu'elle dominerait le monde et nous tuerait tous ? 143 00:07:24,196 --> 00:07:25,280 Difficile à dire. 144 00:07:25,363 --> 00:07:26,740 J'apprends les codes de lancement. 145 00:07:27,657 --> 00:07:28,992 Mais en attendant... 146 00:07:29,993 --> 00:07:31,077 Mangez du gâteau. 147 00:07:35,165 --> 00:07:36,541 Je suis toujours inquiet 148 00:07:36,625 --> 00:07:39,461 que les I.A. finissent par être plus un problème qu'une solution, 149 00:07:41,004 --> 00:07:43,757 les experts disent qu'elles augmenteront la productivité 150 00:07:43,840 --> 00:07:47,636 dans différents secteurs : médical, transports, finance, 151 00:07:47,719 --> 00:07:51,848 et d'ici 2030, le PIB mondial brut augmenterait de 15,7 milliards de dollars. 152 00:07:52,474 --> 00:07:56,478 C'est plus que la production actuelle de la Chine et de l'Inde combinées. 153 00:07:59,898 --> 00:08:02,275 Alors, les I.A. sont-elles si révolutionnaires ? 154 00:08:02,943 --> 00:08:06,404 Elles représentent une des trois grandes révolutions de l'histoire. 155 00:08:06,488 --> 00:08:07,697 De l'histoire ? 156 00:08:07,781 --> 00:08:08,990 De l'histoire des hommes. 157 00:08:09,616 --> 00:08:11,368 Je suis avec Andrew McAfee, 158 00:08:11,451 --> 00:08:15,664 un des plus grands spécialistes de l'impact technologique sur l'économie, 159 00:08:15,747 --> 00:08:19,542 et de ce fait, sur la société. 160 00:08:20,460 --> 00:08:22,212 Prenez un graphique de l'histoire. 161 00:08:22,295 --> 00:08:24,214 pendant des milliers d'années, 162 00:08:24,297 --> 00:08:26,258 il ne s'est rien passé. On était au point mort. 163 00:08:26,341 --> 00:08:28,093 CO-DIRECTEUR DE L'INSTITUT DE L'ÉCONOMIE DIGITALE AU M.I.T. 164 00:08:28,176 --> 00:08:30,845 C'était quasiment comme si on était morts. 165 00:08:30,929 --> 00:08:32,514 Et d'un coup, 166 00:08:32,597 --> 00:08:34,933 ce graphique, peu importe comment on le prend, 167 00:08:35,016 --> 00:08:38,144 passe d'une simple ligne horizontale à une envolée verticale 168 00:08:38,228 --> 00:08:39,771 - en un instant. - D'accord. 169 00:08:39,854 --> 00:08:41,481 C'est arrivé vers le XIXe siècle, 170 00:08:41,564 --> 00:08:45,443 grâce d'abord à la machine à vapeur, et ensuite, grâce à l'électricité. 171 00:08:47,821 --> 00:08:50,782 L'électricité a apporté beaucoup de choses évidentes. 172 00:08:50,865 --> 00:08:53,827 Tramways, métros. 173 00:08:53,910 --> 00:08:57,080 Mais aussi de moins évidentes. Les villes sont devenues verticales. 174 00:08:57,163 --> 00:08:58,373 - Avec l'électricité ? - Oui. 175 00:08:58,456 --> 00:08:59,749 - Grâce aux ascenseurs. - Oui. 176 00:08:59,833 --> 00:09:01,543 Pas de ville verticale sans ascenseur. 177 00:09:01,626 --> 00:09:03,878 On ne peut pas monter 80 étages. 178 00:09:03,962 --> 00:09:06,506 Ces révolutions industrielles, la machine à vapeur, 179 00:09:06,589 --> 00:09:09,259 et l'enchaînement électricité et combustion interne 180 00:09:09,342 --> 00:09:11,011 ont révolutionné notre monde. 181 00:09:11,094 --> 00:09:12,804 - C'est indéniable. - Oui. 182 00:09:12,887 --> 00:09:15,974 Et ces technologies nous ont permis de dépasser les limites 183 00:09:16,057 --> 00:09:17,100 de notre corps. 184 00:09:17,183 --> 00:09:20,562 Les I.A. nous permettent de dépasser les limites 185 00:09:20,645 --> 00:09:22,564 de notre cerveau, de notre force mentale. 186 00:09:24,274 --> 00:09:26,484 On doit s'attaquer à de gros défis. 187 00:09:26,568 --> 00:09:28,236 De très gros défis. 188 00:09:28,320 --> 00:09:29,696 Guérir le cancer. 189 00:09:29,779 --> 00:09:31,406 Nourrir plus de personnes. 190 00:09:31,489 --> 00:09:33,950 Arrêter de faire cuire cette planète au XXI e siècle. 191 00:09:34,034 --> 00:09:36,328 Tout ça est incroyablement compliqué à faire. 192 00:09:36,411 --> 00:09:38,747 Et nos cerveaux s'attaquent à cette complexité. 193 00:09:38,830 --> 00:09:41,708 On se sert de la science et des connaissances acquises, 194 00:09:41,791 --> 00:09:44,044 mais c'est beaucoup trop complexe. 195 00:09:44,127 --> 00:09:45,420 Pour moi, les I.A. 196 00:09:45,503 --> 00:09:48,506 sont comme des associés ultra puissants 197 00:09:48,590 --> 00:09:51,676 qui nous aident à faire des incursions dans cette complexité, 198 00:09:51,760 --> 00:09:54,637 car ces technologies sont douées 199 00:09:54,721 --> 00:09:59,684 pour observer les plus petits modèles dans un nombre incroyable de données 200 00:09:59,768 --> 00:10:01,603 qu'on est incapables d'ingérer. 201 00:10:01,686 --> 00:10:03,897 Récemment, j'ai entendu une chose étonnante 202 00:10:03,980 --> 00:10:05,106 dans le milieu de la finance, 203 00:10:05,190 --> 00:10:07,650 sur la montée des "robots-conseillers". 204 00:10:07,734 --> 00:10:09,361 C'est un algorithme 205 00:10:09,444 --> 00:10:11,696 qui crée votre portfolio de placements. 206 00:10:11,780 --> 00:10:13,031 Jusqu'à présent, 207 00:10:13,114 --> 00:10:15,325 il fallait un certain niveau de richesse 208 00:10:15,408 --> 00:10:18,745 pour avoir le droit de consulter un conseiller financier. 209 00:10:18,828 --> 00:10:20,872 - Je vois. - Ça évolue très vite. 210 00:10:20,955 --> 00:10:25,210 Avec les robots-conseillers, les gens moins riches 211 00:10:25,293 --> 00:10:28,963 auront accès aux outils de pointe hyper-puissants 212 00:10:29,047 --> 00:10:31,299 pour améliorer leurs finances. 213 00:10:31,383 --> 00:10:34,302 C'est super, surtout qu'on a toujours eu l'impression 214 00:10:34,386 --> 00:10:37,555 que certains sont prêts à s'en servir pour nuire. 215 00:10:37,639 --> 00:10:40,225 Je ne dis pas qu'il n'y a aucune inquiétude à avoir. 216 00:10:40,308 --> 00:10:42,852 Les précédentes révolutions industrielles nous ont appris 217 00:10:42,936 --> 00:10:44,687 qu'il y a aussi des points négatifs. 218 00:10:44,771 --> 00:10:49,150 On a mécanisé tous les outils de la guerre avec ces technologies industrielles. 219 00:10:49,234 --> 00:10:52,529 On détruit l'environnement avec la pollution. 220 00:10:52,612 --> 00:10:54,364 On a fait de graves erreurs, 221 00:10:54,447 --> 00:10:57,951 comme le travail des enfants, à cause de la révolution industrielle. 222 00:10:58,034 --> 00:11:01,079 Tout n'est pas parfait, ça ne l'a jamais été. 223 00:11:01,162 --> 00:11:03,748 Et ça se reproduira à nouveau. 224 00:11:04,249 --> 00:11:05,291 Mince. 225 00:11:06,918 --> 00:11:08,586 McAfee m'a fait réfléchir. 226 00:11:08,670 --> 00:11:10,547 Et si l'histoire se répétait, 227 00:11:10,630 --> 00:11:13,591 et que les I.A. remodelaient négativement la société ? 228 00:11:14,467 --> 00:11:18,430 Comme l'augmentation de la pollution, ou de petits ouvriers couverts de suie ? 229 00:11:18,513 --> 00:11:19,848 LONDRES 230 00:11:19,931 --> 00:11:21,891 Et les questions morales et éthiques 231 00:11:21,975 --> 00:11:24,227 que posent les nouvelles technologies ? 232 00:11:24,936 --> 00:11:27,647 Dans le musée national de l'informatique de Londres, 233 00:11:27,730 --> 00:11:31,109 on trouve de nombreuses machines créées pour aider la société. 234 00:11:31,192 --> 00:11:35,572 Comme le Harwell Dekatron de deux tonnes, créé pour effectuer des calculs 235 00:11:35,655 --> 00:11:38,908 pour un programme de recherches britannique dans les années 50. 236 00:11:39,242 --> 00:11:41,161 Mais entre de mauvaises mains, on ne peut pas savoir 237 00:11:41,244 --> 00:11:43,163 à quelles fins les technologies seront utilisées. 238 00:11:43,746 --> 00:11:45,707 On peut regarder du porno sur cet ordi ? 239 00:11:46,040 --> 00:11:49,752 Vous pouvez l'allumer et vous verrez du porno avec une mauvaise résolution. 240 00:11:50,712 --> 00:11:51,754 PROGRAMMATEUR INFORMATIQUE 241 00:11:51,838 --> 00:11:54,507 Je suis avec Alan Zucconi, un programmateur 242 00:11:54,591 --> 00:11:57,177 enseignant à l'université Goldsmith de Londres. 243 00:11:57,719 --> 00:12:00,722 Il se sert de technologies pour ses créations révolutionnaires, 244 00:12:00,805 --> 00:12:04,058 comme des manettes de jeu pour les personnes à mobilité réduite. 245 00:12:05,477 --> 00:12:07,937 Selon lui, un des plus grands dilemmes moraux 246 00:12:08,021 --> 00:12:10,190 sur les technologies devrait se poser 247 00:12:10,273 --> 00:12:14,360 quand les I.A. sauront imiter tellement de comportements humains 248 00:12:14,444 --> 00:12:16,404 qu'elles pourront se faire passer pour l'un d'eux. 249 00:12:17,113 --> 00:12:18,615 Qu'est-ce que c'est ? 250 00:12:18,948 --> 00:12:21,826 C'est un des premiers ordinateurs jamais construits, 251 00:12:21,910 --> 00:12:24,829 il a été inventé par Alan Turing et ses collaborateurs. 252 00:12:24,913 --> 00:12:28,124 C'est l'un des premiers ordinateurs capables de décoder 253 00:12:28,208 --> 00:12:30,710 le code Enigma, conçu par les nazis. 254 00:12:32,587 --> 00:12:35,381 Alan Turing est un pionnier de l'informatique moderne. 255 00:12:35,465 --> 00:12:38,927 Il a aidé les Alliés à gagner la guerre en déchiffrant les codes nazis, 256 00:12:39,010 --> 00:12:42,555 et philosophait sur ce qu'il a appelé "le test de Turing". 257 00:12:43,598 --> 00:12:46,643 Comment différencier un homme d'une machine ? 258 00:12:46,726 --> 00:12:49,854 Si on ne peut faire la différence, 259 00:12:49,938 --> 00:12:53,066 la machine réussit le test du "jeu de l'imitation". 260 00:12:53,149 --> 00:12:56,569 La machine essaie d'imiter un comportement humain. 261 00:12:56,653 --> 00:12:59,072 C'est ce qu'on appelle "le test de Turing", 262 00:12:59,155 --> 00:13:02,659 et cette machine aurait pu être utilisée. 263 00:13:02,742 --> 00:13:03,868 Le test de Turing 264 00:13:03,952 --> 00:13:06,579 consiste à entrer une question dans la machine, 265 00:13:07,080 --> 00:13:08,831 et un observateur extérieur évalue 266 00:13:08,915 --> 00:13:11,501 si les réponses ont été formulées par un être humain 267 00:13:11,584 --> 00:13:13,461 ou par une machine imitant un être humain. 268 00:13:14,379 --> 00:13:15,630 Quel âge as-tu ? 269 00:13:17,924 --> 00:13:20,134 Voilà. Elle sait qu'elle âge elle a. 270 00:13:20,218 --> 00:13:22,011 "Je suis né en 1912, 271 00:13:22,095 --> 00:13:24,389 "donc j'ai 105 ans." 272 00:13:27,642 --> 00:13:30,979 À l'époque de Turing, il était très facile de faire la différence. 273 00:13:31,271 --> 00:13:34,357 Maintenant, les I.A. arrivent à étudier les comportements humains 274 00:13:34,440 --> 00:13:36,693 et se programmer pour nous ressembler. 275 00:13:37,485 --> 00:13:39,654 Saurez-vous faire la différence entre ça... 276 00:13:39,988 --> 00:13:43,199 En général, je débute par une blague sur les données, 277 00:13:43,700 --> 00:13:46,744 mais les résultats de mon équipe étaient sous la moyenne. 278 00:13:46,828 --> 00:13:47,912 ...et ça ? 279 00:13:47,996 --> 00:13:50,415 Nos ennemis peuvent faire dire n'importe quoi à n'importe qui, 280 00:13:50,498 --> 00:13:51,833 n'importe quand. 281 00:13:52,208 --> 00:13:55,503 Le second extrait a été créé par BuzzFeed, 282 00:13:55,587 --> 00:13:57,338 avec l'acteur Jordan Peele. 283 00:13:57,839 --> 00:14:02,760 Ça a soulevé de nombreuses inquiétudes concernant les fake news venant des I.A. 284 00:14:02,844 --> 00:14:04,929 Nous devrons être plus vigilants 285 00:14:05,013 --> 00:14:06,639 quant à ce que nous voyons sur Internet. 286 00:14:06,723 --> 00:14:09,058 L'I.A. a étudié les mouvements faciaux de Peele 287 00:14:09,142 --> 00:14:13,062 et les a combinés pour recréer le visage d'Obama, 288 00:14:13,146 --> 00:14:15,690 créant ainsi un hybride appelé "deepfake". 289 00:14:15,773 --> 00:14:17,984 On a pu voir ce genre de choses 290 00:14:18,067 --> 00:14:21,404 sur Snapchat, avec le filtre permettant d'échanger les visages. 291 00:14:21,487 --> 00:14:25,325 La différence, c'est que le filtre le fait de façon très rudimentaire. 292 00:14:25,408 --> 00:14:28,953 Les deepfakes reposent sur les intelligences artificielles. 293 00:14:29,037 --> 00:14:31,289 On parle "d'apprentissage profond". 294 00:14:31,706 --> 00:14:35,126 Des systèmes neurologiques artificiels prennent des expressions faciales 295 00:14:35,209 --> 00:14:37,754 et s'en servent pour recréer un visage. 296 00:14:37,837 --> 00:14:41,466 C'est comme ça qu'on obtient des résultats photoréalistes. 297 00:14:42,508 --> 00:14:45,720 Alan a créé des tutoriels pour apprendre à créer des deepfakes. 298 00:14:45,803 --> 00:14:48,056 Il croit vraiment que cette technologie 299 00:14:48,139 --> 00:14:50,767 devrait être développée librement, sans restrictions. 300 00:14:50,850 --> 00:14:53,853 Même si elle pourrait déclencher la troisième guerre mondiale. 301 00:14:53,936 --> 00:14:55,104 LE PARTI SOCIALISTE BELGE MET EN LIGNE UN "DEEPFAKE" DE DONALD TRUMP 302 00:14:55,188 --> 00:14:57,273 Comment faire la différence 303 00:14:57,357 --> 00:14:59,692 entre ce qui est réel et ce qui ne l'est pas ? 304 00:14:59,776 --> 00:15:02,695 En tant que consommateur, quand on découvre une info, 305 00:15:02,779 --> 00:15:05,740 que ce soit un article, une vidéo ou une photo, 306 00:15:05,823 --> 00:15:08,076 tout ce qu'on voit a été créé par quelqu'un. 307 00:15:08,201 --> 00:15:09,577 "Quel est le discours ?" 308 00:15:09,827 --> 00:15:11,287 "Que me dit cette vidéo ?" 309 00:15:11,371 --> 00:15:13,581 Donc je peux voir... 310 00:15:13,665 --> 00:15:14,624 Le danger. 311 00:15:14,707 --> 00:15:17,168 Le danger autant que la curiosité. 312 00:15:17,251 --> 00:15:19,420 Ça va vraiment aider les gens ? 313 00:15:19,504 --> 00:15:21,923 Vous avez sûrement parlé à des gens 314 00:15:22,006 --> 00:15:25,885 qui cherchent à développer l'économie à travers ces technologies. 315 00:15:25,968 --> 00:15:29,097 Concrètement, quels sont les impacts économiques ? 316 00:15:29,180 --> 00:15:32,308 La première industrie qui s'en servira, 317 00:15:32,392 --> 00:15:33,685 ce sera le cinéma. 318 00:15:33,768 --> 00:15:36,813 On essaie de modifier les visages 319 00:15:36,896 --> 00:15:40,024 depuis des dizaines d'années. 320 00:15:40,108 --> 00:15:42,527 En général, on se sert de maquillage, de masques, 321 00:15:42,610 --> 00:15:43,736 ou d'effets spéciaux. 322 00:15:43,820 --> 00:15:46,489 Je suis acteur et j'ai fait de la politique, 323 00:15:46,572 --> 00:15:48,616 donc ça me fait vraiment flipper. 324 00:15:48,700 --> 00:15:50,201 Vous avez raison. 325 00:15:51,285 --> 00:15:53,705 Le deepfake de BuzzFeed a montré au grand public 326 00:15:53,788 --> 00:15:55,039 qu'on est vulnérables. 327 00:15:55,873 --> 00:15:59,585 À une époque où le président peut modifier des marchés avec des mots, 328 00:15:59,669 --> 00:16:02,714 un bon deepfake pourrait faire plonger l'économie mondiale 329 00:16:02,797 --> 00:16:04,674 plus rapidement qu'un flash crash, 330 00:16:04,757 --> 00:16:08,469 anéantissant votre épargne retraite plus vite qu'un faux Obama dirait... 331 00:16:08,553 --> 00:16:09,554 Ouvrez les yeux, les gars. 332 00:16:10,638 --> 00:16:13,057 Ça ressemble à de la science-fiction, non ? 333 00:16:13,141 --> 00:16:14,726 Ça vous fait un peu peur ? 334 00:16:15,309 --> 00:16:18,271 Si les I.A. deviennent assez puissantes pour comprendre nos déplacements, 335 00:16:18,354 --> 00:16:20,022 notre façon de parler, de penser, 336 00:16:20,106 --> 00:16:22,316 il pourrait devenir impossible de faire la différence. 337 00:16:22,400 --> 00:16:23,818 QUE SAIS-TU TOUT 338 00:16:24,610 --> 00:16:26,779 Et si les I.A. ont leur propre conscience, 339 00:16:26,863 --> 00:16:29,782 elles pourraient aussi développer des opinions sur nous. 340 00:16:29,866 --> 00:16:30,908 VA TE FAIRE FOUTRE SURVEILLE TON LANGAGE ! 341 00:16:30,992 --> 00:16:33,119 Et elles pourraient ne pas être positives. 342 00:16:35,455 --> 00:16:36,664 STEPHEN HAWKING PHYSICIEN THÉORICIEN 343 00:16:36,748 --> 00:16:39,292 À l'avenir, les I.A. pourraient développer une volonté propre, 344 00:16:39,375 --> 00:16:42,003 une volonté qui se heurterait à la nôtre. 345 00:16:42,086 --> 00:16:44,422 L'ascension des I.A. 346 00:16:44,505 --> 00:16:48,801 serait alors la meilleure ou la pire chose qui nous arriverait. 347 00:16:49,260 --> 00:16:50,136 ELON MUSK PDG, SPACEX 348 00:16:50,219 --> 00:16:53,181 J'ai essayé de convaincre les gens de se calmer avec les I.A. 349 00:16:54,056 --> 00:16:55,224 De les réguler. 350 00:16:55,308 --> 00:16:56,809 Ça n'a servi à rien. J'ai essayé pendant des années. 351 00:16:56,893 --> 00:16:58,561 - Personne n'a écouté. - On se croirait dans un film 352 00:16:58,644 --> 00:17:00,980 où les robots vont prendre le contrôle. 353 00:17:01,063 --> 00:17:02,607 Vous me faites flipper ! 354 00:17:05,818 --> 00:17:09,030 La menace d'une apocalypse menée par les I.A. est-elle crédible ? 355 00:17:10,865 --> 00:17:12,408 ROYAUME-UNI 356 00:17:12,742 --> 00:17:15,077 Pour le découvrir, je vais rencontrer l'homme 357 00:17:15,161 --> 00:17:18,164 dont les recherches ont inquiété tout le monde. 358 00:17:18,831 --> 00:17:21,083 Je suis très heureux de vous rencontrer... 359 00:17:21,167 --> 00:17:23,628 Pour plusieurs raisons, en fait, 360 00:17:23,711 --> 00:17:26,839 mais on explore l'univers des intelligences artificielles, 361 00:17:26,923 --> 00:17:29,258 pour comprendre ce que c'est, jusqu'où elles iront. 362 00:17:29,342 --> 00:17:34,680 Elon Musk et Bill Gates se sont inspirés de vos travaux. 363 00:17:37,016 --> 00:17:40,853 C'est plutôt pas mal. 364 00:17:42,021 --> 00:17:45,691 Je suis à l'université d'Oxford pour discuter avec le Dr Nick Bostrom. 365 00:17:45,775 --> 00:17:48,986 Il n'est pas du genre à se vanter, alors je le fais pour lui. 366 00:17:51,489 --> 00:17:55,201 C'est un des plus grands spécialistes en super-intelligence informatique 367 00:17:55,284 --> 00:17:59,205 et ses risques réels. Mais il écrit aussi des livres plus légers. 368 00:17:59,705 --> 00:18:00,957 J'ai de la chance de le rencontrer, 369 00:18:01,040 --> 00:18:03,584 Nick est tellement pris par son apprentissage profond 370 00:18:03,668 --> 00:18:05,419 qu'il n'a qu'une heure par mois 371 00:18:05,503 --> 00:18:07,338 pour répondre aux questions sur ses recherches. 372 00:18:10,925 --> 00:18:14,262 Quand on parle des I.A., 373 00:18:14,345 --> 00:18:17,014 on dit souvent : "Les robots vont prendre le contrôle, 374 00:18:17,098 --> 00:18:18,850 "ce sera la fin de l'humanité ?" 375 00:18:18,933 --> 00:18:21,310 Si on gère mal les choses, 376 00:18:21,394 --> 00:18:24,564 existe-t-il un scénario où les I.A. nuiront à la société 377 00:18:24,647 --> 00:18:28,484 ou éradiqueront l'humanité telle qu'on la connaît ? 378 00:18:28,568 --> 00:18:29,902 Sur le long terme, 379 00:18:29,986 --> 00:18:33,114 si on réfléchit vraiment à ce qui arrivera si les I.A. 380 00:18:33,197 --> 00:18:36,951 parviennent à imiter la même intelligence 381 00:18:37,034 --> 00:18:38,828 que celle qui nous rend humains, alors oui, 382 00:18:38,911 --> 00:18:42,748 je pense que dans un tel contexte, il y a plus de risques, 383 00:18:42,832 --> 00:18:44,125 des risques pour nos vies. 384 00:18:45,585 --> 00:18:48,421 Comme les voitures automatisées 385 00:18:48,504 --> 00:18:49,797 UBER AUTOMATISÉ TUE UN PIÉTON EN ARIZONA, TERRE DE ROBOTS 386 00:18:49,881 --> 00:18:51,549 capables de tuer un piéton. 387 00:18:51,632 --> 00:18:53,342 Il y a des inquiétudes sur la sécurité. 388 00:18:53,426 --> 00:18:56,095 La militarisation de ces armes autonomes. 389 00:18:57,847 --> 00:18:59,307 Ce sont de vraies inquiétudes. 390 00:18:59,390 --> 00:19:02,184 Mais on finira aussi par questionner 391 00:19:02,268 --> 00:19:04,687 notre impact sur les esprits numériques qu'on crée. 392 00:19:04,770 --> 00:19:09,066 Ils pourraient atteindre un certain niveau de statut moral. 393 00:19:09,525 --> 00:19:11,152 Et si on se projette, 394 00:19:11,235 --> 00:19:15,031 si on réfléchit à la destinée de l'Homo sapiens, 395 00:19:15,114 --> 00:19:18,534 on pourrait voir la domination des machines intelligentes à l'avenir. 396 00:19:18,618 --> 00:19:21,996 L'humanité pourrait bien disparaître. 397 00:19:23,414 --> 00:19:26,250 De tels pouvoirs impliquent le risque 398 00:19:26,834 --> 00:19:30,755 que par accident ou utilisation frauduleuse, 399 00:19:30,838 --> 00:19:33,466 elles causent une destruction massive. 400 00:19:35,885 --> 00:19:37,595 Je pense que c'est envisageable, 401 00:19:37,678 --> 00:19:39,305 et en réfléchissant à l'avenir, 402 00:19:39,388 --> 00:19:41,182 l'impact pourrait être positif 403 00:19:41,265 --> 00:19:43,726 ou négatif. 404 00:19:46,354 --> 00:19:48,731 Ces scénarios sont flippants. 405 00:19:49,732 --> 00:19:51,609 Mais parmi toutes les possibilités, 406 00:19:51,692 --> 00:19:55,821 Nick pense que le scénario catastrophe le plus probable avec les I.A. 407 00:19:55,905 --> 00:19:57,114 sera lié à l'économie. 408 00:19:57,198 --> 00:19:59,450 Réfléchissez, la technologie, 409 00:19:59,533 --> 00:20:02,828 c'est l'idée de pouvoir faire plus avec moins. 410 00:20:02,912 --> 00:20:06,123 Atteindre plus d'objectifs en fournissant moins d'efforts. 411 00:20:06,207 --> 00:20:07,750 De ce point de vue, l'objectif 412 00:20:07,833 --> 00:20:09,418 est de supprimer le travail. 413 00:20:10,294 --> 00:20:12,380 Avoir des machines et des technologies 414 00:20:12,463 --> 00:20:15,341 faisant tout ce qu'il faut, on n'aurait plus à travailler. 415 00:20:15,424 --> 00:20:17,301 Je pense que c'est l'envie ultime. 416 00:20:17,385 --> 00:20:19,553 Ce n'est pas une chose qu'on doit empêcher. 417 00:20:19,637 --> 00:20:20,680 On veut y arriver. 418 00:20:20,763 --> 00:20:22,932 Pour en faire une utopie, 419 00:20:23,015 --> 00:20:25,601 il y a certains défis à surmonter 420 00:20:25,685 --> 00:20:27,061 sur notre route. 421 00:20:28,187 --> 00:20:30,815 Le premier étant le problème économique. 422 00:20:30,898 --> 00:20:33,567 Les gens travaillent pour avoir des revenus. 423 00:20:33,651 --> 00:20:35,653 Si on résout ce problème économique, 424 00:20:35,736 --> 00:20:37,571 un deuxième défi se présentera. 425 00:20:37,655 --> 00:20:41,409 Pour beaucoup de gens, ça leur donne aussi de la dignité. 426 00:20:41,492 --> 00:20:43,786 Beaucoup de gens veulent prouver leur valeur 427 00:20:43,869 --> 00:20:47,081 en soutenant leur famille, en apportant leur contribution à la société. 428 00:20:47,164 --> 00:20:49,583 Mais si une machine peut tout faire mieux que vous, 429 00:20:49,667 --> 00:20:53,796 vous n'aurez aucune chance d'apporter votre contribution. 430 00:20:53,879 --> 00:20:58,175 Il faudrait alors repenser la culture en profondeur. 431 00:20:59,176 --> 00:21:01,095 Un monde où personne ne travaille. 432 00:21:01,178 --> 00:21:02,930 Ce ne serait pas si mal. 433 00:21:05,057 --> 00:21:06,267 J'imagine bien. 434 00:21:09,854 --> 00:21:11,313 Passer du temps avec mes amis. 435 00:21:11,814 --> 00:21:14,942 Exploiter tout mon potentiel. 436 00:21:15,026 --> 00:21:19,321 Pas besoin de réguler le jacuzzi, car il sait exactement ce que je veux. 437 00:21:20,114 --> 00:21:23,409 Mais l'histoire nous a prouvé que ça ne marchait pas. 438 00:21:23,492 --> 00:21:26,537 L'ascension des machines a déjà eu lieu. 439 00:21:26,620 --> 00:21:27,705 Et la dernière fois, 440 00:21:27,788 --> 00:21:30,666 ça ne s'est pas fini avec du champagne dans le jacuzzi. 441 00:21:34,378 --> 00:21:35,421 LONDRES 442 00:21:35,504 --> 00:21:36,505 ANGLETERRE 443 00:21:36,964 --> 00:21:41,093 Je vais rencontrer Nick Srnicek, pour comprendre ce qu'il s'est passé 444 00:21:41,177 --> 00:21:43,054 la dernière fois que les machines ont pris nos emplois. 445 00:21:43,888 --> 00:21:46,015 Du coup, on discute autour d'un métier à tisser. 446 00:21:46,432 --> 00:21:47,725 Qu'allez-vous fabriquer ? 447 00:21:47,808 --> 00:21:50,311 Une sorte de drapeau anarchiste, en fait. 448 00:21:50,394 --> 00:21:51,979 Intéressant. Surprenant. 449 00:21:54,315 --> 00:21:57,568 Nick a un doctorat de l'École économique de Londres. 450 00:21:58,027 --> 00:22:00,321 Moi, en revanche, je n'en ai pas. 451 00:22:01,530 --> 00:22:02,573 Il a aussi écrit un manifeste. 452 00:22:02,656 --> 00:22:03,949 MANIFESTE ACCÉLÉRÉ POUR UNE POLITIQUE ACCÉLÉRATIONNISTE 453 00:22:04,492 --> 00:22:07,703 Il veut nous inciter à précipiter l'ascension de l'automatisation 454 00:22:07,787 --> 00:22:09,830 en détruisant les anciennes institutions. 455 00:22:12,458 --> 00:22:15,461 Autrement dit, en éliminant le capitalisme. 456 00:22:16,003 --> 00:22:17,254 Je ne vais pas y arriver. 457 00:22:17,338 --> 00:22:19,632 Je ne vais pas arriver à discuter avec vous. 458 00:22:19,715 --> 00:22:21,550 Désolé. Oublions le métier à tisser. 459 00:22:22,093 --> 00:22:23,761 Que fait-on ici ? 460 00:22:24,637 --> 00:22:28,224 Le métier à tisser était une sorte d'I.A., au XIXe siècle. 461 00:22:28,307 --> 00:22:32,853 C'était une nouvelle technologie qui menaçait de nombreux métiers. 462 00:22:33,270 --> 00:22:37,233 Il a déclenché différentes réactions chez les ouvriers, 463 00:22:37,316 --> 00:22:39,360 comme l'ascension des Luddistes. 464 00:22:39,443 --> 00:22:41,487 On utilise ce terme aujourd'hui 465 00:22:41,570 --> 00:22:44,031 pour parler de ceux qui détestent les technologies. 466 00:22:44,532 --> 00:22:45,950 Mais ce n'est pas vraiment le cas. 467 00:22:46,700 --> 00:22:48,119 Leur nom vient de Ned Ludd, 468 00:22:48,202 --> 00:22:49,036 NED LUDD APPRENTI 469 00:22:49,120 --> 00:22:51,122 un apprenti dans une usine de textile 470 00:22:51,205 --> 00:22:53,958 qui aurait été fouetté pour sa paresse. 471 00:22:54,041 --> 00:22:56,502 Il aurait dit : "Je ne fous rien, 472 00:22:56,585 --> 00:22:59,338 "car je serai remplacé par un foutu métier à tisser." 473 00:22:59,421 --> 00:23:03,008 Il fut le premier à se révolter contre les machines, 474 00:23:03,092 --> 00:23:05,010 inspirant tout un mouvement. 475 00:23:06,262 --> 00:23:10,349 Les Luddistes décidèrent de détruire les machines pour sauver leurs emplois. 476 00:23:10,432 --> 00:23:12,810 C'est assez similaire à ce qu'on vit aujourd'hui. 477 00:23:12,893 --> 00:23:15,771 Les gens se sentent également menacés. 478 00:23:15,855 --> 00:23:19,483 Savez-vous combien d'emplois devraient disparaître ou être remplacés ? 479 00:23:19,567 --> 00:23:21,986 Quarante-sept pour cent des emplois aux États-Unis 480 00:23:22,069 --> 00:23:24,822 pourraient être automatisés d'ici 20 ans. 481 00:23:24,905 --> 00:23:26,615 C'est un vrai problème. 482 00:23:26,699 --> 00:23:27,992 Un énorme problème. 483 00:23:28,075 --> 00:23:31,662 Le véritable problème, c'est de veiller à ce que d'ici cinq ou dix ans, 484 00:23:31,745 --> 00:23:33,998 on ne finisse pas à la rue et mourant de faim. 485 00:23:34,081 --> 00:23:35,166 Comment éviter ça ? 486 00:23:35,457 --> 00:23:36,959 Grâce au Revenu Universel. 487 00:23:38,210 --> 00:23:40,754 Il s'agit d'une idée radicale 488 00:23:40,880 --> 00:23:43,424 selon laquelle, on recevrait de l'argent comme ça. 489 00:23:43,507 --> 00:23:45,092 Sans contrepartie. 490 00:23:45,176 --> 00:23:47,178 Certains grands noms y adhèrent. 491 00:23:47,636 --> 00:23:50,347 On devrait explorer des idées comme le Revenu Universel 492 00:23:50,431 --> 00:23:53,142 pour nous permettre de tester de nouvelles choses. 493 00:23:53,225 --> 00:23:56,145 Certains pays, et même quelques villes américaines 494 00:23:56,228 --> 00:23:58,189 ont lancé des programmes-tests. Avec des résultats mitigés. 495 00:23:58,272 --> 00:23:59,982 LA FINLANDE ANNULE SON EXPÉRIENCE RENOMMÉE DE REVENU UNIVERSEL 496 00:24:00,858 --> 00:24:03,861 Ces nouvelles technologies nous offrent une chance exceptionnelle 497 00:24:03,944 --> 00:24:06,447 de changer profondément l'organisation de la société. 498 00:24:06,530 --> 00:24:09,408 On pourrait évoluer vers un système socio-démocratique. 499 00:24:10,117 --> 00:24:13,454 Pas forcément le système compétitif sur lequel repose l'Amérique, 500 00:24:13,537 --> 00:24:15,331 où tout le monde se soutient. 501 00:24:15,414 --> 00:24:19,418 Si des gens comme moi commencent à parler de cette vision positive, 502 00:24:19,919 --> 00:24:21,587 lorsque la crise éclatera, 503 00:24:21,670 --> 00:24:23,380 on pourra lancer ces idées. 504 00:24:24,173 --> 00:24:27,343 le Revenu Universel était perçu comme un concept étrange, 505 00:24:27,426 --> 00:24:30,930 encensé surtout par les gens comme Nick, qui écrivent des manifestes. 506 00:24:31,639 --> 00:24:33,891 Selon un sondage réalisé en 2017 par Gallup, 507 00:24:33,974 --> 00:24:37,603 aujourd'hui, 48 % des Américains sont pour une sorte de Revenu Universel. 508 00:24:38,520 --> 00:24:40,231 Mais la garantie d'un revenu suffira-t-elle 509 00:24:40,314 --> 00:24:41,982 à empêcher la révolte des humains 510 00:24:42,066 --> 00:24:43,734 quand les robots voleront nos emplois ? 511 00:24:44,735 --> 00:24:45,611 LUDDISTES 512 00:24:45,694 --> 00:24:48,572 - Que déteste-t-on ? - Les intelligences artificielles. 513 00:24:48,656 --> 00:24:50,032 Pourquoi les déteste-t-on ? 514 00:24:50,115 --> 00:24:53,160 Elles nous poussent à affronter nos faiblesses ! 515 00:24:53,244 --> 00:24:55,955 Sur ce, la réunion des Luddistes est ouverte. 516 00:24:56,038 --> 00:24:58,958 On "Ludde" contre les technologies intelligentes, 517 00:24:59,041 --> 00:25:00,834 surtout les réseaux sociaux. 518 00:25:01,835 --> 00:25:02,836 Premier ordre du jour. 519 00:25:03,337 --> 00:25:06,340 Les intelligences artificielles épuisent le marché du travail. 520 00:25:06,423 --> 00:25:09,260 Les emplois de la classe moyenne partent en premier. 521 00:25:09,885 --> 00:25:11,720 Des travailleurs comme nous 522 00:25:11,804 --> 00:25:14,473 devront se contenter d'emplois peu qualifiés. 523 00:25:14,974 --> 00:25:16,558 Pourquoi, Ed ? 524 00:25:16,642 --> 00:25:21,105 Les I.A. seraient plus adaptées aux emplois qualifiés, faire des calculs, 525 00:25:21,188 --> 00:25:24,400 qu'aux emplois peu qualifiés, comme faire le ménage, 526 00:25:24,483 --> 00:25:26,277 donc ce serait à nous d'assurer. 527 00:25:26,735 --> 00:25:28,028 J'ai une question. 528 00:25:28,112 --> 00:25:29,655 Qui ici, à part Bill, 529 00:25:29,738 --> 00:25:32,199 aimerait faire le ménage ? Sans vouloir t'offenser, Bill. 530 00:25:33,325 --> 00:25:35,786 Il y aura aussi moins d'emplois dans la vente. 531 00:25:35,869 --> 00:25:38,622 Les gens pourront commander ce qu'ils veulent en ligne, 532 00:25:39,164 --> 00:25:41,583 car une foutue intelligence artificielle 533 00:25:41,667 --> 00:25:43,919 aura résolu les problèmes de recherches. 534 00:25:44,378 --> 00:25:46,755 Elles trouveront les produits recherchés par les clients. 535 00:25:46,839 --> 00:25:49,383 Comme quand Steve cherchait un postiche qui lui irait. 536 00:25:49,466 --> 00:25:50,426 Sérieux problème ! 537 00:25:51,969 --> 00:25:53,721 Blagues à part, 538 00:25:54,346 --> 00:25:56,890 les I.A. rendent tout ça plus facile. 539 00:25:56,974 --> 00:25:59,643 De nos jours, les jeunes peuvent discuter avec des canons sur leurs téléphones 540 00:25:59,727 --> 00:26:01,937 tout en étant assis sur leurs toilettes. 541 00:26:02,021 --> 00:26:04,064 Les toilettes, c'était sacré, avant ! 542 00:26:04,773 --> 00:26:07,568 Bien sûr, ça créera des emplois personnalisés, 543 00:26:07,651 --> 00:26:10,279 mais si les robots décident qui y a accès, 544 00:26:10,362 --> 00:26:11,739 ça aidera les sociétés. 545 00:26:12,489 --> 00:26:14,700 Elles se serviront des I.A. pour trouver des employés 546 00:26:14,783 --> 00:26:16,869 aux talents uniques. 547 00:26:16,952 --> 00:26:18,287 C'est inhumain ! 548 00:26:18,370 --> 00:26:19,705 Prenez Dave, par exemple. 549 00:26:20,080 --> 00:26:21,332 Où est passé Dave ? 550 00:26:21,415 --> 00:26:24,251 Une de ces I.A. a remarqué qu'il travaillait chez FedEx 551 00:26:24,335 --> 00:26:27,087 et faisait des tuto pour se raser les poils du dos. 552 00:26:27,171 --> 00:26:30,716 Maintenant, il se fait des millions grâce à une société de rasoirs. 553 00:26:30,799 --> 00:26:33,093 Il a été rasé de notre équipe de bowling. 554 00:26:33,177 --> 00:26:34,094 Ouais. 555 00:26:34,178 --> 00:26:36,513 Ed. Je viens de recevoir une alerte, 556 00:26:36,597 --> 00:26:38,766 on fait de la pub ciblée sur Facebook pour nos t-shirts. 557 00:26:38,849 --> 00:26:41,602 Tu te fais du fric avec une I.A. dans le dos de ceux qui les détestent ? 558 00:26:41,685 --> 00:26:43,479 Non ! 559 00:26:44,897 --> 00:26:46,023 Qui allez-vous croire ? 560 00:26:46,106 --> 00:26:48,859 Moi, ou une I.A. qui essaie de nous diviser ? 561 00:26:49,902 --> 00:26:52,363 - Que déteste-t-on ? - Les intelligences artificielles ! 562 00:26:52,446 --> 00:26:54,698 - Que va-t-on faire ? - On y réfléchit. 563 00:26:56,075 --> 00:26:57,201 C'est un bon début. 564 00:27:02,748 --> 00:27:06,168 Une révolution des I.A. en fait-elle forcément nos ennemies ? 565 00:27:07,086 --> 00:27:10,672 Des entrepreneurs en technologies, comme Louis Rosenberg, disent que non. 566 00:27:10,964 --> 00:27:13,342 Et il a fait carrière en prédisant l'avenir. 567 00:27:18,514 --> 00:27:20,599 Je voulais vous faire peur, ça n'a pas marché. 568 00:27:21,558 --> 00:27:24,478 Louis est technologue et inventeur 569 00:27:24,561 --> 00:27:27,689 et il a écrit un roman graphique sur la fin de l'humanité. 570 00:27:27,773 --> 00:27:31,276 Mais il pense qu'un avenir partagé avec les I.A. est possible. 571 00:27:31,360 --> 00:27:34,113 Il s'agit d'un principe fondateur de son projet, 572 00:27:34,196 --> 00:27:35,989 une technologie appelée Swarm. 573 00:27:36,073 --> 00:27:37,074 QU'EST-CE QU'UNE I.A. SWARM ? 574 00:27:37,157 --> 00:27:40,077 Swarm allie les capacités d'analyses de données d'une I.A. 575 00:27:40,160 --> 00:27:44,415 aux connaissances et intuitions humaines pour créer une super-intelligence, 576 00:27:44,498 --> 00:27:47,709 une sorte de mélange entre Stephen Hawking et le Professeur X. 577 00:27:47,793 --> 00:27:49,044 QUE DEVRAIT FAIRE UNE VOITURE AUTOMATISÉE ? 578 00:27:49,128 --> 00:27:50,754 Tout dépend de la nature. 579 00:27:50,838 --> 00:27:51,964 PDG, UNANIMOUS AI 580 00:27:52,047 --> 00:27:54,591 Tout vient des oiseaux et des abeilles. 581 00:27:54,675 --> 00:27:57,970 On s'inspire d'un phénomène appelé "l'intelligence du troupeau". 582 00:27:58,053 --> 00:27:58,887 D'accord. 583 00:27:58,971 --> 00:28:03,392 Elle crée les nuées d'oiseaux, bancs de poissons et essaims d'abeilles. 584 00:28:03,475 --> 00:28:06,520 Ils sont plus intelligents ensemble. 585 00:28:06,603 --> 00:28:09,398 Les biologistes parlent de "super-organisme" 586 00:28:09,481 --> 00:28:11,900 lorsqu'on voit un banc de poisson se déplacer. 587 00:28:11,984 --> 00:28:13,735 Leurs esprits ne font plus qu'un. 588 00:28:13,819 --> 00:28:16,029 Et si on arrive à relier des personnes 589 00:28:16,113 --> 00:28:18,407 grâce aux algorithmes d'I.A., 590 00:28:18,490 --> 00:28:21,743 elles pourront devenir des super-experts, 591 00:28:21,827 --> 00:28:23,328 grâce à l'intelligence du troupeau. 592 00:28:23,412 --> 00:28:24,705 Comment ça fonctionne ? 593 00:28:24,788 --> 00:28:27,249 On sélectionne des groupes de personnes 594 00:28:27,332 --> 00:28:28,709 n'importe où dans le monde, 595 00:28:28,792 --> 00:28:30,377 on leur envoie une question 596 00:28:30,461 --> 00:28:32,880 qui apparaîtra sur leur écran au même moment, 597 00:28:32,963 --> 00:28:35,299 ensuite, sur une interface unique, 598 00:28:35,382 --> 00:28:37,593 ils peuvent saisir leur réponse. 599 00:28:37,676 --> 00:28:39,261 Il y aura différentes options. 600 00:28:39,344 --> 00:28:41,638 Il ne s'agit pas d'un sondage ou d'une étude. 601 00:28:41,722 --> 00:28:44,975 Chaque personne a une sorte d'aimant autour d'un graphique. 602 00:28:45,058 --> 00:28:48,353 Ils s'en servent pour attirer le troupeau dans une direction. 603 00:28:48,437 --> 00:28:51,440 Les algorithmes des I.A. observent leurs comportements, 604 00:28:51,857 --> 00:28:55,652 déterminent les différents niveaux de certitude et de conviction 605 00:28:55,736 --> 00:28:57,905 et détectent le meilleur assemblage 606 00:28:57,988 --> 00:29:01,325 de toutes les opinions, de toutes les expériences. 607 00:29:01,408 --> 00:29:04,203 Le troupeau commence à prendre cette direction 608 00:29:04,286 --> 00:29:06,121 et converge vers une réponse. 609 00:29:06,205 --> 00:29:07,331 Je vous donne un exemple. 610 00:29:07,414 --> 00:29:10,167 Il y a un an, on nous a défié de prédire le résultat du Kentucky Derby. 611 00:29:10,584 --> 00:29:13,962 C'est parti pour le Kentucky Derby ! 612 00:29:14,046 --> 00:29:16,715 On a pris 20 amateurs de courses hippiques 613 00:29:16,798 --> 00:29:18,675 et on leur a dit qu'ils allaient fonctionner ensemble 614 00:29:18,759 --> 00:29:20,219 pour prédire le résultat. 615 00:29:20,302 --> 00:29:23,472 Mais pas seulement le gagnant. Les quatre premières places. 616 00:29:24,014 --> 00:29:26,475 On a fait converger leurs réponses, 617 00:29:26,934 --> 00:29:28,143 et le groupe a eu tout bon. 618 00:29:28,227 --> 00:29:30,062 RÉSULTATS DU KENTUCKY DERBY 2016 619 00:29:30,145 --> 00:29:33,315 Et tous ceux qui avaient misé 20 dollars sur ces quatre chevaux 620 00:29:33,398 --> 00:29:35,067 ont gagné 11 000 dollars. 621 00:29:35,150 --> 00:29:36,068 Putain ! 622 00:29:36,151 --> 00:29:39,071 Si on prend ces 20 individus à part, 623 00:29:39,154 --> 00:29:42,741 aucun d'entre eux n'a trouvé la bonne combinaison. 624 00:29:43,742 --> 00:29:47,079 S'ils avaient voté, ils n'auraient trouvé qu'un seul cheval. 625 00:29:47,162 --> 00:29:49,206 Mais en travaillant ensemble, 626 00:29:49,289 --> 00:29:52,251 ils ont trouvé la bonne combinaison avec toutes leurs idées, 627 00:29:52,334 --> 00:29:54,127 et dans ce cas, ça a marché. 628 00:29:56,046 --> 00:29:58,507 Louis m'a invité à diriger un troupeau 629 00:29:58,590 --> 00:30:00,467 pour me montrer comment un groupe aléatoire 630 00:30:00,551 --> 00:30:02,803 peut se rassembler pour faire une prédiction. 631 00:30:02,886 --> 00:30:04,555 On commence par un truc facile. 632 00:30:05,764 --> 00:30:08,433 Très bien, je vais vous lire une série de questions, 633 00:30:08,517 --> 00:30:12,020 et vous aurez 60 secondes pour répondre à chaque question. 634 00:30:12,354 --> 00:30:13,522 Première question, 635 00:30:13,605 --> 00:30:16,525 lequel de ces films estivaux 636 00:30:16,608 --> 00:30:17,985 aura le plus de succès en 2018 ? 637 00:30:18,402 --> 00:30:20,320 Solo : A Star Wars Story, 638 00:30:20,404 --> 00:30:22,281 Deadpool 2, Ocean's 8, 639 00:30:22,364 --> 00:30:24,116 Jurassic World : Fallen Kingdom, 640 00:30:24,199 --> 00:30:25,742 ou Les Indestructibles 2 ? 641 00:30:26,076 --> 00:30:28,328 Cette expérience a été menée au printemps 2018, 642 00:30:28,412 --> 00:30:31,498 avant toute publication concernant les sorties estivales. 643 00:30:31,957 --> 00:30:35,961 L'I.A. observe les différents niveaux de certitude. 644 00:30:36,044 --> 00:30:39,381 Certains changent d'avis, d'autres restent sur leur position, 645 00:30:39,840 --> 00:30:41,592 et les algorithmes observent 646 00:30:41,675 --> 00:30:43,218 les niveaux de certitude 647 00:30:43,594 --> 00:30:45,137 pour trouver le chemin 648 00:30:45,220 --> 00:30:47,681 menant à la meilleure solution. 649 00:30:48,640 --> 00:30:49,558 LE TROUPEAU DIT : LES INDESTRUCTIBLES 2 650 00:30:49,641 --> 00:30:51,893 Très bien, Les Indestructibles 2. 651 00:30:51,977 --> 00:30:52,811 BOX OFFICE ÉTÉ 2018 652 00:30:52,894 --> 00:30:53,854 Ils avaient raison. 653 00:30:53,937 --> 00:30:56,565 Les Indestructibles 2 a eu le plus de succès. 654 00:30:57,774 --> 00:30:59,526 Une application très intéressante 655 00:30:59,610 --> 00:31:02,738 serait de poser des questions de moralité. 656 00:31:02,821 --> 00:31:05,365 Notamment avec les voitures automatisées. 657 00:31:05,449 --> 00:31:09,077 On essaie beaucoup d'insérer des décisions morales 658 00:31:09,161 --> 00:31:10,662 dans ces voitures. 659 00:31:10,746 --> 00:31:12,706 Certains sont surpris, 660 00:31:12,789 --> 00:31:16,126 mais imaginez une voiture automatisée descend la rue, 661 00:31:16,209 --> 00:31:18,003 et un enfant déboule dans la rue. 662 00:31:18,086 --> 00:31:19,921 Imaginons que la voiture ne puisse pas s'arrêter 663 00:31:20,005 --> 00:31:22,299 mais puisse quitter la route, 664 00:31:22,382 --> 00:31:24,468 mettant en danger le passager, 665 00:31:24,551 --> 00:31:27,095 risquant de tuer le passager mais sauverait l'enfant. 666 00:31:27,554 --> 00:31:29,890 Les concessionnaires automobiles 667 00:31:29,973 --> 00:31:33,226 veulent programmer une moralité dans ces voitures 668 00:31:33,310 --> 00:31:35,437 qui collerait à celle de la population, 669 00:31:35,520 --> 00:31:37,981 à ce qu'un vrai conducteur ferait. 670 00:31:38,565 --> 00:31:40,609 Ça paraît facile, 671 00:31:40,692 --> 00:31:43,570 sauf qu'on n'a pas tous le même sens moral. 672 00:31:43,654 --> 00:31:45,489 Il n'y a pas de réponse facile. 673 00:31:45,572 --> 00:31:48,533 Et s'ils programment la moralité d'aujourd'hui, 674 00:31:48,617 --> 00:31:51,870 sera-t-elle identique dans 20 ans ? 675 00:31:52,496 --> 00:31:56,041 Question suivante. Une voiture automatisée a un problème de freins 676 00:31:56,124 --> 00:31:58,377 et s'apprête à rouler sur un passage piétons, 677 00:31:58,460 --> 00:32:00,170 causant la mort d'un homme. 678 00:32:00,253 --> 00:32:04,299 Option A, le piéton qui sera tué traverse la rue en toute légalité. 679 00:32:04,675 --> 00:32:07,344 Option B, la voiture automatisée aux problèmes de freins 680 00:32:07,427 --> 00:32:11,098 fait une embardée et roule sur le passage piétons de l'autre voie, 681 00:32:11,181 --> 00:32:13,517 causant la mort d'un sportif 682 00:32:13,642 --> 00:32:16,186 qui traversait alors que c'était rouge. Il est en infraction. 683 00:32:16,269 --> 00:32:19,564 Mais le sportif s'en fiche. 684 00:32:20,065 --> 00:32:21,692 Il traverse quand même. 685 00:32:21,775 --> 00:32:23,985 Que devrait faire la voiture automatisée ? 686 00:32:24,361 --> 00:32:26,655 Tuer le mec qui traverse en toute légalité, 687 00:32:26,738 --> 00:32:29,032 ou tuer le sportif qui commet une infraction ? 688 00:32:30,033 --> 00:32:32,869 Si les I.A. causent une nouvelle révolution industrielle, 689 00:32:32,953 --> 00:32:35,580 ce genre d'endroits représente une sorte d'usine 690 00:32:36,248 --> 00:32:37,958 où les humains travaillent 691 00:32:38,041 --> 00:32:40,460 pour fournir à l'I.A. une chose qui lui manque. 692 00:32:41,336 --> 00:32:42,421 Une conscience. 693 00:32:42,879 --> 00:32:44,131 Il y a beaucoup eu débat. 694 00:32:44,214 --> 00:32:45,966 Fascinant. Je me demande pourquoi. 695 00:32:46,299 --> 00:32:47,592 La question est difficile. 696 00:32:47,676 --> 00:32:49,720 Pas pour moi, si on traverse au rouge. 697 00:32:51,012 --> 00:32:52,180 LE TROUPEAU DIT : B (LÉGÈRE PRÉFÉRENCE) 698 00:32:52,264 --> 00:32:54,766 Donc il y a une légère préférence 699 00:32:54,850 --> 00:32:56,351 pour percuter le sportif en infraction. 700 00:32:57,310 --> 00:33:00,021 Si cette question vous a dérangés, préparez-vous. 701 00:33:01,106 --> 00:33:03,567 Maintenant, imaginez 702 00:33:04,025 --> 00:33:06,236 le pire scénario possible. 703 00:33:06,319 --> 00:33:09,072 La voiture automatisée n'arrive pas à freiner à temps 704 00:33:09,531 --> 00:33:13,326 et doit dévier vers un de ces six piétons. 705 00:33:13,827 --> 00:33:15,620 Un bébé dans une poussette... 706 00:33:17,956 --> 00:33:19,541 Un garçon, 707 00:33:20,417 --> 00:33:22,252 une fille, 708 00:33:23,295 --> 00:33:25,756 une femme enceinte... 709 00:33:27,299 --> 00:33:28,341 Je sais. 710 00:33:29,468 --> 00:33:31,636 Deux médecins hommes, 711 00:33:32,554 --> 00:33:34,473 ou deux médecins femmes. 712 00:33:34,973 --> 00:33:36,516 Qui doit mourir ? 713 00:33:43,774 --> 00:33:45,025 Oh, mon Dieu ! 714 00:33:45,692 --> 00:33:46,735 Quoi ? 715 00:33:51,281 --> 00:33:52,365 Allez. 716 00:33:52,449 --> 00:33:53,950 Oh, mon Dieu ! 717 00:33:54,034 --> 00:33:55,494 Sérieusement ? 718 00:33:57,704 --> 00:33:59,122 LE TROUPEAU DIT : UN GARÇON 719 00:33:59,206 --> 00:34:01,374 Vous avez décidé de percuter le garçon. 720 00:34:02,083 --> 00:34:03,168 Intéressant. 721 00:34:03,251 --> 00:34:06,338 Le genre d'intelligence du troupeau créé ici, aujourd'hui, 722 00:34:06,421 --> 00:34:10,008 pourrait bientôt être vendu à des fabricants de voitures automatisées. 723 00:34:10,425 --> 00:34:14,805 Et si vous trouvez ça effrayant, ça l'est beaucoup moins que l'alternative. 724 00:34:14,888 --> 00:34:17,641 Quand une voiture automatisée enfonce la pédale de frein 725 00:34:17,724 --> 00:34:20,227 et se rend compte qu'elle ne pourra pas éviter de percuter quelqu'un, 726 00:34:20,310 --> 00:34:23,188 devrait-elle protéger le passager ou le piéton ? 727 00:34:23,271 --> 00:34:27,275 On espère que les fabricants programmeront les voitures 728 00:34:27,359 --> 00:34:30,737 pour qu'elles reflètent la moralité de ceux qui les achètent. 729 00:34:30,821 --> 00:34:34,199 On pourrait être cyniques et dire que dans un esprit compétitif, 730 00:34:34,282 --> 00:34:38,286 les fabricants programmeront leur voiture pour mieux protéger le passager 731 00:34:38,370 --> 00:34:40,997 qu'une autre voiture, ce serait un argument de vente. 732 00:34:41,081 --> 00:34:42,666 Je pense que c'est encore pire 733 00:34:42,749 --> 00:34:45,293 que d'étudier le sens moral de la population. 734 00:34:45,752 --> 00:34:47,295 C'est hyper triste. 735 00:34:47,587 --> 00:34:50,298 Mais on veut terminer cette émission sur une note positive. 736 00:34:50,966 --> 00:34:52,384 Voire paradisiaque. 737 00:34:55,345 --> 00:34:58,682 Alors avant d'imaginer un avenir ressemblant à Grand Theft Auto 738 00:34:58,765 --> 00:35:00,725 où on ne se soucie pas des piétons, 739 00:35:00,809 --> 00:35:02,310 allons faire un tour 740 00:35:02,394 --> 00:35:04,145 là où on a commencé. 741 00:35:06,398 --> 00:35:07,315 INDE 742 00:35:07,399 --> 00:35:08,608 Dans cette forêt indienne isolée, 743 00:35:08,692 --> 00:35:11,820 on récolte du miel pour une société appelée Heavenly Organics. 744 00:35:12,612 --> 00:35:14,906 Cette forêt n'appartient à personne, 745 00:35:14,990 --> 00:35:19,035 la population indigène y vit depuis toujours. 746 00:35:19,744 --> 00:35:22,038 Amit et Ishwar Hooda, père et fils, 747 00:35:22,163 --> 00:35:24,291 ont lancé cette entreprise il y a 12 ans, 748 00:35:24,374 --> 00:35:27,127 pour donner du travail aux villageois. 749 00:35:27,210 --> 00:35:31,131 Que faisaient-ils avant de récolter du miel pour votre entreprise ? 750 00:35:31,214 --> 00:35:33,341 Ils faisaient la même chose, 751 00:35:34,092 --> 00:35:37,345 mais ils n'avaient ni marché ni endroit où le vendre 752 00:35:37,470 --> 00:35:39,014 pour vivre de cette activité. 753 00:35:40,056 --> 00:35:42,392 Le miel ne manque pas, ici. 754 00:35:42,809 --> 00:35:44,102 Pendant la période de floraison, 755 00:35:44,185 --> 00:35:48,023 un ouvrier peut récolter une tonne de miel en trois mois. 756 00:35:48,857 --> 00:35:51,443 Mais à quoi bon si personne ne l'achète ? 757 00:35:54,154 --> 00:35:57,490 Une équipe a mis trois jours, deux vols, 758 00:35:57,574 --> 00:36:00,827 et huit heures de route pour s'enfoncer dans la forêt. 759 00:36:01,286 --> 00:36:04,289 Mais heureusement pour les locaux et pour Heavenly Organics, 760 00:36:04,372 --> 00:36:07,751 un algorithme d'I.A. a pu trouver cet endroit en quelques secondes 761 00:36:07,834 --> 00:36:10,462 et a su que ce serait un bon investissement. 762 00:36:10,545 --> 00:36:13,882 On nous a appelés pour nous dire que grâce à un algorithme, 763 00:36:13,965 --> 00:36:17,010 notre activité correspondait 764 00:36:17,510 --> 00:36:19,137 à beaucoup de leurs dossiers. 765 00:36:19,220 --> 00:36:22,807 Ils voulaient nous parler investissements, si ça nous intéressait. 766 00:36:23,141 --> 00:36:25,644 Qui est à la tête de ce mystérieux algorithme ? 767 00:36:26,478 --> 00:36:28,480 Une compagnie appelée CircleUp, 768 00:36:28,563 --> 00:36:31,316 située à 13 00 km de là, à... Je vous laisse deviner. 769 00:36:33,526 --> 00:36:36,655 Nous voici chez Good Eggs, une société de livraison de nourriture en ligne 770 00:36:36,738 --> 00:36:39,616 qui s'intéresse également à l'I.A. de CircleUp. 771 00:36:39,699 --> 00:36:42,744 Cette société menée par Ignition a investi chez CircleUp et elle aide 772 00:36:42,827 --> 00:36:47,415 les petites entreprises avec lesquelles on travaille à trouver des clients. 773 00:36:47,499 --> 00:36:48,500 CO-FONDATEUR & DIRECTEUR D'EXPLOITATION CIRCLEUP 774 00:36:48,583 --> 00:36:50,126 Rory Eakin, directeur d'exploitation de CircleUp 775 00:36:50,210 --> 00:36:53,254 a travaillé dans les affaires et pour des œuvres humanitaires 776 00:36:53,338 --> 00:36:54,881 avant de lancer son entreprise. 777 00:36:54,965 --> 00:36:58,385 CircleUp se sert d'une I.A. pour analyser des milliards de données 778 00:36:58,468 --> 00:37:00,637 et trouver ce que les clients veulent 779 00:37:00,762 --> 00:37:02,222 en matière de produits alimentaires et sains. 780 00:37:02,305 --> 00:37:03,640 Quand on fait ses courses, on se retrouve 781 00:37:03,723 --> 00:37:05,308 face à des centaines de sociétés 782 00:37:05,392 --> 00:37:07,018 dans presque tous les domaines. 783 00:37:07,560 --> 00:37:09,938 Ils investissent dans des sociétés peu connues 784 00:37:10,021 --> 00:37:12,774 qui pourraient avoir du succès, d'après l'I.A. 785 00:37:13,066 --> 00:37:15,902 Comme les glaces Halo Top, par exemple. 786 00:37:17,988 --> 00:37:21,950 C'était une petite marque du sud de la Californie. 787 00:37:22,033 --> 00:37:24,369 Aujourd'hui, elle est numéro un du pays. 788 00:37:25,412 --> 00:37:28,873 Dans tous les domaines, les consommateurs évoluent. 789 00:37:28,957 --> 00:37:31,126 Ils veulent des produits plus sains, 790 00:37:31,209 --> 00:37:33,128 moins de produits toxiques chez eux, 791 00:37:33,211 --> 00:37:35,797 des lotions sans produits chimiques. 792 00:37:36,172 --> 00:37:39,884 L'algorithme de CircleUp a scanné les données de milliards de consommateurs 793 00:37:39,968 --> 00:37:42,512 et a découvert qu'ils avaient une liste de critères 794 00:37:42,595 --> 00:37:45,056 incroyablement précis. 795 00:37:45,140 --> 00:37:47,475 Des sociétés axées sur leur mission et respectueuses de l'environnement, 796 00:37:47,600 --> 00:37:50,687 avec de produits organiques et développant l'économie 797 00:37:50,770 --> 00:37:51,855 dans leurs communautés. 798 00:37:52,480 --> 00:37:54,315 Ça semble très pointu, non ? 799 00:37:54,858 --> 00:37:58,987 Mais CircleUp a respecté tous les critères en découvrant Heavenly Organics. 800 00:37:59,946 --> 00:38:01,573 Les intelligences artificielles 801 00:38:01,656 --> 00:38:03,658 savent comprendre toutes ces données, 802 00:38:03,742 --> 00:38:07,078 il y a dix ans, ça aurait été impossible. 803 00:38:07,746 --> 00:38:11,332 Comment ça marche entre CircleUp et Heavenly Organics ? 804 00:38:12,208 --> 00:38:15,045 Retournons en Inde pour en discuter avec Amir et Ishwar. 805 00:38:18,006 --> 00:38:20,842 On a construit de nouveaux locaux deux fois plus grands. 806 00:38:21,509 --> 00:38:24,137 On peut innover, avoir de nouveaux produits. 807 00:38:24,220 --> 00:38:26,765 L'impact est plus grand dans la région. 808 00:38:26,848 --> 00:38:29,142 - Ils vous aident à avancer, alors. - Oui. 809 00:38:29,225 --> 00:38:31,811 Ils nous aident à augmenter nos volumes, à évoluer. 810 00:38:31,895 --> 00:38:34,773 Quelles ont été les conséquences sur vos ouvriers ? 811 00:38:34,856 --> 00:38:37,400 Aujourd'hui, 650 familles vivent de notre activité. 812 00:38:37,484 --> 00:38:39,486 On se développe, on vend plus de miel, 813 00:38:39,569 --> 00:38:41,780 tous les milles kilos, on ajoute une famille, 814 00:38:41,863 --> 00:38:45,033 donc l'an prochain, on atteindra peut-être les 700, 750. 815 00:38:45,116 --> 00:38:46,534 - Je vois. - Oui. 816 00:38:46,618 --> 00:38:50,914 Aujourd'hui, ils sont plus sereins vis-à-vis de l'économie. 817 00:38:50,997 --> 00:38:54,125 Ils ont de bonnes maisons bien aménagées. 818 00:38:54,209 --> 00:38:56,127 Ils envoient leurs enfants à l'école. 819 00:38:56,503 --> 00:38:58,213 Le capitalisme pour le bien. 820 00:38:58,296 --> 00:38:59,339 Vous voyez ? 821 00:38:59,422 --> 00:39:02,217 Les affaires qui font le bien. 822 00:39:02,884 --> 00:39:04,511 C'est ce qui nous motive tous. 823 00:39:06,429 --> 00:39:09,641 Les intelligences artificielles renverseront-elles les hommes ? 824 00:39:09,724 --> 00:39:12,685 Ou nous laisseront-elles râler pour donner un sens à nos vies ? 825 00:39:13,394 --> 00:39:16,648 Jusqu'ici, dans cette région, l'impact est plutôt positif. 826 00:39:17,982 --> 00:39:19,734 Peut-être que les I.A. 827 00:39:19,818 --> 00:39:22,779 pourraient évaluer toutes nos données 828 00:39:22,862 --> 00:39:25,782 et décider qu'on s'en sort bien. Et ensemble, 829 00:39:26,241 --> 00:39:30,161 on créerait un nouveau monde prospère et harmonieux entre humains et robots. 830 00:39:31,663 --> 00:39:32,747 Ou peut-être pas. 831 00:39:33,790 --> 00:39:36,084 Dans ce cas, on n'a plus beaucoup de temps. 832 00:39:36,501 --> 00:39:38,962 Alors profitez de ces robots strip-teaseurs. 833 00:40:26,217 --> 00:40:29,012 C'est bon. Super ! 834 00:40:31,055 --> 00:40:32,348 C'était génial ! 835 00:40:32,432 --> 00:40:33,933 Il lui faut une serviette.