1 00:00:02,000 --> 00:00:07,000 Downloaded from YTS.MX 2 00:00:08,000 --> 00:00:13,000 Official YIFY movies site: YTS.MX 3 00:00:19,340 --> 00:00:22,235 - TikTok est devenu un moyen 4 00:00:22,260 --> 00:00:24,009 pour la jeune génération de s'exprimer 5 00:00:24,033 --> 00:00:25,640 de toutes les manières possibles. 6 00:00:27,152 --> 00:00:29,715 Tu peux être toi-même, tu es à la maison, tu filmes, 7 00:00:29,740 --> 00:00:31,378 et il y aura toujours des millions 8 00:00:31,402 --> 00:00:33,040 de personnes qui te regarderont. 9 00:00:33,580 --> 00:00:35,242 J'aime bien celle-là : le "coup d'oeil". 10 00:00:35,422 --> 00:00:37,294 On ne sait jamais quand on peut exploser. 11 00:00:41,490 --> 00:00:43,273 - Je pense que le rêve de tous les 12 00:00:43,297 --> 00:00:45,080 jeunes est de réussir en ligne. 13 00:00:45,570 --> 00:00:47,548 - La plateforme chinoise de médias 14 00:00:47,572 --> 00:00:50,000 sociaux, TikTok, a changé l'internet. 15 00:00:51,110 --> 00:00:54,386 Elle est devenue l'application la plus populaire au monde. 16 00:00:54,410 --> 00:00:56,206 - On y trouve des vidéos de pêche, de cuisine. 17 00:00:56,230 --> 00:00:58,096 On peut faire des sketchs, chanter, danser... 18 00:00:58,120 --> 00:01:00,867 Littéralement tout ce à quoi on peut penser, TikTok l'a. 19 00:01:05,580 --> 00:01:07,346 - Ce n'est plus une application sur leur téléphone, 20 00:01:07,370 --> 00:01:08,396 c'est leur gagne-pain. 21 00:01:08,420 --> 00:01:10,206 C'est la façon dont ils communiquent avec leurs amis. 22 00:01:10,230 --> 00:01:11,676 C'est la façon dont ils voient le monde. 23 00:01:11,700 --> 00:01:13,500 C'est une partie à laquelle je ne pense pas 24 00:01:13,524 --> 00:01:15,280 que tout le monde se soit encore adapté. 25 00:01:17,100 --> 00:01:20,586 - Nous risquons vraiment d'avoir des générations de jeunes 26 00:01:20,610 --> 00:01:23,546 qui ont formé leur identité en réponse à quelque chose 27 00:01:23,570 --> 00:01:25,747 qu'une plateforme technologique prescrit 28 00:01:25,771 --> 00:01:27,723 comme étant la nouvelle normalité. 29 00:01:29,290 --> 00:01:31,146 - Derrière les brillantes vidéos de danse, 30 00:01:31,170 --> 00:01:34,713 la plateforme entraîne les gens sur des chemins dangereux. 31 00:01:36,170 --> 00:01:37,956 - J'aime à penser que je n'aurais pas souffert 32 00:01:37,980 --> 00:01:40,389 de troubles alimentaires si je n'avais pas téléchargé TikTok. 33 00:01:41,880 --> 00:01:43,146 - Ce que je reproche à TikTok, 34 00:01:43,170 --> 00:01:45,166 c'est qu'il collecte illégalement 35 00:01:45,190 --> 00:01:47,186 d'énormes quantités de données 36 00:01:47,210 --> 00:01:49,592 sans le consentement des enfants ou de leurs parents. 37 00:01:51,030 --> 00:01:52,523 - Si on examine TikTok de manière 38 00:01:52,547 --> 00:01:54,040 isolée, cela semble inoffensif. 39 00:01:54,070 --> 00:01:56,916 Mais il s'inscrit dans un contexte beaucoup plus large 40 00:01:56,940 --> 00:01:59,613 de collecte de données, d'intelligence artificielle 41 00:01:59,638 --> 00:02:01,006 et d'efforts réels de la part des Chinois 42 00:02:01,030 --> 00:02:04,523 pour consolider leur influence dans la région et dans le monde. 43 00:02:06,190 --> 00:02:08,596 - Ce soir dans Four Corners, TikTok. 44 00:02:08,620 --> 00:02:11,296 Dans une enquête conjointe avec Hack sur Triple J, 45 00:02:11,320 --> 00:02:13,095 nous allons partir à l'aventure pour 46 00:02:13,119 --> 00:02:15,200 révéler le côté obscur de l'application. 47 00:02:15,240 --> 00:02:17,726 Comment la plateforme censure les contenus politiques 48 00:02:17,750 --> 00:02:20,086 et récolte les données des enfants. 49 00:02:20,110 --> 00:02:22,006 Et comment le puissant algorithme 50 00:02:22,030 --> 00:02:23,926 de l'application expose les gens 51 00:02:23,950 --> 00:02:26,813 à la désinformation et à des contenus dangereux. 52 00:02:35,700 --> 00:02:37,496 - Salut, je m'appelle Rory Eliza. 53 00:02:37,520 --> 00:02:38,965 Et puis quoi ? 54 00:02:40,456 --> 00:02:42,116 - Et que fais-tu ? 55 00:02:42,140 --> 00:02:43,888 - Je suis une TikTokeuse à plein temps. 56 00:02:53,290 --> 00:02:55,960 Donc le matin, je me réveille, peut-être à 8 ou 9 heures. 57 00:02:56,010 --> 00:02:57,266 Je regarde mon téléphone, 58 00:02:57,290 --> 00:02:58,973 je vérifie si mes vidéos ont bien marché, 59 00:02:59,000 --> 00:03:00,568 RORY ELIZA @roryeliza, 5.1MILLIONS DE FOLLOWERS 60 00:03:00,592 --> 00:03:02,461 ou comment mes followers réagissent 61 00:03:02,486 --> 00:03:04,354 au contenu que je viens de publier. 62 00:03:07,100 --> 00:03:09,780 Honnêtement, je reçois tellement d'amour sur TikTok. 63 00:03:09,810 --> 00:03:12,176 C'est tellement bizarre parce que ma plus grande plateforme 64 00:03:12,200 --> 00:03:13,776 est TikTok avec 5 millions de followers. 65 00:03:13,800 --> 00:03:16,366 C'est fou de penser que 5 millions de personnes, 66 00:03:16,390 --> 00:03:18,416 ce sont des gens, ce n'est pas juste un nombre. 67 00:03:18,440 --> 00:03:20,347 Et si on y pense vraiment, c'est 5 millions de personnes 68 00:03:20,371 --> 00:03:21,851 qui ont appuyé sur le bouton "suivre". 69 00:03:23,270 --> 00:03:25,680 Ils sont tous si amicaux et ils sont un peu comme ta famille. 70 00:03:25,720 --> 00:03:27,523 C'est juste bizarre, genre tu ne connais pas ces gens, 71 00:03:27,547 --> 00:03:29,256 mais ils en savent tellement sur toi 72 00:03:29,280 --> 00:03:31,521 qu'ils te traitent comme un membre de la famille. 73 00:03:43,790 --> 00:03:46,803 Et sur cette note, bienvenue à la nouvelle Rory Eliza. 74 00:03:47,933 --> 00:03:49,829 - Rory Eliza est l'une des millions 75 00:03:49,860 --> 00:03:51,701 de jeunes Australiens qui enregistrent 76 00:03:51,725 --> 00:03:53,066 pratiquement chaque moment 77 00:03:53,090 --> 00:03:55,706 de leur vie pour devenir célèbres sur TikTok. 78 00:03:55,730 --> 00:03:57,506 - Préparez-vous avec moi pour un rendez-vous amoureux. 79 00:03:57,530 --> 00:03:58,956 Yo, j'ai choisi une tenue, allons-y. 80 00:03:58,980 --> 00:04:00,726 Transition, ouais ! 81 00:04:00,750 --> 00:04:02,763 Donc je pense que le rêve de tous 82 00:04:02,787 --> 00:04:04,800 les jeunes est de réussir en ligne. 83 00:04:04,840 --> 00:04:08,156 Donc, je pense qu'il y a définitivement un groupe 84 00:04:08,180 --> 00:04:10,316 où ils veulent tous être des influenceurs 85 00:04:10,340 --> 00:04:11,781 parce que c'est un peu la tendance actuelle. 86 00:04:11,805 --> 00:04:13,511 Et je pense que c'est à cause de TikTok. 87 00:04:14,380 --> 00:04:15,740 - TikTok a été téléchargé 88 00:04:15,750 --> 00:04:18,703 plus de 3 milliards de fois dans le monde entier. 89 00:04:21,750 --> 00:04:23,757 Il est devenu un phénomène culturel. 90 00:04:23,782 --> 00:04:25,095 - J'ai 21 ans et je viens d'apprendre 91 00:04:25,119 --> 00:04:26,160 à faire ma propre lessive. 92 00:04:26,250 --> 00:04:28,576 - Des tomates et du fromage. 93 00:04:28,600 --> 00:04:31,960 - Mec, non tu dois faire genre, heeey. 94 00:04:32,420 --> 00:04:33,593 Oh... Ok, Ok, Ok. 95 00:04:38,510 --> 00:04:40,610 - Tout est question de devenir viral. 96 00:04:41,890 --> 00:04:44,013 La danse, que quelqu'un a commencée dans 97 00:04:44,037 --> 00:04:46,160 son salon et mise en ligne sur TikTok, 98 00:04:47,760 --> 00:04:49,546 peut se transformer en un stade rempli 99 00:04:49,570 --> 00:04:51,600 de personnes qui l'exécutent à l'unisson. 100 00:04:58,205 --> 00:05:00,136 - J'aime à quel point on peut être créatif dessus. 101 00:05:00,160 --> 00:05:02,333 C'est tellement amusant d'aller sur cette application 102 00:05:02,357 --> 00:05:04,178 et d'exprimer sa vraie personnalité. 103 00:05:14,010 --> 00:05:16,666 - Rory a commencé à poster des sketchs comiques sur TikTok 104 00:05:16,690 --> 00:05:18,193 et ses fans ont augmenté en flèche. 105 00:05:19,130 --> 00:05:21,867 - Ne t'inquiète pas. Je vais le scanner pour toi tout de suite. 106 00:05:22,740 --> 00:05:24,476 - C'était sa première vidéo virale. 107 00:05:24,500 --> 00:05:26,786 Elle a obtenu près de 14 millions de vues. 108 00:05:31,090 --> 00:05:33,677 - Que dirais-tu d'un canard laqué ? 109 00:05:33,910 --> 00:05:36,856 Oh oui, mais nous n'avons pas en fait du canard laqué. 110 00:05:36,880 --> 00:05:38,626 Mais nous avons cette oie furtive. 111 00:05:38,650 --> 00:05:40,142 Quel drôle de nom. 112 00:05:40,166 --> 00:05:42,796 C'est plutôt normal pour un livre. 113 00:05:42,820 --> 00:05:46,056 - En 2019, Rory a décidé de quitter l'école 114 00:05:46,080 --> 00:05:48,206 pour devenir une TikTokeuse à plein temps. 115 00:05:48,630 --> 00:05:50,790 - Attends, attends, est-ce que c'est une bibliothèque ? 116 00:05:51,436 --> 00:05:52,640 L'école était juste une de ces choses 117 00:05:52,664 --> 00:05:54,104 pour lesquelles je n'étais pas douée. 118 00:05:54,360 --> 00:05:57,196 J'ai décidé de quitter l'école quand j'étais en seconde 119 00:05:57,220 --> 00:05:58,576 et je ne m'y rendais jamais. 120 00:05:58,600 --> 00:06:00,307 J'étais toujours à Sydney pour des 121 00:06:00,331 --> 00:06:02,401 réunions ou des présentations pour TikTok. 122 00:06:02,426 --> 00:06:03,497 Je n'étais tout simplement pas 123 00:06:03,521 --> 00:06:04,616 là. Et quand je venais à l'école, 124 00:06:04,640 --> 00:06:06,516 je n'avais aucune idée de ce qu'on faisait. 125 00:06:06,540 --> 00:06:09,133 Parce que j'ai été absente pendant plusieurs jours. 126 00:06:09,986 --> 00:06:11,159 Ne t'inquiète pas du tout. Merci 127 00:06:11,183 --> 00:06:12,460 d'être venue dans notre bibliothèque. 128 00:06:12,484 --> 00:06:13,757 - L'école, on peut y retourner et faire 129 00:06:13,781 --> 00:06:14,906 ses études dans le cadre des TAFE. 130 00:06:14,930 --> 00:06:15,971 On peut revenir à tout moment et 131 00:06:15,995 --> 00:06:17,154 faire ses études si on en a besoin. 132 00:06:17,178 --> 00:06:19,146 Mais on n'aura peut-être plus jamais cette opportunité. 133 00:06:19,170 --> 00:06:21,296 Alors, on a pensé que ça valait la peine de quitter l'école 134 00:06:21,320 --> 00:06:22,927 et de saisir toutes les opportunités commerciales 135 00:06:22,951 --> 00:06:24,188 pendant qu'elles étaient là pour elle. 136 00:06:24,212 --> 00:06:25,474 - Ne t'inquiète pas du tout. Merci 137 00:06:25,498 --> 00:06:26,666 d'être venue à notre bibliothèque. 138 00:06:26,690 --> 00:06:28,558 - Que penses-tu du fait que 5 millions 139 00:06:28,583 --> 00:06:30,451 de personnes regardent son contenu ? 140 00:06:30,476 --> 00:06:31,950 - C'est incroyable. C'est même... il y 141 00:06:31,974 --> 00:06:33,448 a une fois où elle est allée en direct 142 00:06:33,472 --> 00:06:34,632 DANIEL - PÈRE DE RORY 143 00:06:34,657 --> 00:06:35,678 et elle avait 22 000 personnes 144 00:06:35,702 --> 00:06:36,888 qui la regardaient dans sa chambre 145 00:06:36,912 --> 00:06:38,106 et je me suis souvenu d'un concert 146 00:06:38,130 --> 00:06:39,552 d'Elton John qui avait lieu ici. 147 00:06:39,577 --> 00:06:41,047 Il y avait plus de gens qui la regardaient 148 00:06:41,071 --> 00:06:42,728 que ceux qui étaient au concert d'Elton John. 149 00:06:42,752 --> 00:06:44,670 Et c'est un peu ce qui se passe dans 150 00:06:44,695 --> 00:06:46,613 la chambre de ma fille en ce moment. 151 00:06:46,638 --> 00:06:50,127 C'était un peu différent. 152 00:06:50,152 --> 00:06:51,432 PRÉPAREZ-VOUS À CÉLÉBRER AVEC MOI 153 00:06:54,169 --> 00:06:56,305 - De grandes marques de mode et de cosmétiques 154 00:06:56,330 --> 00:06:59,166 ont commencé à remarquer le succès de Rory sur TikTok 155 00:06:59,190 --> 00:07:01,593 et ont voulu profiter de son audience croissante. 156 00:07:07,189 --> 00:07:09,346 Des compagnies sponsorisent des influenceurs comme Rory 157 00:07:09,370 --> 00:07:11,113 et les entreprises paient TikTok pour 158 00:07:11,137 --> 00:07:13,123 faire de la publicité sur la plateforme. 159 00:07:14,720 --> 00:07:16,043 C'est un élément central du modèle 160 00:07:16,067 --> 00:07:17,593 économique lucratif de l'application. 161 00:07:18,789 --> 00:07:20,922 - Dans cette activité d'influenceur, 162 00:07:20,947 --> 00:07:23,080 il faut se présenter comme une marque. 163 00:07:23,105 --> 00:07:24,309 Nous ne sommes plus vraiment des 164 00:07:24,333 --> 00:07:25,494 personnes, nous sommes des marques. 165 00:07:25,518 --> 00:07:26,966 Nous vendons des produits pour des marques. 166 00:07:26,990 --> 00:07:28,790 Donc, il faut bien jouer le jeu. 167 00:07:32,110 --> 00:07:34,534 L'argent impliqué est suffisant pour vivre. 168 00:07:34,558 --> 00:07:36,875 Donc, c'est un montant assez raisonnable. 169 00:07:36,900 --> 00:07:38,483 Je me situe dans la fourchette moyenne 170 00:07:38,507 --> 00:07:39,960 à haute des revenus en Australie. 171 00:07:39,990 --> 00:07:41,589 Donc c'est très correct. 172 00:07:42,640 --> 00:07:44,204 - C'est difficile de ne pas être jaloux 173 00:07:44,228 --> 00:07:46,040 parfois parce qu'on regarde notre vie et... 174 00:07:46,080 --> 00:07:48,630 on se lève, on va au travail et on rentre à la maison. 175 00:07:49,945 --> 00:07:51,821 Et elle peut gagner en quelques minutes 176 00:07:51,845 --> 00:07:53,720 de l'argent qui nous prendrait des jours. 177 00:07:53,761 --> 00:07:54,807 DISCUSSIONS PROFONDES 178 00:07:54,831 --> 00:07:56,566 - Je me suis retrouvée à conduire et à pleurer, 179 00:07:56,590 --> 00:07:58,706 comme si j'étais en dépression totale. 180 00:07:58,730 --> 00:08:02,240 Et j'ai eu des pensées vraiment très désagréables et... 181 00:08:02,270 --> 00:08:05,548 - Rory partage sa vie avec 5 millions de personnes. 182 00:08:05,573 --> 00:08:07,421 Même ses moments les plus tristes. 183 00:08:07,446 --> 00:08:09,034 - Pourquoi suis-je censée être sur cette terre ? 184 00:08:09,058 --> 00:08:11,666 Pourquoi personne ne m'aime ? 185 00:08:11,690 --> 00:08:13,303 Pourquoi je n'ai pas d'amis ? 186 00:08:14,710 --> 00:08:17,539 - Mais la plupart du temps, elle se sent très seule. 187 00:08:17,564 --> 00:08:18,928 - D'accord. C'est un vieux nom pour... 188 00:08:18,952 --> 00:08:21,818 Être loin des gens, c'est vraiment solitaire. 189 00:08:21,843 --> 00:08:23,779 Je filme quatre vidéos par jour. 190 00:08:23,804 --> 00:08:25,422 C'est trois bonnes heures de ma journée. 191 00:08:25,447 --> 00:08:26,727 Et puis j'ai encore 8 heures 192 00:08:26,752 --> 00:08:28,403 et je me demande ce que je vais bien pouvoir faire 193 00:08:28,427 --> 00:08:29,554 le reste de la journée. Je ne peux 194 00:08:29,578 --> 00:08:30,816 pas appeler mes amis pour leur dire : 195 00:08:30,840 --> 00:08:32,002 "Vous voulez qu'on sorte ensemble ?" 196 00:08:32,026 --> 00:08:33,151 parce qu'ils sont au travail. 197 00:08:33,175 --> 00:08:34,753 Donc, on se sent parfois seul. 198 00:08:34,778 --> 00:08:36,787 Et parfois, si on lit les commentaires 199 00:08:36,812 --> 00:08:38,549 haineux et la charge de stress, 200 00:08:38,574 --> 00:08:40,343 ça peut être trop pour notre corps et 201 00:08:40,368 --> 00:08:42,078 on est juste accablé et on se sent seul. 202 00:08:42,103 --> 00:08:44,207 Donc ça peut aussi mener à la dépression. 203 00:08:44,232 --> 00:08:45,519 - Catherine n'a pas eu de question. 204 00:08:45,543 --> 00:08:48,178 Je suis heureux de revenir à toi, mais restons civilisés. 205 00:08:48,203 --> 00:08:49,203 Andrew ? 206 00:08:50,900 --> 00:08:51,900 Catherine. 207 00:08:52,528 --> 00:08:54,208 TU AS 6 ANS 208 00:08:55,900 --> 00:08:58,146 - Avec les gens coincés chez eux pendant le confinement, 209 00:08:58,170 --> 00:08:59,936 cherchant désespérément à se divertir, 210 00:08:59,960 --> 00:09:01,818 TikTok est devenue l'application la 211 00:09:01,842 --> 00:09:03,700 plus téléchargée au monde en 2020. 212 00:09:07,050 --> 00:09:09,819 Et elle a continué à détenir ce titre cette année. 213 00:09:13,212 --> 00:09:17,456 - En Australie, TikTok a connu le même type d'évolution 214 00:09:17,480 --> 00:09:19,703 en 2020 qu'ailleurs dans le monde. 215 00:09:22,939 --> 00:09:24,156 En octobre 2020, TikTok comptait 216 00:09:24,180 --> 00:09:25,633 environ 2,5 millions d'utilisateurs. 217 00:09:25,658 --> 00:09:27,051 Ce qui représente une croissance d'environ 218 00:09:27,075 --> 00:09:28,292 50 % par rapport au début de l'année. 219 00:09:28,316 --> 00:09:30,156 DR. BONDY KAYE - CHERCHEUR EN MÉDIAS NUMÉRIQUES 220 00:09:41,760 --> 00:09:43,563 - Parmi les applications de médias sociaux populaires, 221 00:09:43,587 --> 00:09:45,585 TikTok est la plus addictive. 222 00:09:46,070 --> 00:09:47,526 Une fuite des données publicitaires 223 00:09:47,550 --> 00:09:49,006 de TikTok montre que les utilisateurs 224 00:09:49,030 --> 00:09:50,509 passent en moyenne une heure et 225 00:09:50,533 --> 00:09:52,253 demie sur l'application chaque jour. 226 00:09:54,310 --> 00:09:56,728 - Il est 20 heures, je regarde, je regarde et je regarde, 227 00:09:56,752 --> 00:09:59,256 puis je regarde mon horloge et il est 2 heures du matin. 228 00:09:59,361 --> 00:10:01,321 Et je suis genre, "où sont passées ces heures ?" 229 00:10:01,346 --> 00:10:03,420 C'est parce que cette page "Pour toi" est tellement addictive. 230 00:10:03,430 --> 00:10:05,214 Elle est juste si bien faite. 231 00:10:09,200 --> 00:10:12,000 - L'algorithme de TikTok est son atout le plus précieux. 232 00:10:14,650 --> 00:10:17,336 Il est conçu pour déterminer vos centres d'intérêt 233 00:10:17,360 --> 00:10:19,446 et vous envoyer du contenu personnalisé 234 00:10:19,470 --> 00:10:20,558 afin de vous faire rester sur 235 00:10:20,582 --> 00:10:22,126 l'application le plus longtemps possible. 236 00:10:22,150 --> 00:10:23,226 - Je suis allée voir ma mère 237 00:10:23,250 --> 00:10:25,266 et je suis allée chez le coiffeur, et aussi pour... 238 00:10:25,290 --> 00:10:28,696 - TikTok fonctionne en vous recommandant du contenu 239 00:10:28,720 --> 00:10:31,016 en fonction de votre activité sur l'application. 240 00:10:31,040 --> 00:10:33,546 Ainsi, plus vous naviguez dans l'application, 241 00:10:33,570 --> 00:10:34,999 plus les recommandations sont 242 00:10:35,023 --> 00:10:36,800 adaptées à vos intérêts spécifiques. 243 00:10:37,890 --> 00:10:40,846 Plutôt que de sélectionner le contenu que vous voulez regarder 244 00:10:40,870 --> 00:10:43,271 comme on le ferait sur YouTube ou Netflix, 245 00:10:43,640 --> 00:10:45,512 vous accédez principalement au contenu 246 00:10:45,536 --> 00:10:47,256 par le biais d'un flux principal, 247 00:10:47,280 --> 00:10:49,225 appelé la page "Pour Toi" sur TikTok. 248 00:10:49,490 --> 00:10:50,625 Il s'agit essentiellement d'un 249 00:10:50,649 --> 00:10:51,976 flux de vidéos à défilement infini, 250 00:10:52,000 --> 00:10:55,306 sélectionné de manière algorithmique, 251 00:10:55,330 --> 00:10:57,611 qui s'actualise chaque fois que vous ouvrez l'application. 252 00:10:58,866 --> 00:11:00,615 Dès que vous vous inscrivez sur TikTok, 253 00:11:00,640 --> 00:11:02,516 l'application commence à collecter des données sur vous, 254 00:11:02,540 --> 00:11:05,716 votre localisation, votre sexe et votre âge, 255 00:11:05,740 --> 00:11:08,766 et aussi vos données faciales pour savoir qui vous êtes 256 00:11:08,790 --> 00:11:10,903 et quel genre de vidéos vous voulez voir. 257 00:11:11,770 --> 00:11:13,571 - Votre visage est une forme d'information biométrique. 258 00:11:13,595 --> 00:11:15,199 Et votre visage peut être 259 00:11:15,223 --> 00:11:17,343 analysé pour distinguer une série 260 00:11:17,368 --> 00:11:19,549 de traits de personnalité et de caractéristiques démographiques. 261 00:11:19,573 --> 00:11:20,639 DR. NIELS WOUTERS - CHARGÉ DE 262 00:11:20,663 --> 00:11:22,143 RECHERCHE EN INTERACTION HOMME-MACHINE 263 00:11:24,630 --> 00:11:26,376 TikTok collecte les données de votre visage 264 00:11:26,400 --> 00:11:28,101 chaque fois que vous faites une vidéo ou que 265 00:11:28,125 --> 00:11:29,786 vous utilisez un filtre sur l'application 266 00:11:29,810 --> 00:11:31,627 et peut même accéder aux photos et 267 00:11:31,651 --> 00:11:33,856 vidéos enregistrées sur votre téléphone 268 00:11:33,880 --> 00:11:35,970 qui ne sont pas utilisées sur la plateforme. 269 00:11:36,720 --> 00:11:38,738 Pour comprendre comment une application 270 00:11:38,762 --> 00:11:40,726 comme TikTok interprète ces données, 271 00:11:40,750 --> 00:11:42,696 des scientifiques de Melbourne ont développé 272 00:11:42,720 --> 00:11:44,746 ce que l'on appelle un miroir biométrique. 273 00:11:45,200 --> 00:11:46,906 - Le miroir biométrique, par exemple, 274 00:11:46,930 --> 00:11:49,526 est entraîné par le biais de l'intelligence artificielle 275 00:11:49,550 --> 00:11:51,911 à distinguer votre degré d'intelligence, 276 00:11:51,935 --> 00:11:54,600 de beauté, de bizarrerie, de responsabilité 277 00:11:54,660 --> 00:11:57,763 et d'instabilité émotionnelle. 278 00:11:58,940 --> 00:12:00,406 Ce qui est intéressant ici, bien sûr, 279 00:12:00,430 --> 00:12:02,796 c'est que le miroir biométrique base ses hypothèses 280 00:12:02,828 --> 00:12:05,155 sur un seul instantané de votre visage. 281 00:12:05,180 --> 00:12:07,898 Toutes ces hypothèses sont donc générées sur 282 00:12:07,922 --> 00:12:10,640 la base de l'apparence exacte de votre visage 283 00:12:10,670 --> 00:12:13,693 à la microseconde exacte où la photo a été prise. 284 00:12:14,874 --> 00:12:17,396 L'algorithme de TikTok pourrait lire votre visage 285 00:12:17,420 --> 00:12:19,938 et penser que vous êtes confronté à un 286 00:12:19,962 --> 00:12:22,480 problème de santé mentale important. 287 00:12:22,520 --> 00:12:24,896 Il pourrait vous présenter des vidéos 288 00:12:24,920 --> 00:12:27,760 créées par des utilisateurs qui traversent 289 00:12:27,790 --> 00:12:29,986 une épreuve similaire à la vôtre à ce moment-là. 290 00:12:30,010 --> 00:12:32,051 Et cela pourrait créer une vision 291 00:12:32,075 --> 00:12:34,288 du monde très colorée pour vous, 292 00:12:34,313 --> 00:12:36,027 dans laquelle il serait très difficile de faire face 293 00:12:36,051 --> 00:12:38,227 à votre problème de santé mentale à ce moment donné. 294 00:12:45,020 --> 00:12:47,676 - Lauren Hemings étudie pour devenir sage-femme. 295 00:12:47,700 --> 00:12:49,269 Elle avait l'habitude de passer ses 296 00:12:49,293 --> 00:12:51,280 pauses à l'université en regardant TikTok. 297 00:12:51,920 --> 00:12:53,936 - Je pense que c'est l'ennui de la quarantaine 298 00:12:53,960 --> 00:12:56,903 qui m'a en quelque sorte motivé à le télécharger. 299 00:12:57,990 --> 00:13:01,400 C'était un espoir innocent de rire un peu, vraiment. 300 00:13:01,440 --> 00:13:05,640 Comme avoir des vidéos drôles et voir ce qu'il y avait dessus. 301 00:13:06,903 --> 00:13:08,161 Je n'ai jamais eu l'intention de 302 00:13:08,185 --> 00:13:09,721 faire des TikToks ou de les partager. 303 00:13:09,753 --> 00:13:13,058 C'était plutôt du point de vue d'un spectateur. 304 00:13:13,860 --> 00:13:15,086 - Lauren a commencé à suivre 305 00:13:15,110 --> 00:13:17,719 une influenceuse de fitness populaire sur l'application. 306 00:13:20,140 --> 00:13:22,360 - Il y a une femme qui avait un type 307 00:13:22,384 --> 00:13:24,476 de corps assez similaire au mien 308 00:13:24,500 --> 00:13:27,038 et elle avait exprimé qu'elle était 309 00:13:27,062 --> 00:13:29,600 malheureuse avec ce type de corps. 310 00:13:30,810 --> 00:13:31,893 Elle avait commencé à surveiller 311 00:13:31,917 --> 00:13:33,176 ses calories pendant la quarantaine 312 00:13:33,200 --> 00:13:36,043 et elle avait perdu énormément de poids. 313 00:13:36,204 --> 00:13:38,270 ALLEZ, ON Y VA ! 314 00:13:39,300 --> 00:13:41,346 - L'algorithme a ensuite inondé son fil d'actualité 315 00:13:41,370 --> 00:13:44,277 de contenus promouvant une perte de poids malsaine. 316 00:13:44,302 --> 00:13:45,302 16ÈME JOUR 317 00:13:46,370 --> 00:13:48,556 - Je ne voyais plus de vidéos de danse drôles ou autre. 318 00:13:48,580 --> 00:13:50,776 C'était juste une concentration totale 319 00:13:50,800 --> 00:13:54,903 sur cet objectif de forme physique et de mode de vie sain. 320 00:13:54,928 --> 00:13:56,257 MAINTIEN DE LA PLANCHE 30 SEC 321 00:13:56,282 --> 00:13:57,454 30 DE CHAQUE CÔTÉ 322 00:13:57,479 --> 00:13:58,821 PÂTES AU POULET À LA CRÈME, 529 CALORIES 323 00:13:58,845 --> 00:14:01,448 - TikTok a poussé Lauren vers la tendance populaire consistant 324 00:14:01,473 --> 00:14:03,418 à suivre méticuleusement le nombre de 325 00:14:03,443 --> 00:14:05,387 calories ingérées dans une journée. 326 00:14:06,330 --> 00:14:08,014 Ce qui, selon les chercheurs, favorise 327 00:14:08,038 --> 00:14:09,493 les troubles de l'alimentation. 328 00:14:09,518 --> 00:14:10,693 FRUIT + NUTELLA, 202 CALORIES 329 00:14:10,890 --> 00:14:12,786 Le hashtag "Ce que je mange en une journée" 330 00:14:12,810 --> 00:14:15,705 compte plus de 7 milliards de vues sur TikTok. 331 00:14:15,730 --> 00:14:17,001 GRANDE SALADE 332 00:14:17,204 --> 00:14:18,496 DES POP CHIPS TRÈS APPÉTISSANTES 333 00:14:18,520 --> 00:14:20,096 - C'est devenu une sorte d'obsession 334 00:14:20,120 --> 00:14:23,536 et j'avais l'impression que je ne pouvais rien manger 335 00:14:23,560 --> 00:14:26,566 sans savoir combien de calories cela contenait 336 00:14:26,590 --> 00:14:30,360 et sans atteindre mon objectif de calories dans la journée. 337 00:14:30,400 --> 00:14:32,371 Il y a eu quelques mois où je n'ai rien 338 00:14:32,395 --> 00:14:34,680 mis dans ma bouche que je n'avais pas pesé. 339 00:14:34,974 --> 00:14:36,166 MAIEUTIQUE 340 00:14:36,190 --> 00:14:38,396 - Quatre mois après avoir téléchargé TikTok, 341 00:14:38,420 --> 00:14:40,676 Lauren a admis à ses amis et à sa famille 342 00:14:40,700 --> 00:14:42,380 qu'elle souffrait de troubles alimentaires. 343 00:14:43,040 --> 00:14:44,846 - J'aime à penser que je n'aurais pas souffert 344 00:14:44,870 --> 00:14:47,196 de troubles alimentaires si je n'avais pas téléchargé TikTok. 345 00:14:47,220 --> 00:14:49,595 Je pense que TikTok a été le principal 346 00:14:49,619 --> 00:14:51,741 facteur de développement de cela. 347 00:14:51,766 --> 00:14:53,486 QUELQU'UN A-T-IL DES CONSEILS POUR LE JEÛNE À L'EAU 348 00:14:53,510 --> 00:14:54,971 - Les jeunes utilisateurs se tournent 349 00:14:54,995 --> 00:14:56,196 de plus en plus vers TikTok 350 00:14:56,220 --> 00:14:58,161 pour trouver et diffuser des informations 351 00:14:58,185 --> 00:15:00,126 sur la façon de restreindre l'alimentation 352 00:15:00,150 --> 00:15:02,185 et de cacher à leur famille leurs troubles alimentaires. 353 00:15:02,209 --> 00:15:04,266 EST-CE QUE QUELQU'UN VEUT FAIRE UN JEÛNE DE 3 JOURS AVEC MOI ? 354 00:15:04,290 --> 00:15:06,956 - Ce qu'ils font, c'est qu'ils partagent le contenu 355 00:15:06,980 --> 00:15:08,429 de ce qu'ils vivent et de ce 356 00:15:08,453 --> 00:15:10,216 qu'ils ont fait pendant la journée 357 00:15:10,240 --> 00:15:11,953 dans le but de devenir minces. 358 00:15:12,747 --> 00:15:14,233 Ils partagent donc des recettes. 359 00:15:14,258 --> 00:15:15,896 DR. SUKU SUKUNESAN - CHERCHEUR EN MÉDIAS SOCIAUX 360 00:15:15,920 --> 00:15:17,699 Ils partagent des plans de régime. 361 00:15:17,724 --> 00:15:19,995 Ils expliquent comment il faut être discipliné. 362 00:15:20,020 --> 00:15:23,660 Pour quelqu'un de vulnérable et désespéré, 363 00:15:23,690 --> 00:15:26,326 il suivrait les conseils de n'importe qui. 364 00:15:26,350 --> 00:15:28,346 Aucun de ces conseils n'est vraiment bon, 365 00:15:28,370 --> 00:15:29,891 parce que certains de ces conseils 366 00:15:29,915 --> 00:15:31,436 sont genre : "lèche une citrouille 367 00:15:31,460 --> 00:15:33,851 pour ton déjeuner, mais ne mange pas. 368 00:15:34,640 --> 00:15:37,013 Bois un litre d'eau et ça devrait aller." 369 00:15:37,292 --> 00:15:39,439 - J'étais très réticente à l'idée de me rendre sur TikTok, 370 00:15:39,463 --> 00:15:40,490 car j'avais entendu dire que 371 00:15:40,514 --> 00:15:41,712 c'était un espace très peu propice 372 00:15:41,736 --> 00:15:43,340 aux personnes souffrant de troubles alimentaires. 373 00:15:43,364 --> 00:15:45,045 Parce que l'algorithme sait tout 374 00:15:45,070 --> 00:15:46,783 et qu'il oriente votre fil d'actualité 375 00:15:46,807 --> 00:15:48,520 pour s'intéresser à ce genre de choses. 376 00:15:49,345 --> 00:15:50,426 - Claire Benstead a été 377 00:15:50,451 --> 00:15:51,946 hospitalisée à plusieurs reprises 378 00:15:51,970 --> 00:15:54,544 pour anorexie pendant plus de cinq ans. 379 00:15:54,630 --> 00:15:56,386 Elle a décidé de télécharger TikTok 380 00:15:56,410 --> 00:15:58,020 pour trouver du soutien et promouvoir 381 00:15:58,044 --> 00:15:59,653 son entreprise de boucles d'oreilles. 382 00:16:00,130 --> 00:16:01,781 - On veut ce soutien parce que c'est 383 00:16:01,805 --> 00:16:03,360 une maladie qui isole tellement. 384 00:16:03,390 --> 00:16:06,298 Il y a tellement de gens dans ma vie qui ne la comprennent pas. 385 00:16:06,320 --> 00:16:07,849 - Claire explique que l'algorithme 386 00:16:07,873 --> 00:16:08,920 de TikTok a identifié 387 00:16:08,957 --> 00:16:10,362 qu'elle souffrait d'un trouble alimentaire 388 00:16:10,386 --> 00:16:11,596 et qu'elle a immédiatement remarqué 389 00:16:11,620 --> 00:16:15,476 un changement dans les types de vidéos sur son fil. 390 00:16:15,500 --> 00:16:16,996 - Donc mon algorithme est passé 391 00:16:17,020 --> 00:16:18,760 d'un contenu sur l'humour australien 392 00:16:18,790 --> 00:16:21,576 et les comédies musicales, et tout ce genre de choses, 393 00:16:21,600 --> 00:16:25,386 à un contenu sur les troubles alimentaires tout le temps. 394 00:16:25,410 --> 00:16:28,370 Et comme je devenais de plus en plus malade et obsessionnelle, 395 00:16:28,571 --> 00:16:29,680 tout ce que je pouvais faire était 396 00:16:29,704 --> 00:16:30,921 de naviguer dans mon téléphone, 397 00:16:30,945 --> 00:16:33,818 et de regarder ces vidéos. 398 00:16:34,259 --> 00:16:37,115 J'ai passé des heures dessus et je me suis fixée dessus. 399 00:16:37,140 --> 00:16:38,252 Je ne me rétablissais pas du tout. 400 00:16:38,276 --> 00:16:39,869 Je faisais régulièrement des rechutes. 401 00:16:40,560 --> 00:16:42,296 - Claire a été hospitalisée. 402 00:16:42,320 --> 00:16:43,951 Dans le cadre de son traitement, ses 403 00:16:43,975 --> 00:16:45,606 psychologues ont travaillé avec elle 404 00:16:45,630 --> 00:16:49,016 pour supprimer le contenu toxique de son fil TikTok 405 00:16:49,040 --> 00:16:52,366 en désuivant des comptes et en signalant des vidéos. 406 00:16:52,390 --> 00:16:54,476 Combien de temps t'a-t-il fallu pour débarrasser ton algorithme 407 00:16:54,500 --> 00:16:56,915 de ce contenu sur les troubles alimentaires ? 408 00:16:57,890 --> 00:16:58,898 - Des siècles. 409 00:16:58,922 --> 00:17:00,709 J'étais à l'hôpital, donc il m'a fallu 410 00:17:00,733 --> 00:17:02,520 deux mois pour changer l'algorithme. 411 00:17:03,240 --> 00:17:04,836 - Quand on fait défiler les pages comme ça... 412 00:17:04,860 --> 00:17:08,440 - Alors même que Claire me montrait son fil TikTok nettoyé, 413 00:17:08,500 --> 00:17:10,323 des vidéos sur les troubles alimentaires 414 00:17:10,347 --> 00:17:11,699 ont commencé à réapparaître. 415 00:17:12,060 --> 00:17:14,061 Voilà, c'est parti. En voici une en ce moment. 416 00:17:14,580 --> 00:17:17,286 Toutes les cinq ou six vidéos. 417 00:17:17,310 --> 00:17:21,286 Je suis dans une bonne position pour que ça ne me déclenche pas. 418 00:17:21,310 --> 00:17:23,036 - Donc même si tu dis que tu n'es pas intéressée, 419 00:17:23,060 --> 00:17:24,626 ça revient toujours ? - Ca revient toujours. 420 00:17:24,650 --> 00:17:25,811 - Si on signale des vidéos TikTok, 421 00:17:25,835 --> 00:17:27,126 l'entreprise indique que 422 00:17:27,150 --> 00:17:30,086 ses modérateurs décident ensuite de les interdire ou non. 423 00:17:30,110 --> 00:17:32,083 Ce qui, à son tour, est censé apprendre 424 00:17:32,107 --> 00:17:34,080 à l'algorithme à ne plus les présenter. 425 00:17:34,140 --> 00:17:35,776 - Je dis simplement que cela ne m'intéresse pas... 426 00:17:35,800 --> 00:17:37,246 - Les politiques de TikToks indiquent 427 00:17:37,270 --> 00:17:38,716 que l'application interdit tout contenu 428 00:17:38,740 --> 00:17:40,075 promouvant, normalisant ou 429 00:17:40,099 --> 00:17:42,003 glorifiant les troubles alimentaires. 430 00:17:42,020 --> 00:17:43,536 - Et tu peux dire que c'est offensant... 431 00:17:43,560 --> 00:17:45,006 - Mais quand des utilisateurs comme Claire, 432 00:17:45,030 --> 00:17:47,523 ont signalé ces vidéos, on leur a répondu 433 00:17:47,547 --> 00:17:50,040 qu'elles ne violaient aucune directive. 434 00:17:50,090 --> 00:17:51,986 - On pourrait penser que quelque chose d'aussi grave 435 00:17:52,010 --> 00:17:53,516 et qui a le taux de mortalité le plus élevé 436 00:17:53,540 --> 00:17:55,496 de toutes les maladies mentales, on pourrait penser 437 00:17:55,520 --> 00:17:57,096 que c'est quelque chose que l'on peut signaler. 438 00:17:57,120 --> 00:17:58,689 Parce que ça encourage ce genre de comportements 439 00:17:58,713 --> 00:18:00,508 et ça aggrave la situation. 440 00:18:05,972 --> 00:18:07,638 - TikTok indique également qu'il interdit les 441 00:18:07,662 --> 00:18:09,336 hashtags en faveur des troubles alimentaires 442 00:18:09,360 --> 00:18:10,440 afin que les utilisateurs ne 443 00:18:10,464 --> 00:18:11,816 puissent pas rechercher ces vidéos. 444 00:18:11,840 --> 00:18:13,536 Et s'ils essaient de le faire, le numéro 445 00:18:13,560 --> 00:18:14,607 du service d'aide aux personnes 446 00:18:14,631 --> 00:18:15,796 souffrant de troubles alimentaires, 447 00:18:15,820 --> 00:18:18,796 la Butterfly Foundation, s'affiche automatiquement. 448 00:18:18,820 --> 00:18:21,140 Mais les utilisateurs trouvent des moyens de contourner ça. 449 00:18:21,830 --> 00:18:25,526 - Mais le problème, c'est que ça évolue constamment. 450 00:18:25,550 --> 00:18:27,876 Par exemple, il y a maintenant un hashtag que les personnes 451 00:18:27,900 --> 00:18:29,396 souffrant de troubles alimentaires utilisent. 452 00:18:29,420 --> 00:18:31,258 Et on n'aurait jamais deviné que c'était 453 00:18:31,282 --> 00:18:33,120 un hashtag sur les troubles alimentaires. 454 00:18:33,160 --> 00:18:34,800 Cela porte le nom d'une chanteuse célèbre. 455 00:18:36,719 --> 00:18:38,179 Donc il suffit de les changer pour 456 00:18:38,224 --> 00:18:40,086 qu'ils soient complètement hors de propos 457 00:18:40,110 --> 00:18:42,368 par rapport à ce qu'est un trouble alimentaire. 458 00:18:42,710 --> 00:18:44,426 Et c'est si difficile d'y échapper maintenant. 459 00:18:44,450 --> 00:18:45,912 Et je pense que c'est vraiment 460 00:18:45,936 --> 00:18:47,840 difficile pour TikTok de gérer tout ça. 461 00:18:48,400 --> 00:18:50,428 - Des mécanismes sont en place pour 462 00:18:50,452 --> 00:18:52,480 filtrer une partie de ce contenu. 463 00:18:52,510 --> 00:18:55,686 Mais une grande partie dépend aussi de la modération humaine. 464 00:18:55,710 --> 00:18:57,863 Et quand on considère la quantité de vidéos 465 00:18:57,887 --> 00:19:00,040 et le volume qui est mis en ligne sur TikTok, 466 00:19:00,103 --> 00:19:01,979 il est très difficile d'imaginer que des 467 00:19:02,003 --> 00:19:04,120 modérateurs humains puissent tout attraper. 468 00:19:09,566 --> 00:19:11,971 - L'année dernière, TikTok a mis en place un 469 00:19:11,995 --> 00:19:14,400 conseil d'experts externes pour conseiller 470 00:19:14,430 --> 00:19:16,813 l'entreprise sur la modération du contenu. 471 00:19:17,770 --> 00:19:19,593 David Polgar est l'un d'entre eux. 472 00:19:20,760 --> 00:19:22,140 - Comme nous le savons, de grands pouvoirs 473 00:19:22,164 --> 00:19:23,529 impliquent de grandes responsabilités. 474 00:19:23,553 --> 00:19:25,606 Il y a beaucoup de pouvoir dans l'algorithme de TikTok. 475 00:19:25,630 --> 00:19:28,236 Il faut donc être constamment conscient 476 00:19:28,260 --> 00:19:30,758 de l'impact qu'il a sur les autres 477 00:19:30,782 --> 00:19:33,280 individus et les autres communautés. 478 00:19:33,657 --> 00:19:35,117 Je pense que, comparativement, 479 00:19:35,142 --> 00:19:36,559 DAVID PLGAR - ÉTHICIEN DE LA TECHNOLOGIE ET 480 00:19:36,583 --> 00:19:38,225 MEMBRE DU CONSEIL CONSULTATIF DU CONTENU DE TIKTOK 481 00:19:38,249 --> 00:19:40,727 TikTok a fait un bon travail en 482 00:19:40,759 --> 00:19:44,047 étant plus réfléchi sur les risques 483 00:19:44,079 --> 00:19:48,025 et sur la façon dont cela peut affecter les individus. 484 00:19:48,050 --> 00:19:53,050 Mais en même temps, on a affaire à un comportement humain. 485 00:19:53,220 --> 00:19:55,696 On a affaire à de mauvais acteurs. 486 00:19:55,720 --> 00:19:58,146 On a affaire à des différences majeures 487 00:19:58,170 --> 00:20:00,450 dans la façon dont les gens définissent 488 00:20:00,474 --> 00:20:02,693 ce qui est approprié ou inapproprié. 489 00:20:02,830 --> 00:20:04,952 Et on a cette sorte de jeu d'équilibre 490 00:20:04,976 --> 00:20:07,040 délicat qui se produit constamment. 491 00:20:09,740 --> 00:20:13,420 - Le modèle économique de TikTok repose sur la création 492 00:20:13,450 --> 00:20:16,396 d'une version amusante, brillante et glamour du monde. 493 00:20:16,420 --> 00:20:17,981 Et il s'est avéré que l'entreprise 494 00:20:18,005 --> 00:20:19,566 contrôle strictement le contenu 495 00:20:19,590 --> 00:20:21,486 qui ne correspond pas à cette image. 496 00:20:21,510 --> 00:20:23,231 En mars de l'année dernière, des documents 497 00:20:23,255 --> 00:20:24,976 sur la politique de TikTok ont été divulgués 498 00:20:25,000 --> 00:20:27,496 montrant que les modérateurs de contenu avaient pour instruction 499 00:20:27,520 --> 00:20:29,836 de supprimer les messages des créateurs 500 00:20:29,860 --> 00:20:32,703 considérés comme laids, pauvres ou handicapés. 501 00:20:36,500 --> 00:20:38,638 Les documents indiquent que "les vidéos, y 502 00:20:38,662 --> 00:20:40,800 compris les personnes joufflues ou obèses 503 00:20:40,850 --> 00:20:42,893 ayant un visage laid, comme trop de 504 00:20:42,917 --> 00:20:44,960 rides ou des déformations faciales 505 00:20:45,002 --> 00:20:47,838 et d'autres handicaps, doivent être exclues." 506 00:20:47,870 --> 00:20:51,443 TikTok a déclaré qu'il ne s'adonnait plus à ces pratiques. 507 00:20:55,841 --> 00:20:57,040 - Je ne veux pas l'admettre, mais 508 00:20:57,064 --> 00:20:58,264 l'apparence y est pour beaucoup. 509 00:20:58,288 --> 00:21:00,644 Et nous sommes tous secrètement un peu vaniteux. 510 00:21:00,669 --> 00:21:02,789 B Même si on ne veut pas l'admettre, on préfère 511 00:21:02,814 --> 00:21:04,740 les bonnes apparences aux moins bonnes. 512 00:21:04,765 --> 00:21:05,946 Donc je pense que les apparences ont 513 00:21:05,970 --> 00:21:07,239 définitivement beaucoup à voir avec ça. 514 00:21:07,263 --> 00:21:09,466 Et si on regarde tous les grands influenceurs, 515 00:21:09,490 --> 00:21:10,586 ils sont tous beaux. 516 00:21:10,610 --> 00:21:12,143 Si on regarde toutes ces influenceuses, 517 00:21:12,168 --> 00:21:13,251 elles sont toutes éblouissantes, 518 00:21:13,275 --> 00:21:14,502 comme si tout allait bien chez elles. 519 00:21:14,526 --> 00:21:15,608 Donc je pense que l'apparence a 520 00:21:15,632 --> 00:21:17,085 vraiment beaucoup à voir avec ça. 521 00:21:30,387 --> 00:21:32,000 - Une grande partie de la popularité de TikTok 522 00:21:32,024 --> 00:21:33,624 est alimentée par des tendances de danse, 523 00:21:33,660 --> 00:21:35,866 chorégraphiées par des créateurs noirs, 524 00:21:35,890 --> 00:21:38,342 puis copiées par des influenceurs blancs. 525 00:21:40,322 --> 00:21:42,066 Mais les créateurs de contenus noirs affirment 526 00:21:42,090 --> 00:21:44,993 que la plateforme les discrimine activement. 527 00:21:45,018 --> 00:21:46,276 QUAND JE DÉCOUVRIRAI QUE LES CRÉATEURS 528 00:21:46,300 --> 00:21:47,352 DE TIKTOKS NOIRS SONT EN GRÈVE. 529 00:21:47,360 --> 00:21:48,603 - J’ai l’impression qu’il est temps 530 00:21:48,627 --> 00:21:49,846 que nous laissions les femmes noires 531 00:21:49,870 --> 00:21:51,176 de cette application être aussi célèbres 532 00:21:51,200 --> 00:21:52,355 pour avoir fait le strict minimum. 533 00:21:52,379 --> 00:21:55,006 Je devrais être capable de m'asseoir ici en silence, 534 00:21:55,031 --> 00:21:56,177 et vous laisser me regarder 535 00:21:56,202 --> 00:21:58,562 et la prochaine chose serait "j'ai un million de followers." 536 00:22:00,220 --> 00:22:01,718 - Pétition pour que les Noirs cessent 537 00:22:01,742 --> 00:22:03,246 de parler pendant tout le mois d'avril. 538 00:22:03,270 --> 00:22:05,683 - Il y a eu des cas de retraits massifs de 539 00:22:05,707 --> 00:22:08,120 la plateforme menés par des créateurs noirs, 540 00:22:08,180 --> 00:22:09,796 appelés Blackouts. 541 00:22:09,820 --> 00:22:11,180 Où, un jour donné, 542 00:22:11,230 --> 00:22:13,077 les créateurs noirs cesseront d'utiliser la plateforme 543 00:22:13,101 --> 00:22:15,902 ou inciteront d'autres créateurs à la quitter 544 00:22:15,960 --> 00:22:17,861 en raison de l'inaction de TikTok 545 00:22:17,885 --> 00:22:19,506 et de son incapacité à répondre 546 00:22:19,530 --> 00:22:22,223 ou à s'engager dans certaines des critiques et 547 00:22:22,247 --> 00:22:25,240 du discours que les créateurs noirs ont soulevés. 548 00:22:25,334 --> 00:22:30,909 Si l'entreprise continue à réagir et à répondre, 549 00:22:31,020 --> 00:22:32,431 plutôt que d'être proactive et de 550 00:22:32,455 --> 00:22:33,866 s'engager de manière significative, 551 00:22:33,890 --> 00:22:36,165 ces problèmes vont continuer à se poser. 552 00:22:36,505 --> 00:22:39,276 J'ATTENDS ACTUELLEMENT LA FIN DE MON SÉJOUR À LA PRISON DE TIKTOK 553 00:22:39,300 --> 00:22:41,396 - Souvent, cela me rend furieuse, je suppose, 554 00:22:41,420 --> 00:22:43,478 parce que ces créateurs noirs, ils 555 00:22:43,502 --> 00:22:45,560 ont du talent, ils sont là à danser 556 00:22:45,590 --> 00:22:47,606 et à montrer ce dont ils sont capables. 557 00:22:47,678 --> 00:22:51,333 C'est donc très décevant, et difficile pour nous, 558 00:22:51,358 --> 00:22:52,671 UNICE WANI @unicewani, 595.7K FOLLOWERS 559 00:22:52,695 --> 00:22:56,440 qui sommes ici, d'avoir tout cela pour obtenir les vues... 560 00:22:56,479 --> 00:22:57,996 afin d'obtenir des "j'aime" et des "partages". 561 00:22:58,020 --> 00:23:00,106 Mais peu importe à quel point on essaye, 562 00:23:00,130 --> 00:23:02,062 on n'y arrivera pas. 563 00:23:08,660 --> 00:23:10,563 - Unice Wani est une créatrice 564 00:23:10,587 --> 00:23:12,936 TikTok de 18 ans originaire de Perth. 565 00:23:13,050 --> 00:23:14,840 - J'aime bien celui-là. Le "coup d'œil". 566 00:23:15,013 --> 00:23:16,496 J'ai l'impression que plus je deviens virale, 567 00:23:16,520 --> 00:23:19,996 plus je peux montrer à la jeune génération 568 00:23:20,020 --> 00:23:23,240 et aux filles de couleur, je suppose, 569 00:23:23,280 --> 00:23:27,056 ou à d'autres personnes, que je suis bien dans ma peau 570 00:23:27,080 --> 00:23:28,766 et que je m'aime comme je suis. 571 00:23:28,790 --> 00:23:31,276 Je me fiche de ce que les médias sociaux disent de moi. 572 00:23:31,300 --> 00:23:34,186 Ce que les gens de l'autre côté de l'écran disent de moi. 573 00:23:34,210 --> 00:23:36,203 On peut être soi-même après tout. 574 00:23:36,528 --> 00:23:37,902 Laisse-moi aborder rapidement ce sujet... 575 00:23:37,926 --> 00:23:39,366 - Au fur et à mesure que son public grandit, 576 00:23:39,390 --> 00:23:41,856 les commentaires haineux ont fait de même. 577 00:23:41,929 --> 00:23:44,755 Et elle a décidé d'affronter le problème sur l'application. 578 00:23:44,780 --> 00:23:46,676 - Donc une majorité d'entre vous ressent encore le besoin 579 00:23:46,700 --> 00:23:47,971 de commenter la couleur de ma peau et 580 00:23:47,995 --> 00:23:49,266 de dire à quel point je suis foncée 581 00:23:49,290 --> 00:23:50,458 et sur le fait que je suis noire, 582 00:23:50,482 --> 00:23:51,656 noire, noire, noire, noire. 583 00:23:51,660 --> 00:23:52,694 Et bien, devinez quoi ? 584 00:23:52,719 --> 00:23:54,563 Je suis noire et je suis si fière. 585 00:23:57,931 --> 00:24:00,556 - Unice dit que ses vidéos sont souvent cachées 586 00:24:00,580 --> 00:24:02,396 ou mises en sourdine sur le fil TikTok. 587 00:24:02,420 --> 00:24:03,986 Cela signifie que peu de personnes les voient. 588 00:24:04,010 --> 00:24:05,957 Une pratique connue sous le nom de Shadow Banning. 589 00:24:05,981 --> 00:24:07,657 - Es-tu pressé ? 590 00:24:07,681 --> 00:24:09,187 Es-tu en colère ? 591 00:24:09,211 --> 00:24:10,638 Es-tu contrarié ? 592 00:24:10,662 --> 00:24:11,662 Es-tu triste ? 593 00:24:12,960 --> 00:24:14,116 Désolé, quoi ? 594 00:24:14,140 --> 00:24:17,276 Je suppose que tu as tendance à obtenir beaucoup de shadow bans 595 00:24:17,300 --> 00:24:20,453 pour avoir parlé de choses comme le racisme. 596 00:24:20,480 --> 00:24:21,906 Des trucs que tu ne pouvais pas mentionner. 597 00:24:21,930 --> 00:24:24,516 Un seul mot, noir, pourrait dire tout cela 598 00:24:24,540 --> 00:24:26,916 et ta vidéo pourrait être interdite. 599 00:24:26,940 --> 00:24:29,742 Lorsque on publie une vidéo, la vidéo, 600 00:24:29,766 --> 00:24:32,340 elle est juste sur l'application. 601 00:24:32,370 --> 00:24:34,576 On aura pas de vues pour ça tout simplement. 602 00:24:34,600 --> 00:24:36,770 Donc son créateur peut la voir, mais pas les 603 00:24:36,794 --> 00:24:39,320 autres personnes quand elles vont sur son compte. 604 00:24:39,350 --> 00:24:42,549 Donc elle est là. Mais ça ne va pas faire de vues. 605 00:24:47,301 --> 00:24:49,537 L'année dernière, les créateurs de TikTok ont remarqué 606 00:24:49,570 --> 00:24:51,816 - que l'algorithme supprimait les messages 607 00:24:51,840 --> 00:24:55,153 contenant le hashtag Black Lives Matter ou George Floyd. 608 00:24:59,597 --> 00:25:04,293 - On dit donc que TikTok a interdit 609 00:25:04,450 --> 00:25:06,209 le hashtag Black Lives Matter. 610 00:25:12,100 --> 00:25:14,372 - L'un de ces créateurs était un homme de Sydney, 611 00:25:14,397 --> 00:25:16,045 Paniora Nukunuku, qui avait créé 612 00:25:16,069 --> 00:25:18,920 une vidéo utilisant un billard 613 00:25:18,969 --> 00:25:20,597 pour expliquer aux Australiens la 614 00:25:20,622 --> 00:25:22,336 question de Black Lives Matter. 615 00:25:22,360 --> 00:25:23,926 C'est une table d'Australie blanche. 616 00:25:23,950 --> 00:25:25,644 Ils avaient 200 ans d'avance et 617 00:25:25,668 --> 00:25:27,520 avaient tout établi dans le pays. 618 00:25:27,581 --> 00:25:29,516 Donc leur pause ressemble à ça. 619 00:25:29,540 --> 00:25:31,006 Frère, peux-tu obtenir l'accession 620 00:25:31,030 --> 00:25:32,495 à la propriété dans les affaires ? 621 00:25:32,540 --> 00:25:33,580 Magnifique. 622 00:25:33,592 --> 00:25:35,096 C'était épicé. 623 00:25:35,120 --> 00:25:37,201 Ça a explosé plus fort que je ne le pensais. 624 00:25:37,318 --> 00:25:38,676 J'ai juste besoin de mettre ça ici. 625 00:25:38,700 --> 00:25:39,846 Bon sang, qu'est-ce que... 626 00:25:39,870 --> 00:25:41,307 - Ne t'inquiète pas. C'est un traumatisme, 627 00:25:41,331 --> 00:25:42,626 une injustice et une discrimination. 628 00:25:42,650 --> 00:25:44,131 Mais j'ai dit, désolé, donc ça devrait aller. 629 00:25:44,155 --> 00:25:45,305 Alors fonce, mon frère. 630 00:25:46,560 --> 00:25:48,566 C'était la plus grosse vidéo que j'ai faite à l'époque. 631 00:25:48,580 --> 00:25:50,100 Je pense que tu es juste paresseux. 632 00:25:50,125 --> 00:25:51,636 Je ne sais pas pourquoi. 633 00:25:51,660 --> 00:25:54,002 Oh, je sais pourquoi, parce que c'était bon. 634 00:25:54,020 --> 00:25:55,366 Je ne devrais pas regarder la caméra, 635 00:25:55,390 --> 00:25:57,030 mais je suis juste très fier en ce moment. 636 00:25:57,133 --> 00:25:58,436 En utilisant ces deux boules de billard, 637 00:25:58,460 --> 00:26:00,746 je vais vous expliquer que mon compte 638 00:26:00,770 --> 00:26:02,655 a été banni pendant sept jours. 639 00:26:02,719 --> 00:26:03,775 Je ne sais pas pourquoi. 640 00:26:03,800 --> 00:26:05,285 PANIORA NUKUNUKU @pnuks, 189.6K FOLLOWERS 641 00:26:05,309 --> 00:26:06,670 Ils ont affirmé que ma vidéo enfreignait 642 00:26:06,694 --> 00:26:07,880 les directives de la communauté, 643 00:26:07,904 --> 00:26:10,966 ce qui est extrêmement vague car il n'y a pas de jurons, 644 00:26:10,990 --> 00:26:13,119 pas de langage explicite. 645 00:26:13,143 --> 00:26:15,348 Il n'y a pas de nudité ou de choses 646 00:26:15,372 --> 00:26:17,576 explicites comme des trucs sexuels. 647 00:26:17,600 --> 00:26:20,179 Rien de tout cela. Et mon compte a été banni. 648 00:26:20,940 --> 00:26:22,606 - Black Lives Matter est une tendance sur TikTok, 649 00:26:22,630 --> 00:26:25,016 ce qui est ironique compte tenu du temps que TikTok passe 650 00:26:25,040 --> 00:26:26,736 à faire taire les voix des créateurs noirs. 651 00:26:26,760 --> 00:26:29,006 TikTok s'est excusé d'avoir supprimé les hashtags, 652 00:26:29,030 --> 00:26:30,826 faisant référence à Black Lives Matter, 653 00:26:30,889 --> 00:26:32,855 en accusant un problème dans l'algorithme. 654 00:26:33,043 --> 00:26:34,843 - Prenons un moment de silence pour cet homme. 655 00:26:34,979 --> 00:26:37,066 - L'entreprise a réagi en lançant une nouvelle initiative 656 00:26:37,090 --> 00:26:38,581 pour les créateurs noirs appelée 657 00:26:38,605 --> 00:26:40,096 le TikTok Black Creator Programme. 658 00:26:40,120 --> 00:26:42,966 J'ai parlé à des créateurs qui avaient été approchés 659 00:26:42,990 --> 00:26:44,786 pour ce programme et qui avaient 660 00:26:44,810 --> 00:26:46,606 l'impression que c'était du vent. 661 00:26:46,630 --> 00:26:49,876 Ce n'était pas vraiment un effort bien intentionné 662 00:26:49,900 --> 00:26:51,475 pour s'engager avec les voix noires 663 00:26:51,499 --> 00:26:52,866 et s'engager dans le discours 664 00:26:52,890 --> 00:26:54,840 qui est important pour les communautés noires. 665 00:26:56,880 --> 00:27:00,875 - Paniora a plus de 180 000 followers sur TikTok. 666 00:27:00,900 --> 00:27:03,396 Il publie souvent des messages sur la vie avec un handicap. 667 00:27:03,421 --> 00:27:04,895 - Alors en grandissant avec la fausse jambe, 668 00:27:04,919 --> 00:27:06,954 j'ai toujours eu des problèmes à chaque fois que je me garais 669 00:27:06,978 --> 00:27:08,294 sur ma place pour handicapés. 670 00:27:08,319 --> 00:27:10,436 La première vidéo que j'ai faite, c'était moi allant 671 00:27:10,460 --> 00:27:13,556 à une piscine et disant à mes amis de me filmer 672 00:27:13,580 --> 00:27:14,898 en train de tremper ma fausse 673 00:27:14,922 --> 00:27:16,406 jambe dans l'eau pour tester l'eau. 674 00:27:16,431 --> 00:27:18,064 C'était une idée vraiment stupide. 675 00:27:18,089 --> 00:27:19,856 Mais pour une raison quelconque, les gens ont adoré. 676 00:27:19,880 --> 00:27:21,646 Et en l'espace de huit heures, 677 00:27:21,670 --> 00:27:24,393 la vidéo a atteint environ 780 000 vues. 678 00:27:25,230 --> 00:27:29,526 Si tu as ce nombre de followers et ce nombre de "likes", 679 00:27:29,550 --> 00:27:30,956 c'est parce que tu es jolie. 680 00:27:30,980 --> 00:27:33,026 Si tu as autant de followers 681 00:27:33,050 --> 00:27:34,823 et le même nombre de "likes"... 682 00:27:38,450 --> 00:27:39,450 tu es juste drôle. 683 00:27:41,320 --> 00:27:44,146 - Paniora a eu des problèmes avec les censeurs de TikTok 684 00:27:44,170 --> 00:27:45,905 lorsqu'il a posté une vidéo d'une 685 00:27:45,929 --> 00:27:48,320 confrontation avec quelqu'un qui lui disait 686 00:27:48,360 --> 00:27:50,936 qu'il ne devrait pas avoir de permis de handicapé. 687 00:27:50,960 --> 00:27:54,366 - Cette vieille dame a eu le culot de me demander 688 00:27:54,390 --> 00:27:57,103 si c'était ma carte de handicapé. 689 00:27:58,940 --> 00:28:00,226 Ceci, 690 00:28:00,250 --> 00:28:02,856 je me demande si cela est suffisant. 691 00:28:02,880 --> 00:28:04,736 - La vidéo a été retirée. 692 00:28:04,760 --> 00:28:06,341 TikTok a déclaré qu'elle avait enfreint les 693 00:28:06,365 --> 00:28:07,946 directives communautaires de l'application. 694 00:28:07,970 --> 00:28:10,646 Paniora a fait appel et elle a été remise en ligne. 695 00:28:10,670 --> 00:28:12,565 Mais d'autres vidéos sur son 696 00:28:12,589 --> 00:28:14,480 handicap ont également été retirées. 697 00:28:14,520 --> 00:28:15,836 - Tu n'as pas besoin de t'en inquiéter. 698 00:28:15,860 --> 00:28:18,060 La vidéo a été retirée et je ne le savais même pas 699 00:28:18,070 --> 00:28:20,096 jusqu'à ce que je regarde les hashtags 700 00:28:20,120 --> 00:28:22,426 et j'ai décidé de voir quelles vidéos j'avais faites 701 00:28:22,450 --> 00:28:24,848 sont arrivées au sommet et ce n'était pas là. 702 00:28:25,300 --> 00:28:28,426 J'ai fait appel et je ne sais pas pourquoi ça a été enlevé. 703 00:28:28,460 --> 00:28:29,696 Ne refais jamais ça. 704 00:28:29,860 --> 00:28:31,946 Est-ce que j'ai l'impression que TikTok est raciste ? 705 00:28:31,970 --> 00:28:32,970 Je ne sais pas. 706 00:28:34,230 --> 00:28:36,642 TikTok a-t-il déjà fait l'objet de critiques par le passé, 707 00:28:36,700 --> 00:28:39,126 les modérateurs ayant reçu l'ordre 708 00:28:39,140 --> 00:28:41,868 de limiter l'exposition des personnes 709 00:28:41,892 --> 00:28:44,620 handicapées et des personnes laides ? 710 00:28:44,630 --> 00:28:46,256 Oui. Ils ont été interpellés à ce sujet. 711 00:28:46,280 --> 00:28:47,466 Est-ce que cela va se reproduire ? 712 00:28:47,490 --> 00:28:49,369 J'espère que non, mais j'ai vraiment 713 00:28:49,393 --> 00:28:51,056 l'impression que c'est le cas. 714 00:28:51,080 --> 00:28:53,433 - Nous savons que décoloniser la 715 00:28:53,457 --> 00:28:56,520 Palestine signifie aussi décoloniser... 716 00:28:56,580 --> 00:28:57,791 - Je vais probablement continuer 717 00:28:57,815 --> 00:28:59,026 à bouger, prendre quelques photos. 718 00:28:59,050 --> 00:29:00,056 - En mai de cette année, 719 00:29:00,080 --> 00:29:03,446 Paniora a publié une vidéo d'un rassemblement pro-Palestine, 720 00:29:03,470 --> 00:29:05,676 mais l'algorithme de TikTok l'a signalée. 721 00:29:05,700 --> 00:29:07,479 Et elle a été instantanément retirée. 722 00:29:09,990 --> 00:29:13,126 D'autres créateurs postent des TikToks sur la Palestine 723 00:29:13,150 --> 00:29:15,895 ont dit qu'ils ont vécu la même chose. 724 00:29:18,238 --> 00:29:20,896 - Lorsque TikTok a commencé à supprimer mes vidéos 725 00:29:20,920 --> 00:29:23,031 sur les manifestations relatives à la 726 00:29:23,055 --> 00:29:25,520 situation palestinienne, j'étais furieux. 727 00:29:25,570 --> 00:29:29,256 Je me demandais pourquoi. Il n'y a rien dans ces vidéos 728 00:29:29,280 --> 00:29:33,106 qui justifierait un retrait. 729 00:29:33,130 --> 00:29:34,373 Il n'y a vraiment rien. 730 00:29:34,750 --> 00:29:37,366 - L'un des gros problèmes de TikTok 731 00:29:37,390 --> 00:29:39,953 et la nature unique de son algorithme opaque, 732 00:29:39,978 --> 00:29:41,008 FERGUS RYAN - CO-AUTEUR DU 733 00:29:41,032 --> 00:29:42,138 RAPPORT SUR LA CENSURE DE TIKTOK 734 00:29:42,162 --> 00:29:45,776 est qu'il est très difficile de comprendre 735 00:29:45,800 --> 00:29:49,574 ou de reconnaître quand la censure a lieu. 736 00:29:49,580 --> 00:29:51,183 Les gens se sont réunis pour essayer de... 737 00:29:51,207 --> 00:29:54,836 - Il est donc possible que le contenu de l'application 738 00:29:54,860 --> 00:29:58,716 soit promu ou rétrogradé sans que personne ne le sache. 739 00:29:58,740 --> 00:30:00,161 - J'en ai tellement marre de toutes 740 00:30:00,185 --> 00:30:01,606 les plateformes de médias sociaux 741 00:30:01,630 --> 00:30:03,406 qui réduisent au silence les voix palestiniennes. 742 00:30:03,430 --> 00:30:05,756 - Mais nous voyons également des preuves 743 00:30:05,780 --> 00:30:08,106 de la façon dont la modération du contenu 744 00:30:08,130 --> 00:30:09,656 qui a lieu en Chine. 745 00:30:09,680 --> 00:30:13,846 Comment ce type de pensée est encore appliqué 746 00:30:13,870 --> 00:30:15,883 à TikTok en dehors de la Chine. 747 00:30:18,631 --> 00:30:21,485 - TikTok est la propriété de la start-up chinoise ByteDance, 748 00:30:21,510 --> 00:30:23,451 dont la valeur est estimée à 749 00:30:23,475 --> 00:30:25,138 plus de 250 milliards de dollars. 750 00:30:25,524 --> 00:30:28,200 Elle est fortement réglementée par le gouvernement chinois. 751 00:30:28,230 --> 00:30:30,887 Et il y a un Comité interne du Parti communiste 752 00:30:30,912 --> 00:30:32,812 à ByteDance, qui veille à ce que 753 00:30:32,836 --> 00:30:34,736 les objectifs politiques du parti 754 00:30:34,760 --> 00:30:37,049 sont poursuivis parallèlement à ceux de l'entreprise. 755 00:30:37,323 --> 00:30:38,563 - Éteignez ça, s'il vous plaît. 756 00:30:38,920 --> 00:30:41,016 - Nous devons être très inquiets 757 00:30:41,040 --> 00:30:43,031 sur la façon dont des applications 758 00:30:43,055 --> 00:30:45,046 comme TikTok peuvent être utilisées 759 00:30:45,070 --> 00:30:47,923 comme un vecteur de censure et de surveillance. 760 00:30:50,030 --> 00:30:52,426 - L'Institut australien de politique stratégique 761 00:30:52,450 --> 00:30:54,606 a réalisé la première enquête universitaire 762 00:30:54,630 --> 00:30:56,386 sur la censure sur TikTok, 763 00:30:56,410 --> 00:30:59,416 concluant que l'entreprise utilise activement l'algorithme 764 00:30:59,446 --> 00:31:01,055 pour cacher les discours politiques 765 00:31:01,079 --> 00:31:02,706 qu'elle juge controversés. 766 00:31:02,945 --> 00:31:04,395 La recherche a été financée par le Ministère 767 00:31:04,419 --> 00:31:05,656 des Affaires Etrangères des Etats-Unis 768 00:31:05,680 --> 00:31:08,606 et a révélé que des vidéos contre le gouvernement russe 769 00:31:08,620 --> 00:31:12,075 ainsi que des hashtags sur les questions LGBTQI 770 00:31:12,100 --> 00:31:13,860 et la détention massive des Ouïghours 771 00:31:13,900 --> 00:31:15,873 étaient parmi celles qui étaient supprimées. 772 00:31:18,550 --> 00:31:20,601 - L'entreprise a coopéré avec les 773 00:31:20,625 --> 00:31:22,676 bureaux de la sécurité publique 774 00:31:22,700 --> 00:31:26,116 dans toute la Chine, y compris au Xinjiang. 775 00:31:26,140 --> 00:31:30,346 Et cela signifie qu'ils travaillent, 776 00:31:30,370 --> 00:31:33,216 ils coordonnent avec les agences gouvernementales 777 00:31:33,240 --> 00:31:36,716 pour s'assurer que l'espace d'information en Chine 778 00:31:36,740 --> 00:31:40,006 est rempli de cette propagande 779 00:31:40,030 --> 00:31:42,263 qui montre une image très positive 780 00:31:42,287 --> 00:31:44,520 de ce qui se passe au Xinjiang. 781 00:31:48,680 --> 00:31:51,336 - En 2018, l'ancien PDG de ByteDance 782 00:31:51,360 --> 00:31:53,406 a été obligé de s'excuser publiquement, 783 00:31:53,430 --> 00:31:55,536 disant que l'une des plateformes de l'entreprise 784 00:31:55,560 --> 00:31:57,486 était allée à l'encontre des valeurs 785 00:31:57,510 --> 00:31:59,436 socialistes fondamentales de la Chine. 786 00:31:59,460 --> 00:32:03,026 - Nous avons une déclaration publique très claire 787 00:32:03,050 --> 00:32:04,806 de la part du fondateur de ByteDance, 788 00:32:04,830 --> 00:32:08,123 qu'il s'est engagé à le faire et à 789 00:32:08,147 --> 00:32:11,440 s'assurer que l'entreprise continue 790 00:32:11,490 --> 00:32:15,356 à faire ce type de propagande, certainement en Chine. 791 00:32:15,380 --> 00:32:18,716 Si cela est ensuite étendu au reste du monde 792 00:32:18,740 --> 00:32:22,956 via des applications comme TikTok, est une autre question. 793 00:32:22,980 --> 00:32:25,223 Et c'est quelque chose qui vaut la peine d'être regardé. 794 00:32:26,230 --> 00:32:27,666 - Dans une déclaration, TikTok a dit, 795 00:32:27,690 --> 00:32:30,256 qu'il ne modère ni ne supprime aucun contenu 796 00:32:30,280 --> 00:32:32,126 en fonction des sensibilités politiques. 797 00:32:32,150 --> 00:32:34,556 Et n'a jamais contenu à la demande 798 00:32:34,580 --> 00:32:35,946 du gouvernement chinois. 799 00:32:35,970 --> 00:32:38,099 L'entreprise a également déclaré qu'elle embrassait la diversité 800 00:32:38,123 --> 00:32:41,046 et a nié toute discrimination à l'encontre d'un créateur 801 00:32:41,070 --> 00:32:42,983 ou d'une communauté sur sa plateforme. 802 00:32:46,770 --> 00:32:49,226 - Nous connaissons depuis une bonne partie de la décennie, 803 00:32:49,250 --> 00:32:51,186 tant ici aux États-Unis qu'en Australie, 804 00:32:51,210 --> 00:32:53,746 les préoccupations soulevées par la prédominance 805 00:32:53,770 --> 00:32:55,346 des entreprises de télécommunications chinoises. 806 00:32:55,370 --> 00:32:56,766 Donc la question suivante est devenue 807 00:32:56,790 --> 00:32:58,097 "qu'en est-il de toutes ces applications 808 00:32:58,121 --> 00:32:59,801 d'entreprises dont le siège social est en Chine ? 809 00:32:59,825 --> 00:33:00,902 JAMIL JAFFER - DIRECTEUR EXÉCUTIF 810 00:33:00,926 --> 00:33:02,067 DE L'INSTITUT DE SÉCURITÉ NATIONALE 811 00:33:02,091 --> 00:33:03,194 Ils collectent d'énormes quantités 812 00:33:03,218 --> 00:33:04,258 de données sur les utilisateurs. 813 00:33:04,282 --> 00:33:07,235 Ils ont accès aux appareils des particuliers. 814 00:33:07,480 --> 00:33:08,886 - Jamil Jaffer est le fondateur 815 00:33:08,910 --> 00:33:12,036 de l'Institut de sécurité nationale à Washington 816 00:33:12,060 --> 00:33:14,141 Il a également été conseiller du gouvernement 817 00:33:14,165 --> 00:33:16,056 américain en matière de cyber-sécurité. 818 00:33:16,080 --> 00:33:18,516 - En Chine, tout est entre les mains du gouvernement central, 819 00:33:18,540 --> 00:33:19,546 le Parti communiste. 820 00:33:19,570 --> 00:33:21,966 Il n'y a pas de séparation entre les branches. 821 00:33:21,990 --> 00:33:24,466 Donc, quand ces applications ont toutes ces données, 822 00:33:24,490 --> 00:33:26,324 c'est beaucoup plus facile pour le gouvernement chinois 823 00:33:26,348 --> 00:33:28,754 d'obtenir simplement l'accès à ces données. 824 00:33:31,360 --> 00:33:32,366 - D'après ce que j'ai compris, 825 00:33:32,390 --> 00:33:34,956 environ un quart de la population mondiale 826 00:33:34,980 --> 00:33:37,356 est membre de TikTok si je ne me trompe pas. 827 00:33:37,380 --> 00:33:39,636 Donc c'est évidemment une énorme quantité de données 828 00:33:39,660 --> 00:33:40,716 qui sont générées, 829 00:33:40,740 --> 00:33:45,040 qui sont remises gratuitement à ce seul réseau social 830 00:33:45,080 --> 00:33:48,880 qui a un contrôle total sur ce qu'il fait des données. 831 00:33:48,940 --> 00:33:52,915 Il pourrait les analyser pour générer du contenu personnalisé 832 00:33:52,940 --> 00:33:53,980 pour les utilisateurs, mais il 833 00:33:54,004 --> 00:33:55,220 pourrait aussi utiliser ces données 834 00:33:55,230 --> 00:33:58,066 pour offrir des produits et services technologiques 835 00:33:58,090 --> 00:34:01,096 à d'autres entreprises qui avancent dans le futur. 836 00:34:23,870 --> 00:34:25,516 - Salut, c'est Avani à Sydney. 837 00:34:25,540 --> 00:34:26,766 Comment ça va ? 838 00:34:26,790 --> 00:34:28,286 - Salut. 839 00:34:28,311 --> 00:34:29,765 - Anne Longfield est l'ancienne 840 00:34:29,789 --> 00:34:31,800 commissaire à l'enfance de l'Angleterre. 841 00:34:31,820 --> 00:34:33,690 - L'interview d'Anne, première prise. 842 00:34:33,700 --> 00:34:36,340 - Elle représente des millions d'enfants sur TikTok 843 00:34:36,380 --> 00:34:38,023 au Royaume-Uni et en Europe dans une 844 00:34:38,047 --> 00:34:39,690 action collective contre l'entreprise. 845 00:34:39,715 --> 00:34:42,801 - Ce que je reproche à TikTok actuellement, 846 00:34:42,826 --> 00:34:43,951 c'est qu'il collecte illégalement 847 00:34:43,975 --> 00:34:45,057 d'énormes quantités de données 848 00:34:45,081 --> 00:34:46,826 sans le consentement des enfants ou de leurs parents. 849 00:34:46,850 --> 00:34:47,959 ANNE LONGFIELD - COMMISSAIRE À 850 00:34:47,983 --> 00:34:49,280 L'ENFANCE DE L'ANGLETERRE 2015-2021 851 00:34:49,304 --> 00:34:52,096 Et ils ne donnent pas le bon niveau 852 00:34:52,120 --> 00:34:55,056 de transparence sur ce qui arrive à ces données, 853 00:34:55,080 --> 00:34:58,033 ou sur ce que ces données comprennent réellement. 854 00:35:01,640 --> 00:35:03,507 - Près d'un tiers des utilisateurs 855 00:35:03,531 --> 00:35:06,126 australiens de TikTok ont moins de 14 ans. 856 00:35:06,150 --> 00:35:07,321 Des avocats affirment que TikTok 857 00:35:07,345 --> 00:35:08,706 prend des informations personnelles 858 00:35:08,730 --> 00:35:10,125 comme les numéros de téléphone, les 859 00:35:10,149 --> 00:35:11,876 vidéos, les lieux et les données faciales 860 00:35:11,900 --> 00:35:13,936 des enfants sans leur consentement. 861 00:35:13,960 --> 00:35:17,456 Ainsi que les photos et vidéos enregistrées à l'aide de TikTok, 862 00:35:17,480 --> 00:35:18,765 mais qui n'ont pas été téléchargées 863 00:35:18,789 --> 00:35:20,109 ou enregistrées sur la plateforme. 864 00:35:21,220 --> 00:35:23,048 - Étant donné le niveau des données 865 00:35:23,072 --> 00:35:25,256 et le manque de transparence, 866 00:35:25,280 --> 00:35:27,671 il est difficile d'imaginer qu'il ne s'agit pas 867 00:35:27,695 --> 00:35:30,400 simplement d'un service de collecte d'informations, 868 00:35:30,450 --> 00:35:35,006 à peine voilé sous la forme d'une plateforme agréable, 869 00:35:35,030 --> 00:35:38,046 qui attire les jeunes enfants. 870 00:35:38,070 --> 00:35:43,840 Ainsi, la véritable motivation, si l'on y regarde de plus près, 871 00:35:43,877 --> 00:35:47,636 semble être de rassembler autant de données que possible 872 00:35:47,660 --> 00:35:50,500 pour pouvoir les monétiser. 873 00:35:53,220 --> 00:35:55,716 - TikTok a déjà reçu une amende de plusieurs millions de dollars 874 00:35:55,740 --> 00:35:57,435 aux États-Unis et en Corée du Sud pour 875 00:35:57,459 --> 00:35:59,153 avoir récolté les données des enfants. 876 00:36:01,330 --> 00:36:02,741 L'entreprise a restreint l'accès 877 00:36:02,765 --> 00:36:04,176 aux applications pour les enfants 878 00:36:04,200 --> 00:36:08,236 et a supprimé des millions de comptes d'utilisateurs mineurs. 879 00:36:08,260 --> 00:36:10,895 Il n'y a pas eu d'action en justice en Australie. 880 00:36:12,316 --> 00:36:14,942 - Je pense que les gouvernements ont une responsabilité 881 00:36:14,967 --> 00:36:17,853 d'intervenir pour s'assurer que les enfants 882 00:36:17,878 --> 00:36:19,053 sont protégés, quel que soit le type 883 00:36:19,077 --> 00:36:20,586 d'environnement dans lequel ils se trouvent. 884 00:36:20,610 --> 00:36:23,098 Et on voit ces protections et ces mesures 885 00:36:23,122 --> 00:36:25,360 en termes d'environnement physique, 886 00:36:25,420 --> 00:36:29,880 en termes de sécurité dans les communautés où ils vivent, 887 00:36:29,920 --> 00:36:31,766 dans les environnements où ils se trouvent. 888 00:36:31,790 --> 00:36:34,427 Mais cela n'a pas toujours été le cas en ligne. 889 00:36:34,460 --> 00:36:36,998 Et certains gouvernements ont lutté 890 00:36:37,022 --> 00:36:39,560 pour comprendre ce que cela signifie. 891 00:36:42,770 --> 00:36:44,294 - Si l'affaire aboutit, 892 00:36:44,318 --> 00:36:45,986 TikTok pourrait devoir payer les enfants 893 00:36:46,010 --> 00:36:47,429 du Royaume-Uni et d'Europe des 894 00:36:47,453 --> 00:36:49,206 milliards de dollars de compensation. 895 00:36:49,400 --> 00:36:50,866 TikTok se bat contre ce procès. 896 00:36:50,890 --> 00:36:52,493 Dans une déclaration, l'entreprise a dit : 897 00:36:52,517 --> 00:36:53,960 "La confidentialité et la sécurité 898 00:36:53,984 --> 00:36:55,736 sont des priorités absolues pour TikTok 899 00:36:55,760 --> 00:36:58,066 et nous avons des politiques et des processus solides, 900 00:36:58,090 --> 00:36:59,739 et des technologies en place pour 901 00:36:59,763 --> 00:37:01,776 aider à protéger tous les utilisateurs 902 00:37:01,800 --> 00:37:04,096 et nos utilisateurs adolescents en particulier. 903 00:37:04,120 --> 00:37:05,146 Nous pensons que les 904 00:37:05,171 --> 00:37:06,288 revendications ne sont pas fondées 905 00:37:06,312 --> 00:37:09,079 et avons l'intention de défendre vigoureusement l'action." 906 00:37:11,596 --> 00:37:13,972 Le gouvernement américain examine TikTok 907 00:37:13,997 --> 00:37:15,968 et n'a pas exclu une interdiction. 908 00:37:15,993 --> 00:37:17,406 - La vraie question que l'on se pose est : 909 00:37:17,430 --> 00:37:19,547 quelles sont les implications en matière de sécurité nationale ? 910 00:37:19,571 --> 00:37:21,942 D'accord, oui, beaucoup de gens l'utilisent, c'est vrai, 911 00:37:21,967 --> 00:37:23,188 mais en quoi cela est-il important ? 912 00:37:23,212 --> 00:37:25,563 Et ça compte, je pense, à cause de l'accès, 913 00:37:25,588 --> 00:37:27,688 ça donne accès à cette grande quantité de données. 914 00:37:28,330 --> 00:37:31,456 On ne pense jamais au gouvernement chinois à Pékin, 915 00:37:31,480 --> 00:37:34,176 qui a des vidéos de nous dans notre maison, 916 00:37:34,200 --> 00:37:36,976 à l'extérieur de chez soi, au parc avec ses enfants, 917 00:37:37,000 --> 00:37:38,400 sachant avec qui jouent ses enfants. 918 00:37:38,800 --> 00:37:40,706 Je veux dire, c'est ce qu'ils ont maintenant 919 00:37:40,730 --> 00:37:42,226 potentiellement avec cet ensemble de données. 920 00:37:42,250 --> 00:37:44,556 Nous avons vu maintenant deux présidents consécutifs 921 00:37:44,580 --> 00:37:45,656 signer des ordres exécutifs, 922 00:37:45,680 --> 00:37:48,016 indiquant clairement qu'ils sont très préoccupés 923 00:37:48,040 --> 00:37:50,089 par les implications de sécurité nationale 924 00:37:50,113 --> 00:37:51,960 de la collecte de données de TikTok. 925 00:37:52,289 --> 00:37:54,345 Ainsi que l'impact qu'il a sur la vie privée 926 00:37:54,369 --> 00:37:56,280 et les libertés civiles des Américains. 927 00:38:01,598 --> 00:38:03,622 - L'Inde a annoncé l'interdiction de TikTok. 928 00:38:04,090 --> 00:38:05,411 Et en juillet de l'année dernière, 929 00:38:05,435 --> 00:38:06,756 le Premier ministre Scott Morrison 930 00:38:06,780 --> 00:38:08,535 a ordonné un examen de l'application 931 00:38:08,559 --> 00:38:10,263 par les agences de renseignement. 932 00:38:11,531 --> 00:38:12,765 17 JUILLET 2020 933 00:38:12,790 --> 00:38:16,543 - Nous sommes toujours très conscients de ces risques 934 00:38:16,567 --> 00:38:20,366 et nous les surveillons toujours de très près. 935 00:38:20,390 --> 00:38:22,286 Et si nous considérons qu'il y a un besoin 936 00:38:22,310 --> 00:38:23,468 de prendre d'autres mesures que 937 00:38:23,492 --> 00:38:24,876 celles que nous prenons actuellement, 938 00:38:24,900 --> 00:38:27,300 alors je peux vous dire que nous n'hésiterons pas à le faire. 939 00:38:28,760 --> 00:38:31,056 - C'est certainement un problème de sécurité 940 00:38:31,080 --> 00:38:33,546 que les données des utilisateurs australiens 941 00:38:33,570 --> 00:38:36,766 sont potentiellement renvoyées à Pékin. 942 00:38:37,300 --> 00:38:39,820 TikTok affirme que ce n'est pas le cas. 943 00:38:39,850 --> 00:38:43,193 Et notre analyse a montré qu'il n'y a 944 00:38:43,217 --> 00:38:46,560 certainement pas un tuyau d'incendie 945 00:38:46,610 --> 00:38:50,056 de contenu qui est renvoyé à Pékin. 946 00:38:50,080 --> 00:38:51,426 Mais cela ne signifie pas 947 00:38:51,450 --> 00:38:53,546 qu'il est impossible d'accéder au contenu 948 00:38:53,570 --> 00:38:55,560 depuis Pékin, si cela est nécessaire. 949 00:38:55,860 --> 00:38:56,866 Comment vas-tu ? 950 00:38:56,914 --> 00:38:58,446 - Je vais bien, merci. Comment vas-tu ? 951 00:38:58,471 --> 00:39:00,776 TikTok affirme que les données des utilisateurs australiens 952 00:39:00,800 --> 00:39:03,466 sont conservées sur des serveurs aux États-Unis et à Singapour. 953 00:39:03,490 --> 00:39:06,960 Et qu'il n'a jamais fourni de données au gouvernement chinois. 954 00:39:08,520 --> 00:39:09,835 Les fonctionnaires des ministères 955 00:39:09,859 --> 00:39:11,076 de l'intérieur et de la défense 956 00:39:11,100 --> 00:39:12,608 ont été invités à ne pas utiliser 957 00:39:12,632 --> 00:39:14,056 TikTok sur leurs téléphones 958 00:39:14,080 --> 00:39:15,882 en raison des risques de sécurité. 959 00:39:16,510 --> 00:39:17,924 Mais Scott Morrison a déclaré qu'il 960 00:39:17,948 --> 00:39:19,236 n'y avait pas assez de preuves 961 00:39:19,260 --> 00:39:21,077 pour interdire TikTok en Australie. 962 00:39:21,820 --> 00:39:26,000 - La portée de l'enquête semble être assez limitée. 963 00:39:26,060 --> 00:39:30,172 Et cette portée n'est pas vraiment suffisante 964 00:39:30,196 --> 00:39:34,120 pour pouvoir dire au reste de l'Australie 965 00:39:34,220 --> 00:39:36,236 et aux citoyens australiens ordinaires 966 00:39:36,260 --> 00:39:39,826 si c'est une bonne idée pour eux d'utiliser cette application. 967 00:39:41,190 --> 00:39:43,913 - Il faut absolument procéder à un autre 968 00:39:43,937 --> 00:39:47,080 examen plus rigoureux et plus long de TikTok 969 00:39:47,110 --> 00:39:51,518 pour bien comprendre les risques qu'il présente. 970 00:39:52,139 --> 00:39:53,812 - Si l'on considère TikTok isolément 971 00:39:53,837 --> 00:39:55,723 et que l'on se dit qu'il ne s'agit que d'une application 972 00:39:55,747 --> 00:39:57,556 et que les enfants ne font que des vidéos de danse, 973 00:39:57,580 --> 00:39:58,876 cela semble inoffensif. 974 00:39:58,900 --> 00:40:01,746 Mais cela s'inscrit dans un contexte beaucoup plus large 975 00:40:01,770 --> 00:40:04,526 de collecte de données, d'intelligence artificielle 976 00:40:04,550 --> 00:40:06,132 et d'efforts réels de la part des 977 00:40:06,156 --> 00:40:08,086 Chinois pour consolider leur influence 978 00:40:08,110 --> 00:40:09,642 dans la région et dans le monde. 979 00:40:13,490 --> 00:40:14,982 - En seulement deux ans, 980 00:40:15,020 --> 00:40:17,915 TikTok s'est imposé comme l'application de choix 981 00:40:17,940 --> 00:40:20,056 pour des millions d'Australiens. 982 00:40:20,080 --> 00:40:21,506 - Vous n'avez pas arrêté de me dire de 983 00:40:21,530 --> 00:40:22,956 participer à l'émission The Voice 2021. 984 00:40:22,980 --> 00:40:25,486 Alors, je l'ai fait. 985 00:40:25,510 --> 00:40:26,966 Il y a de sérieuses inquiétudes 986 00:40:26,990 --> 00:40:30,446 que la version amusante et belle de la réalité de TikToks 987 00:40:30,470 --> 00:40:33,143 déforme la façon dont nous voyons le monde. 988 00:40:34,720 --> 00:40:36,852 Et des questions sur le fait que ses 989 00:40:36,876 --> 00:40:39,007 utilisateurs comprennent les risques. 990 00:40:41,320 --> 00:40:44,176 - Nous risquons donc vraiment d'avoir des générations 991 00:40:44,200 --> 00:40:46,346 de jeunes gens qui n'ont pas pu 992 00:40:46,370 --> 00:40:49,456 former leur propre identité de manière naturelle. 993 00:40:49,480 --> 00:40:51,748 Et au lieu de cela, ils ont formé des identités 994 00:40:51,772 --> 00:40:54,040 en réponse à quelque chose qu'une technologie 995 00:40:54,090 --> 00:40:56,069 ou une plateforme technologique prescrit 996 00:40:56,108 --> 00:40:58,348 comme étant la normale ou la nouvelle normale. 997 00:40:58,373 --> 00:41:00,339 - La dernière fois, une dame est venue me voir et m'a dit : 998 00:41:00,363 --> 00:41:01,836 "Tu n'as pas l'air suffisamment handicapé ". 999 00:41:01,860 --> 00:41:03,246 Je n'ai pas l'air suffisamment handicapé ? 1000 00:41:03,270 --> 00:41:05,564 - Je comprends que TikTok fait de son mieux 1001 00:41:05,589 --> 00:41:07,975 pour rendre la plateforme acceptable pour tous 1002 00:41:08,000 --> 00:41:12,770 en proposant des vidéos de danse et de synchronisation labiale. 1003 00:41:16,330 --> 00:41:18,986 Mais je sais que mon contenu apporte de la valeur 1004 00:41:19,010 --> 00:41:21,196 à tant de personnes qui me ressemblent, 1005 00:41:21,220 --> 00:41:23,916 qui vivent la même vie que moi. 1006 00:41:23,940 --> 00:41:25,635 Qui sont bruns comme moi. 1007 00:41:33,790 --> 00:41:38,016 - J'ai fini par arrêter TikTok après quelques mois. 1008 00:41:38,040 --> 00:41:42,560 Mais malgré ça, j'avais toujours des troubles de l'alimentation. 1009 00:41:42,590 --> 00:41:44,151 TikTok a en quelque sorte conduit 1010 00:41:44,175 --> 00:41:45,376 à ce stade de développement, 1011 00:41:45,400 --> 00:41:48,963 et il a fallu beaucoup, beaucoup de temps pour y remédier. 1012 00:41:50,278 --> 00:41:52,315 TikTok n'est pas là pour aider les gens. 1013 00:41:52,340 --> 00:41:53,756 Je ne pense pas que cela vienne au monde 1014 00:41:53,780 --> 00:41:55,436 avec cette intention d'aider les gens. 1015 00:41:55,460 --> 00:41:57,266 S'ils veulent gagner de l'argent avec quelque chose, 1016 00:41:57,290 --> 00:41:59,686 alors ils gagneront de l'argent avec quelque chose. 1017 00:42:00,160 --> 00:42:02,286 Je pense qu'ils doivent peut-être se rendre compte 1018 00:42:02,310 --> 00:42:04,210 de l'impact que cela a sur les gens.