1 00:00:02,000 --> 00:00:07,000 Downloaded from YTS.MX 2 00:00:08,000 --> 00:00:13,000 Official YIFY movies site: YTS.MX 3 00:00:19,183 --> 00:00:22,235 - TikTok è diventato davvero un modo 4 00:00:22,260 --> 00:00:23,700 per le giovani generazioni 5 00:00:23,740 --> 00:00:25,640 di esprimersi in ogni modo. 6 00:00:27,153 --> 00:00:29,716 Puoi essere te stesso, sei a casa, fai dei video, 7 00:00:29,740 --> 00:00:31,626 e ci sono sempre milioni 8 00:00:31,650 --> 00:00:33,076 di persone che ti guardano. 9 00:00:33,580 --> 00:00:35,242 Mi piace questo. Guardalo e vedi. 10 00:00:35,422 --> 00:00:37,294 Non sai mai quando potresti esplodere. 11 00:00:41,490 --> 00:00:43,076 - Penso che sia il sogno di ogni ragazzina 12 00:00:43,100 --> 00:00:45,087 quello di avere successo online. 13 00:00:45,570 --> 00:00:47,366 La piattaforma di social media Cinese, 14 00:00:47,390 --> 00:00:50,003 TikTok, ha cambiato internet. 15 00:00:51,110 --> 00:00:54,386 È diventata l'app più famosa al mondo. 16 00:00:54,410 --> 00:00:56,206 - Ci sono video di pesca, di cucina. 17 00:00:56,230 --> 00:00:58,096 Puoi fare degli sketch, cantare, ballare. 18 00:00:58,120 --> 00:01:00,867 Veramente tutto ciò a cui puoi pensare, è su TikTok. 19 00:01:05,580 --> 00:01:07,346 - Non è più un'app sul loro telefono. 20 00:01:07,370 --> 00:01:08,396 È la loro vita. 21 00:01:08,420 --> 00:01:10,206 È il modo in cui comunicano con i loro amici. 22 00:01:10,230 --> 00:01:11,676 È come vedono il loro mondo. 23 00:01:11,700 --> 00:01:14,016 Questa è una parte a cui non credo tutti 24 00:01:14,040 --> 00:01:15,313 si siano ancora adattati. 25 00:01:17,100 --> 00:01:20,586 - Rischiamo davvero di avere generazioni di giovani 26 00:01:20,610 --> 00:01:23,546 che assumono identità in risposta a qualcosa 27 00:01:23,570 --> 00:01:25,480 che una piattaforma tecnologica 28 00:01:25,492 --> 00:01:27,723 definisce come la nuova normalità. 29 00:01:29,290 --> 00:01:31,146 Dietro ai video scintillanti di danza, 30 00:01:31,170 --> 00:01:32,715 la piattaforma sta conducendo 31 00:01:32,739 --> 00:01:34,713 le persone lungo percorsi pericolosi. 32 00:01:36,170 --> 00:01:37,956 - Mi piace pensare che non avrei dovuto lottare 33 00:01:37,980 --> 00:01:40,389 con un disturbo alimentare se non avessi scaricato TikTok. 34 00:01:41,880 --> 00:01:43,146 - La mia accusa a TikTok 35 00:01:43,170 --> 00:01:47,186 è che stanno raccogliendo enormi quantità di dati illegalmente 36 00:01:47,210 --> 00:01:49,592 senza il consenso dei bambini o dei loro genitori. 37 00:01:51,030 --> 00:01:52,786 - Se consideri TikTok da solo, 38 00:01:52,810 --> 00:01:54,046 sembra innocuo. 39 00:01:54,070 --> 00:01:56,916 Ma il tutto si svolge in un contesto molto più ampio 40 00:01:56,940 --> 00:01:59,696 di raccolta dati, intelligenza artificiale, 41 00:01:59,720 --> 00:02:01,006 e un vero sforzo da parte dei Cinesi 42 00:02:01,030 --> 00:02:04,523 per consolidare l'influenza nel paese e in tutto il mondo. 43 00:02:06,190 --> 00:02:08,596 - Stasera su Four Corners, TikTok. 44 00:02:08,620 --> 00:02:11,296 In un'indagine congiunta con Hack su Triple J, 45 00:02:11,320 --> 00:02:13,096 andremo nella tana del lupo 46 00:02:13,120 --> 00:02:15,216 per rivelare il lato oscuro dell'app. 47 00:02:15,240 --> 00:02:17,726 Come la piattaforma censura i contenuti politici 48 00:02:17,750 --> 00:02:20,086 e raccoglie i dati dei bambini. 49 00:02:20,110 --> 00:02:23,926 E come il potente algoritmo dell'app espone le persone 50 00:02:23,950 --> 00:02:26,813 alla disinformazione e a contenuti pericolosi. 51 00:02:35,700 --> 00:02:37,496 - Ciao, mi chiamo Rory Eliza. 52 00:02:37,520 --> 00:02:38,965 E poi cosa? 53 00:02:40,456 --> 00:02:42,116 E cosa fai? 54 00:02:42,140 --> 00:02:43,888 - Sono una TikToker a tempo pieno. 55 00:02:53,290 --> 00:02:54,666 Quindi, al mattino mi sveglio, 56 00:02:54,690 --> 00:02:55,986 verso le otto, le nove. 57 00:02:56,010 --> 00:02:57,266 Controllo il mio telefono, 58 00:02:57,290 --> 00:02:59,003 controllo se i miei video sono andati bene, 59 00:02:59,028 --> 00:03:00,535 RORY ELIZA @roryeliza, 5.1 MILIONI DI FOLLOWER 60 00:03:00,559 --> 00:03:02,282 o come stanno reagendo i miei follower 61 00:03:02,307 --> 00:03:04,358 al contenuto che ho appena pubblicato. 62 00:03:07,100 --> 00:03:09,780 Su TikTok onestamente, mi amano molto. 63 00:03:09,810 --> 00:03:12,176 È molto strano perché TikTok è la mia piattaforma più grande, 64 00:03:12,200 --> 00:03:13,776 con 5 milioni di follower. 65 00:03:13,800 --> 00:03:16,366 È pazzesco pensare che 5 milioni di persone, 66 00:03:16,390 --> 00:03:18,416 sono persone, non è solo un numero. 67 00:03:18,440 --> 00:03:20,256 E se ci pensi davvero sono 5 milioni di persone 68 00:03:20,280 --> 00:03:21,760 che hanno premuto il pulsante "Segui". 69 00:03:23,270 --> 00:03:24,532 Sono tutti molto amichevoli e 70 00:03:24,556 --> 00:03:25,696 sono un po' come la tua famiglia. 71 00:03:25,720 --> 00:03:27,523 È strano, è come se tu non conoscessi queste persone, 72 00:03:27,547 --> 00:03:29,256 ma loro sanno tantissimo di te 73 00:03:29,280 --> 00:03:31,521 e ti trattano come un membro della famiglia. 74 00:03:43,790 --> 00:03:46,803 E su questa nota, benvenuta alla nuova Rory Eliza. 75 00:03:47,940 --> 00:03:49,836 Rory Eliza è una dei milioni 76 00:03:49,860 --> 00:03:51,214 di giovani Australiani che 77 00:03:51,226 --> 00:03:53,066 filmano praticamente ogni momento 78 00:03:53,090 --> 00:03:55,706 della loro vita per diventare famosi su TikTok. 79 00:03:55,730 --> 00:03:57,506 - Preparatevi con me per un appuntamento. 80 00:03:57,530 --> 00:03:58,956 Ho scelto un vestito, andiamo. 81 00:03:58,980 --> 00:04:00,726 Transizione, sì. 82 00:04:00,750 --> 00:04:02,526 Quindi, penso che sia il sogno di ogni ragazzina 83 00:04:02,550 --> 00:04:04,816 quello di avere successo online. 84 00:04:04,840 --> 00:04:08,156 Quindi, penso che ci sia sicuramente un gruppo 85 00:04:08,180 --> 00:04:10,316 che vogliono tutti essere influencer 86 00:04:10,340 --> 00:04:11,766 perché è un po' la moda del momento. 87 00:04:11,790 --> 00:04:13,496 E penso che sia a causa di TikTok. 88 00:04:14,380 --> 00:04:15,740 - TikTok è stato scaricato 89 00:04:15,750 --> 00:04:18,703 più di 3 miliardi di volte in tutto il mondo. 90 00:04:21,750 --> 00:04:23,757 È diventato un fenomeno culturale. 91 00:04:23,782 --> 00:04:26,163 Ho 21 anni e ho appena imparato a fare il bucato da sola. 92 00:04:26,250 --> 00:04:28,576 Alcuni pomodori e un po' di formaggio. 93 00:04:28,600 --> 00:04:31,360 Amico, no, devi andare come, ehi. 94 00:04:32,420 --> 00:04:33,593 Oh, ok, ok. ok. 95 00:04:38,510 --> 00:04:40,610 Tutto sta nel diventare virali. 96 00:04:41,890 --> 00:04:43,446 Il balletto, iniziato da qualcuno 97 00:04:43,470 --> 00:04:46,178 nel suo salotto e caricato su TikTok, 98 00:04:47,760 --> 00:04:49,916 può trasformarsi in uno stadio pieno di gente, 99 00:04:49,940 --> 00:04:51,626 che lo eseguono all'unisono. 100 00:04:58,205 --> 00:05:00,136 - Mi piace il fatto che puoi essere creativa. 101 00:05:00,160 --> 00:05:02,333 E' molto divertente andare su quell'app 102 00:05:02,357 --> 00:05:04,178 ed esprimere semplicemente te stessa. 103 00:05:14,010 --> 00:05:16,666 Rory ha iniziato a pubblicare sketch comici su TikTok 104 00:05:16,690 --> 00:05:18,193 e ha avuto tantissimo seguito. 105 00:05:19,130 --> 00:05:21,867 - Nessun problema. Lo esaminerò subito per te. 106 00:05:22,740 --> 00:05:24,476 Questo è stato il suo primo video virale. 107 00:05:24,500 --> 00:05:26,786 Ha ottenuto quasi 14 milioni di visualizzazioni. 108 00:05:31,090 --> 00:05:33,677 - Che ne dici di un'anatra alla Pechinese? 109 00:05:33,910 --> 00:05:36,856 Oh sì, ma in realtà non abbiamo l'anatra alla Pechinese. 110 00:05:36,880 --> 00:05:38,626 Ma abbiamo quest'oca furtiva. 111 00:05:38,650 --> 00:05:40,142 Che nome strano. 112 00:05:40,166 --> 00:05:42,796 È abbastanza normale per un libro. 113 00:05:42,820 --> 00:05:46,056 Nel 2019, Rory ha deciso di lasciare la scuola 114 00:05:46,080 --> 00:05:48,206 per diventare una TikToker a tempo pieno. 115 00:05:48,630 --> 00:05:50,663 - Aspetta, aspetta, questa è una biblioteca? 116 00:05:51,550 --> 00:05:52,655 La scuola era semplicemente una di 117 00:05:52,667 --> 00:05:53,947 quelle cose in cui non ero brava. 118 00:05:54,360 --> 00:05:57,196 Ho deciso di lasciare la scuola quando avevo 11 anni 119 00:05:57,220 --> 00:05:58,576 e non ci andavo mai, sai? 120 00:05:58,600 --> 00:06:00,376 Ero sempre a Sydney a fare riunioni 121 00:06:00,400 --> 00:06:02,566 o presentazioni per TikTok. 122 00:06:02,590 --> 00:06:04,616 Semplicemente non ci andavo. E quando andavo a scuola, 123 00:06:04,640 --> 00:06:06,516 Non avevo idea di cosa stavano facendo. 124 00:06:06,540 --> 00:06:09,133 Perché ero stata via per un mucchio di giorni. 125 00:06:10,480 --> 00:06:11,845 Nessun problema. Grazie per essere 126 00:06:11,857 --> 00:06:13,116 venuta nella nostra biblioteca. 127 00:06:13,140 --> 00:06:14,998 - Scuola, puoi farla al TAFE. Puoi tornare indietro 128 00:06:15,022 --> 00:06:17,066 in qualsiasi momento e frequentarla se ne hai bisogno. 129 00:06:17,090 --> 00:06:19,146 Ma potresti non avere mai più questa opportunità. 130 00:06:19,170 --> 00:06:20,305 Quindi, abbiamo pensato che valesse 131 00:06:20,329 --> 00:06:21,629 la pena lasciare la scuola e perseguire 132 00:06:21,653 --> 00:06:23,886 tutte le opportunità di business mentre si trovavano lì per lei. 133 00:06:23,910 --> 00:06:25,263 - Nessun problema. Grazie per essere 134 00:06:25,275 --> 00:06:26,515 venuta nella nostra biblioteca. 135 00:06:26,720 --> 00:06:28,688 - Che ne pensi che 5 milioni di persone 136 00:06:28,712 --> 00:06:30,486 guardano i suoi contenuti? 137 00:06:30,510 --> 00:06:31,732 - È incredibile. Quando va in live, 138 00:06:31,756 --> 00:06:33,487 c'è stato un giorno in cui ha fatto una diretta 139 00:06:33,511 --> 00:06:34,671 DANIEL - PAPA' DI RORY 140 00:06:34,696 --> 00:06:37,152 e aveva 22.000 persone che la guardavano nella sua stanza. 141 00:06:37,177 --> 00:06:38,499 E la mia mente è tornata ad un concerto 142 00:06:38,523 --> 00:06:40,398 di Elton John in quel momento. E aveva più persone che 143 00:06:40,422 --> 00:06:42,476 la guardavano lei rispetto a quel concerto di Elton John. 144 00:06:42,500 --> 00:06:44,266 E ho pensato, sta accadendo 145 00:06:44,290 --> 00:06:46,376 nella camera di mia figlia in questo momento. 146 00:06:46,400 --> 00:06:49,889 E' stato un po' sì, strano. 147 00:06:50,152 --> 00:06:51,432 PREPARATEVI CON ME A FESTEGGIARE 148 00:06:54,170 --> 00:06:56,306 - Grandi marchi di moda e cosmetici 149 00:06:56,330 --> 00:06:59,166 hanno iniziato a notare il successo di Rory su TikTok 150 00:06:59,190 --> 00:07:01,593 e hanno voluto attingere al suo pubblico in crescita. 151 00:07:07,189 --> 00:07:09,346 Le aziende sponsorizzano influencer come Rory 152 00:07:09,370 --> 00:07:13,123 e pagano TikTok per fare pubblicità sulla piattaforma. 153 00:07:14,720 --> 00:07:17,593 Questo è il fulcro del modello lucrativo di business dell'app. 154 00:07:19,150 --> 00:07:21,266 - In questo settore lavorativo per essere un influencer, 155 00:07:21,290 --> 00:07:23,476 devi presentarti come un marchio. 156 00:07:23,500 --> 00:07:25,606 Non siamo più persone, siamo marchi. 157 00:07:25,630 --> 00:07:26,966 Vendiamo prodotti per i marchi. 158 00:07:26,990 --> 00:07:28,790 Quindi, devi avere l'aspetto giusto. 159 00:07:32,110 --> 00:07:34,534 I soldi coinvolti sono sufficienti per vivere. 160 00:07:34,558 --> 00:07:36,875 Quindi, è una quantità abbastanza ragionevole. 161 00:07:36,900 --> 00:07:38,456 Sono nella fascia di reddito medio alta 162 00:07:38,480 --> 00:07:39,966 in Australia. 163 00:07:39,990 --> 00:07:41,589 Quindi sì. Molto, molto bene. 164 00:07:42,640 --> 00:07:44,286 - Beh, è ​​difficile non essere gelosi a volte 165 00:07:44,310 --> 00:07:46,056 perché guardi alla nostra vita, 166 00:07:46,080 --> 00:07:48,630 ci alziamo e andiamo a lavorare e torniamo a casa. 167 00:07:49,820 --> 00:07:51,286 E lei può guadagnare soldi in pochi minuti 168 00:07:51,310 --> 00:07:53,736 che per noi possono volerci giorni per guadagnarli. 169 00:07:53,761 --> 00:07:54,807 DISCORSO SERIO 170 00:07:54,831 --> 00:07:56,566 - Mi sono ritrovata a guidare e a piangere, 171 00:07:56,590 --> 00:07:58,706 ho avuto un crollo totale. 172 00:07:58,730 --> 00:07:59,896 E mi sono ritrovata ad avere 173 00:07:59,920 --> 00:08:02,246 alcuni pensieri davvero sgradevoli e- 174 00:08:02,270 --> 00:08:05,606 - Rory condivide la sua vita con 5 milioni di persone. 175 00:08:05,630 --> 00:08:07,478 Anche i suoi momenti più tristi. 176 00:08:07,502 --> 00:08:09,034 - Perché sono su questa terra? 177 00:08:09,058 --> 00:08:11,666 Tipo, perché non piaccio a nessuno? 178 00:08:11,690 --> 00:08:13,303 Perché non ho amici? 179 00:08:14,670 --> 00:08:17,499 Ma la maggior parte dei giorni si sente molto sola. 180 00:08:17,523 --> 00:08:19,326 - Ok. Questo è un vecchio nome per, 181 00:08:19,350 --> 00:08:22,216 Stare lontano dalle persone, mi fa sentire sola. 182 00:08:22,240 --> 00:08:24,176 Registro quattro video al giorno. 183 00:08:24,200 --> 00:08:25,818 Impiego tre ore della mia giornata. 184 00:08:25,860 --> 00:08:27,140 E poi ho altre otto ore 185 00:08:27,151 --> 00:08:28,497 e penso, che diavolo faccio 186 00:08:28,540 --> 00:08:30,452 per il resto del giorno? Non posso chiamare i miei amici 187 00:08:30,476 --> 00:08:32,565 per dire tipo "volete uscire?" perché sono al lavoro. 188 00:08:32,590 --> 00:08:34,246 Quindi a volte ci si sente sicuramente soli. 189 00:08:34,270 --> 00:08:35,766 E sai, a volte se leggi 190 00:08:35,790 --> 00:08:38,046 i commenti di odio, il carico di stress, 191 00:08:38,070 --> 00:08:39,426 può essere davvero tanto per il tuo corpo 192 00:08:39,450 --> 00:08:41,896 e ti senti sopraffatta e sei sola. 193 00:08:41,920 --> 00:08:44,024 Quindi questo può anche portarti alla depressione. 194 00:08:44,048 --> 00:08:45,334 - Catherine non ha avuto una domanda. 195 00:08:45,358 --> 00:08:47,993 Sono felice di tornare da te, ma cerchiamo di essere civili. 196 00:08:48,017 --> 00:08:49,017 Andrew? 197 00:08:50,900 --> 00:08:51,900 Catherine. 198 00:08:52,528 --> 00:08:54,208 POV HAI 6 ANNI 199 00:08:55,900 --> 00:08:58,146 Con le persone bloccate in casa durante il lockdown, 200 00:08:58,170 --> 00:08:59,936 alla disperata ricerca di intrattenimento. 201 00:08:59,960 --> 00:09:03,700 TikTok è diventata l'app più scaricata al mondo nel 2020. 202 00:09:07,050 --> 00:09:09,819 E ha continuato a detenere quel titolo quest'anno. 203 00:09:13,212 --> 00:09:17,456 - TikTok in Australia ha avuto lo stesso tipo di impatto 204 00:09:17,480 --> 00:09:19,703 nel 2020 così come nel resto del mondo. 205 00:09:23,320 --> 00:09:24,694 Ad Ottobre del 2020, c'erano circa 206 00:09:24,706 --> 00:09:26,013 2,5 milioni di utenti su TikTok. 207 00:09:26,038 --> 00:09:27,124 Cioè una crescita di circa il 50% 208 00:09:27,136 --> 00:09:28,139 rispetto all'inizio dell'anno. 209 00:09:28,163 --> 00:09:30,043 DOTT. BONDY KAYE - RICERCATORE DI MEDIA DIGITALI 210 00:09:41,903 --> 00:09:43,562 Delle popolari app di social media, 211 00:09:43,587 --> 00:09:45,585 TikTok è il più coinvolgente. 212 00:09:46,070 --> 00:09:47,603 I dati pubblicitari trapelati su TikTok 213 00:09:47,615 --> 00:09:49,006 mostrano che gli utenti trascorrono 214 00:09:49,030 --> 00:09:52,253 una media di un'ora e mezza al giorno sull'app. 215 00:09:54,310 --> 00:09:56,728 - Sai, sono tipo le 20:00 e continuo a guardare e guardare 216 00:09:56,752 --> 00:09:59,256 e poi guardo l'orologio e sono le 2:00. 217 00:09:59,474 --> 00:10:01,434 E penso, come diavolo sono passate queste ore? 218 00:10:01,460 --> 00:10:03,420 È perché questa pagina "Per te" è davvero coinvolgente. 219 00:10:03,430 --> 00:10:05,214 È proprio azzeccato. 220 00:10:09,188 --> 00:10:11,988 L'algoritmo di TikTok è il suo punto di forza. 221 00:10:14,650 --> 00:10:17,336 È progettato per determinare i tuoi interessi 222 00:10:17,360 --> 00:10:19,446 e inviarti contenuti personalizzati 223 00:10:19,470 --> 00:10:21,915 per tenerti sull'app il più a lungo possibile. 224 00:10:21,940 --> 00:10:23,227 - Sono andata a trovare mia madre. 225 00:10:23,251 --> 00:10:25,266 E sono andata anche a farmi i capelli, semplicemente per- 226 00:10:25,290 --> 00:10:28,696 - TikTok ti consiglia dei contenuti 227 00:10:28,720 --> 00:10:31,016 attraverso la tua attività sull'app. 228 00:10:31,040 --> 00:10:33,546 Quindi più scorri l'app, 229 00:10:33,570 --> 00:10:35,216 migliori sono i consigli personalizzati 230 00:10:35,240 --> 00:10:36,823 rispetto ai tuoi interessi specifici. 231 00:10:37,890 --> 00:10:40,846 Piuttosto che selezionare il contenuto che vuoi guardare 232 00:10:40,870 --> 00:10:43,271 come si fa su YouTube o su Netflix. 233 00:10:43,640 --> 00:10:45,637 Principalmente accedi ai contenuti 234 00:10:45,649 --> 00:10:47,256 tramite un feed principale, 235 00:10:47,280 --> 00:10:49,225 che si chiama Pagina "Per te" su TikTok. 236 00:10:49,490 --> 00:10:51,976 Che è essenzialmente solo uno scorrere infinito, 237 00:10:52,000 --> 00:10:55,306 feed di video curati algoritmicamente 238 00:10:55,330 --> 00:10:57,583 che si aggiornano ogni volta che apri l'app. 239 00:10:58,987 --> 00:11:00,736 Non appena ti iscrivi a TikTok, 240 00:11:00,760 --> 00:11:02,516 l'app inizia a raccogliere dati 241 00:11:02,540 --> 00:11:05,716 su di te, la tua posizione, sesso ed età, 242 00:11:05,740 --> 00:11:07,544 e anche i tuoi dati per il riconoscimento 243 00:11:07,556 --> 00:11:08,766 facciale per capire chi sei 244 00:11:08,790 --> 00:11:10,903 e che tipo di video vuoi vedere. 245 00:11:11,770 --> 00:11:13,571 - Il tuo viso è una forma di informazione biometrica. 246 00:11:13,595 --> 00:11:15,759 E il tuo viso può essere analizzato 247 00:11:15,771 --> 00:11:17,343 per distinguere una serie 248 00:11:17,368 --> 00:11:19,415 di tratti demografici e di personalità. 249 00:11:19,440 --> 00:11:20,673 DOTT. NIELS WOUTERS - RICERCATORE 250 00:11:20,685 --> 00:11:21,805 IN INTERAZIONE UOMO-COMPUTER 251 00:11:24,630 --> 00:11:26,809 TikTok raccoglie i tuoi dati per il riconoscimento facciale 252 00:11:26,833 --> 00:11:29,786 ogni volta che fai un video o utilizzi un filtro sull'app. 253 00:11:29,810 --> 00:11:33,856 E puo' persino accedere a foto e video salvati sul tuo telefono 254 00:11:33,880 --> 00:11:35,970 che non vengono utilizzati sulla piattaforma. 255 00:11:36,720 --> 00:11:40,726 Per capire come un'app come TikTok interpreta quei dati, 256 00:11:40,750 --> 00:11:42,696 degli scienziati a Melbourne hanno sviluppato 257 00:11:42,720 --> 00:11:44,746 quello che viene chiamato uno specchio biometrico. 258 00:11:45,200 --> 00:11:46,906 - Quindi, lo specchio biometrico per esempio, 259 00:11:46,930 --> 00:11:49,526 è programmato tramite l'intelligenza artificiale 260 00:11:49,550 --> 00:11:51,506 per distinguere quanto sei intelligente, 261 00:11:51,530 --> 00:11:54,636 quanto sei attraente, quanto sei strano, quanto sei responsabile 262 00:11:54,660 --> 00:11:57,763 e quanto sei emotivamente instabile. 263 00:11:58,940 --> 00:12:00,406 La cosa interessante è, che ovviamente, 264 00:12:00,430 --> 00:12:02,796 lo specchio biometrico basa le sue ipotesi 265 00:12:02,828 --> 00:12:05,155 su una singola istantanea del tuo viso. 266 00:12:05,180 --> 00:12:07,976 Quindi tutte queste ipotesi sono generate in base 267 00:12:08,000 --> 00:12:10,646 all'esatto aspetto del tuo viso 268 00:12:10,670 --> 00:12:13,693 in quell'esatto microsecondo in cui è stata scattata la foto. 269 00:12:14,874 --> 00:12:17,396 L'algoritmo di TikTok riesce a leggere la tua faccia 270 00:12:17,420 --> 00:12:19,946 e pensare che stai affrontando 271 00:12:19,970 --> 00:12:22,496 una significativa sfida di salute mentale. 272 00:12:22,520 --> 00:12:25,386 Potrebbero esserti presentati dei video 273 00:12:25,410 --> 00:12:27,766 che vengono creati dagli utenti che stanno attraversando 274 00:12:27,790 --> 00:12:29,986 una sfida simile in quel momento. 275 00:12:30,010 --> 00:12:32,227 E potrebbe davvero creare una visione 276 00:12:32,239 --> 00:12:34,116 del mondo molto colorata per te 277 00:12:34,140 --> 00:12:35,556 dove è davvero difficile affrontare 278 00:12:35,580 --> 00:12:37,756 la tua sfida di salute mentale in quel momento. 279 00:12:45,020 --> 00:12:47,676 Lauren Hemings sta studiando per diventare ostetrica. 280 00:12:47,700 --> 00:12:49,584 Ha passato la pausa dall'università 281 00:12:49,608 --> 00:12:51,305 su TikTok. 282 00:12:51,920 --> 00:12:53,936 - Penso che fosse la noia da quarantena 283 00:12:53,960 --> 00:12:56,903 che mi ha motivata a scaricarlo. 284 00:12:57,990 --> 00:12:59,316 Era una speranza innocente 285 00:12:59,340 --> 00:13:01,416 di farmi una bella risata, davvero. 286 00:13:01,440 --> 00:13:03,466 Sai, guardare dei video divertenti 287 00:13:03,490 --> 00:13:05,673 e sapere di cosa si trattasse su questa app. 288 00:13:06,910 --> 00:13:08,176 Non ho mai avuto l'intenzione 289 00:13:08,200 --> 00:13:09,756 di creare TikTok o condividerli. 290 00:13:09,780 --> 00:13:13,085 Più che altro dal punto di vista di uno spettatore. 291 00:13:13,860 --> 00:13:15,086 Lauren ha iniziato a seguire 292 00:13:15,110 --> 00:13:17,719 una famosa influencer di fitness sull'app. 293 00:13:20,140 --> 00:13:24,476 - C'era una donna che aveva un tipo di corpo abbastanza simile 294 00:13:24,500 --> 00:13:28,526 al mio e lei diceva che era infelice 295 00:13:28,550 --> 00:13:29,633 con quel tipo di corpo. 296 00:13:30,810 --> 00:13:33,176 E aveva iniziato a monitorare le calorie durante la quarantena. 297 00:13:33,200 --> 00:13:36,043 Aveva perso una quantità di peso davvero, davvero significativa. 298 00:13:36,204 --> 00:13:38,270 HIT ESTATE 2021 ANDIAMO BABY! 299 00:13:39,300 --> 00:13:41,346 L'algoritmo ha quindi inondato il suo feed 300 00:13:41,370 --> 00:13:42,553 con contenuti che promuovevano 301 00:13:42,577 --> 00:13:44,277 la perdita di peso in maniera non salutare. 302 00:13:44,441 --> 00:13:45,441 16° GIORNO 303 00:13:46,370 --> 00:13:48,556 - Non vedevo più video divertenti di danza o altro. 304 00:13:48,580 --> 00:13:50,776 Era un focus completo 305 00:13:50,800 --> 00:13:54,514 sul fitness e sullo stile di vita sano. 306 00:13:54,539 --> 00:13:55,868 POSIZIONE DI PLANK PER 30 SECONDI 307 00:13:55,893 --> 00:13:57,513 SOLLEVAMENTI DELLE GAMBE 30 PER OGNI LATO 308 00:13:57,538 --> 00:13:58,779 PASTA CREMOSA AL POLLO, 529 CALORIE 309 00:13:58,803 --> 00:14:01,406 - TikTok ha spinto Lauren verso la tendenza popolare 310 00:14:01,430 --> 00:14:03,457 di monitorare meticolosamente quante 311 00:14:03,469 --> 00:14:05,343 calorie si mangiano in un giorno. 312 00:14:06,330 --> 00:14:07,940 Qualcosa che gli studiosi avvertono che 313 00:14:07,952 --> 00:14:09,493 favorisca un'alimentazione sbagliata. 314 00:14:09,518 --> 00:14:10,693 FRUTTA + NUTELLA, 202 CALORIE 315 00:14:10,890 --> 00:14:12,786 L'hashtag "Cosa mangio in un giorno" 316 00:14:12,810 --> 00:14:15,705 ha più di 7 miliardi di visualizzazioni su TikTok. 317 00:14:15,730 --> 00:14:17,001 INSALATONA 318 00:14:17,204 --> 00:14:18,496 PATATINE DAVVERO DELIZIOSE 319 00:14:18,520 --> 00:14:20,096 - Si è trasformata in ossessione 320 00:14:20,120 --> 00:14:23,536 e sentivo che non potevo mangiare niente 321 00:14:23,560 --> 00:14:26,566 senza sapere quante calorie conteneva 322 00:14:26,590 --> 00:14:28,836 e senza raggiungere, il mio obiettivo 323 00:14:28,860 --> 00:14:30,376 di calorie giornaliero. 324 00:14:30,400 --> 00:14:32,556 Ci sono stati alcuni mesi in cui non ho messo niente 325 00:14:32,580 --> 00:14:34,713 nella mia bocca senza averlo prima pesato. 326 00:14:34,974 --> 00:14:36,166 OSTETRICA 327 00:14:36,190 --> 00:14:38,396 Quattro mesi dopo aver scaricato TikTok, 328 00:14:38,420 --> 00:14:40,676 Lauren ha ammesso ai suoi amici e alla sua famiglia 329 00:14:40,700 --> 00:14:42,377 di avere un disturbo alimentare. 330 00:14:43,040 --> 00:14:44,846 - Mi piace pensare che non avrei dovuto lottare 331 00:14:44,870 --> 00:14:47,196 con un disturbo alimentare se non avessi scaricato TikTok. 332 00:14:47,220 --> 00:14:48,276 Penso che TikTok 333 00:14:48,300 --> 00:14:50,189 è stato la principale causa dello 334 00:14:50,201 --> 00:14:51,621 sviluppo di questo problema. 335 00:14:51,646 --> 00:14:53,486 QUALCUNO HA QUALCHE CONSIGLIO PER LA DIETA DELL'ACQUA? 336 00:14:53,510 --> 00:14:56,196 I giovani utenti si rivolgono sempre più a TikTok 337 00:14:56,220 --> 00:14:57,696 per trovare e diffondere 338 00:14:57,708 --> 00:15:00,126 informazioni su come limitare il cibo 339 00:15:00,150 --> 00:15:02,498 e nascondono i loro disordini alimentari alle loro famiglie. 340 00:15:02,522 --> 00:15:04,266 Qualcuno vuole fare un digiuno di 3 giorni con me? 341 00:15:04,290 --> 00:15:06,956 - Quello che fanno è condividere effettivamente i contenuti 342 00:15:06,980 --> 00:15:08,608 di quello che hanno passato e quello 343 00:15:08,620 --> 00:15:10,216 che hanno fatto durante la giornata 344 00:15:10,240 --> 00:15:11,953 per il fascino di dimagrire. 345 00:15:12,644 --> 00:15:14,130 Quindi condividono le ricette. 346 00:15:14,155 --> 00:15:15,896 DR SUKU SUKUNESAN - RICERCATORE SUI SOCIAL MEDIA 347 00:15:15,920 --> 00:15:17,699 Condividono delle diete. 348 00:15:17,724 --> 00:15:19,995 Condividono come devi essere disciplinato. 349 00:15:20,020 --> 00:15:23,660 Qualcuno che è vulnerabile e disperato, 350 00:15:23,690 --> 00:15:26,326 potrebbe seguire il consiglio di chiunque. 351 00:15:26,350 --> 00:15:28,346 Nessuno di questi consigli è effettivamente buono 352 00:15:28,370 --> 00:15:31,436 perché alcuni di questi consigli sono, oh lecca una zucca 353 00:15:31,460 --> 00:15:33,851 per pranzo, ma non mangiarla. 354 00:15:34,640 --> 00:15:37,013 Bevi un litro d'acqua e dovresti stare bene. 355 00:15:37,940 --> 00:15:39,659 - Avevo molti dubbi nel registrarmi su TikTok perché 356 00:15:39,683 --> 00:15:41,362 avevo sentito dire che era un social media davvero 357 00:15:41,386 --> 00:15:42,996 brutto per le persone con disturbi alimentari. 358 00:15:43,020 --> 00:15:45,046 Perché l'algoritmo sa tutto 359 00:15:45,070 --> 00:15:46,956 e poi influenza il tuo feed 360 00:15:46,980 --> 00:15:48,700 per farti interessare a quel genere di cose. 361 00:15:49,480 --> 00:15:51,946 Claire Benstead è entrata ed uscita dall'ospedale 362 00:15:51,970 --> 00:15:54,544 a causa dell'anoressia per più di cinque anni. 363 00:15:54,630 --> 00:15:56,386 Ha deciso di scaricare TikTok 364 00:15:56,410 --> 00:15:58,121 per trovare supporto e promuovere 365 00:15:58,133 --> 00:15:59,653 la sua attività di orecchini. 366 00:16:00,130 --> 00:16:01,776 - Vuoi quel supporto 367 00:16:01,800 --> 00:16:03,366 perché è una malattia molto isolante. 368 00:16:03,390 --> 00:16:04,806 E ci sono tante persone nella mia vita 369 00:16:04,830 --> 00:16:06,966 che non ci arrivano e non lo capiscono. 370 00:16:06,990 --> 00:16:09,326 Claire afferma che l'algoritmo di TikTok ha capito 371 00:16:09,350 --> 00:16:11,596 che lei aveva un disturbo alimentare e notò 372 00:16:11,620 --> 00:16:15,476 una modifica immediata della tipologia di video sul suo feed. 373 00:16:15,500 --> 00:16:16,726 - Quindi è passato dall'essere, 374 00:16:16,750 --> 00:16:18,766 il mio algoritmo era umorismo Australiano 375 00:16:18,790 --> 00:16:20,306 e l'umorismo del teatro musicale, 376 00:16:20,318 --> 00:16:21,576 e tutto quel genere di cose 377 00:16:21,600 --> 00:16:23,407 e i contenuti passarono ad essere di 378 00:16:23,419 --> 00:16:25,386 disturbi alimentare per tutto il tempo. 379 00:16:25,410 --> 00:16:28,461 E mentre mi ammalavo di più e diventavo più ossessiva, 380 00:16:28,485 --> 00:16:31,126 tutto quello che potevo fare era semplicemente 381 00:16:31,150 --> 00:16:33,732 guardare il mio telefono, e questi filmati. 382 00:16:34,260 --> 00:16:37,116 Ho passato ore su di esso e mi sono semplicemente fissata. 383 00:16:37,140 --> 00:16:38,527 Non mi stavo affatto riprendendo. 384 00:16:38,552 --> 00:16:40,145 Ci stavo ricadendo attivamente. 385 00:16:40,560 --> 00:16:42,296 Claire è stata ricoverata in ospedale. 386 00:16:42,320 --> 00:16:43,763 Come parte del suo trattamento, 387 00:16:43,787 --> 00:16:45,606 i suoi psicologi hanno lavorato con lei 388 00:16:45,630 --> 00:16:49,016 per rimuovere il contenuto tossico dal suo feed di TikTok 389 00:16:49,040 --> 00:16:52,366 smettendo di seguire alcuni account e segnalando video. 390 00:16:52,390 --> 00:16:54,476 Quanto tempo ci hai messo a sbarazzarti 391 00:16:54,500 --> 00:16:56,915 di quel contenuto di disturbi alimentari dal tuo algoritmo. 392 00:16:57,890 --> 00:16:59,516 Tantissimo. Praticamente sono stata sempre 393 00:16:59,540 --> 00:17:01,166 in ospedale, quindi probabilmente due mesi, 394 00:17:01,190 --> 00:17:02,670 ho impiegato per cambiare l'algoritmo. 395 00:17:03,240 --> 00:17:04,836 Quando stai scorrendo in questo modo... 396 00:17:04,860 --> 00:17:06,808 - Anche mentre Claire mi mostrava 397 00:17:06,832 --> 00:17:08,476 il feed di TikTok ripulito, 398 00:17:08,500 --> 00:17:11,699 cominciarono a riapparire video sui disturbi alimentari. 399 00:17:12,060 --> 00:17:14,061 Ehi, ci siamo. Eccone uno proprio adesso. 400 00:17:14,580 --> 00:17:17,286 Ogni cinque o sei video. 401 00:17:17,310 --> 00:17:21,286 E quindi, riesco a tenerlo sotto controllo. 402 00:17:21,310 --> 00:17:22,896 - Quindi, anche se non sei interessata, 403 00:17:22,920 --> 00:17:24,626 Li visualizzi ancora? - Li visualizzo ancora. 404 00:17:24,650 --> 00:17:27,126 Se segnali dei video su TikTok, l'azienda dice 405 00:17:27,150 --> 00:17:30,086 che i suoi moderatori decidono se bannarli oppure no. 406 00:17:30,110 --> 00:17:31,526 E quindi a sua volta si suppone 407 00:17:31,550 --> 00:17:34,116 che l'algoritmo dovrebbe smettere di farli apparire. 408 00:17:34,140 --> 00:17:35,776 - Dico semplicemente che non sono interessata- 409 00:17:35,800 --> 00:17:38,716 - Le politiche di TikToks, dicono che l'app vieta contenuti 410 00:17:38,740 --> 00:17:42,003 che promuovono, normalizzano o esaltano i disturbi alimentari. 411 00:17:42,020 --> 00:17:43,620 - E puoi dire che è offensivo... 412 00:17:43,628 --> 00:17:45,006 Ma quando gli utenti come Claire, 413 00:17:45,030 --> 00:17:47,716 hanno segnalato quei video, gli è stato detto 414 00:17:47,740 --> 00:17:50,066 che non violano alcuna linea guida. 415 00:17:50,090 --> 00:17:51,986 - Pensi che qualcosa di così serio 416 00:17:52,010 --> 00:17:53,516 che ha il più alto tasso di mortalità 417 00:17:53,540 --> 00:17:55,496 di qualsiasi altra malattia mentale, pensi che, 418 00:17:55,520 --> 00:17:57,096 è qualcosa che puoi segnalare. 419 00:17:57,120 --> 00:17:58,596 Perché promuove quei comportamenti 420 00:17:58,620 --> 00:18:00,415 e li fa peggiorare. 421 00:18:05,980 --> 00:18:07,198 Lo dice anche TikTok 422 00:18:07,220 --> 00:18:09,335 che vieta gli hashtag pro disordini alimentari 423 00:18:09,360 --> 00:18:11,816 quindi gli utenti non possono cercare quei video. 424 00:18:11,840 --> 00:18:13,536 E se ci provano, appare automaticamente un numero 425 00:18:13,560 --> 00:18:15,396 per il servizio di supporto ai disturbi alimentari, 426 00:18:15,420 --> 00:18:18,796 della Fondazione Butterfly. 427 00:18:18,820 --> 00:18:20,863 Ma gli utenti trovano il modo di aggirarlo. 428 00:18:21,830 --> 00:18:25,526 - Ma il problema ora è in continua evoluzione. 429 00:18:25,550 --> 00:18:27,876 C'è un hashtag che ora le persone 430 00:18:27,900 --> 00:18:29,396 con disturbi alimentari usano. 431 00:18:29,420 --> 00:18:31,146 E non si può mai immaginare che si tratta 432 00:18:31,170 --> 00:18:33,136 di un hashtag per i disturbi alimentari. 433 00:18:33,160 --> 00:18:34,840 Come se si trattasse di un famoso cantante. 434 00:18:36,740 --> 00:18:38,426 Quindi semplicemente cambiano per 435 00:18:38,438 --> 00:18:40,086 essere completamente irrilevante 436 00:18:40,110 --> 00:18:42,368 dal tema dei disturbi alimentari. 437 00:18:42,710 --> 00:18:44,426 E quindi è molto difficile fuggire adesso. 438 00:18:44,450 --> 00:18:46,536 E penso che sia davvero difficile per TikTok 439 00:18:46,560 --> 00:18:47,858 stare al passo con tutto ciò. 440 00:18:48,400 --> 00:18:51,106 - Ci sono meccanismi in atto 441 00:18:51,130 --> 00:18:52,486 per schermare parte di quel contenuto. 442 00:18:52,510 --> 00:18:55,686 Ma molto dipende anche dalla moderazione umana. 443 00:18:55,710 --> 00:18:58,066 E se consideri la quantità di video 444 00:18:58,090 --> 00:19:00,079 e il volume che viene caricato su TikTok, 445 00:19:00,103 --> 00:19:02,216 è un compito molto difficile immaginare 446 00:19:02,240 --> 00:19:04,140 che i moderatori umani possono filtrare tutto. 447 00:19:09,566 --> 00:19:12,326 L'anno scorso, TikTok ha istituito un consiglio 448 00:19:12,350 --> 00:19:14,406 di esperti esterni per consigliare 449 00:19:14,430 --> 00:19:16,813 l'azienda a proposito della moderazione dei contenuti. 450 00:19:17,770 --> 00:19:19,593 David Polgar è uno di questi. 451 00:19:20,980 --> 00:19:22,194 - Come sappiamo, da un grande potere 452 00:19:22,206 --> 00:19:23,266 derivano grandi responsabilità. 453 00:19:23,290 --> 00:19:25,606 C'è un grande potere nell'algoritmo di TikTok. 454 00:19:25,630 --> 00:19:28,236 Quindi devi essere costantemente consapevole 455 00:19:28,260 --> 00:19:31,876 di come sta influenzando gli altri individui 456 00:19:31,900 --> 00:19:33,301 e le altre comunità. 457 00:19:33,896 --> 00:19:35,137 Penso che, in termini comparativi, 458 00:19:35,161 --> 00:19:36,654 DAVID PLGAR - ESPERTO DI ETICA TECNOLOGICA & 459 00:19:36,678 --> 00:19:38,528 MEMBRO DEL CONSIGLIO CONSULTIVO DEI CONTENUTI DI TIKTOK 460 00:19:38,552 --> 00:19:40,379 TikTok abbia fatto un lavoro abbastanza buono 461 00:19:40,404 --> 00:19:44,056 nell'essere più riflessivo sui lati oscuri 462 00:19:44,080 --> 00:19:48,026 e come ciò può influenzare gli individui. 463 00:19:48,050 --> 00:19:53,050 Ma allo stesso tempo, hai a che fare con il comportamento umano. 464 00:19:53,220 --> 00:19:55,696 Hai a che fare con cattivi attori. 465 00:19:55,720 --> 00:19:58,146 Hai a che fare con grandi differenze 466 00:19:58,170 --> 00:20:00,651 di come le persone definiscono appropriato 467 00:20:00,663 --> 00:20:02,693 rispetto ad inappropriato un tema. 468 00:20:02,830 --> 00:20:04,146 E abbiamo questo tipo complicato 469 00:20:04,170 --> 00:20:07,053 di atto di bilanciamento che avviene costantemente. 470 00:20:09,740 --> 00:20:11,547 - Il modello di business di TikTok si basa 471 00:20:11,559 --> 00:20:13,420 sulla creazione di una versione divertente, 472 00:20:13,450 --> 00:20:16,396 brillante e glamour del mondo. 473 00:20:16,420 --> 00:20:17,790 E si è scoperto che l'azienda 474 00:20:17,802 --> 00:20:19,566 controlla rigorosamente i contenuti 475 00:20:19,590 --> 00:20:21,486 che non rispecchiano questa immagine. 476 00:20:21,510 --> 00:20:23,389 A Marzo dello scorso anno, sono trapelati 477 00:20:23,401 --> 00:20:24,976 documenti sulla politica di TikTok 478 00:20:25,000 --> 00:20:26,119 che mostrano che i moderatori 479 00:20:26,131 --> 00:20:27,496 dei contenuti sono stati istruiti 480 00:20:27,520 --> 00:20:29,836 per sopprimere i post dei creatori 481 00:20:29,860 --> 00:20:32,703 considerati brutti, poveri o disabili. 482 00:20:36,500 --> 00:20:38,328 I documenti dicevano: "Video, che includono 483 00:20:38,352 --> 00:20:40,826 persone paffute o obese 484 00:20:40,850 --> 00:20:42,136 con un brutto aspetto estetico, 485 00:20:42,160 --> 00:20:44,986 come ad esempio troppe rughe o deformità del viso 486 00:20:45,010 --> 00:20:47,846 e altre disabilità devono essere esclusi". 487 00:20:47,870 --> 00:20:49,774 TikTok ha affermato che non continua 488 00:20:49,786 --> 00:20:51,443 più ad applicare queste regole. 489 00:20:55,939 --> 00:20:57,286 - Non voglio ammetterlo, ma l'aspetto 490 00:20:57,310 --> 00:20:58,657 ha molto a che fare con tutto questo. 491 00:20:58,681 --> 00:21:00,746 E sai, siamo tutti segretamente un po' vanitosi. 492 00:21:00,770 --> 00:21:02,436 Per quanto non si voglia ammetterlo, 493 00:21:02,460 --> 00:21:04,846 si cerca sempre la ragazza bella. 494 00:21:04,870 --> 00:21:06,873 Quindi penso che l'aspetto abbia sicuramente molto 495 00:21:06,897 --> 00:21:08,729 a che fare con questo. E se guardi tutti gli 496 00:21:08,753 --> 00:21:10,355 influencer davvero famosi, sono tutte belle. 497 00:21:10,379 --> 00:21:12,068 Ad esempio, se si guarda a tutte queste influencer, 498 00:21:12,092 --> 00:21:13,161 sono tutte straordinarie, 499 00:21:13,186 --> 00:21:14,416 non c'è niente di imperfetto in loro. 500 00:21:14,440 --> 00:21:15,634 Quindi penso che l'aspetto abbia 501 00:21:15,658 --> 00:21:17,338 sicuramente molto a che fare con tutto ciò. 502 00:21:30,387 --> 00:21:32,008 Gran parte della popolarità di TikTok 503 00:21:32,032 --> 00:21:33,624 è guidata dalle tendenze della danza, 504 00:21:33,660 --> 00:21:35,866 coreografata da creatori di colore 505 00:21:35,890 --> 00:21:38,342 e poi copiate da influencer bianche. 506 00:21:40,330 --> 00:21:42,066 Ma i produttori di contenuti di colore dicono 507 00:21:42,090 --> 00:21:45,383 che la piattaforma li discrimina attivamente. 508 00:21:45,480 --> 00:21:46,566 QUANDO SCOPRO CHE I CREATORI DI 509 00:21:46,590 --> 00:21:47,784 COLORE SU TIKTOK SONO IN SCIOPERO 510 00:21:47,808 --> 00:21:49,480 Penso che sia giunto il momento di lasciare che le 511 00:21:49,504 --> 00:21:50,998 donne di colore su questa app possano essere 512 00:21:51,022 --> 00:21:52,448 famose facendo il minimo indispensabile. 513 00:21:52,472 --> 00:21:54,876 Come se dovessi stare seduta qui in silenzio, 514 00:21:54,900 --> 00:21:56,046 e farmi guardare da tutti voi 515 00:21:56,070 --> 00:21:57,941 e subito dopo, ho un milione di follower. 516 00:22:00,220 --> 00:22:01,797 - Petizione per le persone di colore per tutto 517 00:22:01,821 --> 00:22:03,246 Aprile per smettere di parlare. 518 00:22:03,270 --> 00:22:04,896 - Ci sono stati casi 519 00:22:04,920 --> 00:22:08,156 di abbandonamento di massa guidati da creatori di colore 520 00:22:08,180 --> 00:22:09,796 dalla piattaforma denominata Blackouts. 521 00:22:09,820 --> 00:22:11,281 Dove in un determinato giorno, i creatori di 522 00:22:11,305 --> 00:22:12,766 colore hanno smesso di usare la piattaforma 523 00:22:12,790 --> 00:22:15,936 o hanno invitato altri creatori a lasciare la piattaforma 524 00:22:15,960 --> 00:22:19,506 a causa dell'inazione di TikToks e della mancata risposta 525 00:22:19,530 --> 00:22:21,736 o presa di posizione su alcune problematiche 526 00:22:21,760 --> 00:22:23,726 e sulle discussioni che i creatori 527 00:22:23,738 --> 00:22:25,264 di colore hanno sollevato. 528 00:22:25,334 --> 00:22:30,909 Quindi, se l'azienda continua ad essere reattiva e attenta, 529 00:22:31,020 --> 00:22:32,493 piuttosto che proattiva e realmente 530 00:22:32,505 --> 00:22:33,866 impegnata in modo significativo, 531 00:22:33,890 --> 00:22:36,165 allora questi problemi continueranno a verificarsi. 532 00:22:36,505 --> 00:22:39,276 IN ATTESA CHE IL MIO TEMPO NELLA PRIGIONE DI TIKTOK FINISCA 533 00:22:39,300 --> 00:22:41,396 - Spesso, questo mi rende piuttosto furiosa, 534 00:22:41,420 --> 00:22:42,926 perché questi creatori di colore, 535 00:22:42,950 --> 00:22:45,566 hanno talento, sono qui a ballare 536 00:22:45,590 --> 00:22:47,606 e mostrano di cosa sono capaci. 537 00:22:47,920 --> 00:22:51,575 Quindi è molto deludente e duro per noi 538 00:22:51,599 --> 00:22:52,864 UNICE WANI @unicewani, 595.7K FOLLOWER 539 00:22:52,888 --> 00:22:54,563 quando siamo qui ci si aspetta di avere 540 00:22:54,587 --> 00:22:56,455 tutto questo per ottenere le visualizzazioni 541 00:22:56,480 --> 00:22:57,996 per ottenere like e condivisioni. 542 00:22:58,020 --> 00:23:00,106 Ma non importa quanto ci proviamo, 543 00:23:00,130 --> 00:23:02,062 non ci riusciamo. 544 00:23:08,660 --> 00:23:12,936 - Unice Wani è una creatrice di TikTok di 18 anni di Perth. 545 00:23:13,050 --> 00:23:14,840 - Mi piace questo. Guardalo e vedi. 546 00:23:15,160 --> 00:23:16,496 Sento che più divento virale, 547 00:23:16,520 --> 00:23:18,704 più posso sostanzialmente mostrare 548 00:23:18,716 --> 00:23:20,536 alle generazioni più giovani 549 00:23:20,560 --> 00:23:23,256 le ragazze di colore 550 00:23:23,280 --> 00:23:25,156 o mostrare alle persone là fuori che 551 00:23:25,168 --> 00:23:27,056 mi sento a mio agio con la mia pelle 552 00:23:27,080 --> 00:23:28,766 e mi amo così come sono. 553 00:23:28,790 --> 00:23:31,276 Non mi interessa cosa dicono di me i social media. 554 00:23:31,300 --> 00:23:32,666 Quello che le persone dall'altra 555 00:23:32,678 --> 00:23:34,186 parte dello schermo dicono di me. 556 00:23:34,210 --> 00:23:36,203 Si può essere se stessi alla fine della giornata. 557 00:23:36,637 --> 00:23:38,176 Permettetemi di affrontare rapidamente questo- 558 00:23:38,200 --> 00:23:39,691 - Man mano che il suo seguito cresceva, 559 00:23:39,715 --> 00:23:41,856 anche i commenti di odio sono cresciuti. 560 00:23:41,880 --> 00:23:44,856 E ha deciso di affrontare il problema sull'app. 561 00:23:44,880 --> 00:23:46,949 - Quindi la maggior parte di voi sente ancora il bisogno 562 00:23:46,973 --> 00:23:49,266 di commentare il colore della mia pelle e quanto sono scura 563 00:23:49,290 --> 00:23:51,656 e quanto sono nera, nera, nera, nera, nera. 564 00:23:51,660 --> 00:23:52,694 Beh, indovinate un po'? 565 00:23:52,719 --> 00:23:54,563 Sono nera e ne sono molto orgogliosa. 566 00:23:57,931 --> 00:24:00,556 - Unice dice che spesso i suoi video sono nascosti 567 00:24:00,580 --> 00:24:02,396 o disattivati dal feed di TikTok. 568 00:24:02,420 --> 00:24:03,986 Significa che poche persone li vedono. 569 00:24:04,010 --> 00:24:05,957 Una pratica nota come Bann nell'Ombra. 570 00:24:05,981 --> 00:24:07,657 - Sei schiacciato? 571 00:24:07,681 --> 00:24:09,187 Sei arrabbiato? 572 00:24:09,211 --> 00:24:10,638 Sei infastidito? 573 00:24:10,662 --> 00:24:11,662 Sei triste? 574 00:24:12,960 --> 00:24:14,116 Scusa, cosa? 575 00:24:14,140 --> 00:24:17,276 Penso che si ricevono dei bann nell'ombra 576 00:24:17,300 --> 00:24:20,596 quando si parla di cose come il razzismo. 577 00:24:20,620 --> 00:24:21,906 Cose che non potresti menzionare. 578 00:24:21,930 --> 00:24:24,516 Una parola, nero, potrebbe rifersi a tutto questo 579 00:24:24,540 --> 00:24:26,916 e il tuo video potrebbe essere bannato nell'ombra. 580 00:24:26,940 --> 00:24:32,340 Quando pubblichi un video, il video è semplicemente sull'app. 581 00:24:32,370 --> 00:24:34,576 Ma non otterrai visualizzazioni. 582 00:24:34,600 --> 00:24:36,956 Quindi tu puoi vederlo. Ma le altre persone non possono. 583 00:24:36,980 --> 00:24:39,326 Anche quando vanno sul tuo account. 584 00:24:39,350 --> 00:24:40,822 Quindi è lassù. Ma semplicemente 585 00:24:40,834 --> 00:24:42,549 non otterrà alcuna visualizzazione. 586 00:24:47,310 --> 00:24:49,546 L'anno scorso i creatori di TikTok si sono accorti 587 00:24:49,570 --> 00:24:51,816 che l'algoritmo stava sopprimendo i post 588 00:24:51,840 --> 00:24:53,261 con l'hashtag Black Lives Matter 589 00:24:53,285 --> 00:24:55,153 o George Floyd. 590 00:24:59,597 --> 00:25:04,293 - Quindi si è sparsa la voce che TikTok vietava 591 00:25:04,450 --> 00:25:06,209 l'hashtag Black Lives Matter. 592 00:25:12,100 --> 00:25:14,372 Uno di quei creatori era un uomo di Sydney, 593 00:25:14,397 --> 00:25:16,552 Paniora Nukunuku, che aveva creato 594 00:25:16,580 --> 00:25:18,940 un video usando un tavolo da biliardo 595 00:25:18,970 --> 00:25:20,767 per spiegare la questione dei Black 596 00:25:20,779 --> 00:25:22,336 Lives Matter agli Australiani. 597 00:25:22,360 --> 00:25:23,926 - Questo è un tavolo bianco Australiano. 598 00:25:23,950 --> 00:25:25,836 E hanno avuto praticamente 200 anni di vantaggio 599 00:25:25,860 --> 00:25:27,556 e hanno stabilito tutto nel paese. 600 00:25:27,581 --> 00:25:29,516 Quindi le loro pause sono così. 601 00:25:29,540 --> 00:25:31,231 Amico, si può ottenere la proprietà 602 00:25:31,255 --> 00:25:32,495 della casa negli affari? 603 00:25:32,540 --> 00:25:33,580 Bellissimo. 604 00:25:33,592 --> 00:25:35,096 E' stata una bomba. 605 00:25:35,120 --> 00:25:37,201 È esploso tutto più di quanto pensassi. 606 00:25:37,318 --> 00:25:38,675 Devo solo mettere questo qui. 607 00:25:38,700 --> 00:25:39,846 Amico, che cosa, 608 00:25:39,870 --> 00:25:41,118 - Non preoccuparti. Si tratta di 609 00:25:41,142 --> 00:25:42,626 trauma, ingiustizia e discriminazione. 610 00:25:42,651 --> 00:25:44,440 Ma ho detto, mi dispiace, quindi dovrebbe andare bene. 611 00:25:44,464 --> 00:25:45,614 Quindi fallo e basta, amico. 612 00:25:46,560 --> 00:25:48,566 È stato il video più grande che abbia mai fatto all'epoca. 613 00:25:48,580 --> 00:25:50,101 Penso che tu sia semplicemente pigro, ehi. 614 00:25:50,125 --> 00:25:51,636 Non so perché. 615 00:25:51,660 --> 00:25:54,002 Oh, so perché, perché era bello. 616 00:25:54,020 --> 00:25:55,401 Non dovrei guardare la telecamera, ma sono 617 00:25:55,425 --> 00:25:57,021 davvero orgoglioso in questo momento. 618 00:25:57,260 --> 00:25:58,436 Usando queste due palline, 619 00:25:58,460 --> 00:25:59,656 vi spiego, questo ha causato 620 00:25:59,680 --> 00:26:02,425 il bann del mio account per circa sette giorni. 621 00:26:02,644 --> 00:26:03,700 Non so perché. 622 00:26:03,725 --> 00:26:05,185 PANIORA NUKUNUKU @pnuks, 189.6K FOLLOWER 623 00:26:05,209 --> 00:26:06,437 Hanno affermato che il mio video ha 624 00:26:06,449 --> 00:26:07,826 violato le linee guida della community, 625 00:26:07,850 --> 00:26:09,396 la quale motivazione è estremamente 626 00:26:09,408 --> 00:26:10,966 vaga perché non contiene parolacce, 627 00:26:10,990 --> 00:26:13,119 non c'è un linguaggio esplicito. 628 00:26:13,143 --> 00:26:17,576 Non ci sono nudità o cose esplicite come il sesso. 629 00:26:17,600 --> 00:26:20,179 Nulla di tutto ciò. E il mio account è stato bannato. 630 00:26:20,940 --> 00:26:22,606 - The Black Lives Matter è in tendenza su TikTok, 631 00:26:22,630 --> 00:26:24,712 il che è ironico considerando quanto tempo trascorre TikTok 632 00:26:24,736 --> 00:26:26,736 nel cercare di mettere a tacere le voci dei creatori neri. 633 00:26:26,760 --> 00:26:29,006 TikTok si è scusato per aver soppresso gli hashtag, 634 00:26:29,030 --> 00:26:30,826 che si riferivano ai Black Lives Matter, 635 00:26:30,889 --> 00:26:32,855 dando la colpa ad un errore dell'algoritmo. 636 00:26:33,043 --> 00:26:34,955 - Facciamo un momento di silenzio per quest'uomo. 637 00:26:34,979 --> 00:26:37,059 - L'azienda ha risposto con una nuova iniziativa 638 00:26:37,090 --> 00:26:40,096 per i creatori neri chiamata Programma TikTok Creatori Neri. 639 00:26:40,120 --> 00:26:42,966 Ho parlato con i creatori che sono stati contattati 640 00:26:42,990 --> 00:26:44,674 per quel programma, che hanno provato 641 00:26:44,686 --> 00:26:46,606 come se si trattasse solo di parole vuote. 642 00:26:46,630 --> 00:26:49,876 Non è stato proprio uno sforzo ben intenzionato 643 00:26:49,900 --> 00:26:52,866 nell'impegnarsi con le voci nere e impegnarsi con il discorso 644 00:26:52,890 --> 00:26:54,840 questo è ciò che conta per le comunità di colore. 645 00:26:56,880 --> 00:27:00,875 Paniora ha più di 180.000 follower su TikTok. 646 00:27:01,540 --> 00:27:04,036 Posta spesso dei contenuti sulla convivenza con una disabilità. 647 00:27:04,060 --> 00:27:05,366 - Quindi crescere con una gamba finta, 648 00:27:05,390 --> 00:27:06,692 Finisco sempre nei guai ogni volta 649 00:27:06,716 --> 00:27:08,256 che parcheggio nel mio posto disabile. 650 00:27:08,280 --> 00:27:10,436 Il primo video che ho fatto, parlava di me che sono andato 651 00:27:10,460 --> 00:27:13,556 in una piscina e dicevo ai miei amici di farmi un video, 652 00:27:13,580 --> 00:27:16,516 mentre immergevo la mia gamba finta nell'acqua per testarla. 653 00:27:16,540 --> 00:27:18,276 È stata un'idea davvero stupida. 654 00:27:18,300 --> 00:27:19,856 Ma per qualche ragione, la gente l'ha adorato. 655 00:27:19,880 --> 00:27:21,646 E nello spazio di otto ore, 656 00:27:21,670 --> 00:27:24,393 ha raggiunto circa 780.000 visualizzazioni. 657 00:27:25,230 --> 00:27:29,526 Se hai così tanti follower e così tanti Mi piace, 658 00:27:29,550 --> 00:27:30,956 è perché sei carina. 659 00:27:30,980 --> 00:27:33,026 Se hai così tanti follower 660 00:27:33,050 --> 00:27:34,823 e la stessa quantità di Mi piace, 661 00:27:38,450 --> 00:27:39,610 sei semplicemente divertente. 662 00:27:41,320 --> 00:27:44,146 Paniora ha avuto problemi con la censura di TikTok 663 00:27:44,170 --> 00:27:46,806 quando ha pubblicato un video di uno scontro 664 00:27:46,830 --> 00:27:48,336 con qualcuno che gli diceva, 665 00:27:48,360 --> 00:27:50,936 che non avrebbe dovuto avere un permesso di invalidità 666 00:27:50,960 --> 00:27:52,548 - Quindi questa vecchia signora 667 00:27:52,560 --> 00:27:54,366 ha avuto il coraggio di chiedermi 668 00:27:54,390 --> 00:27:57,103 se questa è la mia carta di invalidità. 669 00:27:58,940 --> 00:28:00,226 Questa, 670 00:28:00,250 --> 00:28:02,856 Mi chiedo se questa sia abbastanza. 671 00:28:02,880 --> 00:28:04,736 Il video è stato rimosso. 672 00:28:04,760 --> 00:28:06,215 TikTok ha affermato che esso violava 673 00:28:06,239 --> 00:28:07,946 le linee guida della community dell'app. 674 00:28:07,970 --> 00:28:10,646 Paniora ha fatto ricorso ed è stato rimesso online. 675 00:28:10,670 --> 00:28:11,926 Ma anche altri video 676 00:28:11,950 --> 00:28:14,496 sulla sua disabilità sono stati rimossi. 677 00:28:14,520 --> 00:28:15,835 - Non devi preoccuparti. 678 00:28:15,860 --> 00:28:18,060 Il video è stato rimosso senza che lo sapessi 679 00:28:18,070 --> 00:28:20,096 finché non ho rivisto gli hashtag 680 00:28:20,120 --> 00:28:22,426 e ho deciso di vedere quali video avevo fatto 681 00:28:22,450 --> 00:28:24,848 e sono arrivato in cima e quel video non c'era. 682 00:28:25,300 --> 00:28:28,426 Ho fatto ricorso e non so perché era ​​stato rimosso. 683 00:28:28,460 --> 00:28:29,696 Non farlo mai più. 684 00:28:29,860 --> 00:28:31,946 Penso che TikTok sia razzista? 685 00:28:31,970 --> 00:28:32,970 Non lo so. 686 00:28:34,230 --> 00:28:36,642 TikTok è stato accusato in passato, 687 00:28:36,700 --> 00:28:39,126 per aver detto ai moderatori di 688 00:28:39,140 --> 00:28:44,620 limitare l'esposizione dei disabili e delle persone brutte? 689 00:28:44,630 --> 00:28:46,256 Sì. Sono stati accusati per questo. 690 00:28:46,280 --> 00:28:47,466 Sta succedendo di nuovo? 691 00:28:47,490 --> 00:28:51,056 Spero di no, ma sembra proprio di sì. 692 00:28:51,080 --> 00:28:54,226 Sappiamo che decolonizzare la Palestina 693 00:28:54,250 --> 00:28:56,556 significa anche decolonizzare- 694 00:28:56,580 --> 00:28:59,026 - Probabilmente continuerò a muovermi, fai qualche foto. 695 00:28:59,050 --> 00:29:00,056 Nel Maggio di quest'anno, 696 00:29:00,080 --> 00:29:03,446 Paniora ha pubblicato un video di un corteo pro-Palestina. 697 00:29:03,470 --> 00:29:05,676 Ma l'algoritmo di TikTok lo ha segnalato. 698 00:29:05,700 --> 00:29:07,479 Ed è stato subito rimosso. 699 00:29:09,990 --> 00:29:13,126 Altri creatori che hanno postato TikToks sulla Palestina 700 00:29:13,150 --> 00:29:15,895 hanno detto che hanno sperimentato la stessa cosa. 701 00:29:18,238 --> 00:29:20,896 - Quando TikTok ha iniziato a rimuovere i miei video 702 00:29:20,920 --> 00:29:22,606 sulle proteste in merito 703 00:29:22,630 --> 00:29:25,546 alla situazione Palestinese, ero furioso. 704 00:29:25,570 --> 00:29:29,256 Pensavo tipo, perché? Non c'è niente in questi video 705 00:29:29,280 --> 00:29:33,106 che giustifica la rimozione. 706 00:29:33,130 --> 00:29:34,373 Non c'è davvero niente. 707 00:29:34,750 --> 00:29:37,366 - Uno dei grossi problemi di TikTok 708 00:29:37,390 --> 00:29:40,692 è la natura unica del suo algoritmo oscuro, 709 00:29:40,755 --> 00:29:42,911 FERGUS RYAN, COAUTORE DEL RAPPORTO SULLA CENSURA DI TIKTOK 710 00:29:42,935 --> 00:29:45,776 è molto difficile da capire 711 00:29:45,800 --> 00:29:49,574 o riconoscere quando è in atto la censura. 712 00:29:49,580 --> 00:29:51,180 La gente si è riunita per cercare di... 713 00:29:51,207 --> 00:29:54,836 - Quindi è possibile che i contenuti sull'app 714 00:29:54,860 --> 00:29:58,716 siano promossi o censurati senza che nessuno lo sappia. 715 00:29:58,740 --> 00:30:00,320 - Sono davvero stufo che qualsiasi 716 00:30:00,332 --> 00:30:01,606 piattaforma di social media 717 00:30:01,630 --> 00:30:03,406 metta a tacere le voci Palestinesi. 718 00:30:03,430 --> 00:30:08,106 - Ma abbiamo prove di come la moderazione dei contenuti 719 00:30:08,130 --> 00:30:09,656 avviene anche in Cina. 720 00:30:09,680 --> 00:30:13,846 Come viene applicato quel tipo di pensiero 721 00:30:13,870 --> 00:30:15,883 su TikTok al di fuori della Cina. 722 00:30:18,631 --> 00:30:21,485 TikTok è di proprietà della start-up Cinese ByteDance, 723 00:30:21,510 --> 00:30:25,138 che si ritiene valga più di 250 miliardi di dollari. 724 00:30:25,524 --> 00:30:28,200 È fortemente regolamentato dal governo Cinese. 725 00:30:28,230 --> 00:30:30,887 E c'è un Comitato Interno del Partito Comunista 726 00:30:30,912 --> 00:30:32,638 in ByteDance, che assicura che 727 00:30:32,650 --> 00:30:34,736 gli obiettivi politici del partito 728 00:30:34,760 --> 00:30:37,049 vengano perseguiti insieme a quelli della società. 729 00:30:37,323 --> 00:30:38,458 Spegnilo per favore. 730 00:30:38,920 --> 00:30:41,016 - Dobbiamo essere ancora più preoccupati 731 00:30:41,040 --> 00:30:45,046 di come app come TikTok possono essere utilizzate 732 00:30:45,070 --> 00:30:47,923 come vettore di censura e sorveglianza. 733 00:30:50,030 --> 00:30:52,426 - L'Istituto Australiano di Politica Strategica 734 00:30:52,450 --> 00:30:54,606 ha realizzato la prima indagine accademica 735 00:30:54,630 --> 00:30:56,386 sulla censura su TikTok, 736 00:30:56,410 --> 00:30:59,416 concludendo che l'azienda utilizza attivamente l'algoritmo 737 00:30:59,440 --> 00:31:02,700 per oscurare i discorsi politici che ritiene controversi. 738 00:31:03,060 --> 00:31:04,241 La ricerca è stata finanziata dal 739 00:31:04,253 --> 00:31:05,656 Dipartimento di Stato degli Stati Uniti 740 00:31:05,680 --> 00:31:08,606 e si è scoperto che i video contro il governo Russo 741 00:31:08,620 --> 00:31:12,075 così come hashtag su questioni LGBTQI 742 00:31:12,100 --> 00:31:13,860 e sulla detenzione di massa degli Uiguri 743 00:31:13,900 --> 00:31:15,873 erano tra i video censurati. 744 00:31:18,550 --> 00:31:22,676 - La società ha collaborato con gli uffici di pubblica sicurezza 745 00:31:22,700 --> 00:31:26,116 in tutta la Cina e anche nello Xinjiang. 746 00:31:26,140 --> 00:31:30,346 E questo significa che funzionano, 747 00:31:30,370 --> 00:31:33,216 si coordinano con le agenzie governative 748 00:31:33,240 --> 00:31:36,716 per garantire che lo spazio informativo in Cina 749 00:31:36,740 --> 00:31:40,006 sia pieno di questa propaganda. 750 00:31:40,030 --> 00:31:42,636 Mostrando un'immagine assolutamente rosea 751 00:31:42,660 --> 00:31:44,524 di ciò che sta accadendo nello Xinjiang. 752 00:31:48,680 --> 00:31:51,336 Nel 2018, il CEO di ByteDance 753 00:31:51,360 --> 00:31:53,406 è stato costretto a scusarsi pubblicamente. 754 00:31:53,430 --> 00:31:55,536 Dicendo che una delle piattaforme dell'azienda 755 00:31:55,560 --> 00:31:57,148 era andato contro i valori 756 00:31:57,160 --> 00:31:59,436 socialisti fondamentali della Cina. 757 00:31:59,460 --> 00:32:03,026 - Abbiamo una dichiarazione pubblica molto chiara 758 00:32:03,050 --> 00:32:04,806 dal fondatore di ByteDance, 759 00:32:04,830 --> 00:32:08,826 questo è qualcosa che si è impegnato a fare 760 00:32:08,850 --> 00:32:11,466 per garantire che l'azienda continui 761 00:32:11,490 --> 00:32:13,463 a spingere questo tipo di propaganda, 762 00:32:13,475 --> 00:32:15,356 sicuramente all'interno della Cina. 763 00:32:15,380 --> 00:32:18,716 Ma che venga poi esteso al resto del mondo 764 00:32:18,740 --> 00:32:22,956 tramite app come TikTok, è un'altra questione. 765 00:32:22,980 --> 00:32:25,223 Ed è qualcosa che vale la pena considerare. 766 00:32:26,230 --> 00:32:27,666 In una dichiarazione TikTok ha detto, 767 00:32:27,690 --> 00:32:30,256 che non modera o rimuove il contenuto 768 00:32:30,280 --> 00:32:32,126 in base a sensibilità politiche. 769 00:32:32,150 --> 00:32:34,556 E non ha mai ceduto alla richiesta 770 00:32:34,580 --> 00:32:35,946 del governo Cinese. 771 00:32:35,970 --> 00:32:38,016 Ha anche detto che abbraccia la diversità 772 00:32:38,040 --> 00:32:41,046 e negato che discrimina qualsiasi creatore 773 00:32:41,070 --> 00:32:42,983 o communità sulla piattaforma. 774 00:32:46,770 --> 00:32:49,226 - Sappiamo che da più di un decennio, 775 00:32:49,250 --> 00:32:51,186 sia qui negli Stati Uniti che in Australia, 776 00:32:51,210 --> 00:32:53,455 delle preoccupazioni sollevate dalla prevalenza 777 00:32:53,480 --> 00:32:55,057 delle società di telecomunicazioni Cinesi. 778 00:32:55,081 --> 00:32:56,723 E quindi poi la domanda successiva è diventata, 779 00:32:56,747 --> 00:32:59,001 beh, che dire di tutte queste app di aziende con sede in Cina? 780 00:32:59,025 --> 00:33:00,258 JAMIL JAFFER - DIRETTORE ESECUTIVO 781 00:33:00,282 --> 00:33:01,596 DELL'ISTITUTO NAZIONALE DI SICUREZZA 782 00:33:01,620 --> 00:33:03,491 Stanno raccogliendo enormi quantità di dati degli utenti. 783 00:33:03,515 --> 00:33:06,468 Hanno accesso ai dispositivi degli individui. 784 00:33:07,480 --> 00:33:08,886 Jamil Jaffer è il fondatore 785 00:33:08,910 --> 00:33:12,036 dell'Istituto Nazionale di Sicurezza di Washington. 786 00:33:12,060 --> 00:33:14,179 E ha consigliato il governo degli Stati 787 00:33:14,191 --> 00:33:16,056 Uniti sulla sicurezza informatica. 788 00:33:16,080 --> 00:33:18,516 - In Cina, è tutto il governo centrale, 789 00:33:18,540 --> 00:33:19,546 il Partito Comunista. 790 00:33:19,570 --> 00:33:21,966 Non c'è separazione tra i rami. 791 00:33:21,990 --> 00:33:24,466 E quindi, quando queste app hanno tutti quei dati, 792 00:33:24,490 --> 00:33:26,046 è molto più facile per il governo Cinese 793 00:33:26,070 --> 00:33:28,476 ottenere semplicemente l'accesso a tali dati. 794 00:33:31,360 --> 00:33:32,366 - Mi risulta che, 795 00:33:32,390 --> 00:33:34,956 circa un quarto della popolazione mondiale 796 00:33:34,980 --> 00:33:37,356 è un utente di TikTok se non sbaglio. 797 00:33:37,380 --> 00:33:39,636 Quindi si tratta ovviamente di un'enorme quantità di dati 798 00:33:39,660 --> 00:33:40,716 che viene generata. 799 00:33:40,740 --> 00:33:43,046 Questi dati vengono consegnati gratuitamente 800 00:33:43,070 --> 00:33:45,056 a quel singolo social network 801 00:33:45,080 --> 00:33:46,896 che ha praticamente il pieno controllo 802 00:33:46,920 --> 00:33:48,916 su cosa poter fare con questi dati. 803 00:33:48,940 --> 00:33:50,545 Potrebbe analizzarli per 804 00:33:50,557 --> 00:33:52,915 generare contenuti personalizzati 805 00:33:52,940 --> 00:33:55,220 per te, ma potrebbe anche usare quei dati 806 00:33:55,230 --> 00:33:58,066 per offrire prodotti e servizi tecnologici 807 00:33:58,090 --> 00:34:01,096 ad altre aziende del futuro. 808 00:34:23,870 --> 00:34:25,516 - Ciao, sono Avani da Sydney. 809 00:34:25,540 --> 00:34:26,766 Come va? 810 00:34:26,790 --> 00:34:28,286 - Ciao. 811 00:34:28,310 --> 00:34:29,876 Anne Longfield è l'ex commissario 812 00:34:29,900 --> 00:34:31,804 per l'infanzia Inglese. 813 00:34:31,820 --> 00:34:33,690 Intervista ad Anne, ciak uno. 814 00:34:33,700 --> 00:34:36,340 - Rappresenta milioni di ragazzi su TikTok 815 00:34:36,380 --> 00:34:38,000 nel Regno Unito e in Europa in una 816 00:34:38,012 --> 00:34:39,690 azione collettiva contro l'azienda. 817 00:34:39,990 --> 00:34:43,076 - La mia accusa contro TikTok al momento è che, 818 00:34:43,100 --> 00:34:45,057 stanno raccogliendo enormi quantità di dati illegalmente 819 00:34:45,081 --> 00:34:46,826 senza il consenso dei bambini o dei loro genitori. 820 00:34:46,850 --> 00:34:48,035 ANNE LONGFIELD - COMMISSARIO PER I 821 00:34:48,047 --> 00:34:49,280 BAMBINI DELL'INGHILTERRA 2015-20211 822 00:34:49,304 --> 00:34:52,096 E non stanno offrendo il giusto livello 823 00:34:52,120 --> 00:34:55,056 di trasparenza su ciò che accade a quei dati, 824 00:34:55,080 --> 00:34:58,033 o effettivamente cosa includono quei dati. 825 00:35:01,640 --> 00:35:04,191 Quasi un terzo degli utenti Australiani 826 00:35:04,203 --> 00:35:06,126 di TikTok ha meno di 14 anni. 827 00:35:06,150 --> 00:35:07,496 Gli avvocati affermano che TikTok 828 00:35:07,508 --> 00:35:08,706 prende informazioni personali 829 00:35:08,730 --> 00:35:10,036 come numeri di telefono, video, 830 00:35:10,060 --> 00:35:11,876 posizioni e dati di riconoscimento facciale 831 00:35:11,900 --> 00:35:13,936 dai bambini senza il loro consenso. 832 00:35:13,960 --> 00:35:17,456 Oltre alle foto e ai video registrati utilizzando TikTok, 833 00:35:17,480 --> 00:35:20,073 ma non caricati o salvati sulla piattaforma. 834 00:35:21,220 --> 00:35:25,256 - Dato il livello dei dati e la mancanza di trasparenza 835 00:35:25,280 --> 00:35:27,346 che c'è, è difficile immaginare 836 00:35:27,370 --> 00:35:28,576 che questo sia solo una specie di 837 00:35:28,600 --> 00:35:30,426 servizio di raccolta di informazioni, 838 00:35:30,450 --> 00:35:35,006 sottilmente velato come una sorta di piattaforma divertente, 839 00:35:35,030 --> 00:35:38,046 che piace ai bambini piccoli. 840 00:35:38,070 --> 00:35:41,556 Quindi il vero incentivo qui, 841 00:35:41,580 --> 00:35:43,853 quando lo guardi da un' altra prospettiva, 842 00:35:43,877 --> 00:35:46,048 sembra essere quello di raccogliere 843 00:35:46,060 --> 00:35:47,636 quanti più dati possibile 844 00:35:47,660 --> 00:35:50,500 per poterli monetizzare. 845 00:35:53,220 --> 00:35:55,716 TikTok è già stato multato per milioni di dollari 846 00:35:55,740 --> 00:35:57,435 negli Stati Uniti e in Corea del Sud 847 00:35:57,447 --> 00:35:59,153 per la raccolta di dati sui bambini. 848 00:36:01,330 --> 00:36:04,176 L'azienda ha limitato l'accesso all'app ai bambini 849 00:36:04,200 --> 00:36:08,236 e ha eliminato milioni di account di utenti minorenni. 850 00:36:08,260 --> 00:36:10,895 Non c'è stata alcuna azione legale in Australia. 851 00:36:12,570 --> 00:36:15,196 - Penso che i governi abbiano la responsabilità 852 00:36:15,220 --> 00:36:18,106 di intervenire per garantire che i bambini 853 00:36:18,130 --> 00:36:20,586 siano protetti in qualunque tipo di ambiente si trovino. 854 00:36:20,610 --> 00:36:23,146 E si vedono queste protezioni e misure 855 00:36:23,170 --> 00:36:25,396 in termini di ambiente fisico, 856 00:36:25,420 --> 00:36:28,416 in termini di sicurezza, 857 00:36:28,440 --> 00:36:29,896 nelle comunità in cui vivono, 858 00:36:29,920 --> 00:36:31,766 negli ambienti in cui si trovano. 859 00:36:31,790 --> 00:36:34,427 Ma non è sempre così online. 860 00:36:34,460 --> 00:36:37,460 E alcuni governi hanno 861 00:36:37,501 --> 00:36:39,569 faticato a capire cosa significa. 862 00:36:42,770 --> 00:36:44,294 Se la causa ha esito positivo, 863 00:36:44,318 --> 00:36:45,986 TikTok potrebbe dover pagare i bambini 864 00:36:46,010 --> 00:36:49,206 del Regno Unito e dell'Europa miliardi di risarcimento. 865 00:36:49,400 --> 00:36:50,866 TikTok sta affrontanto la causa. 866 00:36:50,890 --> 00:36:52,493 In una nota, la società ha detto, 867 00:36:52,517 --> 00:36:54,017 "La Privacy e la sicurezza sono 868 00:36:54,029 --> 00:36:55,736 le priorità principali per TikTok 869 00:36:55,760 --> 00:36:58,066 e abbiamo solide politiche, procedure, 870 00:36:58,090 --> 00:37:01,776 e tecnologie in atto per aiutare a proteggere tutti gli utenti 871 00:37:01,800 --> 00:37:03,838 e in particolare i nostri giovani utenti. 872 00:37:03,863 --> 00:37:05,876 Riteniamo che le affermazioni siano prive di fondamento 873 00:37:05,900 --> 00:37:06,956 e intendiamo difendere 874 00:37:06,968 --> 00:37:08,667 vigorosamente il nostro operato." 875 00:37:11,670 --> 00:37:14,046 Il governo degli Stati Uniti sta esaminando TikTok 876 00:37:14,070 --> 00:37:15,968 e non ha escluso un bann. 877 00:37:16,421 --> 00:37:17,547 - La vera domanda che ci si fa è: 878 00:37:17,571 --> 00:37:19,374 quali sono le implicazioni per la sicurezza nazionale? 879 00:37:19,398 --> 00:37:21,466 Quindi ok. Sì, molte persone lo stanno usando, giusto. 880 00:37:21,490 --> 00:37:22,576 Ma perché è importante? 881 00:37:22,600 --> 00:37:25,026 Ed è importante, penso, a causa dell'accesso, 882 00:37:25,050 --> 00:37:27,150 che dà a questa grande quantità di dati. 883 00:37:28,330 --> 00:37:31,456 Non pensi mai al governo Cinese di Pechino, 884 00:37:31,480 --> 00:37:34,176 che abbia video di te a casa tua, 885 00:37:34,200 --> 00:37:36,976 fuori casa, al parco con i tuoi bambini, 886 00:37:37,000 --> 00:37:38,520 e sapendo con chi giocano i tuoi figli. 887 00:37:38,800 --> 00:37:40,706 Voglio dire, questo è quello di cui dispongono ora 888 00:37:40,730 --> 00:37:42,226 potenzialmente con questa serie di dati. 889 00:37:42,250 --> 00:37:44,556 Abbiamo visto ora due Presidenti consecutivi 890 00:37:44,580 --> 00:37:45,656 firmare ordini esecutivi, 891 00:37:45,680 --> 00:37:48,016 chiarendo che sono molto preoccupati 892 00:37:48,040 --> 00:37:50,036 sulle implicazioni per la sicurezza nazionale 893 00:37:50,060 --> 00:37:51,994 derivante dalla raccolta dati di TikTok. 894 00:37:52,289 --> 00:37:54,065 Oltre all'impatto che ha 895 00:37:54,090 --> 00:37:56,290 sulla privacy e sulle libertà civili degli Americani. 896 00:38:01,590 --> 00:38:03,614 L'India ha annunciato il bann di TikTok. 897 00:38:04,090 --> 00:38:06,756 E nel Luglio dello scorso anno, il primo ministro Scott Morrison 898 00:38:06,780 --> 00:38:08,461 ha ordinato una revisione dell'app 899 00:38:08,473 --> 00:38:10,263 parte delle Agenzie di intelligence. 900 00:38:11,531 --> 00:38:12,765 17 LUGLIO 2020 901 00:38:12,790 --> 00:38:16,543 Siamo sempre molto attenti a questi rischi 902 00:38:16,567 --> 00:38:20,366 e li stiamo monitorando molto da vicino. 903 00:38:20,390 --> 00:38:21,620 E se consideriamo che c'è bisogno 904 00:38:21,644 --> 00:38:22,680 di intraprendere ulteriori 905 00:38:22,704 --> 00:38:24,876 azioni rispetto a quelle che stiamo intraprendendo ora, 906 00:38:24,900 --> 00:38:27,300 allora posso affermare che non saremo intimoriti al riguardo. 907 00:38:28,760 --> 00:38:31,056 - È certamente un problema di sicurezza 908 00:38:31,080 --> 00:38:33,546 che i dati degli utenti Australiani 909 00:38:33,570 --> 00:38:36,766 potenzialmente si trovino a Pechino. 910 00:38:37,300 --> 00:38:39,820 TikTok sostiene che non è così. 911 00:38:39,850 --> 00:38:44,526 E la nostra analisi ha mostrato che 912 00:38:44,550 --> 00:38:46,586 che non c'è certo un fiume in piena 913 00:38:46,610 --> 00:38:50,056 di contenuti che vengono spediti a Pechino. 914 00:38:50,080 --> 00:38:51,426 Ma questo non significa che 915 00:38:51,450 --> 00:38:53,526 quel contenuto non è accessibile 916 00:38:53,550 --> 00:38:55,571 da Pechino, se necessario. 917 00:38:55,860 --> 00:38:56,866 Come stai? 918 00:38:56,914 --> 00:38:58,446 - Sto bene, grazie. Tu come stai? 919 00:38:58,471 --> 00:39:00,775 TikTok sostiene che i dati degli utenti Australiani 920 00:39:00,800 --> 00:39:03,466 siano conservati su server negli Stati Uniti e a Singapore. 921 00:39:03,490 --> 00:39:05,496 E che non ha mai fornito dati 922 00:39:05,520 --> 00:39:06,963 al governo Cinese. 923 00:39:08,520 --> 00:39:09,631 Al personale dei Dipartimenti 924 00:39:09,643 --> 00:39:11,076 degli Affari Interni e della Difesa 925 00:39:11,100 --> 00:39:14,056 è stato detto di non avere TikTok sui propri telefoni 926 00:39:14,080 --> 00:39:15,882 a causa dei rischi per la sicurezza. 927 00:39:16,510 --> 00:39:19,236 Ma Scott Morrison ha detto che non c'erano prove sufficienti 928 00:39:19,260 --> 00:39:21,077 per vietare TikTok in Australia. 929 00:39:21,820 --> 00:39:24,316 - La portata dell'indagine è sembrata 930 00:39:24,340 --> 00:39:26,036 essere abbastanza limitata. 931 00:39:26,060 --> 00:39:31,115 E quella portata non è abbastanza per essere in grado 932 00:39:31,140 --> 00:39:34,150 di dire al resto dell'Australia 933 00:39:34,220 --> 00:39:36,236 e ai comuni cittadini Australiani, 934 00:39:36,260 --> 00:39:39,826 se è una buona idea per loro utilizzare l'app. 935 00:39:41,190 --> 00:39:44,596 - Ci dovrebbe essere sicuramente un'altra più rigorosa 936 00:39:44,620 --> 00:39:47,086 e lunga recensione su TikTok 937 00:39:47,110 --> 00:39:51,518 per comprendere appieno i rischi che presenta TikTok. 938 00:39:52,340 --> 00:39:54,013 - E quindi se consideri TikTok da solo, 939 00:39:54,037 --> 00:39:55,723 e pensi, beh, è ​​solo un' app, 940 00:39:55,747 --> 00:39:57,556 e sono solo ragazzini che fanno video di danze. 941 00:39:57,580 --> 00:39:58,876 Sembra innocuo. 942 00:39:58,900 --> 00:40:01,746 Ma il tutto si svolge in un contesto molto più ampioo 943 00:40:01,770 --> 00:40:04,526 di raccolta dati, intelligenza artificiale, 944 00:40:04,550 --> 00:40:06,116 e un vero sforzo da parte dei 945 00:40:06,128 --> 00:40:08,086 Cinesi per consolidare l'influenza 946 00:40:08,110 --> 00:40:09,642 nei paesi e in tutto il mondo. 947 00:40:13,490 --> 00:40:14,982 In soli due anni, 948 00:40:15,020 --> 00:40:17,915 TikTok si è affermata come l'app preferita 949 00:40:17,940 --> 00:40:20,056 da milioni di Australiani. 950 00:40:20,080 --> 00:40:22,956 - Quindi continuavate a dirmi di andare su Voice 2021. 951 00:40:22,980 --> 00:40:25,486 Quindi ci sono andata. 952 00:40:25,510 --> 00:40:26,966 Ci sono serie preoccupazioni 953 00:40:26,990 --> 00:40:30,446 che quella versione divertente e bella di TikToks della realtà 954 00:40:30,470 --> 00:40:33,143 stia distorcendo il modo in cui vediamo il mondo. 955 00:40:34,720 --> 00:40:39,007 E domande sul fatto che gli utenti comprendano i rischi. 956 00:40:41,320 --> 00:40:44,176 - Quindi rischiamo davvero di avere generazioni 957 00:40:44,200 --> 00:40:46,346 di giovani che non hanno potuto 958 00:40:46,370 --> 00:40:49,456 assumere la propria identità in modo naturale. 959 00:40:49,480 --> 00:40:51,436 E invece hanno assunto un' identità 960 00:40:51,460 --> 00:40:54,066 in risposta a qualcosa che una tecnologia 961 00:40:54,090 --> 00:40:56,496 o una piattaforma tecnologica definisce 962 00:40:56,520 --> 00:40:58,516 come la nuova normalità. 963 00:40:58,540 --> 00:41:00,115 - L'ultima volta che questa signora è venuta da 964 00:41:00,139 --> 00:41:01,836 me mi ha detto, non sembri abbastanza disabile. 965 00:41:01,860 --> 00:41:03,026 Non sembro abbastanza disabile? 966 00:41:03,050 --> 00:41:05,336 - Capisco che TikTok sta facendo del suo meglio 967 00:41:05,360 --> 00:41:07,746 per rendere la piattaforma appetibile a tutti 968 00:41:07,770 --> 00:41:10,168 semplicemente divertendoti con video di 969 00:41:10,180 --> 00:41:12,770 danza e video di sincronizzazione labiale. 970 00:41:16,330 --> 00:41:18,986 Ma so che i miei contenuti danno valore 971 00:41:19,010 --> 00:41:21,196 a tante persone che mi assomigliano. 972 00:41:21,220 --> 00:41:23,916 Che vivono la stessa vita come me. 973 00:41:23,940 --> 00:41:25,635 Che sono scuri come me. 974 00:41:33,790 --> 00:41:38,016 - Ho eliminato TikTok dopo alcuni mesi. 975 00:41:38,040 --> 00:41:40,226 Ma anche dopo averlo eliminato era come se mi avesse lasciato 976 00:41:40,250 --> 00:41:42,566 con i disturbi alimentare. 977 00:41:42,590 --> 00:41:45,376 TikTok mi ha fatto nascere questo problema e poi 978 00:41:45,400 --> 00:41:48,963 ci è voluto molto, molto tempo per risolverlo. 979 00:41:50,278 --> 00:41:52,315 TikTok non aiuta le persone. 980 00:41:52,340 --> 00:41:53,756 Non credo che sia venuto al mondo 981 00:41:53,780 --> 00:41:55,436 con l'intenzione di aiutare le persone. 982 00:41:55,460 --> 00:41:57,266 Se fanno soldi con una determinata cosa, 983 00:41:57,290 --> 00:41:59,686 allora faranno soldi con questa determinata cosa. 984 00:42:00,160 --> 00:42:02,286 Penso che forse debbano rendersi conto 985 00:42:02,310 --> 00:42:04,210 dell'impatto che sta avendo sulle persone.