1 00:00:02,000 --> 00:00:07,000 Downloaded from YTS.MX 2 00:00:08,000 --> 00:00:13,000 Official YIFY movies site: YTS.MX 3 00:00:19,340 --> 00:00:22,235 - TikTok se tornou uma maneira 4 00:00:22,260 --> 00:00:23,700 da geração jovem 5 00:00:23,740 --> 00:00:25,640 de nos expressarmos de todas as maneiras. 6 00:00:27,153 --> 00:00:28,485 Você pode ser você mesmo, você 7 00:00:28,509 --> 00:00:29,716 está em casa, você está filmando, 8 00:00:29,740 --> 00:00:31,626 e sempre haverá milhões 9 00:00:31,650 --> 00:00:33,076 de pessoas te observando. 10 00:00:33,580 --> 00:00:35,242 Eu gosto deste. Olhe e veja. 11 00:00:35,422 --> 00:00:37,294 Você nunca sabe quando pode explodir. 12 00:00:41,490 --> 00:00:43,076 - Eu acho que o sonho de qualquer criança 13 00:00:43,100 --> 00:00:45,087 é ter sucesso online. 14 00:00:45,570 --> 00:00:47,366 A plataforma de mídia social chinesa, 15 00:00:47,390 --> 00:00:50,003 TikTok mudou a internet. 16 00:00:51,110 --> 00:00:54,386 Tornou-se o aplicativo mais popular do mundo. 17 00:00:54,410 --> 00:00:56,206 - São vídeos de pesca, é culinária. 18 00:00:56,230 --> 00:00:58,096 Você pode fazer esquetes, cantar, dançar. 19 00:00:58,120 --> 00:01:00,867 Literalmente tudo em que você pode pensar, o TikTok tem. 20 00:01:05,580 --> 00:01:07,346 - Não é mais um aplicativo no celular deles. 21 00:01:07,370 --> 00:01:08,396 É seu sustento. 22 00:01:08,420 --> 00:01:10,206 É como eles se comunicam com seus amigos. 23 00:01:10,230 --> 00:01:11,676 É como eles veem seu mundo. 24 00:01:11,700 --> 00:01:14,016 Essa é uma parte que eu não acho que todo mundo 25 00:01:14,040 --> 00:01:15,313 adaptou-se ainda. 26 00:01:17,100 --> 00:01:20,586 - Corremos o risco de ter gerações de jovens 27 00:01:20,610 --> 00:01:23,546 que formaram identidades em resposta a algo 28 00:01:23,570 --> 00:01:25,988 que uma plataforma de tecnologia 29 00:01:26,012 --> 00:01:27,723 prescreve para ser o novo normal. 30 00:01:29,290 --> 00:01:31,146 Por trás dos vídeos de dança brilhantes, 31 00:01:31,170 --> 00:01:34,713 a plataforma está conduzindo as pessoas por caminhos perigosos. 32 00:01:36,170 --> 00:01:37,956 - Eu gostaria de pensar que não teria tido problemas 33 00:01:37,980 --> 00:01:40,460 com um transtorno alimentar se eu não tivesse baixado o TikTok. 34 00:01:41,880 --> 00:01:43,146 - Meu problema com o TikTok 35 00:01:43,170 --> 00:01:45,283 é que eles estão coletando grandes 36 00:01:45,307 --> 00:01:47,186 quantidades de dados ilegalmente 37 00:01:47,210 --> 00:01:49,592 sem o consentimento dos filhos ou dos pais. 38 00:01:51,030 --> 00:01:52,786 - Se você apenas olhar para o TikTok isoladamente, 39 00:01:52,810 --> 00:01:54,046 parece inócuo. 40 00:01:54,070 --> 00:01:56,916 Mas isso realmente ocorre neste contexto muito mais amplo 41 00:01:56,940 --> 00:01:59,696 de coleta de dados, inteligência artificial, 42 00:01:59,720 --> 00:02:01,006 e um verdadeiro esforço dos chineses 43 00:02:01,030 --> 00:02:04,523 para consolidar a influência na região e em todo o globo. 44 00:02:06,190 --> 00:02:08,596 - Esta noite no Four Corners, TikTok. 45 00:02:08,620 --> 00:02:11,296 Em uma investigação conjunta com Hack on Triple J, 46 00:02:11,320 --> 00:02:13,096 nós vamos descer a toca do coelho 47 00:02:13,120 --> 00:02:15,216 para revelar o lado sombrio do aplicativo. 48 00:02:15,240 --> 00:02:17,726 Como a plataforma censura o conteúdo político 49 00:02:17,750 --> 00:02:20,086 e coleta dados das crianças. 50 00:02:20,110 --> 00:02:23,926 E como o algoritmo poderoso do aplicativo expõe as pessoas 51 00:02:23,950 --> 00:02:26,813 a desinformação e conteúdo perigoso. 52 00:02:35,700 --> 00:02:37,496 - Olá, meu nome é Rory Eliza. 53 00:02:37,520 --> 00:02:38,965 E então o quê? 54 00:02:40,456 --> 00:02:42,116 E o que você faz? 55 00:02:42,140 --> 00:02:43,888 - Eu sou uma TikToker em tempo integral. 56 00:02:53,290 --> 00:02:54,666 Então de manhã eu vou acordar, 57 00:02:54,690 --> 00:02:55,986 talvez oito horas, nove horas. 58 00:02:56,010 --> 00:02:57,266 Vou verificar meu celular, 59 00:02:57,290 --> 00:02:58,895 verifique se meus vídeos foram bem, 60 00:02:58,920 --> 00:03:00,535 RORY ELIZA @roryeliza, 5,1 MILHÕES DE SEGUIDORES 61 00:03:00,559 --> 00:03:02,282 ou como meus seguidores estão reagindo 62 00:03:02,307 --> 00:03:04,358 ao conteúdo que acabei de postar. 63 00:03:07,100 --> 00:03:09,780 TikTok honestamente, eu adoro isso. 64 00:03:09,810 --> 00:03:12,176 É tão estranho porque essa é minha maior plataforma, 65 00:03:12,200 --> 00:03:13,776 é o TikTok com 5 milhões de seguidores. 66 00:03:13,800 --> 00:03:16,366 É uma loucura pensar que 5 milhões de pessoas, 67 00:03:16,390 --> 00:03:18,416 são pessoas, não é apenas um número. 68 00:03:18,440 --> 00:03:20,256 E se você realmente pensar sobre 5 milhões de pessoas 69 00:03:20,280 --> 00:03:21,643 que tocaram no botão para seguir. 70 00:03:23,270 --> 00:03:24,532 Eles são todos tão amigáveis e 71 00:03:24,556 --> 00:03:25,696 eles são como sua família. 72 00:03:25,720 --> 00:03:27,523 É estranho, como se você não conhecesse essas pessoas, 73 00:03:27,547 --> 00:03:29,256 mas eles sabem muito sobre você 74 00:03:29,280 --> 00:03:31,521 que te tratam como um membro da família. 75 00:03:43,790 --> 00:03:46,803 E nessa nota, bem-vindo ao novo Rory Eliza. 76 00:03:47,940 --> 00:03:49,836 Rory Eliza é um entre milhões 77 00:03:49,860 --> 00:03:53,066 de jovens australianos gravando praticamente todos os momentos 78 00:03:53,090 --> 00:03:55,706 de suas vidas para ficarem famosos no TikTok. 79 00:03:55,730 --> 00:03:57,506 - Prepare-se para um encontro. 80 00:03:57,530 --> 00:03:58,956 Ei, eu escolhi uma roupa, vamos lá. 81 00:03:58,980 --> 00:04:00,726 Transição, sim. 82 00:04:00,750 --> 00:04:02,526 Então eu acho que o sonho de qualquer criança 83 00:04:02,550 --> 00:04:04,816 é ter sucesso online. 84 00:04:04,840 --> 00:04:08,156 Então, acho que definitivamente há um grupo 85 00:04:08,180 --> 00:04:10,316 onde todos querem ser influenciadores 86 00:04:10,340 --> 00:04:11,766 porque é meio como a coisa agora. 87 00:04:11,790 --> 00:04:13,496 E acho que é por causa do TikTok. 88 00:04:14,380 --> 00:04:15,740 - TikTok foi baixado 89 00:04:15,750 --> 00:04:18,703 mais de 3 bilhões de vezes em todo o mundo. 90 00:04:21,750 --> 00:04:23,757 Tornou-se um fenômeno cultural. 91 00:04:23,782 --> 00:04:24,813 Eu tenho 21 e apenas 92 00:04:24,838 --> 00:04:26,226 aprendi a lavar minhas próprias roupas. 93 00:04:26,250 --> 00:04:28,576 Alguns tomates e um pouco de queijo. 94 00:04:28,600 --> 00:04:31,360 Cara, não, você tem que ir tipo, ei. 95 00:04:32,420 --> 00:04:33,593 Oh, ok, ok. OK. 96 00:04:38,510 --> 00:04:40,610 Tudo se trata de se tornar viral. 97 00:04:41,890 --> 00:04:43,446 A dança, iniciada por alguém 98 00:04:43,470 --> 00:04:46,178 em sua sala de estar e carregado no TikTok, 99 00:04:47,760 --> 00:04:49,916 pode se transformar em um estádio cheio de pessoas, 100 00:04:49,940 --> 00:04:51,626 realizando em uníssono. 101 00:04:58,205 --> 00:05:00,136 - Eu gosto de como você pode ser criativo nisso. 102 00:05:00,160 --> 00:05:02,333 Como se fosse tão divertido ir para aquele aplicativo 103 00:05:02,357 --> 00:05:04,178 e apenas expresse seu verdadeiro eu. 104 00:05:14,010 --> 00:05:16,666 Rory começou a postar esquetes cômicos no TikTok 105 00:05:16,690 --> 00:05:18,410 e seu seguimento se tornou uma bola de neve. 106 00:05:19,130 --> 00:05:21,867 - Sem problemas. Vou escanear esse para você agora mesmo. 107 00:05:22,740 --> 00:05:24,476 Este foi seu primeiro vídeo viral. 108 00:05:24,500 --> 00:05:27,343 Recebeu quase 14 milhões de visualizações. 109 00:05:31,090 --> 00:05:33,677 - Que tal um pato laqueado? 110 00:05:33,910 --> 00:05:36,856 Sim, mas na verdade não temos o pato laqueado. 111 00:05:36,880 --> 00:05:38,626 Mas nós temos esse ganso sorrateiro. 112 00:05:38,650 --> 00:05:40,142 Que nome estranho. 113 00:05:40,166 --> 00:05:42,796 É bastante normal para um livro. 114 00:05:42,820 --> 00:05:46,056 Em 2019, Rory decidiu deixar a escola 115 00:05:46,080 --> 00:05:48,206 para se tornar um TikToker em tempo integral. 116 00:05:48,630 --> 00:05:50,663 - Espere, espere, isso é uma biblioteca? 117 00:05:51,550 --> 00:05:53,870 A escola era apenas uma daquelas coisas em que não era bom. 118 00:05:54,360 --> 00:05:57,196 Eu decidi deixar a escola quando estava no 11º ano 119 00:05:57,220 --> 00:05:58,576 e eu nunca estive lá, você sabe. 120 00:05:58,600 --> 00:06:00,376 Eu sempre estava em Sydney fazendo reuniões 121 00:06:00,400 --> 00:06:02,495 ou apresentações para TikTok termina. 122 00:06:02,520 --> 00:06:04,616 Eu simplesmente não estava lá. E quando eu viria para a escola, 123 00:06:04,640 --> 00:06:06,516 Eu não teria ideia do que estamos fazendo. 124 00:06:06,540 --> 00:06:09,133 Porque, você sabe, estive fora por muitos dias. 125 00:06:10,480 --> 00:06:13,116 Não se preocupe. Obrigado por vir à nossa biblioteca. 126 00:06:13,140 --> 00:06:15,091 - Escola, você pode voltar e fazer no TAFE. 127 00:06:15,115 --> 00:06:16,228 Você pode voltar a qualquer 128 00:06:16,240 --> 00:06:17,368 momento e fazer isso se precisar. 129 00:06:17,392 --> 00:06:19,146 Mas você pode nunca ter essa oportunidade novamente. 130 00:06:19,170 --> 00:06:21,296 Então, nós apenas pensamos que valia a pena deixar a escola 131 00:06:21,320 --> 00:06:22,856 e buscar todas as oportunidades de negócios 132 00:06:22,880 --> 00:06:24,000 enquanto eles estavam lá para ela. 133 00:06:24,016 --> 00:06:26,456 - Não se preocupe. Obrigado por vir à nossa biblioteca. 134 00:06:26,720 --> 00:06:27,817 - Como você se sente sobre o fato 135 00:06:27,840 --> 00:06:28,912 de 5 milhões de pessoas serem 136 00:06:28,936 --> 00:06:30,486 assistindo seu conteúdo? 137 00:06:30,510 --> 00:06:31,834 - É incrível. É mesmo, quando ela 138 00:06:31,840 --> 00:06:33,546 vai ao vivo, houve uma época em que ela foi ao vivo 139 00:06:33,570 --> 00:06:34,730 DANIEL - PAI DA RORY 140 00:06:34,760 --> 00:06:36,910 e ela tinha 22,000 pessoas olhando para ela em seu quarto. 141 00:06:36,934 --> 00:06:39,303 E minha mente volta para um show do Elton John aqui. 142 00:06:39,327 --> 00:06:40,796 E ela tinha mais pessoas olhando para ela 143 00:06:40,820 --> 00:06:42,476 do que naquele show do Elton John. 144 00:06:42,500 --> 00:06:44,266 E é uma espécie de saída que está acontecendo 145 00:06:44,290 --> 00:06:46,376 no quarto da minha filha no momento. 146 00:06:46,400 --> 00:06:49,889 Foi um pouco, sim, diferente. 147 00:06:50,320 --> 00:06:51,600 PREPARE-SE COMIGO PARA COMEMORAR 148 00:06:54,170 --> 00:06:56,306 - Grandes marcas de moda e cosméticos 149 00:06:56,330 --> 00:06:59,166 começou a notar o sucesso de Rory no TikTok 150 00:06:59,190 --> 00:07:01,593 e queria alcançar seu crescente público. 151 00:07:07,189 --> 00:07:09,346 Empresas patrocinam influenciadores como Rory 152 00:07:09,370 --> 00:07:13,123 e as empresas pagam a TikTok para anunciar na plataforma. 153 00:07:14,720 --> 00:07:16,310 Isso é fundamental para o modelo de 154 00:07:16,334 --> 00:07:17,614 negócios lucrativo do aplicativo. 155 00:07:19,150 --> 00:07:21,266 - Nesta indústria de trabalho sendo um influenciador, 156 00:07:21,290 --> 00:07:23,476 você tem que se apresentar como uma marca, sabe. 157 00:07:23,500 --> 00:07:25,606 Não somos mais pessoas, somos marcas. 158 00:07:25,630 --> 00:07:26,966 Estamos vendendo produtos para marcas. 159 00:07:26,990 --> 00:07:28,790 Então, você tem que ter uma boa aparência. 160 00:07:32,110 --> 00:07:34,534 O dinheiro envolvido é suficiente para viver. 161 00:07:34,558 --> 00:07:36,875 Portanto, é uma quantia bastante justa. 162 00:07:36,900 --> 00:07:38,456 Estou na faixa média a alta 163 00:07:38,480 --> 00:07:39,966 das receitas na Austrália. 164 00:07:39,990 --> 00:07:41,798 Então sim. Muito, muito descida. 165 00:07:42,640 --> 00:07:44,286 - Bem, é difícil nem ter ciúme às vezes 166 00:07:44,310 --> 00:07:46,056 porque você olha para a nossa vida e sabe, 167 00:07:46,080 --> 00:07:48,630 levantamo-nos, vamos trabalhar e voltamos para casa. 168 00:07:49,945 --> 00:07:51,285 E ela pode ganhar dinheiro 169 00:07:51,310 --> 00:07:53,736 Isso pode levar dias para ganhar em minutos. 170 00:07:53,761 --> 00:07:54,807 CONVERSA PROFUNDA 171 00:07:54,831 --> 00:07:56,566 - Eu me peguei dirigindo e chorando, 172 00:07:56,590 --> 00:07:58,706 tendo um colapso total. 173 00:07:58,730 --> 00:07:59,896 E eu me descobri tendo 174 00:07:59,920 --> 00:08:02,246 alguns pensamentos realmente desagradáveis e- 175 00:08:02,270 --> 00:08:05,606 - Rory compartilha sua vida com 5 milhões de pessoas. 176 00:08:05,630 --> 00:08:07,478 Até seus momentos mais baixos. 177 00:08:07,502 --> 00:08:09,034 - Por que devo estar nesta terra? 178 00:08:09,058 --> 00:08:11,666 Tipo, por que ninguém gosta de mim? 179 00:08:11,690 --> 00:08:13,303 Porque eu nao tenho amigos? 180 00:08:14,840 --> 00:08:17,480 Mas na maioria dos dias ela se sente muito sozinha. 181 00:08:17,523 --> 00:08:19,326 - OK. Esse é um nome antigo para, 182 00:08:19,350 --> 00:08:20,971 Estar longe das pessoas é 183 00:08:20,995 --> 00:08:22,216 definitivamente solitário, você sabe. 184 00:08:22,240 --> 00:08:24,176 Eu filme, oh, quatro vídeos por dia. 185 00:08:24,200 --> 00:08:25,777 Isso é três horas fora do meu dia. 186 00:08:25,802 --> 00:08:27,082 E então eu tenho mais oito horas 187 00:08:27,107 --> 00:08:28,472 e eu fico tipo, o que diabos eu vou fazer 188 00:08:28,496 --> 00:08:29,576 pelo resto do dia? Como se eu não 189 00:08:29,600 --> 00:08:30,661 pudesse ligar para meus amigos 190 00:08:30,685 --> 00:08:32,620 tipo, "vocês, querem sair?" porque eles estão no trabalho. 191 00:08:32,644 --> 00:08:34,246 Portanto, às vezes é definitivamente solitário. 192 00:08:34,270 --> 00:08:35,766 E você sabe, às vezes, se você estiver lendo 193 00:08:35,790 --> 00:08:38,046 os comentários de ódio e a carga de estresse, 194 00:08:38,070 --> 00:08:39,426 pode ser muito para o seu corpo 195 00:08:39,450 --> 00:08:41,896 e você está sobrecarregado e sozinho. 196 00:08:41,920 --> 00:08:44,024 Isso também pode levar à depressão. 197 00:08:44,048 --> 00:08:45,334 - Catherine não tem uma pergunta. 198 00:08:45,358 --> 00:08:47,993 Estou feliz em voltar para você, mas vamos mantê-lo civilizado. 199 00:08:48,017 --> 00:08:49,017 Andrew? 200 00:08:50,900 --> 00:08:51,900 Catherine. 201 00:08:52,528 --> 00:08:54,208 POV VOCÊ TEM 6 ANOS DE IDADE 202 00:08:55,900 --> 00:08:58,146 Com as pessoas presas em casa durante o bloqueio, 203 00:08:58,170 --> 00:08:59,936 desesperado por entretenimento. 204 00:08:59,960 --> 00:09:03,700 O TikTok se tornou o aplicativo mais baixado do mundo em 2020. 205 00:09:07,050 --> 00:09:09,819 E continuou a ter esse título este ano. 206 00:09:13,212 --> 00:09:17,456 - TikTok na Austrália viu o mesmo tipo de solavanco 207 00:09:17,480 --> 00:09:19,703 em 2020 como em qualquer parte do mundo. 208 00:09:23,163 --> 00:09:24,823 Em outubro de 2020, havia cerca de 209 00:09:24,840 --> 00:09:26,014 2,5 milhões de usuários no TikTok. 210 00:09:26,038 --> 00:09:27,283 O que representou um crescimento de 211 00:09:27,307 --> 00:09:28,696 cerca de 50% em relação ao início do ano. 212 00:09:28,720 --> 00:09:30,440 DR BONDY KAYE - PESQUISADOR DE MÍDIA DIGITAL 213 00:09:41,903 --> 00:09:43,562 Dos populares aplicativos de mídia social, 214 00:09:43,587 --> 00:09:45,585 TikTok é o mais viciante. 215 00:09:46,070 --> 00:09:47,526 Vazamento de dados de publicidade do 216 00:09:47,550 --> 00:09:49,006 TikTok mostra os gastos dos usuários 217 00:09:49,030 --> 00:09:52,253 uma média de uma hora e meia no aplicativo a cada dia. 218 00:09:54,310 --> 00:09:56,728 - Você sabe que é como 20:00 e eu estou assistindo e assistindo 219 00:09:56,752 --> 00:09:59,256 e então eu olho para o meu relógio e são 2h. 220 00:09:59,474 --> 00:10:01,436 E eu fico tipo, para onde diabos essas horas foram? 221 00:10:01,460 --> 00:10:03,420 É porque esta página "Para você" é tão viciante. 222 00:10:03,430 --> 00:10:05,214 É tão preciso. 223 00:10:09,188 --> 00:10:11,988 O algoritmo do TikTok é seu ativo mais valioso. 224 00:10:14,650 --> 00:10:17,336 É projetado para determinar seus interesses 225 00:10:17,360 --> 00:10:19,446 e enviar a você conteúdo personalizado 226 00:10:19,470 --> 00:10:22,126 para mantê-lo no aplicativo pelo maior tempo possível. 227 00:10:22,150 --> 00:10:23,226 - Eu fui ver minha mãe. 228 00:10:23,250 --> 00:10:25,266 E eu fui e fiz meu cabelo, também só para- 229 00:10:25,290 --> 00:10:28,696 - O TikTok recomenda conteúdo para você 230 00:10:28,720 --> 00:10:31,016 por meio de sua atividade no aplicativo. 231 00:10:31,040 --> 00:10:33,546 Quanto mais você rola pelo aplicativo, 232 00:10:33,570 --> 00:10:35,216 quanto melhor as recomendações são adaptadas 233 00:10:35,240 --> 00:10:36,823 aos seus interesses específicos. 234 00:10:37,890 --> 00:10:40,846 Em vez de selecionar o conteúdo que deseja assistir 235 00:10:40,870 --> 00:10:43,271 como você faria no YouTube ou no Netflix. 236 00:10:43,640 --> 00:10:45,464 Você acessa principalmente o conteúdo 237 00:10:45,488 --> 00:10:47,256 por meio de um feed principal, 238 00:10:47,280 --> 00:10:49,225 que é chamada de página Para você no TikTok. 239 00:10:49,490 --> 00:10:51,976 Que é essencialmente uma rolagem infinita, 240 00:10:52,000 --> 00:10:55,306 feed de vídeos com curadoria de algoritmos 241 00:10:55,330 --> 00:10:57,583 que é atualizado sempre que você abre o aplicativo. 242 00:10:58,987 --> 00:11:00,736 Assim que você se inscrever no TikTok, 243 00:11:00,760 --> 00:11:02,516 o aplicativo começa a coletar dados 244 00:11:02,540 --> 00:11:05,716 sobre você, sua localização, sexo e idade, 245 00:11:05,740 --> 00:11:08,766 e também seus dados faciais para descobrir quem você é 246 00:11:08,790 --> 00:11:10,903 e que tipo de vídeos você deseja ver. 247 00:11:11,770 --> 00:11:13,571 - Seu rosto é uma forma de informação biométrica. 248 00:11:13,595 --> 00:11:17,343 E seu rosto pode ser analisado para distinguir um intervalo 249 00:11:17,368 --> 00:11:19,415 de personalidade e traços demográficos. 250 00:11:19,440 --> 00:11:21,840 DR NIELS WOUTERS - PESQUISADOR DA INTERAÇÃO HUMANO-COMPUTADOR 251 00:11:24,630 --> 00:11:26,376 TikTok coleta seus dados faciais 252 00:11:26,400 --> 00:11:29,786 toda vez que você faz um vídeo ou usa um filtro no aplicativo. 253 00:11:29,810 --> 00:11:33,856 E pode até acessar fotos e vídeos salvos em seu telefone 254 00:11:33,880 --> 00:11:35,970 que não estão sendo usados na plataforma. 255 00:11:36,720 --> 00:11:38,669 Para entender como um aplicativo 256 00:11:38,693 --> 00:11:40,726 como o TikTok interpreta esses dados 257 00:11:40,750 --> 00:11:42,696 cientistas em Melbourne desenvolveram 258 00:11:42,720 --> 00:11:44,746 o que é chamado de espelho biométrico. 259 00:11:45,200 --> 00:11:46,906 - Espelho biométrico, por exemplo, 260 00:11:46,930 --> 00:11:49,526 é treinado por meio de inteligência artificial 261 00:11:49,550 --> 00:11:51,506 para distinguir o quão inteligente você é, 262 00:11:51,530 --> 00:11:54,636 quão atraente, quão estranho, quão responsável 263 00:11:54,660 --> 00:11:57,763 e como você é emocionalmente instável. 264 00:11:58,940 --> 00:12:00,406 O interessante é claro, 265 00:12:00,430 --> 00:12:02,796 é que o espelho biométrico baseia suas suposições 266 00:12:02,828 --> 00:12:05,155 em um único instantâneo de seu rosto. 267 00:12:05,180 --> 00:12:07,976 Portanto, todas essas suposições são geradas com base 268 00:12:08,000 --> 00:12:10,646 na aparência exata do seu rosto 269 00:12:10,670 --> 00:12:13,836 naquele exato microssegundo em que a foto foi tirada. 270 00:12:14,874 --> 00:12:17,396 O algoritmo TikTok pode ler seu rosto 271 00:12:17,420 --> 00:12:19,946 e acho que você está lidando 272 00:12:19,970 --> 00:12:22,496 com um desafio significativo de saúde mental. 273 00:12:22,520 --> 00:12:25,386 Você pode ver vídeos 274 00:12:25,410 --> 00:12:27,766 que são criados por usuários que passam por 275 00:12:27,790 --> 00:12:29,986 um desafio semelhante na época. 276 00:12:30,010 --> 00:12:32,264 E pode realmente criar uma visão 277 00:12:32,288 --> 00:12:34,116 de mundo muito colorida para você 278 00:12:34,140 --> 00:12:35,556 onde é realmente difícil lidar 279 00:12:35,580 --> 00:12:37,756 com seu desafio de saúde mental naquele momento. 280 00:12:45,020 --> 00:12:47,676 Lauren Hemings está estudando para ser parteira. 281 00:12:47,700 --> 00:12:49,584 Ela costumava passar os intervalos da universidade 282 00:12:49,608 --> 00:12:51,305 rolando pelo TikTok. 283 00:12:51,920 --> 00:12:53,936 - Acho que foi tédio de quarentena 284 00:12:53,960 --> 00:12:56,903 isso meio que me motivou a fazer o download. 285 00:12:57,990 --> 00:12:59,316 Era uma esperança bastante inocente 286 00:12:59,340 --> 00:13:01,416 de apenas conseguir uma boa risada, realmente. 287 00:13:01,440 --> 00:13:03,466 Você sabe, como conseguir vídeos engraçados 288 00:13:03,490 --> 00:13:05,673 e ver o que havia nele. 289 00:13:06,910 --> 00:13:08,176 Eu nunca tive a intenção 290 00:13:08,200 --> 00:13:09,756 de fazer TikToks ou compartilhá-los. 291 00:13:09,780 --> 00:13:13,085 Era mais do ponto de vista de um espectador. 292 00:13:13,860 --> 00:13:15,086 Lauren começou a seguir 293 00:13:15,110 --> 00:13:17,719 um influenciador de fitness popular no aplicativo. 294 00:13:20,120 --> 00:13:22,456 - Há uma mulher que tinha um 295 00:13:22,480 --> 00:13:24,456 tipo de corpo bastante semelhante 296 00:13:24,500 --> 00:13:28,526 para mim e ela expressou que estava infeliz 297 00:13:28,550 --> 00:13:29,633 com esse tipo de corpo. 298 00:13:30,810 --> 00:13:33,176 E ela começou a monitorar as calorias durante a quarentena. 299 00:13:33,200 --> 00:13:36,043 Ela tinha perdido uma quantidade muito significativa de peso. 300 00:13:36,204 --> 00:13:38,270 VERÃO 2021 HIIT BABY VAMOS! 301 00:13:39,300 --> 00:13:41,346 O algoritmo então inundou seu feed 302 00:13:41,370 --> 00:13:44,277 com conteúdo que promove a perda de peso prejudicial à saúde. 303 00:13:44,441 --> 00:13:45,441 DIA 16 304 00:13:46,229 --> 00:13:47,416 - Eu não estava mais vendo vídeos 305 00:13:47,440 --> 00:13:48,560 engraçados de dança nem nada. 306 00:13:48,580 --> 00:13:50,776 Era como se esse foco completo 307 00:13:50,800 --> 00:13:52,585 sobre isso, como meta de condicionamento 308 00:13:52,609 --> 00:13:54,903 físico e estilo de vida saudável. 309 00:13:55,015 --> 00:13:56,249 PRANCHA 30 SEGS 310 00:13:56,280 --> 00:13:57,490 LEVANTAMENTO DE PERNA 30 DE CADA LADO 311 00:13:57,514 --> 00:13:58,779 MASSA CREMOSA DE FRANGO, 529 CALORIAS 312 00:13:58,803 --> 00:14:01,406 - TikTok empurrou Lauren em direção à tendência popular 313 00:14:01,430 --> 00:14:03,598 de controlar meticulosamente quantas 314 00:14:03,622 --> 00:14:05,343 calorias você ingere por dia. 315 00:14:06,330 --> 00:14:07,912 Algo que pesquisas alertam 316 00:14:07,936 --> 00:14:09,493 favorece a alimentação desordenada. 317 00:14:09,518 --> 00:14:10,693 FRUTA + NUTELLA, 202 CALORIAS 318 00:14:10,890 --> 00:14:12,786 A hashtag "O que eu como em um dia" 319 00:14:12,810 --> 00:14:15,705 tem mais de 7 bilhões de visualizações no TikTok. 320 00:14:15,730 --> 00:14:17,001 GRANDE SALADA 321 00:14:17,204 --> 00:14:18,496 POP CHIPS QUE ERA MUITO GOSTOSO 322 00:14:18,520 --> 00:14:20,096 - Virou uma espécie de obsessão 323 00:14:20,120 --> 00:14:23,536 e eu senti que não podia comer nada 324 00:14:23,560 --> 00:14:26,566 sem saber quantas calorias continha 325 00:14:26,590 --> 00:14:28,836 e sem cumprir, sabe, meu número-alvo 326 00:14:28,860 --> 00:14:30,376 de calorias ao longo do dia. 327 00:14:30,400 --> 00:14:32,556 Houve alguns meses em que não coloquei nada 328 00:14:32,580 --> 00:14:34,713 em minha boca que eu não havia pesado. 329 00:14:34,974 --> 00:14:36,166 OBSTETRÍCIA 330 00:14:36,190 --> 00:14:38,396 Quatro meses após o download do TikTok, 331 00:14:38,420 --> 00:14:40,676 Lauren admitiu para seus amigos e familiares 332 00:14:40,700 --> 00:14:42,377 ela tinha um distúrbio alimentar. 333 00:14:43,040 --> 00:14:44,846 - Eu gostaria de pensar que não teria lutado 334 00:14:44,870 --> 00:14:47,196 com um transtorno alimentar se eu não tivesse baixado o TikTok. 335 00:14:47,220 --> 00:14:48,276 Eu acho, você sabe, TikTok 336 00:14:48,300 --> 00:14:51,823 foi o principal contribuinte para o desenvolvimento disso. 337 00:14:51,848 --> 00:14:53,448 ALGUÉM TEM ALGUMA DICA PARA JEJUM DE ÁGUA 338 00:14:53,510 --> 00:14:56,196 Usuários jovens estão cada vez mais se voltando para o TikTok 339 00:14:56,220 --> 00:14:58,286 para encontrar e divulgar informações 340 00:14:58,310 --> 00:15:00,126 sobre como restringir alimentos 341 00:15:00,150 --> 00:15:02,855 e esconder sua desordem, comendo de suas famílias. 342 00:15:02,880 --> 00:15:04,280 ALGUEM QUER FAZER 3 DIAS DE JEJUM COMIGO? 343 00:15:04,290 --> 00:15:06,956 - O que eles fazem é compartilhar conteúdo 344 00:15:06,980 --> 00:15:10,216 do que eles passaram e o que fizeram durante o dia 345 00:15:10,240 --> 00:15:11,953 no fascínio de ficar magro. 346 00:15:12,840 --> 00:15:14,326 Então, eles compartilhariam receitas. 347 00:15:14,351 --> 00:15:15,896 DR SUKU SUKUNESAN - PESQUISADOR DE MÍDIA SOCIAL 348 00:15:15,920 --> 00:15:17,699 Eles compartilhariam planos de dieta. 349 00:15:17,724 --> 00:15:19,995 Eles compartilhariam como você precisa ser disciplinado. 350 00:15:20,020 --> 00:15:23,660 Para alguém que está vulnerável e desesperado, 351 00:15:23,690 --> 00:15:26,326 eles seguiriam o conselho de qualquer pessoa. 352 00:15:26,350 --> 00:15:28,346 Nenhum desses conselhos é realmente bom 353 00:15:28,370 --> 00:15:31,436 porque alguns desses conselhos são, oh, lamber uma abóbora 354 00:15:31,460 --> 00:15:34,040 para o seu almoço, mas não coma. 355 00:15:34,640 --> 00:15:37,013 Beba um litro de água e você ficará bem. 356 00:15:37,940 --> 00:15:40,086 - Eu estava super hesitante em entrar no TikTok 357 00:15:40,110 --> 00:15:41,736 porque ouvi dizer que era um espaço muito ruim 358 00:15:41,760 --> 00:15:43,160 para pessoas com transtornos alimentares. 359 00:15:43,166 --> 00:15:45,046 Porque o algoritmo sabe tudo 360 00:15:45,070 --> 00:15:46,956 e então ele selecionaria seu feed 361 00:15:46,980 --> 00:15:48,525 estar interessado nesse tipo de coisa. 362 00:15:49,480 --> 00:15:51,946 Claire Benstead entrou e saiu do hospital 363 00:15:51,970 --> 00:15:54,544 para anorexia por mais de cinco anos. 364 00:15:54,630 --> 00:15:56,386 Ela decidiu baixar o TikTok 365 00:15:56,410 --> 00:15:59,653 para encontrar apoio e promover seu negócio de brincos. 366 00:16:00,130 --> 00:16:01,776 - Você quer esse apoio 367 00:16:01,800 --> 00:16:03,366 porque é uma doença tão isoladora. 368 00:16:03,390 --> 00:16:04,806 E há tantas pessoas na minha vida 369 00:16:04,830 --> 00:16:06,966 que não entendem e não entendem. 370 00:16:06,990 --> 00:16:09,326 Claire diz que o algoritmo TikTok identificado 371 00:16:09,350 --> 00:16:11,655 ela tinha um distúrbio alimentar e percebeu 372 00:16:11,680 --> 00:16:15,480 uma mudança imediata nos tipos de vídeos em seu feed. 373 00:16:15,500 --> 00:16:16,726 - Então deixou de ser, você sabe, 374 00:16:16,750 --> 00:16:18,766 meu algoritmo era, você sabe, humor australiano 375 00:16:18,790 --> 00:16:21,576 e humor de teatro musical, e todo esse tipo de coisa 376 00:16:21,600 --> 00:16:23,424 estar apenas contente de 377 00:16:23,448 --> 00:16:25,386 transtorno alimentar o tempo todo. 378 00:16:25,410 --> 00:16:28,370 E conforme fiquei mais doente e mais obsessivo, 379 00:16:28,880 --> 00:16:30,786 tudo que eu podia fazer era apenas folhear meu telefone, 380 00:16:30,810 --> 00:16:33,858 e veja esta filmagem. 381 00:16:34,189 --> 00:16:37,045 Passei horas nisso e apenas me fixei nisso. 382 00:16:37,080 --> 00:16:38,663 Eu não estava me recuperando de jeito nenhum. 383 00:16:38,687 --> 00:16:40,280 Eu estava ativamente tendo uma recaída. 384 00:16:40,559 --> 00:16:42,295 Claire foi internada no hospital. 385 00:16:42,320 --> 00:16:43,792 Como parte de seu tratamento, seus 386 00:16:43,816 --> 00:16:45,606 psicólogos trabalharam com ela 387 00:16:45,630 --> 00:16:49,135 para remover o conteúdo tóxico de seu feed TikTok 388 00:16:49,160 --> 00:16:52,360 deixando de seguir contas e reportando vídeos. 389 00:16:52,390 --> 00:16:54,476 Quanto tempo você realmente demorou para se livrar 390 00:16:54,500 --> 00:16:56,915 desse conteúdo de transtorno alimentar do seu algoritmo. 391 00:16:57,890 --> 00:16:58,898 - Idades. 392 00:16:58,920 --> 00:17:00,063 Praticamente estando no hospital, 393 00:17:00,087 --> 00:17:01,250 então provavelmente dois meses, 394 00:17:01,274 --> 00:17:02,619 demorei para mudar o algoritmo. 395 00:17:03,240 --> 00:17:04,836 -Quando você está rolando assim, 396 00:17:04,860 --> 00:17:06,808 - Mesmo enquanto Claire estava me mostrando ela 397 00:17:06,832 --> 00:17:08,476 limpou o feed do TikTok, 398 00:17:08,520 --> 00:17:10,121 vídeos sobre distúrbios 399 00:17:10,145 --> 00:17:11,719 alimentares começaram a reaparecer. 400 00:17:12,060 --> 00:17:14,061 - Ei, lá vamos nós. Aqui está um agora. 401 00:17:14,580 --> 00:17:16,600 Apenas a cada cinco ou seis vídeos. 402 00:17:17,310 --> 00:17:19,368 E então, estou em uma boa situação 403 00:17:19,392 --> 00:17:21,114 para que isso não me desencadeie. 404 00:17:21,120 --> 00:17:22,134 - Então, embora você esteja 405 00:17:22,158 --> 00:17:23,307 dizendo que não estou interessado, 406 00:17:23,331 --> 00:17:24,746 ainda está chegando? - Ainda está subindo. 407 00:17:24,770 --> 00:17:27,126 Se você relatar vídeos do TikTok, a empresa diz 408 00:17:27,150 --> 00:17:30,086 seus moderadores então decidem se devem bani-los. 409 00:17:30,110 --> 00:17:31,526 Que por sua vez é suposto 410 00:17:31,550 --> 00:17:34,116 para ensinar o algoritmo a parar de exibi-los. 411 00:17:34,140 --> 00:17:35,776 - Só digo que não estou interessado nisso- 412 00:17:35,800 --> 00:17:38,716 - Políticas do TikToks, digamos que o aplicativo proíbe conteúdo 413 00:17:38,740 --> 00:17:40,494 promover, normalizar ou glorificar 414 00:17:40,518 --> 00:17:42,003 os transtornos alimentares. 415 00:17:42,020 --> 00:17:43,620 - E você pode dizer que é ofensivo... 416 00:17:43,628 --> 00:17:45,006 Mas quando os usuários gostam de Claire, 417 00:17:45,030 --> 00:17:47,716 relataram esses vídeos, eles foram informados 418 00:17:47,740 --> 00:17:50,066 eles não violam nenhuma diretriz. 419 00:17:50,090 --> 00:17:51,986 - Você poderia pensar que, você sabe, algo tão sério 420 00:17:52,010 --> 00:17:53,516 e tem a maior taxa de mortalidade 421 00:17:53,540 --> 00:17:55,496 de qualquer doença mental, você pensaria que, 422 00:17:55,520 --> 00:17:57,096 isso seria algo que você poderia relatar. 423 00:17:57,120 --> 00:17:58,596 Porque está promovendo esses comportamentos 424 00:17:58,620 --> 00:18:00,415 e está piorando. 425 00:18:05,980 --> 00:18:07,198 TikTok também diz isso 426 00:18:07,220 --> 00:18:09,335 proibição de hashtags pró-transtorno alimentar 427 00:18:09,360 --> 00:18:11,816 para que os usuários não possam pesquisar esses vídeos. 428 00:18:11,840 --> 00:18:13,536 E se eles tentarem, um número 429 00:18:13,560 --> 00:18:15,396 para serviço de apoio a transtornos alimentares, 430 00:18:15,420 --> 00:18:18,796 a Butterfly Foundation é exibida automaticamente. 431 00:18:18,820 --> 00:18:20,900 Mas os usuários encontram maneiras de contornar isso. 432 00:18:21,830 --> 00:18:25,526 - Mas o problema agora é que ele está sempre evoluindo. 433 00:18:25,550 --> 00:18:27,876 Como se houvesse uma hashtag agora que as pessoas 434 00:18:27,900 --> 00:18:29,396 com o uso de transtornos alimentares. 435 00:18:29,420 --> 00:18:31,146 E você nunca iria adivinhar que 436 00:18:31,170 --> 00:18:33,136 era uma hashtag de transtorno alimentar. 437 00:18:33,160 --> 00:18:34,760 Como se fosse uma cantora famosa. 438 00:18:36,740 --> 00:18:40,086 Então, mudá-los é completamente irrelevante 439 00:18:40,110 --> 00:18:42,368 do que é um transtorno alimentar. 440 00:18:42,710 --> 00:18:44,426 E é tão difícil escapar agora. 441 00:18:44,450 --> 00:18:46,536 E eu acho que é muito difícil para o TikTok 442 00:18:46,560 --> 00:18:47,858 para acompanhar tudo isso. 443 00:18:48,400 --> 00:18:51,106 - Existem mecanismos em vigor 444 00:18:51,130 --> 00:18:52,486 para filtrar parte desse conteúdo. 445 00:18:52,510 --> 00:18:55,745 Mas muito disso também depende da moderação humana. 446 00:18:55,800 --> 00:18:58,066 E quando você considera a quantidade de vídeos 447 00:18:58,090 --> 00:19:00,079 e o volume que está sendo carregado no TikTok, 448 00:19:00,103 --> 00:19:02,216 é uma tarefa muito difícil de imaginar 449 00:19:02,240 --> 00:19:04,140 moderadores humanos podem pegar tudo. 450 00:19:09,566 --> 00:19:12,326 No ano passado, TikTok estabeleceu um conselho 451 00:19:12,350 --> 00:19:14,406 de especialistas externos para aconselhar 452 00:19:14,430 --> 00:19:16,813 a empresa sobre moderação de conteúdo. 453 00:19:17,880 --> 00:19:19,703 David Polgar é um deles. 454 00:19:20,980 --> 00:19:23,266 - Como sabemos, com grande poder vem uma grande responsabilidade. 455 00:19:23,290 --> 00:19:25,606 Há muito poder no algoritmo do TikTok. 456 00:19:25,630 --> 00:19:28,236 Portanto, você deve estar constantemente ciente 457 00:19:28,260 --> 00:19:31,876 de como está impactando outras pessoas 458 00:19:31,900 --> 00:19:33,301 e outras comunidades. 459 00:19:33,871 --> 00:19:35,331 Eu acho comparativamente falando 460 00:19:35,356 --> 00:19:36,456 DAVID PLGAR - ÉTICA TECNOLÓGICA E 461 00:19:36,480 --> 00:19:38,208 MEMBRO DO CONSELHO CONSULTIVO DE CONTEÚDO DA TIKTOK 462 00:19:38,232 --> 00:19:40,090 TikTok fez um trabalho bastante decente 463 00:19:40,115 --> 00:19:44,056 com ser mais reflexivo em buracos de coelho 464 00:19:44,080 --> 00:19:48,026 e como isso pode afetar os indivíduos. 465 00:19:48,040 --> 00:19:50,741 Mas, ao mesmo tempo, você está 466 00:19:50,772 --> 00:19:53,047 lidando com o comportamento humano. 467 00:19:53,220 --> 00:19:55,696 Você está lidando com maus atores. 468 00:19:55,720 --> 00:19:58,146 Você está lidando com grandes diferenças 469 00:19:58,170 --> 00:20:02,693 de como as pessoas definem apropriado versus impróprio. 470 00:20:02,830 --> 00:20:04,146 E nós temos esse tipo complicado 471 00:20:04,170 --> 00:20:07,053 de equilíbrio que está acontecendo constantemente. 472 00:20:09,740 --> 00:20:11,626 - O modelo de negócios da TikTok baseia-se 473 00:20:11,650 --> 00:20:13,420 na criação de um ambiente divertido, 474 00:20:13,450 --> 00:20:16,396 versão brilhante e glamorosa do mundo. 475 00:20:16,420 --> 00:20:19,566 E descobriu-se que a empresa controla estritamente o conteúdo 476 00:20:19,590 --> 00:20:21,486 que não se encaixa com essa imagem. 477 00:20:21,510 --> 00:20:23,100 Em março do ano passado, documentos 478 00:20:23,124 --> 00:20:24,976 de política da TikTok vazaram 479 00:20:25,000 --> 00:20:27,496 mostrando moderadores de conteúdo foram instruídos 480 00:20:27,520 --> 00:20:29,836 suprimir postagens de criadores 481 00:20:29,860 --> 00:20:32,703 considerada feia, pobre ou deficiente. 482 00:20:36,500 --> 00:20:38,328 Os documentos diziam: "Vídeos, incluindo 483 00:20:38,352 --> 00:20:40,826 pessoas que eram gordinhas ou obesas 484 00:20:40,850 --> 00:20:42,136 com aparência facial feia, 485 00:20:42,160 --> 00:20:44,986 como muitas rugas ou deformidades faciais 486 00:20:45,010 --> 00:20:47,846 e outras deficiências devem ser excluídas." 487 00:20:47,870 --> 00:20:51,443 TikTok disse que não se envolve mais nessas práticas. 488 00:20:55,939 --> 00:20:57,245 - Não quero admitir, mas parece 489 00:20:57,270 --> 00:20:58,366 tem muito a ver com isso. 490 00:20:58,390 --> 00:21:00,746 E você sabe, todos nós somos secretamente um pouco vaidosos. 491 00:21:00,770 --> 00:21:02,436 Por mais que você não queira admitir, 492 00:21:02,460 --> 00:21:04,463 você procura looks em vez de não-looks, você sabe. 493 00:21:04,480 --> 00:21:05,525 Então eu acho que a aparência 494 00:21:05,549 --> 00:21:06,933 definitivamente tem muito a ver com isso. 495 00:21:06,957 --> 00:21:09,466 E se você olhar para todos os grandes influenciadores, 496 00:21:09,490 --> 00:21:10,586 eles são todos lindos. 497 00:21:10,610 --> 00:21:12,376 Tipo, se você olhar para todos esses influenciadores, 498 00:21:12,400 --> 00:21:14,494 eles são todos impressionantes, como nada de errado com eles. 499 00:21:14,518 --> 00:21:15,671 Então eu acho que a aparência 500 00:21:15,695 --> 00:21:17,295 definitivamente tem muito a ver com isso. 501 00:21:30,387 --> 00:21:32,008 Grande parte da popularidade do TikTok 502 00:21:32,032 --> 00:21:33,624 é impulsionado por tendências de dança, 503 00:21:33,660 --> 00:21:35,866 coreografado por criadores negros 504 00:21:35,890 --> 00:21:38,342 e depois copiado por influenciadores brancos. 505 00:21:40,330 --> 00:21:42,066 Mas os criadores de conteúdo negro dizem 506 00:21:42,090 --> 00:21:45,255 que a plataforma os discrimina ativamente. 507 00:21:45,280 --> 00:21:47,393 QUANDO EU ACHO QUE OS CRIADORES NEGROS DO TIKTOK ESTÃO DE GREVE 508 00:21:47,417 --> 00:21:49,786 Acho que é hora de deixarmos as mulheres negras 509 00:21:49,810 --> 00:21:52,166 neste aplicativo também ficarem famosas por fazer o mínimo. 510 00:21:52,190 --> 00:21:54,876 Como se eu devesse ser capaz de ficar sentado aqui em silêncio, 511 00:21:54,900 --> 00:21:56,046 e deixe vocês olharem para mim 512 00:21:56,070 --> 00:21:57,180 e a próxima coisa que você sabe, 513 00:21:57,204 --> 00:21:58,484 eu tenho um milhão de seguidores. 514 00:22:00,220 --> 00:22:01,580 - Petição para negros para o resto 515 00:22:01,600 --> 00:22:03,246 de abril para parar de falar. 516 00:22:03,270 --> 00:22:04,896 - Houve casos 517 00:22:04,920 --> 00:22:08,156 do criador negro liderado em massa saídas 518 00:22:08,180 --> 00:22:09,796 da plataforma chamada Blackouts. 519 00:22:09,820 --> 00:22:11,206 Onde em um certo dia, 520 00:22:11,230 --> 00:22:12,766 criadores negros vão parar de usar a plataforma 521 00:22:12,790 --> 00:22:15,936 ou exortar outros criadores a abandonar a plataforma 522 00:22:15,960 --> 00:22:19,506 por causa da inação do TikToks e falha em responder aos 523 00:22:19,530 --> 00:22:21,736 ou se envolver com algumas das críticas 524 00:22:21,760 --> 00:22:25,264 e o discurso que os criadores negros levantaram. 525 00:22:25,334 --> 00:22:30,909 Portanto, se a empresa continuar a ser reativa e responsiva, 526 00:22:31,020 --> 00:22:33,866 em vez de proativo e realmente engajado, 527 00:22:33,890 --> 00:22:36,165 então esses problemas continuarão ocorrendo. 528 00:22:36,320 --> 00:22:39,280 ATUALMENTE AGUARDANDO MEU TEMPO NA PRISÃO DE TIKTOK TERMINAR 529 00:22:39,300 --> 00:22:41,396 - Muitas vezes, isso me deixa bastante furioso, eu acho, 530 00:22:41,420 --> 00:22:42,926 porque é como esses criadores negros, 531 00:22:42,950 --> 00:22:45,566 eles têm talento, eles estão aqui dançando 532 00:22:45,590 --> 00:22:47,606 e mostrando do que são capazes. 533 00:22:47,920 --> 00:22:49,559 É muito decepcionante 534 00:22:49,583 --> 00:22:51,091 e difícil para nós 535 00:22:51,325 --> 00:22:52,981 UNICE WANI @unicewani, 595,7K SEGUIDORES 536 00:22:53,020 --> 00:22:54,563 quando estamos aqui, espera-se que 537 00:22:54,587 --> 00:22:56,455 tudo isso para obter as visualizações 538 00:22:56,480 --> 00:22:57,996 para obter curtidas e compartilhamentos. 539 00:22:58,020 --> 00:23:00,106 Mas não importa o quanto tentemos, 540 00:23:00,130 --> 00:23:02,062 nós simplesmente não vamos conseguir isso. 541 00:23:08,660 --> 00:23:12,936 - Unice Wani é um criador de TikTok de 18 anos de Perth. 542 00:23:13,050 --> 00:23:14,840 - Eu gosto deste. Olhe e veja. 543 00:23:15,000 --> 00:23:16,496 Eu sinto que quanto mais eu me torno viral, 544 00:23:16,520 --> 00:23:20,536 quanto mais eu posso basicamente mostrar à geração mais jovem 545 00:23:20,560 --> 00:23:23,256 e mostrar mais garotas de cor, eu acho, 546 00:23:23,280 --> 00:23:24,924 ou pessoas por aí como se eu 547 00:23:24,948 --> 00:23:27,056 estivesse bem na minha própria pele 548 00:23:27,080 --> 00:23:28,766 e eu me amo do jeito que sou. 549 00:23:28,790 --> 00:23:31,276 Eu não me importo com o que a mídia social diz sobre mim. 550 00:23:31,300 --> 00:23:34,186 O que as pessoas do outro lado da tela dizem sobre mim. 551 00:23:34,210 --> 00:23:36,203 Você pode ser você mesmo no final do dia. 552 00:23:36,708 --> 00:23:38,176 Deixe-me resolver isso rapidamente 553 00:23:38,200 --> 00:23:39,527 - À medida que seus seguidores cresciam, 554 00:23:39,551 --> 00:23:41,856 o mesmo aconteceu com os comentários odiosos. 555 00:23:41,880 --> 00:23:44,856 E ela decidiu enfrentar o problema no aplicativo. 556 00:23:44,880 --> 00:23:46,676 - Então, a maioria de vocês ainda sente a necessidade 557 00:23:46,700 --> 00:23:49,266 para comentar sobre a cor da minha pele e como sou moreno 558 00:23:49,290 --> 00:23:51,656 e sobre como sou preto, preto, preto, preto, preto eu sou. 559 00:23:51,660 --> 00:23:52,694 Bem, adivinhe? 560 00:23:52,719 --> 00:23:54,563 Sou negra e estou muito orgulhosa. 561 00:23:57,931 --> 00:24:00,556 - Unice diz que muitas vezes seus vídeos ficam ocultos 562 00:24:00,580 --> 00:24:02,396 ou sem som no feed do TikTok. 563 00:24:02,420 --> 00:24:03,856 O que significa que poucas pessoas os veem. 564 00:24:03,880 --> 00:24:05,040 Uma prática conhecida como Shadow 565 00:24:05,051 --> 00:24:06,103 Banning. 566 00:24:06,135 --> 00:24:07,657 - Você está pressionado? 567 00:24:07,681 --> 00:24:09,187 Você está louco? 568 00:24:09,211 --> 00:24:10,638 Você está chateado? 569 00:24:10,662 --> 00:24:11,662 Você está triste? 570 00:24:12,960 --> 00:24:14,116 Desculpe, o quê? 571 00:24:14,140 --> 00:24:17,276 Eu acho que você tende a ter um monte de proibições de sombra 572 00:24:17,300 --> 00:24:20,596 por falar sobre coisas como racismo. 573 00:24:20,620 --> 00:24:21,906 Coisas que você não poderia mencionar. 574 00:24:21,930 --> 00:24:24,516 Uma palavra, preto, poderia dizer tudo isso 575 00:24:24,540 --> 00:24:26,916 e seu vídeo pode ter sua sombra banida. 576 00:24:26,940 --> 00:24:32,340 Quando você posta um vídeo, o vídeo está no app. 577 00:24:32,370 --> 00:24:34,576 É só que você não vai ter nenhuma opinião por isso. 578 00:24:34,600 --> 00:24:35,791 Então você pode ver. É só que outras 579 00:24:35,815 --> 00:24:36,956 pessoas não conseguem ver isso 580 00:24:36,980 --> 00:24:39,326 quando eles vão para sua conta também. 581 00:24:39,350 --> 00:24:42,549 Então está lá em cima. Só que não obterá nenhuma visualização. 582 00:24:47,310 --> 00:24:49,546 No ano passado, os criadores do TikTok notaram 583 00:24:49,570 --> 00:24:51,816 o algoritmo estava suprimindo postagens 584 00:24:51,840 --> 00:24:55,153 com a hashtag Vidas Negras Importam ou George Floyd. 585 00:24:59,597 --> 00:25:04,293 - Então, a palavra na rua é que TikTok baniu 586 00:25:04,450 --> 00:25:06,209 a hashtag Vidas Negras Importam. 587 00:25:12,100 --> 00:25:14,372 Um desses criadores foi o homem de Sydney, 588 00:25:14,397 --> 00:25:16,552 Paniora Nukunuku, que havia criado 589 00:25:16,580 --> 00:25:18,940 um vídeo usando uma mesa de sinuca 590 00:25:18,970 --> 00:25:20,466 para explicar a questão Vidas Negras 591 00:25:20,490 --> 00:25:22,336 Importam para os australianos. 592 00:25:22,360 --> 00:25:23,926 - Esta é uma mesa branca da Austrália. 593 00:25:23,950 --> 00:25:25,836 E eles tinham quase 200 anos de vantagem 594 00:25:25,860 --> 00:25:27,556 e eles haviam estabelecido tudo no país. 595 00:25:27,581 --> 00:25:29,516 Portanto, a pausa deles é assim. 596 00:25:29,540 --> 00:25:32,495 Cara, você pode conseguir casa própria no negócio? 597 00:25:32,540 --> 00:25:33,580 Bela. 598 00:25:33,592 --> 00:25:35,096 Isso foi picante. 599 00:25:35,120 --> 00:25:37,201 Isso explodiu maior do que eu pensei que seria. 600 00:25:37,318 --> 00:25:38,675 Eu só preciso colocar isso aqui. 601 00:25:38,700 --> 00:25:39,846 Rapaz, o que, 602 00:25:39,870 --> 00:25:42,626 - Não se preocupe. É trauma, injustiça e discriminação. 603 00:25:42,650 --> 00:25:44,256 Mas eu disse, desculpe, então deve ficar bem. 604 00:25:44,280 --> 00:25:45,430 Então vá em frente, mano. 605 00:25:46,388 --> 00:25:48,394 Foi o maior vídeo que fiz na época. 606 00:25:48,400 --> 00:25:50,200 Eu acho que você está apenas sendo preguiçoso, hey. 607 00:25:50,216 --> 00:25:51,636 Não sei por quê. 608 00:25:51,660 --> 00:25:54,002 Oh, eu sei por quê, porque era bom. 609 00:25:54,020 --> 00:25:55,565 Eu não deveria olhar para a câmera, mas estou 610 00:25:55,589 --> 00:25:57,185 muito orgulhoso agora. 611 00:25:57,260 --> 00:25:58,436 Usando essas duas bolas brancas, 612 00:25:58,460 --> 00:25:59,656 Eu vou te explicar, isso resultou 613 00:25:59,680 --> 00:26:01,176 na minha conta sendo banido 614 00:26:01,200 --> 00:26:02,816 por uns sete dias. 615 00:26:02,840 --> 00:26:03,896 Não sei por quê. 616 00:26:03,960 --> 00:26:05,372 PANIORA NUKUNUKU @pnuks, 189,6K SEGUIDORES 617 00:26:05,396 --> 00:26:06,664 Eles alegaram que meu vídeo violou 618 00:26:06,688 --> 00:26:07,980 as diretrizes da comunidade, 619 00:26:08,005 --> 00:26:10,966 que é extremamente vago porque não há palavrões, 620 00:26:10,990 --> 00:26:13,119 não há linguagem explícita. 621 00:26:13,143 --> 00:26:17,576 Não há nudez ou coisas sexuais explícitas. 622 00:26:17,600 --> 00:26:20,179 Nada disso. E minha conta foi banida. 623 00:26:20,939 --> 00:26:22,606 - The Vidas Negras Importam é tendência no TikTok, 624 00:26:22,630 --> 00:26:25,016 o que é irônico, considerando quanto tempo o TikTok gasta 625 00:26:25,040 --> 00:26:26,736 silenciando as vozes dos criadores negros. 626 00:26:26,760 --> 00:26:29,006 TikTok se desculpou por suprimir hashtags, 627 00:26:29,030 --> 00:26:30,826 referindo-se a Vidas Negras Importam, 628 00:26:30,889 --> 00:26:32,855 culpando uma falha no algoritmo. 629 00:26:33,043 --> 00:26:34,955 - Vamos dar um minuto de silêncio por este homem. 630 00:26:34,979 --> 00:26:37,059 - A empresa respondeu com uma nova iniciativa 631 00:26:37,090 --> 00:26:38,866 para criadores negros chamado 632 00:26:38,890 --> 00:26:40,096 TikTok Black Creator Program. 633 00:26:40,120 --> 00:26:42,966 Falei com criadores que foram abordados 634 00:26:42,990 --> 00:26:46,606 para aquele programa, que sentiu que era da boca para fora. 635 00:26:46,630 --> 00:26:49,876 Não foi realmente um esforço bem-intencionado 636 00:26:49,900 --> 00:26:51,083 para se envolver com vozes negras 637 00:26:51,107 --> 00:26:52,866 e se envolver com o discurso 638 00:26:52,890 --> 00:26:54,840 isso é importante para as comunidades negras. 639 00:26:56,880 --> 00:27:00,875 Paniora tem mais de 180,000 seguidores no TikTok. 640 00:27:01,540 --> 00:27:04,036 Ele frequentemente posta sobre como viver com uma deficiência. 641 00:27:04,060 --> 00:27:05,376 - Então, crescendo com a perna falsa, 642 00:27:05,400 --> 00:27:07,120 Eu sempre tenho problemas toda vez que eu estaciono 643 00:27:07,134 --> 00:27:08,450 no meu local deficiente. 644 00:27:08,475 --> 00:27:10,436 O primeiro vídeo que fiz, era eu subindo 645 00:27:10,460 --> 00:27:13,556 para uma piscina e dizendo aos meus amigos para me gravar, 646 00:27:13,580 --> 00:27:16,516 mergulhar minha perna falsa na água para testar a água. 647 00:27:16,540 --> 00:27:18,276 Foi uma ideia realmente idiota. 648 00:27:18,300 --> 00:27:19,856 Mas por alguma razão, as pessoas adoraram. 649 00:27:19,880 --> 00:27:21,646 E neste espaço de oito horas, 650 00:27:21,670 --> 00:27:24,393 atingiu cerca de 780,000 visualizações. 651 00:27:25,230 --> 00:27:29,526 Se você tem tantos seguidores e curtidas, 652 00:27:29,550 --> 00:27:30,956 é porque você é bonita. 653 00:27:30,980 --> 00:27:33,026 Se você tem tantos seguidores 654 00:27:33,050 --> 00:27:34,823 e a mesma quantidade de curtidas, 655 00:27:38,450 --> 00:27:39,650 você é simplesmente engraçado. 656 00:27:41,320 --> 00:27:44,146 Paniora teve problemas com os censores TikTok 657 00:27:44,170 --> 00:27:46,806 quando ele postou um vídeo de um confronto 658 00:27:46,830 --> 00:27:48,336 com alguém que estava dizendo a ele, 659 00:27:48,360 --> 00:27:50,936 ele não deveria ter uma licença de deficiência 660 00:27:50,960 --> 00:27:54,366 - Então essa velha teve a coragem de me perguntar 661 00:27:54,390 --> 00:27:57,103 se este é o meu cartão de deficiência. 662 00:27:58,940 --> 00:28:00,226 Esse, 663 00:28:00,250 --> 00:28:02,856 Eu me pergunto se isso é o suficiente. 664 00:28:02,880 --> 00:28:04,736 O vídeo foi retirado. 665 00:28:04,760 --> 00:28:06,076 TikTok disse que violou as diretrizes 666 00:28:06,100 --> 00:28:07,946 da comunidade do aplicativo. 667 00:28:07,970 --> 00:28:10,646 Paniora apelou e ele foi colocado de volta. 668 00:28:10,670 --> 00:28:11,926 Mas ele teve outros vídeos 669 00:28:11,950 --> 00:28:14,496 sobre sua deficiência removida também. 670 00:28:14,520 --> 00:28:15,961 - Você não precisa se preocupar com isso. 671 00:28:15,985 --> 00:28:18,060 O vídeo foi retirado e eu nem sabia disso 672 00:28:18,070 --> 00:28:20,096 até que olhei de volta para as hashtags 673 00:28:20,120 --> 00:28:22,426 e decidi ver quais vídeos eu fiz 674 00:28:22,450 --> 00:28:24,981 ter chegado ao topo e isso não estava lá. 675 00:28:25,300 --> 00:28:28,426 Recorri e não sei por que foi retirado. 676 00:28:28,460 --> 00:28:29,696 Nunca mais faça isso. 677 00:28:29,860 --> 00:28:31,946 Eu sinto que o TikTok está sendo racista? 678 00:28:31,970 --> 00:28:32,970 Não sei. 679 00:28:34,230 --> 00:28:36,642 O TikTok foi atingido no passado, 680 00:28:36,700 --> 00:28:39,126 em torno dos moderadores sendo informados 681 00:28:39,140 --> 00:28:44,620 limitar a exposição de pessoas com deficiência e feias? 682 00:28:44,630 --> 00:28:46,256 Sim. Eles foram chamados para isso. 683 00:28:46,280 --> 00:28:47,466 Isso está acontecendo de novo? 684 00:28:47,490 --> 00:28:51,056 Espero que não, mas definitivamente parece que sim. 685 00:28:51,080 --> 00:28:54,226 Nós sabemos que para descolonizar a Palestina 686 00:28:54,250 --> 00:28:56,556 significa também descolonizar- 687 00:28:56,580 --> 00:28:59,026 - Provavelmente vou continuar, tirar algumas fotos. 688 00:28:59,050 --> 00:29:00,056 Em maio deste ano, 689 00:29:00,080 --> 00:29:03,446 Paniora postou um vídeo de um comício pró-Palestina. 690 00:29:03,470 --> 00:29:05,676 Mas o algoritmo de TikTok sinalizou isso. 691 00:29:05,700 --> 00:29:07,479 E foi imediatamente retirado. 692 00:29:09,990 --> 00:29:13,126 Outros criadores postando TikToks sobre a Palestina 693 00:29:13,150 --> 00:29:15,895 disseram que experimentaram a mesma coisa. 694 00:29:18,238 --> 00:29:20,896 - Quando o TikTok começou a remover meus vídeos 695 00:29:20,920 --> 00:29:22,606 sobre os protestos em relação 696 00:29:22,630 --> 00:29:25,546 para a situação palestina, fiquei furioso. 697 00:29:25,570 --> 00:29:29,256 Eu fiquei tipo, por quê? Não há nada nesses vídeos 698 00:29:29,280 --> 00:29:33,106 isso justificaria, como uma remoção. 699 00:29:33,130 --> 00:29:34,373 Realmente não existe. 700 00:29:34,750 --> 00:29:37,366 - Um dos grandes problemas com o TikTok 701 00:29:37,390 --> 00:29:40,675 e a natureza única de seu algoritmo opaco, 702 00:29:40,700 --> 00:29:42,536 FERGUS RYAN, CO-AUTOR DO RELATÓRIO DE CENSURA DO TIKTOK 703 00:29:42,560 --> 00:29:45,760 é que é muito difícil de entender 704 00:29:45,800 --> 00:29:49,574 ou para reconhecer quando a censura está ocorrendo. 705 00:29:49,580 --> 00:29:51,180 As pessoas se reuniram para tentar- 706 00:29:51,207 --> 00:29:54,836 - Portanto, é possível para o conteúdo do aplicativo 707 00:29:54,860 --> 00:29:58,716 para ser promovido ou rebaixado sem ninguém saber. 708 00:29:58,740 --> 00:30:01,606 - Estou farto de todas as plataformas de mídia social 709 00:30:01,630 --> 00:30:03,406 silenciando vozes palestinas. 710 00:30:03,430 --> 00:30:08,106 - Mas também vemos evidências de como a moderação de conteúdo 711 00:30:08,130 --> 00:30:09,656 que ocorre na China. 712 00:30:09,680 --> 00:30:13,846 Como esse tipo de pensamento ainda é aplicado 713 00:30:13,870 --> 00:30:15,883 para TikTok fora da China. 714 00:30:18,631 --> 00:30:21,485 TikTok é propriedade da start-up chinesa ByteDance, 715 00:30:21,510 --> 00:30:25,138 que se acredita valer mais de US$ 250 bilhões. 716 00:30:25,524 --> 00:30:28,200 É fortemente regulamentado pelo governo chinês. 717 00:30:28,230 --> 00:30:30,887 E há um Comitê Interno do Partido Comunista 718 00:30:30,912 --> 00:30:34,736 no ByteDance, que garante os objetivos políticos do partido 719 00:30:34,760 --> 00:30:37,049 são perseguidos ao lado da empresa. 720 00:30:37,323 --> 00:30:38,458 Desligue, por favor. 721 00:30:38,920 --> 00:30:41,016 - Temos que estar mais preocupados 722 00:30:41,040 --> 00:30:45,046 sobre como aplicativos como o TikTok podem ser usados 723 00:30:45,070 --> 00:30:47,923 como vetor de censura e vigilância. 724 00:30:50,030 --> 00:30:52,426 - o instituto australiano de política estratégica 725 00:30:52,450 --> 00:30:54,606 fez a primeira investigação acadêmica 726 00:30:54,630 --> 00:30:56,386 em censura no TikTok, 727 00:30:56,410 --> 00:30:59,416 concluindo que a empresa usa ativamente o algoritmo 728 00:30:59,440 --> 00:31:01,092 para esconder o discurso político 729 00:31:01,116 --> 00:31:02,700 que considera controverso. 730 00:31:03,060 --> 00:31:05,656 A pesquisa foi financiada pelo Departamento de Estado dos EUA 731 00:31:05,680 --> 00:31:08,606 e encontrei vídeos do governo anti-russo 732 00:31:08,620 --> 00:31:12,075 bem como hashtags sobre questões LGBTQI 733 00:31:12,100 --> 00:31:13,860 e a detenção em massa de uigures 734 00:31:13,900 --> 00:31:15,873 estavam entre os reprimidos. 735 00:31:18,550 --> 00:31:22,676 - A empresa tem cooperado com agências de segurança pública 736 00:31:22,700 --> 00:31:26,116 em toda a China e inclusive em Xinjiang. 737 00:31:26,140 --> 00:31:30,346 E isso significa que eles funcionam, 738 00:31:30,370 --> 00:31:33,216 eles coordenam com agências governamentais 739 00:31:33,240 --> 00:31:36,716 para garantir que o espaço de informação na China 740 00:31:36,740 --> 00:31:40,006 está cheio dessa propaganda. 741 00:31:40,030 --> 00:31:42,636 Isso mostra uma imagem muito otimista 742 00:31:42,660 --> 00:31:44,524 do que está acontecendo em Xinjiang. 743 00:31:48,680 --> 00:31:51,336 Em 2018, então CEO da ByteDance 744 00:31:51,360 --> 00:31:53,406 foi forçado a se desculpar publicamente. 745 00:31:53,430 --> 00:31:55,536 Dizendo uma das plataformas da empresa 746 00:31:55,560 --> 00:31:59,436 tinha ido contra os principais valores socialistas da China. 747 00:31:59,460 --> 00:32:03,026 - Temos uma declaração pública muito clara 748 00:32:03,050 --> 00:32:04,806 do fundador da ByteDance, 749 00:32:04,830 --> 00:32:08,826 que isso é algo que ele está empenhado em fazer 750 00:32:08,850 --> 00:32:11,466 e para garantir que a empresa continue 751 00:32:11,490 --> 00:32:13,541 para empurrar esse tipo de propaganda, 752 00:32:13,565 --> 00:32:15,356 certamente dentro da China. 753 00:32:15,380 --> 00:32:18,716 Se isso é então estendido para o resto do mundo 754 00:32:18,740 --> 00:32:22,956 via aplicativos como o TikTok, é outra questão. 755 00:32:22,980 --> 00:32:25,223 E é algo que vale a pena assistir. 756 00:32:26,230 --> 00:32:27,666 Em um comunicado, TikTok disse: 757 00:32:27,690 --> 00:32:30,256 não modera ou remove conteúdo 758 00:32:30,280 --> 00:32:32,126 com base em sensibilidades políticas. 759 00:32:32,150 --> 00:32:34,556 E nunca se contenta com o pedido 760 00:32:34,580 --> 00:32:35,946 do governo chinês. 761 00:32:35,970 --> 00:32:38,016 Ele também disse que abrange a diversidade 762 00:32:38,040 --> 00:32:41,046 e negou que discrimine qualquer criador 763 00:32:41,070 --> 00:32:42,983 ou comunidade em nossa plataforma. 764 00:32:46,770 --> 00:32:49,064 - Sabemos há quase uma década, 765 00:32:49,089 --> 00:32:51,025 tanto aqui nos EUA quanto na Austrália, 766 00:32:51,050 --> 00:32:53,586 sobre as preocupações levantadas pela prevalência 767 00:32:53,611 --> 00:32:55,188 das empresas de telecomunicações chinesas. 768 00:32:55,212 --> 00:32:56,609 E então a próxima pergunta tornou-se, 769 00:32:56,633 --> 00:32:57,915 bem, e todos esses aplicativos 770 00:32:57,940 --> 00:32:59,490 das empresas com sede na China? 771 00:32:59,520 --> 00:33:00,616 JAMIL JAFFER - DIRETOR EXECUTIVO 772 00:33:00,640 --> 00:33:01,821 DO INSTITUTO NACIONAL DE SEGUTIDADE 773 00:33:01,845 --> 00:33:03,865 Eles estão coletando enormes quantidades de dados do usuário. 774 00:33:03,889 --> 00:33:06,842 Eles têm acesso aos dispositivos dos indivíduos. 775 00:33:07,480 --> 00:33:08,886 Jamil Jaffer é fundador 776 00:33:08,910 --> 00:33:12,036 do Instituto de Segurança Nacional em Washington. 777 00:33:12,060 --> 00:33:16,056 E aconselhou o governo dos EUA sobre segurança cibernética. 778 00:33:16,080 --> 00:33:18,516 - Na China, é todo o governo central, 779 00:33:18,540 --> 00:33:19,546 a festa comunista. 780 00:33:19,570 --> 00:33:21,966 Não há separação entre os ramos. 781 00:33:21,990 --> 00:33:23,119 E então, quando esses aplicativos 782 00:33:23,143 --> 00:33:24,466 têm todos esses dados, 783 00:33:24,490 --> 00:33:26,046 é muito mais fácil para o governo chinês 784 00:33:26,070 --> 00:33:28,476 para simplesmente obter acesso a esses dados. 785 00:33:31,360 --> 00:33:32,366 - Meu entendimento é que, 786 00:33:32,390 --> 00:33:34,956 cerca de um quarto da população mundial 787 00:33:34,980 --> 00:33:37,356 é um membro do TikTok se não me engano. 788 00:33:37,380 --> 00:33:39,636 Obviamente, trata-se de uma enorme quantidade de dados 789 00:33:39,660 --> 00:33:40,716 que está sendo gerado. 790 00:33:40,740 --> 00:33:43,046 Isso está sendo entregue de graça 791 00:33:43,070 --> 00:33:45,056 para aquela única rede social 792 00:33:45,080 --> 00:33:46,896 que tem controle total 793 00:33:46,920 --> 00:33:48,916 sobre o que isso faz com os dados. 794 00:33:48,940 --> 00:33:52,915 Ele pode analisá-lo para gerar conteúdo personalizado 795 00:33:52,940 --> 00:33:55,220 para você, mas também pode usar esses dados 796 00:33:55,230 --> 00:33:58,066 para oferecer produtos e serviços de tecnologia 797 00:33:58,090 --> 00:34:01,096 para outras empresas no futuro. 798 00:34:23,870 --> 00:34:25,516 - Olá, é a Avani em Sydney. 799 00:34:25,540 --> 00:34:26,766 Como tá indo? 800 00:34:26,790 --> 00:34:28,286 - Oi. 801 00:34:28,310 --> 00:34:29,876 Anne Longfield é da Inglaterra 802 00:34:29,900 --> 00:34:31,804 ex-comissário infantil. 803 00:34:31,820 --> 00:34:33,690 Entrevista de Anne, faça uma. 804 00:34:33,700 --> 00:34:36,340 - Ela está representando milhões de crianças no TikTok 805 00:34:36,380 --> 00:34:37,993 no Reino Unido e na Europa em uma 806 00:34:38,017 --> 00:34:39,690 ação coletiva contra a empresa. 807 00:34:39,800 --> 00:34:42,886 - Minha afirmação com o TikTok no momento é que, 808 00:34:42,951 --> 00:34:45,057 eles estão coletando grandes quantidades de dados ilegalmente 809 00:34:45,081 --> 00:34:46,825 sem o consentimento dos filhos ou dos pais. 810 00:34:46,840 --> 00:34:48,330 ANNE LONGFIELD - COMISSÁRIA DA 811 00:34:48,354 --> 00:34:49,536 CRIANÇA PARA A INGLATERRA 2015-2021 812 00:34:49,560 --> 00:34:52,080 E eles não estão dando o nível certo 813 00:34:52,120 --> 00:34:55,056 de transparência sobre o que acontece com esses dados, 814 00:34:55,080 --> 00:34:58,033 ou realmente o que esses dados incluem. 815 00:35:01,640 --> 00:35:03,722 Quase um terço dos usuários australianos 816 00:35:03,746 --> 00:35:06,126 do TikTok tem menos de 14 anos. 817 00:35:06,150 --> 00:35:08,706 Os advogados dizem que o TikTok coleta informações pessoais 818 00:35:08,730 --> 00:35:11,876 como números de telefone, vídeos, locais e dados faciais 819 00:35:11,900 --> 00:35:13,936 de crianças sem seu consentimento. 820 00:35:13,960 --> 00:35:17,456 Bem como as fotos e vídeos gravados usando o TikTok, 821 00:35:17,480 --> 00:35:20,073 mas não carregado ou salvo na plataforma. 822 00:35:21,220 --> 00:35:25,256 - Dado o nível de dados e a falta de transparência 823 00:35:25,280 --> 00:35:27,346 por aí é difícil imaginar 824 00:35:27,370 --> 00:35:28,576 que isso não é apenas uma espécie de 825 00:35:28,600 --> 00:35:30,426 serviço de coleta de informações, 826 00:35:30,450 --> 00:35:35,006 que é disfarçado como uma espécie de plataforma agradável, 827 00:35:35,030 --> 00:35:38,046 que agrada a crianças pequenas. 828 00:35:38,070 --> 00:35:41,556 Então, o verdadeiro incentivo aqui, 829 00:35:41,580 --> 00:35:43,853 quando você olha para ele em termos realmente frios, 830 00:35:43,877 --> 00:35:47,636 parece ser, para reunir o máximo de dados possível 831 00:35:47,660 --> 00:35:50,500 para realmente ser capaz de monetizar isso. 832 00:35:53,220 --> 00:35:55,716 TikTok já foi multado em milhões de dólares 833 00:35:55,740 --> 00:35:59,153 nos EUA e na Coreia do Sul para a coleta de dados infantis. 834 00:36:01,330 --> 00:36:04,176 A empresa restringiu o acesso de aplicativos para crianças 835 00:36:04,200 --> 00:36:08,236 e retirou milhões de contas de usuários menores. 836 00:36:08,260 --> 00:36:10,895 Não houve nenhuma ação legal na Austrália. 837 00:36:12,570 --> 00:36:15,196 - Eu acho que os governos têm uma responsabilidade 838 00:36:15,220 --> 00:36:18,106 intervir para garantir que as crianças 839 00:36:18,130 --> 00:36:20,586 estão protegidos em qualquer tipo de ambiente em que estejam. 840 00:36:20,610 --> 00:36:23,146 E você vê essas proteções e medidas 841 00:36:23,170 --> 00:36:25,396 em termos de ambiente físico, 842 00:36:25,420 --> 00:36:28,416 em termos de segurança, você sabe, 843 00:36:28,440 --> 00:36:29,896 nas comunidades em que vivem, 844 00:36:29,920 --> 00:36:31,766 nos ambientes em que estão. 845 00:36:31,790 --> 00:36:34,427 Mas nem sempre foi o caso online. 846 00:36:34,460 --> 00:36:37,460 E alguns governos têm 847 00:36:37,501 --> 00:36:39,569 lutou para ver o que isso significa. 848 00:36:42,770 --> 00:36:44,294 Se o caso for bem-sucedido, 849 00:36:44,318 --> 00:36:45,986 TikTok pode ter que pagar crianças 850 00:36:46,010 --> 00:36:49,206 do Reino Unido e da Europa bilhões em compensação. 851 00:36:49,400 --> 00:36:50,866 TikTok está lutando contra o caso. 852 00:36:50,890 --> 00:36:52,493 Em um comunicado, a empresa disse: 853 00:36:52,517 --> 00:36:55,736 "Privacidade e segurança são as principais prioridades do TikTok 854 00:36:55,760 --> 00:36:58,066 e temos políticas e processos robustos, 855 00:36:58,090 --> 00:36:59,867 e tecnologias em vigor para ajudar 856 00:36:59,891 --> 00:37:01,776 a proteger todos os usuários 857 00:37:01,800 --> 00:37:04,096 e nossos usuários adolescentes em particular. 858 00:37:04,120 --> 00:37:05,876 Acreditamos que as reivindicações carecem de mérito 859 00:37:05,900 --> 00:37:08,667 e pretendo defender vigorosamente a ação." 860 00:37:11,670 --> 00:37:14,046 O governo dos EUA está revisando o TikTok 861 00:37:14,070 --> 00:37:15,968 e não descartou a proibição. 862 00:37:16,040 --> 00:37:17,640 - A verdadeira pergunta que você faz é, o que 863 00:37:17,649 --> 00:37:19,146 sobre as implicações de segurança nacional? 864 00:37:19,170 --> 00:37:21,466 Então, tudo bem. Sim, muitas pessoas estão usando, certo. 865 00:37:21,490 --> 00:37:22,576 Mas por que isso importa? 866 00:37:22,600 --> 00:37:25,026 E isso importa, eu acho, por causa do acesso, 867 00:37:25,050 --> 00:37:27,150 ele dá a você essa grande quantidade de dados. 868 00:37:28,330 --> 00:37:31,456 Você nunca pensa sobre o governo chinês em Pequim, 869 00:37:31,480 --> 00:37:34,176 ter vídeos seus em sua casa, 870 00:37:34,200 --> 00:37:36,976 fora de sua casa, no parque com seus filhos, 871 00:37:37,000 --> 00:37:38,373 saber com quem seus filhos brincam. 872 00:37:38,800 --> 00:37:40,706 Quer dizer, é isso que eles têm agora 873 00:37:40,730 --> 00:37:42,226 potencialmente com este conjunto de dados. 874 00:37:42,250 --> 00:37:44,556 Já vimos dois presidentes consecutivos 875 00:37:44,580 --> 00:37:45,656 assinar ordens executivas, 876 00:37:45,680 --> 00:37:48,016 deixando claro que eles estão muito preocupados 877 00:37:48,040 --> 00:37:50,036 sobre as implicações de segurança nacional 878 00:37:50,060 --> 00:37:51,994 da coleta de dados do TikTok. 879 00:37:52,289 --> 00:37:54,065 Bem como o impacto que tem 880 00:37:54,090 --> 00:37:56,330 sobre a privacidade e as liberdades civis dos americanos. 881 00:38:01,590 --> 00:38:03,614 A Índia anunciou a proibição do TikTok. 882 00:38:04,090 --> 00:38:06,756 E em julho do ano passado, o primeiro-ministro Scott Morrison 883 00:38:06,780 --> 00:38:10,263 ordenou uma revisão por agências de inteligência no aplicativo. 884 00:38:11,531 --> 00:38:12,765 17 de julho de 2020 885 00:38:12,790 --> 00:38:16,543 Estamos sempre atentos a esses riscos 886 00:38:16,567 --> 00:38:20,366 e estamos sempre monitorando muito de perto. 887 00:38:20,390 --> 00:38:22,286 E se considerarmos que há uma necessidade 888 00:38:22,310 --> 00:38:24,876 para tomar outras medidas do que estamos tomando agora, 889 00:38:24,900 --> 00:38:27,113 então posso te dizer, não teremos vergonha disso. 890 00:38:28,760 --> 00:38:31,056 - É certamente uma preocupação de segurança 891 00:38:31,080 --> 00:38:33,546 que os dados de usuários australianos 892 00:38:33,570 --> 00:38:36,766 está potencialmente voltando para Pequim. 893 00:38:37,300 --> 00:38:39,820 TikTok afirmou que este não é o caso. 894 00:38:39,850 --> 00:38:44,526 E nossa análise mostrou que 895 00:38:44,550 --> 00:38:46,586 certamente não há uma mangueira de incêndio 896 00:38:46,610 --> 00:38:50,056 de conteúdo que está sendo enviado de volta a Pequim. 897 00:38:50,080 --> 00:38:51,426 Mas isso não significa que, 898 00:38:51,450 --> 00:38:53,526 aquele conteúdo não pode ser acessado 899 00:38:53,550 --> 00:38:55,571 de Pequim, se for necessário. 900 00:38:55,860 --> 00:38:56,866 Como você está indo? 901 00:38:56,914 --> 00:38:58,446 - Estou bem, obrigada. Como você está? 902 00:38:58,471 --> 00:39:00,775 TikTok mantém os dados dos usuários australianos 903 00:39:00,800 --> 00:39:03,466 é realizado em servidores nos Estados Unidos e Cingapura. 904 00:39:03,490 --> 00:39:05,496 E que nunca forneceu dados 905 00:39:05,520 --> 00:39:06,963 ao governo chinês. 906 00:39:08,520 --> 00:39:11,076 Funcionários dos Departamentos de Assuntos Internos e de Defesa 907 00:39:11,100 --> 00:39:14,056 disseram para não usar o TikTok em seus telefones 908 00:39:14,080 --> 00:39:15,882 devido aos riscos de segurança. 909 00:39:16,510 --> 00:39:19,236 Mas Scott Morrison disse que não havia evidências suficientes 910 00:39:19,260 --> 00:39:21,077 banir o TikTok na Austrália. 911 00:39:21,820 --> 00:39:24,316 - O escopo da investigação parecia 912 00:39:24,340 --> 00:39:26,036 para ser bastante limitado. 913 00:39:26,060 --> 00:39:31,115 E esse escopo não é realmente suficiente para ser capaz 914 00:39:31,140 --> 00:39:34,150 para contar ao resto da Austrália 915 00:39:34,220 --> 00:39:36,236 e cidadãos australianos regulares, 916 00:39:36,260 --> 00:39:39,826 se é uma boa ideia eles usarem o aplicativo. 917 00:39:41,190 --> 00:39:44,596 - Definitivamente deveria haver outro mais rigoroso 918 00:39:44,620 --> 00:39:47,086 e uma longa revisão no TikTok 919 00:39:47,110 --> 00:39:51,518 para entender completamente os riscos que o TikTok apresenta. 920 00:39:52,259 --> 00:39:54,013 - E se você apenas olhar para o TikTok isoladamente, 921 00:39:54,037 --> 00:39:55,723 e dizer, bem, é apenas este aplicativo, 922 00:39:55,747 --> 00:39:57,556 e são apenas crianças fazendo vídeos de dança. 923 00:39:57,580 --> 00:39:58,876 Parece inócuo. 924 00:39:58,900 --> 00:40:01,746 Mas isso realmente ocorre neste contexto muito mais amplo 925 00:40:01,770 --> 00:40:04,526 de coleta de dados, inteligência artificial, 926 00:40:04,550 --> 00:40:06,030 e um verdadeiro esforço dos chineses 927 00:40:06,054 --> 00:40:08,086 para consolidar a influência 928 00:40:08,110 --> 00:40:09,642 na região e em todo o mundo. 929 00:40:13,490 --> 00:40:14,982 Em apenas dois anos, 930 00:40:15,020 --> 00:40:17,915 TikTok consolidou-se como o aplicativo de escolha 931 00:40:17,940 --> 00:40:20,056 para milhões de australianos. 932 00:40:20,080 --> 00:40:22,956 - Então vocês ficaram me dizendo para ir ao Voice 2021. 933 00:40:22,980 --> 00:40:25,486 Então eu fiz. 934 00:40:25,510 --> 00:40:26,966 Existem sérias preocupações 935 00:40:26,990 --> 00:40:30,446 aquela versão divertida e bela da realidade dos TikToks 936 00:40:30,470 --> 00:40:33,143 está distorcendo a maneira como vemos o mundo. 937 00:40:34,720 --> 00:40:39,007 E perguntas sobre se seus usuários entendem os riscos. 938 00:40:41,320 --> 00:40:44,176 - Então, realmente corremos o risco de ter gerações 939 00:40:44,200 --> 00:40:46,346 de jovens que não têm sido capazes 940 00:40:46,370 --> 00:40:49,456 para formar sua própria identidade de maneiras naturais. 941 00:40:49,480 --> 00:40:51,436 E, em vez disso, formaram identidades 942 00:40:51,460 --> 00:40:54,066 em resposta a algo que uma tecnologia 943 00:40:54,090 --> 00:40:56,496 ou uma plataforma de tecnologia prescreve 944 00:40:56,520 --> 00:40:58,516 para ser o normal ou o novo normal. 945 00:40:58,540 --> 00:41:00,217 - Da última vez esta senhora veio até mim e disse, 946 00:41:00,241 --> 00:41:01,714 você não parece deficiente o suficiente. 947 00:41:01,738 --> 00:41:03,026 Eu não pareço deficiente o suficiente? 948 00:41:03,050 --> 00:41:05,336 - Eu entendo que o TikTok está dando o seu melhor 949 00:41:05,360 --> 00:41:07,746 para tornar a plataforma palatável para todos 950 00:41:07,770 --> 00:41:09,914 apenas por ter vídeos divertidos de 951 00:41:09,938 --> 00:41:12,770 dança e vídeos com sincronização labial. 952 00:41:16,330 --> 00:41:18,986 Mas eu sei que meu conteúdo dá valor 953 00:41:19,010 --> 00:41:21,196 para tantas pessoas que se parecem comigo. 954 00:41:21,220 --> 00:41:23,916 Que vivem a mesma vida que eu. 955 00:41:23,940 --> 00:41:25,635 Que são morenos como eu. 956 00:41:33,790 --> 00:41:38,016 - Acabei cortando o TikTok depois de alguns meses. 957 00:41:38,040 --> 00:41:40,226 Mas mesmo assim, ainda me deixou 958 00:41:40,250 --> 00:41:42,566 com o transtorno alimentar, sabe. 959 00:41:42,590 --> 00:41:45,376 Tipo, o TikTok meio que levou ao desenvolvimento e então 960 00:41:45,400 --> 00:41:48,963 levou muito, muito tempo para consertar isso. 961 00:41:50,278 --> 00:41:52,315 A TikTok não está aqui para ajudar as pessoas. 962 00:41:52,340 --> 00:41:53,756 Eu não acho que está chegando ao mundo 963 00:41:53,780 --> 00:41:55,436 com essa intenção de ajudar as pessoas. 964 00:41:55,460 --> 00:41:57,266 Se eles vão ganhar dinheiro com algo, 965 00:41:57,290 --> 00:41:59,686 então eles ganharão dinheiro com alguma coisa. 966 00:42:00,160 --> 00:42:02,286 Eu acho que eles talvez precisem perceber 967 00:42:02,310 --> 00:42:04,210 o impacto que está tendo nas pessoas.