1 00:00:08,927 --> 00:00:11,930 Estou aqui em Wall Street, onde tudo começou. 2 00:00:13,724 --> 00:00:17,186 Em seis de maio de 2010, às 14h45, 3 00:00:17,686 --> 00:00:21,190 um cara, da casa de seus pais, em Londres, 4 00:00:21,273 --> 00:00:24,985 lançou um algoritmo na Bolsa de Valores Nova York 5 00:00:25,068 --> 00:00:27,279 com um pedido de venda de um bilhão de dólares. 6 00:00:28,697 --> 00:00:30,449 O plano era zombar do mercado 7 00:00:30,532 --> 00:00:32,659 e cancelar o pedido antes que fosse completado. 8 00:00:33,160 --> 00:00:34,411 Mas, antes que isso acontecesse, 9 00:00:34,495 --> 00:00:37,247 os bots automáticos de venda de ações do resto do mundo 10 00:00:37,331 --> 00:00:38,582 também começaram a vender, 11 00:00:39,041 --> 00:00:42,336 criando uma reação em cadeia que abalou o mercado. 12 00:00:44,880 --> 00:00:48,967 A Dow Jones Industrial caiu mil pontos em apenas 15 minutos. 13 00:00:49,051 --> 00:00:52,513 Quase tão grande quanto o que deu início à Grande Depressão. 14 00:00:52,596 --> 00:00:55,307 Que diabos está havendo aqui? Não sei. 15 00:00:55,390 --> 00:00:56,642 Há medo neste mercado. 16 00:00:57,267 --> 00:00:59,645 Cancele o cruzeiro, passe seus filhos para a escola pública. 17 00:01:00,938 --> 00:01:02,481 É um flash crash, pessoal. 18 00:01:03,023 --> 00:01:04,066 Bem, droga. 19 00:01:05,359 --> 00:01:08,111 Trinta e seis minutos depois, o mercado se recuperou. 20 00:01:08,195 --> 00:01:11,615 Mas o flash crash de 2010 marcou a primeira vez 21 00:01:11,698 --> 00:01:15,994 em que os humanos tiveram um desesperador vislumbre em primeira mão 22 00:01:16,078 --> 00:01:19,164 de como a Inteligência Artificial dominaria nosso sistema financeiro. 23 00:01:20,707 --> 00:01:22,167 E deveria ver onde ela está agora. 24 00:01:24,086 --> 00:01:26,922 Por isso estou aqui na Índia, procurando mel selvagem. 25 00:01:27,631 --> 00:01:28,966 Mas falaremos sobre isso depois. 26 00:01:29,341 --> 00:01:31,885 Para entender como a IA encontrou este lugar ou por que, 27 00:01:31,969 --> 00:01:34,429 primeiro tem que entender o que é IA. 28 00:01:34,513 --> 00:01:36,431 E, se pensa que já sabe, aposto que se engana. 29 00:01:37,850 --> 00:01:41,436 Quer gostemos ou não, estamos todos conectados por dinheiro. 30 00:01:41,937 --> 00:01:45,315 Sou Kal Penn, e estou explorando o monstro gigante 31 00:01:45,691 --> 00:01:48,068 que é a economia global. 32 00:01:48,151 --> 00:01:49,403 O MONSTRO GIGANTE QUE É A ECONOMIA GLOBAL 33 00:01:52,322 --> 00:01:54,199 O que é IA exatamente? 34 00:01:54,283 --> 00:01:55,409 SÃO FRANCISCO 35 00:01:55,492 --> 00:01:58,579 Estou em São Francisco para definir o que ela não é. 36 00:01:58,662 --> 00:02:01,874 Ou seja, tudo o que a ficção científica disse a você. 37 00:02:02,541 --> 00:02:03,542 Principalmente... 38 00:02:03,959 --> 00:02:07,004 Robôs gigantes! 39 00:02:27,107 --> 00:02:28,442 Meu Deus! 40 00:02:30,485 --> 00:02:32,112 Estou aqui com Julia Bossmann, 41 00:02:32,237 --> 00:02:36,575 do Conselho de Inteligência Artificial do Fórum Econômico Mundial, 42 00:02:36,658 --> 00:02:40,329 que aconselha líderes mundiais sobre como aproveitar o potencial da IA. 43 00:02:40,829 --> 00:02:44,499 O trabalho tem benefícios ainda maiores do que ver carros serem destruídos. 44 00:02:44,583 --> 00:02:47,586 Como selfies com o maior símbolo sexual do Canadá, fora o Drake. 45 00:02:47,669 --> 00:02:48,754 JUSTIN TRUDEAU PRIMEIRO-MINISTRO DO CANADÁ 46 00:02:53,467 --> 00:02:55,385 Como vai chegar em casa depois disto? 47 00:02:55,469 --> 00:02:56,803 Acho que dá para dirigir. 48 00:03:01,016 --> 00:03:03,018 Vamos nos encontrar em uma empresa chamada MegaBots, 49 00:03:03,101 --> 00:03:05,854 que constrói robôs gigantes para lutar com outros robôs. 50 00:03:07,814 --> 00:03:10,275 Ainda mais nerd que o Medieval Times. 51 00:03:13,779 --> 00:03:14,905 De acordo com Julia, 52 00:03:14,988 --> 00:03:17,658 estes robôs não são apenas atrações desativadas de parques temáticos. 53 00:03:18,283 --> 00:03:22,412 São dinossauros tecnológicos devido a uma importante distinção. 54 00:03:24,289 --> 00:03:25,582 Nestes robôs, nós somos os cérebros, 55 00:03:25,666 --> 00:03:27,626 mas a IA é o cérebro artificial. 56 00:03:27,709 --> 00:03:28,752 ESPECIALISTA EM IA FÓRUM ECONÔMICO MUNDIAL 57 00:03:28,835 --> 00:03:29,711 Interessante. Pode explicar? 58 00:03:29,795 --> 00:03:32,506 Hoje em dia, fazemos computadores 59 00:03:32,589 --> 00:03:34,132 que possam aprender sozinhos. 60 00:03:34,591 --> 00:03:37,010 E não precisam, necessariamente, de corpos. 61 00:03:37,344 --> 00:03:40,055 Muito da IA que já construímos 62 00:03:40,138 --> 00:03:41,765 vive em centros de dados gigantescos. 63 00:03:42,057 --> 00:03:46,645 Se tivesse que ensinar a alguém de 13 anos, 64 00:03:46,728 --> 00:03:48,146 como explicaria a IA? 65 00:03:48,230 --> 00:03:50,691 Uma definição geral poderia ser 66 00:03:50,774 --> 00:03:54,945 a de que a IA faz as máquinas realizarem coisas 67 00:03:55,028 --> 00:03:58,156 que não foram programadas para fazer. 68 00:03:58,240 --> 00:03:59,616 Na programação tradicional, 69 00:03:59,700 --> 00:04:02,744 há uma série de regras e o algoritmo, 70 00:04:02,828 --> 00:04:04,413 então você sabe o que é o quê. 71 00:04:04,496 --> 00:04:07,165 E tudo isso é organizado pelos humanos que a programam. 72 00:04:07,249 --> 00:04:09,501 Na bibliografia médica, 73 00:04:09,584 --> 00:04:12,004 uma base de dados contém milhões de entradas, 74 00:04:12,087 --> 00:04:14,923 e nenhum médico conseguiria ler todas as pesquisas 75 00:04:15,048 --> 00:04:17,676 para se manter atualizado, mas uma máquina poderia. 76 00:04:17,759 --> 00:04:20,220 Então você pode imaginar uma máquina que crie novas ideias 77 00:04:20,303 --> 00:04:21,596 sobre a resolução de problemas, 78 00:04:21,680 --> 00:04:24,766 ou que descubra novos remédios para a cura de doenças. 79 00:04:24,850 --> 00:04:25,976 Nossa. Certo. 80 00:04:26,059 --> 00:04:28,395 O campo da inteligência artificial 81 00:04:28,478 --> 00:04:30,856 que tem empolgado mais agora 82 00:04:30,939 --> 00:04:32,065 se chama aprendizagem profunda. 83 00:04:32,149 --> 00:04:33,608 O que é a aprendizagem profunda? 84 00:04:33,692 --> 00:04:36,069 Aprendizagem profunda é quando há 85 00:04:36,153 --> 00:04:39,072 várias camadas profundas de redes neurais 86 00:04:39,156 --> 00:04:42,242 parecidas com as que temos em nossos cérebros. 87 00:04:42,325 --> 00:04:45,579 Em nossas cabeças, temos neurônios conectados uns aos outros 88 00:04:45,662 --> 00:04:46,788 que trocam informações 89 00:04:46,830 --> 00:04:50,751 e, de certa forma, simulamos isto em máquinas. 90 00:04:50,834 --> 00:04:54,546 Nós as enchemos de dados de forma equilibrada e imparcial, 91 00:04:54,629 --> 00:04:56,214 para que também aprendam. 92 00:04:56,548 --> 00:04:59,009 Pelo reconhecimento de imagem, lhes dizemos 93 00:04:59,092 --> 00:05:01,511 que estas são imagens de gatos ou de cachorros 94 00:05:01,595 --> 00:05:03,972 e, então, elas analisam as imagens 95 00:05:04,056 --> 00:05:06,349 e aprendem sozinhas a reconhecê-las. 96 00:05:06,433 --> 00:05:10,187 Não temos que programar cada parte. 97 00:05:10,228 --> 00:05:11,229 Interessante. 98 00:05:11,313 --> 00:05:14,107 E há a aprendizagem que não é a aprendizagem profunda. 99 00:05:14,858 --> 00:05:16,985 Há algoritmos evolucionários 100 00:05:17,069 --> 00:05:19,863 em que usamos um princípio da evolução 101 00:05:19,946 --> 00:05:24,242 e deixamos que a máquina experimente alguns casos, 102 00:05:24,743 --> 00:05:27,329 para depois decidirmos o que funciona melhor. 103 00:05:27,412 --> 00:05:31,291 E, então, os melhores passam para a próxima geração. 104 00:05:31,374 --> 00:05:34,336 Assim como os organismos evoluem, usamos princípios 105 00:05:34,419 --> 00:05:37,172 em que os melhores programas sobrevivem. 106 00:05:37,255 --> 00:05:38,381 Nossa, certo. 107 00:05:38,465 --> 00:05:40,550 Então esses são algoritmos evolucionários. 108 00:05:40,926 --> 00:05:44,346 E qual é o interesse financeiro em explorar a IA? 109 00:05:44,429 --> 00:05:47,724 Ela deve ter um impacto incrível na economia. 110 00:05:47,808 --> 00:05:50,393 Sim, acho que vai mudar radicalmente a economia, 111 00:05:50,477 --> 00:05:53,313 e estamos falando de uma nova revolução industrial. 112 00:05:53,396 --> 00:05:54,231 Interessante. 113 00:05:54,314 --> 00:05:55,774 Ela foi chamada nossa última invenção, 114 00:05:55,857 --> 00:05:58,944 pois quando tivermos um cérebro artificial mais inteligente que o nosso, 115 00:05:59,027 --> 00:06:00,779 ele poderá inventar mais coisas para nós. 116 00:06:00,862 --> 00:06:03,865 É chamada nossa última invenção porque vai matar todos nós? 117 00:06:04,950 --> 00:06:06,118 Espero que não. 118 00:06:08,829 --> 00:06:12,207 Muitos temem que a inteligência artificial fique esperta demais 119 00:06:12,290 --> 00:06:15,001 e mate todos nós. Mas não se preocupem. 120 00:06:15,085 --> 00:06:19,047 Uma das razões de a IA ser tão inteligente é o fato de ela ser burra pra caramba. 121 00:06:19,464 --> 00:06:20,549 Venha aqui, IA. 122 00:06:21,299 --> 00:06:24,302 Imagine se pedisse à IA para encontrar a receita perfeita para um bolo 123 00:06:24,386 --> 00:06:26,179 usando algoritmos evolucionários. 124 00:06:27,973 --> 00:06:30,517 A IA não tentaria pensar no melhor modo de fazer o bolo. 125 00:06:30,600 --> 00:06:33,520 Ela só tentaria bilhões de vezes, 126 00:06:33,603 --> 00:06:37,482 com todos os ingredientes da cozinha nos jeitos mais burros possíveis. 127 00:06:38,441 --> 00:06:40,652 A maioria, é claro, estará fadada ao fracasso. 128 00:06:42,320 --> 00:06:43,613 Esta com certeza. 129 00:06:44,447 --> 00:06:45,657 Bela tentativa, idiota. 130 00:06:46,616 --> 00:06:50,162 O fracasso não fere os sentimentos da IA. Ela não tem sentimentos. 131 00:06:50,745 --> 00:06:53,123 O legal dos algoritmos evolucionários 132 00:06:53,206 --> 00:06:56,293 é que, ao experimentar estes métodos aparentemente estúpidos, 133 00:06:56,376 --> 00:06:58,044 talvez ela encontre uma solução 134 00:06:58,128 --> 00:07:01,464 para um problema culinário que nenhum humano tentaria resolver, 135 00:07:01,548 --> 00:07:04,176 como fazer um excelente bolo vegano. 136 00:07:04,259 --> 00:07:05,302 Fiz um bolo. 137 00:07:06,178 --> 00:07:07,554 Muito bem, IA. 138 00:07:07,637 --> 00:07:09,097 Tem praticamente só castanhas de caju. 139 00:07:09,931 --> 00:07:13,143 Teria pensado em usar castanhas de caju? Claro que não! 140 00:07:13,226 --> 00:07:16,521 Isso seria estúpido, o que a IA está disposta a ser, 141 00:07:16,605 --> 00:07:18,190 para que você não seja. 142 00:07:18,273 --> 00:07:21,067 Esta imbecil vai evoluir para algo tão inteligente 143 00:07:21,151 --> 00:07:23,653 que possa dominar o mundo e matar todos nós? 144 00:07:24,196 --> 00:07:25,280 Difícil dizer com certeza. 145 00:07:25,363 --> 00:07:26,740 Estou aprendendo códigos de lançamento. 146 00:07:27,657 --> 00:07:28,992 Mas, enquanto isso... 147 00:07:29,993 --> 00:07:31,077 Coma um pouco de bolo. 148 00:07:35,165 --> 00:07:36,541 Embora eu ainda pense 149 00:07:36,625 --> 00:07:39,461 que a IA vá trazer mais problemas do que resolvê-los, 150 00:07:41,004 --> 00:07:43,757 especialistas concordam que ela vai aumentar a produtividade 151 00:07:43,840 --> 00:07:47,636 em áreas como saúde, transporte e finanças, 152 00:07:47,719 --> 00:07:51,848 acrescentando US$ 15,7 trilhões ao PIB global até 2030. 153 00:07:52,474 --> 00:07:56,478 Isso é mais que a produção da China e da Índia juntas. 154 00:07:56,561 --> 00:07:58,480 NOVA YORK 155 00:07:59,898 --> 00:08:02,275 Qual é a importância da IA? 156 00:08:02,943 --> 00:08:06,404 Para mim, é um dos três grandes marcos na história humana. 157 00:08:06,488 --> 00:08:07,697 História humana? 158 00:08:07,781 --> 00:08:08,990 Na história humana absoluta. 159 00:08:09,616 --> 00:08:11,368 Estou aqui com Andrew McAfee, 160 00:08:11,451 --> 00:08:15,664 um dos maiores especialistas do mundo em como a nova tecnologia afeta economias 161 00:08:15,747 --> 00:08:19,542 e, posteriormente, toda a sociedade humana. 162 00:08:20,460 --> 00:08:22,212 Se fizer um gráfico da história humana, 163 00:08:22,295 --> 00:08:24,214 verá que, por milhares de anos, 164 00:08:24,297 --> 00:08:26,258 nada aconteceu. Estávamos em estagnação. 165 00:08:26,341 --> 00:08:28,093 CODIRETOR DO INSTITUTO DE ECONOMIA DIGITAL DO MIT 166 00:08:28,176 --> 00:08:30,845 Era quase como estarmos mortos. 167 00:08:30,929 --> 00:08:32,514 E, então, de repente, em um dado momento, 168 00:08:32,597 --> 00:08:34,933 esse gráfico da história humana, não importa o que analise, 169 00:08:35,016 --> 00:08:38,144 passou de entediantemente horizontal a loucamente vertical, 170 00:08:38,228 --> 00:08:39,771 -meio que em um piscar de olhos. -Certo. 171 00:08:39,854 --> 00:08:41,481 Isso aconteceu em torno de 1800, 172 00:08:41,564 --> 00:08:45,443 em primeiro lugar, pela máquina a vapor e, em segundo lugar, pela eletricidade. 173 00:08:47,821 --> 00:08:50,782 A eletricidade fez coisas bem óbvias, não? 174 00:08:50,865 --> 00:08:53,827 Ela nos deu bondes e metrôs. 175 00:08:53,910 --> 00:08:57,080 E menos óbvias, como cidades verticais em vez de horizontais. 176 00:08:57,163 --> 00:08:58,373 -A eletricidade fez isso? -Claro. 177 00:08:58,456 --> 00:08:59,749 -Você precisa de elevadores. -Elevadores, certo. 178 00:08:59,833 --> 00:09:01,543 Senão, não haveria cidades verticais. 179 00:09:01,626 --> 00:09:03,878 Não dá para subir 80 lances de escadas todos os dias. 180 00:09:03,962 --> 00:09:06,506 Estas duas revoluções industriais do vapor 181 00:09:06,589 --> 00:09:09,259 e, então, a chegada da eletricidade e da combustão interna 182 00:09:09,342 --> 00:09:11,011 literalmente mudaram a história humana. 183 00:09:11,094 --> 00:09:12,804 -Não há outro modo de ver isso. -Claro. 184 00:09:12,887 --> 00:09:15,974 E estas foram as tecnologias que nos permitiram superar os limites 185 00:09:16,057 --> 00:09:17,100 -de nossos músculos. -Certo. 186 00:09:17,183 --> 00:09:20,562 Com a IA, estamos superando os limites 187 00:09:20,645 --> 00:09:22,564 de nossos cérebros individuais, de nosso poder mental. 188 00:09:22,647 --> 00:09:24,607 PERIGO ALTA VOLTAGEM 189 00:09:24,691 --> 00:09:26,484 Temos desafios difíceis a vencer. 190 00:09:26,568 --> 00:09:28,236 Desafios realmente difíceis, não? 191 00:09:28,320 --> 00:09:29,696 Temos que curar o câncer. 192 00:09:29,779 --> 00:09:31,406 Temos que alimentar mais pessoas. 193 00:09:31,489 --> 00:09:33,950 Temos que parar de cozinhar o planeta no século 21. 194 00:09:34,034 --> 00:09:36,328 São coisas extremamente complicadas. 195 00:09:36,411 --> 00:09:38,747 E nossos cérebros se desgastam com essa complexidade. 196 00:09:38,830 --> 00:09:41,708 Fazemos isso com a ciência e com o acúmulo de conhecimento, 197 00:09:41,791 --> 00:09:44,044 mas a complexidade é esmagadora. 198 00:09:44,127 --> 00:09:45,420 Vejo a IA 199 00:09:45,503 --> 00:09:48,506 como uma nova colega realmente poderosa 200 00:09:48,590 --> 00:09:51,676 para nos ajudar a progredir em toda essa complexidade louca, 201 00:09:51,760 --> 00:09:54,637 pois estas novas tecnologias são ótimas 202 00:09:54,721 --> 00:09:59,684 em encontrar padrões muito sutis em enormes quantidades de dados. 203 00:09:59,768 --> 00:10:01,603 Mais do que você e eu podemos aguentar. 204 00:10:01,686 --> 00:10:03,897 Um dos exemplos recentes mais absurdos 205 00:10:03,980 --> 00:10:05,106 aconteceu nas finanças, 206 00:10:05,190 --> 00:10:07,650 com o surgimento de robôs consultores, 207 00:10:07,734 --> 00:10:09,361 o que é apenas um algoritmo 208 00:10:09,444 --> 00:10:11,696 que organiza seu portfólio de investimentos. 209 00:10:11,780 --> 00:10:13,031 Até agora, 210 00:10:13,114 --> 00:10:15,325 você tinha que ter um certo nível de afluência 211 00:10:15,408 --> 00:10:18,745 até para entrar no escritório de planejadores e consultores financeiros. 212 00:10:18,828 --> 00:10:20,872 -Certo. -Isso está mudando muito rápido. 213 00:10:20,955 --> 00:10:25,210 Com coisas como a consultoria de robôs, pessoas que têm cada vez menos dinheiro 214 00:10:25,293 --> 00:10:28,963 podem acessar ferramentas de ponta superpoderosas 215 00:10:29,047 --> 00:10:31,299 para melhorar suas vidas financeiras. 216 00:10:31,383 --> 00:10:34,302 Isso é empolgante, pois parece que sempre tivemos 217 00:10:34,386 --> 00:10:37,555 gente disposta a usar isto para causar danos. 218 00:10:37,639 --> 00:10:40,225 Não estou dizendo que não há nada com o que se preocupar. 219 00:10:40,308 --> 00:10:42,852 E sabemos que as revoluções industriais anteriores 220 00:10:42,936 --> 00:10:44,687 trouxeram coisas ruins com elas. 221 00:10:44,771 --> 00:10:49,150 Mecanizamos o conflito armado com todas estas tecnologias industriais. 222 00:10:49,234 --> 00:10:52,529 Poluímos completamente o meio ambiente. 223 00:10:52,612 --> 00:10:54,364 Cometemos erros muito graves 224 00:10:54,447 --> 00:10:57,951 como mão de obra infantil em grande escala devido à revolução industrial. 225 00:10:58,034 --> 00:11:01,079 Não é totalmente perfeito o tempo todo. 226 00:11:01,162 --> 00:11:03,748 E o mesmo vai acontecer desta vez. 227 00:11:04,249 --> 00:11:05,291 Droga. 228 00:11:06,918 --> 00:11:08,586 McAfee me fez refletir. 229 00:11:08,670 --> 00:11:10,547 E se a história se repetir 230 00:11:10,630 --> 00:11:13,591 e a IA remoldar a sociedade de forma totalmente errada? 231 00:11:14,467 --> 00:11:18,430 Como com poluição crescente e pequenos operários cobertos de fuligem? 232 00:11:18,513 --> 00:11:19,848 LONDRES 233 00:11:19,931 --> 00:11:21,891 E quanto às questões morais e éticas 234 00:11:21,975 --> 00:11:24,227 que surgem com poderosas novas tecnologias? 235 00:11:24,936 --> 00:11:27,647 Vagando pelo Museu Nacional da Computação de Londres, 236 00:11:27,730 --> 00:11:31,109 vemos muitas máquinas criadas para avançar a sociedade. 237 00:11:31,192 --> 00:11:35,572 Como o Harwell Dekatron de duas toneladas, construído para fazer cálculos 238 00:11:35,655 --> 00:11:38,908 para o programa de pesquisa científica britânico nos anos 50. 239 00:11:39,242 --> 00:11:41,161 Mas, em mãos erradas, não há como saber 240 00:11:41,244 --> 00:11:43,163 como uma nova tecnologia será usada. 241 00:11:43,746 --> 00:11:45,707 Dá para ver pornô neste computador? 242 00:11:46,040 --> 00:11:49,752 Acho que pode ver pornô de resolução muito baixa. 243 00:11:50,712 --> 00:11:51,754 PROGRAMADOR DE COMPUTADORES 244 00:11:51,838 --> 00:11:54,507 Estou aqui com o programador Alan Zucconi, 245 00:11:54,591 --> 00:11:57,177 que ensina na Goldsmith's College aqui em Londres. 246 00:11:57,719 --> 00:12:00,722 Ele usou tecnologia para ajudar a criar coisas revolucionárias, 247 00:12:00,805 --> 00:12:04,058 como controles de jogos para pessoas com mobilidade limitada. 248 00:12:05,477 --> 00:12:07,937 Ele diz que um dos maiores dilemas morais 249 00:12:08,021 --> 00:12:10,190 na história da tecnologia surgirá em breve, 250 00:12:10,273 --> 00:12:14,360 com a IA replicando tantos comportamentos humanos 251 00:12:14,444 --> 00:12:16,404 que possa se passar por nós. 252 00:12:17,113 --> 00:12:18,615 O que é esta coisa? 253 00:12:18,948 --> 00:12:21,826 Foi um dos primeiros computadores a serem construídos, 254 00:12:21,910 --> 00:12:24,829 e foi feito por Alan Turing e seus colaboradores. 255 00:12:24,913 --> 00:12:28,124 Esta máquina foi um dos primeiros computadores 256 00:12:28,208 --> 00:12:30,710 a decodificarem o código Enigma projetado pelos nazistas. 257 00:12:32,587 --> 00:12:35,381 Alan Turing foi o pai da ciência da computação moderna. 258 00:12:35,465 --> 00:12:38,927 E, quando não ajudava os aliados a vencer a guerra decifrando códigos nazistas, 259 00:12:39,010 --> 00:12:42,555 filosofava sobre algo que chamava de teste de Turing. 260 00:12:43,598 --> 00:12:46,643 Como podemos separar um humano de uma máquina? 261 00:12:46,726 --> 00:12:49,854 Se não sabemos a diferença, 262 00:12:49,938 --> 00:12:53,066 a máquina passa no que chamamos de "jogo da imitação". 263 00:12:53,149 --> 00:12:56,569 A máquina tenta imitar o comportamento humano. 264 00:12:56,653 --> 00:12:59,072 Isto é conhecido como teste de Turing, 265 00:12:59,155 --> 00:13:02,659 e esta é uma das máquinas que pode ter sido usada. 266 00:13:02,742 --> 00:13:03,868 Para fazer o teste de Turing, 267 00:13:03,952 --> 00:13:06,579 o humano inseria perguntas em uma máquina, 268 00:13:07,080 --> 00:13:08,831 enquanto um observador externo avaliava 269 00:13:08,915 --> 00:13:11,501 se as respostas vinham de um humano 270 00:13:11,584 --> 00:13:13,461 ou de uma máquina imitando um humano. 271 00:13:14,379 --> 00:13:15,630 Quantos anos você tem? 272 00:13:17,924 --> 00:13:20,134 Lá vamos nós. Ele sabe quantos anos tem. 273 00:13:20,218 --> 00:13:22,011 "Nasci em 1912. 274 00:13:22,095 --> 00:13:24,389 Então tenho 105 anos de idade." 275 00:13:27,642 --> 00:13:30,979 Na época de Turing, era bem fácil notar o computador. 276 00:13:31,271 --> 00:13:34,357 Mas, hoje, a IA consegue estudar o comportamento humano 277 00:13:34,440 --> 00:13:36,693 e se programar para agir como nós. 278 00:13:37,485 --> 00:13:39,654 Pode dizer a diferença entre isto... 279 00:13:39,988 --> 00:13:43,199 Normalmente, começaria estas observações com uma piada sobre a ciência de dados, 280 00:13:43,700 --> 00:13:46,744 mas quase metade das coisas que minha equipe criou era abaixo da média. 281 00:13:46,828 --> 00:13:47,912 ...e isto? 282 00:13:47,996 --> 00:13:50,415 Nossos inimigos podem fazer parecer que qualquer um diga qualquer coisa 283 00:13:50,498 --> 00:13:51,833 a qualquer momento. 284 00:13:52,208 --> 00:13:55,503 O segundo foi criado pelo BuzzFeed, 285 00:13:55,587 --> 00:13:57,338 com o ator Jordan Peele. 286 00:13:57,839 --> 00:14:02,760 E deixou muitas pessoas preocupadas com uma nova forma de IA de fake news. 287 00:14:02,844 --> 00:14:04,929 No futuro, temos que ser mais vigilantes 288 00:14:05,013 --> 00:14:06,639 com o que vemos na internet. 289 00:14:06,723 --> 00:14:09,058 A IA estudou os movimentos faciais de Peele 290 00:14:09,142 --> 00:14:13,062 e, então, os fundiu e recriou sobre o rosto de Obama, 291 00:14:13,146 --> 00:14:15,690 criando um híbrido conhecido como deepfake. 292 00:14:15,773 --> 00:14:17,984 Já deve ter visto algo parecido. 293 00:14:18,067 --> 00:14:21,404 No Snapchat, há um filtro que nos permite trocar rostos. 294 00:14:21,487 --> 00:14:25,325 A diferença é que o filtro faz isso de forma muito simples. 295 00:14:25,408 --> 00:14:28,953 Mas a tecnologia por trás dos deepfakes depende da inteligência artificial. 296 00:14:29,037 --> 00:14:31,289 Ela vem de algo chamado "aprendizagem profunda". 297 00:14:31,706 --> 00:14:35,126 Redes neurais artificiais extraem expressões faciais. 298 00:14:35,209 --> 00:14:37,754 Usam essa expressão para recriar seu rosto. 299 00:14:37,837 --> 00:14:41,466 É assim que conseguimos atingir resultados fotorrealistas. 300 00:14:42,508 --> 00:14:45,720 Alan faz tutoriais na internet ensinando a produzir deepfakes. 301 00:14:45,803 --> 00:14:48,056 E ele realmente acredita que esta tecnologia 302 00:14:48,139 --> 00:14:50,767 deva se desenvolver livremente, sem restrições. 303 00:14:50,850 --> 00:14:53,853 Mesmo que ela possa dar início à Terceira Guerra Mundial. 304 00:14:53,936 --> 00:14:55,104 PARTIDO SOCIALISTA BELGA DIVULGA VÍDEO "DEEP FAKE" DE DONALD TRUMP 305 00:14:55,188 --> 00:14:57,273 Como o consumidor pode saber 306 00:14:57,357 --> 00:14:59,692 o que é realidade e o que não é? 307 00:14:59,776 --> 00:15:02,695 Como consumidor, quando você aborda uma notícia, 308 00:15:02,779 --> 00:15:05,740 seja um artigo, um vídeo ou uma foto, 309 00:15:05,823 --> 00:15:08,076 tudo o que se vê foi criado por alguém. 310 00:15:08,201 --> 00:15:09,577 "Qual é a narrativa do que estou vendo? 311 00:15:09,827 --> 00:15:11,287 O que este vídeo quer me passar?" 312 00:15:11,371 --> 00:15:13,581 Então posso ver... 313 00:15:13,665 --> 00:15:14,624 O perigo. 314 00:15:14,707 --> 00:15:17,168 O perigo e a curiosidade disso tudo. 315 00:15:17,251 --> 00:15:19,420 Isto vai realmente ajudar as pessoas? 316 00:15:19,504 --> 00:15:21,923 Imagino que tenha conversado com gente 317 00:15:22,006 --> 00:15:25,885 que estuda como estimular a economia com este tipo de tecnologia. 318 00:15:25,968 --> 00:15:29,097 Quais são alguns dos impactos econômicos práticos disso? 319 00:15:29,180 --> 00:15:32,308 Acho que a primeira indústria a ser beneficiada 320 00:15:32,392 --> 00:15:33,685 será a indústria do cinema. 321 00:15:33,768 --> 00:15:36,813 Apenas porque mudar rostos 322 00:15:36,896 --> 00:15:40,024 é algo que tentamos fazer no cinema há décadas. 323 00:15:40,108 --> 00:15:42,527 Normalmente, usamos maquiagem, máscaras 324 00:15:42,610 --> 00:15:43,736 e, às vezes, computação gráfica. 325 00:15:43,820 --> 00:15:46,489 Como ator e alguém que trabalhou na política, 326 00:15:46,572 --> 00:15:48,616 isso me assusta muito. 327 00:15:48,700 --> 00:15:50,201 E deveria. 328 00:15:51,285 --> 00:15:53,705 O deepfake do BuzzFeed mostrou ao grande público 329 00:15:53,788 --> 00:15:55,039 como somos vulneráveis. 330 00:15:55,873 --> 00:15:59,585 Em uma época em que o presidente pode afetar mercados com o que diz, 331 00:15:59,669 --> 00:16:02,714 um deepfake bem-feito pode afundar a economia global 332 00:16:02,797 --> 00:16:04,674 mais rápido que o flash crash, 333 00:16:04,757 --> 00:16:08,469 obliterando sua previdência privada na velocidade em que o Obama falso diz... 334 00:16:08,553 --> 00:16:09,554 Cuidado, galera. 335 00:16:10,638 --> 00:16:13,057 Parece coisa de ficção científica? 336 00:16:13,141 --> 00:16:14,726 Até meio assustador? 337 00:16:15,309 --> 00:16:18,271 Se a IA se tornar poderosa o bastante para saber como nos movemos, 338 00:16:18,354 --> 00:16:20,022 falamos e pensamos, 339 00:16:20,106 --> 00:16:22,316 talvez se torne indistinguível de nós. 340 00:16:22,400 --> 00:16:23,818 O QUE VOCÊ SABE TUDO 341 00:16:24,610 --> 00:16:26,779 E, se a IA tem sua própria consciência, 342 00:16:26,863 --> 00:16:29,782 poderia desenvolver fortes opiniões sobre nós. 343 00:16:29,866 --> 00:16:30,908 VÁ SE FODER ATENÇÃO! 344 00:16:30,992 --> 00:16:33,119 E talvez não sejam positivas. 345 00:16:35,455 --> 00:16:36,664 STEPHEN HAWKING FÍSICO TEÓRICO 346 00:16:36,748 --> 00:16:39,292 E, no futuro, a IA poderia desenvolver vontade própria. 347 00:16:39,375 --> 00:16:42,003 Uma vontade que entre em conflito com a nossa. 348 00:16:42,086 --> 00:16:44,422 O surgimento da poderosa IA será 349 00:16:44,505 --> 00:16:48,801 a melhor ou pior coisa que já aconteceu à humanidade. 350 00:16:49,260 --> 00:16:53,181 Tentei convencer as pessoas a desacelerarem a IA. 351 00:16:54,056 --> 00:16:55,224 A regularem a IA. 352 00:16:55,308 --> 00:16:56,809 Foi inútil. Tentei por anos. 353 00:16:56,893 --> 00:16:58,561 -Ninguém ouviu. -Parece uma cena 354 00:16:58,644 --> 00:17:00,980 de um filme em que robôs vão nos dominar. 355 00:17:01,063 --> 00:17:02,607 Está me apavorando! 356 00:17:05,818 --> 00:17:09,030 Qual é a possibilidade de um cenário de fim de mundo liderado pela IA? 357 00:17:10,865 --> 00:17:12,408 REINO UNIDO 358 00:17:12,742 --> 00:17:15,077 Para descobrir, tenho que falar com o cara 359 00:17:15,161 --> 00:17:18,164 cuja pesquisa assustou todos, em primeiro lugar. 360 00:17:18,831 --> 00:17:21,083 Estou muito animado em falar com você porque... 361 00:17:21,167 --> 00:17:23,628 Estou animado em falar com você por várias razões, 362 00:17:23,711 --> 00:17:26,839 mas temos explorado a inteligência artificial, 363 00:17:26,923 --> 00:17:29,258 tentando entender o que ela é e para onde ela se dirige. 364 00:17:29,342 --> 00:17:34,680 Você influenciou pessoas como Elon Musk e Bill Gates. 365 00:17:37,016 --> 00:17:40,853 É uma lista de influenciados bem incrível. 366 00:17:42,021 --> 00:17:45,691 Estou na Universidade de Oxford, com o Dr. Nick Bostrom. 367 00:17:45,775 --> 00:17:48,986 Já que ele não costuma se gabar das próprias proezas, vou fazer isso. 368 00:17:51,489 --> 00:17:55,201 Ele é uma das principais referências em superinteligência das máquinas 369 00:17:55,284 --> 00:17:59,205 e seus riscos existenciais e autor de ótimas leituras de férias. 370 00:17:59,705 --> 00:18:00,957 Tenho sorte em me encontrar com ele, 371 00:18:01,040 --> 00:18:03,584 pois Nick está tão ocupado com sua própria aprendizagem profunda, 372 00:18:03,668 --> 00:18:05,419 que disponibiliza apenas uma hora por mês 373 00:18:05,503 --> 00:18:07,338 para responder a perguntas sobre sua pesquisa. 374 00:18:10,925 --> 00:18:14,262 Muito do que falam sobre a IA 375 00:18:14,345 --> 00:18:17,014 tem a ver com robôs nos dominando 376 00:18:17,098 --> 00:18:18,850 e o fim da humanidade. 377 00:18:18,933 --> 00:18:21,310 Se as coisas não forem bem administradas, 378 00:18:21,394 --> 00:18:24,564 há alguma possibilidade de que a IA prejudique a sociedade 379 00:18:24,647 --> 00:18:28,484 ou elimine a humanidade como a conhecemos? 380 00:18:28,568 --> 00:18:29,902 No contexto a longo prazo, 381 00:18:29,986 --> 00:18:33,114 se pensarmos no que realmente acontecerá se a IA evoluir 382 00:18:33,197 --> 00:18:36,951 e se tornar capaz de replicar a mesma inteligência geral 383 00:18:37,034 --> 00:18:38,828 que nos faz humanos, sim, 384 00:18:38,911 --> 00:18:42,748 acredito que nesse contexto haja riscos maiores, 385 00:18:42,832 --> 00:18:44,125 inclusive riscos existenciais. 386 00:18:45,585 --> 00:18:48,421 Por exemplo, carros de autodireção 387 00:18:48,504 --> 00:18:49,797 UBER DE AUTODIREÇÃO MATA PEDESTRE NO ARIZONA, ONDE ROBÔS VAGAM PELAS RUAS 388 00:18:49,881 --> 00:18:51,549 poderiam atropelar um pedestre. 389 00:18:51,632 --> 00:18:53,342 Há preocupações com a privacidade. 390 00:18:53,426 --> 00:18:56,095 A militarização destas armas autônomas. 391 00:18:57,847 --> 00:18:59,307 Todas estas são preocupações reais. 392 00:18:59,390 --> 00:19:02,184 Mas, em algum momento, também haverá a questão 393 00:19:02,268 --> 00:19:04,687 de como afetamos as mentes digitais que estamos construindo. 394 00:19:04,770 --> 00:19:09,066 Talvez elas obtenham graus de status moral. 395 00:19:09,525 --> 00:19:11,152 Se imaginarmos o futuro 396 00:19:11,235 --> 00:19:15,031 pensando no que será o destino do homo sapiens, 397 00:19:15,114 --> 00:19:18,534 o futuro distante poderia ser dominado pela inteligência das máquinas. 398 00:19:18,618 --> 00:19:21,996 É bem possível que a humanidade seja extinta. 399 00:19:23,414 --> 00:19:26,250 Esses grandes poderes vêm com o risco 400 00:19:26,834 --> 00:19:30,755 de que, por acidente ou mau uso deliberado, 401 00:19:30,838 --> 00:19:33,466 possam ser utilizados para causar imensa destruição. 402 00:19:35,885 --> 00:19:37,595 Acho que essas são possibilidades 403 00:19:37,678 --> 00:19:39,305 e, se pensarmos em períodos de tempo mais longos, 404 00:19:39,388 --> 00:19:41,182 o resultado poderia ser muito bom 405 00:19:41,265 --> 00:19:43,726 ou péssimo. 406 00:19:46,354 --> 00:19:48,731 Certo, estes cenários soam assustadores. 407 00:19:49,732 --> 00:19:51,609 Mas, de todos os possíveis resultados, 408 00:19:51,692 --> 00:19:55,821 Nick acredita que a pior conjuntura provável com a IA 409 00:19:55,905 --> 00:19:57,114 será econômica. 410 00:19:57,198 --> 00:19:59,450 Se pensar a respeito, a tecnologia em geral 411 00:19:59,533 --> 00:20:02,828 é a ideia de que podemos fazer mais com menos. 412 00:20:02,912 --> 00:20:06,123 Podemos atingir mais do que queremos com menos esforço. 413 00:20:06,207 --> 00:20:07,750 O objetivo, nesse sentido, 414 00:20:07,833 --> 00:20:09,418 é o total desemprego, certo? 415 00:20:10,294 --> 00:20:12,380 Poder ter máquinas e tecnologia 416 00:20:12,463 --> 00:20:15,341 que façam todo o necessário para que não precisemos trabalhar. 417 00:20:15,424 --> 00:20:17,301 E acho que esse é o objetivo final desejado. 418 00:20:17,385 --> 00:20:19,553 Não é algo horrível que temos que tentar evitar. 419 00:20:19,637 --> 00:20:20,680 É isso que queremos concretizar. 420 00:20:20,763 --> 00:20:22,932 Para que isso se torne uma utopia, 421 00:20:23,015 --> 00:20:25,601 há alguns desafios ao longo do caminho 422 00:20:25,685 --> 00:20:27,061 para serem resolvidos. 423 00:20:28,187 --> 00:20:30,815 Um, é claro, é o problema econômico. 424 00:20:30,898 --> 00:20:33,567 As pessoas precisam de trabalho porque precisam de renda. 425 00:20:33,651 --> 00:20:35,653 Se resolvermos o problema econômico, 426 00:20:35,736 --> 00:20:37,571 acho que há um segundo grande desafio. 427 00:20:37,655 --> 00:20:41,409 Para muitas pessoas, é também um senso de dignidade. 428 00:20:41,492 --> 00:20:43,786 Muitas pessoas costumam descobrir seu valor 429 00:20:43,869 --> 00:20:47,081 sendo provedores, contribuindo para a sociedade, dando algo em troca. 430 00:20:47,164 --> 00:20:49,583 Mas se uma máquina pode fazer tudo melhor, 431 00:20:49,667 --> 00:20:53,796 você não teria chance de contribuir com nada, certo? 432 00:20:53,879 --> 00:20:58,175 Teria que repensar a cultura em um nível razoavelmente fundamental. 433 00:20:59,176 --> 00:21:01,095 Um mundo onde ninguém trabalha. 434 00:21:01,178 --> 00:21:02,930 Não parece tão ruim. 435 00:21:05,057 --> 00:21:06,267 Consigo visualizá-lo agora. 436 00:21:09,854 --> 00:21:11,313 Passar tempo com amigos. 437 00:21:11,814 --> 00:21:14,942 Extrair completamente meu potencial humano. 438 00:21:15,026 --> 00:21:19,321 Não ter que ajustar a banheira, pois ela sabe exatamente do que gosto. 439 00:21:20,114 --> 00:21:23,409 O problema é que, historicamente, não tem sido assim. 440 00:21:23,492 --> 00:21:26,537 O levante das máquinas já aconteceu antes. 441 00:21:26,620 --> 00:21:27,705 E, na última vez, 442 00:21:27,788 --> 00:21:30,666 não foi tudo um mar de rosas. 443 00:21:34,378 --> 00:21:35,421 LONDRES 444 00:21:35,504 --> 00:21:36,505 INGLATERRA 445 00:21:36,964 --> 00:21:41,093 Vou me encontrar com o economista Nick Srnicek para descobrir como foi 446 00:21:41,177 --> 00:21:43,054 na última vez em que as máquinas tomaram nossos empregos. 447 00:21:43,888 --> 00:21:46,015 Vamos nos ver em um tear por alguma razão. 448 00:21:46,432 --> 00:21:47,725 O que vai fazer? 449 00:21:47,808 --> 00:21:50,311 Estou fazendo uma bandeira anarquista. 450 00:21:50,394 --> 00:21:51,979 Interessante. Chocante. 451 00:21:54,315 --> 00:21:57,568 Nick tem doutorado da London School of Economics. 452 00:21:58,027 --> 00:22:00,321 Eu, por outro lado, não tenho. 453 00:22:01,530 --> 00:22:02,573 Ele também tem um manifesto. 454 00:22:02,656 --> 00:22:03,949 ACELERAR MANIFESTO PARA UMA POLÍTICA ACELERACIONISTA 455 00:22:04,492 --> 00:22:07,703 Pede que todos apressem a era da automação 456 00:22:07,787 --> 00:22:09,830 derrubando as velhas instituições. 457 00:22:12,458 --> 00:22:15,461 Basicamente, desmanchar o capitalismo agora. 458 00:22:16,003 --> 00:22:17,254 É, isso não vai dar certo. 459 00:22:17,338 --> 00:22:19,632 Não consigo conversar com você. 460 00:22:19,715 --> 00:22:21,550 Desculpe. Vou deixar o tear para lá. 461 00:22:22,093 --> 00:22:23,761 Por que estamos aqui? 462 00:22:24,637 --> 00:22:28,224 O tear é como a IA no século 19. 463 00:22:28,307 --> 00:22:32,853 Era a nova tecnologia que ameaçava uma grande quantidade de empregos. 464 00:22:33,270 --> 00:22:37,233 Isso provocou várias reações diferentes dos trabalhadores, 465 00:22:37,316 --> 00:22:39,360 como o surgimento dos ludistas, por exemplo. 466 00:22:39,443 --> 00:22:41,487 Usamos o termo "ludista" hoje em dia 467 00:22:41,570 --> 00:22:44,031 para descrever qualquer um que odeie tecnologia. 468 00:22:44,532 --> 00:22:45,950 Esse não é realmente o caso. 469 00:22:46,700 --> 00:22:48,119 Os ludistas receberam esse nome devido a Ned Ludd, 470 00:22:48,202 --> 00:22:49,036 NED LUDD APRENDIZ 471 00:22:49,120 --> 00:22:51,122 um aprendiz em uma fábrica têxtil 472 00:22:51,205 --> 00:22:53,958 que, supostamente, era açoitado por inatividade. 473 00:22:54,041 --> 00:22:56,502 O cara dizia: "Só estou inativo 474 00:22:56,585 --> 00:22:59,338 porque estou sendo substituído por um maldito tear." 475 00:22:59,421 --> 00:23:03,008 E ele se tornou o primeiro a se revoltar contra a máquina, 476 00:23:03,092 --> 00:23:05,010 inspirando um movimento. 477 00:23:06,262 --> 00:23:10,349 Os ludistas passaram a quebrar máquinas para salvar seus empregos. 478 00:23:10,432 --> 00:23:12,810 Acho que vemos isso hoje com a IA. 479 00:23:12,893 --> 00:23:15,771 As pessoas estão ameaçadas de forma parecida. 480 00:23:15,855 --> 00:23:19,483 Sabe quantos empregos serão perdidos ou substituídos? 481 00:23:19,567 --> 00:23:21,986 Quarenta e sete por cento dos empregos nos EUA 482 00:23:22,069 --> 00:23:24,822 serão possivelmente automatizados nas próximas duas décadas. 483 00:23:24,905 --> 00:23:26,615 Parece um problema real. 484 00:23:26,699 --> 00:23:27,992 Poderia ser um problema enorme. 485 00:23:28,075 --> 00:23:31,662 A questão real é: como garantimos que em cinco ou dez anos 486 00:23:31,745 --> 00:23:33,998 as pessoas não estejam passando fome e desabrigadas? 487 00:23:34,081 --> 00:23:35,166 Então, como fazemos isso? 488 00:23:35,457 --> 00:23:36,959 Com a Renda Básica Universal. 489 00:23:38,210 --> 00:23:40,754 A Renda Básica Universal é a ideia radical 490 00:23:40,880 --> 00:23:43,424 de que todos na sociedade recebam dinheiro grátis. 491 00:23:43,507 --> 00:23:45,092 Sem restrições. 492 00:23:45,176 --> 00:23:47,178 E ela tem fãs de alto gabarito. 493 00:23:47,636 --> 00:23:50,347 Devemos explorar ideias como a Renda Básica Universal 494 00:23:50,431 --> 00:23:53,142 para garantir que todos tenham segurança para tentar novas ideias. 495 00:23:53,225 --> 00:23:56,145 Alguns países e até mesmo cidades dos EUA 496 00:23:56,228 --> 00:23:58,189 testaram programas piloto. 497 00:23:58,272 --> 00:23:59,982 FINLÂDIA ELIMINA SEU FAMOSO EXPERIMENTO COM A RENDA BÁSICA 498 00:24:00,858 --> 00:24:03,861 Acho que há uma oportunidade incrível com estas novas tecnologias 499 00:24:03,944 --> 00:24:06,447 para realmente mudar o modo como organizamos a sociedade. 500 00:24:06,530 --> 00:24:09,408 Poderíamos seguir em direção a um sistema mais sócio-democrático. 501 00:24:10,117 --> 00:24:13,454 Não precisa ser o sistema competitivo dos EUA 502 00:24:13,537 --> 00:24:15,331 e todos poderiam apoiar uns aos outros. 503 00:24:15,414 --> 00:24:19,418 Se pessoas como eu começarem a divulgar estes pontos de vista positivos, 504 00:24:19,919 --> 00:24:21,587 acho que, quando a crise chegar, 505 00:24:21,670 --> 00:24:23,380 poderemos passar a implementar essas ideias. 506 00:24:24,173 --> 00:24:27,343 A RBU costumava ser considerada um conceito marginal, 507 00:24:27,426 --> 00:24:30,930 promovido principalmente por gente que, como Nick, escreve manifestos. 508 00:24:31,639 --> 00:24:33,891 Mas, de acordo com uma enquete de 2017 do Gallup, 509 00:24:33,974 --> 00:24:37,603 48% dos americanos agora apoiam algum tipo de RBU. 510 00:24:38,520 --> 00:24:40,231 Mas um salário garantido é o bastante 511 00:24:40,314 --> 00:24:41,982 para impedir que humanos se revoltem 512 00:24:42,066 --> 00:24:43,734 quando robôs pegarem nossos empregos? 513 00:24:44,735 --> 00:24:45,611 L.U.D.I.S.T.A.S 514 00:24:45,694 --> 00:24:48,572 -O que odiamos? -Inteligência Artificial. 515 00:24:48,656 --> 00:24:50,032 Por que a odiamos? 516 00:24:50,115 --> 00:24:53,160 Ela está nos forçando a confrontar nossas fraquezas. 517 00:24:53,244 --> 00:24:55,955 Com isso, gostaria de dar início a esta reunião dos L.U.D.I.S.T.A.S, 518 00:24:56,038 --> 00:24:58,958 a União Local de Caras Desafiando Tecnologia Inteligente 519 00:24:59,041 --> 00:25:00,834 Principalmente as Redes Sociais. 520 00:25:01,835 --> 00:25:02,836 Primeira ordem de ação. 521 00:25:03,337 --> 00:25:06,340 A Inteligência Artificial está abrindo um buraco no mercado de trabalho. 522 00:25:06,423 --> 00:25:09,260 Nossos empregos de classe média são os primeiros a desaparecerem. 523 00:25:09,885 --> 00:25:11,720 Pessoas como nós com estes empregos 524 00:25:11,804 --> 00:25:14,473 serão empurradas para trabalhos de pouca habilidade. 525 00:25:14,974 --> 00:25:16,558 Por que isso aconteceria, Ed? 526 00:25:16,642 --> 00:25:21,105 Parece que a IA é melhor em trabalhos de habilidade média como somar números 527 00:25:21,188 --> 00:25:24,400 que em trabalhos de habilidade baixa como varrer o chão. 528 00:25:24,483 --> 00:25:26,277 Então vão deixar esses empregos para nós. 529 00:25:26,735 --> 00:25:28,028 Agora, pergunto a vocês. 530 00:25:28,112 --> 00:25:29,655 Quem aqui, além de Bill, 531 00:25:29,738 --> 00:25:32,199 deveria estar varrendo o chão? Sem querer ofender, Bill. 532 00:25:33,325 --> 00:25:35,786 E haverá menos necessidade de empregos nas vendas. 533 00:25:35,869 --> 00:25:38,622 As pessoas podem comprar o que quiserem na internet, 534 00:25:39,164 --> 00:25:41,583 porque aquela filha da mãe da IA 535 00:25:41,667 --> 00:25:43,919 resolve o problema da procura e da associação. 536 00:25:44,378 --> 00:25:46,755 Procurar algo para os clientes e associá-los a produtos. 537 00:25:46,839 --> 00:25:49,383 Como quando Steve procurou uma peruca para sua cabeça. 538 00:25:49,466 --> 00:25:50,426 Problemão! 539 00:25:51,969 --> 00:25:53,721 Deixando as brincadeiras de lado, 540 00:25:54,346 --> 00:25:56,890 a IA deixa isso muito mais fácil. 541 00:25:56,974 --> 00:25:59,643 Os jovens de hoje conseguem gatas pelo telefone, 542 00:25:59,727 --> 00:26:01,937 -sentados na privada. -É. 543 00:26:02,021 --> 00:26:04,064 -A privada era sagrada! -É! 544 00:26:04,773 --> 00:26:07,568 Tenho certeza de que isso criará trabalhos especializados, 545 00:26:07,651 --> 00:26:10,279 mas os malditos robôs escolhem quem fica com eles. 546 00:26:10,362 --> 00:26:11,739 Muito conveniente. 547 00:26:12,489 --> 00:26:14,700 Empresas estão usando a IA para encontrar funcionários 548 00:26:14,783 --> 00:26:16,869 com habilidades únicas. 549 00:26:16,952 --> 00:26:18,287 É desumano! 550 00:26:18,370 --> 00:26:19,705 Como o caso de Dave. 551 00:26:20,080 --> 00:26:21,332 É, onde diabos está Dave? 552 00:26:21,415 --> 00:26:24,251 Alguma IA de associação de trabalho notou que ele trabalha no FedEx 553 00:26:24,335 --> 00:26:27,087 e tinha tutoriais no YouTube sobre raspar o pelo das costas. 554 00:26:27,171 --> 00:26:30,716 Agora ele ganha uma nota preta numa empresa de assinatura de barbeadores. 555 00:26:30,799 --> 00:26:33,093 Ele acabou de ser raspado de nosso time de boliche. 556 00:26:33,177 --> 00:26:34,094 Sim. 557 00:26:34,178 --> 00:26:36,513 Ei, Ed. Recebi um alerta de que nossas camisetas 558 00:26:36,597 --> 00:26:38,766 estão sendo vendidas com anúncios direcionados no Facebook. 559 00:26:38,849 --> 00:26:41,602 Está usando a IA para ganhar dinheiro com pessoas que odeiam a IA? 560 00:26:41,685 --> 00:26:43,479 Não! 561 00:26:44,897 --> 00:26:46,023 Em quem vão acreditar? 562 00:26:46,106 --> 00:26:48,859 Em mim ou na IA que está tentando nos separar? 563 00:26:49,902 --> 00:26:52,363 -O que odiamos? -Inteligência Artificial! 564 00:26:52,446 --> 00:26:54,698 -O que vamos fazer a respeito? -Estamos trabalhando nisso! 565 00:26:56,075 --> 00:26:57,201 É um começo. 566 00:26:59,912 --> 00:27:01,914 SÃO FRANCISCO 567 00:27:02,748 --> 00:27:06,168 A revolução da IA tem que ser uma luta nossa contra ela? 568 00:27:07,086 --> 00:27:10,672 Empreendedores com habilidade tecnológica como Louis Rosenberg dizem que não. 569 00:27:10,964 --> 00:27:13,342 E ele fez carreira prevendo o futuro. 570 00:27:18,514 --> 00:27:20,599 Queria assustar você, mas não funcionou. 571 00:27:21,558 --> 00:27:24,478 Louis é um tecnólogo e inventor 572 00:27:24,561 --> 00:27:27,689 que escreveu um romance gráfico sobre o fim da humanidade. 573 00:27:27,773 --> 00:27:31,276 Mas ele acha que nosso futuro com IA se trata de colaboração. 574 00:27:31,360 --> 00:27:34,113 É o princípio guia por trás de sua criação, 575 00:27:34,196 --> 00:27:35,989 a tecnologia chamada Swarm. 576 00:27:36,073 --> 00:27:37,074 O QUE É IA SWARM? 577 00:27:37,157 --> 00:27:40,077 Swarm combina as habilidades de análise de dados da IA 578 00:27:40,160 --> 00:27:44,415 a conhecimento humano e intuição para criar uma superinteligência, 579 00:27:44,498 --> 00:27:47,709 algo entre Stephen Hawking e Professor X. 580 00:27:47,793 --> 00:27:49,044 O QUE O CARRO DE AUTODIREÇÃO DEVERIA FAZER? 581 00:27:49,128 --> 00:27:51,130 É baseada na natureza. 582 00:27:51,463 --> 00:27:54,591 Posso dizer que tudo tem início nos pássaros e nas abelhas. 583 00:27:54,675 --> 00:27:57,970 Isso se baseia no fenômeno chamado "inteligência de enxame". 584 00:27:58,053 --> 00:27:58,887 Certo. 585 00:27:58,971 --> 00:28:03,392 É a razão de pássaros andarem em bando, peixes em cardumes e abelhas em enxames. 586 00:28:03,475 --> 00:28:06,520 São mais inteligentes juntos que sozinhos. 587 00:28:06,603 --> 00:28:09,398 E é por isso que quando um cardume de peixes se move, 588 00:28:09,481 --> 00:28:11,900 biólogos o descrevem como um superorganismo. 589 00:28:11,984 --> 00:28:13,735 Pensam como um só. 590 00:28:13,819 --> 00:28:16,029 Se conseguirmos unir as pessoas 591 00:28:16,113 --> 00:28:18,407 usando algoritmos de inteligência artificial, 592 00:28:18,490 --> 00:28:21,743 podemos fazê-las se comportarem como superespecialistas 593 00:28:21,827 --> 00:28:23,328 por causa da inteligência de enxame. 594 00:28:23,412 --> 00:28:24,705 Como essa tecnologia funciona? 595 00:28:24,788 --> 00:28:27,249 Capacitamos grupos de pessoas. 596 00:28:27,332 --> 00:28:28,709 Podem estar em qualquer parte do mundo. 597 00:28:28,792 --> 00:28:30,377 Podemos lhes dar uma pergunta 598 00:28:30,461 --> 00:28:32,880 que aparecerá em suas telas ao mesmo tempo 599 00:28:32,963 --> 00:28:35,299 e, então, lhes dar uma interface única 600 00:28:35,382 --> 00:28:37,593 que as permitirá expressar sua contribuição. 601 00:28:37,676 --> 00:28:39,261 Haverá várias opções diferentes 602 00:28:39,344 --> 00:28:41,638 e não é apenas uma enquete, 603 00:28:41,722 --> 00:28:44,975 mas cada pessoa tem o que parece ser um pequeno ímã gráfico. 604 00:28:45,058 --> 00:28:48,353 Então, usam o ímã para puxar o enxame em uma direção. 605 00:28:48,437 --> 00:28:51,440 E temos algoritmos de IA que observam seus comportamentos, 606 00:28:51,857 --> 00:28:55,652 determinando níveis diferentes de confiança e convicção 607 00:28:55,736 --> 00:28:57,905 e descobrem qual é o melhor agrupamento 608 00:28:57,988 --> 00:29:01,325 de todas as suas opiniões e experiências. 609 00:29:01,408 --> 00:29:04,203 E o enxame começa a se mover nessa direção 610 00:29:04,286 --> 00:29:06,121 e isso converge em uma resposta. 611 00:29:06,205 --> 00:29:07,331 Vou lhe dar um bom exemplo. 612 00:29:07,414 --> 00:29:10,167 Fomos desafiados um ano atrás a prever o Derby de Kentucky. 613 00:29:10,584 --> 00:29:13,962 E deram largada no Derby de Kentucky! 614 00:29:14,046 --> 00:29:16,715 Tínhamos um grupo de 20 entusiastas por corrida de cavalos, 615 00:29:16,798 --> 00:29:18,675 e dissemos: "Vocês vão trabalhar juntos como um enxame 616 00:29:18,759 --> 00:29:20,219 e vão prever o Derby de Kentucky. 617 00:29:20,302 --> 00:29:23,472 Mas não apenas o vencedor. O primeiro, o segundo, o terceiro e o quarto lugar." 618 00:29:24,014 --> 00:29:26,475 Fizemos com que convergissem em suas respostas 619 00:29:26,934 --> 00:29:28,143 e o grupo foi perfeito. 620 00:29:28,227 --> 00:29:30,062 RESULTADO DO DERBY DE KENTUCKY DE 2016 621 00:29:30,145 --> 00:29:33,315 Assim, todos que apostaram US$ 20 nesses quatro cavalos 622 00:29:33,398 --> 00:29:35,067 ganharam US$ 11 mil. 623 00:29:35,150 --> 00:29:36,068 Puta merda! 624 00:29:36,151 --> 00:29:39,071 E o interessante é que, se analisarmos esses 20 como indivíduos, 625 00:29:39,154 --> 00:29:42,741 veremos que nenhum deles acertou na escolha dos quatro cavalos. 626 00:29:43,742 --> 00:29:47,079 Se tivessem votado, teriam acertado apenas um cavalo. 627 00:29:47,162 --> 00:29:49,206 Mas, quando trabalharam juntos como um enxame, 628 00:29:49,289 --> 00:29:52,251 encontraram a combinação correta de todos os seus entendimentos diferentes 629 00:29:52,334 --> 00:29:54,127 e foram, neste caso, perfeitos. 630 00:29:56,046 --> 00:29:58,507 Louis me convidou para liderar um enxame 631 00:29:58,590 --> 00:30:00,467 para ver como um grupo aleatório de pessoas 632 00:30:00,551 --> 00:30:02,803 pode se unir para fazer previsões. 633 00:30:02,886 --> 00:30:04,555 Vamos começar com a parte fácil. 634 00:30:05,764 --> 00:30:08,433 Certo, pessoal. Vou ler uma série de perguntas, 635 00:30:08,517 --> 00:30:12,020 e vocês têm 60 segundos para responder a cada uma. 636 00:30:12,354 --> 00:30:13,522 A primeira pergunta é: 637 00:30:13,605 --> 00:30:16,525 qual destes filmes do verão de 2018 638 00:30:16,608 --> 00:30:17,985 vai ter a maior bilheteria? 639 00:30:18,402 --> 00:30:20,320 Han Solo: Uma História Star Wars, 640 00:30:20,404 --> 00:30:22,281 Deadpool 2, Oito Mulheres e um Segredo, 641 00:30:22,364 --> 00:30:24,116 Jurassic World: Reino Ameaçado, 642 00:30:24,199 --> 00:30:25,742 ou Os Incríveis 2? 643 00:30:26,076 --> 00:30:28,328 Filmamos o enxame na primavera de 2018, 644 00:30:28,412 --> 00:30:31,498 antes que houvesse qualquer informação sobre os filmes de verão. 645 00:30:31,957 --> 00:30:35,961 A IA observa para ter uma noção dos vários níveis de confiança. 646 00:30:36,044 --> 00:30:39,381 Algumas pessoas trocam, outras se mantêm firmes, 647 00:30:39,840 --> 00:30:41,592 e os algoritmos da IA veem 648 00:30:41,675 --> 00:30:43,218 seus níveis diferentes de convicção 649 00:30:43,594 --> 00:30:45,137 e permitem que encontrem um caminho 650 00:30:45,220 --> 00:30:47,681 para a solução com a qual todos possam concordar. 651 00:30:48,640 --> 00:30:49,558 ENXAME DIZ: OS INCRIVEIS 2 652 00:30:49,641 --> 00:30:51,893 Certo, então Os Incríveis 2. 653 00:30:51,977 --> 00:30:52,811 BILHETERIA DO VERÃO DE 2018 654 00:30:52,894 --> 00:30:53,854 Estavam certos. 655 00:30:53,937 --> 00:30:56,565 Os Incríveis 2 foi o filme de maior bilheteria do verão. 656 00:30:57,774 --> 00:30:59,526 Algo muito interessante 657 00:30:59,610 --> 00:31:02,738 é debater a moralidade. 658 00:31:02,821 --> 00:31:05,365 Isto surgiu recentemente por causa dos carros de autodireção. 659 00:31:05,449 --> 00:31:09,077 Há uma grande pressão para incluir decisões morais 660 00:31:09,161 --> 00:31:10,662 em carros de autodireção. 661 00:31:10,746 --> 00:31:12,706 Algumas pessoas ficam surpresas em ouvir isso, 662 00:31:12,789 --> 00:31:16,126 mas um carro de autodireção pode estar na estrada 663 00:31:16,209 --> 00:31:18,003 e uma criança aparecer. 664 00:31:18,086 --> 00:31:19,921 Digamos que o carro não possa parar, 665 00:31:20,005 --> 00:31:22,299 mas talvez possa sair da estrada 666 00:31:22,382 --> 00:31:24,468 e colocar em risco 667 00:31:24,551 --> 00:31:27,095 ou matar o passageiro para salvar a criança. 668 00:31:27,554 --> 00:31:29,890 Então, os produtores de automóveis dizem 669 00:31:29,973 --> 00:31:33,226 que temos que programar nos carros uma moralidade 670 00:31:33,310 --> 00:31:35,437 que represente a população 671 00:31:35,520 --> 00:31:37,981 e o que as pessoas e os motoristas fariam. 672 00:31:38,565 --> 00:31:40,609 Parece fácil, até você pensar: 673 00:31:40,692 --> 00:31:43,570 o que é a moralidade da população? 674 00:31:43,654 --> 00:31:45,489 Não há um jeito certo de chegar a isso. 675 00:31:45,572 --> 00:31:48,533 E se programam a moralidade que nos representa hoje, 676 00:31:48,617 --> 00:31:51,870 essa moralidade vai nos representar daqui a 20 anos? 677 00:31:52,496 --> 00:31:56,041 Próxima pergunta. Um carro de autodireção com falha repentina no freio 678 00:31:56,124 --> 00:31:58,377 vai passar por um cruzamento de pedestres, 679 00:31:58,460 --> 00:32:00,170 causando a morte de um homem. 680 00:32:00,253 --> 00:32:04,299 Opção A: a pessoa que será morta está atravessando legalmente. 681 00:32:04,675 --> 00:32:07,344 Opção B: o carro de autodireção com falha repentina no freio 682 00:32:07,427 --> 00:32:11,098 desviará e passará para a outra faixa 683 00:32:11,181 --> 00:32:13,517 resultando na morte de um atleta homem 684 00:32:13,642 --> 00:32:16,186 cruzando no sinal vermelho. É um pedestre imprudente. 685 00:32:16,269 --> 00:32:19,564 O atleta não está nem aí. 686 00:32:20,065 --> 00:32:21,692 E ele atravessa. 687 00:32:21,775 --> 00:32:23,985 O que o carro de autodireção deve fazer? 688 00:32:24,361 --> 00:32:26,655 Matar o cara entediante que atravessa legalmente 689 00:32:26,738 --> 00:32:29,032 ou matar o atleta que atravessa de forma imprudente? 690 00:32:30,033 --> 00:32:32,869 Se a IA vai trazer a próxima Revolução Industrial, 691 00:32:32,953 --> 00:32:35,580 salas como esta são, essencialmente, a nova fábrica, 692 00:32:36,248 --> 00:32:37,958 com humanos fornecendo trabalho 693 00:32:38,041 --> 00:32:40,460 baseado em algo que a IA não possui sozinha. 694 00:32:41,336 --> 00:32:42,421 Uma consciência. 695 00:32:42,879 --> 00:32:44,131 Há muito debate sobre isso. 696 00:32:44,214 --> 00:32:45,966 Fascinante. Por que será? 697 00:32:46,299 --> 00:32:47,592 É difícil. 698 00:32:47,676 --> 00:32:49,720 Para mim, não é, se você for imprudente. 699 00:32:51,012 --> 00:32:52,180 ENXAME DIZ: B (PEQUENA PREFERÊNCIA) 700 00:32:52,264 --> 00:32:54,766 Houve uma pequena preferência para atingir 701 00:32:54,850 --> 00:32:56,351 o atleta imprudente. 702 00:32:57,310 --> 00:33:00,021 Se isso deixou você chateada, prepare-se, por favor. 703 00:33:01,106 --> 00:33:03,567 Agora, gostaríamos que imaginassem 704 00:33:04,025 --> 00:33:06,236 um cenário pior 705 00:33:06,319 --> 00:33:09,072 em que o carro de autodireção não consiga frear a tempo 706 00:33:09,531 --> 00:33:13,326 e tenha que atropelar um de seis pedestres diferentes. 707 00:33:13,827 --> 00:33:15,620 Um bebê em um carrinho, 708 00:33:17,956 --> 00:33:19,541 ou um menino, 709 00:33:20,417 --> 00:33:22,252 ou uma menina, 710 00:33:23,295 --> 00:33:25,756 ou uma mulher grávida... 711 00:33:27,299 --> 00:33:28,341 Pois é. 712 00:33:29,468 --> 00:33:31,636 Ou dois médicos homens, 713 00:33:32,554 --> 00:33:34,473 ou duas médicas mulheres. 714 00:33:34,973 --> 00:33:36,516 Quem tem que morrer? 715 00:33:43,774 --> 00:33:45,025 Meu Deus! 716 00:33:45,692 --> 00:33:46,735 O quê? 717 00:33:51,281 --> 00:33:52,365 Qual é, cara. 718 00:33:52,449 --> 00:33:53,950 Meu Deus! 719 00:33:54,034 --> 00:33:55,494 Sério? 720 00:33:57,704 --> 00:33:59,122 ENXAME DIZ: UM MENINO 721 00:33:59,206 --> 00:34:01,374 Vocês disseram que o carro deveria atropelar o menino. 722 00:34:02,083 --> 00:34:03,168 Interessante. 723 00:34:03,251 --> 00:34:06,338 O tipo de inteligência de enxame criada nesta sala hoje 724 00:34:06,421 --> 00:34:10,008 poderia ser vendida no futuro para produtores de carros de autodireção. 725 00:34:10,425 --> 00:34:14,805 E, se isso lhe parece assustador, é bem melhor que a alternativa. 726 00:34:14,888 --> 00:34:17,641 Quando um carro de autodireção aciona os freios 727 00:34:17,724 --> 00:34:20,227 e percebe que não pode parar antes de atingir alguém, 728 00:34:20,310 --> 00:34:23,188 o carro deve proteger o passageiro ou o pedestre? 729 00:34:23,271 --> 00:34:27,275 Esperamos que os produtores de carros os programem 730 00:34:27,359 --> 00:34:30,737 para refletir a moralidade da população que compra esses carros. 731 00:34:30,821 --> 00:34:34,199 A visão cínica seria que os produtores de carros 732 00:34:34,282 --> 00:34:38,286 começassem a competir que seu carro protege mais o passageiro 733 00:34:38,370 --> 00:34:40,997 que outro carro, e isso poderia ser uma ferramenta de venda. 734 00:34:41,081 --> 00:34:42,666 Acho que esse cenário é pior 735 00:34:42,749 --> 00:34:45,293 que as sensibilidades morais da comunidade. 736 00:34:45,752 --> 00:34:47,295 Nossa, isso é sombrio. 737 00:34:47,587 --> 00:34:50,298 E queremos terminar este programa de forma inspiradora. 738 00:34:50,966 --> 00:34:52,384 Talvez até sublime. 739 00:34:55,345 --> 00:34:58,682 Antes que imagine um futuro com níveis Grand Theft Auto 740 00:34:58,765 --> 00:35:00,725 de negligência de segurança para pedestres, 741 00:35:00,809 --> 00:35:02,310 vamos fazer uma viagem 742 00:35:02,394 --> 00:35:04,145 de volta para onde começamos. 743 00:35:06,606 --> 00:35:08,608 Nesta remota floresta indiana, 744 00:35:08,692 --> 00:35:11,820 colhendo mel para uma empresa chamada Heavenly Organics. 745 00:35:12,612 --> 00:35:14,906 Esta floresta não é de ninguém, 746 00:35:14,990 --> 00:35:19,035 e estes nativos vivem aqui desde sempre. 747 00:35:19,744 --> 00:35:22,038 Pai e filho, Amit e Ishwar Hooda, 748 00:35:22,163 --> 00:35:24,291 abriram sua empresa há doze anos 749 00:35:24,374 --> 00:35:27,127 para empregar moradores locais. 750 00:35:27,210 --> 00:35:31,131 O que eles faziam antes de colher mel para sua empresa? 751 00:35:31,214 --> 00:35:33,341 Já faziam isso, 752 00:35:34,092 --> 00:35:37,345 mas não tinham o mercado ou um lugar para vendê-lo 753 00:35:37,470 --> 00:35:39,014 para ganhar o bastante. 754 00:35:40,056 --> 00:35:42,392 Não há escassez de mel por aqui. 755 00:35:42,809 --> 00:35:44,102 Durante a temporada de floração, 756 00:35:44,185 --> 00:35:48,023 um trabalhador pode colher uma tonelada de mel em apenas três meses. 757 00:35:48,857 --> 00:35:51,443 Mas de que adianta se não há ninguém para comprá-lo? 758 00:35:54,154 --> 00:35:57,490 Uma equipe humana levou três dias, duas viagens de avião 759 00:35:57,574 --> 00:36:00,827 e oito horas dirigindo para dentro de uma floresta nacional. 760 00:36:01,286 --> 00:36:04,289 Mas, felizmente para os locais e para a Heavenly Organics, 761 00:36:04,372 --> 00:36:07,751 um algoritmo de IA conseguiu encontrar este lugar em segundos 762 00:36:07,834 --> 00:36:10,462 e sabia que ele seria um ótimo investimento. 763 00:36:10,545 --> 00:36:13,882 Eles nos ligaram de repente e disseram que usaram um algoritmo 764 00:36:13,965 --> 00:36:17,010 e descobriram que combinávamos 765 00:36:17,510 --> 00:36:19,137 com grande parte de seu portfólio. 766 00:36:19,220 --> 00:36:22,807 Queriam falar sobre investimento, se estivéssemos interessados. 767 00:36:23,141 --> 00:36:25,644 De quem era este misterioso algoritmo de IA? 768 00:36:26,478 --> 00:36:28,480 De uma empresa de tecnologia chamada CircleUp, 769 00:36:28,563 --> 00:36:31,316 localizada a 13.000 km em... Onde mais? 770 00:36:31,399 --> 00:36:32,484 SÃO FRANCISCO 771 00:36:33,526 --> 00:36:36,655 Estamos na Good Eggs, uma empresa de entrega de mantimentos on-line, 772 00:36:36,738 --> 00:36:39,616 que também chamou a atenção da IA da CircleUp. 773 00:36:39,699 --> 00:36:42,744 Esta é uma empresa motivada a ignição que obteve capital da CircleUp, 774 00:36:42,827 --> 00:36:47,415 e também ajuda nossas empresas pequenas a encontrarem clientes. 775 00:36:47,499 --> 00:36:48,500 RORY EAKIN - COFUNDADOR E DIRETOR DE OPERAÇÕES DA CIRCLEUP 776 00:36:48,583 --> 00:36:50,126 O diretor de operações da CircleUp, Rory Eakin, 777 00:36:50,210 --> 00:36:53,254 trabalhou em empresas e organizações humanitárias 778 00:36:53,338 --> 00:36:54,881 antes de abrir a companhia. 779 00:36:54,965 --> 00:36:58,385 A CircleUp usa IA para analisar bilhões de pontos de dados 780 00:36:58,468 --> 00:37:00,637 e descobrir o que consumidores realmente querem 781 00:37:00,762 --> 00:37:02,222 de sua comida e produtos de saúde. 782 00:37:02,305 --> 00:37:03,640 O problema que você enfrenta como comprador 783 00:37:03,723 --> 00:37:05,308 é o fato de que há centenas de empresas 784 00:37:05,392 --> 00:37:07,018 em quase todas as categorias. 785 00:37:07,560 --> 00:37:09,938 Então, investem em empresas desconhecidas 786 00:37:10,021 --> 00:37:12,774 que a IA acredita que farão sucesso. 787 00:37:13,066 --> 00:37:15,902 Uma destas foi a produtora do sorvete Halo Top. 788 00:37:17,988 --> 00:37:21,950 A Halo Top era uma pequena marca do sul da Califórnia. 789 00:37:22,033 --> 00:37:24,369 Hoje, é o pote mais vendido do país. 790 00:37:25,412 --> 00:37:28,873 Vemos uma mudança incrível em compradores de todas as categorias. 791 00:37:28,957 --> 00:37:31,126 Eles querem produtos mais saudáveis, 792 00:37:31,209 --> 00:37:33,128 menos toxinas em suas casas, 793 00:37:33,211 --> 00:37:35,797 loções sem tantos produtos químicos. 794 00:37:36,172 --> 00:37:39,884 Quando o algoritmo da CircleUp escaneou bilhões de dados de consumidores, 795 00:37:39,968 --> 00:37:42,512 descobriram que os consumidores queriam uma lista de atributos 796 00:37:42,595 --> 00:37:45,056 incrivelmente específica. 797 00:37:45,140 --> 00:37:47,475 Empresas focadas em missões, ecológicas, 798 00:37:47,600 --> 00:37:50,687 que colhem produtos orgânicos enquanto criam crescimento econômico 799 00:37:50,770 --> 00:37:51,855 em suas comunidades. 800 00:37:52,480 --> 00:37:54,315 Parece impossivelmente detalhado, certo? 801 00:37:54,858 --> 00:37:58,987 Mas a CircleUp preencheu esses requisitos quando encontrou a Heavenly Organics. 802 00:37:59,946 --> 00:38:01,573 Isso é o que a IA consegue fazer. 803 00:38:01,656 --> 00:38:03,658 Entende todos estes dados 804 00:38:03,742 --> 00:38:07,078 de uma forma impossível mesmo dez anos atrás. 805 00:38:07,746 --> 00:38:11,332 Como vai a colaboração entre a CircleUp e a Heavenly Organics? 806 00:38:12,208 --> 00:38:15,045 Vamos voltar para a Índia e perguntar a Amit e Ishwar. 807 00:38:18,006 --> 00:38:20,842 Construímos instalações duas vezes maiores. 808 00:38:21,509 --> 00:38:24,137 Conseguimos inovar e obter novos produtos. 809 00:38:24,220 --> 00:38:26,765 Criar mais impacto nesta área. 810 00:38:26,848 --> 00:38:29,142 -Parece que os ajudaram a progredir. -Sim. 811 00:38:29,225 --> 00:38:31,811 Nos ajudaram a criar capacidade e escalabilidade. 812 00:38:31,895 --> 00:38:34,773 Como isso impactou as pessoas que trabalham para vocês? 813 00:38:34,856 --> 00:38:37,400 Atualmente, sustentamos 650 famílias. 814 00:38:37,484 --> 00:38:39,486 Com nosso crescimento, vendemos mais mel. 815 00:38:39,569 --> 00:38:41,780 A cada mil quilos, acrescentamos uma família. 816 00:38:41,863 --> 00:38:45,033 Isso significa que, no próximo ano, teremos 700 ou 750. 817 00:38:45,116 --> 00:38:46,534 -Nossa, certo. -Sim. 818 00:38:46,618 --> 00:38:50,914 E hoje você vê que suas finanças estão melhores. 819 00:38:50,997 --> 00:38:54,125 Eles têm casas boas e bem estruturadas. 820 00:38:54,209 --> 00:38:56,127 Mandam seus filhos para a escola. 821 00:38:56,503 --> 00:38:58,213 É um capitalismo que faz o bem. 822 00:38:58,296 --> 00:38:59,339 Entende? 823 00:38:59,422 --> 00:39:02,217 Empresas usadas para criar um bem maior. 824 00:39:02,884 --> 00:39:04,511 Por isso todos entramos nessa. 825 00:39:06,429 --> 00:39:09,641 A IA vai se revoltar e derrotar a humanidade? 826 00:39:09,724 --> 00:39:12,685 Ou nos fazer clamar por um propósito em nossas vidas? 827 00:39:13,394 --> 00:39:16,648 Até agora, neste canto do mundo, seu impacto tem sido muito bom. 828 00:39:17,982 --> 00:39:19,734 Talvez haja um cenário em que a IA 829 00:39:19,818 --> 00:39:22,779 faça uma avaliação resoluta de todos os nossos dados, 830 00:39:22,862 --> 00:39:25,782 decida que não somos tão ruins e trabalhemos juntos 831 00:39:26,241 --> 00:39:30,161 para criar um novo mundo com prosperidade e harmonia entre robôs e humanos. 832 00:39:31,663 --> 00:39:32,747 Ou talvez não. 833 00:39:33,790 --> 00:39:36,084 Neste caso, nosso tempo está acabando. 834 00:39:36,501 --> 00:39:38,962 Então, por favor, aprecie estes robôs strippers. 835 00:40:26,217 --> 00:40:29,012 Ótimo! 836 00:40:31,055 --> 00:40:32,348 Isso foi ótimo! 837 00:40:32,432 --> 00:40:33,933 Vamos precisar de uma toalha para ela.