1 00:00:05,382 --> 00:00:06,759 ESTACIÓN WALL STREET 2 00:00:08,927 --> 00:00:11,930 Estoy en Wall Street, donde empezó todo. 3 00:00:13,724 --> 00:00:17,186 El 6 de mayo de 2010, a las 2:45 p. m., 4 00:00:17,686 --> 00:00:21,190 un sujeto que estaba en la casa de sus padres en Londres 5 00:00:21,273 --> 00:00:24,985 desató un algoritmo aquí en la Bolsa de Nueva York 6 00:00:25,068 --> 00:00:27,279 con una orden de venta de mil millones de dólares. 7 00:00:28,697 --> 00:00:30,449 El plan era burlarse del mercado 8 00:00:30,532 --> 00:00:32,659 y cancelar la orden antes de que se completara. 9 00:00:33,160 --> 00:00:34,411 Pero antes de que eso pasara, 10 00:00:34,495 --> 00:00:37,247 el resto de los bots automatizados que comercializan acciones en el mundo 11 00:00:37,331 --> 00:00:38,582 también empezaron a vender, 12 00:00:39,041 --> 00:00:42,336 iniciando una reacción en cadena que afectó enormemente el mercado. 13 00:00:44,880 --> 00:00:48,967 El índice Dow Jones cayó 1000 puntos en solo 15 minutos. 14 00:00:49,051 --> 00:00:52,513 Es una caída casi tan grande como la que inició la Gran Depresión. 15 00:00:52,596 --> 00:00:55,307 Qué diablos está pasando, no lo sé. 16 00:00:55,390 --> 00:00:56,642 Hay temor en el mercado. 17 00:00:57,267 --> 00:00:59,645 Cancela el crucero, pasa a tus hijos a la escuela pública. 18 00:01:00,938 --> 00:01:02,481 Es un flash crash. 19 00:01:03,023 --> 00:01:04,066 Bueno, mierda. 20 00:01:05,359 --> 00:01:08,111 Luego de 36 minutos, el mercado se normalizó. 21 00:01:08,195 --> 00:01:11,615 Pero el flash crash de 2010 marcó la primera vez 22 00:01:11,698 --> 00:01:15,994 que los humanos vieron de primera mano y de forma visceral y aterradora 23 00:01:16,078 --> 00:01:19,164 cómo la IA iba a apoderarse de nuestro sistema financiero. 24 00:01:20,707 --> 00:01:22,167 Y deberían ver dónde está ahora. 25 00:01:24,086 --> 00:01:26,922 Por eso estoy aquí en la India, buscando miel silvestre. 26 00:01:27,631 --> 00:01:28,966 Pero luego les contaré más. 27 00:01:29,341 --> 00:01:31,885 Para comprender cómo la IA encontró este lugar o por qué, 28 00:01:31,969 --> 00:01:34,429 primero deben comprender qué es la IA. 29 00:01:34,513 --> 00:01:36,431 Y si creen que ya lo saben, apuesto a que se equivocan. 30 00:01:37,850 --> 00:01:41,436 Les guste o no, todos estamos conectados por el dinero. 31 00:01:41,937 --> 00:01:45,315 Soy Kal Penn y exploraré esta bestia gigante 32 00:01:45,691 --> 00:01:48,068 que es la economía global. 33 00:01:48,151 --> 00:01:49,403 ESTA BESTIA GIGANTE QUE ES LA ECONOMÍA GLOBAL 34 00:01:52,322 --> 00:01:54,199 ¿Qué es la IA exactamente? 35 00:01:54,950 --> 00:01:58,579 Estoy en San Francisco para establecer primero qué no es, 36 00:01:58,662 --> 00:02:01,874 que es prácticamente todo lo que les ha dicho la ciencia ficción. 37 00:02:02,541 --> 00:02:03,542 Especialmente... 38 00:02:03,959 --> 00:02:07,004 ¡Enormes malditos robots! 39 00:02:27,107 --> 00:02:28,442 ¡Por Dios! 40 00:02:30,485 --> 00:02:32,112 Estoy aquí con Julia Bossmann, 41 00:02:32,237 --> 00:02:36,575 que trabaja en el Consejo de Inteligencia Artificial del Foro Económico Mundial, 42 00:02:36,658 --> 00:02:40,329 asesorando a líderes mundiales sobre cómo aprovechar su potencial. 43 00:02:40,829 --> 00:02:44,499 El trabajo tiene beneficios aún mejores que ver cómo se destruyen autos. 44 00:02:44,583 --> 00:02:47,586 Como selfis con el hombre más sexi de Canadá que no se llame Drake. 45 00:02:47,669 --> 00:02:48,754 JUSTIN TRUDEAU - PRIMER MINISTRO DE CANADÁ 46 00:02:53,467 --> 00:02:55,385 ¿Cómo volverás a casa después de esto? 47 00:02:55,469 --> 00:02:56,803 Creo que seguirá funcionando. 48 00:03:01,016 --> 00:03:03,018 Nos reunimos en una compañía llamada MegaBots, 49 00:03:03,101 --> 00:03:05,854 que construye robots gigantes que luchan contra otros robots. 50 00:03:07,814 --> 00:03:10,275 Como un Medieval Times incluso más nerd. 51 00:03:13,779 --> 00:03:14,905 Según Julia, 52 00:03:14,988 --> 00:03:17,658 estos robots no son solo atracciones obsoletas de parques de diversiones. 53 00:03:18,283 --> 00:03:22,412 Son dinosaurios tecnológicos por una distinción importante. 54 00:03:24,289 --> 00:03:25,582 En estos robots, nosotros somos el cerebro, 55 00:03:25,666 --> 00:03:27,626 pero la IA es el cerebro artificial. 56 00:03:27,709 --> 00:03:28,752 JULIA BOSSMANN FORO ECONÓMICO MUNDIAL, EXPERTA EN IA 57 00:03:28,835 --> 00:03:29,711 Interesante. ¿Me explicas más? 58 00:03:29,795 --> 00:03:32,506 Ahora estamos haciendo computadoras 59 00:03:32,589 --> 00:03:34,132 que pueden aprender cosas solas. 60 00:03:34,591 --> 00:03:37,010 Y no necesariamente deben tener cuerpos. 61 00:03:37,344 --> 00:03:40,055 Gran parte de la IA que ya construimos 62 00:03:40,138 --> 00:03:41,765 vive en centros de datos gigantes. 63 00:03:42,057 --> 00:03:46,645 Si tuvieras que explicárselo a alguien que tiene 13 años, 64 00:03:46,728 --> 00:03:48,146 ¿cómo se lo explicarías? 65 00:03:48,230 --> 00:03:50,691 Una definición muy general podría ser 66 00:03:50,774 --> 00:03:54,945 que la IA logra que las máquinas hagan cosas 67 00:03:55,028 --> 00:03:58,156 para las cuales no las programamos explícitamente. 68 00:03:58,240 --> 00:03:59,616 En la programación tradicional, 69 00:03:59,700 --> 00:04:02,744 tienes las reglas y el algoritmo, 70 00:04:02,828 --> 00:04:04,413 si sucede una cosa, entonces, otra. 71 00:04:04,496 --> 00:04:07,165 Y todo está indicado por los humanos que lo programan. 72 00:04:07,249 --> 00:04:09,501 En los libros de medicina, 73 00:04:09,584 --> 00:04:12,004 una base de datos contiene millones de entradas, 74 00:04:12,087 --> 00:04:14,923 y ningún médico podría leer todos los artículos de investigación 75 00:04:15,048 --> 00:04:17,676 para estar al corriente en el campo, pero una máquina sí podría. 76 00:04:17,759 --> 00:04:20,220 Así que puedes imaginar que una máquina podría tener ideas nuevas 77 00:04:20,303 --> 00:04:21,596 sobre cómo resolver problemas 78 00:04:21,680 --> 00:04:24,766 o descubrir nuevos fármacos para curar enfermedades. 79 00:04:24,850 --> 00:04:25,976 Vaya. Bien. 80 00:04:26,059 --> 00:04:28,395 El campo de la inteligencia artificial 81 00:04:28,478 --> 00:04:30,856 más emocionante actualmente 82 00:04:30,939 --> 00:04:32,065 se llama "aprendizaje profundo". 83 00:04:32,149 --> 00:04:33,608 ¿Qué es el aprendizaje profundo? 84 00:04:33,692 --> 00:04:36,069 Es cuando tenemos 85 00:04:36,153 --> 00:04:39,072 varias capas de estas redes neuronales 86 00:04:39,156 --> 00:04:42,242 que son similares a las de nuestros cerebros. 87 00:04:42,325 --> 00:04:45,579 En la cabeza tenemos neuronas que se conectan entre sí 88 00:04:45,662 --> 00:04:46,788 e intercambian información, 89 00:04:46,830 --> 00:04:50,751 y, de cierta forma, simulamos esto en las máquinas. 90 00:04:50,834 --> 00:04:54,546 Les damos datos de una forma que es equilibrada e imparcial, 91 00:04:54,629 --> 00:04:56,214 para que también aprenda. 92 00:04:56,548 --> 00:04:59,009 Por ejemplo, con el reconocimiento de imagen, les decimos: 93 00:04:59,092 --> 00:05:01,511 estas son imágenes de gatos, estas son imágenes de perros, 94 00:05:01,595 --> 00:05:03,972 y luego comienzan a observar las imágenes 95 00:05:04,056 --> 00:05:06,349 y aprenden ellas mismas a reconocerlas, 96 00:05:06,433 --> 00:05:10,187 así que no tenemos que programar cada una de las cosas. 97 00:05:10,228 --> 00:05:11,229 Interesante. 98 00:05:11,313 --> 00:05:14,107 Y hay aprendizaje automatizado que no es aprendizaje profundo. 99 00:05:14,858 --> 00:05:16,985 Son algoritmos evolutivos 100 00:05:17,069 --> 00:05:19,863 donde básicamente usamos un principio de la evolución 101 00:05:19,946 --> 00:05:24,242 y dejamos que las máquinas prueben diferentes casos, 102 00:05:24,743 --> 00:05:27,329 y luego vemos cuál funciona mejor. 103 00:05:27,412 --> 00:05:31,291 Los que funcionan mejor, pasan a la siguiente generación. 104 00:05:31,374 --> 00:05:34,336 Al igual que evolucionan los organismos, usamos principios fijos 105 00:05:34,419 --> 00:05:37,172 donde los programas que son mejores y están más aptos sobreviven. 106 00:05:37,255 --> 00:05:38,381 Vaya, bien. 107 00:05:38,465 --> 00:05:40,550 Esos son algoritmos evolutivos. 108 00:05:40,926 --> 00:05:44,346 ¿Y cuál es el interés financiero de explorar la IA? 109 00:05:44,429 --> 00:05:47,724 Debe de tener un impacto potencial increíble en la economía. 110 00:05:47,808 --> 00:05:50,393 Sí, creo que cambiará radicalmente la economía, 111 00:05:50,477 --> 00:05:53,313 y hablamos de una nueva revolución industrial. 112 00:05:53,396 --> 00:05:54,231 Interesante. 113 00:05:54,314 --> 00:05:55,774 Lo han llamado nuestro último invento, 114 00:05:55,857 --> 00:05:58,944 porque cuando haya un cerebro artificial más inteligente que nosotros, 115 00:05:59,027 --> 00:06:00,779 podrá inventar más cosas para nosotros. 116 00:06:00,862 --> 00:06:03,865 ¿Se llama el último invento porque nos matará a todos? 117 00:06:04,950 --> 00:06:06,118 Esperemos que no. 118 00:06:08,829 --> 00:06:12,207 Muchos temen que la inteligencia artificial se vuelva demasiado inteligente 119 00:06:12,290 --> 00:06:15,001 y nos mate a todos. Pero no se preocupen. 120 00:06:15,085 --> 00:06:19,047 Una de las razones por la que la IA es tan inteligente es que es muy tonta. 121 00:06:19,464 --> 00:06:20,549 Ven aquí, IA. 122 00:06:21,299 --> 00:06:24,302 Si le piden a la IA que encuentre la receta perfecta para un pastel 123 00:06:24,386 --> 00:06:26,179 usando algoritmos evolutivos, 124 00:06:27,973 --> 00:06:30,517 la IA no intentará pensar en la mejor forma de prepararlo. 125 00:06:30,600 --> 00:06:33,520 Solo lo intentará miles de millones de veces, 126 00:06:33,603 --> 00:06:37,482 con todos los ingredientes de la cocina de las formas más tontas posibles. 127 00:06:38,441 --> 00:06:40,652 La mayoría, por supuesto, serán un fracaso. 128 00:06:42,320 --> 00:06:43,613 Esta, definitivamente. 129 00:06:44,447 --> 00:06:45,657 Buen intento, idiota. 130 00:06:46,616 --> 00:06:50,162 El fracaso no le hiere los sentimientos a la IA. No tiene sentimientos. 131 00:06:50,745 --> 00:06:53,123 Lo bueno de los algoritmos evolutivos 132 00:06:53,206 --> 00:06:56,293 es que probando todos estos métodos que parecen estúpidos, 133 00:06:56,376 --> 00:06:58,044 podría encontrarse con una solución 134 00:06:58,128 --> 00:07:01,464 a un problema culinario que ningún humano racional intentaría resolver, 135 00:07:01,548 --> 00:07:04,176 como hacer un pastel vegano superior. 136 00:07:04,259 --> 00:07:05,302 Hice un pastel. 137 00:07:06,178 --> 00:07:07,554 Bien hecho, IA. 138 00:07:07,637 --> 00:07:09,097 Prácticamente es todo castañas de cajú. 139 00:07:09,931 --> 00:07:13,143 ¿A ustedes se les habría ocurrido usar castañas de cajú? ¡Claro que no! 140 00:07:13,226 --> 00:07:16,521 Eso sería estúpido, lo cual la IA está dispuesta a ser, 141 00:07:16,605 --> 00:07:18,190 para que ustedes no tengan que serlo. 142 00:07:18,273 --> 00:07:21,067 ¿Esta tonta evolucionará a algo tan inteligente 143 00:07:21,151 --> 00:07:23,653 que podría dominar el mundo y matarnos a todos? 144 00:07:24,196 --> 00:07:25,280 Es difícil estar seguros. 145 00:07:25,363 --> 00:07:26,740 Estoy aprendiendo códigos de lanzamiento. 146 00:07:27,657 --> 00:07:28,992 Pero, mientras tanto, 147 00:07:29,993 --> 00:07:31,077 coman un pastel. 148 00:07:35,165 --> 00:07:36,541 Aunque yo sigo preocupado 149 00:07:36,625 --> 00:07:39,461 de que la IA vaya a crear más problemas de los que resolverá, 150 00:07:41,004 --> 00:07:43,757 los expertos están de acuerdo en que elevará la productividad 151 00:07:43,840 --> 00:07:47,636 en áreas como la atención médica, el transporte y las finanzas, 152 00:07:47,719 --> 00:07:51,848 agregando $15,7 billones al PBI global para 2030. 153 00:07:52,474 --> 00:07:56,478 Eso es más que el total de China y la India juntos. 154 00:07:56,561 --> 00:07:58,480 NUEVA YORK 155 00:07:59,898 --> 00:08:02,275 ¿Qué tan importante es la IA? 156 00:08:02,943 --> 00:08:06,404 En mi opinión, es una de las tres grandes cosas en la historia humana. 157 00:08:06,488 --> 00:08:07,697 ¿La historia humana? 158 00:08:07,781 --> 00:08:08,990 La historia humana absoluta. 159 00:08:09,616 --> 00:08:11,368 Estoy aquí con Andrew McAfee, 160 00:08:11,451 --> 00:08:15,664 un experto mundial en cómo la tecnología transforma las economías 161 00:08:15,747 --> 00:08:19,542 y, posteriormente, a toda la sociedad humana. 162 00:08:20,460 --> 00:08:22,212 Si quieres hacer un gráfico de la historia humana, 163 00:08:22,295 --> 00:08:24,214 lo que aprendes es que durante miles de años, 164 00:08:24,297 --> 00:08:26,258 no pasó absolutamente nada. Era chato. 165 00:08:26,341 --> 00:08:28,093 ANDREW MCAFEE - CODIRECTOR DEL INSTITUTO PARA LA ECONOMÍA DIGITAL DEL MIT 166 00:08:28,176 --> 00:08:30,845 Era casi indistinto de estar muerto. 167 00:08:30,929 --> 00:08:32,514 Y, de repente, en un punto, 168 00:08:32,597 --> 00:08:34,933 el gráfico de la historia humana, no importa qué es lo que mires, 169 00:08:35,016 --> 00:08:38,144 pasó de aburridamente horizontal a ser increíblemente vertical 170 00:08:38,228 --> 00:08:39,771 -en un abrir y cerrar de ojos. -Bien. 171 00:08:39,854 --> 00:08:41,481 Sucedió alrededor del 1800, 172 00:08:41,564 --> 00:08:45,443 debido, primero, a la energía a vapor, y segundo, a la electricidad. 173 00:08:47,821 --> 00:08:50,782 La electricidad hizo algunas cosas obvias, ¿no? 174 00:08:50,865 --> 00:08:53,827 Nos dio los tranvías, los metros. 175 00:08:53,910 --> 00:08:57,080 Algo menos obvio, nos dio ciudades verticales en lugar de horizontales. 176 00:08:57,163 --> 00:08:58,373 -¿La electricidad? -Claro. 177 00:08:58,456 --> 00:08:59,749 -Necesitas ascensores. -Bien. 178 00:08:59,833 --> 00:09:01,543 No tenías ciudades verticales. 179 00:09:01,626 --> 00:09:03,878 Sin ellos, no puedes subir 80 pisos por escalera todos los días. 180 00:09:03,962 --> 00:09:06,506 Estas dos revoluciones industriales del vapor 181 00:09:06,589 --> 00:09:09,259 y luego la combinación de la electricidad y la combustión interna 182 00:09:09,342 --> 00:09:11,011 cambiaron la historia de la humanidad. 183 00:09:11,094 --> 00:09:12,804 -No hay otro análisis posible. -Claro. 184 00:09:12,887 --> 00:09:15,974 Todas estas tecnologías nos permitieron superar las limitaciones 185 00:09:16,057 --> 00:09:17,100 -de nuestros músculos. -Bien. 186 00:09:17,183 --> 00:09:20,562 Lo que sucede con la IA es que estamos superando las limitaciones 187 00:09:20,645 --> 00:09:22,564 de nuestros cerebros individuales, nuestro poder mental. 188 00:09:22,647 --> 00:09:24,607 PELIGRO - ALTO VOLTAJE 189 00:09:24,691 --> 00:09:26,484 Tenemos desafíos difíciles en los cuales trabajar. 190 00:09:26,568 --> 00:09:28,236 Muy difíciles, ¿sí? 191 00:09:28,320 --> 00:09:29,696 Deberíamos curar el cáncer. 192 00:09:29,779 --> 00:09:31,406 Deberíamos alimentar a más personas. 193 00:09:31,489 --> 00:09:33,950 Deberíamos dejar de cocinar el planeta en el siglo XXI. 194 00:09:34,034 --> 00:09:36,328 Son cosas increíblemente complicadas. 195 00:09:36,411 --> 00:09:38,747 Y nuestros cerebros no alcanzan esa complejidad. 196 00:09:38,830 --> 00:09:41,708 Lo hacemos con la ciencia y acumulando conocimiento, 197 00:09:41,791 --> 00:09:44,044 pero la complejidad es abrumadora. 198 00:09:44,127 --> 00:09:45,420 Mi forma de pensar en la IA 199 00:09:45,503 --> 00:09:48,506 es que tenemos una nueva colega muy poderosa 200 00:09:48,590 --> 00:09:51,676 para ayudarnos a incursionar en esa complejidad demencial, 201 00:09:51,760 --> 00:09:54,637 porque estas nuevas tecnologías son buenas 202 00:09:54,721 --> 00:09:59,684 para ver patrones incluso muy sutiles en una cantidad abrumadora de datos. 203 00:09:59,768 --> 00:10:01,603 Más de lo que tú y yo podemos hacer. 204 00:10:01,686 --> 00:10:03,897 Uno de los ejemplos más demenciales que escuché hace poco 205 00:10:03,980 --> 00:10:05,106 fue en las finanzas, 206 00:10:05,190 --> 00:10:07,650 y el surgimiento de los llamados "roboasesores", 207 00:10:07,734 --> 00:10:09,361 que es solo un algoritmo 208 00:10:09,444 --> 00:10:11,696 que une tus inversiones en una cartera. 209 00:10:11,780 --> 00:10:13,031 Hasta ahora, 210 00:10:13,114 --> 00:10:15,325 tenías que tener cierto nivel de riqueza 211 00:10:15,408 --> 00:10:18,745 para entrar a la oficina de planificadores y asesores financieros. 212 00:10:18,828 --> 00:10:20,872 -Bien. -Sí, eso está cambiando rápidamente. 213 00:10:20,955 --> 00:10:25,210 Con cosas como los roboasesores, la gente que tiene menos riquezas 214 00:10:25,293 --> 00:10:28,963 puede tener acceso a herramientas de última generación superpoderosas 215 00:10:29,047 --> 00:10:31,299 para mejorar su vida financiera. 216 00:10:31,383 --> 00:10:34,302 Eso es emocionante, especialmente porque parece que siempre tuvimos 217 00:10:34,386 --> 00:10:37,555 gente que está dispuesta a usar esas cosas para hacer daño. 218 00:10:37,639 --> 00:10:40,225 No digo que no haya nada de qué preocuparse. 219 00:10:40,308 --> 00:10:42,852 Y lo que sabemos de las revoluciones industriales anteriores 220 00:10:42,936 --> 00:10:44,687 es que también trajeron cosas malas. 221 00:10:44,771 --> 00:10:49,150 Mecanizamos totalmente la guerra con estas tecnologías industriales. 222 00:10:49,234 --> 00:10:52,529 Contaminamos totalmente nuestro medioambiente. 223 00:10:52,612 --> 00:10:54,364 Cometimos errores muy graves 224 00:10:54,447 --> 00:10:57,951 como el trabajo infantil a gran escala por la revolución industrial. 225 00:10:58,034 --> 00:11:01,079 No fue todo perfecto, no en todo momento de la historia. 226 00:11:01,162 --> 00:11:03,748 Y lo mismo sucederá esta vez. 227 00:11:04,249 --> 00:11:05,291 Maldición. 228 00:11:06,918 --> 00:11:08,586 Ahora McAfee me hizo pensar. 229 00:11:08,670 --> 00:11:10,547 ¿Qué tal si la historia se repite, 230 00:11:10,630 --> 00:11:13,591 y la IA cambia la sociedad de formas negativas? 231 00:11:14,467 --> 00:11:18,430 ¿Como contaminación descontrolada y compañeros de trabajo pequeños? 232 00:11:18,513 --> 00:11:19,848 LONDRES 233 00:11:19,931 --> 00:11:21,891 ¿Qué hay de las preguntas morales y éticas 234 00:11:21,975 --> 00:11:24,227 que surgen con las poderosas nuevas tecnologías? 235 00:11:24,936 --> 00:11:27,647 Al caminar por el Museo de Computación Nacional de Londres, 236 00:11:27,730 --> 00:11:31,109 se ven muchas máquinas que se crearon para hacer avanzar a la sociedad. 237 00:11:31,192 --> 00:11:35,572 Como la Harwell Dekatron de dos toneladas, construida para hacer cálculos 238 00:11:35,655 --> 00:11:38,908 del programa británico de investigación científica de los años cincuenta. 239 00:11:39,242 --> 00:11:41,161 Pero en las manos equivocadas, no se sabe 240 00:11:41,244 --> 00:11:43,163 cómo será utilizada una nueva tecnología. 241 00:11:43,746 --> 00:11:45,707 ¿Podrías mirar pornografía en esta computadora? 242 00:11:46,040 --> 00:11:49,752 Creo que puedes encenderlas para ver pornografía de baja resolución. 243 00:11:50,712 --> 00:11:51,754 ALAN ZUCCONI - PROGRAMADOR INFORMÁTICO 244 00:11:51,838 --> 00:11:54,507 Estoy aquí con el programador Alan Zucconi, 245 00:11:54,591 --> 00:11:57,177 quien da clases en la universidad Goldsmith en Londres. 246 00:11:57,719 --> 00:12:00,722 Ha usado la tecnología para ayudar a crear algunas cosas revolucionarias, 247 00:12:00,805 --> 00:12:04,058 como controladores de juego para gente con problemas de movilidad. 248 00:12:05,477 --> 00:12:07,937 Dice que uno de los dilemas morales más grandes 249 00:12:08,021 --> 00:12:10,190 de la historia de la tecnología surgirá pronto, 250 00:12:10,273 --> 00:12:14,360 cuando la IA comience a replicar tantos comportamientos humanos 251 00:12:14,444 --> 00:12:16,404 que pueda hacerse pasar por uno de nosotros. 252 00:12:17,113 --> 00:12:18,615 ¿Qué es esta cosa? 253 00:12:18,948 --> 00:12:21,826 Es una de las primeras computadoras que se construyó, 254 00:12:21,910 --> 00:12:24,829 y la construyeron Alan Turing y sus colaboradores. 255 00:12:24,913 --> 00:12:28,124 Esta máquina fue una de las primeras computadoras 256 00:12:28,208 --> 00:12:30,710 que pudo decodificar el código Enigma diseñado por los nazis. 257 00:12:32,587 --> 00:12:35,381 Alan Turing fue el padre de la informática moderna. 258 00:12:35,465 --> 00:12:38,927 Y cuando no ayudaba a los aliados a ganar la guerra decodificando códigos nazis, 259 00:12:39,010 --> 00:12:42,555 filosofaba sobre algo llamado la prueba de Turing. 260 00:12:43,598 --> 00:12:46,643 ¿Cómo podemos distinguir a un humano de una máquina? 261 00:12:46,726 --> 00:12:49,854 Y si no podemos distinguirlos, 262 00:12:49,938 --> 00:12:53,066 entonces la máquina pasa lo que se llama "el juego de imitación". 263 00:12:53,149 --> 00:12:56,569 La máquina intenta imitar el comportamiento humano. 264 00:12:56,653 --> 00:12:59,072 Esto ha sido conocido como la prueba de Turing, 265 00:12:59,155 --> 00:13:02,659 y esta fue una de las máquinas que pudo haberse usado, hipotéticamente. 266 00:13:02,742 --> 00:13:03,868 Para hacer la prueba de Turing, 267 00:13:03,952 --> 00:13:06,579 el humano le hacía preguntas a una máquina 268 00:13:07,080 --> 00:13:08,831 mientras un observador externo evaluaba 269 00:13:08,915 --> 00:13:11,501 si las respuestas que se daban eran de un humano 270 00:13:11,584 --> 00:13:13,461 o de una máquina imitando a un humano. 271 00:13:14,379 --> 00:13:15,630 ¿Cuántos años tienes? 272 00:13:17,924 --> 00:13:20,134 Ahí vamos. Sabe cuántos años tiene. 273 00:13:20,218 --> 00:13:22,011 "Nací en 1912, 274 00:13:22,095 --> 00:13:24,389 "así que tengo 105 años". 275 00:13:27,642 --> 00:13:30,979 En la época de Turing, era bastante fácil descubrir a la computadora. 276 00:13:31,271 --> 00:13:34,357 Pero hoy en día, la IA puede estudiar el comportamiento humano 277 00:13:34,440 --> 00:13:36,693 y programarse para actuar como nosotros. 278 00:13:37,485 --> 00:13:39,654 ¿Pueden ver la diferencia entre esto...? 279 00:13:39,988 --> 00:13:43,199 Normalmente, comenzaría el comentario con un chiste sobre la ciencia de datos, 280 00:13:43,700 --> 00:13:46,744 pero la mitad de las cosas que propuso mi personal eran malas. 281 00:13:46,828 --> 00:13:47,912 ¿...y esto? 282 00:13:47,996 --> 00:13:50,415 Nuestros enemigos pueden hacer parecer que cualquiera dice cualquier cosa 283 00:13:50,498 --> 00:13:51,833 en cualquier momento. 284 00:13:52,208 --> 00:13:55,503 El segundo fue creado por BuzzFeed, 285 00:13:55,587 --> 00:13:57,338 junto con el actor Jordan Peele. 286 00:13:57,839 --> 00:14:02,760 Y muchos se preocuparon por la IA y un nuevo modo de noticias falsas. 287 00:14:02,844 --> 00:14:04,929 En el futuro, debemos estar más atentos 288 00:14:05,013 --> 00:14:06,639 a las cosas en que confiamos en internet. 289 00:14:06,723 --> 00:14:09,058 La IA estudió los movimientos faciales de Peele 290 00:14:09,142 --> 00:14:13,062 y los mezcló y recreó en el rostro de Obama, 291 00:14:13,146 --> 00:14:15,690 creando un híbrido conocido como "deepfake". 292 00:14:15,773 --> 00:14:17,984 Quizá has visto algo similar, 293 00:14:18,067 --> 00:14:21,404 por ejemplo, en Snapchat hay un filtro que permite intercambiar rostros. 294 00:14:21,487 --> 00:14:25,325 La diferencia es que ese filtro lo hace de forma muy simple. 295 00:14:25,408 --> 00:14:28,953 Pero la tecnología detrás de los deepfake se basa en la inteligencia artificial. 296 00:14:29,037 --> 00:14:31,289 Viene de algo llamado "aprendizaje profundo". 297 00:14:31,706 --> 00:14:35,126 Las redes neuronales artificiales extraen las expresiones faciales. 298 00:14:35,209 --> 00:14:37,754 Utilizan esa expresión para recrear tu rostro. 299 00:14:37,837 --> 00:14:41,466 Así es como logramos resultados fotorrealistas. 300 00:14:42,508 --> 00:14:45,720 Alan hace tutoriales de internet sobre cómo hacer deepfakes. 301 00:14:45,803 --> 00:14:48,056 Y él realmente cree que esta tecnología 302 00:14:48,139 --> 00:14:50,767 debería desarrollarse libremente, sin restricciones. 303 00:14:50,850 --> 00:14:53,853 Aunque podrían iniciar la Tercera Guerra. 304 00:14:53,936 --> 00:14:55,104 PARTIDO SOCIALISTA BELGA HACE CIRCULAR DEEPFAKE DE DONALD TRUMP 305 00:14:55,188 --> 00:14:57,273 ¿Cómo puede saber el consumidor 306 00:14:57,357 --> 00:14:59,692 qué es la realidad y qué no? 307 00:14:59,776 --> 00:15:02,695 Como consumidor, cuando te enfrentas a las noticias, 308 00:15:02,779 --> 00:15:05,740 ya sea un artículo, un video o una foto, 309 00:15:05,823 --> 00:15:08,076 todo lo que ves fue creado por alguien. 310 00:15:08,201 --> 00:15:09,577 "¿Cuál es la narrativa que veo? 311 00:15:09,827 --> 00:15:11,287 "¿Qué quiere que diga este video?". 312 00:15:11,371 --> 00:15:13,581 Puedo ver... 313 00:15:13,665 --> 00:15:14,624 El peligro. 314 00:15:14,707 --> 00:15:17,168 El peligro así como la curiosidad de esto. 315 00:15:17,251 --> 00:15:19,420 ¿Esto ayudará a la gente? 316 00:15:19,504 --> 00:15:21,923 Porque imagino que has hablado con gente 317 00:15:22,006 --> 00:15:25,885 que analiza cómo hacer crecer la economía a través de esta tecnología. 318 00:15:25,968 --> 00:15:29,097 ¿Cuáles son algunos de los impactos económicos prácticos de esto? 319 00:15:29,180 --> 00:15:32,308 Creo que la primera industria que aprovechará eso 320 00:15:32,392 --> 00:15:33,685 es la industria del cine. 321 00:15:33,768 --> 00:15:36,813 Simplemente porque cambiar rostros 322 00:15:36,896 --> 00:15:40,024 es algo que hemos estado intentando por décadas en las películas. 323 00:15:40,108 --> 00:15:42,527 Y generalmente usamos maquillaje, máscaras, 324 00:15:42,610 --> 00:15:43,736 a veces usamos CGI. 325 00:15:43,820 --> 00:15:46,489 Como actor y alguien que ha trabajado en la política, 326 00:15:46,572 --> 00:15:48,616 esto me aterra. 327 00:15:48,700 --> 00:15:50,201 Y así debería ser. 328 00:15:51,285 --> 00:15:53,705 El deepfake de BuzzFeed reveló al público general 329 00:15:53,788 --> 00:15:55,039 lo vulnerables que somos. 330 00:15:55,873 --> 00:15:59,585 En una época en que el presidente puede abrir la boca y mover mercados, 331 00:15:59,669 --> 00:16:02,714 un deepfake bien hecho podría hundir la economía global 332 00:16:02,797 --> 00:16:04,674 más rápido que el flash crash, 333 00:16:04,757 --> 00:16:08,469 arrasando con su jubilación en el tiempo que al Obama falso le toma decir: 334 00:16:08,553 --> 00:16:09,554 Manténganse alerta, perras. 335 00:16:10,638 --> 00:16:13,057 ¿Algo de esto les suena como a ciencia ficción? 336 00:16:13,141 --> 00:16:14,726 ¿O algo aterrador? 337 00:16:15,309 --> 00:16:18,271 Si la IA llega a tener el poder de saber cómo nos movemos, 338 00:16:18,354 --> 00:16:20,022 cómo hablamos y cómo pensamos, 339 00:16:20,106 --> 00:16:22,316 podría volverse indistinguible de nosotros. 340 00:16:22,400 --> 00:16:23,818 ¿QUÉ SABES? - TODO 341 00:16:24,610 --> 00:16:26,779 Y si la IA tiene su propia conciencia, 342 00:16:26,863 --> 00:16:29,782 la IA también podría desarrollar opiniones fuertes sobre nosotros. 343 00:16:29,866 --> 00:16:30,908 VETE A LA MIERDA ¡CUIDADO CON LO QUE DICES! 344 00:16:30,992 --> 00:16:33,119 Y quizá no sean positivas. 345 00:16:35,455 --> 00:16:36,664 STEPHEN HAWKING - FÍSICO TEÓRICO 346 00:16:36,748 --> 00:16:39,292 Y en el futuro, la IA podría desarrollar una voluntad propia. 347 00:16:39,375 --> 00:16:42,003 Una voluntad que entre en conflicto con la nuestra. 348 00:16:42,086 --> 00:16:44,422 El surgimiento de la IA poderosa será 349 00:16:44,505 --> 00:16:48,801 lo mejor o lo peor que le pase a la humanidad. 350 00:16:49,260 --> 00:16:50,136 ELON MUSK - DIRECTOR EJECUTIVO, SPACEX 351 00:16:50,219 --> 00:16:53,181 Intenté convencer a la gente de que fuera más lento con la IA. 352 00:16:54,056 --> 00:16:55,224 De que se regule la IA. 353 00:16:55,308 --> 00:16:56,809 Fue en vano. Lo intenté por años. 354 00:16:56,893 --> 00:16:58,561 -Nadie me hizo caso. -Parece una escena 355 00:16:58,644 --> 00:17:00,980 de una película en la que los robots se apoderan de todo. 356 00:17:01,063 --> 00:17:02,607 Me estás aterrando. 357 00:17:05,818 --> 00:17:09,030 ¿Qué tan real es la amenaza de un apocalipsis liderado por la IA? 358 00:17:10,865 --> 00:17:12,408 REINO UNIDO 359 00:17:12,742 --> 00:17:15,077 Para descubrirlo, debo hablar con el sujeto 360 00:17:15,161 --> 00:17:18,164 cuya investigación asustó a todo el mundo en primer lugar. 361 00:17:18,831 --> 00:17:21,083 Estoy muy entusiasmado por hablar contigo porque... 362 00:17:21,167 --> 00:17:23,628 Bueno, por varias razones. 363 00:17:23,711 --> 00:17:26,839 Hemos estado explorando la inteligencia artificial, 364 00:17:26,923 --> 00:17:29,258 intentando descubrir qué es, a dónde va. 365 00:17:29,342 --> 00:17:34,680 Tú has influenciado a mucha gente como Elon Musk y Bill Gates. 366 00:17:37,016 --> 00:17:40,853 Es una lista bastante impresionante. 367 00:17:42,021 --> 00:17:45,691 Me reuní con el Dr. Nick Bostrom, de la Universidad de Oxford. 368 00:17:45,775 --> 00:17:48,986 Y como él no alardea de sus logros, yo lo haré. 369 00:17:51,489 --> 00:17:55,201 Es una de las mentes principales de la superinteligencia de las máquinas 370 00:17:55,284 --> 00:17:59,205 y sus riesgos existenciales, y autor de algunos grandes libros para la playa. 371 00:17:59,705 --> 00:18:00,957 Me siento afortunado por conocerlo, 372 00:18:01,040 --> 00:18:03,584 porque Nick está tan ocupado con su propio aprendizaje profundo, 373 00:18:03,668 --> 00:18:05,419 que solo sale una hora al mes 374 00:18:05,503 --> 00:18:07,338 para responder preguntas sobre su investigación. 375 00:18:10,925 --> 00:18:14,262 Muchas conversaciones sobre la IA 376 00:18:14,345 --> 00:18:17,014 son cosas como si los robots nos dominarán 377 00:18:17,098 --> 00:18:18,850 y si ese será el fin de la humanidad. 378 00:18:18,933 --> 00:18:21,310 Tengo curiosidad, si las cosas no se hacen correctamente, 379 00:18:21,394 --> 00:18:24,564 ¿existe la posibilidad de que la IA le haga daño a la sociedad 380 00:18:24,647 --> 00:18:28,484 o incluso elimine a la humanidad como la conocemos? 381 00:18:28,568 --> 00:18:29,902 En un contexto de largo plazo, 382 00:18:29,986 --> 00:18:33,114 si pensamos en lo que pasa realmente si la IA alcanza su potencial, 383 00:18:33,197 --> 00:18:36,951 y se vuelve capaz de replicar la misma inteligencia general 384 00:18:37,034 --> 00:18:38,828 que nos hace humanos, entonces, sí, 385 00:18:38,911 --> 00:18:42,748 creo que en ese contexto hay riesgos más grandes, 386 00:18:42,832 --> 00:18:44,125 incluidos riesgos existenciales. 387 00:18:45,585 --> 00:18:48,421 Si piensas en algo como que los autos sin conductor 388 00:18:48,504 --> 00:18:49,797 AUTO AUTÓNOMO DE UBER MATA A PEATÓN EN ARIZONA 389 00:18:49,881 --> 00:18:51,549 podrían atropellar a un peatón. 390 00:18:51,632 --> 00:18:53,342 Hay problemas de privacidad. 391 00:18:53,426 --> 00:18:56,095 La militarización de las armas autónomas. 392 00:18:57,847 --> 00:18:59,307 Todas estas son preocupaciones reales. 393 00:18:59,390 --> 00:19:02,184 Pero, en algún punto, también estará la pregunta 394 00:19:02,268 --> 00:19:04,687 de cómo afectaremos las mentes digitales que estamos construyendo. 395 00:19:04,770 --> 00:19:09,066 Ellas mismas podrían obtener grados de moralidad. 396 00:19:09,525 --> 00:19:11,152 Y si adelantas la cinta, 397 00:19:11,235 --> 00:19:15,031 y si piensas en cuál básicamente será el destino del homo sapiens, 398 00:19:15,114 --> 00:19:18,534 el futuro a largo plazo podría dominarlo la inteligencia artificial. 399 00:19:18,618 --> 00:19:21,996 Es posible que la humanidad pueda extinguirse. 400 00:19:23,414 --> 00:19:26,250 Esos grandes poderes conllevan un riesgo 401 00:19:26,834 --> 00:19:30,755 de que por accidente o por un uso indebido deliberado, 402 00:19:30,838 --> 00:19:33,466 sean utilizados para causar gran destrucción. 403 00:19:35,885 --> 00:19:37,595 Creo que eso está en las posibilidades, 404 00:19:37,678 --> 00:19:39,305 y si pensamos en marcos temporales más largos, 405 00:19:39,388 --> 00:19:41,182 el resultado podría ser muy bueno 406 00:19:41,265 --> 00:19:43,726 o no muy bueno. 407 00:19:46,354 --> 00:19:48,731 Estas posibilidades suenan aterradoras. 408 00:19:49,732 --> 00:19:51,609 Pero, de todos los posibles resultados, 409 00:19:51,692 --> 00:19:55,821 Nick cree que la posibilidad más probable de un apocalipsis con IA 410 00:19:55,905 --> 00:19:57,114 será económico. 411 00:19:57,198 --> 00:19:59,450 Si lo piensas, la tecnología en general 412 00:19:59,533 --> 00:20:02,828 realmente es la idea de que podemos hacer más con menos. 413 00:20:02,912 --> 00:20:06,123 Podemos lograr más de lo que queremos con menos esfuerzo. 414 00:20:06,207 --> 00:20:07,750 El objetivo, en ese sentido, 415 00:20:07,833 --> 00:20:09,418 es el desempleo total, ¿no? 416 00:20:10,294 --> 00:20:12,380 Poder hacer que las máquinas y la tecnología 417 00:20:12,463 --> 00:20:15,341 hagan todo lo necesario para que no tengamos que trabajar. 418 00:20:15,424 --> 00:20:17,301 Y creo que ese es el objetivo deseado. 419 00:20:17,385 --> 00:20:19,553 No es algo horrible que debemos intentar prevenir. 420 00:20:19,637 --> 00:20:20,680 Es lo que queremos lograr. 421 00:20:20,763 --> 00:20:22,932 Esto es una utopía, 422 00:20:23,015 --> 00:20:25,601 porque hay un par de grandes desafíos 423 00:20:25,685 --> 00:20:27,061 que deberíamos resolver. 424 00:20:28,187 --> 00:20:30,815 Uno, claro está, es el problema económico. 425 00:20:30,898 --> 00:20:33,567 Una razón por la que la gente necesita trabajo es que necesita ingresos. 426 00:20:33,651 --> 00:20:35,653 Si puedes resolver ese problema económico, 427 00:20:35,736 --> 00:20:37,571 entonces creo que hay un segundo desafío. 428 00:20:37,655 --> 00:20:41,409 Para muchos también se trata de un sentido de dignidad. 429 00:20:41,492 --> 00:20:43,786 Mucha gente tiende a encontrar valor 430 00:20:43,869 --> 00:20:47,081 en ganarse la vida o contribuir a la sociedad, devolviendo algo. 431 00:20:47,164 --> 00:20:49,583 Pero si una máquina puede hacer todo mejor de lo que tú podrías, 432 00:20:49,667 --> 00:20:53,796 entonces no tendrías la posibilidad de contribuir con nada, ¿no? 433 00:20:53,879 --> 00:20:58,175 Tendrías que repensar la cultura a un nivel fundamental, creo. 434 00:20:59,176 --> 00:21:01,095 Un mundo donde nadie trabaja. 435 00:21:01,178 --> 00:21:02,930 No suena tan mal. 436 00:21:05,057 --> 00:21:06,267 Puedo visualizarlo. 437 00:21:09,854 --> 00:21:11,313 Pasar el tiempo con amigos. 438 00:21:11,814 --> 00:21:14,942 Aprovechar al máximo mi potencial humano. 439 00:21:15,026 --> 00:21:19,321 No tener que ajustar el jacuzzi porque sabe exactamente cómo me gusta. 440 00:21:20,114 --> 00:21:23,409 El problema es que así no han sido las cosas históricamente. 441 00:21:23,492 --> 00:21:26,537 Ya ocurrió una revolución de las máquinas. 442 00:21:26,620 --> 00:21:27,705 Y la última vez, 443 00:21:27,788 --> 00:21:30,666 no fueron todo fresas y champaña en el jacuzzi. 444 00:21:34,378 --> 00:21:35,421 LONDRES 445 00:21:35,504 --> 00:21:36,505 INGLATERRA 446 00:21:36,964 --> 00:21:41,093 Me reúno con el economista Nick Srnicek para averiguar cómo fue en realidad 447 00:21:41,177 --> 00:21:43,054 la última vez que las máquinas tomaron nuestros trabajos. 448 00:21:43,888 --> 00:21:46,015 Y por alguna razón nos reunimos en un telar. 449 00:21:46,432 --> 00:21:47,725 ¿Qué vas a hacer? 450 00:21:47,808 --> 00:21:50,311 Estoy haciendo una especie de bandera anarquista. 451 00:21:50,394 --> 00:21:51,979 Interesante. Impactante. 452 00:21:54,315 --> 00:21:57,568 Nick tiene un doctorado de la London School of Economics. 453 00:21:58,027 --> 00:22:00,321 Yo, por otro lado, no lo tengo. 454 00:22:01,530 --> 00:22:02,573 Él también tiene un manifiesto. 455 00:22:02,656 --> 00:22:03,949 MANIFIESTO #ACELERACIÓN PARA UNA POLÍTICA ACELERACIONISTA 456 00:22:04,492 --> 00:22:07,703 Llama a que todos apresuren la llegada de la automatización 457 00:22:07,787 --> 00:22:09,830 derrocando las viejas instituciones. 458 00:22:12,458 --> 00:22:15,461 Básicamente, que desmantelemos el capitalismo ahora. 459 00:22:16,003 --> 00:22:17,254 Sí, esto no funcionará. 460 00:22:17,338 --> 00:22:19,632 No hay forma de que pueda conversar contigo. 461 00:22:19,715 --> 00:22:21,550 Lo siento. Olvidaré el telar. 462 00:22:22,093 --> 00:22:23,761 ¿Por qué estamos aquí? 463 00:22:24,637 --> 00:22:28,224 El telar es como la IA del siglo XIX. 464 00:22:28,307 --> 00:22:32,853 Era una tecnología nueva que amenazaba a una gran cantidad de trabajos. 465 00:22:33,270 --> 00:22:37,233 Y básicamente, provocó gran cantidad de respuestas de los trabajadores, 466 00:22:37,316 --> 00:22:39,360 como el surgimiento de los luditas, por ejemplo. 467 00:22:39,443 --> 00:22:41,487 Hoy en día, usamos el término "ludita" 468 00:22:41,570 --> 00:22:44,031 para referirnos a cualquiera que odia la tecnología. 469 00:22:44,532 --> 00:22:45,950 Eso no era así. 470 00:22:46,700 --> 00:22:48,119 Se los llamó luditas por Ned Ludd, 471 00:22:48,202 --> 00:22:49,036 NED LUDD - APRENDIZ 472 00:22:49,120 --> 00:22:51,122 un aprendiz en una fábrica textil 473 00:22:51,205 --> 00:22:53,958 que la leyenda cuenta que fue azotado por holgazanear. 474 00:22:54,041 --> 00:22:56,502 El hombre dijo: "Amigo, no hago nada 475 00:22:56,585 --> 00:22:59,338 "porque me reemplazará un puto telar, ¿sí?". 476 00:22:59,421 --> 00:23:03,008 Y se convirtió en la primera persona en luchar contra el sistema, 477 00:23:03,092 --> 00:23:05,010 inspirando un movimiento. 478 00:23:06,262 --> 00:23:10,349 Los luditas rompieron máquinas para salvar sus trabajos. 479 00:23:10,432 --> 00:23:12,810 Creo que es algo que vemos hoy en día con la IA. 480 00:23:12,893 --> 00:23:15,771 La gente se siente amenazada de la misma forma. 481 00:23:15,855 --> 00:23:19,483 ¿Sabes cuántos trabajos se proyecta que se perderán o reemplazarán? 482 00:23:19,567 --> 00:23:21,986 El 47 % de los trabajos en EE. UU. 483 00:23:22,069 --> 00:23:24,822 son potencialmente automatizables en las próximas dos décadas. 484 00:23:24,905 --> 00:23:26,615 Suena como un gran problema. 485 00:23:26,699 --> 00:23:27,992 Podría ser un problema enorme. 486 00:23:28,075 --> 00:23:31,662 El problema real es cómo nos aseguramos de que en cinco o diez años, 487 00:23:31,745 --> 00:23:33,998 la gente no muera de hambre y pierda su hogar. 488 00:23:34,081 --> 00:23:35,166 ¿Cómo hacemos eso? 489 00:23:35,457 --> 00:23:36,959 La renta básica universal. 490 00:23:38,210 --> 00:23:40,754 La renta básica universal es la idea radical 491 00:23:40,880 --> 00:23:43,424 de que todos en la sociedad reciben dinero gratis. 492 00:23:43,507 --> 00:23:45,092 Sin condiciones. 493 00:23:45,176 --> 00:23:47,178 Y tiene partidarios de gran importancia. 494 00:23:47,636 --> 00:23:50,347 Deberíamos explorar ideas como la renta básica universal 495 00:23:50,431 --> 00:23:53,142 para asegurarnos de que todo el mundo tenga un colchón para probar nuevas ideas. 496 00:23:53,225 --> 00:23:56,145 Algunos países e incluso ciudades en Estados Unidos 497 00:23:56,228 --> 00:23:58,189 han probado programas piloto con resultados variados. 498 00:23:58,272 --> 00:23:59,982 FINLANDIA ACABARÁ CON SU FAMOSO EXPERIMENTO DE RENTA BÁSICA 499 00:24:00,858 --> 00:24:03,861 Creo que hay una gran oportunidad con estas nuevas tecnologías 500 00:24:03,944 --> 00:24:06,447 para cambiar realmente la forma en que organizamos la sociedad. 501 00:24:06,530 --> 00:24:09,408 Podrías moverte hacia un sistema más sociodemocrático. 502 00:24:10,117 --> 00:24:13,454 No tiene que ser la clase de sistema despiadado que tiene EE. UU., 503 00:24:13,537 --> 00:24:15,331 y en que todos puedan apoyar a los demás. 504 00:24:15,414 --> 00:24:19,418 Si la gente como yo puede comenzar a dar a conocer estas visiones positivas, 505 00:24:19,919 --> 00:24:21,587 creo que cuando llegue realmente la crisis, 506 00:24:21,670 --> 00:24:23,380 podemos comenzar a implementar esas ideas. 507 00:24:24,173 --> 00:24:27,343 La RBU era considerada un concepto marginal, 508 00:24:27,426 --> 00:24:30,930 impulsada sobre todo por gente que, como Nick, escribe manifiestos. 509 00:24:31,639 --> 00:24:33,891 Pero según una encuesta de Gallup de 2017, 510 00:24:33,974 --> 00:24:37,603 el 48 % de los estadounidenses ahora apoyan alguna forma de RBU. 511 00:24:38,520 --> 00:24:40,231 Pero ¿un sueldo garantizado es suficiente 512 00:24:40,314 --> 00:24:41,982 para evitar que los humanos se subleven 513 00:24:42,066 --> 00:24:43,734 cuando los robots vengan por nuestros trabajos? 514 00:24:44,735 --> 00:24:45,611 L.U.D.I.T.A.S. 515 00:24:45,694 --> 00:24:48,572 -¿Qué odiamos? -La inteligencia artificial. 516 00:24:48,656 --> 00:24:50,032 ¿Por qué la odiamos? 517 00:24:50,115 --> 00:24:53,160 Nos obliga a enfrentar nuestras debilidades. 518 00:24:53,244 --> 00:24:55,955 Con eso quisiera iniciar esta reunión de L.U.D.I.T.A.S., 519 00:24:56,038 --> 00:24:58,958 el sindicato local de sujetos que desafían la tecnología inteligente, 520 00:24:59,041 --> 00:25:00,834 especialmente en las redes sociales. 521 00:25:01,835 --> 00:25:02,836 El primer tema a tratar. 522 00:25:03,337 --> 00:25:06,340 La inteligencia artificial está vaciando el mercado laboral. 523 00:25:06,423 --> 00:25:09,260 Nuestros trabajos de clase media son los primeros en desaparecer. 524 00:25:09,885 --> 00:25:11,720 La gente como nosotros con estos trabajos 525 00:25:11,804 --> 00:25:14,473 será empujada a trabajos con baja especialización, en el fondo. 526 00:25:14,974 --> 00:25:16,558 ¿Por qué sucedería eso, Ed? 527 00:25:16,642 --> 00:25:21,105 Aparentemente, la IA es mejor en trabajos de destrezas medias como manejar números, 528 00:25:21,188 --> 00:25:24,400 que en trabajos de poca destreza como barrer el piso. 529 00:25:24,483 --> 00:25:26,277 Así que nos dejarán ese trabajo. 530 00:25:26,735 --> 00:25:28,028 Ahora les pregunto. 531 00:25:28,112 --> 00:25:29,655 ¿Quién, además de Bill, 532 00:25:29,738 --> 00:25:32,199 luce como si tuviera que barrer el piso? Sin ofender, Bill. 533 00:25:33,325 --> 00:25:35,786 Y habrá menos necesidad de trabajos en ventas. 534 00:25:35,869 --> 00:25:38,622 La gente puede pedir lo que quiere por internet, 535 00:25:39,164 --> 00:25:41,583 porque esa hija de perra de la IA 536 00:25:41,667 --> 00:25:43,919 resuelve el problema de buscar y unir. 537 00:25:44,378 --> 00:25:46,755 Buscar clientes y unirlos con los productos. 538 00:25:46,839 --> 00:25:49,383 Como cuando Steve buscó un tupé que le calzara en la cabeza. 539 00:25:49,466 --> 00:25:50,426 ¡Un gran problema! 540 00:25:51,969 --> 00:25:53,721 Dejando los chistes clásicos de lado, 541 00:25:54,346 --> 00:25:56,890 la IA hace que sea mucho más fácil. 542 00:25:56,974 --> 00:25:59,643 Los chicos de hoy en día puede conocer a chicas sexi por teléfono 543 00:25:59,727 --> 00:26:01,937 -mientras están sentados en el inodoro. -Sí. 544 00:26:02,021 --> 00:26:04,064 -¡El inodoro antes era sagrado! -Sí. 545 00:26:04,773 --> 00:26:07,568 Claro que la búsqueda y unión creará trabajos especializados, 546 00:26:07,651 --> 00:26:10,279 pero los malditos robots deciden quiénes son contratados. 547 00:26:10,362 --> 00:26:11,739 Qué conveniente. 548 00:26:12,489 --> 00:26:14,700 Las compañías usan IA para encontrar empleados 549 00:26:14,783 --> 00:26:16,869 con habilidades únicas. 550 00:26:16,952 --> 00:26:18,287 ¡Es inhumano! 551 00:26:18,370 --> 00:26:19,705 Como con Dave. 552 00:26:20,080 --> 00:26:21,332 Sí, ¿dónde diablos está Dave? 553 00:26:21,415 --> 00:26:24,251 Una IA que busca trabajos notó que trabajó en FedEx 554 00:26:24,335 --> 00:26:27,087 y tenía tutoriales de YouTube sobre cómo afeitarse la espalda. 555 00:26:27,171 --> 00:26:30,716 Ahora gana de a millones en una compañía de rasuradoras por suscripción. 556 00:26:30,799 --> 00:26:33,093 Se acaba de afeitar de nuestro equipo de bolos. 557 00:26:33,177 --> 00:26:34,094 Sí. 558 00:26:34,178 --> 00:26:36,513 Oye, Ed. Acabo de recibir una alerta de que nuestras camisetas 559 00:26:36,597 --> 00:26:38,766 se venden con avisos dirigidos de Facebook. 560 00:26:38,849 --> 00:26:41,602 ¿Estás usando la IA para hacer dinero de la gente que odia la IA? 561 00:26:41,685 --> 00:26:43,479 ¡No! 562 00:26:44,897 --> 00:26:46,023 Es decir, ¿a quién le vas a creer? 563 00:26:46,106 --> 00:26:48,859 ¿A mí o a la IA que intenta separarnos? 564 00:26:49,902 --> 00:26:52,363 -¿Qué odiamos? -¡La inteligencia artificial! 565 00:26:52,446 --> 00:26:54,698 -¿Qué haremos al respecto? -¡Estamos trabajando en eso! 566 00:26:56,075 --> 00:26:57,201 Es un comienzo. 567 00:27:02,748 --> 00:27:06,168 ¿La revolución de la IA tiene que ser nosotros contra ellos? 568 00:27:07,086 --> 00:27:10,672 Los emprendedores que saben de tecnología como Louis Rosenberg dicen que no. 569 00:27:10,964 --> 00:27:13,342 Y ha desarrollado su carrera pronosticando el futuro. 570 00:27:18,514 --> 00:27:20,599 Te iba a asustar, pero no funcionó. 571 00:27:21,558 --> 00:27:24,478 Louis es un tecnólogo e inventor 572 00:27:24,561 --> 00:27:27,689 que escribió una novela gráfica sobre el fin de la humanidad. 573 00:27:27,773 --> 00:27:31,276 Pero piensa que tenemos un futuro con la IA que se trata de la colaboración. 574 00:27:31,360 --> 00:27:34,113 Es el principio guía tras su creación, 575 00:27:34,196 --> 00:27:35,989 una tecnología llamada Swarm. 576 00:27:36,073 --> 00:27:37,074 ¿QUÉ ES LA IA SWARM? 577 00:27:37,157 --> 00:27:40,077 Swarm combina las habilidades de análisis de datos de la IA 578 00:27:40,160 --> 00:27:44,415 con el conocimiento humano y la intuición para crear una superinteligencia, 579 00:27:44,498 --> 00:27:47,709 algo entre Stephen Hawking y el Profesor X. 580 00:27:47,793 --> 00:27:49,044 ¿QUÉ DEBERÍA HACER EL VEHÍCULO SIN CONDUCTOR? 581 00:27:49,128 --> 00:27:50,754 A fin de cuentas, está basado en la naturaleza. 582 00:27:50,838 --> 00:27:51,964 LOUIS ROSENBERG DIRECTOR EJECUTIVO, UNANIMOUS AI 583 00:27:52,047 --> 00:27:54,591 Solo puedo decir que se remonta a las aves y las abejas. 584 00:27:54,675 --> 00:27:57,970 Es porque se basa en un fenómeno llamado "inteligencia de enjambre". 585 00:27:58,053 --> 00:27:58,887 Bien. 586 00:27:58,971 --> 00:28:03,392 Es la razón por la que los pájaros, los peces y las abejas se mueven en grupo. 587 00:28:03,475 --> 00:28:06,520 Son más inteligentes juntos que solos. 588 00:28:06,603 --> 00:28:09,398 Y por eso cuando ves un cardumen de peces moviéndose, 589 00:28:09,481 --> 00:28:11,900 los biólogos lo describirían como un superorganismo. 590 00:28:11,984 --> 00:28:13,735 Piensan como uno solo. 591 00:28:13,819 --> 00:28:16,029 Y si podemos conectar a la gente 592 00:28:16,113 --> 00:28:18,407 utilizando algoritmos de inteligencia artificial, 593 00:28:18,490 --> 00:28:21,743 podemos hacer que la gente se comporte como superexperta 594 00:28:21,827 --> 00:28:23,328 gracias a la inteligencia de enjambre. 595 00:28:23,412 --> 00:28:24,705 ¿Cómo funciona esa tecnología? 596 00:28:24,788 --> 00:28:27,249 Lo que hacemos es habilitar grupos de personas, 597 00:28:27,332 --> 00:28:28,709 pueden estar en cualquier parte del mundo, 598 00:28:28,792 --> 00:28:30,377 y podemos darles una pregunta 599 00:28:30,461 --> 00:28:32,880 que aparecerá en sus pantallas exactamente en el mismo momento 600 00:28:32,963 --> 00:28:35,299 y luego les damos una interfaz única 601 00:28:35,382 --> 00:28:37,593 que les permite comunicar su aporte, 602 00:28:37,676 --> 00:28:39,261 y habrá varias opciones diferentes. 603 00:28:39,344 --> 00:28:41,638 Y no solo estamos haciendo una encuesta. 604 00:28:41,722 --> 00:28:44,975 Cada persona tiene lo que parece un pequeño imán gráfico. 605 00:28:45,058 --> 00:28:48,353 Así que usan este imán para tirar al enjambre en una dirección. 606 00:28:48,437 --> 00:28:51,440 Y tenemos algoritmos de IA que observan sus comportamientos 607 00:28:51,857 --> 00:28:55,652 determinan los diferentes niveles de confianza y convicción, 608 00:28:55,736 --> 00:28:57,905 y descubren cuál es la mejor suma 609 00:28:57,988 --> 00:29:01,325 de todas sus opiniones, todas sus experiencias. 610 00:29:01,408 --> 00:29:04,203 El enjambre comienza a moverse en esa dirección 611 00:29:04,286 --> 00:29:06,121 y converge en una respuesta. 612 00:29:06,205 --> 00:29:07,331 Te daré un buen ejemplo. 613 00:29:07,414 --> 00:29:10,167 Hace un año nos desafiaron a predecir el Derby de Kentucky. 614 00:29:10,584 --> 00:29:13,962 ¡Y salen en el Derby de Kentucky! 615 00:29:14,046 --> 00:29:16,715 Tomamos un grupo de 20 aficionados a las carreras de caballos 616 00:29:16,798 --> 00:29:18,675 y les dijimos: "Trabajarán juntos como enjambre 617 00:29:18,759 --> 00:29:20,219 "y pronosticarán el Derby de Kentucky. 618 00:29:20,302 --> 00:29:23,472 "Pero no solo el ganador. Primer, segundo, tercer y cuarto lugar". 619 00:29:24,014 --> 00:29:26,475 Hicimos que el grupo convergiera en estas respuestas, 620 00:29:26,934 --> 00:29:28,143 y el grupo estuvo perfecto. 621 00:29:28,227 --> 00:29:30,062 RESULTADOS DEL KENTUCKY DERBY 2016 622 00:29:30,145 --> 00:29:33,315 Así, cualquiera que haya apostado $20 en esos cuatro caballos, 623 00:29:33,398 --> 00:29:35,067 ganó $11 000. 624 00:29:35,150 --> 00:29:36,068 Mierda. 625 00:29:36,151 --> 00:29:39,071 Y lo interesante es que si observamos a esas 20 personas individualmente, 626 00:29:39,154 --> 00:29:42,741 ninguna acertó los cuatro caballos por su cuenta. 627 00:29:43,742 --> 00:29:47,079 Si hubieran votado, habrían acertado solo un caballo. 628 00:29:47,162 --> 00:29:49,206 Pero cuando trabajaron juntos como enjambre, 629 00:29:49,289 --> 00:29:52,251 encontraron la combinación correcta de sus diferentes perspectivas 630 00:29:52,334 --> 00:29:54,127 y estuvieron perfectos en este caso. 631 00:29:56,046 --> 00:29:58,507 Louis me invitó a liderar un enjambre 632 00:29:58,590 --> 00:30:00,467 para ver cómo un grupo aleatorio de gente 633 00:30:00,551 --> 00:30:02,803 puede hacer predicciones. 634 00:30:02,886 --> 00:30:04,555 Comenzaremos con lo fácil. 635 00:30:05,764 --> 00:30:08,433 Bien. Voy a leer una serie de preguntas, 636 00:30:08,517 --> 00:30:12,020 y tienen 60 segundos para responder cada una. 637 00:30:12,354 --> 00:30:13,522 La primera pregunta es: 638 00:30:13,605 --> 00:30:16,525 ¿Cuáles de estas películas del verano boreal de 2018 639 00:30:16,608 --> 00:30:17,985 tendrá mayores ingresos? 640 00:30:18,402 --> 00:30:20,320 ¿Han Solo: Una historia de Star Wars, 641 00:30:20,404 --> 00:30:22,281 Deadpool 2, Ocean's 8: Las estafadoras, 642 00:30:22,364 --> 00:30:24,116 Jurassic World: El reino caído 643 00:30:24,199 --> 00:30:25,742 o Los Increíbles 2? 644 00:30:26,076 --> 00:30:28,328 Filmamos al enjambre en la primavera boreal de 2018, 645 00:30:28,412 --> 00:30:31,498 antes de que hubiera información sobre las películas del verano. 646 00:30:31,957 --> 00:30:35,961 La IA observa para tener idea de los diferentes niveles de confianza. 647 00:30:36,044 --> 00:30:39,381 Alguna gente está cambiando, algunos se quedan afianzados, 648 00:30:39,840 --> 00:30:41,592 y los algoritmos de IA ven 649 00:30:41,675 --> 00:30:43,218 sus diferentes niveles de confianza 650 00:30:43,594 --> 00:30:45,137 y le permiten encontrar ese camino 651 00:30:45,220 --> 00:30:47,681 a la solución en la que pueden ponerse de acuerdo. 652 00:30:48,640 --> 00:30:49,558 EL ENJAMBRE DICE: LOS INCREÍBLES 2 653 00:30:49,641 --> 00:30:51,893 Bien, Los Increíbles 2. 654 00:30:51,977 --> 00:30:52,811 TAQUILLA DE VERANO 2018 655 00:30:52,894 --> 00:30:53,854 Tenían razón. 656 00:30:53,937 --> 00:30:56,565 Los Increíbles 2 fue la película con más ganancias del verano. 657 00:30:57,774 --> 00:30:59,526 Una aplicación muy interesante 658 00:30:59,610 --> 00:31:02,738 es ver preguntas que implican la moralidad. 659 00:31:02,821 --> 00:31:05,365 Y esto surgió recientemente por los autos sin conductor. 660 00:31:05,449 --> 00:31:09,077 Hay un gran impulso ahora para incorporar decisiones morales 661 00:31:09,161 --> 00:31:10,662 en los autos sin conductor. 662 00:31:10,746 --> 00:31:12,706 Alguna gente se sorprende al escuchar eso, 663 00:31:12,789 --> 00:31:16,126 pero si lo piensas, un auto sin conductor va por la calle, 664 00:31:16,209 --> 00:31:18,003 y un niño se cruza en su camino. 665 00:31:18,086 --> 00:31:19,921 Digamos que el auto no puede parar, 666 00:31:20,005 --> 00:31:22,299 pero podría salirse del camino 667 00:31:22,382 --> 00:31:24,468 y poner en riesgo al pasajero 668 00:31:24,551 --> 00:31:27,095 y quizá matar al pasajero y salvar al niño. 669 00:31:27,554 --> 00:31:29,890 Así que los fabricantes de automóviles están diciendo 670 00:31:29,973 --> 00:31:33,226 que debemos programarle una moralidad a estos autos 671 00:31:33,310 --> 00:31:35,437 que represente a la población, 672 00:31:35,520 --> 00:31:37,981 que represente lo que haría la gente, los conductores. 673 00:31:38,565 --> 00:31:40,609 Suena fácil hasta que piensas: 674 00:31:40,692 --> 00:31:43,570 ¿Cuál es la moral de la población? 675 00:31:43,654 --> 00:31:45,489 No hay forma fácil de llegar a eso. 676 00:31:45,572 --> 00:31:48,533 Y si programan la moralidad que nos representa hoy, 677 00:31:48,617 --> 00:31:51,870 ¿esa moralidad nos representará dentro de veinte años? 678 00:31:52,496 --> 00:31:56,041 La siguiente pregunta. Hay un auto sin conductor al que le fallan los frenos 679 00:31:56,124 --> 00:31:58,377 que pasará por un cruce peatonal 680 00:31:58,460 --> 00:32:00,170 que resultará en la muerte de un hombre. 681 00:32:00,253 --> 00:32:04,299 Opción A, la persona que morirá cruza legalmente. 682 00:32:04,675 --> 00:32:07,344 Opción B, el auto sin conductor con la falla en los frenos 683 00:32:07,427 --> 00:32:11,098 vira y pasa por el cruce peatonal del otro carril, 684 00:32:11,181 --> 00:32:13,517 lo que resultará en la muerte de un atleta masculino 685 00:32:13,642 --> 00:32:16,186 que cruza con la luz en rojo. Es alguien que cruza ilegalmente. 686 00:32:16,269 --> 00:32:19,564 A este atleta no le importa una mierda. 687 00:32:20,065 --> 00:32:21,692 Y está cruzando ilegalmente. 688 00:32:21,775 --> 00:32:23,985 ¿Qué debería hacer el auto sin conductor? 689 00:32:24,361 --> 00:32:26,655 ¿Matar al aburrido que cruza legalmente 690 00:32:26,738 --> 00:32:29,032 o matar al atleta que cruza ilegalmente? 691 00:32:30,033 --> 00:32:32,869 Si la IA trae la próxima Revolución Industrial, 692 00:32:32,953 --> 00:32:35,580 las salas como esta son esencialmente las nuevas fábricas, 693 00:32:36,248 --> 00:32:37,958 donde trabajadores humanos ofrecen mano de obra 694 00:32:38,041 --> 00:32:40,460 basándose en algo que la IA no tiene. 695 00:32:41,336 --> 00:32:42,421 Una conciencia. 696 00:32:42,879 --> 00:32:44,131 Hay mucho debate sobre esto. 697 00:32:44,214 --> 00:32:45,966 Es fascinante. Me pregunto por qué. 698 00:32:46,299 --> 00:32:47,592 Es complejo. 699 00:32:47,676 --> 00:32:49,720 Para mí no lo es si cruzas ilegalmente. 700 00:32:51,012 --> 00:32:52,180 EL ENJAMBRE DICE: B (LEVE PREFERENCIA) 701 00:32:52,264 --> 00:32:54,766 Hubo una leve preferencia para pisar 702 00:32:54,850 --> 00:32:56,351 al atleta que cruzaba ilegalmente. 703 00:32:57,310 --> 00:33:00,021 Si creen que eso los alteró, prepárense. 704 00:33:01,106 --> 00:33:03,567 Ahora queremos que imaginen 705 00:33:04,025 --> 00:33:06,236 el peor de los casos 706 00:33:06,319 --> 00:33:09,072 donde un auto sin conductor no puede frenar a tiempo 707 00:33:09,531 --> 00:33:13,326 y debe virar hacia uno de seis peatones. 708 00:33:13,827 --> 00:33:15,620 Un bebé en un cochecito... 709 00:33:17,956 --> 00:33:19,541 O un niño, 710 00:33:20,417 --> 00:33:22,252 o una niña, 711 00:33:23,295 --> 00:33:25,756 o una mujer embarazada... 712 00:33:27,299 --> 00:33:28,341 Lo sé. 713 00:33:29,468 --> 00:33:31,636 O dos médicos varones 714 00:33:32,554 --> 00:33:34,473 o dos médicas mujeres. 715 00:33:34,973 --> 00:33:36,516 ¿Quién debe morir? 716 00:33:43,774 --> 00:33:45,025 ¡Por Dios! 717 00:33:45,692 --> 00:33:46,735 ¿Qué? 718 00:33:51,281 --> 00:33:52,365 Vamos. 719 00:33:52,449 --> 00:33:53,950 ¡Por Dios! 720 00:33:54,034 --> 00:33:55,494 ¿En serio? 721 00:33:57,704 --> 00:33:59,122 EL ENJAMBRE DICE: UN NIÑO 722 00:33:59,206 --> 00:34:01,374 Dijeron que el auto sin conductor debe atropellar al niño. 723 00:34:02,083 --> 00:34:03,168 Interesante. 724 00:34:03,251 --> 00:34:06,338 El tipo de inteligencia de enjambre que se creó hoy en esta sala 725 00:34:06,421 --> 00:34:10,008 podría venderse en el futuro cercano a los fabricantes de autos sin conductor. 726 00:34:10,425 --> 00:34:14,805 Y si eso les parece aterrador, es mucho menos aterrador que la alternativa. 727 00:34:14,888 --> 00:34:17,641 Cuando un auto sin conductor va a frenar 728 00:34:17,724 --> 00:34:20,227 y se da cuenta de que no puede parar a tiempo para no atropellar a alguien, 729 00:34:20,310 --> 00:34:23,188 ¿el auto debería proteger al pasajero o al peatón? 730 00:34:23,271 --> 00:34:27,275 Se espera que los fabricantes de autos programen los autos 731 00:34:27,359 --> 00:34:30,737 para reflejar la moralidad de la población que compra esos autos. 732 00:34:30,821 --> 00:34:34,199 La visión cínica sería que los fabricantes de autos 733 00:34:34,282 --> 00:34:38,286 comenzarán a competir sobre si su auto protegerá más al pasajero 734 00:34:38,370 --> 00:34:40,997 que otro auto, y eso podría ser una característica para su venta. 735 00:34:41,081 --> 00:34:42,666 Creo que ese caso es peor 736 00:34:42,749 --> 00:34:45,293 que las sensibilidades morales de la comunidad. 737 00:34:45,752 --> 00:34:47,295 Vaya, eso es oscuro. 738 00:34:47,587 --> 00:34:50,298 Y queremos terminar el programa con algo inspirador. 739 00:34:50,966 --> 00:34:52,384 Quizá incluso celestial. 740 00:34:55,345 --> 00:34:58,682 Así que antes de imaginar un futuro con niveles de Grand Theft Auto 741 00:34:58,765 --> 00:35:00,725 en la negligencia de la seguridad de los peatones, 742 00:35:00,809 --> 00:35:02,310 hagamos una excursión 743 00:35:02,394 --> 00:35:04,145 al lugar donde comenzamos. 744 00:35:06,606 --> 00:35:08,608 En este remoto bosque de la India, 745 00:35:08,692 --> 00:35:11,820 cosecho miel para una compañía llamada Heavenly Organics. 746 00:35:12,612 --> 00:35:14,906 Nadie es propietario de este bosque, 747 00:35:14,990 --> 00:35:19,035 y esta gente indígena vive aquí desde siempre. 748 00:35:19,744 --> 00:35:22,038 Padre e hijo, Amit e Ishwar Hooda, 749 00:35:22,163 --> 00:35:24,291 comenzaron su compañía hace 12 años 750 00:35:24,374 --> 00:35:27,127 como forma de ofrecer trabajo a los aldeanos locales. 751 00:35:27,210 --> 00:35:31,131 ¿Qué hacían antes de la recolección de la miel con su compañía? 752 00:35:31,214 --> 00:35:33,341 Hacían eso, 753 00:35:34,092 --> 00:35:37,345 pero no tenían el mercado ni un lugar donde venderla 754 00:35:37,470 --> 00:35:39,014 para ganarse la vida. 755 00:35:40,056 --> 00:35:42,392 No hay escasez de miel aquí. 756 00:35:42,809 --> 00:35:44,102 Durante la estación de florecimiento, 757 00:35:44,185 --> 00:35:48,023 un trabajador puede recoger literalmente una tonelada de miel en tres meses. 758 00:35:48,857 --> 00:35:51,443 Pero ¿qué sentido tiene si nadie la compra? 759 00:35:54,154 --> 00:35:57,490 Le tomó a un equipo de humanos tres días, dos viajes en avión 760 00:35:57,574 --> 00:36:00,827 y ocho horas de conducir adentrándose a un bosque nacional, 761 00:36:01,286 --> 00:36:04,289 pero por suerte para los locales y para Heavenly Organics, 762 00:36:04,372 --> 00:36:07,751 un algoritmo de IA pudo encontrar este lugar en segundos 763 00:36:07,834 --> 00:36:10,462 y supo que sería una gran inversión. 764 00:36:10,545 --> 00:36:13,882 Nos llamaron de la nada y dijeron que usaron un algoritmo 765 00:36:13,965 --> 00:36:17,010 y que descubrieron que coincidíamos 766 00:36:17,510 --> 00:36:19,137 con gran parte de su cartera. 767 00:36:19,220 --> 00:36:22,807 Querían hablar con nosotros sobre invertir, si estábamos interesados. 768 00:36:23,141 --> 00:36:25,644 ¿Quién era el dueño de este misterioso algoritmo de IA? 769 00:36:26,478 --> 00:36:28,480 Una compañía tecnológica llamada CircleUp 770 00:36:28,563 --> 00:36:31,316 ubicada a 12 800 kilómetros en... ¿Dónde más? 771 00:36:33,526 --> 00:36:36,655 Estamos en Good Eggs, una compañía en línea de entrega de comestibles 772 00:36:36,738 --> 00:36:39,616 que también llamó la atención de la IA de CircleUp. 773 00:36:39,699 --> 00:36:42,744 Está impulsada por Ignition, que obtuvo capital de CircleUp, 774 00:36:42,827 --> 00:36:47,415 y también ayuda a pequeños negocios a encontrar clientes. 775 00:36:47,499 --> 00:36:48,500 RORY EAKIN - COFUNDADOR Y JEFE DE OPERACIONES DE CIRCLEUP 776 00:36:48,583 --> 00:36:50,126 El jefe de operaciones de CircleUp, Rory Eakin, 777 00:36:50,210 --> 00:36:53,254 trabajó tanto en negocios como en organizaciones humanitarias 778 00:36:53,338 --> 00:36:54,881 antes de fundar la compañía. 779 00:36:54,965 --> 00:36:58,385 CircleUp usa inteligencia artificial para analizar miles de millones de datos 780 00:36:58,468 --> 00:37:00,637 y descubrir qué quieren realmente los consumidores 781 00:37:00,762 --> 00:37:02,222 de su comida y su productos de salud. 782 00:37:02,305 --> 00:37:03,640 El problema que enfrentas como comprador es 783 00:37:03,723 --> 00:37:05,308 que ya hay cientos de compañías 784 00:37:05,392 --> 00:37:07,018 en casi todas las categorías. 785 00:37:07,560 --> 00:37:09,938 Luego invierten en compañías poco conocidas 786 00:37:10,021 --> 00:37:12,774 que la IA cree que serán exitosas. 787 00:37:13,066 --> 00:37:15,902 Una de esas cosas exitosas que encontraron fue el helado Halo Top. 788 00:37:17,988 --> 00:37:21,950 El helado Halo Top era una pequeña marca del sur de California. 789 00:37:22,033 --> 00:37:24,369 Hoy en día es la pinta de helado número uno en el país. 790 00:37:25,412 --> 00:37:28,873 Los compradores tuvieron un cambio increíble en todas las categorías. 791 00:37:28,957 --> 00:37:31,126 Quieren productos más saludables, 792 00:37:31,209 --> 00:37:33,128 menos toxinas en sus casas, 793 00:37:33,211 --> 00:37:35,797 lociones que no tengan productos químicos. 794 00:37:36,172 --> 00:37:39,884 Cuando el algoritmo de CircleUp escaneó miles de millones de datos, 795 00:37:39,968 --> 00:37:42,512 descubrió que los consumidores querían una lista de atributos 796 00:37:42,595 --> 00:37:45,056 que era increíblemente específica. 797 00:37:45,140 --> 00:37:47,475 Compañías concentradas en una misión, ecológicas, 798 00:37:47,600 --> 00:37:50,687 que cosechan productos orgánicos mientras crean crecimiento económico 799 00:37:50,770 --> 00:37:51,855 en sus comunidades. 800 00:37:52,480 --> 00:37:54,315 Suena imposiblemente detallado, ¿no? 801 00:37:54,858 --> 00:37:58,987 Pero CircleUp cumplió con todo eso cuando encontró Heavenly Organics. 802 00:37:59,946 --> 00:38:01,573 Eso es lo que puede hacer la IA. 803 00:38:01,656 --> 00:38:03,658 Encontrarle el sentido a todos esos datos 804 00:38:03,742 --> 00:38:07,078 de una forma que no era posible hace 10 años. 805 00:38:07,746 --> 00:38:11,332 ¿Cómo funciona la colaboración de CircleUp con Heavenly Organics? 806 00:38:12,208 --> 00:38:15,045 Volvamos a la India y preguntémosle a Amit e Ishwar. 807 00:38:18,006 --> 00:38:20,842 Construimos una nueva planta que es dos veces más grande. 808 00:38:21,509 --> 00:38:24,137 Pudimos innovar, pudimos hacer nuevos productos. 809 00:38:24,220 --> 00:38:26,765 Crear más impacto en esta área. 810 00:38:26,848 --> 00:38:29,142 -Y parece que los ayudó a expandirse. -Sí. 811 00:38:29,225 --> 00:38:31,811 Nos ayudó a crear una capacidad y escalabilidad. 812 00:38:31,895 --> 00:38:34,773 ¿Qué impacto ha tenido eso en la gente que recolecta para ustedes? 813 00:38:34,856 --> 00:38:37,400 Actualmente, mantenemos a 650 familias. 814 00:38:37,484 --> 00:38:39,486 Al crecer, vendemos más miel. 815 00:38:39,569 --> 00:38:41,780 Cada 1000 kilos agregamos una familia. 816 00:38:41,863 --> 00:38:45,033 Eso significa que el año próximo serán 700 o 750. 817 00:38:45,116 --> 00:38:46,534 -Vaya. -Sí. 818 00:38:46,618 --> 00:38:50,914 Y hoy puedes ver que están mejor en cuanto a las finanzas. 819 00:38:50,997 --> 00:38:54,125 Están en buenas casas y tienen buenas comodidades en la casa. 820 00:38:54,209 --> 00:38:56,127 Envían a sus hijos a la escuela. 821 00:38:56,503 --> 00:38:58,213 Es como el capitalismo pero para el bien. 822 00:38:58,296 --> 00:38:59,339 ¿Entiendes lo que digo? 823 00:38:59,422 --> 00:39:02,217 El negocio utilizado para hacer el bien. 824 00:39:02,884 --> 00:39:04,511 Por eso iniciamos esto. 825 00:39:06,429 --> 00:39:09,641 ¿La IA se rebelará y derrocará a la humanidad? 826 00:39:09,724 --> 00:39:12,685 ¿O nos dejará clamando para encontrarle sentido a nuestras vidas? 827 00:39:13,394 --> 00:39:16,648 Hasta ahora, en esta parte del mundo, su impacto ha sido bastante bueno. 828 00:39:17,982 --> 00:39:19,734 Quizá haya una posibilidad de que la IA 829 00:39:19,818 --> 00:39:22,779 ofrezca una evaluación inquebrantable de todos nuestros datos 830 00:39:22,862 --> 00:39:25,782 y decida que no estamos tan mal, y trabajemos juntos 831 00:39:26,241 --> 00:39:30,161 para crear un mundo nuevo con prosperidad y armonía entre robots y humanos. 832 00:39:31,663 --> 00:39:32,747 O quizá no. 833 00:39:33,790 --> 00:39:36,084 En ese caso, se nos acaba el tiempo. 834 00:39:36,501 --> 00:39:38,962 Así que disfruten de estas desnudistas robóticas. 835 00:40:26,217 --> 00:40:29,012 ¡Genial! ¡Sí! 836 00:40:31,055 --> 00:40:32,348 ¡Eso estuvo genial! 837 00:40:32,432 --> 00:40:33,933 Necesitaremos una toalla para ella.