1 00:00:02,000 --> 00:00:07,000 Downloaded from YTS.MX 2 00:00:08,000 --> 00:00:13,000 Official YIFY movies site: YTS.MX 3 00:00:19,978 --> 00:00:24,774 "NADA GRANDE ACONTECE EN LA VIDA DE LOS MORTALES SIN UNA MALDICIÓN". 4 00:00:24,858 --> 00:00:27,861 SÓFOCLES 5 00:00:31,156 --> 00:00:34,659 Adelante. Sí, siéntate, ponte cómodo. 6 00:00:37,495 --> 00:00:38,580 ¿Estás bien? Vale. 7 00:00:38,663 --> 00:00:39,497 Sí. 8 00:00:43,043 --> 00:00:44,419 Toma uno, marca. 9 00:00:46,880 --> 00:00:48,923 ¿Quieres empezar presentándote? 10 00:00:50,467 --> 00:00:53,344 Hola, gente. Bailey. Toma tres. 11 00:00:53,970 --> 00:00:56,222 - ¿Estás bien? - Esta es la peor parte. 12 00:00:57,515 --> 00:00:58,516 No me gusta esto. 13 00:00:59,851 --> 00:01:02,228 Trabajé en Facebook en 2011 y 2012. 14 00:01:02,312 --> 00:01:05,190 Fui una de las primeras empleadas de Instagram. 15 00:01:05,273 --> 00:01:08,693 Trabajé en Google y YouTube. 16 00:01:08,777 --> 00:01:11,696 Apple, Google, Twitter, Palm. 17 00:01:12,739 --> 00:01:15,533 Ayudé a iniciar Mozilla Labs y pasé a Firefox. 18 00:01:15,617 --> 00:01:17,994 ¿Estamos rodando? Todos... 19 00:01:18,078 --> 00:01:18,953 Genial. 20 00:01:21,206 --> 00:01:26,169 Trabajé en Twitter. Mi último trabajo fue el de vicepresidente de ingeniería. 21 00:01:27,420 --> 00:01:29,255 Era el presidente de Pinterest. 22 00:01:29,339 --> 00:01:34,260 Antes de eso, fui director de monetización en Facebook durante cinco años. 23 00:01:34,344 --> 00:01:37,806 Dirigí la plataforma de desarrollo de Twitter 24 00:01:37,889 --> 00:01:40,225 y llegué a jefe de producto de consumo. 25 00:01:40,308 --> 00:01:44,270 Fui el coinventor de Google Drive, el chat de Gmail, 26 00:01:44,354 --> 00:01:47,357 las páginas de Facebook y el botón "Me gusta". 27 00:01:47,440 --> 00:01:50,777 Sí. Por eso pasé ocho meses 28 00:01:50,860 --> 00:01:52,779 hablando con abogados. 29 00:01:54,030 --> 00:01:55,406 Esto me asusta. 30 00:01:58,409 --> 00:02:02,914 Cuando estaba allí, siempre sentía que era una fuerza positiva. 31 00:02:03,373 --> 00:02:05,375 No sé si ahora me siento así. 32 00:02:05,458 --> 00:02:10,588 Dejé Google en junio de 2017 por motivos éticos. 33 00:02:10,672 --> 00:02:14,134 Y no solo en Google, sino en toda la industria. 34 00:02:14,217 --> 00:02:15,468 Estoy muy preocupado. 35 00:02:16,719 --> 00:02:17,679 Mucho. 36 00:02:19,097 --> 00:02:21,808 Hoy es fácil perder de vista 37 00:02:21,891 --> 00:02:27,814 que estas herramientas han creado cosas maravillosas en el mundo. 38 00:02:27,897 --> 00:02:31,943 Han reunido a familiares, han encontrado donantes de órganos... 39 00:02:32,026 --> 00:02:35,613 Hubo cambios sistémicos importantes y positivos 40 00:02:35,697 --> 00:02:37,866 en todo el mundo 41 00:02:37,949 --> 00:02:40,201 debido a estas plataformas. 42 00:02:40,827 --> 00:02:44,539 Fuimos ingenuos con la otra cara de la moneda. 43 00:02:45,540 --> 00:02:48,585 Sí, sueltas estas cosas y cobran vida propia. 44 00:02:48,668 --> 00:02:52,005 Y el uso que se les da es muy diferente del esperado. 45 00:02:52,088 --> 00:02:56,509 Creo que nadie buscaba ninguna de estas consecuencias. 46 00:02:56,593 --> 00:02:59,554 No hay ningún malo. No. Claro que no. 47 00:03:01,639 --> 00:03:03,600 Entonces, ¿cuál es el problema? 48 00:03:08,771 --> 00:03:11,357 ¿Hay algún problema y cuál sería? 49 00:03:18,406 --> 00:03:22,118 Sí, es difícil dar un solo... Hay muchos problemas que comentar. 50 00:03:22,202 --> 00:03:23,578 ¿Cuál es el problema? 51 00:03:28,208 --> 00:03:32,253 UN DOCUMENTAL ORIGINAL DE NETFLIX 52 00:03:33,588 --> 00:03:37,634 A pesar de las críticas, las grandes empresas tecnológicas crecen. 53 00:03:37,717 --> 00:03:40,929 La industria tecnológica está bajo un nuevo escrutinio. 54 00:03:41,012 --> 00:03:43,556 Un nuevo estudio arroja luz sobre el vínculo 55 00:03:43,640 --> 00:03:46,142 entre la salud mental y las redes sociales. 56 00:03:46,226 --> 00:03:48,770 Vengo a hablar de la última investigación... 57 00:03:49,187 --> 00:03:51,397 ...que no tiene cobertura. 58 00:03:51,481 --> 00:03:54,108 Hay millones de estadounidenses adictos 59 00:03:54,192 --> 00:03:56,319 a sus dispositivos electrónicos. 60 00:03:56,402 --> 00:03:59,364 Se agrava por el hecho de que uno puede aislarse... 61 00:03:59,447 --> 00:04:00,698 TE HAN ETIQUETADO EN UNA FOTO 62 00:04:00,782 --> 00:04:02,742 ...gracias a nuestra tecnología. 63 00:04:02,825 --> 00:04:06,788 Los bulos son más avanzados y amenazan a las sociedades mundiales. 64 00:04:06,871 --> 00:04:10,291 No esperábamos esto al crear Twitter hace más de 12 años. 65 00:04:10,375 --> 00:04:12,502 Según las autoridades, no hay motivos para creer 66 00:04:12,585 --> 00:04:14,754 que cesarán los ciberataques rusos. 67 00:04:14,837 --> 00:04:18,132 YouTube se ve obligado a hacer limpieza. 68 00:04:18,216 --> 00:04:21,552 TikTok, si hablas con algún adolescente, 69 00:04:21,636 --> 00:04:24,013 verás que es imposible que lo borren... 70 00:04:24,097 --> 00:04:26,266 Isla, ¿puedes preparar la mesa? 71 00:04:26,349 --> 00:04:30,061 Hay dudas sobre si las redes sociales deprimen a nuestros hijos. 72 00:04:30,144 --> 00:04:32,021 Isla, ¿puedes poner la mesa? 73 00:04:32,105 --> 00:04:35,316 Es cada vez más popular entre los adolescentes 74 00:04:35,400 --> 00:04:37,860 y se ha acuñado un nuevo síndrome: 75 00:04:37,944 --> 00:04:40,905 dismorfia de Snapchat, jóvenes que quieren operarse 76 00:04:40,989 --> 00:04:43,741 para parecer selfies con filtros. 77 00:04:43,825 --> 00:04:45,910 No entiendo por qué le dejas eso. 78 00:04:45,994 --> 00:04:47,537 ¿Qué iba a hacer? 79 00:04:47,620 --> 00:04:49,580 Todos los de su clase tenían uno. 80 00:04:50,039 --> 00:04:51,165 Solo tiene 11 años. 81 00:04:51,249 --> 00:04:52,959 Nadie te obliga a tener uno. 82 00:04:53,042 --> 00:04:55,086 Desconecta si quieres. 83 00:04:55,169 --> 00:04:59,340 Oye, estoy conectada sin móvil, ¿vale? Ahora estoy en Internet. 84 00:04:59,424 --> 00:05:03,094 Y eso no es una conexión real. Es solo un montón de mier... 85 00:05:03,177 --> 00:05:06,514 El capitalismo de vigilancia ha moldeado nuestra política y cultura 86 00:05:06,597 --> 00:05:08,308 de formas imperceptibles. 87 00:05:08,391 --> 00:05:12,812 El EI ha inspirado a sus seguidores y los supremacistas blancos los imitan. 88 00:05:12,895 --> 00:05:14,147 En la India, 89 00:05:14,230 --> 00:05:17,442 las turbas han matado a una docena de personas... 90 00:05:17,525 --> 00:05:20,361 No son solo bulos, tienen consecuencias. 91 00:05:20,445 --> 00:05:24,073 ¿Cómo se maneja una epidemia en la era de los bulos? 92 00:05:24,157 --> 00:05:26,993 ¿Puedes contraer el coronavirus con comida china? 93 00:05:27,535 --> 00:05:32,540 Hemos pasado de la era de la información a la de la desinformación. 94 00:05:32,623 --> 00:05:34,667 Atacan a la democracia. 95 00:05:34,751 --> 00:05:39,005 Lo que dije fue: "Las herramientas que se han creado empiezan 96 00:05:39,088 --> 00:05:41,799 a corroer el tejido social de la sociedad". 97 00:06:00,151 --> 00:06:03,446 Asa da un discurso de bienvenida y ponemos el video. 98 00:06:04,197 --> 00:06:07,325 Y luego: "Damas y caballeros, Tristan Harris". 99 00:06:07,408 --> 00:06:08,826 - Vale. - Genial. 100 00:06:08,951 --> 00:06:12,038 Así que subo y... 101 00:06:12,121 --> 00:06:13,790 UNA NUEVA AGENDA TECNOLÓGICA 102 00:06:13,873 --> 00:06:16,042 Digo: "Gracias por venir". 103 00:06:17,919 --> 00:06:22,048 Hoy quiero hablar de una nueva agenda tecnológica, 104 00:06:22,131 --> 00:06:25,468 y el motivo es que si le preguntamos a la gente: 105 00:06:25,551 --> 00:06:28,096 "¿Qué ocurre con la industria tecnológica?", 106 00:06:28,346 --> 00:06:33,893 hay una cacofonía de quejas y escándalos, de "nos robaron los datos", hay adicción 107 00:06:33,976 --> 00:06:35,978 bulos, polarización 108 00:06:36,062 --> 00:06:37,688 y elecciones pirateadas. 109 00:06:38,189 --> 00:06:41,609 Pero ¿hay algo que subyace a estos problemas 110 00:06:41,692 --> 00:06:44,654 y que haga que todo esto ocurra a la vez? 111 00:06:46,447 --> 00:06:48,408 - ¿Te parece bien? - Muy bien. Sí. 112 00:06:50,827 --> 00:06:52,954 Intento.... Quiero que vean... 113 00:06:53,037 --> 00:06:55,206 Hay un problema en la industria tecnológica. 114 00:06:55,289 --> 00:07:00,211 No tiene nombre y tiene que ver con una fuente, una... 115 00:07:05,091 --> 00:07:09,387 Cuando miras tu alrededor, parece que el mundo se vuelve loco. 116 00:07:12,765 --> 00:07:15,143 Tienes que preguntarte si es normal 117 00:07:16,102 --> 00:07:18,771 o si hemos caído bajo algún hechizo. 118 00:07:22,316 --> 00:07:25,111 EX DISEÑADOR ÉTICO DE GOOGLE 119 00:07:25,194 --> 00:07:27,905 COFUNDADOR DEL CENTRO PARA LA TECNOLOGÍA HUMANA 120 00:07:27,989 --> 00:07:30,450 Ojalá más gente entienda cómo funciona, 121 00:07:30,533 --> 00:07:34,078 porque no debería limitarse a la industria tecnológica. 122 00:07:34,162 --> 00:07:36,289 Debería saberlo todo el mundo. 123 00:07:47,383 --> 00:07:48,301 - ¡Hola! - Hola. 124 00:07:48,509 --> 00:07:50,595 - Tristan. Encantado. - ¿Es Tristan? 125 00:07:50,678 --> 00:07:51,721 - Sí. - Genial. 126 00:07:53,181 --> 00:07:55,933 Él es un ex diseñador ético de Google 127 00:07:56,017 --> 00:07:59,353 y lo más parecido a la consciencia de Silicon Valley. 128 00:07:59,437 --> 00:08:00,771 Le pide a la industria 129 00:08:00,855 --> 00:08:04,192 que añada lo que él llama "diseño ético" a sus productos. 130 00:08:04,275 --> 00:08:06,903 Es raro que un experto sea tan directo, 131 00:08:06,986 --> 00:08:10,114 pero Tristan Harris cree que alguien debe serlo. 132 00:08:11,282 --> 00:08:12,700 Cuando estaba en Google, 133 00:08:12,783 --> 00:08:16,037 estaba en el equipo de Gmail y empecé a hartarme, 134 00:08:16,120 --> 00:08:18,372 porque hablábamos mucho sobre... 135 00:08:19,332 --> 00:08:23,169 cómo debería ser la bandeja de entrada y de qué color debería ser. 136 00:08:23,252 --> 00:08:25,880 Yo me sentía adicto al correo electrónico 137 00:08:26,297 --> 00:08:27,632 y era fascinante 138 00:08:27,715 --> 00:08:31,511 que nadie en Gmail trabajara para hacerlo menos adictivo. 139 00:08:31,969 --> 00:08:36,390 Pensaba: "¿Alguien más piensa en esto? No he oído a nadie hablar de ello". 140 00:08:36,849 --> 00:08:41,229 Y me sentía frustrado con la industria tecnológica, 141 00:08:41,312 --> 00:08:43,147 que habíamos perdido el rumbo. 142 00:08:46,817 --> 00:08:49,820 Me costó mucho averiguar 143 00:08:49,904 --> 00:08:52,573 cómo cambiarlo desde el interior. 144 00:08:55,201 --> 00:08:59,497 Y decidí hacer una presentación, una especie de llamada a las armas. 145 00:09:00,998 --> 00:09:04,961 Todos los días iba a casa y trabajaba un par de horas. 146 00:09:06,170 --> 00:09:11,884 Básicamente, decía que nunca antes en la historia, 50 diseñadores, 147 00:09:12,426 --> 00:09:15,263 blancos de 20 a 35 años, en California, 148 00:09:15,888 --> 00:09:19,725 tomaban decisiones que afectarían a 2000 millones de personas. 149 00:09:21,018 --> 00:09:24,313 A 2000 millones de personas se les inculcarán ideas 150 00:09:24,397 --> 00:09:28,401 porque un diseñador de Google dijo: "Así funcionan las notificaciones 151 00:09:28,484 --> 00:09:30,778 en la pantalla que ves cada mañana". 152 00:09:30,861 --> 00:09:35,283 Y en Google tenemos la responsabilidad moral de resolver este problema. 153 00:09:36,075 --> 00:09:37,743 Y envié esta presentación 154 00:09:37,827 --> 00:09:41,789 a unos 15 o 20 de mis colegas más cercanos en Google. 155 00:09:41,872 --> 00:09:44,959 Estaba muy nervioso. No sabía cómo iba a sentar. 156 00:09:46,460 --> 00:09:50,464 Al día siguiente, la mayoría tenía la presentación abierta. 157 00:09:50,548 --> 00:09:52,049 ATENCIÓN 158 00:09:52,133 --> 00:09:54,552 Ese día, había 400 espectadores 159 00:09:54,635 --> 00:09:58,014 y seguían aumentando. Recibí correos de toda la empresa. 160 00:09:58,097 --> 00:10:00,266 En cada departamento me decían: 161 00:10:00,349 --> 00:10:02,852 "Tienes razón, veo cómo afecta a mis hijos 162 00:10:02,935 --> 00:10:06,856 y a la gente de mi alrededor. Tenemos que hacer algo al respecto". 163 00:10:07,481 --> 00:10:10,818 Parecía que iba a iniciar una revolución o algo así. 164 00:10:11,861 --> 00:10:15,197 Más tarde, supe que Larry Page oyó de la presentación 165 00:10:15,281 --> 00:10:17,116 en tres reuniones ese día. 166 00:10:17,950 --> 00:10:20,369 Y creó un momento cultural 167 00:10:20,870 --> 00:10:23,205 que Google debía tomar en serio. 168 00:10:26,000 --> 00:10:28,794 Y luego... nada. 169 00:10:34,300 --> 00:10:36,135 Todos en 2006, 170 00:10:37,219 --> 00:10:39,221 incluidos nosotros en Facebook, 171 00:10:39,305 --> 00:10:43,392 admirábamos a Google y lo que había construido, 172 00:10:43,476 --> 00:10:47,396 un servicio realmente útil 173 00:10:47,480 --> 00:10:51,442 que, por lo que sabíamos, realizaba una gran labor por el mundo 174 00:10:51,525 --> 00:10:54,695 y crearon una máquina de hacer dinero. 175 00:10:55,404 --> 00:11:00,034 Sentíamos mucha envidia y nos parecía muy elegante... 176 00:11:00,826 --> 00:11:02,161 y perfecto. 177 00:11:02,953 --> 00:11:04,914 Facebook llevaba unos dos años 178 00:11:05,873 --> 00:11:08,292 y me contrataron para que averiguara 179 00:11:08,376 --> 00:11:10,586 el modelo de negocio para la empresa. 180 00:11:10,670 --> 00:11:13,506 Era el director de monetización. La cuestión era: 181 00:11:13,589 --> 00:11:17,051 "Eres la persona que va a averiguar cómo se monetiza". 182 00:11:17,134 --> 00:11:19,804 Y había mucha gente trabajando mucho, 183 00:11:19,887 --> 00:11:25,476 pero yo era una de las personas que decía... 184 00:11:26,769 --> 00:11:28,479 que había que hacer dinero... 185 00:11:29,313 --> 00:11:33,651 y este modelo publicitario es la forma más elegante. 186 00:11:43,077 --> 00:11:44,453 ¿Y este vídeo de mamá? 187 00:11:44,537 --> 00:11:47,873 Son entrevistas, pero mola. El tío es un genio. 188 00:11:47,957 --> 00:11:50,584 Habla de eliminar las redes sociales, cosa que debes hacer. 189 00:11:50,668 --> 00:11:52,878 Tengo que bloquear sus correos. 190 00:11:52,962 --> 00:11:56,090 No sé de que habla. Ella es aún peor. 191 00:11:56,173 --> 00:11:58,592 - No, solo lo usa para recetas. - Y para trabajar. 192 00:11:58,676 --> 00:12:00,511 - Y para entrenar. - Y para vigilarnos. 193 00:12:00,594 --> 00:12:03,013 Y a todos los que ha conocido en su vida. 194 00:12:04,932 --> 00:12:07,893 Si navegas por las redes sociales 195 00:12:07,977 --> 00:12:11,731 mientras nos miras, deja el maldito teléfono y escucha, 196 00:12:11,814 --> 00:12:14,817 porque el próximo invitado ha escrito un libro 197 00:12:14,900 --> 00:12:18,112 sobre cómo está destrozando nuestras vidas. 198 00:12:18,195 --> 00:12:19,447 Recibamos al autor 199 00:12:19,530 --> 00:12:24,452 de Diez razones para borrar tus redes sociales de inmediato, 200 00:12:24,535 --> 00:12:25,786 Jaron Lanier. 201 00:12:27,997 --> 00:12:31,834 Empresas como Google y Facebook son de las más ricas 202 00:12:31,917 --> 00:12:33,836 y exitosas de todos los tiempos. 203 00:12:34,295 --> 00:12:36,839 Tienen relativamente pocos empleados. 204 00:12:36,922 --> 00:12:40,468 Tienen un ordenador gigante que gana dinero. 205 00:12:41,510 --> 00:12:45,222 ¿Por qué les pagan? Es una pregunta muy importante. 206 00:12:47,308 --> 00:12:49,977 He invertido en tecnología durante 35 años. 207 00:12:50,728 --> 00:12:54,356 En los primeros 50 años de Silicon Valley, hicieron productos, 208 00:12:54,440 --> 00:12:58,402 hardware, software, que vendían a clientes, negocios sencillos. 209 00:12:58,486 --> 00:13:01,447 Los últimos diez años, las empresas más grandes 210 00:13:01,530 --> 00:13:03,866 se han dedicado a vender sus usuarios. 211 00:13:03,949 --> 00:13:05,910 Es un poco trivial decirlo ahora, 212 00:13:05,993 --> 00:13:09,205 pero como no pagamos por los productos que usamos, 213 00:13:09,288 --> 00:13:12,166 los anunciantes pagan por esos productos. 214 00:13:12,249 --> 00:13:14,210 Los anunciantes son los clientes. 215 00:13:14,460 --> 00:13:16,086 Nosotros somos el producto. 216 00:13:16,170 --> 00:13:17,630 El dicho clásico es: 217 00:13:17,713 --> 00:13:21,592 "Si no pagas por el producto, eres el producto". 218 00:13:21,675 --> 00:13:23,302 TÚ ERES EL PRODUCTO 219 00:13:23,385 --> 00:13:27,223 Muchos piensan: "Google es solo un cuadro de búsqueda 220 00:13:27,306 --> 00:13:31,101 y Facebook es para ver lo que hacen mis amigos y sus fotos". 221 00:13:31,185 --> 00:13:35,481 Pero no se dan cuenta de que compiten por su atención. 222 00:13:36,524 --> 00:13:41,111 En Facebook, Snapchat, Twitter, Instagram, YouTube..., 223 00:13:41,195 --> 00:13:45,282 su modelo de negocio es mantener a la gente enganchada a la pantalla. 224 00:13:46,283 --> 00:13:49,578 Veamos cómo captar la atención de esta persona 225 00:13:49,662 --> 00:13:50,955 todo lo posible. 226 00:13:51,455 --> 00:13:53,374 ¿Cuánto tiempo podemos captarte? 227 00:13:53,874 --> 00:13:56,710 ¿Cuánto de tu vida podemos conseguir que nos des? 228 00:13:58,587 --> 00:14:01,090 Al pensar en cómo funcionan estas empresas, 229 00:14:01,173 --> 00:14:02,424 tiene sentido. 230 00:14:02,967 --> 00:14:06,095 Tenemos servicios en Internet que consideramos gratis. 231 00:14:06,178 --> 00:14:09,473 Pero no lo son. Los pagan los anunciantes. 232 00:14:09,557 --> 00:14:11,559 ¿Por qué pagan a esas empresas? 233 00:14:11,642 --> 00:14:14,687 Pagan a cambio de mostrarnos sus anuncios. 234 00:14:14,770 --> 00:14:18,357 Somos el producto. Se vende nuestra atención. 235 00:14:18,816 --> 00:14:20,442 Eso es demasiado simplista. 236 00:14:20,526 --> 00:14:23,821 El producto es el cambio progresivo, leve e imperceptible 237 00:14:23,904 --> 00:14:26,282 de tu comportamiento y percepción. 238 00:14:26,365 --> 00:14:27,575 CAMBIAR EL COMPORTAMIENTO Y LA PERCEPCIÓN 239 00:14:27,658 --> 00:14:30,244 Ese es el producto. El único posible. 240 00:14:30,327 --> 00:14:34,081 No hay nada más que pueda llamarse producto. 241 00:14:34,164 --> 00:14:37,251 Es lo único con lo que pueden ganar dinero. 242 00:14:37,668 --> 00:14:39,253 Cambiando lo que haces, 243 00:14:39,336 --> 00:14:41,714 cómo piensas, quién eres. 244 00:14:42,631 --> 00:14:45,301 Es un cambio paulatino. Es leve. 245 00:14:45,384 --> 00:14:48,971 Si vas a alguien y le dices: "Dame diez millones de dólares 246 00:14:49,054 --> 00:14:54,310 y cambiaré el mundo un uno por ciento en la dirección que quieras...". 247 00:14:54,894 --> 00:14:58,188 ¡Es el mundo! Eso es increíble y vale mucho dinero. 248 00:14:59,315 --> 00:15:00,149 Vale. 249 00:15:00,691 --> 00:15:04,570 Esto es lo que todos los negocios han soñado, 250 00:15:04,653 --> 00:15:10,910 tener una garantía de que si pone un anuncio, tendrá éxito. 251 00:15:11,327 --> 00:15:13,996 Ese es su negocio. Venden certeza. 252 00:15:14,079 --> 00:15:14,914 CERTEZA 253 00:15:14,997 --> 00:15:19,710 Para tener éxito en ese negocio, hay que tener buenas predicciones. 254 00:15:20,044 --> 00:15:24,173 Las buenas predicciones empiezan con un imperativo. 255 00:15:25,215 --> 00:15:26,926 Se necesitan muchos datos. 256 00:15:27,009 --> 00:15:29,011 DATOS 257 00:15:29,136 --> 00:15:31,555 Lo llaman "capitalismo de vigilancia". 258 00:15:31,639 --> 00:15:34,350 El capitalismo se beneficia del seguimiento 259 00:15:34,433 --> 00:15:38,062 de grandes empresas tecnológicas 260 00:15:38,145 --> 00:15:40,356 cuyo modelo de negocio es asegurar 261 00:15:40,439 --> 00:15:42,858 que los anunciantes tengan éxito. 262 00:15:42,942 --> 00:15:45,569 Es un nuevo tipo de mercado. 263 00:15:45,653 --> 00:15:48,072 Uno que antes no existía. 264 00:15:48,822 --> 00:15:55,371 Y es un mercado que se dedica a los futuros humanos. 265 00:15:56,080 --> 00:16:01,585 Igual que hay mercados que negocian con cerdo o petróleo. 266 00:16:02,127 --> 00:16:07,591 Ahora tenemos mercados que negocian con futuros humanos a gran escala, 267 00:16:08,175 --> 00:16:13,472 y esos mercados han producido miles de millones de dólares 268 00:16:14,014 --> 00:16:19,269 que han convertido a las empresas de Internet en las más ricas 269 00:16:19,353 --> 00:16:22,356 en la historia de la humanidad. 270 00:16:27,444 --> 00:16:31,073 Quiero que la gente sepa que todo lo que hacen en Internet 271 00:16:31,156 --> 00:16:34,326 se ve, se rastrea, se mide. 272 00:16:35,035 --> 00:16:39,623 Cada acción que uno realiza es vigilada y registrada. 273 00:16:39,707 --> 00:16:43,836 Exactamente qué imagen miras, cuánto tiempo la miras. 274 00:16:43,919 --> 00:16:45,796 Sí, cuánto tiempo la miras. 275 00:16:45,879 --> 00:16:47,548 TIEMPO DE INTERACCIÓN 276 00:16:47,631 --> 00:16:49,341 TIEMPO DE INTERACCIÓN 277 00:16:49,425 --> 00:16:50,426 TIEMPO DE INTERACCIÓN 278 00:16:50,509 --> 00:16:53,804 Saben cuándo la gente está sola y cuándo está deprimida. 279 00:16:53,887 --> 00:16:57,099 Saben cuándo miran fotos de sus exparejas. 280 00:16:57,182 --> 00:17:00,853 Saben lo que haces por la noche, lo saben todo. 281 00:17:00,936 --> 00:17:03,230 Si eres introvertido o extrovertido 282 00:17:03,313 --> 00:17:06,817 o qué tipo de neurosis tienes, cómo es tu personalidad. 283 00:17:08,193 --> 00:17:11,613 Tienen más información sobre nosotros 284 00:17:11,697 --> 00:17:14,324 de lo imaginado en la historia humana. 285 00:17:14,950 --> 00:17:16,368 No existen precedentes. 286 00:17:18,579 --> 00:17:22,791 Y todos estos datos que estamos vertiendo todo el tiempo 287 00:17:22,875 --> 00:17:26,795 se suministran a los sistemas que casi no tienen supervisión humana 288 00:17:27,463 --> 00:17:30,883 y que hacen predicciones cada vez mejores 289 00:17:30,966 --> 00:17:33,552 sobre lo que haremos y quiénes somos. 290 00:17:34,887 --> 00:17:36,346 RECOMENDADO PARA TI 291 00:17:36,430 --> 00:17:39,558 Muchos creen que nuestros datos se venden. 292 00:17:40,350 --> 00:17:43,187 A Facebook no le interesa dar los datos gratis. 293 00:17:45,522 --> 00:17:47,107 ¿Qué hacen con esos datos? 294 00:17:51,070 --> 00:17:54,490 Construyen modelos que predicen nuestras acciones. 295 00:17:54,573 --> 00:17:57,618 Y el que tenga el mejor modelo gana. 296 00:18:02,706 --> 00:18:04,041 Cada vez va más lento. 297 00:18:04,124 --> 00:18:07,002 Es el final de la duración media, menos anuncios. 298 00:18:07,086 --> 00:18:08,337 Menos amigos y familia. 299 00:18:09,463 --> 00:18:11,340 En el otro lado de la pantalla, 300 00:18:11,423 --> 00:18:15,469 es como si tuvieran un muñeco vudú de nosotros. 301 00:18:16,762 --> 00:18:18,180 Todo lo que hemos hecho, 302 00:18:18,263 --> 00:18:21,642 los clics, los vídeos que vemos, los "Me gusta", 303 00:18:21,725 --> 00:18:25,354 todo eso crea un modelo cada vez más preciso. 304 00:18:25,896 --> 00:18:27,481 Cuando tienes el modelo, 305 00:18:27,564 --> 00:18:29,858 puedes predecir qué hace esa persona. 306 00:18:29,942 --> 00:18:31,777 Vale, déjame probar. 307 00:18:32,569 --> 00:18:36,115 Puedo predecir qué vídeos captarán tu atención. 308 00:18:36,198 --> 00:18:39,159 Puedo predecir qué emociones te hacen responder. 309 00:18:39,243 --> 00:18:40,410 Sí, perfecto. 310 00:18:41,578 --> 00:18:43,330 El fallo más épico del año. 311 00:18:43,747 --> 00:18:44,665 ¡FALLO ÉPICO! 312 00:18:48,627 --> 00:18:51,088 - Perfecto, ha funcionado. - Otro vídeo. 313 00:18:51,171 --> 00:18:54,049 Genial. Metamos un anuncio antes de que empiece. 314 00:18:55,968 --> 00:18:59,721 En muchas empresas de tecnología hay tres objetivos principales. 315 00:18:59,805 --> 00:19:03,517 El aumentar el uso, que sigas navegando. 316 00:19:04,601 --> 00:19:06,145 El crecimiento, 317 00:19:06,228 --> 00:19:08,647 que vuelvas e invites a muchos amigos 318 00:19:08,730 --> 00:19:10,732 y ellos inviten a más amigos. 319 00:19:11,650 --> 00:19:14,987 Y el de la publicidad es que como todo eso ya ocurre, 320 00:19:15,070 --> 00:19:17,406 ganemos todo el dinero posible. 321 00:19:19,283 --> 00:19:21,994 Estos objetivos están impulsados por algoritmos 322 00:19:22,077 --> 00:19:24,454 cuyo trabajo es averiguar qué mostrarte 323 00:19:24,538 --> 00:19:26,165 para aumentar esos números. 324 00:19:26,623 --> 00:19:29,918 A menudo, hablamos en Facebook de la idea 325 00:19:30,002 --> 00:19:34,006 de poder manipularlo según sea necesario. 326 00:19:34,673 --> 00:19:38,594 Y hablamos de que Mark controla eso. 327 00:19:41,305 --> 00:19:44,474 "Oye, hoy quiero más usuarios en Corea". 328 00:19:45,684 --> 00:19:46,602 Dale al botón. 329 00:19:47,436 --> 00:19:49,188 "Aumentemos los anuncios". 330 00:19:49,980 --> 00:19:51,732 "Aumentemos la monetización". 331 00:19:52,858 --> 00:19:55,444 Y así... 332 00:19:55,527 --> 00:19:59,239 En todas estas empresas existe ese nivel de precisión. 333 00:19:59,990 --> 00:20:02,409 - ¿Cómo...? - No sé cómo me he librado. 334 00:20:02,492 --> 00:20:05,704 - El árbitro es una mierda. - Has llegado hasta... 335 00:20:05,787 --> 00:20:07,956 - Es Rebecca. Habla con ella. - Ya. 336 00:20:08,040 --> 00:20:10,834 - Habla con ella. - Estoy en ello. 337 00:20:10,918 --> 00:20:14,338 Según su agenda está de descanso. Deberíamos estar activos. 338 00:20:15,255 --> 00:20:16,465 ¿Lo animo? 339 00:20:17,132 --> 00:20:18,050 Sí. 340 00:20:21,595 --> 00:20:24,181 "Tu amigo Tyler acaba de unirse. Salúdale". 341 00:20:26,016 --> 00:20:27,184 Venga, tío. 342 00:20:27,267 --> 00:20:28,769 Salúdale. 343 00:20:29,394 --> 00:20:31,647 ¿Ni siquiera vas...? Habla con ella. 344 00:20:31,730 --> 00:20:34,900 ¡TU AMIGO TYLER ACABA DE UNIRSE! ¡SALÚDALE! 345 00:20:36,902 --> 00:20:37,986 CONEXIONES DE RED 346 00:20:38,070 --> 00:20:40,447 ¡Nuevo enlace! Vale, vamos. 347 00:20:40,948 --> 00:20:46,078 Sigue con una entrada del usuario 079044238820, Rebecca. 348 00:20:46,161 --> 00:20:49,790 Buena idea. Las coordenadas indican que están muy cerca. 349 00:20:52,167 --> 00:20:55,837 ¡HE ENCONTRADO A MI ALMA GEMELA! #MEJORES AMIGOS #CHUPETÓN 350 00:20:55,921 --> 00:20:57,547 Está listo para un anuncio. 351 00:20:57,631 --> 00:20:58,632 A subastar. 352 00:20:58,715 --> 00:21:00,050 ANTICIPO DE ANUNCIO CERA CAPILAR 353 00:21:00,133 --> 00:21:02,803 ¡Vendido a Deep Fade! 354 00:21:03,387 --> 00:21:07,933 Teníamos 468 postores. Vendimos a Ben a 3,262 centavos por impresión. 355 00:21:17,109 --> 00:21:21,530 Hemos creado un mundo en el que la conexión en línea es primordial, 356 00:21:21,822 --> 00:21:23,907 especialmente para los más jóvenes, 357 00:21:23,991 --> 00:21:28,328 y, sin embargo, en ese mundo, cada vez que dos personas se conectan, 358 00:21:29,162 --> 00:21:33,250 la única forma de financiarlo es a través de una tercera persona 359 00:21:33,333 --> 00:21:35,627 que paga por manipularlas. 360 00:21:36,128 --> 00:21:39,381 Hemos creado una generación global de personas 361 00:21:39,464 --> 00:21:44,011 que crecen en un contexto donde el significado de la comunicación, 362 00:21:44,094 --> 00:21:47,431 el significado de la cultura es la manipulación. 363 00:21:47,514 --> 00:21:49,725 El engaño se ha convertido 364 00:21:49,808 --> 00:21:52,311 en el centro de todo lo que hacemos. 365 00:21:56,356 --> 00:22:01,445 "CUALQUIER TECNOLOGÍA SUFICIENTEMENTE AVANZADA NO SE DISTINGUE DE LA MAGIA". 366 00:22:05,741 --> 00:22:07,242 - Coge el otro... - Vale. 367 00:22:07,326 --> 00:22:09,369 - ¿Qué lo sujeta? - Es genial. 368 00:22:09,453 --> 00:22:10,620 - ¿Esto? - Sí. 369 00:22:10,704 --> 00:22:13,707 ¿Cómo queda esto en la cámara si hacemos... 370 00:22:13,790 --> 00:22:15,459 - Podemos... - esto? 371 00:22:15,542 --> 00:22:16,835 - ¿Qué? - Sí. 372 00:22:16,918 --> 00:22:18,462 - ¿Otra vez? - Exacto, sí. 373 00:22:18,920 --> 00:22:20,589 Sí. No, probablemente no... 374 00:22:20,672 --> 00:22:21,965 Sí. 375 00:22:22,466 --> 00:22:23,884 Este es menos… 376 00:22:31,016 --> 00:22:33,268 Chris está flipando. 377 00:22:34,728 --> 00:22:35,562 ¿Es bueno? 378 00:22:35,645 --> 00:22:37,773 ¡MAGIA! 379 00:22:37,856 --> 00:22:41,068 Tenía cinco años cuando aprendí a hacer magia. 380 00:22:41,151 --> 00:22:45,781 Y podía engañar a adultos con doctorados. 381 00:22:54,873 --> 00:22:57,709 Los magos eran casi los primeros neurocientíficos 382 00:22:57,793 --> 00:22:58,960 y psicólogos. 383 00:22:59,044 --> 00:23:02,005 Fueron ellos los que entendieron cómo funciona 384 00:23:02,089 --> 00:23:03,382 la mente de la gente. 385 00:23:04,216 --> 00:23:07,677 Hacen muchas pruebas, en tiempo real, con la gente. 386 00:23:09,137 --> 00:23:11,139 Un mago entiende algo, 387 00:23:11,223 --> 00:23:15,936 una parte de tu mente que no conoces. Eso hace que la ilusión funcione. 388 00:23:16,019 --> 00:23:20,607 Doctores, abogados, gente que sabe construir aviones o misiles nucleares 389 00:23:20,690 --> 00:23:24,361 desconoce la vulnerabilidad de su mente. 390 00:23:24,444 --> 00:23:26,113 Es una disciplina aparte. 391 00:23:26,571 --> 00:23:28,990 Y se aplica a todos los seres humanos. 392 00:23:29,074 --> 00:23:30,909 UNIVERSIDAD DE STANFORD 393 00:23:30,992 --> 00:23:34,079 Desde esa perspectiva, hay una comprensión distinta 394 00:23:34,162 --> 00:23:35,872 de lo que hace la tecnología. 395 00:23:36,873 --> 00:23:41,044 Lo aprendimos cuando estaba en el laboratorio de tecnología persuasiva. 396 00:23:41,628 --> 00:23:43,463 ¿Cómo usar todo lo que sabemos 397 00:23:43,547 --> 00:23:45,882 sobre lo que convence a la gente 398 00:23:45,966 --> 00:23:48,385 y convertirlo en tecnología? 399 00:23:48,468 --> 00:23:50,887 Muchos de vosotros ya sois genios. 400 00:23:50,971 --> 00:23:55,851 Sí, pero mi objetivo es convertiros en genios del cambio conductual. 401 00:23:56,852 --> 00:24:01,148 Hay muchas figuras destacadas de Silicon Valley que fueron a esa clase, 402 00:24:01,231 --> 00:24:05,485 figuras clave en Facebook, Uber y otras empresas, 403 00:24:05,569 --> 00:24:09,197 y aprendieron a hacer la tecnología más persuasiva, 404 00:24:09,614 --> 00:24:10,866 Tristan, por ejemplo. 405 00:24:12,284 --> 00:24:14,619 La tecnología persuasiva es un diseño 406 00:24:14,703 --> 00:24:16,580 intencionalmente extremo 407 00:24:16,663 --> 00:24:18,874 para modificar el comportamiento. 408 00:24:18,957 --> 00:24:20,542 Queremos que hagan algo, 409 00:24:20,625 --> 00:24:23,336 que sigan haciendo esto con el dedo. 410 00:24:23,420 --> 00:24:26,256 Si bajas y recargas, habrá algo nuevo arriba. 411 00:24:26,339 --> 00:24:28,508 Bajas y recargas y cambia. Siempre. 412 00:24:28,592 --> 00:24:33,722 Lo que en psicología llamamos "refuerzo positivo intermitente". 413 00:24:33,805 --> 00:24:37,142 No sabes cuándo lo conseguirás o si vas a conseguir algo, 414 00:24:37,225 --> 00:24:40,061 es como las máquinas tragaperras de Las Vegas. 415 00:24:40,145 --> 00:24:42,230 No basta que uses el producto conscientemente, 416 00:24:42,314 --> 00:24:47,652 quiero profundizar en el cerebro e implantarte un hábito inconsciente, 417 00:24:47,736 --> 00:24:50,864 para que estés programado en un nivel más profundo. 418 00:24:50,947 --> 00:24:52,115 No te das cuenta. 419 00:24:52,199 --> 00:24:54,034 Un tal James Marshall... 420 00:24:54,117 --> 00:24:56,286 Esta ahí tirado 421 00:24:56,369 --> 00:25:01,333 y sabes que si lo usas quizá tenga algo para ti, 422 00:25:01,416 --> 00:25:06,046 así que pruebas suerte. No es casualidad. Es una técnica de diseño. 423 00:25:06,129 --> 00:25:11,134 Llevó una pepita de oro a un oficial del ejército en San Francisco. 424 00:25:12,219 --> 00:25:15,388 La población de San Francisco solo era… 425 00:25:15,472 --> 00:25:17,432 Igual que el etiquetado de fotos. 426 00:25:19,726 --> 00:25:24,064 Si recibes un correo que dice que te han etiquetado en una foto, 427 00:25:24,147 --> 00:25:28,568 claro que vas a hacer clic y mirar la foto. 428 00:25:29,152 --> 00:25:31,821 No es algo que puedas ignorar. 429 00:25:32,364 --> 00:25:36,326 Recurren a una personalidad humana muy arraigada. 430 00:25:36,409 --> 00:25:40,288 Deberías preguntarte por qué el correo no contiene la foto. 431 00:25:40,372 --> 00:25:42,457 Sería mucho más fácil verla. 432 00:25:42,541 --> 00:25:45,919 Cuando Facebook encontró esa función, la maximizaron 433 00:25:46,002 --> 00:25:48,505 porque dijeron: "Aumentaremos la actividad. 434 00:25:48,588 --> 00:25:51,091 Hagamos que la gente se etiquete en fotos". 435 00:25:56,263 --> 00:25:58,890 AL MENOS UNO SALE BIEN 436 00:25:59,349 --> 00:26:00,475 Ha comentado. 437 00:26:00,559 --> 00:26:01,434 Bien. 438 00:26:01,851 --> 00:26:04,688 Vale, Rebecca lo ha recibido y está respondiendo. 439 00:26:04,771 --> 00:26:07,566 Que sepa que está escribiendo para no perderlo. 440 00:26:07,649 --> 00:26:09,150 Activando puntos suspensivos. 441 00:26:09,234 --> 00:26:13,613 AL MENOS UNO SALE BIEN ... 442 00:26:19,411 --> 00:26:20,745 Genial, ha publicado. 443 00:26:21,329 --> 00:26:24,249 Está comentando su comentario sobre su comentario. 444 00:26:25,041 --> 00:26:26,585 Ha dejado de escribir. 445 00:26:26,751 --> 00:26:27,752 Texto predictivo. 446 00:26:28,420 --> 00:26:30,005 Emoticonos. Le encantan. 447 00:26:31,381 --> 00:26:33,758 AUTOCOMPLETAR INTERACCIÓN 448 00:26:33,842 --> 00:26:34,676 Usó fuego. 449 00:26:35,427 --> 00:26:36,803 Yo esperaba berenjenas. 450 00:26:38,597 --> 00:26:42,726 Hay toda una disciplina y un campo llamado "growth hacking". 451 00:26:42,809 --> 00:26:47,147 Equipos de ingenieros cuyo trabajo es piratear la psicología de la gente 452 00:26:47,230 --> 00:26:48,565 para captar más. 453 00:26:48,648 --> 00:26:52,861 Consiguen más usuarios, más interacciones y que invites a más gente. 454 00:26:52,944 --> 00:26:55,739 Después de pruebas, repeticiones y demás, 455 00:26:55,822 --> 00:26:59,826 ¿sabéis lo más importante? Que uno añade a siete amigos en diez días. 456 00:26:59,909 --> 00:27:01,828 EX VICEPRESIDENTE DE CRECIMIENTO 457 00:27:01,911 --> 00:27:02,746 Así de simple. 458 00:27:02,829 --> 00:27:05,498 Chamath era el jefe de crecimiento de Facebook 459 00:27:05,582 --> 00:27:08,251 y es muy conocido en la industria 460 00:27:08,335 --> 00:27:11,004 por ser pionero en tácticas de crecimiento 461 00:27:11,087 --> 00:27:14,758 que hicieron crecer Facebook a una velocidad increíble. 462 00:27:14,841 --> 00:27:18,511 Y esas tácticas son el estándar de Silicon Valley. 463 00:27:18,595 --> 00:27:21,222 Se usaron en Uber y en muchas otras empresas. 464 00:27:21,306 --> 00:27:27,020 Fue pionero en el uso de pruebas científicas A/B 465 00:27:27,103 --> 00:27:28,480 en cambios de características. 466 00:27:29,022 --> 00:27:30,940 Empresas como Google y Facebook 467 00:27:31,024 --> 00:27:34,569 introdujeron muchos pequeños experimentos 468 00:27:34,653 --> 00:27:36,821 en los usuarios, 469 00:27:36,905 --> 00:27:39,866 y con el tiempo, haciendo experimentos constantes, 470 00:27:39,949 --> 00:27:45,288 se desarrolla la forma más adecuada para que los usuarios hagan lo que quieres. 471 00:27:45,372 --> 00:27:46,790 Es manipulación. 472 00:27:47,332 --> 00:27:49,292 Me siento como una cobaya humana. 473 00:27:49,834 --> 00:27:51,920 Lo eres. Todos lo somos. 474 00:27:52,545 --> 00:27:55,548 Y no es para desarrollar una cura para el cáncer. 475 00:27:55,632 --> 00:27:58,134 No es que intenten beneficiarnos. 476 00:27:58,218 --> 00:28:01,680 Solo somos zombis y quieren que veamos más anuncios 477 00:28:01,763 --> 00:28:03,181 para ganar más dinero. 478 00:28:03,556 --> 00:28:08,228 Facebook llevó a cabo lo que llamaron "experimentos de contagio a gran escala". 479 00:28:08,311 --> 00:28:09,145 Vale. 480 00:28:09,229 --> 00:28:12,857 ¿Cómo usamos las señales subliminales en las páginas 481 00:28:13,400 --> 00:28:17,570 para que más personas voten en las elecciones? 482 00:28:17,987 --> 00:28:20,824 Y descubrieron que podían hacerlo. 483 00:28:20,907 --> 00:28:24,160 Una cosa que concluyeron es que ahora sabemos 484 00:28:24,744 --> 00:28:28,915 que podemos afectar el comportamiento y las emociones del mundo real 485 00:28:28,998 --> 00:28:32,877 sin accionar la conciencia del usuario. 486 00:28:33,378 --> 00:28:37,382 No tienen ni idea. 487 00:28:38,049 --> 00:28:41,970 Dirigimos estos motores de inteligencia artificial hacia nosotros 488 00:28:42,053 --> 00:28:46,224 para realizar ingeniería inversa de lo que provoca respuestas. 489 00:28:47,100 --> 00:28:51,479 Es como estimular los nervios de una araña para ver qué hace que responda. 490 00:28:51,938 --> 00:28:53,940 Es un experimento de prisión, 491 00:28:54,023 --> 00:28:56,735 donde estamos metiendo a la gente en la matriz 492 00:28:56,818 --> 00:29:00,530 y recogemos todo ese dinero y los datos de toda su actividad 493 00:29:00,613 --> 00:29:03,116 para beneficiarnos. Y ni nos enteramos. 494 00:29:04,117 --> 00:29:07,912 Queremos averiguar cómo manipularte lo más rápido posible 495 00:29:07,996 --> 00:29:10,081 y darte el subidón de dopamina. 496 00:29:10,165 --> 00:29:12,542 Lo hicimos genial en Facebook. 497 00:29:12,625 --> 00:29:14,919 Instagram lo ha hecho y WhatsApp 498 00:29:15,003 --> 00:29:17,380 y Snapchat y Twitter. 499 00:29:17,464 --> 00:29:19,424 Es exactamente 500 00:29:19,507 --> 00:29:22,427 lo que un jáquer como yo inventaría, 501 00:29:22,510 --> 00:29:27,015 porque explotas una vulnerabilidad en la psicología humana. 502 00:29:27,098 --> 00:29:28,725 EXPRESIDENTE DE FACEBOOK 503 00:29:28,808 --> 00:29:33,438 Creo que los inventores, los creadores... 504 00:29:33,980 --> 00:29:37,317 yo, Mark... 505 00:29:37,400 --> 00:29:40,403 Kevin Systrom en Instagram, toda esta gente... 506 00:29:41,154 --> 00:29:46,451 lo entendimos perfectamente y lo hicimos de todas formas. 507 00:29:50,580 --> 00:29:53,750 Nadie se molestó cuando aparecieron las bicicletas. 508 00:29:55,043 --> 00:29:58,004 Cuando todo el mundo empezó a ir en bicicleta 509 00:29:58,087 --> 00:30:00,924 nadie dijo: "Dios, hemos destruido la sociedad. 510 00:30:01,007 --> 00:30:03,051 Las bicicletas afectan a la gente 511 00:30:03,134 --> 00:30:05,261 las aleja de sus hijos, 512 00:30:05,345 --> 00:30:08,765 arruinan la democracia, la gente ya no sabe qué es verdad". 513 00:30:08,848 --> 00:30:11,476 Nunca dijimos nada de eso de una bicicleta. 514 00:30:12,769 --> 00:30:16,147 Si algo es una herramienta, está ahí tirado 515 00:30:16,731 --> 00:30:18,733 esperando pacientemente. 516 00:30:19,317 --> 00:30:22,821 Si no lo es, te exige cosas, 517 00:30:22,904 --> 00:30:26,533 te seduce, te manipula, quiere cosas de ti. 518 00:30:26,616 --> 00:30:30,495 Y hemos pasado de un entorno tecnológico basado en herramientas 519 00:30:31,037 --> 00:30:34,499 a uno basado en la adicción y la manipulación. 520 00:30:34,582 --> 00:30:35,708 Ese es el cambio. 521 00:30:35,792 --> 00:30:39,420 Las redes sociales no son una herramienta que espere ser utilizada. 522 00:30:39,504 --> 00:30:43,466 Tienen sus propios objetivos y sus propios medios para perseguirlos 523 00:30:43,550 --> 00:30:45,677 usando tu psicología contra ti. 524 00:30:48,888 --> 00:30:52,767 "SOLO HAY DOS INDUSTRIAS QUE LLAMAN A SUS CLIENTES 'CONSUMIDORES': 525 00:30:52,851 --> 00:30:55,562 LAS DE DROGAS Y LAS DE SOFTWARE". 526 00:30:57,564 --> 00:31:02,193 Hace unos años, era el presidente de Pinterest. 527 00:31:03,152 --> 00:31:08,366 Volvía a casa y no podía dejar el móvil 528 00:31:08,449 --> 00:31:12,161 a pesar de tener dos niños que necesitaban mi amor y atención. 529 00:31:12,245 --> 00:31:15,748 Estaba en la despensa, escribiendo un correo 530 00:31:15,832 --> 00:31:17,542 o mirando Pinterest. 531 00:31:18,001 --> 00:31:19,627 Pensaba: "Menuda ironía. 532 00:31:19,711 --> 00:31:22,046 Voy a trabajar durante el día 533 00:31:22,130 --> 00:31:26,426 y a construir algo de lo que caigo presa". 534 00:31:26,509 --> 00:31:30,096 Y no podía... Había momentos en que no podía evitarlo. 535 00:31:32,307 --> 00:31:36,102 El que más me gusta es Twitter. 536 00:31:36,728 --> 00:31:38,021 Antes era Reddit. 537 00:31:38,104 --> 00:31:42,859 He tenido que escribir un software para acabar con mi adicción a leer Reddit. 538 00:31:45,403 --> 00:31:47,780 Soy más adicto a mi correo. 539 00:31:47,864 --> 00:31:49,866 En serio. Lo noto. 540 00:31:52,577 --> 00:31:54,954 Bueno, es interesante que, 541 00:31:55,038 --> 00:31:58,166 sabiendo lo que pasaba detrás de la cortina, 542 00:31:58,249 --> 00:32:01,628 no podía controlar mi uso. 543 00:32:01,711 --> 00:32:03,046 Da un poco de miedo. 544 00:32:03,630 --> 00:32:07,175 Incluso sabiendo cómo funcionan estos trucos, caigo en ellos. 545 00:32:07,258 --> 00:32:09,886 Cogeré el móvil y perderé 20 minutos. 546 00:32:12,805 --> 00:32:15,725 ¿Revisas tu móvil antes de hacer pis por la mañana 547 00:32:15,808 --> 00:32:17,477 o mientras haces pis? 548 00:32:17,560 --> 00:32:19,479 Porque no hay más opciones. 549 00:32:19,562 --> 00:32:23,274 Lo intenté con toda mi fuerza de voluntad: 550 00:32:23,358 --> 00:32:26,903 "Voy a dejar el móvil en el coche cuando vaya a casa". 551 00:32:26,986 --> 00:32:32,617 Me lo dije mil veces, mil días diferentes: "No llevaré el móvil a la habitación", 552 00:32:32,700 --> 00:32:34,535 y a las 21:00: 553 00:32:34,619 --> 00:32:37,121 "Quiero llevar el móvil a la habitación". 554 00:32:37,872 --> 00:32:41,125 Y eso fue... La fuerza de voluntad fue el primer intento 555 00:32:41,209 --> 00:32:44,295 y el segundo fue la fuerza bruta. 556 00:32:44,379 --> 00:32:45,880 La caja fuerte de cocina. 557 00:32:45,964 --> 00:32:49,801 La caja fuerte de la cocina es un nuevo contenedor revolucionario 558 00:32:49,884 --> 00:32:51,678 que ayuda contra la tentación. 559 00:32:51,761 --> 00:32:56,724 Lo único que tiene que hacer David es meter esas tentaciones en la caja fuerte. 560 00:32:57,350 --> 00:33:00,728 A continuación, gira el disco para ajustar el temporizador 561 00:33:01,479 --> 00:33:04,232 y lo presiona para activar el bloqueo. 562 00:33:04,315 --> 00:33:05,525 Es genial... 563 00:33:05,608 --> 00:33:06,776 Tenemos eso, ¿no? 564 00:33:06,859 --> 00:33:08,569 ...videojuegos, tarjetas y móviles. 565 00:33:08,653 --> 00:33:09,570 Sí. 566 00:33:09,654 --> 00:33:13,866 Cuando está cerrada, no se abre hasta que el temporizador llega a cero. 567 00:33:13,950 --> 00:33:17,537 Ese el tema. Las redes sociales son una droga. 568 00:33:17,620 --> 00:33:20,873 Tenemos un imperativo biológico básico 569 00:33:20,957 --> 00:33:23,084 para conectar con otras personas. 570 00:33:23,167 --> 00:33:28,214 Eso afecta a la liberación de dopamina en las vías de recompensas. 571 00:33:28,297 --> 00:33:32,552 Hay millones de años de evolución detrás de ese sistema 572 00:33:32,635 --> 00:33:35,430 para que podamos unirnos y vivir en comunidades, 573 00:33:35,513 --> 00:33:38,016 encontrar compañeros y propagar la especie. 574 00:33:38,099 --> 00:33:41,853 No hay duda de que un vehículo como las redes sociales, 575 00:33:41,936 --> 00:33:45,690 que optimiza esta conexión entre la gente, 576 00:33:45,773 --> 00:33:48,568 tendrá potencial de adicción. 577 00:33:52,780 --> 00:33:54,115 ¡Para, papá! 578 00:33:55,450 --> 00:33:58,453 Tengo que enviar mil snips antes de cenar. 579 00:33:58,536 --> 00:33:59,537 ¿Snips? 580 00:33:59,620 --> 00:34:01,080 No sé qué es eso. 581 00:34:01,164 --> 00:34:03,207 - Qué bien huele. - Gracias. 582 00:34:03,291 --> 00:34:05,877 Pensé en utilizar los cinco sentidos 583 00:34:05,960 --> 00:34:07,712 para disfrutar de la cena. 584 00:34:07,795 --> 00:34:11,382 He decidido que nada de móviles en la mesa. 585 00:34:11,466 --> 00:34:13,301 Dádmelos. 586 00:34:13,801 --> 00:34:14,802 - ¿En serio? - Sí. 587 00:34:15,928 --> 00:34:18,056 - Vale. - Gracias. ¿Ben? 588 00:34:18,139 --> 00:34:19,974 - Vale. - La ladrona de móviles. 589 00:34:21,017 --> 00:34:21,934 - Dame. - ¡Mamá! 590 00:34:22,602 --> 00:34:26,147 Aquí estarán a salvo hasta después de la cena... 591 00:34:27,273 --> 00:34:31,277 y todos podréis relajaros. ¿Vale? 592 00:34:47,418 --> 00:34:49,253 - ¿Puedo ver quién es? - No. 593 00:34:54,759 --> 00:34:56,969 Voy a por otro tenedor. 594 00:34:58,304 --> 00:34:59,263 Gracias. 595 00:35:04,727 --> 00:35:06,771 Cariño, no puedes abrir eso. 596 00:35:06,854 --> 00:35:09,315 Lo cerré durante una hora. 597 00:35:11,192 --> 00:35:13,361 ¿De qué hablamos? 598 00:35:13,444 --> 00:35:17,824 Podríamos hablar de los locos del extremo centro que he visto hoy. 599 00:35:17,907 --> 00:35:18,825 - Por favor. - ¿Qué? 600 00:35:18,908 --> 00:35:20,785 No quiero hablar de eso. 601 00:35:20,868 --> 00:35:23,538 - ¿Qué pasa con ellos? - ¿Ves? No lo entiende. 602 00:35:23,621 --> 00:35:24,622 Depende. 603 00:35:24,705 --> 00:35:26,624 Es como con la propaganda. 604 00:35:28,709 --> 00:35:29,710 ¡Isla! 605 00:35:32,797 --> 00:35:33,756 Dios mío. 606 00:35:37,135 --> 00:35:38,553 - ¿Quieres que...? - Sí. 607 00:35:41,973 --> 00:35:43,933 Me preocupan mis hijos. 608 00:35:44,016 --> 00:35:46,686 Y si tienes hijos, me preocupan tus hijos. 609 00:35:46,769 --> 00:35:50,189 Con todo el conocimiento que tengo y toda la experiencia, 610 00:35:50,273 --> 00:35:54,443 peleo con ellos por el tiempo que usan los teléfonos y el ordenador. 611 00:35:54,527 --> 00:35:58,197 Le digo a mi hijo: "¿Cuántas horas pasas con tu móvil?". 612 00:35:58,281 --> 00:36:01,075 Y él: "Media hora, como mucho". 613 00:36:01,159 --> 00:36:04,871 Yo diría que una hora, hora y media. 614 00:36:04,954 --> 00:36:08,708 Miré su registro de pantalla y eran tres horas y 45 minutos. 615 00:36:11,377 --> 00:36:13,588 No lo creo. ¿De media por día? 616 00:36:13,671 --> 00:36:15,506 - Sí. - ¿Lo cojo? 617 00:36:15,590 --> 00:36:19,177 No pasa un día sin que les recuerde a mis hijos 618 00:36:19,260 --> 00:36:21,762 el equilibrio entre placer y dolor, 619 00:36:21,846 --> 00:36:26,267 los estados de deficiencia de dopamina, el riesgo de adicción. 620 00:36:26,350 --> 00:36:27,310 Veamos. 621 00:36:27,894 --> 00:36:29,687 Dos horas y 50 minutos al día. 622 00:36:29,770 --> 00:36:31,772 - A ver. - Hoy lo he usado mucho. 623 00:36:31,856 --> 00:36:33,357 - Esta semana. - Será por eso. 624 00:36:33,441 --> 00:36:37,153 Instagram: seis horas y 13 minutos. Mi Instagram es peor. 625 00:36:39,572 --> 00:36:43,201 Mi pantalla está destrozada. Gracias, Cass. 626 00:36:44,410 --> 00:36:45,995 ¿Cómo que "gracias, Cass"? 627 00:36:46,078 --> 00:36:49,290 Asustas a mamá con los móviles sin ser un problema. 628 00:36:49,373 --> 00:36:51,167 No los necesitamos para cenar. 629 00:36:51,250 --> 00:36:54,170 Te entiendo, pero no es para tanto. No lo es. 630 00:36:56,047 --> 00:36:58,382 Pues no lo uses durante una semana. 631 00:37:01,135 --> 00:37:02,178 Sí. 632 00:37:02,261 --> 00:37:06,349 Sí, si puedes guardarlo durante una semana... 633 00:37:07,683 --> 00:37:09,518 te compraré una pantalla nueva. 634 00:37:11,062 --> 00:37:12,772 - ¿Empezando ahora? - Sí. 635 00:37:15,274 --> 00:37:16,859 Vale. Trato hecho. 636 00:37:16,943 --> 00:37:18,903 Tienes que dejarlo aquí, colega. 637 00:37:19,862 --> 00:37:21,364 Voy a enchufarlo. 638 00:37:22,531 --> 00:37:25,076 Que conste que me voy. 639 00:37:25,159 --> 00:37:25,993 Vale. 640 00:37:27,495 --> 00:37:29,413 - Empiezo a contar. - Una semana. 641 00:37:29,497 --> 00:37:30,331 Madre... 642 00:37:31,457 --> 00:37:32,416 ¿Podrá hacerlo? 643 00:37:33,000 --> 00:37:34,252 No sé, ya veremos. 644 00:37:35,002 --> 00:37:36,128 Tú come, ¿vale? 645 00:37:44,095 --> 00:37:45,346 ¡Buena cena familiar! 646 00:37:47,682 --> 00:37:49,809 Estos productos no se diseñaron 647 00:37:49,892 --> 00:37:53,896 por psicólogos infantiles que intentan proteger a los niños. 648 00:37:53,980 --> 00:37:58,734 Se diseñaron para hacer algoritmos para recomendarte el siguiente video 649 00:37:58,818 --> 00:38:02,321 o para que te hagas una foto con filtro. 650 00:38:03,072 --> 00:38:05,324 2 ME GUSTA 651 00:38:13,291 --> 00:38:15,126 ¿SEGURO QUE QUIERES BORRARLO? NO 652 00:38:15,209 --> 00:38:16,210 SÍ 653 00:38:16,752 --> 00:38:20,256 No es solo que controlen a qué prestan atención. 654 00:38:21,173 --> 00:38:26,304 Las redes sociales profundizan en el tronco cerebral 655 00:38:26,387 --> 00:38:29,765 y controlan la autoestima y la identidad de los niños. 656 00:38:29,849 --> 00:38:31,851 PONME GUAPA 657 00:38:42,069 --> 00:38:43,112 ¡QUÉ GUAPA! 658 00:38:43,195 --> 00:38:44,822 DIOS, PRECIOSA 659 00:38:44,905 --> 00:38:46,490 ESTÁS DIVINA 660 00:38:46,574 --> 00:38:49,118 ¿PUEDES AGRANDARTE LAS OREJAS? JA JA 661 00:38:52,246 --> 00:38:55,499 Hemos evolucionado para preocuparnos por si los demás... 662 00:38:55,583 --> 00:38:56,667 ¡QUÉ GUAPA! 663 00:38:56,751 --> 00:38:59,712 ...piensan bien de nosotros o no, porque importa. 664 00:38:59,837 --> 00:39:04,550 Pero ¿hemos evolucionado para saber qué piensan 10 000 personas de nosotros? 665 00:39:04,633 --> 00:39:05,885 No hemos evolucionado 666 00:39:05,968 --> 00:39:10,348 para recibir aprobación social cada cinco minutos. 667 00:39:10,431 --> 00:39:13,142 No estamos diseñados para eso. 668 00:39:15,394 --> 00:39:19,982 Organizamos nuestras vidas en torno a este sentido de perfección percibida, 669 00:39:20,733 --> 00:39:23,277 porque recibimos recompensas a corto plazo: 670 00:39:23,361 --> 00:39:25,154 corazones, me gusta, pulgares. 671 00:39:25,237 --> 00:39:28,407 Y lo confundimos con valores y con verdad. 672 00:39:29,825 --> 00:39:33,120 Y realmente es una popularidad falsa y frágil... 673 00:39:33,913 --> 00:39:37,458 a corto plazo y eso te deja aún más 674 00:39:37,541 --> 00:39:39,919 vacío que antes de hacerlo. 675 00:39:41,295 --> 00:39:43,381 Porque entras en un círculo vicioso 676 00:39:43,464 --> 00:39:47,343 en el que piensas: "¿Qué hago ahora? Porque lo necesito". 677 00:39:48,177 --> 00:39:50,805 Apliquemos eso a dos mil millones de personas 678 00:39:50,888 --> 00:39:54,809 y pensemos en cómo reaccionamos ante las percepciones de los demás. 679 00:39:54,892 --> 00:39:56,477 Es... Es horrible. 680 00:39:56,977 --> 00:39:58,229 Es muy malo. 681 00:40:00,856 --> 00:40:05,069 Ha habido un aumento enorme en la depresión y la ansiedad 682 00:40:05,152 --> 00:40:10,950 en los adolescentes estadounidenses que empezó entre... 2011 y 2013. 683 00:40:11,033 --> 00:40:15,371 El número de chicas de cada 100 000 en este país 684 00:40:15,454 --> 00:40:19,959 que ingresaban en un hospital cada año porque se cortaron o se hicieron daño, 685 00:40:20,042 --> 00:40:23,921 se mantuvo estable hasta 2010, 2011, 686 00:40:24,004 --> 00:40:25,756 y luego empezó a subir. 687 00:40:28,759 --> 00:40:31,971 Ha subido un 62 % en las adolescentes mayores. 688 00:40:32,054 --> 00:40:33,931 INGRESOS HOSPITALARIOS POR AUTOLESIÓN NO FATAL 689 00:40:34,014 --> 00:40:38,310 Ha subido un 189 % en las preadolescentes. Eso es casi el triple. 690 00:40:40,020 --> 00:40:43,107 Lo peor es que vemos el mismo patrón con el suicidio. 691 00:40:43,190 --> 00:40:44,900 TASA DE SUICIDIO POR CADA 1 000 000 DE CHICAS 692 00:40:44,984 --> 00:40:47,570 Las adolescentes mayores, de 15 a 19 años, 693 00:40:47,653 --> 00:40:51,740 han subido un 70 % en comparación con la primera década de este siglo. 694 00:40:51,991 --> 00:40:55,077 Las preadolescentes, que tienen unas tasas muy bajas, 695 00:40:55,161 --> 00:40:57,663 han subido un 151 %. 696 00:40:58,831 --> 00:41:01,709 Y ese patrón apunta a las redes sociales. 697 00:41:01,792 --> 00:41:03,961 REDES SOCIALES PARA MÓVILES 698 00:41:04,044 --> 00:41:07,214 La generación Z, los nacidos después de 1996, 699 00:41:07,298 --> 00:41:10,342 son la primera generación de la historia 700 00:41:10,426 --> 00:41:12,636 que llegó a las redes sociales en el instituto. 701 00:41:15,973 --> 00:41:17,433 ¿Cómo pasan el tiempo? 702 00:41:19,727 --> 00:41:22,480 Vuelven a casa y cogen sus dispositivos. 703 00:41:24,315 --> 00:41:29,195 Toda una generación está más ansiosa, más frágil, más deprimida. 704 00:41:30,613 --> 00:41:33,282 Les preocupa mucho más asumir riesgos. 705 00:41:34,325 --> 00:41:37,536 El número de carnés de conducir ha bajado. 706 00:41:38,954 --> 00:41:41,081 El número que ha tenido una cita 707 00:41:41,165 --> 00:41:44,251 o alguna relación romántica está bajando rápidamente. 708 00:41:47,505 --> 00:41:49,715 Es un cambio real en una generación. 709 00:41:53,177 --> 00:41:57,306 Y por cada una de ellas, por cada hospitalización, 710 00:41:57,389 --> 00:42:00,267 hay una familia traumatizada y horrorizada. 711 00:42:00,351 --> 00:42:02,353 "¿Qué les pasa a nuestros hijos?". 712 00:42:19,411 --> 00:42:21,038 Para mí está muy claro. 713 00:42:22,873 --> 00:42:28,128 Estos servicios están matando gente y haciendo que se suiciden. 714 00:42:29,088 --> 00:42:33,300 No conozco a ningún padre que diga: "Sí, quiero que mis hijos crezcan 715 00:42:33,384 --> 00:42:36,887 sintiéndose manipulados por los diseñadores 716 00:42:36,971 --> 00:42:39,682 que manipulan su atención, impidiéndoles hacer los deberes, 717 00:42:39,765 --> 00:42:42,601 comparándose con estándares de belleza irreales". 718 00:42:42,685 --> 00:42:44,687 Nadie quiere eso. 719 00:42:45,104 --> 00:42:46,355 Nadie. 720 00:42:46,438 --> 00:42:48,482 Teníamos protecciones. 721 00:42:48,566 --> 00:42:50,943 Cuando los niños veían dibujos animados, 722 00:42:51,026 --> 00:42:52,778 nos preocupaba protegerlos. 723 00:42:52,861 --> 00:42:56,574 Era: "No se pueden dirigir determinados anuncios a los niños". 724 00:42:57,366 --> 00:43:02,454 Pero coges YouTube para niños y consume toda la economía de la atención. 725 00:43:02,538 --> 00:43:04,915 Los niños están desprotegidos. 726 00:43:04,999 --> 00:43:07,710 Las protecciones y las normas han desaparecido. 727 00:43:10,296 --> 00:43:17,261 TIEMPO SIN TELÉFONO 728 00:43:18,304 --> 00:43:22,141 Estamos entrenando y acondicionando a una nueva generación... 729 00:43:23,434 --> 00:43:29,148 que cuando se siente incómoda, sola, insegura o asustada 730 00:43:29,231 --> 00:43:31,775 tiene un chupete digital 731 00:43:32,234 --> 00:43:36,488 que atrofia la capacidad para lidiar con eso. 732 00:43:53,964 --> 00:43:56,884 Photoshop no tenía mil ingenieros 733 00:43:56,967 --> 00:43:58,969 usando tus avisos, tus amigos, 734 00:43:59,053 --> 00:44:02,431 la IA para predecir lo que te va a volver adicto, 735 00:44:02,514 --> 00:44:04,516 manipularte o permitir que los anunciantes 736 00:44:04,600 --> 00:44:06,894 prueben 60 000 textos o colores... 737 00:44:06,977 --> 00:44:08,395 CONGRESO ANTIMONOPOLIO TECNOLÓGICO 738 00:44:08,479 --> 00:44:11,065 ...para ver cómo manipularte mejor. 739 00:44:11,148 --> 00:44:14,985 Esta es una nueva especie de poder e influencia. 740 00:44:16,070 --> 00:44:19,156 Los métodos que se usan 741 00:44:19,239 --> 00:44:22,868 para jugar con la capacidad para ser adictos o influenciados 742 00:44:22,951 --> 00:44:25,120 pueden ser diferentes esta vez. 743 00:44:25,204 --> 00:44:28,916 Eran diferentes cuando aparecieron los periódicos y la imprenta, 744 00:44:28,999 --> 00:44:31,794 y eran diferentes cuando llegó la televisión 745 00:44:31,877 --> 00:44:34,004 y había tres emisoras principales... 746 00:44:34,088 --> 00:44:36,382 - En ese momento. - Eso es lo que digo. 747 00:44:36,465 --> 00:44:38,384 Pero hay un nuevo nivel 748 00:44:38,467 --> 00:44:42,054 y eso ha pasado muchas veces antes. 749 00:44:42,137 --> 00:44:45,099 Es el último nivel que hemos visto. 750 00:44:45,182 --> 00:44:51,188 Se dice que ya nos adaptaremos. Aprenderemos a vivir con los dispositivos 751 00:44:51,271 --> 00:44:53,732 como aprendimos a vivir con los demás. 752 00:44:53,816 --> 00:44:56,694 Y lo que se olvida es que hay algo nuevo aquí. 753 00:44:57,528 --> 00:45:00,322 Quizá lo más peligroso de todo esto sea el hecho 754 00:45:00,406 --> 00:45:04,410 de que está impulsado por una tecnología que avanza exponencialmente. 755 00:45:04,910 --> 00:45:05,911 PODER DE PROCESAMIENTO 756 00:45:05,994 --> 00:45:09,081 Si hablamos desde los años 60 hasta hoy, 757 00:45:09,873 --> 00:45:12,960 el poder de procesamiento ha aumentado en un trillón. 758 00:45:13,794 --> 00:45:18,340 Ninguna otra cosa ha crecido a ese ritmo. 759 00:45:18,424 --> 00:45:22,177 Los coches son el doble de rápidos. 760 00:45:22,261 --> 00:45:25,264 Y casi todo lo demás es insignificante. 761 00:45:25,347 --> 00:45:27,182 Y quizá lo más importante, 762 00:45:27,266 --> 00:45:31,353 nuestra fisiología, nuestros cerebros no han evolucionado. 763 00:45:31,854 --> 00:45:35,232 TIEMPO SIN TELÉFONO 764 00:45:37,401 --> 00:45:41,488 Los seres humanos a nivel mental, corporal y físico 765 00:45:41,947 --> 00:45:43,866 no sufrirán grandes cambios. 766 00:45:56,837 --> 00:46:00,924 Podemos hacer ingeniería genética y desarrollar nuevos seres humanos, 767 00:46:01,008 --> 00:46:05,220 pero siendo realistas, vivimos en un hardware, un cerebro, 768 00:46:05,304 --> 00:46:07,222 que tiene millones de años, 769 00:46:07,306 --> 00:46:10,559 y tenemos esta pantalla, y en el lado opuesto 770 00:46:10,642 --> 00:46:13,562 hay miles de ingenieros y supercomputadores 771 00:46:13,645 --> 00:46:16,106 con objetivos distintos a los tuyos, 772 00:46:16,190 --> 00:46:19,693 así que ¿quién va a ganar el partido? 773 00:46:25,574 --> 00:46:26,909 ¿Cómo vamos perdiendo? 774 00:46:27,117 --> 00:46:29,787 - No lo sé. - ¿Dónde está? Esto no es normal. 775 00:46:29,870 --> 00:46:32,080 ¿Me he pasado de amigos y familiares? 776 00:46:32,164 --> 00:46:34,082 - Puede. - O fueron los anuncios. 777 00:46:34,166 --> 00:46:37,795 No. Algo va mal. Pasemos al modo de resurrección. 778 00:46:39,713 --> 00:46:44,051 Cuando piensas en la IA, crees que puede arruinar el mundo 779 00:46:44,134 --> 00:46:47,221 y piensas en Terminator y en Arnold Schwarzenegger... 780 00:46:47,638 --> 00:46:48,680 Volveré. 781 00:46:48,764 --> 00:46:52,684 ...ves drones y piensas: "La IA va a matar gente". 782 00:46:53,644 --> 00:46:59,817 Y lo que la gente no sabe es que la IA ya controla el mundo de hoy. 783 00:46:59,900 --> 00:47:03,237 Hablar de "una inteligencia artificial" es una metáfora. 784 00:47:03,320 --> 00:47:09,451 En estas empresas como Google hay habitaciones enormes. 785 00:47:10,327 --> 00:47:13,121 Algunas bajo tierra, otras bajo el agua, 786 00:47:13,205 --> 00:47:14,498 con ordenadores. 787 00:47:14,581 --> 00:47:17,835 Toneladas de ordenadores hasta donde alcanza la vista. 788 00:47:18,460 --> 00:47:20,504 Están muy conectados entre ellos 789 00:47:20,587 --> 00:47:22,923 y ejecutan programas muy complicados, 790 00:47:23,006 --> 00:47:26,009 enviando información entre ellos todo el tiempo. 791 00:47:26,802 --> 00:47:28,595 Y ejecutarán muchos programas 792 00:47:28,679 --> 00:47:30,806 y productos en esas mismas máquinas. 793 00:47:31,348 --> 00:47:33,600 Algunas cosas son simples algoritmos, 794 00:47:33,684 --> 00:47:37,521 otras son tan complejas como para llamarlas inteligencias. 795 00:47:40,023 --> 00:47:43,861 Diría que los algoritmos son opiniones incrustadas en el código... 796 00:47:45,070 --> 00:47:47,656 y que los algoritmos no son objetivos. 797 00:47:48,365 --> 00:47:51,577 Están optimizados para una definición de éxito. 798 00:47:52,244 --> 00:47:53,370 Si piensas 799 00:47:53,453 --> 00:47:57,124 en una empresa comercial que crea un algoritmo 800 00:47:57,207 --> 00:47:59,293 según su definición de éxito, 801 00:47:59,710 --> 00:48:01,336 será con interés comercial. 802 00:48:01,587 --> 00:48:02,671 Por beneficio. 803 00:48:03,130 --> 00:48:07,384 Le dices al ordenador: "Quiero este resultado", 804 00:48:07,467 --> 00:48:10,262 y el ordenador aprende a hacerlo. 805 00:48:10,345 --> 00:48:14,850 De ahí viene el "aprendizaje automático". Y cada día es mejor eligiendo 806 00:48:14,933 --> 00:48:19,438 las publicaciones correctas para que pases más tiempo en ese producto. 807 00:48:19,521 --> 00:48:22,232 Y nadie entiende lo que hacen 808 00:48:22,316 --> 00:48:23,901 para lograr ese objetivo. 809 00:48:23,984 --> 00:48:28,238 El algoritmo tiene mente propia, así que aunque una persona lo escriba, 810 00:48:28,906 --> 00:48:30,657 está escrito de tal forma 811 00:48:30,741 --> 00:48:35,037 que construyes la máquina y la máquina cambia. 812 00:48:35,120 --> 00:48:37,873 Solo hay un puñado de gente en estas empresas, 813 00:48:37,956 --> 00:48:40,000 en Facebook, Twitter y demás... 814 00:48:40,083 --> 00:48:43,795 Solo unos pocos entienden cómo funcionan esos sistemas, 815 00:48:43,879 --> 00:48:46,715 e incluso ellos no entienden bien 816 00:48:46,798 --> 00:48:49,551 qué va a pasar con un contenido en particular. 817 00:48:49,968 --> 00:48:55,474 Como humanos, casi hemos perdido el control de estos sistemas, 818 00:48:55,891 --> 00:48:59,603 porque controlan la información que vemos. 819 00:48:59,686 --> 00:49:02,439 Nos controlan más que nosotros a ellos. 820 00:49:03,815 --> 00:49:07,319 Cruza referencias con equivalentes en su zona. 821 00:49:07,402 --> 00:49:09,571 Sus dobles psicométricos. 822 00:49:09,655 --> 00:49:13,700 Hay 13 694 personas comportándose como él en su región. 823 00:49:13,784 --> 00:49:16,370 - ¿Su tendencia? - Necesitamos algo bueno 824 00:49:16,453 --> 00:49:17,704 para la resurrección, 825 00:49:17,788 --> 00:49:19,957 dado que lo típico no funciona. 826 00:49:20,040 --> 00:49:21,875 Ni esa monada del instituto. 827 00:49:22,334 --> 00:49:25,253 Según mi análisis, el contenido "extremo centro" 828 00:49:25,337 --> 00:49:28,256 tiene un 62, 3% de posibilidades de interacción a largo plazo. 829 00:49:28,340 --> 00:49:29,299 No está mal. 830 00:49:30,300 --> 00:49:32,010 No basta. 831 00:49:32,386 --> 00:49:35,305 Le hemos notificado sobre fotos etiquetadas, 832 00:49:35,389 --> 00:49:39,017 invitaciones, eventos actuales, incluso un mensaje de Rebecca. 833 00:49:39,101 --> 00:49:42,729 Pero ¿y el usuario 01265923010? 834 00:49:42,813 --> 00:49:44,648 Sí, le encantaban sus mensajes. 835 00:49:44,731 --> 00:49:47,776 Todos durante meses, y ahora nada. 836 00:49:47,859 --> 00:49:50,487 Hay un 92, 3% de posibilidades de resurreción 837 00:49:50,570 --> 00:49:52,406 con una notificación sobre Ana. 838 00:49:53,907 --> 00:49:55,993 NUEVA RELACIÓN 839 00:49:56,493 --> 00:49:57,494 Y su nuevo amigo. 840 00:49:58,495 --> 00:50:04,001 TIEMPO SIN TELÉFONO 841 00:50:24,354 --> 00:50:26,023 ¡TU EX TIENE UNA NUEVA RELACIÓN! 842 00:50:26,106 --> 00:50:27,357 No me lo puedo creer. 843 00:50:35,657 --> 00:50:36,616 Vale. 844 00:50:37,576 --> 00:50:38,785 ANA Y LUIZ ESTÁN EN UNA RELACIÓN 845 00:50:38,869 --> 00:50:39,703 ¿Qué? 846 00:50:41,580 --> 00:50:42,789 ¡Bam! ¡Hemos vuelto! 847 00:50:42,873 --> 00:50:44,374 Volvamos a ganar dinero. 848 00:50:44,458 --> 00:50:46,334 Y a conectarlos con todos. 849 00:50:46,418 --> 00:50:49,337 Le doy acceso a la información que le interesa. 850 00:50:49,755 --> 00:50:53,717 ¿Alguna vez os preguntáis si la información es buena para Ben? 851 00:50:57,220 --> 00:50:58,221 - No. - No. 852 00:51:17,532 --> 00:51:19,076 Te he hechizado. 853 00:51:25,040 --> 00:51:26,374 Porque eres mío. 854 00:51:34,508 --> 00:51:36,593 Más te vale dejar lo que haces. 855 00:51:41,181 --> 00:51:42,265 No miento. 856 00:51:42,349 --> 00:51:44,893 PRUEBA A/B EXTREMO CENTRO 857 00:51:44,976 --> 00:51:46,686 No, no miento. 858 00:51:49,981 --> 00:51:51,817 Sabes que no lo soporto. 859 00:51:53,026 --> 00:51:54,611 Estás dando vueltas. 860 00:51:55,612 --> 00:51:57,239 Ya lo sabes. 861 00:51:58,782 --> 00:52:02,077 No lo soporto porque me humillaste. 862 00:52:03,286 --> 00:52:04,121 Sí. 863 00:52:06,456 --> 00:52:08,375 Te he hechizado. 864 00:52:12,379 --> 00:52:14,840 Porque eres mío. 865 00:52:18,718 --> 00:52:19,845 Eres mío... 866 00:52:20,929 --> 00:52:24,349 Imagina que estás en Facebook... 867 00:52:24,766 --> 00:52:29,312 y estás jugando contra esta inteligencia artificial 868 00:52:29,396 --> 00:52:31,314 que lo sabe todo sobre ti, 869 00:52:31,398 --> 00:52:34,568 anticipa tus movimientos y no sabes nada sobre ella, 870 00:52:34,651 --> 00:52:37,404 salvo que hay vídeos de gatos y cumpleaños. 871 00:52:37,821 --> 00:52:39,656 No es una pelea justa. 872 00:52:41,575 --> 00:52:43,869 Ben y Jerry, ¡es hora de irse! 873 00:52:51,126 --> 00:52:51,960 ¿Ben? 874 00:53:02,679 --> 00:53:03,513 Ben. 875 00:53:05,182 --> 00:53:06,057 Vamos. 876 00:53:07,225 --> 00:53:08,894 Hora de ir a clase. Vamos. 877 00:53:13,231 --> 00:53:16,735 CENTRO PARA LA TECNOLOGÍA HUMANA 878 00:53:31,374 --> 00:53:33,543 - ¿Qué tal hoy? - Estoy nervioso. 879 00:53:33,627 --> 00:53:34,628 - ¿Sí? - Sí. 880 00:53:37,380 --> 00:53:38,965 Esperábamos el momento 881 00:53:39,049 --> 00:53:42,969 en que la tecnología superase a la fuerza y la inteligencia humana. 882 00:53:43,053 --> 00:53:47,015 ¿Cuándo va a pasar la singularidad, sustituirnos y ser más lista que nosotros? 883 00:53:48,141 --> 00:53:50,101 Pero hay un momento mucho antes… 884 00:53:50,977 --> 00:53:55,565 cuando la tecnología supera las debilidades humanas. 885 00:53:57,484 --> 00:54:02,030 Este punto que se cruza es la raíz de la adicción, 886 00:54:02,113 --> 00:54:04,741 la polarización, la radicalización, la ira 887 00:54:04,824 --> 00:54:06,368 la vanidad, todo. 888 00:54:07,702 --> 00:54:09,913 Eso domina a la naturaleza humana, 889 00:54:10,538 --> 00:54:13,500 y es un jaque mate a la humanidad. 890 00:54:30,558 --> 00:54:31,434 Lo siento. 891 00:54:41,528 --> 00:54:44,656 Una de las formas en que intento que la gente entienda 892 00:54:45,198 --> 00:54:49,828 lo malo que es informarse en sitios como Facebook 893 00:54:49,911 --> 00:54:51,454 es pensar en la Wikipedia. 894 00:54:51,538 --> 00:54:52,872 PESTAÑA NUEVA 895 00:54:52,956 --> 00:54:55,667 En una página ves lo mismo que los demás. 896 00:54:55,750 --> 00:54:57,002 LA ENCICLOPEDIA LIBRE 897 00:54:57,085 --> 00:55:00,297 Es de las pocas cosas en Internet que tenemos en común. 898 00:55:00,380 --> 00:55:03,425 Ahora imagina por un segundo que Wikipedia dice: 899 00:55:03,508 --> 00:55:07,178 "Vamos a dar a cada persona una definición diferente 900 00:55:07,262 --> 00:55:09,472 y nos pagarán por eso". 901 00:55:09,556 --> 00:55:13,435 Wikipedia te espiará y calculará 902 00:55:13,518 --> 00:55:17,188 qué puede hacer para que esa persona cambie 903 00:55:17,272 --> 00:55:19,899 por algún interés comercial. 904 00:55:19,983 --> 00:55:21,818 Y luego cambiará la entrada. 905 00:55:22,444 --> 00:55:23,570 ¿Te lo imaginas? 906 00:55:23,653 --> 00:55:24,738 Deberías, 907 00:55:24,821 --> 00:55:26,823 porque es lo que pasa en Facebook. 908 00:55:26,906 --> 00:55:28,992 Es lo que pasa en YouTube. 909 00:55:29,075 --> 00:55:31,786 Cuando escribes en Google "cambio climático", 910 00:55:31,870 --> 00:55:34,998 verás resultados diferentes según dónde vivas. 911 00:55:35,081 --> 00:55:36,082 EL CAMBIO CLIMÁTICO ES 912 00:55:36,166 --> 00:55:38,460 En ciertas ciudades, se autocompleta 913 00:55:38,543 --> 00:55:40,462 con "es un engaño". 914 00:55:40,545 --> 00:55:42,047 En otros casos, verás 915 00:55:42,130 --> 00:55:44,841 "está destruyendo la naturaleza". 916 00:55:44,924 --> 00:55:48,428 Y no depende de la verdad sobre el cambio climático, 917 00:55:48,511 --> 00:55:51,097 sino de lo que buscas en Google 918 00:55:51,181 --> 00:55:53,600 y de lo que sabe sobre tus intereses. 919 00:55:55,185 --> 00:55:57,979 Incluso dos amigos que estén muy unidos, 920 00:55:58,063 --> 00:56:00,190 que tengan la misma pandilla, 921 00:56:00,273 --> 00:56:02,942 pueden pensar: "Veré las noticias en Facebook. 922 00:56:03,026 --> 00:56:06,738 Serán las mismas novedades". Pero no es así en absoluto. 923 00:56:06,821 --> 00:56:08,448 Ven cosas diferentes 924 00:56:08,531 --> 00:56:10,575 porque se basan en cálculos 925 00:56:10,658 --> 00:56:12,035 sobre preferencias. 926 00:56:12,118 --> 00:56:14,245 EN DIRECTO 927 00:56:14,329 --> 00:56:18,416 Hay que imaginar que son 2700 millones de Shows de Truman. 928 00:56:18,500 --> 00:56:21,294 Cada persona tiene su propia realidad con... 929 00:56:22,670 --> 00:56:23,671 sus hechos. 930 00:56:23,755 --> 00:56:27,008 ¿Por qué creéis que Truman nunca se ha acercado 931 00:56:27,092 --> 00:56:30,095 a descubrir la naturaleza de su mundo hasta ahora? 932 00:56:31,012 --> 00:56:34,099 Aceptamos la realidad del mundo que se nos presenta. 933 00:56:34,182 --> 00:56:35,141 Así de sencillo. 934 00:56:35,225 --> 00:56:36,393 EN DIRECTO 935 00:56:36,476 --> 00:56:41,064 Con el tiempo, tienes la falsa sensación de que todos coinciden contigo 936 00:56:41,147 --> 00:56:44,067 porque tus noticias piensan como tú. 937 00:56:44,567 --> 00:56:49,072 Y cuando estás en ese estado eres fácilmente manipulable, 938 00:56:49,155 --> 00:56:51,741 igual que si te manipulase un mago. 939 00:56:51,825 --> 00:56:55,370 Te enseña un truco y te dice: "Elige una carta, cualquiera". 940 00:56:55,453 --> 00:57:00,583 Lo que no ves es que lo ha preparado y eliges la carta que quiere que elijas. 941 00:57:00,667 --> 00:57:03,169 Y así funciona Facebook. Dice: 942 00:57:03,253 --> 00:57:06,172 "Elige a tus amigos y los vínculos que sigues". 943 00:57:06,256 --> 00:57:08,716 Pero son chorradas. Es como el mago. 944 00:57:08,800 --> 00:57:11,302 Facebook se encarga de tus noticias. 945 00:57:11,386 --> 00:57:14,514 Todos operamos con un conjunto diferente de hechos. 946 00:57:14,597 --> 00:57:16,474 Cuando eso pasa a gran escala, 947 00:57:16,558 --> 00:57:20,687 ya no puedes contar ni consumir información 948 00:57:20,770 --> 00:57:23,690 que contradice la visión del mundo que has creado. 949 00:57:23,773 --> 00:57:28,027 Eso significa que no somos personas objetivas y constructivas. 950 00:57:28,778 --> 00:57:32,449 ¡Abre los ojos, no te creas las mentiras! Abre... 951 00:57:32,532 --> 00:57:35,160 Luego miras al otro lado 952 00:57:35,243 --> 00:57:38,746 y empiezas a pensar: "¿Cómo pueden ser tan estúpidos? 953 00:57:38,830 --> 00:57:42,125 Mira toda esta información que veo constantemente. 954 00:57:42,208 --> 00:57:44,627 ¿Cómo es que no ven lo mismo?". 955 00:57:44,711 --> 00:57:47,297 Y la respuesta es que no lo ven. 956 00:57:47,380 --> 00:57:50,800 ¡Abre los ojos, no te creas las mentiras! 957 00:57:52,093 --> 00:57:53,720 ¿Cómo son los republicanos? 958 00:57:53,803 --> 00:57:55,472 Gente que no tiene ni idea. 959 00:57:55,555 --> 00:57:58,933 El Partido Demócrata es un sindicato del crimen. 960 00:57:59,017 --> 00:58:03,104 Un estudio del Centro de Investigación Pew sobre 10 000 adultos 961 00:58:03,188 --> 00:58:05,315 nos muestra más divididos que nunca, 962 00:58:05,398 --> 00:58:09,235 con el mayor nivel en 20 años de polarización personal y política. 963 00:58:11,696 --> 00:58:14,199 Más de un tercio de los republicanos dicen 964 00:58:14,282 --> 00:58:16,826 que el Partido Demócrata es una amenaza, 965 00:58:16,910 --> 00:58:20,580 más de una cuarta parte de los demócratas dicen lo mismo de los republicanos. 966 00:58:20,663 --> 00:58:22,499 Muchos de los problemas, 967 00:58:22,582 --> 00:58:24,417 como la polarización política, 968 00:58:24,501 --> 00:58:28,046 existen a montones en la televisión por cable. 969 00:58:28,129 --> 00:58:31,007 Los medios tienen el mismo problema 970 00:58:31,090 --> 00:58:33,343 que su modelo de negocio, 971 00:58:33,426 --> 00:58:35,762 y es que venden nuestra atención, 972 00:58:35,845 --> 00:58:38,890 e Internet es una forma nueva y más eficiente de hacerlo. 973 00:58:40,391 --> 00:58:44,145 Trabajaba en las recomendaciones de YouTube. 974 00:58:44,229 --> 00:58:47,190 Me preocupa que un algoritmo en el que he trabajado 975 00:58:47,273 --> 00:58:50,401 esté aumentando la polarización de la sociedad. 976 00:58:50,485 --> 00:58:53,112 Pero desde el punto de vista del tiempo, 977 00:58:53,196 --> 00:58:57,617 esta polarización es muy eficiente manteniendo a la gente en línea. 978 00:58:58,785 --> 00:59:00,870 Solo enseñan eso 979 00:59:00,954 --> 00:59:02,288 porque les pagan. 980 00:59:02,372 --> 00:59:04,207 - Es absurdo. - Hola, Benji. 981 00:59:04,791 --> 00:59:06,167 ¿Hoy no hay fútbol? 982 00:59:06,251 --> 00:59:08,878 Sí. Estoy poniéndome al día con las noticias. 983 00:59:08,962 --> 00:59:11,506 Lo que se aleje del extremo centro... 984 00:59:11,589 --> 00:59:14,008 Yo no llamaría a eso noticias. 985 00:59:15,552 --> 00:59:18,721 Siempre hablas de lo mal que está todo. Ellos también. 986 00:59:19,305 --> 00:59:21,140 Pero eso es propaganda. 987 00:59:21,224 --> 00:59:24,060 No es cierto. Se trata de lo que tiene sentido. 988 00:59:24,769 --> 00:59:26,938 Hablo en serio. Eso es malo para ti. 989 00:59:27,021 --> 00:59:28,356 Deberías ir a fútbol. 990 00:59:35,154 --> 00:59:37,490 Comparto esto porque me importa. 991 00:59:37,574 --> 00:59:41,077 Me importa que te engañen y eso no está bien. ¿Vale? 992 00:59:41,160 --> 00:59:43,121 La gente cree que el algoritmo está diseñado 993 00:59:43,204 --> 00:59:46,833 para darles lo que quieren, pero no. 994 00:59:46,916 --> 00:59:52,589 Intenta encontrar unos túneles que sean muy poderosos, 995 00:59:52,672 --> 00:59:56,217 intenta encontrar cuál es el más cercano a tu interés. 996 00:59:56,301 --> 00:59:59,262 Y si empiezas a ver uno de esos vídeos, 997 00:59:59,846 --> 01:00:02,223 te lo recomendará una y otra vez. 998 01:00:02,682 --> 01:00:04,934 No es que nadie quiera que esto pase. 999 01:00:05,018 --> 01:00:07,812 Es lo que hace el sistema de recomendación. 1000 01:00:07,895 --> 01:00:10,815 Tanto que Kyrie Irving, el jugador de baloncesto, 1001 01:00:11,399 --> 01:00:14,235 dijo que la Tierra era plana y se disculpó luego, 1002 01:00:14,319 --> 01:00:16,112 porque culpó a YouTube. 1003 01:00:16,487 --> 01:00:18,656 Haces clic en YouTube 1004 01:00:18,740 --> 01:00:21,492 y dice hasta dónde llega el túnel. 1005 01:00:21,576 --> 01:00:23,369 Cuando fue a la radio a decir: 1006 01:00:23,453 --> 01:00:28,207 "Perdón, no quería engañar a nadie", unos estudiantes dijeron: 1007 01:00:28,291 --> 01:00:30,293 "Los oficialistas le han pillado". 1008 01:00:31,002 --> 01:00:33,963 El algoritmo recomendó la teoría de la conspiración 1009 01:00:34,047 --> 01:00:37,634 de la Tierra plana cientos de millones de veces. 1010 01:00:37,717 --> 01:00:43,890 Es fácil pensar que solo convence a unos pocos estúpidos, 1011 01:00:43,973 --> 01:00:46,893 pero el algoritmo es cada vez más inteligente. 1012 01:00:46,976 --> 01:00:50,188 Hoy convencen a la gente de que la Tierra es plana, 1013 01:00:50,271 --> 01:00:53,816 pero mañana te convencerán de alguna otra falsedad. 1014 01:00:54,317 --> 01:00:57,820 El 7 de noviembre nació el hashtag "Pizzagate". 1015 01:00:57,904 --> 01:00:59,197 Pizzagate... 1016 01:01:00,782 --> 01:01:01,658 Madre mía. 1017 01:01:03,159 --> 01:01:06,913 Aún no estoy 100 % segura de cómo surgió esto, 1018 01:01:06,996 --> 01:01:12,377 pero la idea era que pedir una pizza significaba traficar con personas. 1019 01:01:12,460 --> 01:01:15,046 Según los grupos crecían en Facebook, 1020 01:01:15,129 --> 01:01:19,967 el motor de recomendación empezó a sugerir a los usuarios habituales 1021 01:01:20,051 --> 01:01:21,761 que se unieran al Pizzagate. 1022 01:01:21,844 --> 01:01:27,392 Si un usuario era, por ejemplo, antivacunas o creía en estelas químicas 1023 01:01:27,475 --> 01:01:30,645 o había indicado a los algoritmos de Facebook 1024 01:01:30,728 --> 01:01:33,398 que era propenso a creer en conspiraciones, 1025 01:01:33,481 --> 01:01:36,859 el motor recomendaba los grupos de Pizzagate. 1026 01:01:36,943 --> 01:01:41,072 Al final, esto culminó con un hombre que apareció con una pistola 1027 01:01:41,155 --> 01:01:44,617 y decidió que iba a liberar a los niños del sótano 1028 01:01:44,701 --> 01:01:47,036 de la pizzería que no tenía sótano. 1029 01:01:47,120 --> 01:01:50,248 - ¿Qué hacías allí? - Asegurarme de que no había nada. 1030 01:01:50,415 --> 01:01:52,333 - ¿De qué? - Un círculo pedófilo. 1031 01:01:52,417 --> 01:01:53,793 - ¿Qué? - Un círculo pedófilo. 1032 01:01:53,876 --> 01:01:55,878 Habla del Pizzagate. 1033 01:01:55,962 --> 01:02:00,216 Este es un ejemplo de una teoría de la conspiración 1034 01:02:00,299 --> 01:02:03,678 que se propagó por todas las redes sociales. 1035 01:02:03,761 --> 01:02:06,097 El motor de recomendación 1036 01:02:06,180 --> 01:02:07,849 lo ofreció a gente 1037 01:02:07,932 --> 01:02:10,643 que nunca había buscado el término "Pizzagate". 1038 01:02:10,727 --> 01:02:12,687 LA VERDAD SOBRE LOS DEMÓCRATAS Y LA PEDOFILIA 1039 01:02:12,770 --> 01:02:14,439 Un estudio del MIT dice 1040 01:02:14,522 --> 01:02:19,444 que los bulos en Twitter se difunden seis veces más rápido que la verdad. 1041 01:02:19,902 --> 01:02:21,863 ¿Cómo será el mundo, 1042 01:02:21,946 --> 01:02:24,741 si una cosa tiene esa ventaja sobre la otra? 1043 01:02:25,283 --> 01:02:27,660 Imagina que estas cosas son como… 1044 01:02:27,744 --> 01:02:31,622 Inclinan el suelo del comportamiento humano. 1045 01:02:31,706 --> 01:02:34,709 Dificultan o facilitan determinados comportamientos. 1046 01:02:34,792 --> 01:02:37,420 Y puedes subir la colina, 1047 01:02:37,503 --> 01:02:38,796 pero pocos lo harán, 1048 01:02:38,880 --> 01:02:43,050 así que, a escala social, inclinas el suelo 1049 01:02:43,134 --> 01:02:45,970 y cambias lo que piensan y hacen miles de millones de personas. 1050 01:02:46,053 --> 01:02:52,018 Hemos creado un sistema que se inclina hacia la información falsa. 1051 01:02:52,643 --> 01:02:54,437 No porque queramos, 1052 01:02:54,520 --> 01:02:58,816 sino porque la información falsa hace que las empresas ganen más dinero 1053 01:02:59,400 --> 01:03:01,611 que la verdad. La verdad es aburrida. 1054 01:03:01,986 --> 01:03:04,489 Es un modelo basado en la desinformación. 1055 01:03:04,906 --> 01:03:08,159 Ganas dinero cuantos más mensajes no regulados lleguen 1056 01:03:08,701 --> 01:03:11,287 al mejor precio. 1057 01:03:11,662 --> 01:03:13,956 ¿Por el cambio climático? Sí. 1058 01:03:14,040 --> 01:03:16,751 Es un engaño. Sí, así es. De eso se trata. 1059 01:03:16,834 --> 01:03:20,046 Cuanto más hablen de ello y más nos dividan, 1060 01:03:20,129 --> 01:03:22,423 más poder y más control tienen. 1061 01:03:22,507 --> 01:03:25,468 Facebook tiene miles de millones de noticias. 1062 01:03:26,552 --> 01:03:29,180 No saben qué es real ni qué es verdad, 1063 01:03:29,972 --> 01:03:33,726 por eso el tema es tan crítico. 1064 01:03:33,810 --> 01:03:37,021 No solo el COVID-19 se está extendiendo rápidamente. 1065 01:03:37,104 --> 01:03:40,191 Hay un flujo de desinformación sobre el virus. 1066 01:03:40,274 --> 01:03:43,694 La idea de que beber más agua lo eliminará de tu sistema 1067 01:03:43,778 --> 01:03:47,490 es uno de los mitos que circula en las redes sociales. 1068 01:03:47,573 --> 01:03:50,451 El Gobierno planeó este evento, creó el virus 1069 01:03:50,535 --> 01:03:52,954 y simuló cómo reaccionarían los países. 1070 01:03:53,955 --> 01:03:55,581 El coronavirus es falso. 1071 01:03:56,165 --> 01:03:57,959 SARS, coronavirus. 1072 01:03:58,376 --> 01:04:01,045 Y mirad cuándo se hizo. En 2018. 1073 01:04:01,128 --> 01:04:03,798 El Gobierno de los Estados Unidos empezó esto. 1074 01:04:04,215 --> 01:04:09,095 Nadie está enfermo. Nadie conoce a ningún enfermo. 1075 01:04:09,512 --> 01:04:13,015 Quizá el Gobierno esté usando el coronavirus como excusa 1076 01:04:13,099 --> 01:04:15,643 para encerrarnos porque ocurre otra cosa. 1077 01:04:15,726 --> 01:04:18,020 El coronavirus no mata a la gente, 1078 01:04:18,104 --> 01:04:20,940 es la radiación 5G que emiten. 1079 01:04:21,023 --> 01:04:22,525 TORRES 5G CORTADAS Y QUEMADAS 1080 01:04:22,608 --> 01:04:24,569 Nos bombardean con rumores. 1081 01:04:25,403 --> 01:04:28,823 La gente está destrozando torres telefónicas. 1082 01:04:28,906 --> 01:04:32,159 Rusia y China difunden rumores y teorías conspirativas. 1083 01:04:32,243 --> 01:04:35,246 Esta mañana, el pánico y las protestas en Ucrania... 1084 01:04:35,329 --> 01:04:38,916 La gente no sabe qué es verdad y ahora es vital. 1085 01:04:40,001 --> 01:04:42,628 Las fuentes que difunden información errónea 1086 01:04:42,712 --> 01:04:45,798 han acumulado 52 millones de interacciones. 1087 01:04:45,882 --> 01:04:50,094 Dices que la solución de plata sería eficaz. 1088 01:04:50,177 --> 01:04:54,140 Bueno, no se ha probado en esta cepa del coronavirus, pero... 1089 01:04:54,223 --> 01:04:57,226 Lo que vemos con el COVID es una versión extrema 1090 01:04:57,310 --> 01:05:00,104 de nuestro ecosistema de información. 1091 01:05:01,105 --> 01:05:05,026 Las redes sociales amplifican los cotilleos y los rumores 1092 01:05:05,109 --> 01:05:08,779 hasta no poder diferenciar qué es verdad, sin importar el tema. 1093 01:05:26,130 --> 01:05:27,465 ¿Sigues en el equipo? 1094 01:05:30,468 --> 01:05:34,430 Voy a comer algo antes de entrenar, por si quieres venir. 1095 01:05:37,642 --> 01:05:38,684 Da igual. 1096 01:05:45,066 --> 01:05:47,526 Nueve de cada diez no están satisfechos. 1097 01:05:47,610 --> 01:05:50,613 El EC es como cualquier movimiento político. 1098 01:05:50,696 --> 01:05:54,492 Estamos aquí y... desafiamos este ruido. 1099 01:05:54,575 --> 01:05:57,036 Sois mi gente. Confío en vosotros. 1100 01:05:59,246 --> 01:06:02,583 - El contenido del EC es genial. - Le encanta. 1101 01:06:02,667 --> 01:06:03,626 Subastando. 1102 01:06:04,627 --> 01:06:08,547 843 postores, vendido por 4,35 centavos a un fabricante de armas. 1103 01:06:08,631 --> 01:06:10,800 Promocionemos algunos eventos. 1104 01:06:10,883 --> 01:06:13,511 Manifestaciones en su zona esta semana. 1105 01:06:13,594 --> 01:06:15,179 Y tengo un vlogger nuevo. 1106 01:06:17,890 --> 01:06:22,979 Estoy dispuesto a hacer lo que haga falta. 1107 01:06:23,062 --> 01:06:24,939 Cualquier cosa. 1108 01:06:32,154 --> 01:06:35,908 - Suscribiros y volved, porque os digo... - ¿Ben? 1109 01:06:36,659 --> 01:06:38,869 que tengo cosas muy importantes. 1110 01:06:38,953 --> 01:06:40,287 Cosas muy importantes. 1111 01:06:40,788 --> 01:06:45,292 Uno de los problemas con Facebook es que, como herramienta de persuasión, 1112 01:06:45,793 --> 01:06:47,920 puede ser el mejor invento. 1113 01:06:48,004 --> 01:06:52,508 Imagina lo que eso significa en manos de un dictador o un tirano. 1114 01:06:53,718 --> 01:06:57,638 Si quieres controlar a la población de tu país, 1115 01:06:57,722 --> 01:07:01,308 nunca ha habido una herramienta tan eficaz como Facebook. 1116 01:07:04,770 --> 01:07:07,398 Algunas de las implicaciones más preocupantes 1117 01:07:07,481 --> 01:07:11,193 de que los Gobiernos y otros malhechores usen las redes sociales 1118 01:07:11,610 --> 01:07:13,612 es el daño fuera de Internet. 1119 01:07:13,696 --> 01:07:15,072 El ejemplo más conocido 1120 01:07:15,156 --> 01:07:17,658 es lo que ha pasado en Birmania. 1121 01:07:17,742 --> 01:07:19,160 OFICINA DEL PRESIDENTE 1122 01:07:19,243 --> 01:07:22,913 Allí, cuando la gente piensa en Internet, piensa en Facebook. 1123 01:07:22,997 --> 01:07:25,916 Y lo que pasa es que cuando compran un móvil 1124 01:07:26,000 --> 01:07:29,920 viene con Facebook ya descargado 1125 01:07:30,004 --> 01:07:31,505 y con una cuenta abierta. 1126 01:07:31,589 --> 01:07:34,884 Y cuando la gente recibe su móvil, lo primero que abren 1127 01:07:34,967 --> 01:07:37,595 y lo único que saben abrir es Facebook. 1128 01:07:38,179 --> 01:07:41,891 Una nueva investigación pone al descubierto la lucha de Facebook 1129 01:07:41,974 --> 01:07:43,809 para abordar el odio en Birmania. 1130 01:07:43,893 --> 01:07:46,020 DEJAD DE MATAR MUSULMANES 1131 01:07:46,103 --> 01:07:49,190 Facebook dio a los militares y a otros malhechores 1132 01:07:49,273 --> 01:07:51,776 una nueva forma de manipular la opinión pública 1133 01:07:51,859 --> 01:07:55,529 y de incitar a la violencia contra los musulmanes rohinyás, 1134 01:07:55,613 --> 01:07:57,406 provocando asesinatos en masa, 1135 01:07:58,115 --> 01:07:59,867 la quema de pueblos enteros, 1136 01:07:59,950 --> 01:08:03,704 violaciones en masa y otros crímenes contra la humanidad 1137 01:08:03,788 --> 01:08:08,209 que han provocado que 700 000 rohinyás tengan que huir del país. 1138 01:08:11,170 --> 01:08:16,550 No es que los propagandistas no hayan existido antes. 1139 01:08:16,634 --> 01:08:19,762 Es que las plataformas permiten 1140 01:08:19,845 --> 01:08:23,724 difundir historias manipuladoras con gran facilidad 1141 01:08:23,808 --> 01:08:25,434 y sin mucho dinero. 1142 01:08:25,518 --> 01:08:27,645 Si quiero manipular unas elecciones, 1143 01:08:27,728 --> 01:08:30,564 entro en un grupo conspiranoico en Facebook 1144 01:08:30,648 --> 01:08:32,233 y encuentro a 100 personas 1145 01:08:32,316 --> 01:08:34,443 que creen que la Tierra es plana 1146 01:08:34,860 --> 01:08:37,780 y creen en la conspiración del viaje a la Luna 1147 01:08:37,863 --> 01:08:41,450 y puedo decirle a Facebook: "Dame mil usuarios así". 1148 01:08:42,118 --> 01:08:46,080 Facebook me enviará miles de usuarios como esos 1149 01:08:46,163 --> 01:08:49,250 a los que puedo soltar más teorías conspirativas. 1150 01:08:51,168 --> 01:08:52,837 Vendido por 3,4 centavos. 1151 01:08:53,379 --> 01:08:54,922 Nuevo vídeo de EC. 1152 01:08:55,005 --> 01:08:56,132 Otro anuncio listo. 1153 01:08:58,509 --> 01:09:02,054 Los algoritmos y los políticos manipuladores son expertos 1154 01:09:02,138 --> 01:09:04,056 en saber cómo llegar a nosotros, 1155 01:09:04,140 --> 01:09:08,227 son muy buenos creando bulos que absorbemos como si fueran realidad 1156 01:09:08,310 --> 01:09:10,813 y confundiéndonos para creer esas mentiras. 1157 01:09:10,896 --> 01:09:12,606 Cada vez controlamos menos 1158 01:09:12,690 --> 01:09:14,150 quiénes somos y en qué creemos. 1159 01:09:31,417 --> 01:09:32,668 ...para elegir bando. 1160 01:09:32,751 --> 01:09:34,879 Hay mentiras por todos lados. 1161 01:09:34,962 --> 01:09:39,967 Para conservar el poder y que puedan controlarlo todo. 1162 01:09:40,050 --> 01:09:44,555 Pueden controlar nuestras mentes para mantener sus secretos. 1163 01:09:44,638 --> 01:09:46,390 DUDA DE LA VERDAD 1164 01:09:46,473 --> 01:09:48,517 LOS CCE ADMITEN ENCUBRIR EL AUTISMO POR VACUNAS 1165 01:09:48,601 --> 01:09:50,895 Imagina que todos creen mentiras. 1166 01:09:50,978 --> 01:09:53,314 LAS VACUNAS NO SON UNIVERSALES NUESTROS GENES LO PRUEBAN 1167 01:09:53,397 --> 01:09:55,649 Que el Gobierno miente. 1168 01:09:56,317 --> 01:09:58,444 Que todo es una conspiración. 1169 01:09:58,527 --> 01:10:01,197 "No os fiéis de nadie. Odio a los otros". 1170 01:10:01,280 --> 01:10:02,698 Hacia eso vamos. 1171 01:10:02,781 --> 01:10:06,160 Los terremotos políticos en Europa siguen retumbando, 1172 01:10:06,243 --> 01:10:08,412 esta vez en Italia y España. 1173 01:10:08,495 --> 01:10:11,999 La coalición centrista de Europa perdió la mayoría, 1174 01:10:12,082 --> 01:10:15,002 mientras la extrema derecha e izquierda lograron avances. 1175 01:10:17,588 --> 01:10:19,048 CENTRO 1176 01:10:19,757 --> 01:10:20,591 Atrás. 1177 01:10:21,675 --> 01:10:22,509 Vale, vamos. 1178 01:10:28,390 --> 01:10:31,268 Estas cuentas intentaban deliberadamente 1179 01:10:31,352 --> 01:10:33,896 sembrar la discordia política en Hong Kong. 1180 01:10:38,609 --> 01:10:39,610 Vale, Ben. 1181 01:10:42,863 --> 01:10:45,032 ¿Qué se siente al ser un país 1182 01:10:45,115 --> 01:10:48,869 que solo se informa a través de Facebook y las redes sociales? 1183 01:10:48,953 --> 01:10:50,871 La democracia cayó rápidamente. 1184 01:10:50,955 --> 01:10:51,830 En seis meses. 1185 01:10:51,914 --> 01:10:53,791 Tras el caos en Chicago, 1186 01:10:53,874 --> 01:10:57,044 enfrentamientos entre manifestantes y partidarios… 1187 01:10:58,003 --> 01:11:01,632 La democracia se enfrenta a una crisis de confianza. 1188 01:11:01,715 --> 01:11:04,343 Hay un ataque global a la democracia. 1189 01:11:04,426 --> 01:11:05,427 EXTREMO CENTRO 1190 01:11:05,511 --> 01:11:07,930 Los objetivos son países 1191 01:11:08,013 --> 01:11:09,723 con elecciones democráticas. 1192 01:11:10,641 --> 01:11:12,518 Está pasando a gran escala. 1193 01:11:12,601 --> 01:11:15,562 Por actores estatales, por millonarios que dicen: 1194 01:11:15,646 --> 01:11:18,524 "Quiero desestabilizar Kenia, Camerún. 1195 01:11:18,607 --> 01:11:20,651 ¿Angola? Solo cuesta esto". 1196 01:11:20,734 --> 01:11:23,362 Elecciones extraordinarias en Brasil. 1197 01:11:23,445 --> 01:11:25,823 Con una campaña impulsada por las redes sociales. 1198 01:11:31,036 --> 01:11:33,956 En la industria tecnológica hemos creado las herramientas 1199 01:11:34,039 --> 01:11:37,418 para desestabilizar y erosionar el tejido de la sociedad, 1200 01:11:37,501 --> 01:11:40,254 todos los países a la vez, en todas partes. 1201 01:11:40,337 --> 01:11:44,508 Ocurre en Alemania, España, Francia, Brasil, Australia... 1202 01:11:44,591 --> 01:11:47,011 Algunas de las naciones más desarrolladas 1203 01:11:47,386 --> 01:11:49,221 están implosionándose entre sí, 1204 01:11:49,305 --> 01:11:50,931 ¿y qué tienen en común? 1205 01:11:51,974 --> 01:11:53,017 Con lo que sabes, 1206 01:11:53,100 --> 01:11:56,312 ¿crees que Facebook afectó las elecciones de 2016? 1207 01:11:56,854 --> 01:11:58,188 Una pregunta difícil. 1208 01:11:58,897 --> 01:11:59,773 A ver... 1209 01:12:00,024 --> 01:12:04,653 La realidad es que había muchas fuerzas en juego. 1210 01:12:04,737 --> 01:12:07,865 Representantes de Facebook, Twitter y Google están en Capitol Hill 1211 01:12:07,948 --> 01:12:09,366 para volver a declarar 1212 01:12:09,450 --> 01:12:12,578 sobre la interferencia rusa en las elecciones de 2016. 1213 01:12:12,661 --> 01:12:17,291 La manipulación por parte de un tercero no es piratería. 1214 01:12:18,500 --> 01:12:21,462 ¿Verdad? Los rusos no piratearon Facebook. 1215 01:12:21,545 --> 01:12:24,965 Lo que hicieron fue usar las herramientas que Facebook creó 1216 01:12:25,049 --> 01:12:27,843 para anunciantes legítimos y usuarios legítimos, 1217 01:12:27,926 --> 01:12:30,346 y las aplicaron con un propósito vil. 1218 01:12:31,930 --> 01:12:34,058 Es como una guerra a control remoto. 1219 01:12:34,475 --> 01:12:36,602 Un país puede manipular a otro 1220 01:12:36,685 --> 01:12:39,229 sin invadir sus fronteras físicas. 1221 01:12:39,605 --> 01:12:40,981 Vemos la violencia. 1222 01:12:41,065 --> 01:12:43,317 Empujan un contenedor de basura... 1223 01:12:43,400 --> 01:12:45,736 No se trataba de a quién votar. 1224 01:12:46,362 --> 01:12:50,574 Se trataba de sembrar el caos y la división en la sociedad. 1225 01:12:50,657 --> 01:12:53,035 Una marcha en la playa de Huntington... 1226 01:12:53,118 --> 01:12:54,870 Se trata de crear dos bandos 1227 01:12:54,953 --> 01:12:56,413 que no se escuchaban, 1228 01:12:56,497 --> 01:12:58,123 que no querían escucharse, 1229 01:12:58,207 --> 01:12:59,875 que no confiaban en el otro. 1230 01:12:59,958 --> 01:13:02,252 El odio quedó al descubierto 1231 01:13:03,295 --> 01:13:05,464 y se transformó en violencia racial. 1232 01:13:05,547 --> 01:13:07,925 TENSIÓN EN VIRGINIA TRES MUERTOS 1233 01:13:20,145 --> 01:13:20,979 ¡Ben! 1234 01:13:21,605 --> 01:13:22,439 ¡Cassandra! 1235 01:13:22,898 --> 01:13:23,816 - ¡Cass! - ¡Ben! 1236 01:13:23,899 --> 01:13:25,484 ¡Ven aquí! 1237 01:13:27,486 --> 01:13:31,156 Brazos arriba. De rodillas. Al suelo. 1238 01:13:36,120 --> 01:13:37,204 - Calma. - ¡Ben! 1239 01:13:37,287 --> 01:13:38,414 ¡Eh! ¡Manos arriba! 1240 01:13:39,623 --> 01:13:41,291 Date la vuelta. Al suelo. 1241 01:13:56,807 --> 01:13:59,643 ¿Queremos vender este sistema al mejor postor? 1242 01:14:01,145 --> 01:14:05,399 ¿Para que la democracia esté a la venta y podamos manipular a cualquiera, 1243 01:14:05,482 --> 01:14:08,694 soltar una mentira y crear guerras culturales? 1244 01:14:09,236 --> 01:14:10,237 ¿Queremos eso? 1245 01:14:14,658 --> 01:14:16,326 Somos una nación de gente... 1246 01:14:16,952 --> 01:14:18,620 que ya no se habla. 1247 01:14:20,080 --> 01:14:23,000 Somos una nación de gente que no habla con otros 1248 01:14:23,083 --> 01:14:25,127 por el candidato que votan. 1249 01:14:25,919 --> 01:14:28,422 Somos una nación de gente que se ha aislado 1250 01:14:28,505 --> 01:14:30,966 para ver canales que nos dicen que tenemos razón. 1251 01:14:32,259 --> 01:14:35,888 Mi mensaje es que el tribalismo nos está arruinando. 1252 01:14:37,556 --> 01:14:39,183 Destruye nuestro país. 1253 01:14:40,267 --> 01:14:43,020 Los adultos cuerdos no pueden actuar así. 1254 01:14:43,103 --> 01:14:45,314 Si todos tienen derecho a sus hechos, 1255 01:14:45,397 --> 01:14:49,359 no hay necesidad de llegar a un acuerdo ni de que la gente se una. 1256 01:14:49,443 --> 01:14:51,695 No hace falta que la gente interactúe. 1257 01:14:52,321 --> 01:14:56,617 Necesitamos una comprensión común de la realidad. 1258 01:14:57,242 --> 01:14:58,410 O no somos un país. 1259 01:14:58,911 --> 01:15:02,998 La solución es construir más herramientas de IA 1260 01:15:03,081 --> 01:15:08,128 que encuentren patrones de gente usando servicios que nadie usaría. 1261 01:15:08,212 --> 01:15:11,840 Permitimos a los tecnólogos enmarcar esto como un problema 1262 01:15:11,924 --> 01:15:14,009 que están preparados para resolver. 1263 01:15:15,135 --> 01:15:16,470 Eso es mentira. 1264 01:15:17,679 --> 01:15:20,724 La gente habla de la IA como si supiera la verdad. 1265 01:15:21,683 --> 01:15:23,769 La IA no resolverá estos problemas. 1266 01:15:24,269 --> 01:15:27,189 La IA no puede resolver el problema de los bulos. 1267 01:15:28,649 --> 01:15:31,026 Google no tiene la opción de decir: 1268 01:15:31,109 --> 01:15:34,154 "¿Es una conspiración? ¿Es verdad?". 1269 01:15:34,613 --> 01:15:36,240 Porque desconoce la verdad. 1270 01:15:36,823 --> 01:15:40,410 La única verdad que conoce es un clic. 1271 01:15:41,870 --> 01:15:45,123 Si no coincidimos en lo que es verdad 1272 01:15:45,207 --> 01:15:47,584 o en que la verdad existe, 1273 01:15:48,293 --> 01:15:49,294 estamos acabados. 1274 01:15:49,753 --> 01:15:52,089 Este es el problema subyacente, 1275 01:15:52,172 --> 01:15:54,424 porque si no coincidimos en lo que es verdad, 1276 01:15:55,092 --> 01:15:57,803 no podemos salir de ningún problema. 1277 01:16:05,352 --> 01:16:07,729 Sugiramos que siga al Terraplanistas F.C. 1278 01:16:07,813 --> 01:16:10,107 No más deportes. No conecta. 1279 01:16:39,928 --> 01:16:42,764 Mucha gente en Silicon Valley suscribe la teoría 1280 01:16:42,848 --> 01:16:45,225 de que estamos construyendo un supercerebro global 1281 01:16:45,309 --> 01:16:48,020 y los usuarios son neuronas intercambiables, 1282 01:16:48,103 --> 01:16:49,563 ninguno es importante. 1283 01:16:50,230 --> 01:16:53,150 Y subyuga a la gente en este extraño papel 1284 01:16:53,233 --> 01:16:56,069 donde uno es un pequeño elemento informático 1285 01:16:56,153 --> 01:16:58,947 que programamos mediante manipulación conductual 1286 01:16:59,031 --> 01:17:02,367 al servicio de este cerebro gigante, y tú no importas. 1287 01:17:02,451 --> 01:17:06,455 No te pagarán, no te reconocerán, no tendrás autodeterminación. 1288 01:17:06,538 --> 01:17:09,374 Te manipularemos porque eres un nodo, 1289 01:17:09,458 --> 01:17:12,336 hay que programarte, porque es lo que se hace con los nodos. 1290 01:17:20,093 --> 01:17:21,094 Madre mía. 1291 01:17:21,428 --> 01:17:25,390 Cuando piensas en la tecnología y en que es una amenaza existencial, 1292 01:17:25,474 --> 01:17:28,060 es un gran reclamo y... 1293 01:17:29,603 --> 01:17:33,982 es fácil pensar: "Estoy con el móvil... 1294 01:17:35,609 --> 01:17:39,196 navegando, haciendo clic, usándolo. ¿Dónde está la amenaza? 1295 01:17:40,280 --> 01:17:41,615 Hay un superordenador 1296 01:17:41,698 --> 01:17:43,950 al otro lado apuntando a mi cerebro 1297 01:17:44,409 --> 01:17:47,537 que me hizo ver un vídeo. ¿Dónde está la amenaza?". 1298 01:17:54,252 --> 01:17:59,341 No se trata de que la tecnología sea la amenaza existencial. 1299 01:18:02,386 --> 01:18:04,346 VISTA SOBRE TECNOLOGÍA PERSUASIVA 1300 01:18:04,429 --> 01:18:08,850 Es la capacidad de la tecnología para sacar lo peor de la sociedad, 1301 01:18:09,559 --> 01:18:13,522 y lo peor de la sociedad es la amenaza existencial. 1302 01:18:13,605 --> 01:18:15,899 SENADO DE LOS ESTADOS UNIDOS 1303 01:18:18,819 --> 01:18:23,073 Si la tecnología crea un caos masivo, 1304 01:18:23,156 --> 01:18:24,533 indignación, incivismo, 1305 01:18:24,616 --> 01:18:26,326 desconfianza, 1306 01:18:27,452 --> 01:18:30,622 soledad, alienación, más polarización, 1307 01:18:30,706 --> 01:18:33,333 más pirateo electoral, más populismo, 1308 01:18:33,917 --> 01:18:36,962 distracción e incapacidad para centrarse en los problemas reales... 1309 01:18:37,963 --> 01:18:39,214 es solo sociedad. 1310 01:18:40,340 --> 01:18:46,388 Y ahora la sociedad es incapaz de curarse 1311 01:18:46,471 --> 01:18:48,515 y se convierte en un caos. 1312 01:18:51,977 --> 01:18:54,938 Afecta a todos, incluso si no usas estos productos. 1313 01:18:55,021 --> 01:18:57,524 Son Frankensteins digitales 1314 01:18:57,607 --> 01:19:00,068 que transforman el mundo a su imagen, 1315 01:19:00,152 --> 01:19:04,489 ya sea la salud mental infantil, la política o nuestro discurso político, 1316 01:19:04,573 --> 01:19:07,492 sin responsabilizarse por dominar la vida pública. 1317 01:19:07,576 --> 01:19:10,537 - Vuelve a... - ¿Y quién es responsable? 1318 01:19:10,620 --> 01:19:13,582 Debemos hacer que las plataformas sean responsables 1319 01:19:13,665 --> 01:19:17,794 cuando controlen la publicidad electoral, que protejan las elecciones. 1320 01:19:17,878 --> 01:19:20,380 Cuando controlan los dibujos infantiles, 1321 01:19:20,464 --> 01:19:22,716 son responsables del contenido. 1322 01:19:23,717 --> 01:19:27,929 La carrera por llamar la atención no va a desaparecer. 1323 01:19:28,388 --> 01:19:31,850 La tecnología se integrará más en nuestras vidas, no menos. 1324 01:19:31,933 --> 01:19:34,895 La IA predecirá mejor lo que nos engancha, 1325 01:19:34,978 --> 01:19:37,105 no peor. 1326 01:19:38,940 --> 01:19:42,027 Tengo 62 años, 1327 01:19:42,110 --> 01:19:45,155 y envejezco conforme hablamos, 1328 01:19:45,238 --> 01:19:47,365 pero les diré que... 1329 01:19:48,700 --> 01:19:52,370 seguro que voy a morir y estaré agradecido 1330 01:19:52,454 --> 01:19:54,414 cuando esto llegue a buen puerto. 1331 01:19:54,790 --> 01:19:59,586 Porque me aterroriza profundamente. 1332 01:20:00,921 --> 01:20:03,048 ¿Piensan lo mismo? 1333 01:20:03,548 --> 01:20:06,968 ¿O estoy exagerando ante una situación que no conozco bien? 1334 01:20:09,638 --> 01:20:11,598 ¿Qué es lo que más te preocupaba? 1335 01:20:15,519 --> 01:20:18,480 A corto plazo... 1336 01:20:19,523 --> 01:20:20,524 la guerra civil. 1337 01:20:24,444 --> 01:20:29,908 Si las cosas siguen como hasta ahora otros 20 años... 1338 01:20:31,117 --> 01:20:34,579 destruiremos la civilización por la ignorancia deliberada. 1339 01:20:34,663 --> 01:20:37,958 No superaremos el reto del cambio climático. 1340 01:20:38,041 --> 01:20:42,087 Probablemente degrademos las democracias mundiales 1341 01:20:42,170 --> 01:20:46,132 para que caigan en una extraña disfunción autocrática. 1342 01:20:46,216 --> 01:20:48,426 Arruinaremos la economía global. 1343 01:20:49,177 --> 01:20:52,264 Probablemente no sobrevivamos. 1344 01:20:52,347 --> 01:20:54,808 Lo veo como existencial. 1345 01:21:02,524 --> 01:21:04,985 ¿Es esta la última generación 1346 01:21:05,068 --> 01:21:08,488 que sabrá cómo era antes de que ocurriera esta ilusión? 1347 01:21:11,074 --> 01:21:14,578 ¿Cómo te despiertas del Matrix si no sabes que estás en él? 1348 01:21:17,747 --> 01:21:23,253 "YA SEA UTOPÍA U OLVIDO SERÁ UNA CARRERA DE RELEVOS 1349 01:21:23,336 --> 01:21:27,299 HASTA EL ÚLTIMO MOMENTO...". 1350 01:21:27,382 --> 01:21:30,635 Mucho de lo que decimos parece... 1351 01:21:31,511 --> 01:21:33,597 una fatalidad unilateral. 1352 01:21:33,680 --> 01:21:36,808 En plan: "Dios, la tecnología está arruinando el mundo 1353 01:21:36,892 --> 01:21:38,059 y a los niños", 1354 01:21:38,143 --> 01:21:39,269 y... no. 1355 01:21:40,228 --> 01:21:45,567 Es confuso porque es utopía y distopía. 1356 01:21:45,942 --> 01:21:50,447 Podría presionar un botón de mi móvil y un coche aparece en 30 segundos 1357 01:21:50,530 --> 01:21:52,699 y puedo ir adonde necesite. 1358 01:21:52,782 --> 01:21:55,660 Eso es magia. Es increíble. 1359 01:21:56,161 --> 01:21:57,662 Al hacer el botón "Me gusta", 1360 01:21:57,746 --> 01:22:01,499 la motivación era: "¿Podemos difundir positividad y amor?". 1361 01:22:01,583 --> 01:22:05,003 La idea de que hoy los adolescentes se deprimirían 1362 01:22:05,086 --> 01:22:06,379 si no tienen suficientes 1363 01:22:06,463 --> 01:22:09,883 o que podría llevar a la polarización política era inimaginable. 1364 01:22:09,966 --> 01:22:12,135 No creo que decidieran ser malvados. 1365 01:22:13,511 --> 01:22:15,764 El problema es el modelo de negocio. 1366 01:22:15,847 --> 01:22:20,226 Podrías cerrar el servicio y destruir lo que sea, 1367 01:22:20,310 --> 01:22:24,522 20 000 millones de dólares de valor accionarial y que te denuncien... 1368 01:22:24,606 --> 01:22:27,108 Pero no puedes volver atrás en el tiempo. 1369 01:22:27,192 --> 01:22:30,403 Puedes hacer algunos retoques, pero al final, 1370 01:22:30,487 --> 01:22:34,032 tienes que aumentar los ingresos y el uso cada trimestre. 1371 01:22:34,658 --> 01:22:37,535 Cuanto más grande sea, más costará cambiarlo. 1372 01:22:38,495 --> 01:22:43,458 Lo que veo es un grupo de personas atrapadas por un modelo de negocio, 1373 01:22:43,541 --> 01:22:46,169 un incentivo económico y la presión de los accionistas 1374 01:22:46,252 --> 01:22:48,922 que hace casi imposible cambiarlo. 1375 01:22:49,005 --> 01:22:53,176 Debemos aceptar que está bien que las empresas busquen ganar dinero. 1376 01:22:53,259 --> 01:22:56,888 Lo que está mal es que no haya normas, reglas ni competencia, 1377 01:22:56,972 --> 01:23:00,850 y las empresas actúen como gobiernos de facto. 1378 01:23:00,934 --> 01:23:03,353 Y digan: "Podemos autorregularnos". 1379 01:23:03,436 --> 01:23:05,981 Es solo una mentira. Es ridículo. 1380 01:23:06,064 --> 01:23:09,150 Los estímulos financieros son la base del mundo, 1381 01:23:09,234 --> 01:23:15,573 así que cualquier solución a este problema tiene que realinearlos. 1382 01:23:16,074 --> 01:23:18,785 No hay razón fiscal para que cambien. 1383 01:23:18,868 --> 01:23:21,329 Y por eso necesitamos una reglamentación. 1384 01:23:21,413 --> 01:23:24,290 Las compañías telefónicas tienen datos nuestros 1385 01:23:24,374 --> 01:23:27,544 y hay leyes que aseguran que hagan lo correcto. 1386 01:23:27,627 --> 01:23:31,506 Casi no tenemos leyes sobre privacidad digital, por ejemplo. 1387 01:23:31,589 --> 01:23:34,426 Podríamos gravar la recogida de datos. 1388 01:23:34,509 --> 01:23:37,554 De la misma forma que pagas la factura del agua 1389 01:23:37,637 --> 01:23:39,723 controlando la cantidad que usas, 1390 01:23:39,806 --> 01:23:43,226 gravas a las empresas por los activos de datos que tienen. 1391 01:23:43,309 --> 01:23:44,769 Les da una razón fiscal 1392 01:23:44,853 --> 01:23:47,856 para no obtener todos los datos del planeta. 1393 01:23:47,939 --> 01:23:50,567 La ley va muy por detrás de estas cosas, 1394 01:23:50,650 --> 01:23:55,864 pero lo que sé es que la situación actual no existe para proteger a los usuarios, 1395 01:23:55,947 --> 01:23:58,700 sino para proteger los derechos y privilegios 1396 01:23:58,783 --> 01:24:01,453 de estas empresas gigantescas y ricas. 1397 01:24:02,245 --> 01:24:05,832 ¿Siempre vamos a ceder ante los más ricos y poderosos? 1398 01:24:05,915 --> 01:24:07,417 ¿O vamos a decir: 1399 01:24:07,959 --> 01:24:12,047 "Hay veces que hay un interés nacional, 1400 01:24:12,130 --> 01:24:15,592 a veces los intereses de la gente, de los consumidores, 1401 01:24:15,675 --> 01:24:17,385 son más importantes 1402 01:24:18,011 --> 01:24:21,473 que los beneficios de alguien que ya es multimillonario"? 1403 01:24:21,890 --> 01:24:26,603 Estos mercados socavan la democracia y la libertad 1404 01:24:26,686 --> 01:24:28,521 y deberían ser prohibidos. 1405 01:24:29,147 --> 01:24:31,816 No es una propuesta radical. 1406 01:24:31,900 --> 01:24:34,194 Hay otros mercados que prohibimos. 1407 01:24:34,277 --> 01:24:36,988 Prohibimos los mercados de órganos humanos. 1408 01:24:37,072 --> 01:24:39,491 Prohibimos los mercados de esclavos. 1409 01:24:39,949 --> 01:24:44,037 Porque tienen consecuencias destructivas. 1410 01:24:44,537 --> 01:24:45,830 Vivimos en un mundo 1411 01:24:45,914 --> 01:24:50,001 en el que un árbol vale más, económicamente, muerto que vivo, 1412 01:24:50,085 --> 01:24:53,838 en un mundo en el que una ballena vale más muerta que viva. 1413 01:24:53,922 --> 01:24:58,134 Mientras la economía funcione así y las corporaciones no se regulen, 1414 01:24:58,218 --> 01:25:00,678 van a seguir destruyendo árboles, 1415 01:25:00,762 --> 01:25:01,763 matando ballenas 1416 01:25:01,846 --> 01:25:06,101 explotando la tierra y sacando petróleo del suelo, 1417 01:25:06,184 --> 01:25:08,436 aunque sepamos que destruye el planeta 1418 01:25:08,520 --> 01:25:12,148 y que dejará un mundo peor para las generaciones futuras. 1419 01:25:12,232 --> 01:25:13,858 Piensan a corto plazo 1420 01:25:13,942 --> 01:25:16,694 por la religión del lucro a toda costa, 1421 01:25:16,778 --> 01:25:20,156 como si el que cada empresa actúe en su propio interés 1422 01:25:20,240 --> 01:25:21,950 produzca el mejor resultado. 1423 01:25:22,033 --> 01:25:24,494 Esto ha afectado al medio ambiente. 1424 01:25:24,577 --> 01:25:29,207 Lo qué es aterrador y nos hará despertar como civilización 1425 01:25:29,290 --> 01:25:31,709 sobre lo errónea que ha sido esta teoría 1426 01:25:31,793 --> 01:25:35,004 es ver que ahora somos el árbol, somos la ballena. 1427 01:25:35,088 --> 01:25:37,048 Pueden explotar nuestra atención. 1428 01:25:37,132 --> 01:25:41,594 Somos más rentables para una empresa si pasamos tiempo mirando una pantalla, 1429 01:25:41,678 --> 01:25:42,971 mirando un anuncio, 1430 01:25:43,054 --> 01:25:45,890 que si aprovechamos ese tiempo. 1431 01:25:45,974 --> 01:25:47,559 Y vemos los resultados. 1432 01:25:47,642 --> 01:25:50,645 Vemos empresas que usan una IA poderosa 1433 01:25:50,728 --> 01:25:53,648 para engañarnos y ver cómo captar nuestra atención 1434 01:25:53,731 --> 01:25:55,358 para que veamos lo que quieren, 1435 01:25:55,441 --> 01:25:59,237 en vez de lo que encaja con nuestras metas, valores y vidas. 1436 01:26:02,991 --> 01:26:04,450 ORADOR PRINCIPAL DE HOY 1437 01:26:05,535 --> 01:26:06,911 Para mí un ordenador es 1438 01:26:06,995 --> 01:26:10,290 la herramienta más extraordinaria que hemos inventado. 1439 01:26:11,124 --> 01:26:13,877 Es como una bicicleta para nuestras mentes. 1440 01:26:15,628 --> 01:26:20,091 Silicon Valley empezó por la idea de la tecnología humana. 1441 01:26:21,050 --> 01:26:25,722 Y lo hemos olvidado porque se convirtió en algo guay, 1442 01:26:25,805 --> 01:26:27,265 en lugar de lo correcto. 1443 01:26:27,348 --> 01:26:29,726 Internet era un sitio raro, de locos. 1444 01:26:29,809 --> 01:26:31,394 Era algo experimental. 1445 01:26:31,477 --> 01:26:34,731 Ha habido cosas creativas en Internet y aún las hay, 1446 01:26:34,814 --> 01:26:38,610 pero parece un centro comercial gigante. 1447 01:26:38,693 --> 01:26:44,157 Para mí es: "Dios, tiene que haber más que eso". 1448 01:26:46,743 --> 01:26:48,411 Supongo que soy optimista. 1449 01:26:48,494 --> 01:26:52,040 Porque podemos cambiar el significado de las redes sociales. 1450 01:26:54,083 --> 01:26:57,921 El funcionamiento de la tecnología no es una ley de la física. 1451 01:26:58,004 --> 01:27:02,175 Son decisiones que los humanos como yo hemos tomado. 1452 01:27:02,759 --> 01:27:05,345 Y podemos cambiar esas tecnologías. 1453 01:27:06,971 --> 01:27:09,974 La pregunta es si estamos dispuestos a admitir 1454 01:27:10,475 --> 01:27:15,438 que esos malos resultados vienen como producto de nuestro trabajo. 1455 01:27:20,902 --> 01:27:24,864 Que hemos construido esto y tenemos la responsabilidad de cambiarlo. 1456 01:27:37,210 --> 01:27:42,298 El modelo de extracción de atención no es como queremos tratar a los humanos. 1457 01:27:46,094 --> 01:27:48,137 ¿Soy yo o...? 1458 01:27:49,847 --> 01:27:50,848 Qué pringado. 1459 01:27:51,432 --> 01:27:53,226 El tejido de una sociedad sana 1460 01:27:53,309 --> 01:27:56,145 depende de que eliminemos este modelo de negocio. 1461 01:28:04,529 --> 01:28:07,907 Podemos exigir que estos productos se diseñen humanamente. 1462 01:28:09,409 --> 01:28:13,121 Podemos exigir que no nos traten como un recurso extraíble. 1463 01:28:15,081 --> 01:28:18,376 La intención debe ser: "¿Cómo podemos mejorar el mundo?". 1464 01:28:20,461 --> 01:28:23,798 A lo largo de la historia, cada vez que algo ha mejorado 1465 01:28:23,881 --> 01:28:28,428 es porque alguien ha dicho: "Esto es ridículo. Podemos mejorarlo". 1466 01:28:29,178 --> 01:28:32,557 Son las críticas las que impulsan la mejora. 1467 01:28:32,890 --> 01:28:35,393 Los críticos son los verdaderos optimistas. 1468 01:28:38,313 --> 01:28:39,147 Hola. 1469 01:28:46,195 --> 01:28:47,697 Parece una locura, ¿no? 1470 01:28:47,780 --> 01:28:51,534 Es que la forma fundamental en que está diseñado... 1471 01:28:52,994 --> 01:28:54,704 no va en una buena dirección. 1472 01:28:55,246 --> 01:28:56,873 Nada de ello. 1473 01:28:56,956 --> 01:29:00,626 Parece una locura decir que tenemos que cambiar todo eso, 1474 01:29:01,169 --> 01:29:02,670 pero es necesario. 1475 01:29:04,255 --> 01:29:05,923 ¿Crees que lo conseguiremos? 1476 01:29:07,091 --> 01:29:08,301 Tenemos que hacerlo. 1477 01:29:21,314 --> 01:29:24,942 Pareces muy optimista. 1478 01:29:26,194 --> 01:29:27,195 ¿Eso parezco? 1479 01:29:27,653 --> 01:29:30,114 Sí, bueno... Es increíble que lo digas 1480 01:29:30,198 --> 01:29:33,409 porque pienso: "¿En serio? Vamos hacia la distopía. 1481 01:29:33,493 --> 01:29:37,830 Vamos por la vía rápida y necesitaremos un milagro para evitarlo". 1482 01:29:37,914 --> 01:29:40,291 Y ese milagro es la voluntad colectiva. 1483 01:29:41,000 --> 01:29:44,587 Soy optimista sobre que lo vamos a solucionar, 1484 01:29:44,670 --> 01:29:47,048 pero creo que llevará mucho tiempo. 1485 01:29:47,131 --> 01:29:50,385 Porque no todos reconocen que esto es un problema. 1486 01:29:50,468 --> 01:29:55,890 Uno de los grandes fallos tecnológicos 1487 01:29:55,973 --> 01:29:58,643 es la falta de liderazgo, 1488 01:29:58,726 --> 01:30:01,979 la falta de gente que sea sincera 1489 01:30:02,063 --> 01:30:05,900 no solo sobre lo que salió bien, sino sobre lo que no es perfecto 1490 01:30:05,983 --> 01:30:08,194 para que alguien pueda arreglarlo. 1491 01:30:08,277 --> 01:30:10,321 A fin de cuentas, 1492 01:30:10,405 --> 01:30:14,617 la cosa no va a cambiar hasta que haya mucha presión pública. 1493 01:30:14,700 --> 01:30:18,329 Al tener estas conversaciones y expresar tu opinión, 1494 01:30:18,413 --> 01:30:21,082 a veces a través de estas tecnologías, 1495 01:30:21,165 --> 01:30:24,252 podemos cambiar la tendencia y el discurso. 1496 01:30:24,335 --> 01:30:27,004 Sonará raro, pero es mi mundo, mi comunidad. 1497 01:30:27,088 --> 01:30:29,590 No guardo rencor hacia Google o Facebook. 1498 01:30:29,674 --> 01:30:32,885 Solo quiero reformarlos para que no destruyan el mundo. 1499 01:30:32,969 --> 01:30:35,513 He desinstalado un montón de aplicaciones 1500 01:30:35,596 --> 01:30:37,723 que me hacían perder el tiempo. 1501 01:30:37,807 --> 01:30:42,478 Las de redes sociales, las de noticias, y he desactivado las notificaciones 1502 01:30:42,603 --> 01:30:45,815 sobre cualquier cosa que vibrara con información 1503 01:30:45,898 --> 01:30:48,943 que no fuera oportuna e importante para mí. 1504 01:30:49,026 --> 01:30:51,279 Igual que no llevo galletas en el bolsillo. 1505 01:30:51,362 --> 01:30:54,407 - Reduce los avisos. - Desactiva las notificaciones. 1506 01:30:54,532 --> 01:30:55,950 Desactiva las notificaciones. 1507 01:30:56,033 --> 01:30:58,536 Ya no uso Google, uso Qwant, 1508 01:30:58,619 --> 01:31:01,497 que no almacena tu historial de búsqueda. 1509 01:31:01,581 --> 01:31:04,500 No aceptes un vídeo que te recomienden en YouTube. 1510 01:31:04,584 --> 01:31:07,003 Siempre elige. Es otra forma de luchar. 1511 01:31:07,086 --> 01:31:12,133 Hay un montón de extensiones de Chrome que eliminan las recomendaciones. 1512 01:31:12,216 --> 01:31:15,636 Mola que recomiendes algo para deshacer lo que has hecho. 1513 01:31:15,720 --> 01:31:16,554 Sí. 1514 01:31:16,929 --> 01:31:21,642 Antes de compartir, verifica la fuente, haz esa búsqueda extra. 1515 01:31:21,726 --> 01:31:25,104 Si parece diseñado para activar tus botones emocionales, 1516 01:31:25,188 --> 01:31:26,314 lo será. 1517 01:31:26,397 --> 01:31:29,025 Básicamente, votas con tus clics. 1518 01:31:29,108 --> 01:31:30,359 Si picas en el cebo, 1519 01:31:30,443 --> 01:31:33,779 creas un incentivo financiero que perpetúa este sistema. 1520 01:31:33,863 --> 01:31:36,949 Asegúrate de obtener mucha información distinta 1521 01:31:37,033 --> 01:31:37,909 en tu vida. 1522 01:31:37,992 --> 01:31:40,995 Sigo a gente en Twitter con la que no coincido, 1523 01:31:41,078 --> 01:31:44,207 porque quiero ver diferentes puntos de vista. 1524 01:31:44,665 --> 01:31:49,045 Mucha gente de la tecnología no les da estos dispositivos a sus hijos. 1525 01:31:49,128 --> 01:31:51,088 Mis hijos no usan redes sociales. 1526 01:31:51,964 --> 01:31:53,549 ¿Es una regla o es...? 1527 01:31:53,633 --> 01:31:54,509 Es una regla. 1528 01:31:55,092 --> 01:31:57,845 Somos cuidadosos con eso. 1529 01:31:57,929 --> 01:31:59,222 Unos fanáticos. 1530 01:31:59,305 --> 01:32:05,603 Y no dejamos que nuestros hijos estén delante de la pantalla. 1531 01:32:05,686 --> 01:32:08,564 Tengo tres reglas simples 1532 01:32:08,648 --> 01:32:12,610 que facilitan la vida y que están justificadas por la investigación. 1533 01:32:12,693 --> 01:32:17,281 La primera es: nada de dispositivos en el dormitorio a determinada hora. 1534 01:32:17,365 --> 01:32:20,535 Media hora antes de acostarse, fuera dispositivos. 1535 01:32:20,618 --> 01:32:24,038 La segunda es: nada de redes sociales hasta el instituto. 1536 01:32:24,121 --> 01:32:26,374 Creo que debería ser a los 16 años. 1537 01:32:26,457 --> 01:32:28,960 La secundaria ya es difícil. Déjalas para el instituto. 1538 01:32:29,043 --> 01:32:32,964 Y la tercera es: administrar el tiempo con tu hijo. 1539 01:32:33,047 --> 01:32:34,757 Si hablas con ellos y dices: 1540 01:32:34,840 --> 01:32:37,927 "¿Cuántas horas al día quieres usar tu dispositivo, 1541 01:32:38,010 --> 01:32:41,597 ¿cuál es una buena cantidad?", suelen decir algo razonable. 1542 01:32:42,056 --> 01:32:44,642 Sé perfectamente 1543 01:32:44,725 --> 01:32:48,563 que no voy a hacer que todos borren sus cuentas de redes sociales, 1544 01:32:48,646 --> 01:32:50,439 pero algunos sí, 1545 01:32:50,523 --> 01:32:54,402 y conseguir que algunas personas borren sus cuentas importa mucho, 1546 01:32:54,485 --> 01:32:58,406 y el motivo es que crea el espacio para una conversación, 1547 01:32:58,489 --> 01:33:00,908 porque quiero que haya suficiente gente 1548 01:33:00,992 --> 01:33:05,204 que esté libre de manipulación para tener una conversación social 1549 01:33:05,288 --> 01:33:10,126 que no esté limitada por la manipulación. ¡Hacedlo! Salid del sistema. 1550 01:33:10,209 --> 01:33:12,503 Borradlas. Fuera estupideces. 1551 01:33:13,546 --> 01:33:16,507 El mundo es precioso. Fuera se está genial. 1552 01:33:18,467 --> 01:33:21,887 ¡SÍGUENOS EN LAS REDES SOCIALES! ES BROMA. 1553 01:33:21,971 --> 01:33:27,476 HABLEMOS DE ARREGLARLO. THESOCIALDILEMMA.COM 1554 01:33:32,064 --> 01:33:34,609 Subtítulos: Carlos Aparicio