1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX
2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX
3
00:00:19,978 --> 00:00:24,774
"NADA GRANDE ACONTECE EN LA VIDA
DE LOS MORTALES SIN UNA MALDICIÓN".
4
00:00:24,858 --> 00:00:27,861
SÓFOCLES
5
00:00:31,156 --> 00:00:34,659
Adelante. Sí, siéntate, ponte cómodo.
6
00:00:37,495 --> 00:00:38,580
¿Estás bien? Vale.
7
00:00:38,663 --> 00:00:39,497
Sí.
8
00:00:43,043 --> 00:00:44,419
Toma uno, marca.
9
00:00:46,880 --> 00:00:48,923
¿Quieres empezar presentándote?
10
00:00:50,467 --> 00:00:53,344
Hola, gente. Bailey. Toma tres.
11
00:00:53,970 --> 00:00:56,222
- ¿Estás bien?
- Esta es la peor parte.
12
00:00:57,515 --> 00:00:58,516
No me gusta esto.
13
00:00:59,851 --> 00:01:02,228
Trabajé en Facebook en 2011 y 2012.
14
00:01:02,312 --> 00:01:05,190
Fui una de las primeras empleadas
de Instagram.
15
00:01:05,273 --> 00:01:08,693
Trabajé en Google y YouTube.
16
00:01:08,777 --> 00:01:11,696
Apple, Google, Twitter, Palm.
17
00:01:12,739 --> 00:01:15,533
Ayudé a iniciar Mozilla Labs
y pasé a Firefox.
18
00:01:15,617 --> 00:01:17,994
¿Estamos rodando? Todos...
19
00:01:18,078 --> 00:01:18,953
Genial.
20
00:01:21,206 --> 00:01:26,169
Trabajé en Twitter. Mi último trabajo fue
el de vicepresidente de ingeniería.
21
00:01:27,420 --> 00:01:29,255
Era el presidente de Pinterest.
22
00:01:29,339 --> 00:01:34,260
Antes de eso, fui director de monetización
en Facebook durante cinco años.
23
00:01:34,344 --> 00:01:37,806
Dirigí la plataforma de desarrollo
de Twitter
24
00:01:37,889 --> 00:01:40,225
y llegué a jefe de producto de consumo.
25
00:01:40,308 --> 00:01:44,270
Fui el coinventor de Google Drive,
el chat de Gmail,
26
00:01:44,354 --> 00:01:47,357
las páginas de Facebook
y el botón "Me gusta".
27
00:01:47,440 --> 00:01:50,777
Sí. Por eso pasé ocho meses
28
00:01:50,860 --> 00:01:52,779
hablando con abogados.
29
00:01:54,030 --> 00:01:55,406
Esto me asusta.
30
00:01:58,409 --> 00:02:02,914
Cuando estaba allí, siempre sentía
que era una fuerza positiva.
31
00:02:03,373 --> 00:02:05,375
No sé si ahora me siento así.
32
00:02:05,458 --> 00:02:10,588
Dejé Google en junio de 2017
por motivos éticos.
33
00:02:10,672 --> 00:02:14,134
Y no solo en Google,
sino en toda la industria.
34
00:02:14,217 --> 00:02:15,468
Estoy muy preocupado.
35
00:02:16,719 --> 00:02:17,679
Mucho.
36
00:02:19,097 --> 00:02:21,808
Hoy es fácil perder de vista
37
00:02:21,891 --> 00:02:27,814
que estas herramientas han creado
cosas maravillosas en el mundo.
38
00:02:27,897 --> 00:02:31,943
Han reunido a familiares,
han encontrado donantes de órganos...
39
00:02:32,026 --> 00:02:35,613
Hubo cambios sistémicos importantes
y positivos
40
00:02:35,697 --> 00:02:37,866
en todo el mundo
41
00:02:37,949 --> 00:02:40,201
debido a estas plataformas.
42
00:02:40,827 --> 00:02:44,539
Fuimos ingenuos
con la otra cara de la moneda.
43
00:02:45,540 --> 00:02:48,585
Sí, sueltas estas cosas
y cobran vida propia.
44
00:02:48,668 --> 00:02:52,005
Y el uso que se les da
es muy diferente del esperado.
45
00:02:52,088 --> 00:02:56,509
Creo que nadie buscaba
ninguna de estas consecuencias.
46
00:02:56,593 --> 00:02:59,554
No hay ningún malo. No. Claro que no.
47
00:03:01,639 --> 00:03:03,600
Entonces, ¿cuál es el problema?
48
00:03:08,771 --> 00:03:11,357
¿Hay algún problema y cuál sería?
49
00:03:18,406 --> 00:03:22,118
Sí, es difícil dar un solo...
Hay muchos problemas que comentar.
50
00:03:22,202 --> 00:03:23,578
¿Cuál es el problema?
51
00:03:28,208 --> 00:03:32,253
UN DOCUMENTAL ORIGINAL DE NETFLIX
52
00:03:33,588 --> 00:03:37,634
A pesar de las críticas,
las grandes empresas tecnológicas crecen.
53
00:03:37,717 --> 00:03:40,929
La industria tecnológica está
bajo un nuevo escrutinio.
54
00:03:41,012 --> 00:03:43,556
Un nuevo estudio arroja luz
sobre el vínculo
55
00:03:43,640 --> 00:03:46,142
entre la salud mental
y las redes sociales.
56
00:03:46,226 --> 00:03:48,770
Vengo a hablar
de la última investigación...
57
00:03:49,187 --> 00:03:51,397
...que no tiene cobertura.
58
00:03:51,481 --> 00:03:54,108
Hay millones de estadounidenses adictos
59
00:03:54,192 --> 00:03:56,319
a sus dispositivos electrónicos.
60
00:03:56,402 --> 00:03:59,364
Se agrava por el hecho
de que uno puede aislarse...
61
00:03:59,447 --> 00:04:00,698
TE HAN ETIQUETADO EN UNA FOTO
62
00:04:00,782 --> 00:04:02,742
...gracias a nuestra tecnología.
63
00:04:02,825 --> 00:04:06,788
Los bulos son más avanzados
y amenazan a las sociedades mundiales.
64
00:04:06,871 --> 00:04:10,291
No esperábamos esto
al crear Twitter hace más de 12 años.
65
00:04:10,375 --> 00:04:12,502
Según las autoridades,
no hay motivos para creer
66
00:04:12,585 --> 00:04:14,754
que cesarán los ciberataques rusos.
67
00:04:14,837 --> 00:04:18,132
YouTube se ve obligado a hacer limpieza.
68
00:04:18,216 --> 00:04:21,552
TikTok, si hablas con algún adolescente,
69
00:04:21,636 --> 00:04:24,013
verás que es imposible que lo borren...
70
00:04:24,097 --> 00:04:26,266
Isla, ¿puedes preparar la mesa?
71
00:04:26,349 --> 00:04:30,061
Hay dudas sobre si las redes sociales
deprimen a nuestros hijos.
72
00:04:30,144 --> 00:04:32,021
Isla, ¿puedes poner la mesa?
73
00:04:32,105 --> 00:04:35,316
Es cada vez más popular
entre los adolescentes
74
00:04:35,400 --> 00:04:37,860
y se ha acuñado un nuevo síndrome:
75
00:04:37,944 --> 00:04:40,905
dismorfia de Snapchat,
jóvenes que quieren operarse
76
00:04:40,989 --> 00:04:43,741
para parecer selfies con filtros.
77
00:04:43,825 --> 00:04:45,910
No entiendo por qué le dejas eso.
78
00:04:45,994 --> 00:04:47,537
¿Qué iba a hacer?
79
00:04:47,620 --> 00:04:49,580
Todos los de su clase tenían uno.
80
00:04:50,039 --> 00:04:51,165
Solo tiene 11 años.
81
00:04:51,249 --> 00:04:52,959
Nadie te obliga a tener uno.
82
00:04:53,042 --> 00:04:55,086
Desconecta si quieres.
83
00:04:55,169 --> 00:04:59,340
Oye, estoy conectada sin móvil, ¿vale?
Ahora estoy en Internet.
84
00:04:59,424 --> 00:05:03,094
Y eso no es una conexión real.
Es solo un montón de mier...
85
00:05:03,177 --> 00:05:06,514
El capitalismo de vigilancia ha moldeado
nuestra política y cultura
86
00:05:06,597 --> 00:05:08,308
de formas imperceptibles.
87
00:05:08,391 --> 00:05:12,812
El EI ha inspirado a sus seguidores
y los supremacistas blancos los imitan.
88
00:05:12,895 --> 00:05:14,147
En la India,
89
00:05:14,230 --> 00:05:17,442
las turbas han matado
a una docena de personas...
90
00:05:17,525 --> 00:05:20,361
No son solo bulos, tienen consecuencias.
91
00:05:20,445 --> 00:05:24,073
¿Cómo se maneja una epidemia
en la era de los bulos?
92
00:05:24,157 --> 00:05:26,993
¿Puedes contraer el coronavirus
con comida china?
93
00:05:27,535 --> 00:05:32,540
Hemos pasado de la era de la información
a la de la desinformación.
94
00:05:32,623 --> 00:05:34,667
Atacan a la democracia.
95
00:05:34,751 --> 00:05:39,005
Lo que dije fue: "Las herramientas
que se han creado empiezan
96
00:05:39,088 --> 00:05:41,799
a corroer
el tejido social de la sociedad".
97
00:06:00,151 --> 00:06:03,446
Asa da un discurso de bienvenida
y ponemos el video.
98
00:06:04,197 --> 00:06:07,325
Y luego:
"Damas y caballeros, Tristan Harris".
99
00:06:07,408 --> 00:06:08,826
- Vale.
- Genial.
100
00:06:08,951 --> 00:06:12,038
Así que subo y...
101
00:06:12,121 --> 00:06:13,790
UNA NUEVA AGENDA TECNOLÓGICA
102
00:06:13,873 --> 00:06:16,042
Digo: "Gracias por venir".
103
00:06:17,919 --> 00:06:22,048
Hoy quiero hablar
de una nueva agenda tecnológica,
104
00:06:22,131 --> 00:06:25,468
y el motivo es
que si le preguntamos a la gente:
105
00:06:25,551 --> 00:06:28,096
"¿Qué ocurre
con la industria tecnológica?",
106
00:06:28,346 --> 00:06:33,893
hay una cacofonía de quejas y escándalos,
de "nos robaron los datos", hay adicción
107
00:06:33,976 --> 00:06:35,978
bulos, polarización
108
00:06:36,062 --> 00:06:37,688
y elecciones pirateadas.
109
00:06:38,189 --> 00:06:41,609
Pero ¿hay algo
que subyace a estos problemas
110
00:06:41,692 --> 00:06:44,654
y que haga que todo esto ocurra a la vez?
111
00:06:46,447 --> 00:06:48,408
- ¿Te parece bien?
- Muy bien. Sí.
112
00:06:50,827 --> 00:06:52,954
Intento.... Quiero que vean...
113
00:06:53,037 --> 00:06:55,206
Hay un problema
en la industria tecnológica.
114
00:06:55,289 --> 00:07:00,211
No tiene nombre
y tiene que ver con una fuente, una...
115
00:07:05,091 --> 00:07:09,387
Cuando miras tu alrededor,
parece que el mundo se vuelve loco.
116
00:07:12,765 --> 00:07:15,143
Tienes que preguntarte si es normal
117
00:07:16,102 --> 00:07:18,771
o si hemos caído bajo algún hechizo.
118
00:07:22,316 --> 00:07:25,111
EX DISEÑADOR ÉTICO DE GOOGLE
119
00:07:25,194 --> 00:07:27,905
COFUNDADOR DEL CENTRO
PARA LA TECNOLOGÍA HUMANA
120
00:07:27,989 --> 00:07:30,450
Ojalá más gente entienda cómo funciona,
121
00:07:30,533 --> 00:07:34,078
porque no debería limitarse
a la industria tecnológica.
122
00:07:34,162 --> 00:07:36,289
Debería saberlo todo el mundo.
123
00:07:47,383 --> 00:07:48,301
- ¡Hola!
- Hola.
124
00:07:48,509 --> 00:07:50,595
- Tristan. Encantado.
- ¿Es Tristan?
125
00:07:50,678 --> 00:07:51,721
- Sí.
- Genial.
126
00:07:53,181 --> 00:07:55,933
Él es un ex diseñador ético de Google
127
00:07:56,017 --> 00:07:59,353
y lo más parecido
a la consciencia de Silicon Valley.
128
00:07:59,437 --> 00:08:00,771
Le pide a la industria
129
00:08:00,855 --> 00:08:04,192
que añada lo que él llama "diseño ético"
a sus productos.
130
00:08:04,275 --> 00:08:06,903
Es raro que un experto sea tan directo,
131
00:08:06,986 --> 00:08:10,114
pero Tristan Harris cree
que alguien debe serlo.
132
00:08:11,282 --> 00:08:12,700
Cuando estaba en Google,
133
00:08:12,783 --> 00:08:16,037
estaba en el equipo de Gmail
y empecé a hartarme,
134
00:08:16,120 --> 00:08:18,372
porque hablábamos mucho sobre...
135
00:08:19,332 --> 00:08:23,169
cómo debería ser la bandeja de entrada
y de qué color debería ser.
136
00:08:23,252 --> 00:08:25,880
Yo me sentía adicto al correo electrónico
137
00:08:26,297 --> 00:08:27,632
y era fascinante
138
00:08:27,715 --> 00:08:31,511
que nadie en Gmail trabajara
para hacerlo menos adictivo.
139
00:08:31,969 --> 00:08:36,390
Pensaba: "¿Alguien más piensa en esto?
No he oído a nadie hablar de ello".
140
00:08:36,849 --> 00:08:41,229
Y me sentía frustrado
con la industria tecnológica,
141
00:08:41,312 --> 00:08:43,147
que habíamos perdido el rumbo.
142
00:08:46,817 --> 00:08:49,820
Me costó mucho averiguar
143
00:08:49,904 --> 00:08:52,573
cómo cambiarlo desde el interior.
144
00:08:55,201 --> 00:08:59,497
Y decidí hacer una presentación,
una especie de llamada a las armas.
145
00:09:00,998 --> 00:09:04,961
Todos los días iba a casa
y trabajaba un par de horas.
146
00:09:06,170 --> 00:09:11,884
Básicamente, decía que nunca antes
en la historia, 50 diseñadores,
147
00:09:12,426 --> 00:09:15,263
blancos de 20 a 35 años, en California,
148
00:09:15,888 --> 00:09:19,725
tomaban decisiones que afectarían
a 2000 millones de personas.
149
00:09:21,018 --> 00:09:24,313
A 2000 millones de personas
se les inculcarán ideas
150
00:09:24,397 --> 00:09:28,401
porque un diseñador de Google dijo:
"Así funcionan las notificaciones
151
00:09:28,484 --> 00:09:30,778
en la pantalla que ves cada mañana".
152
00:09:30,861 --> 00:09:35,283
Y en Google tenemos la responsabilidad
moral de resolver este problema.
153
00:09:36,075 --> 00:09:37,743
Y envié esta presentación
154
00:09:37,827 --> 00:09:41,789
a unos 15 o 20 de mis colegas más cercanos
en Google.
155
00:09:41,872 --> 00:09:44,959
Estaba muy nervioso.
No sabía cómo iba a sentar.
156
00:09:46,460 --> 00:09:50,464
Al día siguiente,
la mayoría tenía la presentación abierta.
157
00:09:50,548 --> 00:09:52,049
ATENCIÓN
158
00:09:52,133 --> 00:09:54,552
Ese día, había 400 espectadores
159
00:09:54,635 --> 00:09:58,014
y seguían aumentando.
Recibí correos de toda la empresa.
160
00:09:58,097 --> 00:10:00,266
En cada departamento me decían:
161
00:10:00,349 --> 00:10:02,852
"Tienes razón, veo cómo afecta a mis hijos
162
00:10:02,935 --> 00:10:06,856
y a la gente de mi alrededor.
Tenemos que hacer algo al respecto".
163
00:10:07,481 --> 00:10:10,818
Parecía que iba a iniciar
una revolución o algo así.
164
00:10:11,861 --> 00:10:15,197
Más tarde, supe que Larry Page
oyó de la presentación
165
00:10:15,281 --> 00:10:17,116
en tres reuniones ese día.
166
00:10:17,950 --> 00:10:20,369
Y creó un momento cultural
167
00:10:20,870 --> 00:10:23,205
que Google debía tomar en serio.
168
00:10:26,000 --> 00:10:28,794
Y luego... nada.
169
00:10:34,300 --> 00:10:36,135
Todos en 2006,
170
00:10:37,219 --> 00:10:39,221
incluidos nosotros en Facebook,
171
00:10:39,305 --> 00:10:43,392
admirábamos a Google
y lo que había construido,
172
00:10:43,476 --> 00:10:47,396
un servicio realmente útil
173
00:10:47,480 --> 00:10:51,442
que, por lo que sabíamos,
realizaba una gran labor por el mundo
174
00:10:51,525 --> 00:10:54,695
y crearon una máquina de hacer dinero.
175
00:10:55,404 --> 00:11:00,034
Sentíamos mucha envidia
y nos parecía muy elegante...
176
00:11:00,826 --> 00:11:02,161
y perfecto.
177
00:11:02,953 --> 00:11:04,914
Facebook llevaba unos dos años
178
00:11:05,873 --> 00:11:08,292
y me contrataron para que averiguara
179
00:11:08,376 --> 00:11:10,586
el modelo de negocio para la empresa.
180
00:11:10,670 --> 00:11:13,506
Era el director de monetización.
La cuestión era:
181
00:11:13,589 --> 00:11:17,051
"Eres la persona que va a averiguar
cómo se monetiza".
182
00:11:17,134 --> 00:11:19,804
Y había mucha gente trabajando mucho,
183
00:11:19,887 --> 00:11:25,476
pero yo era una de las personas
que decía...
184
00:11:26,769 --> 00:11:28,479
que había que hacer dinero...
185
00:11:29,313 --> 00:11:33,651
y este modelo publicitario es
la forma más elegante.
186
00:11:43,077 --> 00:11:44,453
¿Y este vídeo de mamá?
187
00:11:44,537 --> 00:11:47,873
Son entrevistas, pero mola.
El tío es un genio.
188
00:11:47,957 --> 00:11:50,584
Habla de eliminar las redes sociales,
cosa que debes hacer.
189
00:11:50,668 --> 00:11:52,878
Tengo que bloquear sus correos.
190
00:11:52,962 --> 00:11:56,090
No sé de que habla. Ella es aún peor.
191
00:11:56,173 --> 00:11:58,592
- No, solo lo usa para recetas.
- Y para trabajar.
192
00:11:58,676 --> 00:12:00,511
- Y para entrenar.
- Y para vigilarnos.
193
00:12:00,594 --> 00:12:03,013
Y a todos los que ha conocido en su vida.
194
00:12:04,932 --> 00:12:07,893
Si navegas por las redes sociales
195
00:12:07,977 --> 00:12:11,731
mientras nos miras,
deja el maldito teléfono y escucha,
196
00:12:11,814 --> 00:12:14,817
porque el próximo invitado
ha escrito un libro
197
00:12:14,900 --> 00:12:18,112
sobre cómo está destrozando
nuestras vidas.
198
00:12:18,195 --> 00:12:19,447
Recibamos al autor
199
00:12:19,530 --> 00:12:24,452
de Diez razones para borrar
tus redes sociales de inmediato,
200
00:12:24,535 --> 00:12:25,786
Jaron Lanier.
201
00:12:27,997 --> 00:12:31,834
Empresas como Google y Facebook son
de las más ricas
202
00:12:31,917 --> 00:12:33,836
y exitosas de todos los tiempos.
203
00:12:34,295 --> 00:12:36,839
Tienen relativamente pocos empleados.
204
00:12:36,922 --> 00:12:40,468
Tienen un ordenador gigante
que gana dinero.
205
00:12:41,510 --> 00:12:45,222
¿Por qué les pagan?
Es una pregunta muy importante.
206
00:12:47,308 --> 00:12:49,977
He invertido en tecnología
durante 35 años.
207
00:12:50,728 --> 00:12:54,356
En los primeros 50 años de Silicon Valley,
hicieron productos,
208
00:12:54,440 --> 00:12:58,402
hardware, software, que vendían
a clientes, negocios sencillos.
209
00:12:58,486 --> 00:13:01,447
Los últimos diez años,
las empresas más grandes
210
00:13:01,530 --> 00:13:03,866
se han dedicado a vender sus usuarios.
211
00:13:03,949 --> 00:13:05,910
Es un poco trivial decirlo ahora,
212
00:13:05,993 --> 00:13:09,205
pero como no pagamos
por los productos que usamos,
213
00:13:09,288 --> 00:13:12,166
los anunciantes pagan por esos productos.
214
00:13:12,249 --> 00:13:14,210
Los anunciantes son los clientes.
215
00:13:14,460 --> 00:13:16,086
Nosotros somos el producto.
216
00:13:16,170 --> 00:13:17,630
El dicho clásico es:
217
00:13:17,713 --> 00:13:21,592
"Si no pagas por el producto,
eres el producto".
218
00:13:21,675 --> 00:13:23,302
TÚ ERES EL PRODUCTO
219
00:13:23,385 --> 00:13:27,223
Muchos piensan:
"Google es solo un cuadro de búsqueda
220
00:13:27,306 --> 00:13:31,101
y Facebook es para ver
lo que hacen mis amigos y sus fotos".
221
00:13:31,185 --> 00:13:35,481
Pero no se dan cuenta
de que compiten por su atención.
222
00:13:36,524 --> 00:13:41,111
En Facebook, Snapchat,
Twitter, Instagram, YouTube...,
223
00:13:41,195 --> 00:13:45,282
su modelo de negocio es mantener
a la gente enganchada a la pantalla.
224
00:13:46,283 --> 00:13:49,578
Veamos cómo captar
la atención de esta persona
225
00:13:49,662 --> 00:13:50,955
todo lo posible.
226
00:13:51,455 --> 00:13:53,374
¿Cuánto tiempo podemos captarte?
227
00:13:53,874 --> 00:13:56,710
¿Cuánto de tu vida
podemos conseguir que nos des?
228
00:13:58,587 --> 00:14:01,090
Al pensar
en cómo funcionan estas empresas,
229
00:14:01,173 --> 00:14:02,424
tiene sentido.
230
00:14:02,967 --> 00:14:06,095
Tenemos servicios en Internet
que consideramos gratis.
231
00:14:06,178 --> 00:14:09,473
Pero no lo son. Los pagan los anunciantes.
232
00:14:09,557 --> 00:14:11,559
¿Por qué pagan a esas empresas?
233
00:14:11,642 --> 00:14:14,687
Pagan a cambio de mostrarnos sus anuncios.
234
00:14:14,770 --> 00:14:18,357
Somos el producto.
Se vende nuestra atención.
235
00:14:18,816 --> 00:14:20,442
Eso es demasiado simplista.
236
00:14:20,526 --> 00:14:23,821
El producto es el cambio progresivo,
leve e imperceptible
237
00:14:23,904 --> 00:14:26,282
de tu comportamiento y percepción.
238
00:14:26,365 --> 00:14:27,575
CAMBIAR EL COMPORTAMIENTO
Y LA PERCEPCIÓN
239
00:14:27,658 --> 00:14:30,244
Ese es el producto. El único posible.
240
00:14:30,327 --> 00:14:34,081
No hay nada más
que pueda llamarse producto.
241
00:14:34,164 --> 00:14:37,251
Es lo único
con lo que pueden ganar dinero.
242
00:14:37,668 --> 00:14:39,253
Cambiando lo que haces,
243
00:14:39,336 --> 00:14:41,714
cómo piensas, quién eres.
244
00:14:42,631 --> 00:14:45,301
Es un cambio paulatino. Es leve.
245
00:14:45,384 --> 00:14:48,971
Si vas a alguien y le dices:
"Dame diez millones de dólares
246
00:14:49,054 --> 00:14:54,310
y cambiaré el mundo un uno por ciento
en la dirección que quieras...".
247
00:14:54,894 --> 00:14:58,188
¡Es el mundo!
Eso es increíble y vale mucho dinero.
248
00:14:59,315 --> 00:15:00,149
Vale.
249
00:15:00,691 --> 00:15:04,570
Esto es
lo que todos los negocios han soñado,
250
00:15:04,653 --> 00:15:10,910
tener una garantía
de que si pone un anuncio, tendrá éxito.
251
00:15:11,327 --> 00:15:13,996
Ese es su negocio. Venden certeza.
252
00:15:14,079 --> 00:15:14,914
CERTEZA
253
00:15:14,997 --> 00:15:19,710
Para tener éxito en ese negocio,
hay que tener buenas predicciones.
254
00:15:20,044 --> 00:15:24,173
Las buenas predicciones empiezan
con un imperativo.
255
00:15:25,215 --> 00:15:26,926
Se necesitan muchos datos.
256
00:15:27,009 --> 00:15:29,011
DATOS
257
00:15:29,136 --> 00:15:31,555
Lo llaman "capitalismo de vigilancia".
258
00:15:31,639 --> 00:15:34,350
El capitalismo se beneficia
del seguimiento
259
00:15:34,433 --> 00:15:38,062
de grandes empresas tecnológicas
260
00:15:38,145 --> 00:15:40,356
cuyo modelo de negocio es asegurar
261
00:15:40,439 --> 00:15:42,858
que los anunciantes tengan éxito.
262
00:15:42,942 --> 00:15:45,569
Es un nuevo tipo de mercado.
263
00:15:45,653 --> 00:15:48,072
Uno que antes no existía.
264
00:15:48,822 --> 00:15:55,371
Y es un mercado
que se dedica a los futuros humanos.
265
00:15:56,080 --> 00:16:01,585
Igual que hay mercados que negocian
con cerdo o petróleo.
266
00:16:02,127 --> 00:16:07,591
Ahora tenemos mercados que negocian
con futuros humanos a gran escala,
267
00:16:08,175 --> 00:16:13,472
y esos mercados han producido
miles de millones de dólares
268
00:16:14,014 --> 00:16:19,269
que han convertido a las empresas
de Internet en las más ricas
269
00:16:19,353 --> 00:16:22,356
en la historia de la humanidad.
270
00:16:27,444 --> 00:16:31,073
Quiero que la gente sepa
que todo lo que hacen en Internet
271
00:16:31,156 --> 00:16:34,326
se ve, se rastrea, se mide.
272
00:16:35,035 --> 00:16:39,623
Cada acción que uno realiza
es vigilada y registrada.
273
00:16:39,707 --> 00:16:43,836
Exactamente qué imagen miras,
cuánto tiempo la miras.
274
00:16:43,919 --> 00:16:45,796
Sí, cuánto tiempo la miras.
275
00:16:45,879 --> 00:16:47,548
TIEMPO DE INTERACCIÓN
276
00:16:47,631 --> 00:16:49,341
TIEMPO DE INTERACCIÓN
277
00:16:49,425 --> 00:16:50,426
TIEMPO DE INTERACCIÓN
278
00:16:50,509 --> 00:16:53,804
Saben cuándo la gente está sola
y cuándo está deprimida.
279
00:16:53,887 --> 00:16:57,099
Saben cuándo miran fotos de sus exparejas.
280
00:16:57,182 --> 00:17:00,853
Saben lo que haces por la noche,
lo saben todo.
281
00:17:00,936 --> 00:17:03,230
Si eres introvertido o extrovertido
282
00:17:03,313 --> 00:17:06,817
o qué tipo de neurosis tienes,
cómo es tu personalidad.
283
00:17:08,193 --> 00:17:11,613
Tienen más información sobre nosotros
284
00:17:11,697 --> 00:17:14,324
de lo imaginado en la historia humana.
285
00:17:14,950 --> 00:17:16,368
No existen precedentes.
286
00:17:18,579 --> 00:17:22,791
Y todos estos datos
que estamos vertiendo todo el tiempo
287
00:17:22,875 --> 00:17:26,795
se suministran a los sistemas
que casi no tienen supervisión humana
288
00:17:27,463 --> 00:17:30,883
y que hacen predicciones cada vez mejores
289
00:17:30,966 --> 00:17:33,552
sobre lo que haremos y quiénes somos.
290
00:17:34,887 --> 00:17:36,346
RECOMENDADO PARA TI
291
00:17:36,430 --> 00:17:39,558
Muchos creen que nuestros datos se venden.
292
00:17:40,350 --> 00:17:43,187
A Facebook no le interesa
dar los datos gratis.
293
00:17:45,522 --> 00:17:47,107
¿Qué hacen con esos datos?
294
00:17:51,070 --> 00:17:54,490
Construyen modelos
que predicen nuestras acciones.
295
00:17:54,573 --> 00:17:57,618
Y el que tenga el mejor modelo gana.
296
00:18:02,706 --> 00:18:04,041
Cada vez va más lento.
297
00:18:04,124 --> 00:18:07,002
Es el final de la duración media,
menos anuncios.
298
00:18:07,086 --> 00:18:08,337
Menos amigos y familia.
299
00:18:09,463 --> 00:18:11,340
En el otro lado de la pantalla,
300
00:18:11,423 --> 00:18:15,469
es como si tuvieran
un muñeco vudú de nosotros.
301
00:18:16,762 --> 00:18:18,180
Todo lo que hemos hecho,
302
00:18:18,263 --> 00:18:21,642
los clics,
los vídeos que vemos, los "Me gusta",
303
00:18:21,725 --> 00:18:25,354
todo eso crea
un modelo cada vez más preciso.
304
00:18:25,896 --> 00:18:27,481
Cuando tienes el modelo,
305
00:18:27,564 --> 00:18:29,858
puedes predecir qué hace esa persona.
306
00:18:29,942 --> 00:18:31,777
Vale, déjame probar.
307
00:18:32,569 --> 00:18:36,115
Puedo predecir
qué vídeos captarán tu atención.
308
00:18:36,198 --> 00:18:39,159
Puedo predecir qué emociones
te hacen responder.
309
00:18:39,243 --> 00:18:40,410
Sí, perfecto.
310
00:18:41,578 --> 00:18:43,330
El fallo más épico del año.
311
00:18:43,747 --> 00:18:44,665
¡FALLO ÉPICO!
312
00:18:48,627 --> 00:18:51,088
- Perfecto, ha funcionado.
- Otro vídeo.
313
00:18:51,171 --> 00:18:54,049
Genial. Metamos un anuncio
antes de que empiece.
314
00:18:55,968 --> 00:18:59,721
En muchas empresas de tecnología
hay tres objetivos principales.
315
00:18:59,805 --> 00:19:03,517
El aumentar el uso, que sigas navegando.
316
00:19:04,601 --> 00:19:06,145
El crecimiento,
317
00:19:06,228 --> 00:19:08,647
que vuelvas e invites a muchos amigos
318
00:19:08,730 --> 00:19:10,732
y ellos inviten a más amigos.
319
00:19:11,650 --> 00:19:14,987
Y el de la publicidad es
que como todo eso ya ocurre,
320
00:19:15,070 --> 00:19:17,406
ganemos todo el dinero posible.
321
00:19:19,283 --> 00:19:21,994
Estos objetivos
están impulsados por algoritmos
322
00:19:22,077 --> 00:19:24,454
cuyo trabajo es averiguar qué mostrarte
323
00:19:24,538 --> 00:19:26,165
para aumentar esos números.
324
00:19:26,623 --> 00:19:29,918
A menudo,
hablamos en Facebook de la idea
325
00:19:30,002 --> 00:19:34,006
de poder manipularlo según sea necesario.
326
00:19:34,673 --> 00:19:38,594
Y hablamos de que Mark controla eso.
327
00:19:41,305 --> 00:19:44,474
"Oye, hoy quiero más usuarios en Corea".
328
00:19:45,684 --> 00:19:46,602
Dale al botón.
329
00:19:47,436 --> 00:19:49,188
"Aumentemos los anuncios".
330
00:19:49,980 --> 00:19:51,732
"Aumentemos la monetización".
331
00:19:52,858 --> 00:19:55,444
Y así...
332
00:19:55,527 --> 00:19:59,239
En todas estas empresas existe
ese nivel de precisión.
333
00:19:59,990 --> 00:20:02,409
- ¿Cómo...?
- No sé cómo me he librado.
334
00:20:02,492 --> 00:20:05,704
- El árbitro es una mierda.
- Has llegado hasta...
335
00:20:05,787 --> 00:20:07,956
- Es Rebecca. Habla con ella.
- Ya.
336
00:20:08,040 --> 00:20:10,834
- Habla con ella.
- Estoy en ello.
337
00:20:10,918 --> 00:20:14,338
Según su agenda está de descanso.
Deberíamos estar activos.
338
00:20:15,255 --> 00:20:16,465
¿Lo animo?
339
00:20:17,132 --> 00:20:18,050
Sí.
340
00:20:21,595 --> 00:20:24,181
"Tu amigo Tyler acaba de unirse.
Salúdale".
341
00:20:26,016 --> 00:20:27,184
Venga, tío.
342
00:20:27,267 --> 00:20:28,769
Salúdale.
343
00:20:29,394 --> 00:20:31,647
¿Ni siquiera vas...? Habla con ella.
344
00:20:31,730 --> 00:20:34,900
¡TU AMIGO TYLER ACABA DE UNIRSE!
¡SALÚDALE!
345
00:20:36,902 --> 00:20:37,986
CONEXIONES DE RED
346
00:20:38,070 --> 00:20:40,447
¡Nuevo enlace! Vale, vamos.
347
00:20:40,948 --> 00:20:46,078
Sigue con una entrada
del usuario 079044238820, Rebecca.
348
00:20:46,161 --> 00:20:49,790
Buena idea. Las coordenadas indican
que están muy cerca.
349
00:20:52,167 --> 00:20:55,837
¡HE ENCONTRADO A MI ALMA GEMELA!
#MEJORES AMIGOS #CHUPETÓN
350
00:20:55,921 --> 00:20:57,547
Está listo para un anuncio.
351
00:20:57,631 --> 00:20:58,632
A subastar.
352
00:20:58,715 --> 00:21:00,050
ANTICIPO DE ANUNCIO
CERA CAPILAR
353
00:21:00,133 --> 00:21:02,803
¡Vendido a Deep Fade!
354
00:21:03,387 --> 00:21:07,933
Teníamos 468 postores. Vendimos a Ben
a 3,262 centavos por impresión.
355
00:21:17,109 --> 00:21:21,530
Hemos creado un mundo en el que
la conexión en línea es primordial,
356
00:21:21,822 --> 00:21:23,907
especialmente para los más jóvenes,
357
00:21:23,991 --> 00:21:28,328
y, sin embargo, en ese mundo,
cada vez que dos personas se conectan,
358
00:21:29,162 --> 00:21:33,250
la única forma de financiarlo
es a través de una tercera persona
359
00:21:33,333 --> 00:21:35,627
que paga por manipularlas.
360
00:21:36,128 --> 00:21:39,381
Hemos creado
una generación global de personas
361
00:21:39,464 --> 00:21:44,011
que crecen en un contexto
donde el significado de la comunicación,
362
00:21:44,094 --> 00:21:47,431
el significado de la cultura es
la manipulación.
363
00:21:47,514 --> 00:21:49,725
El engaño se ha convertido
364
00:21:49,808 --> 00:21:52,311
en el centro de todo lo que hacemos.
365
00:21:56,356 --> 00:22:01,445
"CUALQUIER TECNOLOGÍA SUFICIENTEMENTE
AVANZADA NO SE DISTINGUE DE LA MAGIA".
366
00:22:05,741 --> 00:22:07,242
- Coge el otro...
- Vale.
367
00:22:07,326 --> 00:22:09,369
- ¿Qué lo sujeta?
- Es genial.
368
00:22:09,453 --> 00:22:10,620
- ¿Esto?
- Sí.
369
00:22:10,704 --> 00:22:13,707
¿Cómo queda esto en la cámara
si hacemos...
370
00:22:13,790 --> 00:22:15,459
- Podemos...
- esto?
371
00:22:15,542 --> 00:22:16,835
- ¿Qué?
- Sí.
372
00:22:16,918 --> 00:22:18,462
- ¿Otra vez?
- Exacto, sí.
373
00:22:18,920 --> 00:22:20,589
Sí. No, probablemente no...
374
00:22:20,672 --> 00:22:21,965
Sí.
375
00:22:22,466 --> 00:22:23,884
Este es menos…
376
00:22:31,016 --> 00:22:33,268
Chris está flipando.
377
00:22:34,728 --> 00:22:35,562
¿Es bueno?
378
00:22:35,645 --> 00:22:37,773
¡MAGIA!
379
00:22:37,856 --> 00:22:41,068
Tenía cinco años
cuando aprendí a hacer magia.
380
00:22:41,151 --> 00:22:45,781
Y podía engañar a adultos con doctorados.
381
00:22:54,873 --> 00:22:57,709
Los magos eran casi
los primeros neurocientíficos
382
00:22:57,793 --> 00:22:58,960
y psicólogos.
383
00:22:59,044 --> 00:23:02,005
Fueron ellos los que entendieron
cómo funciona
384
00:23:02,089 --> 00:23:03,382
la mente de la gente.
385
00:23:04,216 --> 00:23:07,677
Hacen muchas pruebas,
en tiempo real, con la gente.
386
00:23:09,137 --> 00:23:11,139
Un mago entiende algo,
387
00:23:11,223 --> 00:23:15,936
una parte de tu mente que no conoces.
Eso hace que la ilusión funcione.
388
00:23:16,019 --> 00:23:20,607
Doctores, abogados, gente que sabe
construir aviones o misiles nucleares
389
00:23:20,690 --> 00:23:24,361
desconoce la vulnerabilidad de su mente.
390
00:23:24,444 --> 00:23:26,113
Es una disciplina aparte.
391
00:23:26,571 --> 00:23:28,990
Y se aplica a todos los seres humanos.
392
00:23:29,074 --> 00:23:30,909
UNIVERSIDAD DE STANFORD
393
00:23:30,992 --> 00:23:34,079
Desde esa perspectiva,
hay una comprensión distinta
394
00:23:34,162 --> 00:23:35,872
de lo que hace la tecnología.
395
00:23:36,873 --> 00:23:41,044
Lo aprendimos cuando estaba en
el laboratorio de tecnología persuasiva.
396
00:23:41,628 --> 00:23:43,463
¿Cómo usar todo lo que sabemos
397
00:23:43,547 --> 00:23:45,882
sobre lo que convence a la gente
398
00:23:45,966 --> 00:23:48,385
y convertirlo en tecnología?
399
00:23:48,468 --> 00:23:50,887
Muchos de vosotros ya sois genios.
400
00:23:50,971 --> 00:23:55,851
Sí, pero mi objetivo es convertiros
en genios del cambio conductual.
401
00:23:56,852 --> 00:24:01,148
Hay muchas figuras destacadas
de Silicon Valley que fueron a esa clase,
402
00:24:01,231 --> 00:24:05,485
figuras clave en Facebook,
Uber y otras empresas,
403
00:24:05,569 --> 00:24:09,197
y aprendieron
a hacer la tecnología más persuasiva,
404
00:24:09,614 --> 00:24:10,866
Tristan, por ejemplo.
405
00:24:12,284 --> 00:24:14,619
La tecnología persuasiva es un diseño
406
00:24:14,703 --> 00:24:16,580
intencionalmente extremo
407
00:24:16,663 --> 00:24:18,874
para modificar el comportamiento.
408
00:24:18,957 --> 00:24:20,542
Queremos que hagan algo,
409
00:24:20,625 --> 00:24:23,336
que sigan haciendo esto con el dedo.
410
00:24:23,420 --> 00:24:26,256
Si bajas y recargas,
habrá algo nuevo arriba.
411
00:24:26,339 --> 00:24:28,508
Bajas y recargas y cambia. Siempre.
412
00:24:28,592 --> 00:24:33,722
Lo que en psicología llamamos
"refuerzo positivo intermitente".
413
00:24:33,805 --> 00:24:37,142
No sabes cuándo lo conseguirás
o si vas a conseguir algo,
414
00:24:37,225 --> 00:24:40,061
es como las máquinas tragaperras
de Las Vegas.
415
00:24:40,145 --> 00:24:42,230
No basta
que uses el producto conscientemente,
416
00:24:42,314 --> 00:24:47,652
quiero profundizar en el cerebro
e implantarte un hábito inconsciente,
417
00:24:47,736 --> 00:24:50,864
para que estés programado
en un nivel más profundo.
418
00:24:50,947 --> 00:24:52,115
No te das cuenta.
419
00:24:52,199 --> 00:24:54,034
Un tal James Marshall...
420
00:24:54,117 --> 00:24:56,286
Esta ahí tirado
421
00:24:56,369 --> 00:25:01,333
y sabes que si lo usas
quizá tenga algo para ti,
422
00:25:01,416 --> 00:25:06,046
así que pruebas suerte. No es casualidad.
Es una técnica de diseño.
423
00:25:06,129 --> 00:25:11,134
Llevó una pepita de oro a un oficial
del ejército en San Francisco.
424
00:25:12,219 --> 00:25:15,388
La población de San Francisco solo era…
425
00:25:15,472 --> 00:25:17,432
Igual que el etiquetado de fotos.
426
00:25:19,726 --> 00:25:24,064
Si recibes un correo que dice
que te han etiquetado en una foto,
427
00:25:24,147 --> 00:25:28,568
claro que vas a hacer clic
y mirar la foto.
428
00:25:29,152 --> 00:25:31,821
No es algo que puedas ignorar.
429
00:25:32,364 --> 00:25:36,326
Recurren a una personalidad humana
muy arraigada.
430
00:25:36,409 --> 00:25:40,288
Deberías preguntarte
por qué el correo no contiene la foto.
431
00:25:40,372 --> 00:25:42,457
Sería mucho más fácil verla.
432
00:25:42,541 --> 00:25:45,919
Cuando Facebook encontró esa función,
la maximizaron
433
00:25:46,002 --> 00:25:48,505
porque dijeron:
"Aumentaremos la actividad.
434
00:25:48,588 --> 00:25:51,091
Hagamos
que la gente se etiquete en fotos".
435
00:25:56,263 --> 00:25:58,890
AL MENOS UNO SALE BIEN
436
00:25:59,349 --> 00:26:00,475
Ha comentado.
437
00:26:00,559 --> 00:26:01,434
Bien.
438
00:26:01,851 --> 00:26:04,688
Vale, Rebecca lo ha recibido
y está respondiendo.
439
00:26:04,771 --> 00:26:07,566
Que sepa que está escribiendo
para no perderlo.
440
00:26:07,649 --> 00:26:09,150
Activando puntos suspensivos.
441
00:26:09,234 --> 00:26:13,613
AL MENOS UNO SALE BIEN
...
442
00:26:19,411 --> 00:26:20,745
Genial, ha publicado.
443
00:26:21,329 --> 00:26:24,249
Está comentando su comentario
sobre su comentario.
444
00:26:25,041 --> 00:26:26,585
Ha dejado de escribir.
445
00:26:26,751 --> 00:26:27,752
Texto predictivo.
446
00:26:28,420 --> 00:26:30,005
Emoticonos. Le encantan.
447
00:26:31,381 --> 00:26:33,758
AUTOCOMPLETAR
INTERACCIÓN
448
00:26:33,842 --> 00:26:34,676
Usó fuego.
449
00:26:35,427 --> 00:26:36,803
Yo esperaba berenjenas.
450
00:26:38,597 --> 00:26:42,726
Hay toda una disciplina
y un campo llamado "growth hacking".
451
00:26:42,809 --> 00:26:47,147
Equipos de ingenieros cuyo trabajo es
piratear la psicología de la gente
452
00:26:47,230 --> 00:26:48,565
para captar más.
453
00:26:48,648 --> 00:26:52,861
Consiguen más usuarios, más interacciones
y que invites a más gente.
454
00:26:52,944 --> 00:26:55,739
Después de pruebas, repeticiones y demás,
455
00:26:55,822 --> 00:26:59,826
¿sabéis lo más importante?
Que uno añade a siete amigos en diez días.
456
00:26:59,909 --> 00:27:01,828
EX VICEPRESIDENTE DE CRECIMIENTO
457
00:27:01,911 --> 00:27:02,746
Así de simple.
458
00:27:02,829 --> 00:27:05,498
Chamath era
el jefe de crecimiento de Facebook
459
00:27:05,582 --> 00:27:08,251
y es muy conocido en la industria
460
00:27:08,335 --> 00:27:11,004
por ser pionero en tácticas de crecimiento
461
00:27:11,087 --> 00:27:14,758
que hicieron crecer Facebook
a una velocidad increíble.
462
00:27:14,841 --> 00:27:18,511
Y esas tácticas son
el estándar de Silicon Valley.
463
00:27:18,595 --> 00:27:21,222
Se usaron en Uber
y en muchas otras empresas.
464
00:27:21,306 --> 00:27:27,020
Fue pionero
en el uso de pruebas científicas A/B
465
00:27:27,103 --> 00:27:28,480
en cambios de características.
466
00:27:29,022 --> 00:27:30,940
Empresas como Google y Facebook
467
00:27:31,024 --> 00:27:34,569
introdujeron muchos pequeños experimentos
468
00:27:34,653 --> 00:27:36,821
en los usuarios,
469
00:27:36,905 --> 00:27:39,866
y con el tiempo,
haciendo experimentos constantes,
470
00:27:39,949 --> 00:27:45,288
se desarrolla la forma más adecuada para
que los usuarios hagan lo que quieres.
471
00:27:45,372 --> 00:27:46,790
Es manipulación.
472
00:27:47,332 --> 00:27:49,292
Me siento como una cobaya humana.
473
00:27:49,834 --> 00:27:51,920
Lo eres. Todos lo somos.
474
00:27:52,545 --> 00:27:55,548
Y no es
para desarrollar una cura para el cáncer.
475
00:27:55,632 --> 00:27:58,134
No es que intenten beneficiarnos.
476
00:27:58,218 --> 00:28:01,680
Solo somos zombis
y quieren que veamos más anuncios
477
00:28:01,763 --> 00:28:03,181
para ganar más dinero.
478
00:28:03,556 --> 00:28:08,228
Facebook llevó a cabo lo que llamaron
"experimentos de contagio a gran escala".
479
00:28:08,311 --> 00:28:09,145
Vale.
480
00:28:09,229 --> 00:28:12,857
¿Cómo usamos
las señales subliminales en las páginas
481
00:28:13,400 --> 00:28:17,570
para que más personas voten
en las elecciones?
482
00:28:17,987 --> 00:28:20,824
Y descubrieron que podían hacerlo.
483
00:28:20,907 --> 00:28:24,160
Una cosa que concluyeron es
que ahora sabemos
484
00:28:24,744 --> 00:28:28,915
que podemos afectar el comportamiento
y las emociones del mundo real
485
00:28:28,998 --> 00:28:32,877
sin accionar la conciencia del usuario.
486
00:28:33,378 --> 00:28:37,382
No tienen ni idea.
487
00:28:38,049 --> 00:28:41,970
Dirigimos estos motores
de inteligencia artificial hacia nosotros
488
00:28:42,053 --> 00:28:46,224
para realizar ingeniería inversa
de lo que provoca respuestas.
489
00:28:47,100 --> 00:28:51,479
Es como estimular los nervios de una araña
para ver qué hace que responda.
490
00:28:51,938 --> 00:28:53,940
Es un experimento de prisión,
491
00:28:54,023 --> 00:28:56,735
donde estamos
metiendo a la gente en la matriz
492
00:28:56,818 --> 00:29:00,530
y recogemos todo ese dinero
y los datos de toda su actividad
493
00:29:00,613 --> 00:29:03,116
para beneficiarnos. Y ni nos enteramos.
494
00:29:04,117 --> 00:29:07,912
Queremos averiguar
cómo manipularte lo más rápido posible
495
00:29:07,996 --> 00:29:10,081
y darte el subidón de dopamina.
496
00:29:10,165 --> 00:29:12,542
Lo hicimos genial en Facebook.
497
00:29:12,625 --> 00:29:14,919
Instagram lo ha hecho y WhatsApp
498
00:29:15,003 --> 00:29:17,380
y Snapchat y Twitter.
499
00:29:17,464 --> 00:29:19,424
Es exactamente
500
00:29:19,507 --> 00:29:22,427
lo que un jáquer como yo inventaría,
501
00:29:22,510 --> 00:29:27,015
porque explotas una vulnerabilidad
en la psicología humana.
502
00:29:27,098 --> 00:29:28,725
EXPRESIDENTE DE FACEBOOK
503
00:29:28,808 --> 00:29:33,438
Creo que los inventores, los creadores...
504
00:29:33,980 --> 00:29:37,317
yo, Mark...
505
00:29:37,400 --> 00:29:40,403
Kevin Systrom en Instagram,
toda esta gente...
506
00:29:41,154 --> 00:29:46,451
lo entendimos perfectamente
y lo hicimos de todas formas.
507
00:29:50,580 --> 00:29:53,750
Nadie se molestó
cuando aparecieron las bicicletas.
508
00:29:55,043 --> 00:29:58,004
Cuando todo el mundo empezó
a ir en bicicleta
509
00:29:58,087 --> 00:30:00,924
nadie dijo:
"Dios, hemos destruido la sociedad.
510
00:30:01,007 --> 00:30:03,051
Las bicicletas afectan a la gente
511
00:30:03,134 --> 00:30:05,261
las aleja de sus hijos,
512
00:30:05,345 --> 00:30:08,765
arruinan la democracia,
la gente ya no sabe qué es verdad".
513
00:30:08,848 --> 00:30:11,476
Nunca dijimos nada de eso
de una bicicleta.
514
00:30:12,769 --> 00:30:16,147
Si algo es una herramienta,
está ahí tirado
515
00:30:16,731 --> 00:30:18,733
esperando pacientemente.
516
00:30:19,317 --> 00:30:22,821
Si no lo es, te exige cosas,
517
00:30:22,904 --> 00:30:26,533
te seduce, te manipula,
quiere cosas de ti.
518
00:30:26,616 --> 00:30:30,495
Y hemos pasado de un entorno tecnológico
basado en herramientas
519
00:30:31,037 --> 00:30:34,499
a uno basado en la adicción
y la manipulación.
520
00:30:34,582 --> 00:30:35,708
Ese es el cambio.
521
00:30:35,792 --> 00:30:39,420
Las redes sociales no son
una herramienta que espere ser utilizada.
522
00:30:39,504 --> 00:30:43,466
Tienen sus propios objetivos
y sus propios medios para perseguirlos
523
00:30:43,550 --> 00:30:45,677
usando tu psicología contra ti.
524
00:30:48,888 --> 00:30:52,767
"SOLO HAY DOS INDUSTRIAS
QUE LLAMAN A SUS CLIENTES 'CONSUMIDORES':
525
00:30:52,851 --> 00:30:55,562
LAS DE DROGAS Y LAS DE SOFTWARE".
526
00:30:57,564 --> 00:31:02,193
Hace unos años,
era el presidente de Pinterest.
527
00:31:03,152 --> 00:31:08,366
Volvía a casa y no podía dejar el móvil
528
00:31:08,449 --> 00:31:12,161
a pesar de tener dos niños
que necesitaban mi amor y atención.
529
00:31:12,245 --> 00:31:15,748
Estaba en la despensa,
escribiendo un correo
530
00:31:15,832 --> 00:31:17,542
o mirando Pinterest.
531
00:31:18,001 --> 00:31:19,627
Pensaba: "Menuda ironía.
532
00:31:19,711 --> 00:31:22,046
Voy a trabajar durante el día
533
00:31:22,130 --> 00:31:26,426
y a construir algo de lo que caigo presa".
534
00:31:26,509 --> 00:31:30,096
Y no podía... Había momentos
en que no podía evitarlo.
535
00:31:32,307 --> 00:31:36,102
El que más me gusta es Twitter.
536
00:31:36,728 --> 00:31:38,021
Antes era Reddit.
537
00:31:38,104 --> 00:31:42,859
He tenido que escribir un software
para acabar con mi adicción a leer Reddit.
538
00:31:45,403 --> 00:31:47,780
Soy más adicto a mi correo.
539
00:31:47,864 --> 00:31:49,866
En serio. Lo noto.
540
00:31:52,577 --> 00:31:54,954
Bueno, es interesante que,
541
00:31:55,038 --> 00:31:58,166
sabiendo lo que pasaba
detrás de la cortina,
542
00:31:58,249 --> 00:32:01,628
no podía controlar mi uso.
543
00:32:01,711 --> 00:32:03,046
Da un poco de miedo.
544
00:32:03,630 --> 00:32:07,175
Incluso sabiendo cómo funcionan
estos trucos, caigo en ellos.
545
00:32:07,258 --> 00:32:09,886
Cogeré el móvil y perderé 20 minutos.
546
00:32:12,805 --> 00:32:15,725
¿Revisas tu móvil
antes de hacer pis por la mañana
547
00:32:15,808 --> 00:32:17,477
o mientras haces pis?
548
00:32:17,560 --> 00:32:19,479
Porque no hay más opciones.
549
00:32:19,562 --> 00:32:23,274
Lo intenté con toda mi fuerza de voluntad:
550
00:32:23,358 --> 00:32:26,903
"Voy a dejar el móvil en el coche
cuando vaya a casa".
551
00:32:26,986 --> 00:32:32,617
Me lo dije mil veces, mil días diferentes:
"No llevaré el móvil a la habitación",
552
00:32:32,700 --> 00:32:34,535
y a las 21:00:
553
00:32:34,619 --> 00:32:37,121
"Quiero llevar el móvil a la habitación".
554
00:32:37,872 --> 00:32:41,125
Y eso fue... La fuerza de voluntad fue
el primer intento
555
00:32:41,209 --> 00:32:44,295
y el segundo fue la fuerza bruta.
556
00:32:44,379 --> 00:32:45,880
La caja fuerte de cocina.
557
00:32:45,964 --> 00:32:49,801
La caja fuerte de la cocina es
un nuevo contenedor revolucionario
558
00:32:49,884 --> 00:32:51,678
que ayuda contra la tentación.
559
00:32:51,761 --> 00:32:56,724
Lo único que tiene que hacer David es
meter esas tentaciones en la caja fuerte.
560
00:32:57,350 --> 00:33:00,728
A continuación, gira el disco
para ajustar el temporizador
561
00:33:01,479 --> 00:33:04,232
y lo presiona para activar el bloqueo.
562
00:33:04,315 --> 00:33:05,525
Es genial...
563
00:33:05,608 --> 00:33:06,776
Tenemos eso, ¿no?
564
00:33:06,859 --> 00:33:08,569
...videojuegos, tarjetas y móviles.
565
00:33:08,653 --> 00:33:09,570
Sí.
566
00:33:09,654 --> 00:33:13,866
Cuando está cerrada, no se abre
hasta que el temporizador llega a cero.
567
00:33:13,950 --> 00:33:17,537
Ese el tema.
Las redes sociales son una droga.
568
00:33:17,620 --> 00:33:20,873
Tenemos un imperativo biológico básico
569
00:33:20,957 --> 00:33:23,084
para conectar con otras personas.
570
00:33:23,167 --> 00:33:28,214
Eso afecta a la liberación de dopamina
en las vías de recompensas.
571
00:33:28,297 --> 00:33:32,552
Hay millones de años de evolución
detrás de ese sistema
572
00:33:32,635 --> 00:33:35,430
para que podamos unirnos
y vivir en comunidades,
573
00:33:35,513 --> 00:33:38,016
encontrar compañeros
y propagar la especie.
574
00:33:38,099 --> 00:33:41,853
No hay duda de que un vehículo
como las redes sociales,
575
00:33:41,936 --> 00:33:45,690
que optimiza esta conexión entre la gente,
576
00:33:45,773 --> 00:33:48,568
tendrá potencial de adicción.
577
00:33:52,780 --> 00:33:54,115
¡Para, papá!
578
00:33:55,450 --> 00:33:58,453
Tengo que enviar mil snips antes de cenar.
579
00:33:58,536 --> 00:33:59,537
¿Snips?
580
00:33:59,620 --> 00:34:01,080
No sé qué es eso.
581
00:34:01,164 --> 00:34:03,207
- Qué bien huele.
- Gracias.
582
00:34:03,291 --> 00:34:05,877
Pensé en utilizar los cinco sentidos
583
00:34:05,960 --> 00:34:07,712
para disfrutar de la cena.
584
00:34:07,795 --> 00:34:11,382
He decidido
que nada de móviles en la mesa.
585
00:34:11,466 --> 00:34:13,301
Dádmelos.
586
00:34:13,801 --> 00:34:14,802
- ¿En serio?
- Sí.
587
00:34:15,928 --> 00:34:18,056
- Vale.
- Gracias. ¿Ben?
588
00:34:18,139 --> 00:34:19,974
- Vale.
- La ladrona de móviles.
589
00:34:21,017 --> 00:34:21,934
- Dame.
- ¡Mamá!
590
00:34:22,602 --> 00:34:26,147
Aquí estarán a salvo
hasta después de la cena...
591
00:34:27,273 --> 00:34:31,277
y todos podréis relajaros. ¿Vale?
592
00:34:47,418 --> 00:34:49,253
- ¿Puedo ver quién es?
- No.
593
00:34:54,759 --> 00:34:56,969
Voy a por otro tenedor.
594
00:34:58,304 --> 00:34:59,263
Gracias.
595
00:35:04,727 --> 00:35:06,771
Cariño, no puedes abrir eso.
596
00:35:06,854 --> 00:35:09,315
Lo cerré durante una hora.
597
00:35:11,192 --> 00:35:13,361
¿De qué hablamos?
598
00:35:13,444 --> 00:35:17,824
Podríamos hablar de los locos
del extremo centro que he visto hoy.
599
00:35:17,907 --> 00:35:18,825
- Por favor.
- ¿Qué?
600
00:35:18,908 --> 00:35:20,785
No quiero hablar de eso.
601
00:35:20,868 --> 00:35:23,538
- ¿Qué pasa con ellos?
- ¿Ves? No lo entiende.
602
00:35:23,621 --> 00:35:24,622
Depende.
603
00:35:24,705 --> 00:35:26,624
Es como con la propaganda.
604
00:35:28,709 --> 00:35:29,710
¡Isla!
605
00:35:32,797 --> 00:35:33,756
Dios mío.
606
00:35:37,135 --> 00:35:38,553
- ¿Quieres que...?
- Sí.
607
00:35:41,973 --> 00:35:43,933
Me preocupan mis hijos.
608
00:35:44,016 --> 00:35:46,686
Y si tienes hijos,
me preocupan tus hijos.
609
00:35:46,769 --> 00:35:50,189
Con todo el conocimiento que tengo
y toda la experiencia,
610
00:35:50,273 --> 00:35:54,443
peleo con ellos por el tiempo que usan
los teléfonos y el ordenador.
611
00:35:54,527 --> 00:35:58,197
Le digo a mi hijo:
"¿Cuántas horas pasas con tu móvil?".
612
00:35:58,281 --> 00:36:01,075
Y él: "Media hora, como mucho".
613
00:36:01,159 --> 00:36:04,871
Yo diría que una hora, hora y media.
614
00:36:04,954 --> 00:36:08,708
Miré su registro de pantalla
y eran tres horas y 45 minutos.
615
00:36:11,377 --> 00:36:13,588
No lo creo. ¿De media por día?
616
00:36:13,671 --> 00:36:15,506
- Sí.
- ¿Lo cojo?
617
00:36:15,590 --> 00:36:19,177
No pasa un día
sin que les recuerde a mis hijos
618
00:36:19,260 --> 00:36:21,762
el equilibrio entre placer y dolor,
619
00:36:21,846 --> 00:36:26,267
los estados de deficiencia de dopamina,
el riesgo de adicción.
620
00:36:26,350 --> 00:36:27,310
Veamos.
621
00:36:27,894 --> 00:36:29,687
Dos horas y 50 minutos al día.
622
00:36:29,770 --> 00:36:31,772
- A ver.
- Hoy lo he usado mucho.
623
00:36:31,856 --> 00:36:33,357
- Esta semana.
- Será por eso.
624
00:36:33,441 --> 00:36:37,153
Instagram: seis horas y 13 minutos.
Mi Instagram es peor.
625
00:36:39,572 --> 00:36:43,201
Mi pantalla está destrozada.
Gracias, Cass.
626
00:36:44,410 --> 00:36:45,995
¿Cómo que "gracias, Cass"?
627
00:36:46,078 --> 00:36:49,290
Asustas a mamá con los móviles
sin ser un problema.
628
00:36:49,373 --> 00:36:51,167
No los necesitamos para cenar.
629
00:36:51,250 --> 00:36:54,170
Te entiendo,
pero no es para tanto. No lo es.
630
00:36:56,047 --> 00:36:58,382
Pues no lo uses durante una semana.
631
00:37:01,135 --> 00:37:02,178
Sí.
632
00:37:02,261 --> 00:37:06,349
Sí, si puedes guardarlo
durante una semana...
633
00:37:07,683 --> 00:37:09,518
te compraré una pantalla nueva.
634
00:37:11,062 --> 00:37:12,772
- ¿Empezando ahora?
- Sí.
635
00:37:15,274 --> 00:37:16,859
Vale. Trato hecho.
636
00:37:16,943 --> 00:37:18,903
Tienes que dejarlo aquí, colega.
637
00:37:19,862 --> 00:37:21,364
Voy a enchufarlo.
638
00:37:22,531 --> 00:37:25,076
Que conste que me voy.
639
00:37:25,159 --> 00:37:25,993
Vale.
640
00:37:27,495 --> 00:37:29,413
- Empiezo a contar.
- Una semana.
641
00:37:29,497 --> 00:37:30,331
Madre...
642
00:37:31,457 --> 00:37:32,416
¿Podrá hacerlo?
643
00:37:33,000 --> 00:37:34,252
No sé, ya veremos.
644
00:37:35,002 --> 00:37:36,128
Tú come, ¿vale?
645
00:37:44,095 --> 00:37:45,346
¡Buena cena familiar!
646
00:37:47,682 --> 00:37:49,809
Estos productos no se diseñaron
647
00:37:49,892 --> 00:37:53,896
por psicólogos infantiles
que intentan proteger a los niños.
648
00:37:53,980 --> 00:37:58,734
Se diseñaron para hacer algoritmos
para recomendarte el siguiente video
649
00:37:58,818 --> 00:38:02,321
o para que te hagas una foto con filtro.
650
00:38:03,072 --> 00:38:05,324
2 ME GUSTA
651
00:38:13,291 --> 00:38:15,126
¿SEGURO QUE QUIERES BORRARLO?
NO
652
00:38:15,209 --> 00:38:16,210
SÍ
653
00:38:16,752 --> 00:38:20,256
No es solo que controlen
a qué prestan atención.
654
00:38:21,173 --> 00:38:26,304
Las redes sociales profundizan
en el tronco cerebral
655
00:38:26,387 --> 00:38:29,765
y controlan la autoestima
y la identidad de los niños.
656
00:38:29,849 --> 00:38:31,851
PONME GUAPA
657
00:38:42,069 --> 00:38:43,112
¡QUÉ GUAPA!
658
00:38:43,195 --> 00:38:44,822
DIOS, PRECIOSA
659
00:38:44,905 --> 00:38:46,490
ESTÁS DIVINA
660
00:38:46,574 --> 00:38:49,118
¿PUEDES AGRANDARTE LAS OREJAS?
JA JA
661
00:38:52,246 --> 00:38:55,499
Hemos evolucionado
para preocuparnos por si los demás...
662
00:38:55,583 --> 00:38:56,667
¡QUÉ GUAPA!
663
00:38:56,751 --> 00:38:59,712
...piensan bien de nosotros o no,
porque importa.
664
00:38:59,837 --> 00:39:04,550
Pero ¿hemos evolucionado para saber
qué piensan 10 000 personas de nosotros?
665
00:39:04,633 --> 00:39:05,885
No hemos evolucionado
666
00:39:05,968 --> 00:39:10,348
para recibir aprobación social
cada cinco minutos.
667
00:39:10,431 --> 00:39:13,142
No estamos diseñados para eso.
668
00:39:15,394 --> 00:39:19,982
Organizamos nuestras vidas en torno
a este sentido de perfección percibida,
669
00:39:20,733 --> 00:39:23,277
porque recibimos
recompensas a corto plazo:
670
00:39:23,361 --> 00:39:25,154
corazones, me gusta, pulgares.
671
00:39:25,237 --> 00:39:28,407
Y lo confundimos con valores y con verdad.
672
00:39:29,825 --> 00:39:33,120
Y realmente es
una popularidad falsa y frágil...
673
00:39:33,913 --> 00:39:37,458
a corto plazo y eso te deja aún más
674
00:39:37,541 --> 00:39:39,919
vacío que antes de hacerlo.
675
00:39:41,295 --> 00:39:43,381
Porque entras en un círculo vicioso
676
00:39:43,464 --> 00:39:47,343
en el que piensas:
"¿Qué hago ahora? Porque lo necesito".
677
00:39:48,177 --> 00:39:50,805
Apliquemos eso
a dos mil millones de personas
678
00:39:50,888 --> 00:39:54,809
y pensemos en cómo reaccionamos
ante las percepciones de los demás.
679
00:39:54,892 --> 00:39:56,477
Es... Es horrible.
680
00:39:56,977 --> 00:39:58,229
Es muy malo.
681
00:40:00,856 --> 00:40:05,069
Ha habido un aumento enorme
en la depresión y la ansiedad
682
00:40:05,152 --> 00:40:10,950
en los adolescentes estadounidenses
que empezó entre... 2011 y 2013.
683
00:40:11,033 --> 00:40:15,371
El número de chicas
de cada 100 000 en este país
684
00:40:15,454 --> 00:40:19,959
que ingresaban en un hospital cada año
porque se cortaron o se hicieron daño,
685
00:40:20,042 --> 00:40:23,921
se mantuvo estable hasta 2010, 2011,
686
00:40:24,004 --> 00:40:25,756
y luego empezó a subir.
687
00:40:28,759 --> 00:40:31,971
Ha subido un 62 %
en las adolescentes mayores.
688
00:40:32,054 --> 00:40:33,931
INGRESOS HOSPITALARIOS
POR AUTOLESIÓN NO FATAL
689
00:40:34,014 --> 00:40:38,310
Ha subido un 189 % en las preadolescentes.
Eso es casi el triple.
690
00:40:40,020 --> 00:40:43,107
Lo peor es
que vemos el mismo patrón con el suicidio.
691
00:40:43,190 --> 00:40:44,900
TASA DE SUICIDIO
POR CADA 1 000 000 DE CHICAS
692
00:40:44,984 --> 00:40:47,570
Las adolescentes mayores, de 15 a 19 años,
693
00:40:47,653 --> 00:40:51,740
han subido un 70 % en comparación
con la primera década de este siglo.
694
00:40:51,991 --> 00:40:55,077
Las preadolescentes,
que tienen unas tasas muy bajas,
695
00:40:55,161 --> 00:40:57,663
han subido un 151 %.
696
00:40:58,831 --> 00:41:01,709
Y ese patrón apunta a las redes sociales.
697
00:41:01,792 --> 00:41:03,961
REDES SOCIALES PARA MÓVILES
698
00:41:04,044 --> 00:41:07,214
La generación Z,
los nacidos después de 1996,
699
00:41:07,298 --> 00:41:10,342
son la primera generación de la historia
700
00:41:10,426 --> 00:41:12,636
que llegó a las redes sociales
en el instituto.
701
00:41:15,973 --> 00:41:17,433
¿Cómo pasan el tiempo?
702
00:41:19,727 --> 00:41:22,480
Vuelven a casa y cogen sus dispositivos.
703
00:41:24,315 --> 00:41:29,195
Toda una generación está más ansiosa,
más frágil, más deprimida.
704
00:41:30,613 --> 00:41:33,282
Les preocupa mucho más asumir riesgos.
705
00:41:34,325 --> 00:41:37,536
El número de carnés de conducir ha bajado.
706
00:41:38,954 --> 00:41:41,081
El número que ha tenido una cita
707
00:41:41,165 --> 00:41:44,251
o alguna relación romántica
está bajando rápidamente.
708
00:41:47,505 --> 00:41:49,715
Es un cambio real en una generación.
709
00:41:53,177 --> 00:41:57,306
Y por cada una de ellas,
por cada hospitalización,
710
00:41:57,389 --> 00:42:00,267
hay una familia traumatizada
y horrorizada.
711
00:42:00,351 --> 00:42:02,353
"¿Qué les pasa a nuestros hijos?".
712
00:42:19,411 --> 00:42:21,038
Para mí está muy claro.
713
00:42:22,873 --> 00:42:28,128
Estos servicios están matando gente
y haciendo que se suiciden.
714
00:42:29,088 --> 00:42:33,300
No conozco a ningún padre que diga:
"Sí, quiero que mis hijos crezcan
715
00:42:33,384 --> 00:42:36,887
sintiéndose manipulados
por los diseñadores
716
00:42:36,971 --> 00:42:39,682
que manipulan su atención,
impidiéndoles hacer los deberes,
717
00:42:39,765 --> 00:42:42,601
comparándose
con estándares de belleza irreales".
718
00:42:42,685 --> 00:42:44,687
Nadie quiere eso.
719
00:42:45,104 --> 00:42:46,355
Nadie.
720
00:42:46,438 --> 00:42:48,482
Teníamos protecciones.
721
00:42:48,566 --> 00:42:50,943
Cuando los niños veían dibujos animados,
722
00:42:51,026 --> 00:42:52,778
nos preocupaba protegerlos.
723
00:42:52,861 --> 00:42:56,574
Era: "No se pueden dirigir
determinados anuncios a los niños".
724
00:42:57,366 --> 00:43:02,454
Pero coges YouTube para niños
y consume toda la economía de la atención.
725
00:43:02,538 --> 00:43:04,915
Los niños están desprotegidos.
726
00:43:04,999 --> 00:43:07,710
Las protecciones
y las normas han desaparecido.
727
00:43:10,296 --> 00:43:17,261
TIEMPO SIN TELÉFONO
728
00:43:18,304 --> 00:43:22,141
Estamos entrenando y acondicionando
a una nueva generación...
729
00:43:23,434 --> 00:43:29,148
que cuando se siente incómoda,
sola, insegura o asustada
730
00:43:29,231 --> 00:43:31,775
tiene un chupete digital
731
00:43:32,234 --> 00:43:36,488
que atrofia la capacidad
para lidiar con eso.
732
00:43:53,964 --> 00:43:56,884
Photoshop no tenía mil ingenieros
733
00:43:56,967 --> 00:43:58,969
usando tus avisos, tus amigos,
734
00:43:59,053 --> 00:44:02,431
la IA para predecir
lo que te va a volver adicto,
735
00:44:02,514 --> 00:44:04,516
manipularte
o permitir que los anunciantes
736
00:44:04,600 --> 00:44:06,894
prueben 60 000 textos o colores...
737
00:44:06,977 --> 00:44:08,395
CONGRESO ANTIMONOPOLIO TECNOLÓGICO
738
00:44:08,479 --> 00:44:11,065
...para ver cómo manipularte mejor.
739
00:44:11,148 --> 00:44:14,985
Esta es una nueva especie
de poder e influencia.
740
00:44:16,070 --> 00:44:19,156
Los métodos que se usan
741
00:44:19,239 --> 00:44:22,868
para jugar con la capacidad
para ser adictos o influenciados
742
00:44:22,951 --> 00:44:25,120
pueden ser diferentes esta vez.
743
00:44:25,204 --> 00:44:28,916
Eran diferentes cuando aparecieron
los periódicos y la imprenta,
744
00:44:28,999 --> 00:44:31,794
y eran diferentes
cuando llegó la televisión
745
00:44:31,877 --> 00:44:34,004
y había tres emisoras principales...
746
00:44:34,088 --> 00:44:36,382
- En ese momento.
- Eso es lo que digo.
747
00:44:36,465 --> 00:44:38,384
Pero hay un nuevo nivel
748
00:44:38,467 --> 00:44:42,054
y eso ha pasado muchas veces antes.
749
00:44:42,137 --> 00:44:45,099
Es el último nivel que hemos visto.
750
00:44:45,182 --> 00:44:51,188
Se dice que ya nos adaptaremos.
Aprenderemos a vivir con los dispositivos
751
00:44:51,271 --> 00:44:53,732
como aprendimos a vivir con los demás.
752
00:44:53,816 --> 00:44:56,694
Y lo que se olvida es
que hay algo nuevo aquí.
753
00:44:57,528 --> 00:45:00,322
Quizá lo más peligroso de todo esto
sea el hecho
754
00:45:00,406 --> 00:45:04,410
de que está impulsado por una tecnología
que avanza exponencialmente.
755
00:45:04,910 --> 00:45:05,911
PODER DE PROCESAMIENTO
756
00:45:05,994 --> 00:45:09,081
Si hablamos desde los años 60 hasta hoy,
757
00:45:09,873 --> 00:45:12,960
el poder de procesamiento ha aumentado
en un trillón.
758
00:45:13,794 --> 00:45:18,340
Ninguna otra cosa ha crecido a ese ritmo.
759
00:45:18,424 --> 00:45:22,177
Los coches son el doble de rápidos.
760
00:45:22,261 --> 00:45:25,264
Y casi todo lo demás es insignificante.
761
00:45:25,347 --> 00:45:27,182
Y quizá lo más importante,
762
00:45:27,266 --> 00:45:31,353
nuestra fisiología,
nuestros cerebros no han evolucionado.
763
00:45:31,854 --> 00:45:35,232
TIEMPO SIN TELÉFONO
764
00:45:37,401 --> 00:45:41,488
Los seres humanos a nivel mental,
corporal y físico
765
00:45:41,947 --> 00:45:43,866
no sufrirán grandes cambios.
766
00:45:56,837 --> 00:46:00,924
Podemos hacer ingeniería genética
y desarrollar nuevos seres humanos,
767
00:46:01,008 --> 00:46:05,220
pero siendo realistas,
vivimos en un hardware, un cerebro,
768
00:46:05,304 --> 00:46:07,222
que tiene millones de años,
769
00:46:07,306 --> 00:46:10,559
y tenemos esta pantalla,
y en el lado opuesto
770
00:46:10,642 --> 00:46:13,562
hay miles de ingenieros
y supercomputadores
771
00:46:13,645 --> 00:46:16,106
con objetivos distintos a los tuyos,
772
00:46:16,190 --> 00:46:19,693
así que ¿quién va a ganar el partido?
773
00:46:25,574 --> 00:46:26,909
¿Cómo vamos perdiendo?
774
00:46:27,117 --> 00:46:29,787
- No lo sé.
- ¿Dónde está? Esto no es normal.
775
00:46:29,870 --> 00:46:32,080
¿Me he pasado de amigos y familiares?
776
00:46:32,164 --> 00:46:34,082
- Puede.
- O fueron los anuncios.
777
00:46:34,166 --> 00:46:37,795
No. Algo va mal.
Pasemos al modo de resurrección.
778
00:46:39,713 --> 00:46:44,051
Cuando piensas en la IA,
crees que puede arruinar el mundo
779
00:46:44,134 --> 00:46:47,221
y piensas en Terminator
y en Arnold Schwarzenegger...
780
00:46:47,638 --> 00:46:48,680
Volveré.
781
00:46:48,764 --> 00:46:52,684
...ves drones y piensas:
"La IA va a matar gente".
782
00:46:53,644 --> 00:46:59,817
Y lo que la gente no sabe es
que la IA ya controla el mundo de hoy.
783
00:46:59,900 --> 00:47:03,237
Hablar de "una inteligencia artificial"
es una metáfora.
784
00:47:03,320 --> 00:47:09,451
En estas empresas como Google
hay habitaciones enormes.
785
00:47:10,327 --> 00:47:13,121
Algunas bajo tierra, otras bajo el agua,
786
00:47:13,205 --> 00:47:14,498
con ordenadores.
787
00:47:14,581 --> 00:47:17,835
Toneladas de ordenadores
hasta donde alcanza la vista.
788
00:47:18,460 --> 00:47:20,504
Están muy conectados entre ellos
789
00:47:20,587 --> 00:47:22,923
y ejecutan programas muy complicados,
790
00:47:23,006 --> 00:47:26,009
enviando información
entre ellos todo el tiempo.
791
00:47:26,802 --> 00:47:28,595
Y ejecutarán muchos programas
792
00:47:28,679 --> 00:47:30,806
y productos en esas mismas máquinas.
793
00:47:31,348 --> 00:47:33,600
Algunas cosas son simples algoritmos,
794
00:47:33,684 --> 00:47:37,521
otras son tan complejas
como para llamarlas inteligencias.
795
00:47:40,023 --> 00:47:43,861
Diría que los algoritmos son
opiniones incrustadas en el código...
796
00:47:45,070 --> 00:47:47,656
y que los algoritmos no son objetivos.
797
00:47:48,365 --> 00:47:51,577
Están optimizados
para una definición de éxito.
798
00:47:52,244 --> 00:47:53,370
Si piensas
799
00:47:53,453 --> 00:47:57,124
en una empresa comercial
que crea un algoritmo
800
00:47:57,207 --> 00:47:59,293
según su definición de éxito,
801
00:47:59,710 --> 00:48:01,336
será con interés comercial.
802
00:48:01,587 --> 00:48:02,671
Por beneficio.
803
00:48:03,130 --> 00:48:07,384
Le dices al ordenador:
"Quiero este resultado",
804
00:48:07,467 --> 00:48:10,262
y el ordenador aprende a hacerlo.
805
00:48:10,345 --> 00:48:14,850
De ahí viene el "aprendizaje automático".
Y cada día es mejor eligiendo
806
00:48:14,933 --> 00:48:19,438
las publicaciones correctas
para que pases más tiempo en ese producto.
807
00:48:19,521 --> 00:48:22,232
Y nadie entiende lo que hacen
808
00:48:22,316 --> 00:48:23,901
para lograr ese objetivo.
809
00:48:23,984 --> 00:48:28,238
El algoritmo tiene mente propia,
así que aunque una persona lo escriba,
810
00:48:28,906 --> 00:48:30,657
está escrito de tal forma
811
00:48:30,741 --> 00:48:35,037
que construyes la máquina
y la máquina cambia.
812
00:48:35,120 --> 00:48:37,873
Solo hay un puñado de gente
en estas empresas,
813
00:48:37,956 --> 00:48:40,000
en Facebook, Twitter y demás...
814
00:48:40,083 --> 00:48:43,795
Solo unos pocos entienden
cómo funcionan esos sistemas,
815
00:48:43,879 --> 00:48:46,715
e incluso ellos no entienden bien
816
00:48:46,798 --> 00:48:49,551
qué va a pasar
con un contenido en particular.
817
00:48:49,968 --> 00:48:55,474
Como humanos, casi hemos perdido
el control de estos sistemas,
818
00:48:55,891 --> 00:48:59,603
porque controlan la información que vemos.
819
00:48:59,686 --> 00:49:02,439
Nos controlan más que nosotros a ellos.
820
00:49:03,815 --> 00:49:07,319
Cruza referencias
con equivalentes en su zona.
821
00:49:07,402 --> 00:49:09,571
Sus dobles psicométricos.
822
00:49:09,655 --> 00:49:13,700
Hay 13 694 personas
comportándose como él en su región.
823
00:49:13,784 --> 00:49:16,370
- ¿Su tendencia?
- Necesitamos algo bueno
824
00:49:16,453 --> 00:49:17,704
para la resurrección,
825
00:49:17,788 --> 00:49:19,957
dado que lo típico no funciona.
826
00:49:20,040 --> 00:49:21,875
Ni esa monada del instituto.
827
00:49:22,334 --> 00:49:25,253
Según mi análisis,
el contenido "extremo centro"
828
00:49:25,337 --> 00:49:28,256
tiene un 62, 3% de posibilidades
de interacción a largo plazo.
829
00:49:28,340 --> 00:49:29,299
No está mal.
830
00:49:30,300 --> 00:49:32,010
No basta.
831
00:49:32,386 --> 00:49:35,305
Le hemos notificado
sobre fotos etiquetadas,
832
00:49:35,389 --> 00:49:39,017
invitaciones, eventos actuales,
incluso un mensaje de Rebecca.
833
00:49:39,101 --> 00:49:42,729
Pero ¿y el usuario 01265923010?
834
00:49:42,813 --> 00:49:44,648
Sí, le encantaban sus mensajes.
835
00:49:44,731 --> 00:49:47,776
Todos durante meses, y ahora nada.
836
00:49:47,859 --> 00:49:50,487
Hay un 92, 3% de posibilidades
de resurreción
837
00:49:50,570 --> 00:49:52,406
con una notificación sobre Ana.
838
00:49:53,907 --> 00:49:55,993
NUEVA RELACIÓN
839
00:49:56,493 --> 00:49:57,494
Y su nuevo amigo.
840
00:49:58,495 --> 00:50:04,001
TIEMPO SIN TELÉFONO
841
00:50:24,354 --> 00:50:26,023
¡TU EX TIENE UNA NUEVA RELACIÓN!
842
00:50:26,106 --> 00:50:27,357
No me lo puedo creer.
843
00:50:35,657 --> 00:50:36,616
Vale.
844
00:50:37,576 --> 00:50:38,785
ANA Y LUIZ
ESTÁN EN UNA RELACIÓN
845
00:50:38,869 --> 00:50:39,703
¿Qué?
846
00:50:41,580 --> 00:50:42,789
¡Bam! ¡Hemos vuelto!
847
00:50:42,873 --> 00:50:44,374
Volvamos a ganar dinero.
848
00:50:44,458 --> 00:50:46,334
Y a conectarlos con todos.
849
00:50:46,418 --> 00:50:49,337
Le doy acceso
a la información que le interesa.
850
00:50:49,755 --> 00:50:53,717
¿Alguna vez os preguntáis
si la información es buena para Ben?
851
00:50:57,220 --> 00:50:58,221
- No.
- No.
852
00:51:17,532 --> 00:51:19,076
Te he hechizado.
853
00:51:25,040 --> 00:51:26,374
Porque eres mío.
854
00:51:34,508 --> 00:51:36,593
Más te vale dejar lo que haces.
855
00:51:41,181 --> 00:51:42,265
No miento.
856
00:51:42,349 --> 00:51:44,893
PRUEBA A/B
EXTREMO CENTRO
857
00:51:44,976 --> 00:51:46,686
No, no miento.
858
00:51:49,981 --> 00:51:51,817
Sabes que no lo soporto.
859
00:51:53,026 --> 00:51:54,611
Estás dando vueltas.
860
00:51:55,612 --> 00:51:57,239
Ya lo sabes.
861
00:51:58,782 --> 00:52:02,077
No lo soporto porque me humillaste.
862
00:52:03,286 --> 00:52:04,121
Sí.
863
00:52:06,456 --> 00:52:08,375
Te he hechizado.
864
00:52:12,379 --> 00:52:14,840
Porque eres mío.
865
00:52:18,718 --> 00:52:19,845
Eres mío...
866
00:52:20,929 --> 00:52:24,349
Imagina que estás en Facebook...
867
00:52:24,766 --> 00:52:29,312
y estás jugando
contra esta inteligencia artificial
868
00:52:29,396 --> 00:52:31,314
que lo sabe todo sobre ti,
869
00:52:31,398 --> 00:52:34,568
anticipa tus movimientos
y no sabes nada sobre ella,
870
00:52:34,651 --> 00:52:37,404
salvo que hay vídeos de gatos
y cumpleaños.
871
00:52:37,821 --> 00:52:39,656
No es una pelea justa.
872
00:52:41,575 --> 00:52:43,869
Ben y Jerry, ¡es hora de irse!
873
00:52:51,126 --> 00:52:51,960
¿Ben?
874
00:53:02,679 --> 00:53:03,513
Ben.
875
00:53:05,182 --> 00:53:06,057
Vamos.
876
00:53:07,225 --> 00:53:08,894
Hora de ir a clase. Vamos.
877
00:53:13,231 --> 00:53:16,735
CENTRO PARA LA TECNOLOGÍA HUMANA
878
00:53:31,374 --> 00:53:33,543
- ¿Qué tal hoy?
- Estoy nervioso.
879
00:53:33,627 --> 00:53:34,628
- ¿Sí?
- Sí.
880
00:53:37,380 --> 00:53:38,965
Esperábamos el momento
881
00:53:39,049 --> 00:53:42,969
en que la tecnología superase
a la fuerza y la inteligencia humana.
882
00:53:43,053 --> 00:53:47,015
¿Cuándo va a pasar la singularidad,
sustituirnos y ser más lista que nosotros?
883
00:53:48,141 --> 00:53:50,101
Pero hay un momento mucho antes…
884
00:53:50,977 --> 00:53:55,565
cuando la tecnología supera
las debilidades humanas.
885
00:53:57,484 --> 00:54:02,030
Este punto que se cruza es
la raíz de la adicción,
886
00:54:02,113 --> 00:54:04,741
la polarización, la radicalización, la ira
887
00:54:04,824 --> 00:54:06,368
la vanidad, todo.
888
00:54:07,702 --> 00:54:09,913
Eso domina a la naturaleza humana,
889
00:54:10,538 --> 00:54:13,500
y es un jaque mate a la humanidad.
890
00:54:30,558 --> 00:54:31,434
Lo siento.
891
00:54:41,528 --> 00:54:44,656
Una de las formas en que intento
que la gente entienda
892
00:54:45,198 --> 00:54:49,828
lo malo que es informarse
en sitios como Facebook
893
00:54:49,911 --> 00:54:51,454
es pensar en la Wikipedia.
894
00:54:51,538 --> 00:54:52,872
PESTAÑA NUEVA
895
00:54:52,956 --> 00:54:55,667
En una página ves lo mismo que los demás.
896
00:54:55,750 --> 00:54:57,002
LA ENCICLOPEDIA LIBRE
897
00:54:57,085 --> 00:55:00,297
Es de las pocas cosas en Internet
que tenemos en común.
898
00:55:00,380 --> 00:55:03,425
Ahora imagina por un segundo
que Wikipedia dice:
899
00:55:03,508 --> 00:55:07,178
"Vamos a dar a cada persona
una definición diferente
900
00:55:07,262 --> 00:55:09,472
y nos pagarán por eso".
901
00:55:09,556 --> 00:55:13,435
Wikipedia te espiará y calculará
902
00:55:13,518 --> 00:55:17,188
qué puede hacer
para que esa persona cambie
903
00:55:17,272 --> 00:55:19,899
por algún interés comercial.
904
00:55:19,983 --> 00:55:21,818
Y luego cambiará la entrada.
905
00:55:22,444 --> 00:55:23,570
¿Te lo imaginas?
906
00:55:23,653 --> 00:55:24,738
Deberías,
907
00:55:24,821 --> 00:55:26,823
porque es lo que pasa en Facebook.
908
00:55:26,906 --> 00:55:28,992
Es lo que pasa en YouTube.
909
00:55:29,075 --> 00:55:31,786
Cuando escribes en Google
"cambio climático",
910
00:55:31,870 --> 00:55:34,998
verás resultados diferentes
según dónde vivas.
911
00:55:35,081 --> 00:55:36,082
EL CAMBIO CLIMÁTICO ES
912
00:55:36,166 --> 00:55:38,460
En ciertas ciudades, se autocompleta
913
00:55:38,543 --> 00:55:40,462
con "es un engaño".
914
00:55:40,545 --> 00:55:42,047
En otros casos, verás
915
00:55:42,130 --> 00:55:44,841
"está destruyendo la naturaleza".
916
00:55:44,924 --> 00:55:48,428
Y no depende
de la verdad sobre el cambio climático,
917
00:55:48,511 --> 00:55:51,097
sino de lo que buscas en Google
918
00:55:51,181 --> 00:55:53,600
y de lo que sabe sobre tus intereses.
919
00:55:55,185 --> 00:55:57,979
Incluso dos amigos que estén muy unidos,
920
00:55:58,063 --> 00:56:00,190
que tengan la misma pandilla,
921
00:56:00,273 --> 00:56:02,942
pueden pensar:
"Veré las noticias en Facebook.
922
00:56:03,026 --> 00:56:06,738
Serán las mismas novedades".
Pero no es así en absoluto.
923
00:56:06,821 --> 00:56:08,448
Ven cosas diferentes
924
00:56:08,531 --> 00:56:10,575
porque se basan en cálculos
925
00:56:10,658 --> 00:56:12,035
sobre preferencias.
926
00:56:12,118 --> 00:56:14,245
EN DIRECTO
927
00:56:14,329 --> 00:56:18,416
Hay que imaginar
que son 2700 millones de Shows de Truman.
928
00:56:18,500 --> 00:56:21,294
Cada persona tiene
su propia realidad con...
929
00:56:22,670 --> 00:56:23,671
sus hechos.
930
00:56:23,755 --> 00:56:27,008
¿Por qué creéis
que Truman nunca se ha acercado
931
00:56:27,092 --> 00:56:30,095
a descubrir la naturaleza de su mundo
hasta ahora?
932
00:56:31,012 --> 00:56:34,099
Aceptamos la realidad del mundo
que se nos presenta.
933
00:56:34,182 --> 00:56:35,141
Así de sencillo.
934
00:56:35,225 --> 00:56:36,393
EN DIRECTO
935
00:56:36,476 --> 00:56:41,064
Con el tiempo, tienes la falsa sensación
de que todos coinciden contigo
936
00:56:41,147 --> 00:56:44,067
porque tus noticias piensan como tú.
937
00:56:44,567 --> 00:56:49,072
Y cuando estás en ese estado
eres fácilmente manipulable,
938
00:56:49,155 --> 00:56:51,741
igual que si te manipulase un mago.
939
00:56:51,825 --> 00:56:55,370
Te enseña un truco y te dice:
"Elige una carta, cualquiera".
940
00:56:55,453 --> 00:57:00,583
Lo que no ves es que lo ha preparado
y eliges la carta que quiere que elijas.
941
00:57:00,667 --> 00:57:03,169
Y así funciona Facebook. Dice:
942
00:57:03,253 --> 00:57:06,172
"Elige a tus amigos
y los vínculos que sigues".
943
00:57:06,256 --> 00:57:08,716
Pero son chorradas. Es como el mago.
944
00:57:08,800 --> 00:57:11,302
Facebook se encarga de tus noticias.
945
00:57:11,386 --> 00:57:14,514
Todos operamos
con un conjunto diferente de hechos.
946
00:57:14,597 --> 00:57:16,474
Cuando eso pasa a gran escala,
947
00:57:16,558 --> 00:57:20,687
ya no puedes contar
ni consumir información
948
00:57:20,770 --> 00:57:23,690
que contradice la visión del mundo
que has creado.
949
00:57:23,773 --> 00:57:28,027
Eso significa que no somos
personas objetivas y constructivas.
950
00:57:28,778 --> 00:57:32,449
¡Abre los ojos,
no te creas las mentiras! Abre...
951
00:57:32,532 --> 00:57:35,160
Luego miras al otro lado
952
00:57:35,243 --> 00:57:38,746
y empiezas a pensar:
"¿Cómo pueden ser tan estúpidos?
953
00:57:38,830 --> 00:57:42,125
Mira toda esta información
que veo constantemente.
954
00:57:42,208 --> 00:57:44,627
¿Cómo es que no ven lo mismo?".
955
00:57:44,711 --> 00:57:47,297
Y la respuesta es que no lo ven.
956
00:57:47,380 --> 00:57:50,800
¡Abre los ojos, no te creas las mentiras!
957
00:57:52,093 --> 00:57:53,720
¿Cómo son los republicanos?
958
00:57:53,803 --> 00:57:55,472
Gente que no tiene ni idea.
959
00:57:55,555 --> 00:57:58,933
El Partido Demócrata es
un sindicato del crimen.
960
00:57:59,017 --> 00:58:03,104
Un estudio del Centro de Investigación Pew
sobre 10 000 adultos
961
00:58:03,188 --> 00:58:05,315
nos muestra más divididos que nunca,
962
00:58:05,398 --> 00:58:09,235
con el mayor nivel en 20 años
de polarización personal y política.
963
00:58:11,696 --> 00:58:14,199
Más de un tercio de los republicanos dicen
964
00:58:14,282 --> 00:58:16,826
que el Partido Demócrata es una amenaza,
965
00:58:16,910 --> 00:58:20,580
más de una cuarta parte de los demócratas
dicen lo mismo de los republicanos.
966
00:58:20,663 --> 00:58:22,499
Muchos de los problemas,
967
00:58:22,582 --> 00:58:24,417
como la polarización política,
968
00:58:24,501 --> 00:58:28,046
existen a montones
en la televisión por cable.
969
00:58:28,129 --> 00:58:31,007
Los medios tienen el mismo problema
970
00:58:31,090 --> 00:58:33,343
que su modelo de negocio,
971
00:58:33,426 --> 00:58:35,762
y es que venden nuestra atención,
972
00:58:35,845 --> 00:58:38,890
e Internet es una forma nueva
y más eficiente de hacerlo.
973
00:58:40,391 --> 00:58:44,145
Trabajaba
en las recomendaciones de YouTube.
974
00:58:44,229 --> 00:58:47,190
Me preocupa que un algoritmo
en el que he trabajado
975
00:58:47,273 --> 00:58:50,401
esté aumentando la polarización
de la sociedad.
976
00:58:50,485 --> 00:58:53,112
Pero desde el punto de vista del tiempo,
977
00:58:53,196 --> 00:58:57,617
esta polarización es muy eficiente
manteniendo a la gente en línea.
978
00:58:58,785 --> 00:59:00,870
Solo enseñan eso
979
00:59:00,954 --> 00:59:02,288
porque les pagan.
980
00:59:02,372 --> 00:59:04,207
- Es absurdo.
- Hola, Benji.
981
00:59:04,791 --> 00:59:06,167
¿Hoy no hay fútbol?
982
00:59:06,251 --> 00:59:08,878
Sí. Estoy poniéndome al día
con las noticias.
983
00:59:08,962 --> 00:59:11,506
Lo que se aleje del extremo centro...
984
00:59:11,589 --> 00:59:14,008
Yo no llamaría a eso noticias.
985
00:59:15,552 --> 00:59:18,721
Siempre hablas
de lo mal que está todo. Ellos también.
986
00:59:19,305 --> 00:59:21,140
Pero eso es propaganda.
987
00:59:21,224 --> 00:59:24,060
No es cierto.
Se trata de lo que tiene sentido.
988
00:59:24,769 --> 00:59:26,938
Hablo en serio. Eso es malo para ti.
989
00:59:27,021 --> 00:59:28,356
Deberías ir a fútbol.
990
00:59:35,154 --> 00:59:37,490
Comparto esto porque me importa.
991
00:59:37,574 --> 00:59:41,077
Me importa que te engañen
y eso no está bien. ¿Vale?
992
00:59:41,160 --> 00:59:43,121
La gente cree
que el algoritmo está diseñado
993
00:59:43,204 --> 00:59:46,833
para darles lo que quieren, pero no.
994
00:59:46,916 --> 00:59:52,589
Intenta encontrar unos túneles
que sean muy poderosos,
995
00:59:52,672 --> 00:59:56,217
intenta encontrar
cuál es el más cercano a tu interés.
996
00:59:56,301 --> 00:59:59,262
Y si empiezas a ver uno de esos vídeos,
997
00:59:59,846 --> 01:00:02,223
te lo recomendará una y otra vez.
998
01:00:02,682 --> 01:00:04,934
No es que nadie quiera que esto pase.
999
01:00:05,018 --> 01:00:07,812
Es lo que hace
el sistema de recomendación.
1000
01:00:07,895 --> 01:00:10,815
Tanto que Kyrie Irving,
el jugador de baloncesto,
1001
01:00:11,399 --> 01:00:14,235
dijo que la Tierra era plana
y se disculpó luego,
1002
01:00:14,319 --> 01:00:16,112
porque culpó a YouTube.
1003
01:00:16,487 --> 01:00:18,656
Haces clic en YouTube
1004
01:00:18,740 --> 01:00:21,492
y dice hasta dónde llega el túnel.
1005
01:00:21,576 --> 01:00:23,369
Cuando fue a la radio a decir:
1006
01:00:23,453 --> 01:00:28,207
"Perdón, no quería engañar a nadie",
unos estudiantes dijeron:
1007
01:00:28,291 --> 01:00:30,293
"Los oficialistas le han pillado".
1008
01:00:31,002 --> 01:00:33,963
El algoritmo recomendó
la teoría de la conspiración
1009
01:00:34,047 --> 01:00:37,634
de la Tierra plana
cientos de millones de veces.
1010
01:00:37,717 --> 01:00:43,890
Es fácil pensar que solo convence
a unos pocos estúpidos,
1011
01:00:43,973 --> 01:00:46,893
pero el algoritmo es
cada vez más inteligente.
1012
01:00:46,976 --> 01:00:50,188
Hoy convencen a la gente
de que la Tierra es plana,
1013
01:00:50,271 --> 01:00:53,816
pero mañana te convencerán
de alguna otra falsedad.
1014
01:00:54,317 --> 01:00:57,820
El 7 de noviembre nació
el hashtag "Pizzagate".
1015
01:00:57,904 --> 01:00:59,197
Pizzagate...
1016
01:01:00,782 --> 01:01:01,658
Madre mía.
1017
01:01:03,159 --> 01:01:06,913
Aún no estoy 100 % segura
de cómo surgió esto,
1018
01:01:06,996 --> 01:01:12,377
pero la idea era que pedir una pizza
significaba traficar con personas.
1019
01:01:12,460 --> 01:01:15,046
Según los grupos crecían en Facebook,
1020
01:01:15,129 --> 01:01:19,967
el motor de recomendación
empezó a sugerir a los usuarios habituales
1021
01:01:20,051 --> 01:01:21,761
que se unieran al Pizzagate.
1022
01:01:21,844 --> 01:01:27,392
Si un usuario era, por ejemplo,
antivacunas o creía en estelas químicas
1023
01:01:27,475 --> 01:01:30,645
o había indicado
a los algoritmos de Facebook
1024
01:01:30,728 --> 01:01:33,398
que era propenso a creer
en conspiraciones,
1025
01:01:33,481 --> 01:01:36,859
el motor recomendaba
los grupos de Pizzagate.
1026
01:01:36,943 --> 01:01:41,072
Al final, esto culminó
con un hombre que apareció con una pistola
1027
01:01:41,155 --> 01:01:44,617
y decidió
que iba a liberar a los niños del sótano
1028
01:01:44,701 --> 01:01:47,036
de la pizzería que no tenía sótano.
1029
01:01:47,120 --> 01:01:50,248
- ¿Qué hacías allí?
- Asegurarme de que no había nada.
1030
01:01:50,415 --> 01:01:52,333
- ¿De qué?
- Un círculo pedófilo.
1031
01:01:52,417 --> 01:01:53,793
- ¿Qué?
- Un círculo pedófilo.
1032
01:01:53,876 --> 01:01:55,878
Habla del Pizzagate.
1033
01:01:55,962 --> 01:02:00,216
Este es un ejemplo
de una teoría de la conspiración
1034
01:02:00,299 --> 01:02:03,678
que se propagó
por todas las redes sociales.
1035
01:02:03,761 --> 01:02:06,097
El motor de recomendación
1036
01:02:06,180 --> 01:02:07,849
lo ofreció a gente
1037
01:02:07,932 --> 01:02:10,643
que nunca había buscado
el término "Pizzagate".
1038
01:02:10,727 --> 01:02:12,687
LA VERDAD SOBRE LOS DEMÓCRATAS
Y LA PEDOFILIA
1039
01:02:12,770 --> 01:02:14,439
Un estudio del MIT dice
1040
01:02:14,522 --> 01:02:19,444
que los bulos en Twitter se difunden
seis veces más rápido que la verdad.
1041
01:02:19,902 --> 01:02:21,863
¿Cómo será el mundo,
1042
01:02:21,946 --> 01:02:24,741
si una cosa tiene esa ventaja
sobre la otra?
1043
01:02:25,283 --> 01:02:27,660
Imagina que estas cosas son como…
1044
01:02:27,744 --> 01:02:31,622
Inclinan el suelo
del comportamiento humano.
1045
01:02:31,706 --> 01:02:34,709
Dificultan o facilitan
determinados comportamientos.
1046
01:02:34,792 --> 01:02:37,420
Y puedes subir la colina,
1047
01:02:37,503 --> 01:02:38,796
pero pocos lo harán,
1048
01:02:38,880 --> 01:02:43,050
así que, a escala social,
inclinas el suelo
1049
01:02:43,134 --> 01:02:45,970
y cambias lo que piensan y hacen
miles de millones de personas.
1050
01:02:46,053 --> 01:02:52,018
Hemos creado un sistema
que se inclina hacia la información falsa.
1051
01:02:52,643 --> 01:02:54,437
No porque queramos,
1052
01:02:54,520 --> 01:02:58,816
sino porque la información falsa hace
que las empresas ganen más dinero
1053
01:02:59,400 --> 01:03:01,611
que la verdad. La verdad es aburrida.
1054
01:03:01,986 --> 01:03:04,489
Es un modelo basado en la desinformación.
1055
01:03:04,906 --> 01:03:08,159
Ganas dinero
cuantos más mensajes no regulados lleguen
1056
01:03:08,701 --> 01:03:11,287
al mejor precio.
1057
01:03:11,662 --> 01:03:13,956
¿Por el cambio climático? Sí.
1058
01:03:14,040 --> 01:03:16,751
Es un engaño. Sí, así es. De eso se trata.
1059
01:03:16,834 --> 01:03:20,046
Cuanto más hablen de ello
y más nos dividan,
1060
01:03:20,129 --> 01:03:22,423
más poder y más control tienen.
1061
01:03:22,507 --> 01:03:25,468
Facebook tiene
miles de millones de noticias.
1062
01:03:26,552 --> 01:03:29,180
No saben qué es real ni qué es verdad,
1063
01:03:29,972 --> 01:03:33,726
por eso el tema es tan crítico.
1064
01:03:33,810 --> 01:03:37,021
No solo el COVID-19
se está extendiendo rápidamente.
1065
01:03:37,104 --> 01:03:40,191
Hay un flujo de desinformación
sobre el virus.
1066
01:03:40,274 --> 01:03:43,694
La idea de que beber más agua
lo eliminará de tu sistema
1067
01:03:43,778 --> 01:03:47,490
es uno de los mitos
que circula en las redes sociales.
1068
01:03:47,573 --> 01:03:50,451
El Gobierno planeó este evento,
creó el virus
1069
01:03:50,535 --> 01:03:52,954
y simuló cómo reaccionarían los países.
1070
01:03:53,955 --> 01:03:55,581
El coronavirus es falso.
1071
01:03:56,165 --> 01:03:57,959
SARS, coronavirus.
1072
01:03:58,376 --> 01:04:01,045
Y mirad cuándo se hizo. En 2018.
1073
01:04:01,128 --> 01:04:03,798
El Gobierno de los Estados Unidos
empezó esto.
1074
01:04:04,215 --> 01:04:09,095
Nadie está enfermo.
Nadie conoce a ningún enfermo.
1075
01:04:09,512 --> 01:04:13,015
Quizá el Gobierno esté usando
el coronavirus como excusa
1076
01:04:13,099 --> 01:04:15,643
para encerrarnos porque ocurre otra cosa.
1077
01:04:15,726 --> 01:04:18,020
El coronavirus no mata a la gente,
1078
01:04:18,104 --> 01:04:20,940
es la radiación 5G que emiten.
1079
01:04:21,023 --> 01:04:22,525
TORRES 5G CORTADAS Y QUEMADAS
1080
01:04:22,608 --> 01:04:24,569
Nos bombardean con rumores.
1081
01:04:25,403 --> 01:04:28,823
La gente está destrozando
torres telefónicas.
1082
01:04:28,906 --> 01:04:32,159
Rusia y China difunden rumores
y teorías conspirativas.
1083
01:04:32,243 --> 01:04:35,246
Esta mañana,
el pánico y las protestas en Ucrania...
1084
01:04:35,329 --> 01:04:38,916
La gente no sabe qué es verdad
y ahora es vital.
1085
01:04:40,001 --> 01:04:42,628
Las fuentes que difunden
información errónea
1086
01:04:42,712 --> 01:04:45,798
han acumulado
52 millones de interacciones.
1087
01:04:45,882 --> 01:04:50,094
Dices que la solución de plata
sería eficaz.
1088
01:04:50,177 --> 01:04:54,140
Bueno, no se ha probado
en esta cepa del coronavirus, pero...
1089
01:04:54,223 --> 01:04:57,226
Lo que vemos con el COVID es
una versión extrema
1090
01:04:57,310 --> 01:05:00,104
de nuestro ecosistema de información.
1091
01:05:01,105 --> 01:05:05,026
Las redes sociales amplifican
los cotilleos y los rumores
1092
01:05:05,109 --> 01:05:08,779
hasta no poder diferenciar qué es verdad,
sin importar el tema.
1093
01:05:26,130 --> 01:05:27,465
¿Sigues en el equipo?
1094
01:05:30,468 --> 01:05:34,430
Voy a comer algo antes de entrenar,
por si quieres venir.
1095
01:05:37,642 --> 01:05:38,684
Da igual.
1096
01:05:45,066 --> 01:05:47,526
Nueve de cada diez no están satisfechos.
1097
01:05:47,610 --> 01:05:50,613
El EC es
como cualquier movimiento político.
1098
01:05:50,696 --> 01:05:54,492
Estamos aquí y... desafiamos este ruido.
1099
01:05:54,575 --> 01:05:57,036
Sois mi gente. Confío en vosotros.
1100
01:05:59,246 --> 01:06:02,583
- El contenido del EC es genial.
- Le encanta.
1101
01:06:02,667 --> 01:06:03,626
Subastando.
1102
01:06:04,627 --> 01:06:08,547
843 postores, vendido por 4,35 centavos
a un fabricante de armas.
1103
01:06:08,631 --> 01:06:10,800
Promocionemos algunos eventos.
1104
01:06:10,883 --> 01:06:13,511
Manifestaciones en su zona esta semana.
1105
01:06:13,594 --> 01:06:15,179
Y tengo un vlogger nuevo.
1106
01:06:17,890 --> 01:06:22,979
Estoy dispuesto a hacer lo que haga falta.
1107
01:06:23,062 --> 01:06:24,939
Cualquier cosa.
1108
01:06:32,154 --> 01:06:35,908
- Suscribiros y volved, porque os digo...
- ¿Ben?
1109
01:06:36,659 --> 01:06:38,869
que tengo cosas muy importantes.
1110
01:06:38,953 --> 01:06:40,287
Cosas muy importantes.
1111
01:06:40,788 --> 01:06:45,292
Uno de los problemas con Facebook es
que, como herramienta de persuasión,
1112
01:06:45,793 --> 01:06:47,920
puede ser el mejor invento.
1113
01:06:48,004 --> 01:06:52,508
Imagina lo que eso significa
en manos de un dictador o un tirano.
1114
01:06:53,718 --> 01:06:57,638
Si quieres controlar
a la población de tu país,
1115
01:06:57,722 --> 01:07:01,308
nunca ha habido
una herramienta tan eficaz como Facebook.
1116
01:07:04,770 --> 01:07:07,398
Algunas de las implicaciones
más preocupantes
1117
01:07:07,481 --> 01:07:11,193
de que los Gobiernos y otros malhechores
usen las redes sociales
1118
01:07:11,610 --> 01:07:13,612
es el daño fuera de Internet.
1119
01:07:13,696 --> 01:07:15,072
El ejemplo más conocido
1120
01:07:15,156 --> 01:07:17,658
es lo que ha pasado en Birmania.
1121
01:07:17,742 --> 01:07:19,160
OFICINA DEL PRESIDENTE
1122
01:07:19,243 --> 01:07:22,913
Allí, cuando la gente piensa en Internet,
piensa en Facebook.
1123
01:07:22,997 --> 01:07:25,916
Y lo que pasa es
que cuando compran un móvil
1124
01:07:26,000 --> 01:07:29,920
viene con Facebook ya descargado
1125
01:07:30,004 --> 01:07:31,505
y con una cuenta abierta.
1126
01:07:31,589 --> 01:07:34,884
Y cuando la gente recibe su móvil,
lo primero que abren
1127
01:07:34,967 --> 01:07:37,595
y lo único que saben abrir es Facebook.
1128
01:07:38,179 --> 01:07:41,891
Una nueva investigación
pone al descubierto la lucha de Facebook
1129
01:07:41,974 --> 01:07:43,809
para abordar el odio en Birmania.
1130
01:07:43,893 --> 01:07:46,020
DEJAD DE MATAR MUSULMANES
1131
01:07:46,103 --> 01:07:49,190
Facebook dio a los militares
y a otros malhechores
1132
01:07:49,273 --> 01:07:51,776
una nueva forma
de manipular la opinión pública
1133
01:07:51,859 --> 01:07:55,529
y de incitar a la violencia
contra los musulmanes rohinyás,
1134
01:07:55,613 --> 01:07:57,406
provocando asesinatos en masa,
1135
01:07:58,115 --> 01:07:59,867
la quema de pueblos enteros,
1136
01:07:59,950 --> 01:08:03,704
violaciones en masa
y otros crímenes contra la humanidad
1137
01:08:03,788 --> 01:08:08,209
que han provocado que 700 000 rohinyás
tengan que huir del país.
1138
01:08:11,170 --> 01:08:16,550
No es que los propagandistas
no hayan existido antes.
1139
01:08:16,634 --> 01:08:19,762
Es que las plataformas permiten
1140
01:08:19,845 --> 01:08:23,724
difundir historias manipuladoras
con gran facilidad
1141
01:08:23,808 --> 01:08:25,434
y sin mucho dinero.
1142
01:08:25,518 --> 01:08:27,645
Si quiero manipular unas elecciones,
1143
01:08:27,728 --> 01:08:30,564
entro en un grupo conspiranoico
en Facebook
1144
01:08:30,648 --> 01:08:32,233
y encuentro a 100 personas
1145
01:08:32,316 --> 01:08:34,443
que creen que la Tierra es plana
1146
01:08:34,860 --> 01:08:37,780
y creen en la conspiración
del viaje a la Luna
1147
01:08:37,863 --> 01:08:41,450
y puedo decirle a Facebook:
"Dame mil usuarios así".
1148
01:08:42,118 --> 01:08:46,080
Facebook me enviará
miles de usuarios como esos
1149
01:08:46,163 --> 01:08:49,250
a los que puedo soltar
más teorías conspirativas.
1150
01:08:51,168 --> 01:08:52,837
Vendido por 3,4 centavos.
1151
01:08:53,379 --> 01:08:54,922
Nuevo vídeo de EC.
1152
01:08:55,005 --> 01:08:56,132
Otro anuncio listo.
1153
01:08:58,509 --> 01:09:02,054
Los algoritmos
y los políticos manipuladores son expertos
1154
01:09:02,138 --> 01:09:04,056
en saber cómo llegar a nosotros,
1155
01:09:04,140 --> 01:09:08,227
son muy buenos creando bulos
que absorbemos como si fueran realidad
1156
01:09:08,310 --> 01:09:10,813
y confundiéndonos
para creer esas mentiras.
1157
01:09:10,896 --> 01:09:12,606
Cada vez controlamos menos
1158
01:09:12,690 --> 01:09:14,150
quiénes somos y en qué creemos.
1159
01:09:31,417 --> 01:09:32,668
...para elegir bando.
1160
01:09:32,751 --> 01:09:34,879
Hay mentiras por todos lados.
1161
01:09:34,962 --> 01:09:39,967
Para conservar el poder
y que puedan controlarlo todo.
1162
01:09:40,050 --> 01:09:44,555
Pueden controlar nuestras mentes
para mantener sus secretos.
1163
01:09:44,638 --> 01:09:46,390
DUDA DE LA VERDAD
1164
01:09:46,473 --> 01:09:48,517
LOS CCE ADMITEN ENCUBRIR
EL AUTISMO POR VACUNAS
1165
01:09:48,601 --> 01:09:50,895
Imagina que todos creen mentiras.
1166
01:09:50,978 --> 01:09:53,314
LAS VACUNAS NO SON UNIVERSALES
NUESTROS GENES LO PRUEBAN
1167
01:09:53,397 --> 01:09:55,649
Que el Gobierno miente.
1168
01:09:56,317 --> 01:09:58,444
Que todo es una conspiración.
1169
01:09:58,527 --> 01:10:01,197
"No os fiéis de nadie. Odio a los otros".
1170
01:10:01,280 --> 01:10:02,698
Hacia eso vamos.
1171
01:10:02,781 --> 01:10:06,160
Los terremotos políticos en Europa
siguen retumbando,
1172
01:10:06,243 --> 01:10:08,412
esta vez en Italia y España.
1173
01:10:08,495 --> 01:10:11,999
La coalición centrista de Europa
perdió la mayoría,
1174
01:10:12,082 --> 01:10:15,002
mientras la extrema derecha e izquierda
lograron avances.
1175
01:10:17,588 --> 01:10:19,048
CENTRO
1176
01:10:19,757 --> 01:10:20,591
Atrás.
1177
01:10:21,675 --> 01:10:22,509
Vale, vamos.
1178
01:10:28,390 --> 01:10:31,268
Estas cuentas intentaban deliberadamente
1179
01:10:31,352 --> 01:10:33,896
sembrar la discordia política
en Hong Kong.
1180
01:10:38,609 --> 01:10:39,610
Vale, Ben.
1181
01:10:42,863 --> 01:10:45,032
¿Qué se siente al ser un país
1182
01:10:45,115 --> 01:10:48,869
que solo se informa a través de Facebook
y las redes sociales?
1183
01:10:48,953 --> 01:10:50,871
La democracia cayó rápidamente.
1184
01:10:50,955 --> 01:10:51,830
En seis meses.
1185
01:10:51,914 --> 01:10:53,791
Tras el caos en Chicago,
1186
01:10:53,874 --> 01:10:57,044
enfrentamientos
entre manifestantes y partidarios…
1187
01:10:58,003 --> 01:11:01,632
La democracia se enfrenta
a una crisis de confianza.
1188
01:11:01,715 --> 01:11:04,343
Hay un ataque global a la democracia.
1189
01:11:04,426 --> 01:11:05,427
EXTREMO
CENTRO
1190
01:11:05,511 --> 01:11:07,930
Los objetivos son países
1191
01:11:08,013 --> 01:11:09,723
con elecciones democráticas.
1192
01:11:10,641 --> 01:11:12,518
Está pasando a gran escala.
1193
01:11:12,601 --> 01:11:15,562
Por actores estatales,
por millonarios que dicen:
1194
01:11:15,646 --> 01:11:18,524
"Quiero desestabilizar Kenia, Camerún.
1195
01:11:18,607 --> 01:11:20,651
¿Angola? Solo cuesta esto".
1196
01:11:20,734 --> 01:11:23,362
Elecciones extraordinarias en Brasil.
1197
01:11:23,445 --> 01:11:25,823
Con una campaña impulsada
por las redes sociales.
1198
01:11:31,036 --> 01:11:33,956
En la industria tecnológica
hemos creado las herramientas
1199
01:11:34,039 --> 01:11:37,418
para desestabilizar
y erosionar el tejido de la sociedad,
1200
01:11:37,501 --> 01:11:40,254
todos los países a la vez,
en todas partes.
1201
01:11:40,337 --> 01:11:44,508
Ocurre en Alemania, España,
Francia, Brasil, Australia...
1202
01:11:44,591 --> 01:11:47,011
Algunas de las naciones más desarrolladas
1203
01:11:47,386 --> 01:11:49,221
están implosionándose entre sí,
1204
01:11:49,305 --> 01:11:50,931
¿y qué tienen en común?
1205
01:11:51,974 --> 01:11:53,017
Con lo que sabes,
1206
01:11:53,100 --> 01:11:56,312
¿crees que Facebook afectó
las elecciones de 2016?
1207
01:11:56,854 --> 01:11:58,188
Una pregunta difícil.
1208
01:11:58,897 --> 01:11:59,773
A ver...
1209
01:12:00,024 --> 01:12:04,653
La realidad es que había
muchas fuerzas en juego.
1210
01:12:04,737 --> 01:12:07,865
Representantes de Facebook, Twitter
y Google están en Capitol Hill
1211
01:12:07,948 --> 01:12:09,366
para volver a declarar
1212
01:12:09,450 --> 01:12:12,578
sobre la interferencia rusa
en las elecciones de 2016.
1213
01:12:12,661 --> 01:12:17,291
La manipulación por parte de un tercero
no es piratería.
1214
01:12:18,500 --> 01:12:21,462
¿Verdad? Los rusos no piratearon Facebook.
1215
01:12:21,545 --> 01:12:24,965
Lo que hicieron fue usar
las herramientas que Facebook creó
1216
01:12:25,049 --> 01:12:27,843
para anunciantes legítimos
y usuarios legítimos,
1217
01:12:27,926 --> 01:12:30,346
y las aplicaron con un propósito vil.
1218
01:12:31,930 --> 01:12:34,058
Es como una guerra a control remoto.
1219
01:12:34,475 --> 01:12:36,602
Un país puede manipular a otro
1220
01:12:36,685 --> 01:12:39,229
sin invadir sus fronteras físicas.
1221
01:12:39,605 --> 01:12:40,981
Vemos la violencia.
1222
01:12:41,065 --> 01:12:43,317
Empujan un contenedor de basura...
1223
01:12:43,400 --> 01:12:45,736
No se trataba de a quién votar.
1224
01:12:46,362 --> 01:12:50,574
Se trataba de sembrar el caos
y la división en la sociedad.
1225
01:12:50,657 --> 01:12:53,035
Una marcha en la playa de Huntington...
1226
01:12:53,118 --> 01:12:54,870
Se trata de crear dos bandos
1227
01:12:54,953 --> 01:12:56,413
que no se escuchaban,
1228
01:12:56,497 --> 01:12:58,123
que no querían escucharse,
1229
01:12:58,207 --> 01:12:59,875
que no confiaban en el otro.
1230
01:12:59,958 --> 01:13:02,252
El odio quedó al descubierto
1231
01:13:03,295 --> 01:13:05,464
y se transformó en violencia racial.
1232
01:13:05,547 --> 01:13:07,925
TENSIÓN EN VIRGINIA
TRES MUERTOS
1233
01:13:20,145 --> 01:13:20,979
¡Ben!
1234
01:13:21,605 --> 01:13:22,439
¡Cassandra!
1235
01:13:22,898 --> 01:13:23,816
- ¡Cass!
- ¡Ben!
1236
01:13:23,899 --> 01:13:25,484
¡Ven aquí!
1237
01:13:27,486 --> 01:13:31,156
Brazos arriba. De rodillas. Al suelo.
1238
01:13:36,120 --> 01:13:37,204
- Calma.
- ¡Ben!
1239
01:13:37,287 --> 01:13:38,414
¡Eh! ¡Manos arriba!
1240
01:13:39,623 --> 01:13:41,291
Date la vuelta. Al suelo.
1241
01:13:56,807 --> 01:13:59,643
¿Queremos vender este sistema
al mejor postor?
1242
01:14:01,145 --> 01:14:05,399
¿Para que la democracia esté a la venta
y podamos manipular a cualquiera,
1243
01:14:05,482 --> 01:14:08,694
soltar una mentira
y crear guerras culturales?
1244
01:14:09,236 --> 01:14:10,237
¿Queremos eso?
1245
01:14:14,658 --> 01:14:16,326
Somos una nación de gente...
1246
01:14:16,952 --> 01:14:18,620
que ya no se habla.
1247
01:14:20,080 --> 01:14:23,000
Somos una nación de gente
que no habla con otros
1248
01:14:23,083 --> 01:14:25,127
por el candidato que votan.
1249
01:14:25,919 --> 01:14:28,422
Somos una nación de gente
que se ha aislado
1250
01:14:28,505 --> 01:14:30,966
para ver canales
que nos dicen que tenemos razón.
1251
01:14:32,259 --> 01:14:35,888
Mi mensaje es
que el tribalismo nos está arruinando.
1252
01:14:37,556 --> 01:14:39,183
Destruye nuestro país.
1253
01:14:40,267 --> 01:14:43,020
Los adultos cuerdos no pueden actuar así.
1254
01:14:43,103 --> 01:14:45,314
Si todos tienen derecho a sus hechos,
1255
01:14:45,397 --> 01:14:49,359
no hay necesidad de llegar a un acuerdo
ni de que la gente se una.
1256
01:14:49,443 --> 01:14:51,695
No hace falta que la gente interactúe.
1257
01:14:52,321 --> 01:14:56,617
Necesitamos una comprensión común
de la realidad.
1258
01:14:57,242 --> 01:14:58,410
O no somos un país.
1259
01:14:58,911 --> 01:15:02,998
La solución es
construir más herramientas de IA
1260
01:15:03,081 --> 01:15:08,128
que encuentren patrones de gente
usando servicios que nadie usaría.
1261
01:15:08,212 --> 01:15:11,840
Permitimos a los tecnólogos
enmarcar esto como un problema
1262
01:15:11,924 --> 01:15:14,009
que están preparados para resolver.
1263
01:15:15,135 --> 01:15:16,470
Eso es mentira.
1264
01:15:17,679 --> 01:15:20,724
La gente habla de la IA
como si supiera la verdad.
1265
01:15:21,683 --> 01:15:23,769
La IA no resolverá estos problemas.
1266
01:15:24,269 --> 01:15:27,189
La IA no puede
resolver el problema de los bulos.
1267
01:15:28,649 --> 01:15:31,026
Google no tiene la opción de decir:
1268
01:15:31,109 --> 01:15:34,154
"¿Es una conspiración? ¿Es verdad?".
1269
01:15:34,613 --> 01:15:36,240
Porque desconoce la verdad.
1270
01:15:36,823 --> 01:15:40,410
La única verdad que conoce es un clic.
1271
01:15:41,870 --> 01:15:45,123
Si no coincidimos en lo que es verdad
1272
01:15:45,207 --> 01:15:47,584
o en que la verdad existe,
1273
01:15:48,293 --> 01:15:49,294
estamos acabados.
1274
01:15:49,753 --> 01:15:52,089
Este es el problema subyacente,
1275
01:15:52,172 --> 01:15:54,424
porque si no coincidimos
en lo que es verdad,
1276
01:15:55,092 --> 01:15:57,803
no podemos salir de ningún problema.
1277
01:16:05,352 --> 01:16:07,729
Sugiramos que siga
al Terraplanistas F.C.
1278
01:16:07,813 --> 01:16:10,107
No más deportes. No conecta.
1279
01:16:39,928 --> 01:16:42,764
Mucha gente en Silicon Valley
suscribe la teoría
1280
01:16:42,848 --> 01:16:45,225
de que estamos construyendo
un supercerebro global
1281
01:16:45,309 --> 01:16:48,020
y los usuarios
son neuronas intercambiables,
1282
01:16:48,103 --> 01:16:49,563
ninguno es importante.
1283
01:16:50,230 --> 01:16:53,150
Y subyuga a la gente en este extraño papel
1284
01:16:53,233 --> 01:16:56,069
donde uno es
un pequeño elemento informático
1285
01:16:56,153 --> 01:16:58,947
que programamos
mediante manipulación conductual
1286
01:16:59,031 --> 01:17:02,367
al servicio de este cerebro gigante,
y tú no importas.
1287
01:17:02,451 --> 01:17:06,455
No te pagarán, no te reconocerán,
no tendrás autodeterminación.
1288
01:17:06,538 --> 01:17:09,374
Te manipularemos porque eres un nodo,
1289
01:17:09,458 --> 01:17:12,336
hay que programarte,
porque es lo que se hace con los nodos.
1290
01:17:20,093 --> 01:17:21,094
Madre mía.
1291
01:17:21,428 --> 01:17:25,390
Cuando piensas en la tecnología
y en que es una amenaza existencial,
1292
01:17:25,474 --> 01:17:28,060
es un gran reclamo y...
1293
01:17:29,603 --> 01:17:33,982
es fácil pensar: "Estoy con el móvil...
1294
01:17:35,609 --> 01:17:39,196
navegando, haciendo clic, usándolo.
¿Dónde está la amenaza?
1295
01:17:40,280 --> 01:17:41,615
Hay un superordenador
1296
01:17:41,698 --> 01:17:43,950
al otro lado apuntando a mi cerebro
1297
01:17:44,409 --> 01:17:47,537
que me hizo ver un vídeo.
¿Dónde está la amenaza?".
1298
01:17:54,252 --> 01:17:59,341
No se trata de que la tecnología sea
la amenaza existencial.
1299
01:18:02,386 --> 01:18:04,346
VISTA SOBRE TECNOLOGÍA PERSUASIVA
1300
01:18:04,429 --> 01:18:08,850
Es la capacidad de la tecnología
para sacar lo peor de la sociedad,
1301
01:18:09,559 --> 01:18:13,522
y lo peor de la sociedad es
la amenaza existencial.
1302
01:18:13,605 --> 01:18:15,899
SENADO DE LOS ESTADOS UNIDOS
1303
01:18:18,819 --> 01:18:23,073
Si la tecnología crea un caos masivo,
1304
01:18:23,156 --> 01:18:24,533
indignación, incivismo,
1305
01:18:24,616 --> 01:18:26,326
desconfianza,
1306
01:18:27,452 --> 01:18:30,622
soledad, alienación, más polarización,
1307
01:18:30,706 --> 01:18:33,333
más pirateo electoral, más populismo,
1308
01:18:33,917 --> 01:18:36,962
distracción e incapacidad
para centrarse en los problemas reales...
1309
01:18:37,963 --> 01:18:39,214
es solo sociedad.
1310
01:18:40,340 --> 01:18:46,388
Y ahora la sociedad es incapaz de curarse
1311
01:18:46,471 --> 01:18:48,515
y se convierte en un caos.
1312
01:18:51,977 --> 01:18:54,938
Afecta a todos,
incluso si no usas estos productos.
1313
01:18:55,021 --> 01:18:57,524
Son Frankensteins digitales
1314
01:18:57,607 --> 01:19:00,068
que transforman el mundo a su imagen,
1315
01:19:00,152 --> 01:19:04,489
ya sea la salud mental infantil,
la política o nuestro discurso político,
1316
01:19:04,573 --> 01:19:07,492
sin responsabilizarse
por dominar la vida pública.
1317
01:19:07,576 --> 01:19:10,537
- Vuelve a...
- ¿Y quién es responsable?
1318
01:19:10,620 --> 01:19:13,582
Debemos hacer
que las plataformas sean responsables
1319
01:19:13,665 --> 01:19:17,794
cuando controlen la publicidad electoral,
que protejan las elecciones.
1320
01:19:17,878 --> 01:19:20,380
Cuando controlan los dibujos infantiles,
1321
01:19:20,464 --> 01:19:22,716
son responsables del contenido.
1322
01:19:23,717 --> 01:19:27,929
La carrera por llamar la atención
no va a desaparecer.
1323
01:19:28,388 --> 01:19:31,850
La tecnología se integrará más
en nuestras vidas, no menos.
1324
01:19:31,933 --> 01:19:34,895
La IA predecirá mejor lo que nos engancha,
1325
01:19:34,978 --> 01:19:37,105
no peor.
1326
01:19:38,940 --> 01:19:42,027
Tengo 62 años,
1327
01:19:42,110 --> 01:19:45,155
y envejezco conforme hablamos,
1328
01:19:45,238 --> 01:19:47,365
pero les diré que...
1329
01:19:48,700 --> 01:19:52,370
seguro que voy a morir
y estaré agradecido
1330
01:19:52,454 --> 01:19:54,414
cuando esto llegue a buen puerto.
1331
01:19:54,790 --> 01:19:59,586
Porque me aterroriza profundamente.
1332
01:20:00,921 --> 01:20:03,048
¿Piensan lo mismo?
1333
01:20:03,548 --> 01:20:06,968
¿O estoy exagerando
ante una situación que no conozco bien?
1334
01:20:09,638 --> 01:20:11,598
¿Qué es lo que más te preocupaba?
1335
01:20:15,519 --> 01:20:18,480
A corto plazo...
1336
01:20:19,523 --> 01:20:20,524
la guerra civil.
1337
01:20:24,444 --> 01:20:29,908
Si las cosas siguen
como hasta ahora otros 20 años...
1338
01:20:31,117 --> 01:20:34,579
destruiremos la civilización
por la ignorancia deliberada.
1339
01:20:34,663 --> 01:20:37,958
No superaremos el reto
del cambio climático.
1340
01:20:38,041 --> 01:20:42,087
Probablemente degrademos
las democracias mundiales
1341
01:20:42,170 --> 01:20:46,132
para que caigan
en una extraña disfunción autocrática.
1342
01:20:46,216 --> 01:20:48,426
Arruinaremos la economía global.
1343
01:20:49,177 --> 01:20:52,264
Probablemente no sobrevivamos.
1344
01:20:52,347 --> 01:20:54,808
Lo veo como existencial.
1345
01:21:02,524 --> 01:21:04,985
¿Es esta la última generación
1346
01:21:05,068 --> 01:21:08,488
que sabrá cómo era
antes de que ocurriera esta ilusión?
1347
01:21:11,074 --> 01:21:14,578
¿Cómo te despiertas del Matrix
si no sabes que estás en él?
1348
01:21:17,747 --> 01:21:23,253
"YA SEA UTOPÍA U OLVIDO
SERÁ UNA CARRERA DE RELEVOS
1349
01:21:23,336 --> 01:21:27,299
HASTA EL ÚLTIMO MOMENTO...".
1350
01:21:27,382 --> 01:21:30,635
Mucho de lo que decimos parece...
1351
01:21:31,511 --> 01:21:33,597
una fatalidad unilateral.
1352
01:21:33,680 --> 01:21:36,808
En plan: "Dios, la tecnología
está arruinando el mundo
1353
01:21:36,892 --> 01:21:38,059
y a los niños",
1354
01:21:38,143 --> 01:21:39,269
y... no.
1355
01:21:40,228 --> 01:21:45,567
Es confuso porque es utopía y distopía.
1356
01:21:45,942 --> 01:21:50,447
Podría presionar un botón de mi móvil
y un coche aparece en 30 segundos
1357
01:21:50,530 --> 01:21:52,699
y puedo ir adonde necesite.
1358
01:21:52,782 --> 01:21:55,660
Eso es magia. Es increíble.
1359
01:21:56,161 --> 01:21:57,662
Al hacer el botón "Me gusta",
1360
01:21:57,746 --> 01:22:01,499
la motivación era: "¿Podemos difundir
positividad y amor?".
1361
01:22:01,583 --> 01:22:05,003
La idea de que hoy
los adolescentes se deprimirían
1362
01:22:05,086 --> 01:22:06,379
si no tienen suficientes
1363
01:22:06,463 --> 01:22:09,883
o que podría llevar a la polarización
política era inimaginable.
1364
01:22:09,966 --> 01:22:12,135
No creo que decidieran ser malvados.
1365
01:22:13,511 --> 01:22:15,764
El problema es el modelo de negocio.
1366
01:22:15,847 --> 01:22:20,226
Podrías cerrar el servicio
y destruir lo que sea,
1367
01:22:20,310 --> 01:22:24,522
20 000 millones de dólares
de valor accionarial y que te denuncien...
1368
01:22:24,606 --> 01:22:27,108
Pero no puedes volver atrás en el tiempo.
1369
01:22:27,192 --> 01:22:30,403
Puedes hacer algunos retoques,
pero al final,
1370
01:22:30,487 --> 01:22:34,032
tienes que aumentar los ingresos
y el uso cada trimestre.
1371
01:22:34,658 --> 01:22:37,535
Cuanto más grande sea,
más costará cambiarlo.
1372
01:22:38,495 --> 01:22:43,458
Lo que veo es un grupo de personas
atrapadas por un modelo de negocio,
1373
01:22:43,541 --> 01:22:46,169
un incentivo económico
y la presión de los accionistas
1374
01:22:46,252 --> 01:22:48,922
que hace casi imposible cambiarlo.
1375
01:22:49,005 --> 01:22:53,176
Debemos aceptar que está bien
que las empresas busquen ganar dinero.
1376
01:22:53,259 --> 01:22:56,888
Lo que está mal es
que no haya normas, reglas ni competencia,
1377
01:22:56,972 --> 01:23:00,850
y las empresas actúen
como gobiernos de facto.
1378
01:23:00,934 --> 01:23:03,353
Y digan: "Podemos autorregularnos".
1379
01:23:03,436 --> 01:23:05,981
Es solo una mentira. Es ridículo.
1380
01:23:06,064 --> 01:23:09,150
Los estímulos financieros son
la base del mundo,
1381
01:23:09,234 --> 01:23:15,573
así que cualquier solución
a este problema tiene que realinearlos.
1382
01:23:16,074 --> 01:23:18,785
No hay razón fiscal para que cambien.
1383
01:23:18,868 --> 01:23:21,329
Y por eso necesitamos una reglamentación.
1384
01:23:21,413 --> 01:23:24,290
Las compañías telefónicas tienen
datos nuestros
1385
01:23:24,374 --> 01:23:27,544
y hay leyes que aseguran
que hagan lo correcto.
1386
01:23:27,627 --> 01:23:31,506
Casi no tenemos leyes
sobre privacidad digital, por ejemplo.
1387
01:23:31,589 --> 01:23:34,426
Podríamos gravar la recogida de datos.
1388
01:23:34,509 --> 01:23:37,554
De la misma forma
que pagas la factura del agua
1389
01:23:37,637 --> 01:23:39,723
controlando la cantidad que usas,
1390
01:23:39,806 --> 01:23:43,226
gravas a las empresas
por los activos de datos que tienen.
1391
01:23:43,309 --> 01:23:44,769
Les da una razón fiscal
1392
01:23:44,853 --> 01:23:47,856
para no obtener
todos los datos del planeta.
1393
01:23:47,939 --> 01:23:50,567
La ley va muy por detrás de estas cosas,
1394
01:23:50,650 --> 01:23:55,864
pero lo que sé es que la situación actual
no existe para proteger a los usuarios,
1395
01:23:55,947 --> 01:23:58,700
sino para proteger
los derechos y privilegios
1396
01:23:58,783 --> 01:24:01,453
de estas empresas gigantescas y ricas.
1397
01:24:02,245 --> 01:24:05,832
¿Siempre vamos a ceder
ante los más ricos y poderosos?
1398
01:24:05,915 --> 01:24:07,417
¿O vamos a decir:
1399
01:24:07,959 --> 01:24:12,047
"Hay veces que hay un interés nacional,
1400
01:24:12,130 --> 01:24:15,592
a veces los intereses de la gente,
de los consumidores,
1401
01:24:15,675 --> 01:24:17,385
son más importantes
1402
01:24:18,011 --> 01:24:21,473
que los beneficios de alguien
que ya es multimillonario"?
1403
01:24:21,890 --> 01:24:26,603
Estos mercados socavan
la democracia y la libertad
1404
01:24:26,686 --> 01:24:28,521
y deberían ser prohibidos.
1405
01:24:29,147 --> 01:24:31,816
No es una propuesta radical.
1406
01:24:31,900 --> 01:24:34,194
Hay otros mercados que prohibimos.
1407
01:24:34,277 --> 01:24:36,988
Prohibimos los mercados
de órganos humanos.
1408
01:24:37,072 --> 01:24:39,491
Prohibimos los mercados de esclavos.
1409
01:24:39,949 --> 01:24:44,037
Porque tienen consecuencias destructivas.
1410
01:24:44,537 --> 01:24:45,830
Vivimos en un mundo
1411
01:24:45,914 --> 01:24:50,001
en el que un árbol vale más,
económicamente, muerto que vivo,
1412
01:24:50,085 --> 01:24:53,838
en un mundo en el que una ballena
vale más muerta que viva.
1413
01:24:53,922 --> 01:24:58,134
Mientras la economía funcione así
y las corporaciones no se regulen,
1414
01:24:58,218 --> 01:25:00,678
van a seguir destruyendo árboles,
1415
01:25:00,762 --> 01:25:01,763
matando ballenas
1416
01:25:01,846 --> 01:25:06,101
explotando la tierra
y sacando petróleo del suelo,
1417
01:25:06,184 --> 01:25:08,436
aunque sepamos que destruye el planeta
1418
01:25:08,520 --> 01:25:12,148
y que dejará un mundo peor
para las generaciones futuras.
1419
01:25:12,232 --> 01:25:13,858
Piensan a corto plazo
1420
01:25:13,942 --> 01:25:16,694
por la religión del lucro a toda costa,
1421
01:25:16,778 --> 01:25:20,156
como si el que cada empresa actúe
en su propio interés
1422
01:25:20,240 --> 01:25:21,950
produzca el mejor resultado.
1423
01:25:22,033 --> 01:25:24,494
Esto ha afectado al medio ambiente.
1424
01:25:24,577 --> 01:25:29,207
Lo qué es aterrador
y nos hará despertar como civilización
1425
01:25:29,290 --> 01:25:31,709
sobre lo errónea que ha sido esta teoría
1426
01:25:31,793 --> 01:25:35,004
es ver que ahora somos el árbol,
somos la ballena.
1427
01:25:35,088 --> 01:25:37,048
Pueden explotar nuestra atención.
1428
01:25:37,132 --> 01:25:41,594
Somos más rentables para una empresa
si pasamos tiempo mirando una pantalla,
1429
01:25:41,678 --> 01:25:42,971
mirando un anuncio,
1430
01:25:43,054 --> 01:25:45,890
que si aprovechamos ese tiempo.
1431
01:25:45,974 --> 01:25:47,559
Y vemos los resultados.
1432
01:25:47,642 --> 01:25:50,645
Vemos empresas que usan
una IA poderosa
1433
01:25:50,728 --> 01:25:53,648
para engañarnos y ver
cómo captar nuestra atención
1434
01:25:53,731 --> 01:25:55,358
para que veamos lo que quieren,
1435
01:25:55,441 --> 01:25:59,237
en vez de lo que encaja
con nuestras metas, valores y vidas.
1436
01:26:02,991 --> 01:26:04,450
ORADOR PRINCIPAL DE HOY
1437
01:26:05,535 --> 01:26:06,911
Para mí un ordenador es
1438
01:26:06,995 --> 01:26:10,290
la herramienta más extraordinaria
que hemos inventado.
1439
01:26:11,124 --> 01:26:13,877
Es como una bicicleta
para nuestras mentes.
1440
01:26:15,628 --> 01:26:20,091
Silicon Valley empezó
por la idea de la tecnología humana.
1441
01:26:21,050 --> 01:26:25,722
Y lo hemos olvidado
porque se convirtió en algo guay,
1442
01:26:25,805 --> 01:26:27,265
en lugar de lo correcto.
1443
01:26:27,348 --> 01:26:29,726
Internet era un sitio raro, de locos.
1444
01:26:29,809 --> 01:26:31,394
Era algo experimental.
1445
01:26:31,477 --> 01:26:34,731
Ha habido cosas creativas en Internet
y aún las hay,
1446
01:26:34,814 --> 01:26:38,610
pero parece un centro comercial gigante.
1447
01:26:38,693 --> 01:26:44,157
Para mí es:
"Dios, tiene que haber más que eso".
1448
01:26:46,743 --> 01:26:48,411
Supongo que soy optimista.
1449
01:26:48,494 --> 01:26:52,040
Porque podemos cambiar
el significado de las redes sociales.
1450
01:26:54,083 --> 01:26:57,921
El funcionamiento de la tecnología
no es una ley de la física.
1451
01:26:58,004 --> 01:27:02,175
Son decisiones
que los humanos como yo hemos tomado.
1452
01:27:02,759 --> 01:27:05,345
Y podemos cambiar esas tecnologías.
1453
01:27:06,971 --> 01:27:09,974
La pregunta es
si estamos dispuestos a admitir
1454
01:27:10,475 --> 01:27:15,438
que esos malos resultados vienen
como producto de nuestro trabajo.
1455
01:27:20,902 --> 01:27:24,864
Que hemos construido esto
y tenemos la responsabilidad de cambiarlo.
1456
01:27:37,210 --> 01:27:42,298
El modelo de extracción de atención no es
como queremos tratar a los humanos.
1457
01:27:46,094 --> 01:27:48,137
¿Soy yo o...?
1458
01:27:49,847 --> 01:27:50,848
Qué pringado.
1459
01:27:51,432 --> 01:27:53,226
El tejido de una sociedad sana
1460
01:27:53,309 --> 01:27:56,145
depende de que eliminemos
este modelo de negocio.
1461
01:28:04,529 --> 01:28:07,907
Podemos exigir que estos productos
se diseñen humanamente.
1462
01:28:09,409 --> 01:28:13,121
Podemos exigir que no nos traten
como un recurso extraíble.
1463
01:28:15,081 --> 01:28:18,376
La intención debe ser:
"¿Cómo podemos mejorar el mundo?".
1464
01:28:20,461 --> 01:28:23,798
A lo largo de la historia,
cada vez que algo ha mejorado
1465
01:28:23,881 --> 01:28:28,428
es porque alguien ha dicho:
"Esto es ridículo. Podemos mejorarlo".
1466
01:28:29,178 --> 01:28:32,557
Son las críticas
las que impulsan la mejora.
1467
01:28:32,890 --> 01:28:35,393
Los críticos son
los verdaderos optimistas.
1468
01:28:38,313 --> 01:28:39,147
Hola.
1469
01:28:46,195 --> 01:28:47,697
Parece una locura, ¿no?
1470
01:28:47,780 --> 01:28:51,534
Es que la forma fundamental
en que está diseñado...
1471
01:28:52,994 --> 01:28:54,704
no va en una buena dirección.
1472
01:28:55,246 --> 01:28:56,873
Nada de ello.
1473
01:28:56,956 --> 01:29:00,626
Parece una locura decir
que tenemos que cambiar todo eso,
1474
01:29:01,169 --> 01:29:02,670
pero es necesario.
1475
01:29:04,255 --> 01:29:05,923
¿Crees que lo conseguiremos?
1476
01:29:07,091 --> 01:29:08,301
Tenemos que hacerlo.
1477
01:29:21,314 --> 01:29:24,942
Pareces muy optimista.
1478
01:29:26,194 --> 01:29:27,195
¿Eso parezco?
1479
01:29:27,653 --> 01:29:30,114
Sí, bueno... Es increíble que lo digas
1480
01:29:30,198 --> 01:29:33,409
porque pienso:
"¿En serio? Vamos hacia la distopía.
1481
01:29:33,493 --> 01:29:37,830
Vamos por la vía rápida
y necesitaremos un milagro para evitarlo".
1482
01:29:37,914 --> 01:29:40,291
Y ese milagro es la voluntad colectiva.
1483
01:29:41,000 --> 01:29:44,587
Soy optimista
sobre que lo vamos a solucionar,
1484
01:29:44,670 --> 01:29:47,048
pero creo que llevará mucho tiempo.
1485
01:29:47,131 --> 01:29:50,385
Porque no todos reconocen
que esto es un problema.
1486
01:29:50,468 --> 01:29:55,890
Uno de los grandes fallos tecnológicos
1487
01:29:55,973 --> 01:29:58,643
es la falta de liderazgo,
1488
01:29:58,726 --> 01:30:01,979
la falta de gente que sea sincera
1489
01:30:02,063 --> 01:30:05,900
no solo sobre lo que salió bien,
sino sobre lo que no es perfecto
1490
01:30:05,983 --> 01:30:08,194
para que alguien pueda arreglarlo.
1491
01:30:08,277 --> 01:30:10,321
A fin de cuentas,
1492
01:30:10,405 --> 01:30:14,617
la cosa no va a cambiar
hasta que haya mucha presión pública.
1493
01:30:14,700 --> 01:30:18,329
Al tener estas conversaciones
y expresar tu opinión,
1494
01:30:18,413 --> 01:30:21,082
a veces a través de estas tecnologías,
1495
01:30:21,165 --> 01:30:24,252
podemos cambiar la tendencia
y el discurso.
1496
01:30:24,335 --> 01:30:27,004
Sonará raro,
pero es mi mundo, mi comunidad.
1497
01:30:27,088 --> 01:30:29,590
No guardo rencor hacia Google o Facebook.
1498
01:30:29,674 --> 01:30:32,885
Solo quiero reformarlos
para que no destruyan el mundo.
1499
01:30:32,969 --> 01:30:35,513
He desinstalado un montón de aplicaciones
1500
01:30:35,596 --> 01:30:37,723
que me hacían perder el tiempo.
1501
01:30:37,807 --> 01:30:42,478
Las de redes sociales, las de noticias,
y he desactivado las notificaciones
1502
01:30:42,603 --> 01:30:45,815
sobre cualquier cosa que vibrara
con información
1503
01:30:45,898 --> 01:30:48,943
que no fuera oportuna
e importante para mí.
1504
01:30:49,026 --> 01:30:51,279
Igual que no llevo
galletas en el bolsillo.
1505
01:30:51,362 --> 01:30:54,407
- Reduce los avisos.
- Desactiva las notificaciones.
1506
01:30:54,532 --> 01:30:55,950
Desactiva las notificaciones.
1507
01:30:56,033 --> 01:30:58,536
Ya no uso Google, uso Qwant,
1508
01:30:58,619 --> 01:31:01,497
que no almacena tu historial de búsqueda.
1509
01:31:01,581 --> 01:31:04,500
No aceptes un vídeo
que te recomienden en YouTube.
1510
01:31:04,584 --> 01:31:07,003
Siempre elige. Es otra forma de luchar.
1511
01:31:07,086 --> 01:31:12,133
Hay un montón de extensiones de Chrome
que eliminan las recomendaciones.
1512
01:31:12,216 --> 01:31:15,636
Mola que recomiendes algo
para deshacer lo que has hecho.
1513
01:31:15,720 --> 01:31:16,554
Sí.
1514
01:31:16,929 --> 01:31:21,642
Antes de compartir, verifica la fuente,
haz esa búsqueda extra.
1515
01:31:21,726 --> 01:31:25,104
Si parece diseñado
para activar tus botones emocionales,
1516
01:31:25,188 --> 01:31:26,314
lo será.
1517
01:31:26,397 --> 01:31:29,025
Básicamente, votas con tus clics.
1518
01:31:29,108 --> 01:31:30,359
Si picas en el cebo,
1519
01:31:30,443 --> 01:31:33,779
creas un incentivo financiero
que perpetúa este sistema.
1520
01:31:33,863 --> 01:31:36,949
Asegúrate de obtener
mucha información distinta
1521
01:31:37,033 --> 01:31:37,909
en tu vida.
1522
01:31:37,992 --> 01:31:40,995
Sigo a gente en Twitter
con la que no coincido,
1523
01:31:41,078 --> 01:31:44,207
porque quiero ver
diferentes puntos de vista.
1524
01:31:44,665 --> 01:31:49,045
Mucha gente de la tecnología
no les da estos dispositivos a sus hijos.
1525
01:31:49,128 --> 01:31:51,088
Mis hijos no usan redes sociales.
1526
01:31:51,964 --> 01:31:53,549
¿Es una regla o es...?
1527
01:31:53,633 --> 01:31:54,509
Es una regla.
1528
01:31:55,092 --> 01:31:57,845
Somos cuidadosos con eso.
1529
01:31:57,929 --> 01:31:59,222
Unos fanáticos.
1530
01:31:59,305 --> 01:32:05,603
Y no dejamos que nuestros hijos estén
delante de la pantalla.
1531
01:32:05,686 --> 01:32:08,564
Tengo tres reglas simples
1532
01:32:08,648 --> 01:32:12,610
que facilitan la vida y que están
justificadas por la investigación.
1533
01:32:12,693 --> 01:32:17,281
La primera es: nada de dispositivos
en el dormitorio a determinada hora.
1534
01:32:17,365 --> 01:32:20,535
Media hora antes de acostarse,
fuera dispositivos.
1535
01:32:20,618 --> 01:32:24,038
La segunda es:
nada de redes sociales hasta el instituto.
1536
01:32:24,121 --> 01:32:26,374
Creo que debería ser a los 16 años.
1537
01:32:26,457 --> 01:32:28,960
La secundaria ya es difícil.
Déjalas para el instituto.
1538
01:32:29,043 --> 01:32:32,964
Y la tercera es:
administrar el tiempo con tu hijo.
1539
01:32:33,047 --> 01:32:34,757
Si hablas con ellos y dices:
1540
01:32:34,840 --> 01:32:37,927
"¿Cuántas horas al día
quieres usar tu dispositivo,
1541
01:32:38,010 --> 01:32:41,597
¿cuál es una buena cantidad?",
suelen decir algo razonable.
1542
01:32:42,056 --> 01:32:44,642
Sé perfectamente
1543
01:32:44,725 --> 01:32:48,563
que no voy a hacer que todos borren
sus cuentas de redes sociales,
1544
01:32:48,646 --> 01:32:50,439
pero algunos sí,
1545
01:32:50,523 --> 01:32:54,402
y conseguir que algunas personas
borren sus cuentas importa mucho,
1546
01:32:54,485 --> 01:32:58,406
y el motivo es que crea el espacio
para una conversación,
1547
01:32:58,489 --> 01:33:00,908
porque quiero que haya suficiente gente
1548
01:33:00,992 --> 01:33:05,204
que esté libre de manipulación
para tener una conversación social
1549
01:33:05,288 --> 01:33:10,126
que no esté limitada por la manipulación.
¡Hacedlo! Salid del sistema.
1550
01:33:10,209 --> 01:33:12,503
Borradlas. Fuera estupideces.
1551
01:33:13,546 --> 01:33:16,507
El mundo es precioso.
Fuera se está genial.
1552
01:33:18,467 --> 01:33:21,887
¡SÍGUENOS EN LAS REDES SOCIALES!
ES BROMA.
1553
01:33:21,971 --> 01:33:27,476
HABLEMOS DE ARREGLARLO.
THESOCIALDILEMMA.COM
1554
01:33:32,064 --> 01:33:34,609
Subtítulos: Carlos Aparicio