1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX
2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX
3
00:00:19,978 --> 00:00:24,774
"TAK ADA HAL BESAR YANG MEMASUKI
KEHIDUPAN MANUSIA TANPA KUTUKAN."
4
00:00:24,858 --> 00:00:27,861
SOPHOKLES
5
00:00:31,156 --> 00:00:34,659
Ya, mulailah. Silakan duduk
dan buat dirimu nyaman.
6
00:00:37,579 --> 00:00:39,497
- Kau baik-baik saja?
- Ya.
7
00:00:43,043 --> 00:00:44,627
Pengambilan gambar pertama, tandai!
8
00:00:46,880 --> 00:00:48,923
Mau mulai dengan memperkenalkan dirimu?
9
00:00:50,467 --> 00:00:53,636
Halo, Dunia. Aku Bailey.
Pengambilan gambar ketiga.
10
00:00:54,179 --> 00:00:56,264
- Kau baik-baik saja?
- Ini bagian terburuk.
11
00:00:57,515 --> 00:00:58,516
Aku tak suka ini.
12
00:00:59,851 --> 00:01:02,228
Aku bekerja di Facebook
pada tahun 2011 dan 2012.
13
00:01:02,312 --> 00:01:05,190
Aku salah satu pegawai awal Instagram.
14
00:01:05,273 --> 00:01:08,693
Aku bekerja di Google, YouTube.
15
00:01:08,777 --> 00:01:11,696
Apple, Google, Twitter, Palm.
16
00:01:12,739 --> 00:01:15,533
Aku membantu merintis Mozilla Labs
dan beralih ke Firefox.
17
00:01:15,617 --> 00:01:17,994
Sudah siap? Semuanya...
18
00:01:18,078 --> 00:01:18,953
Bagus.
19
00:01:21,206 --> 00:01:22,582
Aku bekerja di Twitter.
20
00:01:22,999 --> 00:01:26,169
Pekerjaan terakhirku di sana
adalah Wakil Presiden Senior Perekayasaan.
21
00:01:27,462 --> 00:01:29,255
Aku mantan Presiden Pinterest.
22
00:01:29,339 --> 00:01:32,717
Sebelum itu, aku Direktur Monetisasi
23
00:01:32,801 --> 00:01:34,260
di Facebook selama lima tahun.
24
00:01:34,344 --> 00:01:37,972
Saat di Twitter, kuhabiskan beberapa tahun
mengelola platform pengembang mereka,
25
00:01:38,056 --> 00:01:40,225
lalu aku menjadi Kepala Produk Pelanggan.
26
00:01:40,308 --> 00:01:44,270
Aku penemu bersama Google Drive,
Gmail Chat,
27
00:01:44,354 --> 00:01:46,856
Halaman Facebook,
dan tombol "Suka" Facebook.
28
00:01:47,440 --> 00:01:50,777
Ya. Ini sebabnya kuhabiskan delapan bulan
29
00:01:50,860 --> 00:01:52,779
berbicara berulang kali dengan pengacara.
30
00:01:54,030 --> 00:01:55,406
Ini membuatku takut.
31
00:01:58,409 --> 00:02:02,914
Saat di sana, aku selalu merasa,
pada dasarnya, itu demi kebaikan.
32
00:02:03,373 --> 00:02:05,375
Entah apa aku merasa seperti itu lagi.
33
00:02:05,458 --> 00:02:10,588
Aku meninggalkan Google pada Juni 2017
karena masalah etika.
34
00:02:10,672 --> 00:02:14,134
Bukan hanya di Google,
tapi industri ini secara umum.
35
00:02:14,217 --> 00:02:15,426
Aku sangat khawatir.
36
00:02:16,719 --> 00:02:17,679
Sangat khawatir.
37
00:02:19,097 --> 00:02:21,808
Saat ini mudah untuk melupakan fakta
38
00:02:21,891 --> 00:02:27,814
bahwa alat ini telah menciptakan
hal-hal indah di dunia.
39
00:02:27,897 --> 00:02:30,233
Mereka mempertemukan
anggota keluarga yang hilang
40
00:02:30,316 --> 00:02:31,943
dan menemukan donor organ.
41
00:02:32,026 --> 00:02:35,613
Maksudku, ada perubahan sistemik berarti
42
00:02:35,697 --> 00:02:37,866
yang terjadi di seluruh dunia
43
00:02:37,949 --> 00:02:40,201
karena semua platform positif ini.
44
00:02:41,035 --> 00:02:42,954
Kurasa kita naif
45
00:02:43,329 --> 00:02:44,914
soal sisi lain dari koin itu.
46
00:02:45,540 --> 00:02:48,585
Ya, setelah semua ini dirilis,
mereka membentuk hidup sendiri.
47
00:02:48,668 --> 00:02:52,005
Cara mereka digunakan tak sesuai
dengan harapan kita.
48
00:02:52,088 --> 00:02:56,509
Aku sangat percaya tak ada yang berniat
menimbulkan semua konsekuensi ini.
49
00:02:56,801 --> 00:02:59,554
Tak ada orang jahat. Sama sekali tidak.
50
00:03:01,639 --> 00:03:03,600
Lantas apa masalahnya?
51
00:03:09,230 --> 00:03:11,357
Apa ada masalah dan apa itu?
52
00:03:18,406 --> 00:03:20,158
Sulit memberi satu jawaban ringkas...
53
00:03:20,241 --> 00:03:22,118
Aku mencoba membahas beragam masalah.
54
00:03:22,577 --> 00:03:23,578
Apa masalahnya?
55
00:03:28,208 --> 00:03:32,253
DOKUMENTER NETFLIX ORIGINAL
56
00:03:33,588 --> 00:03:35,340
Meski menghadapi lonjakan kritik,
57
00:03:35,423 --> 00:03:37,675
perusahaan teknologi besar
makin berkembang.
58
00:03:37,759 --> 00:03:40,929
Seluruh industri teknologi berada
di bawah pengawasan tingkat baru.
59
00:03:41,012 --> 00:03:43,723
Studi baru mengungkap kaitan
60
00:03:43,806 --> 00:03:46,142
antara kesehatan mental
dan penggunaan media sosial.
61
00:03:46,226 --> 00:03:48,478
Hadir untuk membahas riset terbaru...
62
00:03:49,187 --> 00:03:51,397
...yang terjadi tanpa diliput sama sekali.
63
00:03:51,481 --> 00:03:54,025
Puluhan juta warga Amerika
sangat kecanduan
64
00:03:54,108 --> 00:03:56,319
terhadap perangkat elektronik mereka.
65
00:03:56,402 --> 00:03:59,364
Itu diperparah oleh fakta
kini kita bisa mengasingkan diri...
66
00:03:59,447 --> 00:04:00,698
KAWANMU MENANDAIMU DI FOTO
67
00:04:00,782 --> 00:04:02,742
...dalam gelembung, berkat teknologi kami.
68
00:04:02,825 --> 00:04:04,577
Berita palsu menjadi lebih maju
69
00:04:04,661 --> 00:04:06,788
dan mengancam masyarakat di seluruh dunia.
70
00:04:06,871 --> 00:04:10,333
Kami tak menduga ini saat membuat Twitter
lebih dari 12 tahun lalu.
71
00:04:10,416 --> 00:04:12,502
Pemerintah mengatakan mereka tak yakin
72
00:04:12,585 --> 00:04:14,754
serangan siber Rusia akan berhenti.
73
00:04:14,837 --> 00:04:18,132
YouTube dipaksa berfokus
membersihkan situsnya.
74
00:04:18,216 --> 00:04:21,552
TikTok, jika Anda berbicara
dengan remaja di luar sana,
75
00:04:21,636 --> 00:04:24,013
mustahil mereka akan menghapusnya...
76
00:04:24,097 --> 00:04:26,349
Hei, Isla, bisa tolong siapkan meja?
77
00:04:26,432 --> 00:04:27,517
Ada pertanyaan serius
78
00:04:27,600 --> 00:04:29,978
soal apakah media sosial
membuat anak kita depresi.
79
00:04:30,061 --> 00:04:32,105
Isla, bisa tolong siapkan mejanya?
80
00:04:32,188 --> 00:04:35,316
Prosedur kosmetik ini menjadi
sangat populer di kalangan remaja
81
00:04:35,400 --> 00:04:37,944
hingga ahli bedah plastik menamai
sindrom baru untuk itu,
82
00:04:38,027 --> 00:04:40,822
Dismorfia Snapchat,
dengan pasien muda yang ingin operasi
83
00:04:40,905 --> 00:04:43,741
agar mereka bisa mirip
dengan swafoto berfilter mereka.
84
00:04:43,825 --> 00:04:45,910
Aku masih bingung
kenapa kau memberinya itu.
85
00:04:45,994 --> 00:04:49,580
Aku harus bagaimana?
Setiap anak lain di kelasnya punya.
86
00:04:50,164 --> 00:04:51,165
Usianya baru 11 tahun.
87
00:04:51,249 --> 00:04:55,086
Cass, tak ada yang memaksamu memilikinya.
Kau bisa tak terhubung selama kau mau.
88
00:04:55,169 --> 00:04:59,340
Hei, aku terhubung tanpa ponsel.
Aku sedang mengakses internet.
89
00:04:59,424 --> 00:05:03,094
Lagi pula, itu bukan koneksi nyata.
Itu hanya omong kosong...
90
00:05:03,177 --> 00:05:04,971
Kapitalisme pengawasan telah membentuk
91
00:05:05,054 --> 00:05:07,765
politik dan budaya
dalam cara yang tak banyak orang pahami.
92
00:05:07,849 --> 00:05:10,101
ISIS mengilhami para pengikutnya
lewat internet
93
00:05:10,184 --> 00:05:12,812
dan kini penganut supremasi kulit putih
melakukannya juga.
94
00:05:12,895 --> 00:05:14,147
Baru-baru ini di India,
95
00:05:14,230 --> 00:05:17,442
massa hakim jalanan di internet
telah membunuh lusinan orang...
96
00:05:17,525 --> 00:05:20,361
Ini bukan sekadar berita palsu,
tapi juga berkonsekuensi.
97
00:05:20,445 --> 00:05:24,073
Bagaimana cara menangani wabah
di era maraknya berita palsu?
98
00:05:24,157 --> 00:05:26,993
Bisakah kita tertular virus korona
dengan memakan makanan Cina?
99
00:05:27,535 --> 00:05:32,540
Kita telah berubah dari era informasi
menjadi era disinformasi.
100
00:05:32,623 --> 00:05:34,667
Demokrasi kita sedang diserang.
101
00:05:34,751 --> 00:05:38,504
Maksudku adalah, "Kurasa alat
yang telah diciptakan hari ini
102
00:05:38,588 --> 00:05:41,799
mulai mengikis struktur sosial
dari cara kerja masyarakat."
103
00:06:00,151 --> 00:06:03,446
Asa memberi ucapan sambutan.
Kita putar videonya.
104
00:06:04,197 --> 00:06:07,325
Lalu, "Hadirin, sambutlah Tristan Harris."
105
00:06:07,408 --> 00:06:08,826
- Benar.
- Bagus.
106
00:06:08,951 --> 00:06:09,952
Jadi, aku naik...
107
00:06:11,204 --> 00:06:12,038
dan...
108
00:06:12,121 --> 00:06:13,748
MANUSIAWI
AGENDA BARU TEKNOLOGI
109
00:06:13,831 --> 00:06:16,042
Intinya katakan,
"Terima kasih sudah datang."
110
00:06:17,919 --> 00:06:22,048
Jadi, hari ini, aku ingin membahas
agenda baru untuk teknologi.
111
00:06:22,131 --> 00:06:25,468
Alasan kami ingin melakukannya
adalah karena jika kita tanyai orang,
112
00:06:25,551 --> 00:06:27,804
"Apa yang salah di industri teknologi
saat ini?"
113
00:06:28,346 --> 00:06:31,641
Ada banyak keluhan, skandal,
114
00:06:31,724 --> 00:06:33,893
pencurian data, kecanduan teknologi,
115
00:06:33,976 --> 00:06:35,978
berita palsu, polarisasi,
116
00:06:36,062 --> 00:06:37,688
dan beberapa pemilu yang diretas.
117
00:06:38,189 --> 00:06:41,609
Namun, adakah sesuatu
di balik semua masalah ini
118
00:06:41,692 --> 00:06:44,654
yang menyebabkan semua ini
terjadi sekaligus?
119
00:06:46,447 --> 00:06:48,658
- Itu sudah bagus?
- Bagus sekali. Ya.
120
00:06:50,827 --> 00:06:52,954
Aku hanya mencoba...
Aku mau orang melihat...
121
00:06:53,037 --> 00:06:55,206
ada masalah yang terjadi
di industri teknologi.
122
00:06:55,289 --> 00:07:00,211
Itu tak bernama
dan itu terkait dengan satu sumber...
123
00:07:05,091 --> 00:07:06,801
Saat kita melihat sekeliling,
124
00:07:07,218 --> 00:07:09,387
rasanya dunia menjadi gila.
125
00:07:12,765 --> 00:07:15,184
Kita harus menanyai diri, apa ini normal?
126
00:07:16,102 --> 00:07:18,896
Atau kita semua terpengaruh
semacam mantra?
127
00:07:22,316 --> 00:07:25,153
MANTAN PAKAR ETIKA DESAIN GOOGLE
128
00:07:25,236 --> 00:07:27,905
PENDIRI BERSAMA
CENTER FOR HUMANE TECHNOLOGY
129
00:07:27,989 --> 00:07:30,491
Kuharap lebih banyak orang bisa memahami
cara kerjanya
130
00:07:30,575 --> 00:07:34,036
karena ini seharusnya bukan hal
yang hanya diketahui industri teknologi.
131
00:07:34,120 --> 00:07:36,289
Itu hal yang seharusnya semua orang tahu.
132
00:07:47,383 --> 00:07:48,301
- Halo!
- Hai.
133
00:07:48,759 --> 00:07:50,595
- Tristan. Senang bertemu kau.
- Tristan?
134
00:07:50,678 --> 00:07:51,721
- Ya.
- Bagus.
135
00:07:53,181 --> 00:07:55,933
Tristan Harris adalah
mantan pakar etika desain Google
136
00:07:56,017 --> 00:07:59,353
dan dijuluki sebagai hal paling mirip
dengan nurani bagi Silicon Valley.
137
00:07:59,437 --> 00:08:01,189
Dia meminta industri teknologi membawa
138
00:08:01,272 --> 00:08:04,192
hal yang dia sebut "desain etis"
pada produknya.
139
00:08:04,275 --> 00:08:06,903
Jarang ada orang dalam teknologi
yang sejujur itu,
140
00:08:06,986 --> 00:08:10,281
tapi Tristan Harris percaya
seseorang harus melakukannya.
141
00:08:11,324 --> 00:08:12,700
Dulu di Google,
142
00:08:12,783 --> 00:08:16,037
aku ada di tim Gmail dan mulai kelelahan
143
00:08:16,120 --> 00:08:18,581
karena kami begitu sering membahas...
144
00:08:19,457 --> 00:08:23,169
harus seperti apa bentuk kotak masuk
dan warnanya.
145
00:08:23,252 --> 00:08:25,880
Aku merasa kecanduan surel
146
00:08:26,297 --> 00:08:27,715
dan kuanggap itu menarik
147
00:08:27,798 --> 00:08:31,511
bahwa tak ada orang di Gmail yang mencoba
membuatnya tak begitu adiktif.
148
00:08:31,969 --> 00:08:34,514
Kupikir,
"Apa ada lagi yang memikirkan ini?
149
00:08:34,597 --> 00:08:36,390
Belum kudengar ada yang membahas ini."
150
00:08:36,849 --> 00:08:41,229
Aku merasa frustrasi
dengan industri teknologi secara umum
151
00:08:41,312 --> 00:08:43,272
karena kita seolah-olah tersesat.
152
00:08:46,984 --> 00:08:49,820
Aku berjuang untuk mencari tahu
153
00:08:49,904 --> 00:08:52,573
cara kami bisa mengubahnya dari dalam.
154
00:08:55,201 --> 00:08:59,497
Saat itulah kuputuskan membuat presentasi,
semacam ajakan untuk bergerak.
155
00:09:00,998 --> 00:09:04,961
Setiap hari, aku pulang dan mengerjakannya
selama beberapa jam setiap malam.
156
00:09:06,170 --> 00:09:11,884
Pada dasarnya tertulis,
belum pernah ada 50 desainer,
157
00:09:12,426 --> 00:09:15,263
dari pria kulit putih berusia 20-35 tahun
di California,
158
00:09:15,888 --> 00:09:19,725
membuat keputusan yang akan berdampak
pada dua miliar orang.
159
00:09:21,018 --> 00:09:24,438
Dua miliar orang akan mendapat ide
yang tak mereka niatkan
160
00:09:24,522 --> 00:09:28,401
karena desainer di Google berkata,
"Ini cara notifikasi bekerja
161
00:09:28,484 --> 00:09:30,778
di layar yang kau lihat saat bangun pagi."
162
00:09:30,861 --> 00:09:35,283
Kami punya tanggung jawab moral
sebagai Google untuk pecahkan masalah ini.
163
00:09:36,075 --> 00:09:37,743
Aku mengirim presentasi ini
164
00:09:37,827 --> 00:09:41,789
ke 15 hingga 20 rekan terdekatku
di Google.
165
00:09:41,872 --> 00:09:44,959
Aku sangat gugup
dan tak yakin bagaimana reaksinya.
166
00:09:46,460 --> 00:09:48,045
Saat bekerja keesokan harinya,
167
00:09:48,129 --> 00:09:50,464
mayoritas laptop menampilkan
presentasi itu.
168
00:09:50,548 --> 00:09:52,049
PERHATIAN
169
00:09:52,133 --> 00:09:54,552
Kemudian pada hari itu,
ada 400 penonton serentak,
170
00:09:54,635 --> 00:09:57,972
jadi, itu terus menyebar.
Aku menerima surel dari seisi perusahaan.
171
00:09:58,180 --> 00:10:00,266
Orang-orang di setiap departemen berkata,
172
00:10:00,349 --> 00:10:02,852
"Aku setuju.
Kulihat ini memengaruhi anak-anakku
173
00:10:02,935 --> 00:10:06,856
dan orang-orang di sekitarku.
Kita harus melakukan sesuatu."
174
00:10:07,481 --> 00:10:10,818
Rasanya seperti aku meluncurkan revolusi
atau semacamnya.
175
00:10:11,861 --> 00:10:15,197
Kemudian, aku tahu
Larry Page diberi tahu soal presentasi ini
176
00:10:15,281 --> 00:10:17,116
dalam tiga pertemuan terpisah hari itu.
177
00:10:17,950 --> 00:10:20,286
Itu menciptakan semacam momen budaya
178
00:10:20,870 --> 00:10:23,205
yang harus Google anggap serius.
179
00:10:26,000 --> 00:10:26,917
Lalu...
180
00:10:28,461 --> 00:10:29,295
sirna.
181
00:10:34,300 --> 00:10:36,135
Semua orang pada tahun 2006...
182
00:10:37,345 --> 00:10:39,221
termasuk kami di Facebook,
183
00:10:39,305 --> 00:10:43,392
sangat mengagumi Google
dan apa yang telah Google bangun,
184
00:10:43,476 --> 00:10:47,396
yaitu sebuah layanan yang sangat berguna,
185
00:10:47,480 --> 00:10:51,442
yang sejauh kami tahu,
memberi banyak kebaikan bagi dunia.
186
00:10:51,525 --> 00:10:55,196
Mereka pun membangun
mesin penghasil uang paralel.
187
00:10:55,696 --> 00:11:00,034
Kami sangat iri dengan itu.
Bagi kami, itu tampak sangat elegan
188
00:11:00,826 --> 00:11:02,161
dan sempurna.
189
00:11:03,037 --> 00:11:05,206
Facebook sudah ada selama dua tahun
190
00:11:05,873 --> 00:11:08,376
dan aku direkrut untuk mencari tahu
191
00:11:08,459 --> 00:11:10,586
model bisnis untuk perusahaan.
192
00:11:10,670 --> 00:11:13,422
Aku Direktur Monetisasi. Intinya adalah,
193
00:11:13,506 --> 00:11:17,051
"Kau yang akan mencari tahu
cara hal ini menghasilkan uang."
194
00:11:17,134 --> 00:11:19,804
Ada banyak orang
yang melakukan banyak pekerjaan,
195
00:11:19,887 --> 00:11:25,643
tapi aku jelas salah satu orang
yang menunjukkan...
196
00:11:26,769 --> 00:11:28,604
kami harus menghasilkan uang...
197
00:11:29,313 --> 00:11:33,651
dan kurasa model pengiklanan ini
mungkin cara yang paling elegan.
198
00:11:43,077 --> 00:11:44,453
Video apa yang baru Ibu kirim?
199
00:11:44,537 --> 00:11:47,790
Itu dari gelar wicara, tapi cukup bagus.
Pria itu genius.
200
00:11:47,873 --> 00:11:50,668
Dia membahas penghapusan media sosial,
yang harus kau lakukan.
201
00:11:50,751 --> 00:11:52,878
Aku mungkin harus mulai
memblokir surelnya.
202
00:11:52,962 --> 00:11:56,048
Sungguh, aku tak paham ucapannya.
Dia lebih buruk dariku.
203
00:11:56,132 --> 00:11:58,467
- Dia hanya memakainya untuk resep.
- Juga bekerja.
204
00:11:58,551 --> 00:12:00,636
- Serta video olahraga.
- Juga tahu kabar kita.
205
00:12:00,720 --> 00:12:03,305
Serta kabar semua orang yang pernah
dia temui di hidupnya.
206
00:12:04,932 --> 00:12:07,893
Jika Anda memeriksa
umpan berita media sosial
207
00:12:07,977 --> 00:12:11,731
sambil menonton kami,
Anda harus taruh ponselnya dan dengarkan
208
00:12:11,814 --> 00:12:14,817
karena tamu kita berikutnya telah menulis
buku yang luar biasa
209
00:12:14,900 --> 00:12:18,112
soal betapa itu menghancurkan hidup kita.
210
00:12:18,195 --> 00:12:19,447
Tolong sambut penulis
211
00:12:19,530 --> 00:12:24,452
Ten Arguments For Deleting
Your Social Media Accounts Right Now,
212
00:12:24,535 --> 00:12:25,786
Jaron Lanier.
213
00:12:26,287 --> 00:12:27,288
Itu benar.
214
00:12:27,997 --> 00:12:31,834
Perusahaan seperti Google dan Facebook
adalah yang terkaya
215
00:12:31,917 --> 00:12:33,627
dan tersukses sepanjang masa.
216
00:12:34,295 --> 00:12:36,839
Mereka punya pegawai yang relatif sedikit.
217
00:12:36,922 --> 00:12:40,760
Mereka punya komputer raksasa
yang mudah menghasilkan uang, bukan?
218
00:12:41,510 --> 00:12:45,222
Untuk apa mereka dibayar?
Itu pertanyaan yang sangat penting.
219
00:12:47,308 --> 00:12:50,186
Aku sudah menjadi investor
di bidang teknologi selama 35 tahun.
220
00:12:51,020 --> 00:12:54,356
Pada 50 tahun pertama Silicon Valley,
industri ini membuat produk,
221
00:12:54,440 --> 00:12:56,525
perangkat keras dan lunak,
dijual ke pelanggan.
222
00:12:56,609 --> 00:12:58,402
Itu bisnis yang sederhana.
223
00:12:58,486 --> 00:13:01,530
Selama sepuluh tahun terakhir,
perusahaan terbesar di Silicon Valley
224
00:13:01,614 --> 00:13:03,866
berbisnis dengan menjual penggunanya.
225
00:13:03,949 --> 00:13:05,910
Bahkan kini agak basi untuk mengatakannya,
226
00:13:05,993 --> 00:13:09,205
tapi karena kita tak membayar produk
yang kita gunakan,
227
00:13:09,288 --> 00:13:12,166
pengiklan membayar
produk yang kita gunakan.
228
00:13:12,249 --> 00:13:14,084
Pengiklan adalah pelanggannya.
229
00:13:14,710 --> 00:13:16,086
Kitalah yang dijual.
230
00:13:16,170 --> 00:13:17,630
Pepatah klasiknya adalah,
231
00:13:17,713 --> 00:13:21,592
"Jika kau tak membayar produknya,
berarti kaulah produknya."
232
00:13:21,675 --> 00:13:23,302
KAULAH PRODUKNYA
233
00:13:23,385 --> 00:13:27,139
Banyak orang berpikir,
"Google hanyalah kotak pencarian
234
00:13:27,223 --> 00:13:29,850
dan Facebook hanya tempat
untuk melihat kabar teman-temanku
235
00:13:29,934 --> 00:13:31,101
dan melihat foto mereka."
236
00:13:31,185 --> 00:13:35,481
Namun, mereka tak sadar
mereka bersaing memikat perhatianmu.
237
00:13:36,524 --> 00:13:41,111
Jadi, Facebook, Snapchat, Twitter,
Instagram, YouTube,
238
00:13:41,195 --> 00:13:45,491
model bisnis perusahaan seperti ini
adalah membuat orang terpaku di layar.
239
00:13:46,283 --> 00:13:49,578
Mari kita cari tahu
cara mendapatkan perhatian orang ini
240
00:13:49,662 --> 00:13:50,955
sebanyak mungkin.
241
00:13:51,455 --> 00:13:53,541
Kami bisa membuatmu
habiskan waktu selama apa?
242
00:13:53,916 --> 00:13:56,794
Kami bisa membuatmu memberi hidupmu
sebanyak apa kepada kami?
243
00:13:58,671 --> 00:14:01,090
Saat memikirkan
cara kerja beberapa perusahaan ini,
244
00:14:01,173 --> 00:14:02,508
itu mulai menjadi masuk akal.
245
00:14:03,050 --> 00:14:06,095
Ada banyak layanan di internet
yang kita anggap gratis.
246
00:14:06,178 --> 00:14:09,473
Namun, itu tak gratis.
Semua itu dibayar oleh pengiklan.
247
00:14:09,557 --> 00:14:11,559
Kenapa pengiklan membayar perusahaan itu?
248
00:14:11,642 --> 00:14:14,687
Mereka membayar
untuk menampilkan iklan kepada kita.
249
00:14:14,770 --> 00:14:15,729
Kitalah produknya.
250
00:14:15,813 --> 00:14:18,357
Perhatian kita adalah produk
yang dijual ke pengiklan.
251
00:14:18,816 --> 00:14:20,442
Itu agak terlalu sederhana.
252
00:14:20,818 --> 00:14:23,654
Perubahan perlahan, kecil,
dan tak terlihat
253
00:14:23,737 --> 00:14:26,073
dalam perilaku dan persepsi kita,
itulah produknya.
254
00:14:26,156 --> 00:14:27,575
PERUBAHAN PERILAKU DAN PERSEPSI
255
00:14:27,658 --> 00:14:30,244
Itulah produknya.
Hanya itu produk yang mungkin.
256
00:14:30,327 --> 00:14:34,081
Tak ada kemungkinan lain
yang bisa disebut produk.
257
00:14:34,164 --> 00:14:37,251
Hanya itu sumber uang mereka.
258
00:14:37,668 --> 00:14:39,253
Mengubah perilaku,
259
00:14:39,336 --> 00:14:41,714
cara berpikir, dan jati diri kita.
260
00:14:42,631 --> 00:14:45,301
Perubahannya perlahan dan kecil.
261
00:14:45,384 --> 00:14:48,971
Jika bisa datangi seseorang dan berkata,
"Beri aku sepuluh juta dolar
262
00:14:49,054 --> 00:14:54,310
dan akan kuubah dunia
satu persen ke arah yang kau mau..."
263
00:14:54,894 --> 00:14:58,188
Itu dunia! Itu bisa luar biasa
dan harganya mahal.
264
00:14:59,315 --> 00:15:00,149
Baiklah.
265
00:15:00,691 --> 00:15:04,570
Inilah yang selalu diimpikan semua bisnis,
266
00:15:04,653 --> 00:15:10,910
untuk memiliki jaminan keberhasilan
saat iklannya dipasang.
267
00:15:11,285 --> 00:15:12,786
Itulah bisnis mereka.
268
00:15:12,995 --> 00:15:14,788
Mereka menjual kepastian.
269
00:15:14,997 --> 00:15:17,625
Agar sukses dalam bisnis itu,
270
00:15:17,708 --> 00:15:19,752
kita harus punya prediksi bagus.
271
00:15:20,044 --> 00:15:24,173
Prediksi besar dimulai
dengan satu hal penting.
272
00:15:25,215 --> 00:15:26,926
Kita butuh banyak data.
273
00:15:27,009 --> 00:15:29,011
KITA BUTUH BANYAK DATA
274
00:15:29,136 --> 00:15:31,555
Banyak orang menyebut ini
kapitalisme pengawasan.
275
00:15:31,639 --> 00:15:34,350
Kapitalisme yang mengambil untung
dari jejak tak terbatas
276
00:15:34,433 --> 00:15:38,062
dari semua tempat yang semua orang datangi
oleh perusahaan teknologi besar
277
00:15:38,145 --> 00:15:40,397
yang model bisnisnya adalah memastikan
278
00:15:40,481 --> 00:15:42,858
pengiklan bisa sesukses mungkin.
279
00:15:43,150 --> 00:15:45,569
Inilah jenis lokapasar baru saat ini.
280
00:15:45,653 --> 00:15:48,072
Ini lokapasar yang belum pernah ada.
281
00:15:48,822 --> 00:15:55,371
Ini lokapasar yang hanya memperdagangkan
prediksi nilai saham manusia.
282
00:15:56,330 --> 00:15:58,499
Seperti pasar yang memperdagangkan
283
00:15:58,582 --> 00:16:01,585
prediksi nilai saham perut babi
atau minyak.
284
00:16:02,127 --> 00:16:04,713
Kini kita punya pasar yang memperdagangkan
285
00:16:04,797 --> 00:16:07,591
prediksi nilai saham manusia
dalam skala besar
286
00:16:08,175 --> 00:16:13,472
dan pasar itu telah menghasilkan
triliunan dolar
287
00:16:14,014 --> 00:16:19,269
yang menjadikan perusahaan internet
sebagai perusahaan terkaya
288
00:16:19,353 --> 00:16:22,564
dalam sejarah kemanusiaan.
289
00:16:27,444 --> 00:16:31,073
Aku ingin orang tahu
semua yang mereka lakukan di internet
290
00:16:31,156 --> 00:16:34,326
diawasi, dilacak, dan diukur.
291
00:16:35,035 --> 00:16:39,623
Setiap tindakan yang kita lakukan dipantau
dan direkam dengan hati-hati.
292
00:16:39,707 --> 00:16:43,836
Misalnya, gambar yang kita lihat
dan berapa lama kita melihatnya.
293
00:16:43,919 --> 00:16:45,796
Ya, sungguh, berapa lama kau melihatnya.
294
00:16:45,879 --> 00:16:47,548
NAVIYA_R
WAKTU KETERLIBATAN
295
00:16:47,631 --> 00:16:49,216
RYAN_M
WAKTU KETERLIBATAN
296
00:16:49,299 --> 00:16:50,426
WREN_F
WAKTU KETERLIBATAN
297
00:16:50,509 --> 00:16:53,804
Mereka tahu saat orang kesepian, depresi,
298
00:16:53,887 --> 00:16:57,099
dan tahu saat orang melihat
foto mantan pasanganmu.
299
00:16:57,182 --> 00:17:00,853
Mereka tahu yang kau lakukan
saat larut malam. Mereka tahu semuanya.
300
00:17:01,228 --> 00:17:03,230
Entah kau introver, ekstrover,
301
00:17:03,313 --> 00:17:06,942
jenis neurosis yang kau punya,
atau seperti apa kepribadianmu.
302
00:17:08,193 --> 00:17:11,613
Mereka punya lebih banyak informasi
soal kita
303
00:17:11,697 --> 00:17:14,324
daripada yang pernah dibayangkan
dalam sejarah manusia.
304
00:17:14,950 --> 00:17:16,452
Ini belum pernah terjadi.
305
00:17:18,579 --> 00:17:22,791
Jadi, semua data yang kita berikan
setiap saat
306
00:17:22,875 --> 00:17:26,754
dimasukkan ke sistem
yang nyaris tak diawasi manusia,
307
00:17:27,463 --> 00:17:30,883
yang terus membuat
prediksi yang makin membaik
308
00:17:30,966 --> 00:17:33,552
tentang apa yang akan kita lakukan
dan siapa kita.
309
00:17:34,887 --> 00:17:36,346
DIREKOMENDASIKAN UNTUKMU
310
00:17:36,430 --> 00:17:39,683
Banyak orang salah memahami
bahwa data kita yang dijual.
311
00:17:40,350 --> 00:17:43,187
Memberi data secara gratis
bukanlah minat bisnis Facebook.
312
00:17:45,522 --> 00:17:47,107
Mereka apakan data itu?
313
00:17:51,070 --> 00:17:54,490
Mereka membuat model
yang memprediksi tindakan kita.
314
00:17:54,573 --> 00:17:57,618
Siapa pun yang punya model terbaik
akan menang.
315
00:18:02,706 --> 00:18:04,041
Kecepatan gulungnya melambat.
316
00:18:04,124 --> 00:18:06,919
Mendekati akhir rata-rata durasi sesinya,
mengurangi iklan.
317
00:18:07,002 --> 00:18:08,337
Tampilkan teman dan keluarga.
318
00:18:09,671 --> 00:18:11,340
Di sisi lain layar,
319
00:18:11,423 --> 00:18:15,469
mereka seperti punya model boneka voodoo
yang menyerupai kita.
320
00:18:16,762 --> 00:18:18,180
Semua yang pernah kita lakukan,
321
00:18:18,263 --> 00:18:19,473
semua klik yang kita buat,
322
00:18:19,556 --> 00:18:21,683
semua video yang kita tonton,
semua tombol suka.
323
00:18:21,767 --> 00:18:25,354
Semua itu diolah untuk membangun
model yang lebih akurat.
324
00:18:25,896 --> 00:18:27,481
Setelah modelnya ada,
325
00:18:27,564 --> 00:18:29,858
kita bisa memprediksi
hal-hal yang dilakukan orang.
326
00:18:30,150 --> 00:18:31,944
Baiklah, coba aku tes.
327
00:18:32,569 --> 00:18:34,404
Ke mana kau akan pergi, bisa kuprediksi
328
00:18:34,488 --> 00:18:36,198
video apa yang akan terus kau tonton.
329
00:18:36,281 --> 00:18:39,159
Aku bisa memprediksi emosi macam apa
yang memicumu.
330
00:18:39,243 --> 00:18:40,410
Ya, sempurna.
331
00:18:41,578 --> 00:18:43,372
Kegagalan terhebat tahun ini.
332
00:18:43,747 --> 00:18:44,665
KEGAGALAN HEBAT!
333
00:18:48,627 --> 00:18:51,088
- Sempurna, itu berhasil.
- Disusul video lain.
334
00:18:51,171 --> 00:18:54,049
Bagus. Mari selipkan iklan sepatu
sebelum videonya diputar.
335
00:18:56,426 --> 00:18:59,721
Ada tiga tujuan utama
di banyak perusahaan teknologi ini.
336
00:18:59,805 --> 00:19:03,517
Ada tujuan keterlibatan untuk menaikkan
penggunaanmu, agar terus gulirkan layar.
337
00:19:04,601 --> 00:19:06,145
Ada tujuan pertumbuhan
338
00:19:06,228 --> 00:19:08,689
untuk membuatmu kembali,
mengundang banyak teman,
339
00:19:08,772 --> 00:19:10,816
dan agar mereka mengundang
lebih banyak teman.
340
00:19:11,650 --> 00:19:14,987
Lalu ada tujuan iklan untuk memastikan
bahwa seiring semua itu terjadi,
341
00:19:15,070 --> 00:19:17,406
kami menghasilkan
uang sebanyak mungkin dari iklan.
342
00:19:19,366 --> 00:19:21,952
Masing-masing tujuan ini ditenagai
oleh algoritme
343
00:19:22,035 --> 00:19:24,454
yang bertugas mencari tahu
apa yang harus ditunjukkan
344
00:19:24,538 --> 00:19:26,165
agar jumlahnya terus naik.
345
00:19:26,623 --> 00:19:29,918
Di Facebook, kami sering membahas ide
346
00:19:30,002 --> 00:19:34,006
untuk bisa mengaturnya sesuai kebutuhan.
347
00:19:34,673 --> 00:19:38,594
Kami membahas
soal meminta Mark mengaturnya.
348
00:19:41,305 --> 00:19:44,600
"Hei, aku ingin lebih banyak pengguna
di Korea hari ini."
349
00:19:45,684 --> 00:19:46,768
Putar pengaturnya.
350
00:19:47,436 --> 00:19:49,271
"Mari tambah iklannya sedikit."
351
00:19:49,980 --> 00:19:51,815
"Tambah monetisasinya sedikit."
352
00:19:53,150 --> 00:19:55,444
Jadi, itu...
353
00:19:55,527 --> 00:19:59,239
Di semua perusahaan ini,
ada tingkat presisi sebesar itu.
354
00:19:59,990 --> 00:20:02,409
- Bung...
- Entah kenapa aku tak diberi kartu.
355
00:20:02,492 --> 00:20:05,704
- Wasit itu payah.
- Kau benar-benar...
356
00:20:05,787 --> 00:20:08,040
- Itu Rebecca. Bicaralah.
- Aku tahu siapa dia.
357
00:20:08,123 --> 00:20:10,834
- Kau saja yang bicara.
- Sedang kuusahakan.
358
00:20:10,918 --> 00:20:14,171
Menurut kalendernya, dia sedang istirahat.
Seharusnya kita sudah mulai.
359
00:20:15,464 --> 00:20:16,465
Mau kudorong dia?
360
00:20:17,132 --> 00:20:18,050
Lakukanlah.
361
00:20:21,720 --> 00:20:24,181
"Temanmu, Tyler, baru bergabung.
Beri lambaian."
362
00:20:26,016 --> 00:20:27,184
Ayolah.
363
00:20:27,267 --> 00:20:28,769
Kirimkan lambaian tangan.
364
00:20:29,394 --> 00:20:31,647
Kau bahkan tidak...
Hei, bicaralah dengannya.
365
00:20:31,730 --> 00:20:34,900
TEMANMU, TYLER, BARU BERGABUNG!
BERI LAMBAIAN!
366
00:20:36,902 --> 00:20:37,986
KONEKSI JARINGAN
367
00:20:38,070 --> 00:20:40,572
Koneksi baru! Baiklah, kita masuk.
368
00:20:40,948 --> 00:20:46,078
Lanjutkan dengan pos
dari pengguna 079044238820, Rebecca.
369
00:20:46,161 --> 00:20:49,790
Ide bagus. Koordinat GPS menunjukkan
jarak mereka berdekatan.
370
00:20:52,167 --> 00:20:55,837
REBECCA_G
KUTEMUKAN BELAHAN JIWAKU!
371
00:20:55,921 --> 00:20:57,172
Dia siap untuk iklan.
372
00:20:57,631 --> 00:20:58,632
Waktu lelang.
373
00:20:58,715 --> 00:21:00,050
PRATINJAU IKLAN
374
00:21:00,509 --> 00:21:02,803
Terjual! Untuk lilin rambut Deep Fade.
375
00:21:03,387 --> 00:21:04,846
Ada 468 penawar yang berminat.
376
00:21:04,930 --> 00:21:08,225
Kita menjual Ben seharga 3,262 sen
untuk satu impresi.
377
00:21:17,109 --> 00:21:21,530
Kita telah menciptakan dunia
tempat koneksi daring menjadi hal utama,
378
00:21:22,072 --> 00:21:23,907
khususnya bagi generasi muda.
379
00:21:23,991 --> 00:21:28,328
Namun, di dunia itu,
setiap dua orang terhubung,
380
00:21:29,162 --> 00:21:33,250
itu hanya bisa didanai
oleh orang ketiga yang licik
381
00:21:33,333 --> 00:21:35,627
yang membayar
untuk memanipulasi dua orang itu.
382
00:21:36,128 --> 00:21:39,381
Jadi, kita menciptakan
seluruh generasi global
383
00:21:39,464 --> 00:21:44,011
yang dibesarkan dalam konteks
bahwa makna sebenarnya dari komunikasi
384
00:21:44,094 --> 00:21:47,431
dan budaya adalah manipulasi.
385
00:21:47,514 --> 00:21:49,725
Kita telah menempatkan penipuan
dan kelicikan
386
00:21:49,808 --> 00:21:52,311
di tengah-tengah dari semua usaha kita.
387
00:21:56,732 --> 00:22:01,153
"SEMUA TEKNOLOGI YANG CANGGIH
388
00:22:01,236 --> 00:22:05,657
TIDAKLAH BERBEDA DARI SULAP."
ARTHUR C. CLARKE
389
00:22:05,741 --> 00:22:07,159
- Pegang sisi lainnya...
- Baik.
390
00:22:07,242 --> 00:22:09,369
- Di mana tempat menaruh yang baik?
- Itu bagus.
391
00:22:09,453 --> 00:22:10,620
- Di sini?
- Ya.
392
00:22:10,704 --> 00:22:13,707
Seperti apa ini tampil di kamera
jika kulakukan...
393
00:22:13,790 --> 00:22:15,500
- Sebenarnya, kami...
- Seperti itu?
394
00:22:15,584 --> 00:22:16,835
- Apa?
- Ya.
395
00:22:16,918 --> 00:22:18,545
- Bisa lakukan lagi?
- Baik.
396
00:22:19,046 --> 00:22:20,589
Ya. Itu mungkin tidak...
397
00:22:20,672 --> 00:22:21,965
Ya.
398
00:22:22,466 --> 00:22:23,884
Yang satu ini kurang...
399
00:22:31,016 --> 00:22:33,268
Chris benar-benar kebingungan di sini.
400
00:22:34,728 --> 00:22:35,562
Apa itu bagus?
401
00:22:35,645 --> 00:22:37,773
SULAP!
402
00:22:37,856 --> 00:22:41,068
Usiaku lima tahun saat belajar sulap.
403
00:22:41,151 --> 00:22:45,781
Aku bisa membodohi para orang dewasa
yang bergelar doktor.
404
00:22:55,040 --> 00:22:58,919
Pesulap itu hampir seperti ahli saraf
dan psikolog pertama.
405
00:22:59,002 --> 00:23:03,382
Mereka yang pertama memahami
cara kerja pikiran orang.
406
00:23:04,216 --> 00:23:07,677
Mereka secara langsung menguji banyak hal
pada orang-orang.
407
00:23:09,137 --> 00:23:11,139
Seorang pesulap memahami sesuatu,
408
00:23:11,223 --> 00:23:14,017
sebagian dari pikiranmu
yang tak kita sadari.
409
00:23:14,101 --> 00:23:15,936
Itulah yang membuat ilusi berhasil.
410
00:23:16,269 --> 00:23:17,687
Dokter, pengacara,
411
00:23:17,771 --> 00:23:20,607
orang yang tahu cara membuat Boeing 747
atau misil nuklir,
412
00:23:20,690 --> 00:23:24,361
mereka tak lebih tahu
soal betapa rentannya pikiran mereka.
413
00:23:24,444 --> 00:23:26,154
Itu bidang ilmu yang berbeda.
414
00:23:26,571 --> 00:23:28,990
Itulah bidang ilmu yang berlaku
untuk semua manusia.
415
00:23:29,074 --> 00:23:30,909
UNIVERSITAS STANFORD
416
00:23:30,992 --> 00:23:34,079
Dari sudut pandang itu, kita bisa memiliki
pemahaman sangat berbeda
417
00:23:34,162 --> 00:23:35,705
soal hal yang teknologi lakukan.
418
00:23:36,873 --> 00:23:39,584
Saat belajar
di Lab Teknologi Persuasif Stanford,
419
00:23:39,668 --> 00:23:41,044
inilah yang kami pelajari.
420
00:23:41,586 --> 00:23:43,505
Bagaimana memanfaatkan
semua yang kita tahu
421
00:23:43,588 --> 00:23:45,882
tentang psikologi dari cara membujuk orang
422
00:23:45,966 --> 00:23:48,385
dan menjadikannya teknologi?
423
00:23:48,468 --> 00:23:50,762
Banyak dari kalian yang hadir
yang sudah genius.
424
00:23:50,846 --> 00:23:53,682
Kurasa itu benar,
tapi tujuanku adalah menjadikan kalian
425
00:23:53,765 --> 00:23:55,892
genius dalam perubahan perilaku.
426
00:23:56,852 --> 00:24:01,148
Ada banyak tokoh ternama di Silicon Valley
yang mengikuti kelas itu,
427
00:24:01,231 --> 00:24:05,485
tokoh kunci pertumbuhan di Facebook, Uber,
juga perusahaan lain,
428
00:24:05,569 --> 00:24:09,197
dan belajar membuat teknologi
lebih persuasif,
429
00:24:09,614 --> 00:24:10,949
Tristan salah satunya.
430
00:24:12,242 --> 00:24:14,619
Teknologi persuasif itu semacam desain
431
00:24:14,703 --> 00:24:16,580
yang sengaja diterapkan secara ekstrem,
432
00:24:16,663 --> 00:24:18,874
agar kami bisa mengubah
perilaku seseorang.
433
00:24:18,957 --> 00:24:20,542
Kami ingin mereka melakukan sesuatu
434
00:24:20,625 --> 00:24:23,336
dan terus melakukan ini
dengan jari mereka.
435
00:24:23,420 --> 00:24:26,256
Jika tarik layar dan segarkan,
akan muncul hal baru di atas.
436
00:24:26,339 --> 00:24:28,508
Tarik dan segarkan lagi, hal baru.
Setiap kali.
437
00:24:28,592 --> 00:24:33,722
Dalam psikologi,
itu disebut penguat intermiten positif.
438
00:24:33,805 --> 00:24:37,142
Kita tak tahu kapan
atau apakah kita akan mendapatkannya.
439
00:24:37,225 --> 00:24:40,061
Itu bekerja seperti mesin slot di Vegas.
440
00:24:40,145 --> 00:24:42,189
Bukan hanya memakai
produknya secara sadar,
441
00:24:42,272 --> 00:24:44,024
tapi aku mau masuk jauh ke batang otak
442
00:24:44,107 --> 00:24:47,652
dan menanamkan kebiasaan secara tak sadar
di dalam dirimu
443
00:24:47,736 --> 00:24:50,780
agar kau diprogram secara lebih mendalam.
444
00:24:50,864 --> 00:24:52,115
Kau bahkan tak sadar.
445
00:24:52,407 --> 00:24:53,867
Pria bernama James Marshall...
446
00:24:53,950 --> 00:24:56,286
Setiap itu tampak di atas meja,
447
00:24:56,369 --> 00:24:59,789
kau melihatnya
dan tahu jika kau mengambilnya,
448
00:24:59,873 --> 00:25:01,333
mungkin ada sesuatu untukmu.
449
00:25:01,416 --> 00:25:03,877
Jadi, kau memainkannya
untuk melihat kau dapat apa.
450
00:25:04,211 --> 00:25:06,046
Itu bukan kebetulan, tapi teknik desain.
451
00:25:06,129 --> 00:25:11,134
Dia membawa bungkal emas
ke perwira AD di San Francisco.
452
00:25:12,219 --> 00:25:15,388
Ingatlah, populasi San Francisco hanya...
453
00:25:15,472 --> 00:25:17,432
Contoh lainnya adalah penandaan foto.
454
00:25:19,726 --> 00:25:24,064
Jadi, jika menerima surel yang menyebutkan
temanmu baru saja menandaimu di foto,
455
00:25:24,147 --> 00:25:28,568
tentu kau akan membuka surel itu
dan melihat fotonya.
456
00:25:29,152 --> 00:25:31,947
Itu bukan hal yang bisa kau abaikan
begitu saja.
457
00:25:32,364 --> 00:25:36,326
Ini adalah kepribadian mendalam manusia
yang mereka manfaatkan.
458
00:25:36,409 --> 00:25:37,994
Yang harus kau tanyakan adalah,
459
00:25:38,078 --> 00:25:40,288
"Kenapa surel itu tak berisi fotonya?
460
00:25:40,372 --> 00:25:42,457
Maka akan lebih mudah melihat fotonya."
461
00:25:42,707 --> 00:25:45,919
Saat Facebook menemukan fitur itu,
mereka memaksimalkannya
462
00:25:46,002 --> 00:25:48,505
karena itu dianggap bagus
untuk menumbuhkan aktivitas.
463
00:25:48,588 --> 00:25:51,091
Mari buat orang saling menandai foto
sepanjang hari."
464
00:25:56,263 --> 00:25:58,890
SETIDAKNYA SALAH SATU DARI KITA
TAMPAK BAGUS
465
00:25:59,349 --> 00:26:00,475
Dia berkomentar.
466
00:26:00,559 --> 00:26:01,434
Bagus.
467
00:26:01,935 --> 00:26:04,688
Rebecca menerimanya dan dia merespons.
468
00:26:04,771 --> 00:26:07,566
Beri tahu Ben Rebecca mengetik
agar kita tak kehilangan dia.
469
00:26:07,649 --> 00:26:08,900
Mengaktifkan elipsis.
470
00:26:09,234 --> 00:26:13,613
SETIDAKNYA SALAH SATU DARI KITA
TAMPAK BAGUS
471
00:26:19,411 --> 00:26:20,787
Bagus, dia menjawab.
472
00:26:21,538 --> 00:26:24,249
Dia mengomentari komentarnya
soal komentarnya di posnya.
473
00:26:25,041 --> 00:26:26,418
Tunggu, dia berhenti mengetik.
474
00:26:26,751 --> 00:26:27,752
Beri isi otomatis.
475
00:26:28,420 --> 00:26:30,005
Emoji. Dia suka emoji.
476
00:26:31,381 --> 00:26:33,758
ISI OTOMATIS
KETERLIBATAN
477
00:26:33,842 --> 00:26:34,676
Dia memilih api.
478
00:26:35,427 --> 00:26:36,803
Tadi kuharap terung.
479
00:26:38,597 --> 00:26:42,726
Ada disiplin dan bidang ilmu
yang disebut "peretasan pertumbuhan".
480
00:26:42,809 --> 00:26:47,147
Tim teknisi yang bertugas
meretas psikologi orang
481
00:26:47,230 --> 00:26:48,565
agar dapat pertumbuhan lebih.
482
00:26:48,648 --> 00:26:51,026
Mendapat pendaftaran pengguna
dan keterlibatan lebih,
483
00:26:51,109 --> 00:26:52,861
juga membuat kita mengajak orang lagi.
484
00:26:52,944 --> 00:26:55,989
Setelah semua tes, iterasi,
dan semua ini,
485
00:26:56,072 --> 00:26:57,907
tahu hal terbesar yang kami sadari?
486
00:26:57,991 --> 00:27:00,994
Buat orang ajak tujuh teman
dalam sepuluh hari.
487
00:27:01,953 --> 00:27:02,871
Itu saja.
488
00:27:02,954 --> 00:27:05,498
Dulu Chamath adalah
kepala pertumbuhan Facebook
489
00:27:05,582 --> 00:27:08,251
dan dia sangat terkenal
di industri teknologi
490
00:27:08,335 --> 00:27:11,004
karena memelopori
banyak taktik pertumbuhan
491
00:27:11,087 --> 00:27:14,758
yang digunakan untuk menumbuhkan Facebook
dengan sangat cepat.
492
00:27:14,841 --> 00:27:18,511
Taktik pertumbuhan itu lalu menjadi
standar untuk Silicon Valley.
493
00:27:18,595 --> 00:27:21,222
Itu digunakan di Uber
dan beberapa perusahaan lain.
494
00:27:21,306 --> 00:27:27,062
Salah satu yang dia pelopori adalah
penggunaan uji A/B ilmiah
495
00:27:27,145 --> 00:27:28,480
dari perubahan fitur kecil.
496
00:27:29,022 --> 00:27:30,940
Perusahaan seperti Google dan Facebook
497
00:27:31,024 --> 00:27:34,569
akan mengeluarkan
banyak eksperimen kecil
498
00:27:34,653 --> 00:27:36,821
yang terus mereka lakukan pada pengguna.
499
00:27:36,905 --> 00:27:39,866
Seiring waktu,
dengan terus menjalankan eksperimen ini,
500
00:27:39,949 --> 00:27:42,994
mereka mengembangkan cara paling maksimal
501
00:27:43,078 --> 00:27:45,288
untuk membuat pengguna
melakukan yang mereka mau.
502
00:27:45,372 --> 00:27:46,790
Itu manipulasi.
503
00:27:47,332 --> 00:27:49,417
Kau membuatku merasa
seperti kelinci percobaan.
504
00:27:49,834 --> 00:27:51,961
Kau memang kelinci percobaan.
Kita semua begitu.
505
00:27:52,545 --> 00:27:55,548
Namun, bukan kelinci percobaan
untuk mengembangkan obat kanker.
506
00:27:55,632 --> 00:27:58,134
Mereka bukan mencoba memperalat kita.
507
00:27:58,218 --> 00:28:01,513
Kita hanya zombi dan mereka ingin
kita melihat lebih banyak iklan
508
00:28:01,596 --> 00:28:03,264
agar mereka dapat lebih banyak uang.
509
00:28:03,556 --> 00:28:08,228
Facebook melakukan hal yang mereka sebut
"eksperimen penularan skala besar".
510
00:28:08,311 --> 00:28:09,145
Baiklah.
511
00:28:09,229 --> 00:28:12,857
Bagaimana gunakan petunjuk bawah sadar
di halaman Facebook
512
00:28:13,400 --> 00:28:17,570
agar lebih banyak orang memilih
di pemilu paruh waktu?
513
00:28:17,987 --> 00:28:20,824
Mereka mendapati
mereka mampu melakukan itu.
514
00:28:20,907 --> 00:28:24,160
Satu hal yang mereka simpulkan
adalah kini kita tahu
515
00:28:24,744 --> 00:28:28,915
kita bisa memengaruhi perilaku
dan emosi dunia nyata
516
00:28:28,998 --> 00:28:32,877
tanpa memicu kesadaran pengguna.
517
00:28:33,503 --> 00:28:37,382
Mereka sama sekali tak tahu.
518
00:28:38,049 --> 00:28:40,427
Kita mengarahkan
mesin inteligensi artifisial ini
519
00:28:40,510 --> 00:28:41,970
pada diri kita
520
00:28:42,053 --> 00:28:46,224
untuk merekayasa balik
pemicu respons kita.
521
00:28:47,100 --> 00:28:49,602
Hampir seperti menstimulasi
sel saraf laba-laba
522
00:28:49,686 --> 00:28:51,479
untuk melihat pemicu respons kakinya.
523
00:28:51,938 --> 00:28:53,940
Ini sungguh semacam eksperimen penjara
524
00:28:54,023 --> 00:28:56,735
tempat kita memaksa orang memasuki matriks
525
00:28:56,818 --> 00:29:00,530
lalu kita mengambil semua uang dan data
dari semua aktivitas mereka
526
00:29:00,613 --> 00:29:01,489
sebagai keuntungan.
527
00:29:01,573 --> 00:29:03,450
Kita bahkan tak tahu itu sedang terjadi.
528
00:29:04,117 --> 00:29:07,912
Kami ingin secara psikologis tahu
cara memanipulasimu secepat mungkin
529
00:29:07,996 --> 00:29:10,081
lalu membalasnya dengan stimulasi dopamin.
530
00:29:10,165 --> 00:29:12,542
Kami melakukannya dengan sangat baik
di Facebook.
531
00:29:12,625 --> 00:29:14,919
Instagram dan WhatsApp melakukannya.
532
00:29:15,003 --> 00:29:17,380
Snapchat dan Twitter melakukannya.
533
00:29:17,672 --> 00:29:19,424
Maksudku, itu persis ide
534
00:29:19,507 --> 00:29:22,427
yang akan dicetuskan
oleh peretas sepertiku
535
00:29:22,510 --> 00:29:27,432
karena kita mengeksploitasi kelemahan
dalam psikologi manusia.
536
00:29:27,766 --> 00:29:33,438
Kupikir kami, para penemu dan pencipta...
537
00:29:33,980 --> 00:29:37,317
Aku, Mark dan...
538
00:29:37,400 --> 00:29:40,403
Kevin Systrom di Instagram,
semua orang ini...
539
00:29:41,154 --> 00:29:46,451
memahami ini secara sadar
dan kami tetap melakukannya.
540
00:29:50,580 --> 00:29:53,750
Tak ada yang marah saat sepeda ditemukan.
541
00:29:55,043 --> 00:29:58,004
Benar, bukan?
Jika semua orang mulai mengendarai sepeda,
542
00:29:58,087 --> 00:30:00,965
tak ada yang bilang,
"Astaga, kita baru merusak masyarakat.
543
00:30:01,049 --> 00:30:03,051
Sepeda memengaruhi orang,
544
00:30:03,134 --> 00:30:05,303
menjauhkan mereka dari anak-anak mereka,
545
00:30:05,386 --> 00:30:08,723
merusak struktur demokrasi,
orang tak tahu mana yang benar."
546
00:30:08,807 --> 00:30:11,476
Kita tak pernah berkata begitu
soal sepeda.
547
00:30:12,769 --> 00:30:16,147
Jika sesuatu adalah alat,
ia hanya duduk diam di sana,
548
00:30:16,731 --> 00:30:18,733
menunggu dengan sabar.
549
00:30:19,317 --> 00:30:22,821
Jika sesuatu bukan alat,
ia menuntut sesuatu darimu,
550
00:30:22,904 --> 00:30:26,533
merayu, memanipulasi,
dan menginginkan sesuatu darimu.
551
00:30:26,950 --> 00:30:30,495
Kita beralih dari memiliki
lingkungan teknologi berbasis alat
552
00:30:31,037 --> 00:30:34,499
ke lingkungan teknologi berbasis kecanduan
dan manipulasi.
553
00:30:34,582 --> 00:30:35,708
Itu yang berubah.
554
00:30:35,792 --> 00:30:39,420
Media sosial bukan alat
yang menunggu untuk digunakan.
555
00:30:39,504 --> 00:30:43,466
Ia punya tujuan dan cara sendiri
untuk memperolehnya
556
00:30:43,550 --> 00:30:45,677
menggunakan psikologimu melawan dirimu.
557
00:30:49,055 --> 00:30:52,517
"HANYA ADA DUA INDUSTRI YANG MENYEBUT
PELANGGAN MEREKA 'PENGGUNA',
558
00:30:52,600 --> 00:30:57,480
NARKOBA DAN PERANTI LUNAK."
EDWARD TUFTE
559
00:30:57,564 --> 00:31:02,193
Beberapa tahun lalu,
aku adalah Presiden Pinterest.
560
00:31:03,152 --> 00:31:08,366
Aku pulang dan tak bisa menjauhi ponselku
begitu tiba di rumah,
561
00:31:08,449 --> 00:31:12,161
meski aku punya dua anak kecil
yang butuh cinta dan perhatianku.
562
00:31:12,245 --> 00:31:15,748
Aku ada di dapur, mengetik surel
563
00:31:15,832 --> 00:31:17,625
atau kadang melihat Pinterest.
564
00:31:18,001 --> 00:31:19,627
Kupikir, "Ini sungguh ironis.
565
00:31:19,711 --> 00:31:22,046
Aku akan bekerja di siang hari
566
00:31:22,130 --> 00:31:26,426
dan membangun sesuatu
yang kemudian memanipulasiku."
567
00:31:26,509 --> 00:31:30,096
Aku tak bisa... Maksudku, terkadang,
aku tak bisa menahan diri.
568
00:31:32,307 --> 00:31:36,102
Yang cenderung paling kugunakan
adalah Twitter.
569
00:31:36,728 --> 00:31:38,021
Tadinya Reddit.
570
00:31:38,104 --> 00:31:42,859
Aku bahkan harus membuat perangkat lunak
untuk hapus kecanduanku membaca Reddit.
571
00:31:45,403 --> 00:31:47,780
Aku mungkin kecanduan surel.
572
00:31:47,864 --> 00:31:49,866
Sungguh. Aku merasakannya.
573
00:31:52,577 --> 00:31:54,954
Rasanya menarik
574
00:31:55,038 --> 00:31:58,166
meski aku tahu
apa yang terjadi di balik layar,
575
00:31:58,249 --> 00:32:01,628
aku masih tak bisa mengendalikan
penggunaanku.
576
00:32:01,711 --> 00:32:03,254
Jadi, itu agak menakutkan.
577
00:32:03,630 --> 00:32:07,050
Meski tahu cara kerjanya,
aku masih rentan terhadapnya.
578
00:32:07,133 --> 00:32:09,886
Aku masih akan mengangkat ponsel
dan 20 menit akan berlalu.
579
00:32:12,805 --> 00:32:15,725
Apa kau memeriksa ponsel cerdasmu
sebelum kencing saat pagi
580
00:32:15,808 --> 00:32:17,477
atau sambil kencing saat pagi?
581
00:32:17,560 --> 00:32:19,479
Karena hanya ada dua opsi itu.
582
00:32:19,771 --> 00:32:23,274
Aku berusaha dengan tekad kuat,
583
00:32:23,358 --> 00:32:26,903
"Akan kutaruh dan kutinggalkan ponselku
di mobil saat pulang."
584
00:32:26,986 --> 00:32:30,573
Kurasa aku berkata pada diriku seribu kali
pada seribu hari berbeda,
585
00:32:30,657 --> 00:32:32,659
"Aku takkan membawa ponselku
ke kamar tidur,"
586
00:32:32,742 --> 00:32:34,535
lalu saat pukul 21.00 tiba.
587
00:32:34,619 --> 00:32:37,121
"Aku mau membawa ponselku ke kamar tidur."
588
00:32:37,956 --> 00:32:39,290
Jadi, itu semacam...
589
00:32:39,374 --> 00:32:41,125
Kekuatan tekad adalah usaha pertama,
590
00:32:41,209 --> 00:32:44,295
lalu usaha kedua adalah pemaksaan.
591
00:32:44,379 --> 00:32:45,880
Perkenalkan, ini Kitchen Safe,
592
00:32:45,964 --> 00:32:49,801
Kitchen Safe adalah
wadah berpengunci waktu revolusioner baru
593
00:32:49,884 --> 00:32:51,678
yang membantu Anda melawan godaan.
594
00:32:51,761 --> 00:32:56,724
David hanya perlu memasukkan godaan itu
ke Kitchen Safe.
595
00:32:57,392 --> 00:33:00,603
Selanjutnya, dia memutar tombol
untuk mengatur waktunya
596
00:33:01,479 --> 00:33:04,232
dan akhirnya, dia menekan tombol
untuk mengaktifkan kuncinya.
597
00:33:04,315 --> 00:33:05,525
Kitchen Safe ini bagus...
598
00:33:05,608 --> 00:33:06,693
Kita punya itu, bukan?
599
00:33:06,776 --> 00:33:08,569
...gim video, kartu kredit, dan ponsel.
600
00:33:08,653 --> 00:33:09,654
Ya, benar.
601
00:33:09,779 --> 00:33:11,114
Begitu Kitchen Safe terkunci,
602
00:33:11,197 --> 00:33:13,908
ini tak bisa dibuka
sampai waktunya mencapai nol.
603
00:33:13,992 --> 00:33:17,537
Jadi, ini masalahnya.
Media sosial adalah narkoba.
604
00:33:17,620 --> 00:33:20,873
Maksudku,
kita punya perintah biologis dasar
605
00:33:20,957 --> 00:33:23,084
untuk terhubung dengan orang lain.
606
00:33:23,167 --> 00:33:25,253
Itu secara langsung memengaruhi
607
00:33:25,378 --> 00:33:28,214
pelepasan dopamin
dalam "jalur kenikmatan".
608
00:33:28,297 --> 00:33:32,510
Jutaan tahun evolusi berada
di balik sistem itu
609
00:33:32,593 --> 00:33:35,596
untuk membuat kita berkumpul
dan hidup di komunitas,
610
00:33:35,680 --> 00:33:38,016
mencari pasangan,
dan menyebarkan spesies kita.
611
00:33:38,099 --> 00:33:41,853
Jadi, tak diragukan lagi medium
seperti media sosial
612
00:33:41,936 --> 00:33:45,690
yang mengoptimalkan
hubungan antarorang ini
613
00:33:45,773 --> 00:33:48,568
akan memiliki potensi kecanduan.
614
00:33:52,739 --> 00:33:54,115
Ayah, hentikan!
615
00:33:55,450 --> 00:33:58,453
Aku harus mengirim seribu Snip lagi
sebelum makan malam.
616
00:33:58,536 --> 00:33:59,537
Snip?
617
00:33:59,620 --> 00:34:01,080
Aku tak tahu apa itu Snip.
618
00:34:01,164 --> 00:34:03,207
- Aromanya enak, Sayang.
- Terima kasih.
619
00:34:03,291 --> 00:34:07,712
Kupikir kita butuh kelima indra
untuk menikmati makan malam kita.
620
00:34:07,795 --> 00:34:11,382
Jadi, kuputuskan tak boleh ada ponsel
di meja malam ini.
621
00:34:11,466 --> 00:34:13,301
Jadi, serahkan kepadaku.
622
00:34:13,801 --> 00:34:14,802
- Sungguh?
- Ya.
623
00:34:15,928 --> 00:34:18,056
- Baiklah.
- Terima kasih. Ben?
624
00:34:18,139 --> 00:34:19,891
- Baik.
- Ibu, si perompak ponsel.
625
00:34:21,100 --> 00:34:21,934
- Dapat.
- Ibu!
626
00:34:22,602 --> 00:34:26,147
Jadi, mereka akan aman di sini
sampai makan malam usai...
627
00:34:27,273 --> 00:34:31,277
dan semua bisa bersantai. Paham?
628
00:34:47,418 --> 00:34:49,253
- Boleh kulihat dari siapa itu?
- Tidak.
629
00:34:54,759 --> 00:34:56,969
Aku akan mengambil garpu lagi.
630
00:34:58,304 --> 00:34:59,263
Terima kasih.
631
00:35:04,727 --> 00:35:06,729
Sayang, kau tak bisa membukanya.
632
00:35:06,813 --> 00:35:08,856
Aku menguncinya satu jam,
jadi, biarkan saja.
633
00:35:11,317 --> 00:35:13,361
Jadi, apa yang harus kita bahas?
634
00:35:13,444 --> 00:35:15,613
Kita bisa membahas
635
00:35:15,696 --> 00:35:17,824
orang gila Extreme Center
yang kuantar hari ini.
636
00:35:17,907 --> 00:35:18,825
Tolong, Frank.
637
00:35:18,908 --> 00:35:22,120
- Aku tak mau membahas politik.
- Ada apa dengan Extreme Center?
638
00:35:22,203 --> 00:35:24,622
- Dia bahkan tak paham.
- Tergantung menanyai siapa.
639
00:35:24,705 --> 00:35:26,624
Bagai bertanya, "Apa salahnya propaganda?"
640
00:35:28,918 --> 00:35:29,919
Isla!
641
00:35:32,797 --> 00:35:33,756
Astaga.
642
00:35:37,135 --> 00:35:38,553
- Kau mau aku...
- Ya.
643
00:35:41,973 --> 00:35:43,933
Aku mencemaskan anak-anakku.
644
00:35:44,016 --> 00:35:46,686
Jika kau punya anak,
aku mencemaskan anak-anakmu.
645
00:35:46,769 --> 00:35:50,189
Dengan semua pengetahuan
dan pengalaman yang kupunya,
646
00:35:50,273 --> 00:35:52,108
aku mendebat anak-anakku soal waktu
647
00:35:52,191 --> 00:35:54,443
yang mereka habiskan pada ponsel
dan komputer.
648
00:35:54,694 --> 00:35:56,070
Kuberi tahu putraku,
649
00:35:56,154 --> 00:35:58,197
"Berapa jam yang kau habiskan
pada ponselmu?"
650
00:35:58,281 --> 00:36:01,075
Dia akan bilang, "Maksimal setengah jam."
651
00:36:01,159 --> 00:36:04,829
Kurasa lebih dari 60-90 menit.
652
00:36:04,912 --> 00:36:06,789
Kulihat statistiknya beberapa minggu lalu
653
00:36:06,873 --> 00:36:08,708
- dan itu tiga jam, 45 menit.
- Itu...
654
00:36:11,252 --> 00:36:13,588
Kurasa itu tidak... Rata-rata per hari?
655
00:36:13,671 --> 00:36:15,506
- Ya.
- Mau kuambil sekarang?
656
00:36:15,590 --> 00:36:19,177
Setiap hari, aku mengingatkan anak-anakku
657
00:36:19,260 --> 00:36:21,762
tentang keseimbangan rasa suka dan duka,
658
00:36:21,846 --> 00:36:26,267
kondisi kekurangan dopamin,
dan risiko kecanduan.
659
00:36:26,350 --> 00:36:27,310
Momen penentuan.
660
00:36:27,935 --> 00:36:29,687
Dua jam, 50 menit per hari.
661
00:36:29,770 --> 00:36:31,772
- Coba lihat.
- Kugunakan lama hari ini.
662
00:36:31,856 --> 00:36:33,316
- Tujuh hari ini.
- Itu sebabnya.
663
00:36:33,399 --> 00:36:37,236
Instagram, enam jam, 13 menit.
Jadi, Instagram-ku lebih buruk.
664
00:36:39,572 --> 00:36:43,201
Layarku hancur. Terima kasih, Cass.
665
00:36:44,410 --> 00:36:45,995
Apa maksudmu, "Terima kasih, Cass"?
666
00:36:46,078 --> 00:36:49,290
Kau terus membuat Ibu takut
soal ponsel kita padahal bukan masalah.
667
00:36:49,373 --> 00:36:51,167
Tak butuh ponsel untuk makan malam.
668
00:36:51,250 --> 00:36:53,878
Aku paham maksudmu,
tapi ini bukan masalah besar.
669
00:36:56,047 --> 00:36:58,382
Jika begitu,
coba jangan gunakan selama seminggu.
670
00:37:01,135 --> 00:37:02,178
Ya.
671
00:37:02,261 --> 00:37:06,349
Ya, jika kau bisa menjauhinya
selama seminggu...
672
00:37:07,725 --> 00:37:09,518
akan kubelikan kau layar baru.
673
00:37:11,020 --> 00:37:12,772
- Mulai sekarang?
- Benar.
674
00:37:15,274 --> 00:37:16,859
Baiklah. Setuju.
675
00:37:16,943 --> 00:37:19,111
Namun, kau harus tinggalkan itu di sini,
Kawan.
676
00:37:19,862 --> 00:37:21,405
Baiklah, aku akan mengecasnya.
677
00:37:22,531 --> 00:37:25,076
Mulai saat ini, aku akan menjauh.
678
00:37:25,159 --> 00:37:25,993
Baiklah.
679
00:37:27,703 --> 00:37:29,413
- Waktumu dimulai.
- Satu minggu.
680
00:37:29,497 --> 00:37:30,331
Astaga...
681
00:37:31,457 --> 00:37:32,416
Kau pikir dia bisa?
682
00:37:33,000 --> 00:37:34,543
Entahlah, kita lihat saja.
683
00:37:35,002 --> 00:37:36,128
Makanlah saja, ya?
684
00:37:44,220 --> 00:37:45,680
Makan malam keluarga yang bagus!
685
00:37:47,682 --> 00:37:49,809
Produk teknologi ini tak dirancang
686
00:37:49,892 --> 00:37:53,896
oleh psikolog anak yang berusaha
melindungi dan mengasuh anak.
687
00:37:53,980 --> 00:37:56,148
Namun, hanya didesain
untuk membuat algoritme
688
00:37:56,232 --> 00:37:58,734
yang mahir merekomendasikan
video berikutnya untuk kita
689
00:37:58,818 --> 00:38:02,321
atau membuat kita bisa berfoto
dengan efek.
690
00:38:03,072 --> 00:38:05,324
DUA SUKA
691
00:38:13,291 --> 00:38:15,126
YAKIN INGIN MENGHAPUS?
TIDAK
692
00:38:15,209 --> 00:38:16,210
YA
693
00:38:16,711 --> 00:38:20,256
Itu bukan hanya mengendalikan
tujuan perhatian mereka.
694
00:38:21,173 --> 00:38:26,304
Media sosial mulai terus menggali
lebih dalam ke batang otak,
695
00:38:26,387 --> 00:38:29,765
mengambil alih harga diri
dan identitas anak.
696
00:38:29,849 --> 00:38:31,851
PERCANTIK AKU
697
00:38:42,069 --> 00:38:43,112
LILY_T
MANIS!
698
00:38:43,195 --> 00:38:44,822
SOPHIA_M
ASTAGA, CANTIK SEKALI
699
00:38:44,905 --> 00:38:46,490
OLIVIA_B
KAU MENGAGUMKAN
700
00:38:46,574 --> 00:38:49,118
AVA_R
BISA PERBESAR TELINGAMU?
701
00:38:52,496 --> 00:38:56,459
Kita berevolusi untuk peduli
apakah orang lain di suku kita
702
00:38:56,751 --> 00:38:59,128
memandang kita baik atau tidak
karena itu penting.
703
00:38:59,837 --> 00:39:04,550
Namun, apa kita berevolusi untuk menyadari
pendapat 10.000 orang tentang kita?
704
00:39:04,633 --> 00:39:05,885
Kita tak berevolusi
705
00:39:05,968 --> 00:39:10,348
untuk menerima persetujuan sosial
setiap lima menit.
706
00:39:10,431 --> 00:39:13,392
Kita sama sekali tak dirancang
untuk mengalami itu.
707
00:39:15,394 --> 00:39:19,982
Kita menyesuaikan hidup kita
mengikuti pandangan kesempurnaan ini
708
00:39:20,733 --> 00:39:23,527
karena kita mendapat imbalan
dalam sinyal jangka pendek ini,
709
00:39:23,611 --> 00:39:25,154
ikon hati, suka, dan jempol.
710
00:39:25,237 --> 00:39:28,407
Lalu kita menyatukannya dengan nilai
dan kebenaran.
711
00:39:29,825 --> 00:39:33,329
Alih-alih sebagai hal yang sebenarnya,
yaitu popularitas palsu dan rapuh...
712
00:39:33,913 --> 00:39:37,458
yang hanya sesaat, membuat kita kecanduan,
dan akuilah,
713
00:39:37,541 --> 00:39:39,919
membuat kita hampa sebelum melakukannya.
714
00:39:41,253 --> 00:39:43,381
Karena itu memaksa kita
memasuki lingkaran ganas
715
00:39:43,464 --> 00:39:45,800
yang membuat kita bilang,
"Aku harus apa berikutnya?
716
00:39:45,883 --> 00:39:47,343
Karena aku butuh itu."
717
00:39:48,260 --> 00:39:50,846
Bayangkan itu dilakukan
oleh dua miliar orang lainnya
718
00:39:50,930 --> 00:39:54,767
lalu bayangkan reaksi orang
terhadap persepsi orang lain.
719
00:39:54,850 --> 00:39:56,435
Itu sangat buruk.
720
00:39:56,977 --> 00:39:58,312
Itu benar-benar buruk.
721
00:40:00,856 --> 00:40:05,069
Ada peningkatan besar dalam depresi
dan kecemasan
722
00:40:05,152 --> 00:40:06,529
bagi remaja Amerika
723
00:40:06,612 --> 00:40:10,950
yang dimulai antara tahun 2011 dan 2013.
724
00:40:11,033 --> 00:40:15,371
Jumlah gadis remaja
dari 100.000 gadis di negara ini
725
00:40:15,454 --> 00:40:19,917
yang dirawat di rumah sakit setiap tahun
karena menyayat atau melukai diri sendiri,
726
00:40:20,000 --> 00:40:23,921
angka itu cukup stabil
sampai sekitar tahun 2010-2011,
727
00:40:24,004 --> 00:40:25,756
lalu mulai naik pesat.
728
00:40:28,717 --> 00:40:32,263
Naik 62 persen
untuk gadis remaja lebih tua.
729
00:40:32,346 --> 00:40:33,931
RAWAT INAP UNTUK LUKA DIRI NONFATAL
730
00:40:34,014 --> 00:40:38,602
Naik 189 persen untuk gadis praremaja.
Itu hampir tiga kali lipat.
731
00:40:40,354 --> 00:40:43,107
Lebih mengerikan lagi,
bunuh diri alami tren yang sama.
732
00:40:43,190 --> 00:40:44,900
TINGKAT BUNUH DIRI AS
PER SEJUTA GADIS
733
00:40:44,984 --> 00:40:47,570
Gadis remaja lebih tua,
usia 15 sampai 19 tahun,
734
00:40:47,653 --> 00:40:51,449
mereka naik 70% dibandingkan
dekade pertama abad ini.
735
00:40:52,158 --> 00:40:55,077
Para gadis praremaja,
yang punya tingkat awal sangat rendah,
736
00:40:55,161 --> 00:40:57,663
mereka naik 151 persen.
737
00:40:58,831 --> 00:41:01,709
Lalu pola itu mengarah ke media sosial.
738
00:41:01,792 --> 00:41:03,961
MEDIA SOSIAL TERSEDIA DI PONSEL
2009
739
00:41:04,044 --> 00:41:07,214
Generasi Z,
anak-anak yang lahir usai tahun 1996,
740
00:41:07,298 --> 00:41:10,342
mereka adalah generasi pertama
dalam sejarah
741
00:41:10,426 --> 00:41:12,636
yang terjun ke media sosial
di sekolah menengah.
742
00:41:15,973 --> 00:41:17,683
Bagaimana mereka menghabiskan waktu?
743
00:41:19,727 --> 00:41:22,480
Mereka pulang dari sekolah
dan memakai gawai mereka.
744
00:41:24,315 --> 00:41:29,195
Seluruh generasi ini lebih cemas, rapuh,
dan tertekan.
745
00:41:30,613 --> 00:41:33,282
Mereka kurang nyaman mengambil risiko.
746
00:41:34,325 --> 00:41:37,536
Tingkat permohonan SIM mereka menurun.
747
00:41:38,954 --> 00:41:41,081
Jumlah orang yang pernah berkencan
748
00:41:41,165 --> 00:41:44,251
atau memiliki hubungan romantis
menurun drastis.
749
00:41:47,505 --> 00:41:49,882
Ini perubahan nyata dalam satu generasi.
750
00:41:53,177 --> 00:41:57,306
Ingatlah, untuk semua kasus ini,
setiap perawatan di rumah sakit,
751
00:41:57,389 --> 00:42:00,267
ada keluarga yang merasa trauma dan ngeri.
752
00:42:00,351 --> 00:42:02,561
"Astaga, apa yang terjadi
kepada anak-anak kita?"
753
00:42:19,411 --> 00:42:21,038
Ini sangat jelas bagiku.
754
00:42:22,873 --> 00:42:28,128
Layanan ini membunuh orang
dan menyebabkan orang bunuh diri.
755
00:42:29,088 --> 00:42:33,300
Aku tak mengenal orang tua yang bilang,
"Ya, aku ingin anak-anakku tumbuh dewasa
756
00:42:33,384 --> 00:42:35,135
dengan merasa dimanipulasi
757
00:42:35,678 --> 00:42:36,887
oleh desainer teknologi.
758
00:42:36,971 --> 00:42:39,723
Memanipulasi perhatian
dan menjadikan PR mustahil dikerjakan,
759
00:42:39,807 --> 00:42:42,560
membuat mereka mengikuti
standar kecantikan tak realistis."
760
00:42:42,643 --> 00:42:44,687
Tak ada yang mau itu.
761
00:42:45,104 --> 00:42:46,355
Tak ada yang mau.
762
00:42:46,438 --> 00:42:48,482
Dulu kita punya perlindungan.
763
00:42:48,566 --> 00:42:52,778
Saat anak-anak menonton kartun Sabtu pagi,
kita peduli soal melindungi anak-anak.
764
00:42:52,861 --> 00:42:56,574
Kita bilang, "Kau tak bisa beriklan
kepada anak usia ini dengan cara ini."
765
00:42:57,366 --> 00:42:58,784
Namun, muncul YouTube Kids
766
00:42:58,867 --> 00:43:02,454
yang menghapus
seluruh jual-beli perhatian ini
767
00:43:02,538 --> 00:43:04,915
dan kini semua anak terpapar YouTube Kids.
768
00:43:04,999 --> 00:43:07,668
Semua perlindungan
dan peraturan itu hilang.
769
00:43:10,296 --> 00:43:17,261
WAKTU TANPA PONSEL
770
00:43:18,304 --> 00:43:22,141
Kita melatih dan mengondisikan
satu generasi orang baru...
771
00:43:23,434 --> 00:43:29,148
agar ketika kita tak nyaman, kesepian,
merasa tak pasti, atau takut,
772
00:43:29,231 --> 00:43:31,775
kita punya penenang digital sendiri
773
00:43:32,526 --> 00:43:36,488
yang menghentikan kemampuan kita
untuk menghadapinya.
774
00:43:53,964 --> 00:43:56,884
Photoshop tak punya ribuan teknisi
di sisi lain layar
775
00:43:56,967 --> 00:43:59,011
yang menggunakan notifikasi,
teman-teman kita,
776
00:43:59,094 --> 00:44:02,431
dan IA untuk memprediksi
apa yang akan membuat kita kecanduan,
777
00:44:02,514 --> 00:44:04,516
memanipulasi kita,
atau mengizinkan pengiklan
778
00:44:04,600 --> 00:44:07,853
menguji 60.000 variasi teks atau warna
779
00:44:07,936 --> 00:44:11,065
untuk tahu cara memanipulasi pikiran kita
dengan sempurna.
780
00:44:11,148 --> 00:44:14,985
Ini jenis kekuasaan dan pengaruh baru.
781
00:44:16,070 --> 00:44:19,156
Sekali lagi kukatakan,
metode yang digunakan
782
00:44:19,239 --> 00:44:22,826
untuk mempermainkan kemampuan orang
untuk kecanduan atau dipengaruhi
783
00:44:22,910 --> 00:44:25,204
mungkin berbeda kali ini
dan mungkin memang begitu.
784
00:44:25,287 --> 00:44:28,749
Mereka berbeda saat koran muncul
dan mesin cetak muncul.
785
00:44:28,832 --> 00:44:31,835
Mereka berbeda saat televisi muncul
786
00:44:31,919 --> 00:44:34,004
lalu muncul tiga jaringan besar dan...
787
00:44:34,463 --> 00:44:36,423
- Saat itu.
- Saat itu, itu maksudku.
788
00:44:36,507 --> 00:44:38,384
Namun, maksudku, ada sebuah tingkat baru
789
00:44:38,467 --> 00:44:42,054
dan tingkat baru itu sudah sering terjadi.
790
00:44:42,137 --> 00:44:45,099
Ini tingkat baru terkini yang kita lihat.
791
00:44:45,391 --> 00:44:48,727
Ada narasi yang berkata,
"Kita beradaptasi saja atas itu.
792
00:44:48,811 --> 00:44:51,188
Kita akan belajar hidup
dengan perangkat ini
793
00:44:51,271 --> 00:44:53,732
seperti belajar hidup dengan yang lain."
794
00:44:53,816 --> 00:44:56,694
Yang luput di sini adalah
ada hal baru di sini.
795
00:44:57,569 --> 00:45:00,322
Mungkin hal paling berbahaya
dari semua ini adalah fakta
796
00:45:00,406 --> 00:45:04,410
bahwa itu didorong oleh teknologi
yang maju dengan sangat pesat.
797
00:45:05,953 --> 00:45:09,081
Kurang lebih,
dari tahun 1960-an hingga saat ini,
798
00:45:09,873 --> 00:45:13,085
kekuatan memproses meningkat
sekitar satu triliun kali.
799
00:45:13,794 --> 00:45:18,340
Tak ada hal yang kita punya
yang laju kenaikannya mendekati itu.
800
00:45:18,424 --> 00:45:22,177
Misalnya, mobil kira-kira hanya naik
dua kali lebih cepat.
801
00:45:22,261 --> 00:45:25,264
Lalu hampir semua yang lainnya
bisa diabaikan.
802
00:45:25,347 --> 00:45:27,182
Mungkin yang terpenting,
803
00:45:27,266 --> 00:45:31,353
sifat manusia, fisiologi, dan otak kita
tak berevolusi sama sekali.
804
00:45:31,854 --> 00:45:35,232
WAKTU TANPA PONSEL
805
00:45:37,401 --> 00:45:41,488
Level pikiran, raga, dan fisik manusia
806
00:45:41,947 --> 00:45:43,907
takkan berubah secara mendasar.
807
00:45:56,837 --> 00:45:58,172
Kita bisa melakukan
808
00:45:58,255 --> 00:46:01,091
rekayasa genetika dan mengembangkan
manusia baru di masa depan,
809
00:46:01,175 --> 00:46:05,220
tapi secara realistis,
kita hidup di dalam perangkat keras, otak,
810
00:46:05,304 --> 00:46:07,222
yang berusia jutaan tahun,
811
00:46:07,306 --> 00:46:10,559
lalu ada sebuah layar dan di baliknya,
812
00:46:10,642 --> 00:46:13,562
ada ribuan teknisi dan komputer super
813
00:46:13,645 --> 00:46:16,106
yang punya tujuan berbeda
dari tujuan kita.
814
00:46:16,190 --> 00:46:19,693
Jadi, siapa yang akan menang
dalam hal itu?
815
00:46:25,699 --> 00:46:26,950
Bagaimana kita bisa kalah?
816
00:46:27,159 --> 00:46:29,703
- Entahlah.
- Di mana dia? Ini tidak normal.
817
00:46:29,787 --> 00:46:32,164
Apa aku mencecarnya
dengan konten teman dan keluarga?
818
00:46:32,247 --> 00:46:34,082
- Mungkin.
- Mungkin karena iklannya.
819
00:46:34,166 --> 00:46:37,795
Tidak. Ada yang salah.
Mari beralih ke mode kebangkitan.
820
00:46:39,671 --> 00:46:44,051
Saat memikirkan IA,
kita pikir itu akan merusak dunia.
821
00:46:44,134 --> 00:46:47,221
Anda membayangkan Terminator,
Arnold Schwarzenegger.
822
00:46:47,638 --> 00:46:48,680
Aku akan kembali.
823
00:46:48,806 --> 00:46:52,643
Kita membayangkan pesawat nirawak
dan berpikir, "IA akan membunuh orang."
824
00:46:53,644 --> 00:46:59,817
Yang orang lupa adalah
IA sudah mengendalikan dunia saat ini.
825
00:46:59,900 --> 00:47:03,237
Bahkan membicarakan "IA"
hanyalah sebuah metafora.
826
00:47:03,320 --> 00:47:09,451
Di perusahaan seperti Google,
ada banyak ruangan yang sangat besar.
827
00:47:10,327 --> 00:47:13,121
Sebagian ada di bawah tanah,
sebagian lagi ada di bawah air,
828
00:47:13,205 --> 00:47:14,498
yang hanya berisi komputer.
829
00:47:14,581 --> 00:47:17,835
Begitu banyak komputer
sejauh mata memandang.
830
00:47:18,460 --> 00:47:20,504
Mereka sangat saling terhubung
831
00:47:20,587 --> 00:47:22,923
dan menjalankan program yang sangat rumit,
832
00:47:23,006 --> 00:47:26,009
saling mengirim informasi bolak-balik
sepanjang waktu.
833
00:47:26,802 --> 00:47:28,595
Mereka menjalankan beragam program
834
00:47:28,679 --> 00:47:30,806
dan produk pada mesin yang sama.
835
00:47:31,348 --> 00:47:33,684
Sebagiannya adalah algoritme sederhana
836
00:47:33,767 --> 00:47:35,227
dan sebagian lagi algoritme
837
00:47:35,310 --> 00:47:37,521
yang sangat rumit
hingga disebut kecerdasan.
838
00:47:40,148 --> 00:47:43,777
Menurutku, algoritme adalah opini
yang disematkan dalam kode...
839
00:47:45,070 --> 00:47:47,656
dan algoritme itu tidak objektif.
840
00:47:48,365 --> 00:47:51,577
Algoritme dioptimalkan
ke sebuah definisi kesuksesan.
841
00:47:52,244 --> 00:47:53,370
Jadi, bisa dibayangkan
842
00:47:53,453 --> 00:47:57,124
jika perusahaan komersial membuat
sebuah algoritme
843
00:47:57,207 --> 00:47:59,293
untuk definisi kesuksesan bagi mereka,
844
00:47:59,835 --> 00:48:01,378
itu kepentingan komersial.
845
00:48:01,587 --> 00:48:02,671
Biasanya profit.
846
00:48:03,130 --> 00:48:07,384
Kita memberi komputer tujuan,
"Aku ingin hasil ini,"
847
00:48:07,467 --> 00:48:10,262
lalu komputer itu sendiri
belajar melakukannya.
848
00:48:10,345 --> 00:48:12,598
Itulah asal istilah "pemelajaran mesin".
849
00:48:12,681 --> 00:48:14,892
Jadi, setiap hari,
ia menjadi sedikit lebih baik
850
00:48:14,975 --> 00:48:16,894
dalam memilih pos dalam urutan yang tepat
851
00:48:16,977 --> 00:48:19,438
agar kita bisa lebih lama
menggunakan produk itu.
852
00:48:19,521 --> 00:48:22,232
Tak ada yang paham apa yang mereka lakukan
853
00:48:22,316 --> 00:48:23,901
untuk mencapai tujuan itu.
854
00:48:23,984 --> 00:48:28,238
Algoritme itu punya pikiran sendiri,
jadi, meski seseorang menulisnya,
855
00:48:28,906 --> 00:48:30,657
itu ditulis sedemikian rupa
856
00:48:30,741 --> 00:48:35,037
agar setelah kita membuat mesinnya,
mesinnya akan berubah sendiri.
857
00:48:35,120 --> 00:48:37,915
Hanya ada sedikit orang
di semua perusahaan ini,
858
00:48:37,998 --> 00:48:40,000
Facebook, Twitter, dan perusahaan lain...
859
00:48:40,083 --> 00:48:43,795
Hanya sedikit orang yang mengerti
cara kerja sistem itu
860
00:48:43,879 --> 00:48:46,715
dan bahkan mereka tak sepenuhnya mengerti
861
00:48:46,798 --> 00:48:49,551
apa yang akan terjadi
dengan konten tertentu.
862
00:48:49,968 --> 00:48:53,472
Jadi, sebagai manusia,
kita hampir kehilangan kendali
863
00:48:53,555 --> 00:48:55,474
atas sistem ini
864
00:48:55,891 --> 00:48:59,603
karena mereka mengendalikan
informasi yang kita lihat.
865
00:48:59,686 --> 00:49:02,439
Mereka mengendalikan kita
melebihi kita mengendalikan mereka.
866
00:49:03,815 --> 00:49:07,319
Merujuk silang dia dengan yang serupa
di zona geografisnya.
867
00:49:07,402 --> 00:49:09,571
Kembaran psikometrinya.
868
00:49:09,655 --> 00:49:13,700
Ada 13.694 orang yang berperilaku
sepertinya di wilayahnya.
869
00:49:13,784 --> 00:49:16,370
- Apa yang mereka minati?
- Kita butuh hal yang bagus
870
00:49:16,453 --> 00:49:19,957
untuk kebangkitan yang layak,
mengingat hal-hal biasa tak berhasil.
871
00:49:20,040 --> 00:49:22,042
Bahkan gadis manis
di sekolah itu pun tidak.
872
00:49:22,334 --> 00:49:25,253
Menurut analisisku,
menampilkan konten politik Extreme Center
873
00:49:25,337 --> 00:49:28,256
punya potensi keterlibatan jangka panjang
sebesar 62,3%.
874
00:49:28,340 --> 00:49:29,299
Itu tidak buruk.
875
00:49:30,342 --> 00:49:32,010
Namun, bukan awal yang cukup bagus.
876
00:49:32,386 --> 00:49:35,305
Baiklah. Jadi, kita sudah memberitahunya
soal foto yang ditandai,
877
00:49:35,389 --> 00:49:39,017
undangan, peristiwa terkini,
bahkan pesan langsung dari Rebecca.
878
00:49:39,101 --> 00:49:42,771
Bagaimana dengan pengguna 01265923010?
879
00:49:42,854 --> 00:49:44,648
Ya, Ben memberi ikon hati semua posnya.
880
00:49:44,731 --> 00:49:47,776
Semua posnya, selama berbulan-bulan,
lalu berhenti.
881
00:49:47,859 --> 00:49:50,445
Aku menghitung
kemungkinan kebangkitan 92,3 persen
882
00:49:50,529 --> 00:49:52,155
dengan notifikasi soal Ana.
883
00:49:53,907 --> 00:49:55,993
HUBUNGAN BARU
884
00:49:56,535 --> 00:49:57,744
Serta teman barunya.
885
00:49:58,495 --> 00:50:04,001
WAKTU TANPA PONSEL
886
00:50:24,354 --> 00:50:25,981
MANTAN PACARMU PUNYA HUBUNGAN BARU!
887
00:50:26,064 --> 00:50:27,315
Ini pasti bercanda.
888
00:50:35,657 --> 00:50:36,616
Baiklah.
889
00:50:37,576 --> 00:50:38,785
ANA DAN LUIZ BERHUBUNGAN
890
00:50:38,869 --> 00:50:39,703
Apa?
891
00:50:42,122 --> 00:50:44,207
- Kita kembali!
- Ayo menghasilkan uang lagi.
892
00:50:44,291 --> 00:50:46,334
Ya, dan hubungkan mereka
dengan seluruh dunia.
893
00:50:46,418 --> 00:50:49,337
Aku memberinya akses
ke semua informasi yang mungkin dia suka.
894
00:50:49,755 --> 00:50:53,717
Hei, apa kalian pernah berpikir
umpan beritanya bagus untuk Ben?
895
00:50:57,220 --> 00:50:58,221
- Tidak.
- Tidak.
896
00:51:42,349 --> 00:51:44,893
PENGUJIAN A/B
EXTREME CENTRE
897
00:52:20,929 --> 00:52:24,349
Jadi, bayangkan kita membuka Facebook...
898
00:52:24,975 --> 00:52:29,312
dan kita bermain melawan
inteligensi artifisial ini
899
00:52:29,396 --> 00:52:31,314
yang tahu semuanya soal kita.
900
00:52:31,398 --> 00:52:34,568
Mengantisipasi langkah kita berikutnya
dan kita tak tahu apa-apa
901
00:52:34,651 --> 00:52:37,404
kecuali video kucing dan ulang tahun
yang diputar.
902
00:52:37,821 --> 00:52:39,656
Pertarungan itu tak adil!
903
00:52:41,575 --> 00:52:43,869
Ben dan Jerry, saatnya berangkat!
904
00:52:51,126 --> 00:52:51,960
Ben?
905
00:53:02,679 --> 00:53:03,513
Ben.
906
00:53:05,182 --> 00:53:06,057
Ayo.
907
00:53:07,225 --> 00:53:08,894
Waktunya sekolah. Ayo.
908
00:53:31,374 --> 00:53:33,543
- Apa kabarmu hari ini?
- Aku gugup.
909
00:53:33,627 --> 00:53:34,628
- Benarkah?
- Ya.
910
00:53:37,380 --> 00:53:39,049
Kita semua mewaspadai saat
911
00:53:39,132 --> 00:53:42,969
ketika teknologi akan mengalahkan kekuatan
dan kecerdasan manusia.
912
00:53:43,136 --> 00:53:44,846
Kapan itu akan melampaui hal itu,
913
00:53:44,930 --> 00:53:47,015
merebut profesi,
dan lebih pintar dari manusia?
914
00:53:48,141 --> 00:53:50,101
Namun, ada momen lebih awal...
915
00:53:50,977 --> 00:53:55,565
saat teknologi melampaui
dan mengalahkan kelemahan manusia.
916
00:53:57,484 --> 00:54:02,030
Batasan-batasan yang dilampaui ini
berakar pada kecanduan,
917
00:54:02,113 --> 00:54:03,657
polarisasi, radikalisasi,
918
00:54:03,740 --> 00:54:06,368
memicu kemarahan, keangkuhan, semuanya.
919
00:54:07,702 --> 00:54:09,913
Ini mengalahkan sifat manusia
920
00:54:10,705 --> 00:54:13,500
dan sekakmat bagi kemanusiaan.
921
00:54:30,558 --> 00:54:31,434
Maaf.
922
00:54:41,736 --> 00:54:44,656
Salah satu cara yang kucoba
untuk membuat orang paham
923
00:54:45,198 --> 00:54:49,786
betapa salahnya umpan berita
dari tempat seperti Facebook
924
00:54:49,869 --> 00:54:51,454
adalah dengan memikirkan Wikipedia.
925
00:54:51,538 --> 00:54:52,872
TAB BARU
926
00:54:52,956 --> 00:54:56,418
Saat kunjungi sebuah laman, kita melihat
hal yang sama dengan orang lain.
927
00:54:56,626 --> 00:55:00,297
Itu satu dari beberapa hal di internet
yang setidaknya menjadi kesamaan kita.
928
00:55:00,380 --> 00:55:03,425
Kini bayangkan sejenak Wikipedia berkata,
929
00:55:03,508 --> 00:55:07,178
"Kita akan memberi tiap orang
definisi yang khusus dan berbeda
930
00:55:07,262 --> 00:55:09,472
dan kita akan dibayar orang untuk itu."
931
00:55:09,556 --> 00:55:13,435
Jadi, Wikipedia memata-matai kita
dan mempertimbangkan,
932
00:55:13,518 --> 00:55:17,188
"Apa yang bisa kulakukan
agar orang ini berubah sedikit
933
00:55:17,272 --> 00:55:19,899
demi kepentingan komersial?" Paham?
934
00:55:19,983 --> 00:55:21,818
Lalu entrinya akan diubah.
935
00:55:22,444 --> 00:55:23,570
Bisa bayangkan itu?
936
00:55:23,653 --> 00:55:26,698
Seharusnya bisa
karena itulah yang terjadi di Facebook.
937
00:55:26,781 --> 00:55:28,992
Itulah yang terjadi
di umpan berita YouTube kita.
938
00:55:29,159 --> 00:55:31,786
Saat kunjungi Google
dan mengetik "perubahan iklim adalah",
939
00:55:31,870 --> 00:55:34,998
kita akan melihat hasil berbeda
tergantung tempat tinggal.
940
00:55:35,081 --> 00:55:36,082
PERUBAHAN IKLIM ADALAH
941
00:55:36,166 --> 00:55:38,460
Di kota tertentu,
akan muncul isian kata otomatis
942
00:55:38,543 --> 00:55:40,462
bertuliskan "perubahan iklim itu hoaks."
943
00:55:40,545 --> 00:55:42,088
Dalam kasus lain, akan muncul
944
00:55:42,172 --> 00:55:44,841
"perubahan iklim menyebabkan
kerusakan alam."
945
00:55:44,924 --> 00:55:48,428
Itu bukan fungsi untuk tampikan kebenaran
soal perubahan iklim,
946
00:55:48,511 --> 00:55:51,097
tapi soal tempat kita
saat mencarinya di Google
947
00:55:51,181 --> 00:55:53,600
dan hal tertentu yang Google tahu
soal minat kita.
948
00:55:55,185 --> 00:55:58,021
Bahkan dua teman yang sangat dekat
sekalipun,
949
00:55:58,104 --> 00:56:00,190
yang punya teman yang hampir sama,
950
00:56:00,273 --> 00:56:02,817
mereka berpikir,
"Akan kulihat umpan berita di Facebook.
951
00:56:02,901 --> 00:56:06,738
Aku akan melihat pembaruan yang sama."
Namun, tidak seperti itu.
952
00:56:06,821 --> 00:56:08,448
Mereka melihat dunia yang berbeda
953
00:56:08,531 --> 00:56:12,035
karena itu berdasarkan analisis komputer
soal apa yang ideal bagi mereka.
954
00:56:12,118 --> 00:56:14,245
SEDANG MENGUDARA
955
00:56:14,329 --> 00:56:18,416
Bisa dibilang
itu adalah 2,7 miliar The Truman Show.
956
00:56:18,500 --> 00:56:21,294
Tiap orang punya realitas sendiri
dengan fakta...
957
00:56:22,670 --> 00:56:23,671
mereka sendiri.
958
00:56:23,755 --> 00:56:28,051
Kenapa kau pikir
Truman tak pernah hampir mengetahui
959
00:56:28,134 --> 00:56:30,095
kebenaran soal dunianya hingga kini?
960
00:56:31,054 --> 00:56:34,099
Kita menerima kenyataan dunia
yang diberikan kepada kita.
961
00:56:34,182 --> 00:56:35,141
Sesederhana itu.
962
00:56:35,225 --> 00:56:36,393
SEDANG MENGUDARA
963
00:56:36,476 --> 00:56:41,064
Seiring waktu, kita memiliki kesan palsu
bahwa semua orang setuju dengan kita
964
00:56:41,147 --> 00:56:44,067
karena semua orang di umpan berita
tampak seperti kita.
965
00:56:44,567 --> 00:56:49,072
Begitu kita dalam keadaan itu,
ternyata kita mudah dimanipulasi
966
00:56:49,155 --> 00:56:51,741
seperti dimanipulasi oleh pesulap.
967
00:56:51,825 --> 00:56:55,370
Pesulap menunjukkan trik kartu dan bilang,
"Pilih kartu apa saja."
968
00:56:55,453 --> 00:56:58,373
Yang tak kita sadari
adalah mereka sudah mengaturnya
969
00:56:58,456 --> 00:57:00,542
agar kita memilih kartu yang mereka mau.
970
00:57:00,625 --> 00:57:03,169
Begitulah Facebook bekerja.
Ia duduk di sana dan berkata,
971
00:57:03,253 --> 00:57:06,172
"Hei, kau yang memilih teman
dan tautan yang kau ikuti."
972
00:57:06,256 --> 00:57:08,716
Namun, itu omong kosong. Seperti pesulap.
973
00:57:08,800 --> 00:57:11,302
Facebook bertanggung jawab
atas umpan berita kita.
974
00:57:11,386 --> 00:57:14,514
Kita semua hanya menggunakan
fakta yang berbeda.
975
00:57:14,597 --> 00:57:16,474
Saat itu terjadi dalam skala besar,
976
00:57:16,558 --> 00:57:20,770
kita tak bisa lagi menghadapi
atau menyerap informasi
977
00:57:20,854 --> 00:57:23,690
yang bertentangan dengan pandangan dunia
yang kita ciptakan.
978
00:57:23,773 --> 00:57:28,027
Itu berarti kita bukan lagi individu
yang objektif dan konstruktif.
979
00:57:28,778 --> 00:57:32,449
Buka matamu! Jangan percaya kebohongan!
980
00:57:32,532 --> 00:57:35,160
Lalu kita melihat ke sisi lain
981
00:57:35,243 --> 00:57:38,746
dan mulai berpikir,
"Bagaimana mereka bisa begitu bodoh?
982
00:57:38,955 --> 00:57:42,125
Lihatlah semua informasi
yang terus kulihat ini.
983
00:57:42,208 --> 00:57:44,711
Kenapa mereka tak melihat info yang sama?"
984
00:57:44,794 --> 00:57:47,297
Jawabannya, "Mereka memang tak melihat
info yang sama."
985
00:57:47,380 --> 00:57:50,800
Buka matamu! Jangan percaya kebohongan!
986
00:57:52,093 --> 00:57:53,678
Seperti apa Partai Republik?
987
00:57:53,761 --> 00:57:55,472
Orang yang tak tahu apa-apa.
988
00:57:55,555 --> 00:57:58,933
Partai Demokrat adalah sindikat kejahatan,
bukan partai politik sungguhan.
989
00:57:59,017 --> 00:58:03,104
Studi besar baru dari Pew Research Center
terhadap 10.000 orang dewasa Amerika
990
00:58:03,188 --> 00:58:05,315
mendapati kita lebih terpecah
dari sebelumnya,
991
00:58:05,398 --> 00:58:09,068
dengan polarisasi pribadi dan politis
di level tertinggi pada 20 tahun terakhir.
992
00:58:09,152 --> 00:58:11,696
POLARISASI POLITIS AS
MEDIAN DEMOKRAT - MEDIAN REPUBLIK
993
00:58:11,779 --> 00:58:14,199
Ada lebih dari sepertiga Partai Republik
yang berkata
994
00:58:14,282 --> 00:58:16,826
Partai Demokrat
adalah ancaman bagi negara
995
00:58:16,910 --> 00:58:20,580
dan seperempat lebih Demokrat
berkata sama soal Partai Republik.
996
00:58:20,663 --> 00:58:24,417
Begitu banyak masalah yang kita bahas,
misalnya seputar polarisasi politik,
997
00:58:24,501 --> 00:58:28,046
ditampilkan secara besar-besaran
di TV kabel.
998
00:58:28,129 --> 00:58:31,007
Media punya masalah yang sama
999
00:58:31,090 --> 00:58:33,343
karena model bisnis mereka, pada umumnya,
1000
00:58:33,426 --> 00:58:35,762
adalah menjual perhatian kita
kepada pengiklan.
1001
00:58:35,845 --> 00:58:38,890
Internet adalah cara lebih efisien baru
untuk melakukan itu.
1002
00:58:40,391 --> 00:58:44,145
Di YouTube, aku mengerjakan
rekomendasi YouTube.
1003
00:58:44,229 --> 00:58:47,148
Aku khawatir algoritme yang kukerjakan
1004
00:58:47,232 --> 00:58:50,401
sebenarnya meningkatkan polarisasi
di masyarakat.
1005
00:58:50,485 --> 00:58:53,112
Namun, dari sudut pandang waktu menonton,
1006
00:58:53,196 --> 00:58:57,617
polarisasi ini sangat efisien
untuk membuat orang tetap daring.
1007
00:58:58,785 --> 00:59:02,288
Alasan para guru mengajarkan hal ini
hanyalah karena mereka dibayar.
1008
00:59:02,372 --> 00:59:04,332
- Itu konyol sekali.
- Hei, Benji.
1009
00:59:04,791 --> 00:59:06,459
Tak ada latihan sepak bola hari ini?
1010
00:59:06,543 --> 00:59:08,878
Ada. Aku hanya melihat berita
yang kulewatkan.
1011
00:59:08,962 --> 00:59:11,506
Risetlah sendiri.
Info apa pun dari Extreme Center...
1012
00:59:11,589 --> 00:59:14,008
Hal yang kau tonton itu bukan berita.
1013
00:59:15,552 --> 00:59:18,721
Kau selalu membahas betapa kacaunya
keadaan saat ini. Mereka juga.
1014
00:59:19,472 --> 00:59:21,140
Namun, itu hanya propaganda.
1015
00:59:21,224 --> 00:59:24,060
Tak ada yang benar.
Intinya adalah apa yang masuk akal.
1016
00:59:24,769 --> 00:59:26,938
Ben, aku serius. Itu buruk untukmu.
1017
00:59:27,021 --> 00:59:28,690
Sebainya kau berlatih sepak bola.
1018
00:59:35,154 --> 00:59:37,490
Aku membagi ini karena aku peduli.
1019
00:59:37,574 --> 00:59:41,077
Aku peduli terhadap kalian yang disesatkan
dan itu tak baik. Paham?
1020
00:59:41,160 --> 00:59:43,121
Orang mengira algoritme ini dirancang
1021
00:59:43,204 --> 00:59:46,833
untuk memberikan yang mereka inginkan,
tapi ternyata tidak.
1022
00:59:46,916 --> 00:59:52,589
Algoritme ini sebenarnya mencoba mencari
beberapa perangkap yang sangat kuat,
1023
00:59:52,672 --> 00:59:56,217
mencari perangkap mana
yang paling sesuai dengan minat kita.
1024
00:59:56,301 --> 00:59:59,512
Lalu jika kita mulai menonton
salah satu video itu,
1025
00:59:59,804 --> 01:00:02,223
itu akan merekomendasikannya
berulang kali.
1026
01:00:02,682 --> 01:00:04,934
Tak ada yang mau ini terjadi.
1027
01:00:05,018 --> 01:00:07,812
Hanya saja, inilah yang dilakukan
sistem rekomendasi.
1028
01:00:07,895 --> 01:00:10,815
Sampai-sampai Kyrie Irving,
pemain basket terkenal,
1029
01:00:11,482 --> 01:00:14,152
berkata dia percaya Bumi datar
yang meminta maaf kemudian
1030
01:00:14,235 --> 01:00:16,404
dan dia menyalahkan
video perangkap di YouTube.
1031
01:00:16,487 --> 01:00:18,656
Kau mengeklik YouTube
1032
01:00:18,740 --> 01:00:21,534
lalu kita masuk ke perangkap
yang sangat dalam.
1033
01:00:21,618 --> 01:00:23,328
Saat dia datang ke NPR untuk berkata,
1034
01:00:23,411 --> 01:00:25,955
"Maaf telah meyakini ini.
Aku tak mau menyesatkan orang,"
1035
01:00:26,039 --> 01:00:28,333
sekelompok siswa di kelas
yang diwawancarai bilang,
1036
01:00:28,416 --> 01:00:30,251
"Penganut Bumi bulat memengaruhinya."
1037
01:00:31,044 --> 01:00:33,963
Teori konspirasi Bumi datar
direkomendasikan
1038
01:00:34,047 --> 01:00:37,634
ratusan juta kali oleh algoritme itu.
1039
01:00:37,800 --> 01:00:39,010
Mudah untuk berpikir
1040
01:00:39,093 --> 01:00:43,890
bahwa hanya beberapa orang bodoh
yang meyakininya,
1041
01:00:43,973 --> 01:00:46,893
tapi algoritme ini makin cerdas
setiap harinya.
1042
01:00:46,976 --> 01:00:50,188
Jadi, kini mereka meyakinkan orang-orang
bahwa Bumi itu datar,
1043
01:00:50,271 --> 01:00:53,983
tapi besok, mereka akan meyakinkanmu
tentang hal keliru lainnya.
1044
01:00:54,317 --> 01:00:57,820
Pada 7 November, tagar "Pizzagate" lahir.
1045
01:00:57,904 --> 01:00:59,197
Pizzagate...
1046
01:01:00,782 --> 01:01:01,658
Astaga.
1047
01:01:03,159 --> 01:01:06,913
Aku masih tak yakin
bagaimana awalnya ini terjadi,
1048
01:01:06,996 --> 01:01:12,377
tapi ide bahwa memesan piza berarti
memesan orang yang diperdagangkan.
1049
01:01:12,460 --> 01:01:15,046
Saat grup itu makin besar di Facebook,
1050
01:01:15,129 --> 01:01:19,926
mesin rekomendasi Facebook
mulai menyarankan para pengguna biasa
1051
01:01:20,009 --> 01:01:21,761
untuk bergabung dengan grup Pizzagate.
1052
01:01:22,053 --> 01:01:27,392
Jadi, jika pengguna, misalnya,
anti-vaksin, meyakini teori jejak kimia,
1053
01:01:27,475 --> 01:01:30,645
atau menunjukkan kepada algoritme Facebook
1054
01:01:30,728 --> 01:01:33,398
bahwa mereka cenderung memercayai
teori konspirasi,
1055
01:01:33,481 --> 01:01:36,859
mesin rekomendasi Facebook akan menyajikan
grup Pizzagate.
1056
01:01:36,943 --> 01:01:41,072
Akhirnya, ini berujung pada seorang pria
yang muncul dengan pistol
1057
01:01:41,155 --> 01:01:44,617
dan memutuskan dia akan membebaskan
anak-anak dari basemen
1058
01:01:44,701 --> 01:01:47,078
dari tempat piza yang tak punya basemen.
1059
01:01:47,161 --> 01:01:49,997
- Kenapa kau kemari?
- Memastikan tak ada apa-apa di sana.
1060
01:01:50,581 --> 01:01:52,291
- Soal apa?
- Jaringan pedofilia.
1061
01:01:52,375 --> 01:01:53,835
- Soal apa?
- Jaringan pedofilia.
1062
01:01:53,918 --> 01:01:55,878
Maksudnya, Pizzagate.
1063
01:01:55,962 --> 01:02:00,216
Ini contoh teori konspirasi
1064
01:02:00,299 --> 01:02:03,678
yang disebarkan di semua jejaring sosial.
1065
01:02:03,761 --> 01:02:07,974
Mesin rekomendasi jejaring sosial itu
secara sukarela menyajikannya kepada orang
1066
01:02:08,057 --> 01:02:10,643
yang tak pernah sama sekali mencari
istilah "Pizzagate".
1067
01:02:10,727 --> 01:02:12,353
PIZZAGATE
WADAH DEMOKRAT DAN PEDOFIL
1068
01:02:12,437 --> 01:02:14,439
Ada sebuah studi MIT yang menyebutkan
1069
01:02:14,522 --> 01:02:16,441
berita palsu di Twitter menyebar
1070
01:02:16,524 --> 01:02:19,569
enam kali lebih cepat
daripada berita sebenarnya.
1071
01:02:19,902 --> 01:02:21,863
Seperti apa dunia itu
1072
01:02:21,946 --> 01:02:24,907
jika ada yang lebih unggul enam kali lipat
daripada yang lain?
1073
01:02:25,283 --> 01:02:27,660
Kita bisa membayangkan semua hal ini
1074
01:02:27,744 --> 01:02:31,706
seperti mengubah neraca perilaku manusia.
1075
01:02:31,789 --> 01:02:34,709
Mereka membuat sebagian perilaku
lebih sulit atau lebih mudah.
1076
01:02:34,792 --> 01:02:37,420
Kita selalu bebas menghadapi yang sulit,
1077
01:02:37,503 --> 01:02:38,796
tapi jarang ada yang mau.
1078
01:02:38,880 --> 01:02:43,092
Jadi, dalam skala besar di masyarakat,
kita memiringkan neraca itu,
1079
01:02:43,176 --> 01:02:45,970
mengubah pikiran
dan perilaku miliaran orang.
1080
01:02:46,053 --> 01:02:52,018
Kita menciptakan sistem yang berprasangka
terhadap informasi palsu.
1081
01:02:52,643 --> 01:02:54,437
Bukan karena kita mau,
1082
01:02:54,520 --> 01:02:58,816
tapi karena informasi palsu memberi
semua perusahaan itu lebih banyak uang
1083
01:02:59,400 --> 01:03:01,486
daripada kebenaran.
ebenaran itu membosankan.
1084
01:03:01,986 --> 01:03:04,489
Ini model bisnis yang mencari profit
dari disinformasi.
1085
01:03:04,906 --> 01:03:08,159
Kita menghasilkan uang
dengan membebaskan pesan tak terkontrol
1086
01:03:08,701 --> 01:03:11,412
diterima siapa saja dengan harga terbaik.
1087
01:03:11,662 --> 01:03:13,748
Karena perubahan iklim? Ya.
1088
01:03:13,831 --> 01:03:16,751
Itu hoaks. Ya, itu nyata. Itulah intinya.
1089
01:03:16,834 --> 01:03:20,046
Makin sering mereka membahasnya
dan makin kita terpecah,
1090
01:03:20,129 --> 01:03:22,340
kekuatan dan kendali mereka
akan makin besar.
1091
01:03:22,423 --> 01:03:25,551
Facebook punya triliunan pos umpan berita
seperti ini.
1092
01:03:26,552 --> 01:03:29,263
Mereka tak bisa tahu
apa yang nyata atau benar.
1093
01:03:29,972 --> 01:03:33,726
Itu sebabnya pembahasan ini
sangat penting sekarang.
1094
01:03:33,810 --> 01:03:37,021
Bukan hanya COVID-19 yang menyebar cepat.
1095
01:03:37,104 --> 01:03:40,191
Ada rangkaian informasi yang salah
tentang virus ini di internet.
1096
01:03:40,274 --> 01:03:43,694
Ide bahwa minum lebih banyak air
akan menghapus virus korona dari tubuh
1097
01:03:43,778 --> 01:03:47,490
adalah salah satu mitos soal virus ini
yang beredar di media sosial.
1098
01:03:47,573 --> 01:03:50,451
Pemerintah merencanakan peristiwa ini,
menciptakan virusnya,
1099
01:03:50,827 --> 01:03:53,579
dan melakukan simulasi
tentang reaksi berbagai negara.
1100
01:03:53,955 --> 01:03:55,581
Virus korona itu hoaks.
1101
01:03:56,165 --> 01:03:57,959
SARS, virus korona.
1102
01:03:58,376 --> 01:04:01,045
Lihatlah tahun pembuatannya. 2018.
1103
01:04:01,128 --> 01:04:03,798
Kurasa pemerintah Amerika memulai ini.
1104
01:04:04,215 --> 01:04:07,343
Tak ada yang sakit.
1105
01:04:07,426 --> 01:04:09,095
Tak ada yang kenal orang yang sakit.
1106
01:04:09,512 --> 01:04:12,849
Mungkin pemerintah menggunakan
virus korona sebagai alasan
1107
01:04:12,932 --> 01:04:15,643
agar semua orang tetap di rumah
karena ada hal lain terjadi.
1108
01:04:15,726 --> 01:04:18,020
Virus korona tidak membunuh orang,
1109
01:04:18,104 --> 01:04:20,940
tapi radiasi 5G yang mereka pancarkan.
1110
01:04:21,023 --> 01:04:22,525
MENARA 5G DIPOTONG DAN DIBAKAR
1111
01:04:22,608 --> 01:04:24,569
Kita dibombardir dengan rumor.
1112
01:04:25,403 --> 01:04:28,823
Orang-orang meledakkan menara seluler.
1113
01:04:28,906 --> 01:04:32,159
Kita melihat Rusia dan Cina menyebarkan
rumor dan teori konspirasi.
1114
01:04:32,243 --> 01:04:35,246
Tadi pagi,
muncul kepanikan dan protes di Ukraina...
1115
01:04:35,329 --> 01:04:38,916
Orang tak tahu apa yang benar
dan kini menjadi masalah hidup dan mati.
1116
01:04:40,001 --> 01:04:42,628
Sumber-sumber yang menyebarkan
informasi virus korona palsu
1117
01:04:42,712 --> 01:04:45,798
telah mengumpulkan
sekitar 52 juta keterlibatan.
1118
01:04:45,882 --> 01:04:50,094
Maksudmu, larutan perak akan efektif.
1119
01:04:50,177 --> 01:04:54,140
Anggaplah itu belum diuji
pada jenis virus korona ini...
1120
01:04:54,223 --> 01:04:57,226
Apa yang kita lihat dengan COVID
hanyalah versi ekstrem
1121
01:04:57,310 --> 01:05:00,688
dari apa yang terjadi
di seluruh ekosistem informasi kita.
1122
01:05:00,980 --> 01:05:04,942
Media sosial memperkuat gosip
dan desas-desus eksponensial
1123
01:05:05,026 --> 01:05:07,111
hingga kita tak tahu apa yang benar,
1124
01:05:07,194 --> 01:05:09,113
apa pun isu yang kita pedulikan.
1125
01:05:26,130 --> 01:05:27,465
Kau masih tergabung di tim?
1126
01:05:30,468 --> 01:05:34,597
Aku akan membeli camilan
sebelum latihan jika kau mau ikut.
1127
01:05:37,016 --> 01:05:38,684
Lupakan saja.
1128
01:05:39,936 --> 01:05:44,982
KAMI MEMBUTUHKANMU,
BERGABUNGLAH SEKARANG
1129
01:05:45,066 --> 01:05:47,526
Sembilan dari sepuluh orang
merasa tak puas saat ini.
1130
01:05:47,610 --> 01:05:50,613
Jika dipikir lagi, EC mirip
dengan gerakan politik dalam sejarah.
1131
01:05:50,821 --> 01:05:54,492
Kita melawan gangguan ini.
1132
01:05:54,575 --> 01:05:57,036
Kalian adalah kaumku. Aku percaya kalian.
1133
01:05:59,205 --> 01:06:02,583
- Konten Extreme Center itu hebat.
- Dia amat menyukainya.
1134
01:06:02,667 --> 01:06:03,626
Melakukan lelang.
1135
01:06:04,585 --> 01:06:08,547
Ada 843 penawar, dia terjual
seharga 4,35 sen ke pabrik senjata.
1136
01:06:08,631 --> 01:06:10,841
Ayo promosikan beberapa acara ini.
1137
01:06:10,925 --> 01:06:13,511
Unjuk rasa mendatang di zona geografisnya
akhir pekan ini.
1138
01:06:13,594 --> 01:06:15,179
Aku juga punya naravlog baru.
1139
01:06:17,848 --> 01:06:22,979
Sejujurnya, percayalah,
aku bersedia melakukan apa saja.
1140
01:06:23,062 --> 01:06:24,939
Maksudku, apa saja.
1141
01:06:32,154 --> 01:06:33,197
- Berlanggananlah
- Ben?
1142
01:06:33,280 --> 01:06:35,950
dan kembalilah lagi karena percayalah,
1143
01:06:36,617 --> 01:06:38,869
aku punya rencana sangat besar.
1144
01:06:38,953 --> 01:06:40,204
Rencana sangat besar.
1145
01:06:40,788 --> 01:06:45,292
Salah satu masalah dengan Facebook
adalah sebagai alat persuasi,
1146
01:06:45,793 --> 01:06:47,920
itu mungkin hal terhebat
yang pernah dibuat.
1147
01:06:48,170 --> 01:06:52,508
Sekarang, bayangkan artinya itu
di tangan diktator atau pemimpin otoriter.
1148
01:06:53,718 --> 01:06:57,638
Jika kita ingin mengendalikan
populasi negaramu,
1149
01:06:57,722 --> 01:07:01,308
tak pernah ada alat
yang seefektif Facebook.
1150
01:07:04,937 --> 01:07:07,398
Beberapa implikasi yang paling meresahkan
1151
01:07:07,481 --> 01:07:11,235
dari pemerintah dan pelaku jahat lain
yang menjadikan media sosial senjata
1152
01:07:11,527 --> 01:07:13,612
adalah menyebabkan bahaya di dunia nyata.
1153
01:07:13,696 --> 01:07:15,072
Kurasa contoh paling menonjol
1154
01:07:15,156 --> 01:07:17,658
yang banyak diberitakan
adalah kejadian di Myanmar.
1155
01:07:17,742 --> 01:07:19,160
KANTOR KEPRESIDENAN MYANMAR
1156
01:07:19,243 --> 01:07:21,203
Di Myanmar,
saat orang memikirkan internet,
1157
01:07:21,287 --> 01:07:22,913
yang terpikir adalah Facebook.
1158
01:07:22,997 --> 01:07:25,916
Yang sering terjadi adalah
saat orang-orang membeli ponsel,
1159
01:07:26,000 --> 01:07:29,920
pemilik toko ponsel
akan memasangkan Facebook
1160
01:07:30,004 --> 01:07:31,505
dan membuatkan mereka akun.
1161
01:07:31,589 --> 01:07:34,884
Jadi, saat mendapatkan ponsel,
hal pertama yang mereka buka
1162
01:07:34,967 --> 01:07:37,595
dan yang mereka tahu cara membukanya
hanyalah Facebook.
1163
01:07:38,179 --> 01:07:41,891
Penyelidikan mengejutkan baru mengungkap
makin sulitnya Facebook
1164
01:07:41,974 --> 01:07:43,809
mengatasi ujaran kebencian di Myanmar.
1165
01:07:43,893 --> 01:07:46,020
BERHENTI MEMBUNUH MUSLIM
1166
01:07:46,103 --> 01:07:49,190
Facebook benar-benar memberi militer
dan pelaku jahat lainnya
1167
01:07:49,273 --> 01:07:51,776
cara baru memanipulasi opini publik
1168
01:07:51,859 --> 01:07:55,529
dan membantu memicu kekerasan
terhadap Muslim Rohingya
1169
01:07:55,613 --> 01:07:57,406
yang termasuk pembunuhan massal,
1170
01:07:58,074 --> 01:07:59,867
membakar seluruh desa,
1171
01:07:59,950 --> 01:08:00,951
pemerkosaan massal,
1172
01:08:01,035 --> 01:08:03,704
dan kejahatan berat lain
terhadap kemanusiaan
1173
01:08:03,788 --> 01:08:08,209
yang kini membuat 700.000 Muslim Rohingya
harus meninggalkan Myanmar.
1174
01:08:11,170 --> 01:08:16,550
Ini bukan karena pelaku propaganda
yang gencar tak ada sebelumnya,
1175
01:08:16,634 --> 01:08:19,762
tapi karena semua platform ini
memungkinkan
1176
01:08:19,845 --> 01:08:23,724
penyebaran narasi manipulatif
dengan sangat mudah
1177
01:08:23,808 --> 01:08:25,434
dan tanpa membayar mahal.
1178
01:08:25,518 --> 01:08:27,812
Jika aku ingin memanipulasi pemilu,
1179
01:08:27,895 --> 01:08:30,564
aku bisa masuk ke grup teori konspirasi
di Facebook,
1180
01:08:30,648 --> 01:08:34,443
menemukan 100 orang
yang percaya bahwa Bumi benar-benar datar
1181
01:08:34,860 --> 01:08:37,780
dan menganggap pendaratan di bulan
adalah teori konspirasi,
1182
01:08:37,863 --> 01:08:41,450
lalu bisa kuminta Facebook memberiku
seribu pengguna yang tampak seperti itu.
1183
01:08:42,118 --> 01:08:46,080
Facebook akan dengan senang hati mengirim
ribuan pengguna yang mirip mereka
1184
01:08:46,163 --> 01:08:49,416
yang kini bisa kujejali
dengan teori konspirasi lainnya.
1185
01:08:51,127 --> 01:08:53,129
Terjual seharga 3,4 sen per impresi.
1186
01:08:53,379 --> 01:08:56,173
- Video EC baru untuk dipromosikan.
- Satu iklan lagi siap.
1187
01:08:58,509 --> 01:09:02,138
Algoritme dan politisi manipulatif menjadi
sangat ahli
1188
01:09:02,221 --> 01:09:04,056
dalam mempelajari cara memicu kita,
1189
01:09:04,140 --> 01:09:08,352
makin mahir menciptakan berita palsu
yang kita serap seolah-olah itu kenyataan
1190
01:09:08,435 --> 01:09:10,813
dan membingungkan kita
untuk meyakini kebohongan itu.
1191
01:09:10,896 --> 01:09:14,150
Seolah-olah kita kehilangan kendali
atas jati diri dan keyakinan kita.
1192
01:09:31,375 --> 01:09:32,668
...agar mereka bisa memihak.
1193
01:09:32,751 --> 01:09:34,879
Ada kebohongan di sini dan di sana.
1194
01:09:34,962 --> 01:09:39,967
Agar mereka bisa terus berkuasa
dan mengendalikan semuanya.
1195
01:09:40,050 --> 01:09:42,636
Mereka bisa mengendalikan pikiran kita
1196
01:09:42,720 --> 01:09:46,390
agar mereka bisa menyimpan rahasia mereka.
1197
01:09:46,473 --> 01:09:48,601
CDC MENGAKU MENUTUPI
FAKTA VAKSIN MEMICU AUTISME
1198
01:09:48,684 --> 01:09:50,895
Bayangkan dunia
tempat kebenaran tak dipercaya.
1199
01:09:50,978 --> 01:09:52,813
VAKSIN ITU BERACUN
LINDUNGI ANAK KITA
1200
01:09:52,897 --> 01:09:55,649
Semua orang percaya
pemerintah membohongi mereka.
1201
01:09:56,317 --> 01:09:58,444
Semuanya adalah teori konspirasi.
1202
01:09:58,527 --> 01:10:01,197
"Aku tak boleh percaya siapa pun.
Aku benci pihak lain."
1203
01:10:01,280 --> 01:10:02,698
Itulah arah semua ini.
1204
01:10:02,781 --> 01:10:06,160
Gempa bumi politik di Eropa
terus bergemuruh,
1205
01:10:06,243 --> 01:10:08,412
kali ini di Italia dan Spanyol.
1206
01:10:08,495 --> 01:10:11,999
Koalisi sentris tradisional Eropa
kehilangan mayoritas suaranya
1207
01:10:12,082 --> 01:10:15,002
sementara partai sayap kanan dan kiri
alami peningkatan.
1208
01:10:19,715 --> 01:10:20,591
Mundur.
1209
01:10:21,675 --> 01:10:22,509
Baiklah, ayo.
1210
01:10:28,390 --> 01:10:31,268
Akun-akun ini dengan sengaja
dan secara khusus berusaha
1211
01:10:31,352 --> 01:10:33,896
menebar pertikaian politik di Hong Kong.
1212
01:10:38,609 --> 01:10:39,610
Baiklah, Ben.
1213
01:10:42,863 --> 01:10:45,032
Bagaimana rasanya menjadi negara
1214
01:10:45,115 --> 01:10:48,410
yang sumber informasi utamanya
adalah Facebook dan media sosial?
1215
01:10:48,953 --> 01:10:50,871
Demokrasi hancur begitu cepat.
1216
01:10:50,955 --> 01:10:51,830
Enam bulan.
1217
01:10:51,914 --> 01:10:53,791
Setelah kekacauan di Chicago,
1218
01:10:53,874 --> 01:10:57,086
bentrokan antara pemrotes dan pendukung,
1219
01:10:58,003 --> 01:11:01,632
Demokrasi menghadapi krisis kepercayaan.
1220
01:11:01,715 --> 01:11:04,343
Yang kita lihat adalah serangan global
terhadap demokrasi.
1221
01:11:05,135 --> 01:11:07,930
Mayoritas negara yang menjadi target
adalah negara-negara
1222
01:11:08,013 --> 01:11:10,099
yang menjalankan pemilu demokratis.
1223
01:11:10,724 --> 01:11:12,518
Ini terjadi dalam skala besar.
1224
01:11:12,601 --> 01:11:15,562
Oleh pihak negara dan pemilik jutaan dolar
yang berkata,
1225
01:11:15,646 --> 01:11:18,524
"Aku ingin mengacaukan Kenya
atau Kamerun.
1226
01:11:18,607 --> 01:11:20,651
Angola? Itu hanya seharga ini."
1227
01:11:20,734 --> 01:11:23,362
Pemilu luar biasa berlangsung
hari Minggu lalu di Brasil.
1228
01:11:23,445 --> 01:11:25,823
Dengan kampanye yang didukung
media sosial.
1229
01:11:31,036 --> 01:11:33,956
Kami dari industri teknologi
telah menciptakan alat
1230
01:11:34,248 --> 01:11:37,418
untuk mengacaukan
dan mengikis struktur masyarakat,
1231
01:11:37,501 --> 01:11:40,254
di setiap negara sekaligus, di mana-mana.
1232
01:11:40,337 --> 01:11:44,508
Ini terjadi di Jerman, Spanyol, Prancis,
Brasil, Australia.
1233
01:11:44,591 --> 01:11:46,927
Beberapa negara maju di dunia
1234
01:11:47,428 --> 01:11:49,221
kini saling menghancurkan
1235
01:11:49,305 --> 01:11:50,931
dan apa kesamaan mereka?
1236
01:11:51,974 --> 01:11:56,312
Sepengetahuanmu, apa kau percaya
Facebook memengaruhi hasil pemilu 2016?
1237
01:11:56,854 --> 01:11:58,188
Itu sulit.
1238
01:11:59,148 --> 01:12:00,024
Itu...
1239
01:12:01,275 --> 01:12:04,653
Kenyataannya adalah
ada begitu banyak faktor.
1240
01:12:04,737 --> 01:12:07,865
Perwakilan dari Facebook, Twitter,
dan Google kembali ke Capitol Hill
1241
01:12:07,948 --> 01:12:09,450
untuk kesaksian hari kedua
1242
01:12:09,533 --> 01:12:12,578
soal campur tangan Rusia
dalam pemilu 2016.
1243
01:12:12,661 --> 01:12:17,291
Manipulasi oleh pihak ketiga
bukanlah peretasan.
1244
01:12:18,500 --> 01:12:21,462
Rusia tak meretas Facebook.
1245
01:12:21,628 --> 01:12:24,965
Yang mereka lakukan adalah
menggunakan alat yang dibuat Facebook
1246
01:12:25,049 --> 01:12:27,843
untuk pengiklan dan pengguna yang sah,
1247
01:12:27,926 --> 01:12:30,346
yang mereka terapkan untuk tujuan jahat.
1248
01:12:31,972 --> 01:12:34,016
Itu seperti perang
dengan kendali jarak jauh.
1249
01:12:34,475 --> 01:12:36,602
Satu negara bisa memanipulasi negara lain
1250
01:12:36,685 --> 01:12:39,229
tanpa menyerbu perbatasan fisiknya.
1251
01:12:39,521 --> 01:12:41,023
Kita melihat video kekerasan ini.
1252
01:12:41,106 --> 01:12:43,317
Tampaknya itu bak sampah yang didorong...
1253
01:12:43,400 --> 01:12:45,903
Namun, itu bukan soal siapa
yang ingin kita pilih,
1254
01:12:46,362 --> 01:12:50,574
tapi soal menabur kekacauan
dan perpecahan di masyarakat.
1255
01:12:50,657 --> 01:12:53,077
Ini terjadi di Huntington Beach,
sebuah demonstrasi...
1256
01:12:53,160 --> 01:12:54,870
Ini soal membuat dua pihak
1257
01:12:54,953 --> 01:12:58,082
yang tak bisa
dan mau saling mendengar lagi,
1258
01:12:58,165 --> 01:12:59,875
yang tak saling percaya lagi.
1259
01:12:59,958 --> 01:13:02,252
Ini kota tempat kebencian diumbar
1260
01:13:03,295 --> 01:13:05,464
dan berubah menjadi kekerasan rasial.
1261
01:13:05,547 --> 01:13:07,633
KETEGANGAN VIRGINIA
TIGA TEWAS DALAM KEKERASAN
1262
01:13:20,145 --> 01:13:20,979
Ben!
1263
01:13:21,605 --> 01:13:22,439
Cassandra!
1264
01:13:22,981 --> 01:13:23,816
- Cass!
- Ben!
1265
01:13:23,899 --> 01:13:25,484
Kemari kau!
1266
01:13:27,486 --> 01:13:31,156
Angkat tangan. Berlutut. Tiarap.
1267
01:13:36,120 --> 01:13:37,204
- Tenang...
- Ben!
1268
01:13:37,287 --> 01:13:38,580
Hei! Angkat tangan!
1269
01:13:39,623 --> 01:13:41,291
Berbaliklah. Tiarap.
1270
01:13:56,807 --> 01:13:59,643
Apa kita ingin sistem ini dijual
kepada penawar tertinggi?
1271
01:13:59,726 --> 01:14:01,311
PRANCIS 2019
1272
01:14:01,395 --> 01:14:05,399
Demokrasi yang bisa dijual dan kita bisa
menjangkau benak siapa pun yang kita mau,
1273
01:14:05,482 --> 01:14:08,694
membuat kebohongan pada populasi tertentu
dan membuat perang budaya?
1274
01:14:09,236 --> 01:14:10,237
Apa kita mau itu?
1275
01:14:14,783 --> 01:14:16,201
Kita adalah bangsa...
1276
01:14:16,952 --> 01:14:18,620
yang tak saling bicara lagi.
1277
01:14:18,704 --> 01:14:19,997
SENATOR FLORIDA, AS
1278
01:14:20,080 --> 01:14:23,000
Kita bangsa orang yang berhenti berteman
dengan orang
1279
01:14:23,083 --> 01:14:25,294
karena pilihan mereka di pemilu lalu.
1280
01:14:25,961 --> 01:14:28,422
Kita bangsa yang mengisolasi diri
1281
01:14:28,505 --> 01:14:30,966
untuk menonton saluran
yang membenarkan kita saja.
1282
01:14:32,509 --> 01:14:36,805
Pesan saya hari ini
adalah kesukuan menghancurkan kita.
1283
01:14:37,347 --> 01:14:39,183
Ini menghancurkan negara kita.
1284
01:14:40,225 --> 01:14:43,103
Bukan seperti ini
cara orang dewasa waras bertindak.
1285
01:14:43,187 --> 01:14:45,397
Jika semua berhak meyakini
fakta yang mereka mau,
1286
01:14:45,481 --> 01:14:49,401
tak perlu ada kompromi
dan orang-orang tak perlu berkumpul.
1287
01:14:49,485 --> 01:14:51,695
Bahkan,
orang-orang tak perlu berinteraksi.
1288
01:14:52,321 --> 01:14:56,617
Kita harus memiliki pemahaman bersama
tentang kenyataan.
1289
01:14:57,367 --> 01:14:58,410
Atau kita bukan negara.
1290
01:14:58,911 --> 01:15:02,998
Jadi, solusi jangka panjangnya
adalah membangun lebih banyak alat IA
1291
01:15:03,081 --> 01:15:08,128
yang menemukan pola penggunaan layanan
yang mustahil dilakukan orang sungguhan.
1292
01:15:08,212 --> 01:15:11,840
Kita mengizinkan para pakar teknologi
menganggap ini sebagai masalah
1293
01:15:11,924 --> 01:15:14,009
yang siap mereka pecahkan.
1294
01:15:15,135 --> 01:15:16,470
Itu bohong.
1295
01:15:17,638 --> 01:15:20,766
Orang-orang membahas IA
seolah-olah itu akan paham kebenaran.
1296
01:15:21,683 --> 01:15:23,810
IA takkan menyelesaikan masalah ini.
1297
01:15:24,228 --> 01:15:27,189
IA tak bisa memecahkan
masalah berita palsu.
1298
01:15:28,649 --> 01:15:31,026
Google tak punya pilihan untuk bilang,
1299
01:15:31,109 --> 01:15:34,363
"Apa ini konspirasi? Apa ini kebenaran?"
1300
01:15:34,655 --> 01:15:36,240
Karena mereka tak tahu kebenaran.
1301
01:15:36,823 --> 01:15:40,410
Mereka tak punya proksi kebenaran
yang lebih baik dari klik.
1302
01:15:41,870 --> 01:15:45,123
Jika kita tak setuju soal apa yang benar
1303
01:15:45,207 --> 01:15:47,584
atau kebenaran itu sungguh ada,
1304
01:15:48,293 --> 01:15:49,294
kita akan hancur.
1305
01:15:49,878 --> 01:15:52,089
Ini masalah di bawah masalah lain,
1306
01:15:52,172 --> 01:15:54,424
karena jika tak bisa sepakat
soal apa yang benar,
1307
01:15:55,092 --> 01:15:57,803
kita tak bisa keluar
dari semua masalah kita.
1308
01:16:05,352 --> 01:16:07,854
Sebaiknya sarankan dia ikuti
Klub Sepak Bola Bumi Datar.
1309
01:16:07,938 --> 01:16:10,399
Jangan tunjukkan kabar olahraga lagi.
Dia tak tertarik.
1310
01:16:39,970 --> 01:16:42,764
Banyak orang di Silicon Valley
yang meyakini sebuah teori
1311
01:16:42,848 --> 01:16:45,225
bahwa kita sedang membangun
otak super global
1312
01:16:45,309 --> 01:16:48,020
dan semua pengguna
hanyalah neuron kecil yang bisa ditukar.
1313
01:16:48,103 --> 01:16:49,563
Tak ada yang penting.
1314
01:16:50,230 --> 01:16:53,150
Itu memaksa orang mengambil peran aneh
1315
01:16:53,233 --> 01:16:56,069
yang menjadikan kita
sebuah elemen komputer kecil
1316
01:16:56,153 --> 01:16:58,905
yang diprogram lewat manipulasi perilaku
1317
01:16:58,989 --> 01:17:02,367
untuk melayani otak raksasa ini
dan kita tak penting.
1318
01:17:02,451 --> 01:17:06,455
Kita takkan dibayar, diakui,
dan tak bisa menentukan nasib sendiri.
1319
01:17:06,538 --> 01:17:09,416
Kami akan diam-diam memanipulasimu
karena kau simpul komputer,
1320
01:17:09,499 --> 01:17:12,336
jadi, kami harus memprogrammu
karena begitulah simpul komputer.
1321
01:17:20,093 --> 01:17:21,094
Astaga.
1322
01:17:21,887 --> 01:17:25,390
Saat memikirkan teknologi
yang menjadi ancaman eksistensial,
1323
01:17:25,474 --> 01:17:28,060
itu pernyataan berani dan...
1324
01:17:29,603 --> 01:17:33,982
Maka akan mudah bagi kita untuk berpikir,
"Baiklah, aku membawa ponsel...
1325
01:17:35,525 --> 01:17:37,235
menggulir, mengeklik, menggunakannya.
1326
01:17:37,319 --> 01:17:39,237
Di mana ancaman eksistensialnya?
1327
01:17:40,238 --> 01:17:41,615
Ada komputer super,
1328
01:17:41,698 --> 01:17:44,034
di sisi lain layar, mengarah ke otakku,
1329
01:17:44,451 --> 01:17:47,537
membuatku menonton satu video lagi.
Di mana ancaman eksistensialnya?"
1330
01:17:54,252 --> 01:17:59,341
Ini bukan soal teknologi
yang menjadi ancaman eksistensial.
1331
01:18:02,511 --> 01:18:04,721
DENGAR PENDAPAT SENAT AS
SOAL TEKNOLOGI PERSUASIF
1332
01:18:04,805 --> 01:18:06,348
Namun, kemampuan teknologi
1333
01:18:06,431 --> 01:18:08,975
untuk menghadirkan kemungkinan terburuk
di masyarakat
1334
01:18:09,559 --> 01:18:13,522
dan kemungkinan terburuk itulah
ancaman eksistensialnya.
1335
01:18:13,605 --> 01:18:15,899
SENAT AMERIKA SERIKAT
1336
01:18:18,777 --> 01:18:20,570
Jika teknologi menciptakan
1337
01:18:21,655 --> 01:18:24,533
kekacauan massal, kemarahan,
ketidaksopanan,
1338
01:18:24,616 --> 01:18:26,326
kurangnya saling percaya,
1339
01:18:27,452 --> 01:18:30,622
kesepian, alienasi,
peningkatan polarisasi,
1340
01:18:30,706 --> 01:18:33,333
peretasan pemilu, populisme,
1341
01:18:33,917 --> 01:18:36,962
gangguan, dan ketidakmampuan berfokus
pada isu sebenarnya...
1342
01:18:37,963 --> 01:18:39,214
itulah masyarakat.
1343
01:18:40,340 --> 01:18:46,388
Kini masyarakat tak mampu
menyembuhkan dirinya
1344
01:18:46,471 --> 01:18:48,724
dan berubah menjadi semacam kekacauan.
1345
01:18:51,977 --> 01:18:54,938
Ini memengaruhi semua orang,
meski kita tak memakai produk ini.
1346
01:18:55,480 --> 01:18:57,524
Semua ini telah menjadi
Frankenstein digital
1347
01:18:57,607 --> 01:19:00,110
yang mengubah dunia
sesuai bayangan mereka,
1348
01:19:00,193 --> 01:19:01,862
entah itu kesehatan mental anak-anak
1349
01:19:01,945 --> 01:19:04,489
atau politik dan wacana politik kita,
1350
01:19:04,573 --> 01:19:07,492
tanpa bertanggung jawab membahasnya
di ranah publik.
1351
01:19:07,576 --> 01:19:10,579
- Jadi, itu kembali ke...
- Menurutmu siapa yang bertanggung jawab?
1352
01:19:10,662 --> 01:19:13,582
Kurasa kita harus meminta platform
bertanggung jawab
1353
01:19:13,665 --> 01:19:15,584
karena saat mengambil alih iklan pemilu,
1354
01:19:15,667 --> 01:19:17,753
mereka bertanggung jawab
melindungi pemilu.
1355
01:19:17,836 --> 01:19:20,464
Saat menguasai kesehatan mental anak
atau acara Sabtu pagi,
1356
01:19:20,547 --> 01:19:22,716
mereka bertanggung jawab
melindungi Sabtu pagi.
1357
01:19:23,800 --> 01:19:27,929
Perlombaan untuk menarik perhatian orang
tak akan hilang.
1358
01:19:28,638 --> 01:19:31,850
Teknologi kita akan menjadi lebih menyatu
dengan kehidupan kita.
1359
01:19:31,933 --> 01:19:34,978
IA akan lebih mahir memprediksi
hal yang membuat kita melihat layar,
1360
01:19:35,061 --> 01:19:37,105
bukan lebih buruk dalam memprediksinya.
1361
01:19:38,940 --> 01:19:42,027
Usiaku 62 tahun,
1362
01:19:42,110 --> 01:19:45,113
makin tua
seiring percakapan ini berlangsung,
1363
01:19:45,197 --> 01:19:47,365
tapi aku akan memberitahumu...
1364
01:19:48,700 --> 01:19:52,370
Aku mungkin akan mati
dan mungkin akan bersyukur untuk itu
1365
01:19:52,454 --> 01:19:54,372
saat semua ini membuahkan hasil.
1366
01:19:54,790 --> 01:19:59,753
Karena kupikir ini membuatku sangat takut.
1367
01:20:00,921 --> 01:20:03,298
Apa kau sependapat?
1368
01:20:03,548 --> 01:20:06,885
Atau aku bereaksi berlebihan
pada situasi yang kurang kuketahui?
1369
01:20:09,930 --> 01:20:11,640
Apa yang paling kau cemaskan?
1370
01:20:15,519 --> 01:20:18,480
Kurasa dalam jangka pendek...
1371
01:20:19,523 --> 01:20:20,524
perang saudara.
1372
01:20:24,444 --> 01:20:29,908
Jika kita teruskan situasi saat ini,
anggaplah hingga 20 tahun lagi...
1373
01:20:31,117 --> 01:20:34,579
peradaban kita mungkin akan hancur
karena kebodohan yang disengaja.
1374
01:20:34,663 --> 01:20:37,958
Kita mungkin gagal menghadapi
tantangan perubahan iklim.
1375
01:20:38,041 --> 01:20:42,087
Kita mungkin memperburuk demokrasi dunia
1376
01:20:42,170 --> 01:20:46,132
sehingga mereka jatuh
ke dalam disfungsi autokrat yang aneh.
1377
01:20:46,216 --> 01:20:48,510
Kita mungkin merusak ekonomi global.
1378
01:20:49,135 --> 01:20:52,264
Kita mungkin tak selamat.
1379
01:20:52,347 --> 01:20:54,808
Aku sungguh menganggap ini eksistensial.
1380
01:21:02,482 --> 01:21:04,985
Apa ini generasi terakhir
1381
01:21:05,068 --> 01:21:08,822
yang akan tahu rasanya
sebelum ilusi ini terjadi?
1382
01:21:11,074 --> 01:21:14,578
Bagaimana kita terbangun dari matriks
saat kita tak tahu ada di matriks?
1383
01:21:17,747 --> 01:21:23,253
"MENJADI UTOPIA ATAU DILUPAKAN,
AKAN DITENTUKAN OLEH LOMBA ESTAFET
1384
01:21:23,336 --> 01:21:27,299
HINGGA SAAT TERAKHIR..."
BUCKMINSTER FULLER
1385
01:21:27,382 --> 01:21:30,635
Banyak ucapan kami yang terdengar
seolah-olah ini...
1386
01:21:31,511 --> 01:21:33,680
hanyalah hanya malapetaka
dan kesuraman sepihak.
1387
01:21:33,763 --> 01:21:36,808
Seperti, "Astaga,
teknologi menghancurkan dunia...
1388
01:21:36,892 --> 01:21:39,519
dan anak-anak," tapi tidak.
1389
01:21:40,228 --> 01:21:45,567
Ini membingungkan
karena ini utopia sekaligus distopia.
1390
01:21:45,942 --> 01:21:50,447
Aku bisa menekan tombol di ponselku
dan mobil akan muncul dalam 30 detik,
1391
01:21:50,530 --> 01:21:52,699
lalu aku bisa pergi ke tujuanku.
1392
01:21:53,033 --> 01:21:55,785
Itu ajaib. Itu luar biasa.
1393
01:21:56,161 --> 01:21:58,788
Saat kami membuat tombol "Suka",
motivasi kami adalah,
1394
01:21:58,872 --> 01:22:01,499
"Bisakah kita menyebarkan aura positif
dan cinta di dunia?"
1395
01:22:01,583 --> 01:22:06,379
Lalu berpikir bahwa kini remaja tertekan
saat tak banyak dapat respons "Suka"
1396
01:22:06,463 --> 01:22:08,632
atau itu bisa mengarah
ke polarisasi politik,
1397
01:22:08,715 --> 01:22:09,883
tak terpikir oleh kami.
1398
01:22:10,175 --> 01:22:12,344
Kurasa mereka tak berniat jahat.
1399
01:22:13,511 --> 01:22:15,764
Hanya model bisnisnya yang bermasalah.
1400
01:22:15,847 --> 01:22:20,226
Kita bisa menutup layanannya
dan menghancurkan apa pun itu,
1401
01:22:20,310 --> 01:22:24,397
nilai pemegang saham 20 miliar dolar,
dituntut...
1402
01:22:24,481 --> 01:22:27,108
Namun, kita tak bisa membalikkan
keadaan seperti masa lalu.
1403
01:22:27,442 --> 01:22:30,403
Kita bisa membuat modifikasi kecil,
tapi pada akhirnya,
1404
01:22:30,487 --> 01:22:34,032
pendapatan dan penggunaan harus meningkat,
kuartal dari kuartal.
1405
01:22:34,658 --> 01:22:37,535
Makin besar itu,
makin sulit bagi siapa pun untuk berubah.
1406
01:22:38,495 --> 01:22:43,458
Yang kulihat adalah sekelompok orang yang
terjebak oleh model bisnis,
1407
01:22:43,541 --> 01:22:46,169
insentif ekonomi,
dan tekanan pemegang saham
1408
01:22:46,252 --> 01:22:48,922
yang membuatnya hampir mustahil
untuk melakukan hal lain.
1409
01:22:49,005 --> 01:22:50,840
Kurasa kita harus menerima fakta
1410
01:22:50,924 --> 01:22:53,176
bahwa perusahaan boleh berfokus
menghasilkan uang.
1411
01:22:53,259 --> 01:22:56,888
Yang buruk adalah saat tak ada regulasi,
aturan, dan persaingan
1412
01:22:56,972 --> 01:23:00,850
dan perusahaan bertindak
sebagai pemerintah yang asli.
1413
01:23:01,142 --> 01:23:03,353
Lalu mereka berkata,
"Kami bisa mengatur diri."
1414
01:23:03,436 --> 01:23:05,981
Itu sebuah kebohongan. Itu konyol.
1415
01:23:06,064 --> 01:23:09,150
Insentif keuangan bisa dibilang
mengatur dunia,
1416
01:23:09,234 --> 01:23:15,573
jadi, apa pun solusi masalah ini
haruslah mengubah insentif keuangan itu.
1417
01:23:16,157 --> 01:23:18,785
Tak ada alasan fiskal
agar perusahaan ini berubah.
1418
01:23:19,160 --> 01:23:21,329
Itu sebabnya kita perlu peraturan.
1419
01:23:21,413 --> 01:23:24,290
Perusahaan telepon punya
banyak data sensitif soal kita
1420
01:23:24,374 --> 01:23:27,544
dan ada banyak hukum yang memastikan
mereka tak berbuat salah.
1421
01:23:27,627 --> 01:23:31,506
Kita hampir tak punya hukum
tentang privasi digital misalnya.
1422
01:23:31,589 --> 01:23:34,426
Kita bisa memajaki pemungutan
dan pemrosesan data.
1423
01:23:34,509 --> 01:23:37,554
Sama seperti saat kita membayar
tagihan air
1424
01:23:37,637 --> 01:23:39,723
dengan memantau jumlah penggunaan air,
1425
01:23:39,806 --> 01:23:43,226
kenakan pajak pada perusahaan ini
atas aset data yang mereka miliki.
1426
01:23:43,309 --> 01:23:44,769
Itu memberi mereka alasan fiskal
1427
01:23:44,853 --> 01:23:47,856
untuk tak memperoleh semua data
di planet ini.
1428
01:23:48,148 --> 01:23:50,567
Hukum jauh tertinggal dalam hal ini.
1429
01:23:50,650 --> 01:23:55,864
Yang kutahu, situasi saat ini ada
bukan untuk melindungi pengguna,
1430
01:23:55,947 --> 01:23:58,700
tapi untuk perlindungan hak dan privilese
1431
01:23:58,783 --> 01:24:01,453
dari semua perusahaan raksasa
yang sangat kaya ini.
1432
01:24:02,203 --> 01:24:05,832
Apa kita akan selalu tunduk
kepada orang terkaya dan paling berkuasa?
1433
01:24:05,915 --> 01:24:07,417
Atau kita akan bilang,
1434
01:24:07,959 --> 01:24:12,047
"Ada kalanya saat kepentingan nasional,
1435
01:24:12,130 --> 01:24:15,592
ada kalanya saat kepentingan orang
atau para pengguna,
1436
01:24:15,675 --> 01:24:17,385
sebenarnya lebih penting
1437
01:24:18,011 --> 01:24:21,473
daripada keuntungan
bagi orang yang sudah menjadi miliarder"?
1438
01:24:21,848 --> 01:24:26,603
Pasar-pasar ini merusak demokrasi
dan kebebasan.
1439
01:24:26,686 --> 01:24:28,521
Mereka harus dilarang.
1440
01:24:29,147 --> 01:24:31,816
Ini bukan proposal radikal.
1441
01:24:31,900 --> 01:24:34,194
Ada pasar lain yang kita larang.
1442
01:24:34,277 --> 01:24:36,988
Kita melarang pasar organ manusia.
1443
01:24:37,197 --> 01:24:39,491
Kami melarang pasar budak manusia.
1444
01:24:39,949 --> 01:24:44,037
Karena mereka punya konsekuensi merusak
yang tak terelakkan.
1445
01:24:44,662 --> 01:24:45,830
Kita hidup di dunia
1446
01:24:45,914 --> 01:24:50,251
tempat pohon mati bernilai lebih,
secara finansial, daripada yang hidup.
1447
01:24:50,335 --> 01:24:53,838
Dunia tempat paus mati lebih berharga
daripada yang hidup.
1448
01:24:53,922 --> 01:24:56,341
Jika ekonomi kita terus bekerja
seperti itu
1449
01:24:56,424 --> 01:24:58,134
dan perusahaan tak diatur,
1450
01:24:58,218 --> 01:25:00,678
mereka akan terus menghancurkan pohon,
1451
01:25:00,762 --> 01:25:01,763
membunuh paus,
1452
01:25:01,846 --> 01:25:06,101
menambang tanah,
dan terus menarik minyak dari tanah,
1453
01:25:06,184 --> 01:25:08,394
meski kita tahu itu menghancurkan planet
1454
01:25:08,478 --> 01:25:12,148
dan membuat dunia yang lebih buruk
untuk generasi mendatang.
1455
01:25:12,232 --> 01:25:13,858
Ini pemikiran jangka pendek
1456
01:25:13,942 --> 01:25:16,694
berdasarkan perilaku
yang menuhankan keuntungan ini,
1457
01:25:16,778 --> 01:25:20,073
seolah-olah secara ajaib,
tiap perusahaan yang bertindak egois ini
1458
01:25:20,156 --> 01:25:21,950
akan memberikan hasil terbaik.
1459
01:25:22,033 --> 01:25:24,494
Ini sudah memengaruhi lingkungan
sejak lama.
1460
01:25:24,702 --> 01:25:27,205
Yang menakutkan
dan semoga ini menjadi pemicu terakhir
1461
01:25:27,288 --> 01:25:29,249
yang akan menyadarkan kita
sebagai peradaban
1462
01:25:29,332 --> 01:25:31,709
akan betapa salahnya teori ini sejak awal
1463
01:25:31,793 --> 01:25:35,004
adalah menganggap
bahwa kini kitalah pohon dan pausnya.
1464
01:25:35,088 --> 01:25:37,048
Perhatian kita bisa ditambang.
1465
01:25:37,132 --> 01:25:39,134
Kita akan lebih menguntungkan perusahaan
1466
01:25:39,217 --> 01:25:41,594
jika kita menghabiskan waktu
menatap layar,
1467
01:25:41,678 --> 01:25:42,971
menatap iklan,
1468
01:25:43,054 --> 01:25:45,890
daripada menghabiskan waktu itu
untuk menikmati hidup.
1469
01:25:45,974 --> 01:25:47,559
Jadi, kini kita melihat akibatnya.
1470
01:25:47,642 --> 01:25:50,687
Kita melihat perusahaan menggunakan
inteligensi artifisial yang kuat
1471
01:25:50,770 --> 01:25:53,606
untuk mengakali dan mencari cara
menarik perhatian kita
1472
01:25:53,690 --> 01:25:57,068
menuju hal yang mereka mau kita lihat,
daripada hal yang paling konsisten
1473
01:25:57,152 --> 01:25:59,237
dengan tujuan, nilai, dan hidup kita.
1474
01:26:02,991 --> 01:26:04,450
PIDATO UTAMA HARI INI
STEVE JOBS
1475
01:26:05,535 --> 01:26:06,911
Arti komputer bagiku adalah
1476
01:26:06,995 --> 01:26:10,290
ini alat paling luar biasa
yang pernah kami buat.
1477
01:26:11,124 --> 01:26:13,877
Itu setara dengan sepeda
untuk pikiran kita.
1478
01:26:15,587 --> 01:26:20,341
Ide soal teknologi manusiawi,
itulah awal mula Silicon Valley.
1479
01:26:21,050 --> 01:26:25,722
Lalu kita kehilangan arah
karena itu menjadi tindakan yang keren,
1480
01:26:25,805 --> 01:26:27,265
bukan yang benar.
1481
01:26:27,557 --> 01:26:29,726
Dulu internet adalah
tempat yang aneh dan gila.
1482
01:26:30,018 --> 01:26:31,394
Itu eksperimental.
1483
01:26:31,519 --> 01:26:34,731
Dulu hal-hal kreatif terjadi di internet
dan tentu masih hingga kini,
1484
01:26:34,814 --> 01:26:38,610
tapi kini rasanya itu seperti mal raksasa.
1485
01:26:38,693 --> 01:26:44,282
Aku berpikir, "Astaga, pasti ada sesuatu
yang lebih dari itu."
1486
01:26:46,743 --> 01:26:48,411
Kurasa aku hanya optimistis.
1487
01:26:48,494 --> 01:26:52,165
Karena kurasa kita bisa mengubah
rupa dan arti media sosial.
1488
01:26:54,250 --> 01:26:57,921
Cara kerja teknologi bukan hukum fisika.
Tidak mustahil diubah.
1489
01:26:58,004 --> 01:27:02,175
Ini adalah pilihan yang dibuat
manusia sepertiku selama ini.
1490
01:27:02,967 --> 01:27:05,345
Manusia bisa mengubah teknologi itu.
1491
01:27:06,971 --> 01:27:09,974
Pertanyaannya sekarang adalah
apakah kita bersedia mengakui
1492
01:27:10,475 --> 01:27:15,438
bahwa hasil buruk itu adalah
wujud produk dari pekerjaan kita.
1493
01:27:21,027 --> 01:27:24,864
Kita membangun ini
dan bertanggung jawab untuk mengubahnya.
1494
01:27:37,168 --> 01:27:38,711
Model ekstraksi perhatian
1495
01:27:38,795 --> 01:27:42,298
bukanlah cara memperlakukan manusia
yang kita mau.
1496
01:27:46,094 --> 01:27:48,137
Ini perasaanku saja atau...
1497
01:27:49,806 --> 01:27:50,848
Pria yang malang.
1498
01:27:51,474 --> 01:27:53,226
Struktur masyarakat yang sehat
1499
01:27:53,309 --> 01:27:56,145
bergantung pada keluarnya kita
dari model bisnis merusak ini.
1500
01:28:04,696 --> 01:28:07,782
Kita bisa menuntut
produk ini dirancang secara manusiawi.
1501
01:28:09,409 --> 01:28:13,204
Kita bisa menuntut untuk tak diperlakukan
sebagai sumber daya yang bisa diekstraksi.
1502
01:28:15,164 --> 01:28:18,459
Tujuannya mungkin bisa berupa
cara kita membuat dunia lebih baik.
1503
01:28:20,461 --> 01:28:23,798
Dalam sejarah, setiap ada perubahan
ke arah yang lebih baik,
1504
01:28:23,881 --> 01:28:26,342
itu karena seseorang maju dan berkata,
1505
01:28:26,426 --> 01:28:28,428
"Ini bodoh. Kita bisa lebih baik."
1506
01:28:29,178 --> 01:28:32,557
Para kritikuslah yang mendorong perbaikan.
1507
01:28:33,141 --> 01:28:35,393
Para kritikuslah
yang benar-benar optimistis.
1508
01:28:38,313 --> 01:28:39,147
Halo.
1509
01:28:46,195 --> 01:28:47,697
Maksudku, itu agak gila, bukan?
1510
01:28:47,780 --> 01:28:51,534
Seolah-olah desain fundamental
dari hal ini...
1511
01:28:52,994 --> 01:28:54,954
tidak berjalan ke arah yang baik.
1512
01:28:55,246 --> 01:28:56,873
Seluruhnya.
1513
01:28:56,956 --> 01:29:00,668
Jadi, terdengar gila jika berkata
kita harus mengubah semua itu,
1514
01:29:01,169 --> 01:29:03,046
tapi itu yang harus kita lakukan.
1515
01:29:04,380 --> 01:29:05,965
Menurutmu, kita akan berhasil?
1516
01:29:07,425 --> 01:29:08,343
Harus.
1517
01:29:21,314 --> 01:29:24,942
Sepertinya kau sangat optimistis.
1518
01:29:26,194 --> 01:29:27,403
Aku terdengar seperti itu?
1519
01:29:27,653 --> 01:29:30,198
Ya, maksudku...
Sulit kupercaya kau terus mengatakan itu
1520
01:29:30,281 --> 01:29:33,326
karena aku berpikir, "Sungguh?
Aku merasa kita menuju distopia.
1521
01:29:33,409 --> 01:29:35,370
Aku merasa kita menuju distopia
dengan cepat
1522
01:29:35,453 --> 01:29:37,914
dan butuh keajaiban
untuk mengeluarkan kita darinya."
1523
01:29:37,997 --> 01:29:40,375
Keajaiban itu, tentu saja,
adalah keinginan bersama.
1524
01:29:41,000 --> 01:29:44,587
Aku merasa optimistis
kita akan menemukan solusi,
1525
01:29:44,670 --> 01:29:47,048
tapi kurasa itu akan butuh waktu lama.
1526
01:29:47,131 --> 01:29:50,385
Karena tak semua orang menganggap ini
sebagai masalah.
1527
01:29:50,468 --> 01:29:55,890
Kurasa salah satu kegagalan besar
dalam teknologi saat ini
1528
01:29:55,973 --> 01:29:58,643
adalah kegagalan kepemimpinan
1529
01:29:58,726 --> 01:30:01,979
dari orang-orang yang tampil
dan melakukan percakapan terbuka
1530
01:30:02,063 --> 01:30:05,900
yang bukan hanya soal hal-hal baik,
tapi juga yang tak sempurna
1531
01:30:05,983 --> 01:30:08,194
agar seseorang bisa membangun
sesuatu yang baru.
1532
01:30:08,486 --> 01:30:10,321
Pada akhirnya,
1533
01:30:10,405 --> 01:30:14,617
mesin ini takkan berubah
sampai ada tekanan publik yang besar.
1534
01:30:14,700 --> 01:30:18,329
Dengan melakukan percakapan ini
dan menyuarakan pendapat kita,
1535
01:30:18,413 --> 01:30:21,082
dalam beberapa kasus
melalui teknologi ini,
1536
01:30:21,165 --> 01:30:24,252
kita bisa mulai mengubah keadaan
dan pembahasan.
1537
01:30:24,335 --> 01:30:27,004
Ini mungkin terdengar aneh,
tapi ini dunia dan komunitasku.
1538
01:30:27,088 --> 01:30:29,674
Aku tak membenci
dan mau merugikan Google atau Facebook.
1539
01:30:29,757 --> 01:30:32,885
Aku hanya ingin mengubah mereka
agar mereka tak menghancurkan dunia.
1540
01:30:32,969 --> 01:30:35,513
Aku sudah menghapus banyak aplikasi
dari ponselku
1541
01:30:35,596 --> 01:30:37,723
yang kurasa hanya membuang waktuku.
1542
01:30:37,807 --> 01:30:40,685
Semua aplikasi media sosial dan berita.
1543
01:30:40,768 --> 01:30:42,520
Aku pun mematikan notifikasi
1544
01:30:42,603 --> 01:30:45,815
pada apa pun yang menggetarkan kakiku
dengan informasi
1545
01:30:45,898 --> 01:30:48,943
yang tak tepat waktu
dan penting bagiku saat ini.
1546
01:30:49,026 --> 01:30:51,279
Karena alasan itu juga,
aku tak mengantongi kue.
1547
01:30:51,362 --> 01:30:53,197
Kurangi jumlah notifikasi yang didapat.
1548
01:30:53,281 --> 01:30:54,449
Matikan notifikasi.
1549
01:30:54,532 --> 01:30:55,950
Mematikan semua notifikasi.
1550
01:30:56,033 --> 01:30:58,536
Aku tak menggunakan Google lagi,
tapi Qwant
1551
01:30:58,619 --> 01:31:01,497
yang tak menyimpan riwayat pencarian kita.
1552
01:31:01,581 --> 01:31:04,417
Jangan pernah menerima
video rekomendasi di YouTube.
1553
01:31:04,500 --> 01:31:07,003
Selalu memilih.
Itu cara melawan yang lain.
1554
01:31:07,295 --> 01:31:12,133
Ada banyak ekstensi Chrome
yang menghapus rekomendasi.
1555
01:31:12,216 --> 01:31:15,636
Aku suka kau merekomendasikan sesuatu
untuk membatalkan yang kau buat.
1556
01:31:15,720 --> 01:31:16,554
Ya.
1557
01:31:16,929 --> 01:31:18,473
Sebelum membagi,
1558
01:31:18,556 --> 01:31:21,684
periksa fakta, pertimbangkan sumbernya,
riset lebih banyak di Google.
1559
01:31:21,767 --> 01:31:25,104
Jika sepertinya itu dirancang
untuk memancing emosi kita,
1560
01:31:25,188 --> 01:31:26,314
mungkin memang begitu.
1561
01:31:26,731 --> 01:31:29,025
Intinya, kita memilih dengan klik.
1562
01:31:29,108 --> 01:31:30,359
Jika mengeklik umpan klik,
1563
01:31:30,443 --> 01:31:33,779
kita menciptakan insentif keuangan
yang melanggengkan sistem yang ada.
1564
01:31:33,863 --> 01:31:37,909
Pastikan kita mendapat beragam informasi
dalam hidupmu sendiri.
1565
01:31:38,117 --> 01:31:40,995
Aku mengikuti orang yang tak kusukai
di Twitter
1566
01:31:41,078 --> 01:31:44,207
karena aku ingin melihat
sudut pandang berbeda.
1567
01:31:44,582 --> 01:31:46,584
Perhatikan banyak orang
di industri teknologi
1568
01:31:46,667 --> 01:31:49,045
tak memberikan perangkat ini
kepada anak mereka.
1569
01:31:49,128 --> 01:31:51,255
Anak-anakku tak menggunakan media sosial.
1570
01:31:51,964 --> 01:31:53,549
Apa itu aturan atau...
1571
01:31:53,633 --> 01:31:54,509
Itu aturannya.
1572
01:31:55,092 --> 01:31:57,845
Kami fanatik soal itu.
1573
01:31:57,929 --> 01:31:59,222
Kami gila.
1574
01:31:59,305 --> 01:32:05,603
Kami tak memberikan anak-anak kami
waktu di depan layar.
1575
01:32:05,686 --> 01:32:08,564
Aku sudah memikirkan
tiga aturan sederhana
1576
01:32:08,648 --> 01:32:12,610
yang mempermudah hidup keluarga
dan itu dibenarkan oleh penelitian.
1577
01:32:12,693 --> 01:32:15,571
Aturan pertama adalah
tak ada gawai di kamar tidur
1578
01:32:15,655 --> 01:32:17,281
pada waktu tetap setiap malam.
1579
01:32:17,365 --> 01:32:20,535
Apa pun waktunya, 30 menit sebelum tidur,
semua gawai keluar.
1580
01:32:20,618 --> 01:32:24,038
Aturan kedua adalah tak ada media sosial
sampai SMA.
1581
01:32:24,121 --> 01:32:26,374
Secara pribadi,
kurasa usianya harus 16 tahun.
1582
01:32:26,457 --> 01:32:28,960
SMP sudah cukup sulit.
Jadi, jauhkan hingga SMA.
1583
01:32:29,043 --> 01:32:32,964
Aturan ketiga adalah menyusun
anggaran waktu dengan anak-anak kita.
1584
01:32:33,047 --> 01:32:34,799
Jika bicara dengan mereka dan berkata,
1585
01:32:34,882 --> 01:32:37,802
"Berapa jam sehari
kau mau menggunakan gawaimu?
1586
01:32:37,885 --> 01:32:39,637
Menurutmu, berapa durasi yang sesuai,"
1587
01:32:39,720 --> 01:32:41,597
jawaban mereka sering kali masuk akal.
1588
01:32:42,056 --> 01:32:44,642
Dengar, aku tahu betul
1589
01:32:44,725 --> 01:32:48,563
aku tak akan membuat semua orang
menghapus akun media sosial mereka,
1590
01:32:48,646 --> 01:32:50,439
tapi kurasa ada beberapa orang
1591
01:32:50,523 --> 01:32:54,485
dan membuat beberapa orang
menghapus akun mereka itu sangat penting.
1592
01:32:54,569 --> 01:32:58,406
Alasannya adalah itu menciptakan ruang
untuk percakapan
1593
01:32:58,489 --> 01:33:00,908
karena aku ingin ada cukup banyak orang
di masyarakat
1594
01:33:00,992 --> 01:33:05,079
yang bebas dari mesin manipulasi
untuk melakukan percakapan sosial
1595
01:33:05,162 --> 01:33:07,540
yang tak dibatasi oleh mesin manipulasi.
1596
01:33:07,623 --> 01:33:10,126
Jadi, lakukanlah! Keluar dari sistem.
1597
01:33:10,334 --> 01:33:12,670
Ya, hapuslah. Lepaskan benda bodoh itu.
1598
01:33:13,546 --> 01:33:16,507
Dunia ini indah.
Lihat, di luar sana bagus.
1599
01:33:18,467 --> 01:33:19,969
IKUTI KAMI DI MEDIA SOSIAL!
1600
01:33:20,052 --> 01:33:21,887
HANYA BERCANDA
1601
01:33:21,971 --> 01:33:27,476
AYO MEMBAHAS CARA MEMPERBAIKINYA
THESOCIALDILEMMA.COM
1602
01:33:32,064 --> 01:33:34,609
Terjemahan subtitle oleh Alphino Fajar