1
00:00:19,978 --> 00:00:24,775
"TAK ADA HAL BESAR YANG MEMASUKI
KEHIDUPAN MANUSIA TANPA KUTUKAN."
2
00:00:24,858 --> 00:00:27,861
SOPHOKLES
3
00:00:31,156 --> 00:00:34,660
Ya, mulailah. Silakan duduk
dan buat dirimu nyaman.
4
00:00:37,579 --> 00:00:39,498
- Kau baik-baik saja?
- Ya.
5
00:00:43,043 --> 00:00:44,628
Pengambilan gambar pertama, tandai!
6
00:00:46,880 --> 00:00:48,924
Mau mulai dengan memperkenalkan dirimu?
7
00:00:50,467 --> 00:00:53,637
Halo, Dunia. Aku Bailey.
Pengambilan gambar ketiga.
8
00:00:54,179 --> 00:00:56,265
- Kau baik-baik saja?
- Ini bagian terburuk.
9
00:00:57,516 --> 00:00:58,517
Aku tak suka ini.
10
00:00:59,851 --> 00:01:02,229
Aku bekerja di Facebook
pada tahun 2011 dan 2012.
11
00:01:02,312 --> 00:01:05,190
Aku salah satu pegawai awal Instagram.
12
00:01:05,274 --> 00:01:08,694
Aku bekerja di Google, YouTube.
13
00:01:08,777 --> 00:01:11,697
Apple, Google, Twitter, Palm.
14
00:01:12,739 --> 00:01:15,534
Aku membantu merintis Mozilla Labs
dan beralih ke Firefox.
15
00:01:15,617 --> 00:01:17,995
Sudah siap? Semuanya...
16
00:01:18,078 --> 00:01:18,954
Bagus.
17
00:01:21,206 --> 00:01:22,582
Aku bekerja di Twitter.
18
00:01:23,000 --> 00:01:26,169
Pekerjaan terakhirku di sana
adalah Wakil Presiden Senior Perekayasaan.
19
00:01:27,462 --> 00:01:29,256
Aku mantan Presiden Pinterest.
20
00:01:29,339 --> 00:01:32,718
Sebelum itu, aku Direktur Monetisasi
21
00:01:32,801 --> 00:01:34,261
di Facebook selama lima tahun.
22
00:01:34,344 --> 00:01:37,973
Saat di Twitter, kuhabiskan beberapa tahun
mengelola platform pengembang mereka,
23
00:01:38,056 --> 00:01:40,225
lalu aku menjadi Kepala Produk Pelanggan.
24
00:01:40,309 --> 00:01:44,271
Aku penemu bersama Google Drive,
Gmail Chat,
25
00:01:44,354 --> 00:01:46,857
Halaman Facebook,
dan tombol "Suka" Facebook.
26
00:01:47,441 --> 00:01:50,777
Ya. Ini sebabnya kuhabiskan delapan bulan
27
00:01:50,861 --> 00:01:52,779
berbicara berulang kali dengan pengacara.
28
00:01:54,031 --> 00:01:55,407
Ini membuatku takut.
29
00:01:58,410 --> 00:02:02,914
Saat di sana, aku selalu merasa,
pada dasarnya, itu demi kebaikan.
30
00:02:03,373 --> 00:02:05,375
Entah apa aku merasa seperti itu lagi.
31
00:02:05,459 --> 00:02:10,589
Aku meninggalkan Google pada Juni 2017
karena masalah etika.
32
00:02:10,672 --> 00:02:14,134
Bukan hanya di Google,
tapi industri ini secara umum.
33
00:02:14,217 --> 00:02:15,427
Aku sangat khawatir.
34
00:02:16,720 --> 00:02:17,679
Sangat khawatir.
35
00:02:19,097 --> 00:02:21,808
Saat ini mudah untuk melupakan fakta
36
00:02:21,892 --> 00:02:27,814
bahwa alat ini telah menciptakan
hal-hal indah di dunia.
37
00:02:27,898 --> 00:02:30,233
Mereka mempertemukan
anggota keluarga yang hilang
38
00:02:30,317 --> 00:02:31,943
dan menemukan donor organ.
39
00:02:32,027 --> 00:02:35,614
Maksudku, ada perubahan sistemik berarti
40
00:02:35,697 --> 00:02:37,866
yang terjadi di seluruh dunia
41
00:02:37,949 --> 00:02:40,202
karena semua platform positif ini.
42
00:02:41,036 --> 00:02:42,954
Kurasa kita naif
43
00:02:43,330 --> 00:02:44,915
soal sisi lain dari koin itu.
44
00:02:45,540 --> 00:02:48,585
Ya, setelah semua ini dirilis,
mereka membentuk hidup sendiri.
45
00:02:48,668 --> 00:02:52,005
Cara mereka digunakan tak sesuai
dengan harapan kita.
46
00:02:52,089 --> 00:02:56,510
Aku sangat percaya tak ada yang berniat
menimbulkan semua konsekuensi ini.
47
00:02:56,802 --> 00:02:59,554
Tak ada orang jahat. Sama sekali tidak.
48
00:03:01,640 --> 00:03:03,600
Lantas apa masalahnya?
49
00:03:09,231 --> 00:03:11,358
Apa ada masalah dan apa itu?
50
00:03:18,407 --> 00:03:20,158
Sulit memberi satu jawaban ringkas...
51
00:03:20,242 --> 00:03:22,119
Aku mencoba membahas beragam masalah.
52
00:03:22,577 --> 00:03:23,578
Apa masalahnya?
53
00:03:28,208 --> 00:03:32,254
DOKUMENTER NETFLIX ORIGINAL
54
00:03:33,588 --> 00:03:35,340
Meski menghadapi lonjakan kritik,
55
00:03:35,424 --> 00:03:37,676
perusahaan teknologi besar
makin berkembang.
56
00:03:37,759 --> 00:03:40,929
Seluruh industri teknologi berada
di bawah pengawasan tingkat baru.
57
00:03:41,012 --> 00:03:43,724
Studi baru mengungkap kaitan
58
00:03:43,807 --> 00:03:46,143
antara kesehatan mental
dan penggunaan media sosial.
59
00:03:46,226 --> 00:03:48,478
Hadir untuk membahas riset terbaru...
60
00:03:49,187 --> 00:03:51,398
...yang terjadi tanpa diliput sama sekali.
61
00:03:51,481 --> 00:03:54,025
Puluhan juta warga Amerika
sangat kecanduan
62
00:03:54,109 --> 00:03:56,319
terhadap perangkat elektronik mereka.
63
00:03:56,403 --> 00:03:59,364
Itu diperparah oleh fakta
kini kita bisa mengasingkan diri...
64
00:03:59,448 --> 00:04:00,699
KAWANMU MENANDAIMU DI FOTO
65
00:04:00,782 --> 00:04:02,742
...dalam gelembung, berkat teknologi kami.
66
00:04:02,826 --> 00:04:04,578
Berita palsu menjadi lebih maju
67
00:04:04,661 --> 00:04:06,788
dan mengancam masyarakat di seluruh dunia.
68
00:04:06,872 --> 00:04:10,333
Kami tak menduga ini saat membuat Twitter
lebih dari 12 tahun lalu.
69
00:04:10,417 --> 00:04:12,502
Pemerintah mengatakan mereka tak yakin
70
00:04:12,586 --> 00:04:14,754
serangan siber Rusia akan berhenti.
71
00:04:14,838 --> 00:04:18,133
YouTube dipaksa berfokus
membersihkan situsnya.
72
00:04:18,216 --> 00:04:21,553
TikTok, jika Anda berbicara
dengan remaja di luar sana,
73
00:04:21,636 --> 00:04:24,014
mustahil mereka akan menghapusnya...
74
00:04:24,097 --> 00:04:26,349
Hei, Isla, bisa tolong siapkan meja?
75
00:04:26,433 --> 00:04:27,517
Ada pertanyaan serius
76
00:04:27,601 --> 00:04:29,978
soal apakah media sosial
membuat anak kita depresi.
77
00:04:30,061 --> 00:04:32,105
Isla, bisa tolong siapkan mejanya?
78
00:04:32,189 --> 00:04:35,317
Prosedur kosmetik ini menjadi
sangat populer di kalangan remaja
79
00:04:35,400 --> 00:04:37,944
hingga ahli bedah plastik menamai
sindrom baru untuk itu,
80
00:04:38,028 --> 00:04:40,822
Dismorfia Snapchat,
dengan pasien muda yang ingin operasi
81
00:04:40,906 --> 00:04:43,742
agar mereka bisa mirip
dengan swafoto berfilter mereka.
82
00:04:43,825 --> 00:04:45,911
Aku masih bingung
kenapa kau memberinya itu.
83
00:04:45,994 --> 00:04:49,581
Aku harus bagaimana?
Setiap anak lain di kelasnya punya.
84
00:04:50,165 --> 00:04:51,166
Usianya baru 11 tahun.
85
00:04:51,249 --> 00:04:55,086
Cass, tak ada yang memaksamu memilikinya.
Kau bisa tak terhubung selama kau mau.
86
00:04:55,170 --> 00:04:59,341
Hei, aku terhubung tanpa ponsel.
Aku sedang mengakses internet.
87
00:04:59,424 --> 00:05:03,094
Lagi pula, itu bukan koneksi nyata.
Itu hanya omong kosong...
88
00:05:03,178 --> 00:05:04,971
Kapitalisme pengawasan telah membentuk
89
00:05:05,055 --> 00:05:07,766
politik dan budaya
dalam cara yang tak banyak orang pahami.
90
00:05:07,849 --> 00:05:10,101
ISIS mengilhami para pengikutnya
lewat internet
91
00:05:10,185 --> 00:05:12,812
dan kini penganut supremasi kulit putih
melakukannya juga.
92
00:05:12,896 --> 00:05:14,147
Baru-baru ini di India,
93
00:05:14,231 --> 00:05:17,442
massa hakim jalanan di internet
telah membunuh lusinan orang...
94
00:05:17,526 --> 00:05:20,362
Ini bukan sekadar berita palsu,
tapi juga berkonsekuensi.
95
00:05:20,445 --> 00:05:24,074
Bagaimana cara menangani wabah
di era maraknya berita palsu?
96
00:05:24,157 --> 00:05:26,993
Bisakah kita tertular virus korona
dengan memakan makanan Cina?
97
00:05:27,536 --> 00:05:32,541
Kita telah berubah dari era informasi
menjadi era disinformasi.
98
00:05:32,624 --> 00:05:34,668
Demokrasi kita sedang diserang.
99
00:05:34,751 --> 00:05:38,505
Maksudku adalah, "Kurasa alat
yang telah diciptakan hari ini
100
00:05:38,588 --> 00:05:41,800
mulai mengikis struktur sosial
dari cara kerja masyarakat."
101
00:06:00,151 --> 00:06:03,446
Asa memberi ucapan sambutan.
Kita putar videonya.
102
00:06:04,197 --> 00:06:07,325
Lalu, "Hadirin, sambutlah Tristan Harris."
103
00:06:07,409 --> 00:06:08,827
- Benar.
- Bagus.
104
00:06:08,952 --> 00:06:09,953
Jadi, aku naik...
105
00:06:11,204 --> 00:06:12,038
dan...
106
00:06:12,122 --> 00:06:13,748
MANUSIAWI
AGENDA BARU TEKNOLOGI
107
00:06:13,832 --> 00:06:16,042
Intinya katakan,
"Terima kasih sudah datang."
108
00:06:17,919 --> 00:06:22,048
Jadi, hari ini, aku ingin membahas
agenda baru untuk teknologi.
109
00:06:22,132 --> 00:06:25,468
Alasan kami ingin melakukannya
adalah karena jika kita tanyai orang,
110
00:06:25,552 --> 00:06:27,804
"Apa yang salah di industri teknologi
saat ini?"
111
00:06:28,346 --> 00:06:31,641
Ada banyak keluhan, skandal,
112
00:06:31,725 --> 00:06:33,894
pencurian data, kecanduan teknologi,
113
00:06:33,977 --> 00:06:35,979
berita palsu, polarisasi,
114
00:06:36,062 --> 00:06:37,689
dan beberapa pemilu yang diretas.
115
00:06:38,189 --> 00:06:41,610
Namun, adakah sesuatu
di balik semua masalah ini
116
00:06:41,693 --> 00:06:44,654
yang menyebabkan semua ini
terjadi sekaligus?
117
00:06:46,448 --> 00:06:48,658
- Itu sudah bagus?
- Bagus sekali. Ya.
118
00:06:50,827 --> 00:06:52,954
Aku hanya mencoba...
Aku mau orang melihat...
119
00:06:53,038 --> 00:06:55,206
ada masalah yang terjadi
di industri teknologi.
120
00:06:55,290 --> 00:07:00,211
Itu tak bernama
dan itu terkait dengan satu sumber...
121
00:07:05,091 --> 00:07:06,801
Saat kita melihat sekeliling,
122
00:07:07,218 --> 00:07:09,387
rasanya dunia menjadi gila.
123
00:07:12,766 --> 00:07:15,185
Kita harus menanyai diri, apa ini normal?
124
00:07:16,102 --> 00:07:18,897
Atau kita semua terpengaruh
semacam mantra?
125
00:07:22,317 --> 00:07:25,153
MANTAN PAKAR ETIKA DESAIN GOOGLE
126
00:07:25,236 --> 00:07:27,906
PENDIRI BERSAMA
CENTER FOR HUMANE TECHNOLOGY
127
00:07:27,989 --> 00:07:30,492
Kuharap lebih banyak orang bisa memahami
cara kerjanya
128
00:07:30,575 --> 00:07:34,037
karena ini seharusnya bukan hal
yang hanya diketahui industri teknologi.
129
00:07:34,120 --> 00:07:36,289
Itu hal yang seharusnya semua orang tahu.
130
00:07:47,384 --> 00:07:48,301
- Halo!
- Hai.
131
00:07:48,760 --> 00:07:50,595
- Tristan. Senang bertemu kau.
- Tristan?
132
00:07:50,679 --> 00:07:51,721
- Ya.
- Bagus.
133
00:07:53,181 --> 00:07:55,934
Tristan Harris adalah
mantan pakar etika desain Google
134
00:07:56,017 --> 00:07:59,354
dan dijuluki sebagai hal paling mirip
dengan nurani bagi Silicon Valley.
135
00:07:59,437 --> 00:08:01,189
Dia meminta industri teknologi membawa
136
00:08:01,272 --> 00:08:04,192
hal yang dia sebut "desain etis"
pada produknya.
137
00:08:04,275 --> 00:08:06,903
Jarang ada orang dalam teknologi
yang sejujur itu,
138
00:08:06,986 --> 00:08:10,281
tapi Tristan Harris percaya
seseorang harus melakukannya.
139
00:08:11,324 --> 00:08:12,701
Dulu di Google,
140
00:08:12,784 --> 00:08:16,037
aku ada di tim Gmail dan mulai kelelahan
141
00:08:16,121 --> 00:08:18,581
karena kami begitu sering membahas...
142
00:08:19,457 --> 00:08:23,169
harus seperti apa bentuk kotak masuk
dan warnanya.
143
00:08:23,253 --> 00:08:25,880
Aku merasa kecanduan surel
144
00:08:26,297 --> 00:08:27,716
dan kuanggap itu menarik
145
00:08:27,799 --> 00:08:31,511
bahwa tak ada orang di Gmail yang mencoba
membuatnya tak begitu adiktif.
146
00:08:31,970 --> 00:08:34,514
Kupikir,
"Apa ada lagi yang memikirkan ini?
147
00:08:34,597 --> 00:08:36,391
Belum kudengar ada yang membahas ini."
148
00:08:36,850 --> 00:08:41,229
Aku merasa frustrasi
dengan industri teknologi secara umum
149
00:08:41,312 --> 00:08:43,273
karena kita seolah-olah tersesat.
150
00:08:46,985 --> 00:08:49,821
Aku berjuang untuk mencari tahu
151
00:08:49,904 --> 00:08:52,574
cara kami bisa mengubahnya dari dalam.
152
00:08:55,201 --> 00:08:59,497
Saat itulah kuputuskan membuat presentasi,
semacam ajakan untuk bergerak.
153
00:09:00,999 --> 00:09:04,961
Setiap hari, aku pulang dan mengerjakannya
selama beberapa jam setiap malam.
154
00:09:06,171 --> 00:09:11,885
Pada dasarnya tertulis,
belum pernah ada 50 desainer,
155
00:09:12,427 --> 00:09:15,263
dari pria kulit putih berusia 20-35 tahun
di California,
156
00:09:15,889 --> 00:09:19,726
membuat keputusan yang akan berdampak
pada dua miliar orang.
157
00:09:21,019 --> 00:09:24,439
Dua miliar orang akan mendapat ide
yang tak mereka niatkan
158
00:09:24,522 --> 00:09:28,401
karena desainer di Google berkata,
"Ini cara notifikasi bekerja
159
00:09:28,485 --> 00:09:30,779
di layar yang kau lihat saat bangun pagi."
160
00:09:30,862 --> 00:09:35,283
Kami punya tanggung jawab moral
sebagai Google untuk pecahkan masalah ini.
161
00:09:36,076 --> 00:09:37,744
Aku mengirim presentasi ini
162
00:09:37,827 --> 00:09:41,790
ke 15 hingga 20 rekan terdekatku
di Google.
163
00:09:41,873 --> 00:09:44,959
Aku sangat gugup
dan tak yakin bagaimana reaksinya.
164
00:09:46,461 --> 00:09:48,046
Saat bekerja keesokan harinya,
165
00:09:48,129 --> 00:09:50,465
mayoritas laptop menampilkan
presentasi itu.
166
00:09:50,548 --> 00:09:52,050
PERHATIAN
167
00:09:52,133 --> 00:09:54,552
Kemudian pada hari itu,
ada 400 penonton serentak,
168
00:09:54,636 --> 00:09:57,972
jadi, itu terus menyebar.
Aku menerima surel dari seisi perusahaan.
169
00:09:58,181 --> 00:10:00,266
Orang-orang di setiap departemen berkata,
170
00:10:00,350 --> 00:10:02,852
"Aku setuju.
Kulihat ini memengaruhi anak-anakku
171
00:10:02,936 --> 00:10:06,856
dan orang-orang di sekitarku.
Kita harus melakukan sesuatu."
172
00:10:07,482 --> 00:10:10,819
Rasanya seperti aku meluncurkan revolusi
atau semacamnya.
173
00:10:11,861 --> 00:10:15,198
Kemudian, aku tahu
Larry Page diberi tahu soal presentasi ini
174
00:10:15,281 --> 00:10:17,116
dalam tiga pertemuan terpisah hari itu.
175
00:10:17,951 --> 00:10:20,286
Itu menciptakan semacam momen budaya
176
00:10:20,870 --> 00:10:23,206
yang harus Google anggap serius.
177
00:10:26,000 --> 00:10:26,918
Lalu...
178
00:10:28,461 --> 00:10:29,295
sirna.
179
00:10:34,300 --> 00:10:36,136
Semua orang pada tahun 2006...
180
00:10:37,345 --> 00:10:39,222
termasuk kami di Facebook,
181
00:10:39,305 --> 00:10:43,393
sangat mengagumi Google
dan apa yang telah Google bangun,
182
00:10:43,476 --> 00:10:47,397
yaitu sebuah layanan yang sangat berguna,
183
00:10:47,480 --> 00:10:51,442
yang sejauh kami tahu,
memberi banyak kebaikan bagi dunia.
184
00:10:51,526 --> 00:10:55,196
Mereka pun membangun
mesin penghasil uang paralel.
185
00:10:55,697 --> 00:11:00,034
Kami sangat iri dengan itu.
Bagi kami, itu tampak sangat elegan
186
00:11:00,827 --> 00:11:02,162
dan sempurna.
187
00:11:03,037 --> 00:11:05,206
Facebook sudah ada selama dua tahun
188
00:11:05,874 --> 00:11:08,376
dan aku direkrut untuk mencari tahu
189
00:11:08,459 --> 00:11:10,587
model bisnis untuk perusahaan.
190
00:11:10,670 --> 00:11:13,423
Aku Direktur Monetisasi. Intinya adalah,
191
00:11:13,506 --> 00:11:17,051
"Kau yang akan mencari tahu
cara hal ini menghasilkan uang."
192
00:11:17,135 --> 00:11:19,804
Ada banyak orang
yang melakukan banyak pekerjaan,
193
00:11:19,888 --> 00:11:25,643
tapi aku jelas salah satu orang
yang menunjukkan...
194
00:11:26,769 --> 00:11:28,605
kami harus menghasilkan uang...
195
00:11:29,314 --> 00:11:33,651
dan kurasa model pengiklanan ini
mungkin cara yang paling elegan.
196
00:11:43,077 --> 00:11:44,454
Video apa yang baru Ibu kirim?
197
00:11:44,537 --> 00:11:47,790
Itu dari gelar wicara, tapi cukup bagus.
Pria itu genius.
198
00:11:47,874 --> 00:11:50,668
Dia membahas penghapusan media sosial,
yang harus kau lakukan.
199
00:11:50,752 --> 00:11:52,879
Aku mungkin harus mulai
memblokir surelnya.
200
00:11:52,962 --> 00:11:56,049
Sungguh, aku tak paham ucapannya.
Dia lebih buruk dariku.
201
00:11:56,132 --> 00:11:58,468
- Dia hanya memakainya untuk resep.
- Juga bekerja.
202
00:11:58,551 --> 00:12:00,637
- Serta video olahraga.
- Juga tahu kabar kita.
203
00:12:00,720 --> 00:12:03,306
Serta kabar semua orang yang pernah
dia temui di hidupnya.
204
00:12:04,933 --> 00:12:07,894
Jika Anda memeriksa
umpan berita media sosial
205
00:12:07,977 --> 00:12:11,731
sambil menonton kami,
Anda harus taruh ponselnya dan dengarkan
206
00:12:11,814 --> 00:12:14,817
karena tamu kita berikutnya telah menulis
buku yang luar biasa
207
00:12:14,901 --> 00:12:18,112
soal betapa itu menghancurkan hidup kita.
208
00:12:18,196 --> 00:12:19,447
Tolong sambut penulis
209
00:12:19,530 --> 00:12:24,452
Ten Arguments For Deleting
Your Social Media Accounts Right Now,
210
00:12:24,535 --> 00:12:25,787
Jaron Lanier.
211
00:12:26,287 --> 00:12:27,288
Itu benar.
212
00:12:27,997 --> 00:12:31,834
Perusahaan seperti Google dan Facebook
adalah yang terkaya
213
00:12:31,918 --> 00:12:33,628
dan tersukses sepanjang masa.
214
00:12:34,295 --> 00:12:36,839
Mereka punya pegawai yang relatif sedikit.
215
00:12:36,923 --> 00:12:40,760
Mereka punya komputer raksasa
yang mudah menghasilkan uang, bukan?
216
00:12:41,511 --> 00:12:45,223
Untuk apa mereka dibayar?
Itu pertanyaan yang sangat penting.
217
00:12:47,308 --> 00:12:50,186
Aku sudah menjadi investor
di bidang teknologi selama 35 tahun.
218
00:12:51,020 --> 00:12:54,357
Pada 50 tahun pertama Silicon Valley,
industri ini membuat produk,
219
00:12:54,440 --> 00:12:56,526
perangkat keras dan lunak,
dijual ke pelanggan.
220
00:12:56,609 --> 00:12:58,403
Itu bisnis yang sederhana.
221
00:12:58,486 --> 00:13:01,531
Selama sepuluh tahun terakhir,
perusahaan terbesar di Silicon Valley
222
00:13:01,614 --> 00:13:03,866
berbisnis dengan menjual penggunanya.
223
00:13:03,950 --> 00:13:05,910
Bahkan kini agak basi untuk mengatakannya,
224
00:13:05,994 --> 00:13:09,205
tapi karena kita tak membayar produk
yang kita gunakan,
225
00:13:09,288 --> 00:13:12,166
pengiklan membayar
produk yang kita gunakan.
226
00:13:12,250 --> 00:13:14,085
Pengiklan adalah pelanggannya.
227
00:13:14,711 --> 00:13:16,087
Kitalah yang dijual.
228
00:13:16,170 --> 00:13:17,630
Pepatah klasiknya adalah,
229
00:13:17,714 --> 00:13:21,592
"Jika kau tak membayar produknya,
berarti kaulah produknya."
230
00:13:21,676 --> 00:13:23,302
KAULAH PRODUKNYA
231
00:13:23,386 --> 00:13:27,140
Banyak orang berpikir,
"Google hanyalah kotak pencarian
232
00:13:27,223 --> 00:13:29,851
dan Facebook hanya tempat
untuk melihat kabar teman-temanku
233
00:13:29,934 --> 00:13:31,102
dan melihat foto mereka."
234
00:13:31,185 --> 00:13:35,481
Namun, mereka tak sadar
mereka bersaing memikat perhatianmu.
235
00:13:36,524 --> 00:13:41,112
Jadi, Facebook, Snapchat, Twitter,
Instagram, YouTube,
236
00:13:41,195 --> 00:13:45,491
model bisnis perusahaan seperti ini
adalah membuat orang terpaku di layar.
237
00:13:46,284 --> 00:13:49,579
Mari kita cari tahu
cara mendapatkan perhatian orang ini
238
00:13:49,662 --> 00:13:50,955
sebanyak mungkin.
239
00:13:51,456 --> 00:13:53,541
Kami bisa membuatmu
habiskan waktu selama apa?
240
00:13:53,916 --> 00:13:56,794
Kami bisa membuatmu memberi hidupmu
sebanyak apa kepada kami?
241
00:13:58,671 --> 00:14:01,090
Saat memikirkan
cara kerja beberapa perusahaan ini,
242
00:14:01,174 --> 00:14:02,508
itu mulai menjadi masuk akal.
243
00:14:03,051 --> 00:14:06,095
Ada banyak layanan di internet
yang kita anggap gratis.
244
00:14:06,179 --> 00:14:09,474
Namun, itu tak gratis.
Semua itu dibayar oleh pengiklan.
245
00:14:09,557 --> 00:14:11,559
Kenapa pengiklan membayar perusahaan itu?
246
00:14:11,642 --> 00:14:14,687
Mereka membayar
untuk menampilkan iklan kepada kita.
247
00:14:14,771 --> 00:14:15,730
Kitalah produknya.
248
00:14:15,813 --> 00:14:18,358
Perhatian kita adalah produk
yang dijual ke pengiklan.
249
00:14:18,816 --> 00:14:20,443
Itu agak terlalu sederhana.
250
00:14:20,818 --> 00:14:23,654
Perubahan perlahan, kecil,
dan tak terlihat
251
00:14:23,738 --> 00:14:26,074
dalam perilaku dan persepsi kita,
itulah produknya.
252
00:14:26,157 --> 00:14:27,575
PERUBAHAN PERILAKU DAN PERSEPSI
253
00:14:27,658 --> 00:14:30,244
Itulah produknya.
Hanya itu produk yang mungkin.
254
00:14:30,328 --> 00:14:34,082
Tak ada kemungkinan lain
yang bisa disebut produk.
255
00:14:34,165 --> 00:14:37,251
Hanya itu sumber uang mereka.
256
00:14:37,668 --> 00:14:39,253
Mengubah perilaku,
257
00:14:39,337 --> 00:14:41,714
cara berpikir, dan jati diri kita.
258
00:14:42,632 --> 00:14:45,301
Perubahannya perlahan dan kecil.
259
00:14:45,384 --> 00:14:48,971
Jika bisa datangi seseorang dan berkata,
"Beri aku sepuluh juta dolar
260
00:14:49,055 --> 00:14:54,310
dan akan kuubah dunia
satu persen ke arah yang kau mau..."
261
00:14:54,894 --> 00:14:58,189
Itu dunia! Itu bisa luar biasa
dan harganya mahal.
262
00:14:59,315 --> 00:15:00,149
Baiklah.
263
00:15:00,691 --> 00:15:04,570
Inilah yang selalu diimpikan semua bisnis,
264
00:15:04,654 --> 00:15:10,910
untuk memiliki jaminan keberhasilan
saat iklannya dipasang.
265
00:15:11,285 --> 00:15:12,787
Itulah bisnis mereka.
266
00:15:12,995 --> 00:15:14,789
Mereka menjual kepastian.
267
00:15:14,997 --> 00:15:17,625
Agar sukses dalam bisnis itu,
268
00:15:17,708 --> 00:15:19,752
kita harus punya prediksi bagus.
269
00:15:20,044 --> 00:15:24,173
Prediksi besar dimulai
dengan satu hal penting.
270
00:15:25,216 --> 00:15:26,926
Kita butuh banyak data.
271
00:15:27,009 --> 00:15:29,011
KITA BUTUH BANYAK DATA
272
00:15:29,137 --> 00:15:31,556
Banyak orang menyebut ini
kapitalisme pengawasan.
273
00:15:31,639 --> 00:15:34,350
Kapitalisme yang mengambil untung
dari jejak tak terbatas
274
00:15:34,434 --> 00:15:38,062
dari semua tempat yang semua orang datangi
oleh perusahaan teknologi besar
275
00:15:38,146 --> 00:15:40,398
yang model bisnisnya adalah memastikan
276
00:15:40,481 --> 00:15:42,859
pengiklan bisa sesukses mungkin.
277
00:15:43,151 --> 00:15:45,570
Inilah jenis lokapasar baru saat ini.
278
00:15:45,653 --> 00:15:48,072
Ini lokapasar yang belum pernah ada.
279
00:15:48,823 --> 00:15:55,371
Ini lokapasar yang hanya memperdagangkan
prediksi nilai saham manusia.
280
00:15:56,330 --> 00:15:58,499
Seperti pasar yang memperdagangkan
281
00:15:58,583 --> 00:16:01,586
prediksi nilai saham perut babi
atau minyak.
282
00:16:02,128 --> 00:16:04,714
Kini kita punya pasar yang memperdagangkan
283
00:16:04,797 --> 00:16:07,592
prediksi nilai saham manusia
dalam skala besar
284
00:16:08,176 --> 00:16:13,472
dan pasar itu telah menghasilkan
triliunan dolar
285
00:16:14,015 --> 00:16:19,270
yang menjadikan perusahaan internet
sebagai perusahaan terkaya
286
00:16:19,353 --> 00:16:22,565
dalam sejarah kemanusiaan.
287
00:16:27,445 --> 00:16:31,073
Aku ingin orang tahu
semua yang mereka lakukan di internet
288
00:16:31,157 --> 00:16:34,327
diawasi, dilacak, dan diukur.
289
00:16:35,036 --> 00:16:39,624
Setiap tindakan yang kita lakukan dipantau
dan direkam dengan hati-hati.
290
00:16:39,707 --> 00:16:43,836
Misalnya, gambar yang kita lihat
dan berapa lama kita melihatnya.
291
00:16:43,920 --> 00:16:45,796
Ya, sungguh, berapa lama kau melihatnya.
292
00:16:45,880 --> 00:16:47,548
NAVIYA_R
WAKTU KETERLIBATAN
293
00:16:47,632 --> 00:16:49,217
RYAN_M
WAKTU KETERLIBATAN
294
00:16:49,300 --> 00:16:50,426
WREN_F
WAKTU KETERLIBATAN
295
00:16:50,510 --> 00:16:53,804
Mereka tahu saat orang kesepian, depresi,
296
00:16:53,888 --> 00:16:57,099
dan tahu saat orang melihat
foto mantan pasanganmu.
297
00:16:57,183 --> 00:17:00,853
Mereka tahu yang kau lakukan
saat larut malam. Mereka tahu semuanya.
298
00:17:01,229 --> 00:17:03,231
Entah kau introver, ekstrover,
299
00:17:03,314 --> 00:17:06,943
jenis neurosis yang kau punya,
atau seperti apa kepribadianmu.
300
00:17:08,194 --> 00:17:11,614
Mereka punya lebih banyak informasi
soal kita
301
00:17:11,697 --> 00:17:14,325
daripada yang pernah dibayangkan
dalam sejarah manusia.
302
00:17:14,951 --> 00:17:16,452
Ini belum pernah terjadi.
303
00:17:18,579 --> 00:17:22,792
Jadi, semua data yang kita berikan
setiap saat
304
00:17:22,875 --> 00:17:26,754
dimasukkan ke sistem
yang nyaris tak diawasi manusia,
305
00:17:27,463 --> 00:17:30,883
yang terus membuat
prediksi yang makin membaik
306
00:17:30,967 --> 00:17:33,552
tentang apa yang akan kita lakukan
dan siapa kita.
307
00:17:34,887 --> 00:17:36,347
DIREKOMENDASIKAN UNTUKMU
308
00:17:36,430 --> 00:17:39,684
Banyak orang salah memahami
bahwa data kita yang dijual.
309
00:17:40,351 --> 00:17:43,187
Memberi data secara gratis
bukanlah minat bisnis Facebook.
310
00:17:45,523 --> 00:17:47,108
Mereka apakan data itu?
311
00:17:51,070 --> 00:17:54,490
Mereka membuat model
yang memprediksi tindakan kita.
312
00:17:54,574 --> 00:17:57,618
Siapa pun yang punya model terbaik
akan menang.
313
00:18:02,707 --> 00:18:04,041
Kecepatan gulungnya melambat.
314
00:18:04,125 --> 00:18:06,919
Mendekati akhir rata-rata durasi sesinya,
mengurangi iklan.
315
00:18:07,003 --> 00:18:08,337
Tampilkan teman dan keluarga.
316
00:18:09,672 --> 00:18:11,340
Di sisi lain layar,
317
00:18:11,424 --> 00:18:15,469
mereka seperti punya model boneka voodoo
yang menyerupai kita.
318
00:18:16,762 --> 00:18:18,180
Semua yang pernah kita lakukan,
319
00:18:18,264 --> 00:18:19,473
semua klik yang kita buat,
320
00:18:19,557 --> 00:18:21,684
semua video yang kita tonton,
semua tombol suka.
321
00:18:21,767 --> 00:18:25,354
Semua itu diolah untuk membangun
model yang lebih akurat.
322
00:18:25,896 --> 00:18:27,481
Setelah modelnya ada,
323
00:18:27,565 --> 00:18:29,859
kita bisa memprediksi
hal-hal yang dilakukan orang.
324
00:18:30,151 --> 00:18:31,944
Baiklah, coba aku tes.
325
00:18:32,570 --> 00:18:34,405
Ke mana kau akan pergi, bisa kuprediksi
326
00:18:34,488 --> 00:18:36,198
video apa yang akan terus kau tonton.
327
00:18:36,282 --> 00:18:39,160
Aku bisa memprediksi emosi macam apa
yang memicumu.
328
00:18:39,243 --> 00:18:40,411
Ya, sempurna.
329
00:18:41,579 --> 00:18:43,372
Kegagalan terhebat tahun ini.
330
00:18:43,748 --> 00:18:44,665
KEGAGALAN HEBAT!
331
00:18:48,628 --> 00:18:51,088
- Sempurna, itu berhasil.
- Disusul video lain.
332
00:18:51,172 --> 00:18:54,050
Bagus. Mari selipkan iklan sepatu
sebelum videonya diputar.
333
00:18:56,427 --> 00:18:59,722
Ada tiga tujuan utama
di banyak perusahaan teknologi ini.
334
00:18:59,805 --> 00:19:03,517
Ada tujuan keterlibatan untuk menaikkan
penggunaanmu, agar terus gulirkan layar.
335
00:19:04,602 --> 00:19:06,145
Ada tujuan pertumbuhan
336
00:19:06,228 --> 00:19:08,689
untuk membuatmu kembali,
mengundang banyak teman,
337
00:19:08,773 --> 00:19:10,816
dan agar mereka mengundang
lebih banyak teman.
338
00:19:11,650 --> 00:19:14,987
Lalu ada tujuan iklan untuk memastikan
bahwa seiring semua itu terjadi,
339
00:19:15,071 --> 00:19:17,406
kami menghasilkan
uang sebanyak mungkin dari iklan.
340
00:19:19,367 --> 00:19:21,952
Masing-masing tujuan ini ditenagai
oleh algoritme
341
00:19:22,036 --> 00:19:24,455
yang bertugas mencari tahu
apa yang harus ditunjukkan
342
00:19:24,538 --> 00:19:26,165
agar jumlahnya terus naik.
343
00:19:26,624 --> 00:19:29,919
Di Facebook, kami sering membahas ide
344
00:19:30,002 --> 00:19:34,006
untuk bisa mengaturnya sesuai kebutuhan.
345
00:19:34,674 --> 00:19:38,594
Kami membahas
soal meminta Mark mengaturnya.
346
00:19:41,305 --> 00:19:44,600
"Hei, aku ingin lebih banyak pengguna
di Korea hari ini."
347
00:19:45,684 --> 00:19:46,769
Putar pengaturnya.
348
00:19:47,436 --> 00:19:49,271
"Mari tambah iklannya sedikit."
349
00:19:49,980 --> 00:19:51,816
"Tambah monetisasinya sedikit."
350
00:19:53,150 --> 00:19:55,444
Jadi, itu...
351
00:19:55,528 --> 00:19:59,240
Di semua perusahaan ini,
ada tingkat presisi sebesar itu.
352
00:19:59,990 --> 00:20:02,410
- Bung...
- Entah kenapa aku tak diberi kartu.
353
00:20:02,493 --> 00:20:05,704
- Wasit itu payah.
- Kau benar-benar...
354
00:20:05,788 --> 00:20:08,040
- Itu Rebecca. Bicaralah.
- Aku tahu siapa dia.
355
00:20:08,124 --> 00:20:10,835
- Kau saja yang bicara.
- Sedang kuusahakan.
356
00:20:10,918 --> 00:20:14,171
Menurut kalendernya, dia sedang istirahat.
Seharusnya kita sudah mulai.
357
00:20:15,464 --> 00:20:16,465
Mau kudorong dia?
358
00:20:17,133 --> 00:20:18,050
Lakukanlah.
359
00:20:21,720 --> 00:20:24,181
"Temanmu, Tyler, baru bergabung.
Beri lambaian."
360
00:20:26,016 --> 00:20:27,184
Ayolah.
361
00:20:27,268 --> 00:20:28,769
Kirimkan lambaian tangan.
362
00:20:29,395 --> 00:20:31,647
Kau bahkan tidak...
Hei, bicaralah dengannya.
363
00:20:31,730 --> 00:20:34,900
TEMANMU, TYLER, BARU BERGABUNG!
BERI LAMBAIAN!
364
00:20:36,902 --> 00:20:37,987
KONEKSI JARINGAN
365
00:20:38,070 --> 00:20:40,573
Koneksi baru! Baiklah, kita masuk.
366
00:20:40,948 --> 00:20:46,078
Lanjutkan dengan pos
dari pengguna 079044238820, Rebecca.
367
00:20:46,162 --> 00:20:49,790
Ide bagus. Koordinat GPS menunjukkan
jarak mereka berdekatan.
368
00:20:52,168 --> 00:20:55,838
REBECCA_G
KUTEMUKAN BELAHAN JIWAKU!
369
00:20:55,921 --> 00:20:57,173
Dia siap untuk iklan.
370
00:20:57,631 --> 00:20:58,632
Waktu lelang.
371
00:20:58,716 --> 00:21:00,050
PRATINJAU IKLAN
372
00:21:00,509 --> 00:21:02,803
Terjual! Untuk lilin rambut Deep Fade.
373
00:21:03,387 --> 00:21:04,847
Ada 468 penawar yang berminat.
374
00:21:04,930 --> 00:21:08,225
Kita menjual Ben seharga 3,262 sen
untuk satu impresi.
375
00:21:17,109 --> 00:21:21,530
Kita telah menciptakan dunia
tempat koneksi daring menjadi hal utama,
376
00:21:22,072 --> 00:21:23,908
khususnya bagi generasi muda.
377
00:21:23,991 --> 00:21:28,329
Namun, di dunia itu,
setiap dua orang terhubung,
378
00:21:29,163 --> 00:21:33,250
itu hanya bisa didanai
oleh orang ketiga yang licik
379
00:21:33,334 --> 00:21:35,628
yang membayar
untuk memanipulasi dua orang itu.
380
00:21:36,128 --> 00:21:39,381
Jadi, kita menciptakan
seluruh generasi global
381
00:21:39,465 --> 00:21:44,011
yang dibesarkan dalam konteks
bahwa makna sebenarnya dari komunikasi
382
00:21:44,094 --> 00:21:47,431
dan budaya adalah manipulasi.
383
00:21:47,515 --> 00:21:49,725
Kita telah menempatkan penipuan
dan kelicikan
384
00:21:49,808 --> 00:21:52,311
di tengah-tengah dari semua usaha kita.
385
00:21:56,732 --> 00:22:01,153
"SEMUA TEKNOLOGI YANG CANGGIH
386
00:22:01,237 --> 00:22:05,658
TIDAKLAH BERBEDA DARI SULAP."
ARTHUR C. CLARKE
387
00:22:05,741 --> 00:22:07,159
- Pegang sisi lainnya...
- Baik.
388
00:22:07,243 --> 00:22:09,370
- Di mana tempat menaruh yang baik?
- Itu bagus.
389
00:22:09,453 --> 00:22:10,621
- Di sini?
- Ya.
390
00:22:10,704 --> 00:22:13,707
Seperti apa ini tampil di kamera
jika kulakukan...
391
00:22:13,791 --> 00:22:15,501
- Sebenarnya, kami...
- Seperti itu?
392
00:22:15,584 --> 00:22:16,836
- Apa?
- Ya.
393
00:22:16,919 --> 00:22:18,546
- Bisa lakukan lagi?
- Baik.
394
00:22:19,046 --> 00:22:20,589
Ya. Itu mungkin tidak...
395
00:22:20,673 --> 00:22:21,966
Ya.
396
00:22:22,466 --> 00:22:23,884
Yang satu ini kurang...
397
00:22:31,016 --> 00:22:33,269
Chris benar-benar kebingungan di sini.
398
00:22:34,728 --> 00:22:35,563
Apa itu bagus?
399
00:22:35,646 --> 00:22:37,773
SULAP!
400
00:22:37,856 --> 00:22:41,068
Usiaku lima tahun saat belajar sulap.
401
00:22:41,151 --> 00:22:45,781
Aku bisa membodohi para orang dewasa
yang bergelar doktor.
402
00:22:55,040 --> 00:22:58,919
Pesulap itu hampir seperti ahli saraf
dan psikolog pertama.
403
00:22:59,003 --> 00:23:03,382
Mereka yang pertama memahami
cara kerja pikiran orang.
404
00:23:04,216 --> 00:23:07,678
Mereka secara langsung menguji banyak hal
pada orang-orang.
405
00:23:09,138 --> 00:23:11,140
Seorang pesulap memahami sesuatu,
406
00:23:11,223 --> 00:23:14,018
sebagian dari pikiranmu
yang tak kita sadari.
407
00:23:14,101 --> 00:23:15,936
Itulah yang membuat ilusi berhasil.
408
00:23:16,270 --> 00:23:17,688
Dokter, pengacara,
409
00:23:17,771 --> 00:23:20,608
orang yang tahu cara membuat Boeing 747
atau misil nuklir,
410
00:23:20,691 --> 00:23:24,361
mereka tak lebih tahu
soal betapa rentannya pikiran mereka.
411
00:23:24,445 --> 00:23:26,155
Itu bidang ilmu yang berbeda.
412
00:23:26,572 --> 00:23:28,991
Itulah bidang ilmu yang berlaku
untuk semua manusia.
413
00:23:29,074 --> 00:23:30,910
UNIVERSITAS STANFORD
414
00:23:30,993 --> 00:23:34,079
Dari sudut pandang itu, kita bisa memiliki
pemahaman sangat berbeda
415
00:23:34,163 --> 00:23:35,706
soal hal yang teknologi lakukan.
416
00:23:36,874 --> 00:23:39,585
Saat belajar
di Lab Teknologi Persuasif Stanford,
417
00:23:39,668 --> 00:23:41,045
inilah yang kami pelajari.
418
00:23:41,587 --> 00:23:43,505
Bagaimana memanfaatkan
semua yang kita tahu
419
00:23:43,589 --> 00:23:45,883
tentang psikologi dari cara membujuk orang
420
00:23:45,966 --> 00:23:48,385
dan menjadikannya teknologi?
421
00:23:48,469 --> 00:23:50,763
Banyak dari kalian yang hadir
yang sudah genius.
422
00:23:50,846 --> 00:23:53,682
Kurasa itu benar,
tapi tujuanku adalah menjadikan kalian
423
00:23:53,766 --> 00:23:55,893
genius dalam perubahan perilaku.
424
00:23:56,852 --> 00:24:01,148
Ada banyak tokoh ternama di Silicon Valley
yang mengikuti kelas itu,
425
00:24:01,231 --> 00:24:05,486
tokoh kunci pertumbuhan di Facebook, Uber,
juga perusahaan lain,
426
00:24:05,569 --> 00:24:09,198
dan belajar membuat teknologi
lebih persuasif,
427
00:24:09,615 --> 00:24:10,950
Tristan salah satunya.
428
00:24:12,242 --> 00:24:14,620
Teknologi persuasif itu semacam desain
429
00:24:14,703 --> 00:24:16,580
yang sengaja diterapkan secara ekstrem,
430
00:24:16,664 --> 00:24:18,874
agar kami bisa mengubah
perilaku seseorang.
431
00:24:18,958 --> 00:24:20,542
Kami ingin mereka melakukan sesuatu
432
00:24:20,626 --> 00:24:23,337
dan terus melakukan ini
dengan jari mereka.
433
00:24:23,420 --> 00:24:26,256
Jika tarik layar dan segarkan,
akan muncul hal baru di atas.
434
00:24:26,340 --> 00:24:28,509
Tarik dan segarkan lagi, hal baru.
Setiap kali.
435
00:24:28,592 --> 00:24:33,722
Dalam psikologi,
itu disebut penguat intermiten positif.
436
00:24:33,806 --> 00:24:37,142
Kita tak tahu kapan
atau apakah kita akan mendapatkannya.
437
00:24:37,226 --> 00:24:40,062
Itu bekerja seperti mesin slot di Vegas.
438
00:24:40,145 --> 00:24:42,189
Bukan hanya memakai
produknya secara sadar,
439
00:24:42,272 --> 00:24:44,024
tapi aku mau masuk jauh ke batang otak
440
00:24:44,108 --> 00:24:47,653
dan menanamkan kebiasaan secara tak sadar
di dalam dirimu
441
00:24:47,736 --> 00:24:50,781
agar kau diprogram secara lebih mendalam.
442
00:24:50,864 --> 00:24:52,116
Kau bahkan tak sadar.
443
00:24:52,408 --> 00:24:53,867
Pria bernama James Marshall...
444
00:24:53,951 --> 00:24:56,286
Setiap itu tampak di atas meja,
445
00:24:56,370 --> 00:24:59,790
kau melihatnya
dan tahu jika kau mengambilnya,
446
00:24:59,873 --> 00:25:01,333
mungkin ada sesuatu untukmu.
447
00:25:01,417 --> 00:25:03,877
Jadi, kau memainkannya
untuk melihat kau dapat apa.
448
00:25:04,211 --> 00:25:06,046
Itu bukan kebetulan, tapi teknik desain.
449
00:25:06,130 --> 00:25:11,135
Dia membawa bungkal emas
ke perwira AD di San Francisco.
450
00:25:12,219 --> 00:25:15,389
Ingatlah, populasi San Francisco hanya...
451
00:25:15,472 --> 00:25:17,433
Contoh lainnya adalah penandaan foto.
452
00:25:19,727 --> 00:25:24,064
Jadi, jika menerima surel yang menyebutkan
temanmu baru saja menandaimu di foto,
453
00:25:24,148 --> 00:25:28,569
tentu kau akan membuka surel itu
dan melihat fotonya.
454
00:25:29,153 --> 00:25:31,947
Itu bukan hal yang bisa kau abaikan
begitu saja.
455
00:25:32,364 --> 00:25:36,326
Ini adalah kepribadian mendalam manusia
yang mereka manfaatkan.
456
00:25:36,410 --> 00:25:37,995
Yang harus kau tanyakan adalah,
457
00:25:38,078 --> 00:25:40,289
"Kenapa surel itu tak berisi fotonya?
458
00:25:40,372 --> 00:25:42,458
Maka akan lebih mudah melihat fotonya."
459
00:25:42,708 --> 00:25:45,919
Saat Facebook menemukan fitur itu,
mereka memaksimalkannya
460
00:25:46,003 --> 00:25:48,505
karena itu dianggap bagus
untuk menumbuhkan aktivitas.
461
00:25:48,589 --> 00:25:51,091
Mari buat orang saling menandai foto
sepanjang hari."
462
00:25:56,263 --> 00:25:58,891
SETIDAKNYA SALAH SATU DARI KITA
TAMPAK BAGUS
463
00:25:59,349 --> 00:26:00,476
Dia berkomentar.
464
00:26:00,559 --> 00:26:01,435
Bagus.
465
00:26:01,935 --> 00:26:04,688
Rebecca menerimanya dan dia merespons.
466
00:26:04,772 --> 00:26:07,566
Beri tahu Ben Rebecca mengetik
agar kita tak kehilangan dia.
467
00:26:07,649 --> 00:26:08,901
Mengaktifkan elipsis.
468
00:26:09,234 --> 00:26:13,614
SETIDAKNYA SALAH SATU DARI KITA
TAMPAK BAGUS
469
00:26:19,411 --> 00:26:20,788
Bagus, dia menjawab.
470
00:26:21,538 --> 00:26:24,249
Dia mengomentari komentarnya
soal komentarnya di posnya.
471
00:26:25,042 --> 00:26:26,418
Tunggu, dia berhenti mengetik.
472
00:26:26,752 --> 00:26:27,753
Beri isi otomatis.
473
00:26:28,420 --> 00:26:30,005
Emoji. Dia suka emoji.
474
00:26:31,381 --> 00:26:33,759
ISI OTOMATIS
KETERLIBATAN
475
00:26:33,842 --> 00:26:34,676
Dia memilih api.
476
00:26:35,427 --> 00:26:36,804
Tadi kuharap terung.
477
00:26:38,597 --> 00:26:42,726
Ada disiplin dan bidang ilmu
yang disebut "peretasan pertumbuhan".
478
00:26:42,810 --> 00:26:47,147
Tim teknisi yang bertugas
meretas psikologi orang
479
00:26:47,231 --> 00:26:48,565
agar dapat pertumbuhan lebih.
480
00:26:48,649 --> 00:26:51,026
Mendapat pendaftaran pengguna
dan keterlibatan lebih,
481
00:26:51,110 --> 00:26:52,861
juga membuat kita mengajak orang lagi.
482
00:26:52,945 --> 00:26:55,989
Setelah semua tes, iterasi,
dan semua ini,
483
00:26:56,073 --> 00:26:57,908
tahu hal terbesar yang kami sadari?
484
00:26:57,991 --> 00:27:00,994
Buat orang ajak tujuh teman
dalam sepuluh hari.
485
00:27:01,954 --> 00:27:02,871
Itu saja.
486
00:27:02,955 --> 00:27:05,499
Dulu Chamath adalah
kepala pertumbuhan Facebook
487
00:27:05,582 --> 00:27:08,252
dan dia sangat terkenal
di industri teknologi
488
00:27:08,335 --> 00:27:11,004
karena memelopori
banyak taktik pertumbuhan
489
00:27:11,088 --> 00:27:14,758
yang digunakan untuk menumbuhkan Facebook
dengan sangat cepat.
490
00:27:14,842 --> 00:27:18,512
Taktik pertumbuhan itu lalu menjadi
standar untuk Silicon Valley.
491
00:27:18,595 --> 00:27:21,223
Itu digunakan di Uber
dan beberapa perusahaan lain.
492
00:27:21,306 --> 00:27:27,062
Salah satu yang dia pelopori adalah
penggunaan uji A/B ilmiah
493
00:27:27,146 --> 00:27:28,480
dari perubahan fitur kecil.
494
00:27:29,022 --> 00:27:30,941
Perusahaan seperti Google dan Facebook
495
00:27:31,024 --> 00:27:34,570
akan mengeluarkan
banyak eksperimen kecil
496
00:27:34,653 --> 00:27:36,822
yang terus mereka lakukan pada pengguna.
497
00:27:36,905 --> 00:27:39,867
Seiring waktu,
dengan terus menjalankan eksperimen ini,
498
00:27:39,950 --> 00:27:42,995
mereka mengembangkan cara paling maksimal
499
00:27:43,078 --> 00:27:45,289
untuk membuat pengguna
melakukan yang mereka mau.
500
00:27:45,372 --> 00:27:46,790
Itu manipulasi.
501
00:27:47,332 --> 00:27:49,418
Kau membuatku merasa
seperti kelinci percobaan.
502
00:27:49,835 --> 00:27:51,962
Kau memang kelinci percobaan.
Kita semua begitu.
503
00:27:52,546 --> 00:27:55,549
Namun, bukan kelinci percobaan
untuk mengembangkan obat kanker.
504
00:27:55,632 --> 00:27:58,135
Mereka bukan mencoba memperalat kita.
505
00:27:58,218 --> 00:28:01,513
Kita hanya zombi dan mereka ingin
kita melihat lebih banyak iklan
506
00:28:01,597 --> 00:28:03,265
agar mereka dapat lebih banyak uang.
507
00:28:03,557 --> 00:28:08,228
Facebook melakukan hal yang mereka sebut
"eksperimen penularan skala besar".
508
00:28:08,312 --> 00:28:09,146
Baiklah.
509
00:28:09,229 --> 00:28:12,858
Bagaimana gunakan petunjuk bawah sadar
di halaman Facebook
510
00:28:13,400 --> 00:28:17,571
agar lebih banyak orang memilih
di pemilu paruh waktu?
511
00:28:17,988 --> 00:28:20,824
Mereka mendapati
mereka mampu melakukan itu.
512
00:28:20,908 --> 00:28:24,161
Satu hal yang mereka simpulkan
adalah kini kita tahu
513
00:28:24,745 --> 00:28:28,916
kita bisa memengaruhi perilaku
dan emosi dunia nyata
514
00:28:28,999 --> 00:28:32,878
tanpa memicu kesadaran pengguna.
515
00:28:33,503 --> 00:28:37,382
Mereka sama sekali tak tahu.
516
00:28:38,050 --> 00:28:40,427
Kita mengarahkan
mesin inteligensi artifisial ini
517
00:28:40,510 --> 00:28:41,970
pada diri kita
518
00:28:42,054 --> 00:28:46,224
untuk merekayasa balik
pemicu respons kita.
519
00:28:47,100 --> 00:28:49,603
Hampir seperti menstimulasi
sel saraf laba-laba
520
00:28:49,686 --> 00:28:51,480
untuk melihat pemicu respons kakinya.
521
00:28:51,939 --> 00:28:53,941
Ini sungguh semacam eksperimen penjara
522
00:28:54,024 --> 00:28:56,735
tempat kita memaksa orang memasuki matriks
523
00:28:56,818 --> 00:29:00,530
lalu kita mengambil semua uang dan data
dari semua aktivitas mereka
524
00:29:00,614 --> 00:29:01,490
sebagai keuntungan.
525
00:29:01,573 --> 00:29:03,450
Kita bahkan tak tahu itu sedang terjadi.
526
00:29:04,117 --> 00:29:07,913
Kami ingin secara psikologis tahu
cara memanipulasimu secepat mungkin
527
00:29:07,996 --> 00:29:10,082
lalu membalasnya dengan stimulasi dopamin.
528
00:29:10,165 --> 00:29:12,542
Kami melakukannya dengan sangat baik
di Facebook.
529
00:29:12,626 --> 00:29:14,920
Instagram dan WhatsApp melakukannya.
530
00:29:15,003 --> 00:29:17,381
Snapchat dan Twitter melakukannya.
531
00:29:17,673 --> 00:29:19,424
Maksudku, itu persis ide
532
00:29:19,508 --> 00:29:22,427
yang akan dicetuskan
oleh peretas sepertiku
533
00:29:22,511 --> 00:29:27,432
karena kita mengeksploitasi kelemahan
dalam psikologi manusia.
534
00:29:27,766 --> 00:29:33,438
Kupikir kami, para penemu dan pencipta...
535
00:29:33,981 --> 00:29:37,317
Aku, Mark dan...
536
00:29:37,401 --> 00:29:40,404
Kevin Systrom di Instagram,
semua orang ini...
537
00:29:41,154 --> 00:29:46,451
memahami ini secara sadar
dan kami tetap melakukannya.
538
00:29:50,580 --> 00:29:53,750
Tak ada yang marah saat sepeda ditemukan.
539
00:29:55,043 --> 00:29:58,005
Benar, bukan?
Jika semua orang mulai mengendarai sepeda,
540
00:29:58,088 --> 00:30:00,966
tak ada yang bilang,
"Astaga, kita baru merusak masyarakat.
541
00:30:01,049 --> 00:30:03,051
Sepeda memengaruhi orang,
542
00:30:03,135 --> 00:30:05,304
menjauhkan mereka dari anak-anak mereka,
543
00:30:05,387 --> 00:30:08,724
merusak struktur demokrasi,
orang tak tahu mana yang benar."
544
00:30:08,807 --> 00:30:11,476
Kita tak pernah berkata begitu
soal sepeda.
545
00:30:12,769 --> 00:30:16,148
Jika sesuatu adalah alat,
ia hanya duduk diam di sana,
546
00:30:16,732 --> 00:30:18,734
menunggu dengan sabar.
547
00:30:19,318 --> 00:30:22,821
Jika sesuatu bukan alat,
ia menuntut sesuatu darimu,
548
00:30:22,904 --> 00:30:26,533
merayu, memanipulasi,
dan menginginkan sesuatu darimu.
549
00:30:26,950 --> 00:30:30,495
Kita beralih dari memiliki
lingkungan teknologi berbasis alat
550
00:30:31,038 --> 00:30:34,499
ke lingkungan teknologi berbasis kecanduan
dan manipulasi.
551
00:30:34,583 --> 00:30:35,709
Itu yang berubah.
552
00:30:35,792 --> 00:30:39,421
Media sosial bukan alat
yang menunggu untuk digunakan.
553
00:30:39,504 --> 00:30:43,467
Ia punya tujuan dan cara sendiri
untuk memperolehnya
554
00:30:43,550 --> 00:30:45,677
menggunakan psikologimu melawan dirimu.
555
00:30:49,056 --> 00:30:52,517
"HANYA ADA DUA INDUSTRI YANG MENYEBUT
PELANGGAN MEREKA 'PENGGUNA',
556
00:30:52,601 --> 00:30:57,481
NARKOBA DAN PERANTI LUNAK."
EDWARD TUFTE
557
00:30:57,564 --> 00:31:02,194
Beberapa tahun lalu,
aku adalah Presiden Pinterest.
558
00:31:03,153 --> 00:31:08,366
Aku pulang dan tak bisa menjauhi ponselku
begitu tiba di rumah,
559
00:31:08,450 --> 00:31:12,162
meski aku punya dua anak kecil
yang butuh cinta dan perhatianku.
560
00:31:12,245 --> 00:31:15,749
Aku ada di dapur, mengetik surel
561
00:31:15,832 --> 00:31:17,626
atau kadang melihat Pinterest.
562
00:31:18,001 --> 00:31:19,628
Kupikir, "Ini sungguh ironis.
563
00:31:19,711 --> 00:31:22,047
Aku akan bekerja di siang hari
564
00:31:22,130 --> 00:31:26,426
dan membangun sesuatu
yang kemudian memanipulasiku."
565
00:31:26,510 --> 00:31:30,097
Aku tak bisa... Maksudku, terkadang,
aku tak bisa menahan diri.
566
00:31:32,307 --> 00:31:36,103
Yang cenderung paling kugunakan
adalah Twitter.
567
00:31:36,728 --> 00:31:38,021
Tadinya Reddit.
568
00:31:38,105 --> 00:31:42,859
Aku bahkan harus membuat perangkat lunak
untuk hapus kecanduanku membaca Reddit.
569
00:31:45,404 --> 00:31:47,781
Aku mungkin kecanduan surel.
570
00:31:47,864 --> 00:31:49,866
Sungguh. Aku merasakannya.
571
00:31:52,577 --> 00:31:54,955
Rasanya menarik
572
00:31:55,038 --> 00:31:58,166
meski aku tahu
apa yang terjadi di balik layar,
573
00:31:58,250 --> 00:32:01,628
aku masih tak bisa mengendalikan
penggunaanku.
574
00:32:01,711 --> 00:32:03,255
Jadi, itu agak menakutkan.
575
00:32:03,630 --> 00:32:07,050
Meski tahu cara kerjanya,
aku masih rentan terhadapnya.
576
00:32:07,134 --> 00:32:09,886
Aku masih akan mengangkat ponsel
dan 20 menit akan berlalu.
577
00:32:12,806 --> 00:32:15,725
Apa kau memeriksa ponsel cerdasmu
sebelum kencing saat pagi
578
00:32:15,809 --> 00:32:17,477
atau sambil kencing saat pagi?
579
00:32:17,561 --> 00:32:19,479
Karena hanya ada dua opsi itu.
580
00:32:19,771 --> 00:32:23,275
Aku berusaha dengan tekad kuat,
581
00:32:23,358 --> 00:32:26,903
"Akan kutaruh dan kutinggalkan ponselku
di mobil saat pulang."
582
00:32:26,987 --> 00:32:30,574
Kurasa aku berkata pada diriku seribu kali
pada seribu hari berbeda,
583
00:32:30,657 --> 00:32:32,659
"Aku takkan membawa ponselku
ke kamar tidur,"
584
00:32:32,742 --> 00:32:34,536
lalu saat pukul 21.00 tiba.
585
00:32:34,619 --> 00:32:37,122
"Aku mau membawa ponselku ke kamar tidur."
586
00:32:37,956 --> 00:32:39,291
Jadi, itu semacam...
587
00:32:39,374 --> 00:32:41,126
Kekuatan tekad adalah usaha pertama,
588
00:32:41,209 --> 00:32:44,296
lalu usaha kedua adalah pemaksaan.
589
00:32:44,379 --> 00:32:45,881
Perkenalkan, ini Kitchen Safe,
590
00:32:45,964 --> 00:32:49,801
Kitchen Safe adalah
wadah berpengunci waktu revolusioner baru
591
00:32:49,885 --> 00:32:51,678
yang membantu Anda melawan godaan.
592
00:32:51,761 --> 00:32:56,725
David hanya perlu memasukkan godaan itu
ke Kitchen Safe.
593
00:32:57,392 --> 00:33:00,604
Selanjutnya, dia memutar tombol
untuk mengatur waktunya
594
00:33:01,480 --> 00:33:04,232
dan akhirnya, dia menekan tombol
untuk mengaktifkan kuncinya.
595
00:33:04,316 --> 00:33:05,525
Kitchen Safe ini bagus...
596
00:33:05,609 --> 00:33:06,693
Kita punya itu, bukan?
597
00:33:06,776 --> 00:33:08,570
...gim video, kartu kredit, dan ponsel.
598
00:33:08,653 --> 00:33:09,654
Ya, benar.
599
00:33:09,779 --> 00:33:11,114
Begitu Kitchen Safe terkunci,
600
00:33:11,198 --> 00:33:13,909
ini tak bisa dibuka
sampai waktunya mencapai nol.
601
00:33:13,992 --> 00:33:17,537
Jadi, ini masalahnya.
Media sosial adalah narkoba.
602
00:33:17,621 --> 00:33:20,874
Maksudku,
kita punya perintah biologis dasar
603
00:33:20,957 --> 00:33:23,084
untuk terhubung dengan orang lain.
604
00:33:23,168 --> 00:33:25,253
Itu secara langsung memengaruhi
605
00:33:25,378 --> 00:33:28,215
pelepasan dopamin
dalam "jalur kenikmatan".
606
00:33:28,298 --> 00:33:32,510
Jutaan tahun evolusi berada
di balik sistem itu
607
00:33:32,594 --> 00:33:35,597
untuk membuat kita berkumpul
dan hidup di komunitas,
608
00:33:35,680 --> 00:33:38,016
mencari pasangan,
dan menyebarkan spesies kita.
609
00:33:38,099 --> 00:33:41,853
Jadi, tak diragukan lagi medium
seperti media sosial
610
00:33:41,937 --> 00:33:45,690
yang mengoptimalkan
hubungan antarorang ini
611
00:33:45,774 --> 00:33:48,568
akan memiliki potensi kecanduan.
612
00:33:52,739 --> 00:33:54,115
Ayah, hentikan!
613
00:33:55,450 --> 00:33:58,453
Aku harus mengirim seribu Snip lagi
sebelum makan malam.
614
00:33:58,536 --> 00:33:59,538
Snip?
615
00:33:59,621 --> 00:34:01,081
Aku tak tahu apa itu Snip.
616
00:34:01,164 --> 00:34:03,208
- Aromanya enak, Sayang.
- Terima kasih.
617
00:34:03,291 --> 00:34:07,712
Kupikir kita butuh kelima indra
untuk menikmati makan malam kita.
618
00:34:07,796 --> 00:34:11,383
Jadi, kuputuskan tak boleh ada ponsel
di meja malam ini.
619
00:34:11,466 --> 00:34:13,301
Jadi, serahkan kepadaku.
620
00:34:13,802 --> 00:34:14,803
- Sungguh?
- Ya.
621
00:34:15,929 --> 00:34:18,056
- Baiklah.
- Terima kasih. Ben?
622
00:34:18,139 --> 00:34:19,891
- Baik.
- Ibu, si perompak ponsel.
623
00:34:21,101 --> 00:34:21,935
- Dapat.
- Ibu!
624
00:34:22,602 --> 00:34:26,147
Jadi, mereka akan aman di sini
sampai makan malam usai...
625
00:34:27,274 --> 00:34:31,278
dan semua bisa bersantai. Paham?
626
00:34:47,419 --> 00:34:49,254
- Boleh kulihat dari siapa itu?
- Tidak.
627
00:34:54,759 --> 00:34:56,970
Aku akan mengambil garpu lagi.
628
00:34:58,305 --> 00:34:59,264
Terima kasih.
629
00:35:04,728 --> 00:35:06,730
Sayang, kau tak bisa membukanya.
630
00:35:06,813 --> 00:35:08,857
Aku menguncinya satu jam,
jadi, biarkan saja.
631
00:35:11,318 --> 00:35:13,361
Jadi, apa yang harus kita bahas?
632
00:35:13,445 --> 00:35:15,614
Kita bisa membahas
633
00:35:15,697 --> 00:35:17,824
orang gila Extreme Center
yang kuantar hari ini.
634
00:35:17,907 --> 00:35:18,825
Tolong, Frank.
635
00:35:18,908 --> 00:35:22,120
- Aku tak mau membahas politik.
- Ada apa dengan Extreme Center?
636
00:35:22,203 --> 00:35:24,622
- Dia bahkan tak paham.
- Tergantung menanyai siapa.
637
00:35:24,706 --> 00:35:26,624
Bagai bertanya, "Apa salahnya propaganda?"
638
00:35:28,918 --> 00:35:29,919
Isla!
639
00:35:32,797 --> 00:35:33,757
Astaga.
640
00:35:37,135 --> 00:35:38,553
- Kau mau aku...
- Ya.
641
00:35:41,973 --> 00:35:43,933
Aku mencemaskan anak-anakku.
642
00:35:44,017 --> 00:35:46,686
Jika kau punya anak,
aku mencemaskan anak-anakmu.
643
00:35:46,770 --> 00:35:50,190
Dengan semua pengetahuan
dan pengalaman yang kupunya,
644
00:35:50,273 --> 00:35:52,108
aku mendebat anak-anakku soal waktu
645
00:35:52,192 --> 00:35:54,444
yang mereka habiskan pada ponsel
dan komputer.
646
00:35:54,694 --> 00:35:56,071
Kuberi tahu putraku,
647
00:35:56,154 --> 00:35:58,198
"Berapa jam yang kau habiskan
pada ponselmu?"
648
00:35:58,281 --> 00:36:01,076
Dia akan bilang, "Maksimal setengah jam."
649
00:36:01,159 --> 00:36:04,829
Kurasa lebih dari 60-90 menit.
650
00:36:04,913 --> 00:36:06,790
Kulihat statistiknya beberapa minggu lalu
651
00:36:06,873 --> 00:36:08,708
- dan itu tiga jam, 45 menit.
- Itu...
652
00:36:11,252 --> 00:36:13,588
Kurasa itu tidak... Rata-rata per hari?
653
00:36:13,672 --> 00:36:15,507
- Ya.
- Mau kuambil sekarang?
654
00:36:15,590 --> 00:36:19,177
Setiap hari, aku mengingatkan anak-anakku
655
00:36:19,260 --> 00:36:21,763
tentang keseimbangan rasa suka dan duka,
656
00:36:21,846 --> 00:36:26,267
kondisi kekurangan dopamin,
dan risiko kecanduan.
657
00:36:26,351 --> 00:36:27,310
Momen penentuan.
658
00:36:27,936 --> 00:36:29,688
Dua jam, 50 menit per hari.
659
00:36:29,771 --> 00:36:31,773
- Coba lihat.
- Kugunakan lama hari ini.
660
00:36:31,856 --> 00:36:33,316
- Tujuh hari ini.
- Itu sebabnya.
661
00:36:33,400 --> 00:36:37,237
Instagram, enam jam, 13 menit.
Jadi, Instagram-ku lebih buruk.
662
00:36:39,572 --> 00:36:43,201
Layarku hancur. Terima kasih, Cass.
663
00:36:44,411 --> 00:36:45,995
Apa maksudmu, "Terima kasih, Cass"?
664
00:36:46,079 --> 00:36:49,290
Kau terus membuat Ibu takut
soal ponsel kita padahal bukan masalah.
665
00:36:49,374 --> 00:36:51,167
Tak butuh ponsel untuk makan malam.
666
00:36:51,251 --> 00:36:53,878
Aku paham maksudmu,
tapi ini bukan masalah besar.
667
00:36:56,047 --> 00:36:58,383
Jika begitu,
coba jangan gunakan selama seminggu.
668
00:37:01,136 --> 00:37:02,178
Ya.
669
00:37:02,262 --> 00:37:06,349
Ya, jika kau bisa menjauhinya
selama seminggu...
670
00:37:07,726 --> 00:37:09,519
akan kubelikan kau layar baru.
671
00:37:11,020 --> 00:37:12,772
- Mulai sekarang?
- Benar.
672
00:37:15,275 --> 00:37:16,860
Baiklah. Setuju.
673
00:37:16,943 --> 00:37:19,112
Namun, kau harus tinggalkan itu di sini,
Kawan.
674
00:37:19,863 --> 00:37:21,406
Baiklah, aku akan mengecasnya.
675
00:37:22,532 --> 00:37:25,076
Mulai saat ini, aku akan menjauh.
676
00:37:25,160 --> 00:37:25,994
Baiklah.
677
00:37:27,704 --> 00:37:29,414
- Waktumu dimulai.
- Satu minggu.
678
00:37:29,497 --> 00:37:30,331
Astaga...
679
00:37:31,458 --> 00:37:32,417
Kau pikir dia bisa?
680
00:37:33,001 --> 00:37:34,544
Entahlah, kita lihat saja.
681
00:37:35,003 --> 00:37:36,129
Makanlah saja, ya?
682
00:37:44,220 --> 00:37:45,680
Makan malam keluarga yang bagus!
683
00:37:47,682 --> 00:37:49,809
Produk teknologi ini tak dirancang
684
00:37:49,893 --> 00:37:53,897
oleh psikolog anak yang berusaha
melindungi dan mengasuh anak.
685
00:37:53,980 --> 00:37:56,149
Namun, hanya didesain
untuk membuat algoritme
686
00:37:56,232 --> 00:37:58,735
yang mahir merekomendasikan
video berikutnya untuk kita
687
00:37:58,818 --> 00:38:02,322
atau membuat kita bisa berfoto
dengan efek.
688
00:38:03,072 --> 00:38:05,325
DUA SUKA
689
00:38:13,291 --> 00:38:15,126
YAKIN INGIN MENGHAPUS?
TIDAK
690
00:38:15,210 --> 00:38:16,211
YA
691
00:38:16,711 --> 00:38:20,256
Itu bukan hanya mengendalikan
tujuan perhatian mereka.
692
00:38:21,174 --> 00:38:26,304
Media sosial mulai terus menggali
lebih dalam ke batang otak,
693
00:38:26,387 --> 00:38:29,766
mengambil alih harga diri
dan identitas anak.
694
00:38:29,849 --> 00:38:31,851
PERCANTIK AKU
695
00:38:42,070 --> 00:38:43,112
LILY_T
MANIS!
696
00:38:43,196 --> 00:38:44,822
SOPHIA_M
ASTAGA, CANTIK SEKALI
697
00:38:44,906 --> 00:38:46,491
OLIVIA_B
KAU MENGAGUMKAN
698
00:38:46,574 --> 00:38:49,118
AVA_R
BISA PERBESAR TELINGAMU?
699
00:38:52,497 --> 00:38:56,459
Kita berevolusi untuk peduli
apakah orang lain di suku kita
700
00:38:56,751 --> 00:38:59,128
memandang kita baik atau tidak
karena itu penting.
701
00:38:59,838 --> 00:39:04,551
Namun, apa kita berevolusi untuk menyadari
pendapat 10.000 orang tentang kita?
702
00:39:04,634 --> 00:39:05,885
Kita tak berevolusi
703
00:39:05,969 --> 00:39:10,348
untuk menerima persetujuan sosial
setiap lima menit.
704
00:39:10,431 --> 00:39:13,393
Kita sama sekali tak dirancang
untuk mengalami itu.
705
00:39:15,395 --> 00:39:19,983
Kita menyesuaikan hidup kita
mengikuti pandangan kesempurnaan ini
706
00:39:20,733 --> 00:39:23,528
karena kita mendapat imbalan
dalam sinyal jangka pendek ini,
707
00:39:23,611 --> 00:39:25,154
ikon hati, suka, dan jempol.
708
00:39:25,238 --> 00:39:28,408
Lalu kita menyatukannya dengan nilai
dan kebenaran.
709
00:39:29,826 --> 00:39:33,329
Alih-alih sebagai hal yang sebenarnya,
yaitu popularitas palsu dan rapuh...
710
00:39:33,913 --> 00:39:37,458
yang hanya sesaat, membuat kita kecanduan,
dan akuilah,
711
00:39:37,542 --> 00:39:39,919
membuat kita hampa sebelum melakukannya.
712
00:39:41,254 --> 00:39:43,381
Karena itu memaksa kita
memasuki lingkaran ganas
713
00:39:43,464 --> 00:39:45,800
yang membuat kita bilang,
"Aku harus apa berikutnya?
714
00:39:45,884 --> 00:39:47,343
Karena aku butuh itu."
715
00:39:48,261 --> 00:39:50,847
Bayangkan itu dilakukan
oleh dua miliar orang lainnya
716
00:39:50,930 --> 00:39:54,767
lalu bayangkan reaksi orang
terhadap persepsi orang lain.
717
00:39:54,851 --> 00:39:56,436
Itu sangat buruk.
718
00:39:56,978 --> 00:39:58,313
Itu benar-benar buruk.
719
00:40:00,857 --> 00:40:05,069
Ada peningkatan besar dalam depresi
dan kecemasan
720
00:40:05,153 --> 00:40:06,529
bagi remaja Amerika
721
00:40:06,613 --> 00:40:10,950
yang dimulai antara tahun 2011 dan 2013.
722
00:40:11,034 --> 00:40:15,371
Jumlah gadis remaja
dari 100.000 gadis di negara ini
723
00:40:15,455 --> 00:40:19,918
yang dirawat di rumah sakit setiap tahun
karena menyayat atau melukai diri sendiri,
724
00:40:20,001 --> 00:40:23,922
angka itu cukup stabil
sampai sekitar tahun 2010-2011,
725
00:40:24,005 --> 00:40:25,757
lalu mulai naik pesat.
726
00:40:28,718 --> 00:40:32,263
Naik 62 persen
untuk gadis remaja lebih tua.
727
00:40:32,347 --> 00:40:33,932
RAWAT INAP UNTUK LUKA DIRI NONFATAL
728
00:40:34,015 --> 00:40:38,603
Naik 189 persen untuk gadis praremaja.
Itu hampir tiga kali lipat.
729
00:40:40,355 --> 00:40:43,107
Lebih mengerikan lagi,
bunuh diri alami tren yang sama.
730
00:40:43,191 --> 00:40:44,901
TINGKAT BUNUH DIRI AS
PER SEJUTA GADIS
731
00:40:44,984 --> 00:40:47,570
Gadis remaja lebih tua,
usia 15 sampai 19 tahun,
732
00:40:47,654 --> 00:40:51,449
mereka naik 70% dibandingkan
dekade pertama abad ini.
733
00:40:52,158 --> 00:40:55,078
Para gadis praremaja,
yang punya tingkat awal sangat rendah,
734
00:40:55,161 --> 00:40:57,664
mereka naik 151 persen.
735
00:40:58,831 --> 00:41:01,709
Lalu pola itu mengarah ke media sosial.
736
00:41:01,793 --> 00:41:03,962
MEDIA SOSIAL TERSEDIA DI PONSEL
2009
737
00:41:04,045 --> 00:41:07,215
Generasi Z,
anak-anak yang lahir usai tahun 1996,
738
00:41:07,298 --> 00:41:10,343
mereka adalah generasi pertama
dalam sejarah
739
00:41:10,426 --> 00:41:12,637
yang terjun ke media sosial
di sekolah menengah.
740
00:41:15,974 --> 00:41:17,684
Bagaimana mereka menghabiskan waktu?
741
00:41:19,727 --> 00:41:22,480
Mereka pulang dari sekolah
dan memakai gawai mereka.
742
00:41:24,315 --> 00:41:29,195
Seluruh generasi ini lebih cemas, rapuh,
dan tertekan.
743
00:41:30,613 --> 00:41:33,282
Mereka kurang nyaman mengambil risiko.
744
00:41:34,325 --> 00:41:37,537
Tingkat permohonan SIM mereka menurun.
745
00:41:38,955 --> 00:41:41,082
Jumlah orang yang pernah berkencan
746
00:41:41,165 --> 00:41:44,252
atau memiliki hubungan romantis
menurun drastis.
747
00:41:47,505 --> 00:41:49,882
Ini perubahan nyata dalam satu generasi.
748
00:41:53,177 --> 00:41:57,306
Ingatlah, untuk semua kasus ini,
setiap perawatan di rumah sakit,
749
00:41:57,390 --> 00:42:00,268
ada keluarga yang merasa trauma dan ngeri.
750
00:42:00,351 --> 00:42:02,562
"Astaga, apa yang terjadi
kepada anak-anak kita?"
751
00:42:19,412 --> 00:42:21,038
Ini sangat jelas bagiku.
752
00:42:22,874 --> 00:42:28,129
Layanan ini membunuh orang
dan menyebabkan orang bunuh diri.
753
00:42:29,088 --> 00:42:33,301
Aku tak mengenal orang tua yang bilang,
"Ya, aku ingin anak-anakku tumbuh dewasa
754
00:42:33,384 --> 00:42:35,136
dengan merasa dimanipulasi
755
00:42:35,678 --> 00:42:36,888
oleh desainer teknologi.
756
00:42:36,971 --> 00:42:39,724
Memanipulasi perhatian
dan menjadikan PR mustahil dikerjakan,
757
00:42:39,807 --> 00:42:42,560
membuat mereka mengikuti
standar kecantikan tak realistis."
758
00:42:42,643 --> 00:42:44,687
Tak ada yang mau itu.
759
00:42:45,104 --> 00:42:46,355
Tak ada yang mau.
760
00:42:46,439 --> 00:42:48,483
Dulu kita punya perlindungan.
761
00:42:48,566 --> 00:42:52,779
Saat anak-anak menonton kartun Sabtu pagi,
kita peduli soal melindungi anak-anak.
762
00:42:52,862 --> 00:42:56,574
Kita bilang, "Kau tak bisa beriklan
kepada anak usia ini dengan cara ini."
763
00:42:57,366 --> 00:42:58,785
Namun, muncul YouTube Kids
764
00:42:58,868 --> 00:43:02,455
yang menghapus
seluruh jual-beli perhatian ini
765
00:43:02,538 --> 00:43:04,916
dan kini semua anak terpapar YouTube Kids.
766
00:43:04,999 --> 00:43:07,668
Semua perlindungan
dan peraturan itu hilang.
767
00:43:10,296 --> 00:43:17,261
WAKTU TANPA PONSEL
768
00:43:18,304 --> 00:43:22,141
Kita melatih dan mengondisikan
satu generasi orang baru...
769
00:43:23,434 --> 00:43:29,148
agar ketika kita tak nyaman, kesepian,
merasa tak pasti, atau takut,
770
00:43:29,232 --> 00:43:31,776
kita punya penenang digital sendiri
771
00:43:32,527 --> 00:43:36,489
yang menghentikan kemampuan kita
untuk menghadapinya.
772
00:43:53,965 --> 00:43:56,884
Photoshop tak punya ribuan teknisi
di sisi lain layar
773
00:43:56,968 --> 00:43:59,011
yang menggunakan notifikasi,
teman-teman kita,
774
00:43:59,095 --> 00:44:02,431
dan IA untuk memprediksi
apa yang akan membuat kita kecanduan,
775
00:44:02,515 --> 00:44:04,517
memanipulasi kita,
atau mengizinkan pengiklan
776
00:44:04,600 --> 00:44:07,854
menguji 60.000 variasi teks atau warna
777
00:44:07,937 --> 00:44:11,065
untuk tahu cara memanipulasi pikiran kita
dengan sempurna.
778
00:44:11,148 --> 00:44:14,986
Ini jenis kekuasaan dan pengaruh baru.
779
00:44:16,070 --> 00:44:19,156
Sekali lagi kukatakan,
metode yang digunakan
780
00:44:19,240 --> 00:44:22,827
untuk mempermainkan kemampuan orang
untuk kecanduan atau dipengaruhi
781
00:44:22,910 --> 00:44:25,204
mungkin berbeda kali ini
dan mungkin memang begitu.
782
00:44:25,288 --> 00:44:28,749
Mereka berbeda saat koran muncul
dan mesin cetak muncul.
783
00:44:28,833 --> 00:44:31,836
Mereka berbeda saat televisi muncul
784
00:44:31,919 --> 00:44:34,005
lalu muncul tiga jaringan besar dan...
785
00:44:34,463 --> 00:44:36,424
- Saat itu.
- Saat itu, itu maksudku.
786
00:44:36,507 --> 00:44:38,384
Namun, maksudku, ada sebuah tingkat baru
787
00:44:38,467 --> 00:44:42,054
dan tingkat baru itu sudah sering terjadi.
788
00:44:42,138 --> 00:44:45,099
Ini tingkat baru terkini yang kita lihat.
789
00:44:45,391 --> 00:44:48,728
Ada narasi yang berkata,
"Kita beradaptasi saja atas itu.
790
00:44:48,811 --> 00:44:51,188
Kita akan belajar hidup
dengan perangkat ini
791
00:44:51,272 --> 00:44:53,733
seperti belajar hidup dengan yang lain."
792
00:44:53,816 --> 00:44:56,694
Yang luput di sini adalah
ada hal baru di sini.
793
00:44:57,570 --> 00:45:00,323
Mungkin hal paling berbahaya
dari semua ini adalah fakta
794
00:45:00,406 --> 00:45:04,410
bahwa itu didorong oleh teknologi
yang maju dengan sangat pesat.
795
00:45:05,953 --> 00:45:09,081
Kurang lebih,
dari tahun 1960-an hingga saat ini,
796
00:45:09,874 --> 00:45:13,085
kekuatan memproses meningkat
sekitar satu triliun kali.
797
00:45:13,794 --> 00:45:18,341
Tak ada hal yang kita punya
yang laju kenaikannya mendekati itu.
798
00:45:18,424 --> 00:45:22,178
Misalnya, mobil kira-kira hanya naik
dua kali lebih cepat.
799
00:45:22,261 --> 00:45:25,264
Lalu hampir semua yang lainnya
bisa diabaikan.
800
00:45:25,348 --> 00:45:27,183
Mungkin yang terpenting,
801
00:45:27,266 --> 00:45:31,354
sifat manusia, fisiologi, dan otak kita
tak berevolusi sama sekali.
802
00:45:31,854 --> 00:45:35,232
WAKTU TANPA PONSEL
803
00:45:37,401 --> 00:45:41,489
Level pikiran, raga, dan fisik manusia
804
00:45:41,948 --> 00:45:43,908
takkan berubah secara mendasar.
805
00:45:56,837 --> 00:45:58,172
Kita bisa melakukan
806
00:45:58,256 --> 00:46:01,092
rekayasa genetika dan mengembangkan
manusia baru di masa depan,
807
00:46:01,175 --> 00:46:05,221
tapi secara realistis,
kita hidup di dalam perangkat keras, otak,
808
00:46:05,304 --> 00:46:07,223
yang berusia jutaan tahun,
809
00:46:07,306 --> 00:46:10,559
lalu ada sebuah layar dan di baliknya,
810
00:46:10,643 --> 00:46:13,562
ada ribuan teknisi dan komputer super
811
00:46:13,646 --> 00:46:16,107
yang punya tujuan berbeda
dari tujuan kita.
812
00:46:16,190 --> 00:46:19,694
Jadi, siapa yang akan menang
dalam hal itu?
813
00:46:25,700 --> 00:46:26,951
Bagaimana kita bisa kalah?
814
00:46:27,159 --> 00:46:29,704
- Entahlah.
- Di mana dia? Ini tidak normal.
815
00:46:29,787 --> 00:46:32,164
Apa aku mencecarnya
dengan konten teman dan keluarga?
816
00:46:32,248 --> 00:46:34,083
- Mungkin.
- Mungkin karena iklannya.
817
00:46:34,166 --> 00:46:37,795
Tidak. Ada yang salah.
Mari beralih ke mode kebangkitan.
818
00:46:39,672 --> 00:46:44,051
Saat memikirkan IA,
kita pikir itu akan merusak dunia.
819
00:46:44,135 --> 00:46:47,221
Anda membayangkan Terminator,
Arnold Schwarzenegger.
820
00:46:47,638 --> 00:46:48,681
Aku akan kembali.
821
00:46:48,806 --> 00:46:52,643
Kita membayangkan pesawat nirawak
dan berpikir, "IA akan membunuh orang."
822
00:46:53,644 --> 00:46:59,817
Yang orang lupa adalah
IA sudah mengendalikan dunia saat ini.
823
00:46:59,900 --> 00:47:03,237
Bahkan membicarakan "IA"
hanyalah sebuah metafora.
824
00:47:03,320 --> 00:47:09,452
Di perusahaan seperti Google,
ada banyak ruangan yang sangat besar.
825
00:47:10,328 --> 00:47:13,122
Sebagian ada di bawah tanah,
sebagian lagi ada di bawah air,
826
00:47:13,205 --> 00:47:14,498
yang hanya berisi komputer.
827
00:47:14,582 --> 00:47:17,835
Begitu banyak komputer
sejauh mata memandang.
828
00:47:18,461 --> 00:47:20,504
Mereka sangat saling terhubung
829
00:47:20,588 --> 00:47:22,923
dan menjalankan program yang sangat rumit,
830
00:47:23,007 --> 00:47:26,010
saling mengirim informasi bolak-balik
sepanjang waktu.
831
00:47:26,802 --> 00:47:28,596
Mereka menjalankan beragam program
832
00:47:28,679 --> 00:47:30,806
dan produk pada mesin yang sama.
833
00:47:31,348 --> 00:47:33,684
Sebagiannya adalah algoritme sederhana
834
00:47:33,768 --> 00:47:35,227
dan sebagian lagi algoritme
835
00:47:35,311 --> 00:47:37,521
yang sangat rumit
hingga disebut kecerdasan.
836
00:47:40,149 --> 00:47:43,778
Menurutku, algoritme adalah opini
yang disematkan dalam kode...
837
00:47:45,071 --> 00:47:47,656
dan algoritme itu tidak objektif.
838
00:47:48,366 --> 00:47:51,577
Algoritme dioptimalkan
ke sebuah definisi kesuksesan.
839
00:47:52,244 --> 00:47:53,370
Jadi, bisa dibayangkan
840
00:47:53,454 --> 00:47:57,124
jika perusahaan komersial membuat
sebuah algoritme
841
00:47:57,208 --> 00:47:59,293
untuk definisi kesuksesan bagi mereka,
842
00:47:59,835 --> 00:48:01,378
itu kepentingan komersial.
843
00:48:01,587 --> 00:48:02,671
Biasanya profit.
844
00:48:03,130 --> 00:48:07,384
Kita memberi komputer tujuan,
"Aku ingin hasil ini,"
845
00:48:07,468 --> 00:48:10,262
lalu komputer itu sendiri
belajar melakukannya.
846
00:48:10,346 --> 00:48:12,598
Itulah asal istilah "pemelajaran mesin".
847
00:48:12,681 --> 00:48:14,892
Jadi, setiap hari,
ia menjadi sedikit lebih baik
848
00:48:14,975 --> 00:48:16,894
dalam memilih pos dalam urutan yang tepat
849
00:48:16,977 --> 00:48:19,438
agar kita bisa lebih lama
menggunakan produk itu.
850
00:48:19,522 --> 00:48:22,233
Tak ada yang paham apa yang mereka lakukan
851
00:48:22,316 --> 00:48:23,901
untuk mencapai tujuan itu.
852
00:48:23,984 --> 00:48:28,239
Algoritme itu punya pikiran sendiri,
jadi, meski seseorang menulisnya,
853
00:48:28,906 --> 00:48:30,658
itu ditulis sedemikian rupa
854
00:48:30,741 --> 00:48:35,037
agar setelah kita membuat mesinnya,
mesinnya akan berubah sendiri.
855
00:48:35,121 --> 00:48:37,915
Hanya ada sedikit orang
di semua perusahaan ini,
856
00:48:37,998 --> 00:48:40,000
Facebook, Twitter, dan perusahaan lain...
857
00:48:40,084 --> 00:48:43,796
Hanya sedikit orang yang mengerti
cara kerja sistem itu
858
00:48:43,879 --> 00:48:46,715
dan bahkan mereka tak sepenuhnya mengerti
859
00:48:46,799 --> 00:48:49,552
apa yang akan terjadi
dengan konten tertentu.
860
00:48:49,969 --> 00:48:53,472
Jadi, sebagai manusia,
kita hampir kehilangan kendali
861
00:48:53,556 --> 00:48:55,474
atas sistem ini
862
00:48:55,891 --> 00:48:59,603
karena mereka mengendalikan
informasi yang kita lihat.
863
00:48:59,687 --> 00:49:02,440
Mereka mengendalikan kita
melebihi kita mengendalikan mereka.
864
00:49:03,816 --> 00:49:07,319
Merujuk silang dia dengan yang serupa
di zona geografisnya.
865
00:49:07,403 --> 00:49:09,572
Kembaran psikometrinya.
866
00:49:09,655 --> 00:49:13,701
Ada 13.694 orang yang berperilaku
sepertinya di wilayahnya.
867
00:49:13,784 --> 00:49:16,370
- Apa yang mereka minati?
- Kita butuh hal yang bagus
868
00:49:16,454 --> 00:49:19,957
untuk kebangkitan yang layak,
mengingat hal-hal biasa tak berhasil.
869
00:49:20,040 --> 00:49:22,042
Bahkan gadis manis
di sekolah itu pun tidak.
870
00:49:22,334 --> 00:49:25,254
Menurut analisisku,
menampilkan konten politik Extreme Center
871
00:49:25,337 --> 00:49:28,257
punya potensi keterlibatan jangka panjang
sebesar 62,3%.
872
00:49:28,340 --> 00:49:29,300
Itu tidak buruk.
873
00:49:30,342 --> 00:49:32,011
Namun, bukan awal yang cukup bagus.
874
00:49:32,386 --> 00:49:35,306
Baiklah. Jadi, kita sudah memberitahunya
soal foto yang ditandai,
875
00:49:35,389 --> 00:49:39,018
undangan, peristiwa terkini,
bahkan pesan langsung dari Rebecca.
876
00:49:39,101 --> 00:49:42,771
Bagaimana dengan pengguna 01265923010?
877
00:49:42,855 --> 00:49:44,648
Ya, Ben memberi ikon hati semua posnya.
878
00:49:44,732 --> 00:49:47,776
Semua posnya, selama berbulan-bulan,
lalu berhenti.
879
00:49:47,860 --> 00:49:50,446
Aku menghitung
kemungkinan kebangkitan 92,3 persen
880
00:49:50,529 --> 00:49:52,156
dengan notifikasi soal Ana.
881
00:49:53,908 --> 00:49:55,993
HUBUNGAN BARU
882
00:49:56,535 --> 00:49:57,745
Serta teman barunya.
883
00:49:58,496 --> 00:50:04,001
WAKTU TANPA PONSEL
884
00:50:24,355 --> 00:50:25,981
MANTAN PACARMU PUNYA HUBUNGAN BARU!
885
00:50:26,065 --> 00:50:27,316
Ini pasti bercanda.
886
00:50:35,658 --> 00:50:36,617
Baiklah.
887
00:50:37,576 --> 00:50:38,786
ANA DAN LUIZ BERHUBUNGAN
888
00:50:38,869 --> 00:50:39,703
Apa?
889
00:50:42,122 --> 00:50:44,208
- Kita kembali!
- Ayo menghasilkan uang lagi.
890
00:50:44,291 --> 00:50:46,335
Ya, dan hubungkan mereka
dengan seluruh dunia.
891
00:50:46,418 --> 00:50:49,338
Aku memberinya akses
ke semua informasi yang mungkin dia suka.
892
00:50:49,755 --> 00:50:53,717
Hei, apa kalian pernah berpikir
umpan beritanya bagus untuk Ben?
893
00:50:57,221 --> 00:50:58,222
- Tidak.
- Tidak.
894
00:51:42,349 --> 00:51:44,893
PENGUJIAN A/B
EXTREME CENTRE
895
00:52:20,929 --> 00:52:24,350
Jadi, bayangkan kita membuka Facebook...
896
00:52:24,975 --> 00:52:29,313
dan kita bermain melawan
inteligensi artifisial ini
897
00:52:29,396 --> 00:52:31,315
yang tahu semuanya soal kita.
898
00:52:31,398 --> 00:52:34,568
Mengantisipasi langkah kita berikutnya
dan kita tak tahu apa-apa
899
00:52:34,652 --> 00:52:37,404
kecuali video kucing dan ulang tahun
yang diputar.
900
00:52:37,821 --> 00:52:39,656
Pertarungan itu tak adil!
901
00:52:41,575 --> 00:52:43,869
Ben dan Jerry, saatnya berangkat!
902
00:52:51,126 --> 00:52:51,960
Ben?
903
00:53:02,680 --> 00:53:03,514
Ben.
904
00:53:05,182 --> 00:53:06,058
Ayo.
905
00:53:07,226 --> 00:53:08,894
Waktunya sekolah. Ayo.
906
00:53:31,375 --> 00:53:33,544
- Apa kabarmu hari ini?
- Aku gugup.
907
00:53:33,627 --> 00:53:34,628
- Benarkah?
- Ya.
908
00:53:37,381 --> 00:53:39,049
Kita semua mewaspadai saat
909
00:53:39,133 --> 00:53:42,970
ketika teknologi akan mengalahkan kekuatan
dan kecerdasan manusia.
910
00:53:43,137 --> 00:53:44,847
Kapan itu akan melampaui hal itu,
911
00:53:44,930 --> 00:53:47,015
merebut profesi,
dan lebih pintar dari manusia?
912
00:53:48,142 --> 00:53:50,102
Namun, ada momen lebih awal...
913
00:53:50,978 --> 00:53:55,566
saat teknologi melampaui
dan mengalahkan kelemahan manusia.
914
00:53:57,484 --> 00:54:02,030
Batasan-batasan yang dilampaui ini
berakar pada kecanduan,
915
00:54:02,114 --> 00:54:03,657
polarisasi, radikalisasi,
916
00:54:03,740 --> 00:54:06,368
memicu kemarahan, keangkuhan, semuanya.
917
00:54:07,703 --> 00:54:09,913
Ini mengalahkan sifat manusia
918
00:54:10,706 --> 00:54:13,500
dan sekakmat bagi kemanusiaan.
919
00:54:30,559 --> 00:54:31,435
Maaf.
920
00:54:41,737 --> 00:54:44,656
Salah satu cara yang kucoba
untuk membuat orang paham
921
00:54:45,199 --> 00:54:49,786
betapa salahnya umpan berita
dari tempat seperti Facebook
922
00:54:49,870 --> 00:54:51,455
adalah dengan memikirkan Wikipedia.
923
00:54:51,538 --> 00:54:52,873
TAB BARU
924
00:54:52,956 --> 00:54:56,418
Saat kunjungi sebuah laman, kita melihat
hal yang sama dengan orang lain.
925
00:54:56,627 --> 00:55:00,297
Itu satu dari beberapa hal di internet
yang setidaknya menjadi kesamaan kita.
926
00:55:00,380 --> 00:55:03,425
Kini bayangkan sejenak Wikipedia berkata,
927
00:55:03,509 --> 00:55:07,179
"Kita akan memberi tiap orang
definisi yang khusus dan berbeda
928
00:55:07,262 --> 00:55:09,473
dan kita akan dibayar orang untuk itu."
929
00:55:09,556 --> 00:55:13,435
Jadi, Wikipedia memata-matai kita
dan mempertimbangkan,
930
00:55:13,519 --> 00:55:17,189
"Apa yang bisa kulakukan
agar orang ini berubah sedikit
931
00:55:17,272 --> 00:55:19,900
demi kepentingan komersial?" Paham?
932
00:55:19,983 --> 00:55:21,818
Lalu entrinya akan diubah.
933
00:55:22,444 --> 00:55:23,570
Bisa bayangkan itu?
934
00:55:23,654 --> 00:55:26,698
Seharusnya bisa
karena itulah yang terjadi di Facebook.
935
00:55:26,782 --> 00:55:28,992
Itulah yang terjadi
di umpan berita YouTube kita.
936
00:55:29,159 --> 00:55:31,787
Saat kunjungi Google
dan mengetik "perubahan iklim adalah",
937
00:55:31,870 --> 00:55:34,998
kita akan melihat hasil berbeda
tergantung tempat tinggal.
938
00:55:35,082 --> 00:55:36,083
PERUBAHAN IKLIM ADALAH
939
00:55:36,166 --> 00:55:38,460
Di kota tertentu,
akan muncul isian kata otomatis
940
00:55:38,544 --> 00:55:40,462
bertuliskan "perubahan iklim itu hoaks."
941
00:55:40,546 --> 00:55:42,089
Dalam kasus lain, akan muncul
942
00:55:42,172 --> 00:55:44,842
"perubahan iklim menyebabkan
kerusakan alam."
943
00:55:44,925 --> 00:55:48,428
Itu bukan fungsi untuk tampikan kebenaran
soal perubahan iklim,
944
00:55:48,512 --> 00:55:51,098
tapi soal tempat kita
saat mencarinya di Google
945
00:55:51,181 --> 00:55:53,600
dan hal tertentu yang Google tahu
soal minat kita.
946
00:55:55,185 --> 00:55:58,021
Bahkan dua teman yang sangat dekat
sekalipun,
947
00:55:58,105 --> 00:56:00,190
yang punya teman yang hampir sama,
948
00:56:00,274 --> 00:56:02,818
mereka berpikir,
"Akan kulihat umpan berita di Facebook.
949
00:56:02,901 --> 00:56:06,738
Aku akan melihat pembaruan yang sama."
Namun, tidak seperti itu.
950
00:56:06,822 --> 00:56:08,448
Mereka melihat dunia yang berbeda
951
00:56:08,532 --> 00:56:12,035
karena itu berdasarkan analisis komputer
soal apa yang ideal bagi mereka.
952
00:56:12,119 --> 00:56:14,246
SEDANG MENGUDARA
953
00:56:14,329 --> 00:56:18,417
Bisa dibilang
itu adalah 2,7 miliar The Truman Show.
954
00:56:18,500 --> 00:56:21,295
Tiap orang punya realitas sendiri
dengan fakta...
955
00:56:22,671 --> 00:56:23,672
mereka sendiri.
956
00:56:23,755 --> 00:56:28,051
Kenapa kau pikir
Truman tak pernah hampir mengetahui
957
00:56:28,135 --> 00:56:30,095
kebenaran soal dunianya hingga kini?
958
00:56:31,054 --> 00:56:34,099
Kita menerima kenyataan dunia
yang diberikan kepada kita.
959
00:56:34,182 --> 00:56:35,142
Sesederhana itu.
960
00:56:35,225 --> 00:56:36,393
SEDANG MENGUDARA
961
00:56:36,476 --> 00:56:41,064
Seiring waktu, kita memiliki kesan palsu
bahwa semua orang setuju dengan kita
962
00:56:41,148 --> 00:56:44,067
karena semua orang di umpan berita
tampak seperti kita.
963
00:56:44,568 --> 00:56:49,072
Begitu kita dalam keadaan itu,
ternyata kita mudah dimanipulasi
964
00:56:49,156 --> 00:56:51,742
seperti dimanipulasi oleh pesulap.
965
00:56:51,825 --> 00:56:55,370
Pesulap menunjukkan trik kartu dan bilang,
"Pilih kartu apa saja."
966
00:56:55,454 --> 00:56:58,373
Yang tak kita sadari
adalah mereka sudah mengaturnya
967
00:56:58,457 --> 00:57:00,542
agar kita memilih kartu yang mereka mau.
968
00:57:00,626 --> 00:57:03,170
Begitulah Facebook bekerja.
Ia duduk di sana dan berkata,
969
00:57:03,253 --> 00:57:06,173
"Hei, kau yang memilih teman
dan tautan yang kau ikuti."
970
00:57:06,256 --> 00:57:08,717
Namun, itu omong kosong. Seperti pesulap.
971
00:57:08,800 --> 00:57:11,303
Facebook bertanggung jawab
atas umpan berita kita.
972
00:57:11,386 --> 00:57:14,514
Kita semua hanya menggunakan
fakta yang berbeda.
973
00:57:14,598 --> 00:57:16,475
Saat itu terjadi dalam skala besar,
974
00:57:16,558 --> 00:57:20,771
kita tak bisa lagi menghadapi
atau menyerap informasi
975
00:57:20,854 --> 00:57:23,690
yang bertentangan dengan pandangan dunia
yang kita ciptakan.
976
00:57:23,774 --> 00:57:28,028
Itu berarti kita bukan lagi individu
yang objektif dan konstruktif.
977
00:57:28,779 --> 00:57:32,449
Buka matamu! Jangan percaya kebohongan!
978
00:57:32,532 --> 00:57:35,160
Lalu kita melihat ke sisi lain
979
00:57:35,243 --> 00:57:38,747
dan mulai berpikir,
"Bagaimana mereka bisa begitu bodoh?
980
00:57:38,956 --> 00:57:42,125
Lihatlah semua informasi
yang terus kulihat ini.
981
00:57:42,209 --> 00:57:44,711
Kenapa mereka tak melihat info yang sama?"
982
00:57:44,795 --> 00:57:47,297
Jawabannya, "Mereka memang tak melihat
info yang sama."
983
00:57:47,381 --> 00:57:50,801
Buka matamu! Jangan percaya kebohongan!
984
00:57:52,094 --> 00:57:53,679
Seperti apa Partai Republik?
985
00:57:53,762 --> 00:57:55,472
Orang yang tak tahu apa-apa.
986
00:57:55,555 --> 00:57:58,934
Partai Demokrat adalah sindikat kejahatan,
bukan partai politik sungguhan.
987
00:57:59,017 --> 00:58:03,105
Studi besar baru dari Pew Research Center
terhadap 10.000 orang dewasa Amerika
988
00:58:03,188 --> 00:58:05,315
mendapati kita lebih terpecah
dari sebelumnya,
989
00:58:05,399 --> 00:58:09,069
dengan polarisasi pribadi dan politis
di level tertinggi pada 20 tahun terakhir.
990
00:58:09,152 --> 00:58:11,697
POLARISASI POLITIS AS
MEDIAN DEMOKRAT - MEDIAN REPUBLIK
991
00:58:11,780 --> 00:58:14,199
Ada lebih dari sepertiga Partai Republik
yang berkata
992
00:58:14,282 --> 00:58:16,827
Partai Demokrat
adalah ancaman bagi negara
993
00:58:16,910 --> 00:58:20,580
dan seperempat lebih Demokrat
berkata sama soal Partai Republik.
994
00:58:20,664 --> 00:58:24,418
Begitu banyak masalah yang kita bahas,
misalnya seputar polarisasi politik,
995
00:58:24,501 --> 00:58:28,046
ditampilkan secara besar-besaran
di TV kabel.
996
00:58:28,130 --> 00:58:31,008
Media punya masalah yang sama
997
00:58:31,091 --> 00:58:33,343
karena model bisnis mereka, pada umumnya,
998
00:58:33,427 --> 00:58:35,762
adalah menjual perhatian kita
kepada pengiklan.
999
00:58:35,846 --> 00:58:38,890
Internet adalah cara lebih efisien baru
untuk melakukan itu.
1000
00:58:40,392 --> 00:58:44,146
Di YouTube, aku mengerjakan
rekomendasi YouTube.
1001
00:58:44,229 --> 00:58:47,149
Aku khawatir algoritme yang kukerjakan
1002
00:58:47,232 --> 00:58:50,402
sebenarnya meningkatkan polarisasi
di masyarakat.
1003
00:58:50,485 --> 00:58:53,113
Namun, dari sudut pandang waktu menonton,
1004
00:58:53,196 --> 00:58:57,617
polarisasi ini sangat efisien
untuk membuat orang tetap daring.
1005
00:58:58,785 --> 00:59:02,289
Alasan para guru mengajarkan hal ini
hanyalah karena mereka dibayar.
1006
00:59:02,372 --> 00:59:04,332
- Itu konyol sekali.
- Hei, Benji.
1007
00:59:04,791 --> 00:59:06,460
Tak ada latihan sepak bola hari ini?
1008
00:59:06,543 --> 00:59:08,879
Ada. Aku hanya melihat berita
yang kulewatkan.
1009
00:59:08,962 --> 00:59:11,506
Risetlah sendiri.
Info apa pun dari Extreme Center...
1010
00:59:11,590 --> 00:59:14,009
Hal yang kau tonton itu bukan berita.
1011
00:59:15,552 --> 00:59:18,722
Kau selalu membahas betapa kacaunya
keadaan saat ini. Mereka juga.
1012
00:59:19,473 --> 00:59:21,141
Namun, itu hanya propaganda.
1013
00:59:21,224 --> 00:59:24,060
Tak ada yang benar.
Intinya adalah apa yang masuk akal.
1014
00:59:24,770 --> 00:59:26,938
Ben, aku serius. Itu buruk untukmu.
1015
00:59:27,022 --> 00:59:28,690
Sebainya kau berlatih sepak bola.
1016
00:59:35,155 --> 00:59:37,491
Aku membagi ini karena aku peduli.
1017
00:59:37,574 --> 00:59:41,078
Aku peduli terhadap kalian yang disesatkan
dan itu tak baik. Paham?
1018
00:59:41,161 --> 00:59:43,121
Orang mengira algoritme ini dirancang
1019
00:59:43,205 --> 00:59:46,833
untuk memberikan yang mereka inginkan,
tapi ternyata tidak.
1020
00:59:46,917 --> 00:59:52,589
Algoritme ini sebenarnya mencoba mencari
beberapa perangkap yang sangat kuat,
1021
00:59:52,672 --> 00:59:56,218
mencari perangkap mana
yang paling sesuai dengan minat kita.
1022
00:59:56,301 --> 00:59:59,513
Lalu jika kita mulai menonton
salah satu video itu,
1023
00:59:59,805 --> 01:00:02,224
itu akan merekomendasikannya
berulang kali.
1024
01:00:02,682 --> 01:00:04,935
Tak ada yang mau ini terjadi.
1025
01:00:05,018 --> 01:00:07,813
Hanya saja, inilah yang dilakukan
sistem rekomendasi.
1026
01:00:07,896 --> 01:00:10,816
Sampai-sampai Kyrie Irving,
pemain basket terkenal,
1027
01:00:11,483 --> 01:00:14,152
berkata dia percaya Bumi datar
yang meminta maaf kemudian
1028
01:00:14,236 --> 01:00:16,404
dan dia menyalahkan
video perangkap di YouTube.
1029
01:00:16,488 --> 01:00:18,657
Kau mengeklik YouTube
1030
01:00:18,740 --> 01:00:21,535
lalu kita masuk ke perangkap
yang sangat dalam.
1031
01:00:21,618 --> 01:00:23,328
Saat dia datang ke NPR untuk berkata,
1032
01:00:23,411 --> 01:00:25,956
"Maaf telah meyakini ini.
Aku tak mau menyesatkan orang,"
1033
01:00:26,039 --> 01:00:28,333
sekelompok siswa di kelas
yang diwawancarai bilang,
1034
01:00:28,416 --> 01:00:30,252
"Penganut Bumi bulat memengaruhinya."
1035
01:00:31,044 --> 01:00:33,964
Teori konspirasi Bumi datar
direkomendasikan
1036
01:00:34,047 --> 01:00:37,634
ratusan juta kali oleh algoritme itu.
1037
01:00:37,801 --> 01:00:39,010
Mudah untuk berpikir
1038
01:00:39,094 --> 01:00:43,890
bahwa hanya beberapa orang bodoh
yang meyakininya,
1039
01:00:43,974 --> 01:00:46,893
tapi algoritme ini makin cerdas
setiap harinya.
1040
01:00:46,977 --> 01:00:50,188
Jadi, kini mereka meyakinkan orang-orang
bahwa Bumi itu datar,
1041
01:00:50,272 --> 01:00:53,984
tapi besok, mereka akan meyakinkanmu
tentang hal keliru lainnya.
1042
01:00:54,317 --> 01:00:57,821
Pada 7 November, tagar "Pizzagate" lahir.
1043
01:00:57,904 --> 01:00:59,197
Pizzagate...
1044
01:01:00,782 --> 01:01:01,658
Astaga.
1045
01:01:03,160 --> 01:01:06,913
Aku masih tak yakin
bagaimana awalnya ini terjadi,
1046
01:01:06,997 --> 01:01:12,377
tapi ide bahwa memesan piza berarti
memesan orang yang diperdagangkan.
1047
01:01:12,460 --> 01:01:15,046
Saat grup itu makin besar di Facebook,
1048
01:01:15,130 --> 01:01:19,926
mesin rekomendasi Facebook
mulai menyarankan para pengguna biasa
1049
01:01:20,010 --> 01:01:21,761
untuk bergabung dengan grup Pizzagate.
1050
01:01:22,053 --> 01:01:27,392
Jadi, jika pengguna, misalnya,
anti-vaksin, meyakini teori jejak kimia,
1051
01:01:27,475 --> 01:01:30,645
atau menunjukkan kepada algoritme Facebook
1052
01:01:30,729 --> 01:01:33,398
bahwa mereka cenderung memercayai
teori konspirasi,
1053
01:01:33,481 --> 01:01:36,860
mesin rekomendasi Facebook akan menyajikan
grup Pizzagate.
1054
01:01:36,943 --> 01:01:41,072
Akhirnya, ini berujung pada seorang pria
yang muncul dengan pistol
1055
01:01:41,156 --> 01:01:44,618
dan memutuskan dia akan membebaskan
anak-anak dari basemen
1056
01:01:44,701 --> 01:01:47,078
dari tempat piza yang tak punya basemen.
1057
01:01:47,162 --> 01:01:49,998
- Kenapa kau kemari?
- Memastikan tak ada apa-apa di sana.
1058
01:01:50,582 --> 01:01:52,292
- Soal apa?
- Jaringan pedofilia.
1059
01:01:52,375 --> 01:01:53,835
- Soal apa?
- Jaringan pedofilia.
1060
01:01:53,919 --> 01:01:55,879
Maksudnya, Pizzagate.
1061
01:01:55,962 --> 01:02:00,216
Ini contoh teori konspirasi
1062
01:02:00,300 --> 01:02:03,678
yang disebarkan di semua jejaring sosial.
1063
01:02:03,762 --> 01:02:07,974
Mesin rekomendasi jejaring sosial itu
secara sukarela menyajikannya kepada orang
1064
01:02:08,058 --> 01:02:10,644
yang tak pernah sama sekali mencari
istilah "Pizzagate".
1065
01:02:10,727 --> 01:02:12,354
PIZZAGATE
WADAH DEMOKRAT DAN PEDOFIL
1066
01:02:12,437 --> 01:02:14,439
Ada sebuah studi MIT yang menyebutkan
1067
01:02:14,522 --> 01:02:16,441
berita palsu di Twitter menyebar
1068
01:02:16,524 --> 01:02:19,569
enam kali lebih cepat
daripada berita sebenarnya.
1069
01:02:19,903 --> 01:02:21,863
Seperti apa dunia itu
1070
01:02:21,947 --> 01:02:24,908
jika ada yang lebih unggul enam kali lipat
daripada yang lain?
1071
01:02:25,283 --> 01:02:27,661
Kita bisa membayangkan semua hal ini
1072
01:02:27,744 --> 01:02:31,706
seperti mengubah neraca perilaku manusia.
1073
01:02:31,790 --> 01:02:34,709
Mereka membuat sebagian perilaku
lebih sulit atau lebih mudah.
1074
01:02:34,793 --> 01:02:37,420
Kita selalu bebas menghadapi yang sulit,
1075
01:02:37,504 --> 01:02:38,797
tapi jarang ada yang mau.
1076
01:02:38,880 --> 01:02:43,093
Jadi, dalam skala besar di masyarakat,
kita memiringkan neraca itu,
1077
01:02:43,176 --> 01:02:45,971
mengubah pikiran
dan perilaku miliaran orang.
1078
01:02:46,054 --> 01:02:52,018
Kita menciptakan sistem yang berprasangka
terhadap informasi palsu.
1079
01:02:52,644 --> 01:02:54,437
Bukan karena kita mau,
1080
01:02:54,521 --> 01:02:58,817
tapi karena informasi palsu memberi
semua perusahaan itu lebih banyak uang
1081
01:02:59,401 --> 01:03:01,486
daripada kebenaran.
ebenaran itu membosankan.
1082
01:03:01,987 --> 01:03:04,489
Ini model bisnis yang mencari profit
dari disinformasi.
1083
01:03:04,906 --> 01:03:08,159
Kita menghasilkan uang
dengan membebaskan pesan tak terkontrol
1084
01:03:08,702 --> 01:03:11,413
diterima siapa saja dengan harga terbaik.
1085
01:03:11,663 --> 01:03:13,748
Karena perubahan iklim? Ya.
1086
01:03:13,832 --> 01:03:16,751
Itu hoaks. Ya, itu nyata. Itulah intinya.
1087
01:03:16,835 --> 01:03:20,046
Makin sering mereka membahasnya
dan makin kita terpecah,
1088
01:03:20,130 --> 01:03:22,340
kekuatan dan kendali mereka
akan makin besar.
1089
01:03:22,424 --> 01:03:25,552
Facebook punya triliunan pos umpan berita
seperti ini.
1090
01:03:26,553 --> 01:03:29,264
Mereka tak bisa tahu
apa yang nyata atau benar.
1091
01:03:29,973 --> 01:03:33,727
Itu sebabnya pembahasan ini
sangat penting sekarang.
1092
01:03:33,810 --> 01:03:37,022
Bukan hanya COVID-19 yang menyebar cepat.
1093
01:03:37,105 --> 01:03:40,191
Ada rangkaian informasi yang salah
tentang virus ini di internet.
1094
01:03:40,275 --> 01:03:43,695
Ide bahwa minum lebih banyak air
akan menghapus virus korona dari tubuh
1095
01:03:43,778 --> 01:03:47,490
adalah salah satu mitos soal virus ini
yang beredar di media sosial.
1096
01:03:47,574 --> 01:03:50,452
Pemerintah merencanakan peristiwa ini,
menciptakan virusnya,
1097
01:03:50,827 --> 01:03:53,580
dan melakukan simulasi
tentang reaksi berbagai negara.
1098
01:03:53,955 --> 01:03:55,582
Virus korona itu hoaks.
1099
01:03:56,166 --> 01:03:57,959
SARS, virus korona.
1100
01:03:58,376 --> 01:04:01,046
Lihatlah tahun pembuatannya. 2018.
1101
01:04:01,129 --> 01:04:03,798
Kurasa pemerintah Amerika memulai ini.
1102
01:04:04,215 --> 01:04:07,344
Tak ada yang sakit.
1103
01:04:07,427 --> 01:04:09,095
Tak ada yang kenal orang yang sakit.
1104
01:04:09,512 --> 01:04:12,849
Mungkin pemerintah menggunakan
virus korona sebagai alasan
1105
01:04:12,932 --> 01:04:15,643
agar semua orang tetap di rumah
karena ada hal lain terjadi.
1106
01:04:15,727 --> 01:04:18,021
Virus korona tidak membunuh orang,
1107
01:04:18,104 --> 01:04:20,940
tapi radiasi 5G yang mereka pancarkan.
1108
01:04:21,024 --> 01:04:22,525
MENARA 5G DIPOTONG DAN DIBAKAR
1109
01:04:22,609 --> 01:04:24,569
Kita dibombardir dengan rumor.
1110
01:04:25,403 --> 01:04:28,823
Orang-orang meledakkan menara seluler.
1111
01:04:28,907 --> 01:04:32,160
Kita melihat Rusia dan Cina menyebarkan
rumor dan teori konspirasi.
1112
01:04:32,243 --> 01:04:35,246
Tadi pagi,
muncul kepanikan dan protes di Ukraina...
1113
01:04:35,330 --> 01:04:38,917
Orang tak tahu apa yang benar
dan kini menjadi masalah hidup dan mati.
1114
01:04:40,001 --> 01:04:42,629
Sumber-sumber yang menyebarkan
informasi virus korona palsu
1115
01:04:42,712 --> 01:04:45,799
telah mengumpulkan
sekitar 52 juta keterlibatan.
1116
01:04:45,882 --> 01:04:50,095
Maksudmu, larutan perak akan efektif.
1117
01:04:50,178 --> 01:04:54,140
Anggaplah itu belum diuji
pada jenis virus korona ini...
1118
01:04:54,224 --> 01:04:57,227
Apa yang kita lihat dengan COVID
hanyalah versi ekstrem
1119
01:04:57,310 --> 01:05:00,688
dari apa yang terjadi
di seluruh ekosistem informasi kita.
1120
01:05:00,980 --> 01:05:04,943
Media sosial memperkuat gosip
dan desas-desus eksponensial
1121
01:05:05,026 --> 01:05:07,112
hingga kita tak tahu apa yang benar,
1122
01:05:07,195 --> 01:05:09,114
apa pun isu yang kita pedulikan.
1123
01:05:26,131 --> 01:05:27,465
Kau masih tergabung di tim?
1124
01:05:30,468 --> 01:05:34,597
Aku akan membeli camilan
sebelum latihan jika kau mau ikut.
1125
01:05:37,016 --> 01:05:38,685
Lupakan saja.
1126
01:05:39,936 --> 01:05:44,983
KAMI MEMBUTUHKANMU,
BERGABUNGLAH SEKARANG
1127
01:05:45,066 --> 01:05:47,527
Sembilan dari sepuluh orang
merasa tak puas saat ini.
1128
01:05:47,610 --> 01:05:50,613
Jika dipikir lagi, EC mirip
dengan gerakan politik dalam sejarah.
1129
01:05:50,822 --> 01:05:54,492
Kita melawan gangguan ini.
1130
01:05:54,576 --> 01:05:57,036
Kalian adalah kaumku. Aku percaya kalian.
1131
01:05:59,205 --> 01:06:02,584
- Konten Extreme Center itu hebat.
- Dia amat menyukainya.
1132
01:06:02,667 --> 01:06:03,626
Melakukan lelang.
1133
01:06:04,586 --> 01:06:08,548
Ada 843 penawar, dia terjual
seharga 4,35 sen ke pabrik senjata.
1134
01:06:08,631 --> 01:06:10,842
Ayo promosikan beberapa acara ini.
1135
01:06:10,925 --> 01:06:13,511
Unjuk rasa mendatang di zona geografisnya
akhir pekan ini.
1136
01:06:13,595 --> 01:06:15,180
Aku juga punya naravlog baru.
1137
01:06:17,849 --> 01:06:22,979
Sejujurnya, percayalah,
aku bersedia melakukan apa saja.
1138
01:06:23,062 --> 01:06:24,939
Maksudku, apa saja.
1139
01:06:32,155 --> 01:06:33,198
- Berlanggananlah
- Ben?
1140
01:06:33,281 --> 01:06:35,950
dan kembalilah lagi karena percayalah,
1141
01:06:36,618 --> 01:06:38,870
aku punya rencana sangat besar.
1142
01:06:38,953 --> 01:06:40,205
Rencana sangat besar.
1143
01:06:40,788 --> 01:06:45,293
Salah satu masalah dengan Facebook
adalah sebagai alat persuasi,
1144
01:06:45,793 --> 01:06:47,921
itu mungkin hal terhebat
yang pernah dibuat.
1145
01:06:48,171 --> 01:06:52,508
Sekarang, bayangkan artinya itu
di tangan diktator atau pemimpin otoriter.
1146
01:06:53,718 --> 01:06:57,639
Jika kita ingin mengendalikan
populasi negaramu,
1147
01:06:57,722 --> 01:07:01,309
tak pernah ada alat
yang seefektif Facebook.
1148
01:07:04,938 --> 01:07:07,398
Beberapa implikasi yang paling meresahkan
1149
01:07:07,482 --> 01:07:11,236
dari pemerintah dan pelaku jahat lain
yang menjadikan media sosial senjata
1150
01:07:11,528 --> 01:07:13,613
adalah menyebabkan bahaya di dunia nyata.
1151
01:07:13,696 --> 01:07:15,073
Kurasa contoh paling menonjol
1152
01:07:15,156 --> 01:07:17,659
yang banyak diberitakan
adalah kejadian di Myanmar.
1153
01:07:17,742 --> 01:07:19,160
KANTOR KEPRESIDENAN MYANMAR
1154
01:07:19,244 --> 01:07:21,204
Di Myanmar,
saat orang memikirkan internet,
1155
01:07:21,287 --> 01:07:22,914
yang terpikir adalah Facebook.
1156
01:07:22,997 --> 01:07:25,917
Yang sering terjadi adalah
saat orang-orang membeli ponsel,
1157
01:07:26,000 --> 01:07:29,921
pemilik toko ponsel
akan memasangkan Facebook
1158
01:07:30,004 --> 01:07:31,506
dan membuatkan mereka akun.
1159
01:07:31,589 --> 01:07:34,884
Jadi, saat mendapatkan ponsel,
hal pertama yang mereka buka
1160
01:07:34,968 --> 01:07:37,595
dan yang mereka tahu cara membukanya
hanyalah Facebook.
1161
01:07:38,179 --> 01:07:41,891
Penyelidikan mengejutkan baru mengungkap
makin sulitnya Facebook
1162
01:07:41,975 --> 01:07:43,810
mengatasi ujaran kebencian di Myanmar.
1163
01:07:43,893 --> 01:07:46,020
BERHENTI MEMBUNUH MUSLIM
1164
01:07:46,104 --> 01:07:49,190
Facebook benar-benar memberi militer
dan pelaku jahat lainnya
1165
01:07:49,274 --> 01:07:51,776
cara baru memanipulasi opini publik
1166
01:07:51,859 --> 01:07:55,530
dan membantu memicu kekerasan
terhadap Muslim Rohingya
1167
01:07:55,613 --> 01:07:57,407
yang termasuk pembunuhan massal,
1168
01:07:58,074 --> 01:07:59,867
membakar seluruh desa,
1169
01:07:59,951 --> 01:08:00,952
pemerkosaan massal,
1170
01:08:01,035 --> 01:08:03,705
dan kejahatan berat lain
terhadap kemanusiaan
1171
01:08:03,788 --> 01:08:08,209
yang kini membuat 700.000 Muslim Rohingya
harus meninggalkan Myanmar.
1172
01:08:11,170 --> 01:08:16,551
Ini bukan karena pelaku propaganda
yang gencar tak ada sebelumnya,
1173
01:08:16,634 --> 01:08:19,762
tapi karena semua platform ini
memungkinkan
1174
01:08:19,846 --> 01:08:23,725
penyebaran narasi manipulatif
dengan sangat mudah
1175
01:08:23,808 --> 01:08:25,435
dan tanpa membayar mahal.
1176
01:08:25,518 --> 01:08:27,812
Jika aku ingin memanipulasi pemilu,
1177
01:08:27,895 --> 01:08:30,565
aku bisa masuk ke grup teori konspirasi
di Facebook,
1178
01:08:30,648 --> 01:08:34,444
menemukan 100 orang
yang percaya bahwa Bumi benar-benar datar
1179
01:08:34,861 --> 01:08:37,780
dan menganggap pendaratan di bulan
adalah teori konspirasi,
1180
01:08:37,864 --> 01:08:41,451
lalu bisa kuminta Facebook memberiku
seribu pengguna yang tampak seperti itu.
1181
01:08:42,118 --> 01:08:46,080
Facebook akan dengan senang hati mengirim
ribuan pengguna yang mirip mereka
1182
01:08:46,164 --> 01:08:49,417
yang kini bisa kujejali
dengan teori konspirasi lainnya.
1183
01:08:51,127 --> 01:08:53,129
Terjual seharga 3,4 sen per impresi.
1184
01:08:53,379 --> 01:08:56,174
- Video EC baru untuk dipromosikan.
- Satu iklan lagi siap.
1185
01:08:58,509 --> 01:09:02,138
Algoritme dan politisi manipulatif menjadi
sangat ahli
1186
01:09:02,221 --> 01:09:04,057
dalam mempelajari cara memicu kita,
1187
01:09:04,140 --> 01:09:08,353
makin mahir menciptakan berita palsu
yang kita serap seolah-olah itu kenyataan
1188
01:09:08,436 --> 01:09:10,813
dan membingungkan kita
untuk meyakini kebohongan itu.
1189
01:09:10,897 --> 01:09:14,150
Seolah-olah kita kehilangan kendali
atas jati diri dan keyakinan kita.
1190
01:09:31,376 --> 01:09:32,668
...agar mereka bisa memihak.
1191
01:09:32,752 --> 01:09:34,879
Ada kebohongan di sini dan di sana.
1192
01:09:34,962 --> 01:09:39,967
Agar mereka bisa terus berkuasa
dan mengendalikan semuanya.
1193
01:09:40,051 --> 01:09:42,637
Mereka bisa mengendalikan pikiran kita
1194
01:09:42,720 --> 01:09:46,391
agar mereka bisa menyimpan rahasia mereka.
1195
01:09:46,474 --> 01:09:48,601
CDC MENGAKU MENUTUPI
FAKTA VAKSIN MEMICU AUTISME
1196
01:09:48,684 --> 01:09:50,895
Bayangkan dunia
tempat kebenaran tak dipercaya.
1197
01:09:50,978 --> 01:09:52,814
VAKSIN ITU BERACUN
LINDUNGI ANAK KITA
1198
01:09:52,897 --> 01:09:55,650
Semua orang percaya
pemerintah membohongi mereka.
1199
01:09:56,317 --> 01:09:58,444
Semuanya adalah teori konspirasi.
1200
01:09:58,528 --> 01:10:01,197
"Aku tak boleh percaya siapa pun.
Aku benci pihak lain."
1201
01:10:01,280 --> 01:10:02,698
Itulah arah semua ini.
1202
01:10:02,782 --> 01:10:06,160
Gempa bumi politik di Eropa
terus bergemuruh,
1203
01:10:06,244 --> 01:10:08,413
kali ini di Italia dan Spanyol.
1204
01:10:08,496 --> 01:10:11,999
Koalisi sentris tradisional Eropa
kehilangan mayoritas suaranya
1205
01:10:12,083 --> 01:10:15,002
sementara partai sayap kanan dan kiri
alami peningkatan.
1206
01:10:19,716 --> 01:10:20,591
Mundur.
1207
01:10:21,676 --> 01:10:22,510
Baiklah, ayo.
1208
01:10:28,391 --> 01:10:31,269
Akun-akun ini dengan sengaja
dan secara khusus berusaha
1209
01:10:31,352 --> 01:10:33,896
menebar pertikaian politik di Hong Kong.
1210
01:10:38,609 --> 01:10:39,610
Baiklah, Ben.
1211
01:10:42,864 --> 01:10:45,032
Bagaimana rasanya menjadi negara
1212
01:10:45,116 --> 01:10:48,411
yang sumber informasi utamanya
adalah Facebook dan media sosial?
1213
01:10:48,953 --> 01:10:50,872
Demokrasi hancur begitu cepat.
1214
01:10:50,955 --> 01:10:51,831
Enam bulan.
1215
01:10:51,914 --> 01:10:53,791
Setelah kekacauan di Chicago,
1216
01:10:53,875 --> 01:10:57,086
bentrokan antara pemrotes dan pendukung,
1217
01:10:58,004 --> 01:11:01,632
Demokrasi menghadapi krisis kepercayaan.
1218
01:11:01,716 --> 01:11:04,343
Yang kita lihat adalah serangan global
terhadap demokrasi.
1219
01:11:05,136 --> 01:11:07,930
Mayoritas negara yang menjadi target
adalah negara-negara
1220
01:11:08,014 --> 01:11:10,099
yang menjalankan pemilu demokratis.
1221
01:11:10,725 --> 01:11:12,518
Ini terjadi dalam skala besar.
1222
01:11:12,602 --> 01:11:15,563
Oleh pihak negara dan pemilik jutaan dolar
yang berkata,
1223
01:11:15,646 --> 01:11:18,524
"Aku ingin mengacaukan Kenya
atau Kamerun.
1224
01:11:18,608 --> 01:11:20,651
Angola? Itu hanya seharga ini."
1225
01:11:20,735 --> 01:11:23,362
Pemilu luar biasa berlangsung
hari Minggu lalu di Brasil.
1226
01:11:23,446 --> 01:11:25,823
Dengan kampanye yang didukung
media sosial.
1227
01:11:31,037 --> 01:11:33,956
Kami dari industri teknologi
telah menciptakan alat
1228
01:11:34,248 --> 01:11:37,418
untuk mengacaukan
dan mengikis struktur masyarakat,
1229
01:11:37,502 --> 01:11:40,254
di setiap negara sekaligus, di mana-mana.
1230
01:11:40,338 --> 01:11:44,509
Ini terjadi di Jerman, Spanyol, Prancis,
Brasil, Australia.
1231
01:11:44,592 --> 01:11:46,928
Beberapa negara maju di dunia
1232
01:11:47,428 --> 01:11:49,222
kini saling menghancurkan
1233
01:11:49,305 --> 01:11:50,932
dan apa kesamaan mereka?
1234
01:11:51,974 --> 01:11:56,312
Sepengetahuanmu, apa kau percaya
Facebook memengaruhi hasil pemilu 2016?
1235
01:11:56,854 --> 01:11:58,189
Itu sulit.
1236
01:11:59,148 --> 01:12:00,024
Itu...
1237
01:12:01,275 --> 01:12:04,654
Kenyataannya adalah
ada begitu banyak faktor.
1238
01:12:04,737 --> 01:12:07,865
Perwakilan dari Facebook, Twitter,
dan Google kembali ke Capitol Hill
1239
01:12:07,949 --> 01:12:09,450
untuk kesaksian hari kedua
1240
01:12:09,534 --> 01:12:12,578
soal campur tangan Rusia
dalam pemilu 2016.
1241
01:12:12,662 --> 01:12:17,291
Manipulasi oleh pihak ketiga
bukanlah peretasan.
1242
01:12:18,501 --> 01:12:21,462
Rusia tak meretas Facebook.
1243
01:12:21,629 --> 01:12:24,966
Yang mereka lakukan adalah
menggunakan alat yang dibuat Facebook
1244
01:12:25,049 --> 01:12:27,844
untuk pengiklan dan pengguna yang sah,
1245
01:12:27,927 --> 01:12:30,346
yang mereka terapkan untuk tujuan jahat.
1246
01:12:31,973 --> 01:12:34,016
Itu seperti perang
dengan kendali jarak jauh.
1247
01:12:34,475 --> 01:12:36,602
Satu negara bisa memanipulasi negara lain
1248
01:12:36,686 --> 01:12:39,230
tanpa menyerbu perbatasan fisiknya.
1249
01:12:39,522 --> 01:12:41,023
Kita melihat video kekerasan ini.
1250
01:12:41,107 --> 01:12:43,317
Tampaknya itu bak sampah yang didorong...
1251
01:12:43,401 --> 01:12:45,903
Namun, itu bukan soal siapa
yang ingin kita pilih,
1252
01:12:46,362 --> 01:12:50,575
tapi soal menabur kekacauan
dan perpecahan di masyarakat.
1253
01:12:50,658 --> 01:12:53,077
Ini terjadi di Huntington Beach,
sebuah demonstrasi...
1254
01:12:53,160 --> 01:12:54,870
Ini soal membuat dua pihak
1255
01:12:54,954 --> 01:12:58,082
yang tak bisa
dan mau saling mendengar lagi,
1256
01:12:58,165 --> 01:12:59,876
yang tak saling percaya lagi.
1257
01:12:59,959 --> 01:13:02,253
Ini kota tempat kebencian diumbar
1258
01:13:03,296 --> 01:13:05,464
dan berubah menjadi kekerasan rasial.
1259
01:13:05,548 --> 01:13:07,633
KETEGANGAN VIRGINIA
TIGA TEWAS DALAM KEKERASAN
1260
01:13:20,146 --> 01:13:20,980
Ben!
1261
01:13:21,606 --> 01:13:22,440
Cassandra!
1262
01:13:22,982 --> 01:13:23,816
- Cass!
- Ben!
1263
01:13:23,900 --> 01:13:25,484
Kemari kau!
1264
01:13:27,486 --> 01:13:31,157
Angkat tangan. Berlutut. Tiarap.
1265
01:13:36,120 --> 01:13:37,204
- Tenang...
- Ben!
1266
01:13:37,288 --> 01:13:38,581
Hei! Angkat tangan!
1267
01:13:39,624 --> 01:13:41,292
Berbaliklah. Tiarap.
1268
01:13:56,807 --> 01:13:59,644
Apa kita ingin sistem ini dijual
kepada penawar tertinggi?
1269
01:13:59,727 --> 01:14:01,312
PRANCIS 2019
1270
01:14:01,395 --> 01:14:05,399
Demokrasi yang bisa dijual dan kita bisa
menjangkau benak siapa pun yang kita mau,
1271
01:14:05,483 --> 01:14:08,694
membuat kebohongan pada populasi tertentu
dan membuat perang budaya?
1272
01:14:09,236 --> 01:14:10,237
Apa kita mau itu?
1273
01:14:14,784 --> 01:14:16,202
Kita adalah bangsa...
1274
01:14:16,952 --> 01:14:18,621
yang tak saling bicara lagi.
1275
01:14:18,704 --> 01:14:19,997
SENATOR FLORIDA, AS
1276
01:14:20,081 --> 01:14:23,000
Kita bangsa orang yang berhenti berteman
dengan orang
1277
01:14:23,084 --> 01:14:25,294
karena pilihan mereka di pemilu lalu.
1278
01:14:25,962 --> 01:14:28,422
Kita bangsa yang mengisolasi diri
1279
01:14:28,506 --> 01:14:30,966
untuk menonton saluran
yang membenarkan kita saja.
1280
01:14:32,510 --> 01:14:36,806
Pesan saya hari ini
adalah kesukuan menghancurkan kita.
1281
01:14:37,348 --> 01:14:39,183
Ini menghancurkan negara kita.
1282
01:14:40,226 --> 01:14:43,104
Bukan seperti ini
cara orang dewasa waras bertindak.
1283
01:14:43,187 --> 01:14:45,398
Jika semua berhak meyakini
fakta yang mereka mau,
1284
01:14:45,481 --> 01:14:49,402
tak perlu ada kompromi
dan orang-orang tak perlu berkumpul.
1285
01:14:49,485 --> 01:14:51,696
Bahkan,
orang-orang tak perlu berinteraksi.
1286
01:14:52,321 --> 01:14:56,617
Kita harus memiliki pemahaman bersama
tentang kenyataan.
1287
01:14:57,368 --> 01:14:58,411
Atau kita bukan negara.
1288
01:14:58,911 --> 01:15:02,998
Jadi, solusi jangka panjangnya
adalah membangun lebih banyak alat IA
1289
01:15:03,082 --> 01:15:08,129
yang menemukan pola penggunaan layanan
yang mustahil dilakukan orang sungguhan.
1290
01:15:08,212 --> 01:15:11,841
Kita mengizinkan para pakar teknologi
menganggap ini sebagai masalah
1291
01:15:11,924 --> 01:15:14,010
yang siap mereka pecahkan.
1292
01:15:15,136 --> 01:15:16,470
Itu bohong.
1293
01:15:17,638 --> 01:15:20,766
Orang-orang membahas IA
seolah-olah itu akan paham kebenaran.
1294
01:15:21,684 --> 01:15:23,811
IA takkan menyelesaikan masalah ini.
1295
01:15:24,228 --> 01:15:27,189
IA tak bisa memecahkan
masalah berita palsu.
1296
01:15:28,649 --> 01:15:31,026
Google tak punya pilihan untuk bilang,
1297
01:15:31,110 --> 01:15:34,363
"Apa ini konspirasi? Apa ini kebenaran?"
1298
01:15:34,655 --> 01:15:36,240
Karena mereka tak tahu kebenaran.
1299
01:15:36,824 --> 01:15:40,411
Mereka tak punya proksi kebenaran
yang lebih baik dari klik.
1300
01:15:41,871 --> 01:15:45,124
Jika kita tak setuju soal apa yang benar
1301
01:15:45,207 --> 01:15:47,585
atau kebenaran itu sungguh ada,
1302
01:15:48,294 --> 01:15:49,295
kita akan hancur.
1303
01:15:49,879 --> 01:15:52,089
Ini masalah di bawah masalah lain,
1304
01:15:52,173 --> 01:15:54,425
karena jika tak bisa sepakat
soal apa yang benar,
1305
01:15:55,092 --> 01:15:57,803
kita tak bisa keluar
dari semua masalah kita.
1306
01:16:05,352 --> 01:16:07,855
Sebaiknya sarankan dia ikuti
Klub Sepak Bola Bumi Datar.
1307
01:16:07,938 --> 01:16:10,399
Jangan tunjukkan kabar olahraga lagi.
Dia tak tertarik.
1308
01:16:39,970 --> 01:16:42,765
Banyak orang di Silicon Valley
yang meyakini sebuah teori
1309
01:16:42,848 --> 01:16:45,226
bahwa kita sedang membangun
otak super global
1310
01:16:45,309 --> 01:16:48,020
dan semua pengguna
hanyalah neuron kecil yang bisa ditukar.
1311
01:16:48,104 --> 01:16:49,563
Tak ada yang penting.
1312
01:16:50,231 --> 01:16:53,150
Itu memaksa orang mengambil peran aneh
1313
01:16:53,234 --> 01:16:56,070
yang menjadikan kita
sebuah elemen komputer kecil
1314
01:16:56,153 --> 01:16:58,906
yang diprogram lewat manipulasi perilaku
1315
01:16:58,989 --> 01:17:02,368
untuk melayani otak raksasa ini
dan kita tak penting.
1316
01:17:02,451 --> 01:17:06,455
Kita takkan dibayar, diakui,
dan tak bisa menentukan nasib sendiri.
1317
01:17:06,539 --> 01:17:09,416
Kami akan diam-diam memanipulasimu
karena kau simpul komputer,
1318
01:17:09,500 --> 01:17:12,336
jadi, kami harus memprogrammu
karena begitulah simpul komputer.
1319
01:17:20,094 --> 01:17:21,095
Astaga.
1320
01:17:21,887 --> 01:17:25,391
Saat memikirkan teknologi
yang menjadi ancaman eksistensial,
1321
01:17:25,474 --> 01:17:28,060
itu pernyataan berani dan...
1322
01:17:29,603 --> 01:17:33,983
Maka akan mudah bagi kita untuk berpikir,
"Baiklah, aku membawa ponsel...
1323
01:17:35,526 --> 01:17:37,236
menggulir, mengeklik, menggunakannya.
1324
01:17:37,319 --> 01:17:39,238
Di mana ancaman eksistensialnya?
1325
01:17:40,239 --> 01:17:41,615
Ada komputer super,
1326
01:17:41,699 --> 01:17:44,034
di sisi lain layar, mengarah ke otakku,
1327
01:17:44,451 --> 01:17:47,538
membuatku menonton satu video lagi.
Di mana ancaman eksistensialnya?"
1328
01:17:54,253 --> 01:17:59,341
Ini bukan soal teknologi
yang menjadi ancaman eksistensial.
1329
01:18:02,511 --> 01:18:04,722
DENGAR PENDAPAT SENAT AS
SOAL TEKNOLOGI PERSUASIF
1330
01:18:04,805 --> 01:18:06,348
Namun, kemampuan teknologi
1331
01:18:06,432 --> 01:18:08,976
untuk menghadirkan kemungkinan terburuk
di masyarakat
1332
01:18:09,560 --> 01:18:13,522
dan kemungkinan terburuk itulah
ancaman eksistensialnya.
1333
01:18:13,606 --> 01:18:15,900
SENAT AMERIKA SERIKAT
1334
01:18:18,777 --> 01:18:20,571
Jika teknologi menciptakan
1335
01:18:21,655 --> 01:18:24,533
kekacauan massal, kemarahan,
ketidaksopanan,
1336
01:18:24,617 --> 01:18:26,327
kurangnya saling percaya,
1337
01:18:27,453 --> 01:18:30,623
kesepian, alienasi,
peningkatan polarisasi,
1338
01:18:30,706 --> 01:18:33,334
peretasan pemilu, populisme,
1339
01:18:33,918 --> 01:18:36,962
gangguan, dan ketidakmampuan berfokus
pada isu sebenarnya...
1340
01:18:37,963 --> 01:18:39,214
itulah masyarakat.
1341
01:18:40,341 --> 01:18:46,388
Kini masyarakat tak mampu
menyembuhkan dirinya
1342
01:18:46,472 --> 01:18:48,724
dan berubah menjadi semacam kekacauan.
1343
01:18:51,977 --> 01:18:54,939
Ini memengaruhi semua orang,
meski kita tak memakai produk ini.
1344
01:18:55,481 --> 01:18:57,524
Semua ini telah menjadi
Frankenstein digital
1345
01:18:57,608 --> 01:19:00,110
yang mengubah dunia
sesuai bayangan mereka,
1346
01:19:00,194 --> 01:19:01,862
entah itu kesehatan mental anak-anak
1347
01:19:01,946 --> 01:19:04,490
atau politik dan wacana politik kita,
1348
01:19:04,573 --> 01:19:07,493
tanpa bertanggung jawab membahasnya
di ranah publik.
1349
01:19:07,576 --> 01:19:10,579
- Jadi, itu kembali ke...
- Menurutmu siapa yang bertanggung jawab?
1350
01:19:10,663 --> 01:19:13,582
Kurasa kita harus meminta platform
bertanggung jawab
1351
01:19:13,666 --> 01:19:15,584
karena saat mengambil alih iklan pemilu,
1352
01:19:15,668 --> 01:19:17,753
mereka bertanggung jawab
melindungi pemilu.
1353
01:19:17,836 --> 01:19:20,464
Saat menguasai kesehatan mental anak
atau acara Sabtu pagi,
1354
01:19:20,547 --> 01:19:22,716
mereka bertanggung jawab
melindungi Sabtu pagi.
1355
01:19:23,801 --> 01:19:27,930
Perlombaan untuk menarik perhatian orang
tak akan hilang.
1356
01:19:28,639 --> 01:19:31,850
Teknologi kita akan menjadi lebih menyatu
dengan kehidupan kita.
1357
01:19:31,934 --> 01:19:34,979
IA akan lebih mahir memprediksi
hal yang membuat kita melihat layar,
1358
01:19:35,062 --> 01:19:37,106
bukan lebih buruk dalam memprediksinya.
1359
01:19:38,941 --> 01:19:42,027
Usiaku 62 tahun,
1360
01:19:42,111 --> 01:19:45,114
makin tua
seiring percakapan ini berlangsung,
1361
01:19:45,197 --> 01:19:47,366
tapi aku akan memberitahumu...
1362
01:19:48,701 --> 01:19:52,371
Aku mungkin akan mati
dan mungkin akan bersyukur untuk itu
1363
01:19:52,454 --> 01:19:54,373
saat semua ini membuahkan hasil.
1364
01:19:54,790 --> 01:19:59,753
Karena kupikir ini membuatku sangat takut.
1365
01:20:00,921 --> 01:20:03,298
Apa kau sependapat?
1366
01:20:03,549 --> 01:20:06,885
Atau aku bereaksi berlebihan
pada situasi yang kurang kuketahui?
1367
01:20:09,930 --> 01:20:11,640
Apa yang paling kau cemaskan?
1368
01:20:15,519 --> 01:20:18,480
Kurasa dalam jangka pendek...
1369
01:20:19,523 --> 01:20:20,524
perang saudara.
1370
01:20:24,445 --> 01:20:29,908
Jika kita teruskan situasi saat ini,
anggaplah hingga 20 tahun lagi...
1371
01:20:31,118 --> 01:20:34,580
peradaban kita mungkin akan hancur
karena kebodohan yang disengaja.
1372
01:20:34,663 --> 01:20:37,958
Kita mungkin gagal menghadapi
tantangan perubahan iklim.
1373
01:20:38,042 --> 01:20:42,087
Kita mungkin memperburuk demokrasi dunia
1374
01:20:42,171 --> 01:20:46,133
sehingga mereka jatuh
ke dalam disfungsi autokrat yang aneh.
1375
01:20:46,216 --> 01:20:48,510
Kita mungkin merusak ekonomi global.
1376
01:20:49,136 --> 01:20:52,264
Kita mungkin tak selamat.
1377
01:20:52,348 --> 01:20:54,808
Aku sungguh menganggap ini eksistensial.
1378
01:21:02,483 --> 01:21:04,985
Apa ini generasi terakhir
1379
01:21:05,069 --> 01:21:08,822
yang akan tahu rasanya
sebelum ilusi ini terjadi?
1380
01:21:11,075 --> 01:21:14,578
Bagaimana kita terbangun dari matriks
saat kita tak tahu ada di matriks?
1381
01:21:17,748 --> 01:21:23,253
"MENJADI UTOPIA ATAU DILUPAKAN,
AKAN DITENTUKAN OLEH LOMBA ESTAFET
1382
01:21:23,337 --> 01:21:27,299
HINGGA SAAT TERAKHIR..."
BUCKMINSTER FULLER
1383
01:21:27,382 --> 01:21:30,636
Banyak ucapan kami yang terdengar
seolah-olah ini...
1384
01:21:31,512 --> 01:21:33,680
hanyalah hanya malapetaka
dan kesuraman sepihak.
1385
01:21:33,764 --> 01:21:36,809
Seperti, "Astaga,
teknologi menghancurkan dunia...
1386
01:21:36,892 --> 01:21:39,520
dan anak-anak," tapi tidak.
1387
01:21:40,229 --> 01:21:45,567
Ini membingungkan
karena ini utopia sekaligus distopia.
1388
01:21:45,943 --> 01:21:50,447
Aku bisa menekan tombol di ponselku
dan mobil akan muncul dalam 30 detik,
1389
01:21:50,531 --> 01:21:52,699
lalu aku bisa pergi ke tujuanku.
1390
01:21:53,033 --> 01:21:55,786
Itu ajaib. Itu luar biasa.
1391
01:21:56,161 --> 01:21:58,789
Saat kami membuat tombol "Suka",
motivasi kami adalah,
1392
01:21:58,872 --> 01:22:01,500
"Bisakah kita menyebarkan aura positif
dan cinta di dunia?"
1393
01:22:01,583 --> 01:22:06,380
Lalu berpikir bahwa kini remaja tertekan
saat tak banyak dapat respons "Suka"
1394
01:22:06,463 --> 01:22:08,632
atau itu bisa mengarah
ke polarisasi politik,
1395
01:22:08,715 --> 01:22:09,883
tak terpikir oleh kami.
1396
01:22:10,175 --> 01:22:12,344
Kurasa mereka tak berniat jahat.
1397
01:22:13,512 --> 01:22:15,764
Hanya model bisnisnya yang bermasalah.
1398
01:22:15,848 --> 01:22:20,227
Kita bisa menutup layanannya
dan menghancurkan apa pun itu,
1399
01:22:20,310 --> 01:22:24,398
nilai pemegang saham 20 miliar dolar,
dituntut...
1400
01:22:24,481 --> 01:22:27,109
Namun, kita tak bisa membalikkan
keadaan seperti masa lalu.
1401
01:22:27,442 --> 01:22:30,404
Kita bisa membuat modifikasi kecil,
tapi pada akhirnya,
1402
01:22:30,487 --> 01:22:34,032
pendapatan dan penggunaan harus meningkat,
kuartal dari kuartal.
1403
01:22:34,658 --> 01:22:37,536
Makin besar itu,
makin sulit bagi siapa pun untuk berubah.
1404
01:22:38,495 --> 01:22:43,458
Yang kulihat adalah sekelompok orang yang
terjebak oleh model bisnis,
1405
01:22:43,542 --> 01:22:46,170
insentif ekonomi,
dan tekanan pemegang saham
1406
01:22:46,253 --> 01:22:48,922
yang membuatnya hampir mustahil
untuk melakukan hal lain.
1407
01:22:49,006 --> 01:22:50,841
Kurasa kita harus menerima fakta
1408
01:22:50,924 --> 01:22:53,177
bahwa perusahaan boleh berfokus
menghasilkan uang.
1409
01:22:53,260 --> 01:22:56,889
Yang buruk adalah saat tak ada regulasi,
aturan, dan persaingan
1410
01:22:56,972 --> 01:23:00,851
dan perusahaan bertindak
sebagai pemerintah yang asli.
1411
01:23:01,143 --> 01:23:03,353
Lalu mereka berkata,
"Kami bisa mengatur diri."
1412
01:23:03,437 --> 01:23:05,981
Itu sebuah kebohongan. Itu konyol.
1413
01:23:06,064 --> 01:23:09,151
Insentif keuangan bisa dibilang
mengatur dunia,
1414
01:23:09,234 --> 01:23:15,574
jadi, apa pun solusi masalah ini
haruslah mengubah insentif keuangan itu.
1415
01:23:16,158 --> 01:23:18,785
Tak ada alasan fiskal
agar perusahaan ini berubah.
1416
01:23:19,161 --> 01:23:21,330
Itu sebabnya kita perlu peraturan.
1417
01:23:21,413 --> 01:23:24,291
Perusahaan telepon punya
banyak data sensitif soal kita
1418
01:23:24,374 --> 01:23:27,544
dan ada banyak hukum yang memastikan
mereka tak berbuat salah.
1419
01:23:27,628 --> 01:23:31,506
Kita hampir tak punya hukum
tentang privasi digital misalnya.
1420
01:23:31,590 --> 01:23:34,426
Kita bisa memajaki pemungutan
dan pemrosesan data.
1421
01:23:34,510 --> 01:23:37,554
Sama seperti saat kita membayar
tagihan air
1422
01:23:37,638 --> 01:23:39,723
dengan memantau jumlah penggunaan air,
1423
01:23:39,806 --> 01:23:43,227
kenakan pajak pada perusahaan ini
atas aset data yang mereka miliki.
1424
01:23:43,310 --> 01:23:44,770
Itu memberi mereka alasan fiskal
1425
01:23:44,853 --> 01:23:47,856
untuk tak memperoleh semua data
di planet ini.
1426
01:23:48,148 --> 01:23:50,567
Hukum jauh tertinggal dalam hal ini.
1427
01:23:50,651 --> 01:23:55,864
Yang kutahu, situasi saat ini ada
bukan untuk melindungi pengguna,
1428
01:23:55,948 --> 01:23:58,700
tapi untuk perlindungan hak dan privilese
1429
01:23:58,784 --> 01:24:01,453
dari semua perusahaan raksasa
yang sangat kaya ini.
1430
01:24:02,204 --> 01:24:05,832
Apa kita akan selalu tunduk
kepada orang terkaya dan paling berkuasa?
1431
01:24:05,916 --> 01:24:07,417
Atau kita akan bilang,
1432
01:24:07,960 --> 01:24:12,047
"Ada kalanya saat kepentingan nasional,
1433
01:24:12,130 --> 01:24:15,592
ada kalanya saat kepentingan orang
atau para pengguna,
1434
01:24:15,676 --> 01:24:17,386
sebenarnya lebih penting
1435
01:24:18,011 --> 01:24:21,473
daripada keuntungan
bagi orang yang sudah menjadi miliarder"?
1436
01:24:21,848 --> 01:24:26,603
Pasar-pasar ini merusak demokrasi
dan kebebasan.
1437
01:24:26,687 --> 01:24:28,522
Mereka harus dilarang.
1438
01:24:29,147 --> 01:24:31,817
Ini bukan proposal radikal.
1439
01:24:31,900 --> 01:24:34,194
Ada pasar lain yang kita larang.
1440
01:24:34,278 --> 01:24:36,989
Kita melarang pasar organ manusia.
1441
01:24:37,197 --> 01:24:39,491
Kami melarang pasar budak manusia.
1442
01:24:39,950 --> 01:24:44,037
Karena mereka punya konsekuensi merusak
yang tak terelakkan.
1443
01:24:44,663 --> 01:24:45,831
Kita hidup di dunia
1444
01:24:45,914 --> 01:24:50,252
tempat pohon mati bernilai lebih,
secara finansial, daripada yang hidup.
1445
01:24:50,335 --> 01:24:53,839
Dunia tempat paus mati lebih berharga
daripada yang hidup.
1446
01:24:53,922 --> 01:24:56,341
Jika ekonomi kita terus bekerja
seperti itu
1447
01:24:56,425 --> 01:24:58,135
dan perusahaan tak diatur,
1448
01:24:58,218 --> 01:25:00,679
mereka akan terus menghancurkan pohon,
1449
01:25:00,762 --> 01:25:01,763
membunuh paus,
1450
01:25:01,847 --> 01:25:06,101
menambang tanah,
dan terus menarik minyak dari tanah,
1451
01:25:06,184 --> 01:25:08,395
meski kita tahu itu menghancurkan planet
1452
01:25:08,478 --> 01:25:12,149
dan membuat dunia yang lebih buruk
untuk generasi mendatang.
1453
01:25:12,232 --> 01:25:13,859
Ini pemikiran jangka pendek
1454
01:25:13,942 --> 01:25:16,695
berdasarkan perilaku
yang menuhankan keuntungan ini,
1455
01:25:16,778 --> 01:25:20,073
seolah-olah secara ajaib,
tiap perusahaan yang bertindak egois ini
1456
01:25:20,157 --> 01:25:21,950
akan memberikan hasil terbaik.
1457
01:25:22,034 --> 01:25:24,494
Ini sudah memengaruhi lingkungan
sejak lama.
1458
01:25:24,703 --> 01:25:27,205
Yang menakutkan
dan semoga ini menjadi pemicu terakhir
1459
01:25:27,289 --> 01:25:29,249
yang akan menyadarkan kita
sebagai peradaban
1460
01:25:29,333 --> 01:25:31,710
akan betapa salahnya teori ini sejak awal
1461
01:25:31,793 --> 01:25:35,005
adalah menganggap
bahwa kini kitalah pohon dan pausnya.
1462
01:25:35,088 --> 01:25:37,049
Perhatian kita bisa ditambang.
1463
01:25:37,132 --> 01:25:39,134
Kita akan lebih menguntungkan perusahaan
1464
01:25:39,217 --> 01:25:41,595
jika kita menghabiskan waktu
menatap layar,
1465
01:25:41,678 --> 01:25:42,971
menatap iklan,
1466
01:25:43,055 --> 01:25:45,891
daripada menghabiskan waktu itu
untuk menikmati hidup.
1467
01:25:45,974 --> 01:25:47,559
Jadi, kini kita melihat akibatnya.
1468
01:25:47,642 --> 01:25:50,687
Kita melihat perusahaan menggunakan
inteligensi artifisial yang kuat
1469
01:25:50,771 --> 01:25:53,607
untuk mengakali dan mencari cara
menarik perhatian kita
1470
01:25:53,690 --> 01:25:57,069
menuju hal yang mereka mau kita lihat,
daripada hal yang paling konsisten
1471
01:25:57,152 --> 01:25:59,237
dengan tujuan, nilai, dan hidup kita.
1472
01:26:02,991 --> 01:26:04,451
PIDATO UTAMA HARI INI
STEVE JOBS
1473
01:26:05,535 --> 01:26:06,912
Arti komputer bagiku adalah
1474
01:26:06,995 --> 01:26:10,290
ini alat paling luar biasa
yang pernah kami buat.
1475
01:26:11,124 --> 01:26:13,877
Itu setara dengan sepeda
untuk pikiran kita.
1476
01:26:15,587 --> 01:26:20,342
Ide soal teknologi manusiawi,
itulah awal mula Silicon Valley.
1477
01:26:21,051 --> 01:26:25,722
Lalu kita kehilangan arah
karena itu menjadi tindakan yang keren,
1478
01:26:25,806 --> 01:26:27,265
bukan yang benar.
1479
01:26:27,557 --> 01:26:29,726
Dulu internet adalah
tempat yang aneh dan gila.
1480
01:26:30,018 --> 01:26:31,395
Itu eksperimental.
1481
01:26:31,520 --> 01:26:34,731
Dulu hal-hal kreatif terjadi di internet
dan tentu masih hingga kini,
1482
01:26:34,815 --> 01:26:38,610
tapi kini rasanya itu seperti mal raksasa.
1483
01:26:38,694 --> 01:26:44,282
Aku berpikir, "Astaga, pasti ada sesuatu
yang lebih dari itu."
1484
01:26:46,743 --> 01:26:48,412
Kurasa aku hanya optimistis.
1485
01:26:48,495 --> 01:26:52,165
Karena kurasa kita bisa mengubah
rupa dan arti media sosial.
1486
01:26:54,251 --> 01:26:57,921
Cara kerja teknologi bukan hukum fisika.
Tidak mustahil diubah.
1487
01:26:58,004 --> 01:27:02,175
Ini adalah pilihan yang dibuat
manusia sepertiku selama ini.
1488
01:27:02,968 --> 01:27:05,345
Manusia bisa mengubah teknologi itu.
1489
01:27:06,972 --> 01:27:09,975
Pertanyaannya sekarang adalah
apakah kita bersedia mengakui
1490
01:27:10,475 --> 01:27:15,439
bahwa hasil buruk itu adalah
wujud produk dari pekerjaan kita.
1491
01:27:21,027 --> 01:27:24,865
Kita membangun ini
dan bertanggung jawab untuk mengubahnya.
1492
01:27:37,169 --> 01:27:38,712
Model ekstraksi perhatian
1493
01:27:38,795 --> 01:27:42,299
bukanlah cara memperlakukan manusia
yang kita mau.
1494
01:27:46,094 --> 01:27:48,138
Ini perasaanku saja atau...
1495
01:27:49,806 --> 01:27:50,849
Pria yang malang.
1496
01:27:51,475 --> 01:27:53,226
Struktur masyarakat yang sehat
1497
01:27:53,310 --> 01:27:56,146
bergantung pada keluarnya kita
dari model bisnis merusak ini.
1498
01:28:04,696 --> 01:28:07,782
Kita bisa menuntut
produk ini dirancang secara manusiawi.
1499
01:28:09,409 --> 01:28:13,205
Kita bisa menuntut untuk tak diperlakukan
sebagai sumber daya yang bisa diekstraksi.
1500
01:28:15,165 --> 01:28:18,460
Tujuannya mungkin bisa berupa
cara kita membuat dunia lebih baik.
1501
01:28:20,462 --> 01:28:23,798
Dalam sejarah, setiap ada perubahan
ke arah yang lebih baik,
1502
01:28:23,882 --> 01:28:26,343
itu karena seseorang maju dan berkata,
1503
01:28:26,426 --> 01:28:28,428
"Ini bodoh. Kita bisa lebih baik."
1504
01:28:29,179 --> 01:28:32,557
Para kritikuslah yang mendorong perbaikan.
1505
01:28:33,141 --> 01:28:35,393
Para kritikuslah
yang benar-benar optimistis.
1506
01:28:38,313 --> 01:28:39,147
Halo.
1507
01:28:46,196 --> 01:28:47,697
Maksudku, itu agak gila, bukan?
1508
01:28:47,781 --> 01:28:51,535
Seolah-olah desain fundamental
dari hal ini...
1509
01:28:52,994 --> 01:28:54,955
tidak berjalan ke arah yang baik.
1510
01:28:55,247 --> 01:28:56,873
Seluruhnya.
1511
01:28:56,957 --> 01:29:00,669
Jadi, terdengar gila jika berkata
kita harus mengubah semua itu,
1512
01:29:01,169 --> 01:29:03,046
tapi itu yang harus kita lakukan.
1513
01:29:04,381 --> 01:29:05,966
Menurutmu, kita akan berhasil?
1514
01:29:07,425 --> 01:29:08,343
Harus.
1515
01:29:21,314 --> 01:29:24,943
Sepertinya kau sangat optimistis.
1516
01:29:26,194 --> 01:29:27,404
Aku terdengar seperti itu?
1517
01:29:27,654 --> 01:29:30,198
Ya, maksudku...
Sulit kupercaya kau terus mengatakan itu
1518
01:29:30,282 --> 01:29:33,326
karena aku berpikir, "Sungguh?
Aku merasa kita menuju distopia.
1519
01:29:33,410 --> 01:29:35,370
Aku merasa kita menuju distopia
dengan cepat
1520
01:29:35,453 --> 01:29:37,914
dan butuh keajaiban
untuk mengeluarkan kita darinya."
1521
01:29:37,998 --> 01:29:40,375
Keajaiban itu, tentu saja,
adalah keinginan bersama.
1522
01:29:41,001 --> 01:29:44,588
Aku merasa optimistis
kita akan menemukan solusi,
1523
01:29:44,671 --> 01:29:47,048
tapi kurasa itu akan butuh waktu lama.
1524
01:29:47,132 --> 01:29:50,385
Karena tak semua orang menganggap ini
sebagai masalah.
1525
01:29:50,468 --> 01:29:55,890
Kurasa salah satu kegagalan besar
dalam teknologi saat ini
1526
01:29:55,974 --> 01:29:58,643
adalah kegagalan kepemimpinan
1527
01:29:58,727 --> 01:30:01,980
dari orang-orang yang tampil
dan melakukan percakapan terbuka
1528
01:30:02,063 --> 01:30:05,900
yang bukan hanya soal hal-hal baik,
tapi juga yang tak sempurna
1529
01:30:05,984 --> 01:30:08,194
agar seseorang bisa membangun
sesuatu yang baru.
1530
01:30:08,486 --> 01:30:10,322
Pada akhirnya,
1531
01:30:10,405 --> 01:30:14,618
mesin ini takkan berubah
sampai ada tekanan publik yang besar.
1532
01:30:14,701 --> 01:30:18,330
Dengan melakukan percakapan ini
dan menyuarakan pendapat kita,
1533
01:30:18,413 --> 01:30:21,082
dalam beberapa kasus
melalui teknologi ini,
1534
01:30:21,166 --> 01:30:24,252
kita bisa mulai mengubah keadaan
dan pembahasan.
1535
01:30:24,336 --> 01:30:27,005
Ini mungkin terdengar aneh,
tapi ini dunia dan komunitasku.
1536
01:30:27,088 --> 01:30:29,674
Aku tak membenci
dan mau merugikan Google atau Facebook.
1537
01:30:29,758 --> 01:30:32,886
Aku hanya ingin mengubah mereka
agar mereka tak menghancurkan dunia.
1538
01:30:32,969 --> 01:30:35,513
Aku sudah menghapus banyak aplikasi
dari ponselku
1539
01:30:35,597 --> 01:30:37,724
yang kurasa hanya membuang waktuku.
1540
01:30:37,807 --> 01:30:40,685
Semua aplikasi media sosial dan berita.
1541
01:30:40,769 --> 01:30:42,520
Aku pun mematikan notifikasi
1542
01:30:42,604 --> 01:30:45,815
pada apa pun yang menggetarkan kakiku
dengan informasi
1543
01:30:45,899 --> 01:30:48,944
yang tak tepat waktu
dan penting bagiku saat ini.
1544
01:30:49,027 --> 01:30:51,279
Karena alasan itu juga,
aku tak mengantongi kue.
1545
01:30:51,363 --> 01:30:53,198
Kurangi jumlah notifikasi yang didapat.
1546
01:30:53,281 --> 01:30:54,449
Matikan notifikasi.
1547
01:30:54,532 --> 01:30:55,950
Mematikan semua notifikasi.
1548
01:30:56,034 --> 01:30:58,536
Aku tak menggunakan Google lagi,
tapi Qwant
1549
01:30:58,620 --> 01:31:01,498
yang tak menyimpan riwayat pencarian kita.
1550
01:31:01,581 --> 01:31:04,417
Jangan pernah menerima
video rekomendasi di YouTube.
1551
01:31:04,501 --> 01:31:07,003
Selalu memilih.
Itu cara melawan yang lain.
1552
01:31:07,295 --> 01:31:12,133
Ada banyak ekstensi Chrome
yang menghapus rekomendasi.
1553
01:31:12,217 --> 01:31:15,637
Aku suka kau merekomendasikan sesuatu
untuk membatalkan yang kau buat.
1554
01:31:15,720 --> 01:31:16,554
Ya.
1555
01:31:16,930 --> 01:31:18,473
Sebelum membagi,
1556
01:31:18,556 --> 01:31:21,685
periksa fakta, pertimbangkan sumbernya,
riset lebih banyak di Google.
1557
01:31:21,768 --> 01:31:25,105
Jika sepertinya itu dirancang
untuk memancing emosi kita,
1558
01:31:25,188 --> 01:31:26,314
mungkin memang begitu.
1559
01:31:26,731 --> 01:31:29,025
Intinya, kita memilih dengan klik.
1560
01:31:29,109 --> 01:31:30,360
Jika mengeklik umpan klik,
1561
01:31:30,443 --> 01:31:33,780
kita menciptakan insentif keuangan
yang melanggengkan sistem yang ada.
1562
01:31:33,863 --> 01:31:37,909
Pastikan kita mendapat beragam informasi
dalam hidupmu sendiri.
1563
01:31:38,118 --> 01:31:40,996
Aku mengikuti orang yang tak kusukai
di Twitter
1564
01:31:41,079 --> 01:31:44,207
karena aku ingin melihat
sudut pandang berbeda.
1565
01:31:44,582 --> 01:31:46,584
Perhatikan banyak orang
di industri teknologi
1566
01:31:46,668 --> 01:31:49,045
tak memberikan perangkat ini
kepada anak mereka.
1567
01:31:49,129 --> 01:31:51,256
Anak-anakku tak menggunakan media sosial.
1568
01:31:51,965 --> 01:31:53,550
Apa itu aturan atau...
1569
01:31:53,633 --> 01:31:54,509
Itu aturannya.
1570
01:31:55,093 --> 01:31:57,846
Kami fanatik soal itu.
1571
01:31:57,929 --> 01:31:59,222
Kami gila.
1572
01:31:59,305 --> 01:32:05,603
Kami tak memberikan anak-anak kami
waktu di depan layar.
1573
01:32:05,687 --> 01:32:08,565
Aku sudah memikirkan
tiga aturan sederhana
1574
01:32:08,648 --> 01:32:12,610
yang mempermudah hidup keluarga
dan itu dibenarkan oleh penelitian.
1575
01:32:12,694 --> 01:32:15,572
Aturan pertama adalah
tak ada gawai di kamar tidur
1576
01:32:15,655 --> 01:32:17,282
pada waktu tetap setiap malam.
1577
01:32:17,365 --> 01:32:20,535
Apa pun waktunya, 30 menit sebelum tidur,
semua gawai keluar.
1578
01:32:20,618 --> 01:32:24,038
Aturan kedua adalah tak ada media sosial
sampai SMA.
1579
01:32:24,122 --> 01:32:26,374
Secara pribadi,
kurasa usianya harus 16 tahun.
1580
01:32:26,458 --> 01:32:28,960
SMP sudah cukup sulit.
Jadi, jauhkan hingga SMA.
1581
01:32:29,044 --> 01:32:32,964
Aturan ketiga adalah menyusun
anggaran waktu dengan anak-anak kita.
1582
01:32:33,048 --> 01:32:34,799
Jika bicara dengan mereka dan berkata,
1583
01:32:34,883 --> 01:32:37,802
"Berapa jam sehari
kau mau menggunakan gawaimu?
1584
01:32:37,886 --> 01:32:39,637
Menurutmu, berapa durasi yang sesuai,"
1585
01:32:39,721 --> 01:32:41,598
jawaban mereka sering kali masuk akal.
1586
01:32:42,056 --> 01:32:44,642
Dengar, aku tahu betul
1587
01:32:44,726 --> 01:32:48,563
aku tak akan membuat semua orang
menghapus akun media sosial mereka,
1588
01:32:48,646 --> 01:32:50,440
tapi kurasa ada beberapa orang
1589
01:32:50,523 --> 01:32:54,486
dan membuat beberapa orang
menghapus akun mereka itu sangat penting.
1590
01:32:54,569 --> 01:32:58,406
Alasannya adalah itu menciptakan ruang
untuk percakapan
1591
01:32:58,490 --> 01:33:00,909
karena aku ingin ada cukup banyak orang
di masyarakat
1592
01:33:00,992 --> 01:33:05,080
yang bebas dari mesin manipulasi
untuk melakukan percakapan sosial
1593
01:33:05,163 --> 01:33:07,540
yang tak dibatasi oleh mesin manipulasi.
1594
01:33:07,624 --> 01:33:10,126
Jadi, lakukanlah! Keluar dari sistem.
1595
01:33:10,335 --> 01:33:12,670
Ya, hapuslah. Lepaskan benda bodoh itu.
1596
01:33:13,546 --> 01:33:16,508
Dunia ini indah.
Lihat, di luar sana bagus.
1597
01:33:18,468 --> 01:33:19,969
IKUTI KAMI DI MEDIA SOSIAL!
1598
01:33:20,053 --> 01:33:21,888
HANYA BERCANDA
1599
01:33:21,971 --> 01:33:27,477
AYO MEMBAHAS CARA MEMPERBAIKINYA
THESOCIALDILEMMA.COM
1600
01:33:32,065 --> 01:33:34,609
Terjemahan subtitle oleh Alphino Fajar