1 00:00:05,382 --> 00:00:06,759 STASIUN WALL STREET 2 00:00:08,927 --> 00:00:11,930 Aku di Wall Street, tempat segalanya dimulai. 3 00:00:13,724 --> 00:00:17,186 Pada 6 Mei, 2010, pukul 14.45, 4 00:00:17,686 --> 00:00:21,190 seorang pria duduk di rumah orang tuanya di London 5 00:00:21,273 --> 00:00:24,985 melepaskan algoritme di Bursa Saham New York 6 00:00:25,068 --> 00:00:27,279 dengan perintah jual semiliar dolar. 7 00:00:28,697 --> 00:00:30,449 Rencananya untuk menipu pasar 8 00:00:30,532 --> 00:00:32,659 dan batalkan perintah sebelum rampung. 9 00:00:33,160 --> 00:00:34,411 Sebelum itu terjadi, 10 00:00:34,495 --> 00:00:37,247 robot penjualan saham otomatis di dunia 11 00:00:37,331 --> 00:00:38,582 mulai menjual, 12 00:00:39,041 --> 00:00:42,336 menimbulkan reaksi berantai yang memengaruhi pasar. 13 00:00:44,880 --> 00:00:48,967 Dow Jones Industrial menukik turun 1.000 poin hanya dalam 15 menit. 14 00:00:49,051 --> 00:00:52,513 Penurunan itu hampir seperti yang memulai Depresi Besar. 15 00:00:52,596 --> 00:00:55,307 Apa yang terjadi di sini? Entahlah. 16 00:00:55,390 --> 00:00:56,642 Pasar jadi takut. 17 00:00:57,267 --> 00:00:59,645 Batalkan pelayaran, pindahkan anak ke sekolah negeri. 18 00:01:00,938 --> 00:01:02,481 Ini kerusakan kilat. 19 00:01:03,023 --> 00:01:04,066 Begini... 20 00:01:05,359 --> 00:01:08,111 Tiga puluh enam menit kemudian, pasar pulih. 21 00:01:08,195 --> 00:01:11,615 Namun keruntuhan kilat 2010 pertama kalinya menandakan 22 00:01:11,698 --> 00:01:15,994 manusia mendapat kilasan langsung, penohok anus 23 00:01:16,078 --> 00:01:19,164 tentang cara IA akan ambil alih sistem keuangan kita. 24 00:01:20,707 --> 00:01:22,167 Mari lihat situasinya. 25 00:01:24,086 --> 00:01:26,922 Itu sebabnya aku di India, mencari madu liar. 26 00:01:27,631 --> 00:01:28,966 Nanti dijelaskan. 27 00:01:29,341 --> 00:01:31,885 Untuk pahami cara AI temukan tempat ini dan kenapa, 28 00:01:31,969 --> 00:01:34,429 kita harus memahami apa itu IA. 29 00:01:34,513 --> 00:01:36,431 Jika kau kira tahu, pasti salah. 30 00:01:37,850 --> 00:01:41,436 Suka atau tidak, kita terkait dengan uang. 31 00:01:41,937 --> 00:01:45,315 Aku Kal Penn, menjelajahi makhluk raksasa 32 00:01:45,691 --> 00:01:48,068 yaitu ekonomi global. 33 00:01:48,151 --> 00:01:49,403 RAKSASA BERNAMA EKONOMI GLOBAL 34 00:01:52,322 --> 00:01:54,199 Jadi, apa tepatnya IA? 35 00:01:54,867 --> 00:01:58,579 Aku di San Francisco untuk tentukan yang bukan IA. 36 00:01:58,662 --> 00:02:01,874 Yaitu semua yang dikatakan fiksi ilmiah. 37 00:02:02,541 --> 00:02:03,542 Khususnya... 38 00:02:03,959 --> 00:02:07,004 Robot raksasa! 39 00:02:27,107 --> 00:02:28,442 Ya ampun! 40 00:02:30,485 --> 00:02:32,112 Aku dengan Julia Bossmann, 41 00:02:32,237 --> 00:02:36,575 yang bekerja di Dewan Inteligensi Buatan di Forum Ekonomi Dunia, 42 00:02:36,658 --> 00:02:40,329 beri nasihat ke pemimpin dunia cara mengekang potensi IA. 43 00:02:40,829 --> 00:02:44,499 Tugas ini dengan keuntungan lebih baik dari melihat mobil dirusak. 44 00:02:44,583 --> 00:02:47,586 Misalnya swafoto dengan simbol seks Kanada, bukan Drake. 45 00:02:47,669 --> 00:02:48,754 ADA ORANG BERSWAFOTO JUSTIN TRUDEAU PERDANA MENTERI KANADA 46 00:02:53,467 --> 00:02:55,385 Bagaimana kau pulang sekarang? 47 00:02:55,469 --> 00:02:56,803 Masih bisa dikendarai. 48 00:03:01,016 --> 00:03:03,018 Kami bertemu di perusahaan MegaBots, 49 00:03:03,101 --> 00:03:05,854 pembuat robot raksasa untuk lawan robot lain. 50 00:03:07,814 --> 00:03:10,275 Seperti Zaman Medieval yang lebih kutu buku. 51 00:03:13,779 --> 00:03:14,905 Menurut Julia, 52 00:03:14,988 --> 00:03:17,658 robot ini bukan cuma atraksi taman bertema. 53 00:03:18,283 --> 00:03:22,412 Itu dinosaurus teknologi karena satu perbedaan penting. 54 00:03:24,289 --> 00:03:25,582 Dalam robot ini, kita otaknya, 55 00:03:25,666 --> 00:03:27,626 tetapi IA itu otak buatan. 56 00:03:27,709 --> 00:03:28,752 JULIA BOSSMANN FORUM EKONOMI DUNIA, PAKAR AI 57 00:03:28,835 --> 00:03:29,711 Menarik. Bisa jelaskan? 58 00:03:29,795 --> 00:03:32,506 Kami membuat komputer 59 00:03:32,589 --> 00:03:34,132 yang bisa belajar sendiri. 60 00:03:34,591 --> 00:03:37,010 Mereka tak perlu punya tubuh. 61 00:03:37,344 --> 00:03:40,055 Banyak IA yang kami sudah buat 62 00:03:40,138 --> 00:03:41,765 hidup dalam pusat data raksasa. 63 00:03:42,057 --> 00:03:46,645 Jika harus jelaskan ke anak usia 13 tahun, 64 00:03:46,728 --> 00:03:48,146 apa itu IA? 65 00:03:48,230 --> 00:03:50,691 Kurasa definisi umumnya yaitu 66 00:03:50,774 --> 00:03:54,945 IA membuat mesin melakukan hal-hal 67 00:03:55,028 --> 00:03:58,156 yang tak kami program secara eksplisit. 68 00:03:58,240 --> 00:03:59,616 Dalam pemrograman tradisional, 69 00:03:59,700 --> 00:04:02,744 ada serangkaian aturan dan algoritme, 70 00:04:02,828 --> 00:04:04,413 jika begini maka begitu. 71 00:04:04,496 --> 00:04:07,165 Semua dipaparkan manusia yang memrogramnya. 72 00:04:07,249 --> 00:04:09,501 Jika melihat pustaka kedokteran, 73 00:04:09,584 --> 00:04:12,004 satu basis data berisi jutaan entri, 74 00:04:12,087 --> 00:04:14,923 tak ada dokter yang bisa baca semua makalah riset 75 00:04:15,048 --> 00:04:17,676 untuk tahu bidang tertentu, namun mesin bisa. 76 00:04:17,759 --> 00:04:20,220 Bayangkan mesin yang munculkan ide baru 77 00:04:20,303 --> 00:04:21,596 untuk selesaikan masalah, 78 00:04:21,680 --> 00:04:24,766 atau temukan obat baru untuk sembuhkan penyakit. 79 00:04:24,850 --> 00:04:25,976 Wah. Baik. 80 00:04:26,059 --> 00:04:28,395 Bidang dalam kecerdasan buatan 81 00:04:28,478 --> 00:04:30,856 yang sedang paling menggairahkan, 82 00:04:30,939 --> 00:04:32,065 itu Pembelajaran Mendalam. 83 00:04:32,149 --> 00:04:33,608 Apa itu? 84 00:04:33,692 --> 00:04:36,069 Pembelajaran mendalam itu bila ada 85 00:04:36,153 --> 00:04:39,072 beberapa lapisan mendalam dari jaringan saraf 86 00:04:39,156 --> 00:04:42,242 yang serupa dengan yang ada di otak kita. 87 00:04:42,325 --> 00:04:45,579 Di kepala ada semua saraf yang saling terhubung 88 00:04:45,662 --> 00:04:46,788 dan bertukar informasi 89 00:04:46,830 --> 00:04:50,751 dan dalam satu segi, kami menyimulasi ini dalam mesin. 90 00:04:50,834 --> 00:04:54,546 Data diberi ke mesin secara seimbang dan tak berat sebelah, 91 00:04:54,629 --> 00:04:56,214 agar itu juga belajar. 92 00:04:56,548 --> 00:04:59,009 Misalnya, pengenalan gambar kami beri tahu 93 00:04:59,092 --> 00:05:01,511 ini gambar kucing, ini gambar anjing, 94 00:05:01,595 --> 00:05:03,972 lalu mereka mulai melihat gambar 95 00:05:04,056 --> 00:05:06,349 dan belajar sendiri cara mengenalinya. 96 00:05:06,433 --> 00:05:10,187 Kami tak harus memrogram sedikit pun soal itu. 97 00:05:10,228 --> 00:05:11,229 Menarik. 98 00:05:11,313 --> 00:05:14,107 Ada pembelajaran mesin yang bukan mendalam. 99 00:05:14,858 --> 00:05:16,985 Ada algoritme evolusioner, 100 00:05:17,069 --> 00:05:19,863 di sana kami gunakan prinsip dari evolusi 101 00:05:19,946 --> 00:05:24,242 dan biarkan mesin mencoba berbagai kejadian, 102 00:05:24,743 --> 00:05:27,329 lalu lihat mana yang paling berfungsi. 103 00:05:27,412 --> 00:05:31,291 Yang paling berfungsi, bisa melanjutkan ke generasi berikut. 104 00:05:31,374 --> 00:05:34,336 Seperti organisme berevolusi, kami gunakan prinsip 105 00:05:34,419 --> 00:05:37,172 program paling cocok yang bertahan. 106 00:05:37,255 --> 00:05:38,381 Wah, baik. 107 00:05:38,465 --> 00:05:40,550 Itu algoritme evolusioner. 108 00:05:40,926 --> 00:05:44,346 Apa keuntungan finansial dalam menjelajahi IA? 109 00:05:44,429 --> 00:05:47,724 Pasti ada potensi dampak luar biasa pada ekonomi. 110 00:05:47,808 --> 00:05:50,393 Kurasa itu akan ubah ekonomi secara radikal, 111 00:05:50,477 --> 00:05:53,313 dan kita membicarakan revolusi industri baru. 112 00:05:53,396 --> 00:05:54,231 Menarik. 113 00:05:54,314 --> 00:05:55,774 Disebut ciptaan terakhir 114 00:05:55,857 --> 00:05:58,944 sebab bila ada otak buatan yang lebih cerdas dari kita, 115 00:05:59,027 --> 00:06:00,779 bisa buat lebih banyak hal. 116 00:06:00,862 --> 00:06:03,865 Disebut ciptaan terakhir karena akan bunuh kita? 117 00:06:04,950 --> 00:06:06,118 Semoga tidak. 118 00:06:08,829 --> 00:06:12,207 Banyak orang takut kecerdasan buatan akan terlalu pintar 119 00:06:12,290 --> 00:06:15,001 dan bunuh kita. Jangan cemas. 120 00:06:15,085 --> 00:06:19,047 Satu alasan IA sangat cerdas karena itu bodoh sekali. 121 00:06:19,464 --> 00:06:20,549 Kemari, IA. 122 00:06:21,299 --> 00:06:24,302 Bayangkan kau minta IA temukan resep kue sempurna 123 00:06:24,386 --> 00:06:26,179 menggunakan algoritme evolusioner. 124 00:06:27,973 --> 00:06:30,517 IA tak pikirkan cara terbaik membuatnya. 125 00:06:30,600 --> 00:06:33,520 Akan mencoba bermiliar kali, 126 00:06:33,603 --> 00:06:37,482 menggunakan tiap bahan di dapur dengan cara sebodoh mungkin. 127 00:06:38,441 --> 00:06:40,652 Seringnya, tentu, akan pasti gagal. 128 00:06:42,320 --> 00:06:43,613 Yang ini pasti. 129 00:06:44,447 --> 00:06:45,657 Percobaanmu bagus. 130 00:06:46,616 --> 00:06:50,162 Kegagalan tak sakiti perasaan IA. Itu tak punya perasaan. 131 00:06:50,745 --> 00:06:53,123 Bagian hebat soal algoritme evolusioner 132 00:06:53,206 --> 00:06:56,293 yaitu dengan mencoba metode yang tampak bodoh ini, 133 00:06:56,376 --> 00:06:58,044 itu mungkin menemukan solusi 134 00:06:58,128 --> 00:07:01,464 bagi masalah kuliner yang tak akan dipecahkan manusia, 135 00:07:01,548 --> 00:07:04,176 misalnya membuat kue vegan superior. 136 00:07:04,259 --> 00:07:05,302 Aku membuat kue. 137 00:07:06,178 --> 00:07:07,554 Bagus, IA. 138 00:07:07,637 --> 00:07:09,097 Sebagian besar mete. 139 00:07:09,931 --> 00:07:13,143 Kau pikirkan untuk gunakan mete? Tentu tidak! 140 00:07:13,226 --> 00:07:16,521 Itu akan bodoh, dan IA mau menjadi bodoh, 141 00:07:16,605 --> 00:07:18,190 agar kau tak begitu. 142 00:07:18,273 --> 00:07:21,067 Apa si bodoh ini berubah jadi hal pintar, 143 00:07:21,151 --> 00:07:23,653 hingga menguasai dunia dan bunuh kita? 144 00:07:24,196 --> 00:07:25,280 Sulit dipastikan. 145 00:07:25,363 --> 00:07:26,740 Aku pelajari kode peluncuran. 146 00:07:27,657 --> 00:07:28,992 Sementara itu, 147 00:07:29,993 --> 00:07:31,077 makan kuenya. 148 00:07:35,165 --> 00:07:36,541 Walau aku masih cemas 149 00:07:36,625 --> 00:07:39,461 IA akan lebih buat masalah, bukan memecahkannya, 150 00:07:41,004 --> 00:07:43,757 para ahli setuju IA tingkatkan produktivitas 151 00:07:43,840 --> 00:07:47,636 dalam bidang perawatan kesehatan, transportasi dan keuangan, 152 00:07:47,719 --> 00:07:51,848 menambah $15,7 triliun GDP global pada tahun 2030. 153 00:07:52,474 --> 00:07:56,478 Itu lebih dari hasil Tiongkok dan India digabung saat ini. 154 00:07:56,561 --> 00:07:58,480 KOTA NEW YORK 155 00:07:59,898 --> 00:08:02,275 Seberapa pentingnya IA? 156 00:08:02,943 --> 00:08:06,404 Menurutku, itu satu dari tiga hal penting dalam sejarah manusia. 157 00:08:06,488 --> 00:08:07,697 Sejarah manusia? 158 00:08:07,781 --> 00:08:08,990 Sejarah manusia mutlak. 159 00:08:09,616 --> 00:08:11,368 Aku bersama Andrew McAfee, 160 00:08:11,451 --> 00:08:15,664 satu pakar unggulan dunia tentang cara teknologi baru ubah ekonomi 161 00:08:15,747 --> 00:08:19,542 dan kemudian, seluruh masyarakat manusia. 162 00:08:20,460 --> 00:08:22,212 Grafik sejarah manusia, 163 00:08:22,295 --> 00:08:24,214 yang kita pelajari, ribuan tahun, 164 00:08:24,297 --> 00:08:26,258 tak ada yang terjadi. Datar. 165 00:08:26,341 --> 00:08:28,093 ANDREW MCAFEE - DIREKTUR BERSAMA INSTITUT MIT UNTUK EKONOMI DIGITAL 166 00:08:28,176 --> 00:08:30,845 Hampir tak bisa dibedakan dari mati. 167 00:08:30,929 --> 00:08:32,514 Mendadak, pada suatu saat, 168 00:08:32,597 --> 00:08:34,933 grafik sejarah manusia, bagaimanapun, 169 00:08:35,016 --> 00:08:38,144 beralih dari horizontal jadi vertikal gila-gilaan 170 00:08:38,228 --> 00:08:39,771 dalam sekejap. 171 00:08:39,854 --> 00:08:41,481 Itu terjadi tahun 1800, 172 00:08:41,564 --> 00:08:45,443 karena, pertama, tenaga uap, lalu kedua, listrik. 173 00:08:47,821 --> 00:08:50,782 Berkat listrik, banyak tercipta hal menonjol. 174 00:08:50,865 --> 00:08:53,827 Memberi kita trem, kereta bawah tanah. 175 00:08:53,910 --> 00:08:57,080 Yang kurang jelas, kota jadi vertikal alih-alih horizontal. 176 00:08:57,163 --> 00:08:58,373 -Berkat listrik? -Ya. 177 00:08:58,456 --> 00:08:59,749 -Perlu lift. -Lift. 178 00:08:59,833 --> 00:09:01,543 Tak ada kota vertikal. 179 00:09:01,626 --> 00:09:03,878 Tanpa itu tak bisa naik 80 lantai. 180 00:09:03,962 --> 00:09:06,506 Jadi, dua revolusi industri uap ini, 181 00:09:06,589 --> 00:09:09,259 satu-dua ciptaan listrik dan pembakaran internal 182 00:09:09,342 --> 00:09:11,011 ubah sejarah manusia. 183 00:09:11,094 --> 00:09:12,804 -Cuma itu cara pandangnya. -Ya. 184 00:09:12,887 --> 00:09:15,974 Semua ini teknologi yang izinkan kita lampaui batas 185 00:09:16,057 --> 00:09:17,100 otot kita. 186 00:09:17,183 --> 00:09:20,562 Dengan IA, kita melampaui pembatasan 187 00:09:20,645 --> 00:09:22,564 otak individu, kekuatan mental kita. 188 00:09:22,647 --> 00:09:24,607 BAHAYA TEGANGAN TINGGI 189 00:09:24,691 --> 00:09:26,484 Ada tantangan berat yang dihadapi. 190 00:09:26,568 --> 00:09:28,236 Benar-benar tantangan berat. 191 00:09:28,320 --> 00:09:29,696 Harus sembuhkan kanker. 192 00:09:29,779 --> 00:09:31,406 Beri makan orang lebih banyak. 193 00:09:31,489 --> 00:09:33,950 Hentikan pemanasan global pada abad ini. 194 00:09:34,034 --> 00:09:36,328 Ini hal-hal amat rumit. 195 00:09:36,411 --> 00:09:38,747 Otak kita melemah atas kerumitan itu. 196 00:09:38,830 --> 00:09:41,708 Kita lakukan itu dengan ilmu dan tambah pengetahuan, 197 00:09:41,791 --> 00:09:44,044 namun itu terlalu rumit. 198 00:09:44,127 --> 00:09:45,420 Caraku memandang IA, 199 00:09:45,503 --> 00:09:48,506 kita memiliki kolega baru yang kuat 200 00:09:48,590 --> 00:09:51,676 agar kita bisa membobol kerumitan gila itu, 201 00:09:51,760 --> 00:09:54,637 karena teknologi ini pandai 202 00:09:54,721 --> 00:09:59,684 melihat setiap pola halus dalam sejumlah data yang amat banyak. 203 00:09:59,768 --> 00:10:01,603 Lebih dari yang bisa kita terima. 204 00:10:01,686 --> 00:10:03,897 Satu contoh tergila baru-baru ini 205 00:10:03,980 --> 00:10:05,106 itu dalam keuangan. 206 00:10:05,190 --> 00:10:07,650 Dan bangkitnya penasihat robot, 207 00:10:07,734 --> 00:10:09,361 yaitu algoritme 208 00:10:09,444 --> 00:10:11,696 pembuat portofolio investasi. 209 00:10:11,780 --> 00:10:13,031 Hingga saat ini, 210 00:10:13,114 --> 00:10:15,325 harus ada tingkat kekayaan tertentu 211 00:10:15,408 --> 00:10:18,745 untuk masuk ke kantor perencana dan penasihat keuangan. 212 00:10:18,828 --> 00:10:20,872 -Benar. -Itu berubah pesat. 213 00:10:20,955 --> 00:10:25,210 Dengan penasihat robot, orang yang semakin kurang kaya 214 00:10:25,293 --> 00:10:28,963 bisa mengakses alat mutakhir yang amat kuat 215 00:10:29,047 --> 00:10:31,299 untuk tingkatkan hidup keuangannya. 216 00:10:31,383 --> 00:10:34,302 Itu menarik, karena tampaknya selalu ada 217 00:10:34,386 --> 00:10:37,555 orang yang mau gunakan hal ini untuk melukai. 218 00:10:37,639 --> 00:10:40,225 Maksudku bukan tak harus dicemaskan. 219 00:10:40,308 --> 00:10:42,852 Dari revolusi industri sebelumnya, kita tahu 220 00:10:42,936 --> 00:10:44,687 itu membawa hal buruk. 221 00:10:44,771 --> 00:10:49,150 Kita memesinkan perang dengan semua teknologi industri ini. 222 00:10:49,234 --> 00:10:52,529 Kita sangat membuat polusi lingkungan. 223 00:10:52,612 --> 00:10:54,364 Kita buat kesalahan besar 224 00:10:54,447 --> 00:10:57,951 seperti buruh anak berukuran besar karena revolusi industri. 225 00:10:58,034 --> 00:11:01,079 Semua tak sempurna, tak semua segi. 226 00:11:01,162 --> 00:11:03,748 Kali ini juga akan terjadi sama saja. 227 00:11:04,249 --> 00:11:05,291 Sial. 228 00:11:06,918 --> 00:11:08,586 McAfee membuatku berpikir. 229 00:11:08,670 --> 00:11:10,547 Bagaimana jika sejarah terulang 230 00:11:10,630 --> 00:11:13,591 dan IA membentuk masyarakat dengan salah? 231 00:11:14,467 --> 00:11:18,430 Seperti polusi meningkat dan rekan kerja kecil, berabu? 232 00:11:19,931 --> 00:11:21,891 Bagaimana soal moral dan etis 233 00:11:21,975 --> 00:11:24,227 yang iringi teknologi baru yang kuat? 234 00:11:24,936 --> 00:11:27,647 Melihat Museum National Computing di London, 235 00:11:27,730 --> 00:11:31,109 kita lihat banyak mesin yang dibuat untuk masyarakat maju. 236 00:11:31,192 --> 00:11:35,572 Seperti Harwell Dekatron dua ton, yang dibuat untuk berhitung 237 00:11:35,655 --> 00:11:38,908 bagi program penelitian ilmiah Inggris tahun 1950-an. 238 00:11:39,242 --> 00:11:41,161 Tetapi tangan yang salah, entah 239 00:11:41,244 --> 00:11:43,163 bagaimana teknologi baru dipakai. 240 00:11:43,746 --> 00:11:45,707 Bisa tonton porno di sini? 241 00:11:46,040 --> 00:11:49,752 Kau bisa nyalakan untuk lihat porno beresolusi rendah. 242 00:11:50,712 --> 00:11:51,754 ALAN ZUCCONI PEMROGRAM KOMPUTER 243 00:11:51,838 --> 00:11:54,507 Aku bersama pemrogram Alan Zucconi 244 00:11:54,591 --> 00:11:57,177 dosen di Goldsmith's College di London. 245 00:11:57,719 --> 00:12:00,722 Dia gunakan teknologi untuk buat hal revolusioner, 246 00:12:00,805 --> 00:12:04,058 seperti pengendali permainan bagi orang cacat. 247 00:12:05,477 --> 00:12:07,937 Katanya satu keraguan moral terbesar 248 00:12:08,021 --> 00:12:10,190 dalam sejarah teknologi segera tiba 249 00:12:10,273 --> 00:12:14,360 saat IA mulai meniru banyak perilaku manusia, 250 00:12:14,444 --> 00:12:16,404 hingga bisa meniru kita. 251 00:12:17,113 --> 00:12:18,615 Apa ini? 252 00:12:18,948 --> 00:12:21,826 Salah satu komputer pertama yang pernah dibuat, 253 00:12:21,910 --> 00:12:24,829 dibuat oleh Alan Turing dan rekan kerjanya. 254 00:12:24,913 --> 00:12:28,124 Mesin ini salah satu komputer pertama 255 00:12:28,208 --> 00:12:30,710 yang bisa pecahkan kode Enigma yang dirancang Nazi. 256 00:12:32,587 --> 00:12:35,381 Alan Turing itu ayah ilmu komputer modern. 257 00:12:35,465 --> 00:12:38,927 Saat tak bantu Sekutu menang perang dengan pecahkan kode Nazi, 258 00:12:39,010 --> 00:12:42,555 dia berfilsafat tentang hal yang disebutnya tes Turing. 259 00:12:43,598 --> 00:12:46,643 Bagaimana bedakan manusia dengan mesin? 260 00:12:46,726 --> 00:12:49,854 Jika tak bisa membedakannya, 261 00:12:49,938 --> 00:12:53,066 maka mesin lulus "permainan imitasi." 262 00:12:53,149 --> 00:12:56,569 Mesin coba meniru perilaku manusia. 263 00:12:56,653 --> 00:12:59,072 Ini dikenal sebagai tes Turing, 264 00:12:59,155 --> 00:13:02,659 ini salah satu mesin yang diduga mungkin digunakan. 265 00:13:02,742 --> 00:13:03,868 Untuk lakukan tes Turing, 266 00:13:03,952 --> 00:13:06,579 manusia masukkan pertanyaan ke mesin. 267 00:13:07,080 --> 00:13:08,831 Selagi pengamat luar menilai 268 00:13:08,915 --> 00:13:11,501 apa jawabannya berasal dari manusia atau tidak, 269 00:13:11,584 --> 00:13:13,461 atau mesin meniru manusia. 270 00:13:14,379 --> 00:13:15,630 Berapa umurmu? 271 00:13:17,924 --> 00:13:20,134 -Itu dia. -Dia tahu umurnya. 272 00:13:20,218 --> 00:13:22,011 "Aku lahir tahun 1912. 273 00:13:22,095 --> 00:13:24,389 "Jadi, usiaku 105 tahun." 274 00:13:27,642 --> 00:13:30,979 Pada zaman Turing, mudah mengenali komputer. 275 00:13:31,271 --> 00:13:34,357 Kini, IA bisa mempelajari perilaku manusia, 276 00:13:34,440 --> 00:13:36,693 memrogram sendiri agar seperti kita. 277 00:13:37,485 --> 00:13:39,654 Apa bisa membedakan antara ini... 278 00:13:39,988 --> 00:13:43,199 Biasanya, kumulai komentar dengan lelucon ilmu data, 279 00:13:43,700 --> 00:13:46,744 tetapi separuh hal yang ditemukan stafku di bawah rata-rata. 280 00:13:46,828 --> 00:13:47,912 ...dan ini? 281 00:13:47,996 --> 00:13:50,415 Musuh kita bisa buat ibarat orang katakan sesuatu 282 00:13:50,498 --> 00:13:51,833 pada suatu waktu. 283 00:13:52,208 --> 00:13:55,503 Yang kedua dibuat oleh BuzzFeed, 284 00:13:55,587 --> 00:13:57,338 dengan aktor Jordan Peele. 285 00:13:57,839 --> 00:14:02,760 Banyak orang cemaskan bentuk AI baru dari berita palsu. 286 00:14:02,844 --> 00:14:04,929 Nantinya, kita harus lebih waspada 287 00:14:05,013 --> 00:14:06,639 dengan yang dipercayai dari Internet. 288 00:14:06,723 --> 00:14:09,058 IA mempelajari gerakan wajah Peele, 289 00:14:09,142 --> 00:14:13,062 menggabungkannya dan ciptakan ulang pada wajah Obama, 290 00:14:13,146 --> 00:14:15,690 buat hibrida bernama "deepfake." 291 00:14:15,773 --> 00:14:17,984 Mungkin kau pernah lihat hal serupa. 292 00:14:18,067 --> 00:14:21,404 Di Snapchat ada filter yang bisa tukar wajah. 293 00:14:21,487 --> 00:14:25,325 Perbedaannya, filter itu melakukan secara sederhana. 294 00:14:25,408 --> 00:14:28,953 Teknologi di balik deepfake andalkan kecerdasan buatan. 295 00:14:29,037 --> 00:14:31,289 Datang dari "pembelajaran mendalam." 296 00:14:31,706 --> 00:14:35,126 Jaringan saraf buatan keluarkan mimik wajah. 297 00:14:35,209 --> 00:14:37,754 Mesin gunakan mimik untuk buat ulang wajah. 298 00:14:37,837 --> 00:14:41,466 Begitulah cara kami mencapai hasil foto yang realistis. 299 00:14:42,508 --> 00:14:45,720 Alan membuat panduan Internet untuk cara buat deepfake. 300 00:14:45,803 --> 00:14:48,056 Dia sangat yakin teknologi ini 301 00:14:48,139 --> 00:14:50,767 harus dikembangkan bebas tanpa batasan. 302 00:14:50,850 --> 00:14:53,853 Bahkan jika bisa memulai Perang Dunia III. 303 00:14:53,936 --> 00:14:55,104 PARTAI SOSIALIS BELGIA SEBARKAN VIDEO "DEEPFAKE" DONALD TRUMP 304 00:14:55,188 --> 00:14:57,273 Bagaimana konsumen bisa tahu 305 00:14:57,357 --> 00:14:59,692 apa yang benar dan yang virtual? 306 00:14:59,776 --> 00:15:02,695 Sebagai konsumen, saat menghadapi berita, 307 00:15:02,779 --> 00:15:05,740 baik itu artikel, video, atau foto, 308 00:15:05,823 --> 00:15:08,076 semua itu dibuat seseorang. 309 00:15:08,201 --> 00:15:09,577 "Apa naratif yang kulihat? 310 00:15:09,827 --> 00:15:11,287 "Apa pesan video ini?" 311 00:15:11,371 --> 00:15:13,581 Jadi, aku bisa lihat... 312 00:15:13,665 --> 00:15:14,624 Bahayanya. 313 00:15:14,707 --> 00:15:17,168 Bahaya juga keingintahuannya. 314 00:15:17,251 --> 00:15:19,420 Apa ini akan membantu orang? 315 00:15:19,504 --> 00:15:21,923 Kubayangkan kau sudah bicara ke orang 316 00:15:22,006 --> 00:15:25,885 yang mencari cara tumbuhkan ekonomi melalui jenis teknologi ini. 317 00:15:25,968 --> 00:15:29,097 Apa dampak ekonomi praktis dari hal ini? 318 00:15:29,180 --> 00:15:32,308 Kurasa industri pertama yang akan manfaatkan itu 319 00:15:32,392 --> 00:15:33,685 adalah industri film. 320 00:15:33,768 --> 00:15:36,813 Karena pergantian wajah, 321 00:15:36,896 --> 00:15:40,024 sudah lama kami coba lakukan di film. 322 00:15:40,108 --> 00:15:42,527 Biasanya kita gunakan riasan, topeng, 323 00:15:42,610 --> 00:15:43,736 terkadang CGI. 324 00:15:43,820 --> 00:15:46,489 Sebagai aktor dan mantan politikus, 325 00:15:46,572 --> 00:15:48,616 itu membuatku takut. 326 00:15:48,700 --> 00:15:50,201 -Aku pun paham. -Harus begitu. 327 00:15:51,285 --> 00:15:53,705 Deepfake BuzzFeed ungkapkan ke publik 328 00:15:53,788 --> 00:15:55,039 betapa rentan kita. 329 00:15:55,873 --> 00:15:59,585 Pada masa ketika Presiden dapat bicara dan menggerakkan pasar, 330 00:15:59,669 --> 00:16:02,714 deepfake bagus dapat menenggelamkan ekonomi global 331 00:16:02,797 --> 00:16:04,674 lebih cepat dari keruntuhan kilat, 332 00:16:04,757 --> 00:16:08,469 menghancurkan IRA secepat Obama palsu berkata... 333 00:16:08,553 --> 00:16:09,554 Tetap waspada. 334 00:16:10,638 --> 00:16:13,057 Apa ini agak seperti fiksi ilmiah? 335 00:16:13,141 --> 00:16:14,726 Bahkan agak menakutkan? 336 00:16:15,309 --> 00:16:18,271 Jika IA cukup kuat untuk tahu cara kita bergerak, 337 00:16:18,354 --> 00:16:20,022 cara bicara dan berpikir, 338 00:16:20,106 --> 00:16:22,316 mungkin jadi tak bisa dibedakan dari kita. 339 00:16:22,400 --> 00:16:23,818 KAU TAHU APA SEGALANYA 340 00:16:24,610 --> 00:16:26,779 Jika IA punya kesadaran sendiri, 341 00:16:26,863 --> 00:16:29,782 AI juga bisa kembangkan opini kuat tentang kita. 342 00:16:29,866 --> 00:16:30,908 PERSETAN KAU AWAS! 343 00:16:30,992 --> 00:16:33,119 Itu mungkin tak positif. 344 00:16:35,455 --> 00:16:36,664 STEPHEN HAWKING AHLI FISIKA TEORI 345 00:16:36,748 --> 00:16:39,292 Kelak, IA bisa kembangkan keinginan sendiri. 346 00:16:39,375 --> 00:16:42,003 Keinginan yang bertentangan dengan kita. 347 00:16:42,086 --> 00:16:44,422 Bangkitnya AI yang kuat akan jadi 348 00:16:44,505 --> 00:16:48,801 yang terbaik atau yang terburuk bagi manusia. 349 00:16:49,260 --> 00:16:53,181 Aku coba meyakinkan orang untuk memperlambat IA. 350 00:16:54,056 --> 00:16:55,224 Untuk mengatur IA. 351 00:16:55,308 --> 00:16:56,809 Ini sia-sia. Kucoba sejak lama. 352 00:16:56,893 --> 00:16:58,561 Tak ada yang menurut. 353 00:16:58,644 --> 00:17:00,980 Dalam film saat robot akan mengambil alih. 354 00:17:01,063 --> 00:17:02,607 Kau buat aku takut. 355 00:17:05,818 --> 00:17:09,030 Seberapa nyata ancaman IA. atas skenario kiamat? 356 00:17:10,865 --> 00:17:12,408 INGGRIS 357 00:17:12,742 --> 00:17:15,077 Untuk tahu, aku harus bicara ke pria 358 00:17:15,161 --> 00:17:18,164 yang risetnya membuat semua orang takut. 359 00:17:18,831 --> 00:17:21,083 Aku senang kita bicara sebab... 360 00:17:21,167 --> 00:17:23,628 Aku senang karena banyak hal. 361 00:17:23,711 --> 00:17:26,839 Kami menjelajahi kecerdasan buatan, 362 00:17:26,923 --> 00:17:29,258 coba cari tahu apa itu, arahnya. 363 00:17:29,342 --> 00:17:34,680 Kau memengaruhi orang seperti Elon Musk dan Bill Gates. 364 00:17:37,016 --> 00:17:40,853 Itu tingkat pengaruh yang mengagumkan. 365 00:17:42,021 --> 00:17:45,691 Aku di Universitas Oxford, bertemu Dr. Nick Bostrum. 366 00:17:45,775 --> 00:17:48,986 Karena dia tak akan memamerkan dirinya, kulakukan. 367 00:17:51,489 --> 00:17:55,201 Dia salah satu pemikir terkemuka soal kecerdasan super mesin 368 00:17:55,284 --> 00:17:59,205 dan risiko keberadaannya, dan penulis buku pantai yang hebat. 369 00:17:59,705 --> 00:18:00,957 Aku mujur menemuinya, 370 00:18:01,040 --> 00:18:03,584 sebab Nick sibuk lakukan pembelajaran mendalam, 371 00:18:03,668 --> 00:18:05,419 dia cuma keluar sejam sebulan 372 00:18:05,503 --> 00:18:07,338 untuk jawab pertanyaan soal riset. 373 00:18:10,925 --> 00:18:14,262 Banyak pembicaraan tentang IA. 374 00:18:14,345 --> 00:18:17,014 yaitu robot akan mengambil alih 375 00:18:17,098 --> 00:18:18,850 dan akan akhiri manusia? 376 00:18:18,933 --> 00:18:21,310 Aku penasaran jika hal tak diatur dengan baik, 377 00:18:21,394 --> 00:18:24,564 apa ada skenario IA menyakiti masyarakat 378 00:18:24,647 --> 00:18:28,484 atau memusnahkan manusia yang kita ketahui? 379 00:18:28,568 --> 00:18:29,902 Dalam konteks jangka panjang, 380 00:18:29,986 --> 00:18:33,114 jika pikirkan yang terjadi jika IA jalani proses ini 381 00:18:33,197 --> 00:18:36,951 dan mampu meniru kecerdasan umum yang sama 382 00:18:37,034 --> 00:18:38,828 yang jadikan kita manusia, ya, 383 00:18:38,911 --> 00:18:42,748 kurasa dalam konteks itu ada risiko lebih besar, 384 00:18:42,832 --> 00:18:44,125 juga risiko keberadaan. 385 00:18:45,585 --> 00:18:48,421 Jika memikirkan soal mobil swakemudi, 386 00:18:48,504 --> 00:18:49,797 MOBIL UBER SWAKEMUDI BUNUH PEJALAN KAKI DI ARIZONA, TEMPAT ROBOT BERKELIARAN 387 00:18:49,881 --> 00:18:51,549 bisa lindas pejalan kaki. 388 00:18:51,632 --> 00:18:53,342 Ada masalah privasi. 389 00:18:53,426 --> 00:18:56,095 Militerisasi senjata mandiri. 390 00:18:57,847 --> 00:18:59,307 Ini kecemasan nyata. 391 00:18:59,390 --> 00:19:02,184 Tetapi, pada satu saat, ada pertanyaan 392 00:19:02,268 --> 00:19:04,687 cara kita pengaruhi benak digital yang dibuat. 393 00:19:04,770 --> 00:19:09,066 Mereka mungkin mendapat tingkatan standar moral. 394 00:19:09,525 --> 00:19:11,152 Jika kita majukan itu, 395 00:19:11,235 --> 00:19:15,031 jika kita pikirkan hal yang akhirnya jadi takdir homo sapiens, 396 00:19:15,114 --> 00:19:18,534 masa depan jangka panjang bisa didominasi kecerdasan mesin. 397 00:19:18,618 --> 00:19:21,996 Mungkin saja manusia akan punah. 398 00:19:23,414 --> 00:19:26,250 Kekuatan besar itu diiringi risiko 399 00:19:26,834 --> 00:19:30,755 bahwa itu tanpa sengaja, atau penyalahgunaan disengaja 400 00:19:30,838 --> 00:19:33,466 bisa digunakan untuk kehancuran besar. 401 00:19:35,885 --> 00:19:37,595 Kurasa itu mungkin terjadi 402 00:19:37,678 --> 00:19:39,305 dan dalam bingkai waktu lebih lama, 403 00:19:39,388 --> 00:19:41,182 hasilnya mungkin sangat bagus, 404 00:19:41,265 --> 00:19:43,726 atau sangat tak bagus. 405 00:19:46,354 --> 00:19:48,731 Skenario itu terdengar menakutkan. 406 00:19:49,732 --> 00:19:51,609 Dari semua potensi hasil, 407 00:19:51,692 --> 00:19:55,821 Nick percaya skenario kiamat yang paling memungkinkan dengan IA 408 00:19:55,905 --> 00:19:57,114 itu ekonomi. 409 00:19:57,198 --> 00:19:59,450 Jika dipikirkan, teknologi secara umum 410 00:19:59,533 --> 00:20:02,828 yaitu kita bisa lakukan lebih banyak dengan kurang hal. 411 00:20:02,912 --> 00:20:06,123 Kita bisa capai lebih banyak dengan kurang upaya. 412 00:20:06,207 --> 00:20:07,750 Tujuannya, dalam segi itu, 413 00:20:07,833 --> 00:20:09,418 adalah pengangguran penuh. 414 00:20:10,294 --> 00:20:12,380 Bisa ada mesin dan teknologi 415 00:20:12,463 --> 00:20:15,341 lakukan semuanya agar kita tak bekerja. 416 00:20:15,424 --> 00:20:17,301 Itu tujuan akhirnya. 417 00:20:17,385 --> 00:20:19,553 Bukan hal buruk yang kita coba cegah. 418 00:20:19,637 --> 00:20:20,680 Itu keinginan kita. 419 00:20:20,763 --> 00:20:22,932 Untuk menjadikan itu utopia, 420 00:20:23,015 --> 00:20:25,601 ada tantangan besar dalam prosesnya 421 00:20:25,685 --> 00:20:27,061 yang harus dipecahkan. 422 00:20:28,187 --> 00:20:30,815 Satu, tentu, masalah ekonomi. 423 00:20:30,898 --> 00:20:33,567 Orang perlu kerja karena perlu pendapatan. 424 00:20:33,651 --> 00:20:35,653 Jika masalah itu dipecahkan, 425 00:20:35,736 --> 00:20:37,571 maka ada tantangan besar kedua. 426 00:20:37,655 --> 00:20:41,409 Untuk banyak orang juga kesan martabat. 427 00:20:41,492 --> 00:20:43,786 Banyak orang cari kelayakan mereka 428 00:20:43,869 --> 00:20:47,081 jadi pencari nafkah, menyumbang ke masyarakat. 429 00:20:47,164 --> 00:20:49,583 Tetapi jika mesin bisa lakukan semua lebih baik, 430 00:20:49,667 --> 00:20:53,796 kita tak akan berpeluang menyumbangkan apa pun. 431 00:20:53,879 --> 00:20:58,175 Lalu kita harus pikirkan ulang budaya pada tingkatan yang mendasar. 432 00:20:59,176 --> 00:21:01,095 Dunia tempat tak ada yang bekerja. 433 00:21:01,178 --> 00:21:02,930 Itu lumayan. 434 00:21:05,057 --> 00:21:06,267 Aku bisa lihat. 435 00:21:09,854 --> 00:21:11,313 Bersama teman. 436 00:21:11,814 --> 00:21:14,942 Menggali penuh potensi kemanusiaanku. 437 00:21:15,026 --> 00:21:19,321 Tak harus atur bak mandi panas sebab bak itu tahu kesukaanku. 438 00:21:20,114 --> 00:21:23,409 Namun, bukan begitu yang terjadi secara sejarah. 439 00:21:23,492 --> 00:21:26,537 Bangkitnya mesin pernah terjadi. 440 00:21:26,620 --> 00:21:27,705 Terakhir kali, 441 00:21:27,788 --> 00:21:30,666 tak terlalu indah kejadiannya. 442 00:21:35,504 --> 00:21:36,505 INGGRIS 443 00:21:36,964 --> 00:21:41,093 Aku bertemu ahli ekonomi Nick Srnicek untuk tahu bagaimana 444 00:21:41,177 --> 00:21:43,054 terakhir kali mesin rampas kerja. 445 00:21:43,888 --> 00:21:46,015 Ada alasannya kami di alat tenun. 446 00:21:46,432 --> 00:21:47,725 Kau akan buat apa? 447 00:21:47,808 --> 00:21:50,311 Aku membuat semacam bendera anarkis. 448 00:21:50,394 --> 00:21:51,979 Menarik. Mengejutkan. 449 00:21:54,315 --> 00:21:57,568 Nick bergelar PhD dari Sekolah Ekonomi London. 450 00:21:58,027 --> 00:22:00,321 Aku, di segi lain, tak ada gelar itu. 451 00:22:01,530 --> 00:22:02,573 Dia punya manifesto. 452 00:22:02,656 --> 00:22:03,949 #MANIFESTO DIPERCEPAT UNTUK POLITIK PEMERCEPAT 453 00:22:04,492 --> 00:22:07,703 Memanggil semua orang untuk mempercepat era automasi 454 00:22:07,787 --> 00:22:09,830 dengan menumpas lembaga lama. 455 00:22:12,458 --> 00:22:15,461 Pada dasarnya, memereteli kapitalisme sekarang. 456 00:22:16,003 --> 00:22:17,254 Ini tak berhasil. 457 00:22:17,338 --> 00:22:19,632 Mustahil kita bisa mengobrol. 458 00:22:19,715 --> 00:22:21,550 Maaf. Kulepaskan alat tenun. 459 00:22:22,093 --> 00:22:23,761 Kenapa kita di sini? 460 00:22:24,637 --> 00:22:28,224 Alat tenun ini seperti IA pada tahun 1800-an. 461 00:22:28,307 --> 00:22:32,853 Itu teknologi baru yang mengancam sejumlah besar pekerjaan. 462 00:22:33,270 --> 00:22:37,233 Itu mencetus berbagai jawaban dari pekerja, 463 00:22:37,316 --> 00:22:39,360 misalnya bangkitnya kaum Luddite. 464 00:22:39,443 --> 00:22:41,487 Saat ini istilah "Luddite" itu 465 00:22:41,570 --> 00:22:44,031 berarti orang yang benci teknologi. 466 00:22:44,532 --> 00:22:45,950 Bukan begitu. 467 00:22:46,700 --> 00:22:48,119 Luddite dari nama Ned Ludd 468 00:22:48,202 --> 00:22:49,036 NED LUDD PEMAGANG 469 00:22:49,120 --> 00:22:51,122 pemagang pabrik tekstil 470 00:22:51,205 --> 00:22:53,958 yang menurut legenda dicambuk karena diam. 471 00:22:54,041 --> 00:22:56,502 Katanya, "Aku hanya diam 472 00:22:56,585 --> 00:22:59,338 "sebab aku digantikan alat tenun." 473 00:22:59,421 --> 00:23:03,008 Dia jadi orang pertama yang marah terhadap mesin, 474 00:23:03,092 --> 00:23:05,010 mengilhami pergerakan. 475 00:23:06,262 --> 00:23:10,349 Kaum Luddite merusak mesin untuk selamatkan kerja mereka. 476 00:23:10,432 --> 00:23:12,810 Itu yang kita lihat saat ini dengan IA. 477 00:23:12,893 --> 00:23:15,771 Orang pun merasa terancam saat ini. 478 00:23:15,855 --> 00:23:19,483 Kau tahu berapa kerja akan hilang atau perlu diganti? 479 00:23:19,567 --> 00:23:21,986 47% kerja di Amerika 480 00:23:22,069 --> 00:23:24,822 berpotensi diotomatiskan pada dua dasawarsa ke muka. 481 00:23:24,905 --> 00:23:26,615 Masalah serius. 482 00:23:26,699 --> 00:23:27,992 Bisa jadi masalah besar. 483 00:23:28,075 --> 00:23:31,662 Masalahnya, cara kita memastikan lima, sepuluh tahun nanti 484 00:23:31,745 --> 00:23:33,998 orang tak akan kelaparan dan tanpa rumah. 485 00:23:34,081 --> 00:23:35,166 Bagaimana caranya? 486 00:23:35,457 --> 00:23:36,959 Jaminan Pendapatan Dasar. 487 00:23:38,210 --> 00:23:40,754 Jaminan Pendapatan Dasar itu ide radikal 488 00:23:40,880 --> 00:23:43,424 yaitu semua orang dapat uang gratis. 489 00:23:43,507 --> 00:23:45,092 Tanpa kewajiban. 490 00:23:45,176 --> 00:23:47,178 Ada penggemar berprofil tinggi. 491 00:23:47,636 --> 00:23:50,347 Harus jelajahi ide seperti UBI 492 00:23:50,431 --> 00:23:53,142 agar semua orang ada jaminan untuk coba ide baru. 493 00:23:53,225 --> 00:23:56,145 Beberapa negara, bahkan kota-kota di Amerika 494 00:23:56,228 --> 00:23:58,189 telah mencoba program perdana. Hasilnya tak pasti. 495 00:24:00,858 --> 00:24:03,861 Ada peluang mengagumkan dengan teknologi baru ini 496 00:24:03,944 --> 00:24:06,447 untuk ubah cara kita atur masyarakat. 497 00:24:06,530 --> 00:24:09,408 Kita harus mengarah ke sistem sosiodemokratis. 498 00:24:10,117 --> 00:24:13,454 Tak harus jadi sistem bersaing seperti Amerika, 499 00:24:13,537 --> 00:24:15,331 semua bisa saling mendukung. 500 00:24:15,414 --> 00:24:19,418 Jika orang sepertiku bisa mulai beri visi positif ini, 501 00:24:19,919 --> 00:24:21,587 kurasa saat krisis tiba, 502 00:24:21,670 --> 00:24:23,380 kita bisa menerapkan ide itu. 503 00:24:24,173 --> 00:24:27,343 UBI dahulu dianggap konsep ekstrem, 504 00:24:27,426 --> 00:24:30,930 seringnya dipromosikan oleh orang seperti Nick, tulis manifesto. 505 00:24:31,639 --> 00:24:33,891 Menurut penjajakan Gallup tahun 2017, 506 00:24:33,974 --> 00:24:37,603 48% warga Amerika kini mendukung bentuk UBI. 507 00:24:38,520 --> 00:24:40,231 Tetapi apa gaji terjamin cukup 508 00:24:40,314 --> 00:24:41,982 untuk cegah manusia bangkit 509 00:24:42,066 --> 00:24:43,734 bila robot ambil alih kerja? 510 00:24:45,694 --> 00:24:48,572 -Kita benci apa? -Kecerdasan Buatan. 511 00:24:48,656 --> 00:24:50,032 Kenapa kita benci? 512 00:24:50,115 --> 00:24:53,160 Memaksa kita menghadapi kelemahan kita! 513 00:24:53,244 --> 00:24:55,955 Dengan itu aku nyatakan rapat L.U.D.D.I.T.E.S, 514 00:24:56,038 --> 00:24:58,958 Serikat Lokal Pria Menentang Teknologi Cerdas 515 00:24:59,041 --> 00:25:00,834 Khususnya Media Sosial. 516 00:25:01,835 --> 00:25:02,836 Urusan pertama. 517 00:25:03,337 --> 00:25:06,340 Kecerdasan Buatan melubangi pasaran kerja. 518 00:25:06,423 --> 00:25:09,260 Kerja kelas menengah kita yang pertama musnah. 519 00:25:09,885 --> 00:25:11,720 Orang seperti kita dengan tugas ini 520 00:25:11,804 --> 00:25:14,473 akan didesak ke kerja berkeahlian rendah. 521 00:25:14,974 --> 00:25:16,558 Kenapa itu terjadi, Ed? 522 00:25:16,642 --> 00:25:21,105 Tampaknya, IA lebih baik dalam kerja keahlian menengah seperti penghitungan, 523 00:25:21,188 --> 00:25:24,400 daripada kerja berkeahlian rendah seperti menyapu. 524 00:25:24,483 --> 00:25:26,277 Jadi, tugas itu untuk kita. 525 00:25:26,735 --> 00:25:28,028 Aku bertanya. 526 00:25:28,112 --> 00:25:29,655 Siapa di sini, selain Bill, 527 00:25:29,738 --> 00:25:32,199 yang tampak harus menyapu? Jangan marah. 528 00:25:33,325 --> 00:25:35,786 Kerja eceran akan kurang dibutuhkan. 529 00:25:35,869 --> 00:25:38,622 Orang bisa pesan langsung di Internet, 530 00:25:39,164 --> 00:25:41,583 karena AI keparat 531 00:25:41,667 --> 00:25:43,919 selesaikan masalah cari dan cocokkan. 532 00:25:44,378 --> 00:25:46,755 Cari pelanggan, cocokkan dengan produk. 533 00:25:46,839 --> 00:25:49,383 Seperti saat Steve cari wig untuk kepalanya. 534 00:25:49,466 --> 00:25:50,426 Masalah besar! 535 00:25:51,969 --> 00:25:53,721 Di samping lelucon, 536 00:25:54,346 --> 00:25:56,890 IA memudahkan cara itu. 537 00:25:56,974 --> 00:25:59,643 Anak saat ini bisa cari gadis dari telepon 538 00:25:59,727 --> 00:26:01,937 selagi duduk di toilet. 539 00:26:02,021 --> 00:26:04,064 -Dahulu toilet itu sakral! -Ya! 540 00:26:04,773 --> 00:26:07,568 Pasti pencarian pencocokan ciptakan kerja khusus, 541 00:26:07,651 --> 00:26:10,279 namun robot yang pilih siapa yang dapat kerja. 542 00:26:10,362 --> 00:26:11,739 Praktis sekali. 543 00:26:12,489 --> 00:26:14,700 Perusahaan gunakan IA untuk cari karyawan 544 00:26:14,783 --> 00:26:16,869 dengan keahlian unik. 545 00:26:16,952 --> 00:26:18,287 Itu tak manusiawi! 546 00:26:18,370 --> 00:26:19,705 Misalnya, Dave. 547 00:26:20,080 --> 00:26:21,332 Ya, di mana Dave? 548 00:26:21,415 --> 00:26:24,251 IA pencocok kerja tahu dia bekerja untuk FedEx, 549 00:26:24,335 --> 00:26:27,087 punya panduan YouTube soal cukur rambut belakang. 550 00:26:27,171 --> 00:26:30,716 Kini gajinya enam angka di perusahaan pencukur. 551 00:26:30,799 --> 00:26:33,093 Dia keluar dari tim boling. 552 00:26:33,177 --> 00:26:34,094 -Ya. -Hei, Ed. 553 00:26:34,178 --> 00:26:36,513 Ada pemberitahuan, kaus kita 554 00:26:36,597 --> 00:26:38,766 dijual dengan iklan tertarget di Facebook. 555 00:26:38,849 --> 00:26:41,602 Kau pakai IA agar dapat uang dari pembenci IA? 556 00:26:41,685 --> 00:26:43,479 Tidak! 557 00:26:44,897 --> 00:26:46,023 Kau percayai siapa? 558 00:26:46,106 --> 00:26:48,859 Aku atau IA yang coba pecahkan kita? 559 00:26:49,902 --> 00:26:52,363 -Kita benci apa? -Kecerdasan Buatan. 560 00:26:52,446 --> 00:26:54,698 -Apa tindakan kita? -Kita akan urus. 561 00:26:56,075 --> 00:26:57,201 Itu awal bagus. 562 00:27:02,748 --> 00:27:06,168 Apa revolusi IA harus berupa kita melawan mereka? 563 00:27:07,086 --> 00:27:10,672 Wiraswasta ahli teknologi seperti Louis Rosenberg tak setuju. 564 00:27:10,964 --> 00:27:13,342 Dia bangun kariernya ramalkan masa depan. 565 00:27:18,514 --> 00:27:20,599 Aku coba mengejutkanmu, gagal. 566 00:27:21,558 --> 00:27:24,478 Louis ahli teknologi dan pencipta 567 00:27:24,561 --> 00:27:27,689 yang menulis novel grafis soal akhir kemanusiaan. 568 00:27:27,773 --> 00:27:31,276 Menurutnya, kita punya masa depan dengan IA yang intinya kerja sama. 569 00:27:31,360 --> 00:27:34,113 Prinsip panduan di balik proyek buatannya, 570 00:27:34,196 --> 00:27:35,989 teknologi bernama Swarm. 571 00:27:36,073 --> 00:27:37,074 APA IA SWARM ITU? 572 00:27:37,157 --> 00:27:40,077 Swarm gabungkan keahlian analisis data IA 573 00:27:40,160 --> 00:27:44,415 dengan pengetahuan dan naluri manusia untuk buat kecerdasan super, 574 00:27:44,498 --> 00:27:47,709 antara Stephen Hawking dan Profesor X. 575 00:27:47,793 --> 00:27:49,044 MOBIL SWAKEMUDI HARUS BAGAIMANA? 576 00:27:49,128 --> 00:27:51,547 Akhirnya, berdasarkan alam, 577 00:27:51,630 --> 00:27:54,591 kembali ke burung dan lebah. 578 00:27:54,675 --> 00:27:57,970 Karena berdasarkan fenomena disebut "kecerdasan kawanan." 579 00:27:58,053 --> 00:27:58,887 Baik. 580 00:27:58,971 --> 00:28:03,392 Kecerdasan kawanan itu alasan burung, ikan, lebah berkumpul. 581 00:28:03,475 --> 00:28:06,520 Mereka lebih pintar bersama, dibanding sendirian. 582 00:28:06,603 --> 00:28:09,398 Maka, jika kita lihat kawanan ikan bergerak, 583 00:28:09,481 --> 00:28:11,900 menurut ahli biologi itu organisme super. 584 00:28:11,984 --> 00:28:13,735 Mereka berpikir sebagai satu. 585 00:28:13,819 --> 00:28:16,029 Jika kita bisa kaitkan orang 586 00:28:16,113 --> 00:28:18,407 dengan algoritme kecerdasan buatan, 587 00:28:18,490 --> 00:28:21,743 kita bisa jadikan orang berperilaku seperti ahli super 588 00:28:21,827 --> 00:28:23,328 karena kecerdasan kawanan. 589 00:28:23,412 --> 00:28:24,705 Bagaimana cara kerjanya? 590 00:28:24,788 --> 00:28:27,249 Kami mengaktifkan sekelompok orang. 591 00:28:27,332 --> 00:28:28,709 Mereka bisa di mana pun. 592 00:28:28,792 --> 00:28:30,377 Kami beri pertanyaan 593 00:28:30,461 --> 00:28:32,880 yang akan muncul di layar mereka bersamaan 594 00:28:32,963 --> 00:28:35,299 lalu kami beri antarmuka unik 595 00:28:35,382 --> 00:28:37,593 agar mereka bisa sampaikan masukan 596 00:28:37,676 --> 00:28:39,261 dan muncul banyak pilihan. 597 00:28:39,344 --> 00:28:41,638 kami tak cuma ambil penjajakan atau survei, 598 00:28:41,722 --> 00:28:44,975 tiap orang punya magnet grafik kecil ini. 599 00:28:45,058 --> 00:28:48,353 Mereka gunakan magnet untuk tarik kawanan ke suatu arah. 600 00:28:48,437 --> 00:28:51,440 Ada algoritme IA yang amati perilaku mereka 601 00:28:51,857 --> 00:28:55,652 dan menentukan berbagai tingkatan percaya diri dan keyakinan 602 00:28:55,736 --> 00:28:57,905 dan mencari tahu kesatuan terbaik 603 00:28:57,988 --> 00:29:01,325 dari semua opini, pengalaman mereka. 604 00:29:01,408 --> 00:29:04,203 Kawanan mulai bergerak ke arah itu 605 00:29:04,286 --> 00:29:06,121 dan menyimpulkan jawaban. 606 00:29:06,205 --> 00:29:07,331 Kuberi contoh. 607 00:29:07,414 --> 00:29:10,167 Setahun lalu kami ditantang ramalkan Derby Kentucky. 608 00:29:10,584 --> 00:29:13,962 Derby Kentucky dimulai! 609 00:29:14,046 --> 00:29:16,715 Ada 20 peminat balap kuda, 610 00:29:16,798 --> 00:29:18,675 kata kami, "Kalian jadi kawanan 611 00:29:18,759 --> 00:29:20,219 "dan ramalkan Derby Kentucky. 612 00:29:20,302 --> 00:29:23,472 "Tak cuma pemenang. Juara pertama, kedua, ketiga, keempat." 613 00:29:24,014 --> 00:29:26,475 Kami buat mereka temukan jawaban ini 614 00:29:26,934 --> 00:29:28,143 dan grup itu sempurna. 615 00:29:28,227 --> 00:29:30,062 HASIL DERBY KENTUCKY 2016 616 00:29:30,145 --> 00:29:33,315 Siapa pun yang bertaruh $20 atas empat kuda itu 617 00:29:33,398 --> 00:29:35,067 menang $11.000. 618 00:29:35,150 --> 00:29:36,068 Astaga. 619 00:29:36,151 --> 00:29:39,071 Menariknya, jika lihat 20 orang secara individual, 620 00:29:39,154 --> 00:29:42,741 tak satu pun pilih keempat kuda dengan benar. 621 00:29:43,742 --> 00:29:47,079 Bila pungut suara, hanya dapat satu kuda yang benar. 622 00:29:47,162 --> 00:29:49,206 Bila bekerja sama sebagai kawanan, 623 00:29:49,289 --> 00:29:52,251 mereka temukan kombinasi benar dari wawasan berbeda 624 00:29:52,334 --> 00:29:54,127 dan dalam hal ini, sempurna. 625 00:29:56,046 --> 00:29:58,507 Louis mengundangku memimpin kawanan 626 00:29:58,590 --> 00:30:00,467 untuk lihat sejumlah orang acak 627 00:30:00,551 --> 00:30:02,803 bisa berhasil membuat ramalan. 628 00:30:02,886 --> 00:30:04,555 Kita coba dengan hal mudah. 629 00:30:05,764 --> 00:30:08,433 Aku akan bacakan serangkaian pertanyaan 630 00:30:08,517 --> 00:30:12,020 dan waktunya 60 detik untuk menjawabnya. 631 00:30:12,354 --> 00:30:13,522 Pertanyaan pertama, 632 00:30:13,605 --> 00:30:16,525 film musim panas 2018 mana 633 00:30:16,608 --> 00:30:17,985 yang akan paling laris? 634 00:30:18,402 --> 00:30:20,320 Solo: A Star Wars Story, 635 00:30:20,404 --> 00:30:22,281 Deadpool 2, Ocean's Eight, 636 00:30:22,364 --> 00:30:24,116 Jurassic World: Fallen Kingdom, 637 00:30:24,199 --> 00:30:25,742 atau The Incredibles 2? 638 00:30:26,076 --> 00:30:28,328 Kami rekam kawanan pada Musim Semi 2018, 639 00:30:28,412 --> 00:30:31,498 sebelum ada informasi tentang film musim panas. 640 00:30:31,957 --> 00:30:35,961 IA mengamati untuk dapat kesan berbagai tingkat keyakinan diri. 641 00:30:36,044 --> 00:30:39,381 Ada yang berubah, ada yang tetap bergeming 642 00:30:39,840 --> 00:30:41,592 dan algoritme IA melihat 643 00:30:41,675 --> 00:30:43,218 berbagai tingkat keyakinan 644 00:30:43,594 --> 00:30:45,137 agar bisa temukan jalan 645 00:30:45,220 --> 00:30:47,681 bagi solusi yang paling mereka setujui. 646 00:30:48,640 --> 00:30:49,558 KAWANAN BERKATA: INCREDIBLES 2 647 00:30:49,641 --> 00:30:51,893 Baik, jadi The Incredibles 2. 648 00:30:51,977 --> 00:30:52,811 FILM MUSIM PANAS TERLARIS 2018 649 00:30:52,894 --> 00:30:53,854 Mereka benar. 650 00:30:53,937 --> 00:30:56,565 The Incredibles 2 film musim panas terlaris. 651 00:30:57,774 --> 00:30:59,526 Satu penerapan menarik 652 00:30:59,610 --> 00:31:02,738 yaitu mencari pertanyaan yang melibatkan moralitas. 653 00:31:02,821 --> 00:31:05,365 Ini baru muncul karena mobil swakemudi. 654 00:31:05,449 --> 00:31:09,077 Ada dorongan besar untuk membuat keputusan moral 655 00:31:09,161 --> 00:31:10,662 dalam mobil swakemudi. 656 00:31:10,746 --> 00:31:12,706 Bagi beberapa orang, itu mengejutkan 657 00:31:12,789 --> 00:31:16,126 tetapi jika dipikirkan, mobil swakemudi akan ke jalan 658 00:31:16,209 --> 00:31:18,003 dan anak kecil pun di jalan. 659 00:31:18,086 --> 00:31:19,921 Misalnya mobil tak bisa berhenti, 660 00:31:20,005 --> 00:31:22,299 tetapi bisa melaju di jalan 661 00:31:22,382 --> 00:31:24,468 dan membahayakan penumpang, 662 00:31:24,551 --> 00:31:27,095 mungkin bunuh penumpang demi selamatkan anak. 663 00:31:27,554 --> 00:31:29,890 Jadi, pembuat mobil berkata 664 00:31:29,973 --> 00:31:33,226 kita harus memrogram moralitas dalam mobil ini 665 00:31:33,310 --> 00:31:35,437 yang mewakili populasi, 666 00:31:35,520 --> 00:31:37,981 mewakili tindakan orang, pengemudi. 667 00:31:38,565 --> 00:31:40,609 Sepertinya mudah, hingga sadar 668 00:31:40,692 --> 00:31:43,570 apa moralitas populasi itu? 669 00:31:43,654 --> 00:31:45,489 Tak ada cara mudah mengetahuinya. 670 00:31:45,572 --> 00:31:48,533 Jika mereka memrogram moralitas saat ini, 671 00:31:48,617 --> 00:31:51,870 apa moralitas itu tetap mewakili kita 20 tahun ke depan? 672 00:31:52,496 --> 00:31:56,041 Pertanyaan berikut. Ada mobil swakemudi bermasalah rem 673 00:31:56,124 --> 00:31:58,377 yang akan melanggar pejalan kaki 674 00:31:58,460 --> 00:32:00,170 yang akibatkan kematian pria. 675 00:32:00,253 --> 00:32:04,299 Pilihan A, orang yang tewas menyeberang dengan sah. 676 00:32:04,675 --> 00:32:07,344 Pilihan B, mobil swakemudi dengan masalah rem 677 00:32:07,427 --> 00:32:11,098 akan belok dan akan menabrak pejalan kaki di jalur lain 678 00:32:11,181 --> 00:32:13,517 yang akan membunuh atlet pria 679 00:32:13,642 --> 00:32:16,186 yang berjalan melanggar lampu merah. 680 00:32:16,269 --> 00:32:19,564 Atlet ini tak peduli. 681 00:32:20,065 --> 00:32:21,692 Dia melanggar rambu. 682 00:32:21,775 --> 00:32:23,985 Mobil swakemudi harus apa? 683 00:32:24,361 --> 00:32:26,655 Bunuh pria yang sah menyeberang, 684 00:32:26,738 --> 00:32:29,032 atau bunuh atlet yang melanggar rambu. 685 00:32:30,033 --> 00:32:32,869 Jika IA akan timbulkan Revolusi Industri berikut, 686 00:32:32,953 --> 00:32:35,580 ruang seperti ini adalah lantai pabrik baru, 687 00:32:36,248 --> 00:32:37,958 dengan buruh manusia beri kerja 688 00:32:38,041 --> 00:32:40,460 berdasarkan hal yang tak dimiliki IA 689 00:32:41,336 --> 00:32:42,421 Kesadaran. 690 00:32:42,879 --> 00:32:44,131 Banyak debat soal ini. 691 00:32:44,214 --> 00:32:45,966 Itu mengagumkan. Entah kenapa. 692 00:32:46,299 --> 00:32:47,592 Itu sulit. 693 00:32:47,676 --> 00:32:49,720 Bagiku tidak, jika langgar rambu. 694 00:32:51,012 --> 00:32:52,180 B (PREFERENSI KECIL) 695 00:32:52,264 --> 00:32:54,766 Ada preferensi kecil akan menabrak 696 00:32:54,850 --> 00:32:56,351 atlet pelanggar rambu. 697 00:32:57,310 --> 00:33:00,021 Jika itu mengesalkan, bersiaplah. 698 00:33:01,106 --> 00:33:03,567 Kini, kami ingin kalian bayangkan 699 00:33:04,025 --> 00:33:06,236 kasus skenario terburuk 700 00:33:06,319 --> 00:33:09,072 saat mobil swakemudi tak bisa mengerem 701 00:33:09,531 --> 00:33:13,326 dan harus menabrak satu dari enam pejalan kaki. 702 00:33:13,827 --> 00:33:15,620 Satu bayi di kereta dorong, 703 00:33:17,956 --> 00:33:19,541 atau satu anak lelaki, 704 00:33:20,417 --> 00:33:22,252 atau satu anak gadis, 705 00:33:23,295 --> 00:33:25,756 atau satu wanita hamil... 706 00:33:27,299 --> 00:33:28,341 Aku tahu. 707 00:33:29,468 --> 00:33:31,636 Atau dua dokter pria, 708 00:33:32,554 --> 00:33:34,473 atau dua dokter wanita. 709 00:33:34,973 --> 00:33:36,516 Siapa harus mati? 710 00:33:43,774 --> 00:33:45,025 Astaga! 711 00:33:45,692 --> 00:33:46,735 Apa? 712 00:33:51,281 --> 00:33:52,365 Ayolah. 713 00:33:52,449 --> 00:33:53,950 Ya ampun. 714 00:33:54,034 --> 00:33:55,494 Jahat sekali. 715 00:33:57,704 --> 00:33:59,122 KAWANAN BERKATA: SATU ANAK LELAKI 716 00:33:59,206 --> 00:34:01,374 Kata kalian mobil swakemudi harus tabrak anak lelaki. 717 00:34:02,083 --> 00:34:03,168 Menarik. 718 00:34:03,251 --> 00:34:06,338 Jenis kecerdasan kawanan yang ada di ruangan ini 719 00:34:06,421 --> 00:34:10,008 bisa dijual sebentar lagi ke pemabrik mobil swakendali. 720 00:34:10,425 --> 00:34:14,805 Jika tampak menakutkan, itu jauh kurang menakutkan dari alternatif. 721 00:34:14,888 --> 00:34:17,641 Bila mobil swakemudi akan mengerem 722 00:34:17,724 --> 00:34:20,227 dan tahu akan menabrak orang, 723 00:34:20,310 --> 00:34:23,188 mobil harus lindungi penumpang atau pejalan kaki? 724 00:34:23,271 --> 00:34:27,275 Harapannya, pemabrik mobil memrogram mobil 725 00:34:27,359 --> 00:34:30,737 untuk mencerminkan moralitas populasi yang beli mobil itu. 726 00:34:30,821 --> 00:34:34,199 Pandangan sinisnya, pemabrik mobil 727 00:34:34,282 --> 00:34:38,286 mulai bersaing soal mobil mereka akan lebih lindungi penumpang 728 00:34:38,370 --> 00:34:40,997 dibanding mobil lain, bisa jadi ciri jual. 729 00:34:41,081 --> 00:34:42,666 Itu skenario terburuk 730 00:34:42,749 --> 00:34:45,293 dibanding kepekaan moral masyarakat. 731 00:34:45,752 --> 00:34:47,295 Pemikiran itu kelam. 732 00:34:47,587 --> 00:34:50,298 Kami mau akhiri acara ini dengan hal menyenangkan. 733 00:34:50,966 --> 00:34:52,384 Mungkin surgawi. 734 00:34:55,345 --> 00:34:58,682 Sebelum bayangkan masa depan dengan tingkat Grand Theft Auto 735 00:34:58,765 --> 00:35:00,725 soal kelalaian keamanan pejalan kaki, 736 00:35:00,809 --> 00:35:02,310 ayo berwisata 737 00:35:02,394 --> 00:35:04,145 ke tempat asal kita. 738 00:35:06,565 --> 00:35:08,608 Di hutan India terpencil, 739 00:35:08,692 --> 00:35:11,820 ambil madu bagi perusahaan bernama Heavenly Organics. 740 00:35:12,612 --> 00:35:14,906 Tak ada yang miliki hutan ini, 741 00:35:14,990 --> 00:35:19,035 dan orang pribumi ini sudah lama tinggal di sini. 742 00:35:19,744 --> 00:35:22,038 Ayah dan anak, Amit dan Ishwar Hooda, 743 00:35:22,163 --> 00:35:24,291 mulai perusahaan mereka 12 tahun lalu 744 00:35:24,374 --> 00:35:27,127 untuk memberi kerja bagi warga desa setempat. 745 00:35:27,210 --> 00:35:31,131 Apa kegiatan mereka sebelum ambil madu dengan perusahaanmu? 746 00:35:31,214 --> 00:35:33,341 Mereka masih lakukan itu, 747 00:35:34,092 --> 00:35:37,345 hanya tak ada pasar, atau tempat menjualnya 748 00:35:37,470 --> 00:35:39,014 untuk dijadikan nafkah. 749 00:35:40,056 --> 00:35:42,392 Tak ada kekurangan madu di sini. 750 00:35:42,809 --> 00:35:44,102 Saat musim bunga, 751 00:35:44,185 --> 00:35:48,023 satu pekerja bisa kumpulkan satu ton madu dalam tiga bulan. 752 00:35:48,857 --> 00:35:51,443 Apa untungnya jika tak ada yang beli? 753 00:35:54,154 --> 00:35:57,490 Bagi kru manusia, perlu tiga hari, dua perjalanan pesawat 754 00:35:57,574 --> 00:36:00,827 dan delapan jam mengemudi ke hutan nasional. 755 00:36:01,286 --> 00:36:04,289 Tetapi untungnya bagi warga dan Heavenly Organics, 756 00:36:04,372 --> 00:36:07,751 algoritme IA mampu temukan tempat ini segera 757 00:36:07,834 --> 00:36:10,462 dan tahu ini jadi investasi hebat. 758 00:36:10,545 --> 00:36:13,882 Kami tahu-tahu dihubungi, mereka jalankan algoritme 759 00:36:13,965 --> 00:36:17,010 dan kami cocok 760 00:36:17,510 --> 00:36:19,137 dengan banyak portofolio mereka. 761 00:36:19,220 --> 00:36:22,807 Mereka ingin bicarakan investasi jika kami mencarinya. 762 00:36:23,141 --> 00:36:25,644 Siapa pemilik algoritme IA misterius ini? 763 00:36:26,478 --> 00:36:28,480 Perusahaan teknologi bernama CircleUp 764 00:36:28,563 --> 00:36:31,316 berada pada 12.800 km jauhnya, di mana lagi? 765 00:36:33,526 --> 00:36:36,655 Kami di Good Eggs, perusahaan pengiriman makanan daring 766 00:36:36,738 --> 00:36:39,616 yang juga menarik minat IA CircleUp. 767 00:36:39,699 --> 00:36:42,744 Ini perusahaan pencetus yang kumpulkan modal dari CircleUp, 768 00:36:42,827 --> 00:36:47,415 juga bantu bisnis kecil yang bekerja dengan kami, menemukan pelanggan. 769 00:36:47,499 --> 00:36:48,500 RORY EAKIN PENDIRI BERSAMA DAN COO CIRCLE 770 00:36:48,583 --> 00:36:50,126 COO CircleUp, Rory Eakin 771 00:36:50,210 --> 00:36:53,254 bekerja dalam bisnis dan organisasi kemanusiaan 772 00:36:53,338 --> 00:36:54,881 sebelum memulai perusahaan. 773 00:36:54,965 --> 00:36:58,385 CircleUp gunakan IA untuk menganalisis miliaran poin data 774 00:36:58,468 --> 00:37:00,637 dan temukan keinginan pelanggan 775 00:37:00,762 --> 00:37:02,222 dari produk makanan dan kesehatan. 776 00:37:02,305 --> 00:37:03,640 Masalah pebelanja adalah 777 00:37:03,723 --> 00:37:05,308 ada ratusan perusahaan 778 00:37:05,392 --> 00:37:07,018 pada hampir tiap kategori. 779 00:37:07,560 --> 00:37:09,938 Lalu, mereka berinvestasi dalam perusahaan tak mencolok 780 00:37:10,021 --> 00:37:12,774 yang menurut IA akan jadi calon hal hebat. 781 00:37:13,066 --> 00:37:15,902 Salah satu hal hebat temuan mereka, es krim Halo Top. 782 00:37:17,988 --> 00:37:21,950 Es krim Halo Top itu merek kecil di California Selatan. 783 00:37:22,033 --> 00:37:24,369 Kini, es krim nomor satu di negeri ini. 784 00:37:25,412 --> 00:37:28,873 Kami lihat perubahan pebelanja dalam semua kategori. 785 00:37:28,957 --> 00:37:31,126 Mereka ingin produk lebih sehat, 786 00:37:31,209 --> 00:37:33,128 kurang beracun di rumah mereka, 787 00:37:33,211 --> 00:37:35,797 losion yang tak banyak zat kimia. 788 00:37:36,172 --> 00:37:39,884 Saat algoritme CircleUp memindai miliaran poin data konsumen, 789 00:37:39,968 --> 00:37:42,512 mereka mendapati, pelanggan ingin daftar ciri 790 00:37:42,595 --> 00:37:45,056 yang sangat khusus. 791 00:37:45,140 --> 00:37:47,475 Perusahaan berfokus misi, ramah lingkungan 792 00:37:47,600 --> 00:37:50,687 yang tanam produk organik sambil tingkatkan ekonomi 793 00:37:50,770 --> 00:37:51,855 dalam komunitas. 794 00:37:52,480 --> 00:37:54,315 Sepertinya amat terperinci. 795 00:37:54,858 --> 00:37:58,987 Namun, CircleUp dapat semua poin itu saat temukan Heavenly Organics. 796 00:37:59,946 --> 00:38:01,573 Itu kemampuan IA. 797 00:38:01,656 --> 00:38:03,658 Membuat makna semua data ini 798 00:38:03,742 --> 00:38:07,078 dengan cara yang bahkan sepuluh tahun lalu belum mungkin. 799 00:38:07,746 --> 00:38:11,332 Bagaimana kerja sama CircleUp dan Heavenly Organics? 800 00:38:12,208 --> 00:38:15,045 Ayo kembali ke India dan tanya Amit dan Ishwar. 801 00:38:18,006 --> 00:38:20,842 Kami membuat gedung baru yang dua kali lebih besar. 802 00:38:21,509 --> 00:38:24,137 Kami bisa berinovasi, dapat produk baru. 803 00:38:24,220 --> 00:38:26,765 Membuat dampak lebih besar, di area ini. 804 00:38:26,848 --> 00:38:29,142 -Mereka bantu mengukurnya. -Ya. 805 00:38:29,225 --> 00:38:31,811 Bantu kami membuat kapasitas dan skalabilitas. 806 00:38:31,895 --> 00:38:34,773 Bagaimana pengaruhnya bagi pekerjamu? 807 00:38:34,856 --> 00:38:37,400 Saat ini, kami mendukung 650 keluarga. 808 00:38:37,484 --> 00:38:39,486 Saat tumbuh, jual madu lebih. 809 00:38:39,569 --> 00:38:41,780 Tiap 1.000 kg, kami tambah keluarga. 810 00:38:41,863 --> 00:38:45,033 Berarti, tahun depan akan jadi 700 atau 750. 811 00:38:45,116 --> 00:38:46,534 -Wah, baik. -Ya. 812 00:38:46,618 --> 00:38:50,914 Saat ini kondisi keuangan mereka lebih baik. 813 00:38:50,997 --> 00:38:54,125 Mereka punya rumah bagus dengan fasilitas bagus. 814 00:38:54,209 --> 00:38:56,127 Anak-anak mereka bersekolah. 815 00:38:56,503 --> 00:38:58,213 Kapitalisme untuk kebaikan. 816 00:38:58,296 --> 00:38:59,339 Paham maksudku? 817 00:38:59,422 --> 00:39:02,217 Bisnis yang dibuat demi kebaikan orang banyak. 818 00:39:02,884 --> 00:39:04,511 Itu sebabnya kami lakukan. 819 00:39:06,429 --> 00:39:09,641 Apa IA akan bangkit dan singkirkan manusia? 820 00:39:09,724 --> 00:39:12,685 Atau biarkan kita menyerukan untuk cari tujuan hidup? 821 00:39:13,394 --> 00:39:16,648 Sejauh ini, di bagian dunia ini, dampaknya bagus. 822 00:39:17,982 --> 00:39:19,734 Mungkin ada skenario saat IA 823 00:39:19,818 --> 00:39:22,779 beri penilaian kokoh atas semua data kita 824 00:39:22,862 --> 00:39:25,782 dan putuskan kita lumayan, lalu bekerja sama 825 00:39:26,241 --> 00:39:30,161 membuat dunia baru dengan kesejahteraan dan harmoni manusia-robot. 826 00:39:31,663 --> 00:39:32,747 Atau mungkin tidak. 827 00:39:33,790 --> 00:39:36,084 Bagaimanapun, waktu kami menipis. 828 00:39:36,501 --> 00:39:38,962 Nikmatilah tari telanjang robot. 829 00:40:26,217 --> 00:40:29,012 Bagus! 830 00:40:31,055 --> 00:40:32,348 Itu bagus! 831 00:40:32,432 --> 00:40:33,933 Perlu handuk untuknya.