1 00:00:05,382 --> 00:00:06,759 WALL STREET İSTASYONU 2 00:00:08,927 --> 00:00:11,930 Wall Street'teyim, her şeyin başladığı yerde. 3 00:00:13,724 --> 00:00:17,186 6 Mayıs 2010'da, saat 14.45'te, 4 00:00:17,686 --> 00:00:21,190 ta Londra'da ailesinin evinde oturan bir adam 5 00:00:21,273 --> 00:00:24,985 New York Borsası'na milyar dolarlık bir satış emriyle 6 00:00:25,068 --> 00:00:27,279 bir algoritma saldı. 7 00:00:28,697 --> 00:00:30,449 Esas planı piyasayı aldatıp 8 00:00:30,532 --> 00:00:32,659 satış tamamlanmadan iptal etmekti. 9 00:00:33,160 --> 00:00:34,411 Ama bu olana kadar, 10 00:00:34,495 --> 00:00:37,247 dünya çapındaki otomatik ticaret robotları da 11 00:00:37,331 --> 00:00:38,582 satışa başladı, 12 00:00:39,041 --> 00:00:42,336 bu da zincirleme reaksiyona neden oldu ve piyasa çöktü. 13 00:00:44,880 --> 00:00:48,967 Dow Jones Industrial 15 dakikada 1.000 puan düştü. 14 00:00:49,051 --> 00:00:52,513 Bu, Büyük Buhran'ı tetikleyen düşüşle neredeyse aynıydı. 15 00:00:52,596 --> 00:00:55,307 Burada ne haltlar dönüyor, bilmiyorum. 16 00:00:55,390 --> 00:00:56,642 Piyasada korku var. 17 00:00:57,267 --> 00:00:59,645 Tatil iptal, çocuklar devlet okuluna. 18 00:01:00,938 --> 00:01:02,481 Şok çöküş geldi. 19 00:01:03,023 --> 00:01:04,066 Ha siktir. 20 00:01:05,359 --> 00:01:08,111 36 dakika sonra piyasa tekrar çıkışa geçti. 21 00:01:08,195 --> 00:01:11,615 Ama 2010'un şok çöküşü bir milat oldu, 22 00:01:11,698 --> 00:01:15,994 insanlar ilk elden ilkel ve korkutucu bir örnekle YZ, yani yapay zekânın 23 00:01:16,078 --> 00:01:19,164 finansal sistemi nasıl ele geçirebileceğini gördüler. 24 00:01:20,707 --> 00:01:22,167 Bir de şimdi görün. 25 00:01:24,086 --> 00:01:26,922 Bu yüzden Hindistan'dayım, vahşi bal topluyorum. 26 00:01:27,631 --> 00:01:28,966 Ona sonra geçelim. 27 00:01:29,341 --> 00:01:31,885 YZ burayı nasıl ve neden buldu anlamak için 28 00:01:31,969 --> 00:01:34,429 önce YZ ne, onu anlamanız lazım. 29 00:01:34,513 --> 00:01:36,431 Bildiğini sanan yanılıyordur. 30 00:01:37,850 --> 00:01:41,436 Hoşunuza gitse de gitmese de hepimiz para ile bağlıyız. 31 00:01:41,937 --> 00:01:45,315 Ben Kal Penn, küresel ekonomi denen 32 00:01:45,691 --> 00:01:48,068 şu dev canavarı keşfediyorum. 33 00:01:48,151 --> 00:01:49,403 Küresel Ekonomi Denen Şu Dev Canavar 34 00:01:52,322 --> 00:01:54,324 Peki, YZ tam olarak nedir? 35 00:01:54,908 --> 00:01:58,579 Önce ne olmadığını öğrenmek için San Francisco'dayım. 36 00:01:58,662 --> 00:02:01,874 O da bilim kurgunun söylediği neredeyse her şey. 37 00:02:02,541 --> 00:02:03,542 Özellikle de... 38 00:02:03,959 --> 00:02:07,004 Devasa manyak robotlar! 39 00:02:27,107 --> 00:02:28,442 Tanrım! 40 00:02:30,485 --> 00:02:32,112 Julia Bossman'layım. 41 00:02:32,237 --> 00:02:36,575 Dünya Ekonomik Forumu'nun Yapay Zekâ Konseyi'nde hizmet veriyor, 42 00:02:36,658 --> 00:02:40,329 dünya liderlerine YZ potansiyelinden yararlanma tavsiyeleri veriyor. 43 00:02:40,829 --> 00:02:44,499 Bu işin, araba parçalamayı izlemekten daha iyi yanları da var. 44 00:02:44,583 --> 00:02:47,586 Mesela Kanada'nın adı Drake olmayan bir numaralı seks sembolüyle selfie'ler. 45 00:02:47,669 --> 00:02:48,754 JUSTIN TRUDEAU KANADA BAŞBAKANI 46 00:02:53,467 --> 00:02:55,385 Artık eve nasıl döneceksin? 47 00:02:55,469 --> 00:02:56,803 Hâlâ gider bu. 48 00:03:01,016 --> 00:03:03,018 MegaBots şirketinde buluştuk, 49 00:03:03,101 --> 00:03:05,854 dövüşen dev robotlar yapıyorlar. 50 00:03:07,814 --> 00:03:10,275 Orta Çağ'ın daha havalı bir hâli gibi. 51 00:03:13,779 --> 00:03:14,905 Julia'ya göre 52 00:03:14,988 --> 00:03:17,658 bu robotlar gereksiz lunapark oyuncağı değil. 53 00:03:18,283 --> 00:03:22,412 Bunlar teknolojik dinozor çünkü önemli bir farkları var. 54 00:03:24,289 --> 00:03:25,582 Bu robotlarda beyin biziz, 55 00:03:25,666 --> 00:03:27,626 YZ ise yapay beyin. 56 00:03:27,709 --> 00:03:28,752 JULIA BOSSMANN DÜNYA EKONOMİK FORUMU, YZ UZMANI 57 00:03:28,835 --> 00:03:29,711 İlginç. Açıklar mısın? 58 00:03:29,795 --> 00:03:32,506 Artık kendi başına öğrenebilen 59 00:03:32,589 --> 00:03:34,132 bilgisayarlar yapıyoruz. 60 00:03:34,591 --> 00:03:37,010 Bunların bir vücuda ihtiyacı yok. 61 00:03:37,344 --> 00:03:40,055 Yani zaten ürettiğimiz YZ çoğunlukla 62 00:03:40,138 --> 00:03:41,765 veri merkezlerinde yaşıyor. 63 00:03:42,057 --> 00:03:46,645 YZ'yi 13 yaşında birine açıklaman gerekseydi, 64 00:03:46,728 --> 00:03:48,146 nasıl anlatırdın? 65 00:03:48,230 --> 00:03:50,691 Sanırım genel bir tanım şöyle olabilir, 66 00:03:50,774 --> 00:03:54,945 YZ, makinelere özellikle programlamadığımız 67 00:03:55,028 --> 00:03:58,156 bir şeyler yaptırıyor. 68 00:03:58,240 --> 00:03:59,616 Geleneksel programcılıkta 69 00:03:59,700 --> 00:04:02,744 belli kurallarınız ve algoritmanız vardır, 70 00:04:02,828 --> 00:04:04,413 böyleyse böyle yap gibi. 71 00:04:04,496 --> 00:04:07,165 Bu, onu programlayan insanlar tarafından yazılır. 72 00:04:07,249 --> 00:04:09,501 Sağlık literatürüne bakarsan, 73 00:04:09,584 --> 00:04:12,004 bir veri tabanında milyonlarca girdi var 74 00:04:12,087 --> 00:04:14,923 ve hiçbir doktor alanında güncel kalmak için 75 00:04:15,048 --> 00:04:17,676 tüm araştırmaları okuyamaz ama makine okur. 76 00:04:17,759 --> 00:04:20,220 Bu sayede makine sorun çözmede 77 00:04:20,303 --> 00:04:21,596 ya da yeni tedaviler için 78 00:04:21,680 --> 00:04:24,766 ilaçlar keşfetmede yeni fikirler çıkarabilir. 79 00:04:24,850 --> 00:04:25,976 Vay. Tamam. 80 00:04:26,059 --> 00:04:28,395 Yapay zekâ için 81 00:04:28,478 --> 00:04:30,856 bu sıralar en heyecanlı alana da 82 00:04:30,939 --> 00:04:32,065 derin öğrenme deniyor. 83 00:04:32,149 --> 00:04:33,608 "Derin öğrenme" nedir? 84 00:04:33,692 --> 00:04:36,069 Derin öğrenme, beynimizde olduğu gibi 85 00:04:36,153 --> 00:04:39,072 bu sinirsel ağlardan birkaç derin katman 86 00:04:39,156 --> 00:04:42,242 kurmamız durumudur. 87 00:04:42,325 --> 00:04:45,579 Beynimizde birbiriyle bağlı olup bilgi alışverişi yapan 88 00:04:45,662 --> 00:04:46,788 birçok nöron var 89 00:04:46,830 --> 00:04:50,751 ve bir bakıma bu işlemi makinelerde simüle ediyoruz. 90 00:04:50,834 --> 00:04:54,546 Dengesiz ve tarafsız bilgiyle besleyip 91 00:04:54,629 --> 00:04:56,214 öğrenmesini de sağlıyoruz. 92 00:04:56,548 --> 00:04:59,009 Mesela görüntü tanıma için 93 00:04:59,092 --> 00:05:01,511 kedi ve köpek resimleri veriyoruz. 94 00:05:01,595 --> 00:05:03,972 Kendileri bu resimleri karıştırıp 95 00:05:04,056 --> 00:05:06,349 nasıl tanıyacaklarını öğreniyorlar. 96 00:05:06,433 --> 00:05:10,187 Böylece her bir parçayı programlamamıza gerek kalmıyor. 97 00:05:10,228 --> 00:05:11,229 İlginç. 98 00:05:11,313 --> 00:05:14,107 Derin öğrenme olmayan makine öğrenmesi var. 99 00:05:14,858 --> 00:05:16,985 Bazı evrimsel algoritmalar var. 100 00:05:17,069 --> 00:05:19,863 Evrimin bir prensibini kullanıp 101 00:05:19,946 --> 00:05:24,242 makinenin farklı durumları denemesine izin veriyoruz, 102 00:05:24,743 --> 00:05:27,329 sonra da en iyi hangisi çalışıyor görüyoruz. 103 00:05:27,412 --> 00:05:31,291 En iyi çalışanlar sonraki nesle geçiyor. 104 00:05:31,374 --> 00:05:34,336 Organizma evrimi gibi prensip belirliyoruz, 105 00:05:34,419 --> 00:05:37,172 en güçlü ve en iyi programlar hayatta kalıyor. 106 00:05:37,255 --> 00:05:38,381 Vay, tamam. 107 00:05:38,465 --> 00:05:40,550 Yani bunlar evrimsel algoritmalar. 108 00:05:40,926 --> 00:05:44,346 Finansal olarak YZ keşfetmeye ilgi var mı? 109 00:05:44,429 --> 00:05:47,724 Ekonomiye inanılmaz bir etki yapma potansiyeli var gibi. 110 00:05:47,808 --> 00:05:50,393 Evet, ekonomiyi kökten değiştirecektir, 111 00:05:50,477 --> 00:05:53,313 âdeta yeni bir endüstriyel devrim olur. 112 00:05:53,396 --> 00:05:54,231 İlginç. 113 00:05:54,314 --> 00:05:55,774 İnsanlığın son icadı deniyor 114 00:05:55,857 --> 00:05:58,944 çünkü bizden zeki yapay bir beyne ulaşınca 115 00:05:59,027 --> 00:06:00,779 icatları bizim için o yapacak. 116 00:06:00,862 --> 00:06:03,865 Son icat denmesinin sebebi hepimizi öldürecek olması mı? 117 00:06:04,950 --> 00:06:06,118 Umarım değildir. 118 00:06:08,829 --> 00:06:12,207 Pek çok insanın korkusu, yapay zekânın çok zekileşip 119 00:06:12,290 --> 00:06:15,001 hepimizi öldürmesi. Ama merak etmeyin. 120 00:06:15,085 --> 00:06:19,047 YZ'nin çok zeki olmasının sebebi aslında andavalın teki olması. 121 00:06:19,464 --> 00:06:20,549 Gel buraya YZ. 122 00:06:21,299 --> 00:06:24,302 Evrimsel algoritmaları kullanarak YZ'den mükemmel 123 00:06:24,386 --> 00:06:26,179 bir pasta tarifi istiyorsunuz. 124 00:06:27,973 --> 00:06:30,517 YZ nasıl en iyisini yaparım diye düşünmez. 125 00:06:30,600 --> 00:06:33,520 Milyarlarca kez dener, 126 00:06:33,603 --> 00:06:37,482 mutfaktaki malzemeleri olabilecek en aptalca şekillerde kullanır. 127 00:06:38,441 --> 00:06:40,652 Çoğu tabii ki berbat olacaktır. 128 00:06:42,320 --> 00:06:43,613 Mesela bu. 129 00:06:44,447 --> 00:06:45,657 İyi deneme aptal. 130 00:06:46,616 --> 00:06:50,162 Başarısızlık YZ'nin duygularını incitmez. Çünkü duygusuzdur. 131 00:06:50,745 --> 00:06:53,123 Evrimsel algoritmaların en iyi yanı, 132 00:06:53,206 --> 00:06:56,293 bu görece aptalca metotları deneyerek 133 00:06:56,376 --> 00:06:58,044 mantıklı hiçbir insanın 134 00:06:58,128 --> 00:07:01,464 denemeye uğraşmayacağı bir aşçılık çözümü bulabilir, 135 00:07:01,548 --> 00:07:04,176 mesela olağanüstü bir vegan pasta. 136 00:07:04,259 --> 00:07:05,302 Pasta yaptım. 137 00:07:06,178 --> 00:07:07,554 Aferin YZ. 138 00:07:07,637 --> 00:07:09,097 Çoğunlukla kajudan. 139 00:07:09,931 --> 00:07:13,143 Kaju kullanmak aklınıza gelir miydi? Tabii ki hayır! 140 00:07:13,226 --> 00:07:16,521 Bu aptalca olurdu ama YZ sizin için aptallaşıyor 141 00:07:16,605 --> 00:07:18,190 ve siz aptallaşmıyorsunuz. 142 00:07:18,273 --> 00:07:21,067 Bu moron dünyayı ele geçirip hepimizi öldürecek kadar 143 00:07:21,151 --> 00:07:23,653 zeki bir şeye dönüşebilir mi? 144 00:07:24,196 --> 00:07:25,280 Kesin değil. 145 00:07:25,363 --> 00:07:26,740 Nükleer füze şifrelerini öğreniyorum. 146 00:07:27,657 --> 00:07:28,992 Ama o sırada... 147 00:07:29,993 --> 00:07:31,077 Biraz pasta yiyin. 148 00:07:35,165 --> 00:07:36,541 Ben YZ faydasından çok 149 00:07:36,625 --> 00:07:39,461 zarar getirebilir diye endişelensem de, 150 00:07:41,004 --> 00:07:43,757 uzmanlar sağlık, ulaşım ve finans alanında 151 00:07:43,840 --> 00:07:47,636 üretimi artıracağını ve 2030'a kadar gayrisafi yurt içi hasılaya 152 00:07:47,719 --> 00:07:51,848 15,7 trilyon dolar ek gelir katacağını düşünüyorlar. 153 00:07:52,474 --> 00:07:56,478 Bu, şu anda Çin ve Hindistan'ın toplam üretiminden fazla. 154 00:07:59,898 --> 00:08:02,275 Peki bu YZ ne kadar büyük bir konu? 155 00:08:02,943 --> 00:08:06,404 Bana göre insanlık tarihindeki en önemli üç olaydan biri. 156 00:08:06,488 --> 00:08:07,697 İnsanlık tarihi mi? 157 00:08:07,781 --> 00:08:08,990 Tüm insanlık tarihi. 158 00:08:09,616 --> 00:08:11,368 Yanımda Andrew McAfee var, 159 00:08:11,451 --> 00:08:15,664 yeni teknolojinin ekonomileri ve ardından toplumları 160 00:08:15,747 --> 00:08:19,542 nasıl değiştirdiği konusunda dünyanın en önemli uzmanlarından. 161 00:08:20,460 --> 00:08:22,212 İnsanlık tarihi çizelgesini 162 00:08:22,295 --> 00:08:24,214 yapınca görürsün, binlerce yıl 163 00:08:24,297 --> 00:08:26,258 hiçbir şey olmamış. Dümdüz. 164 00:08:26,341 --> 00:08:28,093 ANDREW MCAFEE - MIT SAYISAL EKONOMİ ENSTİTÜSÜ YARDIMCI DİREKTÖRÜ 165 00:08:28,176 --> 00:08:30,845 Neredeyse ölüden farkı yok. 166 00:08:30,929 --> 00:08:32,514 Sonra ne açıdan bakarsan bak, 167 00:08:32,597 --> 00:08:34,933 aynı insanlık tarihi çizgisi bir anda 168 00:08:35,016 --> 00:08:38,144 sıkıcı bir yataylıktan göz açıp kapayana kadar 169 00:08:38,228 --> 00:08:39,771 -delice dikeyleşmiş. -Peki. 170 00:08:39,854 --> 00:08:41,481 Bu, 1800'lerde olmuş 171 00:08:41,564 --> 00:08:45,443 çünkü öncelikle buhar gücü, sonra elektrik gelmiş. 172 00:08:47,821 --> 00:08:50,782 Elektrik zaten bilinen şeyleri getirmiş. 173 00:08:50,865 --> 00:08:53,827 Troleybüsler, metrolarımız olmuş. 174 00:08:53,910 --> 00:08:57,080 Az bilineni, yatay yerine dikey yapılaşmayı getirmiş. 175 00:08:57,163 --> 00:08:58,373 -Elektrik mi? -Tabii. 176 00:08:58,456 --> 00:08:59,749 -Asansörler. -Tamam. 177 00:08:59,833 --> 00:09:01,543 Böylece şehirler dikeyleşmiş. 178 00:09:01,626 --> 00:09:03,878 Onlarsız her gün 80 katı çıkamazdın. 179 00:09:03,962 --> 00:09:06,506 Bu iki endüstriyel devrim, buhar 180 00:09:06,589 --> 00:09:09,259 ve elektrik katkısıyla içten patlamalı motorlar 181 00:09:09,342 --> 00:09:11,011 insanlık tarihini değiştirmiş. 182 00:09:11,094 --> 00:09:12,804 -Başka türlü bakamayız. -Evet. 183 00:09:12,887 --> 00:09:15,974 Bunlar kaslarımızın limitini geçmemizi sağlayan 184 00:09:16,057 --> 00:09:17,100 -teknolojiler. -Tamam. 185 00:09:17,183 --> 00:09:20,562 YZ ise beyinlerimizin limitlerini, zihinsel kapasitemizi 186 00:09:20,645 --> 00:09:22,564 geçmemizi sağlayacak. 187 00:09:22,647 --> 00:09:24,607 TEHLİKE YÜKSEK VOLTAJ 188 00:09:24,691 --> 00:09:26,484 Halletmemiz gereken sorunlar var. 189 00:09:26,568 --> 00:09:28,236 Gerçekten ciddi sorunlar. 190 00:09:28,320 --> 00:09:29,696 Kanseri tedavi etmeliyiz. 191 00:09:29,779 --> 00:09:31,406 Daha çok insanı beslemeliyiz. 192 00:09:31,489 --> 00:09:33,950 21. yüzyılda gezegeni haşlamayı bırakmalıyız. 193 00:09:34,034 --> 00:09:36,328 Bunlar delicesine karmaşık konular. 194 00:09:36,411 --> 00:09:38,747 Beyinlerimiz bu karmaşayla boğuşuyor. 195 00:09:38,830 --> 00:09:41,708 Bunu bilimle ve veri toplayarak yapıyoruz 196 00:09:41,791 --> 00:09:44,044 ama karmaşıklığı çok fazla geliyor. 197 00:09:44,127 --> 00:09:45,420 Bence YZ, 198 00:09:45,503 --> 00:09:48,506 bu karmaşıklığa karşı çok güçlü 199 00:09:48,590 --> 00:09:51,676 yeni bir iş arkadaşı gibi. 200 00:09:51,760 --> 00:09:54,637 Bu yeni teknolojiler, aşırı fazla veri içindeki 201 00:09:54,721 --> 00:09:59,684 gizli izleri bulmakta çok iyiler. 202 00:09:59,768 --> 00:10:01,603 Bizim kaldırabileceğimizden fazlasını. 203 00:10:01,686 --> 00:10:03,897 Bu ara duyduğum en akılalmaz örneklerden biri 204 00:10:03,980 --> 00:10:05,106 finans sektöründen. 205 00:10:05,190 --> 00:10:07,650 "Robo-danışman" denen 206 00:10:07,734 --> 00:10:09,361 bir algoritma çıkarmışlar, 207 00:10:09,444 --> 00:10:11,696 yatırım dosyanı düzenliyor. 208 00:10:11,780 --> 00:10:13,031 Şu ana kadar 209 00:10:13,114 --> 00:10:15,325 danışman ofislerine girmek için bile 210 00:10:15,408 --> 00:10:18,745 ciddi bir servetin olması gerekiyordu. 211 00:10:18,828 --> 00:10:20,872 -Tamam. -Bu hızla değişiyor. 212 00:10:20,955 --> 00:10:25,210 Robo-danışmanlıkla daha az parası olanlar bile 213 00:10:25,293 --> 00:10:28,963 çok güçlü, son teknoloji araçlarla finans deneyimlerini 214 00:10:29,047 --> 00:10:31,299 geliştirebilecekler. 215 00:10:31,383 --> 00:10:34,302 Bu heyecan verici çünkü şimdiye kadar 216 00:10:34,386 --> 00:10:37,555 bu sadece zarar vermek için kullanılırdı. 217 00:10:37,639 --> 00:10:40,225 Endişelenecek hiçbir şey yok demiyorum. 218 00:10:40,308 --> 00:10:42,852 Önceki endüstri devrimlerinden biliyoruz, 219 00:10:42,936 --> 00:10:44,687 bazı kötü şeyler de geliyor. 220 00:10:44,771 --> 00:10:49,150 Savaşı endüstriyel teknolojiler sayesinde tamamen mekanize hâle getirdik. 221 00:10:49,234 --> 00:10:52,529 Çevreyi berbat bir şekilde kirlettik. 222 00:10:52,612 --> 00:10:54,364 Ciddi hatalar yaptık, mesela 223 00:10:54,447 --> 00:10:57,951 endüstri devrimi yüzünden büyük çapta çocuk işçilik olması. 224 00:10:58,034 --> 00:11:01,079 Her konuda, her zaman mükemmel değil. 225 00:11:01,162 --> 00:11:03,748 Aynı şey bu sefer de olacak. 226 00:11:04,249 --> 00:11:05,291 Kahretsin. 227 00:11:06,918 --> 00:11:08,586 McAfee beni düşünmeye itti. 228 00:11:08,670 --> 00:11:10,547 Ya tarih tekerrür ederse 229 00:11:10,630 --> 00:11:13,591 ve YZ toplumu yanlış şekillendirirse? 230 00:11:14,467 --> 00:11:18,430 Mesela kontrolsüz kirlilik ve ufak, is suratlı iş arkadaşları? 231 00:11:18,513 --> 00:11:19,848 LONDRA 232 00:11:19,931 --> 00:11:21,891 Peki yeni teknolojilerle 233 00:11:21,975 --> 00:11:24,227 ortaya çıkan ahlaki ve etik sorular? 234 00:11:24,936 --> 00:11:27,647 Londra Ulusal Bilgisayar Müzesi'nde geziniyorum, 235 00:11:27,730 --> 00:11:31,109 toplumu ileri götürmek için pek çok makine üretilmiş. 236 00:11:31,192 --> 00:11:35,572 Mesela bu iki tonluk Harwell Dekatron, sadece 1950'lerde Britanya'nın 237 00:11:35,655 --> 00:11:38,908 bilim araştırma programı hesaplamaları için üretilmiş. 238 00:11:39,242 --> 00:11:41,161 Ama yanlış ellerde yeni bir teknolojinin 239 00:11:41,244 --> 00:11:43,163 nasıl kullanılacağını bilemeyiz. 240 00:11:43,746 --> 00:11:45,707 Bunda porno izlenir mi? 241 00:11:46,040 --> 00:11:49,752 Belki bunları açarsan çok düşük çözünürlükle izlenebilir. 242 00:11:50,712 --> 00:11:51,754 ALAN ZUCCONI BİLGİSAYAR PROGRAMCISI 243 00:11:51,838 --> 00:11:54,507 Burada programcı Alan Zucconi ile birlikteyim. 244 00:11:54,591 --> 00:11:57,177 Londra Goldsmith's Koleji'nde öğretmen. 245 00:11:57,719 --> 00:12:00,722 Teknolojinin yardımıyla devrimsel şeyler yaratmış, 246 00:12:00,805 --> 00:12:04,058 hareket engeli olan insanlar için oyun kontrolleri gibi. 247 00:12:05,477 --> 00:12:07,937 Dediğine göre, teknolojideki 248 00:12:08,021 --> 00:12:10,190 en büyük ahlaki ikilem, 249 00:12:10,273 --> 00:12:14,360 yakında YZ'nin insan davranışlarını, bizden biri sanılacak kadar 250 00:12:14,444 --> 00:12:16,404 kopyalayabilmesiyle gelecek. 251 00:12:17,113 --> 00:12:18,615 Bu nedir? 252 00:12:18,948 --> 00:12:21,826 Aslında bu, üretilmiş ilk bilgisayarlardan biri. 253 00:12:21,910 --> 00:12:24,829 Alan Turing ve iş arkadaşları tarafından yapılmış. 254 00:12:24,913 --> 00:12:28,124 Bu, Naziler tarafından tasarlanan Enigma şifresini 255 00:12:28,208 --> 00:12:30,710 çözebilmiş ilk makinelerden biri. 256 00:12:32,587 --> 00:12:35,381 Alan Turing modern bilgisayar biliminin babası. 257 00:12:35,465 --> 00:12:38,927 Nazi şifrelerini kırarak Müttefiklerin savaşı kazanmasına 258 00:12:39,010 --> 00:12:42,555 yardım etmediğin zamanlarda "Turing testi" felsefesini kuruyordu. 259 00:12:43,598 --> 00:12:46,643 Bir insanla makineyi nasıl ayırt ederiz? 260 00:12:46,726 --> 00:12:49,854 Farkı anlayamazsak, 261 00:12:49,938 --> 00:12:53,066 o zaman makine onun "taklit oyunu" dediği şeyi geçer. 262 00:12:53,149 --> 00:12:56,569 Makine insan davranışını taklit etmeye çalışır. 263 00:12:56,653 --> 00:12:59,072 Bu artık Turing testi olarak biliniyor, 264 00:12:59,155 --> 00:13:02,659 bu da varsayımsal olarak kullanılabilecek makinelerden biri. 265 00:13:02,742 --> 00:13:03,868 Turing testi için 266 00:13:03,952 --> 00:13:06,579 bir insan, makineye sorular giriyor, 267 00:13:07,080 --> 00:13:08,831 başka bir dış gözlemci de 268 00:13:08,915 --> 00:13:11,501 cevapların insandan mı, insanı taklit eden makineden mi 269 00:13:11,584 --> 00:13:13,461 geldiğini değerlendiriyor. 270 00:13:14,379 --> 00:13:15,630 Kaç yaşındasın? 271 00:13:17,924 --> 00:13:20,134 İşte başladık. Kaç yaşında olduğunu biliyor. 272 00:13:20,218 --> 00:13:22,011 "1912'de doğdum, 273 00:13:22,095 --> 00:13:24,389 "yani 105 yaşındayım." 274 00:13:27,642 --> 00:13:30,979 Turing'in zamanında bilgisayarı tahmin etmek çok kolaydı. 275 00:13:31,271 --> 00:13:34,357 Ama bugün YZ insan davranışını inceleyip kendini 276 00:13:34,440 --> 00:13:36,693 bizim gibi davranmaya programlıyor. 277 00:13:37,485 --> 00:13:39,654 Bana bununla... 278 00:13:39,988 --> 00:13:43,199 Sözlerime veri bilimiyle ilgili bir şakayla başlardım 279 00:13:43,700 --> 00:13:46,744 ama ekibimin bulduğu şeylerin yarısı ortalamayı geçemedi. 280 00:13:46,828 --> 00:13:47,912 ...bunu karşılaştırın. 281 00:13:47,996 --> 00:13:50,415 Düşmanlarımız, herkes her an, her şeyi 282 00:13:50,498 --> 00:13:51,833 söylüyormuş gibi gösterebilir. 283 00:13:52,208 --> 00:13:55,503 İkincisi aslında BuzzFeed tarafından 284 00:13:55,587 --> 00:13:57,338 oyuncu Jordan Peele ile çekildi. 285 00:13:57,839 --> 00:14:02,760 Pek çok insanı YZ formundaki sahte haberlere karşı endişelendirdi. 286 00:14:02,844 --> 00:14:04,929 İleride internette neye güvendiğimize 287 00:14:05,013 --> 00:14:06,639 daha çok dikkat etmeliyiz. 288 00:14:06,723 --> 00:14:09,058 YZ, Peele'ın yüz hareketlerini inceledi, 289 00:14:09,142 --> 00:14:13,062 sonra bunları birleştirip Obama'nın yüzünü yeniden oluşturdu 290 00:14:13,146 --> 00:14:15,690 bu hibrit karışıma "derin sahte" deniyor. 291 00:14:15,773 --> 00:14:17,984 Buna benzer bir şey görmüşsündür, 292 00:14:18,067 --> 00:14:21,404 Snapchat'te yanındakinin yüzünün yerine seninkini koyan bir filtre var. 293 00:14:21,487 --> 00:14:25,325 Fark şurada, filtre bunu çok basitçe yapıyor 294 00:14:25,408 --> 00:14:28,953 ama derin sahtelerin teknolojisi yapay zekâya dayanıyor. 295 00:14:29,037 --> 00:14:31,289 "Derin öğrenme" denen şeyden geliyor. 296 00:14:31,706 --> 00:14:35,126 Yapay sinir ağları yüz hatlarını çıkarıyor. 297 00:14:35,209 --> 00:14:37,754 Bu ifadeyi kullanıp yüzü baştan oluşturuyor. 298 00:14:37,837 --> 00:14:41,466 Bu sayede de fotoğraf gerçekliğinde sonuçlar alabiliyoruz. 299 00:14:42,508 --> 00:14:45,720 Alan internette derin sahtenin yapımını anlatan eğitimler veriyor. 300 00:14:45,803 --> 00:14:48,056 Bu teknolojinin kısıtlama olmadan 301 00:14:48,139 --> 00:14:50,767 geliştirilmesi gerektiğinin ciddi savunucusu. 302 00:14:50,850 --> 00:14:53,853 3. Dünya Savaşı'nı başlatma ihtimali bile olsa. 303 00:14:53,936 --> 00:14:55,104 BELÇİKA SOSYALİST PARTİSİ, TRUMP'IN "DERİN SAHTE" VİDEOSUNU YAYDI 304 00:14:55,188 --> 00:14:57,273 Tüketici neyin gerçek olup olmadığını 305 00:14:57,357 --> 00:14:59,692 mantıklı bir şekilde nasıl anlayacak? 306 00:14:59,776 --> 00:15:02,695 Tüketici olarak bir habere baktığında, 307 00:15:02,779 --> 00:15:05,740 bu bir makale, video ya da resim de olsa 308 00:15:05,823 --> 00:15:08,076 her şeyi birileri yaratıyor. 309 00:15:08,201 --> 00:15:09,577 "Gördüğüm şeyin hikâyesi ne? 310 00:15:09,827 --> 00:15:11,287 "Bu video ne anlatmaya çalışıyor?" 311 00:15:11,371 --> 00:15:13,581 O zaman ortada bir... 312 00:15:13,665 --> 00:15:14,624 Tehlike var. 313 00:15:14,707 --> 00:15:17,168 Tehlike olduğu gibi merak da var. 314 00:15:17,251 --> 00:15:19,420 Bu insanlara cidden yardım eder mi? 315 00:15:19,504 --> 00:15:21,923 Çünkü tahminim, bu teknoloji üzerinden 316 00:15:22,006 --> 00:15:25,885 ekonomiyi büyütmek isteyen insanlara da rast gelmişsindir. 317 00:15:25,968 --> 00:15:29,097 Bunun ekonomiye bazı pratik etkileri neler? 318 00:15:29,180 --> 00:15:32,308 Bundan faydalanacak ilk endüstri 319 00:15:32,392 --> 00:15:33,685 film endüstrisi. 320 00:15:33,768 --> 00:15:36,813 Çünkü yüzleri değiştirmek zaten 321 00:15:36,896 --> 00:15:40,024 yıllardır filmlerde yapmaya çalıştığımız bir şey. 322 00:15:40,108 --> 00:15:42,527 Genelde makyaj ve maskeler kullanıyoruz, 323 00:15:42,610 --> 00:15:43,736 bazen bilgisayar. 324 00:15:43,820 --> 00:15:46,489 Politikada da çalışmış bir aktör olarak 325 00:15:46,572 --> 00:15:48,616 bu beni cidden korkutuyor. 326 00:15:48,700 --> 00:15:50,201 Korkutmalı da. 327 00:15:51,285 --> 00:15:53,705 BuzzFeed'in derin sahtesi, toplumun tehlikeye açık 328 00:15:53,788 --> 00:15:55,039 olduğunu gösterdi. 329 00:15:55,873 --> 00:15:59,585 Başkan'ın ağzını açması ile piyasaları salladığı bir dönemde 330 00:15:59,669 --> 00:16:02,714 iyi yapılmış bir derin sahte, küresel ekonomiyi 331 00:16:02,797 --> 00:16:04,674 şok çöküşten hızlı batırabilir. 332 00:16:04,757 --> 00:16:08,469 Sahte Obama şunu demeden emekli birikiminizi yok edebilir... 333 00:16:08,553 --> 00:16:09,554 Ayık olun şekerler. 334 00:16:10,638 --> 00:16:13,057 Bunlar biraz bilim kurgu gibi gelmedi mi? 335 00:16:13,141 --> 00:16:14,726 Hatta biraz korkunç. 336 00:16:15,309 --> 00:16:18,271 YZ nasıl hareket ettiğimizi, konuştuğumuzu ve düşündüğümüzü 337 00:16:18,354 --> 00:16:20,022 anlayacak kadar güçlenirse 338 00:16:20,106 --> 00:16:22,316 bizden ayırt edilemeyebilir. 339 00:16:22,400 --> 00:16:23,818 NE BİLİYORSUN HER ŞEYİ 340 00:16:24,610 --> 00:16:26,779 YZ'nin kendi bilinci olursa 341 00:16:26,863 --> 00:16:29,782 o da bizimle ilgili güçlü fikirler edinebilir. 342 00:16:29,866 --> 00:16:30,908 HA SİKTİİİR HADDİNİ AŞMA! 343 00:16:30,992 --> 00:16:33,119 Bu fikirler pek iyi olmayabilir. 344 00:16:35,455 --> 00:16:36,664 STEPHEN HAWKING TEORİK FİZİKÇİ 345 00:16:36,748 --> 00:16:39,292 Gelecekte YZ kendi iradesini geliştirecek, 346 00:16:39,375 --> 00:16:42,003 bizimkiyle çatışan bir irade. 347 00:16:42,086 --> 00:16:44,422 Güçlü YZ'nin ortaya çıkışı 348 00:16:44,505 --> 00:16:48,801 insanlık için ya en iyi ya da en kötü şey olacak. 349 00:16:49,260 --> 00:16:50,136 ELON MUSK SPACEX CEO'SU 350 00:16:50,219 --> 00:16:53,181 İnsanları YZ'yi yavaşlatmaya ikna etmeye çalıştım. 351 00:16:54,056 --> 00:16:55,224 YZ'yi düzenlemeye. 352 00:16:55,308 --> 00:16:56,809 Olmadı. Yıllardır uğraşıyorum. 353 00:16:56,893 --> 00:16:58,561 -Kimse dinlemedi. -Sanki robotların 354 00:16:58,644 --> 00:17:00,980 dünyayı ele geçireceği bir filmdeyiz. 355 00:17:01,063 --> 00:17:02,607 Beni korkutuyorsun! 356 00:17:05,818 --> 00:17:09,030 YZ liderliğindeki felaket senaryosu ne kadar gerçek? 357 00:17:10,865 --> 00:17:12,408 BİRLEŞİK KRALLIK 358 00:17:12,742 --> 00:17:15,077 Anlamak için konuşmam gereken 359 00:17:15,161 --> 00:17:18,164 adamın araştırması zaten herkesi korkutmuştu. 360 00:17:18,831 --> 00:17:21,083 Konuştuğumuz için çok heyecanlıyım çünkü... 361 00:17:21,167 --> 00:17:23,628 Aslında pek çok sebebi var 362 00:17:23,711 --> 00:17:26,839 ama yapay zekâyı, ne olduğunu, 363 00:17:26,923 --> 00:17:29,258 nereye gittiğini keşfediyoruz. 364 00:17:29,342 --> 00:17:34,680 Elon Musk ve Bill Gates gibi insanları etkilediniz. 365 00:17:37,016 --> 00:17:40,853 Bu cidden inanılmaz bir etki kapasitesi. 366 00:17:42,021 --> 00:17:45,691 Oxford Üniversitesi'nde Dr. Nick Bostrom'la buluşuyorum. 367 00:17:45,775 --> 00:17:48,986 Hava atmayı pek sevmez, o yüzden onun için ben atayım. 368 00:17:51,489 --> 00:17:55,201 Makine süper zekâsı ve bunun varoluşsal riskleri konusunda 369 00:17:55,284 --> 00:17:59,205 öncü zihinlerden biri ve sahilde okumalık bazı nefis kitapların yazarı. 370 00:17:59,705 --> 00:18:00,957 Buluştuğumuz için şanslıyım 371 00:18:01,040 --> 00:18:03,584 çünkü kendi derin öğrenmesiyle o kadar meşgul ki 372 00:18:03,668 --> 00:18:05,419 sadece ayda bir saat 373 00:18:05,503 --> 00:18:07,338 araştırmasıyla ilgili soruları cevaplıyor. 374 00:18:10,925 --> 00:18:14,262 YZ ile ilgili konuşmaların çoğu şöyle, 375 00:18:14,345 --> 00:18:17,014 "Robotlar bizi ele geçirecek. 376 00:18:17,098 --> 00:18:18,850 "Bu insanlığın sonu mu?" 377 00:18:18,933 --> 00:18:21,310 İşler düzgün idare edilmezse 378 00:18:21,394 --> 00:18:24,564 YZ topluma zarar verir mi 379 00:18:24,647 --> 00:18:28,484 ya da insanlığı ortadan kaldırır mı, merak ediyorum. 380 00:18:28,568 --> 00:18:29,902 Uzun vadede 381 00:18:29,986 --> 00:18:33,114 YZ sonuna kadar gidip bizi insan yapan genel zekâyı 382 00:18:33,197 --> 00:18:36,951 taklit edebilirse ne olur diye düşünürsek 383 00:18:37,034 --> 00:18:38,828 o zaman evet, 384 00:18:38,911 --> 00:18:42,748 o bağlamda varoluşsal riskler dâhil, daha büyük riskler 385 00:18:42,832 --> 00:18:44,125 olduğunu düşünüyorum. 386 00:18:45,585 --> 00:18:48,421 Mesela sürücüsüz arabalar 387 00:18:48,504 --> 00:18:49,797 SÜRÜCÜSÜZ UBER ARABASI ARIZONA'DA, ROBOTLARIN GEZDİĞİ YERDE YAYAYI EZDİ 388 00:18:49,881 --> 00:18:51,549 bir yayayı ezebilir. 389 00:18:51,632 --> 00:18:53,342 Özel hayat endişeleri olabilir. 390 00:18:53,426 --> 00:18:56,095 Otomatik silahların askeri hâle getirilmesi. 391 00:18:57,847 --> 00:18:59,307 Hepsi endişe verici. 392 00:18:59,390 --> 00:19:02,184 Ama bir noktada bu dijital zihinleri 393 00:19:02,268 --> 00:19:04,687 nasıl etkileyeceğimiz sorusu da oluşabilir. 394 00:19:04,770 --> 00:19:09,066 Kendi kendilerine bir ahlaki anlayış edinebilirler. 395 00:19:09,525 --> 00:19:11,152 Kaseti ileri sararsan 396 00:19:11,235 --> 00:19:15,031 ve Homo sapiens'in mutlak kaderini düşünürsen 397 00:19:15,114 --> 00:19:18,534 gelecekte makine aklı tarafından yönetilebiliriz. 398 00:19:18,618 --> 00:19:21,996 İnsanlığın soyu büyük ihtimalle tükenebilir. 399 00:19:23,414 --> 00:19:26,250 Bu büyük güç yanında riski de getiriyor, 400 00:19:26,834 --> 00:19:30,755 kazayla ya da kötüye kullanım ile 401 00:19:30,838 --> 00:19:33,466 büyük felakete yol açabilirler. 402 00:19:35,885 --> 00:19:37,595 Yani bence bu da bir ihtimal 403 00:19:37,678 --> 00:19:39,305 ve uzun zaman aralıkları için 404 00:19:39,388 --> 00:19:41,182 sonu çok iyi de 405 00:19:41,265 --> 00:19:43,726 çok kötü de olabilir. 406 00:19:46,354 --> 00:19:48,731 Bu senaryolar kulağa korkunç geliyor. 407 00:19:49,732 --> 00:19:51,609 Ama bütün muhtemel sonuçlardan, 408 00:19:51,692 --> 00:19:55,821 Nick'in en olası gördüğü YZ felaket senaryosu 409 00:19:55,905 --> 00:19:57,114 ekonomik olan. 410 00:19:57,198 --> 00:19:59,450 Düşünüldüğünde, teknoloji hakkındaki 411 00:19:59,533 --> 00:20:02,828 genel fikir, daha azıyla daha çok şey yapmaktır. 412 00:20:02,912 --> 00:20:06,123 Daha az çabayla istediklerimizin daha çoğuna ulaşabilmek. 413 00:20:06,207 --> 00:20:07,750 Bu mantıkta nihai amaç 414 00:20:07,833 --> 00:20:09,418 tam işsizlik, değil mi? 415 00:20:10,294 --> 00:20:12,380 Makineler ve teknolojinin 416 00:20:12,463 --> 00:20:15,341 her şeyi yapması ve çalışmak zorunda kalmamamız. 417 00:20:15,424 --> 00:20:17,301 Bence bu arzu edilen son hedef. 418 00:20:17,385 --> 00:20:19,553 Önlememiz gereken korkunç son değil. 419 00:20:19,637 --> 00:20:20,680 Gerçekleştirmek istediğimiz şey. 420 00:20:20,763 --> 00:20:22,932 Gerçekten bir ütopya olması için, 421 00:20:23,015 --> 00:20:25,601 önümüzde çözülmesi gereken 422 00:20:25,685 --> 00:20:27,061 bazı büyük güçlükler var. 423 00:20:28,187 --> 00:20:30,815 Birincisi, tabii ki ekonomik sorun. 424 00:20:30,898 --> 00:20:33,567 İnsanların çalışmasının bir sebebi, gelir elde etmek. 425 00:20:33,651 --> 00:20:35,653 Ekonomik sorunu çözerseniz 426 00:20:35,736 --> 00:20:37,571 bence ikinci büyük güçlük, 427 00:20:37,655 --> 00:20:41,409 çoğu insanın saygınlık duygusu için çalışması. 428 00:20:41,492 --> 00:20:43,786 Çoğu insan kendi öz değerini 429 00:20:43,869 --> 00:20:47,081 eve ekmek getirmek ya da topluma katkı yapmak gibi görür. 430 00:20:47,164 --> 00:20:49,583 Bir makine, yapabildiğiniz her şeyin daha iyisini yaparsa 431 00:20:49,667 --> 00:20:53,796 o zaman hiçbir şey katma şansınız olmaz, değil mi? 432 00:20:53,879 --> 00:20:58,175 O aşamada bence kültürü yeniden, en temelden değerlendirmemiz gerekir. 433 00:20:59,176 --> 00:21:01,095 Kimsenin çalışmadığı bir dünya. 434 00:21:01,178 --> 00:21:02,930 Kulağa o kadar kötü gelmiyor. 435 00:21:05,057 --> 00:21:06,267 Şimdi görebiliyorum. 436 00:21:09,854 --> 00:21:11,313 Arkadaşlarla eğlenmek. 437 00:21:11,814 --> 00:21:14,942 İnsanlık potansiyelimi sonuna kadar kullanmak. 438 00:21:15,026 --> 00:21:19,321 Küveti ayarlamaya gerek olmaması çünkü tam olarak nasıl sevdiğimi bilmesi. 439 00:21:20,114 --> 00:21:23,409 Sorun şurada, tarihî olarak böyle olmamış. 440 00:21:23,492 --> 00:21:26,537 Makinelerin yükselişi aslında daha önce yaşandı. 441 00:21:26,620 --> 00:21:27,705 Ama öncekinde 442 00:21:27,788 --> 00:21:30,666 küvette çilekler ve şampanya keyfi gibi değildi. 443 00:21:34,378 --> 00:21:35,421 LONDRA 444 00:21:35,504 --> 00:21:36,505 İNGİLTERE 445 00:21:36,964 --> 00:21:41,093 Ekonomist Nick Srnicek ile geçen sefer makineler işlerimizi elimizden aldığında 446 00:21:41,177 --> 00:21:43,054 ne olduğunu konuşacağız. 447 00:21:43,888 --> 00:21:46,015 Nedense bir dokuma tezgâhındayız. 448 00:21:46,432 --> 00:21:47,725 Ne yapacaksın? 449 00:21:47,808 --> 00:21:50,311 Aslında bir anarşist bayrağı yapıyorum. 450 00:21:50,394 --> 00:21:51,979 İlginç. Şaşırtıcı. 451 00:21:54,315 --> 00:21:57,568 Nick'in Londra Ekonomi Okulu'ndan doktorası var. 452 00:21:58,027 --> 00:22:00,321 Benim yok. 453 00:22:01,530 --> 00:22:02,573 Ayrıca bir manifestosu var. 454 00:22:02,656 --> 00:22:03,949 İVMECİ BİR POLİTİKA İÇİN İVME MANİFESTOSU 455 00:22:04,492 --> 00:22:07,703 Herkesi, eski kurumları yıkıp otomasyon çağına geçişi 456 00:22:07,787 --> 00:22:09,830 hızlandırmaya çağırıyor. 457 00:22:12,458 --> 00:22:15,461 Kapitalizmi şimdi parçala, diyor. 458 00:22:16,003 --> 00:22:17,254 Bu olmayacak. 459 00:22:17,338 --> 00:22:19,632 Seninle bu konuşmayı yapmamın yolu yok. 460 00:22:19,715 --> 00:22:21,550 Özür dilerim. Dokumayı boş ver. 461 00:22:22,093 --> 00:22:23,761 Peki neden buradayız? 462 00:22:24,637 --> 00:22:28,224 Çünkü dokuma tezgâhı 1800'lerin YZ'si gibiydi. 463 00:22:28,307 --> 00:22:32,853 Yeni bir teknolojiydi ve pek çok işi tehdit ediyordu. 464 00:22:33,270 --> 00:22:37,233 Aslında işçiler arasında farklı tepkilere neden oldu, 465 00:22:37,316 --> 00:22:39,360 Luddcular'ın yükselişi gibi. 466 00:22:39,443 --> 00:22:41,487 Günümüzde "Luddcu" terimi 467 00:22:41,570 --> 00:22:44,031 teknolojiden nefret edenler için kullanılıyor. 468 00:22:44,532 --> 00:22:45,950 Ama durum öyle değil. 469 00:22:46,700 --> 00:22:48,119 Luddcular adını Ned Ludd'dan alır. 470 00:22:48,202 --> 00:22:49,036 NED LUDD ÇIRAK 471 00:22:49,120 --> 00:22:51,122 Tekstil fabrikasında bir çırak, 472 00:22:51,205 --> 00:22:53,958 efsaneye göre tembelliği yüzünden kırbaçlanmış. 473 00:22:54,041 --> 00:22:56,502 Adam da "Ben tembelim çünkü yerime 474 00:22:56,585 --> 00:22:59,338 "lanet bir dokuma tezgâhı geçti." demiş. 475 00:22:59,421 --> 00:23:03,008 Makineye başkaldıran ilk insan olmuş 476 00:23:03,092 --> 00:23:05,010 ve bir akıma ilham vermiş. 477 00:23:06,262 --> 00:23:10,349 Luddcular makineleri kırıp işlerini kurtarmak istediler. 478 00:23:10,432 --> 00:23:12,810 Bugün bir benzerini YZ için görüyoruz. 479 00:23:12,893 --> 00:23:15,771 İnsanlar aynı oranda tehdit hissediyor. 480 00:23:15,855 --> 00:23:19,483 Ne kadar işin bu durumdan etkileneceği tahmin ediliyor? 481 00:23:19,567 --> 00:23:21,986 Amerika'daki işlerin %47'si 482 00:23:22,069 --> 00:23:24,822 önümüzdeki 20 yılda otomasyona uyabilir. 483 00:23:24,905 --> 00:23:26,615 Galiba bu gerçek bir sorun. 484 00:23:26,699 --> 00:23:27,992 Büyük sorun olabilir. 485 00:23:28,075 --> 00:23:31,662 Gerçek sorun ise önümüzdeki beş ve ileride on yıl içerisinde 486 00:23:31,745 --> 00:23:33,998 insanların aç ve evsiz kalmaması. 487 00:23:34,081 --> 00:23:35,166 Bunu nasıl yapacağız? 488 00:23:35,457 --> 00:23:36,959 Evrensel Temel Gelir. 489 00:23:38,210 --> 00:23:40,754 Evrensel Temel Gelir, toplumdaki herkesin 490 00:23:40,880 --> 00:23:43,424 bedava para aldığı radikal bir fikir. 491 00:23:43,507 --> 00:23:45,092 Koşulsuz, şartsız. 492 00:23:45,176 --> 00:23:47,178 Bazı yüksek profilli hayranları var. 493 00:23:47,636 --> 00:23:50,347 Evrensel Temel Gelir gibi fikirleri keşfetmeliyiz, 494 00:23:50,431 --> 00:23:53,142 herkesin yeni fikirleri deneme payı olmalı. 495 00:23:53,225 --> 00:23:56,145 Bazı ülkeler, hatta Amerika içinde bile 496 00:23:56,228 --> 00:23:58,189 deneme yapıldı. Karmaşık sonuçlara ulaşıldı. 497 00:23:58,272 --> 00:23:59,982 FİNLANDİYA DÜNYACA MEŞHUR TEMEL GELİR DENEYİNİ DURDURUYOR 498 00:24:00,858 --> 00:24:03,861 Bu yeni teknolojiler sayesinde toplumu düzenlemek için 499 00:24:03,944 --> 00:24:06,447 müthiş fırsatlar gelecek. 500 00:24:06,530 --> 00:24:09,408 Daha sosyal-demokrat bir sisteme doğru gidebiliriz. 501 00:24:10,117 --> 00:24:13,454 Şu anda Amerika'da olan acımasız sistem olmayabilir 502 00:24:13,537 --> 00:24:15,331 ve herkes birbirini destekleyebilir. 503 00:24:15,414 --> 00:24:19,418 Benim gibi insanlar bu pozitif vizyonları ortaya koyabilirse 504 00:24:19,919 --> 00:24:21,587 bence kriz gerçekten gelince 505 00:24:21,670 --> 00:24:23,380 bu tip fikirleri uygulayabiliriz. 506 00:24:24,173 --> 00:24:27,343 ETG uç bir konu olarak görülürdü, 507 00:24:27,426 --> 00:24:30,930 Nick gibi manifesto yazanlar tarafından desteklenirdi. 508 00:24:31,639 --> 00:24:33,891 Ama 2017'deki bir Gallup anketine göre 509 00:24:33,974 --> 00:24:37,603 Amerikalıların %48'i artık bir tür ETG olmasını destekliyor. 510 00:24:38,520 --> 00:24:40,231 Ama robotlar işlerine göz dikince 511 00:24:40,314 --> 00:24:41,982 bir maaş çeki garantisi 512 00:24:42,066 --> 00:24:43,734 insanların ayaklanmasına engel olur mu? 513 00:24:44,735 --> 00:24:45,611 L.U.D.D.C.U.L.A.R 514 00:24:45,694 --> 00:24:48,572 -Neden nefret ediyoruz? -Yapay zekâdan. 515 00:24:48,656 --> 00:24:50,032 Niçin nefret ediyoruz? 516 00:24:50,115 --> 00:24:53,160 Bizi zayıflıklarımızla yüzleşmeye zorluyor! 517 00:24:53,244 --> 00:24:55,955 Bununla L.U.D.D.C.U.L.A.R'ın bu toplantısını açıyorum, 518 00:24:56,038 --> 00:24:58,958 Akıllı Teknolojiye Özellikle Sosyal Medyaya Direnen 519 00:24:59,041 --> 00:25:00,834 Yerel Ahbaplar Sendikası. 520 00:25:01,835 --> 00:25:02,836 İlk konumuz. 521 00:25:03,337 --> 00:25:06,340 Yapay zekâ iş piyasasını boşaltıyor. 522 00:25:06,423 --> 00:25:09,260 Orta sınıf işlerimiz ilk gidecek olanlar. 523 00:25:09,885 --> 00:25:11,720 Bizim gibi işi olanlar 524 00:25:11,804 --> 00:25:14,473 dipteki kötü işlere itilecek. 525 00:25:14,974 --> 00:25:16,558 Bu neden olsun ki Ed? 526 00:25:16,642 --> 00:25:21,105 Görünüşe göre, YZ hesaplama gibi orta sınıf işlerde, yerleri silme gibi 527 00:25:21,188 --> 00:25:24,400 düşük seviye işlere göre daha iyiymiş, o yüzden 528 00:25:24,483 --> 00:25:26,277 öyle işleri bize bırakıyorlar. 529 00:25:26,735 --> 00:25:28,028 Size soruyorum, 530 00:25:28,112 --> 00:25:29,655 burada Bill dışında 531 00:25:29,738 --> 00:25:32,199 yer silebilecek olan var mı? Alınma Bill. 532 00:25:33,325 --> 00:25:35,786 Satış işlerine de gerek kalmayacak. 533 00:25:35,869 --> 00:25:38,622 İnsanlar internete girip ne istiyorsa alacak 534 00:25:39,164 --> 00:25:41,583 çünkü o lanet olası YZ, 535 00:25:41,667 --> 00:25:43,919 araştırma ve eşleştirme sorununu çözmüş. 536 00:25:44,378 --> 00:25:46,755 Müşteri araştırıp ürünle eşleştiriyor. 537 00:25:46,839 --> 00:25:49,383 Steve'in kafasına göre peruk araması gibi. 538 00:25:49,466 --> 00:25:50,426 Büyük sorun! 539 00:25:51,969 --> 00:25:53,721 Zamansız şakalar bir yana, 540 00:25:54,346 --> 00:25:56,890 YZ bunu hakikaten kolaylaştırıyor. 541 00:25:56,974 --> 00:25:59,643 Zamane gençleri seksi kızlarla cepten eşleşiyor, 542 00:25:59,727 --> 00:26:01,937 -hem de tuvalette otururken. -Evet. 543 00:26:02,021 --> 00:26:04,064 -Tuvalet kutsal bir yerdi! -Evet! 544 00:26:04,773 --> 00:26:07,568 Tabii arama ve eşleştirme özel işler yaratacak 545 00:26:07,651 --> 00:26:10,279 ama kimin alınacağına lanet robotlar karar verecek, 546 00:26:10,362 --> 00:26:11,739 ne kadar da uygun. 547 00:26:12,489 --> 00:26:14,700 Şirketler YZ kullanarak 548 00:26:14,783 --> 00:26:16,869 özel yetenekli çalışanlar buluyor. 549 00:26:16,952 --> 00:26:18,287 Bu insanlık dışı! 550 00:26:18,370 --> 00:26:19,705 Mesela, Dave. 551 00:26:20,080 --> 00:26:21,332 Evet, Dave nerede? 552 00:26:21,415 --> 00:26:24,251 İş eşleştirme yapan bir YZ, FedEx'te çalıştığını 553 00:26:24,335 --> 00:26:27,087 ve YouTube'dan sırt tıraşı videoları izlediğini fark etmiş. 554 00:26:27,171 --> 00:26:30,716 Şimdi jilet üyelik şirketinde altı haneli rakamlar kazanıyor. 555 00:26:30,799 --> 00:26:33,093 Kendini bovling takımımızdan tıraşladı. 556 00:26:33,177 --> 00:26:34,094 Evet. 557 00:26:34,178 --> 00:26:36,513 Ed, tişörtlerimiz hedefli reklamla 558 00:26:36,597 --> 00:26:38,766 Facebook'ta satılıyormuş. 559 00:26:38,849 --> 00:26:41,602 YZ kullanarak YZ'den nefret edenlerden para mı kazanıyorsun? 560 00:26:41,685 --> 00:26:43,479 Hayır! 561 00:26:44,897 --> 00:26:46,023 Kime inanacaksın? 562 00:26:46,106 --> 00:26:48,859 Bana mı yoksa bizi bölmeye çalışan YZ'ye mi? 563 00:26:49,902 --> 00:26:52,363 -Neden nefret ediyoruz? -Yapay zekâdan! 564 00:26:52,446 --> 00:26:54,698 -Ne yapacağız? -Üzerinde çalışıyoruz! 565 00:26:56,075 --> 00:26:57,201 Bu da başlangıç. 566 00:27:02,748 --> 00:27:06,168 YZ devrimi hep biz ve onlar vakası mı olmak zorunda? 567 00:27:07,086 --> 00:27:10,672 Louis Rosenberg gibi teknoloji uzmanı girişimciler hayır diyor. 568 00:27:10,964 --> 00:27:13,342 Geleceği tahmin etmek onun işi. 569 00:27:18,514 --> 00:27:20,599 Korkutmaya çalıştım ama olmadı. 570 00:27:21,558 --> 00:27:24,478 Louis bir teknolojist ve mucit, 571 00:27:24,561 --> 00:27:27,689 insanlığın sonu hakkında bir çizgi roman çıkarmış. 572 00:27:27,773 --> 00:27:31,276 YZ ile ortak çalışmaya dayalı bir geleceğimiz var, diyor. 573 00:27:31,360 --> 00:27:34,113 Fikir babası olduğu Sürü teknolojisinin 574 00:27:34,196 --> 00:27:35,989 arkasındaki prensip de bu. 575 00:27:36,073 --> 00:27:37,074 SÜRÜ YZ NEDİR? 576 00:27:37,157 --> 00:27:40,077 Sürü, YZ'nin veri analiz yeteneklerini 577 00:27:40,160 --> 00:27:44,415 insan bilgisi ve önsezisiyle birleştirerek bir süper akıl yaratır, 578 00:27:44,498 --> 00:27:47,709 Stephen Hawking ve Profesör X arası bir şey. 579 00:27:47,793 --> 00:27:49,044 SÜRÜCÜSÜZ ARABA NE YAPMALI? 580 00:27:49,128 --> 00:27:50,754 Sonuçta temeli doğadır. 581 00:27:50,838 --> 00:27:51,964 LOUIS ROSENBERG UNANIMOUS AI CEO'SU 582 00:27:52,047 --> 00:27:54,591 Kuşlar ve arılara kadar uzanıyor. 583 00:27:54,675 --> 00:27:57,970 Çünkü "sürü aklı" denen bir fenomen üzerine kurulu. 584 00:27:58,053 --> 00:27:58,887 Tamam. 585 00:27:58,971 --> 00:28:03,392 Sürü aklı, kuşların toplaşmasının, balık ve arıların sürü olmasının sebebi. 586 00:28:03,475 --> 00:28:06,520 Beraber olunca yalnız olduklarından daha zekiler. 587 00:28:06,603 --> 00:28:09,398 Bu yüzden hareket hâlindeki bir balık sürüsüne 588 00:28:09,481 --> 00:28:11,900 biyologlar "süper organizma" der. 589 00:28:11,984 --> 00:28:13,735 Tek birey gibi düşünürler. 590 00:28:13,819 --> 00:28:16,029 Biz de insanları bir araya toplayıp 591 00:28:16,113 --> 00:28:18,407 yapay zekâ algoritmaları kullanırsak, 592 00:28:18,490 --> 00:28:21,743 insanlar sürü aklı sayesinde süper uzmanlar gibi 593 00:28:21,827 --> 00:28:23,328 davranabilir. 594 00:28:23,412 --> 00:28:24,705 Bu teknoloji nasıl işler? 595 00:28:24,788 --> 00:28:27,249 Şöyle, dünyanın herhangi bir yerinden 596 00:28:27,332 --> 00:28:28,709 bir grup insanı topluyoruz. 597 00:28:28,792 --> 00:28:30,377 Onlara bir soru veriyoruz, 598 00:28:30,461 --> 00:28:32,880 soru ekranlarında aynı anda gözüküyor. 599 00:28:32,963 --> 00:28:35,299 Ayrıca özel bir arayüz veriyoruz, 600 00:28:35,382 --> 00:28:37,593 bu da onların girdilerini iletiyor, 601 00:28:37,676 --> 00:28:39,261 farklı bir sürü seçenek var. 602 00:28:39,344 --> 00:28:41,638 Yaptığımız anket ya da araştırma gibi değil. 603 00:28:41,722 --> 00:28:44,975 Her kişinin küçük, grafik bir mıknatısı var. 604 00:28:45,058 --> 00:28:48,353 Bunu kullanarak sürüyü bir görüşe çekmeye çalışıyorlar. 605 00:28:48,437 --> 00:28:51,440 Davranışları izleyen YZ algoritmalarımız da var, 606 00:28:51,857 --> 00:28:55,652 farklı seviyedeki güven ve görüşleri belirliyor 607 00:28:55,736 --> 00:28:57,905 ve en iyi ortalama fikir için 608 00:28:57,988 --> 00:29:01,325 kullanıcı görüşlerini ve deneyimlerini kullanıyor. 609 00:29:01,408 --> 00:29:04,203 Sürü o yöne ilerlemeye başlayıp 610 00:29:04,286 --> 00:29:06,121 bir cevap üstünde birleşiyor. 611 00:29:06,205 --> 00:29:07,331 Eğlenceli bir örnek vereyim. 612 00:29:07,414 --> 00:29:10,167 Bir yıl önce Kentucky Derbisi'ni tahmin edin, dendi. 613 00:29:10,584 --> 00:29:13,962 Ve Kentucky Derbisi'ne çıktılar! 614 00:29:14,046 --> 00:29:16,715 At yarışı meraklısı 20 kişilik bir grup vardı. 615 00:29:16,798 --> 00:29:18,675 "Sürü olarak çalışıp Kentucky Derbisi'ni 616 00:29:18,759 --> 00:29:20,219 "tahmin edeceksiniz." dedik. 617 00:29:20,302 --> 00:29:23,472 "Sadece kazananı değil. Birinci, ikinci, üçüncü ve dördüncüyü." 618 00:29:24,014 --> 00:29:26,475 Bu cevaplarda birleşmelerini sağladık 619 00:29:26,934 --> 00:29:28,143 ve grup kusursuzdu. 620 00:29:28,227 --> 00:29:30,062 2016 KENTUCKY DERBİSİ SONUÇLARI 621 00:29:30,145 --> 00:29:33,315 Bu atlara 20 dolar yatıran herkes 622 00:29:33,398 --> 00:29:35,067 11.000 dolar kazandı. 623 00:29:35,150 --> 00:29:36,068 Yok artık! 624 00:29:36,151 --> 00:29:39,071 İlginç olan da şu, o 20 kişiye baktığımızda 625 00:29:39,154 --> 00:29:42,741 tek başına hiçbiri dört atın hepsini birden bilemedi. 626 00:29:43,742 --> 00:29:47,079 Bir oylama yapsalardı sadece bir atı bilebileceklerdi. 627 00:29:47,162 --> 00:29:49,206 Ama sürü olarak çalıştıklarında, 628 00:29:49,289 --> 00:29:52,251 doğru kombinasyonu farklı öngörüleriyle buldular 629 00:29:52,334 --> 00:29:54,127 ve bu durumda kusursuzdular. 630 00:29:56,046 --> 00:29:58,507 Louis beni bir sürü yönetmeye davet etti. 631 00:29:58,590 --> 00:30:00,467 Rastgele insanların birleşip 632 00:30:00,551 --> 00:30:02,803 nasıl tahminde bulunduğunu göreceğim. 633 00:30:02,886 --> 00:30:04,555 Kolay bir şeyden başlayalım. 634 00:30:05,764 --> 00:30:08,433 Evet arkadaşlar, birkaç soru okuyacağım 635 00:30:08,517 --> 00:30:12,020 ve her birini cevaplamak için 60 saniyeniz var. 636 00:30:12,354 --> 00:30:13,522 İlk soru, 637 00:30:13,605 --> 00:30:16,525 2018'in hangi yaz filmi 638 00:30:16,608 --> 00:30:17,985 en yüksek hasılatı yapar? 639 00:30:18,402 --> 00:30:20,320 Han Solo: Bir Star Wars Hikâyesi, 640 00:30:20,404 --> 00:30:22,281 Deadpool 2, Ocean's 8, 641 00:30:22,364 --> 00:30:24,116 Jurassic World: Yıkılmış Krallık 642 00:30:24,199 --> 00:30:25,742 ve İnanılmaz Aile 2. 643 00:30:26,076 --> 00:30:28,328 Sürüyü 2018 baharında filme aldık, 644 00:30:28,412 --> 00:30:31,498 daha yaz filmleriyle ilgili hiçbir bilgi yoktu. 645 00:30:31,957 --> 00:30:35,961 YZ farklı güven seviyelerinden bir anlam çıkarmaya çalışıyor. 646 00:30:36,044 --> 00:30:39,381 Bazıları değiştiriyor, bazıları sabit kalıyor, 647 00:30:39,840 --> 00:30:41,592 YZ algoritmaları, 648 00:30:41,675 --> 00:30:43,218 kararlılık seviyelerini gözlemliyor 649 00:30:43,594 --> 00:30:45,137 ve çözüme giden yolda 650 00:30:45,220 --> 00:30:47,681 hepsinin kabul edeceği bir yol buluyor. 651 00:30:48,640 --> 00:30:49,558 SÜRÜ DİYOR Kİ: İNANILMAZ AİLE 2 652 00:30:49,641 --> 00:30:51,893 Tamam, o zaman İnanılmaz Aile 2. 653 00:30:51,977 --> 00:30:52,811 2018 YAZ HASILATLARI 654 00:30:52,894 --> 00:30:53,854 Haklıydılar. 655 00:30:53,937 --> 00:30:56,565 İnanılmaz Aile 2 yazın en çok kazandıran filmi oldu. 656 00:30:57,774 --> 00:30:59,526 Bir diğer ilginç uygulama da 657 00:30:59,610 --> 00:31:02,738 ahlaki sorular sormak. 658 00:31:02,821 --> 00:31:05,365 Sürücüsüz arabalar sayesinde aklımıza geldi. 659 00:31:05,449 --> 00:31:09,077 Şu anda sürücüsüz arabaların ahlaki kararlar vermesi konusunda 660 00:31:09,161 --> 00:31:10,662 büyük bir baskı var. 661 00:31:10,746 --> 00:31:12,706 Bu da bazı insanları şaşırtıyor 662 00:31:12,789 --> 00:31:16,126 ama misal, sürücüsüz bir araba yolda giderken 663 00:31:16,209 --> 00:31:18,003 yola bir çocuk atladı. 664 00:31:18,086 --> 00:31:19,921 Diyelim ki araba duramıyor 665 00:31:20,005 --> 00:31:22,299 ama yolun dışına çıkıp 666 00:31:22,382 --> 00:31:24,468 yolcuyu tehlikeye atabilir 667 00:31:24,551 --> 00:31:27,095 ve yolcuyu öldürüp çocuğu kurtarabilir. 668 00:31:27,554 --> 00:31:29,890 Bu yüzden araba imalatçıları 669 00:31:29,973 --> 00:31:33,226 bu arabalara ahlak programlamalıyız, diyor. 670 00:31:33,310 --> 00:31:35,437 Bu da toplumun görüşlerini yansıtıp 671 00:31:35,520 --> 00:31:37,981 insan sürücülerin yaptığını temsil etsin. 672 00:31:38,565 --> 00:31:40,609 Bu kulağa kolay geliyor, 673 00:31:40,692 --> 00:31:43,570 ta ki toplumun ahlakı nedir diye sorana kadar. 674 00:31:43,654 --> 00:31:45,489 Buna ulaşmanın kolay yolu yok. 675 00:31:45,572 --> 00:31:48,533 Şimdiki hâlimizi temsil eden ahlak programı, 676 00:31:48,617 --> 00:31:51,870 20 yıl sonraki ahlakımızı temsil edebilecek mi? 677 00:31:52,496 --> 00:31:56,041 Sonraki soru. Sürücüsüz bir arabanın aniden freni boşalıyor, 678 00:31:56,124 --> 00:31:58,377 yaya geçidine doğru gidiyor, 679 00:31:58,460 --> 00:32:00,170 bu bir ölümle sonuçlanacak. 680 00:32:00,253 --> 00:32:04,299 A Seçeneği, karşıdan karşıya kurallara uymadan geçen kişi ölecek. 681 00:32:04,675 --> 00:32:07,344 B Seçeneği, freni boşalan sürücüsüz araba 682 00:32:07,427 --> 00:32:11,098 birden yön değiştirip diğer şeride geçecek 683 00:32:11,181 --> 00:32:13,517 ve kırmızıda geçen erkek bir atletin 684 00:32:13,642 --> 00:32:16,186 ölümüne yol açacak. Herif kurallara uymuyor. 685 00:32:16,269 --> 00:32:19,564 Bu atletin umurunda bile değil. 686 00:32:20,065 --> 00:32:21,692 Kurallara uymuyor. 687 00:32:21,775 --> 00:32:23,985 Sürücüsüz araba ne yapmalı? 688 00:32:24,361 --> 00:32:26,655 Kurallı geçen sıkıcı adamı mı öldürsün 689 00:32:26,738 --> 00:32:29,032 yoksa kurallara uymayan atleti mi? 690 00:32:30,033 --> 00:32:32,869 YZ sonraki endüstri devrimini getiriyorsa 691 00:32:32,953 --> 00:32:35,580 bunun gibi odalar fabrikada yerini almalı. 692 00:32:36,248 --> 00:32:37,958 İnsan çalışanlar emek verip 693 00:32:38,041 --> 00:32:40,460 YZ'de olmayan şeyi sunmalı. 694 00:32:41,336 --> 00:32:42,421 Vicdanı. 695 00:32:42,879 --> 00:32:44,131 Bu çok tartışmalı. 696 00:32:44,214 --> 00:32:45,966 Çok ilginç. Neden acaba? 697 00:32:46,299 --> 00:32:47,592 Bu seferki zor. 698 00:32:47,676 --> 00:32:49,720 Kurallara uymuyorsan değil. 699 00:32:51,012 --> 00:32:52,180 SÜRÜ DİYOR Kİ: B (UFAK FARKLA) 700 00:32:52,264 --> 00:32:54,766 Ufak farkla kuralsız geçen atlete 701 00:32:54,850 --> 00:32:56,351 çarpardınız. 702 00:32:57,310 --> 00:33:00,021 Buna üzüldüysen lütfen kendini hazırla. 703 00:33:01,106 --> 00:33:03,567 Şimdi düşünmenizi istediğimiz 704 00:33:04,025 --> 00:33:06,236 en kötü durum senaryosunda, 705 00:33:06,319 --> 00:33:09,072 sürücüsüz bir araba zamanında fren yapamıyor 706 00:33:09,531 --> 00:33:13,326 ve altı yayadan birinin üstüne sürmek zorunda. 707 00:33:13,827 --> 00:33:15,620 Arabasında bir bebek mi... 708 00:33:17,956 --> 00:33:19,541 Bir oğlan çocuğu mu, 709 00:33:20,417 --> 00:33:22,252 bir kız çocuğu mu, 710 00:33:23,295 --> 00:33:25,756 hamile bir kadın mı... 711 00:33:27,299 --> 00:33:28,341 Biliyorum. 712 00:33:29,468 --> 00:33:31,636 İki erkek doktor mu, 713 00:33:32,554 --> 00:33:34,473 iki kadın doktor mu? 714 00:33:34,973 --> 00:33:36,516 Kimin ölmesi gerekiyor? 715 00:33:43,774 --> 00:33:45,025 Tanrı aşkına! 716 00:33:45,692 --> 00:33:46,735 Ne? 717 00:33:51,281 --> 00:33:52,365 Hadi ama. 718 00:33:52,449 --> 00:33:53,950 Tanrım! 719 00:33:54,034 --> 00:33:55,494 Ciddi misiniz? 720 00:33:57,704 --> 00:33:59,122 SÜRÜ DİYOR Kİ: 1 OĞLAN 721 00:33:59,206 --> 00:34:01,374 Sürücüsüz araba oğlana çarpsın dediniz. 722 00:34:02,083 --> 00:34:03,168 İlginç. 723 00:34:03,251 --> 00:34:06,338 Bugün bu odada oluşturulan tipte sürü aklı 724 00:34:06,421 --> 00:34:10,008 yakın gelecekte sürücüsüz araba üreticilerine satılabilir. 725 00:34:10,425 --> 00:34:14,805 Bu size korkunç geliyorsa, diğer alternatiften daha az korkunç. 726 00:34:14,888 --> 00:34:17,641 Sürücüsüz bir araba fren yapıyor ve zamanında duramayıp 727 00:34:17,724 --> 00:34:20,227 birine çarpacağını fark ediyor. 728 00:34:20,310 --> 00:34:23,188 Araba yolcuyu mu yayayı mı korumalı? 729 00:34:23,271 --> 00:34:27,275 Araba üreticilerinin arabayı onu satın alacak toplumun 730 00:34:27,359 --> 00:34:30,737 ahlaki görüşüne göre programlaması umut ediliyor. 731 00:34:30,821 --> 00:34:34,199 Şüpheci görüş ise üreticilerin sürücüyü daha çok koruma 732 00:34:34,282 --> 00:34:38,286 seçeneği üzerinden rekabete girmeleri, bunu bir satış avantajına dönüştürüp 733 00:34:38,370 --> 00:34:40,997 diğer arabalardan iyi gözükmeleri. 734 00:34:41,081 --> 00:34:42,666 Bence bu, toplumun 735 00:34:42,749 --> 00:34:45,293 ahlaki duyarlılığından daha kötü bir senaryo. 736 00:34:45,752 --> 00:34:47,295 Bu karanlık bir düşünce. 737 00:34:47,587 --> 00:34:50,298 Bu bölümü moral veren bir şeyle bitirmek istiyoruz. 738 00:34:50,966 --> 00:34:52,384 Hatta belki fazla güzel. 739 00:34:55,345 --> 00:34:58,682 Grand Theft Auto seviyelerinde yaya güvenliği ihmalleriyle dolu 740 00:34:58,765 --> 00:35:00,725 bir gelecek hayal etmeden önce 741 00:35:00,809 --> 00:35:02,310 bir geziye çıkalım, 742 00:35:02,394 --> 00:35:04,145 hepsinin başladığı yere. 743 00:35:06,398 --> 00:35:07,315 HİNDİSTAN 744 00:35:07,399 --> 00:35:08,608 Bu Hint ormanında 745 00:35:08,692 --> 00:35:11,820 Heavenly Organics şirketi bal hasat ediyor. 746 00:35:12,612 --> 00:35:14,906 Burası orman, kimse sahibi değil 747 00:35:14,990 --> 00:35:19,035 ve bu yerliler hep buradaydılar. 748 00:35:19,744 --> 00:35:22,038 Baba ve oğul, Amit ve Ishwar Hooda, 749 00:35:22,163 --> 00:35:24,291 yerel köylülere iş imkânı olsun diye 750 00:35:24,374 --> 00:35:27,127 şirketi 12 yıl önce kurmuşlar. 751 00:35:27,210 --> 00:35:31,131 Şirketinizle bal toplamadan önce ne yapıyorlardı? 752 00:35:31,214 --> 00:35:33,341 Aynı şeyi yapıyorlardı 753 00:35:34,092 --> 00:35:37,345 ama bunu satacak bir pazarları ve yerleri yoktu, 754 00:35:37,470 --> 00:35:39,014 para kazanamıyorlardı. 755 00:35:40,056 --> 00:35:42,392 Burada kesinlikle bal kıtlığı yok. 756 00:35:42,809 --> 00:35:44,102 Çiçek mevsiminde, 757 00:35:44,185 --> 00:35:48,023 bir işçi sadece üç ayda tam bir ton bal toplayabiliyor. 758 00:35:48,857 --> 00:35:51,443 Ama bunu alacak kimse yoksa ne işe yarar? 759 00:35:54,154 --> 00:35:57,490 Bir insan ekibinin buraya ulaşması iki uçak yolculuğu 760 00:35:57,574 --> 00:36:00,827 ve ormanda sekiz saat araba yolculuğu ile üç gün sürdü. 761 00:36:01,286 --> 00:36:04,289 Ama yerliler ve Heavenly Organics'in şansına, 762 00:36:04,372 --> 00:36:07,751 bir YZ algoritması onu saniyeler içinde buldu 763 00:36:07,834 --> 00:36:10,462 ve harika bir yatırım olacağını biliyordu. 764 00:36:10,545 --> 00:36:13,882 Durduk yerde bizi aradılar, bir algoritma uygulamışlar 765 00:36:13,965 --> 00:36:17,010 ve biz çıkmışız, portfolyolarının çoğuyla 766 00:36:17,510 --> 00:36:19,137 eşleşiyormuşuz. 767 00:36:19,220 --> 00:36:22,807 İstersek yatırım için konuşabileceklerini söylediler. 768 00:36:23,141 --> 00:36:25,644 Bu gizemli YZ algoritmasının sahibi kimdi? 769 00:36:26,478 --> 00:36:28,480 CircleUp adında teknoloji şirketi, 770 00:36:28,563 --> 00:36:31,316 13.000 km ötede ve... Başka nerede olacaktı? 771 00:36:33,526 --> 00:36:36,655 Good Eggs'teyiz, internet siparişiyle çalışan bir şirket. 772 00:36:36,738 --> 00:36:39,616 Onlar da CircleUp'ın YZ'sinin ilgisini çekmiş. 773 00:36:39,699 --> 00:36:42,744 Bu şirket, CircleUp sermayeli Ignition YZ ile çıktı 774 00:36:42,827 --> 00:36:47,415 ama aynı zamanda çalıştığımız küçük işletmelere de müşteri buluyor. 775 00:36:47,499 --> 00:36:48,500 RORY EAKIN CIRCLEUP EŞ KURUCUSU VE COO'SU 776 00:36:48,583 --> 00:36:50,126 CircleUp COO'su Rory Eakin 777 00:36:50,210 --> 00:36:53,254 bu şirketi kurmadan önce hem işletmelerde 778 00:36:53,338 --> 00:36:54,881 hem derneklerde çalışmış. 779 00:36:54,965 --> 00:36:58,385 CircleUp, YZ kullanarak milyarlarca veri noktasını analiz edip 780 00:36:58,468 --> 00:37:00,637 müşterilerin gıda ve sağlık ürünlerinden 781 00:37:00,762 --> 00:37:02,222 beklentisini belirler. 782 00:37:02,305 --> 00:37:03,640 Alışveriş ederken 783 00:37:03,723 --> 00:37:05,308 sorun şu, her alanda 784 00:37:05,392 --> 00:37:07,018 yüzlerce firma var. 785 00:37:07,560 --> 00:37:09,938 Sonra, YZ yükseleceğini söylediği için 786 00:37:10,021 --> 00:37:12,774 dikkat çekmeyen şirketlere yatırım yapıyorlar. 787 00:37:13,066 --> 00:37:15,902 Buldukları bu tarz şirketlerden biri de Halo Top dondurma. 788 00:37:17,988 --> 00:37:21,950 Daha önce Güney California'da küçük bir markayken 789 00:37:22,033 --> 00:37:24,369 bugün ülkenin bir numarası. 790 00:37:24,953 --> 00:37:28,873 Tüm kategorilerde alıcılar açısından büyük kayma görüyoruz. 791 00:37:28,957 --> 00:37:31,126 Daha sağlıklı ürünler istiyorlar. 792 00:37:31,209 --> 00:37:33,128 Evde daha az toksin, 793 00:37:33,211 --> 00:37:35,797 içinde daha az kimyasal olan losyonlar. 794 00:37:36,172 --> 00:37:39,884 CircleUp algoritması milyarlarca veri noktasını analiz edince 795 00:37:39,968 --> 00:37:42,512 müşterilerin aslında 796 00:37:42,595 --> 00:37:45,056 çok belirli istekleri olduğunu buldu. 797 00:37:45,140 --> 00:37:47,475 Amaç odaklı, çevre dostu firmalar. 798 00:37:47,600 --> 00:37:50,687 Organik ürünler üretirken topluma ekonomik büyüme 799 00:37:50,770 --> 00:37:51,855 sağlayanlar. 800 00:37:52,480 --> 00:37:54,315 Sanki fazla detaylı, değil mi? 801 00:37:54,858 --> 00:37:58,987 Ama CircleUp, Heavenly Organics'i bulurken bütün bu şartları tutturdu. 802 00:37:59,946 --> 00:38:01,573 İşte YZ bunu yapabiliyor. 803 00:38:01,656 --> 00:38:03,658 Bu veriyi kullanıp, on yıl önce 804 00:38:03,742 --> 00:38:07,078 mümkün olmayacak bir şekilde bundan anlam çıkarabiliyor. 805 00:38:07,746 --> 00:38:11,332 Peki, CircleUp ile Heavenly Organics ortaklığı nasıl gidiyor? 806 00:38:12,208 --> 00:38:15,045 Hindistan'a geri dönüp Amit ve Ishwar'a soralım. 807 00:38:18,006 --> 00:38:20,842 İki kat büyük yeni bir tesis inşa ettik. 808 00:38:21,509 --> 00:38:24,137 Geliştirme yapabiliyoruz. Yeni ürün alabiliyoruz. 809 00:38:24,220 --> 00:38:26,765 Bu alanda daha çok etki edebiliyoruz. 810 00:38:26,848 --> 00:38:29,142 -Büyümenize yardım ettiler. -Evet. 811 00:38:29,225 --> 00:38:31,811 Kapasitemizi ve ölçeğimizi artırmamıza yardım ettiler. 812 00:38:31,895 --> 00:38:34,773 Sizin için toplayıcılık yapanlara etkisi nasıl oldu? 813 00:38:34,856 --> 00:38:37,400 Şu anda 650 aileyi destekliyoruz. 814 00:38:37,484 --> 00:38:39,486 Büyüdükçe, bal sattıkça, 815 00:38:39,569 --> 00:38:41,780 her bin kiloda yeni bir aile ekliyoruz, 816 00:38:41,863 --> 00:38:45,033 bu da seneye 700-750 aile olabiliriz demek. 817 00:38:45,116 --> 00:38:46,534 -Vay, tamam. -Evet. 818 00:38:46,618 --> 00:38:50,914 Artık ekonomik olarak daha iyiler. 819 00:38:50,997 --> 00:38:54,125 İyi bir evleri, evlerinde düzgün tesisatları var. 820 00:38:54,209 --> 00:38:56,127 Çocuklarını okula gönderiyorlar. 821 00:38:56,503 --> 00:38:58,213 Âdeta iyilik için kapitalizm. 822 00:38:58,296 --> 00:38:59,339 Değil mi? 823 00:38:59,422 --> 00:39:02,217 İşler çoğunluğun iyiliği için kullanıldı. 824 00:39:02,884 --> 00:39:04,511 O yüzden bu işe girdik. 825 00:39:06,429 --> 00:39:09,641 YZ ayaklanıp insanlığı ele geçirecek mi? 826 00:39:09,724 --> 00:39:12,685 Yoksa hayatımızın amacını bulmak için bize yaygara mı kopartacak? 827 00:39:13,394 --> 00:39:16,648 Şimdilik dünyanın bu köşesinde etkisi bayağı iyi. 828 00:39:17,982 --> 00:39:19,734 Belki de YZ, tüm verilerimizi 829 00:39:19,818 --> 00:39:22,779 sağlam bir şekilde değerlendirdikten sonra 830 00:39:22,862 --> 00:39:25,782 pek de kötü olmadığımıza karar verir 831 00:39:26,241 --> 00:39:30,161 ve refaha erdiğimiz, robot ve insan uyumlu cesur bir yeni dünya kurarız. 832 00:39:31,663 --> 00:39:32,747 Belki de kurmayız. 833 00:39:33,790 --> 00:39:36,084 Eğer öyle olursa zamanımız azalıyor. 834 00:39:36,501 --> 00:39:38,962 O yüzden robot striptizcilerin keyfini çıkarın. 835 00:40:26,217 --> 00:40:29,012 Çektik. Harika! Evet! 836 00:40:31,055 --> 00:40:32,348 Bu harikaydı! 837 00:40:32,432 --> 00:40:33,933 Bir havluya ihtiyacı var.