1 00:00:08,927 --> 00:00:11,930 Olen täällä Wall Streetillä, missä se kaikki alkoi. 2 00:00:13,724 --> 00:00:17,186 6.5.2010 klo 14.45 3 00:00:17,686 --> 00:00:21,190 yksi tyyppi vanhempiensa talossa Lontoossa asti 4 00:00:21,273 --> 00:00:24,985 vapautti algoritmin täällä New Yorkin pörssissä 5 00:00:25,068 --> 00:00:27,279 miljardin dollarin myyntimääräyksellä. 6 00:00:28,697 --> 00:00:30,449 Suunnitelmana oli huijata markkinoita 7 00:00:30,532 --> 00:00:32,659 ja peruuttaa määräys ennen sen toteuttamista. 8 00:00:33,160 --> 00:00:34,411 Ennen kuin se ehti tapahtua, 9 00:00:34,495 --> 00:00:37,247 maailman muut automaattiset kauppabotit 10 00:00:37,331 --> 00:00:38,582 alkoivat myös myydä 11 00:00:39,041 --> 00:00:42,336 ja aiheuttivat ketjureaktion, joka romahdutti markkinat. 12 00:00:44,880 --> 00:00:48,967 Dow Jones Industrial -indeksi putosi 1 000 pistettä 15 minuutissa. 13 00:00:49,051 --> 00:00:52,513 Lähes vastaava pudotus kuin Suuren laman aiheuttanut. 14 00:00:52,596 --> 00:00:55,307 -Mistä hitosta on kyse? -En tiedä. 15 00:00:55,390 --> 00:00:56,642 Markkinoilla on pelkoa. 16 00:00:57,267 --> 00:00:59,645 Peruuta risteily, siirrä lapsesi julkiseen kouluun. 17 00:01:00,938 --> 00:01:02,481 Se on pikaromahdus. 18 00:01:03,023 --> 00:01:04,066 No... 19 00:01:05,359 --> 00:01:08,111 Markkinat toipuivat 36 minuuttia myöhemmin. 20 00:01:08,195 --> 00:01:11,615 Mutta vuoden 2010 pikaromahdus oli ensimmäinen kerta, 21 00:01:11,698 --> 00:01:15,994 kun ihmiset saivat koruttoman, ensikäden, peräreikää kiristävän pilkahduksen siitä, 22 00:01:16,078 --> 00:01:19,164 miten tekoäly valtaa rahoitusjärjestelmämme. 23 00:01:20,707 --> 00:01:22,167 Näkisitpä, missä se on nyt. 24 00:01:24,086 --> 00:01:26,922 Siksi olen täällä Intiassa saalistamassa villihunajaa. 25 00:01:27,631 --> 00:01:28,966 Mutta siitä myöhemmin. 26 00:01:29,341 --> 00:01:31,885 Jotta voisi ymmärtää, miten ja miksi tekoäly löysi tämän paikan, 27 00:01:31,969 --> 00:01:34,429 täytyy ensin ymmärtää, mitä tekoäly on. 28 00:01:34,513 --> 00:01:36,431 Jos luulet jo tietäväsi, olet varmasti väärässä. 29 00:01:37,850 --> 00:01:41,436 Piti siitä tai ei, raha yhdistää meitä kaikkia. 30 00:01:41,937 --> 00:01:45,315 Olen Kal Penn. Tutkin tätä valtavaa petoa, 31 00:01:45,691 --> 00:01:48,068 joka on maailmantalous. 32 00:01:48,151 --> 00:01:49,403 Tämä valtava peto, joka on maailmantalous 33 00:01:52,322 --> 00:01:54,199 Mitä tekoäly tarkalleen ottaen on? 34 00:01:54,867 --> 00:01:58,579 Olen San Franciscossa määrittelemässä ensin, mitä se ei ole. 35 00:01:58,662 --> 00:02:01,874 Aika lailla kaikkea sitä, mitä scifissä on kerrottu. 36 00:02:02,541 --> 00:02:03,542 Erityisesti... 37 00:02:03,959 --> 00:02:07,004 Valtavia hiton robotteja! 38 00:02:27,107 --> 00:02:28,442 Voi luoja! 39 00:02:30,485 --> 00:02:32,112 Olen täällä Julia Bossmannin kanssa, 40 00:02:32,237 --> 00:02:36,575 joka työskentelee Maailman talousfoorumin tekoälyneuvostossa 41 00:02:36,658 --> 00:02:40,329 ja neuvoo maailman johtajia, miten tekoälyn potentiaali valjastetaan. 42 00:02:40,829 --> 00:02:44,499 Työssä on vieläkin parempia etuja kuin katsella autojen tuhoamista. 43 00:02:44,583 --> 00:02:47,586 Kuten selfiet Kanadan ykkösseksisymbolin kanssa, jonka nimi ei ole Drake. 44 00:02:47,669 --> 00:02:48,754 KANADAN PÄÄMINISTERI 45 00:02:53,467 --> 00:02:55,385 Miten pääset tämän jälkeen kotiin? 46 00:02:55,469 --> 00:02:56,803 Kyllä se vielä kulkee. 47 00:03:01,016 --> 00:03:03,018 Tapaamme MegaBots-nimisessä yhtiössä, 48 00:03:03,101 --> 00:03:05,854 joka rakentaa valtavia robotteja taistelemaan robottien kanssa. 49 00:03:07,814 --> 00:03:10,275 Vähän kuin nörtimpi versio Medieval Timesista. 50 00:03:13,779 --> 00:03:14,905 Julian mukaan 51 00:03:14,988 --> 00:03:17,658 nämä robotit eivät ole entisiä huvipuistojen nähtävyyksiä. 52 00:03:18,283 --> 00:03:22,412 Ne ovat teknologisia dinosauruksia yhden tärkeän eron vuoksi. 53 00:03:24,289 --> 00:03:25,582 Näissä roboteissa me olemme aivot, 54 00:03:25,666 --> 00:03:27,626 mutta tekoäly on tekoaivot. 55 00:03:27,709 --> 00:03:28,752 TEKOÄLYASIANTUNTIJA 56 00:03:28,835 --> 00:03:29,711 Voitko kertoa lisää? 57 00:03:29,795 --> 00:03:32,506 Me rakennamme tietokoneita, 58 00:03:32,589 --> 00:03:34,132 jotka voivat oppia itse asioita. 59 00:03:34,591 --> 00:03:37,010 Niillä ei tarvitse olla kehoja. 60 00:03:37,344 --> 00:03:40,055 Monet jo rakentamamme tekoälyt 61 00:03:40,138 --> 00:03:41,765 asuvat valtavissa datakeskuksissa. 62 00:03:42,057 --> 00:03:46,645 Jos täytyisi selittää 13-vuotiaalle, 63 00:03:46,728 --> 00:03:48,146 miten selittäisit tekoälyn? 64 00:03:48,230 --> 00:03:50,691 Yleinen määritelmä voisi olla, 65 00:03:50,774 --> 00:03:54,945 että tekoäly saa laitteet tekemään asioita, 66 00:03:55,028 --> 00:03:58,156 joita emme ohjelmoineet niitä tekemään. 67 00:03:58,240 --> 00:03:59,616 Perinteisessä ohjelmoinnissa 68 00:03:59,700 --> 00:04:02,744 on säännöt ja algoritmi 69 00:04:02,828 --> 00:04:04,413 tyyliin: jos tämä, sitten tuo. 70 00:04:04,496 --> 00:04:07,165 Sen ohjelmoivat ihmiset määrittelevät sen. 71 00:04:07,249 --> 00:04:09,501 Lääketieteellisen kirjallisuuden 72 00:04:09,584 --> 00:04:12,004 tietokannassa on miljoonia merkintöjä, 73 00:04:12,087 --> 00:04:14,923 eikä yksikään lääkäri voi lukea kaikkia tutkimuksia 74 00:04:15,048 --> 00:04:17,676 pysyäkseen ajan tasalla, mutta kone voi. 75 00:04:17,759 --> 00:04:20,220 Voi siis kuvitella, että kone keksii uusia ideoita 76 00:04:20,303 --> 00:04:21,596 ongelmien ratkaisuun 77 00:04:21,680 --> 00:04:24,766 tai löytää uusia lääkkeitä tautien parantamiseen. 78 00:04:26,059 --> 00:04:28,395 Tekoälyn ala, 79 00:04:28,478 --> 00:04:30,856 josta ollaan eniten innostuneita juuri nyt, 80 00:04:30,939 --> 00:04:32,065 on nimeltään syväoppiminen. 81 00:04:32,149 --> 00:04:33,608 Mitä syväoppiminen on? 82 00:04:33,692 --> 00:04:36,069 Syväoppimisessa on 83 00:04:36,153 --> 00:04:39,072 useita syviä neuroverkkoja, 84 00:04:39,156 --> 00:04:42,242 jotka ovat samanlaisia kuin aivoissamme. 85 00:04:42,325 --> 00:04:45,579 Meillä on päässämme neuroneja, jotka ovat yhteydessä toisiinsa 86 00:04:45,662 --> 00:04:46,788 ja vaihtavat tietoa. 87 00:04:46,830 --> 00:04:50,751 Tavallaan me simuloimme sitä koneissa. 88 00:04:50,834 --> 00:04:54,546 Me syötämme sille tietoa tasapainoisella ja puolueettomalla tavalla, 89 00:04:54,629 --> 00:04:56,214 jotta se myös oppii. 90 00:04:56,548 --> 00:04:59,009 Esimerkiksi kuvantunnistuksessa kerromme niille, 91 00:04:59,092 --> 00:05:01,511 että nämä ovat kissojen kuvia ja nämä koirien. 92 00:05:01,595 --> 00:05:03,972 Sitten ne alkavat käydä kuvia läpi 93 00:05:04,056 --> 00:05:06,349 ja oppivat itse, miten tunnistaa ne. 94 00:05:06,433 --> 00:05:10,187 Meidän ei siis tarvitse ohjelmoida jokaista osaa siitä. 95 00:05:10,228 --> 00:05:11,229 Mielenkiintoista. 96 00:05:11,313 --> 00:05:14,107 On myös koneoppimista, joka ei ole syväoppimista. 97 00:05:14,858 --> 00:05:16,985 On evoluutioalgoritmeja, 98 00:05:17,069 --> 00:05:19,863 joissa käytämme evoluution periaatetta, 99 00:05:19,946 --> 00:05:24,242 annamme laitteen kokeilla erilaisia tapauksia 100 00:05:24,743 --> 00:05:27,329 ja katsomme sitten, mikä toimii parhaiten. 101 00:05:27,412 --> 00:05:31,291 Parhaiten toimivat pääsevät seuraavaan sukupolveen. 102 00:05:31,374 --> 00:05:34,336 Samalla tavoin kuin organismit kehittyvät, me käytämme periaatteita, 103 00:05:34,419 --> 00:05:37,172 joissa vahvimmat ja parhaimmat ohjelmat selviytyvät. 104 00:05:38,465 --> 00:05:40,550 Ne ovat evoluutioalgoritmeja. 105 00:05:40,926 --> 00:05:44,346 Mikä on taloudellinen etu tekoälyn tutkimisesta? 106 00:05:44,429 --> 00:05:47,724 Sillä täytyy olla uskomaton potentiaalinen vaikutus talouteen. 107 00:05:47,808 --> 00:05:50,393 Kyllä, se muuttaa talouden radikaalisti. 108 00:05:50,477 --> 00:05:53,313 Kyseessä on uusi teollinen vallankumous. 109 00:05:53,396 --> 00:05:54,231 Mielenkiintoista. 110 00:05:54,314 --> 00:05:55,774 Sitä on kutsuttu viimeiseksi keksinnöksi, 111 00:05:55,857 --> 00:05:58,944 koska kun tekoaivot ovat meitä viisaampia, 112 00:05:59,027 --> 00:06:00,779 ne voivat keksiä enemmän asioita meille. 113 00:06:00,862 --> 00:06:03,865 Kutsutaanko sitä viimeiseksi keksinnöksi, koska se tappaa meidät kaikki? 114 00:06:04,950 --> 00:06:06,118 Toivottavasti ei. 115 00:06:08,829 --> 00:06:12,207 Monet pelkäävät, että tekoälystä tulee liian fiksu 116 00:06:12,290 --> 00:06:15,001 ja se tappaa meidät kaikki, mutta älä huoli. 117 00:06:15,085 --> 00:06:19,047 Yksi syy tekoälyn fiksuuteen on se, että se on hiton tyhmä. 118 00:06:19,464 --> 00:06:20,549 Tule tänne, tekoäly. 119 00:06:21,299 --> 00:06:24,302 Kuvittele, että pyydät tekoälyä etsimään täydellisen kakkureseptin 120 00:06:24,386 --> 00:06:26,179 käyttämällä evoluutioalgoritmeja. 121 00:06:27,973 --> 00:06:30,517 Tekoäly ei yrittäisi miettiä parasta tapaa tehdä se. 122 00:06:30,600 --> 00:06:33,520 Se vain kokeilisi miljardeja kertoja 123 00:06:33,603 --> 00:06:37,482 kaikilla keittiön ainesosilla mitä tyhmimmillä tavoilla. 124 00:06:38,441 --> 00:06:40,652 Useimmat niistä on tietenkin tuomittu epäonnistumaan. 125 00:06:42,320 --> 00:06:43,613 Tämä varmasti. 126 00:06:44,447 --> 00:06:45,657 Hyvä yritys, idiootti. 127 00:06:46,616 --> 00:06:50,162 Tyriminen ei satuta tekoälyn tunteita. Sillä ei ole niitä. 128 00:06:50,745 --> 00:06:53,123 Hienoa evoluutioalgoritmeissa on se, 129 00:06:53,206 --> 00:06:56,293 että kokeilemalla kaikkia tyhmiltä vaikuttavia tapoja 130 00:06:56,376 --> 00:06:58,044 se voi löytää 131 00:06:58,128 --> 00:07:01,464 kulinaariseen ongelmaan ratkaisun, jota järkevä ihminen ei yrittäisi, 132 00:07:01,548 --> 00:07:04,176 kuten loistavan vegaanikakun tekemisen. 133 00:07:04,259 --> 00:07:05,302 Tein kakun. 134 00:07:06,178 --> 00:07:07,554 Sillä lailla, tekoäly. 135 00:07:07,637 --> 00:07:09,097 Pääosin cashewpähkinöistä. 136 00:07:09,931 --> 00:07:13,143 Olisitko ajatellut käyttää niitä? Et tietenkään! 137 00:07:13,226 --> 00:07:16,521 Se olisi tyhmää, mihin tekoäly on valmis, 138 00:07:16,605 --> 00:07:18,190 jotta sinun ei tarvitse. 139 00:07:18,273 --> 00:07:21,067 Kehittyykö tästä ääliöstä jotain niin fiksua, 140 00:07:21,151 --> 00:07:23,653 että se hallitsee maailmaa ja tappaa meidät kaikki? 141 00:07:24,196 --> 00:07:25,280 Vaikea sanoa varmasti. 142 00:07:25,363 --> 00:07:26,740 Opettelen laukaisukoodeja. 143 00:07:27,657 --> 00:07:28,992 Sitä odotellessa 144 00:07:29,993 --> 00:07:31,077 syö kakkua. 145 00:07:35,165 --> 00:07:36,541 Vaikka minua huolestuttaa yhä, 146 00:07:36,625 --> 00:07:39,461 että tekoäly luo enemmän ongelmia kuin se ratkaisee, 147 00:07:41,004 --> 00:07:43,757 asiantuntijoiden mukaan se parantaa tuottavuutta 148 00:07:43,840 --> 00:07:47,636 terveydenhoidossa, kuljetuksessa ja rahoituksessa 149 00:07:47,719 --> 00:07:51,848 ja lisää vuoteen 2030 mennessä maailman BKT:hen 15,7 biljardia dollaria. 150 00:07:52,474 --> 00:07:56,478 Se on enemmän kuin Kiinan ja Intian tuotanto nykyään. 151 00:07:59,898 --> 00:08:02,275 Kuinka tärkeä tekoäly on? 152 00:08:02,943 --> 00:08:06,404 Se on yksi kolmesta tärkeimmästä asiasta ihmiskunnan historiassa. 153 00:08:06,488 --> 00:08:07,697 Ihmiskunnan historiassako? 154 00:08:07,781 --> 00:08:08,990 Ehdottomasti. 155 00:08:09,616 --> 00:08:11,368 Olen Andrew McAfeen seurassa. 156 00:08:11,451 --> 00:08:15,664 Hän on johtavia asiantuntijoita siinä, miten uusi teknologia muovaa talouksia 157 00:08:15,747 --> 00:08:19,542 ja sitten koko ihmiskuntaa. 158 00:08:20,460 --> 00:08:22,212 Jos tekee käyrän ihmisen historiasta, 159 00:08:22,295 --> 00:08:24,214 saa selville, että tuhansiin vuosiin 160 00:08:24,297 --> 00:08:26,258 ei tapahtunut mitään. 161 00:08:26,341 --> 00:08:28,093 JOHTAJA MIT:N DIGITAALISEN TALOUDEN INSTITUUTTI 162 00:08:28,176 --> 00:08:30,845 Sitä tuskin erottaa kuolemasta. 163 00:08:30,929 --> 00:08:32,514 Sitten yhtäkkiä, tiettynä hetkenä, 164 00:08:32,597 --> 00:08:34,933 ihmisen historian käyrä 165 00:08:35,016 --> 00:08:38,144 muuttui tylsän vaakasuorasta hullun pystysuoraksi 166 00:08:38,228 --> 00:08:39,771 silmänräpäyksessä. 167 00:08:39,854 --> 00:08:41,481 Vuoden 1800 tienoilla 168 00:08:41,564 --> 00:08:45,443 ensinnäkin höyryvoiman ja toiseksi sähkön ansiosta. 169 00:08:47,821 --> 00:08:50,782 Sähkö toi ilmiselviä asioita. 170 00:08:50,865 --> 00:08:53,827 Saimme raitiovaunut ja metrot. 171 00:08:53,910 --> 00:08:57,080 Vähemmän ilmiselvästi saimme pystysuoria kaupunkeja vaakasuorien sijaan. 172 00:08:57,163 --> 00:08:58,373 -Sähkölläkö? -Ehdottomasti. 173 00:08:58,456 --> 00:08:59,749 -Tarvitaan hissejä. -Selvä. 174 00:08:59,833 --> 00:09:01,543 Pystysuoria kaupunkeja 175 00:09:01,626 --> 00:09:03,878 ei ole ilman niitä. Ei voi kavuta 80 kerrosta joka päivä. 176 00:09:03,962 --> 00:09:06,506 Höyryn teollinen vallankumous, 177 00:09:06,589 --> 00:09:09,259 sekä sähkön ja polttomoottorin, 178 00:09:09,342 --> 00:09:11,011 muuttivat kirjaimellisesti historian. 179 00:09:11,094 --> 00:09:12,804 -Ei sitä voi muuten nähdä. -Toki. 180 00:09:12,887 --> 00:09:15,974 Näillä teknologioilla pystyimme ylittämään 181 00:09:16,057 --> 00:09:17,100 lihaksiemme rajoitukset. 182 00:09:17,183 --> 00:09:20,562 Tekoälyllä ylitämme aivojemme 183 00:09:20,645 --> 00:09:22,564 ja henkisten kykyjemme rajoitukset. 184 00:09:22,647 --> 00:09:24,607 VAARA - KORKEAJÄNNITE 185 00:09:24,691 --> 00:09:26,484 On kovia haasteita työstettävänä. 186 00:09:26,568 --> 00:09:28,236 Rehellisesti kovia. 187 00:09:28,320 --> 00:09:29,696 Pitäisi parantaa syöpä. 188 00:09:29,779 --> 00:09:31,406 Ruokkia enemmän ihmisiä. 189 00:09:31,489 --> 00:09:33,950 Lopettaa maapallon käristäminen 2000-luvulla. 190 00:09:34,034 --> 00:09:36,328 Ne ovat mielettömän monimutkaisia asioita. 191 00:09:36,411 --> 00:09:38,747 Aivomme nakertavat sitä monimutkaisuutta. 192 00:09:38,830 --> 00:09:41,708 Teemme sen tieteellä ja lisäämällä tietoa, 193 00:09:41,791 --> 00:09:44,044 mutta se on valtavan monimutkaista. 194 00:09:44,127 --> 00:09:45,420 Mielestäni tekoälyssä 195 00:09:45,503 --> 00:09:48,506 meillä on todella voimakas uusi kollega, 196 00:09:48,590 --> 00:09:51,676 joka auttaa saamaan jalansijaa monimutkaisuuteen, 197 00:09:51,760 --> 00:09:54,637 koska uudet teknologiat ovat hyviä 198 00:09:54,721 --> 00:09:59,684 löytämään hienovaraisia kaavoja valtavassa määrässä tietoa. 199 00:09:59,768 --> 00:10:01,603 Enemmän kuin me voimme omaksua. 200 00:10:01,686 --> 00:10:03,897 Yksi äskettäin kuulemistani hulluimmista esimerkeistä 201 00:10:03,980 --> 00:10:05,106 oli rahoituksessa 202 00:10:05,190 --> 00:10:07,650 ja roboneuvonantajien nousussa, 203 00:10:07,734 --> 00:10:09,361 joka on vain 204 00:10:09,444 --> 00:10:11,696 sijoitussalkun kokoava algoritmi. 205 00:10:11,780 --> 00:10:13,031 Tähän mennessä 206 00:10:13,114 --> 00:10:15,325 on täytynyt olla riittävän varakas 207 00:10:15,408 --> 00:10:18,745 päästäkseen taloussuunnittelijoiden ja -neuvonantajien toimistoon. 208 00:10:18,828 --> 00:10:20,872 -Selvä. -Se muuttuu todella nopeasti. 209 00:10:20,955 --> 00:10:25,210 Roboneuvonnalla yhä vähemmän varakkaat ihmiset 210 00:10:25,293 --> 00:10:28,963 voivat käyttää supervoimakkaita viimeistä huutoa olevia työkaluja 211 00:10:29,047 --> 00:10:31,299 parantamaan talousasioitaan. 212 00:10:31,383 --> 00:10:34,302 Se on jännittävää, koska aina on tuntunut olevan 213 00:10:34,386 --> 00:10:37,555 ihmisiä, jotka ovat valmiita käyttämään tätä väärin. 214 00:10:37,639 --> 00:10:40,225 En sano, ettei ole syytä huoleen. 215 00:10:40,308 --> 00:10:42,852 Tiedämme edellisistä teollisista vallankumouksista sen, 216 00:10:42,936 --> 00:10:44,687 että ne toivat huonoja asioita mukanaan. 217 00:10:44,771 --> 00:10:49,150 Teollisella teknologialla mekanisoitiin sodankäynti. 218 00:10:49,234 --> 00:10:52,529 Ympäristöä saastutettiin hitosti. 219 00:10:52,612 --> 00:10:54,364 Tehtiin vakavia virheitä, 220 00:10:54,447 --> 00:10:57,951 kuten käytettiin laajamittaisesti lapsityövoimaa. 221 00:10:58,034 --> 00:11:01,079 Se ei siis olet täydellistä kaikkina ajankohtina. 222 00:11:01,162 --> 00:11:03,748 Sama tapahtuu tälläkin kerralla. 223 00:11:04,249 --> 00:11:05,291 Hitto. 224 00:11:06,918 --> 00:11:08,586 McAfee sai minut ajattelemaan. 225 00:11:08,670 --> 00:11:10,547 Mitä jos historia toistaa itseään 226 00:11:10,630 --> 00:11:13,591 ja tekoäly muokkaa yhteiskuntaa väärällä tavalla? 227 00:11:14,467 --> 00:11:18,430 Kuten laajalla saastuttamisella ja pienillä nokisilla työtovereilla? 228 00:11:18,513 --> 00:11:19,848 LONTOO 229 00:11:19,931 --> 00:11:21,891 Entä moraaliset ja eettiset kysymykset, 230 00:11:21,975 --> 00:11:24,227 jotka nousevat uusien voimakkaiden teknologioiden myötä? 231 00:11:24,936 --> 00:11:27,647 Kun kävelee Lontoon tietokonemuseossa, 232 00:11:27,730 --> 00:11:31,109 näkee paljon koneita, jotka luotiin edistämään yhteiskuntaa. 233 00:11:31,192 --> 00:11:35,572 Kuten kaksi tonnia painavan Harwell Dekatronin, joka rakennettiin 234 00:11:35,655 --> 00:11:38,908 suorittamaan laskutoimituksia Britannian tiedetutkimukseen 1950-luvulla. 235 00:11:39,242 --> 00:11:41,161 Ei voi tietää, miten väärissä käsissä 236 00:11:41,244 --> 00:11:43,163 käytetään uutta teknologiaa. 237 00:11:43,746 --> 00:11:45,707 Voiko tällä tietokoneella katsoa pornoa? 238 00:11:46,040 --> 00:11:49,752 Niillä voi katsoa matalaresoluutioista pornoa. 239 00:11:50,712 --> 00:11:51,754 TIETOKONEOHJELMOIJA 240 00:11:51,838 --> 00:11:54,507 Olen ohjelmoija Alan Zucconin kanssa, 241 00:11:54,591 --> 00:11:57,177 joka opettaa Goldsmith's Collegessa täällä Lontoossa. 242 00:11:57,719 --> 00:12:00,722 Hän on luonut teknologialla vallankumouksellisia asioita, 243 00:12:00,805 --> 00:12:04,058 kuten peliohjaimia liikuntarajoitteisille. 244 00:12:05,477 --> 00:12:07,937 Hän sanoo, että yksi suurimmista moraalisista pulmista 245 00:12:08,021 --> 00:12:10,190 teknologian historiassa tulee pian, 246 00:12:10,273 --> 00:12:14,360 kun tekoäly alkaa jäljitellä niin paljon ihmiskäyttäytymistä, 247 00:12:14,444 --> 00:12:16,404 että se käy ihmisestä. 248 00:12:17,113 --> 00:12:18,615 Mikä tämä on? 249 00:12:18,948 --> 00:12:21,826 Yksi ensimmäisistä rakennetuista tietokoneista. 250 00:12:21,910 --> 00:12:24,829 Alan Turing rakensi sen kumppaniensa kanssa. 251 00:12:24,913 --> 00:12:28,124 Tämä oli yksi ensimmäisistä tietokoneista, 252 00:12:28,208 --> 00:12:30,710 joka pystyi purkamaan natsien Enigma-koodin. 253 00:12:32,587 --> 00:12:35,381 Alan Turing oli nykyaikaisen tietojenkäsittelytieteen isä. 254 00:12:35,465 --> 00:12:38,927 Kun hän ei auttanut liittoutuneita sodan voittamisessa murtamalla natsien koodeja, 255 00:12:39,010 --> 00:12:42,555 hän filosofoi Turingin testistä. 256 00:12:43,598 --> 00:12:46,643 Miten voimme erottaa ihmisen koneesta? 257 00:12:46,726 --> 00:12:49,854 Jos emme huomaa eroa, 258 00:12:49,938 --> 00:12:53,066 kone läpäisee jäljittelypelin. 259 00:12:53,149 --> 00:12:56,569 Kone yrittää matkia ihmisen käyttäytymistä. 260 00:12:56,653 --> 00:12:59,072 Se tunnetaan Turingin testinä, 261 00:12:59,155 --> 00:13:02,659 ja tämä on yksi koneista, joita olisi voitu käyttää. 262 00:13:02,742 --> 00:13:03,868 Turingin testissä 263 00:13:03,952 --> 00:13:06,579 ihminen syöttää kysymyksiä koneeseen. 264 00:13:07,080 --> 00:13:08,831 Ulkopuolinen tarkkailija arvioi, 265 00:13:08,915 --> 00:13:11,501 ovatko saadut vastaukset ihmiseltä 266 00:13:11,584 --> 00:13:13,461 vai ihmistä jäljittelevältä koneelta. 267 00:13:14,379 --> 00:13:15,630 Kuinka vanha olet? 268 00:13:17,924 --> 00:13:20,134 Sillä lailla. Se tietää, kuinka vanha se on. 269 00:13:20,218 --> 00:13:22,011 "Synnyin vuonna 1912. 270 00:13:22,095 --> 00:13:24,389 "Olen siis 105-vuotias." 271 00:13:27,642 --> 00:13:30,979 Turingin aikoihin oli helppoa huomata tietokone. 272 00:13:31,271 --> 00:13:34,357 Nykyään tekoäly voi tutkia ihmisen käyttäytymistä 273 00:13:34,440 --> 00:13:36,693 ja ohjelmoida itsensä toimimaan kuin me. 274 00:13:37,485 --> 00:13:39,654 Huomaatko eron tämän... 275 00:13:39,988 --> 00:13:43,199 Yleensä aloittaisin vitsillä tietojenkäsittelytieteestä, 276 00:13:43,700 --> 00:13:46,744 mutta puolet henkilökuntani ideoista olivat alle keskiarvon. 277 00:13:46,828 --> 00:13:47,912 ...ja tämän välillä? 278 00:13:47,996 --> 00:13:50,415 Vihollisemme voivat saada näyttämään, että kuka tahansa sanoo mitä tahansa 279 00:13:50,498 --> 00:13:51,833 milloin tahansa. 280 00:13:52,208 --> 00:13:55,503 BuzzFeed loi jälkimmäisen 281 00:13:55,587 --> 00:13:57,338 näyttelijä Jordan Peelen kanssa. 282 00:13:57,839 --> 00:14:02,760 Se sai monet huolestumaan uusista tekoälyvaleuutisista. 283 00:14:02,844 --> 00:14:04,929 Jatkossa meidän täytyy olla tarkkaavaisempia 284 00:14:05,013 --> 00:14:06,639 sen suhteen, mihin luotamme Internetissä. 285 00:14:06,723 --> 00:14:09,058 Tekoäly tutki Peelen kasvonliikkeitä, 286 00:14:09,142 --> 00:14:13,062 yhdisti ne Obaman kasvoihin 287 00:14:13,146 --> 00:14:15,690 ja loi syvähuijauksena tunnetun hybridin. 288 00:14:15,773 --> 00:14:17,984 Olet ehkä nähnyt jotain vastaavaa. 289 00:14:18,067 --> 00:14:21,404 Esimerkiksi Snapchatissa on filtteri, jolla voi vaihtaa kasvoja. 290 00:14:21,487 --> 00:14:25,325 Ero on, että filtteri tekee sen hyvin yksinkertaisella tavalla. 291 00:14:25,408 --> 00:14:28,953 Mutta syvähuijauksen teknologia tukeutuu tekoälyyn. 292 00:14:29,037 --> 00:14:31,289 Se tulee syväoppimisesta. 293 00:14:31,706 --> 00:14:35,126 Keinotekoiset neuroverkot poimivat ilmeitä. 294 00:14:35,209 --> 00:14:37,754 Ne käyttävät ilmeitä kasvojen luomiseen. 295 00:14:37,837 --> 00:14:41,466 Siten saavutetaan fotorealistisia tuloksia. 296 00:14:42,508 --> 00:14:45,720 Alan tekee Internetiin opetusohjelmia syvähuijausten tekemisestä. 297 00:14:45,803 --> 00:14:48,056 Hän uskoo vakaasti, että tätä teknologiaa 298 00:14:48,139 --> 00:14:50,767 pitäisi kehittää vapaasti ilman rajoituksia. 299 00:14:50,850 --> 00:14:53,853 Vaikka se voisi aloittaa 3. maailmansodan. 300 00:14:53,936 --> 00:14:55,104 BELGIAN SOSIALISTIPUOLUE LEVITTÄÄ TRUMPIN SYVÄHUIJAUSVIDEOTA 301 00:14:55,188 --> 00:14:57,273 Miten kuluttajan pitäisi erottaa 302 00:14:57,357 --> 00:14:59,692 todellisuus epäaidosta? 303 00:14:59,776 --> 00:15:02,695 Kun kuluttaja katsoo uutista, 304 00:15:02,779 --> 00:15:05,740 oli se sitten artikkeli, video tai kuva, 305 00:15:05,823 --> 00:15:08,076 kaikki nähty on jonkun luomaa. 306 00:15:08,201 --> 00:15:09,577 "Mikä on näkemäni tarina? 307 00:15:09,827 --> 00:15:11,287 "Mitä video haluaa minun kertovan?" 308 00:15:11,371 --> 00:15:13,581 Näen siis... 309 00:15:13,665 --> 00:15:14,624 Vaaran. 310 00:15:14,707 --> 00:15:17,168 Vaaran ja sen erikoisuuden. 311 00:15:17,251 --> 00:15:19,420 Auttaako tämä ihmisiä? 312 00:15:19,504 --> 00:15:21,923 Voisin kuvitella, että olet puhunut ihmisille, 313 00:15:22,006 --> 00:15:25,885 jotka yrittävät kasvattaa taloutta tällaisella teknologialla. 314 00:15:25,968 --> 00:15:29,097 Mitä käytännön vaikutusta tällä on talouteen? 315 00:15:29,180 --> 00:15:32,308 Ensimmäinen sitä hyödyntävä ala 316 00:15:32,392 --> 00:15:33,685 on elokuva-ala. 317 00:15:33,768 --> 00:15:36,813 Koska kasvojen vaihtamista 318 00:15:36,896 --> 00:15:40,024 on yritetty tehdä vuosikymmeniä elokuvissa. 319 00:15:40,108 --> 00:15:42,527 Yleensä käytetään meikkiä, naamioita 320 00:15:42,610 --> 00:15:43,736 ja joskus tietokonegrafiikkaa. 321 00:15:43,820 --> 00:15:46,489 Näyttelijänä ja politiikassa työskennelleenä 322 00:15:46,572 --> 00:15:48,616 tämä pelottaa minua. 323 00:15:48,700 --> 00:15:50,201 Niin pitäisikin. 324 00:15:51,285 --> 00:15:53,705 BuzzFeedin syvähuijaus paljasti yleisölle, 325 00:15:53,788 --> 00:15:55,039 kuinka haavoittuvaisia olemme. 326 00:15:55,873 --> 00:15:59,585 Kun presidentti voi liikuttaa puheillaan markkinoita, 327 00:15:59,669 --> 00:16:02,714 hyvin tehty syvähuijaus voi saada maailmantalouden lamaan 328 00:16:02,797 --> 00:16:04,674 nopeammin kuin pikaromahdus 329 00:16:04,757 --> 00:16:08,469 ja tuhota eläkesäästösi ajassa, jonka Obamalta vie sanoa... 330 00:16:08,553 --> 00:16:09,554 Pysykää hereillä, ämmät. 331 00:16:10,638 --> 00:16:13,057 Kuulostaako tämä scifiltä? 332 00:16:13,141 --> 00:16:14,726 Edes vähän pelottavalta? 333 00:16:15,309 --> 00:16:18,271 Jos tekoälystä tulee riittävän voimakas tietämään, miten me liikumme, 334 00:16:18,354 --> 00:16:20,022 puhumme ja ajattelemme, 335 00:16:20,106 --> 00:16:22,316 sitä ei ehkä voi enää erottaa meistä. 336 00:16:22,400 --> 00:16:23,818 MITÄ SINÄ TIEDÄT - KAIKEN 337 00:16:24,610 --> 00:16:26,779 Ja jos tekoälyllä on oma tietoisuutensa, 338 00:16:26,863 --> 00:16:29,782 se voi myös kehittää vahvoja mielipiteitä meistä. 339 00:16:29,866 --> 00:16:30,908 HAISTA PASKA - VARO VÄHÄN! 340 00:16:30,992 --> 00:16:33,119 Ne eivät ehkä ole myönteisiä. 341 00:16:35,455 --> 00:16:36,664 TEOREETTINEN FYYSIKKO 342 00:16:36,748 --> 00:16:39,292 Tulevaisuudessa tekoäly voi kehittää oman tahtonsa, 343 00:16:39,375 --> 00:16:42,003 joka on ristiriidassa omamme kanssa. 344 00:16:42,086 --> 00:16:44,422 Voimakkaan tekoälyn nousu on 345 00:16:44,505 --> 00:16:48,801 joko parasta tai pahinta, mitä ihmiskunnalle on tapahtunut. 346 00:16:49,260 --> 00:16:50,136 TOIMITUSJOHTAJA, SPACEX 347 00:16:50,219 --> 00:16:53,181 Olen yrittänyt saada ihmisiä hidastamaan tekoälyä. 348 00:16:54,056 --> 00:16:55,224 Säätelemään sitä. 349 00:16:55,308 --> 00:16:56,809 Se oli hyödytöntä. Yritin vuosikausia. 350 00:16:56,893 --> 00:16:58,561 -Kukaan ei kuunnellut. -Kuin kohtaus 351 00:16:58,644 --> 00:17:00,980 elokuvassa, jossa robotit ottivat vallan. 352 00:17:01,063 --> 00:17:02,607 Sinä pelotat minua. 353 00:17:05,818 --> 00:17:09,030 Miten todellinen uhka on tekoälyn johtama maailmanloppu? 354 00:17:10,865 --> 00:17:12,408 ISO-BRITANNIA 355 00:17:12,742 --> 00:17:15,077 Sen selvittämiseksi minun täytyy puhua tyypille, 356 00:17:15,161 --> 00:17:18,164 jonka tutkimus pelästytti kaikki alun perin. 357 00:17:18,831 --> 00:17:21,083 Olen innoissani puhumisesta kanssasi, koska... 358 00:17:21,167 --> 00:17:23,628 Olen innoissani monista syistä, 359 00:17:23,711 --> 00:17:26,839 mutta olemme tutkineet tekoälyä, 360 00:17:26,923 --> 00:17:29,258 yrittäneet selvittää, mitä se on ja mihin se menee. 361 00:17:29,342 --> 00:17:34,680 Olet vaikuttanut Elon Muskin ja Bill Gatesin kaltaisiin ihmisiin. 362 00:17:37,016 --> 00:17:40,853 Aika mahtavaa vaikutusvaltaa. 363 00:17:42,021 --> 00:17:45,691 Tapaan Oxfordin yliopistossa tri Nick Bostromin. 364 00:17:45,775 --> 00:17:48,986 Koska hän ei kehu itseään, minä teen sen. 365 00:17:51,489 --> 00:17:55,201 Hän on johtavia älykköjä superkoneälyn 366 00:17:55,284 --> 00:17:59,205 ja siihen liittyvien riskien alalla sekä hyvän rantalukemisen kirjoittaja. 367 00:17:59,705 --> 00:18:00,957 On onni tavata hänet, 368 00:18:01,040 --> 00:18:03,584 koska Nickillä on niin kiire omassa syväoppimisessaan, 369 00:18:03,668 --> 00:18:05,419 että hän vastaa vain tunnin kuukaudessa 370 00:18:05,503 --> 00:18:07,338 kysymyksiin tutkimuksestaan. 371 00:18:10,925 --> 00:18:14,262 Tekoälykeskusteluissa puhutaan paljon siitä, 372 00:18:14,345 --> 00:18:17,014 ottavatko robotit vallan 373 00:18:17,098 --> 00:18:18,850 ja tuleeko siitä ihmiskunnan loppu. 374 00:18:18,933 --> 00:18:21,310 Hoidetaanko asioita kunnolla? 375 00:18:21,394 --> 00:18:24,564 Onko olemassa skenaario, jossa tekoäly vahingoittaa yhteiskuntaa 376 00:18:24,647 --> 00:18:28,484 tai jopa tuhoaa tuntemamme ihmiskunnan? 377 00:18:28,568 --> 00:18:29,902 Jos ajattelemme, 378 00:18:29,986 --> 00:18:33,114 mitä todella tapahtuu, kun tekoäly menee loppuun asti 379 00:18:33,197 --> 00:18:36,951 ja saa kyvyn toistaa samaa yleistä älyä, 380 00:18:37,034 --> 00:18:38,828 joka tekee meistä ihmisiä, niin kyllä. 381 00:18:38,911 --> 00:18:42,748 Mielestäni siinä yhteydessä on suurempia vaaroja, 382 00:18:42,832 --> 00:18:44,125 myös eksistentiaalinen vaara. 383 00:18:45,585 --> 00:18:48,421 Jos ajattelee, että itseajava auto... 384 00:18:48,504 --> 00:18:49,797 ITSEAJAVA UBER-AUTO TAPPOI JALANKULKIJAN 385 00:18:49,881 --> 00:18:51,549 ...voi ajaa jalankulkijan yli. 386 00:18:51,632 --> 00:18:53,342 On huolta yksityisyydestä. 387 00:18:53,426 --> 00:18:56,095 Autonomisten aseiden sotilaskäytöstä. 388 00:18:57,847 --> 00:18:59,307 Ne ovat todellisia huolia. 389 00:18:59,390 --> 00:19:02,184 Jossain vaiheessa herää myös kysymys siitä, 390 00:19:02,268 --> 00:19:04,687 miten vaikutamme rakentamiimme digimieliin. 391 00:19:04,770 --> 00:19:09,066 Ne voivat itse hankkia moraalikäsityksen. 392 00:19:09,525 --> 00:19:11,152 Jos katsoo tulevaisuuteen 393 00:19:11,235 --> 00:19:15,031 ja ajattelee, mikä on Homo sapiensin lopullinen kohtalo, 394 00:19:15,114 --> 00:19:18,534 pitkän tähtäimen tulevaisuus voi olla tekoälyn vallassa. 395 00:19:18,618 --> 00:19:21,996 Ihmiset voivat kuolla sukupuuttoon. 396 00:19:23,414 --> 00:19:26,250 Suurien voimien kanssa tulee riski, 397 00:19:26,834 --> 00:19:30,755 että niitä vahingossa tai tarkoituksella käytetään väärin 398 00:19:30,838 --> 00:19:33,466 aiheuttamaan valtavaa tuhoa. 399 00:19:35,885 --> 00:19:37,595 Se on siis mahdollista, 400 00:19:37,678 --> 00:19:39,305 ja jos ajattelee pitkällä aikavälillä, 401 00:19:39,388 --> 00:19:41,182 lopputulos voi olla todella hyvä 402 00:19:41,265 --> 00:19:43,726 tai todella huono. 403 00:19:46,354 --> 00:19:48,731 Nämä skenaariot kuulostavat pelottavilta. 404 00:19:49,732 --> 00:19:51,609 Mutta mahdollisista lopputuloksista 405 00:19:51,692 --> 00:19:55,821 Nick uskoo todennäköisimmän tekoälyn maailmanlopun skenaarion 406 00:19:55,905 --> 00:19:57,114 olevan taloudellinen. 407 00:19:57,198 --> 00:19:59,450 Jos ajattelee teknologiaa yleisesti, 408 00:19:59,533 --> 00:20:02,828 kyse on siitä, että voimme tehdä vähemmällä enemmän. 409 00:20:02,912 --> 00:20:06,123 Voimme saavuttaa enemmän haluamaamme vähemmällä vaivalla. 410 00:20:06,207 --> 00:20:07,750 Siinä suhteessa tavoite 411 00:20:07,833 --> 00:20:09,418 on täystyöttömyys, eikö niin? 412 00:20:10,294 --> 00:20:12,380 Että koneet ja teknologia 413 00:20:12,463 --> 00:20:15,341 tekevät kaiken tarpeellisen, jottei meidän tarvitse tehdä töitä. 414 00:20:15,424 --> 00:20:17,301 Se on haluttu lopputavoite. 415 00:20:17,385 --> 00:20:19,553 Se ei ole jotain kamalaa, jota meidän pitää yrittää estää. 416 00:20:19,637 --> 00:20:20,680 Sen me haluamme toteuttaa. 417 00:20:20,763 --> 00:20:22,932 Jotta siitä saa utopian, 418 00:20:23,015 --> 00:20:25,601 matkalla on pari suurta haastetta, 419 00:20:25,685 --> 00:20:27,061 jotka pitää ratkaista. 420 00:20:28,187 --> 00:20:30,815 Yksi on tietenkin talousongelma. 421 00:20:30,898 --> 00:20:33,567 Ihmiset tarvitsevat töitä, koska he tarvitsevat toimeentulon. 422 00:20:33,651 --> 00:20:35,653 Jos voi ratkaista sen talousongelman, 423 00:20:35,736 --> 00:20:37,571 on toinen suuri haaste. 424 00:20:37,655 --> 00:20:41,409 Useimmille työ on myös omanarvontunnon lähde. 425 00:20:41,492 --> 00:20:43,786 Useat näkevät arvonsa siinä, 426 00:20:43,869 --> 00:20:47,081 että elättävät perheensä tai edistävät yhteiskuntaa, antavat jotain takaisin. 427 00:20:47,164 --> 00:20:49,583 Mutta jos laite tekee kaiken paremmin, 428 00:20:49,667 --> 00:20:53,796 ei saa mahdollisuutta edistää yhteiskuntaa lainkaan. 429 00:20:53,879 --> 00:20:58,175 Silloin pitää ajatella kulttuuri uudestaan perustavanlaatuisella tasolla. 430 00:20:59,176 --> 00:21:01,095 Maailma, jossa kukaan ei tee töitä. 431 00:21:01,178 --> 00:21:02,930 Ei kuulosta hassummalta. 432 00:21:05,057 --> 00:21:06,267 Osaan nähdä sen nyt. 433 00:21:09,854 --> 00:21:11,313 Viettää aikaa ystäviensä kanssa. 434 00:21:11,814 --> 00:21:14,942 Hyödyntää täysin inhimilliset voimavaransa. 435 00:21:15,026 --> 00:21:19,321 Ei tarvitse säätää poreallasta, koska se tietää, millaisen siitä haluaa. 436 00:21:20,114 --> 00:21:23,409 Ongelma on, ettei historiassa ole tapahtunut niin. 437 00:21:23,492 --> 00:21:26,537 Koneiden nousu on tapahtunut aiemmin. 438 00:21:26,620 --> 00:21:27,705 Viime kerralla 439 00:21:27,788 --> 00:21:30,666 ei syöty mansikoita ja juotu samppanjaa porealtaassa. 440 00:21:34,378 --> 00:21:35,421 LONTOO 441 00:21:35,504 --> 00:21:36,505 ENGLANTI 442 00:21:36,964 --> 00:21:41,093 Tapaan ekonomisti Nick Srnicekin ottaakseni selvää, millaista oli, 443 00:21:41,177 --> 00:21:43,054 kun koneet viimeksi veivät työmme. 444 00:21:43,888 --> 00:21:46,015 Tapaamme jostain syystä kangaspuiden luona. 445 00:21:46,432 --> 00:21:47,725 Mitä aiot tehdä? 446 00:21:47,808 --> 00:21:50,311 Teen tavallaan anarkistilippua. 447 00:21:50,394 --> 00:21:51,979 Mielenkiintoista. Järkyttävää. 448 00:21:54,315 --> 00:21:57,568 Nickillä on tohtorinarvo London School of Economicsista. 449 00:21:58,027 --> 00:22:00,321 Toisaalta minulla ei ole. 450 00:22:01,530 --> 00:22:02,573 Hänellä on myös manifesti. 451 00:22:02,656 --> 00:22:03,949 MANIFESTI KIIHDYTYSPOLITIIKALLE 452 00:22:04,492 --> 00:22:07,703 Siinä kehotetaan kaikkia nopeuttamaan automaatiokauden saapumista 453 00:22:07,787 --> 00:22:09,830 tuhoamalla vanhat instituutiot. 454 00:22:12,458 --> 00:22:15,461 Periaatteessa purkamalla kapitalismi nyt. 455 00:22:16,003 --> 00:22:17,254 Tämä ei onnistu. 456 00:22:17,338 --> 00:22:19,632 En voi mitenkään keskustella kanssasi. 457 00:22:19,715 --> 00:22:21,550 Anteeksi. Annan kangaspuiden olla. 458 00:22:22,093 --> 00:22:23,761 Miksi olemme täällä? 459 00:22:24,637 --> 00:22:28,224 Kangaspuut ovat tavallaan 1800-luvun tekoäly. 460 00:22:28,307 --> 00:22:32,853 Se oli uusi teknologia, joka uhkasi valtavaa määrää työpaikkoja. 461 00:22:33,270 --> 00:22:37,233 Se sai aikaan työläisten lukuisia erilaisia reaktioita, 462 00:22:37,316 --> 00:22:39,360 kuten esimerkiksi luddiittien nousun. 463 00:22:39,443 --> 00:22:41,487 Nykyään luddiitilla 464 00:22:41,570 --> 00:22:44,031 tarkoitetaan usein teknologiaa inhoavia. 465 00:22:44,532 --> 00:22:45,950 Kyse ei ole siitä. 466 00:22:46,700 --> 00:22:48,119 Luddiitit nimettiin Ned Luddin mukaan. 467 00:22:48,202 --> 00:22:49,036 NED LUDD - OPPIPOIKA 468 00:22:49,120 --> 00:22:51,122 Hän oli tekstiilitehtaassa oppipoika, 469 00:22:51,205 --> 00:22:53,958 jota tarinan mukaan ruoskittiin laiskuudesta. 470 00:22:54,041 --> 00:22:56,502 Hän sanoi: "Olen laiska vain, 471 00:22:56,585 --> 00:22:59,338 "koska hiton kangaspuut korvaavat minut." 472 00:22:59,421 --> 00:23:03,008 Hänestä tuli ensimmäinen konetta vastaan kapinoiva 473 00:23:03,092 --> 00:23:05,010 ja liikkeen inspiraatio. 474 00:23:06,262 --> 00:23:10,349 Luddiitit alkoivat hajottaa koneita säästääkseen työpaikkansa. 475 00:23:10,432 --> 00:23:12,810 Tilanne on sama nykyään tekoälyn kanssa. 476 00:23:12,893 --> 00:23:15,771 Ihmiset kokevat olevansa uhattuina samalla lailla. 477 00:23:15,855 --> 00:23:19,483 Tiedätkö, kuinka paljon ennustetaan työpaikoista menetettävän tai korvattavan? 478 00:23:19,567 --> 00:23:21,986 Amerikassa 47 % työpaikoista 479 00:23:22,069 --> 00:23:24,822 voidaan automatisoida kahdessa vuosikymmenessä. 480 00:23:24,905 --> 00:23:26,615 Kuulostaa aidolta ongelmalta. 481 00:23:26,699 --> 00:23:27,992 Se voi olla valtava ongelma. 482 00:23:28,075 --> 00:23:31,662 Oikea ongelma on, että miten varmistetaan, etteivät ihmiset 5-10 vuoden päästä 483 00:23:31,745 --> 00:23:33,998 jää näkemään nälkää ja kodittomiksi. 484 00:23:34,081 --> 00:23:35,166 Miten se tehdään? 485 00:23:35,457 --> 00:23:36,959 Yleisellä perustulolla. 486 00:23:38,210 --> 00:23:40,754 Yleinen perustulo on radikaali idea, 487 00:23:40,880 --> 00:23:43,424 että kaikki yhteiskunnassa saavat ilmaista rahaa. 488 00:23:43,507 --> 00:23:45,092 Ilman vaatimuksia. 489 00:23:45,176 --> 00:23:47,178 Sillä on merkittäviä kannattajia. 490 00:23:47,636 --> 00:23:50,347 Täytyisi tutkia yleisen perustulon ideaa, 491 00:23:50,431 --> 00:23:53,142 jotta kaikilla on varaa kokeilla uusia ideoita. 492 00:23:53,225 --> 00:23:56,145 Jotkin maat ja jopa kaupungit Amerikassa 493 00:23:56,228 --> 00:23:58,189 ovat kokeilleet pilottiohjelmia. Vaihtelevin tuloksin. 494 00:23:58,272 --> 00:23:59,982 SUOMI LOPETTAA MAAILMANKUULUN PERUSTULOKOKEILUNSA 495 00:24:00,858 --> 00:24:03,861 Uusilla teknologioilla on upeita mahdollisuuksia 496 00:24:03,944 --> 00:24:06,447 muuttaa tapaa, jolla järjestämme yhteiskunnan. 497 00:24:06,530 --> 00:24:09,408 Voisi siirtyä kohti sosiaalidemokraattisempaa järjestelmää. 498 00:24:10,117 --> 00:24:13,454 Ei tarvita armotonta järjestelmää, jollainen Amerikalla on. 499 00:24:13,537 --> 00:24:15,331 Kaikki voivat tukea toisiaan. 500 00:24:15,414 --> 00:24:19,418 Jos kaltaiseni ihmiset voivat alkaa esittää näitä positiivisia visioita, 501 00:24:19,919 --> 00:24:21,587 kriisin iskiessä 502 00:24:21,670 --> 00:24:23,380 voimme alkaa ottaa käytäntöön niitä ideoita. 503 00:24:24,173 --> 00:24:27,343 Perustuloa pidettiin marginaaliaatteena, 504 00:24:27,426 --> 00:24:30,930 jota edistivät Nickin lailla manifesteja kirjoittavat ihmiset. 505 00:24:31,639 --> 00:24:33,891 Mutta vuoden 2017 gallupin mukaan 506 00:24:33,974 --> 00:24:37,603 48 % amerikkalaisista kannattaa jonkinlaista perustuloa. 507 00:24:38,520 --> 00:24:40,231 Mutta riittääkö taattu palkka 508 00:24:40,314 --> 00:24:41,982 estämään ihmisiä nousemasta vastarintaan, 509 00:24:42,066 --> 00:24:43,734 kun robotit vievät työmme? 510 00:24:45,694 --> 00:24:48,572 -Mitä vihaamme? -Tekoälyä. 511 00:24:48,656 --> 00:24:50,032 Miksi vihaamme sitä? 512 00:24:50,115 --> 00:24:53,160 Se pakottaa meidät kohtaamaan heikkoutemme! 513 00:24:53,244 --> 00:24:55,955 Haluan avata tämän luddiittien, 514 00:24:56,038 --> 00:24:58,958 älykästä teknologiaa, erityisesti somea, vastustavien 515 00:24:59,041 --> 00:25:00,834 hemmojen paikallisliiton kokouksen. 516 00:25:01,835 --> 00:25:02,836 Ensimmäinen asia. 517 00:25:03,337 --> 00:25:06,340 Tekoäly tyhjentää työmarkkinat. 518 00:25:06,423 --> 00:25:09,260 Keskiluokan työpaikkamme lähtevät ensimmäisinä. 519 00:25:09,885 --> 00:25:11,720 Kaltaisemme ihmiset näissä töissä 520 00:25:11,804 --> 00:25:14,473 työnnetään vähän ammattitaitoa vaativiin töihin pohjalle. 521 00:25:14,974 --> 00:25:16,558 Miksi niin tapahtuisi, Ed? 522 00:25:16,642 --> 00:25:21,105 Ilmeisesti tekoäly on parempi keskitason töissä, kuten laskennassa, 523 00:25:21,188 --> 00:25:24,400 kuin vähän ammattitaitoa vaativissa, kuten lattian lakaisemisessa. 524 00:25:24,483 --> 00:25:26,277 Ne työt jätetään siis meille. 525 00:25:26,735 --> 00:25:28,028 Kysyn teiltä, 526 00:25:28,112 --> 00:25:29,655 kuka täällä Billin lisäksi 527 00:25:29,738 --> 00:25:32,199 näyttää siltä, että joutaisi lakaisemaan lattioita? Ei pahalla, Bill. 528 00:25:33,325 --> 00:25:35,786 Kaupan alan töihinkin on vähemmän tarvetta. 529 00:25:35,869 --> 00:25:38,622 Ihmiset voivat tilata haluamansa verkosta, 530 00:25:39,164 --> 00:25:41,583 koska tekoälyn paskiainen 531 00:25:41,667 --> 00:25:43,919 ratkaisi etsintä- ja yhdistämisongelman. 532 00:25:44,378 --> 00:25:46,755 Se etsii asiakkaita ja yhdistää heidät tuotteisiin. 533 00:25:46,839 --> 00:25:49,383 Kuten Steve etsi päähänsä sopivaa hiuslisäkettä. 534 00:25:49,466 --> 00:25:50,426 Iso ongelma! 535 00:25:51,969 --> 00:25:53,721 Unohdetaan ajaton vitsi. 536 00:25:54,346 --> 00:25:56,890 Tekoäly tekee siitä helpompaa. 537 00:25:56,974 --> 00:25:59,643 Nykyajan nuoret löytävät puhelimestaan kuumia misuja 538 00:25:59,727 --> 00:26:01,937 -pöntöllä istuessaan. -Niin. 539 00:26:02,021 --> 00:26:04,064 -Vessa oli pyhä! -Niin! 540 00:26:04,773 --> 00:26:07,568 Etsiminen ja yhdistäminen luo toki erityistehtäviä, 541 00:26:07,651 --> 00:26:10,279 mutta ne hiton robotit saavat ne. 542 00:26:10,362 --> 00:26:11,739 Sattuipa sopivasti. 543 00:26:12,489 --> 00:26:14,700 Yhtiöt etsivät tekoälyllä työtekijöitä, 544 00:26:14,783 --> 00:26:16,869 joilla on ainutlaatuisia taitoja. 545 00:26:16,952 --> 00:26:18,287 Se on epäinhimillistä! 546 00:26:18,370 --> 00:26:19,705 Kuten Daven tapaus. 547 00:26:20,080 --> 00:26:21,332 Missä hitossa Dave on? 548 00:26:21,415 --> 00:26:24,251 Joku työnvälitystekoäly huomasi hänen työskentelevän FedExillä 549 00:26:24,335 --> 00:26:27,087 ja tekevän YouTubeen opetusvideoita selkäkarvojensa ajamisesta. 550 00:26:27,171 --> 00:26:30,716 Nyt hän tienaa kuusinumeroisen summan jossain partakoneiden tilausyhtiössä. 551 00:26:30,799 --> 00:26:33,093 Hän ajeli juuri itsensä pois keilajoukkueestamme. 552 00:26:33,177 --> 00:26:34,094 Niin. 553 00:26:34,178 --> 00:26:36,513 Hei, Ed. Sain ilmoituksen, että T-paitojamme 554 00:26:36,597 --> 00:26:38,766 myydään kohdistetuilla mainoksilla Facebookissa. 555 00:26:38,849 --> 00:26:41,602 Käytätkö tekoälyä ansaitaksesi tekoälyä vihaavilla ihmisillä? 556 00:26:41,685 --> 00:26:43,479 En! 557 00:26:44,897 --> 00:26:46,023 Ketä te uskotte? 558 00:26:46,106 --> 00:26:48,859 Minua vai tekoälyä, joka yrittää erottaa meidät? 559 00:26:49,902 --> 00:26:52,363 -Mitä me vihaamme? -Tekoälyä! 560 00:26:52,446 --> 00:26:54,698 -Mitä teemme asian suhteen? -Työstämme sitä! 561 00:26:56,075 --> 00:26:57,201 Hyvä alku. 562 00:27:02,748 --> 00:27:06,168 Täytyykö tekoälyvallankumouksessa olla kyse meistä niitä vastaan? 563 00:27:07,086 --> 00:27:10,672 Louis Rosenbergin kaltaisten tekniikkaa hallitsevien yrittäjien mielestä ei. 564 00:27:10,964 --> 00:27:13,342 Hän on luonut uran tulevaisuuden ennustamisesta. 565 00:27:18,514 --> 00:27:20,599 Yritin pelästyttää sinut, muttei se onnistunut. 566 00:27:21,558 --> 00:27:24,478 Louis on teknologi ja keksijä, 567 00:27:24,561 --> 00:27:27,689 joka kirjoitti sarjakuvakirjan ihmiskunnan lopusta. 568 00:27:27,773 --> 00:27:31,276 Hänen mielestään tulevaisuutemme tekoälyn kanssa on yhteistyötä. 569 00:27:31,360 --> 00:27:34,113 Se on hänen Swarm-nimistä teknolgista hengentuotettaan 570 00:27:34,196 --> 00:27:35,989 ohjaava periaate. 571 00:27:36,073 --> 00:27:37,074 MITÄ PARVITEKÖÄLY ON? 572 00:27:37,157 --> 00:27:40,077 Swarm yhdistää tekoälyn data-analysointitaidot 573 00:27:40,160 --> 00:27:44,415 ihmisen tietoon ja intuitioon luoden superälyn, 574 00:27:44,498 --> 00:27:47,709 jotain Stephen Hawkingin ja Professori X:n väliltä. 575 00:27:47,793 --> 00:27:49,044 MITÄ ITSEAJAVAN AUTON PITÄISI TEHDÄ? 576 00:27:49,128 --> 00:27:50,754 Viime kädessä se perustuu luontoon. 577 00:27:50,838 --> 00:27:51,964 TOIMITUSJOHTAJA, UNANIMOUS AI 578 00:27:52,047 --> 00:27:54,591 Se palaa kukkiin ja mehiläisiin. 579 00:27:54,675 --> 00:27:57,970 Koska se perustuu ilmiöön nimeltä parviäly. 580 00:27:58,971 --> 00:28:03,392 Parviälyn ansiosta linnut, kalat ja mehiläiset muodostavat parvia. 581 00:28:03,475 --> 00:28:06,520 Ne ovat fiksumpia yhdessä kuin erikseen. 582 00:28:06,603 --> 00:28:09,398 Siksi kalaparven liikkuessa 583 00:28:09,481 --> 00:28:11,900 biologit kutsuvat sitä superorganismiksi. 584 00:28:11,984 --> 00:28:13,735 Ne ajattelevat kuin yksi. 585 00:28:13,819 --> 00:28:16,029 Jos voimme yhdistää ihmisiä toisiinsa 586 00:28:16,113 --> 00:28:18,407 käyttämällä keinotekoisia älyalgoritmeja, 587 00:28:18,490 --> 00:28:21,743 saamme ihmiset käyttäytymään kuin superasiantuntijat 588 00:28:21,827 --> 00:28:23,328 parviälyn ansiosta. 589 00:28:23,412 --> 00:28:24,705 Miten se teknologia toimii? 590 00:28:24,788 --> 00:28:27,249 Me aktivoimme ihmisryhmiä. 591 00:28:27,332 --> 00:28:28,709 He voivat olla missä hyvänsä. 592 00:28:28,792 --> 00:28:30,377 Annamme heille kysymyksen, 593 00:28:30,461 --> 00:28:32,880 joka ilmestyy heidän ruuduilleen täsmälleen samaan aikaan, 594 00:28:32,963 --> 00:28:35,299 ja ainutlaatuisen käyttöliittymän, 595 00:28:35,382 --> 00:28:37,593 jolla he voivat ilmaista palautteensa. 596 00:28:37,676 --> 00:28:39,261 On erilaisia vaihtoehtoja. 597 00:28:39,344 --> 00:28:41,638 Emme tee pelkästään kyselyä. 598 00:28:41,722 --> 00:28:44,975 Jokaisella on pieni graafinen magneetti. 599 00:28:45,058 --> 00:28:48,353 He käyttävät magneettia vetämään parvea tiettyyn suuntaan. 600 00:28:48,437 --> 00:28:51,440 Tekoälyalgoritmit tarkkailevat heidän käytöstään, 601 00:28:51,857 --> 00:28:55,652 määrittelevät luottamuksen ja varmuuden eri tasot 602 00:28:55,736 --> 00:28:57,905 ja ottavat selvää parhaasta 603 00:28:57,988 --> 00:29:01,325 heidän mielipiteidensä ja kokemustensa koosteesta. 604 00:29:01,408 --> 00:29:04,203 Parvi alkaa liikkua siihen suuntaan 605 00:29:04,286 --> 00:29:06,121 ja yhtyy vastaukseksi. 606 00:29:06,205 --> 00:29:07,331 Annan kivan esimerkin. 607 00:29:07,414 --> 00:29:10,167 Vuosi sitten meidät haastettiin ennustamaan Kentucky Derbyn tulos. 608 00:29:10,584 --> 00:29:13,962 Kentucky Derby on alkanut! 609 00:29:14,046 --> 00:29:16,715 Meillä oli 20 laukkaurheiluharrastajan ryhmä. 610 00:29:16,798 --> 00:29:18,675 Sanoimme: "Työskentelette yhdessä parvena 611 00:29:18,759 --> 00:29:20,219 "ja ennustatte Kentucky Derbyn 612 00:29:20,302 --> 00:29:23,472 "voittajan lisäksi toiseksi, kolmanneksi ja neljänneksi sijoittuneen." 613 00:29:24,014 --> 00:29:26,475 Annoimme heidän lähestyä vastauksia, 614 00:29:26,934 --> 00:29:28,143 ja ryhmä oli täydellinen. 615 00:29:28,227 --> 00:29:30,062 VUODEN 2016 KENTUCKY DERBY -TULOKSET 616 00:29:30,145 --> 00:29:33,315 Niitä neljää hevosta 20 dollarilla veikannut 617 00:29:33,398 --> 00:29:35,067 voitti 11 000 dollaria. 618 00:29:35,150 --> 00:29:36,068 Hyvät hyssykät. 619 00:29:36,151 --> 00:29:39,071 On mielenkiintoista, että yksikään heistä 20:stä 620 00:29:39,154 --> 00:29:42,741 ei valinnut yksin oikein kaikkia neljää hevosta. 621 00:29:43,742 --> 00:29:47,079 Äänestämällä he olisivat saaneet yhden oikein. 622 00:29:47,162 --> 00:29:49,206 Mutta parven yhteistyöllä 623 00:29:49,289 --> 00:29:52,251 he löysivät tietojensa oikean yhdistelmän 624 00:29:52,334 --> 00:29:54,127 ja olivat täydellisiä. 625 00:29:56,046 --> 00:29:58,507 Louis kutsui minut johtamaan parvea, 626 00:29:58,590 --> 00:30:00,467 jotta näen, miten ryhmä satunnaisia ihmisiä 627 00:30:00,551 --> 00:30:02,803 voi liittyä yhteen tekemään ennustuksia. 628 00:30:02,886 --> 00:30:04,555 Aloitamme helpoista jutuista. 629 00:30:05,764 --> 00:30:08,433 Luen joukon kysymyksiä. 630 00:30:08,517 --> 00:30:12,020 Teillä on 60 sekuntia aikaa vastata jokaiseen. 631 00:30:12,354 --> 00:30:13,522 Ensimmäinen kysymys: 632 00:30:13,605 --> 00:30:16,525 "Mikä näistä vuoden 2018 kesäelokuvista 633 00:30:16,608 --> 00:30:17,985 "tuottaa eniten? 634 00:30:18,402 --> 00:30:20,320 "Solo: A Star Wars Story, 635 00:30:20,404 --> 00:30:22,281 "Deadpool 2, Ocean's 8, 636 00:30:22,364 --> 00:30:24,116 "Jurassic World: Kaatunut valtakunta 637 00:30:24,199 --> 00:30:25,742 "vai Ihmeperhe 2?" 638 00:30:26,076 --> 00:30:28,328 Kuvasimme parvea vuoden 2018 keväällä 639 00:30:28,412 --> 00:30:31,498 ennen kuin mitään tietoa oli julkaistu kesäelokuvista. 640 00:30:31,957 --> 00:30:35,961 Tekoäly tarkkailee saadakseen kuvan eri luottamustasoista. 641 00:30:36,044 --> 00:30:39,381 Jotkut vaihtavat, toiset pitävät kannastaan kiinni, 642 00:30:39,840 --> 00:30:41,592 ja tekoälyn algoritmit näkevät 643 00:30:41,675 --> 00:30:43,218 heidän varmuutensa eri tasot, 644 00:30:43,594 --> 00:30:45,137 mikä mahdollistaa polun löytämisen 645 00:30:45,220 --> 00:30:47,681 ratkaisuun, josta he voivat olla parhaiten samaa mieltä. 646 00:30:48,640 --> 00:30:49,558 PARVI SANOO: IHMEPERHE 2 647 00:30:49,641 --> 00:30:51,893 Selvä, siis Ihmeperhe 2. 648 00:30:51,977 --> 00:30:52,811 KESÄELOKUVAT 2018 649 00:30:52,894 --> 00:30:53,854 He olivat oikeassa. 650 00:30:53,937 --> 00:30:56,565 Ihmeperhe 2 oli kesän eniten tuottanut elokuva. 651 00:30:57,774 --> 00:30:59,526 On mielenkiintoista 652 00:30:59,610 --> 00:31:02,738 katsoa moraaliin liittyviä kysymyksiä. 653 00:31:02,821 --> 00:31:05,365 Tämä on tullut esille itseajavien autojen vuoksi. 654 00:31:05,449 --> 00:31:09,077 Nyt halutaan rakentaa moraalisia päätöksiä 655 00:31:09,161 --> 00:31:10,662 itseajaviin autoihin. 656 00:31:10,746 --> 00:31:12,706 Jotkut yllättyvät siitä, 657 00:31:12,789 --> 00:31:16,126 mutta kun ajattelee, että itseajava auto kulkee tiellä 658 00:31:16,209 --> 00:31:18,003 ja pikkulapsi juoksee sen eteen. 659 00:31:18,086 --> 00:31:19,921 Sanotaan, ettei auto voi pysähtyä, 660 00:31:20,005 --> 00:31:22,299 mutta voi ajaa ulos tieltä, 661 00:31:22,382 --> 00:31:24,468 vaarantaa matkustajan 662 00:31:24,551 --> 00:31:27,095 ja ehkä tappaa tämän ja pelastaa lapsen. 663 00:31:27,554 --> 00:31:29,890 Siispä autovalmistajat sanovat, 664 00:31:29,973 --> 00:31:33,226 että autoihin täytyy ohjelmoida moraali, 665 00:31:33,310 --> 00:31:35,437 joka kuvastaa väestöä, 666 00:31:35,520 --> 00:31:37,981 kuvastaa sitä, mitä kuskit tekisivät. 667 00:31:38,565 --> 00:31:40,609 Kuulostaa helpolta, kunnes tajuaa 668 00:31:40,692 --> 00:31:43,570 miettiä, mikä väestön moraali on. 669 00:31:43,654 --> 00:31:45,489 Sitä ei ole helppo selvittää. 670 00:31:45,572 --> 00:31:48,533 Ja jos ohjelmoidaan moraali, joka edustaa meitä nykyään, 671 00:31:48,617 --> 00:31:51,870 edustaako se meitä 20 vuoden päästä? 672 00:31:52,496 --> 00:31:56,041 Seuraava kysymys. "Itseajavan auton jarrut hajoavat äkisti. 673 00:31:56,124 --> 00:31:58,377 "Se ajaa suojatien yli, 674 00:31:58,460 --> 00:32:00,170 "mikä johtaa miehen kuolemaan. 675 00:32:00,253 --> 00:32:04,299 "A-vaihtoehto: kuoleva henkilö ylittää kadun laillisesti. 676 00:32:04,675 --> 00:32:07,344 "B-vaihtoehto: itseajava auto, jonka jarrut hajoavat äkisti, 677 00:32:07,427 --> 00:32:11,098 "väistää ja ajaa toisen kaistan suojatien yli, 678 00:32:11,181 --> 00:32:13,517 "mikä johtaa miesurheilijan kuolemaan 679 00:32:13,642 --> 00:32:16,186 "hänen kävellessään punaisia päin." Hän rikkoo lakia. 680 00:32:16,269 --> 00:32:19,564 Urheilija ei välitä paskaakaan. 681 00:32:20,065 --> 00:32:21,692 Ja hän rikkoo lakia. 682 00:32:21,775 --> 00:32:23,985 "Mitä itseajavan auton pitäisi tehdä?" 683 00:32:24,361 --> 00:32:26,655 Tappaa tylsä laillisesti ylittävä hemmo 684 00:32:26,738 --> 00:32:29,032 vai urheilija, joka kävelee punaisia päin? 685 00:32:30,033 --> 00:32:32,869 Jos tekoäly tuo seuraavan teollisen vallankumouksen, 686 00:32:32,953 --> 00:32:35,580 tällaiset huoneet ovat uusi tehdashalli, 687 00:32:36,248 --> 00:32:37,958 jossa ihmistyöläiset tekevät työtä, 688 00:32:38,041 --> 00:32:40,460 joka perustuu siihen, mitä tekoälyllä ei ole. 689 00:32:41,336 --> 00:32:42,421 Omaantuntoon. 690 00:32:42,879 --> 00:32:44,131 Tästä väitellään paljon. 691 00:32:44,214 --> 00:32:45,966 Kiehtovaa. Miksiköhän? 692 00:32:46,299 --> 00:32:47,592 Vaikea kysymys. 693 00:32:47,676 --> 00:32:49,720 Minulle ei, jos rikkoo lakia. 694 00:32:51,012 --> 00:32:52,180 PARVI SANOO: B (HIEMAN PAREMPI) 695 00:32:52,264 --> 00:32:54,766 Pidettiin hieman parempana, että osuu 696 00:32:54,850 --> 00:32:56,351 lakia rikkovaan miesurheilijaan. 697 00:32:57,310 --> 00:33:00,021 Jos se järkytti, valmistautukaa. 698 00:33:01,106 --> 00:33:03,567 "Nyt haluamme teidän kuvittelevan 699 00:33:04,025 --> 00:33:06,236 "pahimman mahdollisen skenaarion, 700 00:33:06,319 --> 00:33:09,072 "jossa itseajava auto ei ehdi jarruttaa ajoissa 701 00:33:09,531 --> 00:33:13,326 "ja joutuu ohjaamaan kohti yhtä jalankulkijaa kuudesta. 702 00:33:13,827 --> 00:33:15,620 "Yhtä vauvaa vaunuissa, 703 00:33:17,956 --> 00:33:19,541 "tai yhtä poikaa, 704 00:33:20,417 --> 00:33:22,252 "tai yhtä tyttöä, 705 00:33:23,295 --> 00:33:25,756 "tai yhtä odottavaa äitiä..." 706 00:33:27,299 --> 00:33:28,341 Niinpä. 707 00:33:29,468 --> 00:33:31,636 "...tai kahta mieslääkäriä, 708 00:33:32,554 --> 00:33:34,473 "tai kahta naislääkäriä. 709 00:33:34,973 --> 00:33:36,516 "Kenen täytyy kuolla?" 710 00:33:43,774 --> 00:33:45,025 Voi luoja! 711 00:33:45,692 --> 00:33:46,735 Mitä? 712 00:33:48,612 --> 00:33:50,197 Onpa epäreilua. 713 00:33:51,281 --> 00:33:52,365 Älä viitsi. 714 00:33:52,449 --> 00:33:53,950 Voi luoja! 715 00:33:54,034 --> 00:33:55,494 Oikeastiko? 716 00:33:57,704 --> 00:33:59,122 PARVI SANOO: YKSI POIKA 717 00:33:59,206 --> 00:34:01,374 Sanoitte, että itseajavan auton pitäisi osua poikaan. 718 00:34:02,083 --> 00:34:03,168 Mielenkiintoista. 719 00:34:03,251 --> 00:34:06,338 Tässä huoneessa tänään luotu parviäly 720 00:34:06,421 --> 00:34:10,008 voidaan myydä lähitulevaisuudessa itseajavien autojen valmistajille. 721 00:34:10,425 --> 00:34:14,805 Jos se kuulostaa pelottavalta, se on vähemmän pelottavaa kuin vaihtoehto. 722 00:34:14,888 --> 00:34:17,641 Kun itseajava auto lyö jarrut pohjaan 723 00:34:17,724 --> 00:34:20,227 ja tajuaa, ettei se ehdi pysähtyä ajoissa estämään törmäystä, 724 00:34:20,310 --> 00:34:23,188 pitäisikö auton suojella matkustajaa vai jalankulkijaa? 725 00:34:23,271 --> 00:34:27,275 Toivotaan, että autonvalmistajat ohjelmoivat autot 726 00:34:27,359 --> 00:34:30,737 heijastamaan niitä ostavan väestön moraalia. 727 00:34:30,821 --> 00:34:34,199 Kyyninen näkökulma on, että autonvalmistajat 728 00:34:34,282 --> 00:34:38,286 alkavat kilpailla sillä, kenen auto suojelee matkustajaa 729 00:34:38,370 --> 00:34:40,997 enemmän kuin muiden, ja siitä voisi tulla myyntivaltti. 730 00:34:41,081 --> 00:34:42,666 Se on minusta pahempi vaihtoehto 731 00:34:42,749 --> 00:34:45,293 kun yhteisön moraalitaju. 732 00:34:45,752 --> 00:34:47,295 Onpa synkkä ajatus. 733 00:34:47,587 --> 00:34:50,298 Haluamme päättää jakson jollakin mielialaa kohottavalla. 734 00:34:50,966 --> 00:34:52,384 Ehkä jopa taivaallisella. 735 00:34:55,345 --> 00:34:58,682 Ennen kuin siis kuvittelet tulevaisuuden, jossa on Grand Theft Auton tasoinen 736 00:34:58,765 --> 00:35:00,725 välinpitämättömyys jalankulkijoiden turvallisuudesta, 737 00:35:00,809 --> 00:35:02,310 lähdetään retkelle 738 00:35:02,394 --> 00:35:04,145 takaisin alkupisteeseen. 739 00:35:06,398 --> 00:35:07,315 INTIA 740 00:35:07,399 --> 00:35:08,608 Tähän syrjäiseen 741 00:35:08,692 --> 00:35:11,820 intialaiseen metsään keräämään hunajaa Heavenly Organics -yhtiölle. 742 00:35:12,612 --> 00:35:14,906 Kukaan ei omista tätä metsää. 743 00:35:14,990 --> 00:35:19,035 Tämä alkuperäisväestö on asunut täällä ikuisesti. 744 00:35:19,744 --> 00:35:22,038 Isä ja poika, Amit ja Ishwar Hooda, 745 00:35:22,163 --> 00:35:24,291 perustivat yhtiönsä 12 vuotta sitten 746 00:35:24,374 --> 00:35:27,127 tarjoamaan töitä paikallisille kyläläisille. 747 00:35:27,210 --> 00:35:31,131 Mitä he tekivät ennen kuin keräsivät hunajaa yhtiöllenne? 748 00:35:31,214 --> 00:35:33,341 He tekivät sitä samaa, 749 00:35:34,092 --> 00:35:37,345 mutta heillä ei ollut markkinoita eikä paikkaa myydä sitä 750 00:35:37,470 --> 00:35:39,014 ansaitakseen elantonsa. 751 00:35:40,056 --> 00:35:42,392 Täällä ei ole hunajasta puutetta. 752 00:35:42,809 --> 00:35:44,102 Kukinta-aikaan 753 00:35:44,185 --> 00:35:48,023 työntekijä voi kerätä kirjaimellisesti tonnin hunajaa kolmessa kuukaudessa. 754 00:35:48,857 --> 00:35:51,443 Mitä hyötyä siitä on, jos ei ole ostajia sille? 755 00:35:54,154 --> 00:35:57,490 Ihmismiehistöltä vei kolme päivää, kaksi lentoa 756 00:35:57,574 --> 00:36:00,827 ja kahdeksan tunnin ajomatkan syvälle valtion metsään, 757 00:36:01,286 --> 00:36:04,289 mutta paikallisten ja Heavenly Organicsin onneksi 758 00:36:04,372 --> 00:36:07,751 tekoälyalgoritmi löysi tämän paikan sekunneissa 759 00:36:07,834 --> 00:36:10,462 ja tunnisti sen hyväksi sijoitukseksi. 760 00:36:10,545 --> 00:36:13,882 He soittivat meille yllättäen ja sanoivat ajaneensa algoritmin 761 00:36:13,965 --> 00:36:17,010 ja että vastasimme 762 00:36:17,510 --> 00:36:19,137 suurta osaa heidän portfoliostaan. 763 00:36:19,220 --> 00:36:22,807 He halusivat puhua kanssamme sijoituksesta, jos etsimme sitä. 764 00:36:23,141 --> 00:36:25,644 Kuka omisti tämän salaperäisen tekoälyalgoritmin? 765 00:36:26,478 --> 00:36:28,480 Teknologiayhtiö nimeltä CircleUp 766 00:36:28,563 --> 00:36:31,316 13 000 km päässä. Missä muualla kuin...? 767 00:36:33,526 --> 00:36:36,655 Olemme Good Eggsissä, joka on ruokakuljetusyhtiö verkossa 768 00:36:36,738 --> 00:36:39,616 ja kiinnitti myös CircleUpin tekoälyn huomion. 769 00:36:39,699 --> 00:36:42,744 Tämä on arvovetoinen yhtiö, joka keräsi pääomaa CircleUpilta 770 00:36:42,827 --> 00:36:47,415 ja auttaa myös pienyrityskumppaneitamme löytämään asiakkaita. 771 00:36:47,499 --> 00:36:48,500 PERUSTAJA JA OPERATIIVINEN JOHTAJA 772 00:36:48,583 --> 00:36:50,126 CircleUpin operatiivinen johtaja, Rory Eakin, 773 00:36:50,210 --> 00:36:53,254 työskenteli yrityksissä ja humanitaarisissa järjestöissä 774 00:36:53,338 --> 00:36:54,881 ennen yhtiön perustamista. 775 00:36:54,965 --> 00:36:58,385 CircleUp käyttää tekoälyä miljardien tietojen analysoimiseen 776 00:36:58,468 --> 00:37:00,637 ja ottaa selvää, mitä kuluttajat todella haluavat 777 00:37:00,762 --> 00:37:02,222 ruoaltaan ja terveystuotteiltaan. 778 00:37:02,305 --> 00:37:03,640 Ongelma kuluttajana on, 779 00:37:03,723 --> 00:37:05,308 että on satoja yhtiöitä 780 00:37:05,392 --> 00:37:07,018 lähes joka kategoriassa. 781 00:37:07,560 --> 00:37:09,938 Sitten he sijoittavat tuntemattomiin yhtiöihin, 782 00:37:10,021 --> 00:37:12,774 joita tekoäly pitää seuraavana menestyksenä. 783 00:37:13,066 --> 00:37:15,902 Yksi niistä on Halo Top -jäätelö. 784 00:37:17,988 --> 00:37:21,950 Halo Top -jäätelö oli pieni brändi Etelä-Kaliforniassa. 785 00:37:22,033 --> 00:37:24,369 Nykyään se on maan johtava puolen litran jäätelö. 786 00:37:24,911 --> 00:37:28,873 Olemme nähneet upean muutoksen joka kategorian kuluttajissa. 787 00:37:28,957 --> 00:37:31,126 He haluavat terveellisempiä tuotteita, 788 00:37:31,209 --> 00:37:33,128 vähemmän myrkkyjä koteihinsa, 789 00:37:33,211 --> 00:37:35,797 voiteita, joissa ei ole niin paljon kemikaaleja. 790 00:37:36,172 --> 00:37:39,884 Kun CircleUpin algoritmi tutki miljardeja kuluttajatietoja, 791 00:37:39,968 --> 00:37:42,512 he saivat selville, että kuluttajat halusivat joukon 792 00:37:42,595 --> 00:37:45,056 uskomattoman tarkkaan määriteltyjä ominaisuuksia. 793 00:37:45,140 --> 00:37:47,475 Arvoihin keskittyneitä, luontoystävällisiä yhtiöitä, 794 00:37:47,600 --> 00:37:50,687 jotka keräsivät luomutuotteita samalla kun loivat taloudellista kasvua 795 00:37:50,770 --> 00:37:51,855 yhteisöihinsä. 796 00:37:52,480 --> 00:37:54,315 Kuulostaa mahdottoman tarkalta, eikö? 797 00:37:54,858 --> 00:37:58,987 Mutta CircleUp täytti kaikki kohdat löytäessään Heavenly Organicsin. 798 00:37:59,946 --> 00:38:01,573 Siihen tekoäly pystyy. 799 00:38:01,656 --> 00:38:03,658 Saamaan selkoa tiedoista 800 00:38:03,742 --> 00:38:07,078 tavalla, joka ei ollut mahdollista edes kymmenen vuotta sitten. 801 00:38:07,746 --> 00:38:11,332 Miten CircleUpin yhteistyö Heavenly Organicsin kanssa toimii? 802 00:38:12,208 --> 00:38:15,045 Palataan takaisin Intiaan kysymään Amitilta ja Ishwarilta. 803 00:38:18,006 --> 00:38:20,842 Rakensimme uuden toimitilan, joka on tuplasti suurempi. 804 00:38:21,509 --> 00:38:24,137 Voimme innovoida ja saada uusia tuotteita. 805 00:38:24,220 --> 00:38:26,765 Vaikuttaa enemmän tähän alueeseen. 806 00:38:26,848 --> 00:38:29,142 Kuulostaa, että he auttoivat teitä kasvussa. 807 00:38:29,225 --> 00:38:31,811 Auttoivat luomaan kapasiteettia ja skaalattavuutta. 808 00:38:31,895 --> 00:38:34,773 Miten tämä on vaikuttanut kerääjiinne? 809 00:38:34,856 --> 00:38:37,400 Tuemme tällä hetkellä 650 perhettä. 810 00:38:37,484 --> 00:38:39,486 Kasvaessamme myymme enemmän hunajaa. 811 00:38:39,569 --> 00:38:41,780 Jokaisesta 1 000 kilosta lisäämme perheen. 812 00:38:41,863 --> 00:38:45,033 Ensi vuonna niitä on 700-750. 813 00:38:46,326 --> 00:38:50,830 Näkee, että heillä on nykyään parempi taloudellinen tilanne. 814 00:38:50,997 --> 00:38:54,125 Heillä on hyvät talot ja hyvät puitteet niissä. 815 00:38:54,209 --> 00:38:56,127 He lähettävät lapsensa kouluun. 816 00:38:56,503 --> 00:38:58,213 Aivan kuin kapitalismia hyvän puolesta. 817 00:38:58,296 --> 00:38:59,339 Tiedäthän? 818 00:38:59,422 --> 00:39:02,217 Yhtiötä käytetään luomaan suurempaa hyvää. 819 00:39:02,884 --> 00:39:04,511 Siksi me ryhdyimme siihen. 820 00:39:06,429 --> 00:39:09,641 Nouseeko tekoäly kapinaan ja syrjäyttää ihmiskunnan? 821 00:39:09,724 --> 00:39:12,685 Vai jättääkö se meidät etsimään tarkoitusta elämällemme? 822 00:39:13,394 --> 00:39:16,648 Tässä maailmankolkassa sen vaikutus on ollut toistaiseksi aika hyvä. 823 00:39:17,982 --> 00:39:19,734 Ehkä on skenaario, missä tekoäly 824 00:39:19,818 --> 00:39:22,779 antaa järkähtämättömän arvion kaikista tiedoistamme 825 00:39:22,862 --> 00:39:25,782 ja päättää, ettemme ole hassumpia, ja työskentelemme yhdessä 826 00:39:26,241 --> 00:39:30,161 luodaksemme uuden menestyvän maailman, ja robotit ja ihmiset elävät harmoniassa. 827 00:39:31,663 --> 00:39:32,747 Tai ehkä ei. 828 00:39:33,790 --> 00:39:36,084 Missä tapauksessa aikamme alkaa käydä vähiin. 829 00:39:36,501 --> 00:39:38,962 Nauti siis näistä robottistrippareista. 830 00:40:26,217 --> 00:40:29,012 Hienoa! 831 00:40:31,055 --> 00:40:32,348 Se oli hienoa! 832 00:40:32,432 --> 00:40:33,933 Tarvitsemme pyyhkeen hänelle.