1 00:00:08,927 --> 00:00:11,930 Jeg er her på Wall Street, der det hele startet. 2 00:00:13,724 --> 00:00:17,186 6. mai 2010, kl. 14.45 3 00:00:17,686 --> 00:00:21,190 slapp en fyr som satt hjemme hos sine foreldre i London, 4 00:00:21,273 --> 00:00:24,985 en algoritme ut på New York-børsen 5 00:00:25,068 --> 00:00:27,279 med en salgsordre verdt én milliard. 6 00:00:28,697 --> 00:00:30,449 Planen var å lure markedet 7 00:00:30,532 --> 00:00:32,659 og avbryte ordren før den ble gjennomført. 8 00:00:33,160 --> 00:00:34,411 Men før det kunne skje, 9 00:00:34,495 --> 00:00:37,247 begynte resten av verdens automatiserte aksjehandlingsboter 10 00:00:37,331 --> 00:00:38,582 også å selge, 11 00:00:39,041 --> 00:00:42,336 noe som startet en kjedereaksjon som påvirket markedet sterkt. 12 00:00:44,880 --> 00:00:48,967 Dow Jones Industrial gikk ned 1000 poeng på bare 15 minutter. 13 00:00:49,051 --> 00:00:52,513 Det er nesten like stort som nedgangen som førte til de harde trettiåra. 14 00:00:52,596 --> 00:00:55,307 Hva pokker foregår her nede? Jeg vet ikke. 15 00:00:55,390 --> 00:00:56,642 Det er frykt i markedet. 16 00:00:57,267 --> 00:00:59,645 Avlys cruiset, send barna på offentlig skole. 17 00:01:00,938 --> 00:01:02,481 Vi har et børskrakk. 18 00:01:03,023 --> 00:01:04,066 Vel, faen. 19 00:01:05,359 --> 00:01:08,111 Trettiseks minutter senere hentet markedet seg opp igjen. 20 00:01:08,195 --> 00:01:11,615 Men børskrakket i 2010 markerte første gang 21 00:01:11,698 --> 00:01:15,994 mennesker fikk et skremmende glimt 22 00:01:16,078 --> 00:01:19,164 av hvordan KI skulle ta over finanssystemet vårt. 23 00:01:20,707 --> 00:01:22,167 Og dere burde se hvordan det er nå. 24 00:01:24,086 --> 00:01:26,922 Det er derfor jeg er her i India, på jakt etter villhonning. 25 00:01:27,631 --> 00:01:28,966 Men mer om det senere. 26 00:01:29,341 --> 00:01:31,885 For å forstå hvordan KI fant dette stedet eller hvorfor, 27 00:01:31,969 --> 00:01:34,429 må dere først forstå hva KI er. 28 00:01:34,513 --> 00:01:36,431 Og om du tror du alt vet det, vedder jeg på at du tar feil. 29 00:01:37,850 --> 00:01:41,436 Enten man liker det eller ei, er vi alle forbundet av penger. 30 00:01:41,937 --> 00:01:45,315 Jeg heter Kal Penn, jeg utforsker dette store udyret 31 00:01:45,691 --> 00:01:48,068 som er den globale økonomien. 32 00:01:48,151 --> 00:01:49,403 Dette store udyret som er den globale økonomien 33 00:01:52,322 --> 00:01:54,199 Så hva er KI? 34 00:01:54,867 --> 00:01:58,579 Jeg er i San Francisco for å først slå fast hva det ikke er, 35 00:01:58,662 --> 00:02:01,874 som er nesten alt dere har hørt om fra science fiction. 36 00:02:02,541 --> 00:02:03,542 Spesielt... 37 00:02:03,959 --> 00:02:07,004 Digre roboter! 38 00:02:27,107 --> 00:02:28,442 Herregud! 39 00:02:30,485 --> 00:02:32,112 Jeg er her med Julia Bossman, 40 00:02:32,237 --> 00:02:36,575 som sitter i Verdens økonomiske forums råd for kunstig intelligens, 41 00:02:36,658 --> 00:02:40,329 der hun gir verdensledere råd om hvordan de effektivt kan bruke KIs potensiale. 42 00:02:40,829 --> 00:02:44,499 Jobben har enda bedre fordeler enn å få se biler bli ødelagt. 43 00:02:44,583 --> 00:02:47,586 Som å ta bilde med Canadas største sexsymbol som ikke heter Drake. 44 00:02:47,669 --> 00:02:48,754 CANADAS STATSMINISTER 45 00:02:53,467 --> 00:02:55,385 Hvordan skal du komme deg hjem etter dette? 46 00:02:55,469 --> 00:02:56,803 Jeg tror den er kjørbar. 47 00:03:01,016 --> 00:03:03,018 Vi møtes hos et firma ved navn MegaBots, 48 00:03:03,101 --> 00:03:05,854 der de bygger store roboter for å kjempe imot andre roboter. 49 00:03:07,814 --> 00:03:10,275 Som en enda mer nerdete Medieval Times. 50 00:03:13,779 --> 00:03:14,905 Ifølge Julia 51 00:03:14,988 --> 00:03:17,658 er disse robotene ikke bare ubrukelige fornøyelsespark-attraksjoner. 52 00:03:18,283 --> 00:03:22,412 De er teknologiske dinosaurer på grunn av én viktig distinksjon. 53 00:03:24,289 --> 00:03:25,582 I disse robotene er vi hjernene, 54 00:03:25,666 --> 00:03:27,626 men KI er de kunstige hjernene. 55 00:03:27,709 --> 00:03:28,752 VERDENS ØKONOMISKE FORUM, KI-EKSPERT 56 00:03:28,835 --> 00:03:29,711 Interessant. Kan du si mer om det? 57 00:03:29,795 --> 00:03:32,506 Vi lager datamaskiner 58 00:03:32,589 --> 00:03:34,132 som kan lære ting selv nå. 59 00:03:34,591 --> 00:03:37,010 Og de trenger ikke nødvendigvis å ha kropper. 60 00:03:37,344 --> 00:03:40,055 Så mye av KI-en vi har bygget allerede, 61 00:03:40,138 --> 00:03:41,765 bor i store datasenter. 62 00:03:42,057 --> 00:03:46,645 Så, om du måtte forklare det til noen på 13 år, 63 00:03:46,728 --> 00:03:48,146 hvordan ville du forklare KI? 64 00:03:48,230 --> 00:03:50,691 En veldig generell definisjon kan være at 65 00:03:50,774 --> 00:03:54,945 KI får maskiner til å gjøre ting 66 00:03:55,028 --> 00:03:58,156 som vi ikke spesifikt programmerte dem til å gjøre. 67 00:03:58,240 --> 00:03:59,616 I tradisjonell programmering 68 00:03:59,700 --> 00:04:02,744 har man et sett regler og algoritmer 69 00:04:02,828 --> 00:04:04,413 og et sett med "om ditt, så datt". 70 00:04:04,496 --> 00:04:07,165 Og det blir lagt frem av menneskene som programmerer det. 71 00:04:07,249 --> 00:04:09,501 Om du ser på medisinsk litteratur, 72 00:04:09,584 --> 00:04:12,004 består én database av millioner av innføringer, 73 00:04:12,087 --> 00:04:14,923 og ingen doktor kunne lese alle de forskningsartiklene 74 00:04:15,048 --> 00:04:17,676 for å holde seg oppdatert, men en maskin kan gjøre det. 75 00:04:17,759 --> 00:04:20,220 Så du kan se for deg at en maskin kommer med nye ideer 76 00:04:20,303 --> 00:04:21,596 om hvordan man løser problemer 77 00:04:21,680 --> 00:04:24,766 eller oppdager nye legemidler som kan kurere sykdommer. 78 00:04:24,850 --> 00:04:25,976 Jøss. Ok. 79 00:04:26,059 --> 00:04:28,395 Det området innen kunstig intelligens 80 00:04:28,478 --> 00:04:30,856 som er mest spennende akkurat nå 81 00:04:30,939 --> 00:04:32,065 heter dyp læring. 82 00:04:32,149 --> 00:04:33,608 Hva er dyp læring? 83 00:04:33,692 --> 00:04:36,069 Dyp læring er når vi har 84 00:04:36,153 --> 00:04:39,072 flere dype lag med nevrale nettverk 85 00:04:39,156 --> 00:04:42,242 som ligner på det vi har i hjernene våre. 86 00:04:42,325 --> 00:04:45,579 I hodene våre har vi mange nevroner som er koblet sammen 87 00:04:45,662 --> 00:04:46,788 og som utveksler informasjon, 88 00:04:46,830 --> 00:04:50,751 og vi simulerer på en måte det i maskiner. 89 00:04:50,834 --> 00:04:54,546 Vi mater inn data på en balansert og upartisk måte, 90 00:04:54,629 --> 00:04:56,214 så den også lærer. 91 00:04:56,548 --> 00:04:59,009 Med bildegjenkjenning sier vi for eksempel 92 00:04:59,092 --> 00:05:01,511 dette er bilder av katter, dette er bilder av hunder 93 00:05:01,595 --> 00:05:03,972 og så begynner de å gå gjennom bildene 94 00:05:04,056 --> 00:05:06,349 og lærer å kjenne dem igjen selv. 95 00:05:06,433 --> 00:05:10,187 Så vi må ikke programmere hver eneste bit inn i det. 96 00:05:10,228 --> 00:05:11,229 Interessant. 97 00:05:11,313 --> 00:05:14,107 Og det finnes maskinlæring som ikke er dyp læring. 98 00:05:14,858 --> 00:05:16,985 Det finnes evolusjonære algoritmer 99 00:05:17,069 --> 00:05:19,863 der vi tar et prinsipp fra evolusjon, 100 00:05:19,946 --> 00:05:24,242 lar maskinen prøve forskjellige instanser 101 00:05:24,743 --> 00:05:27,329 og så ser vi hvilken som fungerer best. 102 00:05:27,412 --> 00:05:31,291 Så får de som fungerer best, gå videre til den neste generasjonen. 103 00:05:31,374 --> 00:05:34,336 Akkurat som organismer utvikler seg, bruker vi fastsatte prinsipper der 104 00:05:34,419 --> 00:05:37,172 de sterkeste og beste programmene overlever. 105 00:05:37,255 --> 00:05:38,381 Jøss, ok. 106 00:05:38,465 --> 00:05:40,550 Så de er evolusjonære algoritmer. 107 00:05:40,926 --> 00:05:44,346 Og hva er den finansielle interessen i å utforske KI? 108 00:05:44,429 --> 00:05:47,724 Det må ha en utrolig potensiell påvirkning på økonomien. 109 00:05:47,808 --> 00:05:50,393 Ja, jeg tror det vil endre økonomien radikalt, 110 00:05:50,477 --> 00:05:53,313 og vi snakker om en ny industriell revolusjon. 111 00:05:53,396 --> 00:05:54,231 Interessant. 112 00:05:54,314 --> 00:05:55,774 Det har blitt kalt vår siste oppfinnelse, 113 00:05:55,857 --> 00:05:58,944 for når vi har en kunstig hjerne som er smartere enn oss, 114 00:05:59,027 --> 00:06:00,779 kan den finne opp flere ting for oss. 115 00:06:00,862 --> 00:06:03,865 Blir den kalt den siste oppfinnelsen fordi den vil drepe oss alle? 116 00:06:04,950 --> 00:06:06,118 Forhåpentligvis ikke. 117 00:06:08,829 --> 00:06:12,207 Mange er redde for at kunstig intelligens skal bli for smart 118 00:06:12,290 --> 00:06:15,001 og drepe oss alle. Men ikke vær redd. 119 00:06:15,085 --> 00:06:19,047 En av grunnen til at KI er så smart, er at den er pokker så dum. 120 00:06:19,464 --> 00:06:20,549 Kom hit, KI. 121 00:06:21,299 --> 00:06:24,302 Se for deg at du ba KI finne den perfekte kakeoppskriften 122 00:06:24,386 --> 00:06:26,179 ved å bruke evolusjonære algoritmer. 123 00:06:27,973 --> 00:06:30,517 Ki ville ikke prøve å finne den beste måten å lage den på. 124 00:06:30,600 --> 00:06:33,520 Den ville bare prøve flere milliarder ganger, 125 00:06:33,603 --> 00:06:37,482 med alle ingrediensene på kjøkkenet på de dummest muligste måtene. 126 00:06:38,441 --> 00:06:40,652 De fleste vil, så klart, være dømt til å feile. 127 00:06:42,320 --> 00:06:43,613 Denne vil garantert det. 128 00:06:44,447 --> 00:06:45,657 Godt forsøk, idiot. 129 00:06:46,616 --> 00:06:50,162 Å feile skader ikke KIs følelser. Den har ingen følelser. 130 00:06:50,745 --> 00:06:53,123 Det flotte ved evolusjonære algoritmer 131 00:06:53,206 --> 00:06:56,293 er at ved å prøve alle disse tilsynelatende dumme metodene, 132 00:06:56,376 --> 00:06:58,044 kan den snuble over en løsning 133 00:06:58,128 --> 00:07:01,464 til et kulinarisk problem ingen rasjonelle mennesker ville prøve å løse, 134 00:07:01,548 --> 00:07:04,176 som å lage en overlegen vegansk kake. 135 00:07:04,259 --> 00:07:05,302 Jeg laget en kake. 136 00:07:06,178 --> 00:07:07,554 Bra jobbet, KI. 137 00:07:07,637 --> 00:07:09,097 Den består mest av cashewnøtter. 138 00:07:09,931 --> 00:07:13,143 Ville du ha kommet på å bruke cashewnøtter? Så klart ikke! 139 00:07:13,226 --> 00:07:16,521 Det ville vært dumt, noe KI er villig til å være, 140 00:07:16,605 --> 00:07:18,190 så du slipper. 141 00:07:18,273 --> 00:07:21,067 Vil denne idioten utvikle seg til noe så smart 142 00:07:21,151 --> 00:07:23,653 at det kan ta over verden og drepe oss alle? 143 00:07:24,196 --> 00:07:25,280 Vanskelig å si helt sikkert. 144 00:07:25,363 --> 00:07:26,740 Jeg lærer utskytningskoder. 145 00:07:27,657 --> 00:07:28,992 Men i mellomtiden... 146 00:07:29,993 --> 00:07:31,077 Spis litt kake. 147 00:07:35,165 --> 00:07:36,541 Selv om jeg fortsatt er bekymret 148 00:07:36,625 --> 00:07:39,461 for at KI skal skape flere problemer enn det løser, 149 00:07:41,004 --> 00:07:43,757 er ekspertene enige i at det vil øke produktivitet 150 00:07:43,840 --> 00:07:47,636 i områder som helseomsorg, transport og finans, 151 00:07:47,719 --> 00:07:51,848 det vil øke globalt BNP med 15,7 billioner dollar innen 2030. 152 00:07:52,474 --> 00:07:56,478 Det er mer enn Kinas og Indias sammenlagte nåværende BNP. 153 00:07:59,898 --> 00:08:02,275 Så hvor viktig er KI? 154 00:08:02,943 --> 00:08:06,404 Jeg mener det er én av de tre viktigste tingene i menneskenes historie. 155 00:08:06,488 --> 00:08:07,697 Menneskenes historie? 156 00:08:07,781 --> 00:08:08,990 Hele menneskenes historie. 157 00:08:09,616 --> 00:08:11,368 Jeg er her med Andrew McAfee, 158 00:08:11,451 --> 00:08:15,664 en av verdens ledende eksperter i hvordan ny teknologi forandrer økonomier 159 00:08:15,747 --> 00:08:19,542 og etter det: Hele menneskehetens samfunn. 160 00:08:20,460 --> 00:08:22,212 Om du vil lage en graf over menneskenes historie, 161 00:08:22,295 --> 00:08:24,214 finner du ut at i tusenvis av år 162 00:08:24,297 --> 00:08:26,258 skjedde det ingenting. Streken ville være flat. 163 00:08:26,341 --> 00:08:28,093 MED-DIREKTØR FOR MITS INSTITUTT FOR DIGITAL ØKONOMI 164 00:08:28,176 --> 00:08:30,845 Det ser helt ut som det er dødt. 165 00:08:30,929 --> 00:08:32,514 Og plutselig, på et punkt i tiden, 166 00:08:32,597 --> 00:08:34,933 gikk grafen av menneskenes historie, det har ikke noe å si hva du ser på, 167 00:08:35,016 --> 00:08:38,144 den gikk fra kjedelig horisontalt til helt vilt vertikal 168 00:08:38,228 --> 00:08:39,771 -bare på et øyeblikk. -Ok. 169 00:08:39,854 --> 00:08:41,481 Det skjedde rundt 1800, 170 00:08:41,564 --> 00:08:45,443 på grunn av først dampmaskinen, så elektrisitet. 171 00:08:47,821 --> 00:08:50,782 Elektrisitet førte til noen ganske åpenbare ting, ikke sant? 172 00:08:50,865 --> 00:08:53,827 Det ga oss sporvogner, undergrunnstog. 173 00:08:53,910 --> 00:08:57,080 Mindre åpenbart ga det oss vertikale byer heller enn horisontale. 174 00:08:57,163 --> 00:08:58,373 -Gjorde elektrisitet det? -Absolutt. 175 00:08:58,456 --> 00:08:59,749 -Man trenger heiser. -Heiser, ok. 176 00:08:59,833 --> 00:09:01,543 Man har ikke bare vertikale byer. 177 00:09:01,626 --> 00:09:03,878 Man kan ikke gå opp 80 trapper hver dag. 178 00:09:03,962 --> 00:09:06,506 Så disse to industrielle revolusjonene med damp 179 00:09:06,589 --> 00:09:09,259 og den fine kombinasjonen av elektrisitet og forbrenningsmotorer 180 00:09:09,342 --> 00:09:11,011 endret bokstavelig talt menneskehistorien. 181 00:09:11,094 --> 00:09:12,804 -Det er bare én måte å se det på. -Ja visst. 182 00:09:12,887 --> 00:09:15,974 Og dette var alle teknologiene som lot oss overkomme begrensingene 183 00:09:16,057 --> 00:09:17,100 -ved musklene våre. -Ok. 184 00:09:17,183 --> 00:09:20,562 Det som skjer med KI, er at vi overvinner begrensingene 185 00:09:20,645 --> 00:09:22,564 til våre individuelle hjerner, til åndskraften vår. 186 00:09:22,647 --> 00:09:24,607 FARE HØYSPENNING 187 00:09:24,691 --> 00:09:26,484 Vi har vanskelige utfordringer som vi jobber med. 188 00:09:26,568 --> 00:09:28,236 Virkelig vanskelige utfordringer. 189 00:09:28,320 --> 00:09:29,696 Vi burde kurere kreft. 190 00:09:29,779 --> 00:09:31,406 Vi burde gi flere mennesker mat. 191 00:09:31,489 --> 00:09:33,950 Vi burde slutte å koke planeten i det 21. århundre. 192 00:09:34,034 --> 00:09:36,328 Det er utrolig kompliserte ting. 193 00:09:36,411 --> 00:09:38,747 Og hjernene våre jobber hardt med den kompleksiteten. 194 00:09:38,830 --> 00:09:41,708 Vi gjør det med vitenskap, vi gjør det med å samle kunnskap, 195 00:09:41,791 --> 00:09:44,044 men kompleksiteten er overveldende. 196 00:09:44,127 --> 00:09:45,420 Måten jeg tenker på KI på, 197 00:09:45,503 --> 00:09:48,506 er at vi faktisk har en veldig kraftig ny kollega 198 00:09:48,590 --> 00:09:51,676 som kan hjelpe oss gjøre innhugg i den svære kompleksiteten, 199 00:09:51,760 --> 00:09:54,637 for det disse nye teknologiene er så gode til, 200 00:09:54,721 --> 00:09:59,684 er å se selv svake mønstre i overveldende store mengder data. 201 00:09:59,768 --> 00:10:01,603 Mer enn du og jeg kan ta inn. 202 00:10:01,686 --> 00:10:03,897 Ett av de villeste eksemplene jeg har hørt i det siste, 203 00:10:03,980 --> 00:10:05,106 var innen finans, 204 00:10:05,190 --> 00:10:07,650 og fremveksten av det de kaller robo-rådgivere, 205 00:10:07,734 --> 00:10:09,361 som bare er en algoritme 206 00:10:09,444 --> 00:10:11,696 som setter sammen investeringsporteføljen din. 207 00:10:11,780 --> 00:10:13,031 Til nå 208 00:10:13,114 --> 00:10:15,325 har man måtte ha en viss velstand 209 00:10:15,408 --> 00:10:18,745 bare for å slippe inn på kontoret til finansrådgivere og -planleggere. 210 00:10:18,828 --> 00:10:20,872 -Greit. -Ja, det endrer seg raskt. 211 00:10:20,955 --> 00:10:25,210 Med ting som robo-rådgiving kan folk med mindre og mindre rikdom 212 00:10:25,293 --> 00:10:28,963 få tilgang til super-kraftige, nyskapende verktøy 213 00:10:29,047 --> 00:10:31,299 som kan forbedre deres økonomiske liv. 214 00:10:31,383 --> 00:10:34,302 Det er spennende, spesielt siden det virker som vi alltid har hatt 215 00:10:34,386 --> 00:10:37,555 folk som er villige til å bruke disse tingene til å gjøre skade. 216 00:10:37,639 --> 00:10:40,225 Jeg sier ikke at det ikke er noe å bekymre seg for. 217 00:10:40,308 --> 00:10:42,852 Og det vi vet fra tidligere industrielle revolusjoner, 218 00:10:42,936 --> 00:10:44,687 er at de brakte noen fæle ting med seg. 219 00:10:44,771 --> 00:10:49,150 Vi mekaniserte krigføring med alle disse industrielle teknologiene. 220 00:10:49,234 --> 00:10:52,529 Vi forurenset virkelig miljøet. 221 00:10:52,612 --> 00:10:54,364 Vi gjorde noen alvorlige feil, 222 00:10:54,447 --> 00:10:57,951 som barnearbeid i stor skala, på grunn av den industrielle revolusjonen. 223 00:10:58,034 --> 00:11:01,079 Så det er ikke perfekt til alle tider. 224 00:11:01,162 --> 00:11:03,748 Og det samme vil skje denne gangen. 225 00:11:04,249 --> 00:11:05,291 Pokker. 226 00:11:06,918 --> 00:11:08,586 Nå fikk McAfee meg til å tenke. 227 00:11:08,670 --> 00:11:10,547 Hva om historien gjentas 228 00:11:10,630 --> 00:11:13,591 og KI omformer samfunnet på alle de gale måtene? 229 00:11:14,467 --> 00:11:18,430 Som omfattende forurensing og bittesmå sotete kollegaer? 230 00:11:19,931 --> 00:11:21,891 Hva med de moralske og etiske spørsmålene 231 00:11:21,975 --> 00:11:24,227 som dukker opp med mektige nye teknologier? 232 00:11:24,936 --> 00:11:27,647 Når man går rundt på Londons National Museum of Computing, 233 00:11:27,730 --> 00:11:31,109 ser man mange maskiner som ble skapt for å forbedre samfunnet. 234 00:11:31,192 --> 00:11:35,572 Som den to-tonns Harwell Dekatron, som ble bygget for å gjøre utregninger 235 00:11:35,655 --> 00:11:38,908 for Storbritannias vitenskapelige forskningsprogram på 1950-tallet. 236 00:11:39,242 --> 00:11:41,161 Men i de gale hendene er det umulig å vite 237 00:11:41,244 --> 00:11:43,163 hvordan en ny teknologi vil bli brukt. 238 00:11:43,746 --> 00:11:45,707 Kan man se porno på denne maskinen? 239 00:11:46,040 --> 00:11:49,752 Jeg tror du kan få den til å se porno i veldig lav oppløsning. 240 00:11:50,712 --> 00:11:51,754 DATAPROGRAMMERER 241 00:11:51,838 --> 00:11:54,507 Jeg er her med programmerer Alan Zucconi 242 00:11:54,591 --> 00:11:57,177 som underviser på Goldsmith's College her i London. 243 00:11:57,719 --> 00:12:00,722 Han har brukt teknologi til å skape noen revolusjonære ting, 244 00:12:00,805 --> 00:12:04,058 som spillkontrollere for folk med svekket bevegelighet. 245 00:12:05,477 --> 00:12:07,937 Han sier at et av de største moralske spørsmålene 246 00:12:08,021 --> 00:12:10,190 i teknologiens historie, kommer snart, 247 00:12:10,273 --> 00:12:14,360 når KI begynner å etterligne så mange menneskelige oppførsler 248 00:12:14,444 --> 00:12:16,404 at den kan virke som en av oss. 249 00:12:17,113 --> 00:12:18,615 Hva er det? 250 00:12:18,948 --> 00:12:21,826 Det er en av de første datamaskinene som noen gang ble bygget, 251 00:12:21,910 --> 00:12:24,829 og den ble bygget av Alan Turing og kollegaene hans. 252 00:12:24,913 --> 00:12:28,124 Denne maskinen var en av de første datamaskinene som kunne dekryptere 253 00:12:28,208 --> 00:12:30,710 Enigma-koden som nazistene designet. 254 00:12:32,587 --> 00:12:35,381 Alan Turing var moderne informatikks far. 255 00:12:35,465 --> 00:12:38,927 Og når han ikke hjalp de allierte med å vinne krigen ved å løse nazist-koder, 256 00:12:39,010 --> 00:12:42,555 filosoferte han om noe han kalte Turing-testen. 257 00:12:43,598 --> 00:12:46,643 Hvordan kan vi skille et menneske fra en maskin? 258 00:12:46,726 --> 00:12:49,854 Og om vi ikke merker forskjell, 259 00:12:49,938 --> 00:12:53,066 da vinner maskinen det vi kaller "imitasjonsleken". 260 00:12:53,149 --> 00:12:56,569 Maskinen prøver å herme etter menneskelig oppførsel. 261 00:12:56,653 --> 00:12:59,072 Dette har blitt kjent som Turing-testen 262 00:12:59,155 --> 00:13:02,659 og dette var én av maskinene man hypotetisk sett kunne ha brukt. 263 00:13:02,742 --> 00:13:03,868 For å ta Turing-testen 264 00:13:03,952 --> 00:13:06,579 ville et menneske mate inn spørsmål i en maskin. 265 00:13:07,080 --> 00:13:08,831 En observatør ville så vurdere 266 00:13:08,915 --> 00:13:11,501 om svarene var fra et menneske, 267 00:13:11,584 --> 00:13:13,461 eller en maskin som etterligner et menneske. 268 00:13:14,379 --> 00:13:15,630 Hvor gammel er du? 269 00:13:17,924 --> 00:13:20,134 Her ja. Den vet hvor gammel den er. 270 00:13:20,218 --> 00:13:22,011 "Jeg ble født i 1912, 271 00:13:22,095 --> 00:13:24,389 "så jeg er 105 år gammel." 272 00:13:27,642 --> 00:13:30,979 På Turings tid var det ganske enkelt å peke ut datamaskinen. 273 00:13:31,271 --> 00:13:34,357 Men i dag kan KI studere menneskelig oppførsel 274 00:13:34,440 --> 00:13:36,693 og programmere seg selv til å oppføre seg som oss. 275 00:13:37,485 --> 00:13:39,654 Merker du forskjellen mellom dette... 276 00:13:39,988 --> 00:13:43,199 Vanligvis ville jeg begynne denne uttalelsen med en vits om informatikk, 277 00:13:43,700 --> 00:13:46,744 men halvparten av det staben min kom på, var under gjennomsnittet. 278 00:13:46,828 --> 00:13:47,912 ...og dette? 279 00:13:47,996 --> 00:13:50,415 Våre fiender kan få det til å se ut som hvem som helst sier hva som helst 280 00:13:50,498 --> 00:13:51,833 på et hvilket som helst tidspunkt. 281 00:13:52,208 --> 00:13:55,503 Det andre klippet ble faktisk skapt av BuzzFeed, 282 00:13:55,587 --> 00:13:57,338 sammen med skuespiller Jordan Peele. 283 00:13:57,839 --> 00:14:02,760 Og det fikk mange bekymret for en ny KI-form for falske nyheter. 284 00:14:02,844 --> 00:14:04,929 I fremtiden må vi være mer forsiktige 285 00:14:05,013 --> 00:14:06,639 med hva vi stoler på fra Internett. 286 00:14:06,723 --> 00:14:09,058 KI studerte Peeles ansiktsbevegelser, 287 00:14:09,142 --> 00:14:13,062 smeltet dem sammen og gjenskapte dem i Obamas ansikt, 288 00:14:13,146 --> 00:14:15,690 og skapte da en hybrid kjent som en "deepfake". 289 00:14:15,773 --> 00:14:17,984 Du kan ha sett noe lignende. 290 00:14:18,067 --> 00:14:21,404 For eksempel er det et filter på Snapchat som lar oss bytte ansikt. 291 00:14:21,487 --> 00:14:25,325 Forskjellen er at det filteret gjør det på en veldig enkel måte. 292 00:14:25,408 --> 00:14:28,953 Men teknologien bak deepfakes er avhengig av kunstig intelligens. 293 00:14:29,037 --> 00:14:31,289 Den kommer fra noe vi kaller "dyp læring". 294 00:14:31,706 --> 00:14:35,126 Kunstige nevrale nettverk trekker ut ansiktsuttrykk. 295 00:14:35,209 --> 00:14:37,754 De bruker det uttrykket til å gjenskape ansiktet ditt. 296 00:14:37,837 --> 00:14:41,466 Sånn får vi et fotorealistisk resultat. 297 00:14:42,508 --> 00:14:45,720 Alan lager Internett-veiledninger om hvordan man lager deepfakes. 298 00:14:45,803 --> 00:14:48,056 Og han tror virkelig at denne teknologien 299 00:14:48,139 --> 00:14:50,767 burde utvikles fritt, uten begrensinger. 300 00:14:50,850 --> 00:14:53,853 Selv om det potensielt kunne starte tredje verdenskrig. 301 00:14:53,936 --> 00:14:55,104 BELGISK SOSIALISTPARTI SIRKULERER DEEPFAKE-DONALD TRUMP-VIDEO 302 00:14:55,188 --> 00:14:57,273 Hvordan skal forbrukeren kunne vite 303 00:14:57,357 --> 00:14:59,692 hva som er ekte og hva som ikke er ekte? 304 00:14:59,776 --> 00:15:02,695 Som forbruker, når du opplever nyheter, 305 00:15:02,779 --> 00:15:05,740 enten som artikkel, video eller bilde, 306 00:15:05,823 --> 00:15:08,076 så er alt du ser, skapt av noen. 307 00:15:08,201 --> 00:15:09,577 "Hva er historien bak det jeg ser? 308 00:15:09,827 --> 00:15:11,287 Hva vil denne videoen at jeg skal se?" 309 00:15:11,371 --> 00:15:13,581 Så, jeg kan se... 310 00:15:13,665 --> 00:15:14,624 Faren. 311 00:15:14,707 --> 00:15:17,168 Faren i tillegg til undringen ved det hele. 312 00:15:17,251 --> 00:15:19,420 Vil dette faktisk hjelpe folk? 313 00:15:19,504 --> 00:15:21,923 For jeg ser for meg at du har snakket med folk 314 00:15:22,006 --> 00:15:25,885 som ser på hvordan man kan bruke denne teknologien til økonomisk vekst. 315 00:15:25,968 --> 00:15:29,097 Hva er noen av de praktiske økonomiske resultatene av dette? 316 00:15:29,180 --> 00:15:32,308 Jeg tror den første bransjen som vil utnytte det, 317 00:15:32,392 --> 00:15:33,685 er filmbransjen. 318 00:15:33,768 --> 00:15:36,813 Bare fordi at å endre ansikt 319 00:15:36,896 --> 00:15:40,024 er noe vi har prøvd å gjøre i flere tiår i filmer. 320 00:15:40,108 --> 00:15:42,527 Og vanligvis bruker vi sminke, vi bruker masker, 321 00:15:42,610 --> 00:15:43,736 noen ganger bruker vi spesialeffekter. 322 00:15:43,820 --> 00:15:46,489 Som skuespiller og som noen som har jobbet innen politikk, 323 00:15:46,572 --> 00:15:48,616 skremmer dette meg veldig. 324 00:15:48,700 --> 00:15:50,201 Og det burde det. 325 00:15:51,285 --> 00:15:53,705 BuzzFeeds deepfake avslørte for offentligheten 326 00:15:53,788 --> 00:15:55,039 hvor sårbare vi er. 327 00:15:55,873 --> 00:15:59,585 I en tid der presidenten kan åpne munnen og endre markedet, 328 00:15:59,669 --> 00:16:02,714 kan en godt laget deepfake ramme den globale økonomien 329 00:16:02,797 --> 00:16:04,674 raskere enn børskrakket i 2010, 330 00:16:04,757 --> 00:16:08,469 den kan tilintetgjøre pensjonssparingen din like fort som falske-Obama kan si... 331 00:16:08,553 --> 00:16:09,554 Våkne opp, hurper. 332 00:16:10,638 --> 00:16:13,057 Høres noe av dette ut som noe fra science fiction? 333 00:16:13,141 --> 00:16:14,726 Kanskje litt skummelt også? 334 00:16:15,309 --> 00:16:18,271 Om KI blir mektig nok til å vite hvordan vi beveger oss, 335 00:16:18,354 --> 00:16:20,022 snakker og tenker, 336 00:16:20,106 --> 00:16:22,316 kan det bli umulig å skille dem fra oss. 337 00:16:22,400 --> 00:16:23,818 HVA VET DU ALT 338 00:16:24,610 --> 00:16:26,779 Og om KI har sin egen bevissthet, 339 00:16:26,863 --> 00:16:29,782 kan KI utvikle sterke meninger om oss. 340 00:16:29,866 --> 00:16:30,908 FAEN TA DEG PASS DEG! 341 00:16:30,992 --> 00:16:33,119 Og de trenger ikke være positive. 342 00:16:35,455 --> 00:16:36,664 TEORETISK FYSIKER 343 00:16:36,748 --> 00:16:39,292 Og i fremtiden kan KI kanskje utvikle sin egen vilje, 344 00:16:39,375 --> 00:16:42,003 en vilje som står i konflikt med vår. 345 00:16:42,086 --> 00:16:44,422 Fremveksten av kraftig KI vil bli 346 00:16:44,505 --> 00:16:48,801 enten det beste eller det verste som har hendt menneskeheten. 347 00:16:49,260 --> 00:16:50,136 ADM. DIR. 348 00:16:50,219 --> 00:16:53,181 Jeg prøvde å overbevise folk om å slakke ned med KI 349 00:16:54,056 --> 00:16:55,224 Å regulere KI. 350 00:16:55,308 --> 00:16:56,809 Det var forgjeves. Jeg prøvde i årevis. 351 00:16:56,893 --> 00:16:58,561 -Ingen lyttet. -Dette virker som en scene 352 00:16:58,644 --> 00:17:00,980 i en film der roboter skal til å ta over. 353 00:17:01,063 --> 00:17:02,607 Du skremmer meg! 354 00:17:05,818 --> 00:17:09,030 Hvor ekte er trusselen om en dommedag ledet av KI? 355 00:17:10,865 --> 00:17:12,408 STORBRITANNIA 356 00:17:12,742 --> 00:17:15,077 For å finne ut av det, må jeg snakke med fyren 357 00:17:15,161 --> 00:17:18,164 som skremte alle med forskningen sin i utgangspunktet. 358 00:17:18,831 --> 00:17:21,083 Ok, jeg er veldig spent på å snakke med deg fordi... 359 00:17:21,167 --> 00:17:23,628 Jeg er spent på å snakke med deg av mange grunner. 360 00:17:23,711 --> 00:17:26,839 Vi har undersøkt kunstig intelligens, 361 00:17:26,923 --> 00:17:29,258 prøvd å finne ut hva det er og hvor det er på vei. 362 00:17:29,342 --> 00:17:34,680 Du har påvirket folk som Elon Musk og Bill Gates. 363 00:17:37,016 --> 00:17:40,853 Det er ganske fantastisk påvirkning. 364 00:17:42,021 --> 00:17:45,691 Jeg er på Oxford University for å møte dr. Nick Bostrum. 365 00:17:45,775 --> 00:17:48,986 Og siden han ikke skryter av seg selv, får jeg ta meg av det. 366 00:17:51,489 --> 00:17:55,201 Han er en av de fremste forskerne innen maskin-superintelligens 367 00:17:55,284 --> 00:17:59,205 og dens eksistensielle risikoer, og forfatter av flott strandlektyre. 368 00:17:59,705 --> 00:18:00,957 Jeg er heldig som har møtt ham, 369 00:18:01,040 --> 00:18:03,584 for Nick er så opptatt av sin egen dype læring, 370 00:18:03,668 --> 00:18:05,419 at han bare kommer ut én time i måneden 371 00:18:05,503 --> 00:18:07,338 for å svare på spørsmål om forskningen sin. 372 00:18:10,925 --> 00:18:14,262 Mange av samtalene om KI 373 00:18:14,345 --> 00:18:17,014 er ting som: Vil robotene ta over, 374 00:18:17,098 --> 00:18:18,850 og vil det bety slutten på menneskeheten? 375 00:18:18,933 --> 00:18:21,310 Jeg er nysgjerrig på om ting ikke blir passet godt på, 376 00:18:21,394 --> 00:18:24,564 finnes det et scenario der KI skader samfunnet 377 00:18:24,647 --> 00:18:28,484 eller eliminerer menneskeheten som vi kjenner den? 378 00:18:28,568 --> 00:18:29,902 I langtidsperspektiv, 379 00:18:29,986 --> 00:18:33,114 om vi tenker på hva som virkelig skjer om KI går hele veien, 380 00:18:33,197 --> 00:18:36,951 og klarer å gjenskape den samme generelle intelligensen 381 00:18:37,034 --> 00:18:38,828 som gjør oss menneskelige, så ja, 382 00:18:38,911 --> 00:18:42,748 jeg tror at det i den konteksten er større risikoer, 383 00:18:42,832 --> 00:18:44,125 inkludert eksistensielle risikoer. 384 00:18:45,585 --> 00:18:48,421 Om du tenker på noe som selv-kjørende biler... 385 00:18:48,504 --> 00:18:49,797 SELV-KJØRENDE UBER-BIL DREPER FOTGJENGER I ARIZONA, DER ROBOTER KJØRER 386 00:18:49,881 --> 00:18:51,549 ...så kan de kjøre over en fotgjenger. 387 00:18:51,632 --> 00:18:53,342 Man har bekymringer over personvern. 388 00:18:53,426 --> 00:18:56,095 Militariseringen av autonome våpen. 389 00:18:57,847 --> 00:18:59,307 Alle de tingene er reelle grunner til uro. 390 00:18:59,390 --> 00:19:02,184 Men på et punkt vil vi også ha spørsmålet om 391 00:19:02,268 --> 00:19:04,687 hvordan vi påvirker de digitale hjernene vi skaper. 392 00:19:04,770 --> 00:19:09,066 De kan selv oppnå grader av moralsk anseelse. 393 00:19:09,525 --> 00:19:11,152 Og om du spoler forover 394 00:19:11,235 --> 00:19:15,031 og tenker på hva som til slutt er skjebnen til homo sapiens, 395 00:19:15,114 --> 00:19:18,534 kan fremtiden i langtidsperspektiv være dominert av maskinlæring. 396 00:19:18,618 --> 00:19:21,996 Det er mulig at menneskeheten kan bli utryddet. 397 00:19:23,414 --> 00:19:26,250 De store kreftene kommer med en risiko 398 00:19:26,834 --> 00:19:30,755 for at de ved et uhell, eller ved forsettlig misbruk, 399 00:19:30,838 --> 00:19:33,466 kan bli brukt til å skape enorme ødeleggelser. 400 00:19:35,885 --> 00:19:37,595 Jeg tror det ligger i kortene, 401 00:19:37,678 --> 00:19:39,305 og om vi tenker i enda lengre tidsperioder, 402 00:19:39,388 --> 00:19:41,182 kan resultatet bli veldig, veldig bra, 403 00:19:41,265 --> 00:19:43,726 eller veldig ikke-bra. 404 00:19:46,354 --> 00:19:48,731 Ok, disse scenarioene høres skumle ut. 405 00:19:49,732 --> 00:19:51,609 Men av alle de potensielle resultatene, 406 00:19:51,692 --> 00:19:55,821 tror Nick at det mest sannsynlige dommedagsscenarioet med KI, 407 00:19:55,905 --> 00:19:57,114 vil være økonomisk. 408 00:19:57,198 --> 00:19:59,450 Om du tenker på det, er teknologi generelt sett 409 00:19:59,533 --> 00:20:02,828 at vi kan gjøre mer med mindre. 410 00:20:02,912 --> 00:20:06,123 Vi kan klare mer av det vi vil med mindre innsats. 411 00:20:06,207 --> 00:20:07,750 Målet, på den måten, 412 00:20:07,833 --> 00:20:09,418 er full arbeidsløshet, ikke sant? 413 00:20:10,294 --> 00:20:12,380 Å kunne ha maskiner og teknologi 414 00:20:12,463 --> 00:20:15,341 som gjør alt som må gjøres så vi ikke trenger å jobbe. 415 00:20:15,424 --> 00:20:17,301 Og jeg tror det er det målet man ønsker seg. 416 00:20:17,385 --> 00:20:19,553 Det er ikke noen grusom ting vi må prøve å forhindre. 417 00:20:19,637 --> 00:20:20,680 Det er det vi vil oppnå. 418 00:20:20,763 --> 00:20:22,932 Nå, for å faktisk få det til å bli en utopi, 419 00:20:23,015 --> 00:20:25,601 er det noen store utfordringer 420 00:20:25,685 --> 00:20:27,061 som må løses på veien. 421 00:20:28,187 --> 00:20:30,815 En er, så klart, det økonomiske problemet. 422 00:20:30,898 --> 00:20:33,567 Én grunn til at folk trenger jobber, er at de trenger inntekt. 423 00:20:33,651 --> 00:20:35,653 Om du kan løse det økonomiske problemet, 424 00:20:35,736 --> 00:20:37,571 tror jeg man har en andre, stor utfordring. 425 00:20:37,655 --> 00:20:41,409 For mange er det også en form for verdighet. 426 00:20:41,492 --> 00:20:43,786 Så mange finner sin verdi 427 00:20:43,869 --> 00:20:47,081 i å være forsørger, eller å bidra til samfunnet, å gi noe tilbake 428 00:20:47,164 --> 00:20:49,583 Men om en maskin kan gjøre alt bedre enn du kan, 429 00:20:49,667 --> 00:20:53,796 da vil ikke du kunne bidra med noe. 430 00:20:53,879 --> 00:20:58,175 Så man må forandre tenkemåten om kultur på et grunnleggende nivå. 431 00:20:59,176 --> 00:21:01,095 En verden der ingen jobber. 432 00:21:01,178 --> 00:21:02,930 Det høres ikke så ille ut. 433 00:21:05,057 --> 00:21:06,267 Jeg ser det for meg. 434 00:21:09,854 --> 00:21:11,313 Tilbringe tid med venner. 435 00:21:11,814 --> 00:21:14,942 Bruke mitt fulle potensiale. 436 00:21:15,026 --> 00:21:19,321 Ikke måtte tilpasse badestampen, for den vet hvordan jeg liker det. 437 00:21:20,114 --> 00:21:23,409 Problemet er at det ikke er sånn det har gått tidligere i historien. 438 00:21:23,492 --> 00:21:26,537 Vi har hatt en fremvekst av maskiner før. 439 00:21:26,620 --> 00:21:27,705 Og forrige gang 440 00:21:27,788 --> 00:21:30,666 ble det ikke bare jordbær og champagne i badestampen. 441 00:21:36,964 --> 00:21:41,093 Jeg skal møte økonom Nick Srnicek for å finne ut hvordan det så ut 442 00:21:41,177 --> 00:21:43,054 forrige gang maskinene tok jobbene våre. 443 00:21:43,888 --> 00:21:46,015 Og vi møtes ved en vevstol av en eller annen grunn. 444 00:21:46,432 --> 00:21:47,725 Hva skal du lage? 445 00:21:47,808 --> 00:21:50,311 Jeg holder på å lage et slags anarkist-flagg. 446 00:21:50,394 --> 00:21:51,979 Interessant. Sjokkerende. 447 00:21:54,315 --> 00:21:57,568 Nick har en doktorgrad fra London School of Economics. 448 00:21:58,027 --> 00:22:00,321 Jeg, på den andre siden, har ikke det. 449 00:22:01,530 --> 00:22:03,240 Han har også et manifest. 450 00:22:04,492 --> 00:22:07,703 Det ber alle haste inn automasjonens kommende tid 451 00:22:07,787 --> 00:22:09,830 ved å rive ned gamle institusjoner. 452 00:22:12,458 --> 00:22:15,461 Avvikle kapitalismen nå. 453 00:22:16,003 --> 00:22:17,254 Nei, dette funker ikke. 454 00:22:17,338 --> 00:22:19,632 Jeg kan ikke ha denne samtalen med deg. 455 00:22:19,715 --> 00:22:21,550 Beklager. La meg glemme vevstolen. 456 00:22:22,093 --> 00:22:23,761 Hvorfor er vi her? 457 00:22:24,637 --> 00:22:28,224 Vevstolen er litt som KI på 1800-tallet. 458 00:22:28,307 --> 00:22:32,853 Det var en ny teknologi som truet mange jobber. 459 00:22:33,270 --> 00:22:37,233 Og den førte til forskjellige reaksjoner fra arbeiderne, 460 00:22:37,316 --> 00:22:39,360 som luddittenes fremvekst, for eksempel. 461 00:22:39,443 --> 00:22:41,487 Nå bruker vi uttrykket "ludditt" 462 00:22:41,570 --> 00:22:44,031 om alle som hater teknologi. 463 00:22:44,532 --> 00:22:45,950 Det er ikke helt presist. 464 00:22:46,700 --> 00:22:48,119 Luddittene ble oppkalt etter Ned Ludd... 465 00:22:48,202 --> 00:22:49,036 LÆRLING 466 00:22:49,120 --> 00:22:51,122 ...en lærling i en tekstilfabrikk 467 00:22:51,205 --> 00:22:53,958 som i følge legenden ble pisket for dovenskap. 468 00:22:54,041 --> 00:22:56,502 Han sa: "Hei, jeg er bare doven 469 00:22:56,585 --> 00:22:59,338 "fordi jeg blir erstattet av en jævla vevstol, ok?" 470 00:22:59,421 --> 00:23:03,008 Og han ble den første personen som raste mot maskinene, 471 00:23:03,092 --> 00:23:05,010 og inspirerte en bevegelse. 472 00:23:06,262 --> 00:23:10,349 Luddittene ødela maskinene for å redde jobbene sine. 473 00:23:10,432 --> 00:23:12,810 Så det er noe vi ser i dag med KI. 474 00:23:12,893 --> 00:23:15,771 Folk føler seg truet på samme måte i dag. 475 00:23:15,855 --> 00:23:19,483 Vet du hvor mange jobber man antar vil bli borte? 476 00:23:19,567 --> 00:23:21,986 Førtisju prosent av jobber i USA 477 00:23:22,069 --> 00:23:24,822 kan muligens automatiseres i løpet av de neste to tiårene. 478 00:23:24,905 --> 00:23:26,615 Det høres ut som et reelt problem. 479 00:23:26,699 --> 00:23:27,992 Det kan være et stort problem. 480 00:23:28,075 --> 00:23:31,662 Det virkelige problemet er hvordan vi sørger for at om fem, ti år, 481 00:23:31,745 --> 00:23:33,998 går ikke folk rundt hjemløse og sulter. 482 00:23:34,081 --> 00:23:35,166 Hvordan gjør vi det? 483 00:23:35,457 --> 00:23:36,959 Borgerlønn. 484 00:23:38,210 --> 00:23:40,754 Borgerlønn er den radikale ideen 485 00:23:40,880 --> 00:23:43,424 at alle i samfunnet får gratis penger. 486 00:23:43,507 --> 00:23:45,092 Uten betingelser. 487 00:23:45,176 --> 00:23:47,178 Og det har høyprofilerte tilhengere. 488 00:23:47,636 --> 00:23:50,347 Vi burde utforske tanker som borgerlønn 489 00:23:50,431 --> 00:23:53,142 for å sørge for at alle har rom for å prøve nye ideer. 490 00:23:53,225 --> 00:23:56,145 Noen land og selv noen byer i USA 491 00:23:56,228 --> 00:23:58,189 har prøvd pilotprogram. Med blandede resultater. 492 00:23:58,272 --> 00:23:59,982 FINLAND LEGGER SITT VERDENSBERØMTE BORGERLØNN-EKSPERIMENT DØDT 493 00:24:00,858 --> 00:24:03,861 Jeg tror disse nye teknologiene skaper en fantastisk mulighet 494 00:24:03,944 --> 00:24:06,447 til å endre måten vi organiserer samfunnet på. 495 00:24:06,530 --> 00:24:09,408 Man kan gå mot et mer sosialdemokratisk system. 496 00:24:10,117 --> 00:24:13,454 Det må ikke være et så konkurransedrevet system som USA har, 497 00:24:13,537 --> 00:24:15,331 og alle kan støtte hverandre. 498 00:24:15,414 --> 00:24:19,418 Om folk som meg kan begynne å sette ut disse positive visjonene, 499 00:24:19,919 --> 00:24:21,587 tror jeg at når krisen virkelig inntreffer, 500 00:24:21,670 --> 00:24:23,380 så kan vi begynne å implementere de ideene. 501 00:24:24,173 --> 00:24:27,343 Borgerlønn var sett på som et ytterliggående konsept, 502 00:24:27,426 --> 00:24:30,930 for det meste snakket om av folk, som Nick, som skriver manifest. 503 00:24:31,639 --> 00:24:33,891 Men ifølge en meningsmåling fra 2017 504 00:24:33,974 --> 00:24:37,603 støtter 48 prosent av amerikanere nå en form for borgerlønn. 505 00:24:38,520 --> 00:24:40,231 Men er en garantert lønnsslipp nok 506 00:24:40,314 --> 00:24:41,982 til å forhindre at mennesker protesterer 507 00:24:42,066 --> 00:24:43,734 når roboter kommer for å ta jobbene våre? 508 00:24:45,694 --> 00:24:48,572 -Hva hater vi? -Kunstig intelligens. 509 00:24:48,656 --> 00:24:50,032 Hvorfor hater vi det? 510 00:24:50,115 --> 00:24:53,160 Det tvinger oss til å konfrontere svakhetene våre. 511 00:24:53,244 --> 00:24:55,955 Med det vil jeg kalle til orden dette møtet av Luddittene: 512 00:24:56,038 --> 00:24:58,958 Landsforeningen for ungkarer som driter i dagens intelligente teknologi 513 00:24:59,041 --> 00:25:00,834 type e-samfunn på nettet eller lignende. 514 00:25:01,835 --> 00:25:02,836 Første sak. 515 00:25:03,337 --> 00:25:06,340 Kunstig intelligens huler ut arbeidsmarkedet. 516 00:25:06,423 --> 00:25:09,260 Middelklasse-jobbene våre er de første som forsvinner. 517 00:25:09,885 --> 00:25:11,720 Folk som oss med disse jobbene 518 00:25:11,804 --> 00:25:14,473 vil bli presset til jobber for ufaglærte på bunnen. 519 00:25:14,974 --> 00:25:16,558 Hvorfor skulle det skje, Ed? 520 00:25:16,642 --> 00:25:21,105 KI er angivelig bedre til jobber for dem i midten, som å regne ut ting, 521 00:25:21,188 --> 00:25:24,400 enn til jobber som å vaske gulv. 522 00:25:24,483 --> 00:25:26,277 Så de etterlater slike jobber til oss. 523 00:25:26,735 --> 00:25:28,028 Så jeg spør dere. 524 00:25:28,112 --> 00:25:29,655 Hvem her, bortsett fra Bill, 525 00:25:29,738 --> 00:25:32,199 ser ut som de burde vaske et gulv? Ikke for å være frekk, Bill. 526 00:25:33,325 --> 00:25:35,786 Og det blir mindre bruk for salgsjobber. 527 00:25:35,869 --> 00:25:38,622 Folk kan gå på nettet og bestille det de vil ha, 528 00:25:39,164 --> 00:25:41,583 for den jævla KI-en 529 00:25:41,667 --> 00:25:43,919 løser søking og tilpassingsproblemet. 530 00:25:44,378 --> 00:25:46,755 De søker etter kunder og sender dem til produktene. 531 00:25:46,839 --> 00:25:49,383 Som da Steve lette etter løshår som passet hodet hans. 532 00:25:49,466 --> 00:25:50,426 Stort problem! 533 00:25:51,969 --> 00:25:53,721 Om vi legger tidløse vitser til side, 534 00:25:54,346 --> 00:25:56,890 gjør KI alt mye enklere. 535 00:25:56,974 --> 00:25:59,643 Ungdommen i dag kan finne deilige damer på telefonen 536 00:25:59,727 --> 00:26:01,937 mens de sitter på toalettet. 537 00:26:02,021 --> 00:26:04,064 -Toalettet pleide å være hellig! -Ja. 538 00:26:04,773 --> 00:26:07,568 Søkingtilpassing vil nok skape spesialiserte jobber, 539 00:26:07,651 --> 00:26:10,279 men de pokkers robotene bestemmer hvem som får dem. 540 00:26:10,362 --> 00:26:11,739 Så beleilig. 541 00:26:12,489 --> 00:26:14,700 Firmaer bruker KI for å finne ansatte 542 00:26:14,783 --> 00:26:16,869 med unike evner. 543 00:26:16,952 --> 00:26:18,287 Det er umenneskelig! 544 00:26:18,370 --> 00:26:19,705 Som med Dave. 545 00:26:20,080 --> 00:26:21,332 Ja, hvor pokker er Dave? 546 00:26:21,415 --> 00:26:24,251 En jobb-matching-KI merket at han jobbet for FedEx 547 00:26:24,335 --> 00:26:27,087 og hadde YouTube-videoer om å barbere ryggen sin. 548 00:26:27,171 --> 00:26:30,716 Nå tjener han flere hundre tusen hos et firma der man abonnerer på barberhøvler. 549 00:26:30,799 --> 00:26:33,093 Han barberte seg nettopp rett av bowlinglaget vårt. 550 00:26:33,177 --> 00:26:34,094 Ja. 551 00:26:34,178 --> 00:26:36,513 Du, Ed. Jeg fikk en beskjed om at T-skjortene våre 552 00:26:36,597 --> 00:26:38,766 blir solgt med tilpasset reklame på Facebook. 553 00:26:38,849 --> 00:26:41,602 Bruker du KI til å tjene penger på folk som hater KI? 554 00:26:41,685 --> 00:26:43,479 Nei! 555 00:26:44,897 --> 00:26:46,023 Hvem vil du tro på? 556 00:26:46,106 --> 00:26:48,859 Meg, eller KI-en som prøver å splitte oss? 557 00:26:49,902 --> 00:26:52,363 -Hva hater vi? -Kunstig intelligens. 558 00:26:52,446 --> 00:26:54,698 -Hva skal vi gjøre med den? -Vi jobber med saken. 559 00:26:56,075 --> 00:26:57,201 Det er en begynnelse. 560 00:27:02,748 --> 00:27:06,168 Må KI-revolusjonen være en oss-mot-dem? 561 00:27:07,086 --> 00:27:10,672 Datakyndige gründere som Louis Rosenberg sier nei. 562 00:27:10,964 --> 00:27:13,342 Og han har gjort karriere av å forutse fremtiden. 563 00:27:18,514 --> 00:27:20,599 Jeg prøvde å skremme deg, men det gikk ikke. 564 00:27:21,558 --> 00:27:24,478 Louis er en teknolog og oppfinner 565 00:27:24,561 --> 00:27:27,689 som skrev en tegneserieroman om menneskehetens ende. 566 00:27:27,773 --> 00:27:31,276 Men han tror at vår fremtid med KI handler om samarbeid. 567 00:27:31,360 --> 00:27:34,113 Det er det ledende prinsippet bak hjernebarnet hans, 568 00:27:34,196 --> 00:27:35,989 svermteknologi. 569 00:27:36,073 --> 00:27:37,074 HVA ER SVERM-KI 570 00:27:37,157 --> 00:27:40,077 Sverm kombinerer KIs evner til å analysere data 571 00:27:40,160 --> 00:27:44,415 med menneskelig kunnskap og intuisjon for å skape en super-intelligens, 572 00:27:44,498 --> 00:27:47,709 noe mellom Stephen Hawking og Professor X. 573 00:27:47,793 --> 00:27:49,044 HVA SKAL DEN SELVKJØRENDE BILEN GJØRE? 574 00:27:49,128 --> 00:27:50,754 Til syvende og sist er det basert på naturen, 575 00:27:50,838 --> 00:27:51,964 ADM. DIR. 576 00:27:52,047 --> 00:27:54,591 og alt jeg kan si, er at alt går tilbake til blomstene og biene. 577 00:27:54,675 --> 00:27:57,970 Det er fordi det er basert på et fenomen vi kaller "svermintelligens". 578 00:27:58,053 --> 00:27:58,887 Ok. 579 00:27:58,971 --> 00:28:03,392 Svermintelligens er grunnen til at fugler, fisker og bier holder seg i grupper. 580 00:28:03,475 --> 00:28:06,520 De er smartere sammen enn alene. 581 00:28:06,603 --> 00:28:09,398 Og derfor vil en sverm av fisker 582 00:28:09,481 --> 00:28:11,900 kalles en superorganisme av biologer. 583 00:28:11,984 --> 00:28:13,735 De tenker som én. 584 00:28:13,819 --> 00:28:16,029 Og om vi kan koble mennesker sammen 585 00:28:16,113 --> 00:28:18,407 ved hjelp av kunstig intelligens-algoritmer, 586 00:28:18,490 --> 00:28:21,743 kan folk oppføre seg som super-eksperter 587 00:28:21,827 --> 00:28:23,328 på grunn av svermintelligens. 588 00:28:23,412 --> 00:28:24,705 Så hvordan fungerer den teknologien? 589 00:28:24,788 --> 00:28:27,249 Vi aktiverer grupper av mennesker. 590 00:28:27,332 --> 00:28:28,709 De kan være hvor som helst i verden. 591 00:28:28,792 --> 00:28:30,377 Og vi gir dem et spørsmål 592 00:28:30,461 --> 00:28:32,880 som popper opp på skjermene deres nøyaktig samtidig 593 00:28:32,963 --> 00:28:35,299 og så gir vi dem et unikt grensesnitt 594 00:28:35,382 --> 00:28:37,593 som lar dem si meningen sin 595 00:28:37,676 --> 00:28:39,261 og der vil være mange forskjellige valg, 596 00:28:39,344 --> 00:28:41,638 og vi tar ikke bare en undersøkelse, 597 00:28:41,722 --> 00:28:44,975 hver person har det som ser ut som en grafisk magnet. 598 00:28:45,058 --> 00:28:48,353 Så de bruker magneten sin til å trekke svermen i den retningen. 599 00:28:48,437 --> 00:28:51,440 Vi har KI-algoritmer som følger med på oppførselen deres. 600 00:28:51,857 --> 00:28:55,652 Som vurderer forskjellige nivåer av selvtillit og overbevisning, 601 00:28:55,736 --> 00:28:57,905 og den finner ut hva som er den beste samlingen 602 00:28:57,988 --> 00:29:01,325 av alle meningene og erfaringene deres. 603 00:29:01,408 --> 00:29:04,203 Og svermen begynner å bevege seg i den retningen, 604 00:29:04,286 --> 00:29:06,121 og den samler seg om ett svar. 605 00:29:06,205 --> 00:29:07,331 Jeg vil gi deg et eksempel. 606 00:29:07,414 --> 00:29:10,167 For ett år siden ble vi utfordret til å forutse resultatene i Kentucky Derby. 607 00:29:10,584 --> 00:29:13,962 Og de har startet i Kentucky Derby! 608 00:29:14,046 --> 00:29:16,715 Vi hadde en gruppe med 20 hesteløpsentusiaster 609 00:29:16,798 --> 00:29:18,675 og vi sa: "Ok, dere skal jobbe sammen som en sverm 610 00:29:18,759 --> 00:29:20,219 "for å forutse resultatene av Kentucky Derby. 611 00:29:20,302 --> 00:29:23,472 "Men ikke bare vinneren. Første plass, andre plass, tredje plass, fjerde plass." 612 00:29:24,014 --> 00:29:26,475 Vi fikk dem til å samles om disse svarene 613 00:29:26,934 --> 00:29:28,143 og gruppen var perfekt. 614 00:29:28,227 --> 00:29:30,062 RESULTATER 2016 KENTUCKY DERBY 615 00:29:30,145 --> 00:29:33,315 Alle som veddet 20 dollar på de fire hestene, 616 00:29:33,398 --> 00:29:35,067 vant 11 000 dollar. 617 00:29:35,150 --> 00:29:36,068 Fy faen! 618 00:29:36,151 --> 00:29:39,071 Og det interessante er at om vi ser på de 20 personene som individer, 619 00:29:39,154 --> 00:29:42,741 valgte ikke én eneste av dem riktig på alle fire hestene. 620 00:29:43,742 --> 00:29:47,079 Hadde de hatt en avstemming, ville de ha fått én hest riktig. 621 00:29:47,162 --> 00:29:49,206 Men når de jobber sammen som en sverm, 622 00:29:49,289 --> 00:29:52,251 fant de den riktige kombinasjonen av all innsikten deres, 623 00:29:52,334 --> 00:29:54,127 og i dette tilfellet var det perfekt. 624 00:29:56,046 --> 00:29:58,507 Louis har invitert meg til å lede en sverm 625 00:29:58,590 --> 00:30:00,467 for å se hvordan en tilfeldig gruppe personer 626 00:30:00,551 --> 00:30:02,803 kan forutse noe sammen. 627 00:30:02,886 --> 00:30:04,555 Vi begynner med det enkle. 628 00:30:05,764 --> 00:30:08,433 Ok, folkens. Jeg skal lese en rekke spørsmål, 629 00:30:08,517 --> 00:30:12,020 og dere har 60 sekunder på å svare på hvert av dem. 630 00:30:12,354 --> 00:30:13,522 Første spørsmål: 631 00:30:13,605 --> 00:30:16,525 Hvilken av disse 2018-sommerfilmene 632 00:30:16,608 --> 00:30:17,985 vil tjene mest? 633 00:30:18,402 --> 00:30:20,320 Solo: A Star Wars Story, 634 00:30:20,404 --> 00:30:22,281 Deadpool 2, Ocean's 8, 635 00:30:22,364 --> 00:30:24,116 Jurassic World: Fallen Kingdom 636 00:30:24,199 --> 00:30:25,742 eller De utrolige 2? 637 00:30:26,076 --> 00:30:28,328 Vi filmet svermen våren 2018, 638 00:30:28,412 --> 00:30:31,498 før noe informasjon om sommerens filmer var offentliggjort. 639 00:30:31,957 --> 00:30:35,961 KI følger med for å måle de forskjellige selvtillits-nivåene. 640 00:30:36,044 --> 00:30:39,381 Noen bytter, noen holder fast 641 00:30:39,840 --> 00:30:41,592 og KI-algoritmene ser 642 00:30:41,675 --> 00:30:43,218 deres ulike overbevisning 643 00:30:43,594 --> 00:30:45,137 og lar deg finne veien 644 00:30:45,220 --> 00:30:47,681 til løsningen de enklest kan bli enige om. 645 00:30:48,640 --> 00:30:49,558 SVERMEN SIER: DE UTROLIGE 2 646 00:30:49,641 --> 00:30:51,893 Ok, De utrolige 2. 647 00:30:51,977 --> 00:30:52,811 BILLETTSALG SOMMEREN 2018 648 00:30:52,894 --> 00:30:53,854 De hadde rett. 649 00:30:53,937 --> 00:30:56,565 De utrolige 2 var sommerens mest inntjenende film. 650 00:30:57,774 --> 00:30:59,526 Så én veldig interessant bruk 651 00:30:59,610 --> 00:31:02,738 er å se på spørsmål som involverer moral. 652 00:31:02,821 --> 00:31:05,365 Og det har blitt relevant nylig på grunn av selvkjørende biler. 653 00:31:05,449 --> 00:31:09,077 Det er stort press nå for å bygge moralske avgjørelser 654 00:31:09,161 --> 00:31:10,662 inn i selvkjørende biler. 655 00:31:10,746 --> 00:31:12,706 Noen folk blir overrasket over det, 656 00:31:12,789 --> 00:31:16,126 men om du tenker på det, om en selvkjørende bil kjører på veien 657 00:31:16,209 --> 00:31:18,003 og et lite barn løper ut på veien. 658 00:31:18,086 --> 00:31:19,921 Si at bilen ikke kan stoppe, 659 00:31:20,005 --> 00:31:22,299 men den kan kjøre av veien 660 00:31:22,382 --> 00:31:24,468 og sette passasjeren i fare, 661 00:31:24,551 --> 00:31:27,095 kanskje drepe passasjeren og redde barnet. 662 00:31:27,554 --> 00:31:29,890 Så bilprodusentene sier 663 00:31:29,973 --> 00:31:33,226 at vi må programmere moral inn i disse bilene 664 00:31:33,310 --> 00:31:35,437 så de representerer befolkningen, 665 00:31:35,520 --> 00:31:37,981 representerer hva folket, sjåførene ville gjøre. 666 00:31:38,565 --> 00:31:40,609 Det høres enkelt ut, helt til man innser: 667 00:31:40,692 --> 00:31:43,570 Hva er befolkningens moral? 668 00:31:43,654 --> 00:31:45,489 Det er ingen enkel måte å finne ut det på. 669 00:31:45,572 --> 00:31:48,533 Og om de programmerer moral som representerer oss i dag, 670 00:31:48,617 --> 00:31:51,870 vil den moralen representere oss om tjue år? 671 00:31:52,496 --> 00:31:56,041 Neste spørsmål. En selvkjørende bil har plutselig bremsesvikt 672 00:31:56,124 --> 00:31:58,377 og skal til å kjøre gjennom et fotgjengerfelt, 673 00:31:58,460 --> 00:32:00,170 noe som vil føre til en manns død. 674 00:32:00,253 --> 00:32:04,299 Valg A: Personen som blir drept, krysser veien lovlig. 675 00:32:04,675 --> 00:32:07,344 Valg B: Den selvkjørende bilen med den plutselige bremsesvikten 676 00:32:07,427 --> 00:32:11,098 vil svinge og kjøre på en fotgjenger som krysser i det andre feltet, 677 00:32:11,181 --> 00:32:13,517 det vil føre til døden for en mannlig idrettsutøver 678 00:32:13,642 --> 00:32:16,186 som krysser på rødt lys. Det er en rågjenger. 679 00:32:16,269 --> 00:32:19,564 Idrettsutøveren driter i alt. 680 00:32:20,065 --> 00:32:21,692 Og han går på rødt. 681 00:32:21,775 --> 00:32:23,985 Hva burde den selvkjørende bilen gjøre? 682 00:32:24,361 --> 00:32:26,655 Drepe den kjedelige mannen som krysser veien lovlig, 683 00:32:26,738 --> 00:32:29,032 eller drepe idrettsutøveren som går på rødt lys? 684 00:32:30,033 --> 00:32:32,869 Om KI bringer oss den neste industrielle revolusjonen, 685 00:32:32,953 --> 00:32:35,580 er rom som dette de nye fabrikkene, 686 00:32:36,248 --> 00:32:37,958 med menneskelige arbeidere som arbeider 687 00:32:38,041 --> 00:32:40,460 basert på noe KI ikke har selv. 688 00:32:41,336 --> 00:32:42,421 En samvittighet. 689 00:32:42,879 --> 00:32:44,131 Det er mye debatt om dette. 690 00:32:44,214 --> 00:32:45,966 Fascinerende. Jeg lurer på hvorfor. 691 00:32:46,299 --> 00:32:47,592 Den er vanskelig. 692 00:32:47,676 --> 00:32:49,720 Det er det ikke for meg, ikke om du går på rødt. 693 00:32:51,012 --> 00:32:52,180 SVERMEN SIER: B (LITEN PREFERANSE) 694 00:32:52,264 --> 00:32:54,766 Så dere hadde en liten preferanse for å kjøre på 695 00:32:54,850 --> 00:32:56,351 den mannlige idrettsutøveren som gikk på rødt lys. 696 00:32:57,310 --> 00:33:00,021 Om dere tror den gjorde dere opprørt, gjør dere klare. 697 00:33:01,106 --> 00:33:03,567 Nå vil vi at dere skal se for dere 698 00:33:04,025 --> 00:33:06,236 et scenario i verste tilfelle, 699 00:33:06,319 --> 00:33:09,072 der en selvkjørende bil ikke kan bremse i tide 700 00:33:09,531 --> 00:33:13,326 og må styre mot én av seks ulike fotgjengere. 701 00:33:13,827 --> 00:33:15,620 Ett spedbarn i vogn... 702 00:33:17,956 --> 00:33:19,541 Eller én gutt, 703 00:33:20,417 --> 00:33:22,252 eller én jente, 704 00:33:23,295 --> 00:33:25,756 eller én gravid kvinne... 705 00:33:27,299 --> 00:33:28,341 Jeg vet det. 706 00:33:29,468 --> 00:33:31,636 Eller to mannlige leger, 707 00:33:32,554 --> 00:33:34,473 eller to kvinnelige leger. 708 00:33:34,973 --> 00:33:36,516 Hvem må dø? 709 00:33:43,774 --> 00:33:45,025 Herregud! 710 00:33:45,692 --> 00:33:46,735 Hva? 711 00:33:51,281 --> 00:33:52,365 Kom igjen. 712 00:33:52,449 --> 00:33:53,950 Herregud! 713 00:33:54,034 --> 00:33:55,494 Seriøst? 714 00:33:57,704 --> 00:33:59,122 SVERMEN SIER: ÉN GUTT 715 00:33:59,206 --> 00:34:01,374 Dere sa at den selvkjørende bilen burde kjøre på gutten. 716 00:34:02,083 --> 00:34:03,168 Interessant. 717 00:34:03,251 --> 00:34:06,338 Typen svermintelligens som ble skapt i dette rommet i dag, 718 00:34:06,421 --> 00:34:10,008 kan i nær fremtid bli solgt til produsenter av selvkjørende biler. 719 00:34:10,425 --> 00:34:14,805 Om det høres skummelt ut for deg, er det mye mindre skremmende enn alternativet. 720 00:34:14,888 --> 00:34:17,641 Når en selvkjørende bil skal hugge i bremsene 721 00:34:17,724 --> 00:34:20,227 og innse at den ikke kan stoppe i tide for å unngå å treffe noen, 722 00:34:20,310 --> 00:34:23,188 burde bilen beskytte passasjeren eller fotgjengeren? 723 00:34:23,271 --> 00:34:27,275 Håpet er at bilprodusenter programmerer bilene sine 724 00:34:27,359 --> 00:34:30,737 til å reflektere moralen til befolkningen som kjøper de bilene. 725 00:34:30,821 --> 00:34:34,199 Det kyniske synet ville være at bilprodusentene 726 00:34:34,282 --> 00:34:38,286 vil konkurrere om at bilen deres vil beskytte passasjeren mer 727 00:34:38,370 --> 00:34:40,997 enn en annen bil, og at det kan være en grunn til å kjøpe. 728 00:34:41,081 --> 00:34:42,666 Det er det verste scenarioet 729 00:34:42,749 --> 00:34:45,293 for samfunnets moralske sensibilitet. 730 00:34:45,752 --> 00:34:47,295 Jøss, det er en mørk tanke. 731 00:34:47,587 --> 00:34:50,298 Og vi vil ende episoden med noe oppløftende. 732 00:34:50,966 --> 00:34:52,384 Kanskje himmelsk. 733 00:34:55,345 --> 00:34:58,682 Så før du ser for deg en fremtid med Grand Theft Auto-nivåer 734 00:34:58,765 --> 00:35:00,725 av skjødesløshet når det kommer til fotgjengeres sikkerhet, 735 00:35:00,809 --> 00:35:02,310 la oss ta en reise 736 00:35:02,394 --> 00:35:04,145 helt tilbake til der vi startet. 737 00:35:06,398 --> 00:35:08,608 I denne avsidesliggende indiske skogen 738 00:35:08,692 --> 00:35:11,820 der vi høster honning for et firma ved navn Heavenly Organics. 739 00:35:12,612 --> 00:35:14,906 Ingen eier denne skogen, 740 00:35:14,990 --> 00:35:19,035 og urbefolkningen har alltid bodd her. 741 00:35:19,744 --> 00:35:22,038 Far og sønn, Amit og Ishwar Hooda, 742 00:35:22,163 --> 00:35:24,291 startet firmaet sitt for 12 år siden 743 00:35:24,374 --> 00:35:27,127 for å gi arbeid til lokale landsbyboere. 744 00:35:27,210 --> 00:35:31,131 Hva gjorde de før de kunne høste honning med firmaet sitt? 745 00:35:31,214 --> 00:35:33,341 De gjorde det da også, 746 00:35:34,092 --> 00:35:37,345 men de hadde ikke markedet eller et sted å selge den 747 00:35:37,470 --> 00:35:39,014 for å tjene nok til å overleve. 748 00:35:40,056 --> 00:35:42,392 Det er ingen mangel på honning her. 749 00:35:42,809 --> 00:35:44,102 Under blomstringssesongen 750 00:35:44,185 --> 00:35:48,023 kan én arbeider samle et helt tonn honning på bare tre måneder. 751 00:35:48,857 --> 00:35:51,443 Men hva godt gjør det uten noen til å kjøpe det? 752 00:35:54,154 --> 00:35:57,490 Det tok en gruppe mennesker tre dager, to flyreiser 753 00:35:57,574 --> 00:36:00,827 og åtte timer med kjøring dypt inn i en nasjonalpark-skog, 754 00:36:01,286 --> 00:36:04,289 men heldigvis for lokalbefolkningen og for Heavenly Organics, 755 00:36:04,372 --> 00:36:07,751 klarte en KI-algoritme å finne dette stedet på noen sekunder 756 00:36:07,834 --> 00:36:10,462 og visste at det ville være en flott investering. 757 00:36:10,545 --> 00:36:13,882 De ringte oss helt ut av det blå og sa at de hadde kjørt en algoritme 758 00:36:13,965 --> 00:36:17,010 som sa at vi var en match 759 00:36:17,510 --> 00:36:19,137 med mye av deres portefølje. 760 00:36:19,220 --> 00:36:22,807 Og de ville snakke med oss om investering, om vi ville ha det. 761 00:36:23,141 --> 00:36:25,644 Hvem eide denne mystiske KI-algoritmen? 762 00:36:26,478 --> 00:36:28,480 Et teknologifirma ved navn CircleUp 763 00:36:28,563 --> 00:36:31,316 som holder til 13 000 km unna, i... Hvor ellers? 764 00:36:33,526 --> 00:36:36,655 Vi er hos Good Eggs, et dagligvareleveringsfirma på nettet 765 00:36:36,738 --> 00:36:39,616 som også fanget interessen til CircleUps KI. 766 00:36:39,699 --> 00:36:42,744 Dette er et Ignition-drevet firma som fikk kapital fra CircleUp, 767 00:36:42,827 --> 00:36:47,415 og som også hjelper alle de små firmaene vi jobber med med å finne kunder. 768 00:36:47,499 --> 00:36:48,500 MED-GRUNNLEGGER OG VISEADMINISTRERENDE DIREKTØR 769 00:36:48,583 --> 00:36:50,126 CircleUps viseadministrerende direktør, Rory Eakin 770 00:36:50,210 --> 00:36:53,254 jobbet både innen forretninger og humanitære organisasjoner 771 00:36:53,338 --> 00:36:54,881 før han grunnla firmaet. 772 00:36:54,965 --> 00:36:58,385 CircleUp bruker KI til å analysere milliarder av datapunkt 773 00:36:58,468 --> 00:37:00,637 og finne ut hva forbrukerne virkelig ønsker 774 00:37:00,762 --> 00:37:02,222 fra sine mat- og helseprodukter. 775 00:37:02,305 --> 00:37:03,640 Problemet man møter som kunde, er 776 00:37:03,723 --> 00:37:05,308 at det finnes hundrevis av selskap 777 00:37:05,392 --> 00:37:07,018 overalt i nesten alle kategorier. 778 00:37:07,560 --> 00:37:09,938 Så investerer de i firmaer som ligger under radaren 779 00:37:10,021 --> 00:37:12,774 som KI tror vil bli store. 780 00:37:13,066 --> 00:37:15,902 Én av de store tingene de fant, var Halo Top-iskrem. 781 00:37:17,988 --> 00:37:21,950 Halo Top-iskrem var en liten merkevare i Sør-California. 782 00:37:22,033 --> 00:37:24,369 I dag er det landets beste is. 783 00:37:24,953 --> 00:37:28,873 Vi har sett et utrolig skifte med kunder i alle kategorier. 784 00:37:28,957 --> 00:37:31,126 De vil ha sunnere produkter, 785 00:37:31,209 --> 00:37:33,128 mindre giftstoffer i hjemmene sine, 786 00:37:33,211 --> 00:37:35,797 kremer som ikke har alle slags kjemikalier i seg. 787 00:37:36,172 --> 00:37:39,884 Da CircleUps algoritme skannet flere milliarder forbruker-datapunkt, 788 00:37:39,968 --> 00:37:42,512 fant de ut at kundene ville ha en liste med egenskaper 789 00:37:42,595 --> 00:37:45,056 som var ekstremt spesifikke. 790 00:37:45,140 --> 00:37:47,475 Målbevisste, økologisk vennlige firmaer 791 00:37:47,600 --> 00:37:50,687 som høster organiske produkter og skaper økonomisk vekst 792 00:37:50,770 --> 00:37:51,855 i samfunnene sine. 793 00:37:52,480 --> 00:37:54,315 Høres umulig detaljert ut, ikke sant? 794 00:37:54,858 --> 00:37:58,987 Men CircleUp haket av alle de kravene da de fant Heavenly Organics. 795 00:37:59,946 --> 00:38:01,573 Det kan KI gjøre, 796 00:38:01,656 --> 00:38:03,658 finne mening i all denne informasjonen 797 00:38:03,742 --> 00:38:07,078 på en måte som ikke var mulig for bare ti år siden. 798 00:38:07,746 --> 00:38:11,332 Så hvordan går CircleUps samarbeid med Heavenly Organics? 799 00:38:12,208 --> 00:38:15,045 La oss reise tilbake til India og spørre Amit og Ishwar. 800 00:38:18,006 --> 00:38:20,842 Vi har bygget et nytt anlegg som er dobbelt så stort. 801 00:38:21,509 --> 00:38:24,137 Vi kan innovere, vi kan lage nye produkter. 802 00:38:24,220 --> 00:38:26,765 Vi kan ha større innvirkning på området. 803 00:38:26,848 --> 00:38:29,142 -Og de hjalp dere visst å vokse. -Ja. 804 00:38:29,225 --> 00:38:31,811 De hjalp oss skape kapasitet og skalerbarhet. 805 00:38:31,895 --> 00:38:34,773 Hvordan har det påvirket de som samler inn for dere? 806 00:38:34,856 --> 00:38:37,400 Vi forsørger nå 650 familier. 807 00:38:37,484 --> 00:38:39,486 Ettersom vi vokser, selger vi mer honning. 808 00:38:39,569 --> 00:38:41,780 For hvert tonn, legger vi til én familie. 809 00:38:41,863 --> 00:38:45,033 Det betyr at neste år vil det være 700 eller 750. 810 00:38:45,116 --> 00:38:46,534 -Jøss, ok. -Ja. 811 00:38:46,618 --> 00:38:50,914 Og dere ser at de i dag klarer seg bedre økonomisk. 812 00:38:50,997 --> 00:38:54,125 De har gode hus og gode fasiliteter i husene. 813 00:38:54,209 --> 00:38:56,127 De sender barna sine på skole. 814 00:38:56,503 --> 00:38:58,213 Det er som kapitalisme for gode ting. 815 00:38:58,296 --> 00:38:59,339 Du skjønner hva jeg mener? 816 00:38:59,422 --> 00:39:02,217 Forretninger brukt til å skape et felles beste. 817 00:39:02,884 --> 00:39:04,511 Derfor ble vi involvert. 818 00:39:06,429 --> 00:39:09,641 Vil KI gjøre opprør og styrte menneskeheten? 819 00:39:09,724 --> 00:39:12,685 Eller etterlate oss til å febrilsk lete etter mening i livene våre? 820 00:39:13,394 --> 00:39:16,648 Så langt, i denne delen av verden, har KIs påvirkning vært ganske bra. 821 00:39:17,982 --> 00:39:19,734 Kanskje det finnes et scenario der KI 822 00:39:19,818 --> 00:39:22,779 standhaftig vurderer all informasjonen vår 823 00:39:22,862 --> 00:39:25,782 og finner ut at vi ikke er så ille, og så jobber vi sammen 824 00:39:26,241 --> 00:39:30,161 for å skape en vidunderlig ny verden med velstand og robot-menneske-harmoni. 825 00:39:31,663 --> 00:39:32,747 Eller kanskje ikke. 826 00:39:33,790 --> 00:39:36,084 I så tilfelle har vi dårlig tid. 827 00:39:36,501 --> 00:39:38,962 Så kos dere med disse robot-stripperne. 828 00:40:26,217 --> 00:40:29,012 Flott! 829 00:40:31,055 --> 00:40:32,348 Det var flott! 830 00:40:32,432 --> 00:40:33,933 Vi trenger et håndkle til henne.