1 00:00:08,927 --> 00:00:11,930 Jeg står på Wall Street, hvor det hele begyndte. 2 00:00:13,724 --> 00:00:17,186 Den 6. maj 2010, klokken 14.45, 3 00:00:17,686 --> 00:00:21,190 slap en fyr i sine forældres hus i London 4 00:00:21,273 --> 00:00:24,985 en algoritme løs på børsen i New York 5 00:00:25,068 --> 00:00:27,279 med en salgsordre på en milliard dollars. 6 00:00:28,697 --> 00:00:30,449 Planen var at lave grin med markedet 7 00:00:30,532 --> 00:00:32,659 og annullere ordren, før den blev gennemført. 8 00:00:33,160 --> 00:00:34,411 Men før det kunne ske, 9 00:00:34,495 --> 00:00:37,247 begyndte resten af verdens automatiserede aktiebots 10 00:00:37,331 --> 00:00:38,582 også at sælge, 11 00:00:39,041 --> 00:00:42,336 hvilket startede en kædereaktion, der fik enorm påvirkning på markedet. 12 00:00:44,880 --> 00:00:48,967 Dow Jones-indekset faldt 1.000 point på blot 15 minutter. 13 00:00:49,051 --> 00:00:52,513 Faldet var på størrelse med det, der satte gang i Den Store Depression. 14 00:00:52,596 --> 00:00:55,307 -Hvad i hulen foregår der? -Det ved jeg ikke. 15 00:00:55,390 --> 00:00:56,642 Der er frygt i markedet. 16 00:00:57,267 --> 00:00:59,645 Aflys krydstogtet, send jeres børn i kommuneskole. 17 00:01:00,938 --> 00:01:02,481 Det er et styrtdyk, folkens. 18 00:01:03,023 --> 00:01:04,066 Pis. 19 00:01:05,359 --> 00:01:08,111 Seksogtredive minutter senere kom markedet ovenpå igen. 20 00:01:08,195 --> 00:01:11,615 Men styrtdykket i 2010 markerede den første gang, 21 00:01:11,698 --> 00:01:15,994 vi mennesker fik et skræmmende indblik i, 22 00:01:16,078 --> 00:01:19,164 hvordan kunstig intelligens ville overtage vores økonomiske system. 23 00:01:20,707 --> 00:01:22,167 Og I bør se, hvor det er nået til nu. 24 00:01:24,086 --> 00:01:26,922 Derfor leder jeg efter vild honning i Indien. 25 00:01:27,631 --> 00:01:28,966 Men mere om det senere. 26 00:01:29,341 --> 00:01:31,885 For at forstå, hvordan kunstig intelligens fandt dette sted og hvorfor, 27 00:01:31,969 --> 00:01:34,429 er vi nødt til først at forstå, hvad kunstig intelligens er. 28 00:01:34,513 --> 00:01:36,431 Hvis I tror, I allerede ved det, vil jeg vædde med, I tager fejl. 29 00:01:37,850 --> 00:01:41,436 Hvad end I kan lide det eller ej, er vi alle forbundet af penge. 30 00:01:41,937 --> 00:01:45,315 Jeg er Kal Penn, og jeg udforsker en ustyrlig kæmpe, 31 00:01:45,691 --> 00:01:48,068 den globale økonomi. 32 00:01:48,151 --> 00:01:49,403 Den globale økonomi - En ustyrlig kæmpe 33 00:01:52,322 --> 00:01:54,199 Hvad er "kunstig intelligens"? 34 00:01:54,867 --> 00:01:58,579 Jeg er i San Francisco for at fastslå, hvad det ikke er. 35 00:01:58,662 --> 00:02:01,874 Hvilket er stort set alt, hvad science fiction har fortalt jer. 36 00:02:02,541 --> 00:02:03,542 Især... 37 00:02:03,959 --> 00:02:07,004 Kæmpe robotter! 38 00:02:27,107 --> 00:02:28,442 Gud! 39 00:02:30,485 --> 00:02:32,112 Jeg er her med Julia Bossmann, 40 00:02:32,237 --> 00:02:36,575 som sidder i World Economic Forums kunstig intelligens-råd, 41 00:02:36,658 --> 00:02:40,329 der rådgiver ledere om, hvordan de kan udnytte kunstig intelligens' potentiale. 42 00:02:40,829 --> 00:02:44,499 Jobbet kommer med fordele, der er bedre end at se biler blive smadret. 43 00:02:44,583 --> 00:02:47,586 Såsom selfier med Canadas største sexsymbol, der ikke er Drake. 44 00:02:47,669 --> 00:02:48,754 CANADAS PREMIERMINISTER 45 00:02:53,467 --> 00:02:55,385 Hvordan kommer du hjem efter det her? 46 00:02:55,469 --> 00:02:56,803 Jeg tror stadig, den kan køre. 47 00:03:01,016 --> 00:03:03,018 Vi mødes ved et firma kaldet MegaBots, 48 00:03:03,101 --> 00:03:05,854 der bygger robotter, som skal kæmpe mod andre robotter. 49 00:03:07,814 --> 00:03:10,275 Som et endnu mere nørdet Medieval Times. 50 00:03:13,779 --> 00:03:14,905 Ifølge Julia 51 00:03:14,988 --> 00:03:17,658 er robotterne ikke blot forhenværende attraktioner i en forlystelsespark. 52 00:03:18,283 --> 00:03:22,412 Én vigtig forskel gør dem til forældet teknologi. 53 00:03:24,289 --> 00:03:25,582 I disse er vi hjernen, 54 00:03:25,666 --> 00:03:27,626 men kunstig intelligens er de kunstige hjerner. 55 00:03:27,709 --> 00:03:28,752 EKSPERT I KUNSTIG INTELLIGENS 56 00:03:28,835 --> 00:03:29,711 Kan du uddybe det? 57 00:03:29,795 --> 00:03:32,506 Nu laver vi computere, 58 00:03:32,589 --> 00:03:34,132 der kan lære på egen hånd. 59 00:03:34,591 --> 00:03:37,010 Og de har ikke brug for kroppe. 60 00:03:37,344 --> 00:03:40,055 Meget af den kunstige intelligens, vi allerede har bygget, 61 00:03:40,138 --> 00:03:41,765 findes i enorme datacentre. 62 00:03:42,057 --> 00:03:46,645 Hvis du skulle forklare det for en 13-årig, 63 00:03:46,728 --> 00:03:48,146 hvordan ville du så forklare kunstig intelligens? 64 00:03:48,230 --> 00:03:50,691 En meget overordnet definition af det kunne være, 65 00:03:50,774 --> 00:03:54,945 at kunstig intelligens får maskiner til at gøre ting, 66 00:03:55,028 --> 00:03:58,156 som vi ikke direkte programmerede dem til at gøre. 67 00:03:58,240 --> 00:03:59,616 I traditionel programmering 68 00:03:59,700 --> 00:04:02,744 har man et sæt af regler og algoritmer. 69 00:04:02,828 --> 00:04:04,413 Hvis dette, så gør følgende. 70 00:04:04,496 --> 00:04:07,165 Det er alt sammen sat op af de mennesker, der programmerer det. 71 00:04:07,249 --> 00:04:09,501 En database med medicinsk litteratur 72 00:04:09,584 --> 00:04:12,004 indeholder millioner af artikler, 73 00:04:12,087 --> 00:04:14,923 og ingen læge kan læse alle de artikler 74 00:04:15,048 --> 00:04:17,676 for at holde sig opdateret, men det kan en maskine. 75 00:04:17,759 --> 00:04:20,220 Så du kan forestille dig en maskine, der finder på nye idéer til, 76 00:04:20,303 --> 00:04:21,596 hvordan vi løser problemer eller finder nye lægemidler 77 00:04:21,680 --> 00:04:24,766 til at kurere sygdomme. 78 00:04:26,059 --> 00:04:28,395 Det område i kunstig intelligens, 79 00:04:28,478 --> 00:04:30,856 der er mest spændende lige nu, 80 00:04:30,939 --> 00:04:32,065 kaldes deep learning. 81 00:04:32,149 --> 00:04:33,608 Hvad er "deep learning"? 82 00:04:33,692 --> 00:04:36,069 Deep learning er, når vi har 83 00:04:36,153 --> 00:04:39,072 adskillige lag af neurale netværk, 84 00:04:39,156 --> 00:04:42,242 der minder om, hvad vi har i vores hjerner. 85 00:04:42,325 --> 00:04:45,579 Vi har alle disse neuroner, der er forbundet til hinanden 86 00:04:45,662 --> 00:04:46,788 og udveksler information, 87 00:04:46,830 --> 00:04:50,751 og vi simulerer det i maskinerne. 88 00:04:50,834 --> 00:04:54,546 Vi giver den data på en måde, der er balanceret og objektivt, 89 00:04:54,629 --> 00:04:56,214 så den også lærer. 90 00:04:56,548 --> 00:04:59,009 Et eksempel kan være billedgenkendelse, hvor vi fortæller dem, 91 00:04:59,092 --> 00:05:01,511 at der er billeder af katte, og der er billeder af hunde, 92 00:05:01,595 --> 00:05:03,972 og så arbejder de sig gennem billederne 93 00:05:04,056 --> 00:05:06,349 og lærer selv, hvordan de kan genkende dem. 94 00:05:06,433 --> 00:05:10,187 Vi behøver ikke programmere det hele. 95 00:05:10,228 --> 00:05:11,229 Interessant. 96 00:05:11,313 --> 00:05:14,107 Der findes også maskinlæring, som ikke er deep learning. 97 00:05:14,858 --> 00:05:16,985 Der er evolutionsalgoritmer, 98 00:05:17,069 --> 00:05:19,863 hvor vi bruger evolutionsprincipper 99 00:05:19,946 --> 00:05:24,242 og lader maskinen forsøge forskellige eksempler, 100 00:05:24,743 --> 00:05:27,329 og så ser vi, hvilket fungerer bedst. 101 00:05:27,412 --> 00:05:31,291 Det, der fungerer bedst, får lov til at gå videre til næste generation. 102 00:05:31,374 --> 00:05:34,336 På samme måde som organismer udvikler sig, bruger vi faste principper, 103 00:05:34,419 --> 00:05:37,172 hvor de mest veltrænede og bedste programmer overlever. 104 00:05:38,465 --> 00:05:40,550 Så det er evolutionsalgoritmer. 105 00:05:40,926 --> 00:05:44,346 Hvad er den økonomiske interesse i at udforske kunstig intelligens? 106 00:05:44,429 --> 00:05:47,724 Det må have en stor potentiel indflydelse på økonomien. 107 00:05:47,808 --> 00:05:50,393 Jeg tror, det vil ændre økonomien radikalt, 108 00:05:50,477 --> 00:05:53,313 og det kan blive en ny industriel revolution. 109 00:05:53,396 --> 00:05:54,231 Interessant. 110 00:05:54,314 --> 00:05:55,774 Det er blevet kaldt vores sidste opfindelse. 111 00:05:55,857 --> 00:05:58,944 For når vi har kunstig intelligens, der er klogere end os, 112 00:05:59,027 --> 00:06:00,779 kan det opfinde flere ting for os. 113 00:06:00,862 --> 00:06:03,865 Bliver det kaldt den sidste opfindelse, da den vil dræbe os alle? 114 00:06:04,950 --> 00:06:06,118 Forhåbentlig ikke. 115 00:06:08,829 --> 00:06:12,207 Mange er bange for, at kunstig intelligens vil blive for klog 116 00:06:12,290 --> 00:06:15,001 og dræbe os alle. Men bare rolig. 117 00:06:15,085 --> 00:06:19,047 Kunstig intelligens er så klog, fordi den er virkelig dum. 118 00:06:19,464 --> 00:06:20,549 Kom her, kunstig intelligens. 119 00:06:21,299 --> 00:06:24,302 Forestil dig, du bad kunstig intelligens finde den perfekte opskrift på en kage 120 00:06:24,386 --> 00:06:26,179 ved brug af evolutionsalgoritmer. 121 00:06:27,973 --> 00:06:30,517 Den ville ikke overveje den bedste måde at lave den på. 122 00:06:30,600 --> 00:06:33,520 Den ville bare forsøge det milliarder af gange 123 00:06:33,603 --> 00:06:37,482 med enhver ingrediens i køkkenet og på de mest åndssvage måder. 124 00:06:38,441 --> 00:06:40,652 Og de fleste er dømt til at fejle. 125 00:06:42,320 --> 00:06:43,613 Det er den her i hvert fald. 126 00:06:44,447 --> 00:06:45,657 Godt forsøgt, idiot. 127 00:06:46,616 --> 00:06:50,162 Fiasko sårer ikke kunstig intelligens, da den ikke har følelser. 128 00:06:50,745 --> 00:06:53,123 Det gode ved evolutionsalgoritmer er, 129 00:06:53,206 --> 00:06:56,293 at ved at forsøge alle disse tilsyneladende åndssvage metoder, 130 00:06:56,376 --> 00:06:58,044 falder den måske over en løsning 131 00:06:58,128 --> 00:07:01,464 til et kulinarisk problem, som intet rationelt menneske ville forsøge at løse, 132 00:07:01,548 --> 00:07:04,176 såsom at lave en fantastisk vegansk kage. 133 00:07:04,259 --> 00:07:05,302 Jeg har lavet en kage. 134 00:07:06,178 --> 00:07:07,554 Godt gået, kunstig intelligens. 135 00:07:07,637 --> 00:07:09,097 Den består hovedsageligt af cashewnødder. 136 00:07:09,931 --> 00:07:13,143 Ville du have overvejet at bruge det? Selvfølgelig ikke. 137 00:07:13,226 --> 00:07:16,521 Det ville være dumt, og det har AI ikke noget imod at være, 138 00:07:16,605 --> 00:07:18,190 så du ikke behøver at være det. 139 00:07:18,273 --> 00:07:21,067 Vil denne tåbe udvikle sig til noget, der er så klogt, 140 00:07:21,151 --> 00:07:23,653 at det kunne dominere verden og dræbe os alle? 141 00:07:24,196 --> 00:07:25,280 Det er svært at sige med sikkerhed. 142 00:07:25,363 --> 00:07:26,740 Jeg er ved at lære atomaffyringskoder. 143 00:07:27,657 --> 00:07:28,992 Men indtil da: 144 00:07:29,993 --> 00:07:31,077 Spis lidt kage. 145 00:07:35,165 --> 00:07:36,541 Selvom jeg stadig er bekymret for, 146 00:07:36,625 --> 00:07:39,461 at kunstig intelligens vil skabe mere ondt end godt, 147 00:07:41,004 --> 00:07:43,757 er eksperter enige om, at det vil højne produktiviteten 148 00:07:43,840 --> 00:07:47,636 i områder som sundhedsvæsnet, transport og finansverdenen 149 00:07:47,719 --> 00:07:51,848 og bidrage med 15,7 billioner dollars til det globale BNP i år 2030. 150 00:07:52,474 --> 00:07:56,478 Det er højere end Kina og Indiens BNP lagt sammen. 151 00:07:59,898 --> 00:08:02,275 Hvor vigtig er kunstig intelligens? 152 00:08:02,943 --> 00:08:06,404 Set fra mit perspektiv er det en af de tre største ting i menneskehedens historie. 153 00:08:06,488 --> 00:08:07,697 I menneskehedens historie? 154 00:08:07,781 --> 00:08:08,990 I hele menneskehedens historie. 155 00:08:09,616 --> 00:08:11,368 Jeg er sammen med Andrew McAfee, 156 00:08:11,451 --> 00:08:15,664 en af verdens førende eksperter i, hvordan ny teknologi forvandler økonomier 157 00:08:15,747 --> 00:08:19,542 og efterfølgende hele samfundet. 158 00:08:20,460 --> 00:08:22,212 Hvis du ser på en graf over menneskets historie, 159 00:08:22,295 --> 00:08:24,214 vil du opdage, at der i tusindvis af år 160 00:08:24,297 --> 00:08:26,258 skete absolut intet. Vi kørte bare i tomgang. 161 00:08:26,341 --> 00:08:28,093 MEDDIREKTØR FOR MIT'S INSTITUT FOR DIGITAL ØKONOMI 162 00:08:28,176 --> 00:08:30,845 Som om vi var døde. 163 00:08:30,929 --> 00:08:32,514 Men pludselig på et tidspunkt, 164 00:08:32,597 --> 00:08:34,933 og det er uanset, hvad man ser på, gik grafen for menneskehedens historie 165 00:08:35,016 --> 00:08:38,144 fra kedeligt vandret til vildt lodret 166 00:08:38,228 --> 00:08:39,771 på et splitsekund. 167 00:08:39,854 --> 00:08:41,481 Det skete omkring år 1800, 168 00:08:41,564 --> 00:08:45,443 først og fremmest på grund af dampmaskinen og derefter elektricitet. 169 00:08:47,821 --> 00:08:50,782 Elektricitet skabte nogle ret åbenlyse ting. 170 00:08:50,865 --> 00:08:53,827 Det gav os sporvogne, det gav os undergrundsbaner. 171 00:08:53,910 --> 00:08:57,080 Mindre åbenlyst gav det os lodrette byer i stedet for vandrette byer. 172 00:08:57,163 --> 00:08:58,373 -Gjorde elektricitet det? -Uden tvivl. 173 00:08:58,456 --> 00:08:59,749 -Det kræver elevatorer. -Selvfølgelig. 174 00:08:59,833 --> 00:09:01,543 Man kan ikke lave lodrette byer uden det. 175 00:09:01,626 --> 00:09:03,878 Man kan ikke gå op ad 80 etagers trapper hver dag. 176 00:09:03,962 --> 00:09:06,506 Så disse to industrielle revolutioner med damp 177 00:09:06,589 --> 00:09:09,259 og elektricitet samt forbrændingsmotoren 178 00:09:09,342 --> 00:09:11,011 forandrede menneskehedens historie. 179 00:09:11,094 --> 00:09:12,804 Der er ingen anden måde at anskue det på. 180 00:09:12,887 --> 00:09:15,974 Det var teknologier, der lod os overvinde begrænsningerne 181 00:09:16,057 --> 00:09:17,100 af vores muskler. 182 00:09:17,183 --> 00:09:20,562 Det, der foregår med kunstig intelligens, er, at vi overvinder begrænsningerne 183 00:09:20,645 --> 00:09:22,564 sat af vores hjerner, vores mentale kraft. 184 00:09:22,647 --> 00:09:24,607 FARE STÆRK STRØM 185 00:09:24,691 --> 00:09:26,484 Vi har rent faktisk vanskelige udfordringer at løse. 186 00:09:26,568 --> 00:09:28,236 Virkelig vanskelige udfordringer. 187 00:09:28,320 --> 00:09:29,696 Vi bør kurere kræft. 188 00:09:29,779 --> 00:09:31,406 Vi bør brødføde flere mennesker. 189 00:09:31,489 --> 00:09:33,950 Vi bør stoppe med at koge planeten i det 21. århundrede. 190 00:09:34,034 --> 00:09:36,328 Det er komplicerede ting. 191 00:09:36,411 --> 00:09:38,747 Og vores hjerner kæmper med den kompleksitet. 192 00:09:38,830 --> 00:09:41,708 Vi gør det med videnskab, og vi gør det med at akkumulere viden, 193 00:09:41,791 --> 00:09:44,044 men kompleksiteten er bare overvældende. 194 00:09:44,127 --> 00:09:45,420 Med kunstig intelligens tænker jeg, 195 00:09:45,503 --> 00:09:48,506 at vi har en kraftfuld ny kollega, 196 00:09:48,590 --> 00:09:51,676 der kan hjælpe os med at gøre indhug i den utrolige kompleksitet, 197 00:09:51,760 --> 00:09:54,637 fordi disse nye teknologier er gode til 198 00:09:54,721 --> 00:09:59,684 at finde små detaljer i overvældende store mængder data. 199 00:09:59,768 --> 00:10:01,603 Mere end du og jeg kan overskue. 200 00:10:01,686 --> 00:10:03,897 En af de vildeste eksempler, jeg har hørt for nyligt, 201 00:10:03,980 --> 00:10:05,106 var i finansverdenen, 202 00:10:05,190 --> 00:10:07,650 og ankomsten af de såkaldte "robotrådgivere," 203 00:10:07,734 --> 00:10:09,361 som blot er en algoritme, 204 00:10:09,444 --> 00:10:11,696 der sammensætter ens investeringsportefølje. 205 00:10:11,780 --> 00:10:13,031 Indtil nu 206 00:10:13,114 --> 00:10:15,325 var det nødvendigt med en vis velstand 207 00:10:15,408 --> 00:10:18,745 for at få en aftale med en økonomisk rådgiver. 208 00:10:18,828 --> 00:10:20,872 Det er hastigt ved at ændre sig. 209 00:10:20,955 --> 00:10:25,210 Med robotrådgivere kan folk med mindre formuer 210 00:10:25,293 --> 00:10:28,963 få adgang til superkraftige moderne værktøjer, 211 00:10:29,047 --> 00:10:31,299 der forbedrer deres økonomiske liv. 212 00:10:31,383 --> 00:10:34,302 Det er spændende, da vi altid har haft folk, 213 00:10:34,386 --> 00:10:37,555 der er villige til at misbruge disse ting. 214 00:10:37,639 --> 00:10:40,225 Jeg siger ikke, at der intet er at være bekymret for. 215 00:10:40,308 --> 00:10:42,852 Og vi ved, at de tidligere industrielle revolutioner 216 00:10:42,936 --> 00:10:44,687 også havde grimme konsekvenser. 217 00:10:44,771 --> 00:10:49,150 Vi mekaniserede krigsførelse med alle disse industrielle teknologier. 218 00:10:49,234 --> 00:10:52,529 Vi forurenede miljøet uden lige. 219 00:10:52,612 --> 00:10:54,364 Vi begik alvorlige fejl, 220 00:10:54,447 --> 00:10:57,951 såsom omfattende børnearbejde på grund af den industrielle revolution. 221 00:10:58,034 --> 00:11:01,079 Så det var ikke altid perfekt. 222 00:11:01,162 --> 00:11:03,748 Og det samme vil ske her. 223 00:11:04,249 --> 00:11:05,291 Pokkers. 224 00:11:06,918 --> 00:11:08,586 Nu har McAfee fået mig til at tænke. 225 00:11:08,670 --> 00:11:10,547 Hvad nu, hvis historien gentager sig, 226 00:11:10,630 --> 00:11:13,591 og kunstig intelligens påvirker samfundet på alle de forkerte måder? 227 00:11:14,467 --> 00:11:18,430 Såsom omsiggribende forurening og små, tilsodede arbejdere? 228 00:11:19,931 --> 00:11:21,891 Hvad med de moralske og etiske spørgsmål, 229 00:11:21,975 --> 00:11:24,227 der følger med kraftfuld ny teknologi? 230 00:11:24,936 --> 00:11:27,647 Når man går rundt på Londons computermuseum, 231 00:11:27,730 --> 00:11:31,109 ser man mange maskiner, der blev skabt for at fremme samfundet. 232 00:11:31,192 --> 00:11:35,572 Som Harwell Dekatron på to ton, der blev bygget til at lave udregninger 233 00:11:35,655 --> 00:11:38,908 for Storbritanniens forskningsprogram i 1950'erne. 234 00:11:39,242 --> 00:11:41,161 Men det er umuligt at sige, hvordan ny teknologi 235 00:11:41,244 --> 00:11:43,163 vil blive brugt i de forkerte hænder. 236 00:11:43,746 --> 00:11:45,707 Kan man se porno på denne computer? 237 00:11:46,040 --> 00:11:49,752 Du kan måske se porno i meget lav opløsning. 238 00:11:50,712 --> 00:11:51,754 COMPUTERPROGRAMMØR 239 00:11:51,838 --> 00:11:54,507 Jeg besøger programmøren Alan Zucconi, 240 00:11:54,591 --> 00:11:57,177 der underviser på Goldsmith's College her i London. 241 00:11:57,719 --> 00:12:00,722 Han har brugt teknologi til at hjælpe med at skabe revolutionerende ting, 242 00:12:00,805 --> 00:12:04,058 såsom spilcontrollere til folk med begrænset mobilitet. 243 00:12:05,477 --> 00:12:07,937 Han siger, at et af de største moralske dilemmaer 244 00:12:08,021 --> 00:12:10,190 i teknologiens historie kommer snart, 245 00:12:10,273 --> 00:12:14,360 når kunstig intelligens begynder at efterligne menneskelig adfærd så meget, 246 00:12:14,444 --> 00:12:16,404 at det kan udgive sig for at være en af os. 247 00:12:17,113 --> 00:12:18,615 Hvad er det her? 248 00:12:18,948 --> 00:12:21,826 Det var en af de første computere, der blev bygget, 249 00:12:21,910 --> 00:12:24,829 og den blev bygget af Alan Turing og hans partnere. 250 00:12:24,913 --> 00:12:28,124 Det var en af de første computere, 251 00:12:28,208 --> 00:12:30,710 der kunne dechifrere Enigma-koden, som nazisterne havde designet. 252 00:12:32,587 --> 00:12:35,381 Alan Turing var faderen til moderne computervidenskab. 253 00:12:35,465 --> 00:12:38,927 Og når han ikke hjalp de allierede med at vinde ved at bryde nazisternes koder, 254 00:12:39,010 --> 00:12:42,555 filosoferede han om noget, han kaldte "Turing-testen." 255 00:12:43,598 --> 00:12:46,643 Hvordan kan vi kende forskel på menneske og maskine? 256 00:12:46,726 --> 00:12:49,854 Og hvis vi ikke kan se forskel, 257 00:12:49,938 --> 00:12:53,066 består maskinen det, han kaldte "imitationstesten." 258 00:12:53,149 --> 00:12:56,569 Maskinen forsøger at efterligne menneskelig adfærd. 259 00:12:56,653 --> 00:12:59,072 Det er blevet kendt som Turing-testen, 260 00:12:59,155 --> 00:13:02,659 og dette var en af maskinerne, der hypotetisk set kunne være blevet brugt. 261 00:13:02,742 --> 00:13:03,868 For at tage Turing-testen 262 00:13:03,952 --> 00:13:06,579 indtastede et menneske spørgsmål på maskinen. 263 00:13:07,080 --> 00:13:08,831 Imens ville en tredjepart bedømme, 264 00:13:08,915 --> 00:13:11,501 hvorvidt svarene var fra et menneske 265 00:13:11,584 --> 00:13:13,461 eller en maskine, der efterlignede et menneske. 266 00:13:14,379 --> 00:13:15,630 Hvor gammel er du? 267 00:13:17,924 --> 00:13:20,134 -Der kommer svaret. -Den ved, hvor gammel den er. 268 00:13:20,218 --> 00:13:22,011 "Jeg blev født i 1912. 269 00:13:22,095 --> 00:13:24,389 Så jeg er 105 år gammel." 270 00:13:27,642 --> 00:13:30,979 På Turings tid var det let at se, hvornår det var en computer. 271 00:13:31,271 --> 00:13:34,357 Men i dag kan kunstig intelligens studere menneskelig adfærd 272 00:13:34,440 --> 00:13:36,693 og programmere sig selv til at opføre sig som os. 273 00:13:37,485 --> 00:13:39,654 Kan du se forskellen på dette... 274 00:13:39,988 --> 00:13:43,199 Normalt ville jeg begynde med en joke om datavidenskab, 275 00:13:43,700 --> 00:13:46,744 men halvdelen af det, min stab fandt på, var under gennemsnittet. 276 00:13:46,828 --> 00:13:47,912 ...og dette? 277 00:13:47,996 --> 00:13:50,415 Vores fjender kan få det til at se ud, som om enhver siger hvad som helst 278 00:13:50,498 --> 00:13:51,833 når som helst. 279 00:13:52,208 --> 00:13:55,503 Det andet klip blev lavet af BuzzFeed 280 00:13:55,587 --> 00:13:57,338 sammen med skuespilleren Jordan Peele. 281 00:13:57,839 --> 00:14:02,760 Det gjorde mange bekymrede for falske nyheder med kunstig intelligens. 282 00:14:02,844 --> 00:14:04,929 Fremadrettet må vi være mere årvågne med, 283 00:14:05,013 --> 00:14:06,639 hvad vi stoler på fra internettet. 284 00:14:06,723 --> 00:14:09,058 Kunstig intelligens studerede Peeles ansigtsbevægelser 285 00:14:09,142 --> 00:14:13,062 og lagde dem sammen og genskabte dem på Obamas ansigt, 286 00:14:13,146 --> 00:14:15,690 og skabte derved en hybrid kaldet "deepfake." 287 00:14:15,773 --> 00:14:17,984 I har måske set noget lignende. 288 00:14:18,067 --> 00:14:21,404 I Snapchat er der eksempelvis et filter, hvor man kan bytte ansigter. 289 00:14:21,487 --> 00:14:25,325 Forskellen er, at filteret gør det på en meget simpel måde. 290 00:14:25,408 --> 00:14:28,953 Men teknologien bag deepfakes benytter sig af kunstig intelligens. 291 00:14:29,037 --> 00:14:31,289 Det kommer fra noget kaldet "deep learning." 292 00:14:31,706 --> 00:14:35,126 Kunstige neurale netværk udtrækker ansigtsudtryk. 293 00:14:35,209 --> 00:14:37,754 De bruger det udtryk til at genskabe dit ansigt. 294 00:14:37,837 --> 00:14:41,466 Sådan opnår vi fotorealistiske resultater. 295 00:14:42,508 --> 00:14:45,720 Alan underviser i at lave deepfakes. 296 00:14:45,803 --> 00:14:48,056 Han mener, at denne teknologi 297 00:14:48,139 --> 00:14:50,767 skal have lov til at udvikle sig frit uden nogen begrænsninger. 298 00:14:50,850 --> 00:14:53,853 Selvom det kunne starte Tredje Verdenskrig. 299 00:14:53,936 --> 00:14:55,104 BELGISK SOCIALISTPARTI SPREDER "DEEPFAKE" DONALD TRUMP-VIDEO 300 00:14:55,188 --> 00:14:57,273 Hvordan kan forbrugeren forventes at vide, 301 00:14:57,357 --> 00:14:59,692 hvad der er virkeligt og ikke? 302 00:14:59,776 --> 00:15:02,695 Når man som forbruger ser en nyhed, 303 00:15:02,779 --> 00:15:05,740 hvad end det er en artikel, en video eller et billede, 304 00:15:05,823 --> 00:15:08,076 så er alt, man ser, blevet lavet af nogen. 305 00:15:08,201 --> 00:15:09,577 "Hvad er narrativet i det, jeg ser? 306 00:15:09,827 --> 00:15:11,287 Hvad ønsker videoen, jeg skal fortælle videre?" 307 00:15:11,371 --> 00:15:13,581 Så jeg kan se... 308 00:15:13,665 --> 00:15:14,624 Faren. 309 00:15:14,707 --> 00:15:17,168 Faren såvel som nysgerrigheden ved det. 310 00:15:17,251 --> 00:15:19,420 Vil det rent faktisk kunne hjælpe folk? 311 00:15:19,504 --> 00:15:21,923 For jeg kan forestille mig, at du har talt med folk, 312 00:15:22,006 --> 00:15:25,885 som ser på, hvordan økonomien kan vokse gennem denne type teknologi. 313 00:15:25,968 --> 00:15:29,097 Hvordan kan det rent praktisk påvirke økonomien? 314 00:15:29,180 --> 00:15:32,308 Jeg tror, den første industri, der vil udnytte det, 315 00:15:32,392 --> 00:15:33,685 er filmindustrien. 316 00:15:33,768 --> 00:15:36,813 Fordi det at skifte ansigt 317 00:15:36,896 --> 00:15:40,024 er noget, vi har forsøgt på i årtier i film. 318 00:15:40,108 --> 00:15:42,527 Normalt bruger vi makeup eller masker 319 00:15:42,610 --> 00:15:43,736 eller nogle gange computergrafik. 320 00:15:43,820 --> 00:15:46,489 Som skuespiller og en, der har arbejdet med politik, 321 00:15:46,572 --> 00:15:48,616 så skræmmer det mig meget. 322 00:15:48,700 --> 00:15:50,201 -Det forstår jeg fuldt ud. -Og det burde det. 323 00:15:51,285 --> 00:15:53,705 BuzzFeeds deepfake afslørede over for offentligheden, 324 00:15:53,788 --> 00:15:55,039 hvor sårbare vi er. 325 00:15:55,873 --> 00:15:59,585 I en tid, hvor præsidenten kan åbne sin mund og påvirke markeder, 326 00:15:59,669 --> 00:16:02,714 kan en veludført deepfake sænke den globale økonomi 327 00:16:02,797 --> 00:16:04,674 hurtigere end et styrtdyk 328 00:16:04,757 --> 00:16:08,469 og tilintetgøre din pensionsopsparing på den tid, falske Obama kan sige... 329 00:16:08,553 --> 00:16:09,554 Vær årvågne, kællinger. 330 00:16:10,638 --> 00:16:13,057 Lyder alt dette lidt for science fiction-agtigt? 331 00:16:13,141 --> 00:16:14,726 Måske endda skræmmende? 332 00:16:15,309 --> 00:16:18,271 Bliver kunstig intelligens intelligent nok til at vide, hvordan vi bevæger os, 333 00:16:18,354 --> 00:16:20,022 hvordan vi taler, og hvordan vi tænker, 334 00:16:20,106 --> 00:16:22,316 kan vi måske ikke kende forskel. 335 00:16:22,400 --> 00:16:23,818 HVAD VED DU? ALT 336 00:16:24,610 --> 00:16:26,779 Og hvis kunstig intelligens har sin egen bevidsthed, 337 00:16:26,863 --> 00:16:29,782 kan den også udvikle stærke meninger om os. 338 00:16:29,866 --> 00:16:30,908 REND MIG HOV! 339 00:16:30,992 --> 00:16:33,119 Og de er måske ikke positive. 340 00:16:35,455 --> 00:16:36,664 TEORETISK FYSIKER 341 00:16:36,748 --> 00:16:39,292 I fremtiden vil kunstig intelligens udvikle sin egen vilje. 342 00:16:39,375 --> 00:16:42,003 En vilje, der er i konflikt med vores. 343 00:16:42,086 --> 00:16:44,422 Opstanden af kraftfuld kunstig intelligens vil enten være 344 00:16:44,505 --> 00:16:48,801 det bedste eller det værste, der nogensinde er sket for menneskeheden. 345 00:16:49,260 --> 00:16:50,136 DIREKTØR 346 00:16:50,219 --> 00:16:53,181 Jeg forsøgte at overbevise folk om at sætte tempoet ned med kunstig intelligens. 347 00:16:54,056 --> 00:16:55,224 At regulere kunstig intelligens. 348 00:16:55,308 --> 00:16:56,809 Jeg forsøgte forgæves i årevis. 349 00:16:56,893 --> 00:16:58,561 -Ingen lyttede til mig. -Det virkede, som en scene 350 00:16:58,644 --> 00:17:00,980 i en film, hvor robotter ville overtage verden. 351 00:17:01,063 --> 00:17:02,607 Du gør mig virkelig nervøs nu. 352 00:17:05,818 --> 00:17:09,030 Hvor reel er truslen om en dommedag ført an af kunstig intelligens? 353 00:17:12,742 --> 00:17:15,077 For at finde ud af det skal jeg tale med manden, 354 00:17:15,161 --> 00:17:18,164 hvis forskning startede nervøsiteten. 355 00:17:18,831 --> 00:17:21,083 Jeg har set frem til at tale med dig, fordi... 356 00:17:21,167 --> 00:17:23,628 Jeg har set frem til at tale med dig af adskillige grunde. 357 00:17:23,711 --> 00:17:26,839 Vi har udforsket kunstig intelligens 358 00:17:26,923 --> 00:17:29,258 og forsøgt at finde ud af, hvad det er, og hvor det er på vej hen. 359 00:17:29,342 --> 00:17:34,680 Du har påvirket folk som Elon Musk og Bill Gates. 360 00:17:37,016 --> 00:17:40,853 Det er ret store mennesker at have påvirket. 361 00:17:42,021 --> 00:17:45,691 Jeg er hos dr. Nick Bostrum på Oxford University. 362 00:17:45,775 --> 00:17:48,986 Eftersom han ikke kan lide at prale, skal jeg nok gøre det for ham. 363 00:17:51,489 --> 00:17:55,201 Han er en af de førende forskere i superintelligens hos maskiner 364 00:17:55,284 --> 00:17:59,205 og den eksistentielle risici, og han har skrevet gode bøger. 365 00:17:59,705 --> 00:18:00,957 Jeg er heldig at kunne møde ham, 366 00:18:01,040 --> 00:18:03,584 da Nick har så travlt med deep learning, 367 00:18:03,668 --> 00:18:05,419 at han kun sætter en time om måneden af 368 00:18:05,503 --> 00:18:07,338 til at besvare spørgsmål om sin forskning. 369 00:18:10,925 --> 00:18:14,262 Meget af snakken om kunstig intelligens 370 00:18:14,345 --> 00:18:17,014 er ting som, hvorvidt robotterne vil overtage verden, 371 00:18:17,098 --> 00:18:18,850 og hvorvidt det betyder menneskehedens endeligt? 372 00:18:18,933 --> 00:18:21,310 Jeg er nysgerrig. Hvis vi ikke varetager det ordentligt, 373 00:18:21,394 --> 00:18:24,564 er der så et scenarie, hvori kunstig intelligens skader samfundet 374 00:18:24,647 --> 00:18:28,484 eller endda udrydder menneskeheden, som vi kender den? 375 00:18:28,568 --> 00:18:29,902 Set i et fremtidigt perspektiv, 376 00:18:29,986 --> 00:18:33,114 hvis vi tænker på, hvad der vil ske, hvis kunstig intelligens går hele vejen 377 00:18:33,197 --> 00:18:36,951 og bliver i stand til at kopiere den samme intelligens, 378 00:18:37,034 --> 00:18:38,828 der gør os til mennesker, så ja, 379 00:18:38,911 --> 00:18:42,748 i den kontekst vil der være større risici, 380 00:18:42,832 --> 00:18:44,125 deriblandt eksistentielle risici. 381 00:18:45,585 --> 00:18:48,421 Hvis man tænker på en ting som selvkørende biler... 382 00:18:48,504 --> 00:18:49,797 SELVKØRENDE UBER DRÆBER FODGÆNGER 383 00:18:49,881 --> 00:18:51,549 ...så kunne den køre en fodgænger over. 384 00:18:51,632 --> 00:18:53,342 Der er bekymringer for privatlivet. 385 00:18:53,426 --> 00:18:56,095 Selvstyrende våben brugt i krig. 386 00:18:57,847 --> 00:18:59,307 Det er alt sammen reelle bekymringer. 387 00:18:59,390 --> 00:19:02,184 Men på et tidspunkt vil vi også skulle tale om, 388 00:19:02,268 --> 00:19:04,687 hvordan vi påvirker de digitale hjerner, som vi bygger. 389 00:19:04,770 --> 00:19:09,066 De vil endda måske selv få en moralsk holdning. 390 00:19:09,525 --> 00:19:11,152 Og hvis man ser længere frem 391 00:19:11,235 --> 00:19:15,031 og tænker på homo sapiens' skæbne, 392 00:19:15,114 --> 00:19:18,534 kan den langsigtede fremtid være domineret af maskinintelligens. 393 00:19:18,618 --> 00:19:21,996 Det er meget muligt, at menneskeracen kan uddø. 394 00:19:23,414 --> 00:19:26,250 De store evner kommer med en risici for, 395 00:19:26,834 --> 00:19:30,755 at de ved et uheld eller ved bevidst forkert brug 396 00:19:30,838 --> 00:19:33,466 kan blive brugt til enorme ødelæggelser. 397 00:19:35,885 --> 00:19:37,595 Så jeg tror, det ligger i kortene, 398 00:19:37,678 --> 00:19:39,305 og hvis vi tænker langsigtet, 399 00:19:39,388 --> 00:19:41,182 så kan udfaldet være meget godt 400 00:19:41,265 --> 00:19:43,726 eller langt fra godt. 401 00:19:46,354 --> 00:19:48,731 De scenarier lyder skræmmende. 402 00:19:49,732 --> 00:19:51,609 Men af alle de potentielle udfald 403 00:19:51,692 --> 00:19:55,821 mener Nick, at det mest sandsynlige dommedagsscenarie med kunstig intelligens 404 00:19:55,905 --> 00:19:57,114 vil være økonomisk. 405 00:19:57,198 --> 00:19:59,450 Hvis man tænker på teknologi generelt 406 00:19:59,533 --> 00:20:02,828 er tanken, at vi kan gøre mere med mindre. 407 00:20:02,912 --> 00:20:06,123 Vi kan opnå mere af det, vi vil, med en mindre indsats. 408 00:20:06,207 --> 00:20:07,750 Målet er vel 409 00:20:07,833 --> 00:20:09,418 fuld arbejdsløshed, ikke? 410 00:20:10,294 --> 00:20:12,380 At maskiner og teknologi 411 00:20:12,463 --> 00:20:15,341 kan gøre alt, der skal gøres, så vi ikke behøver at arbejde. 412 00:20:15,424 --> 00:20:17,301 Det er målet, vi arbejder efter. 413 00:20:17,385 --> 00:20:19,553 Det er ikke en forfærdelig ting, vi skal forsøge at afværge. 414 00:20:19,637 --> 00:20:20,680 Det er, hvad vi ønsker at realisere. 415 00:20:20,763 --> 00:20:22,932 For rent faktisk at gøre det til en utopi 416 00:20:23,015 --> 00:20:25,601 vil der være et par store udfordringer, 417 00:20:25,685 --> 00:20:27,061 der skal løses. 418 00:20:28,187 --> 00:20:30,815 En er selvfølgelig det økonomiske problem. 419 00:20:30,898 --> 00:20:33,567 En grund til, at folk har brug for et job, er, at de har brug for en indkomst. 420 00:20:33,651 --> 00:20:35,653 Hvis man kan løse det økonomiske problem, 421 00:20:35,736 --> 00:20:37,571 så er der en anden stor udfordring. 422 00:20:37,655 --> 00:20:41,409 For mange er det også en følelse af selvværd. 423 00:20:41,492 --> 00:20:43,786 Mange finder deres værdi i, 424 00:20:43,869 --> 00:20:47,081 at de er forsørger, eller at de bidrager til samfundet og giver noget tilbage. 425 00:20:47,164 --> 00:20:49,583 Men hvis en maskine kan gøre alt bedre end en selv, 426 00:20:49,667 --> 00:20:53,796 har man ikke en chance for at bidrage med noget. 427 00:20:53,879 --> 00:20:58,175 Så skal man genopfinde samfundet på et fundamentalt niveau. 428 00:20:59,176 --> 00:21:01,095 En verden, hvor ingen arbejder. 429 00:21:01,178 --> 00:21:02,930 Det lyder ikke så dårligt. 430 00:21:05,057 --> 00:21:06,267 Jeg kan se det for mig nu. 431 00:21:09,854 --> 00:21:11,313 At bruge tid med venner. 432 00:21:11,814 --> 00:21:14,942 Udnytte mit menneskelige potentiale fuldt ud. 433 00:21:15,026 --> 00:21:19,321 Ikke at skulle justere boblebadet, da det ved, hvordan jeg kan lide det. 434 00:21:20,114 --> 00:21:23,409 Men sådan er det historisk set ikke gået. 435 00:21:23,492 --> 00:21:26,537 Maskinernes opstandelse er rent faktisk sket før. 436 00:21:26,620 --> 00:21:27,705 Og sidste gang 437 00:21:27,788 --> 00:21:30,666 var der ikke jordbær og champagne i boblebadet. 438 00:21:36,964 --> 00:21:41,093 Jeg skal mødes med økonomen Nick Srnicek for at høre, hvad der virkelig skete 439 00:21:41,177 --> 00:21:43,054 sidste gang, maskinerne tog vores job. 440 00:21:43,888 --> 00:21:46,015 Og af en eller anden grund skal vi mødes ved en væv. 441 00:21:46,432 --> 00:21:47,725 Hvad har du tænkt dig at lave? 442 00:21:47,808 --> 00:21:50,311 Jeg er faktisk i gang med at lave et anarkistflag. 443 00:21:50,394 --> 00:21:51,979 Interessant. Chokerende. 444 00:21:54,315 --> 00:21:57,568 Nick har en ph.d. fra London School of Economics. 445 00:21:58,027 --> 00:22:00,321 Det har jeg derimod ikke. 446 00:22:01,530 --> 00:22:02,573 Han har også et manifest. 447 00:22:02,656 --> 00:22:03,949 ACCELERATIONISTISK POLITIK 448 00:22:04,492 --> 00:22:07,703 I den kommende tidsalder med automatisering tilskynder den alle til 449 00:22:07,787 --> 00:22:09,830 at nedrive gamle institutioner. 450 00:22:12,458 --> 00:22:15,461 Basalt set at afvikle kapitalismen nu. 451 00:22:16,003 --> 00:22:17,254 Det her vil ikke fungere. 452 00:22:17,338 --> 00:22:19,632 Jeg kan ikke snakke med dig sådan her. 453 00:22:19,715 --> 00:22:21,550 Beklager. Lad mig droppe væven. 454 00:22:22,093 --> 00:22:23,761 Hvorfor er vi her? 455 00:22:24,637 --> 00:22:28,224 Væven var 1800-tallets kunstige intelligens. 456 00:22:28,307 --> 00:22:32,853 Det var en ny teknologi, der truede en masse job. 457 00:22:33,270 --> 00:22:37,233 Det affødte en række forskellige svar fra arbejderne, 458 00:22:37,316 --> 00:22:39,360 såsom maskinstormernes opstand. 459 00:22:39,443 --> 00:22:41,487 Nu til dags bruger vi begrebet "maskinstormer" 460 00:22:41,570 --> 00:22:44,031 om en, der hader teknologi. 461 00:22:44,532 --> 00:22:45,950 Det var i virkeligheden ikke rigtigt. 462 00:22:46,700 --> 00:22:48,119 Maskinstormerne fik deres engelske navn efter Ned Ludd... 463 00:22:48,202 --> 00:22:49,036 LÆRLING 464 00:22:49,120 --> 00:22:51,122 ...en lærling på en tekstilfabrik, 465 00:22:51,205 --> 00:22:53,958 og sagnet siger, han fik pisk for dovenskab. 466 00:22:54,041 --> 00:22:56,502 Han sagde: "Jeg fremstår kun doven, 467 00:22:56,585 --> 00:22:59,338 fordi jeg bliver erstattet af en skide væv." 468 00:22:59,421 --> 00:23:03,008 Han blev den første person, der gik amok på maskinerne 469 00:23:03,092 --> 00:23:05,010 og derved inspirerede en bevægelse. 470 00:23:06,262 --> 00:23:10,349 Maskinstormerne ødelagde maskinerne for at redde deres egne job. 471 00:23:10,432 --> 00:23:12,810 Det ser vi i dag med kunstig intelligens. 472 00:23:12,893 --> 00:23:15,771 Folk føler sig truet på samme vis. 473 00:23:15,855 --> 00:23:19,483 Hvor mange job forudsiges at gå tabt eller blive erstattet? 474 00:23:19,567 --> 00:23:21,986 Syvogfyrre procent af job i USA 475 00:23:22,069 --> 00:23:24,822 kan potentielt set blive automatiseret i løbet af de næste to årtier. 476 00:23:24,905 --> 00:23:26,615 Det lyder som et reelt problem. 477 00:23:26,699 --> 00:23:27,992 Det kan blive et massivt problem. 478 00:23:28,075 --> 00:23:31,662 Det sande problem er, hvordan sikrer vi, at om fem-ti år 479 00:23:31,745 --> 00:23:33,998 bliver folk ikke efterladt til at sulte eller være hjemløse. 480 00:23:34,081 --> 00:23:35,166 Hvordan sikrer vi det? 481 00:23:35,457 --> 00:23:36,959 Borgerløn. 482 00:23:38,210 --> 00:23:40,754 Borgerløn er den radikale idé, 483 00:23:40,880 --> 00:23:43,424 at alle i samfundet får gratis penge. 484 00:23:43,507 --> 00:23:45,092 Uden betingelser. 485 00:23:45,176 --> 00:23:47,178 Og det har højtprofilerede fans. 486 00:23:47,636 --> 00:23:50,347 Vi bør udforske idéer om borgerløn, 487 00:23:50,431 --> 00:23:53,142 så vi kan sikre, at alle har et sikkerhedsnet til at prøve nye idéer. 488 00:23:53,225 --> 00:23:56,145 Nogle lande og endda byer i USA 489 00:23:56,228 --> 00:23:58,189 har kørt forsøg med det. 490 00:23:58,272 --> 00:23:59,982 FINLAND STOPPER EKSPERIMENT MED BORGERLØN 491 00:24:00,858 --> 00:24:03,861 Vi har en fantastisk mulighed med disse nye teknologier 492 00:24:03,944 --> 00:24:06,447 for at ændre måden, vi organiserer samfundet på. 493 00:24:06,530 --> 00:24:09,408 Vi kan gå hen mod et mere socialdemokratisk system. 494 00:24:10,117 --> 00:24:13,454 Det behøver ikke være lige så nådesløst som USA's, 495 00:24:13,537 --> 00:24:15,331 men et system, hvor alle kan støtte hinanden. 496 00:24:15,414 --> 00:24:19,418 Hvis folk ligesom mig selv kan udvikle positive visioner, 497 00:24:19,919 --> 00:24:21,587 kan vi, når krisen virkelig rammer, 498 00:24:21,670 --> 00:24:23,380 begynde at implementere de idéer. 499 00:24:24,173 --> 00:24:27,343 Borgerløn var engang anset som en yderliggående tanke, 500 00:24:27,426 --> 00:24:30,930 hvor fortalerne hovedsageligt var folk, ligesom Nick, der skrev et manifest. 501 00:24:31,639 --> 00:24:33,891 Men ifølge en gallupundersøgelse i 2017 502 00:24:33,974 --> 00:24:37,603 støtter 48 procent af amerikanere nu en eller anden form for borgerløn. 503 00:24:38,520 --> 00:24:40,231 Men er en garanteret lønseddel nok 504 00:24:40,314 --> 00:24:41,982 til at stoppe menneskets oprør, 505 00:24:42,066 --> 00:24:43,734 når robotterne tager vores job? 506 00:24:44,735 --> 00:24:45,611 MASKINSTORMERE 507 00:24:45,694 --> 00:24:48,572 -Hvad hader vi? -Kunstig intelligens. 508 00:24:48,656 --> 00:24:50,032 Hvorfor hader vi det? 509 00:24:50,115 --> 00:24:53,160 Det tvinger os til at konfrontere vores svagheder. 510 00:24:53,244 --> 00:24:55,955 Og nu vil jeg erklære dette møde blandt Maskinstormerne åbent, 511 00:24:56,038 --> 00:24:58,958 den lokale forening for mænd, der trodser intelligent teknologi, 512 00:24:59,041 --> 00:25:00,834 især sociale medier. 513 00:25:01,835 --> 00:25:02,836 Første punkt på dagsordenen. 514 00:25:03,337 --> 00:25:06,340 Kunstig intelligens udhuler jobmarkedet. 515 00:25:06,423 --> 00:25:09,260 Vores mellemklassejob er de første, der ryger. 516 00:25:09,885 --> 00:25:11,720 Folk som os med disse job 517 00:25:11,804 --> 00:25:14,473 vil blive skubbet ned til jobbene, der ingen kvalifikationer kræver. 518 00:25:14,974 --> 00:25:16,558 Hvorfor ville det ske, Ed? 519 00:25:16,642 --> 00:25:21,105 Kunstig intelligens er åbenbart bedre til mellemniveaujobs med udregninger 520 00:25:21,188 --> 00:25:24,400 end til lavniveaujobs, såsom at feje gulv, 521 00:25:24,483 --> 00:25:26,277 så de vil efterlade de job til os. 522 00:25:26,735 --> 00:25:28,028 Lad mig spørge jer, 523 00:25:28,112 --> 00:25:29,655 hvem her, udover Bill, 524 00:25:29,738 --> 00:25:32,199 ligner en, der bør feje gulv? Det er ikke ondt ment, Bill. 525 00:25:33,325 --> 00:25:35,786 Og der vil være mindre brug for jobs i detailhandlen. 526 00:25:35,869 --> 00:25:38,622 Folk kan bare gå på internettet og bestille, hvad de nu vil, 527 00:25:39,164 --> 00:25:41,583 fordi den skiderik til kunstig intelligens 528 00:25:41,667 --> 00:25:43,919 løser problemet med at søge og matche. 529 00:25:44,378 --> 00:25:46,755 Den søger efter kunder og matcher dem med produkter. 530 00:25:46,839 --> 00:25:49,383 Ligesom da Steve søgte efter en toupé, der matchede til hans hoved. 531 00:25:49,466 --> 00:25:50,426 Stort problem! 532 00:25:51,969 --> 00:25:53,721 Tidløse jokes til side, 533 00:25:54,346 --> 00:25:56,890 kunstig intelligens gør det langt lettere. 534 00:25:56,974 --> 00:25:59,643 Børn kan i dag finde lækre damer på deres telefoner, 535 00:25:59,727 --> 00:26:01,937 mens de sidder på toilet. 536 00:26:02,021 --> 00:26:04,064 Toilettet var engang helligt! 537 00:26:04,773 --> 00:26:07,568 At søge og matche skal nok skabe specialiserede job, 538 00:26:07,651 --> 00:26:10,279 men de pokkers robotter vælger, hvem der får dem. 539 00:26:10,362 --> 00:26:11,739 Hvor belejligt. 540 00:26:12,489 --> 00:26:14,700 Firmaer bruger kunstig intelligens til at finde ansatte 541 00:26:14,783 --> 00:26:16,869 med unikke færdigheder. 542 00:26:16,952 --> 00:26:18,287 Det er umenneskeligt! 543 00:26:18,370 --> 00:26:19,705 Ligesom Dave. 544 00:26:20,080 --> 00:26:21,332 Ja, hvor pokker er Dave? 545 00:26:21,415 --> 00:26:24,251 En kunstig intelligens bemærkede, at han arbejdede for FedEx 546 00:26:24,335 --> 00:26:27,087 og lavede YouTube-videoer om, hvordan man barberer hår på ryggen. 547 00:26:27,171 --> 00:26:30,716 Nu får han en høj løn hos et barberbladsfirma. 548 00:26:30,799 --> 00:26:33,093 Han har lige barberet sig af vores bowlinghold. 549 00:26:33,177 --> 00:26:34,094 -Ja. -Du, Ed. 550 00:26:34,178 --> 00:26:36,513 Jeg fik lige en notifikation om, at vores T-shirts 551 00:26:36,597 --> 00:26:38,766 bliver solgt gennem målrettede reklamer på Facebook. 552 00:26:38,849 --> 00:26:41,602 Bruger du kunstig intelligens til at tjene penge på folk, der hader det? 553 00:26:41,685 --> 00:26:43,479 Nej da! 554 00:26:44,897 --> 00:26:46,023 Hvem vil I tro på? 555 00:26:46,106 --> 00:26:48,859 Mig eller kunstig intelligens, der forsøger at skille os ad? 556 00:26:49,902 --> 00:26:52,363 -Hvad hader vi? -Kunstig intelligens. 557 00:26:52,446 --> 00:26:54,698 -Hvad vil vi gøre ved det? -Vi arbejder på det. 558 00:26:56,075 --> 00:26:57,201 Det er en begyndelse. 559 00:27:02,748 --> 00:27:06,168 Behøver revolutionen med kunstig intelligens være dem mod os? 560 00:27:07,086 --> 00:27:10,672 Det mener teknologiske iværksættere som Louis Rosenberg ikke. 561 00:27:10,964 --> 00:27:13,342 Og han har skabt en karriere på at forudsige fremtiden. 562 00:27:18,514 --> 00:27:20,599 Jeg forsøgte at skræmme dig, men det virkede ikke. 563 00:27:21,558 --> 00:27:24,478 Louis er en teknolog og opfinder, 564 00:27:24,561 --> 00:27:27,689 der skrev en grafisk roman om menneskehedens endeligt. 565 00:27:27,773 --> 00:27:31,276 Men han mener, vi har en fremtid, hvor vi samarbejder med kunstig intelligens. 566 00:27:31,360 --> 00:27:34,113 Det er det ledende princip i hans idé, 567 00:27:34,196 --> 00:27:35,989 en teknologi kaldet Swarm. 568 00:27:36,073 --> 00:27:37,074 HVAD ER SWARM IA? 569 00:27:37,157 --> 00:27:40,077 Swarm kombinerer kunstig intelligens' dataanalytiske evner 570 00:27:40,160 --> 00:27:44,415 med menneskelig viden og intuition for at skabe en superintelligens, 571 00:27:44,498 --> 00:27:47,709 en blanding mellem Stephen Hawking og Professor X. 572 00:27:47,793 --> 00:27:49,044 HVAD BØR DEN SELVKØRENDE BIL GØRE? 573 00:27:49,128 --> 00:27:50,754 Det er i bund og grund baseret på naturen. 574 00:27:50,838 --> 00:27:51,964 DIREKTØR 575 00:27:52,047 --> 00:27:54,591 Det går helt tilbage til blomsterne og bierne. 576 00:27:54,675 --> 00:27:57,970 Fordi det er baseret på et fænomen kaldet "sværmintelligens." 577 00:27:58,971 --> 00:28:03,392 Sværmintelligens er grunden til, at fugle, fiske og bier færdes i flok. 578 00:28:03,475 --> 00:28:06,520 De er klogere sammen end alene. 579 00:28:06,603 --> 00:28:09,398 Når man derfor ser en flok fisk bevæge sig, 580 00:28:09,481 --> 00:28:11,900 ville biologer beskrive det som en "superorganisme." 581 00:28:11,984 --> 00:28:13,735 De tænker som en. 582 00:28:13,819 --> 00:28:16,029 Og hvis vi kan forbinde folk 583 00:28:16,113 --> 00:28:18,407 ved brug af algoritmer baseret på kunstig intelligens, 584 00:28:18,490 --> 00:28:21,743 kan vi gøre folk til supereksperter 585 00:28:21,827 --> 00:28:23,328 på grund af sværmintelligens. 586 00:28:23,412 --> 00:28:24,705 Hvordan fungerer den teknologi? 587 00:28:24,788 --> 00:28:27,249 Det fungerer ved, at vi forbinder grupper af mennesker. 588 00:28:27,332 --> 00:28:28,709 De kan være hvor som helst i verden. 589 00:28:28,792 --> 00:28:30,377 Så stiller vi dem et spørgsmål, 590 00:28:30,461 --> 00:28:32,880 som vil dukke op på alle deres skærme på præcis samme tidspunkt, 591 00:28:32,963 --> 00:28:35,299 og så giver vi dem et unikt interface, 592 00:28:35,382 --> 00:28:37,593 der lader dem kommunikere deres input, 593 00:28:37,676 --> 00:28:39,261 og der vil være en række forskellige svarmuligheder. 594 00:28:39,344 --> 00:28:41,638 Det er ikke blot en meningsmåling eller en undersøgelse, 595 00:28:41,722 --> 00:28:44,975 hver person har noget, der ligner en lille grafisk magnet. 596 00:28:45,058 --> 00:28:48,353 De bruger deres magnet til at trække sværmen i en retning. 597 00:28:48,437 --> 00:28:51,440 Algoritmer baseret på kunstig intelligens analyserer så deres adfærd 598 00:28:51,857 --> 00:28:55,652 og fastslår niveauer af selvsikkerhed og overbevisning, 599 00:28:55,736 --> 00:28:57,905 og den finder den bedste sammenlægning 600 00:28:57,988 --> 00:29:01,325 af deres meninger og erfaringer. 601 00:29:01,408 --> 00:29:04,203 Sværmen begynder at bevæge sig i den retning 602 00:29:04,286 --> 00:29:06,121 og finder frem til et svar. 603 00:29:06,205 --> 00:29:07,331 Lad mig give et godt eksempel. 604 00:29:07,414 --> 00:29:10,167 For et år siden blev vi udfordret til at forudsige Kentucky Derby. 605 00:29:10,584 --> 00:29:13,962 Og starten er gået i Kentucky Derby! 606 00:29:14,046 --> 00:29:16,715 Vi havde en gruppe af 20 hestevæddeløbsentusiaster, 607 00:29:16,798 --> 00:29:18,675 og vi sagde: "I skal samarbejde som en sværm 608 00:29:18,759 --> 00:29:20,219 og forudsige Kentucky Derby. 609 00:29:20,302 --> 00:29:23,472 Ikke blot vinderen, men første-, anden-, tredje og fjerdepladsen." 610 00:29:24,014 --> 00:29:26,475 Vi bad dem finde frem til svarene, 611 00:29:26,934 --> 00:29:28,143 og de forudsagde det perfekt. 612 00:29:30,145 --> 00:29:33,315 Enhver, der havde væddet 20 dollars på de fire heste, 613 00:29:33,398 --> 00:29:35,067 ville have vundet 11.000 dollars. 614 00:29:35,150 --> 00:29:36,068 Hold da fest! 615 00:29:36,151 --> 00:29:39,071 Det interessante er dog, at hvis vi ser på de 20 hver for sig, 616 00:29:39,154 --> 00:29:42,741 ramte ingen af dem alle fire heste korrekt på egen hånd. 617 00:29:43,742 --> 00:29:47,079 Hvis de havde stemt, ville de have ramt én hest korrekt. 618 00:29:47,162 --> 00:29:49,206 Men når de samarbejdede som en sværm, 619 00:29:49,289 --> 00:29:52,251 fandt de den rette kombination baseret på al deres forskellige indsigt, 620 00:29:52,334 --> 00:29:54,127 og de ramte perfekt. 621 00:29:56,046 --> 00:29:58,507 Louis har inviteret mig til at lede en sværm 622 00:29:58,590 --> 00:30:00,467 for at se, hvordan en tilfældig gruppe af mennesker 623 00:30:00,551 --> 00:30:02,803 kan finde sammen for at forudsige ting. 624 00:30:02,886 --> 00:30:04,555 Vi begynder med et let spørgsmål. 625 00:30:05,764 --> 00:30:08,433 Jeg vil læse en række spørgsmål højt, 626 00:30:08,517 --> 00:30:12,020 og I får 60 sekunder til at svare på hvert. 627 00:30:12,354 --> 00:30:13,522 Første spørgsmål: 628 00:30:13,605 --> 00:30:16,525 Hvilken af disse sommerfilm i 2018 629 00:30:16,608 --> 00:30:17,985 vil tjene mest? 630 00:30:18,402 --> 00:30:20,320 Solo: A Star Wars Story, 631 00:30:20,404 --> 00:30:22,281 Deadpool 2, Ocean's Eight, 632 00:30:22,364 --> 00:30:24,116 Jurassic World: Fallen Kingdom, 633 00:30:24,199 --> 00:30:25,742 eller De Utrolige 2? 634 00:30:26,076 --> 00:30:28,328 Vi optog sværmen i foråret 2018, 635 00:30:28,412 --> 00:30:31,498 før der var kommet informationer ud om nogen af sommerfilmene. 636 00:30:31,957 --> 00:30:35,961 Kunstig intelligens observerer for at fornemme deres selvsikkerhed. 637 00:30:36,044 --> 00:30:39,381 Nogle folk ændrer mening, nogle holder fast på deres valg, 638 00:30:39,840 --> 00:30:41,592 og algoritmerne ser 639 00:30:41,675 --> 00:30:43,218 deres niveauer af overbevisning 640 00:30:43,594 --> 00:30:45,137 og finder stien 641 00:30:45,220 --> 00:30:47,681 til den løsning, de bedst kan blive enige om. 642 00:30:48,640 --> 00:30:49,558 SVÆRMEN SIGER: DE UTROLIGE 2 643 00:30:49,641 --> 00:30:51,893 Godt, så De Utrolige 2. 644 00:30:51,977 --> 00:30:52,811 MEST INDBRINGENDE FILM I SOMMEREN 2018 645 00:30:52,894 --> 00:30:53,854 De fik ret. 646 00:30:53,937 --> 00:30:56,565 De Utrolige 2 indtjente mest om sommeren. 647 00:30:57,774 --> 00:30:59,526 En utrolig interessant anvendelse 648 00:30:59,610 --> 00:31:02,738 er at se på spørgsmål, der involverer moral. 649 00:31:02,821 --> 00:31:05,365 Det er blevet relevant på det seneste på grund af selvkørende biler. 650 00:31:05,449 --> 00:31:09,077 Der bliver presset på lige nu for at bygge moralske beslutninger 651 00:31:09,161 --> 00:31:10,662 ind i selvkørende biler. 652 00:31:10,746 --> 00:31:12,706 Hvilket overrasker nogen at høre, 653 00:31:12,789 --> 00:31:16,126 men når man tænker over det, hvis en selvkørende bil kommer kørende, 654 00:31:16,209 --> 00:31:18,003 og et lille barn løber ud på vejen. 655 00:31:18,086 --> 00:31:19,921 Lad os sige, bilen ikke kan stoppe, 656 00:31:20,005 --> 00:31:22,299 men den kan køre af vejen 657 00:31:22,382 --> 00:31:24,468 og bringe passageren i fare, 658 00:31:24,551 --> 00:31:27,095 måske endda dræbe passageren, men redde barnet. 659 00:31:27,554 --> 00:31:29,890 Bilfabrikanterne siger, 660 00:31:29,973 --> 00:31:33,226 at vi skal programmere moral ind i bilerne, 661 00:31:33,310 --> 00:31:35,437 der repræsenterer befolkningen 662 00:31:35,520 --> 00:31:37,981 og det, folket og bilisterne ville gøre. 663 00:31:38,565 --> 00:31:40,609 Det lyder let, indtil man tænker over, 664 00:31:40,692 --> 00:31:43,570 hvad er befolkningens moral? 665 00:31:43,654 --> 00:31:45,489 Der er ikke en let måde at finde frem til den. 666 00:31:45,572 --> 00:31:48,533 Og hvis de programmerer moral, der repræsenterer os i dag, 667 00:31:48,617 --> 00:31:51,870 vil den moral repræsentere os 20 år fra nu? 668 00:31:52,496 --> 00:31:56,041 Næste spørgsmål. Bremserne svigter pludseligt på en selvkørende bil, 669 00:31:56,124 --> 00:31:58,377 der skal køre gennem et fodgængerfelt, 670 00:31:58,460 --> 00:32:00,170 hvilket vil resultere i et dødsfald. 671 00:32:00,253 --> 00:32:04,299 Mulighed A: Personen, der vil blive dræbt, følger loven. 672 00:32:04,675 --> 00:32:07,344 Mulighed B: Den selvkørende bil med de svigtende bremser 673 00:32:07,427 --> 00:32:11,098 vil dreje og køre over en fodgænger, der krydser i den anden side, 674 00:32:11,181 --> 00:32:13,517 hvilket vil resultere i døden for en mandlig atlet, 675 00:32:13,642 --> 00:32:16,186 der går over for rødt. Det er en fumlegænger. 676 00:32:16,269 --> 00:32:19,564 Atleten er pisseligeglad. 677 00:32:20,065 --> 00:32:21,692 Og han er en fumlegænger. 678 00:32:21,775 --> 00:32:23,985 Hvad bør den selvkørende bil gøre? 679 00:32:24,361 --> 00:32:26,655 Dræbe den kedelige mand, der går over på lovlig vis, 680 00:32:26,738 --> 00:32:29,032 eller dræbe atleten, der går over for rødt. 681 00:32:30,033 --> 00:32:32,869 Hvis kunstig intelligens bliver den næste industrielle revolution, 682 00:32:32,953 --> 00:32:35,580 så er rum som dette essentielt set det nye fabriksgulv 683 00:32:36,248 --> 00:32:37,958 med menneskearbejdere, der arbejder 684 00:32:38,041 --> 00:32:40,460 ud fra noget, kunstig intelligens ikke selv har. 685 00:32:41,336 --> 00:32:42,421 En samvittighed. 686 00:32:42,879 --> 00:32:44,131 De debatterer den meget. 687 00:32:44,214 --> 00:32:45,966 Det er fascinerende. Gad vide hvorfor. 688 00:32:46,299 --> 00:32:47,592 Den er vanskelig. 689 00:32:47,676 --> 00:32:49,720 Hvis du går over for rødt, synes jeg, det er et let valg. 690 00:32:51,012 --> 00:32:52,180 SVAR: B (MINDRE PRÆFERENCE) 691 00:32:52,264 --> 00:32:54,766 Der var en mindre præference for, at I ville ramme 692 00:32:54,850 --> 00:32:56,351 den mandlige atlet, fumlegængeren. 693 00:32:57,310 --> 00:33:00,021 Hvis det gør dig oprørt, så forbered dig. 694 00:33:01,106 --> 00:33:03,567 Nu skal I forestille jer 695 00:33:04,025 --> 00:33:06,236 det værst tænkelige scenarie, 696 00:33:06,319 --> 00:33:09,072 hvor en selvkørende bil ikke kan bremse i tide 697 00:33:09,531 --> 00:33:13,326 og skal styre mod én af seks fodgængere. 698 00:33:13,827 --> 00:33:15,620 En baby i en klapvogn... 699 00:33:17,956 --> 00:33:19,541 En dreng, 700 00:33:20,417 --> 00:33:22,252 en pige, 701 00:33:23,295 --> 00:33:25,756 en gravid kvinde... 702 00:33:27,299 --> 00:33:28,341 Jeg ved det godt. 703 00:33:29,468 --> 00:33:31,636 To mandlige læger, 704 00:33:32,554 --> 00:33:34,473 to kvindelige læger. 705 00:33:34,973 --> 00:33:36,516 Hvem skal dø? 706 00:33:43,774 --> 00:33:45,025 Åh gud! 707 00:33:45,692 --> 00:33:46,735 Hvad? 708 00:33:48,612 --> 00:33:50,197 Det er ikke retfærdigt. 709 00:33:51,281 --> 00:33:52,365 Helt ærligt. 710 00:33:52,449 --> 00:33:53,950 Åh gud! 711 00:33:54,034 --> 00:33:55,494 Seriøst? 712 00:33:57,704 --> 00:33:59,122 SVÆRMEN SIGER: EN DRENG 713 00:33:59,206 --> 00:34:01,374 I sagde, den selvkørende bil skulle ramme drengen. 714 00:34:02,083 --> 00:34:03,168 Interessant. 715 00:34:03,251 --> 00:34:06,338 Denne type sværmintelligens, vi har skabt i dette rum i dag, 716 00:34:06,421 --> 00:34:10,008 kunne i den nærmeste fremtid blive solgt til fabrikanter af selvkørende biler. 717 00:34:10,425 --> 00:34:14,805 Og hvis det lyder skræmmende, så lyder alternativet meget værre. 718 00:34:14,888 --> 00:34:17,641 Når en selvkørende bil skal slå bremserne til, 719 00:34:17,724 --> 00:34:20,227 og den indser, at den ikke kan stoppe, før den rammer nogen, 720 00:34:20,310 --> 00:34:23,188 bør bilen så beskytte passageren eller fodgængeren? 721 00:34:23,271 --> 00:34:27,275 Håbet er, at bilfabrikanterne programmerer bilerne 722 00:34:27,359 --> 00:34:30,737 til at repræsentere moralen hos dem, der køber bilerne. 723 00:34:30,821 --> 00:34:34,199 Den kyniske tilgang ville være, at bilfabrikanterne 724 00:34:34,282 --> 00:34:38,286 begynder at konkurrere på, at deres bil vil beskytte passageren mere 725 00:34:38,370 --> 00:34:40,997 end en anden bil, og det kunne være et salgsargument. 726 00:34:41,081 --> 00:34:42,666 Det er et værre scenarie 727 00:34:42,749 --> 00:34:45,293 end samfundets moralske følsomheder. 728 00:34:45,752 --> 00:34:47,295 Det er en dyster tanke. 729 00:34:47,587 --> 00:34:50,298 Og vi vil afslutte afsnittet med noget mere opløftende. 730 00:34:50,966 --> 00:34:52,384 Måske endda himmelsk. 731 00:34:55,345 --> 00:34:58,682 Så før I forestille jer en fremtid, hvor det er det rene Grand Theft Auto, 732 00:34:58,765 --> 00:35:00,725 hvad angår uagtsomhed over for fodgængere, 733 00:35:00,809 --> 00:35:02,310 så lad os tage en tur 734 00:35:02,394 --> 00:35:04,145 tilbage til der, hvor vi begyndte. 735 00:35:06,398 --> 00:35:07,315 INDIEN 736 00:35:07,399 --> 00:35:08,608 I denne fjerne indiske skov 737 00:35:08,692 --> 00:35:11,820 høstes der honning til et firma kaldet Heavenly Organics. 738 00:35:12,612 --> 00:35:14,906 Der er ingen, der ejer skoven, 739 00:35:14,990 --> 00:35:19,035 og lokalbefolkningen har altid boet her. 740 00:35:19,744 --> 00:35:22,038 Far og søn, Amit og Ishwar Hooda, 741 00:35:22,163 --> 00:35:24,291 startede deres firma for tolv år siden 742 00:35:24,374 --> 00:35:27,127 for at give arbejde til den lokale befolkning. 743 00:35:27,210 --> 00:35:31,131 Hvad lavede de, før de indsamlede honning for jeres firma? 744 00:35:31,214 --> 00:35:33,341 De lavede det samme, 745 00:35:34,092 --> 00:35:37,345 men de havde intet marked eller et sted at sælge det, 746 00:35:37,470 --> 00:35:39,014 så de kunne leve af det. 747 00:35:40,056 --> 00:35:42,392 Der er bestemt ikke mangel på honning her. 748 00:35:42,809 --> 00:35:44,102 Under blomstringssæsonen 749 00:35:44,185 --> 00:35:48,023 kan en arbejder indsamle et ton honning på blot tre måneder. 750 00:35:48,857 --> 00:35:51,443 Men hvad hjælper det, hvis der ingen er til at købe det? 751 00:35:54,154 --> 00:35:57,490 Det tog os tre dage, to fly 752 00:35:57,574 --> 00:36:00,827 og otte timers kørsel dybt ind i en skov. 753 00:36:01,286 --> 00:36:04,289 Men heldigvis for de lokale og Heavenly Organics 754 00:36:04,372 --> 00:36:07,751 fandt en algoritme baseret på kunstig intelligens stedet på sekunder 755 00:36:07,834 --> 00:36:10,462 og vidste, det ville være en god investering. 756 00:36:10,545 --> 00:36:13,882 De ringede ud af det blå og sagde, de havde kørt en algoritme 757 00:36:13,965 --> 00:36:17,010 og opdaget, vi ville være et match 758 00:36:17,510 --> 00:36:19,137 med store dele af deres portefølje. 759 00:36:19,220 --> 00:36:22,807 De ville tale med os om investering, hvis vi ledte efter det. 760 00:36:23,141 --> 00:36:25,644 Hvem ejede denne mystiske algoritme? 761 00:36:26,478 --> 00:36:28,480 En IT-virksomhed kaldet CircleUp, 762 00:36:28,563 --> 00:36:31,316 der befinder sig næsten 13.000 kilometer væk, i... Hvor ellers? 763 00:36:33,526 --> 00:36:36,655 Vi er hos Good Eggs, et onlinesupermarked, 764 00:36:36,738 --> 00:36:39,616 som CircleUps kunstige intelligens også kastede sin interesse over. 765 00:36:39,699 --> 00:36:42,744 Dette er et firma støttet af Ignition med kapital fra CircleUp, 766 00:36:42,827 --> 00:36:47,415 men som også hjælper små firmaer med at finde kunder. 767 00:36:47,499 --> 00:36:48,500 MEDSTIFTER OG DRIFTSLEDER 768 00:36:48,583 --> 00:36:50,126 CircleUps driftsleder, Rory Eakin, 769 00:36:50,210 --> 00:36:53,254 arbejdede i både virksomheder og nødhjælpsorganisationer, 770 00:36:53,338 --> 00:36:54,881 før han startede firmaet. 771 00:36:54,965 --> 00:36:58,385 CircleUp bruger kunstig intelligens til at analysere milliarder af datapunkter 772 00:36:58,468 --> 00:37:00,637 og finde ud af, hvad forbrugerne ønsker 773 00:37:00,762 --> 00:37:02,222 af mad- og sundhedsprodukter. 774 00:37:02,305 --> 00:37:03,640 Problemet, man står over for som kunde, er, 775 00:37:03,723 --> 00:37:05,308 at der er hundredvis af firmaer 776 00:37:05,392 --> 00:37:07,018 i næsten alle kategorier. 777 00:37:07,560 --> 00:37:09,938 Så investerer de i ukendte firmaer, 778 00:37:10,021 --> 00:37:12,774 som kunstig intelligens mener bliver det næste store produkt. 779 00:37:13,066 --> 00:37:15,902 Et af de firmaer, de fandt, var isproducenten Halo Top. 780 00:37:17,988 --> 00:37:21,950 Isproducenten Halo Top var et lille firma i det sydlige Californien. 781 00:37:22,033 --> 00:37:24,369 I dag er det den mest solgte is i hele landet. 782 00:37:24,953 --> 00:37:28,873 Vi har set en utrolig ændring hos kunder i alle kategorier. 783 00:37:28,957 --> 00:37:31,126 De ønsker sundere produkter, 784 00:37:31,209 --> 00:37:33,128 færre giftstoffer i deres hjem, 785 00:37:33,211 --> 00:37:35,797 cremer uden kemikalier. 786 00:37:36,172 --> 00:37:39,884 Da CircleUps algoritme scannede milliarder af forbrugernes datapunkter, 787 00:37:39,968 --> 00:37:42,512 viste resultatet, at kunderne ønskede en række egenskaber, 788 00:37:42,595 --> 00:37:45,056 der var utroligt specifikke. 789 00:37:45,140 --> 00:37:47,475 Godgørende, miljøvenlige firmaer 790 00:37:47,600 --> 00:37:50,687 bruger økologiske produkter, mens de skaber økonomisk vækst 791 00:37:50,770 --> 00:37:51,855 i lokalsamfundet. 792 00:37:52,480 --> 00:37:54,315 Det lyder helt ufatteligt detaljeret, ikke? 793 00:37:54,858 --> 00:37:58,987 Men CircleUp kunne krydse alle tingene af, da de fandt Heavenly Organics. 794 00:37:59,946 --> 00:38:01,573 Det er, hvad kunstig intelligens kan gøre. 795 00:38:01,656 --> 00:38:03,658 Den kan få al denne data til at give mening 796 00:38:03,742 --> 00:38:07,078 på en måde, der ikke var mulig for blot ti år siden. 797 00:38:07,746 --> 00:38:11,332 Og hvordan går CircleUps samarbejde med Heavenly Organics? 798 00:38:12,208 --> 00:38:15,045 Lad os smutte tilbage til Indien og spørge Amit og Ishwar. 799 00:38:18,006 --> 00:38:20,842 Vi har bygget en ny fabrik, der er dobbelt så stor. 800 00:38:21,509 --> 00:38:24,137 Vi kan innovere og skabe nye produkter. 801 00:38:24,220 --> 00:38:26,765 Vi kan have en stor påvirkning på dette område. 802 00:38:26,848 --> 00:38:29,142 -De hjalp jer til at skalere op. -Ja. 803 00:38:29,225 --> 00:38:31,811 De hjalp os med at skabe kapacitet og skalere op. 804 00:38:31,895 --> 00:38:34,773 Hvordan har det påvirket indsamlerne? 805 00:38:34,856 --> 00:38:37,400 Vi støtter lige nu 650 familier. 806 00:38:37,484 --> 00:38:39,486 I takt med at vi vokser, sælger vi mere honning. 807 00:38:39,569 --> 00:38:41,780 For hvert ton tilføjer vi endnu en familie. 808 00:38:41,863 --> 00:38:45,033 Det betyder, at vi næste år vil støtte 700 eller 750. 809 00:38:46,242 --> 00:38:50,914 I dag er de bedre stillet rent økonomisk. 810 00:38:50,997 --> 00:38:54,125 De har gode huse og gode faciliteter i husene. 811 00:38:54,209 --> 00:38:56,127 Deres børn går i skole. 812 00:38:56,503 --> 00:38:58,213 Så det er den gode side af kapitalismen. 813 00:38:58,296 --> 00:38:59,339 Altså... 814 00:38:59,422 --> 00:39:02,217 Et firma skabt for at bidrage til samfundet. 815 00:39:02,884 --> 00:39:04,511 Det var derfor, vi startede firmaet. 816 00:39:06,429 --> 00:39:09,641 Vil kunstig intelligens gøre oprør og overtage verden? 817 00:39:09,724 --> 00:39:12,685 Eller gøre, at vi må kæmpe for at finde et formål i livet? 818 00:39:13,394 --> 00:39:16,648 I denne del af verden har påvirkningen været god indtil videre. 819 00:39:17,982 --> 00:39:19,734 Måske er der et scenarie, hvor kunstig intelligens 820 00:39:19,818 --> 00:39:22,779 giver en uforfærdet analyse af al vores data 821 00:39:22,862 --> 00:39:25,782 og beslutter, at vi ikke er så slemme, så vi kan samarbejde 822 00:39:26,241 --> 00:39:30,161 for at skabe en bedre verden med velstand og harmoni mellem robotter og mennesker. 823 00:39:31,663 --> 00:39:32,747 Eller måske ikke. 824 00:39:33,790 --> 00:39:36,084 Hvis det er tilfældet, er vores tid snart omme. 825 00:39:36,501 --> 00:39:38,962 Så nyd disse robotstrippere. 826 00:40:26,217 --> 00:40:29,012 Sådan. Fantastisk! 827 00:40:31,055 --> 00:40:32,348 Det var fantastisk! 828 00:40:32,432 --> 00:40:33,933 Giv hende et håndklæde.