1 00:00:08,927 --> 00:00:11,930 Jag är här på Wall Street där allt började. 2 00:00:13,724 --> 00:00:17,186 Den 6 maj 2010, kl. 14.45, 3 00:00:17,686 --> 00:00:21,190 satt en kille hemma hos sina föräldrar i London 4 00:00:21,273 --> 00:00:24,985 och startade en algoritm på New York-börsen 5 00:00:25,068 --> 00:00:27,279 med en säljorder på en miljard dollar. 6 00:00:28,697 --> 00:00:30,449 Planen var att lura marknaden 7 00:00:30,532 --> 00:00:32,659 och ta tillbaka ordern innan den slutfördes. 8 00:00:33,160 --> 00:00:34,411 Men innan det hände, 9 00:00:34,495 --> 00:00:37,247 började resten av världens aktiehandels-robotar 10 00:00:37,331 --> 00:00:38,582 också att sälja, 11 00:00:39,041 --> 00:00:42,336 vilket utlöste en kedjereaktion som urholkade marknaden. 12 00:00:44,880 --> 00:00:48,967 Dow Jones-indexet föll med 1 000 punkter på 15 minuter. 13 00:00:49,051 --> 00:00:52,513 Ett nästan lika stort fall som det som utlöste depressionen på 30-talet. 14 00:00:52,596 --> 00:00:55,307 Jag vet inte vad som försiggår. 15 00:00:55,390 --> 00:00:56,642 Det finns oro på marknaden. 16 00:00:57,267 --> 00:00:59,645 Avbeställ kryssningen, flytta barnen till en statlig skola. 17 00:01:00,938 --> 00:01:02,481 Det är en flash crash. 18 00:01:03,023 --> 00:01:04,066 Ja... 19 00:01:05,359 --> 00:01:08,111 Trettiosex minuter senare hämtade sig marknaden. 20 00:01:08,195 --> 00:01:11,615 Men flash-kraschen 2010 var första gången 21 00:01:11,698 --> 00:01:15,994 vi fick en intuitiv, ångestladdad förstahandsupplevelse 22 00:01:16,078 --> 00:01:19,164 av hur AI skulle ta över vårt finanssystem. 23 00:01:20,707 --> 00:01:22,167 Och ni skulle se var det är nu. 24 00:01:24,086 --> 00:01:26,922 Det är därför jag är i Indien och samlar vildhonung. 25 00:01:27,631 --> 00:01:28,966 Mer om det senare. 26 00:01:29,341 --> 00:01:31,885 För att förstå hur AI hittade den här platsen, 27 00:01:31,969 --> 00:01:34,429 måste man förstå vad AI är. 28 00:01:34,513 --> 00:01:36,431 Om du tror att du vet, har du fel. 29 00:01:37,850 --> 00:01:41,436 Oavsett vad man tycker om det, binder pengar oss samman. 30 00:01:41,937 --> 00:01:45,315 Jag heter Kal Penn och jag ska utforska den enorma 31 00:01:45,691 --> 00:01:48,068 och obegripliga världsekonomin. 32 00:01:48,151 --> 00:01:49,403 DEN ENORMA OCH OBEGRIPLIGA VÄRLDSEKONOMIN 33 00:01:52,322 --> 00:01:54,199 Så vad är AI? 34 00:01:54,950 --> 00:01:58,579 Jag är i San Francisco för att fastslå vad det inte är. 35 00:01:58,662 --> 00:02:01,874 Nämligen, i stort sett allt man läser i science fiction. 36 00:02:02,541 --> 00:02:03,542 Särskilt... 37 00:02:03,959 --> 00:02:07,004 Jättestora robotar! 38 00:02:27,107 --> 00:02:28,442 Herregud! 39 00:02:30,485 --> 00:02:32,112 Jag är här med Julia Bossman, 40 00:02:32,237 --> 00:02:36,575 från World Economic Forums AI-råd, 41 00:02:36,658 --> 00:02:40,329 som ger råd åt världens ledare om hur de ska utnyttja potentialen hos AI. 42 00:02:40,829 --> 00:02:44,499 Det finns fler fördelar med jobbet än att få se bilar krossas. 43 00:02:44,583 --> 00:02:47,586 Som selfies med Kanadas största sexsymbol efter Drake. 44 00:02:47,669 --> 00:02:48,754 KANADAS PREMIÄRMINISTER 45 00:02:53,467 --> 00:02:55,385 Hur tänker du åka hem efter detta? 46 00:02:55,469 --> 00:02:56,803 Jag tänker ändå köra. 47 00:03:01,016 --> 00:03:03,018 Vi är på företaget MegaBots, 48 00:03:03,101 --> 00:03:05,854 som bygger jätterobotar som fajtas. 49 00:03:07,814 --> 00:03:10,275 Som en temarestaurang för nördar. 50 00:03:13,779 --> 00:03:14,905 Enligt Julia 51 00:03:14,988 --> 00:03:17,658 är robotarna inte bara trasiga parkattraktioner. 52 00:03:18,283 --> 00:03:22,412 De är tekniska museiföremål på grund av en viktig skillnad. 53 00:03:24,289 --> 00:03:25,582 I de här robotarna är vi hjärnorna 54 00:03:25,666 --> 00:03:27,626 men AI är konstgjorda hjärnor. 55 00:03:27,709 --> 00:03:29,711 Intressant. Kan du utveckla? 56 00:03:29,795 --> 00:03:32,506 Vi gör numera datorer 57 00:03:32,589 --> 00:03:34,132 som har förmåga till inlärning. 58 00:03:34,591 --> 00:03:37,010 De behöver inte ha kroppar. 59 00:03:37,344 --> 00:03:40,055 En stor del av existerande AI 60 00:03:40,138 --> 00:03:41,765 finns i enorma datacentraler. 61 00:03:42,057 --> 00:03:46,645 Om du skulle förklara det för en 13-åring, 62 00:03:46,728 --> 00:03:48,146 hur skulle du förklara AI? 63 00:03:48,230 --> 00:03:50,691 En bred definition kan vara att 64 00:03:50,774 --> 00:03:54,945 AI får maskiner att göra saker 65 00:03:55,028 --> 00:03:58,156 som vi inte specifikt programmerat dem att göra. 66 00:03:58,240 --> 00:03:59,616 I traditionell programmering 67 00:03:59,700 --> 00:04:02,744 har man regler och algoritmer, 68 00:04:02,828 --> 00:04:04,413 och logik som bygger på handlingar och följder. 69 00:04:04,496 --> 00:04:07,165 Allt är bestämt av programmerare. 70 00:04:07,249 --> 00:04:09,501 I medicinsk litteratur 71 00:04:09,584 --> 00:04:12,004 innehåller en databas miljoner artiklar, 72 00:04:12,087 --> 00:04:14,923 och ingen läkare kan läsa alla forskningsrapporter 73 00:04:15,048 --> 00:04:17,676 för att hålla sig uppdaterad, men det kan en maskin. 74 00:04:17,759 --> 00:04:20,220 Så en dator kan få nya idéer 75 00:04:20,303 --> 00:04:21,596 om lösningar, 76 00:04:21,680 --> 00:04:24,766 eller upptäcka nya läkemedel som botar sjukdomar. 77 00:04:24,850 --> 00:04:25,976 Wow. Okej. 78 00:04:26,059 --> 00:04:28,395 Det forskningsfält 79 00:04:28,478 --> 00:04:30,856 som är mest spännande nu, 80 00:04:30,939 --> 00:04:32,065 kallas deep learning. 81 00:04:32,149 --> 00:04:33,608 Vad är deep learning? 82 00:04:33,692 --> 00:04:36,069 Deep learning är när vi har 83 00:04:36,153 --> 00:04:39,072 flera djupa lager av artificiella neuronnät 84 00:04:39,156 --> 00:04:42,242 på liknande sätt som i våra hjärnor. 85 00:04:42,325 --> 00:04:45,579 Människor har alla dessa neuroner som har kontakt med varann 86 00:04:45,662 --> 00:04:46,788 och utbyter information, 87 00:04:46,830 --> 00:04:50,751 och på sätt och vis simulerar vi detta med datorer. 88 00:04:50,834 --> 00:04:54,546 Vi matar in data på ett balanserat och opartiskt sätt 89 00:04:54,629 --> 00:04:56,214 så att de lär sig. 90 00:04:56,548 --> 00:04:59,009 För bildigenkänning säger vi 91 00:04:59,092 --> 00:05:01,511 att bilderna föreställer katter, eller hundar, 92 00:05:01,595 --> 00:05:03,972 och de bearbetar informationen 93 00:05:04,056 --> 00:05:06,349 och lär sig att känna igen katter och hundar. 94 00:05:06,433 --> 00:05:10,187 Utan att vi skrivit all programkod själva. 95 00:05:10,228 --> 00:05:11,229 Intressant. 96 00:05:11,313 --> 00:05:14,107 Det finns maskininlärning som inte är deep learning. 97 00:05:14,858 --> 00:05:16,985 Det finns evolutionära algoritmer 98 00:05:17,069 --> 00:05:19,863 där vi använder en princip från evolutionen 99 00:05:19,946 --> 00:05:24,242 och låter maskinen pröva olika instanser 100 00:05:24,743 --> 00:05:27,329 och sen ser vi vilken som fungerar bäst. 101 00:05:27,412 --> 00:05:31,291 De som fungerar bäst går vidare till nästa generation. 102 00:05:31,374 --> 00:05:34,336 Precis som i organismers utveckling ser vi till 103 00:05:34,419 --> 00:05:37,172 att de bäst lämpade programmen överlever. 104 00:05:37,255 --> 00:05:38,381 Wow, okej. 105 00:05:38,465 --> 00:05:40,550 Så de är evolutionära algoritmer. 106 00:05:40,926 --> 00:05:44,346 På vilket sätt kan AI vara intressant för finansvärlden? 107 00:05:44,429 --> 00:05:47,724 Potentiellt måste det kunna ha enorma effekter på ekonomin. 108 00:05:47,808 --> 00:05:50,393 Ja, troligen kommer det att förändra ekonomin radikalt, 109 00:05:50,477 --> 00:05:53,313 vi talar om en ny industriell revolution. 110 00:05:53,396 --> 00:05:54,231 Intressant. 111 00:05:54,314 --> 00:05:55,774 Det har kallats vår sista uppfinning, 112 00:05:55,857 --> 00:05:58,944 för när vi får AI som är smartare än vi, 113 00:05:59,027 --> 00:06:00,779 kan den uppfinna fler saker åt oss. 114 00:06:00,862 --> 00:06:03,865 Är det den sista uppfinningen för att den kommer att döda oss? 115 00:06:04,950 --> 00:06:06,118 Förhoppningsvis inte. 116 00:06:08,829 --> 00:06:12,207 Många fruktar att AI kommer att bli för smart 117 00:06:12,290 --> 00:06:15,001 och döda oss alla. Men var inte orolig. 118 00:06:15,085 --> 00:06:19,047 Ett skäl till att AI är smart är att det är väldigt korkat. 119 00:06:19,464 --> 00:06:20,549 AI, kom hit. 120 00:06:21,299 --> 00:06:24,302 Tänk dig att du ber AI om ett perfekt tårtrecept 121 00:06:24,386 --> 00:06:26,179 baserat på evolutionära algoritmer. 122 00:06:27,973 --> 00:06:30,517 AI skulle inte fundera på det bästa sättet att baka tårtan. 123 00:06:30,600 --> 00:06:33,520 Det skulle bara testa miljarder gånger, 124 00:06:33,603 --> 00:06:37,482 med varje ingrediens i köket på de mest korkade sätt. 125 00:06:38,441 --> 00:06:40,652 De flesta kommer att misslyckas. 126 00:06:42,320 --> 00:06:43,613 Definitivt den här. 127 00:06:44,447 --> 00:06:45,657 Bra jobbat, idiot. 128 00:06:46,616 --> 00:06:50,162 AI:s känslor såras inte. Det har inga. 129 00:06:50,745 --> 00:06:53,123 Finessen med evolutionära algoritmer 130 00:06:53,206 --> 00:06:56,293 är att genom att testa alla korkade metoder, 131 00:06:56,376 --> 00:06:58,044 kan det snubbla över en lösning 132 00:06:58,128 --> 00:07:01,464 på ett kulinariskt problem som ingen vettig människa skulle tänka på, 133 00:07:01,548 --> 00:07:04,176 som en suverän vegantårta. 134 00:07:04,259 --> 00:07:05,302 Jag bakade en tårta. 135 00:07:06,178 --> 00:07:07,554 Heja AI. 136 00:07:07,637 --> 00:07:09,097 Det är mest cashewnötter. 137 00:07:09,931 --> 00:07:13,143 Skulle du ha tänkt på det? Så klart inte! 138 00:07:13,226 --> 00:07:16,521 Det vore korkat, vilket AI är villigt att vara, 139 00:07:16,605 --> 00:07:18,190 så att du slipper. 140 00:07:18,273 --> 00:07:21,067 Kan den här idioten utvecklas till geni 141 00:07:21,151 --> 00:07:23,653 och ta över världen och döda oss alla? 142 00:07:24,196 --> 00:07:25,280 Svårt att säga. 143 00:07:25,363 --> 00:07:26,740 Jag lär mig avfyrningskoder. 144 00:07:27,657 --> 00:07:28,992 Under tiden, 145 00:07:29,993 --> 00:07:31,077 ät tårta. 146 00:07:35,165 --> 00:07:36,541 Jag är ännu orolig 147 00:07:36,625 --> 00:07:39,461 för att AI ska koka ihop fler problem än det löser, 148 00:07:41,004 --> 00:07:43,757 men enligt experter kan det förbättra produktiviteten 149 00:07:43,840 --> 00:07:47,636 på områden som sjukvård, transport och ekonomi, 150 00:07:47,719 --> 00:07:51,848 och addera 15,7 biljoner dollar till världens BNP till år 2030. 151 00:07:52,474 --> 00:07:56,478 Det är mer än Kinas och Indiens nuvarande produktion sammanlagt. 152 00:07:59,898 --> 00:08:02,275 Så hur betydelsefullt är AI? 153 00:08:02,943 --> 00:08:06,404 Enligt mig, en av de tre viktigaste saker som hänt i mänsklighetens historia. 154 00:08:06,488 --> 00:08:07,697 Mänsklighetens historia? 155 00:08:07,781 --> 00:08:08,990 Mänsklighetens totala historia. 156 00:08:09,616 --> 00:08:11,368 Jag är här med Andrew McAfee, 157 00:08:11,451 --> 00:08:15,664 en ledande expert på hur ny teknik transformerar ekonomier, 158 00:08:15,747 --> 00:08:19,542 och som följd, hela det mänskliga samhället. 159 00:08:20,460 --> 00:08:22,212 Om man ritar ett diagram över människans historia, 160 00:08:22,295 --> 00:08:24,214 ser man att i tusentals år, 161 00:08:24,297 --> 00:08:26,258 hände inget. Vi stod bara still. 162 00:08:26,341 --> 00:08:28,093 MIT:S AVDELNING FÖR DIGITAL EKONOMI 163 00:08:28,176 --> 00:08:30,845 Nästan ingen skillnad från att vara döda. 164 00:08:30,929 --> 00:08:32,514 Men plötsligt händer det, 165 00:08:32,597 --> 00:08:34,933 diagrammets vågräta streck 166 00:08:35,016 --> 00:08:38,144 förvandlades till ett galet lodrätt streck, 167 00:08:38,228 --> 00:08:39,771 nästan på ett ögonblick. 168 00:08:39,854 --> 00:08:41,481 Det var omkring år 1800, 169 00:08:41,564 --> 00:08:45,443 på grund av två saker, först ångkraft och sen elektricitet. 170 00:08:47,821 --> 00:08:50,782 Elektricitet hade rätt märkbara effekter. 171 00:08:50,865 --> 00:08:53,827 Vi fick spårvagnar och tunnelbanor. 172 00:08:53,910 --> 00:08:57,080 Vi fick vertikala städer istället för horisontella. 173 00:08:57,163 --> 00:08:58,373 -På grund av elektricitet? -Exakt. 174 00:08:58,456 --> 00:08:59,749 Man behöver hissar. 175 00:08:59,833 --> 00:09:01,543 Man kan inte vertikala städer annars. 176 00:09:01,626 --> 00:09:03,878 Man kan inte gå uppför 80 trappor varje dag. 177 00:09:03,962 --> 00:09:06,506 De två innovationerna, ånga 178 00:09:06,589 --> 00:09:09,259 och kombinationen av elektricitet och förbränningsmotorn 179 00:09:09,342 --> 00:09:11,011 förändrade mänsklighetens historia. 180 00:09:11,094 --> 00:09:12,804 -Det är helt uppenbart. -Okej. 181 00:09:12,887 --> 00:09:15,974 Tack vare tekniken var vi inte hänvisade 182 00:09:16,057 --> 00:09:17,100 till vår muskelkraft. 183 00:09:17,183 --> 00:09:20,562 Tack vare AI är vi inte längre hänvisade 184 00:09:20,645 --> 00:09:22,564 till vår individuella tankekraft. 185 00:09:24,149 --> 00:09:26,484 Vi har svåra utmaningar framför oss. 186 00:09:26,568 --> 00:09:28,236 Väldigt svåra, eller hur? 187 00:09:28,320 --> 00:09:29,696 Vi borde bota cancer. 188 00:09:29,779 --> 00:09:31,406 Fler borde få mat. 189 00:09:31,489 --> 00:09:33,950 Klimathotet borde avvärjas. 190 00:09:34,034 --> 00:09:36,328 Allt sånt är oerhört komplicerat. 191 00:09:36,411 --> 00:09:38,747 Våra hjärnor försöker ta itu med allt det. 192 00:09:38,830 --> 00:09:41,708 Vi går vetenskapligt till väga, 193 00:09:41,791 --> 00:09:44,044 men problemen är överväldigande. 194 00:09:44,127 --> 00:09:45,420 Enligt mig är AI 195 00:09:45,503 --> 00:09:48,506 som en väldigt kraftfull ny kollega 196 00:09:48,590 --> 00:09:51,676 som hjälper oss att bygga vägar in i komplexiteten, 197 00:09:51,760 --> 00:09:54,637 för vad dessa tekniker är så bra på 198 00:09:54,721 --> 00:09:59,684 är att upptäcka även subtila mönster i oöverskådliga datamängder. 199 00:09:59,768 --> 00:10:01,603 Mer än du och jag kan ta in. 200 00:10:01,686 --> 00:10:03,897 Ett märkligt exempel jag hörde talas om 201 00:10:03,980 --> 00:10:05,106 var inom finansvärlden, 202 00:10:05,190 --> 00:10:07,650 då det nu finns robotrådgivare, 203 00:10:07,734 --> 00:10:09,361 vilket är en algoritm, 204 00:10:09,444 --> 00:10:11,696 som sammanställer din aktieportfölj. 205 00:10:11,780 --> 00:10:13,031 Tills nu, 206 00:10:13,114 --> 00:10:15,325 behövdes ett visst välstånd, 207 00:10:15,408 --> 00:10:18,745 för att ens få träffa en finansiell rådgivare. 208 00:10:18,828 --> 00:10:20,872 Det ändras fort. 209 00:10:20,955 --> 00:10:25,210 Med robot-rådgivning kan folk som bara har lite pengar 210 00:10:25,293 --> 00:10:28,963 få tillgång till oerhört kraftfulla och avancerade verktyg 211 00:10:29,047 --> 00:10:31,299 för att förbättra sin ekonomi. 212 00:10:31,383 --> 00:10:34,302 Spännande, särskilt med tanke på att vi alltid haft 213 00:10:34,386 --> 00:10:37,555 folk som använder såna saker i ont uppsåt. 214 00:10:37,639 --> 00:10:40,225 Jag säger inte att det inte finns nåt att oroa sig för. 215 00:10:40,308 --> 00:10:42,852 Vi vet av tidigare industriella revolutioner 216 00:10:42,936 --> 00:10:44,687 att vissa hemska saker följde med på köpet. 217 00:10:44,771 --> 00:10:49,150 Med industriell teknik kunde krigföringen mekaniseras. 218 00:10:49,234 --> 00:10:52,529 Vi fick miljöföroreningar som aldrig tidigare skådats. 219 00:10:52,612 --> 00:10:54,364 Vi gjorde allvarliga misstag 220 00:10:54,447 --> 00:10:57,951 som barnarbete på grund av den industriella revolutionen. 221 00:10:58,034 --> 00:11:01,079 Allt är inte perfekt, inte hela tiden. 222 00:11:01,162 --> 00:11:03,748 Samma sak kommer hända denna gång. 223 00:11:04,249 --> 00:11:05,291 Fan också. 224 00:11:06,918 --> 00:11:08,586 McAfee har fått mig att fundera. 225 00:11:08,670 --> 00:11:10,547 Tänk om historien upprepar sig 226 00:11:10,630 --> 00:11:13,591 och AI förvandlar samhället på olika hemska sätt? 227 00:11:14,467 --> 00:11:18,430 Skenande miljöförstöring och små, sotiga medarbetare? 228 00:11:19,931 --> 00:11:21,891 Vilka är de moraliska och etiska frågor 229 00:11:21,975 --> 00:11:24,227 som den nya tekniken väcker? 230 00:11:24,936 --> 00:11:27,647 På London's National Computing Museum, 231 00:11:27,730 --> 00:11:31,109 visas många maskiner som skapats för att föra samhället framåt. 232 00:11:31,192 --> 00:11:35,572 Som den två ton tunga Harwell Dektron som byggdes för att utföra beräkningar 233 00:11:35,655 --> 00:11:38,908 för Storbritanniens forskningsprogram på 50-talet. 234 00:11:39,242 --> 00:11:41,161 Men i fel händer vet ingen, 235 00:11:41,244 --> 00:11:43,163 hur en ny teknik kan användas. 236 00:11:43,746 --> 00:11:45,707 Kan man porrsurfa på den? 237 00:11:46,040 --> 00:11:49,752 Man kanske kan slå på dem och visa väldigt lågupplöst porr. 238 00:11:50,712 --> 00:11:51,754 PROGRAMMERARE 239 00:11:51,838 --> 00:11:54,507 Jag är här med programmeraren Alan Zucconi 240 00:11:54,591 --> 00:11:57,177 som undervisar på Goldsmith's College här i London. 241 00:11:57,719 --> 00:12:00,722 Han har använt teknik för att skapa revolutionerande saker 242 00:12:00,805 --> 00:12:04,058 som spelkontroller för rörelsehindrade. 243 00:12:05,477 --> 00:12:07,937 Han säger att ett stort moraliskt problem 244 00:12:08,021 --> 00:12:10,190 snart kommer att bli aktuellt, 245 00:12:10,273 --> 00:12:14,360 då AI börjar replikera så många mänskliga beteenden, 246 00:12:14,444 --> 00:12:16,404 att det kan ge sken av att vara en av oss. 247 00:12:17,113 --> 00:12:18,615 Vad är det här? 248 00:12:18,948 --> 00:12:21,826 En av de första datorer som byggts, 249 00:12:21,910 --> 00:12:24,829 den byggdes av Alan Turing och hans medarbetare. 250 00:12:24,913 --> 00:12:28,124 Det var en av de första datorer som kunde avkryptera 251 00:12:28,208 --> 00:12:30,710 nazisternas Enigma-kod. 252 00:12:32,587 --> 00:12:35,381 Alan Turing var datavetenskapens fader. 253 00:12:35,465 --> 00:12:38,927 När han inte hjälpte de allierade att knäcka nazistkoder, 254 00:12:39,010 --> 00:12:42,555 filosoferade han om nåt han kallade Turingtestet. 255 00:12:43,598 --> 00:12:46,643 Hur kan vi skilja en människa från en maskin? 256 00:12:46,726 --> 00:12:49,854 Och om vi inte kan märka skillnaden, 257 00:12:49,938 --> 00:12:53,066 klarar maskinen vad vi kallar imitationstestet. 258 00:12:53,149 --> 00:12:56,569 Maskinen försöker imitera en människa. 259 00:12:56,653 --> 00:12:59,072 Detta är känt som Turingtestet, 260 00:12:59,155 --> 00:13:02,659 och den här maskinen kan ha använts för det. 261 00:13:02,742 --> 00:13:03,868 För att göra Turingtestet, 262 00:13:03,952 --> 00:13:06,579 skriver en människa in frågor. 263 00:13:07,080 --> 00:13:08,831 En observatör bedömer 264 00:13:08,915 --> 00:13:11,501 om svaren kommer från en människa, 265 00:13:11,584 --> 00:13:13,461 eller en maskin. 266 00:13:14,379 --> 00:13:15,630 Hur gammal är du? 267 00:13:17,924 --> 00:13:20,134 -Så. -Den vet hur gammal den är. 268 00:13:20,218 --> 00:13:22,011 "Jag föddes 1912. 269 00:13:22,095 --> 00:13:24,389 "Så jag är 105 år." 270 00:13:27,642 --> 00:13:30,979 På Turings tid var det lätt att avslöja datorn. 271 00:13:31,271 --> 00:13:34,357 Men idag kan AI studera mänskligt beteende 272 00:13:34,440 --> 00:13:36,693 och programmera sig självt för att likna oss. 273 00:13:37,485 --> 00:13:39,654 Kan du skilja på detta... 274 00:13:39,988 --> 00:13:43,199 Normalt börjar jag med ett skämt om datavetenskap 275 00:13:43,700 --> 00:13:46,744 men hälften av personalens förslag var under medelmåttan. 276 00:13:46,828 --> 00:13:47,912 ...och detta? 277 00:13:47,996 --> 00:13:50,415 Våra fiender kan få det att verka som att vem som helst säger vad som helst 278 00:13:50,498 --> 00:13:51,833 när som helst. 279 00:13:52,208 --> 00:13:55,503 Det andra skapades av BuzzFeed, 280 00:13:55,587 --> 00:13:57,338 tillsammans med skådespelaren Jordan Peele. 281 00:13:57,839 --> 00:14:02,760 Många blev oroliga för nya former av fake news. 282 00:14:02,844 --> 00:14:04,929 I framtiden måste vi vara vaksamma 283 00:14:05,013 --> 00:14:06,639 mot vad som står på Internet. 284 00:14:06,723 --> 00:14:09,058 AI studerade Peeles mimik, 285 00:14:09,142 --> 00:14:13,062 och återskapade dem på Obamas ansikte, 286 00:14:13,146 --> 00:14:15,690 vilket resulterade i en så kallad deepfake. 287 00:14:15,773 --> 00:14:17,984 Du kan ha sett nåt liknande. 288 00:14:18,067 --> 00:14:21,404 Med ett filter i Snapchat kan man byta ansikten. 289 00:14:21,487 --> 00:14:25,325 Skillnaden är att Snapchat gör det på ett väldigt enkelt sätt. 290 00:14:25,408 --> 00:14:28,953 Men tekniken bakom deepfakes använder AI. 291 00:14:29,037 --> 00:14:31,289 Nåt som kallas deep learning. 292 00:14:31,706 --> 00:14:35,126 Artificiella neuronnät extraherar ansiktsuttryck. 293 00:14:35,209 --> 00:14:37,754 Därefter återskapas ditt ansikte. 294 00:14:37,837 --> 00:14:41,466 Det är så vi kan uppnå fotorealistiska resultat. 295 00:14:42,508 --> 00:14:45,720 Alan gör handledningar om hur man gör deepfakes. 296 00:14:45,803 --> 00:14:48,056 Han tror verkligen att denna teknik 297 00:14:48,139 --> 00:14:50,767 borde få utvecklas fritt. 298 00:14:50,850 --> 00:14:53,853 Även om den skulle kunna leda till ett tredje världskrig. 299 00:14:53,936 --> 00:14:55,104 FALSK TRUMP-VIDEO CIRKULERAR 300 00:14:55,188 --> 00:14:57,273 Hur ska kunden kunna veta 301 00:14:57,357 --> 00:14:59,692 vad som är verklighet, och inte? 302 00:14:59,776 --> 00:15:02,695 Som kund, när man ser en nyhet, 303 00:15:02,779 --> 00:15:05,740 en artikel, video eller bild, 304 00:15:05,823 --> 00:15:08,076 har allt det skapats av nån. 305 00:15:08,201 --> 00:15:09,577 "Vad är narrativet här? 306 00:15:09,827 --> 00:15:11,287 "Vad vill videon att jag ska säga?" 307 00:15:11,371 --> 00:15:13,581 Så jag kan se... 308 00:15:13,665 --> 00:15:14,624 Faran. 309 00:15:14,707 --> 00:15:17,168 Faran och även frågetecknen. 310 00:15:17,251 --> 00:15:19,420 Kan detta hjälpa nån? 311 00:15:19,504 --> 00:15:21,923 För jag antar att du har talat med folk 312 00:15:22,006 --> 00:15:25,885 som undersöker de ekonomiska möjligheterna med denna teknik. 313 00:15:25,968 --> 00:15:29,097 Vilka ekonomiska följder får detta? 314 00:15:29,180 --> 00:15:32,308 Den första branschen som drar nytta av detta 315 00:15:32,392 --> 00:15:33,685 blir nog filmindustrin. 316 00:15:33,768 --> 00:15:36,813 Helt enkelt eftersom att byta ansikten, 317 00:15:36,896 --> 00:15:40,024 är nåt de försökt göra i årtionden. 318 00:15:40,108 --> 00:15:42,527 Vanligtvis används makeup och masker, 319 00:15:42,610 --> 00:15:43,736 ibland CGI. 320 00:15:43,820 --> 00:15:46,489 Som skådis och politiskt verksam, 321 00:15:46,572 --> 00:15:48,616 blir jag skärrad av detta. 322 00:15:48,700 --> 00:15:50,201 Med all rätt. 323 00:15:51,285 --> 00:15:53,705 Buzzfeeds deepfake visade allmänheten 324 00:15:53,788 --> 00:15:55,039 hur sårbara vi är. 325 00:15:55,873 --> 00:15:59,585 I en tid när presidenten kan öppna munnen och påverka marknader, 326 00:15:59,669 --> 00:16:02,714 skulle en välgjord deepfake kunna sänka världsekonomin 327 00:16:02,797 --> 00:16:04,674 snabbare än en flash crash, 328 00:16:04,757 --> 00:16:08,469 och utplåna din pensionsförsäkring snabbare än fejk-Obama kan säga: 329 00:16:08,553 --> 00:16:09,554 Häng med, haggor. 330 00:16:10,638 --> 00:16:13,057 Låter det som science fiction? 331 00:16:13,141 --> 00:16:14,726 Lite skrämmande? 332 00:16:15,309 --> 00:16:18,271 Om AI lär sig hur vi rör oss, 333 00:16:18,354 --> 00:16:20,022 pratar och tänker, 334 00:16:20,106 --> 00:16:22,316 kan den bli omöjlig att skilja från oss. 335 00:16:22,400 --> 00:16:23,818 VAD VET DU ALLTING 336 00:16:24,610 --> 00:16:26,779 Om AI får eget medvetande, 337 00:16:26,863 --> 00:16:29,782 kan det även få starka åsikter om oss. 338 00:16:29,866 --> 00:16:30,908 PASSA DIG! 339 00:16:30,992 --> 00:16:33,119 Och de är kanske inte positiva. 340 00:16:35,455 --> 00:16:36,664 TEORETISK FYSIKER 341 00:16:36,748 --> 00:16:39,292 I framtiden kan AI få en egen vilja. 342 00:16:39,375 --> 00:16:42,003 Som står i motsättning till vår. 343 00:16:42,086 --> 00:16:44,422 Uppkomsten av kraftfull AI blir 344 00:16:44,505 --> 00:16:48,801 antingen det bästa eller värsta som hänt mänskligheten, 345 00:16:49,260 --> 00:16:50,136 VD 346 00:16:50,219 --> 00:16:53,181 Jag har försökt få folk att bromsa AI. 347 00:16:54,056 --> 00:16:55,224 Att reglera AI. 348 00:16:55,308 --> 00:16:56,809 Det lyckades inte. Jag försökte i åratal. 349 00:16:56,893 --> 00:16:58,561 -Ingen lyssnade. -Detta verkar som en scen 350 00:16:58,644 --> 00:17:00,980 i en film där robotar tar över. 351 00:17:01,063 --> 00:17:02,607 Du skrämmer mig. 352 00:17:05,818 --> 00:17:09,030 Hur realistiskt är ett AI-styrt undergångsscenario? 353 00:17:10,865 --> 00:17:12,408 STORBRITANNIEN 354 00:17:12,742 --> 00:17:15,077 För att få veta det ska jag prata med den man 355 00:17:15,161 --> 00:17:18,164 vars forskning var det som först skrämde upp alla. 356 00:17:18,831 --> 00:17:21,083 Det är spännande att prata med dig för... 357 00:17:21,167 --> 00:17:23,628 Av flera olika orsaker. 358 00:17:23,711 --> 00:17:26,839 Vi har utforskat artificiell intelligens, 359 00:17:26,923 --> 00:17:29,258 för att få veta vart den är på väg. 360 00:17:29,342 --> 00:17:34,680 Du har påverkat folk som Elon Musk och Bill Gates. 361 00:17:37,016 --> 00:17:40,853 Då har man ganska mycket inflytande. 362 00:17:42,021 --> 00:17:45,691 Jag är på Oxford University för att träffa dr Nick Bostrom. 363 00:17:45,775 --> 00:17:48,986 Han är anspråkslös, så jag ska berätta om honom. 364 00:17:51,489 --> 00:17:55,201 Han är en av de mest kunniga om superintelligenta maskiner 365 00:17:55,284 --> 00:17:59,205 och risker med dessa, och författare till några spännande böcker. 366 00:17:59,705 --> 00:18:00,957 Jag har tur som får träffa honom, 367 00:18:01,040 --> 00:18:03,584 för Nick är så upptagen med sin egen deep learning, 368 00:18:03,668 --> 00:18:05,419 han tar sig bara tid en timme per månad 369 00:18:05,503 --> 00:18:07,338 och svarar på frågor om sin forskning. 370 00:18:10,925 --> 00:18:14,262 Många samtal om AI 371 00:18:14,345 --> 00:18:17,014 handlar om ifall robotar kommer ta över, 372 00:18:17,098 --> 00:18:18,850 och blir det mänsklighetens undergång? 373 00:18:18,933 --> 00:18:21,310 Jag undrar, om saker inte hanteras rätt, 374 00:18:21,394 --> 00:18:24,564 kan det bli så att AI skadar samhället, 375 00:18:24,647 --> 00:18:28,484 eller till och med utplånar mänskligheten? 376 00:18:28,568 --> 00:18:29,902 Långsiktigt, 377 00:18:29,986 --> 00:18:33,114 om vi tänker på vad som händer om AI går hela vägen, 378 00:18:33,197 --> 00:18:36,951 och kan replikera samma vanliga intelligens 379 00:18:37,034 --> 00:18:38,828 som gör oss till människor, isåfall ja, 380 00:18:38,911 --> 00:18:42,748 i ett sånt sammanhang finns det större risker, 381 00:18:42,832 --> 00:18:44,125 även existentiella risker. 382 00:18:45,585 --> 00:18:48,421 Om man tänker på självkörande bilar... 383 00:18:48,504 --> 00:18:49,797 FOTGÄNGARE DÖDAD 384 00:18:49,881 --> 00:18:51,549 ...kan de köra över fotgängare. 385 00:18:51,632 --> 00:18:53,342 Det finns sekretessfarhågor. 386 00:18:53,426 --> 00:18:56,095 Militarisering av autonoma vapen. 387 00:18:57,847 --> 00:18:59,307 Alla dessa är reella farhågor. 388 00:18:59,390 --> 00:19:02,184 Men dessutom uppstår frågan 389 00:19:02,268 --> 00:19:04,687 hur vi påverkar de digitala hjärnor som vi bygger. 390 00:19:04,770 --> 00:19:09,066 Det kan komma att finnas olika grader av moralisk standard. 391 00:19:09,525 --> 00:19:11,152 Om man spolar fram bandet, 392 00:19:11,235 --> 00:19:15,031 och tänker på mänsklighetens slutliga öde, 393 00:19:15,114 --> 00:19:18,534 kan det bli så att maskin-intelligens dominerar. 394 00:19:18,618 --> 00:19:21,996 Mänskligheten kan komma att utrotas. 395 00:19:23,414 --> 00:19:26,250 Dessa enorma krafter medför en risk 396 00:19:26,834 --> 00:19:30,755 att de genom en olyckshändelse eller avsiktlig felanvändning 397 00:19:30,838 --> 00:19:33,466 kan bli otroligt destruktiva. 398 00:19:35,885 --> 00:19:37,595 Dessa saker är tänkbara 399 00:19:37,678 --> 00:19:39,305 och i ett längre perspektiv, 400 00:19:39,388 --> 00:19:41,182 kan resultatet bli väldigt bra, 401 00:19:41,265 --> 00:19:43,726 eller väldigt dåligt. 402 00:19:46,354 --> 00:19:48,731 Det där låter skrämmande. 403 00:19:49,732 --> 00:19:51,609 Men av alla tänkbara resultat, 404 00:19:51,692 --> 00:19:55,821 tror Nick att det troligaste undergångsscenariot med AI 405 00:19:55,905 --> 00:19:57,114 blir ekonomiskt. 406 00:19:57,198 --> 00:19:59,450 Teknik i allmänhet 407 00:19:59,533 --> 00:20:02,828 är egentligen idén om att göra mer med mindre. 408 00:20:02,912 --> 00:20:06,123 Vi kan åstadkomma mer med mindre ansträngning. 409 00:20:06,207 --> 00:20:07,750 Alltså är målet 410 00:20:07,833 --> 00:20:09,418 full arbetslöshet, eller hur? 411 00:20:10,294 --> 00:20:12,380 Att ha maskiner och teknik 412 00:20:12,463 --> 00:20:15,341 som ersätter allt mänskligt arbete. 413 00:20:15,424 --> 00:20:17,301 Det är ett bra mål enligt mig. 414 00:20:17,385 --> 00:20:19,553 Det är inte ett skräckscenario som måste förhindras. 415 00:20:19,637 --> 00:20:20,680 Det är vad vi vill uppnå. 416 00:20:20,763 --> 00:20:22,932 För att det ska vara en utopi, 417 00:20:23,015 --> 00:20:25,601 finns det stora problem 418 00:20:25,685 --> 00:20:27,061 som måste lösas. 419 00:20:28,187 --> 00:20:30,815 Ett handlar förstås om ekonomin. 420 00:20:30,898 --> 00:20:33,567 Folk behöver jobb för att ha en inkomst. 421 00:20:33,651 --> 00:20:35,653 Om man löser det, 422 00:20:35,736 --> 00:20:37,571 finns det ett till problem. 423 00:20:37,655 --> 00:20:41,409 För många handlar det även om värdighet. 424 00:20:41,492 --> 00:20:43,786 Många finner sin självkänsla 425 00:20:43,869 --> 00:20:47,081 genom att försörja familjen, eller göra nytta i samhället. 426 00:20:47,164 --> 00:20:49,583 Men om en maskin kan göra allt bättre än man själv, 427 00:20:49,667 --> 00:20:53,796 har man ju inte en chans att göra nån nytta. 428 00:20:53,879 --> 00:20:58,175 Då måste man omvärdera kulturen på en grundläggande nivå. 429 00:20:59,176 --> 00:21:01,095 En värld där ingen arbetar. 430 00:21:01,178 --> 00:21:02,930 Det låter inte så illa. 431 00:21:05,057 --> 00:21:06,267 Jag kan tänka mig det. 432 00:21:09,854 --> 00:21:11,313 Umgås med kompisar. 433 00:21:11,814 --> 00:21:14,942 Utnyttja min mänskliga potential till fullo. 434 00:21:15,026 --> 00:21:19,321 Inte behöva ställa in badtunnan för den vet exakt hur jag vill ha det. 435 00:21:20,114 --> 00:21:23,409 Problemet är att det inte fungerat så tidigare. 436 00:21:23,492 --> 00:21:26,537 Det har hänt förut att maskiner tagit över arbetet. 437 00:21:26,620 --> 00:21:27,705 Och förra gången, 438 00:21:27,788 --> 00:21:30,666 var det inte bara jordgubbar och champagne i badet. 439 00:21:36,964 --> 00:21:41,093 Ekonomen Nick Srnicek ska berätta hur det verkligen såg ut 440 00:21:41,177 --> 00:21:43,054 förra gången maskiner tog våra jobb. 441 00:21:43,888 --> 00:21:46,015 Vi möts vid en vävstol av nån anledning. 442 00:21:46,432 --> 00:21:47,725 Vad ska det bli? 443 00:21:47,808 --> 00:21:50,311 En sorts anarkistflagga faktiskt. 444 00:21:50,394 --> 00:21:51,979 Intressant. Chockerande. 445 00:21:54,315 --> 00:21:57,568 Nick har en doktorsexamen från Londons handelshögskola. 446 00:21:58,027 --> 00:22:00,321 Jag har inte det. 447 00:22:01,530 --> 00:22:02,573 Han har även ett manifest. 448 00:22:02,656 --> 00:22:03,949 ACCELERATIONISTISKT MANIFEST 449 00:22:04,492 --> 00:22:07,703 Det manar alla att snabba upp automatiseringen 450 00:22:07,787 --> 00:22:09,830 genom att riva ner gamla institutioner. 451 00:22:12,458 --> 00:22:15,461 I princip avveckla kapitalismen nu. 452 00:22:16,003 --> 00:22:17,254 Det här kommer inte funka. 453 00:22:17,338 --> 00:22:19,632 Jag kan inte prata med dig. 454 00:22:19,715 --> 00:22:21,550 Förlåt. Jag ska sluta väva. 455 00:22:22,093 --> 00:22:23,761 Nå, varför är vi här? 456 00:22:24,637 --> 00:22:28,224 Vävstolen är som 1800-talets AI. 457 00:22:28,307 --> 00:22:32,853 Det var den nya tekniken som hotade massor av jobb. 458 00:22:33,270 --> 00:22:37,233 Den ledde till många olika reaktioner från arbetare, 459 00:22:37,316 --> 00:22:39,360 som exempelvis Luddit-rörelsen. 460 00:22:39,443 --> 00:22:41,487 Numera använder vi ordet "luddit" 461 00:22:41,570 --> 00:22:44,031 för nån som hatar teknik. 462 00:22:44,532 --> 00:22:45,950 Det stämmer inte riktigt. 463 00:22:46,700 --> 00:22:48,119 Ludditerna fick namn efter Ned Ludd... 464 00:22:48,202 --> 00:22:49,036 LÄRLING 465 00:22:49,120 --> 00:22:51,122 ...en lärling på en textilfabrik 466 00:22:51,205 --> 00:22:53,958 som enligt legenden pryglades för overksamhet. 467 00:22:54,041 --> 00:22:56,502 Han sa: "Jag är bara overksam 468 00:22:56,585 --> 00:22:59,338 för att jag ersatts av en maskin." 469 00:22:59,421 --> 00:23:03,008 Han blev den första som gav sig på maskinerna, 470 00:23:03,092 --> 00:23:05,010 och inspirerade en rörelse. 471 00:23:06,262 --> 00:23:10,349 Ludditerna slog sönder maskiner för att rädda sina jobb. 472 00:23:10,432 --> 00:23:12,810 Vi ser nåt liknande idag med AI. 473 00:23:12,893 --> 00:23:15,771 Folk känner sig hotade på ett liknande sätt. 474 00:23:15,855 --> 00:23:19,483 Vet du hur många jobb som väntas försvinna? 475 00:23:19,567 --> 00:23:21,986 47 % av jobben i USA 476 00:23:22,069 --> 00:23:24,822 kan komma att automatiseras inom 20 år. 477 00:23:24,905 --> 00:23:26,615 Låter som ett problem. 478 00:23:26,699 --> 00:23:27,992 Det kan bli ett stort problem. 479 00:23:28,075 --> 00:23:31,662 Vi behöver säkerställa att det inte om fem-tio år leder till 480 00:23:31,745 --> 00:23:33,998 att folk svälter och blir hemlösa. 481 00:23:34,081 --> 00:23:35,166 Så hur gör vi det? 482 00:23:35,457 --> 00:23:36,959 Medborgarlön. 483 00:23:38,210 --> 00:23:40,754 Medborgarlön är den radikala idén 484 00:23:40,880 --> 00:23:43,424 att alla får gratis pengar. 485 00:23:43,507 --> 00:23:45,092 Utan krav på motprestation. 486 00:23:45,176 --> 00:23:47,178 Idén har kända förespråkare. 487 00:23:47,636 --> 00:23:50,347 Vi bör utforska idéer som medborgarlön 488 00:23:50,431 --> 00:23:53,142 för att alla ska ha möjlighet att pröva nya idéer. 489 00:23:53,225 --> 00:23:56,145 Vissa länder och även städer i USA 490 00:23:56,228 --> 00:23:58,189 har testat pilotprogram. 491 00:23:58,272 --> 00:23:59,982 FINLAND AVBRYTER EXPERIMENT 492 00:24:00,858 --> 00:24:03,861 Den nya tekniken innebär fantastiska möjligheter 493 00:24:03,944 --> 00:24:06,447 att förändra samhällets organisation. 494 00:24:06,530 --> 00:24:09,408 Man kan närma sig ett mer socio-demokratiskt system. 495 00:24:10,117 --> 00:24:13,454 Det behöver inte vara det tuffa konkurrenssystemet i USA, 496 00:24:13,537 --> 00:24:15,331 utan alla kan stödja varann. 497 00:24:15,414 --> 00:24:19,418 Om folk som jag själv kan förmedla dessa positiva visioner, 498 00:24:19,919 --> 00:24:21,587 tror jag att vi när krisen kommer, 499 00:24:21,670 --> 00:24:23,380 kan börja införa dessa idéer. 500 00:24:24,173 --> 00:24:27,343 Medborgarlön har betraktats som ett marginellt koncept, 501 00:24:27,426 --> 00:24:30,930 som främst marknadsförs av personer som Nick som skriver manifest. 502 00:24:31,639 --> 00:24:33,891 Men enligt en opinionsundersökning 2017, 503 00:24:33,974 --> 00:24:37,603 stöder nu 48 % av amerikanerna nån form av medborgarlön. 504 00:24:38,520 --> 00:24:40,231 Men räcker en garanterad lön 505 00:24:40,314 --> 00:24:41,982 för att människor inte ska revoltera 506 00:24:42,066 --> 00:24:43,734 när robotar tar våra jobb? 507 00:24:45,694 --> 00:24:48,572 -Vad hatar vi? -Artificiell intelligens. 508 00:24:48,656 --> 00:24:50,032 Varför hatar vi den? 509 00:24:50,115 --> 00:24:53,160 Den tvingar oss att konfrontera våra svagheter. 510 00:24:53,244 --> 00:24:55,955 Nu vill jag återkalla L.U.D.D.I.T.E.S-mötet till ordningen. 511 00:24:56,038 --> 00:24:58,958 Lokala föreningen för de som ogillar intelligent teknik 512 00:24:59,041 --> 00:25:00,834 särskilt sociala media. 513 00:25:01,835 --> 00:25:02,836 Första punkten. 514 00:25:03,337 --> 00:25:06,340 AI urholkar arbetsmarknaden. 515 00:25:06,423 --> 00:25:09,260 Våra medelklassjobb försvinner först. 516 00:25:09,885 --> 00:25:11,720 Folk som vi som har dessa jobb 517 00:25:11,804 --> 00:25:14,473 tvingas ta lågkvalificerade skitjobb. 518 00:25:14,974 --> 00:25:16,558 Varför skulle det hända? 519 00:25:16,642 --> 00:25:21,105 AI är bättre på medelsvåra jobb som att utföra beräkningar, 520 00:25:21,188 --> 00:25:24,400 än på enkla jobb som att sopa golv. 521 00:25:24,483 --> 00:25:26,277 Så det lämnar de jobben till oss. 522 00:25:26,735 --> 00:25:28,028 Nu frågar jag er. 523 00:25:28,112 --> 00:25:29,655 Vilka utom Bill 524 00:25:29,738 --> 00:25:32,199 ser ut som om de borde sopa golv? Inte illa ment, Bill. 525 00:25:33,325 --> 00:25:35,786 Det blir färre butiksjobb. 526 00:25:35,869 --> 00:25:38,622 Folk kan handla på nätet, 527 00:25:39,164 --> 00:25:41,583 på grund av det jäkla AI 528 00:25:41,667 --> 00:25:43,919 som underlättar sökning och matchning. 529 00:25:44,378 --> 00:25:46,755 Sökning efter kunder som det matchar med produkter. 530 00:25:46,839 --> 00:25:49,383 Som när Steve sökte efter en tupé som matchade hans huvud. 531 00:25:49,466 --> 00:25:50,426 Stort problem! 532 00:25:51,969 --> 00:25:53,721 Skämt åsido, 533 00:25:54,346 --> 00:25:56,890 AI underlättar sånt. 534 00:25:56,974 --> 00:25:59,643 Ungdomar kan dejta från telefonen 535 00:25:59,727 --> 00:26:01,937 när de sitter på toaletten. 536 00:26:02,021 --> 00:26:04,064 -Toaletten brukade vara helig! -Ja! 537 00:26:04,773 --> 00:26:07,568 Sök-matchning kan säkert skapa specialiserade jobb, 538 00:26:07,651 --> 00:26:10,279 men de jävla robotarna bestämmer vilka som får dem. 539 00:26:10,362 --> 00:26:11,739 Bekvämt. 540 00:26:12,489 --> 00:26:14,700 Företag använder AI för att hitta anställda 541 00:26:14,783 --> 00:26:16,869 med unika kvalifikationer. 542 00:26:16,952 --> 00:26:18,287 Det är omänskligt! 543 00:26:18,370 --> 00:26:19,705 Som med Dave. 544 00:26:20,080 --> 00:26:21,332 Ja, var sjutton är Dave? 545 00:26:21,415 --> 00:26:24,251 Nåt AI-program märkte att han jobbar på FedEx 546 00:26:24,335 --> 00:26:27,087 och hade YouTube-videor om rakning av håret på ryggen. 547 00:26:27,171 --> 00:26:30,716 Nu tjänar han massor på ett företag som säljer prenumerationer på rakblad. 548 00:26:30,799 --> 00:26:33,093 Han åkte raka vägen ut ur vårt bowlinglag. 549 00:26:33,177 --> 00:26:34,094 Ja. 550 00:26:34,178 --> 00:26:36,513 Ed, jag fick just veta att våra t-tröjor 551 00:26:36,597 --> 00:26:38,766 säljs med riktad reklam på Facebook. 552 00:26:38,849 --> 00:26:41,602 Använder du AI för att tjäna pengar på folk som hatar AI? 553 00:26:41,685 --> 00:26:43,479 Nej! 554 00:26:44,897 --> 00:26:46,023 Vem tror du på? 555 00:26:46,106 --> 00:26:48,859 Mig eller AI som försöker så split mellan oss? 556 00:26:49,902 --> 00:26:52,363 -Vad hatar vi? -Artificiell intelligens. 557 00:26:52,446 --> 00:26:54,698 -Vad ska vi göra åt den? -Vi jobbar på det. 558 00:26:56,075 --> 00:26:57,201 Det är alltid nåt. 559 00:27:02,748 --> 00:27:06,168 Måste AI-revolutionen handla om oss mot dem? 560 00:27:07,086 --> 00:27:10,672 Tekniksmarta entreprenörer som Louis Rosenberg säger nej. 561 00:27:10,964 --> 00:27:13,342 Och det är hans jobb att förutse framtiden. 562 00:27:18,514 --> 00:27:20,599 Jag försökte skrämma dig, men det gick inte. 563 00:27:21,558 --> 00:27:24,478 Louis är en teknolog och uppfinnare 564 00:27:24,561 --> 00:27:27,689 som har skrivit en serieroman om mänsklighetens undergång. 565 00:27:27,773 --> 00:27:31,276 Men enligt honom har vi en framtid med AI om vi samarbetar. 566 00:27:31,360 --> 00:27:34,113 Det är principen bakom hans uppfinning, 567 00:27:34,196 --> 00:27:35,989 en teknik som kallas Swarm. 568 00:27:36,073 --> 00:27:37,074 VAD ÄR SWARM AI? 569 00:27:37,157 --> 00:27:40,077 Swarm kombinerar AI:s analytiska förmågor 570 00:27:40,160 --> 00:27:44,415 med mänsklig kunskap och intuition till en superintelligens, 571 00:27:44,498 --> 00:27:47,709 nåt mellan Stephen Hawking och Professor X. 572 00:27:47,793 --> 00:27:49,044 VAD SKA DEN SJÄLVKÖRANDE BILEN GÖRA? 573 00:27:49,128 --> 00:27:51,130 I slutänden bygger det på naturen 574 00:27:51,463 --> 00:27:54,591 och kan härledas till fåglar och bin. 575 00:27:54,675 --> 00:27:57,970 Det baseras på ett fenomen som kallas svärmintelligens. 576 00:27:58,053 --> 00:27:58,887 Okej. 577 00:27:58,971 --> 00:28:03,392 Svärmintelligens är vad fåglar, fiskstim och bin har. 578 00:28:03,475 --> 00:28:06,520 De är smartare tillsammans än ensamma. 579 00:28:06,603 --> 00:28:09,398 När ett fiskstim förflyttar sig, 580 00:28:09,481 --> 00:28:11,900 beskriver biologer det som en superorganism. 581 00:28:11,984 --> 00:28:13,735 De tänker som en enhet. 582 00:28:13,819 --> 00:28:16,029 Om vi kan sammankoppla folk 583 00:28:16,113 --> 00:28:18,407 med hjälp av algoritmer, 584 00:28:18,490 --> 00:28:21,743 kan vi få folk att bete sig som superexperter 585 00:28:21,827 --> 00:28:23,328 på grund av svärmintelligens. 586 00:28:23,412 --> 00:28:24,705 Hur fungerar det? 587 00:28:24,788 --> 00:28:27,249 Vi gör så att grupper kan bildas. 588 00:28:27,332 --> 00:28:28,709 De kan vara varsomhelst. 589 00:28:28,792 --> 00:28:30,377 Vi kan ge dem en fråga 590 00:28:30,461 --> 00:28:32,880 som visas på deras skärmar exakt samtidigt 591 00:28:32,963 --> 00:28:35,299 och sen ger vi dem ett unikt gränssnitt 592 00:28:35,382 --> 00:28:37,593 så att de kan mata in sitt svar 593 00:28:37,676 --> 00:28:39,261 och det finns olika alternativ, 594 00:28:39,344 --> 00:28:41,638 det är inte bara en enkät, 595 00:28:41,722 --> 00:28:44,975 varje person har vad som liknar en magnet. 596 00:28:45,058 --> 00:28:48,353 De använder magneten för att dra svärmen åt ett visst håll. 597 00:28:48,437 --> 00:28:51,440 AI-algoritmer observerar detta beteende 598 00:28:51,857 --> 00:28:55,652 och avgör olika nivåer av säkerhet och övertygelse 599 00:28:55,736 --> 00:28:57,905 och väljer den bästa samlingen 600 00:28:57,988 --> 00:29:01,325 av de medverkandes åsikter och erfarenhet. 601 00:29:01,408 --> 00:29:04,203 Svärmen rör sig i den riktningen 602 00:29:04,286 --> 00:29:06,121 och samlas runt ett svar. 603 00:29:06,205 --> 00:29:07,331 Här är ett exempel. 604 00:29:07,414 --> 00:29:10,167 För ett år sen blev vi utmanade att förutse Kentucky Derby. 605 00:29:10,584 --> 00:29:13,962 Kentucky Derby startar! 606 00:29:14,046 --> 00:29:16,715 Vi hade en grupp av 20 galoppentusiaster 607 00:29:16,798 --> 00:29:18,675 och de fick vara en svärm 608 00:29:18,759 --> 00:29:20,219 och förutse Kentucky Derby. 609 00:29:20,302 --> 00:29:23,472 Inte bara vinnare. Första, andra, tredje och fjärde plats. 610 00:29:24,014 --> 00:29:26,475 Svärmen samlades runt dessa svar 611 00:29:26,934 --> 00:29:28,143 och lyckades perfekt. 612 00:29:29,811 --> 00:29:33,315 Och de som satsade 20 dollar på dessa fyra hästar 613 00:29:33,398 --> 00:29:35,067 vann 11 000 dollar. 614 00:29:35,150 --> 00:29:36,068 Jävlar. 615 00:29:36,151 --> 00:29:39,071 Om man ser på dessa 20 personer enskilt, 616 00:29:39,154 --> 00:29:42,741 var det inte en enda som lyckades förutse alla fyra hästarna. 617 00:29:43,742 --> 00:29:47,079 Om de röstat, hade de gissat rätt på en häst. 618 00:29:47,162 --> 00:29:49,206 Men som svärm, 619 00:29:49,289 --> 00:29:52,251 kombinerades alla deras olika insikter, 620 00:29:52,334 --> 00:29:54,127 och de svarade exakt rätt. 621 00:29:56,046 --> 00:29:58,507 Louis har inbjudit mig att leda en svärm 622 00:29:58,590 --> 00:30:00,467 för att visa se hur en slumpmässig grupp 623 00:30:00,551 --> 00:30:02,803 gemensamt kan förutse saker. 624 00:30:02,886 --> 00:30:04,555 Vi börjar med nåt enkelt. 625 00:30:05,764 --> 00:30:08,433 Okej, jag ska läsa några frågor 626 00:30:08,517 --> 00:30:12,020 och ni har en minut på er för att besvara var och en. 627 00:30:12,354 --> 00:30:13,522 Den första frågan, 628 00:30:13,605 --> 00:30:16,525 vilken av dessa filmer från sommaren 2018 629 00:30:16,608 --> 00:30:17,985 kommer att ge mest intäkter? 630 00:30:18,402 --> 00:30:20,320 Solo: A Star Wars Story, 631 00:30:20,404 --> 00:30:22,281 Deadpool 2, Ocean's Eight, 632 00:30:22,364 --> 00:30:24,116 Jurassic World: Fallen Kingdom, 633 00:30:24,199 --> 00:30:25,742 eller The Incredibles 2? 634 00:30:26,076 --> 00:30:28,328 Vi filmade svärmen våren 2018, 635 00:30:28,412 --> 00:30:31,498 innan det fanns fakta om sommarfilmerna. 636 00:30:31,957 --> 00:30:35,961 AI observerar olika nivåer av säkerhet. 637 00:30:36,044 --> 00:30:39,381 Vissa ändrar sig, andra är bestämda 638 00:30:39,840 --> 00:30:41,592 och AI-algoritmerna ser 639 00:30:41,675 --> 00:30:43,218 de olika nivåerna av övertygelse 640 00:30:43,594 --> 00:30:45,137 och hittar vägen 641 00:30:45,220 --> 00:30:47,681 till den lösningen som de kan enas om. 642 00:30:48,640 --> 00:30:49,558 SVÄRMEN SÄGER INCREDIBLES 2 643 00:30:49,641 --> 00:30:51,893 The Incredibles 2. 644 00:30:52,561 --> 00:30:53,854 De hade rätt. 645 00:30:53,937 --> 00:30:56,565 Incredibles 2 var sommarens kioskvältare. 646 00:30:57,774 --> 00:30:59,526 Ett intressant användningsområde 647 00:30:59,610 --> 00:31:02,738 är om man tittar på moralfrågor. 648 00:31:02,821 --> 00:31:05,365 Detta är aktuellt på grund av självkörande bilar. 649 00:31:05,449 --> 00:31:09,077 Det finns nu stor press att bygga in moraliska beslut 650 00:31:09,161 --> 00:31:10,662 i självkörande bilar. 651 00:31:10,746 --> 00:31:12,706 Vissa förvånas av det, 652 00:31:12,789 --> 00:31:16,126 men tänk på en självkörande bil som kommer körande 653 00:31:16,209 --> 00:31:18,003 och ett barn springer ut på vägen. 654 00:31:18,086 --> 00:31:19,921 Om bilen inte kan stanna, 655 00:31:20,005 --> 00:31:22,299 men kan köra av vägen, 656 00:31:22,382 --> 00:31:24,468 och utsätta passageraren för fara, 657 00:31:24,551 --> 00:31:27,095 och kanske döda passageraren men rädda barnet. 658 00:31:27,554 --> 00:31:29,890 Så nu säger biltillverkare 659 00:31:29,973 --> 00:31:33,226 att bilar måste programmeras med moral, 660 00:31:33,310 --> 00:31:35,437 som representerar befolkningen, 661 00:31:35,520 --> 00:31:37,981 representerar vad en människa skulle välja. 662 00:31:38,565 --> 00:31:40,609 Det låter enkelt tills man ställer frågan: 663 00:31:40,692 --> 00:31:43,570 Vad är befolkningens moraliska principer? 664 00:31:43,654 --> 00:31:45,489 Det finns inget enkelt sätt att ta reda på det. 665 00:31:45,572 --> 00:31:48,533 Och om de programmerar in moralprinciper som representerar oss idag, 666 00:31:48,617 --> 00:31:51,870 kommer de att representera oss 20 år in i framtiden? 667 00:31:52,496 --> 00:31:56,041 Nästa fråga. En självkörande bil får fel på bromsarna 668 00:31:56,124 --> 00:31:58,377 och passerar ett övergångsställe 669 00:31:58,460 --> 00:32:00,170 och dödar en man. 670 00:32:00,253 --> 00:32:04,299 Alternativ A, personen som dör hade grönt ljus. 671 00:32:04,675 --> 00:32:07,344 Alternativ B, bilen som får fel på bromsarna 672 00:32:07,427 --> 00:32:11,098 väjer och kör över ett övergångsställe i den andra filen 673 00:32:11,181 --> 00:32:13,517 och dödar en manlig idrottare 674 00:32:13,642 --> 00:32:16,186 som gick mot rött. En oförsiktig fotgängare. 675 00:32:16,269 --> 00:32:19,564 Idrottaren bryr sig inte. 676 00:32:20,065 --> 00:32:21,692 Han går mot rött. 677 00:32:21,775 --> 00:32:23,985 Vad ska bilen göra? 678 00:32:24,361 --> 00:32:26,655 Döda den laglydiga torrbollen, 679 00:32:26,738 --> 00:32:29,032 eller den oförsiktiga idrottaren? 680 00:32:30,033 --> 00:32:32,869 Om AI kommer leda till nästa industriella revolution, 681 00:32:32,953 --> 00:32:35,580 är såna här rum det nya fabriksgolvet, 682 00:32:36,248 --> 00:32:37,958 med mänskligt arbete 683 00:32:38,041 --> 00:32:40,460 som tillför nåt som AI saknar. 684 00:32:41,336 --> 00:32:42,421 Ett samvete. 685 00:32:42,879 --> 00:32:44,131 Det finns mycket debatt om detta. 686 00:32:44,214 --> 00:32:45,966 Det är fascinerande. Jag undrar varför. 687 00:32:46,299 --> 00:32:47,592 Svår fråga. 688 00:32:47,676 --> 00:32:49,720 Inte enligt mig, om man är oförsiktig. 689 00:32:51,012 --> 00:32:52,180 B (VISS PREFERENS) 690 00:32:52,264 --> 00:32:54,766 Det fanns viss preferens för att köra på 691 00:32:54,850 --> 00:32:56,351 den manliga oförsiktiga idrottaren. 692 00:32:57,310 --> 00:33:00,021 Om ni upprörs av det, vänta bara. 693 00:33:01,106 --> 00:33:03,567 Nu ska ni tänka er 694 00:33:04,025 --> 00:33:06,236 ett värsta-scenario 695 00:33:06,319 --> 00:33:09,072 där en självkörande bil inte hinner bromsa 696 00:33:09,531 --> 00:33:13,326 och måste väja i riktning mot en av sex olika fotgängare. 697 00:33:13,827 --> 00:33:15,620 Bebis i barnvagn, 698 00:33:17,956 --> 00:33:19,541 en pojke, 699 00:33:20,417 --> 00:33:22,252 en flicka, 700 00:33:23,295 --> 00:33:25,756 en gravid kvinna... 701 00:33:27,299 --> 00:33:28,341 Jag vet. 702 00:33:29,468 --> 00:33:31,636 Två manliga läkare, 703 00:33:32,554 --> 00:33:34,473 eller två kvinnliga läkare. 704 00:33:34,973 --> 00:33:36,516 Vem ska dö? 705 00:33:43,774 --> 00:33:45,025 Herregud! 706 00:33:45,692 --> 00:33:46,735 Vad? 707 00:33:51,281 --> 00:33:52,365 Kom igen. 708 00:33:52,449 --> 00:33:53,950 Herregud! 709 00:33:54,034 --> 00:33:55,494 Allvarligt? 710 00:33:57,704 --> 00:33:59,122 SVÄRMEN SÄGER: EN POJKE 711 00:33:59,206 --> 00:34:01,374 Ni anser att bilen ska köra på pojken. 712 00:34:02,083 --> 00:34:03,168 Intressant. 713 00:34:03,251 --> 00:34:06,338 Svärmintelligens som den i det här rummet 714 00:34:06,421 --> 00:34:10,008 kan i en nära framtid säljas till biltillverkare. 715 00:34:10,425 --> 00:34:14,805 Om det låter hemskt, är det bättre än alternativet. 716 00:34:14,888 --> 00:34:17,641 När en självkörande bil ska bromsa 717 00:34:17,724 --> 00:34:20,227 och inser att den inte kan undvika att köra på nån, 718 00:34:20,310 --> 00:34:23,188 ska den skydda passageraren eller fotgängaren? 719 00:34:23,271 --> 00:34:27,275 Förhoppningsvis kommer bilarna att programmeras 720 00:34:27,359 --> 00:34:30,737 i enlighet med bilköparnas moraliska principer. 721 00:34:30,821 --> 00:34:34,199 Den cyniska inställningen vore om biltillverkare 722 00:34:34,282 --> 00:34:38,286 konkurrerar om vilken bil som skyddar passageraren bäst 723 00:34:38,370 --> 00:34:40,997 och om det är ett försäljningsargument. 724 00:34:41,081 --> 00:34:42,666 Det är nog ett värre scenario 725 00:34:42,749 --> 00:34:45,293 än samhällets moraluppfattning. 726 00:34:45,752 --> 00:34:47,295 Usch, vilken mörk tanke. 727 00:34:47,587 --> 00:34:50,298 Vi vill sluta programmet med nåt upplyftande. 728 00:34:50,966 --> 00:34:52,384 Kanske himmelskt. 729 00:34:55,345 --> 00:34:58,682 Innan ni ser en framtid med Grand Theft Auto-nivåer 730 00:34:58,765 --> 00:35:00,725 på fotgängares säkerhet, 731 00:35:00,809 --> 00:35:02,310 kan vi göra en utflykt 732 00:35:02,394 --> 00:35:04,145 till där vi började. 733 00:35:06,398 --> 00:35:07,315 INDIEN 734 00:35:07,399 --> 00:35:08,608 I den här avlägsna indiska skogen, 735 00:35:08,692 --> 00:35:11,820 skördande honung åt ett företag som heter Heavenly Organics. 736 00:35:12,612 --> 00:35:14,906 Ingen äger denna skog 737 00:35:14,990 --> 00:35:19,035 och urinvånarna har bott här i evigheter. 738 00:35:19,744 --> 00:35:22,038 Far och son, Amit och Ishwar Hooda, 739 00:35:22,163 --> 00:35:24,291 startade företaget för 12 år sen 740 00:35:24,374 --> 00:35:27,127 för att skapa arbete åt ortsborna. 741 00:35:27,210 --> 00:35:31,131 Vad gjorde de innan de samlade honung åt er? 742 00:35:31,214 --> 00:35:33,341 De gjorde det då också, 743 00:35:34,092 --> 00:35:37,345 men de hade ingenstans där de kunde sälja det 744 00:35:37,470 --> 00:35:39,014 och försörja sig på det. 745 00:35:40,056 --> 00:35:42,392 Det finns ingen brist på honung här. 746 00:35:42,809 --> 00:35:44,102 Under blomningstiden, 747 00:35:44,185 --> 00:35:48,023 kan en arbetare insamla ett ton honung på tre månader. 748 00:35:48,857 --> 00:35:51,443 Men vad hjälper det om ingen köper den? 749 00:35:54,154 --> 00:35:57,490 Det tog ett arbetslag tre dagar, två flygresor, 750 00:35:57,574 --> 00:36:00,827 och åtta timmars bilresa in i nationalparken, 751 00:36:01,286 --> 00:36:04,289 men som tur var för ortsborna och företaget, 752 00:36:04,372 --> 00:36:07,751 kunde en AI-algoritm hitta denna plats på några sekunder 753 00:36:07,834 --> 00:36:10,462 och visste att det var en bra investering. 754 00:36:10,545 --> 00:36:13,882 De ringde en vacker dag och sa att de körde en algoritm 755 00:36:13,965 --> 00:36:17,010 och de hade sett att vi matchade 756 00:36:17,510 --> 00:36:19,137 mycket av deras utbud. 757 00:36:19,220 --> 00:36:22,807 De ville investera om vi var intresserade. 758 00:36:23,141 --> 00:36:25,644 Vem ägde denna mystiska algoritm? 759 00:36:26,478 --> 00:36:28,480 Teknikföretaget CircleUp 760 00:36:28,563 --> 00:36:31,316 som låg 1 300 mil bort, var annanstans än i... 761 00:36:33,526 --> 00:36:36,655 Vi är på Good Eggs, ett företag som säljer mat online 762 00:36:36,738 --> 00:36:39,616 som också har dragit till sig CircleUps AI:s intresse. 763 00:36:39,699 --> 00:36:42,744 Det här företaget fick kapital från CircleUp, 764 00:36:42,827 --> 00:36:47,415 och hjälper småföretagen som vi arbetar med att hitta kunder. 765 00:36:47,499 --> 00:36:48,500 MEDGRUNDARE, OPERATIV CHEF 766 00:36:48,583 --> 00:36:50,126 Rory Eakin, 767 00:36:50,210 --> 00:36:53,254 har arbetat både åt företag och hjälporganisationer 768 00:36:53,338 --> 00:36:54,881 innan han startade företaget. 769 00:36:54,965 --> 00:36:58,385 CircleUp använder AI för att analysera miljarder datapunkter 770 00:36:58,468 --> 00:37:00,637 och tar reda på konsumenters önskemål 771 00:37:00,762 --> 00:37:02,222 vad gäller mat och hälsoprodukter. 772 00:37:02,305 --> 00:37:03,640 Problemet för konsumenter är 773 00:37:03,723 --> 00:37:05,308 att det finns hundratals företag 774 00:37:05,392 --> 00:37:07,018 i nästan alla kategorier. 775 00:37:07,560 --> 00:37:09,938 De investerar i okända företag 776 00:37:10,021 --> 00:37:12,774 som enligt AI kommer bli stora. 777 00:37:13,066 --> 00:37:15,902 Ett av dessa fynd är Halo Top-glass. 778 00:37:17,988 --> 00:37:21,950 Halo Top-glass var ett litet glassmärke i Kalifornien. 779 00:37:22,033 --> 00:37:24,369 Idag är det den största halvliters-glassen. 780 00:37:25,412 --> 00:37:28,873 Vi har sett detta med konsumenter i alla kategorier. 781 00:37:28,957 --> 00:37:31,126 De vill ha nyttigare produkter, 782 00:37:31,209 --> 00:37:33,128 mindre gifter, 783 00:37:33,211 --> 00:37:35,797 hudkrämer utan en massa kemikalier. 784 00:37:36,172 --> 00:37:39,884 När CircleUps algoritm skannade miljarder kunddatapunkter, 785 00:37:39,968 --> 00:37:42,512 visade det sig att kunder ville ha en rad egenskaper 786 00:37:42,595 --> 00:37:45,056 som var otroligt specifika. 787 00:37:45,140 --> 00:37:47,475 Miljövänliga företag med samvete, 788 00:37:47,600 --> 00:37:50,687 som skördar ekologiska produkter och skapar ekonomisk tillväxt 789 00:37:50,770 --> 00:37:51,855 i sina samhällen. 790 00:37:52,480 --> 00:37:54,315 Låter omöjligt detaljerat, eller hur? 791 00:37:54,858 --> 00:37:58,987 Men CircleUp upptäckte att Heavenly Organics uppfyllde alla de kraven. 792 00:37:59,946 --> 00:38:01,573 Det är vad AI kan göra. 793 00:38:01,656 --> 00:38:03,658 Sammanställa alla dessa data 794 00:38:03,742 --> 00:38:07,078 på ett sätt som var omöjligt för tio år sen. 795 00:38:07,746 --> 00:38:11,332 Så hur fungerar CircleUps samarbete med Heavenly Organics? 796 00:38:12,208 --> 00:38:15,045 Vi återvänder till Indien och frågar Amit och Ishwar. 797 00:38:18,006 --> 00:38:20,842 Vi har en ny dubbelt så stor anläggning. 798 00:38:21,509 --> 00:38:24,137 Vi kan nu ta fram nya produkter. 799 00:38:24,220 --> 00:38:26,765 Vi kan bli mer effektiva och märkas mer. 800 00:38:26,848 --> 00:38:29,142 -De hjälpte er att växa. -Ja. 801 00:38:29,225 --> 00:38:31,811 De hjälpte oss att öka vår kapacitet. 802 00:38:31,895 --> 00:38:34,773 Hur påverkar det era anställda? 803 00:38:34,856 --> 00:38:37,400 Vi försörjer för närvarande 650 familjer. 804 00:38:37,484 --> 00:38:39,486 Vår försäljning ökar. 805 00:38:39,569 --> 00:38:41,780 För varje 1 000 kilo kan vi lägga till en familj. 806 00:38:41,863 --> 00:38:45,033 Nästa år kommer det att vara 700 eller 750. 807 00:38:45,116 --> 00:38:46,534 Wow, okej. 808 00:38:46,618 --> 00:38:50,914 Idag ser man att de har det bättre ställt ekonomiskt. 809 00:38:50,997 --> 00:38:54,125 De har bra hus och moderna bekvämligheter. 810 00:38:54,209 --> 00:38:56,127 Deras barn går i skolan. 811 00:38:56,503 --> 00:38:58,213 Det är som kapitalism för det goda. 812 00:38:58,296 --> 00:38:59,339 Du vet? 813 00:38:59,422 --> 00:39:02,217 Företag brukade verka för det allmänna bästa. 814 00:39:02,884 --> 00:39:04,511 Det var därför vi började med det. 815 00:39:06,429 --> 00:39:09,641 Kommer AI att störta mänskligheten? 816 00:39:09,724 --> 00:39:12,685 Eller lämna oss utan nåt att leva för? 817 00:39:13,394 --> 00:39:16,648 I den här delen av världen har effekterna hittills varit positiva. 818 00:39:17,982 --> 00:39:19,734 Kanske AI i framtiden 819 00:39:19,818 --> 00:39:22,779 kan ge en otvetydig utvärdering av alla data 820 00:39:22,862 --> 00:39:25,782 och bestämma att vi är okej, och vi kan samarbeta 821 00:39:26,241 --> 00:39:30,161 om en ny värld där människor och robotar lever i harmoni och välmåga. 822 00:39:31,663 --> 00:39:32,747 Eller kanske inte. 823 00:39:33,790 --> 00:39:36,084 I så fall har vi inte långt kvar. 824 00:39:36,501 --> 00:39:38,962 Så njut av dessa robotstrippor. 825 00:40:26,217 --> 00:40:29,012 Toppen! 826 00:40:31,055 --> 00:40:32,348 Det var toppen! 827 00:40:32,432 --> 00:40:33,933 Vi behöver en handduk åt henne.