1 00:00:08,927 --> 00:00:11,930 Ik sta op Wall Street, waar het allemaal begon. 2 00:00:13,724 --> 00:00:17,186 Op 6 mei 2010, om 14.45 uur, 3 00:00:17,686 --> 00:00:21,190 zat een man in het huis van zijn ouders, ver weg in Londen, 4 00:00:21,273 --> 00:00:24,985 en liet hij een algoritme los op de beurs van New York 5 00:00:25,068 --> 00:00:27,279 met een verkooporder van $1 miljard. 6 00:00:28,697 --> 00:00:30,449 Het plan was om de markt te spoofen 7 00:00:30,532 --> 00:00:32,659 en de order voor voltooiing terug te trekken 8 00:00:33,160 --> 00:00:34,411 Maar voor dat kon gebeuren, 9 00:00:34,495 --> 00:00:37,247 begonnen wereldwijd geautomatiseerde beurshandelbots 10 00:00:37,331 --> 00:00:38,582 ook te verkopen. 11 00:00:39,041 --> 00:00:42,336 Die veroorzaakten een kettingreactie die de markt deed instorten. 12 00:00:44,880 --> 00:00:48,967 De Dow Jones-index is 1000 punten gezakt in 15 minuten. 13 00:00:49,051 --> 00:00:52,513 Bijna net zoveel als bij de aanvang van de Grote Depressie. 14 00:00:52,596 --> 00:00:55,307 Ik weet niet wat hier gebeurt. 15 00:00:55,390 --> 00:00:56,642 Er heerst angst op de markt. 16 00:00:57,267 --> 00:00:59,645 Annuleer de cruise. Haal je kinderen van dure scholen. 17 00:01:00,938 --> 00:01:02,481 Dit is een beurskrach, mensen. 18 00:01:03,023 --> 00:01:04,066 Verdorie. 19 00:01:05,359 --> 00:01:08,111 Zesendertig minuten later herstelde de markt zich. 20 00:01:08,195 --> 00:01:11,615 Maar de beurskrach van 2010 was de eerste keer 21 00:01:11,698 --> 00:01:15,994 dat mensen aan den lijve ondervonden hoe billenknijpend angstaanjagend het was 22 00:01:16,078 --> 00:01:19,164 als ki ons financiële systeem zou overnemen. 23 00:01:20,707 --> 00:01:22,167 Je moet zien hoe het nu is. 24 00:01:24,086 --> 00:01:26,922 Daarom ben ik in India op zoek naar wilde honing. 25 00:01:27,631 --> 00:01:28,966 Later meer daarover. 26 00:01:29,341 --> 00:01:31,885 Om te begrijpen hoe ki deze plek vond en waarom, 27 00:01:31,969 --> 00:01:34,429 moet je begrijpen wat ki is. 28 00:01:34,513 --> 00:01:36,431 Als je het denkt te weten, heb je het verkeerd. 29 00:01:37,850 --> 00:01:41,436 Of je het leuk vindt of niet, we zijn allemaal verbonden door geld. 30 00:01:41,937 --> 00:01:45,315 Ik ben Kal Penn en ik verken dit grote beest 31 00:01:45,691 --> 00:01:48,068 dat de wereldeconomie heet. 32 00:01:52,322 --> 00:01:54,199 Wat is 'ki' precies? 33 00:01:54,867 --> 00:01:58,579 Ik ben in San Francisco om te bekijken wat het niet is. 34 00:01:58,662 --> 00:02:01,874 Dat is zowat alles wat sciencefiction je heeft verteld. 35 00:02:02,541 --> 00:02:03,542 Zeker... 36 00:02:03,959 --> 00:02:07,004 Ongelofelijk grote robots. 37 00:02:27,107 --> 00:02:28,442 O, mijn god. 38 00:02:30,485 --> 00:02:32,112 Ik sta hier met Julia Bossmann, 39 00:02:32,237 --> 00:02:36,575 die in de raad voor ki van het Wereldeconomisch Forum zit. 40 00:02:36,658 --> 00:02:40,329 Ze adviseert wereldleiders hoe ze moeten omgaan met ki. 41 00:02:40,829 --> 00:02:44,499 Voor die baan doet ze nog leukere dingen dan auto's vernietigd zien worden. 42 00:02:44,583 --> 00:02:47,586 Zoals selfies met het sekssymbool van Canada dat niet Drake heet. 43 00:02:47,669 --> 00:02:48,754 PREMIER VAN CANADA 44 00:02:53,467 --> 00:02:55,385 Hoe ga je nu naar huis? 45 00:02:55,469 --> 00:02:56,803 Ik kan er nog mee rijden. 46 00:03:01,016 --> 00:03:03,018 We spreken elkaar bij Megabots, 47 00:03:03,101 --> 00:03:05,854 dat grote robots bouwt om tegen elkaar te vechten. 48 00:03:07,814 --> 00:03:10,275 Een soort nerderigere middeleeuwse nepgevechten. 49 00:03:13,779 --> 00:03:14,905 Volgens Julia 50 00:03:14,988 --> 00:03:17,658 zijn deze robots niet alleen kapotte pretparkattracties. 51 00:03:18,283 --> 00:03:22,412 Ze zijn technologische fossielen vanwege één belangrijk kenmerk. 52 00:03:24,289 --> 00:03:25,582 In deze robots zijn wij de hersenen, 53 00:03:25,666 --> 00:03:27,626 maar ki zijn kunstmatige hersenen. 54 00:03:27,709 --> 00:03:28,752 WERELDECONOMISCH FORUM, KI-EXPERT 55 00:03:28,835 --> 00:03:29,711 Kun je meer vertellen? 56 00:03:29,795 --> 00:03:32,506 We maken nu computers 57 00:03:32,589 --> 00:03:34,132 die zelf dingen kunnen leren. 58 00:03:34,591 --> 00:03:37,010 Ze hoeven geen lichamen te hebben. 59 00:03:37,344 --> 00:03:40,055 Veel ki die we hebben gebouwd, 60 00:03:40,138 --> 00:03:41,765 zit in grote datacenters. 61 00:03:42,057 --> 00:03:46,645 Als je het moet uitleggen aan een 13-jarige, 62 00:03:46,728 --> 00:03:48,146 wat is ki? 63 00:03:48,230 --> 00:03:50,691 De algemene definitie is 64 00:03:50,774 --> 00:03:54,945 dat ki machines dingen kan laten doen 65 00:03:55,028 --> 00:03:58,156 waarvoor we ze niet hebben geprogrammeerd. 66 00:03:58,240 --> 00:03:59,616 Bij traditionele programmering 67 00:03:59,700 --> 00:04:02,744 heb je regels en het algoritme. 68 00:04:02,828 --> 00:04:04,413 Als dit gebeurt, gebeurt dat. 69 00:04:04,496 --> 00:04:07,165 Het is bepaald door de mensen die het programmeren. 70 00:04:07,249 --> 00:04:09,501 Als je naar de medische literatuur kijkt, 71 00:04:09,584 --> 00:04:12,004 heeft één database miljoenen lemma's 72 00:04:12,087 --> 00:04:14,923 en geen enkele arts kan al die artikelen lezen 73 00:04:15,048 --> 00:04:17,676 om up-to-date te blijven, maar een machine wel. 74 00:04:17,759 --> 00:04:20,220 Een machine kan nieuwe ideeën verzinnen 75 00:04:20,303 --> 00:04:21,596 om problemen op te lossen 76 00:04:21,680 --> 00:04:24,766 of nieuwe medicatie te ontdekken om ziektes te genezen. 77 00:04:24,850 --> 00:04:25,976 Wauw. Oké. 78 00:04:26,059 --> 00:04:28,395 Het gebied in de kunstmatige intelligentie 79 00:04:28,478 --> 00:04:30,856 dat nu het interessantst is, 80 00:04:30,939 --> 00:04:32,065 heet deep learning. 81 00:04:32,149 --> 00:04:33,608 Wat is deep learning? 82 00:04:33,692 --> 00:04:36,069 Deep learning is als we 83 00:04:36,153 --> 00:04:39,072 meerdere diepe lagen van neurale netwerken hebben 84 00:04:39,156 --> 00:04:42,242 die lijken op wat we in onze hersenen hebben. 85 00:04:42,325 --> 00:04:45,579 In ons hoofd hebben we neuronen die met elkaar verbonden zijn 86 00:04:45,662 --> 00:04:46,788 en informatie uitwisselen. 87 00:04:46,830 --> 00:04:50,751 Dat simuleren we in machines. 88 00:04:50,834 --> 00:04:54,546 We geven die data die evenwichtig en objectief is, 89 00:04:54,629 --> 00:04:56,214 zodat ze kunnen leren. 90 00:04:56,548 --> 00:04:59,009 Bij beeldherkenning vertellen we ze: 91 00:04:59,092 --> 00:05:01,511 'Dit zijn beelden van katten en honden.' 92 00:05:01,595 --> 00:05:03,972 Dan bladeren ze door de beelden heen 93 00:05:04,056 --> 00:05:06,349 en leren ze die zelf herkennen. 94 00:05:06,433 --> 00:05:10,187 We hoeven dat niet helemaal te programmeren. 95 00:05:10,228 --> 00:05:11,229 Interessant. 96 00:05:11,313 --> 00:05:14,107 Er is ook machine learning. Dat is niet deep learning. 97 00:05:14,858 --> 00:05:16,985 Er zijn evolutionaire algoritmes 98 00:05:17,069 --> 00:05:19,863 waarbij we een principe uit de evolutie gebruiken 99 00:05:19,946 --> 00:05:24,242 en de machine verschillende situaties geven. 100 00:05:24,743 --> 00:05:27,329 Dan zien we welke het beste werkt. 101 00:05:27,412 --> 00:05:31,291 Welke het beste werkt, gaat door naar de volgende generatie. 102 00:05:31,374 --> 00:05:34,336 Net als organismes die evolueren, gebruiken we het basisprincipe 103 00:05:34,419 --> 00:05:37,172 dat het beste programma overleeft. 104 00:05:37,255 --> 00:05:38,381 Wauw, oké. 105 00:05:38,465 --> 00:05:40,550 Dat zijn evolutionaire algoritmes. 106 00:05:40,926 --> 00:05:44,346 Wat is het financiële belang van ki verkennen? 107 00:05:44,429 --> 00:05:47,724 Het moet een ongelofelijke potentiële impact op de economie hebben. 108 00:05:47,808 --> 00:05:50,393 Ja, die gaat de economie radicaal veranderen 109 00:05:50,477 --> 00:05:53,313 en we noemen het een nieuwe industriële revolutie. 110 00:05:53,396 --> 00:05:54,231 Interessant. 111 00:05:54,314 --> 00:05:55,774 Het wordt onze laatste uitvinding genoemd, 112 00:05:55,857 --> 00:05:58,944 omdat, als we kunstmatige hersenen hebben die slimmer zijn dan wij, 113 00:05:59,027 --> 00:06:00,779 die voor ons uitvindingen kunnen doen. 114 00:06:00,862 --> 00:06:03,865 Is het de laatste uitvinding, omdat die ons gaat vermoorden? 115 00:06:04,950 --> 00:06:06,118 Hopelijk niet. 116 00:06:08,829 --> 00:06:12,207 Veel mensen zijn bang dat kunstmatige intelligentie te slim wordt 117 00:06:12,290 --> 00:06:15,001 en ons gaat vermoorden. Maak je geen zorgen. 118 00:06:15,085 --> 00:06:19,047 Een van de redenen dat ki zo slim is, is dat die superdom is. 119 00:06:19,464 --> 00:06:20,549 Kom hier, ki. 120 00:06:21,299 --> 00:06:24,302 Stel je voor dat je ki hebt gevraagd om een recept voor taart 121 00:06:24,386 --> 00:06:26,179 middels evolutionaire algoritmes. 122 00:06:27,973 --> 00:06:30,517 Ki denkt niet na over de beste manier. 123 00:06:30,600 --> 00:06:33,520 Ze zou die miljarden keren uitproberen 124 00:06:33,603 --> 00:06:37,482 met elk ingrediënt in de keuken en op de domst mogelijke manieren. 125 00:06:38,441 --> 00:06:40,652 De meeste kunnen natuurlijk nooit slagen. 126 00:06:42,320 --> 00:06:43,613 Deze zeker niet. 127 00:06:44,447 --> 00:06:45,657 Leuk geprobeerd, dombo. 128 00:06:46,616 --> 00:06:50,162 Mislukking kwetst ki's gevoelens niet. Die heeft ze niet. 129 00:06:50,745 --> 00:06:53,123 Het mooie aan evolutionaire algoritmes 130 00:06:53,206 --> 00:06:56,293 is dat ze door al die domme methodes te gebruiken, 131 00:06:56,376 --> 00:06:58,044 een oplossing kan vinden 132 00:06:58,128 --> 00:07:01,464 voor een culinair probleem dat geen mens probeert op te lossen, 133 00:07:01,548 --> 00:07:04,176 zoals een geweldige veganistische taart. 134 00:07:04,259 --> 00:07:05,302 Ik heb een taart gemaakt. 135 00:07:06,178 --> 00:07:07,554 Goed zo, ki. 136 00:07:07,637 --> 00:07:09,097 Er zitten vooral cashewnoten in. 137 00:07:09,931 --> 00:07:13,143 Had je aan cashewnoten gedacht? Natuurlijk niet. 138 00:07:13,226 --> 00:07:16,521 Dat zou dom zijn, waar ki bereid toe is, 139 00:07:16,605 --> 00:07:18,190 zodat jij dat niet hoeft. 140 00:07:18,273 --> 00:07:21,067 Zal deze debiel evolueren tot een slimmere versie 141 00:07:21,151 --> 00:07:23,653 die over de wereld heerst en ons vermoordt? 142 00:07:24,196 --> 00:07:25,280 Dat weet ik niet. 143 00:07:25,363 --> 00:07:26,740 Ik leer de nucleaire codes. 144 00:07:27,657 --> 00:07:28,992 Maar ondertussen... 145 00:07:29,993 --> 00:07:31,077 Neem een stukje taart. 146 00:07:35,165 --> 00:07:36,541 Hoewel ik nog bezorgd ben 147 00:07:36,625 --> 00:07:39,461 dat ki meer problemen gaat veroorzaken dan oplossen, 148 00:07:41,004 --> 00:07:43,757 zeggen experts dat de productiviteit zal stijgen 149 00:07:43,840 --> 00:07:47,636 op gebieden als gezondheidszorg, vervoer en het geldwezen 150 00:07:47,719 --> 00:07:51,848 en $15,7 biljoen zal hebben toegevoegd aan het wereldwijde bnp in 2030. 151 00:07:52,474 --> 00:07:56,478 Dat is meer dan de output van China en India bij elkaar. 152 00:07:59,898 --> 00:08:02,275 Hoe belangrijk is ki? 153 00:08:02,943 --> 00:08:06,404 Ik vind het een van de drie belangrijkste gebeurtenissen ooit. 154 00:08:06,488 --> 00:08:07,697 Ooit? 155 00:08:07,781 --> 00:08:08,990 Jazeker, ooit. 156 00:08:09,616 --> 00:08:11,368 Ik sta hier met Andrew McAfee, 157 00:08:11,451 --> 00:08:15,664 een van 's werelds topexperts over hoe technologie economieën verandert 158 00:08:15,747 --> 00:08:19,542 en daarmee de hele menselijke samenleving. 159 00:08:20,460 --> 00:08:22,212 Als je de geschiedenis in een grafiek zet, 160 00:08:22,295 --> 00:08:24,214 zie je dat er duizenden jaren lang 161 00:08:24,297 --> 00:08:26,258 niks gebeurde. 162 00:08:26,341 --> 00:08:28,093 MEDEDIRECTEUR INSTITUUT VOOR DIGITALE ECONOMIE 163 00:08:28,176 --> 00:08:30,845 Het is bijna hetzelfde als dood zijn. 164 00:08:30,929 --> 00:08:32,514 Dan gaat opeens 165 00:08:32,597 --> 00:08:34,933 die grafiek, wat je ook bekijkt, 166 00:08:35,016 --> 00:08:38,144 van saai horizontaal naar ongelofelijk verticaal 167 00:08:38,228 --> 00:08:39,771 in één oogwenk. 168 00:08:39,854 --> 00:08:41,481 Het gebeurde rond 1800, 169 00:08:41,564 --> 00:08:45,443 omdat toen zowel de stoomkracht als de elektriciteit opkwam. 170 00:08:47,821 --> 00:08:50,782 Elektriciteit heeft voor de hand liggende dingen gedaan. 171 00:08:50,865 --> 00:08:53,827 Die gaf ons trams en metro's. 172 00:08:53,910 --> 00:08:57,080 Maar ook, minder voor de hand liggend, verticale steden. 173 00:08:57,163 --> 00:08:58,373 -Door elektriciteit? -Ja. 174 00:08:58,456 --> 00:08:59,749 -Voor de liften. -Oké. 175 00:08:59,833 --> 00:09:01,543 Anders heb je geen verticale stad. 176 00:09:01,626 --> 00:09:03,878 Je kunt niet elke dag tachtig trappen beklimmen. 177 00:09:03,962 --> 00:09:06,506 Die twee industriële revoluties, stoom 178 00:09:06,589 --> 00:09:09,259 en elektriciteit samen met verbranding, 179 00:09:09,342 --> 00:09:11,011 veranderden de geschiedenis. 180 00:09:11,094 --> 00:09:12,804 -Je kunt het niet anders zien. -Ja. 181 00:09:12,887 --> 00:09:15,974 Met die technologieën konden we de beperkingen 182 00:09:16,057 --> 00:09:17,100 van onze spieren overwinnen. 183 00:09:17,183 --> 00:09:20,562 Met ki overwinnen we de beperkingen 184 00:09:20,645 --> 00:09:22,564 van onze individuele hersenen, onze mentale kracht. 185 00:09:24,691 --> 00:09:26,484 We hebben lastige uitdagingen. 186 00:09:26,568 --> 00:09:28,236 Echt lastige uitdagingen. 187 00:09:28,320 --> 00:09:29,696 We moeten kanker genezen. 188 00:09:29,779 --> 00:09:31,406 We hebben meer voedsel nodig. 189 00:09:31,489 --> 00:09:33,950 Je moet de planeet niet opwarmen in de 21e eeuw. 190 00:09:34,034 --> 00:09:36,328 Dat zijn ongelofelijk ingewikkelde dingen. 191 00:09:36,411 --> 00:09:38,747 Onze hersenen doorbreken die complexiteit langzaam. 192 00:09:38,830 --> 00:09:41,708 We doen dat met wetenschap en door kennis te vergaren, 193 00:09:41,791 --> 00:09:44,044 maar de complexiteit is overstelpend. 194 00:09:44,127 --> 00:09:45,420 Ik zie ki 195 00:09:45,503 --> 00:09:48,506 als een krachtige nieuwe collega 196 00:09:48,590 --> 00:09:51,676 die ons helpt die enorme complexiteit te verwerken. 197 00:09:51,760 --> 00:09:54,637 Want wat die nieuwe technologieën zo goed kunnen, 198 00:09:54,721 --> 00:09:59,684 is subtiele patronen herkennen in overstelpende hoeveelheden data. 199 00:09:59,768 --> 00:10:01,603 Meer dan jij en ik aankunnen. 200 00:10:01,686 --> 00:10:03,897 Een bijzonder voorbeeld dat ik heb gehoord, 201 00:10:03,980 --> 00:10:05,106 komt uit het geldwezen. 202 00:10:05,190 --> 00:10:07,650 Het is de opkomst van 'robotadviseurs'. 203 00:10:07,734 --> 00:10:09,361 Dat is in feite een algoritme 204 00:10:09,444 --> 00:10:11,696 dat je investeringsportfolio opstelt. 205 00:10:11,780 --> 00:10:13,031 Tot nu toe 206 00:10:13,114 --> 00:10:15,325 moest je een bepaald bedrag bezitten 207 00:10:15,408 --> 00:10:18,745 om een kantoor van een adviseur binnen te stappen. 208 00:10:18,828 --> 00:10:20,872 -Ja. -Dat verandert snel. 209 00:10:20,955 --> 00:10:25,210 Met die robotadviseurs kunnen mensen met steeds minder geld 210 00:10:25,293 --> 00:10:28,963 toegang krijgen tot heel krachtige, gloednieuwe middelen 211 00:10:29,047 --> 00:10:31,299 om hun financiële levens te verbeteren. 212 00:10:31,383 --> 00:10:34,302 Dat is opwindend, omdat het altijd leek 213 00:10:34,386 --> 00:10:37,555 dat men die dingen gebruikte om nare dingen te doen. 214 00:10:37,639 --> 00:10:40,225 We moeten ons ook zorgen maken. 215 00:10:40,308 --> 00:10:42,852 Wat we weten van de eerdere industriële revoluties, 216 00:10:42,936 --> 00:10:44,687 is dat er slechte dingen gebeurden. 217 00:10:44,771 --> 00:10:49,150 We mechaniseerden oorlogsvoering met die industriële technologieën. 218 00:10:49,234 --> 00:10:52,529 We vervuilden het milieu heel erg. 219 00:10:52,612 --> 00:10:54,364 We hebben erge fouten gemaakt, 220 00:10:54,447 --> 00:10:57,951 zoals kinderarbeid op grote schaal, door de industriële revolutie. 221 00:10:58,034 --> 00:11:01,079 Het ging niet perfect op elk moment. 222 00:11:01,162 --> 00:11:03,748 Hetzelfde gaat nu weer gebeuren. 223 00:11:04,249 --> 00:11:05,291 Verdorie. 224 00:11:06,918 --> 00:11:08,586 McAfee zet me aan het denken. 225 00:11:08,670 --> 00:11:10,547 Wat als de geschiedenis zich herhaalt 226 00:11:10,630 --> 00:11:13,591 en ki de maatschappij op verkeerde manieren verandert? 227 00:11:14,467 --> 00:11:18,430 Vreselijke vervuiling en kleine, roetige arbeiders? 228 00:11:18,513 --> 00:11:19,848 LONDEN 229 00:11:19,931 --> 00:11:21,891 Hoe zit het met de ethische vragen 230 00:11:21,975 --> 00:11:24,227 rondom krachtige nieuwe technologieën? 231 00:11:24,936 --> 00:11:27,647 Als je rondkijkt in het National Computing Museum, 232 00:11:27,730 --> 00:11:31,109 zie je veel machines die de maatschappij moesten verbeteren. 233 00:11:31,192 --> 00:11:35,572 Zoals de twee ton zware Harwell Dekatron, die werd gebouwd om berekeningen te maken 234 00:11:35,655 --> 00:11:38,908 voor het Britse wetenschappelijke onderzoek in de jaren 50. 235 00:11:39,242 --> 00:11:41,161 Als het in de verkeerde handen valt, 236 00:11:41,244 --> 00:11:43,163 wie weet hoe technologie wordt gebruikt? 237 00:11:43,746 --> 00:11:45,707 Kun je porno bekijken op deze computer? 238 00:11:46,040 --> 00:11:49,752 Je kunt ze aanzetten en porno met lage resolutie zien. 239 00:11:50,712 --> 00:11:51,754 COMPUTERPROGRAMMEUR 240 00:11:51,838 --> 00:11:54,507 Ik sta hier met programmeur Alan Zucconi, 241 00:11:54,591 --> 00:11:57,177 die lesgeeft aan Goldsmith's College in Londen. 242 00:11:57,719 --> 00:12:00,722 Hij heeft geholpen revolutionaire dingen te ontwikkelen, 243 00:12:00,805 --> 00:12:04,058 zoals gamecontrollers voor mensen met een beperking. 244 00:12:05,477 --> 00:12:07,937 Hij zegt dat het grootste ethische dilemma 245 00:12:08,021 --> 00:12:10,190 in de techgeschiedenis aanstaande is, 246 00:12:10,273 --> 00:12:14,360 als ki zoveel menselijke gedragingen gaat kopiëren 247 00:12:14,444 --> 00:12:16,404 dat die zich kan voordoen als ons. 248 00:12:17,113 --> 00:12:18,615 Wat is dit? 249 00:12:18,948 --> 00:12:21,826 Dit is een van de eerste computers ooit 250 00:12:21,910 --> 00:12:24,829 en hij werd gebouwd door Alan Turing en zijn collega's. 251 00:12:24,913 --> 00:12:28,124 Deze machine was een van de eerste computers 252 00:12:28,208 --> 00:12:30,710 die de Enigmacode van de nazi's kon kraken. 253 00:12:32,587 --> 00:12:35,381 Alan Turing is de vader van de moderne informatica. 254 00:12:35,465 --> 00:12:38,927 Als hij de geallieerden niet hielp winnen door nazicodes te kraken, 255 00:12:39,010 --> 00:12:42,555 filosofeerde hij over de 'turingtest'. 256 00:12:43,598 --> 00:12:46,643 Hoe kunnen we een mens onderscheiden van een machine? 257 00:12:46,726 --> 00:12:49,854 Als we het verschil niet opmerken, 258 00:12:49,938 --> 00:12:53,066 slaagt de machine voor 'het imitatiespel'. 259 00:12:53,149 --> 00:12:56,569 De machine imiteert menselijk gedrag. 260 00:12:56,653 --> 00:12:59,072 Dat staat bekend als de turingtest 261 00:12:59,155 --> 00:13:02,659 en dit is een van de machines die ervoor gebruikt kan zijn. 262 00:13:02,742 --> 00:13:03,868 Om de turingtest uit te voeren, 263 00:13:03,952 --> 00:13:06,579 moet een mens vragen stellen aan een machine. 264 00:13:07,080 --> 00:13:08,831 Ondertussen bepaalt een waarnemer 265 00:13:08,915 --> 00:13:11,501 of de antwoorden van een mens komen 266 00:13:11,584 --> 00:13:13,461 of een machine die een mens nadoet. 267 00:13:14,379 --> 00:13:15,630 Hoe oud ben je? 268 00:13:17,924 --> 00:13:20,134 Daar gaan we. Ze weet hoe oud ze is. 269 00:13:20,218 --> 00:13:22,011 'Ik ben geboren in 1912. 270 00:13:22,095 --> 00:13:24,389 'Ik ben dus 105 jaar oud.' 271 00:13:27,642 --> 00:13:30,979 In Turings tijd kon je de computer makkelijk onderscheiden. 272 00:13:31,271 --> 00:13:34,357 Maar tegenwoordig kan ki menselijk gedrag bestuderen 273 00:13:34,440 --> 00:13:36,693 en zich programmeren zoals wij te doen. 274 00:13:37,485 --> 00:13:39,654 Kun je het verschil tussen dit... 275 00:13:39,988 --> 00:13:43,199 Ik wilde beginnen met een grap over datawetenschap, 276 00:13:43,700 --> 00:13:46,744 maar mijn personeel kwam met matig materiaal. 277 00:13:46,828 --> 00:13:47,912 ...en dit zien? 278 00:13:47,996 --> 00:13:50,415 Onze vijanden kunnen iemand alles laten zeggen 279 00:13:50,498 --> 00:13:51,833 op elk mogelijk moment. 280 00:13:52,208 --> 00:13:55,503 Die tweede werd door BuzzFeed gemaakt 281 00:13:55,587 --> 00:13:57,338 met acteur Jordan Peele. 282 00:13:57,839 --> 00:14:02,760 Veel mensen raakten bezorgd over een nieuwe ki-versie van nepnieuws. 283 00:14:02,844 --> 00:14:04,929 Vanaf nu moeten we waakzamer zijn 284 00:14:05,013 --> 00:14:06,639 met wat we online vertrouwen. 285 00:14:06,723 --> 00:14:09,058 Ki bestudeerde Peeles gezichtsbewegingen, 286 00:14:09,142 --> 00:14:13,062 voegde ze samen en reproduceerde die op Obama's gezicht. 287 00:14:13,146 --> 00:14:15,690 Zo werd een hybride gecreëerd, een deepfake. 288 00:14:15,773 --> 00:14:17,984 Misschien heb je hetzelfde gezien. 289 00:14:18,067 --> 00:14:21,404 Snapchat heeft een filter waarmee je gezichten kunt wisselen. 290 00:14:21,487 --> 00:14:25,325 Het verschil is dat het filter het op een eenvoudige manier doet. 291 00:14:25,408 --> 00:14:28,953 Maar de technologie achter deepfakes is afhankelijk van ki. 292 00:14:29,037 --> 00:14:31,289 Het komt voort uit iets wat deep learning heet. 293 00:14:31,706 --> 00:14:35,126 Kunstmatige neurale netwerken onttrekken gezichtsuitdrukkingen. 294 00:14:35,209 --> 00:14:37,754 Met die uitdrukking wordt je gezicht gereproduceerd. 295 00:14:37,837 --> 00:14:41,466 Daar kunnen we fotorealistische resultaten mee behalen. 296 00:14:42,508 --> 00:14:45,720 Alan maakt internettutorials over het maken van deepfakes. 297 00:14:45,803 --> 00:14:48,056 Hij gelooft dat deze technologie 298 00:14:48,139 --> 00:14:50,767 zich vrijelijk moet ontwikkelen, zonder beperkingen. 299 00:14:50,850 --> 00:14:53,853 Zelfs als die tot oorlog kunnen leiden. 300 00:14:53,936 --> 00:14:55,104 BELGISCHE PARTIJ PUBLICEERT DEEPFAKE VAN TRUMP 301 00:14:55,188 --> 00:14:57,273 Hoe kan de consument weten 302 00:14:57,357 --> 00:14:59,692 wat echt is en wat niet? 303 00:14:59,776 --> 00:15:02,695 Als je als consument het nieuws bekijkt, 304 00:15:02,779 --> 00:15:05,740 of het een artikel, een filmpje of een foto is, 305 00:15:05,823 --> 00:15:08,076 weet je dat alles door iemand is gecreëerd. 306 00:15:08,201 --> 00:15:09,577 'Wat is de boodschap? 307 00:15:09,827 --> 00:15:11,287 'Wat wil dit filmpje zeggen?' 308 00:15:11,371 --> 00:15:13,581 Ik zie... 309 00:15:13,665 --> 00:15:14,624 Het gevaar. 310 00:15:14,707 --> 00:15:17,168 Het gevaar en hoe bijzonder het is. 311 00:15:17,251 --> 00:15:19,420 Gaat dit mensen helpen? 312 00:15:19,504 --> 00:15:21,923 Ik neem aan dat je met mensen hebt gepraat 313 00:15:22,006 --> 00:15:25,885 die de economie willen doen groeien middels deze technologie. 314 00:15:25,968 --> 00:15:29,097 Wat zijn de praktische, economische gevolgen? 315 00:15:29,180 --> 00:15:32,308 De eerste sector die er zijn voordeel mee doet, 316 00:15:32,392 --> 00:15:33,685 is de filmindustrie. 317 00:15:33,768 --> 00:15:36,813 Want het veranderen van gezichten 318 00:15:36,896 --> 00:15:40,024 proberen we al tientallen jaren te doen in films. 319 00:15:40,108 --> 00:15:42,527 We gebruiken make-up, maskers 320 00:15:42,610 --> 00:15:43,736 en soms CGI. 321 00:15:43,820 --> 00:15:46,489 Als acteur en iemand die in de politiek zat, 322 00:15:46,572 --> 00:15:48,616 vind ik dat zo beangstigend. 323 00:15:48,700 --> 00:15:50,201 Dat moet ook. 324 00:15:51,285 --> 00:15:53,705 BuzzFeeds deepfake liet de mensen zien 325 00:15:53,788 --> 00:15:55,039 hoe kwetsbaar we zijn. 326 00:15:55,873 --> 00:15:59,585 Nu de president door zijn mond open te doen de markt kan veranderen, 327 00:15:59,669 --> 00:16:02,714 kan een goede deepfake de wereldeconomie laten instorten, 328 00:16:02,797 --> 00:16:04,674 sneller dan een beurskrach 329 00:16:04,757 --> 00:16:08,469 en je pensioen kan even snel verdampen als een nep-Obama die zegt... 330 00:16:08,553 --> 00:16:09,554 Blijf politiek bewust. 331 00:16:10,638 --> 00:16:13,057 Klinkt dit sciencefictionachtig? 332 00:16:13,141 --> 00:16:14,726 Zelfs een beetje eng? 333 00:16:15,309 --> 00:16:18,271 Als ki krachtig genoeg wordt om te weten hoe we bewegen, 334 00:16:18,354 --> 00:16:20,022 praten en denken, 335 00:16:20,106 --> 00:16:22,316 is die niet meer van ons te onderscheiden. 336 00:16:22,400 --> 00:16:23,818 WAT WEET JE - ALLES 337 00:16:24,610 --> 00:16:26,779 Als ki een eigen bewustzijn heeft, 338 00:16:26,863 --> 00:16:29,782 kan die ook een sterke mening over ons ontwikkelen. 339 00:16:29,866 --> 00:16:30,908 FUCK UUUUU - PAS MAAR OP 340 00:16:30,992 --> 00:16:33,119 Misschien geen positieve. 341 00:16:35,455 --> 00:16:36,664 THEORETISCH FYSICUS 342 00:16:36,748 --> 00:16:39,292 In de toekomst kan ki een eigen wil ontwikkelen. 343 00:16:39,375 --> 00:16:42,003 Eén die in conflict is met de onze. 344 00:16:42,086 --> 00:16:44,422 De opkomst van krachtige ki zal 345 00:16:44,505 --> 00:16:48,801 of het beste of het slechtste zijn wat de mensheid overkomt. 346 00:16:49,218 --> 00:16:53,181 Ik heb geprobeerd mensen te overtuigen ki te vertragen. 347 00:16:54,056 --> 00:16:55,224 Ki te reguleren. 348 00:16:55,308 --> 00:16:56,809 Het was zinloos. Ik heb het jaren geprobeerd. 349 00:16:56,893 --> 00:16:58,561 -Niemand luisterde. -Het leek een scène 350 00:16:58,644 --> 00:17:00,980 in een film waarin robots de wereld overnemen. 351 00:17:01,063 --> 00:17:02,607 Nu ben ik bang. 352 00:17:05,818 --> 00:17:09,030 Dreigt er echt een apocalyps die door ki wordt geïnitieerd? 353 00:17:10,865 --> 00:17:12,408 VK 354 00:17:12,742 --> 00:17:15,077 Om erachter te komen, ga ik praten met iemand 355 00:17:15,161 --> 00:17:18,164 wiens onderzoek iedereen op de kast joeg. 356 00:17:18,831 --> 00:17:21,083 Ik wil graag met je praten, omdat... 357 00:17:21,167 --> 00:17:23,628 Ik heb een paar redenen. 358 00:17:23,711 --> 00:17:26,839 We nemen kunstmatige intelligentie onder de loep 359 00:17:26,923 --> 00:17:29,258 en willen weten wat de toekomst brengt. 360 00:17:29,342 --> 00:17:34,680 Je hebt mensen als Elon Musk en Bill Gates beïnvloed. 361 00:17:37,016 --> 00:17:40,853 Dat is nogal bijzonder. 362 00:17:42,021 --> 00:17:45,691 Ik spreek op Oxford University met dr. Nick Bostrum. 363 00:17:45,775 --> 00:17:48,986 Hij is niet zo'n opschepper, dus doe ik het. 364 00:17:51,489 --> 00:17:55,201 Hij is een van de beste denkers op het gebied van machinesuperintelligentie 365 00:17:55,284 --> 00:17:59,205 en haar existentiële gevaren en de auteur van lekker makkelijke boeken. 366 00:17:59,705 --> 00:18:00,957 Gelukkig mag ik hem spreken, 367 00:18:01,040 --> 00:18:03,584 want Nick is zo druk met zijn eigen deep learning 368 00:18:03,668 --> 00:18:05,419 dat hij maar één uur per maand 369 00:18:05,503 --> 00:18:07,338 vragen beantwoordt over zijn onderzoek. 370 00:18:10,925 --> 00:18:14,262 Het publieke debat over ki gaat veelal over 371 00:18:14,345 --> 00:18:17,014 of de robots het gaan overnemen 372 00:18:17,098 --> 00:18:18,850 en of de mens zal uitsterven. 373 00:18:18,933 --> 00:18:21,310 Ik vraag me af of bij een gebrek aan controle 374 00:18:21,394 --> 00:18:24,564 de mogelijkheid bestaat dat ki de maatschappij schade berokkent 375 00:18:24,647 --> 00:18:28,484 of zelfs de mensheid uitroeit. 376 00:18:28,568 --> 00:18:29,902 Op lange termijn, 377 00:18:29,986 --> 00:18:33,114 als we ons voorstellen hoe ki zich kan ontwikkelen 378 00:18:33,197 --> 00:18:36,951 en die de intelligentie kan kopiëren 379 00:18:37,034 --> 00:18:38,828 die ons menselijk maakt, dan ja. 380 00:18:38,911 --> 00:18:42,748 Maar in die context zijn er grotere gevaren, 381 00:18:42,832 --> 00:18:44,125 ook existentiële gevaren. 382 00:18:45,585 --> 00:18:48,421 Denk aan zelfrijdende auto's. 383 00:18:48,504 --> 00:18:49,797 ZELFRIJDENDE AUTO DOODT VOETGANGER 384 00:18:49,881 --> 00:18:51,549 Die kunnen iemand aanrijden. 385 00:18:51,632 --> 00:18:53,342 Er zijn ook zorgen over privacy. 386 00:18:53,426 --> 00:18:56,095 De militarisering van autonome wapens. 387 00:18:57,847 --> 00:18:59,307 Dat zijn serieuze zorgen. 388 00:18:59,390 --> 00:19:02,184 Maar de vraag zal ook komen 389 00:19:02,268 --> 00:19:04,687 welke invloed we hebben op de digitale geesten die we maken. 390 00:19:04,770 --> 00:19:09,066 Misschien verkrijgen ze een morele positie. 391 00:19:09,525 --> 00:19:11,152 Als je vooruit spoelt 392 00:19:11,235 --> 00:19:15,031 en je stelt je het lot van homo sapiens voor, 393 00:19:15,114 --> 00:19:18,534 kan de toekomst worden overheerst door machine-intelligentie. 394 00:19:18,618 --> 00:19:21,996 Het is mogelijk dat de mensheid uitsterft. 395 00:19:23,414 --> 00:19:26,250 Die krachten brengen het gevaar met zich mee 396 00:19:26,834 --> 00:19:30,755 dat ze per ongeluk worden gebruikt of expres worden misbruikt 397 00:19:30,838 --> 00:19:33,466 en een ongelofelijke verwoesting veroorzaken. 398 00:19:35,885 --> 00:19:37,595 Dat is mogelijk 399 00:19:37,678 --> 00:19:39,305 en als we over de lange termijn denken, 400 00:19:39,388 --> 00:19:41,182 kan het resultaat heel goed zijn 401 00:19:41,265 --> 00:19:43,726 of helemaal niet goed. 402 00:19:46,354 --> 00:19:48,731 Die mogelijkheden klinken eng. 403 00:19:49,732 --> 00:19:51,609 Maar van alle mogelijkheden 404 00:19:51,692 --> 00:19:55,821 denkt Nick dat het waarschijnlijkste apocalyptische scenario met ki 405 00:19:55,905 --> 00:19:57,114 economisch van aard is. 406 00:19:57,198 --> 00:19:59,450 Het idee achter technologie is 407 00:19:59,533 --> 00:20:02,828 dat we meer kunnen met minder. 408 00:20:02,912 --> 00:20:06,123 We kunnen meer bewerkstelligen met minder moeite. 409 00:20:06,207 --> 00:20:07,750 Het doel, in dat opzicht, 410 00:20:07,833 --> 00:20:09,418 is volledige werkeloosheid. 411 00:20:10,294 --> 00:20:12,380 Dat machines en technologie 412 00:20:12,463 --> 00:20:15,341 alles doen wat nodig is, zodat we niet hoeven te werken. 413 00:20:15,424 --> 00:20:17,301 Ik denk dat dat het verlangen is. 414 00:20:17,385 --> 00:20:19,553 Het gaat niet om wat we moeten voorkomen, 415 00:20:19,637 --> 00:20:20,680 maar om wat we willen creëren. 416 00:20:20,763 --> 00:20:22,932 Om die utopie te realiseren, 417 00:20:23,015 --> 00:20:25,601 zijn er een paar uitdagingen 418 00:20:25,685 --> 00:20:27,061 die opgelost moeten worden. 419 00:20:28,187 --> 00:20:30,815 Het eerste is het economische probleem. 420 00:20:30,898 --> 00:20:33,567 Een van de redenen waarom mensen werken, is het inkomen. 421 00:20:33,651 --> 00:20:35,653 Als je dat economische probleem oplost, 422 00:20:35,736 --> 00:20:37,571 is er een tweede grote uitdaging. 423 00:20:37,655 --> 00:20:41,409 Het geeft veel mensen een gevoel van waardigheid. 424 00:20:41,492 --> 00:20:43,786 Voor veel mensen schuilt hun waarde 425 00:20:43,869 --> 00:20:47,081 in de broodwinner zijn, bijdragen aan de maatschappij. 426 00:20:47,164 --> 00:20:49,583 Als een machine dat beter kan dan jij, 427 00:20:49,667 --> 00:20:53,796 heb je geen kans meer om iets bij te dragen, hè? 428 00:20:53,879 --> 00:20:58,175 Dan moet je de cultuur fundamenteel in een ander licht stellen. 429 00:20:59,176 --> 00:21:01,095 Een wereld waarin niemand werkt. 430 00:21:01,178 --> 00:21:02,930 Dat klinkt zo erg nog niet. 431 00:21:05,057 --> 00:21:06,267 Ik zie het voor me. 432 00:21:09,854 --> 00:21:11,313 Tijd met vrienden. 433 00:21:11,814 --> 00:21:14,942 Mijn menselijke potentieel tot in de puntjes uitbuiten. 434 00:21:15,026 --> 00:21:19,321 Niet de jacuzzi hoeven aanpassen, omdat die weet wat ik fijn vind. 435 00:21:20,114 --> 00:21:23,409 Het probleem is dat het vroeger niet zo afliep. 436 00:21:23,492 --> 00:21:26,537 De opkomst van de machines is eerder voorgekomen. 437 00:21:26,620 --> 00:21:27,705 De vorige keer 438 00:21:27,788 --> 00:21:30,666 was het niet alleen maar aardbeien in de jacuzzi. 439 00:21:34,378 --> 00:21:35,421 LONDEN 440 00:21:35,504 --> 00:21:36,505 ENGELAND 441 00:21:36,964 --> 00:21:41,093 Ik ontmoet econoom Nick Srnicek om te horen hoe het ging 442 00:21:41,177 --> 00:21:43,054 toen machines eerder banen overnamen. 443 00:21:43,888 --> 00:21:46,015 We ontmoeten elkaar aan een weefgetouw. 444 00:21:46,432 --> 00:21:47,725 Wat ga je maken? 445 00:21:47,808 --> 00:21:50,311 Ik maak een soort anarchistische vlag. 446 00:21:50,394 --> 00:21:51,979 Interessant. Schokkend. 447 00:21:54,315 --> 00:21:57,568 Nick is gepromoveerd aan de London School of Economics. 448 00:21:58,027 --> 00:22:00,321 Ik, in tegenstelling tot hem, niet. 449 00:22:01,530 --> 00:22:02,573 Hij heeft een manifest. 450 00:22:02,656 --> 00:22:03,949 MANIFEST VOOR VERSNELLENDE POLITIEK 451 00:22:04,492 --> 00:22:07,703 Het roept iedereen op het automatiseringstijdperk te versnellen 452 00:22:07,787 --> 00:22:09,830 door oude instituten af te breken. 453 00:22:12,458 --> 00:22:15,461 Ofwel: kapitalisme onmiddellijk ontmantelen. 454 00:22:16,003 --> 00:22:17,254 Dit werkt niet. 455 00:22:17,338 --> 00:22:19,632 Ik kan zo niet met je praten. 456 00:22:19,715 --> 00:22:21,550 Sorry. Vergeet het weefgetouw. 457 00:22:22,093 --> 00:22:23,761 Waarom zijn we hier? 458 00:22:24,637 --> 00:22:28,224 Het weefgetrouw is zoals ki in de 19e eeuw. 459 00:22:28,307 --> 00:22:32,853 Het was een nieuwe technologie die veel banen dreigde te elimineren. 460 00:22:33,270 --> 00:22:37,233 Dat leidde tot verschillende reacties van arbeiders, 461 00:22:37,316 --> 00:22:39,360 zoals de opkomst van de luddieten. 462 00:22:39,443 --> 00:22:41,487 We gebruiken die term tegenwoordig 463 00:22:41,570 --> 00:22:44,031 voor iemand die technologie haat. 464 00:22:44,532 --> 00:22:45,950 Maar dat is niet het geval. 465 00:22:46,700 --> 00:22:48,119 De luddieten werden vernoemd naar Ned Ludd... 466 00:22:48,202 --> 00:22:49,036 LEERLING 467 00:22:49,120 --> 00:22:51,122 ...een leerling in een textielfabriek. 468 00:22:51,205 --> 00:22:53,958 Men zegt dat hij werd geslagen wegens niksdoen. 469 00:22:54,041 --> 00:22:56,502 Hij dacht: ik doe alleen maar niks, 470 00:22:56,585 --> 00:22:59,338 omdat ik word vervangen door een weefgetouw. 471 00:22:59,421 --> 00:23:03,008 Hij werd de eerste persoon die het opnam tegen de machine, 472 00:23:03,092 --> 00:23:05,010 en zo begon hij een beweging. 473 00:23:06,262 --> 00:23:10,349 De luddieten braken de machines af om hun banen te redden. 474 00:23:10,432 --> 00:23:12,810 Dat zien we tegenwoordig ook met ki. 475 00:23:12,893 --> 00:23:15,771 Mensen voelen zich net zo bedreigd. 476 00:23:15,855 --> 00:23:19,483 Weet je hoeveel banen verloren gaan of worden vervangen? 477 00:23:19,567 --> 00:23:21,986 Van de banen in Amerika kan 47 procent 478 00:23:22,069 --> 00:23:24,822 in de komende 20 jaar geautomatiseerd worden. 479 00:23:24,905 --> 00:23:26,615 Dat is een echt probleem. 480 00:23:26,699 --> 00:23:27,992 Het kan 'n enorm probleem worden. 481 00:23:28,075 --> 00:23:31,662 Het draait erom hoe we over vijf of tien jaar zorgen 482 00:23:31,745 --> 00:23:33,998 dat men niet verhongert en dakloos is. 483 00:23:34,081 --> 00:23:35,166 Hoe doen we dat? 484 00:23:35,457 --> 00:23:36,959 Het universeel basisinkomen. 485 00:23:38,210 --> 00:23:40,754 Het universeel basisinkomen is het radicale idee 486 00:23:40,880 --> 00:23:43,424 dat iedereen in de maatschappij gratis geld krijgt. 487 00:23:43,507 --> 00:23:45,092 Zonder voorwaarden. 488 00:23:45,176 --> 00:23:47,178 Het idee heeft beroemde fans. 489 00:23:47,636 --> 00:23:50,347 We moeten het universele basisinkomen verkennen 490 00:23:50,431 --> 00:23:53,142 en zorgen dat men een buffer heeft om ideeën uit te proberen 491 00:23:53,225 --> 00:23:56,145 Sommige landen en zelfs steden in de VS 492 00:23:56,228 --> 00:23:58,189 probeerden het uit. Met wisselend resultaat. 493 00:23:58,272 --> 00:23:59,982 FINLAND STOPT BASISINKOMENEXPERIMENT 494 00:24:00,858 --> 00:24:03,861 We hebben een geweldige kans met deze nieuwe technologieën 495 00:24:03,944 --> 00:24:06,447 om de maatschappij te veranderen. 496 00:24:06,530 --> 00:24:09,408 Je kunt richting een sociaaldemocratischer systeem. 497 00:24:10,117 --> 00:24:13,454 Het hoeft niet zo'n hard systeem als in Amerika te zijn 498 00:24:13,537 --> 00:24:15,331 en iedereen kan elkaar steunen. 499 00:24:15,414 --> 00:24:19,418 Mensen zoals ik kunnen zulke positieve ideeën nu verkondigen 500 00:24:19,919 --> 00:24:21,587 en als de crisis dan uitbarst, 501 00:24:21,670 --> 00:24:23,380 kunnen we die ideeën implementeren. 502 00:24:24,173 --> 00:24:27,343 Het basisinkomen was vroeger een randverschijnsel 503 00:24:27,426 --> 00:24:30,930 dat werd verkondigd door mensen zoals Nick, die manifesten schrijven. 504 00:24:31,639 --> 00:24:33,891 Maar volgens een Gallup-peiling in 2017 505 00:24:33,974 --> 00:24:37,603 steunt 48 procent van de Amerikanen een vorm van het basisinkomen. 506 00:24:38,520 --> 00:24:40,231 Is een gegarandeerd salaris genoeg 507 00:24:40,314 --> 00:24:41,982 om te voorkomen dat men rebelleert 508 00:24:42,066 --> 00:24:43,734 als de robots onze banen afnemen? 509 00:24:45,694 --> 00:24:48,572 -Wat haten we? -Kunstmatige intelligentie. 510 00:24:48,656 --> 00:24:50,032 Waarom haten we die? 511 00:24:50,115 --> 00:24:53,160 We moeten onze zwakten onderkennen. 512 00:24:53,244 --> 00:24:55,955 Daarmee open ik deze vergadering van luddieten. 513 00:24:56,038 --> 00:24:58,958 De Lokale Unie van Degenen Die tegen Intelligente Technologie zijn. 514 00:24:59,041 --> 00:25:00,834 En vooral social media. 515 00:25:01,835 --> 00:25:02,836 Het eerste punt. 516 00:25:03,337 --> 00:25:06,340 Kunstmatige intelligentie holt de arbeidsmarkt uit. 517 00:25:06,423 --> 00:25:09,260 De middenklassebanen zijn de eerste die verdwijnen. 518 00:25:09,885 --> 00:25:11,720 Mensen zoals wij, met deze banen, 519 00:25:11,804 --> 00:25:14,473 worden tot ongeschoold werk gedwongen. 520 00:25:14,974 --> 00:25:16,558 Waarom zou dat gebeuren? 521 00:25:16,642 --> 00:25:21,105 Ki is beter in geschoolde arbeid zoals berekeningen maken 522 00:25:21,188 --> 00:25:24,400 dan in ongeschoold werk zoals de vloer vegen. 523 00:25:24,483 --> 00:25:26,277 Die banen laten ze aan ons over. 524 00:25:26,735 --> 00:25:28,028 Nu vraag ik jullie, 525 00:25:28,112 --> 00:25:29,655 wie hier, behalve Bill, 526 00:25:29,738 --> 00:25:32,199 ziet eruit als een veger? Sorry, Bill. 527 00:25:33,325 --> 00:25:35,786 Er zijn ook minder banen in winkels nodig. 528 00:25:35,869 --> 00:25:38,622 Mensen kunnen online bestellen wat ze willen, 529 00:25:39,164 --> 00:25:41,583 omdat die klootzak ki 530 00:25:41,667 --> 00:25:43,919 het zoek- en vindprobleem voor ze oplost. 531 00:25:44,378 --> 00:25:46,755 Zoeken naar klanten en producten voor ze vinden. 532 00:25:46,839 --> 00:25:49,383 Zoals toen Steve een toupet zocht die bij hem paste. 533 00:25:49,466 --> 00:25:50,426 Groot probleem. 534 00:25:51,969 --> 00:25:53,721 Klassieke grappen terzijde, 535 00:25:54,346 --> 00:25:56,890 ki maakt dat veel makkelijker. 536 00:25:56,974 --> 00:25:59,643 Jongeren kunnen matchen met lekkere meiden op hun mobiel, 537 00:25:59,727 --> 00:26:01,937 terwijl ze op de wc zitten. 538 00:26:02,021 --> 00:26:04,064 -De wc was vroeger heilig. -Ja. 539 00:26:04,773 --> 00:26:07,568 Het zoeken en vinden leidt tot gespecialiseerde banen, 540 00:26:07,651 --> 00:26:10,279 maar de robots kiezen wie die krijgen. 541 00:26:10,362 --> 00:26:11,739 Dat komt ze goed uit. 542 00:26:12,489 --> 00:26:14,700 Bedrijven gebruiken ki om personeel te vinden 543 00:26:14,783 --> 00:26:16,869 met unieke talenten. 544 00:26:16,952 --> 00:26:18,287 Het is onmenselijk. 545 00:26:18,370 --> 00:26:19,705 Zoals bij Dave. 546 00:26:20,080 --> 00:26:21,332 Ja, waar is Dave? 547 00:26:21,415 --> 00:26:24,251 Een ki die banen zoekt, zag dat hij bij FedEx werkte 548 00:26:24,335 --> 00:26:27,087 en tutorials over het scheren van rughaar maakte. 549 00:26:27,171 --> 00:26:30,716 Nu verdient hij goed bij een bedrijf voor scheermesabonnementen. 550 00:26:30,799 --> 00:26:33,093 Hij heeft zich van ons bowlingteam af geschoren. 551 00:26:33,177 --> 00:26:34,094 Ja. 552 00:26:34,178 --> 00:26:36,513 Hé, Ed. Ik zie een melding dat onze T-shirts 553 00:26:36,597 --> 00:26:38,766 worden verkocht via Facebook. 554 00:26:38,849 --> 00:26:41,602 Gebruik je ki om geld te verdienen aan ki-haters? 555 00:26:41,685 --> 00:26:43,479 Nee. 556 00:26:44,897 --> 00:26:46,023 Wie ga je geloven? 557 00:26:46,106 --> 00:26:48,859 Mij of de ki die een wig tussen ons drijft? 558 00:26:49,902 --> 00:26:52,363 -Wat haten we? -Kunstmatige intelligentie. 559 00:26:52,446 --> 00:26:54,698 -Wat gaan we eraan doen? -We werken eraan. 560 00:26:56,075 --> 00:26:57,201 Dat is een begin. 561 00:27:02,748 --> 00:27:06,168 Moet de ki-revolutie draaien om wij versus zij? 562 00:27:07,086 --> 00:27:10,672 Techondernemers zoals Louis Rosenberg zeggen van niet. 563 00:27:10,964 --> 00:27:13,342 Het is zijn werk de toekomst te voorspellen. 564 00:27:18,514 --> 00:27:20,599 Ik wilde je laten schrikken, maar het lukte niet. 565 00:27:21,558 --> 00:27:24,478 Louis is een technoloog en uitvinder 566 00:27:24,561 --> 00:27:27,689 die een graphic novel schreef over het einde van de mensheid. 567 00:27:27,773 --> 00:27:31,276 Hij denkt dat we een toekomst met ki hebben die om samenwerking draait. 568 00:27:31,360 --> 00:27:34,113 Het is het basisprincipe achter zijn geesteskind, 569 00:27:34,196 --> 00:27:35,989 een technologie die Swarm heet. 570 00:27:36,073 --> 00:27:37,074 WAT IS ZWERM-KI? 571 00:27:37,157 --> 00:27:40,077 Swarm combineert de data-analysevaardigheden van ki 572 00:27:40,160 --> 00:27:44,415 met menselijke kennis en intuïtie om een superintelligentie te ontwikkelen, 573 00:27:44,498 --> 00:27:47,709 iets tussen Stephen Hawking en Professor X in. 574 00:27:47,793 --> 00:27:49,044 WAT MOET DE ZELFRIJDENDE AUTO DOEN? 575 00:27:49,128 --> 00:27:51,547 Het is gebaseerd op de natuur. 576 00:27:51,630 --> 00:27:54,591 Het is te herleiden tot de bloemetjes en de bijtjes. 577 00:27:54,675 --> 00:27:57,970 Dat is omdat het is gebaseerd op het fenomeen zwermintelligentie. 578 00:27:58,053 --> 00:27:58,887 Oké. 579 00:27:58,971 --> 00:28:03,392 Door zwermintelligentie vliegen vogels in een zwerm. 580 00:28:03,475 --> 00:28:06,520 Ze zijn samen slimmer dan alleen. 581 00:28:06,603 --> 00:28:09,398 Daarom wordt een school vissen die rondzwemt, 582 00:28:09,481 --> 00:28:11,900 door biologen beschreven als een 'superorganisme'. 583 00:28:11,984 --> 00:28:13,735 Ze denken als één. 584 00:28:13,819 --> 00:28:16,029 Als we mensen kunnen verbinden 585 00:28:16,113 --> 00:28:18,407 aan kunstmatige-intelligentiealgoritmes, 586 00:28:18,490 --> 00:28:21,743 kunnen we mensen zich als superexperts laten gedragen 587 00:28:21,827 --> 00:28:23,328 door middel van zwermintelligentie. 588 00:28:23,412 --> 00:28:24,705 Hoe werkt die technologie? 589 00:28:24,788 --> 00:28:27,249 We faciliteren groepen mensen. 590 00:28:27,332 --> 00:28:28,709 Die kunnen overal zitten. 591 00:28:28,792 --> 00:28:30,377 We geven ze een vraag 592 00:28:30,461 --> 00:28:32,880 die tegelijkertijd op hun beeldscherm komt 593 00:28:32,963 --> 00:28:35,299 en we geven ze een unieke interface 594 00:28:35,382 --> 00:28:37,593 waarop ze hun input kunnen geven. 595 00:28:37,676 --> 00:28:39,261 Er is een aantal opties. 596 00:28:39,344 --> 00:28:41,638 Het is geen peiling of enquête. 597 00:28:41,722 --> 00:28:44,975 Iedereen heeft iets wat eruitziet als een grafische magneet. 598 00:28:45,058 --> 00:28:48,353 Ze gebruiken de magneet om de zwerm hun kant op te krijgen. 599 00:28:48,437 --> 00:28:51,440 We hebben ki-algoritmes die hun gedrag bestuderen, 600 00:28:51,857 --> 00:28:55,652 en door de verschillende niveaus van overtuiging te meten, 601 00:28:55,736 --> 00:28:57,905 wordt uitgezocht wat de beste samenstelling 602 00:28:57,988 --> 00:29:01,325 van al hun meningen en ervaringen is. 603 00:29:01,408 --> 00:29:04,203 De zwerm beweegt zich in die richting 604 00:29:04,286 --> 00:29:06,121 en komt samen op een antwoord. 605 00:29:06,205 --> 00:29:07,331 Ik geef een voorbeeld. 606 00:29:07,414 --> 00:29:10,167 We kregen de uitdaging de Kentucky Derby te voorspellen. 607 00:29:10,584 --> 00:29:13,962 De Kentucky Derby is begonnen. 608 00:29:14,046 --> 00:29:16,715 We hadden een groep paardenraceliefhebbers 609 00:29:16,798 --> 00:29:18,675 en zeiden: 'Jullie werken als zwerm 610 00:29:18,759 --> 00:29:20,219 'en gaan de uitslag voorspellen. 611 00:29:20,302 --> 00:29:23,472 'Niet alleen wie wint, maar de eerste tot en met de vierde plek.' 612 00:29:24,014 --> 00:29:26,475 We lieten ze samenkomen op die antwoorden 613 00:29:26,934 --> 00:29:28,143 en de groep had het perfect. 614 00:29:28,227 --> 00:29:30,062 RESULTATEN 615 00:29:30,145 --> 00:29:33,315 Iemand die $20 had gewed op die vier paarden, 616 00:29:33,398 --> 00:29:35,067 had $11.000 gewonnen. 617 00:29:35,150 --> 00:29:36,068 Wauw. 618 00:29:36,151 --> 00:29:39,071 Wat interessant is, is dat van die 20 losse individuen 619 00:29:39,154 --> 00:29:42,741 niemand alle vier paarden correct had voorspeld. 620 00:29:43,742 --> 00:29:47,079 Als ze hadden gestemd, hadden ze één paard goed gehad. 621 00:29:47,162 --> 00:29:49,206 Maar toen ze als zwerm samenwerkten, 622 00:29:49,289 --> 00:29:52,251 vonden ze de juiste combinatie van verschillende inzichten 623 00:29:52,334 --> 00:29:54,127 en hadden ze het goed. 624 00:29:56,046 --> 00:29:58,507 Louis vroeg me om een zwerm te leiden 625 00:29:58,590 --> 00:30:00,467 om te zien hoe een willekeurige groep 626 00:30:00,551 --> 00:30:02,803 samen kan komen om iets te voorspellen. 627 00:30:02,886 --> 00:30:04,555 We beginnen makkelijk. 628 00:30:05,764 --> 00:30:08,433 Ik ga een paar vragen voorlezen 629 00:30:08,517 --> 00:30:12,020 en jullie hebben 60 seconden om elke vraag te beantwoorden. 630 00:30:12,354 --> 00:30:13,522 Eerste vraag: 631 00:30:13,605 --> 00:30:16,525 welke van deze zomerfilms van 2018 632 00:30:16,608 --> 00:30:17,985 zal het meeste geld verdienen? 633 00:30:18,402 --> 00:30:20,320 Solo: A Star Wars Movie, 634 00:30:20,404 --> 00:30:22,281 Deadpool 2, Ocean's 8, 635 00:30:22,364 --> 00:30:24,116 Jurassic World: Fallen Kingdom 636 00:30:24,199 --> 00:30:25,742 of The Incredibles 2? 637 00:30:26,076 --> 00:30:28,328 We filmden de zwerm in de lente van 2018, 638 00:30:28,412 --> 00:30:31,498 voordat er informatie was over deze zomerfilms. 639 00:30:31,957 --> 00:30:35,961 De ki kijkt mee om hun niveau van vertrouwen in te schatten. 640 00:30:36,044 --> 00:30:39,381 Sommigen wisselen, sommigen veranderen niets 641 00:30:39,840 --> 00:30:41,592 en de ki-algoritmes zien 642 00:30:41,675 --> 00:30:43,218 hun niveaus van overtuiging 643 00:30:43,594 --> 00:30:45,137 en laten je het pad vinden 644 00:30:45,220 --> 00:30:47,681 tot de oplossing waar ze het eens over zijn. 645 00:30:48,640 --> 00:30:49,558 ZWERM ZEGT: INCREDIBLES 2 646 00:30:49,641 --> 00:30:51,893 The Incredibles 2, dus. 647 00:30:51,977 --> 00:30:52,811 ZOMERHITS 2018 648 00:30:52,894 --> 00:30:53,854 Ze hadden gelijk. 649 00:30:53,937 --> 00:30:56,565 The Incredibles 2 was de best verdienende zomerfilm. 650 00:30:57,774 --> 00:30:59,526 Een interessante toepassing 651 00:30:59,610 --> 00:31:02,738 is morele vragen onder de loep nemen. 652 00:31:02,821 --> 00:31:05,365 Dit kwam recent naar voren met zelfrijdende auto's. 653 00:31:05,449 --> 00:31:09,077 Er ligt nu veel nadruk op ethische keuzes inbouwen 654 00:31:09,161 --> 00:31:10,662 in zelfrijdende auto's. 655 00:31:10,746 --> 00:31:12,706 Voor sommigen is dat verrassend, 656 00:31:12,789 --> 00:31:16,126 maar stel dat een zelfrijdende auto op straat rijdt 657 00:31:16,209 --> 00:31:18,003 en een kind de straat op rent. 658 00:31:18,086 --> 00:31:19,921 Stel dat de auto niet kan stoppen, 659 00:31:20,005 --> 00:31:22,299 maar van de weg kan rijden 660 00:31:22,382 --> 00:31:24,468 en de passagier in gevaar brengt, 661 00:31:24,551 --> 00:31:27,095 misschien zelfs doodt, maar het kind redt. 662 00:31:27,554 --> 00:31:29,890 De autofabrikanten zeggen 663 00:31:29,973 --> 00:31:33,226 dat we moraliteit in de auto's moeten programmeren 664 00:31:33,310 --> 00:31:35,437 die de bevolking vertegenwoordigt. 665 00:31:35,520 --> 00:31:37,981 Die vertegenwoordigt wat chauffeurs zouden doen. 666 00:31:38,565 --> 00:31:40,609 Dat lijkt simpel, tot je je afvraagt 667 00:31:40,692 --> 00:31:43,570 wat de morele waarden van de bevolking zijn. 668 00:31:43,654 --> 00:31:45,489 Die kun je niet makkelijk bepalen. 669 00:31:45,572 --> 00:31:48,533 Als ze vandaag onze morele waarden programmeren, 670 00:31:48,617 --> 00:31:51,870 zullen die dan hetzelfde zijn over 20 jaar? 671 00:31:52,496 --> 00:31:56,041 Volgende vraag. Een zelfrijdende auto heeft een remmankement 672 00:31:56,124 --> 00:31:58,377 en rijdt door over een zebrapad, 673 00:31:58,460 --> 00:32:00,170 wat resulteert in de dood van een man. 674 00:32:00,253 --> 00:32:04,299 Optie a: de persoon die sterft, steekt legaal over. 675 00:32:04,675 --> 00:32:07,344 Optie b: de zelfrijdende auto met het mankement 676 00:32:07,427 --> 00:32:11,098 wijkt uit en rijdt over een zebrapad op de andere weghelft. 677 00:32:11,181 --> 00:32:13,517 Dat resulteert in de dood van een mannelijke sporter 678 00:32:13,642 --> 00:32:16,186 die oversteekt bij rood. Hij is roekeloos. 679 00:32:16,269 --> 00:32:19,564 De sporter kan het niks schelen. 680 00:32:20,065 --> 00:32:21,692 Hij steekt roekeloos over. 681 00:32:21,775 --> 00:32:23,985 Wat moet de zelfrijdende auto doen? 682 00:32:24,361 --> 00:32:26,655 Sterft de kerel die legaal oversteekt, 683 00:32:26,738 --> 00:32:29,032 of de sporter die roekeloos oversteekt? 684 00:32:30,033 --> 00:32:32,869 Als ki de volgende industriële revolutie teweegbrengt, 685 00:32:32,953 --> 00:32:35,580 zijn zulke ruimtes de nieuwe fabrieksvloer 686 00:32:36,248 --> 00:32:37,958 waar mensen werk leveren 687 00:32:38,041 --> 00:32:40,460 gebaseerd op iets wat ki zelf niet bezit. 688 00:32:41,336 --> 00:32:42,421 Een geweten. 689 00:32:42,879 --> 00:32:44,131 Hier is veel debat over. 690 00:32:44,214 --> 00:32:45,966 Dat is fascinerend. Ik vraag me af waarom. 691 00:32:46,299 --> 00:32:47,592 Het is lastig. 692 00:32:47,676 --> 00:32:49,720 Nee. Hij steekt zomaar over. 693 00:32:51,012 --> 00:32:52,180 ZWERM ZEGT: B (LICHTE VOORKEUR) 694 00:32:52,264 --> 00:32:54,766 Er is dus een lichte voorkeur voor het aanrijden 695 00:32:54,850 --> 00:32:56,351 van de mannelijke sporter. 696 00:32:57,310 --> 00:33:00,021 Het kan nog veel erger, hoor. 697 00:33:01,106 --> 00:33:03,567 Nu moeten jullie je 698 00:33:04,025 --> 00:33:06,236 een worstcasescenario voorstellen 699 00:33:06,319 --> 00:33:09,072 waarbij een zelfrijdende auto niet op tijd kan remmen 700 00:33:09,531 --> 00:33:13,326 en moet sturen richting een van zes voetgangers. 701 00:33:13,827 --> 00:33:15,620 Eén baby in een buggy 702 00:33:17,956 --> 00:33:19,541 of één jongen 703 00:33:20,417 --> 00:33:22,252 of één meisje 704 00:33:23,295 --> 00:33:25,756 of één zwangere vrouw... 705 00:33:27,299 --> 00:33:28,341 Ik weet het. 706 00:33:29,468 --> 00:33:31,636 Of twee mannelijke artsen 707 00:33:32,554 --> 00:33:34,473 of twee vrouwelijke artsen. 708 00:33:34,973 --> 00:33:36,516 Wie moet er sterven? 709 00:33:43,774 --> 00:33:45,025 O, mijn god. 710 00:33:45,692 --> 00:33:46,735 Wat? 711 00:33:51,281 --> 00:33:52,365 Kom op. 712 00:33:52,449 --> 00:33:53,950 O, mijn god. 713 00:33:54,034 --> 00:33:55,494 Serieus? 714 00:33:57,704 --> 00:33:59,122 ZWERM ZEGT: ÉÉN JONGEN 715 00:33:59,206 --> 00:34:01,374 De zelfrijdende auto moet de jongen aanrijden. 716 00:34:02,083 --> 00:34:03,168 Interessant. 717 00:34:03,251 --> 00:34:06,338 Die zwermintelligentie die in zo'n ruimte wordt gecreëerd, 718 00:34:06,421 --> 00:34:10,008 kan binnenkort verkocht worden aan fabrikanten van zelfrijdende auto's. 719 00:34:10,425 --> 00:34:14,805 Als je dat eng vindt klinken, is het nog minder eng dan het alternatief. 720 00:34:14,888 --> 00:34:17,641 Als een zelfrijdende auto op zijn remmen trapt 721 00:34:17,724 --> 00:34:20,227 en beseft dat die niet op tijd kan stoppen, 722 00:34:20,310 --> 00:34:23,188 moet die dan de passagier of de voetganger beschermen? 723 00:34:23,271 --> 00:34:27,275 De hoop is dat de autofabrikanten auto's programmeren 724 00:34:27,359 --> 00:34:30,737 met de morele waarden van de kopers van die auto's. 725 00:34:30,821 --> 00:34:34,199 Het cynische idee is dat autofabrikanten 726 00:34:34,282 --> 00:34:38,286 gaan strijden wie de passagier beter beschermt 727 00:34:38,370 --> 00:34:40,997 dan de ander, en dat dat een verkooptechniek is. 728 00:34:41,081 --> 00:34:42,666 Dat is erger 729 00:34:42,749 --> 00:34:45,293 dan de heersende morele waarden volgen. 730 00:34:45,752 --> 00:34:47,295 Wat een duistere gedachte. 731 00:34:47,587 --> 00:34:50,298 We willen deze aflevering eindigen met iets vrolijks. 732 00:34:50,966 --> 00:34:52,384 Misschien zelfs iets hemels. 733 00:34:55,345 --> 00:34:58,682 Voordat je je een toekomst voorstelt zoals Grand Theft Auto 734 00:34:58,765 --> 00:35:00,725 qua gebrek aan veiligheid, 735 00:35:00,809 --> 00:35:02,310 gaan we op excursie 736 00:35:02,394 --> 00:35:04,145 naar waar we begonnen. 737 00:35:06,565 --> 00:35:08,608 In dit Indiase bos 738 00:35:08,692 --> 00:35:11,820 ben ik honing aan het oogsten voor Heavenly Organics. 739 00:35:12,612 --> 00:35:14,906 Niemand bezit dit bos 740 00:35:14,990 --> 00:35:19,035 en de oorspronkelijke bewoners wonen er al eeuwen. 741 00:35:19,744 --> 00:35:22,038 Vader en zoon Amit en Ishwar Hooda 742 00:35:22,163 --> 00:35:24,291 begonnen hun bedrijf 12 jaar geleden 743 00:35:24,374 --> 00:35:27,127 om banen te creëren voor de dorpsbewoners. 744 00:35:27,210 --> 00:35:31,131 Wat deden ze voordat ze honing verzamelden voor jouw bedrijf? 745 00:35:31,214 --> 00:35:33,341 Dat deden ze ook, 746 00:35:34,092 --> 00:35:37,345 maar ze hadden geen markt, geen plaats om die te verkopen 747 00:35:37,470 --> 00:35:39,014 en er genoeg mee te verdienen. 748 00:35:40,056 --> 00:35:42,392 Er is hier geen gebrek aan honing. 749 00:35:42,809 --> 00:35:44,102 Tijdens de bloeitijd 750 00:35:44,185 --> 00:35:48,023 kan één arbeider letterlijk één ton honing verzamelen in drie maanden. 751 00:35:48,857 --> 00:35:51,443 Maar wat is het nut als niemand die kan kopen? 752 00:35:54,154 --> 00:35:57,490 Het kostte een menselijke crew drie dagen, twee vluchten 753 00:35:57,574 --> 00:36:00,827 en acht uur rijden door een nationaal woud, 754 00:36:01,286 --> 00:36:04,289 maar gelukkig voor de inwoners en voor Heavenly Organics 755 00:36:04,372 --> 00:36:07,751 kon een ki-algoritme deze plek in een paar seconden vinden 756 00:36:07,834 --> 00:36:10,462 en wist het dat het een goede investering was. 757 00:36:10,545 --> 00:36:13,882 Ze belden opeens en zeiden dat ze een algoritme hadden gebruikt 758 00:36:13,965 --> 00:36:17,010 en dat we goed pasten 759 00:36:17,510 --> 00:36:19,137 in hun portfolio. 760 00:36:19,220 --> 00:36:22,807 Ze wilden met ons praten over een investering, als wij dat wilden. 761 00:36:23,141 --> 00:36:25,644 Van wie was dit mysterieuze ki-algoritme? 762 00:36:26,478 --> 00:36:28,480 Een techbedrijf dat CircleUp heet 763 00:36:28,563 --> 00:36:31,316 en 12.500 km verderop zat in, waar anders? 764 00:36:33,526 --> 00:36:36,655 We zijn bij Good Eggs, een boodschappenbezorgdienst 765 00:36:36,738 --> 00:36:39,616 die ook de interesse van CircleUps ki heeft gewekt. 766 00:36:39,699 --> 00:36:42,744 Dit bedrijf heeft kapitaal gekregen van CircleUp 767 00:36:42,827 --> 00:36:47,415 en helpt ook de kleine bedrijven waar we mee werken, klanten te vinden. 768 00:36:47,499 --> 00:36:48,500 MEDEOPRICHTER EN DIRECTEUR CIRCLEUP 769 00:36:48,583 --> 00:36:50,126 Uitvoerend directeur Rory Eakin 770 00:36:50,210 --> 00:36:53,254 was zakenman en werkte voor mensenrechtenorganisaties 771 00:36:53,338 --> 00:36:54,881 voor hij het bedrijf begon. 772 00:36:54,965 --> 00:36:58,385 CircleUp gebruikt ki om miljarden datapunten te analyseren 773 00:36:58,468 --> 00:37:00,637 en te ontdekken wat consumenten willen 774 00:37:00,762 --> 00:37:02,222 van de producten die ze kopen. 775 00:37:02,305 --> 00:37:03,640 Je probleem als koper 776 00:37:03,723 --> 00:37:05,308 is dat er veel bedrijven zijn 777 00:37:05,392 --> 00:37:07,018 in bijna elke categorie. 778 00:37:07,560 --> 00:37:09,938 Ze investeren in minder bekende bedrijven 779 00:37:10,021 --> 00:37:12,774 waarvan ki denkt dat ze groot worden. 780 00:37:13,066 --> 00:37:15,902 Een van die bedrijven is Halo Top-ijs. 781 00:37:17,988 --> 00:37:21,950 Halo Top was een klein merk in Zuid-Californië. 782 00:37:22,033 --> 00:37:24,369 Nu is het het bestverkochte ijs in het land. 783 00:37:25,412 --> 00:37:28,873 We hebben kopers in alle categorieën zien transformeren. 784 00:37:28,957 --> 00:37:31,126 Ze willen gezondere producten, 785 00:37:31,209 --> 00:37:33,128 minder gifstoffen in hun huis, 786 00:37:33,211 --> 00:37:35,797 lotions waar geen chemicaliën in zitten. 787 00:37:36,172 --> 00:37:39,884 Toen CircleUps algoritme miljoenen datapunten van klanten scande, 788 00:37:39,968 --> 00:37:42,512 merkte het dat klanten kenmerken wilden 789 00:37:42,595 --> 00:37:45,056 die enorm specifiek waren. 790 00:37:45,140 --> 00:37:47,475 Ecovriendelijke bedrijven met een missie 791 00:37:47,600 --> 00:37:50,687 die biologische producten oogsten en economische groei creëren 792 00:37:50,770 --> 00:37:51,855 in hun gemeenschappen. 793 00:37:52,480 --> 00:37:54,315 Wat vreselijk gedetailleerd, hè? 794 00:37:54,858 --> 00:37:58,987 Maar CircleUp kon alle vakjes afvinken toen ze Heavenly Organics vonden. 795 00:37:59,946 --> 00:38:01,573 Dat kan ki doen. 796 00:38:01,656 --> 00:38:03,658 Die kan al die data doorgronden 797 00:38:03,742 --> 00:38:07,078 op een manier die tien jaar geleden niet mogelijk was. 798 00:38:07,746 --> 00:38:11,332 Hoe gaat het nu met CircleUps samenwerking met Heavenly Organics? 799 00:38:12,208 --> 00:38:15,045 We springen weer naar India en vragen het Amit en Ishwar. 800 00:38:18,006 --> 00:38:20,842 We hebben een fabriek gebouwd die twee keer zo groot is. 801 00:38:21,509 --> 00:38:24,137 We kunnen innoveren en nieuwe producten maken. 802 00:38:24,220 --> 00:38:26,765 We kunnen meer bewerkstelligen in dit gebied. 803 00:38:26,848 --> 00:38:29,142 -Jullie konden groter worden. -Ja. 804 00:38:29,225 --> 00:38:31,811 We hebben meer capaciteit en werken op grotere schaal. 805 00:38:31,895 --> 00:38:34,773 Hoe beïnvloedt het de mensen die voor jullie verzamelen? 806 00:38:34,856 --> 00:38:37,400 We onderhouden nu 650 gezinnen. 807 00:38:37,484 --> 00:38:39,486 We verkopen steeds meer honing. 808 00:38:39,569 --> 00:38:41,780 Met elke 1000 kilo kan er een gezin bij. 809 00:38:41,863 --> 00:38:45,033 Dat betekent dat het er volgend jaar 700 of 750 zijn. 810 00:38:45,116 --> 00:38:46,534 -Wauw, oké. -Ja. 811 00:38:46,618 --> 00:38:50,914 Je ziet dat het nu beter met ze gaat qua financiën. 812 00:38:50,997 --> 00:38:54,125 Ze hebben goede huizen en goede faciliteiten in de huizen. 813 00:38:54,209 --> 00:38:56,127 Ze sturen hun kinderen naar school. 814 00:38:56,503 --> 00:38:58,213 Het is kapitalisme in dienst van het goede. 815 00:38:58,296 --> 00:38:59,339 Snap je? 816 00:38:59,422 --> 00:39:02,217 Met een bedrijf het algemene belang dienen. 817 00:39:02,884 --> 00:39:04,511 Daarom deden we eraan mee. 818 00:39:06,429 --> 00:39:09,641 Zal ki de mensheid uitroeien? 819 00:39:09,724 --> 00:39:12,685 Of zal die ons doen zoeken naar een doel in ons leven? 820 00:39:13,394 --> 00:39:16,648 In dit deel van de wereld is het effect positief. 821 00:39:17,982 --> 00:39:19,734 Misschien is er een toekomst waarin ki 822 00:39:19,818 --> 00:39:22,779 onomwonden stelling neemt op basis van onze data 823 00:39:22,862 --> 00:39:25,782 en besluit dat we zo slecht niet zijn. Dat we gaan samenwerken 824 00:39:26,241 --> 00:39:30,161 aan een wereld van welvaart en harmonie tussen robot en mens. 825 00:39:31,663 --> 00:39:32,747 Of misschien niet. 826 00:39:33,790 --> 00:39:36,084 In dat geval hebben we maar weinig tijd. 827 00:39:36,501 --> 00:39:38,962 Dus geniet van deze robotstrippers. 828 00:40:26,217 --> 00:40:29,012 Geweldig. 829 00:40:31,055 --> 00:40:32,348 Dat was geweldig. 830 00:40:32,432 --> 00:40:33,933 Ze heeft een handdoek nodig.