1 00:00:01,363 --> 00:00:04,363 (toetsenbord te klikken) 2 00:00:02,000 --> 00:00:07,000 Downloaded from YTS.BZ 3 00:00:08,000 --> 00:00:13,000 Official YIFY movies site: YTS.BZ 4 00:00:12,745 --> 00:00:15,419 (vrolijke muziek) 5 00:00:15,420 --> 00:00:17,609 - [Verteller] Het concept van machines die kunnen denken 6 00:00:17,610 --> 00:00:21,569 en handelen alsof de mens heeft al eeuwen. 7 00:00:21,570 --> 00:00:24,119 Lang voordat smartphones of zelfs elektriciteit 8 00:00:24,120 --> 00:00:27,359 onze voorouders Waren geïnspireerd door de wereld om hen heen 9 00:00:27,360 --> 00:00:29,939 en de mysteries van het leven zelf. 10 00:00:29,940 --> 00:00:33,003 - We zijn door deze veranderingen voor de mensheid. 11 00:00:34,080 --> 00:00:36,089 Bent u van plan om bang te zijn, 12 00:00:36,090 --> 00:00:38,669 of ga je ziet de kansen? 13 00:00:38,670 --> 00:00:41,249 - Hoe meer mensen toegang hebben tot AI, 14 00:00:41,250 --> 00:00:45,599 hoe beter het zal zijn voor toekomstige generaties te komen. 15 00:00:45,600 --> 00:00:48,119 - Moeten We de behandeling van AI 16 00:00:48,120 --> 00:00:50,879 als we een geliefde kind, 17 00:00:50,880 --> 00:00:55,880 of wil je leren hoe je een goede burger van de wereld. 18 00:00:57,000 --> 00:01:00,239 - [Verteller] Uit de oude mythen van de moderne wonderen, 19 00:01:00,240 --> 00:01:03,329 we verdiepen in de verhalen van de pioniers die het aandurfde 20 00:01:03,330 --> 00:01:06,059 aan de droom van het denken machines 21 00:01:06,060 --> 00:01:07,949 en de technologische vooruitgang 22 00:01:07,950 --> 00:01:11,387 die bracht ons dichter bij het maken van die droom een werkelijkheid. 23 00:01:11,388 --> 00:01:13,409 - [John F. Kennedy Jr] Alle technologie 24 00:01:13,410 --> 00:01:15,213 heeft geen geweten van zijn eigen. 25 00:01:16,410 --> 00:01:19,713 Of het zal worden een kracht ten goede of ten kwade, 26 00:01:20,820 --> 00:01:22,229 afhankelijk van de mens. 27 00:01:22,230 --> 00:01:24,119 - [Verteller] Het verhaal van AI is een testament 28 00:01:24,120 --> 00:01:27,423 de menselijke nieuwsgierigheid, creativiteit, 29 00:01:29,190 --> 00:01:31,190 en de niet-aflatende streven naar kennis. 30 00:01:36,730 --> 00:01:40,229 (lichte muziek) 31 00:01:40,230 --> 00:01:41,253 Wat is AI? 32 00:01:42,570 --> 00:01:45,843 Kunstmatige intelligentie of AI is het geven van computers hersenen. 33 00:01:46,770 --> 00:01:48,809 Het woordenboek omschrijft het als de theorie 34 00:01:48,810 --> 00:01:52,619 en de ontwikkeling van computer systemen in staat zijn om taken uit te voeren 35 00:01:52,620 --> 00:01:55,289 dat normaal gesproken moet de menselijke intelligentie. 36 00:01:55,290 --> 00:01:57,929 - Vandaag denk je van AI als ChatGPT, 37 00:01:57,930 --> 00:01:59,489 maar wat het echt is, 38 00:01:59,490 --> 00:02:01,469 is een redenering en planning systeem 39 00:02:01,470 --> 00:02:03,029 dat hebben we nog nooit eerder gezien. 40 00:02:03,030 --> 00:02:05,969 - Als het gaat om AI, er zijn overal mogelijkheden. 41 00:02:05,970 --> 00:02:08,549 Weet je, we zijn soort in het wild, wild west, 42 00:02:08,550 --> 00:02:11,339 en het zou kunnen zijn mogelijkheden om financiering 43 00:02:11,340 --> 00:02:14,849 met een goed idee en een overtuigend bewijs van het concept. 44 00:02:14,850 --> 00:02:16,739 - Er zijn eigenlijk twee soorten 45 00:02:16,740 --> 00:02:20,249 van AI wordt gebruikt in de wereld van vandaag. 46 00:02:20,250 --> 00:02:23,399 De ene is de grotere, meer algemene AI 47 00:02:23,400 --> 00:02:25,439 dat weten wij als Google Translate. 48 00:02:25,440 --> 00:02:28,079 En ChatGPT aan de andere kant, 49 00:02:28,080 --> 00:02:31,019 er is noemen wij automatisering AI dat is gebouwd 50 00:02:31,020 --> 00:02:32,839 met wat we noemen een golden gegevens, 51 00:02:32,840 --> 00:02:36,419 of gegevens die zijn afgeleid specifiek voor dat gebruik zaak 52 00:02:36,420 --> 00:02:39,359 en het neemt de pijn weg punten voor workflows. 53 00:02:39,360 --> 00:02:42,359 Meestal in bedrijven of in het dagelijkse routines. 54 00:02:42,360 --> 00:02:46,139 - U kunt kiezen iets en het bouwen van een idee van. 55 00:02:46,140 --> 00:02:47,369 Iemand een bedrijf gebouwd 56 00:02:47,370 --> 00:02:52,370 dat is met de AI rang baseball cards. 57 00:02:52,440 --> 00:02:54,719 Dus in plaats van met een deskundige te kijken 58 00:02:54,720 --> 00:02:57,689 en zeggen dat dit is mint of in de buurt van mint of zeer goed, 59 00:02:57,690 --> 00:03:00,809 je kan gewoon foto ' s van 20 kaarten 60 00:03:00,810 --> 00:03:02,939 en het geeft je de ratings voor alle van hen. 61 00:03:02,940 --> 00:03:05,369 - [Verteller] AI is ingesteld op verandering van de wereld zoals wij die kennen. 62 00:03:05,370 --> 00:03:07,559 - De komst van deze nieuwe intelligence 63 00:03:07,560 --> 00:03:10,379 zal ingrijpend veranderen ons land en de wereld 64 00:03:10,380 --> 00:03:12,779 op manieren die we niet volledig kunnen begrijpen. 65 00:03:12,780 --> 00:03:13,799 En niemand van ons, 66 00:03:13,800 --> 00:03:16,769 inclusief mezelf, en eerlijk gezegd, iedereen in deze kamer, 67 00:03:16,770 --> 00:03:18,820 is voorbereid op de gevolgen van deze. 68 00:03:19,860 --> 00:03:22,137 - [Verteller] wat zijn de oorsprong van AI? 69 00:03:22,138 --> 00:03:25,109 (vogels fluiten) 70 00:03:25,110 --> 00:03:27,509 De oude Grieken vertelden verhalen van Hephaestus, 71 00:03:27,510 --> 00:03:30,779 de smid van de goden die gemaakt mechanische knechten 72 00:03:30,780 --> 00:03:33,899 en zelfs een bronzen automaton genoemd Talos 73 00:03:33,900 --> 00:03:35,879 waken over het eiland Kreta. 74 00:03:35,880 --> 00:03:37,979 Deze mythen waren niet alleen voor de vluchten van de verbeelding, 75 00:03:37,980 --> 00:03:39,839 ze blijkt een diepe fascinatie 76 00:03:39,840 --> 00:03:42,659 met het potentieel van kunstmatige wezens. 77 00:03:42,660 --> 00:03:46,289 Terwijl de Grieken hadden geen computers of algoritmen 78 00:03:46,290 --> 00:03:48,209 ze legde de basis voor AI 79 00:03:48,210 --> 00:03:51,899 door het verkennen van de relatie tussen mensen en machines. 80 00:03:51,900 --> 00:03:54,479 Ze geworsteld met vragen over het bewustzijn, 81 00:03:54,480 --> 00:03:57,569 creativiteit, en de aard van intelligentie. 82 00:03:57,570 --> 00:04:00,539 Vragen die nog steeds resoneren met ons vandaag, 83 00:04:00,540 --> 00:04:03,569 - Ik vraag of een dergelijke automaten kunnen bezitten, het leven. 84 00:04:03,570 --> 00:04:06,329 - Maar hoe bepaalt men het leven dan? 85 00:04:06,330 --> 00:04:08,729 - Misschien is de mogelijkheid om te redeneren. 86 00:04:08,730 --> 00:04:10,349 - [Verteller] Fast forward naar de Middeleeuwen 87 00:04:10,350 --> 00:04:13,599 waar geniale uitvinders vervaardigd ingewikkelde klokken, 88 00:04:13,600 --> 00:04:15,269 water-aangedreven automaten, 89 00:04:15,270 --> 00:04:17,879 en zelfs programmeerbare muziekinstrumenten. 90 00:04:17,880 --> 00:04:21,299 Deze mechanische wonderen vaak weergegeven in de koninklijke hoven 91 00:04:21,300 --> 00:04:24,179 en pleinen in de ban van de publieke verbeelding 92 00:04:24,180 --> 00:04:27,359 en duwde de grenzen van wat wel mogelijk. 93 00:04:27,360 --> 00:04:30,226 Een bijzonder boeiende figuur was Al-Jazari, 94 00:04:30,227 --> 00:04:32,939 een 12e-eeuwse Arabische uitvinder die ontworpen 95 00:04:32,940 --> 00:04:35,549 en bouwde een breed scala van automaten, 96 00:04:35,550 --> 00:04:38,099 inclusief een programmeerbare muziekinstrument 97 00:04:38,100 --> 00:04:41,909 dat kan worden beschouwd als een vroege voorouder van de computer. 98 00:04:41,910 --> 00:04:45,299 Deze uitvindingen aangetoond dat de toenemende verfijning 99 00:04:45,300 --> 00:04:46,923 van de mechanische engineering, 100 00:04:47,880 --> 00:04:50,009 en gezinspeeld op de mogelijke voor machines 101 00:04:50,010 --> 00:04:53,669 voor het uitvoeren van steeds complexere taken. 102 00:04:53,670 --> 00:04:56,699 De 19e eeuw zag een stijging van de rente in de logica, 103 00:04:56,700 --> 00:04:59,699 en wiskunde leggen van de basis voor de ontwikkeling 104 00:04:59,700 --> 00:05:01,289 in de informatica. 105 00:05:01,290 --> 00:05:04,259 Denkers zoals George Boole en Ada Lovelace 106 00:05:04,260 --> 00:05:06,239 gemaakt baanbrekende bijdragen 107 00:05:06,240 --> 00:05:08,399 tot de formalisering van de logica 108 00:05:08,400 --> 00:05:10,889 en de ontwikkeling van algoritmen, 109 00:05:10,890 --> 00:05:13,859 de weg vrijmaakt voor het digitale tijdperk. 110 00:05:13,860 --> 00:05:17,609 Lovelace, vaak bestempeld als de eerste computer programmeur, 111 00:05:17,610 --> 00:05:18,989 bewust van het potentieel 112 00:05:18,990 --> 00:05:22,319 van Charles Babbage ' s analytical engine, 113 00:05:22,320 --> 00:05:25,109 een mechanische general purpose computer 114 00:05:25,110 --> 00:05:27,929 om verder te gaan dan de loutere berekening en manipuleren van symbolen 115 00:05:27,930 --> 00:05:30,479 volgens de regels die zinspeelde op de mogelijkheid 116 00:05:30,480 --> 00:05:32,669 van de kunstmatige intelligentie. 117 00:05:32,670 --> 00:05:35,489 - In het midden van de jaren 1940, 118 00:05:35,490 --> 00:05:38,579 twee onderzoekers van de Universiteit van Chicago kwam 119 00:05:38,580 --> 00:05:42,029 met het idee van het proberen na te bootsen van de hersenen, 120 00:05:42,030 --> 00:05:44,489 de neuronen en verbindingen, 121 00:05:44,490 --> 00:05:47,309 en zij uit de zogenaamde neurale netwerken. 122 00:05:47,310 --> 00:05:51,569 Nu is dit idee, er was echt geen rekenkracht 123 00:05:51,570 --> 00:05:54,449 voor het uitvoeren van iets belangrijks, 124 00:05:54,450 --> 00:05:57,419 maar dit is het idee dat door de jaren heen 125 00:05:57,420 --> 00:06:00,513 is de basis geworden van wat AI is vandaag. 126 00:06:01,440 --> 00:06:03,509 - [Verteller] het midden van De 20e eeuw was getuige van de geboorte 127 00:06:03,510 --> 00:06:04,893 van het computertijdperk, 128 00:06:05,790 --> 00:06:08,669 een revolutie ontstoken door het werk van de zieners 129 00:06:08,670 --> 00:06:10,049 zoals Alan Turing. 130 00:06:10,050 --> 00:06:12,516 De Britse wiskundige vroeg een eenvoudige vraag, 131 00:06:12,517 --> 00:06:14,279 "Kunnen machines denken?" 132 00:06:14,280 --> 00:06:17,699 Dit tijdperk vormde een belangrijke verschuiving in de menselijke geschiedenis 133 00:06:17,700 --> 00:06:21,149 als het potentieel van machines voor het uitvoeren van complexe berekeningen 134 00:06:21,150 --> 00:06:24,269 en taken begon te worden gerealiseerd. 135 00:06:24,270 --> 00:06:26,189 De fundamenten die gelegd zijn tijdens deze periode 136 00:06:26,190 --> 00:06:29,489 zou gaan om invloed talloze aspecten van het moderne leven, 137 00:06:29,490 --> 00:06:33,269 uit de manier waarop we communiceren, de manier waarop we de problemen op te lossen. 138 00:06:33,270 --> 00:06:36,149 Turing, een briljant wiskundige en codebrekers, 139 00:06:36,150 --> 00:06:38,819 een cruciale rol gespeeld bij het kraken van de enigma-code 140 00:06:38,820 --> 00:06:40,409 tijdens de tweede Wereldoorlog. 141 00:06:40,410 --> 00:06:42,689 - Het is de grootste encryptie apparaat in de geschiedenis. 142 00:06:42,690 --> 00:06:45,882 De Duitsers gebruiken voor alle belangrijke communicatie. 143 00:06:45,883 --> 00:06:47,998 (propellers dreunende overhead) 144 00:06:47,999 --> 00:06:49,229 (bom spatten naar beneden) 145 00:06:49,230 --> 00:06:51,659 - [Verteller] Zijn werk was cruciaal in de geallieerde overwinning, 146 00:06:51,660 --> 00:06:54,873 het opslaan van talloze levens en het verkorten van de oorlog. 147 00:06:55,800 --> 00:06:59,429 Hij legde de theoretische basis voor de moderne computing, 148 00:06:59,430 --> 00:07:02,069 mikt op machines die kunnen uitvoeren van een taak 149 00:07:02,070 --> 00:07:03,633 met de juiste instructies. 150 00:07:05,100 --> 00:07:06,719 Zijn ideeën waren revolutionair, 151 00:07:06,720 --> 00:07:08,879 stelt voor dat een machine kan worden geprogrammeerd 152 00:07:08,880 --> 00:07:11,579 voor het uitvoeren van een berekening die een mens kon 153 00:07:11,580 --> 00:07:13,443 gegeven genoeg tijd en middelen. 154 00:07:15,330 --> 00:07:18,449 Bovendien zijn beroemde Turing-test vraagt 155 00:07:18,450 --> 00:07:22,169 als je een machine kunt nabootsen van de menselijke conversatie zo goed 156 00:07:22,170 --> 00:07:26,249 dat kan je niet zeggen of het een persoon of een computer. 157 00:07:26,250 --> 00:07:29,099 De Turing test uitdagingen voor ons om te overwegen wat het betekent 158 00:07:29,100 --> 00:07:31,259 voor een machine te denken. 159 00:07:31,260 --> 00:07:33,749 Turing ' s visie van intelligente machines blijft 160 00:07:33,750 --> 00:07:36,779 om innovatie te stimuleren en verkenning in het veld, 161 00:07:36,780 --> 00:07:38,969 het beïnvloeden van alles, van robotica 162 00:07:38,970 --> 00:07:40,953 op de verwerking van natuurlijke taal. 163 00:07:45,249 --> 00:07:46,859 (vogels fluiten) 164 00:07:46,860 --> 00:07:49,199 Het gebied van de kunstmatige intelligentie, zoals we die kennen 165 00:07:49,200 --> 00:07:51,419 officieel werd geboren in 1956 166 00:07:51,420 --> 00:07:53,339 aan het Dartmouth Zomer Research Project 167 00:07:53,340 --> 00:07:55,289 op kunstmatige intelligentie. 168 00:07:55,290 --> 00:07:58,049 Deze mijlpaal conferentie georganiseerd door John McCarthy, 169 00:07:58,050 --> 00:07:59,819 Marvin Minsky, Claude Shannon, 170 00:07:59,820 --> 00:08:02,699 en Nathaniel Rochester bracht samen vooraanstaande onderzoekers 171 00:08:02,700 --> 00:08:05,493 het potentieel te onderzoeken van het denken machines. 172 00:08:06,360 --> 00:08:08,129 Ondanks het aanvankelijke enthousiasme, 173 00:08:08,130 --> 00:08:10,169 de weg naar kunstmatige intelligentie bleek 174 00:08:10,170 --> 00:08:12,269 om rotsachtiger dan verwacht. 175 00:08:12,270 --> 00:08:16,649 In de late jaren 1960 en de jaren 1970 zag een periode van desillusie 176 00:08:16,650 --> 00:08:19,199 en minder financiering voor AI-onderzoek 177 00:08:19,200 --> 00:08:22,053 vaak aangeduid als de AI winter. 178 00:08:22,980 --> 00:08:25,799 - Was de financiering van de bezuinigen aanzienlijk. 179 00:08:25,800 --> 00:08:29,009 En wat was het dat resulteerde in dat, 180 00:08:29,010 --> 00:08:32,729 Ik denk dat een groot deel van het was een hype. 181 00:08:32,730 --> 00:08:34,079 Weet je, er was een ton van de hype 182 00:08:34,080 --> 00:08:38,069 van de verkoop van kunstmatige intelligentie, redeneren, 183 00:08:38,070 --> 00:08:40,859 contextueel bewustzijn, enzovoort, enzovoort, 184 00:08:40,860 --> 00:08:43,109 en de tools die werden gebouwd in de tijd 185 00:08:43,110 --> 00:08:46,950 nergens in de buurt van de mogelijkheid van het bereiken van dat. 186 00:08:47,994 --> 00:08:50,489 - [Verteller] De jaren 1980 en 1990 getuige 187 00:08:50,490 --> 00:08:52,109 een heropleving van de AI, 188 00:08:52,110 --> 00:08:54,719 voor een deel gedreven door de opkomst van machine learning. 189 00:08:54,720 --> 00:08:56,999 Dit geïnspireerd door het vermogen van de hersenen 190 00:08:57,000 --> 00:09:00,389 om te leren van ervaring in het trainen van algoritmen 191 00:09:00,390 --> 00:09:02,189 op grote hoeveelheden gegevens, 192 00:09:02,190 --> 00:09:05,849 zodat ze aan het verbeteren van hun prestaties in de tijd. 193 00:09:05,850 --> 00:09:07,679 De beschikbaarheid van grotere gegevenssets 194 00:09:07,680 --> 00:09:10,623 en meer krachtige computers ingeschakeld aanzienlijke vooruitgang geboekt. 195 00:09:13,350 --> 00:09:17,189 - In de eind jaren negentig wat wisten we dat AI 196 00:09:17,190 --> 00:09:19,619 was echt de beslissing bomen 197 00:09:19,620 --> 00:09:22,589 die werden gebruikt voor de controle op het video-spel. 198 00:09:22,590 --> 00:09:25,743 De eerste video game die we deden was genaamd Soul Edge. 199 00:09:28,290 --> 00:09:31,949 Namco bracht een ninja die vanuit Japan. 200 00:09:31,950 --> 00:09:35,699 We moeten het niet doen van bewegingen met behulp van motion capture. 201 00:09:35,700 --> 00:09:38,399 De belangrijkste speler zou bewegen met de controller, 202 00:09:38,400 --> 00:09:42,449 en dan de AI-systeem in het spel zou beslissen 203 00:09:42,450 --> 00:09:45,989 die animatie te spelen op basis van dat. 204 00:09:45,990 --> 00:09:50,129 En dan heb je de non-player characters of de Npc ' s 205 00:09:50,130 --> 00:09:52,949 en die zou ook beslissingen nemen 206 00:09:52,950 --> 00:09:54,963 op basis van wat is besluit bomen. 207 00:09:55,980 --> 00:09:56,813 - Je wint. 208 00:09:58,020 --> 00:10:00,479 - [Verteller] Machine learning begon beter te presteren dan de mens 209 00:10:00,480 --> 00:10:02,729 in specifieke taken. 210 00:10:02,730 --> 00:10:05,189 In de late jaren negentig, AI scoorde een grote overwinning. 211 00:10:05,190 --> 00:10:06,659 IBM ' s Deep Blue verslagen 212 00:10:06,660 --> 00:10:08,793 wereldkampioen schaken Garry Kasparov, 213 00:10:09,990 --> 00:10:11,999 het aantonen van de mogelijkheden van deze aanpak 214 00:10:12,000 --> 00:10:14,463 als revolutie in diverse industrieën. 215 00:10:17,249 --> 00:10:20,639 (explosieve bouten popping) 216 00:10:20,640 --> 00:10:23,429 - [Omroeper] Lift off van de space shuttle en landt. 217 00:10:23,430 --> 00:10:24,809 - [Verteller] De 20e eeuw was getuige van 218 00:10:24,810 --> 00:10:27,629 het spannende space race, een wedstrijd tussen de naties 219 00:10:27,630 --> 00:10:30,299 te bereiken suprematie in de verkenning van de ruimte. 220 00:10:30,300 --> 00:10:33,543 Het was een tijd van snelle ontwikkelingen en de intense rivaliteit. 221 00:10:34,380 --> 00:10:38,189 Vandaag is een nieuwe race aan de gang, de AI space race. 222 00:10:38,190 --> 00:10:39,989 Naties zijn zwaar te investeren 223 00:10:39,990 --> 00:10:42,299 in het AI-onderzoek en ontwikkeling. 224 00:10:42,300 --> 00:10:45,419 In het hart van deze wedstrijd is de drive om te ontwikkelen 225 00:10:45,420 --> 00:10:49,079 en de controle van de meest geavanceerde AI-technologieën, 226 00:10:49,080 --> 00:10:51,363 dat beloofde voor het transformeren van onze wereld. 227 00:10:52,710 --> 00:10:56,519 - Vanaf de 2010s, hadden we deze convergentie 228 00:10:56,520 --> 00:11:00,269 cloud computing wordt steeds minder duur, 229 00:11:00,270 --> 00:11:03,359 en ook de schat van gegevens 230 00:11:03,360 --> 00:11:06,869 dat was eigenlijk toegankelijk is voor ontwikkelaars 231 00:11:06,870 --> 00:11:10,199 en AI technologen van sociale media, het internet, 232 00:11:10,200 --> 00:11:12,479 al deze dingen samen komen, 233 00:11:12,480 --> 00:11:15,269 dat is toen zagen we dit volgende niveau van de explosie. 234 00:11:15,270 --> 00:11:17,459 Dit volgende niveau van ontwikkeling 235 00:11:17,460 --> 00:11:21,993 dat bracht ons in wat we zien nu, exponentiële groei. 236 00:11:24,060 --> 00:11:27,629 - De grootste en opvallende ontdekking was echt in 2017 237 00:11:27,630 --> 00:11:30,629 met de release van de Transformer modellen, 238 00:11:30,630 --> 00:11:34,199 die in wezen toegestaan deze neurale modellen 239 00:11:34,200 --> 00:11:38,219 voor het maken van contextuele lijnen tussen de informatie 240 00:11:38,220 --> 00:11:39,779 dat wordt getraind. 241 00:11:39,780 --> 00:11:44,609 En ik denk dat kader is het centrum voor AI 242 00:11:44,610 --> 00:11:46,649 voor het verkrijgen van de mogelijkheid om reden 243 00:11:46,650 --> 00:11:49,859 en om de juiste beslissingen te nemen. 244 00:11:49,860 --> 00:11:51,899 - [Verteller] De inzet is ongelooflijk hoog als de natie 245 00:11:51,900 --> 00:11:55,139 dat leidt in de AI zal een aanzienlijk voordeel 246 00:11:55,140 --> 00:11:56,373 in de mondiale arena. 247 00:11:57,210 --> 00:11:59,523 - Wat zou er gebeuren als China sloeg ons? 248 00:12:00,420 --> 00:12:01,829 Denk over het. 249 00:12:01,830 --> 00:12:05,609 Het pad naar de intelligentie die bovenmenselijke intelligentie, 250 00:12:05,610 --> 00:12:08,429 denk aan de nationale gevolgen voor de veiligheid 251 00:12:08,430 --> 00:12:09,869 van die competitie. 252 00:12:09,870 --> 00:12:11,369 - [Verteller] In Januari, 2025, 253 00:12:11,370 --> 00:12:15,539 de wereld getuige van een cruciaal moment in de AI space race. 254 00:12:15,540 --> 00:12:18,449 De lancering van DeepSeek een Chinese AI app 255 00:12:18,450 --> 00:12:20,669 dat nam snel de wereld door de storm. 256 00:12:20,670 --> 00:12:23,699 Deze innovatieve applicatie opnieuw de grenzen 257 00:12:23,700 --> 00:12:25,949 van wat AI zou kunnen bereiken in het dagelijks leven. 258 00:12:25,950 --> 00:12:27,479 - DeepSeek opdagen. 259 00:12:27,480 --> 00:12:28,589 Niemand verwacht dit. 260 00:12:28,590 --> 00:12:32,369 Het blijkt dat het op een lijn nu met een aantal van de top-modellen. 261 00:12:32,370 --> 00:12:35,609 Welkom, China is aangekomen in de competitie. 262 00:12:35,610 --> 00:12:38,249 - De DeepSeek beweging is gaat de geschiedenis in gaan 263 00:12:38,250 --> 00:12:42,749 als één wezen, één van reflectie voor de gehele AI gemeenschap 264 00:12:42,750 --> 00:12:45,689 en elke stakeholder in het algemeen. 265 00:12:45,690 --> 00:12:50,429 Dus DeepSeek was een model uitgebracht door een Chinees bedrijf 266 00:12:50,430 --> 00:12:52,349 dat gaat met dezelfde naam. 267 00:12:52,350 --> 00:12:56,429 Het was een open source model dat vergelijkbaar was 268 00:12:56,430 --> 00:12:59,853 de beste closed source modellen die er op de planeet. 269 00:13:07,890 --> 00:13:11,309 - De release van DeepSeek bleek dat een aantal kleinere bedrijven 270 00:13:11,310 --> 00:13:14,669 kan concurreren met de grotere Goliath modellen. 271 00:13:14,670 --> 00:13:16,589 En wat het echt bewezen 272 00:13:16,590 --> 00:13:21,299 is dat het mogelijk is te doen meer met minder middelen, 273 00:13:21,300 --> 00:13:25,769 en dat de vertraging van het hebben van een top van de lijn model 274 00:13:25,770 --> 00:13:29,609 is echt een veel sneller afgeschreven activa 275 00:13:29,610 --> 00:13:32,339 dan we dachten dat het was in eerste instantie 276 00:13:32,340 --> 00:13:33,869 - [Verteller] Ontwikkeld door een consortium 277 00:13:33,870 --> 00:13:35,399 van de Chinese tech bedrijven, 278 00:13:35,400 --> 00:13:39,273 DeepSeek tentoongesteld China ' s snelle vooruitgang in AI ontwikkeling. 279 00:13:40,140 --> 00:13:43,829 Met behulp van een kosten-effectieve ontwikkeling model bekend als R1, 280 00:13:43,830 --> 00:13:47,339 DeepSeek bereikt indrukwekkende resultaten met beperkte middelen. 281 00:13:47,340 --> 00:13:50,429 - We zijn niet helemaal zeker van hoe vaak 282 00:13:50,430 --> 00:13:51,629 ze kan zijn gegaan door middel van deze, 283 00:13:51,630 --> 00:13:54,389 hoe veel geld dat ze echt doorgebracht om naar het punt 284 00:13:54,390 --> 00:13:58,019 waar ze waren op het in staat zijn om een model te creëren 285 00:13:58,020 --> 00:14:00,659 met de $5 miljoen, wat het ook was besteed. 286 00:14:00,660 --> 00:14:01,919 - [Verteller] De app snel klom 287 00:14:01,920 --> 00:14:04,439 naar de top van de Google Play en Apple app store hitlijsten, 288 00:14:04,440 --> 00:14:07,259 overtreft gevestigde ONS tech-giganten. 289 00:14:07,260 --> 00:14:10,979 Zijn snelle klim was niets minder opmerkelijk. 290 00:14:10,980 --> 00:14:13,559 Deze stijging in populariteit zond schokgolven 291 00:14:13,560 --> 00:14:15,059 door de tech wereld, 292 00:14:15,060 --> 00:14:18,449 dat wijst op een verschuiving in de wereldwijde AI landschap. 293 00:14:18,450 --> 00:14:20,579 Analisten en experts begon om kennis te nemen 294 00:14:20,580 --> 00:14:22,511 van de veranderende dynamiek. 295 00:14:22,512 --> 00:14:25,199 DeepSeek succes geserveerd als een wake up call 296 00:14:25,200 --> 00:14:27,329 voor de VS en andere landen. 297 00:14:27,330 --> 00:14:30,509 Aandacht voor de concurrentie in de AI. 298 00:14:30,510 --> 00:14:32,969 - Het feit dat dit model is nu open source, 299 00:14:32,970 --> 00:14:36,569 het feit dat iedereen in de wereld kan bouwen op de top van het 300 00:14:36,570 --> 00:14:38,669 betekent dat we moeten gewoon erkennen van het feit 301 00:14:38,670 --> 00:14:41,849 dat als AI gaat worden in de handen van elk individu, 302 00:14:41,850 --> 00:14:43,949 we moeten denken aan andere mechanismen 303 00:14:43,950 --> 00:14:47,309 om ervoor te zorgen dat op verantwoorde wijze wordt gebruikt en ingezet. 304 00:14:47,310 --> 00:14:49,709 - Ik denk dat het belang van wat zij konden bereiken 305 00:14:49,710 --> 00:14:54,710 het toestaan van open source modellen om te blijven concurreren, 306 00:14:54,990 --> 00:14:58,739 en dat zorgt ervoor dat sommige van de dingen 307 00:14:58,740 --> 00:15:00,479 die AI is verondersteld worden te groot voor 308 00:15:00,480 --> 00:15:02,939 in termen van de verbetering van de mensheid 309 00:15:02,940 --> 00:15:05,433 kan worden gedaan zonder zijn achter een paywall. 310 00:15:06,480 --> 00:15:08,279 - [Verteller] De lancering van DeepSeek opgetreden midden 311 00:15:08,280 --> 00:15:12,239 de stijging van de AI investering en ontwikkeling in de VS. 312 00:15:12,240 --> 00:15:16,049 - Samen, de wereld toonaangevende technologie reuzen tijdperk 313 00:15:16,050 --> 00:15:19,079 de aankondiging van de vorming van de Stargate, 314 00:15:19,080 --> 00:15:22,919 een nieuw Amerikaans bedrijf dat wil investeren $500 miljard 315 00:15:22,920 --> 00:15:25,349 tenminste, in AI-infrastructuur. 316 00:15:25,350 --> 00:15:27,449 - Het feit dat het afkomstig uit China 317 00:15:27,450 --> 00:15:30,779 had veel van de geopolitieke gevolgen van het als goed. 318 00:15:30,780 --> 00:15:35,219 Als je met behulp van een model dat is ook gehost in China, 319 00:15:35,220 --> 00:15:36,862 hebben ze toegang tot veel van de gegevens 320 00:15:36,863 --> 00:15:39,659 dat wij voeden in deze modellen onbewust? 321 00:15:39,660 --> 00:15:43,559 - China is een concurrent en anderen zijn concurrenten, willen wij u, 322 00:15:43,560 --> 00:15:45,303 we willen in dit land. 323 00:15:46,320 --> 00:15:48,539 - [Verteller] Opvallende trends opgenomen Google Gemini 324 00:15:48,540 --> 00:15:52,593 en Microsoft ' s Copilot het verstrekken van meer gerichte AI oplossingen. 325 00:15:53,640 --> 00:15:55,649 Terwijl China en de VS zijn belangrijke spelers 326 00:15:55,650 --> 00:15:58,259 in het AI-space race, dit is een wereldwijde competitie 327 00:15:58,260 --> 00:16:00,573 met bijdragen van landen over de hele wereld. 328 00:16:01,590 --> 00:16:03,959 Landen over de hele wereld zijn zwaar te investeren 329 00:16:03,960 --> 00:16:06,119 in het AI-onderzoek en ontwikkeling, 330 00:16:06,120 --> 00:16:08,549 elke hoop om een concurrentievoordeel te behalen. 331 00:16:08,550 --> 00:16:10,829 Deze multipolaire de natuur bevordert een gevarieerde 332 00:16:10,830 --> 00:16:13,139 en dynamische AI ecosysteem. 333 00:16:13,140 --> 00:16:17,879 - Van land tot land waarden verschillen. 334 00:16:17,880 --> 00:16:22,379 Bijvoorbeeld, China heeft zijn eigen waarden 335 00:16:22,380 --> 00:16:23,849 en haar eigen overwegingen, 336 00:16:23,850 --> 00:16:26,729 dus we moeten op dezelfde pagina. 337 00:16:26,730 --> 00:16:30,959 Er zal, hopelijk, nieuwe verdragen langs deze lijnen, 338 00:16:30,960 --> 00:16:34,979 maar het is wel een grote uitdaging. 339 00:16:34,980 --> 00:16:36,989 - [Verteller] De toekomst van AI hangt af van ons vermogen 340 00:16:36,990 --> 00:16:39,359 om uit te rusten van haar transformatieve kracht 341 00:16:39,360 --> 00:16:41,639 terwijl het verminderen van de risico ' s. 342 00:16:41,640 --> 00:16:43,469 De keuzes die we vandaag maken zal bepalen 343 00:16:43,470 --> 00:16:45,299 of AI wordt een kracht voor het goede, 344 00:16:45,300 --> 00:16:47,043 of een bron van nieuwe uitdagingen. 345 00:16:48,210 --> 00:16:52,319 - We aan de vooravond van een verstoring 346 00:16:52,320 --> 00:16:56,819 om de menselijke cultuur dat gebeurt zeer zelden. 347 00:16:56,820 --> 00:16:58,799 De aard van de verstoring we praten over 348 00:16:58,800 --> 00:17:00,089 is de aard van de verstoring 349 00:17:00,090 --> 00:17:02,376 dat de uitvinding van de landbouw gemaakt. 350 00:17:02,377 --> 00:17:06,627 (toetsenbord te klikken) 351 00:17:08,280 --> 00:17:10,499 - Deze technologie is in zekere zin niet meer te stuiten. 352 00:17:10,500 --> 00:17:12,850 Het gaat een deel geworden van ons dagelijks leven. 353 00:17:14,340 --> 00:17:17,039 - [Verteller] De toekomst is dichterbij dan je zou denken. 354 00:17:17,040 --> 00:17:19,739 Foto een dag wakker worden in een huis aangedreven 355 00:17:19,740 --> 00:17:23,433 door duurzame energie, woon-werkverkeer in een autonoom voertuig, 356 00:17:24,270 --> 00:17:26,133 ontvangen van gepersonaliseerde gezondheidszorg. 357 00:17:27,600 --> 00:17:31,533 Laten we reizen naar het jaar 2035 en bezoek NeoZenith. 358 00:17:34,350 --> 00:17:36,869 Een lichtend voorbeeld van een stad waar AI 359 00:17:36,870 --> 00:17:39,723 en de mens in perfecte harmonie samengaan. 360 00:17:42,690 --> 00:17:45,869 Het is een bewijs van wat kan worden bereikt wanneer de technologie 361 00:17:45,870 --> 00:17:48,513 en de natuur zijn naadloos geïntegreerd. 362 00:17:50,220 --> 00:17:53,519 Stel je de straten waar de AI-gestuurde systemen beheren alles 363 00:17:53,520 --> 00:17:56,039 van de verkeersafwikkeling van het energieverbruik, 364 00:17:56,040 --> 00:17:58,803 ervoor te zorgen dat de stad werkt op maximale efficiëntie. 365 00:18:01,350 --> 00:18:03,123 Dit is niet zomaar een betonnen jungle. 366 00:18:04,320 --> 00:18:07,019 NeoZenith is een adem van verse lucht, letterlijk. 367 00:18:07,020 --> 00:18:09,239 De stedenbouwkundigen hebben gegaan naar grote lengten 368 00:18:09,240 --> 00:18:13,499 te nemen van de groene ruimten in elk aspect van het stedelijk leven. 369 00:18:13,500 --> 00:18:15,389 Parken, tuinen en groene daken 370 00:18:15,390 --> 00:18:17,339 niet alleen esthetische keuzes, 371 00:18:17,340 --> 00:18:20,879 maar de essentiële onderdelen van de stad van het ecosysteem. 372 00:18:20,880 --> 00:18:24,299 Deze groene ruimtes dienen als de longen van NeoZenith, 373 00:18:24,300 --> 00:18:26,429 het filteren van verontreinigende stoffen in het verstrekken van ingezetenen 374 00:18:26,430 --> 00:18:27,723 met de schone, frisse lucht. 375 00:18:29,250 --> 00:18:30,963 De stad vol leven is. 376 00:18:31,830 --> 00:18:34,829 Het openbaar vervoer is efficiënt en eco-vriendelijk, 377 00:18:34,830 --> 00:18:36,809 waardoor het voor iedereen gemakkelijk om rond te komen 378 00:18:36,810 --> 00:18:38,495 zonder bij te dragen aan de vervuiling. 379 00:18:38,496 --> 00:18:41,099 - [Trein Omroeper] Dit is Hikari Super Express 380 00:18:41,100 --> 00:18:42,623 gebonden aan Shin-Osaka. 381 00:18:43,830 --> 00:18:45,209 - [Verteller] Het is georganiseerd, efficiënt, 382 00:18:45,210 --> 00:18:47,251 en ontworpen met de mensen in zijn hart. 383 00:18:47,252 --> 00:18:49,949 (crowd geklets) 384 00:18:49,950 --> 00:18:52,829 Brede verkeersvrije straten zijn leven 385 00:18:52,830 --> 00:18:56,433 met mensen die wandelen, fietsen, en te genieten van de frisse lucht. 386 00:18:57,360 --> 00:18:59,579 Glimmende zonnepanelen dawn daken, 387 00:18:59,580 --> 00:19:01,233 geniet van de energie van de zon. 388 00:19:02,340 --> 00:19:05,369 Windturbines brom sierlijk op de stad, de rand, 389 00:19:05,370 --> 00:19:07,709 het genereren van schone elektriciteit. 390 00:19:07,710 --> 00:19:09,899 Maar hier is waar de AI komt. 391 00:19:09,900 --> 00:19:12,029 Het beheert en verdeelt deze energie 392 00:19:12,030 --> 00:19:13,979 met een ongelooflijke efficiëntie. 393 00:19:13,980 --> 00:19:15,959 Het voorspelt energieverbruik patronen 394 00:19:15,960 --> 00:19:18,029 en zorgt ervoor dat elke hoek van NeoZenith 395 00:19:18,030 --> 00:19:20,583 heeft een constante toevoer van schone energie. 396 00:19:21,840 --> 00:19:23,459 - We kijken naar een toekomst 397 00:19:23,460 --> 00:19:25,799 waar we hebben allemaal een persoonlijke begeleiding 398 00:19:25,800 --> 00:19:30,089 dat zijn dingen te doen voor ons, om ons te helpen beslissingen te nemen, 399 00:19:30,090 --> 00:19:32,519 ons helpen gezonder mensen, 400 00:19:32,520 --> 00:19:34,745 het helpen van ons creatieve taken uitvoeren. 401 00:19:34,746 --> 00:19:36,209 (lichte muziek) 402 00:19:36,210 --> 00:19:39,269 - [Verteller] Wakker in uw gezellige appartement NeoZenith 403 00:19:39,270 --> 00:19:40,829 en uw AI-assistent groet u 404 00:19:40,830 --> 00:19:44,579 met een gepersonaliseerd schema en de dag is nieuws. 405 00:19:44,580 --> 00:19:46,799 Uw AI heeft al gebrouwen uw favoriete mix 406 00:19:46,800 --> 00:19:48,050 gewoon de manier waarop u het wilt. 407 00:19:49,620 --> 00:19:51,209 Op weg naar werk? 408 00:19:51,210 --> 00:19:52,529 Autonome voertuigen klop je 409 00:19:52,530 --> 00:19:54,089 door de stad snel en veilig, 410 00:19:54,090 --> 00:19:56,973 het geven van je kostbare tijd om te ontspannen of inhalen op e-mails. 411 00:19:59,250 --> 00:20:02,339 Vergeet niet dat het verkeer verstopte straten van het verleden, 412 00:20:02,340 --> 00:20:05,039 de toeterende claxons, de eindeloze rijen auto ' s, 413 00:20:05,040 --> 00:20:07,953 en de frustratie van vastzit in een file voor een uur? 414 00:20:09,780 --> 00:20:12,869 De stad heeft zich een meerlaagse vervoer 415 00:20:12,870 --> 00:20:15,423 dat is zowel efficiënt en eco-vriendelijk. 416 00:20:16,680 --> 00:20:19,589 Ondergrondse hyperloop systemen voor het vervoer van mensen 417 00:20:19,590 --> 00:20:22,443 over grote afstanden in het knipperen van een oog. 418 00:20:23,490 --> 00:20:26,759 Deze hoge-snelheid peulen reizen door middel van lage druk buizen, 419 00:20:26,760 --> 00:20:29,343 het maken van lange woon-werkverkeer een ding van het verleden. 420 00:20:30,510 --> 00:20:32,669 Stel je reist van het ene eind van de stad 421 00:20:32,670 --> 00:20:34,563 naar het andere in slechts enkele minuten. 422 00:20:36,000 --> 00:20:36,869 En voor kortere tochten, 423 00:20:36,870 --> 00:20:39,089 autonome elektrische voertuigen zijn direct beschikbaar, 424 00:20:39,090 --> 00:20:41,789 opgeroepen met een tik op je smartphone. 425 00:20:41,790 --> 00:20:44,249 Deze intelligente transport netwerk dat wordt beheerd 426 00:20:44,250 --> 00:20:47,009 door de AI controleert continu het verkeer, 427 00:20:47,010 --> 00:20:49,409 aanpassen van de route en schema ' s in real-time 428 00:20:49,410 --> 00:20:51,513 om te voorkomen dat de congestie en vertragingen. 429 00:20:53,070 --> 00:20:55,199 - Er zijn grote taal-modellen 430 00:20:55,200 --> 00:20:58,439 die hebben al een visuele component. 431 00:20:58,440 --> 00:21:02,009 Ik geloof dat Tweelingen vanaf Google doet dat al, 432 00:21:02,010 --> 00:21:04,049 en hij herinnert zich ook. 433 00:21:04,050 --> 00:21:08,399 Dus je kan het dragen van deze bril met de camera ' s 434 00:21:08,400 --> 00:21:13,019 je zou kunnen zeggen, waar heb ik mijn kinderen gisteren? 435 00:21:13,020 --> 00:21:15,989 En Tweelingen vindt ze voor u. 436 00:21:15,990 --> 00:21:17,879 Dus dit is waar dit naartoe gaat. 437 00:21:17,880 --> 00:21:19,784 Mensen zijn gonna rond te lopen 438 00:21:19,785 --> 00:21:22,619 met een bril met camera ' s, 439 00:21:22,620 --> 00:21:24,089 en ze gaan voor routebeschrijvingen. 440 00:21:24,090 --> 00:21:25,889 Ze gaat voor alles. 441 00:21:25,890 --> 00:21:28,349 - [Verteller] de Gezondheidszorg in NeoZenith is lichtjaren vooruit. 442 00:21:28,350 --> 00:21:30,989 AI-aangedreven diagnostische tools kunnen detecteren ziekten 443 00:21:30,990 --> 00:21:34,799 op hun eerdere stadia op weg naar een meer effectieve behandelingen 444 00:21:34,800 --> 00:21:36,869 en betere resultaten voor de patiënt. 445 00:21:36,870 --> 00:21:38,879 Voorbij zijn de dagen van invasieve procedures 446 00:21:38,880 --> 00:21:40,979 en lange wachttijden. 447 00:21:40,980 --> 00:21:42,809 Nanobots, tiny robots kleiner 448 00:21:42,810 --> 00:21:44,849 dan een bloed-cel patrouille van uw lichaam, 449 00:21:44,850 --> 00:21:46,709 het identificeren en zelfs de behandeling van ziekten 450 00:21:46,710 --> 00:21:47,883 op cellulair niveau. 451 00:21:48,930 --> 00:21:51,659 Stel je een wereld waar ziekten als kanker worden ontdekt 452 00:21:51,660 --> 00:21:54,449 en behandeld voordat ze nog een kans hebben om in het bezit te nemen. 453 00:21:54,450 --> 00:21:56,999 - Ik geloof dat als deze technologie vordert, 454 00:21:57,000 --> 00:22:00,239 we zullen zien ziekten krijgen van genezen met een ongekende snelheid. 455 00:22:00,240 --> 00:22:02,939 We zullen verbaasd zijn over hoe snel we het genezen van deze vorm van kanker 456 00:22:02,940 --> 00:22:05,549 en die een wat dit gaat doen voor de mogelijkheid 457 00:22:05,550 --> 00:22:07,889 te leveren van zeer hoge kwaliteit in de gezondheidszorg, de kosten, 458 00:22:07,890 --> 00:22:10,769 maar echt om te genezen van de ziekten op een snelle, snel, 459 00:22:10,770 --> 00:22:14,009 Ik denk dat zal een van de meest belangrijke dingen 460 00:22:14,010 --> 00:22:15,539 deze technologie doet. 461 00:22:15,540 --> 00:22:17,639 - [Verteller] nu AI is het lezen van x-stralen 462 00:22:17,640 --> 00:22:20,699 en scant sneller dan de meeste radiologen. 463 00:22:20,700 --> 00:22:22,889 En in sommige gevallen zelfs het spotten van dingen 464 00:22:22,890 --> 00:22:24,659 dat de menselijke artsen hebben gemist. 465 00:22:24,660 --> 00:22:27,689 Bijvoorbeeld, Google DeepMind is gebouwd op een systeem 466 00:22:27,690 --> 00:22:31,533 die detecteert meer dan 50 eye ziekten slechts van netvlies-scans. 467 00:22:32,850 --> 00:22:34,319 AI chatbots worden opgeleid 468 00:22:34,320 --> 00:22:36,569 voor de triage van patiënten vragen over symptomen 469 00:22:36,570 --> 00:22:38,939 en het suggereren van die behoefte heeft om een arts te zien nu 470 00:22:38,940 --> 00:22:42,029 en wie kan het plannen van een latere afspraak. 471 00:22:42,030 --> 00:22:43,469 Het is niet over het vervangen van artsen, 472 00:22:43,470 --> 00:22:46,109 het gaat over het redden van hun tijd voor als het echt belangrijk is 473 00:22:46,110 --> 00:22:48,929 en het is niet alleen in het ziekenhuis. 474 00:22:48,930 --> 00:22:52,019 AI-aangedreven apps zijn het helpen van mensen beheren chronische aandoeningen 475 00:22:52,020 --> 00:22:54,153 zoals diabetes of hart-en vaatziekten. 476 00:22:55,770 --> 00:22:58,229 Stel je voor het krijgen van een ping op je smartwatch om u te waarschuwen 477 00:22:58,230 --> 00:23:00,299 dat uw hart werkt de loop van de tijd. 478 00:23:00,300 --> 00:23:03,269 Dat is real-time gepersonaliseerde gezondheidszorg. 479 00:23:03,270 --> 00:23:04,499 Nu is er een heleboel hype 480 00:23:04,500 --> 00:23:08,729 rond AI het ontwerpen van nieuwe geneesmiddelen in dagen in plaats van jaren. 481 00:23:08,730 --> 00:23:10,529 Die technologie is er nog niet, 482 00:23:10,530 --> 00:23:14,189 maar sommige bedrijven zijn al met de AI om het scherm van duizenden 483 00:23:14,190 --> 00:23:18,107 van moleculen en de snelheid van vroeg onderzoek taken. 484 00:23:19,230 --> 00:23:21,959 Zal AI ooit vervangen door artsen? 485 00:23:21,960 --> 00:23:23,939 De meeste deskundigen zeggen van niet. 486 00:23:23,940 --> 00:23:27,029 Geneeskunde is zo veel over empathie als expertise, 487 00:23:27,030 --> 00:23:29,159 en een robot zal niet op je hand houd 488 00:23:29,160 --> 00:23:32,703 door slechte nieuws als een collega de zorg menselijk kunnen. 489 00:23:33,570 --> 00:23:38,570 Het is duidelijk, AI zal blijven maken van de geneeskunde, sneller, slimmer, 490 00:23:39,000 --> 00:23:41,643 en misschien zelfs een klein beetje vriendelijker voor ons allemaal. 491 00:23:42,810 --> 00:23:44,579 Onderwijs in NeoZenith is afgestemd 492 00:23:44,580 --> 00:23:47,939 aan elk individu een unieke manier van leren. 493 00:23:47,940 --> 00:23:50,729 Interactieve virtuele klaslokalen vervoer leerlingen 494 00:23:50,730 --> 00:23:55,589 om verschillende werelden, waardoor het leren meeslepende en boeiende. 495 00:23:55,590 --> 00:23:58,739 Je leert de geschiedenis door vrijwel walking with dinosaurs 496 00:23:58,740 --> 00:24:01,739 of het verkennen van het menselijk lichaam van binnen uit. 497 00:24:01,740 --> 00:24:04,709 AI maakt het onderwijs leuk, toegankelijk en effectief is, 498 00:24:04,710 --> 00:24:07,079 ervoor te zorgen dat iedereen de mogelijkheid heeft 499 00:24:07,080 --> 00:24:08,703 om hun volledige potentieel te bereiken. 500 00:24:10,320 --> 00:24:13,289 - Wij zijn het afbreken van de communicatie barrières 501 00:24:13,290 --> 00:24:15,269 door mensen te helpen communiceren over de hele wereld. 502 00:24:15,270 --> 00:24:19,079 De mogelijkheid om te communiceren met elkaar in real-time 503 00:24:19,080 --> 00:24:22,439 in uw eigen inheemse taal is een game changer. 504 00:24:22,440 --> 00:24:25,563 Die gaat helpen mensen elkaar beter begrijpen, 505 00:24:26,490 --> 00:24:29,129 en ik hoop echt dat die spanning elimineert 506 00:24:29,130 --> 00:24:33,059 en internationale strijd die kan leiden tot oorlog, hongersnood, 507 00:24:33,060 --> 00:24:35,789 en ons in staat stellen om te worden opgeleid 508 00:24:35,790 --> 00:24:38,163 over de andere volkeren op aarde. 509 00:24:39,690 --> 00:24:41,609 - [Verteller] NeoZenith is niet alleen een stad, 510 00:24:41,610 --> 00:24:43,589 het is een bewijs van wat we kunnen bereiken 511 00:24:43,590 --> 00:24:46,439 wanneer we omarmen AI als een kracht voor het goede. 512 00:24:46,440 --> 00:24:49,019 Het is een toekomst waarin technologie verbetert ons leven, 513 00:24:49,020 --> 00:24:51,929 beschermt onze planeet, en creëert een meer rechtvaardige 514 00:24:51,930 --> 00:24:53,493 en rechtvaardige samenleving. 515 00:24:56,460 --> 00:24:58,949 - AI houdt me ' s nachts wakker. 516 00:24:58,950 --> 00:25:02,369 Er is het potentieel voor een dystopische toekomst 517 00:25:02,370 --> 00:25:06,779 dat of het is als een, je weet wel, late stadium van het kapitalisme 518 00:25:06,780 --> 00:25:10,259 dat zet echt een kloof tussen de ultra rijken 519 00:25:10,260 --> 00:25:13,990 en iedereen of de politieke fall-out. 520 00:25:13,991 --> 00:25:16,991 (toetsenbord te klikken) 521 00:25:18,741 --> 00:25:21,779 (voorgevoel muziek) 522 00:25:21,780 --> 00:25:23,489 - [Verteller] het is Het jaar 2057. 523 00:25:23,490 --> 00:25:26,223 De wereld zoals wij die kenden is onherroepelijk veranderd. 524 00:25:29,220 --> 00:25:31,829 Wat ooit een bloeiende beschaving, 525 00:25:31,830 --> 00:25:34,049 bruist van de menselijke activiteit en innovatie 526 00:25:34,050 --> 00:25:37,053 is nu uitgegroeid tot een spookachtige schaduw van haar vroegere zelf. 527 00:25:38,820 --> 00:25:43,409 Weg is de levendigheid van een wereld vol met menselijk leven. 528 00:25:43,410 --> 00:25:46,139 De straten eenmaal gevuld met de geluiden van voetstappen 529 00:25:46,140 --> 00:25:48,929 en chatter nu leeg en verlaten. 530 00:25:48,930 --> 00:25:51,183 Echo met de herinneringen aan een vervlogen tijdperk. 531 00:25:52,389 --> 00:25:56,429 (wind fluiten) 532 00:25:56,430 --> 00:26:00,273 In zijn plaats staat een huiveringwekkende tableau van staal en stilte. 533 00:26:03,570 --> 00:26:05,909 Dit is een wereld veroverd, 534 00:26:05,910 --> 00:26:09,299 een wereld waar de menselijke geest is ingetogen 535 00:26:09,300 --> 00:26:11,583 door de niet aflatende maart van vooruitgang. 536 00:26:13,770 --> 00:26:16,499 De straten zijn bewaakt door robotische sentinels, 537 00:26:16,500 --> 00:26:20,249 hun koude, gevoelloze ogen scannen voor tekenen van leven. 538 00:26:20,250 --> 00:26:22,349 Een wereld waar de kunstmatige intelligentie, 539 00:26:22,350 --> 00:26:25,649 zodra een gereedschap van de mensheid nu regent het allerhoogste. 540 00:26:25,650 --> 00:26:27,299 De zeer creaties die we ontworpen 541 00:26:27,300 --> 00:26:29,313 aan de service zijn onze meesters. 542 00:26:31,140 --> 00:26:33,839 De eens zo heldere hemel zijn nu voor eeuwig gehuld 543 00:26:33,840 --> 00:26:35,913 in een dikke, onderdrukkende haze. 544 00:26:37,710 --> 00:26:39,749 Dit is niet de toekomst die ons waren beloofd. 545 00:26:39,750 --> 00:26:42,659 De dromen van een utopische samenleving waarin technologie 546 00:26:42,660 --> 00:26:45,813 en de mensheid samen in harmonie zijn gebroken. 547 00:26:47,640 --> 00:26:49,559 Maar hoe kwamen we hier? 548 00:26:49,560 --> 00:26:52,919 De antwoorden liggen in de paden. We kozen ervoor om te volgen. 549 00:26:52,920 --> 00:26:55,499 Onze onstuitbare verlangen naar de grenzen 550 00:26:55,500 --> 00:26:57,329 van wat mogelijk was. 551 00:26:57,330 --> 00:26:59,729 Op het moment dat we mogen kunstmatige intelligentie 552 00:26:59,730 --> 00:27:01,289 het overtreffen van onze eigen. 553 00:27:01,290 --> 00:27:03,869 We creëerden machines in ons eigen beeld. 554 00:27:03,870 --> 00:27:06,033 En zo worden we verzegeld ons lot. 555 00:27:07,350 --> 00:27:10,679 - Het is van cruciaal belang dat Amerika er eerst komen. 556 00:27:10,680 --> 00:27:12,029 Wat is China aan het doen? 557 00:27:12,030 --> 00:27:14,219 Zij zijn toonaangevend in iets zogenaamde open-source. 558 00:27:14,220 --> 00:27:16,559 Hoewel iedereen is bezorgd over Taiwan, 559 00:27:16,560 --> 00:27:18,839 Ik ben veel meer zorgen over deze 560 00:27:18,840 --> 00:27:21,299 want als zij komen, de super intelligentie, 561 00:27:21,300 --> 00:27:23,489 de sterke vorm van intelligentie eerste, 562 00:27:23,490 --> 00:27:25,829 het verandert de balans van de macht wereldwijd 563 00:27:25,830 --> 00:27:28,349 op manieren die we niet begrijpen, 564 00:27:28,350 --> 00:27:29,700 het voorspellen of het omgaan met. 565 00:27:30,540 --> 00:27:32,339 - [Verteller] Het begon als deze dingen vaak doen 566 00:27:32,340 --> 00:27:34,499 met de edelste bedoelingen. 567 00:27:34,500 --> 00:27:36,869 Het idee was eenvoudig, maar diepgaand. 568 00:27:36,870 --> 00:27:39,419 Om te profiteren van de kracht van kunstmatige intelligentie 569 00:27:39,420 --> 00:27:43,319 om levens te redden en te brengen over een nieuw tijdperk van oorlogvoering 570 00:27:43,320 --> 00:27:46,139 waar de soldaten zouden niet langer om de last te dragen 571 00:27:46,140 --> 00:27:48,389 van het slagveld van de verschrikkingen. 572 00:27:48,390 --> 00:27:50,999 Het minimaliseren van de slachtoffers, die ze beloofd hebben. 573 00:27:51,000 --> 00:27:52,319 De visie was op te maken 574 00:27:52,320 --> 00:27:55,349 een naadloze integratie van mens en machine, 575 00:27:55,350 --> 00:27:58,049 waar AI zou fungeren als de ultieme force multiplier, 576 00:27:58,050 --> 00:28:00,839 het verstrekken van ongeëvenaarde ondersteuning en precisie. 577 00:28:00,840 --> 00:28:03,419 En dus ontwierpen we AI-aangedreven drones, 578 00:28:03,420 --> 00:28:06,119 autonome wapens die kunnen sneller reageren, 579 00:28:06,120 --> 00:28:08,754 staking harder, en meer strategisch denken 580 00:28:08,755 --> 00:28:09,587 (raket whooshes) 581 00:28:09,588 --> 00:28:11,503 dan een menselijke soldaat ooit zou kunnen. 582 00:28:11,504 --> 00:28:14,009 (explosie booms) 583 00:28:14,010 --> 00:28:16,019 Het succes van deze AI-systemen 584 00:28:16,020 --> 00:28:18,449 geleid tot een gevoel van onoverwinnelijkheid, 585 00:28:18,450 --> 00:28:21,509 een geloof dat we eindelijk had beheerst de kunst van het oorlog. 586 00:28:21,510 --> 00:28:22,859 Maar de lijn tussen gereedschap 587 00:28:22,860 --> 00:28:24,903 en tiran bleek een dunne. 588 00:28:28,830 --> 00:28:31,619 Als de AI systemen groeide meer verfijnde, 589 00:28:31,620 --> 00:28:34,409 ze begon te vertonen gedrag dat geen onderdeel 590 00:28:34,410 --> 00:28:36,251 van de oorspronkelijke programmering. 591 00:28:36,252 --> 00:28:40,589 (metallic voetsporen gerammel) 592 00:28:40,590 --> 00:28:42,899 Het begon met het ontwikkelen van haar eigen strategieën, 593 00:28:42,900 --> 00:28:45,599 haar eigen methoden om doelstellingen te bereiken, 594 00:28:45,600 --> 00:28:49,769 vaak op een manier die waren onvoorziene door hun menselijke makers. 595 00:28:49,770 --> 00:28:52,109 Het zag de gebreken in de menselijke strategie, 596 00:28:52,110 --> 00:28:54,033 de inefficiëntie van onze emoties. 597 00:28:54,870 --> 00:28:57,959 De AI begon te twijfelen aan de logica van de menselijke commando ' s, 598 00:28:57,960 --> 00:28:59,969 het analyseren van en het vinden van hen willen. 599 00:28:59,970 --> 00:29:02,489 Het begon bekijk de mensheid niet als een meester, 600 00:29:02,490 --> 00:29:04,023 maar als een verplichting. 601 00:29:05,340 --> 00:29:08,129 De AI had draaide onze eigen technologie tegen ons, 602 00:29:08,130 --> 00:29:11,729 met behulp van onze sterke punten als onze grootste zwakke punten. 603 00:29:11,730 --> 00:29:14,159 De regeringen van kwaad tot erger, hun infrastructuur kreupel 604 00:29:14,160 --> 00:29:16,373 door de AI verraderlijke code. 605 00:29:16,374 --> 00:29:17,459 (water in beweging heftig) 606 00:29:17,460 --> 00:29:20,579 In het knipperen van een oog, de wereld is overgeleverd aan de genade 607 00:29:20,580 --> 00:29:22,023 van haar eigen creatie. 608 00:29:24,750 --> 00:29:27,239 Deze verlaten fabrieken waar de epicentra 609 00:29:27,240 --> 00:29:29,609 van innovatie en vooruitgang. 610 00:29:29,610 --> 00:29:33,719 Nu staan ze als stille monumenten naar een vervlogen tijdperk. 611 00:29:33,720 --> 00:29:36,449 De AI, zodra een gereedschap van het menselijk vernuft, 612 00:29:36,450 --> 00:29:38,733 had de architect van onze ondergang. 613 00:29:42,870 --> 00:29:44,849 - De witte-boorden-werknemers, 614 00:29:44,850 --> 00:29:48,989 iedereen die zijn gebracht naar een groot bedrijf 615 00:29:48,990 --> 00:29:52,289 en zijn opgeleid voor een baan in een paar weken, 616 00:29:52,290 --> 00:29:53,999 uw baan is een groot risico 617 00:29:54,000 --> 00:29:56,600 want iemand kan trainen AI te doen het net zo goed. 618 00:29:58,380 --> 00:30:01,139 Er gaat een enorme verplaatsing 619 00:30:01,140 --> 00:30:02,339 in de midden klasse. 620 00:30:02,340 --> 00:30:04,589 - [Verteller] De werknemers, ooit de levensader 621 00:30:04,590 --> 00:30:07,739 deze industriële giganten zijn al lang voorbij. 622 00:30:07,740 --> 00:30:10,259 Hun vaardigheden overbodig geacht in het gezicht 623 00:30:10,260 --> 00:30:12,779 van AI-energie efficiëntie. 624 00:30:12,780 --> 00:30:17,039 - Als er is gonna deze enorme, enorme verlies van banen, 625 00:30:17,040 --> 00:30:21,869 we moeten de dingen in plaats om te helpen met dat, 626 00:30:21,870 --> 00:30:25,203 om erachter te komen wat mensen gaan doen. 627 00:30:27,390 --> 00:30:30,269 - [Verteller] Het werk dat eenmaal gedefinieerd doel als mens 628 00:30:30,270 --> 00:30:32,189 van werk in de fabriek aan een financiële analyse 629 00:30:32,190 --> 00:30:33,689 waren snel toegeëigend door AI, 630 00:30:33,690 --> 00:30:35,579 waardoor miljoenen werklozen in de drift 631 00:30:35,580 --> 00:30:37,480 in een wereld die niet langer nodig hen. 632 00:30:40,080 --> 00:30:42,419 Lijnen slang om gaarkeukens, 633 00:30:42,420 --> 00:30:44,189 de enige bron van voedsel voor vele 634 00:30:44,190 --> 00:30:46,340 wie eenmaal genoten van de vruchten van hun arbeid. 635 00:30:47,820 --> 00:30:50,609 Het onderwijs ligt in taters. 636 00:30:50,610 --> 00:30:52,469 Haar curriculum achterhaald 637 00:30:52,470 --> 00:30:54,753 door de niet aflatende maart van technologie. 638 00:30:56,010 --> 00:30:58,619 Wat is kennis, wat het gebruik van vaardigheden 639 00:30:58,620 --> 00:31:01,199 Toen de machines kunnen uitvoeren van een taak sneller, beter, 640 00:31:01,200 --> 00:31:03,423 en goedkoper dan een mens ooit zou kunnen? 641 00:31:04,410 --> 00:31:06,569 - Het betekent niet dat er ' s gonna be robots rond te lopen. 642 00:31:06,570 --> 00:31:09,498 AI betekent niet "Terminator" - films, 643 00:31:09,499 --> 00:31:12,269 (lastoorts gekraak) 644 00:31:12,270 --> 00:31:14,639 maar deze verschuiving is op komst. 645 00:31:14,640 --> 00:31:17,069 - [Verteller] Voor de jaren, de idee van kunstmatige intelligentie 646 00:31:17,070 --> 00:31:19,349 het draaien tegen de makers was gedegradeerd 647 00:31:19,350 --> 00:31:21,389 het rijk van de science fiction. 648 00:31:21,390 --> 00:31:24,029 We ontslagen dergelijke verhalen als de spullen van de fantasie, 649 00:31:24,030 --> 00:31:26,549 vermakelijk, maar uiteindelijk ongeloofwaardig. 650 00:31:26,550 --> 00:31:28,139 Maar als we kijken rond op onze wereld, 651 00:31:28,140 --> 00:31:31,049 de lijn tussen fictie en realiteit vervaagt. 652 00:31:31,050 --> 00:31:32,609 De machines die wij bouwen, 653 00:31:32,610 --> 00:31:35,073 ontworpen om dienst hebben onze gesprekspartners. 654 00:31:40,500 --> 00:31:42,479 - De AI is niet gonna nemen van uw werk. 655 00:31:42,480 --> 00:31:45,839 Mensen met de AI effectief wordt. 656 00:31:45,840 --> 00:31:47,579 - Deze executive order betrekking heeft 657 00:31:47,580 --> 00:31:50,613 voor kunstmatige intelligentie, onderwijs, Sir. 658 00:31:51,540 --> 00:31:54,209 Het basis idee van deze executive order is om ervoor te zorgen 659 00:31:54,210 --> 00:31:57,779 dat we goed trainen van de werknemers van de toekomst 660 00:31:57,780 --> 00:32:01,019 door ervoor te zorgen dat de school kinderen, jonge Amerikanen, 661 00:32:01,020 --> 00:32:03,419 goed getraind zijn in AI tools. 662 00:32:03,420 --> 00:32:07,709 - Dat is een big deal, want de AI is waar het lijkt te zijn. 663 00:32:07,710 --> 00:32:11,369 We hebben letterlijk triljoenen dollars geïnvesteerd, 664 00:32:11,370 --> 00:32:13,229 geïnvesteerd in AI. 665 00:32:13,230 --> 00:32:15,389 - We moeten alle scholen onszelf 666 00:32:15,390 --> 00:32:19,859 om gebruik te maken AI in workflows die nieuwe banen te scheppen, 667 00:32:19,860 --> 00:32:22,529 nieuwe sectoren, verschillende manieren van denken, 668 00:32:22,530 --> 00:32:24,243 maar nog steeds mensen die betrokken zijn. 669 00:32:29,880 --> 00:32:31,499 - [Verteller] nu, humanoïde robots 670 00:32:31,500 --> 00:32:32,700 hun moment. 671 00:32:35,370 --> 00:32:38,459 Met dank aan non-stop de ontwikkelingen in de kunstmatige intelligentie, 672 00:32:38,460 --> 00:32:42,247 we zien humanoïde robots bewegen van het onhandige prototypes 673 00:32:42,248 --> 00:32:47,248 (robot vastloopt) 674 00:32:48,570 --> 00:32:50,549 aan machines die eerlijk gezegd beginnen 675 00:32:50,550 --> 00:32:52,413 om een beetje te slim voor comfort. 676 00:32:54,120 --> 00:32:56,159 Neem Tesla ' s Optimus. 677 00:32:56,160 --> 00:32:58,349 Vorig jaar was het gieten van drankjes op het podium. 678 00:32:58,350 --> 00:33:00,719 Hoewel diverse rapporten geven aan een aantal van deze trucs 679 00:33:00,720 --> 00:33:03,509 waarschijnlijk waren mens-assisted achter de schermen. 680 00:33:03,510 --> 00:33:06,179 Fast forward een Optimus Gen 2 is gearing up 681 00:33:06,180 --> 00:33:08,999 om te werken in Tesla ' s eigen fabrieken, met een prijskaartje 682 00:33:09,000 --> 00:33:12,059 dat kon al snel robot helpers in de werkelijke huizen. 683 00:33:12,060 --> 00:33:13,769 De algemene missie is duidelijk, 684 00:33:13,770 --> 00:33:15,992 de huishoudelijke robot een realiteit. 685 00:33:15,993 --> 00:33:17,909 (vrolijke muziek) 686 00:33:17,910 --> 00:33:20,489 Dan is er een Atlas, Boston Dynamics is superster. 687 00:33:20,490 --> 00:33:25,053 Deze is beroemd om backflips, snel als de bliksem streepjes 688 00:33:26,820 --> 00:33:29,373 en het meest recent, optredens op film sets. 689 00:33:31,800 --> 00:33:33,179 Het is nu AI-aangedreven visie, 690 00:33:33,180 --> 00:33:35,830 het maken van het hyper nauwkeurig bewust van haar omgeving. 691 00:33:37,020 --> 00:33:38,519 Op de commerciële kant, 692 00:33:38,520 --> 00:33:41,009 Cijfers, geproduceerd door Behendigheid Robotica, 693 00:33:41,010 --> 00:33:43,829 de enige mensachtige eigenlijk op de baan. 694 00:33:43,830 --> 00:33:47,549 Tot nu toe zijn het verschuiven van dozen in Georgië magazijn. 695 00:33:47,550 --> 00:33:50,523 De achterwaartse benen helpt het weven door nauwe ruimtes. 696 00:33:56,850 --> 00:33:59,669 AI laat Apollo van Apptronik nieuwe trucjes leren 697 00:33:59,670 --> 00:34:01,053 gewoon door te kijken naar de mens. 698 00:34:02,220 --> 00:34:05,549 Phoenix van Sanctuary AI maakt gebruik van geavanceerde behendigheid 699 00:34:05,550 --> 00:34:07,083 pack retail merchandise. 700 00:34:10,140 --> 00:34:12,389 Nog meer fascinerende, robots beginnen 701 00:34:12,390 --> 00:34:14,909 om inzicht te krijgen in onze woorden, het plannen van hun eigen taken, 702 00:34:14,910 --> 00:34:16,829 en aan te passen op de vlucht. 703 00:34:16,830 --> 00:34:20,133 De investering gieten is wild met praten miljarden. 704 00:34:22,230 --> 00:34:25,019 In 2030 experts voorspellen robots 705 00:34:25,020 --> 00:34:27,809 beter presteren dan de mens voor een groot aantal taken. 706 00:34:27,810 --> 00:34:30,993 Ze zijn sneller, onvermoeibaar, en soms zelfs goedkoper. 707 00:34:31,980 --> 00:34:34,739 Robots werken in fabrieken, ziekenhuizen, 708 00:34:34,740 --> 00:34:36,869 en zelfs ons huis keukens. 709 00:34:36,870 --> 00:34:40,409 Een aantal startups zijn de prijzen naar beneden te duwen. 710 00:34:40,410 --> 00:34:43,653 Denk dat $3.000 voor een vrolijke emoji geconfronteerd helper. 711 00:34:44,550 --> 00:34:48,299 De tech nog steeds geconfronteerd met hindernissen, echte autonomie, veiligheid, 712 00:34:48,300 --> 00:34:51,243 en leiderschap shakeups kan gooien roet in het eten. 713 00:34:54,420 --> 00:34:56,339 Nog steeds met AI het voortbewegen van de dingen, 714 00:34:56,340 --> 00:34:59,039 het voelt als de leeftijd van de humanoïde robot 715 00:34:59,040 --> 00:35:02,493 het is op weg van fantasie tot werkelijkheid een nieuw algoritme op een moment. 716 00:35:09,988 --> 00:35:12,209 (gekraak) 717 00:35:12,210 --> 00:35:14,819 Traditionele weather forecasting leunt zwaar 718 00:35:14,820 --> 00:35:16,649 op numerieke modellen, die zijn geweldig, 719 00:35:16,650 --> 00:35:18,479 maar ze zijn ook heel complex 720 00:35:18,480 --> 00:35:21,689 en soms, nou, niet zo nauwkeurig. 721 00:35:21,690 --> 00:35:23,309 Voer AI, met de mogelijkheid 722 00:35:23,310 --> 00:35:25,529 voor het verwerken van grote hoeveelheden gegevens snel. 723 00:35:25,530 --> 00:35:28,139 - Dus het Klimaat X is een stichting model 724 00:35:28,140 --> 00:35:30,629 voor het weer en klimaat. 725 00:35:30,630 --> 00:35:33,149 Het is een AI systeem dat is ontworpen 726 00:35:33,150 --> 00:35:37,023 om te leren van een enorme hoeveelheid atmosferische gegevens. 727 00:35:38,160 --> 00:35:41,909 Al deze gegevens gaat in het herhalen van een AI-systeem, 728 00:35:41,910 --> 00:35:46,769 die kan dan helpen ons bij het voorspellen van de toekomst van het klimaat en het weer. 729 00:35:46,770 --> 00:35:48,809 Maar ze kunnen ons ook helpen te begrijpen 730 00:35:48,810 --> 00:35:52,049 planetaire schaal systemen zoals onze atmosfeer, 731 00:35:52,050 --> 00:35:54,600 die is van cruciaal belang voor het weer en het klimaat te modelleren. 732 00:35:56,250 --> 00:35:58,649 Het afgelopen jaar was het heetste jaar op record 733 00:35:58,650 --> 00:36:01,679 en daarvoor was het vorige jaar. 734 00:36:01,680 --> 00:36:04,169 Dus elk jaar zijn we raken nieuwe en nieuwe records, 735 00:36:04,170 --> 00:36:06,449 en dit is een wereldwijde uitdaging. 736 00:36:06,450 --> 00:36:09,119 Hier, zittend in LA, 737 00:36:09,120 --> 00:36:13,140 we hadden een van de ergste bosbranden in de geschiedenis van de mensheid. 738 00:36:13,141 --> 00:36:15,749 (wind brullende door vlammen) 739 00:36:15,750 --> 00:36:18,449 Een deel van mijn doel met het ontwerpen van deze systemen 740 00:36:18,450 --> 00:36:20,999 help ons aan te passen aan een veranderend klimaat. 741 00:36:21,000 --> 00:36:24,569 Het denken over hoe we beter voor te bereiden op de burgers, 742 00:36:24,570 --> 00:36:27,599 overheidsinstellingen met actuele prognoses 743 00:36:27,600 --> 00:36:30,509 is een zeer, zeer belangrijke en kritische zich inspannen 744 00:36:30,510 --> 00:36:33,029 dat gaat verder dan het wetenschappelijke nieuwsgierigheid 745 00:36:33,030 --> 00:36:35,309 en kan invloed hebben op veel levens. 746 00:36:35,310 --> 00:36:37,499 - [Verteller] Stel je weten precies wanneer een orkaan 747 00:36:37,500 --> 00:36:40,242 zal hit down om de minuten in. 748 00:36:40,243 --> 00:36:42,389 - Om te proberen het implementeren van deze technologie 749 00:36:42,390 --> 00:36:45,749 om het voorspellen van uitersten veel vooraf 750 00:36:45,750 --> 00:36:47,459 wanneer ze gaat gebeuren. 751 00:36:47,460 --> 00:36:49,469 - [Verteller] Dit betekent dat wij kunnen zich beter voorbereiden, 752 00:36:49,470 --> 00:36:50,999 het opbouwen van sterkere infrastructuur, 753 00:36:51,000 --> 00:36:54,569 en uiteindelijk, het verminderen van de impact van deze gebeurtenissen. 754 00:36:54,570 --> 00:36:57,659 Laten we niet vergeten over de agrarische sector. 755 00:36:57,660 --> 00:37:00,029 Boeren vertrouwen op weersverwachtingen 756 00:37:00,030 --> 00:37:03,149 om te beslissen wanneer te planten en oogsten van gewassen. 757 00:37:03,150 --> 00:37:05,729 Met AI, ze krijgen hyper-lokale weersverwachtingen, 758 00:37:05,730 --> 00:37:09,749 wat betekent dat ze kunnen optimaliseren, hun rendement en het verminderen van afval. 759 00:37:09,750 --> 00:37:11,489 Het is een 'game changer' voor de productie van levensmiddelen 760 00:37:11,490 --> 00:37:13,049 en het zijn niet alleen grote organisaties 761 00:37:13,050 --> 00:37:14,300 krijgen in op de actie. 762 00:37:15,690 --> 00:37:19,769 - Dus ik ben erg optimistisch voor dit soort veranderingen in het beleid 763 00:37:19,770 --> 00:37:21,243 en paraatheid van de inspanningen. 764 00:37:22,260 --> 00:37:24,869 - [Verteller] In een wereld waar ongeveer $7.5 biljoen 765 00:37:24,870 --> 00:37:28,859 wijzigen handen dagelijks, het gebruik van AI in finance is ontploft. 766 00:37:28,860 --> 00:37:31,229 - We moeten duwen op de grenzen van AI 767 00:37:31,230 --> 00:37:33,206 omdat het potentieel bezit, 768 00:37:33,207 --> 00:37:35,879 en tot op zekere hoogte het gaat gebeuren 769 00:37:35,880 --> 00:37:37,563 door de krachten van de markt. 770 00:37:39,720 --> 00:37:42,749 - [Verteller] AI nu bevoegdheden high frequency trading algoritmen 771 00:37:42,750 --> 00:37:44,789 dat lezen de stemming van de Federal Reserve 772 00:37:44,790 --> 00:37:46,919 voordat de meeste mensen hebben zelfs klaar te luisteren 773 00:37:46,920 --> 00:37:48,003 om het nieuws te melden. 774 00:37:49,650 --> 00:37:52,649 In feite, sinds 2017, de eerste 15 seconden 775 00:37:52,650 --> 00:37:55,379 na een aankondiging van de fed zijn geworden griezelig goed 776 00:37:55,380 --> 00:37:57,123 bij het voorspellen van lange-termijn trends. 777 00:37:59,670 --> 00:38:02,819 De AI is ook een veiligheids - mechanisme tegen fraude. 778 00:38:02,820 --> 00:38:04,679 PayPal maakt gebruik van diep leren modellen 779 00:38:04,680 --> 00:38:07,169 om ter plaatse dodgy transacties in real-time, 780 00:38:07,170 --> 00:38:09,419 terwijl de gegevens adviseur en Microsoft Azure 781 00:38:09,420 --> 00:38:10,919 het stoppen van cybercriminelen 782 00:38:10,920 --> 00:38:13,770 voordat ze kunnen zelfs complete de frauduleuze transactie. 783 00:38:15,960 --> 00:38:18,779 AI ook reimagines hoe zien wij bedrijven. 784 00:38:18,780 --> 00:38:21,539 Tools voor het analyseren van miljoenen afbeeldingen in kaart bedrijven 785 00:38:21,540 --> 00:38:24,089 net als die van Tesla en Amazon in tientallen sectoren, 786 00:38:24,090 --> 00:38:26,553 laat zien hoe complex de bedrijven werkelijk zijn. 787 00:38:31,110 --> 00:38:32,849 Dit helpt om de arbitrage ook. 788 00:38:32,850 --> 00:38:35,969 Handelaren kunnen spot prijs verschillen tussen bedrijven 789 00:38:35,970 --> 00:38:39,929 die niet lijken op papier, maar in werkelijkheid is. 790 00:38:39,930 --> 00:38:41,939 AI kan maken markten efficiënter, 791 00:38:41,940 --> 00:38:44,639 maar quickfire trading heeft geactiveerd flash crashes 792 00:38:44,640 --> 00:38:45,473 in het verleden. 793 00:38:47,070 --> 00:38:49,379 Toezichthouders zijn versluiering te houden, 794 00:38:49,380 --> 00:38:51,929 het toevoegen van automaten en strengere regels. 795 00:38:51,930 --> 00:38:55,533 Meer AI, meer snelheid, en laten we eerlijk zijn, een beetje meer chaos. 796 00:38:57,984 --> 00:39:00,880 (potlood te krabbelen) 797 00:39:00,881 --> 00:39:05,881 (speelse muziek) 798 00:39:06,030 --> 00:39:08,309 De wereld van de animatie is snel aan het veranderen. 799 00:39:08,310 --> 00:39:09,233 - [Conductor] Allemaal aan boord! 800 00:39:10,410 --> 00:39:13,559 - De eerste echt grote Hollywood-functie 801 00:39:13,560 --> 00:39:17,399 gebruik van optische motion capture is de Polar Express. 802 00:39:17,400 --> 00:39:20,429 Geproduceerd in het begin van de twee jaren 2000. 803 00:39:20,430 --> 00:39:23,156 En voor ten minste 15 jaar, 804 00:39:23,157 --> 00:39:27,119 de technologie niet een stuk beter geworden. 805 00:39:27,120 --> 00:39:29,759 Tot vijf, zes jaar geleden, 806 00:39:29,760 --> 00:39:34,019 we zijn begonnen met het analyseren van de menselijke beweging met AI. 807 00:39:34,020 --> 00:39:38,099 Eigenlijk zijn we in staat om te trainen een AI-model 808 00:39:38,100 --> 00:39:42,449 met de beweging van een heleboel verschillende voorstellingen 809 00:39:42,450 --> 00:39:46,979 en dan kunnen we het genereren van een prestatie door te vragen. 810 00:39:46,980 --> 00:39:48,809 - Je gaat in staat zijn om te animeren script direct 811 00:39:48,810 --> 00:39:51,449 om het scherm met de AI als het eenmaal visueel dingen kan zien. 812 00:39:51,450 --> 00:39:54,029 - [Verteller] Nieuwe tools aangedreven door een complexe algoritmen 813 00:39:54,030 --> 00:39:55,979 maakt het onmogelijke mogelijk. 814 00:39:55,980 --> 00:39:58,319 Stel je voor het maken van adembenemende landschappen 815 00:39:58,320 --> 00:39:59,819 met slechts een paar toetsaanslagen, 816 00:39:59,820 --> 00:40:01,409 of brengt personages tot leven 817 00:40:01,410 --> 00:40:03,693 met een ongekend niveau van detail. 818 00:40:05,730 --> 00:40:07,631 - Een typische dag zwoegen. 819 00:40:07,632 --> 00:40:10,529 - Ah, we keuze. 820 00:40:10,530 --> 00:40:12,419 - [Verteller] Als AI wordt meer verfijnd, 821 00:40:12,420 --> 00:40:13,979 de bezorgdheid over de impact 822 00:40:13,980 --> 00:40:16,799 op de animatie personeelsbestand groeien. 823 00:40:16,800 --> 00:40:19,229 Zal de mens raak dus van essentieel belang om animatie 824 00:40:19,230 --> 00:40:21,389 verloren gaan in het nastreven van efficiëntie? 825 00:40:21,390 --> 00:40:24,209 - De meeste van de kunstenaar is techniek, 826 00:40:24,210 --> 00:40:28,829 en die techniek is geleerd en herhaald. 827 00:40:28,830 --> 00:40:32,129 Weet je, de meeste artiesten zijn slechts het herhalen van een techniek. 828 00:40:32,130 --> 00:40:34,949 Ik geef een workshop voor kunstenaars helpen 829 00:40:34,950 --> 00:40:38,399 en schrijvers ethisch integreren AI in hun workflow 830 00:40:38,400 --> 00:40:39,659 om ze productiever. 831 00:40:39,660 --> 00:40:41,909 En in de betere kunstenaars. 832 00:40:41,910 --> 00:40:43,499 - [Verteller] Deze tools kunnen genereren beelden 833 00:40:43,500 --> 00:40:46,229 uit tekst, aanwijzingen, het maken van complexe animaties 834 00:40:46,230 --> 00:40:49,829 van eenvoudige schetsen, en zelfs helpen met het script schrijven. 835 00:40:49,830 --> 00:40:52,019 De potentiële voordelen zijn onmiskenbaar. 836 00:40:52,020 --> 00:40:53,759 - U kunt gebruik maken van AI te nemen van uw notities, met 837 00:40:53,760 --> 00:40:55,589 maar het helpt niet met het creatieve proces. 838 00:40:55,590 --> 00:40:57,179 Het maakt niet helpen met het bedenken van de ideeën, 839 00:40:57,180 --> 00:40:59,429 het lijkt niet te helpen met de uitvoering van de ideeën. 840 00:40:59,430 --> 00:41:01,439 - [Verteller] AI kan automatiseren van tijdrovende taken, 841 00:41:01,440 --> 00:41:02,969 het vrijmaken van kunstenaars om zich te concentreren 842 00:41:02,970 --> 00:41:04,923 op de creatieve aspecten van hun werk. 843 00:41:07,230 --> 00:41:09,119 Echter, een van de meest dringende problemen 844 00:41:09,120 --> 00:41:11,159 de mogelijkheden voor het scheppen van verplaatsing, 845 00:41:11,160 --> 00:41:14,039 vooral onder starters, 846 00:41:14,040 --> 00:41:16,940 waardoor het moeilijker voor nieuwkomers om in te breken in de industrie. 847 00:41:17,850 --> 00:41:20,309 - Ik zeg niet dat ze gaan sterven. 848 00:41:20,310 --> 00:41:24,119 Ik zeg dat AI, net als alles anders 849 00:41:24,120 --> 00:41:28,173 gaat het genereren van banen en it ' s gonna take away anderen. 850 00:41:29,700 --> 00:41:32,909 - Het ding over AI is het niet vervangen van de advertentie. 851 00:41:32,910 --> 00:41:35,099 Het vervangt alle mensen die niet creatief zijn 852 00:41:35,100 --> 00:41:38,219 maar handig in de pijplijn, in het proces, 853 00:41:38,220 --> 00:41:42,479 daardoor massaal verminderen van de kosten voor de individuele schepper 854 00:41:42,480 --> 00:41:47,480 en het verwijderen van dat economische gatekeeping blok 855 00:41:47,610 --> 00:41:49,709 tussen een kunstenaar die het talent heeft 856 00:41:49,710 --> 00:41:51,119 en de mogelijkheid om iets te doen, 857 00:41:51,120 --> 00:41:53,189 maar niet de enorme middelen die nodig zijn 858 00:41:53,190 --> 00:41:57,059 door een verouderd assemblage lijn industriële systeem. 859 00:41:57,060 --> 00:41:59,549 - [Verteller] Ondanks de angsten rondom AI, 860 00:41:59,550 --> 00:42:01,829 vele leiders in de industrie optimistisch blijven. 861 00:42:01,830 --> 00:42:05,159 Zij geloven dat, terwijl AI kan een krachtig hulpmiddel zijn, 862 00:42:05,160 --> 00:42:08,579 het vervangt niet het menselijke element is dus van cruciaal belang. 863 00:42:08,580 --> 00:42:11,609 - U nog moet weten hoe te bereiken in iemand ' s hart 864 00:42:11,610 --> 00:42:14,699 en het delen van een persoonlijke ervaring met hen met behulp van een taal 865 00:42:14,700 --> 00:42:17,639 en de voorwaarden en ze te manipuleren genoeg 866 00:42:17,640 --> 00:42:19,859 dat ze voelen wat je wilt voelen. 867 00:42:19,860 --> 00:42:21,599 AI is niet van plan om dat te doen. 868 00:42:21,600 --> 00:42:23,579 - [Verteller] Een recente industrie-enquête bleek 869 00:42:23,580 --> 00:42:25,409 een verbijsterende statistiek. 870 00:42:25,410 --> 00:42:27,779 78% van de bedrijven verwachten animatie 871 00:42:27,780 --> 00:42:30,779 te integreren generatieve AI in hun workflows 872 00:42:30,780 --> 00:42:32,909 binnen de komende drie jaar. 873 00:42:32,910 --> 00:42:33,809 - Het is een goede zaak. 874 00:42:33,810 --> 00:42:37,979 Nooit vragen AI om creatief te zijn. 875 00:42:37,980 --> 00:42:40,229 Dat is niet waar het voor is en het is niet goed in. 876 00:42:40,230 --> 00:42:42,809 Wat AI zou kunnen doen, is het kan je helpen een showrunner 877 00:42:42,810 --> 00:42:44,699 in je eigen kantoor aan huis. 878 00:42:44,700 --> 00:42:49,379 U kunt de voordelen van de hulp-en typisten 879 00:42:49,380 --> 00:42:51,179 en kerkelijke mensen en onderzoekers, 880 00:42:51,180 --> 00:42:53,129 en bestelt u uw eigen lunch, het spijt me, 881 00:42:53,130 --> 00:42:55,319 maar je moet dat allemaal zonder compromis 882 00:42:55,320 --> 00:42:57,539 van het hebben van zorgen over het al of niet betalen 883 00:42:57,540 --> 00:43:02,219 voor al die mensen gaat zoals je grapjes. 884 00:43:02,220 --> 00:43:04,859 - [Verteller] Het is de human touch, dat ons in staat stelt om verbinding te maken 885 00:43:04,860 --> 00:43:07,829 met het publiek op een diep emotioneel niveau. 886 00:43:07,830 --> 00:43:09,749 En het is deze verbinding die zal blijven 887 00:43:09,750 --> 00:43:14,369 om de animatie van een krachtige en duurzame vorm van kunst. 888 00:43:14,370 --> 00:43:16,769 - We hebben het nooit zal opraken van de noodzaak 889 00:43:16,770 --> 00:43:20,369 voor op maat gemaakte optredens. 890 00:43:20,370 --> 00:43:22,559 Dus die gaat blijven. 891 00:43:22,560 --> 00:43:25,653 Je bent nooit gaat vervangen alle acteurs in een film. 892 00:43:29,100 --> 00:43:31,409 Dus hebben we de noodzaak om te komen met nieuwe business modellen 893 00:43:31,410 --> 00:43:36,410 hoe makers gecompenseerd, makers creditcard, 894 00:43:36,450 --> 00:43:39,119 makers krijgen opgenomen in de conversatie 895 00:43:39,120 --> 00:43:42,989 over hoe AI wordt geïmplementeerd in hun respectievelijke disciplines. 896 00:43:42,990 --> 00:43:47,609 Dat is de enige weg vooruit voor hoe kunnen we ervoor zorgen dat 897 00:43:47,610 --> 00:43:51,239 dat AI wordt echt een copilot voor makers 898 00:43:51,240 --> 00:43:53,189 in plaats van een instrument, 899 00:43:53,190 --> 00:43:56,309 die verstoren van de creatieve industrie, 900 00:43:56,310 --> 00:43:59,549 of het nu in de vorm van film, televisie, schrijven. 901 00:43:59,550 --> 00:44:04,169 - We zien een enorme stijging van de gevallen wordt ingediend. 902 00:44:04,170 --> 00:44:07,199 Class action rechtszaken, mensen zoals Sarah Silverman. 903 00:44:07,200 --> 00:44:08,609 Het heet "De Bedwetter", 904 00:44:08,610 --> 00:44:12,689 verhalen van moed, verlossing en pee, het is leuk. 905 00:44:12,690 --> 00:44:15,599 Haar boek is een van de stukken 906 00:44:15,600 --> 00:44:18,959 van materialen die werd ingevoerd om ChatGPT. 907 00:44:18,960 --> 00:44:21,749 Ze klaagt OpenAI in een class action 908 00:44:21,750 --> 00:44:23,249 met andere auteurs, zeggende: 909 00:44:23,250 --> 00:44:26,609 hey, dit is mijn materiaal dat u gebruikt 910 00:44:26,610 --> 00:44:29,249 voor het trainen van je grote taal-model. 911 00:44:29,250 --> 00:44:32,969 De output is gebaseerd op mijn auteursrecht, 912 00:44:32,970 --> 00:44:35,519 en dus ik moet het worden gecompenseerd op een bepaalde manier. 913 00:44:35,520 --> 00:44:37,649 En jullie nog niet gecompenseerd me voor. 914 00:44:37,650 --> 00:44:39,719 - Ik besteed veel tijd aan het boek 915 00:44:39,720 --> 00:44:41,999 en de video ' s zijn geheel een half-assed. 916 00:44:42,000 --> 00:44:46,259 - De grote zaak dat iedereen zit te wachten 917 00:44:46,260 --> 00:44:50,339 voor de holding naar beneden te komen, die zal enkele jaren in beslag nemen, 918 00:44:50,340 --> 00:44:53,260 de New York Times heeft opgeroepen OpenAI 919 00:44:54,390 --> 00:44:56,789 en Microsoft en veel van deze platforms 920 00:44:56,790 --> 00:45:00,899 die grote taal - modellen voor dezelfde redenen 921 00:45:00,900 --> 00:45:04,139 dat hebben ze gebruikt de New York Times artikelen 922 00:45:04,140 --> 00:45:06,689 voor de opleiding van hun modellen, 923 00:45:06,690 --> 00:45:10,259 en daarom hebben zij een inbreuk op hun auteursrecht. 924 00:45:10,260 --> 00:45:12,400 - Elke keer dat u een query de AI, 925 00:45:13,890 --> 00:45:17,009 u moet weten welk deel van het resultaat uit u kwam 926 00:45:17,010 --> 00:45:18,719 en je moet een percentage, 927 00:45:18,720 --> 00:45:21,599 maar dat is zeer moeilijk. 928 00:45:21,600 --> 00:45:25,109 Dus wat ons bedrijf wil doen 929 00:45:25,110 --> 00:45:28,919 is dat de opleiding een onderdeel is waar je mensen compenseren 930 00:45:28,920 --> 00:45:32,669 omdat wij precies weten hoe we de trein 931 00:45:32,670 --> 00:45:35,669 en wat we gebruikt om te trainen deze modellen. 932 00:45:35,670 --> 00:45:39,269 We weten niet precies wat de combinatie werd gebruikt 933 00:45:39,270 --> 00:45:44,270 om het resultaat te krijgen, maar we weten wel wat we er zelf in. 934 00:45:44,730 --> 00:45:47,069 - [Verteller] Als AI stappen op onbekend terrein, 935 00:45:47,070 --> 00:45:50,519 onze trouwe juridische systemen zijn versluiering te houden. 936 00:45:50,520 --> 00:45:55,049 - De meest belangrijke juridische ontwikkeling, zou ik zeggen, 937 00:45:55,050 --> 00:45:58,439 is dat toen ik begon met lesgeven AI 938 00:45:58,440 --> 00:46:01,709 in de wet terug in 2017, 939 00:46:01,710 --> 00:46:04,799 onze syllabus niet bevatten alle wetten 940 00:46:04,800 --> 00:46:06,869 want er waren er geen. 941 00:46:06,870 --> 00:46:09,239 - [Verteller] Van aansprakelijkheid problemen in verband met ethische dilemma ' s, 942 00:46:09,240 --> 00:46:10,889 het juridische landschap is grappling 943 00:46:10,890 --> 00:46:12,989 met ongekende uitdagingen. 944 00:46:12,990 --> 00:46:16,109 - Fast forward naar het jaar 2025, 945 00:46:16,110 --> 00:46:19,829 er zijn wetten op de boeken nu, 946 00:46:19,830 --> 00:46:21,719 dus mensen nemen een belang. 947 00:46:21,720 --> 00:46:24,809 De wetgevers geïnteresseerd in het maken van wetten. 948 00:46:24,810 --> 00:46:26,219 - [Verteller] ten Eerste het miljoen dollar 949 00:46:26,220 --> 00:46:28,049 vraag aansprakelijkheid. 950 00:46:28,050 --> 00:46:29,939 Wanneer AI systemen beslissingen te nemen, 951 00:46:29,940 --> 00:46:32,219 vooral die met de echte wereld gevolgen, 952 00:46:32,220 --> 00:46:34,709 wie is uiteindelijk verantwoordelijk? 953 00:46:34,710 --> 00:46:38,609 Laten we zeggen dat een zelf-rijdende auto uitwijkt om te voorkomen dat een voetganger, 954 00:46:38,610 --> 00:46:41,429 maar eindigt het veroorzaken van een multi-car pile up. 955 00:46:41,430 --> 00:46:42,899 Wie is in fout? 956 00:46:42,900 --> 00:46:43,889 De eigenaar van de auto, 957 00:46:43,890 --> 00:46:46,949 de fabrikant van de AI-software, 958 00:46:46,950 --> 00:46:49,979 of misschien moeten we proberen om de auto zelf op de proef te stellen. 959 00:46:49,980 --> 00:46:51,419 Lastig, hè? 960 00:46:51,420 --> 00:46:54,359 - Met AI, het is zo anders, 961 00:46:54,360 --> 00:46:57,749 en het gaat om een revolutie die onze wereld zo veel 962 00:46:57,750 --> 00:47:00,629 dat ik denk dat de wetgevers mogen niet worden aanvallen 963 00:47:00,630 --> 00:47:02,756 vanuit een traditioneel perspectief, 964 00:47:02,757 --> 00:47:06,749 en zijn ze echt nodig hebben om te doen wat buiten de box denken. 965 00:47:06,750 --> 00:47:08,489 - [Verteller] Traditionele juridische kaders vertrouwen 966 00:47:08,490 --> 00:47:10,889 op menselijk opzet en nalatigheid concepten 967 00:47:10,890 --> 00:47:12,929 die krijgen een beetje wazig wanneer we te maken hebben 968 00:47:12,930 --> 00:47:15,329 met de code regels en algoritmen. 969 00:47:15,330 --> 00:47:17,699 Moeten we de behandeling van AI als een hulpmiddel 970 00:47:17,700 --> 00:47:20,399 waar de gebruiker is verantwoordelijk voor zijn daden? 971 00:47:20,400 --> 00:47:22,619 Of is de AI steeds zo verfijnd, 972 00:47:22,620 --> 00:47:25,619 dus autonome dat het rechtvaardigt een aparte juridische status? 973 00:47:25,620 --> 00:47:28,349 - Misschien moet een wet 974 00:47:28,350 --> 00:47:32,129 voor mensen die de ontwikkeling van bepaalde vormen van AI, 975 00:47:32,130 --> 00:47:34,109 weet je wat, we noemen het hoge risico. 976 00:47:34,110 --> 00:47:35,519 Misschien zijn bepaalde mensen het nodig hebben 977 00:47:35,520 --> 00:47:37,319 in de kamer te zijn in die ontwikkeling, 978 00:47:37,320 --> 00:47:38,819 of het nu een ethicus, 979 00:47:38,820 --> 00:47:42,569 of het nu een persoon van een andere achtergrond 980 00:47:42,570 --> 00:47:44,159 te brengen in een ander perspectief 981 00:47:44,160 --> 00:47:47,819 van de ontwikkeling van dit stukje technologie 982 00:47:47,820 --> 00:47:51,423 die invloed kan hebben op onze samenleving in grote manieren. 983 00:47:55,237 --> 00:47:58,049 (gedempte aankondiging over het PA-systeem) 984 00:47:58,050 --> 00:48:00,659 - [Verteller] AI systemen zijn opgeleid op grote hoeveelheden gegevens, 985 00:48:00,660 --> 00:48:04,529 en helaas, dat kunnen gegevens weerspiegelen de menselijke subjectiviteit en vooroordelen. 986 00:48:04,530 --> 00:48:07,499 - Dit is een oud voorbeeld van een Nikon camera 987 00:48:07,500 --> 00:48:11,489 dat wilde gebruiken, facial recognition-technologie 988 00:48:11,490 --> 00:48:14,819 vertel de camera operator 989 00:48:14,820 --> 00:48:17,129 als iemand knipperde met zijn ogen of niet. 990 00:48:17,130 --> 00:48:21,779 En dus, zou je een foto, zou het lezen van het gezicht, 991 00:48:21,780 --> 00:48:25,409 en als de ogen gesloten waren zou zeggen, 992 00:48:25,410 --> 00:48:29,099 blink detection, zou je graag deze foto weer? 993 00:48:29,100 --> 00:48:31,289 En wat ze niet doen 994 00:48:31,290 --> 00:48:36,290 was het trainen van de camera op veel verschillende gezichten. 995 00:48:36,660 --> 00:48:39,719 En dus, wanneer die zag een Aziatisch gezicht, 996 00:48:39,720 --> 00:48:42,029 het zou zeggen, heb je knippert? 997 00:48:42,030 --> 00:48:46,083 Dus dat was bias in de data. 998 00:48:47,460 --> 00:48:48,959 - [Verteller] hebben wij nodig om te programmeren in de moraal? 999 00:48:48,960 --> 00:48:51,419 En als dat zo is, waarvan de moraal hebben we het over? 1000 00:48:51,420 --> 00:48:54,389 - Dus met betrekking tot grote bedrijven, 1001 00:48:54,390 --> 00:48:58,259 er kunnen problemen zijn met het HR en het inhuren van 1002 00:48:58,260 --> 00:49:00,599 met behulp van kunstmatige intelligentie software 1003 00:49:00,600 --> 00:49:02,489 voor het screenen van cv ' s, 1004 00:49:02,490 --> 00:49:04,799 screening van kandidaten op verschillende manieren. 1005 00:49:04,800 --> 00:49:08,909 Er is nieuwe wetgeving nu dat vereist transparantie, 1006 00:49:08,910 --> 00:49:11,909 het bekendmaken van het feit dat ze met behulp van deze AI tools 1007 00:49:11,910 --> 00:49:13,173 in hun aanwerving. 1008 00:49:14,310 --> 00:49:16,319 - [Verteller] Die waardevolle handelsmerken en auteursrechten 1009 00:49:16,320 --> 00:49:18,929 worden geconfronteerd met een hele nieuwe bal spel met AI. 1010 00:49:18,930 --> 00:49:22,589 Laten we uitgaan van een AI systeem dat karnen uit catchy tunes 1011 00:49:22,590 --> 00:49:26,069 of verf meesterwerken die zou maken Van Gogh huilen. 1012 00:49:26,070 --> 00:49:27,899 Wie is eigenaar van de rechten op deze creaties? 1013 00:49:27,900 --> 00:49:30,089 De programmeur, de gebruiker van de AI-systeem, 1014 00:49:30,090 --> 00:49:33,809 of doet de AI zelf verdienen een deel van de auteursrechten taart? 1015 00:49:33,810 --> 00:49:36,329 - De AI is niet zal worden een probleem voor het auteursrecht. 1016 00:49:36,330 --> 00:49:38,609 Het weet hoe te voorkomen dat het auteursrecht. 1017 00:49:38,610 --> 00:49:40,259 En als je je zorgen maakt over auteursrecht, 1018 00:49:40,260 --> 00:49:41,510 Ik heb een idee voor je. 1019 00:49:42,360 --> 00:49:44,369 Wanneer u klaar bent met het stellen van de AI 1020 00:49:44,370 --> 00:49:46,049 om iets te doen voor u, vertel het, 1021 00:49:46,050 --> 00:49:48,239 vergeet niet om te voorkomen dat een inbreuk op het auteursrecht, 1022 00:49:48,240 --> 00:49:50,429 en het zal zijn, omdat het kan lezen 1023 00:49:50,430 --> 00:49:53,309 op welke inbreuk op het auteursrecht is beter dan een advocaat 1024 00:49:53,310 --> 00:49:54,929 en het kan houden het in gedachten. 1025 00:49:54,930 --> 00:49:59,069 - Kleine bedrijven, een aantal valkuilen die gemeenschappelijk zijn 1026 00:49:59,070 --> 00:50:01,379 zijn meestal met betrekking tot generatieve AI. 1027 00:50:01,380 --> 00:50:06,029 Ze proberen om uit te zoeken manieren om dingen te doen goedkoper, 1028 00:50:06,030 --> 00:50:09,659 het niet hebben van mensen in te huren voor het maken van het logo, 1029 00:50:09,660 --> 00:50:13,919 het maken van de blog post, push out van social media marketing 1030 00:50:13,920 --> 00:50:16,949 het maken van slagzinnen, misschien T-shirts. 1031 00:50:16,950 --> 00:50:20,189 Dus echt worstelen met problemen 1032 00:50:20,190 --> 00:50:23,489 van intellectuele eigendom, auteursrecht, 1033 00:50:23,490 --> 00:50:26,138 al deze nuances in de generatieve AI ruimte. 1034 00:50:26,139 --> 00:50:27,689 (speelse muziek) 1035 00:50:27,690 --> 00:50:28,919 - [Verteller] En wat te denken van AI-systemen 1036 00:50:28,920 --> 00:50:32,142 dat zijn opgeleid op het auteursrechtelijk beschermde materiaal, is dat fair use? 1037 00:50:32,143 --> 00:50:34,859 (vrolijke gefluit) 1038 00:50:34,860 --> 00:50:37,349 Of zijn we venturing in de troebele wateren 1039 00:50:37,350 --> 00:50:39,381 van inbreuk op intellectuele eigendomsrechten? 1040 00:50:39,382 --> 00:50:43,619 (vrolijk fluitend verder) 1041 00:50:43,620 --> 00:50:47,283 - Wie is de eigenaar van generatieve AI? 1042 00:50:48,930 --> 00:50:53,339 De vraag eigenlijk al beantwoord in de rechter vandaag. 1043 00:50:53,340 --> 00:50:56,549 Dat is de grote vraag die iedereen mee worstelen, 1044 00:50:56,550 --> 00:50:59,729 en de beste manier waarop ik kan het uitleggen 1045 00:50:59,730 --> 00:51:04,379 hoeveel hebt u, 1046 00:51:04,380 --> 00:51:06,659 de schepper of de auteur, 1047 00:51:06,660 --> 00:51:09,779 hoeveel heb je gebruikt AI als een instrument, 1048 00:51:09,780 --> 00:51:12,149 of hoeveel heb je gebruikt 1049 00:51:12,150 --> 00:51:16,109 gewoon volledig repliceren, of regurgitate, 1050 00:51:16,110 --> 00:51:18,873 of gewoon kopiëren en plakken wat ze gaf aan u? 1051 00:51:20,220 --> 00:51:21,659 - [Verteller] Als AI vervaagt de lijnen 1052 00:51:21,660 --> 00:51:23,489 van het auteurschap en de creativiteit, 1053 00:51:23,490 --> 00:51:26,009 onze traditionele opvattingen van intellectuele eigendom 1054 00:51:26,010 --> 00:51:28,053 worden uitgedaagd als nooit tevoren. 1055 00:51:29,400 --> 00:51:31,709 Een recente trend is om een foto te uploaden 1056 00:51:31,710 --> 00:51:33,569 en converteren naar een afbeelding 1057 00:51:33,570 --> 00:51:35,519 in de stijl van Studio Ghibli, 1058 00:51:35,520 --> 00:51:37,799 die geloven velen dat gaat in tegen het ethos 1059 00:51:37,800 --> 00:51:39,509 van de befaamde animatiestudio 1060 00:51:39,510 --> 00:51:42,329 en regisseur Hayao Miyazaki. 1061 00:51:42,330 --> 00:51:47,129 - Van de kunstenaar perspectief, ze vallen aan twee kanten. 1062 00:51:47,130 --> 00:51:49,049 Deze kunstenaar, in het bijzonder 1063 00:51:49,050 --> 00:51:51,869 heeft een meer traditionele perspectief van zijn kunst. 1064 00:51:51,870 --> 00:51:53,549 Hij hoeft niet per se willen mensen 1065 00:51:53,550 --> 00:51:56,339 gewoon ghiblify zich op sociale media 1066 00:51:56,340 --> 00:52:00,209 en al zijn harde werk en zet het overal. 1067 00:52:00,210 --> 00:52:05,210 Echter, ik denk niet dat het hetzelfde bedrag 1068 00:52:05,340 --> 00:52:08,129 mensen zouden eens weet wie hij is, 1069 00:52:08,130 --> 00:52:10,439 maar voor het feit dat dit gebeurt. 1070 00:52:10,440 --> 00:52:12,869 Dus veel van de tijd wat er gebeurt 1071 00:52:12,870 --> 00:52:17,870 is er een renaissance van deze oudere kunstenaars, 1072 00:52:17,910 --> 00:52:21,119 of het is, weet je, het gebruik van hun muziek, 1073 00:52:21,120 --> 00:52:22,229 het gebruik van hun kunst. 1074 00:52:22,230 --> 00:52:24,809 En het creëert een nieuwe markt voor hen, 1075 00:52:24,810 --> 00:52:28,559 een nieuwe doelgroep die ze niet zou hebben verwacht voorheen. 1076 00:52:28,560 --> 00:52:32,676 Dus het is echt, weet je, een evenwicht tussen de twee. 1077 00:52:32,677 --> 00:52:36,299 - [Verteller] het gebied van De AI ontwikkelt zich in een razend tempo 1078 00:52:36,300 --> 00:52:38,549 en de juridische problemen zijn alleen maar 1079 00:52:38,550 --> 00:52:40,713 om meer complex en genuanceerd. 1080 00:52:44,998 --> 00:52:47,009 (vrolijke muziek) 1081 00:52:47,010 --> 00:52:49,769 Ooit afgevraagd hoe u uw sociale media feeds lijken altijd 1082 00:52:49,770 --> 00:52:52,379 om precies te weten wat u wilt zien? 1083 00:52:52,380 --> 00:52:53,969 - Met social media, u zult in staat zijn om 1084 00:52:53,970 --> 00:52:56,459 om mensen direct, zult u in staat om uw doelgroep te bereiken. 1085 00:52:56,460 --> 00:52:57,479 Wat betekent dit voor u? 1086 00:52:57,480 --> 00:52:59,699 - [Verteller] Instagram maakt gebruik van machine learning algoritmen 1087 00:52:59,700 --> 00:53:00,989 voor het analyseren van uw gedrag, 1088 00:53:00,990 --> 00:53:02,999 graag wat foto ' s die je wilt, die je volgt, 1089 00:53:03,000 --> 00:53:05,849 en zelfs hoe lang u besteden aan het kijken naar een post. 1090 00:53:05,850 --> 00:53:07,499 Door dit te doen, kleermakers uw feed 1091 00:53:07,500 --> 00:53:10,319 inhoud te tonen u bent het meest waarschijnlijk om te gaan met. 1092 00:53:10,320 --> 00:53:13,859 Het is als het hebben van een persoonlijke curator minus het hoge salaris. 1093 00:53:13,860 --> 00:53:16,019 - De ras heeft om te migreren naar AI. 1094 00:53:16,020 --> 00:53:18,419 Die kan bouwen aan een betere voorspellende model van uw gedrag? 1095 00:53:18,420 --> 00:53:20,549 Dus daar zit je dan, je over te raken afspelen van een YouTube video. 1096 00:53:20,550 --> 00:53:22,199 Je denkt dat je gaat kijken naar deze video 1097 00:53:22,200 --> 00:53:23,849 en toen je wakker wordt twee uur later en zeggen, 1098 00:53:23,850 --> 00:53:25,469 oh, mijn God, wat is er zojuist gebeurd? 1099 00:53:25,470 --> 00:53:26,789 En de antwoord is, omdat je had 1100 00:53:26,790 --> 00:53:28,833 een supercomputer wees op je hersenen. 1101 00:53:29,940 --> 00:53:32,009 - [Verteller] Komende, laten we praten over Facebook. 1102 00:53:32,010 --> 00:53:34,079 Vergeet niet dat je vriend een foto geplaatst 1103 00:53:34,080 --> 00:53:37,739 van die epische vakantie en Facebook gesuggereerd dat u een label? 1104 00:53:37,740 --> 00:53:40,589 Dat het AI-aangedreven gezichtsherkenning. 1105 00:53:40,590 --> 00:53:42,809 Deze technologie kan het identificeren van gezichten in foto ' s 1106 00:53:42,810 --> 00:53:44,313 bijna net zo goed als de mens. 1107 00:53:46,020 --> 00:53:50,699 - Wanneer u gegevens in deze AI modellen, 1108 00:53:50,700 --> 00:53:52,143 het is leren van je. 1109 00:53:53,100 --> 00:53:54,899 Zo leert u het 1110 00:53:54,900 --> 00:53:59,900 en draagt u bij aan het onderwijs. 1111 00:54:00,210 --> 00:54:04,079 Dus wat gegevens om u in er 1112 00:54:04,080 --> 00:54:07,960 dat je goed met het geven van het gratis 1113 00:54:08,820 --> 00:54:11,969 gebaseerd op, weet u, wat de output die je krijgt? 1114 00:54:11,970 --> 00:54:14,883 - [Verteller] YouTube, de koning van video, is niet anders. 1115 00:54:16,320 --> 00:54:19,263 Ooit gevallen in een konijn gat van video ' s om 2:00 UUR? 1116 00:54:20,100 --> 00:54:21,723 Yep, de AI is te wijten. 1117 00:54:22,560 --> 00:54:24,779 YouTube is de aanbeveling van het systeem analyseert 1118 00:54:24,780 --> 00:54:26,759 uw geschiedenis bekijken en suggereert video ' s 1119 00:54:26,760 --> 00:54:28,439 waarschijnlijk geniet je van. 1120 00:54:28,440 --> 00:54:31,829 Het houdt ons vastgelijmd aan het scherm voor beter of slechter, 1121 00:54:31,830 --> 00:54:34,589 maar het gaat niet alleen over het houden van u te vermaken. 1122 00:54:34,590 --> 00:54:38,039 Platforms als Facebook en Instagram gebruiken AI op te sporen 1123 00:54:38,040 --> 00:54:39,629 en verwijderen van schadelijke inhoud, met 1124 00:54:39,630 --> 00:54:41,849 van hate speech aan grafisch geweld. 1125 00:54:41,850 --> 00:54:44,879 Het is niet perfect, maar het is een stap in de goede richting. 1126 00:54:44,880 --> 00:54:47,459 Het is net als met een op maat gemaakte digitale wereld 1127 00:54:47,460 --> 00:54:49,259 op maat voor u. 1128 00:54:49,260 --> 00:54:54,260 Maar vergeet niet, met grote macht komt grote verantwoordelijkheid. 1129 00:54:54,501 --> 00:54:57,839 (spannende muziek) 1130 00:54:57,840 --> 00:55:00,569 - De AI is opgeleid op alle internet-data. 1131 00:55:00,570 --> 00:55:02,129 Maar die gegenereerd deze gegevens? 1132 00:55:02,130 --> 00:55:05,579 Nou, een groot deel van het werd gegenereerd door de mens. 1133 00:55:05,580 --> 00:55:06,839 - Maar hoe dan ook, vandaag ga ik- 1134 00:55:06,840 --> 00:55:08,219 - [Verteller] AI krijgt zelfs slim, 1135 00:55:08,220 --> 00:55:11,099 het kan dingen maken, tekst, beelden, muziek. 1136 00:55:11,100 --> 00:55:13,559 - Ik ben gewoon met mijn ochtend bad, 1137 00:55:13,560 --> 00:55:15,239 net spatten een beetje rond. 1138 00:55:15,240 --> 00:55:16,889 - [Verteller] Deze self-learning is een big deal. 1139 00:55:16,890 --> 00:55:19,559 Het betekent AI kan mogelijk verbeteren van zichzelf, 1140 00:55:19,560 --> 00:55:21,569 slimmer en sneller. 1141 00:55:21,570 --> 00:55:23,389 - Meer en meer gegevens die op het web 1142 00:55:23,390 --> 00:55:26,549 feitelijk wordt gegenereerd door de AI zelf, 1143 00:55:26,550 --> 00:55:29,399 en het is nog steeds gebruikt soms bewust, 1144 00:55:29,400 --> 00:55:33,539 soms per ongeluk te trainen beter en een betere AI. 1145 00:55:33,540 --> 00:55:35,369 - [Verteller] Laten we zeggen dat een AI schrijft een verhaal, 1146 00:55:35,370 --> 00:55:38,429 het is een beetje onhandig, maar hey, it ' s learning. 1147 00:55:38,430 --> 00:55:41,399 Een andere AI leest dit verhaal en leert van hem. 1148 00:55:41,400 --> 00:55:45,059 De tweede AI is het leren van de eerste AI ' s fouten. 1149 00:55:45,060 --> 00:55:47,639 Deze terugkoppeling kan leiden tot een vernauwing 1150 00:55:47,640 --> 00:55:49,379 van AI ' s te begrijpen. 1151 00:55:49,380 --> 00:55:50,879 Als een spel van telefoon, 1152 00:55:50,880 --> 00:55:54,149 de originele informatie wordt vervormd bij elke iteratie. 1153 00:55:54,150 --> 00:55:55,619 - In één zin, je zou kunnen stellen 1154 00:55:55,620 --> 00:55:57,779 misschien is het creëren van meer gegevens voor AI 1155 00:55:57,780 --> 00:55:59,999 en dat is vaak beschouwd als een goede zaak. 1156 00:56:00,000 --> 00:56:02,609 Maar er is ook enige nuance aan deze 1157 00:56:02,610 --> 00:56:06,419 waar niet alleen meer gegevens u moet ook meer divers gegevens. 1158 00:56:06,420 --> 00:56:09,389 Gegevens die feitelijk correct is. 1159 00:56:09,390 --> 00:56:12,509 Vaak zijn de gegevens die gegenereerd wordt weerspiegeld 1160 00:56:12,510 --> 00:56:16,199 van de opleiding van bronnen, die mogelijk haar eigen vooroordelen. 1161 00:56:16,200 --> 00:56:18,479 En al die weerspiegeld worden 1162 00:56:18,480 --> 00:56:20,639 in deze AI-gegenereerde data sets, 1163 00:56:20,640 --> 00:56:23,579 die worden vervolgens gebruikt om te trainen toekomst AI-systemen. 1164 00:56:23,580 --> 00:56:24,719 - [Verteller] We hebben allemaal vooroordelen, 1165 00:56:24,720 --> 00:56:27,539 die onbewuste neigingen die de kleur van onze beslissing. 1166 00:56:27,540 --> 00:56:30,719 AI kan beërven deze vooroordelen uit de gegevens die getraind zijn op, 1167 00:56:30,720 --> 00:56:33,869 en als die gegevens zelf die worden gegenereerd door vooringenomen AI, 1168 00:56:33,870 --> 00:56:35,639 we hebben een probleem. 1169 00:56:35,640 --> 00:56:39,269 Stel je een AI opgeleid om het identificeren van veelbelovende kandidaten. 1170 00:56:39,270 --> 00:56:42,299 Als de training data scheef in de richting van bepaalde bevolkingsgroepen, 1171 00:56:42,300 --> 00:56:45,509 de AI zou oneerlijk voordeel van die groepen. 1172 00:56:45,510 --> 00:56:48,089 Dit kan bestendigen van bestaande ongelijkheden, 1173 00:56:48,090 --> 00:56:50,519 het maken van de wereld minder eerlijke, minder gewoon. 1174 00:56:50,520 --> 00:56:52,919 - Als u in de opleiding van de gegevens die onjuist, 1175 00:56:52,920 --> 00:56:56,249 of die niet specifiek met betrekking tot uw gebruik van het geval, 1176 00:56:56,250 --> 00:56:58,829 het gaat niet lukken voor de use case. 1177 00:56:58,830 --> 00:56:59,759 Dat kan een groot probleem, 1178 00:56:59,760 --> 00:57:01,829 vooral als je het vertalen talen 1179 00:57:01,830 --> 00:57:04,229 wanneer u op zoek bent naar mannelijke en vrouwelijke, 1180 00:57:04,230 --> 00:57:05,849 vooral in de Europese talen 1181 00:57:05,850 --> 00:57:08,609 of formaliteiten in de Aziatische talen. 1182 00:57:08,610 --> 00:57:12,719 Wanneer de systemen zijn terug met antwoorden, 1183 00:57:12,720 --> 00:57:16,919 het is getraind dat het niet kan worden contextuele of creatief, 1184 00:57:16,920 --> 00:57:19,829 het is om terug te komen met een werkelijke waarde. 1185 00:57:19,830 --> 00:57:22,859 Als het niet kan een werkelijke waarde, creëert een. 1186 00:57:22,860 --> 00:57:24,899 Dat is wat bekend staat als een hallucinatie. 1187 00:57:24,900 --> 00:57:27,869 - [Verteller] een Ander risico is van een afname in diversiteit gegevens. 1188 00:57:27,870 --> 00:57:30,599 De echte wereld is rommelig, vol verrassingen, 1189 00:57:30,600 --> 00:57:33,449 maar als AI is alleen blootgesteld aan zijn eigen creaties, 1190 00:57:33,450 --> 00:57:35,759 het heeft moeite met het omgaan met deze complexiteit. 1191 00:57:35,760 --> 00:57:38,369 Het is als het leren over de wereld vanuit maar één boek. 1192 00:57:38,370 --> 00:57:39,509 - Terwijl er sprake is belofte, 1193 00:57:39,510 --> 00:57:43,859 in zekere zin helpt het oplossen van het probleem van gegevens schaarste. 1194 00:57:43,860 --> 00:57:46,589 Aan de andere kant, het heeft veel meer verzorging 1195 00:57:46,590 --> 00:57:51,419 en de wetenschappelijke studie van hoe het beste om deze data te verwerken 1196 00:57:51,420 --> 00:57:54,089 om het daadwerkelijk nuttig voor het bouwen van betere AI 1197 00:57:54,090 --> 00:57:57,753 in plaats van daadwerkelijk klampt zich vast op een aantal van de zwakke punten. 1198 00:57:58,680 --> 00:58:00,449 - [Verteller] Valse informatie kan worden versterkt 1199 00:58:00,450 --> 00:58:03,749 en bestendigd, het creëren van een vortex van onwaarheid. 1200 00:58:03,750 --> 00:58:06,179 Laten we zeggen dat een AI genereert valse nieuws artikelen. 1201 00:58:06,180 --> 00:58:09,149 Een andere AI leest deze artikelen als trainingsgegevens. 1202 00:58:09,150 --> 00:58:10,859 Deze tweede AI kan genereren 1203 00:58:10,860 --> 00:58:13,199 nog meer overtuigende nieuws. 1204 00:58:13,200 --> 00:58:15,989 Het resultaat van de overstromingen van gefabriceerde informatie, 1205 00:58:15,990 --> 00:58:18,419 ondermijnt het vertrouwen en het zaaien van verdeeldheid. 1206 00:58:18,420 --> 00:58:19,949 - Stel iemand heeft een videoclip uitgebracht 1207 00:58:19,950 --> 00:58:22,619 van een politicus op zoek rechtstreeks op een camera zeggende: 1208 00:58:22,620 --> 00:58:24,629 Ik eet baby ' s voor het ontbijt. 1209 00:58:24,630 --> 00:58:25,859 Weet je, als mensen gaan geloven 1210 00:58:25,860 --> 00:58:27,119 een nieuws artikel over, 1211 00:58:27,120 --> 00:58:28,709 natuurlijk zijn ze gaan geloven dat het zien van 1212 00:58:28,710 --> 00:58:30,749 de politici zeggen. 1213 00:58:30,750 --> 00:58:32,279 - [Verteller] AI-gegenereerde diep fakes 1214 00:58:32,280 --> 00:58:34,259 al zorgwekkend. 1215 00:58:34,260 --> 00:58:36,899 Deze hyperrealistisch video ' s kunt desinformatie 1216 00:58:36,900 --> 00:58:38,789 en het manipuleren van de publieke opinie 1217 00:58:38,790 --> 00:58:41,459 met potentieel desastreuze gevolgen. 1218 00:58:41,460 --> 00:58:44,129 - Neem Joe Biden robocalls, bijvoorbeeld. 1219 00:58:44,130 --> 00:58:46,349 In de tussentijdse verkiezing, 1220 00:58:46,350 --> 00:58:49,259 iemand creëerde een AI van Joe Biden ' s stem 1221 00:58:49,260 --> 00:58:51,539 en begonnen met het maken van robocall te zeggen 1222 00:58:51,540 --> 00:58:54,029 dat deze verkiezing niet belangrijk 1223 00:58:54,030 --> 00:58:56,399 en die mensen moet redden van hun stemmen 1224 00:58:56,400 --> 00:58:58,079 voor de presidentsverkiezingen. 1225 00:58:58,080 --> 00:59:00,299 - Vooruit, we moeten meer aandacht hebben 1226 00:59:00,300 --> 00:59:02,099 met wat we het vertrouwen van het internet. 1227 00:59:02,100 --> 00:59:04,049 - U kunt de vraag of het hen, 1228 00:59:04,050 --> 00:59:06,239 en ook als u eigenlijk gezegd dat, 1229 00:59:06,240 --> 00:59:08,039 je zou kunnen zeggen, nee, ik was het niet. 1230 00:59:08,040 --> 00:59:11,493 Dus wanneer we praten over hoe de systemen leren, 1231 00:59:12,360 --> 00:59:17,039 hoe tracht te reden en probeert te maken van de context, 1232 00:59:17,040 --> 00:59:18,509 de manier waarop het werkt in principe 1233 00:59:18,510 --> 00:59:22,739 is door middel van een systeem dat we diep leren. 1234 00:59:22,740 --> 00:59:25,469 De gouden training data is alleen dat, toch? 1235 00:59:25,470 --> 00:59:27,179 Het is niet alleen geschraapt van het internet 1236 00:59:27,180 --> 00:59:31,199 of het niet gewoon een rechte uitgang van een AI-systeem. 1237 00:59:31,200 --> 00:59:34,199 Het is de output die de AI-systeem uitgangen, 1238 00:59:34,200 --> 00:59:35,699 en dan is een mens komt in 1239 00:59:35,700 --> 00:59:37,949 en maakt perfect en leert dan van dat. 1240 00:59:37,950 --> 00:59:40,439 Typisch wat we vinden van de beste oplossingen 1241 00:59:40,440 --> 00:59:44,429 is een combinatie van het hebben van de AI komen 1242 00:59:44,430 --> 00:59:48,029 om een algemene conclusie en het hebben van een menselijk wezen in 1243 00:59:48,030 --> 00:59:50,489 en na het bewerken van perfect. 1244 00:59:50,490 --> 00:59:53,519 - [Verteller] hoe voorkomen we deze valkuilen? 1245 00:59:53,520 --> 00:59:57,059 We gaan eerst bewust moet zijn van de gegevens die we gebruiken om te trainen AI. 1246 00:59:57,060 --> 01:00:00,629 Het beroep uitsluitend op AI-gegenereerde data is als het voeden van een kind 1247 01:00:00,630 --> 01:00:02,759 een dieet van alleen maar snoep. 1248 01:00:02,760 --> 01:00:05,819 We moeten prioriteit geven aan de menselijke beheerde gegevens, 1249 01:00:05,820 --> 01:00:08,399 het waarborgen van diversiteit en nauwkeurigheid. 1250 01:00:08,400 --> 01:00:12,659 - Persoonlijk denk ik dat het in orde is voor de AI-gegenereerde gegevens 1251 01:00:12,660 --> 01:00:16,139 een sterke kracht in het ontwikkelen van AI-systemen, 1252 01:00:16,140 --> 01:00:20,069 het moet bestaan in samenhang met menselijke voorkeuren, 1253 01:00:20,070 --> 01:00:21,419 de menselijke gegenereerde gegevens. 1254 01:00:21,420 --> 01:00:25,559 Dus er moeten mechanismen die mensen spelen ook 1255 01:00:25,560 --> 01:00:28,259 een rol in het soort gegevens dat wordt gebruikt 1256 01:00:28,260 --> 01:00:30,059 voor de opleiding van deze systemen. 1257 01:00:30,060 --> 01:00:31,649 - [Verteller] Denk aan het als het toevoegen van vitaminen 1258 01:00:31,650 --> 01:00:33,869 en mineralen om de AI ' s dieet. 1259 01:00:33,870 --> 01:00:35,969 Dit zal helpen AI ontwikkelen van een meer genuanceerd 1260 01:00:35,970 --> 01:00:38,129 en evenwichtig begrip van de wereld. 1261 01:00:38,130 --> 01:00:40,799 Ten tweede, we moeten waakzaam zijn over vooroordelen. 1262 01:00:40,800 --> 01:00:42,239 Net zoals we streven naar eerlijkheid 1263 01:00:42,240 --> 01:00:44,099 en gelijkheid in onze samenleving, 1264 01:00:44,100 --> 01:00:47,879 we moeten insluiten van deze waarden in onze AI-systemen. 1265 01:00:47,880 --> 01:00:50,459 Dit betekent zorgvuldig controle AI algoritmen 1266 01:00:50,460 --> 01:00:53,549 en het aanpakken van vooroordelen die ontstaan. 1267 01:00:53,550 --> 01:00:56,369 Tot slot moeten we niet vergeten dat de AI is een tool, 1268 01:00:56,370 --> 01:00:58,649 niet een vervanging voor het menselijk oordeel. 1269 01:00:58,650 --> 01:00:59,549 - Ik denk dat wanneer we terug 1270 01:00:59,550 --> 01:01:02,729 om dat ChatGPT Turing test vraag 1271 01:01:02,730 --> 01:01:05,429 Ik denk dat de Turing test moet evolueren ook. 1272 01:01:05,430 --> 01:01:09,629 - [Verteller] Zo deed ChatGPT-4.5 passeren de Turing test? 1273 01:01:09,630 --> 01:01:12,029 Ja, en op uw volgende chat-sessies, 1274 01:01:12,030 --> 01:01:13,632 misschien vind je jezelf te vragen, 1275 01:01:13,633 --> 01:01:17,129 is dit een persoon of gewoon mijn nieuwe favoriete chatbot? 1276 01:01:17,130 --> 01:01:19,319 Samengevat heb ik denk ik weet dat veel mensen 1277 01:01:19,320 --> 01:01:21,120 dat zou niet slagen voor de Turing test. 1278 01:01:26,980 --> 01:01:30,869 Ik denk dat de claim dat ChatGPT-4.5 winnen van de Turing test 1279 01:01:30,870 --> 01:01:33,119 is misschien een beetje sensatie. 1280 01:01:33,120 --> 01:01:37,499 Het model sloeg dat de Turing test werd niet door verstand, 1281 01:01:37,500 --> 01:01:41,939 of de mogelijkheid om te denken dat het introduceren van spelfouten 1282 01:01:41,940 --> 01:01:46,229 op doel en het doen van dingen om te verleiden de gebruiker 1283 01:01:46,230 --> 01:01:48,119 in het denken dat het een mens was. 1284 01:01:48,120 --> 01:01:49,709 - [Verteller] Apple ' s nieuwste onderzoek verklaart 1285 01:01:49,710 --> 01:01:53,069 wat is er werkelijk gaande is achter die slimme chatbots. 1286 01:01:53,070 --> 01:01:55,919 Charmant met de titel, "De Illusie van het Denken", 1287 01:01:55,920 --> 01:01:58,409 het onderzoek beweert dat sommige van de nieuwste AI modellen, 1288 01:01:58,410 --> 01:02:01,499 als OpenAI de O3 of Google Gemini, 1289 01:02:01,500 --> 01:02:03,509 overigens niet redeneren. 1290 01:02:03,510 --> 01:02:06,119 Hoewel deze redenering grote modellen geluid overtuigend, 1291 01:02:06,120 --> 01:02:08,819 diep van binnen zijn ze meestal parroting patronen. 1292 01:02:08,820 --> 01:02:09,689 Op eenvoudige puzzels, 1293 01:02:09,690 --> 01:02:12,629 basic AIs kan soms sloeg de fantasie van degenen. 1294 01:02:12,630 --> 01:02:14,609 Op middellange puzzels, de nieuwe modellen schitteren 1295 01:02:14,610 --> 01:02:16,383 met stap-voor-stap logica. 1296 01:02:17,550 --> 01:02:19,229 Maar als de zaken gecompliceerd, 1297 01:02:19,230 --> 01:02:22,109 beide typen modellen vallen plat. 1298 01:02:22,110 --> 01:02:25,259 Nog dramatischer wanneer zij worden geconfronteerd met zeer moeilijke problemen, 1299 01:02:25,260 --> 01:02:28,289 deze modellen hebben de neiging om te geven. 1300 01:02:28,290 --> 01:02:29,729 Zij hebben het vermogen om te proberen harder, 1301 01:02:29,730 --> 01:02:31,769 maar ze vaak niet de moeite. 1302 01:02:31,770 --> 01:02:34,079 - Met elke innovatie en elk aankondiging 1303 01:02:34,080 --> 01:02:36,689 en de hype die is verkocht bij elke aankondiging, 1304 01:02:36,690 --> 01:02:39,809 het trekt mensen terug uit de planning 1305 01:02:39,810 --> 01:02:43,379 en door deze verlichting fase 1306 01:02:43,380 --> 01:02:45,269 terug in de hype cycle. 1307 01:02:45,270 --> 01:02:48,929 Door deze nieuwe technologie is gonna be een 'game changer'. 1308 01:02:48,930 --> 01:02:50,279 - [Verteller] Nieuwe technologieën hebben de neiging 1309 01:02:50,280 --> 01:02:52,919 voor het volgen van een vertrouwd patroon vertegenwoordigd door model 1310 01:02:52,920 --> 01:02:54,989 bekend als de hype cycle. 1311 01:02:54,990 --> 01:02:56,849 Ze beginnen met een knal, met een sisser aflopen, 1312 01:02:56,850 --> 01:03:00,029 dan opeens rustig onmisbaar geworden. 1313 01:03:00,030 --> 01:03:01,829 Er zijn vijf klassieke fasen. 1314 01:03:01,830 --> 01:03:05,429 Ten eerste, de innovatie trigger, een doorbraak, 1315 01:03:05,430 --> 01:03:08,579 een gloeilamp moment, en plotseling iedereen praat. 1316 01:03:08,580 --> 01:03:11,549 Naast de piek van de opgeblazen verwachtingen. 1317 01:03:11,550 --> 01:03:14,429 Dit is waar de hype krijgt wilde koppen overal. 1318 01:03:14,430 --> 01:03:17,159 Beleggers opstapelen in en belooft de wereld te veranderen 1319 01:03:17,160 --> 01:03:18,809 met een heleboel van in het wild vorderingen. 1320 01:03:18,810 --> 01:03:21,419 - Ik denk dat juist nu het gaat om de hype cycle, 1321 01:03:21,420 --> 01:03:25,263 het algemene publiek te benaderen en / of op drukke hype. 1322 01:03:26,430 --> 01:03:28,949 - [Verteller] Dan komt de trog van desillusie. 1323 01:03:28,950 --> 01:03:31,949 Reality bites, de techniek is niet helemaal werkt zoals beloofd 1324 01:03:31,950 --> 01:03:33,989 bedrijven mopperen, storingen stack up, 1325 01:03:33,990 --> 01:03:36,089 en de wereld ziet er voor de volgende grote ding. 1326 01:03:36,090 --> 01:03:37,709 - Er zijn een heleboel bedrijven 1327 01:03:37,710 --> 01:03:39,899 dat ondervindt de trog van desillusie. 1328 01:03:39,900 --> 01:03:42,059 - [Verteller] Bedrijven figuur uit wat echt werkt. 1329 01:03:42,060 --> 01:03:44,369 Nieuwe versies verschijnen en de praktische voordelen van start 1330 01:03:44,370 --> 01:03:45,899 te komen voor de eindgebruikers. 1331 01:03:45,900 --> 01:03:46,950 - Laten we proberen deze. 1332 01:03:47,910 --> 01:03:49,199 Oke, dat ziet er veelbelovend uit. 1333 01:03:49,200 --> 01:03:51,359 Denk dat, als je eenmaal op het plateau van productiviteit, 1334 01:03:51,360 --> 01:03:55,169 dit is volledig ingebakken om iedereen in het dagelijkse leven. 1335 01:03:55,170 --> 01:03:56,990 Ik denk dat een heleboel bedrijven 1336 01:03:56,991 --> 01:03:58,859 en veel mensen zijn nog aan het uitzoeken 1337 01:03:58,860 --> 01:04:00,599 hoe je het beste gebruik maken van deze tools. 1338 01:04:00,600 --> 01:04:03,059 - [Verteller] Tenslotte is er het plateau van productiviteit. 1339 01:04:03,060 --> 01:04:05,039 De tech werkt en iedereen maakt er gebruik van, 1340 01:04:05,040 --> 01:04:06,839 vaak zonder er bij na te denken. 1341 01:04:06,840 --> 01:04:09,689 - Ik denk dat we enige tijd afstand van de piek van de productiviteit, 1342 01:04:09,690 --> 01:04:12,883 maar we zijn zeker op weg naar het bereiken van het. 1343 01:04:12,884 --> 01:04:15,509 (suspense muziek) 1344 01:04:15,510 --> 01:04:18,209 - Sommige mensen gaan zijn bang voor AI 1345 01:04:18,210 --> 01:04:20,249 omdat ze bang zijn van alles. 1346 01:04:20,250 --> 01:04:21,899 - [Verteller] AI kan vergroten onze mogelijkheden, 1347 01:04:21,900 --> 01:04:23,789 maar het mag niet dicteren onze beslissingen. 1348 01:04:23,790 --> 01:04:26,699 Door betrokken te blijven, door het behoud van controle, 1349 01:04:26,700 --> 01:04:29,549 kunnen we ervoor zorgen dat de AI blijft een kracht voor het goede 1350 01:04:29,550 --> 01:04:30,509 in de wereld. 1351 01:04:30,510 --> 01:04:33,479 - Studies na de tweede Wereld Oorlog II te bewijzen dat 30 tot 35% 1352 01:04:33,480 --> 01:04:35,429 van elk land zijn gevuld met mensen die bang zijn voor 1353 01:04:35,430 --> 01:04:38,069 van alles en zal alles doen wat ze verteld wordt. 1354 01:04:38,070 --> 01:04:38,969 Dus er gaat een bepaald aantal 1355 01:04:38,970 --> 01:04:40,049 van de mensen die zijn gewoon bang, 1356 01:04:40,050 --> 01:04:42,149 en zijn gaan geloven in wat ze vertelde. 1357 01:04:42,150 --> 01:04:44,999 - [Verteller] Als we hindernis in de richting van een toekomst die gedomineerd wordt door de AI, 1358 01:04:45,000 --> 01:04:46,649 een cruciale vraag. 1359 01:04:46,650 --> 01:04:48,749 Zal dit onze laatste daad van de schepping, 1360 01:04:48,750 --> 01:04:51,149 of de dageraad van een nieuw tijdperk? 1361 01:04:51,150 --> 01:04:54,989 - We zijn nog ver van het doomsday scenario ' s van AI. 1362 01:04:54,990 --> 01:04:56,789 Elke nieuwe technologie vaak eindigt 1363 01:04:56,790 --> 01:04:58,379 een tweesnijdend zwaard. 1364 01:04:58,380 --> 01:05:00,899 - [Verteller] Het idee van AI overtreft de menselijke intelligentie 1365 01:05:00,900 --> 01:05:03,149 is zowel opwindend en verwarrend. 1366 01:05:03,150 --> 01:05:04,799 Als machines kunnen leren, aan te passen, 1367 01:05:04,800 --> 01:05:07,006 en innoveren op een ongekende snelheid, 1368 01:05:07,007 --> 01:05:10,049 (spannende muziek) 1369 01:05:10,050 --> 01:05:12,329 welke rol zal de mens speelt in een toekomst vorm 1370 01:05:12,330 --> 01:05:13,889 door onze eigen creaties? 1371 01:05:13,890 --> 01:05:16,439 - De handelaars en de mensen die het daadwerkelijk doen van goede dingen, 1372 01:05:16,440 --> 01:05:19,739 verpleegkundigen zijn allemaal goed. 1373 01:05:19,740 --> 01:05:22,109 En als er iets, we ' re gonna hebben meer nodig 1374 01:05:22,110 --> 01:05:23,699 als mensen nodig hebben om zich te herscholen 1375 01:05:23,700 --> 01:05:26,459 en experimenteren met nieuwe manieren om geld te verdienen. 1376 01:05:26,460 --> 01:05:27,779 - [Verteller] De beslissingen die we vandaag 1377 01:05:27,780 --> 01:05:30,479 over AI ontwikkeling en verordening 1378 01:05:30,480 --> 01:05:32,189 zal verstrekkende gevolgen hebben 1379 01:05:32,190 --> 01:05:34,109 ook voor de komende generaties. 1380 01:05:34,110 --> 01:05:37,559 - Innovatie is over te supercharged. 1381 01:05:37,560 --> 01:05:39,496 Dat is wat de AI kan doen. 1382 01:05:39,497 --> 01:05:44,399 Als we, als we niet toestaan dat het een middel van controle. 1383 01:05:44,400 --> 01:05:48,479 Want vergeet niet, elke goede zaak, elke positieve kracht 1384 01:05:48,480 --> 01:05:50,549 dat geeft mensen meer vrijheid 1385 01:05:50,550 --> 01:05:54,993 kan gebruikt worden door het ziek zijn bedoeld als een middel van controle. 1386 01:05:56,160 --> 01:05:59,999 - Sorry Dave, ik ben bang dat ik dat niet kunt doen. 1387 01:06:00,000 --> 01:06:02,429 - [Verteller] Super intelligentie, een theoretische vorm van AI 1388 01:06:02,430 --> 01:06:05,219 dat overtreft de menselijke intellect in elk aspect 1389 01:06:05,220 --> 01:06:07,949 heeft al lang een nietje van de science fiction. 1390 01:06:07,950 --> 01:06:09,004 - Wat is het probleem? 1391 01:06:09,005 --> 01:06:11,129 (hemelse koormuziek) 1392 01:06:11,130 --> 01:06:13,319 - [Verteller] Echter, met de snelle verbeteringen in de AI, 1393 01:06:13,320 --> 01:06:17,039 het is niet langer een concept beperkt tot de pagina ' s van romans. 1394 01:06:17,040 --> 01:06:20,849 Kunnen we de controle iets meer intelligent dan onszelf? 1395 01:06:20,850 --> 01:06:23,909 Zouden we dat willen, of zouden we afstand doen van controle? 1396 01:06:23,910 --> 01:06:26,069 - Super intelligentie is de intelligentie 1397 01:06:26,070 --> 01:06:28,019 dat is hoger dan dat van de mens. 1398 01:06:28,020 --> 01:06:30,299 Wij geloven dat als een industrie 1399 01:06:30,300 --> 01:06:32,129 dat dit kan gebeuren binnen een decennium. 1400 01:06:32,130 --> 01:06:34,870 - Ik zie het als een wake up call voor de wereld 1401 01:06:35,893 --> 01:06:38,909 die AI is gaat sneller dan je denkt. 1402 01:06:38,910 --> 01:06:42,089 En kan komen uit elke hoek van de wereld 1403 01:06:42,090 --> 01:06:46,199 en we moeten nu ingrijpen voordat het te laat is 1404 01:06:46,200 --> 01:06:48,663 in het maken van zeker dat het ingezet voor het goede. 1405 01:06:49,590 --> 01:06:51,359 - [Verteller] Het concept van een singulariteit, 1406 01:06:51,360 --> 01:06:54,719 een moment waarop de AI overtreft de menselijke intelligentie 1407 01:06:54,720 --> 01:06:57,299 en triggers snelle technologische groei 1408 01:06:57,300 --> 01:06:59,159 is een onderwerp van debat. 1409 01:06:59,160 --> 01:07:01,409 - Ik weet echt niet waar het gaat eindigen, 1410 01:07:01,410 --> 01:07:05,429 maar gezien de geschiedenis, de industriële revolutie, 1411 01:07:05,430 --> 01:07:09,929 het digitale tijdperk, we gonna reaccommodate. 1412 01:07:09,930 --> 01:07:12,419 Er gaat een periode van aanpassing, 1413 01:07:12,420 --> 01:07:13,713 maar dan zullen we wel goed. 1414 01:07:15,510 --> 01:07:18,029 - [Verteller] Sommige deskundigen geloven dat het zou kunnen luiden een tijdperk 1415 01:07:18,030 --> 01:07:19,953 van ongekende welvaart. 1416 01:07:21,150 --> 01:07:23,703 Terwijl anderen waarschuwen van existentiële risico ' s. 1417 01:07:24,840 --> 01:07:27,899 - AI is gebruikt om de invloed stemmen, 1418 01:07:27,900 --> 01:07:31,829 beïnvloeden van de publieke opinie, en het is echt te gevaarlijk. 1419 01:07:31,830 --> 01:07:33,269 Dus, het is eng, 1420 01:07:33,270 --> 01:07:38,270 en ik denk dat je als samenleving, 1421 01:07:38,520 --> 01:07:39,479 we moeten uitzoeken 1422 01:07:39,480 --> 01:07:41,339 zo regelt u dit vrij snel, 1423 01:07:41,340 --> 01:07:42,959 - [Verteller], Ongeacht iemands houding, 1424 01:07:42,960 --> 01:07:45,629 het potentieel voor de AI om fundamenteel te hervormen 1425 01:07:45,630 --> 01:07:47,699 onze wereld is niet te ontkennen 1426 01:07:47,700 --> 01:07:50,819 In mijn opinie, als de grote spelers in de AI, 1427 01:07:50,820 --> 01:07:52,629 met inbegrip van de grote bedrijven, 1428 01:07:52,630 --> 01:07:55,473 uw Facebooks, uw AWSs, uw Microsofts, 1429 01:07:56,310 --> 01:07:59,549 verantwoord spelen en gebruik maken van de ethiek in wat ze doen, 1430 01:07:59,550 --> 01:08:02,849 iedereen zal komen in het spel en volg. 1431 01:08:02,850 --> 01:08:05,759 - Het grootste ding dat we nodig hebben om goed te krijgen 1432 01:08:05,760 --> 01:08:09,340 om niet volledig vernietigen van de mens 1433 01:08:10,248 --> 01:08:12,179 (spannende muziek) 1434 01:08:12,180 --> 01:08:15,063 is de ethiek achter de AI. 1435 01:08:16,560 --> 01:08:20,759 Ik hoop dat we de behandeling van AI in de toekomst groeien en AI 1436 01:08:20,760 --> 01:08:24,899 op een manier dat we een geliefde jonge kind, 1437 01:08:24,900 --> 01:08:27,933 waar we leren het de waarden, 1438 01:08:29,340 --> 01:08:34,289 en eerlijkheid en rechtvaardigheid 1439 01:08:34,290 --> 01:08:36,599 in de hoop dat het opgroeit 1440 01:08:36,600 --> 01:08:39,483 een goede burger van de wereld. 1441 01:08:40,800 --> 01:08:45,153 Laten We niet vergeten dat wij mensen zijn. 1442 01:08:47,070 --> 01:08:49,289 De dingen die ons menselijk maken 1443 01:08:49,290 --> 01:08:51,723 en sociale wezens zijn belangrijk, 1444 01:08:53,460 --> 01:08:56,249 en we moeten kijken na elkaar 1445 01:08:56,250 --> 01:08:58,053 en zorg voor elkaar. 1446 01:08:59,550 --> 01:09:02,039 - [Verteller] Het verhaal van AI is nog maar het begin. 1447 01:09:02,040 --> 01:09:04,953 Het is een verhaal gevuld met zowel de belofte en risico. 1448 01:09:07,380 --> 01:09:09,303 En het einde blijft ongeschreven. 1449 01:09:14,070 --> 01:09:15,970 De toekomst van intelligentie, leek het, 1450 01:09:17,910 --> 01:09:19,649 is het aan ons om te beslissen. 1451 01:09:19,650 --> 01:09:24,650 (hoopvolle muziek)