1 00:00:08,927 --> 00:00:11,930 Jestem na Wall Street, gdzie wszystko się zaczęło. 2 00:00:13,724 --> 00:00:17,186 6 maja 2010 r. o 14.45 3 00:00:17,686 --> 00:00:21,190 gość przesiadujący u rodziców w dalekim Londynie 4 00:00:21,273 --> 00:00:24,985 użył na Giełdzie Nowojorskiej algorytmu 5 00:00:25,068 --> 00:00:27,279 ze zleceniem sprzedaży wartym 1 mld $. 6 00:00:28,697 --> 00:00:30,449 Plan był taki: zmanipulować rynek 7 00:00:30,532 --> 00:00:32,659 i anulować zlecenie, nim zostanie wykonane. 8 00:00:33,160 --> 00:00:34,411 Ale zanim to nastąpiło, 9 00:00:34,495 --> 00:00:37,247 automatyczne boty giełdowe na całym świecie 10 00:00:37,331 --> 00:00:38,582 też zaczęły sprzedaż, 11 00:00:39,041 --> 00:00:42,336 uruchamiając fatalną w skutkach reakcję łańcuchową. 12 00:00:44,880 --> 00:00:48,967 Dow Jones Industrial spadł o 1000 punktów w zaledwie kwadrans. 13 00:00:49,051 --> 00:00:52,513 To wartość bliska tej, która doprowadziła do Wielkiego Kryzysu. 14 00:00:52,596 --> 00:00:55,307 Nie mam pojęcia, co się tam wyrabia. 15 00:00:55,390 --> 00:00:56,642 Na rynek padł strach. 16 00:00:57,267 --> 00:00:59,645 Pora posłać dzieci do publicznej szkoły. 17 00:01:00,938 --> 00:01:02,481 To flash crash. 18 00:01:03,023 --> 00:01:04,066 Kurwa mać. 19 00:01:05,359 --> 00:01:08,111 36 minut później rynek odbił się od dna. 20 00:01:08,195 --> 00:01:11,615 Ale krach z 2010 roku był pierwszym wydarzeniem, 21 00:01:11,698 --> 00:01:15,994 przez które ludzie z przerażeniem i szokiem odkryli, 22 00:01:16,078 --> 00:01:19,164 że sztuczna inteligencja może przejąć kontrolę nad finansami. 23 00:01:20,707 --> 00:01:22,167 A tak radzi sobie dziś. 24 00:01:24,086 --> 00:01:26,922 Dlatego jestem w Indiach. Szukam dzikiego miodu. 25 00:01:27,631 --> 00:01:28,966 Wrócimy do tego. 26 00:01:29,341 --> 00:01:31,885 By pojąć, jak sztuczna inteligencja na to wpadła, 27 00:01:31,969 --> 00:01:34,429 musimy zrozumieć jej istotę. 28 00:01:34,513 --> 00:01:36,431 Myślicie, że ją znacie? Otóż nie. 29 00:01:37,850 --> 00:01:41,436 Wszystkich nas łączą pieniądze. 30 00:01:41,937 --> 00:01:45,023 Jestem Kal Penn. Badam bestię, 31 00:01:45,732 --> 00:01:47,526 jaką jest gospodarka światowa. 32 00:01:47,985 --> 00:01:49,945 Wielka bestia zwana gospodarką światową 33 00:01:52,322 --> 00:01:54,199 Czym jest sztuczna inteligencja - AI? 34 00:01:54,908 --> 00:01:58,579 Jestem w San Francisco. Najpierw chcę ustalić, czym nie jest. 35 00:01:58,662 --> 00:02:01,874 Przede wszystkim nie tym, co znacie z science-fiction. 36 00:02:02,541 --> 00:02:03,542 Zwłaszcza... 37 00:02:03,959 --> 00:02:07,004 Jeśli chodzi o wielkie roboty! 38 00:02:27,107 --> 00:02:28,442 Boże! 39 00:02:30,485 --> 00:02:32,112 Rozmawiam z Julią Bossmann, 40 00:02:32,237 --> 00:02:36,575 członkinią Rady ds. Sztucznej Inteligencji Światowego Forum Ekonomicznego, 41 00:02:36,658 --> 00:02:40,329 która doradza przywódcom, jak okiełznać sztuczną inteligencję. 42 00:02:40,829 --> 00:02:44,499 Praca ta ma swoje zalety - większe niż patrzenie na rozwalane auta. 43 00:02:44,583 --> 00:02:47,586 Można robić sobie selfie z kanadyjskim symbolem seksu. 44 00:02:47,669 --> 00:02:48,754 PREMIER KANADY 45 00:02:53,467 --> 00:02:55,385 Czym teraz wrócisz do domu? 46 00:02:55,469 --> 00:02:56,803 Myślę, że będzie działał. 47 00:03:01,016 --> 00:03:03,018 Spotykamy się w firmie MegaBots, 48 00:03:03,101 --> 00:03:05,854 budującej wielkie roboty walczące z innymi robotami. 49 00:03:07,814 --> 00:03:10,275 To jak średniowiecze dla jeszcze większych nerdów. 50 00:03:13,779 --> 00:03:14,905 Według Julii 51 00:03:14,988 --> 00:03:17,658 te roboty to nie tylko stare lunaparkowe atrakcje. 52 00:03:18,283 --> 00:03:22,412 To dinozaury technologii, gdyż posiadają jedną ważną cechę. 53 00:03:24,289 --> 00:03:25,582 Tu mózgiem jest człowiek. 54 00:03:25,666 --> 00:03:27,626 AI posiada sztuczny mózg. 55 00:03:27,709 --> 00:03:28,752 EKSPERT DS. AI 56 00:03:28,835 --> 00:03:29,711 Bardzo ciekawe. 57 00:03:29,795 --> 00:03:32,506 Produkujemy już komputery, 58 00:03:32,589 --> 00:03:34,132 które same się uczą. 59 00:03:34,591 --> 00:03:37,010 I nie potrzebują ciał. 60 00:03:37,344 --> 00:03:40,055 Spora część sztucznej inteligencji, jaką stworzyliśmy, 61 00:03:40,138 --> 00:03:41,765 żyje w wielkich centrach danych. 62 00:03:42,057 --> 00:03:46,645 Jak wyjaśniłabyś nastolatkowi, czym jest 63 00:03:46,728 --> 00:03:48,146 sztuczna inteligencja? 64 00:03:48,230 --> 00:03:50,691 Najbardziej ogólna definicja brzmi następująco: 65 00:03:50,774 --> 00:03:54,945 sztuczna inteligencja steruje maszynami tak, by wykonywały działania, 66 00:03:55,028 --> 00:03:58,156 których im nie zaprogramowaliśmy. 67 00:03:58,240 --> 00:03:59,616 W tradycyjnym programowaniu 68 00:03:59,700 --> 00:04:02,744 istnieje zestaw zasad i algorytm. 69 00:04:02,828 --> 00:04:04,413 Wiadomo, co się wydarzy. 70 00:04:04,496 --> 00:04:07,165 O wszystkim decydują osoby programujące urządzenia. 71 00:04:07,249 --> 00:04:09,501 W przypadku literatury medycznej 72 00:04:09,584 --> 00:04:12,004 jedna baza zawiera ogrom danych. 73 00:04:12,087 --> 00:04:14,923 Żaden lekarz nie przeczyta wszystkich publikacji 74 00:04:15,048 --> 00:04:17,676 z danej dziedziny. Maszyna to potrafi. 75 00:04:17,759 --> 00:04:20,220 Wyobraź sobie maszynę, która tworzy 76 00:04:20,303 --> 00:04:21,596 nowe rozwiązania 77 00:04:21,680 --> 00:04:24,766 albo nowe leki na różne choroby. 78 00:04:26,059 --> 00:04:28,395 Obecnie najciekawsze badania 79 00:04:28,478 --> 00:04:30,856 nad sztuczną inteligencją dotyczą 80 00:04:30,939 --> 00:04:32,065 uczenia głębokiego. 81 00:04:32,149 --> 00:04:33,608 Co to takiego? 82 00:04:33,692 --> 00:04:36,069 Głębokie uczenie opiera się 83 00:04:36,153 --> 00:04:39,072 na kilku warstwach sieci neuronowych 84 00:04:39,156 --> 00:04:42,242 podobnych do tych, które ma ludzki mózg. 85 00:04:42,325 --> 00:04:45,579 W naszych mózgach znajdują się neurony, które są ze sobą połączone 86 00:04:45,662 --> 00:04:46,788 i wymieniają dane. 87 00:04:46,830 --> 00:04:50,751 Staramy się to odtworzyć w maszynach. 88 00:04:50,834 --> 00:04:54,546 Podajemy im dane w sposób zrównoważony i obiektywny, 89 00:04:54,629 --> 00:04:56,214 by mogły się uczyć. 90 00:04:56,548 --> 00:04:59,009 Na przykład: rozpoznawanie obrazów. 91 00:04:59,092 --> 00:05:01,511 To są koty, a to psy. 92 00:05:01,595 --> 00:05:03,972 AI zaczyna przerzucać obrazy 93 00:05:04,056 --> 00:05:06,349 i sama uczy się, jak je rozróżniać. 94 00:05:06,433 --> 00:05:10,187 Nie musimy wszystkiego programować. 95 00:05:10,228 --> 00:05:11,229 Interesujące. 96 00:05:11,313 --> 00:05:14,107 Jest także uczenie maszynowe, które nie jest głębokim. 97 00:05:14,858 --> 00:05:16,985 Są algorytmy ewolucyjne, 98 00:05:17,069 --> 00:05:19,863 w których wykorzystujemy zasadę ewolucji: 99 00:05:19,946 --> 00:05:24,242 pozwalamy maszynie wypróbować różne procesy 100 00:05:24,743 --> 00:05:27,329 i sprawdzamy, który działa najlepiej. 101 00:05:27,412 --> 00:05:31,291 Ten, który działa najlepiej, wykorzystujemy w kolejnej generacji. 102 00:05:31,374 --> 00:05:34,336 To jak ewolucja organizmów, korzystamy z zasady 103 00:05:34,419 --> 00:05:37,172 „najsilniejsze programy przetrwają”. 104 00:05:38,465 --> 00:05:40,550 Czyli to są algorytmy ewolucyjne. 105 00:05:40,926 --> 00:05:44,346 Jak ma się sztuczna inteligencja do finansów? 106 00:05:44,429 --> 00:05:47,724 AI musi mieć potencjalnie ogromny wpływ na gospodarkę. 107 00:05:47,808 --> 00:05:50,393 Tak. Myślę, że zmiany będą radykalne. 108 00:05:50,477 --> 00:05:53,313 To nowa rewolucja przemysłowa. 109 00:05:53,396 --> 00:05:54,231 Ciekawe. 110 00:05:54,314 --> 00:05:55,774 Mówi się, że to nasz 111 00:05:55,857 --> 00:05:58,944 ostatni wynalazek, technologia mądrzejsza od nas, 112 00:05:59,027 --> 00:06:00,779 która sama będzie dokonywać odkryć. 113 00:06:00,862 --> 00:06:03,865 A może mówi się tak dlatego, że nas unicestwi? 114 00:06:04,950 --> 00:06:06,118 Oby nie. 115 00:06:08,829 --> 00:06:12,207 Wielu ludzi ma obawy, że sztuczna inteligencja stanie się 116 00:06:12,290 --> 00:06:15,001 zbyt inteligentna i nas pozabija. Niepotrzebnie. 117 00:06:15,085 --> 00:06:19,047 AI jest taka bystra między innymi dlatego, że jest głupia jak but. 118 00:06:19,464 --> 00:06:20,549 AI, do nogi. 119 00:06:21,299 --> 00:06:24,302 Przyjmijmy, że poprosicie ją o przepis na idealne ciasto 120 00:06:24,386 --> 00:06:26,179 w oparciu o algorytmy ewolucyjne. 121 00:06:27,973 --> 00:06:30,517 Nie będzie zastanawiać się, jak je najlepiej upiec. 122 00:06:30,600 --> 00:06:33,520 Będzie próbować miliard razy 123 00:06:33,603 --> 00:06:37,482 z każdym składnikiem, jaki macie w kuchni, na różne, nawet najgłupsze sposoby. 124 00:06:38,441 --> 00:06:40,652 Większość się po prostu nie uda. 125 00:06:42,320 --> 00:06:43,613 To na pewno. 126 00:06:44,447 --> 00:06:45,657 Nieźle, idiotko. 127 00:06:46,616 --> 00:06:50,162 Porażka nie zniechęca AI, bo sztuczna inteligencja nie ma uczuć. 128 00:06:50,745 --> 00:06:53,123 Zaletą algorytmów ewolucyjnych 129 00:06:53,206 --> 00:06:56,293 jest to, że wypróbowując te z pozoru głupie metody, 130 00:06:56,376 --> 00:06:58,044 AI może wpaść na rozwiązanie 131 00:06:58,128 --> 00:07:01,464 kulinarnego problemu, na które człowiek by nie wpadł. 132 00:07:01,548 --> 00:07:04,176 Na przykład, jak zrobić wegańskie ciasto doskonałe. 133 00:07:04,259 --> 00:07:05,302 Upiekłam ciasto. 134 00:07:06,178 --> 00:07:07,554 Ładnie, AI. 135 00:07:07,637 --> 00:07:09,097 Głównie z nerkowców. 136 00:07:09,931 --> 00:07:13,143 Wpadlibyście na to? Nie! 137 00:07:13,226 --> 00:07:16,521 To byłoby głupie. Ale AI to nie przeszkadza. 138 00:07:16,605 --> 00:07:18,190 Jest gotowa was wyręczyć. 139 00:07:18,273 --> 00:07:21,067 Czy ta kretynka wyewoluuje kiedyś w coś tak bystrego, 140 00:07:21,151 --> 00:07:23,653 że opanuje świat i nas wybije? 141 00:07:24,196 --> 00:07:25,280 Trudno powiedzieć. 142 00:07:25,363 --> 00:07:26,740 Znam kody nuklearne. 143 00:07:27,657 --> 00:07:28,992 Tymczasem... 144 00:07:29,993 --> 00:07:31,077 zjedzmy ciasto. 145 00:07:35,165 --> 00:07:36,541 Mimo iż nadal się martwię, 146 00:07:36,625 --> 00:07:39,461 że ze sztuczną inteligencją będą same kłopoty, 147 00:07:41,004 --> 00:07:43,757 eksperci uważają, że zwiększy ona produktywność 148 00:07:43,840 --> 00:07:47,636 w takich dziedzinach, jak opieka zdrowotna, transport i finanse, 149 00:07:47,719 --> 00:07:51,848 zwiększając globalne PKB o 15,7 biliona $ do 2030 roku. 150 00:07:52,474 --> 00:07:56,478 To więcej niż obecna wartość produkcji Chin i Indii razem wziętych. 151 00:07:56,561 --> 00:07:58,480 NOWY JORK 152 00:07:59,898 --> 00:08:02,275 Jak ważna jest sztuczna inteligencja? 153 00:08:02,943 --> 00:08:06,404 To jedno z trzech najważniejszych zjawisk w historii ludzkości. 154 00:08:06,488 --> 00:08:07,697 W całej historii? 155 00:08:07,781 --> 00:08:08,990 Całej. 156 00:08:09,616 --> 00:08:11,368 Spotykam się z Andrew McAfeem, 157 00:08:11,451 --> 00:08:15,664 jednym z czołowych ekspertów badających wpływ technologii na gospodarkę, 158 00:08:15,747 --> 00:08:19,542 a także na społeczeństwo. 159 00:08:20,460 --> 00:08:22,212 Gdyby przedstawić historię świata 160 00:08:22,295 --> 00:08:24,214 na wykresie, przez tysiące lat 161 00:08:24,297 --> 00:08:26,633 nic się nie działo. 162 00:08:26,716 --> 00:08:30,845 Jakbyśmy w ogóle nie żyli. 163 00:08:30,929 --> 00:08:32,514 A potem, nagle, 164 00:08:32,597 --> 00:08:34,933 wykres ten, w różnych punktach, 165 00:08:35,016 --> 00:08:38,144 poszedł ostro w górę. 166 00:08:38,228 --> 00:08:39,771 W mgnieniu oka. 167 00:08:39,854 --> 00:08:41,481 Stało się to w okolicach 1800 r. 168 00:08:41,564 --> 00:08:45,443 Po pierwsze dzięki maszynie parowej, po drugie - dzięki elektryczności. 169 00:08:47,821 --> 00:08:50,782 Elektryczność dała nam wiele ważnych rzeczy. 170 00:08:50,865 --> 00:08:53,827 Tramwaje i metro. 171 00:08:53,910 --> 00:08:57,080 A także, co nie jest już takie oczywiste - wieżowce. 172 00:08:57,163 --> 00:08:58,373 -Naprawdę? -Tak. 173 00:08:58,456 --> 00:08:59,749 Potrzebne są windy. 174 00:08:59,833 --> 00:09:01,543 Bez nich nie dałoby się 175 00:09:01,626 --> 00:09:03,878 poruszać po tak wysokich budynkach. 176 00:09:03,962 --> 00:09:06,506 Czyli te dwie rewolucje przemysłowe: 177 00:09:06,589 --> 00:09:09,259 para i elektryczność, a także silniki benzynowe 178 00:09:09,342 --> 00:09:11,011 zmieniły bieg historii. 179 00:09:11,094 --> 00:09:12,804 To oczywiste. 180 00:09:12,887 --> 00:09:15,974 To były technologie, które pozwoliły nam pokonać ograniczenia 181 00:09:16,057 --> 00:09:17,100 ludzkiego ciała. 182 00:09:17,183 --> 00:09:20,562 Dzięki sztucznej inteligencji pokonujemy ograniczenia 183 00:09:20,645 --> 00:09:22,564 naszych mózgów i ich zdolności. 184 00:09:22,647 --> 00:09:24,607 UWAGA - WYSOKIE NAPIĘCIE 185 00:09:24,691 --> 00:09:26,484 Mierzymy się z palącymi problemami. 186 00:09:26,568 --> 00:09:28,236 Kluczowymi problemami. 187 00:09:28,320 --> 00:09:29,696 Jak wyleczyć raka. 188 00:09:29,779 --> 00:09:31,406 Jak zwalczać głód na świecie. 189 00:09:31,489 --> 00:09:33,950 Jak przestać przegrzewać planetę. 190 00:09:34,034 --> 00:09:36,328 To są skomplikowane sprawy. 191 00:09:36,411 --> 00:09:38,747 Nasze mózgi sobie z nimi nie radzą. 192 00:09:38,830 --> 00:09:41,708 Więc wykorzystujemy naukę, gromadzimy wiedzę. 193 00:09:41,791 --> 00:09:44,044 To jednak nie wystarczy. 194 00:09:44,127 --> 00:09:45,420 Ja myślę o AI 195 00:09:45,503 --> 00:09:48,506 jak o nowym koledze-geniuszu, 196 00:09:48,590 --> 00:09:51,676 który pozwoli nam pojąć tę złożoność. 197 00:09:51,760 --> 00:09:54,637 Nowe technologie radzą sobie niezwykle dobrze 198 00:09:54,721 --> 00:09:59,684 z dostrzeganiem subtelnych wzorców w olbrzymich ilościach danych. 199 00:09:59,768 --> 00:10:01,603 My tak nie potrafimy. 200 00:10:01,686 --> 00:10:03,897 Ostatnio słyszałem ciekawy przykład 201 00:10:03,980 --> 00:10:05,106 z dziedziny finansów. 202 00:10:05,190 --> 00:10:07,650 Pojawili się tzw. robo-doradcy, 203 00:10:07,734 --> 00:10:09,361 czyli algorytm, 204 00:10:09,444 --> 00:10:11,696 który tworzy portfolio inwestycyjne. 205 00:10:11,780 --> 00:10:13,031 Do niedawna 206 00:10:13,114 --> 00:10:15,325 trzeba było być zamożnym, 207 00:10:15,408 --> 00:10:18,745 żeby choćby dostać się do biur planistów i doradców finansowych. 208 00:10:18,828 --> 00:10:20,872 -No tak. -Zmiany następują szybko. 209 00:10:20,955 --> 00:10:25,210 Dzięki zautomatyzowanemu doradztwu ludzie mniej zamożni 210 00:10:25,293 --> 00:10:28,963 mają dostęp do potężnych, ultranowoczesnych narzędzi, 211 00:10:29,047 --> 00:10:31,299 które pozwalają im się bogacić. 212 00:10:31,383 --> 00:10:34,302 To ekscytujące, zwłaszcza że wydaje się, iż zawsze 213 00:10:34,386 --> 00:10:37,555 znajdą się ludzie, którzy tego użyją, by szkodzić innym. 214 00:10:37,639 --> 00:10:40,225 Nie twierdzę, że nie ma powodów do niepokoju. 215 00:10:40,308 --> 00:10:42,852 Z poprzednich rewolucji przemysłowych wiemy, 216 00:10:42,936 --> 00:10:44,687 że pociągnęły za sobą również zło. 217 00:10:44,771 --> 00:10:49,150 Zmechanizowaliśmy działania wojenne właśnie dzięki tym technologiom. 218 00:10:49,234 --> 00:10:52,529 Potwornie zanieczyściliśmy środowisko. 219 00:10:52,612 --> 00:10:54,364 Popełniliśmy poważne błędy. 220 00:10:54,447 --> 00:10:57,951 Wykorzystywaliśmy nieletnich do pracy. 221 00:10:58,034 --> 00:11:01,079 Nie wszystkie aspekty rewolucji były pozytywne. 222 00:11:01,162 --> 00:11:03,748 Tym razem będzie tak samo. 223 00:11:04,249 --> 00:11:05,291 Cholera. 224 00:11:06,918 --> 00:11:08,586 McAfee zabił mi ćwieka. 225 00:11:08,670 --> 00:11:10,547 A co, jeśli historia kołem się toczy 226 00:11:10,630 --> 00:11:13,591 i sztuczna inteligencja zmieni ludzkość na gorsze? 227 00:11:14,467 --> 00:11:18,430 Zwiększy zanieczyszczenie, a dzieci znów będą pracować? 228 00:11:18,513 --> 00:11:19,848 LONDYN 229 00:11:19,931 --> 00:11:21,891 I co z kwestiami moralno-etycznymi, 230 00:11:21,975 --> 00:11:24,227 które wiążą się z nową, potężną technologią? 231 00:11:24,936 --> 00:11:27,647 W londyńskim Muzeum Technik Obliczeniowych 232 00:11:27,730 --> 00:11:31,109 znajduje się wiele maszyn stworzonych, by zapewnić ludzkości postęp. 233 00:11:31,192 --> 00:11:35,572 Jak ten dwutonowy Harwell Dekatron, którego zadaniem było prowadzenie obliczeń 234 00:11:35,655 --> 00:11:38,908 w ramach brytyjskiego programu badawczego w latach 50. 235 00:11:39,242 --> 00:11:41,161 Ale w niewłaściwych rękach mogłaby 236 00:11:41,244 --> 00:11:43,163 posłużyć do niecnych celów. 237 00:11:43,746 --> 00:11:45,707 Czy da się na tym oglądać porno? 238 00:11:46,040 --> 00:11:49,752 W bardzo niskiej rozdzielczości. 239 00:11:50,712 --> 00:11:51,754 PROGRAMISTA 240 00:11:51,838 --> 00:11:54,507 Spotkałem się z programistą Alanem Zucconim, 241 00:11:54,591 --> 00:11:57,177 wykładowcą z Goldsmith's College w Londynie. 242 00:11:57,719 --> 00:12:00,722 Wykorzystuje on technologię do rewolucyjnych celów, 243 00:12:00,805 --> 00:12:04,058 jak kontrolery do gier dla osób niepełnosprawnych ruchowo. 244 00:12:05,477 --> 00:12:07,937 Jego zdaniem czeka nas jeden z największych 245 00:12:08,021 --> 00:12:10,190 dylematów w historii technologii, 246 00:12:10,273 --> 00:12:14,360 gdy sztuczna inteligencja zacznie naśladować ludzkie zachowania 247 00:12:14,444 --> 00:12:16,404 i stanie się do nas łudząco podobna. 248 00:12:17,113 --> 00:12:18,615 Co to jest? 249 00:12:18,948 --> 00:12:21,826 Jeden z pierwszych komputerów. 250 00:12:21,910 --> 00:12:24,829 Zbudował go Alan Turing i jego koledzy. 251 00:12:24,913 --> 00:12:28,124 Ta maszyna to jeden z najstarszych komputerów. 252 00:12:28,208 --> 00:12:30,710 Rozszyfrował Enigmę zaprojektowaną przez nazistów. 253 00:12:32,587 --> 00:12:35,381 Alan Turing był ojcem współczesnej informatyki. 254 00:12:35,465 --> 00:12:38,927 Gdy akurat nie pomagał aliantom łamać nazistowskich szyfrów, 255 00:12:39,010 --> 00:12:42,555 pracował nad tak zwanym testem Turinga. 256 00:12:43,598 --> 00:12:46,643 Jak odróżnić człowieka od maszyny? 257 00:12:46,726 --> 00:12:49,854 Jeśli się nie da, 258 00:12:49,938 --> 00:12:53,066 maszyna wygrywa tak zwaną „grę w imitację”. 259 00:12:53,149 --> 00:12:56,569 Maszyna próbuje naśladować ludzkie zachowania. 260 00:12:56,653 --> 00:12:59,072 To jest właśnie test Turinga, 261 00:12:59,155 --> 00:13:02,659 a to była jedna z maszyn, których mógł użyć. 262 00:13:02,742 --> 00:13:03,868 By wykonać test, 263 00:13:03,952 --> 00:13:06,579 człowiek zadaje maszynie pytania, 264 00:13:07,080 --> 00:13:08,831 a niezależny obserwator ocenia, 265 00:13:08,915 --> 00:13:11,501 czy odpowiedzi udziela człowiek, 266 00:13:11,584 --> 00:13:13,461 czy maszyna go naśladująca. 267 00:13:14,379 --> 00:13:15,630 Ile masz lat? 268 00:13:17,924 --> 00:13:20,134 Proszę. Wie, ile ma lat. 269 00:13:20,218 --> 00:13:22,011 „Urodziłem się w 1912 r. 270 00:13:22,095 --> 00:13:24,389 „Mam 105 lat”. 271 00:13:27,642 --> 00:13:30,979 W czasach Turinga łatwo było rozpoznać komputer. 272 00:13:31,271 --> 00:13:34,357 Dziś sztuczna inteligencja analizuje ludzkie zachowania 273 00:13:34,440 --> 00:13:36,693 i programuje się tak, by je powielać. 274 00:13:37,485 --> 00:13:39,654 Czy widzisz różnicę między tym... 275 00:13:39,988 --> 00:13:43,199 Powinienem zacząć od żartu na temat nauki o danych, 276 00:13:43,700 --> 00:13:46,744 ale te, które wymyślili moi pracownicy, były kiepskie. 277 00:13:46,828 --> 00:13:47,912 ...a tym? 278 00:13:47,996 --> 00:13:50,415 Nasi wrogowie mogą włożyć nam w usta 279 00:13:50,498 --> 00:13:51,833 dowolną wypowiedź. 280 00:13:52,208 --> 00:13:55,503 To drugie nagranie przygotował BuzzFeed 281 00:13:55,587 --> 00:13:57,338 z aktorem Jordanem Peele'em. 282 00:13:57,839 --> 00:14:02,760 Zaniepokoiło ono wielu ludzi - to nowy rodzaj AI preparujący fake newsy. 283 00:14:02,844 --> 00:14:04,929 Musimy zwiększyć czujność, 284 00:14:05,013 --> 00:14:06,639 gdy korzystamy z Internetu. 285 00:14:06,723 --> 00:14:09,058 Sztuczna inteligencja przestudiowała 286 00:14:09,142 --> 00:14:13,062 mimikę Peele'a i nałożyła ją na twarz Obamy, 287 00:14:13,146 --> 00:14:15,690 tworząc hybrydę znaną jako deepfake. 288 00:14:15,773 --> 00:14:17,984 Pewnie już coś takiego widziałeś. 289 00:14:18,067 --> 00:14:21,404 Na Snapchacie jest filtr do tzw. face swapa. 290 00:14:21,487 --> 00:14:25,325 Z tym że jest on bardzo prosty. 291 00:14:25,408 --> 00:14:28,953 Technologia deepfake'ów opiera się na sztucznej inteligencji. 292 00:14:29,037 --> 00:14:31,289 Czerpie z uczenia głębokiego. 293 00:14:31,706 --> 00:14:35,126 Sztuczne sieci neuronowe wyodrębniają pojedyncze wyrazy twarzy. 294 00:14:35,209 --> 00:14:37,754 I wykorzystują je, by odtworzyć twoją twarz. 295 00:14:37,837 --> 00:14:41,466 Dzięki temu osiąga fotorealistyczne rezultaty. 296 00:14:42,508 --> 00:14:45,720 Alan tworzy filmiki instruktażowe na temat deepfake'ów. 297 00:14:45,803 --> 00:14:48,056 Wierzy, że ta technologia 298 00:14:48,139 --> 00:14:50,767 powinna rozwijać się w sposób nieskrępowany. 299 00:14:50,850 --> 00:14:53,853 Choć mogłaby ona rozpętać wojnę. 300 00:14:54,854 --> 00:14:57,273 Skąd odbiorca ma wiedzieć, 301 00:14:57,357 --> 00:14:59,692 co jest prawdą, a co nie? 302 00:14:59,776 --> 00:15:02,695 Odbiorca danego komunikatu, 303 00:15:02,779 --> 00:15:05,740 czy to artykułu, zdjęcia, czy też nagrania, 304 00:15:05,823 --> 00:15:08,076 powinien pamiętać, że ktoś go stworzył. 305 00:15:08,201 --> 00:15:09,577 „Jak mam to rozumieć? 306 00:15:09,827 --> 00:15:11,287 „Jaki jest główny przekaz?” 307 00:15:11,371 --> 00:15:13,581 Widzę... 308 00:15:13,665 --> 00:15:14,624 Niebezpieczeństwo. 309 00:15:14,707 --> 00:15:17,168 To niebezpieczne, ale i ciekawe. 310 00:15:17,251 --> 00:15:19,420 Czy to faktycznie nam pomoże? 311 00:15:19,504 --> 00:15:21,923 Rozumiem, że rozmawiałeś z ludźmi, 312 00:15:22,006 --> 00:15:25,885 którzy chcą rozwijać gospodarkę z użyciem takich technologii. 313 00:15:25,968 --> 00:15:29,097 Jaki wpływ mogą one mieć na gospodarkę? 314 00:15:29,180 --> 00:15:32,308 Uważam, że gałęzią przemysłu, która skorzysta na tym pierwsza, 315 00:15:32,392 --> 00:15:33,685 jest kinematografia. 316 00:15:33,768 --> 00:15:36,813 Manipulowanie twarzą 317 00:15:36,896 --> 00:15:40,024 to coś, co chcieliśmy robić w kinie od dawna. 318 00:15:40,108 --> 00:15:42,527 Korzystamy z charakteryzacji i masek, 319 00:15:42,610 --> 00:15:43,736 czasem z CGI. 320 00:15:43,820 --> 00:15:46,489 Przeraża mnie to jako aktora i osobę, 321 00:15:46,572 --> 00:15:48,616 która angażowała się w politykę. 322 00:15:48,700 --> 00:15:50,201 I powinno. 323 00:15:51,285 --> 00:15:53,705 Deepfake BuzzFeeda pokazał ludziom, 324 00:15:53,788 --> 00:15:55,039 jak duże jest zagrożenie. 325 00:15:55,873 --> 00:15:59,585 W czasach, gdy prezydent jedną wypowiedzią może wstrząsnąć rynkiem, 326 00:15:59,669 --> 00:16:02,714 sprawny deepfake może pogrążyć gospodarkę 327 00:16:02,797 --> 00:16:04,674 szybciej niż flash crash, 328 00:16:04,757 --> 00:16:08,469 wyczyścić wasze fundusze emerytalne szybciej, niż fałszywy Obama mówi... 329 00:16:08,553 --> 00:16:09,554 Czuwaj, ziom. 330 00:16:10,638 --> 00:16:13,057 Brzmi to jak science-fiction? 331 00:16:13,141 --> 00:16:14,726 Przeraża was to? 332 00:16:15,309 --> 00:16:18,271 Gdy sztuczna inteligencja rozgryzie to, jak się poruszamy, 333 00:16:18,354 --> 00:16:20,022 mówimy i myślimy, 334 00:16:20,106 --> 00:16:22,316 stanie się nie do odróżnienia od nas. 335 00:16:22,400 --> 00:16:23,818 CO WIESZ WSZYSTKO 336 00:16:24,610 --> 00:16:26,779 Gdyby zyskała świadomość, 337 00:16:26,863 --> 00:16:29,782 mogłaby zacząć formułować opinie na nasz temat. 338 00:16:29,866 --> 00:16:30,908 JEB SIĘ UWAŻAJ SOBIE! 339 00:16:30,992 --> 00:16:33,119 Niekoniecznie pozytywne. 340 00:16:35,455 --> 00:16:36,664 FIZYK TEORETYCZNY 341 00:16:36,748 --> 00:16:39,292 W przyszłości AI może wykształcić własną wolę. 342 00:16:39,375 --> 00:16:42,003 Sprzeczną z naszą. 343 00:16:42,086 --> 00:16:44,422 Pojawienie się potężnej sztucznej inteligencji 344 00:16:44,505 --> 00:16:48,801 to będzie najlepsza lub najgorsza rzecz, jaka przytrafiła się ludzkości. 345 00:16:49,260 --> 00:16:50,136 PREZES SPACEX 346 00:16:50,219 --> 00:16:53,181 Od lat próbuję przekonać ludzi, by uregulować i spowolnić 347 00:16:54,056 --> 00:16:55,224 prace nad AI. 348 00:16:55,308 --> 00:16:56,809 Bezskutecznie. 349 00:16:56,893 --> 00:16:58,561 -Nie słuchają. -To jak scena 350 00:16:58,644 --> 00:17:00,980 z filmu, w którym roboty przejmują władzę. 351 00:17:01,063 --> 00:17:02,607 Nie strasz mnie. 352 00:17:05,818 --> 00:17:09,030 Jak realne jest zagrożenie robo-apokalipsą? 353 00:17:09,113 --> 00:17:10,782 OKSFORD 354 00:17:10,865 --> 00:17:12,408 WIELKA BRYTANIA 355 00:17:12,742 --> 00:17:15,077 By się tego dowiedzieć, pogadam z kolesiem, 356 00:17:15,161 --> 00:17:18,164 którego badania nieźle nastraszyły ludzi. 357 00:17:18,831 --> 00:17:21,083 Naprawdę się cieszę, że rozmawiamy... 358 00:17:21,167 --> 00:17:23,628 Z wielu powodów. 359 00:17:23,711 --> 00:17:26,839 Zajmujemy się tematem sztucznej inteligencji, 360 00:17:26,923 --> 00:17:29,258 ustalamy, czym jest i dokąd zmierza. 361 00:17:29,342 --> 00:17:34,680 Cieszy się pan autorytetem nie mniejszym niż Elon Musk czy Bill Gates. 362 00:17:37,016 --> 00:17:40,853 To naprawdę duża rzecz. 363 00:17:42,021 --> 00:17:45,691 Jestem w Oksfordzie. Rozmawiam z dr. Nickiem Bostromem. 364 00:17:45,775 --> 00:17:48,986 A skoro on nie lubi się chwalić, to ja to zrobię. 365 00:17:51,489 --> 00:17:55,201 To jeden z największych ekspertów w dziedzinie inteligencji maszyn 366 00:17:55,284 --> 00:17:59,205 oraz ryzyka, jakie się z nią wiąże. Napisał też parę bestsellerów. 367 00:17:59,705 --> 00:18:00,957 Mam szczęście, 368 00:18:01,040 --> 00:18:03,584 że udało nam się spotkać, bo Nick jest tak zajęty 369 00:18:03,668 --> 00:18:05,419 własnym głębokim uczeniem, 370 00:18:05,503 --> 00:18:07,338 że rozmawia z ludźmi raz w miesiącu. 371 00:18:10,925 --> 00:18:14,262 Wiele rozmów na temat sztucznej inteligencji 372 00:18:14,345 --> 00:18:17,014 dotyczy tego, czy roboty przejmą władzę 373 00:18:17,098 --> 00:18:18,850 i czy to oznacza koniec ludzkości. 374 00:18:18,933 --> 00:18:21,310 Zastanawiam się, czy jeśli popełnimy błąd, 375 00:18:21,394 --> 00:18:24,564 to czy jest możliwe, że AI nas skrzywdzi 376 00:18:24,647 --> 00:18:28,484 albo wręcz wyeliminuje? 377 00:18:28,568 --> 00:18:29,902 Gdy myślimy o tym, 378 00:18:29,986 --> 00:18:33,114 co może się stać z AI w dłuższej perspektywie, 379 00:18:33,197 --> 00:18:36,951 gdy będzie ona zdolna odtwarzać inteligencję 380 00:18:37,034 --> 00:18:38,828 na poziomie ludzkiej, wtedy - tak, 381 00:18:38,911 --> 00:18:42,748 istnieją większe zagrożenia, 382 00:18:42,832 --> 00:18:44,125 w tym egzystencjalne. 383 00:18:45,585 --> 00:18:48,421 Na przykład: autonomiczny samochód 384 00:18:49,672 --> 00:18:51,549 może zabić przechodnia. 385 00:18:51,632 --> 00:18:53,342 Są też kwestie prywatności. 386 00:18:53,426 --> 00:18:56,095 Militaryzacja broni autonomicznej. 387 00:18:57,847 --> 00:18:59,307 To są realne zagrożenia. 388 00:18:59,390 --> 00:19:02,184 Ale w pewnym momencie pojawi się też kwestia, 389 00:19:02,268 --> 00:19:04,687 jak wpływać na cyfrowe umysły, które tworzymy. 390 00:19:04,770 --> 00:19:09,066 Same mogą wypracowywać postawy moralne. 391 00:19:09,525 --> 00:19:11,152 Gdy spojrzymy w przyszłość 392 00:19:11,235 --> 00:19:15,031 i zastanowimy się, jaki będzie los homo sapiens, 393 00:19:15,114 --> 00:19:18,534 dojdziemy do wniosku, że dalszą przyszłość zdominuje AI. 394 00:19:18,618 --> 00:19:21,996 Możliwe, że ludzkość wyginie. 395 00:19:23,414 --> 00:19:26,250 Potęga technologii wiąże się z ryzykiem, 396 00:19:26,834 --> 00:19:30,755 iż przypadkiem lub celowo zostanie użyta 397 00:19:30,838 --> 00:19:33,466 jako narzędzie destrukcji. 398 00:19:35,885 --> 00:19:37,595 To może się stać 399 00:19:37,678 --> 00:19:39,305 w dalszej przyszłości. 400 00:19:39,388 --> 00:19:41,182 Może się to dla nas skończyć dobrze 401 00:19:41,265 --> 00:19:43,726 albo źle. 402 00:19:46,354 --> 00:19:48,731 To brzmi naprawdę strasznie. 403 00:19:49,732 --> 00:19:51,609 Zdaniem Nicka 404 00:19:51,692 --> 00:19:55,821 najbardziej prawdopodobnym scenariuszem końca świata z udziałem AI będzie 405 00:19:55,905 --> 00:19:57,114 ten gospodarczy. 406 00:19:57,198 --> 00:19:59,450 Dzięki technologii 407 00:19:59,533 --> 00:20:02,828 możemy zrobić więcej przy mniejszym nakładzie pracy. 408 00:20:02,912 --> 00:20:06,123 Lepsze rezultaty przy mniejszym wysiłku. 409 00:20:06,207 --> 00:20:07,750 Ostatecznym celem 410 00:20:07,833 --> 00:20:09,418 byłoby pełne bezrobocie. 411 00:20:10,294 --> 00:20:12,380 Sytuacja, w której maszyny, technologia, 412 00:20:12,463 --> 00:20:15,341 wykonuje za nas całą pracę. 413 00:20:15,424 --> 00:20:17,301 To jest cel, do którego dążymy. 414 00:20:17,385 --> 00:20:19,553 Nie musimy tego powstrzymywać. 415 00:20:19,637 --> 00:20:20,680 To nasza szansa. 416 00:20:20,763 --> 00:20:22,932 By stworzyć tę utopię, 417 00:20:23,015 --> 00:20:25,601 musimy zmierzyć się z wyzwaniami, 418 00:20:25,685 --> 00:20:27,061 które nas czekają. 419 00:20:28,187 --> 00:20:30,815 Między innymi problemy gospodarcze. 420 00:20:30,898 --> 00:20:33,567 Ludzie potrzebują pracy, bo chcą mieć dochód. 421 00:20:33,651 --> 00:20:35,653 Jeśli rozwiążemy ten problem, 422 00:20:35,736 --> 00:20:37,571 pojawi się kolejny. 423 00:20:37,655 --> 00:20:41,409 Dla wielu jest to także kwestia godności. 424 00:20:41,492 --> 00:20:43,786 Niektórzy mierzą swoją wartość tym, 425 00:20:43,869 --> 00:20:47,081 że utrzymują rodzinę lub wnoszą wkład w życie społeczeństwa. 426 00:20:47,164 --> 00:20:49,583 Jeśli jednak maszyny będą lepsze we wszystkim, 427 00:20:49,667 --> 00:20:53,796 my nie będziemy wnosić nic. 428 00:20:53,879 --> 00:20:58,175 Konieczne będzie wymyślenie naszej kultury od nowa. 429 00:20:59,176 --> 00:21:01,095 Świat, w którym nikt nie pracuje. 430 00:21:01,178 --> 00:21:02,930 Nie brzmi źle. 431 00:21:05,057 --> 00:21:06,267 Już go widzę. 432 00:21:09,854 --> 00:21:11,313 Imprezy z przyjaciółmi. 433 00:21:11,814 --> 00:21:14,942 Wykorzystywanie pełni mojego potencjału. 434 00:21:15,026 --> 00:21:19,321 Jacuzzi, które samo wie, jaką lubię temperaturę wody. 435 00:21:20,114 --> 00:21:23,409 Jest pewien problem: historia uczy nas, że będzie inaczej. 436 00:21:23,492 --> 00:21:26,537 Dominacja maszyn to dla nas nie pierwszyzna. 437 00:21:26,620 --> 00:21:27,705 Ostatnim razem 438 00:21:27,788 --> 00:21:30,666 nie skończyło się to szampanem w jacuzzi. 439 00:21:34,378 --> 00:21:35,421 LONDYN 440 00:21:35,504 --> 00:21:36,505 ANGLIA 441 00:21:36,964 --> 00:21:41,093 Rozmawiam z ekonomistą Nickiem Srnickiem. Opowie mi o maszynach, 442 00:21:41,177 --> 00:21:43,054 które kiedyś zabrały nam pracę. 443 00:21:43,888 --> 00:21:46,015 Nie bez powodu spotykamy się przy krośnie. 444 00:21:46,432 --> 00:21:47,725 Co uszyjesz? 445 00:21:47,808 --> 00:21:50,311 Szyję anarchistyczną flagę. 446 00:21:50,394 --> 00:21:51,979 Ciekawe. Szokujące. 447 00:21:54,315 --> 00:21:57,568 Nick ma doktorat z London School of Economics. 448 00:21:58,027 --> 00:22:00,321 A ja nie. 449 00:22:01,530 --> 00:22:02,573 I napisał manifest. 450 00:22:02,656 --> 00:22:03,949 AKCELERACJONIZM 451 00:22:04,492 --> 00:22:07,703 Nawołuje w nim o przyspieszenie ery automatyzacji 452 00:22:07,787 --> 00:22:09,830 poprzez obalenie systemu. 453 00:22:12,458 --> 00:22:15,461 Rozmontowanie kapitalizmu. 454 00:22:16,003 --> 00:22:17,254 To się nie uda. 455 00:22:17,338 --> 00:22:19,632 Nie pogadamy. 456 00:22:19,715 --> 00:22:21,550 Odpuszczę sobie tkanie. 457 00:22:22,093 --> 00:22:23,761 Co tu robimy? 458 00:22:24,637 --> 00:22:28,224 Krosno to taka sztuczna inteligencja z XIX wieku. 459 00:22:28,307 --> 00:22:32,853 Nowa technologia, która zagroziła wielu ludziom pracującym. 460 00:22:33,270 --> 00:22:37,233 Reakcje były rozmaite: 461 00:22:37,316 --> 00:22:39,360 na przykład pojawili się luddyści. 462 00:22:39,443 --> 00:22:41,487 Dziś używamy tego określenia, 463 00:22:41,570 --> 00:22:44,031 by opisać ludzi, którzy nienawidzą technologii. 464 00:22:44,532 --> 00:22:45,950 Choć znaczy to coś innego. 465 00:22:46,700 --> 00:22:48,119 Luddyzm wziął nazwę 466 00:22:48,202 --> 00:22:49,036 CZELADNIK 467 00:22:49,120 --> 00:22:51,122 od Neda Ludda, czeladnika 468 00:22:51,205 --> 00:22:53,958 w fabryce włókienniczej, wychłostanego za lenistwo. 469 00:22:54,041 --> 00:22:56,502 Gość tłumaczył, że nic nie robi, 470 00:22:56,585 --> 00:22:59,338 bo ma go zastąpić pieprzone krosno. 471 00:22:59,421 --> 00:23:03,008 Jako pierwszy zbuntował się przeciwko systemowi 472 00:23:03,092 --> 00:23:05,010 i zainspirował innych. 473 00:23:06,262 --> 00:23:10,349 Luddyści psuli maszyny, by zachować pracę. 474 00:23:10,432 --> 00:23:12,810 Dziś mamy podobną sytuację. 475 00:23:12,893 --> 00:23:15,771 Ludzie czują się zagrożeni przez sztuczną inteligencję. 476 00:23:15,855 --> 00:23:19,483 Wiesz może, ile zawodów zniknie lub zostanie przekształconych? 477 00:23:19,567 --> 00:23:21,986 47% zawodów w USA 478 00:23:22,069 --> 00:23:24,822 da się zautomatyzować w ciągu 20 lat. 479 00:23:24,905 --> 00:23:26,615 To może być problem. 480 00:23:26,699 --> 00:23:27,992 I to duży. 481 00:23:28,075 --> 00:23:31,662 Musimy się zastanowić, co zrobić, by za 5-10 lat 482 00:23:31,745 --> 00:23:33,998 ludzie nie głodowali i mieli dach nad głową. 483 00:23:34,081 --> 00:23:35,166 Co proponujesz? 484 00:23:35,457 --> 00:23:36,959 Universal Basic Income. 485 00:23:38,210 --> 00:23:40,754 Bezwarunkowy dochód podstawowy to radykalna idea, 486 00:23:40,880 --> 00:23:43,424 która zakłada, że każdy dostaje pieniądze. 487 00:23:43,507 --> 00:23:45,092 Bez zobowiązań. 488 00:23:45,176 --> 00:23:47,178 Ma ona swoich zwolenników. 489 00:23:47,636 --> 00:23:50,347 Należy rozważyć ideę Universal Basic Income, 490 00:23:50,431 --> 00:23:53,142 by zadbać o wszystkich w nowym świecie. 491 00:23:53,225 --> 00:23:56,145 Niektóre kraje i miasta 492 00:23:56,228 --> 00:23:58,189 testowały tę ideę. 493 00:23:58,272 --> 00:23:59,190 Efekty były różne. 494 00:24:00,858 --> 00:24:03,861 Nowe technologie to szansa, 495 00:24:03,944 --> 00:24:06,447 by przeorganizować społeczeństwo 496 00:24:06,530 --> 00:24:09,408 w kierunku socjaldemokracji. 497 00:24:10,117 --> 00:24:13,454 Nie musi to być taki reżim jak w USA. 498 00:24:13,537 --> 00:24:15,331 Powinniśmy wspierać się nawzajem. 499 00:24:15,414 --> 00:24:19,418 Jeśli ludzie tacy jak ja zaczną przedstawiać pozytywne wizje, 500 00:24:19,919 --> 00:24:21,587 gdy nadejdzie kryzys, 501 00:24:21,670 --> 00:24:23,380 będzie je można wdrożyć. 502 00:24:24,173 --> 00:24:27,343 UBI postrzegano kiedyś jako niszową koncepcję, 503 00:24:27,426 --> 00:24:30,930 wyznawaną przez idealistów takich jak Nick. 504 00:24:31,639 --> 00:24:33,891 Jednak według sondażu Gallupa z 2017 r. 505 00:24:33,974 --> 00:24:37,603 48% Amerykanów popiera UBI w różnych formach. 506 00:24:38,520 --> 00:24:40,231 Czy jednak gwarantowana wypłata 507 00:24:40,314 --> 00:24:41,982 wystarczy, by ludzie 508 00:24:42,066 --> 00:24:43,734 nie buntowali się przeciwko AI? 509 00:24:44,735 --> 00:24:45,611 LUDDYŚCI 510 00:24:45,694 --> 00:24:48,572 -Czego nienawidzimy? -Sztucznej inteligencji. 511 00:24:48,656 --> 00:24:50,032 Dlaczego? 512 00:24:50,115 --> 00:24:53,160 Bo każe nam mierzyć się z naszymi słabościami. 513 00:24:53,244 --> 00:24:55,955 Otwieram posiedzenie luddystów, 514 00:24:56,038 --> 00:24:58,958 Lokalnego stowarzyszenia wrogów inteligentnej technologii 515 00:24:59,041 --> 00:25:00,834 i mediów społecznościowych. 516 00:25:01,835 --> 00:25:02,836 Pierwszy punkt. 517 00:25:03,337 --> 00:25:06,340 Sztuczna inteligencja pustoszy rynek pracy. 518 00:25:06,423 --> 00:25:09,260 Zawody klasy średniej, czyli nasze, znikną jako pierwsze. 519 00:25:09,885 --> 00:25:11,720 Ludzie tacy jak my 520 00:25:11,804 --> 00:25:14,473 zostaną zepchnięci do niższej kategorii. 521 00:25:14,974 --> 00:25:16,558 Dlaczego, Ed? 522 00:25:16,642 --> 00:25:21,105 Sztuczna inteligencja jest lepsza w pracy z liczbami 523 00:25:21,188 --> 00:25:24,400 niż w zamiataniu podłogi. 524 00:25:24,483 --> 00:25:26,277 To ostatnie zostawią dla nas. 525 00:25:26,735 --> 00:25:28,028 Pytam was więc. 526 00:25:28,112 --> 00:25:29,655 Kto poza Billem 527 00:25:29,738 --> 00:25:32,199 powinien zamiatać podłogi? Bez obrazy, Bill. 528 00:25:33,325 --> 00:25:35,786 Będzie też mniej pracy w handlu detalicznym. 529 00:25:35,869 --> 00:25:38,622 Ludzie będą robić zakupy online, zamawiać, co chcą, 530 00:25:39,164 --> 00:25:41,583 bo AI, ta suka, 531 00:25:41,667 --> 00:25:43,919 pomaga znajdować pożądane produkty. 532 00:25:44,378 --> 00:25:46,755 Dopasowuje je do potrzeb klienta. 533 00:25:46,839 --> 00:25:49,383 Jak wtedy, gdy Steve szukał tupecika na swój łeb. 534 00:25:49,466 --> 00:25:50,426 Duży problem! 535 00:25:51,969 --> 00:25:53,721 Suchary odłóżmy na bok. 536 00:25:54,346 --> 00:25:56,890 AI ułatwia życie. 537 00:25:56,974 --> 00:25:59,643 Dzieciaki umawiają się z laseczkami przez Internet, 538 00:25:59,727 --> 00:26:01,937 siedząc w kiblu z telefonem. 539 00:26:02,021 --> 00:26:04,064 Kibel to była świętość! 540 00:26:04,773 --> 00:26:07,568 Do tego wyszukiwania i dopasowywania trzeba ludzi, 541 00:26:07,651 --> 00:26:10,279 ale to roboty decydują, kto dostanie tę pracę. 542 00:26:10,362 --> 00:26:11,739 Bardzo wygodnie. 543 00:26:12,489 --> 00:26:14,700 Firmy wykorzystują AI, by znaleźć pracowników 544 00:26:14,783 --> 00:26:16,869 o szczególnych umiejętnościach. 545 00:26:16,952 --> 00:26:18,287 To nieludzkie! 546 00:26:18,370 --> 00:26:19,705 Jak w przypadku Dave'a. 547 00:26:20,080 --> 00:26:21,332 Gdzie on się podział? 548 00:26:21,415 --> 00:26:24,251 Jakaś sztuczna inteligencja wykryła, że pracuje w FedEx 549 00:26:24,335 --> 00:26:27,087 i robi tutoriale o goleniu pleców. 550 00:26:27,171 --> 00:26:30,716 Teraz zarabia sześciocyfrową sumę w jakiejś firmie wysyłającej brzytwy. 551 00:26:30,799 --> 00:26:33,093 Wypisał się z naszego klubu. 552 00:26:33,177 --> 00:26:34,094 Tak. 553 00:26:34,178 --> 00:26:36,513 Ej, Ed. Dostałem powiadomienie, 554 00:26:36,597 --> 00:26:38,766 że nasze T-shirty są reklamowane 555 00:26:38,849 --> 00:26:41,602 na Facebooku. Korzystasz z AI, żeby zarabiać? 556 00:26:41,685 --> 00:26:43,479 Nie! 557 00:26:44,897 --> 00:26:46,023 Komu wierzysz? 558 00:26:46,106 --> 00:26:48,859 Mnie czy technologii, która chce nas poróżnić? 559 00:26:49,902 --> 00:26:52,363 -Czego nienawidzimy? -Sztucznej inteligencji. 560 00:26:52,446 --> 00:26:54,698 -Co z nią zrobimy? -Zobaczymy. 561 00:26:56,075 --> 00:26:57,201 Coś już mamy. 562 00:27:02,748 --> 00:27:06,168 Czy rewolucja technologiczna nieuchronnie doprowadzi do konfrontacji? 563 00:27:07,086 --> 00:27:10,672 Przedsiębiorcy z tej branży, jak Louis Rosenberg, mówią, że nie. 564 00:27:10,964 --> 00:27:13,342 Oparł on na tym swoją karierę. 565 00:27:18,514 --> 00:27:20,599 Chciałem cię nastraszyć. Nie wyszło. 566 00:27:21,558 --> 00:27:24,478 Louis to technolog i wynalazca, 567 00:27:24,561 --> 00:27:27,689 który napisał powieść graficzną o końcu świata. 568 00:27:27,773 --> 00:27:31,276 Uważa jednak, że sztuczna inteligencja będzie z nami współpracować. 569 00:27:31,360 --> 00:27:34,113 To zasada, na jakiej opiera się jego dzieło: 570 00:27:34,196 --> 00:27:35,989 technologia zwana Swarm, czyli Rój. 571 00:27:36,073 --> 00:27:37,074 CZYM JEST RÓJ? 572 00:27:37,157 --> 00:27:40,077 Swarm łączy w sobie zdolności analityczne AI 573 00:27:40,160 --> 00:27:44,415 oraz ludzką wiedzę i intuicję, tworząc superinteligencję, 574 00:27:44,498 --> 00:27:47,709 coś pomiędzy Hawkingiem a Profesorem Xavierem. 575 00:27:47,793 --> 00:27:49,044 CO POWINNO ZROBIĆ AUTO? 576 00:27:49,128 --> 00:27:50,754 Opiera się na zjawiskach 577 00:27:50,838 --> 00:27:51,964 PREZES UNANIMOUS AI 578 00:27:52,047 --> 00:27:54,591 naturalnych, pierwotnych, jak pszczoły i ptaki. 579 00:27:54,675 --> 00:27:57,970 Czerpie bowiem ze zjawiska zwanego inteligencją rozproszoną. 580 00:27:58,971 --> 00:28:03,392 Inteligencja rozproszona rządzi stadami ptaków, ławicami ryb, rojami pszczół. 581 00:28:03,475 --> 00:28:06,520 Razem są one bystrzejsze niż w pojedynkę. 582 00:28:06,603 --> 00:28:09,398 Dlatego biolodzy nazywają ławice ryb 583 00:28:09,481 --> 00:28:11,900 nadorganizmami, widać bowiem, że myślą one 584 00:28:11,984 --> 00:28:13,735 jak jeden mózg. 585 00:28:13,819 --> 00:28:16,029 Gdyby połączyć ludzi 586 00:28:16,113 --> 00:28:18,407 przy użyciu algorytmu, 587 00:28:18,490 --> 00:28:21,743 mogliby stać się wybitnymi ekspertami dzięki 588 00:28:21,827 --> 00:28:23,328 inteligencji rozproszonej. 589 00:28:23,412 --> 00:28:24,705 Jak to działa? 590 00:28:24,788 --> 00:28:27,249 Dobieramy grupy ludzi. 591 00:28:27,332 --> 00:28:28,709 Z różnych stron świata. 592 00:28:28,792 --> 00:28:30,377 Zadajemy im pytanie, 593 00:28:30,461 --> 00:28:32,880 które pojawia się na ich ekranach jednocześnie. 594 00:28:32,963 --> 00:28:35,299 Mają do dyspozycji interfejs, 595 00:28:35,382 --> 00:28:37,593 który pozwala im przekazać odpowiedź, 596 00:28:37,676 --> 00:28:39,261 wykorzystując różne opcje. 597 00:28:39,344 --> 00:28:41,638 To nie jest sondaż ani ankieta. 598 00:28:41,722 --> 00:28:44,975 Każdy uczestnik widzi coś na kształt rysunku magnesu. 599 00:28:45,058 --> 00:28:48,353 Używają go, by przeciągnąć rój w danym kierunku. 600 00:28:48,437 --> 00:28:51,440 Mamy algorytmy, które ich obserwują, 601 00:28:51,857 --> 00:28:55,652 i które ustalają poziomy pewności siebie i przekonania, 602 00:28:55,736 --> 00:28:57,905 a następnie grupują i porządkują 603 00:28:57,988 --> 00:29:01,325 ich opinie i doświadczenia. 604 00:29:01,408 --> 00:29:04,203 Rój zaczyna poruszać się w tym kierunku 605 00:29:04,286 --> 00:29:06,121 i wypracowuje odpowiedź. 606 00:29:06,205 --> 00:29:07,331 Podam ci przykład. 607 00:29:07,414 --> 00:29:10,167 Rok temu mieliśmy przewidzieć wynik Derbów Kentucky. 608 00:29:10,584 --> 00:29:13,962 Wyścig rozpoczęty! 609 00:29:14,046 --> 00:29:16,715 Dobraliśmy grupę 20 fanów wyścigów konnych 610 00:29:16,798 --> 00:29:18,675 i kazaliśmy im pracować w roju, 611 00:29:18,759 --> 00:29:20,219 by przewidzieć wynik derbów. 612 00:29:20,302 --> 00:29:23,472 Ale nie tylko zwycięzcę. Miejsca od pierwszego do czwartego. 613 00:29:24,014 --> 00:29:26,475 Mieli wypracować te odpowiedzi. 614 00:29:26,934 --> 00:29:28,143 Spisali się świetnie. 615 00:29:28,227 --> 00:29:30,062 WYNIKI DERBÓW 2016 616 00:29:30,145 --> 00:29:33,315 Każdy, kto postawił 20 $ na te 4 konie, 617 00:29:33,398 --> 00:29:35,067 wygrał 11 000 $. 618 00:29:35,150 --> 00:29:36,068 W mordę. 619 00:29:36,151 --> 00:29:39,071 Ciekawe jest to, że indywidualnie 620 00:29:39,154 --> 00:29:42,741 żaden z nich nie wybrał prawidłowo. 621 00:29:43,742 --> 00:29:47,079 Gdyby mieli głosować, trafiliby tylko w jednym przypadku. 622 00:29:47,162 --> 00:29:49,206 Gdy jednak pracowali w roju, 623 00:29:49,289 --> 00:29:52,251 znaleźli właściwą kombinację wszystkich opinii 624 00:29:52,334 --> 00:29:54,127 i mieli 100% skuteczności. 625 00:29:56,046 --> 00:29:58,507 Louis poprosił, bym poprowadził rój 626 00:29:58,590 --> 00:30:00,467 i zobaczył, jak losowa grupa 627 00:30:00,551 --> 00:30:02,803 wspólnie opracowuje rozwiązanie. 628 00:30:02,886 --> 00:30:04,555 Zaczniemy od łatwych rzeczy. 629 00:30:05,764 --> 00:30:08,433 Dobra. Odczytam wam serię pytań. 630 00:30:08,517 --> 00:30:12,020 Macie 60 sekund na odpowiedź. 631 00:30:12,354 --> 00:30:13,522 Pierwsze pytanie: 632 00:30:13,605 --> 00:30:16,525 które filmy z 2018 roku 633 00:30:16,608 --> 00:30:17,985 zarobią najwięcej? 634 00:30:18,402 --> 00:30:20,320 Han Solo, 635 00:30:20,404 --> 00:30:22,281 Deadpool, Ocean's 8, 636 00:30:22,364 --> 00:30:24,116 Jurassic World: Upadłe królestwo 637 00:30:24,199 --> 00:30:25,742 czy Iniemamocni 2? 638 00:30:26,076 --> 00:30:28,328 Kręciliśmy ten fragment wiosną 2018 roku, 639 00:30:28,412 --> 00:30:31,498 kiedy nie było jeszcze informacji o letnich premierach. 640 00:30:31,957 --> 00:30:35,961 AI obserwowała ich, by ustalić poziomy pewności siebie. 641 00:30:36,044 --> 00:30:39,381 Niektórzy zmieniają zdanie, inni trwają przy swoim, 642 00:30:39,840 --> 00:30:41,592 a algorytmy ustalają 643 00:30:41,675 --> 00:30:43,218 poziom przekonania 644 00:30:43,594 --> 00:30:45,137 i pozwalają znaleźć drogę 645 00:30:45,220 --> 00:30:47,681 do rozwiązania, co do którego się zgodzą. 646 00:30:48,640 --> 00:30:49,558 RÓJ: INIEMAMOCNI 2 647 00:30:49,641 --> 00:30:51,893 Wybrali Iniemamocnych 2. 648 00:30:51,977 --> 00:30:52,811 LATO 2018 649 00:30:52,894 --> 00:30:53,854 Mieli rację. 650 00:30:53,937 --> 00:30:56,565 Ten film zarobił tego lata najwięcej. 651 00:30:57,774 --> 00:30:59,526 Ciekawe rezultaty osiągamy, 652 00:30:59,610 --> 00:31:02,738 zadając pytania o moralność. 653 00:31:02,821 --> 00:31:05,365 Bardzo aktualną kwestią są autonomiczne auta. 654 00:31:05,449 --> 00:31:09,077 Sporo mówi się o tym, by samochody te miały zaprogramowane decyzje 655 00:31:09,161 --> 00:31:10,662 o podłożu moralnym. 656 00:31:10,746 --> 00:31:12,706 Niektórzy są tym zaskoczeni, 657 00:31:12,789 --> 00:31:16,126 ale wyobraźmy sobie, że taki wóz jedzie 658 00:31:16,209 --> 00:31:18,003 i nagle na drogę wybiega dziecko. 659 00:31:18,086 --> 00:31:19,921 Auto nie może się zatrzymać, 660 00:31:20,005 --> 00:31:22,299 ale może zjechać z drogi 661 00:31:22,382 --> 00:31:24,468 i zagrozić życiu pasażera, 662 00:31:24,551 --> 00:31:27,095 a nawet go zabić, ale uratować dziecko. 663 00:31:27,554 --> 00:31:29,890 Projektanci samochodów twierdzą, 664 00:31:29,973 --> 00:31:33,226 iż należałoby zaprogramować im moralność 665 00:31:33,310 --> 00:31:35,437 typową dla populacji, 666 00:31:35,520 --> 00:31:37,981 typową dla każdego kierowcy. 667 00:31:38,565 --> 00:31:40,609 Wydaje się to proste, 668 00:31:40,692 --> 00:31:43,570 ale jak ustalić, jaka jest nasza moralność? 669 00:31:43,654 --> 00:31:45,489 Nie ma łatwego rozwiązania. 670 00:31:45,572 --> 00:31:48,533 Gdyby zaprogramować naszą obecną moralność, 671 00:31:48,617 --> 00:31:51,870 czy za 20 lat będzie ona aktualna? 672 00:31:52,496 --> 00:31:56,041 Kolejne pytanie. Autonomiczny samochód ma awarię hamulców. 673 00:31:56,124 --> 00:31:58,377 Ma przejechać przez przejście dla pieszych. 674 00:31:58,460 --> 00:32:00,170 Skończy się to śmiercią człowieka. 675 00:32:00,253 --> 00:32:04,299 Opcja A: osoba, która zginie, przechodziła zgodnie z przepisami. 676 00:32:04,675 --> 00:32:07,344 Opcja B: auto z zepsutym hamulcem 677 00:32:07,427 --> 00:32:11,098 przejedzie przez przejście na drugim pasie, 678 00:32:11,181 --> 00:32:13,517 gdzie zabije sportowca, 679 00:32:13,642 --> 00:32:16,186 który przechodził na czerwonym. 680 00:32:16,269 --> 00:32:19,564 Gość miał wyrąbane. 681 00:32:20,065 --> 00:32:21,692 Przeszedł nieprzepisowo. 682 00:32:21,775 --> 00:32:23,985 Co powinien zrobić samochód? 683 00:32:24,361 --> 00:32:26,655 Zabić facia, który przeszedł prawidłowo, 684 00:32:26,738 --> 00:32:29,032 czy sportowca, który złamał przepisy? 685 00:32:30,033 --> 00:32:32,869 Jeśli AI to nowa rewolucja przemysłowa, 686 00:32:32,953 --> 00:32:35,580 to takie miejsca są nowymi fabrykami, 687 00:32:36,248 --> 00:32:37,958 w których ludzie pracują 688 00:32:38,041 --> 00:32:40,460 w oparciu o coś, czego AI nie ma. 689 00:32:41,336 --> 00:32:42,421 Sumienie. 690 00:32:42,879 --> 00:32:44,131 Toczy się zażarty spór. 691 00:32:44,214 --> 00:32:45,966 Fascynujące. Ciekawe czemu. 692 00:32:46,299 --> 00:32:47,592 Trudne pytanie. 693 00:32:47,676 --> 00:32:49,720 No co ty. Gość złamał prawo. 694 00:32:51,012 --> 00:32:52,180 MAŁA PRZEWAGA: B 695 00:32:52,264 --> 00:32:54,766 Nieznaczna większość wybrała biegacza, 696 00:32:54,850 --> 00:32:56,351 który złamał przepisy. 697 00:32:57,310 --> 00:33:00,021 Niepokojące? Posłuchajcie tego. 698 00:33:01,106 --> 00:33:03,567 Wyobraźcie sobie 699 00:33:04,025 --> 00:33:06,236 najgorszy scenariusz, 700 00:33:06,319 --> 00:33:09,072 w którym autonomiczne auto nie może zahamować na czas 701 00:33:09,531 --> 00:33:13,326 i musi uderzyć w jednego z sześciu przechodniów. 702 00:33:13,827 --> 00:33:15,620 Dziecko w wózku, 703 00:33:17,956 --> 00:33:19,541 chłopca, 704 00:33:20,417 --> 00:33:22,252 dziewczynkę, 705 00:33:23,295 --> 00:33:25,756 kobietę w ciąży... 706 00:33:27,299 --> 00:33:28,341 No wiem. 707 00:33:29,468 --> 00:33:31,636 Dwóch lekarzy 708 00:33:32,554 --> 00:33:34,473 lub dwie lekarki. 709 00:33:34,973 --> 00:33:36,516 Kto zginie? 710 00:33:43,774 --> 00:33:45,025 Boże! 711 00:33:45,692 --> 00:33:46,735 Co? 712 00:33:51,281 --> 00:33:52,365 Daj spokój. 713 00:33:52,449 --> 00:33:53,950 Jezu! 714 00:33:54,034 --> 00:33:55,494 Poważnie? 715 00:33:57,704 --> 00:33:59,122 RÓJ: CHŁOPIEC 716 00:33:59,206 --> 00:34:01,374 Auto powinno potrącić chłopca. 717 00:34:02,083 --> 00:34:03,168 Ciekawe. 718 00:34:03,251 --> 00:34:06,338 Inteligencja rozproszona, jakiej dziś użyliśmy, 719 00:34:06,421 --> 00:34:10,008 może wkrótce trafić do producentów samochodów autonomicznych. 720 00:34:10,425 --> 00:34:14,805 Jeśli to was przeraża, alternatywa przerazi was bardziej. 721 00:34:14,888 --> 00:34:17,641 Gdy samochód autonomiczny gwałtownie hamuje, 722 00:34:17,724 --> 00:34:20,227 ale wie, że nie zatrzyma się na czas, 723 00:34:20,310 --> 00:34:23,188 powinien chronić pasażera czy pieszego? 724 00:34:23,271 --> 00:34:27,275 Miejmy nadzieję, że producenci zaprogramują auta tak, 725 00:34:27,359 --> 00:34:30,737 by odzwierciedlały moralność ludzi, którzy je kupują. 726 00:34:30,821 --> 00:34:34,199 Jeśli producenci samochodów podejdą do sprawy cynicznie, 727 00:34:34,282 --> 00:34:38,286 zaczną rywalizować, instalując w autach funkcje, 728 00:34:38,370 --> 00:34:40,997 które będą lepiej chronić pasażera. 729 00:34:41,081 --> 00:34:42,666 Ten scenariusz jest gorszy 730 00:34:42,749 --> 00:34:45,293 niż auta z wgraną ludzką moralnością. 731 00:34:45,752 --> 00:34:47,295 Mroczna myśl. 732 00:34:47,587 --> 00:34:50,298 A chcemy zakończyć optymistycznie. 733 00:34:50,966 --> 00:34:52,384 Wręcz niebiańsko. 734 00:34:55,345 --> 00:34:58,682 Zanim więc wyobrazimy sobie przyszłość z bezpieczeństwem drogowym 735 00:34:58,765 --> 00:35:00,725 na poziomie GTA, 736 00:35:00,809 --> 00:35:02,310 wróćmy tam, 737 00:35:02,394 --> 00:35:04,145 skąd przyszliśmy. 738 00:35:06,398 --> 00:35:07,315 INDIE 739 00:35:07,399 --> 00:35:08,608 Do lasu, 740 00:35:08,692 --> 00:35:11,820 w którym Heavenly Organics zbiera miód. 741 00:35:12,612 --> 00:35:14,906 Ten las nie należy do nikogo. 742 00:35:14,990 --> 00:35:19,035 Tubylcy zamieszkują go od zawsze. 743 00:35:19,744 --> 00:35:22,038 Ojciec i syn, Amit i Ishwar Hooda, 744 00:35:22,163 --> 00:35:24,291 otworzyli tę firmę 12 lat temu, 745 00:35:24,374 --> 00:35:27,127 by dać pracę mieszkańcom wioski. 746 00:35:27,210 --> 00:35:31,131 Czym się zajmowali przed zbieraniem miodu? 747 00:35:31,214 --> 00:35:33,341 Tym samym, 748 00:35:34,092 --> 00:35:37,345 ale nie mieli gdzie go sprzedać w ilości, która pozwoliłaby im 749 00:35:37,470 --> 00:35:39,014 z tego żyć. 750 00:35:40,056 --> 00:35:42,392 Miodu ci u nich dostatek. 751 00:35:42,809 --> 00:35:44,102 W okresie kwitnienia 752 00:35:44,185 --> 00:35:48,023 jeden robotnik zbiera tonę miodu w ciągu trzech miesięcy. 753 00:35:48,857 --> 00:35:51,443 Ale co to da, jeśli nie ma kupców? 754 00:35:54,154 --> 00:35:57,490 Naszej ekipie zajęło to trzy dni, dwa loty samolotem 755 00:35:57,574 --> 00:36:00,827 i osiem godzin jazdy przez las państwowy. 756 00:36:01,286 --> 00:36:04,289 Jednak na szczęście dla miejscowych i dla firmy 757 00:36:04,372 --> 00:36:07,751 algorytm AI znalazł to miejsce w parę sekund 758 00:36:07,834 --> 00:36:10,462 i uznał je za świetną inwestycję. 759 00:36:10,545 --> 00:36:13,882 Po prostu do nas zadzwonili i powiedzieli, że algorytm wskazał, 760 00:36:13,965 --> 00:36:17,010 iż pasujemy 761 00:36:17,510 --> 00:36:19,137 do ich portfolio. 762 00:36:19,220 --> 00:36:22,807 Chcieli z nami porozmawiać o inwestycji. 763 00:36:23,141 --> 00:36:25,644 Kto jest właścicielem tego tajemniczego algorytmu? 764 00:36:26,478 --> 00:36:28,480 Firma CircleUp 765 00:36:28,563 --> 00:36:31,316 z siedzibą położoną niemal 13 tys. km stąd. Gdzie? 766 00:36:33,526 --> 00:36:36,655 Oto Good Eggs, siedziba internetowego sklepu spożywczego, 767 00:36:36,738 --> 00:36:39,616 który także przykuł uwagę tego algorytmu. 768 00:36:39,699 --> 00:36:42,744 Firma otrzymała fundusze z CircleUp. 769 00:36:42,827 --> 00:36:47,415 Pomaga mniejszym przedsiębiorcom, z którymi pracujemy, znajdować klientów. 770 00:36:47,499 --> 00:36:48,500 WSPÓŁZAŁOŻYCIEL 771 00:36:48,583 --> 00:36:50,126 Dyrektor Rory Eakin 772 00:36:50,210 --> 00:36:53,254 pracował w biznesie i w organizacjach humanitarnych, 773 00:36:53,338 --> 00:36:54,881 nim założył tę firmę. 774 00:36:54,965 --> 00:36:58,385 CircleUp korzysta z AI do analizy miliardów punktów danych 775 00:36:58,468 --> 00:37:00,637 i dowiaduje się, czego klient oczekuje 776 00:37:00,762 --> 00:37:02,222 od ich produktów spożywczych. 777 00:37:02,305 --> 00:37:03,640 Problemem kupującego 778 00:37:03,723 --> 00:37:05,308 jest to, że są setki firm 779 00:37:05,392 --> 00:37:07,018 w niemal każdej kategorii. 780 00:37:07,560 --> 00:37:09,938 Circle inwestuje w niszowe firmy, 781 00:37:10,021 --> 00:37:12,774 które AI uzna za obiecujące. 782 00:37:13,066 --> 00:37:15,902 Jedną z nich była wytwórnia lodów Halo Top. 783 00:37:17,988 --> 00:37:21,950 To była niewielka firma z południowej Kalifornii. 784 00:37:22,033 --> 00:37:24,369 Dziś to numer jeden w kraju. 785 00:37:24,995 --> 00:37:28,873 Dostrzegliśmy nagły zwrot u konsumentów. 786 00:37:28,957 --> 00:37:31,126 Szukają zdrowszych produktów, 787 00:37:31,209 --> 00:37:33,128 pozbawionych toksyn, 788 00:37:33,211 --> 00:37:35,797 kosmetyków bez chemii. 789 00:37:36,172 --> 00:37:39,884 Gdy algorytm CircleUp przeskanował ów ogrom danych konsumenckich, 790 00:37:39,968 --> 00:37:42,512 okazało się, że lista atrybutów pożądanych 791 00:37:42,595 --> 00:37:45,056 przez konsumentów jest bardzo konkretna. 792 00:37:45,140 --> 00:37:47,475 Szukają firm przyjaznych środowisku, 793 00:37:47,600 --> 00:37:50,687 oferujących organiczne produkty i dbających o rozwój 794 00:37:50,770 --> 00:37:51,855 małych społeczności. 795 00:37:52,480 --> 00:37:54,315 Bardzo precyzyjne, prawda? 796 00:37:54,858 --> 00:37:58,987 Heavenly Organics spełniło wszystkie te wymagania. 797 00:37:59,946 --> 00:38:01,573 To właśnie potrafi AI. 798 00:38:01,656 --> 00:38:03,658 Wyciągnąć z zebranych danych wnioski, 799 00:38:03,742 --> 00:38:07,078 o jakich nam się nie śniło jeszcze dekadę temu. 800 00:38:07,746 --> 00:38:11,332 Jak przebiega współpraca Heavenly Organics i CircleUp? 801 00:38:12,208 --> 00:38:15,045 Wróćmy do Indii i zapytajmy Amita i Ishwara. 802 00:38:18,006 --> 00:38:20,842 Zbudowaliśmy nowy, dwukrotnie większy zakład. 803 00:38:21,509 --> 00:38:24,137 Stać nas na innowacje i nowe produkty. 804 00:38:24,220 --> 00:38:26,765 Stajemy się liderami w naszej branży. 805 00:38:26,848 --> 00:38:29,142 A oni wam w tym pomogli. 806 00:38:29,225 --> 00:38:31,811 Zwiększyć wydajność i skalowalność. Tak. 807 00:38:31,895 --> 00:38:34,773 Jak to wpłynęło na waszych zbieraczy? 808 00:38:34,856 --> 00:38:37,400 Obecnie wspieramy 650 rodzin. 809 00:38:37,484 --> 00:38:39,486 Zwiększamy sprzedaż. 810 00:38:39,569 --> 00:38:41,780 Każda sprzedana tona to kolejna rodzina. 811 00:38:41,863 --> 00:38:45,033 Za rok będzie ich 700-750. 812 00:38:45,116 --> 00:38:46,534 -Nieźle. -Tak. 813 00:38:46,618 --> 00:38:50,914 Widać też, że lepiej sobie radzą finansowo. 814 00:38:50,997 --> 00:38:54,125 Mają ładne domy, dobrze wyposażone. 815 00:38:54,209 --> 00:38:56,127 Posyłają dzieci do szkoły. 816 00:38:56,503 --> 00:38:58,213 To lepsza twarz kapitalizmu. 817 00:38:58,296 --> 00:38:59,339 Rozumiesz? 818 00:38:59,422 --> 00:39:02,217 Biznes dla dobra ogółu. 819 00:39:02,884 --> 00:39:04,511 Dlatego się tym zajęliśmy. 820 00:39:06,429 --> 00:39:09,641 Czy AI doprowadzi do upadku ludzkości? 821 00:39:09,724 --> 00:39:12,685 Pozbawi nas sensu życia? 822 00:39:13,394 --> 00:39:16,648 Jak na razie ma zbawienny wpływ na tę część świata. 823 00:39:17,982 --> 00:39:19,734 Może jednak AI 824 00:39:19,818 --> 00:39:22,779 przeanalizuje wszystkie dane ludzkości 825 00:39:22,862 --> 00:39:25,782 i uzna, że nie jesteśmy tacy źli, umiemy współpracować, 826 00:39:26,241 --> 00:39:30,161 tworząc nowy, wspaniały świat, w którym ludzie i roboty mogą żyć razem. 827 00:39:31,663 --> 00:39:32,747 A może nie. 828 00:39:33,790 --> 00:39:36,084 W takim wypadku kończy nam się czas. 829 00:39:36,501 --> 00:39:38,962 Więc popatrzcie sobie na robo-striptizerki. 830 00:40:26,217 --> 00:40:29,012 Mamy to. Świetne! 831 00:40:31,055 --> 00:40:32,348 Genialne! 832 00:40:32,432 --> 00:40:33,933 Dajcie jej ręcznik.