1 00:00:02,000 --> 00:00:07,000 Downloaded from YTS.MX 2 00:00:08,000 --> 00:00:13,000 Official YIFY movies site: YTS.MX 3 00:00:19,978 --> 00:00:24,774 „Nic obrovského do života smrtelníků nevstoupí bez prokletí.“ 4 00:00:24,858 --> 00:00:27,861 SOFOKLÉS 5 00:00:31,156 --> 00:00:34,409 Jo, proč si nesednete? Posaďte se a udělejte si pohodlí. 6 00:00:37,579 --> 00:00:39,039 - V pořádku? Dobře. - Jo. 7 00:00:43,043 --> 00:00:44,419 První klapka. 8 00:00:46,880 --> 00:00:48,590 Chcete se na úvod představit? 9 00:00:50,467 --> 00:00:53,344 Ahoj, světe. Bailey. Potřetí. 10 00:00:53,970 --> 00:00:56,097 - V pohodě? - Tohle je nejhorší část. 11 00:00:57,474 --> 00:00:58,433 Nelíbí se mi to. 12 00:00:59,851 --> 00:01:02,228 Pracoval jsem pro Facebook v letech 2011 a 2012. 13 00:01:02,312 --> 00:01:05,190 Byla jsem mezi prvními zaměstnanci Instagramu. 14 00:01:05,273 --> 00:01:08,693 Pracoval jsem pro Google, YouTube. 15 00:01:08,777 --> 00:01:11,696 Apple, Google, Twitter, Palm. 16 00:01:12,739 --> 00:01:15,533 Pomohl jsem založit Mozilla Labs, pak jsem šel k Firefoxu. 17 00:01:15,617 --> 00:01:18,661 Točíme? Všichni… Super. 18 00:01:21,206 --> 00:01:26,169 Pracoval jsem pro Twitter. Byl jsem starším viceprezidentem inženýrství. 19 00:01:27,378 --> 00:01:29,297 Byl jsem prezidentem Pinterestu. 20 00:01:29,380 --> 00:01:34,260 Předtím jsem byl pět let ředitelem monetizace ve Facebooku. 21 00:01:34,344 --> 00:01:37,972 Na Twitteru jsem několik let vedl vývojářskou platformu, 22 00:01:38,056 --> 00:01:40,225 pak jsem byl vedoucím spotřebních produktů. 23 00:01:40,308 --> 00:01:44,104 Byl jsem spoluautorem Disku Google, Gmail chatu, 24 00:01:44,187 --> 00:01:46,981 stránek na Facebooku a tlačítka „To se mi líbí“. 25 00:01:47,440 --> 00:01:52,779 Jo. Kvůli tomuhle jsem osm měsíců mluvil s právníky. 26 00:01:54,114 --> 00:01:55,406 Tohle mě děsí. 27 00:01:58,409 --> 00:02:02,914 Když jsem tam byl, vždy jsem měl pocit, že to bylo v zásadě prospěšné. 28 00:02:03,498 --> 00:02:05,375 Nevím, zda ten pocit pořád mám. 29 00:02:05,458 --> 00:02:10,588 Google jsem opustil v červnu 2017 kvůli etickým obavám. 30 00:02:10,672 --> 00:02:14,134 A nejen v rámci Googlu, ale v našem průmyslu celkově. 31 00:02:14,217 --> 00:02:15,385 Mám velké obavy. 32 00:02:16,845 --> 00:02:17,679 Velké obavy. 33 00:02:19,097 --> 00:02:21,808 Dnes je snadné zapomenout, 34 00:02:21,891 --> 00:02:27,814 že tyto nástroje ve světě vytvořily úžasné věci. 35 00:02:27,897 --> 00:02:31,943 Sjednotily rodiny, našly dárce orgánů. 36 00:02:32,026 --> 00:02:38,950 V celém světě se díky těmto platformám děly smysluplné systémové změny, 37 00:02:39,033 --> 00:02:40,285 které byly pozitivní. 38 00:02:40,827 --> 00:02:44,539 Myslím, že když šlo o druhou stranu mince, byli jsme naivní. 39 00:02:45,540 --> 00:02:48,668 Tyto věci vypustíte a ony začnou žít vlastním životem. 40 00:02:48,751 --> 00:02:52,005 A to, jak se používají, se liší od toho, co jste čekali. 41 00:02:52,088 --> 00:02:56,509 Pevně věřím, že žádné z těchto následků nikdo nezamýšlel. 42 00:02:56,593 --> 00:02:59,554 Neexistuje jeden konkrétní zloduch. Vůbec ne. 43 00:03:01,681 --> 00:03:03,600 Tak v čem je problém? 44 00:03:09,230 --> 00:03:11,232 Existuje nějaký problém? Co je to? 45 00:03:18,406 --> 00:03:22,118 Je těžké říct jeden výstižný… Snažím se zmínit mnoho problémů. 46 00:03:22,577 --> 00:03:23,578 V čem je problém? 47 00:03:28,208 --> 00:03:32,253 PŮVODNÍ DOKUMENT NETFLIX 48 00:03:33,588 --> 00:03:37,634 Navzdory sílící kritice takzvaní technologičtí giganti rostou. 49 00:03:37,717 --> 00:03:40,929 Celý technologický průmysl je pod pečlivějším dohledem. 50 00:03:41,012 --> 00:03:42,680 A nová studie objasňuje 51 00:03:42,764 --> 00:03:46,142 vztah mezi duševním zdravím a používáním sociálních médií. 52 00:03:46,226 --> 00:03:48,478 O nejnovějším výzkumu si promluvíme s… 53 00:03:49,187 --> 00:03:51,314 …se děje a vůbec se o tom nemluví. 54 00:03:51,397 --> 00:03:54,234 Desítky milionů Američanů je beznadějně závislých 55 00:03:54,317 --> 00:03:56,319 na elektronických zařízeních. 56 00:03:56,402 --> 00:03:58,947 Horší se to, protože se teď můžete izolovat… 57 00:03:59,030 --> 00:04:00,698 PŘÍTEL VÁS OZNAČIL NA FOTCE 58 00:04:00,782 --> 00:04:02,742 …a žít v bublině díky technologii. 59 00:04:02,825 --> 00:04:06,788 Falešné zprávy začínají být propracovanější a ohrožují celý svět. 60 00:04:06,871 --> 00:04:10,333 Když jsme před 12 lety vytvořili Twitter, toto jsme nečekali. 61 00:04:10,416 --> 00:04:14,754 Úřady prý nemají důvod se domnívat, že ruské kybernetické útoky přestanou. 62 00:04:14,837 --> 00:04:18,132 YouTube byl donucen k pročištění stránky. 63 00:04:18,216 --> 00:04:24,013 Když s mladými mluvíte o TikToku, je vám jasné, že tu věc nesmažou… 64 00:04:24,097 --> 00:04:26,182 Islo, můžeš prostřít, prosím? 65 00:04:26,266 --> 00:04:29,936 Vážnou otázkou je, zda sociální média u dětí způsobují depresi. 66 00:04:30,019 --> 00:04:32,105 Islo, prostřeš, prosím? 67 00:04:32,188 --> 00:04:35,316 Mezi teenagery začínají být kosmetické zákroky tak populární, 68 00:04:35,400 --> 00:04:38,069 že plastičtí chirurgové zavedli nový syndrom, 69 00:04:38,152 --> 00:04:41,281 snapchatová dysmorfie. Mladí pacienti chtějí plastiku, 70 00:04:41,364 --> 00:04:43,741 aby se podobali svým upraveným selfie. 71 00:04:43,825 --> 00:04:47,537 - Nevím, proč jsi jí dovolila mít mobil. - Co jsem měla dělat? 72 00:04:47,620 --> 00:04:49,580 Ve třídě ho mají všichni. 73 00:04:50,164 --> 00:04:51,165 Je jí jen 11. 74 00:04:51,249 --> 00:04:55,086 Cass, nikdo tě nenutí mít mobil. Můžeš být odpojená, když chceš. 75 00:04:55,169 --> 00:04:59,340 Jsem připojená i bez mobilu, jasný? Zrovna jsem na internetu. 76 00:04:59,424 --> 00:05:03,094 Navíc to ani není skutečný kontakt. Je to jen spousta… 77 00:05:03,177 --> 00:05:06,556 Kapitalismus dohledu ovlivňuje politiku a kulturu způsoby, 78 00:05:06,639 --> 00:05:08,308 které si mnozí neuvědomují. 79 00:05:08,391 --> 00:05:12,812 ISIS inspiroval své stoupence online a to samé teď dělají bílí rasisté. 80 00:05:12,895 --> 00:05:17,442 V Indii nedávno lynčující dav z internetu zabil tucet lidí včetně pěti… 81 00:05:17,525 --> 00:05:20,361 Nejde jen o falešné zprávy, ale o falešné zprávy s následky. 82 00:05:20,445 --> 00:05:24,073 Jak lze zvládnout epidemii v éře falešných zpráv? 83 00:05:24,157 --> 00:05:26,993 Nakazíte se koronavirem, když sníte čínské jídlo? 84 00:05:27,535 --> 00:05:32,540 Z informačního věku jsme přešli do věku dezinformací. 85 00:05:32,623 --> 00:05:34,667 Naše demokracie je terčem útoku. 86 00:05:34,751 --> 00:05:39,005 Řekl jsem: „Myslím, že nástroje, které byly v této době vytvořeny, 87 00:05:39,088 --> 00:05:41,799 začínají narušovat fungování společnosti.“ 88 00:06:00,151 --> 00:06:03,446 Aza je přivítá. Přehrajeme video. 89 00:06:04,280 --> 00:06:07,325 A pak: „Dámy a pánové, Tristan Harris.“ 90 00:06:07,408 --> 00:06:08,826 - Jasně. - Bezva. 91 00:06:08,951 --> 00:06:12,038 Takže přijdu a… 92 00:06:13,831 --> 00:06:16,042 V zásadě řeknu: „Díky, že jste tady.“ 93 00:06:17,919 --> 00:06:22,048 Takže dnes chci mluvit o nové agendě pro technologii 94 00:06:22,131 --> 00:06:25,468 a chci to udělat proto, že pokud se lidí zeptáte, 95 00:06:25,551 --> 00:06:27,804 co je dnes s průmyslem špatně, 96 00:06:28,346 --> 00:06:31,641 ozve se kakofonie stížností a skandálů, 97 00:06:31,724 --> 00:06:36,020 slyšíte o ukradených datech a závislosti a falešných zprávách a polarizaci 98 00:06:36,104 --> 00:06:37,688 a hacknutých volbách. 99 00:06:38,189 --> 00:06:41,609 Ale existuje za všemi těmito problémy něco, 100 00:06:41,692 --> 00:06:44,612 co způsobuje, že se to všechno děje najednou? 101 00:06:46,447 --> 00:06:48,199 - Je to dobrý? - Výborný. Jo. 102 00:06:50,827 --> 00:06:55,206 Snažím se… Chci, aby lidi viděli… V technologickém průmyslu nastal problém. 103 00:06:55,289 --> 00:07:00,211 Nemá jméno a týká se jednoho zdroje, jednoho… 104 00:07:05,091 --> 00:07:09,387 Když se rozhlédnete kolem, máte pocit, že svět zešílel. 105 00:07:12,765 --> 00:07:15,143 Ptáte se sami sebe: „Je tohle normální? 106 00:07:16,102 --> 00:07:18,771 Nebo nás všechny někdo očaroval?“ 107 00:07:22,316 --> 00:07:27,905 BÝVALÝ ODBORNÍK NA ETIKU DESIGNU PRO GOOGLE 108 00:07:27,989 --> 00:07:30,658 Přeju si, aby víc lidí vědělo, jak to funguje, 109 00:07:30,741 --> 00:07:34,036 protože by to neměl vědět jenom technologický průmysl. 110 00:07:34,120 --> 00:07:36,122 Je to něco, co by měl vědět každý. 111 00:07:47,383 --> 00:07:48,301 - Ahoj! - Ahoj. 112 00:07:48,843 --> 00:07:50,595 - Tristan. Těší mě. - Tristan? 113 00:07:50,678 --> 00:07:51,721 - Ano. - Super. 114 00:07:53,181 --> 00:07:55,933 Tristan Harris byl odborníkem na etiku designu pro Google 115 00:07:56,017 --> 00:07:59,395 a říká se o něm, že ztělesňuje svědomí Silicon Valley. 116 00:07:59,479 --> 00:08:01,105 Žádá technologický průmysl, 117 00:08:01,189 --> 00:08:04,192 aby produktům dal podle jeho slov „etický design“. 118 00:08:04,275 --> 00:08:06,903 Málokdy je někdo z tohoto průmyslu tak přímý, 119 00:08:06,986 --> 00:08:10,114 ale Tristan Harris věří, že někdo takový být musí. 120 00:08:11,324 --> 00:08:12,700 Když jsem byl u Googlu, 121 00:08:12,783 --> 00:08:15,703 byl jsem v týmu Gmail a začal jsem cítit vyhoření, 122 00:08:16,120 --> 00:08:18,539 protože jsme vedli tolik rozhovorů o tom… 123 00:08:19,457 --> 00:08:23,169 jak by měla schránka vypadat a jakou by měla mít barvu. 124 00:08:23,252 --> 00:08:25,880 A já jsem cítil, že jsem na e-mailu závislý. 125 00:08:26,297 --> 00:08:27,632 A fascinovalo mě, 126 00:08:27,715 --> 00:08:31,511 že nikdo od Gmailu nepracoval na tom, aby byl méně návykový. 127 00:08:31,928 --> 00:08:34,514 Říkal jsem si: „Nikdo jiný o tom nepřemýšlí? 128 00:08:34,597 --> 00:08:36,390 Nikoho jsem o tom neslyšel mluvit.“ 129 00:08:36,849 --> 00:08:42,772 Celý technologický průmysl mě frustroval, protože jako bychom sešli z cesty. 130 00:08:46,817 --> 00:08:52,573 Vážně jsem se snažil vymyslet, jak bychom to zevnitř mohli změnit. 131 00:08:55,201 --> 00:08:59,497 A tehdy jsem se rozhodl udělat prezentaci, tak trochu volání do zbraně. 132 00:09:01,082 --> 00:09:04,585 Chodil jsem domů a každou noc jsem na ní pár hodin pracoval. 133 00:09:06,170 --> 00:09:11,884 V podstatě byla jen o tom, že dosud nikdy nedělalo 50 designérů, 134 00:09:12,426 --> 00:09:15,388 bílých chlapů ve věku od 20 do 35 let v Kalifornii, 135 00:09:15,888 --> 00:09:19,725 rozhodnutí, která by měla dopad na dvě miliardy lidí. 136 00:09:20,935 --> 00:09:24,438 Dvě miliardy lidí budou mít myšlenky, které mít neplánovali, 137 00:09:24,522 --> 00:09:28,401 protože designér v Googlu řekl: „Takhle budou fungovat upozornění 138 00:09:28,484 --> 00:09:30,778 na obrazovce, na kterou se po probuzení díváte.“ 139 00:09:31,195 --> 00:09:35,283 A my jako Google máme morální zodpovědnost tento problém vyřešit. 140 00:09:36,200 --> 00:09:41,789 Tu prezentaci jsem poslal svým 15 nebo 20 nejbližším kolegům v Googlu. 141 00:09:41,872 --> 00:09:44,667 Byl jsem nervózní. Nevěděl jsem, jak ji přijmou. 142 00:09:46,460 --> 00:09:50,715 Když jsem druhý den přišel do práce, byla otevřená ve většině notebooků. 143 00:09:52,133 --> 00:09:56,053 Později v ten den se na ni zároveň dívalo 400 lidí, takže to pořád rostlo. 144 00:09:56,137 --> 00:10:00,266 Přišly mi maily z celé společnosti. Lidi ze všech odděleních říkali: 145 00:10:00,349 --> 00:10:02,852 „Naprosto souhlasím, ovlivňuje to mé děti, 146 00:10:02,935 --> 00:10:06,439 ovlivňuje to lidi v mém okolí. Musíme s tím něco udělat. 147 00:10:07,481 --> 00:10:10,276 Zdálo se mi, že spouštím revoluci nebo tak něco. 148 00:10:11,861 --> 00:10:15,531 Později jsem zjistil, že Larry Page byl o prezentaci informován 149 00:10:15,615 --> 00:10:16,741 na třech schůzkách. 150 00:10:17,950 --> 00:10:20,286 Vytvořilo to jistý kulturní moment, 151 00:10:20,870 --> 00:10:23,039 který Google potřeboval brát vážně. 152 00:10:26,000 --> 00:10:26,876 A pak… 153 00:10:28,377 --> 00:10:29,211 nic. 154 00:10:34,300 --> 00:10:36,135 V roce 2006 každý… 155 00:10:37,219 --> 00:10:38,929 včetně nás všech z Facebooku, 156 00:10:39,180 --> 00:10:43,392 nesmírně obdivoval Google a to, co Google vybudoval, 157 00:10:43,476 --> 00:10:47,146 což byla neuvěřitelně užitečná služba, 158 00:10:47,438 --> 00:10:51,233 která, podle toho, co jsme viděli, ve světě konala spoustu dobra. 159 00:10:51,567 --> 00:10:54,695 A současně vybudovali stroj na peníze. 160 00:10:55,404 --> 00:10:59,950 Moc jsme jim to záviděli, připadalo nám to tak elegantní… 161 00:11:00,868 --> 00:11:02,078 a dokonalé. 162 00:11:02,953 --> 00:11:04,830 Facebook existoval asi dva roky 163 00:11:05,873 --> 00:11:10,586 a mě najali, abych pro společnost vymyslel obchodní model. 164 00:11:10,670 --> 00:11:12,463 Byl jsem ředitelem monetizace. 165 00:11:12,546 --> 00:11:16,759 Šlo o to, že jsem byl člověkem, který měl vymyslet, jak tu věc zpeněžit. 166 00:11:17,134 --> 00:11:19,804 A spousta lidí tam dělala spoustu práce, 167 00:11:19,887 --> 00:11:25,476 ale já jsem byl jednoznačně jedním z těch, kteří ukazovali na… 168 00:11:26,769 --> 00:11:28,562 zaprvé, musíme vydělat peníze… 169 00:11:29,313 --> 00:11:33,651 a myslím, že tento model inzerce je asi nejelegantnějším řešením. 170 00:11:43,077 --> 00:11:46,622 - Jaké video nám máma poslala? - Je z talkshow, ale je dobré. 171 00:11:46,706 --> 00:11:50,668 Ten chlap je génius. Mluví o smazání sociálních médií, což musíš udělat. 172 00:11:50,751 --> 00:11:52,795 Asi si maily od ní zablokuju. 173 00:11:52,878 --> 00:11:55,923 Vážně, ani nevím, o čem mluví. Je horší než já. 174 00:11:56,006 --> 00:11:58,509 - Ne, používá to jen na recepty. - A práci. 175 00:11:58,592 --> 00:12:00,803 - A cvičení. - A aby nás kontrolovala. 176 00:12:00,886 --> 00:12:02,555 A každého, koho kdy potkala. 177 00:12:04,932 --> 00:12:07,893 Pokud procházíte sociální média, 178 00:12:07,977 --> 00:12:11,731 zatímco nás sledujete, odložte ten telefon a poslouchejte. 179 00:12:11,814 --> 00:12:15,317 Protože náš další host napsal neuvěřitelnou knihu o tom, 180 00:12:15,401 --> 00:12:19,447 jak moc nám to ničí životy. Prosím, přivítejte autora knihy 181 00:12:19,530 --> 00:12:24,452 Ten Arguments For Deleting Your Social Media Accounts Right Now, 182 00:12:24,535 --> 00:12:25,786 Jarona Laniera. 183 00:12:27,997 --> 00:12:31,834 Společnosti jako Google a Facebook jsou jedny z nejbohatších 184 00:12:31,917 --> 00:12:33,753 a nejúspěšnějších firem vůbec. 185 00:12:34,295 --> 00:12:36,589 Mají poměrně málo zaměstnanců. 186 00:12:36,922 --> 00:12:40,468 Mají jen obrovský počítač, který shrabává peníze, že jo? 187 00:12:41,510 --> 00:12:45,222 Za co dostávají zaplaceno? To je velmi důležitá otázka. 188 00:12:47,308 --> 00:12:49,977 Do technologií investuji už 35 let. 189 00:12:50,978 --> 00:12:54,356 Během prvních 50 let Silicon Valley vyráběl průmysl produkty, 190 00:12:54,440 --> 00:12:55,691 hardware, software, 191 00:12:55,775 --> 00:12:58,402 prodával je zákazníkům, jednoduchý obchod. 192 00:12:58,486 --> 00:13:01,864 Posledních deset let největší společnosti v Silicon Valley 193 00:13:01,947 --> 00:13:03,866 prodávají své zákazníky. 194 00:13:03,949 --> 00:13:05,910 Už je to dokonce trochu otřepané, 195 00:13:05,993 --> 00:13:09,205 ale protože za produkty, které používáme, neplatíme, 196 00:13:09,288 --> 00:13:12,166 platí za ně zadavatelé reklamy. 197 00:13:12,249 --> 00:13:16,086 Zadavatelé reklamy jsou zákazníky. My jsme to, co se prodává. 198 00:13:16,170 --> 00:13:17,630 Jedno známé rčení zní: 199 00:13:17,713 --> 00:13:21,467 „Pokud za produkt neplatíte, produktem jste vy.“ 200 00:13:23,385 --> 00:13:27,097 Spousta lidí si myslí, že Google je jen vyhledávač, 201 00:13:27,181 --> 00:13:31,101 na Facebooku se jen díváme, co dělají přátelé, vidíme jejich fotky. 202 00:13:31,185 --> 00:13:35,397 Ale neuvědomují si, že je to soutěž o naši pozornost. 203 00:13:36,524 --> 00:13:41,070 Takže Facebook, Snapchat, Twitter, Instagram, YouTube, 204 00:13:41,153 --> 00:13:45,449 obchodní model takovýchto firem je o udržení pozornosti lidí na obrazovce. 205 00:13:46,283 --> 00:13:47,451 Pojďme vymyslet, 206 00:13:47,535 --> 00:13:50,955 jak získat co největší množství pozornosti této osoby. 207 00:13:51,455 --> 00:13:53,541 Kolik času vás přinutíme tu strávit? 208 00:13:53,874 --> 00:13:56,669 Kolik z vašeho života vás přinutíme nám dát? 209 00:13:58,712 --> 00:14:02,258 Když uvážíte fungování některých těchto firem, dává to smysl. 210 00:14:03,050 --> 00:14:06,095 O spoustě služeb si myslíme, že jsou zadarmo. 211 00:14:06,178 --> 00:14:09,473 Ale nejsou zadarmo. Financují je zadavatelé reklamy. 212 00:14:09,557 --> 00:14:11,559 Proč těmto společnostem platí? 213 00:14:11,642 --> 00:14:14,687 Platí za to, že nám ukážou své reklamy. 214 00:14:14,770 --> 00:14:18,357 Jsme produkt. Naše pozornost se jako produkt prodává inzerentům. 215 00:14:18,899 --> 00:14:20,442 To je příliš zjednodušené. 216 00:14:20,526 --> 00:14:23,654 Produktem je postupná mírná a nepatrná změna 217 00:14:23,737 --> 00:14:26,115 ve vašem chování a vnímáni. 218 00:14:27,658 --> 00:14:30,244 To je produkt. Je to jediný možný produkt. 219 00:14:30,327 --> 00:14:33,455 Neexistuje nic jiného, co by se produktem dalo nazvat. 220 00:14:34,206 --> 00:14:37,251 To je to jediné, na čem můžou vydělávat. 221 00:14:37,668 --> 00:14:39,003 Změní to, co děláte, 222 00:14:39,336 --> 00:14:41,714 jak myslíte, kým jste. 223 00:14:42,631 --> 00:14:45,009 Je to postupná změna. Je nepatrná. 224 00:14:45,384 --> 00:14:49,096 Když za někým přijdete a řeknete: „Dejte mi deset milionů dolarů 225 00:14:49,179 --> 00:14:54,310 a já posunu svět o jedno procento blíž k tomu, jak chcete, aby vypadal…“ 226 00:14:54,894 --> 00:14:58,188 Jde o svět! Je to neuvěřitelné a má to velkou hodnotu. 227 00:14:59,315 --> 00:15:00,149 Dobře. 228 00:15:00,691 --> 00:15:04,111 O tomhle vždy snil každý obchodník. 229 00:15:04,653 --> 00:15:10,910 Mít jistotu, že když zadá reklamu, bude úspěšná. 230 00:15:11,327 --> 00:15:14,413 S tím obchodují. Prodávají jistotu. 231 00:15:14,997 --> 00:15:19,710 Abyste v tomto obchodě uspěli, musíte mít skvělé předpovědi. 232 00:15:20,085 --> 00:15:24,173 Ke skvělým předpovědím musíte mít jednu nezbytnost. 233 00:15:25,215 --> 00:15:26,675 Potřebujete spoustu dat. 234 00:15:29,136 --> 00:15:31,555 Mnoho lidí tomu říká kapitalismus dohledu. 235 00:15:31,639 --> 00:15:34,350 Kapitalismus, jenž těží z nekonečného sledování 236 00:15:34,433 --> 00:15:38,062 pohybu lidí velkými technologickými společnostmi, 237 00:15:38,145 --> 00:15:42,858 jejichž obchodní model spočívá v tom, že zajišťují co největší úspěch inzerentů. 238 00:15:42,942 --> 00:15:45,569 Tohle je nový druh trhu. 239 00:15:45,653 --> 00:15:48,072 Je to trh, jaký dosud nikdy neexistoval. 240 00:15:48,822 --> 00:15:55,371 A je to trh, který obchoduje výhradně s lidskými termínovými kontrakty. 241 00:15:56,080 --> 00:15:57,414 Stejně jako na trzích, 242 00:15:57,498 --> 00:16:01,585 které obchodují s termínovými kontrakty týkajícími se bůčku nebo ropy. 243 00:16:02,127 --> 00:16:07,257 Teď máme trhy, které ve velkém obchodují s lidskými termínovými kontrakty. 244 00:16:08,175 --> 00:16:13,472 A tyto trhy vydělaly biliony dolarů, 245 00:16:14,014 --> 00:16:17,309 které učinily z internetových společností 246 00:16:17,393 --> 00:16:22,231 nejbohatší společnosti v dějinách lidstva. 247 00:16:27,444 --> 00:16:31,073 Chci, aby lidé věděli, že všechno, co dělají online, 248 00:16:31,156 --> 00:16:34,243 je sledováno a měřeno. 249 00:16:35,035 --> 00:16:39,623 Každý váš čin je pozorně monitorován a zaznamenán. 250 00:16:39,707 --> 00:16:43,836 Přesně na který obrázek se zadíváte, jak dlouho se na něj díváte. 251 00:16:43,919 --> 00:16:45,796 Vážně, jak dlouho se díváte. 252 00:16:45,879 --> 00:16:50,426 DÉLKA INTERAKCE 253 00:16:50,509 --> 00:16:53,804 Vědí, kdy jsou lidé osamělí, kdy mají depresi. 254 00:16:53,887 --> 00:16:57,099 Kdy se dívají na fotky bývalých romantických partnerů. 255 00:16:57,182 --> 00:16:59,977 Vědí, co děláte pozdě v noci, vědí vše. 256 00:17:01,270 --> 00:17:03,355 Zda jste introvert, nebo extrovert, 257 00:17:03,439 --> 00:17:06,400 jaké máte neurózy, jaký máte typ osobnosti. 258 00:17:08,193 --> 00:17:11,572 Mají o nás víc informací, 259 00:17:11,655 --> 00:17:14,324 než jsme si kdy v dějinách dovedli představit. 260 00:17:14,950 --> 00:17:16,368 Je to neslýchané. 261 00:17:18,579 --> 00:17:22,499 Všechna ta data, která pořád chrlíme, 262 00:17:22,916 --> 00:17:26,754 jdou do systémů, které skoro vůbec nejsou pod lidským dohledem 263 00:17:27,463 --> 00:17:30,466 a které dělají pořád lepší a lepší předpovědi toho, 264 00:17:31,008 --> 00:17:33,135 co uděláme a kým jsme. 265 00:17:34,887 --> 00:17:36,221 DOPORUČENO PRO VÁS 266 00:17:36,305 --> 00:17:39,433 Mnoho lidí si mylně myslí, že se prodávají naše data. 267 00:17:40,350 --> 00:17:43,187 Vzdát se dat není v obchodním zájmu Facebooku. 268 00:17:45,522 --> 00:17:46,857 Co s těmi daty dělají? 269 00:17:51,070 --> 00:17:54,490 Vytvářejí modely, které předpovídají naše činy. 270 00:17:54,573 --> 00:17:57,618 A ten, kdo má nejlepší model, vyhrává. 271 00:18:02,706 --> 00:18:03,874 Scrolluje pomaleji. 272 00:18:03,957 --> 00:18:07,002 Blíží se konec průměrné délky používání, ubírám z reklam. 273 00:18:07,086 --> 00:18:08,337 Stáhni přátele a rodinu. 274 00:18:09,671 --> 00:18:15,469 Jako by na druhé straně obrazovky měli náš model podobný panence voodoo. 275 00:18:16,804 --> 00:18:19,473 Vše, co jsme kdy udělali, na co jsme klikli, 276 00:18:19,556 --> 00:18:21,642 videa, která jsme viděli, každý like, 277 00:18:21,725 --> 00:18:25,354 z toho všeho se sestavuje pořád přesnější model. 278 00:18:25,896 --> 00:18:29,858 Když ten model máte, můžete předvídat, co ten člověk udělá. 279 00:18:29,942 --> 00:18:31,777 Dobře, nechte mě to otestovat. 280 00:18:32,569 --> 00:18:33,487 Kam půjdete, 281 00:18:33,570 --> 00:18:36,115 můžu předvídat, jaká videa budete sledovat. 282 00:18:36,198 --> 00:18:39,159 Umím předvídat, které emoce jsou pro vás spouštěči. 283 00:18:39,243 --> 00:18:40,327 Ano, perfektní. 284 00:18:41,578 --> 00:18:42,788 Největší faily roku. 285 00:18:43,747 --> 00:18:44,665 EPICKÝ FAILY! 286 00:18:48,627 --> 00:18:51,130 - Super, vyšlo to. - Následuje další video. 287 00:18:51,213 --> 00:18:54,174 Nádhera. Než začne, vložíme tam reklamu na tenisky. 288 00:18:56,510 --> 00:18:59,721 Mnoho technologických společností má tři hlavní cíle. 289 00:18:59,805 --> 00:19:03,517 Cíl vysoké interakce, abyste nepřestali scrollovat. 290 00:19:04,601 --> 00:19:06,145 Dalším cílem je růst, 291 00:19:06,228 --> 00:19:10,440 abyste se pořád vraceli a pozvali přátele a aby oni pozvali své přátele. 292 00:19:11,650 --> 00:19:14,987 A pak je reklamní cíl, abychom během toho všeho 293 00:19:15,070 --> 00:19:17,406 vydělali co nejvíc peněz na reklamách. 294 00:19:19,324 --> 00:19:21,994 Každý z těchto cílů je založen na algoritmech, 295 00:19:22,077 --> 00:19:25,747 jejichž úkolem je zjistit, co vám ukázat, aby čísla dál rostla. 296 00:19:26,623 --> 00:19:29,918 Ve Facebooku jsme často mluvili o myšlence, 297 00:19:30,002 --> 00:19:34,006 že to dokážeme ovládat podle potřeby. 298 00:19:34,673 --> 00:19:38,594 A mluvili jsme o tom, že Mark by měl ovládače. 299 00:19:41,305 --> 00:19:44,474 „Hej, dnes chci víc uživatelů z Korey.“ 300 00:19:45,684 --> 00:19:46,643 Použiju ovládač. 301 00:19:47,436 --> 00:19:48,854 „Přidáme trochu reklam.“ 302 00:19:49,980 --> 00:19:51,648 „Trochu zvýšíme monetizaci.“ 303 00:19:52,858 --> 00:19:55,360 Takže tohle… 304 00:19:55,444 --> 00:19:59,239 Ve všech těchto společnostech je tato úroveň přesnosti. 305 00:19:59,990 --> 00:20:02,409 - Jak… - Nevím, proč jsem nedostal kartu. 306 00:20:02,492 --> 00:20:05,704 - Rozhodčí byl mizernej. - Doslova ses dostal až… 307 00:20:05,787 --> 00:20:07,956 - To je Rebecca. Běž za ní. - Vím, kdo to je. 308 00:20:08,040 --> 00:20:10,834 - Kámo, běž si s ní promluvit. - Dělám na tom. 309 00:20:10,918 --> 00:20:14,338 Podle jeho kalendáře má přestávku. Měli bychom být aktivní. 310 00:20:15,255 --> 00:20:16,465 Mám ho postrčit? 311 00:20:17,174 --> 00:20:18,050 Jo, do toho. 312 00:20:21,637 --> 00:20:24,181 „Váš přítel Tyler se připojil. Zamávejte mu.“ 313 00:20:26,016 --> 00:20:26,850 No tak. 314 00:20:27,267 --> 00:20:28,644 Zamávej mu. 315 00:20:29,394 --> 00:20:31,647 To ani… Běž s ní promluvit. 316 00:20:31,730 --> 00:20:34,900 VÁŠ PŘÍTEL TYLER SE PRÁVĚ PŘIPOJIL! ZAMÁVEJTE MU! 317 00:20:38,070 --> 00:20:40,447 Nové spojení! Dobře, jdeme na to. 318 00:20:40,948 --> 00:20:46,078 Následuje příspěvek od uživatele 079044238820, Rebeccy. 319 00:20:46,161 --> 00:20:49,831 Dobrý nápad. GPS souřadnice ukazují, že jsou v těsné blízkosti. 320 00:20:55,921 --> 00:20:57,130 Je zralý na reklamu. 321 00:20:57,631 --> 00:20:58,632 Čas na aukci. 322 00:20:58,715 --> 00:21:00,050 NÁHLED VOSK NA VLASY 323 00:21:00,133 --> 00:21:02,803 Prodáno! Vosku na vlasy Deep Fade. 324 00:21:03,387 --> 00:21:07,933 Měli jsme 476 zájemců. Prodali jsme Bena za 3,262 centů. 325 00:21:17,109 --> 00:21:21,530 Vytvořili jsme svět, ve kterém se online spojení stalo primárním, 326 00:21:22,072 --> 00:21:23,907 hlavně pro mladší generace, 327 00:21:23,991 --> 00:21:28,328 a přesto, kdykoli se dva lidi spojí, 328 00:21:29,204 --> 00:21:35,627 financuje to úskočná třetí osoba, aby mohla tyto dva lidi manipulovat. 329 00:21:36,128 --> 00:21:39,381 Takže jsme vytvořili celou globální generaci lidí, 330 00:21:39,464 --> 00:21:44,011 kteří vyrůstají v kontextu, ve kterém je samotný smysl komunikace 331 00:21:44,094 --> 00:21:47,431 a smysl kultury založen na manipulaci. 332 00:21:47,514 --> 00:21:52,311 Podvod a úskočnost jsme dali úplně do středu všeho, co děláme. 333 00:21:56,648 --> 00:22:03,613 „Každá dostatečně pokročilá technologie je k nerozeznání od magie.“ 334 00:22:05,699 --> 00:22:07,200 - Chytni tu další… - Fajn. 335 00:22:07,284 --> 00:22:09,411 - Kde je lepší to držet? - To je dobrý. 336 00:22:09,494 --> 00:22:10,620 - Tady? - Jo. 337 00:22:10,704 --> 00:22:13,707 Jak to vypadá na kameře, když udělám… 338 00:22:13,790 --> 00:22:15,334 - Vlastně můžeme… - Takhle? 339 00:22:15,625 --> 00:22:16,835 - Cože? - Jo. 340 00:22:16,918 --> 00:22:18,545 - Udělej to znovu? - Přesně. 341 00:22:19,421 --> 00:22:21,715 Nejspíš to není… Jo. 342 00:22:22,507 --> 00:22:23,800 Tenhle je míň… 343 00:22:31,016 --> 00:22:32,434 Chris tady fakt šílí. 344 00:22:34,728 --> 00:22:35,562 Dobrý? 345 00:22:37,856 --> 00:22:41,068 Bylo mi asi pět, když jsem se naučil kouzlit. 346 00:22:41,151 --> 00:22:45,781 A dovedl jsem oklamat dospělé s doktoráty. 347 00:22:55,040 --> 00:22:57,709 Kouzelníci byli skoro jako první neurovědci 348 00:22:57,793 --> 00:22:58,960 a psychologové. 349 00:22:59,044 --> 00:23:03,382 Jako první pochopili, jak funguje lidská mysl. 350 00:23:04,716 --> 00:23:07,386 V reálném čase na lidech testují spoustu věcí. 351 00:23:09,137 --> 00:23:11,139 Kouzelník rozumí něčemu, 352 00:23:11,223 --> 00:23:14,101 nějaké část vaší mysli, kterou si neuvědomujete. 353 00:23:14,184 --> 00:23:15,685 Proto ta iluze funguje. 354 00:23:16,019 --> 00:23:20,232 Lékaři, právníci, lidé, kteří stavějí letadla či jaderné rakety, 355 00:23:20,690 --> 00:23:24,361 nevědí víc o tom, jak je jejich mysl zranitelná. 356 00:23:24,444 --> 00:23:26,113 Je to samostatná disciplína. 357 00:23:26,571 --> 00:23:28,990 Disciplína, která se týká všech lidí. 358 00:23:30,992 --> 00:23:34,079 Z tohoto úhlu pohledu úplně jinak chápete to, 359 00:23:34,162 --> 00:23:35,372 co technologie dělá. 360 00:23:36,873 --> 00:23:40,710 Ve stanfordské laboratoři persuasivní technologie nás učili toto. 361 00:23:41,628 --> 00:23:45,882 Jak můžeme využít všeho, co víme o psychologii toho, co lidi přesvědčí, 362 00:23:45,966 --> 00:23:48,385 a zapracovat to do technologie? 363 00:23:48,468 --> 00:23:50,887 Mnozí z vás v publiku jsou géniové. 364 00:23:50,971 --> 00:23:55,851 Ale mým úkolem je udělat z vás geniální experty na změny chování. 365 00:23:56,852 --> 00:24:01,148 Mnoho významných osobností ze Silicon Valley ten kurz absolvovalo. 366 00:24:01,231 --> 00:24:05,485 Klíčové osobnosti z Facebooku a Uberu a dalších společností. 367 00:24:05,569 --> 00:24:09,197 Naučili se tam, jak udělat technologii přesvědčivější. 368 00:24:09,614 --> 00:24:10,866 Tristan patří k nim. 369 00:24:12,284 --> 00:24:16,580 Persuasivní technologie je design, který je záměrně aplikován do extrému, 370 00:24:16,663 --> 00:24:18,999 když vážně chceme upravit něčí chování. 371 00:24:19,082 --> 00:24:23,336 Chceme, aby někdo udělal tohle, aby prstem pořád dělal toto. 372 00:24:23,420 --> 00:24:26,256 Když obnovíte stránku, nahoře bude něco nového. 373 00:24:26,339 --> 00:24:28,508 Uděláte to znovu, něco nového. Vždy. 374 00:24:28,592 --> 00:24:33,722 V psychologii tomu říkáme pozitivní přerušované zpevnění. 375 00:24:33,805 --> 00:24:37,142 Nevíte, kdy nebo jestli něco dostanete, 376 00:24:37,225 --> 00:24:40,061 funguje to přesně jako automaty ve Vegas. 377 00:24:40,145 --> 00:24:44,232 Nestačí, že produkt používáte vědomě, chci se dostat hlouběji do mozku 378 00:24:44,316 --> 00:24:47,652 a implantovat vám nevědomý zvyk, 379 00:24:47,736 --> 00:24:52,115 takže vás programuji na hlubší úrovni. Ani si to neuvědomujete. 380 00:24:52,532 --> 00:24:53,533 James Marshall... 381 00:24:53,617 --> 00:24:56,286 Pokaždé, když ho spatříte, 382 00:24:56,369 --> 00:24:59,581 jen se podíváte na mobil a víte, že když po něm sáhnete, 383 00:24:59,664 --> 00:25:01,333 možná tam pro vás něco bude. 384 00:25:01,416 --> 00:25:03,877 Hrajete na automatu a čekáte, co dostanete. 385 00:25:03,960 --> 00:25:06,046 To není náhoda. Je to tak navrženo. 386 00:25:06,129 --> 00:25:11,134 Přinese zlatý nuget armádnímu důstojníkovy v San Franciscu. 387 00:25:12,219 --> 00:25:15,263 Pamatujte, že populace San Francisca byla jen… 388 00:25:15,347 --> 00:25:18,016 Dalším příkladem je označování na fotkách. 389 00:25:19,726 --> 00:25:23,647 Takže pokud dostanete e-mail, že vás přítel označil na fotce, 390 00:25:24,147 --> 00:25:28,568 samozřejmě na ten e-mail kliknete a na fotku se podíváte. 391 00:25:29,152 --> 00:25:31,821 Nemůžete se prostě rozhodnout to ignorovat. 392 00:25:32,364 --> 00:25:36,326 Využíváme hluboce zakořeněnou lidskou vlastnost. 393 00:25:36,409 --> 00:25:40,288 Měli byste se ptát: „Proč ten e-mail tu fotku neobsahuje? 394 00:25:40,372 --> 00:25:42,457 Podívat se na ni by bylo snazší.“ 395 00:25:42,541 --> 00:25:45,877 Když Facebook tuto funkci objevil, naplno jí využil. 396 00:25:45,961 --> 00:25:48,463 Byl to skvělý způsob, jak zvýšit aktivitu. 397 00:25:48,547 --> 00:25:51,091 Stačí lidi přijmout označovat se na fotkách. 398 00:25:56,263 --> 00:25:58,890 ASPOŇ JEDEN Z NÁS VYPADÁ DOBŘE. 399 00:25:59,349 --> 00:26:01,142 - Napsal komentář. - Fajn. 400 00:26:01,935 --> 00:26:04,688 Dobře, Rebecca ho dostala a reaguje. 401 00:26:04,771 --> 00:26:07,148 Oznam Benovi, že píše, ať ho neztratíme. 402 00:26:07,649 --> 00:26:08,775 Aktivuji tři tečky. 403 00:26:19,411 --> 00:26:20,745 Výborně, odepsala. 404 00:26:21,329 --> 00:26:24,249 Komentuje její komentář k jeho komentáři k jejímu příspěvku. 405 00:26:24,916 --> 00:26:27,752 - Moment, přestal psát. - Vyplňme to automaticky. 406 00:26:28,420 --> 00:26:30,005 Smajlíci. Miluje je. 407 00:26:31,381 --> 00:26:33,758 AUTOMATICKÉ DOKONČENÍ 408 00:26:33,842 --> 00:26:34,676 Vybral oheň. 409 00:26:35,427 --> 00:26:36,803 Doufal jsem v lilek. 410 00:26:38,597 --> 00:26:42,726 Existuje celá disciplína a obor zvané growth hacking. 411 00:26:42,809 --> 00:26:47,147 Týmy inženýrů mají za úkol nabourat se do lidské psychiky, 412 00:26:47,230 --> 00:26:48,565 aby dosáhly většího růstu. 413 00:26:48,648 --> 00:26:50,942 Přihlásí se víc uživatelů, získají víc interakcí, 414 00:26:51,026 --> 00:26:52,861 přimějí vás přizvat další lidi. 415 00:26:52,944 --> 00:26:55,614 Po všech testech, iteracích, po tom všem, 416 00:26:56,156 --> 00:27:00,493 víte, co jsme si uvědomili? Každý musí mít za deset dní sedm přátel. 417 00:27:01,953 --> 00:27:02,787 To bylo vše. 418 00:27:02,871 --> 00:27:05,498 Chamath byl dřív ve Facebooku vedoucím růstu 419 00:27:05,582 --> 00:27:11,004 a v technologickém průmyslu je velmi známý jako průkopník mnohých strategií růstu, 420 00:27:11,087 --> 00:27:14,758 díky kterým Facebook rostl neskutečnou rychlostí. 421 00:27:14,841 --> 00:27:18,553 A tyto strategie se v Silicon Valley staly standardními. 422 00:27:18,637 --> 00:27:21,222 Použil je Uber a pár dalších společností. 423 00:27:21,306 --> 00:27:27,062 Jednou z věcí, které propagoval, bylo využití vědeckého A/B testování 424 00:27:27,145 --> 00:27:28,480 drobných změn funkcí. 425 00:27:28,938 --> 00:27:30,940 Společnosti jako Google a Facebook 426 00:27:31,024 --> 00:27:36,821 neustále dělaly na uživatelích spoustu malých experimentů 427 00:27:36,905 --> 00:27:43,036 a když pořád provádíte experimenty, časem vyvinete nejoptimálnější způsob, 428 00:27:43,119 --> 00:27:46,790 jak uživatele přimět dělat to, co chcete. Je to manipulace. 429 00:27:47,332 --> 00:27:49,250 Cítím se jako laboratorní krysa. 430 00:27:49,834 --> 00:27:51,920 Jsi laboratorní krysa. My všichni. 431 00:27:52,545 --> 00:27:55,548 A nejsme laboratorní krysy pro lék na rakovinu. 432 00:27:55,632 --> 00:27:58,134 Nesnaží se být přínosem pro nás. 433 00:27:58,218 --> 00:28:01,805 Jsme jen zombies a oni chtějí, abychom se dívali na víc reklam, 434 00:28:01,888 --> 00:28:03,223 aby mohli víc vydělat. 435 00:28:03,556 --> 00:28:08,228 Facebook provedl něco, co nazvali „rozsáhlé experimenty s emoční nákazou“. 436 00:28:08,311 --> 00:28:09,145 Dobře. 437 00:28:09,229 --> 00:28:12,899 Jak jde využít podprahových podnětů na facebookových stránkách, 438 00:28:13,400 --> 00:28:17,570 abychom přiměli víc lidí účastnit se průběžných voleb? 439 00:28:17,987 --> 00:28:20,824 A zjistili, že to dokážou. 440 00:28:20,907 --> 00:28:24,160 Došli k závěru, že teď víme, 441 00:28:24,744 --> 00:28:28,915 že můžeme ovlivnit chování a emoce ve světě bez toho, 442 00:28:28,998 --> 00:28:32,877 že by to uživatelé byli schopni zpozorovat. 443 00:28:33,378 --> 00:28:37,382 Nemají o tom ani tušení. 444 00:28:38,049 --> 00:28:41,970 Nasměrovali jsme na sebe umělou inteligenci, 445 00:28:42,053 --> 00:28:46,224 abychom zpětně analyzovali, co u nás vyvolá reakci. 446 00:28:47,100 --> 00:28:51,479 Jako byste pavoukovi stimulovali neurony, abyste viděli, co mu rozhýbe nohy. 447 00:28:51,938 --> 00:28:53,940 Je to jako vězeňský experiment, 448 00:28:54,023 --> 00:28:56,735 kde lidi zatáhneme do matrixu 449 00:28:56,818 --> 00:29:01,489 a pak z jejich aktivity sklízíme peníze a data za účelem zisku. 450 00:29:01,573 --> 00:29:03,241 A ani nevíme, že se to děje. 451 00:29:04,117 --> 00:29:08,204 Chceme pomocí psychologie zjistit, jak vás co nejrychleji zmanipulovat 452 00:29:08,288 --> 00:29:12,459 a pak vám dát dávku dopaminu. U Facebooku se nám to povedlo úžasně. 453 00:29:12,542 --> 00:29:14,919 Instagram to udělal. WhatsApp to udělal. 454 00:29:15,003 --> 00:29:17,380 Snapchat to udělal, Twitter to udělal. 455 00:29:17,464 --> 00:29:22,427 Je to přesně to, co by vymyslel hacker jako já, 456 00:29:22,510 --> 00:29:27,015 protože zneužíváte zranitelnosti lidské psychiky. 457 00:29:28,808 --> 00:29:33,438 Myslím, že my… vynálezci, tvůrci... 458 00:29:33,980 --> 00:29:37,317 a jsem to já, je to Mark, je to… 459 00:29:37,400 --> 00:29:40,111 Kevin Systrom od Instagramu, všichni tito lidé… 460 00:29:41,154 --> 00:29:46,451 Uvědomovali jsme si to a přesto jsme to udělali. 461 00:29:50,580 --> 00:29:53,666 Nikdo se nezlobil, když se objevila kola. 462 00:29:55,043 --> 00:29:58,004 Že jo? Když všichni začali jezdit na kole, 463 00:29:58,087 --> 00:30:00,924 nikdo neřekl: „Bože, zničili jsme společnost. 464 00:30:01,007 --> 00:30:03,051 Kola mají vliv na lidi, 465 00:30:03,134 --> 00:30:05,220 trhají lidi od jejich dětí, 466 00:30:05,303 --> 00:30:08,723 ničí strukturu demokracie, lidi nerozeznají, co je pravda.“ 467 00:30:08,807 --> 00:30:11,142 Nic z toho jsme o kolech nikdy neřekli. 468 00:30:12,769 --> 00:30:16,147 Když je něco nástroj, opravdu to jen leží 469 00:30:16,731 --> 00:30:18,733 a trpělivě to čeká. 470 00:30:19,359 --> 00:30:22,570 Pokud něco nástroj není, vyžaduje to od vás různé věci, 471 00:30:22,946 --> 00:30:26,533 svádí vás to, manipuluje, něco to od vás chce. 472 00:30:26,950 --> 00:30:30,495 Od technologického prostředí na báze nástrojů jsme přešli 473 00:30:31,037 --> 00:30:34,249 k prostředí založeném na závislosti a manipulaci. 474 00:30:34,666 --> 00:30:35,708 To se změnilo. 475 00:30:35,792 --> 00:30:39,420 Sociální média nejsou nástroje, které čekají na použití. 476 00:30:39,504 --> 00:30:43,466 Mají své vlastní cíle, které dosahují vlastními prostředky. 477 00:30:43,550 --> 00:30:45,677 Využívají vaši psychiku proti vám. 478 00:30:49,055 --> 00:30:53,476 „Existují jen dva průmysly, které svým zákazníkům říkají ,uživatelé‘: 479 00:30:53,560 --> 00:30:57,480 nelegální drogy a software.“ 480 00:30:57,564 --> 00:31:02,193 Před pár lety jsem byl prezidentem Pinterestu. 481 00:31:03,152 --> 00:31:08,366 Když jsem přišel z práce domů, nedokázal jsem odložit mobil, 482 00:31:08,449 --> 00:31:12,161 i když jsem měl dvě malé děti, které potřebovaly lásku a pozornost. 483 00:31:12,245 --> 00:31:17,417 Byl jsem ve spíži a psal jsem e-mail nebo jsem se díval na Pinterest. 484 00:31:18,001 --> 00:31:22,046 Myslel jsem si: „Klasická ironie. Přes den na něčem pracuju 485 00:31:22,130 --> 00:31:26,426 a tvořím něco, čemu pak podlehnu.“ 486 00:31:26,509 --> 00:31:29,637 A nemohl jsem… Někdy jsem si nemohl pomoct. 487 00:31:32,307 --> 00:31:36,102 Nejvíc mě to tíhne ke Twitteru. 488 00:31:36,811 --> 00:31:38,021 Býval to Reddit. 489 00:31:38,104 --> 00:31:42,859 Musel jsem si napsat software, abych svou závislost na Redditu překonal. 490 00:31:45,361 --> 00:31:47,780 Nejvíc závislý jsem asi na e-mailu. 491 00:31:47,864 --> 00:31:49,866 Opravdu. Cítím to. 492 00:31:52,577 --> 00:31:54,954 No, je zajímavé, 493 00:31:55,038 --> 00:31:58,041 že i když jsem věděl, co se děje v zákulisí, 494 00:31:58,124 --> 00:32:01,628 pořád jsem své používání sociálních médií nedokázal ovládat. 495 00:32:01,711 --> 00:32:03,046 Je to trochu děsivé. 496 00:32:03,630 --> 00:32:07,050 I když vím, jak ty triky fungují, pořád jim podlehnu. 497 00:32:07,133 --> 00:32:09,886 Pořád vezmu do ruky mobil a promrhám 20 minut. 498 00:32:12,805 --> 00:32:15,725 Zkontrolujete mobil, než jdete ráno na záchod, 499 00:32:15,808 --> 00:32:19,228 nebo až když jste na záchodě? To jsou jediné dvě možnosti. 500 00:32:19,562 --> 00:32:23,274 Zkusil jsem silu vůle, čistě jen silu vůle… 501 00:32:23,358 --> 00:32:26,903 „Odložím mobil. Když přijedu domů, mobil nechám v autě.“ 502 00:32:26,986 --> 00:32:30,573 Asi během tisíci různých dní jsem si tisíckrát řekl: 503 00:32:30,657 --> 00:32:32,617 „Nevezmu si mobil do ložnice.“ 504 00:32:32,700 --> 00:32:34,535 A pak v devět večer si řeknu: 505 00:32:34,619 --> 00:32:37,121 „Chci si vzít mobil do ložnice.“ 506 00:32:37,956 --> 00:32:41,125 Takže to byl tak trochu… Síla vůle byla první pokus 507 00:32:41,209 --> 00:32:44,295 a druhý pokus byla hrubá síla. 508 00:32:44,379 --> 00:32:45,880 Představujeme kuchyňský sejf. 509 00:32:45,964 --> 00:32:49,759 Tato nová revoluční nádoba s časovým zámkem 510 00:32:49,842 --> 00:32:51,678 vám pomůže bojovat s pokušením. 511 00:32:51,761 --> 00:32:56,432 David musí jen vložit pokušení do kuchyňského sejfu. 512 00:32:57,392 --> 00:33:00,561 Pak otočením spínače nastaví časovač 513 00:33:01,479 --> 00:33:04,232 a nakonec ho stiskne, čímž se aktivuje zámek. 514 00:33:04,315 --> 00:33:05,525 Kuchyňský sejf je super… 515 00:33:05,608 --> 00:33:06,776 Máme ho, ne? 516 00:33:06,859 --> 00:33:08,569 …videohry, kreditky a mobily. 517 00:33:08,653 --> 00:33:09,654 Jo, máme. 518 00:33:09,737 --> 00:33:13,866 Když se sejf zamkne, nelze jej otevřít, dokud čas neuplyne. 519 00:33:13,950 --> 00:33:17,537 Věc se má takto. Sociální média jsou droga. 520 00:33:17,620 --> 00:33:23,084 Máme základní biologickou potřebu být v kontaktu s ostatními lidmi. 521 00:33:23,167 --> 00:33:28,214 Má to přímý vliv na uvolňování dopaminu v mezolimbické dráze. 522 00:33:28,297 --> 00:33:32,552 Tento systém mají na svědomí miliony let evoluce, 523 00:33:32,635 --> 00:33:35,596 snaží se nás spojovat a nutí nás žít v komunitách, 524 00:33:35,680 --> 00:33:38,016 abychom si mohli najít partnery a množit se. 525 00:33:38,099 --> 00:33:41,853 Takže není pochyb o tom, že něco jako sociální média, 526 00:33:41,936 --> 00:33:45,481 která mezi lidmi umožňují spojení, 527 00:33:45,773 --> 00:33:48,151 bude mít potenciál vyvolat závislost. 528 00:33:52,780 --> 00:33:54,115 Tati, přestaň! 529 00:33:55,450 --> 00:33:58,453 Musím před večeří poslat asi tisíc snipů. 530 00:33:58,536 --> 00:34:00,872 - Snipů? - Nevím, co je snip. 531 00:34:01,372 --> 00:34:03,207 - To voní dobře, zlato. - Díky. 532 00:34:03,291 --> 00:34:07,712 Říkala jsem si, že bychom si dnes mohli večeři vychutnat všemi pěti smysly. 533 00:34:07,795 --> 00:34:11,382 Tak jsem se rozhodla, že dnes u stolu nebudou žádné mobily. 534 00:34:11,466 --> 00:34:13,301 Takže mi je dejte. 535 00:34:13,801 --> 00:34:14,635 - Vážně? - Jo. 536 00:34:15,928 --> 00:34:18,056 - Dobře. - Děkuju. Bene? 537 00:34:18,139 --> 00:34:19,891 - Fajn. - Pirátka mobilů. 538 00:34:21,017 --> 00:34:21,934 - Mám ho. - Mami! 539 00:34:22,602 --> 00:34:26,147 Tady budou v bezpečí až do konce večeře… 540 00:34:27,273 --> 00:34:31,277 a všichni se můžou uvolnit. Dobře? 541 00:34:47,418 --> 00:34:49,253 - Můžu vědět, kdo to je? - Ne. 542 00:34:54,842 --> 00:34:56,969 Jen si vezmu další vidličku. 543 00:34:58,304 --> 00:34:59,263 Děkuju. 544 00:35:04,727 --> 00:35:06,771 Zlato, to nejde otevřít. 545 00:35:06,854 --> 00:35:09,273 Zamkla jsem to na hodinu, nech to být. 546 00:35:11,192 --> 00:35:13,111 Tak o čem si promluvíme? 547 00:35:13,486 --> 00:35:17,907 Třeba o šílených extrémních centristech, které jsem dneska viděl. 548 00:35:17,990 --> 00:35:18,825 - Franku. - Co? 549 00:35:18,908 --> 00:35:20,785 Nechci mluvit o politice. 550 00:35:20,868 --> 00:35:23,538 - Co je na nich špatného? - Vidíš? Nechápe to. 551 00:35:23,621 --> 00:35:24,622 Záleží od člověka. 552 00:35:24,705 --> 00:35:27,208 Jako ptát se, co je špatného na propagandě. 553 00:35:28,709 --> 00:35:29,710 Islo! 554 00:35:32,797 --> 00:35:33,756 Panebože. 555 00:35:37,176 --> 00:35:38,386 - Mám… - Jo. 556 00:35:41,973 --> 00:35:43,933 Mám strach o své děti. 557 00:35:44,016 --> 00:35:46,686 A pokud máte děti, mám strach i o ně. 558 00:35:46,769 --> 00:35:50,189 Pomocí všech svých vědomostí a zkušeností 559 00:35:50,273 --> 00:35:54,443 se s dětmi hádám o tom, kolik na mobilech a počítači stráví času. 560 00:35:54,527 --> 00:35:58,197 Zeptám se syna: „Kolik hodin myslíš, že na mobilu trávíš?“ 561 00:35:58,281 --> 00:36:01,075 Řekne: „Půl hodiny. Je to maximálně půl hodiny.“ 562 00:36:01,159 --> 00:36:04,453 Řekl bych, že tak hodinu, hodinu a půl. 563 00:36:04,954 --> 00:36:08,708 Když jsem se mu dívala na záznam, byly to tři hodiny a 45 minut. 564 00:36:11,335 --> 00:36:13,629 Nemyslím, že to… Průměrně za den? 565 00:36:14,172 --> 00:36:15,506 - Jo. - Mám to přinést? 566 00:36:15,590 --> 00:36:21,429 Není dne, kdy bych dětem nepřipomněla rovnováhu radosti a bolesti, 567 00:36:21,846 --> 00:36:26,267 stavy nedostatku dopaminu, riziko závislosti. 568 00:36:26,350 --> 00:36:27,310 Okamžik pravdy. 569 00:36:27,935 --> 00:36:29,687 Dvě hodiny a 50 minut denně. 570 00:36:29,770 --> 00:36:31,772 - Podívejme. - Dnes jsem ho dost používal. 571 00:36:31,856 --> 00:36:33,357 - Poslední týden. - Tím to bude. 572 00:36:33,441 --> 00:36:37,153 Instagram, šest hodin, 13 minut. Dobře, můj Instagram je horší. 573 00:36:39,572 --> 00:36:43,201 Mám úplně rozbitou obrazovku. Díky, Cass. 574 00:36:44,410 --> 00:36:45,453 Jak to myslíš? 575 00:36:46,078 --> 00:36:49,290 Děsíš mámu ohledně telefonů, když to není problém. 576 00:36:49,373 --> 00:36:51,167 U večeře mobily nepotřebujeme. 577 00:36:51,250 --> 00:36:53,878 Chápu, co říkáš. Ale není to takový problém. 578 00:36:56,047 --> 00:36:58,382 Když je to tak, týden ho nepoužívej. 579 00:37:01,135 --> 00:37:06,349 Jo. Vlastně když ho odložíš na celý týden… 580 00:37:07,725 --> 00:37:09,268 Koupím ti novou obrazovku. 581 00:37:11,062 --> 00:37:12,396 - Od teď? - Od teď. 582 00:37:15,274 --> 00:37:16,859 Dobře. Platí. 583 00:37:16,943 --> 00:37:18,569 Ale musíš ho tu nechat. 584 00:37:19,862 --> 00:37:20,988 Dobře, zapojím ho. 585 00:37:22,531 --> 00:37:25,743 - Zapište si, že ho tu nechávám. - Dobře. 586 00:37:27,703 --> 00:37:29,413 - Odpočet začíná. - Týden. 587 00:37:31,582 --> 00:37:34,043 - Myslíš, že to dá? - Nevím, uvidíme. 588 00:37:35,086 --> 00:37:36,128 Jen jez, jo? 589 00:37:44,178 --> 00:37:45,471 Dobrá rodinná večeře! 590 00:37:47,807 --> 00:37:49,809 Tyto technologie nenavrhli 591 00:37:49,892 --> 00:37:53,646 dětští psychologové, kteří se snažili děti chránit a vychovávat. 592 00:37:53,980 --> 00:37:56,148 Prostě byly navrženy algoritmy, 593 00:37:56,232 --> 00:37:58,859 které jsou dobré v doporučovaní dalších videí 594 00:37:58,943 --> 00:38:02,029 nebo vás snadno přinutí vyfotit se s filtrem. 595 00:38:03,072 --> 00:38:05,449 DVĚMA LIDEM SE TO LÍBÍ 596 00:38:13,291 --> 00:38:15,126 OPRAVDU CHCETE FOTKU VYMAZAT? NE 597 00:38:15,209 --> 00:38:16,210 ANO 598 00:38:16,752 --> 00:38:20,172 Nejde jen o to, že to ovládá, čemu věnují pozornost. 599 00:38:21,173 --> 00:38:26,304 Sociální média začínají pronikat hlouběji do mozkového kmene 600 00:38:26,387 --> 00:38:29,765 a ovládají dětské vnímání vlastní hodnoty a identity. 601 00:38:42,069 --> 00:38:43,112 HEZKÉ! 602 00:38:43,195 --> 00:38:44,822 OMG JSI KRÁSNÁ 603 00:38:44,905 --> 00:38:46,490 JSI FAKT SKVĚLÁ 604 00:38:46,574 --> 00:38:48,200 UŠI SI ZVĚTŠIT NEUMÍŠ? 605 00:38:52,496 --> 00:38:55,499 Vyvinuli jsme se tak, aby nám záleželo na tom… 606 00:38:55,583 --> 00:38:56,584 VYPADÁŠ DOBŘE! 607 00:38:56,667 --> 00:38:59,462 …co si o nás lidi myslí, protože je to důležité. 608 00:38:59,837 --> 00:39:01,505 Ale vyvinuli jsme se k tomu, 609 00:39:01,589 --> 00:39:04,550 abychom věděli, co si o nás myslí 10 000 lidí? 610 00:39:04,633 --> 00:39:06,302 Nevyvinuli jsme se k tomu, 611 00:39:06,385 --> 00:39:10,348 abychom dostávali společenské uznání každých pět minut. 612 00:39:10,431 --> 00:39:13,142 Na to vůbec nejsme stavěni. 613 00:39:15,394 --> 00:39:19,982 Naše životy se točí kolem viditelné dokonalosti, 614 00:39:20,733 --> 00:39:25,154 protože nás odměňují krátkodobé signály, srdíčka, lajky, palce nahoru. 615 00:39:25,237 --> 00:39:28,324 A spojujeme si to s hodnotou a s pravdou. 616 00:39:29,825 --> 00:39:33,120 A ve skutečnosti to je jen falešná křehká popularita… 617 00:39:33,913 --> 00:39:37,458 která je krátkodobá a která vás zanechá, přiznejte si to, 618 00:39:37,541 --> 00:39:39,919 s ještě prázdnějším pocitem než předtím. 619 00:39:41,295 --> 00:39:43,381 Dostane vás to do bludného kruhu, 620 00:39:43,464 --> 00:39:46,967 kdy si říkáte: „Co musím udělat dalšího? Potřebuju to zase.“ 621 00:39:48,260 --> 00:39:50,846 Znásobte si to dvěma miliardami lidí 622 00:39:50,930 --> 00:39:54,767 a pak pomyslete na to, jak lidi reagují na své vnímání druhých. 623 00:39:54,850 --> 00:39:58,020 Je to prostě… Je to vážně špatné. 624 00:40:00,856 --> 00:40:06,529 U amerických teenagerů došlo k nárůstu případů deprese a úzkosti. 625 00:40:06,612 --> 00:40:10,699 Začalo ta asi mezi roky 2011 a 2013. 626 00:40:11,033 --> 00:40:14,370 Množství děvčat ze 100 000, 627 00:40:14,453 --> 00:40:17,081 které ročně v této zemi přijali do nemocnice 628 00:40:17,164 --> 00:40:19,625 kvůli řezání nebo jinému sebepoškozování, 629 00:40:20,042 --> 00:40:23,587 toto číslo bylo až do roku 2010, 2011 dost stabilní 630 00:40:24,004 --> 00:40:25,756 a pak začalo rapidně stoupat. 631 00:40:28,759 --> 00:40:32,471 U starších děvčat stouplo o 62 %. 632 00:40:33,889 --> 00:40:38,310 U mladších děvčat stouplo o 189 %. Skoro trojnásobek. 633 00:40:40,312 --> 00:40:43,107 Ještě horší je to, že to samé se týká sebevražd. 634 00:40:44,817 --> 00:40:47,570 U starších děvčat, ve věku 15 až 19 let, 635 00:40:47,653 --> 00:40:51,449 došlo oproti předešlému desetiletí ke zvýšení o 70 %. 636 00:40:52,158 --> 00:40:55,077 U mladších děvčat, u kterých bývaly počty nízké, 637 00:40:55,161 --> 00:40:57,538 došlo ke zvýšení o 151 %. 638 00:40:58,831 --> 00:41:01,709 A tento vzorec ukazuje směrem k sociálním médiím. 639 00:41:01,792 --> 00:41:04,044 SOCIÁLNÍ MÉDIA K DISPOZICI V MOBILU 640 00:41:04,128 --> 00:41:07,214 Generace Z, děti narozeny zhruba po roce 1996, 641 00:41:07,298 --> 00:41:11,469 se jako první generace v dějinách dostala na sociální média 642 00:41:11,552 --> 00:41:12,636 na základní škole. 643 00:41:15,973 --> 00:41:17,099 Jak tráví svůj čas? 644 00:41:19,727 --> 00:41:22,271 Přijdou ze školy a jsou na telefonech. 645 00:41:24,315 --> 00:41:29,195 Celá generace je zranitelnější, víc trpí úzkostmi a depresemi. 646 00:41:30,613 --> 00:41:33,282 Jsou mnohem méně ochotni riskovat. 647 00:41:34,408 --> 00:41:37,119 Dostávají řidičské průkazy v nižších počtech. 648 00:41:39,079 --> 00:41:44,126 Rapidně klesá počet těch, kteří měli rande nebo romantickou interakci. 649 00:41:47,505 --> 00:41:49,715 Za jednu generaci je to velká změna. 650 00:41:53,177 --> 00:41:56,931 A pamatujte si, že každá jedna hospitalizace 651 00:41:57,348 --> 00:42:00,309 za sebou zanechá traumatizovanou a zděšenou rodinu. 652 00:42:00,392 --> 00:42:02,394 „Bože, co se s našimi dětmi děje?“ 653 00:42:19,411 --> 00:42:21,038 Připadá mi to zřejmé. 654 00:42:22,873 --> 00:42:28,128 Tyto služby lidi zabíjejí a způsobují, že lidé páchají sebevraždy. 655 00:42:29,088 --> 00:42:33,759 Neznám žádného rodiče, který říká: „Chci, aby mé děti vyrůstaly s pocitem, 656 00:42:33,842 --> 00:42:36,554 že je designéři technologií manipulují, 657 00:42:36,971 --> 00:42:39,723 manipulují jim pozorností, znemožňují dělání úkolů, 658 00:42:39,807 --> 00:42:43,060 nutí je srovnávat se s nerealistickými standardy krásy.“ 659 00:42:43,143 --> 00:42:44,687 To nechce nikdo. 660 00:42:45,104 --> 00:42:45,980 Nikdo. 661 00:42:46,438 --> 00:42:48,399 Mívali jsme ochranná opatření. 662 00:42:48,482 --> 00:42:52,778 Když děti v sobotu ráno sledovaly pohádky, záleželo nám na jejich ochraně. 663 00:42:52,861 --> 00:42:56,574 Řekli jsme: „Dětem tohoto věku tyto reklamy ukazovat nesmíte.“ 664 00:42:57,366 --> 00:42:58,993 Ale pak přišel YouTube Kids 665 00:42:59,076 --> 00:43:02,454 a zabral celou danou část ekonomiky pozornosti 666 00:43:02,538 --> 00:43:04,915 a teď všechny děti sledují YouTube Kids. 667 00:43:04,999 --> 00:43:07,418 A všechna opatření a nařízení jsou pryč. 668 00:43:10,296 --> 00:43:17,261 ČAS BEZ MOBILU 669 00:43:18,304 --> 00:43:22,141 Celou novou generaci lidí trénujeme a formujeme k tomu, 670 00:43:23,434 --> 00:43:28,814 že když se cítíme nepříjemně, osaměle, nejistě nebo vystrašeně, 671 00:43:29,231 --> 00:43:31,775 máme digitální dudlík, 672 00:43:32,568 --> 00:43:36,488 kvůli kterému naše schopnost se s těmi pocity vypořádat zakrňuje. 673 00:43:54,048 --> 00:43:58,886 Photoshop neměl tisíc inženýrů, kteří používali oznámení, vaše přátele, 674 00:43:58,969 --> 00:44:00,763 umělou inteligenci, která zjistí, 675 00:44:00,846 --> 00:44:03,515 jak u vás vyvolat závislost, jak vás zmanipulovat, 676 00:44:03,599 --> 00:44:07,853 nedovolili inzerentům testovat 60 000 variací fontů a barev, 677 00:44:07,936 --> 00:44:10,939 aby zjistili, jak dokonale zmanipulovat vaši mysl. 678 00:44:11,231 --> 00:44:14,985 Tohle je úplně nový druh moci a vlivu. 679 00:44:16,070 --> 00:44:19,114 Znovu bych řekl, že metody, 680 00:44:19,198 --> 00:44:22,993 které zneužívají lidského sklonu k závislosti a ovlivnitelnosti 681 00:44:23,077 --> 00:44:25,204 teď mohou být a nejspíš jsou jiné. 682 00:44:25,287 --> 00:44:28,749 Byly jiné, když vznikly noviny a tisk, 683 00:44:28,832 --> 00:44:34,004 a byly jiné, když vznikla televize a byly tři velké televizní společnosti a… 684 00:44:34,463 --> 00:44:36,423 - Tehdy. - Tehdy, to říkám. 685 00:44:36,507 --> 00:44:42,054 Ale narážím na to, že máme nový stupeň a že nový stupeň už přišel mnohokrát. 686 00:44:42,137 --> 00:44:45,099 Tohle je jen nejnovější nový stupeň pro nás. 687 00:44:45,182 --> 00:44:48,727 Existuje názor, že si na to zvykneme. 688 00:44:48,811 --> 00:44:53,315 Naučíme se s těmito přístroji žít, jako jsme se to naučili při všem ostatním. 689 00:44:53,899 --> 00:44:56,694 Ten názor zapomíná, že tohle je něco odlišného. 690 00:44:57,528 --> 00:45:00,322 Možná nejnebezpečnější z toho všeho je fakt, 691 00:45:00,406 --> 00:45:04,410 že to řídí technologie, které se exponenciálně zlepšují. 692 00:45:05,994 --> 00:45:09,081 Zhruba od 60. let po dnešek, 693 00:45:09,832 --> 00:45:13,043 se výpočetní výkonnost počítačů asi bilionkrát zvýšila. 694 00:45:13,794 --> 00:45:18,340 Nic jiného z toho, co máme, se nezlepšilo v takovém měřítku. 695 00:45:18,424 --> 00:45:22,177 Auta jsou asi dvakrát rychlejší. 696 00:45:22,261 --> 00:45:25,264 A skoro všechno ostatní je zanedbatelné. 697 00:45:25,347 --> 00:45:27,182 A možná nejdůležitější je to, 698 00:45:27,266 --> 00:45:31,353 že naše lidská fyziologie, naše mozky se dál nevyvinuly vůbec. 699 00:45:31,854 --> 00:45:35,232 ČAS BEZ MOBILU 700 00:45:37,609 --> 00:45:41,488 Lidské bytosti se na psychické a fyzické úrovni 701 00:45:41,947 --> 00:45:43,824 zásadně nezmění. 702 00:45:56,837 --> 00:46:00,924 V budoucnu můžeme genetickým inženýrstvím vytvořit nové druhy lidí, 703 00:46:01,008 --> 00:46:05,220 ale realisticky řečeno, žijete uvnitř hardwaru, mozku, 704 00:46:05,304 --> 00:46:06,930 který je starý miliony let. 705 00:46:07,347 --> 00:46:10,559 A pak je tu obrazovka a na její opačné straně 706 00:46:10,642 --> 00:46:15,773 jsou tisíce inženýrů a superpočítačů, kteří mají jiné cíle, než jsou ty vaše. 707 00:46:16,190 --> 00:46:19,693 A kdo tedy tuto hru vyhraje? Kdo vyhraje? 708 00:46:25,657 --> 00:46:26,617 Proč prohráváme? 709 00:46:27,159 --> 00:46:29,828 - Nevím. - Kde je? Tohle není normální. 710 00:46:29,912 --> 00:46:32,080 Bylo toho obsahu od přátel a rodiny moc? 711 00:46:32,164 --> 00:46:34,082 - Asi. - Možná to bylo reklamami. 712 00:46:34,166 --> 00:46:37,795 Ne. Něco je špatně. Přepneme na režim vzkříšení. 713 00:46:39,713 --> 00:46:44,051 Když si představíte umělou inteligenci, která zničí svět, 714 00:46:44,134 --> 00:46:47,221 představíte si Terminátora a Arnolda Schwarzeneggera… 715 00:46:47,638 --> 00:46:48,722 Já se vrátím. 716 00:46:48,806 --> 00:46:52,643 …vidíte drony, říkáte si: „S umělou inteligencí zabijeme lidstvo.“ 717 00:46:53,644 --> 00:46:59,399 A lidé zapomínají, že umělá inteligence už teď řídí moderní svět. 718 00:46:59,900 --> 00:47:03,237 Když se mluví o „umělé inteligenci“, je to jen metafora. 719 00:47:03,320 --> 00:47:09,451 Ve společnostech, jako je Google, jsou obrovské místnosti. 720 00:47:10,327 --> 00:47:13,121 Některé jsou pod zemí, jiné pod vodou. 721 00:47:13,205 --> 00:47:14,498 Jen s počítači. 722 00:47:14,581 --> 00:47:17,543 S tunami počítačů, kam jen oko dohlédne. 723 00:47:18,460 --> 00:47:22,923 Jsou vzájemně propojené a běží na nich extrémně komplikované programy, 724 00:47:23,006 --> 00:47:26,009 pořád si mezi sebou tam a zpátky posílají informace. 725 00:47:26,844 --> 00:47:30,806 Běží na nich mnoho různých programů, mnoho různých produktů. 726 00:47:31,431 --> 00:47:33,976 Některé algoritmy lze nazvat jednoduchými, 727 00:47:34,059 --> 00:47:37,521 některé jsou tak složité, že byste je nazvali inteligencí. 728 00:47:40,148 --> 00:47:43,777 Ráda říkám, že algoritmy jsou názory vložené do kódu. 729 00:47:45,070 --> 00:47:47,656 A že algoritmy nejsou objektivní. 730 00:47:48,365 --> 00:47:51,577 Jsou optimalizovány podle nějaké definice úspěchu. 731 00:47:52,244 --> 00:47:53,662 Když si představíte, 732 00:47:53,745 --> 00:47:57,124 že nějaký obchodní podnik sestaví algoritmus 733 00:47:57,207 --> 00:47:59,293 podle své definice úspěchu, 734 00:47:59,835 --> 00:48:01,211 je to obchodní zájem. 735 00:48:01,587 --> 00:48:02,796 Většinou jde o zisk. 736 00:48:03,130 --> 00:48:07,009 Stanovíte pro počítač cíl „chci tento výsledek“ 737 00:48:07,551 --> 00:48:12,347 a počítač se sám učí, jak jej dosáhnout. Z toho pochází termín „strojové učení“. 738 00:48:12,681 --> 00:48:16,977 A každý den se trochu zlepší ve vybírání příspěvků ve správném pořadí, 739 00:48:17,060 --> 00:48:19,438 takže u produktu trávíte pořád víc času. 740 00:48:19,521 --> 00:48:23,442 A nikdo pořádně nechápe, co počítač dělá, aby tohoto cíle dosáhl. 741 00:48:23,984 --> 00:48:28,238 Algoritmus má svou vlastní mysl, takže i když ho napíše člověk, 742 00:48:28,947 --> 00:48:30,657 je napsán tak, 743 00:48:31,074 --> 00:48:34,661 že postavíte stroj a ten pak sám sebe mění. 744 00:48:35,120 --> 00:48:40,000 V těchto společnostech je jen pár lidí, ve Facebooku, Twitteru a dalších firmách… 745 00:48:40,083 --> 00:48:43,795 Je jen pár lidí, kteří chápou, jak ty systémy fungují, 746 00:48:43,879 --> 00:48:46,715 a ani oni nemusí úplně chápat, 747 00:48:46,798 --> 00:48:49,301 co se stane s určitou částí obsahu. 748 00:48:49,968 --> 00:48:55,474 Takže jako lidé jsme nad těmito systémy skoro ztratili kontrolu, 749 00:48:55,891 --> 00:48:59,353 protože ovládají informace, které vidíme. 750 00:48:59,686 --> 00:49:02,105 Víc ovládají ony nás, než ovládáme my je. 751 00:49:03,732 --> 00:49:07,361 Srovnávám ho s podobnými jedinci z jeho geografické zóny. 752 00:49:07,444 --> 00:49:09,571 S jeho psychometrickými dvojníky. 753 00:49:09,655 --> 00:49:13,700 V této oblasti je 13 694 lidí, kteří se chovají jako on. 754 00:49:13,784 --> 00:49:16,119 - Na co se dívají? - K řádnému vzkříšení 755 00:49:16,203 --> 00:49:19,373 to chce něco dobrého, když obvyklé věci nefungují. 756 00:49:20,082 --> 00:49:21,875 Ani ta hezká holka ze školy. 757 00:49:22,334 --> 00:49:25,420 Podle analýzy má politický obsah extrémních centristů 758 00:49:25,504 --> 00:49:28,256 62,3% šanci na dlouhodobou interakci. 759 00:49:28,340 --> 00:49:29,299 To není špatné. 760 00:49:30,384 --> 00:49:32,010 Pro začátek to nestačí. 761 00:49:32,386 --> 00:49:35,305 Zkusili jsme upozornění na označení na fotkách, 762 00:49:35,389 --> 00:49:39,017 pozvánky, aktuální zprávy, dokonce i zprávu od Rebeccy. 763 00:49:39,101 --> 00:49:44,648 - Ale co uživatel 01265923010? - Jo, líbily se mu všechny její příspěvky. 764 00:49:44,731 --> 00:49:47,442 Celé měsíce se mu líbily všechny a pak nic. 765 00:49:47,859 --> 00:49:51,780 Odhaduji 92,3% šanci na vzkříšení díky oznámení o Aně. 766 00:49:53,907 --> 00:49:55,993 NOVÝ VZTAH 767 00:49:56,451 --> 00:49:57,703 A jejím novém příteli. 768 00:49:58,495 --> 00:50:04,001 ČAS BEZ TELEFONU 769 00:50:24,354 --> 00:50:26,148 VAŠE BÝVALÁ JE V NOVÉM VZTAHU! 770 00:50:26,231 --> 00:50:27,357 To si děláš srandu. 771 00:50:35,741 --> 00:50:36,616 Dobře. 772 00:50:37,576 --> 00:50:38,785 ANA A LUIZ JSOU VE VZTAHU 773 00:50:38,869 --> 00:50:39,703 Cože? 774 00:50:42,122 --> 00:50:44,499 - Jsme zpátky! - Zpět k vydělávání peněz. 775 00:50:44,583 --> 00:50:46,334 A ke spojení s celým světem. 776 00:50:46,418 --> 00:50:49,087 Dám mu přístup ke všem informacím, které chce. 777 00:50:49,755 --> 00:50:53,717 Hele, přemýšleli jste někdy nad tím, jestli je to pro Bena dobré? 778 00:50:57,220 --> 00:50:58,055 - Ne. - Ne. 779 00:51:17,532 --> 00:51:19,076 Začarovala jsem tě. 780 00:51:25,040 --> 00:51:26,374 Protože jsi můj. 781 00:51:34,508 --> 00:51:36,593 Přestaň s tím, co děláš. 782 00:51:41,181 --> 00:51:42,265 Já nelžu. 783 00:51:42,349 --> 00:51:44,893 A/B TESTOVÁNÍ EXTRÉMNÍ CENTRISTÉ 784 00:51:44,976 --> 00:51:46,686 Ne, já nelžu. 785 00:51:49,981 --> 00:51:51,817 Víš, že nesnesu, 786 00:51:53,026 --> 00:51:54,611 když pobíháš kolem. 787 00:51:55,612 --> 00:51:57,239 Dobře to víš, taťko. 788 00:51:58,782 --> 00:52:02,077 Nesnesu to, protože mě shazuješ. 789 00:52:06,456 --> 00:52:08,375 Začarovala jsem tě. 790 00:52:12,379 --> 00:52:14,840 Protože jsi můj. 791 00:52:18,718 --> 00:52:19,845 Jsi můj… 792 00:52:20,929 --> 00:52:24,015 Představte si, že jste na Facebooku... 793 00:52:24,766 --> 00:52:29,312 a v podstatě hrajete proti umělé inteligenci, 794 00:52:29,396 --> 00:52:31,314 která o vás ví všechno, 795 00:52:31,398 --> 00:52:34,568 umí předvídat váš další krok a vy o ní nevíte nic kromě toho, 796 00:52:34,651 --> 00:52:37,112 že tam jsou kočičí videa a narozeniny. 797 00:52:37,821 --> 00:52:39,656 To není férový boj. 798 00:52:41,575 --> 00:52:43,869 Bene a Jerry, je čas jít, kamaráde! 799 00:52:51,126 --> 00:52:51,960 Bene? 800 00:53:02,679 --> 00:53:03,513 Bene. 801 00:53:05,182 --> 00:53:06,057 No tak. 802 00:53:07,225 --> 00:53:08,810 Škola volá. Jdeme. 803 00:53:13,231 --> 00:53:16,735 CENTRUM PRO HUMÁNNÍ TECHNOLOGIE 804 00:53:31,374 --> 00:53:33,543 - Jak se máš? - Jsem nervózní. 805 00:53:33,627 --> 00:53:34,502 - Vážně? - Jo. 806 00:53:37,380 --> 00:53:39,049 Dáváme pozor, kdy přijde chvíle, 807 00:53:39,132 --> 00:53:42,969 kdy technologie přemůže lidskou sílu a inteligenci. 808 00:53:43,053 --> 00:53:47,015 Kdy dosáhne singularity, nahradí nás v práci, bude chytřejší než my? 809 00:53:48,141 --> 00:53:50,101 Ale je i mnohem dřívější chvíle… 810 00:53:50,977 --> 00:53:55,565 kdy technologie překoná a ovládne lidské slabosti. 811 00:53:57,484 --> 00:54:01,613 Překročení tohoto bodu má za následek závislost, 812 00:54:02,113 --> 00:54:06,368 polarizaci, radikalizaci, zvýšenou pobouřenost, marnivost, všechno. 813 00:54:07,702 --> 00:54:09,913 Válcuje to lidskou přirozenost 814 00:54:10,538 --> 00:54:13,500 a představuje to vítězství nad lidstvem. 815 00:54:30,558 --> 00:54:31,434 Promiň. 816 00:54:41,736 --> 00:54:44,656 Když se snažím lidem vysvětlit, 817 00:54:45,198 --> 00:54:51,454 jak jsou místa jako Facebook špatná, řeknu jim, ať si představí Wikipedii. 818 00:54:52,956 --> 00:54:56,042 Když jdete na stránku, vidíte to, co ostatní. 819 00:54:56,584 --> 00:55:00,297 Je to jedna z mála věcí, která je pro nás na internetu společná. 820 00:55:00,380 --> 00:55:03,425 Teď si představte, že by Wikipedie řekla: 821 00:55:03,508 --> 00:55:07,095 „Každému dáme jinou definici přizpůsobenou na míru 822 00:55:07,178 --> 00:55:09,264 a lidé nám za to budou platit.“ 823 00:55:09,681 --> 00:55:13,435 Takže Wikipedie by vás špehovala a odhadovala by: 824 00:55:13,518 --> 00:55:17,188 „Co můžu udělat, abych tohoto člověka trochu změnila 825 00:55:17,272 --> 00:55:19,899 ve jménu obchodního zájmu?“ 826 00:55:19,983 --> 00:55:21,818 A pak by pozměnila článek. 827 00:55:22,444 --> 00:55:26,823 Umíte si to představit? Měli byste, protože tohle se děje na Facebooku. 828 00:55:26,906 --> 00:55:28,992 Přesně tohle se děje na YouTubu. 829 00:55:29,075 --> 00:55:31,786 Když do Googlu zadáte „změna klimatu je“, 830 00:55:31,870 --> 00:55:34,998 uvidíte různé výsledky podle toho, kde bydlíte. 831 00:55:35,081 --> 00:55:36,082 ZMĚNA KLIMATU JE 832 00:55:36,166 --> 00:55:38,460 V některých městech to Google dokončí 833 00:55:38,543 --> 00:55:40,462 jako „změna klimatu je hoax.“ 834 00:55:40,545 --> 00:55:42,047 Jinde uvidíte 835 00:55:42,130 --> 00:55:44,841 „změna klimatu způsobuje zničení přírody.“ 836 00:55:44,924 --> 00:55:48,428 Při této funkci nejde o poskytování pravdy o změně klimatu, 837 00:55:48,511 --> 00:55:51,097 ale jde o to, z jakého místa googlujete 838 00:55:51,181 --> 00:55:53,600 a co Google ví o vašich zájmech. 839 00:55:55,185 --> 00:56:00,190 Dokonce i dva blízcí přátelé, kteří mají skoro stejné přátele, 840 00:56:00,273 --> 00:56:02,817 a kteří si myslí: „Kouknu na Facebooku na zprávy. 841 00:56:02,901 --> 00:56:06,738 Uvidím ty samé novinky.“ Ale tak to vůbec není. 842 00:56:06,821 --> 00:56:08,406 Vidí úplně jiné světy, 843 00:56:08,490 --> 00:56:12,035 které vycházejí z výpočtů toho, co je pro každého ideální. 844 00:56:14,371 --> 00:56:18,416 Představte si to jako 2,7 miliard verzí Truman Show. 845 00:56:18,500 --> 00:56:21,336 Každý člověk má svou vlastní realitu s vlastními… 846 00:56:22,754 --> 00:56:23,671 fakty. 847 00:56:23,755 --> 00:56:27,008 Proč myslíte, že Truman až dosud nezjistil, 848 00:56:27,092 --> 00:56:30,095 jaká je pravá podstata světa, ve kterém žije? 849 00:56:31,054 --> 00:56:34,140 Přijímáme tu realitu, která nám je předložena. 850 00:56:34,224 --> 00:56:35,141 Je to prosté. 851 00:56:36,476 --> 00:56:41,064 Časem nabudete falešného pocitu, že s vámi každý souhlasí, 852 00:56:41,147 --> 00:56:44,067 protože všichni na sociálních sítích zní jako vy. 853 00:56:44,651 --> 00:56:49,072 A když jste v tomto stavu, je snadné vás zmanipulovat. 854 00:56:49,155 --> 00:56:51,741 Stejně jako by to udělal kouzelník. 855 00:56:51,825 --> 00:56:55,370 Předvádí karetní trik, řekne: „Vyberte si jakoukoli kartu.“ 856 00:56:55,453 --> 00:56:57,872 Neuvědomíte si, že to předem připravil, 857 00:56:58,415 --> 00:57:00,583 a vyberete kartu, kterou chce, abyste vybrali. 858 00:57:00,667 --> 00:57:03,128 A takto funguje Facebook. Říká vám: 859 00:57:03,211 --> 00:57:06,172 „Vy si vybíráte přátele a odkazy, které sledujete.“ 860 00:57:06,256 --> 00:57:08,716 Ale to je nesmysl. Dělá to, co kouzelník. 861 00:57:08,800 --> 00:57:10,885 Facebook řídí, jaké zprávy uvidíte. 862 00:57:11,386 --> 00:57:14,514 Všichni pracujeme s rozdílnými sbírkami faktů. 863 00:57:14,597 --> 00:57:16,474 Když se to stane ve velkém, 864 00:57:16,558 --> 00:57:20,770 už víc nedovedete brát v úvahu nebo dokonce přijímat informace, 865 00:57:20,854 --> 00:57:23,690 které jsou v rozporu s vaším názorem na svět. 866 00:57:23,773 --> 00:57:28,027 To znamená, že ve skutečnosti nejsme objektivní a konstruktivní. 867 00:57:28,778 --> 00:57:32,449 Otevřete oči, nevěřte lžím! 868 00:57:32,532 --> 00:57:35,160 A pak se podíváte na druhou stranu 869 00:57:35,243 --> 00:57:38,746 a začnete si říkat: „Jak mohou být ti lidé tak hloupí? 870 00:57:38,830 --> 00:57:42,125 Podívejte se na všechny ty informace, které pořád vidím. 871 00:57:42,208 --> 00:57:44,586 Jak můžou tyto informace nevidět?“ 872 00:57:44,669 --> 00:57:47,297 Odpověď zní, že oni nevidí ty samé informace. 873 00:57:47,380 --> 00:57:52,010 Otevřete oči, nevěřte lžím! 874 00:57:52,093 --> 00:57:53,678 Jací jsou republikáni? 875 00:57:53,761 --> 00:57:55,472 Lidi, kteří nic nevědí. 876 00:57:55,555 --> 00:57:58,933 Demokrati jsou zločinci, ne skutečná politická strana. 877 00:57:59,017 --> 00:58:03,146 Velká nová studie zkoumala 10 000 dospělých Američanů a zjistila, 878 00:58:03,229 --> 00:58:05,315 že jsme rozděleni víc než kdy dřív. 879 00:58:05,398 --> 00:58:09,152 Osobní a politická polarizace dosáhla dvacetiletého maxima. 880 00:58:11,821 --> 00:58:14,199 Víc než třetina republikánů říká, 881 00:58:14,282 --> 00:58:16,826 že Demokratická strana je hrozbou pro národ, 882 00:58:16,910 --> 00:58:20,580 víc než čtvrtina demokratů říká totéž o republikánech. 883 00:58:20,663 --> 00:58:24,417 Mnoho problémů, o kterých mluvíme, třeba politická polarizace, 884 00:58:24,501 --> 00:58:28,046 z velké části existuje v rámci kabelové televize. 885 00:58:28,129 --> 00:58:31,007 Média mají úplně stejný problém. 886 00:58:31,090 --> 00:58:35,762 Jejich obchodní model spočívá v tom, že naši pozornost prodávají inzerentům. 887 00:58:35,845 --> 00:58:38,890 Internet to jen dělá novým a efektivnějším způsobem. 888 00:58:40,391 --> 00:58:44,145 Pracoval jsem na systému doporučených videí na YouTubu. 889 00:58:44,229 --> 00:58:47,315 Znepokojuje mě, že algoritmus, na němž jsem pracoval, 890 00:58:47,398 --> 00:58:50,109 zvyšuje polarizaci společnosti. 891 00:58:50,485 --> 00:58:53,196 Ale z hlediska času stráveného sledováním videí 892 00:58:53,279 --> 00:58:57,617 dokáže polarizace velmi efektivně udržet lidi na internetu. 893 00:58:58,785 --> 00:59:02,664 Učitelé nás to učí jen proto, že jim za to platí. Je to absurdní. 894 00:59:02,747 --> 00:59:03,915 Čau, Benji. 895 00:59:04,916 --> 00:59:06,292 Nemáš dnes fotbal? 896 00:59:06,376 --> 00:59:08,545 Mám. Jen se dívám na zprávy. 897 00:59:08,962 --> 00:59:11,464 Informujte se. Vše, co odbočí od centrismu… 898 00:59:11,548 --> 00:59:14,008 Tohle bych zrovna zprávami nenazvala. 899 00:59:15,468 --> 00:59:18,638 Pořád mluvíš o tom, jak je všechno špatně. Oni taky. 900 00:59:19,305 --> 00:59:21,140 Ale to je jen propaganda. 901 00:59:21,224 --> 00:59:24,060 Ani jedno není pravda. Jde o to, co dává smysl. 902 00:59:24,852 --> 00:59:28,147 Myslím to vážně. Tohle ti uškodí. Měl bys jít na trénink. 903 00:59:35,154 --> 00:59:37,490 Mluvím o tom, protože mi na tom záleží. 904 00:59:37,574 --> 00:59:41,077 Záleží mi na tom, že vám někdo lže a to není správný. 905 00:59:41,160 --> 00:59:42,036 Lidé si myslí, 906 00:59:42,120 --> 00:59:46,499 že algoritmus jim má dát to, co opravdu chtějí, ale tak to není. 907 00:59:46,916 --> 00:59:48,960 Algoritmus se snaží najít 908 00:59:49,043 --> 00:59:52,589 pár lákavých králičích nor, do kterých můžete spadnout, 909 00:59:52,672 --> 00:59:55,967 snaží se zjistit, která z nich je nejbližší vašim zájmům. 910 00:59:56,342 --> 00:59:59,262 A když se začnete dívat na jedno z videí, 911 00:59:59,846 --> 01:00:02,223 bude vám je doporučovat znovu a znovu. 912 01:00:02,682 --> 01:00:04,475 Nikdo nechce, aby se to dělo. 913 01:00:05,101 --> 01:00:07,812 Ale systém doporučování tohle dělá. 914 01:00:07,895 --> 01:00:11,691 Do takové míry, že slavný basketbalista Kyrie Irving řekl, 915 01:00:11,774 --> 01:00:15,778 že věří, že Země je plochá. Pak se omluvil a dal to za vinu YouTubu. 916 01:00:16,487 --> 01:00:21,534 Znáte to, klikáte na YouTubu a říkáte si: „Jak je ta králičí nora hluboká?“ 917 01:00:21,618 --> 01:00:23,369 V rozhovoru v rádiu pak řekl: 918 01:00:23,453 --> 01:00:25,955 „Omlouvám se, nechtěl jsem lidi zavádět.“ 919 01:00:26,039 --> 01:00:29,667 A žáci ve škole během ankety řekli: „Dostali ho kulatozemci.“ 920 01:00:31,044 --> 01:00:37,634 Algoritmus konspiraci o ploché Zemi doporučil stamilionkrát. 921 01:00:37,717 --> 01:00:43,890 Je snadné se domnívat, že to přesvědčí jen pár hloupých lidí, 922 01:00:43,973 --> 01:00:46,893 ale algoritmus je každým dnem chytřejší. 923 01:00:46,976 --> 01:00:50,104 Takže dnes lidi přesvědčuje, že Země je plochá, 924 01:00:50,188 --> 01:00:53,816 ale zítra může o jiné falešné informaci přesvědčit vás. 925 01:00:54,317 --> 01:00:57,820 Sedmého listopadu se zrodil hashtag „Pizzagate“. 926 01:00:58,321 --> 01:00:59,155 Pizzagate… 927 01:01:00,823 --> 01:01:01,658 Páni. 928 01:01:03,159 --> 01:01:06,913 Pořád si nejsem stoprocentně jistá, jak to původně vzniklo, 929 01:01:06,996 --> 01:01:09,791 ale šlo o představu, že když si objednáte pizzu, 930 01:01:09,874 --> 01:01:12,377 objednáváte si oběť obchodování s lidmi. 931 01:01:12,460 --> 01:01:15,046 Jak tyto skupiny na Facebooku rostly, 932 01:01:15,129 --> 01:01:19,467 Facebook začal běžným uživatelům doporučovat, 933 01:01:19,550 --> 01:01:21,761 aby se přidali do skupin o Pizzagate. 934 01:01:21,844 --> 01:01:27,392 Takže když byl uživatel třeba proti očkování nebo věřil v chemtrails 935 01:01:27,475 --> 01:01:33,398 nebo algoritmu Facebooku nějako naznačil, že má sklon uvěřit konspiračním teoriím, 936 01:01:33,481 --> 01:01:36,859 Facebook mu doporučil skupiny o Pizzagate. 937 01:01:36,943 --> 01:01:41,072 Nakonec to vyvrcholilo tím, že se jeden muž se zbraní rozhodl, 938 01:01:41,155 --> 01:01:47,036 že osvobodí děti ze suterénu pizzerie, která suterén neměla. 939 01:01:47,120 --> 01:01:49,956 - Co jste dělal? - Ujišťoval se, že tam nic není. 940 01:01:50,581 --> 01:01:53,793 - Co že tam není? - Pedofilní skupina. 941 01:01:53,876 --> 01:01:55,628 Pizzagate. Mluví o Pizzagate. 942 01:01:55,962 --> 01:02:00,216 Toto je příklad konspirační teorie, 943 01:02:00,299 --> 01:02:03,469 která se šířila na všech sociálních sítích. 944 01:02:03,761 --> 01:02:07,974 Sociální síť toto dobrovolně doporučí lidem, 945 01:02:08,057 --> 01:02:10,643 kteří výraz „Pizzagate“ v životě nehledali. 946 01:02:12,478 --> 01:02:14,439 Existuje studie od MIT o tom, 947 01:02:14,522 --> 01:02:16,482 že falešné zprávy se na Twitteru 948 01:02:16,566 --> 01:02:19,444 šíří šestkrát rychleji než skutečné zprávy. 949 01:02:19,902 --> 01:02:21,404 Jak bude svět vypadat, 950 01:02:21,946 --> 01:02:24,866 když jedny mají proti druhým šestinásobnou výhodu? 951 01:02:25,283 --> 01:02:27,326 Představte si, že tyto věci 952 01:02:27,410 --> 01:02:31,539 naklánějí podlahu, na které stojí lidské chování. 953 01:02:31,831 --> 01:02:34,709 Některé druhy chování stěžují a jiné usnadňují. 954 01:02:34,792 --> 01:02:38,796 A vždy můžete vyšplhat nahoru, ale málo lidí to udělá. 955 01:02:38,880 --> 01:02:43,634 Takže ve velkém měřítku opravdu nakláníte podlahu a měníte to, 956 01:02:43,718 --> 01:02:45,970 jak miliardy lidí myslí a co dělají. 957 01:02:46,053 --> 01:02:52,018 Vytvořili jsme systém, který upřednostňuje falešné informace. 958 01:02:52,643 --> 01:02:54,437 Ne proto, že to chceme, 959 01:02:54,520 --> 01:02:58,816 ale protože falešné informace společnostem vydělávají víc peněz 960 01:02:59,400 --> 01:03:01,194 než pravda. Pravda je nudná. 961 01:03:01,986 --> 01:03:04,489 Je to obchodní model výnosných dezinformací. 962 01:03:04,906 --> 01:03:08,159 Vyděláváte peníze tím, že za nejlepší cenu dovolíte, 963 01:03:08,618 --> 01:03:11,329 aby se neregulované zprávy dostaly ke komukoli. 964 01:03:11,662 --> 01:03:16,751 Protože změna klimatu? Jo. Je to hoax. Jo, je skutečná. O to jde. 965 01:03:16,834 --> 01:03:20,004 Čím víc o tom mluví, tím víc nás rozdělují, 966 01:03:20,087 --> 01:03:22,423 tím větší mají moc, tím větší kontrolu. 967 01:03:22,507 --> 01:03:25,468 Na Facebooku jsou biliony příspěvků se zprávami. 968 01:03:26,552 --> 01:03:29,180 Nemohou vědět, co je skutečná, co je pravda… 969 01:03:29,972 --> 01:03:33,476 A proto je rozhodující, abychom o tom mluvili teď. 970 01:03:33,810 --> 01:03:37,021 Covid-19 není to jediné, co se rychle šíří. 971 01:03:37,104 --> 01:03:40,066 Na internetu je o viru záplava dezinformací. 972 01:03:40,149 --> 01:03:43,694 Tvrzení, že zvýšené pití vody vám koronavirus vyplaví z těla, 973 01:03:43,778 --> 01:03:47,490 je jedním z mnoha mýtů, které cirkulují na sociálních médiích. 974 01:03:47,573 --> 01:03:50,451 Vláda tuto událost naplánovala, vytvořila virus 975 01:03:50,535 --> 01:03:53,454 a měla simulaci toho, jak budou země reagovat. 976 01:03:53,955 --> 01:03:55,581 Koronavirus je hoax. 977 01:03:56,165 --> 01:03:57,959 SARS, koronavirus. 978 01:03:58,459 --> 01:04:01,045 A podívejte, kdy to bylo vyrobeno. 2018. 979 01:04:01,128 --> 01:04:03,798 Myslím, že to začala americká vláda. 980 01:04:04,215 --> 01:04:09,095 Nikdo není nemocný. Nikdo nikoho nemocného nezná. 981 01:04:09,512 --> 01:04:12,557 Možná vláda používá koronavirus jako výmluvu, 982 01:04:12,640 --> 01:04:15,643 abychom zůstali uvnitř, protože se děje něco jinýho. 983 01:04:15,726 --> 01:04:20,940 Lidi nezabíjí koronavirus, ale radiace z 5G, kterou produkují. 984 01:04:21,023 --> 01:04:22,525 SKÁCELI A SPÁLILI 5G VĚŽE 985 01:04:22,608 --> 01:04:24,569 Jsme bombardováni fámami. 986 01:04:25,403 --> 01:04:28,823 Lidé vyhazují do vzduchu telefonní věže. 987 01:04:28,906 --> 01:04:32,201 Vidíme, že Rusko a Čína šíří fámy a konspirační teorie. 988 01:04:32,285 --> 01:04:35,246 Panika a protesty na Ukrajině dnes ráno… 989 01:04:35,329 --> 01:04:38,916 Lidé netuší, co je pravda, a teď je to otázka života a smrti. 990 01:04:40,001 --> 01:04:42,628 Zdroje, které šíři dezinformace o koronaviru, 991 01:04:42,712 --> 01:04:45,798 nashromáždily kolem 52 milionů interakcí. 992 01:04:45,882 --> 01:04:50,094 Říkáte, že roztok stříbra by zabral. 993 01:04:50,177 --> 01:04:54,140 Nebylo to testováno na tomto kmenu koronaviru, ale… 994 01:04:54,223 --> 01:04:57,226 To, co vidíme při covidu, je extrémnější verzí toho, 995 01:04:57,310 --> 01:05:00,354 co se už děje v informačním ekosystému. 996 01:05:00,938 --> 01:05:05,401 Sociální média zesilují exponenciální fámy a informace z doslechu natolik, 997 01:05:05,484 --> 01:05:08,779 že nevíme, co je pravda, bez ohledu na to, co nás zajímá. 998 01:05:26,130 --> 01:05:27,131 Jsi pořád v týmu? 999 01:05:30,468 --> 01:05:34,430 Dobře, jdu se před tréninkem najíst, pokud se chceš přidat. 1000 01:05:37,642 --> 01:05:38,476 To je jedno. 1001 01:05:45,066 --> 01:05:47,526 Devět z deseti lidí je teď nespokojených. 1002 01:05:47,610 --> 01:05:50,613 EC jsou jako každé politické hnutí v dějinách. 1003 01:05:50,696 --> 01:05:54,492 Odporujeme a jsme… Postavíme se proti tomu. 1004 01:05:54,575 --> 01:05:57,036 Jste moji lidé. Důvěřuju vám. 1005 01:05:59,246 --> 01:06:02,583 - Obsah extrémních centristů je geniální. - Zbožňuje ho. 1006 01:06:02,667 --> 01:06:03,626 Spouštím aukci. 1007 01:06:04,627 --> 01:06:08,547 Máme 843 zájemců, prodali jsme ho za 4,35 centů výrobci zbraní. 1008 01:06:08,631 --> 01:06:10,591 Ukážeme mu pár z těchto událostí. 1009 01:06:10,883 --> 01:06:13,511 Nadcházející srazy v jeho geografické zóně. 1010 01:06:13,594 --> 01:06:15,179 Mám taky nového vloggera. 1011 01:06:17,890 --> 01:06:22,979 Upřímně vám říkám, že jsem ochotný udělat všechno, co bude potřeba. 1012 01:06:23,062 --> 01:06:24,939 A tím myslím všechno. 1013 01:06:32,154 --> 01:06:33,489 - Přihlaste se… - Bene? 1014 01:06:33,572 --> 01:06:35,950 k odběru a vraťte se, protože vám říkám, 1015 01:06:36,659 --> 01:06:40,162 blíží se velký věci. Fakt velký věci. 1016 01:06:40,788 --> 01:06:45,292 Jedním z problémů Facebooku je, že jako přesvědčovací nástroj 1017 01:06:45,793 --> 01:06:47,920 je to možná nejlepší vynález vůbec. 1018 01:06:48,004 --> 01:06:52,508 Představte si, co by to znamenalo v rukou diktátora nebo autoritáře. 1019 01:06:53,718 --> 01:06:57,638 Pokud chcete ovládat obyvatele své země, neexistuje nástroj, 1020 01:06:57,722 --> 01:07:01,308 který by byl tak efektivní jako Facebook. 1021 01:07:04,937 --> 01:07:07,398 Některými z nejhorších důsledků 1022 01:07:07,481 --> 01:07:10,985 zneužití sociálních médií vládami a škodlivými činiteli 1023 01:07:11,610 --> 01:07:13,696 bylo to, že došlo ke skutečné újmě. 1024 01:07:13,779 --> 01:07:17,658 Asi nejvýznamnějším příkladem je to, co se stalo v Myanmaru. 1025 01:07:19,160 --> 01:07:22,913 Když se v Myanmaru řekne internet, lidé si představí Facebook. 1026 01:07:22,997 --> 01:07:25,916 A často se stává, že když si lidé koupí mobil, 1027 01:07:26,000 --> 01:07:31,505 majitel prodejny za ně do mobilu stáhne Facebook a založí jim účet. 1028 01:07:31,589 --> 01:07:34,884 A když lidé dostanou svůj telefon, první, co otevřou, 1029 01:07:34,967 --> 01:07:37,303 a jediné, co otevřít umí, je Facebook. 1030 01:07:38,179 --> 01:07:41,432 Šokující vyšetřování odhalilo boj Facebooku 1031 01:07:41,515 --> 01:07:43,809 proti nenávistným projevům v Myanmaru. 1032 01:07:46,103 --> 01:07:49,190 Facebook dal armádě a dalším škodlivým činitelům 1033 01:07:49,273 --> 01:07:51,776 nový způsob manipulace veřejného mínění 1034 01:07:51,859 --> 01:07:55,529 a pomohl podnítit násilí vůči muslimským Rohingyům, 1035 01:07:55,613 --> 01:07:59,867 které zahrnovalo masové zabíjení, vypalování vesnic, 1036 01:07:59,950 --> 01:08:03,704 masová znásilnění a další vážné zločiny proti lidskosti, 1037 01:08:03,788 --> 01:08:07,333 které vedly k tomu, že 700 000 muslimských Rohingyů 1038 01:08:07,416 --> 01:08:08,375 ze země uprchlo. 1039 01:08:11,170 --> 01:08:16,550 Vysoce motivovaní propagandisté sice existovali i dřív, 1040 01:08:16,634 --> 01:08:19,762 ale tyto platformy jim umožňují 1041 01:08:19,845 --> 01:08:23,724 šířit manipulativní rétoriku s ohromnou lehkostí 1042 01:08:23,808 --> 01:08:25,434 a za velmi málo peněz. 1043 01:08:25,518 --> 01:08:27,812 Jestli chci zmanipulovat volby, 1044 01:08:27,895 --> 01:08:30,564 můžu jít do konspirační skupiny na Facebooku 1045 01:08:30,648 --> 01:08:34,443 a najdu stovku lidí, kteří věří, že Země je úplně plochá 1046 01:08:34,860 --> 01:08:37,488 a že přistání na Měsíci je jen konspirace, 1047 01:08:37,863 --> 01:08:41,450 a můžu Facebooku říct: „Dej mi takovýchto uživatelů tisíc.“ 1048 01:08:42,118 --> 01:08:46,080 Facebook mi s radostí pošle tisíc uživatelů, kteří vypadají stejně, 1049 01:08:46,163 --> 01:08:49,208 kterým můžu předložit další konspirační teorie. 1050 01:08:51,168 --> 01:08:52,837 Prodáno za 3,4 centu. 1051 01:08:53,379 --> 01:08:56,257 - Nové video o EC. - Další reklama je připravena. 1052 01:08:58,509 --> 01:09:02,138 Algoritmy a manipulativní politici začínají být skvělí v tom, 1053 01:09:02,221 --> 01:09:04,056 jak nás vyprovokovat, 1054 01:09:04,140 --> 01:09:08,352 daří se jim tvořit falešné zprávy, které přijímáme jako realitu, 1055 01:09:08,435 --> 01:09:10,813 a matou nás, abychom těm lžím věřili. 1056 01:09:10,896 --> 01:09:14,150 Jako bychom pořád méně ovládali, kým jsme a čemu věříme. 1057 01:09:31,458 --> 01:09:34,879 …tak si volí strany. Lži jsou tady a lži jsou tam. 1058 01:09:34,962 --> 01:09:39,967 Aby si mohli udržet moc a ovládat úplně všechno. 1059 01:09:40,050 --> 01:09:46,390 Mohou ovládat naše myšlenky, aby si mohli chránit svá tajemství. 1060 01:09:48,475 --> 01:09:50,895 Představte si svět, kde nikdo nevěří pravdě. 1061 01:09:52,897 --> 01:09:54,940 Všichni věří, že jim vláda lže. 1062 01:09:56,317 --> 01:09:58,110 Všechno je konspirační teorie. 1063 01:09:58,569 --> 01:10:00,946 „Nikomu nevěřím. Nesnáším druhou stranu.“ 1064 01:10:01,280 --> 01:10:02,698 K tomu to vše míří. 1065 01:10:02,781 --> 01:10:06,160 Politická zemětřesení nadále otřásají Evropou, 1066 01:10:06,243 --> 01:10:08,412 tentokrát v Itálii a Španělsku. 1067 01:10:08,495 --> 01:10:11,999 Tradiční evropská centristická koalice ztratila většinu 1068 01:10:12,082 --> 01:10:15,002 a krajně pravicové a levicové populistické strany sílí. 1069 01:10:17,588 --> 01:10:19,048 STŘED 1070 01:10:19,757 --> 01:10:20,591 Zpátky. 1071 01:10:21,675 --> 01:10:22,509 Dobrá, jdeme. 1072 01:10:28,390 --> 01:10:31,268 Tyto účty se záměrně a cíleně snažily 1073 01:10:31,352 --> 01:10:33,896 v Hongkongu zasít politické neshody. 1074 01:10:38,609 --> 01:10:39,610 Tak jo, Bene. 1075 01:10:42,863 --> 01:10:48,410 Jak to vypadá, když zemi živí pouze Facebook a sociální média? 1076 01:10:48,953 --> 01:10:51,830 Demokracie se rychle rozpadla. Za šest měsíců. 1077 01:10:51,914 --> 01:10:57,044 Po chaosu v Chicagu a násilných střetech odpůrců a zastánců… 1078 01:10:58,003 --> 01:11:01,632 Demokracie čelí krizi důvěry. 1079 01:11:01,715 --> 01:11:04,343 Vidíme globální útok na demokracii. 1080 01:11:05,052 --> 01:11:09,723 Většina zasažených zemí jsou země, kde se konávají demokratické volby. 1081 01:11:10,641 --> 01:11:12,351 Tohle se děje ve velkém. 1082 01:11:12,601 --> 01:11:15,312 Státní činitelé a lidé s miliony dolarů řeknou: 1083 01:11:15,396 --> 01:11:18,607 „Chci destabilizovat Keňu. Chci destabilizovat Kamerun. 1084 01:11:18,691 --> 01:11:20,651 Angola? To bude stát jen tolik.“ 1085 01:11:20,734 --> 01:11:23,362 V neděli byly v Brazílii mimořádné volby. 1086 01:11:23,445 --> 01:11:25,823 S kampaní poháněnou sociálními médii. 1087 01:11:31,036 --> 01:11:33,956 V technologickém průmyslu jsme vytvořili nástroje, 1088 01:11:34,039 --> 01:11:37,418 které podkopávají a ničí fungování společnosti 1089 01:11:37,501 --> 01:11:40,254 v každé zemi najednou, všude. 1090 01:11:40,337 --> 01:11:44,174 Máte to v Německu, Španělsku, Francii, Brazílii, Austrálii. 1091 01:11:44,591 --> 01:11:49,221 Jedny z nejrozvinutějších národů světa se hroutí. 1092 01:11:49,305 --> 01:11:50,556 A co mají společného? 1093 01:11:51,974 --> 01:11:52,808 Věříte teď, 1094 01:11:52,891 --> 01:11:55,936 že Facebook ovlivnil výsledky voleb v roku 2016? 1095 01:11:56,854 --> 01:11:58,188 To je těžká otázka. 1096 01:11:58,897 --> 01:11:59,773 Víte, je to… 1097 01:12:01,275 --> 01:12:04,653 Skutečnost je taková, že na ně působilo mnoho různých sil. 1098 01:12:04,737 --> 01:12:08,115 Zástupci Facebooku, Twitteru a Google jsou v Capitol Hill, 1099 01:12:08,198 --> 01:12:12,578 aby druhý den svědčili o ruském zásahu do voleb v roce 2016. 1100 01:12:12,661 --> 01:12:17,291 Manipulace třetí stranou není hackerství. 1101 01:12:18,500 --> 01:12:21,211 Rusi se nenabourali do Facebooku. 1102 01:12:21,545 --> 01:12:24,965 Použili nástroje, které Facebook vytvořil 1103 01:12:25,049 --> 01:12:30,095 pro legitimní inzerenty a uživatele, a využili je k nekalému cíli. 1104 01:12:31,972 --> 01:12:34,183 Je to jako válka na dálkové ovládání. 1105 01:12:34,475 --> 01:12:38,979 Jedna země může zmanipulovat druhou, aniž by překročila její fyzické hranice. 1106 01:12:39,605 --> 01:12:43,317 Vidíme násilné záběry. Zdá se, že strkají do popelnice… 1107 01:12:43,400 --> 01:12:45,527 Nešlo o to, koho jste chtěli volit. 1108 01:12:46,362 --> 01:12:50,574 Šlo o zasetí naprostého chaosu a o rozdělení společnosti. 1109 01:12:50,657 --> 01:12:53,035 Tento pochod byl v Huntington Beach… 1110 01:12:53,118 --> 01:12:56,413 Šlo o vytvoření dvou stran, které se nemohly poslouchat, 1111 01:12:56,497 --> 01:12:59,875 které se už nechtěly poslouchat, které si už nedůvěřovaly. 1112 01:12:59,958 --> 01:13:02,711 Tohle je město, kde se odkryla nenávist 1113 01:13:03,295 --> 01:13:05,464 a proměnila se v rasové násilí. 1114 01:13:05,547 --> 01:13:07,591 NAPĚTÍ VE VIRGINII ZEMŘELI TŘI LIDÉ 1115 01:13:20,145 --> 01:13:20,979 Bene! 1116 01:13:21,605 --> 01:13:22,439 Cassandro! 1117 01:13:22,981 --> 01:13:23,816 - Cass! - Bene! 1118 01:13:23,899 --> 01:13:25,484 Pojď sem! 1119 01:13:27,486 --> 01:13:31,156 Ruce vzhůru. Na kolena. Teď. 1120 01:13:36,120 --> 01:13:37,204 - Klid… - Bene! 1121 01:13:37,287 --> 01:13:38,330 Hej! Ruce vzhůru! 1122 01:13:39,623 --> 01:13:41,291 Otoč se. Na zem. 1123 01:13:56,807 --> 01:13:59,643 Chceme ten systém prodat za nejvyšší nabídku? 1124 01:14:01,437 --> 01:14:05,399 Aby byla demokracie na prodej a abychom měli dosah na každou mysl, 1125 01:14:05,482 --> 01:14:10,237 mohli vytvořit lež pro konkrétní populaci a začít kulturní války? Tohle chceme? 1126 01:14:14,825 --> 01:14:16,076 Jsme národem lidí, 1127 01:14:17,286 --> 01:14:18,662 kteří už spolu nemluví. 1128 01:14:19,830 --> 01:14:20,914 Jsme národem lidí, 1129 01:14:20,998 --> 01:14:25,127 kteří se přestali přátelit s lidmi kvůli tomu, koho ve volbách volili. 1130 01:14:25,836 --> 01:14:28,088 Jsme národem lidí, kteří se izolovali, 1131 01:14:28,172 --> 01:14:30,883 a sledují jen kanály, které jim dají za pravdu. 1132 01:14:32,259 --> 01:14:36,638 Chci vám vzkázat, že skupinovost nás ničí. 1133 01:14:37,389 --> 01:14:39,016 Trhá naši zemi. 1134 01:14:40,267 --> 01:14:42,686 Takto rozumní dospělí nejednají. 1135 01:14:43,687 --> 01:14:45,355 Když má každý vlastní fakta, 1136 01:14:45,439 --> 01:14:49,276 není třeba dělat kompromisy, není třeba se scházet. 1137 01:14:49,359 --> 01:14:51,695 Není ani třeba, aby spolu lidé mluvili. 1138 01:14:52,321 --> 01:14:56,617 Potřebujeme mít nějaké společné chápání reality. 1139 01:14:57,367 --> 01:14:58,410 Jinak nejsme země. 1140 01:14:58,952 --> 01:15:02,998 Dlouhodobým řešením je vytvořit víc nástrojů s umělou inteligencí, 1141 01:15:03,081 --> 01:15:08,128 které hledají vzory v používání služeb, což by skutečný člověk nedělal. 1142 01:15:08,212 --> 01:15:11,840 Umožňujeme technologům, aby to prezentovali jako problém, 1143 01:15:11,924 --> 01:15:13,842 který jsou schopni vyřešit. 1144 01:15:15,135 --> 01:15:16,386 To je lež. 1145 01:15:17,554 --> 01:15:21,099 Lidé o umělé inteligenci mluví, jako by uměla rozeznat pravdu. 1146 01:15:21,683 --> 01:15:24,102 Umělá inteligence tyto problémy nevyřeší. 1147 01:15:24,186 --> 01:15:27,189 Nedokáže vyřešit problém s falešnými zprávami. 1148 01:15:28,649 --> 01:15:30,609 Google nemá možnost říct: 1149 01:15:31,109 --> 01:15:36,240 „Je to konspirace? Je to pravda?“ Protože neví, co je pravda. 1150 01:15:36,823 --> 01:15:40,410 Nemá nic, co pravdu zastupuje lépe než kliknutí. 1151 01:15:41,870 --> 01:15:45,123 Když se neshodneme na pravdě 1152 01:15:45,207 --> 01:15:47,584 nebo na tom, že něco takového existuje, 1153 01:15:48,293 --> 01:15:49,294 je s námi konec. 1154 01:15:49,753 --> 01:15:54,424 Tohle je ten nejhlavnější problém, protože když se neshodneme na pravdě, 1155 01:15:55,092 --> 01:15:57,803 nebudeme moct vyřešit žádné další problémy. 1156 01:16:05,435 --> 01:16:07,729 Ukažme mu fotbalový tým Plochá Země. 1157 01:16:07,813 --> 01:16:10,190 Žádné sportovní zprávy. Nereaguje na ně. 1158 01:16:39,970 --> 01:16:42,764 Spousta lidí v Silicon Valley se hlásí k teorii, 1159 01:16:42,848 --> 01:16:45,225 že stavíme nějaký globální supermozek 1160 01:16:45,309 --> 01:16:48,020 a naši uživatelé jsou jen zaměnitelné neurony, 1161 01:16:48,103 --> 01:16:49,771 z nichž žádný není důležitý. 1162 01:16:50,230 --> 01:16:53,150 A staví to lidi do zvláštní podřadné role, 1163 01:16:53,233 --> 01:16:56,028 ve které jste jen malými prvky počítače 1164 01:16:56,111 --> 01:16:58,822 a my vás programujeme pomocí manipulace chování 1165 01:16:58,905 --> 01:17:02,409 pro účely tohoto velkého mozku, zatímco na vás nám nezáleží. 1166 01:17:02,492 --> 01:17:06,455 Nedostanete zaplaceno, nebudete bráni na vědomí, nejste nezávislí. 1167 01:17:06,538 --> 01:17:10,709 Jen vás zmanipulujeme, protože jste uzel, tak vás musíme naprogramovat, 1168 01:17:10,792 --> 01:17:12,336 protože to se s uzly dělá. 1169 01:17:20,093 --> 01:17:20,927 Ach jo. 1170 01:17:21,928 --> 01:17:25,390 Když přemýšlíte o technologii jako o existenční hrozbě, 1171 01:17:25,474 --> 01:17:27,726 je to silné tvrzení a… 1172 01:17:29,603 --> 01:17:33,982 je snadné si myslet: „Fajn, jsem na mobilu… 1173 01:17:35,609 --> 01:17:39,112 scrolluju, klikám, používám ho. Kde je ta existenční hrozba? 1174 01:17:40,280 --> 01:17:43,950 Na druhé straně obrazovky je superpočítač namířen na můj mozek, 1175 01:17:44,409 --> 01:17:47,537 přiměl mě zhlédnout další video. Kde je ta hrozba?“ 1176 01:17:54,252 --> 01:17:59,341 Existenční hrozbu nepředstavuje technologie. 1177 01:18:04,429 --> 01:18:08,850 Jde o to, že technologie probouzí tu nejhorší stránku společnosti 1178 01:18:09,559 --> 01:18:13,522 a nejhorší stránka společnosti je existenční hrozbou. 1179 01:18:13,605 --> 01:18:15,899 SENÁT SPOJENÝCH STÁTŮ 1180 01:18:18,819 --> 01:18:24,533 Pokud technologie vyvolává masový chaos, pobouření, nezdvořilost, 1181 01:18:24,616 --> 01:18:26,326 nedostatek vzájemné důvěry, 1182 01:18:27,452 --> 01:18:30,622 osamělost, odcizenost, vyšší polarizaci, 1183 01:18:30,706 --> 01:18:33,417 víc hackerských zásahů do voleb, víc populismu, 1184 01:18:33,917 --> 01:18:36,962 větší odvádění pozornosti od skutečných problémů… 1185 01:18:37,879 --> 01:18:39,423 na vině je jen společnost. 1186 01:18:40,340 --> 01:18:46,388 A společnost se teď nedovede zotavit 1187 01:18:46,471 --> 01:18:48,515 a jen se mění v chaos. 1188 01:18:51,977 --> 01:18:54,938 Týká se to všech, i když ty produkty nepoužíváte. 1189 01:18:55,021 --> 01:18:57,524 Stali se z nich digitální Frankensteini, 1190 01:18:57,607 --> 01:19:00,068 kteří přetvářejí svět ke svému obrazu, 1191 01:19:00,152 --> 01:19:04,489 ať už jde o duševní zdraví dětí, o naši politiku a politický diskurz, 1192 01:19:04,573 --> 01:19:07,492 ale nepřevzali za veřejnou diskusi odpovědnost. 1193 01:19:07,576 --> 01:19:10,579 - Odvíjí se to… - Kdo je podle vás za to zodpovědný? 1194 01:19:10,662 --> 01:19:13,582 Myslím, že zodpovědnost by měly nést platformy. 1195 01:19:13,665 --> 01:19:17,627 Když převezmou volební propagaci, odpovídají za ochranu voleb. 1196 01:19:17,711 --> 01:19:19,838 Když si přisvojí duševní zdraví dětí 1197 01:19:19,921 --> 01:19:22,716 a sobotní pohádky, odpovídají za jejich ochranu. 1198 01:19:23,717 --> 01:19:27,929 Souboj o udržení pozornosti lidí nezmizí. 1199 01:19:28,388 --> 01:19:31,850 Technologie se nám do životů budou začleňovat víc, ne méně. 1200 01:19:31,933 --> 01:19:34,603 Umělá inteligence se zlepší v předvídání toho, 1201 01:19:34,686 --> 01:19:37,105 co nás udrží u obrazovek, nezhorší se. 1202 01:19:38,940 --> 01:19:42,027 Je mi 62 let, 1203 01:19:42,110 --> 01:19:47,365 každou minutou této konverzace stárnu, ale řeknu vám, že… 1204 01:19:48,700 --> 01:19:54,331 Až tohle všechno vyvrcholí, asi už budu mrtvý a budu za to vděčný. 1205 01:19:54,790 --> 01:19:59,586 Protože myslím, že toto mě k smrti děsí. 1206 01:20:01,129 --> 01:20:03,048 Vidíte to stejně? 1207 01:20:03,548 --> 01:20:06,927 Nebo reaguji přehnaně na situaci, o které toho dost nevím? 1208 01:20:09,930 --> 01:20:11,306 Čeho se bojíte nejvíc? 1209 01:20:15,519 --> 01:20:18,480 Myslím, že v nejbližším časovém období… 1210 01:20:19,523 --> 01:20:20,440 občanské války. 1211 01:20:24,444 --> 01:20:29,908 Když bude současný status quo pokračovat, řekněme, dalších 20 let… 1212 01:20:31,117 --> 01:20:34,579 nejspíš civilizaci zničíme umíněnou nevědomostí. 1213 01:20:34,663 --> 01:20:37,958 Nejspíš se nám nepodaří čelit změnám klimatu. 1214 01:20:38,041 --> 01:20:42,087 Nejspíš znehodnotíme světové demokracie, 1215 01:20:42,170 --> 01:20:46,132 takže upadnou v bizarní autokratickou dysfunkci. 1216 01:20:46,216 --> 01:20:48,426 Nejspíš zničíme globální ekonomiku. 1217 01:20:49,177 --> 01:20:52,013 Nejspíš nepřežijeme. 1218 01:20:52,347 --> 01:20:54,808 Vážně to považuju za existenční. 1219 01:21:02,524 --> 01:21:04,985 Je tohle poslední generace lidí, 1220 01:21:05,068 --> 01:21:08,488 kteří budou vědět, jaké to bylo, než tato iluze přišla? 1221 01:21:11,074 --> 01:21:14,327 Jak se probudíte z Matrixu, když nevíte, že v něm jste? 1222 01:21:17,747 --> 01:21:21,167 „Zda to bude utopie, nebo zapomnění 1223 01:21:21,251 --> 01:21:27,424 se ukáže až v poslední chvíli tohoto nejistého štafetového závodu…“ 1224 01:21:27,507 --> 01:21:30,510 Hodně z toho, co říkáme, zní jen jako… 1225 01:21:31,511 --> 01:21:33,680 jednostranná zkáza a beznaděj. 1226 01:21:33,763 --> 01:21:38,059 „Bože, technologie ničí svět a škodí dětem.“ 1227 01:21:38,143 --> 01:21:39,269 A tak to není. 1228 01:21:40,228 --> 01:21:45,567 Je to matoucí, protože je to zároveň utopie i antiutopie. 1229 01:21:45,942 --> 01:21:50,447 Můžu na mobilu zmáčknout tlačítko a za 30 vteřin se objeví auto 1230 01:21:50,530 --> 01:21:52,699 a já můžu jet tam, kam potřebuju. 1231 01:21:52,782 --> 01:21:55,619 To je magie. Je to úžasné. 1232 01:21:56,161 --> 01:22:01,499 Tlačítkem „To se mi líbí“ jsme chtěli ve světě šířit pozitivitu a lásku. 1233 01:22:01,583 --> 01:22:06,296 Představa, že dnes bude nedostatek lajků u teenagerů způsobovat deprese, 1234 01:22:06,379 --> 01:22:09,883 že to může vést k politické polarizaci, nás vůbec nenapadla. 1235 01:22:09,966 --> 01:22:12,344 Myslím, že se nerozhodli, že budou zlí. 1236 01:22:13,511 --> 01:22:15,472 Problém je v obchodním modelu. 1237 01:22:15,847 --> 01:22:20,226 Můžete službu ukončit a zničit 1238 01:22:20,310 --> 01:22:24,522 asi 20 miliard dolarů hodnoty akciových podílů a nechat se zažalovat… 1239 01:22:24,606 --> 01:22:27,108 Ale v praxi nemůžete vrátit džina do lahve. 1240 01:22:27,192 --> 01:22:29,903 Můžete udělat pár malých úprav, ale nakonec 1241 01:22:30,487 --> 01:22:34,032 vám musí v každém kvartálu růst tržby a míra používání. 1242 01:22:34,741 --> 01:22:37,285 Čím je to větší, tím těžší bude to změnit. 1243 01:22:38,495 --> 01:22:43,458 Já vidím skupinu lidí, kterým svazuje ruce obchodní model, 1244 01:22:43,541 --> 01:22:46,169 ekonomické podněty a nátlak akcionářů, 1245 01:22:46,252 --> 01:22:48,922 což téměř znemožňuje udělat něco jiného. 1246 01:22:49,005 --> 01:22:53,176 Musíme přijmout, že je v pořádku, že firmy chtějí vydělávat peníze. 1247 01:22:53,259 --> 01:22:57,055 Ale není v pořádku, že neexistují předpisy, pravidla a konkurence 1248 01:22:57,138 --> 01:23:00,850 a že společnosti fakticky jednají jako vlády. 1249 01:23:00,934 --> 01:23:03,353 A pak říkají: „Můžeme se regulovat sami.“ 1250 01:23:03,436 --> 01:23:05,563 To je prostě lež. Je to absurdní. 1251 01:23:06,064 --> 01:23:09,150 Finanční pobídky v podstatě řídí svět, 1252 01:23:09,234 --> 01:23:15,573 takže každé řešení tohoto problému musí finanční pobídky zreorganizovat. 1253 01:23:16,199 --> 01:23:21,329 Firmy nemají fiskální důvod ke změně. Proto si myslím, že potřebujeme směrnice. 1254 01:23:21,413 --> 01:23:24,416 Telefonická společnost má mnoho vašich citlivých dat 1255 01:23:24,499 --> 01:23:27,544 a máme spoustu zákonů, díky kterým jich nezneužije. 1256 01:23:27,627 --> 01:23:31,506 Třeba ohledně digitálního soukromí nemáme skoro žádné zákony. 1257 01:23:31,589 --> 01:23:34,426 Šlo by zavést daň ze shromažďování a zpracování dat. 1258 01:23:34,509 --> 01:23:39,723 Stejně, jako vy platíte účty za vodu, protože se sleduje její spotřeba, 1259 01:23:39,806 --> 01:23:43,226 se budou zdaňovat společnosti podle datových aktiv, které mají. 1260 01:23:43,309 --> 01:23:47,856 Dává jim to fiskální důvod, aby nezískaly všechna data na planetě. 1261 01:23:47,939 --> 01:23:50,567 Zákon za těmito věcmi velmi zaostává, 1262 01:23:50,650 --> 01:23:55,864 ale vím, že současná situace neexistuje proto, aby chránila uživatele, 1263 01:23:55,947 --> 01:23:58,700 ale aby chránila práva a privilegia 1264 01:23:58,783 --> 01:24:01,453 obrovských a nesmírně bohatých společností. 1265 01:24:02,245 --> 01:24:05,832 Budeme se vždy podřizovat nejbohatším a nejmocnějším lidem? 1266 01:24:05,915 --> 01:24:07,417 Nebo jednoho dne řekneme: 1267 01:24:07,959 --> 01:24:12,047 „V některých případech jde o národní zájem, 1268 01:24:12,130 --> 01:24:17,302 v některých případech jsou zájmy lidí a uživatelů důležitější 1269 01:24:18,011 --> 01:24:21,097 než zisky někoho, kdo už je miliardářem.“ 1270 01:24:21,890 --> 01:24:26,144 Tyto trhy podrývají demokracii a svobodu 1271 01:24:26,686 --> 01:24:28,396 a měly by být zakázány. 1272 01:24:29,147 --> 01:24:33,943 Toto není radikální návrh. Existují trhy, které jsou zakázané. 1273 01:24:34,277 --> 01:24:36,571 Zakazujeme trh s lidskými orgány. 1274 01:24:37,072 --> 01:24:39,491 Zakazujeme trh s lidskými otroky. 1275 01:24:39,949 --> 01:24:44,037 Protože mají nevyhnutelné ničivé následky. 1276 01:24:44,537 --> 01:24:45,830 Žijeme ve světě, 1277 01:24:45,914 --> 01:24:50,001 ve kterém je strom finančně cennější, když je mrtvý, než když je živý, 1278 01:24:50,085 --> 01:24:53,838 ve kterém je velryba cennější mrtvá než živá. 1279 01:24:53,922 --> 01:24:58,134 Dokud bude naše ekonomika takto fungovat a korporace nebudou regulovány, 1280 01:24:58,218 --> 01:25:00,678 budou nadále ničit stromy, 1281 01:25:00,762 --> 01:25:06,101 zabíjet velryby, těžit ze země suroviny a ropu, 1282 01:25:06,184 --> 01:25:08,394 i když víme, že to ničí planetu 1283 01:25:08,478 --> 01:25:12,148 a že to zanechá horší svět budoucím generacím. 1284 01:25:12,232 --> 01:25:13,858 Tohle je krátkodobé myšlení 1285 01:25:13,942 --> 01:25:16,694 založené na náboženství zisku za každou cenu, 1286 01:25:16,778 --> 01:25:21,950 jako by sobecké jednání každé korporace mělo magicky přinést nejlepší výsledek. 1287 01:25:22,033 --> 01:25:24,494 Životní prostředí to ovlivňuje už dlouho. 1288 01:25:24,577 --> 01:25:29,207 To, co je děsivé a co nám snad jako civilizaci ukáže, 1289 01:25:29,290 --> 01:25:31,709 jak je tato teorie od začátku chybná, 1290 01:25:31,793 --> 01:25:35,004 je skutečnost, že stromem a velrybou jsme teď my. 1291 01:25:35,088 --> 01:25:37,048 Těží naši pozornost. 1292 01:25:37,132 --> 01:25:39,134 Korporace z nás mají větší zisk, 1293 01:25:39,217 --> 01:25:41,594 když trávíme čas u obrazovky 1294 01:25:41,678 --> 01:25:45,890 a zíráme na reklamu, než když své životy žijeme plnohodnotným způsobem. 1295 01:25:45,974 --> 01:25:47,559 A tak vidíme výsledky. 1296 01:25:47,642 --> 01:25:50,687 Vidíme, jak korporace využívají umělé inteligence, 1297 01:25:50,770 --> 01:25:55,150 aby nás přechytračily a přesměrovaly naši pozornost k tomu, co chtějí, 1298 01:25:55,233 --> 01:25:59,237 pryč od věcí, které jsou v souladu s našimi cíli, hodnotami a životy. 1299 01:26:02,991 --> 01:26:04,450 DNEŠNÍ HLAVNÍ MYŠLENKA 1300 01:26:05,535 --> 01:26:06,911 Počítač je pro mě… 1301 01:26:06,995 --> 01:26:10,290 nejmimořádnějším nástrojem, který jsme kdy vytvořili. 1302 01:26:11,124 --> 01:26:13,877 Je obdobou bicyklu pro mysl. 1303 01:26:15,628 --> 01:26:20,091 Oblast Silicon Valley vznikla díky myšlence humánní technologie. 1304 01:26:21,050 --> 01:26:25,638 A ztratili jsme ji z dohledu, protože se začalo dělat to, co je cool, 1305 01:26:25,722 --> 01:26:27,265 místo toho, co je správné. 1306 01:26:27,348 --> 01:26:29,726 Internet byl kdysi divné a šílené místo. 1307 01:26:29,809 --> 01:26:31,394 Byl experimentální. 1308 01:26:31,477 --> 01:26:34,731 Vznikaly na něm kreativní věci, pořád vznikají, 1309 01:26:34,814 --> 01:26:38,276 ale dnes to spíš připomíná obří nákupní centrum. 1310 01:26:38,693 --> 01:26:44,157 Říkáte si: „Bože, musí v tom být přece něco víc než jen tohle.“ 1311 01:26:46,701 --> 01:26:48,077 Asi jsem jen optimista. 1312 01:26:48,494 --> 01:26:52,457 Myslím, že můžeme změnit, jak sociální média vypadají, co znamenají. 1313 01:26:54,083 --> 01:26:57,921 Způsob, jakým technologie funguje, není daný fyzikálním zákonem. 1314 01:26:58,004 --> 01:27:02,175 Je to výsledek rozhodnutí, která udělaly lidské bytosti jako já. 1315 01:27:02,759 --> 01:27:05,345 A lidé tyto technologie mohou změnit. 1316 01:27:06,971 --> 01:27:09,974 A otázkou je, zda jsme ochotni přiznat, 1317 01:27:10,475 --> 01:27:15,438 že tyto špatné věci jsou přímým produktem naší práce. 1318 01:27:21,027 --> 01:27:24,864 Tyto věci jsme postavili my a je naší povinností je změnit. 1319 01:27:37,210 --> 01:27:42,298 Model získávání pozornosti není způsob, jakým se chceme chovat k lidským bytostem. 1320 01:27:46,261 --> 01:27:47,804 Je to mnou, nebo… 1321 01:27:49,847 --> 01:27:50,682 Chudák. 1322 01:27:51,391 --> 01:27:53,393 Zdraví společnosti závisí od toho, 1323 01:27:53,476 --> 01:27:56,396 že se tohoto zničujícího obchodního modelu vzdáme. 1324 01:28:04,696 --> 01:28:08,074 Můžeme požadovat, aby byly tyto produkty navrženy humánně. 1325 01:28:09,367 --> 01:28:13,454 Můžeme žádat, aby se k nám nechovali jako ke zdroji, z nějž lze těžit. 1326 01:28:15,164 --> 01:28:18,334 Záměrem by mohlo být: „Jak uděláme svět lepším?“ 1327 01:28:20,461 --> 01:28:23,798 Pokaždé, když se v průběhu dějin něco zlepšilo, 1328 01:28:23,881 --> 01:28:28,428 stalo se to, protože někdo řekl: „Tohle je blbost. Umíme to i lépe.“ 1329 01:28:29,178 --> 01:28:32,557 Zlepšení mají na svědomí kritici. 1330 01:28:33,141 --> 01:28:35,393 Právě oni jsou skuteční optimisté. 1331 01:28:38,271 --> 01:28:39,105 Ahoj. 1332 01:28:46,279 --> 01:28:51,534 Zní to trochu šíleně, co? Základní design těchto věcí… 1333 01:28:53,036 --> 01:28:54,704 nejde dobrým směrem. 1334 01:28:55,288 --> 01:28:56,873 Všechno jako celek. 1335 01:28:56,956 --> 01:29:00,626 Takže zní šíleně říct, že to musíme vše změnit, 1336 01:29:01,169 --> 01:29:02,795 ale právě to musíme udělat. 1337 01:29:04,339 --> 01:29:05,840 Myslíte, že to zvládneme? 1338 01:29:07,383 --> 01:29:08,217 Musíme. 1339 01:29:21,314 --> 01:29:24,776 Působíte velmi optimisticky. 1340 01:29:26,194 --> 01:29:27,195 Tak že zním? 1341 01:29:27,653 --> 01:29:30,114 Nevěřím, že to říkáte, 1342 01:29:30,198 --> 01:29:33,409 protože povídám: „Mám pocit, že směřujeme k dystopii. 1343 01:29:33,493 --> 01:29:37,497 Řítíme se k dystopii a bude nutný zázrak, abychom se z toho dostali.“ 1344 01:29:37,914 --> 01:29:40,416 A tím zázrakem je samozřejmě společná vůle. 1345 01:29:41,000 --> 01:29:47,048 Jsem optimistka a myslím, že to vyřešíme, ale podle mě to potrvá velmi dlouho. 1346 01:29:47,131 --> 01:29:50,385 Protože ne každý si uvědomuje, že je to problém. 1347 01:29:50,468 --> 01:29:55,890 Myslím, že velkým selháním v oboru je to, 1348 01:29:55,973 --> 01:29:58,643 že skutečně selhává vedení, 1349 01:29:58,726 --> 01:30:02,980 vedeme málo otevřených konverzací o věcech, které… 1350 01:30:03,439 --> 01:30:08,194 Nejen o úspěchu, ale i o nedokonalostech, aby někdo mohl vytvořit něco nového. 1351 01:30:08,277 --> 01:30:11,614 Změna tohoto systému nenastane, 1352 01:30:11,697 --> 01:30:14,617 dokud nepřijde obrovský tlak ze strany veřejnosti. 1353 01:30:14,700 --> 01:30:18,204 Díky těmto rozhovorům a vyjadřování názorů, 1354 01:30:18,287 --> 01:30:21,082 v některých případech pomocí těchto technologií, 1355 01:30:21,165 --> 01:30:24,252 můžeme začít změnu, můžeme začít měnit diskusi. 1356 01:30:24,335 --> 01:30:27,004 Možná to zní divně, ale je to můj svět, má komunita. 1357 01:30:27,088 --> 01:30:29,715 Necítím nenávist, nechci ublížit Googlu a Facebooku. 1358 01:30:29,799 --> 01:30:32,635 Chci jejich reformu, aby nezničily svět. Chápete? 1359 01:30:32,969 --> 01:30:37,723 Odinstaloval jsem tunu aplikací, které jen plýtvaly mým časem. 1360 01:30:37,807 --> 01:30:42,520 Všechny aplikace sociálních médií, zpráv. A vypnul jsem upozornění na všem, 1361 01:30:42,603 --> 01:30:45,815 co mi vibrovalo na noze, pokud to neobsahuje informace, 1362 01:30:45,898 --> 01:30:51,279 které jsou pro mě v tuto chvíli důležité. Ze stejného důvodu nemám v kapse sušenky. 1363 01:30:51,362 --> 01:30:53,197 Snižte počet upozornění. 1364 01:30:53,281 --> 01:30:54,449 Vypněte upozornění. 1365 01:30:54,532 --> 01:30:55,950 Vypněte všechna upozornění. 1366 01:30:56,033 --> 01:30:58,536 Už nepoužívám Google, používám Qwant, 1367 01:30:58,619 --> 01:31:01,497 který neukládá historii vyhledávání. 1368 01:31:01,581 --> 01:31:04,459 Nikdy nepřijímejte video doporučené od YouTubu. 1369 01:31:04,542 --> 01:31:07,003 Vždy si vybírejte. I tak lze bojovat. 1370 01:31:07,086 --> 01:31:12,133 Existuje spousta rozšíření Chromu, která odstraňují doporučení. 1371 01:31:12,216 --> 01:31:14,177 Líbí se mi, že doporučujete něco, 1372 01:31:14,260 --> 01:31:16,220 - co odstraňuje váš výtvor. - Jo. 1373 01:31:16,929 --> 01:31:21,642 Než něco sdílíte, ověřte to, prověřte zdroj, vygooglujte si to. 1374 01:31:21,726 --> 01:31:25,104 Když se zdá, že je to navrženo, aby vám to zasáhlo emoce, 1375 01:31:25,188 --> 01:31:26,314 asi to tak bude. 1376 01:31:26,397 --> 01:31:30,359 V podstatě pomocí klikání volíte. Kliknutím na clickbait 1377 01:31:30,443 --> 01:31:33,779 tvoříte finanční pobídku, která tento systém udržuje. 1378 01:31:33,863 --> 01:31:37,909 Ujistěte se, že máte ve svém životě spoustu druhů různých informací. 1379 01:31:37,992 --> 01:31:40,995 Na Twitteru sleduju lidi, se kterými nesouhlasím, 1380 01:31:41,078 --> 01:31:44,207 protože chci být vystavena různým úhlům pohledu. 1381 01:31:44,624 --> 01:31:49,045 Všimněte si, že mnoho lidí z našeho oboru tato zařízení svým dětem nedává. 1382 01:31:49,128 --> 01:31:51,214 Mé děti sociální média nepoužívají. 1383 01:31:51,964 --> 01:31:54,509 - Je to pravidlo, nebo… - To je pravidlo. 1384 01:31:55,092 --> 01:31:58,804 Jsme fanatici. Jsme šílení. 1385 01:31:59,305 --> 01:32:05,269 A nedovolíme dětem, aby u obrazovek trávily jakýkoli čas. 1386 01:32:05,686 --> 01:32:08,564 Vymyslel jsem tři jednoduchá pravidla, 1387 01:32:08,648 --> 01:32:12,235 která rodinám život usnadňují a jsou odůvodněna výzkumem. 1388 01:32:12,610 --> 01:32:17,281 První pravidlo zní, od určitého času večer jdou všechna zařízení z ložnice pryč. 1389 01:32:17,365 --> 01:32:20,535 Od jakéhokoli času, třeba půl hodiny před spaním. 1390 01:32:20,618 --> 01:32:24,038 Druhé pravidlo zní, do střední školy žádná sociální média. 1391 01:32:24,121 --> 01:32:26,374 Podle mě by to mělo být od 16. 1392 01:32:26,457 --> 01:32:28,960 Druhý stupeň je už tak těžký. Až na střední. 1393 01:32:29,043 --> 01:32:32,964 A třetí pravidlo zní, promluvte si s dětmi o množství času. 1394 01:32:33,047 --> 01:32:34,757 Když se jich zeptáte: 1395 01:32:34,840 --> 01:32:39,637 „Kolik hodin denně chceš být na mobilu, kolik je podle tebe vhodné číslo?“ 1396 01:32:39,720 --> 01:32:41,597 Často navrhnou něco rozumného. 1397 01:32:42,056 --> 01:32:44,642 Hele, moc dobře vím, 1398 01:32:44,725 --> 01:32:48,563 že nepřinutím všechny, aby si smazali účty na sociálních médiích, 1399 01:32:48,646 --> 01:32:50,106 ale pár lidí možná ano. 1400 01:32:50,523 --> 01:32:54,402 A na těch pár lidech se smazanými účty velmi záleží, 1401 01:32:54,485 --> 01:32:58,406 protože to vytváří prostor pro diskusi, 1402 01:32:58,489 --> 01:33:00,908 protože chci, aby ve společnosti bylo dost lidí, 1403 01:33:00,992 --> 01:33:05,204 kteří jsou osvobozeni od manipulace a jsou schopni společenské diskuse, 1404 01:33:05,288 --> 01:33:07,540 která tou manipulací není omezena. 1405 01:33:07,623 --> 01:33:10,126 Tak do toho! Dostaňte se ze systému. 1406 01:33:10,209 --> 01:33:12,753 Jo, smažte to. Osvoboďte se od těch blbostí. 1407 01:33:13,546 --> 01:33:16,507 Svět je krásný. Koukejte, je to tam super. 1408 01:33:18,467 --> 01:33:20,052 SLEDUJTE NÁS NA SOCIÁLNÍCH MÉDIÍCH! 1409 01:33:20,136 --> 01:33:21,887 TO BYL VTIP. 1410 01:33:21,971 --> 01:33:27,476 PROMLUVME SI O ŘEŠENÍ. 1411 01:33:32,440 --> 01:33:35,192 Překlad titulků: Červenková Daniela