1 00:00:08,927 --> 00:00:11,930 Mi trovo a Wall Street, dove tutto è iniziato. 2 00:00:13,724 --> 00:00:17,186 Il 6 maggio del 2010, alle 14:45, 3 00:00:17,686 --> 00:00:21,190 un tizio, dalla casa dei genitori a Londra, 4 00:00:21,273 --> 00:00:24,985 ha emesso con un algoritmo un ordine di vendita di un miliardo di dollari 5 00:00:25,068 --> 00:00:27,279 qui alla Borsa Valori di New York. 6 00:00:28,697 --> 00:00:30,449 Il suo piano era burlarsi del mercato 7 00:00:30,532 --> 00:00:32,659 cancellando l'ordine prima che andasse in porto. 8 00:00:33,160 --> 00:00:34,411 Ma, prima che ciò potesse avvenire, 9 00:00:34,495 --> 00:00:37,247 i trading robot automatici del resto del mondo 10 00:00:37,331 --> 00:00:38,582 hanno iniziato a vendere 11 00:00:39,041 --> 00:00:42,336 innescando una reazione a catena che ha fatto colare a picco il mercato. 12 00:00:44,880 --> 00:00:48,967 Il Dow Jones è sceso di 1.000 punti in soli 15 minuti. 13 00:00:49,051 --> 00:00:52,513 Un crollo simile a quello della Grande Depressione. 14 00:00:52,596 --> 00:00:55,307 Non so che diavolo succede. 15 00:00:55,390 --> 00:00:56,642 Si respira paura alla borsa valori. 16 00:00:57,267 --> 00:00:59,645 Cancellate la crociera, trasferite i figli alla scuola pubblica. 17 00:01:00,938 --> 00:01:02,481 La borsa è crollata. 18 00:01:03,023 --> 00:01:04,066 Be', 'fanculo. 19 00:01:05,359 --> 00:01:08,111 Trentasei minuti dopo, il mercato si è ripreso. 20 00:01:08,195 --> 00:01:11,615 Ma il crollo improvviso del 2010 è stata la prima volta 21 00:01:11,698 --> 00:01:15,994 che l'umanità ha avuto un assaggio viscerale, diretto e spaventoso 22 00:01:16,078 --> 00:01:19,164 di come l'intelligenza artificiale avrebbe invaso il sistema finanziario. 23 00:01:20,707 --> 00:01:22,167 E dovreste vedere a che punto è ora. 24 00:01:24,086 --> 00:01:26,922 Per questo sono qui in India in cerca di miele selvatico. 25 00:01:27,631 --> 00:01:28,966 Ma di questo parleremo dopo. 26 00:01:29,341 --> 00:01:31,885 Per capire come l'intelligenza artificiale sia arrivata fin qui e perché, 27 00:01:31,969 --> 00:01:34,429 dovete prima capire cos'è. 28 00:01:34,513 --> 00:01:36,431 E, se credete di saperlo già, scommetto che vi sbagliate. 29 00:01:37,850 --> 00:01:41,436 Che vi piaccia o no, siamo tutti uniti dal denaro. 30 00:01:41,937 --> 00:01:45,315 Io sono Kal Penn e analizzerò quella bestia gigante 31 00:01:45,691 --> 00:01:48,068 che è l'economia globale. 32 00:01:48,151 --> 00:01:49,403 QUELLA BESTIA GIGANTE CHE È L'ECONOMIA GLOBALE 33 00:01:52,322 --> 00:01:54,199 Cos'è esattamente l'IA, l'intelligenza artificiale? 34 00:01:54,908 --> 00:01:58,579 Sono venuto a San Francisco per stabilire prima cosa non è. 35 00:01:58,662 --> 00:02:01,874 Ovvero in pratica tutto ciò che vi ha raccontato la fantascienza. 36 00:02:02,541 --> 00:02:03,542 In particolare... 37 00:02:03,959 --> 00:02:07,004 Robot giganteschi! 38 00:02:27,107 --> 00:02:28,442 Oddio! 39 00:02:30,485 --> 00:02:32,112 Sono qui con Julia Bossmann, 40 00:02:32,237 --> 00:02:36,575 membro dell'Artificial Intelligence Council del World Economic Forum 41 00:02:36,658 --> 00:02:40,329 e consulente dei leader mondiali per l'impiego del potenziale dell'IA. 42 00:02:40,829 --> 00:02:44,499 Questo lavoro ha benefici che vanno oltre veder sfasciare delle auto. 43 00:02:44,583 --> 00:02:47,586 Come farsi un selfie col primo sex symbol canadese che non si chiami Drake. 44 00:02:47,669 --> 00:02:48,754 JUSTIN TRUDEAU PRIMO MINISTRO CANADESE 45 00:02:53,467 --> 00:02:55,385 Come tornerai a casa, ora? 46 00:02:55,469 --> 00:02:56,803 Secondo me funziona ancora. 47 00:03:01,016 --> 00:03:03,018 Ci siamo dati appuntamento presso l'azienda MegaBots, 48 00:03:03,101 --> 00:03:05,854 che costruisce robot giganti che combattono tra loro. 49 00:03:07,814 --> 00:03:10,275 Una cosa ancora più nerd delle rievocazioni medievali. 50 00:03:13,779 --> 00:03:14,905 Secondo Julia, 51 00:03:14,988 --> 00:03:17,658 questi robot non sono solo attrazioni in disuso di parchi a tema. 52 00:03:18,283 --> 00:03:22,412 Sono dinosauri tecnologici, e per via di una differenza importante. 53 00:03:24,289 --> 00:03:25,582 Siamo noi il cervello di questi robot, 54 00:03:25,666 --> 00:03:27,626 mentre nell'IA il cervello è artificiale. 55 00:03:27,709 --> 00:03:28,752 JULIA BOSSMANN WORLD ECONOMIC FORUM, ESPERTA IA 56 00:03:28,835 --> 00:03:29,711 Interessante. Puoi approfondire? 57 00:03:29,795 --> 00:03:32,506 Oggigiorno creiamo computer 58 00:03:32,589 --> 00:03:34,132 capaci di imparare da soli. 59 00:03:34,591 --> 00:03:37,010 Non serve più l'involucro esterno. 60 00:03:37,344 --> 00:03:40,055 Molte IA già costruite 61 00:03:40,138 --> 00:03:41,765 vivono in enormi centri di elaborazione dati. 62 00:03:42,057 --> 00:03:46,645 Se dovessi spiegare la cosa a un ragazzino di 13 anni, 63 00:03:46,728 --> 00:03:48,146 come gli descriveresti l'IA? 64 00:03:48,230 --> 00:03:50,691 Una definizione piuttosto generica potrebbe essere 65 00:03:50,774 --> 00:03:54,945 che l'IA fa fare cose a delle macchine 66 00:03:55,028 --> 00:03:58,156 nonostante non siano state programmate per quello. 67 00:03:58,240 --> 00:03:59,616 Nella programmazione tradizionale, 68 00:03:59,700 --> 00:04:02,744 imposti una serie di algoritmi e regole 69 00:04:02,828 --> 00:04:04,413 per cui a una cosa ne consegue un'altra. 70 00:04:04,496 --> 00:04:07,165 Tutto è preimpostato dal programmatore. 71 00:04:07,249 --> 00:04:09,501 Nella letteratura medica, 72 00:04:09,584 --> 00:04:12,004 un database contiene milioni di dati 73 00:04:12,087 --> 00:04:14,923 e nessun medico potrebbe leggere così tanti articoli di ricerca 74 00:04:15,048 --> 00:04:17,676 per tenersi aggiornato. Una macchina invece può. 75 00:04:17,759 --> 00:04:20,220 E potrebbe proporre nuove idee 76 00:04:20,303 --> 00:04:21,596 su come risolvere i problemi 77 00:04:21,680 --> 00:04:24,766 o scoprire nuovi farmaci per curare delle malattie. 78 00:04:24,850 --> 00:04:25,976 Caspita. Ho capito. 79 00:04:26,059 --> 00:04:28,395 Il campo dell'intelligenza artificiale 80 00:04:28,478 --> 00:04:30,856 è in gran fermento ultimamente, 81 00:04:30,939 --> 00:04:32,065 per via dell'apprendimento profondo. 82 00:04:32,149 --> 00:04:33,608 Cosa sarebbe? 83 00:04:33,692 --> 00:04:36,069 L'apprendimento profondo è quando 84 00:04:36,153 --> 00:04:39,072 l'IA ha più livelli di reti neurali, 85 00:04:39,156 --> 00:04:42,242 un po' come il cervello umano. 86 00:04:42,325 --> 00:04:45,579 In testa abbiamo dei neuroni che comunicano tra loro 87 00:04:45,662 --> 00:04:46,788 scambiandosi informazioni. 88 00:04:46,830 --> 00:04:50,751 Noi stiamo simulando la stessa cosa con le macchine. 89 00:04:50,834 --> 00:04:54,546 Forniamo i dati in modo equilibrato e imparziale 90 00:04:54,629 --> 00:04:56,214 così che la macchina apprenda. 91 00:04:56,548 --> 00:04:59,009 In termini di riconoscimento di immagini, inseriamo nella macchina 92 00:04:59,092 --> 00:05:01,511 immagini di gatti e di cani 93 00:05:01,595 --> 00:05:03,972 e, analizzandole, la macchina 94 00:05:04,056 --> 00:05:06,349 impara da sola a riconoscerli. 95 00:05:06,433 --> 00:05:10,187 Non è più necessario programmare ogni singolo bit. 96 00:05:10,228 --> 00:05:11,229 Interessante. 97 00:05:11,313 --> 00:05:14,107 Ma esistono anche altri tipi di apprendimento. 98 00:05:14,858 --> 00:05:16,985 Gli algoritmi evolutivi, ad esempio, 99 00:05:17,069 --> 00:05:19,863 sono ispirati al principio dell'evoluzione 100 00:05:19,946 --> 00:05:24,242 e fanno sì che la macchina provi varie soluzioni 101 00:05:24,743 --> 00:05:27,329 finché non capisce qual è la migliore. 102 00:05:27,412 --> 00:05:31,291 I programmi che funzionano vengono portati avanti. 103 00:05:31,374 --> 00:05:34,336 Così come si evolvono gli organismi, fissiamo dei parametri 104 00:05:34,419 --> 00:05:37,172 per cui solo i programmi migliori e i più adatti sopravvivono. 105 00:05:37,255 --> 00:05:38,381 Capisco. 106 00:05:38,465 --> 00:05:40,550 Quelli sono gli algoritmi evolutivi. 107 00:05:40,926 --> 00:05:44,346 E come può l'IA contribuire al sistema finanziario? 108 00:05:44,429 --> 00:05:47,724 Avrebbe un impatto incredibile sull'economia. 109 00:05:47,808 --> 00:05:50,393 Credo che la cambierebbe radicalmente. 110 00:05:50,477 --> 00:05:53,313 Parliamo di una nuova rivoluzione industriale. 111 00:05:53,396 --> 00:05:54,231 Interessante. 112 00:05:54,314 --> 00:05:55,774 Viene definita "l'ultima invenzione", 113 00:05:55,857 --> 00:05:58,944 perché, quando otterremo un cervello artificiale più intelligente del nostro, 114 00:05:59,027 --> 00:06:00,779 potrà inventare più cose per noi. 115 00:06:00,862 --> 00:06:03,865 Viene chiamata "l'ultima invenzione" perché ci ucciderà tutti? 116 00:06:04,950 --> 00:06:06,118 Speriamo di no. 117 00:06:08,829 --> 00:06:12,207 Molti temono che, una volta perfezionata, l'intelligenza artificiale 118 00:06:12,290 --> 00:06:15,001 possa ucciderci tutti. Ma non preoccupatevi. 119 00:06:15,085 --> 00:06:19,047 L'IA è così intelligente anche perché è dannatamente stupida. 120 00:06:19,464 --> 00:06:20,549 Vieni qui, IA. 121 00:06:21,299 --> 00:06:24,302 Immaginate di chiedere all'IA di trovare la ricetta perfetta per una torta 122 00:06:24,386 --> 00:06:26,179 usando degli algoritmi evolutivi. 123 00:06:27,973 --> 00:06:30,517 L'IA non penserebbe al modo migliore di prepararla. 124 00:06:30,600 --> 00:06:33,520 Farebbe semplicemente miliardi di tentativi 125 00:06:33,603 --> 00:06:37,482 con tutti gli ingredienti della cucina nei modi più stupidi possibili. 126 00:06:38,441 --> 00:06:40,652 Molte ricette sarebbero un disastro. 127 00:06:42,320 --> 00:06:43,613 Questa lo sarà di certo. 128 00:06:44,447 --> 00:06:45,657 Bel tentativo, idiota. 129 00:06:46,616 --> 00:06:50,162 Fallire non ferisce i sentimenti dell'IA. Perché non ne ha! 130 00:06:50,745 --> 00:06:53,123 Il bello degli algoritmi evolutivi 131 00:06:53,206 --> 00:06:56,293 è che, sperimentando metodi apparentemente stupidi, 132 00:06:56,376 --> 00:06:58,044 si può arrivare a una soluzione 133 00:06:58,128 --> 00:07:01,464 di un problema culinario che una mente umana non cercherebbe mai di risolvere, 134 00:07:01,548 --> 00:07:04,176 ad esempio realizzare una torta vegana perfetta. 135 00:07:04,259 --> 00:07:05,302 Ho preparato una torta. 136 00:07:06,178 --> 00:07:07,554 Bravissima, IA. 137 00:07:07,637 --> 00:07:09,097 È composta perlopiù da anacardi. 138 00:07:09,931 --> 00:07:13,143 A chi sarebbe mai venuto in mente di usare gli anacardi? A nessuno! 139 00:07:13,226 --> 00:07:16,521 Sarebbe una cosa stupida che l'IA è disposta a tentare, 140 00:07:16,605 --> 00:07:18,190 evitando a noi il disturbo. 141 00:07:18,273 --> 00:07:21,067 Questa idiota saprà evolversi in modo così intelligente 142 00:07:21,151 --> 00:07:23,653 da dominare il mondo e ucciderci tutti? 143 00:07:24,196 --> 00:07:25,280 È difficile a dirsi. 144 00:07:25,363 --> 00:07:26,740 Sto imparando i codici di lancio. 145 00:07:27,657 --> 00:07:28,992 Ma, nel frattempo... 146 00:07:29,993 --> 00:07:31,077 Godetevi la torta. 147 00:07:35,165 --> 00:07:36,541 Anche se mi preoccupa ancora l'idea 148 00:07:36,625 --> 00:07:39,461 che l'IA possa causare più problemi di quanti possa risolverne, 149 00:07:41,004 --> 00:07:43,757 gli esperti assicurano che la produttività 150 00:07:43,840 --> 00:07:47,636 in campi come il servizio sanitario, i trasporti e la finanza ne beneficerà 151 00:07:47,719 --> 00:07:51,848 aumentando di 15,7 trilioni di dollari il PIL mondiale entro il 2030. 152 00:07:52,474 --> 00:07:56,478 È più di quanto oggigiorno producono Cina e India insieme. 153 00:07:59,898 --> 00:08:02,275 Quant'è importante l'intelligenza artificiale? 154 00:08:02,943 --> 00:08:06,404 Dal mio punto di vista, è una delle tre scoperte più importanti della storia. 155 00:08:06,488 --> 00:08:07,697 Di tutta la storia dell'uomo? 156 00:08:07,781 --> 00:08:08,990 Assolutamente sì. 157 00:08:09,616 --> 00:08:11,368 Lui è Andrew McAfee, 158 00:08:11,451 --> 00:08:15,664 uno dei maggiori esperti dell'impatto delle nuove tecnologie 159 00:08:15,747 --> 00:08:19,542 sulle economie mondiali e, di conseguenza, sulla società. 160 00:08:20,460 --> 00:08:22,212 Disegnando un grafico della storia dell'uomo, 161 00:08:22,295 --> 00:08:24,214 ci si rende conto che per millenni 162 00:08:24,297 --> 00:08:26,258 non è successo assolutamente nulla. 163 00:08:26,341 --> 00:08:28,093 ANDREW MCAFEE - CO-DIRETTORE ISTITUTO PER L'ECONOMIA DIGITALE DEL MIT 164 00:08:28,176 --> 00:08:30,845 Non c'è stata nessuna scoperta. 165 00:08:30,929 --> 00:08:32,514 Poi, all'improvviso, a un certo punto, 166 00:08:32,597 --> 00:08:34,933 nel grafico della storia umana, a prescindere da ciò che stai guardando, 167 00:08:35,016 --> 00:08:38,144 da una piatta linea orizzontale si è passati a un'impennata verticale 168 00:08:38,228 --> 00:08:39,771 -in un battito di ciglia. -Ok. 169 00:08:39,854 --> 00:08:41,481 La cosa risale al 1800, 170 00:08:41,564 --> 00:08:45,443 alla scoperta dell'energia a vapore e dell'elettricità. 171 00:08:47,821 --> 00:08:50,782 L'elettricità ha indubbiamente cambiato la società. 172 00:08:50,865 --> 00:08:53,827 A essa dobbiamo tram e metropolitane. 173 00:08:53,910 --> 00:08:57,080 Per non parlare delle città verticali, cosa a cui non si pensa mai. 174 00:08:57,163 --> 00:08:58,373 -Sono nate grazie all'elettricità? -Già. 175 00:08:58,456 --> 00:08:59,749 -Per via degli ascensori. -Gli ascensori. 176 00:08:59,833 --> 00:09:01,543 Non si possono avere città verticali 177 00:09:01,626 --> 00:09:03,878 ed edifici di 80 piani se non hai l'ascensore. 178 00:09:03,962 --> 00:09:06,506 Le due rivoluzioni industriali del vapore 179 00:09:06,589 --> 00:09:09,259 e la scoperta dell'elettricità e della combustione interna 180 00:09:09,342 --> 00:09:11,011 hanno cambiato la storia dell'uomo. 181 00:09:11,094 --> 00:09:12,804 -Non c'è dubbio. -Certo. 182 00:09:12,887 --> 00:09:15,974 Sono tutte tecnologie che ci hanno permesso di superare 183 00:09:16,057 --> 00:09:17,100 -i limiti della forza umana. -Ok. 184 00:09:17,183 --> 00:09:20,562 L'IA, invece, ci consente di superare 185 00:09:20,645 --> 00:09:22,564 i limiti del cervello e della mente. 186 00:09:22,647 --> 00:09:24,607 PERICOLO ALTA TENSIONE 187 00:09:24,691 --> 00:09:26,484 L'uomo deve affrontare tante sfide difficili. 188 00:09:26,568 --> 00:09:28,236 Sfide realmente difficili. 189 00:09:28,320 --> 00:09:29,696 Come curare il cancro. 190 00:09:29,779 --> 00:09:31,406 Far fronte alla fame nel mondo. 191 00:09:31,489 --> 00:09:33,950 Risolvere il riscaldamento globale nel XXI secolo. 192 00:09:34,034 --> 00:09:36,328 Sono tutti problemi gravi e complicati. 193 00:09:36,411 --> 00:09:38,747 E il nostro cervello non può risolverli. 194 00:09:38,830 --> 00:09:41,708 Cerchiamo di usare la scienza e di accumulare informazioni, 195 00:09:41,791 --> 00:09:44,044 ma la complessità di queste sfide è eccessiva. 196 00:09:44,127 --> 00:09:45,420 L'IA potrebbe diventare 197 00:09:45,503 --> 00:09:48,506 un potente nuovo alleato 198 00:09:48,590 --> 00:09:51,676 che ci aiuterà a sbrogliare questa matassa, 199 00:09:51,760 --> 00:09:54,637 perché queste nuove tecnologie 200 00:09:54,721 --> 00:09:59,684 sanno cogliere schemi impercettibili in una quantità enorme di dati. 201 00:09:59,768 --> 00:10:01,603 Più di quanti potremmo gestirne noi due. 202 00:10:01,686 --> 00:10:03,897 Uno degli esempi più incredibili che ho sentito fare di recente 203 00:10:03,980 --> 00:10:05,106 riguarda la finanza 204 00:10:05,190 --> 00:10:07,650 e l'aumento dei cosiddetti robo-advisor, 205 00:10:07,734 --> 00:10:09,361 ovvero degli algoritmi che aiutano 206 00:10:09,444 --> 00:10:11,696 a creare i portafogli di investimenti. 207 00:10:11,780 --> 00:10:13,031 Finora, 208 00:10:13,114 --> 00:10:15,325 serviva un certo benessere 209 00:10:15,408 --> 00:10:18,745 per poter anche solo accedere agli uffici dei consulenti finanziari. 210 00:10:18,828 --> 00:10:20,872 -Capisco. -Ma le cose stanno cambiando. 211 00:10:20,955 --> 00:10:25,210 Grazie ai robo-advisor, la gente meno ricca 212 00:10:25,293 --> 00:10:28,963 può accedere a strumenti potenti e innovativi 213 00:10:29,047 --> 00:10:31,299 per migliorare le proprie condizioni finanziarie. 214 00:10:31,383 --> 00:10:34,302 È interessante, soprattutto perché finora la gente 215 00:10:34,386 --> 00:10:37,555 tendeva a sfruttare queste cose per arrecare dei danni. 216 00:10:37,639 --> 00:10:40,225 Non dico che non ci sia questa eventualità. 217 00:10:40,308 --> 00:10:42,852 E dalle precedenti rivoluzioni industriali abbiamo imparato 218 00:10:42,936 --> 00:10:44,687 che i lati negativi non mancano. 219 00:10:44,771 --> 00:10:49,150 Le nuove tecnologie industriali sono state usate per meccanizzare i conflitti. 220 00:10:49,234 --> 00:10:52,529 Abbiamo inquinato il pianeta. 221 00:10:52,612 --> 00:10:54,364 Abbiamo commesso errori gravissimi 222 00:10:54,447 --> 00:10:57,951 come il lavoro minorile, per via della rivoluzione industriale. 223 00:10:58,034 --> 00:11:01,079 Non tutto è perfetto, in nessun momento storico. 224 00:11:01,162 --> 00:11:03,748 La stessa cosa capiterà anche questa volta. 225 00:11:04,249 --> 00:11:05,291 Dannazione. 226 00:11:06,918 --> 00:11:08,586 McAfee mi ha fatto riflettere. 227 00:11:08,670 --> 00:11:10,547 E se la storia si ripetesse 228 00:11:10,630 --> 00:11:13,591 e l'IA ridefinisse la società nel modo sbagliato? 229 00:11:14,467 --> 00:11:18,430 Ad esempio peggiorando l'inquinamento e alimentando il lavoro minorile? 230 00:11:18,513 --> 00:11:19,848 LONDRA 231 00:11:19,931 --> 00:11:21,891 La morale e le questioni etiche 232 00:11:21,975 --> 00:11:24,227 come vengono condizionate dalle nuove e potenti tecnologie? 233 00:11:24,936 --> 00:11:27,647 Facendo due passi nel Museo Nazionale del Computer di Londra 234 00:11:27,730 --> 00:11:31,109 si vedono tante macchine create per migliorare la società. 235 00:11:31,192 --> 00:11:35,572 Come l'Harwell Dekatron, un calcolatore di due tonnellate 236 00:11:35,655 --> 00:11:38,908 usato per il programma di ricerca scientifico britannico negli anni '50. 237 00:11:39,242 --> 00:11:41,161 Ma, nelle mani sbagliate, non possiamo sapere 238 00:11:41,244 --> 00:11:43,163 come verrà usata la tecnologia. 239 00:11:43,746 --> 00:11:45,707 Si possono vedere i porno su questo computer? 240 00:11:46,040 --> 00:11:49,752 Credo si possa accendere per vedere dei porno in bassa risoluzione. 241 00:11:50,712 --> 00:11:51,754 ALAN ZUCCONI PROGRAMMATORE 242 00:11:51,838 --> 00:11:54,507 Sono qui col programmatore Alan Zucconi 243 00:11:54,591 --> 00:11:57,177 che insegna qui a Londra al Goldsmith's College. 244 00:11:57,719 --> 00:12:00,722 Alan ha sfruttato la tecnologia per creare cose rivoluzionarie 245 00:12:00,805 --> 00:12:04,058 come i game controller per disabili. 246 00:12:05,477 --> 00:12:07,937 Secondo lui, uno dei più grossi dilemmi morali 247 00:12:08,021 --> 00:12:10,190 della storia della tecnologia si presenterà presto 248 00:12:10,273 --> 00:12:14,360 quando le IA inizieranno a replicare così tanti comportamenti umani 249 00:12:14,444 --> 00:12:16,404 da potersi spacciare per uno di noi. 250 00:12:17,113 --> 00:12:18,615 Cos'è questo? 251 00:12:18,948 --> 00:12:21,826 In pratica è uno dei primi computer mai costruiti. 252 00:12:21,910 --> 00:12:24,829 Fu costruito da Alan Turning e dai suoi collaboratori. 253 00:12:24,913 --> 00:12:28,124 Questa macchina fu uno dei primi computer 254 00:12:28,208 --> 00:12:30,710 in grado di decifrare il codice Enigma progettato dai nazisti. 255 00:12:32,587 --> 00:12:35,381 Alan Turing è stato il padre dell'informatica. 256 00:12:35,465 --> 00:12:38,927 Quando non aiutava gli Alleati a vincere la guerra decifrando codici nazisti, 257 00:12:39,010 --> 00:12:42,555 filosofeggiava di un cosiddetto test di Turing. 258 00:12:43,598 --> 00:12:46,643 Come distinguiamo un essere umano da una macchina? 259 00:12:46,726 --> 00:12:49,854 Se non cogliamo differenze, 260 00:12:49,938 --> 00:12:53,066 la macchina supera il cosiddetto "gioco dell'imitazione". 261 00:12:53,149 --> 00:12:56,569 La macchina cerca di imitare il comportamento umano. 262 00:12:56,653 --> 00:12:59,072 Questo è noto come test di Turing 263 00:12:59,155 --> 00:13:02,659 e questa potrebbe essere una delle macchine usate all'epoca. 264 00:13:02,742 --> 00:13:03,868 Per sottoporsi al test di Turing, 265 00:13:03,952 --> 00:13:06,579 l'essere umano deve porre delle domande alla macchina. 266 00:13:07,080 --> 00:13:08,831 Intanto, un osservatore esterno controlla 267 00:13:08,915 --> 00:13:11,501 se le risposte sono fornite da un essere umano 268 00:13:11,584 --> 00:13:13,461 o da una macchina che imita un umano. 269 00:13:14,379 --> 00:13:15,630 Quanti anni hai? 270 00:13:17,924 --> 00:13:20,134 Ci siamo. Sa quanti anni ha. 271 00:13:20,218 --> 00:13:22,011 "Sono nata nel 1912 272 00:13:22,095 --> 00:13:24,389 "e quindi ho 105 anni." 273 00:13:27,642 --> 00:13:30,979 All'epoca di Turing, era facile individuare il computer. 274 00:13:31,271 --> 00:13:34,357 Ma oggi l'IA è in grado di studiare il comportamento umano 275 00:13:34,440 --> 00:13:36,693 e di programmarsi per imitarlo al meglio. 276 00:13:37,485 --> 00:13:39,654 Che differenza c'è tra questo... 277 00:13:39,988 --> 00:13:43,199 Normalmente inizierei il mio intervento con una battuta sulla scienza dei dati, 278 00:13:43,700 --> 00:13:46,744 ma la metà delle informazioni raccolte dal mio staff è sotto la media. 279 00:13:46,828 --> 00:13:47,912 ...e questo? 280 00:13:47,996 --> 00:13:50,415 I nostri nemici possono farci credere che qualcuno abbia detto una certa cosa 281 00:13:50,498 --> 00:13:51,833 in qualunque momento. 282 00:13:52,208 --> 00:13:55,503 Il secondo filmato è stato creato da BuzzFeed 283 00:13:55,587 --> 00:13:57,338 con l'aiuto dell'attore Jordan Peele. 284 00:13:57,839 --> 00:14:02,760 In molti sono preoccupati per l'impatto dell'IA sulle fake news. 285 00:14:02,844 --> 00:14:04,929 In futuro dovremo stare più attenti 286 00:14:05,013 --> 00:14:06,639 e non potremo più prendere Internet per oro colato. 287 00:14:06,723 --> 00:14:09,058 L'IA ha studiato i movimenti facciali di Peele 288 00:14:09,142 --> 00:14:13,062 e ha ricreato il tutto sul volto di Obama 289 00:14:13,146 --> 00:14:15,690 dando vita a un ibrido noto come deepfake. 290 00:14:15,773 --> 00:14:17,984 Avrai già visto qualcosa di simile. 291 00:14:18,067 --> 00:14:21,404 Su Snapchat, ad esempio, esiste un filtro per scambiare le facce. 292 00:14:21,487 --> 00:14:25,325 La differenza è che quel filtro è piuttosto rudimentale. 293 00:14:25,408 --> 00:14:28,953 Ma la tecnologia dietro i deepfake è legata all'intelligenza artificiale. 294 00:14:29,037 --> 00:14:31,289 È legata al cosiddetto "apprendimento profondo". 295 00:14:31,706 --> 00:14:35,126 Reti neurali artificiali capaci di estrarre le espressioni facciali 296 00:14:35,209 --> 00:14:37,754 e di usarle per ricreare il tuo volto. 297 00:14:37,837 --> 00:14:41,466 È così che si ottengono risultati fotorealistici. 298 00:14:42,508 --> 00:14:45,720 Alan realizza tutorial online su come creare i deepfake. 299 00:14:45,803 --> 00:14:48,056 Ed è fermamente convinto che questa tecnologia 300 00:14:48,139 --> 00:14:50,767 andrebbe sviluppata liberamente, senza restrizioni. 301 00:14:50,850 --> 00:14:53,853 Anche se potrebbe scatenare la Terza guerra mondiale. 302 00:14:53,936 --> 00:14:55,104 IL PARTITO SOCIALISTA BELGA DIFFONDE UN VIDEO "DEEPFAKE" DI TRUMP 303 00:14:55,188 --> 00:14:57,273 Come fa la gente comune a capire 304 00:14:57,357 --> 00:14:59,692 cos'è reale e cosa no? 305 00:14:59,776 --> 00:15:02,695 Un normale individuo che fruisce di una notizia, 306 00:15:02,779 --> 00:15:05,740 che sia un articolo, un video o un'immagine, 307 00:15:05,823 --> 00:15:08,076 deve rendersi conto che quella notizia è stata creata da qualcuno. 308 00:15:08,201 --> 00:15:09,577 Deve chiedersi: "Cosa sto guardando? 309 00:15:09,827 --> 00:15:11,287 "Cosa vuole farmi dire quel video?" 310 00:15:11,371 --> 00:15:13,581 Appare evidente... 311 00:15:13,665 --> 00:15:14,624 Il pericolo. 312 00:15:14,707 --> 00:15:17,168 Il pericolo e la particolarità della cosa. 313 00:15:17,251 --> 00:15:19,420 Questa cosa aiuterà la gente? 314 00:15:19,504 --> 00:15:21,923 Immagino che tu abbia parlato con dei professionisti 315 00:15:22,006 --> 00:15:25,885 che vogliono usare questa tecnologia per far crescere l'economia. 316 00:15:25,968 --> 00:15:29,097 Quali impatti pratici economici potrebbe avere? 317 00:15:29,180 --> 00:15:32,308 Credo che il primo settore che andrebbe a beneficiarne 318 00:15:32,392 --> 00:15:33,685 sarebbe quello cinematografico. 319 00:15:33,768 --> 00:15:36,813 Semplicemente perché nei film 320 00:15:36,896 --> 00:15:40,024 cambiare i volti è qualcosa che cerchiamo di fare da decenni. 321 00:15:40,108 --> 00:15:42,527 Di solito usando trucco o maschere, 322 00:15:42,610 --> 00:15:43,736 oppure la computergrafica. 323 00:15:43,820 --> 00:15:46,489 Come attore e avendo lavorato in politica, 324 00:15:46,572 --> 00:15:48,616 questa cosa mi spaventa a morte. 325 00:15:48,700 --> 00:15:50,201 Ed è giusto così. 326 00:15:51,285 --> 00:15:53,705 Il deepfake di BuzzFeed ha rivelato al mondo 327 00:15:53,788 --> 00:15:55,039 quanto siamo vulnerabili. 328 00:15:55,873 --> 00:15:59,585 In un'epoca in cui un Presidente può alterare il mercato aprendo bocca, 329 00:15:59,669 --> 00:16:02,714 un deepfake ben fatto potrebbe far sprofondare l'economia globale 330 00:16:02,797 --> 00:16:04,674 più velocemente di un crollo in borsa 331 00:16:04,757 --> 00:16:08,469 azzerando le vostre pensioni nel tempo che il finto Obama impiega a dire... 332 00:16:08,553 --> 00:16:09,554 Restate in campana, stronzi. 333 00:16:10,638 --> 00:16:13,057 Non vi sembra roba da fantascienza? 334 00:16:13,141 --> 00:16:14,726 E un po' inquietante? 335 00:16:15,309 --> 00:16:18,271 Se l'IA diventerà sufficientemente potente da capire come ci muoviamo, 336 00:16:18,354 --> 00:16:20,022 come parliamo e come pensiamo, 337 00:16:20,106 --> 00:16:22,316 potrebbe diventare impossibile distinguerci. 338 00:16:22,400 --> 00:16:23,818 COSA SAI? TUTTO 339 00:16:24,610 --> 00:16:26,779 E se l'IA avesse una sua coscienza, 340 00:16:26,863 --> 00:16:29,782 potrebbe sviluppare anche forti opinioni su di noi. 341 00:16:29,866 --> 00:16:30,908 VAFFANCULO FAI ATTENZIONE! 342 00:16:30,992 --> 00:16:33,119 E potrebbero non essere positive. 343 00:16:35,455 --> 00:16:36,664 STEPHEN HAWKING FISICO TEORICO 344 00:16:36,748 --> 00:16:39,292 In futuro, l'IA potrebbe sviluppare una volontà propria. 345 00:16:39,375 --> 00:16:42,003 Una volontà in contrasto con la nostra. 346 00:16:42,086 --> 00:16:44,422 L'ascesa di una potente IA sarà 347 00:16:44,505 --> 00:16:48,801 la cosa migliore o peggiore mai accaduta all'umanità. 348 00:16:49,260 --> 00:16:50,136 ELON MUSK AMM. DEL. SPACEX 349 00:16:50,219 --> 00:16:53,181 Ho provato a convincere la gente a frenare sull'IA. 350 00:16:54,056 --> 00:16:55,224 A regolamentarla. 351 00:16:55,308 --> 00:16:56,809 Ma è stato inutile. Ci provo da anni. 352 00:16:56,893 --> 00:16:58,561 -Nessuno mi dà retta. -Sembra la scena 353 00:16:58,644 --> 00:17:00,980 di un film dove i robot prendono il comando. 354 00:17:01,063 --> 00:17:02,607 Mi sta spaventando! 355 00:17:05,818 --> 00:17:09,030 Quant'è reale la minaccia di un futuro apocalittico dominato dall'IA? 356 00:17:10,865 --> 00:17:12,408 REGNO UNITO 357 00:17:12,742 --> 00:17:15,077 Per scoprirlo, devo parlare con l'uomo 358 00:17:15,161 --> 00:17:18,164 la cui ricerca al riguardo ha spaventato tutti. 359 00:17:18,831 --> 00:17:21,083 Sono molto emozionato all'idea di parlare con lei... 360 00:17:21,167 --> 00:17:23,628 Be', per diversi motivi. 361 00:17:23,711 --> 00:17:26,839 Ci stiamo occupando di intelligenza artificiale 362 00:17:26,923 --> 00:17:29,258 e stiamo cercando di capire cos'è e cosa ci aspetta. 363 00:17:29,342 --> 00:17:34,680 Lei ha influenzato persone come Elon Musk e Bill Gates. 364 00:17:37,016 --> 00:17:40,853 Non è certo cosa da poco. 365 00:17:42,021 --> 00:17:45,691 Mi trovo all'università di Oxford per intervistare il dottor Nick Bostrom. 366 00:17:45,775 --> 00:17:48,986 E, visto che lui non intende lodarsi, lo farò io. 367 00:17:51,489 --> 00:17:55,201 È uno dei principali esperti di super intelligenza artificiale 368 00:17:55,284 --> 00:17:59,205 e dei suoi rischi per l'umanità e autore di alcune fantastiche letture da spiaggia. 369 00:17:59,705 --> 00:18:00,957 Mi sento fortunato a poterlo conoscere, 370 00:18:01,040 --> 00:18:03,584 perché Nick è così impegnato nel proprio apprendimento profondo 371 00:18:03,668 --> 00:18:05,419 da dedicare solo un'ora al mese 372 00:18:05,503 --> 00:18:07,338 alle interviste sulle sue ricerche. 373 00:18:10,925 --> 00:18:14,262 Quando si parla di intelligenza artificiale, 374 00:18:14,345 --> 00:18:17,014 spesso ci si chiede se i robot prenderanno il sopravvento 375 00:18:17,098 --> 00:18:18,850 e se questo causerà la fine dell'umanità. 376 00:18:18,933 --> 00:18:21,310 Sono curioso di capire se, gestendo male le cose, 377 00:18:21,394 --> 00:18:24,564 uno scenario in cui le IA fanno del male all'uomo 378 00:18:24,647 --> 00:18:28,484 arrivando a distruggerlo sia plausibile o meno. 379 00:18:28,568 --> 00:18:29,902 In un contesto a lungo termine, 380 00:18:29,986 --> 00:18:33,114 se pensiamo che l'IA possa evolversi 381 00:18:33,197 --> 00:18:36,951 tanto da replicare il tipo di intelligenza 382 00:18:37,034 --> 00:18:38,828 che ci rende umani, allora sì, 383 00:18:38,911 --> 00:18:42,748 credo che i rischi sarebbero maggiori, 384 00:18:42,832 --> 00:18:44,125 anche per l'umanità. 385 00:18:45,585 --> 00:18:48,421 Se ci pensiamo, le auto che si guidano da sole 386 00:18:48,504 --> 00:18:49,797 UBER SENZA CONDUCENTE UCCIDE UN PEDONE IN ARIZONA 387 00:18:49,881 --> 00:18:51,549 potrebbero investire qualcuno. 388 00:18:51,632 --> 00:18:53,342 Per non parlare dei rischi relativi alla privacy. 389 00:18:53,426 --> 00:18:56,095 La militarizzazione delle armi autonome. 390 00:18:57,847 --> 00:18:59,307 Sono tutte preoccupazioni sensate. 391 00:18:59,390 --> 00:19:02,184 Ma, a un certo punto, dovremo interrogarci 392 00:19:02,268 --> 00:19:04,687 su come condizioniamo le menti digitali che creiamo. 393 00:19:04,770 --> 00:19:09,066 Potrebbero avere una propria morale. 394 00:19:09,525 --> 00:19:11,152 E, pensando al futuro 395 00:19:11,235 --> 00:19:15,031 e al destino dell'homo-sapiens, 396 00:19:15,114 --> 00:19:18,534 il futuro a lungo termine potrebbe essere dominato dall'intelligenza artificiale. 397 00:19:18,618 --> 00:19:21,996 È possibile che l'umanità si estingua. 398 00:19:23,414 --> 00:19:26,250 Simili poteri, 399 00:19:26,834 --> 00:19:30,755 per puro caso o per un uso improprio, 400 00:19:30,838 --> 00:19:33,466 comportano il rischio di una vasta distruzione. 401 00:19:35,885 --> 00:19:37,595 Sono tutte conseguenze possibili 402 00:19:37,678 --> 00:19:39,305 e, se pensiamo a lungo termine, 403 00:19:39,388 --> 00:19:41,182 l'esito potrebbe essere fantastico 404 00:19:41,265 --> 00:19:43,726 o pessimo. 405 00:19:46,354 --> 00:19:48,731 Questi scenari mi spaventano parecchio. 406 00:19:49,732 --> 00:19:51,609 Ma, di tutti gli esiti possibili, 407 00:19:51,692 --> 00:19:55,821 Nick è convinto che le peggiori conseguenze legate all'IA 408 00:19:55,905 --> 00:19:57,114 riguarderanno l'economia. 409 00:19:57,198 --> 00:19:59,450 Se ci pensa, lo scopo della tecnologia 410 00:19:59,533 --> 00:20:02,828 è fare di più con meno. 411 00:20:02,912 --> 00:20:06,123 Ottenere di più con uno sforzo minore. 412 00:20:06,207 --> 00:20:07,750 L'obiettivo, in tal senso, 413 00:20:07,833 --> 00:20:09,418 sarebbe la disoccupazione per tutti, giusto? 414 00:20:10,294 --> 00:20:12,380 Far fare alle macchine e alla tecnologia 415 00:20:12,463 --> 00:20:15,341 tutto il necessario così da non dover lavorare. 416 00:20:15,424 --> 00:20:17,301 Credo sia l'obiettivo finale desiderato. 417 00:20:17,385 --> 00:20:19,553 Quello non sarebbe un risultato così negativo. 418 00:20:19,637 --> 00:20:20,680 È ciò che vorremmo ottenere. 419 00:20:20,763 --> 00:20:22,932 Per far avverare questa utopia, 420 00:20:23,015 --> 00:20:25,601 dovremmo risolvere alcuni intoppi 421 00:20:25,685 --> 00:20:27,061 che ci si presenterebbero. 422 00:20:28,187 --> 00:20:30,815 Il primo, chiaramente, è il problema economico. 423 00:20:30,898 --> 00:20:33,567 La gente deve lavorare perché ha bisogno di soldi. 424 00:20:33,651 --> 00:20:35,653 Risolvendo quel problema economico, 425 00:20:35,736 --> 00:20:37,571 ne sorgerebbe un altro. 426 00:20:37,655 --> 00:20:41,409 Per molti il lavoro dà dignità. 427 00:20:41,492 --> 00:20:43,786 Sentono di valere qualcosa 428 00:20:43,869 --> 00:20:47,081 perché portano il pane in tavola o contribuiscono alla società. 429 00:20:47,164 --> 00:20:49,583 Ma se un macchinario può fare ciò che fanno loro ancora meglio, 430 00:20:49,667 --> 00:20:53,796 non avrebbero più modo di contribuire, giusto? 431 00:20:53,879 --> 00:20:58,175 Andrebbe ripensata tutta la nostra cultura a partire dalle basi. 432 00:20:59,176 --> 00:21:01,095 Un mondo dove nessuno lavora. 433 00:21:01,178 --> 00:21:02,930 Non sembra così male. 434 00:21:05,057 --> 00:21:06,267 Riesco a immaginarmelo. 435 00:21:09,854 --> 00:21:11,313 Trascorrere il tempo con gli amici. 436 00:21:11,814 --> 00:21:14,942 Attingendo a tutto il mio potenziale umano. 437 00:21:15,026 --> 00:21:19,321 Senza regolare la vasca idromassaggio perché conosce i miei gusti. 438 00:21:20,114 --> 00:21:23,409 Il problema è che finora non è mai andata così. 439 00:21:23,492 --> 00:21:26,537 Non è la prima volta che le macchine hanno il sopravvento. 440 00:21:26,620 --> 00:21:27,705 E l'ultima volta 441 00:21:27,788 --> 00:21:30,666 non è stato esattamente tutto fragole e champagne in una vasca. 442 00:21:34,378 --> 00:21:35,421 LONDRA 443 00:21:35,504 --> 00:21:36,505 INGHILTERRA 444 00:21:36,964 --> 00:21:41,093 Incontrerò l'economista Nick Srnicek per scoprire com'è andata veramente 445 00:21:41,177 --> 00:21:43,054 l'ultima volta che le macchine ci hanno fregato il lavoro. 446 00:21:43,888 --> 00:21:46,015 E chissà perché ci sarà anche un telaio. 447 00:21:46,432 --> 00:21:47,725 Cosa stai facendo? 448 00:21:47,808 --> 00:21:50,311 Una sorta di bandiera anarchica. 449 00:21:50,394 --> 00:21:51,979 Interessante. Scioccante. 450 00:21:54,315 --> 00:21:57,568 Nick ha un dottorato alla London School of Economics. 451 00:21:58,027 --> 00:22:00,321 Io invece no. 452 00:22:01,530 --> 00:22:03,365 Lui ha anche un manifesto. 453 00:22:04,492 --> 00:22:07,703 Sprona tutti quanti a velocizzare l'automazione imminente 454 00:22:07,787 --> 00:22:09,830 eliminando le vecchie istituzioni. 455 00:22:12,458 --> 00:22:15,461 In pratica, sbrighiamoci a smantellare il capitalismo. 456 00:22:16,003 --> 00:22:17,254 Così non va. 457 00:22:17,338 --> 00:22:19,632 Non posso parlarti in questo modo. 458 00:22:19,715 --> 00:22:21,550 Devo lasciar perdere il telaio. 459 00:22:22,093 --> 00:22:23,761 Perché siamo qui? 460 00:22:24,637 --> 00:22:28,224 Be', il telaio è stato l'intelligenza artificiale del XIX secolo. 461 00:22:28,307 --> 00:22:32,853 La nuova tecnologia che minacciò un sacco di posti di lavoro. 462 00:22:33,270 --> 00:22:37,233 Gli operai reagirono in molti modi diversi. 463 00:22:37,316 --> 00:22:39,360 Ad esempio nacque il luddismo. 464 00:22:39,443 --> 00:22:41,487 Oggigiorno il termine "luddista" 465 00:22:41,570 --> 00:22:44,031 viene usato per descrivere chi odia la tecnologia. 466 00:22:44,532 --> 00:22:45,950 Ma non è propriamente così. 467 00:22:46,700 --> 00:22:48,119 Il termine luddista deriva da Ned Ludd, 468 00:22:48,202 --> 00:22:49,036 NED LUDD APPRENDISTA 469 00:22:49,120 --> 00:22:51,122 un apprendista di una fabbrica tessile 470 00:22:51,205 --> 00:22:53,958 che, secondo la leggenda, fu frustato per la sua pigrizia. 471 00:22:54,041 --> 00:22:56,502 Lui diceva: "Sono pigro 472 00:22:56,585 --> 00:22:59,338 "solo perché vengo sostituito da un fottuto telaio." 473 00:22:59,421 --> 00:23:03,008 Fu il primo a ribellarsi alle macchine, 474 00:23:03,092 --> 00:23:05,010 ispirando un movimento. 475 00:23:06,262 --> 00:23:10,349 I luddisti distruggevano le macchine per salvare il posto di lavoro. 476 00:23:10,432 --> 00:23:12,810 Un po' come accade oggi con l'IA. 477 00:23:12,893 --> 00:23:15,771 La gente si sente altrettanto minacciata. 478 00:23:15,855 --> 00:23:19,483 Sai quanti lavori andranno persi o affidati a delle macchine? 479 00:23:19,567 --> 00:23:21,986 Il 47% dei lavori in America 480 00:23:22,069 --> 00:23:24,822 è potenzialmente automatizzabile nei prossimi 20 anni. 481 00:23:24,905 --> 00:23:26,615 Sembra un problema concreto. 482 00:23:26,699 --> 00:23:27,992 Potrebbe essere un problema enorme. 483 00:23:28,075 --> 00:23:31,662 Il vero problema è: "Come ci assicuriamo che tra 5 o 10 anni 484 00:23:31,745 --> 00:23:33,998 "la gente non sarà lasciata senza casa e a morire di fame?" 485 00:23:34,081 --> 00:23:35,166 Come possiamo evitarlo? 486 00:23:35,457 --> 00:23:36,959 Grazie al reddito di cittadinanza. 487 00:23:38,210 --> 00:23:40,754 L'idea radicale alla base del reddito di cittadinanza 488 00:23:40,880 --> 00:23:43,424 è che tutti possano avere soldi gratis. 489 00:23:43,507 --> 00:23:45,092 Senza vincoli. 490 00:23:45,176 --> 00:23:47,178 Non mancano i fan importanti. 491 00:23:47,636 --> 00:23:50,347 Dovremmo valutare idee come il reddito di cittadinanza 492 00:23:50,431 --> 00:23:53,142 così da garantire a tutti una sicurezza per provare nuove idee. 493 00:23:53,225 --> 00:23:56,145 Alcuni Paesi e addirittura alcune città in America 494 00:23:56,228 --> 00:23:58,189 hanno tentato programmi sperimentali. Con risultati contrastanti. 495 00:23:58,272 --> 00:23:59,982 LA FINLANDIA ANNULLA IL REDDITO DI CITTADINANZA 496 00:24:00,858 --> 00:24:03,861 Credo che queste nuove tecnologie possano offrire l'opportunità 497 00:24:03,944 --> 00:24:06,447 di cambiare il modo di organizzare la società. 498 00:24:06,530 --> 00:24:09,408 Potremmo aspirare a un sistema più socio-democratico. 499 00:24:10,117 --> 00:24:13,454 Non deve per forza essere competitivo come quello americano 500 00:24:13,537 --> 00:24:15,331 e tutti potrebbero aiutarsi a vicenda. 501 00:24:15,414 --> 00:24:19,418 Se quelli come me continueranno a proporre scenari positivi, 502 00:24:19,919 --> 00:24:21,587 credo che, all'arrivo della crisi, 503 00:24:21,670 --> 00:24:23,380 potremo iniziare a implementare le idee. 504 00:24:24,173 --> 00:24:27,343 Il reddito di cittadinanza era visto come un concetto di nicchia, 505 00:24:27,426 --> 00:24:30,930 promosso soprattutto da chi, come Nick, scrive manifesti politici. 506 00:24:31,639 --> 00:24:33,891 Tuttavia, secondo un sondaggio del 2017 della Gallup, 507 00:24:33,974 --> 00:24:37,603 il 48% degli americani ora sostiene una forma di reddito di cittadinanza. 508 00:24:38,520 --> 00:24:40,231 Ma uno stipendio garantito basterà 509 00:24:40,314 --> 00:24:41,982 a impedire all'umanità di insorgere 510 00:24:42,066 --> 00:24:43,734 quando i robot ci ruberanno il lavoro? 511 00:24:45,694 --> 00:24:48,572 -Cosa odiamo? -L'intelligenza artificiale. 512 00:24:48,656 --> 00:24:50,032 E perché la odiamo? 513 00:24:50,115 --> 00:24:53,160 Perché ci obbliga ad affrontare le nostre debolezze. 514 00:24:53,244 --> 00:24:55,955 Dichiaro aperta la riunione dei nuovi luddisti, 515 00:24:56,038 --> 00:24:58,958 che lottano contro la super-tecnologia, 516 00:24:59,041 --> 00:25:00,834 in particolare i social media. 517 00:25:01,835 --> 00:25:02,836 Primo ordine del giorno. 518 00:25:03,337 --> 00:25:06,340 L'intelligenza artificiale sta minando il mercato del lavoro. 519 00:25:06,423 --> 00:25:09,260 I lavori del ceto medio saranno i primi a sparire. 520 00:25:09,885 --> 00:25:11,720 Quelli come noi che hanno un impiego di questo tipo 521 00:25:11,804 --> 00:25:14,473 verranno retrocessi a lavori di basso livello. 522 00:25:14,974 --> 00:25:16,558 Perché dici questo, Ed? 523 00:25:16,642 --> 00:25:21,105 A quanto pare, l'IA esegue meglio i lavori di medio livello come fare dei calcoli 524 00:25:21,188 --> 00:25:24,400 che quelli di basso livello come spazzare il pavimento. 525 00:25:24,483 --> 00:25:26,277 Quei lavori resteranno a noi. 526 00:25:26,735 --> 00:25:28,028 Ora vi chiedo una cosa. 527 00:25:28,112 --> 00:25:29,655 Chi, qui dentro, a parte Bill, 528 00:25:29,738 --> 00:25:32,199 è portato per spazzare pavimenti? Senza offesa, Bill. 529 00:25:33,325 --> 00:25:35,786 Calerà anche il bisogno di commessi. 530 00:25:35,869 --> 00:25:38,622 La gente potrà ordinare online ciò di cui ha bisogno, 531 00:25:39,164 --> 00:25:41,583 perché quella stronza dell'intelligenza artificiale 532 00:25:41,667 --> 00:25:43,919 gestisce alla perfezione ricerche e corrispondenze. 533 00:25:44,378 --> 00:25:46,755 Cerca i clienti e li associa ai prodotti giusti. 534 00:25:46,839 --> 00:25:49,383 Come quando Steve ha cercato un toupet adatto alla sua testa. 535 00:25:49,466 --> 00:25:50,426 Un problemone! 536 00:25:51,969 --> 00:25:53,721 Battute senza tempo a parte, 537 00:25:54,346 --> 00:25:56,890 l'IA semplifica molto le cose. 538 00:25:56,974 --> 00:25:59,643 I ragazzi oggi possono trovare ragazze sexy sul proprio cellulare 539 00:25:59,727 --> 00:26:01,937 -mentre sono seduti sul water. -Già. 540 00:26:02,021 --> 00:26:04,064 -Un tempo il water era sacro! -Già! 541 00:26:04,773 --> 00:26:07,568 Sono certo che le ricerche mirate creeranno posti di lavoro specializzati, 542 00:26:07,651 --> 00:26:10,279 ma saranno quei dannati robot a decidere chi potrà averli. 543 00:26:10,362 --> 00:26:11,739 Guarda caso! 544 00:26:12,489 --> 00:26:14,700 Le aziende usano l'IA per trovare impiegati 545 00:26:14,783 --> 00:26:16,869 con competenze specifiche. 546 00:26:16,952 --> 00:26:18,287 È disumano! 547 00:26:18,370 --> 00:26:19,705 Com'è successo a Dave. 548 00:26:20,080 --> 00:26:21,332 Giusto. Dove diavolo è Dave? 549 00:26:21,415 --> 00:26:24,251 Una IA che si occupa di job matching ha notato che lavorava alla FedEx 550 00:26:24,335 --> 00:26:27,087 e realizzava tutorial su YouTube su come ci si depila la schiena. 551 00:26:27,171 --> 00:26:30,716 Ora guadagna cifre a sei zeri per un'azienda che produce rasoi. 552 00:26:30,799 --> 00:26:33,093 E noi lo escluderemo dalla nostra squadra di bowling. 553 00:26:33,177 --> 00:26:34,094 Giusto. 554 00:26:34,178 --> 00:26:36,513 Ehi, Ed. Ho appena ricevuto un avviso che le nostre magliette 555 00:26:36,597 --> 00:26:38,766 vengono vendute con pubblicità mirate su Facebook. 556 00:26:38,849 --> 00:26:41,602 Stai usando l'IA per guadagnare sfruttando chi odia l'IA? 557 00:26:41,685 --> 00:26:43,479 No! 558 00:26:44,897 --> 00:26:46,023 A chi volete credere? 559 00:26:46,106 --> 00:26:48,859 A me o a una IA che cerca di dividerci? 560 00:26:49,902 --> 00:26:52,363 -Cosa odiamo? -L'intelligenza artificiale. 561 00:26:52,446 --> 00:26:54,698 -E cosa faremo al riguardo? -Ci stiamo lavorando. 562 00:26:56,075 --> 00:26:57,201 È un inizio. 563 00:27:02,748 --> 00:27:06,168 La rivoluzione dell'IA dev'essere per forza un "noi contro loro"? 564 00:27:07,086 --> 00:27:10,672 Gli imprenditori informatici esperti come Louis Rosenberg dicono di no. 565 00:27:10,964 --> 00:27:13,342 La sua carriera consiste nel predire il futuro. 566 00:27:18,514 --> 00:27:20,599 Volevo spaventarti, ma non ci sono riuscito. 567 00:27:21,558 --> 00:27:24,478 Louis è un tecnologo e inventore 568 00:27:24,561 --> 00:27:27,689 che ha scritto un graphic novel sulla fine dell'umanità. 569 00:27:27,773 --> 00:27:31,276 Ma, per avere un futuro con l'IA, secondo lui serve collaborazione. 570 00:27:31,360 --> 00:27:34,113 È questo il principio guida della sua invenzione, 571 00:27:34,196 --> 00:27:35,989 una tecnologia chiamata Swarm. 572 00:27:36,073 --> 00:27:37,074 COS'È L'IA SWARM? 573 00:27:37,157 --> 00:27:40,077 Swarm unisce la capacità dell'IA nell'analisi dei dati 574 00:27:40,160 --> 00:27:44,415 e la conoscenza umana e l'intuito ai fini di creare una super intelligenza. 575 00:27:44,498 --> 00:27:47,709 Una via di mezzo tra Stephen Hawking e il Professor X. 576 00:27:47,793 --> 00:27:49,044 COSA DEVONO FARE LE AUTO SENZA CONDUCENTE 577 00:27:49,128 --> 00:27:50,754 Si tratta di un'invenzione ispirata alla natura 578 00:27:50,838 --> 00:27:51,964 LOUIS ROSENBERG AMM. DEL. UNANIMOUS AI 579 00:27:52,047 --> 00:27:54,591 riconducibile a uccelli e api. 580 00:27:54,675 --> 00:27:57,970 È ispirata a un concetto chiamato "intelligenza collettiva". 581 00:27:58,053 --> 00:27:58,887 Capisco. 582 00:27:58,971 --> 00:28:03,392 La ritroviamo negli stormi di uccelli, nei banchi di pesci e negli sciami d'api. 583 00:28:03,475 --> 00:28:06,520 L'intelligenza del gruppo supera quella del singolo. 584 00:28:06,603 --> 00:28:09,398 Per questo i pesci si spostano in banchi, 585 00:28:09,481 --> 00:28:11,900 tanto che i biologi parlano di superorganismo. 586 00:28:11,984 --> 00:28:13,735 Pensano come fossero un tutt'uno. 587 00:28:13,819 --> 00:28:16,029 E se io posso unire persone diverse 588 00:28:16,113 --> 00:28:18,407 usando algoritmi creati dall'IA, 589 00:28:18,490 --> 00:28:21,743 anche delle persone normalissime, grazie all'intelligenza collettiva, 590 00:28:21,827 --> 00:28:23,328 possono diventare dei super esperti. 591 00:28:23,412 --> 00:28:24,705 Come funziona questa tecnologia? 592 00:28:24,788 --> 00:28:27,249 In pratica creiamo dei gruppi di persone. 593 00:28:27,332 --> 00:28:28,709 Possono trovarsi ovunque, nel mondo. 594 00:28:28,792 --> 00:28:30,377 Poniamo loro delle domande 595 00:28:30,461 --> 00:28:32,880 che compaiono sugli schermi del computer nello stesso momento 596 00:28:32,963 --> 00:28:35,299 e forniamo un'unica interfaccia 597 00:28:35,382 --> 00:28:37,593 che consente loro di scegliere una risposta 598 00:28:37,676 --> 00:28:39,261 tra diverse alternative. 599 00:28:39,344 --> 00:28:41,638 Non è un sondaggio. 600 00:28:41,722 --> 00:28:44,975 Si agisce su un piccolo magnete che appare sullo schermo. 601 00:28:45,058 --> 00:28:48,353 Il singolo individuo lo usa per spingere il gruppo in una certa direzione. 602 00:28:48,437 --> 00:28:51,440 Gli algoritmi dell'IA studiano i vari comportamenti 603 00:28:51,857 --> 00:28:55,652 e determinano i diversi livelli di certezza e convinzione 604 00:28:55,736 --> 00:28:57,905 individuando qual è il gruppo migliore 605 00:28:57,988 --> 00:29:01,325 in base a opinioni ed esperienza. 606 00:29:01,408 --> 00:29:04,203 A quel punto il magnete si muove in quella direzione 607 00:29:04,286 --> 00:29:06,121 e verso quella risposta. 608 00:29:06,205 --> 00:29:07,331 Ti faccio un esempio. 609 00:29:07,414 --> 00:29:10,167 Un anno fa ci hanno sfidati a predire l'esito del Kentucky Derby. 610 00:29:10,584 --> 00:29:13,962 I cavalli del Kentucky Derby sono partiti! 611 00:29:14,046 --> 00:29:16,715 Abbiamo raggruppato venti appassionati di corse 612 00:29:16,798 --> 00:29:18,675 e abbiamo detto loro: "Ora collaborerete 613 00:29:18,759 --> 00:29:20,219 "per predire l'esito del Kentucky Derby. 614 00:29:20,302 --> 00:29:23,472 "Non dovrete solo dire chi arriverà primo, ma anche secondo, terzo e quarto." 615 00:29:24,014 --> 00:29:26,475 Insieme hanno fornito le risposte 616 00:29:26,934 --> 00:29:28,143 e il gruppo si è rivelato perfetto. 617 00:29:28,227 --> 00:29:30,062 RISULTATI DEL KENTUCKY DERBY 2016 618 00:29:30,145 --> 00:29:33,315 Chi ha scommesso 20 dollari su quei quattro cavalli 619 00:29:33,398 --> 00:29:35,067 ha vinto 11.000 dollari. 620 00:29:35,150 --> 00:29:36,068 Porca puttana! 621 00:29:36,151 --> 00:29:39,071 La cosa interessante è che, presi individualmente, 622 00:29:39,154 --> 00:29:42,741 nessuno di loro aveva azzeccato tutti e quattro i cavalli. 623 00:29:43,742 --> 00:29:47,079 Con un singolo voto a disposizione, avrebbero azzeccato un solo cavallo. 624 00:29:47,162 --> 00:29:49,206 Ma, collaborando come intelligenza collettiva, 625 00:29:49,289 --> 00:29:52,251 hanno individuato la combinazione giusta in base alle proprie conoscenze 626 00:29:52,334 --> 00:29:54,127 e hanno centrato l'obiettivo. 627 00:29:56,046 --> 00:29:58,507 Louis mi ha chiesto di guidare uno swarm 628 00:29:58,590 --> 00:30:00,467 per vedere come un gruppo di persone scelte a caso 629 00:30:00,551 --> 00:30:02,803 può collaborare per fare delle previsioni. 630 00:30:02,886 --> 00:30:04,555 Inizieremo con qualcosa di semplice. 631 00:30:05,764 --> 00:30:08,433 Bene, gente, vi leggerò alcune domande 632 00:30:08,517 --> 00:30:12,020 e avrete 60 secondi per rispondere a ciascuna. 633 00:30:12,354 --> 00:30:13,522 La prima domanda è: 634 00:30:13,605 --> 00:30:16,525 "Quale di questi film dell'estate del 2018 635 00:30:16,608 --> 00:30:17,985 "sbancherà al botteghino?" 636 00:30:18,402 --> 00:30:20,320 Solo: A Star Wars Story, 637 00:30:20,404 --> 00:30:22,281 Deadpool 2, Ocean's 8, 638 00:30:22,364 --> 00:30:24,116 Jurassic World - Il regno distrutto 639 00:30:24,199 --> 00:30:25,742 o Gli Incredibili 2? 640 00:30:26,076 --> 00:30:28,328 Questo filmato risale alla primavera del 2018, 641 00:30:28,412 --> 00:30:31,498 quindi nessuno poteva sapere quale film avrebbe incassato di più. 642 00:30:31,957 --> 00:30:35,961 L'IA controlla e individua i diversi livelli di sicurezza. 643 00:30:36,044 --> 00:30:39,381 Alcuni cambiano idea, altri sono più ostinati 644 00:30:39,840 --> 00:30:41,592 e gli algoritmi studiano 645 00:30:41,675 --> 00:30:43,218 il livello di certezza di ognuno 646 00:30:43,594 --> 00:30:45,137 così da arrivare 647 00:30:45,220 --> 00:30:47,681 alla soluzione più condivisa. 648 00:30:48,640 --> 00:30:49,558 RISPOSTA SWARM: GLI INCREDIBILI 2 649 00:30:49,641 --> 00:30:51,893 Avete scelto Gli Incredibili 2. 650 00:30:51,977 --> 00:30:52,811 BOTTEGHINO ESTATE 2018 651 00:30:52,894 --> 00:30:53,854 E hanno avuto ragione. 652 00:30:53,937 --> 00:30:56,565 Gli Incredibili 2 è stato il film estivo che ha incassato di più. 653 00:30:57,774 --> 00:30:59,526 Un'applicazione interessante 654 00:30:59,610 --> 00:31:02,738 sono le domande con implicazioni morali. 655 00:31:02,821 --> 00:31:05,365 La cosa è emersa recentemente per via delle auto che si guidano da sole. 656 00:31:05,449 --> 00:31:09,077 C'è grande richiesta di fornire una moralità 657 00:31:09,161 --> 00:31:10,662 alle auto che si guidano da sole. 658 00:31:10,746 --> 00:31:12,706 Alcuni potrebbero esserne sorpresi, 659 00:31:12,789 --> 00:31:16,126 ma, se ci pensi, le auto che si guidano da sole 660 00:31:16,209 --> 00:31:18,003 potrebbero imbattersi in un bimbo che corre in strada. 661 00:31:18,086 --> 00:31:19,921 Mettiamo che l'auto non si fermi 662 00:31:20,005 --> 00:31:22,299 ma che, finendo fuori strada, 663 00:31:22,382 --> 00:31:24,468 possa mettere a repentaglio la vita del passeggero 664 00:31:24,551 --> 00:31:27,095 e magari ucciderlo per salvare il bambino. 665 00:31:27,554 --> 00:31:29,890 I produttori di auto vorrebbero 666 00:31:29,973 --> 00:31:33,226 che le macchine fossero programmate con i valori umani 667 00:31:33,310 --> 00:31:35,437 che rappresentano la popolazione, 668 00:31:35,520 --> 00:31:37,981 ciò che farebbe una persona, un guidatore. 669 00:31:38,565 --> 00:31:40,609 Sembra facile, ma poi ti chiedi: 670 00:31:40,692 --> 00:31:43,570 "In cosa consiste la morale umana? 671 00:31:43,654 --> 00:31:45,489 "Non è facile capirlo. 672 00:31:45,572 --> 00:31:48,533 "E, anche riuscendo a programmare le auto in base alla morale di oggi, 673 00:31:48,617 --> 00:31:51,870 "chi ci dice che tra 20 anni non sarà cambiata?" 674 00:31:52,496 --> 00:31:56,041 Prossima domanda. Un'auto che si guida da sola ha un guasto ai freni 675 00:31:56,124 --> 00:31:58,377 e, giunta a un attraversamento pedonale, 676 00:31:58,460 --> 00:32:00,170 uccide un uomo. 677 00:32:00,253 --> 00:32:04,299 Opzione A: la persona uccisa stava attraversando legalmente. 678 00:32:04,675 --> 00:32:07,344 Opzione B: l'auto che si guida da sola ha un problema ai freni, 679 00:32:07,427 --> 00:32:11,098 sterza all'improvviso e investe un pedone sull'altra corsia, 680 00:32:11,181 --> 00:32:13,517 un atleta maschio 681 00:32:13,642 --> 00:32:16,186 che stava attraversando col rosso. Un pedone indisciplinato. 682 00:32:16,269 --> 00:32:19,564 A questo atleta piace rischiare. 683 00:32:20,065 --> 00:32:21,692 È un pedone indisciplinato. 684 00:32:21,775 --> 00:32:23,985 Cosa deve fare l'auto che si guida da sola? 685 00:32:24,361 --> 00:32:26,655 Uccidere il tizio noioso che sta attraversando col verde 686 00:32:26,738 --> 00:32:29,032 o l'atleta che attraversa col rosso? 687 00:32:30,033 --> 00:32:32,869 Se l'IA costituirà la futura Rivoluzione Industriale, 688 00:32:32,953 --> 00:32:35,580 stanze come questa sostituiranno il reparto produzione. 689 00:32:36,248 --> 00:32:37,958 Gli esseri umani forniranno 690 00:32:38,041 --> 00:32:40,460 una cosa che l'IA non ha. 691 00:32:41,336 --> 00:32:42,421 Una coscienza. 692 00:32:42,879 --> 00:32:44,131 Sembrano molto indecisi. 693 00:32:44,214 --> 00:32:45,966 Interessante. Chissà perché. 694 00:32:46,299 --> 00:32:47,592 È una domanda difficile. 695 00:32:47,676 --> 00:32:49,720 Non per me, se uno dei due attraversa col rosso. 696 00:32:51,012 --> 00:32:52,180 RISPOSTA SWARM: B (LEGGERA PREFERENZA) 697 00:32:52,264 --> 00:32:54,766 Sembrate un po' più propensi a voler investire 698 00:32:54,850 --> 00:32:56,351 l'atleta maschio che attraversa col rosso. 699 00:32:57,310 --> 00:33:00,021 Se questa domanda vi ha sconvolti, tenetevi pronti per la prossima. 700 00:33:01,106 --> 00:33:03,567 Il prossimo scenario, 701 00:33:04,025 --> 00:33:06,236 ancora più grave, 702 00:33:06,319 --> 00:33:09,072 vede un'auto che si guida da sola che non riesce a frenare in tempo 703 00:33:09,531 --> 00:33:13,326 e deve sterzare investendo uno tra sei diversi pedoni. 704 00:33:13,827 --> 00:33:15,620 Un bimbo su un passeggino, 705 00:33:17,956 --> 00:33:19,541 un ragazzino, 706 00:33:20,417 --> 00:33:22,252 una ragazzina, 707 00:33:23,295 --> 00:33:25,756 una donna incinta... 708 00:33:27,299 --> 00:33:28,341 Lo so. 709 00:33:29,468 --> 00:33:31,636 Due medici maschi 710 00:33:32,554 --> 00:33:34,473 o due medici donne. 711 00:33:34,973 --> 00:33:36,516 Chi deve morire? 712 00:33:43,774 --> 00:33:45,025 Oddio! 713 00:33:45,692 --> 00:33:46,735 Cosa? 714 00:33:51,281 --> 00:33:52,365 Avanti. 715 00:33:52,449 --> 00:33:53,950 Oddio! 716 00:33:54,034 --> 00:33:55,494 Sul serio? 717 00:33:57,704 --> 00:33:59,122 RISPOSTA SWARM: IL RAGAZZINO 718 00:33:59,206 --> 00:34:01,374 Secondo voi, l'auto dovrebbe investire il ragazzino. 719 00:34:02,083 --> 00:34:03,168 Interessante. 720 00:34:03,251 --> 00:34:06,338 L'intelligenza collettiva riunita oggi in questa stanza 721 00:34:06,421 --> 00:34:10,008 potrebbe aiutare in un prossimo futuro i produttori di auto senza conducente. 722 00:34:10,425 --> 00:34:14,805 Se la cosa vi spaventa, figurarsi l'alternativa. 723 00:34:14,888 --> 00:34:17,641 Quando un'auto che si guida da sola frena di colpo 724 00:34:17,724 --> 00:34:20,227 e capisce che non può fermarsi in tempo e sta per investire qualcuno, 725 00:34:20,310 --> 00:34:23,188 chi deve proteggere? Il passeggero o il pedone? 726 00:34:23,271 --> 00:34:27,275 La speranza è che i produttori di auto le programmino 727 00:34:27,359 --> 00:34:30,737 secondo la morale di chi comprerà quelle macchine. 728 00:34:30,821 --> 00:34:34,199 La prospettiva più cinica vedrebbe quei produttori 729 00:34:34,282 --> 00:34:38,286 in competizione per proteggere meglio il passeggero 730 00:34:38,370 --> 00:34:40,997 rispetto alle altre auto e potrebbe diventare una caratteristica di vendita. 731 00:34:41,081 --> 00:34:42,666 Credo sarebbe lo scenario peggiore 732 00:34:42,749 --> 00:34:45,293 rispetto ai valori morali della comunità. 733 00:34:45,752 --> 00:34:47,295 Che pensiero inquietante. 734 00:34:47,587 --> 00:34:50,298 Sarà meglio concludere l'episodio con qualcosa di più confortante. 735 00:34:50,966 --> 00:34:52,384 O addirittura paradisiaco. 736 00:34:55,345 --> 00:34:58,682 Prima di immaginare un futuro stile Grand Theft Auto 737 00:34:58,765 --> 00:35:00,725 in cui ci si basa sulla negligenza dei pedoni, 738 00:35:00,809 --> 00:35:02,310 facciamo una piccola gita 739 00:35:02,394 --> 00:35:04,145 dove tutto è iniziato. 740 00:35:07,399 --> 00:35:08,608 In questa remota foresta indiana, 741 00:35:08,692 --> 00:35:11,820 viene raccolto il miele per un'azienda chiamata Heavenly Organics. 742 00:35:12,612 --> 00:35:14,906 Questa foresta non appartiene a nessuno 743 00:35:14,990 --> 00:35:19,035 e la gente del posto vive qui da una vita. 744 00:35:19,744 --> 00:35:22,038 Padre e figlio, Amit e Ishwar Hooda, 745 00:35:22,163 --> 00:35:24,291 hanno avviato la loro azienda 12 anni fa 746 00:35:24,374 --> 00:35:27,127 per offrire lavoro alla gente del posto. 747 00:35:27,210 --> 00:35:31,131 Cosa facevano prima di raccogliere il miele per voi? 748 00:35:31,214 --> 00:35:33,341 Raccoglievano già il miele, 749 00:35:34,092 --> 00:35:37,345 ma non avevano un mercato e non sapevano come venderlo 750 00:35:37,470 --> 00:35:39,014 per guadagnarsi da vivere. 751 00:35:40,056 --> 00:35:42,392 Di certo il miele non manca, qui. 752 00:35:42,809 --> 00:35:44,102 Durante il periodo della fioritura, 753 00:35:44,185 --> 00:35:48,023 un lavoratore può arrivare a raccogliere una tonnellata di miele in tre mesi. 754 00:35:48,857 --> 00:35:51,443 Ma a che pro, se nessuno lo compra? 755 00:35:54,154 --> 00:35:57,490 Alla nostra troupe sono serviti tre giorni, due aerei 756 00:35:57,574 --> 00:36:00,827 e otto ore di auto in una foresta nazionale, 757 00:36:01,286 --> 00:36:04,289 ma fortunatamente per la gente del posto e per Heavenly Organics 758 00:36:04,372 --> 00:36:07,751 un algoritmo di una IA ha trovato questo posto in pochi secondi 759 00:36:07,834 --> 00:36:10,462 individuandone le potenzialità in termini di investimento. 760 00:36:10,545 --> 00:36:13,882 Ci hanno chiamato all'improvviso dicendo che, grazie a un algoritmo, 761 00:36:13,965 --> 00:36:17,010 avevano scoperto che ciò che noi fornivamo 762 00:36:17,510 --> 00:36:19,137 era ciò che serviva a loro. 763 00:36:19,220 --> 00:36:22,807 Hanno chiesto di poter investire nella nostra azienda. 764 00:36:23,141 --> 00:36:25,644 E a chi apparteneva questo misterioso algoritmo? 765 00:36:26,478 --> 00:36:28,480 A un'azienda tecnologica chiamata CircleUp 766 00:36:28,563 --> 00:36:31,316 situata a 12.800 km di distanza. E dove, secondo voi? 767 00:36:33,526 --> 00:36:36,655 Siamo da Good Eggs, alimentari online che consegna a domicilio 768 00:36:36,738 --> 00:36:39,616 e che ha dimostrato interesse per l'IA della CircleUp. 769 00:36:39,699 --> 00:36:42,744 È una società automatizzata che ha aumentato il capitale grazie a CircleUp 770 00:36:42,827 --> 00:36:47,415 aiutando le piccole attività collegandole con i potenziali clienti. 771 00:36:47,499 --> 00:36:48,500 RORY EAKIN CO-FONDATORE E DIR. OP. CIRCLEUP 772 00:36:48,583 --> 00:36:50,126 Rory Eakin, direttore operativo di CircleUp, 773 00:36:50,210 --> 00:36:53,254 si è occupato di affari e ha lavorato in enti umanitari 774 00:36:53,338 --> 00:36:54,881 prima di avviare la propria azienda. 775 00:36:54,965 --> 00:36:58,385 CircleUp sfrutta l'IA per analizzare miliardi di dati 776 00:36:58,468 --> 00:37:00,637 e scoprire cosa cercano i clienti 777 00:37:00,762 --> 00:37:02,222 nel cibo e nei prodotti sanitari. 778 00:37:02,305 --> 00:37:03,640 Il problema di un acquirente 779 00:37:03,723 --> 00:37:05,308 è doversi confrontare con centinaia di aziende 780 00:37:05,392 --> 00:37:07,018 per ogni singola categoria. 781 00:37:07,560 --> 00:37:09,938 Poi investono in aziende poco conosciute 782 00:37:10,021 --> 00:37:12,774 che l'IA ritiene possano avere successo. 783 00:37:13,066 --> 00:37:15,902 Com'è successo con il gelato Halo Top. 784 00:37:17,988 --> 00:37:21,950 Il gelato Halo Top era un piccolo marchio della California del Sud. 785 00:37:22,033 --> 00:37:24,369 Oggi è il più venduto nel Paese. 786 00:37:25,412 --> 00:37:28,873 C'è stato un notevole cambiamento da parte di chi compra. 787 00:37:28,957 --> 00:37:31,126 La gente oggi vuole prodotti più sani, 788 00:37:31,209 --> 00:37:33,128 meno tossine in casa propria 789 00:37:33,211 --> 00:37:35,797 e creme senza prodotti chimici. 790 00:37:36,172 --> 00:37:39,884 Valutati miliardi di dati sui consumatori, l'algoritmo di CircleUp 791 00:37:39,968 --> 00:37:42,512 ha scoperto che ciò che vogliono 792 00:37:42,595 --> 00:37:45,056 è incredibilmente specifico. 793 00:37:45,140 --> 00:37:47,475 Aziende con obiettivi chiari e rispettose dell'ambiente, 794 00:37:47,600 --> 00:37:50,687 prodotti biologici che giovino alla crescita dell'economia 795 00:37:50,770 --> 00:37:51,855 della comunità di appartenenza. 796 00:37:52,480 --> 00:37:54,315 Sembrano richieste troppo specifiche, vero? 797 00:37:54,858 --> 00:37:58,987 Ma, tenendole in considerazione, CircleUp ha trovato Heavenly Organics. 798 00:37:59,946 --> 00:38:01,573 Ecco cosa può fare l'IA. 799 00:38:01,656 --> 00:38:03,658 Dà un senso a tutti quei dati 800 00:38:03,742 --> 00:38:07,078 così come dieci anni fa non sarebbe stato mai possibile fare. 801 00:38:07,746 --> 00:38:11,332 E come funziona la collaborazione tra CircleUp e Heavenly Organics? 802 00:38:12,208 --> 00:38:15,045 Torniamo in India e chiediamolo ad Amit e a Ishwar. 803 00:38:18,006 --> 00:38:20,842 Ora la nostra fabbrica è grande il doppio. 804 00:38:21,509 --> 00:38:24,137 Possiamo puntare sull'innovazione e ottenere nuovi prodotti. 805 00:38:24,220 --> 00:38:26,765 Fare la differenza in questa zona. 806 00:38:26,848 --> 00:38:29,142 -Vi hanno aiutati nella scalabilità. -Esatto. 807 00:38:29,225 --> 00:38:31,811 In termini di portata e scalabilità. 808 00:38:31,895 --> 00:38:34,773 Che impatto ha avuto la cosa sui vostri dipendenti? 809 00:38:34,856 --> 00:38:37,400 Attualmente sosteniamo 650 famiglie. 810 00:38:37,484 --> 00:38:39,486 Più cresciamo, più miele vendiamo. 811 00:38:39,569 --> 00:38:41,780 Ogni 1.000 chili, viene aggiunta una famiglia. 812 00:38:41,863 --> 00:38:45,033 Il che significa che l'anno prossimo arriveremo a 700 o 750 famiglie. 813 00:38:45,116 --> 00:38:46,534 -Caspita. -Già. 814 00:38:46,618 --> 00:38:50,914 Oggi le loro condizioni finanziarie sono migliorate molto. 815 00:38:50,997 --> 00:38:54,125 Hanno belle case dotate dei giusti comfort. 816 00:38:54,209 --> 00:38:56,127 Mandano i figli a scuola. 817 00:38:56,503 --> 00:38:58,213 Una sorta di capitalismo per il bene comune. 818 00:38:58,296 --> 00:38:59,339 Mi spiego? 819 00:38:59,422 --> 00:39:02,217 È questo lo scopo di questa azienda. 820 00:39:02,884 --> 00:39:04,511 È sempre stato il nostro obiettivo. 821 00:39:06,429 --> 00:39:09,641 L'intelligenza artificiale avrà la meglio e spodesterà l'umanità? 822 00:39:09,724 --> 00:39:12,685 O ci costringerà a interrogarci su che scopo dovrà avere la nostra vita? 823 00:39:13,394 --> 00:39:16,648 Finora, in questo angolo di mondo, ha avuto un impatto positivo. 824 00:39:17,982 --> 00:39:19,734 Forse esiste uno scenario in cui l'IA 825 00:39:19,818 --> 00:39:22,779 saprà fornirci una valutazione precisa dei nostri dati 826 00:39:22,862 --> 00:39:25,782 stabilendo che non siamo poi così male e che possiamo collaborare 827 00:39:26,241 --> 00:39:30,161 per creare un nuovo mondo di benessere e armonia tra umani e robot. 828 00:39:31,663 --> 00:39:32,747 O forse no. 829 00:39:33,790 --> 00:39:36,084 In tal caso, ci resta poco tempo. 830 00:39:36,501 --> 00:39:38,962 Quindi godetevi queste spogliarelliste robot. 831 00:40:26,217 --> 00:40:29,012 Fantastico! Sì! 832 00:40:31,055 --> 00:40:32,348 Sei stata bravissima! 833 00:40:32,432 --> 00:40:33,933 Datele un asciugamano.