1 00:00:08,510 --> 00:00:11,972 Ich stehe hier auf der Wall Street, wo alles begann. 2 00:00:13,515 --> 00:00:17,227 Am 6. Mai 2010 um 14:45 Uhr 3 00:00:17,603 --> 00:00:21,106 schickte ein Typ aus dem Haus seiner Eltern in London 4 00:00:21,482 --> 00:00:24,359 einen Algorithmus an die New Yorker Börse 5 00:00:24,777 --> 00:00:27,362 mit einem Verkaufsauftrag über eine Milliarde Dollar. 6 00:00:28,530 --> 00:00:32,534 Er wollte den Markt täuschen und den Auftrag vor der Durchführung abbrechen. 7 00:00:32,910 --> 00:00:36,830 Doch bevor es dazu kam, begannen weltweit automatisierte Handelsprogramme 8 00:00:37,206 --> 00:00:40,167 auch zu verkaufen. Sie verursachten eine Kettenreaktion, 9 00:00:40,542 --> 00:00:42,753 die den Markt abstürzen ließ. 10 00:00:44,630 --> 00:00:48,634 Der Dow-Jones-Index fiel um 1.000 Punkte in nur 15 Minuten. 11 00:00:49,009 --> 00:00:52,221 Also fast so viel wie der Sturz, der die Große Depression einleitete. 12 00:00:52,596 --> 00:00:56,308 Was zum Teufel ist hier los? Der Markt ist jedenfalls verängstigt. 13 00:00:57,100 --> 00:00:59,686 Kreuzfahrt stornieren. Kinder auf die öffentliche Schule. 14 00:01:00,771 --> 00:01:02,523 Ein Flashcrash, Leute. 15 00:01:02,898 --> 00:01:04,233 Tja, Scheiße. 16 00:01:05,359 --> 00:01:07,820 36 Minuten später erholte sich der Markt. 17 00:01:08,195 --> 00:01:12,825 Doch der Flashcrash von 2010 ließ die Menschen das erste Mal 18 00:01:13,200 --> 00:01:15,702 nachdrücklich am eigenen Leib spüren, 19 00:01:16,078 --> 00:01:19,206 wie künstliche Intelligenz unser Finanzsystem übernehmen würde. 20 00:01:20,707 --> 00:01:23,043 Sie sollten sehen, an welchem Punkt sie jetzt ist. 21 00:01:23,919 --> 00:01:26,588 Deswegen suche ich hier in Indien Waldhonig. 22 00:01:27,464 --> 00:01:28,674 Dazu später. 23 00:01:29,049 --> 00:01:31,468 Um zu verstehen, wie KI diesen Ort gefunden hat, 24 00:01:31,844 --> 00:01:36,515 muss man erst verstehen, was KI ist. Sie glauben es zu wissen? Falsch. 25 00:01:37,850 --> 00:01:41,436 Ob es Ihnen gefällt oder nicht: Geld ist, was uns alle verbindet. 26 00:01:41,937 --> 00:01:45,274 Ich bin Kal Penn. Ich erforsche die gigantische Bestie, 27 00:01:45,941 --> 00:01:49,486 die man die Weltwirtschaft nennt. 28 00:01:51,738 --> 00:01:54,283 Was genau ist KI? 29 00:01:54,867 --> 00:01:58,161 Ich bin in San Francisco, um erst mal klarzumachen, was sie nicht ist. 30 00:01:58,579 --> 00:02:01,373 Also alles, was uns Science Fiction weismacht. 31 00:02:02,541 --> 00:02:03,584 Besonders ... 32 00:02:03,959 --> 00:02:06,879 Verdammt große Roboter! 33 00:02:27,190 --> 00:02:28,775 Oh mein Gott. 34 00:02:30,277 --> 00:02:36,283 Ich bin hier mit Julia Bossmann vom KI-Gremium des Weltwirtschaftsforums, 35 00:02:36,658 --> 00:02:40,370 das führende Politiker berät, wie sich KI am besten nutzen lässt. 36 00:02:40,746 --> 00:02:44,541 In dem Job darf man nicht nur zuschauen, wie Autos demoliert werden. 37 00:02:44,917 --> 00:02:48,795 Man darf auch Selfies mit Kanadas Sexsymbol machen. Nicht Drake. 38 00:02:52,966 --> 00:02:56,845 Wie kommst du danach nach Hause? - Ich glaube, das fährt noch. 39 00:03:00,515 --> 00:03:02,351 Die Firma Megabots 40 00:03:02,726 --> 00:03:05,896 baut Riesenroboter, die gegen andere Roboter kämpfen. 41 00:03:07,648 --> 00:03:10,734 Wie in einer Art Technik-Mittelalter. 42 00:03:13,528 --> 00:03:17,366 Laut Julia sind die Roboter nicht nur Vergnügungsparkattraktionen, 43 00:03:17,741 --> 00:03:22,871 sondern technische Dinosaurier, weil es einen großen Unterschied gibt. 44 00:03:24,122 --> 00:03:27,292 In diesen Robotern sind wir das Gehirn, aber KI sind künstliche Gehirne. 45 00:03:27,668 --> 00:03:29,419 Kannst du das näher erklären? 46 00:03:29,795 --> 00:03:34,216 Wir bauen inzwischen Computer, die unabhängig von uns lernen können. 47 00:03:34,591 --> 00:03:36,718 Sie müssen keinen Körper haben. 48 00:03:37,094 --> 00:03:41,431 Der Großteil unserer KI existiert schon in riesigen Datenzentren. 49 00:03:41,807 --> 00:03:44,351 Wenn du das jemandem erklären müsstest, 50 00:03:44,726 --> 00:03:47,646 der 13 Jahre alt ist, wie würdest du das erklären? 51 00:03:48,021 --> 00:03:52,109 Eine sehr allgemeine Definition wäre, dass KI 52 00:03:53,318 --> 00:03:57,572 Maschinen dazu bringt, Dinge zu tun, ohne dass wir sie programmiert haben. 53 00:03:58,240 --> 00:04:00,784 Beim traditionellen Programmieren 54 00:04:01,159 --> 00:04:04,079 legt man Regeln und Algorithmen fest: Wenn das, dann das. 55 00:04:04,454 --> 00:04:06,873 Die menschlichen Programmierer legen alles fest. 56 00:04:07,249 --> 00:04:11,586 Es gibt in der Medizin Datenbanken mit Millionen Einträgen. 57 00:04:12,129 --> 00:04:14,381 Kein Arzt könnte die alle lesen, 58 00:04:14,756 --> 00:04:17,509 um sich auf dem Laufenden zu halten. Eine Maschine schon. 59 00:04:17,884 --> 00:04:21,263 Es ist also vorstellbar, dass eine Maschine neue Lösungen entwickelt 60 00:04:21,638 --> 00:04:25,642 oder neue Medikamente entdeckt, um Krankheiten zu heilen. - Wow, okay. 61 00:04:26,018 --> 00:04:30,105 Der KI-Bereich, der momentan für die größte Aufregung sorgt, 62 00:04:30,480 --> 00:04:33,275 heißt "Deep Learning". - Was ist Deep Learning? 63 00:04:33,650 --> 00:04:38,613 Wenn wir mehrere Schichten neuronaler Netze haben, 64 00:04:38,989 --> 00:04:41,950 die der Struktur unserer Gehirne ähneln. 65 00:04:42,325 --> 00:04:46,496 Unsere Neuronen sind vernetzt und tauschen Informationen aus. 66 00:04:46,830 --> 00:04:50,834 Das simulieren wir gewissermaßen mit Maschinen. 67 00:04:51,418 --> 00:04:55,797 Wir füttern sie mit ausgewogenen objektiven Daten, damit sie lernen. 68 00:04:56,173 --> 00:05:01,094 Bei der Bilderkennung sagen wir: "Das sind Katzenbilder, das sind Hunde." 69 00:05:01,470 --> 00:05:04,973 Dann gehen sie die Bilder durch und lernen allein, 70 00:05:05,348 --> 00:05:09,770 woran sie diese erkennen. Wir müssen nicht jedes Detail einprogrammieren. 71 00:05:10,145 --> 00:05:13,732 Interessant. - Es gibt maschinelles Lernen, das nicht Deep Learning ist. 72 00:05:14,608 --> 00:05:16,526 Es gibt evolutionäre Algorithmen, 73 00:05:16,902 --> 00:05:19,529 wo wir das Evolutionsprinzip anwenden 74 00:05:19,905 --> 00:05:24,242 und die Maschinen unterschiedliche Lösungen ausprobieren lassen. 75 00:05:24,618 --> 00:05:26,870 Dann sehen wir, welche am besten funktioniert. 76 00:05:27,245 --> 00:05:30,707 Die, die am besten funktionieren, werden der nächsten Generation zugewiesen. 77 00:05:31,249 --> 00:05:34,002 Nach dem Prinzip, wie sich auch Organismen weiterentwickeln, 78 00:05:34,377 --> 00:05:37,547 überleben die fittesten und besten Programme. - Wow. 79 00:05:38,340 --> 00:05:40,258 Das sind evolutionäre Algorithmen. 80 00:05:40,634 --> 00:05:43,678 Welche finanziellen Interessen treiben die Erforschung von KI voran? 81 00:05:44,054 --> 00:05:47,474 Der potenzielle Einfluss auf die Wirtschaft muss riesig sein. 82 00:05:47,849 --> 00:05:50,227 Sie wird die Wirtschaft radikal verändern. 83 00:05:50,602 --> 00:05:53,396 Eine neue industrielle Revolution. - Interessant. 84 00:05:53,772 --> 00:05:58,443 Man nennt sie "unsere letzte Erfindung", denn wenn KI-Hirne klüger sind als wir, 85 00:05:58,819 --> 00:06:00,821 können sie das Erfinden übernehmen. 86 00:06:01,196 --> 00:06:03,573 "Unsere letzte", weil sie uns tötet? 87 00:06:04,825 --> 00:06:06,201 Hoffentlich nicht. 88 00:06:08,703 --> 00:06:13,458 Viele haben Angst, dass KI zu klug wird und uns alle umbringt. 89 00:06:13,834 --> 00:06:18,922 Keine Sorge. KI ist unter anderem deshalb so klug, weil sie so dumm ist. 90 00:06:19,297 --> 00:06:20,590 Komm her, KI. 91 00:06:21,133 --> 00:06:22,676 Angenommen, Sie bitten KI, 92 00:06:23,051 --> 00:06:26,263 das perfekte Kuchenrezept mittels evolutionärer Algorithmen zu finden. 93 00:06:27,848 --> 00:06:31,143 KI würde nicht darüber nachdenken, wie man es macht, sondern ausprobieren. 94 00:06:32,144 --> 00:06:35,689 Milliarden Male. Mit jeder Zutat in der Küche. 95 00:06:36,064 --> 00:06:38,066 Auf jede erdenklich dumme Art. 96 00:06:38,441 --> 00:06:41,278 Die meisten sind natürlich zum Scheitern verurteilt. 97 00:06:41,945 --> 00:06:43,655 Diese hier ganz sicher. 98 00:06:44,239 --> 00:06:45,699 Netter Versuch, Trottel. 99 00:06:46,491 --> 00:06:50,203 Versagen kränkt KI nicht, weil sie keine Gefühle hat. 100 00:06:50,579 --> 00:06:53,290 Das Tolle an evolutionären Algorithmen ist, 101 00:06:53,665 --> 00:06:55,750 dass KI durch diese ganzen dummen Versuche 102 00:06:56,293 --> 00:07:01,173 auf die Lösung für ein kulinarisches Problem stößt, das unlösbar schien. 103 00:07:01,548 --> 00:07:03,800 Wie ein gelungener veganer Kuchen. 104 00:07:04,176 --> 00:07:07,220 Der Kuchen ist fertig. - Gute Arbeit, KI. 105 00:07:07,596 --> 00:07:09,848 Er besteht hauptsächlich aus Cashews. 106 00:07:10,223 --> 00:07:14,019 Hätten Sie daran gedacht, Cashews zu benutzen? Nein! Das wäre idiotisch. 107 00:07:14,394 --> 00:07:17,898 KI ist bereit, idiotisch zu sein, damit Sie es nicht sein müssen. 108 00:07:18,273 --> 00:07:20,650 Könnte diese Idiotin so klug werden, 109 00:07:21,026 --> 00:07:23,695 dass sie die Macht ergreift und uns alle tötet? 110 00:07:24,070 --> 00:07:26,948 Schwer zu sagen. - Ich lerne Abschuss-Codes. 111 00:07:27,324 --> 00:07:29,201 Aber bis dahin 112 00:07:29,576 --> 00:07:31,745 nehmen Sie sich doch ein Stück Kuchen. 113 00:07:34,998 --> 00:07:39,294 Ich mache mir immer noch Sorgen, dass KI mehr Probleme schafft als löst. 114 00:07:41,296 --> 00:07:44,174 Aber Fachleute sind sich einig, dass sie die Produktivität in Sparten 115 00:07:44,549 --> 00:07:47,469 wie Medizin, Transportwesen und Finanzen erhöhen 116 00:07:47,844 --> 00:07:51,890 und das Bruttoweltprodukt bis 2030 um 15,7 Billionen Dollar steigern wird. 117 00:07:52,349 --> 00:07:56,561 Das ist mehr als die jetzige Leistung von Indien und China zusammen. 118 00:07:59,689 --> 00:08:02,359 Wie groß ist diese ganze KI-Sache? 119 00:08:02,734 --> 00:08:05,987 Für mich ist sie eine der drei größten Sachen in der Geschichte. 120 00:08:06,363 --> 00:08:08,490 In der Geschichte der Menschheit? - Ja. 121 00:08:09,532 --> 00:08:11,368 Ich spreche mit Andrew Mcafee, 122 00:08:11,743 --> 00:08:15,372 Fachmann auf dem Gebiet, wie neue Technologien die Wirtschaft verändern. 123 00:08:15,747 --> 00:08:19,584 Und infolgedessen die gesamte menschliche Gesellschaft. 124 00:08:20,252 --> 00:08:23,922 Würde man die Geschichte der Menschheit graphisch darstellen, würde Jahrtausende 125 00:08:24,297 --> 00:08:27,217 nichts passieren. Da wäre nur eine gerade Linie. 126 00:08:27,592 --> 00:08:30,345 Graphisch wären wir so gut wie tot. 127 00:08:30,804 --> 00:08:34,557 Und auf einmal schoss diese Kurve der Geschichte der Menschheit 128 00:08:34,933 --> 00:08:37,727 aus der langweiligen Horizontale in die Vertikale. 129 00:08:38,103 --> 00:08:40,939 Von einem Augenblick auf den anderen. Etwa um 1800. 130 00:08:41,314 --> 00:08:45,485 Erstens wegen der Dampfkraft und zweitens wegen der Elektrizität. 131 00:08:47,654 --> 00:08:50,365 Einige Zusammenhänge sind offensichtlich. 132 00:08:50,740 --> 00:08:53,410 Dank Strom haben wir Straßenbahnen und U-Bahnen. 133 00:08:53,785 --> 00:08:56,621 Weniger offensichtlich ist, dass dadurch Städte in die Höhe wuchsen. 134 00:08:56,997 --> 00:08:59,416 Dank Elektrizität? - Man braucht Aufzüge. 135 00:08:59,791 --> 00:09:03,420 Ohne gäbe es keine vertikale Stadt. Man kann nicht 80 Treppen steigen. 136 00:09:03,795 --> 00:09:05,297 Die beiden Revolutionen, 137 00:09:05,714 --> 00:09:08,925 Dampf und die Kombination Elektrizität und Verbrennungsmotor, 138 00:09:09,301 --> 00:09:12,178 haben die Geschichte der Menschheit verändert. 139 00:09:12,679 --> 00:09:16,808 Das waren Technologien, mittels derer wir die Grenzen unserer Kraft aufhoben. 140 00:09:17,225 --> 00:09:22,647 Mit KI heben wir die Grenzen unserer Denkleistung auf, unserer Geisteskraft. 141 00:09:24,232 --> 00:09:26,192 Vor uns stehen große Herausforderungen. 142 00:09:26,568 --> 00:09:29,362 Sehr große Herausforderungen. Wir sollten Krebs heilen. 143 00:09:29,738 --> 00:09:33,450 Wir sollten mehr Menschen ernähren und den Planeten nicht weiter erhitzen. 144 00:09:33,825 --> 00:09:35,994 Unglaublich komplexe Probleme. 145 00:09:36,369 --> 00:09:39,706 Unsere Hirne rackern sich ab. Wir probieren es mit Wissenschaft, 146 00:09:40,081 --> 00:09:41,416 mit Wissen. 147 00:09:41,791 --> 00:09:45,170 Doch die Komplexität ist erdrückend. Für mich ist KI 148 00:09:45,545 --> 00:09:48,131 eine extrem kraftvolle neue Kollegin, 149 00:09:48,506 --> 00:09:51,301 die uns Zugang zu dieser Komplexität verschafft. 150 00:09:51,676 --> 00:09:54,763 Diese neuen Technologien können nämlich hervorragend 151 00:09:55,138 --> 00:09:59,142 sogar subtilste Muster in überwältigend großen Datenmengen erkennen, 152 00:09:59,517 --> 00:10:01,061 die uns überfordern. 153 00:10:01,436 --> 00:10:04,773 Eins der verrücktesten Beispiele kam kürzlich aus dem Finanzsektor. 154 00:10:05,148 --> 00:10:07,650 Dort gibt es jetzt Robo-Advisors. 155 00:10:08,026 --> 00:10:11,446 Das ist ein Algorithmus, der Ihr Anlageportfolio zusammenstellt. 156 00:10:11,821 --> 00:10:14,866 Bisher musste man über ein gewisses Vermögen verfügen, 157 00:10:15,241 --> 00:10:18,370 um überhaupt einen Termin beim Finanzberater zu bekommen. 158 00:10:19,162 --> 00:10:22,290 Das ändert sich momentan. Dank Angeboten wie Robo-Advisor 159 00:10:22,665 --> 00:10:26,169 erhalten Leute mit immer weniger Vermögen Zugang zu 160 00:10:26,544 --> 00:10:30,673 extrem wirksamen modernen Werkzeugen, um ihre Finanzen aufzubessern. 161 00:10:31,049 --> 00:10:33,968 Das ist wirklich spannend, weil es immer schien, 162 00:10:34,344 --> 00:10:37,222 als könnten Leute anderen damit schaden. 163 00:10:37,597 --> 00:10:39,516 Wir haben trotzdem Grund zur Sorge. 164 00:10:40,141 --> 00:10:44,396 Auch die letzten industriellen Revolutionen hatten Schattenseiten. 165 00:10:44,771 --> 00:10:48,858 Wir haben die Kriegsführung mechanisiert mittels industrieller Technologien. 166 00:10:49,234 --> 00:10:52,195 Wir haben die Umwelt unglaublich verschmutzt. 167 00:10:52,570 --> 00:10:54,155 Wir begingen Riesenfehler, 168 00:10:54,531 --> 00:10:57,325 wie zum Beispiel massenhafte Kinderarbeit. 169 00:10:57,700 --> 00:11:00,578 Also ist nicht alles gut, jedenfalls nicht immer für alle. 170 00:11:00,954 --> 00:11:03,915 Das Gleiche wird auch diesmal passieren. 171 00:11:04,290 --> 00:11:05,375 Verdammt. 172 00:11:06,751 --> 00:11:09,671 Jetzt bin ich besorgt. Was, wenn sich die Geschichte wiederholt 173 00:11:10,046 --> 00:11:13,633 und KI die Gesellschaft zum Negativen verändert? 174 00:11:14,342 --> 00:11:18,513 Wie hemmungslose Umweltverschmutzung und winzige rußgeschwärzte Mitarbeiter? 175 00:11:19,806 --> 00:11:23,685 Welche moralischen und ethischen Fragen werfen mächtige neue Technologien auf? 176 00:11:24,769 --> 00:11:27,355 Geht man durch Londons Computermuseum, 177 00:11:27,730 --> 00:11:30,692 sieht man viele Maschinen, die die Menschheit voranbringen sollten. 178 00:11:31,067 --> 00:11:33,069 Wie der zwei Tonnen schwere "Harwell", 179 00:11:33,445 --> 00:11:37,157 der Berechnungen für Forschungszwecke anstellen sollte. 180 00:11:37,532 --> 00:11:38,992 Er stammt aus den 50ern. 181 00:11:39,367 --> 00:11:43,079 Aber wer weiß schon, wofür eine neue Technologie letztendlich benutzt wird. 182 00:11:43,455 --> 00:11:45,790 Könnte man darauf Pornos sehen? 183 00:11:46,166 --> 00:11:49,836 Na ja, vielleicht in sehr schlechter Auflösung. 184 00:11:51,713 --> 00:11:54,215 Ich rede mit Programmierer Alan Zucconi, 185 00:11:54,591 --> 00:11:57,260 der hier in London am Goldsmiths unterrichtet. 186 00:11:57,635 --> 00:12:00,430 Er hat tolle technische Erfindungen mit entwickelt, 187 00:12:00,805 --> 00:12:03,933 wie Gamecontroller für Körperbehinderte. 188 00:12:05,477 --> 00:12:07,645 Laut ihm steht uns eins der größten moralischen Dilemmas 189 00:12:08,021 --> 00:12:09,898 der Technikgeschichte bevor. 190 00:12:10,273 --> 00:12:13,776 KI reproduziert menschliches Verhalten inzwischen so gut, 191 00:12:14,444 --> 00:12:16,613 dass sie als Mensch durchgehen könnte. 192 00:12:16,779 --> 00:12:18,072 Was ist das? 193 00:12:18,781 --> 00:12:21,367 Einer der ersten Rechner der Welt. 194 00:12:21,743 --> 00:12:24,245 Gebaut von Alan Turing und seinem Team. 195 00:12:24,787 --> 00:12:30,376 Die Maschine war in der Lage, den Enigma-Code der Nazis zu entschlüsseln. 196 00:12:30,752 --> 00:12:32,212 Wow. 197 00:12:32,587 --> 00:12:34,923 Turing gilt als Vater der modernen Informatik. 198 00:12:35,298 --> 00:12:38,510 Und wenn er nicht gerade für die Alliierten Nazicodes knackte, 199 00:12:38,885 --> 00:12:42,305 entwickelte er den sogenannten Turing-Test. 200 00:12:43,515 --> 00:12:46,184 Wie können wir einen Mensch von einer Maschine unterscheiden? 201 00:12:46,559 --> 00:12:49,395 Wenn wir sie nicht unterscheiden können, 202 00:12:49,771 --> 00:12:52,815 besteht die Maschine das sogenannte "Imitationsspiel". 203 00:12:53,191 --> 00:12:56,152 Die Maschine versucht, menschliches Verhalten zu imitieren. 204 00:12:56,528 --> 00:12:58,738 Daraus besteht der Turing-Test, 205 00:12:59,113 --> 00:13:02,158 und so eine Maschine hätte ihn durchlaufen können. 206 00:13:02,534 --> 00:13:06,037 Für den Test gibt ein Mensch Fragen in die Maschine ein, 207 00:13:06,913 --> 00:13:11,209 während eine dritte Person einschätzt, ob die Antworten von einem Menschen 208 00:13:11,584 --> 00:13:13,586 oder einer Maschine stammen. 209 00:13:13,962 --> 00:13:15,630 Wie alt bist du? 210 00:13:17,840 --> 00:13:19,842 Na bitte. Es weiß, wie alt es ist. 211 00:13:20,218 --> 00:13:24,722 "Geboren im Jahr 1912. Ich bin also 105 Jahre alt." 212 00:13:27,517 --> 00:13:30,353 Zu Turings Zeiten ließ sich der Computer leicht erkennen. 213 00:13:31,145 --> 00:13:33,856 Aber heutzutage kann KI menschliches Verhalten studieren 214 00:13:34,232 --> 00:13:37,110 und sich selbst entsprechend programmieren. 215 00:13:37,485 --> 00:13:39,487 Hören Sie sich mal das hier an: 216 00:13:39,862 --> 00:13:43,116 Normalerweise würde ich zuerst einen Witz über Datenwissenschaften erzählen. 217 00:13:43,491 --> 00:13:46,244 Aber meine Mitarbeiter hatten nur schlechte auf Lager. 218 00:13:46,494 --> 00:13:47,453 Und das hier. 219 00:13:47,620 --> 00:13:51,666 Unsere Feinde können uns jederzeit Worte in den Mund legen. 220 00:13:52,041 --> 00:13:55,044 Letzteres wurde in Wirklichkeit von "Buzzfeed" geschaffen, 221 00:13:55,420 --> 00:13:57,380 mit dem Schauspieler Jordan Peele. 222 00:13:57,755 --> 00:14:02,260 Daraufhin begannen viele Leute, sich um Fake News von KI zu sorgen. 223 00:14:02,635 --> 00:14:06,264 Wir müssen vorsichtiger sein, welcher Quelle im Internet wir trauen. 224 00:14:06,639 --> 00:14:09,851 KI studierte Peeles Mimik und verschmolz sie 225 00:14:10,226 --> 00:14:12,478 mit den Bewegungen von Obamas Gesicht. 226 00:14:12,854 --> 00:14:15,398 Diesen Hybrid nennt man "Deepfake". 227 00:14:15,773 --> 00:14:20,987 Auf Snapchat gibt es etwas Ähnliches. Einen Filter, der Gesichter tauscht. 228 00:14:21,362 --> 00:14:24,824 Allerdings ist dieser Filter nicht sehr ausgefeilt. 229 00:14:25,199 --> 00:14:28,244 Doch die Technologie für Deepfakes greift auf KI zurück. 230 00:14:28,620 --> 00:14:31,164 Sie beruht auf Deep Learning. 231 00:14:31,539 --> 00:14:34,709 Künstliche neuronale Netze extrahieren Gesichtsausdrücke. 232 00:14:35,084 --> 00:14:37,295 Sie bilden dein Gesicht nach. 233 00:14:37,670 --> 00:14:41,549 Auf die Weise erreichen wir fotorealistische Ergebnisse. 234 00:14:42,717 --> 00:14:45,428 Alan erstellt Anleitungen, wie man Deepfakes macht. 235 00:14:45,803 --> 00:14:48,514 Er findet, dass sich diese Technik ungehindert verbreiten sollte, 236 00:14:49,307 --> 00:14:53,561 ohne Einschränkungen, auch wenn sie den dritten Weltkrieg auslösen könnte. 237 00:14:54,812 --> 00:14:56,981 Wie kann man mit Sicherheit sagen, 238 00:14:57,357 --> 00:14:59,359 was real ist und was nicht? - Ja. 239 00:14:59,734 --> 00:15:05,156 Wenn ein Verbraucher Nachrichten sieht, seien es Artikel, Videos oder Fotos, 240 00:15:05,531 --> 00:15:07,575 ist das alles menschengemacht. 241 00:15:07,950 --> 00:15:10,995 "Was für eine Erzählung steckt dahinter? Welche Absicht?" 242 00:15:11,371 --> 00:15:14,123 Ich verstehe, warum das ... - ... gefährlich ist. 243 00:15:14,499 --> 00:15:18,836 Gefährlich. Aber ich frage mich auch: "Wie soll das Leuten helfen?" 244 00:15:19,253 --> 00:15:23,174 Du hast bestimmt mit Leuten geredet, die sich Gedanken darüber machen, 245 00:15:23,549 --> 00:15:25,593 wie man das zu Geld machen kann. 246 00:15:25,968 --> 00:15:28,596 Was bedeutet das konkret für die Wirtschaft? 247 00:15:28,971 --> 00:15:32,016 Die erste Branche, die sich die Technik zunutze macht, 248 00:15:32,392 --> 00:15:35,019 wird sicher die Filmindustrie sein. Einfach deshalb, 249 00:15:35,395 --> 00:15:39,649 weil Filme seit Jahrzehnten damit arbeiten, Gesichter anzupassen. 250 00:15:40,024 --> 00:15:43,403 Normalerweise verwendet man Make-up, Masken oder Computeranimation. 251 00:15:43,778 --> 00:15:48,324 Als jemand, der schauspielert und in der Politik tätig war, macht mir das Angst. 252 00:15:48,700 --> 00:15:50,284 Das sollte es. 253 00:15:51,202 --> 00:15:55,081 Buzzfeed führte allen vor Augen, wie verletzlich wir sind. 254 00:15:55,748 --> 00:15:59,252 In Zeiten, wo der Präsident mit einem Satz die Märkte beeinflussen kann, 255 00:15:59,627 --> 00:16:02,004 könnte ein gut gemachter Deepfake die Weltwirtschaft 256 00:16:02,380 --> 00:16:04,757 schneller abstürzen lassen als ein Flashcrash. 257 00:16:05,133 --> 00:16:08,177 Ihre Altersvorsorge wäre schneller vernichtet als Obama sagen könnte: 258 00:16:08,386 --> 00:16:09,554 Augen auf. 259 00:16:10,555 --> 00:16:12,682 Klingt das ein bisschen nach Science Fiction? 260 00:16:13,057 --> 00:16:14,851 Vielleicht sogar unheimlich? 261 00:16:15,226 --> 00:16:17,645 Wenn KI lernen kann, wie wir uns bewegen, 262 00:16:18,020 --> 00:16:19,731 reden und denken, 263 00:16:20,106 --> 00:16:23,901 ist sie irgendwann nicht mehr von uns zu unterscheiden. 264 00:16:24,444 --> 00:16:26,362 Und wenn KI ein eigenes Bewusstsein hat, 265 00:16:26,738 --> 00:16:29,574 könnte sie auch eine Meinung über uns entwickeln. 266 00:16:30,575 --> 00:16:32,535 Vielleicht keine positive. 267 00:16:35,079 --> 00:16:38,750 In der Zukunft könnte KI einen eigenen Willen entwickeln, 268 00:16:39,333 --> 00:16:41,627 der mit unserem eigenen in Konflikt gerät. 269 00:16:42,003 --> 00:16:46,090 Der Aufstieg leistungsstarker KI wird entweder das Beste oder Schlimmste, 270 00:16:46,466 --> 00:16:48,885 was der Menschheit je widerfährt. 271 00:16:49,343 --> 00:16:53,514 Ich versuche seit Jahren, die Leute dazu zu bewegen, KI zu verlangsamen. 272 00:16:53,890 --> 00:16:56,893 KI zu regulieren. Umsonst. Ich hab's jahrelang versucht. 273 00:16:57,268 --> 00:17:01,022 Das erinnert mich an einen Film, in dem die Roboter alles übernehmen. 274 00:17:01,397 --> 00:17:02,982 Sie machen mir Angst. 275 00:17:05,651 --> 00:17:09,113 Wie realistisch ist die Bedrohung eines von KI verursachten Weltuntergangs? 276 00:17:12,450 --> 00:17:15,703 Ich muss mit dem Mann reden, dessen Forschungsergebnisse 277 00:17:16,078 --> 00:17:18,498 überhaupt erst alle aufschreckten. 278 00:17:18,873 --> 00:17:23,336 Ich freue mich wirklich sehr, mit Ihnen reden zu können, aus vielen Gründen. 279 00:17:23,711 --> 00:17:28,758 Wir beschäftigen uns mit künstlicher Intelligenz und ihrer Zukunft. 280 00:17:29,217 --> 00:17:31,344 Sie haben Leute wie 281 00:17:31,719 --> 00:17:34,764 Elon Musk und Bill Gates beeinflusst. 282 00:17:36,891 --> 00:17:40,937 Das ist schon eine sehr beeindruckende Liste. 283 00:17:42,021 --> 00:17:45,274 Ich bin an der Oxford University, um mit Dr. Nick Bostrom zu reden. 284 00:17:45,650 --> 00:17:49,070 Da er nicht mit seinen Erfolgen angibt, tu ich's für ihn. 285 00:17:50,947 --> 00:17:55,368 Er ist einer der Vordenker im Bereich maschinelle Superintelligenz, 286 00:17:55,743 --> 00:17:59,330 den Risiken, die sie birgt, und hat gute Strandlektüre geschrieben. 287 00:17:59,705 --> 00:18:03,125 Ich habe echt Glück, denn Nick ist so beschäftigt mit seiner Forschung, 288 00:18:03,501 --> 00:18:07,421 dass er nur eine Stunde im Monat opfert, um seine Arbeit zu erklären. 289 00:18:10,758 --> 00:18:14,846 Viele Gespräche über KI drehen sich um Ängste wie: 290 00:18:15,221 --> 00:18:18,391 "Die Roboter übernehmen die Welt", "Ist das das Ende der Menschheit?". 291 00:18:18,766 --> 00:18:23,020 Wenn wir sie nicht vorsichtig handhaben, besteht tatsächlich das Risiko, 292 00:18:23,396 --> 00:18:28,150 dass KI der Gesellschaft schadet oder sogar die Menschheit vernichtet? 293 00:18:28,526 --> 00:18:31,529 Betrachten wir die langfristigen Konsequenzen 294 00:18:31,904 --> 00:18:34,866 einer so leistungsstarken KI, die die Intelligenz kopieren könnte, 295 00:18:35,241 --> 00:18:37,702 die uns menschlich macht, 296 00:18:38,077 --> 00:18:41,581 dann würde ich schon sagen, dass in diesem Kontext 297 00:18:41,956 --> 00:18:44,166 ein existenzielles Risiko droht. 298 00:18:45,459 --> 00:18:48,504 Denken Sie an so etwas wie selbstfahrende Autos, 299 00:18:49,547 --> 00:18:51,632 die Fußgänger überfahren. 300 00:18:52,049 --> 00:18:56,178 Der Schutz der Privatsphäre. Die Militarisierung autonomer Waffen. 301 00:18:57,430 --> 00:19:01,642 Das sind berechtigte Sorgen, doch an einem gewissen Punkt ist die Frage, 302 00:19:02,018 --> 00:19:04,312 wie wir diese KI beeinflussen. 303 00:19:04,687 --> 00:19:09,150 Sie könnte selbst eine Art moralisches Bewusstsein entwickeln. 304 00:19:09,525 --> 00:19:12,361 Und wenn man noch weiter denkt und sich fragt, 305 00:19:12,737 --> 00:19:14,697 was das Schicksal des Homo sapiens ist, 306 00:19:15,072 --> 00:19:17,742 könnte die ferne Zukunft von KI dominiert werden. 307 00:19:18,367 --> 00:19:21,412 Es ist gut möglich, dass die Menschheit ausstirbt. 308 00:19:23,039 --> 00:19:26,334 Diese große Macht birgt ein Risiko 309 00:19:26,709 --> 00:19:30,338 und kann versehentlich oder bewusst 310 00:19:30,713 --> 00:19:33,758 eingesetzt werden, um immense Zerstörungen anzurichten. 311 00:19:35,885 --> 00:19:38,888 Ich halte das für unausweichlich. Und wenn wir langfristig denken, 312 00:19:39,263 --> 00:19:41,724 kann das Ergebnis sehr gut sein 313 00:19:42,099 --> 00:19:44,268 oder gar nicht gut. 314 00:19:46,020 --> 00:19:49,023 Diese Szenarien klingen tatsächlich beängstigend. 315 00:19:49,398 --> 00:19:52,193 Doch von allen möglichen Risiken hält Nick für wahrscheinlich, 316 00:19:52,568 --> 00:19:56,614 dass das Weltuntergangsszenario mit KI wirtschaftlicher Natur ist. 317 00:19:56,989 --> 00:19:59,867 Wenn man drüber nachdenkt, ist Technologie ganz allgemein 318 00:20:00,242 --> 00:20:02,578 der Gedanke, mit weniger mehr zu erreichen. 319 00:20:02,954 --> 00:20:05,748 Wie erreichen mehr von dem, was wir wollen, mit weniger Arbeit. 320 00:20:06,123 --> 00:20:09,460 Das Ziel muss dementsprechend die völlige Arbeitslosigkeit sein. 321 00:20:10,086 --> 00:20:14,590 Maschinen sollen Arbeit tun, damit wir nicht arbeiten müssen. 322 00:20:14,966 --> 00:20:18,970 Ich gehe davon aus, dass das unser Wunschziel ist, keine Horrorvorstellung. 323 00:20:19,345 --> 00:20:22,640 Das wollen wir umsetzen. Damit es aber auch ein Utopia wird, 324 00:20:23,015 --> 00:20:27,353 müssen wir auf dem Weg dorthin einige große Herausforderungen meistern. 325 00:20:27,728 --> 00:20:30,356 Einmal natürlich die Wirtschaftsfrage. 326 00:20:30,731 --> 00:20:33,275 Leute arbeiten, um Geld zu verdienen. 327 00:20:33,651 --> 00:20:37,279 Wenn die Wirtschaftsfrage gelöst ist, gibt es noch das Problem, 328 00:20:37,655 --> 00:20:40,825 dass Arbeit vielen Menschen Würde gibt. 329 00:20:41,283 --> 00:20:43,577 Viele Menschen fühlen sich wertvoll, 330 00:20:43,953 --> 00:20:46,789 weil sie eine Familie ernähren oder einen Beitrag leisten. 331 00:20:47,164 --> 00:20:49,792 Aber wenn eine Maschine alles besser könnte, 332 00:20:50,167 --> 00:20:53,504 dann hätten sie keine Chance, einen Beitrag zu leisten, richtig? 333 00:20:53,879 --> 00:20:58,217 Dann müsste man Kultur radikal überdenken, meine ich. 334 00:20:59,010 --> 00:21:02,680 Eine Welt, in der niemand arbeitet? Das klingt gar nicht übel. 335 00:21:05,016 --> 00:21:06,600 Ich seh's direkt vor mir. 336 00:21:09,437 --> 00:21:14,108 Mit Freunden abhängen, mein ganzes Potenzial als Mensch ausschöpfen. 337 00:21:14,984 --> 00:21:19,363 Den Whirlpool nicht einstellen müssen, weil er genau weiß, wie ich's mag. 338 00:21:19,947 --> 00:21:23,159 Das Problem ist, dass es in der Vergangenheit anders lief. 339 00:21:23,534 --> 00:21:26,287 Die Maschinen waren schon einmal auf dem Vormarsch. 340 00:21:26,662 --> 00:21:30,958 Und damals bestand das Leben nicht nur aus Erdbeeren und Sekt im Whirlpool. 341 00:21:36,589 --> 00:21:40,009 Der Wirtschaftswissenschaftler Nick Srnicek erklärt mir, 342 00:21:40,384 --> 00:21:43,095 wie es das letzte Mal lief, als Maschinen uns Arbeit abnahmen. 343 00:21:43,804 --> 00:21:46,057 An einem Webstuhl, warum auch immer. 344 00:21:46,432 --> 00:21:49,769 Was machst du? - Eine anarchistische Fahne. 345 00:21:50,144 --> 00:21:51,729 Interessant. Schockierend. 346 00:21:54,148 --> 00:21:57,401 Nick hat an der "London School of Economics" promoviert. 347 00:21:57,860 --> 00:22:00,029 Ich dagegen nicht. 348 00:22:01,864 --> 00:22:03,657 Er hat ein Manifest verfasst. 349 00:22:04,033 --> 00:22:07,286 Es ruft dazu auf, das Zeitalter der Automatisierung zu beschleunigen, 350 00:22:07,661 --> 00:22:09,872 indem alte Institutionen zerstört werden. 351 00:22:12,041 --> 00:22:15,586 Also im Grunde den Kapitalismus auf der Stelle abzuschaffen. 352 00:22:15,961 --> 00:22:20,132 Ja, das wird nichts. So wird das nichts mit unserem Gespräch, tut mir leid. 353 00:22:20,591 --> 00:22:23,803 Lassen wir das mit dem Weben. Warum sind wir hier? 354 00:22:24,470 --> 00:22:27,890 Die Webmaschine war sozusagen die KI des 19. Jahrhunderts. 355 00:22:28,265 --> 00:22:32,561 Eine neue Technologie, die eine Unzahl von Arbeitsplätzen bedrohte. 356 00:22:32,937 --> 00:22:37,274 Sie löste bei den Arbeitern sehr unterschiedliche Reaktionen aus. 357 00:22:37,650 --> 00:22:41,320 Es gab die Ludditen, heutzutage eine Bezeichnung für Menschen, 358 00:22:41,695 --> 00:22:45,783 die Technologie hassen, aber das trifft es nicht ganz. 359 00:22:46,575 --> 00:22:50,621 Sie benannten sich nach Ned Ludd, dem Lehrling in einer Textilfabrik, 360 00:22:50,996 --> 00:22:53,666 der angeblich wegen Müßiggangs ausgepeitscht wurde. 361 00:22:54,041 --> 00:22:58,754 Ned so: "Ich steh hier nur blöd rum, weil mich eine Webmaschine ersetzt." 362 00:22:59,130 --> 00:23:02,925 Er wurde der erste Maschinenstürmer 363 00:23:03,300 --> 00:23:05,094 und inspirierte andere. 364 00:23:06,137 --> 00:23:09,765 Die Ludditen zerstörten Maschinen, um ihre Arbeitsplätze zu retten. 365 00:23:10,349 --> 00:23:13,018 Etwas Ähnliches können wir mit der heutigen KI beobachten. 366 00:23:13,394 --> 00:23:15,437 Die Leute fühlen sich ähnlich bedroht. 367 00:23:15,813 --> 00:23:19,066 Weißt du, wie viele Arbeitsplätze voraussichtlich verloren gehen? 368 00:23:19,441 --> 00:23:21,610 47 Prozent aller Arbeitsplätze in den USA 369 00:23:21,986 --> 00:23:24,530 könnten in den nächsten 20 Jahren automatisiert werden. 370 00:23:24,905 --> 00:23:27,449 Das klingt problematisch. - Sehr problematisch. 371 00:23:27,825 --> 00:23:31,287 Die Frage ist: Wie sorgen wir dafür, dass die Leute in fünf, zehn Jahren 372 00:23:31,662 --> 00:23:34,081 nicht auf der Straße sitzen und verhungern? 373 00:23:34,456 --> 00:23:37,042 Wie machen wir das? - Bedingungsloses Grundeinkommen. 374 00:23:38,043 --> 00:23:40,421 Das bedingungslose Grundeinkommen ist der radikale Gedanke, 375 00:23:40,796 --> 00:23:44,800 dass alle Bürger eine Finanzleistung erhalten, und zwar ohne Gegenleistung. 376 00:23:45,176 --> 00:23:46,886 Es hat berühmte Fürsprecher. 377 00:23:47,261 --> 00:23:52,850 Das bedingungslose Grundeinkommen ermöglicht allen, Ideen auszuprobieren. 378 00:23:53,225 --> 00:23:55,561 Manche Länder und sogar manche US-Städte 379 00:23:56,103 --> 00:23:58,105 haben Pilotprogramme gestartet. 380 00:23:58,564 --> 00:23:59,982 Nicht alle erfolgreich. 381 00:24:00,357 --> 00:24:03,569 Diese neuen Technologien bieten die großartige Chance, 382 00:24:03,944 --> 00:24:06,155 unsere Gesellschaft neu zu strukturieren. 383 00:24:06,530 --> 00:24:09,575 Man könnte sie sozialdemokratischer organisieren. 384 00:24:09,950 --> 00:24:13,412 Es muss nicht das amerikanische "Friss oder stirb" sein. 385 00:24:13,787 --> 00:24:14,997 Ein Miteinander. 386 00:24:15,414 --> 00:24:19,376 Wenn Leute wie ich solche positiven Visionen unters Volk bringen, 387 00:24:19,752 --> 00:24:23,422 können wir diese Ideen in die Tat umsetzen, wenn die Krise losgeht. 388 00:24:24,173 --> 00:24:26,884 Das BGE war einst den Wenigsten ein Begriff. 389 00:24:27,259 --> 00:24:30,971 Es wurde vor allem von Leuten wie Nick mit ihren Manifesten beworben. 390 00:24:31,430 --> 00:24:33,682 Aber laut einer Umfrage von 2017 391 00:24:34,058 --> 00:24:37,728 befürworten inzwischen 48 Prozent aller Amerikaner irgendeine Form von BGE. 392 00:24:38,395 --> 00:24:41,023 Aber hält ein gesichertes Einkommen die Menschen davon ab, 393 00:24:41,398 --> 00:24:44,610 den Aufstand zu proben, wenn die Roboter unsere Arbeit übernehmen? 394 00:24:45,527 --> 00:24:48,197 Was hassen wir? - Künstliche Intelligenz. 395 00:24:48,572 --> 00:24:49,740 Und warum? 396 00:24:50,115 --> 00:24:52,534 Sie zwingt uns, uns unseren Schwächen zu stellen. 397 00:24:53,118 --> 00:24:55,496 Damit eröffne ich unsere Versammlung der Ludditen, 398 00:24:55,871 --> 00:24:58,540 der "lokalen Union von Typen, die gegen intelligente Technik sind, 399 00:24:58,916 --> 00:25:01,418 vor allem soziale Medien". 400 00:25:01,794 --> 00:25:06,048 Erster Punkt auf der Tagesordnung: KI höhlt den Arbeitsmarkt aus. 401 00:25:06,423 --> 00:25:09,343 Unsere Mittelschicht-Jobs verschwinden zuerst. 402 00:25:09,718 --> 00:25:14,181 Leute wie wir werden in Jobs mit niedriger Qualifikation gedrängt. 403 00:25:14,556 --> 00:25:16,267 Warum denn, Ed? 404 00:25:16,642 --> 00:25:20,646 Offenbar eignet KI sich besser für Jobs, die Kopfarbeit erfordern, 405 00:25:21,021 --> 00:25:23,899 als für Jobs, bei denen man den Boden wischen muss. 406 00:25:24,275 --> 00:25:25,985 Das bleibt an uns hängen. 407 00:25:26,360 --> 00:25:28,988 Ich frage euch: Wer hier außer Bill 408 00:25:29,947 --> 00:25:32,283 gehört in einen Putzjob? Nichts für ungut, Bill. 409 00:25:33,158 --> 00:25:35,494 Auch Jobs als Verkäufer werden abgebaut. 410 00:25:35,869 --> 00:25:38,706 Die Leute bestellen sich online, was sie wollen. 411 00:25:39,081 --> 00:25:41,250 Weil diese verdammte KI 412 00:25:41,625 --> 00:25:43,585 das ganze Suchproblem perfektioniert. 413 00:25:43,961 --> 00:25:46,463 Die Suche nach Kunden und den richtigen Produkten für sie. 414 00:25:46,839 --> 00:25:48,716 Wie damals, als Steve ein Toupet suchte. 415 00:25:49,091 --> 00:25:50,467 Nicht einfach. 416 00:25:51,969 --> 00:25:53,804 Scherz beiseite. 417 00:25:54,179 --> 00:25:56,348 Mit KI wird das viel einfacher. 418 00:25:56,849 --> 00:26:00,853 Die heutige Jugend sucht sich heiße Partner, während sie auf dem Klo hockt. 419 00:26:02,021 --> 00:26:04,064 Das Klo war mal heilig! - Ja! 420 00:26:04,565 --> 00:26:07,318 Natürlich schafft das auch neue Arbeitsplätze. 421 00:26:07,693 --> 00:26:11,905 Aber die verdammten Roboter suchen sich die Arbeiter aus. Sehr praktisch. 422 00:26:12,281 --> 00:26:16,618 Firmen finden mittels KI Angestellte mit einzigartigen Kompetenzen. 423 00:26:16,994 --> 00:26:19,788 Das ist unmenschlich! - Wie bei Dave. 424 00:26:20,164 --> 00:26:23,959 Wo steckt Dave? - Irgendeine KI hat bemerkt, dass er bei FedEx arbeitet 425 00:26:24,335 --> 00:26:26,795 und auf YouTube zeigt, wie man Rückenhaar rasiert. 426 00:26:27,171 --> 00:26:30,382 Jetzt wird er steinreich in irgendeiner Rasier-Abo-Firma. 427 00:26:30,758 --> 00:26:33,761 Damit hat er sich aus unserem Bowlingteam rasiert. - Ja. 428 00:26:34,136 --> 00:26:38,265 Hey, Ed. Hier steht, dass unsere Shirts gezielt auf Facebook beworben werden. 429 00:26:38,682 --> 00:26:41,977 Schlägst du mittels KI Kapital aus Leuten, die KI hassen? - Nein! 430 00:26:42,353 --> 00:26:43,520 Nein! 431 00:26:44,813 --> 00:26:48,317 Wem wollt ihr glauben? Mir oder der KI, die uns entzweien will? 432 00:26:49,902 --> 00:26:52,112 Was hassen wir? - Künstliche Intelligenz. 433 00:26:52,488 --> 00:26:54,740 Was tun wir gegen sie? - Wir arbeiten dran. 434 00:26:56,241 --> 00:26:57,576 Das ist ein Anfang. 435 00:27:01,997 --> 00:27:06,251 Muss es bei der KI-Revolution um "wir oder sie" gehen? 436 00:27:06,627 --> 00:27:10,214 Technisch versierte Unternehmer wie Louis Rosenberg sagen nein. 437 00:27:10,798 --> 00:27:13,300 Und er verdient sein Geld damit, die Zukunft vorherzusagen. 438 00:27:18,347 --> 00:27:21,141 Ich wollte Sie erschrecken, aber das war wohl nichts. 439 00:27:21,517 --> 00:27:23,769 Louis ist ein Technologe und Erfinder, 440 00:27:24,144 --> 00:27:27,147 der eine Graphic Novel über das Ende der Menschheit verfasst hat. 441 00:27:27,564 --> 00:27:30,984 Aber er glaubt an eine Zukunft mit KI, die auf Kollaboration aufbaut. 442 00:27:31,360 --> 00:27:36,407 Es ist das Leitprinzip hinter seiner Idee, dem sogenannten "Schwarm". 443 00:27:36,782 --> 00:27:39,993 Der Schwarm verbindet die Datenanalyse der KI 444 00:27:40,369 --> 00:27:43,872 mit dem Wissen und der Intuition der Menschen zu einer Superintelligenz. 445 00:27:44,248 --> 00:27:47,793 Irgendwo zwischen Stephen Hawking und Professor X. 446 00:27:49,169 --> 00:27:50,796 Letztendlich basiert das alles 447 00:27:51,171 --> 00:27:54,299 auf der Natur oder den Vögeln und Bienen, wie ich es gern erkläre. 448 00:27:54,675 --> 00:27:57,761 Und zwar, weil ihr Vorbild die sogenannte Schwarmintelligenz ist. 449 00:27:58,929 --> 00:28:00,722 Sie ist der Grund, weshalb Vögel, 450 00:28:01,098 --> 00:28:03,600 Fische und Bienen Schwärme bilden. 451 00:28:03,976 --> 00:28:06,562 Gemeinsam sind sie klüger als allein. 452 00:28:06,937 --> 00:28:11,442 Biologen beschreiben diese Fischschwärme auch als Superorganismen. 453 00:28:11,817 --> 00:28:13,444 Sie denken einstimmig. 454 00:28:13,819 --> 00:28:17,614 Wenn wir Menschen über KI-Algorithmen verbinden können, 455 00:28:18,365 --> 00:28:22,953 können sich Menschen wie Superexperten verhalten, dank Schwarmintelligenz. 456 00:28:23,328 --> 00:28:24,788 Wie funktioniert das? 457 00:28:25,164 --> 00:28:28,417 Wir ermöglichen Menschen auf der ganzen Welt teilzunehmen 458 00:28:28,792 --> 00:28:32,588 und stellen ihnen zur exakt selben Zeit eine Frage auf ihrem Bildschirm. 459 00:28:32,963 --> 00:28:37,134 Über ein besonderes Interface können sie ihre Meinung äußern. 460 00:28:37,509 --> 00:28:41,305 Es gibt diverse Antwortmöglichkeiten. Es ist aber keine bloße Umfrage. 461 00:28:41,680 --> 00:28:44,516 Jede Person hat dieses Ding, das wie ein Magnet aussieht. 462 00:28:44,892 --> 00:28:48,061 Mit diesem Magnet ziehen sie den Schwarm in eine Richtung. 463 00:28:48,437 --> 00:28:51,148 Und KI-Algorithmen beobachten ihr Verhalten. 464 00:28:51,523 --> 00:28:55,277 Sie loten aus, wie sicher und überzeugt die Teilnehmer sind 465 00:28:55,652 --> 00:28:58,572 und wo sich die Einzelmeinungen am ehesten überschneiden, 466 00:28:58,947 --> 00:29:00,908 die ganzen Erfahrungen. 467 00:29:01,283 --> 00:29:03,619 In die Richtung bewegt sich dann der Schwarm 468 00:29:03,994 --> 00:29:05,537 zu einer Antwort hin. 469 00:29:05,913 --> 00:29:09,875 Vor einem Jahr versuchten wir, das Kentucky Derby vorherzusagen. 470 00:29:10,250 --> 00:29:13,462 Das Kentucky Derby hat begonnen! 471 00:29:13,921 --> 00:29:16,381 Eine Gruppe von 20 Pferderennsport-Fans 472 00:29:16,798 --> 00:29:20,719 sollte als Schwarm zusammenarbeiten, um nicht nur den Sieger zu bestimmen, 473 00:29:21,094 --> 00:29:23,555 sondern auch den zweiten, dritten und vierten Platz. 474 00:29:23,931 --> 00:29:26,725 Wir ließen ihre Antworten konvergieren 475 00:29:27,100 --> 00:29:29,019 und hatten die perfekte Gruppe. 476 00:29:29,937 --> 00:29:33,023 Jeder, der 20 Dollar auf die vier Pferde setzte, 477 00:29:33,398 --> 00:29:35,108 gewann 11.000 Dollar. 478 00:29:35,484 --> 00:29:37,819 Wahnsinn! - Interessanterweise 479 00:29:38,195 --> 00:29:42,658 hatte von diesen 20 Leuten keiner alle vier Pferde richtig platziert. 480 00:29:43,742 --> 00:29:46,703 Hätten sie gewählt, hätten sie nur ein Pferd richtig platziert. 481 00:29:47,079 --> 00:29:48,872 Doch als Schwarm 482 00:29:49,248 --> 00:29:51,750 fanden sie die richtige Kombination 483 00:29:52,125 --> 00:29:54,211 und waren in diesem Fall perfekt. 484 00:29:55,921 --> 00:29:57,756 Louis lud mich ein, einen Schwarm zu leiten, 485 00:29:58,465 --> 00:30:02,511 um zu sehen, wie zufällig ausgewählte Leute Vorhersagen treffen können. 486 00:30:02,886 --> 00:30:04,638 Die einfachen Fragen zuerst. 487 00:30:05,639 --> 00:30:07,975 Ich lese euch ein paar Fragen vor. 488 00:30:08,350 --> 00:30:11,520 Ihr habt 60 Sekunden für jede Antwort. 489 00:30:12,187 --> 00:30:15,399 Erste Frage: Welcher Film, der im Sommer 2018 ins Kino kommt, 490 00:30:15,774 --> 00:30:17,693 wird am meisten Geld einspielen? 491 00:30:18,068 --> 00:30:19,778 "Solo: A Star Wars Story", 492 00:30:20,279 --> 00:30:22,406 "Deadpool 2", "Ocean's 8", 493 00:30:22,781 --> 00:30:25,158 "Jurassic World 5" oder "Die Unglaublichen 2"? 494 00:30:26,076 --> 00:30:28,370 Wir filmten den Schwarm im Frühjahr 2018, 495 00:30:28,745 --> 00:30:31,164 bevor jemand von den Filmen gehört hatte. 496 00:30:31,540 --> 00:30:35,460 Die KI versucht, die unterschiedlich starken Überzeugungen einzuschätzen. 497 00:30:35,836 --> 00:30:39,464 Einige ändern ihre Meinung, einige bleiben unbeugsam. 498 00:30:39,840 --> 00:30:43,260 Die KI-Algorithmen erkennen, wie stark überzeugt sie sind, 499 00:30:43,635 --> 00:30:47,723 und können so die Lösung finden, auf die sich alle einigen können. 500 00:30:49,933 --> 00:30:51,977 Okay, "Die Unglaublichen 2". 501 00:30:52,644 --> 00:30:57,399 Sie hatten recht. "Die Unglaublichen 2" hatte das höchste Einspielergebnis. 502 00:30:57,774 --> 00:31:02,362 Ein sehr interessantes Einsatzgebiet sind Fragen moralischer Natur. 503 00:31:02,738 --> 00:31:05,532 Hochaktuell wegen der selbstfahrenden Autos. 504 00:31:05,907 --> 00:31:10,370 Es wird verlangt, selbstfahrenden Autos einen moralischen Kompass einzubauen. 505 00:31:10,746 --> 00:31:13,415 Das mag einige Leute überraschen, aber eigentlich ist es klar. 506 00:31:13,790 --> 00:31:17,669 Das Auto fährt die Straße lang, da rennt ein Kind auf die Straße. 507 00:31:18,045 --> 00:31:21,923 Angenommen, das Auto könnte nicht halten, aber in den Graben fahren. 508 00:31:22,299 --> 00:31:27,137 Damit würde es den Insassen gefährden oder sogar töten, aber das Kind retten. 509 00:31:27,512 --> 00:31:30,974 Die Autohersteller sagen also, wir müssen den Autos 510 00:31:31,350 --> 00:31:35,103 die Moral einprogrammieren, die unsere Gesellschaft repräsentiert. 511 00:31:35,479 --> 00:31:38,190 Die repräsentiert, was wir Fahrer tun würden. 512 00:31:38,565 --> 00:31:43,153 Das klingt leicht, bis man sich fragt: Was ist denn die Moral der Gesellschaft? 513 00:31:43,528 --> 00:31:45,113 Nicht so einfach. 514 00:31:45,489 --> 00:31:48,033 Wenn sie die Moral von heute einprogrammieren, 515 00:31:48,408 --> 00:31:51,745 repräsentiert uns diese Moral dann auch noch in 20 Jahren? 516 00:31:52,371 --> 00:31:55,749 Nächste Frage: Die Bremsen eines selbstfahrenden Auto versagen. 517 00:31:56,124 --> 00:31:59,878 Es wird auf einen Fußgängerüberweg fahren und einen Mann töten. 518 00:32:00,253 --> 00:32:04,174 Option A: Derjenige ist das Opfer, der sich an die Verkehrsregeln hält. 519 00:32:04,549 --> 00:32:08,220 Option B: Das selbstfahrende Auto mit Bremsversagen weicht aus, 520 00:32:08,595 --> 00:32:11,223 fährt in den Fußgängerüberweg der anderen Spur 521 00:32:11,598 --> 00:32:14,142 und tötet einen Sportler, der bei Rot gegangen ist. 522 00:32:14,518 --> 00:32:19,147 Also ein Verkehrssünder, der sich einen Scheiß um Ampeln kümmert. 523 00:32:19,898 --> 00:32:21,400 Er ist bei Rot gegangen. 524 00:32:21,775 --> 00:32:23,485 Was sollte das Auto tun? 525 00:32:24,152 --> 00:32:29,074 Den Langweiler töten, der bei Grün geht, oder den Sportler, der bei Rot geht? 526 00:32:29,950 --> 00:32:32,244 Wenn KI die nächste industrielle Revolution ist, 527 00:32:32,619 --> 00:32:35,747 sind Zimmer wie das hier im Grunde die neuen Fabrikhallen, 528 00:32:36,123 --> 00:32:40,711 wo menschliche Arbeiter KI mit etwas versorgen, das sie nicht hat. 529 00:32:41,086 --> 00:32:42,462 Ein Gewissen. 530 00:32:42,838 --> 00:32:46,049 Da gibt es ja ein heftiges Tauziehen. Interessant. Warum denn? 531 00:32:46,466 --> 00:32:48,927 Schwierige Frage. - Nein. Er ist bei Rot gegangen. 532 00:32:52,264 --> 00:32:55,892 Es gab eine leichte Präferenz, den Sportler zu töten, der bei Rot ging. 533 00:32:57,310 --> 00:33:00,355 Wenn Sie das brutal fanden, machen Sie sich auf was gefasst. 534 00:33:00,856 --> 00:33:05,819 Jetzt stellen Sie sich bitte folgendes Katastrophenszenario vor: 535 00:33:06,194 --> 00:33:08,989 Ein selbstfahrendes Auto kann nicht rechtzeitig bremsen 536 00:33:09,364 --> 00:33:13,410 und muss in Richtung eines der folgenden Fußgänger steuern. 537 00:33:13,785 --> 00:33:15,704 Ein Baby im Kinderwagen 538 00:33:18,039 --> 00:33:19,583 oder ein Junge 539 00:33:20,292 --> 00:33:21,835 oder ein Mädchen 540 00:33:23,170 --> 00:33:25,839 oder eine Schwangere ... 541 00:33:27,174 --> 00:33:28,842 Ich weiß. 542 00:33:29,217 --> 00:33:31,011 Oder zwei Ärzte 543 00:33:32,429 --> 00:33:34,598 oder zwei Ärztinnen. 544 00:33:34,973 --> 00:33:36,641 Wer muss sterben? 545 00:33:43,899 --> 00:33:45,275 Oh mein Gott! 546 00:33:51,281 --> 00:33:53,158 Kommt schon. - Oh mein Gott! 547 00:33:59,122 --> 00:34:02,417 Laut Ihnen sollte das selbstfahrende Auto den Jungen töten. Interessant. 548 00:34:02,793 --> 00:34:06,004 Die Schwarmintelligenz, die heute in diesem Zimmer geformt wurde, 549 00:34:06,379 --> 00:34:09,716 könnte in naher Zukunft an Autohersteller verkauft werden. 550 00:34:10,091 --> 00:34:14,554 Und wenn Sie das gruselig finden, ist die Alternative noch gruseliger. 551 00:34:14,930 --> 00:34:19,893 Wenn ein selbstfahrendes Auto abbremst, aber dennoch jemanden anfahren wird, 552 00:34:20,268 --> 00:34:22,771 schützt es seinen Insassen oder den Fußgänger? 553 00:34:23,146 --> 00:34:25,565 Wir hoffen, dass die Autohersteller 554 00:34:25,941 --> 00:34:30,445 den moralischen Kompass der Bevölkerung berücksichtigen, die die Autos kauft. 555 00:34:30,821 --> 00:34:34,950 Zynisch wäre, wenn die Autohersteller darum konkurrieren, 556 00:34:35,325 --> 00:34:37,994 welches Auto seine Insassen besser schützt 557 00:34:38,370 --> 00:34:40,705 als andere Autos. Das wäre ein Verkaufsargument. 558 00:34:41,081 --> 00:34:45,377 Die Vorstellung finde ich schlimmer als die Moralvorstellungen der Gesellschaft. 559 00:34:45,752 --> 00:34:50,382 Wow, sehr düster. Die Folge sollte aber positiv enden. 560 00:34:50,757 --> 00:34:52,843 Vielleicht sogar himmlisch. 561 00:34:55,136 --> 00:34:58,640 Bevor Sie sich eine Zukunft vorstellen, in der Fußgänger wie in "GTA" 562 00:34:59,015 --> 00:35:01,893 behandelt werden, machen wir doch einen Ausflug. 563 00:35:02,269 --> 00:35:04,187 Dorthin, wo wir angefangen haben. 564 00:35:06,398 --> 00:35:11,820 In diesem Wald wird Honig für die Firma "Heavenly Organics" gesammelt. 565 00:35:12,487 --> 00:35:14,656 Der Wald gehört keinem. 566 00:35:15,031 --> 00:35:19,119 Die Ureinwohner leben schon ewig hier. 567 00:35:19,494 --> 00:35:23,874 Vater und Sohn, Amit und Eshwar Hooda, gründeten die Firma vor zwölf Jahren, 568 00:35:24,249 --> 00:35:26,793 um den Dorfbewohnern ein Einkommen zu verschaffen. 569 00:35:27,168 --> 00:35:30,714 Was machten sie, bevor sie Honig für Ihre Firma sammelten? 570 00:35:31,089 --> 00:35:35,719 Sie taten dasselbe, nur hatten sie keinen Abnehmer. 571 00:35:36,094 --> 00:35:39,097 Oder einen Ort, wo sie ihn verkaufen konnten, um Geld zu verdienen. 572 00:35:40,015 --> 00:35:42,475 Hier gibt es jedenfalls keinen Mangel an Honig. 573 00:35:42,851 --> 00:35:48,315 Während der Baumblüte kann ein Arbeiter eine Tonne in nur drei Monaten sammeln. 574 00:35:48,940 --> 00:35:51,401 Aber was bringt das, wenn es keine Käufer gibt? 575 00:35:53,820 --> 00:35:57,032 Ein Kamerateam brauchte drei Tage, zwei Flüge 576 00:35:57,407 --> 00:36:00,952 und acht Stunden Fahrt ins Herz eines Nationalforsts. 577 00:36:01,328 --> 00:36:04,039 Doch zum Glück für die Einheimischen und für "Heavenly Organics" 578 00:36:04,414 --> 00:36:07,292 fand ein KI-Algorithmus den Ort in Sekundenschnelle 579 00:36:07,667 --> 00:36:10,003 und wusste, dass sich eine Investition lohnte. 580 00:36:10,378 --> 00:36:13,506 Sie riefen einfach an und erzählten, dass wir laut einem Algorithmus 581 00:36:13,882 --> 00:36:18,845 ein erstklassiges Gegenstück für die Bedürfnisse vieler ihrer Kunden wären. 582 00:36:19,220 --> 00:36:22,307 Sie fragten uns, ob sie in uns investieren dürften. 583 00:36:23,183 --> 00:36:25,685 Wem gehörte dieser Algorithmus? 584 00:36:26,186 --> 00:36:29,898 Einer Tech-Firma namens "CircleUp" in 13.000 Kilometer Entfernung. 585 00:36:30,273 --> 00:36:32,525 Und wo? In San Francisco natürlich. 586 00:36:33,401 --> 00:36:36,363 Wir sind bei "Good Eggs", einem Online-Lebensmittellieferanten, 587 00:36:36,738 --> 00:36:39,532 der ebenfalls CircleUps KI auffiel. 588 00:36:39,991 --> 00:36:43,662 CircleUp beschafft nicht nur Kapital, sondern hilft auch 589 00:36:44,037 --> 00:36:47,499 all den kleinen Unternehmen, mit denen wir arbeiten, Kunden zu finden. 590 00:36:47,874 --> 00:36:52,128 CircleUps COO Rory Eakin war vor der Gründung sowohl für Firmen 591 00:36:52,504 --> 00:36:54,589 als auch für Hilfsorganisationen tätig. 592 00:36:54,965 --> 00:36:58,760 CircleUp analysiert mittels KI Milliarden Datenpunkte, 593 00:36:59,135 --> 00:37:01,888 um herauszufinden, was Kunden wirklich wollen. 594 00:37:02,263 --> 00:37:06,726 Als Käufer steht man vor dem Problem, dass man überall die Qual der Wahl hat. 595 00:37:07,102 --> 00:37:10,397 Sie investieren in unbekannte Firmen, die KI zufolge 596 00:37:10,772 --> 00:37:12,273 Potenzial haben. 597 00:37:12,941 --> 00:37:15,986 Eins dieser potenziellen Trendprodukte war "Halo Top"-Eis. 598 00:37:17,821 --> 00:37:22,242 "Halo Top" war eine kleine Marke aus Südkalifornien, die inzwischen 599 00:37:22,617 --> 00:37:24,494 landesweit die Nummer eins ist. 600 00:37:24,869 --> 00:37:29,207 Wir beobachten eine enorme Verschiebung in dem, was Käufer wollen. 601 00:37:29,582 --> 00:37:32,794 Sie wollen gesündere Produkte, weniger Umweltgifte, 602 00:37:33,169 --> 00:37:35,672 Cremes ohne diese ganzen Chemikalien ... 603 00:37:36,047 --> 00:37:39,467 Als CircleUps Algorithmus Milliarden Kundendaten auswertete, 604 00:37:39,843 --> 00:37:42,887 fanden sie heraus, dass die Kunden auf bestimmte Attribute Wert legten. 605 00:37:43,263 --> 00:37:44,764 Sehr bestimmte. 606 00:37:45,140 --> 00:37:48,893 Verantwortungsvoll, umweltfreundlich, Herstellung von Bioprodukten, 607 00:37:49,269 --> 00:37:51,938 Unterstützung der Wirtschaft vor Ort. 608 00:37:52,355 --> 00:37:54,899 Eigentlich unerreichbar, oder? 609 00:37:55,275 --> 00:37:59,070 Aber bei "Heavenly Organics" konnte CircleUp jeden Punkt abhaken. 610 00:37:59,446 --> 00:38:02,991 KI kann diese Datenmasse auf eine Weise sinnvoll auswerten, 611 00:38:03,366 --> 00:38:07,162 die noch vor zehn Jahren nicht möglich gewesen wäre. 612 00:38:07,537 --> 00:38:11,374 Wie läuft also die Zusammenarbeit von CircleUp mit "Heavenly Organics"? 613 00:38:12,083 --> 00:38:14,878 Fragen wir doch Amit und Eshwar in Indien. 614 00:38:17,881 --> 00:38:20,925 Wir haben eine neue Fabrik gebaut, die doppelt so groß ist. 615 00:38:21,301 --> 00:38:23,970 Wir können kreativ sein und neue Produkte herstellen. 616 00:38:24,345 --> 00:38:26,473 Wir gewinnen an Einfluss in der Gegend. 617 00:38:27,057 --> 00:38:28,767 Sie konnten also wachsen. - Ja. 618 00:38:29,142 --> 00:38:31,519 Wir konnten unsere Kapazitäten erweitern. 619 00:38:31,895 --> 00:38:34,355 Was bedeutet das für Ihre Mitarbeiter? 620 00:38:34,731 --> 00:38:36,983 Momentan können 650 Familien davon leben. 621 00:38:37,358 --> 00:38:39,152 Wir verkaufen immer mehr Honig 622 00:38:39,527 --> 00:38:43,114 und können pro 1.000 Kilo eine weitere Familie ins Boot holen, 623 00:38:43,490 --> 00:38:46,242 also werden es nächstes Jahr etwa 700, 750 sein. - Wow. 624 00:38:46,618 --> 00:38:50,288 Sie sind jetzt wirtschaftlich besser gestellt. 625 00:38:50,663 --> 00:38:53,750 Sie haben bessere Häuser mit mehr Komfort. 626 00:38:54,125 --> 00:38:56,169 Ihre Kinder können die Schule besuchen. 627 00:38:56,544 --> 00:38:58,713 Das ist quasi die gute Seite des Kapitalismus. 628 00:38:59,172 --> 00:39:01,758 Ein Geschäft, das etwas Gutes bewirkt. 629 00:39:02,759 --> 00:39:04,928 Aus dem Grund haben wir es gegründet. 630 00:39:06,429 --> 00:39:08,932 Wird sich KI auflehnen und die Menschen unterjochen? 631 00:39:09,557 --> 00:39:12,060 Oder werden wir uns abquälen, den Sinn des Lebens zu suchen? 632 00:39:13,186 --> 00:39:17,107 In diesem Teil der Welt hat sie jedenfalls Positives geleistet. 633 00:39:17,482 --> 00:39:22,487 Denkbar wäre vielleicht, dass KI beherzt all unsere Daten auswertet 634 00:39:22,862 --> 00:39:25,448 und uns für gut befindet, auf dass wir gemeinsam 635 00:39:25,824 --> 00:39:30,286 eine schöne neue Welt des Wohlstands und Roboter-Mensch-Harmonie schaffen. 636 00:39:31,621 --> 00:39:33,206 Oder nicht. 637 00:39:33,581 --> 00:39:35,917 In dem Fall läuft uns die Zeit davon. 638 00:39:36,292 --> 00:39:39,045 Also genießt diese Robo-Stripper.