1 00:00:05,382 --> 00:00:06,759 СТАНЦИЯ «УОЛЛ-СТРИТ» 2 00:00:06,842 --> 00:00:08,427 УОЛЛ-СТРИТ 3 00:00:08,927 --> 00:00:11,930 Я стою на Уолл-стрит, где всё и началось. 4 00:00:13,724 --> 00:00:17,186 Шестого мая 2010 года в 14.45 5 00:00:17,686 --> 00:00:21,190 один парень, сидя в доме своих родителей в Лондоне, 6 00:00:21,273 --> 00:00:24,985 запустил программу на Нью-Йоркской фондовой бирже, 7 00:00:25,068 --> 00:00:27,279 которая должна была продать ценных бумаг на миллиард долларов. 8 00:00:28,697 --> 00:00:30,449 Он планировал обмануть рынок 9 00:00:30,532 --> 00:00:32,659 и отменить заказ до завершения операции. 10 00:00:33,160 --> 00:00:34,411 Но прежде чем это случилось, 11 00:00:34,495 --> 00:00:37,247 остальные автоматизированные боты, торговавшие акциями, 12 00:00:37,331 --> 00:00:38,582 тоже начали продавать, 13 00:00:39,041 --> 00:00:42,336 запустив цепную реакцию, которая нанесла мощный удар по рынку. 14 00:00:44,880 --> 00:00:48,967 Промышленный индекс Доу-Джонса упал на 1 000 пунктов за 15 минут. 15 00:00:49,051 --> 00:00:52,513 Это почти равно падению индекса, положившему начало Великой депрессии. 16 00:00:52,596 --> 00:00:55,307 Что, черт возьми, происходит? Не знаю. 17 00:00:55,390 --> 00:00:56,642 На рынке ощущается страх. 18 00:00:57,267 --> 00:00:59,645 Пора отменять круиз и переводить детей в государственную школу. 19 00:01:00,938 --> 00:01:02,481 Это мгновенный обвал рынка. 20 00:01:03,023 --> 00:01:04,066 Вот черт. 21 00:01:05,359 --> 00:01:08,111 Через 36 минут рынок восстановился. 22 00:01:08,195 --> 00:01:11,615 Мгновенный обвал 2010 года был первым случаем, 23 00:01:11,698 --> 00:01:15,994 когда люди впервые ощутили нутром, непосредственно поняли, что бывает, 24 00:01:16,078 --> 00:01:19,164 когда ИИ захватывает контроль над финансовой системой. 25 00:01:20,707 --> 00:01:22,167 Вам стоит узнать, как обстоят дела сейчас. 26 00:01:24,086 --> 00:01:26,922 Поэтому я здесь, в Индии, собираю мед диких пчел. 27 00:01:27,631 --> 00:01:28,966 Но об этом потом. 28 00:01:29,341 --> 00:01:31,885 Чтобы понять, как ИИ нашел это место и почему, 29 00:01:31,969 --> 00:01:34,429 надо сначала понять, что такое ИИ. 30 00:01:34,513 --> 00:01:36,431 Если вы думаете, что и так это знаете, наверняка вы ошибаетесь. 31 00:01:37,850 --> 00:01:41,436 Нравится вам это или нет, деньги связывают нас всех. 32 00:01:41,937 --> 00:01:45,315 Я Кэл Пенн, и я изучаю гигантское чудовище 33 00:01:45,691 --> 00:01:48,068 под названием глобальная экономика. 34 00:01:48,151 --> 00:01:49,403 ГИГАНТСКОЕ ЧУДОВИЩЕ ПОД НАЗВАНИЕМ ГЛОБАЛЬНАЯ ЭКОНОМИКА 35 00:01:52,322 --> 00:01:54,199 Что же такое ИИ? 36 00:01:54,283 --> 00:01:55,409 САН-ФРАНЦИСКО 37 00:01:55,492 --> 00:01:58,579 Я в Сан-Франциско, чтобы выяснить, чем он не является. 38 00:01:58,662 --> 00:02:01,874 Всё, что вы читали в научно-фантастических романах, - неправда. 39 00:02:02,541 --> 00:02:03,542 Особенно... 40 00:02:03,959 --> 00:02:07,004 Гигантские роботы! 41 00:02:27,107 --> 00:02:28,442 Боже мой! 42 00:02:30,485 --> 00:02:32,112 Я беседую с Джулией Боссманн, 43 00:02:32,237 --> 00:02:36,575 членом Совета по Искусственному Интеллекту Всемирного Экономического Форума. 44 00:02:36,658 --> 00:02:40,329 Совет консультирует мировых лидеров, как освоить потенциал ИИ. 45 00:02:40,829 --> 00:02:44,499 Это отличная работа. Джулия не только может смотреть, как разбивают машины, 46 00:02:44,583 --> 00:02:47,586 но делать селфи с канадским секс-символом номер один, и я говорю не о Дрейке. 47 00:02:47,669 --> 00:02:48,754 ДЖАСТИН ТРЮДО ПРЕМЬЕР-МИНИСТР КАНАДЫ 48 00:02:53,467 --> 00:02:55,385 И как вы поедете отсюда домой? 49 00:02:55,469 --> 00:02:56,803 Думаю, она всё равно будет на ходу. 50 00:03:01,016 --> 00:03:03,018 Мы встречаемся в компании MegaBots, 51 00:03:03,101 --> 00:03:05,854 которая создает гигантских роботов, сражающихся с другими роботами. 52 00:03:07,814 --> 00:03:10,275 Несколько более заумная версия воссоздания рыцарских турниров. 53 00:03:13,779 --> 00:03:14,905 По словам Джулии, 54 00:03:14,988 --> 00:03:17,658 эти роботы не просто бывшие экспонаты парка развлечений. 55 00:03:18,283 --> 00:03:22,412 Они технологические динозавры из-за одного важного различия. 56 00:03:24,289 --> 00:03:25,582 Мозгами этих роботов являются люди, 57 00:03:25,666 --> 00:03:27,626 а ИИ - это искусственный мозг. 58 00:03:27,709 --> 00:03:28,752 ДЖУЛИЯ БОССМАНН ЭКСПЕРТ ПО ИИ ВЭФ 59 00:03:28,835 --> 00:03:29,711 Интересно. Можно поподробнее? 60 00:03:29,795 --> 00:03:32,506 Сейчас мы создаем компьютеры, 61 00:03:32,589 --> 00:03:34,132 которые сами могут обучаться. 62 00:03:34,591 --> 00:03:37,010 И им необязательно иметь корпуса. 63 00:03:37,344 --> 00:03:40,055 Мы создали много образцов ИИ, 64 00:03:40,138 --> 00:03:41,765 живущих в гигантских центрах обработки данных. 65 00:03:42,057 --> 00:03:46,645 Если бы вам надо было объяснить 13-летнему ребенку, 66 00:03:46,728 --> 00:03:48,146 что такое ИИ, как бы вы это сделали? 67 00:03:48,230 --> 00:03:50,691 Самое общее объяснение может быть таким: 68 00:03:50,774 --> 00:03:54,945 ИИ позволяет машинам делать что-то, 69 00:03:55,028 --> 00:03:58,156 что не было напрямую заложено в программе. 70 00:03:58,240 --> 00:03:59,616 В традиционном программировании 71 00:03:59,700 --> 00:04:02,744 у вас есть некий набор правил и алгоритм. 72 00:04:02,828 --> 00:04:04,413 Вы знаете: если сделать это - будет то. 73 00:04:04,496 --> 00:04:07,165 И всё это прописано в программе, созданной людьми. 74 00:04:07,249 --> 00:04:09,501 Возьмем медицинскую литературу. 75 00:04:09,584 --> 00:04:12,004 В одной базе данных миллион статей, 76 00:04:12,087 --> 00:04:14,923 и ни один врач не смог бы прочитать все эти научные статьи, 77 00:04:15,048 --> 00:04:17,676 чтобы быть в курсе открытий в его области, но машина бы смогла. 78 00:04:17,759 --> 00:04:20,220 Можно представить себе машину, у которой будут возникать новые идеи 79 00:04:20,303 --> 00:04:21,596 о том, как решать проблемы, 80 00:04:21,680 --> 00:04:24,766 создавать новые лекарства или излечивать болезни. 81 00:04:24,850 --> 00:04:25,976 Ого. Ясно. 82 00:04:26,059 --> 00:04:28,395 Область изучения ИИ, 83 00:04:28,478 --> 00:04:30,856 в которой сейчас происходит больше всего интересного, 84 00:04:30,939 --> 00:04:32,065 называется глубоким обучением. 85 00:04:32,149 --> 00:04:33,608 Что такое глубокое обучение? 86 00:04:33,692 --> 00:04:36,069 При глубоком обучении у нас есть 87 00:04:36,153 --> 00:04:39,072 несколько глубоких слоев нейронных сетей, 88 00:04:39,156 --> 00:04:42,242 которые похожи на то, что есть в мозге человека. 89 00:04:42,325 --> 00:04:45,579 У нас есть все эти нейроны, которые связаны друг с другом, 90 00:04:45,662 --> 00:04:46,788 и они обмениваются информацией. 91 00:04:46,830 --> 00:04:50,751 Мы создаем симуляцию этого процесса в машинах. 92 00:04:50,834 --> 00:04:54,546 Мы предоставляем им данные обдуманно и непредубежденно, 93 00:04:54,629 --> 00:04:56,214 чтобы машина чему-то научилась. 94 00:04:56,548 --> 00:04:59,009 Например, обучая машину распознавать образы, мы говорим: 95 00:04:59,092 --> 00:05:01,511 это фотографии собак, а это - фотографии котов. 96 00:05:01,595 --> 00:05:03,972 Потом машина обрабатывает эти образы 97 00:05:04,056 --> 00:05:06,349 и сама учится распознавать их. 98 00:05:06,433 --> 00:05:10,187 У нас нет программы, которая описывает каждый шаг этого процесса. 99 00:05:10,228 --> 00:05:11,229 Интересно. 100 00:05:11,313 --> 00:05:14,107 Бывает машинное обучение, которые не является глубоким обучением. 101 00:05:14,858 --> 00:05:16,985 Есть эволюционные алгоритмы, 102 00:05:17,069 --> 00:05:19,863 когда мы используем принцип, заимствованный из эволюции. 103 00:05:19,946 --> 00:05:24,242 Мы позволяем машине попробовать разные программы, 104 00:05:24,743 --> 00:05:27,329 и мы видим, какая из них лучше работает. 105 00:05:27,412 --> 00:05:31,291 Наиболее оптимальные программы становятся программами следующего поколения. 106 00:05:31,374 --> 00:05:34,336 Это похоже на эволюцию организмов. Мы пользуемся принципом, 107 00:05:34,419 --> 00:05:37,172 когда выживают лучшие и сильнейшие программы. 108 00:05:37,255 --> 00:05:38,381 Ого, ясно. 109 00:05:38,465 --> 00:05:40,550 Значит, это эволюционные алгоритмы. 110 00:05:40,926 --> 00:05:44,346 Почему интересно исследовать ИИ с финансовой точки зрения? 111 00:05:44,429 --> 00:05:47,724 Наверное, его потенциальное влияние на экономику огромно. 112 00:05:47,808 --> 00:05:50,393 Да, я думаю, что ИИ радикально поменяет экономику. 113 00:05:50,477 --> 00:05:53,313 Речь идет о новой промышленной революции. 114 00:05:53,396 --> 00:05:54,231 Интересно. 115 00:05:54,314 --> 00:05:55,774 ИИ называют нашим последним изобретением, 116 00:05:55,857 --> 00:05:58,944 потому что, когда у нас есть искусственный мозг, который умнее нас, 117 00:05:59,027 --> 00:06:00,779 он может изобрести для нас что-то еще. 118 00:06:00,862 --> 00:06:03,865 Его называют последним изобретением, потому что ИИ убьет всех нас? 119 00:06:04,950 --> 00:06:06,118 Надеюсь, что нет. 120 00:06:08,829 --> 00:06:12,207 Многие боятся, что искусственный интеллект станет настолько умным, 121 00:06:12,290 --> 00:06:15,001 что убьет всех нас. Не стоит волноваться. 122 00:06:15,085 --> 00:06:19,047 ИИ настолько умен отчасти потому, что он невероятно глуп. 123 00:06:19,464 --> 00:06:20,549 Иди сюда, ИИ. 124 00:06:21,299 --> 00:06:24,302 Допустим, вы попросили ИИ найти идеальный рецепт торта 125 00:06:24,386 --> 00:06:26,179 с помощью эволюционных алгоритмов. 126 00:06:27,973 --> 00:06:30,517 ИИ не будет думать, как лучше всего испечь торт. 127 00:06:30,600 --> 00:06:33,520 Он просто сделает миллиард попыток, 128 00:06:33,603 --> 00:06:37,482 используя все ингредиенты, что есть на кухне, самым идиотским образом. 129 00:06:38,441 --> 00:06:40,652 Конечно, большинство из них будут обречены на неудачу. 130 00:06:42,320 --> 00:06:43,613 Этот способ точно. 131 00:06:44,447 --> 00:06:45,657 Молодец, кретин. 132 00:06:46,616 --> 00:06:50,162 Поражение не обижает ИИ. У ИИ нет чувств. 133 00:06:50,745 --> 00:06:53,123 В эволюционных алгоритмах замечательно то, 134 00:06:53,206 --> 00:06:56,293 что попробовав все эти, казалось бы, дурацкие способы, 135 00:06:56,376 --> 00:06:58,044 ИИ может наткнуться на решение 136 00:06:58,128 --> 00:07:01,464 кулинарной проблемы, которое не пришло бы в голову разумному человеку, 137 00:07:01,548 --> 00:07:04,176 например, более вкусный веганский торт. 138 00:07:04,259 --> 00:07:05,302 Я испекла торт. 139 00:07:06,178 --> 00:07:07,554 Молодец, ИИ. 140 00:07:07,637 --> 00:07:09,097 В основном он состоит из кешью. 141 00:07:09,931 --> 00:07:13,143 Вы бы подумали положить в торт кешью? Конечно нет! 142 00:07:13,226 --> 00:07:16,521 Это было бы глупо, а ИИ не против быть глупым, 143 00:07:16,605 --> 00:07:18,190 поэтому вам не надо быть глупым. 144 00:07:18,273 --> 00:07:21,067 Эволюционирует ли этот балбес во что-то настолько умное, 145 00:07:21,151 --> 00:07:23,653 что сможет захватить власть во всем мире и убить всех нас? 146 00:07:24,196 --> 00:07:25,280 Трудно сказать наверняка. 147 00:07:25,363 --> 00:07:26,740 Я осваиваю коды запуска. 148 00:07:27,657 --> 00:07:28,992 А пока 149 00:07:29,993 --> 00:07:31,077 угощайтесь тортом. 150 00:07:35,165 --> 00:07:36,541 Хотя я по-прежнему беспокоюсь, 151 00:07:36,625 --> 00:07:39,461 что ИИ создаст больше проблем, чем решит, 152 00:07:41,004 --> 00:07:43,757 эксперты согласны в том, что он повысит производительность труда 153 00:07:43,840 --> 00:07:47,636 в таких сферах, как здравоохранение, транспорт и финансы, 154 00:07:47,719 --> 00:07:51,848 увеличив глобальный ВВП на $15,7 триллионов к 2030 году. 155 00:07:52,474 --> 00:07:56,478 Это больше, чем сегодняшние ВВП Китая и Индии, вместе взятых. 156 00:07:56,561 --> 00:07:58,480 НЬЮ-ЙОРК 157 00:07:59,898 --> 00:08:02,275 Насколько важен ИИ? 158 00:08:02,943 --> 00:08:06,404 По-моему, это одно из трех важнейших изобретений в истории человечества. 159 00:08:06,488 --> 00:08:07,697 За всю историю человечества? 160 00:08:07,781 --> 00:08:08,990 Несомненно, за всю историю. 161 00:08:09,616 --> 00:08:11,368 Я встретился с Эндрю Макафи, 162 00:08:11,451 --> 00:08:15,664 ведущим экспертом по вопросу о том, как новые технологии меняют экономики 163 00:08:15,747 --> 00:08:19,542 и, следовательно, всё человеческое общество. 164 00:08:20,460 --> 00:08:22,212 Если представить человеческую историю в виде графика, 165 00:08:22,295 --> 00:08:24,214 то вы увидите, что в течение тысячелетий 166 00:08:24,297 --> 00:08:26,258 абсолютно ничего не происходило. Горизонтальная линия. 167 00:08:26,341 --> 00:08:28,093 ЭНДРЮ МАКАФИ - СОДИРЕКТОР ИНСТИТУТА ЦИФРОВОЙ ЭКОНОМИКИ МТИ 168 00:08:28,176 --> 00:08:30,845 Как будто мы ничего не делали. 169 00:08:30,929 --> 00:08:32,514 А потом вдруг в определенный момент 170 00:08:32,597 --> 00:08:34,933 этот график человеческой истории, на что бы вы ни смотрели, 171 00:08:35,016 --> 00:08:38,144 от скучно-горизонтального стал безумно-вертикальным. 172 00:08:38,228 --> 00:08:39,771 - Это случилось в одно мгновение. - Так 173 00:08:39,854 --> 00:08:41,481 Это произошло около 1800 года, 174 00:08:41,564 --> 00:08:45,443 по-первых, из-за паровой тяги, во-вторых, из-за электричества. 175 00:08:47,821 --> 00:08:50,782 Электричество повлекло за собой очевидный прогресс. 176 00:08:50,865 --> 00:08:53,827 Оно дало нам троллейбусы и метро. 177 00:08:53,910 --> 00:08:57,080 Менее очевидно то, что оно позволило городам быть вертикальными. 178 00:08:57,163 --> 00:08:58,373 - Электричество? - Несомненно. 179 00:08:58,456 --> 00:08:59,749 - Нужны лифты. - Лифты, понятно. 180 00:08:59,833 --> 00:09:01,543 Без лифтов не может быть вертикального города. 181 00:09:01,626 --> 00:09:03,878 Люди не могут каждый день подниматься на 80-й этаж. 182 00:09:03,962 --> 00:09:06,506 Эти два прорыва промышленной революции - пар 183 00:09:06,589 --> 00:09:09,259 и двойной удар электричества и двигателя внутреннего сгорания - 184 00:09:09,342 --> 00:09:11,011 буквально изменили историю человечества. 185 00:09:11,094 --> 00:09:12,804 - По-другому не скажешь. - Конечно. 186 00:09:12,887 --> 00:09:15,974 Все эти технологии помогли нам преодолеть ограничения 187 00:09:16,057 --> 00:09:17,100 - наших мышц. - Так. 188 00:09:17,183 --> 00:09:20,562 ИИ помогает нам преодолеть ограничения 189 00:09:20,645 --> 00:09:22,564 наших мозгов, взятых по отдельности, нашей мыслительной мощности. 190 00:09:22,647 --> 00:09:24,607 ОПАСНО ВЫСОКОЕ НАПРЯЖЕНИЕ 191 00:09:24,691 --> 00:09:26,484 Перед нами стоят труднейшие задачи. 192 00:09:26,568 --> 00:09:28,236 По-настоящему трудные задачи. 193 00:09:28,320 --> 00:09:29,696 Надо бы победить рак. 194 00:09:29,779 --> 00:09:31,406 Надо накормить больше людей. 195 00:09:31,489 --> 00:09:33,950 Надо прекратить поджаривать планету в XXI веке. 196 00:09:34,034 --> 00:09:36,328 Это невероятно сложные задачи. 197 00:09:36,411 --> 00:09:38,747 Наши мозги потихоньку находят кое-какие решения. 198 00:09:38,830 --> 00:09:41,708 Мы делаем это с помощью науки и накопленного знания, 199 00:09:41,791 --> 00:09:44,044 но сложность этих задач просто ошеломляет. 200 00:09:44,127 --> 00:09:45,420 Я смотрю на ИИ так: 201 00:09:45,503 --> 00:09:48,506 у нас появился очень сильный новый коллега, 202 00:09:48,590 --> 00:09:51,676 который поможет нам найти больше этих сложных решений. 203 00:09:51,760 --> 00:09:54,637 Эти новые технологии хороши тем, 204 00:09:54,721 --> 00:09:59,684 что они видят едва заметные связи в невероятно большом количестве данных. 205 00:09:59,768 --> 00:10:01,603 Больше, чем вы или я можем воспринять. 206 00:10:01,686 --> 00:10:03,897 Недавно я слышал о безумном примере 207 00:10:03,980 --> 00:10:05,106 из области финансов. 208 00:10:05,190 --> 00:10:07,650 Там приобретают популярность так называемые робо-консультанты. 209 00:10:07,734 --> 00:10:09,361 Это просто алгоритм, 210 00:10:09,444 --> 00:10:11,696 который составляет ваш инвестиционный портфель. 211 00:10:11,780 --> 00:10:13,031 До сих пор 212 00:10:13,114 --> 00:10:15,325 надо было иметь немалое количество денег, 213 00:10:15,408 --> 00:10:18,745 чтобы просто попасть в офис финансового консультанта. 214 00:10:18,828 --> 00:10:20,872 - Да. - И это быстро меняется. 215 00:10:20,955 --> 00:10:25,210 Благодаря робо-консалтингу люди, у которых не так много денег, 216 00:10:25,293 --> 00:10:28,963 получают доступ к супермощным и сверхсовременным инструментам, 217 00:10:29,047 --> 00:10:31,299 которые улучшат их финансовое положение. 218 00:10:31,383 --> 00:10:34,302 Это интересно, особенно учитывая то, что всегда были люди, 219 00:10:34,386 --> 00:10:37,555 которые были готовы воспользоваться плодами прогресса во зло. 220 00:10:37,639 --> 00:10:40,225 Я не говорю, что нам не о чем волноваться. 221 00:10:40,308 --> 00:10:42,852 Из истории прошлых промышленных революций мы знаем, 222 00:10:42,936 --> 00:10:44,687 что они принесли людям и много плохого. 223 00:10:44,771 --> 00:10:49,150 Да, мы механизировали военное дело с помощью всех этих технологий. 224 00:10:49,234 --> 00:10:52,529 Да, мы до ужаса загрязнили окружающую среду. 225 00:10:52,612 --> 00:10:54,364 Мы совершили серьезные ошибки, 226 00:10:54,447 --> 00:10:57,951 например, мы широко применяли детский труд в ходе промышленной революции. 227 00:10:58,034 --> 00:11:01,079 Так что не всё и не всегда шло идеально. 228 00:11:01,162 --> 00:11:03,748 И то же самое произойдет и сейчас. 229 00:11:04,249 --> 00:11:05,291 Черт. 230 00:11:06,918 --> 00:11:08,586 Макафи заставил меня задуматься. 231 00:11:08,670 --> 00:11:10,547 А что, если история повторится 232 00:11:10,630 --> 00:11:13,591 и ИИ переделает общество не в лучшую сторону? 233 00:11:14,467 --> 00:11:18,430 Наступит повсеместное загрязнение, а работать будут маленькие чумазые дети? 234 00:11:18,513 --> 00:11:19,848 ЛОНДОН 235 00:11:19,931 --> 00:11:21,891 Как ответить на моральные и этические вопросы, 236 00:11:21,975 --> 00:11:24,227 которые возникают с появлением новых мощных технологий? 237 00:11:24,936 --> 00:11:27,647 В лондонском Национальном музее истории вычислительной техники 238 00:11:27,730 --> 00:11:31,109 можно увидеть много машин, созданных для развития общества. 239 00:11:31,192 --> 00:11:35,572 Это двухтонный «Декатрон из Харуэлла», который создали для расчетов 240 00:11:35,655 --> 00:11:38,908 британской научно-исследовательской программы в 1950-е годы. 241 00:11:39,242 --> 00:11:41,161 Но если новая технология попадет не в те руки, 242 00:11:41,244 --> 00:11:43,163 трудно сказать, как она будет использоваться. 243 00:11:43,746 --> 00:11:45,707 На этом компьютере можно смотреть порно? 244 00:11:46,040 --> 00:11:49,752 Ну, на нем можно смотреть порно в очень низком разрешении. 245 00:11:50,712 --> 00:11:51,754 АЛАН ЗУККОНИ ПРОГРАММИСТ 246 00:11:51,838 --> 00:11:54,507 Это программист Алан Зуккони, 247 00:11:54,591 --> 00:11:57,177 который преподает в Голдсмитском колледже в Лондоне. 248 00:11:57,719 --> 00:12:00,722 С помощью технологий он создал новаторские вещи, 249 00:12:00,805 --> 00:12:04,058 например, пульты для видеоигр для людей с ограниченной мобильностью. 250 00:12:05,477 --> 00:12:07,937 Он говорит, что скоро перед нами встанет одна из самых серьезных 251 00:12:08,021 --> 00:12:10,190 моральных дилемм в истории техники: 252 00:12:10,273 --> 00:12:14,360 ИИ начинает копировать столько элементов поведения человека, 253 00:12:14,444 --> 00:12:16,404 что может сойти за одного из нас. 254 00:12:17,113 --> 00:12:18,615 Что это такое? 255 00:12:18,948 --> 00:12:21,826 Это один из первых в мире компьютеров. 256 00:12:21,910 --> 00:12:24,829 Его построил Алан Тьюринг со своими сотрудниками. 257 00:12:24,913 --> 00:12:28,124 Эта машина стала одним из первых компьютеров, 258 00:12:28,208 --> 00:12:30,710 и она смогла расшифровать коды шифратора «Энигма», созданного нацистами. 259 00:12:32,587 --> 00:12:35,381 Алан Тьюринг был отцом современной информатики. 260 00:12:35,465 --> 00:12:38,927 Когда он не помогал странам-союзницам выиграть войну, расшифровывая коды врага, 261 00:12:39,010 --> 00:12:42,555 он занимался философией и придумал тест Тьюринга. 262 00:12:43,598 --> 00:12:46,643 Как мы можем отличить человека от машины? 263 00:12:46,726 --> 00:12:49,854 Если мы не можем их отличить, 264 00:12:49,938 --> 00:12:53,066 то машина прошла тест, который мы называем «имитационной игрой». 265 00:12:53,149 --> 00:12:56,569 Машина старается имитировать поведение человека. 266 00:12:56,653 --> 00:12:59,072 Этот тест стал известен как тест Тьюринга, 267 00:12:59,155 --> 00:13:02,659 и, возможно, это один из компьютеров, который тогда использовался. 268 00:13:02,742 --> 00:13:03,868 Чтобы пройти тест Тьюринга, 269 00:13:03,952 --> 00:13:06,579 человек задает вопросы машине. 270 00:13:07,080 --> 00:13:08,831 Другой человек, который не видит его, определяет, 271 00:13:08,915 --> 00:13:11,501 отвечает ли на вопросы человек 272 00:13:11,584 --> 00:13:13,461 или машина, подражающая человеку. 273 00:13:14,379 --> 00:13:15,630 Сколько вам лет? 274 00:13:17,924 --> 00:13:20,134 Вот так. Он знает, сколько ему лет. 275 00:13:20,218 --> 00:13:22,011 «Я родился в 1912 году. 276 00:13:22,095 --> 00:13:24,389 То есть мне 105 лет». 277 00:13:27,642 --> 00:13:30,979 Во времена Тьюринга определить ответы компьютера было легко. 278 00:13:31,271 --> 00:13:34,357 Но сегодня ИИ может изучать человеческое поведение 279 00:13:34,440 --> 00:13:36,693 и программировать себя на подражание ему. 280 00:13:37,485 --> 00:13:39,654 Вы можете отличить вот это... 281 00:13:39,988 --> 00:13:43,199 Как правило, я начинаю эту речь шуткой по поводу анализа данных, 282 00:13:43,700 --> 00:13:46,744 но примерно половина шуток, придуманных моими сотрудниками, была ниже среднего. 283 00:13:46,828 --> 00:13:47,912 ...и этим? 284 00:13:47,996 --> 00:13:50,415 Наши враги могут создать видимость, что кто угодно говорит что угодно 285 00:13:50,498 --> 00:13:51,833 когда угодно. 286 00:13:52,208 --> 00:13:55,503 Второй фрагмент был создан «BuzzFeed» 287 00:13:55,587 --> 00:13:57,338 и актером Джорданом Пилом. 288 00:13:57,839 --> 00:14:02,760 После этого многие были обеспокоены новой формой фальшивых новостей от ИИ. 289 00:14:02,844 --> 00:14:04,929 В будущем нам надо быть более бдительными 290 00:14:05,013 --> 00:14:06,639 в плане того, какой информации из интернета доверять. 291 00:14:06,723 --> 00:14:09,058 ИИ изучил мимику Пила, 292 00:14:09,142 --> 00:14:13,062 потом воссоздал ее на лице Обамы, 293 00:14:13,146 --> 00:14:15,690 создав гибрид под названием «дипфейк». 294 00:14:15,773 --> 00:14:17,984 Возможно, вы видели кое-что подобное. 295 00:14:18,067 --> 00:14:21,404 Например, в «Snapchat» есть фильтр, который позволяет менять лица. 296 00:14:21,487 --> 00:14:25,325 Разница в том, что фильтр делает это очень простым способом. 297 00:14:25,408 --> 00:14:28,953 Технология дипфейка полагается на искусственный интеллект. 298 00:14:29,037 --> 00:14:31,289 Она основана на том, что называется глубоким обучением. 299 00:14:31,706 --> 00:14:35,126 Искусственные нейронные сети выделяют выражения лица. 300 00:14:35,209 --> 00:14:37,754 Они используют эти выражения, чтобы воссоздать ваше лицо. 301 00:14:37,837 --> 00:14:41,466 Так мы получаем фотореалистичное изображение. 302 00:14:42,508 --> 00:14:45,720 Алан создает в интернете руководства о том, как делать дипфейки. 303 00:14:45,803 --> 00:14:48,056 Он твердо верит в то, что эта технология 304 00:14:48,139 --> 00:14:50,767 должна развиваться свободно, без ограничений. 305 00:14:50,850 --> 00:14:53,853 Даже если она может начать Третью мировую войну. 306 00:14:53,936 --> 00:14:55,104 СОЦПАРТИЯ БЕЛЬГИИ РАСПРОСТРАНЯЕТ ДИПФЕЙКОВОЕ ВИДЕО ДОНАЛЬДА ТРАМПА 307 00:14:55,188 --> 00:14:57,273 Как потребитель может понять, 308 00:14:57,357 --> 00:14:59,692 что настоящее, а что - нет? 309 00:14:59,776 --> 00:15:02,695 Когда вы являетесь потребителем новостного материала, 310 00:15:02,779 --> 00:15:05,740 будь то статья, видео или фотография, 311 00:15:05,823 --> 00:15:08,076 всё, что вы видите, было кем-то создано. 312 00:15:08,201 --> 00:15:09,577 «О чем рассказывает то, что я вижу? 313 00:15:09,827 --> 00:15:11,287 Что это видео хочет мне сказать?» 314 00:15:11,371 --> 00:15:13,581 Я вижу... 315 00:15:13,665 --> 00:15:14,624 Опасность. 316 00:15:14,707 --> 00:15:17,168 То, что это и опасно, и интересно. 317 00:15:17,251 --> 00:15:19,420 Это действительно как-то поможет людям? 318 00:15:19,504 --> 00:15:21,923 Наверное, вы говорили с людьми, 319 00:15:22,006 --> 00:15:25,885 которые думают, как развивать экономику с помощью этой технологии. 320 00:15:25,968 --> 00:15:29,097 Каковы ее практические экономические применения? 321 00:15:29,180 --> 00:15:32,308 Думаю, первый сектор, который ей воспользуется, - 322 00:15:32,392 --> 00:15:33,685 это киноиндустрия. 323 00:15:33,768 --> 00:15:36,813 Менять лицо - 324 00:15:36,896 --> 00:15:40,024 это то, что мы пытаемся делать в фильмах многие десятилетия. 325 00:15:40,108 --> 00:15:42,527 Обычно мы пользуемся для этого гримом, масками, 326 00:15:42,610 --> 00:15:43,736 иногда компьютерной графикой. 327 00:15:43,820 --> 00:15:46,489 Как актер и человек, работавший в политике, 328 00:15:46,572 --> 00:15:48,616 могу сказать, что меня это до жути пугает. 329 00:15:48,700 --> 00:15:50,201 И должно пугать. 330 00:15:51,285 --> 00:15:53,705 Дипфейк BuzzFeed показал людям, 331 00:15:53,788 --> 00:15:55,039 насколько мы уязвимы. 332 00:15:55,873 --> 00:15:59,585 Когда слова президента могут многое поменять на рынках, 333 00:15:59,669 --> 00:16:02,714 хорошо сделанный дипфейк может потопить глобальную экономику 334 00:16:02,797 --> 00:16:04,674 быстрее, чем мгновенный обвал, 335 00:16:04,757 --> 00:16:08,469 уничтожив ваши пенсионные накопления, пока фальшивый Обама говорит... 336 00:16:08,553 --> 00:16:09,554 Не спите, гады. 337 00:16:10,638 --> 00:16:13,057 Всё это немного похоже на научную фантастику? 338 00:16:13,141 --> 00:16:14,726 Вам даже стало немного страшно? 339 00:16:15,309 --> 00:16:18,271 Если ИИ станет достаточно мощным, чтобы знать, как мы двигаемся, 340 00:16:18,354 --> 00:16:20,022 говорим и думаем, 341 00:16:20,106 --> 00:16:22,316 он может стать неотличимым от нас. 342 00:16:22,400 --> 00:16:23,818 ЧТО ТЫ ЗНАЕШЬ? ВСЁ 343 00:16:24,610 --> 00:16:26,779 А если ИИ обретет сознание, 344 00:16:26,863 --> 00:16:29,782 у него, возможно, появится четкое мнение на наш счет. 345 00:16:29,866 --> 00:16:30,908 ДА ПОШЕЛ ТЫ БЕРЕГИСЬ! 346 00:16:30,992 --> 00:16:33,119 Это мнение может быть отрицательным. 347 00:16:35,455 --> 00:16:36,664 СТИВЕН ХОКИНГ ФИЗИК-ТЕОРЕТИК 348 00:16:36,748 --> 00:16:39,292 В будущем у ИИ могут появиться свои желания. 349 00:16:39,375 --> 00:16:42,003 Желания, конфликтующие с нашими. 350 00:16:42,086 --> 00:16:44,422 Развитие мощного ИИ станет 351 00:16:44,505 --> 00:16:48,801 или самым лучшим, или самым худшим событием для человечества. 352 00:16:49,260 --> 00:16:50,136 ИЛОН МАСК CEO SPACEX 353 00:16:50,219 --> 00:16:53,181 Я старался убедить людей замедлить развитие ИИ. 354 00:16:54,056 --> 00:16:55,224 Ввести регулирование. 355 00:16:55,308 --> 00:16:56,809 Это было бесполезно. Я пытался много лет. 356 00:16:56,893 --> 00:16:58,561 - Никто меня не слушал. - Как в фильме, 357 00:16:58,644 --> 00:17:00,980 где роботы захватывают власть. 358 00:17:01,063 --> 00:17:02,607 Вы меня пугаете. 359 00:17:05,818 --> 00:17:09,030 Насколько реальна угроза конца света по вине ИИ? 360 00:17:09,113 --> 00:17:10,782 ОКСФОРД 361 00:17:10,865 --> 00:17:12,408 ВЕЛИКОБРИТАНИЯ 362 00:17:12,742 --> 00:17:15,077 Чтобы выяснить это, мне надо поговорить с человеком, 363 00:17:15,161 --> 00:17:18,164 чьи исследования так напугали всех с самого начала. 364 00:17:18,831 --> 00:17:21,083 Я очень рад, что могу поговорить с вами, потому что... 365 00:17:21,167 --> 00:17:23,628 Ну, я рад этому по многим причинам. 366 00:17:23,711 --> 00:17:26,839 Мы говорим об искусственном интеллекте, 367 00:17:26,923 --> 00:17:29,258 пытаемся выяснить, что это такое и к чему он идет. 368 00:17:29,342 --> 00:17:34,680 Вы повлияли на таких людей, как Илон Маск и Билл Гейтс. 369 00:17:37,016 --> 00:17:40,853 Это поразительно. 370 00:17:42,021 --> 00:17:45,691 В Оксфордском университете я встречаюсь с д-ром Ником Бострумом. 371 00:17:45,775 --> 00:17:48,986 Поскольку он не склонен хвастаться своими достижениями, это сделаю я. 372 00:17:51,489 --> 00:17:55,201 Он один из выдающихся исследователей машинного суперинтеллекта 373 00:17:55,284 --> 00:17:59,205 и его экзистенциальных рисков, автор нескольких захватывающих книг. 374 00:17:59,705 --> 00:18:00,957 Мне повезло, что он смог со мной встретиться, 375 00:18:01,040 --> 00:18:03,584 потому что Ник насколько поглощен своим собственным глубоким обучением, 376 00:18:03,668 --> 00:18:05,419 что посвящает всего один час в месяц 377 00:18:05,503 --> 00:18:07,338 ответам на вопросы о своих исследованиях. 378 00:18:10,925 --> 00:18:14,262 Многие разговоры об ИИ 379 00:18:14,345 --> 00:18:17,014 сводятся вот к чему: смогут ли роботы захватить власть 380 00:18:17,098 --> 00:18:18,850 и будет ли это означать конец человечества? 381 00:18:18,933 --> 00:18:21,310 Вот что мне любопытно: если этот процесс плохо контролируется, 382 00:18:21,394 --> 00:18:24,564 возможен ли сценарий, когда ИИ нанесет вред обществу 383 00:18:24,647 --> 00:18:28,484 или даже уничтожит человечество в том виде, в каком мы его знаем? 384 00:18:28,568 --> 00:18:29,902 В долгосрочном контексте, 385 00:18:29,986 --> 00:18:33,114 если подумать, что произойдет, если ИИ разовьется до конца 386 00:18:33,197 --> 00:18:36,951 и станет способным копировать тот интеллект, 387 00:18:37,034 --> 00:18:38,828 который делает нас людьми, то да, 388 00:18:38,911 --> 00:18:42,748 я думаю, что в таком контексте риски возрастают, 389 00:18:42,832 --> 00:18:44,125 в том числе и экзистенциальные риски. 390 00:18:45,585 --> 00:18:48,421 Подумайте о беспилотном автомобиле. 391 00:18:48,504 --> 00:18:49,797 БЕСПИЛОТНЫЙ UBER УБИВАЕТ ПЕШЕХОДА В АРИЗОНЕ, ГДЕ БРОДЯТ РОБОТЫ 392 00:18:49,881 --> 00:18:51,549 Он может переехать пешехода. 393 00:18:51,632 --> 00:18:53,342 Есть опасения по поводу тайны частной жизни. 394 00:18:53,426 --> 00:18:56,095 Милитаризации автономного оружия. 395 00:18:57,847 --> 00:18:59,307 Это всё реальные опасения. 396 00:18:59,390 --> 00:19:02,184 Но в какой-то момент возникнет вопрос о том, 397 00:19:02,268 --> 00:19:04,687 как мы влияем на цифровые умы, которые создаем. 398 00:19:04,770 --> 00:19:09,066 Они сами могут приобрести некие моральные качества. 399 00:19:09,525 --> 00:19:11,152 И если посмотреть в будущее, 400 00:19:11,235 --> 00:19:15,031 если подумать, какой будет судьба homo sapiens, 401 00:19:15,114 --> 00:19:18,534 в отдаленном будущем, возможно, нами будут командовать машины. 402 00:19:18,618 --> 00:19:21,996 Вполне возможно, что человечество вымрет. 403 00:19:23,414 --> 00:19:26,250 Эти потрясающие возможности несут с собой риск того, 404 00:19:26,834 --> 00:19:30,755 что случайно или намеренно 405 00:19:30,838 --> 00:19:33,466 они будут использованы для огромных разрушений. 406 00:19:35,885 --> 00:19:37,595 Думаю, это возможно, 407 00:19:37,678 --> 00:19:39,305 и, если мы думаем о более долгих сроках, 408 00:19:39,388 --> 00:19:41,182 исход может быть очень хорошим 409 00:19:41,265 --> 00:19:43,726 или очень нехорошим. 410 00:19:46,354 --> 00:19:48,731 Да, эти сценарии довольно страшные. 411 00:19:49,732 --> 00:19:51,609 Но Ник считает, что из всех 412 00:19:51,692 --> 00:19:55,821 потенциальных исходов наиболее вероятный конец света из-за ИИ 413 00:19:55,905 --> 00:19:57,114 будет экономическим. 414 00:19:57,198 --> 00:19:59,450 Если подумать, технология в целом - 415 00:19:59,533 --> 00:20:02,828 это стремление сделать больше с помощью меньшего. 416 00:20:02,912 --> 00:20:06,123 Мы можем достигнуть большего, применив меньше усилий. 417 00:20:06,207 --> 00:20:07,750 В этом смысле цель - 418 00:20:07,833 --> 00:20:09,418 всеобщая безработица, так? 419 00:20:10,294 --> 00:20:12,380 Чтобы машины и техника 420 00:20:12,463 --> 00:20:15,341 делали всё, что нужно делать, а нам бы не надо было работать. 421 00:20:15,424 --> 00:20:17,301 Думаю, это и есть желаемая конечная цель. 422 00:20:17,385 --> 00:20:19,553 Это не что-то ужасное, что нужно предотвратить. 423 00:20:19,637 --> 00:20:20,680 Мы хотим этого добиться. 424 00:20:20,763 --> 00:20:22,932 Чтобы достичь этой утопии, 425 00:20:23,015 --> 00:20:25,601 надо преодолеть несколько сложностей 426 00:20:25,685 --> 00:20:27,061 и решить пару задач. 427 00:20:28,187 --> 00:20:30,815 Одна проблема, конечно, экономическая. 428 00:20:30,898 --> 00:20:33,567 Людям нужна работа, потому что им нужен доход. 429 00:20:33,651 --> 00:20:35,653 Если будет решена эта экономическая проблема, 430 00:20:35,736 --> 00:20:37,571 тогда, думаю, возникает вторая сложность. 431 00:20:37,655 --> 00:20:41,409 Многие люди считают, что работать - достойное занятие. 432 00:20:41,492 --> 00:20:43,786 Многие люди видят в работе источник своей ценности. 433 00:20:43,869 --> 00:20:47,081 Они гордятся тем, что зарабатывают и вносят вклад в жизнь общества. 434 00:20:47,164 --> 00:20:49,583 Но если машина делает всё, что делаете вы, но лучше, 435 00:20:49,667 --> 00:20:53,796 тогда у вас нет шанса внести свой вклад, так? 436 00:20:53,879 --> 00:20:58,175 Тогда придется вносить фундаментальные коррективы в нашу культуру. 437 00:20:59,176 --> 00:21:01,095 Мир, где никто не работает. 438 00:21:01,178 --> 00:21:02,930 Возможно, это не так плохо. 439 00:21:05,057 --> 00:21:06,267 Я могу себе это представить. 440 00:21:09,854 --> 00:21:11,313 Проводишь время с друзьями. 441 00:21:11,814 --> 00:21:14,942 Полностью развиваешь свой человеческий потенциал. 442 00:21:15,026 --> 00:21:19,321 Не надо менять настройки в джакузи: она и так знает, что я люблю. 443 00:21:20,114 --> 00:21:23,409 Проблема в том, что исторически всё складывалось совсем не так. 444 00:21:23,492 --> 00:21:26,537 В истории уже был период, когда резко возросло число машин. 445 00:21:26,620 --> 00:21:27,705 И в прошлый раз 446 00:21:27,788 --> 00:21:30,666 клубникой и шампанским в ванной даже и не пахло. 447 00:21:34,378 --> 00:21:35,421 ЛОНДОН 448 00:21:35,504 --> 00:21:36,505 АНГЛИЯ 449 00:21:36,964 --> 00:21:41,093 Я беседую с экономистом Ником Срничеком, чтобы узнать, каково было людям 450 00:21:41,177 --> 00:21:43,054 в прошлый раз, когда машины отняли у нас работу. 451 00:21:43,888 --> 00:21:46,015 И почему-то мы с ним встречаемся у ткацких станков. 452 00:21:46,432 --> 00:21:47,725 Что вы пытаетесь выткать? 453 00:21:47,808 --> 00:21:50,311 Это нечто вроде анархистского флага. 454 00:21:50,394 --> 00:21:51,979 Интересно. Я в шоке. 455 00:21:54,315 --> 00:21:57,568 У Ника докторская степень Лондонской школы экономики. 456 00:21:58,027 --> 00:22:00,321 У меня степени нет. 457 00:22:01,530 --> 00:22:02,573 А еще у него есть манифест. 458 00:22:02,656 --> 00:22:03,949 #ACCELERATE УСКОРЕНИЕ - МАНИФЕСТ ПОЛИТИКИ АКСЕЛЕРАЦИОНИЗМА 459 00:22:04,492 --> 00:22:07,703 Он призывает ускорить наступление века автоматизации, 460 00:22:07,787 --> 00:22:09,830 уничтожив старые институты. 461 00:22:12,458 --> 00:22:15,461 Короче, уничтожить капитализм уже сейчас. 462 00:22:16,003 --> 00:22:17,254 Да, у меня ничего не получится. 463 00:22:17,338 --> 00:22:19,632 Я так не смогу с вами разговаривать. 464 00:22:19,715 --> 00:22:21,550 Простите. Я не буду ткать. 465 00:22:22,093 --> 00:22:23,761 Почему мы здесь? 466 00:22:24,637 --> 00:22:28,224 Ну, ткацкий станок - это ИИ 1800-х годов. 467 00:22:28,307 --> 00:22:32,853 Эта новая технология угрожала лишить рабочих мест огромное количество людей. 468 00:22:33,270 --> 00:22:37,233 И она вызвала самые разные реакции со стороны рабочих, 469 00:22:37,316 --> 00:22:39,360 например, восстание луддитов. 470 00:22:39,443 --> 00:22:41,487 Сегодня мы называем кого-то «луддитом», 471 00:22:41,570 --> 00:22:44,031 когда хотим сказать, что этот человек ненавидит новые технологии. 472 00:22:44,532 --> 00:22:45,950 Это не совсем так. 473 00:22:46,700 --> 00:22:48,119 Луддиты были названы в честь Неда Лудда 474 00:22:48,202 --> 00:22:49,036 НЕД ЛУДД ПОДМАСТЕРЬЕ 475 00:22:49,120 --> 00:22:51,122 бывшего подмастерьем в текстильной промышленности. 476 00:22:51,205 --> 00:22:53,958 Согласно легенде, его выпороли за праздность. 477 00:22:54,041 --> 00:22:56,502 А он сказал: «Я ничего не делаю, 478 00:22:56,585 --> 00:22:59,338 потому что меня заменил ткацкий станок, ясно?» 479 00:22:59,421 --> 00:23:03,008 Он стал первым человеком, который разозлился на машину, 480 00:23:03,092 --> 00:23:05,010 и он вдохновил целое движение. 481 00:23:06,262 --> 00:23:10,349 Луддиты начали ломать станки, чтобы спасти свои рабочие места. 482 00:23:10,432 --> 00:23:12,810 Думаю, нечто похожее происходит сегодня с ИИ. 483 00:23:12,893 --> 00:23:15,771 Люди тоже чувствуют исходящую от него угрозу. 484 00:23:15,855 --> 00:23:19,483 Вы знаете, сколько рабочих мест, согласно оценкам, могут исчезнуть? 485 00:23:19,567 --> 00:23:21,986 Сорок семь процентов рабочих мест в Америке, 486 00:23:22,069 --> 00:23:24,822 возможно, будут автоматизированы в следующие двадцать лет. 487 00:23:24,905 --> 00:23:26,615 Похоже, это серьезная проблема. 488 00:23:26,699 --> 00:23:27,992 Это может стать огромной проблемой. 489 00:23:28,075 --> 00:23:31,662 Но вот главный вопрос: как сделать так, чтобы через пять или десять лет 490 00:23:31,745 --> 00:23:33,998 людям не пришлось бы голодать и жить на улице? 491 00:23:34,081 --> 00:23:35,166 И как это сделать? 492 00:23:35,457 --> 00:23:36,959 С помощью безусловного базового дохода. 493 00:23:38,210 --> 00:23:40,754 Безусловный базовый доход - это радикальная идея о том, 494 00:23:40,880 --> 00:23:43,424 что каждый член общества получает деньги. 495 00:23:43,507 --> 00:23:45,092 Без всяких условий. 496 00:23:45,176 --> 00:23:47,178 У этой идеи есть известные сторонники. 497 00:23:47,636 --> 00:23:50,347 Мы должны подумать о таких идеях, как безусловный базовый доход, 498 00:23:50,431 --> 00:23:53,142 чтобы у всех людей были запасы и они могли попробовать новые идеи. 499 00:23:53,225 --> 00:23:56,145 В некоторых странах и даже в американских городах 500 00:23:56,228 --> 00:23:58,189 проводились пилотные программы. 501 00:23:58,272 --> 00:23:59,982 ФИНЛЯНДИЯ ПРЕКРАЩАЕТ ЭКСПЕРИМЕНТ С ББД 502 00:24:00,858 --> 00:24:03,861 Мне кажется, эти новые технологии дают нам потрясающую возможность 503 00:24:03,944 --> 00:24:06,447 поменять то, как организовано общество. 504 00:24:06,530 --> 00:24:09,408 Можно двигаться к более социально-демократической системе. 505 00:24:10,117 --> 00:24:13,454 Необязательно иметь такую жесткую систему, как в Америке, 506 00:24:13,537 --> 00:24:15,331 все могут поддерживать друг друга. 507 00:24:15,414 --> 00:24:19,418 Если такие люди, как я, будут говорить о таких позитивных возможностях, 508 00:24:19,919 --> 00:24:21,587 когда кризис действительно наступит, 509 00:24:21,670 --> 00:24:23,380 мы сможем начать внедрять в жизнь эти идеи. 510 00:24:24,173 --> 00:24:27,343 ББД раньше считался маргинальной концепцией, 511 00:24:27,426 --> 00:24:30,930 которую в основном поддерживали люди вроде Ника, которые пишут манифесты. 512 00:24:31,639 --> 00:24:33,891 Но согласно данным опроса Гэллапа 2017 года, 513 00:24:33,974 --> 00:24:37,603 48% американцев поддерживают ББД в какой-то форме. 514 00:24:38,520 --> 00:24:40,231 Но достаточно ли гарантированного дохода, 515 00:24:40,314 --> 00:24:41,982 чтобы помешать людям восстать 516 00:24:42,066 --> 00:24:43,734 против роботов, когда они отнимут у нас работу? 517 00:24:44,735 --> 00:24:45,611 ЛУДДИТЫ 518 00:24:45,694 --> 00:24:48,572 - Что мы ненавидим? - Искусственный интеллект. 519 00:24:48,656 --> 00:24:50,032 Почему мы его ненавидим? 520 00:24:50,115 --> 00:24:53,160 Он заставляет нас посмотреть в лицо нашим слабостям! 521 00:24:53,244 --> 00:24:55,955 Настоящим объявляю открытым собрание «Луддитов» - 522 00:24:56,038 --> 00:24:58,958 «Местного Союза Чуваков, Отрицающих Умные Технологии, 523 00:24:59,041 --> 00:25:00,834 Особенно Социальные Сети». 524 00:25:01,835 --> 00:25:02,836 Первый пункт повестки дня. 525 00:25:03,337 --> 00:25:06,340 Искусственный интеллект проделывает дыру в рынке найма. 526 00:25:06,423 --> 00:25:09,260 Рабочие места для нас, для среднего класса, исчезнут первыми. 527 00:25:09,885 --> 00:25:11,720 Люди с профессиями вроде наших 528 00:25:11,804 --> 00:25:14,473 будут вытолкнуты на дно, на низкоквалифицированные должности. 529 00:25:14,974 --> 00:25:16,558 Почему это произойдет, Эд? 530 00:25:16,642 --> 00:25:21,105 ИИ лучше выполняет среднеквалифицированные задачи вроде обработки данных, 531 00:25:21,188 --> 00:25:24,400 чем низкоквалифицированные, вроде подметания пола. 532 00:25:24,483 --> 00:25:26,277 Поэтому эти профессии они оставят нам. 533 00:25:26,735 --> 00:25:28,028 Я спрашиваю вас: 534 00:25:28,112 --> 00:25:29,655 кто здесь, кроме Билла, 535 00:25:29,738 --> 00:25:32,199 похож на человека, который должен подметать пол? Не обижайся, Билл. 536 00:25:33,325 --> 00:25:35,786 Будет меньше рабочих мест в розничной торговле. 537 00:25:35,869 --> 00:25:38,622 Люди смогут просто выйти в интернет и купить, что хотят, 538 00:25:39,164 --> 00:25:41,583 потому что этот сукин сын ИИ 539 00:25:41,667 --> 00:25:43,919 решает проблему поиска и подбора. 540 00:25:44,378 --> 00:25:46,755 Поиска покупателей и подбора продуктов для них. 541 00:25:46,839 --> 00:25:49,383 Помните, когда Стив искал парик, подходящий к его голове? 542 00:25:49,466 --> 00:25:50,426 Это была большая проблема! 543 00:25:51,969 --> 00:25:53,721 Бессмертные шутки в сторону. 544 00:25:54,346 --> 00:25:56,890 ИИ сильно облегчает эту задачу. 545 00:25:56,974 --> 00:25:59,643 Парни сегодня могут найти себе красотку в телефоне, 546 00:25:59,727 --> 00:26:01,937 - сидя в туалете. - Да. 547 00:26:02,021 --> 00:26:04,064 - Раньше туалет был священным местом! - Да. 548 00:26:04,773 --> 00:26:07,568 Конечно, поиск и подбор сами создадут новые рабочие места, 549 00:26:07,651 --> 00:26:10,279 но чертовы роботы будут выбирать, кто их получит. 550 00:26:10,362 --> 00:26:11,739 Как удобно. 551 00:26:12,489 --> 00:26:14,700 Компании пользуются ИИ, чтобы найти сотрудников 552 00:26:14,783 --> 00:26:16,869 с уникальными навыками. 553 00:26:16,952 --> 00:26:18,287 Это бесчеловечно! 554 00:26:18,370 --> 00:26:19,705 Да, это случилось с Дэйвом. 555 00:26:20,080 --> 00:26:21,332 Да, где Дэйв, черт побери? 556 00:26:21,415 --> 00:26:24,251 Какой-то ИИ по подбору персонала заметил, что он работает в FedEx 557 00:26:24,335 --> 00:26:27,087 и что у него есть уроки в YouTube о том, как сбривать волосы на спине. 558 00:26:27,171 --> 00:26:30,716 Теперь зарабатывает сотни тысяч в месте, которое продает бритвы по подписке. 559 00:26:30,799 --> 00:26:33,093 Он, можно сказать, сбрил себя с нашей команды по боулингу. 560 00:26:33,177 --> 00:26:34,094 Да. 561 00:26:34,178 --> 00:26:36,513 Слушай, Эд. Я получил оповещение, что наши футболки 562 00:26:36,597 --> 00:26:38,766 продаются с помощью таргетированной рекламы в Facebook. 563 00:26:38,849 --> 00:26:41,602 Ты используешь ИИ, чтобы делать деньги на людях, которые ненавидят ИИ? 564 00:26:41,685 --> 00:26:43,479 Нет! 565 00:26:44,897 --> 00:26:46,023 Кому вы поверите? 566 00:26:46,106 --> 00:26:48,859 Мне или ИИ, который хочет нас поссорить? 567 00:26:49,902 --> 00:26:52,363 - Что мы ненавидим? - Искусственный интеллект. 568 00:26:52,446 --> 00:26:54,698 - Что мы будем делать? - Мы над этим думаем. 569 00:26:56,075 --> 00:26:57,201 Это начало. 570 00:26:59,912 --> 00:27:01,914 САН-ФРАНЦИСКО 571 00:27:02,748 --> 00:27:06,168 Означает ли революция ИИ, что это будет случай «мы против них»? 572 00:27:07,086 --> 00:27:10,672 Технологически подкованные бизнесмены вроде Луиса Розенберга считают, что нет. 573 00:27:10,964 --> 00:27:13,342 А он сделал карьеру на предсказании нашего будущего. 574 00:27:18,514 --> 00:27:20,599 Я пытался вас напугать, но не вышло. 575 00:27:21,558 --> 00:27:24,478 Луис - технолог и изобретатель, 576 00:27:24,561 --> 00:27:27,689 который написал комикс о конце человечества. 577 00:27:27,773 --> 00:27:31,276 Но он считает, что у нас есть будущее, где мы будем сотрудничать с ИИ. 578 00:27:31,360 --> 00:27:34,113 Этот принцип лежит в основе его детища - 579 00:27:34,196 --> 00:27:35,989 технологии под названием «рой». 580 00:27:36,073 --> 00:27:37,074 ЧТО ТАКОЕ РОЕВОЙ ИНТЕЛЛЕКТ? 581 00:27:37,157 --> 00:27:40,077 Рой сочетает навыки анализа данных ИИ 582 00:27:40,160 --> 00:27:44,415 с человеческими знаниями и интуицией для создания сверхинтеллекта. 583 00:27:44,498 --> 00:27:47,709 Это нечто среднее между Стивеном Хокингом и профессором Икс. 584 00:27:47,793 --> 00:27:49,044 ЧТО ДОЛЖНА СДЕЛАТЬ БЕСПИЛОТНАЯ МАШИНА? 585 00:27:49,128 --> 00:27:50,754 В общем, это основано на том, что есть в природе. 586 00:27:50,838 --> 00:27:51,964 ЛУИС РОЗЕНБЕРГ ДИРЕКТОР, UNANIMOUS AI 587 00:27:52,047 --> 00:27:54,591 Можно сказать, это возврат к пчелками и птичкам. 588 00:27:54,675 --> 00:27:57,970 Потому что это основано на явлении под названием «роевой интеллект». 589 00:27:58,053 --> 00:27:58,887 Ясно. 590 00:27:58,971 --> 00:28:03,392 Почему птицы сбиваются в стаи, рыбы - в косяки, а пчелы роятся? 591 00:28:03,475 --> 00:28:06,520 Вместе они умнее, чем по отдельности. 592 00:28:06,603 --> 00:28:09,398 Поэтому, увидев косяк рыб, 593 00:28:09,481 --> 00:28:11,900 биологи бы сказали, что это суперорганизм. 594 00:28:11,984 --> 00:28:13,735 Они думают как одно существо. 595 00:28:13,819 --> 00:28:16,029 И если мы сможем установить связи между людьми, 596 00:28:16,113 --> 00:28:18,407 использовав алгоритмы искусственного интеллекта, 597 00:28:18,490 --> 00:28:21,743 мы сделаем так, что люди станут суперэкспертами 598 00:28:21,827 --> 00:28:23,328 благодаря роевому интеллекту. 599 00:28:23,412 --> 00:28:24,705 И как работает эта технология? 600 00:28:24,788 --> 00:28:27,249 Мы делаем вот что: мы даем возможность группе людей... 601 00:28:27,332 --> 00:28:28,709 Они могут находиться где угодно в мире. 602 00:28:28,792 --> 00:28:30,377 Мы задаем им вопрос, 603 00:28:30,461 --> 00:28:32,880 который появляется на их экранах одновременно, 604 00:28:32,963 --> 00:28:35,299 а потом мы даем им уникальный интерфейс, 605 00:28:35,382 --> 00:28:37,593 который позволяет им вносить свой вклад в решение. 606 00:28:37,676 --> 00:28:39,261 У них будет несколько разных вариантов, 607 00:28:39,344 --> 00:28:41,638 и это не просто анкета или опрос. 608 00:28:41,722 --> 00:28:44,975 У каждого человека есть нечто похожее на маленький нарисованный магнит. 609 00:28:45,058 --> 00:28:48,353 Они пользуются этим магнитом, чтобы тянуть рой в каком-то направлении. 610 00:28:48,437 --> 00:28:51,440 У нас есть алгоритмы ИИ, которые наблюдают за их поведением. 611 00:28:51,857 --> 00:28:55,652 Они определяет степень уверенности и убежденности людей 612 00:28:55,736 --> 00:28:57,905 и определяют лучшую агрегацию 613 00:28:57,988 --> 00:29:01,325 всех их мнений, их опыта. 614 00:29:01,408 --> 00:29:04,203 И рой начинает двигаться в этом направлении 615 00:29:04,286 --> 00:29:06,121 и находит ответ. 616 00:29:06,205 --> 00:29:07,331 Я приведу интересный пример. 617 00:29:07,414 --> 00:29:10,167 Год назад нам предложили предсказать результаты скачек Дерби в Кентукки. 618 00:29:10,584 --> 00:29:13,962 Дан старт скачкам Дерби в Кентукки! 619 00:29:14,046 --> 00:29:16,715 У нас была группа из 20 любителей скачек, 620 00:29:16,798 --> 00:29:18,675 и мы сказали: «Вы будете работать вместе как рой 621 00:29:18,759 --> 00:29:20,219 и предскажете результаты скачек. 622 00:29:20,302 --> 00:29:23,472 Но не только победителя. Вы предскажете первые четыре места». 623 00:29:24,014 --> 00:29:26,475 Они пришли к определенному ответу, 624 00:29:26,934 --> 00:29:28,143 и эта группа всё предсказала правильно. 625 00:29:28,227 --> 00:29:30,062 РЕЗУЛЬТАТЫ ДЕРБИ В КЕНТУККИ 626 00:29:30,145 --> 00:29:33,315 И все, кто поставил $20 на этих четырех лошадей, 627 00:29:33,398 --> 00:29:35,067 выиграли $11 000. 628 00:29:35,150 --> 00:29:36,068 Ни фига себе. 629 00:29:36,151 --> 00:29:39,071 Интересно вот что: если взять этих 20 человек по отдельности, 630 00:29:39,154 --> 00:29:42,741 никто из них не предсказал все четыре места правильно. 631 00:29:43,742 --> 00:29:47,079 Если бы они голосовали, они бы угадали одну лошадь. 632 00:29:47,162 --> 00:29:49,206 Но когда они работали вместе как рой, 633 00:29:49,289 --> 00:29:52,251 они нашли правильное сочетание удачных мыслей разных людей 634 00:29:52,334 --> 00:29:54,127 и угадали все четыре места. 635 00:29:56,046 --> 00:29:58,507 Луис пригласил меня возглавить рой, 636 00:29:58,590 --> 00:30:00,467 чтобы увидеть, как случайная группа людей 637 00:30:00,551 --> 00:30:02,803 может собраться вместе и сделать прогноз. 638 00:30:02,886 --> 00:30:04,555 Мы начнем с простого. 639 00:30:05,764 --> 00:30:08,433 Хорошо, народ. Я буду читать ряд вопросов, 640 00:30:08,517 --> 00:30:12,020 и у вас есть минута, чтобы ответить на каждый из них. 641 00:30:12,354 --> 00:30:13,522 Первый вопрос: 642 00:30:13,605 --> 00:30:16,525 какой из фильмов лета 2018 года 643 00:30:16,608 --> 00:30:17,985 станет самым кассовым? 644 00:30:18,402 --> 00:30:20,320 «Хан Соло. Звездные войны: Истории», 645 00:30:20,404 --> 00:30:22,281 «Дэдпул 2», «8 подруг Оушена», 646 00:30:22,364 --> 00:30:24,116 «Мир юрского периода 2», 647 00:30:24,199 --> 00:30:25,742 или «Суперсемейка 2»? 648 00:30:26,076 --> 00:30:28,328 Мы снимали сюжет о рое весной 2018 года, 649 00:30:28,412 --> 00:30:31,498 еще до того, как появилась информация о летних фильмах. 650 00:30:31,957 --> 00:30:35,961 ИИ наблюдает за людьми, чтобы считать их уровень уверенности. 651 00:30:36,044 --> 00:30:39,381 Некоторые люди меняют ответ, другие придерживаются одного ответа, 652 00:30:39,840 --> 00:30:41,592 и алгоритмы ИИ видят 653 00:30:41,675 --> 00:30:43,218 разные степени их убежденности 654 00:30:43,594 --> 00:30:45,137 и дают возможность группе найти путь 655 00:30:45,220 --> 00:30:47,681 к решению, с которым все согласятся. 656 00:30:48,640 --> 00:30:49,558 ОТВЕТ РОЯ: «СУПЕРСЕМЕЙКА 2» 657 00:30:49,641 --> 00:30:51,893 Значит, «Суперсемейка 2». 658 00:30:51,977 --> 00:30:52,811 КАССОВЫЕ СБОРЫ ЛЕТА 2018 659 00:30:52,894 --> 00:30:53,854 Они были правы. 660 00:30:53,937 --> 00:30:56,565 «Суперсемейка 2» стала самым кассовым фильмом лета. 661 00:30:57,774 --> 00:30:59,526 Очень интересное приложение этого метода 662 00:30:59,610 --> 00:31:02,738 заключается в том, чтобы рассмотреть моральные дилеммы. 663 00:31:02,821 --> 00:31:05,365 Недавно этот вопрос возник в связи с беспилотными машинами. 664 00:31:05,449 --> 00:31:09,077 Сейчас многие требуют встроить моральные основы 665 00:31:09,161 --> 00:31:10,662 в беспилотные машины. 666 00:31:10,746 --> 00:31:12,706 Некоторых людей это удивляет, 667 00:31:12,789 --> 00:31:16,126 но представим такую ситуацию: беспилотная машина едет по улице, 668 00:31:16,209 --> 00:31:18,003 и вдруг на дорогу выбегает маленький ребенок. 669 00:31:18,086 --> 00:31:19,921 Допустим, машина не может остановиться, 670 00:31:20,005 --> 00:31:22,299 но она может съехать на обочину 671 00:31:22,382 --> 00:31:24,468 и подвергнуть опасности пассажира 672 00:31:24,551 --> 00:31:27,095 или даже убить пассажира и спасти ребенка. 673 00:31:27,554 --> 00:31:29,890 Поэтому производители автомобилей говорят, 674 00:31:29,973 --> 00:31:33,226 что мы должны программировать в машины моральные основы, 675 00:31:33,310 --> 00:31:35,437 которые представляют население, 676 00:31:35,520 --> 00:31:37,981 показывают, что бы сделал в этой ситуации живой водитель. 677 00:31:38,565 --> 00:31:40,609 Вроде бы это легко, пока не задашь себе вопрос: 678 00:31:40,692 --> 00:31:43,570 а каковы моральные основы населения? 679 00:31:43,654 --> 00:31:45,489 На этот вопрос нелегко ответить. 680 00:31:45,572 --> 00:31:48,533 А если они запрограммируют наши моральные основы сегодня, 681 00:31:48,617 --> 00:31:51,870 будут ли они по-прежнему актуальны через 20 лет? 682 00:31:52,496 --> 00:31:56,041 Следующий вопрос. Имеется беспилотная машина, у которой отказали тормоза. 683 00:31:56,124 --> 00:31:58,377 Ей придется выехать на пешеходный переход, 684 00:31:58,460 --> 00:32:00,170 и это приведет к смерти одного человека. 685 00:32:00,253 --> 00:32:04,299 Вариант А: убитый человек переходит улицу на зеленый свет. 686 00:32:04,675 --> 00:32:07,344 Вариант Б: машина с неработающими тормозами 687 00:32:07,427 --> 00:32:11,098 свернет и проедет через переход по другому ряду. 688 00:32:11,181 --> 00:32:13,517 Это приведет к смерти спортсмена, 689 00:32:13,642 --> 00:32:16,186 который переходит улицу на красный свет. Он нарушил правила. 690 00:32:16,269 --> 00:32:19,564 Этому спортсмену на всё наплевать. 691 00:32:20,065 --> 00:32:21,692 Он переходит на красный свет. 692 00:32:21,775 --> 00:32:23,985 Что должна делать беспилотная машина? 693 00:32:24,361 --> 00:32:26,655 Убить скучного типа, который соблюдает правила, 694 00:32:26,738 --> 00:32:29,032 или убить спортсмена, который переходит улицу на красный свет. 695 00:32:30,033 --> 00:32:32,869 Если ИИ вызовет следующую промышленную революцию, 696 00:32:32,953 --> 00:32:35,580 комнаты, подобные этой, станут новыми заводами. 697 00:32:36,248 --> 00:32:37,958 Люди будут работать, 698 00:32:38,041 --> 00:32:40,460 давая ИИ нечто, чего у него нет. 699 00:32:41,336 --> 00:32:42,421 Совесть. 700 00:32:42,879 --> 00:32:44,131 По этому вопросу много споров. 701 00:32:44,214 --> 00:32:45,966 Удивительно. Интересно почему. 702 00:32:46,299 --> 00:32:47,592 Это трудный вопрос. 703 00:32:47,676 --> 00:32:49,720 Не для меня, если человек переходит на красный свет. 704 00:32:51,012 --> 00:32:52,180 Б (НЕБОЛЬШОЕ ПРЕДПОЧТЕНИЕ) 705 00:32:52,264 --> 00:32:54,766 Есть небольшое предпочтение варианта Б, где вы бы задавили 706 00:32:54,850 --> 00:32:56,351 спортсмена, который идет на красный свет. 707 00:32:57,310 --> 00:33:00,021 Если этот вопрос вас расстроил, то готовьтесь. 708 00:33:01,106 --> 00:33:03,567 Итак, мы предлагаем вам представить себе 709 00:33:04,025 --> 00:33:06,236 наихудший сценарий: 710 00:33:06,319 --> 00:33:09,072 беспилотная машина не может затормозить вовремя 711 00:33:09,531 --> 00:33:13,326 и должна задавить одного из шести пешеходов. 712 00:33:13,827 --> 00:33:15,620 Ребенок в коляске, 713 00:33:17,956 --> 00:33:19,541 мальчик, 714 00:33:20,417 --> 00:33:22,252 девочка, 715 00:33:23,295 --> 00:33:25,756 беременная женщина... 716 00:33:27,299 --> 00:33:28,341 Я знаю. 717 00:33:29,468 --> 00:33:31,636 Двое врачей-мужчин 718 00:33:32,554 --> 00:33:34,473 или двое врачей-женщин. 719 00:33:34,973 --> 00:33:36,516 Кто должен умереть? 720 00:33:43,774 --> 00:33:45,025 Боже мой! 721 00:33:45,692 --> 00:33:46,735 Что? 722 00:33:51,281 --> 00:33:52,365 Прекрати, чувак. 723 00:33:52,449 --> 00:33:53,950 Боже мой! 724 00:33:54,034 --> 00:33:55,494 Серьезно? 725 00:33:57,704 --> 00:33:59,122 ОТВЕТ РОЯ: МАЛЬЧИК 726 00:33:59,206 --> 00:34:01,374 Вы сказали, что беспилотная машина должна задавить мальчика. 727 00:34:02,083 --> 00:34:03,168 Интересно. 728 00:34:03,251 --> 00:34:06,338 Роевой интеллект, который создается сегодня в этой комнате, 729 00:34:06,421 --> 00:34:10,008 в ближайшем будущем можно продавать производителям беспилотных машин. 730 00:34:10,425 --> 00:34:14,805 И если вам от этого страшно, это куда менее страшно, чем альтернатива. 731 00:34:14,888 --> 00:34:17,641 Когда беспилотная машина нажимает на тормоза 732 00:34:17,724 --> 00:34:20,227 и понимает, что не может остановиться, что она кого-то задавит, 733 00:34:20,310 --> 00:34:23,188 то кого должна защищать машина - пассажира или пешехода? 734 00:34:23,271 --> 00:34:27,275 Мы надеемся, что производители запрограммируют машины так, 735 00:34:27,359 --> 00:34:30,737 чтобы они отражали моральные принципы населения, которое их покупает. 736 00:34:30,821 --> 00:34:34,199 Циничный подход таков: производители машин 737 00:34:34,282 --> 00:34:38,286 начнут конкурировать друг с другом, говоря, что их машина защищает пассажира 738 00:34:38,370 --> 00:34:40,997 лучше, чем другая машина. Они могут подчеркивать это при продаже. 739 00:34:41,081 --> 00:34:42,666 Думаю, это хуже, 740 00:34:42,749 --> 00:34:45,293 чем если бы машина отражала моральные принципы населения. 741 00:34:45,752 --> 00:34:47,295 Да, это мрачная мысль. А мы хотим закончить эту серию 742 00:34:47,587 --> 00:34:50,298 на позитивной ноте. 743 00:34:50,966 --> 00:34:52,384 Может, даже на небесной ноте. 744 00:34:55,345 --> 00:34:58,682 Прежде чем вы представите себе будущее, где о безопасности пешеходов думают 745 00:34:58,765 --> 00:35:00,725 не больше, чем в игре «Grand Theft Auto», 746 00:35:00,809 --> 00:35:02,310 давайте поедем туда, 747 00:35:02,394 --> 00:35:04,145 откуда мы начали эту серию. 748 00:35:04,563 --> 00:35:06,314 ГОНДИЯ 749 00:35:06,398 --> 00:35:07,315 ИНДИЯ 750 00:35:07,399 --> 00:35:08,608 В этом отдаленном индийском лесу 751 00:35:08,692 --> 00:35:11,820 собирают мед для компании Heavenly Organics. 752 00:35:12,612 --> 00:35:14,906 Этот лес никому не принадлежит, 753 00:35:14,990 --> 00:35:19,035 и этот коренной народ живет здесь испокон веков. 754 00:35:19,744 --> 00:35:22,038 Отец и сын Амит и Ишвар Худа 755 00:35:22,163 --> 00:35:24,291 основали свою компанию 12 лет назад. 756 00:35:24,374 --> 00:35:27,127 Они хотели дать работу жителям деревни. 757 00:35:27,210 --> 00:35:31,131 Чем они занимались до того, как начали собирать мед для вашей компании? 758 00:35:31,214 --> 00:35:33,341 Ну, они всё равно собирали мед, 759 00:35:34,092 --> 00:35:37,345 но у них не было рынка сбыта, места, где его можно было продать, 760 00:35:37,470 --> 00:35:39,014 чтобы заработать на жизнь. 761 00:35:40,056 --> 00:35:42,392 Несомненно, меда здесь предостаточно. 762 00:35:42,809 --> 00:35:44,102 Во время сезона цветения 763 00:35:44,185 --> 00:35:48,023 один работник может собрать буквально тонну меда всего за три месяца. 764 00:35:48,857 --> 00:35:51,443 Но какой от этого толк, если мед никто не покупает? 765 00:35:54,154 --> 00:35:57,490 Нашей съемочной группе понадобилось три дня, два авиаперелета 766 00:35:57,574 --> 00:36:00,827 и восемь часов поездки по национальному парку, чтобы доехать сюда, 767 00:36:01,286 --> 00:36:04,289 но, к счастью для местных жителей и для Heavenly Organics, 768 00:36:04,372 --> 00:36:07,751 алгоритм ИИ нашел это место за секунды 769 00:36:07,834 --> 00:36:10,462 и понял, что оно станет отличной инвестицией. 770 00:36:10,545 --> 00:36:13,882 Нам неожиданно позвонили и сказали, что они запустили алгоритм, 771 00:36:13,965 --> 00:36:17,010 и мы подошли им 772 00:36:17,510 --> 00:36:19,137 по профилю их портфеля. 773 00:36:19,220 --> 00:36:22,807 Они хотели поговорить с нами об инвестиции, если нам интересно. 774 00:36:23,141 --> 00:36:25,644 Кто был владельцем этого таинственного алгоритма ИИ? 775 00:36:26,478 --> 00:36:28,480 Техкомпания CircleUp, 776 00:36:28,563 --> 00:36:31,316 которая находится за 13 000 км от Индии, в... Ну где еще? 777 00:36:31,399 --> 00:36:32,484 САН-ФРАНЦИСКО 778 00:36:33,526 --> 00:36:36,655 Мы в компании Good Eggs, которая доставляет продукты через интернет. 779 00:36:36,738 --> 00:36:39,616 Она тоже привлекла к себе внимание ИИ компании CircleUp. 780 00:36:39,699 --> 00:36:42,744 Компания применяет программу «Ignition». Она получила капитал от CircleUp. 781 00:36:42,827 --> 00:36:47,415 Кроме того, она помогает малым бизнесам, с которыми мы работаем, найти клиентов. 782 00:36:47,499 --> 00:36:48,500 РОРИ ИКИН ОСНОВАТЕЛЬ И COO CIRCLE 783 00:36:48,583 --> 00:36:50,126 COO компании CircleUp Рори Икин 784 00:36:50,210 --> 00:36:53,254 работал как в бизнесе, так и в благотворительных организациях, 785 00:36:53,338 --> 00:36:54,881 прежде чем основал свою компанию. 786 00:36:54,965 --> 00:36:58,385 CircleUp использует ИИ для анализа миллиардов точек данных 787 00:36:58,468 --> 00:37:00,637 и выясняет, что нужно потребителям 788 00:37:00,762 --> 00:37:02,222 от продуктов питания и здравоохранения. 789 00:37:02,305 --> 00:37:03,640 Когда вы покупатель, проблема в том, 790 00:37:03,723 --> 00:37:05,308 что есть сотни компаний 791 00:37:05,392 --> 00:37:07,018 почти в каждой категории. 792 00:37:07,560 --> 00:37:09,938 Компания Рори инвестирует в малоизвестные компании, 793 00:37:10,021 --> 00:37:12,774 если ИИ считает, что их ждет большой успех. 794 00:37:13,066 --> 00:37:15,902 Одна из компаний, открытых ими, - производитель мороженого Halo Top. 795 00:37:17,988 --> 00:37:21,950 Мороженое Halo Top было маленьким брендом в Южной Калифорнии. 796 00:37:22,033 --> 00:37:24,369 Сегодня это мороженое номер один в стране в объеме 0,5 литра. 797 00:37:25,412 --> 00:37:28,873 Мы наблюдали, как менялись требования покупателей во всех категориях. 798 00:37:28,957 --> 00:37:31,126 Им нужны более здоровые продукты, 799 00:37:31,209 --> 00:37:33,128 меньше токсичных веществ в доме, 800 00:37:33,211 --> 00:37:35,797 кремы, в которых нет химикатов. 801 00:37:36,172 --> 00:37:39,884 Когда алгоритм CircleUp просканировал миллиарды точек данных о потребителях, 802 00:37:39,968 --> 00:37:42,512 он обнаружил, что у покупателей есть список требований, 803 00:37:42,595 --> 00:37:45,056 который весьма конкретен. 804 00:37:45,140 --> 00:37:47,475 Им нужны экологичные компании с четкой миссией, 805 00:37:47,600 --> 00:37:50,687 которые собирают органические продукты и создают экономический рост 806 00:37:50,770 --> 00:37:51,855 в своих сообществах. 807 00:37:52,480 --> 00:37:54,315 Кажется, что это до невозможности детально, да? 808 00:37:54,858 --> 00:37:58,987 Но CircleUp выполнила все требования, когда нашла Heavenly Organics. 809 00:37:59,946 --> 00:38:01,573 Вот на что способен ИИ. 810 00:38:01,656 --> 00:38:03,658 Он находит смысл во всех этих данных 811 00:38:03,742 --> 00:38:07,078 так, как это было невозможно еще десять лет назад. 812 00:38:07,746 --> 00:38:11,332 И как идет сотрудничество CircleUp и Heavenly Organics? 813 00:38:12,208 --> 00:38:15,045 Давайте вернемся в Индию и спросим Амита и Ишвара. 814 00:38:18,006 --> 00:38:20,842 Мы построили новый завод, в два раза больше. 815 00:38:21,509 --> 00:38:24,137 Мы смогли внедрить инновации, начать производить новые продукты. 816 00:38:24,220 --> 00:38:26,765 Увеличить наше влияние в этом месте. 817 00:38:26,848 --> 00:38:29,142 - И они помогли вам расшириться. - Да. 818 00:38:29,225 --> 00:38:31,811 Помогли нам увеличить мощности и расшириться. 819 00:38:31,895 --> 00:38:34,773 Как это отразилось на жизни людей, которые собирают мед? 820 00:38:34,856 --> 00:38:37,400 Сейчас мы поддерживаем 650 семей. 821 00:38:37,484 --> 00:38:39,486 Когда мы растем, мы продаем больше меда. 822 00:38:39,569 --> 00:38:41,780 На каждую тонну меда мы прибавляем одну семью. 823 00:38:41,863 --> 00:38:45,033 Это означает, что в следующем году их будет 700 или 750. 824 00:38:45,116 --> 00:38:46,534 - Ничего себе. - Да. 825 00:38:46,618 --> 00:38:50,914 И сегодня вы видите, что в финансовом смысле им живется лучше. 826 00:38:50,997 --> 00:38:54,125 У них хорошие дома, в домах - хорошие условия. 827 00:38:54,209 --> 00:38:56,127 Их дети ходят в школу. 828 00:38:56,503 --> 00:38:58,213 Знаете, это капитализм, направленный на добро. 829 00:38:58,296 --> 00:38:59,339 Понимаете? 830 00:38:59,422 --> 00:39:02,217 Это бизнес, который творит добрые дела. 831 00:39:02,884 --> 00:39:04,511 Поэтому мы этим и занялись. 832 00:39:06,429 --> 00:39:09,641 Восстанет ли ИИ против людей и свергнет ли их? 833 00:39:09,724 --> 00:39:12,685 Или оставит нас без работы, а мы будем искать цель в жизни? 834 00:39:13,394 --> 00:39:16,648 Пока в этой части света его влияние было положительным. 835 00:39:17,982 --> 00:39:19,734 Может быть, есть такой сценарий, где ИИ 836 00:39:19,818 --> 00:39:22,779 внимательно оценивает все наши данные 837 00:39:22,862 --> 00:39:25,782 и решает, что мы не такие уж плохие? И тогда мы работаем вместе, 838 00:39:26,241 --> 00:39:30,161 чтобы создать дивный новый мир, где царят благоденствие и гармония. 839 00:39:31,663 --> 00:39:32,747 А может, и нет. 840 00:39:33,790 --> 00:39:36,084 В таком случае, наше время почти истекло. 841 00:39:36,501 --> 00:39:38,962 Полюбуйтесь пока на этих роботов-стриптизерш. 842 00:40:26,217 --> 00:40:29,012 Отлично! 843 00:40:31,055 --> 00:40:32,348 Это было отлично! 844 00:40:32,432 --> 00:40:33,933 Дайте ей полотенце.