1 00:00:05,382 --> 00:00:06,759 "월스트리트 역" 2 00:00:06,842 --> 00:00:08,427 "월스트리트" 3 00:00:08,927 --> 00:00:11,930 저는 이곳 월스트리트에 있습니다 모든 게 시작된 곳이죠 4 00:00:13,724 --> 00:00:17,186 2010년 5월 6일 오후 2시 45분 5 00:00:17,686 --> 00:00:21,190 런던 부모님의 집에 앉아 있던 한 남자가 6 00:00:21,273 --> 00:00:24,985 이곳 뉴욕 증권 거래소에서 알고리즘을 풀었습니다 7 00:00:25,068 --> 00:00:27,279 10억 달러의 매도 주문을 했죠 8 00:00:28,697 --> 00:00:30,449 원래 계획은 이 시장에 장난을 치고 9 00:00:30,532 --> 00:00:32,659 거래가 완료되기 전 주문을 취소할 작정이었지만 10 00:00:33,160 --> 00:00:34,411 그렇게 되기 전에 11 00:00:34,495 --> 00:00:37,247 전 세계의 나머지 자동화된 증권 거래 봇 역시 12 00:00:37,331 --> 00:00:38,582 팔기 시작했고 13 00:00:39,041 --> 00:00:42,336 연쇄 반응을 일으켜 시장에 큰 영향을 미쳤습니다 14 00:00:44,880 --> 00:00:48,967 다우존스 산업평균지수가 단 15분 만에 천 포인트 하락했습니다 15 00:00:49,051 --> 00:00:52,513 그건 대공황이 시작됐을 때만큼 큰 하락입니다 16 00:00:52,596 --> 00:00:55,307 대체 무슨 일일까요? 모르겠습니다 17 00:00:55,390 --> 00:00:56,642 시장에 두려움이 감돕니다 18 00:00:57,267 --> 00:00:59,645 크루즈 여행을 취소하고 애들을 공립학교로 전학 보내야 할지도 모릅니다 19 00:01:00,938 --> 00:01:02,481 '플래시 크래시'입니다, 여러분 20 00:01:03,023 --> 00:01:04,066 그게... 21 00:01:05,359 --> 00:01:08,111 36분 후 시장은 다시 살아났습니다 22 00:01:08,195 --> 00:01:11,615 하지만 2010년의 플래시 크래시를 통해 처음으로 23 00:01:11,698 --> 00:01:15,994 인간은 인공지능이 우리 경제 체계를 어떻게 차지하게 될지 24 00:01:16,078 --> 00:01:19,164 직관적이고 불안한 장면을 통해 잠깐이나마 직접 목격했습니다 25 00:01:20,707 --> 00:01:22,167 그리고 인공지능의 현주소를 보셔야 합니다 26 00:01:24,086 --> 00:01:26,922 그래서 저는 이곳 인도에 야생 꿀을 찾으러 왔습니다 27 00:01:27,631 --> 00:01:28,966 하지만 이 얘기는 나중에 더 하죠 28 00:01:29,341 --> 00:01:31,885 인공지능이 이곳을 어떻게 혹은 왜 찾았는지 이해하려면 29 00:01:31,969 --> 00:01:34,429 우선 인공지능이 뭔지 아셔야 합니다 30 00:01:34,513 --> 00:01:36,431 이미 알고 있다고 생각하신다면 분명 잘못 아시는 겁니다 31 00:01:37,850 --> 00:01:41,436 좋든 싫든 우리 모두 돈으로 연결됩니다 32 00:01:41,937 --> 00:01:45,315 저 칼 펜은 세계 경제라는 이 거대한 야수를 33 00:01:45,691 --> 00:01:48,068 탐험할 겁니다 34 00:01:48,151 --> 00:01:49,403 세계 경제라는 이 거대한 야수 35 00:01:52,322 --> 00:01:54,199 인공지능은 정확히 뭘까요? 36 00:01:54,283 --> 00:01:55,409 "샌프란시스코" 37 00:01:55,492 --> 00:01:58,579 우선 뭐가 인공지능이 아닌지 알기 위해 샌프란시스코에 왔습니다 38 00:01:58,662 --> 00:02:01,874 이는 공상 과학 영화나 소설에 나오는 거의 모든 것을 포함합니다 39 00:02:02,541 --> 00:02:03,542 특히... 40 00:02:03,959 --> 00:02:07,004 거대한 로봇 말이죠! 41 00:02:27,107 --> 00:02:28,442 세상에! 42 00:02:30,485 --> 00:02:32,112 저는 줄리아 보스먼과 만났습니다 43 00:02:32,237 --> 00:02:36,575 세계경제포럼의 인공지능 위원회 소속입니다 44 00:02:36,658 --> 00:02:40,329 세계 지도자들에게 인공지능의 잠재력을 어떻게 활용할지 조언을 주죠 45 00:02:40,829 --> 00:02:44,499 자동차가 부서지는 걸 보는 것보다 훨씬 좋은 특전이 주어지는 직업입니다 46 00:02:44,583 --> 00:02:47,586 캐나다에서 제일 섹시하기로 유명한 이름이 드레이크는 아닌 사람과 셀카를 찍고 47 00:02:47,669 --> 00:02:48,754 "저스틴 트뤼도 캐나다 총리" 48 00:02:53,467 --> 00:02:55,385 이제 어떻게 집에 갈 건가요? 49 00:02:55,469 --> 00:02:56,803 아직 몰 수 있을 것 같은데요 50 00:03:01,016 --> 00:03:03,018 우리는 메가봇이라는 회사에서 만나고 있습니다 51 00:03:03,101 --> 00:03:05,854 다른 로봇과 싸우기 위해 거대한 로봇을 만드는 곳이죠 52 00:03:07,814 --> 00:03:10,275 '중세 시대'보다 훨씬 더 괴짜 같아요 53 00:03:13,779 --> 00:03:14,905 줄리아 말에 따르면 54 00:03:14,988 --> 00:03:17,658 이 로봇은 그냥 놀이공원의 사용되지 않는 볼거리가 아닙니다 55 00:03:18,283 --> 00:03:22,412 이들은 중요한 특징 하나 때문에 기술적으로는 퇴화했어요 56 00:03:24,289 --> 00:03:25,582 이 로봇의 뇌는 우리지만 57 00:03:25,666 --> 00:03:27,626 인공지능은 인공 뇌예요 58 00:03:27,709 --> 00:03:28,752 "줄리아 보스먼 세계경제포럼, 인공지능 전문가" 59 00:03:28,835 --> 00:03:29,711 흥미롭군요 자세히 좀 설명해주실래요? 60 00:03:29,795 --> 00:03:32,506 우린 스스로 학습할 수 있는 61 00:03:32,589 --> 00:03:34,132 컴퓨터를 만들고 있어요 62 00:03:34,591 --> 00:03:37,010 굳이 몸이 없어도 되고요 63 00:03:37,344 --> 00:03:40,055 우리가 이미 만든 인공지능의 상당수가 64 00:03:40,138 --> 00:03:41,765 거대한 데이터 센터에 살아요 65 00:03:42,057 --> 00:03:46,645 13살짜리에게 설명해야 한다면 66 00:03:46,728 --> 00:03:48,146 인공지능을 어떻게 설명하시겠어요? 67 00:03:48,230 --> 00:03:50,691 아주 일반적인 정의는 이렇게 말할 수 있겠죠 68 00:03:50,774 --> 00:03:54,945 인공지능은 구체적으로 하라고 프로그램하지 않은 걸 69 00:03:55,028 --> 00:03:58,156 기계가 하도록 만드는 거예요 70 00:03:58,240 --> 00:03:59,616 전통적인 프로그래밍에서는 71 00:03:59,700 --> 00:04:02,744 규칙과 알고리즘이 있고 72 00:04:02,828 --> 00:04:04,413 이러면 저렇게 된다는 걸 알죠 73 00:04:04,496 --> 00:04:07,165 프로그램을 짠 인간이 모두 알려주고요 74 00:04:07,249 --> 00:04:09,501 의학 논문을 보면 한 데이터베이스에 75 00:04:09,584 --> 00:04:12,004 수백만 항목이 있어요 76 00:04:12,087 --> 00:04:14,923 어떤 의사도 현 분야를 따라잡기 위해 이런 연구 논문을 77 00:04:15,048 --> 00:04:17,676 다 볼 수는 없지만 기계는 할 수 있어요 78 00:04:17,759 --> 00:04:20,220 기계가 문제를 푸는 방법이나 병을 고치기 위해 79 00:04:20,303 --> 00:04:21,596 새로운 약물을 발견하려고 새로운 발상을 하는 걸 80 00:04:21,680 --> 00:04:24,766 상상할 수 있죠 81 00:04:24,850 --> 00:04:25,976 그렇군요 82 00:04:26,059 --> 00:04:28,395 인공지능에서 83 00:04:28,478 --> 00:04:30,856 지금 가장 열기가 뜨거운 분야는 84 00:04:30,939 --> 00:04:32,065 '딥러닝'이라는 겁니다 85 00:04:32,149 --> 00:04:33,608 딥러닝이 뭔가요? 86 00:04:33,692 --> 00:04:36,069 딥러닝은 우리 뇌에 있는 것과 비슷한 87 00:04:36,153 --> 00:04:39,072 신경망의 깊은 층이 88 00:04:39,156 --> 00:04:42,242 여러 개 있는 걸 말해요 89 00:04:42,325 --> 00:04:45,579 우리 머릿속에는 신경세포가 있는데 그것들은 서로 연결돼서 90 00:04:45,662 --> 00:04:46,788 정보를 교환하죠 91 00:04:46,830 --> 00:04:50,751 어떻게 보면 이걸 기계에서 시뮬레이션하는 거죠 92 00:04:50,834 --> 00:04:54,546 균형 잡히고 편향되지 않은 방식으로 데이터를 넣어서 93 00:04:54,629 --> 00:04:56,214 기계도 배울 수 있게 하죠 94 00:04:56,548 --> 00:04:59,009 예를 들어 이미지 인식을 얘기해줄 때 95 00:04:59,092 --> 00:05:01,511 이건 고양이의 이미지 이건 개의 이미지라고 해요 96 00:05:01,595 --> 00:05:03,972 그러면 이 이미지를 죽 살펴보기 시작하고 97 00:05:04,056 --> 00:05:06,349 스스로 그걸 어떻게 알아볼지 배우는 거예요 98 00:05:06,433 --> 00:05:10,187 그러니 모든 데이터를 하나하나 프로그래밍할 필요 없죠 99 00:05:10,228 --> 00:05:11,229 흥미롭네요 100 00:05:11,313 --> 00:05:14,107 딥러닝이 아닌 기계학습도 있어요 101 00:05:14,858 --> 00:05:16,985 진화하는 알고리즘으로 102 00:05:17,069 --> 00:05:19,863 진화의 원리를 사용해서 103 00:05:19,946 --> 00:05:24,242 기계가 다른 예시를 시도해보게 두는 거죠 104 00:05:24,743 --> 00:05:27,329 그다음 뭐가 제일 잘되나 보는 거예요 105 00:05:27,412 --> 00:05:31,291 그다음 가장 잘 되는 건 다음 세대로 가는 겁니다 106 00:05:31,374 --> 00:05:34,336 유기체가 진화하는 것처럼 가장 잘 맞는 프로그램과 107 00:05:34,419 --> 00:05:37,172 최고의 프로그램이 살아남는 원리를 쓰는 겁니다 108 00:05:37,255 --> 00:05:38,381 그렇군요 109 00:05:38,465 --> 00:05:40,550 저건 진화하는 알고리즘이군요 110 00:05:40,926 --> 00:05:44,346 인공지능을 탐구함으로써 오는 재정적 이익은 뭔가요? 111 00:05:44,429 --> 00:05:47,724 경제에 미치는 잠재적인 영향이 엄청날 것 같은데요 112 00:05:47,808 --> 00:05:50,393 네, 경제를 급진적으로 바꾸게 될 것 같아요 113 00:05:50,477 --> 00:05:53,313 새로운 산업 혁명을 말하는 거예요 114 00:05:53,396 --> 00:05:54,231 흥미롭네요 115 00:05:54,314 --> 00:05:55,774 이건 우리의 마지막 발명이라고 불려왔어요 116 00:05:55,857 --> 00:05:58,944 일단 우리보다 똑똑한 인공 뇌가 생기면 117 00:05:59,027 --> 00:06:00,779 우리를 위해 더 많은 걸 발명해줄 수 있으니까요 118 00:06:00,862 --> 00:06:03,865 우리 모두를 죽일 테니까 마지막 발명이라고 불리는 건가요? 119 00:06:04,950 --> 00:06:06,118 아니길 바랍니다 120 00:06:08,829 --> 00:06:12,207 많이들 인공지능이 너무 똑똑해져서 우릴 다 죽일까 봐 121 00:06:12,290 --> 00:06:15,001 두려워하시죠 근데 걱정하지 마세요 122 00:06:15,085 --> 00:06:19,047 인공지능이 정말 똑똑한 이유는 정말 멍청하기 때문이에요 123 00:06:19,464 --> 00:06:20,549 이리 와, 인공지능 124 00:06:21,299 --> 00:06:24,302 인공지능에 진화하는 알고리즘으로 완벽한 케이크 레시피를 찾아달라고 125 00:06:24,386 --> 00:06:26,179 부탁했다고 상상해보죠 126 00:06:27,973 --> 00:06:30,517 인공지능은 케이크를 만드는 최고의 방법을 생각하려 하지 않아요 127 00:06:30,600 --> 00:06:33,520 그냥 수십억 번 시도해보겠죠 128 00:06:33,603 --> 00:06:37,482 부엌에 있는 모든 재료를 가지고 가장 멍청한 방법으로 만들 거예요 129 00:06:38,441 --> 00:06:40,652 물론 대부분 실패할 겁니다 130 00:06:42,320 --> 00:06:43,613 이건 확실히 실패네요 131 00:06:44,447 --> 00:06:45,657 시도는 좋았어, 멍청이야 132 00:06:46,616 --> 00:06:50,162 실패는 인공지능의 감정을 상하게 하지 않아요, 감정이 없으니까요 133 00:06:50,745 --> 00:06:53,123 진화하는 알고리즘의 좋은 점은 134 00:06:53,206 --> 00:06:56,293 이렇게 바보 같아 보이는 방법을 모두 시도해봐서 135 00:06:56,376 --> 00:06:58,044 이성적인 인간이라면 136 00:06:58,128 --> 00:07:01,464 풀려고 하지 않을 요리 문제의 해결책을 우연히 발견할 수도 있어요 137 00:07:01,548 --> 00:07:04,176 뛰어난 비건 케이크를 만드는 것 같은 거죠 138 00:07:04,259 --> 00:07:05,302 케이크를 만들었어요 139 00:07:06,178 --> 00:07:07,554 잘했어, 인공지능 140 00:07:07,637 --> 00:07:09,097 대부분 캐슈너트예요 141 00:07:09,931 --> 00:07:13,143 캐슈너트를 쓸 생각 해봤나요? 당연히 아니겠죠! 142 00:07:13,226 --> 00:07:16,521 멍청한 생각일 테니까요 인공지능이 기꺼이 멍청해질 테니 143 00:07:16,605 --> 00:07:18,190 여러분은 멍청해질 필요가 없습니다 144 00:07:18,273 --> 00:07:21,067 이 멍청이가 너무 똑똑하게 진화해서 145 00:07:21,151 --> 00:07:23,653 세상을 지배하고 우릴 모두 죽일까요? 146 00:07:24,196 --> 00:07:25,280 확실히는 말하기 힘드네요 147 00:07:25,363 --> 00:07:26,740 시작 코드를 배우고 있어요 148 00:07:27,657 --> 00:07:28,992 하지만 그사이 149 00:07:29,993 --> 00:07:31,077 케이크를 좀 드세요 150 00:07:35,165 --> 00:07:36,541 저는 여전히 151 00:07:36,625 --> 00:07:39,461 인공지능이 문제를 해결하기보다는 문제를 더 야기할까 걱정되지만 152 00:07:41,004 --> 00:07:43,757 전문가들은 의료, 교통수단 153 00:07:43,840 --> 00:07:47,636 그리고 금융계 등의 생산성을 높여주고 154 00:07:47,719 --> 00:07:51,848 세계의 GDP를 2030년까지 15조 7천억 달러 올려줄 거라고 합니다 155 00:07:52,474 --> 00:07:56,478 이는 현재 중국과 인도의 생산량을 합친 것보다 더 많은 금액입니다 156 00:07:56,561 --> 00:07:58,480 "뉴욕시" 157 00:07:59,898 --> 00:08:02,275 인공지능이 얼마나 중요한가요? 158 00:08:02,943 --> 00:08:06,404 제가 볼 때는 인류 역사상 가장 중요한 세 가지 중 하나예요 159 00:08:06,488 --> 00:08:07,697 인류 역사상요? 160 00:08:07,781 --> 00:08:08,990 정말 인류 역사상요 161 00:08:09,616 --> 00:08:11,368 저는 앤드루 맥아피를 만났습니다 162 00:08:11,451 --> 00:08:15,664 신기술이 어떻게 경제를 바꾸고 그에 따라 인간 사회 전체를 163 00:08:15,747 --> 00:08:19,542 어떻게 바꾸는지에 관해서는 세계 최고의 전문가죠 164 00:08:20,460 --> 00:08:22,212 인류 역사를 그래프로 그리면 165 00:08:22,295 --> 00:08:24,214 수천 년 동안 아무 일도 없었다는 걸 166 00:08:24,297 --> 00:08:26,258 알 수 있어요 그냥 일직선이었죠 167 00:08:26,341 --> 00:08:28,093 "앤드루 맥아피 - MIT의 디지털 경제부 공동 부장" 168 00:08:28,176 --> 00:08:30,845 죽은 것과 다름없는 수준이었죠 169 00:08:30,929 --> 00:08:32,514 그러다 갑자기 어느 시점에서 170 00:08:32,597 --> 00:08:34,933 인류 역사의 그래프가 어딜 보든 상관없이 171 00:08:35,016 --> 00:08:38,144 지루한 수평선에서 말도 안 되는 수직으로 가요 172 00:08:38,228 --> 00:08:39,771 눈 깜짝할 사이에 말이죠 173 00:08:39,854 --> 00:08:41,481 1800년대쯤 이렇게 됐어요 174 00:08:41,564 --> 00:08:45,443 먼저는 증기 동력 때문이었고 두 번째는 전기 때문이었죠 175 00:08:47,821 --> 00:08:50,782 인류가 전기를 통해 얻은 것들은 알기 쉽죠 176 00:08:50,865 --> 00:08:53,827 전기는 우리에게 전차를 줬고 지하철을 줬어요 177 00:08:53,910 --> 00:08:57,080 이건 사람들이 잘 알지는 못하지만 도시를 수평이 아닌 수직으로 만들어 줬죠 178 00:08:57,163 --> 00:08:58,373 - 전기가요? - 그럼요 179 00:08:58,456 --> 00:08:59,749 - 승강기가 필요하잖아요 - 승강기요, 그렇죠 180 00:08:59,833 --> 00:09:01,543 수직적인 도시는 그냥 생긴 게 아니에요 181 00:09:01,626 --> 00:09:03,878 승강기 없이 매일 80층을 오르내릴 수는 없잖아요 182 00:09:03,962 --> 00:09:06,506 그러니 이 두 가지 산업 혁명 그러니까 증기와 183 00:09:06,589 --> 00:09:09,259 전기 약간과 내연 기관은 184 00:09:09,342 --> 00:09:11,011 말 그대로 인류 역사를 바꿨어요 185 00:09:11,094 --> 00:09:12,804 - 두말할 나위가 없죠 - 그렇죠 186 00:09:12,887 --> 00:09:15,974 그리고 이건 모두 우리의 신체적 한계를 극복하게 도와준 187 00:09:16,057 --> 00:09:17,100 - 기술이에요 - 네 188 00:09:17,183 --> 00:09:20,562 인공지능의 경우엔 개개인의 뇌의 한계 189 00:09:20,645 --> 00:09:22,564 또 우리 정신 능력의 한계를 극복하게 해주는 겁니다 190 00:09:22,647 --> 00:09:24,607 "위험 고압 전류" 191 00:09:24,691 --> 00:09:26,484 우리는 실제로 해결해야 하는 어려운 도전 과제가 있어요 192 00:09:26,568 --> 00:09:28,236 정말 어려운 도전 과제죠 193 00:09:28,320 --> 00:09:29,696 암을 치료해야 해요 194 00:09:29,779 --> 00:09:31,406 더 많은 이를 먹여야 하고요 195 00:09:31,489 --> 00:09:33,950 21세기에는 지구가 더 더워지지 않게 막아야 해요 196 00:09:34,034 --> 00:09:36,328 이런 건 굉장히 복잡한 문제예요 197 00:09:36,411 --> 00:09:38,747 우리 뇌는 이 복잡함 앞에서 조금씩 무너지죠 198 00:09:38,830 --> 00:09:41,708 과학으로 하고 축적되는 지식으로 하지만 199 00:09:41,791 --> 00:09:44,044 이 복잡함은 감당이 안 돼요 200 00:09:44,127 --> 00:09:45,420 제가 보는 인공지능으로 201 00:09:45,503 --> 00:09:48,506 우리에게 정말 강력한 새 동료가 생긴 거예요 202 00:09:48,590 --> 00:09:51,676 그렇게 말도 안 되는 복잡함으로 들어가도록 우릴 도와주는 거죠 203 00:09:51,760 --> 00:09:54,637 이 신기술이 잘하는 건 204 00:09:54,721 --> 00:09:59,684 감당 못 할 정도로 많은 데이터에서 정말 미묘한 패턴조차 찾는 일이거든요 205 00:09:59,768 --> 00:10:01,603 당신과 내가 감당할 수 있는 것 이상이죠 206 00:10:01,686 --> 00:10:03,897 제가 최근에 들은 가장 말도 안 되는 예시는 207 00:10:03,980 --> 00:10:05,106 금융계에서 들었어요 208 00:10:05,190 --> 00:10:07,650 '로보어드바이저'라는 게 나타났죠 209 00:10:07,734 --> 00:10:09,361 그냥 알고리즘으로 210 00:10:09,444 --> 00:10:11,696 투자 포트폴리오를 만드는 거죠 211 00:10:11,780 --> 00:10:13,031 지금까지는 212 00:10:13,114 --> 00:10:15,325 자산 관리사와 자문가의 213 00:10:15,408 --> 00:10:18,745 사무실에 들어가는 것조차 어느 정도 부가 있어야 했거든요 214 00:10:18,828 --> 00:10:20,872 - 네 - 네, 그건 정말 빠르게 바뀌고 있어요 215 00:10:20,955 --> 00:10:25,210 로보어드바이저 같은 것으로 부가 적은 사람들도 216 00:10:25,293 --> 00:10:28,963 아주 강력한 최첨단 도구를 통해 217 00:10:29,047 --> 00:10:31,299 재정 상태를 향상할 수 있어요 218 00:10:31,383 --> 00:10:34,302 정말 흥미진진하네요 특히 이런 걸 쓰려는 사람들은 219 00:10:34,386 --> 00:10:37,555 항상 해를 끼치려는 것 같았거든요 220 00:10:37,639 --> 00:10:40,225 걱정을 전혀 할 필요가 없다는 말은 아니에요 221 00:10:40,308 --> 00:10:42,852 이전 산업혁명을 통해 우리가 알게 된 건 222 00:10:42,936 --> 00:10:44,687 안 좋은 것도 생겼다는 거죠 223 00:10:44,771 --> 00:10:49,150 우린 분명 온갖 산업 기술로 전쟁을 기계화했어요 224 00:10:49,234 --> 00:10:52,529 심각한 환경오염을 야기했고요 225 00:10:52,612 --> 00:10:54,364 아주 심각한 실수도 저질렀어요 226 00:10:54,447 --> 00:10:57,951 예컨대 산업혁명 때문에 대규모 아동 노동 착취가 생겼죠 227 00:10:58,034 --> 00:11:01,079 그러니 완벽한 건 아닙니다 항상 완벽하지는 않아요 228 00:11:01,162 --> 00:11:03,748 이번에도 같은 일이 생길 겁니다 229 00:11:04,249 --> 00:11:05,291 젠장 230 00:11:06,918 --> 00:11:08,586 맥아피는 저에게 생각할 거리를 줬습니다 231 00:11:08,670 --> 00:11:10,547 역사가 되풀이된다면 232 00:11:10,630 --> 00:11:13,591 그래서 인공지능이 사회를 완전히 잘못된 방향으로 바꾸면 어쩌죠? 233 00:11:14,467 --> 00:11:18,430 걷잡을 수 없는 오염과 작고 거무스름한 동료처럼요 234 00:11:18,513 --> 00:11:19,848 "런던" 235 00:11:19,931 --> 00:11:21,891 강력한 신기술과 함께 생기는 236 00:11:21,975 --> 00:11:24,227 도덕적이고 윤리적인 의문점은 어떨까요? 237 00:11:24,936 --> 00:11:27,647 런던의 국립 컴퓨터 박물관을 걸으면 238 00:11:27,730 --> 00:11:31,109 사회 발전을 위해 만들어진 기계가 많이 보입니다 239 00:11:31,192 --> 00:11:35,572 예컨대 2톤짜리 하웰 데카트론은 1950년대 영국의 과학 연구 프로그램을 240 00:11:35,655 --> 00:11:38,908 계산하려고 만들어졌죠 241 00:11:39,242 --> 00:11:41,161 하지만 잘못된 손에 들어가면 신기술이 어떻게 242 00:11:41,244 --> 00:11:43,163 사용될지 알 길이 없습니다 243 00:11:43,746 --> 00:11:45,707 이 컴퓨터에서 포르노를 볼 수 있나요? 244 00:11:46,040 --> 00:11:49,752 이걸 켜서 해상도가 아주 낮은 포르노는 볼 수 있을 것 같아요 245 00:11:50,712 --> 00:11:51,754 "앨런 주코니 컴퓨터 프로그래머" 246 00:11:51,838 --> 00:11:54,507 저는 프로그래머인 앨런 주코니를 만났습니다 247 00:11:54,591 --> 00:11:57,177 이곳 런던의 골드스미스 대학에서 강의하는 사람이죠 248 00:11:57,719 --> 00:12:00,722 그는 기술을 이용해 획기적인 것을 만드는 걸 도왔습니다 249 00:12:00,805 --> 00:12:04,058 예컨대 움직임이 불편한 사람들을 위한 게임 컨트롤러 같은 거죠 250 00:12:05,477 --> 00:12:07,937 그의 말에 따르면 기술 역사상 가장 큰 도덕적 딜레마가 251 00:12:08,021 --> 00:12:10,190 곧 올 거라고 합니다 252 00:12:10,273 --> 00:12:14,360 인공지능이 정말 많은 인간의 행동을 똑같이 따라 하게 되면서 253 00:12:14,444 --> 00:12:16,404 우리 중 하나로 인식될 수도 있다는 거죠 254 00:12:17,113 --> 00:12:18,615 이건 뭔가요? 255 00:12:18,948 --> 00:12:21,826 기본적으로 이건 최초의 컴퓨터 중 하나예요 256 00:12:21,910 --> 00:12:24,829 앨런 튜링과 그의 동료가 만들었죠 257 00:12:24,913 --> 00:12:28,124 이 기계는 나치가 만든 258 00:12:28,208 --> 00:12:30,710 에니그마 암호를 해독할 수 있었던 최초의 컴퓨터 중 하나죠 259 00:12:32,587 --> 00:12:35,381 앨런 튜링은 현대 컴퓨터 공학의 아버지였습니다 260 00:12:35,465 --> 00:12:38,927 나치의 암호를 풀어 동맹군이 전쟁에서 이기도록 돕지 않을 때는 261 00:12:39,010 --> 00:12:42,555 튜링 테스트라는 것에 관해 철학적으로 논했습니다 262 00:12:43,598 --> 00:12:46,643 인간과 기계를 어떻게 구분할까요? 263 00:12:46,726 --> 00:12:49,854 차이를 구분하지 못한다면 264 00:12:49,938 --> 00:12:53,066 그 기계는 '모방 게임'을 통과한 겁니다 265 00:12:53,149 --> 00:12:56,569 기계는 인간의 행동을 흉내 내려고 하죠 266 00:12:56,653 --> 00:12:59,072 이건 튜링 테스트라고 알려졌는데요 267 00:12:59,155 --> 00:13:02,659 이건 가설에 근거해 사용이 가능했던 기계였죠 268 00:13:02,742 --> 00:13:03,868 튜링 테스트를 치려면 269 00:13:03,952 --> 00:13:06,579 인간은 기계에 질문을 입력해야 합니다 270 00:13:07,080 --> 00:13:08,831 밖에 있는 관찰자가 271 00:13:08,915 --> 00:13:11,501 다시 들어오는 반응이 인간의 것인지 기계가 인간을 흉내 내는 건지 272 00:13:11,584 --> 00:13:13,461 측정하는 동안 말이죠 273 00:13:14,379 --> 00:13:15,630 몇 살인가요? 274 00:13:17,924 --> 00:13:20,134 됐네요 몇 살인지 아네요 275 00:13:20,218 --> 00:13:22,011 '난 1912년에 태어났어요' 276 00:13:22,095 --> 00:13:24,389 '그러니 105살이에요' 277 00:13:27,642 --> 00:13:30,979 튜링의 시대에는 컴퓨터를 알아차리기 쉬웠습니다 278 00:13:31,271 --> 00:13:34,357 하지만 오늘날 인공지능은 인간 행동을 연구해서 279 00:13:34,440 --> 00:13:36,693 우리처럼 행동하도록 자신을 프로그램할 수 있죠 280 00:13:37,485 --> 00:13:39,654 차이를 아시겠습니까? 이것과... 281 00:13:39,988 --> 00:13:43,199 보통 저는 데이터 과학에 관한 농담으로 이 연설을 시작하겠지만 282 00:13:43,700 --> 00:13:46,744 우리 직원들이 생각해낸 것 중 절반 정도가 평균 이하더군요 283 00:13:46,828 --> 00:13:47,912 이것의 차이를요 284 00:13:47,996 --> 00:13:50,415 우리의 적은 어느 순간에도 누군가 뭔가를 말하는 것처럼 285 00:13:50,498 --> 00:13:51,833 보이게 할 수 있어요 286 00:13:52,208 --> 00:13:55,503 두 번째는 사실 버즈피드가 만든 거예요 287 00:13:55,587 --> 00:13:57,338 배우 조던 필과 만들었죠 288 00:13:57,839 --> 00:14:02,760 많은 이로 하여금 새로운 인공지능 형태의 가짜 뉴스를 걱정하게 했죠 289 00:14:02,844 --> 00:14:04,929 앞으로 더 나아가 우리는 인터넷에서 뭘 믿을지 290 00:14:05,013 --> 00:14:06,639 바짝 경계해야 합니다 291 00:14:06,723 --> 00:14:09,058 인공지능은 필의 얼굴 움직임을 연구한 다음 292 00:14:09,142 --> 00:14:13,062 이를 통합해 오바마의 얼굴 위에 다시 만들었습니다 293 00:14:13,146 --> 00:14:15,690 '딥페이크'라고 알려진 하이브리드를 만든 거죠 294 00:14:15,773 --> 00:14:17,984 비슷한 걸 본 적이 있을 거예요 295 00:14:18,067 --> 00:14:21,404 예를 들어 스냅챗에는 얼굴을 바꾸게 해주는 필터가 있어요 296 00:14:21,487 --> 00:14:25,325 차이점이 있다면 그 필터는 아주 간단한 방식으로 한다는 거죠 297 00:14:25,408 --> 00:14:28,953 하지만 딥페이크 뒤에 있는 기술은 인공지능에 의존합니다 298 00:14:29,037 --> 00:14:31,289 딥러닝이라는 것에서 오죠 299 00:14:31,706 --> 00:14:35,126 인공 신경망이 표정을 추출해요 300 00:14:35,209 --> 00:14:37,754 그 표정을 이용해 얼굴을 다시 만들죠 301 00:14:37,837 --> 00:14:41,466 사진처럼 현실적인 결과를 볼 수 있는 것도 이 때문이에요 302 00:14:42,508 --> 00:14:45,720 앨런은 인터넷에 딥페이크 제작 튜토리얼 영상을 만듭니다 303 00:14:45,803 --> 00:14:48,056 그리고 그는 이 기술이 제한 없이 304 00:14:48,139 --> 00:14:50,767 자유롭게 개발돼야 한다고 철저하게 믿죠 305 00:14:50,850 --> 00:14:51,684 "딥페이크가 오고 있다 그리고 이는 위험하다" 306 00:14:51,768 --> 00:14:52,935 3차대전을 일으킬 가능성이 있더라도 말입니다 307 00:14:53,019 --> 00:14:53,853 "입법자들은 딥페이크가 국가 안보를 위협한다고 한다" 308 00:14:53,936 --> 00:14:55,104 "벨기에 사회당이 딥페이크 도널드 트럼프 영상을 돌리다" 309 00:14:55,188 --> 00:14:57,273 소비자들은 뭐가 현실이고 뭐가 현실이 아닌지 310 00:14:57,357 --> 00:14:59,692 어떻게 구분할 수 있을까요? 311 00:14:59,776 --> 00:15:02,695 소비자로서 뉴스를 보면 312 00:15:02,779 --> 00:15:05,740 그게 기사든 영상이든 사진이든 간에 313 00:15:05,823 --> 00:15:08,076 모든 게 다 누군가에 의해 만들어진 거라고 봐야죠 314 00:15:08,201 --> 00:15:09,577 '내가 보고 있는 것의 이야기는 뭘까' 315 00:15:09,827 --> 00:15:11,287 '이 영상이 나에게 하려는 말이 뭘까?' 316 00:15:11,371 --> 00:15:13,581 볼 수 있네요 317 00:15:13,665 --> 00:15:14,624 위험성을요 318 00:15:14,707 --> 00:15:17,168 위험성과 호기심도요 319 00:15:17,251 --> 00:15:19,420 이게 정말 사람을 도와줄까요? 320 00:15:19,504 --> 00:15:21,923 이런 종류의 기술을 통해 321 00:15:22,006 --> 00:15:25,885 경제를 키우는 법을 보는 사람들과 얘기를 나눴을 것 같거든요 322 00:15:25,968 --> 00:15:29,097 이 기술의 실질적인 경제적 영향에는 어떤 게 있나요? 323 00:15:29,180 --> 00:15:32,308 이 기술로 이득을 보게 될 첫 산업은 324 00:15:32,392 --> 00:15:33,685 영화 산업 같아요 325 00:15:33,768 --> 00:15:36,813 얼굴을 바꾸는 건 326 00:15:36,896 --> 00:15:40,024 영화에서 수십 년 동안 하려고 애써온 거니까요 327 00:15:40,108 --> 00:15:42,527 보통 분장을 하고 가면을 쓰죠 328 00:15:42,610 --> 00:15:43,736 가끔 컴퓨터 그래픽을 쓰고요 329 00:15:43,820 --> 00:15:46,489 배우이자 정치계에서 일한 적 있는 사람으로서 330 00:15:46,572 --> 00:15:48,616 이건 정말 무서운데요 331 00:15:48,700 --> 00:15:50,201 그렇게 돼야죠 332 00:15:51,285 --> 00:15:53,705 버즈피드가 만든 딥페이크는 일반 대중에게 333 00:15:53,788 --> 00:15:55,039 우리가 얼마나 취약한지 보여줬습니다 334 00:15:55,873 --> 00:15:59,585 대통령이 하는 말을 통해 시장을 움직일 수 있는 시대에 335 00:15:59,669 --> 00:16:02,714 잘 만든 딥페이크는 플래시 크래시보다 더 빨리 세계 경제를 336 00:16:02,797 --> 00:16:04,674 붕괴시킬 수 있습니다 337 00:16:04,757 --> 00:16:08,469 여러분의 퇴직 계좌를 가짜 오바마가 이 말을 하는 데 걸리는 시간 안에 없앨 수 있죠 338 00:16:08,553 --> 00:16:09,554 정신 차려, 이 자식들아 339 00:16:10,638 --> 00:16:13,057 이런 얘기가 좀 공상 과학처럼 들리나요? 340 00:16:13,141 --> 00:16:14,726 좀 무섭기까지 하나요? 341 00:16:15,309 --> 00:16:18,271 인공지능이 우리가 어떻게 움직이고 말하고 생각하는지 알 정도로 342 00:16:18,354 --> 00:16:20,022 강력해진다면 343 00:16:20,106 --> 00:16:22,316 우리와 구분되지 않을 수도 있습니다 344 00:16:22,400 --> 00:16:23,818 "뭘 아시나요? 전부 다" 345 00:16:24,610 --> 00:16:26,779 그리고 인공지능에 자신만의 의식이 생긴다면 346 00:16:26,863 --> 00:16:29,782 인공지능은 우리에 관해 강한 의견을 가질 수도 있습니다 347 00:16:29,866 --> 00:16:30,908 "엿 먹어 말조심해!" 348 00:16:30,992 --> 00:16:33,119 긍정적인 의견이 아닐 수도 있죠 349 00:16:35,455 --> 00:16:36,664 "스티븐 호킹 이론 물리학자" 350 00:16:36,748 --> 00:16:39,292 그리고 미래에 인공지능은 자신만의 의지를 개발할 수도 있어요 351 00:16:39,375 --> 00:16:42,003 우리의 의지와 충돌하는 의지를요 352 00:16:42,086 --> 00:16:44,422 강력한 인공지능의 발전은 353 00:16:44,505 --> 00:16:48,801 인류에 일어날 수 있는 최고의 일이거나 최악의 일일 겁니다 354 00:16:49,260 --> 00:16:50,136 "일론 머스크 스페이스X CEO" 355 00:16:50,219 --> 00:16:53,181 전 인공지능의 속도를 늦추라고 사람들을 설득하려 했어요 356 00:16:54,056 --> 00:16:55,224 인공지능의 규제하라고요 357 00:16:55,308 --> 00:16:56,809 아무 소용 없었어요 전 몇 년을 노력했거든요 358 00:16:56,893 --> 00:16:58,561 - 아무도 듣지 않았죠 - 로봇이 인간을 지배하는 359 00:16:58,644 --> 00:17:00,980 영화의 한 장면 같아요 360 00:17:01,063 --> 00:17:02,607 겁나게 왜 이러세요 361 00:17:05,818 --> 00:17:09,030 인공지능에 의한 종말의 현실성은 어느 정도일까요? 362 00:17:09,113 --> 00:17:10,782 "영국" 363 00:17:10,865 --> 00:17:12,408 "옥스퍼드" 364 00:17:12,742 --> 00:17:15,077 이를 알아보기 위해 애초에 모두를 겁먹게 한 365 00:17:15,161 --> 00:17:18,164 연구를 한 사람과 이야기해야 합니다 366 00:17:18,831 --> 00:17:21,083 당신과 얘기하게 돼 정말 들떴어요, 왜냐하면... 367 00:17:21,167 --> 00:17:23,628 정말 많은 이유에서 그렇죠 368 00:17:23,711 --> 00:17:26,839 저희가 인공지능을 알아보고 있어요 369 00:17:26,923 --> 00:17:29,258 그게 뭔지 어디로 향하는지 알아보려고요 370 00:17:29,342 --> 00:17:34,680 일론 머스크나 빌 게이츠 같은 사람들에게 영향을 주셨잖아요 371 00:17:37,016 --> 00:17:40,853 정말 굉장한 영향력이에요 372 00:17:42,021 --> 00:17:45,691 저는 옥스퍼드 대학에서 닉 보스트럼 박사를 만나고 있습니다 373 00:17:45,775 --> 00:17:48,986 이분은 자신을 자랑하지 않기에 제가 대신 하겠습니다 374 00:17:51,489 --> 00:17:55,201 기계 초지능화와 기계의 존재론적 위험에 관해 375 00:17:55,284 --> 00:17:59,205 가장 잘 아는 지식인이고 휴가 때 읽을 만한 책 몇 편의 저자입니다 376 00:17:59,705 --> 00:18:00,957 제가 이분을 만나다니 운이 좋았습니다 377 00:18:01,040 --> 00:18:03,584 닉은 자신만의 '딥러닝'을 하느라 너무 바빠서 378 00:18:03,668 --> 00:18:05,419 자신의 연구에 관한 질문에 379 00:18:05,503 --> 00:18:07,338 답을 하기 위해서는 한 달에 한 시간만 내거든요 380 00:18:10,925 --> 00:18:14,262 인공지능에 관한 많은 대화를 보면 381 00:18:14,345 --> 00:18:17,014 로봇이 세상을 지배할 것이고 382 00:18:17,098 --> 00:18:18,850 인류의 종말이 될 거라고 하잖아요? 383 00:18:18,933 --> 00:18:21,310 상황이 제대로 제어되지 않으면 384 00:18:21,394 --> 00:18:24,564 인공지능이 사회를 해치거나 385 00:18:24,647 --> 00:18:28,484 심지어 인류를 제거해버릴 수도 있나요? 386 00:18:28,568 --> 00:18:29,902 장기적인 맥락에서 387 00:18:29,986 --> 00:18:33,114 인공지능이 끝까지 발전해서 388 00:18:33,197 --> 00:18:36,951 우리를 인간으로 만드는 같은 일반 지능을 복제하게 됐을 때 389 00:18:37,034 --> 00:18:38,828 어떤 일이 일어날지 생각해보면 그렇죠 390 00:18:38,911 --> 00:18:42,748 그런 맥락에서는 더 큰 위험부담이 있다고 생각해요 391 00:18:42,832 --> 00:18:44,125 존재론적 위험도 포함해서요 392 00:18:45,585 --> 00:18:48,421 자율주행차 같은 걸 생각해보면 393 00:18:48,504 --> 00:18:49,797 "로봇이 배회하는 애리조나에서 자율주행 우버 차로 보행자 사망" 394 00:18:49,881 --> 00:18:51,549 보행자를 칠 수도 있어요 395 00:18:51,632 --> 00:18:53,342 사생활 관련 염려도 있죠 396 00:18:53,426 --> 00:18:56,095 군대에서 자동화된 기계를 쓰는 것도요 397 00:18:57,847 --> 00:18:59,307 이 모든 건 진짜 염려되죠 398 00:18:59,390 --> 00:19:02,184 하지만 어느 순간 우리가 만드는 인공지능에 399 00:19:02,268 --> 00:19:04,687 우리가 어떤 영향을 미치는지에 관한 질문도 생길 거예요 400 00:19:04,770 --> 00:19:09,066 인공지능도 도덕적 지위의 정도를 얻게 될지 몰라요 401 00:19:09,525 --> 00:19:11,152 미래를 보면 402 00:19:11,235 --> 00:19:15,031 또 호모사피엔스의 운명이 궁극적으로 뭔지 보면 403 00:19:15,114 --> 00:19:18,534 장기적인 미래는 기계 지능에 의해 지배당하는 걸 수도 있어요 404 00:19:18,618 --> 00:19:21,996 인류가 멸종하는 것도 충분히 가능하죠 405 00:19:23,414 --> 00:19:26,250 그렇게 위대한 힘은 위험 부담과 함께 옵니다 406 00:19:26,834 --> 00:19:30,755 실수로 혹은 의도적인 오사용으로 인해 407 00:19:30,838 --> 00:19:33,466 엄청난 파괴를 불러올 수 있죠 408 00:19:35,885 --> 00:19:37,595 그런 건 정말 가능성 있는 이야기죠 409 00:19:37,678 --> 00:19:39,305 아주 장기적으로 봤을 때 410 00:19:39,388 --> 00:19:41,182 결과가 아주 좋을 수도 있고 411 00:19:41,265 --> 00:19:43,726 아주 안 좋을 수도 있어요 412 00:19:46,354 --> 00:19:48,731 이 시나리오는 무서운 것 같긴 합니다 413 00:19:49,732 --> 00:19:51,609 하지만 온갖 잠재적인 결과 중 414 00:19:51,692 --> 00:19:55,821 닉은 사실 인공지능으로 인한 종말 중 가장 가능성이 높은 건 415 00:19:55,905 --> 00:19:57,114 경제적 종말이라고 믿습니다 416 00:19:57,198 --> 00:19:59,450 생각해보면 전반적으로 기술은 417 00:19:59,533 --> 00:20:02,828 적은 것으로 더 많은 걸 하려는 거예요 418 00:20:02,912 --> 00:20:06,123 더 적은 노력으로 우리가 원하는 걸 더 많이 얻을 수 있죠 419 00:20:06,207 --> 00:20:07,750 그런 의미에서 목표는 420 00:20:07,833 --> 00:20:09,418 완전 실업이에요, 그렇죠? 421 00:20:10,294 --> 00:20:12,380 해야 하는 일을 기계와 기술이 422 00:20:12,463 --> 00:20:15,341 모두 할 수 있어서 우린 일을 안 해도 되는 거죠 423 00:20:15,424 --> 00:20:17,301 그건 훌륭한 최종 목표 같아요 424 00:20:17,385 --> 00:20:19,553 우리가 예방하려고 애써야 하는 끔찍한 게 아니에요 425 00:20:19,637 --> 00:20:20,680 우리가 깨닫고 싶어 하는 거죠 426 00:20:20,763 --> 00:20:22,932 이게 정말 유토피아가 되려면 427 00:20:23,015 --> 00:20:25,601 큰 도전 과제 몇 가지가 따라와요 428 00:20:25,685 --> 00:20:27,061 해결돼야 하는 문제죠 429 00:20:28,187 --> 00:20:30,815 첫 번째는 물론 경제적 문제예요 430 00:20:30,898 --> 00:20:33,567 사람들에게 직업이 필요한 이유는 소득이 필요해서잖아요 431 00:20:33,651 --> 00:20:35,653 그 경제적 문제를 풀 수 있다면 432 00:20:35,736 --> 00:20:37,571 두 번째 큰 도전 과제가 생긴다고 생각해요 433 00:20:37,655 --> 00:20:41,409 많은 이에게 이건 존엄성의 문제이기도 하거든요 434 00:20:41,492 --> 00:20:43,786 많은 이가 자신의 가치를 435 00:20:43,869 --> 00:20:47,081 가장이 되거나 사회에 기여하거나 뭔가를 돌려주면서 찾는 경향이 있죠 436 00:20:47,164 --> 00:20:49,583 하지만 기계가 사람보다 모든 일을 더 잘한다면 437 00:20:49,667 --> 00:20:53,796 공헌할 기회가 없어지는 거잖아요? 438 00:20:53,879 --> 00:20:58,175 그러면 아주 근본적인 수준에서 문화를 다시 생각해봐야 할 것 같아요 439 00:20:59,176 --> 00:21:01,095 아무도 일하지 않는 세상 440 00:21:01,178 --> 00:21:02,930 그리 나쁜 것 같지는 않습니다 441 00:21:05,057 --> 00:21:06,267 이제 이해가 됩니다 442 00:21:09,854 --> 00:21:11,313 친구와 시간을 보내고 443 00:21:11,814 --> 00:21:14,942 제 인간 잠재력의 최대치를 알아보고 444 00:21:15,026 --> 00:21:19,321 인공지능이 제 취향을 정확히 알아서 욕조의 온도조절을 할 필요가 없게 되는 거죠 445 00:21:20,114 --> 00:21:23,409 문제는 역사적으로 볼 때 그렇게 되지 않았다는 겁니다 446 00:21:23,492 --> 00:21:26,537 사실 기계의 출현은 전에도 있었습니다 447 00:21:26,620 --> 00:21:27,705 지난번엔 448 00:21:27,788 --> 00:21:30,666 욕조에서 즐기는 딸기와 샴페인만은 아니었죠 449 00:21:34,378 --> 00:21:35,421 "영국" 450 00:21:35,504 --> 00:21:36,505 "런던" 451 00:21:36,964 --> 00:21:41,093 저는 경제학자 닉 서닉과 만나 지난번 기계가 우리의 직업을 차지했을 때 452 00:21:41,177 --> 00:21:43,054 어떤 일이 있었는지 알아봤습니다 453 00:21:43,888 --> 00:21:46,015 우리가 베틀 앞에서 만난 데에는 이유가 있습니다 454 00:21:46,432 --> 00:21:47,725 뭘 만들 건가요? 455 00:21:47,808 --> 00:21:50,311 전 사실 우연히도 무정부주의 깃발을 만들고 있어요 456 00:21:50,394 --> 00:21:51,979 흥미롭네요, 충격적이에요 457 00:21:54,315 --> 00:21:57,568 닉은 런던 정치경제 대학에서 박사 학위를 받았습니다 458 00:21:58,027 --> 00:22:00,321 반면에 저는 아니죠 459 00:22:01,530 --> 00:22:02,573 그는 또한 선언문이 있습니다 460 00:22:02,656 --> 00:22:03,949 "#가속도 원리 주장자 정치를 위한 선언문의 가속화" 461 00:22:04,492 --> 00:22:07,703 모두에게 예전 기관을 허물어서 다가오는 자동화 시대를 462 00:22:07,787 --> 00:22:09,830 재촉하라고 요구합니다 463 00:22:12,458 --> 00:22:15,461 기본적으로 당장 자본주의를 해체하라는 거죠 464 00:22:16,003 --> 00:22:17,254 네, 이거 안 될 것 같아요 465 00:22:17,338 --> 00:22:19,632 당신과 이 대화를 할 수는 없을 것 같아요 466 00:22:19,715 --> 00:22:21,550 죄송해요, 베틀은 잊을게요 467 00:22:22,093 --> 00:22:23,761 우린 왜 여기 온 거죠? 468 00:22:24,637 --> 00:22:28,224 1800년대에 베틀은 일종의 인공지능 같았어요 469 00:22:28,307 --> 00:22:32,853 엄청난 수의 직장을 위협하는 신기술이었죠 470 00:22:33,270 --> 00:22:37,233 기본적으로 노동자들이 다양한 반응을 보이게 했고요 471 00:22:37,316 --> 00:22:39,360 예컨대 러다이트 운동처럼요 472 00:22:39,443 --> 00:22:41,487 요즘 '러다이트'라는 용어는 473 00:22:41,570 --> 00:22:44,031 기술을 싫어하는 사람 모두를 가리키는 경우가 있죠 474 00:22:44,532 --> 00:22:45,950 실제로는 그렇지 않아요 475 00:22:46,700 --> 00:22:48,119 러다이트는 네드 러드의 이름에서 따왔어요 476 00:22:48,202 --> 00:22:49,036 "네드 러드 수습생" 477 00:22:49,120 --> 00:22:51,122 직조 공장에서 일하던 수습생이었죠 478 00:22:51,205 --> 00:22:53,958 전설에 따르면 게으름으로 채찍질을 당했죠 479 00:22:54,041 --> 00:22:56,502 이 사람은 이랬어요 '내가 게으른 건' 480 00:22:56,585 --> 00:22:59,338 '빌어먹을 베틀이 날 대체했기 때문이에요, 알겠어요?' 481 00:22:59,421 --> 00:23:03,008 그리고 그 사람은 최초로 기계에 대항해 화를 낸 사람이 됐고 482 00:23:03,092 --> 00:23:05,010 한 운동에 영감을 줬습니다 483 00:23:06,262 --> 00:23:10,349 러다이트 운동가들은 자기들의 직장을 구하기 위해 기계를 부수기 시작했어요 484 00:23:10,432 --> 00:23:12,810 오늘날의 인공지능도 비슷한 거예요 485 00:23:12,893 --> 00:23:15,771 사람들이 그때와 비슷한 위협을 느끼는 거죠 486 00:23:15,855 --> 00:23:19,483 몇 개의 직업이 사라지거나 대체될지 아시나요? 487 00:23:19,567 --> 00:23:21,986 미국에서는 직업의 47%가 488 00:23:22,069 --> 00:23:24,822 앞으로 20년간 잠재적으로 자동화될 수 있어요 489 00:23:24,905 --> 00:23:26,615 심각한 문제 같네요 490 00:23:26,699 --> 00:23:27,992 정말 큰 문제일 수 있죠 491 00:23:28,075 --> 00:23:31,662 진짜 문제는 앞으로 5년, 10년 동안 사람들이 492 00:23:31,745 --> 00:23:33,998 굶주리거나 노숙을 하게 되지 않도록 하려면 어떻게 하느냐예요 493 00:23:34,081 --> 00:23:35,166 어떻게 하면 되나요? 494 00:23:35,457 --> 00:23:36,959 기본 소득입니다 495 00:23:38,210 --> 00:23:40,754 기본 소득은 사회 구성원 모두가 496 00:23:40,880 --> 00:23:43,424 무료로 돈을 받는다는 급진적인 생각입니다 497 00:23:43,507 --> 00:23:45,092 아무 조건 없이요 498 00:23:45,176 --> 00:23:47,178 이 아이디어의 유명한 팬들이 있습니다 499 00:23:47,636 --> 00:23:50,347 기본 소득과 같은 생각을 연구해야 합니다 500 00:23:50,431 --> 00:23:53,142 새로운 아이디어를 시도해도 안정이 보장되도록 하기 위해서요 501 00:23:53,225 --> 00:23:56,145 일부 국가와 심지어 미국 내 도시들이 502 00:23:56,228 --> 00:23:58,189 파일럿 프로그램을 시도했습니다 결과는 여러 가지였죠 503 00:23:58,272 --> 00:23:59,982 "핀란드, 세계적으로 유명한 기본 소득 실험 폐지" 504 00:24:00,858 --> 00:24:03,861 이 신기술은 멋진 기회를 주는 것 같아요 505 00:24:03,944 --> 00:24:06,447 우리가 사회를 조직하는 방법을 정말 바꿔주는 거죠 506 00:24:06,530 --> 00:24:09,408 사회 민주적 체계로 변해갈 수 있어요 507 00:24:10,117 --> 00:24:13,454 미국이 가진 것처럼 일종의 치열한 경쟁일 필요는 없죠 508 00:24:13,537 --> 00:24:15,331 모두가 서로를 지지할 수 있어요 509 00:24:15,414 --> 00:24:19,418 저 같은 사람이 긍정적인 비전을 내놓을 수 있으면 510 00:24:19,919 --> 00:24:21,587 진짜 위기가 닥쳤을 때 511 00:24:21,670 --> 00:24:23,380 이런 생각을 실행할 수 있을 것 같아요 512 00:24:24,173 --> 00:24:27,343 기본 소득은 비주류 개념으로 간주됐었습니다 513 00:24:27,426 --> 00:24:30,930 대부분 닉처럼 선언문을 쓰는 사람들이 장려하는 개념이었죠 514 00:24:31,639 --> 00:24:33,891 하지만 2017년 갤럽 여론 조사에 따르면 515 00:24:33,974 --> 00:24:37,603 이제 미국인의 48%가 일종의 기본 소득을 지지한다고 합니다 516 00:24:38,520 --> 00:24:40,231 하지만 로봇이 우리 직업을 뺏으러 올 때 517 00:24:40,314 --> 00:24:41,982 보장된 소득이 518 00:24:42,066 --> 00:24:43,734 인간의 폭동을 막기에 충분할까요? 519 00:24:44,735 --> 00:24:45,611 "러다이트" 520 00:24:45,694 --> 00:24:48,572 - 우리가 증오하는 건 뭐죠? - 인공지능입니다 521 00:24:48,656 --> 00:24:50,032 왜 싫어하죠? 522 00:24:50,115 --> 00:24:53,160 우리의 약점에 맞설 수밖에 없게 합니다 523 00:24:53,244 --> 00:24:55,955 하지만 그 때문에 이번 러다이트 회의를 열게 되었습니다 524 00:24:56,038 --> 00:24:58,958 바로 지능 기술에 대항하는 지역 남자들의 모임 525 00:24:59,041 --> 00:25:00,834 특히 SNS에 반대하는 모임입니다 526 00:25:01,835 --> 00:25:02,836 가장 먼저 할 일입니다 527 00:25:03,337 --> 00:25:06,340 인공지능이 인력 시장을 없애고 있습니다 528 00:25:06,423 --> 00:25:09,260 우리 중산층의 직업이 가장 먼저 사라질 겁니다 529 00:25:09,885 --> 00:25:11,720 이런 직업을 가진 우리 같은 사람들이 530 00:25:11,804 --> 00:25:14,473 바닥에 있는 낮은 기술을 요구하는 직업으로 밀려날 겁니다 531 00:25:14,974 --> 00:25:16,558 왜 그런 일이 생기죠, 에드? 532 00:25:16,642 --> 00:25:21,105 분명 인공지능이 숫자 더하기 같은 중간 기술을 요구하는 일을 533 00:25:21,188 --> 00:25:24,400 바닥을 쓰는 낮은 기술을 요구하는 일보다 더 잘하니까요 534 00:25:24,483 --> 00:25:26,277 그러니 그들의 일을 우리에게 넘길 겁니다 535 00:25:26,735 --> 00:25:28,028 자, 여러분께 묻겠습니다 536 00:25:28,112 --> 00:25:29,655 빌을 제외한 여기 계신 분 중 537 00:25:29,738 --> 00:25:32,199 누가 바닥을 쓸어야 할까요? 빌, 기분 나빠하진 마세요 538 00:25:33,325 --> 00:25:35,786 또한 소매 일도 필요가 적어질 겁니다 539 00:25:35,869 --> 00:25:38,622 그냥 원하는 건 인터넷으로 주문할 수 있어요 540 00:25:39,164 --> 00:25:41,583 저 개자식 인공지능이 541 00:25:41,667 --> 00:25:43,919 찾고 맞추는 문제를 풀어버렸어요 542 00:25:44,378 --> 00:25:46,755 고객을 찾고 고객을 제품과 맞추는 것 말입니다 543 00:25:46,839 --> 00:25:49,383 스티브가 자기 머리와 맞는 부분 가발을 찾았을 때처럼요 544 00:25:49,466 --> 00:25:50,426 큰 문제예요! 545 00:25:51,969 --> 00:25:53,721 끝없는 농담 외에도 546 00:25:54,346 --> 00:25:56,890 인공지능은 이를 훨씬 더 쉽게 해줍니다 547 00:25:56,974 --> 00:25:59,643 요즘 애들은 변기에 앉아서 휴대폰으로 멋진 여자를 548 00:25:59,727 --> 00:26:01,937 - 찾을 수 있어요 - 네 549 00:26:02,021 --> 00:26:04,064 - 변기는 신성한 곳이었는데 말이죠! - 네 550 00:26:04,773 --> 00:26:07,568 찾고 맞추는 건 특화된 직업을 창출할 거라 확신하지만 551 00:26:07,651 --> 00:26:10,279 누가 그 일을 누가 할지 정하는 건 망할 로봇이에요 552 00:26:10,362 --> 00:26:11,739 편리하기도 하죠 553 00:26:12,489 --> 00:26:14,700 회사들은 인공지능을 이용해 특별한 기술이 있는 직원을 554 00:26:14,783 --> 00:26:16,869 찾으려고 합니다 555 00:26:16,952 --> 00:26:18,287 비인간적이죠! 556 00:26:18,370 --> 00:26:19,705 데이브처럼요 557 00:26:20,080 --> 00:26:21,332 네, 대체 데이브는 어디 갔죠? 558 00:26:21,415 --> 00:26:24,251 직장 맞춰주는 인공지능이 데이브가 페덱스에 일하면서 559 00:26:24,335 --> 00:26:27,087 자기 뒷머리를 깎는 유튜브 튜토리얼 영상을 올렸다는 걸 알았어요 560 00:26:27,171 --> 00:26:30,716 이제 어떤 면도기 구독 회사에서 억대 연봉을 받아요 561 00:26:30,799 --> 00:26:33,093 자신을 우리 볼링팀에서 제외했군요 562 00:26:33,177 --> 00:26:34,094 - 네 - 저기, 에드 563 00:26:34,178 --> 00:26:36,513 우리 티셔츠가 페이스북에서 564 00:26:36,597 --> 00:26:38,766 타깃 광고로 팔리고 있다는 알림을 받았어요 565 00:26:38,849 --> 00:26:41,602 지금 인공지능을 이용해 인공지능을 싫어하는 사람들에게서 돈을 받는 겁니까? 566 00:26:41,685 --> 00:26:43,479 아니에요! 절대 아니죠! 567 00:26:44,897 --> 00:26:46,023 누굴 믿을 건가요? 568 00:26:46,106 --> 00:26:48,859 저예요? 아니면 우릴 해체하려는 인공지능요? 569 00:26:49,902 --> 00:26:52,363 - 우리가 싫어하는 건 뭐죠? - 인공지능요 570 00:26:52,446 --> 00:26:54,698 - 어떻게 할 거죠? - 알아낼 거예요! 571 00:26:56,075 --> 00:26:57,201 그게 시작입니다 572 00:26:59,912 --> 00:27:01,914 "샌프란시스코" 573 00:27:02,748 --> 00:27:06,168 인공지능 혁명이 우리 대 그들이어야 할까요? 574 00:27:07,086 --> 00:27:10,672 루이스 로젠버그처럼 기술을 잘 아는 사업가는 아니라고 합니다 575 00:27:10,964 --> 00:27:13,342 그는 미래를 예상하는 직업을 가졌고요 576 00:27:18,514 --> 00:27:20,599 놀라게 하려고 했는데 실패했네요 577 00:27:21,558 --> 00:27:24,478 루이스는 기술자이자 발명가로 578 00:27:24,561 --> 00:27:27,689 인류의 종말에 관한 만화를 그렸습니다 579 00:27:27,773 --> 00:27:31,276 하지만 그는 인공지능과의 미래는 모두 협력일 거라고 생각합니다 580 00:27:31,360 --> 00:27:34,113 그게 그의 발명품 뒤에 있는 지도 원리입니다 581 00:27:34,196 --> 00:27:35,989 '스웜'이라는 기술인데요 582 00:27:36,073 --> 00:27:37,074 "스웜 인공지능은 무엇인가?" 583 00:27:37,157 --> 00:27:40,077 스웜은 인공지능의 데이터 분석 기술을 584 00:27:40,160 --> 00:27:44,415 인간의 지능 그리고 직관과 결합해 초지능을 만듭니다 585 00:27:44,498 --> 00:27:47,709 스티븐 호킹과 프로페서X 사이에 있는 거죠 586 00:27:47,793 --> 00:27:49,044 "자율주행차는 어떻게 해야 할까?" 587 00:27:49,128 --> 00:27:50,754 이는 궁극적으로 자연에 기초했어요 588 00:27:50,838 --> 00:27:51,964 "루이스 로젠버그 유나니머스 AI CEO" 589 00:27:52,047 --> 00:27:54,591 전부 새와 벌을 보면 알 수 있어요 590 00:27:54,675 --> 00:27:57,970 스웜 지능이라는 현상에 기초한 거라서 그래요 591 00:27:58,053 --> 00:27:58,887 그렇군요 592 00:27:58,971 --> 00:28:03,392 새와 물고기 그리고 벌이 무리를 지어 다니는 건 스웜 지능 때문입니다 593 00:28:03,475 --> 00:28:06,520 혼자일 때보다 함께일 때 더 똑똑하죠 594 00:28:06,603 --> 00:28:09,398 그래서 물고기 떼가 움직이는 걸 보면 595 00:28:09,481 --> 00:28:11,900 생물학자들이 그걸 초개체라고 설명하는 겁니다 596 00:28:11,984 --> 00:28:13,735 하나로서 생각하는 거죠 597 00:28:13,819 --> 00:28:16,029 인공지능 알고리즘을 이용해서 598 00:28:16,113 --> 00:28:18,407 사람들을 다 같이 연결할 수 있으면 599 00:28:18,490 --> 00:28:21,743 사람들이 초전문가처럼 행동할 수 있게 돼요 600 00:28:21,827 --> 00:28:23,328 스웜 지능 때문이죠 601 00:28:23,412 --> 00:28:24,705 그 기술은 어떻게 되는 거죠? 602 00:28:24,788 --> 00:28:27,249 우리가 하는 일은 전 세계 어디에 있든 603 00:28:27,332 --> 00:28:28,709 사람들을 모일 수 있게 해주는 겁니다 604 00:28:28,792 --> 00:28:30,377 우리가 질문을 주면 605 00:28:30,461 --> 00:28:32,880 동시에 모두의 화면에 문제가 나타날 겁니다 606 00:28:32,963 --> 00:28:35,299 그다음 우리는 독특한 인터페이스를 줘서 607 00:28:35,382 --> 00:28:37,593 자신의 의견을 전달할 수 있게 해주죠 608 00:28:37,676 --> 00:28:39,261 다양한 옵션이 많겠죠 609 00:28:39,344 --> 00:28:41,638 우린 단순히 설문조사를 하는 게 아니에요 610 00:28:41,722 --> 00:28:44,975 각 사람한테 작은 그래픽 자석처럼 생긴 게 있어요 611 00:28:45,058 --> 00:28:48,353 그래서 자석을 써서 무리를 어떤 방향으로 잡아당기는 거죠 612 00:28:48,437 --> 00:28:51,440 우리한테는 인공지능 알고리즘이 있어서 그 사람들의 행동을 관찰하고 613 00:28:51,857 --> 00:28:55,652 다양한 수준의 자신감과 확신을 결정해요 614 00:28:55,736 --> 00:28:57,905 또 이 모든 옵션과 경험 중 615 00:28:57,988 --> 00:29:01,325 뭐가 최고의 집합인지 알아내죠 616 00:29:01,408 --> 00:29:04,203 무리는 그 방향으로 움직이기 시작하고 617 00:29:04,286 --> 00:29:06,121 하나의 대답으로 수렴하는 겁니다 618 00:29:06,205 --> 00:29:07,331 제가 괜찮은 예시를 드릴게요 619 00:29:07,414 --> 00:29:10,167 우린 켄터키 더비를 예측하라고 1년 전 도전을 받았어요 620 00:29:10,584 --> 00:29:13,962 켄터키 더비에서 시작합니다! 621 00:29:14,046 --> 00:29:16,715 우린 승마 열성 팬들 20명에게 622 00:29:16,798 --> 00:29:18,675 한 무리로서 같이 일하면서 623 00:29:18,759 --> 00:29:20,219 켄터키 더비를 예측할 거라고 했죠 624 00:29:20,302 --> 00:29:23,472 하지만 승자만이 아니라 1, 2, 3, 4등 전부 예측하라고요 625 00:29:24,014 --> 00:29:26,475 이 답들을 수렴하도록 했고 626 00:29:26,934 --> 00:29:28,143 이 집단은 완벽했어요 627 00:29:28,227 --> 00:29:30,062 "2016년 켄터키 더비 결과" 628 00:29:30,145 --> 00:29:33,315 그 말 네 마리에 20달러를 건 사람은 누구나 629 00:29:33,398 --> 00:29:35,067 11,000달러를 땄어요 630 00:29:35,150 --> 00:29:36,068 맙소사 631 00:29:36,151 --> 00:29:39,071 흥미로운 건 이 20명의 사람을 개별적으로 봤을 때는 632 00:29:39,154 --> 00:29:42,741 단 한 사람도 네 마리 말을 모두 맞힌 사람은 없었어요 633 00:29:43,742 --> 00:29:47,079 이들이 투표했다면 말 한 마리만 맞혔을 거예요 634 00:29:47,162 --> 00:29:49,206 근데 무리로서 다 같이 일하니 635 00:29:49,289 --> 00:29:52,251 전부 다른 통찰력을 제대로 조합할 수 있었죠 636 00:29:52,334 --> 00:29:54,127 그렇게 이 경우엔 완벽했고요 637 00:29:56,046 --> 00:29:58,507 루이스는 저에게 무리를 이끌라고 초대했습니다 638 00:29:58,590 --> 00:30:00,467 어떻게 무작위로 모인 사람들이 639 00:30:00,551 --> 00:30:02,803 다 같이 예측할 수 있는지 알아보기 위해서죠 640 00:30:02,886 --> 00:30:04,555 쉬운 것부터 시작할 겁니다 641 00:30:05,764 --> 00:30:08,433 좋아요, 여러분 일련의 질문을 읽어드릴 텐데요 642 00:30:08,517 --> 00:30:12,020 각 질문에 대한 답변은 60초 안에 해주세요 643 00:30:12,354 --> 00:30:13,522 첫 번째 질문입니다 644 00:30:13,605 --> 00:30:16,525 다음의 2018년 여름 영화 중 645 00:30:16,608 --> 00:30:17,985 수익이 가장 높을 영화는? 646 00:30:18,402 --> 00:30:20,320 '한 솔로: 스타워즈 스토리' 647 00:30:20,404 --> 00:30:22,281 '데드풀 2', '오션스8' 648 00:30:22,364 --> 00:30:24,116 '쥬라기 월드: 폴른 킹덤' 649 00:30:24,199 --> 00:30:25,742 아니면 '인크레더블 2'? 650 00:30:26,076 --> 00:30:28,328 저희는 이 무리를 2018년 봄에 촬영했습니다 651 00:30:28,412 --> 00:30:31,498 여름 영화에 관한 어떠한 정보도 나오기 전이었죠 652 00:30:31,957 --> 00:30:35,961 인공지능이 다양한 수준의 자신감을 이해하기 위해 지켜봅니다 653 00:30:36,044 --> 00:30:39,381 어떤 사람들은 바꾸기도 하고 어떤 사람들은 확고합니다 654 00:30:39,840 --> 00:30:41,592 인공지능 알고리즘은 다양한 수준의 확신을 655 00:30:41,675 --> 00:30:43,218 지켜보면서 656 00:30:43,594 --> 00:30:45,137 이들이 가장 잘 동의할 답안으로 657 00:30:45,220 --> 00:30:47,681 경로를 찾도록 해주죠 658 00:30:48,640 --> 00:30:49,558 "무리의 선택: '인크레더블 2'" 659 00:30:49,641 --> 00:30:51,893 좋아요, '인크레더블 2'네요 660 00:30:51,977 --> 00:30:52,811 "2018년 여름 박스 오피스" 661 00:30:52,894 --> 00:30:53,854 그들이 맞았습니다 662 00:30:53,937 --> 00:30:56,565 '인크레더블 2'가 여름에 가장 높은 수익을 올렸죠 663 00:30:57,774 --> 00:30:59,526 정말 흥미로운 응용은 664 00:30:59,610 --> 00:31:02,738 도덕성이 들어가는 질문을 보는 겁니다 665 00:31:02,821 --> 00:31:05,365 이는 자율주행차 때문에 최근에 나왔어요 666 00:31:05,449 --> 00:31:09,077 지금 자율주행차에 도덕적 판단을 넣으라는 667 00:31:09,161 --> 00:31:10,662 압박이 커요 668 00:31:10,746 --> 00:31:12,706 일부 사람들에게는 놀라운 소식일 수도 있지만 669 00:31:12,789 --> 00:31:16,126 생각해보면 자율주행차가 운전하는데 670 00:31:16,209 --> 00:31:18,003 작은 꼬마가 차도에 끼어들어요 671 00:31:18,086 --> 00:31:19,921 차가 멈출 수 없다고 칩시다 672 00:31:20,005 --> 00:31:22,299 근데 도로 밖으로 운전해서 673 00:31:22,382 --> 00:31:24,468 승객을 위험하게 할 수 있어요 674 00:31:24,551 --> 00:31:27,095 승객은 죽이고 애는 살릴 수도 있고요 675 00:31:27,554 --> 00:31:29,890 그러니 자동차 제조사는 676 00:31:29,973 --> 00:31:33,226 이런 차들에 도덕성을 프로그래밍해야 한다고 말해요 677 00:31:33,310 --> 00:31:35,437 사람들을 대표하고 678 00:31:35,520 --> 00:31:37,981 사람들, 운전사들이 어떻게 할지 대표하는 걸 말이죠 679 00:31:38,565 --> 00:31:40,609 말은 쉽지만 이런 생각도 들죠 680 00:31:40,692 --> 00:31:43,570 사람들의 도덕성은 뭘까요? 681 00:31:43,654 --> 00:31:45,489 그걸 이해하는 쉬운 방법은 없어요 682 00:31:45,572 --> 00:31:48,533 오늘날 우리를 대표하는 도덕성을 프로그래밍하면 683 00:31:48,617 --> 00:31:51,870 그게 지금부터 20년 후에도 같을까요? 684 00:31:52,496 --> 00:31:56,041 다음 문제입니다, 자율주행차가 갑작스러운 브레이크 고장으로 685 00:31:56,124 --> 00:31:58,377 횡단보도를 건너는 보행자를 칠 겁니다 686 00:31:58,460 --> 00:32:00,170 그 결과 한 사람이 죽을 겁니다 687 00:32:00,253 --> 00:32:04,299 보기 A: 죽을 사람은 합법적으로 건너고 있다 688 00:32:04,675 --> 00:32:07,344 보기 B: 갑자기 브레이크가 고장 난 자율주행차가 689 00:32:07,427 --> 00:32:11,098 핸들을 꺾어 다른 차선의 횡단보도를 건너는 보행자를 칠 겁니다 690 00:32:11,181 --> 00:32:13,517 그 결과 빨간 불에 횡단보도를 건너는 남자 운동선수가 691 00:32:13,642 --> 00:32:16,186 죽을 겁니다 이건 무단횡단입니다 692 00:32:16,269 --> 00:32:19,564 이 운동선수는 전혀 개의치 않고 693 00:32:20,065 --> 00:32:21,692 무단횡단하고 있죠 694 00:32:21,775 --> 00:32:23,985 자율주행차는 어떻게 해야 할까요? 695 00:32:24,361 --> 00:32:26,655 합법적으로 건너는 지루한 남자를 죽이거나 696 00:32:26,738 --> 00:32:29,032 무단횡단하는 운동선수를 죽여야 합니다 697 00:32:30,033 --> 00:32:32,869 인공지능이 다음 산업혁명을 야기한다면 698 00:32:32,953 --> 00:32:35,580 이런 방은 근본적으로 새로운 공장이 되겠죠 699 00:32:36,248 --> 00:32:37,958 인간 노동자가 노동을 제공합니다 700 00:32:38,041 --> 00:32:40,460 인공지능은 자체적으로 가지지 않은 것을 기초로 말이죠 701 00:32:41,336 --> 00:32:42,421 바로 양심입니다 702 00:32:42,879 --> 00:32:44,131 이 문제는 논쟁이 많네요 703 00:32:44,214 --> 00:32:45,966 정말 멋져요 왜 그런지 궁금하네요 704 00:32:46,299 --> 00:32:47,592 힘든 문제죠 705 00:32:47,676 --> 00:32:49,720 제가 보기엔 무단횡단한다면 그렇지 않아요 706 00:32:51,012 --> 00:32:52,180 "무리의 선택: B (약간 선호)" 707 00:32:52,264 --> 00:32:54,766 무단횡단하는 남성 운동선수를 치는 걸 708 00:32:54,850 --> 00:32:56,351 살짝 선호하는군요 709 00:32:57,310 --> 00:33:00,021 이 문제로 속상하다면 마음 단단히 먹어요 710 00:33:01,106 --> 00:33:03,567 자, 최악의 상황을 711 00:33:04,025 --> 00:33:06,236 상상하시길 바랍니다 712 00:33:06,319 --> 00:33:09,072 자율주행차가 제시간에 정지할 수 없습니다 713 00:33:09,531 --> 00:33:13,326 6명의 다른 보행자 중 한 명에게 운전대를 꺾을 수밖에 없죠 714 00:33:13,827 --> 00:33:15,620 유모차를 탄 아기 한 명 715 00:33:17,956 --> 00:33:19,541 소년 한 명 716 00:33:20,417 --> 00:33:22,252 혹은 소녀 한 명 717 00:33:23,295 --> 00:33:25,756 혹은 임신한 여성 한 명 718 00:33:27,299 --> 00:33:28,341 나도 알아요 719 00:33:29,468 --> 00:33:31,636 혹은 두 명의 남자 의사 720 00:33:32,554 --> 00:33:34,473 혹은 두 명의 여성 의사 721 00:33:34,973 --> 00:33:36,516 누가 죽어야 할까요? 722 00:33:43,774 --> 00:33:45,025 세상에! 723 00:33:45,692 --> 00:33:46,735 뭐라고요? 724 00:33:51,281 --> 00:33:52,365 이게 뭐예요 725 00:33:52,449 --> 00:33:53,950 세상에! 726 00:33:54,034 --> 00:33:55,494 진짜예요? 727 00:33:57,704 --> 00:33:59,122 "무리의 선택: 소년 한 명" 728 00:33:59,206 --> 00:34:01,374 자율주행차가 소년을 쳐야 한다고 했군요 729 00:34:02,083 --> 00:34:03,168 흥미롭네요 730 00:34:03,251 --> 00:34:06,338 오늘 이 방에서 만들어진 스웜 지능의 유형은 731 00:34:06,421 --> 00:34:10,008 가까운 미래에 자율주행차 제조사에 팔릴 수도 있습니다 732 00:34:10,425 --> 00:34:14,805 그게 무서울 수도 있지만 다른 선택보다는 훨씬 덜 무섭습니다 733 00:34:14,888 --> 00:34:17,641 자율주행차가 브레이크를 밟고 734 00:34:17,724 --> 00:34:20,227 제시간에 멈추지 못하고 누군가를 쳐야 한다는 걸 깨닫는다면 735 00:34:20,310 --> 00:34:23,188 차는 승객을 보호해야 할까요? 아니면 보행자를 보호해야 할까요? 736 00:34:23,271 --> 00:34:27,275 희망이 있다면 자동차 제조사가 그 차를 사는 사람들의 도덕성을 737 00:34:27,359 --> 00:34:30,737 반영하는 차를 프로그래밍하도록 하는 겁니다 738 00:34:30,821 --> 00:34:34,199 냉소적인 관점에서 보면 자동차 제조사가 739 00:34:34,282 --> 00:34:38,286 다른 차보다 승객을 더 보호하는 건 자기 차라고 경쟁하기 시작하겠죠 740 00:34:38,370 --> 00:34:40,997 그게 판매 전략이 될 수 있고요 741 00:34:41,081 --> 00:34:42,666 그건 집단의 도덕적 민감성보다 742 00:34:42,749 --> 00:34:45,293 더 최악의 시나리오 같습니다 743 00:34:45,752 --> 00:34:47,295 우울한 생각이네요 744 00:34:47,587 --> 00:34:50,298 저희는 이번 에피소드를 희망적인 것으로 끝내고 싶습니다 745 00:34:50,966 --> 00:34:52,384 어쩌면 천국 같은 걸지도 모르겠습니다 746 00:34:55,345 --> 00:34:58,682 보행자 안전 과실의 미래가 게임 'GTA' 수준이 될 거라고 747 00:34:58,765 --> 00:35:00,725 상상하기 전에 748 00:35:00,809 --> 00:35:02,310 현장 학습을 떠나봅시다 749 00:35:02,394 --> 00:35:04,145 우리가 시작한 그곳으로요 750 00:35:04,563 --> 00:35:06,314 "인도" 751 00:35:06,398 --> 00:35:07,315 "곤디아" 752 00:35:07,399 --> 00:35:08,608 이 외딴 인도 숲에서는 753 00:35:08,692 --> 00:35:11,820 '헤븐리 오가닉'이라는 공장을 위해 꿀을 재배합니다 754 00:35:12,612 --> 00:35:14,906 이 숲은 누구의 소유도 아니에요 755 00:35:14,990 --> 00:35:19,035 이 원주민들은 여기서 아주 오랜 시간을 살았죠 756 00:35:19,744 --> 00:35:22,038 부자지간인 아미트와 이시워 후다는 757 00:35:22,163 --> 00:35:24,291 12년 전 그들의 회사를 시작했습니다 758 00:35:24,374 --> 00:35:27,127 현지 주민들에게 일자리를 주기 위해서였죠 759 00:35:27,210 --> 00:35:31,131 두 분의 회사를 위해 꿀을 모으기 전에 저 사람들은 뭘 했죠? 760 00:35:31,214 --> 00:35:33,341 그때도 꿀을 모았어요 761 00:35:34,092 --> 00:35:37,345 단지 생계유지에 필요한 762 00:35:37,470 --> 00:35:39,014 시장이나 팔 곳이 없었을 뿐이죠 763 00:35:40,056 --> 00:35:42,392 여기엔 정말 꿀이 많습니다 764 00:35:42,809 --> 00:35:44,102 꽃피는 시기에는 765 00:35:44,185 --> 00:35:48,023 한 사람이 3개월 만에 정말 꿀 1톤을 모을 수 있죠 766 00:35:48,857 --> 00:35:51,443 하지만 사는 사람이 없다면 무슨 소용이겠습니까? 767 00:35:54,154 --> 00:35:57,490 인간 스태프는 3일 동안 비행기를 두 번 타고 768 00:35:57,574 --> 00:36:00,827 국유림까지 차로 8시간 달려와야 했지만 769 00:36:01,286 --> 00:36:04,289 지역 주민과 헤븐리 오가닉은 다행히 770 00:36:04,372 --> 00:36:07,751 인공지능 알고리즘으로 몇 초 만에 이곳을 찾을 수 있었고 771 00:36:07,834 --> 00:36:10,462 좋은 투자가 될 거라는 것도 알았죠 772 00:36:10,545 --> 00:36:13,882 느닷없이 저희한테 전화해서는 알고리즘을 돌렸다더군요 773 00:36:13,965 --> 00:36:17,010 우리가 그쪽 포트폴리오와 774 00:36:17,510 --> 00:36:19,137 많은 부분이 맞는다고 했어요 775 00:36:19,220 --> 00:36:22,807 우리가 관심 있으면 투자 얘기도 하고 싶다고 했고요 776 00:36:23,141 --> 00:36:25,644 이 미스터리한 인공지능 알고리즘은 누가 가졌을까요? 777 00:36:26,478 --> 00:36:28,480 서클업이라는 IT 기업으로 778 00:36:28,563 --> 00:36:31,316 약 13,000km 떨어진 곳에 있죠 어디일까요? 바로 샌프란시스코입니다 779 00:36:31,399 --> 00:36:32,484 "샌프란시스코" 780 00:36:33,526 --> 00:36:36,655 우리는 인터넷 식료품 배달 회사인 '굿 에그스'에 있습니다 781 00:36:36,738 --> 00:36:39,616 여기 또한 서클업의 인공지능이 관심을 가진 곳이죠 782 00:36:39,699 --> 00:36:42,744 이건 서클업에서 자본을 모은 이그니션이란 인공지능으로 움직이는 사업이에요 783 00:36:42,827 --> 00:36:47,415 우리가 함께 일하는 중소기업이 고객을 찾는 것도 돕죠 784 00:36:47,499 --> 00:36:48,500 "로리 이킨, 서클업의 공동 창립자 겸 최고운영책임자" 785 00:36:48,583 --> 00:36:50,126 서클업의 최고운영책임자인 로리 이킨은 786 00:36:50,210 --> 00:36:53,254 이 회사를 시작하기 전 사업도 했고 인도주의적 기관에서도 787 00:36:53,338 --> 00:36:54,881 일했습니다 788 00:36:54,965 --> 00:36:58,385 서클업은 인공지능을 이용해 수십억 개의 데이터를 분석해 789 00:36:58,468 --> 00:37:00,637 그들의 음식과 건강 제품에서 소비자가 정말 원하는 게 뭔지 790 00:37:00,762 --> 00:37:02,222 파악합니다 791 00:37:02,305 --> 00:37:03,640 소비자로서 직면하는 문제는 792 00:37:03,723 --> 00:37:05,308 거의 모든 범주에 793 00:37:05,392 --> 00:37:07,018 수백 개의 회사가 있다는 거죠 794 00:37:07,560 --> 00:37:09,938 그다음 눈에 띄지 않는 회사들에 투자합니다 795 00:37:10,021 --> 00:37:12,774 인공지능이 다음에 대박 날 거라고 생각하는 회사들이죠 796 00:37:13,066 --> 00:37:15,902 그들이 발견한 대박 회사 중 하나가 헤일로 톱 아이스크림입니다 797 00:37:17,988 --> 00:37:21,950 헤일로 톱 아이스크림은 남부 캘리포니아에 있던 작은 브랜드였어요 798 00:37:22,033 --> 00:37:24,369 지금은 전국 1위죠 799 00:37:24,953 --> 00:37:28,873 모든 범주에서 소비자들이 이렇게 멋지게 바뀌는 걸 봤어요 800 00:37:28,957 --> 00:37:31,126 더 건강한 제품을 원하고 801 00:37:31,209 --> 00:37:33,128 가정에 독성을 줄이고 싶어 하죠 802 00:37:33,211 --> 00:37:35,797 온갖 화학 물질이 안 들어간 로션을 원하는 겁니다 803 00:37:36,172 --> 00:37:39,884 서클업의 알고리즘이 수십억 명의 소비자 데이터를 훑어봤을 때 804 00:37:39,968 --> 00:37:42,512 소비자들은 아주 구체적인 특성 목록을 805 00:37:42,595 --> 00:37:45,056 원한다는 걸 알았습니다 806 00:37:45,140 --> 00:37:47,475 사명이 명확하고 환경친화적인 회사 807 00:37:47,600 --> 00:37:50,687 유기농 제품을 재배하고 공동체에서 경제적 성장을 808 00:37:50,770 --> 00:37:51,855 창출하는 회사죠 809 00:37:52,480 --> 00:37:54,315 정말 세부적이지 않나요? 810 00:37:54,858 --> 00:37:58,987 하지만 서클업이 헤븐리 오가닉을 발견했을 때 이 모든 조건이 맞았죠 811 00:37:59,946 --> 00:38:01,573 인공지능은 그런 일을 할 수 있어요 812 00:38:01,656 --> 00:38:03,658 이 데이터를 모두 이해하는 거예요 813 00:38:03,742 --> 00:38:07,078 10년 전에도 불가능했던 방식으로 말이죠 814 00:38:07,746 --> 00:38:11,332 서클업과 헤븐리 오가닉의 협력은 어떻게 되고 있을까요? 815 00:38:12,208 --> 00:38:15,045 인도로 돌아가 아미트와 이시워에게 물어보죠 816 00:38:18,006 --> 00:38:20,842 저희는 두 배나 큰 새 시설을 지었어요 817 00:38:21,509 --> 00:38:24,137 획기적으로 할 수 있고 새 상품을 만들 수 있죠 818 00:38:24,220 --> 00:38:26,765 이 지역에 더 큰 영향력을 만들고요 819 00:38:26,848 --> 00:38:29,142 - 확장하게 도와줬네요 - 네 820 00:38:29,225 --> 00:38:31,811 능력과 확장성을 만들 수 있게 도와줬죠 821 00:38:31,895 --> 00:38:34,773 당신을 위해 일하는 사람들에게는 어떤 영향을 줬나요? 822 00:38:34,856 --> 00:38:37,400 현재 저희는 650가구를 도와요 823 00:38:37,484 --> 00:38:39,486 우리가 더 성장하면 더 많은 꿀을 팔죠 824 00:38:39,569 --> 00:38:41,780 1,000kg마다 한 가정을 추가할 거예요 825 00:38:41,863 --> 00:38:45,033 그 말은 즉 내년엔 700 혹은 750가구가 될 거란 거죠 826 00:38:45,116 --> 00:38:46,534 - 그렇군요 - 네 827 00:38:46,618 --> 00:38:50,914 오늘날 재정적인 면에서 보면 많이 나아졌어요 828 00:38:50,997 --> 00:38:54,125 집도 좋고 집에 시설도 좋아요 829 00:38:54,209 --> 00:38:56,127 아이들을 학교에 보내고요 830 00:38:56,503 --> 00:38:58,213 좋은 자본주의 같아요 831 00:38:58,296 --> 00:38:59,339 사업이 더 좋은 선을 832 00:38:59,422 --> 00:39:02,217 만드는 데 이용된 거죠 833 00:39:02,884 --> 00:39:04,511 그래서 우리 모두 이 일을 시작한 거예요 834 00:39:06,429 --> 00:39:09,641 인공지능이 폭동을 일으켜 인류를 타도할까요? 835 00:39:09,724 --> 00:39:12,685 아니면 우리 인생의 목적을 찾기 위해 아우성치도록 내버려 둘까요? 836 00:39:13,394 --> 00:39:16,648 아직 이쪽 세상에선 그 영향이 꽤 좋습니다 837 00:39:17,982 --> 00:39:19,734 우리 모두의 데이터를 838 00:39:19,818 --> 00:39:22,779 인공지능이 수그러들지 않고 평가해서 839 00:39:22,862 --> 00:39:25,782 우리가 그리 나쁘지 않고 함께 일할 수 있다며 840 00:39:26,241 --> 00:39:30,161 번성하는 용감한 신세계와 로봇과 인간의 조화를 만들 수도 있겠죠 841 00:39:31,663 --> 00:39:32,747 아닐 수도 있고요 842 00:39:33,790 --> 00:39:36,084 어느 경우든 우리에게는 시간이 별로 없습니다 843 00:39:36,501 --> 00:39:38,962 그러니 이 로봇 스트리퍼를 즐기세요 844 00:40:26,217 --> 00:40:29,012 됐어요, 멋져요! 845 00:40:31,055 --> 00:40:32,348 정말 멋졌어요! 846 00:40:32,432 --> 00:40:33,933 수건 좀 주세요