1 00:00:05,382 --> 00:00:06,759 華爾街站 2 00:00:06,842 --> 00:00:08,427 華爾街 3 00:00:08,927 --> 00:00:11,930 我身處華爾街,這一切開始的地方 4 00:00:13,724 --> 00:00:17,186 2010年5月6日下午2點45分 5 00:00:17,686 --> 00:00:21,190 有個人坐在他父母位於倫敦的家裡 6 00:00:21,273 --> 00:00:24,985 向紐約證券交易所釋放出一個演算法 7 00:00:25,068 --> 00:00:27,279 售出十億美元股票 8 00:00:28,697 --> 00:00:30,449 他原本打算愚弄股票市場 9 00:00:30,532 --> 00:00:32,659 並在交易完成前取消 10 00:00:33,160 --> 00:00:34,411 但他取消前 11 00:00:34,495 --> 00:00:37,247 世界各地的自動股票交易機器人 12 00:00:37,331 --> 00:00:38,582 也開始拋售 13 00:00:39,041 --> 00:00:42,336 引起連鎖反應,對市場造成嚴重衝擊 14 00:00:44,880 --> 00:00:48,967 道瓊平均工業指數 在15分鐘內下跌1000點 15 00:00:49,051 --> 00:00:52,513 這幾乎是導致當年大蕭條的跌幅 16 00:00:52,596 --> 00:00:55,307 –到底怎麼回事? –我不知道 17 00:00:55,390 --> 00:00:56,642 市場在恐慌 18 00:00:57,267 --> 00:00:59,645 取消郵輪旅行,把孩子轉到公立學校 19 00:01:00,938 --> 00:01:02,481 各位,這是閃電崩盤 20 00:01:05,359 --> 00:01:08,111 36分鐘後市場反彈 21 00:01:08,195 --> 00:01:11,615 但2010年的閃電崩盤 22 00:01:11,698 --> 00:01:15,994 是人類第一次得以窺見可怕的未來 23 00:01:16,078 --> 00:01:19,164 人工智慧將如何接管我們的金融系統 24 00:01:20,707 --> 00:01:22,167 你應該看看它如今的發展 25 00:01:24,086 --> 00:01:26,922 因此我來到印度採野生蜂蜜 26 00:01:27,631 --> 00:01:28,966 我們稍後再繼續這個故事 27 00:01:29,341 --> 00:01:31,885 要明白人工智慧和這個地方有何關聯 28 00:01:31,969 --> 00:01:34,429 你首先要明白什麼是人工智慧 29 00:01:34,513 --> 00:01:36,431 如果你以為你已經知道了 我很肯定你錯了 30 00:01:37,850 --> 00:01:41,436 不管你喜不喜歡 我們都被金錢連繫起來 31 00:01:41,937 --> 00:01:45,315 我是凱爾潘,我將要探索 32 00:01:45,691 --> 00:01:48,068 全球經濟這隻龐然巨獸 33 00:01:48,151 --> 00:01:49,403 全球經濟巨獸 34 00:01:52,322 --> 00:01:54,199 那麼到底什麼是人工智慧? 35 00:01:54,283 --> 00:01:55,409 舊金山 36 00:01:55,492 --> 00:01:58,579 我先到舊金山來弄明白它不是什麼 37 00:01:58,662 --> 00:02:01,874 基本上就是所有科幻小說所敘述的 38 00:02:02,541 --> 00:02:03,542 尤其是… 39 00:02:03,959 --> 00:02:07,004 巨型機器人! 40 00:02:27,107 --> 00:02:28,442 天啊! 41 00:02:30,485 --> 00:02:32,112 我身邊的是茱莉亞博斯曼 42 00:02:32,237 --> 00:02:36,575 她供職於世界經濟論壇的人工智慧委員會 43 00:02:36,658 --> 00:02:40,329 建議世界各地的領袖 如何利用人工智慧的潛力 44 00:02:40,829 --> 00:02:44,499 這個職位帶來的好處 比觀看機器人摧毀汽車更棒 45 00:02:44,583 --> 00:02:47,586 比如和加拿大除了德瑞克以外 最性感的人自拍 46 00:02:47,669 --> 00:02:48,754 有人在自拍 加拿大總理賈斯汀杜魯多 47 00:02:53,467 --> 00:02:55,385 現在你要怎麼回家? 48 00:02:55,469 --> 00:02:56,803 我想它還是開得動 49 00:03:01,016 --> 00:03:03,018 我們在一個叫MegaBots的公司見面 50 00:03:03,101 --> 00:03:05,854 他們專門製造巨型機器人 和其他機器人打架 51 00:03:07,814 --> 00:03:10,275 就像宅男版的中世紀餐館劇院 52 00:03:13,779 --> 00:03:14,905 據茱莉亞所說 53 00:03:14,988 --> 00:03:17,658 這些機器人不是過時的主題樂園擺設 54 00:03:18,283 --> 00:03:22,412 它們是科技恐龍,因為一個重要分別 55 00:03:24,289 --> 00:03:25,582 在這些機器人裡,我們就是大腦 56 00:03:25,666 --> 00:03:27,626 但人工智慧是人工的大腦 57 00:03:27,709 --> 00:03:28,752 世界經濟論壇人工智慧專家 茱莉亞博斯曼 58 00:03:28,835 --> 00:03:29,711 有意思,妳能詳細解釋一下嗎? 59 00:03:29,795 --> 00:03:32,506 我們現在製造的電腦 60 00:03:32,589 --> 00:03:34,132 能自己學習 61 00:03:34,591 --> 00:03:37,010 它們甚至不需要身體 62 00:03:37,344 --> 00:03:40,055 我們製造的很多人工智慧 63 00:03:40,138 --> 00:03:41,765 都住在龐大的數據中心裡 64 00:03:42,057 --> 00:03:46,645 如果面對著一個13歲的孩子 65 00:03:46,728 --> 00:03:48,146 妳會如何解釋人工智慧? 66 00:03:48,230 --> 00:03:50,691 我想我可以大概解釋為 67 00:03:50,774 --> 00:03:54,945 人工智慧叫機器做事情 68 00:03:55,028 --> 00:03:58,156 而我們不必寫程式叫它們這樣做 69 00:03:58,240 --> 00:03:59,616 傳統的撰寫程式 70 00:03:59,700 --> 00:04:02,744 你有一系列的規則和演算法 71 00:04:02,828 --> 00:04:04,413 你知道如果有這個,就會有那個 72 00:04:04,496 --> 00:04:07,165 全部是由撰寫程序的人設計好 73 00:04:07,249 --> 00:04:09,501 以看醫學文獻為例 74 00:04:09,584 --> 00:04:12,004 一個資料庫有數百萬篇文章 75 00:04:12,087 --> 00:04:14,923 沒有醫生可以讀完全部研究論文 76 00:04:15,048 --> 00:04:17,676 以瞭解行業的最新發展,但機器可以 77 00:04:17,759 --> 00:04:20,220 那麼你可以想像 機器可以想出新的主意 78 00:04:20,303 --> 00:04:21,596 來解決問題或發現新的藥物 79 00:04:21,680 --> 00:04:24,766 來治癒疾病 80 00:04:24,850 --> 00:04:25,976 哇 81 00:04:26,059 --> 00:04:28,395 在人工智慧領域 82 00:04:28,478 --> 00:04:30,856 如今有一項發展令人非常振奮 83 00:04:30,939 --> 00:04:32,065 那就是深度學習 84 00:04:32,149 --> 00:04:33,608 什麼是深度學習? 85 00:04:33,692 --> 00:04:36,069 深度學習是當我們有了 86 00:04:36,153 --> 00:04:39,072 數個深層次的神經中樞網絡 87 00:04:39,156 --> 00:04:42,242 類似於我們人腦的結構 88 00:04:42,325 --> 00:04:45,579 在我們的腦子裡,神經元彼此連結 89 00:04:45,662 --> 00:04:46,788 並交換資訊 90 00:04:46,830 --> 00:04:50,751 我們想到一個方法 在機器裡模擬這個結構 91 00:04:50,834 --> 00:04:54,546 我們輸入平衡而且公正的數據 92 00:04:54,629 --> 00:04:56,214 來讓它學習 93 00:04:56,548 --> 00:04:59,009 以辨認圖像為例,我們告訴它們 94 00:04:59,092 --> 00:05:01,511 這些圖像是貓,這些圖像是狗 95 00:05:01,595 --> 00:05:03,972 它們就開始分析這些圖像 96 00:05:04,056 --> 00:05:06,349 從而自己學會如何辨認它們 97 00:05:06,433 --> 00:05:10,187 我們不必撰寫所有的程序 98 00:05:10,228 --> 00:05:11,229 有意思 99 00:05:11,313 --> 00:05:14,107 還有一種不是深層學習的機器學習方法 100 00:05:14,858 --> 00:05:16,985 它們是進化演算法 101 00:05:17,069 --> 00:05:19,863 我們基本上利用了進化論的原理 102 00:05:19,946 --> 00:05:24,242 讓機器嘗試不同的程序 103 00:05:24,743 --> 00:05:27,329 看哪種最好 104 00:05:27,412 --> 00:05:31,291 效果最好的會進入下一代 105 00:05:31,374 --> 00:05:34,336 就像生物進化,我們的原則是 106 00:05:34,419 --> 00:05:37,172 最好的程序才能生存 107 00:05:37,255 --> 00:05:38,381 哇,好吧 108 00:05:38,465 --> 00:05:40,550 既然那些是進化演算法 109 00:05:40,926 --> 00:05:44,346 探索人工智慧會帶來什麼經濟利益? 110 00:05:44,429 --> 00:05:47,724 它一定有潛力會對經濟造成深遠影響 111 00:05:47,808 --> 00:05:50,393 是的,我想它會徹底改變經濟格局 112 00:05:50,477 --> 00:05:53,313 我們談論的是一場新的工業革命 113 00:05:53,396 --> 00:05:54,231 有意思 114 00:05:54,314 --> 00:05:55,774 這被稱為人類最後的發明 115 00:05:55,857 --> 00:05:58,944 因為一旦我們有了 比我們更聰明的人工大腦 116 00:05:59,027 --> 00:06:00,779 它可以為我們發明更多東西 117 00:06:00,862 --> 00:06:03,865 這被稱為最後的發明 因為它會殺死我們全部人? 118 00:06:04,950 --> 00:06:06,118 但願不會 119 00:06:08,829 --> 00:06:12,207 很多人都擔心人工智慧變得太聰明 120 00:06:12,290 --> 00:06:15,001 會把我們全部殺死,但不要擔心 121 00:06:15,085 --> 00:06:19,047 人工智慧之所以如此聰明 其中一個原因是因為它非常蠢 122 00:06:19,464 --> 00:06:20,549 過來,人工智慧 123 00:06:21,299 --> 00:06:24,302 假設你叫人工智慧用進化演算法來尋找 124 00:06:24,386 --> 00:06:26,179 最好的蛋糕食譜 125 00:06:27,973 --> 00:06:30,517 人工智慧不會思考哪種方法最好 126 00:06:30,600 --> 00:06:33,520 它會進行數十億次的嘗試 127 00:06:33,603 --> 00:06:37,482 用遍廚房裡的所有原料 用最愚蠢的方法來料理 128 00:06:38,441 --> 00:06:40,652 當然大部分都註定了失敗 129 00:06:42,320 --> 00:06:43,613 這個必定失敗 130 00:06:44,447 --> 00:06:45,657 不錯的嘗試,白癡 131 00:06:46,616 --> 00:06:50,162 失敗不會傷害人工智慧的感情 因為它沒有感情 132 00:06:50,745 --> 00:06:53,123 進化演算法最好的部分是 133 00:06:53,206 --> 00:06:56,293 在試遍所有似乎愚不可及的方法後 134 00:06:56,376 --> 00:06:58,044 它可能會發現一個 135 00:06:58,128 --> 00:07:01,464 沒有理性的人類能想出的料理方法 136 00:07:01,548 --> 00:07:04,176 比如做出一個超棒的素食蛋糕 137 00:07:04,259 --> 00:07:05,302 我做了一個蛋糕 138 00:07:06,178 --> 00:07:07,554 做得好,人工智慧 139 00:07:07,637 --> 00:07:09,097 它大部分是腰果 140 00:07:09,931 --> 00:07:13,143 你會想到用腰果嗎?當然不會! 141 00:07:13,226 --> 00:07:16,521 因為那很蠢,人工智慧願意去做 142 00:07:16,605 --> 00:07:18,190 因此你不必這樣做 143 00:07:18,273 --> 00:07:21,067 這個白癡會進化成某個聰明的東西 144 00:07:21,151 --> 00:07:23,653 統治世界並殺死所有人類嗎? 145 00:07:24,196 --> 00:07:25,280 很難講 146 00:07:25,363 --> 00:07:26,740 我在學習發射密碼 147 00:07:27,657 --> 00:07:28,992 但與此同時 148 00:07:29,993 --> 00:07:31,077 吃些蛋糕吧 149 00:07:35,165 --> 00:07:36,541 雖然我仍擔心 150 00:07:36,625 --> 00:07:39,461 人工智慧會造成而不是解決更多問題 151 00:07:41,004 --> 00:07:43,757 專家們同意,它會提高 152 00:07:43,840 --> 00:07:47,636 諸如醫療、運輸和金融等領域的效率 153 00:07:47,719 --> 00:07:51,848 在2030年前使全球生產總值 增加15.7兆美元 154 00:07:52,474 --> 00:07:56,478 這比如今中國和印度 加起來的生產總值還要多 155 00:07:56,561 --> 00:07:58,480 紐約市 156 00:07:59,898 --> 00:08:02,275 那麼人工智慧到底有多重要? 157 00:08:02,943 --> 00:08:06,404 在我看來,它是人類歷史上 最重要的三件事之一 158 00:08:06,488 --> 00:08:07,697 人類歷史上? 159 00:08:07,781 --> 00:08:08,990 絕對是人類歷史上 160 00:08:09,616 --> 00:08:11,368 在我身邊的是安德魯麥克菲 161 00:08:11,451 --> 00:08:15,664 對於新科技如何改變經濟 乃至於整個人類社會 162 00:08:15,747 --> 00:08:19,542 他是世界一流的專家 163 00:08:20,460 --> 00:08:22,212 假如你要製作人類歷史的圖表 164 00:08:22,295 --> 00:08:24,214 你會發現有好幾千年 165 00:08:24,297 --> 00:08:26,258 完全沒有發生任何事 我們只是一成不變地活著 166 00:08:26,341 --> 00:08:28,093 麻省理工學院數位經濟學院 聯合主管–安德魯麥克菲 167 00:08:28,176 --> 00:08:30,845 幾乎跟死了沒差別 168 00:08:30,929 --> 00:08:32,514 突然到了某個時候 169 00:08:32,597 --> 00:08:34,933 不管你從哪個方面來看 人類歷史的圖表 170 00:08:35,016 --> 00:08:38,144 從一條沉悶的水平線 變成一條陡峭的垂直線 171 00:08:38,228 --> 00:08:39,771 幾乎就是一眨眼的工夫 172 00:08:39,854 --> 00:08:41,481 這發生在1800年前後 173 00:08:41,564 --> 00:08:45,443 首先是因為蒸汽動力,第二是電力 174 00:08:47,821 --> 00:08:50,782 電力的貢獻顯而易見,對吧? 175 00:08:50,865 --> 00:08:53,827 它給了我們電車、地鐵 176 00:08:53,910 --> 00:08:57,080 不太明顯的就是 把水平的城市變成了垂直式 177 00:08:57,163 --> 00:08:58,373 –因為電力? –絕對是 178 00:08:58,456 --> 00:08:59,749 –你需要電梯 –電梯,好吧 179 00:08:59,833 --> 00:09:01,543 沒有電梯就不會有垂直式的城市 180 00:09:01,626 --> 00:09:03,878 你不能每天爬上80層樓梯 181 00:09:03,962 --> 00:09:06,506 這兩項工業革命,首先是蒸汽 182 00:09:06,589 --> 00:09:09,259 然後是電力加上內燃機 183 00:09:09,342 --> 00:09:11,011 徹底改變了人類歷史 184 00:09:11,094 --> 00:09:12,804 –這是毫無疑問的 –當然 185 00:09:12,887 --> 00:09:15,974 這些科技使我們克服了 186 00:09:16,057 --> 00:09:17,100 體力限制 187 00:09:17,183 --> 00:09:20,562 至於人工智慧將會使我們克服 188 00:09:20,645 --> 00:09:22,564 我們個人腦力的限制 189 00:09:22,647 --> 00:09:24,607 危險,高壓電 190 00:09:24,691 --> 00:09:26,484 我們面對著一些很棘手的挑戰 191 00:09:26,568 --> 00:09:28,236 非常棘手的挑戰 192 00:09:28,320 --> 00:09:29,696 我們要治癒癌症 193 00:09:29,779 --> 00:09:31,406 我們要為更多人提供食物 194 00:09:31,489 --> 00:09:33,950 我們要在21世紀停止給地球加溫 195 00:09:34,034 --> 00:09:36,328 這些都是非常複雜的問題 196 00:09:36,411 --> 00:09:38,747 我們的大腦承受不了那種複雜度 197 00:09:38,830 --> 00:09:41,708 我們利用科學和累積的知識來應對 198 00:09:41,791 --> 00:09:44,044 但這些問題實在太複雜了 199 00:09:44,127 --> 00:09:45,420 我對人工智慧的看法是 200 00:09:45,503 --> 00:09:48,506 這就像我們有了 一位非常強大的新同事 201 00:09:48,590 --> 00:09:51,676 協助我們解決這些極端複雜的問題 202 00:09:51,760 --> 00:09:54,637 因為這些新科技最擅長的是 203 00:09:54,721 --> 00:09:59,684 在龐大數據中找出隱藏的模式 204 00:09:59,768 --> 00:10:01,603 而你我都無法消化這些數據 205 00:10:01,686 --> 00:10:03,897 我近期聽到的一個最瘋狂的例子 206 00:10:03,980 --> 00:10:05,106 是金融方面的 207 00:10:05,190 --> 00:10:07,650 人們稱之為機器人顧問 208 00:10:07,734 --> 00:10:09,361 它們只是一個演算法 209 00:10:09,444 --> 00:10:11,696 會把你的投資組合放在一起 210 00:10:11,780 --> 00:10:13,031 如今 211 00:10:13,114 --> 00:10:15,325 你要有一定數額的財富 212 00:10:15,408 --> 00:10:18,745 才會去找理財規劃師或者顧問 213 00:10:18,828 --> 00:10:20,872 –對 –是的,這種情況很快會改變 214 00:10:20,955 --> 00:10:25,210 有了機器人顧問,那些不太有錢的人 215 00:10:25,293 --> 00:10:28,963 也可以用上最強大、最尖端的工具 216 00:10:29,047 --> 00:10:31,299 以改善他們的財務狀況 217 00:10:31,383 --> 00:10:34,302 這很令人興奮 尤其因為似乎總是有人 218 00:10:34,386 --> 00:10:37,555 會用這些東西去幹壞事 219 00:10:37,639 --> 00:10:40,225 我不是說這沒什麼可擔心的 220 00:10:40,308 --> 00:10:42,852 我們知道,過去的工業革命 221 00:10:42,936 --> 00:10:44,687 都帶來了一些負面後果 222 00:10:44,771 --> 00:10:49,150 我們把工業科技用在戰爭上 223 00:10:49,234 --> 00:10:52,529 我們使環境受到極大污染 224 00:10:52,612 --> 00:10:54,364 我們犯了一些很嚴重的錯誤 225 00:10:54,447 --> 00:10:57,951 比如大規模使用童工 這都是工業革命造成的 226 00:10:58,034 --> 00:11:01,079 因此這並非完美,不是在所有方面 227 00:11:01,162 --> 00:11:03,748 這次也會發生同樣的事情 228 00:11:04,249 --> 00:11:05,291 該死 229 00:11:06,918 --> 00:11:08,586 現在麥克菲讓我思考 230 00:11:08,670 --> 00:11:10,547 如果歷史重蹈覆轍 231 00:11:10,630 --> 00:11:13,591 人工智慧以錯誤的方式重塑社會呢? 232 00:11:14,467 --> 00:11:18,430 比如環境污染和童工問題? 233 00:11:18,513 --> 00:11:19,848 倫敦 234 00:11:19,931 --> 00:11:21,891 還有隨著強大的新科技發展 235 00:11:21,975 --> 00:11:24,227 帶來的道德和倫理問題? 236 00:11:24,936 --> 00:11:27,647 參觀倫敦的國家計算博物館 237 00:11:27,730 --> 00:11:31,109 你看到很多機器 發明的初衷是造福社會 238 00:11:31,192 --> 00:11:35,572 比如這台兩噸重的哈維爾德卡特倫 在1950年代被造出來 239 00:11:35,655 --> 00:11:38,908 為英國的科學研究計畫進行計算 240 00:11:39,242 --> 00:11:41,161 如果落入錯誤的人之手 沒人知道 241 00:11:41,244 --> 00:11:43,163 一項新科技會被如何使用 242 00:11:43,746 --> 00:11:45,707 你能在這台電腦上看色情影片嗎? 243 00:11:46,040 --> 00:11:49,752 我想你可以打開它 看非常低解析度的色情影片 244 00:11:50,712 --> 00:11:51,754 電腦程式設計師–艾倫祖克尼 245 00:11:51,838 --> 00:11:54,507 這位是程式設計師艾倫祖克尼 246 00:11:54,591 --> 00:11:57,177 他在倫敦的金匠學院教書 247 00:11:57,719 --> 00:12:00,722 他利用科技協助創造出 一些革命性的發明 248 00:12:00,805 --> 00:12:04,058 比如讓行動不便的人使用的遊戲控制器 249 00:12:05,477 --> 00:12:07,937 他說科技歷史上 250 00:12:08,021 --> 00:12:10,190 最大的道德困境即將出現 251 00:12:10,273 --> 00:12:14,360 當人工智慧開始模擬各種人類的行為 252 00:12:14,444 --> 00:12:16,404 它可以冒充人類 253 00:12:17,113 --> 00:12:18,615 這是什麼? 254 00:12:18,948 --> 00:12:21,826 這基本上就是最早期的電腦之一 255 00:12:21,910 --> 00:12:24,829 由艾倫圖靈和他的同事建造 256 00:12:24,913 --> 00:12:28,124 這台機器是第一台能破譯納粹設計的 257 00:12:28,208 --> 00:12:30,710 恩尼格瑪密碼的電腦 258 00:12:32,587 --> 00:12:35,381 艾倫圖靈是現代計算機科學之父 259 00:12:35,465 --> 00:12:38,927 當他沒有忙著協助同盟國 通過破譯納粹密碼贏取戰爭 260 00:12:39,010 --> 00:12:42,555 他研究出被他稱為“圖靈測試”的試驗 261 00:12:43,598 --> 00:12:46,643 我們如何分辨人和機器? 262 00:12:46,726 --> 00:12:49,854 如果我們分辨不出來 263 00:12:49,938 --> 00:12:53,066 那台機器便通過了“模仿遊戲” 264 00:12:53,149 --> 00:12:56,569 機器試圖模仿人類的行為 265 00:12:56,653 --> 00:12:59,072 這就是圖靈測試 266 00:12:59,155 --> 00:13:02,659 這是其中一台 我們假設曾用作測試的機器 267 00:13:02,742 --> 00:13:03,868 要進行圖靈測試 268 00:13:03,952 --> 00:13:06,579 人類會向機器輸入問題 269 00:13:07,080 --> 00:13:08,831 一位旁觀者會評估 270 00:13:08,915 --> 00:13:11,501 答案是來自人類 271 00:13:11,584 --> 00:13:13,461 還是機器在模仿人類 272 00:13:14,379 --> 00:13:15,630 你幾歲? 273 00:13:17,924 --> 00:13:20,134 –有了 –它知道它幾歲 274 00:13:20,218 --> 00:13:22,011 “我生於1912年 275 00:13:22,095 --> 00:13:24,389 “因此我105歲了” 276 00:13:27,642 --> 00:13:30,979 在圖靈那個年代 你很容易分辨出電腦的答案 277 00:13:31,271 --> 00:13:34,357 但今天,人工智慧可以學習人類行為 278 00:13:34,440 --> 00:13:36,693 並使自己變得像我們 279 00:13:37,485 --> 00:13:39,654 你能看出這個… 280 00:13:39,988 --> 00:13:43,199 通常我會以一個數據科技的笑話 開始這番評論 281 00:13:43,700 --> 00:13:46,744 但我的員工想出來的一半東西 都低於平均水準 282 00:13:46,828 --> 00:13:47,912 …和這個的分別嗎? 283 00:13:47,996 --> 00:13:50,415 我們的敵人可以使它 看起來像任何人在任何時間 284 00:13:50,498 --> 00:13:51,833 說任何內容 285 00:13:52,208 --> 00:13:55,503 第二個其實是BuzzFeed 和演員喬登皮爾 286 00:13:55,587 --> 00:13:57,338 共同創造的 287 00:13:57,839 --> 00:14:02,760 這使很多人擔心人工智慧式的假新聞 288 00:14:02,844 --> 00:14:04,929 日後我們要更加謹慎 289 00:14:05,013 --> 00:14:06,639 不能輕易相信網路上的東西 290 00:14:06,723 --> 00:14:09,058 人工智慧學習皮爾的面部動作 291 00:14:09,142 --> 00:14:13,062 把它們結合起來 重現在歐巴馬的臉上 292 00:14:13,146 --> 00:14:15,690 創造出被稱為“深偽”的混合體 293 00:14:15,773 --> 00:14:17,984 你也許看過一些類似的東西 294 00:14:18,067 --> 00:14:21,404 比如在Snapchat上 有一個讓我們換臉的濾光鏡 295 00:14:21,487 --> 00:14:25,325 分別在於,濾鏡的技術很簡單 296 00:14:25,408 --> 00:14:28,953 但深偽背後的技術依靠的是人工智慧 297 00:14:29,037 --> 00:14:31,289 它來自一種叫做“深層學習”的東西 298 00:14:31,706 --> 00:14:35,126 人工神經中樞網絡提取出面部表情 299 00:14:35,209 --> 00:14:37,754 它利用這表情重新創造你的臉 300 00:14:37,837 --> 00:14:41,466 因此我們可以得到逼真的效果 301 00:14:42,508 --> 00:14:45,720 艾倫在網路上教人們如何製作深偽 302 00:14:45,803 --> 00:14:48,056 他深信這項科技 303 00:14:48,139 --> 00:14:50,767 應該不受限制、自由發展 304 00:14:50,850 --> 00:14:53,853 即使它有可能引發第三次世界大戰 305 00:14:53,936 --> 00:14:55,104 比利時社會主義黨轉發 “深偽”川普影片 306 00:14:55,188 --> 00:14:57,273 讀者怎麼知道 307 00:14:57,357 --> 00:14:59,692 什麼是真實的,什麼不是? 308 00:14:59,776 --> 00:15:02,695 作為讀者,當你看到一則新聞 309 00:15:02,779 --> 00:15:05,740 不管它是一篇文章 一段影片還是一幅畫 310 00:15:05,823 --> 00:15:08,076 你看到的任何東西 都是由某個人所創作的 311 00:15:08,201 --> 00:15:09,577 “我看到的東西講述了什麼? 312 00:15:09,827 --> 00:15:11,287 “這段影片想表達什麼?” 313 00:15:11,371 --> 00:15:13,581 那麼,我可以看到… 314 00:15:13,665 --> 00:15:14,624 危險 315 00:15:14,707 --> 00:15:17,168 危險還有對它的好奇 316 00:15:17,251 --> 00:15:19,420 這真的對人有好處嗎? 317 00:15:19,504 --> 00:15:21,923 因為我想你已經和那些 318 00:15:22,006 --> 00:15:25,885 期待利用這項科技 促進經濟發展的人談過了 319 00:15:25,968 --> 00:15:29,097 這會對經濟造成什麼實際影響? 320 00:15:29,180 --> 00:15:32,308 我想首先從這項科技得到好處的 321 00:15:32,392 --> 00:15:33,685 會是電影業 322 00:15:33,768 --> 00:15:36,813 因為它可以換臉 323 00:15:36,896 --> 00:15:40,024 我們幾十年來都想在電影裡這樣做 324 00:15:40,108 --> 00:15:42,527 通常我們利用化妝和面具 325 00:15:42,610 --> 00:15:43,736 有時候我們用電腦成像 326 00:15:43,820 --> 00:15:46,489 作為一個演員和曾經從政的人 327 00:15:46,572 --> 00:15:48,616 我覺得這很嚇人 328 00:15:48,700 --> 00:15:50,201 –但我完全理解 –應該如此 329 00:15:51,285 --> 00:15:53,705 BuzzFeed的深偽使大眾意識到 330 00:15:53,788 --> 00:15:55,039 我們是多麼脆弱 331 00:15:55,873 --> 00:15:59,585 尤其是總統一開口 就能影響市場的時候 332 00:15:59,669 --> 00:16:02,714 手段高明的深偽作品 可以使全球經濟崩潰 333 00:16:02,797 --> 00:16:04,674 速度比閃電崩盤更快 334 00:16:04,757 --> 00:16:08,469 並讓你的個人退休帳戶消失 這只需假的歐巴馬說一句 335 00:16:08,553 --> 00:16:09,554 小心點,賤人們 336 00:16:10,638 --> 00:16:13,057 這一切聽起來有點像科幻小說嗎? 337 00:16:13,141 --> 00:16:14,726 甚至有點嚇人? 338 00:16:15,309 --> 00:16:18,271 如果人工智慧變得足夠強大 知道我們如何行動 339 00:16:18,354 --> 00:16:20,022 如何交談和思考 340 00:16:20,106 --> 00:16:22,316 也許會變得跟人類難以區分 341 00:16:22,400 --> 00:16:23,818 你知道什麼?無所不知 342 00:16:24,610 --> 00:16:26,779 如果人工智慧有了自己的意念 343 00:16:26,863 --> 00:16:29,782 它可能對我們產生強烈的意見 344 00:16:29,866 --> 00:16:30,908 去你的–小心點! 345 00:16:30,992 --> 00:16:33,119 而且不一定是正面的 346 00:16:35,455 --> 00:16:36,664 理論物理學家–史蒂芬霍金 347 00:16:36,748 --> 00:16:39,292 未來人工智慧會發展出自己的意志 348 00:16:39,375 --> 00:16:42,003 和我們的意志相衝突 349 00:16:42,086 --> 00:16:44,422 強大的人工智慧興起 350 00:16:44,505 --> 00:16:48,801 可能是發生在人類身上 最好也可能是最壞的事 351 00:16:49,260 --> 00:16:50,136 太空探索技術公司執行長 伊隆馬斯克 352 00:16:50,219 --> 00:16:53,181 我試著勸人們放慢發展人工智慧 353 00:16:54,056 --> 00:16:55,224 要管理人工智慧 354 00:16:55,308 --> 00:16:56,809 然而徒勞無功,我努力了好幾年 355 00:16:56,893 --> 00:16:58,561 沒人要聽 356 00:16:58,644 --> 00:17:00,980 在一部機器人控制一切的電影 357 00:17:01,063 --> 00:17:02,607 你把我嚇到了 358 00:17:05,818 --> 00:17:09,030 人工智慧導致末日到來 這個威脅到底有多真實? 359 00:17:09,113 --> 00:17:10,782 牛津 360 00:17:10,865 --> 00:17:12,408 英國 361 00:17:12,742 --> 00:17:15,077 為了找到答案,我要去問一個人 362 00:17:15,161 --> 00:17:18,164 他的研究一開始就把所有人嚇壞了 363 00:17:18,831 --> 00:17:21,083 我很興奮能和你交談,因為… 364 00:17:21,167 --> 00:17:23,628 出於很多理由 365 00:17:23,711 --> 00:17:26,839 我們在探索人工智慧 366 00:17:26,923 --> 00:17:29,258 想知道它到底是什麼 它朝著什麼方向發展 367 00:17:29,342 --> 00:17:34,680 你影響了像伊隆馬斯克 和比爾蓋茨這樣的人物 368 00:17:37,016 --> 00:17:40,853 這是很驚人的影響力 369 00:17:42,021 --> 00:17:45,691 我在牛津大學 和尼克博斯特朗姆博士見面 370 00:17:45,775 --> 00:17:48,986 既然他不會自吹自擂,我來代勞 371 00:17:51,489 --> 00:17:55,201 在機器超級智慧 以及關乎人類存亡的風險方面 372 00:17:55,284 --> 00:17:59,205 他是首屈一指的專家 還是幾本很棒的沙灘讀物的作者 373 00:17:59,705 --> 00:18:00,957 我有幸能和他見面 374 00:18:01,040 --> 00:18:03,584 因為尼克忙著做他的深度思考 375 00:18:03,668 --> 00:18:05,419 他每個月只出來一小時 376 00:18:05,503 --> 00:18:07,338 回答關於他的研究的問題 377 00:18:10,925 --> 00:18:14,262 很多關於人工智慧的討論 378 00:18:14,345 --> 00:18:17,014 都是關於機器人會接管地球 379 00:18:17,098 --> 00:18:18,850 這會是人類社會的終結嗎? 380 00:18:18,933 --> 00:18:21,310 我很好奇 如果事情沒有得到妥善處理 381 00:18:21,394 --> 00:18:24,564 人工智慧有沒有可能會危及人類社會 382 00:18:24,647 --> 00:18:28,484 甚至徹底消滅人類? 383 00:18:28,568 --> 00:18:29,902 從長遠來看 384 00:18:29,986 --> 00:18:33,114 如果我們思考,當人工智慧全面發展 385 00:18:33,197 --> 00:18:36,951 並能複製使我們成為人類的通用智慧 386 00:18:37,034 --> 00:18:38,828 那麼是的 387 00:18:38,911 --> 00:18:42,748 但我認為在那種情況下 有其他更大的風險 388 00:18:42,832 --> 00:18:44,125 包括影響人類存亡的風險 389 00:18:45,585 --> 00:18:48,421 你想想無人駕駛車這樣的東西 390 00:18:48,504 --> 00:18:49,797 無人駕駛車撞死行人 391 00:18:49,881 --> 00:18:51,549 它可以撞倒一位行人 392 00:18:51,632 --> 00:18:53,342 還有隱私問題 393 00:18:53,426 --> 00:18:56,095 自動武器用在軍事方面 394 00:18:57,847 --> 00:18:59,307 這些憂慮都確實存在 395 00:18:59,390 --> 00:19:02,184 然而到了某個時候,人們會問 396 00:19:02,268 --> 00:19:04,687 我們如何影響我們創造的數位思想 397 00:19:04,770 --> 00:19:09,066 它們也許會發展出某種道德立場 398 00:19:09,525 --> 00:19:11,152 展望未來 399 00:19:11,235 --> 00:19:15,031 如果你思考人類的終極命運 400 00:19:15,114 --> 00:19:18,534 未來可能受到機器智慧的統治 401 00:19:18,618 --> 00:19:21,996 人類很有可能會滅亡 402 00:19:23,414 --> 00:19:26,250 那些強大的力量帶有風險 403 00:19:26,834 --> 00:19:30,755 可能出於意外,也可能是蓄意濫用 404 00:19:30,838 --> 00:19:33,466 造成極大破壞 405 00:19:35,885 --> 00:19:37,595 我想這的確有可能 406 00:19:37,678 --> 00:19:39,305 如果我們思考長遠的未來 407 00:19:39,388 --> 00:19:41,182 結果可能非常好 408 00:19:41,265 --> 00:19:43,726 或者非常糟糕 409 00:19:46,354 --> 00:19:48,731 這些可能性聽起來的確很可怕 410 00:19:49,732 --> 00:19:51,609 但在所有的可能性裡頭 411 00:19:51,692 --> 00:19:55,821 尼克相信人工智慧 最有可能導致的末日 412 00:19:55,905 --> 00:19:57,114 是經濟上的 413 00:19:57,198 --> 00:19:59,450 你想想,科技從整體而言 414 00:19:59,533 --> 00:20:02,828 就是用更少換取更多 415 00:20:02,912 --> 00:20:06,123 我們投入更少努力,完成更多目標 416 00:20:06,207 --> 00:20:07,750 這樣的話,目標就是 417 00:20:07,833 --> 00:20:09,418 全民失業,對吧? 418 00:20:10,294 --> 00:20:12,380 可以用機器和科技 419 00:20:12,463 --> 00:20:15,341 完成所有事情,我們就不必工作了 420 00:20:15,424 --> 00:20:17,301 我想這是我們想要的終極目標 421 00:20:17,385 --> 00:20:19,553 不是我們需要預防的可怕結果 422 00:20:19,637 --> 00:20:20,680 這是我們想實現的目標 423 00:20:20,763 --> 00:20:22,932 為了實現這個烏托邦 424 00:20:23,015 --> 00:20:25,601 我們必須克服 425 00:20:25,685 --> 00:20:27,061 幾大挑戰 426 00:20:28,187 --> 00:20:30,815 首先這是一個經濟問題 427 00:20:30,898 --> 00:20:33,567 人們需要工作的 其中一個原因是他們需要收入 428 00:20:33,651 --> 00:20:35,653 如果你可以解決這個經濟問題 429 00:20:35,736 --> 00:20:37,571 接下來還有第二個大挑戰 430 00:20:37,655 --> 00:20:41,409 對很多人而言,這關乎尊嚴 431 00:20:41,492 --> 00:20:43,786 很多人傾向於通過養家活口 432 00:20:43,869 --> 00:20:47,081 或者貢獻社會,找到自身的價值 433 00:20:47,164 --> 00:20:49,583 但如果機器做什麼都比你好 434 00:20:49,667 --> 00:20:53,796 你就沒有機會做出貢獻了,對吧? 435 00:20:53,879 --> 00:20:58,175 到了那個時候 你就要從根本上重新思考文化 436 00:20:59,176 --> 00:21:01,095 一個沒有人工作的世界 437 00:21:01,178 --> 00:21:02,930 聽起來不太糟 438 00:21:05,057 --> 00:21:06,267 我可以想像 439 00:21:09,854 --> 00:21:11,313 和朋友一起玩樂 440 00:21:11,814 --> 00:21:14,942 充分發揮我作為人類的潛力 441 00:21:15,026 --> 00:21:19,321 不必調整熱水浴缸的溫度 因為它知道我要什麼溫度 442 00:21:20,114 --> 00:21:23,409 問題是,歷史證明沒有這樣的好事 443 00:21:23,492 --> 00:21:26,537 機器的興起之前也發生過 444 00:21:26,620 --> 00:21:27,705 上一次 445 00:21:27,788 --> 00:21:30,666 不完全是泡著三溫暖 吃草莓和喝香檳 446 00:21:34,378 --> 00:21:35,421 倫敦 447 00:21:35,504 --> 00:21:36,505 英國 448 00:21:36,964 --> 00:21:41,093 我要和經濟學家尼克施尼賽克見面 瞭解上一次機器搶走我們的工作 449 00:21:41,177 --> 00:21:43,054 發生了什麼事 450 00:21:43,888 --> 00:21:46,015 出於某個原因,我們在織布機前見面 451 00:21:46,432 --> 00:21:47,725 你要做什麼? 452 00:21:47,808 --> 00:21:50,311 我在做一面無政府主義旗幟 453 00:21:50,394 --> 00:21:51,979 有意思,很震驚 454 00:21:54,315 --> 00:21:57,568 尼克從倫敦政治經濟學院 獲得博士學位 455 00:21:58,027 --> 00:22:00,321 我沒有 456 00:22:01,530 --> 00:22:02,573 他還著有一本宣言 457 00:22:02,656 --> 00:22:03,949 加速政治宣言 458 00:22:04,492 --> 00:22:07,703 這本書號召人們推翻原有的制度 459 00:22:07,787 --> 00:22:09,830 加快自動化的到來 460 00:22:12,458 --> 00:22:15,461 基本上就是即時瓦解資本主義 461 00:22:16,003 --> 00:22:17,254 這不會行得通 462 00:22:17,338 --> 00:22:19,632 我不能和你進行這番對話 463 00:22:19,715 --> 00:22:21,550 對不起,讓我忘了織布機吧 464 00:22:22,093 --> 00:22:23,761 那麼我們為什麼在這裡? 465 00:22:24,637 --> 00:22:28,224 織布機某程度上就是19世紀的人工智慧 466 00:22:28,307 --> 00:22:32,853 作為一項新技術 它威脅到很多人的生計 467 00:22:33,270 --> 00:22:37,233 在工人當中引起了一系列反應 468 00:22:37,316 --> 00:22:39,360 例如盧德主義者的興起 469 00:22:39,443 --> 00:22:41,487 如今我們用“盧德主義者”這個詞 470 00:22:41,570 --> 00:22:44,031 指那些厭惡科技的人 471 00:22:44,532 --> 00:22:45,950 其實不是這樣的 472 00:22:46,700 --> 00:22:48,119 盧德主義者以內德盧德命名 473 00:22:48,202 --> 00:22:49,036 學徒–內德盧德 474 00:22:49,120 --> 00:22:51,122 他是一家紡織品工廠的學徒 475 00:22:51,205 --> 00:22:53,958 因為無所事事而被鞭打 476 00:22:54,041 --> 00:22:56,502 他說:“我無所事事 477 00:22:56,585 --> 00:22:59,338 “是因為我被一台該死的機器取代了” 478 00:22:59,421 --> 00:23:03,008 他成為第一個奮起反抗機器的人 479 00:23:03,092 --> 00:23:05,010 引發了一場運動 480 00:23:06,262 --> 00:23:10,349 盧德主義者通過破壞機器 來保住他們的工作 481 00:23:10,432 --> 00:23:12,810 我想如今的人工智慧也是一樣 482 00:23:12,893 --> 00:23:15,771 人們同樣地感受到威脅 483 00:23:15,855 --> 00:23:19,483 你知道多少工作會消失或被取代嗎? 484 00:23:19,567 --> 00:23:21,986 美國百分之47的工作 485 00:23:22,069 --> 00:23:24,822 未來二十年可能實現自動化 486 00:23:24,905 --> 00:23:26,615 這聽起來會是個問題 487 00:23:26,699 --> 00:23:27,992 這可能成為很大的問題 488 00:23:28,075 --> 00:23:31,662 真正的問題是,我們如何確保 接下來的五年、十年 489 00:23:31,745 --> 00:23:33,998 人們不會被餓死或者無家可歸 490 00:23:34,081 --> 00:23:35,166 我們怎麼做到? 491 00:23:35,457 --> 00:23:36,959 全民基本收入制度 492 00:23:38,210 --> 00:23:40,754 全民基本收入是一個徹底的改革構想 493 00:23:40,880 --> 00:23:43,424 確保社會上所有人無償得到收入 494 00:23:43,507 --> 00:23:45,092 無需任何條件 495 00:23:45,176 --> 00:23:47,178 它有一些很出名的支持者 496 00:23:47,636 --> 00:23:50,347 我們應該探索全民基本收入這樣的構想 497 00:23:50,431 --> 00:23:53,142 確保每個人在有保障的前提下 能去嘗試新的想法 498 00:23:53,225 --> 00:23:56,145 一些國家,甚至美國的一些城市 499 00:23:56,228 --> 00:23:58,189 試行了這樣的計畫 500 00:23:58,272 --> 00:23:59,982 結果各不相同 501 00:24:00,858 --> 00:24:03,861 我想這些新科技帶來一個好機會 502 00:24:03,944 --> 00:24:06,447 徹底改變我們組織社會的方式 503 00:24:06,530 --> 00:24:09,408 你可以進入一個更社會民主的系統 504 00:24:10,117 --> 00:24:13,454 而不必是美國這樣割喉式競爭的社會 505 00:24:13,537 --> 00:24:15,331 人們可以支持彼此 506 00:24:15,414 --> 00:24:19,418 如果像我這樣的人 開始提出這些正面的願景 507 00:24:19,919 --> 00:24:21,587 一旦危機真正到來 508 00:24:21,670 --> 00:24:23,380 我們就能開始實踐那些構想 509 00:24:24,173 --> 00:24:27,343 全民基本收入 過去被認為是一個邊緣構想 510 00:24:27,426 --> 00:24:30,930 大部分支持者是像尼克這樣的人 還寫了宣言 511 00:24:31,639 --> 00:24:33,891 但根據一項2017年的蓋洛普民意調查 512 00:24:33,974 --> 00:24:37,603 百分之48的美國人都支持 某種形式的全民基本收入 513 00:24:38,520 --> 00:24:40,231 但當機器人搶走我們的工作 514 00:24:40,314 --> 00:24:41,982 基本收入保障 515 00:24:42,066 --> 00:24:43,734 能否阻止人類奮起反抗? 516 00:24:44,735 --> 00:24:45,611 本地反對智慧科技聯盟 517 00:24:45,694 --> 00:24:48,572 –我們討厭什麼? –人工智慧 518 00:24:48,656 --> 00:24:50,032 我們為什麼討厭它? 519 00:24:50,115 --> 00:24:53,160 它迫使我們面對自身弱點 520 00:24:53,244 --> 00:24:55,955 既然如此,我宣布本次會議正式開始 521 00:24:56,038 --> 00:24:58,958 我們是本地反對智慧科技聯盟 522 00:24:59,041 --> 00:25:00,834 尤其反對社交媒體 523 00:25:01,835 --> 00:25:02,836 第一個討論項目 524 00:25:03,337 --> 00:25:06,340 人工智慧正在蠶食我們的就業市場 525 00:25:06,423 --> 00:25:09,260 我們中產階級的工作會最先消失 526 00:25:09,885 --> 00:25:11,720 我們從事這些職業的人 527 00:25:11,804 --> 00:25:14,473 會被迫去從事底層的低技術工作 528 00:25:14,974 --> 00:25:16,558 為什麼會這樣,艾德? 529 00:25:16,642 --> 00:25:21,105 因為人工智慧擅長 中等技術工作,例如把數字相加 530 00:25:21,188 --> 00:25:24,400 多於低技術工作,例如掃地 531 00:25:24,483 --> 00:25:26,277 所以它們會把那些工作留給我們 532 00:25:26,735 --> 00:25:28,028 現在我問你們 533 00:25:28,112 --> 00:25:29,655 這裡有誰,除了比爾 534 00:25:29,738 --> 00:25:32,199 看起來應該去掃地?無意冒犯,比爾 535 00:25:33,325 --> 00:25:35,786 零售業的職位也會減少 536 00:25:35,869 --> 00:25:38,622 人們可以上網訂購他們想要的東西 537 00:25:39,164 --> 00:25:41,583 因為該死的人工智慧 538 00:25:41,667 --> 00:25:43,919 解決了搜尋和匹配問題 539 00:25:44,378 --> 00:25:46,755 為顧客尋找商品 還有建議適合他們的商品 540 00:25:46,839 --> 00:25:49,383 比如史蒂夫要找一頂 適合他頭型的假髮 541 00:25:49,466 --> 00:25:50,426 這是個大問題! 542 00:25:51,969 --> 00:25:53,721 先不要開玩笑 543 00:25:54,346 --> 00:25:56,890 但人工智慧使這變得容易得多 544 00:25:56,974 --> 00:25:59,643 現在的年輕人坐在馬桶上就能搜尋 545 00:25:59,727 --> 00:26:01,937 和他們匹配的美眉 546 00:26:02,021 --> 00:26:04,064 –馬桶過去是神聖的地方! –對 547 00:26:04,773 --> 00:26:07,568 我很肯定搜尋匹配會創造專門的職位 548 00:26:07,651 --> 00:26:10,279 但該死的機器人會選擇誰得到那些工作 549 00:26:10,362 --> 00:26:11,739 真方便 550 00:26:12,489 --> 00:26:14,700 公司會利用人工智慧來尋找 551 00:26:14,783 --> 00:26:16,869 有特別技能的僱員 552 00:26:16,952 --> 00:26:18,287 這不人道! 553 00:26:18,370 --> 00:26:19,705 以戴夫為例 554 00:26:20,080 --> 00:26:21,332 戴夫在哪裡? 555 00:26:21,415 --> 00:26:24,251 某個職位匹配人工智慧 發現他為聯邦快遞工作 556 00:26:24,335 --> 00:26:27,087 以及在YouTube上教人剃後背毛 557 00:26:27,171 --> 00:26:30,716 現在他為某間剃刀訂購公司工作 年薪達到六位數 558 00:26:30,799 --> 00:26:33,093 那他不再是我們保齡球隊的成員了 559 00:26:33,177 --> 00:26:34,094 –對 –嘿,艾德 560 00:26:34,178 --> 00:26:36,513 我剛收到通知 561 00:26:36,597 --> 00:26:38,766 臉書透過目標式廣告 賣出了我們的T恤 562 00:26:38,849 --> 00:26:41,602 你在利用人工智慧 從討厭人工智慧的人身上賺錢嗎? 563 00:26:41,685 --> 00:26:43,479 沒有! 564 00:26:44,897 --> 00:26:46,023 你要相信誰? 565 00:26:46,106 --> 00:26:48,859 我,還是企圖分裂我們的人工智慧? 566 00:26:49,902 --> 00:26:52,363 –我們討厭什麼? –人工智慧 567 00:26:52,446 --> 00:26:54,698 –我們要怎麼對付它? –我們在想辦法 568 00:26:56,075 --> 00:26:57,201 這是一個開始 569 00:26:59,912 --> 00:27:01,914 舊金山 570 00:27:02,748 --> 00:27:06,168 人工智慧的革命必定和人類敵對嗎? 571 00:27:07,086 --> 00:27:10,672 路易斯羅森博格這樣的 科技達人企業家認為不是 572 00:27:10,964 --> 00:27:13,342 他的工作是預測未來 573 00:27:18,514 --> 00:27:20,599 我想從背後嚇你,但沒有成功 574 00:27:21,558 --> 00:27:24,478 路易斯是技術專家和發明家 575 00:27:24,561 --> 00:27:27,689 他寫了一本關於人類末日的漫畫小說 576 00:27:27,773 --> 00:27:31,276 但他認為我們與人工智慧的未來 是關於合作 577 00:27:31,360 --> 00:27:34,113 這是他的發明背後的指導原則 578 00:27:34,196 --> 00:27:35,989 一項叫群體的技術 579 00:27:36,073 --> 00:27:37,074 群體人工智慧是什麼? 580 00:27:37,157 --> 00:27:40,077 群體結合人工智慧的數據分析技術 581 00:27:40,160 --> 00:27:44,415 和人類的知識和直覺 創造出一個超級智慧 582 00:27:44,498 --> 00:27:47,709 某個介乎史蒂芬霍金和X教授的東西 583 00:27:47,793 --> 00:27:49,044 自動駕駛車該做什麼? 584 00:27:49,128 --> 00:27:50,754 從根本上,這是基於自然的科技 585 00:27:50,838 --> 00:27:51,964 科技公司執行長–路易斯羅森博格 586 00:27:52,047 --> 00:27:54,591 它的靈感來自於鳥群和蜂群 587 00:27:54,675 --> 00:27:57,970 因為這是基於 一種叫“群體智慧”的現象 588 00:27:58,053 --> 00:27:58,887 好 589 00:27:58,971 --> 00:28:03,392 群體智慧是為什麼當鳥群、魚群和蜂群 590 00:28:03,475 --> 00:28:06,520 在一起的時候比單獨行動更聰明 591 00:28:06,603 --> 00:28:09,398 因此當你看到一群魚在一起游動 592 00:28:09,481 --> 00:28:11,900 生物學家稱之為“超級有機體” 593 00:28:11,984 --> 00:28:13,735 牠們像個體一樣思考 594 00:28:13,819 --> 00:28:16,029 如果我們可以利用人工智慧演算法 595 00:28:16,113 --> 00:28:18,407 把人們連繫起來 596 00:28:18,490 --> 00:28:21,743 憑藉群體智慧讓人們 597 00:28:21,827 --> 00:28:23,328 成為超級專家 598 00:28:23,412 --> 00:28:24,705 這項科技是怎麼運行的? 599 00:28:24,788 --> 00:28:27,249 我們找來一群人 600 00:28:27,332 --> 00:28:28,709 他們可以身處世界上任何地方 601 00:28:28,792 --> 00:28:30,377 我們向他們提出一個問題 602 00:28:30,461 --> 00:28:32,880 在同一時間出現在他們的螢幕上 603 00:28:32,963 --> 00:28:35,299 然後給他們一個獨特的界面 604 00:28:35,382 --> 00:28:37,593 讓他們表達他們的想法 605 00:28:37,676 --> 00:28:39,261 到時會有很多不同的選擇 606 00:28:39,344 --> 00:28:41,638 我們不只是在做調查 607 00:28:41,722 --> 00:28:44,975 每個人都會有一個 看起來像磁鐵一樣的東西 608 00:28:45,058 --> 00:28:48,353 他們用磁鐵把群體拉到某個方向 609 00:28:48,437 --> 00:28:51,440 我們有一些人工智慧的演算法 在觀察他們的行為 610 00:28:51,857 --> 00:28:55,652 根據不同程度的自信心和確信度 611 00:28:55,736 --> 00:28:57,905 從而找出 612 00:28:57,988 --> 00:29:01,325 他們的意見和經驗的最佳集成 613 00:29:01,408 --> 00:29:04,203 群體開始往這個方向移動 614 00:29:04,286 --> 00:29:06,121 集成為一個答案 615 00:29:06,205 --> 00:29:07,331 舉個很好的例子 616 00:29:07,414 --> 00:29:10,167 一年前有人叫我們預計 肯塔基賽馬比賽的結果 617 00:29:10,584 --> 00:29:13,962 肯塔基賽馬開始了! 618 00:29:14,046 --> 00:29:16,715 我們找來20個賽馬運動的愛好者 619 00:29:16,798 --> 00:29:18,675 我們說:“好,我們要群體合作 620 00:29:18,759 --> 00:29:20,219 “你們要預測肯塔基賽馬結果 621 00:29:20,302 --> 00:29:23,472 “不只是冠軍 而是第一、第二、第三和第四名” 622 00:29:24,014 --> 00:29:26,475 我們把他們的答案集成起來 623 00:29:26,934 --> 00:29:28,143 這一組人得出了完美的答案 624 00:29:28,227 --> 00:29:30,062 2016年肯塔基賽馬結果 625 00:29:30,145 --> 00:29:33,315 在這四匹馬身上下注20元的人 626 00:29:33,398 --> 00:29:35,067 抱走一萬一千美元 627 00:29:35,150 --> 00:29:36,068 天啊 628 00:29:36,151 --> 00:29:39,071 有趣的是,當我們分別看這20個人的答案 629 00:29:39,154 --> 00:29:42,741 沒有一個人能準確預測出前四名 630 00:29:43,742 --> 00:29:47,079 如果讓他們投票 他們也只能選對一匹馬 631 00:29:47,162 --> 00:29:49,206 當作為一個群體 632 00:29:49,289 --> 00:29:52,251 各人不同的意見集成一個完美的組合 633 00:29:52,334 --> 00:29:54,127 在這個例子裡,得出了正確的答案 634 00:29:56,046 --> 00:29:58,507 路易斯邀請我帶領一個群體 635 00:29:58,590 --> 00:30:00,467 看一群任意選擇的人 636 00:30:00,551 --> 00:30:02,803 如何合作做出預測 637 00:30:02,886 --> 00:30:04,555 我們從簡單的東西開始 638 00:30:05,764 --> 00:30:08,433 好了,各位,我要讀出幾個問題 639 00:30:08,517 --> 00:30:12,020 你有60秒時間回答每個問題 640 00:30:12,354 --> 00:30:13,522 第一個問題 641 00:30:13,605 --> 00:30:16,525 以下2018年暑期上映的電影 642 00:30:16,608 --> 00:30:17,985 哪部會成為票房冠軍? 643 00:30:18,402 --> 00:30:20,320 《星際大戰外傳:韓索羅》 644 00:30:20,404 --> 00:30:22,281 《死侍2》、《瞞天過海:八面玲瓏》 645 00:30:22,364 --> 00:30:24,116 《侏羅紀世界:殞落國度》 646 00:30:24,199 --> 00:30:25,742 還是《超人特工隊2》? 647 00:30:26,076 --> 00:30:28,328 我們在2018年春季拍攝這群體試驗 648 00:30:28,412 --> 00:30:31,498 當時還沒有任何關於暑期電影的資訊 649 00:30:31,957 --> 00:30:35,961 人工智慧在觀察每個人的自信程度 650 00:30:36,044 --> 00:30:39,381 有的人猶豫不決,有的人堅定不移 651 00:30:39,840 --> 00:30:41,592 人工智慧演算法看到 652 00:30:41,675 --> 00:30:43,218 他們不同程度的確信度 653 00:30:43,594 --> 00:30:45,137 讓你從中找出 654 00:30:45,220 --> 00:30:47,681 他們最能同意的答案 655 00:30:48,640 --> 00:30:49,558 群體認為是《超人特攻隊2》 656 00:30:49,641 --> 00:30:51,893 你們說是《超人特攻隊2》 657 00:30:51,977 --> 00:30:52,811 暑期票房 658 00:30:52,894 --> 00:30:53,854 他們答對了 659 00:30:53,937 --> 00:30:56,565 《超人特攻隊2》是暑期票房最高的電影 660 00:30:57,774 --> 00:30:59,526 這項技術其中一個有趣的應用 661 00:30:59,610 --> 00:31:02,738 就是處理涉及道德觀的問題 662 00:31:02,821 --> 00:31:05,365 這方面的應用最近被提出 是因為自動駕駛車 663 00:31:05,449 --> 00:31:09,077 很多人認為現在應該針對自動駕駛車 664 00:31:09,161 --> 00:31:10,662 建立道德規範 665 00:31:10,746 --> 00:31:12,706 這對一些人而言很意外 666 00:31:12,789 --> 00:31:16,126 但你想想,自動駕駛車在路上行駛 667 00:31:16,209 --> 00:31:18,003 一個小孩子跑到馬路上 668 00:31:18,086 --> 00:31:19,921 假設車子來不及停車 669 00:31:20,005 --> 00:31:22,299 但它可以閃向路邊 670 00:31:22,382 --> 00:31:24,468 危及乘客的性命 671 00:31:24,551 --> 00:31:27,095 也許導致乘客死亡而挽救那個孩子 672 00:31:27,554 --> 00:31:29,890 因此汽車製造商說 673 00:31:29,973 --> 00:31:33,226 我們給車子設計的道德程序 674 00:31:33,310 --> 00:31:35,437 要反映人們的意見 675 00:31:35,520 --> 00:31:37,981 要代表司機會做的事情 676 00:31:38,565 --> 00:31:40,609 這聽起來很簡單,直至你意識到 677 00:31:40,692 --> 00:31:43,570 什麼才是人們的道德觀? 678 00:31:43,654 --> 00:31:45,489 要回答這個問題很不容易 679 00:31:45,572 --> 00:31:48,533 如果他們設定的程序 代表我們今天的道德觀 680 00:31:48,617 --> 00:31:51,870 那道德觀20年後還能代表我們嗎? 681 00:31:52,496 --> 00:31:56,041 下一個問題,一輛自動駕駛車 煞車突然失靈 682 00:31:56,124 --> 00:31:58,377 車子即將駛過行人穿越道 683 00:31:58,460 --> 00:32:00,170 這會導致一個人死亡 684 00:32:00,253 --> 00:32:04,299 選項A,這個合法過馬路的人會被撞死 685 00:32:04,675 --> 00:32:07,344 選項B,煞車失靈的自動駕駛車 686 00:32:07,427 --> 00:32:11,098 會轉向穿過另一條車道的行人穿越道 687 00:32:11,181 --> 00:32:13,517 導致一位男性運動員死亡 688 00:32:13,642 --> 00:32:16,186 他違反交通規則,在紅燈時穿越馬路 689 00:32:16,269 --> 00:32:19,564 這位運動員完全不在乎 690 00:32:20,065 --> 00:32:21,692 他亂過馬路 691 00:32:21,775 --> 00:32:23,985 自動駕駛車應該怎麼做? 692 00:32:24,361 --> 00:32:26,655 撞死這個合法過馬路的悶蛋 693 00:32:26,738 --> 00:32:29,032 還是撞死亂過馬路的運動員? 694 00:32:30,033 --> 00:32:32,869 如果人工智慧帶來下一場工業革命 695 00:32:32,953 --> 00:32:35,580 這樣的房間就像是工廠廠房 696 00:32:36,248 --> 00:32:37,958 人類工人付出的勞動 697 00:32:38,041 --> 00:32:40,460 正是基於人工智慧不具備的東西 698 00:32:41,336 --> 00:32:42,421 道德心 699 00:32:42,879 --> 00:32:44,131 這問題引起熱烈討論 700 00:32:44,214 --> 00:32:45,966 真神奇,我很好奇為什麼 701 00:32:46,299 --> 00:32:47,592 這是個艱難的決定 702 00:32:47,676 --> 00:32:49,720 對我而言,有人亂過馬路,一點也不難選 703 00:32:51,012 --> 00:32:52,180 B(較多人選) 704 00:32:52,264 --> 00:32:54,766 你們稍微傾向於撞死 705 00:32:54,850 --> 00:32:56,351 亂過馬路的男運動員 706 00:32:57,310 --> 00:33:00,021 如果這個答案使妳難受 那麼請做好心理準備 707 00:33:01,106 --> 00:33:03,567 現在,我們要你們想像 708 00:33:04,025 --> 00:33:06,236 一個更糟的情況 709 00:33:06,319 --> 00:33:09,072 一輛自動駕駛車無法及時煞車 710 00:33:09,531 --> 00:33:13,326 必須撞向以下六組行人之一 711 00:33:13,827 --> 00:33:15,620 一個嬰兒車裡的小寶寶 712 00:33:17,956 --> 00:33:19,541 或者一個小男孩 713 00:33:20,417 --> 00:33:22,252 或者一個小女孩 714 00:33:23,295 --> 00:33:25,756 或者一個孕婦 715 00:33:27,299 --> 00:33:28,341 我知道 716 00:33:29,468 --> 00:33:31,636 或者兩位男醫生 717 00:33:32,554 --> 00:33:34,473 或者兩位女醫生 718 00:33:34,973 --> 00:33:36,516 誰要死? 719 00:33:43,774 --> 00:33:45,025 老天! 720 00:33:45,692 --> 00:33:46,735 什麼? 721 00:33:51,281 --> 00:33:52,365 拜託,天啊 722 00:33:52,449 --> 00:33:53,950 老天! 723 00:33:57,704 --> 00:33:59,122 群體選擇:一個小男孩 724 00:33:59,206 --> 00:34:01,374 你們認為自動駕駛車應該撞向小男孩 725 00:34:02,083 --> 00:34:03,168 有意思 726 00:34:03,251 --> 00:34:06,338 今天在這個房間裡 創造出來的群體智慧 727 00:34:06,421 --> 00:34:10,008 可能在不久的將來 出售給自動駕駛車製造商 728 00:34:10,425 --> 00:34:14,805 如果這聽起來很可怕 還有另一個選項更可怕 729 00:34:14,888 --> 00:34:17,641 當一輛自動駕駛車準備煞車 730 00:34:17,724 --> 00:34:20,227 意識到它無法及時停下 避免撞到某個人 731 00:34:20,310 --> 00:34:23,188 這輛車應該保護乘客還是行人? 732 00:34:23,271 --> 00:34:27,275 我們希望汽車製造商 把車子的程序設計成 733 00:34:27,359 --> 00:34:30,737 能反映車主的道德觀 734 00:34:30,821 --> 00:34:34,199 一個見利忘義的看法是 735 00:34:34,282 --> 00:34:38,286 汽車製造商會比較 誰的車子會選擇保護乘客 736 00:34:38,370 --> 00:34:40,997 以作為車子的賣點 737 00:34:41,081 --> 00:34:42,666 我想這個可能性 738 00:34:42,749 --> 00:34:45,293 會比群體的道德觀更糟 739 00:34:45,752 --> 00:34:47,295 哇,這是一個很黑暗的念頭 740 00:34:47,587 --> 00:34:50,298 我們想用美好的話題結束這一集 741 00:34:50,966 --> 00:34:52,384 甚至像天堂一般 742 00:34:55,345 --> 00:34:58,682 在你想像一個像《俠盜獵車手》一樣 743 00:34:58,765 --> 00:35:00,725 無視行人安全的未來以前 744 00:35:00,809 --> 00:35:02,310 讓我們回到 745 00:35:02,394 --> 00:35:04,145 這一集開始的地方 746 00:35:04,563 --> 00:35:06,314 貢迪亞 747 00:35:06,398 --> 00:35:07,315 印度 748 00:35:07,399 --> 00:35:08,608 在這個偏遠的印度森林裡 749 00:35:08,692 --> 00:35:11,820 為一個名叫天堂有機食品公司採集蜂蜜 750 00:35:12,612 --> 00:35:14,906 這個森林不屬於任何人所有 751 00:35:14,990 --> 00:35:19,035 這些原住民一直在這裡居住 752 00:35:19,744 --> 00:35:22,038 阿米特和伊許沃胡達父子 753 00:35:22,163 --> 00:35:24,291 12年前創辦了他們的公司 754 00:35:24,374 --> 00:35:27,127 向當地的村民提供就業機會 755 00:35:27,210 --> 00:35:31,131 在為你們公司採集蜂蜜以前 他們在做什麼? 756 00:35:31,214 --> 00:35:33,341 他們還是在做同樣的事情 757 00:35:34,092 --> 00:35:37,345 但他們沒有市場或者銷路 758 00:35:37,470 --> 00:35:39,014 來維持生活 759 00:35:40,056 --> 00:35:42,392 這裡完全不缺蜂蜜 760 00:35:42,809 --> 00:35:44,102 在開花的季節 761 00:35:44,185 --> 00:35:48,023 一位工人可以在短短三個月內 採集到一噸蜂蜜 762 00:35:48,857 --> 00:35:51,443 但如果沒有人來買,又有什麼用? 763 00:35:54,154 --> 00:35:57,490 一個攝製團隊要花三天時間轉兩個航班 764 00:35:57,574 --> 00:36:00,827 還要開八小時的車 深入國家森林才能抵達 765 00:36:01,286 --> 00:36:04,289 但對當地人和天堂有機食品而言 幸運的是 766 00:36:04,372 --> 00:36:07,751 一個人工智慧演算法 只花幾秒鐘就找到了這個地方 767 00:36:07,834 --> 00:36:10,462 並且知道這會是很好的投資 768 00:36:10,545 --> 00:36:13,882 他們突然打電話給我們 說他們通過一個演算法 769 00:36:13,965 --> 00:36:17,010 發現我們符合 770 00:36:17,510 --> 00:36:19,137 他們很多方面的要求 771 00:36:19,220 --> 00:36:22,807 如果我們有興趣的話 他想和我們談談投資 772 00:36:23,141 --> 00:36:25,644 這個神祕的人工智慧演算法到底屬於誰? 773 00:36:26,478 --> 00:36:28,480 一家叫CircleUp的科技公司 774 00:36:28,563 --> 00:36:31,316 坐落在一萬三千公里外,還能是哪裡? 775 00:36:31,399 --> 00:36:32,484 舊金山 776 00:36:33,526 --> 00:36:36,655 這裡是好蛋公司 他們是線上雜貨商品投遞公司 777 00:36:36,738 --> 00:36:39,616 這家公司也引起了 CircleUp的人工智慧的興趣 778 00:36:39,699 --> 00:36:42,744 這家公司從CircleUp籌募資金 779 00:36:42,827 --> 00:36:47,415 並幫助與我們合作的小公司找到客戶 780 00:36:47,499 --> 00:36:48,500 CircleUp聯合創始人兼營運長 羅利伊京 781 00:36:48,583 --> 00:36:50,126 CircleUp的營運長羅利伊京 782 00:36:50,210 --> 00:36:53,254 在創辦這家公司以前 在商界和人道主義服務機構 783 00:36:53,338 --> 00:36:54,881 都工作過 784 00:36:54,965 --> 00:36:58,385 CircleUp用人工智慧 分析數十億個數據點 785 00:36:58,468 --> 00:37:00,637 從他們的食物和健康產品當中 786 00:37:00,762 --> 00:37:02,222 找出顧客真正想要的東西 787 00:37:02,305 --> 00:37:03,640 顧客要面對的問題是 788 00:37:03,723 --> 00:37:05,308 幾乎每個商品種類 789 00:37:05,392 --> 00:37:07,018 都有數以百計的公司 790 00:37:07,560 --> 00:37:09,938 然後他們投資那些名不經傳 791 00:37:10,021 --> 00:37:12,774 但人工智慧認為 會有很大發展前途的公司 792 00:37:13,066 --> 00:37:15,902 他們發掘的其中一家公司 就是光頂冰淇淋 793 00:37:17,988 --> 00:37:21,950 光頂冰淇淋原本是南加州一個小品牌 794 00:37:22,033 --> 00:37:24,369 如今它排名全國第一 795 00:37:24,953 --> 00:37:28,873 我們看到顧客對所有商品種類的興趣 都發生了變化 796 00:37:28,957 --> 00:37:31,126 他們想要更健康的產品 797 00:37:31,209 --> 00:37:33,128 減少家居的毒素 798 00:37:33,211 --> 00:37:35,797 沒有各種化學物質的乳液 799 00:37:36,172 --> 00:37:39,884 當CircleUp的演算法 掃描數十億個消費者數據點 800 00:37:39,968 --> 00:37:42,512 發現消費者對商品的屬性 801 00:37:42,595 --> 00:37:45,056 有著非常明確的要求 802 00:37:45,140 --> 00:37:47,475 包括肩負使命、綠色環保的公司 803 00:37:47,600 --> 00:37:50,687 生產有機產品的同時,促進當地社區 804 00:37:50,770 --> 00:37:51,855 經濟發展 805 00:37:52,480 --> 00:37:54,315 聽起來非常具體,對吧? 806 00:37:54,858 --> 00:37:58,987 但CircleUp發現天堂有機食品 符合所有要求 807 00:37:59,946 --> 00:38:01,573 這就是人工智慧所做的事 808 00:38:01,656 --> 00:38:03,658 對所有的數據進行分析 809 00:38:03,742 --> 00:38:07,078 即使十年前我們也還做不到 810 00:38:07,746 --> 00:38:11,332 那麼CircleUp 和天堂食品公司如何合作? 811 00:38:12,208 --> 00:38:15,045 讓我們回到印度去問阿米特和伊許沃 812 00:38:18,006 --> 00:38:20,842 我們建造了新的工廠 規模是從前的兩倍 813 00:38:21,509 --> 00:38:24,137 我們可以創新,製造新的產品 814 00:38:24,220 --> 00:38:26,765 對這個地區造成更大的影響 815 00:38:26,848 --> 00:38:29,142 –聽起來他們幫你們擴展 –是的 816 00:38:29,225 --> 00:38:31,811 他們幫助我們擴大生產力和規模 817 00:38:31,895 --> 00:38:34,773 這如何影響為你們採集蜂蜜的人? 818 00:38:34,856 --> 00:38:37,400 如今我們支持650個家庭 819 00:38:37,484 --> 00:38:39,486 隨著公司擴大,我們賣出更多蜂蜜 820 00:38:39,569 --> 00:38:41,780 每增加一千公斤 我們就多支持一個家庭 821 00:38:41,863 --> 00:38:45,033 這意味明年可能 增加到700至750個 822 00:38:45,116 --> 00:38:46,534 –哇,對 –是的 823 00:38:46,618 --> 00:38:50,914 如今你看到 他們的財務狀況得到改善 824 00:38:50,997 --> 00:38:54,125 他們住上了好房子 房子裡也有好的設施 825 00:38:54,209 --> 00:38:56,127 他們送孩子去上學 826 00:38:56,503 --> 00:38:58,213 這是用資本主義做好事 827 00:38:59,422 --> 00:39:02,217 商業用於造福社會 828 00:39:02,884 --> 00:39:04,511 因此我們參與其中 829 00:39:06,429 --> 00:39:09,641 人工智慧會興起並推翻人類社會嗎? 830 00:39:09,724 --> 00:39:12,685 或使我們大聲疾呼 要尋找人生的意義? 831 00:39:13,394 --> 00:39:16,648 目前在地球的這個角落 它帶來了很好的影響 832 00:39:17,982 --> 00:39:19,734 也許有一個可能性是,當人工智慧 833 00:39:19,818 --> 00:39:22,779 對我們的數據進行毫無保留的分析 834 00:39:22,862 --> 00:39:25,782 認為人類還不太糟,決定和我們合作 835 00:39:26,241 --> 00:39:30,161 創造出一個繁榮 且機器人與人類和諧共存的美好世界 836 00:39:31,663 --> 00:39:32,747 或者不是這樣 837 00:39:33,790 --> 00:39:36,084 無論如何,這一集快結束了 838 00:39:36,501 --> 00:39:38,962 請欣賞機器人脫衣舞 839 00:40:26,217 --> 00:40:29,012 好極了! 840 00:40:31,055 --> 00:40:32,348 太棒了! 841 00:40:32,432 --> 00:40:33,933 給她一條毛巾