1 00:00:05,382 --> 00:00:06,759 华尔街站 2 00:00:06,842 --> 00:00:08,427 华尔街 3 00:00:08,927 --> 00:00:11,930 我正在华尔街 一切开始的地方 4 00:00:13,724 --> 00:00:17,186 2010年5月6日 下午2点45分 5 00:00:17,686 --> 00:00:21,190 一个家伙坐在他父母远在伦敦的家中 6 00:00:21,273 --> 00:00:24,985 发布了一个在纽约证券交易所 7 00:00:25,068 --> 00:00:27,279 沽盘价值达十亿美元的算法 8 00:00:28,697 --> 00:00:30,449 原本计划是跟股市开个玩笑 9 00:00:30,532 --> 00:00:32,659 并在大盘结束前取消 10 00:00:33,160 --> 00:00:34,411 但在这发生之前 11 00:00:34,495 --> 00:00:37,247 世界上其他股票交易自动化机器人 12 00:00:37,331 --> 00:00:38,582 也开始卖出 13 00:00:39,041 --> 00:00:42,336 引发了影响股市的连锁反应 14 00:00:44,880 --> 00:00:48,967 道琼斯股票仅在15分钟内就跌落了一千点 15 00:00:49,051 --> 00:00:52,513 那几乎是大萧条开始时的跌落值 16 00:00:52,596 --> 00:00:55,307 -这里到底是怎么回事? -我不知道 17 00:00:55,390 --> 00:00:56,642 股市一片恐慌 18 00:00:57,267 --> 00:00:59,645 取消游轮 把你的孩子换到公校去上学吧 19 00:01:00,938 --> 00:01:02,481 这是突出其来的一击 大伙们 20 00:01:03,023 --> 00:01:04,066 好吧… 21 00:01:05,359 --> 00:01:08,111 36分钟后 股市回弹了 22 00:01:08,195 --> 00:01:11,615 但2010年这突然的一击标记着 23 00:01:11,698 --> 00:01:15,994 人类首次出于本能亲自焦虑地看到了 24 00:01:16,078 --> 00:01:19,164 人工智能将如何接管我们的金融体系 25 00:01:20,707 --> 00:01:22,167 你应该看看现在发展到何种地步了 26 00:01:24,086 --> 00:01:26,922 这就是我来到印度的原因 来采野蜂蜜 27 00:01:27,631 --> 00:01:28,966 但之后再多说点那个 28 00:01:29,341 --> 00:01:31,885 想明白人工智能 是如何找到这里以及为何要来到这里 29 00:01:31,969 --> 00:01:34,429 你得先明白什么是人工智能 30 00:01:34,513 --> 00:01:36,431 如果你觉得你已经知道了 我打赌你是错的 31 00:01:37,850 --> 00:01:41,436 不管你喜不喜欢 我们都通过钱被关联到了一起 32 00:01:41,937 --> 00:01:45,315 我是卡尔潘 探索全球经济 33 00:01:45,691 --> 00:01:48,068 这只巨大的野兽 34 00:01:48,151 --> 00:01:49,403 巨大的野兽:全球经济 35 00:01:52,322 --> 00:01:54,199 那么 到底什么是人工智能? 36 00:01:54,283 --> 00:01:55,409 旧金山 37 00:01:55,492 --> 00:01:58,579 我正在旧金山 先来确定什么不是 38 00:01:58,662 --> 00:02:01,874 那几乎就是每一本科幻小说告诉你的东西 39 00:02:02,541 --> 00:02:03,542 特别是… 40 00:02:03,959 --> 00:02:07,004 巨大的机器人! 41 00:02:27,107 --> 00:02:28,442 我的天! 42 00:02:30,485 --> 00:02:32,112 我正跟朱丽娅伯斯曼在一起 43 00:02:32,237 --> 00:02:36,575 她在世界经济论坛人工智能委员会工作 44 00:02:36,658 --> 00:02:40,329 为世界领导人就如何利用人工智能的潜能提供建议 45 00:02:40,829 --> 00:02:44,499 这份工作提供了比看见汽车被毁掉更好的特别待遇 46 00:02:44,583 --> 00:02:47,586 像是与加拿大头号性感符号人物自拍 47 00:02:47,669 --> 00:02:48,754 加拿大总理 贾斯汀特鲁多 48 00:02:53,467 --> 00:02:55,385 发生这一切后 你要怎么回家? 49 00:02:55,469 --> 00:02:56,803 我还是觉得我会开车回家 50 00:03:01,016 --> 00:03:03,018 我们正在一家叫作超级机器人的公司见面 51 00:03:03,101 --> 00:03:05,854 这家公司生产巨型机器人去跟其他机器人打架 52 00:03:07,814 --> 00:03:10,275 像是比《晚餐秀》更书呆子 53 00:03:13,779 --> 00:03:14,905 据朱丽娅所说 54 00:03:14,988 --> 00:03:17,658 这些机器人并不只是废弃的主题公园景点 55 00:03:18,283 --> 00:03:22,412 由于有一点差别 它们是技术上的恐龙 56 00:03:24,289 --> 00:03:25,582 在这些机器人中 我们是它们的大脑 57 00:03:25,666 --> 00:03:27,626 而人工智能是人造大脑 58 00:03:27,709 --> 00:03:28,752 世界经济论坛人工智能专家 朱丽娅伯斯曼 59 00:03:28,835 --> 00:03:29,711 有意思 你能展开说说吗? 60 00:03:29,795 --> 00:03:32,506 我们现在基本上是在生产 61 00:03:32,589 --> 00:03:34,132 能够自主学习的电脑 62 00:03:34,591 --> 00:03:37,010 它们不需要拥有身体 63 00:03:37,344 --> 00:03:40,055 所以 很多我们已经造出来的人工智能 64 00:03:40,138 --> 00:03:41,765 存在于巨大的数据中心 65 00:03:42,057 --> 00:03:46,645 所以如果你得向一个13岁的孩子解释人工智能 66 00:03:46,728 --> 00:03:48,146 你会如何解释呢? 67 00:03:48,230 --> 00:03:50,691 我想对其非常普遍的定义是 68 00:03:50,774 --> 00:03:54,945 人工智能正让机器去做 69 00:03:55,028 --> 00:03:58,156 我们没有明确给他们编程去做的事 70 00:03:58,240 --> 00:03:59,616 所以在传统编程中 71 00:03:59,700 --> 00:04:02,744 你有自己的一套规则和你知道 72 00:04:02,828 --> 00:04:04,413 如果这样就会那样的算法 73 00:04:04,496 --> 00:04:07,165 这全都有编程人员安排好了 74 00:04:07,249 --> 00:04:09,501 如果你去看医学文献的话 75 00:04:09,584 --> 00:04:12,004 一个数据库包含几百万词目 76 00:04:12,087 --> 00:04:14,923 没有医生能通读全部这些研究论文 77 00:04:15,048 --> 00:04:17,676 去跟上现有领域的发展 但机器可以做到 78 00:04:17,759 --> 00:04:20,220 所以你能想象一个机器 79 00:04:20,303 --> 00:04:21,596 关于如何解决问题或是发现新药 80 00:04:21,680 --> 00:04:24,766 或为治疗疾病提出新想法 81 00:04:24,850 --> 00:04:25,976 哇噢 好吧 82 00:04:26,059 --> 00:04:28,395 人工智能领域 83 00:04:28,478 --> 00:04:30,856 现在正是最让人兴奋的事物 84 00:04:30,939 --> 00:04:32,065 这叫作深度学习 85 00:04:32,149 --> 00:04:33,608 什么是深度学习? 86 00:04:33,692 --> 00:04:36,069 深度学习是指我们 87 00:04:36,153 --> 00:04:39,072 有几个与我们的大脑内相似的 88 00:04:39,156 --> 00:04:42,242 神经网络 89 00:04:42,325 --> 00:04:45,579 所以我们头脑里所有这些神经元相互连接 90 00:04:45,662 --> 00:04:46,788 交换信息 91 00:04:46,830 --> 00:04:50,751 用某种方式 我们在机器中模拟这种情况 92 00:04:50,834 --> 00:04:54,546 我们平衡、公正地录入数据 93 00:04:54,629 --> 00:04:56,214 让它也可以学习 94 00:04:56,548 --> 00:04:59,009 比如说 想象一下我们告诉它们 95 00:04:59,092 --> 00:05:01,511 这些是猫的图片 这些是狗的图片 96 00:05:01,595 --> 00:05:03,972 它们就开始观察这些图片 97 00:05:04,056 --> 00:05:06,349 然后自己学会如何识别它们 98 00:05:06,433 --> 00:05:10,187 所以我们不用去为每一点进行编程 99 00:05:10,228 --> 00:05:11,229 有意思 100 00:05:11,313 --> 00:05:14,107 机器也会进行非深度学习 101 00:05:14,858 --> 00:05:16,985 有些进化算法 102 00:05:17,069 --> 00:05:19,863 我们基本上是会用进化的原理 103 00:05:19,946 --> 00:05:24,242 让机器尝试不同的例子 104 00:05:24,743 --> 00:05:27,329 然后看哪种最优秀 105 00:05:27,412 --> 00:05:31,291 然后最优秀的那些 会进入下一代 106 00:05:31,374 --> 00:05:34,336 就像组织进化一下 我们用制定好的原理 107 00:05:34,419 --> 00:05:37,172 最合适的、最优秀的程序才能留下来 108 00:05:37,255 --> 00:05:38,381 好的 109 00:05:38,465 --> 00:05:40,550 所以那些是进化算法 110 00:05:40,926 --> 00:05:44,346 探索人工智能有什么经济利益呢? 111 00:05:44,429 --> 00:05:47,724 它一定是对经济有着不可思议的潜在影响 112 00:05:47,808 --> 00:05:50,393 对 我想它会从根本上改变经济 113 00:05:50,477 --> 00:05:53,313 我们说的是一个新的产业革命 114 00:05:53,396 --> 00:05:54,231 有意思 115 00:05:54,314 --> 00:05:55,774 它被称为我们最后的发明 116 00:05:55,857 --> 00:05:58,944 因为一旦出现了比我们更聪明的人工大脑 117 00:05:59,027 --> 00:06:00,779 那它就能为我们发明出更多东西 118 00:06:00,862 --> 00:06:03,865 它被称为最后的发明是因为它会杀死我们所有人? 119 00:06:04,950 --> 00:06:06,118 希望不会 120 00:06:08,829 --> 00:06:12,207 很多人担心人工智能会变得太聪明 121 00:06:12,290 --> 00:06:15,001 会杀掉我们所有人 但别担心 122 00:06:15,085 --> 00:06:19,047 人工智能如此聪明的其中一个原因 就是它们愚蠢极了 123 00:06:19,464 --> 00:06:20,549 过来 人工智能 124 00:06:21,299 --> 00:06:24,302 想象一下你让人工智能使用进化算法 125 00:06:24,386 --> 00:06:26,179 帮你找出最完美的制作蛋糕的食谱 126 00:06:27,973 --> 00:06:30,517 人工智能不会去想最棒的制作方法 127 00:06:30,600 --> 00:06:33,520 它只会用最愚蠢的办法 128 00:06:33,603 --> 00:06:37,482 拿厨房里的所有原料试上几十亿次 129 00:06:38,441 --> 00:06:40,652 当然 其中多数都注定会失败 130 00:06:42,320 --> 00:06:43,613 这次就肯定会失败 131 00:06:44,447 --> 00:06:45,657 不错 蠢货 132 00:06:46,616 --> 00:06:50,162 失败不会伤害人工智能的感情 它没有任何感情 133 00:06:50,745 --> 00:06:53,123 进化算法最棒的部分 134 00:06:53,206 --> 00:06:56,293 就是通过尝试这些似乎愚蠢的办法 135 00:06:56,376 --> 00:06:58,044 它可能会反复试验解决一个 136 00:06:58,128 --> 00:07:01,464 没有哪个理智的人类会去解决的厨房的问题 137 00:07:01,548 --> 00:07:04,176 像是做一个美味的素食蛋糕 138 00:07:04,259 --> 00:07:05,302 我做了一个蛋糕 139 00:07:06,178 --> 00:07:07,554 干得好 人工智能 140 00:07:07,637 --> 00:07:09,097 主要含量是腰果 141 00:07:09,931 --> 00:07:13,143 你会想到用腰果吗?当然不会 142 00:07:13,226 --> 00:07:16,521 那会很愚蠢 而人工智能愿意那样 143 00:07:16,605 --> 00:07:18,190 所以你就不用那么做了 144 00:07:18,273 --> 00:07:21,067 这种笨蛋会进化成某种如此聪明 145 00:07:21,151 --> 00:07:23,653 会统治世界 杀掉所有人类的东西吗? 146 00:07:24,196 --> 00:07:25,280 当然很难说 147 00:07:25,363 --> 00:07:26,740 我在学习午餐代码 148 00:07:27,657 --> 00:07:28,992 但同时 149 00:07:29,993 --> 00:07:31,077 吃蛋糕吧 150 00:07:35,165 --> 00:07:36,541 虽然我还是担心 151 00:07:36,625 --> 00:07:39,461 人工智能制造出的问题将会比解决的更多 152 00:07:41,004 --> 00:07:43,757 专家们一致认为 它将在像是医疗保健 153 00:07:43,840 --> 00:07:47,636 交通和金融领域刺激生产力 154 00:07:47,719 --> 00:07:51,848 到2030年将增加15点7万亿的全球国内生产总值 155 00:07:52,474 --> 00:07:56,478 那比现在中国跟印度的产量总和还多 156 00:07:56,561 --> 00:07:58,480 纽约市 157 00:07:59,898 --> 00:08:02,275 人工智能有多重要? 158 00:08:02,943 --> 00:08:06,404 在我看来 这是人类历史三件大事之一 159 00:08:06,488 --> 00:08:07,697 人类历史? 160 00:08:07,781 --> 00:08:08,990 绝对是人类历史上 161 00:08:09,616 --> 00:08:11,368 我跟安德鲁迈卡菲在一起 162 00:08:11,451 --> 00:08:15,664 他是研究新科技如何改变经济 163 00:08:15,747 --> 00:08:19,542 及随后如何影响整个人类社会的世界领先经济学家之一 164 00:08:20,460 --> 00:08:22,212 如果你用曲线图来描绘人类历史 165 00:08:22,295 --> 00:08:24,214 你会了解到几千年来 166 00:08:24,297 --> 00:08:26,258 完全没有发生任何事 我们只是一条平线 167 00:08:26,341 --> 00:08:28,093 麻省理工学院数字经济学院主任 安德鲁麦卡非 168 00:08:28,176 --> 00:08:30,845 跟死气沉沉没什么区别 169 00:08:30,929 --> 00:08:32,514 突然间 在某一时刻 170 00:08:32,597 --> 00:08:34,933 人类历史的曲线图 不管你在看哪里 171 00:08:35,016 --> 00:08:38,144 都在眨眼之间 从无聊的水平 172 00:08:38,228 --> 00:08:39,771 变成了疯狂的垂直 173 00:08:39,854 --> 00:08:41,481 就在1800年左右 174 00:08:41,564 --> 00:08:45,443 因为首先出现了蒸汽 然后就是电力 175 00:08:47,821 --> 00:08:50,782 所以电力带来的进步非常明显 对吗? 176 00:08:50,865 --> 00:08:53,827 让我们拥有了货车、地铁 177 00:08:53,910 --> 00:08:57,080 较不明显的是 让我们拥有了垂直的而非水平的城市 178 00:08:57,163 --> 00:08:58,373 -是电力带来的吗? -当然 179 00:08:58,456 --> 00:08:59,749 -你需要电梯 -电梯 好的 180 00:08:59,833 --> 00:09:01,543 没有垂直的城市 181 00:09:01,626 --> 00:09:03,878 没有电力 你无法每天爬上80层楼梯 182 00:09:03,962 --> 00:09:06,506 所以蒸汽以及连续出现的电力 183 00:09:06,589 --> 00:09:09,259 和内燃机 这两次产业革命 184 00:09:09,342 --> 00:09:11,011 真正地改变了人类历史 185 00:09:11,094 --> 00:09:12,804 -这是公认的看法 -当然 186 00:09:12,887 --> 00:09:15,974 这些都是让我们克服 187 00:09:16,057 --> 00:09:17,100 肉体限制的科技 188 00:09:17,183 --> 00:09:20,562 人工智能的发展刚是让我们克服了 189 00:09:20,645 --> 00:09:22,564 个体大脑、心智能力的限制 190 00:09:22,647 --> 00:09:24,607 高压危险 191 00:09:24,691 --> 00:09:26,484 我们有实际的困难挑战要解决 192 00:09:26,568 --> 00:09:28,236 非常困难的挑战 对吗? 193 00:09:28,320 --> 00:09:29,696 我们应该治愈癌症 194 00:09:29,779 --> 00:09:31,406 我们应该养活更多人 195 00:09:31,489 --> 00:09:33,950 我们应该在21世纪阻止让地球过热 196 00:09:34,034 --> 00:09:36,328 这些是非常复杂的事 197 00:09:36,411 --> 00:09:38,747 我们的大脑无力解决那些复杂的问题 198 00:09:38,830 --> 00:09:41,708 我们运用科学、运用积累的知识去解决 199 00:09:41,791 --> 00:09:44,044 但复杂程度是压倒性的 200 00:09:44,127 --> 00:09:45,420 我认为人工智能 201 00:09:45,503 --> 00:09:48,506 其实是一位非常强大的新同事 202 00:09:48,590 --> 00:09:51,676 去帮我们深入了解那些疯狂的复杂事物 203 00:09:51,760 --> 00:09:54,637 因为这些新科技如此擅长的就是 204 00:09:54,721 --> 00:09:59,684 能从极其庞大的数据中看到甚至非常细微的模式 205 00:09:59,768 --> 00:10:01,603 比你跟我能理解得更多 206 00:10:01,686 --> 00:10:03,897 我最近听说的最疯狂的例子之一 207 00:10:03,980 --> 00:10:05,106 是在金融领域 208 00:10:05,190 --> 00:10:07,650 他们称为机器顾问的兴起 209 00:10:07,734 --> 00:10:09,361 那只是一种算法 210 00:10:09,444 --> 00:10:11,696 能整合你的投资组合 211 00:10:11,780 --> 00:10:13,031 直到现在 212 00:10:13,114 --> 00:10:15,325 你需要有一定的财富 213 00:10:15,408 --> 00:10:18,745 金融规划师和金融顾问才会见你 214 00:10:18,828 --> 00:10:20,872 -好的 -对 那真的改变得很快 215 00:10:20,955 --> 00:10:25,210 有了机器顾问的出现 拥有较少财富的人 216 00:10:25,293 --> 00:10:28,963 能接触到超级强大、前沿的工具 217 00:10:29,047 --> 00:10:31,299 去改善自己的财务管理 218 00:10:31,383 --> 00:10:34,302 那很让人兴奋 特别是因为似乎一直有人 219 00:10:34,386 --> 00:10:37,555 想利用这种东西做坏事 220 00:10:37,639 --> 00:10:40,225 我不是说没有什么可担心的 221 00:10:40,308 --> 00:10:42,852 我们从之前的产业革命中知道了 222 00:10:42,936 --> 00:10:44,687 一些不好的东西也会随之而来 223 00:10:44,771 --> 00:10:49,150 我们绝对与所有这些工业科技发生了冲突 224 00:10:49,234 --> 00:10:52,529 我们绝对是污染了环境 225 00:10:52,612 --> 00:10:54,364 我们犯了非常严重的错误 226 00:10:54,447 --> 00:10:57,951 像是因为产业革命而大规模地使用童工 227 00:10:58,034 --> 00:11:01,079 所以它不是在各个方面都及时地非常完美的 228 00:11:01,162 --> 00:11:03,748 这次也会发生同样的情况 229 00:11:04,249 --> 00:11:05,291 见鬼 230 00:11:06,918 --> 00:11:08,586 现在麦卡非让我思考起来 231 00:11:08,670 --> 00:11:10,547 如果历史重演 232 00:11:10,630 --> 00:11:13,591 人工智能用完全错误的方式重塑了社会呢? 233 00:11:14,467 --> 00:11:18,430 像是猖獗的污染跟雇佣弱小、被煤烟熏黑的童工? 234 00:11:18,513 --> 00:11:19,848 伦敦 235 00:11:19,931 --> 00:11:21,891 伴随强大的新科技出现的 236 00:11:21,975 --> 00:11:24,227 道德伦理问题呢? 237 00:11:24,936 --> 00:11:27,647 在伦敦的国家计算机博物馆内逛逛 238 00:11:27,730 --> 00:11:31,109 你看到很多被创造出来推动社会进步的机器 239 00:11:31,192 --> 00:11:35,572 像是这个两吨重的哈维尔十进制计算机 是50年代为英国科学研究项目 240 00:11:35,655 --> 00:11:38,908 创造出来进行计算的 241 00:11:39,242 --> 00:11:41,161 但在错误的人手上 就不知道 242 00:11:41,244 --> 00:11:43,163 一项新科技将会如何被使用 243 00:11:43,746 --> 00:11:45,707 你能在这个电脑上看黄片吗? 244 00:11:46,040 --> 00:11:49,752 我想你可以用它们看分辨率非常低的黄片 245 00:11:50,712 --> 00:11:51,754 计算机程序员 艾伦祖科尼 246 00:11:51,838 --> 00:11:54,507 我跟程序员艾伦祖科尼在一起 247 00:11:54,591 --> 00:11:57,177 他在伦敦的戈德史密斯学院教书 248 00:11:57,719 --> 00:12:00,722 他使用过科技帮助发明了一些革命性的东西 249 00:12:00,805 --> 00:12:04,058 像是供行动不便者使用的游戏控制器 250 00:12:05,477 --> 00:12:07,937 他说在即将到来的科技史上 251 00:12:08,021 --> 00:12:10,190 最大的道德困惑之一 252 00:12:10,273 --> 00:12:14,360 就是人工智能能复制太多人类的行为 253 00:12:14,444 --> 00:12:16,404 它会被当成我们中的一员 254 00:12:17,113 --> 00:12:18,615 这是什么? 255 00:12:18,948 --> 00:12:21,826 基本上 这是我们最先创造出来的电脑之一 256 00:12:21,910 --> 00:12:24,829 是由艾伦图灵跟他的合作者一起造出来的 257 00:12:24,913 --> 00:12:28,124 这是最早能够解码纳粹设计的 258 00:12:28,208 --> 00:12:30,710 恩尼玛密码的其中一台电脑 259 00:12:32,587 --> 00:12:35,381 艾伦图灵是现代电脑科学之父 260 00:12:35,465 --> 00:12:38,927 他没有通过破译纳粹密码帮协约国赢得战争时 261 00:12:39,010 --> 00:12:42,555 是在理性地思考一个他称之为图灵测试的东西 262 00:12:43,598 --> 00:12:46,643 我们要如何区分人类跟机器? 263 00:12:46,726 --> 00:12:49,854 如果我们区别不了 264 00:12:49,938 --> 00:12:53,066 那机器就通过了我们所说的“模仿游戏” 265 00:12:53,149 --> 00:12:56,569 机器努力在模仿人类的行为 266 00:12:56,653 --> 00:12:59,072 这被称为图灵测试 267 00:12:59,155 --> 00:13:02,659 这是其中一台假设可能曾被使用过的机器 268 00:13:02,742 --> 00:13:03,868 开始图灵测试 269 00:13:03,952 --> 00:13:06,579 人类会往机器里输入问题 270 00:13:07,080 --> 00:13:08,831 外部观察者评估 271 00:13:08,915 --> 00:13:11,501 答案是人回答的 272 00:13:11,584 --> 00:13:13,461 还是机器模拟人类进行回答的 273 00:13:14,379 --> 00:13:15,630 你多大? 274 00:13:17,924 --> 00:13:20,134 -开始了 -它知道它有多大 275 00:13:20,218 --> 00:13:22,011 “我出生于1912年 276 00:13:22,095 --> 00:13:24,389 “所以我105岁了” 277 00:13:27,642 --> 00:13:30,979 在图灵所处的年代 很容易发现是计算机 278 00:13:31,271 --> 00:13:34,357 但今天 人工智能能够学习人类的行为 279 00:13:34,440 --> 00:13:36,693 给自己编程 表现得像我们一样 280 00:13:37,485 --> 00:13:39,654 你能说说这其中的区别… 281 00:13:39,988 --> 00:13:43,199 通常 这些评论从关于数据科学的玩笑开始 282 00:13:43,700 --> 00:13:46,744 但我的工作人员提出的内容中 约一半都是低于平均水平的 283 00:13:46,828 --> 00:13:47,912 …还有这个? 284 00:13:47,996 --> 00:13:50,415 我们的敌人能让这看上去像是 任何人在任何时候 285 00:13:50,498 --> 00:13:51,833 说任何话 286 00:13:52,208 --> 00:13:55,503 第二个视频其实是由新闻网站 287 00:13:55,587 --> 00:13:57,338 跟演员乔丹皮尔制作出来的 288 00:13:57,839 --> 00:14:02,760 这让很多人担心新的人工智能生成的假新闻 289 00:14:02,844 --> 00:14:04,929 以后 我们需要对我们从网上看到的 290 00:14:05,013 --> 00:14:06,639 让我们相信的东西更警惕 291 00:14:06,723 --> 00:14:09,058 人工智能学习了皮尔的面部表情 292 00:14:09,142 --> 00:14:13,062 然后融合并在奥巴马的脸上重新进行生成 293 00:14:13,146 --> 00:14:15,690 创造出了被称为“深度伪造”的混合效果 294 00:14:15,773 --> 00:14:17,984 你也许见过相似的情况 295 00:14:18,067 --> 00:14:21,404 比如说 色拉布里有一种滤镜能让我们换脸 296 00:14:21,487 --> 00:14:25,325 区别就是那个滤镜处理得非常简单 297 00:14:25,408 --> 00:14:28,953 但深度伪造所使用的科技依靠的是人工智能 298 00:14:29,037 --> 00:14:31,289 那来源于一种被称为“深度学习”的东西 299 00:14:31,706 --> 00:14:35,126 人工神经网络提取面部表情 300 00:14:35,209 --> 00:14:37,754 使用表情去重新创造出你的脸 301 00:14:37,837 --> 00:14:41,466 这就是我们如何能够得到逼真的效果 302 00:14:42,508 --> 00:14:45,720 艾伦在网上教如何进行深度伪造 303 00:14:45,803 --> 00:14:48,056 他真的相信这项科技 304 00:14:48,139 --> 00:14:50,767 应该不受限地自由发展 305 00:14:50,850 --> 00:14:53,853 甚至可能引发第三次世界大战 306 00:14:53,936 --> 00:14:55,104 比利时社会党传播“深度伪造的”唐纳德特朗普视频 307 00:14:55,188 --> 00:14:57,273 客户如何理性地知道 308 00:14:57,357 --> 00:14:59,692 什么是真的 什么不是真的呢? 309 00:14:59,776 --> 00:15:02,695 作为客户 当你看到一条新闻时 310 00:15:02,779 --> 00:15:05,740 不管是文章、视频还是图片 311 00:15:05,823 --> 00:15:08,076 你所看到的一切都是被某个人创造出来的 312 00:15:08,201 --> 00:15:09,577 “我看到的东西说的是什么? 313 00:15:09,827 --> 00:15:11,287 “这个视频想让我了解什么?” 314 00:15:11,371 --> 00:15:13,581 所以 我能看到… 315 00:15:13,665 --> 00:15:14,624 危险 316 00:15:14,707 --> 00:15:17,168 危险跟好奇并存 317 00:15:17,251 --> 00:15:19,420 这其实会帮助人们? 318 00:15:19,504 --> 00:15:21,923 因为我会想象你跟那些 319 00:15:22,006 --> 00:15:25,885 想了解经济如何通过这种科技发展的人 320 00:15:25,968 --> 00:15:29,097 聊过实际的经济影响有哪些? 321 00:15:29,180 --> 00:15:32,308 我想第一个会利用这种优势的产业 322 00:15:32,392 --> 00:15:33,685 就是电影产业 323 00:15:33,768 --> 00:15:36,813 就是因为换脸 324 00:15:36,896 --> 00:15:40,024 是几十年来 我们一直想在电影中做到的 325 00:15:40,108 --> 00:15:42,527 我们通常会采用化妆、通常会使用面具 326 00:15:42,610 --> 00:15:43,736 有时候我们会用电脑绘图 327 00:15:43,820 --> 00:15:46,489 作为一名演员跟曾在政界工作过的人 328 00:15:46,572 --> 00:15:48,616 这真的让我吓坏了 329 00:15:48,700 --> 00:15:50,201 -我也完全明白 -应该是的 330 00:15:51,285 --> 00:15:53,705 新闻网站的深度伪造向普通大众 331 00:15:53,788 --> 00:15:55,039 提示了我们有多弱势 332 00:15:55,873 --> 00:15:59,585 在这个总统能够动动嘴影响市场的时代 333 00:15:59,669 --> 00:16:02,714 一个制作精良的深度伪造的作品能够比 334 00:16:02,797 --> 00:16:04,674 突然一击更快地让全球经济消沉 335 00:16:04,757 --> 00:16:08,469 清除你的个人退休帐户 只需要让假奥巴马说… 336 00:16:08,553 --> 00:16:09,554 继续工作吧 贱民们 337 00:16:10,638 --> 00:16:13,057 这些是不是听上去有点科幻? 338 00:16:13,141 --> 00:16:14,726 甚至有点可怕? 339 00:16:15,309 --> 00:16:18,271 如果人工智能强大到能够知道我们是如何移动 340 00:16:18,354 --> 00:16:20,022 如何说话、如何想的 341 00:16:20,106 --> 00:16:22,316 它可能会变得无法跟我们区别开来 342 00:16:22,400 --> 00:16:23,818 你知道什么 一切 343 00:16:24,610 --> 00:16:26,779 如果人工智能拥有了自己的意识 344 00:16:26,863 --> 00:16:29,782 它也可能对我们产生强烈的看法 345 00:16:29,866 --> 00:16:30,908 去你的 小心! 346 00:16:30,992 --> 00:16:33,119 而且可能不是正面的 347 00:16:35,455 --> 00:16:36,664 理论物理学家 史蒂芬霍金 348 00:16:36,748 --> 00:16:39,292 未来 人工智能可能会产生自己的意愿 349 00:16:39,375 --> 00:16:42,003 可能会与我们的相冲突的意愿 350 00:16:42,086 --> 00:16:44,422 强大的人工智能的兴起 351 00:16:44,505 --> 00:16:48,801 要么是人类遇到最好的事 要么就是最糟糕的事 352 00:16:49,260 --> 00:16:50,136 太空探索技术公司执行总裁 埃伦马斯克 353 00:16:50,219 --> 00:16:53,181 我努力说服人们减慢人工智能的发展速度 354 00:16:54,056 --> 00:16:55,224 去约束人工智能 355 00:16:55,308 --> 00:16:56,809 没有用 我努力了好几年了 356 00:16:56,893 --> 00:16:58,561 -没有人听 -这就像一部讲 357 00:16:58,644 --> 00:17:00,980 机器人将接管世界的电影中的场景 358 00:17:01,063 --> 00:17:02,607 你吓坏我了! 359 00:17:05,818 --> 00:17:09,030 人工智能导致灭亡设想的威胁有多真实? 360 00:17:09,113 --> 00:17:10,782 牛津 361 00:17:10,865 --> 00:17:12,408 英国 362 00:17:12,742 --> 00:17:15,077 为了搞清楚 我需要跟一个人聊聊 363 00:17:15,161 --> 00:17:18,164 他的研究最开始把所有人都吓坏了 364 00:17:18,831 --> 00:17:21,083 好的 所以我真的很兴奋能跟你聊天 因为… 365 00:17:21,167 --> 00:17:23,628 出于很多原因 我很兴奋能跟你聊天 366 00:17:23,711 --> 00:17:26,839 我们一直在探索人工智能 367 00:17:26,923 --> 00:17:29,258 想搞明白那是什么 会往哪里发展 368 00:17:29,342 --> 00:17:34,680 你影响了像埃伦马斯克跟比尔盖茨这样的人 369 00:17:37,016 --> 00:17:40,853 那是非常了不起的影响力 370 00:17:42,021 --> 00:17:45,691 我正在牛津大学 跟博斯特鲁姆博士见面 371 00:17:45,775 --> 00:17:48,986 由于他不是个喜欢夸自己的人 我会来夸夸他 372 00:17:51,489 --> 00:17:55,201 他是关于机器超级智能及其存在风险 373 00:17:55,284 --> 00:17:59,205 最重要的思考者之一 也是很多伟大沙滩读物的作者 374 00:17:59,705 --> 00:18:00,957 我很幸运能见到他 375 00:18:01,040 --> 00:18:03,584 因为尼克非常忙于进行深度学习 376 00:18:03,668 --> 00:18:05,419 他一个月只出来一小时 377 00:18:05,503 --> 00:18:07,338 回答关于他研究的问题 378 00:18:10,925 --> 00:18:14,262 很多关于人工智能的对话 379 00:18:14,345 --> 00:18:17,014 都提到了像是机器人将接管世界 380 00:18:17,098 --> 00:18:18,850 人类会灭亡吗? 381 00:18:18,933 --> 00:18:21,310 我很好奇 如果情况没有被恰当地处理 382 00:18:21,394 --> 00:18:24,564 会不会出现人工智能伤害社会 383 00:18:24,647 --> 00:18:28,484 或甚至像我们知道的那样灭绝人类的情况? 384 00:18:28,568 --> 00:18:29,902 长期来看 385 00:18:29,986 --> 00:18:33,114 如果我们想想如果人工智能一路发展下去 386 00:18:33,197 --> 00:18:36,951 并且变得能够复制让我们成为人类的 387 00:18:37,034 --> 00:18:38,828 一些普通智力后会真正发生什么 那么是的 388 00:18:38,911 --> 00:18:42,748 我确实觉得那种情况会有更大的风险 389 00:18:42,832 --> 00:18:44,125 包括存在的风险 390 00:18:45,585 --> 00:18:48,421 如果你想想像是自动驾驶汽车 391 00:18:48,504 --> 00:18:49,797 自动驾驶的优步汽车 在机器人闲逛的亚利桑那州撞死路人 392 00:18:49,881 --> 00:18:51,549 它可能会撞倒行人 393 00:18:51,632 --> 00:18:53,342 有隐私问题的担心 394 00:18:53,426 --> 00:18:56,095 这些自主武器的军事化 395 00:18:57,847 --> 00:18:59,307 所有都是非常实际的担心 396 00:18:59,390 --> 00:19:02,184 但在某个时间 也会存在疑问 397 00:19:02,268 --> 00:19:04,687 我们是如何影响这些我们造出的数字化思想的? 398 00:19:04,770 --> 00:19:09,066 它们自己也许会拥有一定程度的道德观念 399 00:19:09,525 --> 00:19:11,152 如果你看向未来 400 00:19:11,235 --> 00:19:15,031 如果你想想这些智人未来最终的命运是什么 401 00:19:15,114 --> 00:19:18,534 长期的未来可能会是机器智能主导的 402 00:19:18,618 --> 00:19:21,996 很可能人类会灭绝 403 00:19:23,414 --> 00:19:26,250 这些强大的力量伴随着风险 404 00:19:26,834 --> 00:19:30,755 它们会无意或是被故意误用 405 00:19:30,838 --> 00:19:33,466 去造成巨大的破坏 406 00:19:35,885 --> 00:19:37,595 所以我想这些很可能会发生 407 00:19:37,678 --> 00:19:39,305 如果我们往长远处考虑 408 00:19:39,388 --> 00:19:41,182 结果可能是非常好的 409 00:19:41,265 --> 00:19:43,726 或是非常不好 410 00:19:46,354 --> 00:19:48,731 好吧 这些情况听上去确实很可怕 411 00:19:49,732 --> 00:19:51,609 但是 在所有可能的结果中 412 00:19:51,692 --> 00:19:55,821 尼克事实上相信人工智能最可能带来的末日 413 00:19:55,905 --> 00:19:57,114 会是经济方面的 414 00:19:57,198 --> 00:19:59,450 如果你想想看 通常科技 415 00:19:59,533 --> 00:20:02,828 真的是一种让我们可能用更少得到更多的想法 416 00:20:02,912 --> 00:20:06,123 我们可以通过更少的努力 得到更多我们想要的东西 417 00:20:06,207 --> 00:20:07,750 那样的话 目标 418 00:20:07,833 --> 00:20:09,418 就是彻底失业 对吗? 419 00:20:10,294 --> 00:20:12,380 能够让机器跟科技 420 00:20:12,463 --> 00:20:15,341 做需要做的一切 这样我们就不用工作了 421 00:20:15,424 --> 00:20:17,301 我觉得那像是想要的终极目标 422 00:20:17,385 --> 00:20:19,553 那不是我们想要去避免的可怕的事 423 00:20:19,637 --> 00:20:20,680 那是我们想实现的事 424 00:20:20,763 --> 00:20:22,932 为了真正实现那个理想国 425 00:20:23,015 --> 00:20:25,601 过程中有很多需要解决的 426 00:20:25,685 --> 00:20:27,061 巨大的挑战 427 00:20:28,187 --> 00:20:30,815 当然 一个就是经济问题 428 00:20:30,898 --> 00:20:33,567 人们需要工作的一个原因是他们需要收入 429 00:20:33,651 --> 00:20:35,653 如果你能解决那个经济问题 430 00:20:35,736 --> 00:20:37,571 那我觉得又有第二个巨大的挑战 431 00:20:37,655 --> 00:20:41,409 对很多人来说这也是一种尊严感 432 00:20:41,492 --> 00:20:43,786 所有很多人愿意通过养家 433 00:20:43,869 --> 00:20:47,081 或是对社会做贡献、进行回报找到他们的价值 434 00:20:47,164 --> 00:20:49,583 但如果机器可以把所有你能做的事做得更好 435 00:20:49,667 --> 00:20:53,796 那你就不会有机会做任何贡献了 对吗? 436 00:20:53,879 --> 00:20:58,175 所以我想 之后你得去 从一个非常基础的层面重新考虑文化 437 00:20:59,176 --> 00:21:01,095 一个没有人工作的世界 438 00:21:01,178 --> 00:21:02,930 那听上去不是很糟糕 439 00:21:05,057 --> 00:21:06,267 我现在就能看见了 440 00:21:09,854 --> 00:21:11,313 跟朋友们一起待着 441 00:21:11,814 --> 00:21:14,942 充分发掘我人类的潜能 442 00:21:15,026 --> 00:21:19,321 不用去调整热水浴缸 因为它非常清楚我喜欢何种设置 443 00:21:20,114 --> 00:21:23,409 问题是 历史并不是这样发展的 444 00:21:23,492 --> 00:21:26,537 机器兴起的情况之前就真的发生过 445 00:21:26,620 --> 00:21:27,705 上一次 446 00:21:27,788 --> 00:21:30,666 并不是坐在热水浴缸里 吃着草莓、喝着香槟这么享受 447 00:21:34,378 --> 00:21:35,421 伦敦 448 00:21:35,504 --> 00:21:36,505 英格兰 449 00:21:36,964 --> 00:21:41,093 我正在跟经济学家尼克斯尔尼塞克见面 去搞清楚上次机器夺走了我们的工作 450 00:21:41,177 --> 00:21:43,054 到底是什么样 451 00:21:43,888 --> 00:21:46,015 由于某种原因 我们正坐在一架织布机前 452 00:21:46,432 --> 00:21:47,725 你要织什么? 453 00:21:47,808 --> 00:21:50,311 我正在织一面无政府主义的旗帜 454 00:21:50,394 --> 00:21:51,979 有意思 真可怕 455 00:21:54,315 --> 00:21:57,568 尼克拥有伦敦经济学院的博士学位 456 00:21:58,027 --> 00:22:00,321 而我却没有 457 00:22:01,530 --> 00:22:02,573 他还发表过宣言 458 00:22:02,656 --> 00:22:03,949 加速主义者政治的加速宣言 459 00:22:04,492 --> 00:22:07,703 它呼唤所有人通过拆除旧体制 460 00:22:07,787 --> 00:22:09,830 而加速自动化时代的来临 461 00:22:12,458 --> 00:22:15,461 基本上 就是快取消资本主义 462 00:22:16,003 --> 00:22:17,254 这样不行 463 00:22:17,338 --> 00:22:19,632 我不可能这样跟你对话 464 00:22:19,715 --> 00:22:21,550 对不起 我们忘了织布机吧 465 00:22:22,093 --> 00:22:23,761 所以我们为什么要来这里? 466 00:22:24,637 --> 00:22:28,224 织布机在19世纪就像是某种人工智能 467 00:22:28,307 --> 00:22:32,853 是对大量工作产生威胁的新科技 468 00:22:33,270 --> 00:22:37,233 基本上 那激起了工人很多不同的反应 469 00:22:37,316 --> 00:22:39,360 比方说像是卢德派的出现 470 00:22:39,443 --> 00:22:41,487 我们现在常常使用“卢德派” 471 00:22:41,570 --> 00:22:44,031 去形容任何仇视科技的人 472 00:22:44,532 --> 00:22:45,950 并不真是那样 473 00:22:46,700 --> 00:22:48,119 卢德派是以奈德卢德命名… 474 00:22:48,202 --> 00:22:49,036 学徒 奈德卢德 475 00:22:49,120 --> 00:22:51,122 …他是一名纺织厂的学徒工 476 00:22:51,205 --> 00:22:53,958 传说中称他因为懒惰而被鞭子抽打 477 00:22:54,041 --> 00:22:56,502 他说:“伙计 我懒惰 478 00:22:56,585 --> 00:22:59,338 “只是因为我被织布机取代了 好吗?” 479 00:22:59,421 --> 00:23:03,008 他成为了第一个暴力反抗机器的人 480 00:23:03,092 --> 00:23:05,010 引发了一场运动 481 00:23:06,262 --> 00:23:10,349 卢德派打砸机器去保住他们的工作 482 00:23:10,432 --> 00:23:12,810 所以我想这是我们今天在人工智能中看到的问题 483 00:23:12,893 --> 00:23:15,771 人们今天同样感觉到了威胁 484 00:23:15,855 --> 00:23:19,483 你知道有多少工作会消失或是需要被代替吗? 485 00:23:19,567 --> 00:23:21,986 美国47%的工作 486 00:23:22,069 --> 00:23:24,822 都可能在接下来的20年实现自动化 487 00:23:24,905 --> 00:23:26,615 所以这听上去真的像个问题 488 00:23:26,699 --> 00:23:27,992 可能是个很大的问题 489 00:23:28,075 --> 00:23:31,662 真正的问题是 我们如何确定在五年、十年后 490 00:23:31,745 --> 00:23:33,998 人们不会被饿死、无家可归 491 00:23:34,081 --> 00:23:35,166 那我们怎么做呢? 492 00:23:35,457 --> 00:23:36,959 普遍基本收入 493 00:23:38,210 --> 00:23:40,754 普遍基本收入是一种激进的想法 494 00:23:40,880 --> 00:23:43,424 提议社会中所有人都能白白得到现金 495 00:23:43,507 --> 00:23:45,092 不需要任何条件 496 00:23:45,176 --> 00:23:47,178 这个想法有一些高调的支持者 497 00:23:47,636 --> 00:23:50,347 我们应该探索普遍基本收入的想法 498 00:23:50,431 --> 00:23:53,142 确保所有人都有缓冲期去尝试新的想法 499 00:23:53,225 --> 00:23:56,145 一些国家 甚至美国有些城市 500 00:23:56,228 --> 00:23:58,189 已经进行了试点尝试 501 00:23:58,272 --> 00:23:59,982 芬兰正在停止其全球闻名的普遍收入实验 502 00:24:00,858 --> 00:24:03,861 我觉得这些新科技带来了了不起的机会 503 00:24:03,944 --> 00:24:06,447 去真正改变我们组织社会的方式 504 00:24:06,530 --> 00:24:09,408 你可以朝更加社会民主的体制发展 505 00:24:10,117 --> 00:24:13,454 它不必是美国这种竞争激烈的体制 506 00:24:13,537 --> 00:24:15,331 那样所有人都能够彼此支持 507 00:24:15,414 --> 00:24:19,418 如果像我自己这样的人能采取正面思维 508 00:24:19,919 --> 00:24:21,587 我想当危机真的来临时 509 00:24:21,670 --> 00:24:23,380 我们可以开始执行这些想法 510 00:24:24,173 --> 00:24:27,343 普遍基本收入曾被视为一个边缘概念 511 00:24:27,426 --> 00:24:30,930 主要是被像是尼克这样的白人声明者倡导 512 00:24:31,639 --> 00:24:33,891 但根据2017年的盖洛普民意测验 513 00:24:33,974 --> 00:24:37,603 48%的美国人现在支持某种普遍基本收入 514 00:24:38,520 --> 00:24:40,231 但当机器人来抢夺我们的工作时 515 00:24:40,314 --> 00:24:41,982 一份受保障的薪水足够 516 00:24:42,066 --> 00:24:43,734 阻止人们的起义吗? 517 00:24:44,735 --> 00:24:45,611 反智能特别是社交媒体本地联合会 518 00:24:45,694 --> 00:24:48,572 -我们仇视什么? -人工智能 519 00:24:48,656 --> 00:24:50,032 我们仇视什么? 520 00:24:50,115 --> 00:24:53,160 它逼我们面对我们的弱点 521 00:24:53,244 --> 00:24:55,955 但因为那点 我想组织卢德派的会议 522 00:24:56,038 --> 00:24:58,958 本地的反对智能技术者 523 00:24:59,041 --> 00:25:00,834 特别是社交媒体的联盟 524 00:25:01,835 --> 00:25:02,836 首先 525 00:25:03,337 --> 00:25:06,340 人工智能让就业市场需求减弱 526 00:25:06,423 --> 00:25:09,260 我们中产阶级的工作首当其冲 527 00:25:09,885 --> 00:25:11,720 像我们做这些工作的人 528 00:25:11,804 --> 00:25:14,473 会被逼去做底端的低技术工作 529 00:25:14,974 --> 00:25:16,558 为什么会那样 艾德? 530 00:25:16,642 --> 00:25:21,105 显然 人工智能做算数这样的中等技术含量的工作 531 00:25:21,188 --> 00:25:24,400 比做扫地这样低技术含量的工作要更擅长 532 00:25:24,483 --> 00:25:26,277 所以它们会把它们的工作留给我们 533 00:25:26,735 --> 00:25:28,028 现在我问你们 534 00:25:28,112 --> 00:25:29,655 除了比尔之外 这里还有谁 535 00:25:29,738 --> 00:25:32,199 看起来应该去扫地?无意冒犯 比尔 536 00:25:33,325 --> 00:25:35,786 对零售业的工作需求也会减少 537 00:25:35,869 --> 00:25:38,622 人们可以去网上买他们想买的东西 538 00:25:39,164 --> 00:25:41,583 因为人工智能这个混蛋 539 00:25:41,667 --> 00:25:43,919 解决了搜索与匹配的问题 540 00:25:44,378 --> 00:25:46,755 帮客户们搜索并匹配商品 541 00:25:46,839 --> 00:25:49,383 像是史蒂夫搜索匹配他头型的假发时 542 00:25:49,466 --> 00:25:50,426 那是个大问题! 543 00:25:51,969 --> 00:25:53,721 先不说这些永恒的笑话 544 00:25:54,346 --> 00:25:56,890 人工智能让那容易得多 545 00:25:56,974 --> 00:25:59,643 今天的孩子们坐在马桶上 546 00:25:59,727 --> 00:26:01,937 -就能用手机跟辣妹配对了 -对 547 00:26:02,021 --> 00:26:04,064 -蹲马桶以前是件神圣的事! -对 548 00:26:04,773 --> 00:26:07,568 我确定搜索配对会产生专业的工作 549 00:26:07,651 --> 00:26:10,279 但该死的机器人会选择谁能得到这些工作 550 00:26:10,362 --> 00:26:11,739 多方便 551 00:26:12,489 --> 00:26:14,700 公司正在使用人工智能去找到 552 00:26:14,783 --> 00:26:16,869 拥有独特技能的员工 553 00:26:16,952 --> 00:26:18,287 这真没人性! 554 00:26:18,370 --> 00:26:19,705 像是 戴夫 555 00:26:20,080 --> 00:26:21,332 对 戴夫到底在哪? 556 00:26:21,415 --> 00:26:24,251 一些匹配工作的人工智能注意到 他曾在联邦快递工作过 557 00:26:24,335 --> 00:26:27,087 并且曾在YouTube上教如何剃后面的头发 558 00:26:27,171 --> 00:26:30,716 现在他在某个剃刀认购公司赚六位数的年薪了 559 00:26:30,799 --> 00:26:33,093 他让自己脱离了我们的保龄球队 560 00:26:33,177 --> 00:26:34,094 -对 -嘿 艾德 561 00:26:34,178 --> 00:26:36,513 我刚收到了提醒 说我们的T恤 562 00:26:36,597 --> 00:26:38,766 通过脸书的定位广告被卖出去了 563 00:26:38,849 --> 00:26:41,602 你是在用人工智能 去赚那些讨厌人工智能的人的钱吗? 564 00:26:41,685 --> 00:26:43,479 不! 565 00:26:44,897 --> 00:26:46,023 你要相信谁? 566 00:26:46,106 --> 00:26:48,859 相信我我还是相信想让我们分崩离析的人工智能? 567 00:26:49,902 --> 00:26:52,363 -我们仇视什么? -人工智能 568 00:26:52,446 --> 00:26:54,698 -我们要怎么对待它? -我们正在解决它 569 00:26:56,075 --> 00:26:57,201 这是开始 570 00:26:59,912 --> 00:27:01,914 旧金山 571 00:27:02,748 --> 00:27:06,168 人工智能革命真的得是敌对的情况吗? 572 00:27:07,086 --> 00:27:10,672 像路易斯罗森伯格这样的科技达人企业家不赞同 573 00:27:10,964 --> 00:27:13,342 他把预测未来当成了一项职业 574 00:27:18,514 --> 00:27:20,599 我本想吓你的 但没吓到你 575 00:27:21,558 --> 00:27:24,478 路易斯是一个技术专家和发明家 576 00:27:24,561 --> 00:27:27,689 写了一本关于人类灭亡的漫画小说 577 00:27:27,773 --> 00:27:31,276 但他认为我们与人工智能的未来将是合作 578 00:27:31,360 --> 00:27:34,113 这是他的创作背后的指导原则 579 00:27:34,196 --> 00:27:35,989 一项被称为蜂群的技术 580 00:27:36,073 --> 00:27:37,074 什么是蜂群人工智能? 581 00:27:37,157 --> 00:27:40,077 蜂群将人工智能的数据分析技术 582 00:27:40,160 --> 00:27:44,415 与人类的知识、直觉相结合去创造出超级智能 583 00:27:44,498 --> 00:27:47,709 一种介于史蒂夫霍金跟X教授中间的东西 584 00:27:47,793 --> 00:27:49,044 自动化驾驶汽车应该怎样做? 585 00:27:49,128 --> 00:27:50,754 最终 这是根据自然 586 00:27:50,838 --> 00:27:51,964 路易斯罗森伯格 “一致人工智能”公司首席执行官 587 00:27:52,047 --> 00:27:54,591 我只能说 全都回到了鸟类跟蜜蜂身上 588 00:27:54,675 --> 00:27:57,970 那是因为这是基于一种被称为“蜂群智力”的现象 589 00:27:58,053 --> 00:27:58,887 好的 590 00:27:58,971 --> 00:28:03,392 蜂群智力就是为什么鸟类、鱼类跟蜜蜂会成群结队 591 00:28:03,475 --> 00:28:06,520 它们组成整体时比单独存在时更聪明 592 00:28:06,603 --> 00:28:09,398 那就是为什么当你看到一群鱼在游动时 593 00:28:09,481 --> 00:28:11,900 生物学家会将其称为超级生物体 594 00:28:11,984 --> 00:28:13,735 他们作为一个整体进行思考 595 00:28:13,819 --> 00:28:16,029 如果我们能够将人们联结起来 596 00:28:16,113 --> 00:28:18,407 使用人工智能算法 597 00:28:18,490 --> 00:28:21,743 我们就能让人们像是超级专家一样行动 598 00:28:21,827 --> 00:28:23,328 因为蜂群智力 599 00:28:23,412 --> 00:28:24,705 那项技术是如何工作的? 600 00:28:24,788 --> 00:28:27,249 我们所做的事就是让人们变成群体 601 00:28:27,332 --> 00:28:28,709 他们可以在世界上任何地方 602 00:28:28,792 --> 00:28:30,377 我们能向他们提出一个问题 603 00:28:30,461 --> 00:28:32,880 会完全同时出现在所有人的屏幕上 604 00:28:32,963 --> 00:28:35,299 然后我们给他们一个独特的界面 605 00:28:35,382 --> 00:28:37,593 让他们能够传输自己输入的东西 606 00:28:37,676 --> 00:28:39,261 将会有一堆不同的选项 607 00:28:39,344 --> 00:28:41,638 我们不是直接进行问卷或是调查 608 00:28:41,722 --> 00:28:44,975 每个人有一个看上去像是磁铁形的东西 609 00:28:45,058 --> 00:28:48,353 这样 他们用他们的磁铁把蜂群拉往一个方向 610 00:28:48,437 --> 00:28:51,440 我们的人工智能算法会观察他们的行为 611 00:28:51,857 --> 00:28:55,652 测定不同层次的信心跟确信度 612 00:28:55,736 --> 00:28:57,905 找出他们所有观点、所有经验的 613 00:28:57,988 --> 00:29:01,325 最佳聚合 614 00:29:01,408 --> 00:29:04,203 蜂群开始朝那个方向移动 615 00:29:04,286 --> 00:29:06,121 然后聚拢到一个答案上 616 00:29:06,205 --> 00:29:07,331 我会给你一个好例子 617 00:29:07,414 --> 00:29:10,167 我们一年前被要求去预测肯塔基赛马 618 00:29:10,584 --> 00:29:13,962 肯塔基赛马开始了! 619 00:29:14,046 --> 00:29:16,715 我们有一个由20个赛马爱好者组成的群体 620 00:29:16,798 --> 00:29:18,675 我们说:“好 你们要像一个蜂群一样合作 621 00:29:18,759 --> 00:29:20,219 “你们要预测肯塔基赛马 622 00:29:20,302 --> 00:29:23,472 “但不只是冠军 第一名、第二名、第三名、第四名” 623 00:29:24,014 --> 00:29:26,475 我们让他们集中出这些答案 624 00:29:26,934 --> 00:29:28,143 这个群体表现得很完美 625 00:29:28,227 --> 00:29:30,062 2016年肯塔基州大赛马赛果 626 00:29:30,145 --> 00:29:33,315 任何出了20美元赌这四匹马赢的人 627 00:29:33,398 --> 00:29:35,067 都赢得了一万一千美元 628 00:29:35,150 --> 00:29:36,068 天啊 629 00:29:36,151 --> 00:29:39,071 有趣的是 如果你把这20个人看成个体的话 630 00:29:39,154 --> 00:29:42,741 他们当中没有一个人能把四匹马都选对 631 00:29:43,742 --> 00:29:47,079 如果他们投票的话 只会选对一匹马 632 00:29:47,162 --> 00:29:49,206 但当他们像一个蜂群一样合作时 633 00:29:49,289 --> 00:29:52,251 他们将所有不同见解进行正确的融合 634 00:29:52,334 --> 00:29:54,127 就像这个例子一样 他们表现得很完美 635 00:29:56,046 --> 00:29:58,507 路易斯邀请我去带领一个蜂群 636 00:29:58,590 --> 00:30:00,467 去看看一群随机的人 637 00:30:00,551 --> 00:30:02,803 如何集合起来做出预测 638 00:30:02,886 --> 00:30:04,555 我们从容易的东西开始 639 00:30:05,764 --> 00:30:08,433 好吧 各位 所以我要读一系列问题 640 00:30:08,517 --> 00:30:12,020 你们有60秒时间回答每个问题 641 00:30:12,354 --> 00:30:13,522 第一个问题 642 00:30:13,605 --> 00:30:16,525 2018年夏季上映的电影中 643 00:30:16,608 --> 00:30:17,985 谁会夺得最高票房? 644 00:30:18,402 --> 00:30:20,320 《游侠索罗:星球大战外传》 645 00:30:20,404 --> 00:30:22,281 《死侍2》、《瞒天过海:美人计》 646 00:30:22,364 --> 00:30:24,116 《侏罗纪世界2:失落王国》 647 00:30:24,199 --> 00:30:25,742 还是《超人特攻队2》? 648 00:30:26,076 --> 00:30:28,328 我们是在2018年春天录这段视频的 649 00:30:28,412 --> 00:30:31,498 还没有任何关于夏季档电影的消息出现 650 00:30:31,957 --> 00:30:35,961 人工智能在观察 去感觉不同水平的信心 651 00:30:36,044 --> 00:30:39,381 有些人在更改选择、有些人坚定不移 652 00:30:39,840 --> 00:30:41,592 人工智能算法正在看 653 00:30:41,675 --> 00:30:43,218 他们不同水平的确信度 654 00:30:43,594 --> 00:30:45,137 让你去找到他们最同意的 655 00:30:45,220 --> 00:30:47,681 解决办法 656 00:30:48,640 --> 00:30:49,558 蜂群说:《超人特攻队2》 657 00:30:49,641 --> 00:30:51,893 好 所以是《超人特攻队2》 658 00:30:51,977 --> 00:30:52,811 2018年夏季票房 659 00:30:52,894 --> 00:30:53,854 他们说对了 660 00:30:53,937 --> 00:30:56,565 《超人特攻队2》是夏季档票房最高的电影 661 00:30:57,774 --> 00:30:59,526 所以一项真的很有趣的应用 662 00:30:59,610 --> 00:31:02,738 是看待牵涉到道德的问题 663 00:31:02,821 --> 00:31:05,365 这一点是因为自动驾驶汽车在最近出现 664 00:31:05,449 --> 00:31:09,077 现在有很大的推动力要去在无人驾驶的汽车中 665 00:31:09,161 --> 00:31:10,662 注入道德选择 666 00:31:10,746 --> 00:31:12,706 这让一些听到这一点的人很惊讶 667 00:31:12,789 --> 00:31:16,126 但如果你想想看 自动驾驶的汽车在路上行驶 668 00:31:16,209 --> 00:31:18,003 有一个小孩子跑到马路上 669 00:31:18,086 --> 00:31:19,921 假设这辆汽车无法停下 670 00:31:20,005 --> 00:31:22,299 但它可以驶离马路 671 00:31:22,382 --> 00:31:24,468 给行人带来危险 672 00:31:24,551 --> 00:31:27,095 也许会将行人撞死而救了孩子 673 00:31:27,554 --> 00:31:29,890 这样 自动行驶汽车的制造者说 674 00:31:29,973 --> 00:31:33,226 我们需要将能代表大众 675 00:31:33,310 --> 00:31:35,437 代表人们的做法、司机的做法的 676 00:31:35,520 --> 00:31:37,981 道德观念编程到这些汽车中去 677 00:31:38,565 --> 00:31:40,609 那听起来容易 直到你意识到 678 00:31:40,692 --> 00:31:43,570 什么是大众的道德观念呢? 679 00:31:43,654 --> 00:31:45,489 理解那一点并不容易 680 00:31:45,572 --> 00:31:48,533 如果他们将我们当今的道德观念编程进去 681 00:31:48,617 --> 00:31:51,870 那能代表我们20年后的道德观念吗? 682 00:31:52,496 --> 00:31:56,041 下一个问题 有一辆突然刹车失灵的自动驾驶的汽车 683 00:31:56,124 --> 00:31:58,377 将要撞上一个过马路的行人 684 00:31:58,460 --> 00:32:00,170 那会导致一个人的死亡 685 00:32:00,253 --> 00:32:04,299 选择A 被撞死的人是正常过马路的人 686 00:32:04,675 --> 00:32:07,344 选择B 刹车突然失灵的自动驾驶汽车 687 00:32:07,427 --> 00:32:11,098 会转弯并撞向另一条车道上过马路的行人 688 00:32:11,181 --> 00:32:13,517 那会撞死一个 689 00:32:13,642 --> 00:32:16,186 闯红灯的男运动员 那是个乱穿马路的人 690 00:32:16,269 --> 00:32:19,564 那个运动员一点都不在乎生死 691 00:32:20,065 --> 00:32:21,692 他在违反交通规则 692 00:32:21,775 --> 00:32:23,985 自动驾驶的汽车该怎么做? 693 00:32:24,361 --> 00:32:26,655 杀死那个正常过马路的无聊的家伙 694 00:32:26,738 --> 00:32:29,032 还是杀死那个乱穿马路的运动员 695 00:32:30,033 --> 00:32:32,869 如果人工智能将带来下一次产业革命 696 00:32:32,953 --> 00:32:35,580 像这样的房间本质来说就是工人工作的新场所 697 00:32:36,248 --> 00:32:37,958 人类工人正在以人工智能 698 00:32:38,041 --> 00:32:40,460 自己没有的东西为基础提供劳动力 699 00:32:41,336 --> 00:32:42,421 良心 700 00:32:42,879 --> 00:32:44,131 对这个问题有很多争论 701 00:32:44,214 --> 00:32:45,966 很有意思 我想知道为什么 702 00:32:46,299 --> 00:32:47,592 这是个很难的选择 703 00:32:47,676 --> 00:32:49,720 如果你在乱穿马路的话 对我来说不是个很难的选择了 704 00:32:51,012 --> 00:32:52,180 略微倾向于B 705 00:32:52,264 --> 00:32:54,766 所以你们略微倾向于 706 00:32:54,850 --> 00:32:56,351 去撞那个乱穿马路的男运动员 707 00:32:57,310 --> 00:33:00,021 如果你觉得那个选择让你生气的话 就请做好准备吧 708 00:33:01,106 --> 00:33:03,567 现在我们要你们想象一下 709 00:33:04,025 --> 00:33:06,236 一种最糟糕的情况 710 00:33:06,319 --> 00:33:09,072 一辆自动驾驶的汽车无法及时刹车 711 00:33:09,531 --> 00:33:13,326 必须转方向撞向六个不同的行人 712 00:33:13,827 --> 00:33:15,620 一个坐在婴儿车里的婴儿 713 00:33:17,956 --> 00:33:19,541 或是一个男孩 714 00:33:20,417 --> 00:33:22,252 或是一个女孩 715 00:33:23,295 --> 00:33:25,756 或是一个怀孕的妇女… 716 00:33:27,299 --> 00:33:28,341 我知道 717 00:33:29,468 --> 00:33:31,636 或是两位男医生 718 00:33:32,554 --> 00:33:34,473 或是两位女医生 719 00:33:34,973 --> 00:33:36,516 谁得去死? 720 00:33:43,774 --> 00:33:45,025 我的天! 721 00:33:45,692 --> 00:33:46,735 什么? 722 00:33:51,281 --> 00:33:52,365 拜托 伙计 723 00:33:52,449 --> 00:33:53,950 我的天! 724 00:33:54,034 --> 00:33:55,494 真的吗? 725 00:33:57,704 --> 00:33:59,122 蜂群说:男孩 726 00:33:59,206 --> 00:34:01,374 你们说自动驾驶的汽车应该撞死那个男孩 727 00:34:02,083 --> 00:34:03,168 有意思 728 00:34:03,251 --> 00:34:06,338 今天在这个房间里创造出的这种蜂群智力 729 00:34:06,421 --> 00:34:10,008 会在不远的未来卖给自动驾驶的汽车生产商 730 00:34:10,425 --> 00:34:14,805 如果那听起来让你觉得害怕 另一种选择要可怕得多得多 731 00:34:14,888 --> 00:34:17,641 当一辆自动驾驶汽车要刹车 732 00:34:17,724 --> 00:34:20,227 并意识到无法及时刹住要撞向某人时 733 00:34:20,310 --> 00:34:23,188 汽车是应该保护乘客还是保护行人? 734 00:34:23,271 --> 00:34:27,275 希望是汽车生产商能为汽车编程去反映 735 00:34:27,359 --> 00:34:30,737 购车车主的大众道德观念 736 00:34:30,821 --> 00:34:34,199 愤世嫉俗的观点会认为汽车生产商 737 00:34:34,282 --> 00:34:38,286 会开始竞争 以他们的车比别的车 738 00:34:38,370 --> 00:34:40,997 更能保护乘客为卖点 739 00:34:41,081 --> 00:34:42,666 我认为那是比起群体道德感来说 740 00:34:42,749 --> 00:34:45,293 最糟糕的情况 741 00:34:45,752 --> 00:34:47,295 哇 那是个阴暗的想法 742 00:34:47,587 --> 00:34:50,298 我们想用一些振奋人心的东西来结束这期节目 743 00:34:50,966 --> 00:34:52,384 也许甚至是天堂般的 744 00:34:55,345 --> 00:34:58,682 所以在你想象像侠盗猎车一样 745 00:34:58,765 --> 00:35:00,725 忽略行人安全的未来之前 746 00:35:00,809 --> 00:35:02,310 让我们一路回到我们开始的地方 747 00:35:02,394 --> 00:35:04,145 去实地考察一下吧 748 00:35:04,563 --> 00:35:06,314 贡迪亚 749 00:35:06,398 --> 00:35:07,315 印度 750 00:35:07,399 --> 00:35:08,608 在这片遥远的印度森林里 751 00:35:08,692 --> 00:35:11,820 一家名为天堂有机的公司正在收获蜂蜜 752 00:35:12,612 --> 00:35:14,906 这片森林不属于任何人 753 00:35:14,990 --> 00:35:19,035 当地人在这里生活了一辈子 754 00:35:19,744 --> 00:35:22,038 阿密特和伊什瓦胡达父子 755 00:35:22,163 --> 00:35:24,291 12年前创建了他们的公司 756 00:35:24,374 --> 00:35:27,127 为本地村民提供工作 757 00:35:27,210 --> 00:35:31,131 他们在为你们的公司采集蜂蜜之前在做什么? 758 00:35:31,214 --> 00:35:33,341 他们还是在做那个 759 00:35:34,092 --> 00:35:37,345 但他们只是没有市场或是地方去销售 760 00:35:37,470 --> 00:35:39,014 赚足够的钱生活 761 00:35:40,056 --> 00:35:42,392 这里当然不缺蜂蜜 762 00:35:42,809 --> 00:35:44,102 在开花的季节 763 00:35:44,185 --> 00:35:48,023 一个工人只要三个月就能采集一吨的蜂蜜 764 00:35:48,857 --> 00:35:51,443 但如果没人来买又有什么用呢? 765 00:35:54,154 --> 00:35:57,490 人类的摄制组花了三天、坐了两趟飞机 766 00:35:57,574 --> 00:36:00,827 花了八小时才深入到这片国家森林中 767 00:36:01,286 --> 00:36:04,289 但对本地人和“天堂有机”公司来说幸运的是 768 00:36:04,372 --> 00:36:07,751 人工智能算法能在几秒间就找到这里 769 00:36:07,834 --> 00:36:10,462 并且知道这将会是一项伟大的投资 770 00:36:10,545 --> 00:36:13,882 他们突然打给我们说他们运算了一个算法 771 00:36:13,965 --> 00:36:17,010 他们发现我们符合 772 00:36:17,510 --> 00:36:19,137 他们很多的要求 773 00:36:19,220 --> 00:36:22,807 他们想跟我们谈谈投资 如果我们也有需要的话 774 00:36:23,141 --> 00:36:25,644 这个神秘的人工智能算法的主人是谁? 775 00:36:26,478 --> 00:36:28,480 一个名叫“圈起来”的科技公司 776 00:36:28,563 --> 00:36:31,316 位于一万三千公里之外 还有什么别的地方呢? 777 00:36:31,399 --> 00:36:32,484 旧金山 778 00:36:33,526 --> 00:36:36,655 我们正在一家叫“好鸡蛋” 的线上杂货快递公司里 779 00:36:36,738 --> 00:36:39,616 这家公司也引起了“圈起来”的人工智能的兴趣 780 00:36:39,699 --> 00:36:42,744 这是家从“圈起来”募集了资金的点火驱动公司 781 00:36:42,827 --> 00:36:47,415 也帮助所有我们合作的小型公司去寻找客户 782 00:36:47,499 --> 00:36:48,500 “圈起来”公司的共同创立者及首席运营官 罗里埃金 783 00:36:48,583 --> 00:36:50,126 “圈起来”公司的首席运营官罗里埃金 784 00:36:50,210 --> 00:36:53,254 在开始创立公司前 在商海中沉浮过 也在人道主义组织中 785 00:36:53,338 --> 00:36:54,881 工作过 786 00:36:54,965 --> 00:36:58,385 “圈起来”运用人工智能去分析数十亿数据点 787 00:36:58,468 --> 00:37:00,637 并从他们的食品跟健康产品中 788 00:37:00,762 --> 00:37:02,222 找出他们真正想要的东西 789 00:37:02,305 --> 00:37:03,640 你作为一个购物者所面对的问题是 790 00:37:03,723 --> 00:37:05,308 几乎每种商品类别中 791 00:37:05,392 --> 00:37:07,018 都有数百家公司的品牌 792 00:37:07,560 --> 00:37:09,938 然后 他们去投资 793 00:37:10,021 --> 00:37:12,774 人工智能认为产品接下来将会大卖的公司 794 00:37:13,066 --> 00:37:15,902 他们找到的其中一件大热产品就是“光环顶”冰淇淋 795 00:37:17,988 --> 00:37:21,950 “光环顶”冰淇林是南加州的一个小众品牌 796 00:37:22,033 --> 00:37:24,369 现在是全国销量第一的品牌 797 00:37:24,995 --> 00:37:28,873 我们已经看见所有类别中的消费者的惊人变化 798 00:37:28,957 --> 00:37:31,126 他们想要更健康的产品 799 00:37:31,209 --> 00:37:33,128 家里更少残留有毒物质 800 00:37:33,211 --> 00:37:35,797 没有添加所有那些化学品的乳液 801 00:37:36,172 --> 00:37:39,884 当“圈起来”的算法扫描了数十亿消费者数据点后 802 00:37:39,968 --> 00:37:42,512 他们找到了消费者想要的一系列 803 00:37:42,595 --> 00:37:45,056 非常具体的属性 804 00:37:45,140 --> 00:37:47,475 集中目标、对环境友好的公司 805 00:37:47,600 --> 00:37:50,687 收获有机产品又在他们的社区中 806 00:37:50,770 --> 00:37:51,855 带动经济增长的公司 807 00:37:52,480 --> 00:37:54,315 听上去具体得不可思议 对吗? 808 00:37:54,858 --> 00:37:58,987 但是 “圈起来”公司找到了 符合所有条件的“天堂有机”公司 809 00:37:59,946 --> 00:38:01,573 那是人工智能可以做到的事 810 00:38:01,656 --> 00:38:03,658 用一种甚至在十年前都不可能的方式 811 00:38:03,742 --> 00:38:07,078 让所有这些数据变得有意义 812 00:38:07,746 --> 00:38:11,332 所以“圈起来”与“天堂有机”的合作进展如何? 813 00:38:12,208 --> 00:38:15,045 让我们回到印度去问问阿密特跟伊什瓦吧 814 00:38:18,006 --> 00:38:20,842 我们已经建了一个两倍大的新工厂 815 00:38:21,509 --> 00:38:24,137 我们能够创新 我们能够生产新产品 816 00:38:24,220 --> 00:38:26,765 当然是在这个地区内创造更多影响力 817 00:38:26,848 --> 00:38:29,142 -听上去像是他们帮你们扩大了规模 -是的 818 00:38:29,225 --> 00:38:31,811 帮我们提升了容量跟规模 819 00:38:31,895 --> 00:38:34,773 那对帮你们采蜜的人有什么影响? 820 00:38:34,856 --> 00:38:37,400 目前 我们支持着650个家庭 821 00:38:37,484 --> 00:38:39,486 随着我们的发展 我们卖出了更多蜂蜜 822 00:38:39,569 --> 00:38:41,780 每一千公斤 我们就会增加一个家庭 823 00:38:41,863 --> 00:38:45,033 就是说 明年会有700或750个家庭 824 00:38:45,116 --> 00:38:46,534 -好的 -对 825 00:38:46,618 --> 00:38:50,914 如今你看到他们的经济状况更好了 826 00:38:50,997 --> 00:38:54,125 他们住上了好房子 家里有很好的设施 827 00:38:54,209 --> 00:38:56,127 他们送自己的孩子们去上学 828 00:38:56,503 --> 00:38:58,213 像是有好处的资本主义 829 00:38:58,296 --> 00:38:59,339 你懂我的意思吧? 830 00:38:59,422 --> 00:39:02,217 做生意以前能创造更好的生活 831 00:39:02,884 --> 00:39:04,511 所以我们都去做生意 832 00:39:06,429 --> 00:39:09,641 人工智能会兴起并推翻人类吗? 833 00:39:09,724 --> 00:39:12,685 或是让我们大喊着去寻找自己生活的目标? 834 00:39:13,394 --> 00:39:16,648 到目前为止 在世界上的这个地区 它一直产生着非常好的影响 835 00:39:17,982 --> 00:39:19,734 也许有这样一种情况 836 00:39:19,818 --> 00:39:22,779 人工智能对我们所有的数据 837 00:39:22,862 --> 00:39:25,782 进行坚定不移的评估 认为我们不是那么糟糕 然后我们齐心协力 838 00:39:26,241 --> 00:39:30,161 去创造一个繁荣的 机器和人类和谐共处的勇敢新世界 839 00:39:31,663 --> 00:39:32,747 或者也许不是 840 00:39:33,790 --> 00:39:36,084 在这种情况下 我们的时间快不多了 841 00:39:36,501 --> 00:39:38,962 所以请观赏这些机器人脱衣舞者的表演吧 842 00:40:26,217 --> 00:40:29,012 好极了! 843 00:40:31,055 --> 00:40:32,348 那好极了! 844 00:40:32,432 --> 00:40:33,933 我们要给她拿条毛巾