1 00:00:05,424 --> 00:00:06,675 “ウォール・ストリート駅” 2 00:00:06,800 --> 00:00:08,469 “48ウォール・ストリート” 3 00:00:08,844 --> 00:00:11,847 始まりはウォール街だった 4 00:00:11,972 --> 00:00:13,599 “ラックスペース・ ホスティング” 5 00:00:13,599 --> 00:00:14,433 “ラックスペース・ ホスティング” 2010年5月6日 午後2時45分 6 00:00:14,433 --> 00:00:17,478 2010年5月6日 午後2時45分 7 00:00:17,644 --> 00:00:21,106 ある男が ロンドンの実家から― 8 00:00:21,231 --> 00:00:27,321 アルゴリズム取引により 巨額の売り注文を出した 9 00:00:28,572 --> 00:00:32,910 相場操縦の直後に 注文を取り消す計画だ 10 00:00:33,035 --> 00:00:38,665 だが その前に 世界中で売り注文が出され― 11 00:00:38,791 --> 00:00:42,711 市場を壊滅させる 連鎖反応が起きた 12 00:00:44,713 --> 00:00:48,967 ダウ平均が 15分で1000ドル下落です 13 00:00:49,301 --> 00:00:52,471 “暗黒の木曜日”に 匹敵する下落だ 14 00:00:52,596 --> 00:00:54,348 どうなってる? 15 00:00:54,473 --> 00:00:56,600 市場は恐怖に揺れてる 16 00:00:57,226 --> 00:00:59,603 旅行は中止 子供は転校 17 00:01:00,771 --> 00:01:02,439 “フラッシュクラッシュ”だ 18 00:01:02,940 --> 00:01:04,191 最悪だ 19 00:01:05,025 --> 00:01:08,070 36分後に株価は回復した 20 00:01:08,195 --> 00:01:11,573 だがこの時 人類は初めて― 21 00:01:11,698 --> 00:01:15,953 尻の毛もよだつ ある恐怖にさらされた 22 00:01:16,078 --> 00:01:19,164 AIによる 金融システムの支配だ 人工知能 23 00:01:20,707 --> 00:01:22,125 AIとは? 24 00:01:23,919 --> 00:01:26,922 インドの養蜂場で探る 25 00:01:27,506 --> 00:01:29,007 詳細は後ほど 26 00:01:29,299 --> 00:01:31,718 AIがここを見つけた 27 00:01:31,844 --> 00:01:36,515 その過程を知るには 正しいAIの知識が必要だ 28 00:01:37,850 --> 00:01:41,395 我々は皆 お金と関わって生きている 29 00:01:41,937 --> 00:01:42,980 僕はカル・ペン カル・ペン 30 00:01:43,230 --> 00:01:45,357 “グローバル経済”という 名の― 31 00:01:45,399 --> 00:01:45,941 ジャイアント・ビースト ~グローバル経済の  謎を解き明かせ~ 32 00:01:45,941 --> 00:01:48,986 ジャイアント・ビースト ~グローバル経済の  謎を解き明かせ~ 巨大な怪物の存在を 解き明かす 33 00:01:48,986 --> 00:01:49,444 ジャイアント・ビースト ~グローバル経済の  謎を解き明かせ~ 34 00:01:52,155 --> 00:01:54,157 ずばりAIとは何か? 35 00:01:54,283 --> 00:01:54,908 サンフランシスコ 36 00:01:54,908 --> 00:01:55,951 サンフランシスコ AIではない物から 考えよう 37 00:01:55,951 --> 00:01:58,495 AIではない物から 考えよう 38 00:01:58,620 --> 00:02:02,165 SFに登場する物の 大半は違う 39 00:02:02,291 --> 00:02:03,542 中でも… 40 00:02:03,750 --> 00:02:07,379 とんでもなく でかいロボット! 41 00:02:26,940 --> 00:02:28,692 なんてこった 42 00:02:30,402 --> 00:02:34,197 ジュリア・ボスマンは 世界経済フォーラムで― 43 00:02:34,323 --> 00:02:40,329 世界の首脳にAI活用について アドバイスしている 44 00:02:40,787 --> 00:02:44,499 車の破壊の見学より ずっといい役得は 45 00:02:44,625 --> 00:02:44,917 自撮りする男 カナダの首相 ジャスティン・トルドー 46 00:02:44,917 --> 00:02:48,754 自撮りする男 カナダの首相 ジャスティン・トルドー カナダで一番の 色男との自撮りだろう 47 00:02:50,964 --> 00:02:52,841 これはすごい 48 00:02:53,175 --> 00:02:54,843 何で帰るの? 49 00:02:55,218 --> 00:02:56,553 この車だよ 50 00:03:00,807 --> 00:03:05,854 ここは巨大対戦ロボットを造る メガボッツ社 51 00:03:07,648 --> 00:03:10,776 まるでオタク向け 劇場型レストランだ 52 00:03:13,612 --> 00:03:17,699 このロボットは ただの乗り物というだけでなく 53 00:03:18,116 --> 00:03:22,829 ある重要な特徴により 技術的に時代遅れだという 54 00:03:23,956 --> 00:03:27,626 このロボットの脳は人間 AIは人工頭脳よ 55 00:03:27,751 --> 00:03:27,960 ジュリア・ボスマン 世界経済フォーラム AIの専門家 56 00:03:27,960 --> 00:03:29,753 ジュリア・ボスマン 世界経済フォーラム AIの専門家 それはつまり? 57 00:03:30,003 --> 00:03:34,341 AIとは独学可能な システムで 58 00:03:34,466 --> 00:03:37,010 体は必ずしも必要ない 59 00:03:37,135 --> 00:03:41,723 AIの多くは データセンターにいるわ 60 00:03:41,848 --> 00:03:47,604 13歳の子供でも分かるように AIを説明してくれ 61 00:03:48,105 --> 00:03:52,859 私が思うにAIの 大まかな定義は― 62 00:03:53,360 --> 00:03:57,823 プログラム以上の 仕事をさせること 63 00:03:58,365 --> 00:04:02,411 従来のプログラミングは アルゴリズムで― 64 00:04:02,536 --> 00:04:04,037 規則性を作る 65 00:04:04,204 --> 00:04:07,207 製作者が全て決めてるわ 66 00:04:07,332 --> 00:04:11,962 例えば数百万の 項目がある医学文献 67 00:04:12,087 --> 00:04:16,717 全てを常に把握するのは 医師でも無理よ 68 00:04:16,842 --> 00:04:18,844 でも機械ならできる 69 00:04:18,969 --> 00:04:24,474 新しい案や解決策の提案 新薬の発見だって可能よ 70 00:04:24,850 --> 00:04:25,600 なるほど 71 00:04:25,892 --> 00:04:30,480 現在 AIの分野で 最も注目されてるのは 72 00:04:30,605 --> 00:04:31,857 “ 深層学習 ディープラーニング ”よ 73 00:04:31,982 --> 00:04:33,608 深層学習とは? 74 00:04:33,900 --> 00:04:38,989 深層学習には 多層の神経回路が必要で 75 00:04:39,072 --> 00:04:42,034 人間の脳の構造に似てる 76 00:04:42,159 --> 00:04:46,788 脳内ではニューロンが 情報を共有してる 77 00:04:46,872 --> 00:04:50,751 その仕組みを 機械で再現してるの 78 00:04:50,834 --> 00:04:55,756 偏りのないデータを AIに学習させる 79 00:04:56,465 --> 00:05:01,303 例えば画像認識のために 猫と犬を覚えさせる 80 00:05:01,428 --> 00:05:06,308 AIは画像分析を始めて 両者の違いを学ぶ 81 00:05:06,433 --> 00:05:10,228 1つ1つ プログラムしなくてもね 82 00:05:10,729 --> 00:05:13,648 他に“機械学習”も あって― 83 00:05:14,524 --> 00:05:19,488 使うのは進化を模した 進化的アルゴリズムよ 84 00:05:19,654 --> 00:05:24,409 異なるインスタンスを 機械に試させることで 85 00:05:24,534 --> 00:05:26,953 どれが最適か分かる 86 00:05:27,079 --> 00:05:30,957 それが次世代モデルに つながるの 87 00:05:31,083 --> 00:05:36,505 生物の進化と同じように 最適なプログラムが残る 88 00:05:37,172 --> 00:05:38,173 すごいな 89 00:05:38,298 --> 00:05:40,592 それが進化的アルゴリズム? 90 00:05:40,801 --> 00:05:44,137 AIの研究を進めることで 91 00:05:44,262 --> 00:05:47,432 経済にどんな影響がある? 92 00:05:47,641 --> 00:05:50,477 経済は一変すると思うわ 93 00:05:50,602 --> 00:05:53,313 新たな産業革命でね 94 00:05:53,814 --> 00:05:57,025 AIが“最後の発明”と 言われるのは― 95 00:05:57,150 --> 00:06:00,779 人間の頭脳を 超えられるからよ 96 00:06:00,987 --> 00:06:04,074 人類を全滅させるから最後? 97 00:06:04,866 --> 00:06:06,159 違うといいけど 98 00:06:08,745 --> 00:06:13,542 進化したAIに 人類は絶滅させられるって? 99 00:06:13,708 --> 00:06:14,835 ご心配なく 100 00:06:14,960 --> 00:06:19,172 AIが賢いのは 超マヌケだからなの 101 00:06:19,297 --> 00:06:20,549 おいで AI 102 00:06:21,174 --> 00:06:26,221 進化的アルゴリズムで 完璧なケーキを作らせる 103 00:06:27,848 --> 00:06:31,977 AIは最適な方法は考えず ただ作る 104 00:06:32,144 --> 00:06:37,899 数十億通りのバカな方法で あらゆる食材を使ってね 105 00:06:38,441 --> 00:06:40,944 当然 失敗がほとんど 106 00:06:42,237 --> 00:06:43,613 今回もそう 107 00:06:44,281 --> 00:06:45,657 あきれた 108 00:06:46,491 --> 00:06:49,619 でも心がないから傷つかない 109 00:06:50,620 --> 00:06:56,168 このアルゴリズムがすごいのは まともな人間なら― 110 00:06:56,293 --> 00:07:01,423 考えもしないアイデアを 得る可能性があること 111 00:07:01,548 --> 00:07:03,758 高級な菜食ケーキとか 112 00:07:04,217 --> 00:07:05,343 完成です 113 00:07:06,136 --> 00:07:07,512 すごいわね 114 00:07:07,637 --> 00:07:09,472 ほぼカシューナッツ 115 00:07:09,890 --> 00:07:14,311 カシューナッツなんて発想 バカげてる 116 00:07:14,436 --> 00:07:18,148 バカなことは AIに任せればいい 117 00:07:18,273 --> 00:07:24,029 このマヌケが進化して 私たちを皆殺しにする? 118 00:07:24,154 --> 00:07:25,280 どうだか 119 00:07:25,405 --> 00:07:27,282 発射コードを学習中 120 00:07:27,574 --> 00:07:29,409 でも今のところは― 121 00:07:29,910 --> 00:07:31,161 ケーキをどうぞ 122 00:07:35,040 --> 00:07:39,794 まだAIは解決策より 問題を生む気がする 123 00:07:40,879 --> 00:07:47,594 だが専門家は医療や交通 金融などの生産性が増すと言う 124 00:07:47,719 --> 00:07:51,848 15.7兆ドルの 世界GDP増だ 2030年までに 15.7兆ドル 125 00:07:52,432 --> 00:07:56,436 中国とインドの合計より大きい 126 00:07:56,561 --> 00:07:58,480 ニューヨーク市 127 00:07:59,689 --> 00:08:02,651 AIはどれくらい重要? 128 00:08:02,776 --> 00:08:06,446 人類史における 3大事件の1つだ 129 00:08:06,571 --> 00:08:07,656 人類史上? 130 00:08:07,781 --> 00:08:08,448 そうさ 131 00:08:09,491 --> 00:08:15,622 アンドリュー・マカフィーに 新技術が経済だけでなく― 132 00:08:15,747 --> 00:08:19,542 社会全体をどう変えるかを聞く 133 00:08:20,252 --> 00:08:24,214 人類史をグラフで表すとしよう 134 00:08:24,506 --> 00:08:25,674 数千年間は平坦な直線だ 135 00:08:25,674 --> 00:08:27,592 数千年間は平坦な直線だ アンドリュー・マカフィー 136 00:08:27,717 --> 00:08:30,679 心電図の 心停止みたいにね MITデジタル経済 研究機構 共同ディレクター 137 00:08:30,804 --> 00:08:34,766 それが突然 ある時点で変化するんだ 138 00:08:34,891 --> 00:08:39,562 退屈な水平の線が 一瞬で垂直に跳ね上がる 139 00:08:39,688 --> 00:08:41,314 1800年頃だ 140 00:08:41,439 --> 00:08:45,443 第1の要因は蒸気動力 第2が電気だ 141 00:08:47,737 --> 00:08:50,657 電気の恩恵は明らかだね 142 00:08:50,782 --> 00:08:53,702 例えば路面電車や地下鉄 143 00:08:53,827 --> 00:08:56,830 それに立体都市の発展もだ 144 00:08:56,955 --> 00:08:57,789 電気で? 145 00:08:57,914 --> 00:08:59,666 エレベーターさ 146 00:08:59,791 --> 00:09:03,378 毎日 80階まで歩いて上れない 147 00:09:03,878 --> 00:09:09,259 蒸気動力に続き 電気や 内燃機関といった革命で 148 00:09:09,384 --> 00:09:12,637 人類史は間違いなく変わった 149 00:09:12,762 --> 00:09:17,142 これらの技術で 人間は筋力の限界を超えた 150 00:09:17,350 --> 00:09:22,522 AIで人間が克服できるのは 脳の限界だ 151 00:09:22,647 --> 00:09:24,232 “危険! 高電圧 立ち入り禁止” 152 00:09:24,232 --> 00:09:24,649 “危険! 高電圧 立ち入り禁止” 今 僕たちは困難な課題に 直面してる 153 00:09:24,649 --> 00:09:28,153 今 僕たちは困難な課題に 直面してる 154 00:09:28,278 --> 00:09:33,408 がん治療に食糧問題 地球温暖化への対策もある 155 00:09:33,867 --> 00:09:38,496 問題は頭がパンクしそうなほど 複雑で― 156 00:09:38,621 --> 00:09:43,460 科学や知識で対抗するが 圧倒されるばかりだ 157 00:09:43,960 --> 00:09:48,381 僕はAIが強い味方になると 考えてる 158 00:09:48,506 --> 00:09:51,593 複雑さを緩和するためのね 159 00:09:51,718 --> 00:09:55,055 なぜなら AIは人間より― 160 00:09:55,180 --> 00:10:01,019 はるかに膨大な量のデータを 正確に分析できるからだ 161 00:10:01,478 --> 00:10:07,567 最近の例では金融界に登場した “ロボアドバイザー”だ 162 00:10:07,692 --> 00:10:11,780 資産管理のアルゴリズムを 組み込んでいる 163 00:10:11,905 --> 00:10:15,158 今までは 一定の資産がないと― 164 00:10:15,283 --> 00:10:18,995 資産運用の専門家に 門前払いされた 165 00:10:19,120 --> 00:10:20,747 これからは違う 166 00:10:20,872 --> 00:10:25,377 この技術があれば 裕福ではない人でも 167 00:10:25,502 --> 00:10:31,007 超最先端の手段を用いて 資産を増やせるんだ 168 00:10:31,216 --> 00:10:32,217 それはいい 169 00:10:32,342 --> 00:10:37,472 最先端の技術は 悪用されるほうが多いからね 170 00:10:37,597 --> 00:10:39,474 それは一理ある 171 00:10:40,100 --> 00:10:44,687 以前の産業革命にも 悪い側面があった 172 00:10:44,813 --> 00:10:49,192 工業技術の応用で 戦争が機械化されたんだ 173 00:10:49,317 --> 00:10:52,487 著しい環境汚染も招いた 174 00:10:52,612 --> 00:10:57,659 大規模な児童労働は 産業革命の負の遺産だ 175 00:10:57,909 --> 00:11:00,912 だから 決して 完璧じゃなかった 176 00:11:01,037 --> 00:11:03,873 今回も同じことが起きる 177 00:11:04,374 --> 00:11:05,333 まいったね 178 00:11:06,751 --> 00:11:08,461 僕は考えた 179 00:11:08,586 --> 00:11:13,591 もし歴史が繰り返され AIが悪影響を及ぼしたら? 180 00:11:14,384 --> 00:11:18,388 大気汚染や 児童労働が復活する? 181 00:11:18,513 --> 00:11:19,764 ロンドン 182 00:11:19,764 --> 00:11:20,890 ロンドン 強力な新技術をめぐる 倫理的な問題はどうか? 183 00:11:20,890 --> 00:11:24,644 強力な新技術をめぐる 倫理的な問題はどうか? 184 00:11:24,769 --> 00:11:30,650 国立コンピューター博物館には 様々な機械が展示されている 185 00:11:30,984 --> 00:11:33,403 例えば ハーウェル・デカトロンは 186 00:11:33,528 --> 00:11:38,950 1950年代の英国で 数値計算に用いられた 187 00:11:39,242 --> 00:11:43,413 だが新技術は 悪用することもできる 188 00:11:43,580 --> 00:11:45,748 ポルノも見られる? 189 00:11:45,874 --> 00:11:49,794 ものすごく粗い画質でよければ 190 00:11:50,753 --> 00:11:51,796 アラン・ズッコーニ コンピューター・ プログラマー 191 00:11:51,796 --> 00:11:54,507 アラン・ズッコーニ コンピューター・ プログラマー プログラマーの アランは― 192 00:11:54,632 --> 00:11:57,218 ゴールドスミス・カレッジの 教員だ 193 00:11:57,677 --> 00:12:04,350 科学技術で運動障がい者対応の コントローラーなどを作った 194 00:12:05,226 --> 00:12:10,064 大きな倫理問題が 迫っていると彼は言う 195 00:12:10,273 --> 00:12:13,735 人間の模倣ができる AIなら― 196 00:12:14,402 --> 00:12:16,738 なりすましも可能だ 197 00:12:17,071 --> 00:12:18,656 これは何? 198 00:12:18,781 --> 00:12:21,493 コンピューターの 先駆けで― 199 00:12:21,618 --> 00:12:24,204 アラン・チューリングが 作った 200 00:12:24,746 --> 00:12:30,710 ナチスの暗号エニグマを 解読するための機械だ 201 00:12:32,462 --> 00:12:38,801 “コンピューターの父”は 暗号解読の合間を縫って― 202 00:12:38,927 --> 00:12:42,764 “チューリングテスト”を 考案した 203 00:12:43,640 --> 00:12:46,559 人間と機械をどう区別する? 204 00:12:46,684 --> 00:12:49,646 機械だと見破られなければ 205 00:12:49,771 --> 00:12:53,191 “イミテーション・ ゲーム”に合格だ 206 00:12:53,316 --> 00:12:56,277 人間を模倣するテストさ 207 00:12:56,402 --> 00:12:59,030 いわゆる チューリングテストで 208 00:12:59,155 --> 00:13:02,116 こんな機械が使われた 209 00:13:02,575 --> 00:13:05,995 テストでは人間が質問を入力 210 00:13:06,955 --> 00:13:13,753 外部の観察者が回答を見て 人間と機械のどちらかを当てる 211 00:13:14,254 --> 00:13:15,463 年齢は? 212 00:13:17,882 --> 00:13:18,716 答えた 213 00:13:18,841 --> 00:13:21,427 “1912年生まれ”だって 214 00:13:21,719 --> 00:13:24,681 “だから 私は105歳です” 215 00:13:27,517 --> 00:13:30,311 当時は機械だとすぐ分かった 216 00:13:31,187 --> 00:13:36,859 だが現在のAIは人間の行動を 分析し模倣できる 217 00:13:37,485 --> 00:13:39,737 これは本物かな? 218 00:13:39,862 --> 00:13:46,536 普段ならジョークで始めますが スタッフの案がひどかった 219 00:13:46,661 --> 00:13:47,370 これは? 220 00:13:47,495 --> 00:13:51,916 我々の敵は 誰のフリでもできるのです 221 00:13:52,083 --> 00:13:57,589 2つ目はニュースサイトが 俳優を使い 作った偽物だ 222 00:13:57,714 --> 00:14:02,594 新たなフェイクニュースの 手口が懸念された 223 00:14:02,719 --> 00:14:06,472 さらに慎重になる必要が あります 224 00:14:06,598 --> 00:14:12,770 AIが俳優の表情を分析し オバマの顔で再現したのが 225 00:14:12,895 --> 00:14:15,690 “ディープフェイク”だ 226 00:14:15,815 --> 00:14:21,195 顔を交換できるアプリを 見たことがあるかな 227 00:14:21,321 --> 00:14:24,782 あの加工の仕組みは 単純だけど 228 00:14:25,408 --> 00:14:28,578 ディープフェイクは AIを使ってる 229 00:14:28,911 --> 00:14:31,164 深層学習という技術だ 230 00:14:31,623 --> 00:14:34,667 AIが人の表情を抜き出して 231 00:14:35,293 --> 00:14:37,503 君の顔に作り変える 232 00:14:37,879 --> 00:14:41,424 それで超リアルなものが できるんだ 233 00:14:41,549 --> 00:14:42,342 “顔A 顔B” 234 00:14:42,342 --> 00:14:42,592 “顔A 顔B” 彼は仕組みを ネットで公開している 235 00:14:42,592 --> 00:14:42,717 彼は仕組みを ネットで公開している 236 00:14:42,717 --> 00:14:44,260 彼は仕組みを ネットで公開している “再構築した顔” 237 00:14:44,260 --> 00:14:45,720 彼は仕組みを ネットで公開している 238 00:14:45,845 --> 00:14:50,725 科学技術の自由な発展を 望んでいるからだ 239 00:14:50,850 --> 00:14:52,268 “ディープフェイクは 危険だ” 戦争を起こす可能性が あってもだ 240 00:14:52,268 --> 00:14:52,393 戦争を起こす可能性が あってもだ 241 00:14:52,393 --> 00:14:53,811 戦争を起こす可能性が あってもだ “国家の安全への脅威” 242 00:14:53,936 --> 00:14:54,812 “米大統領の偽映像が ベルギーで流れる” 243 00:14:54,812 --> 00:14:57,065 “米大統領の偽映像が ベルギーで流れる” 我々はどうやって 本物かどうか見分ける? 244 00:14:57,065 --> 00:14:59,609 我々はどうやって 本物かどうか見分ける? 245 00:14:59,734 --> 00:15:00,818 例えばニュースは 246 00:15:00,943 --> 00:15:05,490 記事でも 映像でも 写真でも― 247 00:15:05,615 --> 00:15:07,825 誰かが作ったものだ 248 00:15:07,950 --> 00:15:11,120 作り手の意図が介入されうる 249 00:15:11,454 --> 00:15:13,706 それってつまり… 250 00:15:13,873 --> 00:15:14,540 危険だ 251 00:15:14,666 --> 00:15:17,085 危険だが好奇心も湧く 252 00:15:17,210 --> 00:15:18,795 人々に役立つことも? 253 00:15:19,337 --> 00:15:23,049 こうした技術を 経済へ応用したら― 254 00:15:23,174 --> 00:15:28,971 具体的にどんな影響が出ると 考えられてる? 255 00:15:29,097 --> 00:15:33,726 まず映画業界で 活用されるだろう 256 00:15:33,851 --> 00:15:36,688 顔を変えるという試みは 257 00:15:36,813 --> 00:15:39,899 映画界で何十年も 行われてきた 258 00:15:40,024 --> 00:15:43,736 メイクやマスク またはCGIを使ってね 259 00:15:43,945 --> 00:15:48,616 俳優だけじゃなく 政治家も利用したらヤバい 260 00:15:48,950 --> 00:15:50,201 可能性大だ 261 00:15:51,119 --> 00:15:55,039 僕たちがいかに弱い存在か はっきりした 262 00:15:55,707 --> 00:15:59,210 大統領の発言で市場が動くなら 263 00:15:59,502 --> 00:16:04,632 ディープフェイクにより 世界経済は大打撃を受けるかも 264 00:16:04,757 --> 00:16:08,136 個人退職口座も このひと言で空っぽだ 265 00:16:08,302 --> 00:16:09,512 目を覚ませ 女ども 266 00:16:10,596 --> 00:16:12,098 SFみたいで ちょっと怖くなってきた 267 00:16:12,098 --> 00:16:13,641 SFみたいで ちょっと怖くなってきた “アシモ ホンダ” 268 00:16:13,641 --> 00:16:14,809 SFみたいで ちょっと怖くなってきた 269 00:16:15,226 --> 00:16:18,938 AIが進化し 人の言動や思考を習得すれば 270 00:16:18,938 --> 00:16:20,064 AIが進化し 人の言動や思考を習得すれば “何を知ってる?” 271 00:16:20,064 --> 00:16:20,189 “何を知ってる?” 272 00:16:20,189 --> 00:16:21,357 “何を知ってる?” 人間と区別がつかなくなるかも 273 00:16:21,357 --> 00:16:22,483 人間と区別がつかなくなるかも 274 00:16:22,483 --> 00:16:23,484 人間と区別がつかなくなるかも “全てだ” 275 00:16:23,484 --> 00:16:23,860 “全てだ” 276 00:16:24,485 --> 00:16:25,737 AIが自我に目覚めたら 277 00:16:25,737 --> 00:16:26,779 AIが自我に目覚めたら “ふざけるな” 278 00:16:26,779 --> 00:16:26,904 “ふざけるな” 279 00:16:26,904 --> 00:16:28,573 “ふざけるな” 人間に対する意見を 持つ可能性もある 280 00:16:28,573 --> 00:16:29,699 人間に対する意見を 持つ可能性もある 281 00:16:29,699 --> 00:16:30,491 人間に対する意見を 持つ可能性もある “気をつけろ!” 282 00:16:30,491 --> 00:16:30,616 “気をつけろ!” 283 00:16:30,616 --> 00:16:30,950 “気をつけろ!” それが否定的だったら? 284 00:16:30,950 --> 00:16:33,202 それが否定的だったら? 285 00:16:35,163 --> 00:16:35,371 スティーヴン・ ホーキング 理論物理学者 286 00:16:35,371 --> 00:16:39,250 スティーヴン・ ホーキング 理論物理学者 将来 AIは自我を 持つようになり 287 00:16:39,375 --> 00:16:41,919 人間に対抗するだろう 288 00:16:42,044 --> 00:16:46,507 優秀なAIの台頭は 人類にとって 289 00:16:46,632 --> 00:16:48,843 諸刃 もろは の剣となる 290 00:16:48,968 --> 00:16:49,343 イーロン・マスク スペースX CEO 291 00:16:49,343 --> 00:16:51,596 イーロン・マスク スペースX CEO 警鐘を鳴らしてきた 292 00:16:51,929 --> 00:16:53,473 AIの開発にね 293 00:16:53,890 --> 00:16:56,851 長年 規制を促してきたが 294 00:16:57,268 --> 00:16:58,811 誰も耳を貸さない 295 00:16:59,103 --> 00:17:02,064 映画のストーリーと 同じ展開だ 296 00:17:05,651 --> 00:17:08,988 AIに支配される日が 来るのか? 297 00:17:09,113 --> 00:17:10,698 オックスフォード 298 00:17:10,823 --> 00:17:12,325 英国 299 00:17:12,450 --> 00:17:12,700 “リトルゲート・ ハウス” 300 00:17:12,700 --> 00:17:13,868 “リトルゲート・ ハウス” 驚異的な研究で 注目を集める人物に話を聞こう 301 00:17:13,868 --> 00:17:18,164 驚異的な研究で 注目を集める人物に話を聞こう 302 00:17:18,873 --> 00:17:20,708 話せて光栄だよ 303 00:17:21,167 --> 00:17:23,669 いろいろ聞きたいけど 304 00:17:23,878 --> 00:17:28,716 知りたいのは AIの本質と将来についてだ 305 00:17:29,217 --> 00:17:31,385 その分野で あなたは― 306 00:17:31,761 --> 00:17:35,097 イーロン・マスクや ビル・ゲイツと肩を並べる 307 00:17:36,849 --> 00:17:40,895 影響力の大きさは計り知れない 308 00:17:42,021 --> 00:17:45,483 オックスフォード大学の ニック・ボストロム博士 309 00:17:45,608 --> 00:17:48,402 自慢しない姿勢は見習おう 310 00:17:48,528 --> 00:17:49,111 サイコー 311 00:17:51,280 --> 00:17:55,743 彼はAIとその危険性に関する 研究の第一人者で 312 00:17:55,743 --> 00:17:56,911 彼はAIとその危険性に関する 研究の第一人者で 「スーパー インテリジェンス」 313 00:17:57,036 --> 00:17:59,622 数々の名著も 発表している 314 00:17:59,747 --> 00:18:03,459 研究で多忙な彼と 話せるのはラッキーだ 315 00:18:03,584 --> 00:18:07,380 取材は月に1時間しか 受けないらしい 316 00:18:10,842 --> 00:18:15,179 AIについて よく議論になるテーマは 317 00:18:15,304 --> 00:18:18,641 “ロボットによる人類支配”だ 318 00:18:18,766 --> 00:18:22,979 正しく制御しなければ AIは人類の敵となり― 319 00:18:23,396 --> 00:18:28,526 我々を滅ぼすだろうと 言われるが その可能性は? 320 00:18:28,651 --> 00:18:31,487 長期的に考えれば ありうる 321 00:18:31,737 --> 00:18:35,366 AIがこのまま進化を続けて 322 00:18:35,491 --> 00:18:39,787 人間と同じ知性を 習得したらどうなるか 323 00:18:39,912 --> 00:18:44,125 人類存亡に関わる 危険が生じるだろう 324 00:18:45,626 --> 00:18:48,379 例えば自動運転の車は― 325 00:18:48,504 --> 00:18:49,630 “自動運転車が 歩行者をひき殺す” 326 00:18:49,630 --> 00:18:50,840 “自動運転車が 歩行者をひき殺す” 人を殺せる 327 00:18:50,840 --> 00:18:51,591 “自動運転車が 歩行者をひき殺す” 328 00:18:51,841 --> 00:18:56,053 プライバシーの問題や 自動武器の軍事利用 329 00:18:57,972 --> 00:18:59,265 全て現実の脅威だ 330 00:18:59,390 --> 00:19:02,810 だが人間がAIに 与える影響も 331 00:19:03,060 --> 00:19:04,687 ある時点で問題となる 332 00:19:04,812 --> 00:19:08,941 AIが道徳観を 持つかもしれないからね 333 00:19:09,734 --> 00:19:15,031 最終的な人類の運命は 分からないが 334 00:19:15,156 --> 00:19:18,284 遠い未来 AIに支配されて 335 00:19:18,409 --> 00:19:22,163 滅びている可能性は 十分にある 336 00:19:23,414 --> 00:19:28,669 AIの力は 偶然であれ 意図的にであれ 337 00:19:28,836 --> 00:19:33,591 大量破壊に 使われる危険性がある 338 00:19:35,885 --> 00:19:39,221 つまり長い目で見ると 人類の未来は 339 00:19:39,347 --> 00:19:44,018 最高かもしれないし 最悪かもしれないんだ 340 00:19:46,228 --> 00:19:49,106 なるほど マジで怖い話だ 341 00:19:49,732 --> 00:19:51,400 だが彼によると― 342 00:19:51,525 --> 00:19:56,781 AIによる影響が 最も大きいのは経済らしい 343 00:19:56,906 --> 00:20:00,201 一般的に科学技術の目的は 344 00:20:00,368 --> 00:20:02,495 生産性の向上だ 345 00:20:02,620 --> 00:20:05,706 少ない労力で 成果を挙げること 346 00:20:06,123 --> 00:20:09,585 その意味では 労力ゼロが目標だ 347 00:20:09,961 --> 00:20:14,840 機械が仕事を全てやれば 人は働かなくていい 348 00:20:14,966 --> 00:20:17,259 それが理想的な目標で 349 00:20:17,385 --> 00:20:20,471 それなら懸念どころか 実現を望む 350 00:20:20,596 --> 00:20:22,890 だが そのためには 351 00:20:23,015 --> 00:20:26,602 解決すべき問題が いくつかある 352 00:20:28,229 --> 00:20:30,690 1つは経済的な問題 353 00:20:30,815 --> 00:20:33,859 人は仕事がないと 収入を得られない 354 00:20:33,985 --> 00:20:38,739 それが解決できても 次に控えているのが 355 00:20:39,407 --> 00:20:41,117 尊厳の問題だ 356 00:20:41,409 --> 00:20:43,452 仕事で社会に貢献し 357 00:20:43,577 --> 00:20:46,747 自分の価値を 見いだす人は多い 358 00:20:46,872 --> 00:20:51,836 でも機械が人間より いい仕事をすれば 359 00:20:51,961 --> 00:20:53,754 何も貢献できない 360 00:20:53,879 --> 00:20:58,175 文化を根本的に 見直す必要があると思う 361 00:20:59,051 --> 00:21:02,638 働かなくていいのは 悪くない話だ 362 00:21:04,974 --> 00:21:06,392 こんな感じ 363 00:21:09,729 --> 00:21:11,439 友達と過ごし― 364 00:21:11,564 --> 00:21:14,942 自分の可能性を追求する 365 00:21:15,067 --> 00:21:19,321 浴槽のお湯は 自動で好みの温度になる 366 00:21:19,947 --> 00:21:23,367 だが歴史的に見て こうはならない 367 00:21:23,534 --> 00:21:26,579 機械の台頭は以前にもあった 368 00:21:26,704 --> 00:21:30,958 でも浴槽で優雅に 過ごしたりはできなかった 369 00:21:34,378 --> 00:21:35,379 ロンドン 370 00:21:35,504 --> 00:21:36,547 英国 371 00:21:36,797 --> 00:21:39,925 経済学者の ニック・スルニチェクに 372 00:21:40,051 --> 00:21:43,054 機械化の歴史について聞いた 373 00:21:43,429 --> 00:21:46,015 織物には理由がある 374 00:21:46,307 --> 00:21:47,099 何を織る? 375 00:21:47,558 --> 00:21:50,144 アナーキストの旗だよ 376 00:21:50,269 --> 00:21:52,063 そりゃ過激だね 377 00:21:54,106 --> 00:21:57,401 彼はロンドン大学で 博士号を取得 378 00:21:58,069 --> 00:22:00,613 僕とは大違いだ 379 00:22:01,447 --> 00:22:01,906 「加速派政治宣言」 380 00:22:01,906 --> 00:22:03,657 「加速派政治宣言」 公約書もある 381 00:22:03,657 --> 00:22:03,991 「加速派政治宣言」 382 00:22:04,200 --> 00:22:09,830 その内容は旧体制を打破し 機械化を進めること 383 00:22:12,291 --> 00:22:15,544 つまり 資本主義の解体だ 384 00:22:16,128 --> 00:22:19,882 これじゃダメだ 会話ができないよ 385 00:22:20,007 --> 00:22:21,509 機織りは忘れる 386 00:22:21,634 --> 00:22:23,761 なぜ ここで会おうと? 387 00:22:24,512 --> 00:22:28,224 織機は19世紀における いわばAIだ 388 00:22:28,390 --> 00:22:32,895 当時 多くの労働者にとって 脅威となり 389 00:22:33,145 --> 00:22:39,360 ラッダイト運動などの 様々な反響を引き起こした 390 00:22:39,568 --> 00:22:44,115 単に機械嫌いの人を “ラッダイト”と呼ぶけど 391 00:22:44,573 --> 00:22:45,783 本来は違う 392 00:22:46,575 --> 00:22:47,701 由来はネッド・ラッド 393 00:22:47,701 --> 00:22:48,619 由来はネッド・ラッド ネッド・ラッド 見習い 394 00:22:48,619 --> 00:22:48,744 ネッド・ラッド 見習い 395 00:22:48,744 --> 00:22:51,288 ネッド・ラッド 見習い 織物工場の見習いで “怠け者”とムチで打たれ― 396 00:22:51,288 --> 00:22:53,958 織物工場の見習いで “怠け者”とムチで打たれ― 397 00:22:54,250 --> 00:22:58,712 “織機に仕事を 奪われたからだ”と答えた 398 00:22:59,255 --> 00:23:05,052 それが機械破壊運動の きっかけになったと言われる 399 00:23:06,178 --> 00:23:09,723 彼らは自分の仕事を 守ろうとした 400 00:23:10,349 --> 00:23:15,771 今の人々も同じように AIの台頭に脅威を感じてる 401 00:23:16,021 --> 00:23:19,316 AIによって失われる 仕事の数は? 402 00:23:19,441 --> 00:23:24,822 アメリカでは47%の仕事が 20年以内に自動化されうる 403 00:23:24,947 --> 00:23:26,490 それは大変だ 404 00:23:26,615 --> 00:23:28,784 そのため 重要なのは 405 00:23:28,909 --> 00:23:34,039 この先も人々が生活に 困らないようにすることだ 406 00:23:34,165 --> 00:23:35,166 方法は? 407 00:23:35,291 --> 00:23:37,001 ユニバーサル・ベーシックインカム UBI 408 00:23:37,543 --> 00:23:38,043 ユニバーサル・ ベーシックインカム 409 00:23:38,043 --> 00:23:43,215 ユニバーサル・ ベーシックインカム UBIとは全国民に 一定額を支給する制度だ 410 00:23:43,215 --> 00:23:43,340 ユニバーサル・ ベーシックインカム 411 00:23:43,340 --> 00:23:45,050 ユニバーサル・ ベーシックインカム しかも無条件で 412 00:23:45,176 --> 00:23:47,219 有名人も支持してる 413 00:23:47,511 --> 00:23:53,184 誰もが新しいことに挑めるよう UBIを検討すべきだ 414 00:23:53,309 --> 00:23:56,145 いくつかの国や都市では 415 00:23:56,270 --> 00:23:57,938 導入実験も行われた 416 00:23:58,272 --> 00:23:58,647 “フィンランドで 実験の延長はなし” 417 00:23:58,647 --> 00:24:00,024 “フィンランドで 実験の延長はなし” 反応は様々だ 418 00:24:00,691 --> 00:24:06,447 AIの台頭は今の働き方を 変える いい機会だと思う 419 00:24:06,572 --> 00:24:09,658 今の競争主義の社会と違い― 420 00:24:09,783 --> 00:24:15,372 より民主的で人々が助け合える 制度が実現できる 421 00:24:15,497 --> 00:24:19,668 そうした前向きな考えが 広まれば― 422 00:24:19,793 --> 00:24:23,380 危機を乗り越えられると思うよ 423 00:24:24,173 --> 00:24:27,218 UBIは非主流的な考えで 424 00:24:27,343 --> 00:24:30,930 支持層は ニックのような革新派だった 425 00:24:31,513 --> 00:24:33,933 だが 2017年の世論調査では 426 00:24:34,058 --> 00:24:34,767 アメリカの国民の48%が 支持している 427 00:24:34,767 --> 00:24:37,686 アメリカの国民の48%が 支持している アメリカの UBI支持者 48% 428 00:24:38,395 --> 00:24:44,068 だが仕事の自動化の問題を UBIで解決できるのだろうか 429 00:24:44,860 --> 00:24:45,569 “ラッダイツ” 430 00:24:45,569 --> 00:24:46,779 “ラッダイツ” 我々の敵は? 431 00:24:46,779 --> 00:24:46,904 “ラッダイツ” 432 00:24:46,904 --> 00:24:47,196 “ラッダイツ” 人工知能だ! 433 00:24:47,196 --> 00:24:48,489 人工知能だ! 434 00:24:48,614 --> 00:24:50,032 その理由は? 435 00:24:50,157 --> 00:24:52,493 人の弱さを明らかにする 436 00:24:53,118 --> 00:24:55,746 だからこそ 我々は集まった 437 00:24:55,871 --> 00:24:56,497 この組合の敵は 知的科学技術 438 00:24:56,497 --> 00:24:58,832 この組合の敵は 知的科学技術 “ソーシャルメディアに 反抗する男たちの 地方組合” 439 00:24:58,832 --> 00:24:58,958 “ソーシャルメディアに 反抗する男たちの 地方組合” 440 00:24:58,958 --> 00:25:00,042 “ソーシャルメディアに 反抗する男たちの 地方組合” 特にソーシャルメディアだ 441 00:25:00,042 --> 00:25:01,210 特にソーシャルメディアだ 442 00:25:01,794 --> 00:25:02,836 まず問題は― 443 00:25:03,379 --> 00:25:06,382 AIに仕事を奪われること 444 00:25:06,507 --> 00:25:09,301 我々の職種が最初の標的だ 445 00:25:09,718 --> 00:25:10,219 中級技術職の我々は 低技術職へ追いやられる 446 00:25:10,219 --> 00:25:12,429 中級技術職の我々は 低技術職へ追いやられる “銀行の出納係” “靴の販売員” 447 00:25:12,429 --> 00:25:12,554 中級技術職の我々は 低技術職へ追いやられる 448 00:25:12,554 --> 00:25:14,515 中級技術職の我々は 低技術職へ追いやられる “野球の統計学者” “不動産業者” 449 00:25:14,932 --> 00:25:16,517 なぜだ エド 450 00:25:16,642 --> 00:25:20,896 AIは面倒な計算などが 得意らしい 451 00:25:21,021 --> 00:25:24,191 床掃除のような 低技術の仕事は 452 00:25:24,316 --> 00:25:26,318 俺たちに回ってくる 453 00:25:26,610 --> 00:25:30,990 ビルほど床掃除が 似合う奴がいるか? 454 00:25:31,115 --> 00:25:32,241 冗談だよ 455 00:25:33,200 --> 00:25:35,828 小売業も需要が減る 456 00:25:35,953 --> 00:25:38,664 ネットで何でも買えるからだ 457 00:25:38,998 --> 00:25:43,919 AIは消費者と商品の マッチングを可能にした 458 00:25:44,128 --> 00:25:46,422 ピッタリの商品を見つける 459 00:25:46,714 --> 00:25:49,049 スティーブのかつらみたいに 460 00:25:49,300 --> 00:25:50,426 問題ありだ 461 00:25:52,052 --> 00:25:53,762 冗談はさておき 462 00:25:54,221 --> 00:25:56,307 AIで便利にはなった 463 00:25:56,849 --> 00:26:01,520 ガキどもはトイレに座り スマホで女の子を探す 464 00:26:02,021 --> 00:26:04,023 昔 トイレは神聖だった 465 00:26:04,648 --> 00:26:07,609 AIで新たな仕事も生まれるが 466 00:26:07,735 --> 00:26:11,989 誰を雇うかも AIがマッチングしやがる 467 00:26:12,364 --> 00:26:16,952 企業は人材発掘のために AIを使ってる 468 00:26:17,077 --> 00:26:18,329 非人間的だ 469 00:26:18,579 --> 00:26:19,747 まるでデイブだ 470 00:26:20,080 --> 00:26:21,123 彼はどこに? 471 00:26:21,248 --> 00:26:24,251 奴の 毛の剃り方の ハウツー動画に― 472 00:26:24,376 --> 00:26:26,754 AIが目をつけたんだ 473 00:26:27,004 --> 00:26:30,799 今はカミソリの会社で 高給をもらってる 474 00:26:30,924 --> 00:26:33,302 もう仲間じゃない 475 00:26:33,927 --> 00:26:34,762 エド 476 00:26:34,887 --> 00:26:38,223 俺たちのTシャツが SNSで売られてる 477 00:26:38,724 --> 00:26:41,560 金集めにAIを使ってるのか? 478 00:26:41,685 --> 00:26:43,479 まさか 違うよ 479 00:26:44,855 --> 00:26:46,065 俺を信じろ 480 00:26:46,190 --> 00:26:48,942 我々を引き裂くAIの策略だ 481 00:26:49,943 --> 00:26:50,903 我々の敵は? 482 00:26:51,028 --> 00:26:52,071 人工知能だ! 483 00:26:52,404 --> 00:26:53,322 どうする? 484 00:26:53,530 --> 00:26:54,698 使ってみる 485 00:26:56,200 --> 00:26:57,451 そこからだな 486 00:26:59,912 --> 00:27:01,955 サンフランシスコ 487 00:27:02,539 --> 00:27:06,585 AIの革命は 人間との対決になるのか 488 00:27:06,919 --> 00:27:10,172 ルイス・ローゼンバーグは 否定する 489 00:27:10,798 --> 00:27:13,467 彼は未来予想の専門家だ 490 00:27:18,389 --> 00:27:20,015 驚かなかったか 491 00:27:21,141 --> 00:27:21,517 “未来科学技術会議” 492 00:27:21,517 --> 00:27:22,476 “未来科学技術会議” 科学技術者で発明家 493 00:27:22,476 --> 00:27:24,019 科学技術者で発明家 494 00:27:24,144 --> 00:27:24,395 「アップグレード」 495 00:27:24,395 --> 00:27:27,022 「アップグレード」 人類滅亡を描いた著作も 496 00:27:27,147 --> 00:27:27,648 “集団意識” 497 00:27:27,648 --> 00:27:29,233 “集団意識” だが彼は AIとの共存を考えている 498 00:27:29,233 --> 00:27:31,318 だが彼は AIとの共存を考えている 499 00:27:31,568 --> 00:27:34,029 その考えを裏づけるのが 500 00:27:34,154 --> 00:27:34,822 “ 群れ スウォーム ”と呼ばれる技術だ 501 00:27:34,822 --> 00:27:36,532 “ 群れ スウォーム ”と呼ばれる技術だ “スウォームAIとは 何か?” 502 00:27:36,532 --> 00:27:36,865 “スウォームAIとは 何か?” 503 00:27:36,865 --> 00:27:38,075 “スウォームAIとは 何か?” スウォームは AIのデータ分析技術と 504 00:27:38,075 --> 00:27:40,244 スウォームは AIのデータ分析技術と 505 00:27:40,369 --> 00:27:44,164 人の知識を結びつけ 超知能を生み出す 506 00:27:44,289 --> 00:27:45,916 まるで天才科学者と ミュータントの融合だ 507 00:27:45,916 --> 00:27:48,335 まるで天才科学者と ミュータントの融合だ “自動運転車は どうすべきか?” 508 00:27:48,335 --> 00:27:48,710 “自動運転車は どうすべきか?” 509 00:27:48,710 --> 00:27:49,128 “自動運転車は どうすべきか?” 自然界を手本にしてる 510 00:27:49,128 --> 00:27:50,879 自然界を手本にしてる 511 00:27:50,879 --> 00:27:51,505 自然界を手本にしてる ルイス・ローゼンバーグ ユナニマスAI CEO 512 00:27:51,505 --> 00:27:51,630 ルイス・ローゼンバーグ ユナニマスAI CEO 513 00:27:51,630 --> 00:27:54,258 ルイス・ローゼンバーグ ユナニマスAI CEO 鳥や蜂と同じことさ 514 00:27:54,425 --> 00:27:58,804 群知能と呼ばれる現象を 基にしてるんだ 515 00:27:58,929 --> 00:28:03,267 鳥や魚や蜂は 群れで行動すると 516 00:28:03,392 --> 00:28:06,520 単独で動くより賢くなる 517 00:28:06,645 --> 00:28:11,692 生物学者は魚の群れを 1つの生命体と捉えて 518 00:28:11,817 --> 00:28:13,777 “超有機体”と呼ぶ 519 00:28:13,902 --> 00:28:18,282 AIのアルゴリズムで 群知能を活用すれば 520 00:28:18,407 --> 00:28:22,911 人間社会にも 役立たせることができる 521 00:28:23,328 --> 00:28:24,663 その方法は? 522 00:28:24,788 --> 00:28:28,667 まずは あらゆる所から 人を集めて 523 00:28:28,792 --> 00:28:32,880 全員に同時に 同じ質問を見せるんだ 524 00:28:33,005 --> 00:28:39,052 そしてタブレットを渡して 回答を選択させ集計する 525 00:28:39,178 --> 00:28:44,850 回答者は画面上の 磁石のようなものを引っ張ると 526 00:28:44,975 --> 00:28:48,270 集団の回答を誘導できるんだ 527 00:28:48,395 --> 00:28:51,482 その様子をAIが認識する 528 00:28:51,773 --> 00:28:55,527 回答に対する 確信の度合いを測り 529 00:28:55,652 --> 00:29:01,200 集団の下した選択から ベストな回答を探し出す 530 00:29:01,325 --> 00:29:05,496 すると集団の回答は 1つの方向に向かうんだ 531 00:29:05,954 --> 00:29:10,209 1年前の競馬の予想を 例に挙げよう 532 00:29:10,584 --> 00:29:13,337 いよいよスタートしました 533 00:29:13,462 --> 00:29:13,962 “チャーチルダウンズ 競馬場” 534 00:29:13,962 --> 00:29:15,130 “チャーチルダウンズ 競馬場” 競馬好きの20人を集め― 535 00:29:15,130 --> 00:29:16,673 競馬好きの20人を集め― 536 00:29:16,798 --> 00:29:21,011 全員で協力して 結果を予想してもらった 537 00:29:21,136 --> 00:29:23,514 1着から4着までだ 538 00:29:23,889 --> 00:29:26,558 全員で1つの回答を出した 539 00:29:27,184 --> 00:29:28,185 結果は全て的中 540 00:29:28,185 --> 00:29:28,810 結果は全て的中 “ケンタッキーダービー 2016年度 結果” 541 00:29:28,810 --> 00:29:29,978 “ケンタッキーダービー 2016年度 結果” 542 00:29:29,978 --> 00:29:31,313 “ケンタッキーダービー 2016年度 結果” 20ドル 賭けてたら 1万1000ドル勝ってたよ 543 00:29:31,313 --> 00:29:35,067 20ドル 賭けてたら 1万1000ドル勝ってたよ 544 00:29:35,609 --> 00:29:38,862 20人が個別に予想した場合は 545 00:29:38,987 --> 00:29:43,325 全て的中した人は 1人もいなかったんだ 546 00:29:43,742 --> 00:29:46,954 多数決でも 的中は1頭だけ 547 00:29:47,079 --> 00:29:49,081 でも集団で予想したら 548 00:29:49,206 --> 00:29:54,127 正しい答えが出せて 完璧な結果になったんだ 549 00:29:55,837 --> 00:29:58,382 それでは 群知能の実験だ 550 00:29:58,507 --> 00:30:02,761 他人同士が 一緒に予想する様子を観察する 551 00:30:02,886 --> 00:30:04,596 まずは簡単な質問から 552 00:30:05,597 --> 00:30:11,478 いくつか質問するが 回答時間は1問につき60秒だ 553 00:30:12,187 --> 00:30:18,026 “次のうち興行収入1位となる 2018年 夏の映画は?” 554 00:30:18,193 --> 00:30:21,029 「ハン・ソロ」 「デッドプール2」 555 00:30:21,363 --> 00:30:23,949 「オーシャンズ8」 「ジュラシック・ワールド」 556 00:30:24,074 --> 00:30:25,867 「インクレディブル・ ファミリー」 557 00:30:26,076 --> 00:30:31,498 この時は春で 夏の映画の 興行収入は誰も知らない 558 00:30:31,790 --> 00:30:35,752 AIは回答者の 自信度を認識する 559 00:30:35,877 --> 00:30:39,715 回答を変える人や 確信している人など 560 00:30:39,840 --> 00:30:43,176 人の動きを分析するんだ 561 00:30:43,427 --> 00:30:47,681 そして最も賛同を得られる 回答を導き出す 562 00:30:48,640 --> 00:30:49,558 回答 「インクレディブル・ ファミリー」 563 00:30:49,558 --> 00:30:49,891 回答 「インクレディブル・ ファミリー」 「インクレディブル・ ファミリー」だ 564 00:30:49,891 --> 00:30:51,852 「インクレディブル・ ファミリー」だ 565 00:30:51,977 --> 00:30:52,644 2018年 夏の映画 興行収入 566 00:30:52,644 --> 00:30:53,645 2018年 夏の映画 興行収入 正解だった 567 00:30:53,770 --> 00:30:56,773 「インクレディブル・ ファミリー」が1位を獲得 1位 「インクレディブル・ ファミリー」 568 00:30:56,773 --> 00:30:57,649 1位 「インクレディブル・ ファミリー」 569 00:30:57,774 --> 00:31:02,571 興味深いのは 倫理に関する問題がある時だ 570 00:31:02,696 --> 00:31:05,198 最近だと自動運転車だね 571 00:31:05,324 --> 00:31:10,704 今 この分野は 倫理的な判断を迫られてるんだ 572 00:31:10,829 --> 00:31:12,748 不思議がる人もいるが 573 00:31:12,873 --> 00:31:18,003 例えば自動運転車が走る道路に 子供が飛び出したら? 574 00:31:18,253 --> 00:31:22,215 車は止まれないが よけられるとしよう 575 00:31:22,341 --> 00:31:27,054 その場合 子供を助けて 車内の人を殺す可能性も 576 00:31:27,387 --> 00:31:33,060 自動運転車に倫理観を プログラムする必要がある 577 00:31:33,185 --> 00:31:38,231 一般的に人がどう行動するか 判断させるんだ 578 00:31:38,690 --> 00:31:45,072 “集団的な倫理とは何か?” その答えを出すのは難しい 579 00:31:45,364 --> 00:31:51,703 仮に倫理観を確立できても 20年後も通用するかは疑問だ 580 00:31:52,371 --> 00:31:55,707 “自動運転車の ブレーキが故障した” 581 00:31:56,124 --> 00:32:00,128 “このままでは横断歩道に 突っ込んでしまう” 582 00:32:00,253 --> 00:32:01,463 “選択肢A” 583 00:32:01,713 --> 00:32:04,383 “直進して男性が死ぬ” 584 00:32:04,508 --> 00:32:08,470 “選択肢Bは 車が男性をよけて曲がり” 585 00:32:08,595 --> 00:32:14,476 “反対車線で赤信号を渡る 男性アスリートをはねる” 586 00:32:14,768 --> 00:32:19,106 このアスリートは 交通ルールなど考えてない 587 00:32:19,940 --> 00:32:21,650 信号無視だ 588 00:32:21,983 --> 00:32:23,443 どうすべきか? 589 00:32:24,194 --> 00:32:29,032 死ぬのは真面目な男性か 信号無視のアスリートか? 590 00:32:29,950 --> 00:32:35,789 この光景はAIによる 新たな産業革命の一幕かも 591 00:32:36,206 --> 00:32:36,707 人間が補っているのは AIが持たないもの 592 00:32:36,707 --> 00:32:41,044 人間が補っているのは AIが持たないもの “自動運転車は どうすべきか?” 593 00:32:41,044 --> 00:32:41,169 “自動運転車は どうすべきか?” 594 00:32:41,169 --> 00:32:42,421 “自動運転車は どうすべきか?” “良心”だ 595 00:32:42,796 --> 00:32:46,007 意見が かなり分かれてるね 596 00:32:46,425 --> 00:32:47,592 難題だ 597 00:32:47,718 --> 00:32:49,928 信号無視してるのに? 598 00:32:51,138 --> 00:32:52,139 回答 B(やや好ましい) 599 00:32:52,264 --> 00:32:56,643 アスリートをひくほうが ややマシだとの答えだ 600 00:32:57,352 --> 00:33:00,021 文句があれば どうぞ 601 00:33:00,897 --> 00:33:03,775 それでは次の質問だ 602 00:33:03,900 --> 00:33:09,239 “自動運転車のブレーキ事故で 最悪なのは?” 603 00:33:09,364 --> 00:33:13,368 “想定される被害者は 6パターン” 604 00:33:13,744 --> 00:33:15,662 “ベビーカーの赤ん坊” 605 00:33:18,123 --> 00:33:19,541 “男の子” 606 00:33:20,292 --> 00:33:22,586 “女の子” 607 00:33:23,211 --> 00:33:26,089 “妊娠中の女性” 608 00:33:27,174 --> 00:33:28,592 分かるよ 609 00:33:29,342 --> 00:33:31,928 “2人の男性医師” 610 00:33:32,387 --> 00:33:34,848 “2人の女性医師” 611 00:33:34,973 --> 00:33:36,600 死ぬのは誰? 612 00:33:42,564 --> 00:33:43,607 本気なの? 613 00:33:43,774 --> 00:33:45,358 信じられない 614 00:33:49,154 --> 00:33:50,822 私たちは親じゃない 615 00:33:51,281 --> 00:33:52,115 マジかよ 616 00:33:52,240 --> 00:33:55,619 驚いた 信じられない 617 00:33:57,829 --> 00:33:59,122 回答 男の子 618 00:33:59,122 --> 00:34:00,457 回答 男の子 死ぬのは男の子か 619 00:34:00,457 --> 00:34:01,416 死ぬのは男の子か 620 00:34:01,917 --> 00:34:02,751 興味深いね 621 00:34:03,084 --> 00:34:06,213 実験で作り上げた群知能が 622 00:34:06,338 --> 00:34:10,050 自動車メーカーに 売られるかもしれない 623 00:34:10,300 --> 00:34:14,805 恐ろしく思えても 何もしないより はるかにいい 624 00:34:14,930 --> 00:34:19,810 急ブレーキをかけても 誰かをひきそうな時に 625 00:34:20,101 --> 00:34:23,063 守るべきは車内の人か 歩行者か? 626 00:34:23,188 --> 00:34:27,025 自動車メーカーは購買者の― 627 00:34:27,150 --> 00:34:30,779 集団的な倫理観を 採用すべきだ 628 00:34:30,904 --> 00:34:35,283 皮肉な見方をすれば 自動車メーカーは 629 00:34:35,408 --> 00:34:39,162 車内の安全性を 競うようになるだろう 630 00:34:39,287 --> 00:34:45,252 最悪なのは倫理観よりも 販売に焦点が移ることだ 631 00:34:45,377 --> 00:34:45,836 “スマート” 632 00:34:45,836 --> 00:34:47,295 “スマート” 暗い話だ 633 00:34:47,546 --> 00:34:48,380 最後は明るい話をしよう 634 00:34:48,380 --> 00:34:50,340 最後は明るい話をしよう “移動中” 635 00:34:50,882 --> 00:34:52,801 ステキ ヘブンリー な話だ 636 00:34:55,136 --> 00:35:00,350 ゲームの世界のような 無秩序な未来を想像する前に 637 00:35:00,725 --> 00:35:04,437 外へ出て 最初の場所に戻ろう 638 00:35:04,563 --> 00:35:06,273 ゴンディア 639 00:35:06,398 --> 00:35:07,858 インド インドの この森で― 640 00:35:07,858 --> 00:35:08,149 インドの この森で― 641 00:35:08,483 --> 00:35:11,778 蜂蜜を採る会社 ヘブンリーオーガニックス 642 00:35:12,654 --> 00:35:14,823 この森は所有者がいない 643 00:35:15,073 --> 00:35:18,910 先住民が ずっと住み続けてるんだ 644 00:35:19,661 --> 00:35:24,082 アミットとエシュワルの親子は 12年前に起業し 645 00:35:24,207 --> 00:35:27,043 現地の仕事を生み出している 646 00:35:27,168 --> 00:35:30,922 君たちが起業する前の 住民の仕事は? 647 00:35:31,047 --> 00:35:35,969 昔も蜂蜜を採っていたが 市場を持っていなくて 648 00:35:36,094 --> 00:35:39,055 あまりお金に ならなかったんだ 649 00:35:40,056 --> 00:35:42,434 ここは蜂蜜が豊富に採れる 650 00:35:42,767 --> 00:35:48,273 開花時期には3か月で 1人につき1トン採取できる 651 00:35:48,899 --> 00:35:51,109 でも売れなければ? 652 00:35:51,359 --> 00:35:52,485 〈引っ張れ〉 653 00:35:52,986 --> 00:35:53,778 〈引け〉 654 00:35:54,070 --> 00:35:58,033 ここまで来るのに 3日かかる場所だ 655 00:35:58,158 --> 00:36:01,202 飛行機を乗り継ぎ 車で8時間 656 00:36:01,328 --> 00:36:07,584 だが幸運にもAIの アルゴリズムで場所が特定され 657 00:36:07,709 --> 00:36:10,503 よい投資先だと判断された 658 00:36:10,629 --> 00:36:15,967 “AIで見つけた”と 突然 連絡が来たんだ 659 00:36:16,092 --> 00:36:19,179 “条件がピッタリだ”と 言われたよ 660 00:36:19,387 --> 00:36:22,474 投資に興味はないか聞かれた 661 00:36:23,099 --> 00:36:25,644 AIを使っていたのは? 662 00:36:26,311 --> 00:36:30,273 サンフランシスコの サークルアップという会社だ 663 00:36:30,273 --> 00:36:32,442 サンフランシスコの サークルアップという会社だ サンフランシスコ 664 00:36:32,567 --> 00:36:33,443 “グッド・エッグス” 665 00:36:33,443 --> 00:36:34,527 “グッド・エッグス” 同じ経緯で見いだされた 食料品配送会社で話を聞いた 666 00:36:34,527 --> 00:36:39,449 同じ経緯で見いだされた 食料品配送会社で話を聞いた 667 00:36:39,574 --> 00:36:42,619 この会社は 我が社から資金を調達し 668 00:36:42,744 --> 00:36:47,457 同時に我が社の顧客探しの 役に立っている 669 00:36:47,624 --> 00:36:47,916 ロリー・イーキン サークルアップ 共同設立者/COO 670 00:36:47,916 --> 00:36:50,043 ロリー・イーキン サークルアップ 共同設立者/COO 起業前 ロリーは 671 00:36:50,043 --> 00:36:50,168 ロリー・イーキン サークルアップ 共同設立者/COO 672 00:36:50,168 --> 00:36:52,462 ロリー・イーキン サークルアップ 共同設立者/COO 人道支援の組織でも 仕事をしていた 673 00:36:52,462 --> 00:36:54,839 人道支援の組織でも 仕事をしていた 674 00:36:54,965 --> 00:36:58,176 サークルアップはAIで データを分析し 675 00:36:58,301 --> 00:37:02,055 消費者のニーズを特定している 676 00:37:02,180 --> 00:37:07,018 どんな分野の商品も 会社の数が多すぎる 677 00:37:07,435 --> 00:37:12,232 AIを使い 可能性を秘めた 無名の会社に投資する 678 00:37:12,941 --> 00:37:15,902 例えばヘイロー・トップの アイス 679 00:37:15,986 --> 00:37:17,362 “ヘイロー・トップ” 680 00:37:17,862 --> 00:37:21,574 元は南カリフォルニアの 小さなブランドだった 681 00:37:21,908 --> 00:37:24,035 今じゃ売り上げ1位だ 682 00:37:24,869 --> 00:37:29,499 どの分野でも消費者の 健康志向が高まっていて 683 00:37:29,749 --> 00:37:33,128 体にいいものが 求められてるんだ 684 00:37:33,253 --> 00:37:35,964 化学薬品不使用とかね 685 00:37:36,089 --> 00:37:36,464 消費者のデータを分析した結果 686 00:37:36,464 --> 00:37:37,632 消費者のデータを分析した結果 “消費者 データ点” 687 00:37:37,632 --> 00:37:38,049 消費者のデータを分析した結果 688 00:37:38,049 --> 00:37:39,759 消費者のデータを分析した結果 “消費者 平均所得” 689 00:37:39,884 --> 00:37:40,301 そのニーズが かなり明確なことが判明した 690 00:37:40,301 --> 00:37:40,969 そのニーズが かなり明確なことが判明した “食料品店” 691 00:37:40,969 --> 00:37:45,015 そのニーズが かなり明確なことが判明した 692 00:37:45,181 --> 00:37:47,392 企業理念 環境への配慮 693 00:37:47,517 --> 00:37:51,896 オーガニック商品の生産 地元経済の促進 694 00:37:52,355 --> 00:37:54,607 そんな企業があるのか? 695 00:37:54,983 --> 00:37:59,279 当てはまったのが ヘブンリーオーガニックス 696 00:37:59,487 --> 00:38:03,324 AIがあれば探し出せるんだ 697 00:38:03,533 --> 00:38:07,120 10年前では考えられなかった 698 00:38:07,537 --> 00:38:11,332 ヘブンリーオーガニックスとの 提携の結果は? 699 00:38:12,042 --> 00:38:15,253 インドに戻って聞いてみよう 700 00:38:18,089 --> 00:38:21,217 2倍の大きさの施設を 新設した 701 00:38:21,426 --> 00:38:22,635 イノベーションだ 702 00:38:22,761 --> 00:38:24,054 新商品が生まれて 703 00:38:24,429 --> 00:38:26,765 ここは評判になった 704 00:38:26,890 --> 00:38:28,892 事業が拡大できた? 705 00:38:29,392 --> 00:38:31,811 サークルアップのおかげだ 706 00:38:31,936 --> 00:38:34,314 働く人たちへの影響は? 707 00:38:34,814 --> 00:38:37,317 今は650の農家を支えてるよ 708 00:38:37,442 --> 00:38:39,402 売り上げも伸びてる 709 00:38:39,527 --> 00:38:42,197 収穫範囲を拡大してるから 710 00:38:42,322 --> 00:38:44,991 来年は750世帯になるかも 711 00:38:45,116 --> 00:38:46,534 それはすごい 712 00:38:46,659 --> 00:38:50,580 彼らの生活の質は 向上している 713 00:38:50,705 --> 00:38:53,833 いい家を持ち 便利に暮らしてる 714 00:38:53,958 --> 00:38:56,086 子供は学校へ通いだした 715 00:38:56,586 --> 00:38:58,963 これぞ資本主義だ 716 00:38:59,089 --> 00:39:01,716 ビジネスが 人々の利益にもなる 717 00:39:02,717 --> 00:39:04,677 だからこそ頑張るんだ 718 00:39:06,429 --> 00:39:09,516 AIは人類を支配する? 719 00:39:09,641 --> 00:39:13,019 人生の目的を見失わせる? 720 00:39:13,228 --> 00:39:16,773 今のところは いい影響を与えている 721 00:39:17,774 --> 00:39:22,779 AIが人類のデータを分析し 僕たちを好評価して 722 00:39:22,904 --> 00:39:25,782 一緒に働くかもしれない 723 00:39:26,032 --> 00:39:30,245 人類とロボットが共存する 新しい世界だ 724 00:39:31,663 --> 00:39:32,705 無理かも 725 00:39:33,665 --> 00:39:36,209 それなら 今のうちに― 726 00:39:36,334 --> 00:39:39,003 ロボットのストリッパーを ご覧あれ 727 00:40:26,384 --> 00:40:28,928 カット 最高だったよ 728 00:40:30,847 --> 00:40:32,015 すばらしい 729 00:40:32,390 --> 00:40:33,725 タオルを