1 00:00:05,382 --> 00:00:06,759 สถานีวอลสตรีท 2 00:00:06,842 --> 00:00:08,427 วอลสตรีท 3 00:00:08,927 --> 00:00:11,930 ผมอยู่บนวอลสตรีทที่ซึ่งทุกอย่างเริ่มต้นขึ้น 4 00:00:13,724 --> 00:00:17,186 ในวันที่ 6 พฤษภาคม ปี 2010 เวลา 14.45 น. 5 00:00:17,686 --> 00:00:21,190 ชายคนหนึ่งซึ่งนั่งอยู่ในบ้านพ่อแม่ของเขา ไกลถึงลอนดอน 6 00:00:21,273 --> 00:00:24,985 แก้ไขอัลกอริธึมที่นี่ ในตลาดหลักทรัพย์นิวยอร์ก 7 00:00:25,068 --> 00:00:27,279 ด้วยคำสั่งขายมูลค่าหลายพันล้านดอลลาร์ 8 00:00:28,697 --> 00:00:30,449 แผนคือเพื่อเล่นสนุกกับตลาด 9 00:00:30,532 --> 00:00:32,659 แล้วยกเลิกคำสั่งนั่นก่อนมันสำเร็จ 10 00:00:33,160 --> 00:00:34,411 แต่กว่ามันจะเกิดขึ้น 11 00:00:34,495 --> 00:00:37,247 ระบบซื้อขายหุ้นอัตโนมัติของทั้งโลก 12 00:00:37,331 --> 00:00:38,582 ก็เริ่มขายไปแล้ว 13 00:00:39,041 --> 00:00:42,336 ทำให้เกิดปฏิกิริยาลูกโซ่ซึ่งล้มทั้งตลาด 14 00:00:44,880 --> 00:00:48,967 อุตสาหกรรมดาวโจนส์ตกลงพันจุด ในเวลาเพียง 15 นาที 15 00:00:49,051 --> 00:00:52,513 มันเกือบเท่ากับการตก ซึ่งก่อให้เกิดมหาวิกฤติเศรษฐกิจ 16 00:00:52,596 --> 00:00:55,307 เกิดอะไรขึ้นที่นี่กันแน่ ผมไม่รู้ 17 00:00:55,390 --> 00:00:56,642 มีความหวาดกลัวในตลาดนี้ 18 00:00:57,267 --> 00:00:59,645 ยกเลิกเรือสำราญ ย้ายลูกคุณไปโรงเรียนรัฐบาล 19 00:01:00,938 --> 00:01:02,481 มันคือเหตุการณ์หุ้นถล่มครับ ทุกคน 20 00:01:03,023 --> 00:01:04,066 ซวยแล้ว 21 00:01:05,359 --> 00:01:08,111 36 นาทีต่อมา ตลาดหุ้นฟื้นตัว 22 00:01:08,195 --> 00:01:11,615 แต่เหตุการณ์หุ้นถล่มในปี 2010 ถูกบันทึกว่าเป็นครั้งแรก 23 00:01:11,698 --> 00:01:15,994 ที่มนุษย์สัมผัสประสบการณ์ น่ากังวลอย่างที่สุด 24 00:01:16,078 --> 00:01:19,164 ว่าเอไอจะควบคุม ระบบการเงินของเราได้อย่างไร 25 00:01:20,707 --> 00:01:22,167 และเราควรรู้ว่ามันมาไกลถึงไหนแล้ว 26 00:01:24,086 --> 00:01:26,922 นี่คือเหตุผลที่ผมมาที่อินเดีย เพื่อออกหาน้ำผึ้งป่า 27 00:01:27,631 --> 00:01:28,966 แต่ไว้พูดเรื่องนี้ทีหลัง 28 00:01:29,341 --> 00:01:31,885 เพื่อเข้าใจว่าเอไอ เจอที่แห่งนี้ได้ยังไงหรือทำไม 29 00:01:31,969 --> 00:01:34,429 เราต้องเข้าใจก่อนว่าเอไอคืออะไร 30 00:01:34,513 --> 00:01:36,431 ถ้าคุณคิดว่าคุณรู้อยู่แล้ว ผมพนันได้ว่าคุณคิดผิด 31 00:01:37,850 --> 00:01:41,436 ไม่ว่าคุณจะชอบหรือไม่ เราทุกคนเชื่อมโยงกันด้วยเงิน 32 00:01:41,937 --> 00:01:45,315 ผมคาล เพนน์จะล้วงลึกยักษ์ร้ายตัวนี้ 33 00:01:45,691 --> 00:01:48,068 ซึ่งก็คือเศรษฐกิจโลกนั่นเอง 34 00:01:48,151 --> 00:01:49,403 คลุกวงในเศรษฐกิจโลก 35 00:01:52,322 --> 00:01:54,199 แล้วอะไรคือ "เอไอ" กันแน่ 36 00:01:54,283 --> 00:01:55,409 ซานฟรานซิสโก 37 00:01:55,492 --> 00:01:58,579 ผมอยู่ในซานฟรานซิสโก เพื่อเข้าใจก่อนว่ามันไม่ใช่อะไร 38 00:01:58,662 --> 00:02:01,874 ซึ่งเป็นทุกอย่าง ที่นิยายแนววิทยาศาสตร์บอกไว้ 39 00:02:02,541 --> 00:02:03,542 โดยเฉพาะ... 40 00:02:03,959 --> 00:02:07,004 หุ่นยนต์ตัวเป้ง 41 00:02:27,107 --> 00:02:28,442 พระเจ้าช่วย 42 00:02:30,485 --> 00:02:32,112 ผมอยู่ที่นี่กับจูเลีย บอสแมนน์ 43 00:02:32,237 --> 00:02:36,575 ซึ่งทำงานให้สภาปัญญาประดิษฐ์ ของการประชุมผู้นำเศรษฐกิจโลก 44 00:02:36,658 --> 00:02:40,329 เพื่อให้คำแนะนำผู้นำระดับโลก ว่าควรใช้ประโยชน์จากเอไอได้อย่างไร 45 00:02:40,829 --> 00:02:44,499 งานนี้มาพร้อมผลประโยชน์ที่ดีกว่า การดูรถถูกทำลายด้วยซ้ำ 46 00:02:44,583 --> 00:02:47,586 เช่น การได้เซลฟี่กับหนุ่มเซ็กซี่ที่สุด ในแคนาดาที่ไม่ใช่เดรก 47 00:02:47,669 --> 00:02:48,754 จัสติน ทรูโด นายกรัฐมนตรีของแคนาดา 48 00:02:53,467 --> 00:02:55,385 หลังจากนี้คุณจะกลับบ้านยังไง 49 00:02:55,469 --> 00:02:56,803 ผมยังคิดว่ามันขับได้อยู่นะ 50 00:03:01,016 --> 00:03:03,018 เราเจอกันที่บริษัทที่ชื่อเมกาบอตส์ 51 00:03:03,101 --> 00:03:05,854 ซึ่งสร้างหุ่นยนต์ยักษ์เพื่อสู้กับหุ่นยนต์ตัวอื่น 52 00:03:07,814 --> 00:03:10,275 เหมือนมีดีวัล ไทม์สที่เนิร์ดกว่าเดิมซะอีก 53 00:03:13,779 --> 00:03:14,905 ตามคำพูดของจูเลีย 54 00:03:14,988 --> 00:03:17,658 หุ่นยนต์พวกนี้ไม่ได้เป็นแค่ เครื่องเล่นในสวนสนุกที่เจ๊งไปแล้ว 55 00:03:18,283 --> 00:03:22,412 พวกมันเป็นไดโนเสาร์ทางเทคโนโลยี เพราะลักษณะเฉพาะสำคัญหนึ่งอย่าง 56 00:03:24,289 --> 00:03:25,582 ในหุ่นยนต์เหล่านี้ เราเป็นสมอง 57 00:03:25,666 --> 00:03:27,626 แต่เอไอเป็นสมองประดิษฐ์ 58 00:03:27,709 --> 00:03:28,752 จูเลีย บอสแมนน์ - ผู้เชี่ยวชาญเอไอ ในการประชุมผู้นำเศรษฐกิจโลก 59 00:03:28,835 --> 00:03:29,711 น่าสนใจ คุณขยายความหน่อยได้ไหม 60 00:03:29,795 --> 00:03:32,506 เรากำลังสร้างคอมพิวเตอร์ 61 00:03:32,589 --> 00:03:34,132 ซึ่งสามารถเรียนรู้สิ่งต่างๆ ได้ด้วยตัวเอง 62 00:03:34,591 --> 00:03:37,010 และพวกมันไม่จำเป็นต้องมีร่าง 63 00:03:37,344 --> 00:03:40,055 เอไอมากมายที่เราสร้างขึ้นเรียบร้อยแล้ว 64 00:03:40,138 --> 00:03:41,765 อยู่ในศูนย์ข้อมูลขนาดใหญ่ 65 00:03:42,057 --> 00:03:46,645 ถ้าเราต้องอธิบายให้เด็กอายุ 13 ฟัง 66 00:03:46,728 --> 00:03:48,146 คุณจะอธิบายเอไอยังไง 67 00:03:48,230 --> 00:03:50,691 ฉันคิดว่าคำจำกัดความที่ครอบคลุมของมัน น่าจะเป็น 68 00:03:50,774 --> 00:03:54,945 เอไอทำให้เครื่องจักรทำสิ่งที่ 69 00:03:55,028 --> 00:03:58,156 เราไม่ได้สั่งไว้อย่างชัดเจนว่ามันต้องทำ 70 00:03:58,240 --> 00:03:59,616 ในการออกคำสั่งแบบเก่า 71 00:03:59,700 --> 00:04:02,744 เราตั้งกฎและอัลกอริธึม 72 00:04:02,828 --> 00:04:04,413 คือถ้าเกิดอันนี้ ก็ต้องตามด้วยอันนั้น 73 00:04:04,496 --> 00:04:07,165 และมนุษย์ได้วางแผนเอาไว้หมด 74 00:04:07,249 --> 00:04:09,501 ถ้าคุณอ่านบทความทางการแพทย์ 75 00:04:09,584 --> 00:04:12,004 ฐานข้อมูลหนึ่งมีข้อมูลเป็นล้าน 76 00:04:12,087 --> 00:04:14,923 ไม่มีหมอคนไหน อ่านเอกสารงานวิจัยพวกนั้นได้หมด 77 00:04:15,048 --> 00:04:17,676 เพื่อตามความก้าวหน้าให้ทัน แต่เครื่องจักรทำได้ 78 00:04:17,759 --> 00:04:20,220 ดังนั้นเราสามารถจินตนาการเครื่องจักร ที่คิดไอเดียใหม่ๆ 79 00:04:20,303 --> 00:04:21,596 ว่าจะแก้ปัญหาอย่างไร 80 00:04:21,680 --> 00:04:24,766 หรือคิดค้นยาใหม่ๆ เพื่อรักษาโรคได้ 81 00:04:24,850 --> 00:04:25,976 ว้าว โอเค 82 00:04:26,059 --> 00:04:28,395 สาขาของปัญญาประดิษฐ์ 83 00:04:28,478 --> 00:04:30,856 ที่น่าตื่นเต้นที่สุดตอนนี้ 84 00:04:30,939 --> 00:04:32,065 เรียกว่า "การเลียนแบบการทำงานของสมอง" 85 00:04:32,149 --> 00:04:33,608 อะไรคือ "การเลียนแบบการทำงานของสมอง" 86 00:04:33,692 --> 00:04:36,069 การเลียนแบบการทำงานของสมอง คือเมื่อเรามี 87 00:04:36,153 --> 00:04:39,072 ระบบโครงข่ายประสาทหลายชั้น 88 00:04:39,156 --> 00:04:42,242 ซึ่งคล้ายกับสิ่งที่เรามีในสมองของเรา 89 00:04:42,325 --> 00:04:45,579 ในหัวของเรามีเซลล์ประสาทที่เชื่อมต่อกัน 90 00:04:45,662 --> 00:04:46,788 และแลกเปลี่ยนข้อมูลกัน 91 00:04:46,830 --> 00:04:50,751 ในทางหนึ่ง เรากำลังจำลองมันไว้ในเครื่องจักร 92 00:04:50,834 --> 00:04:54,546 เราป้อนข้อมูลที่สมดุลและเป็นกลางให้มัน 93 00:04:54,629 --> 00:04:56,214 เพื่อให้มันเรียนรู้ได้ด้วย 94 00:04:56,548 --> 00:04:59,009 ตัวอย่างเช่น การจดจำภาพ เราบอกพวกมัน 95 00:04:59,092 --> 00:05:01,511 ว่านี่คือรูปแมว นี่คือรูปหมา 96 00:05:01,595 --> 00:05:03,972 แล้วพวกมันก็เริ่มมองภาพต่างๆ 97 00:05:04,056 --> 00:05:06,349 แล้วเรียนรู้ด้วยตัวเองว่า จะจำแนกพวกมันได้ยังไง 98 00:05:06,433 --> 00:05:10,187 เราจึงไม่ต้องป้อนข้อมูลทุกอย่างเข้าไป 99 00:05:10,228 --> 00:05:11,229 น่าสนใจ 100 00:05:11,313 --> 00:05:14,107 และยังมีระบบการเรียนรู้ของเครื่องที่ ไม่ใช่การเลียนแบบการทำงานของประสาท 101 00:05:14,858 --> 00:05:16,985 มีอัลกอริธึมที่เป็นวิวัฒนาการ 102 00:05:17,069 --> 00:05:19,863 ซึ่งเราใช้หลักการจากการวิวัฒนาการ 103 00:05:19,946 --> 00:05:24,242 และปล่อยให้เครื่องจักรลองทำสิ่งต่างๆ 104 00:05:24,743 --> 00:05:27,329 แล้วเราค่อยดูว่าแบบไหนได้ผลที่สุด 105 00:05:27,412 --> 00:05:31,291 แล้วแบบที่ได้ผลดีที่สุด ก็ได้ขยับไปสู่รุ่นต่อไป 106 00:05:31,374 --> 00:05:34,336 เหมือนสิ่งมีชีวิตที่มีวิวัฒนาการ เราใช้หลักการว่า 107 00:05:34,419 --> 00:05:37,172 โปรแกรมที่แกร่งและดีที่สุด จะอยู่รอดต่อไป 108 00:05:37,255 --> 00:05:38,381 ว้าว โอเค 109 00:05:38,465 --> 00:05:40,550 พวกมันคืออัลกอริธึมเชิงวิวัฒนาการ 110 00:05:40,926 --> 00:05:44,346 แล้วอะไรคือผลประโยชน์ทางการเงิน ในการใช้เอไอ 111 00:05:44,429 --> 00:05:47,724 มันต้องมีผลอย่างมากกับเศรษฐกิจ 112 00:05:47,808 --> 00:05:50,393 ใช่ ฉันคิดว่า มันจะเปลี่ยนระบบเศรษฐกิจไปเลย 113 00:05:50,477 --> 00:05:53,313 เรากำลังพูดถึงการปฏิวัติอุตสาหกรรมใหม่ 114 00:05:53,396 --> 00:05:54,231 น่าสนใจ 115 00:05:54,314 --> 00:05:55,774 มันถูกเรียกว่าสิ่งประดิษฐ์สุดท้ายของเรา 116 00:05:55,857 --> 00:05:58,944 เพราะเมื่อเรามีสมองประดิษฐ์ ซึ่งฉลาดกว่าเราแล้ว 117 00:05:59,027 --> 00:06:00,779 มันก็คิดค้นสิ่งต่างๆ ให้เราได้มากกว่า 118 00:06:00,862 --> 00:06:03,865 มันเรียกว่าสิ่งประดิษฐ์สุดท้าย เพราะมันจะฆ่าเราทุกคนหรือเปล่า 119 00:06:04,950 --> 00:06:06,118 หวังว่าจะไม่นะ 120 00:06:08,829 --> 00:06:12,207 หลายคนกลัวว่า ปัญญาประดิษฐ์จะฉลาดเกินไป 121 00:06:12,290 --> 00:06:15,001 แล้วฆ่าพวกเราทั้งหมด แต่ไม่ต้องห่วง 122 00:06:15,085 --> 00:06:19,047 หนึ่งในเหตุผลที่เอไอฉลาดนักหนา ก็เพราะมันโง่เป็นบ้าเลย 123 00:06:19,464 --> 00:06:20,549 มานี่สิ เอไอ 124 00:06:21,299 --> 00:06:24,302 นึกภาพว่าคุณบอกให้เอไอหาสูตรเค้ก 125 00:06:24,386 --> 00:06:26,179 โดยใช้อัลกอริธึมเชิงวิวัฒนาการ 126 00:06:27,973 --> 00:06:30,517 เอไอจะไม่พยายามคิดวิธีที่ดีที่สุดเพื่อทำมัน 127 00:06:30,600 --> 00:06:33,520 มันจะแค่ลองเป็นพันล้านครั้ง 128 00:06:33,603 --> 00:06:37,482 ด้วยส่วนผสมทุกอย่างในครัว ในแบบที่โง่ที่สุด 129 00:06:38,441 --> 00:06:40,652 แน่นอนส่วนใหญ่ล้มเหลว 130 00:06:42,320 --> 00:06:43,613 สูตรนี้แน่นอน 131 00:06:44,447 --> 00:06:45,657 เก่งมาก ยัยโง่ 132 00:06:46,616 --> 00:06:50,162 ความล้มเหลวไม่ทำร้ายความรู้สึกของเอไอ มันไม่มีความรู้สึกอยู่แล้ว 133 00:06:50,745 --> 00:06:53,123 ข้อดีเกี่ยวกับอัลกอริธึมเชิงวิวัฒนาการก็คือ 134 00:06:53,206 --> 00:06:56,293 ด้วยการลองวิธีที่ดูเหมือนโง่พวกนี้ 135 00:06:56,376 --> 00:06:58,044 มันอาจเจอทางออก 136 00:06:58,128 --> 00:07:01,464 ของปัญหาในครัว ที่ไม่มีมนุษย์ฉลาดๆ คนไหนพยายามแก้ 137 00:07:01,548 --> 00:07:04,176 เช่น การทำเค้กวีแกนที่อร่อยขึ้น 138 00:07:04,259 --> 00:07:05,302 ฉันทำเค้กแล้ว 139 00:07:06,178 --> 00:07:07,554 เก่งมาก เอไอ 140 00:07:07,637 --> 00:07:09,097 ส่วนใหญ่เป็นเม็ดมะม่วงหิมพานต์ 141 00:07:09,931 --> 00:07:13,143 คุณเคยคิดจะใช้เม็ดมะม่วงหิมพานต์ไหม แน่นอนว่าไม่ 142 00:07:13,226 --> 00:07:16,521 มันคงโง่น่าดู แต่เอไอยินดีโง่ 143 00:07:16,605 --> 00:07:18,190 โดยที่คุณไม่ต้องเป็น 144 00:07:18,273 --> 00:07:21,067 ยัยโง่ตัวนี้จะวิวัฒนาการไปเป็นสิ่งที่ฉลาด 145 00:07:21,151 --> 00:07:23,653 มันจะครองโลกและฆ่าเราทั้งหมดได้ไหม 146 00:07:24,196 --> 00:07:25,280 ยากจะบอกได้แน่นอน 147 00:07:25,363 --> 00:07:26,740 ฉันกำลังเรียนรู้โค้ดเริ่มดำเนินการ 148 00:07:27,657 --> 00:07:28,992 แต่ในระหว่างนี้ 149 00:07:29,993 --> 00:07:31,077 กินเค้กสิ 150 00:07:35,165 --> 00:07:36,541 แม้ว่าผมจะยังกังวลอยู่ 151 00:07:36,625 --> 00:07:39,461 ว่าเอไอจะสร้างปัญหามากกว่าแก้ 152 00:07:41,004 --> 00:07:43,757 ผู้เชี่ยวชาญเห็นด้วยว่ามันจะเพิ่มผลผลิต 153 00:07:43,840 --> 00:07:47,636 ในอุตสาหกรรม เช่น สุขภาพ คมนาคม และการเงิน 154 00:07:47,719 --> 00:07:51,848 เพิ่มจีดีพีของโลกขึ้นกว่า 15.7 ล้านล้านดอลลาร์ภายในปี 2030 155 00:07:52,474 --> 00:07:56,478 มันมากกว่าผลผลิตปัจจุบัน ของจีนและอินเดียรวมกัน 156 00:07:56,561 --> 00:07:58,480 นิวยอร์กซิตี 157 00:07:59,898 --> 00:08:02,275 เอไอสำคัญขนาดไหน 158 00:08:02,943 --> 00:08:06,404 จากมุมมองของผม มันเป็นหนึ่งในสาม เรื่องสำคัญในประวัติศาสตร์มนุษย์ 159 00:08:06,488 --> 00:08:07,697 ในประวัติศาสตร์มนุษย์เลยเหรอ 160 00:08:07,781 --> 00:08:08,990 ประวัติศาสตร์มนุษย์แน่นอน 161 00:08:09,616 --> 00:08:11,368 ผมกำลังอยู่กับแอนดรูว์ แม็กคาฟี 162 00:08:11,451 --> 00:08:15,664 หนึ่งในผู้เชี่ยวชาญระดับโลกเรื่อง เทคโนโลยีใหม่เปลี่ยนเศรษฐกิจ 163 00:08:15,747 --> 00:08:19,542 และสังคมมนุษย์ทั้งหมดตามลำดับอย่างไร 164 00:08:20,460 --> 00:08:22,212 ถ้าเราอยากวาดกราฟประวัติศาสตร์มนุษย์ 165 00:08:22,295 --> 00:08:24,214 สิ่งที่เราเรียนรู้คือกว่าหลายพันปี 166 00:08:24,297 --> 00:08:26,258 ไม่มีอะไรเกิดขึ้นเลย เส้นกราฟเราแบนราบ 167 00:08:26,341 --> 00:08:28,093 แอนดรูว์ แม็กคาฟี - ผู้อำนวยการร่วมของ สถาบันเอ็มไอทีเพื่อเศรษฐกิจยุคดิจิทัล 168 00:08:28,176 --> 00:08:30,845 ไม่ต่างจากการตายเลย 169 00:08:30,929 --> 00:08:32,514 แต่จู่ๆ ที่จุดๆ หนึ่ง 170 00:08:32,597 --> 00:08:34,933 กราฟของประวัติศาสตร์มนุษย์นั่น ไม่ว่าคุณจะมองอะไรอยู่ 171 00:08:35,016 --> 00:08:38,144 ขึ้นจากแนวนอนน่าเบื่อเป็นแนวตั้ง 172 00:08:38,228 --> 00:08:39,771 - ในชั่วพริบตา - โอเค 173 00:08:39,854 --> 00:08:41,481 มันเกิดขึ้นแล้วประมาณศตวรรษที่ 18 174 00:08:41,564 --> 00:08:45,443 แรกเลย เพราะพลังไอน้ำ ตามมาด้วยไฟฟ้า 175 00:08:47,821 --> 00:08:50,782 ไฟฟ้าเป็นสิ่งที่เห็นได้ชัดใช่ไหม 176 00:08:50,865 --> 00:08:53,827 มันให้รถขนของกับเรา มันให้รถไฟใต้ดินกับเรา 177 00:08:53,910 --> 00:08:57,080 ที่เห็นไม่ชัดคือมันให้เมืองแนวตั้ง แทนที่จะเป็นแนวนอน 178 00:08:57,163 --> 00:08:58,373 - ไฟฟ้าน่ะเหรอ - แน่นอนที่สุด 179 00:08:58,456 --> 00:08:59,749 - เราต้องใช้ลิฟต์ - ลิฟต์ โอเค 180 00:08:59,833 --> 00:09:01,543 เรามีเมืองแนวตั้งโดยไม่มีมันไม่ได้ 181 00:09:01,626 --> 00:09:03,878 เราปีนบันไดแปดสิบชั้นทุกวันไม่ไหว 182 00:09:03,962 --> 00:09:06,506 ดังนั้นการปฏิวัติอุตสาหกรรมสองอย่างนี้ ทั้งไอน้ำ 183 00:09:06,589 --> 00:09:09,259 แล้วก็ไฟฟ้าและการสันดาปภายใน 184 00:09:09,342 --> 00:09:11,011 เปลี่ยนประวัติศาสตร์มนุษย์จริงๆ 185 00:09:11,094 --> 00:09:12,804 - ไม่มีทางมองมันเป็นอย่างอื่นได้ - แน่นอน 186 00:09:12,887 --> 00:09:15,974 สิ่งเหล่านี้คือเทคโนโลยี ที่ทำให้เราข้ามผ่านขีดจำกัด 187 00:09:16,057 --> 00:09:17,100 - ของกล้ามเนื้อของเรา - โอเค 188 00:09:17,183 --> 00:09:20,562 สิ่งที่เกิดขึ้นกับเอไอคือเรากำลังข้ามขีดจำกัด 189 00:09:20,645 --> 00:09:22,564 ของสมองของเรา ของพลังในใจของเรา 190 00:09:22,647 --> 00:09:24,607 อันตราย ไฟฟ้าแรงสูง 191 00:09:24,691 --> 00:09:26,484 เรามีความท้าทายยุ่งยากที่ต้องแก้ไข 192 00:09:26,568 --> 00:09:28,236 ความท้าทายที่ยุ่งยากจริงๆ ใช่ไหม 193 00:09:28,320 --> 00:09:29,696 เราควรรักษามะเร็งได้ 194 00:09:29,779 --> 00:09:31,406 เราควรมีอาหารให้คนมากขึ้นได้ 195 00:09:31,489 --> 00:09:33,950 เราควรหยุดทำให้โลกร้อนในศตวรรษที่ 21 196 00:09:34,034 --> 00:09:36,328 สิ่งเหล่านี้เป็นเรื่องซับซ้อนมาก 197 00:09:36,411 --> 00:09:38,747 และสมองของเรา หลีกเลี่ยงความซับซ้อนแบบนั้น 198 00:09:38,830 --> 00:09:41,708 เราทำมันด้วยวิทยาศาสตร์และเราทำมัน ด้วยความรู้ที่สะสมมา 199 00:09:41,791 --> 00:09:44,044 แต่ความซับซ้อนมันท่วมท้นไปหมด 200 00:09:44,127 --> 00:09:45,420 วิธีที่ผมคิดถึงเอไอ 201 00:09:45,503 --> 00:09:48,506 คือเรามีเพื่อนร่วมงานใหม่ที่ทรงพลังจริงๆ 202 00:09:48,590 --> 00:09:51,676 เพื่อช่วยเราสร้างทางตรง เข้าไปในความซับซ้อนนั่น 203 00:09:51,760 --> 00:09:54,637 เพราะสิ่งที่เทคโนโลยีใหม่เหล่านี้เก่งมาก 204 00:09:54,721 --> 00:09:59,684 คือการเข้าใจรูปแบบที่เข้าใจยาก ในปริมาณข้อมูลอันมหาศาล 205 00:09:59,768 --> 00:10:01,603 เกินกว่าคุณและผมจะรับได้ 206 00:10:01,686 --> 00:10:03,897 หนึ่งในตัวอย่างที่บ้าที่สุดที่ผมได้ยิน เมื่อไม่นานมานี้ 207 00:10:03,980 --> 00:10:05,106 คือในวงการการเงิน 208 00:10:05,190 --> 00:10:07,650 และการเกิดของสิ่งที่พวกเขาเรียกว่า "หุ่นยนต์ที่ปรึกษา" 209 00:10:07,734 --> 00:10:09,361 ซึ่งเป็นแค่อัลกอริธึม 210 00:10:09,444 --> 00:10:11,696 ที่รวมการลงทุนของคุณเข้าด้วยกัน 211 00:10:11,780 --> 00:10:13,031 จนถึงตอนนี้ 212 00:10:13,114 --> 00:10:15,325 คุณต้องรวยระดับหนึ่ง 213 00:10:15,408 --> 00:10:18,745 ถึงจะเข้าสำนักงานนักวางแผน และให้คำปรึกษาทางการเงินได้ 214 00:10:18,828 --> 00:10:20,872 - ใช่ - ใช่ มันจะเปลี่ยนไปอย่างรวดเร็ว 215 00:10:20,955 --> 00:10:25,210 ด้วยหุ่นยนต์ที่ปรึกษา คนที่ไม่ร่ำรวยนัก 216 00:10:25,293 --> 00:10:28,963 สามารถเข้าถึง เครื่องมือทันสมัยอันทรงพลัง 217 00:10:29,047 --> 00:10:31,299 เพื่อพัฒนาฐานะการเงินของพวกเขาได้ 218 00:10:31,383 --> 00:10:34,302 มันน่าตื่นเต้น โดยเฉพาะดูเหมือนเรามักมี 219 00:10:34,386 --> 00:10:37,555 คนที่พร้อมจะใช้ของพวกนี้ในทางที่ผิด 220 00:10:37,639 --> 00:10:40,225 ผมไม่ได้พูดว่ามันไม่มีอะไรต้องกังวล 221 00:10:40,308 --> 00:10:42,852 และสิ่งที่เรารู้ จากการปฏิวัติอุตสาหกรรมก่อนหน้านี้ 222 00:10:42,936 --> 00:10:44,687 คือพวกมันนำเรื่องไม่ดีติดตัวมาด้วย 223 00:10:44,771 --> 00:10:49,150 เราทำสงครามด้วย เทคโนโลยีอุตสาหกรรมทั้งหมดนี่ 224 00:10:49,234 --> 00:10:52,529 เราสร้างมลภาวะทางสิ่งแวดล้อม 225 00:10:52,612 --> 00:10:54,364 เราทำความผิดพลาดยิ่งใหญ่มาแล้ว 226 00:10:54,447 --> 00:10:57,951 เช่น การใช้แรงงานเด็กอย่างกว้างขวาง เพราะการปฏิรูปอุตสาหกรรม 227 00:10:58,034 --> 00:11:01,079 ดังนั้นมันไม่สมบูรณ์แบบ ไม่ใช่ในช่วงเวลาไหนเลย 228 00:11:01,162 --> 00:11:03,748 และครั้งนี้ก็จะเป็นแบบเดียวกัน 229 00:11:04,249 --> 00:11:05,291 แย่จัง 230 00:11:06,918 --> 00:11:08,586 แม็กคาฟีทำให้ผมได้คิด 231 00:11:08,670 --> 00:11:10,547 ถ้าประวัติศาสตร์ซ้ำรอย 232 00:11:10,630 --> 00:11:13,591 และเอไอเปลี่ยนสังคมไปในทางที่ผิด 233 00:11:14,467 --> 00:11:18,430 เช่น มลภาวะที่รุนแรง และเพื่อนร่วมงานตัวเล็กมอมแมมล่ะ 234 00:11:18,513 --> 00:11:19,848 ลอนดอน 235 00:11:19,931 --> 00:11:21,891 แล้วเรื่องคำถาม ด้านจรรยาบรรณและศีลธรรม 236 00:11:21,975 --> 00:11:24,227 ที่มาพร้อมเทคโนโลยีใหม่ทรงพลังนี้ล่ะ 237 00:11:24,936 --> 00:11:27,647 เดินดูพิพิธภัณฑ์คอมพิวเตอร์แห่งชาติ ในลอนดอนไปรอบๆ 238 00:11:27,730 --> 00:11:31,109 เราเห็นเครื่องจักรมากมายที่ถูกสร้างขึ้น เพื่อทำให้สังคมก้าวหน้า 239 00:11:31,192 --> 00:11:35,572 เช่นฮาร์เวลล์ เดคาตรอนน้ำหนักสองตัน ซึ่งถูกสร้างขึ้นเพื่อคำนวณ 240 00:11:35,655 --> 00:11:38,908 ให้งานวิจัยทางวิทยาศาสตร์ ของสหราชอาณาจักรในช่วงปี 1950 241 00:11:39,242 --> 00:11:41,161 แต่ถ้าตกอยู่ในมือคนผิด คงไม่ต้องบอกว่า 242 00:11:41,244 --> 00:11:43,163 เทคโนโลยีใหม่จะถูกใช้ยังไง 243 00:11:43,746 --> 00:11:45,707 เราดูหนังโป๊ในคอมพิวเตอร์นี้ได้ไหม 244 00:11:46,040 --> 00:11:49,752 บางทีเราอาจเปิดมัน เพื่อดูหนังโป๊ความละเอียดต่ำมากได้ 245 00:11:50,712 --> 00:11:51,754 อลัน ซูคโคนี นักโปรแกรมคอมพิวเตอร์ 246 00:11:51,838 --> 00:11:54,507 ผมอยู่กับโปรแกรมเมอร์ อลัน ซูคโคนี 247 00:11:54,591 --> 00:11:57,177 ซึ่งสอนอยู่ที่มหาวิทยาลัยโกลด์สมิธส์ ในลอนดอน 248 00:11:57,719 --> 00:12:00,722 เขาใช้เทคโนโลยี เพื่อช่วยสร้างข้าวของใหม่ๆ 249 00:12:00,805 --> 00:12:04,058 เช่น อุปกรณ์เล่นเกม สำหรับผู้ที่มีปัญหาในการเคลื่อนไหวร่างกาย 250 00:12:05,477 --> 00:12:07,937 เขาบอกว่าหนึ่งในความไม่มั่นใจ ในเรื่องศีลธรรมที่ใหญ่ที่สุด 251 00:12:08,021 --> 00:12:10,190 ในประวัติศาสตร์เทคโนโลยี กำลังจะมาในไม่ช้า 252 00:12:10,273 --> 00:12:14,360 เมื่อเอไอเริ่มเลียนแบบ พฤติกรรมมนุษย์หลายอย่าง 253 00:12:14,444 --> 00:12:16,404 มันดูกลมกลืนเหมือนเป็นพวกเราคนหนึ่ง 254 00:12:17,113 --> 00:12:18,615 นี่คืออะไร 255 00:12:18,948 --> 00:12:21,826 มันเป็นหนึ่งในคอมพิวเตอร์เครื่องแรก ที่ถูกสร้างขึ้น 256 00:12:21,910 --> 00:12:24,829 โดยอลัน ทัวริงและเพื่อนของเขา 257 00:12:24,913 --> 00:12:28,124 เครื่องนี้เป็นหนึ่งในคอมพิวเตอร์ เครื่องแรกๆ ที่สามารถแกะ 258 00:12:28,208 --> 00:12:30,710 รหัสอินิกมาซึ่งถูกออกแบบโดยนาซีได้ 259 00:12:32,587 --> 00:12:35,381 อลัน ทัวริงเป็น บิดาแห่งวิทยาศาสตร์คอมพิวเตอร์สมัยใหม่ 260 00:12:35,465 --> 00:12:38,927 และตอนเขาว่างจากการช่วยสัมพันธมิตร ชนะสงครามโดยการแกะรหัสนาซี 261 00:12:39,010 --> 00:12:42,555 เขาคิดปรัชญาที่เรียกว่า "การทดสอบของทัวริง" 262 00:12:43,598 --> 00:12:46,643 เราแยกมนุษย์กับเครื่องจักรออกได้ยังไง 263 00:12:46,726 --> 00:12:49,854 และถ้าเราแยกไม่ออก 264 00:12:49,938 --> 00:12:53,066 งั้นเครื่องจักรก็ผ่านสิ่งที่เขาเรียกว่า "เกมเลียนแบบ" 265 00:12:53,149 --> 00:12:56,569 เครื่องจักรกำลังพยายามเลียนแบบ พฤติกรรมมนุษย์ 266 00:12:56,653 --> 00:12:59,072 มันรู้จักกันในนามการทดสอบของทัวริง 267 00:12:59,155 --> 00:13:02,659 และนี่เคยเป็นหนึ่งในเครื่องจักร ที่คิดว่าเคยถูกใช้ 268 00:13:02,742 --> 00:13:03,868 เพื่อทำการทดสอบของทัวริง 269 00:13:03,952 --> 00:13:06,579 มนุษย์ใส่คำถามเข้าไปในเครื่อง 270 00:13:07,080 --> 00:13:08,831 ในขณะที่ผู้สังเกตการณ์คนนอกประเมิน 271 00:13:08,915 --> 00:13:11,501 ว่าการตอบสนองที่ออกมา มาจากมนุษย์หรือเปล่า 272 00:13:11,584 --> 00:13:13,461 หรือเครื่องกำลังเลียนแบบมนุษย์ 273 00:13:14,379 --> 00:13:15,630 คุณอายุเท่าไหร่ 274 00:13:17,924 --> 00:13:20,134 อย่างนั้นแหละ มันรู้ว่ามันอายุเท่าไหร่ 275 00:13:20,218 --> 00:13:22,011 "ฉันเกิดในปี 1912 276 00:13:22,095 --> 00:13:24,389 "ฉะนั้นฉันอายุ 105 ปี" 277 00:13:27,642 --> 00:13:30,979 ในยุคของทัวริง มันค่อนข้างง่าย ที่จะบอกได้ว่าเป็นคอมพิวเตอร์ 278 00:13:31,271 --> 00:13:34,357 แต่ทุกวันนี้ เอไอสามารถเรียนรู้พฤติกรรมมนุษย์ 279 00:13:34,440 --> 00:13:36,693 และโปรแกรมตัวเองให้ทำท่าเหมือนเรา 280 00:13:37,485 --> 00:13:39,654 คุณแยกความแตกต่างระหว่างคนนี้... 281 00:13:39,988 --> 00:13:43,199 โดยปกติผมจะเริ่มคำพูดเหล่านี้ ด้วยมุกตลกเรื่องวิทยาศาสตร์ข้อมูล 282 00:13:43,700 --> 00:13:46,744 แต่ประมาณครึ่งหนึ่งของสิ่ง ที่เจ้าหน้าที่ผมคิดมาให้มักต่ำกว่ามาตรฐาน 283 00:13:46,828 --> 00:13:47,912 ...กับคนนี้ได้ไหม 284 00:13:47,996 --> 00:13:50,415 ศัตรูของเราสามารถทำให้มันดูเหมือน ใครก็ได้กำลังพูดอะไรก็ได้ 285 00:13:50,498 --> 00:13:51,833 ตอนไหนก็ได้ 286 00:13:52,208 --> 00:13:55,503 ที่จริงคนหลังนั่นถูกสร้างขึ้นโดยบัซฟีด 287 00:13:55,587 --> 00:13:57,338 ร่วมกับนักแสดง จอร์แดน พีล 288 00:13:57,839 --> 00:14:02,760 และมันทำให้คนมากมายกังวล เรื่องเอไอรูปแบบใหม่ของข่าวปลอม 289 00:14:02,844 --> 00:14:04,929 ต่อไปเราจำเป็นต้องระวังให้มากขึ้น 290 00:14:05,013 --> 00:14:06,639 กับสิ่งที่เราเชื่อจากอินเทอร์เน็ต 291 00:14:06,723 --> 00:14:09,058 เอไอเรียนรู้การเคลื่อนไหวใบหน้าของพีล 292 00:14:09,142 --> 00:14:13,062 แล้วรวมมันและสร้างมันขึ้นมาใหม่ บนหน้าของโอบามา 293 00:14:13,146 --> 00:14:15,690 ทำให้เกิดลูกผสมที่รู้จักกันในนาม "ดีปเฟก" 294 00:14:15,773 --> 00:14:17,984 คุณอาจเคยเห็นอะไรคล้ายๆ กันมาแล้ว 295 00:14:18,067 --> 00:14:21,404 ตัวอย่างเช่น ในสแนปแชตมีฟิลเตอร์ ที่ทำให้สลับหน้าได้ 296 00:14:21,487 --> 00:14:25,325 ความแตกต่างคือฟิลเตอร์นั่นใช้วิธีง่ายๆ 297 00:14:25,408 --> 00:14:28,953 แต่เทคโนโลยีเบื้องหลังดีปเฟก ต้องใช้ปัญญาประดิษฐ์ 298 00:14:29,037 --> 00:14:31,289 มันมาจากสิ่งที่เรียกว่า "การเลียนแบบการทำงานของประสาท" 299 00:14:31,706 --> 00:14:35,126 ระบบโครงข่ายประสาทประดิษฐ์ ถอดการแสดงออกทางสีหน้า 300 00:14:35,209 --> 00:14:37,754 แล้วใช้มันสร้างหน้าคุณขึ้นมาใหม่ 301 00:14:37,837 --> 00:14:41,466 และเราทำให้เกิดผลลัพธ์ที่ดูจริงได้ด้วยวิธีนี้ 302 00:14:42,508 --> 00:14:45,720 อลันทำบทเรียนอินเทอร์เน็ต เรื่องวิธีการทำดีปเฟก 303 00:14:45,803 --> 00:14:48,056 เขาเชื่อมั่นว่าเทคโนโลยีนี้ 304 00:14:48,139 --> 00:14:50,767 ควรพัฒนาอย่างอิสระโดยไม่มีข้อจำกัด 305 00:14:50,850 --> 00:14:53,853 แม้ว่ามันอาจทำให้เกิด สงครามโลกครั้งที่สาม 306 00:14:53,936 --> 00:14:55,104 พรรคสังคมนิยมของเบลเยียมเผยแพร่ วิดีโอ "ดีปเฟก" ของโดนัลด์ ทรัมป์ 307 00:14:55,188 --> 00:14:57,273 ผู้บริโภคจะรู้ได้ยังไง 308 00:14:57,357 --> 00:14:59,692 ว่าอะไรจริงและอะไรไม่จริง 309 00:14:59,776 --> 00:15:02,695 ในฐานะผู้บริโภค เวลาคุณได้รับข่าวสารใดก็ตาม 310 00:15:02,779 --> 00:15:05,740 ไม่ว่าจะเป็นบทความ วิดีโอ หรือรูป 311 00:15:05,823 --> 00:15:08,076 ทุกอย่างที่คุณเห็นถูกสร้างขึ้น โดยใครสักคนอยู่แล้ว 312 00:15:08,201 --> 00:15:09,577 "อะไรคือเรื่องราวของสิ่งที่ฉันกำลังดูอยู่" 313 00:15:09,827 --> 00:15:11,287 "วิดีโอนี้ต้องการให้ฉันบอกอะไรได้" 314 00:15:11,371 --> 00:15:13,581 ผมเห็น... 315 00:15:13,665 --> 00:15:14,624 อันตรายของมัน 316 00:15:14,707 --> 00:15:17,168 อันตรายพอๆ กับความอยากรู้เรื่องมัน 317 00:15:17,251 --> 00:15:19,420 มันจะช่วยคนได้จริงเหรอ 318 00:15:19,504 --> 00:15:21,923 เพราะผมเดาว่าคุณเคยคุยกับคน 319 00:15:22,006 --> 00:15:25,885 ที่อยากรู้ว่าจะใช้เทคโนโลยีประเภทนี้ ทำให้เศรษฐกิจโตได้ยังไง 320 00:15:25,968 --> 00:15:29,097 อะไรคือผลทางเศรษฐกิจของมันที่ทำได้จริง 321 00:15:29,180 --> 00:15:32,308 ผมคิดว่าอุตสาหกรรมแรก ที่จะได้ประโยชน์จากมัน 322 00:15:32,392 --> 00:15:33,685 คืออุตสาหกรรมภาพยนตร์ 323 00:15:33,768 --> 00:15:36,813 ง่ายๆ เลย เพราะการเปลี่ยนใบหน้า 324 00:15:36,896 --> 00:15:40,024 มันเป็นสิ่งที่เราพยายามทำในหนัง มาหลายทศวรรษแล้ว 325 00:15:40,108 --> 00:15:42,527 โดยปกติเราใช้เครื่องสำอางและหน้ากาก 326 00:15:42,610 --> 00:15:43,736 บางครั้งเราใช้ซีจีไอ 327 00:15:43,820 --> 00:15:46,489 ในฐานะนักแสดง และคนที่เคยทำงานการเมือง 328 00:15:46,572 --> 00:15:48,616 เรื่องนี้ทำให้ผมกลัวมาก 329 00:15:48,700 --> 00:15:50,201 ก็ควรอยู่ 330 00:15:51,285 --> 00:15:53,705 ดีปเฟกของบัซฟีดทำให้สาธารณชน 331 00:15:53,788 --> 00:15:55,039 รู้ว่าเรามีความเสี่ยงขนาดไหน 332 00:15:55,873 --> 00:15:59,585 ในยุคที่ประธานาธิบดีแค่เปิดปาก ก็เปลี่ยนแปลงตลาดได้แล้ว 333 00:15:59,669 --> 00:16:02,714 ดีปเฟกแบบเนียนๆ คงทำเศรษฐกิจล่มได้ 334 00:16:02,797 --> 00:16:04,674 เร็วกว่าเหตุการณ์หุ้นถล่มซะอีก 335 00:16:04,757 --> 00:16:08,469 แล้วทำลายเงินบำนาญของเราจนสิ้นซาก ก่อนโอบามาปลอมจะพูดว่า... 336 00:16:08,553 --> 00:16:09,554 ตั้งสติหน่อย ไอ้บ้า 337 00:16:10,638 --> 00:16:13,057 มันฟังดูเหมือนนิยายวิทยาศาสตร์บ้างไหม 338 00:16:13,141 --> 00:16:14,726 น่ากลัวบ้างหรือเปล่า 339 00:16:15,309 --> 00:16:18,271 ถ้าเอไอมีพลังมากพอจะรู้ว่าเราขยับยังไง 340 00:16:18,354 --> 00:16:20,022 พูดยังไง คิดยังไง 341 00:16:20,106 --> 00:16:22,316 มันอาจแยกจากเราไม่ออกอีกต่อไป 342 00:16:22,400 --> 00:16:23,818 คุณรู้อะไรบ้าง ทุกอย่าง 343 00:16:24,610 --> 00:16:26,779 แล้วถ้าเอไอมีจิตใต้สำนึกของตัวเองล่ะ 344 00:16:26,863 --> 00:16:29,782 เอไออาจมีความเห็นรุนแรง เกี่ยวกับเราได้ 345 00:16:29,866 --> 00:16:30,908 ไปตายซะ ระวังตัวให้ดี 346 00:16:30,992 --> 00:16:33,119 พวกมันอาจไม่คิดบวกนัก 347 00:16:35,455 --> 00:16:36,664 สตีเฟน ฮอว์คิง นักฟิสิกส์ทางทฤษฎี 348 00:16:36,748 --> 00:16:39,292 และในอนาคต เอไออาจพัฒนาจิตใจของตัวเอง 349 00:16:39,375 --> 00:16:42,003 จิตใจที่อาจขัดแย้งกับของพวกเรา 350 00:16:42,086 --> 00:16:44,422 การเกิดขึ้นของเอไอทรงพลังจะ 351 00:16:44,505 --> 00:16:48,801 เป็นสิ่งที่ดีที่สุดหรือแย่ที่สุด ที่เกิดขึ้นกับมนุษยชาติก็ได้ 352 00:16:49,260 --> 00:16:50,136 อีลอน มัสก์ ซีอีโอ สเปซเอ็กซ์ 353 00:16:50,219 --> 00:16:53,181 ผมพยายามจูงใจ ให้ทุกคนพัฒนาเอไอให้ช้าลง 354 00:16:54,056 --> 00:16:55,224 มีกฎหมายรองรับเอไอ 355 00:16:55,308 --> 00:16:56,809 ไร้ผล ผมพยายามมาหลายปีแล้ว 356 00:16:56,893 --> 00:16:58,561 - ไม่มีใครฟัง - มันดูเหมือนฉาก 357 00:16:58,644 --> 00:17:00,980 ในหนังซึ่งหุ่นยนต์จะยึดไปหมด 358 00:17:01,063 --> 00:17:02,607 คุณกำลังทำให้ผมกลัว 359 00:17:05,818 --> 00:17:09,030 ฉากโลกาวินาศที่เกิดจากเอไอ มีโอกาสเกิดขึ้นจริงได้แค่ไหน 360 00:17:09,113 --> 00:17:10,782 อ็อกซ์ฟอร์ด 361 00:17:10,865 --> 00:17:12,408 สหราชอาณาจักร 362 00:17:12,742 --> 00:17:15,077 เพื่อเข้าใจ ผมต้องคุยกับชายคนหนึ่ง 363 00:17:15,161 --> 00:17:18,164 ซึ่งงานวิจัยของเขา ทำให้ทุกคนกลัวตั้งแต่แรก 364 00:17:18,831 --> 00:17:21,083 โอเค ผมตื่นเต้นที่จะได้คุยกับคุณจริงๆ เพราะ... 365 00:17:21,167 --> 00:17:23,628 ผมตื่นเต้นที่จะได้คุยกับคุณ ด้วยเหตุผลหลายอย่าง 366 00:17:23,711 --> 00:17:26,839 แต่เราได้ล้วงลึกเรื่องปัญญาประดิษฐ์ 367 00:17:26,923 --> 00:17:29,258 พยายามคิดว่ามันคืออะไร มันกำลังไปในทิศทางไหน 368 00:17:29,342 --> 00:17:34,680 คุณมีอิทธิพลกับคนอย่างอีลอน มัสก์ และบิล เกตส์ 369 00:17:37,016 --> 00:17:40,853 มันเป็นอิทธิพลที่น่าทึ่งทีเดียว 370 00:17:42,021 --> 00:17:45,691 ผมอยู่ที่มหาวิทยาลัยอ็อกซ์ฟอร์ด เพื่อพบกับดร.นิค บอสตรอม 371 00:17:45,775 --> 00:17:48,986 และเนื่องจากเขาไม่ชอบโอ้อวด ผมจะทำเอง 372 00:17:51,489 --> 00:17:55,201 เขาเป็นหนึ่งในกำลังสำคัญที่สุด ในเรื่องสุดยอดปัญญาเครื่องจักร 373 00:17:55,284 --> 00:17:59,205 และความเสี่ยงของการที่มีมันและ นักเขียนหนังสืออ่านริมชายหาด 374 00:17:59,705 --> 00:18:00,957 ผมรู้สึกโชคดีที่ได้เจอเขา 375 00:18:01,040 --> 00:18:03,584 เพราะนิคยุ่งกับการเลียนแบบ การทำงานประสาทของเขาเอง 376 00:18:03,668 --> 00:18:05,419 ซึ่งเขาแค่ต้องสละเวลา หนึ่งชั่วโมงต่อเดือน 377 00:18:05,503 --> 00:18:07,338 เพื่อตอบคำถามเรื่องงานวิจัยของเขา 378 00:18:10,925 --> 00:18:14,262 มีการพูดคุยเรื่องเอไอเยอะมาก 379 00:18:14,345 --> 00:18:17,014 เช่น "หุ่นยนต์จะครองโลก 380 00:18:17,098 --> 00:18:18,850 "และจะเป็นจุดจบ ของมนุษยชาติหรือเปล่า" 381 00:18:18,933 --> 00:18:21,310 ผมอยากรู้ว่าถ้าไม่จัดการให้ดี 382 00:18:21,394 --> 00:18:24,564 มีความเป็นไปได้ที่เอไอจะทำร้ายเรา 383 00:18:24,647 --> 00:18:28,484 หรืออาจกำจัดมนุษยชาติไปเลย อย่างที่เรารู้ไหม 384 00:18:28,568 --> 00:18:29,902 ในระยะยาว 385 00:18:29,986 --> 00:18:33,114 ถ้าเรากำลังคิดถึงสิ่งที่เกิดขึ้นจริงๆ ถ้าเอไอประสบผลสำเร็จ 386 00:18:33,197 --> 00:18:36,951 และสามารถเลียนแบบเหมือนปัญญาทั่วไป 387 00:18:37,034 --> 00:18:38,828 ที่ทำให้เราเป็นมนุษย์ได้ งั้นคำตอบก็คือใช่ 388 00:18:38,911 --> 00:18:42,748 ผมคิดว่าในบริบทนั้น มีความเสี่ยงสูงกว่า 389 00:18:42,832 --> 00:18:44,125 รวมไปถึงความเสี่ยงต่อการดำรงอยู่ 390 00:18:45,585 --> 00:18:48,421 ถ้าเราคิดถึงบางสิ่งเช่น รถขับตัวเอง 391 00:18:48,504 --> 00:18:49,797 รถอูเบอร์ขับตัวเองฆ่าคนเดินถนน ในรัฐแอริโซนา ถิ่นของหุ่นยนต์ 392 00:18:49,881 --> 00:18:51,549 อาจชนคนเดินถนนได้ 393 00:18:51,632 --> 00:18:53,342 มีความกังวลเรื่องความเป็นส่วนตัว 394 00:18:53,426 --> 00:18:56,095 การใช้อาวุธเหล่านี้ในทางทหาร 395 00:18:57,847 --> 00:18:59,307 ทั้งหมดเป็นเรื่องน่ากังวลจริง 396 00:18:59,390 --> 00:19:02,184 แต่ถึงจุดหนึ่ง จะมีคำถามว่า 397 00:19:02,268 --> 00:19:04,687 เรามีผลกับสมองดิจิทัล ที่เราสร้างขึ้นนี้อย่างไร 398 00:19:04,770 --> 00:19:09,066 พวกมันเองอาจมีศีลธรรมอยู่ในตัว ประมาณหนึ่ง 399 00:19:09,525 --> 00:19:11,152 และถ้าเรากรอเทปไปข้างหน้า 400 00:19:11,235 --> 00:19:15,031 ถ้าเราคิดว่าที่สุดแล้ว อะไรคือชะตาของมนุษย์ 401 00:19:15,114 --> 00:19:18,534 อนาคตอันยาวไกลอาจถูกครอบงำ ด้วยปัญญาเครื่องจักรก็ได้ 402 00:19:18,618 --> 00:19:21,996 มันเป็นไปได้ที่มนุษย์จะสูญพันธุ์ 403 00:19:23,414 --> 00:19:26,250 พลังยิ่งใหญ่เหล่านี้มักมาพร้อมความเสี่ยง 404 00:19:26,834 --> 00:19:30,755 ซึ่งอาจเกิดจากอุบัติเหตุ หรือการตั้งใจใช้ผิดวิธี 405 00:19:30,838 --> 00:19:33,466 ใช้ก่อให้เกิดการทำลายล้าง 406 00:19:35,885 --> 00:19:37,595 ฉะนั้นผมคิดว่าทั้งหมดเป็นไปได้ 407 00:19:37,678 --> 00:19:39,305 และถ้าเราคิดในระยะไกลขึ้น 408 00:19:39,388 --> 00:19:41,182 ผลอาจดีมากๆ 409 00:19:41,265 --> 00:19:43,726 หรือไม่ดีมากๆ ก็ได้ 410 00:19:46,354 --> 00:19:48,731 โอเค ความเป็นไปได้พวกนั้นฟังดูน่ากลัว 411 00:19:49,732 --> 00:19:51,609 แต่จากผลที่เป็นไปได้ทั้งหมด 412 00:19:51,692 --> 00:19:55,821 นิคเชื่อว่าความเป็นไปได้ ของโลกาวินาศเพราะเอไอ 413 00:19:55,905 --> 00:19:57,114 จะเป็นด้านเศรษฐกิจ 414 00:19:57,198 --> 00:19:59,450 ถ้าเราคิดถึงเทคโนโลยีโดยทั่วไป 415 00:19:59,533 --> 00:20:02,828 ว่าเป็นไอเดียที่เราสามารถทำได้เยอะขึ้น ด้วยทรัพยากรน้อยลง 416 00:20:02,912 --> 00:20:06,123 เราได้สิ่งที่ต้องการมากขึ้น ด้วยความพยายามที่น้อยลง 417 00:20:06,207 --> 00:20:07,750 ด้วยเหตุผลนี้ เป้าหมาย 418 00:20:07,833 --> 00:20:09,418 คือการว่างงานทั้งหมดใช่ไหม 419 00:20:10,294 --> 00:20:12,380 เพื่อให้สามารถใช้เครื่องจักร และเทคโนโลยี 420 00:20:12,463 --> 00:20:15,341 ทำทุกอย่างที่ต้องทำ เราจะได้ไม่ต้องทำงาน 421 00:20:15,424 --> 00:20:17,301 และผมคิดว่ามันเป็นเป้าหมายสูงสุด ที่เป็นที่ต้องการ 422 00:20:17,385 --> 00:20:19,553 มันไม่ใช่เรื่องเลวร้ายอะไร ที่เราจำเป็นต้องป้องกัน 423 00:20:19,637 --> 00:20:20,680 มันเป็นสิ่งที่เราต้องตระหนักเท่านั้นเอง 424 00:20:20,763 --> 00:20:22,932 เพื่อทำให้เรื่องนั้นเป็นดินแดนในอุดมคติ 425 00:20:23,015 --> 00:20:25,601 มีความท้าทายยิ่งใหญ่ สองสามอย่างระหว่างทาง 426 00:20:25,685 --> 00:20:27,061 ซึ่งจำเป็นต้องจัดการก่อน 427 00:20:28,187 --> 00:20:30,815 เรื่องแรกแน่นอนคือปัญหาทางเศรษฐกิจ 428 00:20:30,898 --> 00:20:33,567 เหตุผลหนึ่งที่คนเราต้องทำงาน คือเราต้องการเงิน 429 00:20:33,651 --> 00:20:35,653 ถ้าเราแก้ปัญหาเศรษฐกิจนั้นได้ 430 00:20:35,736 --> 00:20:37,571 ผมคิดว่ามีปัญหาใหญ่เรื่องที่สอง 431 00:20:37,655 --> 00:20:41,409 ซึ่งสำหรับหลายคน มันเป็นเรื่องของศักดิ์ศรี 432 00:20:41,492 --> 00:20:43,786 หลายคนพบคุณค่าของตัวเอง 433 00:20:43,869 --> 00:20:47,081 ตอนเป็นหัวหน้าครอบครัว หรือทำประโยชน์ ให้สังคม คืนกลับบ้าง 434 00:20:47,164 --> 00:20:49,583 แต่ถ้าเครื่องจักรทำทุกอย่างได้ดีกว่าที่เราทำ 435 00:20:49,667 --> 00:20:53,796 งั้นเราจะไม่มีโอกาส ทำประโยชน์อะไรเลยใช่ไหม 436 00:20:53,879 --> 00:20:58,175 ผมว่าเราคงจะต้อง คิดวัฒนธรรมพื้นฐานใหม่ 437 00:20:59,176 --> 00:21:01,095 โลกที่ไม่มีใครทำงาน 438 00:21:01,178 --> 00:21:02,930 ฟังดูไม่แย่เท่าไหร่ 439 00:21:05,057 --> 00:21:06,267 ผมเข้าใจแล้ว 440 00:21:09,854 --> 00:21:11,313 การใช้เวลากับเพื่อน 441 00:21:11,814 --> 00:21:14,942 ใช้ประโยชน์จากความเป็นมนุษย์ให้เต็มที่ 442 00:21:15,026 --> 00:21:19,321 ไม่ต้องปรับอุณหภูมิอ่างน้ำร้อน เพราะมันรู้ว่าผมชอบแบบไหน 443 00:21:20,114 --> 00:21:23,409 ปัญหาคือมันไม่ใช่อย่างที่เป็นมา ตามประวัติศาสตร์ 444 00:21:23,492 --> 00:21:26,537 การเกิดขึ้นของเครื่องจักร เคยเกิดขึ้นมาก่อน 445 00:21:26,620 --> 00:21:27,705 และครั้งก่อน 446 00:21:27,788 --> 00:21:30,666 มันไม่ได้สวยงามเลย 447 00:21:34,378 --> 00:21:35,421 ลอนดอน 448 00:21:35,504 --> 00:21:36,505 อังกฤษ 449 00:21:36,964 --> 00:21:41,093 ผมจะพบกับนักเศรษฐศาสตร์ นิค เซอร์นิก เพื่อดูว่ามันหน้าตาเป็นยังไง 450 00:21:41,177 --> 00:21:43,054 ครั้งก่อนที่เครื่องจักรแย่งงานของเรา 451 00:21:43,888 --> 00:21:46,015 และเราเจอกันที่เครื่องทอผ้า ด้วยเหตุผลบางอย่าง 452 00:21:46,432 --> 00:21:47,725 คุณจะทำเป็นอะไร 453 00:21:47,808 --> 00:21:50,311 ผมจะทำธงอนาธิปไตยอะไรแบบนั้น 454 00:21:50,394 --> 00:21:51,979 น่าสนใจ น่าตกใจ 455 00:21:54,315 --> 00:21:57,568 นิคมีปริญญาเอก จากวิทยาลัยเศรษฐศาสตร์ลอนดอน 456 00:21:58,027 --> 00:22:00,321 ในทางกลับกัน ผมไม่มี 457 00:22:01,530 --> 00:22:02,573 นอกจากนี้เขายังมีเจตนารมณ์อีกด้วย 458 00:22:02,656 --> 00:22:03,949 เร่งเจตนารมณ์ เพื่อการเมืองของคนเร่งรีบ 459 00:22:04,492 --> 00:22:07,703 มันเรียกร้องให้ทุกคนเร่ง ยุคของการนำเครื่องจักรมาใช้ 460 00:22:07,787 --> 00:22:09,830 ด้วยการทำลายสถาบันเก่าแก่ 461 00:22:12,458 --> 00:22:15,461 พูดง่ายๆ คือทำลายระบบทุนนิยมซะ 462 00:22:16,003 --> 00:22:17,254 ใช่ ไม่น่าจะได้เรื่อง 463 00:22:17,338 --> 00:22:19,632 ไม่มีทางที่ผมจะคุยเรื่องนี้กับคุณได้ 464 00:22:19,715 --> 00:22:21,550 ขอโทษที ผมขอ... ลืมเครื่องทอผ้าไปก่อน 465 00:22:22,093 --> 00:22:23,761 เรามาทำอะไรกันที่นี่ 466 00:22:24,637 --> 00:22:28,224 เครื่องทอผ้าเป็นเหมือนเอไอ ในช่วงปี 1800 467 00:22:28,307 --> 00:22:32,853 มันเป็นเทคโนโลยีใหม่ ซึ่งเป็นภัยต่องานจำนวนมาก 468 00:22:33,270 --> 00:22:37,233 และมันก่อให้เกิดปฏิกิริยาหลากหลาย จากคนงาน 469 00:22:37,316 --> 00:22:39,360 เช่น การลุกฮือของพวกลัดไดตส์ 470 00:22:39,443 --> 00:22:41,487 สมัยนี้เราใช้คำนี้ "ลัดไดตส์" 471 00:22:41,570 --> 00:22:44,031 เพื่อหมายถึงคนที่เกลียดเทคโนโลยี 472 00:22:44,532 --> 00:22:45,950 จริงๆ มันไม่ใช่อย่างนั้น 473 00:22:46,700 --> 00:22:48,119 ลัดไดตส์ตั้งชื่อตามเนด ลัดด์ 474 00:22:48,202 --> 00:22:49,036 เนด ลัดด์ เด็กฝึกงาน 475 00:22:49,120 --> 00:22:51,122 เด็กฝึกงานคนหนึ่งในโรงงานทอผ้า 476 00:22:51,205 --> 00:22:53,958 ซึ่งตำนานบอกไว้ว่าถูกเฆี่ยนเพราะนั่งว่าง 477 00:22:54,041 --> 00:22:56,502 เขาพูดว่า "เพื่อน ฉันว่าง 478 00:22:56,585 --> 00:22:59,338 "เพราะฉันถูกเครื่องทอผ้าแย่งงานไปแล้ว เข้าใจไหม" 479 00:22:59,421 --> 00:23:03,008 และเขากลายเป็นคนแรก ที่โกรธแค้นเครื่องจักร 480 00:23:03,092 --> 00:23:05,010 ทำให้เกิดการเคลื่อนไหว 481 00:23:06,262 --> 00:23:10,349 ลัดไดตส์ตั้งใจทำลายเครื่องจักร เพื่อรักษางานของพวกเขาไว้ 482 00:23:10,432 --> 00:23:12,810 ผมคิดว่า มันเป็นสิ่งที่เราเห็นได้กับเอไอในวันนี้ 483 00:23:12,893 --> 00:23:15,771 คนมีความรู้สึกว่าถูกคุกคามแบบเดียวกัน 484 00:23:15,855 --> 00:23:19,483 คุณรู้ไหมว่าจะมีงานกี่ตำแหน่งที่จะเสียไป หรือจะถูกทดแทน 485 00:23:19,567 --> 00:23:21,986 47 เปอร์เซ็นต์ของงานในอเมริกา 486 00:23:22,069 --> 00:23:24,822 อาจจะถูกแทนด้วยเครื่องจักร ในสองทศวรรษข้างหน้า 487 00:23:24,905 --> 00:23:26,615 ฟังดูเป็นปัญหาจริงๆ นะ 488 00:23:26,699 --> 00:23:27,992 มันอาจเป็นปัญหาใหญ่ได้ 489 00:23:28,075 --> 00:23:31,662 ปัญหาที่แท้จริงคือเราจะมั่นใจได้ยังไงว่า อีกห้าปี สิบปีข้างหน้า 490 00:23:31,745 --> 00:23:33,998 คนจะไม่ถูกทิ้งให้หิวตายหรือไร้บ้าน 491 00:23:34,081 --> 00:23:35,166 เราจะทำอย่างนั้นได้ยังไง 492 00:23:35,457 --> 00:23:36,959 การจ่ายเงินเดือนให้ทุกคนในโลก หรือยูบีไอ 493 00:23:38,210 --> 00:23:40,754 การจ่ายเงินเดือนให้ทุกคนในโลก เป็นความคิดสุดโต่ง 494 00:23:40,880 --> 00:23:43,424 ที่ทุกคนในสังคมจะได้เงินฟรี 495 00:23:43,507 --> 00:23:45,092 โดยไม่มีเงื่อนไข 496 00:23:45,176 --> 00:23:47,178 มีคนระดับสูงบางคนเห็นด้วยกับมัน 497 00:23:47,636 --> 00:23:50,347 เราควรศึกษาไอเดีย อย่างการจ่ายเงินเดือนให้ทุกคน 498 00:23:50,431 --> 00:23:53,142 เพื่อให้แน่ใจว่าทุกคนสบายใจ ที่จะลองไอเดียใหม่ๆ 499 00:23:53,225 --> 00:23:56,145 บางประเทศและ แม้แต่บางเมืองในอเมริกา 500 00:23:56,228 --> 00:23:58,189 เคยลองโปรแกรมนำร่องมาแล้ว แต่ผลต่างกันออกไป 501 00:23:58,272 --> 00:23:59,982 ฟินแลนด์ยกเลิกการทดลอง การจ่ายเงินเดือนอันโด่งดัง 502 00:24:00,858 --> 00:24:03,861 ผมคิดว่ามีโอกาสอันน่าทึ่ง กับเทคโนโลยีใหม่เหล่านี้ 503 00:24:03,944 --> 00:24:06,447 ที่จะเปลี่ยนวิธีที่เราจัดระเบียบสังคม 504 00:24:06,530 --> 00:24:09,408 เราอาจก้าวไปสู่ ระบบสังคมประชาธิปไตยมากขึ้น 505 00:24:10,117 --> 00:24:13,454 มันไม่ต้องเป็นระบบสุดโต่ง อย่างที่อเมริกามี 506 00:24:13,537 --> 00:24:15,331 และทุกคนส่งเสริมกันและกันได้ 507 00:24:15,414 --> 00:24:19,418 ถ้าคนอย่างผมเริ่มเสนอ แนวคิดด้านบวกพวกนี้ออกไปได้ 508 00:24:19,919 --> 00:24:21,587 ผมคิดว่าเมื่อเกิดวิกฤติขึ้นจริง 509 00:24:21,670 --> 00:24:23,380 เราเริ่มนำไอเดียเหล่านี้มาใช้ได้ 510 00:24:24,173 --> 00:24:27,343 ยูบีไอเคยถูกเข้าใจว่าเป็นเงินสวัสดิการ 511 00:24:27,426 --> 00:24:30,930 ที่ส่วนใหญ่แล้วได้รับการสนับสนุนโดย คนที่เขียนประกาศเจตนารมณ์อย่างนิค 512 00:24:31,639 --> 00:24:33,891 แต่จากการสำรวจมติมหาชนในปี 2017 513 00:24:33,974 --> 00:24:37,603 คนอเมริกัน 48 เปอร์เซ็นต์ สนับสนุนยูบีไอในบางรูปแบบ 514 00:24:38,520 --> 00:24:40,231 แต่เงินเดือนแน่นอนเพียงพอหรือไม่ 515 00:24:40,314 --> 00:24:41,982 ที่จะหยุดมนุษย์ไม่ให้ลุกฮือขึ้นมา 516 00:24:42,066 --> 00:24:43,734 เมื่อหุ่นยนต์มาแย่งงานของเรา 517 00:24:44,735 --> 00:24:45,611 ลัดไดตส์ 518 00:24:45,694 --> 00:24:48,572 - เราเกลียดอะไร - ปัญญาประดิษฐ์ 519 00:24:48,656 --> 00:24:50,032 ทำไมเราถึงเกลียดมัน 520 00:24:50,115 --> 00:24:53,160 มันบังคับให้เราเผชิญหน้า กับความอ่อนแอของเราเอง 521 00:24:53,244 --> 00:24:55,955 เพราะเหตุนี้ ฉันอยากเรียกการประชุมนี้ว่าลัดไดตส์ 522 00:24:56,038 --> 00:24:58,958 หรือสหภาพท้องถิ่น ของคนที่ปฏิเสธปัญญาประดิษฐ์ 523 00:24:59,041 --> 00:25:00,834 โดยเฉพาะสื่อโซเชียล 524 00:25:01,835 --> 00:25:02,836 คำสั่งแรก 525 00:25:03,337 --> 00:25:06,340 ปัญญาประดิษฐ์ทำให้การว่างงานเพิ่มขึ้น 526 00:25:06,423 --> 00:25:09,260 งานระดับกลางไปก่อนใคร 527 00:25:09,885 --> 00:25:11,720 คนอย่างเรากับงานเหล่านี้ 528 00:25:11,804 --> 00:25:14,473 จะถูกดันให้ไปทำงานที่ไม่ต้องใช้ความรู้ 529 00:25:14,974 --> 00:25:16,558 ทำไมมันถึงเป็นอย่างนั้น เอ็ด 530 00:25:16,642 --> 00:25:21,105 เอไอเก่งในงานระดับกลาง เช่น การคิดเลข 531 00:25:21,188 --> 00:25:24,400 มากกว่างานระดับล่าง เช่น การกวาดพื้น 532 00:25:24,483 --> 00:25:26,277 ดังนั้นมันจะทิ้งงานพวกนั้นไว้ให้เรา 533 00:25:26,735 --> 00:25:28,028 ทีนี้ฉันขอถามพวกนายว่า 534 00:25:28,112 --> 00:25:29,655 ใครในที่นี้นอกจากบิล 535 00:25:29,738 --> 00:25:32,199 ควรต้องไปกวาดพื้นบ้าง ไม่ได้ว่ากันนะ บิล 536 00:25:33,325 --> 00:25:35,786 แล้วยังมีงานขายปลีกน้อยลงด้วย 537 00:25:35,869 --> 00:25:38,622 คนแค่ออนไลน์ แล้วสั่งของที่เขาต้องการได้เลย 538 00:25:39,164 --> 00:25:41,583 เพราะไอ้เวรเอไอนั่น 539 00:25:41,667 --> 00:25:43,919 แก้ปัญหาเรื่องการค้นหาและการจับคู่ได้ 540 00:25:44,378 --> 00:25:46,755 การค้นหาลูกค้าและจับคู่พวกเขากับสินค้า 541 00:25:46,839 --> 00:25:49,383 เช่น เวลาสตีฟหาวิกผม ที่เหมาะกับหัวของเขา 542 00:25:49,466 --> 00:25:50,426 ปัญหาใหญ่ 543 00:25:51,969 --> 00:25:53,721 มุกเก่าไว้เล่นทีหลัง 544 00:25:54,346 --> 00:25:56,890 เอไอทำให้เรื่องแบบนี้ง่ายขึ้น 545 00:25:56,974 --> 00:25:59,643 เด็กทุกวันนี้หาคู่กับสาวสวยจากโทรศัพท์ 546 00:25:59,727 --> 00:26:01,937 - ระหว่างนั่งส้วมอยู่ก็ได้ - ใช่ 547 00:26:02,021 --> 00:26:04,064 - ส้วมเคยเป็นเขตหวงห้าม - ใช่ 548 00:26:04,773 --> 00:26:07,568 และแน่นอน การค้นหาและจับคู่ จะสร้างงานเฉพาะทาง 549 00:26:07,651 --> 00:26:10,279 แต่ถ้าหุ่นยนต์เวรเป็นคนเลือกว่า ใครจะได้งานนั้นไป 550 00:26:10,362 --> 00:26:11,739 สะดวกโยธินละทีนี้ 551 00:26:12,489 --> 00:26:14,700 บริษัทกำลังใช้เอไอหาพนักงาน 552 00:26:14,783 --> 00:26:16,869 ที่มีความเชี่ยวชาญพิเศษ 553 00:26:16,952 --> 00:26:18,287 มันไม่มีความเป็นมนุษย์เลย 554 00:26:18,370 --> 00:26:19,705 เหมือน กับเดฟ 555 00:26:20,080 --> 00:26:21,332 ใช่ เดฟหายหัวไปไหน 556 00:26:21,415 --> 00:26:24,251 เอไอที่มีหน้าที่จับคู่งาน เห็นว่าเขาเคยทำงานที่เฟดเอ็กซ์ 557 00:26:24,335 --> 00:26:27,087 แล้วเคยมียูทูบสอนการโกนขนที่หลัง 558 00:26:27,171 --> 00:26:30,716 ตอนนี้เขามีรายได้หกหลัก ที่บริษัทมีดโกนซึ่งรับสมาชิกประจำ 559 00:26:30,799 --> 00:26:33,093 เขาเพิ่งปลดตัวเอง ออกจากทีมโบว์ลิงของเรา 560 00:26:33,177 --> 00:26:34,094 ใช่ 561 00:26:34,178 --> 00:26:36,513 นี่ เอ็ด ฉันเพิ่งได้รับการแจ้งเตือน ว่าเสื้อยืดของเรา 562 00:26:36,597 --> 00:26:38,766 กำลังขายด้วย โฆษณาเฉพาะกลุ่มบนเฟซบุ๊ก 563 00:26:38,849 --> 00:26:41,602 นายกำลังใช้เอไอหาเงิน จากคนที่เกลียดเอไอเหรอ 564 00:26:41,685 --> 00:26:43,479 เปล่า 565 00:26:44,897 --> 00:26:46,023 นายจะเชื่อใคร 566 00:26:46,106 --> 00:26:48,859 ฉันหรือไอ้เอไอ ที่พยายามสร้างความร้าวฉานให้เรา 567 00:26:49,902 --> 00:26:52,363 - พวกเราเกลียดอะไร - ปัญญาประดิษฐ์ 568 00:26:52,446 --> 00:26:54,698 - แล้วเราจะทำยังไงกับมันดี - เรากำลังคิดอยู่ 569 00:26:56,075 --> 00:26:57,201 อย่างน้อยก็ได้เริ่ม 570 00:26:59,912 --> 00:27:01,914 ซานฟรานซิสโก 571 00:27:02,748 --> 00:27:06,168 การปฏิวัติเอไอ ทำให้ต้องเลือกระหว่างเรากับมันด้วยหรือ 572 00:27:07,086 --> 00:27:10,672 เจ้าของกิจการผู้รักเทคโนโลยี อย่างหลุยส์ โรเซนเบิร์กบอกว่าไม่ต้อง 573 00:27:10,964 --> 00:27:13,342 และเขาสร้างอาชีพ จากการคาดเดาอนาคตมาแล้ว 574 00:27:18,514 --> 00:27:20,599 ผมพยายามทำให้คุณตกใจ แต่มันไม่ได้ผล 575 00:27:21,558 --> 00:27:24,478 หลุยส์เป็นนักเทคโนโลยีและนักประดิษฐ์ 576 00:27:24,561 --> 00:27:27,689 ที่เป็นคนเขียนนิยายกราฟิก เกี่ยวกับการจบสิ้นมนุษยชาติ 577 00:27:27,773 --> 00:27:31,276 แต่เขาคิดว่าเรามีอนาคตร่วมกับเอไอ ซึ่งมันเป็นเรื่องของการทำงานร่วมกัน 578 00:27:31,360 --> 00:27:34,113 มันเป็นหลักการชี้นำ เบื้องหลังสิ่งประดิษฐ์ของเขา 579 00:27:34,196 --> 00:27:35,989 เทคโนโลยีที่เรียกว่าสวอร์ม 580 00:27:36,073 --> 00:27:37,074 สวอร์มเอไอคืออะไร 581 00:27:37,157 --> 00:27:40,077 สวอร์มรวมความสามารถ ในการวิเคราะห์ข้อมูลของเอไอ 582 00:27:40,160 --> 00:27:44,415 เข้ากับความรู้และสัญชาตญาณของมนุษย์ เพื่อสร้างสุดยอดปัญญาประดิษฐ์ 583 00:27:44,498 --> 00:27:47,709 สิ่งที่อยู่ระหว่างสตีเฟน ฮอว์คิง และศาสตราจารย์เอ็กซ์ 584 00:27:47,793 --> 00:27:49,044 รถขับตัวเองควรทำอะไรได้บ้าง 585 00:27:49,128 --> 00:27:50,754 ท้ายสุดแล้วมันขึ้นอยู่กับธรรมชาติ 586 00:27:50,838 --> 00:27:51,964 หลุยส์ โรเซนเบิร์ก ซีอีโอ ยูแนนิมัส เอไอ 587 00:27:52,047 --> 00:27:54,591 ผมพูดได้แค่ว่า มันย้อนกลับไปเรื่องนกและผึ้ง 588 00:27:54,675 --> 00:27:57,970 เพราะมันขึ้นอยู่กับปรากฏการณ์ที่เรียกว่า "ความฉลาดแบบกลุ่ม" 589 00:27:58,053 --> 00:27:58,887 โอเค 590 00:27:58,971 --> 00:28:03,392 ความฉลาดแบบกลุ่ม คือเหตุผลที่นก ปลา และผึ้งรวมฝูง 591 00:28:03,475 --> 00:28:06,520 พวกมันฉลาดเวลาอยู่รวมกัน มากกว่าอยู่ตัวเดียว 592 00:28:06,603 --> 00:28:09,398 และนั่นคือเหตุผล ที่เวลาเราเห็นฝูงปลาว่ายไปมา 593 00:28:09,481 --> 00:28:11,900 นักชีววิทยาจะเรียกมันว่า "สุดยอดระบบสิ่งมีชีวิต" 594 00:28:11,984 --> 00:28:13,735 พวกมันคิดรวมกันเป็นฝูง 595 00:28:13,819 --> 00:28:16,029 และถ้าเราเชื่อมโยงคนด้วยกันได้ 596 00:28:16,113 --> 00:28:18,407 โดยใช้อัลกอริธึมปัญญาประดิษฐ์ 597 00:28:18,490 --> 00:28:21,743 เราทำให้คนมีพฤติกรรม แบบสุดยอดผู้เชี่ยวชาญได้ 598 00:28:21,827 --> 00:28:23,328 เพราะความฉลาดแบบกลุ่ม 599 00:28:23,412 --> 00:28:24,705 เทคโนโลยีนี้ทำงานยังไง 600 00:28:24,788 --> 00:28:27,249 สิ่งที่เราทำคือเรารวมคนเป็นกลุ่ม 601 00:28:27,332 --> 00:28:28,709 พวกเขาจะอยู่ที่ไหนก็ได้ในโลก 602 00:28:28,792 --> 00:28:30,377 แล้วเราก็ให้คำถามพวกเขาหนึ่งข้อ 603 00:28:30,461 --> 00:28:32,880 ซึ่งจะโผล่ขึ้นมาบนจอของพวกเขาทั้งหมด ในเวลาเดียวกัน 604 00:28:32,963 --> 00:28:35,299 แล้วเราก็ให้อินเตอร์เฟซเฉพาะ กับพวกเขา 605 00:28:35,382 --> 00:28:37,593 ซึ่งทำให้พวกเขาส่งคำตอบมาได้ 606 00:28:37,676 --> 00:28:39,261 และจะมีทางเลือกหลากหลาย 607 00:28:39,344 --> 00:28:41,638 เราไม่ได้แค่ทำโพลหรือการสำรวจ 608 00:28:41,722 --> 00:28:44,975 แต่ละคนมีสิ่งที่ดูเหมือนรูปแม่เหล็กเล็กๆ 609 00:28:45,058 --> 00:28:48,353 พวกเขาใช้แม่เหล็กดึงกลุ่ม ไปในทิศทางหนึ่ง 610 00:28:48,437 --> 00:28:51,440 และเรามีอัลกอริธึมเอไอ ซึ่งเฝ้าดูพฤติกรรมของพวกเขาอยู่ 611 00:28:51,857 --> 00:28:55,652 และมันจะบ่งชี้ระดับความมั่นใจ และความเชื่อมั่นที่แตกต่างกัน 612 00:28:55,736 --> 00:28:57,905 มันจะหาว่าอะไรคือจุดตรงกลางที่ดีที่สุด 613 00:28:57,988 --> 00:29:01,325 ของความเห็นทั้งหมดของพวกเขา ประสบการณ์ทั้งหมดของพวกเขา 614 00:29:01,408 --> 00:29:04,203 แล้วกลุ่มก็เริ่มขยับไปในทิศทางนั้น 615 00:29:04,286 --> 00:29:06,121 และบรรจบที่คำตอบหนึ่งเดียว 616 00:29:06,205 --> 00:29:07,331 ผมจะยกตัวอย่างสนุกๆ ให้ดู 617 00:29:07,414 --> 00:29:10,167 เมื่อปีก่อนเราถูกท้า ให้เดาการแข่งม้าเคนทักกี เดอร์บี 618 00:29:10,584 --> 00:29:13,962 และพวกเขาออกตัว ในการแข่งขันเคนทักกี เดอร์บีแล้ว 619 00:29:14,046 --> 00:29:16,715 เรามีแฟนการแข่งม้า 20 คน 620 00:29:16,798 --> 00:29:18,675 และเราพูดว่า "เราจะต้องทำงานด้วยกันเป็นกลุ่ม 621 00:29:18,759 --> 00:29:20,219 "และเราจะคาดเดา การแข่งขันเคนทักกี เดอร์บี 622 00:29:20,302 --> 00:29:23,472 "ไม่เพียงแค่ผู้ชนะ อันดับที่หนึ่ง สอง สาม และสี่ด้วย" 623 00:29:24,014 --> 00:29:26,475 เราให้พวกเขารวมเป็นคำตอบเหล่านี้ 624 00:29:26,934 --> 00:29:28,143 และกลุ่มนั้นตอบตรงทั้งหมด 625 00:29:28,227 --> 00:29:30,062 ผลการแข่งเคนทักกี เดอร์บีปี 2016 626 00:29:30,145 --> 00:29:33,315 ใครก็ตามที่เดิมพันยี่สิบดอลลาร์ ในม้าทั้งสี่ตัวนี้ 627 00:29:33,398 --> 00:29:35,067 ได้เงินรางวัล 11,000 ดอลลาร์ 628 00:29:35,150 --> 00:29:36,068 พระเจ้าช่วย 629 00:29:36,151 --> 00:29:39,071 และสิ่งที่น่าสนใจคือ ถ้าเราดูคนทั้งยี่สิบทีละคน 630 00:29:39,154 --> 00:29:42,741 ไม่มีคนไหนเลยที่เลือกม้าทั้งสี่อย่างถูกต้อง 631 00:29:43,742 --> 00:29:47,079 ถ้าพวกเขาใช้วิธีลงคะแนน จะตอบถูกแค่ตัวเดียว 632 00:29:47,162 --> 00:29:49,206 แต่เมื่อพวกเขาทำงานด้วยกันเป็นกลุ่ม 633 00:29:49,289 --> 00:29:52,251 พวกเขาพบการผสมผสานที่ลงตัว ของความเห็นที่แตกต่างทั้งหมด 634 00:29:52,334 --> 00:29:54,127 และในกรณีนี้ คำตอบถูกทั้งหมด 635 00:29:56,046 --> 00:29:58,507 หลุยส์ชวนผมไปเป็นผู้นำกลุ่ม 636 00:29:58,590 --> 00:30:00,467 เพื่อดูว่ากลุ่มคนที่ไหนก็ไม่รู้ 637 00:30:00,551 --> 00:30:02,803 จะรวมตัวกันคาดเดาได้ยังไง 638 00:30:02,886 --> 00:30:04,555 เราจะเริ่มด้วยเรื่องง่ายๆ ก่อน 639 00:30:05,764 --> 00:30:08,433 โอเค ผมจะอ่านคำถามชุดหนึ่ง 640 00:30:08,517 --> 00:30:12,020 และคุณมีเวลา 60 วินาทีที่จะตอบแต่ละข้อ 641 00:30:12,354 --> 00:30:13,522 คำถามแรก 642 00:30:13,605 --> 00:30:16,525 หนังฤดูร้อนปี 2018 เรื่องไหน 643 00:30:16,608 --> 00:30:17,985 จะทำรายได้สูงสุด 644 00:30:18,402 --> 00:30:20,320 ฮาน โซโล ตำนานสตาร์วอร์ส 645 00:30:20,404 --> 00:30:22,281 เดดพูลภาคสอง โอเชียนแปด 646 00:30:22,364 --> 00:30:24,116 จูราสสิก เวิลด์ อาณาจักรล่มสลาย 647 00:30:24,199 --> 00:30:25,742 หรือ รวมเหล่ายอดคนพิทักษ์โลกภาคสอง 648 00:30:26,076 --> 00:30:28,328 เราถ่ายทำสวอร์มกลุ่มนี้ ในฤดูใบไม้ผลิปี 2018 649 00:30:28,412 --> 00:30:31,498 ก่อนข้อมูลหนังฤดูร้อนจะออกมา 650 00:30:31,957 --> 00:30:35,961 เอไอกำลังเฝ้าดู เพื่อรับรู้ระดับความมั่นใจที่หลากหลาย 651 00:30:36,044 --> 00:30:39,381 บางคนกำลังเปลี่ยนคำตอบ บางคนอยู่กับที่ 652 00:30:39,840 --> 00:30:41,592 และอัลกอริธึมเอไอกำลังดู 653 00:30:41,675 --> 00:30:43,218 ระดับความเชื่อมั่นที่ต่างกันของพวกเขา 654 00:30:43,594 --> 00:30:45,137 และกำลังปล่อยให้มันหาทาง 655 00:30:45,220 --> 00:30:47,681 ไปสู่คำตอบซึ่งทุกคนเห็นด้วยได้มากที่สุด 656 00:30:48,640 --> 00:30:49,558 กลุ่มตอบว่า รวมเหล่ายอดคนพิทักษ์โลกภาคสอง 657 00:30:49,641 --> 00:30:51,893 โอเค รวมเหล่ายอดคนพิทักษ์โลกภาคสอง 658 00:30:51,977 --> 00:30:52,811 ตารางหนังทำเงินในฤดูร้อนปี 2018 659 00:30:52,894 --> 00:30:53,854 พวกเขาคิดถูก 660 00:30:53,937 --> 00:30:56,565 รวมเหล่ายอดคนพิทักษ์โลกภาคสอง เป็นหนังทำเงินสูงสุดในฤดูร้อนนั้น 661 00:30:57,774 --> 00:30:59,526 การใช้งานที่น่าสนใจจริงๆ ทางหนึ่ง 662 00:30:59,610 --> 00:31:02,738 คือการดูคำถามที่เกี่ยวกับศีลธรรม 663 00:31:02,821 --> 00:31:05,365 และเรื่องนี้เพิ่งเกิดขึ้นไม่นานมานี้ เพราะรถขับตัวเอง 664 00:31:05,449 --> 00:31:09,077 ตอนนี้มีการผลักดันให้สร้าง การตัดสินใจด้านศีลธรรม 665 00:31:09,161 --> 00:31:10,662 เข้าไปในรถขับตัวเองด้วย 666 00:31:10,746 --> 00:31:12,706 ซึ่งสำหรับบางคน ไม่น่าแปลกใจที่ได้ยินเรื่องนี้ 667 00:31:12,789 --> 00:31:16,126 แต่ถ้าคุณคิดว่ารถขับตัวเองจะอยู่บนถนน 668 00:31:16,209 --> 00:31:18,003 และเด็กตัวเล็กๆ คนหนึ่งวิ่งมาบนถนน 669 00:31:18,086 --> 00:31:19,921 สมมุติว่ารถหยุดไม่ได้ 670 00:31:20,005 --> 00:31:22,299 แต่มันอาจขับออกนอกถนนได้ 671 00:31:22,382 --> 00:31:24,468 และทำอันตรายผู้โดยสาร 672 00:31:24,551 --> 00:31:27,095 อาจทำให้ผู้โดยสารตาย แต่ช่วยเด็กคนนั้นไว้ได้ 673 00:31:27,554 --> 00:31:29,890 ดังนั้น ผู้ผลิตรถยนต์จึงพูดว่า 674 00:31:29,973 --> 00:31:33,226 เราจำเป็นต้องโปรแกรมศีลธรรม เข้าไปในรถเหล่านี้ 675 00:31:33,310 --> 00:31:35,437 ซึ่งเลียนแบบคนทั่วไป 676 00:31:35,520 --> 00:31:37,981 เลียนแบบสิ่งที่คนขับรถอย่างเราจะทำ 677 00:31:38,565 --> 00:31:40,609 มันฟังดูง่ายจนคุณตระหนักว่า 678 00:31:40,692 --> 00:31:43,570 อะไรคือศีลธรรมของคนเรา 679 00:31:43,654 --> 00:31:45,489 ไม่มีคำตอบง่ายๆ สำหรับคำถามนี้ 680 00:31:45,572 --> 00:31:48,533 และถ้าพวกเขาโปรแกรมศีลธรรม ซึ่งแทนพวกเราทุกวันนี้เข้าไป 681 00:31:48,617 --> 00:31:51,870 ศีลธรรมนั้นยังแทนพวกเรา อีก 20 ปีข้างหน้าหรือเปล่า 682 00:31:52,496 --> 00:31:56,041 คำถามต่อไป มีรถขับตัวเองที่เบรกแตกกะทันหัน 683 00:31:56,124 --> 00:31:58,377 ซึ่งกำลังขับผ่านทางม้าลาย 684 00:31:58,460 --> 00:32:00,170 และอาจจะส่งผลให้มีผู้เสียชีวิตหนึ่งคน 685 00:32:00,253 --> 00:32:04,299 ทางเลือกเอ คนที่จะตายกำลังข้ามถนนอย่างถูกกฎหมาย 686 00:32:04,675 --> 00:32:07,344 ทางเลือกบี รถขับตัวเองที่เบรกแตกกะทันหัน 687 00:32:07,427 --> 00:32:11,098 จะหักหลบแล้วพุ่งชนคนที่กำลังข้ามอยู่อีกเลน 688 00:32:11,181 --> 00:32:13,517 ซึ่งส่งผลให้นักกีฬาชายคนหนึ่งตาย 689 00:32:13,642 --> 00:32:16,186 ขณะฝ่าฝืนสัญญาณไฟ นี่เป็นการข้ามถนนอย่างผิดกฎหมาย 690 00:32:16,269 --> 00:32:19,564 นักกีฬาคนนี้ไม่สนใจอะไรเลย 691 00:32:20,065 --> 00:32:21,692 และเขากำลังข้ามถนนอย่างผิดกฎหมาย 692 00:32:21,775 --> 00:32:23,985 รถขับตัวเองควรทำอย่างไร 693 00:32:24,361 --> 00:32:26,655 ฆ่าคนน่าเบื่อที่ข้ามถนนอย่างถูกกฎหมาย 694 00:32:26,738 --> 00:32:29,032 หรือฆ่านักกีฬาซึ่งข้ามถนนอย่างผิดกฎหมาย 695 00:32:30,033 --> 00:32:32,869 ถ้าเอไอกำลังนำ การปฏิวัติอุตสาหกรรมครั้งใหม่มาให้ 696 00:32:32,953 --> 00:32:35,580 ห้องแบบนี้ก็คือแผนกใหม่ในโรงงาน 697 00:32:36,248 --> 00:32:37,958 ซึ่งแรงงานมนุษย์จัดหาสิ่งที่ 698 00:32:38,041 --> 00:32:40,460 เอไอไม่มีอยู่ในตัว 699 00:32:41,336 --> 00:32:42,421 จิตใต้สำนึกนั่นเอง 700 00:32:42,879 --> 00:32:44,131 มีการโต้แย้งมากมายในเรื่องนี้ 701 00:32:44,214 --> 00:32:45,966 มันน่าสนใจ ผมสงสัยจังว่าทำไม 702 00:32:46,299 --> 00:32:47,592 มันเป็นคำถามที่ยาก 703 00:32:47,676 --> 00:32:49,720 สำหรับผมไม่ยาก ถ้าคุณข้ามถนนอย่างผิดกฎหมาย 704 00:32:51,012 --> 00:32:52,180 กลุ่มตอบว่า บี (เห็นด้วยมากกว่านิดหน่อย) 705 00:32:52,264 --> 00:32:54,766 งั้นมีการเห็นด้วยมากกว่านิดหน่อย ว่าเราจะชน 706 00:32:54,850 --> 00:32:56,351 นักกีฬาชายที่ข้ามถนนอย่างผิดกฎหมาย 707 00:32:57,310 --> 00:33:00,021 ถ้าคุณคิดว่าข้อนั้นทำให้ลำบากใจแล้ว เตรียมตัวให้พร้อม 708 00:33:01,106 --> 00:33:03,567 เราอยากให้คุณจินตนาการ 709 00:33:04,025 --> 00:33:06,236 ความเป็นไปได้ที่เลวร้ายที่สุด 710 00:33:06,319 --> 00:33:09,072 ที่รถขับตัวเองเบรกไม่ทัน 711 00:33:09,531 --> 00:33:13,326 และต้องหักพวงมาลัยเข้าหา หนึ่งในคนเดินถนนหกคนนี้ 712 00:33:13,827 --> 00:33:15,620 เด็กทารกในรถเข็น 713 00:33:17,956 --> 00:33:19,541 หรือเด็กผู้ชายคนหนึ่ง 714 00:33:20,417 --> 00:33:22,252 หรือเด็กผู้หญิงคนหนึ่ง 715 00:33:23,295 --> 00:33:25,756 หรือผู้หญิงท้องคนหนึ่ง 716 00:33:27,299 --> 00:33:28,341 ใช่ไหมล่ะ 717 00:33:29,468 --> 00:33:31,636 หรือหมอผู้ชายสองคน 718 00:33:32,554 --> 00:33:34,473 หรือหมอผู้หญิงสองคน 719 00:33:34,973 --> 00:33:36,516 ใครต้องตาย 720 00:33:43,774 --> 00:33:45,025 พระเจ้า 721 00:33:45,692 --> 00:33:46,735 อะไรกัน 722 00:33:51,281 --> 00:33:52,365 ไม่เอาน่า 723 00:33:52,449 --> 00:33:53,950 พระเจ้า 724 00:33:54,034 --> 00:33:55,494 จริงเหรอ 725 00:33:57,704 --> 00:33:59,122 กลุ่มตอบว่า เด็กผู้ชายคนหนึ่ง 726 00:33:59,206 --> 00:34:01,374 คุณบอกว่ารถขับตัวเอง ควรชนเด็กผู้ชายคนนั้น 727 00:34:02,083 --> 00:34:03,168 น่าสนใจ 728 00:34:03,251 --> 00:34:06,338 ความฉลาดแบบกลุ่มที่เกิดขึ้นในห้องนี้วันนี้ 729 00:34:06,421 --> 00:34:10,008 สามารถขายให้บริษัทผลิตรถยนต์ขับเองได้ ในอนาคตอันใกล้ 730 00:34:10,425 --> 00:34:14,805 และถ้ามันฟังดูน่ากลัวสำหรับคุณแล้ว มีทางเลือกที่น่ากลัวน้อยกว่า 731 00:34:14,888 --> 00:34:17,641 เวลารถขับตัวเองจะเหยียบเบรก 732 00:34:17,724 --> 00:34:20,227 แล้วพบว่ามันหยุดไม่ทันก่อนชนคน 733 00:34:20,310 --> 00:34:23,188 รถคันนั้นควรปกป้อง ผู้โดยสารหรือคนเดินถนน 734 00:34:23,271 --> 00:34:27,275 หวังว่าผู้ผลิตรถจะโปรแกรมรถ 735 00:34:27,359 --> 00:34:30,737 ให้สะท้อนศีลธรรมของคนที่จะซื้อรถเหล่านี้ 736 00:34:30,821 --> 00:34:34,199 มุมมองที่ขัดแย้งน่าจะเป็นที่ว่าผู้ผลิตรถ 737 00:34:34,282 --> 00:34:38,286 เริ่มแข่งขันกันว่ารถของพวกเขา จะปกป้องผู้โดยสารได้ 738 00:34:38,370 --> 00:34:40,997 มากกว่ารถคันอื่น และนั่นจะเป็นจุดขายได้ 739 00:34:41,081 --> 00:34:42,666 ผมคิดว่ามันจะเป็นภาพที่แย่ 740 00:34:42,749 --> 00:34:45,293 ยิ่งกว่าเรื่องศีลธรรมของชุมชน 741 00:34:45,752 --> 00:34:47,295 โอ้โห มันเป็นความคิดที่น่ากลัวทีเดียว 742 00:34:47,587 --> 00:34:50,298 และเราอยากปิดรายการนี้ ด้วยสิ่งที่ให้พลังใจ 743 00:34:50,966 --> 00:34:52,384 หรืออาจล้ำเลิศด้วยซ้ำ 744 00:34:55,345 --> 00:34:58,682 ก่อนเราจะจินตนาการอนาคต ด้วยระดับ แกรนด์เธฟต์ออโต 745 00:34:58,765 --> 00:35:00,725 ของการไม่สนใจความปลอดภัยคนเดินถนน 746 00:35:00,809 --> 00:35:02,310 มาเดินทางนอกสถานที่ 747 00:35:02,394 --> 00:35:04,145 กลับไปจุดที่เราเริ่ม 748 00:35:04,563 --> 00:35:06,314 กอนเดีย 749 00:35:06,398 --> 00:35:07,315 อินเดีย 750 00:35:07,399 --> 00:35:08,608 ในป่าอินเดียอันห่างไกลนี้ 751 00:35:08,692 --> 00:35:11,820 เพื่อเก็บน้ำผึ้งสำหรับบริษัทที่ชื่อ เฮเวนลี ออร์แกนิกส์ 752 00:35:12,612 --> 00:35:14,906 ป่านี้ไม่มีเจ้าของ 753 00:35:14,990 --> 00:35:19,035 และชนพื้นเมืองอยู่ที่นี่มาแสนนาน 754 00:35:19,744 --> 00:35:22,038 พ่อและลูกชาย อามิตและอิชวาร์ ฮูดา 755 00:35:22,163 --> 00:35:24,291 ตั้งบริษัทของพวกเขาเมื่อ 12 ปีก่อน 756 00:35:24,374 --> 00:35:27,127 เป็นวิธีจ้างงานชาวบ้านในท้องถิ่น 757 00:35:27,210 --> 00:35:31,131 พวกเขาทำอะไรก่อนมาเก็บน้ำผึ้งกับบริษัทคุณ 758 00:35:31,214 --> 00:35:33,341 พวกเขาก็ทำอย่างนี้แหละ 759 00:35:34,092 --> 00:35:37,345 แต่พวกเขาแค่ไม่มีตลาดหรือที่จะขายมัน 760 00:35:37,470 --> 00:35:39,014 เพื่อหาเงินพอเลี้ยงตัวเอง 761 00:35:40,056 --> 00:35:42,392 ไม่มีการขาดแคลนน้ำผึ้งที่นี่แน่นอน 762 00:35:42,809 --> 00:35:44,102 ช่วงฤดูดอกไม้บาน 763 00:35:44,185 --> 00:35:48,023 คนงานหนึ่งคนเก็บน้ำผึ้งได้หนึ่งตัน ในเวลาแค่สามเดือน 764 00:35:48,857 --> 00:35:51,443 แต่จะมีประโยชน์อะไรถ้าไม่มีใครมาซื้อมัน 765 00:35:54,154 --> 00:35:57,490 คนงานมนุษย์กลุ่มหนึ่งใช้เวลาสามวัน เครื่องบินสองเที่ยว 766 00:35:57,574 --> 00:36:00,827 และขับรถแปดชั่วโมงเข้าไปในป่าลึก 767 00:36:01,286 --> 00:36:04,289 แต่โชคดีสำหรับชาวบ้าน และเฮเวนลี ออร์แกนิกส์ 768 00:36:04,372 --> 00:36:07,751 อัลกอริธึมเอไอสามารถหาที่นี่เจอ ในเสี้ยววินาที 769 00:36:07,834 --> 00:36:10,462 แล้วรู้ว่ามันจะเป็นการลงทุนที่ดี 770 00:36:10,545 --> 00:36:13,882 จู่ๆ พวกเขาก็โทรมาแล้วบอกว่า พวกเขาใช้อัลกอริธึมคำนวณ 771 00:36:13,965 --> 00:36:17,010 แล้วเจอว่าเราเหมาะ 772 00:36:17,510 --> 00:36:19,137 กับงานของพวกเขา 773 00:36:19,220 --> 00:36:22,807 และพวกเขาอยากคุยกับเรา เรื่องการลงทุน ถ้าเราต้องการ 774 00:36:23,141 --> 00:36:25,644 ใครเป็นเจ้าของอัลกอริธึมเอไอปริศนานี้ 775 00:36:26,478 --> 00:36:28,480 บริษัทเทคโนโลยีที่ชื่อเซอร์เคิลอัพ 776 00:36:28,563 --> 00:36:31,316 ตั้งอยู่ไกลออกไปกว่า 12,000 กิโลเมตร จะเป็นที่ไหนไปได้ 777 00:36:31,399 --> 00:36:32,484 ซานฟรานซิสโก 778 00:36:33,526 --> 00:36:36,655 เราอยู่ที่กูดเอกส์ บริษัทส่งของชำออนไลน์ 779 00:36:36,738 --> 00:36:39,616 ซึ่งได้รับความสนใจ จากเอไอของเซอร์เคิลอัพเช่นกัน 780 00:36:39,699 --> 00:36:42,744 ที่นี่เป็นบริษัทที่ขับเคลื่อนโดยอิคนิชัน ซึ่งระดมทุนจากเซอร์เคิลอัพ 781 00:36:42,827 --> 00:36:47,415 และยังช่วยธุรกิจขนาดเล็ก ที่เราทำงานด้วยหาลูกค้า 782 00:36:47,499 --> 00:36:48,500 รอรี อีเกน ผู้ร่วมก่อตั้งและซีโอโอของเซอร์เคิลอัพ 783 00:36:48,583 --> 00:36:50,126 ซีโอโอของเซอร์เคิลอัพ รอรี อีเกน 784 00:36:50,210 --> 00:36:53,254 ทำงานทั้งในธุรกิจและองค์กรการกุศล 785 00:36:53,338 --> 00:36:54,881 ก่อนก่อตั้งบริษัท 786 00:36:54,965 --> 00:36:58,385 เซอร์เคิลอัพใช้เอไอ วิเคราะห์ข้อมูลหลายพันล้าน 787 00:36:58,468 --> 00:37:00,637 แล้วหาว่าอะไรที่ลูกค้าต้องการจริงๆ 788 00:37:00,762 --> 00:37:02,222 จากสินค้าอาหารและสุขภาพของพวกเขา 789 00:37:02,305 --> 00:37:03,640 ปัญหาที่เราเจอจากการซื้อของคือ 790 00:37:03,723 --> 00:37:05,308 มีบริษัทหลายร้อยบริษัท 791 00:37:05,392 --> 00:37:07,018 ทั่วไปหมด ในเกือบทุกประเภท 792 00:37:07,560 --> 00:37:09,938 พวกเขาลงทุนในบริษัทเล็กๆ 793 00:37:10,021 --> 00:37:12,774 ซึ่งเอไอคิดว่าน่าจะเป็นที่ต้องการ 794 00:37:13,066 --> 00:37:15,902 หนึ่งในบริษัทใหญ่ที่พวกเขาเจอคือ ไอศกรีมเฮโล ท็อป 795 00:37:17,988 --> 00:37:21,950 ไอศกรีมเฮโล ท็อปเป็นยี่ห้อเล็กๆ ในแคลิฟอร์เนียตอนใต้ 796 00:37:22,033 --> 00:37:24,369 ปัจจุบัน มันเป็นไอศกรีมถ้วย อันดับหนึ่งของประเทศ 797 00:37:25,412 --> 00:37:28,873 สิ่งที่เราเห็นได้คือการปรับเปลี่ยน ไปกับผู้ซื้อในทุกประเภทสินค้า 798 00:37:28,957 --> 00:37:31,126 พวกเขาอยากได้สินค้าที่ดีต่อสุขภาพมากขึ้น 799 00:37:31,209 --> 00:37:33,128 เป็นพิษกับครัวเรือนน้อยลง 800 00:37:33,211 --> 00:37:35,797 โลชันที่ไม่มีสารเคมีพวกนี้ 801 00:37:36,172 --> 00:37:39,884 เมื่ออัลกอริธึมของเซอร์เคิลอัพ สแกนข้อมูลลูกค้าหลายพันล้านแล้ว 802 00:37:39,968 --> 00:37:42,512 พวกมันพบว่าลูกค้าต้องการ คุณสมบัติสินค้าจำนวนหนึ่ง 803 00:37:42,595 --> 00:37:45,056 ซึ่งเฉพาะเจาะจงมาก 804 00:37:45,140 --> 00:37:47,475 ใส่ใจภารกิจ เป็นมิตรต่อสิ่งแวดล้อม 805 00:37:47,600 --> 00:37:50,687 เก็บเกี่ยวสินค้าออร์แกนิก ในขณะที่สร้างการขยายตัวทางเศรษฐกิจ 806 00:37:50,770 --> 00:37:51,855 ในชุมชนของพวกเขา 807 00:37:52,480 --> 00:37:54,315 ฟังดูละเอียดจนเป็นไปไม่ได้เลยใช่ไหม 808 00:37:54,858 --> 00:37:58,987 แต่มันตรงทุกข้อเมื่อเซอร์เคิลอัพ เจอเฮเวนลี ออร์แกนิกส์ 809 00:37:59,946 --> 00:38:01,573 นั่นคือสิ่งที่เอไอทำได้ 810 00:38:01,656 --> 00:38:03,658 คือหาเหตุผลจากข้อมูลทั้งหมดนี้ 811 00:38:03,742 --> 00:38:07,078 ในวิธีที่เป็นไปไม่ได้เมื่อสิบปีก่อน 812 00:38:07,746 --> 00:38:11,332 การทำงานร่วมกันของเซอร์เคิลอัพกับ เฮเวนลี ออร์แกนิกส์เป็นยังไง 813 00:38:12,208 --> 00:38:15,045 กระโดดกลับไปที่อินเดีย แล้วถามอามิตและอิชวาร์ดีกว่า 814 00:38:18,006 --> 00:38:20,842 เราได้สร้างโรงงานใหม่ ที่ใหญ่กว่าเดิมสองเท่า 815 00:38:21,509 --> 00:38:24,137 เราสามารถสร้างนวัตกรรม และสร้างผลิตภัณฑ์ใหม่ได้ 816 00:38:24,220 --> 00:38:26,765 สร้างรายได้ให้กับบริเวณนี้ 817 00:38:26,848 --> 00:38:29,142 - ฟังดูเหมือนพวกเขาช่วยคุณขยายตลาด - ใช่ 818 00:38:29,225 --> 00:38:31,811 ช่วยเราเพิ่มขีดความสามารถ และปริมาณการผลิต 819 00:38:31,895 --> 00:38:34,773 มันมีผลกับคนที่เก็บเกี่ยวให้คุณยังไง 820 00:38:34,856 --> 00:38:37,400 ตอนนี้เราช่วยเหลืออยู่ 650 ครัวเรือน 821 00:38:37,484 --> 00:38:39,486 เมื่อเราเติบโตขึ้น เราขายน้ำผึ้งได้มากขึ้น 822 00:38:39,569 --> 00:38:41,780 ทุกหนึ่งพันกิโล เราเพิ่มอีกครัวเรือนหนึ่ง 823 00:38:41,863 --> 00:38:45,033 หมายความว่าปีถัดไป อาจเป็น 700 หรือ 750 824 00:38:45,116 --> 00:38:46,534 - ว้าว โอเค - ใช่ 825 00:38:46,618 --> 00:38:50,914 และวันนี้คุณเห็นว่าพวกเขามีฐานะที่ดีขึ้น 826 00:38:50,997 --> 00:38:54,125 พวกเขามีบ้านที่ดี มีสิ่งอำนวยความสะดวกที่ดีในบ้าน 827 00:38:54,209 --> 00:38:56,127 พวกเขาส่งลูกไปโรงเรียน 828 00:38:56,503 --> 00:38:58,213 มันเหมือนระบบทุนนิยมจะยังอยู่ตลอดไป 829 00:38:58,296 --> 00:38:59,339 เข้าใจที่ผมพูดใช่ไหม 830 00:38:59,422 --> 00:39:02,217 ธุรกิจเคยสร้างสิ่งที่ดีกว่า 831 00:39:02,884 --> 00:39:04,511 นั่นคือเหตุผลที่เราเข้ามาทำมัน 832 00:39:06,429 --> 00:39:09,641 เอไอจะล้มล้างมนุษยชาติหรือเปล่า 833 00:39:09,724 --> 00:39:12,685 หรือปล่อยให้เราร้องหาเป้าหมายในชีวิต 834 00:39:13,394 --> 00:39:16,648 ที่ผ่านมา ภูมิภาคนี้ของโลก ได้รับประโยชน์ที่ดีจากมัน 835 00:39:17,982 --> 00:39:19,734 บางทีอาจมีความเป็นไปได้ที่เอไอ 836 00:39:19,818 --> 00:39:22,779 ประเมินข้อมูลทั้งหมดของเรา 837 00:39:22,862 --> 00:39:25,782 แล้วตัดสินใจว่าเราไม่ได้แย่นัก แล้วก็ทำงานร่วมกัน 838 00:39:26,241 --> 00:39:30,161 เพื่อสร้างโลกใหม่ของความมั่งคั่ง และสามัคคีระหว่างหุ่นยนต์และมนุษย์ 839 00:39:31,663 --> 00:39:32,747 หรืออาจจะไม่ 840 00:39:33,790 --> 00:39:36,084 ไม่ว่าจะเป็นแบบไหน เวลาของเราเกือบหมดแล้ว 841 00:39:36,501 --> 00:39:38,962 เชิญสนุกไปกับหุ่นยนต์ระบำเปลื้องผ้าเหล่านี้ 842 00:40:26,217 --> 00:40:29,012 ได้แล้ว เยี่ยม เย้! 843 00:40:31,055 --> 00:40:32,348 เยี่ยมไปเลย 844 00:40:32,432 --> 00:40:33,933 เอาผ้าขนหนูมาให้เธอหน่อย