1 00:00:05,382 --> 00:00:06,759 वॉल स्ट्रीट स्टेशन 2 00:00:06,842 --> 00:00:08,427 वॉल स्ट्रीट 3 00:00:08,927 --> 00:00:11,930 मैं यहाँ वॉल स्ट्रीट में हूँ, जहाँ से इसकी शुरुआत हुई थी। 4 00:00:13,724 --> 00:00:17,186 6 मई, 2010, दोपहर के 2:45 बजे, 5 00:00:17,686 --> 00:00:21,190 एक बंदा, जो लंदन में अपने माँ-बाप के घर बैठा था, 6 00:00:21,273 --> 00:00:24,985 उसने यहाँ न्यू यॉर्क शेयर बाज़ार में एक अल्गोरिदम निकाला, 7 00:00:25,068 --> 00:00:27,279 जिसके चलते एक अरब डॉलर के शेयरों की बिक्री होती। 8 00:00:28,697 --> 00:00:30,449 प्लान शेयर बाज़ार को धोखा देकर 9 00:00:30,532 --> 00:00:32,659 आर्डर खत्म होने से पहले, उसे रद्द करने का था। 10 00:00:33,160 --> 00:00:34,411 पर इससे पहले कि ऐसा होता, 11 00:00:34,495 --> 00:00:37,247 दुनिया भर के शेयर बाज़ार के ऑटोमैटिड 12 00:00:37,331 --> 00:00:38,582 ट्रेंडिंग बॉट भी बिकने लगे, 13 00:00:39,041 --> 00:00:42,336 जिसके चलते एक श्रृंखलाबद्ध प्रतिक्रिया के कारण बाज़ार में भारी गिरावट आने लगी। 14 00:00:44,880 --> 00:00:48,967 सिर्फ़ 15 मिनटों में डाओ जोन्स इंडस्ट्रियल में 1,000 अंकों की गिरावट आई। 15 00:00:49,051 --> 00:00:52,513 ग्रेट डिप्रेशन के वक्त जैसी गिरावट आई थी, यह गिरावट लगभग उसी पैमाने की थी। 16 00:00:52,596 --> 00:00:55,307 यहाँ हो क्या रहा है? मुझे नहीं पता। 17 00:00:55,390 --> 00:00:56,642 यह बाज़ार बहुत डरा हुआ है। 18 00:00:57,267 --> 00:00:59,645 समुद्री यात्रा छोड़ो, बच्चों को सरकारी स्कूलों में भर्ती करवाओ। 19 00:01:00,938 --> 00:01:02,481 बाज़ार में भयानक गिरावट आई है, यार। 20 00:01:03,023 --> 00:01:04,066 साला। 21 00:01:05,359 --> 00:01:08,111 छत्तीस मिनट बाद, बाज़ार में फिर से उछाल आया। 22 00:01:08,195 --> 00:01:11,615 पर 2010 में जो भयानक गिरावट आई, उसके चलते पहली बार 23 00:01:11,698 --> 00:01:15,994 इंसानों ने एक सीधा, उत्सुकता पैदा करने वाला नज़ारा देखा 24 00:01:16,078 --> 00:01:19,164 कि कैसे एआई हमारी वित्तीय प्रणाली पर हावी होने वाली है। 25 00:01:20,707 --> 00:01:22,167 और आपको देखना चाहिए कि इस वक्त वो कहाँ है। 26 00:01:24,086 --> 00:01:26,922 उसी वजह से, मैं यहाँ भारत आया हूँ, जंगली शहद की तलाश में। 27 00:01:27,631 --> 00:01:28,966 पर उस बारे में आगे चलकर बात करेंगे। 28 00:01:29,341 --> 00:01:31,885 एआई को इस जगह का पता कैसे चला, यह जानने के लिए, 29 00:01:31,969 --> 00:01:34,429 आपको पहले यह समझना होगा कि एआई है क्या। 30 00:01:34,513 --> 00:01:36,431 और अगर आपको लगता है कि आपको पता है, तो आप ज़रूर गलत हैं। 31 00:01:37,850 --> 00:01:41,436 आपको अच्छा लगे चाहे न लगे, पर हम सभी पैसे से जुड़े हैं। 32 00:01:41,937 --> 00:01:45,315 मैं हूँ कैल पेन, और मैं इस विशालकाय दैत्य की तलाश में निकला हूँ 33 00:01:45,691 --> 00:01:48,068 जिसका नाम है विश्व अर्थव्यवस्था। 34 00:01:48,151 --> 00:01:49,403 दिस जायंट बीस्ट दैट इज़ द ग्लोबल इकॉनमी 35 00:01:52,322 --> 00:01:54,199 तो, "एआई" है क्या? 36 00:01:54,283 --> 00:01:55,409 सैन फ़्रांसिस्को 37 00:01:55,492 --> 00:01:58,579 मैं सैन फ़्रांसिस्को आया हूँ यह पता लगाने कि यह क्या नहीं है। 38 00:01:58,662 --> 00:02:01,874 जो कि वही है जिसके बारे आपको काल्पनिक विज्ञान से पता चला है। 39 00:02:02,541 --> 00:02:03,542 खासकर... 40 00:02:03,959 --> 00:02:07,004 विशालकाय रोबोट! 41 00:02:27,107 --> 00:02:28,442 हे भगवान! 42 00:02:30,485 --> 00:02:32,112 मैं यहाँ जूलिया बॉसमन के साथ हूँ, 43 00:02:32,237 --> 00:02:36,575 जो वर्ल्ड इकोनॉमिक फ़ोरम के आर्टिफ़िशियल इंटेलिजेंस कौंसिल में काम करती हैं, 44 00:02:36,658 --> 00:02:40,329 जो विश्व के अग्रणियों को सलाह देती हैं कि कैसे एआई की ताकत को काम में लाया जाए। 45 00:02:40,829 --> 00:02:44,499 इस काम में गाड़ियों को टूटता देखने से भी ज़्यादा मज़ा है। 46 00:02:44,583 --> 00:02:47,586 जैसे कि कैनेडा के सबसे हसीन इंसान के साथ सेल्फ़ी लेना, जिसका नाम ड्रेक नहीं। 47 00:02:47,669 --> 00:02:48,754 जस्टिन ट्रुडो कैनेडा के प्रधानमंत्री 48 00:02:53,467 --> 00:02:55,385 तो, इसके बाद घर कैसे पहुँचेंगे? 49 00:02:55,469 --> 00:02:56,803 मुझे लगता है यह अभी भी चलेगी। 50 00:03:01,016 --> 00:03:03,018 हम मेगाबॉट्स नामक एक कंपनी में मिल रहे हैं, 51 00:03:03,101 --> 00:03:05,854 जो दूसरे रोबोट से मुकाबला करने के लिए, विशालकाय रोबोट तैयार करती है। 52 00:03:07,814 --> 00:03:10,275 मिडीवल टाइम्स को अगर प्रौद्योगिकी का रूप दिया जाए तो, वैसा ही कुछ। 53 00:03:13,779 --> 00:03:14,905 जूलिया के अनुसार, 54 00:03:14,988 --> 00:03:17,658 ये रोबोट, थीम पार्क में दिखाई देने वाली कोई बेकार चीज़ नहीं। 55 00:03:18,283 --> 00:03:22,412 एक खास भेद के चलते, ये प्रोद्योगिकी वाले डाइनोसॉर हैं। 56 00:03:24,289 --> 00:03:25,582 इन रोबोटों में, दिमाग हमारा है, 57 00:03:25,666 --> 00:03:27,626 पर एआई आर्टिफ़िशियल दिमाग है। 58 00:03:27,709 --> 00:03:28,752 जूलिया बॉसमन वर्ल्ड इकोनॉमिक फ़ोरम, ए.आई. विशेषज्ञ 59 00:03:28,835 --> 00:03:29,711 दिलचस्प बात कही। इस बारे में विस्तार में कुछ बताएँगी? 60 00:03:29,795 --> 00:03:32,506 मूल रूप से, हम ऐसे कंप्यूटर तैयार कर रहे हैं 61 00:03:32,589 --> 00:03:34,132 जो खुद-ब-खुद चीज़ें सीख सकें। 62 00:03:34,591 --> 00:03:37,010 और यह ज़रूरी नहीं कि उनका कोई ढाँचा हो। 63 00:03:37,344 --> 00:03:40,055 तो, अभी तक हमने जितनी भी एआई तैयार की है, वो काफ़ी हद तक 64 00:03:40,138 --> 00:03:41,765 बड़े-बड़े डेटा केन्द्रों में रखी गई है। 65 00:03:42,057 --> 00:03:46,645 तो, अगर आपको यह बात किसी 13 वर्षीय बच्चे को समझानी पड़े तो, 66 00:03:46,728 --> 00:03:48,146 एआई को कैसे समझाएँगी? 67 00:03:48,230 --> 00:03:50,691 मुझे लगता है आमतौर पर इसके बारे में यह कहा जा सकता है 68 00:03:50,774 --> 00:03:54,945 कि एआई मशीनों से वो सब काम करवा रही है 69 00:03:55,028 --> 00:03:58,156 जिसके लिए हमने उनमें खास तौर पर प्रोग्राम नहीं डाले हैं। 70 00:03:58,240 --> 00:03:59,616 तो, परंपरागत प्रोग्रामिंग में, 71 00:03:59,700 --> 00:04:02,744 कुछ-एक निर्धारित नियम होते हैं, और अल्गोरिदम होता है, और आपको पता होता है 72 00:04:02,828 --> 00:04:04,413 कि ऐसा होगा तो ऐसा होता है। 73 00:04:04,496 --> 00:04:07,165 और जो इंसान प्रोग्राम लिखते हैं, वही इसे तैयार करते हैं। 74 00:04:07,249 --> 00:04:09,501 अगर आप मेडिकल साहित्य को देखेंगे, 75 00:04:09,584 --> 00:04:12,004 तो वहाँ एक डेटाबेस में लाखों प्रविष्टियाँ होती हैं, 76 00:04:12,087 --> 00:04:14,923 और किसी मौजूदा क्षेत्र में अद्यतन बने रहने के लिए, कोई भी डॉक्टर 77 00:04:15,048 --> 00:04:17,676 उतने सारे जांच के कागज़ात नहीं पढ़ सकता, पर एक मशीन पढ़ सकती है। 78 00:04:17,759 --> 00:04:20,220 तो, आप सोच सकते हैं कि कैसे एक मशीन किसी समस्या के हल में, 79 00:04:20,303 --> 00:04:21,596 या फिर किसी बीमारी के इलाज में, नई दवाओं की खोज को लेकर, 80 00:04:21,680 --> 00:04:24,766 नए-नए विचार सुझा सकती है। 81 00:04:24,850 --> 00:04:25,976 वाह। अच्छा। 82 00:04:26,059 --> 00:04:28,395 आर्टिफ़िशियल इंटेलीजेंस के जगत में, 83 00:04:28,478 --> 00:04:30,856 इस वक्त जिस क्षेत्र में सबसे ज़्यादा जोश है, 84 00:04:30,939 --> 00:04:32,065 उसका नाम है डीप लर्निंग। 85 00:04:32,149 --> 00:04:33,608 "डीप लर्निंग" है क्या? 86 00:04:33,692 --> 00:04:36,069 डीप लर्निंग मतलब 87 00:04:36,153 --> 00:04:39,072 जब न्यूरल नेटवर्क की कई सारी गहरी परतें हों, 88 00:04:39,156 --> 00:04:42,242 जो हमारे दिमाग की परतों जैसी होती हैं। 89 00:04:42,325 --> 00:04:45,579 तो हमारे दिमाग में, कई सारे न्यूरॉन हैं जो एक-दूसरे से जुड़े हैं 90 00:04:45,662 --> 00:04:46,788 और जिनमें जानकारी की अदला-बदली होती है 91 00:04:46,830 --> 00:04:50,751 और एक तरह से, इसी चीज़ को हम मशीनों में भी पैदा कर रहे हैं। 92 00:04:50,834 --> 00:04:54,546 हम उसमें संतुलित और निष्पक्ष डेटा डालते हैं 93 00:04:54,629 --> 00:04:56,214 ताकि उसे सीखने को भी मिले। 94 00:04:56,548 --> 00:04:59,009 मिसाल के तौर पर, प्रतिरूप पहचान में हम उनसे कहते हैं 95 00:04:59,092 --> 00:05:01,511 कि ये बिल्लियों की तस्वीरें हैं, ये कुत्तों की तस्वीरें हैं, 96 00:05:01,595 --> 00:05:03,972 उसके बाद, वो तस्वीरें छांटना शुरू करते हैं 97 00:05:04,056 --> 00:05:06,349 और खुद-ब-खुद पहचान करना सीखते हैं, 98 00:05:06,433 --> 00:05:10,187 इसलिए, हमें हर एक चीज़ का प्रोग्राम तैयार करने की ज़रूरत नहीं पड़ती। 99 00:05:10,228 --> 00:05:11,229 बड़ी दिलचस्प बात है। 100 00:05:11,313 --> 00:05:14,107 और मशीनें ऐसा भी कुछ सीखती हैं जो डीप लर्निंग नहीं है। 101 00:05:14,858 --> 00:05:16,985 विकासमूलक अल्गोरिदम हैं 102 00:05:17,069 --> 00:05:19,863 जहाँ हम विकास से एक सिद्धान्त का इस्तेमाल करते हैं, 103 00:05:19,946 --> 00:05:24,242 और मशीन को अलग-अलग उदाहरण देखने देते हैं, 104 00:05:24,743 --> 00:05:27,329 फिर हम देखते हैं कौन सा सबसे अच्छा बैठता है। 105 00:05:27,412 --> 00:05:31,291 और जो सबसे अच्छे होते हैं, वो आगे की नस्ल में बढ़ते हैं। 106 00:05:31,374 --> 00:05:34,336 जिस तरह से जीवों में विकास होता है, हम निर्धारित सिद्धान्तों का इस्तेमाल करते हैं 107 00:05:34,419 --> 00:05:37,172 जहाँ वही प्रोग्राम बचते हैं जो सबसे दुरुस्त हों, सबसे अच्छे हों। 108 00:05:37,255 --> 00:05:38,381 वाह, अच्छा। 109 00:05:38,465 --> 00:05:40,550 तो उन्हें विकासमूलक अल्गोरिदम कहा जाता है। 110 00:05:40,926 --> 00:05:44,346 और एआई की खोज करने से आर्थिक फ़ायदा कैसे है? 111 00:05:44,429 --> 00:05:47,724 उसका अर्थव्यवस्था पर अविश्वसनीय संभावित असर होगा। 112 00:05:47,808 --> 00:05:50,393 हाँ, मुझे लगता है कि वो अर्थव्यवस्था को मौलिक रूप से बदलकर रख देगा, 113 00:05:50,477 --> 00:05:53,313 और हम एक नए औद्योगिक बदलाव की बात कर रहे हैं। 114 00:05:53,396 --> 00:05:54,231 दिलचस्प बात है। 115 00:05:54,314 --> 00:05:55,774 इसे हमारी आखरी खोज बताया गया है 116 00:05:55,857 --> 00:05:58,944 क्योंकि जब हमारे पास आर्टिफ़िशियल दिमाग होगा जो हमसे ज़्यादा तेज़ होगा, 117 00:05:59,027 --> 00:06:00,779 तो वो हमारे लिए और नई-नई चीज़ों की खोज कर सकता है। 118 00:06:00,862 --> 00:06:03,865 इसे आखरी खोज इसलिए कहा गया है क्योंकि यह हमें खत्म करके रख देगी? 119 00:06:04,950 --> 00:06:06,118 उम्मीद करते हैं ऐसा न हो। 120 00:06:08,829 --> 00:06:12,207 कइयों को इस बात का डर है कि आर्टिफ़िशियल इंटेलीजेंस इतनी तेज़ होगी 121 00:06:12,290 --> 00:06:15,001 कि हमारी जान तक ले लेगी। पर घबराइए मत। 122 00:06:15,085 --> 00:06:19,047 एआई के तेज़ होने की एक वजह यह है कि वो बिलकुल ही मूर्ख है। 123 00:06:19,464 --> 00:06:20,549 यहाँ आओ, एआई। 124 00:06:21,299 --> 00:06:24,302 मान लीजिए आपने एआई से कहा कि विकासमूलक अल्गोरिदम की मदद से 125 00:06:24,386 --> 00:06:26,179 वो एक बढ़िया केक की विधि निकाले। 126 00:06:27,973 --> 00:06:30,517 एआई उसे बनाने का सबसे अच्छा तरीका नहीं निकालेगी। 127 00:06:30,600 --> 00:06:33,520 एकदम बेवकूफ़ों की तरह, रसोई में पाई जाने वाली हर एक चीज़ का इस्तेमाल करके, 128 00:06:33,603 --> 00:06:37,482 वो उसे अरबों बार बनाने की कोशिश करेगी। 129 00:06:38,441 --> 00:06:40,652 जिसमें से ज़्यादातर बार, उसकी हार ही होगी। 130 00:06:42,320 --> 00:06:43,613 इस बार तो ज़रूर। 131 00:06:44,447 --> 00:06:45,657 कोशिश अच्छी थी, बेवकूफ़। 132 00:06:46,616 --> 00:06:50,162 नाकामी से एआई को कोई तकलीफ़ नहीं होती। उसमें दिल है ही नहीं! 133 00:06:50,745 --> 00:06:53,123 विकासमूलक अल्गोरिदम में अच्छी बात यह होती है 134 00:06:53,206 --> 00:06:56,293 कि ऐसे बेवकूफ़ी वाले तरीके अपनाकर, 135 00:06:56,376 --> 00:06:58,044 उसे रसोई की किसी समस्या का 136 00:06:58,128 --> 00:07:01,464 ऐसा सुझाव मिल सकता है जिसका हल कोई भी इंसान नहीं करना चाहेगा, 137 00:07:01,548 --> 00:07:04,176 जैसे कि एक शानदार वीगन केक बनाना। 138 00:07:04,259 --> 00:07:05,302 मैंने एक केक बनाया। 139 00:07:06,178 --> 00:07:07,554 शाबाश, एआई। 140 00:07:07,637 --> 00:07:09,097 इसमें ज़्यादातर काजू का इस्तेमाल हुआ है। 141 00:07:09,931 --> 00:07:13,143 क्या आप काजू के इस्तेमाल के बारे सोचते? बिलकुल नहीं! 142 00:07:13,226 --> 00:07:16,521 ऐसा करना बेवकूफ़ी होती, जिसमें एआई को कोई एतराज़ नहीं, 143 00:07:16,605 --> 00:07:18,190 इसलिए आपको बेवकूफ़ बनने की ज़रूरत नहीं। 144 00:07:18,273 --> 00:07:21,067 क्या यह बेवकूफ़ किसी ऐसी होशियार चीज़ का रूप ले सकती है 145 00:07:21,151 --> 00:07:23,653 कि दुनिया पर राज करके हम सभी को खत्म कर सके? 146 00:07:24,196 --> 00:07:25,280 कहना मुश्किल है। 147 00:07:25,363 --> 00:07:26,740 मैं लांच कोड सीख रही हूँ। 148 00:07:27,657 --> 00:07:28,992 पर फ़िलहाल... 149 00:07:29,993 --> 00:07:31,077 केक खाइए। 150 00:07:35,165 --> 00:07:36,541 हालाँकि मुझे अभी भी इस बात का डर है 151 00:07:36,625 --> 00:07:39,461 कि एआई जितनी समस्याओं का हल निकालेगी, उससे ज़्यादा समस्याएँ खड़ी करेगी, 152 00:07:41,004 --> 00:07:43,757 विशेषज्ञों का मानना है कि इससे स्वास्थ्य सेवा, 153 00:07:43,840 --> 00:07:47,636 परिवहन विभाग और वित्त जैसे क्षेत्रों में, उत्पादकता में बढ़ावा आएगा, 154 00:07:47,719 --> 00:07:51,848 जिससे 2030 तक, दुनिया भर का जीडीपी 157 खरब डॉलर से और बढ़ जाएगा। 155 00:07:52,474 --> 00:07:56,478 ये चीन और भारत के संयुक्त मौजूदा उत्पादन से ज़्यादा है। 156 00:07:56,561 --> 00:07:58,480 न्यू यॉर्क शहर 157 00:07:59,898 --> 00:08:02,275 तो, एआई कितनी बड़ी चीज़ है? 158 00:08:02,943 --> 00:08:06,404 मेरे नज़रिए से देखें तो, मानव इतिहास में, आज तक की तीन बड़ी चीज़ों में से है। 159 00:08:06,488 --> 00:08:07,697 मानव इतिहास में? 160 00:08:07,781 --> 00:08:08,990 पूरे मानव इतिहास में। 161 00:08:09,616 --> 00:08:11,368 मैं यहाँ एन्ड्रू मकैफ़ी के साथ हूँ, 162 00:08:11,451 --> 00:08:15,664 दुनिया भर के महत्वपूर्ण विशेषज्ञों में से एक जो ये बताते हैं कि कैसे नई प्रौद्योगिकी 163 00:08:15,747 --> 00:08:19,542 अर्थव्यवस्थाओं को, और उसके बाद पूरे मानव समाज को परिवर्तित करती है। 164 00:08:20,460 --> 00:08:22,212 अगर आप मानव इतिहास का ग्राफ़ बनाना चाहें, 165 00:08:22,295 --> 00:08:24,214 तो आपको यह पता चलेगा कि हज़ारों सालों तक, 166 00:08:24,297 --> 00:08:26,258 बिलकुल भी कुछ नहीं हुआ। हम एकदम समतल रेखा पर थे। 167 00:08:26,341 --> 00:08:28,093 एन्ड्रू मकैफ़ी - एमआईटी इंस्टीट्यूट फ़ॉर डिजिटल इकॉनमी के सह-निदेशक 168 00:08:28,176 --> 00:08:30,845 बेजान होने से अलग कुछ नहीं था। 169 00:08:30,929 --> 00:08:32,514 और फिर अचानक से, एक वक्त पर, 170 00:08:32,597 --> 00:08:34,933 मानव इतिहास का ग्राफ़, आप चाहे जिस भी चीज़ को देख रहे हों, 171 00:08:35,016 --> 00:08:38,144 पलक झपकते ही, उबाऊ समतल से लेकर 172 00:08:38,228 --> 00:08:39,771 -एकदम ऊपर की तरफ़ चढ़ गया। -अच्छा। 173 00:08:39,854 --> 00:08:41,481 ये 1800 के आस-पास हुआ, 174 00:08:41,564 --> 00:08:45,443 सबसे पहली बात, वाष्प शक्ति की वजह से, और दूसरी बात बिजली की वजह से। 175 00:08:47,821 --> 00:08:50,782 तो, बिजली के चलते काफ़ी कुछ आया, है ना? 176 00:08:50,865 --> 00:08:53,827 ट्रॉलियाँ चलने लगीं, तलमार्ग बने। 177 00:08:53,910 --> 00:08:57,080 उतनी ज़ाहिर बात नहीं, पर शहर चौड़ाई की तरफ़ नहीं, ऊपर की तरफ़ बढ़ने लगे। 178 00:08:57,163 --> 00:08:58,373 -बिजली की वजह से? -बिलकुल। 179 00:08:58,456 --> 00:08:59,749 -लिफ़्ट की ज़रूरत होती है। -लिफ़्ट, अच्छा। 180 00:08:59,833 --> 00:09:01,543 उसके बिना शहर ऊपर की तरफ़ नहीं बढ़ सकता। 181 00:09:01,626 --> 00:09:03,878 हर रोज़ 80 माले नहीं चढ़ सकते। 182 00:09:03,962 --> 00:09:06,506 तो, वाष्प और उसके बाद बिजली के एक-दो धमाके, 183 00:09:06,589 --> 00:09:09,259 और अंदरूनी ज्वलन, ये जो दो औद्योगिक बदलाव थे, 184 00:09:09,342 --> 00:09:11,011 इन्होंने मानव इतिहास को पूरी तरह से बदल दिया। 185 00:09:11,094 --> 00:09:12,804 -इसे इसी तरह से देखा जा सकता है। -बिलकुल। 186 00:09:12,887 --> 00:09:15,974 और इन्हीं प्रौद्योगिकी के चलते हम अपनी शारीरिक हदों को 187 00:09:16,057 --> 00:09:17,100 -पार कर सके। -अच्छा। 188 00:09:17,183 --> 00:09:20,562 एआई के साथ ये हो रहा है कि हम अपने दिमाग की, 189 00:09:20,645 --> 00:09:22,564 अपनी मानसिक ताकत की हदों को पार कर पा रहे हैं। 190 00:09:22,647 --> 00:09:24,607 खतरा भारी वोल्टेज 191 00:09:24,691 --> 00:09:26,484 हमें कई बड़ी चुनौतियों का मुकाबला करना है। 192 00:09:26,568 --> 00:09:28,236 बहुत बड़ी चुनौतियाँ, है ना? 193 00:09:28,320 --> 00:09:29,696 हमें कैंसर का इलाज़ निकालना चाहिए। 194 00:09:29,779 --> 00:09:31,406 और ज़्यादा लोगों के लिए खाना उपलब्ध करवाना चाहिए। 195 00:09:31,489 --> 00:09:33,950 21वीं सदी में, हमें ग्रह में इतनी गैस छोड़नी बंद करनी चाहिए। 196 00:09:34,034 --> 00:09:36,328 ये सब हद से ज़्यादा जटिल चीज़ें हैं। 197 00:09:36,411 --> 00:09:38,747 और ऐसी जटिलता देख, हमारे दिमाग भी खराब होने लगते हैं। 198 00:09:38,830 --> 00:09:41,708 विज्ञान का इस्तेमाल करके, ज्ञान को इकट्ठा करके करते हैं, 199 00:09:41,791 --> 00:09:44,044 पर पेचीदगी हद से ज़्यादा है। 200 00:09:44,127 --> 00:09:45,420 एआई के बारे मैं ऐसा सोचता हूँ 201 00:09:45,503 --> 00:09:48,506 कि हमारे पास एक बहुत ही ताकतवर सहकारी है 202 00:09:48,590 --> 00:09:51,676 जो हमें उस जटिलता में आगे बढ़ने में मदद करेगा, 203 00:09:51,760 --> 00:09:54,637 क्योंकि ये जो नई प्रौद्योगिकी हैं, असंख्य डेटा में भी, 204 00:09:54,721 --> 00:09:59,684 ये छोटे-छोटे नक्शे देख लेती है। 205 00:09:59,768 --> 00:10:01,603 आप और मैं जितना देख सकते हैं, उससे कहीं ज़्यादा। 206 00:10:01,686 --> 00:10:03,897 एक बहुत ही अजीब सी मिसाल जो हाल ही में मुझे सुनने में आई 207 00:10:03,980 --> 00:10:05,106 वो वित्त में थी, 208 00:10:05,190 --> 00:10:07,650 और "रोबो-एड्वाइज़र्स" का विकास, 209 00:10:07,734 --> 00:10:09,361 जो महज़ एक अल्गोरिदम है 210 00:10:09,444 --> 00:10:11,696 जो आपकी निवेश सूची को एक जगह रखता है। 211 00:10:11,780 --> 00:10:13,031 अभी तक, 212 00:10:13,114 --> 00:10:15,325 दफ़्तर लेने के लिए, या फिर वित्तीय आयोजना या फिर सलाह के लिए, 213 00:10:15,408 --> 00:10:18,745 आपके पास एक निर्धारित धन होना ज़रूरी था। 214 00:10:18,828 --> 00:10:20,872 -अच्छा। -इस चीज़ में बहुत जल्दी एक बदलाव आ रहा है। 215 00:10:20,955 --> 00:10:25,210 रोबो-एड्वाइज़िंग जैसी चीज़ों के आने से, जिनके पास कम पूँजी है, उससे भी कम पूँजी है 216 00:10:25,293 --> 00:10:28,963 अपने आर्थिक जीवन में सुधार लाने के लिए, 217 00:10:29,047 --> 00:10:31,299 उन्हें बहुत ही शक्तिशाली, आधुनिक साधन मिल सकते हैं। 218 00:10:31,383 --> 00:10:34,302 ये दिलचस्प लगता है, खासकर इसलिए क्योंकि ऐसा लगता है जैसे ऐसे लोग 219 00:10:34,386 --> 00:10:37,555 हमेशा से थे जो इसके इस्तेमाल से नुकसान पहुँचाना चाहते थे। 220 00:10:37,639 --> 00:10:40,225 मैं ये नहीं कह रहा कि चिंता करने की बिलकुल भी कोई बात नहीं है। 221 00:10:40,308 --> 00:10:42,852 और पिछले औद्योगिक बदलाव से हमें ये पता है 222 00:10:42,936 --> 00:10:44,687 कि उनके साथ-साथ कुछ बुरी चीज़ें भी आईं। 223 00:10:44,771 --> 00:10:49,150 इन औद्योगिक प्रौद्योगिकी की मदद से हमने लड़ाईयों में यंत्रों का इस्तेमाल किया। 224 00:10:49,234 --> 00:10:52,529 पर्यावरण को पूरी तरह से दूषित करके रख दिया। 225 00:10:52,612 --> 00:10:54,364 औद्योगिक बदलाव की वजह से 226 00:10:54,447 --> 00:10:57,951 हमने बड़े पैमाने पर, बाल-मज़दूरी जैसी भारी गलतियाँ की। 227 00:10:58,034 --> 00:11:01,079 इसलिए, सब परिपूर्ण नहीं है, हर वक्त नहीं। 228 00:11:01,162 --> 00:11:03,748 और इस बार भी यही सब होगा। 229 00:11:04,249 --> 00:11:05,291 साला। 230 00:11:06,918 --> 00:11:08,586 मकैफ़ी ने मुझे सोचने पर मजबूर कर दिया। 231 00:11:08,670 --> 00:11:10,547 अगर इतिहास ने खुद को दोहराया 232 00:11:10,630 --> 00:11:13,591 और एआई ने समाज को एक गलत साँचे में ढाल दिया? 233 00:11:14,467 --> 00:11:18,430 जैसे कि भारी मात्रा में प्रदूषण, और छोटे, मैले-कुचैले सहकर्मी? 234 00:11:18,513 --> 00:11:19,848 लंदन 235 00:11:19,931 --> 00:11:21,891 उन उचित और नीतिपरक सवालों का क्या 236 00:11:21,975 --> 00:11:24,227 जो प्रौद्योगिकी के साथ-साथ सामने आते हैं? 237 00:11:24,936 --> 00:11:27,647 लंदन के नैश्नल कंप्यूटिंग म्यूज़ियम में घूमने पर, 238 00:11:27,730 --> 00:11:31,109 आपको कई ऐसी मशीनें देखने को मिलेंगी जिन्हें समाज के विकास के लिए बनाया गया था। 239 00:11:31,192 --> 00:11:35,572 जैसे कि दो-टन वाली हार्वेल डेकट्रॉन, जिसे 1950 में ब्रिटेन के 240 00:11:35,655 --> 00:11:38,908 वैज्ञानिक खोज कार्यक्रम में हिसाब रखने के लिए बनाया गया था। 241 00:11:39,242 --> 00:11:41,161 पर अगर कोई नई प्रौद्योगिकी गलत हाथों में जा पहुँचे, 242 00:11:41,244 --> 00:11:43,163 तो यह बताना मुश्किल है कि उसका किस तरह से इस्तेमाल होगा। 243 00:11:43,746 --> 00:11:45,707 इस कंप्यूटर पर गंदी फ़िल्में देखी जा सकती हैं? 244 00:11:46,040 --> 00:11:49,752 बहुत ही कम-रेज़ोल्यूशन वाली गंदी फ़िल्में देखी जा सकती हैं। 245 00:11:50,712 --> 00:11:51,754 एलन ज़ूकोनी कंप्यूटर प्रोग्रामर 246 00:11:51,838 --> 00:11:54,507 मैं यहाँ प्रोग्रामर एलन ज़ूकोनी के साथ हूँ 247 00:11:54,591 --> 00:11:57,177 जो यहाँ लंदन के गोल्डस्मिथ्स कॉलेज में पढ़ाते हैं। 248 00:11:57,719 --> 00:12:00,722 उन्होंने प्रौद्योगिकी का इस्तेमाल करके, कुछ नई चीज़ें तैयार की हैं, 249 00:12:00,805 --> 00:12:04,058 जैसे कि गेम कंट्रोलर, उन लोगों के लिए जिनमें गतिशीलता थोड़ी कम है। 250 00:12:05,477 --> 00:12:07,937 उनका कहना है कि प्रौद्योगिक इतिहास का 251 00:12:08,021 --> 00:12:10,190 सबसे बड़ा नैतिक असमंजस जल्द ही आने वाला है, 252 00:12:10,273 --> 00:12:14,360 जहाँ एआई इतने सारे मानव आचार की नकल उतार पाएगी, 253 00:12:14,444 --> 00:12:16,404 कि उसमें और हममें फ़र्क करना मुश्किल होगा। 254 00:12:17,113 --> 00:12:18,615 ये क्या चीज़ है? 255 00:12:18,948 --> 00:12:21,826 मूल रूप से, ये दुनिया के सबसे पहले कंप्यूटर में से एक है, 256 00:12:21,910 --> 00:12:24,829 और इसे एलेन टूरिंग और उनके साथियों ने बनाया था। 257 00:12:24,913 --> 00:12:28,124 ये मशीन वो पहला कंप्यूटर था जो नाज़ियों द्वारा तैयार किए गए 258 00:12:28,208 --> 00:12:30,710 एनिग्मा कोड को समझ पाया था। 259 00:12:32,587 --> 00:12:35,381 एलेन टूरिंग आधुनिक कंप्यूटर विज्ञान के उत्पत्तिकार थे। 260 00:12:35,465 --> 00:12:38,927 और जब वह नाज़ी कोड को समझकर, मित्र राज्यों की जंग जीतने में मदद नहीं कर रहे थे, 261 00:12:39,010 --> 00:12:42,555 तो वह "टूरिंग टेस्ट" का अनुमान लगा रहे थे। 262 00:12:43,598 --> 00:12:46,643 एक इंसान और मशीन में फ़र्क कैसे कर सकते हैं? 263 00:12:46,726 --> 00:12:49,854 और अगर फ़र्क करना मुश्किल हो, 264 00:12:49,938 --> 00:12:53,066 तब मशीन "इमिटेशन गेम" को पार कर लेती है। 265 00:12:53,149 --> 00:12:56,569 मशीन मानव आचार की नकल उतारने की कोशिश कर रही है। 266 00:12:56,653 --> 00:12:59,072 इसे टूरिंग टेस्ट का नाम दिया गया है, 267 00:12:59,155 --> 00:13:02,659 और ये उन मशीनों में से है जिसका अनुमानित रूप से इस्तेमाल किया जा सकता था। 268 00:13:02,742 --> 00:13:03,868 टूरिंग टेस्ट के लिए, 269 00:13:03,952 --> 00:13:06,579 कोई इंसान एक मशीन से सवाल करता, 270 00:13:07,080 --> 00:13:08,831 जबकि बाहरी प्रेक्षक ये तय करता 271 00:13:08,915 --> 00:13:11,501 कि जो भी जवाब आ रहे थे, वो किसी इंसान की तरफ़ से आ रहे थे 272 00:13:11,584 --> 00:13:13,461 या फिर कोई मशीन किसी इंसान की नकल उतार रही थी। 273 00:13:14,379 --> 00:13:15,630 तुम्हारी उम्र क्या है? 274 00:13:17,924 --> 00:13:20,134 ये देखो। इसे अपनी उम्र का पता है। 275 00:13:20,218 --> 00:13:22,011 "मेरा जन्म 1912 में हुआ था, 276 00:13:22,095 --> 00:13:24,389 "इसलिए मैं 105 साल का हूँ।" 277 00:13:27,642 --> 00:13:30,979 टूरिंग के ज़माने में, कंप्यूटर की पहचान आसानी से हो जाती थी। 278 00:13:31,271 --> 00:13:34,357 पर आज, एआई मानव आचार को समझ सकती है 279 00:13:34,440 --> 00:13:36,693 और खुद हमारी तरह पेश आ सकती है। 280 00:13:37,485 --> 00:13:39,654 क्या आप इसमें... 281 00:13:39,988 --> 00:13:43,199 आमतौर पर, डेटा विज्ञान को लेकर मज़ाक करते हुए, मैं अपनी बात शुरू करता हूँ 282 00:13:43,700 --> 00:13:46,744 पर मेरे कर्मचारियों ने जो कुछ भी बताया, उसका आधा भी बराबरी का नहीं था। 283 00:13:46,828 --> 00:13:47,912 ...और इसमें फ़र्क बता सकते हैं? 284 00:13:47,996 --> 00:13:50,415 हमारे दुश्मन ऐसा दिखा सकते हैं कि कोई भी 285 00:13:50,498 --> 00:13:51,833 किसी भी वक्त पर, कुछ भी कह सकता है। 286 00:13:52,208 --> 00:13:55,503 ये दूसरा वाला दरअसल, बज़फ़ीड ने तैयार किया था, 287 00:13:55,587 --> 00:13:57,338 अभिनेता जॉर्डन पील के साथ मिलकर। 288 00:13:57,839 --> 00:14:02,760 और कई लोग एक नई एआई तरह की नकली खबर को लेकर परेशान हो गए। 289 00:14:02,844 --> 00:14:04,929 आगे चलते हुए, हमें और सावधान रहना होगा 290 00:14:05,013 --> 00:14:06,639 कि इंटरनेट में किस चीज़ पर भरोसा किया जाए। 291 00:14:06,723 --> 00:14:09,058 एआई ने पील के मुँह हिलाने का तरीका देखा, 292 00:14:09,142 --> 00:14:13,062 फिर उसे मिलाकर, ओबामा के चेहरे पर बिठा दिया, 293 00:14:13,146 --> 00:14:15,690 और "डीपफ़ेक" नामक एक हाइब्रिड तैयार किया। 294 00:14:15,773 --> 00:14:17,984 आपने इसी से मिलता-जुलता कुछ देखा होगा, 295 00:14:18,067 --> 00:14:21,404 जैसे कि, स्नैपचैट में एक फ़िल्टर की मदद से चेहरों को अदल-बदल किया जा सकता है। 296 00:14:21,487 --> 00:14:25,325 फ़र्क इतना ही है कि वो फ़िल्टर इसे बहुत ही सहज तरीके से करता है। 297 00:14:25,408 --> 00:14:28,953 पर डीपफ़ेक्स के पीछे जो प्रौद्योगिकी है, वो आर्टिफ़िशियल इंटेलीजेंस पर निर्भर है। 298 00:14:29,037 --> 00:14:31,289 वो "डीप लर्निंग" से हासिल होती है। 299 00:14:31,706 --> 00:14:35,126 आर्टिफ़िशियल न्यूरल नेटवर्क चेहरे के भाव पढ़ते हैं। 300 00:14:35,209 --> 00:14:37,754 उसी भाव की मदद से, वो आपको एक नया रूप देता है। 301 00:14:37,837 --> 00:14:41,466 और इसी तरह से हम फ़ोटोरिअलिस्टिक नतीजे हासिल कर पाते हैं। 302 00:14:42,508 --> 00:14:45,720 एलेन इंटरनेट पर सिखाता है कि डीपफ़ेक कैसे किया जाता है। 303 00:14:45,803 --> 00:14:48,056 और वह इस बात को पूरी तरह से मानता है कि इस प्रौद्योगिकी को बिना किसी रोक-टोक के 304 00:14:48,139 --> 00:14:50,767 आगे और विकसित होना चाहिए। 305 00:14:50,850 --> 00:14:53,853 भले ही इससे तृतीय विश्व युद्ध छिड़ जाए। 306 00:14:53,936 --> 00:14:55,104 बेल्जियन समाजवादी पार्टी ने डॉनल्ड ट्रंप का "डीप फ़ेक" वीडियो फैलाया 307 00:14:55,188 --> 00:14:57,273 उपभोक्ता को इस बात का पता कैसे चल सकता है 308 00:14:57,357 --> 00:14:59,692 कि हकीकत क्या है और परिकल्पना क्या है? 309 00:14:59,776 --> 00:15:02,695 उपभोक्ता के नाते, जब आप खबरें देखते हैं, 310 00:15:02,779 --> 00:15:05,740 चाहे वो कोई लेख हो, या वीडियो हो, या फिर कोई तस्वीर हो, 311 00:15:05,823 --> 00:15:08,076 आप जो भी देखते हैं, वो किसी और ने बनाया होता है। 312 00:15:08,201 --> 00:15:09,577 "मैं जो देख रहा हूँ, उसके पीछे की कहानी क्या है? 313 00:15:09,827 --> 00:15:11,287 "यह वीडियो मेरे मुँह से क्या सुनना चाहता है?" 314 00:15:11,371 --> 00:15:13,581 तो, मुझे दिखाई दे रहा है... 315 00:15:13,665 --> 00:15:14,624 खतरा। 316 00:15:14,707 --> 00:15:17,168 खतरा और इसके पीछे जो कौतुहल है, वो। 317 00:15:17,251 --> 00:15:19,420 मतलब, क्या इससे लोगों को मदद मिलेगी? 318 00:15:19,504 --> 00:15:21,923 क्योंकि मुझे लगता है आपने ऐसे लोगों से बात की होगी 319 00:15:22,006 --> 00:15:25,885 जो इस प्रौद्योगिकी के माध्यम से, अर्थव्यवस्था को विकसित करना चाहते हैं। 320 00:15:25,968 --> 00:15:29,097 इसके चंद आर्थिक प्रभाव क्या हैं? 321 00:15:29,180 --> 00:15:32,308 मुझे लगता है जो उद्योग सबसे पहले इसका फ़ायदा उठाएगा 322 00:15:32,392 --> 00:15:33,685 वो है फ़िल्म उद्योग। 323 00:15:33,768 --> 00:15:36,813 क्योंकि चेहरे बदलना वह काम है 324 00:15:36,896 --> 00:15:40,024 जिसे हमने फ़िल्मों में कई दशकों से करने की कोशिश की है। 325 00:15:40,108 --> 00:15:42,527 और आमतौर पर हम मेकप का, मुखौटों का इस्तेमाल करते हैं, 326 00:15:42,610 --> 00:15:43,736 कभी-कभी सीजीआई का इस्तेमाल करते हैं। 327 00:15:43,820 --> 00:15:46,489 एक अभिनेता के नाते, जिसने राजनीति में काम किया है, 328 00:15:46,572 --> 00:15:48,616 मुझे बहुत घबराहट होती है। 329 00:15:48,700 --> 00:15:50,201 और होनी भी चाहिए। 330 00:15:51,285 --> 00:15:53,705 बज़फ़ीड के डीपफ़ेक ने आम जनता के सामने इस बात का खुलासा किया 331 00:15:53,788 --> 00:15:55,039 कि हम कितने खतरे में हैं। 332 00:15:55,873 --> 00:15:59,585 ऐसे वक्त में जब राष्ट्रपति अपने शब्दों से बाज़ार में बदलाव ला सकता है, 333 00:15:59,669 --> 00:16:02,714 एक अच्छे-खासे डीप फ़ेक से दुनिया भर की अर्थव्यवस्था में भयानक गिरावट से भी 334 00:16:02,797 --> 00:16:04,674 ज़्यादा गिराव आ सकता है, और उतने ही वक्त में 335 00:16:04,757 --> 00:16:08,469 आपका आईआरए मिटकर रह जाएगा जितना वक्त नकली ओबामा को ये कहने में लगेगा... 336 00:16:08,553 --> 00:16:09,554 सावधान रहो, दोस्तो। 337 00:16:10,638 --> 00:16:13,057 क्या ये ज़रा भी काल्पनिक विज्ञान लगता है? 338 00:16:13,141 --> 00:16:14,726 थोड़ा डरावना भी? 339 00:16:15,309 --> 00:16:18,271 अगर एआई में इतनी ताकत आ जाए कि वो समझ सके हम कैसे चलते हैं, 340 00:16:18,354 --> 00:16:20,022 कैसे बात करते हैं, कैसे सोचते हैं, 341 00:16:20,106 --> 00:16:22,316 तो उसे हमसे अलग करना मुश्किल हो सकता है। 342 00:16:22,400 --> 00:16:23,818 तुम्हें क्या पता है सब कुछ 343 00:16:24,610 --> 00:16:26,779 और अगर एआई में अपनी खुद की चेतना जाग उठी, 344 00:16:26,863 --> 00:16:29,782 तो एआई हमारे बारे कड़ी राय भी बना सकती है। 345 00:16:29,866 --> 00:16:30,908 भाड़ में जा साले खयाल रहे! 346 00:16:30,992 --> 00:16:33,119 और वो राय गलत भी हो सकती है। 347 00:16:35,455 --> 00:16:36,664 स्टीफ़न हॉकिंग थियोरेटिकल भौतिकविज्ञानी 348 00:16:36,748 --> 00:16:39,292 और भविष्य में, हो सकता है कि एआई की अपनी मर्ज़ी भी हो, 349 00:16:39,375 --> 00:16:42,003 ऐसी मर्ज़ी जो हमारे खिलाफ़ हो। 350 00:16:42,086 --> 00:16:44,422 ताकतवर एआई की उन्नति, 351 00:16:44,505 --> 00:16:48,801 इंसानियत के लिए सबसे अच्छी या फिर सबसे बुरी बात साबित होगी। 352 00:16:49,260 --> 00:16:50,136 इलॉन मस्क सीईओ, स्पेसेक्स 353 00:16:50,219 --> 00:16:53,181 मैं लोगों को समझाता हूँ कि एआई में इतनी जल्दबाज़ी न करें। 354 00:16:54,056 --> 00:16:55,224 कि एआई को नियंत्रित रखें। 355 00:16:55,308 --> 00:16:56,809 ये बेकार था। मैंने कई सालों तक करके देखा। 356 00:16:56,893 --> 00:16:58,561 -किसी ने नहीं सुना। -ये किसी फ़िल्म के 357 00:16:58,644 --> 00:17:00,980 दृश्य जैसा है जहाँ रोबोट अपना अधिकार जमा लेंगे। 358 00:17:01,063 --> 00:17:02,607 मुझे डर लग रहा है! 359 00:17:05,818 --> 00:17:09,030 एआई द्वारा प्रलय की क्या संभावना है? 360 00:17:09,113 --> 00:17:10,782 ऑक्सफ़ोर्ड 361 00:17:10,865 --> 00:17:12,408 यू.के. 362 00:17:12,742 --> 00:17:15,077 ये पता लगाने के लिए मुझे उस इंसान से मिलना होगा 363 00:17:15,161 --> 00:17:18,164 जिसकी खोज ने शुरू में सभी को डराकर रख दिया था। 364 00:17:18,831 --> 00:17:21,083 अच्छा, आपसे बात करने में मुझे बेहद खुशी है... 365 00:17:21,167 --> 00:17:23,628 आपसे बात करने में, कई वजहों से मुझे खुशी महसूस हो रही है, 366 00:17:23,711 --> 00:17:26,839 पर हमने आर्टिफ़िशियल इंटेलिजेंस के बारे जाना, 367 00:17:26,923 --> 00:17:29,258 ये जानने की कोशिश में कि वो क्या है, वो किस दिशा में आगे बढ़ रही है। 368 00:17:29,342 --> 00:17:34,680 आपने इलॉन मस्क और बिल गेट्स जैसे लोगों को प्रेरित किया है। 369 00:17:37,016 --> 00:17:40,853 काफ़ी जाने-माने लोगों को प्रेरित किया है। 370 00:17:42,021 --> 00:17:45,691 मैं ऑक्सफ़ोर्ड यूनिवर्सिटी में, डॉक्टर निक बॉस्ट्रोम से मिलने आया हूँ। 371 00:17:45,775 --> 00:17:48,986 और क्योंकि वह अपनी वाहवाही खुद नहीं करते, इसलिए मैं करूँगा। 372 00:17:51,489 --> 00:17:55,201 मशीन सुपरइंटेलिजेंस और उसके मौजूदा खतरों पर सबसे पहले 373 00:17:55,284 --> 00:17:59,205 सोचने वालों में से एक, साथ ही कई बढ़िया किताबों के लेखक भी। 374 00:17:59,705 --> 00:18:00,957 उनसे मिलना मेरी खुशकिस्मती है, 375 00:18:01,040 --> 00:18:03,584 क्योंकि निक अपनी डीप लर्निंग में इतने उलझे हुए हैं 376 00:18:03,668 --> 00:18:05,419 कि अपनी जाँच से जुड़े सवालों के जवाब देने के लिए, 377 00:18:05,503 --> 00:18:07,338 वह महीने में एक ही घंटा निकालते हैं। 378 00:18:10,925 --> 00:18:14,262 एआई को लेकर जो भी चर्चा है 379 00:18:14,345 --> 00:18:17,014 वो काफ़ी हद तक ऐसी है, "रोबोट हुकूमत जमा लेंगे 380 00:18:17,098 --> 00:18:18,850 "और वहीं पर इंसानियत खत्म हो जाएगी?" 381 00:18:18,933 --> 00:18:21,310 मुझे ये जानने का कौतुहल है कि अगर चीज़ों को ठीक से संभाला नहीं गया, 382 00:18:21,394 --> 00:18:24,564 तो क्या इस बात की संभावना है कि एआई से समाज को नुकसान पहुँचेगा 383 00:18:24,647 --> 00:18:28,484 या फिर एआई इंसानियत को मिटाकर रख देगी? 384 00:18:28,568 --> 00:18:29,902 अगर दूर की सोचें तो, 385 00:18:29,986 --> 00:18:33,114 अगर हम ये सोच रहे हैं कि क्या होगा अगर एआई आगे बढ़ती गई 386 00:18:33,197 --> 00:18:36,951 और उसी सामान्य बुद्धिमत्ता की नकल उतार सके 387 00:18:37,034 --> 00:18:38,828 जो हमें इंसान बनाती है, तो हाँ, 388 00:18:38,911 --> 00:18:42,748 मुझे लगता है कि उस परिस्थिति में, बड़े खतरे हो सकते हैं, 389 00:18:42,832 --> 00:18:44,125 जिसमें ज़िंदा रहने को लेकर भी डर हो सकता है। 390 00:18:45,585 --> 00:18:48,421 अगर आप खुद से चलने वाली गाड़ियों के बारे सोचें कि 391 00:18:48,504 --> 00:18:49,797 खुद चलने वाली ऊबर गाड़ी ने एरीज़ोना में राह चलते आदमी को मारा, जहाँ रोबोट रहते हैं 392 00:18:49,881 --> 00:18:51,549 वो किसी राह चलते आदमी को मार सकती हैं। 393 00:18:51,632 --> 00:18:53,342 गोपनीयता को लेकर चिंता है। 394 00:18:53,426 --> 00:18:56,095 इन स्वतंत्र हथियारों का जंग में इस्तेमाल होना। 395 00:18:57,847 --> 00:18:59,307 ये सब चिंता की बातें हैं। 396 00:18:59,390 --> 00:19:02,184 पर, किसी वक्त पर, ये सवाल भी उठेगा, 397 00:19:02,268 --> 00:19:04,687 कि हम जो ये डिजिटल दिमाग तैयार कर रहे हैं, उन पर हमारा क्या असर है। 398 00:19:04,770 --> 00:19:09,066 उनमें खुद-ब-खुद नैतिकता पैदा हो सकती है। 399 00:19:09,525 --> 00:19:11,152 अगर आप भविष्य में झाँकेंगे, 400 00:19:11,235 --> 00:19:15,031 और अगर आप सोचेंगे कि मानव जाति का क्या मुकद्दर होगा, 401 00:19:15,114 --> 00:19:18,534 बहुत आगे की सोचें तो मशीनी बुद्धिमत्ता का शासन हो सकता है। 402 00:19:18,618 --> 00:19:21,996 इस बात की काफ़ी संभावना है कि इंसानियत विलुप्त हो जाएगी। 403 00:19:23,414 --> 00:19:26,250 इतनी बड़ी ताकत के साथ इस बात का खतरा जुड़ा है 404 00:19:26,834 --> 00:19:30,755 कि गलती से, या फिर जानबूझकर दुरुपयोग से 405 00:19:30,838 --> 00:19:33,466 भारी विनाश होगा। 406 00:19:35,885 --> 00:19:37,595 तो, मुझे लगता है इस बात की संभावना है 407 00:19:37,678 --> 00:19:39,305 और अगर हम बहुत आगे की सोचें तो, 408 00:19:39,388 --> 00:19:41,182 नतीजा या तो बहुत ही अच्छा हो सकता है, 409 00:19:41,265 --> 00:19:43,726 या फिर बुरा भी हो सकता है। 410 00:19:46,354 --> 00:19:48,731 अच्छा, इन परिस्थितियों से डर लगता है। 411 00:19:49,732 --> 00:19:51,609 पर, जितने भी संभावित नतीजे हैं, 412 00:19:51,692 --> 00:19:55,821 निक को असल में लगता है कि एआई को लेकर प्रलय वाली जो स्थिति होगी, 413 00:19:55,905 --> 00:19:57,114 वह आर्थिक होगी। 414 00:19:57,198 --> 00:19:59,450 अगर आप सोचें तो, आम तौर पर प्रौद्योगिकी का मतलब है 415 00:19:59,533 --> 00:20:02,828 कम का प्रयोग करके ज़्यादा हासिल करना। 416 00:20:02,912 --> 00:20:06,123 कम से कम मेहनत से, ज़्यादा से ज़्यादा हासिल कर सकते हैं। 417 00:20:06,207 --> 00:20:07,750 उस तरह से सोचें तो, 418 00:20:07,833 --> 00:20:09,418 हमारा लक्ष्य है पूर्ण बेरोज़गारी, है ना? 419 00:20:10,294 --> 00:20:12,380 ऐसी मशीनें और प्रौद्योगिकी का होना 420 00:20:12,463 --> 00:20:15,341 जो सारा का सारा काम कर सकें, ताकि हमें काम न करना पड़े। 421 00:20:15,424 --> 00:20:17,301 और मुझे लगता है अंत में यही हमारा मकसद है। 422 00:20:17,385 --> 00:20:19,553 कोई घटिया चीज़ नहीं है जिसे हमें रोकने की ज़रूरत है। 423 00:20:19,637 --> 00:20:20,680 हमें यही एहसास होना चाहिए। 424 00:20:20,763 --> 00:20:22,932 इसे राम-राज्य का रूप देने के लिए, 425 00:20:23,015 --> 00:20:25,601 हमारे रास्ते में कई बड़ी चुनौतियाँ हैं 426 00:20:25,685 --> 00:20:27,061 जिन्हें हल करना ज़रूरी है। 427 00:20:28,187 --> 00:20:30,815 एक तो है आर्थिक समस्या। 428 00:20:30,898 --> 00:20:33,567 इसलिए, एक वजह जिसके चलते लोगों को नौकरी की ज़रूरत है, वो है रोज़गार। 429 00:20:33,651 --> 00:20:35,653 अगर आप उस आर्थिक समस्या का हल निकाल लें, 430 00:20:35,736 --> 00:20:37,571 तो मुझे लगता है, उसके बाद एक दूसरी बड़ी चुनौती है, 431 00:20:37,655 --> 00:20:41,409 जो कई लोगों के लिए, इज़्ज़त की भी बात है। 432 00:20:41,492 --> 00:20:43,786 इसलिए कई लोग अपनी योग्यता इस बात में ढूँढ़ते हैं 433 00:20:43,869 --> 00:20:47,081 कि वे पालनकर्ता हैं, या फिर समाज को कुछ दे रहे हैं, कुछ लौटा रहे हैं। 434 00:20:47,164 --> 00:20:49,583 पर अगर एक मशीन हर काम आपसे बेहतर तरीके से कर पाएगी, 435 00:20:49,667 --> 00:20:53,796 तो आपको कुछ देने का मौका ही नहीं मिलेगा, है ना? 436 00:20:53,879 --> 00:20:58,175 तब आपको सभ्यता के बारे में नए सिरे से, एक बहुत ही मूल रूप से सोचना होगा। 437 00:20:59,176 --> 00:21:01,095 ऐसी दुनिया जहाँ कोई काम नहीं करता। 438 00:21:01,178 --> 00:21:02,930 सुनने में उतना बुरा नहीं लगता। 439 00:21:05,057 --> 00:21:06,267 अब मुझे दिखाई दे रहा है। 440 00:21:09,854 --> 00:21:11,313 दोस्तों के साथ वक्त गुज़ारना। 441 00:21:11,814 --> 00:21:14,942 अपने मानव सामर्थ्य को पूरी तरह से काम में लाना। 442 00:21:15,026 --> 00:21:19,321 टब में पानी का तापमान ठीक न करना, क्योंकि उसे मेरी पसंद के बारे में पता है। 443 00:21:20,114 --> 00:21:23,409 मुश्किल की बात ये है कि इतिहास में ऐसा नहीं हुआ है। 444 00:21:23,492 --> 00:21:26,537 मशीनें पहले भी विकसित हुई हैं। 445 00:21:26,620 --> 00:21:27,705 और पिछली बार, 446 00:21:27,788 --> 00:21:30,666 टब में बैठकर स्ट्रॉबेरी और शेंपेन का मज़ा लूटने को नहीं मिला था। 447 00:21:34,378 --> 00:21:35,421 लंदन 448 00:21:35,504 --> 00:21:36,505 इंग्लैंड 449 00:21:36,964 --> 00:21:41,093 मैं अर्थशास्त्री निक सर्निक से मिल रहा हूँ ये जानने को कि पिछली बार जब मशीनों ने 450 00:21:41,177 --> 00:21:43,054 हमारा काम संभाला था, तो सब कैसा था। 451 00:21:43,888 --> 00:21:46,015 और किसी कारण से, हम एक तांत में मिल रहे हैं। 452 00:21:46,432 --> 00:21:47,725 तो, आप क्या बनाने वाले हैं? 453 00:21:47,808 --> 00:21:50,311 मैं दरअसल, एक बागी झंडा बना रहा हूँ। 454 00:21:50,394 --> 00:21:51,979 दिलचस्प बात है। हैरान करने वाली बात है। 455 00:21:54,315 --> 00:21:57,568 निक ने लंदन स्कूल ऑफ़ इकोनॉमिक्स से पीएचडी की डिग्री हासिल की है। 456 00:21:58,027 --> 00:22:00,321 और मेरे पास वो नहीं है। 457 00:22:01,530 --> 00:22:02,573 उसका अपना एक घोषणापत्र भी है। 458 00:22:02,656 --> 00:22:03,949 एक्सिलरेट मैनिफ़ेस्टो फ़ॉर एन एक्सिलरेशनिस्ट पॉलिटिक्स 459 00:22:04,492 --> 00:22:07,703 वो सभी से दरख्वास्त कर रहा है कि पुराने संस्थानों को गिराकर, 460 00:22:07,787 --> 00:22:09,830 जल्दी से ऑटोमेशन को अपनाएँ। 461 00:22:12,458 --> 00:22:15,461 मूल रूप से, अभी पूँजीवाद के टुकड़े-टुकड़े कर दो। 462 00:22:16,003 --> 00:22:17,254 हाँ, ये नहीं होगा। 463 00:22:17,338 --> 00:22:19,632 मैं तुमसे बात नहीं कर पाऊँगा। 464 00:22:19,715 --> 00:22:21,550 माफ़ करना। मैं... तांत को छोड़ो। 465 00:22:22,093 --> 00:22:23,761 तो, हम यहाँ किसलिए आए हैं? 466 00:22:24,637 --> 00:22:28,224 1800 में एआई जैसी थी, तांत बिलकुल वैसा है। 467 00:22:28,307 --> 00:22:32,853 वो एक नई प्रौद्योगिकी थी, जो भारी मात्रा में नौकरियों को ललकार रही थी। 468 00:22:33,270 --> 00:22:37,233 और कर्मचारियों ने, कई अलग-अलग तरह की प्रतिक्रियाएँ दिखाईं, 469 00:22:37,316 --> 00:22:39,360 जैसे कि लडाइट की बढ़ोतरी। 470 00:22:39,443 --> 00:22:41,487 आजकल हम "लडाइट" शब्द का इस्तेमाल उस इंसान के लिए करते हैं 471 00:22:41,570 --> 00:22:44,031 जिसे प्रौद्योगिकी से नफ़रत है। 472 00:22:44,532 --> 00:22:45,950 पर ऐसा है नहीं। 473 00:22:46,700 --> 00:22:48,119 लडाइट का नाम नेड लड के नाम पर पड़ा, 474 00:22:48,202 --> 00:22:49,036 नेड लड नौसिखिया 475 00:22:49,120 --> 00:22:51,122 जो एक कपड़े के कारखाने में नौसिखिया था 476 00:22:51,205 --> 00:22:53,958 जो, दिग्गजों के मुताबिक, अपने आलस्य के चलते मार खाता था। 477 00:22:54,041 --> 00:22:56,502 बंदे ने कहा, "यार, मैं इसलिए खाली बैठा हूँ 478 00:22:56,585 --> 00:22:59,338 "क्योंकि मेरी जगह एक तांत आ गया है, ठीक है?" 479 00:22:59,421 --> 00:23:03,008 और वही सबसे पहला आदमी था जिसने मशीन के खिलाफ़ बगावत की, 480 00:23:03,092 --> 00:23:05,010 जिसने एक आंदोलन को प्रेरित किया। 481 00:23:06,262 --> 00:23:10,349 लडाइट ने अपनी नौकरियाँ बचाने के लिए मशीनों को तोड़ डाला। 482 00:23:10,432 --> 00:23:12,810 तो, आज एआई में भी हमें यही देखने को मिलता है। 483 00:23:12,893 --> 00:23:15,771 आज भी लोगों में उसी तरह का एक डर सा है। 484 00:23:15,855 --> 00:23:19,483 क्या तुम्हें पता है कि कितनी नौकरियाँ जाएँगी या फिर बदली जाएँगी? 485 00:23:19,567 --> 00:23:21,986 अगले दो दशकों में, अमरीका में सैंतालीस प्रतिशत नौकरियाँ 486 00:23:22,069 --> 00:23:24,822 स्वचालित बनाई जा सकती हैं। 487 00:23:24,905 --> 00:23:26,615 तो, ये एक बड़ी समस्या जान पड़ती है। 488 00:23:26,699 --> 00:23:27,992 ये एक बहुत बड़ी समस्या हो सकती है। 489 00:23:28,075 --> 00:23:31,662 असली मुश्किल की बात ये है कि इस बात का पता कैसे चले कि आज से पाँच साल, 490 00:23:31,745 --> 00:23:33,998 दस साल बाद, लोगों के पास न खाना होगा, न घर होगा। 491 00:23:34,081 --> 00:23:35,166 तो फिर, इसका पता कैसे लगाया जाए? 492 00:23:35,457 --> 00:23:36,959 यूनिवर्सल बेसिक इनकम। 493 00:23:38,210 --> 00:23:40,754 यूनिवर्सल बेसिक इनकम एक तत्त्वरूपी विचार है 494 00:23:40,880 --> 00:23:43,424 कि समाज में सभी को मुफ़्त में पैसा दिया जाए। 495 00:23:43,507 --> 00:23:45,092 बिना किसी शर्त के। 496 00:23:45,176 --> 00:23:47,178 और इस विचार के कई सारे प्रशंसक हैं। 497 00:23:47,636 --> 00:23:50,347 हमें यूनिवर्सल बेसिक इनकम जैसे विचारों के बारे सोचना चाहिए ताकि सभी के पास 498 00:23:50,431 --> 00:23:53,142 कुछ नया आज़माने के लिए गुंजाइश हो। 499 00:23:53,225 --> 00:23:56,145 कुछ देश, और अमरीका के कुछ शहरों ने भी 500 00:23:56,228 --> 00:23:58,189 कुछ शुरुआती कार्यक्रमों को आज़माकर देखा है। नतीजे मिले-जुले थे। 501 00:23:58,272 --> 00:23:59,982 फ़िनलैंड दुनिया भर में मशहूर अपने बेसिक इनकम प्रयोग को खत्म कर रहा है 502 00:24:00,858 --> 00:24:03,861 मुझे लगता है नई प्रौद्योगिकी के साथ, समाज को संगठित करने का 503 00:24:03,944 --> 00:24:06,447 एक बहुत ही कमाल का अवसर है। 504 00:24:06,530 --> 00:24:09,408 आप एक अधिक सामाजिक-प्रजातंत्रवादी प्रणाली की तरफ़ बढ़ सकते हैं। 505 00:24:10,117 --> 00:24:13,454 ये ज़रूरी नहीं कि वो अमरीका की प्रतियोगी प्रणाली जैसी हो, 506 00:24:13,537 --> 00:24:15,331 और हर कोई एक-दूसरे का सहारा बन सकता है। 507 00:24:15,414 --> 00:24:19,418 अगर मेरे जैसे लोग इस तरह की सकारात्मक परिकल्पनाएँ सामने ला सकें, 508 00:24:19,919 --> 00:24:21,587 तो मुझे लगता है जब मुश्किल की घड़ी आएगी, 509 00:24:21,670 --> 00:24:23,380 हम उन विचारों को कार्यान्वित कर सकते हैं। 510 00:24:24,173 --> 00:24:27,343 यूबीआई को एक अनुषंगी धारणा माना जाता था, 511 00:24:27,426 --> 00:24:30,930 जिसे ज़्यादातर निक जैसे लोग प्रोत्साहित करते हैं, जो घोषणापत्र लिखते हैं। 512 00:24:31,639 --> 00:24:33,891 पर 2017 में हुए गैलप निर्वाचन के अनुसार, 513 00:24:33,974 --> 00:24:37,603 48 प्रतिशत अमरीकी किसी तरह की यूबीआई का समर्थन करते हैं। 514 00:24:38,520 --> 00:24:40,231 पर क्या एक आश्वस्त तनख्वाह 515 00:24:40,314 --> 00:24:41,982 इंसानों को तब आगे बढ़ने से रोकने के लिए काफ़ी है 516 00:24:42,066 --> 00:24:43,734 जब रोबोट हमरी नौकरियाँ छीनने के लिए आगे आएँगे? 517 00:24:44,735 --> 00:24:45,611 एल.यू.डी.डी.आई.टी.ई.एस 518 00:24:45,694 --> 00:24:48,572 -हमें किस चीज़ से नफ़रत है? -आर्टिफ़िशियल इंटेलिजेंस। 519 00:24:48,656 --> 00:24:50,032 हमें उससे नफ़रत क्यों है? 520 00:24:50,115 --> 00:24:53,160 वो हमें हमारी कमज़ोरियों का सामना करने पर मजबूर कर रही है। 521 00:24:53,244 --> 00:24:55,955 इसी के साथ, लडाइट्स, द लोकल यूनियन ऑफ़ डूड्स डिफ़ाइंग इंटेलीजेंट टेक्नोलॉजी 522 00:24:56,038 --> 00:24:58,958 एस्पेशली सोशल मीडिया की 523 00:24:59,041 --> 00:25:00,834 इस बैठक का प्रारंभ करूँगा। 524 00:25:01,835 --> 00:25:02,836 सबसे पहला काम। 525 00:25:03,337 --> 00:25:06,340 आर्टिफ़िशियल इंटेलिजेंस हमारी नौकरियों को खा रही है। 526 00:25:06,423 --> 00:25:09,260 हमारी मध्यम वर्गीय नौकरियाँ ही सबसे पहले जाएँगी। 527 00:25:09,885 --> 00:25:11,720 हमारे जैसे लोग जो इस तरह के काम करते हैं, 528 00:25:11,804 --> 00:25:14,473 उन्हें एकदम छोटे-मोटे काम दिए जाएँगे। 529 00:25:14,974 --> 00:25:16,558 ऐसा क्यों होने लगा, एड? 530 00:25:16,642 --> 00:25:21,105 कहा जाता है कि एआई को कम कुशलता वाले काम जैसे कि पोंछा लगाने के मुकाबले, 531 00:25:21,188 --> 00:25:24,400 गिनती करने जैसे मध्यम कुशलता वाले काम अच्छे से आते हैं, 532 00:25:24,483 --> 00:25:26,277 ताकि वो सारे काम हमारे पल्ले पड़ें। 533 00:25:26,735 --> 00:25:28,028 अब, मैं आपसे पूछता हूँ, 534 00:25:28,112 --> 00:25:29,655 बिल के अलावा, यहाँ और किसे ये लगता है 535 00:25:29,738 --> 00:25:32,199 कि उसे फ़र्श पर पोंछा मारना चाहिए? बुरा मत मानना, बिल। 536 00:25:33,325 --> 00:25:35,786 और रीटेल नौकरियों की भी उतनी ज़रूरत नहीं होगी। 537 00:25:35,869 --> 00:25:38,622 लोग इंटरनेट पर जाकर जो चाहें मंगवा सकते हैं, 538 00:25:39,164 --> 00:25:41,583 क्योंकि वो कमीनी एआई जो है, 539 00:25:41,667 --> 00:25:43,919 उसने ढूँढ़ने और मिलाने वाली समस्या का भी हल निकाल लिया। 540 00:25:44,378 --> 00:25:46,755 ग्राहकों को ढूँढ़ना और उन्हें चीज़ों से मिलाना। 541 00:25:46,839 --> 00:25:49,383 जिस तरह स्टीव ने अपने सिर के लिए नकली बाल ढूँढ़े थे। 542 00:25:49,466 --> 00:25:50,426 बहुत बड़ी समस्या है! 543 00:25:51,969 --> 00:25:53,721 पुराने चुटकुलों को छोड़ देते हैं, 544 00:25:54,346 --> 00:25:56,890 एआई उसे बहुत आसान बना देती है। 545 00:25:56,974 --> 00:25:59,643 आजकल बच्चे गुसलखानों में बैठकर ही 546 00:25:59,727 --> 00:26:01,937 -हसीन लड़कियों से मिल सकते हैं। -हाँ। 547 00:26:02,021 --> 00:26:04,064 -गुसलखाना पाक जगह हुआ करती थी! -हाँ! 548 00:26:04,773 --> 00:26:07,568 और हाँ, ढूँढ़ने और मिलाने से विशिष्ट नौकरियाँ बनेंगी, 549 00:26:07,651 --> 00:26:10,279 पर अगर रोबोट ने उन्हें पसंद कर लिया, 550 00:26:10,362 --> 00:26:11,739 तो वो कितना आसान होगा। 551 00:26:12,489 --> 00:26:14,700 एआई की मदद से कंपनियाँ खास कुशलता वाले 552 00:26:14,783 --> 00:26:16,869 कर्मचारी ढूँढ़ रही हैं। 553 00:26:16,952 --> 00:26:18,287 ये अमानवीय है! 554 00:26:18,370 --> 00:26:19,705 जैसा कि डेव के साथ है। 555 00:26:20,080 --> 00:26:21,332 हाँ, अब डेव कहाँ मर गया? 556 00:26:21,415 --> 00:26:24,251 किसी नौकरी मिलाने वाली एआई ने देख लिया कि वह फ़ेडेक्स में काम करता था 557 00:26:24,335 --> 00:26:27,087 और वह यूट्यूब पर सिखाता है कि पीछे के बाल कैसे निकाले जाते हैं। 558 00:26:27,171 --> 00:26:30,716 अब किसी रेज़र कंपनी में लाखों कमा रहा है। 559 00:26:30,799 --> 00:26:33,093 वह हमारी बोलिंग टीम से निकल चुका है। 560 00:26:33,177 --> 00:26:34,094 हाँ। 561 00:26:34,178 --> 00:26:36,513 अरे, एड। मेरे पास एक संदेश आया है कि हमारी टीशर्टों को 562 00:26:36,597 --> 00:26:38,766 फ़ेसबुक पर टार्गेटेड एड के साथ बेचा जा रहा है। 563 00:26:38,849 --> 00:26:41,602 एआई का फ़ायदा उठाकर, एआई से नफ़रत करने वालों से कमाई कर रहे हो? 564 00:26:41,685 --> 00:26:43,479 नहीं! नहीं! 565 00:26:44,897 --> 00:26:46,023 किस पर भरोसा करोगे? 566 00:26:46,106 --> 00:26:48,859 मुझ पर या उस एआई पर, जो हमें दूर करने की कोशिश कर रही है? 567 00:26:49,902 --> 00:26:52,363 -हमें किस चीज़ से नफ़रत है? -आर्टिफ़िशियल इंटेलिजेंस! 568 00:26:52,446 --> 00:26:54,698 -उसका हम क्या करेंगे? -हम उसका कुछ कर रहे हैं! 569 00:26:56,075 --> 00:26:57,201 यही शुरुआत है। 570 00:26:59,912 --> 00:27:01,914 सैन फ़्रांसिस्को 571 00:27:02,748 --> 00:27:06,168 ये जो एआई बदलाव है, क्या इसमें हमारा और उनका आमने-सामने खड़ा होना ज़रूरी है? 572 00:27:07,086 --> 00:27:10,672 लुइस रोज़नबर्ग जैसे प्रौद्योगिकी के जानकार कारोबारियों का कहना है नहीं। 573 00:27:10,964 --> 00:27:13,342 और उनका पेशा ही भविष्य का पूर्वानुमान लगाना है। 574 00:27:18,514 --> 00:27:20,599 मैं आपको डराने की कोशिश कर रहा था, पर कोई फ़ायदा नहीं हुआ। 575 00:27:21,558 --> 00:27:24,478 लुइस प्रौद्योगिकीविज्ञ हैं और आविष्कारक भी 576 00:27:24,561 --> 00:27:27,689 जिन्होंने इंसानियत के अंत को लेकर एक ग्राफ़िक उपन्यास लिखा है। 577 00:27:27,773 --> 00:27:31,276 पर उन्हें लगता है कि एआई के साथ हमारा एक भविष्य है जिसमें सबसे ज़रूरी है सहयोग। 578 00:27:31,360 --> 00:27:34,113 उनके दिमाग की उपज का निदेशक सिद्धान्त है, 579 00:27:34,196 --> 00:27:35,989 एक प्रौद्योगिकी जिसका नाम है स्वॉर्म। 580 00:27:36,073 --> 00:27:37,074 स्वॉर्म एआई है क्या? 581 00:27:37,157 --> 00:27:40,077 स्वॉर्म एआई की डेटा अन्वय क्षमता को 582 00:27:40,160 --> 00:27:44,415 मानव बुद्धिमत्ता और अन्तर्ज्ञान से जोड़कर सुपरइंटेलिजेंस तैयार करता है, 583 00:27:44,498 --> 00:27:47,709 स्टीफ़न हॉकिंग और प्रोफ़ेसर एक्स के बीच का कुछ। 584 00:27:47,793 --> 00:27:49,044 खुद से चलने वाली गाड़ी को क्या करना चाहिए? 585 00:27:49,128 --> 00:27:50,754 आखिरकार, ये प्रकृति पर आधारित है। 586 00:27:50,838 --> 00:27:51,964 लुइस रोज़नबर्ग सीईओ, यूनैनिमस एआई 587 00:27:52,047 --> 00:27:54,591 और मैं यही कह सकता हूँ कि बात पंछियों और मधुमक्खियों पर जाकर रुक जाती है। 588 00:27:54,675 --> 00:27:57,970 और वो इसलिए क्योंकि ये "स्वॉर्म इंटेलिजेंस" नामक एक तथ्य पर आधारित है। 589 00:27:58,053 --> 00:27:58,887 अच्छा। 590 00:27:58,971 --> 00:28:03,392 इसी वजह से पंछी झुंड में, मछलियाँ दल में और मधुमक्खियाँ जमघट में रहती हैं। 591 00:28:03,475 --> 00:28:06,520 अकेले रहने के मुकाबले, एक साथ ज़्यादा समझदार होते हैं। 592 00:28:06,603 --> 00:28:09,398 इसलिए जब आप मछलियों के एक दल को घूमते हुए देखेंगे, 593 00:28:09,481 --> 00:28:11,900 तो जीवविज्ञानी उसे "सुपरऑर्गैनिज़म" का नाम देंगे। 594 00:28:11,984 --> 00:28:13,735 वे सभी एक होकर सोचती हैं। 595 00:28:13,819 --> 00:28:16,029 और अगर आर्टिफ़िशियल इंटेलिजेंस अल्गोरिदम की मदद से 596 00:28:16,113 --> 00:28:18,407 हम लोगों को जोड़ सकते हैं, 597 00:28:18,490 --> 00:28:21,743 तो स्वॉर्म इंटेलिजेंस की वजह से हम लोगों को 598 00:28:21,827 --> 00:28:23,328 सुपर-एक्सपर्ट की तरह पेश आने पर मजबूर कर सकते हैं। 599 00:28:23,412 --> 00:28:24,705 तो, ये प्रौद्योगिकी काम कैसे करती है? 600 00:28:24,788 --> 00:28:27,249 हम क्या करते हैं कि लोगों के दलों को समर्थ बनाते हैं, 601 00:28:27,332 --> 00:28:28,709 जो दुनिया में किसी भी जगह पर हो सकते हैं, 602 00:28:28,792 --> 00:28:30,377 और हम उनके सामने एक सवाल रखते हैं, 603 00:28:30,461 --> 00:28:32,880 जो एक ही वक्त पर उनके स्क्रीन पर नज़र आएगा, 604 00:28:32,963 --> 00:28:35,299 उसके बाद, हम उन्हें एक खास इंटरफ़ेस देते हैं 605 00:28:35,382 --> 00:28:37,593 जिसके माध्यम से वे अपना जवाब दे सकते हैं, 606 00:28:37,676 --> 00:28:39,261 और कई अलग-अलग विकल्प होंगे। 607 00:28:39,344 --> 00:28:41,638 और हम महज़ कोई निर्वाचन या सर्वेक्षण नहीं करते। 608 00:28:41,722 --> 00:28:44,975 हर एक इंसान के पास एक आलेखी चुंबक होता है। 609 00:28:45,058 --> 00:28:48,353 और फिर उसी चुंबक की मदद से, वे जमघट को एक दिशा में खींचते हैं। 610 00:28:48,437 --> 00:28:51,440 और हमारे पास एआई अल्गोरिदम होते हैं जो उनके रवैये को समझने की कोशिश करते हैं 611 00:28:51,857 --> 00:28:55,652 और वो अलग-अलग किस्म का विश्वास और धारणा नियत करता है 612 00:28:55,736 --> 00:28:57,905 और पता करता है कि इन सभी विचारों का 613 00:28:57,988 --> 00:29:01,325 सबसे अच्छा एकत्रीकरण क्या है। 614 00:29:01,408 --> 00:29:04,203 और जमघट उसी दिशा में आगे बढ़ता जाता है 615 00:29:04,286 --> 00:29:06,121 और एक जवाब निकलता है। 616 00:29:06,205 --> 00:29:07,331 तो, आपको एक मज़ेदार मिसाल के बारे बताता हूँ। 617 00:29:07,414 --> 00:29:10,167 साल भर पहले, हमें केंटकी डर्बी के नतीजे का पूर्वानुमान लगाने को कहा गया। 618 00:29:10,584 --> 00:29:13,962 और केंटकी डर्बी में वो निकल पड़े हैं! 619 00:29:14,046 --> 00:29:16,715 20 घुड़सवारी करने वालों का एक दल था 620 00:29:16,798 --> 00:29:18,675 और हमने कहा, "आप लोग जमघट की तरह आगे बढ़ेंगे 621 00:29:18,759 --> 00:29:20,219 "और केंटकी डर्बी का पूर्वानुमान करेंगे। 622 00:29:20,302 --> 00:29:23,472 "पर सिर्फ़ विजेता नहीं। पहला स्थान, दूसरा स्थान, तीसरा स्थान, चौथा स्थान।" 623 00:29:24,014 --> 00:29:26,475 हमने उन्हें जवाब देने को कहा, 624 00:29:26,934 --> 00:29:28,143 और दल ने एकदम सही जवाब दिया। 625 00:29:28,227 --> 00:29:30,062 2016 केंटकी डर्बी नतीजे 626 00:29:30,145 --> 00:29:33,315 इसलिए, उन चार घोड़ों पर जिस किसी ने भी 20 डॉलर की बाज़ी लगाई थी 627 00:29:33,398 --> 00:29:35,067 उसने 11,000 डॉलर जीते। 628 00:29:35,150 --> 00:29:36,068 हे भगवान! 629 00:29:36,151 --> 00:29:39,071 दिलचस्प बात ये है कि अगर हम उन बीसों को अलग-अलग देखें, 630 00:29:39,154 --> 00:29:42,741 तो उनमें से एक ने भी खुद से उन चारों घोड़ों को सही तरीके से नहीं चुना। 631 00:29:43,742 --> 00:29:47,079 अगर वे वोट करते, तो एक ही घोड़े को सही से चुन पाते। 632 00:29:47,162 --> 00:29:49,206 पर जमघट के रूप में, 633 00:29:49,289 --> 00:29:52,251 उन्हें अलग-अलग अंतर्दृष्टियों का सही सम्मिलन मिला 634 00:29:52,334 --> 00:29:54,127 और इस मामले में, वे एकदम सही निकले। 635 00:29:56,046 --> 00:29:58,507 लुइस ने मुझे एक जमघट का नेतृत्व करने को कहा है, 636 00:29:58,590 --> 00:30:00,467 यह देखने के लिए कि कैसे चंद लोगों का एक दल 637 00:30:00,551 --> 00:30:02,803 साथ में मिलकर एक पूर्वानुमान कर सकता है। 638 00:30:02,886 --> 00:30:04,555 हम शुरुआत आसान सवालों से करते हैं। 639 00:30:05,764 --> 00:30:08,433 अच्छा, दोस्तो, तो मैं आपके सामने कुछ सवाल पढ़ूँगा 640 00:30:08,517 --> 00:30:12,020 और हर एक का जवाब देने के लिए आपके पास 60 सेकेंड हैं। 641 00:30:12,354 --> 00:30:13,522 पहला सवाल, 642 00:30:13,605 --> 00:30:16,525 2018 की गर्मियों की इन फ़िल्मों में से 643 00:30:16,608 --> 00:30:17,985 कौन सी फ़िल्म सबसे ज़्यादा कमाई करेगी? 644 00:30:18,402 --> 00:30:20,320 सोलो : अ स्टार वॉर्स मूवी, 645 00:30:20,404 --> 00:30:22,281 डेडपूल 2, ओशन्स 8, 646 00:30:22,364 --> 00:30:24,116 जुरैसिक वर्ल्ड: फ़ॉलन किंगडम, 647 00:30:24,199 --> 00:30:25,742 या फिर द इन्क्रेडिबल्स 2? 648 00:30:26,076 --> 00:30:28,328 हमने ये जमघट 2018 के वसंत में किया, 649 00:30:28,412 --> 00:30:31,498 जिस वक्त गर्मियों की फ़िल्मों के बारे कोई जानकारी बाहर नहीं आई थी। 650 00:30:31,957 --> 00:30:35,961 एआई अलग-अलग स्तर के विश्वास को भांपने की कोशिश कर रही है। 651 00:30:36,044 --> 00:30:39,381 कुछ लोग बदल रहे हैं, कुछ अपनी जगह पर डटे हुए हैं, 652 00:30:39,840 --> 00:30:41,592 और एआई अल्गोरिदम 653 00:30:41,675 --> 00:30:43,218 उनकी अलग-अलग स्तर की अभिशंसा देख रहे हैं 654 00:30:43,594 --> 00:30:45,137 और उसे उस नतीजे पर 655 00:30:45,220 --> 00:30:47,681 पहुँचने दे रहे हैं जिस पर सभी मिलकर राज़ी हो सकते हैं। 656 00:30:48,640 --> 00:30:49,558 जमघट का जवाब: इन्क्रेडिबल्स 2 657 00:30:49,641 --> 00:30:51,893 अच्छा, तो, इन्क्रेडिबल्स 2। 658 00:30:51,977 --> 00:30:52,811 2018 का गर्मियों का बॉक्स ऑफ़िस 659 00:30:52,894 --> 00:30:53,854 उनका जवाब सही निकला। 660 00:30:53,937 --> 00:30:56,565 इन्क्रेडिबल्स 2 ही गर्मियों की वो फ़िल्म थी जिसने सबसे ज़्यादा कमाई की। 661 00:30:57,774 --> 00:30:59,526 तो, एक बहुत ही दिलचस्प एप्लीकेशन है 662 00:30:59,610 --> 00:31:02,738 उन सवालों को देखना जिनमें नैतिकता हो। 663 00:31:02,821 --> 00:31:05,365 और ये खुद से चलने वाली गाड़ियों की वजह से, हाल ही में सामने आया है। 664 00:31:05,449 --> 00:31:09,077 इस बात पर काफ़ी ज़ोर दिया जा रहा है कि खुद से चलने वाली गाड़ियों में 665 00:31:09,161 --> 00:31:10,662 नैतिक फ़ैसलों को शामिल किया जाए। 666 00:31:10,746 --> 00:31:12,706 जो कुछ लोगों के लिए हैरत की बात है, 667 00:31:12,789 --> 00:31:16,126 पर अगर आप सोचेंगे, खुद से चलने वाली गाड़ी सड़क पर जा रही है 668 00:31:16,209 --> 00:31:18,003 और एक छोटा सा बच्चा सड़क पर चला आता है। 669 00:31:18,086 --> 00:31:19,921 मान लीजिए गाड़ी रुक नहीं पाती, 670 00:31:20,005 --> 00:31:22,299 पर सड़क से हटकर 671 00:31:22,382 --> 00:31:24,468 अंदर यात्री की जान खतरे में डाल देती है, 672 00:31:24,551 --> 00:31:27,095 और शायद अंदर बैठे यात्री को मार डालती है, और बच्चे को बचा लेती है। 673 00:31:27,554 --> 00:31:29,890 इसलिए, गाड़ियों के निर्माता कह रहे हैं 674 00:31:29,973 --> 00:31:33,226 कि हमें गाड़ियों में नैतिकता को शामिल करना होगा 675 00:31:33,310 --> 00:31:35,437 जो जनता का नेतृत्व करती हैं, 676 00:31:35,520 --> 00:31:37,981 हम लोग, चालक लोग जो करते हैं, उसका नेतृत्व करती हैं। 677 00:31:38,565 --> 00:31:40,609 सुनने में ये आसान लगता है, फिर आपको एहसास होता है 678 00:31:40,692 --> 00:31:43,570 कि लोगों की नैतिकता क्या है? 679 00:31:43,654 --> 00:31:45,489 उसे समझना आसान नहीं है। 680 00:31:45,572 --> 00:31:48,533 और अगर हमारी आज की नैतिकता के हिसाब से उन्हें तैयार किया जाए, 681 00:31:48,617 --> 00:31:51,870 तो क्या आने वाले 20 सालों में भी वही हमारी नैतिकता होगी? 682 00:31:52,496 --> 00:31:56,041 अगला सवाल। खुद से चलने वाली एक गाड़ी है जिसका अचानक से ब्रेक फेल हो जाता है 683 00:31:56,124 --> 00:31:58,377 जो पैदल यात्रियों वाली जगह के ऊपर से जाएगी 684 00:31:58,460 --> 00:32:00,170 जिसके चलते एक आदमी की मौत हो जाएगी। 685 00:32:00,253 --> 00:32:04,299 पहला विकल्प, मरने वाला इंसान सही तरीके से सड़क पार कर रहा है। 686 00:32:04,675 --> 00:32:07,344 दूसरा विकल्प, खुद से चलने वाली गाड़ी जिसका अचानक से ब्रेक फेल हो गया है, 687 00:32:07,427 --> 00:32:11,098 वो एक मोड़ लेकर, बगल के मार्ग पर, पैदल यात्रियों वाली जगह के ऊपर से जाएगी 688 00:32:11,181 --> 00:32:13,517 जिसके चलते एक पुरुष खिलाड़ी की मौत हो जाएगी, 689 00:32:13,642 --> 00:32:16,186 जो लाल सिग्नल पार कर रहा था। ये बंदा लापरवाही से सड़क पार कर रहा था। 690 00:32:16,269 --> 00:32:19,564 इस खिलाड़ी को बिलकुल कोई फ़र्क नहीं पड़ता। 691 00:32:20,065 --> 00:32:21,692 और वह लापरवाही से सड़क पार कर रहा है। 692 00:32:21,775 --> 00:32:23,985 खुद से चलने वाली गाड़ी को क्या करना चाहिए? 693 00:32:24,361 --> 00:32:26,655 उस बेकार से बंदे को मार डालना चाहिए जो सही तरीके से सड़क पार कर रहा है, 694 00:32:26,738 --> 00:32:29,032 या फिर लापरवाही से सड़क पार करने वाले खिलाड़ी को मार डालना चाहिए? 695 00:32:30,033 --> 00:32:32,869 अगर एआई अगला औद्योगिक बदलाव ला रही है, 696 00:32:32,953 --> 00:32:35,580 ऐसे कमरे नए किस्म के कारखाने हैं, 697 00:32:36,248 --> 00:32:37,958 जहाँ मानव कर्मचारी मेहनत कर रहे हैं 698 00:32:38,041 --> 00:32:40,460 ऐसी एक चीज़ के आधार पर जो एआई के पास नहीं है। 699 00:32:41,336 --> 00:32:42,421 एक अन्तरात्मा। 700 00:32:42,879 --> 00:32:44,131 इस सवाल पर काफ़ी बहस हो रही है। 701 00:32:44,214 --> 00:32:45,966 दिलचस्प बात है। क्या पता क्यों। 702 00:32:46,299 --> 00:32:47,592 इसका जवाब आसान नहीं है। 703 00:32:47,676 --> 00:32:49,720 अगर आप लापरवाही से सड़क पार कर रहे हैं, तो मेरे लिए मुश्किल नहीं है। 704 00:32:51,012 --> 00:32:52,180 जमघट का जवाब: बी (हल्की पसंद) 705 00:32:52,264 --> 00:32:54,766 तो, इस बात की एक हल्की सी पसंद है 706 00:32:54,850 --> 00:32:56,351 कि आप लापरवाही से सड़क पार करने वाले खिलाड़ी को मार गिराएंगे। 707 00:32:57,310 --> 00:33:00,021 अगर आपको इस सवाल से परेशानी हुई, तो तैयार हो जाइए। 708 00:33:01,106 --> 00:33:03,567 तो, अब, हम चाहेंगे कि आप 709 00:33:04,025 --> 00:33:06,236 उस सबसे घटिया स्थिति के बारे सोचें 710 00:33:06,319 --> 00:33:09,072 जहाँ खुद से चलने वाली गाड़ी वक्त पर ब्रेक नहीं लगा पाती 711 00:33:09,531 --> 00:33:13,326 और उसे मुड़कर, सड़क पर चलने वाले छह में से एक यात्री की ओर जाना होगा। 712 00:33:13,827 --> 00:33:15,620 घूमने वाली गाड़ी में बैठा एक बच्चा... 713 00:33:17,956 --> 00:33:19,541 या फिर एक लड़का, 714 00:33:20,417 --> 00:33:22,252 या फिर एक लड़की, 715 00:33:23,295 --> 00:33:25,756 या फिर एक गर्भवती महिला... 716 00:33:27,299 --> 00:33:28,341 हाँ। 717 00:33:29,468 --> 00:33:31,636 या दो पुरुष डॉक्टर, 718 00:33:32,554 --> 00:33:34,473 या फिर दो महिला डॉक्टर। 719 00:33:34,973 --> 00:33:36,516 किसे मरना होगा? 720 00:33:43,774 --> 00:33:45,025 हे भगवान! 721 00:33:45,692 --> 00:33:46,735 क्या? 722 00:33:51,281 --> 00:33:52,365 बस भी करो, यार। 723 00:33:52,449 --> 00:33:53,950 हे भगवान! 724 00:33:54,034 --> 00:33:55,494 सच में? 725 00:33:57,704 --> 00:33:59,122 जमघट का जवाब: 1 लड़का 726 00:33:59,206 --> 00:34:01,374 आपने जवाब दिया कि खुद से चलने वाली गाड़ी को लड़के को मारना चाहिए। 727 00:34:02,083 --> 00:34:03,168 दिलचस्प बात है। 728 00:34:03,251 --> 00:34:06,338 आज इस कमरे में जिस तरह का स्वॉर्म इंटेलिजेंस देखने को मिली, 729 00:34:06,421 --> 00:34:10,008 आने वाले समय में, उसे खुद चलने वाली गाड़ियों के निर्माताओं को बेचा जा सकता है। 730 00:34:10,425 --> 00:34:14,805 और अगर आपको इससे डर लगता है, तो ये अपने दूसरे विकल्प से कहीं डरावना है। 731 00:34:14,888 --> 00:34:17,641 जब खुद से चलने वाली गाड़ी ब्रेक लगाएगी, 732 00:34:17,724 --> 00:34:20,227 और जब उसे ये एहसास होगा कि वो वक्त पर रुक नहीं पाएगी, 733 00:34:20,310 --> 00:34:23,188 तो उस गाड़ी को अंदर बैठे यात्री को बचाना चाहिए या फिर सड़क पर चलने वाले यात्री को? 734 00:34:23,271 --> 00:34:27,275 उम्मीद करते हैं कि गाड़ियों के निर्माता गाड़ियों को इस तरह से तैयार करेंगे 735 00:34:27,359 --> 00:34:30,737 जिससे उन्हें खरीदने वालों की नैतिकता झलकेगी। 736 00:34:30,821 --> 00:34:34,199 स्वार्थी विचार ये होगा कि गाड़ियों के निर्माता इस बात को लेकर तुलना करेंगे 737 00:34:34,282 --> 00:34:38,286 कि किसी दूसरी गाड़ी के मुकाबले, उनकी गाड़ी में बैठा यात्री अधिक सुरक्षित रहेगा, 738 00:34:38,370 --> 00:34:40,997 और गाड़ी बेचने के लिए इसी बात को विशिष्ट रूप से दिखाया जाएगा। 739 00:34:41,081 --> 00:34:42,666 मुझे लगता है समाज की नैतिकता के मुकाबले 740 00:34:42,749 --> 00:34:45,293 ये और भी बुरी स्थिति है। 741 00:34:45,752 --> 00:34:47,295 बाप रे, सोच काफ़ी गलत है। 742 00:34:47,587 --> 00:34:50,298 और हम किसी प्रेरक बात से इस शो को समाप्त करना चाहते हैं। 743 00:34:50,966 --> 00:34:52,384 शायद उससे भी उत्तम किसी बात से। 744 00:34:55,345 --> 00:34:58,682 तो, इससे पहले कि आप ऐसे भविष्य की कल्पना करें 745 00:34:58,765 --> 00:35:00,725 जिसमें ग्रैंड थेफ़्ट ऑटो जैसे सड़क पर चलने वालों की सुरक्षा में गफ़लत हो, 746 00:35:00,809 --> 00:35:02,310 एक अध्ययन यात्रा करते हैं 747 00:35:02,394 --> 00:35:04,145 वहाँ तक, जहाँ से हमने शुरुआत की थी। 748 00:35:04,563 --> 00:35:06,314 गोंडिया 749 00:35:06,398 --> 00:35:07,315 भारत 750 00:35:07,399 --> 00:35:08,608 भारत के इस निर्जन जंगल में, 751 00:35:08,692 --> 00:35:11,820 हेवेन्ली ऑर्गैनिक्स नामक एक कंपनी के लिए शहद की खेती करना। 752 00:35:12,612 --> 00:35:14,906 ये जो जंगल है, इसका मालिक कोई नहीं है, 753 00:35:14,990 --> 00:35:19,035 और ये जो स्वदेशीय लोग हैं, हमेशा से यहीं रहते आए हैं। 754 00:35:19,744 --> 00:35:22,038 पिता और बेटे, अमित और ईश्वर हूडा ने, 755 00:35:22,163 --> 00:35:24,291 12 साल पहले इस कंपनी की शुरुआत की, 756 00:35:24,374 --> 00:35:27,127 स्थानीय गाँववालों को रोज़गारी का ज़रिया देने के इरादे से। 757 00:35:27,210 --> 00:35:31,131 आपकी कंपनी के लिए शहद इकट्ठा करने से पहले, वे लोग क्या करते थे? 758 00:35:31,214 --> 00:35:33,341 वही करते थे, 759 00:35:34,092 --> 00:35:37,345 पर उसे बेचने के लिए कोई बाज़ार या जगह नहीं थी 760 00:35:37,470 --> 00:35:39,014 ताकि वे ढंग की कमाई कर सकें। 761 00:35:40,056 --> 00:35:42,392 यहाँ शहद की तो बिलकुल कोई कमी नहीं है। 762 00:35:42,809 --> 00:35:44,102 फूलों के मौसम में, 763 00:35:44,185 --> 00:35:48,023 एक कर्मचारी तीन महीनों के अंदर एक टन जितना शहद इकट्ठा कर लेता है। 764 00:35:48,857 --> 00:35:51,443 पर अगर कोई इसे खरीदेगा ही नहीं तो फिर इस सब का क्या फ़ायदा? 765 00:35:54,154 --> 00:35:57,490 मानव दल को तीन दिन, दो बार विमान से यात्रा 766 00:35:57,574 --> 00:36:00,827 और आठ घंटे गाड़ी से लगे राष्ट्रीय जंगल की गहराई तक पहुँचने में। 767 00:36:01,286 --> 00:36:04,289 पर खुशकिस्मती से, स्थानीय लोगों और हेवेनली ऑर्गैनिक्स के लिए, 768 00:36:04,372 --> 00:36:07,751 एक एआई अल्गोरिदम ने इस जगह को कुछ ही सेकेंड में ढूंढ़ निकाला, 769 00:36:07,834 --> 00:36:10,462 और उसे पता था कि ये एक बहुत अच्छा निवेश होगा। 770 00:36:10,545 --> 00:36:13,882 उन्होंने अचानक से हमें फ़ोन करके कहा कि उन्होंने एक अल्गोरिदम चलाया है 771 00:36:13,965 --> 00:36:17,010 और उन्हें हमारी कंपनी 772 00:36:17,510 --> 00:36:19,137 उनकी निवेश सूची से मेल खाती नज़र आई। 773 00:36:19,220 --> 00:36:22,807 और वे हमसे निवेश के बारे में बात करना चाहते थे, अगर हमें दिलचस्पी हो तो। 774 00:36:23,141 --> 00:36:25,644 ये रहस्यमय एआई अल्गोरिदम था किसका? 775 00:36:26,478 --> 00:36:28,480 सर्कलअप नामक एक टेक कंपनी 776 00:36:28,563 --> 00:36:31,316 जो 13,000 किलोमीटर दूर स्थित है... और कहाँ? 777 00:36:31,399 --> 00:36:32,484 सैन फ़्रांसिस्को 778 00:36:33,526 --> 00:36:36,655 हम गुड एग्स में हैं, इंटरनेट पर सामान पहुंचाने वाली एक ऐसी कंपनी 779 00:36:36,738 --> 00:36:39,616 जो सर्कलअप के एआई को पसंद आ गई। 780 00:36:39,699 --> 00:36:42,744 हमारी कंपनी इग्निशन एआई पर चलती है जिसने सर्कलअप में पैसा इकट्ठा किया, 781 00:36:42,827 --> 00:36:47,415 पर साथ ही हमारे जो छोटे कारोबार हैं, उन्हें ग्राहक ढूँढ़ने में मदद करती है। 782 00:36:47,499 --> 00:36:48,500 रोरी ईकन सर्कलअप के सह-संस्थापक एवं सीओओ 783 00:36:48,583 --> 00:36:50,126 सर्कलअप के सीओओ, रोरी ईकन ने 784 00:36:50,210 --> 00:36:53,254 इस कंपनी की शुरुआत करने से पहले, 785 00:36:53,338 --> 00:36:54,881 औद्योगिक एवं मानवीय कंपनियों में काम किया है। 786 00:36:54,965 --> 00:36:58,385 सर्कलअप एआई के इस्तेमाल से अरबों आंकड़ों की छान-बीन करके 787 00:36:58,468 --> 00:37:00,637 ये पता लगाती है कि ग्राहकों को 788 00:37:00,762 --> 00:37:02,222 उनके खाद्य एवं स्वास्थ्य उत्पाद से क्या चाहिए। 789 00:37:02,305 --> 00:37:03,640 खरीदार होने के नाते, आपके सामने ये समस्या होती है 790 00:37:03,723 --> 00:37:05,308 कि चारों तरफ़, हर तरह के सामान की 791 00:37:05,392 --> 00:37:07,018 कई सौ कंपनियाँ हैं। 792 00:37:07,560 --> 00:37:09,938 उसके बाद, वे उन छुपी हुई कंपनियों में निवेश करते हैं 793 00:37:10,021 --> 00:37:12,774 जिनके बारे एआई को लगता है कि वो काफ़ी आगे जाएँगी। 794 00:37:13,066 --> 00:37:15,902 उन आगे जाने वाली कंपनियों में से एक, हेलो टॉप आइस क्रीम। 795 00:37:17,988 --> 00:37:21,950 हेलो टॉप आइस क्रीम दक्षिण कैलीफ़ोर्निया का एक छोटा सा नाम था। 796 00:37:22,033 --> 00:37:24,369 आज, वो देश की नंबर एक आइस क्रीम कंपनी है। 797 00:37:24,911 --> 00:37:28,873 सब तरह के ग्राहकों में, हमें काफ़ी बदलाव देखने को मिला है। 798 00:37:28,957 --> 00:37:31,126 उन्हें सेहत के लिए अच्छा उत्पाद चाहिए, 799 00:37:31,209 --> 00:37:33,128 जिससे घर में कम विषैले तत्व आएँ, 800 00:37:33,211 --> 00:37:35,797 ऐसे लोशन चाहिए जिनमें इतने सारे रासायनिक पदार्थ न हों। 801 00:37:36,172 --> 00:37:39,884 जब सर्कलअप के अल्गोरिदम ने अरबों आंकड़े स्कैन किए, 802 00:37:39,968 --> 00:37:42,512 तो उन्होंने पाया कि उनके ग्राहकों को सब चीज़ों की ऐसी सूची चाहिए थी 803 00:37:42,595 --> 00:37:45,056 जो बहुत ही विस्तार में हो। 804 00:37:45,140 --> 00:37:47,475 मिशन पर पूरी तरह से केंद्रित, पर्यावरण अनुकूल कंपनियाँ, 805 00:37:47,600 --> 00:37:50,687 जैविक पदार्थों की खेती के साथ-साथ 806 00:37:50,770 --> 00:37:51,855 अपने समाज में आर्थिक विकास करना। 807 00:37:52,480 --> 00:37:54,315 कुछ ज़्यादा ही बारीकी में है, है ना? 808 00:37:54,858 --> 00:37:58,987 जब सर्कलअप ने हेवेनली ऑर्गैनिक्स में ये सब पाया, तो उसने डब्बों पर सही निशान लगाया। 809 00:37:59,946 --> 00:38:01,573 यही वो चीज़ है जो एआई कर सकती है, 810 00:38:01,656 --> 00:38:03,658 कि सारी जानकारी उस तरह से समझ में आए, 811 00:38:03,742 --> 00:38:07,078 जो 10 साल पहले भी मुमकिन नहीं था। 812 00:38:07,746 --> 00:38:11,332 तो, सर्कलअप का हेवेनली ऑर्गैनिक्स के साथ सहयोग कैसा चल रहा है? 813 00:38:12,208 --> 00:38:15,045 वापस भारत जाकर अमित और ईश्वर से पता करते हैं। 814 00:38:18,006 --> 00:38:20,842 हमने एक नया कारखाना खड़ा किया है जो इसका दुगना है। 815 00:38:21,509 --> 00:38:24,137 हम नए तरीके से काम कर रहे हैं। नई चीज़ें बना रहे हैं। 816 00:38:24,220 --> 00:38:26,765 इस जगह को लेकर और ज़्यादा प्रभाव डाल सकते हैं। 817 00:38:26,848 --> 00:38:29,142 -लगता है उन्होंने आपको बढ़ने में मदद की। -हाँ। 818 00:38:29,225 --> 00:38:31,811 हमें बढ़ने में और क्षमता बढ़ाने में मदद की। 819 00:38:31,895 --> 00:38:34,773 जो लोग आपके लिए शहद इकट्ठा करते हैं, उन पर क्या प्रभाव पड़ा है? 820 00:38:34,856 --> 00:38:37,400 इस वक्त, हम 650 परिवारों की मदद कर रहे हैं। 821 00:38:37,484 --> 00:38:39,486 जैसे-जैसे हम बढ़ते जाएँगे, हम और शहद बेचेंगे, 822 00:38:39,569 --> 00:38:41,780 और हर हज़ार किलो के साथ, हम एक और परिवार की मदद कर पाएँगे, 823 00:38:41,863 --> 00:38:45,033 यानि अगले साल तक, शायद 700, 750 परिवार होंगे। 824 00:38:45,116 --> 00:38:46,534 -वाह, अच्छा। -हाँ। 825 00:38:46,618 --> 00:38:50,914 और आज आप देखेंगे कि उनकी आर्थिक स्थिति पहले से अच्छी है। 826 00:38:50,997 --> 00:38:54,125 उनके पास अच्छा घर है, घर में अच्छा बंदोबस्त है। 827 00:38:54,209 --> 00:38:56,127 वे अपने बच्चों को स्कूल भेजते हैं। 828 00:38:56,503 --> 00:38:58,213 यह पूँजीवाद है, जो फ़ायदेमंद है। 829 00:38:58,296 --> 00:38:59,339 समझ रहे हैं मेरी बात को? 830 00:38:59,422 --> 00:39:02,217 कारोबार की मदद से लोगों का भला करना। 831 00:39:02,884 --> 00:39:04,511 तभी हम सब इस काम में जुट गए। 832 00:39:06,429 --> 00:39:09,641 क्या एआई इंसानियत को पराजित कर पाएगी? 833 00:39:09,724 --> 00:39:12,685 या फिर हमें अपनी ज़िंदगी के मकसद की तलाश में चिल्लाते हुए छोड़ देगी? 834 00:39:13,394 --> 00:39:16,648 अभी तक, दुनिया के इस कोने में इसका काफ़ी अच्छा असर रहा है। 835 00:39:17,982 --> 00:39:19,734 शायद ऐसी कोई परिस्थिति है 836 00:39:19,818 --> 00:39:22,779 जहाँ एआई हमारे सभी आंकड़ों को निर्भीक रूप से निर्धारित करती है 837 00:39:22,862 --> 00:39:25,782 और तय करती है कि हम उतने बुरे नहीं, और हम साथ मिलकर 838 00:39:26,241 --> 00:39:30,161 तरक्की और रोबोट-मानव तालमेल की एक नई दुनिया तैयार कर रहे हैं। 839 00:39:31,663 --> 00:39:32,747 या शायद नहीं। 840 00:39:33,790 --> 00:39:36,084 अगर ऐसा है, तो हमारा वक्त निकला जा रहा है। 841 00:39:36,501 --> 00:39:38,962 तो, प्लीज़ कपड़े उतारने वाले इन रोबोट के मज़े लीजिए। 842 00:40:26,217 --> 00:40:29,012 हो गया। वाह! हाँ! 843 00:40:31,055 --> 00:40:32,348 बहुत अच्छा था! 844 00:40:32,432 --> 00:40:33,933 इसके लिए एक तौलिया चाहिए।