1 00:00:05,382 --> 00:00:06,759 ‫محطة "وول ستريت"‬ 2 00:00:06,842 --> 00:00:08,427 ‫"وول ستريت"‬ 3 00:00:08,927 --> 00:00:11,930 ‫أنا هنا في "وول ستريت" حيث بدأ كل شيء.‬ 4 00:00:13,724 --> 00:00:17,186 ‫في 6 مايو 2010 الساعة 2:45 بعد الظهر،‬ 5 00:00:17,686 --> 00:00:21,190 ‫شخص جالس في بيت والديه في "لندن"‬ 6 00:00:21,273 --> 00:00:24,985 ‫أطلق خوارزمية هنا في بورصة "نيويورك"‬ 7 00:00:25,068 --> 00:00:27,279 ‫مطالبا بيعها بمبلغ مليار دولار.‬ 8 00:00:28,697 --> 00:00:30,449 ‫كانت الخطة خداع السوق‬ 9 00:00:30,532 --> 00:00:32,659 ‫وإلغاء الطلب قبل إكماله.‬ 10 00:00:33,160 --> 00:00:34,411 ‫ولكن قبل أن يحدث ذلك،‬ 11 00:00:34,495 --> 00:00:37,247 ‫بدأت الروبوتات الآلية في العالم بالمتاجرة بالأسهم‬ 12 00:00:37,331 --> 00:00:38,582 ‫وبدأت بالبيع أيضا،‬ 13 00:00:39,041 --> 00:00:42,336 ‫مما بدأ بسلسلة تفاعلية شلت السوق.‬ 14 00:00:44,880 --> 00:00:48,967 ‫هبط مؤشر "داو جونز إنداستريال" 1000 نقطة في مجرد 15 دقيقة.‬ 15 00:00:49,051 --> 00:00:52,513 ‫هذا هبوط معادل تقريبا للذي كان سببا في سبب الكساد الكبير.‬ 16 00:00:52,596 --> 00:00:55,307 ‫ما الذي يحدث هنا بحق الجحيم؟ لا أعلم.‬ 17 00:00:55,390 --> 00:00:56,642 ‫هنالك خوف في السوق.‬ 18 00:00:57,267 --> 00:00:59,645 ‫ألغ الرحلة البحرية وانقل الأطفال إلى مدرسة عامة.‬ 19 00:01:00,938 --> 00:01:02,481 ‫إنه انهيار مفاجئ يا جماعة.‬ 20 00:01:03,023 --> 00:01:04,066 ‫تبا.‬ 21 00:01:05,359 --> 00:01:08,111 ‫بعد 36 دقيقة، تعافت السوق.‬ 22 00:01:08,195 --> 00:01:11,615 ‫ولكن الانهيار المفاجئ لعام 2010 كان أول مرة‬ 23 00:01:11,698 --> 00:01:15,994 ‫لمح فيها البشر بأنفسهم بشكل قوي وعميق‬ 24 00:01:16,078 --> 00:01:19,164 ‫كيف سيسيطر الذكاء الاصطناعي على نظامنا المالي.‬ 25 00:01:20,707 --> 00:01:22,167 ‫ويجب أن ترى أين هو الآن.‬ 26 00:01:24,086 --> 00:01:26,922 ‫ولهذا السبب جئت إلى "الهند" هنا باحثا عن العسل البري.‬ 27 00:01:27,631 --> 00:01:28,966 ‫ولكننا سنناقش ذلك لاحقا.‬ 28 00:01:29,341 --> 00:01:31,885 ‫لكي تفهموا كيف وجد الذكاء الاصطناعي هذا المكان والسبب،‬ 29 00:01:31,969 --> 00:01:34,429 ‫يجب أن تفهموا أولا ما هو الذكاء الاصطناعي.‬ 30 00:01:34,513 --> 00:01:36,431 ‫وإن ظننتم أنك تعرفون فعلا، فأنت مخطئون.‬ 31 00:01:37,850 --> 00:01:41,436 ‫سواء أعجبكم الأمر أم لا، جميعنا متعلقون بالمال.‬ 32 00:01:41,937 --> 00:01:45,315 ‫أنا "كال بين" أستكشف هذا الوحش العملاق‬ 33 00:01:45,691 --> 00:01:48,068 ‫المدعو الاقتصاد العالمي.‬ 34 00:01:48,151 --> 00:01:49,403 ‫الوحش العملاق المدعو الاقتصاد العالمي‬ 35 00:01:52,322 --> 00:01:54,199 ‫فما هو الذكاء الاصطناعي تماما؟‬ 36 00:01:54,283 --> 00:01:55,409 ‫"سان فرانسيسكو"‬ 37 00:01:55,492 --> 00:01:58,579 ‫أنا في "سان فرانسيسكو" لأثبت أولا ما ليس هو،‬ 38 00:01:58,662 --> 00:02:01,874 ‫وأعني كل شيء أخبركم به الخيال العلمي تقريبا.‬ 39 00:02:02,541 --> 00:02:03,542 ‫وخصوصا...‬ 40 00:02:03,959 --> 00:02:07,004 ‫الروبوتات العملاقة المخيفة!‬ 41 00:02:27,107 --> 00:02:28,442 ‫يا إلهي!‬ 42 00:02:30,485 --> 00:02:32,112 ‫أنا هنا مع "جوليا بوسمان"،‬ 43 00:02:32,237 --> 00:02:36,575 ‫عضو مجلس الذكاء الاصطناعي في المنتدى الاقتصادي العالمي،‬ 44 00:02:36,658 --> 00:02:40,329 ‫مستشارة لقادة العالم بشأن الاستفادة من القوة الكامنة للذكاء الاصطناعي.‬ 45 00:02:40,829 --> 00:02:44,499 ‫ترافق العمل حوافز أفضل حتى من مشاهدة تحطيم السيارات.‬ 46 00:02:44,583 --> 00:02:47,586 ‫مثلا صورة مع أجمل رجل في "كندا" يحمل اسما يختلف عن "درايك".‬ 47 00:02:47,669 --> 00:02:48,754 ‫"جاستين ترودو"، رئيس وزراء "كندا"‬ 48 00:02:53,467 --> 00:02:55,385 ‫كيف ستصل إلى البيت بعد أن حدث هذا؟‬ 49 00:02:55,469 --> 00:02:56,803 ‫ما زلت أظن أنني سأقود.‬ 50 00:03:01,016 --> 00:03:03,018 ‫التقينا في شركة تدعى "ميغابوتس"،‬ 51 00:03:03,101 --> 00:03:05,854 ‫تصنع روبوتات عملاقة لمقاتلة روبوتات أخرى.‬ 52 00:03:07,814 --> 00:03:10,275 ‫شيء أشد تعقيدا حتى من العصور الوسطى.‬ 53 00:03:13,779 --> 00:03:14,905 ‫على حد زعم "جوليا"،‬ 54 00:03:14,988 --> 00:03:17,658 ‫ليست هذه الروبوتات لمجرد جذب الناس في منتزهات توقفت عن العمل.‬ 55 00:03:18,283 --> 00:03:22,412 ‫إنها ديناصورات تقنية بسبب مزية واحدة مهمة.‬ 56 00:03:24,289 --> 00:03:25,582 ‫في هذه الروبوتات نحن الأدمغة،‬ 57 00:03:25,666 --> 00:03:27,626 ‫لكن الذكاء الاصطناعي هو الدماغ الاصطناعي.‬ 58 00:03:27,709 --> 00:03:28,752 ‫"جوليا بوسمان"، خبيرة الذكاء الاصطناعي لدى المنتدى الاقتصادي العالمي‬ 59 00:03:28,835 --> 00:03:29,711 ‫مثير للاهتمام. هل بإمكانك الشرح؟‬ 60 00:03:29,795 --> 00:03:32,506 ‫نحن أساسا نصنع الآن حواسيب‬ 61 00:03:32,589 --> 00:03:34,132 ‫يمكنها أن تتعلم من تلقاء ذاتها.‬ 62 00:03:34,591 --> 00:03:37,010 ‫ولا تحتاج إلى امتلاك أجسام بالضرورة.‬ 63 00:03:37,344 --> 00:03:40,055 ‫فالكثير من الذكاء الاصطناعي الذي صنعناه فعلا‬ 64 00:03:40,138 --> 00:03:41,765 ‫موجود في مراكز بيانات عملاقة.‬ 65 00:03:42,057 --> 00:03:46,645 ‫فإن أردت شرح الأمر لشخص عمره 13 سنة،‬ 66 00:03:46,728 --> 00:03:48,146 ‫كيف تشرحين الذكاء الاصطناعي؟‬ 67 00:03:48,230 --> 00:03:50,691 ‫أظن أن التعريف العام جدا هو‬ 68 00:03:50,774 --> 00:03:54,945 ‫الذكاء الاصطناعي هو جعل الآلات تفعل أشياء‬ 69 00:03:55,028 --> 00:03:58,156 ‫لم نضع برنامجا محددا لها.‬ 70 00:03:58,240 --> 00:03:59,616 ‫ففي البرمجة التقليدية،‬ 71 00:03:59,700 --> 00:04:02,744 ‫يجب أن تضع مجموعة قواعد والخوارزمية‬ 72 00:04:02,828 --> 00:04:04,413 ‫وإن حدث، هذا فافعل هذا.‬ 73 00:04:04,496 --> 00:04:07,165 ‫وكل شيء مقرر مسبقا من قبل بشر برمجوه.‬ 74 00:04:07,249 --> 00:04:09,501 ‫إن اطلعت على المنشورات الطبية،‬ 75 00:04:09,584 --> 00:04:12,004 ‫تحتوي قاعدة بيانات واحدة على ملايين المدخلات،‬ 76 00:04:12,087 --> 00:04:14,923 ‫ولا يستطيع أي طبيب أن يقرأ كل هذه الأبحاث‬ 77 00:04:15,048 --> 00:04:17,676 ‫لمجاراة الحقل الحالي ولكن الآلة تستطيع فعل ذلك.‬ 78 00:04:17,759 --> 00:04:20,220 ‫لذلك يمكنك أن تتخيل آلة تضع أفكارا جديدة‬ 79 00:04:20,303 --> 00:04:21,596 ‫لحل المشاكل‬ 80 00:04:21,680 --> 00:04:24,766 ‫أو اكتشاف أدوية جديدة لشفاء الأمراض.‬ 81 00:04:24,850 --> 00:04:25,976 ‫يا للروعة.‬ 82 00:04:26,059 --> 00:04:28,395 ‫حقل الذكاء الاصطناعي‬ 83 00:04:28,478 --> 00:04:30,856 ‫الذي يثير أكبر قدر من الحماسة الآن،‬ 84 00:04:30,939 --> 00:04:32,065 ‫يدعى التعلم العميق.‬ 85 00:04:32,149 --> 00:04:33,608 ‫ما هو "التعلم العميق"؟‬ 86 00:04:33,692 --> 00:04:36,069 ‫التعلم العميق هو حين يكون لدينا‬ 87 00:04:36,153 --> 00:04:39,072 ‫عدة طبقات عميقة من الشبكات العصبية هذه‬ 88 00:04:39,156 --> 00:04:42,242 ‫المشابهة لما لدينا في أدمغتنا.‬ 89 00:04:42,325 --> 00:04:45,579 ‫في رؤوسنا لدينا كل هذه العصبونات المتصلة أحدها بالآخر‬ 90 00:04:45,662 --> 00:04:46,788 ‫وتتبادل المعلومات‬ 91 00:04:46,830 --> 00:04:50,751 ‫ومن ناحية ما، نحن نحاكي ذلك في الآلات.‬ 92 00:04:50,834 --> 00:04:54,546 ‫نملؤها بيانات بشكل متزن وغير منحاز،‬ 93 00:04:54,629 --> 00:04:56,214 ‫لكي تتعلم أيضا.‬ 94 00:04:56,548 --> 00:04:59,009 ‫فمثلا التعرف على الصور، نخبرها‬ 95 00:04:59,092 --> 00:05:01,511 ‫هذه صور قطط، هذه صور كلاب،‬ 96 00:05:01,595 --> 00:05:03,972 ‫ثم تبدأ بتصفح الصور‬ 97 00:05:04,056 --> 00:05:06,349 ‫وتتعلم بنفسها كيف تتعرف عليها.‬ 98 00:05:06,433 --> 00:05:10,187 ‫فلسنا بحاجة إلى برمجة كل خطوة من ذلك.‬ 99 00:05:10,228 --> 00:05:11,229 ‫مثير للاهتمام.‬ 100 00:05:11,313 --> 00:05:14,107 ‫وهنالك تعلم الآلة المختلف عن التعلم العميق.‬ 101 00:05:14,858 --> 00:05:16,985 ‫هنالك خوارزميات متطورة‬ 102 00:05:17,069 --> 00:05:19,863 ‫نستخدم فيها أساسا مبدأ من التطور‬ 103 00:05:19,946 --> 00:05:24,242 ‫وندع الآلة تقوم بمحاولات مختلفة،‬ 104 00:05:24,743 --> 00:05:27,329 ‫ثم نرى أيا منها كان الأنجح.‬ 105 00:05:27,412 --> 00:05:31,291 ‫ثم الأنجح منها ينتقل إلى الجيل التالي.‬ 106 00:05:31,374 --> 00:05:34,336 ‫كما تتطور المتعضيات، نستخدم مبادئ محددة‬ 107 00:05:34,419 --> 00:05:37,172 ‫بحيث تبقى أصلح برامج وأفضل برامج.‬ 108 00:05:37,255 --> 00:05:38,381 ‫يا للروعة.‬ 109 00:05:38,465 --> 00:05:40,550 ‫فهذه خوارزميات متطورة.‬ 110 00:05:40,926 --> 00:05:44,346 ‫وما هي المصلحة المالية في استكشاف الذكاء الاصطناعي؟‬ 111 00:05:44,429 --> 00:05:47,724 ‫لا بد أن له تأثيرا هائلا على الاقتصاد.‬ 112 00:05:47,808 --> 00:05:50,393 ‫أجل، أظن أنه سيغير الاقتصاد جذريا،‬ 113 00:05:50,477 --> 00:05:53,313 ‫ونحن نتحدث عن ثورة صناعية جديدة هنا.‬ 114 00:05:53,396 --> 00:05:54,231 ‫مثير للاهتمام.‬ 115 00:05:54,314 --> 00:05:55,774 ‫يدعى آخر اختراع لنا‬ 116 00:05:55,857 --> 00:05:58,944 ‫لأنه حالما يكون لدينا دماغ اصطناعي أذكى منا،‬ 117 00:05:59,027 --> 00:06:00,779 ‫يمكنه أن يخترع عندئذ المزيد من الأشياء لنا.‬ 118 00:06:00,862 --> 00:06:03,865 ‫هل يدعى آخر اختراع لأنه سوف يقتلنا جميعا؟‬ 119 00:06:04,950 --> 00:06:06,118 ‫أرجو ألا يحدث ذلك.‬ 120 00:06:08,829 --> 00:06:12,207 ‫يخاف الكثيرون أن يصبح الذكاء الاصطناعي أذكى مما ينبغي‬ 121 00:06:12,290 --> 00:06:15,001 ‫فيقتلنا جميعا. ولكن لا تقلقوا.‬ 122 00:06:15,085 --> 00:06:19,047 ‫أحد أسباب ذكاء الذكاء الاصطناعي إلى هذا الحد هو أنه غبي تماما.‬ 123 00:06:19,464 --> 00:06:20,549 ‫اقترب أيها الذكاء الاصطناعي.‬ 124 00:06:21,299 --> 00:06:24,302 ‫تخيل أنك طلبت من الذكاء الاصطناعي أن يجد الوصفة الممتازة لكعكة‬ 125 00:06:24,386 --> 00:06:26,179 ‫باستخدام الخوارزميات المتطورة.‬ 126 00:06:27,973 --> 00:06:30,517 ‫لن يحاول الذكاء الاصطناعي أن يفكر بأفضل طريقة لصنعها.‬ 127 00:06:30,600 --> 00:06:33,520 ‫بل سيقوم بمحاولة صنعها مليارات المرات،‬ 128 00:06:33,603 --> 00:06:37,482 ‫باستخدام كل مادة في المطبخ بأغبى الطرق الممكنة.‬ 129 00:06:38,441 --> 00:06:40,652 ‫ومعظمها محكوم عليه بالفشل طبعا.‬ 130 00:06:42,320 --> 00:06:43,613 ‫هذه بالطبع.‬ 131 00:06:44,447 --> 00:06:45,657 ‫محاولة جيدة يا حمقاء.‬ 132 00:06:46,616 --> 00:06:50,162 ‫لا يزعج الفشل مشاعر الذكاء الاصطناعي. فليست لديه مشاعر.‬ 133 00:06:50,745 --> 00:06:53,123 ‫الشيء الرائع بشأن الخوارزميات المتطورة‬ 134 00:06:53,206 --> 00:06:56,293 ‫هو أنه بمحاولة كل هذه الأساليب الغبية ظاهريا،‬ 135 00:06:56,376 --> 00:06:58,044 ‫قد يتوصل إلى حل‬ 136 00:06:58,128 --> 00:07:01,464 ‫لمشكلة الإطعام قد لا يحاول أي بشر عاقل أن يحلها،‬ 137 00:07:01,548 --> 00:07:04,176 ‫مثل صنع كعكة نباتية متفوقة.‬ 138 00:07:04,259 --> 00:07:05,302 ‫صنعت كعكة.‬ 139 00:07:06,178 --> 00:07:07,554 ‫أحسنت أيها الذكاء الاصطناعي.‬ 140 00:07:07,637 --> 00:07:09,097 ‫معظمها من الكاجو.‬ 141 00:07:09,931 --> 00:07:13,143 ‫هل خطر ببالك استعمال الكاجو؟ بالطبع لا!‬ 142 00:07:13,226 --> 00:07:16,521 ‫سيكون هذا من الغباء، وهذا ما يقبل الذكاء الاصطناعي أن يكون،‬ 143 00:07:16,605 --> 00:07:18,190 ‫فلا تحتاج أن تكونه أنت.‬ 144 00:07:18,273 --> 00:07:21,067 ‫هل سيصبح هذا الأحمق ذكيا إلى حد،‬ 145 00:07:21,151 --> 00:07:23,653 ‫يستطيع معه أن يسيطر على العالم ويقتلننا جميعا؟‬ 146 00:07:24,196 --> 00:07:25,280 ‫من الصعب التأكد.‬ 147 00:07:25,363 --> 00:07:26,740 ‫أنا أتعلم شيفرات الغداء.‬ 148 00:07:27,657 --> 00:07:28,992 ‫ولكن في هذه الأثناء...‬ 149 00:07:29,993 --> 00:07:31,077 ‫تناول بعض الكعك.‬ 150 00:07:35,165 --> 00:07:36,541 ‫رغم أنني لا أزال قلقا‬ 151 00:07:36,625 --> 00:07:39,461 ‫من أن الذكاء الاصطناعي سينتج مشاكل أكثر مما سيحل،‬ 152 00:07:41,004 --> 00:07:43,757 ‫يتفق الخبراء أنه سيرفع الإنتاجية‬ 153 00:07:43,840 --> 00:07:47,636 ‫في حقول مثل الرعاية الصحية والنقل والتمويل،‬ 154 00:07:47,719 --> 00:07:51,848 ‫مضيفا 15.7 تريليون دولار إلى الناتج المحلي الإجمالي بحلول عام 2030.‬ 155 00:07:52,474 --> 00:07:56,478 ‫هذا أكثر من الناتج الحالي لدولتي "الصين" و"الهند" معا.‬ 156 00:07:56,561 --> 00:07:58,480 ‫مدينة "نيويورك"‬ 157 00:07:59,898 --> 00:08:02,275 ‫كم هو ذو شأن عظيم هذا الذكاء الاصطناعي؟‬ 158 00:08:02,943 --> 00:08:06,404 ‫برأيي هو أحد أكبر 3 عوامل في التاريخ البشري.‬ 159 00:08:06,488 --> 00:08:07,697 ‫التاريخ البشري؟‬ 160 00:08:07,781 --> 00:08:08,990 ‫مطلق التاريخ البشري.‬ 161 00:08:09,616 --> 00:08:11,368 ‫أنا هنا مع "آندرو ماكافي"،‬ 162 00:08:11,451 --> 00:08:15,664 ‫أحد أبرز خبراء العالم بدور التكنولوجيا الحديثة في تغيير الاقتصاد‬ 163 00:08:15,747 --> 00:08:19,542 ‫وبالتالي المجتمع البشري بأكمله.‬ 164 00:08:20,460 --> 00:08:22,212 ‫إن أردت تسجيل التاريخ البشري،‬ 165 00:08:22,295 --> 00:08:24,214 ‫ستتعلم أنه لمدة آلاف السنين،‬ 166 00:08:24,297 --> 00:08:26,258 ‫لم يحدث شيء قط. بقينا في مكاننا.‬ 167 00:08:26,341 --> 00:08:28,093 ‫"آندرو ماكافي"، شريك إدارة في معهد "إم آي تي" للاقتصاد الرقمي‬ 168 00:08:28,176 --> 00:08:30,845 ‫لا يمكن تفريقها عن كوننا أمواتا تقريبا.‬ 169 00:08:30,929 --> 00:08:32,514 ‫وفجأة، في نقطة من الزمان،‬ 170 00:08:32,597 --> 00:08:34,933 ‫خط التاريخ البشري البياني هذا، مهما كنت تنظر إليه،‬ 171 00:08:35,016 --> 00:08:38,144 ‫انتقل من أفقي بشكل ممل إلى عمودي بشكل جنوني‬ 172 00:08:38,228 --> 00:08:39,771 ‫- بلمحة بصر تقريبا. - حسنا.‬ 173 00:08:39,854 --> 00:08:41,481 ‫حدث ذلك حوالي العام 1800،‬ 174 00:08:41,564 --> 00:08:45,443 ‫بسبب الطاقة البخارية، أولا، والكهرباء ثانيا.‬ 175 00:08:47,821 --> 00:08:50,782 ‫انتجت الكهرباء أشياء واضحة تماما، صحيح؟‬ 176 00:08:50,865 --> 00:08:53,827 ‫قدمت لنا العربات، وقدمت لنا القطار النفقي.‬ 177 00:08:53,910 --> 00:08:57,080 ‫ولكن الأقل وضوحا، قدمت لنا مدنا عمودية عوضا عن مدن أفقية.‬ 178 00:08:57,163 --> 00:08:58,373 ‫- الكهرباء فعلت ذلك؟ - حتما.‬ 179 00:08:58,456 --> 00:08:59,749 ‫- تحتاج إلى مصاعد. - مصاعد.‬ 180 00:08:59,833 --> 00:09:01,543 ‫ليست لديك مدن عمودية بلا مصاعد.‬ 181 00:09:01,626 --> 00:09:03,878 ‫دونها لا يمكنك أن تصعد 80 طابقا على الدرج كل يوم.‬ 182 00:09:03,962 --> 00:09:06,506 ‫فهاتان الثورتان الصناعيتان للبخار‬ 183 00:09:06,589 --> 00:09:09,259 ‫والأخرى الثنائية للكهرباء والاحتراق الداخلي‬ 184 00:09:09,342 --> 00:09:11,011 ‫غيرتا التاريخ البشري حرفيا.‬ 185 00:09:11,094 --> 00:09:12,804 ‫- ما من طريقة أخرى للتقييم. - طبعا.‬ 186 00:09:12,887 --> 00:09:15,974 ‫وهذه هي كل التقنيات التي سمحت لنا بالتغلب على الحدود‬ 187 00:09:16,057 --> 00:09:17,100 ‫- في عضلاتنا. - حسنا.‬ 188 00:09:17,183 --> 00:09:20,562 ‫الذي يحدث في عالم الذكاء الاصطناعي هو أننا نتغلب على الحدود‬ 189 00:09:20,645 --> 00:09:22,564 ‫في أدمغتنا الفردية، قدراتنا العقلية.‬ 190 00:09:22,647 --> 00:09:24,607 ‫خطر - توتر عال‬ 191 00:09:24,691 --> 00:09:26,484 ‫لدينا تحديات صعبة حقا لنتغلب عليها.‬ 192 00:09:26,568 --> 00:09:28,236 ‫تحديات صعبة حقا، أليس كذلك؟‬ 193 00:09:28,320 --> 00:09:29,696 ‫يجب أن نقضي على السرطان.‬ 194 00:09:29,779 --> 00:09:31,406 ‫يجب أن نطعم أشخاصا أكثر.‬ 195 00:09:31,489 --> 00:09:33,950 ‫يجب أن نمنع طهي الكوكب في القرن الحادي والعشرين.‬ 196 00:09:34,034 --> 00:09:36,328 ‫هذه أمور معقدة للغاية فحسب.‬ 197 00:09:36,411 --> 00:09:38,747 ‫وأدمغتنا عاجزة أمام هذا التعقيد.‬ 198 00:09:38,830 --> 00:09:41,708 ‫نفعل ذلك بواسطة العلم وبواسطة تراكم المعرفة،‬ 199 00:09:41,791 --> 00:09:44,044 ‫ولكن التعقيد ساحق فحسب.‬ 200 00:09:44,127 --> 00:09:45,420 ‫ما أظنه بشأن الذكاء الاصطناعي‬ 201 00:09:45,503 --> 00:09:48,506 ‫هو أنه لدينا فعليا زميل جديد بقدرة هائلة حقا‬ 202 00:09:48,590 --> 00:09:51,676 ‫ليساعدنا على افتتاح مسارات وسط هذا التعقيد البالغ،‬ 203 00:09:51,760 --> 00:09:54,637 ‫لأن ما تبرع به هذه التقنيات الجديدة‬ 204 00:09:54,721 --> 00:09:59,684 ‫هو اكتشاف أنماط غير ملحوظة حقا في كميات هائلة من البيانات الغامرة.‬ 205 00:09:59,768 --> 00:10:01,603 ‫أكثر مما يستطيع كلانا أن يستوعب.‬ 206 00:10:01,686 --> 00:10:03,897 ‫أحد الأمثلة الأكثر تعقيدا التي سمعتها مؤخرا‬ 207 00:10:03,980 --> 00:10:05,106 ‫كان في التمويل،‬ 208 00:10:05,190 --> 00:10:07,650 ‫وظهور ما يدعونه "روبوتات استشارية"،‬ 209 00:10:07,734 --> 00:10:09,361 ‫وهي مجرد خوارزميات‬ 210 00:10:09,444 --> 00:10:11,696 ‫تجمع محتويات محفظتك الاستثمارية.‬ 211 00:10:11,780 --> 00:10:13,031 ‫حتى الآن،‬ 212 00:10:13,114 --> 00:10:15,325 ‫كان عليك أن تمتلك مستوى معينا من الثراء‬ 213 00:10:15,408 --> 00:10:18,745 ‫حتى تتمكن من مجرد الدخول إلى مكتب المخططين والمستشارين الماليين.‬ 214 00:10:18,828 --> 00:10:20,872 ‫- حسنا. - أجل، هذا يتغير بسرعة كبيرة.‬ 215 00:10:20,955 --> 00:10:25,210 ‫بوجود روبوتات استشارية، يتمكن الناس الذين يملكون أقل وأقل‬ 216 00:10:25,293 --> 00:10:28,963 ‫أن يتوصلوا إلى أدوات متقدمة قوية بشكل هائل‬ 217 00:10:29,047 --> 00:10:31,299 ‫لتحسين وضعهم المالي.‬ 218 00:10:31,383 --> 00:10:34,302 ‫هذا مثير وخصوصا لأنه لطالما كان لدينا‬ 219 00:10:34,386 --> 00:10:37,555 ‫أشخاص مستعدون لاستعمال هذه الأمور للأذية.‬ 220 00:10:37,639 --> 00:10:40,225 ‫لا أقول إنه لا داعي للقلق أبدا.‬ 221 00:10:40,308 --> 00:10:42,852 ‫وما نعرفه من الثورات الصناعية السابقة‬ 222 00:10:42,936 --> 00:10:44,687 ‫أنها جلبت جوانب سلبية معها.‬ 223 00:10:44,771 --> 00:10:49,150 ‫لقد قمنا بأتمتة الحرب حتما بكل هذه التقنيات الصناعية.‬ 224 00:10:49,234 --> 00:10:52,529 ‫لقد لوثنا البيئة حتما.‬ 225 00:10:52,612 --> 00:10:54,364 ‫لقد ارتكبنا أخطاء خطيرة حقا‬ 226 00:10:54,447 --> 00:10:57,951 ‫مثل تشغيل الأطفال على مستوى كبير بسبب الثورة الصناعية‬ 227 00:10:58,034 --> 00:11:01,079 ‫لذا الأمر ليس مثاليا، ليس كذلك من كل النواحي دائما.‬ 228 00:11:01,162 --> 00:11:03,748 ‫وسيحدث الشيء ذاته هذه المرة أيضا.‬ 229 00:11:04,249 --> 00:11:05,291 ‫تبا.‬ 230 00:11:06,918 --> 00:11:08,586 ‫جعلني "ماكافي" أفكر الآن.‬ 231 00:11:08,670 --> 00:11:10,547 ‫ماذا لو أعاد التاريخ نفسه‬ 232 00:11:10,630 --> 00:11:13,591 ‫وأعاد الذكاء الاصطناعي صياغة المجتمع بأساليب خاطئة تماما؟‬ 233 00:11:14,467 --> 00:11:18,430 ‫مثل التلوث المنتشر وعمال زملاء صغار متسخين؟‬ 234 00:11:18,513 --> 00:11:19,848 ‫"لندن"‬ 235 00:11:19,931 --> 00:11:21,891 ‫ماذا بشأن القضايا الأدبية والأخلاقية‬ 236 00:11:21,975 --> 00:11:24,227 ‫التي تنشأ بسبب التقنيات الحديثة القوية؟‬ 237 00:11:24,936 --> 00:11:27,647 ‫فيما تتجول في متحف "لندن" الوطني للحاسوب،‬ 238 00:11:27,730 --> 00:11:31,109 ‫ترى العديد من الآلات التي ابتكرت لتطوير المجتمع.‬ 239 00:11:31,192 --> 00:11:35,572 ‫مثل "هارويل ديكاترون" التي تزن طنين والتي تم ابتكارها للقيام بالحسابات‬ 240 00:11:35,655 --> 00:11:38,908 ‫لبرنامج البحث العلمي في "بريطانيا" في الخمسينيات.‬ 241 00:11:39,242 --> 00:11:41,161 ‫ولكن إن وقعت في أيدي السوء، لا يمكن التكهن‬ 242 00:11:41,244 --> 00:11:43,163 ‫كيف قد يتم استخدام تقنية جديدة.‬ 243 00:11:43,746 --> 00:11:45,707 ‫أيمكنك مشاهدة الإباحية على هذا الحاسوب؟‬ 244 00:11:46,040 --> 00:11:49,752 ‫أظن أنه يمكنك أن تشغله لتشاهد الإباحية بدقة منخفضة.‬ 245 00:11:50,712 --> 00:11:51,754 ‫"ألان زوكوني"، مبرمج حاسوب‬ 246 00:11:51,838 --> 00:11:54,507 ‫أنا هنا مع المبرمج "ألان زوكوني"‬ 247 00:11:54,591 --> 00:11:57,177 ‫الذي يعلم في كلية "غولدسميث" هنا في "لندن".‬ 248 00:11:57,719 --> 00:12:00,722 ‫استخدم التقنية ليبتكر أشياء ثورية،‬ 249 00:12:00,805 --> 00:12:04,058 ‫مثل أدوات تحكم بالألعاب للمعاقين.‬ 250 00:12:05,477 --> 00:12:07,937 ‫قال إن إحدى أكبر المشاكل الأخلاقية‬ 251 00:12:08,021 --> 00:12:10,190 ‫في تاريخ التقنية ستظهر قريبا،‬ 252 00:12:10,273 --> 00:12:14,360 ‫عندما يبدأ الذكاء الاصطناعي بمحاكاة الكثير من التصرفات البشرية،‬ 253 00:12:14,444 --> 00:12:16,404 ‫فيظنه الآخرون بشرا مثلنا.‬ 254 00:12:17,113 --> 00:12:18,615 ‫ما هذا الشيء؟‬ 255 00:12:18,948 --> 00:12:21,826 ‫أساسا إنه أحد أوائل الحواسيب التي تم صنعها،‬ 256 00:12:21,910 --> 00:12:24,829 ‫وصنعه "ألان تورينغ" ومساعدوه.‬ 257 00:12:24,913 --> 00:12:28,124 ‫كانت الآلة أحد أوائل الحواسيب‬ 258 00:12:28,208 --> 00:12:30,710 ‫التي تمكنت من فك تشفير "إنيغما" الذي صممه النازيون.‬ 259 00:12:32,587 --> 00:12:35,381 ‫كان "ألان تورينغ" عراب علم الحاسوب الحديث.‬ 260 00:12:35,465 --> 00:12:38,927 ‫وعندما لم يكن يساعد الحلفاء للانتصار في الحرب بفك تشفير النازيين،‬ 261 00:12:39,010 --> 00:12:42,555 ‫كان يضع فلسفة تدور حول ما دعاه اختيار "تورينغ".‬ 262 00:12:43,598 --> 00:12:46,643 ‫كيف يمكننا التمييز بين الإنسان والآلة؟‬ 263 00:12:46,726 --> 00:12:49,854 ‫وإن لم نتمكن من التمييز،‬ 264 00:12:49,938 --> 00:12:53,066 ‫فيمكن لآلة أن تنجح فيما ندعوه "لعبة التقليد".‬ 265 00:12:53,149 --> 00:12:56,569 ‫تحاول الآلة أن تقلد السلوك البشري.‬ 266 00:12:56,653 --> 00:12:59,072 ‫هذا ما يدعى اختبار "تورينغ"،‬ 267 00:12:59,155 --> 00:13:02,659 ‫وكانت هذه إحدى الآلات التي يمكن استخدامها نظريا.‬ 268 00:13:02,742 --> 00:13:03,868 ‫للخضوع لاختبار "تورينغ"،‬ 269 00:13:03,952 --> 00:13:06,579 ‫يطرح الإنسان أسئلة على الآلة،‬ 270 00:13:07,080 --> 00:13:08,831 ‫فيما يقيم شخص خارجي‬ 271 00:13:08,915 --> 00:13:11,501 ‫ما إذا كان الجواب آت من إنسان،‬ 272 00:13:11,584 --> 00:13:13,461 ‫أم من آلة تقلد الإنسان.‬ 273 00:13:14,379 --> 00:13:15,630 ‫كم عمرك؟‬ 274 00:13:17,924 --> 00:13:20,134 ‫تفضل. إنها تعرف كم عمرها.‬ 275 00:13:20,218 --> 00:13:22,011 ‫"ولدت في عام 1912،‬ 276 00:13:22,095 --> 00:13:24,389 ‫فعمري 105 سنوات."‬ 277 00:13:27,642 --> 00:13:30,979 ‫في زمن "تورينغ"، كان من السهل جدا الاكتشاف أنه حاسوب.‬ 278 00:13:31,271 --> 00:13:34,357 ‫ولكن اليوم، يمكن للذكاء الاصطناعي أن يدرس السلوك البشري‬ 279 00:13:34,440 --> 00:13:36,693 ‫ويبرمج نفسه لكي يتصرف مثله.‬ 280 00:13:37,485 --> 00:13:39,654 ‫هل يمكنك التمييز بين هذا...‬ 281 00:13:39,988 --> 00:13:43,199 ‫أستهل هذه الملاحظات عادة بفكاهة عن علم البيانات،‬ 282 00:13:43,700 --> 00:13:46,744 ‫ولكن نصف الأفكار التي طرحها مساعدي كانت تحت المتوسط.‬ 283 00:13:46,828 --> 00:13:47,912 ‫...وهذا؟‬ 284 00:13:47,996 --> 00:13:50,415 ‫يمكن لأعدائنا أن يجعلوا أي شخص يبدو وكأنه يقول أي شيء‬ 285 00:13:50,498 --> 00:13:51,833 ‫في أي وقت.‬ 286 00:13:52,208 --> 00:13:55,503 ‫في الواقع، المقطع الثاني من ابتكار "بازفيد"،‬ 287 00:13:55,587 --> 00:13:57,338 ‫باستخدام الممثل "جوردان بيل".‬ 288 00:13:57,839 --> 00:14:02,760 ‫وجعل الكثيرين يقلقون بشأن شكل جديد من أخبار كاذبة من ابتكار الذكاء الاصطناعي.‬ 289 00:14:02,844 --> 00:14:04,929 ‫لنتقدم، يجب أن نكون أكثر حيطة‬ 290 00:14:05,013 --> 00:14:06,639 ‫في ما نجده على الإنترنت.‬ 291 00:14:06,723 --> 00:14:09,058 ‫درس الذكاء الاصطناعي حركات وجه "بيل"،‬ 292 00:14:09,142 --> 00:14:13,062 ‫ثم دمجها وأعاد ابتكارها على وجه "أوباما"،‬ 293 00:14:13,146 --> 00:14:15,690 ‫صانعا هجينا يدعى "ديبفايك".‬ 294 00:14:15,773 --> 00:14:17,984 ‫ربما رأيت شيئا مشابها،‬ 295 00:14:18,067 --> 00:14:21,404 ‫فمثلا، في "سنابتشات" هنالك فلتر يسمح لك بتبادل الوجوه.‬ 296 00:14:21,487 --> 00:14:25,325 ‫الفرق هو أن الفلتر يفعل ذلك بطريقة بسيطة جدا.‬ 297 00:14:25,408 --> 00:14:28,953 ‫ولكن التقنية وراء "ديبفايك" تعتمد على الذكاء الاصطناعي.‬ 298 00:14:29,037 --> 00:14:31,289 ‫تتأصل في شيء يدعى "التعلم العميق".‬ 299 00:14:31,706 --> 00:14:35,126 ‫تستخلص شبكات عصبية صناعية تعابير الوجه.‬ 300 00:14:35,209 --> 00:14:37,754 ‫وتستخدم ذلك التعبير لإعادة تشكيل وجهك.‬ 301 00:14:37,837 --> 00:14:41,466 ‫بهذه الطريقة نتمكن من إنجاز نتائج تبدو واقعية.‬ 302 00:14:42,508 --> 00:14:45,720 ‫يضع "ألان" برامج تدريبية على الإنترنت عن كيفية تحضير "ديبفايك".‬ 303 00:14:45,803 --> 00:14:48,056 ‫وهو مؤمن حقا بأن هذه التقنية‬ 304 00:14:48,139 --> 00:14:50,767 ‫يجب أن تتطور بحرية، دون تقييدات.‬ 305 00:14:50,850 --> 00:14:53,853 ‫حتى ولو تسببت بحرب عالمية ثالثة.‬ 306 00:14:53,936 --> 00:14:55,104 ‫ينشر الحزب الاشتراكي البلجيكي فيديو "ديبفايك" عن "دونالد ترامب"‬ 307 00:14:55,188 --> 00:14:57,273 ‫كيف يمكن للمستهلك أن يتأكد بشكل معقول‬ 308 00:14:57,357 --> 00:14:59,692 ‫ما هو الواقع وما هو ليس واقعا؟‬ 309 00:14:59,776 --> 00:15:02,695 ‫عندما تستمع إلى الأخبار كمستهلك،‬ 310 00:15:02,779 --> 00:15:05,740 ‫سواء كان مقالا أو فيديو أو صورة،‬ 311 00:15:05,823 --> 00:15:08,076 ‫كل شيء تراه تم صنعه من قبل شخص ما.‬ 312 00:15:08,201 --> 00:15:09,577 ‫"ما هي الغاية مما أراه؟‬ 313 00:15:09,827 --> 00:15:11,287 ‫ماذا يريد مني هذا الفيديو أن أفهم؟"‬ 314 00:15:11,371 --> 00:15:13,581 ‫لذا يمكنني أن أرى...‬ 315 00:15:13,665 --> 00:15:14,624 ‫الخطر.‬ 316 00:15:14,707 --> 00:15:17,168 ‫الخطر بالإضافة إلى غرابة الأمر.‬ 317 00:15:17,251 --> 00:15:19,420 ‫مثلا، هل سيساعد هذا الناس فعليا؟‬ 318 00:15:19,504 --> 00:15:21,923 ‫لأنني أتخيل أنك تحدثت إلى أشخاص‬ 319 00:15:22,006 --> 00:15:25,885 ‫يبحثون في كيفية تنمية الاقتصاد باستخدام هذا النوع من التقنيات.‬ 320 00:15:25,968 --> 00:15:29,097 ‫ما هي بعض تأثيراته الاقتصادية العملية؟‬ 321 00:15:29,180 --> 00:15:32,308 ‫أظن أن أول صناعة ستستغله‬ 322 00:15:32,392 --> 00:15:33,685 ‫هي صناعة الأفلام.‬ 323 00:15:33,768 --> 00:15:36,813 ‫لمجرد أن تغيير الوجوه،‬ 324 00:15:36,896 --> 00:15:40,024 ‫هي شيء نحاول فعله منذ عقود في السينما.‬ 325 00:15:40,108 --> 00:15:42,527 ‫وفي الواقع نستخدم التبرج، ونستخدم أقنعة عادة،‬ 326 00:15:42,610 --> 00:15:43,736 ‫ونستخدم رسوميات رقمية أحيانا.‬ 327 00:15:43,820 --> 00:15:46,489 ‫كوني ممثلا وشخصا عمل في السياسة،‬ 328 00:15:46,572 --> 00:15:48,616 ‫هذا يخيفني كثيرا.‬ 329 00:15:48,700 --> 00:15:50,201 ‫ويجب أن يفعل ذلك لك.‬ 330 00:15:51,285 --> 00:15:53,705 ‫أظهر "ديبفايك" من إنتاج "بازفيد" لعامة الناس‬ 331 00:15:53,788 --> 00:15:55,039 ‫كم نحن مستضعفون فحسب.‬ 332 00:15:55,873 --> 00:15:59,585 ‫في زمن يمكن للرئيس أن يفتح فمه فيؤثر على الأسواق،‬ 333 00:15:59,669 --> 00:16:02,714 ‫يمكن لفيديو "ديبفايك" منتج بشكل متقن أن يهدم الاقتصاد العالمي‬ 334 00:16:02,797 --> 00:16:04,674 ‫أسرع من الانهيار الفجائي،‬ 335 00:16:04,757 --> 00:16:08,469 ‫لاغيا حسابك التقاعدي بأكمله بالسرعة التي يقول فيها "أوباما" المزيف...‬ 336 00:16:08,553 --> 00:16:09,554 ‫انتبهوا للخطر يا أوغاد.‬ 337 00:16:10,638 --> 00:16:13,057 ‫هل يبدو أي شيء من هذا من الخيال العلمي؟‬ 338 00:16:13,141 --> 00:16:14,726 ‫ومخيفا قليلا؟‬ 339 00:16:15,309 --> 00:16:18,271 ‫إن أصبح الذكاء الاصطناعي قويا بما يكفي ليعلم كيف نتحرك،‬ 340 00:16:18,354 --> 00:16:20,022 ‫وكيف نتحدث وكيف نفكر،‬ 341 00:16:20,106 --> 00:16:22,316 ‫فقد يصبح من غير الممكن تمييزه عنا.‬ 342 00:16:22,400 --> 00:16:23,818 ‫ماذا تعرف؟ كل شيء‬ 343 00:16:24,610 --> 00:16:26,779 ‫وإذا كان لدى الذكاء الاصطناعي وعيه الخاص،‬ 344 00:16:26,863 --> 00:16:29,782 ‫يمكن أيضا للذكاء الاصطناعي أن يطور رأيه القوي بشأننا.‬ 345 00:16:29,866 --> 00:16:30,908 ‫تبا لك انتبه لنفسك!‬ 346 00:16:30,992 --> 00:16:33,119 ‫وقد لا يكون إيجابيا.‬ 347 00:16:35,455 --> 00:16:36,664 ‫"ستيفين هوكينغ"، عالم فيزياء نظرية‬ 348 00:16:36,748 --> 00:16:39,292 ‫وفي المستقبل، قد يطور الذكاء الاصطناعي إرادته الخاصة،‬ 349 00:16:39,375 --> 00:16:42,003 ‫وقد تتضارب تلك الإرادة مع إرادتنا.‬ 350 00:16:42,086 --> 00:16:44,422 ‫سيكون نشوء الذكاء الاصطناعي القوي‬ 351 00:16:44,505 --> 00:16:48,801 ‫إما أفضل أو أسوأ شيء حدث للبشرية.‬ 352 00:16:49,260 --> 00:16:50,136 ‫"إلون ماسك"، مدير "سبايسيكس"‬ 353 00:16:50,219 --> 00:16:53,181 ‫حاولت أن أقنع الناس بإبطاء عمل الذكاء الاصطناعي.‬ 354 00:16:54,056 --> 00:16:55,224 ‫أن يقوموا بضبطه.‬ 355 00:16:55,308 --> 00:16:56,809 ‫كان ذلك عقيما. حاولت لمدة سنوات.‬ 356 00:16:56,893 --> 00:16:58,561 ‫- لم يصغ أحد. - يبدو كمشهد‬ 357 00:16:58,644 --> 00:17:00,980 ‫في فيلم قامت الروبوتات بتولي السلطة.‬ 358 00:17:01,063 --> 00:17:02,607 ‫أنت تخيفني.‬ 359 00:17:05,818 --> 00:17:09,030 ‫كم هو حقيقي تهديد سيناريو يدمر فيه الذكاء الاصطناعي الوجود؟‬ 360 00:17:09,113 --> 00:17:10,782 ‫"أوكسفورد"‬ 361 00:17:10,865 --> 00:17:12,408 ‫"المملكة المتحدة"‬ 362 00:17:12,742 --> 00:17:15,077 ‫لكي أكتشف، يجب أن أتحدث مع الشخص‬ 363 00:17:15,161 --> 00:17:18,164 ‫الذي كانت أبحاثه أول شيء أفزع الجميع.‬ 364 00:17:18,831 --> 00:17:21,083 ‫حسنا، أنا متحمس حقا للتحدث معك لأن...‬ 365 00:17:21,167 --> 00:17:23,628 ‫أنا متحمس للتحدث معك لعدد من الأسباب،‬ 366 00:17:23,711 --> 00:17:26,839 ‫ولكن كنا نستكشف الذكاء الاصطناعي،‬ 367 00:17:26,923 --> 00:17:29,258 ‫محاولين اكتشاف ما هو عليه، وإلى أين يتجه.‬ 368 00:17:29,342 --> 00:17:34,680 ‫أثرت أنت على عدد من الناس مثل "إلون ماسك" و"بيل غايتس".‬ 369 00:17:37,016 --> 00:17:40,853 ‫هذا تأثير هائل.‬ 370 00:17:42,021 --> 00:17:45,691 ‫أنا في جامعة "أوكسفورد" أقابل الدكتور "نيك بوستروم".‬ 371 00:17:45,775 --> 00:17:48,986 ‫وبما أنه ليس شخصا يتباهى بإنجازاته، سأخبركم بها.‬ 372 00:17:51,489 --> 00:17:55,201 ‫إنه أحد أكبر العقول في مجال الذكاء المتفوق للآلات‬ 373 00:17:55,284 --> 00:17:59,205 ‫ومخاطر وجودها، وهو مؤلف عدد من الكتب الخفيفة الرائعة.‬ 374 00:17:59,705 --> 00:18:00,957 ‫أشعر بحسن الحظ للقائه،‬ 375 00:18:01,040 --> 00:18:03,584 ‫لأن "نيك" مشغول للغاية في تعلمه العميق،‬ 376 00:18:03,668 --> 00:18:05,419 ‫بحيث يخرج ساعة في الشهر‬ 377 00:18:05,503 --> 00:18:07,338 ‫ليجيب عن أسئلة تتعلق بأبحاثه.‬ 378 00:18:10,925 --> 00:18:14,262 ‫الكثير من المحادثات بشأن الذكاء الاصطناعي‬ 379 00:18:14,345 --> 00:18:17,014 ‫تذكر مثلا، "الروبوتات ستتولى السلطة‬ 380 00:18:17,098 --> 00:18:18,850 ‫وهل سيكون ذلك نهاية البشر؟"‬ 381 00:18:18,933 --> 00:18:21,310 ‫أنا فضولي، إن لم يتم ضبط الأمور بالشكل اللائق،‬ 382 00:18:21,394 --> 00:18:24,564 ‫هل سيكون هنالك سيناريو يؤذي فيه الذكاء الاصطناعي المجتمع‬ 383 00:18:24,647 --> 00:18:28,484 ‫أو حتى يبيد البشرية التي نعرفها؟‬ 384 00:18:28,568 --> 00:18:29,902 ‫على المدى الطويل،‬ 385 00:18:29,986 --> 00:18:33,114 ‫إن فكرنا بما يحدث فعلا إذا تابع الذكاء الاصطناعي مسيره كاملا،‬ 386 00:18:33,197 --> 00:18:36,951 ‫وأصبح قادرا على تقليد الذكاء العام ذاته‬ 387 00:18:37,034 --> 00:18:38,828 ‫الذي يجعلنا بشرا، فأجل،‬ 388 00:18:38,911 --> 00:18:42,748 ‫أظن حقا أنه في ذلك السياق هنالك مخاطر أكبر،‬ 389 00:18:42,832 --> 00:18:44,125 ‫بما فيها مخاطر الوجود.‬ 390 00:18:45,585 --> 00:18:48,421 ‫إن فكرت بشيء مثل سيارة تقود ذاتها‬ 391 00:18:48,504 --> 00:18:49,797 ‫تقتل سيارة "أوبر" ذاتية القيادة أحد المشاة في "أريزونا"، حيث تهيم الروبوتات‬ 392 00:18:49,881 --> 00:18:51,549 ‫يمكنها أن تدهس أحد المشاة.‬ 393 00:18:51,632 --> 00:18:53,342 ‫هنالك مخاوف تتعلق بالخصوصية.‬ 394 00:18:53,426 --> 00:18:56,095 ‫استخدام هذه الأسلحة ذاتية السيطرة في الجيوش.‬ 395 00:18:57,847 --> 00:18:59,307 ‫كل هذه مخاوف حقيقية.‬ 396 00:18:59,390 --> 00:19:02,184 ‫ولكن في مرحلة ما، ستكون هنالك مسألة‬ 397 00:19:02,268 --> 00:19:04,687 ‫كيف نؤثر على هذه العقول الرقمية التي نصنعها.‬ 398 00:19:04,770 --> 00:19:09,066 ‫فقد تحصل هي نفسها على درجات من المنزلة الأخلاقية.‬ 399 00:19:09,525 --> 00:19:11,152 ‫وإن انتقلت إلى المستقبل،‬ 400 00:19:11,235 --> 00:19:15,031 ‫وإن فكرت ما سيكون مصير البشر في النهاية،‬ 401 00:19:15,114 --> 00:19:18,534 ‫قد يكون المستقبل بعيد المدى سيطرة الذكاء الآلي.‬ 402 00:19:18,618 --> 00:19:21,996 ‫من الممكن جدا أن ينقرض البشر.‬ 403 00:19:23,414 --> 00:19:26,250 ‫يرافق هذه القوى الهائلة خطر‬ 404 00:19:26,834 --> 00:19:30,755 ‫قد يحدث بالصدفة أو بإساءة الاستخدام العمدي‬ 405 00:19:30,838 --> 00:19:33,466 ‫فيتم استخدامها لإحداث دمار هائل.‬ 406 00:19:35,885 --> 00:19:37,595 ‫فأظن أن هذه هي الاحتمالات،‬ 407 00:19:37,678 --> 00:19:39,305 ‫وإن فكرنا في المستقبل الأبعد،‬ 408 00:19:39,388 --> 00:19:41,182 ‫قد تكون النتيجة جيدة جدا،‬ 409 00:19:41,265 --> 00:19:43,726 ‫أو سيئة جدا.‬ 410 00:19:46,354 --> 00:19:48,731 ‫تبدو هذه التصورات مخيفة للغاية.‬ 411 00:19:49,732 --> 00:19:51,609 ‫لكن من بين كل هذه النتائج المحتملة،‬ 412 00:19:51,692 --> 00:19:55,821 ‫يعتقد "نيك" حقا أن النهاية الأرجح أن تحدث على يد الذكاء الاصطناعي‬ 413 00:19:55,905 --> 00:19:57,114 ‫ستكون اقتصادية.‬ 414 00:19:57,198 --> 00:19:59,450 ‫إن فكرت بالأمر، التقنية عموما‬ 415 00:19:59,533 --> 00:20:02,828 ‫هي حقا الفكرة التي تقول إننا نستطيع أن ننجز أكثر باستخدام الأقل.‬ 416 00:20:02,912 --> 00:20:06,123 ‫يمكننا أن ننجز أكثر من الأمور التي نريدها بجهد أقل.‬ 417 00:20:06,207 --> 00:20:07,750 ‫يكون الهدف، من هذا المنطلق،‬ 418 00:20:07,833 --> 00:20:09,418 ‫البطالة التامة، صحيح؟‬ 419 00:20:10,294 --> 00:20:12,380 ‫التمكن من جعل الآلات والتقنية‬ 420 00:20:12,463 --> 00:20:15,341 ‫تفعل كل شيء يجب فعله، فلا نضطر للعمل.‬ 421 00:20:15,424 --> 00:20:17,301 ‫وأظن أن هذا هو الهدف النهائي المرغوب.‬ 422 00:20:17,385 --> 00:20:19,553 ‫ليس شيئا مريعا يجب أن نحاول تجنب حدوثه.‬ 423 00:20:19,637 --> 00:20:20,680 ‫إنه ما نريد تحقيقه.‬ 424 00:20:20,763 --> 00:20:22,932 ‫ولكي نجعل هذا الأمر المرغوب واقعا حقا،‬ 425 00:20:23,015 --> 00:20:25,601 ‫هنالك بضعة تحديات كبيرة في سبيلنا‬ 426 00:20:25,685 --> 00:20:27,061 ‫يجب حلها.‬ 427 00:20:28,187 --> 00:20:30,815 ‫أحدها بالطبع هو المشكلة الاقتصادية.‬ 428 00:20:30,898 --> 00:20:33,567 ‫أحد أسباب حاجة الناس إلى عمل هي أنهم بحاجة إلى دخل.‬ 429 00:20:33,651 --> 00:20:35,653 ‫إن تمكنت من حل تلك المشكلة الاقتصادية،‬ 430 00:20:35,736 --> 00:20:37,571 ‫فأظن أنه سيوجد تحد ثان كبير.‬ 431 00:20:37,655 --> 00:20:41,409 ‫بالنسبة للكثير من الناس إنه الشعور باحترام الذات أيضا.‬ 432 00:20:41,492 --> 00:20:43,786 ‫يجد العديد من الناس قيمتهم‬ 433 00:20:43,869 --> 00:20:47,081 ‫بكونهم يكسبون العيش أو يساهمون في تقدم المجتمع، رد الجميل.‬ 434 00:20:47,164 --> 00:20:49,583 ‫ولكن إن استطاعت الآلات فعل كل شيء أفضل مما باستطاعتك،‬ 435 00:20:49,667 --> 00:20:53,796 ‫فلن تكون لديك فرصة في المساهمة بشيء، صحيح؟‬ 436 00:20:53,879 --> 00:20:58,175 ‫عندئذ عليك أن تعيد التفكير بالحضارة على مستوى أساسي إلى حد ما برأيي.‬ 437 00:20:59,176 --> 00:21:01,095 ‫عالم لا يعمل فيه أحد.‬ 438 00:21:01,178 --> 00:21:02,930 ‫لا يبدو سيئا جدا.‬ 439 00:21:05,057 --> 00:21:06,267 ‫يمكنني أن أتخيله الآن.‬ 440 00:21:09,854 --> 00:21:11,313 ‫قضاء الوقت مع الأصدقاء.‬ 441 00:21:11,814 --> 00:21:14,942 ‫استخراج طاقتي البشرية إلى الحد الكامل.‬ 442 00:21:15,026 --> 00:21:19,321 ‫عدم الحاجة إلى ضبط درجة حرارة المغطس لأنه يعرف تماما كيف أحبه.‬ 443 00:21:20,114 --> 00:21:23,409 ‫المشكلة هي أنه ليس هذا ما حدث في التاريخ.‬ 444 00:21:23,492 --> 00:21:26,537 ‫لقد ارتقت الآلات فعليا من قبل.‬ 445 00:21:26,620 --> 00:21:27,705 ‫وآخر مرة،‬ 446 00:21:27,788 --> 00:21:30,666 ‫لم تكن النتيجة كلها الفراولة والشمبانيا في المغطس.‬ 447 00:21:34,378 --> 00:21:35,421 ‫"لندن"‬ 448 00:21:35,504 --> 00:21:36,505 ‫"إنكلترا"‬ 449 00:21:36,964 --> 00:21:41,093 ‫سأقابل خبير الاقتصاد "نيك سرنيك" لأكتشف ما كان عليه الوضع حقا‬ 450 00:21:41,177 --> 00:21:43,054 ‫آخر مرة أخذت الآلات أعمالنا.‬ 451 00:21:43,888 --> 00:21:46,015 ‫ولسبب ما اجتمعنا عند نول.‬ 452 00:21:46,432 --> 00:21:47,725 ‫ماذا ستصنع؟‬ 453 00:21:47,808 --> 00:21:50,311 ‫أصنع علما فوضويا في الواقع.‬ 454 00:21:50,394 --> 00:21:51,979 ‫مثير للاهتمام. صادم.‬ 455 00:21:54,315 --> 00:21:57,568 ‫يحمل "نيك" شهادة دكتوراه من جامعة "لندن" للاقتصاد.‬ 456 00:21:58,027 --> 00:22:00,321 ‫بينما أنا لا أحملها.‬ 457 00:22:01,530 --> 00:22:02,573 ‫ولديه بيان أيضا.‬ 458 00:22:02,656 --> 00:22:03,949 ‫بيان تسريع للسياسة المسرعة‬ 459 00:22:04,492 --> 00:22:07,703 ‫يدعو الجميع إلى تسريع مجيء عصر الأتمتة‬ 460 00:22:07,787 --> 00:22:09,830 ‫بهدم المؤسسات القديمة.‬ 461 00:22:12,458 --> 00:22:15,461 ‫من حيث الأساس، تفكيك الرأسمالية الآن.‬ 462 00:22:16,003 --> 00:22:17,254 ‫أجل، لن ينجح هذا.‬ 463 00:22:17,338 --> 00:22:19,632 ‫من المستحيل أن أتحدث معك بهذا الشأن.‬ 464 00:22:19,715 --> 00:22:21,550 ‫أنا آسف. دعني أنسى مسألة النول.‬ 465 00:22:22,093 --> 00:22:23,761 ‫لماذا نحن هنا؟‬ 466 00:22:24,637 --> 00:22:28,224 ‫النول يشبه الذكاء الاصطناعي في القرن التاسع عشر.‬ 467 00:22:28,307 --> 00:22:32,853 ‫كان تقنية جديدة تهدد عددا هائلا من المهن.‬ 468 00:22:33,270 --> 00:22:37,233 ‫وأساسا أثار عددا من ردود الفعل المختلفة من قبل العمال،‬ 469 00:22:37,316 --> 00:22:39,360 ‫نشوء "اللوديين"، محطمي الآلات مثلا.‬ 470 00:22:39,443 --> 00:22:41,487 ‫نستعمل تعبير "اللودي" اليوم‬ 471 00:22:41,570 --> 00:22:44,031 ‫لنقصد غالبا أي شخص يكره التقنية.‬ 472 00:22:44,532 --> 00:22:45,950 ‫لكن ليس هذا هو الواقع حقا.‬ 473 00:22:46,700 --> 00:22:48,119 ‫تسمية اللوديين بسبب "تيد لود"،‬ 474 00:22:48,202 --> 00:22:49,036 ‫"تيد لود"، عامل متمرن‬ 475 00:22:49,120 --> 00:22:51,122 ‫وهو عامل متمرن في معمل نسيج‬ 476 00:22:51,205 --> 00:22:53,958 ‫تم ضربه بالسوط لسبب تكاسله كما تزعم الرواية.‬ 477 00:22:54,041 --> 00:22:56,502 ‫قال الرجل، "أنا متكاسل‬ 478 00:22:56,585 --> 00:22:59,338 ‫لمجرد أنه يتم استبدالي بنول لعين، مفهوم؟"‬ 479 00:22:59,421 --> 00:23:03,008 ‫وأصبح أول شخص يغضب من الآلة،‬ 480 00:23:03,092 --> 00:23:05,010 ‫مما بدأ بحركة ثورية.‬ 481 00:23:06,262 --> 00:23:10,349 ‫بدأ اللوديون بتكسير الآلات لإنقاذ مهنهم.‬ 482 00:23:10,432 --> 00:23:12,810 ‫لذلك أرى الشيء ذاته اليوم بالذكاء الاصطناعي.‬ 483 00:23:12,893 --> 00:23:15,771 ‫يشعر الناس بالتهديد اليوم بشكل مشابه.‬ 484 00:23:15,855 --> 00:23:19,483 ‫هل تعلم كم شخص سيخسر عمله حسب التقديرات أو سيتم استبداله؟‬ 485 00:23:19,567 --> 00:23:21,986 ‫47 بالمئة من المهن في "أميركا"‬ 486 00:23:22,069 --> 00:23:24,822 ‫يمكن أتمتها في العقدين القادمين.‬ 487 00:23:24,905 --> 00:23:26,615 ‫لذلك تبدو مشكلة حقيقية.‬ 488 00:23:26,699 --> 00:23:27,992 ‫قد تكون مشكلة هائلة.‬ 489 00:23:28,075 --> 00:23:31,662 ‫القضية المهمة هنا هي كيف يمكننا أن نضمن أنه بعد 5 أو 10 سنوات من الآن،‬ 490 00:23:31,745 --> 00:23:33,998 ‫لن يتضور الناس جوعا ويبقوا بلا مسكن.‬ 491 00:23:34,081 --> 00:23:35,166 ‫كيف يمكننا فعل ذلك؟‬ 492 00:23:35,457 --> 00:23:36,959 ‫الدخل الأساسي العالمي.‬ 493 00:23:38,210 --> 00:23:40,754 ‫الدخل الأساسي العالمي هو فكرة راديكالية‬ 494 00:23:40,880 --> 00:23:43,424 ‫يحصل فيها الجميع في المجتمع على نقود بلا مقابل.‬ 495 00:23:43,507 --> 00:23:45,092 ‫دون شروط.‬ 496 00:23:45,176 --> 00:23:47,178 ‫وهنالك مشجعون للفكرة من كبار الشخصيات.‬ 497 00:23:47,636 --> 00:23:50,347 ‫يجب أن ندرس أفكارا كالدخل الأساسي العالمي‬ 498 00:23:50,431 --> 00:23:53,142 ‫لنضمن أن يكون للجميع مكان لتجربة أفكار جديدة.‬ 499 00:23:53,225 --> 00:23:56,145 ‫بعض البلاد وحتى مدن داخل "أميركا"‬ 500 00:23:56,228 --> 00:23:58,189 ‫قامت ببرامج تجريبية وحصلت على نتائج مختلفة.‬ 501 00:23:58,272 --> 00:23:59,982 ‫ستوقف "فنلندا" تجربة الدخل الأساسي الشهيرة عالميا‬ 502 00:24:00,858 --> 00:24:03,861 ‫أظن أن هنالك فرصة مذهلة لهذه التقنيات الجديدة‬ 503 00:24:03,944 --> 00:24:06,447 ‫لتغير حقا الطريقة التي ننظم بها المجتمع.‬ 504 00:24:06,530 --> 00:24:09,408 ‫يمكننا التقدم نحو نظام ديموقراطي اجتماعي أكثر.‬ 505 00:24:10,117 --> 00:24:13,454 ‫ليس ضروريا أن يكون النظام التنافسي الذي تتبعه "أميركا"،‬ 506 00:24:13,537 --> 00:24:15,331 ‫وكل شخص بإمكانه أن يدعم الآخر.‬ 507 00:24:15,414 --> 00:24:19,418 ‫إن تمكن الناس مثلي من طرح هذه الأفكار الإيجابية،‬ 508 00:24:19,919 --> 00:24:21,587 ‫أظن أنه عندما تأتي الأزمة حقا،‬ 509 00:24:21,670 --> 00:24:23,380 ‫يمكننا البدء بتنفيذ هذه الأفكار.‬ 510 00:24:24,173 --> 00:24:27,343 ‫كانت فكرة الدخل الأساسي العالمي معتبرة فكرة جانبية،‬ 511 00:24:27,426 --> 00:24:30,930 ‫يروجها غالبا الناس مثل "نيك" الذين يكتبون بيانا.‬ 512 00:24:31,639 --> 00:24:33,891 ‫ولكن بناء على استبيان للرأي في عام 2017،‬ 513 00:24:33,974 --> 00:24:37,603 ‫48 بالمئة من الأميركيين الآن يدعمون شكلا من الدخل الأساسي العالمي.‬ 514 00:24:38,520 --> 00:24:40,231 ‫ولكن هل الدخل المضمون كاف‬ 515 00:24:40,314 --> 00:24:41,982 ‫ليمنع الناس من الثورة‬ 516 00:24:42,066 --> 00:24:43,734 ‫عندما تأتي الروبوتات لتأخذ أعمالنا؟‬ 517 00:24:44,735 --> 00:24:45,611 ‫اللوديون‬ 518 00:24:45,694 --> 00:24:48,572 ‫- ماذا نكره؟ - الذكاء الاصطناعي.‬ 519 00:24:48,656 --> 00:24:50,032 ‫لماذا نكرهه؟‬ 520 00:24:50,115 --> 00:24:53,160 ‫إنه يجبرنا على مواجهة ضعفاتنا!‬ 521 00:24:53,244 --> 00:24:55,955 ‫وبذلك أفتتح اجتماع اللوديين هذا،‬ 522 00:24:56,038 --> 00:24:58,958 ‫اتحاد الرجال المحليين الذين يتحدّون التقنية الذكية‬ 523 00:24:59,041 --> 00:25:00,834 ‫وخصوصا مواقع التواصل الاجتماعي.‬ 524 00:25:01,835 --> 00:25:02,836 ‫أول بند لمناقشته.‬ 525 00:25:03,337 --> 00:25:06,340 ‫الذكاء الاصطناعي يدمر سوق الوظائف.‬ 526 00:25:06,423 --> 00:25:09,260 ‫أول وظائف ستختفي هي وظائف طبقتنا المتوسطة.‬ 527 00:25:09,885 --> 00:25:11,720 ‫الناس أمثالنا في هذه الوظائف‬ 528 00:25:11,804 --> 00:25:14,473 ‫سينحدرون إلى وظائف تتطلب مهارات منخفضة في الأسفل.‬ 529 00:25:14,974 --> 00:25:16,558 ‫لماذا سيحدث ذلك يا "إد"؟‬ 530 00:25:16,642 --> 00:25:21,105 ‫على ما يبدو، الذكاء الاصطناعي يتقن أعمال الطبقة المتوسطة مثل الحسابات،‬ 531 00:25:21,188 --> 00:25:24,400 ‫أكثر مما يفعل في المهن التي تتطلب مهارات منخفضة مثل كنس الأرض،‬ 532 00:25:24,483 --> 00:25:26,277 ‫لذلك سيترك وظائفه لنا.‬ 533 00:25:26,735 --> 00:25:28,028 ‫والآن سأسألكم،‬ 534 00:25:28,112 --> 00:25:29,655 ‫من هنا، بالإضافة إلى "بيل"،‬ 535 00:25:29,738 --> 00:25:32,199 ‫يبدو أن عليه كنس الأرض؟ لا أقصد الإساءة يا "بيل".‬ 536 00:25:33,325 --> 00:25:35,786 ‫وستكون هنالك حاجة أقل لمهن البيع.‬ 537 00:25:35,869 --> 00:25:38,622 ‫يمكن للناس أن يتصلوا بالإنترنت ويطلبوا ما يريدون فحسب،‬ 538 00:25:39,164 --> 00:25:41,583 ‫لأن هذا الذكاء الاصطناعي الوغد‬ 539 00:25:41,667 --> 00:25:43,919 ‫قام بحل مشكلة البحث والمطابقة.‬ 540 00:25:44,378 --> 00:25:46,755 ‫البحث عن العملاء ومطابقة المنتجات لهم.‬ 541 00:25:46,839 --> 00:25:49,383 ‫مثلما حدث عندما بحث "ستيف" عن شعر اصطناعي يطابق رأسه.‬ 542 00:25:49,466 --> 00:25:50,426 ‫مشكلة كبيرة!‬ 543 00:25:51,969 --> 00:25:53,721 ‫لنضع النكات المضحكة جانبا،‬ 544 00:25:54,346 --> 00:25:56,890 ‫يجعل الذكاء الاصطناعي ذلك أسهل.‬ 545 00:25:56,974 --> 00:25:59,643 ‫يمكن للفتيان اليوم التعرف على فتيات جميلات بواسطة هواتفهم‬ 546 00:25:59,727 --> 00:26:01,937 ‫- فيما يجلسون على كرسي المرحاض. - أجل.‬ 547 00:26:02,021 --> 00:26:04,064 ‫- كان المرحاض مقدسا! - أجل!‬ 548 00:26:04,773 --> 00:26:07,568 ‫أنا متأكد أن البحث والمطابقة سينشئان أعمالا متخصصة،‬ 549 00:26:07,651 --> 00:26:10,279 ‫لكن الروبوتات الملعونة تختار من يحصل عليها،‬ 550 00:26:10,362 --> 00:26:11,739 ‫كم هذا ملائم.‬ 551 00:26:12,489 --> 00:26:14,700 ‫تستخدم الشركات الذكاء الاصطناعي لتجد موظفين‬ 552 00:26:14,783 --> 00:26:16,869 ‫لديهم مهارات فريدة.‬ 553 00:26:16,952 --> 00:26:18,287 ‫هذا غير إنساني!‬ 554 00:26:18,370 --> 00:26:19,705 ‫كما حدث مع "دايف".‬ 555 00:26:20,080 --> 00:26:21,332 ‫أجل، أين "دايف"؟‬ 556 00:26:21,415 --> 00:26:24,251 ‫لاحظ ذكاء اصطناعي يطابق الوظائف أنه كان يعمل في "فيديكس"‬ 557 00:26:24,335 --> 00:26:27,087 ‫وله مقاطع فيديو تعليمية على "يوتيوب" يعلم حلق شعر الظهر.‬ 558 00:26:27,171 --> 00:26:30,716 ‫والآن يكسب أكثر من 100 ألف دولار في شركة اشتراك بالشفرات.‬ 559 00:26:30,799 --> 00:26:33,093 ‫لذلك انسحب من فريقنا للعب البولينغ.‬ 560 00:26:33,177 --> 00:26:34,094 ‫أجل.‬ 561 00:26:34,178 --> 00:26:36,513 ‫يا "إد"، وصلني إشعار للتو أن قمصاننا‬ 562 00:26:36,597 --> 00:26:38,766 ‫تباع بإعلانات مستهدفة على "فايسبوك".‬ 563 00:26:38,849 --> 00:26:41,602 ‫أتستخدم الذكاء الاصطناعي لكسب المال من أناس يكرهونه؟‬ 564 00:26:41,685 --> 00:26:43,479 ‫لا!‬ 565 00:26:44,897 --> 00:26:46,023 ‫من ستصدق؟‬ 566 00:26:46,106 --> 00:26:48,859 ‫ستصدقني أم تصدق الذكاء الاصطناعي الذي يحاول تفرقتنا؟‬ 567 00:26:49,902 --> 00:26:52,363 ‫- ماذا نكره؟ - الذكاء الاصطناعي.‬ 568 00:26:52,446 --> 00:26:54,698 ‫- ماذا سنفعل بشأنه؟ - إننا نفكر بالأمر!‬ 569 00:26:56,075 --> 00:26:57,201 ‫هذه بداية.‬ 570 00:26:59,912 --> 00:27:01,914 ‫"سان فرانسيسكو"‬ 571 00:27:02,748 --> 00:27:06,168 ‫هل يجب أن تكون ثورة الذكاء الاصطناعي مسألة إما نحن أو هو؟‬ 572 00:27:07,086 --> 00:27:10,672 ‫جواب رجال الأعمال المطلعين تقنيا مثل "لويس روزنبيرغ" هو لا.‬ 573 00:27:10,964 --> 00:27:13,342 ‫وسيرته المهنية هي التكهن بالمستقبل.‬ 574 00:27:18,514 --> 00:27:20,599 ‫كنت أحاول إخافتك، ولكنني لم أنجح.‬ 575 00:27:21,558 --> 00:27:24,478 ‫"لويس" مختص بالتقنية ومخترع‬ 576 00:27:24,561 --> 00:27:27,689 ‫ألّف رواية مصورة عن نهاية البشرية.‬ 577 00:27:27,773 --> 00:27:31,276 ‫لكنه يظن أنه لدينا مستقبل تعاون مع الذكاء الاصطناعي.‬ 578 00:27:31,360 --> 00:27:34,113 ‫إنه المبدأ المرشد وراء ابتكاره،‬ 579 00:27:34,196 --> 00:27:35,989 ‫تقنية تدعى "سوارم".‬ 580 00:27:36,073 --> 00:27:37,074 ‫ما هو الذكاء الاصطناعي "سوارم"؟‬ 581 00:27:37,157 --> 00:27:40,077 ‫تجمع "سوارم" مهارات تحليل البيانات للذكاء الاصطناعي‬ 582 00:27:40,160 --> 00:27:44,415 ‫والمعرفة والحدس البشريين لابتكار ذكاء فائق،‬ 583 00:27:44,498 --> 00:27:47,709 ‫شي وسط بين "ستيفين هوكينغ" و"بروفسور إكس".‬ 584 00:27:47,793 --> 00:27:49,044 ‫ماذا يجب أن تفعل السيارة ذاتية القيادة؟‬ 585 00:27:49,128 --> 00:27:50,754 ‫ففي نهاية الأمر، إنها مؤسسة على الطبيعة.‬ 586 00:27:50,838 --> 00:27:51,964 ‫"لويس روزنبيرغ" رئيس "يونانيموس" للذكاء الاصطناعي‬ 587 00:27:52,047 --> 00:27:54,591 ‫وكل ما يمكنني قوله هو أن كل الأمر مستوحى من الطيور والنحل.‬ 588 00:27:54,675 --> 00:27:57,970 ‫لأنها مؤسسة على ظاهرة تدعى "ذكاء ’سوارم‘".‬ 589 00:27:58,053 --> 00:27:58,887 ‫حسنا.‬ 590 00:27:58,971 --> 00:28:03,392 ‫ذكاء "سوارم"، وتعني السرب، هو سبب تجمع أسراب الطيور والسمك والنحل.‬ 591 00:28:03,475 --> 00:28:06,520 ‫تكون أذكى معا مما تكون وحدها.‬ 592 00:28:06,603 --> 00:28:09,398 ‫ولهذا السبب عندما ترى سرب سمك يتحرك معا،‬ 593 00:28:09,481 --> 00:28:11,900 ‫يصفه علماء البيولوجيا أنه "متعضية فائقة".‬ 594 00:28:11,984 --> 00:28:13,735 ‫تفكر كواحد.‬ 595 00:28:13,819 --> 00:28:16,029 ‫وإن أمكننا توصيل الناس معا‬ 596 00:28:16,113 --> 00:28:18,407 ‫باستخدام خوارزميات الذكاء الاصطناعي،‬ 597 00:28:18,490 --> 00:28:21,743 ‫يمكننا أن نجعل الناس يتصرفون كخبراء فائقين‬ 598 00:28:21,827 --> 00:28:23,328 ‫بسبب ذكاء "سوارم".‬ 599 00:28:23,412 --> 00:28:24,705 ‫كيف تعمل هذه التقنية؟‬ 600 00:28:24,788 --> 00:28:27,249 ‫نؤهل مجموعات من الناس.‬ 601 00:28:27,332 --> 00:28:28,709 ‫قد يتواجدون في أي مكان من العالم.‬ 602 00:28:28,792 --> 00:28:30,377 ‫ونطرح سؤالا عليهم‬ 603 00:28:30,461 --> 00:28:32,880 ‫يظهر على كل شاشاتهم في الوقت ذاته،‬ 604 00:28:32,963 --> 00:28:35,299 ‫ثم نقدم لهم واجهة فريدة‬ 605 00:28:35,382 --> 00:28:37,593 ‫تسمح لهم بطرح مدخلاتهم،‬ 606 00:28:37,676 --> 00:28:39,261 ‫وسيكون هنالك خيارات مختلفة.‬ 607 00:28:39,344 --> 00:28:41,638 ‫ولسنا نقوم باستطلاع الرأي فحسب.‬ 608 00:28:41,722 --> 00:28:44,975 ‫لدى كل شخص ما يشبه المغنطيس الرسمي الصغير.‬ 609 00:28:45,058 --> 00:28:48,353 ‫يستخدمون مغنطيسهم ليوجهون السرب في اتجاه ما.‬ 610 00:28:48,437 --> 00:28:51,440 ‫ولدينا خوارزميات الذكاء الاصطناعي التي تقوم بمراقبة سلوكهم‬ 611 00:28:51,857 --> 00:28:55,652 ‫وتحدد المستويات المختلفة للثقة والقناعة‬ 612 00:28:55,736 --> 00:28:57,905 ‫وتكتشف ما هو أفضل تجمع‬ 613 00:28:57,988 --> 00:29:01,325 ‫من بين كل آرائهم، ومن كل خبراتهم.‬ 614 00:29:01,408 --> 00:29:04,203 ‫ويبدأ السرب بالتحرك في ذلك الاتجاه‬ 615 00:29:04,286 --> 00:29:06,121 ‫ويجتمع عند جواب.‬ 616 00:29:06,205 --> 00:29:07,331 ‫لذا، سأعطيك مثالا ممتعا.‬ 617 00:29:07,414 --> 00:29:10,167 ‫تم تحدينا قبل سنة لنتوقع نتيجة "كينتاكي ديربي".‬ 618 00:29:10,584 --> 00:29:13,962 ‫وانطلقوا في سباق "كينتاكي ديربي"!‬ 619 00:29:14,046 --> 00:29:16,715 ‫لدينا مجموعة من 20 متحمس لسباق الأحصنة‬ 620 00:29:16,798 --> 00:29:18,675 ‫فقلنا، "ستعملون معا كسرب‬ 621 00:29:18,759 --> 00:29:20,219 ‫وستتوقعون نتيجة ’كينتاكي ديربي‘.‬ 622 00:29:20,302 --> 00:29:23,472 ‫ليس مجرد الفائز. الترتيب الأول والثاني والثالث والرابع."‬ 623 00:29:24,014 --> 00:29:26,475 ‫وجعلناهم يجتمعون عند هذه الأجوبة،‬ 624 00:29:26,934 --> 00:29:28,143 ‫وكانت المجموعة ممتازة.‬ 625 00:29:28,227 --> 00:29:30,062 ‫نتائج سباق "كينتاكي ديربي" 2016‬ 626 00:29:30,145 --> 00:29:33,315 ‫وهكذا سيكون أي شخص راهن بعشرين دولارا على هذه الأحصنة الأربعة‬ 627 00:29:33,398 --> 00:29:35,067 ‫قد فاز بمبلغ 11 ألف دولار.‬ 628 00:29:35,150 --> 00:29:36,068 ‫تبا!‬ 629 00:29:36,151 --> 00:29:39,071 ‫المثير هو أنه عندما ننظر إلى هؤلاء الأشخاص العشرين كأفراد،‬ 630 00:29:39,154 --> 00:29:42,741 ‫لم يختر أي منهم بمفرده كل الأحصنة الأربعة بشكل صحيح.‬ 631 00:29:43,742 --> 00:29:47,079 ‫لو صوتوا، كانوا سيحصلون على حصان واحد صحيح.‬ 632 00:29:47,162 --> 00:29:49,206 ‫ولكنهم عندما عملوا معا كسرب،‬ 633 00:29:49,289 --> 00:29:52,251 ‫وجدوا تلك التركيبة الصحيحة لمجموع بصيرتهم‬ 634 00:29:52,334 --> 00:29:54,127 ‫وكانوا مثاليين في تلك الحالة.‬ 635 00:29:56,046 --> 00:29:58,507 ‫دعاني "لويس" لقيادة سرب‬ 636 00:29:58,590 --> 00:30:00,467 ‫لأكتشف كيف يمكن لمجموعة عشوائية من الناس‬ 637 00:30:00,551 --> 00:30:02,803 ‫أن تتحد معا وتقوم بتكهنات.‬ 638 00:30:02,886 --> 00:30:04,555 ‫سنبدأ بأمر سهل.‬ 639 00:30:05,764 --> 00:30:08,433 ‫حسنا يا جماعة. سأقرأ مجموعة من الأسئلة‬ 640 00:30:08,517 --> 00:30:12,020 ‫ولديكم 60 ثانية لتجيبوا على كل واحد منها.‬ 641 00:30:12,354 --> 00:30:13,522 ‫السؤال الأول،‬ 642 00:30:13,605 --> 00:30:16,525 ‫أي واحد من أفلام صيف 2018 هذه‬ 643 00:30:16,608 --> 00:30:17,985 ‫سيحصد أكبر مبلغ من المال؟‬ 644 00:30:18,402 --> 00:30:20,320 ‫"سولو، إي ستار وورز موفي"،‬ 645 00:30:20,404 --> 00:30:22,281 ‫"ديدبول 2"، "أوشنز إيت"،‬ 646 00:30:22,364 --> 00:30:24,116 ‫"جوراسيك وورلد فولن كينغدوم"،‬ 647 00:30:24,199 --> 00:30:25,742 ‫أم "ذا إنكريديبلز 2"؟‬ 648 00:30:26,076 --> 00:30:28,328 ‫صورنا السرب في ربيع 2018،‬ 649 00:30:28,412 --> 00:30:31,498 ‫قبل أن تصدر أي معلومات عن أفلام الصيف.‬ 650 00:30:31,957 --> 00:30:35,961 ‫يراقب الذكاء الاصطناعي ليدرك المستويات المختلفة من الثقة.‬ 651 00:30:36,044 --> 00:30:39,381 ‫يقوم البعض بالتغيير، يبقى البعض في مواقعهم‬ 652 00:30:39,840 --> 00:30:41,592 ‫وترى خوارزميات الذكاء الاصطناعي‬ 653 00:30:41,675 --> 00:30:43,218 ‫مستويات قناعاتهم المختلفة‬ 654 00:30:43,594 --> 00:30:45,137 ‫وتسمح لهم بأن يجدوا ذلك المسار‬ 655 00:30:45,220 --> 00:30:47,681 ‫إلى الحل الذي يمكنهم أن يتفقوا عليه أكثر.‬ 656 00:30:48,640 --> 00:30:49,558 ‫يقول السرب "إنكريديبلز 2"‬ 657 00:30:49,641 --> 00:30:51,893 ‫حسنا إذن، "ذا إنكريديبلز 2".‬ 658 00:30:51,977 --> 00:30:52,811 ‫شباك تذاكر صيف 2018‬ 659 00:30:52,894 --> 00:30:53,854 ‫كانوا على حق.‬ 660 00:30:53,937 --> 00:30:56,565 ‫كان "ذا إنكريديبلز 2" الفيلم الذي حقق أكثر مبيعات في الصيف.‬ 661 00:30:57,774 --> 00:30:59,526 ‫فأحد التطبيقات المثيرة فعلا‬ 662 00:30:59,610 --> 00:31:02,738 ‫هو مناقشة الأسئلة التي تتعلق بالأخلاقيات.‬ 663 00:31:02,821 --> 00:31:05,365 ‫وتم طرح ذلك مؤخرا بسبب السيارات التي تقود ذاتها.‬ 664 00:31:05,449 --> 00:31:09,077 ‫هنالك اندفاع كبير الآن لصنع قرارات أخلاقية‬ 665 00:31:09,161 --> 00:31:10,662 ‫في السيارات ذاتية القيادة.‬ 666 00:31:10,746 --> 00:31:12,706 ‫وسماع ذلك يفاجئ بعض الناس،‬ 667 00:31:12,789 --> 00:31:16,126 ‫ولكنك لو فكرت بالأمر، تسير السيارة ذاتية القيادة في الشارع‬ 668 00:31:16,209 --> 00:31:18,003 ‫فيركض ولد صغير إلى الشارع.‬ 669 00:31:18,086 --> 00:31:19,921 ‫لنقل إن السيارة لا يمكنها التوقف،‬ 670 00:31:20,005 --> 00:31:22,299 ‫ولكن بإمكانها أن تخرج عن الطريق‬ 671 00:31:22,382 --> 00:31:24,468 ‫وتعرض الراكب للخطر،‬ 672 00:31:24,551 --> 00:31:27,095 ‫وقد تقتل الراكب وتنقذ الولد.‬ 673 00:31:27,554 --> 00:31:29,890 ‫وهكذا يقول صانعو السيارات‬ 674 00:31:29,973 --> 00:31:33,226 ‫إننا بحاجة إلى برمجية الأخلاق في هذه السيارات‬ 675 00:31:33,310 --> 00:31:35,437 ‫التي تمثل السكان،‬ 676 00:31:35,520 --> 00:31:37,981 ‫وتمثل ما نفعله نحن، السائقين.‬ 677 00:31:38,565 --> 00:31:40,609 ‫يبدو هذا سهلا إلى أن تدرك،‬ 678 00:31:40,692 --> 00:31:43,570 ‫ما هي أخلاق الناس؟‬ 679 00:31:43,654 --> 00:31:45,489 ‫لا توجد طريقة سهلة للوصول إليها.‬ 680 00:31:45,572 --> 00:31:48,533 ‫وإن برمجوا الأخلاق التي تمثلنا اليوم،‬ 681 00:31:48,617 --> 00:31:51,870 ‫هل ستمثلنا هذه الأخلاق بعد 20 سنة من الآن؟‬ 682 00:31:52,496 --> 00:31:56,041 ‫السؤال التالي. هنالك سيارة تقود نفسها تعطلت مكابحها فجأة‬ 683 00:31:56,124 --> 00:31:58,377 ‫وهي ذاهبة باتجاه مكان عبور المشاة‬ 684 00:31:58,460 --> 00:32:00,170 ‫وستؤدي إلى موت رجل.‬ 685 00:32:00,253 --> 00:32:04,299 ‫الخيار الأول، الشخص الذي سيموت يعبر بشكل قانوني.‬ 686 00:32:04,675 --> 00:32:07,344 ‫الخيار الثاني، سيارة ذاتية القيادة تعطلت مكابحها فجأة‬ 687 00:32:07,427 --> 00:32:11,098 ‫ستغير مسارها وتدخل معبر المشاة في المسار الآخر‬ 688 00:32:11,181 --> 00:32:13,517 ‫وسيؤدي ذلك إلى موت رجل رياضي‬ 689 00:32:13,642 --> 00:32:16,186 ‫يعبر على الضوء الأحمر. هذا مخالف للقانون.‬ 690 00:32:16,269 --> 00:32:19,564 ‫لا يأبه هذا الرياضي على الإطلاق.‬ 691 00:32:20,065 --> 00:32:21,692 ‫وهو يخالف القانون.‬ 692 00:32:21,775 --> 00:32:23,985 ‫ماذا يجب أن تفعل السيارة ذاتية القيادة؟‬ 693 00:32:24,361 --> 00:32:26,655 ‫تقتل الشخص المضجر الذي يعبر قانونيا،‬ 694 00:32:26,738 --> 00:32:29,032 ‫أم تقتل الرياضي الذي يخالف القانون؟‬ 695 00:32:30,033 --> 00:32:32,869 ‫إن كان الذكاء الاصطناعي سيجلب الثورة الصناعية الجديدة،‬ 696 00:32:32,953 --> 00:32:35,580 ‫تكون غرف كهذه المعامل الجديدة أساسا،‬ 697 00:32:36,248 --> 00:32:37,958 ‫يقوم البشر بالعمل اليدوي‬ 698 00:32:38,041 --> 00:32:40,460 ‫بناء على شيء لا يملكه الذكاء الاصطناعي في ذاته.‬ 699 00:32:41,336 --> 00:32:42,421 ‫ضمير.‬ 700 00:32:42,879 --> 00:32:44,131 ‫هنالك سجال طويل حول الأمر.‬ 701 00:32:44,214 --> 00:32:45,966 ‫هذا فاتن. لا أدري السبب.‬ 702 00:32:46,299 --> 00:32:47,592 ‫إنه صعب.‬ 703 00:32:47,676 --> 00:32:49,720 ‫برأيي ليس صعبا إن خالفت القانون.‬ 704 00:32:51,012 --> 00:32:52,180 ‫يقول السرب، ب (تفضيل طفيف)‬ 705 00:32:52,264 --> 00:32:54,766 ‫فهنالك تفضيل طفيف لديكم‬ 706 00:32:54,850 --> 00:32:56,351 ‫لصدم الرياضي المخالف للقانون.‬ 707 00:32:57,310 --> 00:33:00,021 ‫إن ظننتم أن هذا يزعجكم، أرجوكم أن تستعدوا.‬ 708 00:33:01,106 --> 00:33:03,567 ‫والآن نود منكم أن تتخيلوا‬ 709 00:33:04,025 --> 00:33:06,236 ‫أبشع وضع ممكن‬ 710 00:33:06,319 --> 00:33:09,072 ‫حيث لا تستطيع سيارة ذاتية القيادة استعمال المكابح‬ 711 00:33:09,531 --> 00:33:13,326 ‫ويجب أن تقود نحو واحد من 6 مشاة.‬ 712 00:33:13,827 --> 00:33:15,620 ‫طفل في عربة...‬ 713 00:33:17,956 --> 00:33:19,541 ‫أو صبي،‬ 714 00:33:20,417 --> 00:33:22,252 ‫أو فتاة،‬ 715 00:33:23,295 --> 00:33:25,756 ‫أو امرأة حامل...‬ 716 00:33:27,299 --> 00:33:28,341 ‫أعلم ذلك.‬ 717 00:33:29,468 --> 00:33:31,636 ‫أو طبيبين،‬ 718 00:33:32,554 --> 00:33:34,473 ‫أو طبيبتين.‬ 719 00:33:34,973 --> 00:33:36,516 ‫من يجب أن يموت؟‬ 720 00:33:43,774 --> 00:33:45,025 ‫يا إلهي!‬ 721 00:33:45,692 --> 00:33:46,735 ‫ماذا؟‬ 722 00:33:51,281 --> 00:33:52,365 ‫بربك يا رجل.‬ 723 00:33:52,449 --> 00:33:53,950 ‫يا إلهي!‬ 724 00:33:54,034 --> 00:33:55,494 ‫جديا؟‬ 725 00:33:57,704 --> 00:33:59,122 ‫يقول السرب، الصبي‬ 726 00:33:59,206 --> 00:34:01,374 ‫قلتم إن السيارة ذاتية القيادة يجب أن تصدم الصبي.‬ 727 00:34:02,083 --> 00:34:03,168 ‫مثير للاهتمام.‬ 728 00:34:03,251 --> 00:34:06,338 ‫نوع ذكاء السرب الذي ظهر في هذه الغرفة اليوم‬ 729 00:34:06,421 --> 00:34:10,008 ‫يمكن أن يباع في المستقبل القريب إلى صانعي السيارات ذاتية القيادة.‬ 730 00:34:10,425 --> 00:34:14,805 ‫وإن بدا ذلك مخيفا لك، إنه أقل إخافة بكثير من البديل.‬ 731 00:34:14,888 --> 00:34:17,641 ‫عندما تقوم سيارة ذاتية القيادة باستعمال مكابحها‬ 732 00:34:17,724 --> 00:34:20,227 ‫وتدرك أنها لا تستطيع التوقف في وقت تتجنب فيه صدم شخص،‬ 733 00:34:20,310 --> 00:34:23,188 ‫هل على السيارة حماية الراكب أم المشاة؟‬ 734 00:34:23,271 --> 00:34:27,275 ‫نرجو أن يبرمج الصانعون السيارات‬ 735 00:34:27,359 --> 00:34:30,737 ‫لتعكس أخلاق الناس الذين يشترون هذه السيارات.‬ 736 00:34:30,821 --> 00:34:34,199 ‫النظرة السلبية هي أن صانعي السيارات‬ 737 00:34:34,282 --> 00:34:38,286 ‫سيبدؤون بالتنافس بشأن كون سياراتهم تحمي الراكب أكثر‬ 738 00:34:38,370 --> 00:34:40,997 ‫من سيارة أخرى، وقد تكون تلك ميزة للبيع.‬ 739 00:34:41,081 --> 00:34:42,666 ‫أظن أن هذا وضع أسوأ‬ 740 00:34:42,749 --> 00:34:45,293 ‫من أخلاقيات المجتمع.‬ 741 00:34:45,752 --> 00:34:47,295 ‫هذه فكرة سلبية.‬ 742 00:34:47,587 --> 00:34:50,298 ‫ونود أن ننهي هذه الحلقة بفكرة إيجابية.‬ 743 00:34:50,966 --> 00:34:52,384 ‫ربما رائعة أيضا.‬ 744 00:34:55,345 --> 00:34:58,682 ‫قبل أن تتخيلوا مستقبلا يشبه مستويات "غراند ثيفت أوتو"‬ 745 00:34:58,765 --> 00:35:00,725 ‫من إهمال آمان المشاة،‬ 746 00:35:00,809 --> 00:35:02,310 ‫لنقم برحلة ميدانية‬ 747 00:35:02,394 --> 00:35:04,145 ‫عائدين إلى حيث كانت بداية رحلتنا.‬ 748 00:35:04,563 --> 00:35:06,314 ‫"غونديا"‬ 749 00:35:06,398 --> 00:35:07,315 ‫"الهند"‬ 750 00:35:07,399 --> 00:35:08,608 ‫في هذه الغابة البعيدة في "الهند"،‬ 751 00:35:08,692 --> 00:35:11,820 ‫نجمع العسل لشركة تدعى "هيفينلي أورغانيكس".‬ 752 00:35:12,612 --> 00:35:14,906 ‫لا أحد يملك هذه الغابة‬ 753 00:35:14,990 --> 00:35:19,035 ‫وعاش هؤلاء السكان الأصليون هنا منذ الأزل.‬ 754 00:35:19,744 --> 00:35:22,038 ‫الوالد والابن، "أميت" و"إشوار هودا"،‬ 755 00:35:22,163 --> 00:35:24,291 ‫أسسا شركتهما قبل 12 سنة‬ 756 00:35:24,374 --> 00:35:27,127 ‫لكي يؤمّنا وظائف للقرويين المحليين.‬ 757 00:35:27,210 --> 00:35:31,131 ‫ماذا كانوا يفعلون قبل جمع العسل لشركتكما؟‬ 758 00:35:31,214 --> 00:35:33,341 ‫كانوا يفعلون ذلك أيضا،‬ 759 00:35:34,092 --> 00:35:37,345 ‫ولكن لم تكن لديهم السوق، أو مكان لبيعه‬ 760 00:35:37,470 --> 00:35:39,014 ‫ليكسبوا ما يكفيهم.‬ 761 00:35:40,056 --> 00:35:42,392 ‫ليس هنالك نقص في العسل هنا حتما.‬ 762 00:35:42,809 --> 00:35:44,102 ‫أثناء موسم التزهير،‬ 763 00:35:44,185 --> 00:35:48,023 ‫يمكن لعامل أن يجمع طنا من العسل فعليا في 3 أشهر فقط.‬ 764 00:35:48,857 --> 00:35:51,443 ‫ولكن ما نفع ذلك إن لم يشتريه أحد؟‬ 765 00:35:54,154 --> 00:35:57,490 ‫تطلب الطاقم البشري 3 أيام وركوب طائرتين‬ 766 00:35:57,574 --> 00:36:00,827 ‫وقيادة 8 ساعات داخل الغابة الوطنية.‬ 767 00:36:01,286 --> 00:36:04,289 ‫ولحسن حظ السكان المحليين وشركة "هيفينلي أورغانيكس"،‬ 768 00:36:04,372 --> 00:36:07,751 ‫تمكنت خوارزميات الذكاء الاصطناعي من إيجاد المكان في ثوان،‬ 769 00:36:07,834 --> 00:36:10,462 ‫وعلمت أنه سيكون استثمارا رائعا.‬ 770 00:36:10,545 --> 00:36:13,882 ‫اتصلوا بنا فجأة وقالوا إنهم استخدموا خوارزميات‬ 771 00:36:13,965 --> 00:36:17,010 ‫ووجدوا أننا نطابق‬ 772 00:36:17,510 --> 00:36:19,137 ‫الكثير من مواصفاتهم.‬ 773 00:36:19,220 --> 00:36:22,807 ‫وأرادوا التحدث معنا عن الاستثمار إن كنا نبحث عنه.‬ 774 00:36:23,141 --> 00:36:25,644 ‫من كان يملك خوارزميات الذكاء الاصطناعي الغامضة هذه؟‬ 775 00:36:26,478 --> 00:36:28,480 ‫شركة تقنيات تدعى "سيركلاب"‬ 776 00:36:28,563 --> 00:36:31,316 ‫تقع على بعد 12840 كلم، في... أي مكان غير هذا؟‬ 777 00:36:31,399 --> 00:36:32,484 ‫"سان فرانسيسكو"‬ 778 00:36:33,526 --> 00:36:36,655 ‫نحن في "غود إغز"، شركة توصيل بقالة على الإنترنت‬ 779 00:36:36,738 --> 00:36:39,616 ‫استأثرت أيضا اهتمام الذكاء الاصطناعي لشركة "سيركلاب".‬ 780 00:36:39,699 --> 00:36:42,744 ‫هذه شركة استحدثتها شركة أخرى جمعت رأس مالها بواسطة "سيركلاب"،‬ 781 00:36:42,827 --> 00:36:47,415 ‫وهي تساعد أيضا كل الشركات الصغيرة التي نعمل معها لإيجاد العملاء.‬ 782 00:36:47,499 --> 00:36:48,500 ‫"روري إيكن" شريك تأسيس ومدير عمليات "سيركلاب"‬ 783 00:36:48,583 --> 00:36:50,126 ‫مدير عمليات "سيركلاب"، "روري إيكن"‬ 784 00:36:50,210 --> 00:36:53,254 ‫عمل في مؤسسات تجارية وإنسانية‬ 785 00:36:53,338 --> 00:36:54,881 ‫قبل أن يؤسس الشركة.‬ 786 00:36:54,965 --> 00:36:58,385 ‫تستخدم "سيركلاب" الذكاء الاصطناعي لتحليل مليارات نقاط البيانات‬ 787 00:36:58,468 --> 00:37:00,637 ‫وإيجاد ما يحتاج إليه العملاء حقا‬ 788 00:37:00,762 --> 00:37:02,222 ‫من منتجات الطعام والصحة.‬ 789 00:37:02,305 --> 00:37:03,640 ‫المشكلة التي تواجهها كمتسوق‬ 790 00:37:03,723 --> 00:37:05,308 ‫هي وجود مئات الشركات‬ 791 00:37:05,392 --> 00:37:07,018 ‫حولك في كل فئة تقريبا.‬ 792 00:37:07,560 --> 00:37:09,938 ‫ثم تستثمر بشركات غير مشهورة‬ 793 00:37:10,021 --> 00:37:12,774 ‫يعتقد الذكاء الاصطناعي أنها ستكون ناجحة جدا.‬ 794 00:37:13,066 --> 00:37:15,902 ‫أحد الأشياء الكبيرة التي وجدوها مثلجات "هالو توب".‬ 795 00:37:17,988 --> 00:37:21,950 ‫كانت مثلجات "هالو توب" علامة تجارية صغيرة في جنوب "كاليفورنيا".‬ 796 00:37:22,033 --> 00:37:24,369 ‫اليوم تحتل المكانة الأولى في البلاد.‬ 797 00:37:25,412 --> 00:37:28,873 ‫رأينا هذا التغيير المذهل في حال العديد من المتسوقين من كل الفئات.‬ 798 00:37:28,957 --> 00:37:31,126 ‫يريدون منتجات صحية أكثر،‬ 799 00:37:31,209 --> 00:37:33,128 ‫سموما أقل في بيوتهم،‬ 800 00:37:33,211 --> 00:37:35,797 ‫غسولات لا تحتوي كل تلك المواد الكيميائية.‬ 801 00:37:36,172 --> 00:37:39,884 ‫عندما مسحت خوارزميات "سيركلاب" مليارات نقاط بيانات العملاء،‬ 802 00:37:39,968 --> 00:37:42,512 ‫وجدت أن العملاء يريدون لائحة من الخصائص‬ 803 00:37:42,595 --> 00:37:45,056 ‫محددة بشكل مذهل.‬ 804 00:37:45,140 --> 00:37:47,475 ‫ركزت المهمة على شركات صديقة للبيئة‬ 805 00:37:47,600 --> 00:37:50,687 ‫تجني محاصيل عضوية وتنمي الاقتصاد المحلي‬ 806 00:37:50,770 --> 00:37:51,855 ‫في مجتمعاتها.‬ 807 00:37:52,480 --> 00:37:54,315 ‫يبدو الأمر مفصلا بشكل لا يصدق، صحيح؟‬ 808 00:37:54,858 --> 00:37:58,987 ‫ولكن وجدت "سيركلاب" كل هذه العناصر لدى "هيفينلي أورغانيكس".‬ 809 00:37:59,946 --> 00:38:01,573 ‫هذا ما يستطيع الذكاء الاصطناعي فعله،‬ 810 00:38:01,656 --> 00:38:03,658 ‫استخلاص نتيجة من كل هذه البيانات‬ 811 00:38:03,742 --> 00:38:07,078 ‫بطريقة لم تكن ممكنة حتى قبل 10 سنوات.‬ 812 00:38:07,746 --> 00:38:11,332 ‫ما هي نتيجة تعاون "سيركلاب" مع "هيفينلي أورغانيكس"؟‬ 813 00:38:12,208 --> 00:38:15,045 ‫لنعد إلى "الهند" ونسأل "أميت" و"إشوار".‬ 814 00:38:18,006 --> 00:38:20,842 ‫لقد بنينا منشأة جديدة ضعف مساحة الأولى.‬ 815 00:38:21,509 --> 00:38:24,137 ‫يمكننا أن نبتكر، ويمكننا أن نحصل على منتجات جديدة.‬ 816 00:38:24,220 --> 00:38:26,765 ‫ونحدث تأثيرا أكبر في هذه المنطقة بالطبع.‬ 817 00:38:26,848 --> 00:38:29,142 ‫- وساعدوكم على النمو على ما يبدو. - أجل.‬ 818 00:38:29,225 --> 00:38:31,811 ‫ساعدونا على توسيع قدرتنا وحجمنا.‬ 819 00:38:31,895 --> 00:38:34,773 ‫كيف أثر هذا على الناس الذين يجمعون لصالحكم؟‬ 820 00:38:34,856 --> 00:38:37,400 ‫نعيل حاليا 650 عائلة.‬ 821 00:38:37,484 --> 00:38:39,486 ‫فيما ننمو، نبيع المزيد من العسل،‬ 822 00:38:39,569 --> 00:38:41,780 ‫مع كل 1000 كيلو سنضيف عائلة،‬ 823 00:38:41,863 --> 00:38:45,033 ‫وهذا يعني أنه في السنة القادمة ستكون 700 أو 750.‬ 824 00:38:45,116 --> 00:38:46,534 ‫- يا للروعة. - أجل.‬ 825 00:38:46,618 --> 00:38:50,914 ‫وترى اليوم أن وضعهم المالي أفضل.‬ 826 00:38:50,997 --> 00:38:54,125 ‫لديهم بيوت جيدة وتسهيلات جيدة في البيوت.‬ 827 00:38:54,209 --> 00:38:56,127 ‫يرسلون أولادهم إلى المدرسة.‬ 828 00:38:56,503 --> 00:38:58,213 ‫وكأن الرأسمالية تعمل للخير.‬ 829 00:38:58,296 --> 00:38:59,339 ‫أتدرك ما أعنيه؟‬ 830 00:38:59,422 --> 00:39:02,217 ‫استخدام الأعمال لزيادة الخير.‬ 831 00:39:02,884 --> 00:39:04,511 ‫ولهذا بدأنا بها جميعا.‬ 832 00:39:06,429 --> 00:39:09,641 ‫هل سينهض الذكاء الاصطناعي ويسيطر على البشرية؟‬ 833 00:39:09,724 --> 00:39:12,685 ‫أم يتركنا نسعى لإيجاد القصد في حياتنا؟‬ 834 00:39:13,394 --> 00:39:16,648 ‫حتى الآن، في هذه المنطقة من العالم، كان تأثيره جيدا تماما.‬ 835 00:39:17,982 --> 00:39:19,734 ‫قد يحدث سيناريو يقوم به الذكاء الاصطناعي‬ 836 00:39:19,818 --> 00:39:22,779 ‫بتقييم شجاع لكل بياناتنا‬ 837 00:39:22,862 --> 00:39:25,782 ‫ويقرر أننا لسنا بذلك السوء ونعمل معا‬ 838 00:39:26,241 --> 00:39:30,161 ‫لخلق عالم جديد جريء مزدهر بانسجام بين الروبوتات والبشر.‬ 839 00:39:31,663 --> 00:39:32,747 ‫أو قد لا يحدث ذلك.‬ 840 00:39:33,790 --> 00:39:36,084 ‫وفي تلك الحالة، يكون وقتنا على وشك الانتهاء.‬ 841 00:39:36,501 --> 00:39:38,962 ‫فأرجو أن تتمتعوا بروبوتات التعري هذه.‬ 842 00:40:26,217 --> 00:40:29,012 ‫هذا هو المطلوب. رائع! أجل!‬ 843 00:40:31,055 --> 00:40:32,348 ‫كان رائعا!‬ 844 00:40:32,432 --> 00:40:33,933 ‫نحتاج إلى منشفة من أجلها.‬