1 00:00:06,616 --> 00:00:09,419 ‫"مسلسلات NETFLIX الأصلية"‬ 2 00:00:10,987 --> 00:00:13,623 ‫مرحباُ، معكم "جيمي كار"،‬ ‫وهنا برنامجكم "ذا فيكس"،‬ 3 00:00:13,689 --> 00:00:15,525 ‫العرض الذي فيه بدلاً من التذمر فحسب،‬ 4 00:00:15,591 --> 00:00:17,460 ‫نحاول حل وفهم مشاكل العالم.‬ 5 00:00:17,527 --> 00:00:18,594 ‫على الرحب أيها العالم.‬ 6 00:00:18,694 --> 00:00:22,732 ‫في هذه الحلقة، سنحل مشكلة‬ ‫تهديد الذكاء الاصطناعي.‬ 7 00:00:23,566 --> 00:00:26,202 ‫نعم. لو لم تكن متأكداً‬ ‫من ما هو الذكاء الاصطناعي،‬ 8 00:00:26,269 --> 00:00:28,938 ‫"اصطناعي" تعني مزيف،‬ ‫مثل عائلة "كارداشيان"...‬ 9 00:00:30,039 --> 00:00:32,508 ‫و"الذكاء" تعني القدرة المعرفية،‬ 10 00:00:32,575 --> 00:00:34,677 ‫مثل النقيض تماماً من عائلة "كارداشيان".‬ 11 00:00:37,647 --> 00:00:40,550 ‫القلق يكمن في أن الآلات‬ ‫المزودة بالذكاء الاصطناعي ستحل محلنا.‬ 12 00:00:40,616 --> 00:00:42,718 ‫لذلك لا تقلق بشأن المهاجرين‬ ‫الذين يأخذون وظائفك.‬ 13 00:00:42,785 --> 00:00:45,254 ‫من المحتمل جداً أن تأخذها‬ ‫عصارة من نوع "نوتري بولت".‬ 14 00:00:47,790 --> 00:00:50,259 ‫الواقع هو أن العلماء يصنعون آلات‬ 15 00:00:50,326 --> 00:00:52,662 ‫قادرة على التفكير الذكي الحقيقي.‬ 16 00:00:52,728 --> 00:00:57,133 ‫عظيم، لأن الوحيد المفقود من الـ"جي بي إس"‬ ‫ كان رأياً قوياً بشأن "بريكسيت".‬ 17 00:00:59,869 --> 00:01:02,405 ‫كل ما أعرفه هو أنه‬ ‫إذا أصبحت الآلات مدركة لذاتها،‬ 18 00:01:02,472 --> 00:01:05,575 ‫فسيتحتم عليّ تقديم بعض التفسيرات الجدية‬ ‫لفرشاة الأسنان الكهربائية الخاصة بي.‬ 19 00:01:07,643 --> 00:01:08,945 ‫إنها تدغدغ، لكني أحب ذلك.‬ 20 00:01:11,481 --> 00:01:13,583 ‫إذاً، كيف سنحل مشكلة الذكاء الاصطناعي؟‬ 21 00:01:13,649 --> 00:01:15,218 ‫حسناً، يمكننا الحصول على إجابة من "جوجل"،‬ 22 00:01:15,284 --> 00:01:17,520 ‫لكن من الواضح أن "جوجل"‬ ‫سيأخذ جانب الذكاء الاصطناعي.‬ 23 00:01:17,587 --> 00:01:19,889 ‫لذلك دعونا نتخلص‬ ‫من أجهزتنا الهاتفية المتقنة‬ 24 00:01:19,956 --> 00:01:22,792 ‫ونفعل ذلك بالطريقة القديمة‬ ‫باستخدام الكلمات الشفوية.‬ 25 00:01:23,793 --> 00:01:27,396 ‫ومن أفضل لإيجاد حل‬ ‫من مجموعة من الكوميديين البشريين؟‬ 26 00:01:27,463 --> 00:01:28,764 ‫مرحباً بكم في "ذا فيكس"...‬ 27 00:01:37,874 --> 00:01:38,975 ‫حسناً، هكذا سيسير العرض.‬ 28 00:01:39,041 --> 00:01:40,510 ‫أتحدى فريقين من الكوميديين‬ 29 00:01:40,576 --> 00:01:43,346 ‫للخروج بأفكار‬ ‫للتعامل مع تهديد الذكاء الاصطناعي.‬ 30 00:01:43,412 --> 00:01:46,782 ‫سيصوت جمهور الأستديو في نهاية العرض‬ ‫للحل المفضل إليهم.‬ 31 00:01:46,849 --> 00:01:49,519 ‫ينضم إليّ هذا المساء "كاثرين رايان"‬ ‫و"رون فانشز".‬ 32 00:01:53,956 --> 00:01:55,825 ‫"دي إل هيغلي" و"فورتشن فيمستر"!‬ 33 00:01:57,760 --> 00:01:59,462 ‫لاحقاً، سنستمع إلى حلول الفرق،‬ 34 00:01:59,529 --> 00:02:01,731 ‫ولكن قبل ذلك،‬ ‫دعونا نلق نظرة عن كثب على المشكلة.‬ 35 00:02:01,797 --> 00:02:02,765 ‫إليكم حقيقة.‬ 36 00:02:02,832 --> 00:02:05,701 ‫في السنوات الـ20 القادمة،‬ ‫47 بالمئة من الوظائف‬ 37 00:02:05,768 --> 00:02:07,703 ‫ستنفذها الآلات.‬ 38 00:02:08,004 --> 00:02:09,539 ‫ماذا تعتقد؟ هل هذا يخيفك؟‬ 39 00:02:09,605 --> 00:02:13,342 ‫من الأفضل لنا.‬ ‫لا يمكنك تعليم الآلات العنصرية...‬ 40 00:02:19,415 --> 00:02:21,684 ‫أنا لست قلقة بشأن اختفاء الوظائف،‬ 41 00:02:21,751 --> 00:02:24,687 ‫لأنني أعتقد أن كل تقدم قد قوبل بالخوف.‬ 42 00:02:24,754 --> 00:02:27,523 ‫آلات الطباعة والسيارات‬ ‫والتكنولوجيا الصناعية.‬ 43 00:02:27,590 --> 00:02:29,959 ‫اعتقد الجميع أن هذا سيجعل وظائفهم‬ ‫لا قيمة لها،‬ 44 00:02:30,026 --> 00:02:31,961 ‫ولكن في الواقع خلق مزيداً من الوظائف.‬ 45 00:02:32,028 --> 00:02:34,630 ‫ثمة وظائف الآن لم تكن وظائف من قبل.‬ 46 00:02:34,697 --> 00:02:39,368 ‫مثل مدرب الحياة الذي عادةً ما يكون‬ ‫مجرد سيدة أرستقراطية شعرت بالملل.‬ 47 00:02:40,269 --> 00:02:42,572 ‫ويمكنك أن تكون أخصائي باركور الآن.‬ 48 00:02:42,638 --> 00:02:44,307 ‫الذي لم يكن موجوداً من قبل.‬ 49 00:02:45,541 --> 00:02:49,345 ‫لم يقل أحد من مدرستي الثانوية،‬ ‫"أريد أن أكبر لكي أعمل في مقهى للقطط."‬ 50 00:02:49,412 --> 00:02:50,980 ‫لم تكن لدينا هذه الوظائف.‬ 51 00:02:54,050 --> 00:02:55,651 ‫حسناً، أخبرنا بما تشعر به.‬ 52 00:02:55,718 --> 00:02:56,819 ‫- "رون"؟‬ ‫- نعم؟‬ 53 00:02:56,886 --> 00:02:58,054 ‫ما رأيك في هذا؟‬ 54 00:02:58,120 --> 00:03:00,056 ‫- نصف الوظائف ستذهب إلى الروبوتات.‬ ‫- حسناً!‬ 55 00:03:00,122 --> 00:03:01,157 ‫تباً للوظائف.‬ 56 00:03:08,197 --> 00:03:09,332 ‫من يريد الوظائف؟‬ 57 00:03:09,398 --> 00:03:12,535 ‫لنعد إلى نظام المقايضة.‬ ‫يمكننا أن نتبادل الأصداف البحرية و...‬ 58 00:03:14,570 --> 00:03:17,740 ‫هذا ما أنا عليه. الغناء.‬ ‫الغناء من أجل الطعام. لنفعل ذلك.‬ 59 00:03:17,807 --> 00:03:19,141 ‫لنغن من أجل الطعام؟‬ 60 00:03:19,208 --> 00:03:20,142 ‫- نعم.‬ ‫-حسناً.‬ 61 00:03:20,676 --> 00:03:23,412 ‫حسناً، لنفترض أن لديّ‬ ‫شطيرة برغر لذيذة من اختيارك،‬ 62 00:03:23,479 --> 00:03:25,047 ‫ماذا ستغني من أجل البرغر؟‬ 63 00:03:27,183 --> 00:03:28,351 ‫"هل يمكنني أن أحصل على قضمة؟‬ 64 00:03:30,386 --> 00:03:33,389 ‫هل يمكنني أن أحصل على قضمة‬ ‫من هذا البرغر، من فضلك؟"‬ 65 00:03:34,523 --> 00:03:35,758 ‫سأعطيه له.‬ 66 00:03:36,459 --> 00:03:37,326 ‫أعني...‬ 67 00:03:39,095 --> 00:03:40,863 ‫"فورتشن"، نفس السؤال لك.‬ 68 00:03:40,930 --> 00:03:43,432 ‫انتظر، ماذا... ماذا سأغني؟‬ 69 00:03:43,499 --> 00:03:46,235 ‫إذا عدنا لنظام المقايضة‬ ‫ويمكنك الغناء مقابل عشائك حرفياً،‬ 70 00:03:46,302 --> 00:03:47,203 ‫ماذا ستغنين؟‬ 71 00:03:47,270 --> 00:03:48,304 ‫سأغني...‬ 72 00:03:50,373 --> 00:03:53,042 ‫هكذا...‬ 73 00:03:53,576 --> 00:03:55,745 ‫ستحصل على أكثر منك.‬ 74 00:03:56,245 --> 00:03:57,947 ‫نعم، فهمت.‬ 75 00:03:58,581 --> 00:04:00,182 ‫هكذا...‬ 76 00:04:00,983 --> 00:04:02,018 ‫أنت مجدداً؟ ثوان؟‬ 77 00:04:02,084 --> 00:04:03,452 ‫اسمع، أنا بوضوح...‬ 78 00:04:03,519 --> 00:04:06,489 ‫من الواضح أنني كنت آكل، لذا...‬ 79 00:04:07,490 --> 00:04:09,325 ‫شيء ما يعمل.‬ 80 00:04:09,892 --> 00:04:11,494 ‫"رون"، سؤال لك.‬ 81 00:04:11,560 --> 00:04:12,662 ‫هل أنت من محبي الروبوتات؟‬ 82 00:04:12,728 --> 00:04:14,263 ‫لا، أنا لا أثق بها.‬ 83 00:04:15,131 --> 00:04:16,799 ‫- ألا تثق بها؟‬ ‫- لا أثق بها.‬ 84 00:04:16,866 --> 00:04:20,002 ‫أنا لا أثق في الذكاء الاصطناعي‬ ‫لأنني لا أثق في الذكاء العضوي‬ 85 00:04:20,069 --> 00:04:22,305 ‫ونحن من صنعه، ونحن أغبياء.‬ 86 00:04:24,607 --> 00:04:27,643 ‫- فكرة جيدة.‬ ‫- قدمت عروضاً في "سان أنطونيو". أعلم ذلك.‬ 87 00:04:30,379 --> 00:04:32,014 ‫هل أنت قلق من الروبوتات؟‬ 88 00:04:32,081 --> 00:04:36,519 ‫يعتمد ذلك على نوع الروبوتات‬ ‫ومدى ذكائها ومدى مرحها‬ 89 00:04:36,585 --> 00:04:38,921 ‫وما إذا كان بإمكانها‬ ‫التحول إلى شاحنات أو ما شابه.‬ 90 00:04:43,359 --> 00:04:44,927 ‫أشعر أن المعنى الضمني لما تقوله‬ 91 00:04:44,994 --> 00:04:47,063 ‫هو أنه، إذا كانت متحولة،‬ ‫فليست لديك مشكل معهم.‬ 92 00:04:47,963 --> 00:04:49,965 ‫أي شيء آخر سيكون مشكلة. حسناً.‬ 93 00:04:50,032 --> 00:04:51,100 ‫فهمتني.‬ 94 00:04:52,268 --> 00:04:55,638 ‫كل هذه الآلات هي مجرد تذكير دائم،‬ 95 00:04:55,705 --> 00:04:58,708 ‫أشياء تخبرني أن أسير أكثر.‬ 96 00:05:04,080 --> 00:05:07,116 ‫مثلما تراسلني أمي،‬ 97 00:05:07,183 --> 00:05:09,585 ‫ساعتي تخبرني أن أقف.‬ 98 00:05:11,787 --> 00:05:14,790 ‫أعجبني الأمر بشكل أفضل عندما،‬ ‫كما تعلم...‬ 99 00:05:14,857 --> 00:05:16,058 ‫الجهل نعمة.‬ 100 00:05:16,125 --> 00:05:18,894 ‫عندما لم يتم تذكيري بهذه الأشياء،‬ 101 00:05:18,961 --> 00:05:21,797 ‫لم يكن لدينا وقت لذلك في هذا الموسم‬ ‫على "ذا فيكس"،‬ 102 00:05:21,864 --> 00:05:23,833 ‫مشكلة المشي، سوف...‬ 103 00:05:23,899 --> 00:05:26,669 ‫سنتناولها وسنصلحها.‬ 104 00:05:26,736 --> 00:05:28,871 ‫وعليك أن تهتم بمرض السكري لاحقاً.‬ 105 00:05:30,106 --> 00:05:31,006 ‫السكري.‬ 106 00:05:31,073 --> 00:05:34,477 ‫تنطقونها بشكل مختلف،‬ 107 00:05:34,543 --> 00:05:36,479 ‫ولكنني من الجنوب، وأضغط على الحروف.‬ 108 00:05:36,545 --> 00:05:37,747 ‫نقول "سكري".‬ 109 00:05:40,883 --> 00:05:42,218 ‫ننطقها "سكر" فحسب.‬ 110 00:05:42,284 --> 00:05:43,152 ‫نعم.‬ 111 00:05:44,653 --> 00:05:49,792 ‫هناك أناس كثيرون في ولايتي بقدم واحدة.‬ 112 00:05:53,295 --> 00:05:54,730 ‫السكري.‬ 113 00:05:57,032 --> 00:06:01,003 ‫حسناً، سنحل مشكلة الذكاء الإصطناعي‬ ‫هذا المساء.‬ 114 00:06:01,070 --> 00:06:02,605 ‫قد يكون هذا عرضاً طويلاً.‬ 115 00:06:03,973 --> 00:06:07,143 ‫اخترع عالم في اليابان روبوتاً يماثله تماماً‬ 116 00:06:07,209 --> 00:06:08,911 ‫وقد حل محله في العمل.‬ 117 00:06:08,978 --> 00:06:11,247 ‫ألقوا نظرة على د. "هيروشي إشيغورو".‬ 118 00:06:11,680 --> 00:06:15,518 ‫في الوقت الحالي، أصبحت مشغولاً جداً،‬ ‫لذا لو استخدمت الروبوت المحاكي لي،‬ 119 00:06:15,584 --> 00:06:17,720 ‫فلن أضطر للذهاب إلى الدول الأخرى‬ 120 00:06:17,787 --> 00:06:19,922 ‫لأنه يمكنني إرسال روبوتي للدول الأخرى.‬ 121 00:06:29,098 --> 00:06:31,567 ‫بشكل طبيعي، كبشر، نكبر‬ 122 00:06:31,634 --> 00:06:33,602 ‫ولكن الربوت لن يكبر.‬ 123 00:06:33,669 --> 00:06:34,503 ‫نعم.‬ 124 00:06:34,570 --> 00:06:36,238 ‫هل أنت قلق من ذلك؟‬ 125 00:06:36,305 --> 00:06:40,776 ‫نعم، كثيراً لأن الناس كثيراً‬ ‫ما يقارنونني بروبوتي.‬ 126 00:06:41,377 --> 00:06:45,214 ‫لذا، أجري مشروعاً آخر‬ 127 00:06:45,281 --> 00:06:48,918 ‫لجعل وجهي شبيهاً بالروبوت.‬ 128 00:06:49,952 --> 00:06:52,388 ‫من المستحيل التمييز بينه وبين الروبوت،‬ 129 00:06:52,455 --> 00:06:53,355 ‫ولكن لدي فكرة لتميزهما.‬ 130 00:06:53,456 --> 00:06:56,659 ‫د. "هيروشي" هو من ينتصب قضيبه.‬ 131 00:06:59,862 --> 00:07:02,798 ‫اسمح لي يا "جيمي"،‬ ‫أن أعبر عن إعجابي باليابانيين.‬ 132 00:07:02,865 --> 00:07:06,735 ‫وإلى أي مدى تقدموا‬ ‫في تجنب التفاعل مع البشر.‬ 133 00:07:08,170 --> 00:07:11,674 ‫بذل جهداً مضنياً في عزل نفسه عن الخزي‬ ‫والآراء الجائرة‬ 134 00:07:11,740 --> 00:07:13,909 ‫التي تصاحب الجراحات التجميلية.‬ 135 00:07:13,976 --> 00:07:16,612 ‫أجر الجراحة التجميلية.‬ ‫لست مضطراً لتصنيع روبوت‬ 136 00:07:18,914 --> 00:07:20,883 ‫"دي إل"، هل سيعجبك مثيلك الروبوت؟‬ 137 00:07:20,950 --> 00:07:23,486 ‫نعم. سيقضي وقتاً مع أولادي. بالتأكيد.‬ 138 00:07:25,921 --> 00:07:28,424 ‫سيكون والدهم في البيت‬ ‫طوال الوقت. بالتأكيد.‬ 139 00:07:31,460 --> 00:07:33,395 ‫أنا "ريتشارد سيمونز" في الواقع.‬ 140 00:07:36,298 --> 00:07:37,833 ‫نعم. لذا...‬ 141 00:07:40,636 --> 00:07:42,938 ‫يتساءل الجميع عن مكانه.‬ 142 00:07:43,506 --> 00:07:44,440 ‫هنا.‬ 143 00:07:44,507 --> 00:07:47,176 ‫من هو روبوتك المفضل؟ أيهم تحبينه أكثر؟‬ 144 00:07:47,676 --> 00:07:48,911 ‫روبوتي المفضل...‬ 145 00:07:49,645 --> 00:07:51,514 ‫كل هؤلاء الذين في حلبة الرقص.‬ 146 00:07:51,981 --> 00:07:52,815 ‫أتدري؟‬ 147 00:08:01,991 --> 00:08:03,993 ‫"رون"، من هو روبوتك المفضل؟ أيهم تحبه؟‬ 148 00:08:04,059 --> 00:08:07,229 ‫روبوتي المفضل؟‬ 149 00:08:07,863 --> 00:08:11,000 ‫أعتقد أنك ستظن أني سأقول إنه المتحول.‬ ‫ولكنه ليس المفضل لدي.‬ 150 00:08:12,134 --> 00:08:15,037 ‫بل "فيكي" من "سمول واندرز". أحبها.‬ 151 00:08:15,471 --> 00:08:16,405 ‫حقاً؟‬ 152 00:08:17,673 --> 00:08:20,175 ‫كانت سيدة بشرية عادية‬ 153 00:08:20,242 --> 00:08:22,411 ‫كانت تعيش في الخزانة.‬ 154 00:08:23,412 --> 00:08:24,613 ‫هل تظن أن الروبوتات لها أرواح؟‬ 155 00:08:24,680 --> 00:08:27,316 ‫هذا سؤال صعب.‬ 156 00:08:27,850 --> 00:08:31,320 ‫أظن أنهم يتعلمون الحصول على روح‬ ‫من خلال المحاولة والخطأ.‬ 157 00:08:31,387 --> 00:08:34,757 ‫لا أعرف، لو أنك شاهدت كل "وول إي"‬ ‫حتى النهاية...‬ 158 00:08:37,560 --> 00:08:40,129 ‫كان وثائقياً قوياً. ليس مخطئاً.‬ 159 00:08:40,896 --> 00:08:45,100 ‫أكثر ما يثير الخوف من الذكاء الإصطناعي‬ ‫هو تطويره لاستخدامه في الحروب.‬ 160 00:08:45,167 --> 00:08:47,202 ‫انظر لما يفعله الروس.‬ 161 00:08:47,269 --> 00:08:51,974 ‫"روبوتات قتالية روسية،‬ ‫أشخاص ذوو هيئات معدنية"‬ 162 00:09:10,793 --> 00:09:13,896 ‫ليسوا أكثر رعباً من الشرطيين حالياً.‬ 163 00:09:22,137 --> 00:09:23,339 ‫أنت محقة تماماً.‬ 164 00:09:24,974 --> 00:09:30,012 ‫سيكون مخيفاً إذا صنعوا شرطيين روبوتات‬ ‫كما صنعوا لعبة الـ"ماتريوشكا" الروسية.‬ 165 00:09:30,079 --> 00:09:32,014 ‫حيث...‬ 166 00:09:32,681 --> 00:09:37,019 ‫كلما فتحته تجد روبوتاً شرطياً أصغر.‬ 167 00:09:38,187 --> 00:09:40,489 ‫أظن أنني أعطيتهم فكرة للتو.‬ 168 00:09:43,692 --> 00:09:45,694 ‫إذن، هل تعملين مع الروس الآن؟‬ 169 00:09:46,161 --> 00:09:48,330 ‫أظن أنني جاسوسة؟‬ 170 00:09:48,397 --> 00:09:49,465 ‫لا أعرف.‬ 171 00:09:49,531 --> 00:09:51,767 ‫لا، لست جاسوسة. لا تطاردوني.‬ 172 00:09:52,701 --> 00:09:54,970 ‫"كاثرين"، ما رأيك في الروبوتات الروسية‬ ‫في الحرب.‬ 173 00:09:55,037 --> 00:09:56,005 ‫لا أريد أن أعرف.‬ 174 00:09:56,071 --> 00:09:58,807 ‫في كل مرة يقول أحد، "لنر ما يفعله الروس،"‬ 175 00:09:58,874 --> 00:10:01,076 ‫أقول، "ليته يكون رقص الباليه."‬ 176 00:10:03,646 --> 00:10:04,847 ‫بالطبع، قال "بوتين"‬ 177 00:10:04,913 --> 00:10:07,983 ‫أن من سيجيد الذكاء الإصطناعي‬ ‫سيسيطر على العالم.‬ 178 00:10:08,050 --> 00:10:09,418 ‫هذه مقولة حقيقية مباشرة له.‬ 179 00:10:09,485 --> 00:10:11,487 ‫حسناً، هذا مرعب جداً.‬ 180 00:10:11,553 --> 00:10:12,388 ‫نعم.‬ 181 00:10:13,288 --> 00:10:16,158 ‫أحياناً لا تقول نكاتاً، بل حقائق مرعبة.‬ 182 00:10:19,128 --> 00:10:22,197 ‫حسناً، لنلق نظرة على الذكاء الإصطناعي‬ 183 00:10:22,264 --> 00:10:26,201 ‫باستخدام الذكاء الطبيعي‬ ‫لخبيرة البيانات البارعة، "منى شلبي"!‬ 184 00:10:33,008 --> 00:10:36,545 ‫"منى"، ماذا يمكنك أن تخبرينا‬ ‫عن الذكاء الإصطناعي؟‬ 185 00:10:36,612 --> 00:10:38,947 ‫حسناً، "جيمي"، أحد أكثر المخاوف‬ ‫عن الذكاء الإصطناعي‬ 186 00:10:39,014 --> 00:10:41,684 ‫هو عن كيف أنه يمكنه أن يحل محل البشر‬ ‫في العمل.‬ 187 00:10:41,750 --> 00:10:43,285 ‫الأرقام مخيفة جداً.‬ 188 00:10:43,352 --> 00:10:46,555 ‫47 بالمئة من الوظائف مهددة‬ ‫بأن يؤديها الذكاء الإصطناعي.‬ 189 00:10:46,622 --> 00:10:47,456 ‫"هل وظيفتك آمنة؟"‬ 190 00:10:47,523 --> 00:10:49,658 ‫ولكني أود أن أنظر لأكثر الوظائف المهددة‬ 191 00:10:49,725 --> 00:10:51,827 ‫وجهزت بعض الرسومات التوضيحية‬ ‫لمساعدتي على الشرح.‬ 192 00:10:51,894 --> 00:10:53,662 ‫أولاً، التسويق عبر الهاتف.‬ 193 00:10:53,729 --> 00:10:57,366 ‫ثمة احتمال بنسبة 99 المئة‬ ‫أن تحل الآلات محلهم.‬ 194 00:10:57,433 --> 00:11:01,136 ‫هذا ليس مفاجئاً حيث أننا نتلقى كثيراً‬ ‫من المكالمات الآلية يومياً.‬ 195 00:11:01,570 --> 00:11:06,241 ‫وأيضاً هناك احتمال نسبته 92 بالمئة‬ ‫أن تصبح وظائف بائعي التجزئة آلية.‬ 196 00:11:06,642 --> 00:11:07,910 ‫ستكون هذه مشكلة كبيرة‬ 197 00:11:07,976 --> 00:11:10,646 ‫لـ6 ملايين أمريكي يعملون في التجزئة الآن.‬ 198 00:11:10,713 --> 00:11:13,649 ‫قريباً جداً، ستكون الروبوتات قادرة‬ ‫على أداء الوظائف‬ 199 00:11:13,716 --> 00:11:16,885 ‫التي تتطلب أحكاماً حرجة من قبل البشر.‬ 200 00:11:16,952 --> 00:11:21,957 ‫مثلاً، حكام المباريات يُحتمل بنسبة 98 بالمئة‬ ‫أن تحل محلهم الآلات.‬ 201 00:11:22,624 --> 00:11:26,261 ‫الخبر السار هو أنه هناك وظائف‬ ‫تشير البيانات إلى أنها آمنة،‬ 202 00:11:26,328 --> 00:11:29,631 ‫مثل مدربي الرقص وأطباء الأسنان‬ ‫ومعلمي المدارس الابتدائية.‬ 203 00:11:29,698 --> 00:11:33,068 ‫بافتراض أننا بعيدون جداً‬ ‫عن ترك أبنائنا للروبوتات.‬ 204 00:11:33,135 --> 00:11:35,738 ‫أخيراً، أكثر الوظائف أماناً على الإطلاق،‬ 205 00:11:35,804 --> 00:11:39,775 ‫باحتمال ضعيف أقل من 0.28 بالمئة‬ ‫أن تصبح آلية.‬ 206 00:11:39,842 --> 00:11:41,043 ‫ماذا تظن يا "جيمي"؟‬ 207 00:11:41,777 --> 00:11:43,078 ‫مؤدو عروض الكوميديا الارتجالية؟‬ 208 00:11:45,013 --> 00:11:46,115 ‫الأخصائيون النفسيون.‬ 209 00:11:46,181 --> 00:11:47,116 ‫"النفسيون - 0.28 بالمئة"‬ 210 00:11:47,182 --> 00:11:48,383 ‫الأخصائيون النفسيون؟‬ 211 00:11:48,450 --> 00:11:50,052 ‫- منطقي، صحيح؟‬ ‫- لا أعرف.‬ 212 00:11:50,119 --> 00:11:51,787 ‫أتكلم مع "سيري". وهي تفهم.‬ 213 00:11:53,388 --> 00:11:55,190 ‫إنها المرأة الوحيدة التي تفهمني.‬ 214 00:11:55,824 --> 00:11:58,761 ‫- أنا سعيد أن التجزئة ستصبح آلية.‬ ‫- حقاً؟‬ 215 00:11:58,827 --> 00:12:01,930 ‫لأنهم لا يتتبعون السود في أرجاء المتاجر‬ ‫كما يفعل البائعون العاديون.‬ 216 00:12:03,065 --> 00:12:05,667 ‫الأمر المثير هو تكنولوجيا التعرف على الوجه‬ 217 00:12:05,734 --> 00:12:08,303 ‫طُورت على يد باحثين بيض‬ 218 00:12:08,370 --> 00:12:11,173 ‫ولذا، يصعب التعرف على الوجوه السوداء.‬ 219 00:12:11,240 --> 00:12:13,075 ‫لا، ليس حيث أسكن.‬ 220 00:12:13,142 --> 00:12:14,009 ‫إنها...‬ 221 00:12:15,677 --> 00:12:18,614 ‫تذهبين إلى "ستاربكس"،‬ ‫ويعرفون أنك سوداء في الحال. أؤكد لك.‬ 222 00:12:19,014 --> 00:12:21,016 ‫ما رأيكما في أداء الروبوتات‬ ‫لكل هذه الوظائف؟‬ 223 00:12:21,083 --> 00:12:22,251 ‫إنه أمر مرعب.‬ 224 00:12:22,317 --> 00:12:25,954 ‫إنه مرعب ويجعلني سعيداً‬ ‫لأنه ليس لدي وظيفة حقيقية من أي نوع.‬ 225 00:12:28,724 --> 00:12:32,494 ‫هذا جيد بالنسبة إلي،‬ ‫ولكن من أؤدي عروضي لهم لديهم وظائف حقيقية،‬ 226 00:12:32,561 --> 00:12:33,829 ‫لذا، فأنا أرتعب من أجلهم،‬ 227 00:12:33,896 --> 00:12:35,130 ‫لأني أريد مالهم.‬ 228 00:12:37,232 --> 00:12:40,002 ‫هل تحققنا ما إذا كانت "منى" روبوتاً؟‬ 229 00:12:42,671 --> 00:12:45,541 ‫رأيي أن اسم "منى" على نمط الروبوتات.‬ 230 00:12:46,875 --> 00:12:47,709 ‫سوف...‬ 231 00:12:47,776 --> 00:12:49,812 ‫سوف أريك 4 صور.‬ 232 00:12:49,878 --> 00:12:54,817 ‫عليك أن تخبريني أي صورة بها علامة التوقف.‬ 233 00:12:55,651 --> 00:12:56,518 ‫اتفقنا؟‬ 234 00:12:57,753 --> 00:12:58,654 ‫اتفقنا؟‬ 235 00:13:01,590 --> 00:13:05,160 ‫تم كشف أمرك. للأسف أنت روبوت.‬ 236 00:13:05,894 --> 00:13:07,296 ‫"منى"، ماذا لديك أيضاً؟‬ 237 00:13:07,362 --> 00:13:10,999 ‫الناس قلقون من أن الروبوتات‬ ‫ستكون أكثر كفاءة من البشر.‬ 238 00:13:11,066 --> 00:13:11,967 ‫"البشر مقابل الروبوتات"‬ 239 00:13:12,100 --> 00:13:13,802 ‫يختبر الباحثون الذكاء الإصطناعي‬ 240 00:13:13,869 --> 00:13:17,105 ‫ليروا براعة الآلات في مواجهة البشر‬ ‫في بعض الاختبارات.‬ 241 00:13:17,172 --> 00:13:20,742 ‫أولاً، قدرتها على التعرف على الأشياء بصرياً.‬ 242 00:13:20,809 --> 00:13:22,911 ‫على سبيل المثال، تعرف البيتزا‬ ‫عندما ترى بيتزا.‬ 243 00:13:22,978 --> 00:13:25,614 ‫نحن موجودون على الأرض منذ 200 ألف سنة،‬ 244 00:13:25,681 --> 00:13:28,750 ‫يعرف البشر الأشياء عن طريق رؤيتها‬ ‫منذ زمن بعيد.‬ 245 00:13:28,817 --> 00:13:33,155 ‫بدأ الذكاء الإصطناعي بنسبة دقة 72 بالمئة‬ ‫في عام 2010،‬ 246 00:13:33,222 --> 00:13:34,756 ‫ثم تطور بسرعة،‬ 247 00:13:34,823 --> 00:13:37,926 ‫حتى أنهم يتعرفون على البيتزا الآن‬ ‫أفضل منا.‬ 248 00:13:37,993 --> 00:13:40,629 ‫ولكن قبل أن تقلق من أن تفوقنا الآلات ذكاءً،‬ 249 00:13:40,696 --> 00:13:43,098 ‫هناك اختبار لا تحقق فيه الربوتات‬ ‫نجاحاً كبيراً.‬ 250 00:13:43,165 --> 00:13:46,235 ‫الإجابة على أسئلة مفتوحة النهاية عن صور.‬ 251 00:13:46,301 --> 00:13:48,604 ‫مثلاً، انظروا لهذه الصورة.‬ 252 00:13:48,670 --> 00:13:50,372 ‫هل هي بيتزا نباتية؟‬ 253 00:13:50,873 --> 00:13:52,774 ‫الإجابة بالطبع، لا.‬ 254 00:13:52,841 --> 00:13:56,378 ‫البشر حالياً أفضل من حيث الإجابة‬ ‫على هذه الأسئلة من الروبوتات.‬ 255 00:13:56,445 --> 00:13:58,947 ‫ولكنها تتطور بسرعة، لذا لا نعرف‬ ‫ما يمكن أن يحتويه المستقبل.‬ 256 00:13:59,047 --> 00:14:00,048 ‫"أسئلة ذات إجابات مفتوحة"‬ 257 00:14:00,215 --> 00:14:02,718 ‫لماذا قد يحتاج روبوت بيتزا؟‬ 258 00:14:03,886 --> 00:14:04,920 ‫ليس ما أقصده يا "جيمي".‬ 259 00:14:04,987 --> 00:14:07,489 ‫متى سيتجاوزونا فعلاً؟‬ 260 00:14:07,556 --> 00:14:08,891 ‫يعتمد هذا على من تسأله.‬ 261 00:14:08,957 --> 00:14:12,694 ‫مدير الهندسة في "جوجل"‬ ‫يظن أنه سيحدث في عام 2029.‬ 262 00:14:12,761 --> 00:14:14,162 ‫ما رأيك في هذا؟‬ 263 00:14:14,229 --> 00:14:16,498 ‫بصراحة، بدت مخيفة‬ 264 00:14:16,565 --> 00:14:18,300 ‫ثم بدأت في الحديث عن البيتزا‬ 265 00:14:18,367 --> 00:14:20,202 ‫عندئذ استغرقت في التفكير في البيتزا.‬ 266 00:14:22,371 --> 00:14:24,907 ‫فلم أعد منتبهاً. أريد البيتزا فحسب.‬ 267 00:14:26,441 --> 00:14:29,278 ‫إذا كان يمكن للروبوتات التعرف على البيتزا،‬ ‫فهل يمكنها الانتشاء أيضاً؟‬ 268 00:14:32,080 --> 00:14:36,852 ‫أتعرف على البيتزا منذ أن كنت في الثالثة‬ ‫من عمري، لذا، سحقاً لك أيتها الروبوتات.‬ 269 00:14:41,523 --> 00:14:42,457 ‫نعم.‬ 270 00:14:44,092 --> 00:14:46,762 ‫- ولكن الروبوتات لا تصاب بالسكري.‬ ‫- السكري.‬ 271 00:14:46,828 --> 00:14:47,996 ‫صحيح.‬ 272 00:14:49,831 --> 00:14:51,700 ‫حسناً، محتوى رائع. شكراً لك يا "منى".‬ 273 00:14:51,767 --> 00:14:53,101 ‫وداعاً.‬ 274 00:14:56,571 --> 00:14:59,107 ‫لنذهب إلى قلب البرنامج.‬ ‫لنذهب إلى الإصلاحات.‬ 275 00:14:59,174 --> 00:15:01,443 ‫"كاثرين"، أنت صناعية بشكل كبير،‬ 276 00:15:01,510 --> 00:15:03,178 ‫لذا ففريقك سيبدأ أولاً.‬ 277 00:15:03,245 --> 00:15:05,047 ‫السيدات والسادة، "كاثرين رايان"!‬ 278 00:15:06,415 --> 00:15:07,382 ‫أشكرك.‬ 279 00:15:08,884 --> 00:15:11,386 ‫يا إلهي، تهديد الذكاء الإصطناعي‬ 280 00:15:11,453 --> 00:15:13,388 ‫صار مقلقاً لي يا "جيمي".‬ 281 00:15:13,455 --> 00:15:14,990 ‫ولكن يمكنني مواجهته‬ 282 00:15:15,057 --> 00:15:18,460 ‫تماماً كما واجهت تهديد عدم إحضاري‬ ‫لهذا العمل.‬ 283 00:15:18,527 --> 00:15:19,828 ‫بالجنس.‬ 284 00:15:20,429 --> 00:15:22,798 ‫جنس كثير جداً للروبوتات.‬ 285 00:15:23,365 --> 00:15:26,301 ‫الحل عندي في إثارة الروبوتات.‬ 286 00:15:26,368 --> 00:15:27,202 ‫"إثارة الروبوتات"‬ 287 00:15:27,269 --> 00:15:30,372 ‫الروبوتات القاسية المتسلطة‬ ‫تشكل قلقاً مشروعاً.‬ 288 00:15:30,439 --> 00:15:33,442 ‫ذكاء "جوجل" الإصطناعي تم تصنيفه‬ ‫على أنه عدواني جداً‬ 289 00:15:33,508 --> 00:15:34,943 ‫في المواقف العصيبة،‬ 290 00:15:35,010 --> 00:15:37,045 ‫رغم أنه لم يُبرمج ليكون كذلك.‬ 291 00:15:37,112 --> 00:15:40,415 ‫لذا، علينا أن نقلل من إنتاجية الروبوتات‬ 292 00:15:40,482 --> 00:15:42,017 ‫واحتمالية حدوث الكوارث‬ 293 00:15:42,084 --> 00:15:44,386 ‫بجعلهم يمارسون الجنس.‬ 294 00:15:45,988 --> 00:15:47,756 ‫نجح ذلك في الحياة الحقيقية.‬ 295 00:15:47,823 --> 00:15:51,660 ‫كان رئيسي السابق كابوساً إلى أن جعلته‬ ‫يستخدم تطبيق مواعدة للمثليين.‬ 296 00:15:51,727 --> 00:15:54,529 ‫ثم اختفى تماماً ذات يوم.‬ 297 00:15:58,500 --> 00:16:00,635 ‫نجح هذا الأمر أيضاً مع الأشباح.‬ 298 00:16:00,702 --> 00:16:03,638 ‫أتتذكرون عندما كنا نخاف مما وراء الطبيعة؟‬ 299 00:16:03,705 --> 00:16:07,142 ‫أدركت الأشباح‬ ‫أنه يمكنها مضاجعة "آنا نيكول سميث"‬ 300 00:16:07,209 --> 00:16:08,810 ‫وهدأت من روعهم.‬ 301 00:16:10,612 --> 00:16:15,317 ‫مواجهة الذكاء الإصطناعي المخيف‬ ‫تماماً كما واجهنا الأشباح منطقي.‬ 302 00:16:15,384 --> 00:16:17,452 ‫طالما توقفت عن التفكير فيها.‬ 303 00:16:17,519 --> 00:16:19,488 ‫ولضمان متانة هذا الحل...‬ 304 00:16:19,988 --> 00:16:23,125 ‫اخترعت أقوى إلهاء جنسي.‬ 305 00:16:23,191 --> 00:16:24,426 ‫الأفلام الجنسية للروبوتات.‬ 306 00:16:24,493 --> 00:16:26,895 ‫لم أسمع أحد يسأل، "كيف يبدو ذلك؟"‬ 307 00:16:27,829 --> 00:16:30,966 ‫"روبوتات عذراء تُزال عذريتها"‬ 308 00:16:32,667 --> 00:16:33,602 ‫نعم.‬ 309 00:16:36,171 --> 00:16:37,439 ‫نعم.‬ 310 00:16:38,974 --> 00:16:42,010 ‫- نعم، يعجبني ذلك.‬ ‫يعجبني.‬ 311 00:16:43,979 --> 00:16:44,880 ‫نعم.‬ 312 00:16:48,683 --> 00:16:49,518 ‫نعم.‬ 313 00:16:50,052 --> 00:16:52,788 ‫نعم.‬ 314 00:16:52,854 --> 00:16:56,858 ‫لقد قذفت.‬ 315 00:17:01,663 --> 00:17:05,434 ‫إذاً، تقترحين أن نمنح الروبوتات‬ ‫إلهاءات بشرية وقابلية للخطأ.‬ 316 00:17:05,500 --> 00:17:06,334 ‫صحيح يا "جيمي".‬ 317 00:17:06,401 --> 00:17:08,437 ‫حسناً، ما رأيك في هذه الفكرة يا "رون"؟‬ 318 00:17:09,771 --> 00:17:12,274 ‫إنها مضاجعة الروبوتات.‬ ‫ماذا يمكن ألا يعجبني؟‬ 319 00:17:13,975 --> 00:17:15,077 ‫إنها خطة عظيمة.‬ 320 00:17:15,143 --> 00:17:18,847 ‫هذا لصالح الروبوتات.‬ ‫ولصالحي أن أشاهد. إنه...‬ 321 00:17:18,914 --> 00:17:21,216 ‫إنه لصالح الجميع. ماذا ستفعل؟‬ 322 00:17:21,283 --> 00:17:22,551 ‫ما الممتع بالنسبة لك؟‬ 323 00:17:22,617 --> 00:17:23,785 ‫ثورة روبوتات‬ 324 00:17:23,852 --> 00:17:25,520 ‫أم جماع جماعي للروبوتات؟‬ 325 00:17:26,488 --> 00:17:28,523 ‫يمكنك الحصول على ثورة‬ ‫أثناء الجماع الجماعي.‬ 326 00:17:28,590 --> 00:17:31,226 ‫هناك دائماً ثورة أثناء الجماع الجماعي.‬ 327 00:17:34,429 --> 00:17:37,499 ‫تقول الدراسات إن البشر‬ ‫يكونون في أفضل حالاتهم بعد الجماع.‬ 328 00:17:37,566 --> 00:17:39,434 ‫فهل هذا سيهدئ الروبوتات؟‬ 329 00:17:40,035 --> 00:17:41,937 ‫بالتأكيد. نريد أن نهدئها.‬ 330 00:17:42,003 --> 00:17:45,307 ‫ومن خلال خبرتي، بعد القذف،‬ ‫يرتاح الرجال كثيراً،‬ 331 00:17:45,373 --> 00:17:46,641 ‫ولكنهم يركضون مسرعين برغم ذلك.‬ 332 00:17:48,743 --> 00:17:50,545 ‫لدي بعض المخاوف.‬ 333 00:17:50,612 --> 00:17:53,949 ‫يفكر الرجال جميعاً من خلال أعضائهم الذكرية.‬ 334 00:17:54,015 --> 00:17:56,017 ‫هل ستكون الروبوتات على نفس الحال؟‬ 335 00:17:57,285 --> 00:18:01,423 ‫أنا قلقة فحسب على الروبوتات الإناث.‬ 336 00:18:01,490 --> 00:18:05,026 ‫في النهاية،‬ ‫قد ينظمن حركة "آر تو مي تو" أيضاً.‬ 337 00:18:10,999 --> 00:18:14,636 ‫لن نعطيهم أعضاءً ذكرية في الأساس.‬ 338 00:18:14,703 --> 00:18:15,670 ‫هذا مفيد.‬ 339 00:18:15,737 --> 00:18:17,205 ‫لا، سيكونون...‬ 340 00:18:18,273 --> 00:18:21,109 ‫ستتلاقى تروسهم معاً، أتفهمون قصدي؟‬ 341 00:18:21,176 --> 00:18:22,744 ‫- أفهم ما ترمين إليه.‬ ‫- نعم.‬ 342 00:18:25,647 --> 00:18:28,350 ‫تماماً مثل الدمية "كين" وسنحبك كثيراً.‬ 343 00:18:30,185 --> 00:18:32,487 ‫هل سيكون هناك إشراف حكومي،‬ 344 00:18:32,554 --> 00:18:34,723 ‫لأن الأمور قد تخرج عن السيطرة‬ ‫إذا زادت استثارة الروبوتات؟‬ 345 00:18:35,090 --> 00:18:37,425 ‫لنتكلم بصراحة عن الروبوتات.‬ 346 00:18:37,492 --> 00:18:40,729 ‫إذا كانت تُصنع الآن،‬ ‫فالناس بالفعل تفعل بها الأفاعيل.‬ 347 00:18:41,263 --> 00:18:46,434 ‫فهذا يعطيها لأول مرة حرية القبول.‬ 348 00:18:46,501 --> 00:18:47,569 ‫نعم.‬ 349 00:18:47,636 --> 00:18:49,004 ‫ذات مرة، قدمت عرضاً‬ 350 00:18:49,070 --> 00:18:51,540 ‫وأعطوني روبوتاً يلعق القضبان‬ 351 00:18:51,606 --> 00:18:53,742 ‫وكنت أظن أني لن أستخدمه، ولكنه...‬ 352 00:18:54,276 --> 00:18:55,310 ‫تعطل.‬ 353 00:18:58,880 --> 00:19:00,415 ‫استخدمته كثيراً.‬ 354 00:19:00,482 --> 00:19:01,883 ‫ماذا تقصد؟ هل أعطوك...‬ 355 00:19:01,950 --> 00:19:03,418 ‫كان عرضاً جنسياً...‬ 356 00:19:03,485 --> 00:19:05,754 ‫كان غريباً. كان فمه صغيراً بالكاد يتحرك.‬ 357 00:19:05,820 --> 00:19:08,723 ‫قلت لنفسي، "هذا غريب،"‬ ‫ولكن بعد عدة أيام...‬ 358 00:19:13,495 --> 00:19:14,629 ‫أنهكته حتى تعطل.‬ 359 00:19:17,365 --> 00:19:19,501 ‫نجعل الروبوتات مستثارة جنسياً.‬ ‫علينا أن نقدر هذه الفكرة.‬ 360 00:19:20,001 --> 00:19:21,136 ‫فكرة رائعة.‬ 361 00:19:21,203 --> 00:19:22,103 ‫أشكرك.‬ 362 00:19:25,106 --> 00:19:27,809 ‫"فورتشن" و"دي إل"،‬ ‫دوركما لمواجهة تهديد الروبوتات.‬ 363 00:19:27,876 --> 00:19:29,177 ‫سيتفضل الآن "دي إل هيغلي".‬ 364 00:19:33,782 --> 00:19:37,652 ‫أتدري يا "جيمي" ما الذي سيمنع‬ ‫وجود فيلم "تيرمينيتور" آخر؟‬ 365 00:19:37,719 --> 00:19:40,922 ‫أقصد إلى جانب مضاجعة "أرنولد شواتسنيغر"‬ ‫لخادمة أخرى وحملها.‬ 366 00:19:43,058 --> 00:19:46,127 ‫الذكاء الإصطناعي خطر علينا‬ ‫إذا كان أذكى منا.‬ 367 00:19:46,194 --> 00:19:49,931 ‫لهذا علينا أن نحرص على أن يبقى أغبى منا.‬ 368 00:19:49,998 --> 00:19:52,634 ‫لذا فالحل لدي هو "مورون".‬ 369 00:19:52,701 --> 00:19:54,102 ‫"(مورون)"‬ 370 00:19:54,569 --> 00:19:58,440 ‫"مورون" تعني "مبادرة الحد‬ ‫من تجاوز الروبوت العادي."‬ 371 00:19:58,506 --> 00:20:00,175 ‫"مبادرة الحد من تجاوز الروبوت العادي"‬ 372 00:20:05,280 --> 00:20:08,250 ‫تنص "مورون" على أن تحويل ذكاء الروبوتات‬ ‫إلى غباء‬ 373 00:20:08,316 --> 00:20:11,453 ‫بأن نريها أغبى ما لدينا،‬ 374 00:20:11,519 --> 00:20:13,288 ‫مثل برنامج "كيبينغ أب ويذ ذا كارديشيانز"،‬ 375 00:20:13,355 --> 00:20:16,191 ‫والكلمات المتقاطعة‬ ‫من "ذا إنترتينمينت ويكلي"...‬ 376 00:20:17,492 --> 00:20:18,693 ‫أو "زاك إيفرون".‬ 377 00:20:20,929 --> 00:20:22,564 ‫عند القيام بذلك، برنامج "مورون"‬ 378 00:20:22,631 --> 00:20:25,767 ‫سيضمن أن ذكاء الروبوت‬ ‫سيكون ضئيلاً في أحسن الأحوال.‬ 379 00:20:25,834 --> 00:20:29,938 ‫سيستمر البشر في العمل في الوظائف الممتعة‬ ‫الدائمة مثل استخراج الفحم.‬ 380 00:20:32,307 --> 00:20:34,743 ‫نحن محظوظون جداً، لأنه في الأستديو اليوم،‬ 381 00:20:34,809 --> 00:20:37,445 ‫لدينا روبوت مر ببرنامج "مورون".‬ 382 00:20:37,512 --> 00:20:40,181 ‫وكان يشاهد عشرات الساعات من "بيواتش".‬ 383 00:20:41,583 --> 00:20:42,517 ‫أقدم لكم...‬ 384 00:20:44,252 --> 00:20:45,086 ‫"داليكسا".‬ 385 00:20:45,153 --> 00:20:47,055 ‫"(داليكسا)"‬ 386 00:20:48,290 --> 00:20:50,325 ‫تفضلي يا "فورتشن" واطرحي الأسئلة.‬ 387 00:20:50,392 --> 00:20:53,128 ‫"داليكسا"، ما عاصمة "إيطاليا"؟‬ 388 00:20:53,695 --> 00:20:54,829 ‫لا أعرف. ابحثي على "جوجل".‬ 389 00:20:57,365 --> 00:21:00,168 ‫"داليكسا"، ممن تزوج "توم برادي"؟‬ 390 00:21:00,235 --> 00:21:02,437 ‫من يبالي لهم؟ "ذا باتريوتز" سيئ جداً.‬ 391 00:21:05,740 --> 00:21:09,110 ‫"داليكسا"، ما الجذر التربيعي لـ144؟‬ 392 00:21:09,177 --> 00:21:10,612 ‫هل لديك أي كوكايين؟‬ 393 00:21:13,014 --> 00:21:15,250 ‫"داليكسا"، اذكر اسم إحدى البحيرات العظمي.‬ 394 00:21:15,317 --> 00:21:16,885 ‫هل معك كوكايين؟‬ 395 00:21:18,019 --> 00:21:20,121 ‫ها هو أمامكم.‬ 396 00:21:20,188 --> 00:21:21,022 ‫"داليكسا".‬ 397 00:21:23,925 --> 00:21:25,827 ‫نحيي فكرة جعل الروبوتات غبية.‬ 398 00:21:26,394 --> 00:21:27,228 ‫تروق لي.‬ 399 00:21:30,999 --> 00:21:33,735 ‫إذاً فإن رأيك هو أن نكيف الروبوتات‬ ‫بحيث لا تتجاوز ذكاءنا.‬ 400 00:21:34,202 --> 00:21:35,503 ‫نعم. حتى لا تفكر على الإطلاق.‬ 401 00:21:35,570 --> 00:21:38,873 ‫حسناً، ماذا ستريه لهم بحيث يحطم ذكاءهم؟‬ 402 00:21:39,407 --> 00:21:40,275 ‫"فوكس نيوز".‬ 403 00:21:41,242 --> 00:21:43,244 ‫وأحد برامج "ذا ريل هاوسوايفز".‬ 404 00:21:44,279 --> 00:21:47,082 ‫تعجبني هذه الحلقات وقد صرت غبية بالفعل.‬ 405 00:21:49,584 --> 00:21:51,219 ‫أؤيد تلك الفكرة تماماً.‬ 406 00:21:51,286 --> 00:21:54,756 ‫إذا جعلنا الروبوتات ذكية جداً،‬ ‫سيكون أمراً مخيفاً.‬ 407 00:21:54,823 --> 00:21:58,360 ‫قد تكوّن تحالفات‬ ‫مثلما في "إم تي في رود رولز".‬ 408 00:22:01,763 --> 00:22:03,965 ‫ثم سينقلبون علينا.‬ 409 00:22:04,032 --> 00:22:07,135 ‫لا نريدها أن تكون ذكية جداً‬ ‫لأنها قد تتخطانا.‬ 410 00:22:07,202 --> 00:22:10,305 ‫سيقولون، "لم نحتاج هؤلاء المغفلين؟"‬ ‫ثم سيقتلوننا.‬ 411 00:22:10,372 --> 00:22:11,506 ‫بينما...‬ 412 00:22:11,573 --> 00:22:15,610 ‫إذا جعلناها غبية، ستؤدي وظائف‬ ‫من دون أن تقتلنا.‬ 413 00:22:17,045 --> 00:22:19,814 ‫ولكن إن كانت مستثارة جنسياً‬ ‫وتمارس الجنس طوال الوقت،‬ 414 00:22:19,881 --> 00:22:21,316 ‫لن تقوم بأي شيء.‬ 415 00:22:21,383 --> 00:22:24,219 ‫ستنشغل بالجنس.‬ 416 00:22:24,285 --> 00:22:25,553 ‫ما زلت أنجز الكثير رغم ذلك.‬ 417 00:22:28,890 --> 00:22:31,292 ‫و"كاثرين" تمارس الجنس كثيراً.‬ 418 00:22:31,359 --> 00:22:33,928 ‫نعم، الكثير من الجنس، مثل حركة "دي مي تو".‬ 419 00:22:37,065 --> 00:22:39,234 ‫نهز الأعضاء الذكرية أمامنا.‬ 420 00:22:42,303 --> 00:22:46,241 ‫لم تهز "كاثرين" عضواً ذكرياً‬ ‫لأنها مسألة فخر شخصي.‬ 421 00:22:48,810 --> 00:22:50,412 ‫"كاثرين"، ما رأيك في هذه الفكرة؟‬ 422 00:22:50,478 --> 00:22:53,014 ‫أظن أنها فكرة عظيمة يا "دي إل"،‬ 423 00:22:53,081 --> 00:22:55,016 ‫أن تحاول إبطاء الذكاء الإصطناعي...‬ 424 00:22:55,450 --> 00:22:58,186 ‫قد لا تكون الحواسيب ذكية كما نعرفها.‬ 425 00:22:58,253 --> 00:23:01,589 ‫هل هزم حاسوب "ذا ديب بلو"، "غاري كاسباروف"‬ ‫في الشطرنج‬ 426 00:23:01,656 --> 00:23:03,458 ‫لأن الحواسيب ذكية‬ 427 00:23:03,525 --> 00:23:06,327 ‫أم لأن لاعبي الشطرنج يكافحون‬ ‫لتكوين صداقات؟‬ 428 00:23:06,394 --> 00:23:07,228 ‫من يدري؟‬ 429 00:23:08,163 --> 00:23:08,997 ‫ولكن...‬ 430 00:23:09,731 --> 00:23:11,599 ‫لم أخبرك قط بهذه القصة،‬ 431 00:23:11,666 --> 00:23:15,437 ‫ولكن أحد أذكى الرجال،‬ ‫الراحل العظيم "ستيفين هاوكينغ"،‬ 432 00:23:15,503 --> 00:23:18,506 ‫كان صديقاً لـ"جيمي"، وقد قابلته في بيتك.‬ 433 00:23:19,073 --> 00:23:22,177 ‫وللأسف التكنولوجيا الخاصة به كانت تخذله،‬ 434 00:23:22,243 --> 00:23:25,547 ‫لأنه أخبرني أنه لم يعد يمكنه التحدث إليّ.‬ 435 00:23:25,613 --> 00:23:28,082 ‫كنا نتكلم. كنت أحاول إقامة علاقة.‬ 436 00:23:28,149 --> 00:23:29,217 ‫أحاول دائماً إقامة علاقة.‬ 437 00:23:29,784 --> 00:23:30,618 ‫وقال...‬ 438 00:23:31,886 --> 00:23:33,955 ‫قال، "آسف، لم يعد يمكنني التحدث إليك.‬ 439 00:23:34,022 --> 00:23:35,924 ‫فهاتفي اللوحي معطل."‬ 440 00:23:35,990 --> 00:23:37,625 ‫فقلت، "حسناً،"‬ 441 00:23:37,692 --> 00:23:38,726 ‫ثم ذهب.‬ 442 00:23:38,793 --> 00:23:40,728 ‫ثم بعدها بحثت في الموضوع.‬ 443 00:23:41,162 --> 00:23:44,766 ‫من المستحيل أن يتعطل هاتفه اللوحي‬ ‫بينما مقعده المدولب يعمل،‬ 444 00:23:44,833 --> 00:23:46,401 ‫لأن أحدهم يشغّل الآخر.‬ 445 00:23:46,468 --> 00:23:50,138 ‫لذا، استخدم تكنولوجيا معطلة‬ ‫ككذبة للتخلص مني.‬ 446 00:23:52,240 --> 00:23:54,876 ‫إنه أحد أذكى الرجال في العالم.‬ ‫بالتأكيد فعل ذلك.‬ 447 00:23:54,943 --> 00:23:55,810 ‫نعم.‬ 448 00:23:59,113 --> 00:24:00,882 ‫ولكن على أي حال، أظن أنها فكرة جيدة فعلاً.‬ 449 00:24:00,949 --> 00:24:04,319 ‫لقد أهلت التراب على بعض برامجي المفضلة.‬ 450 00:24:04,385 --> 00:24:07,722 ‫أظن أن عائلة "كارداشيان" نفسها‬ ‫منتشرة في كل العالم،‬ 451 00:24:07,789 --> 00:24:09,524 ‫فلا بد أنهم أذكياء قليلاً.‬ 452 00:24:10,158 --> 00:24:12,227 ‫هل يضايقك أنه يتهكم‬ ‫على مشاهدة "ذا كارديشيانز"؟‬ 453 00:24:12,293 --> 00:24:14,762 ‫أظن أنهم نظام أمومي من نساء قويات‬ 454 00:24:14,829 --> 00:24:16,598 ‫يدمرن الرجال أو يحولنهم إلى نساء،‬ 455 00:24:16,664 --> 00:24:17,966 ‫لذا، أحبهم كثيراً.‬ 456 00:24:20,268 --> 00:24:21,169 ‫مذهل.‬ 457 00:24:22,337 --> 00:24:24,038 ‫تحية لفكرة جعل الروبوتات غبية.‬ 458 00:24:29,143 --> 00:24:32,413 ‫حسناً، "دي إل" و"فورتشن"‬ ‫يقترحان جعل الروبوتات غبية.‬ 459 00:24:32,480 --> 00:24:33,982 ‫"آر تو دي ماينس"‬ 460 00:24:34,048 --> 00:24:36,751 ‫بينما تقترح "كاثرين" و"رون"‬ ‫أن نجعل الروبوتات مستثارة جنسياً.‬ 461 00:24:36,818 --> 00:24:38,219 ‫"سي ثري بي هو"‬ 462 00:24:39,988 --> 00:24:41,256 ‫في "ذا فيكس"، نمارس الديمقراطية.‬ 463 00:24:41,322 --> 00:24:43,892 ‫لذلك سيصوت جمهورنا في الأستديو‬ ‫على أفضل فكرة.‬ 464 00:24:43,958 --> 00:24:45,593 ‫صوتوا أيها الجماهير الآن.‬ 465 00:24:45,660 --> 00:24:49,364 ‫وتذكروا أن صوتكم‬ ‫قد يكون آخر مساهمة منكم لمجتمعكم.‬ 466 00:24:49,430 --> 00:24:51,299 ‫قبل أن تسيطر عليه الروبوتات.‬ 467 00:24:54,836 --> 00:24:56,471 ‫حسناً، نتيجة متقاربة جداً.‬ 468 00:24:56,538 --> 00:24:59,173 ‫53 بالمئة مقابل 47 بالمئة.‬ 469 00:24:59,240 --> 00:25:00,241 ‫الفائزان هما‬ 470 00:25:00,308 --> 00:25:01,609 ‫"دي إل" و"فورتشن".‬ 471 00:25:06,247 --> 00:25:07,115 ‫لذا فقد أتممنا المهمة.‬ 472 00:25:07,181 --> 00:25:09,284 ‫تمت مواجهة تهديد الذكاء الإصطناعي.‬ 473 00:25:09,350 --> 00:25:12,186 ‫إذا واجهتكم مشكلة في المستقبل‬ ‫مع الروبوتات،‬ 474 00:25:12,253 --> 00:25:14,022 ‫فاضغطوا زر إطفاء الحاسوب.‬ 475 00:25:15,089 --> 00:25:20,128 ‫أشكر "كاثرين رايان" و"رون فانشز"‬ ‫و"دي إل هيغلي"، و"فورتشن فيمستر"،‬ 476 00:25:20,194 --> 00:25:23,097 ‫وخبيرة البيانات البارعة "منى شلبي"‬ ‫وكل الجماهير هنا في الأستديو.‬ 477 00:25:23,164 --> 00:25:24,432 ‫وكل من يشاهدنا.‬ 478 00:25:24,499 --> 00:25:29,704 ‫سنحل مزيداً من مشاكل العالم‬ ‫في 5، 4، 3، 2، 1...‬ 479 00:26:03,504 --> 00:26:04,639 ‫ترجمة "محمد غريب"‬