كيف يمكن أن يُهلك الذكاء الاصطناعي البشرية بالخطأ؟

إنسان آلي يستخدم الحاسوب، تصور عن الذكاء الاصطناعي - (أرشيفية)
إنسان آلي يستخدم الحاسوب، تصور عن الذكاء الاصطناعي - (أرشيفية)
ترجمة: علاء الدين أبو زينة إميل ب. توريس* - (الواشنطن بوست) 31/8/2022 الناس سيئون في التنبؤ بالمستقبل. أين سياراتنا الطائرة؟ لماذا لا يوجد خادم آلي؟ ولماذا لا يمكنني أن آخذ إجازة على المريخ؟ لكننا لم نكن مخطئين فقط بشأن الأشياء التي اعتقدنا أنها ستحدث؛ للبشرية أيضًا تاريخ طويل من طمأنة أنفسنا بشكل غير صحيح إلى أن بعض الحقائق التي أصبحت حتمية لا مفر منها الآن لن تحدث. قبل يوم واحد من ابتكار ليو تسيلارد للتفاعل النووي المتسلسل في العام 1933، أعلن الفيزيائي العظيم، إرنست رذرفورد، أن أي شخص يطرح فكرة الطاقة الذرية إنما يقول "كلاماً فارغاً". وحتى كين أولسن، رائد صناعة الحاسوب في العام 1977، قال إنه لم يتوقع أن يكون للأفراد أي استخدام للحاسوب في منازلهم. من الواضح أننا نعيش في عالم نووي، ومن المحتمل أن يكون لديك جهاز حاسوب أو اثنان في متناول يدك الآن. وفي الواقع، أصبحت هذه الحواسيب الآن -والتطورات الهائلة في الحوسبة بشكل عام- موضوعاً لبعض التنبؤات الأكثر خطورة في المجتمع. والتوقع التقليدي هو أن قوة الحوسبة المتزايدة ستكون نعمة للبشرية. ولكن، ماذا لو أننا نكون مخطئين بهذا التنبؤ مرة أخرى؟ هل يمكن، بدلاً من ذلك، أن يُلحق بنا ذكاء اصطناعي خارق ضررًا كبيرًا لا يمكن إصلاحه؟ انقراضنا؟ كما يعلمنا التاريخ، لا تقل أبداً أن شيئاً لن يحدث أبداً. يبدو أنها مسألة وقت فقط قبل أن تصبح أجهزة الحاسوب أكثر ذكاءً من البشر؛ هذا توقع يمكننا أن نكون واثقين منه إلى حد ما -لأننا أصبحنا نراه مسبقاً. لقد حققت العديد من الأنظمة قدرات خارقة في أداء مهام معينة، مثل لعب "سكرابل" والشطرنج والبوكر، حيث يخسر الناس الآن بشكل روتيني أمام الروبوتات في جميع هذه المجالات. لكن التقدم الذي يتم إحرازه باطراد في علوم الحاسوب سيؤدي إلى ظهور أنظمة ذات مستويات عامة متزايدة من الذكاء: خوارزميات قادرة على حل المشكلات المعقدة في مجالات متعددة. تخيل خوارزمية واحدة يمكنها التغلب على أكبر أساتذة الشطرنج -ولكن أيضًا كتابة رواية، وتأليف لحن موسيقي جذاب، وقيادة السيارة عبر حركة المرور المزدحمة في مدينة. وفقًا لمسح أجراه خبراء في العام 2014، هناك فرصة بنسبة 50 بالمائة للوصول إلى "ذكاء آلي على مستوى ذكاء الإنسان" بحلول العام 2050، وفرصة بنسبة 90 بالمائة لأن يحصل ذلك بحلول العام 2075. ووجدت دراسة أخرى أجراها "المعهد العالمي للمخاطر الكارثية" أن هناك 72 مشروعًا على الأقل حول العالم تعمل على تحقيق الهدف الصريح المتمثل في إنشاء ذكاء عام اصطناعي -يشكل نقطة الانطلاق نحو الذكاء الاصطناعي الخارق (ASI)، الذي لن يؤدي فقط إلى أداء أفضل من البشر في كل مجال من مجالات الاهتمام، ولكنه يتجاوز بكثير أفضل قدراتنا. سيكون نجاح أي من هذه المشاريع أهم حدث في تاريخ البشرية. فجأة، سينضم إلى جنسنا البشري على الكوكب شيء أكثر ذكاءً منا. ويمكن تصور الفوائد بسهولة: قد يساعد الذكاء الاصطناعي الخارق على علاج أمراض مثل السرطان والزهايمر، أو على تنظيف البيئة. لكن الحجج التي تفسر لماذا قد تدمرنا قوى الذكاء الاصطناعي الخارق قوية أيضًا. بالتأكيد لن تقوم أي منظمة بحثية بتصميم ذكاء اصطناعي خارق خبيث، على غرار "المدمِّر" Terminator، عازم على تدمير البشرية، أليس كذلك؟ ولكن، لسوء الحظ، ليس هذا هو مصدر القلق. إذا تم القضاء علينا جميعًا على يد الذكاء الاصطناعي الخارق، فمن شبه المؤكد أن ذلك سيكون عن طريق الصدفة. لأن البنى الإدراكية للذكاء الاصطناعي الخارق قد تكون مختلفة اختلافًا جوهريًا عن بِنانا، فإنها قد تكون أقل الأشياء قابلية للتنبؤ بها في مستقبلنا. ضع في اعتبارك هذه البنى للذكاء الاصطناعي التي هزمت البشر بالفعل في الألعاب: في العام 2018، فازت خوارزمية تلعب الأتاري، "كيو*بيرت"، من خلال استغلال ثغرة "لا يوجد لاعب بشري... يُعتقد أنه اكتشفها على الإطلاق". وأصبح برنامج ذكاء اصطناعي آخر خبيرًا في لعبة الغميضة الرقمية بفضل استراتيجية "لم يستطع الباحثون أن يروها أبدًا... قادمة". إذا لم نتمكن من توقع ما ستفعله الخوارزميات التي تلعب ألعاب الأطفال، فكيف يمكننا أن نكون واثقين من تصرفات آلة ذات مهارات لحل المشكلات أعلى بكثير من القدرات الإنسانية؟ ماذا لو قمنا ببرمجة الذكاء الاصطناعي الخارق لإحلال السلام العالمي، لكنه قام باختراق الأنظمة الحكومية لإطلاق كل سلاح نووي على هذا الكوكب -معتبراً أنه إذا لم يكن هناك بشر، فلن يكون هناك المزيد من الحرب؟ نعم، يمكننا برمجته صراحةً بحيث لا يفعل ذلك. ولكن ماذا عن خطته "ب"؟ في الواقع، هناك عدد لا حصر له من الطرق التي يمكن أن "تحُل" بها أنظمة ذكاء اصطناعي خارق المشاكل العالمية التي لها عواقب وخيمة إلى حد كارثي. وبالنسبة لأي مجموعة معينة من القيود المفروضة على سلوك الذكاء الاصطناعي الخارق، وبغض النظر عن مدى شموليتها، فإنه يمكن للمنظرين الأذكياء الذين يستخدمون ذكاءهم "على المستوى البشري" فقط أن يجدوا طرقًا للذهاب بالأمور إلى مطلق السوء؛ ويمكنك المراهنة على أن ذكاءً اصطناعياً خارقاً يستطيع أن يفكر في المزيد. فيما يتعلق بإغلاق أو تعطيل ذكاء اصطناعي خارق مدمر -يجب على نظام ذكي بدرجة كافية أن يدرك بسرعة أن إحدى الطرق لعدم تحقيق الأهداف التي تم تعيينها له هي التوقف عن الوجود. ويفرض المنطق أنه سيحاول كل ما في وسعه لمنعنا من فصله عن مصدر الطاقة. من غير الواضح أن البشرية ستكون مستعدة في أي وقت على الإطلاق للذكاء الاصطناعي الخارق، لكننا بالتأكيد لسنا مستعدين له الآن. مع كل عدم الاستقرار العالمي، وإدراكنا الذي ما يزال وليداً وناشئاً فقط للتكنولوجيا، فإن إضافة الذكاء الاصطناعي الخارق ستكون مثل إشعال عود ثقاب بجوار مصنع للألعاب النارية. يجب أن يتباطأ البحث في مجال الذكاء الاصطناعي، أو حتى يتوقف. وإذا لم يتخذ الباحثون هذا القرار، فيجب على الحكومات أن تتخذ هذا القرار نيابة عنهم. رفض بعض هؤلاء الباحثين صراحة المخاوف من أن الذكاء الاصطناعي المتقدم قد يكون خطيرًا. وقد يكونون على حق. قد يتضح أن أي تحذير هو مجرد "كلام فارغ"، وأن الذكاء الاصطناعي الخارق حميد تمامًا -أو حتى مستحيل تمامًا. فبعد كل شيء، أنا لا أستطيع التنبؤ بالمستقبل. والمشكلة هي: ولا هم يستطيعون، أيضاً. *إميل بي. توريس Émile P. Torres: فيلسوف ومؤرخ يركز عمله على التهديدات الوجودية للحضارة والإنسانية. نشر حول مجموعة واسعة من المواضيع، بما في ذلك الذكاء الفائق للآلة، والتقنيات الناشئة، وعلم الأخرويات الدينية، إضافة إلى تاريخ وأخلاقيات الانقراض البشري. كتابه المقبل هو "الانقراض البشري: تاريخ علم وأخلاقيات الإبادة" (روتليدج). *نشر هذا المقال تحت عنوان: How AI could accidentally extinguish humankindاضافة اعلان