المسار الصحيح لتشريعات الذكاء الاصطناعي: التركيز على الإمكانيات وليس المخاطر

قادة شركات التكنولوجيا أثناء مؤتمر في سان فرانسيسكو عن الذكاء الاصطناعي، حزيران (يونيو) 2023 - (المصدر)
قادة شركات التكنولوجيا أثناء مؤتمر في سان فرانسيسكو عن الذكاء الاصطناعي، حزيران (يونيو) 2023 - (المصدر)


في حزيران (يونيو) 2023، صرح تشارلز شومر، رئيس الغالبية في مجلس الشيوخ الأميركي بأن الذكاء الاصطناعي "ليس مثل أي شيء سبق للكونغرس التعامل معه في الماضي".

اضافة اعلان

 

ووفق إعلان منه أيضاً، فإن السرعة التي يقدم بها مطورو الذكاء الاصطناعي أنظمة جديدة منه، مع ما تحمله تلك النظم من إمكانات كامنة في تغيير حياة الإنسان، تعني أن حكومة الولايات المتحدة يجب أن تبدأ "من الصفر" حين تفكر بكيفية تنظيم الذكاء الاصطناعي تشريعياً والسيطرة عليه أيضاً.

 

في المقابل، رفض المشرعون أمنيات شومر. وبعد الكشف عن "تشات جي بي تي" Chat GPT من قبل شركة "أوبن أي" Open AI أواخر العام 2022، تكاثرت المقترحات في شأن كيفية تشجيع التطوير الآمن للذكاء الاصطناعي، بأسرع من وصول روبوتات الدردشة Chatbots إلى الأسواق (روبوت الدردشة مصطلح يشير إلى برامج تستطيع التحادث بنفسها مع البشر بصورة مباشرة. ويعد (تشات جي بي تي) أحد أبرز نماذجها).


وفي آذار (مارس) 2023، اقترح المشرعون الديمقراطيون فرض حظر نهائي على بعض استخدامات الذكاء الاصطناعي في مجال الرقابة. في الشهر التالي لذلك، روجت مجموعة من المشرعين مؤلفة من شخصيات تنتمي إلى الحزبين الجمهوري والديمقراطي، مشروع قانون يحظر على أنظمة الذكاء الاصطناعي التي تسير نفسها ذاتياً، من التصرف بالأسلحة الذرية.

 

في حزيران (يونيو) 2023، أطلق شومر أجندته الخاصة. وبعد ذلك، في أيلول (سبتمبر)، عاودت مجموعة في مجلس الشيوخ مؤلفة من الحزبين، إدخال مشروع قانون عن حوكمة الذكاء الاصطناعي تتضمن التشديد على الإشراف والشفافية وخصوصية البيانات.


وبصورة جزئية، يعد السباق التشريعي جزءاً من الاستجابة إلى مطالبة مفادها بأن الحكومة ببساطة قد تكون بطيئة أو هشة أو غير متوافقة المزاج مع متطلبات مواكبة ركب التقنيات الجديدة السريعة التدفق. وكثيراً ما شكا قادة الصناعة التكنولوجية من أن التباطؤ الحكومي الكبير يحول دون الاستجابة المجدية للتطورات في وادي السيليكون، وقد استخدموا تلك الحجة ذريعة في تبرير اعتراضاتهم على وضع ضوابط للتقنيات الجديدة.

 

بالاستجابة إلى ذلك النقد، عمدت بعض المقترحات الحكومية إلى تشجيع التطورات الخاطفة في الذكاء الاصطناعي.

 

في المقابل، سعت مشاريع قوانين أخرى إلى السيطرة على الذكاء الاصطناعي أو الوقاية من حالات الاستخدام المشوبة بالخطورة والتعدي على حريات الأفراد وخصوصياتهم. ومثلاً، طالب "قانون الموثوقية بالخوارزميات" Algorithmic Accountability Act الذي اقترحه نواب ديمقراطيون بإجراء تقييمات عن الأخطار قبل وضع التقنيات قيد الاستخدام. كذلك حاولت بعض الاقتراحات تسريع التطور في الذكاء الاصطناعي مع وضع ضوابط له في الوقت نفسه.


بالتالي، تخاطر تلك السياسات المحمودة والعشوائية أيضاً، بأن تكون مقدامة، لكنها تشتت انتباه الحكومة وتهدد بأن تقود إلى وضعية الغياب الكلي للحوكمة الواضحة في شأن الذكاء الاصطناعي في الولايات المتحدة.

 

وتذكيراً، لا يشكل تلكؤ الحكومة خلف مسار الابتكار التكنولوجي، هشاشة أصيلة في الحكومة. وفي الواقع، تشكل محاولة استباق التشريعات الحكومية خطة استراتيجية تعتمدها شركات التكنولوجيا في الالتفاف على الإشراف الحكومي.

 

وثمة دور غير قابل للاستبدال تؤديه الحكومة بوصفها قوة استقرار وتوازن في تطور الذكاء الاصطناعي.

 

ليس بالضرورة أن تضحى الحكومة عبئاً يؤخر مسار الابتكار، بل إنها تستطيع أن تعززه عبر الرعاية الاستراتيجية للاستثمارات في العلوم والتكنولوجيا، مما يؤدي إلى منع حدوث الضرر، إضافة إلى تعزيز استفادة حياة الناس منها.


منذ أيامها الأولى، عملت إدارة الرئيس جو بايدن على الدفع بسياسة تتضمن أجندتها زيادة إدراج التكنولوجيا فيها عبر التعامل مع التوسع في استخدامات الذكاء الاصطناعي مع الأخذ بعين الاعتبار التنافس والخصوصية والانحيازات المسبقة، إضافة إلى آليات عن كيفية حماية الديمقراطية وتوسيع الفرص الاقتصادية وتخفيف عبء مجموعة من الأخطار.

 

في المقابل، تتغير تكنولوجيات الذكاء الاصطناعي بسرعة، ما يوجب النهوض بمزيد من الجهود بسرعة بغية توضيح الهدف المركزي من حوكمة الذكاء الاصطناعي كي لا يبقى القرار السياسي في وضعية رد الفعل بصورة حصرية.


يجب على حوكمة الذكاء الاصطناعي رفض هندسة الخيارات التي ترسم المستقبل بصورة انقسام ثنائي صارم بين رؤية ترسمه كجنة وأخرى تقدمه بصورة سقوط مأسوي متشائم، وكذلك الحال بالنسبة إلى الإشكالية الزائفة عن الخيار بين مساري الفاعلية الكفؤة أو ضمان التساوي. بالأحرى، أن الأمن والابتكار ليسا خيارين ينفي أحدهما الآخر.

 

وفي المقابل، فبسبب ديناميكية تقنيات الذكاء الاصطناعي والتعدد في غايات استخداماتها، فإنها قد تراوغ المقاربات التقليدية في السياسة المتبعة حيالها.

 

لا يفترض بالولايات المتحدة أن تكون في حاجة إلى سياسات جديدة ومتعددة في شأن الذكاء الاصطناعي. إنها محتاجة بالأحرى إلى نوع آخر من صنع سياساتها.


تشبيهات زائفة

 


في سياق سعيهم إلى صوغ تشريعات تنظم الذكاء الاصطناعي، فكر كثير من المستشارين في الولايات المتحدة وخارجها، بالتشبيهات وبحثوا عن نظراء لتلك التقنية. هل تبدو أنظمة الذكاء الاصطناعي أكثر شبهاً بمسرعات الجسيمات  Particle Accelerators، وهي تراكيب ضخمة تتضمن آلات تعمل على تفجير مسيطر عليه لكمية بالغة الضآلة من الذرات بغية دراسة الجسيمات الأصغر التي تتكون الذرة منها؟

 

ثمة خطورة دائمة في احتمال أن تخرج التفاعلات عن السيطرة فتؤدي إلى انفجارات ذرية ونووية، إضافة إلى الإمكانية الحاضرة دوماً من استعمال نتائج بحوثها في تطوير أسلحة ذرية شديدة القوة والفتك، أم بابتكار دواء جديد أو بإجراء بحوث عن الطاقة النووية؟


واستطراداً، عقد أولئك المشرعون الأمل دوماً على التعرف إلى ما يوازي الذكاء الاصطناعي، حتى لو يكن متطابقاً معه بالضبط، للعثور على مؤشر يستطيع توجيه الاستراتيجيات الحكومية الموجودة بالفعل والتي يمكن تطبيقها على الذكاء الاصطناعي، من ثم توجيه مبادرات صوغ سياسات حياله في الحاضر والمستقبل.


ومثلاً، استلهم المتخصص الاقتصادي صاموئيل هاموند، الجهود الهائلة التي بذلتها الولايات المتحدة خلال القرن الـ20 في تحديد وتقييم الأخطار المرتبطة بالأسلحة النووية. واقترح ما سماه "مشروع مانهاتن" (في إشارة إلى المشروع السري الأميركي الذي أنتج أول قنبلة نووية) عن أمن الذكاء الاصطناعي، وقوامه مشروع بحوث فيدرالية تتمحور حول الأخطار الأشد كوارثية التي قد يحتمل أن تكون كامنة في تلك التقنية. في مسار آخر، استهل "معهد الذكاء الاصطناعي الآن" AI Now Institute، وهو مؤسسة غير ربحية، عمله بتفحص مدى صلاحية إرساء وكالة تشريعية لتنظيم الذكاء الاصطناعي تستند إلى ما تنهض به "إدارة الغذاء والدواء" في الولايات المتحدة (هيئة رقابية على أمن الغذاء وصناعة الدواء).

 

ويعني ذلك إيجاد كيان تشريعي لتنظيم تلك التقنية تضع في رأس أولوياتها أمن الجمهور، عبر التركيز على التدقيق الصارم كشرط للحصول على الموافقة، قبل إطلاق أنظمة الذكاء الاصطناعي في السوق، على غرار ما تطبقه الولايات المتحدة على صناعة الأدوية والمعدات الطبية وإمدادات الغذاء في البلاد كلها.


ضمن ذلك الإطار طرحت مجموعة من التشبيهات والحالات النظيرة، إذ تبنى "المركز الألماني لبحوث الذكاء الاصطناعي" The German Research Center for Artificial Intelligence نموذجاً عن حوكمة الذكاء الاصطناعي يستقي مسار "المنظمة الأوروبية للبحوث النووية"، اختصاراً "سيرن" CERN، التي تجسد كياناً عابراً للحكومات يتولى الإشراف على البحوث العلمية الأساسية في فيزياء الجسيمات. في أيار (مايو) 2023، أصدر سام آلتمان وكريغ بروكمان وإليا سوتسكفر، حينما كانوا آنذاك المؤسسين المتشاركين لـ"أوبن أي آي" Open AI، توصية بأن يأتي إطار حوكمة الذكاء الاصطناعي مقولباً على نسق "الوكالة الدولية للطاقة الذرية". وضمن ذلك الإطار، تتولى الأمم المتحدة تشكيل هيئة دولية تعمل على إرساء معايير الأمان، ووضع نظام للرقابة على أنظمة الذكاء الاصطناعي الأكثر تقدماً.


إن غياب بنية تحتية منسقة دولياً للبحوث ينطوي على تحدٍ بارز لحوكمة الذكاء الاصطناعي. لكن، يسري توقع حتى لدى المنهجيات التقليدية المتعددة الأطراف أن الحوكمة المستندة إلى دولة واحدة لن تستطيع التوصل إلى صوغ طريقة فاعلة في السيطرة على جهود شركات صناعة تقنية الذكاء الاصطناعي في سعيها إلى الربح.

 

وبالفعل، شرعت شركات الذكاء الاصطناعي في تقديم منتجاتها إلى قاعدة عملاء عالمية ومتنوعة، تشمل الشركات العامة والخاصة والزبائن اليوميين العاديين.

 

إن أياً من التشبيهات الواردة آنفاً (عن نظراء لتقنية الذكاء الاصطناعي)، بما في ذلك الأطراف الأميركية المحلية (على غرار إدارة الدواء والغذاء)، لا تعبر عن واقع أن البيانات والمعلومات التي تعزز وتمكن أنظمة الذكاء الاصطناعي، باتت قوة اقتصادية وسياسية عالمية.

 

أبعد من ذلك، تخلص كل تلك النماذج الممكنة (باعتبارها نظراء لتلك التكنولوجيا) إلى تجاهل بعض المجالات المحورية الحساسة التي من شأن الذكاء الاصطناعي أن يغيرها بصورة جذرية كقطاعات الرعاية الصحية والتعليم والزراعة والعمل والاقتصاد.


وتكمن مشكلة التوصل إلى نظير من القرن الـ20 في أن الذكاء الاصطناعي ببساطة لا يشبه أياً من ابتكارات تلك الحقبة، إذ تتميز أنظمة الذكاء الاصطناعي بأنها ديناميكية وتتغير باستمرار، مما يجعلها مختلفة عن الهاتف أو معدات الحوسبة الإلكترونية أو الإلكترونيات الدقيقة أو مجموعة واسعة من المنتجات الصيدلانية، وهي تقنيات وسلع استغرق تطورها سنوات أو عقوداً من الزمن. بالتالي، يرجح أن النماذج الجاهزة والشائعة لا تصلح في حكومة الذكاء الاصطناعي.

 

وقد يؤدي الاستغراق في تأمل الماضي إلى إغلاق مسبق فرص صوغ مقاربات مبتكرة في السياسات المتوخاة حيال الذكاء الاصطناعي تستطيع تجاوز كونها محض رد فعل على تحديات الحاضر لتغدو قادرة على استشراف تحديات المستقبل أيضاً.


ألق المرساة

 


بدلاً من السعي إلى الاسترشاد بأطر تشريعية تعود للقرن الـ20، يجدر بصناع السياسة البدء بخطوة أولى مختلفة تتمثل بأن يسألوا أنفسهم عن سبب سعيهم إلى السيطرة على الذكاء الاصطناعي. في المقابل، لا يكمن الخيار في التراجع عن السيطرة على الذكاء الاصطناعي. ففي العقد الماضي، برز مثل جدير بالتأمل تمثل في جهود متباطئة ومبعثرة وغير كافية بصورة مؤسفة في خاتمة المطاف، حيال السيطرة على استخدام نظم الخوارزميات في وسائط التواصل الاجتماعي.

 

وترافقت تلك الجهود مع موقف غير فاعل قوامه عقد الأمل على أن المنافع الاجتماعية سوف تتهاطل من تلقائها فتغدو صفة متصاعدة لدى التطور التكنولوجي.

 

بالتالي، يجدر بالقادة السياسيين ألا يشتروا مجدداً تلك الأسطورة التي لاقت دفعاً من المصالح الذاتية لقادة شركات التكنولوجيا والمستثمرين فيها، ومفادها بأن دعم الابتكار يتطلب تعليق الواجبات التشريعية للحكومة.


واستكمالاً، لقد تأتت بعض أبرز التحديات التي واجهها العالم خلال القرن الـ20، من الفشل في صوغ تشريعات مناسبة عن الأنظمة المؤتمتة. وتعمل تلك الأنظمة على جمع بيانات عن حيواتنا وتراقبها باستمرار.

 

وتفاقمت الصور المستمرة من التفاوتات، وكذلك غياب العدالة عن العلاج، بسبب من الاستعمال المنفلت لما سمي بخوارزميات التوقع وأدوات صنع القرار في الرعاية الصحية والقضاء الجرمي والوصول إلى الإسكان.

 

وتراكم الاضطراب الاجتماعي الآتي من منصات السوشيال ميديا، عبر تضخيم المعلومات المضللة. وحاضراً، تعمل التقنيات التي لم تجر السيطرة عليها تشريعياً، على تسريع انحدار الديمقراطية ومفاقمة انعدام الأمن وتآكل ثقة شعوب العالم بالمؤسسات.


وبصورة محورية وحساسة، يجدر بالقادة حينما يتعاملون مع حوكمة الذكاء الاصطناعي ألا يكتفوا بالتفكير فيما يخشونه من تلك التقنية، بل أن يمدوا أبصارهم إلى نوع المجتمع الذي يسعون إلى التأسيس له، إذ أظهر النقاش العام أن التأملات المفزعة عن الأخطار الكارثية الذكاء الاصطناعي تهزم قدرة الناس على تخيل الفوائد المحتملة الكامنة في تلك التقنية.


في الأحوال كلها، تبرهن المقاربة العامة التي يتبعها بايدن في صوغ السياسة، على كيفية النظر إلى السياسية بوصفها فرصة لإغناء المجتمع، وأنها لا تقتصر على كونها وسيلة للتفاعل مع مشكلات آنية، ما يستجلب التركيز المطلوب على تدخلات الحكومة. وتمثل المفتاح الأساس لتلك المقاربة في وجود أفق العام ينظر إلى العلوم والبحوث والابتكار باعتبار أنها تقدم بحد ذاتها قيمة مقترحة، إضافة إلى أنها تقترح مجموعة من القيم على الجمهور الأميركي.

 

وبصورة مبكرة، سجلت الإدارة إنجازات مهمة في تلك السياسة عبر استخدام التمويل الحكومي الموجه، والاستثمار في البنية التحتية والابتكار التكنولوجي، بغية تدعيم الفرص الاقتصادية وتعزيز تحسن أحوال الأميركيين.


مثلاً، لم تقتصر أهداف "قانون خفض التضخم" Inflation Reduction Act العام 2022، على لجم التضخم وحده، بل شملت تشجيع إنتاج البطاريات واستعمالها، والطاقة الشمسية والسيارات الكهربائية والمضخات الحرارية وغيرها من التقنيات الجديدة قيد الإنشاء، وذلك بغية الإسهام في التعامل مع أزمة المناخ والدفع قدماً بالعدالة البيئية.

 

 

كذلك عزز "قانون الرقاقات والعلوم" CHIPS and Science Act لعام 2022، إنعاش الابتكار في الولايات المتحدة عبر مساندة تطوير نظام واسع جديد لبحوث أشباه الموصلات ومنتجيها، مع التشديد على تكامله مع تقديم فرص جديدة للمناطق والمجتمعات المهملة في الولايات المتحدة.


وبكلمات أخرى، تملك الاستثمارات الحكومية في العلوم والتكنولوجيا القدرة على التعامل مع التفاوت الاقتصادي. وعلى غرار عملية إرساء قوة سهم معين، يستغرق الأمر وقتاً قبل أن تعطي تلك الاستثمارات منافعها بصورة كاملة، لكن الاسترشاد بليبرالية محملة بالقيم، أتاح للإدارة نسج الدعم من الحزبين كليهما بالضد من الانقسام الذي يضج به الوسط السياسي.


منافع مرنة

 


شرعت إدارة بايدن في اتخاذ خطوات لتطبيق المقاربة نفسها على الذكاء الاصطناعي. في تشرين الأول (أكتوبر) 2022، أصدر البيت الأبيض مشروعه عن "قانون حقوق الذكاء الاصطناعي" المستقى من التفاعل الوثيق مع ممثلين من مختلف قطاعات المجتمع الأميركي، بما في ذلك الصناعة والأكاديميا والمجتمع المدني. وتضمن مشروع القانون خمسة مقترحات تقضي بأن تكون أنظمة الذكاء الاصطناعي آمنة وفاعلة، ووجوب أن يعلم الجمهور عن استمرار خصوصية بياناته، وألا تقدم له خوارزميات تتضمن انحيازات مسبقة، وضرورة أن يتلقى المستخدمون إشعاراً حينما تشملهم أعمال نظام ما من الذكاء الاصطناعي مع حصولهم على فرصة للموافقة على ذلك الأمر أو رفضه.

 

يضاف إلى ذلك تمكين المواطنين من القدرة على الوصول مباشرة إلى طرف بشري، حينما يستعمل الذكاء الاصطناعي في صنع قرارات لها تداعياتها على حياتهم. وورد في مشروع القانون نفسه تعريفات عن ممارسات محددة من شأنها إدراج المنافع العامة ضمن أدوات السياسة المتبعة حيال الذكاء الاصطناعي، ويشمل ذلك الإشراف والتقييم وتشكيل "فرق حمراء" وتقييم الأنظمة الذكية بصورة مستمرة.


وبصورة جزئية، تكمن أهمية مشروع القانون في أنه يشدد على فكرة أن حوكمة الذكاء الاصطناعي لا ينبغي بها البدء من نقطة الصفر. بالأحرى أنها تستطيع الانبثاق من الرؤية الأساسية نفسها عن الصالح العام التي صاغها الآباء المؤسسون لهذه البلاد قبل قرون.

 

لا يوجد مجتمع يتشارك أفراده دوماً الرؤية نفسها عما يكونه المستقبل الصالح له، لكن المجتمعات الديمقراطية تنبني على اتفاق أساس على القيم الأساسية التي يقدرها المواطنون، وتتكون بالنسبة إلى الولايات المتحدة من الخصوصية والحرية والمساواة وحكم القانون.


واستطراداً، من المستطاع أن تقاد حوكمة الذكاء الاصطناعي بتلك القيم الراسخة نفسها، بل ينبغي بها أن تكون كذلك. وحينما يتعلق الأمر بالتكنولوجيا، يميل صناع السياسة إلى الاعتقاد غالباً بأن مقارباتهم مقيدة بمدى جدة المنتج وضرورة خضوعها لوجهات نظر خبراء ممن صنعوه.

 

بالتالي، قد يضحى المشرعون أسرى إحساس زائف بأن التقنيات الجديدة المحددة تحتاج دوماً إلى قوانين جديدة محددة. من ثم قد يتملكهم إحساس غريزي بوجوب تأليف منهجيات جديدة في الحوكمة كلما صنعت تقنية جديدة.


إن هذا الإحساس الغريزي مغلوط. وعبر التاريخ، عمدت الولايات المتحدة إلى إعادة تعريف وتوسيع حقوق المواطنين وحرياتهم، مع الاستمرار بالاستناد إلى فهم مفاده بأن تلك الحقوق والحريات يجب أن توجد بصورة دائمة.

 

من ثم إذا راجع صناع السياسة المبادئ الأولى على غرار تلك التي يمليها "قانون حقوق الذكاء الاصطناعي"، فلعلهم يلاحظون أيضاً أن مجموعة من تطبيقات الذكاء الاصطناعي تخضع بالفعل للقوانين السارية حاضراً.


ومن شأن إرساء حوكمة الذكاء الاصطناعي على رؤية عن الصالح العام، أن يقلص الالتباس والتنافس في التشريعات، ما يبدد ذلك الفيض من القوانين المتناقضة أحياناً التي يصدرها المشرعون حاضراً.

 

إذا حدث ذلك الأمر، فسيحرر المشرعين والهيئات التنظيمية كليهما معاً مما يحول دون تفكيرهما الخلاق في مساحات باتت تحتاج بإلحاح إلى ابتكار سياسات ملائمة لها، إذ يصح القول فعلياً إن الذكاء الاصطناعي يطرح تحديات جديدة غير مسبوقة تتطلب ابتكار سياسة ملائمة لها.

 

وبالفعل، لقد انخرط "المعهد الوطني للمعايير والتكنولوجيا" (اختصاراً نيست) التابع لوزارة التجارة الأميركية، في تأليف نوع مختلف من صنع السياسة فيما يتعلق بالذكاء الاصطناعي.


ومع امتلاكه تفويضاً دستورياً بتولي مهمة "تعيين المعايير عن الأوزان والقياسات"، يحدد "نيست" المعايير الملائمة في قياس الأشياء على غرار الطول والوزن والحرارة والوقت والضوء والكهرباء.

 

في 2021، أصدر الكونغرس توجيهاً إلى "نيست" لتطوير الأطر الطوعية والخطوط الإرشادية والممارسات الفضلى فيما يتعلق بتطوير أنظمة موثوقة في الذكاء الاصطناعي، وكذلك وضعها قيد الخدمة الفعلية، بما في ذلك طرق اختبار الانحيازات في البيانات المستخدمة في تدريبها وحالات استعمالها.

 

وفي كانون الثاني (يناير) عقب استشارات مع قادة صناعة التكنولوجيا والعلماء والجمهور، أصدر "المعهد الوطني للمعايير والتكنولوجيا" أول تصوراته عن "إطار التعامل مع خطورة الذكاء الاصطناعي 1.0". وحمل الترقيم "1.0" دلالة لها مغزاها.

 

ومنذ وقت طويل، يسود استعمال الترقيم المتتالي، لنفكر مثلاً بنظم "ويندوز" 2.0 و3.0 وغيرها، في عالم تطوير برمجيات الكمبيوتر، ما يتيح سد الثغرات وتحسين العمليات وإضافة ميزات جديدة تكون أفضل من سابقاتها.


واستكمالاً، لا يشكل الترقيم المتتالي أمراً مألوفاً اتباعه في عوالم صنع السياسة، لكن لجوء "نيست" إلى ذلك الضرب من الترقيم في إصدار نسخه عن السياسات التي يتبعها، سيتيح ظهور مقاربة يقظة ومتطورة في شأن صنع المعايير المتعلقة بالذكاء الاصطناعي.

 

وكذلك أرفق "نيست" إطاره الأول مع كتاب إرشادي عملي عن "قواعد اللعب" كي يوثق أنه سيجدد ذلك الإطار كل ستة أشهر، مع استخدام مصادر جديدة ودراسات حالات متجددة.

 

من المستطاع تطبيق ذلك النوع من الابتكار (بشأن القوانين المتعلقة بالذكاء الاصطناعي)، مع وكالات أخرى. من ثم يجب أن تغدو الطرق اليقظة والمتجددة في مراجعة المعايير والسياسات، جزءاً أكثر ثباتاً وانتظاماً في العمل الحكومي.


القديم يغدو جديداً

 


شكل "قانون حقوق الذكاء الاصطناعي" و"إطار التعامل مع خطورة الذكاء الاصطناعي" الذي أصدره "نيست"، أساس الأمر التنفيذي الذي أصدره بايدن بعنوان "التطوير والاستعمال المأمونين والمضمونين والموثوقين في الذكاء الاصطناعي". وعبر صفحاته الـ111، يحض ذلك الأمر الذراع التنفيذية للسلطة على حوكمة الذكاء الاصطناعي بالاستناد إلى ما بين أيديها من توجيهات وخطوط إرشادية وسلطات وقوانين، مع الحرص على تطبيقها بطرق مبتكرة.


ويعطي ذلك التفويض الواسع النطاق مجموعة من الأطراف الرئيسة واجبات متنوعة إلزامية يفترض النهوض بها، إذ يفرض ذلك الأمر الرئاسي على قادة صناعة التكنولوجيا تقديم رؤية عن آليات العمل الداخلية للأنظمة الأشد قوة في الذكاء الاصطناعي، وكذلك وضع علامات مائية على منتجاتها بغية المساعدة دعم صدقية المعلومات.


وكذلك يفرض التوجيه نفسه على "المكتب الأميركي للإدارة والموازنة"، إصدار إرشادات عن استعمال الحكومة نفسها للذكاء الاصطناعي، مع ملاحظة أن الحكومة تملك سلطة غير عادية في عمليات تشكيل الأسوق وسلوك الصناعة، بفضل عملها على إرساء القوانين اللازمة في عمليات شراء أنظمة الذكاء الاصطناعي، إضافة إلى فرض التزام الشفافية على مبتكري تلك التقنية.


في المقابل، ثمة جهود أخرى يجب بذلها، إذ تستلزم حوكمة الذكاء الاصطناعي مكوناً عالمياً. في العام 2023، تقدم الاتحاد الأوروبي بقوانين جديدة مهمة عن حوكمة الذكاء الاصطناعي، وتسير المملكة المتحدة إلى التعامل مع الذكاء الاصطناعي عبر سياسة "اللمسة الخفيفة".

 

ويملك الاتحاد الأفريقي استراتيجية إقليمية حيال تلك التقنية، فيما فرغت سنغافورة تواً من إصدار استراتيجيتها الوطنية الثانية في أربع سنوات في شأن الذكاء الاصطناعي.


وثمة خطر يتمثل في معاناة بقية العالم تدافع تلك المجموعة نفسها من الاقتراحات المتنافسة التي حاقت بحوكمة الذكاء الاصطناعي في الولايات المتحدة. في المقابل، توجد معدات متعددة الأطراف من المستطاع استخدامها في توضيح جهود الحوكمة الدولية لتلك التقنية.

 

وهنالك توافق دولي بين الدول الأعضاء في الأمم المتحدة بقيم أساسية مشتركة عبر ميثاق الأمم المتحدة والإعلان العالمي لحقوق الإنسان، ويجب استعمال تلك القيم في توجيه قوانين الذكاء الاصطناعي.


في ذلك الصدد، يجب على القادة الديمقراطيون تفهم أن تخطي التشريعات التنظيمية وتعطيلها، يندرج ضمن نموذج عمل صناعة التكنولوجيا.

 

من ثم فإن الترابط بين عملية صنع السياسة حيال الذكاء الاصطناعي وبين المبادئ الديمقراطية الأساسية من شأنه إعطاء المشرعين والمنظمين معيار منسجم ومعتمد يمكنهم من قياس تأثير أنظمة الذكاء الاصطناعي، إضافة إلى التركيز على الفوائد الاجتماعية وعدم التوقف حصرياً عند دائرة المزاعم الضخمة التي تحيط بالمنتجات الجديدة.


وإذا استطاع صناع السياسة التلاقي عند رؤية إيجابية في حوكمة الذكاء الاصطناعي، فالأرجح أنهم سيرون حينها أن مجموعة كبيرة من المكونات المتعلقة بالتشريعات التنظيمية للتكنولوجيا يمكن إنجازها بواسطة هيئات ووكالات موجودة فعلياً. في المقابل، إذا عزمت بلدان عدة أنها في حاجة إلى وكالات جديدة، على غرار "معاهد أمن الذكاء الاصطناعي" التي تأسست أخيراً في الولايات المتحدة والمملكة المتحدة، فسيجب على تلك البلدان التفكير بتلك الوكالات بوصفها مؤسسات ديمقراطية تعطي الأولوية للصدقية حيال المواطنين وتنخرط في الاستشارات المتاحة للعموم.


وإذا أحسن تصميمها، ستغدو تلك الوكالات جزءاً من بنية تحتية أشد اتساعاً للحوكمة بمعنى عدم اقتصارها على محض تقصي كيفية اختراقات الذكاء الاصطناعي للحقوق ومسارات حياة الناس، فتوسع دائرة رؤيتها كي تشمل كيفية جعل الذكاء الاصطناعي أداة فعالة في تعزيز تلك الحقوق والمسارات. ورغم قوة أنظمة الذكاء الاصطناعي، فإنها تبقى أدوات يصنعها البشر، واستخدامهم لها لا يسير وفق مخطط حتمي.


كخلاصة، يجب ألا يغدو الذكاء الاصطناعي عبئاً على الابتكار. اسأل أصحاب البنوك عن مدى فائدة انفلات الإقراض كأداة في يد المنافسين. وببساطة، فإن جدار الدعم الذي تقدمه الحوكمة الفاعلة يمنح الاستقرار، إضافة إلى توفير مدى منضبط للحركة. قبل ذلك كله، يجب على صناع السياسة الإقرار بأن الحوكمة الفاعلة للذكاء الاصطناعي سيضحى ممارسة في الرجوع إلى المبادئ الأولى، ولا يقتصر على كونه مهمة تقنية وتشريعية.


*ألوندرا نلسون، أستاذة في "معهد الدراسات المتقدمة" وزميلة مميزة في "مركز التقدم الأميركي". شغلت بين العامين 2021 و2023 منصبي الرئيس المفوض والنائب الأول للرئيس لشؤون العلوم والمجتمع في "مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا"، وكذلك منصب نائب مساعد الرئيس.


*الترجمة لموقع "إندبندنت عربية"، نشرت على موقعها الإلكتروني في 18 شباط (فبراير) 2024.

 

اقرأ المزيد في ترجمات:

الذكاء الاصطناعي اختطف نظام تشغيل الحضارة الإنسانية‏