أخبار عربية ودوليةاقتصاد

خبراء: تحليل السلوك عبر الذكاء الاصطناعي يسهم بتحسين العلامات التجارية

تقرير اقتصادي

دبي-الغد- ظهرت في الآونة الأخيرة أزمة ثقة لدى المستخدمين تجاه حلول الذكاء الاصطناعي وتعلّم الآلات، وذلك نتيجة استمرار ظهور حوادث انتهاك الخصوصية وإساءة التعامل مع البيانات.
ورغم تصاعد ظهور قيود مشددة من قبل الجهات التنظيمية للحد من هذه الحوادث، إلا أن جارتنر تتوقع أن تقوم 75 % من الشركات الكبرى بتعيين بخبراء تحليل السلوك عبر الذكاء الاصطناعي لحماية الخصوصية وتعزيز ثقة المستخدمين بهدف الحد من الحوادث التي تؤدي إلى إلحاق الضرر بسمعتها أو علامتها التجارية.
تشكل حالات الانحياز تجاه العرق، أو الجنس، أو العمر، أو الموقع الجغرافي والانحياز تجاه مجموعة معيّنة من البيانات من القضايا والمخاطر التي لطالما شابت نماذج تدريب الذكاء الاصطناعي. هذا إلى جانب تلك الخوارزميات المبهمة كتلك المستخدمة في التعلّم المعمق للآلات حيث تخفي الكثير من التفاعلات المستترة والمتبدلة والتي تنتهي على شكل تنبؤات للذكاء الاصطناعي يصعب ترجمتها وفهمها.
وقال نائب الرئيس للأبحاث في جارتنر جيم هير: “هناك حاجة ملحّة لأدوات ومهارات جديدة لمساعدة الشركات على الكشف عن مصادر حالات الانحياز تلك وغيرها، وبالتالي بناء الثقة في استخدامات نماذج الذكاء الاصطناعي والحد من المخاطر على الشركة وعلامتها التجارية”.
وأردف هير قائلاً: “هناك زيادة في أعداد مديري البيانات وتحليلها والرؤساء التنفيذيين لإدارة البيانات ممن يعملون على تعيين خبراء استقصائيين لحوادث الذكاء الاصطناعي والمحققين المتخصصين في السلوكيات الانضباطية”.
هناك تزايد في الحالات التي تقوم فيها قطاعات مثل القطاع المالي وقطاع تقنية المعلومات بنشر حزم من وسائل إدارة المخاطر وحوكمة الذكاء الاصطناعي وغيرها من التكتيكات الساعية إلى إدارة المخاطر المرتبطة بالسمعة والحماية. كما أن عددا من المؤسسات الكبرى مثل “فيسبوك” و”جوجل” و”بنك أوف أميركا” و”ماسميوتشوال” و”ناسا” عملت بالفعل على تعيين متخصصين في استقصاء سلوكيات الذكاء الاصطناعي أو أنها في طور تعيينهم، على أن يكون الدور الرئيسي لهؤلاء هو الكشف عن حالات الانحياز غير المرغوبة في نماذج الذكاء الاصطناعي قبل أن يتم نشرها واستخدامها.
تنضوي مهمة هؤلاء المتخصصين على اختبار النماذج خلال مراحل تطويرها، ثم الاستمرار في مراقبتها بُعيد نشرها وبدء العمل بها، لاسيما أن حالات الانحياز عادة ما تظهر نتيجة التباين ما بين البيانات المنبثقة عن عملية التدريب من جهة والعالم الحقيقي من جهة أخرى.
وفي هذا الإطار، قال هير: “ربما ما تزال أعداد الشركات التي تعمل اليوم على الاستعانة بخبراء استقصائيين لحوادث تعلّم الآلات والمحققين المتخصصين في السلوكيات الانضباطية متواضعة، إلا أن أعدادها ستشهد تزايداً على نحو متسارع في السنوات الخمس المقبلة”.
ستعمل الجهات المزوّدة للخدمات الاستشارية عدداً من الخدمات الجديدة لتوفير مزايا الرقابة والتأكد من أن نماذج تعلّم الآلات واضحة وقابلة للشرح وتتوافق مع المعايير الموضوعة قبل انتقالها إلى مرحلة التشغيل. ومن ناحية أخرى، ستظهر أدوات جديدة منها ما يكون مفتوح المصدر ومنها التجاري سيتم تصميمها بهدف مساعدة المحققين المتخصصين في الحوادث المرتبطة بتعلّم الآلات على كشف حالات الانحياز والحد من ظهورها.
عملت بعض المؤسسات على إطلاق أدوات توضيحية للذكاء الاصطناعي تهدف إلى مساعدة عملائها على إصلاح الأخطاء المتمثلة في حالات الانحياز في خوارزميات الذكاء الاصطناعي. وتعمل الشركات المزوّدة لمنصات الذكاء الاصطناعي وتعلّم الآلات بإضافة إمكانيات من شأنها أتمتة عملية توليد شروحات توضيحية للنماذج باللغة الطبيعية. كما أن هناك تقنيات صاعدة مفتوحة المصدر، مثل تقنية توليد الشروحات التوضيحية للنماذج كافة LIME والتي من شأنها أن تكشف عن حالات التمييز والانحياز الخاطئة قبل أن تجد طريقها إلى النماذج.
من شأن هذه الأدوات وغيرها أن تمكّن محققي مشاكل تعلّم الآلات من الوقوف على تأثيرات العناصر المتغيرة الحساسة -مثل العمر والجنس والعرق على البيانات المرتبطة العناصر المتغيرة الأخرى في نموذج معين. ووفقاً للسيد هير: “من شأن هذه الأدوات أن تقيس مدى التوافق ما بين المتغيرات بغية التحقق من تأثير ذلك على النموذج ومخرجاته”.
ما من شك أن المديرين المسؤولين عن البيانات وتحليلها والرؤساء التنفيذيين لإدارة البيانات يفتقرون إلى المناعة اللازمة ضد المشكلات المتعلقة بغياب الحوكمة والحوادث المرتبطة بقصور الذكاء الاصطناعي.
وقال هير: “ينبغي على هؤلاء المديرين التعامل مع الحوكمة والانضباط على أنها جزء من مبادرات الذكاء الاصطناعي، والعمل على بناء ثقافة تبنى على الاستخدام المسؤول والثقة والشفافية. وفي هذا الإطار تعد خطوة تحقيق التنويع في فرق عمل الذكاء الاصطناعي والبيانات والخوارزميات والترويج لمهارات العاملين بداية جيدة”. وأضاف: “على المديرين المسؤولين عن البيانات وتحليلها وضع خطط لضمان تحمّل المسؤولية والمحاسبة، وذلك لتحديد مستويات الثقة والشفافية للبيانات والخوارزميات والمخرجات لكل نموذج وضمان تطبيقها. كما أن من الضروري أن يقوم هؤلاء بإضافة مزايا لتوفير شروحات توضيحية للذكاء الاصطناعي عند تقييم البيانات التحليلية وذكاء الأعمال وعلم البيانات ومنصات تعلّم الآلات على حد سواء”.

مقالات ذات صلة

السوق مغلق المؤشر 1791.37 0.29%

إغلاق
إغلاق

أنت تستخدم إضافة Adblock

برجاء دعمنا عن طريق تعطيل إضافة Adblock