لماذا يتخوف العالم من تطور "الأنظمة الذكية"؟

ezgif-2-4d59135d8f
مخاوف
جاءت التحذيرات المتتالية حول مخاطر استخدام الذكاء الاصطناعي لتخليق أسلحة قاتلة، لتثير المخاوف بشأن التطور المتسارع "غير المنضبط" لتلك الأنظمة الذكية، بينما يكشف خبراء لموقع "الحرة"، مدى إمكانية تحقيق هذا السيناريو في المستقبل القريب.اضافة اعلان

تحذيرات متتالية

تدرس الحكومات في جميع أنحاء العالم، كيفية التخفيف من مخاطر تكنولوجيا الذكاء الاصطناعي الناشئة، والتي يمكن أن تعيد تشكيل الاقتصاد العالمي، وتغيّر مشهد الأمن الدولي، بحسب وكالة "رويترز".

والثلاثاء، حذّر ثلاثة من قادة الذكاء الاصطناعي المؤثرين، أثناء شهادتهم في جلسة استماع بالكونغرس، من أنّ التسارع الكبير في تطوير الذكاء الاصطناعي، قد يؤدي إلى أضرار جسيمة خلال السنوات القليلة المقبلة، تضاهي الإرهابيين الذين يستخدمون التكنولوجيا لصنع أسلحة بيولوجية.

وأظهرت جلسة الاستماع، حجم المخاوف بشأن تجاوز الذكاء الاصطناعي للذكاء البشري، والخروج عن نطاق السيطرة، لإلحاق الضرر بالبشرية، والذي قد أصبح واقعا وليس خيالا علميا، وفقا لتقرير لصحيفة "واشنطن بوست".
وأنظمة الذكاء الاصطناعي كأيّ أداة يمكن استخدامها في الخير أو الشر، وقد يلجأ البعض لاستغلال تلك الأنظمة، في "تطوير أمراض وأسلحة بيولوجية فتاكة"، بحسب تقرير لصحيفة "تليغراف" البريطانية.
ووفق الصحيفة فإنّ روبوتات الدردشة الآلية، يمكن أن تسمح لـ"جهات مارقة" بالبحث عن سبل لتطوير الأسلحة البيولوجية.
ويمكن من خلال تلك الأنظمة الذكية، التعرف إلى كيفية "تخليق الأوبئة والأسلحة البيولوجية"، باستخدام تسلسلها الجيني، والكشف عن الأماكن التي يمكن من خلالها الحصول على المعدات المختبرية اللازمة لصناعة تلك الأسلحة.

وقد تمكّن "روبوتات الدردشة الآلية"، البعض، من إنجاز جميع الجوانب ذات الصلة بالتصور والتصميم، والتجميع للفيروسات المعروفة التي يُعتقد على الأرجح أنها تقتل العديد من الأشخاص.

سيناريو خيالي؟

في حديثه لموقع "الحرة"، يؤكد خبير تكنولوجيا المعلومات، تامر محمد، أنّ تحقيق "سيناريو تخليق أسلحة قاتلة وفتاكة من خلال الذكاء الاصطناعي"، أمر قابل للتحقيق والتنفيذ في المستقبل القريب.

وبسبب "الصراع المتزايد" بين شركات تطوير الذكاء الاصطناعي من دون وجود ضوابط، فمن الممكن استخدام تلك الأنظمة الذكية لأغراض "خبيثة"، ما قد يتسبب بكوارث قد "تدمّر البشرية"، وفقا لخبير التكنولوجيا.

والذكاء الاصطناعي مثل "التكنولوجيا النووية"، التي يمكن استخدامها لأغراض سلمية تفيد البشرية من جانب، أو لأغراض "سلبية خبيثة" ذات تداعيات مدمرة على البشر، حسبما يوضح.

ويتفق معه خبير تكنولوجيا المعلومات، سلوم الدحداح، الذي يشير إلى "جانب أسود وخطر" للذكاء الاصطناعي، فقد يتم استعمال تلك الأنظمة الذكية للأذية، نظرا لكون تلك الأنظمة قادرة على "التعلّم وتطوير نفسها ذاتيا من دون تدخل البشر".

وفي حديثه لموقع "الحرة"، يحذر من استخدام الذكاء الاصطناعي في تطور أسلحة "قاتلة وفتاكة"، ما قد يتسبّب في تداعيات "كارثية" على البشرية.

ويرتبط استخدام الذكاء الاصطناعي في أغراض "مفيدة أو خبيثة"، بالبرمجة التي يقوم الإنسان بتغذية تلك الأنظمة بها، قبل أن تعمل على "تطوير نفسها لاحقا بشكل ذاتي"، بحسب توضيح الدحداح.

ويشير إلى مشكلة حقيقية تتعلق بإمكانية تغذية تلك الأنظمة بـ"بيانات مشوهة أو معلومات غير صحيحة، أو اختراقها من قبل بعض الجهات التي قد تستخدم قدرات الذكاء الاصطناعي في غير موضعها".

وإذا أتصل الذكاء الاصطناعي بأشخاص لديهم اهتمام بتطوير "أسلحة مدمرة"، فقد تتحول تلك الأنظمة لوسيلة "تدمر كل شيء" في ظل امتلاكها لقدرات "غير محدودة"، وفق خبير التكنولوجيا.

هل يمكن مواجهة ذلك؟

لوقف ذلك السيناريو المخيف، فيجب على شركات التكنولوجيا، تحديد ما يمكن لتلك الأنظمة تعلّمه، وما لا يجب عليها معرفته أو الخوض فيه"، بحسب الدحداح.

ومن دون ضوابط، فإنّ التطور المتسارع لأنظمة الذكاء الاصطناعي، قد يهدد "مصير البشرية ككل"، حسبما يوضح خبير التكنولوجيا.

ويتفق معه تامر محمد والذي يطالب بوضع "ضوابط دولية" لوقف التطور المتسارع المنفلت لأنظمة الذكاء الاصطناعي.

ويجب تشكيل جهة رقابية دولية تراقب أداء وتطور أنظمة الذكاء الاصطناعي، على غرار الهيئات التي تراقب "الأسلحة النووية والبيولوجية والذرية"، لدرء مخاطر متوقعة قد تهدد البشرية جمعاء، بحسب خبير التكنولوجيا.