علوم مستدامة

سوء الاستخدام وفقدان الموثوقية.. تقرير دولي لمناقشة سلامة الذكاء الاصطناعي

الذكاء الاصطناعي

سوء الاستخدام وفقدان الموثوقية.. تقرير دولي لمناقشة سلامة الذكاء الاصطناعي

يشهد العالم توسعًا متسارعًا في استخدام أنظمة الذكاء الاصطناعي ذات الأغراض العامة، وهي نماذج قادرة على تنفيذ طيف واسع من المهام، بدءًا من التحليل اللغوي، وإنتاج المحتوى، وصولًا إلى دعم اتخاذ القرار في قطاعات متعددة.

وقد ساعد هذا التسارع التكنولوجي في مجال الذكاء الاصطناعي على رفع كفاءة الأعمال، وتعزيز الابتكار، سوى أنَّ لهذا النوع من التطور أخطارًا على مستويات مختلفة، وهو ما دفع بملف أخطار الذكاء الاصطناعي إلى صدارة النقاشات الدولية، مع زيادة الحديث عن الأمن السيبراني أو الرقمي، خاصة في أسواق العمل، والبنية الاجتماعية.

ولذلك سوف تتناول مؤسسة حماة الأرض في هذا المقال “سوء الاستخدام وفقدان الموثوقية.. تقرير دولي لمناقشة سلامة الذكاء الاصطناعي” حدودَ التحكم في نماذج الذكاء الاصطناعي، وآلياتِ الحد من إساءة استخدامها، والضماناتِ الكفيلةَ بحماية المجتمعات من آثار جانبية قد تكون عابرة للحدود؛ فتابعوا القراءة.

ما التقرير الدولي لسلامة الذكاء الاصطناعي؟

حول أخطار الذكاء الاصطناعي وتأثيره الجانبي اجتماعيًّا واقتصاديًّا صدر “التقرير الدولي لسلامة الذكاء الاصطناعي 2026” بتكليف من الحكومة البريطانية، ليقدم مراجعة علمية شاملة لأحدث الأبحاث المتعلقة بقدرات هذه الأنظمة وأخطارها، مقترِحًا أُطرًا عملية لإدارتها.

وهو التقرير الذي صدر بقيادة البروفيسور “يوشوا بنجيو” بدعم من أمانةٍ تتبعُ معهدَ سلامة الذكاء الاصطناعي في المملكة المتحدة، بالتعاون مع الاتحاد الأوروبي، ومنظمة التعاون الاقتصادي والتنمية، والأمم المتحدة، وبمساندة لجنة استشارية دولية تضم ممثلين عن الدول التي شاركت في قمة سلامة الذكاء الاصطناعي عام 2023، التي شكلت أولَ إطارٍ تأسيسي للتنسيق الدولي بشأن أخطار الذكاء الاصطناعي.

الذكاء الاصطناعي

ويهدف التقرير الدولي لسلامة الذكاء الاصطناعي 2026 إلى تجميع أحدث الأبحاث المتعلقة بقدرات أنظمة الذكاء الاصطناعي ذات الأغراض العامة، مع إبراز الفجوات المعرفية القائمة؛ دعمًا لعملية صنع القرار؛ تحقيقًا للهدف التاسع من أهداف التنمية المستدامة: الصناعة والابتكار والهياكل الأساسية، الذي يدعو إلى تعزيز البحث العلمي، وتحديث القدرات التكنولوجية.

ويؤكد التقرير -أيضًا- أنَّ صناع السياسات يواجهون معضلة دقيقة؛ فالتدخل المبكر قد يؤدي إلى تثبيت إجراءات غير فعالة، في حين أنَّ انتظار بيانات قاطعة قد يترك المجتمعات عرضة لتأثيرات سلبية خطيرة في المستقبل.

وهذا الطرح يرسخ حاجَةً إلى نهج متدرج ومتعدد الأدوات، ويجب أيضًا أنْ يواكب هذا النهجُ التطورَ التقني الملحوظ للذكاء الاصطناعي على مستوى العالم، وكذلك يجب أنْ يحافظ في الوقت ذاته على الاستقرار المؤسسي والمجتمعي، خاصةً في ظل التطور غير المتجانس لقدرات هذه الأنظمة الذكية، وهو ما يستدعي فهم طبيعة هذا التقدم وتحدياته بدقة أكبر.

تطور غير متجانس لقدرات الأنظمة

يوضح التقرير أنَّ أنظمة الذكاء الاصطناعي العامة تواصل تحسين أدائها من خلال تقنيات تعزيز لاحقة لمرحلة التدريب، غير أنَّ هذا التحسن لا يسير بوتيرة متساوية في جميع المجالات؛ فقد تُظهر الأنظمة قدرة عالية على إنجاز مهام معقدة، في حين تتعثر في مهام أيسر نسبيًّا، مثل تفوق الذكاء الاصطناعي في كتابة كودٍ برمجيٍّ معقد وفشله في حل لغز منطقي لطفل في الخامسة؛ مما يعكس تفاوتًا في الموثوقية.

كما يشير التقرير إلى أنَّ مسار التطور حتى عام 2030 يظل غير محسومٍ، بالرغم من أنَّ الاتجاه العام يوحي باستمرار التحسن! وهذا الغموض في التوقعات يعزز أهمية بناء أطر مرنة لإدارة أخطار الذكاء الاصطناعي، تأخذ في الاعتبار سيناريوهات متعددة بدلَ الاعتماد على توقعات ثابتة.

أخطار الذكاء الاصطناعي

يصنف التقرير الأخطار المرتبطة بالذكاء الاصطناعي العام إلى ثلاث فئات مترابطة:

  1. سوء الاستخدام المتعمد: وتشمل الأنشطة الإجرامية، والتلاعب بالمعلومات، والهجمات السيبرانية، إضافةً إلى أخطار بيولوجية وكيميائية محتملة في حال إساءة توظيف القدرات التقنية.
  2. الأعطال وفقدان الموثوقية: وتتعلق بتحديات الاعتمادية، وإمكانية فقدان السيطرة نتيجة التعقيد المتزايد للأنظمة الذكية.
  3. الأخطار النظامية: ويمتد تأثيرها إلى أسواق العمل، واستقلالية الإنسان في اتخاذ القرار، واستقرار البنى الاقتصادية والاجتماعية.

هذا التصنيف يوضح أنَّ أخطار الذكاء الاصطناعي تتجاوز الإطار التقني الضيق، لتشمل أبعادًا أمنية ومؤسسية واقتصادية مترابطة، وهو ما يمهد للحديث عن آليات الإدارة المقترحة.

إدارة متعددة الطبقات

على ما سبق من أخطار متعددة يتسبب فيها الذكاء الاصطناعي يوصي التقرير بتبني نهج قائم على تعدد الأدوات، بدلًا من الاكتفاء بآلية تنظيمية واحدة. ومن أبرز الممارسات المقترحة:

  • نمذجة التهديدات؛ أي تحليل السيناريوهات المحتملة لسوء الاستخدام؛ بهدف رصد نقاط الضعف قبل تفاقمها.
  • تقييم القدرات: وهذا عن طريق اختبار عملي لما يمكن للنظام إنجازه؛ لرصد السلوكيات التي قد تنطوي على خطورة قبل انتشارها على نطاق واسع.
  • آليات الإبلاغ عن الحوادث: لتعزيز التعلم المؤسسي وتراكم الأدلة.

وبخصوص هذه المقترحات يشير التقرير إلى أنَّ بعض الأنظمة التنظيمية قد بدأت في تحويل هذه الممارسات إلى متطلبات قانونية، ما يعكس انتقالًا تدريجيًّا من التوصيات إلى الأطر الملزمة. ومن أبرز الأمثلة على هذا ما أصدرته اليونسكو من معيار عالمي بشأن أخلاقيات الذكاء الاصطناعي  في نوفمبر من عام 2021.

ومن أجل ضمان تنفيذ هذا المعيار الأخلاقي في استخدام الذكاء الاصطناعي طورت اليونسكو منهجيتين عمليتين؛ هما:

منهجية تقييم الجاهزية

صُممت هذه المنهجية لمساعدة الدول الأعضاء في منظمة اليونسكو على تقييم مدى استعدادها لتنفيذ التوصية بشكل فعال عن طريق تحديد وضعهم الراهن من حيث الجاهزية، وتوفر قاعدة لليونسكو لتقديم دعم مخصص لبناء القدرات بما يتناسب مع احتياجات كل دولة.

تقييم الأثر الأخلاقي

هو عملية هيكلية تساعد فرق مشروعات الذكاء الاصطناعي -بالتعاون مع الدول النامية- على تحديد وتقييم الآثار التي قد يسببها نظام الذكاءِ الاصطناعيّ. وتتيح هذه العملية التفكر في الآثار المحتملة وتحديد الإجراءات اللازمة لمنع الأضرار. وذلك كله وفق الهدف السادس عشر: السلام والعدل والمؤسسات القوية.

المرونة المجتمعية عنصر مكمل

كذلك يرى التقرير الدولي لسلامة الذكاءِ الاصطناعيّ 2026 أنَّ إدارة أخطار الذكاءِ الاصطناعيّ لا يمكن أنْ تعتمد على التشريعات أو الضوابط التقنية دون غيرها؛ لأنها تحتاج إلى بيئة مجتمعية قادرة على الاستجابة السريعة والتكيف مع التحولات الرقمية.

ذلك لأنَّ الأنظمة المتقدمة قد تُستخدم في إنتاج محتوى مضلل، أو تنفيذ هجمات رقمية، أو التأثير في قرارات اجتماعية واقتصادية، وهو ما يجعل الجاهزية المؤسسية والمجتمعية جزءًا من منظومة الحماية. ويشمل ذلك تعزيز أمن البنية التحتية الحيوية، مثل شبكات الطاقة والاتصالات، والأنظمة المالية، وتطوير أدوات تقنية قادرة على كشف المحتوى المُنشَأُ آليًّا، إضافةً إلى تأهيل الكوادر وتدريبها.

الأمن الدولي

كما يمتد المفهوم إلى رفع الوعي العام بكيفية التمييز بين المحتوى البشري والمحتوى المُولد آليًّا، بما يقلل من فرص التضليل أو الاستغلال. وهذا التكامل بين التقنية والمؤسسات والمجتمع يعكس فهمًا لإدارة أخطار الذكاء الاصطناعي مع الاستعداد الدائم.

وفي ضوء ما يطرحه التقرير الدولي لسلامة الذكاءِ الاصطناعيّ 2026، يتضح أنَّ التحدي يتمثل في تنظيم مسار الذكاءِ الاصطناعيّ ضمن أُطر تضمن الاستقرار والموثوقية؛ لأنَّ التوسع في استخدام الأنظمة العامة يحمل إمكانات اقتصادية كبيرة، إلا أنَّ إدارة أخطار الذكاءِ الاصطناعيّ بصورة متدرجة وتعاونية تظل شرطًا أساسيًّا للحفاظ على الثقة في التحول الرقمي.

وتشير مؤسسة حماة الأرض إلى أنَّ سلامة الذكاءِ الاصطناعيّ هي امتداد لمسار تنموي أوسع يقوم على توظيف الابتكار ضمن أُطر حوكمة واضحة وبنية مؤسسية قوية؛ إذْ إنَّ تعزيز الجاهزية الرقمية وبناء سياسات متوازنة يسهمانِ في حماية الاستقرار الاجتماعي والاقتصادي، ويضعانِ التكنولوجيا في موقع داعم للتنمية الطويلة الأجَل؛ لأجْل الأجيال الحالية والقادمة.

مقالات ذات صلة

زر الذهاب إلى الأعلى