الدليل الاسترشادي لأخلاقيات الذكاء الاصطناعي لعام 2025
مقدمة
أصدرت الأمانة العامة لمجلس التعاون لدول الخليج العربية الدليل الاسترشادي لأخلاقيات الذكاء الاصطناعي لعام 2025، وذلك ضمن جهودها الرامية إلى تطوير منظومة العمل المؤسسي ومواكبة التطورات التكنولوجية المتسارعة التي يشهدها العالم. ومع التوسع الكبير في استخدام تقنيات الذكاء الاصطناعي، برزت الحاجة الملحة إلى تعزيز حوكمة تلك التقنيات بما يضمن رفع كفاءة الأداء، ودقة المخرجات، وحماية البيانات والمعلومات.
ويقدّم الدليل إطارًا أخلاقيًا موحّدًا لدول مجلس التعاون لتنظيم تطوير واستخدام أنظمة الذكاء الاصطناعي، بما يحفظ كرامة الإنسان، ويصون القيم، ويعزز الاستخدام المسؤول والآمن للتقنيات الحديثة. ويهدف هذا الإطار إلى دعم تبني الذكاء الاصطناعي في دول المجلس على مختلف المستويات التقنية والاجتماعية والسياسية، مرتكزًا على أربع قيم أساسية وسبعة مبادئ رئيسية كما يلي:
أولًا: القيم الأربع الأساسية
1. احترام كرامة الإنسان وحرّيته واستقلاليته:
أكد الدليل على القيمة الجوهرية للإنسان، والتي ينبغي عدم المساس بها أو التقليل منها بأي صورة، بما في ذلك من قبل أنظمة الذكاء الاصطناعي. وفي هذا السياق، شدّد الدليل على ضرورة تطوير هذه الأنظمة بطريقة تحترم السلامة الجسدية والعقلية للبشر، وتحافظ على هويتهم الثقافية، وتمكّنهم من ممارسة إرادتهم بحرية واستقلالية.
2. احترام الشريعة والدستور وتعزيز اللحمة الخليجية:
أوضح الدليل أن أنظمة الذكاء الاصطناعي يجب أن تلتزم بمبادئ الشريعة الإسلامية والدستور والتشريعات الوطنية والأنظمة السارية في دول مجلس التعاون، مع مراعاة المعايير والإجراءات المحلية. كما يجب ألا تؤدي هذه الأنظمة إلى تقويض فاعلية تلك التشريعات أو الحد من أثرها.
3. حماية البيئة وتعزيز الاستدامة:
أشار الدليل إلى أن مبادرات التحول الرقمي تواجه تحديات بيئية مهمة، نتيجة التأثيرات السلبية المحتملة على النظم البيئية للبشر والكائنات الحية. ولذا يؤكد الدليل ضرورة مراعاة المخاطر البيئية الناجمة عن تشغيل وتدريب أنظمة الذكاء الاصطناعي—مثل الانبعاثات الكربونية واستهلاك المياه للتبريد—بما يضمن عدم تدهور البيئة وتحقيق الاستدامة للأجيال القادمة.
4. تعزيز الاستخدام السلمي لتحقيق رفاهية الإنسان:
يحُثّ الدليل على أن تُسهم أنظمة الذكاء الاصطناعي في تحسين جودة الحياة للأفراد والمجتمعات، وأن تتحقق الجهات المسؤولة من عدم توظيف هذه الأنظمة في مجالات تهدد الأمن أو السلامة أو التعايش المجتمعي. كما شدد على ضرورة أن تكون الأنظمة آمنة وموثوقة تقنيًا، وأن تؤخذ احتياجات الفئات الضعيفة—مثل ذوي الإعاقة وكبار السن—في الاعتبار أثناء التطوير والتطبيق.
ثانيًا: المبادئ الأساسية السبعة
1. مبدأ القرار للبشر:
يجب أن تضمن أنظمة الذكاء الاصطناعي استقلالية الإنسان وقدرته على اتخاذ القرار، وذلك من خلال العمل كأداة تمكين للمجتمع، ودعم الحقوق الأساسية، وتوفير آليات رقابة بشرية تحد من المخاطر المحتملة. ويؤكد هذا المبدأ ضرورة تعزيز قدرة الأفراد على اتخاذ خيارات مستنيرة ومتوافقة مع أهدافهم.
2. مبدأ السلامة ومنع الضرر:
يشدد المبدأ على اتباع نهج وقائي في تطوير أنظمة الذكاء الاصطناعي، بما يضمن سلوكًا موثوقًا وتقليل الأضرار غير المقصودة. وأوصى الدليل بتطبيق ما يُعرف بنقاط التراجع عند حدوث مخاطر عالية، وتقييم دقة التنبؤات والقرارات الصادرة عن النظام، إضافة إلى اختبار الأنظمة وتدابير السلامة بصورة استباقية.
3. مبدأ العدالة والإنصاف وعدم التمييز:
يشمل هذا المبدأ منع التحيّزات في البيانات والخوارزميات والتي قد تخلق تحيزاً أو تمييزًا ضد مجموعة أو اشخاص محددين، بالإضافة الي ضمان الوصول العادل وذلك من خلال تمكين الافراد والمجتمعات من الحصول على منافع الذكاء الاصطناعي، وأيضاً وضع عمليات رقابية لضمان العدالة والانصاف في جميع مراحل دورة حياة الأنظمة، بما يضمن تحقيق تكافؤ الفرص ويقلل مخاطر التمييز.
4. مبدأ حماية الخصوصية والبيانات:
يؤكد هذا المبدأ على تنظيم عمليات جمع ومعالجة البيانات، وضبط الوصول إليها وفق مبادئ الحوكمة لمنع الإضرار بالخصوصية، وضمان حماية الحقوق الشخصية للمستخدمين طوال مراحل استخدام الأنظمة، وذلك من خلال تقنين الوصول المطلق للبيانات ومراقبة سلامتها وجودتها ووضع إطار مناسب لحمايتها.
5. مبدأ الشفافية وقابلية الشرح والتفسير:
يتطلب هذا المبدأ تعزيز قابلية الذكاء الاصطناعي للشرح والتفسير مما يُعد أمراً بالغ الأهمية لبناء ثقة المستخدمين في تلك الأنظمة بالإضافة الي إعلام المستخدمين من خلال الجهات الفاعلة بأي قرار يجرى اتخاذه بناء على معلومات مستمدة من الذكاء الاصطناعي بالإضافة الي توضيح آلية اتخاذ تلك القرارات، وتوثيق العمليات التي تُنتج المخرجات، بما يعزز الثقة والفهم.
6. مبدأ المساءلة والمسؤولية:
يستلزم هذا المبدأ وضع اليات لضمان تحمل المسؤولية عن أداء نظام الذكاء الاصطناعي وتحديد الجهة المسؤولة قانونيًا عن الأنظمة ونتائجها، ووضع تشريعات واضحة للتقييم والتدقيق، وتفعيل آليات للإبلاغ عن الأخطاء، بما يضمن خضوع هذه الأنظمة لمسؤولية واضحة ومحددة.
7. مبدأ النزاهة وعدم التزييف:
يهدف هذا المبدأ إلى عدم تزييف الحقائق وعدم المبالغة أو التشوية لقدرات الذكاء الاصطناعي لأهداف أو أغراض جانبية مثل جني الأرباح، مع وضع معايير واضحة قبل نشر تلك الأنظمة على نطاق واسع لضمان موثوقيتها وعدم استخدامها بطرق غير أخلاقية.
الخاتمة
يمثّل الدليل الاسترشادي لأخلاقيات الذكاء الاصطناعي لعام 2025 خطوة استراتيجية محورية في مسار دول مجلس التعاون نحو بناء منظومة رقمية متقدمة وآمنة تراعي الخصوصية والقيم وتوازن بين الابتكار والمسؤولية. فتبنّي هذا الإطار الأخلاقي لا يهدف فقط إلى ضبط مسار تطوير التقنيات الحديثة، بل يسعى كذلك إلى ضمان أن يكون الذكاء الاصطناعي عاملًا داعمًا للإنسان ومكمّلًا لجهوده، لا مهددًا لحقوقه أو لانسجامه المجتمعي.
ومن خلال الالتزام بالقيم الأربع الأساسية والمبادئ السبعة التي أرساها الدليل، تضع دول المجلس أساسًا متينًا لحوكمة فعّالة تمكّنها من مواجهة التحديات المستقبلية، وتعزز قدرتها على استثمار إمكانات الذكاء الاصطناعي في دعم التنمية المستدامة، وتحسين جودة الحياة، ودعم مسيرة التحول الرقمي في المنطقة.
إن المرحلة المقبلة تتطلب تفعيل هذه المبادئ على أرض الواقع عبر تشريعات حديثة، واستراتيجيات واضحة، وبناء قدرات وطنية قادرة على الابتكار الأخلاقي والمسؤول. وعليه، فإن نجاح دول مجلس التعاون في صياغة نموذج متقدم للذكاء الاصطناعي الأخلاقي سيشكل علامة فارقة في مسيرتها نحو ريادة المستقبل الرقمي إقليميًا وعالميًا.