إضاءة على مبادئ دبي للذكاء الاصطناعي العدالة – المساءلة – الشفافية
إضاءة على مبادئ دبي للذكاء الاصطناعي العدالة – المساءلة – الشفافية
يُعرَف الذكاء الاصطناعي بأنه فرع من فروع الحاسب الآلي يهتم بإنشاء أنظمة تكنولوجية تظهر سلوكاً يمكن اعتباره ذكاءً يحاكي الذكاء البشري، حيث يهدف إلى إنشاء أنظمة قادرة على التفكير، وللذكاء الاصطناعي العديد من التقنيات مثل تعلم الآلة، والشبكات العصبية الاصطناعية والمعالجة اللغوية الطبيعية والربوتات وغيرها حيث تعمل هذه التقنيات على تمثيل المعرفة والتعلم من البيانات واتخاذ القرارات.
ولقد دخل الذكاء الاصطناعي بقوة في كافة مجالات الحياة، وسيحمل لنا المستقبل صوراً متنوعة لاستخدام الذكاء الاصطناعي، إلا أن استخدام تقنيات وتطبيقات الذكاء الاصطناعي يجب أن يتم وفقاً لمبادئ قانونية وأخلاقية، لا بد من احترامها والالتزام بها، حتى لا تضيع الفائدة من استخدامه، وحتى لا يتحول إلى خطر يهدد أمن واستقرار المجتمع للأفراد.
ولعل من أهم المبادئ والقواعد التي يجب اتباعها والخضوع لها عند استخدام الذكاء الاصطناعي العدالة والمساءلة والشفافية وهي من المبادئ التي ركزت عليها مبادئ دبي للذكاء الاصطناعي، ونوضح فيما يلي المقصود بكل مبدأ على حدة:
أولاً- العدالة: حيث يجب أن تتوفر متطلبات لتحقيق العدالة في أنظمة الذكاء الاصطناعي وهذه المتطلبات تتحقق من خلال ما يلي:
- يجب أن تمثل البيانات التي يتلقاها النظام الفئة المتأثرة قدر الإمكان.
- يجب أن تتجنب الخوارزميات التحيز غير التشغيلي.
- يجب اتخاذ الإجراءات الكفيلة بتقييم أي انحياز في مجموعات البيانات
- يجب إثبات عدالة القرارات العامة
ثانياً- المساءلة: تكون أنظمة الذكاء الاصطناعي قابلة للمساءلة من خلال ما يلي:
- لا تكمن المساءلة عن نتائج الذكاء الاصطناعي في النظام ذاته، بل إنها مقسمة بين القائمين على التصميم والتطوير والتطبيق.
- يجب أن يبذل المطورون جهدهم للحد من المخاطر الكامنة في الأنظمة.
- يجب أن تتوفر في أنظمة الذكاء الاصطناعي إجراءات تتيح للمستخدمين الاعتراض على القرارات المهمة.
- يجب أن تتولى فرق متنوعة خبيرة أنظمة الذكاء الاصطناعي.
ثالثاً- الشفافية: هي مفهوم يشير إلى الوضوح والنزاهة في العمليات والقرارات في سياق تكنولوجيا الذكاء الاصطناعي، وتتعلق الشفافية بكشف النقاب عن كيفية عمل الأنظمة الخوارزمية والبيانات التي تستخدم لاتخاذ القرارات وتتحقق الشفافية من خلال:
- يجب أن يقوم المطورون بناء أنظمة يمكن تتبع وتشخيص حالات الإخفاق فيها.
- يجب إعلام الأفراد بالقرارات المهمة التي يتخذها الذكاء الاصطناعي.
- يجب على ناشري أنظمة الذكاء الاصطناعي أن يتمتعوا بالشفافية فيما يتعلق الخوارزميات والبيانات التي يتعاملون بها ويحافظوا على الملكية الفكرية والخصوصية.
ومن وجهة نظرنا يجب أن تعمل هذه المبادئ بصورة متناغمة ومنسجمة ومنسقة وذلك حتى تشيع الثقة لدى الأفراد بأنظمة وتطبيقات الذكاء الاصطناعي ويتعاملون معها بصورة إيجابية.
الدكتور غسان سليم عرنوس
المستشار القانوني في مكتب زايد الشامسي للمحاماة والاستشارات القانونية
اترك تعليقًا
لن يتم نشر عنوان بريدك الإلكتروني. الحقول المطلوبة تحمل علامة *