هو أول معيار دولي تم تطويره لتحديد متطلبات نظام إدارة مخصص للذكاء الاصطناعي. يساعد هذا النظام المؤسسات على تطوير واستخدام تقنيات الذكاء الاصطناعي بطريقة موثوقة، مسؤولة، وشفافة. يركز المعيار على الجوانب الأخلاقية، القانونية، التقنية، والإدارية المرتبطة باستخدام الذكاء الاصطناعي.
إدارة المخاطر المرتبطة بتقنيات الذكاء الاصطناعي.
التأكد من الامتثال للتشريعات والسياسات الوطنية والدولية.
دعم استخدام الذكاء الاصطناعي بشكل مسؤول وآمن.
تحسين الأداء والثقة في أنظمة الذكاء الاصطناعي.
حماية حقوق الأفراد والخصوصية عند استخدام الذكاء الاصطناعي.
تعزيز الشفافية والمساءلة في استخدام خوارزميات الذكاء الاصطناعي.
1. الشفافية: توضيح كيفية عمل أنظمة الذكاء الاصطناعي وقراراتها.
2. الإنصاف وعدم التحيز: ضمان ألا تُميز الأنظمة ضد أي فئة أو مجموعة.
3. القابلية للمساءلة: تحديد المسؤوليات بوضوح في تصميم وتشغيل الأنظمة.
4. الخصوصية وحماية البيانات: الامتثال الكامل لقوانين حماية البيانات.
5. الأمان والموثوقية: التأكد من سلامة وأداء الأنظمة تحت مختلف الظروف.
6. التحسين المستمر: مراجعة وتحديث الأنظمة والإجراءات بانتظام.
تطبيق ضوابط وإجراءات لضمان الاستخدام المسؤول للأنظمة.
تحديد السياسات والأهداف المتعلقة باستخدام الذكاء الاصطناعي.
تقييم الوضع الحالي للذكاء الاصطناعي في المؤسسة.
التواصل مع أصحاب المصلحة بوضوح وشفافية.
مراقبة الأداء وتقييم المخاطر وتحقيق التحسين المستمر.
إدارة البيانات والنماذج والتقنيات بطريقة منظمة وآمنة.