معايير موحدة قبل استخدام الذكاء الاصطناعي
تعزز الثقة والشفافية في أنظمة الذكاء الاصطناعي من خلال شرح آليات اتخاذ القرار وتوفير إمكانات تدقيق ومراجعة القرارات، مع الإفصاح عن البيانات المستخدمة وطرق تخزينها.
تلتزم المؤسسات بمبادئ وتوجيهات أخلاقية تقود سلوك الأنظمة، بما في ذلك تجنب الضرر، وتحقيق العدالة والإنصاف، والحفاظ على الاستقلالية في اتخاذ القرار.
تؤكد على المسؤولية والمساءةلة عبر تحديد من يتحمل نتائج مخرجات الذكاء الاصطناعي وتحديد أدوار المطورين والمختبرين والإدارة لضمان الاستخدام المسؤول.
تواجه التحيز وتسعى إلى اكتشافه وتقليل تأثيره في الخوارزميات والبيانات، لمنع ترسيخ التحيزات أو تضخيمها في الأنظمة.
توفر السلامة والأمن كعنصرين أساسيين، من خلال حماية الأنظمة من مخاطر الأمن السيبراني والتأكد من أنها لا تسبب ضررًا ماديًا أو رقميًا.
تدرك أن الذكاء الاصطناعي مجال سريع التطور، لذلك تدفع نحو التعلم المستمر وتحديث السياسات والإطارات مع ظهور تحديات جديدة وتطورات تكنولوجية، وتتبنى نهجاً جماعيًا في مناقشة قضايا الأخلاقيات.
تلتزم بالامتثال القانوني والتنظيمي من خلال مواءمة الممارسات مع القوانين الراهنة والاستعداد للوائح المستقبلية في مجال أخلاقيات الذكاء الاصطناعي.



