ذات صلة

اخبار متفرقة

مشاكل صحية قد تصيب الكلى في الطقس البارد.. نصائح للوقاية

يزيد البرد القارس من مخاطر الإصابة بالنوبات القلبية والسكتة...

أساطير حول التهاب الغدد العرقية القيحي: تعرف الحقائق

الخرافة الأولى: المرض سببه قلة النظافة الشخصية يظن كثيرون أن...

جناح ذكى من ناسا يُعيد تشكيل مستقبل الطيران التجارى ويوفر ملايين الدولارات

أجرت ناسا تجارب ميدانية على نموذج مصغر لجناح يحمل...

إنستجرام يختبر اشتراكًا مدفوعًا يتيح إنشاء قوائم جمهور غير محدودة

أفاد مستخدم على منصة X أن إنستجرام يعمل على...

مشكلة في القلب أم مضاعفات مرض السكري.. 6 علامات في الساقين لا تتجاهلها

علامات تحذيرية تظهر على الساقين تعتبر الأطراف السفلية نافذة إلى...

ما وراء الخوارزمية (1).. سبعة معايير للذكاء الاصطناعي تلتزم بها شركات التكنولوجيا

كيف تعمل شركات التكنولوجيا في تطبيق الذكاء الاصطناعي

تتبنى شركات التكنولوجيا إطاراً يحكم استخدام تقنيات الذكاء الاصطناعي ضمن سياسات واستراتيجياتها، مع التركيز على بناء الثقة والشفافية في عملية اتخاذ القرار وإمكانية تدقيق النتائج وتبيين طرق جمع البيانات وتخزينها.

يتناول هذا النهج سؤالاً: هل يُترك الإبداع في تطبيق الذكاء الاصطناعي للمطورين أم يخضع لقواعد وسياسات معلنة للشركات؟ يعكس ذلك تحليل Causewriter.ai لسياسات 18 شركة رائدة في المجال، حيث تمثل السياسات المعلنة قاعدة لاتخاذ القرار وتحديد المسؤوليات.

معايير موحدة قبل استخدام الذكاء الاصطناعي

الثقة والشفافية تشكلان أساساً، إذ تؤكد المؤسسات أهمية شرح كيفية استخدام الذكاء الاصطناعي في اتخاذ القرارات، وتوفير إمكانية التدقيق والمراجعة، والإفصاح عن أساليب جمع البيانات وتخزينها.

المبادئ والتوجيهات الأخلاقية تفرض التزاماً بقواعد تمنع الضرر، وتدفع نحو العدالة والإنصاف والحفاظ على الاستقلالية في أنظمة الذكاء الاصطناعي.

المسؤولية والمساءلة تبرز بوضوح في تحديد الجهات المسؤولة عن مخرجات الأنظمة، مع تحديد أدوار المطورين والمختبرين والإدارة لضمان الاستخدام الآمن والمسؤول.

معالجة التحيز والإنصاف تتطلب الكشف عن التحيز المحتمل في الخوارزميات والبيانات والجهود المستمرة لتخفيفه كي لا يعزز التمييز في القرارات المؤثرة على المجتمع.

السلامة والأمان جزء أساسي من السياسات، يشمل حماية الأنظمة من مخاطر الأمن السيبراني والتأكد من عدم تسبب الذكاء الاصطناعي في ضرر مادّي أو رقمي.

التكيف والتعلم المستمر يعترفان بسرعة التطور في مجال الذكاء الاصطناعي، لذا ينبغي تحديث السياسات والأطر مع ظهور تحديات جديدة وتطورات تقنية، مع اعتماد نهج جماعي في مناقشة أخلاقيات الذكاء الاصطناعي كقضية استراتيجية للأعمال.

الامتثال القانوني والتنظيمي يظل ضرورياً، وتؤكد الشركات أهمية التوافق مع القوانين واللوائح الحالية والاستعداد للوائح التنظيمية المستقبلية في هذا المجال.

تعكس هذه العناصر توافقاً متزايداً في القطاع حول الجوانب الحاسمة لأخلاقيات الذكاء الاصطناعي وحوكمته، وتؤكد ضرورة بناء أنظمة ذكاء اصطناعي تتسم بالنزاهة والمسؤولية الاجتماعية وليست مجرد تقدم تكنولوجي.

spot_img
spot_imgspot_img

تابعونا على