ذات صلة

اخبار متفرقة

طريقة تحضير الدجاج بالشعرية والعدس بجبة

المقادير ابدأ بجمع المكونات: شعرية، مشروم، سمنة، عدس بجبة مسلوق...

سبل الوقاية من الانهيار العصبي

نظام غذائي صحي اعتمد نظاماً غذائياً صحياً وتجنب المشروبات الغازية...

الجرأة والجمال.. هيفاء وهبي تثير الجدل بـ«الدانتيل الأسود» المكشوف | شاهد

شاركت هيفاء وهبي جمهورها صوراً جديدة عبر حسابها على...

قد يخفض تناول أدوية إنقاص الوزن تكلفة تذاكر الطيران: علاقة غير متوقعة

تشير التوقعات إلى أن التوسع في استخدام أدوية التخسيس...

مشكلة في القلب أم مضاعفات مرض السكري: 6 علامات على الساقين لا تتجاهلها

يترافق تورم الساقين مع تراكم السوائل في الأنسجة، وهو...

ما وراء الخوارزمية (1).. سبعة معايير للذكاء الاصطناعي تلتزم بها شركات التكنولوجيا

كيف تعمل شركات التكنولوجيا في تطبيق الذكاء الاصطناعي

تتبنى شركات التكنولوجيا إطاراً يحكم استخدام تقنيات الذكاء الاصطناعي ضمن سياسات واستراتيجياتها، مع التركيز على بناء الثقة والشفافية في عملية اتخاذ القرار وإمكانية تدقيق النتائج وتبيين طرق جمع البيانات وتخزينها.

يتناول هذا النهج سؤالاً: هل يُترك الإبداع في تطبيق الذكاء الاصطناعي للمطورين أم يخضع لقواعد وسياسات معلنة للشركات؟ يعكس ذلك تحليل Causewriter.ai لسياسات 18 شركة رائدة في المجال، حيث تمثل السياسات المعلنة قاعدة لاتخاذ القرار وتحديد المسؤوليات.

معايير موحدة قبل استخدام الذكاء الاصطناعي

الثقة والشفافية تشكلان أساساً، إذ تؤكد المؤسسات أهمية شرح كيفية استخدام الذكاء الاصطناعي في اتخاذ القرارات، وتوفير إمكانية التدقيق والمراجعة، والإفصاح عن أساليب جمع البيانات وتخزينها.

المبادئ والتوجيهات الأخلاقية تفرض التزاماً بقواعد تمنع الضرر، وتدفع نحو العدالة والإنصاف والحفاظ على الاستقلالية في أنظمة الذكاء الاصطناعي.

المسؤولية والمساءلة تبرز بوضوح في تحديد الجهات المسؤولة عن مخرجات الأنظمة، مع تحديد أدوار المطورين والمختبرين والإدارة لضمان الاستخدام الآمن والمسؤول.

معالجة التحيز والإنصاف تتطلب الكشف عن التحيز المحتمل في الخوارزميات والبيانات والجهود المستمرة لتخفيفه كي لا يعزز التمييز في القرارات المؤثرة على المجتمع.

السلامة والأمان جزء أساسي من السياسات، يشمل حماية الأنظمة من مخاطر الأمن السيبراني والتأكد من عدم تسبب الذكاء الاصطناعي في ضرر مادّي أو رقمي.

التكيف والتعلم المستمر يعترفان بسرعة التطور في مجال الذكاء الاصطناعي، لذا ينبغي تحديث السياسات والأطر مع ظهور تحديات جديدة وتطورات تقنية، مع اعتماد نهج جماعي في مناقشة أخلاقيات الذكاء الاصطناعي كقضية استراتيجية للأعمال.

الامتثال القانوني والتنظيمي يظل ضرورياً، وتؤكد الشركات أهمية التوافق مع القوانين واللوائح الحالية والاستعداد للوائح التنظيمية المستقبلية في هذا المجال.

تعكس هذه العناصر توافقاً متزايداً في القطاع حول الجوانب الحاسمة لأخلاقيات الذكاء الاصطناعي وحوكمته، وتؤكد ضرورة بناء أنظمة ذكاء اصطناعي تتسم بالنزاهة والمسؤولية الاجتماعية وليست مجرد تقدم تكنولوجي.

spot_img
spot_imgspot_img

تابعونا على