تؤكد إنتل دعمها لإطار تنظيمي وسياسي يسهل التبني المسؤول للذكاء الاصطناعي وخوارزمياته، وتروّج للمعايير الطوعية التي تقود التطوير وتسهّل الاعتماد العالمي، وتساهم في تقليل الحواجز التجارية عبر توفير أساس فني للوائح وتنشيط المنافسة والابتكار.
معايير إنتل للذكاء الاصطناعي
توفر المعايير إطاراً يحفز حوكمة البيانات والشفافية والدقة والمتانة، ويقلّل مخاطر التحيّز ويعزّز السلامة في أنظمة الذكاء الاصطناعي، ليتيح اعتماداً موثوقاً عبر القطاعات المختلفة.
ما وراء الخوارزمية
المعايير السبعة التي تلتزم بها الشركات
تلتزم شركات التكنولوجيا بمجموعة سبعة معايير للذكاء الاصطناعي تركّز على موثوقية وأمان الأنظمة، وتغطي جوانب مثل الحوكمة والشفافية والدقة والمتانة وإدارة المخاطر والتعامل المسؤول مع البيانات والتعاون الدولي.
المشكلات القانونية الأربعة التي تواجهها الشركات
تواجه الشركات قوانين تتناول قضايا رئيسية مثل حماية الملكية الفكرية والخصوصية وحوكمة البيانات والشفافية والمسؤولية عن الأضرار الناتجة عن حلول الذكاء الاصطناعي، ما يفرض إطاراً يوجه التطوير ويحمي الحقوق.
تتبنى إنتل نهجاً قائماً على المخاطر ومتعدد الأطراف لضمان موثوقية الذكاء الاصطناعي
تعتمد إنتل نهجاً متكاملاً قائمًا على المخاطر ومتعدد الأطراف، مستنداً إلى معايير دولية مثل ISO/IEC وأطر عمل مثل إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن NIST، ما يوفر مبادئ أساسية تلبي متطلبات حوكمة البيانات والشفافية والدقة والمتانة وتقليل التحيز.
الذكاء الاصطناعي الآمن
في عصر التحول الرقمي، يعيد الذكاء الاصطناعي الآمن تشكيل الصناعات ويحمي البيانات عبر تقنيات أمان مدمجة في الأجهزة، مع اعتماد نهجين: أمن الذكاء الاصطناعي الذي يحمي بنية النظام من التهديدات، والذكاء الاصطناعي من أجل الأمن الذي يستخدم الذكاء الاصطناعي لتعزيز الأمن السيبراني.
يعزز هذا التوازن الابتكار مع الحفاظ على الثقة، ويتطلب توحيد معايير الذكاء الاصطناعي الآمن، والاستثمار في الأمن السيبراني وبحوث وتطوير الذكاء الاصطناعي، وتطوير مهارات الأمن السيبراني في مجال الذكاء الاصطناعي، وتعزيز التعاون الدولي من خلال مبادرات مثل تحالف الذكاء الاصطناعي الآمن (CoSAI) والمنصة المفتوحة للذكاء الاصطناعي المؤسسي (OPEA).



