دور إنتل في الذكاء الاصطناعي
تقدّم إنتل دوراً حيوياً في مجال الذكاء الاصطناعي من خلال منتجاتها من أجهزة وبرامج تسهم في حل التحديات المعقدة التي نواجهها اليوم. يسهم ذلك في تسريع أبحاث الذكاء الاصطناعي وتحسين نتائج المرضى في مجالات الرعاية الصحية وعلوم الحياة من خلال تحليلات أسرع وأكثر دقة في الطب الدقيق والتصوير الطبي وأتمتة المختبرات. وفي قطاع التصنيع، تتحول البيانات إلى رؤى تسهم في تحسين أداء المصانع وتقليل فترات التوقف وتعزيز السلامة وزيادة الربحية. وفي مجال البحث، تتعاون مع أكاديميين من مختلف أنحاء العالم لمواجهة التحديات العالمية باستخدام ابتكارات الذكاء الاصطناعي.
معايير إنتل للذكاء الاصطقاء
تدعم إنتل بيئة تنظيمية وسياسية تُسهّل التبني المسؤول للذكاء الاصطناعي وخوارزمياته، وتدافع عن تدابير سياسات قائمة على المخاطر والمبادئ، وتؤكد أهمية المعايير الطوعية لضمان التطوير المسؤول والاعتماد العالمي. ولتوجيه اللوائح الناشئة، تساهم هذه المعايير في تقليل الحواجز التجارية عبر كونها أساساً للوائح الفنية، مع دعم المنافسة والابتكار في السوق.
ما وراء الخوارزمية
معايير AI تلتزم بها الشركات
تلتزم الشركات بمعايير تتعلق بالحوكمة والشفافية والدقة والخصوصية والتقييم والتعامل مع التحيز، مع تركيز على المبادئ الأساسية التي توجه التطوير المسؤول وتحقق موثوقية الذكاء الاصطناعي وتتناسب مع متطلبات المستخدمين والصناعة.
مشكلات قانونية تواجهها شركات التكنولوجيا
تواجه الشركات تحديات قانونية تتعلق بالخصوصية والشفافية والحوكمة والامتثال التنظيمي، إضافة إلى قضايا التنظيم والاستخدام المسؤول للنماذج وتبعاتها على الحقوق والالتزامات. وهو ما يستدعي توافقاً متزايداً مع القوانين الدولية ومحاور السياسة وتعاوناً بين الجهات المعنية.
نهج قائم على المخاطر ومتعدد الأطراف
تدعم إنتل نهجاً قائمًا على المخاطر ومتعدد الأطراف لضمان موثوقية الذكاء الاصطناعي، مستنداً إلى المعايير الدولية مثل ISO/IEC وأطر العمل مثل إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني الأميركي للمعايير والتكنولوجيا (NIST). وتوفر هذه المعايير والأطر توجيهات أساسية لتلبية المتطلبات الهامة التي تدعم موثوقية الذكاء الاصطناعي وسلامته، بما في ذلك حوكمة البيانات والشفافية والدقة والمتانة والتعامل مع التحيز.
الذكاء الاصطناعي الآمن
في عصر التحول الرقمي يعيد الذكاء الاصطناعي تشكيل الصناعات وتحسين جوانب حياتنا، إلا أن تاريخ الأمن السيبراني يمثل صراعاً مستمراً لمواكبة التهديدات المتطورة. ومع زيادة قدرة AI على إجراء حسابات معقدة، يمكن للمهاجمين استغلالها لاختراق الثغرات، لذا ترى إنتل ضرورة تفعيل آليات الأمن السيبراني لمواجهة التهديد المتطور بدلاً من الاعتماد على التدابير التقليدية. يمثل الذكاء الاصطناعي الآمن أساس التفاعلات الرقمية المستقبلية، حيث يحمي البيانات بتقنيات أمنية متقدمة مدمجة في الأجهزة، ويجمع بين مفهوم “أمن الذكاء الاصطناعي” الذي يعزز بنية AI ضد التهديدات السيبرانية، و”الذكاء الاصطناعي من أجل الأمن” الذي يستخدم AI لتعزيز الأمن السيبراني. وهذا النهج المزدوج يعني أنه مع تطور أنظمة AI يمكن تزويدها بدفاعات برمجية وأجهزة متقدمة ضد الثغرات الرقمية، وتبقى مبادئ سياسة AI تمكّن الابتكار دون المساس بالثقة. وتبرز أربع مبادئ رئيسية هي توحيد معايير AI الآمن واعتماده، والاستثمار في الأمن السيبراني والبحث والتطوير في AI، وتطوير مهارات الأمن السيبراني في AI، وتعزيز التعاون الدولي مثل CoSAI والمنصة المفتوحة للذكاء الاصطناعي المؤسسي OPEA.



