تساهم شركة إنتل في تمكين الابتكار في الذكاء الاصطناعي عبر توفير أجهزة وبرامج تسهم في تسريع الأبحاث وتحسين نتائج الرعاية الصحية وعلوم الحياة من خلال تحليلات أكثر دقة وسرعة في مجالات الطب الدقيق والتصوير الطبي وأتمتة المختبرات، كما تتيح حلولها في قطاع التصنيع تحويل البيانات إلى رؤى تساعد العملاء على تحسين أداء المصانع وتقليل فترات التوقف وتعزيز السلامة وزيادة الربحية، وتعمل أيضاً مع أكاديميين حول العالم لمواجهة التحديات العالمية باستخدام ابتكارات الذكاء الاصطنائي.
المعايير والنهج في إنتل
كشفت إنتل عبر موقعها الرسمي عن دعمها بيئة تنظيمية وسياسية تسهّل التبني المسؤول للذكاء الاصطناعي وخوارزمياته، وتؤكد أهمية المعايير الطوعية للذكاء الاصطناعي لضمان التطوير المسؤول والاعتماد العالمي، وتوضح أن هذه المعايير تشكل أساساً للوائح الفنية وتدعم المنافسة والابتكار وتقلل الحواجز التجارية.
تتبنى إنتل نهجاً قائماً على المخاطر ومتعدد الأطراف لضمان موثوقية الذكاء الاصطناعي، مستنداً إلى المعايير الدولية مثل ISO/IEC وأطر مثل إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST)، وتوفر هذه المعايير والأطر إرشادات أساسية تلبي المتطلبات المهمة لدعم موثوقية وسلامة الذكاء الاصطناعي، مثل حوكمة البيانات والشفافية والدقة والمتانة والحد من التحيز.
الذكاء الاصطناعي الآمن
في عصر التحول الرقمي يعيد الذكاء الاصطناعي تشكيل الصناعات وتحسين جوانب حياتنا، إلا أن تاريخ الأمن السيبراني يظل صراعاً مستمراً مع تهديدات متطورة، ومع تزايد قدرات الذكاء الاصطناعي في إجراء حسابات معقدة يمكن أن يستغلها المهاجمون لاختراق الثغرات، لذا تدفع إنتل إلى تفعيل آليات الأمن السيبراني لمواجهة هذا التهديد بدلاً من الاعتماد على تدابير تقليدية، ويشكّل الذكاء الاصطناعي الآمن أساس التفاعلات الرقمية المستقبلية من خلال حماية البيانات بواسطة تقنيات أمنية متقدمة مدمجة في الأجهزة، ويجمع بين “أمن الذكاء الاصطناعي” الذي يعزز بنية الذكاء الاصطناعي ضد التهديدات و”الذكاء الاصطناعي من أجل الأمن” الذي يستخدم AI لتعزيز الأمن السيبراني. وتنعكس هذه الرؤية في تعزيز معايير AI الآمن وتوحيدها، والاستثمار في الأمن السيبراني والبحث والتطوير في AI، وتطوير مهارات الأمن السيبراني في AI، والتعاون الدولي مثل تحالف الذكاء الاصطناعي الآمن (CoSAI) والمنصة المفتوحة للذكاء الاصطناعي المؤسسي (OPEA).



