ذات صلة

اخبار متفرقة

أكبر دورة في تاريخ المهرجان: جوائز مالية، عروض عالمية، وحضور تجاوز 3000 يومياً

سجّل مهرجان الفجيرة الدولي للمونودراما في دورته الحادية عشرة...

“دلعني” تعود بإشراقة جديدة: غنوة محمود تطلق النسخة الريميكس من “إكسلانس”

أعلنت الفنانة والممثلة غنوة محمود عن إعادة إطلاق أغنية...

نصوص تُروى من الوجع والدهشة.. تكريم الشاعرة سراب غانم في عمّان

عمّان – نظّم منتدى البيت العربي الثقافي في العاصمة...

غوغل تحذر البشرية من الذكاء الاصطناعي وتهديداته

 

حذر ساندر بيتشاي الرئيس التنفيذي لجوجل من تهديد الذكاء الاصطناعي على البشرية، موضحاً أن تكنولوجيا الذكاء الاصطناعي يمكن أن “تسبب الكثير من الضرر” على “المستوى المجتمعي”.

ضرر الذكاء الاصطناعي

حيث قال بيتشاي: يمكن أن يكون ضارًا جدًا إذا تم نشره بشكل خاطئ وليس لدينا جميع الإجابات هناك حتى الآن، والتكنولوجيا تتحرك بسرعة.

و من المقرر أن يؤثر الذكاء الاصطناعي على كل منتج عبر كل شركة في جميع أنحاء العالم ، وهو رأي شبه عالمي بين المديرين التنفيذيين في مجال التكنولوجيا والقادة العامين، ومن المرجح أن يكون الكتاب والمحاسبون ومهندسو البرمجيات هم الأكثر تضررًا ، كما يقول، لكن من المتوقع أن يصلح الرعاية الصحية بالكامل أيضًا.

وقاد المدير التنفيذي التكنولوجي المولود في الهند شركة جوجل من المنصب منذ عام 2015 ، بعد أن انضم إلى الشركة لأول مرة قبل أكثر من عقد من الزمان، ومنذ ذلك الحين ، نمت قدرات الذكاء الاصطناعي بشكل كبير.

تمتلك جوجل الآن منتجها الخاص بالذكاء الاصطناعي ، والمعروف باسم Bard.

كما كشفت شركة Silicon Valley العملاقة عن روبوتها الخاص بالذكاء الاصطناعي المعروف باسم Bard في يناير ، بعد أن أطلق ChatGPT من OpenAI دون قصد مسدسًا لـ “ سباق تسلح عالمي بالذكاء الاصطناعي ” عندما انطلق في نوفمبر.

وعندما سُئل عما إذا كان بارد آمنًا للمجتمع ، أجاب بيتشاي قائلاً: “الطريقة التي أطلقنا بها اليوم ، كتجربة بطريقة محدودة ولكن علينا جميعًا أن نتحمل المسؤولية في كل خطوة على طول الطريق “.

وأصر بيتشاي على أنه لا ينبغي التخلي عن الذكاء الاصطناعي ، بل تنظيمه بدلاً من ذلك بقوانين “تتماشى مع القيم الإنسانية بما في ذلك الأخلاق”، ويقول: “لهذا السبب أعتقد أن تطوير هذا لا يجب أن يشمل فقط المهندسين ، ولكن علماء الاجتماع ، وعلماء الأخلاق ، والفلاسفة ، وما إلى ذلك”.

 

 

 

spot_img
spot_imgspot_img

تابعونا على