خبراء وقادة شركات تكنولوجيا يحذرون من انقراض البشرية بسبب الذكاء الاصطناعي

حذر عدد من قادة شركات التكنولوجيا من أن الذكاء الاصطناعي قد يؤدي إلى خطر انقراض البشرية، مؤكدين أن تقنينه والسيطرة عليه يجب أن تعطى لهما الأولوية القصوى.

وجاء التحذير في بيان من مركز أمان الذكاء الاصطناعي ووقع عليه العديد من قادة شركات التكنولوجيا أبرزهم سام ألتمان، الرئيس التنفيذي لشركة “أوبن إيه آي” (OpenAI) الشركة المطورة لبرنامج “شات جي بي تي” (ChatGPT)، بالإضافة إلى المديرين التنفيذيين في شركة “دييب مايند” (DeepMind) وهي ذراع شركة “غوغل” (Google) في مجال الذكاء الاصطناعي، وشركة “مايكروسوفت” (Microsoft).

وجاء في البيان أن “التخفيف من خطر انقراض البشرية بسبب الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.

وتسارعت هذه التكنولوجيا في الأشهر الأخيرة بعد إطلاق برنامج الدردشة “شات جي بي تي” للاستخدام العام في نوفمبر/تشرين الثاني الماضي وانتشر بعد ذلك بشكل كبير.

ففي غضون شهرين فقط بعد إطلاقه، وصل عدد مستخدميه إلى 100 مليون مستخدم.

وأدهش “شات جي بي تي” الباحثين وعامة الناس بقدرته على توليد استجابات على تساؤلات المستخدمين شبيهة بالبشر، مما زاد المخاوف من أن الذكاء الاصطناعي يمكن أن يحل محل الوظائف ويقلد البشر.
وقال البيان إن هناك نقاشا متزايدا حول “مجموعة واسعة من المخاطر المهمة والعاجلة التي قد يتسبب بها الذكاء الاصطناعي”، لكنه أضاف أنه قد يكون “من الصعب التعبير عن المخاوف بشأن بعض المخاطر الأكثر خطورة للذكاء الاصطناعي”.

والهدف من البيان هو التغلب على هذه العقبة وفتح المناقشات حول هذه المخاطر.
واعترف ألتمان في مارس/آذار الماضي بأنه “خائف قليلا” من الذكاء الاصطناعي لأنه يخشى أنْ تطور ما نعتها بـ”الحكومات الاستبدادية” هذه التكنولوجيا.

وحذر قادة التكنولوجيا الآخرون، مثل إيلون ماسك من شركة “تسلا” (Tesla) وإريك شميدت المدير التنفيذي السابق لشركة غوغل؛ من المخاطر التي يشكلها الذكاء الاصطناعي على المجتمع.

وحث ماسك وستيف وزنياك الشريك المؤسس لشركة “آبل” (Apple) والعديد من قادة التكنولوجيا في خطاب مفتوح في مارس/آذار الماضي، مختبرات تطوير الذكاء الاصطناعي على إيقاف أنظمة التدريب التي تحاول أن تكون أقوى من النسخة الحالية من برنامج “شات جي بي تي- 4″، وهو أحدث نموذج لغة كبير لشركة “أوبن إيه آي”.

ودعوا أيضا إلى التوقف لمدة 6 أشهر قبل القيام بأي تطوير متقدم لهذه التكنولوجيا.

وجاء في الرسالة أن “أنظمة الذكاء الاصطناعي المعاصرة أصبحت الآن قادرة على المنافسة البشرية في المهام العامة”.
وأثارت الرسالة عدة تساؤلات “هل يجب أن نتمتع بأتمتة جميع الوظائف؟ هل يجب أن نطور عقولا غير بشرية قد تتفوق في النهاية علينا عددا، وتتفوق على الذكاء البشري، وتحل محلنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟”.

كما حذر إريك شميدت المدير التنفيذي السابق لشركة غوغل أيضا بشكل منفصل من “المخاطر الوجودية” المرتبطة بالذكاء الاصطناعي مع تقدم التكنولوجيا.

سكاي نيوز
الجزيرة

Exit mobile version