ترحيب أميركي بقرار للجمعية العامة يخص الذكاء الاصطناعي “الآمن”
رحبت الولايات المتحدة أمس، باعتماد الجمعية العامة للأمم المتحدة القرار الذي قدمته للوصول إلى “توافق عالمي حول أنظمة الذكاء الاصطناعي الآمنة والموثوقة لتعزيز التنمية المستدامة”.
وأكد وزير الخارجية الأميركي، أنتوني بلينكن، أنه “باعتماد الجمعية العامة للأمم المتحدة للقرار الذي قادته الولايات المتحدة بشأن الذكاء الاصطناعي، تحدثت الدول الأعضاء في الأمم المتحدة بصوت واحد لتحديد توافق عالمي حول أنظمة الذكاء الاصطناعي الآمنة والموثوقة لتعزيز التنمية المستدامة”.
في بيانه، أشار بلينكن إلى أن “هذا القرار التوافقي، الذي تم تطويره بمشاركة مباشرة من أكثر من 120 دولة، وشاركت في رعايته أكثر من 120 دولة عضواً من جميع مناطق العالم، يمثل جهداً تاريخياً ونهجاً عالمياً جديداً لتطوير واستخدام تقنية الذكاء الاصطناعي الناشئة”. وأوضح وزير الخارجية الأميركي أن “الذكاء الاصطناعي يحمل إمكانيات هائلة لتعزيز التنمية المستدامة وأهدافها، ويساهم هذا القرار في ضمان وصول فوائد الذكاء الاصطناعي إلى البلدان في جميع مناطق العالم وعلى مختلف مستويات التنمية، مع التركيز على بناء القدرات وسد الفجوات الرقمية، ولا سيما في البلدان النامية، ويؤكد على الإجماع في أن أنظمة الذكاء الاصطناعي يمكن أن تحترم حقوق الإنسان والحريات الأساسية، مع تحقيق التطلعات نحو التنمية المستدامة”.
ودعا بلينكن الحكومات إلى “التعاون مع القطاع الخاص والمجتمع المدني والمنظمات الدولية والإقليمية والأكاديمية ومؤسسات البحث والمجتمعات التقنية وجميع الأطراف المعنية الأخرى لبناء هذا النهج”. وأكد أن هذا القرار “سيكون أساساً لجهود الذكاء الاصطناعي المتعددة الأطراف ومبادرات الأمم المتحدة الحالية والمستقبلية”.
وأكمل بلينكن تصريحاته مؤكداً أن “الولايات المتحدة ستواصل العمل مع الحكومات والشركاء الآخرين لضمان أن تكون تقنيات الذكاء الاصطناعي، بما في ذلك التصميم والتطوير والنشر والاستخدام، آمنة وجديرة بالثقة، وموجهة نحو تحقيق أهدافنا المشتركة وحل تحدياتنا الأكثر إلحاحاً”.
جاءت تصريحات بلينكن في أعقاب بيان من كامالا هاريس، نائبة الرئيس الأميركي جو بايدن، التي رحبت فيه بقرار “الجمعية العامة للأمم المتحدة بشأن تحديد مبادئ نشر واستخدام الذكاء الاصطناعي”.
وأضافت “أنا والرئيس بايدن ملتزمان بإنشاء وتعزيز القواعد والمعايير الدولية بشأن التكنولوجيا الناشئة، لأن التكنولوجيا ذات التأثير العالمي، مثل الذكاء الاصطناعي، تتطلب عملاً عالمياً، وعندما يتعلق الأمر بتحديات القرن الحادي والعشرين، نعتقد أنه يجب على جميع الدول أن تسترشد بمجموعة مشتركة من التفاهمات. يعد هذا القرار الذي اقترحته الولايات المتحدة وشاركت في رعايته أكثر من 100 دولة، خطوة تاريخية نحو وضع معايير دولية واضحة للذكاء الاصطناعي وتعزيز أنظمة الذكاء الاصطناعي الآمنة والجديرة بالثقة”.
وذكرت أنه “وكما قلتُ في لندن، العام الماضي، يجب أن يكون الذكاء الاصطناعي في المصلحة العامة، ويجب اعتماده وتطويره بطريقة تحمي الجميع من الضرر المحتمل وتضمن قدرة الجميع على الاستمتاع بفوائده. ويجب علينا أيضاً أن نتعامل مع مجموعة كاملة من المخاطر، بدءاً من العواقب الكارثية التي تهدد البشرية جمعاء إلى الأضرار التي يشعر بها الأفراد والمجتمعات، مثل التحيز”.
ونوهت إلى أنه “في كثير من الأحيان، في الثورات التكنولوجية الماضية، لم يتم تقاسم الفوائد بشكل عادل، وشعرت بالأضرار قِلة غير متناسبة. يرسم هذا القرار طريقاً للمضي قدماً في مجال الذكاء الاصطناعي حيث يمكن لكل دولة أن تغتنم الوعد وتدير مخاطر الذكاء الاصطناعي”.
وشددت على أنه بهذا القرار “تدرك جميع الدول الحاجة لحماية سلامة مواطنيها وخصوصيتهم وحقوقهم الإنسانية. ويوضح القرار أن حماية حقوق الإنسان والحريات الأساسية يجب أن تكون محورية في تطوير واستخدام أنظمة الذكاء الاصطناعي”.
وأكد مسؤولون أميركيون أن الجمعية العامة للأمم المتحدة اعتمدت بالإجماع، الخميس، أول قرار عالمي بشأن الذكاء الاصطناعي بهدف تشجيع حماية البيانات الشخصية وحقوق الإنسان ومراقبة المخاطر.
وقال المسؤولون في مؤتمر صحفي قبل التصديق على القرار غير الملزم الذي اقترحته الولايات المتحدة ودعمته الصين و121 دولة أخرى، إن عملية التفاوض استغرقت ثلاثة أشهر. ويدعو القرار أيضا إلى تعزيز سياسات حماية الخصوصية.
وقالت السفيرة الأميركية لدى الأمم المتحدة، ليندا توماس غرينفيلد: “اليوم، تحدث جميع أعضاء الجمعية العامة للأمم المتحدة البالغ عددهم 193 عضوا بصوت واحد، واختاروا معا أن يتحكموا في الذكاء الاصطناعي بدلا من السماح له بالتحكم فينا”.
القرار هو الأحدث في سلسلة من المبادرات أطلقتها الحكومات في جميع أنحاء العالم لتنظيم التطور في مجال الذكاء الاصطناعي، وسط مخاوف من إمكانية استخدامه لتقويض الممارسات الديمقراطية، أو زيادة الاحتيال، أو فقدان الوظائف على نطاق واسع، من بين مخاوف أخرى.
ولم تكن أغلب المبادرات السابقة فعالة في التعامل مع تلك المخاوف.
وجاء في القرار أن “التصميم الضار أو غير السليم لأنظمة الذكاء الاصطناعي وتطويرها ونشرها واستخدامها… يشكل مخاطر يمكن أن… تقوض حماية وتعزيز وممارسة حقوق الإنسان والحريات الأساسية”.
وقال أحد المسؤولين، الذي تحدث شريطة عدم الكشف عن هويته “نعتقد أن القرار يحقق التوازن المناسب بين تعزيز التنمية والاستمرار في حماية حقوق الإنسان”، وفق ما نقلته رويترز.
وفي نوفمبر، كشفت الولايات المتحدة وبريطانيا وأكثر من 12 دولة أخرى عن أول اتفاق دولي مفصل حول مواجهة أضرار الذكاء الاصطناعي، مما دفع الشركات إلى تطوير أنظمة ذكاء اصطناعي “آمنة من حيث التصميم”.
الحرة