«كاسبرسكي» تدعو إلى ذكاء اصطناعي مسؤول
دعماً لالتزامها باتباع نهج شفاف ومسؤول خلال تطويرها التقنيات، كشفت شركة «كاسبرسكي» عن ورقة بيضاء توضح قائمة مبادئها الأخلاقية، التي ستلتزم بها خلال تطويرها واستخدامها الأنظمة العاملة بالذكاء الاصطناعي أو تعلّم الآلة. فنظراً لدور خوارزميات الذكاء الاصطناعي المتنامي في مجال الأمن السيبراني، توضح هذه المبادئ كيفية ضمان «كاسبرسكي» لموثوقية تقنياتها القائمة على هذا الذكاء، وترشد اللاعبين الآخرين في الصناعة، نحو تقليص المخاطر المرتبطة باستخدامهم الخوارزميات وتعلّم الآلة. حيث تناولت هذا الموضوع جزءاً من منتدى الأمم المتحدة لحوكمة الإنترنت، المنعقد حالياً في اليابان، ويجمع خبراء عالميين بارزين في المجال.
لا يخفى على أحد أن «كاسبرسكي» تستخدم خوارزميات تعلّم الآلة (أحد فروع الذكاء الاصطناعي) في حلولها، منذ ما يقرب من 20 عاماً. حيث مكّنتها قوة الذكاء المدعومة بالخبرات البشرية حلول كاسبرسكي من اكتشاف مجموعة متنوعة من التهديدات الجديدة والتصدي لها كل يوم، إذ يلعب تعلم الآلة دوراً مهماً في أتمتة اكتشاف التهديدات، وتحديد مواقع الخلل، وزيادة دقة التعرف إلى البرمجيات الخبيثة. لذلك، صاغت مبادئ أخلاقية لتطوير واستخدام الذكاء وتعلّم الآلة، وشاركتها بشكل مفتوح مع الصناعة، لتحفيز الابتكار وتعزيز الحوار المتعدد لتأكيد استخدام الذكاء الاصطناعي لتحسين العالم للجميع.
وطرحت «كاسبرسكي» ستة مبادئ، يجب أن تؤخذ في الحسبان عند تطوير واستخدام الذكاء الاصطناعي وتعلّم الآلة، وهي: الشفافية، الأمان؛ التحكم البشري؛ الخصوصية؛ الالتزام بأغراض الأمن السيبراني؛ الانفتاح على الحوار.
ويرمز مبدأ الشفافية إلى إيمان «كاسبرسكي» الراسخ بواجب كل شركة بإبلاغ عملائها عن استخدامها تقنيات الذكاء الاصطناعي وتعلّم الآلة في منتجاتها وخدماتها. وتلتزم بهذا المبدأ من خلال تطوير أنظمة ذكاء اصطناعي وتعلم آلة مفهومة إلى أقصى حد ممكن، إضافة إلى توفير معلومات إلى أصحاب المصالح تشرح طريقة تنفيذ واستخدام حلول التقنيات.
أمّا مبدأ السلامة، فتلتزم به عن طريق ممارسة مجموعة واسعة من التدابير الصارمة، لضمان جودة أنظمة الذكاء الاصطناعي وتعلّم الآلة، ويتضمن ذلك مراجعات أمنية في الأنظمة، وخطوات تقليل الاعتماد على مجموعات البيانات الخارجية في تدريب الحلول العاملة بالذكاء الاصطناعي، وتفضيل تقنيات تعلم الآلة السحابية التي تتمتع بالحماية اللازمة بدلاً من تلك المثبتة على أجهزة العملاء.
ويشير مبدأ التحكم البشري إلى أهمية معايرة الأنظمة، عندما يتعلق الأمر بتحليل التهديدات المعقدة، لا سيما التهديدات المتقدمة المستعصية «آي بي تي»، ولتوفير حماية فعالة ضد التهديدات المتطورة باستمرار، كما تلتزم بالحفاظ على التحكم البشري كعنصر أساسي في جميع أنظمة الذكاء الاصطناعي وتعلّم الآلة لديها.
المبدأ الأخلاقي الأساسي التالي هو ضمان خصوصية الأفراد عند استخدام الأنظمة، ونظراً لاعتماد تدريب مثل هذه الأنظمة بشكل كبير على البيانات الضخمة، يجب على الشركات التي تستخدم الذكاء الاصطناعي وتعلّم الآلة أن تأخذ خصوصية الأفراد في الحسبان في كل خطوة.
من جهتها، تحترم «كاسبرسكي» خصوصية الأفراد وتطبق عدداً من التدابير الفنية والتنظيمية لحماية كل من بيانات الأفراد وأنظمتها، كما تضمن ممارسة مستخدميها لحقهم في الخصوصية.
ويمثل المبدأ الأخلاقي الخامس الالتزام بحصر استخدام الأنظمة في الأغراض الدفاعية فقط. حيث تواصل الشركة جهودها لبناء عالم أكثر أماناً، وتثبت التزامها بحماية مستخدميها وبياناتهم عبر التركيز حصرياً على التقنيات الدفاعية.
أخيراً، يشير المبدأ الأخير إلى تقبُّل الحوار مع جميع أصحاب المصلحة بغرض مشاركة أفضل ممارسات الاستخدام الأخلاقي للذكاء الاصطناعي.
قال الرئيس التقني في «كاسبرسكي» أنطون إيفانوف: «الذكاء الاصطناعي قادر على إفادة صناعة الأمن السيبراني من عدة نواحٍ، ما يعزز المرونة السيبرانية لمجتمعنا. ولكن، مثل أي تقنية أخرى لا تزال في مرحلة مبكرة من تطورها، لا يخلو الذكاء الاصطناعي من المخاطر. وللتعامل مع المخاوف المحيطة بالذكاء الاصطناعي، أصدرت كاسبرسكي مبادئها الأخلاقية لمشاركة أفضل ممارساتها حول تطبيق الذكاء الاصطناعي، ودَعت إلى إجراء حوار مفتوح على مستوى الصناعة لوضع مبادئ توجيهية واضحة، ما يجعل تطوير الحلول القائمة على الذكاء الاصطناعي وتعلّم الآلة سليماً أخلاقياً».
صحيفة الخليج