تقاريردول ومدن
أخر الأخبار

انتقادات حقوقية لاستخدام الذكاء الاصطناعي في فرز طلبات اللجوء ببريطانيا

أخبار العرب في أوروبا-بريطانيا

تواجه الحكومة البريطانية انتقادات حادة من قبل جمعيات حقوق الإنسان والمنظمات المعنية بالخصوصية بسبب اعتماد وزارة الداخلية البريطانية على الذكاء الاصطناعي في معالجة طلبات اللجوء، وهو ما يثير تساؤلات حول شفافية وعدالة هذه الإجراءات.

ومنذ عام 2020، بدأت الداخلية البريطانية في استخدام أدوات الذكاء الاصطناعي في عملية اتخاذ قرارات تتعلق بملفات اللجوء.

النظام الذي أثار انتقادات واسعة يُسمى “تعريف وتحديد الأولويات”، وهو يهدف إلى تسهيل اتخاذ قرارات بشأن المهاجرين وطالبي اللجوء سواء كانوا بالغين أو أطفالا.

ويستند هذا البرنامج إلى خوارزميات معقدة تساعد في تحديد أولويات الملفات بناءً على مجموعة من العوامل.

مخاوف من اتخاذ قرارات غير عادلة

وعلى الرغم من أن الحكومة البريطانية تؤكد أن النظام يعتمد على القواعد القانونية ولا يعتمد على الذكاء الاصطناعي بشكل كامل، فإن العديد من المنظمات الحقوقية حذرت من أن الخوارزميات قد تؤدي إلى اتخاذ قرارات آلية غير عادلة.

إذ يمكن أن يؤدي الاعتماد على هذه الأنظمة إلى اتخاذ قرارات بناءً على توصيات الخوارزمية دون تحليل دقيق لكل حالة على حدة، مما قد يؤدي إلى الظلم بحق المهاجرين وطالبي اللجوء.

“الافتقار إلى الشفافية”

في تقرير صدر عن منظمة “خصوصية دولية” في أكتوبر/تشرين الأول الماضي تم الكشف عن أن البرنامج يعتمد على خوارزميات تقوم بتحليل مجموعة واسعة من البيانات المتعلقة بالمهاجرين، بما في ذلك المعلومات البيومترية (مثل بصمات الأصابع)، والحالة الصحية، والعرق، والسجل الجنائي.

وبناءً على هذه البيانات، تصدر الخوارزمية توصيات بشأن ما إذا كان ينبغي السماح لطالب اللجوء بالبقاء في البلاد أم يتم رفض ملفه.

وقد أبدت المنظمة قلقها من أن هذا النظام لا يتمتع بالشفافية الكافية، مشيرة إلى أنه تم الحصول على هذه المعلومات بعد مرور عام كامل من تقديم طلب رسمي للسلطات بموجب قانون حرية المعلومات البريطاني.

كما أشارت إلى أن استخدام هذه التقنية قد يساهم في “ترميز الظلم” بسبب اعتمادها على بيانات قد تكون مشوهة أو منحازة مسبقا.

قلق من “التحيز العرقي” وزيادة المراقبة

وتخشى المنظمات الحقوقية من أن الخوارزميات قد تؤدي إلى تمييز غير مقصود، حيث يعتمد النظام على بيانات قد تكون منحازة بشكل غير مباشر، مما قد يؤدي إلى تحيز عرقي.

وتُظهر هذه البيانات نمطا من الممارسات التي قد تؤدي إلى المراقبة المكثفة على المهاجرين، مما يهدد خصوصيتهم بسبب تبادل البيانات بين الأجهزة الحكومية المختلفة.

وقد أبدت “شبكة حقوق المهاجرين” قلقها من أن هذا النظام قد يسهم في تعزيز التحيز ضد المهاجرين والفئات المهمشة، خاصةً في ظل غياب آلية واضحة تسمح للمهاجرين وطالبي اللجوء بمعرفة دور الذكاء الاصطناعي في معالجة قضاياهم، وهو ما يقلل من قدرتهم على الطعن في القرارات المتخذة ضدهم.

من جهة أخرى، شدد وزير الدولة البريطاني للعلوم والتكنولوجيا، بيتر كايل، على أن الذكاء الاصطناعي يحمل إمكانات هائلة لتحسين خدمات الحكومة العامة، بما في ذلك تلك المتعلقة بالهجرة.

لكن الوزير أكد في الوقت ذاته أكد على ضرورة بناء الثقة في هذه الأنظمة لضمان الاستفادة القصوى من قدراتها، مشيرا إلى أهمية الشفافية والعدالة في استخدام هذه الأدوات.

دعوات لتنظيم استخدام الذكاء الاصطناعي في الهجرة

في السياق ذاته، حثت منظمة “العفو الدولية” دول الاتحاد الأوروبي على تنظيم استخدام الذكاء الاصطناعي في قضايا الهجرة بشكل أكثر صرامة.

ودعت المنظمة إلى اتخاذ إجراءات قوية لحظر الأتمتة التي تعتمد على التمييز العنصري أو التحيز ضد المهاجرين والفئات المهمشة.

كذلك، تؤكد المنظمة على ضرورة فرض رقابة أكبر على هذه الأنظمة لضمان عدم انتهاك حقوق الأفراد.

وبينما تستمر الحكومة البريطانية في استخدام الذكاء الاصطناعي لتحسين كفاءة معالجة طلبات اللجوء، يبقى التساؤل حول مدى قدرة هذه الأنظمة على ضمان العدالة لجميع المهاجرين وطالبي اللجوء.

ومع تزايد استخدام الذكاء الاصطناعي في مختلف دول العالم، يتعين على الحكومات ضمان توازن بين الابتكار التكنولوجي وحماية حقوق الإنسان، وفق ما تؤكده المنظمات الحقوقية.

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى