عرب لندن 

حذرت منظمات ومؤسسات أن أدوات الذكاء الاصطناعي والخوارزميات التي تستخدمها الحكومة المركزية قد تكون عنصرية ومنحازة، مما دفع المسؤولين الحكوميين للتأكيد على نشر أسماء وصفات الأدوات التي تم استخدامها في عدد من العمليات. 

وبحسب "الغارديان"، اعترض ناشطون على تحفظ الحكومة عن الكشفت عن المعلومات وخطر التحيز للتكنولوجيا المستخدمة في عدة عمليات منها محاولة اكتشاف الزيجات المزيفة، أو الاحتيال فيما يتعلق بمطالبات الإعانة. 

وتعد هذه الخطوة بمثابة انتصار للنشطاء الذين اعترضوا على استخدام الذكاء الاصطناعي في الحكومة المركزية والقطاع العام. وقالت كارولين سلمان، وهي زميلة أبحاث بارزة في مشروع القانون العام (PLP)، وهي مؤسسة خيرية معنية بالوصول إلى العدالة، أن تفاصيل الأنظمة كانت تفتقر للشفافية، مشيرة إلى أن الناشطين يبحثون عن كشف الحكومة عن استخدامات أدوات الذكاء الاصطناعي وتفاصيل خوارزمياتها، للتأكد أنها ليست قائمة على أساس تمييزي.  

وبحسب الصحيفة، وافقت وزارة الداخلية في أغسطس 2020، على التوقف عن استخدام خوارزميات أجهزة الحاسوب للمساعدة في فرز طلبات الحصول على التأشيرات، بعد أن زُعم أنها قائمة على أساس "عنصري وتحيز راسخين".

 وعلق المسؤولون استخدام الخوارزمية بعد طعن قانوني من قبل المجلس المشترك لرعاية المهاجرين ومجموعة الحقوق الرقمية "Foxglove".

وقد زعمت شركة "Foxglove" أن بعض الجنسيات مُنحت تلقائيا درجة خطورة عالية "حمراء"، وكان هؤلاء الأشخاص أكثر عرضة للحرمان من الحصول على تأشيرة، فيما أشارت إلى أن العملية ترقى إلى مستوى التمييز العنصري.

كما واجهت الوزارة العام الماضي تحديًا قانونيا، بشأن أداة خوارزمية للكشف عن الزيجات الزائفة المستخدمة "لتخريب" ضوابط الهجرة. وقال مشروع القانون العام (PLP) أن الأداة تمارس التمييز ضد أشخاص من دول معينة، حيث كشف تقييم المساواة أن البلغاريين واليونانيين والرومانيين والألبان هم أكثر عرضة للإحالة للتحقيق.

وقد حذر المركز الحكومي لأخلاقيات البيانات والابتكار -الذي أصبح الآن وحدة اعتماد التكنولوجيا المسؤولة- في تقرير صدر في نوفمبر 2020 من أن هناك أمثلة عديدة قامت فيها التكنولوجيا الجديدة "بترسيخ أو تضخيم التحيزات المبنية على التاريخ، أو حتى خلق أشكال جديدة من التحيز أو الظلم". 

وساعد المركز في تطوير معيار تسجيل شفافية الخوارزميات في نوفمبر 2021، للهيئات العامة التي تستخدم أدوات الذكاء الاصطناعي والخوارزميات في عملها. 

واقترحت نشر النماذج التي تتفاعل مع الجمهور أو التي لها تأثير كبير على القرارات في سجل أو "أرشيف"، مع الكشف عن تفاصيل حول كيفية استخدامها وسبب استخدامها.

ووفقا لما نقلته "الغارديان"، نُشرت تسع سجلات فقط في الأرشيف خلال السنوات الثلاث الأخيرة. 

وفي الوقت الراهن لا يتم استخدام أي من النماذج من قبل وزارة الداخلية أو وزارة العمل والمعاشات التقاعدية (DWP)، والتي قامت بتشغيل بعض الأنظمة الأكثر إثارة للجدل.

وقالت الحكومة الأخيرة (حكومة المحافظين) في رد تشاوري بشأن تنظيم الذكاء الاصطناعي في فبراير/شباط، أنها ستكلف الأقسام بالامتثال لمعايير إعداد التقارير المطلوبة

بدورها، أكدت وزارة العلوم والابتكار والتكنولوجيا (DSIT) في نهاية هذا الأسبوع أن الإدارات ستقدم تقريرًا عن استخدام التكنولوجيا بموجب المعيار، خلال الفترة القادمة. 

وقال متحدث باسم DSIT: "تتمتع التكنولوجيا بإمكانيات هائلة لتحسين الخدمات العامة، لكننا نعلم أنه من المهم الحفاظ على الضمانات الصحيحة، بما في ذلك -عند الاقتضاء- الرقابة البشرية وأشكال الحوكمة الأخرى.

وأضاف: "أصبح معيار تسجيل الشفافية الخوارزمية الآن إلزاميًا لجميع الإدارات، ومن المقرر نشر عدد من السجلات قريبًا."

وأضاف: “نحن نواصل استكشاف كيفية توسيع نطاقه عبر القطاع العام ونشجع جميع المؤسسات على استخدام الذكاء الاصطناعي والبيانات بطريقة تبني ثقة الجمهور من خلال الأدوات والإرشادات والمعايير الصحيحة.”

السابق 3 حوادث طعن في مهرجان "نوتنغ هيل"
التالي ارتفاع نسبة البريطانيين الذين يتوجهون للطب الخاص بسبب أزمة المواعيد في "NHS"