تم تطبيق تقنية التعرف على الوجه على أساس تجريبي في المملكة المتحدة ، سواء في لندن من قبلMet : Metropolitan Police Service وفي ويلز من قبل شرطة المملكة المتحدة. لكن محكمة استئناف قضت الأسبوع الماضي بأن استخدام الشرطة لتقنية التعرف على الوجه ينتهك العديد من القوانين وله عيوب عديدة. تعتبر هذه الخطوة ، التي تأتي في نهاية إجراء يحظى باهتمام كبير من قبل معارضي التعرف على الوجه ، انتصارًا كبيرًا لمناصري الخصوصية في المملكة المتحدة.
تدعي منظمة حقوق الإنسان ليبرتي Liberty تحقيق النصر في بريطانيا بعد أن قضت محكمة بأن محاكمات الشرطة لتكنولوجيا التعرف على الوجه تنتهك قوانين الخصوصية. وقضت محكمة الاستئناف بأن استخدام أنظمة التعرف التلقائي على الوجه ينتهك بشكل غير عادل حقوق الخصوصية للمدعي المسمى إد بريدجز Ed Bridges. وأضاف القضاة أن هناك مشكلات في طريقة التعامل مع البيانات الشخصية ، وقالوا إنه يجب إيقاف التجارب في الوقت الحالي.
قدم إد بريدجز ، المقيم في كارديف ، شكوى في عام 2019 ضد الشرطة ، زاعمًا أن فحص وجهه في عامي 2017 و 2018 يعد انتهاكًا لحقوقه القانونية. بدأت الشرطة في ويلز استخدامها التجريبي لتقنية التعرف على الوجه الآلية في عام 2017 ، ونشرت بشكل مفتوح نظامًا يسمى AFR Locate في عشرات الأحداث الكبرى مثل مباريات كرة القدم. قارنت الشرطة عمليات المسح بقوائم المراقبة لأفراد معروفين لتحديد المطلوبين من قبل الشرطة ، الخاضعين لمذكرات توقيف مفتوحة أو أنهم أشخاص محل اهتمام .
على الرغم من دعمها من قبل Liberty ، فقد Bridges قضيته في عام 2019 ، لكن محكمة الاستئناف ألغت هذا الحكم ، وحكمت بأن برنامج التعرف على الوجه لشرطة ويلز غير قانوني. وقال أمر صدر الثلاثاء إن عمليتي نشر في ديسمبر 2017 ومارس 2018 وأخرى : “على أساس مستمر … لم تكن ممتثلة للقانون”.
قال ثلاثة قضاة في المحكمة: “هناك الكثير من السلطة التقديرية متروكة حاليا للشرطة”. وأضاف القضاة: “ليس من الواضح من يمكن وضعه على قائمة المراقبة ، ولا أن هناك معايير لتحديد مكان نشر AFR”. وقالوا إنه لم يكن هناك تقييم مناسب لحماية البيانات ، وهو ما يتطلبه قانون حماية البيانات لعام 2018 وأنه كان هناك انتهاك لواجب المساواة في القطاع العام بهدف الحماية من التمييز.
في عام 2018 ، أصدرت الشرطة في ويلز بيانات تعترف بأن حوالي 2300 من حوالي 2500 مباراة – أو حوالي 92 ٪ – من البرامج المستخدمة في حدث في عام 2017 كانت كاذبة. في لندن ، وجدت دراسة مستقلة عام 2019 أن نظام Met لديه معدل خطأ بنسبة 81 ٪ ، وفقًا لما ذكرته سكاي نيوز ، على الرغم من أن تحليل Met نفسه زعم أن معدل الخطأ كان أقل بكثير.
وقال بريدجز بعد الحكم: “يسعدني أن المحكمة أقرت بأن التعرف على الوجه يهدد حقوقنا بشكل واضح. هذه التكنولوجيا هي أداة مراقبة جماعية متطفلة وتمييزية … يجب أن نكون جميعًا قادرين على استخدام مساحاتنا العامة دون التعرض للمراقبة القمعية.”