الاتحاد الأوروبي: يجب أن يحظر قانون الذكاء الاصطناعي التكنولوجيات الخطرة التي تعمل بالذكاء الاصطناعي في قانون تاريخي

قالت منظمة العفو الدولية اليوم إنه ينبغي على الاتحاد الأوروبي حظر التكنولوجيات الخطرة التي تعمل بالذكاء الاصطناعي في قانون الذكاء الاصطناعي، وذلك في الوقت الذي تهدف فيه الكتلة إلى إنجاز أول كتاب قواعد شامل في العالم يتعلق بالذكاء الاصطناعي هذا الخريف.

لقد استخدمت دول عديدة في شتى أرجاء العالم أنظمة ذكاء اصطناعي غير خاضعة للتنظيم لتقييم طلبات الرعاية الاجتماعية، أو مراقبة الأماكن العامة، أو تحديد احتمال إقدام شخص ما على ارتكاب جريمة. وغالبًا ما تُصنَّف هذه التكنولوجيات ’كعلاجات تقنية‘ لقضايا بنيوية مثل الفقر، والتحيز القائم على النوع الاجتماعي، والتمييز. وهي تستخدم معطيات حساسة وبكميات هائلةفي كثير من الأحيان، وتُلقَّم هذه المعطيات في أنظمة مؤتمتة لتحديد ما إذا كان الشخص يجب أن يحصل أم لا على السكن، والمزايا، والرعاية الصحية، والتعليم – أو حتى ما إذا كان يجب أن يُتهم بارتكاب جريمة.

إن هذه الأنظمة لا تُستخدم لتحسين إمكانية حصول الناس على الرعاية الاجتماعية، بل لخفض التكاليف. وعندما يكون لديكم أصلًا عنصرية وتمييز ممنهجان، فإن هذه التكنولوجيات تُضخّم الأذى الذي يلحق بالمجتمعات المهمشة على نطاق أكبر بكثير وبصورة أسرع بكثير.

مهير هاكوبيان، مستشار الدعوة إلى المناصرة بشأن لوائح الذكاء الاصطناعي في منظمة العفو الدولية

ومع ذلك فبدلًا من أن تحل أنظمة الذكاء الاصطناعي المشاكل الاجتماعية، قد ضخّم العديد منها بشكل صارخ العنصرية وأوجه عدم المساواة، وأدام الأذى الذي يلحق بحقوق الإنسان، والتمييز.

وقال مهير هاكوبيان، مستشار الدعوة إلى المناصرة بشأن لوائح الذكاء الاصطناعي في منظمة العفو الدولية إن “هذه الأنظمة لا تُستخدم لتحسين إمكانية حصول الناس على الرعاية الاجتماعية، بل لخفض التكاليف. وعندما يكون لديكم أصلًا عنصرية وتمييز ممنهجان، فإن هذه التكنولوجيات تُضخّم الأذى الذي يلحق بالمجتمعات المهمشة على نطاق أكبر بكثير وبصورة أسرع بكثير”.

“وبدلًا من التركيز بصورة غير متناسبة ومبالغ فيها على ’التهديدات الوجودية‘ التي يشكلها الذكاء الاصطناعي، يتعين على المشرّعين في الاتحاد الأوروبي صياغة قوانين تعالج المشكلات القائمة، مثل حقيقة أن هذه التكنولوجيات تُستخدم لاتخاذ قرارات تمييزية بشكل صارخ تُقوّض إمكانية التمتّع بحقوق الإنسان الأساسية”.

الحرمان القاسي من مزايا رعاية الأطفال

في عام 2021، وثّقت منظمة العفو الدولية كيف أن نظامًا للذكاء الاصطناعي تستخدمه سلطات الضرائب الهولندية قد نمّط عنصريًا مُتلقّيْ مزايا رعاية الأطفال. وكان من المفترض أن تتحقق الأداة مما إذا كانت طلبات المزايا صادقة أو احتيالية، لكن النظام عاقب على نحو خاطئ آلاف الآباء والأمهات من ذوي الدخل المنخفض والخلفيات المهاجرة، فأغرقهم في الديون الباهظة والفقر.

الأمر كان غريبًا جدًا؛ فقد تلقيتُ رسالة تقول إنني حصلت على مزايا رعاية الأطفال خطأً. فقلت في نفسي، ’كيف يمكن ذلك؟‘ كنت في مطلع العشرينيات من عمري. ولم أكن أعرف الكثير عن سلطات الضرائب. ووجدتُ نفسي في عالم المعاملات الورقية هذا. ورأيت أن كل شيء يضيع مني. ومنذ الإقرار بأننا ضحايا لما أسميه ’جريمة المزايا‘، لا نزال نُعامَل كرقم حتى بعد مضي أربع سنوات.

باتيا براون

وقالت باتيا براون – التي اتهمها نظام رعاية الأطفال الهولندي زورًا بالاحتيال للحصول على المزايا – إن سلطات الضرائب الهولندية طالبتها بإعادة دفع مئات آلاف اليورو. فعلقت في شباك البيروقراطية والقلق المالي. وبعد سنوات، تظل العدالة بعيدة المنال.

وأضافت باتيا براون أن “الأمر كان غريبًا جدًا؛ فقد تلقيتُ رسالة تقول إنني حصلت على مزايا رعاية الأطفال خطأً. فقلت في نفسي، ’كيف يمكن ذلك؟‘ كنت في مطلع العشرينيات من عمري. ولم أكن أعرف الكثير عن سلطات الضرائب. ووجدتُ نفسي في عالم المعاملات الورقية هذا. ورأيت أن كل شيء يضيع مني. ومنذ الإقرار بأننا ضحايا لما أسميه ’جريمة المزايا‘، لا نزال نُعامَل كرقم حتى بعد مضي أربع سنوات”.

وقال مهير هاكوبيان إن “فضيحة مزايا رعاية الأطفال الهولندية يجب أن تشكل تحذيرًا للمشرّعين في الاتحاد الأوروبي؛ إذ إن استخدام أنظمة الذكاء الاصطناعي لمراقبة تقديم مزايا ضرورية يمكن أن يؤدي إلى عواقب وخيمة على المجتمعات المهمشة. وينبغي حظر كافة أنظمة التقييم الاجتماعي، والتنميط، وتقييم المخاطر في قانون الذكاء الاصطناعي، سواء استُخدمت لمراقبة متلقي الحماية في مجال الرعاية، أو ’التنبؤ‘ بمدى احتمال إقدام شخص ما على ارتكاب جريمة، أو  اتخاذ قرارات فيما يخص طلبات اللجوء”.

يجب حظر استخدام وتصدير أنظمة المراقبة التطفلية

تحت ستار ’الأمن الوطني‘، أصبحت أنظمة التعرّف على الوجه تتحول إلى أداة تلجأ إليها الحكومات التي تسعى إلى مراقبة الأشخاص على نحو مفرط في المجتمع. وتستخدم أجهزة إنفاذ القانون هذه الأنظمة في الأماكن العامة للتعرف على الأشخاص الذين يمكن أن يكونوا قد ارتكبوا جريمة، برغم خطر الاعتقال الخاطئ.

وقد دعت منظمة العفو الدولية – ضمن ائتلاف يضم ما يزيد على 155 منظمة – إلى ضمان الحظر التام للتعرّف المباشر أو اللاحق على الوجه في  الأماكن المتاحة لعامة الجمهور، ومن ضمنها المناطق الحدودية وحول مرافق الاحتجاز، من جانب جميع الجهات الفاعلة في الاتحاد الأوروبي بدون أي استثناء.

وفي أماكن تشمل نيويورك، وحيدر آباد، والأراضي الفلسطينية المحتلة، وثّقت منظمة العفو الدولية وكشفت كيف أن أنظمة التعرف على الوجه تُسرّع أنظمة المراقبة والتمييز القائمة؛ ففي الأراضي الفلسطينية المحتلة، تستخدم السلطات الإسرائيلية التعرّف على الوجه للمراقبة الشرطية للفلسطينيين والسيطرة عليهم، مقيدةً بذلك حريتهم في التنقل وقدرتهم على الحصول على الحقوق الأساسية.

كذلك كشفت البحوث التي أجرتها منظمة العفو الدولية كيف أن الكاميرات التي تُصنعها شركة تي كي إتش للأمن (TKH Security) – وهي شركة هولندية – تُستخدَم كجزء من جهاز المراقبة في القدس الشرقية المحتلة.

وأضاف مهير هاكوبيان بأنه “إلى جانب الحرص على فرض حظر كامل على التعرف على الوجه داخل الاتحاد الأوروبي، ينبغي على المشرّعين أن يضمنوا بألا يتم ضمن الاتحاد الأوروبي تصنيع هذه التكنولوجيا وغيرها من التكنولوجيات الشديدة الإشكالية المحظورة داخل الكتلة، ليتمّ بعد ذلك تصديرها إلى بلدان تُستخدم فيها لارتكاب انتهاكات خطيرة لحقوق الإنسان. ويترتب على الاتحاد الأوروبي والدول الأعضاء فيه واجبات بموجب القانون الدولي لضمان عدم تحقيق الشركات الخاضعة لولاياتهم القضائية أرباحًا من انتهاكات حقوق الإنسان عبر تصدير تكنولوجيات تُستخدم للمراقبة الجماعية وحفظ الأمن المتسم بالعنصرية”.

تكنولوجيا الذكاء الاصطناعي تُسهّل الانتهاكات ضد المهاجرين 

إن الدول الأعضاء في الاتحاد الأوروبي قد لجأت بشكل متزايد إلى استخدام تكنولوجيات غير شفافة وعدائية لتسهيل الانتهاكات ضد المهاجرين، واللاجئين وطالبي اللجوء عند حدودها.

وينبغي على المشرّعين حظر أنظمة التنميط وتقييم المخاطر العنصرية التي تُصنّف المهاجرين وطالبي اللجوء ’كتهديدات‘، فضلًا عن التكنولوجيات التنبؤية التي تُستخدم للتنبؤ بالتحركات على الحدود ولحرمان الأشخاص من حق اللجوء.

وقالت أليكس حنا، مديرة بحوث في معهد بحوث الذكاء الاصطناعي الموزعة (DAIR) إنه “في كل مرة تمرّون فيها عبر مطار، وكل مرة تعبرون فيها حدودًا، وكل مرة تتقدّمون فيها بطلب للحصول على وظيفة، تخضعون لقرارات هذه النماذج. ولسنا مضطرين للوصول إلى الحد الذي وصل إليه فيلما تيرمينيتر أو ميتركس كي تصبح هذه التهديدات وجودية؛ بالنسبة للناس، هي وجودية إذا كانت تحرمكم من فرص حياتكم وسبل معيشتكم”.

لا يجوز لقانون الذكاء الاصطناعي أن يمنح شركات التكنولوجيا الكبيرة سلطة التنظيم الذاتي

إن شركات التكنولوجيا الكبيرة قد مارست الضغوط أيضًا لإدخال ثغرات في عملية تصنيف المخاطر الخاصة بقانون الذكاء الاصطناعي، ما من شأنه أن يسمح لشركات التكنولوجيا بتحديد ما إذا كانت تكنولوجياتها يجب أن تُصنًّف على أنها ’عالية المخاطر‘.

وتابع مهير هاكوبيان قائلًا إنه “من المهم للغاية أن يتبنى الاتحاد الأوروبي تشريعًا بشأن الذكاء الاصطناعي يحمي حقوق الإنسان ويعززها. وإن منح شركات التكنولوجيا الكبيرة سلطة التنظيم الذاتي يقوّض على نحو خطير الأهداف الرئيسية لقانون الذكاء الاصطناعي، ومن ضمنها حماية الناس من انتهاكات حقوق الإنسان. والحل هنا بسيط جدًا – العودة إلى الاقتراح الأصلي للمفوضية الأوروبية الذي ينص على قائمة واضحة للسيناريوهات التي يُعدّ فيها استخدام أداة ما للذكاء الاصطناعي عالي المخاطر”.

خلفية

إن منظمة العفو الدولية، بصفتها جزءًا من ائتلاف لمنظمات المجتمع المدني بقيادة شبكة الحقوق الرقمية الأوروبية (EDRi)، ما برحت تدعو لوضع لوائح خاصة بالذكاء الاصطناعي في الاتحاد الأوروبي بما يحمي ويعزز حقوق الإنسان، ومن ضمنها حقوق النازحين واللاجئين والمهاجرين.

ومن المقرر أن تجري مفاوضات ثلاثية الأطراف رفيعة المستوى تُعرف بالثلاثيات (Trilogues) بين البرلمان الأوروبي، ومجلس الاتحاد الأوروبي (الذي يمثل الدول الأعضاء السبع والعشرين في الاتحاد الأوروبي)، والمفوضية الأوروبية وذلك في شهر أكتوبر/تشرين الأول، بهدف تبني قانون الذكاء الاصطناعي بحلول نهاية التفويض الحالي للاتحاد الأوروبي في 2024.