تنظيم الذكاء الاصطناعي: مهمة مُلحة ولكنها صعبة

بقلم ديفيد نولان وهاجرة مريم ومايكل كلاينمان، من برنامج التكنولوجيا في منظمة العفو الدولية  

شهد عام 2023 حقبة جديدة من “صخب الذكاء الاصطناعي”، ما دفع صانعي السياسات بشكل سريع إلى خوض نقاشات حول السلامة فيما يخص تكنولوجيات الذكاء الاصطناعي الجديدة وتنظيمها. وبدأ العام المحموم في مجال التكنولوجيا بإطلاق برنامج “شات جي بي تي” (ChatGPT) في أواخر عام 2022، وانتهى بالتوصل إلى اتفاق هام حول قانون الذكاء الاصطناعي في الاتحاد الأوروبي. وفي حين أن النص النهائي للقانون سيبقى قيد المناقشة في الاجتماعات التقنية خلال الأسابيع المقبلة، تشير الدلائل المبكرة إلى أن أول “لائحة قواعد للذكاء الاصطناعي” يعتمدها العالم الغربي تسعى إلى حد ما لحماية الناس من أضرار الذكاء الاصطناعي، ولكنها لا تزال قاصرة في عدد من المجالات الحاسمة، فهي لا تضمن حماية حقوق الإنسان، خاصة للفئات الأكثر تهميشًا. جاء هذا بعد فترة وجيزة من استضافة حكومة المملكة المتحدة للقمة الأولى حول السلامة في مجال الذكاء الاصطناعي في نوفمبر/تشرين الثاني 2023، حيث اجتمع قادة عالميون وجهات صناعية فاعلة اساسية ومجموعات مختارة من المجتمع المدني، لمناقشة مخاطر الذكاء الاصطناعي. وعلى الرغم من أن الزخم والنقاش المتزايدين حول حوكمة الذكاء الاصطناعي هو أمر مرحب به وتشتد الحاجة إليه بصورة عاجلة، فإن السؤال الرئيسي لعام 2024 هو ما إذا كانت هذه النقاشات ستولّد التزامات ملموسة، وتركز على أهم مخاطر الذكاء الاصطناعي الماثلة اليوم، وما يكتسي أهمية حاسمة، ما إذا كانت هذه النقاشات ستُترجَم إلى مزيد من الإجراءات المهمة في ولايات قضائية أخرى. 

وفي حين أن التطورات التي يشهدها الذكاء الاصطناعي تقدم فرصًا وفوائد جديدة، يجب ألا نتجاهل المخاطر الموثقة التي تشكلها أدوات الذكاء الاصطناعي عند استخدامها كوسيلة للتحكم المجتمعي والمراقبة الجماعية والتمييز. ففي كثير من الأحيان، يتم تدريب أنظمة الذكاء الاصطناعي عبر تغذيتها بكميات هائلة من البيانات الخاصة والعامة التي تعكس الظلم المجتمعي، مما يؤدي في كثير من الأحيان إلى نتائج متحيزة وتفاقم أوجه عدم المساواة. فمن أدوات الشرطة التنبؤية إلى الأنظمة المؤتمتة المستخدمة في صنع القرار في القطاع العام لتحديد من يمكنه الحصول على الرعاية الصحية والمساعدة الاجتماعية، إلى مراقبة حركة المهاجرين واللاجئين، قوّض الذكاء الاصطناعي بشكل صارخ ومستمر حقوق الإنسان للفئات الأكثر تهميشًا في المجتمع. كما أثرت أشكال أخرى من الذكاء الاصطناعي، مثل خوارزميات الكشف عن الاحتيال، بشكل غير متناسب على الأقليات العرقية، التي عانت من مشاكل مالية حادة كما سبق أن وثقت منظمة العفو الدولية، في حين استخدمت الشرطة وقوات الأمن تكنولوجيا التعرف على الوجه لاستهداف المجتمعات المصنفة على أساس العرق وترسيخ نظام الأبارتايد الإسرائيلي.  

إذًا، ما الذي يجعل تنظيم الذكاء الاصطناعي معقدًا ومثيرًا للتحديات؟ بدايةً، هناك الطبيعة الغامضة لمصطلح الذكاء الاصطناعي نفسه، مما يجعل الجهود المبذولة لتنظيم هذه التكنولوجيا أكثر تعقيدًا. فلا يوجد إجماع واسع النطاق على تعريف الذكاء الاصطناعي لأن المصطلح لا يشير إلى تكنولوجيا مفردة، بل يلخص عددًا لا يحصى من التطبيقات والوسائل التكنولوجية. إنَّ استخدام أنظمة الذكاء الاصطناعي في العديد من المجالات المختلفة عبر القطاعين العام والخاص، يعني أنَّ عددًا كبيرًا من أصحاب المصلحة المتنوعين يشارك في تطويرها ونشرها، مما يعني أن هذه الأنظمة هي نتاج العمل والبيانات والبرامج والمدخلات المالية، ويجب أن تتعامل أي لائحة تنظيمية مع الأضرار المتعلقة بكامل سلسلة الإنتاج هذه وصولًا إلى المستخدم النهائي. علاوة على ذلك، لا يمكن اعتبار هذه الأنظمة بصورة دقيقة أجهزة أو برامج، بل إن تأثيرها يعود إلى السياق الذي يتم فيه تطويرها وتنفيذها، ويجب أن تأخذ اللوائح التنظيمية ذلك في الاعتبار.  

مع دخولنا عام 2024، حان الوقت ليس فقط لضمان أن تكون أنظمة الذكاء الاصطناعي مبنية في تصميمها على احترام الحقوق، ولكن أيضًا لضمان أن أولئك الذين يتأثرون بهذه التكنولوجيات يشاركون بشكل فعلي في صنع القرار بشأن كيفية وجوب تنظيم تكنولوجيا الذكاء الاصطناعي، وليس ذلك فحسب، بل أيضًا أن تظهر تجاربهم باستمرار في هذه المناقشات وتكون محورية فيها.

وإلى جانب العملية التشريعية للاتحاد الأوروبي، وضعت المملكة المتحدة والولايات المتحدة وغيرها، خرائط طريق ونهجًا مختلفة لتحديد المخاطر الرئيسية لتكنولوجيات الذكاء الاصطناعي الحالية، وكيف تعتزم التخفيف من هذه المخاطر. وفي حين أن هناك العديد من التعقيدات في هذه العمليات التشريعية، فإن هذا لا ينبغي أن يؤخر أي جهود لحماية الناس من الأضرار الراهنة والمستقبلية للذكاء الاصطناعي، وهناك عناصر حاسمة نعلم في منظمة العفو الدولية أنه يجب تضمينها في أي نهج تنظيمية مقترحة. يجب أن تكون اللوائح التنظيمية ملزمة قانونًا وأن تركز على الأضرار الموثقة بالفعل التي لحقت بالأشخاص الذين تؤثر عليهم هذه الأنظمة. لا توفر الالتزامات والمبادئ المتعلقة بالتطوير والاستخدام “المسؤوليْن” للذكاء الاصطناعي -التي تشكّل جوهر الإطار التنظيمي الحالي المؤيد للابتكار المتبع في المملكة المتحدة- حماية كافية ضد مخاطر التكنولوجيا الناشئة، ويجب وضعها على أساس قانوني.  

وبالمثل، يجب أن تتضمن أي لوائح تنظيمية آليات مساءلة أوسع نطاقًا، تتجاوز التقييمات الفنية التي تدعمها الصناعة. وفي حين أن تضمين مثل هذه الآليات قد يكون مفيدًا ضمن نطاق أي مجموعة أدوات تنظيمية، لا سيما في الاختبارات لإيجاد تحيزات الخوارزميات، لا يمكن استبعاد إمكانية وضع محددات ومحظورات فيما يخص أنظمة تتعارض جوهريًا مع حقوق الإنسان، بغض النظر عن المزاعم عن مدى دقتها أو فعاليتها التقنية.   

ويجب على الآخرين التعلم من عملية الاتحاد الأوروبي، وضمان عدم وجود ثغرات تمكّن الجهات الفاعلة في القطاعين العام والخاص من التحايل على الالتزامات التنظيمية، وإزالة أي إعفاءات للذكاء الاصطناعي عند استخدامه في إطار الأمن القومي أو إنفاذ القانون أمر بالغ الأهمية لتحقيق ذلك. ومن المهم أيضًا أنه في الحالات التي تقيد فيها اللوائح التنظيمية المستقبلية استخدام أنظمة ذكاء اصطناعي محددة، أو تحظره، في إحدى الولايات القضائية، ألا تسمح أي ثغرة قانونية أو فجوة تنظيمية بتصدير نفس الأنظمة إلى بلدان أخرى حيث يمكن استخدامها للإضرار بحقوق الإنسان للفئات المهمشة. ولا يزال ذلك يشكّل فجوة صارخة في مقاربات المملكة المتحدة والولايات المتحدة والاتحاد الأوروبي، لأنها لا تأخذ بعين الاعتبار اختلالات القوى العالمية فيما يتعلق بهذه الكنولوجيات، وخاصة تأثيرها على المجتمعات التي تشكل أغلبية العالم، والتي لا يتم تمثيل أصواتها في هذه المناقشات. وقد وُثقت بالفعل حالات استغلال عمّال من المتعاقدين الخارجيين في كينيا وباكستان من قبل شركات تطوّر أدوات الذكاء الاصطناعي.  

مع دخولنا عام 2024، حان الوقت ليس فقط لضمان أن تكون أنظمة الذكاء الاصطناعي مبنية في تصميمها على احترام الحقوق، ولكن أيضًا لضمان أن أولئك الذين يتأثرون بهذه التكنولوجيات يشاركون بشكل هادف في صنع القرار بشأن كيفية وجوب تنظيم تكنولوجيا الذكاء الاصطناعي، وليس ذلك فحسب، بل أيضًا أن تظهر تجاربهم باستمرار في هذه المناقشات وتكون محورية فيها. نحن بحاجة إلى أكثر من مجرد كلمات جوفاء من المشرعين، نحتاج إلى لوائح تنظيم ملزِمة تحاسب الشركات وغيرها من الجهات الفاعلة الأساسية في الصناعة، وتضمن ألا تأتي الأرباح على حساب حماية حقوق الإنسان. يجب أن تُكمّل جهود الحوكمة الدولية والإقليمية والوطنية بعضها البعض وتحفزها، ويجب ألا تأتي النقاشات العالمية على حساب لوائح تنظيمية وطنية هادفة أو معايير تنظيمية ملزمة – فهذه العناصر لا يستبعد كل منها الآخر. هذا هو المستوى الذي تتحقق فيه المساءلة – ينبغي أن نتعلم من المحاولات السابقة لتنظيم التكنولوجيا، مما يعني ضمان استحداث آليات متينة للسماح لضحايا انتهاكات الحقوق الناتجة عن الذكاء الاصطناعي بالسعي لتحقيق العدالة.