spot_img
spot_img

منشورات أخرى

الذكاء الاصطناعي وحقوق الإنسان: وثيقة إرشادية

المقدمة في عام 2023، كان هناك انفجار في الاهتمام بالتطورات...

رصد انتهاكات حقوق الإنسان في أماكن الاحتجاز في لبنان: الحرمان من كل شيء 

(الإنجليزية) This report is also available in: English رصد انتهاكات...

تقرير زيارة سجني طرابلس وزحلة: الوضع مروّع

(الإنجليزية) This report is also available in: English تقرير زيارة...

التقرير السنوي للهيئة الوطنية لحقوق الإنسان المتضمنة لجنة الوقاية من التعذيب للعام 2023

(الإنجليزية) This article is also available in: English حماية وتعزيز حقوق الإنسان...

الذكاء الاصطناعي وحقوق الإنسان: وثيقة إرشادية

المقدمة

في عام 2023، كان هناك انفجار في الاهتمام بالتطورات والوظائف الجديدة لتقنيات الذكاء الاصطناعي. كان إطلاق ChatGPT-4، وهي أداة يمكنها توليف النص وتوليده، بمثابة معلم خاص حفز خطاب وسائل الإعلام السائدة حول كيفية تحويل الذكاء الاصطناعي لجميع القطاعات والقوى العاملة والوصول إلى الخدمات الحكومية وتجاربنا مع منصات الإنترنت في السنوات القادمة. ومع ذلك، فإن تطوير ChatGPT-4 وتقنيات الذكاء الاصطناعي التوليدية الأخرى هو أيضًا نقطة منطقية في مسار الذكاء الاصطناعي، والتي تنبأ بها خبراء التكنولوجيا والأكاديميون ومتخصصو حقوق الإنسان والصحفيون وغيرهم لسنوات عديدة. مثل العديد من التقنيات التي سبقته، كان الذكاء الاصطناعي محور اهتمام كبير من وسائل الإعلام والخبراء، في حين أن بعضه مشروع، فإن الكثير منه مربك ومثير للقلق ومضلل. باعتبارنا هيئة وطنية لحقوق الإنسان، فمن المهم أن نجهز أنفسنا لتقديم تحليلات دقيقة ومستنيرة لقضايا الذكاء الاصطناعي، ووضع حماية وتعزيز حقوق الإنسان في مركز مساهماتنا في هذا المجال.

تهدف وثيقة التوجيه هذه إلى تقديم لمحة عامة عن مجموعة الأبحاث والمواقف السياسية والحملات والمناصرة والتقاضي الحالية بشأن القضايا التي تتقاطع مع الذكاء الاصطناعي وحقوق الإنسان. وفي حين يتطور الذكاء الاصطناعي باستمرار، فإن العمليات والممارسات التي تقوم عليها التكنولوجيا، والتي تؤدي إلى أضرار معينة بحقوق الإنسان تظل ثابتة إلى حد ما، وبالتالي يجب أن تظل مواقفنا الحالية هي المبادئ الأساسية التي نتعامل بها مع هذه التطورات التكنولوجية والتأثيرات المتزامنة على حقوق الإنسان.

مسرد المصطلحات

تُستخدم العديد من المصطلحات للإشارة إلى أنواع مختلفة من الذكاء الاصطناعي أو مجالات الدراسة داخل الذكاء الاصطناعي. في هذا القسم، نوضح كيف تُستخدم هذه المصطلحات بشكل شائع ونستعين بالتعريفات المستخدمة في التقارير التقنية. في عالم الذكاء الاصطناعي والسياسات، لا يزال تعريف الذكاء الاصطناعي مثيرًا للجدال. وهذه التعريفات ليست نهائية بأي حال من الأحوال.

 

الذكاء الاصطناعي

Artificial Intelligence (AI)

الذكاء الاصطناعي هو أي تقنية أو نظام يسمح لأجهزة الكمبيوتر بمحاكاة السلوك البشري.
التعلم الآلي

 

Machine Learning (ML)

مجال فرعي من الذكاء الاصطناعي. وهي تقنية لتزويد الذكاء الاصطناعي بالقدرة على التعلم من البيانات لأداء مهمة (سواء كانت محددة أو عامة)، وعند نشرها، تستوعب بيانات جديدة وتغير نفسها بمرور الوقت.
التعلم العميق مجال فرعي من الذكاء الاصطناعي والتعلم الآلي. نوع من التعلم الآلي يتميز بـ (1) استخدام الشبكات العصبية الاصطناعية (نوع من الخوارزميات التي تحاول محاكاة التفكير البشري) و(2) القدرة على استيعاب كميات هائلة من البيانات والتعلم منها. تُستخدم عادةً لمهام مثل أدوات التعرف على الصور والصوت.
خوارزمية الخوارزمية عبارة عن قائمة من القواعد الرياضية التي تحل مشكلة. يجب أن تكون القواعد بالترتيب الصحيح. الخوارزميات هي اللبنات الأساسية للذكاء الاصطناعي والتعلم الآلي. إنها تمكن تقنيات الذكاء الاصطناعي والتعلم الآلي من التدريب على البيانات الموجودة بالفعل حول مشكلة ما حتى تتمكن من حل المشكلات عند العمل ببيانات جديدة.
نظام اتخاذ القرار الخوارزمي نظام خوارزمي يستخدم في (دعم) الخطوات المختلفة لعمليات صنع القرار.
نظام اتخاذ القرار الآلي  نظام اتخاذ القرار الخوارزمي حيث لا يشارك أي إنسان في عملية اتخاذ القرار. يتم اتخاذ القرار بواسطة النظام وحده.
نظام اتخاذ القرار شبه الآلي نظام اتخاذ القرار الخوارزمي حيث يشارك الإنسان في عملية اتخاذ القرار، أو يتم استخدام الخوارزمية كدعم للقرار. غالبًا ما تُستخدم هذه الأنظمة لاختيار الحالات للمراجعة البشرية أو للمساعدة في عملية اتخاذ القرار من خلال توفير المعلومات و/أو النتائج المقترحة.
التكنولوجيا المساعدة (AT) أجهزة أو برامج مضافة إلى نظام أو متصلة به تعمل على زيادة إمكانية الوصول للفرد. ومن الأمثلة على ذلك شاشات برايل، وقارئات الشاشة، وبرامج تكبير الشاشة، وأجهزة تتبع العين
الوكيل في برمجة الكمبيوتر، الوكيل هو سمة مرتبطة بشيء آخر. في الأنظمة الخوارزمية، قد ترتبط سمة تبدو محايدة (مثل الرمز البريدي) بسمة محمية (الجنسية أو العرق).
أدوات تقييم المخاطر المعالجة شبه الآلية أو الكاملة للبيانات من أجل التقييم الإحصائي و/أو النمذجة التنبؤية لتحديد المخاطر التي قد تنتج عن حدوث نتيجة ما، سواء على مستوى الفرد أو المجتمع، أو على مستوى حدث أو سيناريو محدد.
أدوات الشرطة التنبؤية المعالجة شبه الآلية أو الكاملة للبيانات من أجل التقييم الإحصائي و/أو النمذجة التنبؤية لتحديد مخاطر النشاط الإجرامي أو “الجريمة”، التي من المرجح أن يرتكبها شخص أو أكثر و/أو في أماكن و/أو أوقات معينة لإعلام تدخلات إنفاذ القانون، واستراتيجيات وتكتيكات الوقاية من الجريمة، وصنع القرار في مجال العدالة الجنائية.
نماذج الأساس نموذج الذكاء الاصطناعي الذي يتم تدريبه على بيانات واسعة النطاق، مصمم لعمومية الناتج، ويمكن تكييفه مع مجموعة واسعة من المهام المميزة. يستخدم الكثيرون هذا المصطلح للإشارة إلى نماذج الذكاء الاصطناعي للأغراض العامة.
أدوات التسجيل الاجتماعي استخدام الذكاء الاصطناعي وأشكال أخرى من اتخاذ القرارات الخوارزمية لتقييم وتصنيف الأشخاص لإجراء تقييمات أو قرارات معينة بشأنهم. عادةً ما يكون نظام التقييم أو التصنيف هذا تنبؤيًا – على سبيل المثال، قد يتم برمجته لاستنتاج احتمالية العثور على عمل من قبل الباحث عن عمل، أو مدى احتمالية سداد العميل لقرض. يعتمد على معلومات واسعة النطاق مثل هوية الشخص (مثل العمر والجنس والعرق والانتماء العرقي)، والسلوك الماضي (مثل تاريخ العمل أو السجلات الجنائية)، أو الوضع الاجتماعي والاقتصادي (مثل دخله ومستواه التعليمي).3
مشكلة التوافق في جوهرها، تشير مشكلة التوافق إلى حقيقة مفادها أن الآلات ليس لديها نفس الأهداف/القيم التي يتمتع بها البشر. وللتوسع في هذا، فإن الخطر يكمن في أن الذكاء الاصطناعي التوليدي قد يؤدي إلى ذكاء عام اصطناعي، وبالتالي فإن الذكاء الاصطناعي العام – أي النظام الذي يكون في معظم أو كل النواحي كما لو لم يكن أكثر ذكاءً من أي إنسان أو مجموعة من البشر – قد يشكل في النهاية حجمًا مماثلًا من التهديد مثل تغير المناخ، أو الحرب النووية، أو الأوبئة. وغالبًا ما يشار إلى هذا باسم مشكلة التوافق – كيف يمكننا ضمان أن أي نظام من هذا القبيل يتماشى مع الأهداف البشرية ولا يرى البشر بدلاً من ذلك على أنهم في أفضل الأحوال مصدر إلهاء، أو في أسوأ الأحوال تهديد لنفسه. وقد أدت المخاوف من هذا الخطر إلى دعوات متقطعة لإبطاء أو إيقاف أبحاث الذكاء الاصطناعي التوليدي تمامًا، على الرغم من أن هذا مثير للجدال تمامًا.
 الذكاء الاصطناعي الضيق (ANI)  أنظمة الذكاء الاصطناعي المصممة للتركيز على أداء مهمة محددة. فهي تأخذ عددًا من المدخلات من أجل إجراء عملية حسابية وتوليد مخرجات محددة. يمكن للذكاء الاصطناعي الضيق أن يتعلم ويؤدي أداءً أفضل بمرور الوقت ولكن عمله الأساسي وهدفه ثابتان. تُستخدم عادةً لتحليل البيانات والتنبؤ. برامج المساعدة الصوتية، والروبوتات، وأدوات الترجمة عبر الإنترنت، والسيارات ذاتية القيادة، ونتائج محركات البحث كلها أمثلة على الذكاء الاصطناعي الضيق. ويشار إليه أحيانًا أيضًا باسم “الذكاء الاصطناعي التقليدي”.
الذكاء الاصطناعي العام (AGI) على النقيض من الذكاء الاصطناعي الضيق، يمكن للذكاء الاصطناعي العام إنجاز أي مهمة (وليس مجرد مهمة واحدة) على مستوى بشري أو خارق للطبيعة. الذكاء الاصطناعي التوليدي ليس مثالاً للذكاء الاصطناعي العام على الرغم من أن بعض التقارير الإعلامية قد تشير إلى ذلك. لا توجد خوارزمية اليوم مؤهلة لتكون ذكاءً عامًا اصطناعيًا. ومع ذلك، قد يثبت الذكاء الاصطناعي التوليدي أنه خطوة نحو الذكاء الاصطناعي العام، ولكن هذا لا يزال غير واضح.
الذكاء الاصطناعي للأغراض العامة نظام الذكاء الاصطناعي الذي يمكن استخدامه وتكييفه مع مجموعة واسعة من التطبيقات التي لم يتم تصميمه لها عمدًا وبشكل خاص.
الذكاء الاصطناعي التوليدي مصطلح شامل يستخدم لوصف مجموعة من نماذج خوارزمية “التعلم العميق” التي يتم تدريبها على كميات هائلة من البيانات، ثم استخدام بيانات التدريب هذه لتوليد محتوى جديد، بما في ذلك الصوت والصور والنصوص وحتى أكواد الكمبيوتر استجابةً لمطالبات المستخدم. من المهم أن نلاحظ أن هذه الأنظمة لا تقوم ببساطة بإعادة إنتاج بيانات التدريب الخاصة بها. ومن السمات المميزة للذكاء الاصطناعي التوليدي أنه يمكنه إنتاج محتوى لا يمكن تمييزه غالبًا عن المحتوى الذي ينتجه الإنسان، ويمكنه القيام بذلك بتكلفة زهيدة وبسرعة. كما أثبتت أدوات الذكاء الاصطناعي التوليدي فعاليتها في تلخيص وحتى تحليل المحتوى الموجود. وهذا يزيد من فائدتها كأدوات إنتاجية، بينما يثير أيضًا المخاوف بشأن قدراتها المحتملة في المراقبة (على سبيل المثال قدرتها المحتملة على تحليل وتلخيص كميات كبيرة من لقطات كاميرات المراقبة، وما إلى ذلك)
التعلم الخاضع للإشراف في التعلم الخاضع للإشراف، يتم تدريب الذكاء الاصطناعي عن طريق تغذيته بالمدخلات والمخرجات المصنفة. يتعلم النظام كيفية إيجاد الأنماط والعلاقات بين المدخلات والمخرجات المصنفة، ويكون لدى المطور هدف أو غاية محددة للنظام للتنبؤ بها أو تصنيفها. وبهذه الطريقة، يبدأ نظام الذكاء الاصطناعي في إجراء تنبؤاته الخاصة بناءً على الارتباطات التاريخية بين المدخلات والمخرجات المحددة في بيانات التدريب.
التعلم غير الخاضع للإشراف في التعلم غير الخاضع للإشراف، تكتشف أنظمة الذكاء الاصطناعي أنماطًا أو علاقات في بيانات غير مُسمَّاة حيث لا “يشير” البشر بنشاط إلى نظام الذكاء الاصطناعي حول الهدف أو الغرض من التحليل
خوارزمية التعلم الذاتي تمنح خوارزميات التعلم الذاتي الأنظمة الخوارزمية القدرة على التعلم بشكل مستقل وذاتي بمرور الوقت، وإجراء تغييرات على كيفية عملها دون أن يتم برمجة هذه التغييرات صراحةً من قبل البشر.
الخوارزميات التنبؤية استخدام تقنيات الذكاء الاصطناعي للتنبؤ بمستقبل شخص أو حدث أو أي نتيجة أخرى.
التسلل الوظيفي يحدث عندما يتم استخدام نظام أو بيانات لوظيفة أخرى غير تلك التي تم تصميمها أو قصدها.
الاستقلالية الزاحفة يحدث عندما يصبح التمييز الدقيق بين النتائج التي يقودها الإنسان والنتائج التي يقودها الآلة غير واضح ويميل تدريجيًا نحو الأخيرة.
السلوكيات الناشئة يحدث عندما تكتسب أنظمة الذكاء الاصطناعي وظائف جديدة دون تدخل/مبادرة بشرية وليست جزءًا من تصميمها الأصلي.
العدالة هناك العديد من الأساليب والمناهج والتعريفات المقترحة لتضمين العدالة في أنظمة الذكاء الاصطناعي من أجل تجنب التحيز الخوارزمي. وكلها تقوم على فكرة القضاء على التحيز أو التمييز أو التفضيل لأفراد أو مجموعات معينة بناءً على سمة في مخرجات نظام الذكاء الاصطناعي. وعلى الرغم من أن أساليب العدالة تعتبر عنصرًا مهمًا في إزالة التحيز في أنظمة الذكاء الاصطناعي، فإننا نعتبرها عمومًا أداة محدودة في حد ذاتها.
التقنيات البيومترية (المراقبة) تقنيات المراقبة المستخدمة لتحديد خصائص جسم الإنسان باستخدام علامات بيولوجية فريدة مثل بصمات الأصابع وشبكية العين والقزحية وأنماط الصوت وأنماط الوجه وقياسات اليد.
خوارزمية الصندوق الأسود نظام خوارزمي يمكن من خلاله عرض المدخلات والمخرجات، ولكن العمليات الداخلية غير معروفة. ينطبق هذا المصطلح بشكل أفضل على خوارزميات التعلم الآلي الأكثر تعقيدًا.
الحوسبة البنية الأساسية للأجهزة والبرامج المطلوبة لإنشاء أنظمة الذكاء الاصطناعي بما في ذلك البيانات والشرائح والخوادم
تقنية التعرف على الوجه (FRT) تقنية التعرف على الوجه Facial recognition technology -FRT هو مصطلح شامل يستخدم لوصف مجموعة من التطبيقات التي تؤدي مهمة محددة باستخدام وجه بشري للتحقق من هوية شخص ما أو تحديده. تقنية التعرف على الوجه هي واحدة من العديد من التقنيات البيومترية التي يتم نشرها من قبل الدول والكيانات التجارية عبر مجموعة واسعة من حالات الاستخدام.
الدقة في مجال الذكاء الاصطناعي، تُستخدم مقاييس الدقة عمومًا لتحديد عدد المخرجات “الصحيحة” التي ينتجها النظام سواء كانت هذه المخرجات عبارة عن تنبؤات أو تعريفات أو حسابات أبسط (كنسبة مئوية من إجمالي عدد المخرجات التي تم إجراؤها)
الموثوقية استقرار نظام الذكاء الاصطناعي وقدرته على الحفاظ على الأداء في البيئات الجديدة أو سيناريوهات الحالات القصوى. وهو أمر ذو صلة خاصة بالمناقشات العسكرية والأمنية الوطنية حول الذكاء الاصطناعي.
القدرة على التفسير تصميم نظام الذكاء الاصطناعي بحيث يكون الإنسان قادرًا على فهم وشرح الطريقة التي يعمل بها النموذج (على عكس فكرة نظام الصندوق الأسود) والاحتفاظ بالإشراف على عمله. إن القدرة على التفسير هي مجال ناشئ وهناك أيضًا طرق أخرى مماثلة تهدف إلى زيادة الشفافية في كيفية عمل نظام الذكاء الاصطناعي، مثل “القدرة على التفسير”
التصنيف في اللائحة العامة لحماية البيانات، يوصف التصنيف بأنه المعالجة الآلية للبيانات الشخصية لتقييم الجوانب الشخصية للشخص مثل أدائه في العمل، والوضع الاقتصادي، والصحة، والتفضيلات أو الاهتمامات الشخصية، والسلوك، والموقع، والحركة

 

تعريف الذكاء الاصطناعي

لا يوجد إجماع واسع النطاق على تعريف الذكاء الاصطناعي لأن المصطلح لا يشير إلى تقنية مفردة بل يشمل عددًا لا يحصى من التطبيقات والأساليب التكنولوجية. ستشير معظم التعاريف الرسمية إلى مجموعة من العمليات التي تعتمد على البيانات والتي تمكن أجهزة الكمبيوتر من تنفيذ مهام محددة للغاية أو أكثر عمومية، مثل اتخاذ القرار أو حل المشكلات، بدلاً من البشر أو لمساعدتهم.[1]

في قانون الذكاء الاصطناعي للاتحاد الأوروبي[2]، التعريف المقترح هو: “نظام الذكاء الاصطناعي” يعني نظامًا قائمًا على الآلة مصمم للعمل بمستويات متفاوتة من الاستقلالية والذي قد يُظهر القدرة على التكيف بعد النشر، والذي، لأغراض صريحة أو ضمنية، يستنتج، من المدخلات التي يتلقاها، كيفية توليد مخرجات مثل التنبؤات أو المحتوى أو التوصيات أو القرارات التي يمكن أن تؤثر على البيئات المادية أو الافتراضية. كلما أصبحت تقنيات الذكاء الاصطناعي أكثر تطورًا، كلما اعتُبرت أكثر تشابهًا مع الذكاء البشري، ومع ذلك، فمن المقبول عمومًا أن الذكاء الاصطناعي بعيد كل البعد عن تحقيق النطاق الكامل للقدرات الواعية.

يمكن أن يكون مصطلح الذكاء الاصطناعي نفسه مضللًا ويشير إلى أن الآلات يمكن أن تعمل “وفقًا لنفس مفاهيم وقواعد الذكاء البشري” التي لا تستطيع ذلك. إن الذكاء الاصطناعي لا يعمل فقط على تحسين جودة الحياة، بل إنه يعمل من خلال تنفيذ مجموعة من القواعد التي يبرمجها البشر في الآلة ويكمل هذه المهمة بشكل متكرر لإنتاج النتيجة التي صممت لتحقيقها بشكل مثالي. بعبارة أخرى، يحدد البشر أين يجب استخدام الذكاء الاصطناعي، ولأي هدف نهائي، والبيانات التي يجب أن يستمد منها وكيف يجب أن يعمل بالتزامن مع صنع القرار البشري.

تتبنى منظمات حقوق الإنسان، تعريفًا واسعًا للذكاء الاصطناعي من أجل استجواب التأثيرات على حقوق الإنسان للمكونات والممارسات والعمليات المختلفة التي تشكل أساس تقنيات الذكاء الاصطناعي، ومن أجل حماية مواقفها في المستقبل مع تطور التكنولوجيا. بالإضافة إلى ذلك، يفشل التعريف التقييدي في تضمين الأتمتة والرقمنة من الدرجة الأدنى، على الرغم من أنه من الأهمية بمكان فهم تأثيرات هذه لأنها غالبًا ما تضع الأساس لاستخدام أكثر تقدمًا للذكاء الاصطناعي وتُبنى باستخدام نفس العمليات القائمة على البيانات والتي تؤثر على حقوق الإنسان، مثل النتائج المتحيزة والتمييزية والمراقبة. يمكن تقسيم نهج منظمات حقوق الإنسان الدولية تجاه الذكاء الاصطناعي إلى ثلاثة مكونات رئيسية: (أ) دورة الحياة، (ب) النهج الاجتماعي التقني و(ج) سلسلة التوريد. وتشكل هذه المكونات مجتمعة تصورًا شاملاً للذكاء الاصطناعي ضروريًا لتحليل حقوق الإنسان.

دورة حياة الذكاء الاصطناعي

على مستوى أساسي، تعتمد أنظمة الذكاء الاصطناعي على مجموعة مشتركة من العمليات مثل جمع البيانات، ومعالجتها، وبناء النماذج، والتعرف على الأنماط. وتشكل هذه المكونات المختلفة أيضًا المراحل المتسلسلة عند تطوير نظام الذكاء الاصطناعي وتسمى “دورة حياة الذكاء الاصطناعي”. ومع ذلك، أن دورة الحياة يجب أن تبدأ في مرحلة التصور أو تعريف المشكلة، حيث يتم الاختيار بين تطوير أداة الذكاء الاصطناعي أم لا في المقام الأول. لا ينبغي للأدوات التي لا تتوافق مع حقوق الإنسان من حيث التصميم أن تتجاوز هذه المرحلة من دورة الحياة. وهناك العديد من الأنظمة التي تطالب منظمات حقوق الإنسان الدولية بحظرها أو منعها.

توضح دورة الحياة أن العيوب السابقة، أي العيوب أثناء مراحل جمع البيانات، في نظام الذكاء الاصطناعي يمكن أن يكون لها تأثيرات لاحقة، أي التأثيرات أثناء مراحل بناء النموذج ونشره. لن يتم منع هذه التأثيرات إلا إذا تم تنفيذ التدخلات التي تحمي الحقوق فقط في كل مرحلة من مراحل دورة الحياة.

ينطبق هذا بشكل واضح على المراحل التي يتم فيها جمع البيانات ودمجها وتحليلها واستخدامها لتدريب النموذج لأن العيوب في بيانات الإدخال ستظهر كعيوب في المخرجات. يتضمن أحد الأمثلة الكلاسيكية نشر تقنية التعرف على الوجه (FRT)، وهي شكل من أشكال المراقبة التي يقودها الذكاء الاصطناعي. أجرى الأكاديميان في مجال الذكاء الاصطناعي تيمنيت جيبرو وجوي بولامويني، وجد أن خوارزميات FRT تولد معدل خطأ أكبر للأشخاص – وخاصة النساء – من ذوي البشرة الملونة[3].

أظهرت دراسات أخرى أن FRT أقل دقة عند استخدامها مع الأشخاص من ذوي البشرة الملونة، ويرجع ذلك جزئيًا إلى أن بيانات التدريب المستخدمة في المراحل المبكرة من النظام غارقة في التحيزات والفجوات التي تعكس العنصرية البنيوية في المجتمع. ومع ذلك، هناك مشكلة أقدم مرتبطة بأنظمة التعرف على الوجه، وهي اعتمادها على المسح الجماعي لصور الأشخاص وشبههم دون معرفة وموافقة على هذه البيانات.

وهذا يعني أن المنتج النهائي هو نظام مراقبة جماعية من حيث التصميم، وبالتالي فهو غير متوافق مع الحق في الخصوصية ومبادئ حماية البيانات. مع كل من هاتين الملاحظتين، لا ينبغي أن يكون هناك شك في أن أي نشر للنظام من شأنه أن يؤدي إلى تفاقم الأضرار بحقوق الإنسان. في مثال آخر، كشف تريفور باجلين وكيت كروفورد عن الطرق التي تشوب بها عملية تصنيف ووضع علامات على الخصائص في بيانات الصور المستخدمة لتدريب أنظمة الذكاء الاصطناعي تفاوتات مقلقة في التمثيل لجهة الاستناد إلى قواعد عنصرية ونمطية وقائمة على كراهية النساء. [4]ومن خلال “علم الآثار لمجموعات البيانات”، وجد المؤلفون أن الصور التي تم تحليلها مقابل بعض أكبر مستودعات البيانات التي كانت مفيدة في تطوير أنظمة الذكاء الاصطناعي (مثل ImageNet) غالبًا ما تجد أن الأفراد ذوي البشرة الداكنة تم وضع علامات عليهم بأنهم “مجرمون” و”مشتبه بهم” ومصطلحات مهينة أخرى، في حين تم وصف النساء بأسلوب كراهية النساء المفرط في الجنس. إن خطوط أنابيب البيانات والتصنيفات مثل هذه هي في الأساس اللبنات الأساسية للعديد من أنظمة الذكاء الاصطناعي وتحمل هذه المنطق التمييزي إلى تلك الأنظمة. ومع ذلك، في حين أن البيانات المتحيزة أو المعيبة هي الضرر الأكثر شيوعًا في أنظمة الذكاء الاصطناعي، إلا أنها ليست الضرر الوحيد بأي حال من الأحوال. من نواحٍ عديدة، يمنع التركيز في مناقشات سياسات وأخلاقيات الذكاء الاصطناعي على البيانات المتحيزة فهمًا واسع النطاق لتأثيرات الذكاء الاصطناعي ويشير بشكل غير صحيح إلى أن حل التحيز من منظور فني سيقضي على جميع القضايا اللاحقة، في حين يمكن في الواقع استخدام أنظمة الذكاء الاصطناعي أيضًا كأدوات مراقبة، ويمكن نشرها بطرق تمييزية بغض النظر عن بيانات التدريب ويمكن أن يؤدي استخدامها إلى إضفاء الشرعية على الأتمتة أو استغلال البيانات الذي يتعارض بشكل أساسي مع أطر حقوق الإنسان. هذه ليست مشكلة بسيطة مع حل فني بسيط.

أثبتت أبحاث العديد من منظمات حقوق الإنسان حول التعرف على الوجه، أن التكنولوجيا تميل إلى الانتشار بانتشار أكبر في مجتمعات الملونين وحولها، وفي الواقع في المناطق التي تخضع بالفعل لممارسات شرطة غير متناسبة ومتحيزة (مثل التوقيف والتفتيش). لذلك، يجب أن يتجاوز أي تحليل لحقوق الإنسان للذكاء الاصطناعي الجانب الفني البحت إلى فهم اجتماعي تقني.

الإطار الاجتماعي التقني

إن النهج “الاجتماعي التقني” لفهم تأثيرات الذكاء الاصطناعي يعني النظر إلى التكنولوجيا ضمن شبكة من الحوافز السياسية والاجتماعية والاقتصادية والثقافية والعوامل البيئية التي تؤدي إلى تطورها في المقام الأول. والواقع أن استخدام كلمة “نظام” عند الإشارة إلى الذكاء الاصطناعي أو الأدوات الخوارزمية هو اختيار مقصود ويستخدم للإشارة إلى الجانب الاجتماعي التقني للتكنولوجيا. وتؤكد هذه الدراسة أن هذه الأدوات عبارة عن “ترتيبات معقدة وديناميكية للأشخاص والرموز” ولا يمكن تقليصها إلى عنصر التكنولوجيا المنفصل عن السياقات البشرية التي تعمل فيها.[5]

اكتسب هذا النهج أيضًا المزيد من الزخم السائد لدى منظمات وضع السياسات والمعايير، مثل المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة (NIST)، وبالتالي التأكيد على أهمية اتخاذ وجهة نظر اجتماعية تقنية مناسبة لتحدي القضايا المتعلقة بالذكاء الاصطناعي مثل التحيز والتمييز. [6]

إن تبني موقف اجتماعي تقني يعني أيضًا الاعتراف بأن التكنولوجيا ليست محايدة. فالحوافز والأنظمة البنيوية للسلطة والقمع وعدم المساواة في النظام وبيئات السياسة كلها تتجسد في التكنولوجيا ويعاد إنتاجها من خلال استخدامها. وكما هو الحال في مثال تقنيات التعرف على الوجه المشار اليه أعلاه، فإن هذا يعني الاعتراف بأنه في حين يمكن استخدام الذكاء الاصطناعي كأداة مراقبة، فإن المجتمعات المهمشة تخضع عمومًا لمراقبة أكبر من جانب الدولة. في حالة أنظمة اللجوء، يعني هذا فهم أن أدوات الذكاء الاصطناعي يمكن أن تتخذ قرارات إقصائية عندما تستخدمها سلطات الهجرة ولكن أيضًا الاعتراف بأن هذه الأدوات تُستخدم غالبًا لتشغيل سياسات كراهية الأجانب الأساسية. وفي حالة الرعاية الاجتماعية، يعني هذا الاعتراف بأن اتخاذ القرارات التي يقودها الذكاء الاصطناعي من المرجح أن يهمش المهمشين بالفعل، حيث كانت السياسات الاجتماعية تميل إلى مراقبة الفقراء وقد تم تصميمها إلى حد كبير بطرق عقابية. الذكاء الاصطناعي هو أداة تعمل على أتمتة وترسيخ وتوسيع نطاق البيئة ذاتها وهيكل الحوافز التي يتم نشرها فيها. وينعكس هذا أيضًا في الطريقة التي يمكن بها استخدام الذكاء الاصطناعي كمكون – مخفي أو غير مخفي – لمجموعات برامج أو أجهزة أوسع نطاقًا وليس دائمًا تقنية منفصلة. على سبيل المثال، قد يتم دمج تقنية التعرف على الوجه المستندة إلى البرامج في كاميرات المراقبة الموجودة مسبقًا، ويتم عرض الإعلانات المعززة خوارزميًا لمستخدمي الإنترنت على منصات التواصل الاجتماعي الأكبر حجمًا، ويمكن توسيع وظيفة طائرة بدون طيار مستقلة عن طريق ربطها ببرنامج مراقبة التهديدات بمساعدة الذكاء الاصطناعي. يمكن أن يصبح الذكاء الاصطناعي تدريجيًا مكونًا أكبر وأكثر أهمية لتكنولوجيا موجودة مسبقًا وفي هذه العملية يحول بشكل أساسي الوظائف أو الاستخدامات لهذه التكنولوجيا. غالبًا ما توصف هذه الظاهرة بأنها “استقلالية زاحفة”.

يفرض هذا الاتجاه تحديًا لجهود تنظيم الذكاء الاصطناعي وحوكمته والتي تضع أحيانًا تركيزًا غير مبرر على الذكاء الاصطناعي حيث يظهر كأداة منفصلة، ​​بدلاً من النظر إلى الذكاء الاصطناعي باعتباره وظيفة ناشئة في سياق التقنيات الأوسع والقائمة مسبقًا وتاريخها الاجتماعي والتقني.

سلسلة توريد الذكاء الاصطناعي

حتى الآن، تم وضع تقنيات الذكاء الاصطناعي على أنها تتألف من دورات حياة (العديد من العمليات التي تشكل أساس الذكاء الاصطناعي) وتعمل كأنظمة (الإطار الاجتماعي التقني للذكاء الاصطناعي). تجاوز حدود أدوات الذكاء الاصطناعي في البيئة المباشرة، يجب أيضًا وضع الذكاء الاصطناعي كجزء من سلاسل التوريد التي تنقل المواد اللازمة للمنتج النهائي. تعتمد أنظمة الذكاء الاصطناعي على سلاسل توريد معقدة تتألف كل منها من شبكة من الجهات الفاعلة المسؤولة عن الجوانب المختلفة لتدريب النظام وتطويره. [7]

غالبًا ما ترتبط هذه الجهات الفاعلة المختلفة معًا بتدفقات البيانات وتنتج معًا وظائف التكنولوجيا.[8] على سبيل المثال، قد يوفر مصنع أجهزة الكمبيوتر وحدات خادم لمزود سحابي لإنشاء مراكز بيانات لتوفير خدمات سحابية. قد يوفر مزود الخدمة السحابية مساحة خادم يتم “تأجيرها” لشركة ذكاء اصطناعي عميلة تنوي تصميم منتج ذكاء اصطناعي ونشره؛ قد يذهب مزود الخدمة السحابية إلى حد توفير واجهات برمجة التطبيقات (APIs) التي تسمح فعليًا لشركة العميل ببناء جوانب من وظائف منتج الذكاء الاصطناعي الخاص بها بناءً على كود مُجمَّع مسبقًا. وتُعد واجهات برمجة التطبيقات (API) مجموعة من القواعد التي تسمح لتطبيقات البرامج بالتواصل مع بعضها البعض.

قد تقدم شركة الذكاء الاصطناعي منتجها الخاص – على سبيل المثال، نظام متقدم للكشف عن الاحتيال – إلى وكالات إنفاذ القانون، أو حتى مقدمي التأمين و/أو الرعاية الصحية، تحت رعاية جلب المزيد من الكفاءة لعملهم. إذا كان نشر الذكاء الاصطناعي، على سبيل المثال، سيؤدي إلى التمييز المستمر لحقوق بعض المجموعات على حساب مجموعات أخرى، فسيكون لذلك آثار على سلسلة التوريد بأكملها. بموجب المبادئ التوجيهية للأمم المتحدة بشأن الأعمال التجارية وحقوق الإنسان، يتعين على الشركات ضمان إجراء العناية الواجبة الكافية بحقوق الإنسان لتحديد أي أضرار بحقوق الإنسان قد تظهر في أي مرحلة من مراحل سلسلة التوريد أو دورة حياة المنتج، وتوفير العلاج والتعويض عند تحديدها. فيما يلي مثال لسلسلة توريد الذكاء الاصطناعي حيث تم استخدام نموذج أساسي (مصطلح آخر للذكاء الاصطناعي للأغراض العامة) لبناء أداة توظيف الموارد البشرية. كما هو الحال مع دورة الحياة، يوضح الشكل المرئي العديد من النقاط التي يمكن أن تظهر فيها مشكلات تتعلق بالبيانات أو العملية والتي تؤدي بعد ذلك إلى عواقب لاحقة. على سبيل المثال، قد تؤدي التحيزات في البيانات الملكية المستخدمة كمدخلات في نموذج الأساس إلى اتخاذ قرارات توظيف متحيزة.

إن أنظمة الذكاء الاصطناعي هي نتاج للعمالة والبيانات والبرمجيات والمدخلات المالية مع العديد من طبقات المشتريات المضمنة في عملية الإنتاج. هذه ليست مشكلة جديدة وقد تصارعت الشركات مع الأضرار التي لحقت بسلاسل التوريد في المنبع والمصب عبر الصناعات لعقود من الزمن. ومع ذلك، في حالة الذكاء الاصطناعي، يمكن أن تكون سلاسل التوريد هذه مدفوعة بالكامل بالبيانات والبرمجيات بدلاً من أن تتكون من منتجات مادية، وغالبًا ما لا تكون خطية في التدفق بل من خلال شبكة من الجهات الفاعلة وحركات البيانات. وهذا يفتح فرصًا للتحكيم التنظيمي، ويمكّن الأنشطة عبر الحدود من الحدوث في الوقت الفعلي ولتنمو سلاسل التوريد إلى مقاييس غير مسبوقة. إن فهم الذكاء الاصطناعي من خلال هذا النهج الثلاثي الذي يتكون من دورة الحياة، والمنظور الاجتماعي التقني، وسلسلة التوريد يطرح بشكل طبيعي أسئلة حول مكان المسؤولية والمسؤولية.

إن المساءلة هي التي تحدد الحد من أضرار الذكاء الاصطناعي، وحيث ينبغي تنفيذ التدخلات من أجل القيام بذلك. وهذا يشكل تحديًا أساسيًا في العديد من الجهود التنظيمية للذكاء الاصطناعي.

تحديد الجهات الفاعلة في أنظمة الذكاء الاصطناعي

كما توضح سلسلة توريد أنظمة الذكاء الاصطناعي، هناك العديد من الجهات الفاعلة واللاعبين المشاركين في تصميم وتطوير ونشر هذه التقنيات. وفيما يلي الجهات الفاعلة الرئيسية:

المطورون: بشكل أساسي الشركات والمنظمات التي تستثمر الموارد في بناء أدوات الذكاء الاصطناعي بقصد توفير هذه الأدوات لأطراف أخرى لاستخدامها أو وضع الأداة موضع التنفيذ بأنفسهم.

المُنشرون: أولئك الذين يقودون تنفيذ أداة الذكاء الاصطناعي للأغراض النهائية المقصودة منها. ويمكن أن يكونوا جهات فاعلة خاصة أو عامة. وبموجب أطر قانون الذكاء الاصطناعي للاتحاد الأوروبي، يُطلق على المستخدمين اسم “المُنشرين” لأنظمة الذكاء الاصطناعي. ويمكن أن يكون المُنشرون جهات فاعلة من القطاع الخاص أو العام. ويمكن لكيان واحد مثل شركة أو وكالة من القطاع العام أن يكون مطورًا ومستخدمًا في نفس الوقت إذا كان لديه قدرات داخلية لبناء أدوات الذكاء الاصطناعي بنفسه.

المستخدمون: أي فرد أو كيان يتعامل مع نظام الذكاء الاصطناعي لتحقيق هدف محدد. يمكن أن يكون المُنشرون أيضًا مستخدمين، ولكن هذا المصطلح أكثر توسعًا ويشمل أيضًا الأفراد الذين يستخدمون الذكاء الاصطناعي في القدرات المهنية أو الشخصية. على سبيل المثال، يُعتبر الفرد الذي يستخدم تقنية المساعدة الصوتية على هاتفه مستخدمًا. يمكن أن يكون الاستخدام الفردي أيضًا أكثر سلبية حيث يتم دمج الذكاء الاصطناعي بشكل متزايد في المنتجات الاستهلاكية مثل أجهزة المنزل الذكي أو التطبيقات على هواتفنا.

الأفراد والمجتمعات المتأثرة: أولئك المتأثرون باستخدام الذكاء الاصطناعي بطرق حماية الحقوق وتعزيزها وانتهاكها. نحن نعمل مع الأفراد والمجتمعات المتأثرة باستخدام الذكاء الاصطناعي سواء حيث يكون التفاعل مع الذكاء الاصطناعي متعمدًا، على سبيل المثال الخوارزميات على منصات التواصل الاجتماعي، وحيث يتم استخدام الذكاء الاصطناعي على الأفراد، ولا يمكنهم إلغاء الاشتراك مثل استخدام FRT في الأماكن العامة أو استخدام الحكومة للخوارزميات لتحديد الأهلية لبرامج الحماية الاجتماعية.

المستثمرون: أي فرد أو كيان يوفر موارد مالية لتصميم وتطوير ونشر واستخدام نظام الذكاء الاصطناعي. يمكن أن يشمل هذا مجموعة من الجهات الفاعلة من الحكومات والشركات الكبرى ورأس المال الاستثماري والمستثمرين الأفراد والمنظمات الحكومية الدولية إلى المحسنين والمزيد.

مقدمو البنية التحتية: تعتمد أنظمة الذكاء الاصطناعي على القدرات الأساسية للبنية التحتية، والمعروفة أيضًا باسم “الحوسبة”، مثل تخزين البيانات ومعالجتها، والاستضافة السحابية، وبشكل متزايد، نماذج الأساس (انظر المصطلحات). هناك عدد قليل من اللاعبين الرئيسيين في سوق البنية التحتية ويزعم العديد من خبراء سياسة الذكاء الاصطناعي أن قوتهم الاحتكارية تعني أن عددًا قليلاً جدًا من اللاعبين يحتفظون بالوصول إلى الموارد المطلوبة لتطوير أنظمة الذكاء الاصطناعي واسعة النطاق، وبالتالي لديهم القدرة على تحديد المسار العام لتطوير الذكاء الاصطناعي.

نظرة عامة على القضايا المتقاطعة المتعلقة بالذكاء الاصطناعي وحقوق الإنسان

إن الضررين الأكثر توثيقًا لحقوق الإنسان الناجمين عن الذكاء الاصطناعي هما النتائج التمييزية والمراقبة غير القانونية (على الرغم من أن المراقبة هي أيضًا محرك لتطوير الذكاء الاصطناعي ونشره).

وفي دراسة الذكاء الاصطناعي من وجهة نظر حقوق الإنسان، تظل هذه الأضرار بارزة بشكل خاص خاصة وأن أنظمة الذكاء الاصطناعي هي تقنيات كثيفة البيانات والتي تفرض مخاطر المراقبة على الفور، وهي معرضة للخطأ والتحيز، ويتم اختبارها ونشرها بشكل غير متناسب على الأفراد والمجتمعات المهمشة. ومع ذلك، فإن الطيف الكامل للأضرار المحتملة للذكاء الاصطناعي أوسع من ذلك.

نستمد من الأدبيات الأكاديمية حول الأضرار الاجتماعية والتقنية للذكاء الاصطناعي وقاعدة الأدلة الخاصة بنا لتقديم نظرة عامة على مخاطر حقوق الإنسان المتعلقة بتطوير واستخدام الذكاء الاصطناعي. [9]

من الناحية الفنية، غالبًا ما تكون هذه الأضرار نتيجة مباشرة للمراحل المختلفة لدورة حياة الذكاء الاصطناعي، مثل معالجة البيانات، وتدريب النظام، والتعرف على الأنماط والمزيد. لذلك، حتى مع تحول تقنيات الذكاء الاصطناعي وتغيرها ونموها في الوظائف، يمكننا أن نتوقع بشكل معقول أن تظل هذه الأضرار تشكل المخاطر السائدة على حقوق الإنسان المرتبطة بالذكاء الاصطناعي. الجوانب الميكانيكية للذكاء الاصطناعي التي تؤدي إلى هذه الأضرار على حقوق الإنسان هي:

  • إعادة إنتاج التمييز في مخرجات النظام
  • السلوكيات الناشئة وغير المتوقعة
  • أتمتة الحكم/الإشراف البشري
  • عمليات صنع القرار الغامضة
  • الاستقلالية الزاحفة

ومع ذلك، فإن تأطيرنا الاجتماعي التقني المتوسع للذكاء الاصطناعي يتطلب منا أن نتجاوز هذه الميزات الميكانيكية بطريقتين.

أولاً، يجب علينا دائمًا فحص السياق المحدد الذي يتم فيه نشر الذكاء الاصطناعي والأصوات أو الجهات الفاعلة التي يتم منحها القدرة على تحديد المشاكل التي يجب تصميم الذكاء الاصطناعي لحلها.

ثانيًا، يجب أن نستجوب الذكاء الاصطناعي باعتباره سمة من سمات التاريخ الاجتماعي والبيئي والسياسي التي تشكل تطوره. في كثير من الحالات، يكون الذكاء الاصطناعي ببساطة أداة جديدة تؤدي إلى تفاقم مخاوف حقوق الإنسان القائمة أو اختلال التوازن الهيكلي في القوة. لذلك، يجب أن يستند أي عمل بشأن الذكاء الاصطناعي أيضًا إلى طريقة متعددة التخصصات وأن يجمع بين مجالات الخبرة المختلفة التي توجد في فرق مختلفة عبر الحركة سواء كانت إقليمية أو موضوعية.

حتى الآن، عملت منظمات حقوق الإنسان على عدد من قضايا الذكاء الاصطناعي. ويتراوح هذا من القضايا المتعلقة بالوصول إلى الرعاية الاجتماعية والتعليم والتوظيف وقضايا العدالة العرقية والمراقبة في الأماكن العامة وتقنيات الشرطة وإنفاذ القانون وتضخيم محتوى الكراهية عبر الإنترنت وخوارزميات التوصية على منصات وسائل التواصل الاجتماعي وعدم المساواة وحقوق العمل. في هذا القسم، نقدم لمحة موجزة عن كل قضية متقاطعة ومواقفنا السياسية الراسخة. كما نشير إلى المجالات قيد التطوير من أجل الاستجابة للتطورات الجديدة في تقنيات الذكاء الاصطناعي. وبينما نواصل تنمية مجموعة أعمالنا في مجال الذكاء الاصطناعي وحقوق الإنسان، فإننا نعتمد أيضًا بشكل كبير على شركائنا الموثوق بهم والمنظمات المجتمعية التي تعمل بلا هوادة لإعطاء صوت للمجتمعات المتضررة حتى نتمكن من التعبئة بسرعة للانخراط في جهود تنظيم الذكاء الاصطناعي والسعي إلى التغيير العاجل في مواجهة التكنولوجيا سريعة التطور.

التنميط والتحيز والحق في عدم التمييز

نظرًا للوظائف التنبؤية والتحليلية عالية الكفاءة، يتم استخدام الذكاء الاصطناعي بشكل متكرر كأداة للتصنيف والتصنيف عبر مجالات متنوعة بما في ذلك الإعلانات عبر الإنترنت المستهدفة خوارزميًا، والشرطة وإنفاذ القانون، وإدارة الهجرة واللجوء واختبار أهلية الضمان الاجتماعي، على سبيل المثال لا الحصر. وفي سياق إنفاذ القانون والعدالة الجنائية على وجه الخصوص، أدى التنميط العنصري والتحيزات المؤسسية إلى استخدام الذكاء الاصطناعي الذي يضاعف ويفاقم انتهاكات الحق في المساواة وعدم التمييز. غالبًا ما تعكس مدخلات البيانات المستخدمة لإنشاء وتدريب وتشغيل أنظمة الذكاء الاصطناعي التمييز التاريخي والنظامي والمؤسسي والمجتمعي الذي يؤدي إلى زيادة مراقبة الأشخاص والمجتمعات والمناطق الجغرافية العرقية ومراقبتها واستجوابها واحتجازها وسجنها وخضوعها للتفتيش والمضايقة من قبل الشرطة والاستخدام المفرط للقوة.

وقد أظهرت الأبحاث كيف تعمل أنظمة المراقبة الرقمية والتعرف على الوجوه على تكرار أشكال خطيرة من التمييز ضد الأقليات العرقية والإثنية بطرق تجرم وجودهم ذاته، والذين يتأثر العديد منهم بالفعل بآثار التمييز الهيكلي والضعف.

تمتد هذه المراقبة والتصنيف للمجتمعات المهمشة، وخاصة تلك التي تعيش في فقر، إلى إدارة برامج الحماية الاجتماعية في جميع أنحاء العالم. لقد جرمت السياسات الاجتماعية الفقر تاريخيًا واتخذت نهجًا عقابيًا بدلاً من نهج توسعي لتحقيق الحق في الضمان الاجتماعي. وكما هو الحال في سياق إنفاذ القانون، فإن أدوات الأتمتة المستخدمة في هذا السياق من شأنها أن تعيد إنتاج التأثيرات التهميشية المنهجية لهذه السياسات الاجتماعية.

لا تقتصر الأنظمة التي تعتمد على الذكاء الاصطناعي والتي تؤدي إلى التنميط والتمييز على تكنولوجيا الدولة بل إنها موجودة أيضًا في الفضاءات عبر الإنترنت. تستخدم الشركات بما في ذلك Google وMeta أنظمة خوارزمية لتحليل البيانات التي تجمعها عن مستخدميها، وتعيين ملفات تعريف مفصلة للأفراد والمجموعات، ثم التنبؤ باهتمامات الأشخاص وسلوكهم – بشكل أساسي استنتاج وإنشاء معلومات جديدة عن الأشخاص. ثم يتم بيع الوصول إلى هذه المعلومات للمعلنين الذين يرغبون في الوصول إلى مجموعة محددة من الأشخاص. لكي تكون جذابة قدر الإمكان للمعلنين المحتملين، تتنافس شركات التكنولوجيا الكبرى لتقديم أفضل التنبؤات حول الأشخاص، الأمر الذي يتطلب منها توسيع مجموعات البيانات الخاصة بها وتحسين هذه الخوارزميات التنبؤية التي تحرك نماذج أعمالها القائمة على الإعلان. على سبيل المثال، يتم تدريب الخوارزميات التي تدعم محرك البحث في Google وموجز الأخبار في Facebook بشكل مستمر على كميات هائلة من بيانات المستخدم لخدمة أغراض مختلفة عديدة، مثل استهداف الإعلانات وتسليمها، وتقديم نتائج البحث، والتوصية بمحتوى جديد، وحث المستخدمين على إنشاء محتوى جديد والتفاعل مع المحتوى الحالي.[10] وقد ثبت أن هذه الأنظمة الخوارزمية لها تأثيرات متتابعة يمكن أن تؤدي إلى عواقب سلبية خطيرة.

التأثيرات على حقوق الإنسان، بما في ذلك الحق في المساواة وعدم التمييز.وقد ثبت أيضًا أن خوارزميات وسائل التواصل الاجتماعي التي تعتمد على الذكاء الاصطناعي تفضل بشكل غير متناسب انتشار المحتوى الضار، بما في ذلك التضليل والمحتوى المحرض على العنف والدعوة إلى التمييز، مع تأثيرات ضارة بشكل خاص على المجتمعات المهمشة والمعرضة للخطر.27[11] تعد البيانات عنصرًا أساسيًا في أنظمة الذكاء الاصطناعي، وتأطير التحيز على أنه مشكلة بيانات بحتة هو وجهة نظر ضيقة للغاية. التحيز هو أيضًا نتيجة للسياق الاجتماعي لتطوير الذكاء الاصطناعي واستخدامه، بما في ذلك المنظمات والأشخاص والمؤسسات التي تنشئ وتطور وتنشر وتستخدم وتتحكم في أنظمة الذكاء الاصطناعي، وأولئك الذين يجمعون البيانات، والأشخاص المتأثرين بها. إذا كان السياق الأوسع، بما في ذلك اللوائح (أو عدم وجودها)، يديم التمييز أو لا يمنعه، فإن هذا سيؤثر سلبًا على تطوير الأنظمة القائمة على الذكاء الاصطناعي.

المراقبة والحق في الخصوصية

إن كل نظام تقريبًا موصوف في القسم السابق حول تحديد الملفات الشخصية والتمييز له أيضًا تأثير كبير على الحق في الخصوصية. تعتمد تقنيات الذكاء الاصطناعي على جمع البيانات ومعالجتها، وببساطة، فإن تبنيها المتزايد يحفز على تعميق البنية التحتية لجمع البيانات. سواء في حالة البطاقة الاجتماعية الصربية، أو نموذج أعمال شركات التكنولوجيا الكبرى، أو استخدام التكنولوجيا على الحدود أو غير ذلك، في معظم الأبحاث حول الذكاء الاصطناعي، نجد ونوثق التأثيرات على الحق في الخصوصية. إن قاعدة أبحاثنا الأكثر أهمية حول هذه الانتهاكات هي في سياق نموذج أعمال شركات التكنولوجيا الكبرى القائم على المراقبة واستخدام FRT من قبل الدول. يعتمد نموذج الأعمال لشركات التكنولوجيا الكبرى، مثل ميتا وجوجل، على المراقبة الشاملة، والتي تتجاوز بكثير المعلومات التي قد يدخلها الأشخاص عند الاشتراك في منصة أو خدمة (على سبيل المثال، عناوين البريد الإلكتروني وتواريخ الميلاد وأرقام الهواتف) لتشمل تفاصيل مثل الموقع وسجل البحث واستخدام التطبيق. لا تقتصر المعلومات التي يتم جمعها على البيانات، بل تشمل أيضًا البيانات الوصفية، بما في ذلك “… متلقي البريد الإلكتروني وسجلات الموقع والطابع الزمني على البريد الإلكتروني والصور”. تسمح هذه البيانات الوصفية بإجراء تحليلات معقدة بشكل متزايد ولديها القدرة على استنتاج تفاصيل حساسة عن شخص ما، مثل هويته الجنسية وآرائه السياسية وسمات شخصيته أو ميوله الجنسية. إن الحق في الخصوصية “متطلب أساسي لتحقيق الحق في حرية التعبير” وبالتالي فإن تآكل جوجل وميتا لـ “المجال الخاص” له تأثير مباشر مماثل والتأثيرات غير المباشرة على التنمية الحرة وتبادل الأفكار. لا يمكن اعتبار مستوى التدخل في الخصوصية من خلال نموذج الأعمال القائم على المراقبة ضروريًا أو متناسبًا بموجب قانون حقوق الإنسان الدولي، الذي ينص على أن الحق في الخصوصية يجب ضمانه ضد التدخلات التعسفية. هناك ثلاثة مفاهيم مترابطة حول الخصوصية: الحرية من التدخل في حياتنا الخاصة، والحق في التحكم في المعلومات المتعلقة بأنفسنا، والحق في مساحة يمكننا فيها التعبير بحرية عن هوياتنا.

يتدخل نموذج الأعمال القائم على المراقبة في الحق في الخصوصية في كل من هذه النقاط. يتعين على الدول أيضًا أن تثبت أن التدخل في الحق في الخصوصية هو وسيلة قانونية وضرورية ومتناسبة لمعالجة هدف مشروع، مما يعني موازنة طبيعة ومدى التدخل مقابل سبب التدخل في الحق في الخصوصية وضمان أن تكون التكنولوجيا المستخدمة هي أقل الوسائل المتاحة تدخلاً. تتضمن تقنيات التعرف على الوجه لتحديد الهوية (المعروفة أيضًا باسم واحد إلى كثير أو 1:n FRT) مراقبة واسعة النطاق، وجمع، وتخزين، وتحليل أو استخدام آخر للمواد وجمع البيانات الشخصية والبيومترية الحساسة دون اشتباه معقول فردي في ارتكاب مخالفات جنائية، وهو ما يرقى إلى المراقبة الجماعية العشوائية. تعتقد منظمات حقوق الإنسان أن المراقبة الجماعية العشوائية لا تشكل أبدًا تدخلاً متناسبًا مع الحق في الخصوصية وحرية التعبير وحرية تكوين الجمعيات والتجمع السلمي. وعلاوة على ذلك، يتم تدريب أنظمة التعرف على الوجه باستخدام خوارزميات التعرف على الصور التي تعتمد على كميات هائلة من وجوه الأفراد كبيانات إدخال دون علمهم أو موافقتهم. ولأن مثل هذه الأنظمة لا يمكنها العمل بدون قاعدة بيانات مرجعية بيومترية، فهي – كما تمت مناقشته سابقًا في هذه الوثيقة – غير متوافقة مع الحق في الخصوصية من حيث التصميم.

الشفافية والمساءلة والحق في التعويض والانتصاف

نظرًا لعدم شفافية العديد من أنظمة الذكاء الاصطناعي وعدم كفاية التزامات الشفافية المفروضة على المطورين والمستخدمين، سواء كانوا من القطاع الخاص أو العام، فغالبًا ما يكون من الصعب تتبع أنواع أنظمة الذكاء الاصطناعي التي يتم طرحها في السوق، والجهات الفاعلة التي يتم توفيرها لها، وأين يتم استخدام الذكاء الاصطناعي، ولأي غرض، والحسابات الدقيقة التي يوفرها. غالبًا ما تكون هذه الأنظمة معتمة أيضًا بسبب الأسرار التجارية التي تحميها من الكشف. غالبًا ما يستخدم مصطلح “الصندوق الأسود” للتعبير عن الطرق المختلفة التي يمكن أن تكون بها أنظمة الذكاء الاصطناعي معتمة.

تقوم بعض نماذج الذكاء الاصطناعي بإجراء ملايين الحسابات، بحيث يكون الوصف السببي المباشر لنتيجة معينة خارج الفهم البشري. يمكن أن تكون النماذج البسيطة القابلة للتفسير دقيقة مثل النماذج المعقدة، لكنها تتطلب عملاً كبيرًا في المنبع مما يعني أن المطورين قد يميلون نحو أنظمة أكثر شبهاً بالصندوق الأسود. غالبًا ما يكون المهندسون الذين يصممون هذه الأنظمة المعقدة غير قادرين على شرح كيفية تحقيق نتائج دقيقة، مما يقوض الشفافية والمساءلة. وينتهي الأمر إلى أن يقع العبء على عاتق المجتمعات المتضررة والمجتمع المدني والصحفيين وغيرهم لإعادة هندسة نتائج هذه الأدوات. وهذه عقبة كبيرة لأن عدم التماثل في المعلومات يحد من قدرة الغرباء على فحص هذه الأنظمة. وبالنسبة لمنظمات حقوق الإنسان فإن هذا يجعل من الصعب للغاية أن تنسب تأثيرات حقوق الإنسان مباشرة إلى نظام الذكاء الاصطناعي وتوفر أدلة كافية على الانتهاكات. ومع ذلك، في العديد من المشاريع التقنية حول الذكاء الاصطناعي وحقوق الإنسان، قامت المنظمات بتطوير منهجيات بحث تسمح باستجواب حتى أنظمة الذكاء الاصطناعي التي لا يمكن التنبؤ بها. [12]

بالإضافة إلى طرح تحدي المساءلة، فإن هذا الافتقار إلى الشفافية يعيق بشكل أساسي أولئك المتضررين سلبًا من أنظمة الذكاء الاصطناعي من تحقيق حقهم في الإنصاف والتعويض، من بين حقوق أخرى مثل الحق في المحاكمة العادلة.

في تقرير منظمة العفو الدولية “الآلات المعادية للأجانب”[13]، غالبًا ما وجدت الأسر التي حُرمت من إعانات رعاية الأطفال لأنها وضعت تحت التحقيق بتهمة الاحتيال نفسها في ظروف مالية مدمرة تتراوح من الديون المتزايدة والبطالة والإخلاء القسري عندما لم تتمكن من دفع الإيجار. والأمر الحاسم هو أنه لم يُعرض على هذه الأسر سوى القليل من الشفافية في العملية وغالبًا ما لم تُعط أي معلومات عن سبب استهدافها. وهذا يعني حتى اليوم أن العديد من الأسر لا تزال بلا إجابات وعدالة. في جميع أنحاء عملنا في مجال الذكاء الاصطناعي وحقوق الإنسان، ندفع باتجاه مواقف سياسية تطالب بمزيد من الشفافية من أولئك الذين يطورون وينشرون أنظمة الذكاء الاصطناعي. ونحن نطالب بالشفافية من أجل تحقيق الحقوق الفردية (الحق في التعويض والانتصاف، والحق في المعلومات، والحق في التفسير الهادف لاتخاذ القرارات المدعومة بالذكاء الاصطناعي كما هو منصوص عليه في اللائحة العامة لحماية البيانات) والمساءلة العامة (التزامات الإفصاح العام عند طرح أنظمة الذكاء الاصطناعي في السوق بما في ذلك الكشف عن الآثار المحتملة على حقوق الإنسان).32 وفي العديد من مقترحات تنظيم الذكاء الاصطناعي الناشئة في جميع أنحاء العالم، هناك اتجاه لإعفاء إنفاذ القانون، وإدارة الهجرة والحدود، واستخدامات الأمن القومي لهذه التقنيات من التزامات الشفافية عندما تكون هذه السياقات عالية المخاطر هي بالضبط حيث يجب أن نطالب بالشفافية. ومن الأهمية بمكان أن نتذكر أن الشفافية ليست هدفًا في حد ذاتها وهي خطيرة عندما تقدمها الشركات أو الحكومات القوية على هذا النحو، بل هي وسيلة لتحقيق العدالة والمساءلة.

عدم المساواة والاستبعاد من الخدمات الأساسية والحقوق الاقتصادية والاجتماعية والثقافية

في حين أن الدول غالبًا ما تقدم إدخال التقنيات الرقمية في أنظمة الحماية الاجتماعية كحل محايد أو تكنوقراطي، فقد أجريت أبحاث مهمة أظهرت أنها يمكن أن تشكل تهديدًا منهجيًا لحقوق الإنسان. وجد المقرر الخاص السابق للأمم المتحدة فيليب ألستون أن “التقنيات الرقمية المستخدمة في الأتمتة والتنبؤ والتحديد والمراقبة والكشف والاستهداف والمعاقبة”. [14] ووجد أيضًا أن “رقمنة أنظمة الرعاية الاجتماعية كانت مصحوبة بتخفيضات عميقة في ميزانية الرعاية الاجتماعية الإجمالية، وتضييق مجموعة المستفيدين، وإلغاء بعض الخدمات، وإدخال أشكال متطلبة ومتطفلة من الشروط، والسعي إلى أهداف تعديل السلوك، وفرض القيود، وفرض العقوبات، وفرض قيود على الوصول إلى الخدمات …”إن الأنظمة العقابية الأقوى والانعكاس الكامل للمفهوم التقليدي القائل بأن الدولة يجب أن تكون مسؤولة أمام الفرد”. غالبًا ما يتم نشر التقنيات الرقمية في الحماية الاجتماعية بطريقة “تجريبية فريدة” على بعض الفئات الأكثر تهميشًا في المجتمع، ونادرًا ما يتم ذلك بالتشاور معهم، مما يؤدي إلى “المزيد من عدم اليقين وليس أقل بالنسبة للفئات الضعيفة”. توفر الأدوات التي تستخدم عملية صنع القرار الخوارزمية لإدارة الوصول إلى المنافع العامة مثالاً حاسمًا لكيفية تفاقم التكنولوجيا لأشكال مختلفة من عدم المساواة الاجتماعية والاقتصادية. لقد تبنى عدد متزايد من الدول في جميع أنحاء العالم عملية صنع القرار الخوارزمية في شكل ما في توزيع المنافع العامة، مما أدى بدوره إلى تكرار أشكال التمييز العنصري وغيرها من أشكال التمييز كما هو موضح في الأمثلة السابقة لقانون البطاقة الاجتماعية الصربي وفضيحة إعانات رعاية الأطفال الهولندية (انظر القسم الخاص بالتمييز والتمييز والقسم أدناه حول “الدولة الآلية”). وكما أوضح المقرر الخاص السابق للأمم المتحدة المعني بالأشكال المعاصرة للعنصرية، فإن التحرك نحو أنظمة الرعاية الاجتماعية الرقمية من شأنه أن يؤدي إلى تكرار الممارسات التمييزية من قبل الدول، وأن التدخلات التي تعالج هذه الإمكانية تشكل أهمية بالغة. بالإضافة إلى ذلك، غالبًا ما تكون التدخلات الآلية أو الرقمية في الأنظمة التي تحكم الوصول إلى السلع الأساسية للحماية الاجتماعية – بما في ذلك الإسكان والرعاية الصحية والتعليم وما إلى ذلك – قادرة على تمكين تدخل المصالح الربحية في القطاع العام. وغالبًا ما يكون لهذا تأثير تحفيز أو توفير المبرر لسياسات التقشف التي ثبت مرارًا وتكرارًا أنها تعاقب رفاهة الفئات الأكثر ضعفًا مع حماية مصالح الشركات والمؤسسات التجارية، مع عواقب وخيمة على نتائج حقوق الإنسان.

حقوق الطفل

يخضع الأطفال والشباب لأنظمة الذكاء الاصطناعي في العديد من مناحي حياتهم سواء بطرق موازية لتجارب البالغين، بما في ذلك على الإنترنت والأماكن العامة، أو في أماكن محددة وموجهة بشكل فريد للأطفال والشباب مثل البيئات التعليمية. في السابق، يمكن أن تؤدي نقاط الضعف والتعرضات الخاصة بالأطفال والشباب، والتي هي فريدة ومحددة لفئتهم العمرية، إلى تفاقم المخاطر التي تفرضها أنظمة الذكاء الاصطناعي التي لم تُصمم لهم أو حتى مع وضعها في الاعتبار. ينشأ الأطفال والشباب اليوم في مجتمعات تعتمد بشكل مكثف على البيانات، وتقوم الأنظمة الخوارزمية بحصاد بياناتهم باستمرار وإنشاء بصمة رقمية يمكن أن تستخدمها أنظمة الذكاء الاصطناعي المستقبلية لاتخاذ القرارات أو التنبؤات بشأنهم. هذا المستوى من التحول إلى بيانات في المجتمع جديد نسبيًا وستكون تحديات حقوق الإنسان التي ستواجهها الأجيال التي تنشأ في هذا العالم جديدة وغير مسبوقة. عندما نستجوب وننتقد ونحلل وندرس الذكاء الاصطناعي، فمن الضروري أن نأخذ في الاعتبار التأثيرات غير المعروفة أو غير المدروسة بشكل كافٍ لاستخدام الذكاء الاصطناعي اليوم.

إن تأثير الذكاء الاصطناعي على الأطفال والشباب الآن وفي حياتهم البالغة. في هذا القسم، نقدم خلفية عن تأثير خوارزميات وسائل التواصل الاجتماعي والتحليلات التنبؤية وأدوات المراقبة على الأطفال والشباب من أجل إظهار أهمية تضمين عدسة حقوق الطفل في عملنا على الذكاء الاصطناعي. من المعروف أن المراهقين مستخدمون متحمسون للإنترنت ووسائل التواصل الاجتماعي، والتي تلعب دورًا كبيرًا في هذه المرحلة التنموية الرئيسية في حياة الشباب وسعيهم إلى فهم الذات. تُظهر وثائق الشركة الداخلية، وأبرزها “أوراق فيسبوك”،[15] والبحوث المستقلة أن المنصات الرائدة تمارس تأثيرًا هائلاً على مزاج الأطفال والشباب وإدراكهم وصورتهم الذاتية من خلال المحتوى الذي يوصون به وتصميمات المنصات التي يستخدمونها.[16] في هذه المرحلة من التطور، يصبح الأقران أكثر أهمية. يتوق الشباب إلى التفاعل الاجتماعي مع أقرانهم ويستجيبون له بشكل كبير. كما أنهم أكثر وعياً بالتسلسلات الهرمية الاجتماعية ويتفاعلون مع التقييم الاجتماعي. خلال فترة المراهقة، يمر الأطفال بعملية تكوين الهوية ويبحثون عن طرق لإضفاء الأهمية واكتساب المكانة. وتدعم المساحات عبر الإنترنت استكشاف الهوية والإبداع الفني والتعبير العاطفي. ومع ذلك، فإن المراهقين معرضون بشكل خاص للتلاعب. لا يتطور التفكير العقلاني بشكل كامل حتى يصل الشخص إلى منتصف العشرينات من عمره.[17] وبالتالي، فإن المراهقين أكثر عرضة من البالغين للتصرف بشكل متهور وتجربة ردود فعل عاطفية قوية للمحفزات الخارجية.[18] وهذا يجعل المراهقين أكثر عرضة للوقوع في أنماط إدمانية لاستخدام وسائل التواصل الاجتماعي، فضلاً عن الاستجابة للمحتوى المروج له خوارزميًا والتفاعل معه والمصمم لإبقائهم منخرطين عبر الإنترنت لأطول فترة ممكنة، ولكن غالبًا ما يمكن أن يخلق موجزات مخصصة لمحتوى متطرف أو ضار بشكل متزايد. تعمل نماذج المحتوى الخوارزمية على تضخيم بعض المحتوى وإخفاء محتوى آخر، ويمكنها إعطاء الأولوية للمحتوى المتطرف أو الضار والمعلومات المضللة لأنها تميل إلى الحصول على المزيد من المشاركة. يمكن استخدام البيانات لتصنيف الأطفال من خلال تصنيفهم وفقًا لاهتماماتهم المستنتجة والتأثير عليهم، على سبيل المثال، من خلال الخوارزميات التي تقدم لهم “الذات المثالية”، وتروج للأفكار أو السلوكيات غير الصحية، وتدفعهم نحو المحتوى المتطرف، والمحتوى الضار بالصحة العقلية وإيذاء النفس، وقضايا صورة الجسم، و”الحياة المثالية” وانعدام الأمن. لا يزال الارتباط بين وسائل التواصل الاجتماعي وقضايا الصحة العقلية غير واضح، ومع ذلك، تشير الأبحاث الداخلية الخاصة بفيسبوك وإنستغرام إلى أن هذه المنصات قد تسبب أو تؤدي إلى تفاقم مشاكل الصحة العقلية لدى المراهقين، وخاصة الفتيات. وهذا يعني أن الحذر مطلوب ليس فقط فيما يتعلق بالآثار السلبية لمراقبة المستخدمين واستخدام الإعلانات المستهدفة، ولكن أيضًا فيما يتعلق بتضخيم المحتوى المستهدف على نطاق أوسع.

كما يقوم جميع مقدمي الخدمات بجمع البيانات حول الأطفال والشباب بناءً على أنشطتهم وسلوكهم على الإنترنت وخارجه، مثل اهتماماتهم، وما يفضلونه، ودرجاتهم، ومشترياتهم، وعاداتهم الصحية والتمارين الرياضية، وأسلوب حياتهم، والصحة العقلية، والبحث عن المعلومات عبر الإنترنت، وخيارات الترفيه، والمحادثات. تُستخدم هذه البيانات للتنبؤ بسلوكيات الأطفال المستقبلية وتمكينهم من الوصول إلى الخدمات الأساسية أو استبعادهم منها مثل التعليم وخدمات رعاية الطفل والرعاية الصحية. يُعد التعليم مجالًا رئيسيًا حيث يتم استخدام التحليلات التنبؤية على الأطفال. في الولايات المتحدة، منذ الصف الأول، تُستخدم الخوارزميات لتوليد تنبؤات حول مدى احتمالية تخرج الطلاب الأمريكيين من المدرسة الثانوية في الوقت المحدد، وما قد تكون درجاتهم في اختبار SAT، وما إذا كانوا سيكملون الكلية أم لا. تُبنى هذه الخوارزميات بشكل متزايد باستخدام البيانات التي تم تجميعها بواسطة برامج التكنولوجيا التعليمية، وتمكينها بشكل أكبر من خلال عمليات الدمج والاستحواذ بين هذه المنصات بحيث يمكن دمج قواعد البيانات في بحيرات بيانات يمكن إجراء تحليل متقدم عليها. في مثال آخر، على خلفية فترة تقييم ملطخة بالتدريس غير المنتظم وإلغاء الامتحانات بسبب جائحة كوفيد-19، حددت الهيئة التنظيمية للامتحانات في المملكة المتحدة، Ofqual، نتائج امتحانات المستوى المتقدم لعام 2020 باستخدام نظام خوارزمي. وكانت النتائج مدمرة، حيث تم تخفيض 39٪ من نتائج المستوى المتقدم. وفي حين شهدت المدارس الخاصة التي تضم عددًا أقل من الطلاب في كل فصل زيادة في عدد الطلاب الذين حصلوا على A * و A، فإن الطلاب من المدارس المحرومة المملوكة للدولة تم حبسهم ببياناتهم التاريخية، مما أدى إلى تحقيق نتائج أقل بكثير. وقد أظهر تحليل أجراه عالم رياضيات من كلية لندن للاقتصاد أن الأداء السابق للمدرسة كان له وزن أكبر بكثير في حسابات النظام مقارنة بالسجل الفردي، مما أدى إلى ترسيخ العوامل الظرفية بما في ذلك الثروة والتنقل الاجتماعي كمحددات لدرجات ذلك العام.45 وقد بدأت العديد من وكالات رعاية الطفل في الولايات المتحدة في اللجوء إلى أدوات تقييم المخاطر للتنبؤ بالأطفال الأكثر عرضة لخطر سوء المعاملة من أجل تحسين عمليات الوكالة. وأجرى الاتحاد الأمريكي للحريات المدنية (ACLU) مسحًا على مستوى البلاد حول استخدام التحليلات التنبؤية في رعاية الطفل.

وقد أظهرت دراسة حديثة أن وكالات رعاية الطفل المحلية أو الحكومية في 26 ولاية على الأقل قد فكرت في استخدام الأدوات كجزء من نظام تنظيم الأسرة الخاص بها وأن 11 ولاية تستخدمها حاليًا.46 كما تُستخدم مثل هذه الأدوات التنبؤية بشكل متزايد في مجالات ذات مخاطر أعلى مثل الشرطة حيث يمكن أن يتأثر الأطفال والشباب أيضًا. بالإضافة إلى الحكومات والقطاع الخاص، تتدخل المنظمات غير الحكومية الدولية والأكاديميون أيضًا في التعلم الآلي لدعم التعليم والخدمات الأساسية الأخرى. وجد تحقيق حديث أن الأداة المستخدمة للتحقق مما إذا كان الطلاب يستخدمون ChatGPT كانت تتهم الطلاب الدوليين بالغش زوراً.[19] تتجاهل معظم استراتيجيات الذكاء الاصطناعي الوطنية والمقترحات التنظيمية والمبادئ التوجيهية الأخلاقية الرئيسية أي نهج محدد للذكاء الاصطناعي والأطفال. لكن الأطفال يستخدمون أنظمة الذكاء الاصطناعي ويتأثرون بها كل يوم والمخاطر التي تحملها أنظمة الذكاء الاصطناعي للأطفال آخذة في الازدياد. إذا كانت البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي لا تعكس بشكل كافٍ خصائص الأطفال المتنوعة، فقد تكون النتائج متحيزة ضدهم. وقد يكون لهذا الاستبعاد آثار طويلة الأمد على الأطفال، حيث يؤثر على مجموعة من القرارات الرئيسية طوال حياتهم.

تصدير التقنيات عالية المخاطر والتي تنتهك الحقوق

إن تمويل وتطوير وبيع أنظمة الذكاء الاصطناعي (والتكنولوجيا على نطاق أوسع) تهيمن عليه حفنة من الشركات والأسواق القوية. إن الجغرافيا السياسية للذكاء الاصطناعي معقدة ومحفوفة بالمخاطر في حد ذاتها حيث تتسابق القوى المهيمنة مثل الولايات المتحدة وأوروبا والصين لتكون في طليعة هذا التغيير التكنولوجي، وضمان قدرة شركاتها على البيع عالميًا والحفاظ على الهيمنة على السوق، وحتى فرض قيود على دخول تقنيات بعضها البعض إلى حدودها في لحظات التوترات الدبلوماسية المتصاعدة. وفي حين أن هذه الوثيقة لن تتعمق في الفروق الدقيقة وتفاصيل هذا الجانب من المشهد الحالي للذكاء الاصطناعي، فإن بحثنا يظهر أن التدفق غير المقيد لتقنيات الذكاء الاصطناعي عبر الحدود يمكن أن يؤدي بالفعل إلى إلحاق الضرر بحقوق الإنسان. وتستطيع الشركات الانخراط في شكل من أشكال التحكيم التنظيمي، وتطوير تقنيات قد تكون محظورة في ولاياتها القضائية الخاصة ولكنها تصدرها إلى مناطق حيث تكون أقل تنظيمًا أو تدقيقًا أو مراقبة لبيع أو حتى تجربة هذه التقنيات.

وفي تقرير منظمة العفو الدولية عن الفصل العنصري الآلي، حددنا كاميرات صنعتها شركة هولندية تسمى TKH Security، في الأماكن العامة ومثبتة على البنية التحتية للشرطة في القدس الشرقية المحتلة، مما يوضح كيف تصدر الشركات الأوروبية التقنيات المستخدمة للحفاظ على نظام الفصل العنصري الإسرائيلي ضد الفلسطينيين أو ترسيخه.[20]

وعلى نحو مماثل، وجد تقرير لمنظمة العفو الدولية بعنوان “خارج نطاق السيطرة: فشل قوانين الاتحاد الأوروبي في تصدير المراقبة الرقمية” أن ثلاث شركات مقرها فرنسا والسويد وهولندا باعت أنظمة مراقبة رقمية، مثل تقنية التعرف على الوجه وكاميرات الشبكة، إلى لاعبين رئيسيين في السوق الصيني استخدمت بشكل مباشر في برامج المراقبة الجماعية العشوائية، مع وجود خطر استخدامها ضد الأويغور وغيرهم من الجماعات العرقية ذات الأغلبية المسلمة في جميع أنحاء البلاد.[21]

إن هذه القضية ليست بالضرورة خاصة بالذكاء الاصطناعي، وهي قضية رأيناها مع تقنيات المراقبة على نطاق واسع، إلا أنها تشكل أولوية سياسية واضحة، مع ظهور مبادرات تنظيمية للذكاء الاصطناعي في جميع أنحاء العالم، لضمان تأمين ضمانات حقوق الإنسان على نطاق عالمي لأولئك الذين يمكن أن يتأثروا بأنظمة الذكاء الاصطناعي سواء كانوا ضمن نطاق ولاية قضائية معينة أم لا. ومع تطور هذه المبادرات، قد يدعو مجتمع حقوق الإنسان الدول أيضًا إلى حظر استيراد التقنيات التي يمكن استخدامها بطرق تنتهك الحقوق.

الذكاء الاصطناعي من أجل الإدماج

على الرغم من أن عملنا يركز بالضرورة على الأضرار الحالية والوشيكة للذكاء الاصطناعي، إلا أن هناك دورًا للذكاء الاصطناعي في تعزيز وحماية وتعزيز حقوق الإنسان. ومن الأمثلة البارزة على ذلك أن الذكاء الاصطناعي يعمل على توسيع وظائف التقنيات المساعدة التي تشكل أهمية بالغة لتحقيق حقوق ذوي الإعاقة. ويمكن للذكاء الاصطناعي أن يعمل بشكل أفضل على تمكين النص التنبؤي والتعرف البصري ونسخ الكلام إلى نص والترجمة.[22] وبطبيعة الحال، يجب أيضًا تنفيذ هذه التقنيات مع ضمانات كافية ضد انتهاكات الخصوصية ويجب على مقدمي التقنيات المساعدة اتباع متطلبات الشفافية الأساسية. كما يُزعم أن الذكاء الاصطناعي يعمل على سد الفجوات اللغوية. على سبيل المثال، في بعض البلدان حيث يتم التحدث بالعديد من اللغات واللهجات، غالبًا ما تكون الخدمات الحكومية متاحة فقط باللغة السائدة أو المهيمنة. ويمكن استخدام الذكاء الاصطناعي لترجمة المعلومات المتعلقة بالخدمات الحكومية وجعلها أكثر سهولة في الوصول إليها بلغات أخرى. ويأتي هذا مع التحذير من أن تطوير الذكاء الاصطناعي غير متوازن هيكليًا لصالح المستخدمين الناطقين باللغة الإنجليزية بسبب توفر البيانات بشكل أكبر وأكثر ثراءً بهذه اللغة. ويتم تفصيل ذلك بمزيد من التفصيل أدناه في القسم الخاص بالذكاء الاصطناعي التوليدي. وبغض النظر عن هذه التحذيرات، فإن الموقف الشامل بشأن الذكاء الاصطناعي يجب أن يتضمن رؤى إيجابية وإيجابية حول كيفية تمكين التطورات التكنولوجية الجديدة من رفع أصوات واحتياجات الفئات المهمشة. وفي الوضع الراهن الحالي، فإن أصحاب السلطة هم في الغالب في وضع يسمح لهم بتحديد المشاكل التي ينبغي للذكاء الاصطناعي حلها. ومع ذلك، بصفتنا مدافعين عن حقوق الإنسان، تقع علينا مسؤولية تحديد وإبراز الرؤى التكنولوجية التي تعمل بشكل أساسي على توسيع الشمول وتفكيك هياكل السلطة وتصحيح التمييز الهيكلي.

استغلال الموارد

إلى جانب القضايا المتقاطعة الموضحة أعلاه والتي لدينا فيها قاعدة أدلة راسخة، هناك جوانب أخرى مترابطة للتأثيرات المجتمعية وحقوق الإنسان للذكاء الاصطناعي المتعلقة باستغلال الموارد والتي أصبحت ذات أهمية متزايدة بالنسبة لمناقشات السياسات وحقوق الإنسان والتي يتوقع من خلالها العمل في المستقبل.

1) حقوق العمل

إن أحد أكثر الأضرار التي يُستشهد بها عادة للذكاء الاصطناعي هو إمكانية أتمتة الأشخاص وإخراجهم من وظائفهم. وهذا يشكل خطرًا بالتأكيد، رغم أنه من المرجح أن يخلق الذكاء الاصطناعي وظائف جديدة أيضًا، وهناك قلق أكبر من أن توقع أتمتة الوظائف قد يدفع أصحاب العمل بشكل استباقي إلى خفض الرواتب أو تحويل الموارد من الاستثمار في قوتهم العاملة. كما أن النمو المستمر وانتشار تقنيات الذكاء الاصطناعي له آثار متعددة على الحق في العمل الآمن والعادل بما يتجاوز أتمتة الوظائف.

أولاً، أدت التقنيات الخوارزمية إلى ظهور عمالة المنصات، والمعروفة أيضًا باسم “اقتصاد العمل المؤقت”.

وكما أشارت منظمة العفو الدولية في أول إحاطة لها حول التكنولوجيا وعدم المساواة،[23] فقد أدى صعود اقتصاد العمل المؤقت إلى تحويل بعض أهم الصناعات في جميع أنحاء العالم، بما في ذلك توصيل الطعام، وشحن السلع، ومشاركة الرحلات والسفر، وأعمال الرعاية، وغير ذلك الكثير.[24] ومن خلال توفير خدمة التوظيف عند الطلب وتوصيل السلع، ركزت العديد من الشركات في اقتصاد العمل المؤقت على العمالة التي كانت غالبًا غير موثقة سابقًا أو في الاقتصاد غير الرسمي، وروجت لفوائد نهجها من خلال الاستشهاد بكفاءتها ومرونتها وإمكانية الوصول إليها. ومع ذلك، عندما تتمكن الشركات من تجنب تصنيف العمال قانونيًا كموظفين، وبالتالي تجنب الحماية القانونية الممنوحة لهم، فإن العمال معرضون لخطر ظروف عمل أكثر خطورة وهشاشة ولا يملكون سوى القليل من اللجوء إلى التعويض أو القدرة على الانسحاب، وخاصة في أسواق العمل التي أصبحت نادرة وتنافسية بشكل متزايد. توفر حالة اقتصاد المنصة وظهور ما يسمى بالعمل المؤقت العديد من الأمثلة على كيف أن غزو التكنولوجيا لأسواق العمل القائمة أو الناشئة غالبًا ما يكون بمثابة وسيلة لتسهيل أو تبرير الاستمرار في استغلال العمال المعرضين للخطر بالفعل أو المزيد منه، وبالتالي تقديم انتهاك محتمل لحق هؤلاء العمال في ظروف عمل عادلة والحماية الاجتماعية. لقد كان عمال العمل المؤقت يحشدون وينظمون نقابات في جميع أنحاء العالم للمطالبة بظروف عمل أفضل وحماية الحقوق في القانون. ومن الجدير بالذكر أن ولاية راجاستان في الهند أقرت مؤخرًا قانونًا يفرض توفير صندوق الضمان الاجتماعي للعاملين المؤقتين.

ثانيًا، تُستخدم أدوات الذكاء الاصطناعي بشكل متزايد في عمليات التوظيف والتعيين بما في ذلك فحص السيرة الذاتية ومنصات المقابلات الآلية بالفيديو والمزيد. وكما هو الحال مع أدوات صنع القرار الآلية على نطاق أوسع، فإن هذه الأدوات من شأنها أن تتخذ قرارات تمييزية تعيد إنتاج اختلالات التوازن القائمة في ممارسات التوظيف. والمثال الأكثر شهرة على ذلك هو أداة استخدمتها أمازون بين عامي 2014 و2017 لتعيين موظفين غير مؤهلين.

إن الذكاء الاصطناعي يؤثر على حقوق العمال. إن المتجه الثالث الذي يؤثر به الذكاء الاصطناعي على حقوق العمال يتعلق بالمواد التي يتم بناء الذكاء الاصطناعي عليها. تعتمد تقنيات الذكاء الاصطناعي على استخراج الموارد من أجل تطويرها، كما هو موضح سابقًا، سواء كان هذا المورد عبارة عن بيانات أو عمالة أو مالية أو غير ذلك. ومع ذلك، مع توسع نطاق تبني الذكاء الاصطناعي ووظائف الأدوات، يتوسع أيضًا مستوى الاستخراج وفي كثير من الحالات استغلال الموارد. إن فئة “العمل الشبح” في قطاع التكنولوجيا – العمل غير المرئي أو المخفي، والذي يؤديه عادة عمال غير مستقرين أو ضعفاء – هي ظاهرة توضح كيف يستغل قطاع التكنولوجيا الحماية الضعيفة للعمال ويستفيد منها. في سياق الذكاء الاصطناعي، يشير دور ما يسمى “العمال الشبح” في سلسلة التوريد للعديد من شركات التواصل الاجتماعي والتكنولوجيا عادةً إلى واضعي العلامات على الصور، ومشرفي المحتوى، والمهام الأخرى التي تعد أساسية لتدريب وصيانة أنظمة الذكاء الاصطناعي التي تستخدمها هذه الشركات. غالبًا ما يعمل العمال الذين يساعدون في تدريب أو إدارة المنتجات التقنية من خلال ما يسمى “العمل الرقمي” لصالح مقاولين من جهات خارجية في بلدان أو سياقات ذات أطر تشريعية ضعيفة حول قوانين العمل، وغالبًا ما يكونون عرضة لأجور منخفضة للغاية وظروف عمل غير آمنة، فضلاً عن مخاطر الصحة العقلية الشديدة، كما هو الحال في العمال المكلفين بتعديل أو مراجعة المحتوى العنيف أو الضار الذي ينتهك معايير المجتمع لمنصات التواصل الاجتماعي. في مايو/أيار 2023، اجتمع 150 عاملاً يعملون لدى شركات خارجية تقدم خدمات تعديل المحتوى إلى فيسبوك وتيك توك وتشات جي بي تي، في نيروبي وصوتوا لتشكيل أول اتحاد أفريقي لمشرفي المحتوى. وكانت هذه خطوة تاريخية وإشارة واضحة إلى أن استغلال العمال لدعم نماذج الأعمال وأرباح الشركات التي تتخذ من الشمال العالمي مقراً لها إلى حد كبير لا يمكن أن يستمر.

2) البنية التحتية والقوة الحاسوبية والهيمنة على السوق

يكشف استغلال الموارد الذي يعتمد عليه تطوير الذكاء الاصطناعي عن بنية قوة أخرى تسمح بإدامة التفاوتات القائمة من قبل شركات التكنولوجيا القوية والمستخدمين. نظرًا لأن مسار تطوير الذكاء الاصطناعي كان يميل نحو نماذج أكبر حجمًا، مستفيدًا من كميات أكبر من البيانات، فإن أولئك الذين لديهم المزيد من الوصول إلى الموارد الرئيسية في سلسلة توريد الذكاء الاصطناعي بما في ذلك العمالة والبيانات والأهم من ذلك القوة الحسابية لديهم ميزة كبيرة في هذا القطاع. يمكن تقسيم القوة الحسابية إلى الأجهزة والبرامج والأساسيات الأساسية اللازمة لبناء انظمة الذكاء الاصطناعي. هذا يشمل الرقائق وخدمات الحوسبة السحابية وإدارة البيانات. بعض أكثر تقنيات الذكاء الاصطناعي تقدمًا والتي تصنف على أنها نماذج تعلم آلي أو تعلم عميق باهظة التكلفة حسابيًا وبالتالي فإن الشركات القوية التي تتمتع بمزيد من الوصول إلى هذه الموارد تتمتع بميزة سوقية في تطوير الذكاء الاصطناعي وتبنيه. وكما ذكرت AI Now، فإن “فهم تأثير البنية التحتية الحاسوبية على الاقتصاد السياسي للذكاء الاصطناعي مهم للغاية: فهو يؤثر على من يمكنه بناء الذكاء الاصطناعي، ونوع الذكاء الاصطناعي الذي يتم بناؤه، ومن يستفيد على طول الطريق. “إنها تحدد خطوط التركيز في صناعة التكنولوجيا، وتحفز المنافسة السامة بين شركات الذكاء الاصطناعي، وتؤثر بشكل عميق على البصمة البيئية للذكاء الاصطناعي”. إن هذا التضاريس للوصول إلى الموارد والقوة يصب في صالح الشركات الكبرى مايكروسوفت وجوجل وأمازون التي تقدم كل منها عروض حوسبة، ولا سيما شركات الذكاء الاصطناعي الأكثر شهرة مثل OpenAI وDeepMind التي استحوذت عليها مايكروسوفت وجوجل على التوالي في السنوات الأخيرة، حسبما ورد لتوسيع نطاق وصولها إلى هذه الموارد. إن قانون مكافحة الاحتكار أو مكافحة المنافسة أصبح بشكل متزايد الرافعة السياسية المفضلة لمحاسبة شركات التكنولوجيا الكبرى. وحتى الآن، ركز هذا بشكل أساسي على حصتها في السوق من الأعمال المباشرة التي تشارك فيها مثل محركات البحث. ومع ذلك، مع التطورات السريعة في مجال الذكاء الاصطناعي، فإن هذا الخطاب سيحول تركيزه أيضًا إلى الموارد الحاسوبية التي تدعم تطوير الذكاء الاصطناعي والشركات القليلة التي تتحكم حاليًا في الوصول إلى هذه الموارد. لا يمكن للتحليل النقدي الشامل للذكاء الاصطناعي أن يتجاهل الموارد والقوة البنيوية لبعض اللاعبين على الآخرين، مما يمنحهم أيضًا نفوذًا غير مبرر على اتجاه تطوير الذكاء الاصطناعي في المستقبل وتبنيه والوصول إليه. وبدون التدخل في هذه الهيمنة البنيوية، فلن نكسر نمطًا تاريخيًا حيث تحدد أصوات قليلة قوية وتملي المشاكل التي تستحق الحل بالتقدم التكنولوجي، ولصالح من ولضرر من، وأين يجب دفع بيع ونشر هذه التقنيات.

3) التأثيرات المناخية للذكاء الاصطناعي

البعد الثالث الذي يزيد من تعقيد قضية استغلال الموارد هو التأثير البيئي لإنتاج الذكاء الاصطناعي. وعلى الرغم من أن العديد من الناس يقترحون الذكاء الاصطناعي كحل للمشاكل البيئية والاستدامة، إلا أنه يخلف بصمة كربونية ثقيلة. ويحدث هذا جزئيًا بسبب المكون المادي للذكاء الاصطناعي والمواد الخام المستخرجة لبنائه، ولكن أيضًا بشكل كبير بسبب تكاليف الطاقة اللازمة لتشغيل مراكز البيانات وانبعاثات الكربون الناتجة عن تدريب النماذج الكبيرة. ومن الصعب حساب البصمة الدقيقة لنموذج الذكاء الاصطناعي الفردي، ولكن الدراسات قدمت تقديرات. على سبيل المثال، وجد الباحثون أن إنشاء GPT-3 (النموذج الذي يعمل على تشغيل ChatGPT) استهلك 1287 ميغاواط/ساعة من الكهرباء وولّد 552 طنًا من ثاني أكسيد الكربون، وهو ما يعادل قيادة 123 مركبة ركاب تعمل بالبنزين لمدة عام واحد. ووجدت مجموعة أخرى من الباحثين الذين يبحثون على وجه التحديد في البصمة المائية للذكاء الاصطناعي أن إنتاج GPT-3 استهلك 700000 لتر من المياه العذبة وهو ما يكفي لإنتاج 370 سيارة BMW أو 320 مركبة كهربائية من Tesla. إن النمو المستمر للذكاء الاصطناعي من المحتمل أن “يقيدنا في “مستقبل غير مستدام” وعلى خلاف العديد من الالتزامات التي قدمتها الحكومات وشركات التكنولوجيا الكبرى علنًا لأهداف تغير المناخ. باختصار، هناك قضايا متسقة تتعلق بحقوق الإنسان تظهر عبر تطبيقات الذكاء الاصطناعي المختلفة وفي تأثيراتها على المستوى المحلي. هذه مجموعة من القضايا التي تنشأ بسبب اللبنات الأساسية للذكاء الاصطناعي والتصميم الذي يعتمد بطبيعته على البيانات المكثفة. ومع استمرار تطور الذكاء الاصطناعي، على الرغم من أننا سنرى وظائف جديدة مثل أنظمة الذكاء الاصطناعي التوليدية، يمكننا أن نتوقع أن تظل هذه القضايا المتقاطعة ثابتة على الرغم من أن نطاقها والسيناريوهات الدقيقة التي تظهر فيها هذه الأضرار ستتطور وتتكيف. وهذا يعني أن بعض دعوات سياستنا الأساسية ضرورية بغض النظر عن نوع ونطاق وتطبيق الذكاء الاصطناعي.

المراجع

[1] الأمم المتحدة، مفوضية الأمم المتحدة السامية لحقوق الإنسان، مخاطر الذكاء الاصطناعي على الخصوصية تتطلب اتخاذ إجراءات عاجلة ، 15 سبتمبر 2021،

https://www.ohchr.org/en/2021/09/artificial-intelligence-risks-privacy-demand-urgent-action-bachelet

[2] قانون الذكاء الاصطناعي للاتحاد الأوروبي، تموز/يوليو 2024، https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689

[3] مشروع Gender Shades نهج تقاطعي لاختبار المنتجات الشاملة للذكاء الاصطناعي.

https://www.media.mit.edu/projects/gender-shades/overview/

[4] استكشاف الذكاء الاصطناعي، وسياسات الصور في مجموعات تدريب التعلم الآلي، بقلم كيت كروفورد وتريفور باجلين

https://excavating.ai/

[5]جينيفر كوبي، مايكل فيل، جاتيندر سينغ، “فهم المساءلة في سلاسل التوريد الخوارزمية”، يونيو 2023، FAccT ’23: وقائع مؤتمر ACM لعام 2023 حول العدالة والمساءلة والشفافية https://dl.acm.org/doi/abs/10.1145/3593013.3594073

[6] بن ووديكي، المعهد الوطني للمعايير والتكنولوجيا يدعو إلى تحدي التحيزات الاجتماعية والتقنية في مجال الذكاء الاصطناعي، الوكالة تتطلع إلى تطوير إرشادات للعمليات التي يشارك فيها البشر، 17 مارس 2022، AI Business، https://aibusiness.com/verticals/nist-calls-for-socio-technical-to-challenge-ai-biases

[7] معهد آدا لوفليس، تخصيص المساءلة في سلاسل توريد الذكاء الاصطناعي: منظور تنظيمي يركز على المملكة المتحدة، يونيو 2023. https://www.adalovelaceinstitute.org/resource/ai-supply-chains

[8] جينيفر كوبي، مايكل فيل، جاتيندر سينغ، “فهم المساءلة في سلاسل التوريد الخوارزمية”، يونيو 2023، FAccT ’23: وقائع مؤتمر ACM لعام 2023 حول العدالة والمساءلة والشفافية https://dl.acm.org/doi/abs/10.1145/3593013.3594073

[9] رينيه شيلبي وآخرون، “الأضرار الاجتماعية والتقنية للأنظمة الخوارزمية: تحديد نطاق التصنيف للحد من الأضرار”، 23 أغسطس 2023، AIES ’23: وقائع مؤتمر AAAI/ACM لعام 2023 حول الذكاء الاصطناعي والأخلاق والمجتمع، https://arxiv.org/pdf/2210.05791.pdf

[10] منظمة العفو الدولية، عمالقة المراقبة: كيف يهدد نموذج الأعمال الخاص بجوجل وفيسبوك حقوق الإنسان (POL 30/1404/2019)، 21 نوفمبر/تشرين الثاني 2019  https://www.amnesty.org/en/documents/pol30/1404/2019/en

[11] منظمة العفو الدولية، ميانمار: الفظائع الاجتماعية: ميتا والحق في الانتصاف للروهينجا (الفهرس: ASA 16/5933/2022) 29 سبتمبر/أيلول 2022، https://www.amnesty.org/en/documents/asa16/5933/2022/en/

[12] انظر على سبيل المثال: منظمة العفو الدولية، “استخدام حل الكيانات في الهند: تسليط الضوء على الكيفية التي يمكن بها لأشكال الأتمتة الجديدة أن تحرم الناس من الوصول إلى الرعاية الاجتماعية”، 30 أبريل/نيسان 2024،

https://www.amnesty.org/en/latest/research/2024/04/entity-resolution-in-indias-welfare-digitalization/

[13] منظمة العفو الدولية، الآلات المعادية للأجانب: التمييز من خلال الاستخدام غير المنظم للخوارزميات في فضيحة إعانات رعاية الأطفال الهولندية، 25 أكتوبر/تشرين الأول 2021،  https://www.amnesty.org/en/documents/eur35/4686/2021/en/

[14] المقرر الخاص للأمم المتحدة المعني بالفقر المدقع وحقوق الإنسان، تقرير: التكنولوجيا الرقمية والحماية الاجتماعية وحقوق الإنسان، 1 أكتوبر/تشرين الأول 2019، وثيقة الأمم المتحدة A/74/493

A/74/493: Digital welfare states and human rights – Report of the Special Rapporteur on extreme poverty and human rights | OHCHR

[15] وول ستريت جورنال، “فيسبوك يعرف أن إنستغرام سام للفتيات المراهقات، كما تظهر وثائق الشركة”، سبتمبر 2021

https://www.wsj.com/articles/facebook-knows-instagram-is-toxic-for-teen-girls-company-documents-show-11631620739

[16] Reset Australia, ‘Surveilling Young People Online: An Investigation Into Tiktok’s Data Processing Practices’, July 2021, https://au.reset.tech/uploads/resettechaustralia_policymemo_tiktok_final_online.pdf

Jacopo Pruccoli and others , “The use of TikTok among children and adolescents with eating disorders: Experience in a third-level public Italian center during the SARS-CoV-2 pandemic”, 30 July 2022, Italian Journal of Pediatrics, Volume 48, https://doi.org/10.1186/s13052-022-01308-4

Reset Australia, Designing for Disorder: Instagram’s Pro-Eating Disorder Bubble in Australia, April 2022, https://au.reset.tech/uploads/insta-pro-eating-disorder-bubble-april-22-1.pdf

Tech Transparency Project, “‘Thinstagram’: Instagram’s algorithm fuels eating disorder epidemic”, 8 December 2021, https://www.techtransparencyproject.org/articles/thinstagram-instagrams-algorithm-fuels-eating-disorder-epidemic

[17] مركز جامعة روتشستر الطبي، الموسوعة الصحية، “فهم دماغ المراهقين”، 2023،

https://www.urmc.rochester.edu/encyclopedia/content.aspx?contenttypeid=1&contentid=3051

[18] بي بي سي، “أكبر الأساطير حول دماغ المراهقين”، 7 سبتمبر 2022،

https://www.bbc.com/future/article/20220823-what-really-goes-on-in-teens-brains

[19] The Markup, “أدوات الكشف عن الذكاء الاصطناعي تتهم الطلاب الدوليين زورًا بالغش”، أغسطس 2023،  https://themarkup.org/machine-learning/2023/08/14/ai-detection-tools-falsely-accuse-international-students-of-cheating

[20] منظمة العفو الدولية، الأبارتهايد الرقمي: تكنولوجيات التعرف على الوجه وترسيخ الهيمنة الإسرائيلية، رقم الوثيقة: MDE 15/6701/2023 ، ايار/مايو 2023  https://www.amnesty.org/ar/documents/mde15/6701/2023/ar

[21] منظمة العفو الدولية، خارج نطاق السيطرة: فشل قوانين الاتحاد الأوروبي في تصدير المراقبة الرقمية (EUR 01/2556/2020)، سبتمبر/أيلول 2020، https://www.amnesty.org/en/documents/eur01/2556/2020/en

[22] المنتدى الأوروبي للإعاقة، تعزيز الإدماج: الذكاء الاصطناعي وتكنولوجيا المساعدة، أغسطس 2021،

https://www.edf-feph.org/powering-inclusion-artificial-intelligence-and-assistive-technology/

[23] منظمة العفو الدولية، الانقسام الرقمي: التكنولوجيا وعدم المساواة وحقوق الإنسان، أكتوبر/تشرين الأول 2023، https://www.amnestyusa.org/reports/digitally-divided-technology-inequality-and-human-rights/

[24] مركز موارد الأعمال وحقوق الإنسان، مستقبل العمل: التقاضي بشأن علاقات العمل في اقتصاد العمل المؤقت، مارس 2019: https://media.businesshumanrights.org/media/documents/files/documents/CLA_Annual_Briefing-FINAL.pdf

NHRCLB
NHRCLBhttps://nhrclb.org
تعمل الهيئة الوطنية لحقوق الإنسان المتضمنة لجنة الوقاية من التعذيب، على حماية حقوق الإنسان وتعزيزها في لبنان وفق المعايير الواردة في الدستور اللّبناني والإعلان العالمي لحقوق الإنسان والاتفاقيات والمعاهدات الدولية والقوانين اللّبنانية المتفقة مع هذه المعايير. وهي مؤسسة وطنية مستقلة منشأة بموجب القانون 62/ 2016، سنداً لقرار الجمعية العامة للامم المتحدة (مبادئ باريس) التي ترعى آليات إنشاء وعمل المؤسسات الوطنية لحقوق الإنسان. كما تتضمن آلية وقائية وطنية للتعذيب (لجنة الوقاية من التعذيب) عملاً بأحكام البروتوكول الاختياري لاتفاقية مناهضة التعذيب وغيره من ضروب المعاملة أو العقوبة القاسية او اللاانسانية او المهينة الذي انضم اليه لبنان بموجب القانون رقم 12/ 2008.