الرئيسيةالأخبارخوارزميات الذكاء الاصطناعي تظهر تحيزًا بين الجنسين

خوارزميات الذكاء الاصطناعي تظهر تحيزًا بين الجنسين

جذب الذكاء الاصطناعي (AI) اهتمامًا كبيرًا من كل الصناعات والشركات الرئيسية تقريبًا. ولكن، سلط تقرير حديث لصحيفة الغارديان الضوء على قضايا مقلقة مثل تحيز أدوات الذكاء الاصطناعي بين الجنسين.

نظر الغارديان في فعالية الذكاء الاصطناعي في الكشف عن الإيحاءات الجنسية، أي عنصرية الصور.

مع الحاجة المتزايدة للرقابة على المحتوى وبخاصٍة على منصات التواصل الاجتماعي، تم الترويج لأدوات الذكاء الاصطناعي كوسيلة للكشف عن الصور التي قد لا تناسب الجمهور. بحث ذا غارديان على أية حال يشكك في حيادية تلك الأدوات.

خوارزميات الذكاء الاصطناعي تظهر تحيزًا بين الجنسين: تقرير الغارديان

لاختبار هذا الادعاء، قام الصحفيون في الغارديان بتحليل مئات صور الرجال والنساء وهم يمارسون الرياضة، وهم مرتدين الملابس الداخلية، بالإضافة إلى الفحوصات الطبية بعرى جزئي باستخدام أدوات الذكاء الاصطناعي. النتيجة كانت أنه قد تم تحديد صور أكثر للنساء حتى في أوضاع عادية على أنها موحية جنسيًا.

أظهرت أدوات الذكاء الاصطناعي نفس النتائج مع الصور الطبية، حتى للنساء الحوامل. غالبًا ما أظهرت خوارزميات الذكاء الاصطناعي صور النساء على أنها أكثر إيحاءًا جنسيًا عن نفس الصور للرجال.

تشير مثل هذه النتائج إلى أن أية منصة تستخدم أدوات الذكاء الاصطناعي قد ينتهي بها الأمر وهي تحجب صورًا أكثر للنساء، وبالتالي تحديد الوصول إلى الأعمال المتعلقة بالنساء.

بعض أدوات الذكاء الاصطناعي التي اختبرها الصحفيون كانت خاصة بشركات تكنولوجية كُبرى مثل جوجل، وأمازون، ومايكروسوفت — وهذا يشير إلى أن المشكلة لم تقتصر على الشركات الناشئة.

لا يخفى على أحد أن تلك الشركات تقدم أدوات ذكاء اصطناعي لمراقبة المحتوى لأكبر المنصات مثل لينكد إن وإنستغرام. أبلغ بعض المستخدمين من قبل على المنع المظلل لهم أو إزالة محتواهم من منصات التواصل الاجتماعي بسبب اعتبارها موحية جنسيًا من قبل الذكاء الاصطناعي. تأثرت النساء بشكل غير متناسب في هذا الصدد.

تاريخ تحيز الذكاء الاصطناعي

هذه ليست المرة الأولى التي يتم الكشف فيها عن تحيزات الذكاء الاصطناعي. وجد باحثون من جامعة بن غوريون في النقب وجامعة كندا الغربية أن الذكاء الاصطناعي متحيزًا بشكل مبالغ فيه مقارنًة بالبشر بخصوص التعرف على عمر الوجه.

حذر تقرير لنيو يورك تايمز من 2019 أن أدوات الذكاء الاصطناعي تتعلم من مجموعة كبيرة من المعلومات الرقمية، ويمكنها أيضًا أن تلتقط التحيزات البشرية.

على سبيل المثال، فإن تقنية ذكاء اصطناعي لجوجل تدعى “بيرت” قامت بربط الرجال ببرمجة الكمبيوتر بشكل أكبر عن النساء، ولم تعطهم قدرهم في هذا الصدد. في معظم الحالات، تعكس أدوات الذكاء الاصطناعي التحزيات الجنسية والعرقية الموجودة في زمننا هذا. هذا يتضح في ورقة بحثية لباحثين من جامعة كامبردج، حيث وضحوا أن أدوات التوظيف بالذكاء الاصطناعي لم تحسن بشكل يُذكر التنوع وتقليل التحيز.

ذكرت MetaNews من قبل أن تطبيق الصور الشخصية “السيلفي” الذي يعتمد على الذكاء الاصطناعي، Lensa، أثار جدلًا حول إضفاء الطابع الجنسي على النساء.

الشركات تواجه بحقيقة تحيز الذكاء الاصطناعي

إلى الآن، تسعى عدة شركات لتلبية المبادئ الأخلاقية للذكاء الاصطناعي. ولكن لا يوجد حل جاهز لمنع حدوث تلك التحيزات. ولذلك، بعض الشركات تختار إيقاف المنتجات التي تظهر علامات تحيزية.

في 2018، ألغت أمازون خططها حول محرك توظيف يعمل بالذكاء الاصطناعي بعد أن لاحظت أن الأداة كانت عنصرية ضد النساء. في 2022، أعلنت مايكروسوفت أيضًا عن توقفها عن بيع برامج تحليل الوجه التي تعمل بالذكاء الاصطناعي بسبب تحيزها المسبب للمشاكل، وعدم دقة الخوارزمية.

مع عودة الذكاء الاصطناعي العظيمة في 2023، تظل المخاوف من المشاكل العرقية والتقاط التحيزات البشرية تحديًا كبيرًا للشركات والمطورين.

مقالات ذات صلة

آخر فيديو

الأكثر شهرة