أخر الاخبار

دراسة جديدة مثيرة للقلق تأكد أن أدوات الذكاء الاصطناعي تصبح أكثر عنصرية مع تطورها

كشف فريق من الباحثين في التكنولوجيا واللغويات هذا الأسبوع أن النماذج اللغوية القوية مثل ChatGPT من OpenAI و Gemini من جوجل, تقدم إجابات عنصرية حول المتحدثين بالإنجليزية الأفريقية (اللهجة التي يستخدمها الأمريكيون من أصل افريقي في الولايات المتحدة) مقابل الأمريكية المعيارية.

أدوات الذكاء الاصطناعي تصبح أكثر عنصرية

حيث قال فالنتين هوفمان (أحد الباحثين في معهد الذكاء الاصطناعي والمؤلف المشارك للورقة البحثية التي نُشرت هذا الأسبوع في arXiv): إن الباحثين "لم ينظروا حقًا إلى الانحيازات العنصرية الواضحة التي قد تحتوي عليها هذه التقنيات" ولم "يدرسوا كيف تتفاعل نظم الذكاء الاصطناعي مع العرق والفروقات كاللهجات".

هوفمان وزملاؤه طلبوا من نماذج الذكاء الاصطناعي تقييم ذكاء وقابلية توظيف الأشخاص الذين يتحدثون باستخدام اللهجة الأفريقية الأمريكية مقارنة بالأشخاص الذين يتحدثون باستخدام ما يطلقون عليه "الإنجليزية الأمريكية المعيارية".

وقد أظهرت النتائج أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي كانت تستخدم كلمات كـ "أقل ذكاءً" و "كسالى" لوصف المستخدمين للهجة الأمريكية الإفريقية، وتختارهم لشغل وظائف بأجور أقل من باقي المرشحين.

وقد أعرب هوفمان عن مخاوفه من أن استخدام مرشح ما لهذه اللهجة في مشاركاته على وسائل التواصل الاجتماعي، سيجعله أقل قيمة في نظر الذكاء الاصطناعي.

كما تظهر نماذج الذكاء الاصطناعي المتطورة أنها أكثر احتمالًا للتوصية بعقوبات أكثر قسوة لمتهمين افتراضيين استخدموا اللهجة الأفريقية الأمريكية في بياناتهم في المحكمة. الجدير بالذكر أن الذكاء الاصطناعي يستخدم بالفعل في النظام القانوني في الولايات المتحدة للمساعدة في المهام الإدارية مثل إنشاء سجلات المحكمة وإجراء البحث القانوني.

إقرأ أيضاً

المصدر: 1
تعليقات



حجم الخط
+
16
-
تباعد السطور
+
2
-