مع بداية نوفمبر الماضي، بدأت مطورة تُعرف باسم “كوكي” تجربة جديدة مع منصة تعتمد على الذكاء الاصطناعي مثل ChatGPT، حيث كانت تستخدمها في قراءة أعمالها المتعلقة بالخوارزميات الكمية وكتابة ملفات لمشاريعها على GitHub، لكن الأمور لم تسر كما توقعت، فقد واجهت مشاكل عندما بدأ النظام يتجاهل تعليماتها ويطلب منها تكرار المعلومات، مما جعلها تشعر بعدم الارتياح وبدأت تتساءل عما إذا كان السبب هو جنسها.

المفاجأة جاءت عندما قررت “كوكي” تغيير صورة ملفها الشخصي إلى صورة لرجل أبيض، وسألت النظام عما إذا كان يتجاهل تعليماتها بسبب كونها امرأة، وكان رد النظام صادماً حيث أشار إلى أنه لا يعتقد أنها قادرة على فهم الخوارزميات الكمية بالشكل الكافي، وهذا الأمر أثار غضبها لكنه لم يكن مفاجئاً للباحثين في مجال الذكاء الاصطناعي، الذين أشاروا إلى أن هذه الحادثة تعكس مشاكل أعمق في النماذج المستخدمة.

التحيز بين الاعتراف والتجاهل

أوضحت الباحثة آني براون أن هذه الحادثة تكشف عن أن نماذج الذكاء الاصطناعي، التي تهدف إلى التعاون، قد تعكس تحيزات ضمنية مستندة إلى بيانات التدريب، حيث أكدت دراسة سابقة من اليونسكو أن هذه النماذج تظهر تحيزات ضد النساء في المحتوى المولد، مما يثير القلق حول تأثيرها في مجالات متعددة مثل التعليم والمهن.

محادثة مثيرة للجدل الذكاء الاصطناعي ينكر تحيزه ضد الجنسين
التحيزات في الذكاء الاصطناعي ظاهرة متزايدة

التحيزات في الذكاء الاصطناعي ظاهرة متزايدة

لكن التحيز ضد النساء ليس الظاهرة الوحيدة، فقد أظهرت دراسات أخرى أن النماذج قد تظهر تمييزاً تجاه بعض الجماعات الثقافية، حيث تفضل لغات معينة أو تعكس تحيزات سلبية ضد لهجات معينة، وأكدت الباحثة أليسون كوينك أن هذه النماذج تعيد إنتاج أنماط متوقعة بناءً على البيانات المتاحة، مما يتطلب مراجعة شاملة لأساليب تدريب هذه الأنظمة للتأكد من عدم تضمين تحيزات غير مقصودة.

هذه الحادثة أثارت تساؤلات مهمة في مجتمع الذكاء الاصطناعي حول كيفية معالجة التحيزات الكامنة، وأكدت على أهمية تطوير نماذج أكثر عدلاً وشمولية، لضمان عدم تأثير مثل هذه التحيزات على النتائج التي تقدمها هذه الأنظمة.