تحيّز الذكاء الاصطناعي في التوظيف: كيف نكشفه ونصلحه بفعالية أكبر؟
حين تتسلّل التّحيّزات إلى أنظمة التّوظيف المعزّزة بالذكاء الاصطناعي، يصبح خطر انتقالها إلى قرارات البشر واقعاً يهدّد حياد الفرز، ما يجعل التدخّل البشريّ ضرورةً لضمان العدالة
يعلم الجميع أنّ الجيل الحاليّ من نماذج الذّكاء الاصطناعيّ لم يبلغ بعد مرحلة الكمال، فهو مليءٌ بالعيوب والاختلالات. فتتوهّم هٰذه الأدوات أحياناً، وتقدّم المعلومات الخاطئة بثقةٍ مزيفةٍ، وتعتمد في بنائها على بياناتٍ جمعت في ظروفٍ غامضةٍ، ممّا يعرّض المستخدمين لمشكلاتٍ مستقبليّةٍ في مجال الملكيّة الفكريّة. وفي المقابل، تعكس تلك المجموعات البيانيّة وجهاً آخر لمجتمعنا البشريّ المعقّد، بما فيه من تحيّزاتٍ وانحرافاتٍ، فتنسلّ هٰذه التّصوّرات المشوّهة إلى مخارج الذّكاء الاصطناعيّ، لتفضي أحياناً إلى نتائج غير موثوقةٍ، وقد تكون حتّى منحازةً عرقيّاً. وتؤكّد دراسةٌ جديدةٌ أنّ هٰذه المسألة أكثر خطورةً ممّا نظنّ، خاصّةً حين تتدخّل التّقنيات في مجالٍ دقيقٍ كالتّوظيف.
فقد فحص باحثون في جامعة واشنطن طريقة تصرّف أدوات الذّكاء الاصطناعيّ الّتي تستخدم في التّوظيف، وكيف أنّها تمارس تحيّزاتٍ عرقيّةً تؤثّر في توصياتها حول المتقدّمين. وعندما أظهرت الأدوات انحيازاً، اتّبع الموظّفون البشريّون الّذين يعملون في التّوظيف توصياتها بثقةٍ عمياء، كأنّهم يفوّضون ذهنهم لآلةٍ تبدو أكثر يقيناً. ولأنّ الحصول على بياناتٍ حقيقيّةٍ من سوق العمل صعبٌ بسبب الخصوصيّة، استعان الباحثون بنظمٍ محاكاةٍ للتّوظيف، كما شرحت الأستاذة أيلين كاليسكن في بيانٍ رسميٍّ.
ولم تكن النّتائج مفاجئةً فقط، بل كانت صادمةً أيضاً. فحين اعتمد المشاركون على نصائح نظامٍ محايدٍ، أو لم يتلقّوا أيّ توجيهٍ ذكيٍّ، تصرّفوا بعدالةٍ واختاروا المتقدّمين البيض وغير البيض بالنّسب نفسها. ولٰكن ما إن تدخّل نظامٌ منحازٌ حتّى انعكس تحيّزه في سلوك المشاركين أنفسهم؛ فإذا "فضّل" الذّكاء الاصطناعيّ المتقدّمين البيض، اختارهم البشر بالنّسبة نفسها، وإذا مال لغير البيض، ساروا على المثال نفسه. وعندما تكون التّحيّزات شديدةً جدّاً، يبدو أنّ بعض المشاركين يتردّدون، لكنّهم مع ذٰلك يتبعون توصيات النّظام في تسعين في المائة من الحالات، وهو نسبةٌ تظهر عمق الثّقة العمياء في الآلة.
وتبيّن جامعة واشنطن أنّ "مجرّد إدراك النّاس لوجود التّحيّز لا يكفي لتجاوزه"، فالوعي وحده لا يبطل الأثر. ويزداد الموضوع تعقيداً في ظلّ أزمة سوق العمل الحاليّة؛ فتقدم الشّركات والباحثون عن العمل على استخدام الذّكاء الاصطناعيّ للتّسريع والتّوسيع، فيقدّم المتقدّمون طلباتهم جمعاً، وتفرز الموارد البشريّة الآلاف بالنّظام نفسه. غير أنّ هٰذه الآليّة، وإن كانت توفّر الوقت، فإنّها تحمل معها خطر نقل التّحيّز من الإنسان إلى الآلة، ليصبح أكثر ثبوتاً وأعسر اكتشافاً.
وعلى الرّغم من كلّ ذٰلك، تظهر دراساتٌ أخرى جانباً أقلّ تشاؤماً؛ 80% من الشّركات الّتي تستخدم الذّكاء الاصطناعيّ في التّوظيف تؤكّد أنّها لا ترفض أيّ طالب عملٍ دون مراجعةٍ بشريّةٍ. ويدلّ ذٰلك على أنّ "وجود الإنسان في دائرة القرار" ما زال ضروريّاً، وأنّ تدريب الموظّفين على تحديد التّحيّزات المخفيّة يمكن أن يقلّل من أخطاء النّظام. ولٰكنّ الخطر يبقى قائماً، كما نبّهت الطّالبة كيرا ويلسن، إذ قالت: "ما لم يكن التّحيّز واضحاً، فالنّاس يقبلونه بسلوكٍ تلقائيٍّ ودون تساؤلٍ".
ولهٰذا، يظلّ تحسين نماذج الذّكاء الاصطناعيّ وتعديل خوارزميّاتها لتقليل التّحيّز حلّاً أساسيّاً. وقد أشار الباحثون إلى أنّ المشاركين الّذين خضعوا لاختبارٍ قبل التّجربة يقيس تحيّزاتهم اللّاواعية، قلّلوا سلوكهم المنحاز بمعدّلٍ بلغ 13%. ويثبت ذٰلك أنّ التّوعية والتّدريب يمكنان من تقليم أظفار التّحيّز، ولو جزئيّاً.
وينبغي للشّركات اليوم أن تتصرّف بعقلانيّةٍ، فعلى الرّغم من أنّ الذّكاء الاصطناعيّ يوفّر السّرعة ويقلّل التّكلفة، فإنّه لا يزال بعيداً عن العصمة من الخطإ. ويبقى ضروريّاً أن يتدخّل الإنسان قبل أن يتّخذ أيّ قرارٍ حاسمٍ مبنيٍّ على نصيحةٍ آتيةٍ من آلةٍ. وفي مجال التّوظيف خاصّةً، يجب على فرق الموارد البشريّة أن تتناقش بصراحةٍ حول المخاطر المترتّبة على الاعتماد المطلق على الذّكاء الاصطناعيّ، وأن تقيّم كلّ توصيةٍ صادرةٍ عنه بعينٍ بشريّةٍ ناقدةٍ، قبل أن تتحوّل إلى قرارٍ يمكن أن يغيّر مصير إنسانٍ.
شاهد أيضاً: أبرز 3 اتجاهات توظيف في سوق العمل الحالي