Published On 3/5/2026
لم يعد البحث اليوم عن عمل مقتصرا على إرسال السيرة الذاتية أو الإجابة عن أسئلة مدير بشري، فقد تحول جزء كبير من هذه العملية إلى صندوق أسود رقمي، حيث باتت خوارزميات الذكاء الاصطناعي هي الحارس الأول للبوابة المهنية. ويفتح مثل هذا التحول التقني، الذي تبرره الشركات بحجم الطلبات الهائل، نقاشا حادا حول حدود الأتمتة والعدالة والأخلاقيات الرقمية في سوق العمل.
التوظيف في عصر “الخوارزميات”
كشف تقرير حديث لصحيفة “الغارديان” البريطانية عن اتساع الفجوة بين طموحات الشركات التقنية وتجارب الباحثين عن عمل. أظهرت البيانات أن نحو 47% من الباحثين عن عمل في المملكة المتحدة قد خضعوا بالفعل لمقابلات توظيف يديرها الذكاء الاصطناعي. وبشكل لافت، قرر 30% من المرشحين الانسحاب تماما من عملية التوظيف بمجرد علمهم بوجود هذا النوع من المقابلات، مما يشير إلى أزمة ثقة.
ماذا يحدث داخل “المقابلة الآلية”؟
من الناحية التقنية، لا تكتفي هذه الأنظمة بتسجيل الإجابات، بل تعمل وفق نماذج معقدة متعددة الأبعاد. تحلل الخوارزميات الكلمات المفتاحية، وتماسك الأفكار، وحتى استخدام “المصطلحات المهنية” المحددة مسبقا، مما يحول المقابلة إلى عملية “حشو كلمات” بدلا من تقييم للشخصية.
كما تعمل هذه الأنظمة على تحليل النبرة والسمات، حيث تسعى الأنظمة المتقدمة إلى تحليل “نبرة الصوت” و”سرعة الحديث” وحتى “تعابير الوجه”، رغم الجدل العلمي حول دقتها. تهدف هذه الأدوات لتقدير السمات الشخصية مثل الثقة أو الذكاء العاطفي، لكنها غالبا ما تفشل في استيعاب التنوع الثقافي أو الاختلافات في أساليب التواصل.
يفتقر الذكاء الاصطناعي، بحسب أحد المشاركين في تحقيق لصحيفة “الغارديان”، إلى القدرة على فهم “الصمت التأملي” أو “الاستطراد السياقي”. تقاطع الأنظمة المرشحين إذا توقفوا للحظة للتفكير، مما يقتل العفوية والعمق في الإجابة.
تحديات تعجز عنها الخوارزميات
تتعدد أوجه الاستياء التي وثقها التقرير، وهي تعكس جوانب تقنية وأخلاقية عميقة. وصف كثيرون التجربة بأنها “حديث مع مرآة”، حيث يغيب الطرف الآخر الذي يمنح المرشح شعورا بالاعتراف أو التقدير. هذا الغياب للجانب الإنساني يجعل المقابلة تبدو “مهينة” لكثير من الكفاءات.
المشكلة الأخطر، حسب المشاركين، تكمن في أن هذه الخوارزميات تتدرب على بيانات تاريخية قد تحتوي على تحيزات ضد مجموعات معينة. وعندما تُستخدم لفلترة المتقدمين، فإنها قد تعيد إنتاج نفس التحيزات بشكل آلي ومستتر، مما يقلل من فرص الأشخاص الذين لا تتطابق “بصمتهم الرقمية” مع النموذج المثالي الذي حدده المبرمجون.
إضافة إلى العجز عن تقييم “غير النمطي”، تظهر التجارب الشخصية، مثل تلك التي ذكرها أحد المشاركين بخصوص صعوبات يواجهها أصحاب التفكير المختلف مثل “طيف التوحد” مع هذه الأنظمة، أن الذكاء الاصطناعي يفضل الإجابات النمطية “المعلبة”. ويعاقب أي تفكير إبداعي أو تحليلي يتطلب وقتا أو سياقا خاصا.
إنسان في الحلقة
يضع التقرير الشركات أمام مسؤولية أخلاقية. الأتمتة لغرض الكفاءة يجب ألا تأتي على حساب “جودة التوظيف”. بعض التوصيات الحالية تتجه نحو الشفافية الكاملة، حيث يجب على الشركات الإفصاح عن معايير التقييم وكيفية استخدام الذكاء الاصطناعي. كما يجب توفير بديل بشري لمن يجدون صعوبة في التعامل مع الأنظمة الآلية.
إضافة إلى المراجعة البشرية، يجب أن يكون استخدام الذكاء الاصطناعي أداة مساعدة لا لاتخاذ قرار الرفض أو القبول النهائي بشكل أعمى. بينما يرى أصحاب العمل حلا سحريا في الأتمتة لزحام الطلبات، يرى المرشحون فيها “جدارا رقميا” يفتقر للحكمة والإنصاف.
يقول المراقبون إن مستقبل التوظيف الناجح لن يكون في “أتمتة البشر”، بل في استخدام التكنولوجيا لتعزيز القدرة البشرية على الاختيار، لا لاستبدالها. المستقبل القريب سيشهد مزيدا من النقاش حول آليات التحقق من عدالة الخوارزميات وضمان عدم تضخم التحيزات القائمة.


