في الشهر الماضي قررت استخدام نموذج ذكاء اصطناعي تحديدا Custom GPT كأداة تحليل موارد بشرية، فأدخلت بيانات كل موظف في فريقي منذ بداية عمله وحتى اليوم ليقيّم أدائهم تلقائيّاً ويقدم توصيات بسيطة حول الترقية أو الإبقاء على الوضع الحالي، وتعديل الرواتب بما يوازي مجهوداتهم، واقتراح برامج تدريبية، وحتى النظر في حالات الفصل عند الضرورة؛ وعلى الرغم من أن النموذج أخطأ أحياناً وأعطى توصيات غير متسقة، وافتقد الأبعاد الإنسانية والنفسية لكل حالة، إلا أنه ظل منصفاً لأنه اعتمد دائماً على أرقام ومعايير واضحة خالية من التحيّز الشخصي أو العاطفي، فالأمْر بهذه البساطة: أليس الاعتماد على الذكاء الاصطناعي لتقييم أداء الموظفين أكثر عدلاً بالرغم من الهلوسة والإخفاقات؟
الاعتماد على الذكاء الاصطناعي لتقييم أداء الموظفين أكثر عدلاً
لا أراه هكذا صراحة، هذا تبسيط مخل لأن الأرقام وحدها لا تقول كل شيء، ولا تعكس بالضرورة الروح والاجتهاد والظروف الفردية لكل موظف، ممكن جداً موظف يكون أداؤه الرقمي متوسط، لكنه عنصر إيجابي جدًّا في الفريق، أو بيمر بظرف مؤقت لا تظهره الجداول، فالذكاء الاصطناعي أداة رائعة للمساعدة نعم، لكنه مش المفروض يكون صاحب القرار النهائي، لأن في النهاية إحنا بنتعامل مع بشر مش روبوتات، والعدل مش دايمًا رقم في خانة.
أتفق معك لأن تقييم الأداء لا يمكن أن يعتمد فقط على الأرقام أو تقارير يقدمها نظام آلي الذكاء الاصطناعي أداة مفيدة نعم لكنه لا يرى الصورة كاملة الأداء يتأثر بعوامل كثيرة مثل الظروف الشخصية وطبيعة المهام وحتى تأثير الموظف على زملائه أحيانًا يكون الموظف عادي بالأرقام لكنه يعطي طاقة إيجابية للفريق أو يخفف التوتر أو يحل مشكلات لا تظهر في التقارير لهذا أعتقد أن التقييم العادل يحتاج الجمع بين التحليل الرقمي والنظرة البشرية التي تفهم السياق والناس
فكرتك مغرية لأنها تعد بإخراج التقييم من مزاج المدير إلى منطق الأرقام، لكنك تقفز فوق حفرة أوسع: ما تسميه “معايير واضحة” ليس محايداً بطبيعته، بل انعكاس لمن صاغه ولمن كانت لديه أصلاً فرصة ليلمع ضمنه؛ الخوارزمية لا تزيل التحيز، بل تجمّده في قالب أنيق وتضخمه بسرعة آلة. العدالة في تقييم الأداء ليست جمع نقاط فقط، بل أيضاً فهم السياق: توزيع المهام غير المتكافئ، العمل الرعائي غير المرئي، تأثير الصحة النفسية، ديناميكيات الفريق، وتحيزات اللغة واللهجة والسلوك ،أبعاد يخطئها النموذج إن لم تطعمه بيانات مصححة وكاملة وتضبط له حوكمة صارمة في التقييم. ثم إن “الهلوسة” ليست خطأ تجميلياً، بل قراراً إدارياً قد يُخفض راتباً أو (يقيل إنساناً) .
،أبعاد يخطئها النموذج إن لم تطعمه بيانات مصححة وكاملة وتضبط له حوكمة صارمة في التقييم.
إذن؛ فهو خطأ من يدخل المعلومات ليس من يحللها، ولكن ماذا لو أضفنا للذكاء الاصطناعي كل التقارير السلوكية وجعلناه في الصورة بشكل كامل؟
ثم إن “الهلوسة” ليست خطأ تجميلياً، بل قراراً إدارياً
حتى الآن، من يسير خلف هلوسة الذكاء الاصطناعي هو المهلوس الحقيقي، ولذلك أنا أعلم أن النتيجة لم تكن مرضية بالنسبة لي ولكنها على أي حال وفرت علي ساعات من التحليل التي قد أكون في معظمها متحيزا.
لا أتفق مع الاعتماد على الذكاء الاصطناعي لتقييم أداء الموظفين، خصوصًا وأنك ذكرت بنفسك أن الأداة قد تُخطئ أحيانًا أو تصدر عنها توصيات غير متّسقة. في حالة التقييم، أي خطأ بسيط قد يتحوّل إلى ظلم حقيقي يؤثر على مستقبل الموظف ومصدر دخله. التقييم العادل لا يمكن فصله عن الإدراك الإنساني، فليست كل الأرقام تعكس الحقيقة، وبعض الجهود لا تُقاس بالأداء الرقمي فقط. دور المدير هنا أساسي، أن يلاحظ، ويتابع، ويوجّه، ويقدّر، ويحاسب.
التعليقات