استخدام الذكاء الاصطناعي في تقييم المواهب
تسبّب ظهور الذكاء الاصطناعي واستخدامه على نطاق واسع بمكان العمل في إحداث ثورة هائلة، حيث ساهم في التمكين من اتخاذ قرارات توظيف أفضل وتعزيز كفاءة عملية التوظيف وإدماج مزيدٍ من الممارسات الداعمة للتنوع والشمول. ندعوك إلى استكشاف تصوّر شركة تالوجي عن الفرص والتحديات وأفضل الممارسات المرتبطة باستخدام الذكاء الاصطناعي؛ حتى تكتسب نظرة متعمقة عن دوره في تعزيز كفاءة تقييم المواهب وعمليات إدارة الموارد البشرية بصفةٍ عامة في مؤسستك.

استخدام الذكاء الاصطناعي في إدارة الموارد البشرية
كيف يمكن استخدام الذكاء الاصطناعي لصالح المؤسسات والموظفين على حدٍ سواء؟
يُعد الذكاء الاصطناعي أداة فعّالة في تعزيز الكفاءة بمكان العمل، إلا أن استخدامه مرتبط ارتباطاً وثيقاً بوجود العنصر البشري القادر على تحقيق أقصى استفادة منه. بعبارةٍ أخرى، يمكن النظر إلى الذكاء الاصطناعي التوليدي على أنه “يدك اليمنى”؛ مساعدك الذي ينجز مهامك الروتينية بسرعة ويخفف عنك أعباء العمل اليومية، ولكن لا يتسنّى له العمل بفاعلية دون توجيهاتك وإرشاداتك. وعلى الرغم مما يتسم به الذكاء الاصطناعي من قدرة على حفظ البيانات وتحليلها واستخلاص المرئيات العملية منها بطريقة أسرع وأدق من البشر عموماً، لا تزال المؤسسات بحاجة إلى الموظفين الذين يمتلكون المهارات الخاصة المطلوبة للتعامل مع تحديات المستقبل، مثل الإبداع، والذكاء العاطفي، والتفكير النقدي، ومرونة التعلم.
ولذا، فإن المؤسسة التي تنجح في الجمع بين قدرات الذكاء الاصطناعي ومهارات العنصر البشري تصبح قادرة على تحقيق أقصى استفادة من الذكاء الاصطناعي بما يعود بالمنفعة عليها وعلى موظفيها على حدٍ سواء من عدة جوانب، أهمها:
كيف يمكن أن تستخدم إدارات الموارد البشرية الذكاء الاصطناعي بنجاح في مكان العمل؟
بالرغم من الدور الفعّال للذكاء الاصطناعي في تعزيز كفاءة فِرق إدارة الموارد البشرية، من الضروري تطبيقه انطلاقاً من الرؤية الإستراتيجية للمؤسسة؛ لضمان مواءمته مع أهدافها وتلافي عواقبه السلبية منذ البداية. ولذا، من المهم أن تتخذ المؤسسات الإجراءات التالية قبل شروعها في دمج الذكاء الاصطناعي في عمليات الموارد البشرية:
- وضع إرشادات واضحة عن إطار حكومة الذكاء الاصطناعي والمبادئ المرتبطة به – لا بد في المقام الأول من وضع السياسات والمبادئ التوجيهية التي تضمن استخدام الذكاء الاصطناعي في عمليات الموارد البشرية بأسلوب ملائم وأخلاقي. وينطوي هذا الإجراء على مراعاة عدة عناصر مثل ضرورة دراسة وتجربة أدوات الذكاء الاصطناعي، وتحديد درجة الأمان، ومستوى خصوصية البيانات، والاستخدامات الملائمة وغير الملائمة، ومدى الامتثال للمتطلبات القانونية، والحاجة إلى الإشراف البشري.
- تيسير التدريب – يتعين على المؤسسات توفير فرص التدريب لمسؤولي الموارد البشرية؛ حتى يصبحوا مؤهلين لاستخدام تقنيات الذكاء الاصطناعي بفاعلية وكذلك لتعزيز التجربة المرتكزة على الأفراد في مجال عملهم. ولذا، يوصى بالعمل على إتاحة الفرص التدريبية لتنمية المهارات الأساسية لديهم مثل الذكاء العاطفي، والتفكير النقدي، وتجنُّب التحيز، وبذلك تصبح القوى العاملة على استعداد تام لتوظيف إمكانات الذكاء الاصطناعي في عمليات الموارد البشرية.
- تحديد صانعي القرار الرئيسين – قد تتلاشى الحدود الفاصلة بين دور العنصر البشري ودور الذكاء الاصطناعي في عمليات الموارد البشرية، بما يستدعي تحديد المسؤولين عن اتخاذ القرار النهائي والتفكير في آليات تيسير إيصال ردود فعل المعنيين على القرارات المُتخذة.
- التركيز على إرساء قيم التنوع والمساواة والشمول – إذا طبّقت المؤسسات نماذج الذكاء الاصطناعي دون الاستناد إلى آراء الخبراء واللجوء إليهم لتيسير هذه العملية، فإنها تجازف بحدوث تحيّزات مجتمعية وإغفال التحديات الخاصة التي تواجه فئات معينة من الأقليات. وقد يترتب على ذلك توسيع الفوارق بين الأشخاص والإضرار أيضاً بمصالح الفئات المُهمّشة، ما يؤدي بدوره إلى بيئات عمل غير متجانسة إلى حدٍ كبير وغير داعمة لمبادئ التنوع والمساواة والشمول. وفي هذه الحالة، يتجلّى الدور الحيوي للخبرات البشرية في تطبيق نماذج الذكاء الاصطناعي وعمليات إدارة المواهب، إذ تساعد في الحدً من الانحياز واجتناب التأثير الضار
- اتباع نهج شامل – وأخيراً، فإن الدور الفعّال للذكاء الاصطناعي في بعض عمليات الموارد البشرية لا يقلل من ضرورة إدراك أبعاد بيئة العمل وأنها تستوعب أشخاصًا ذوي شخصيات معقدة وتفضيلات واهتمامات مختلفة وأيضاً تفاوت في إمكانات الأداء. ولذا، ينبغي للمؤسسات النظر في عملياتها ونتائجها من منظور شامل قبل اتخاذ أي قرارات حاسمة.
استخدام الذكاء الاصطناعي في تقييم المواهب
كيف يمكن استخدام الذكاء الاصطناعي في تقييم المواهب؟
تتوفر فرصاً عديدة لتطبيق الذكاء الاصطناعي في تقييم المواهب، إذ يُستخدم مثلاً في إنشاء محتوى التقييم، وتصميم عمليات التوظيف القائمة على روبوتات المحادثة (chatbots)، وتعزيز الجانب التفاعلي لتقييمات السلوك في مواقف محاكية لبيئة العمل. وبصفتنا مسؤولي إدارة المواهب، ينبغي لنا اتباع نهج مرتكز على الأهداف وقياس الجوانب المطلوب تقييمها دون الانجراف وراء الميزات المُبهرة للتقنيات الجديدة دون التحقق من جدواها العملية. وبهذه الطريقة، يمكننا تسخير الإمكانات الهائلة التي توفرها أدوات الذكاء الاصطناعي في تقييم المواهب مع الانتباه لمخاطرها المحتملة. وفي هذا السياق، تبرز أهمية الدقة العلمية والنهج المدروس والشفافية الكاملة والتواصل عند اعتماد أي تقنية جديدة خاصةً إذا كانت تُستخدم في عمليات تقييم تنطوي على مخاطرة عالية، ما يؤكد على أن التدخل البشري لا يزال ضرورياً عند تطبيق أدوات التقييم المدعومة بالذكاء الاصطناعي. كما أن مسؤولي الموارد البشرية لا يزالوا مُطالبين بتوظيف مهاراتهم الفريدة التي يتميزون بها عن أي حاسوب لضمان اتخاذ قرارات تقييم فعّالة وعادلة.
ما فوائد استخدام الذكاء الاصطناعي في تقييم المواهب؟
يُساهم الذكاء الاصطناعي بشكلٍ كبير في تحسين عملية تقييم المواهب، ومن الجوانب التي تتضح بها فوائده ما يلي:
تخصيص تجارب المرشحين وتحسينها بصفةٍ عامة.
أتمتة المهام والعمليات الروتينية التي عادة ما تُهدر الوقت.
مساعدة مسؤولي التوظيف على اتخاذ قرارات أكثر دقة.
تحديد أنماط البيانات المجمّعة على مستوى المؤسسة ككل، واستخلاص المرئيات العملية منها.
رصد حالات التحيّز اللاواعي والحدّ منها.
يصبح تحقيق التوازن بين اعتماد التكنولوجيا الحديثة وتوظيف مهارات العنصر البشري في الحُكم واتخاذ القرارات عنصراً حيوياً عند تطبيق أدوات التقييم المدعومة بالذكاء الاصطناعي. ومن أجل استخدام أدوات الذكاء الاصطناعي في عمليات التقييم بما يضمن العدالة والدقة والدفاع القانوني، ينبغي للمؤسسات الاستعانة بشريك تنفيذي لديه فهم عميق لما وراء التكنولوجيا والبيانات، وخبرة فعلية في علم التقييم ونظرياته، ودراية بمتطلبات القانون والامتثال على المستوى الدولي، وكفاءة في تصميم وتحسين تجربة المستخدم.
ما تحديات استخدام الذكاء الاصطناعي في تقييم المواهب؟
على الرغم من الفوائد العديدة لاستخدام أدوات التقييم المدعومة بالذكاء الاصطناعي، لا تخلو العملية من المخاطر التي ينبغي للمؤسسات إدراكها والتعامل معها بشفافية:
- إغفال “العنصر البشري”: قد يؤدي الاعتماد المُفرط على أتمتة عمليات التقييم إلى اتخاذ قرارات التوظيف غير المُراعية للجوانب الإنسانية مثل التعاطف والرؤية المستقبلية.
- المدخلات المتحيزة تُنتج مخرجات متحيزة: من الضروري فهم خصائص البيانات المُستخدمة في تلقيم نماذج الذكاء الاصطناعي والتأكد من جودتها؛ فبالرغم من هذه النماذج مصممة على مبدأ الحيادية، لا يزال ممكناً أن تتعلم من التحيزات المجتمعية المحتمل وجودها في المدخلات وأن تكررها في النتائج المقدمة. وتبرز في هذه الحالة أهمية مراقبة العملية عن كثب للحدّ من هذه التحيزات.
- النماذج الأكثر تعقيداً تكون الأقل وضوحاً: كلما زاد تعقيد النماذج وتطوّرها، أصبح من الأصعب فهمها وتفسيرها.
- الحاجة إلى كميات ضخمة من البيانات: تحتاج نماذج الذكاء الاصطناعي إلى التغذية المستمرة بكمّ هائل من البيانات التي يجب جمعها باتباع نهج أخلاقي يضمن خصوصية وسرية المعلومات الشخصية والمرتبطة بالملكية.
- انتهاكات خصوصية البيانات: يجب على المستخدمين توخي الحذر بشأن خصوصية البيانات والانتباه تحديداً لنوعية البيانات المُدخلة في أدوات الذكاء الاصطناعي، لا سيّما الأدوات المتاحة للعامة التي يجمع منها مزودو الخدمات البيانات المُدخلة من أجل تدريب وتعليم نماذجهم.
- إعادة استخدام عمليات الذكاء الاصطناعي لأغراض مختلفة قد تؤدي إلى أخطاء: يجب اتباع نهج مدروس عند تكييف أدوات الذكاء الاصطناعي المُستخدمة في مجالات العمل الأخرى لتلائم حلول إدارة المواهب وعملياتها في المؤسسة.
يضمن الالتزام بأفضل الممارسات في هذه المجالات كسب ثقة المرشحين والموظفين الحاليين، وطمأنتهم أن استخدام أدوات الذكاء الاصطناعي في عمليات التقييم والتقنيات ذات الصلة سيتم دائماً بطريقة مسؤولة.
ما المخاوف الأخلاقية التي ينطوي عليها استخدام الذكاء الاصطناعي في إدارة المواهب؟
لا يمكن إنكار الإيجابيات المتعددة للابتكارات التي تحققت بفضل استخدام الذكاء الاصطناعي على نطاق واسع في بيئة العمل، وفي الوقت نفسه لا يزال العلماء والمشرّعون ومجموعات العدالة الاجتماعية والإعلام يحذّرون من سلبيات استخدام الذكاء الاصطناعي في إدارة المواهب، وينبّهون من احتمالية حدوث حالات التحيّز أو انتهاك الخصوصية أو إساءة الاستخدام لتحقيق أغراض خبيثة.
تُرجمت هذه المخاوف إلى انعدام الثقة في جدوى استخدام الذكاء الاصطناعي في تقييم المواهب، بل ظهرت أيضاً مطالبات بوضع قيود صارمة على استخدامها، خاصة مع تزايد إمكانات الذكاء الاصطناعي فيما يتعلق بالأتمتة والقدرات التوليدية. وتعالت الأصوات المُنادية بوضع معايير أخلاقية لاستخدام التكنولوجيا والتقييم في عصر الذكاء الاصطناعي . ومؤخراً، قدمت جمعية علم النفس الصناعي والتنظيمي (SIOP) وجمعية إدارة الموارد البشرية (SHRM) توصيات بشأن التقييمات القائمة على الذكاء الاصطناعي، حيث سلّطت الضوء على ضرورة تحديد الممارسات الأخلاقية التي تحكم هذه العملية.
ما الرؤية المستقبلية لاستخدام الذكاء الاصطناعي في تقييم المواهب؟
يمكن الجزم بأن الذكاء الاصطناعي سيظل حاضراً بقوة سواءً في بيئة العمل أو في الحياة بصفةٍ عامة، وأن فوائده بالنسبة للقوى العاملة تفوق بكثير مخاطره المحتملة. ولذا، من المرجح أن يحتفظ الذكاء الاصطناعي بمكانته كونه حجر الزاوية في تقييم المواهب مستقبلاً. ومع ذلك، ليس من المتوقع أن يحدث التحوّل الكامل بين ليلةٍ وضحاها. وينبغي للمؤسسات إدراك أن استخدام الذكاء الاصطناعي في تقييم المواهب موقف “عالي المخاطر”، ولذا من الضروري تطبيقه بطريقة مسؤولة ومع تفهُّم كامل للعواقب المحتملة. ومع استمرار التقدم في أدوات التقييم المدعومة بالذكاء الاصطناعي وتزايد المرئيات المرتبطة بها يوماً بعد يوم، ينبغي توخي الحذر من الاعتماد الزائد على هذه الأدوات. ونظراً لأن الهدف الأساسي من تقييمات المواهب هو التنبؤ بفرص النجاح في العمل بأكبر قدر ممكن من الدقة والموثوقية، ينبغي الانتباه عند استخدام حلول التقييم المدعومة بالذكاء الاصطناعي إلى أن يتم التأكد من قدرتها على توفير تقييمات عادلة. ومع زيادة إدراك المؤسسات لأهمية الذكاء الاصطناعي في بيئة العمل، من المتوقع استمرار استخدام أدوات الذكاء الاصطناعي في تقييم المواهب على نطاق أوسع بما يعزز الكفاءة في إنجاز المهام الروتينية التي لا تستدعي بالضرورة تدخلاً بشرياً. ومن ثمَّ، يوجه مسؤولو الموارد البشرية كامل تركيزهم إلى الجوانب التي ستظل بحاجة إلى التدخل البشري في عمليات تقييم المواهب، ومنها مثلاً فهم نتائج تقييم المرشحين أو الموظفين وتفسيرها وتحويلها إلى خطوات عملية.
نهج تالوجي لاستخدام الذكاء الاصطناعي في تقييم المواهب
ما المبادئ وأفضل الممارسات التي تعتمدها شركة تالوجي عند استخدام الذكاء الاصطناعي في تقييم المواهب؟
استعانت شركة تالوجي بفريق من الخبراء المختصين لضمان استخدام الذكاء الاصطناعي في التقييمات بحذر وتوظيفه حيثما يُضيف قيمة فعلية، مع العمل في الوقت ذاته على الحدّ من مخاطر الغش والتحديات المتعلقة بعدم الامتثال للمتطلبات القانونية. ويعمل فريقنا من علماء النفس الصناعي والتنظيمي الحاصلين على الدكتوراه وفقاً لفلسفة مفادها أنه ينبغي استخدام حلول التقييم المدعومة بالذكاء الاصطناعي حيثما ثبت أنها تضيف قيمة حقيقية، دون أن يُغني ذلك عند تدخل الخبراء الذين يراقبون العملية للحد من التحيّز والتأثير الضار ومخاوف حدوث الغش. وبالتالي؛ تحصد مزايا استخدام الذكاء الاصطناعي في تعزيز تفاعل المرشحين وزيادة الكفاءة وتسريع العمليات وتقديم بيانات القيّمة، ما يؤدي بدوره إلى تحسين إستراتيجيات في إدارة المواهب وتحقيق النتائج المأمولة.

كيف تستخدم شركة تالوجي الذكاء الاصطناعي في حلولها لتقييم المواهب؟
يمتلك فريق البحث والتطوير في شركة تالوجي خبرة متعمقة في علوم البيانات والتقنيات الإحصائية المتقدمة المرتبطة عادةً باستخدام الذكاء الاصطناعي في تقييم المواهب، مثل تعلم الآلة ومعالجة اللغة الطبيعية. وينحصر استخدام هذه التقنيات على النطاق المطلوب مع الحرص على اتباع نهج علمي ومسؤول في تطبيقها. ولا تعتمد حلولنا على “الذكاء الاصطناعي مفتوح المصدر”؛ أي أننا لا نطبّق الحلول التي تسمح بتغيير الخوارزميات بمرور الوقت دون تدخل بشري. بدلاً من ذلك؛ تعتمد عملياتنا على “الذكاء الاصطناعي مغلق المصدر” فقط، حيث تكون محمية من أي مدخلات أو تعديلات خارجية، ما يحافظ على نقاء نماذج الذكاء الاصطناعي وأمان بيانات العملاء والمرشحين. من الأمثلة الرائعة على حلولنا التي استخدمنا فيها الذكاء الاصطناعي لتحسين النتائج مجموعة اختبارات القدرة المعرفية. وتستند منهجية التقييم على توظيف تقنيات تعلم الآلة لرصد السمات والأنماط الموجودة في بيانات الاختبار، ما يمكّننا من تسجيل الدرجات بأسلوب يحسّن من التنبؤ بالأداء مع الحد من خطر التأثير الضار. وفي الوقت نفسه، يمكن للمرشحين إكمال الاختبارات بسرعة وبمستوى التفاعل المأمول. وباستخدام تقنيات تعلم الآلة (الذكاء الاصطناعي) لتطوير نماذج تسجيل الدرجات، اتضح أن اختبارات Mindgage متنبئات فعّالة للأداء الوظيفي بجودة تُعادل أو تتفوق على التقييمات التقليدية فيما يتعلق ببعض الأدوار الوظيفية، مع تقليل الفروقات بين المجموعات الفرعية بنسبة تصل إلى 60%.
ما الإجراءات التي تتخذها شركة تالوجي لاحتواء المخاطر التي ينطوي علها استخدام الذكاء الاصطناعي في التقييمات؟
وضعت شركة تالوجي إطاراً واضحاً وصارماً لحوكمة الذكاء الاصطناعي؛ بهدف تعزيز ومراقبة الاستخدام الفعّال والآمن والأخلاقي لتقنيات الذكاء الاصطناعي. وحرصنا أيضاً على صياغة المبادئ الأخلاقية الأساسية لتطبيق الذكاء الاصطناعي في تقييمات المواهب، وهي كالتالي:
- . الأمن والسلامة: ينبغي إدارة تطبيقات الذكاء الاصطناعي بطريقة مسؤولة، والحماية من المخاطر غير المتعمدة التي قد تُلحق ضرراً بالأفراد أو المؤسسات.
- الخصوصية: ينبغي مراعاة خصوصية البيانات وحمايتها في مراحل التطوير والتخزين واستخدام الذكاء الاصطناعي بما يتوافق مع الأغراض المقصودة والموافقات الممنوحة والقوانين والأنظمة المعمول بها.
- العدالة: يتعين تطوير واستخدام تطبيقات الذكاء الاصطناعي بأسلوب متوازن؛ للحدّ من التحيّز واجتناب النتائج غير المقصودة. وفي الوقت نفسه، يحصل جميع المرشحين على فرص متكافئة ومعاملة عادلة.
- الموثوقية والدقة: ينبغي أن تحقق تطبيقات الذكاء الاصطناعي نتائج دقيقة ومتسقة ومحددة وصادقة، بحيث تنجح في تحقيق الغرض المقصود من استخدامها.
- . الشفافية وقابلية التفسير: يتعين الإفصاح عن تطبيقات الذكاء الاصطناعي في مكان العمل حينما يكون ذلك ضرورياً ومناسباً، كما ينبغي شرح استخدامها بأسلوب بسيط مع إتاحة إمكانية معاينتها وطرحها بقدر كافٍ من الشفافية.
- تمكين العنصر البشري: ينبغي تطوير تطبيقات الذكاء الاصطناعي واستخدامها بطريقة تحترم كرامة الإنسان وتعكس تبنّي المسؤولية الاجتماعية وتضمن التدخل البشري عند الضرورة.
- المُساءلة والحوكمة: يجب أن تكون تطبيقات الذكاء الاصطناعي محكومة بسياسات وإجراءات محددة، بما تضمن توافقها مع الغرض المقصود منها، ويراعي المسؤولية عن القرارات والنتائج المتربة على استخدام الذكاء الاصطناعي في إدارة المواهب وتقييماتها.
ما الإجراءات التي تتخذها شركة تالوجي للحد من إساءة استخدام الذكاء الاصطناعي من جانب المرشحين أثناء خوض التقييمات؟
تأخذ شركة تالوجي تأثير الذكاء الاصطناعي على نزاهة التقييمات على محمل الجد. وتُجرى الأبحاث على هذا الجانب بوتيرة مستمرة لدراسة ما يترتب على الاستخدام غير المناسب للذكاء الاصطناعي في تقييم المواهب من آثار سلبية كي تحدد الأساليب الفعّالة في تلافي هذه الآثار. وتوصّلت مجموعة البحث الشاملة التي ضمّت مشاركين من وظائف وإدارات مختلفة إلى أن نستخدم مزيجاً مكوناً من أربعة مناهج أساسية للحد من مخاطر الغش باستخدام الذكاء الاصطناعي، التي يمكن تعريفها بأنها “انتهاك لنزاهة عملية التقييم أو الخداع أو تقديم الفرد لبيانات كاذبة عن عمله بشكلٍ متعمد”، وهذه المناهج هي:
- التصميم: نستند في تصميم تقييماتنا على الأبحاث المتعمقة التي تمكّننا من اكتساب نظرة متعمقة عن خطر الغش باستخدام الذكاء الاصطناعي على مستوى الأنواع المختلفة من التقييمات. ومن خلال الاختيار الدقيق للمجموعة المناسبة من أساليب التقييم، نضمن تقديم نتائج موثوقة تلبي الاحتياجات المرصودة في مرحلة تصميم الحل.
- التوجيه: يوصى بأن تحدد المؤسسات موقفها بوضوح حول ما تعتبره استخداماً مناسباً أو غير مناسباً للذكاء الاصطناعي في عملية التقييم، ثم إبلاغ المرشحين بموقفها هذا بشفافية كبيرة منذ البداية.
- الرصد: تلتزم شركة تالوجي بالرصد المستمر لبيانات التقييم لتحديد الاتجاهات السائدة التي قد تُشير إلى زيادة في حالات الغش أو تكشف تصرفات غير معتادة من المرشحين. كما تُجرى مراجعات دورية لدراسة تأثير الذكاء الاصطناعي التوليدي على التقييمات المتوفرة لديها.
- الردع: من بين الآليات المستخدمة لمنع حالات الغش تعطيل ميزة النسخ واللصق في العديد من حلول التقييم. بالإضافة إلى ذلك، طبّقت الشركة ما تطلق عليه “تعهدات المرشحين”، وهي وسيلة رادعة مُثبتة الفعالية، حيث يتعهد المشاركون بخوض التقييمات بنزاهة ودون مساعدة خارجية.
