يُعد الذكاء الاصطناعي أداة فعّالة في تعزيز الكفاءة بمكان العمل، إلا أن استخدامه مرتبط ارتباطاً وثيقاً بوجود العنصر البشري القادر على تحقيق أقصى استفادة منه. بعبارةٍ أخرى، يمكن النظر إلى الذكاء الاصطناعي التوليدي على أنه “يدك اليمنى”؛ مساعدك الذي ينجز مهامك الروتينية بسرعة ويخفف عنك أعباء العمل اليومية، ولكن لا يتسنّى له العمل بفاعلية دون توجيهاتك وإرشاداتك. وعلى الرغم مما يتسم به الذكاء الاصطناعي من قدرة على حفظ البيانات وتحليلها واستخلاص المرئيات العملية منها بطريقة أسرع وأدق من البشر عموماً، لا تزال المؤسسات بحاجة إلى الموظفين الذين يمتلكون المهارات الخاصة المطلوبة للتعامل مع تحديات المستقبل، مثل الإبداع، والذكاء العاطفي، والتفكير النقدي، ومرونة التعلم.
ولذا، فإن المؤسسة التي تنجح في الجمع بين قدرات الذكاء الاصطناعي ومهارات العنصر البشري تصبح قادرة على تحقيق أقصى استفادة من الذكاء الاصطناعي بما يعود بالمنفعة عليها وعلى موظفيها على حدٍ سواء من عدة جوانب، أهمها:
بالرغم من الدور الفعّال للذكاء الاصطناعي في تعزيز كفاءة فِرق إدارة الموارد البشرية، من الضروري تطبيقه انطلاقاً من الرؤية الإستراتيجية للمؤسسة؛ لضمان مواءمته مع أهدافها وتلافي عواقبه السلبية منذ البداية. ولذا، من المهم أن تتخذ المؤسسات الإجراءات التالية قبل شروعها في دمج الذكاء الاصطناعي في عمليات الموارد البشرية:
3 أدوات للذكاء الاصطناعي تُستخدم على نطاق واسع في إدارات الموارد البشرية اليوم:
تتوفر فرصاً عديدة لتطبيق الذكاء الاصطناعي في تقييم المواهب، إذ يُستخدم مثلاً في إنشاء محتوى التقييم، وتصميم عمليات التوظيف القائمة على روبوتات المحادثة (chatbots)، وتعزيز الجانب التفاعلي لتقييمات السلوك في مواقف محاكية لبيئة العمل. وبصفتنا مسؤولي إدارة المواهب، ينبغي لنا اتباع نهج مرتكز على الأهداف وقياس الجوانب المطلوب تقييمها دون الانجراف وراء الميزات المُبهرة للتقنيات الجديدة دون التحقق من جدواها العملية. وبهذه الطريقة، يمكننا تسخير الإمكانات الهائلة التي توفرها أدوات الذكاء الاصطناعي في تقييم المواهب مع الانتباه لمخاطرها المحتملة. وفي هذا السياق، تبرز أهمية الدقة العلمية والنهج المدروس والشفافية الكاملة والتواصل عند اعتماد أي تقنية جديدة خاصةً إذا كانت تُستخدم في عمليات تقييم تنطوي على مخاطرة عالية، ما يؤكد على أن التدخل البشري لا يزال ضرورياً عند تطبيق أدوات التقييم المدعومة بالذكاء الاصطناعي. كما أن مسؤولي الموارد البشرية لا يزالوا مُطالبين بتوظيف مهاراتهم الفريدة التي يتميزون بها عن أي حاسوب لضمان اتخاذ قرارات تقييم فعّالة وعادلة.
يُساهم الذكاء الاصطناعي بشكلٍ كبير في تحسين عملية تقييم المواهب، ومن الجوانب التي تتضح بها فوائده ما يلي:
يصبح تحقيق التوازن بين اعتماد التكنولوجيا الحديثة وتوظيف مهارات العنصر البشري في الحُكم واتخاذ القرارات عنصراً حيوياً عند تطبيق أدوات التقييم المدعومة بالذكاء الاصطناعي. ومن أجل استخدام أدوات الذكاء الاصطناعي في عمليات التقييم بما يضمن العدالة والدقة والدفاع القانوني، ينبغي للمؤسسات الاستعانة بشريك تنفيذي لديه فهم عميق لما وراء التكنولوجيا والبيانات، وخبرة فعلية في علم التقييم ونظرياته، ودراية بمتطلبات القانون والامتثال على المستوى الدولي، وكفاءة في تصميم وتحسين تجربة المستخدم.
على الرغم من الفوائد العديدة لاستخدام أدوات التقييم المدعومة بالذكاء الاصطناعي، لا تخلو العملية من المخاطر التي ينبغي للمؤسسات إدراكها والتعامل معها بشفافية:
يضمن الالتزام بأفضل الممارسات في هذه المجالات كسب ثقة المرشحين والموظفين الحاليين، وطمأنتهم أن استخدام أدوات الذكاء الاصطناعي في عمليات التقييم والتقنيات ذات الصلة سيتم دائماً بطريقة مسؤولة.
لا يمكن إنكار الإيجابيات المتعددة للابتكارات التي تحققت بفضل استخدام الذكاء الاصطناعي على نطاق واسع في بيئة العمل، وفي الوقت نفسه لا يزال العلماء والمشرّعون ومجموعات العدالة الاجتماعية والإعلام يحذّرون من سلبيات استخدام الذكاء الاصطناعي في إدارة المواهب، وينبّهون من احتمالية حدوث حالات التحيّز أو انتهاك الخصوصية أو إساءة الاستخدام لتحقيق أغراض خبيثة.
تُرجمت هذه المخاوف إلى انعدام الثقة في جدوى استخدام الذكاء الاصطناعي في تقييم المواهب، بل ظهرت أيضاً مطالبات بوضع قيود صارمة على استخدامها، خاصة مع تزايد إمكانات الذكاء الاصطناعي فيما يتعلق بالأتمتة والقدرات التوليدية. وتعالت الأصوات المُنادية بوضع معايير أخلاقية لاستخدام التكنولوجيا والتقييم في عصر الذكاء الاصطناعي . ومؤخراً، قدمت جمعية علم النفس الصناعي والتنظيمي (SIOP) وجمعية إدارة الموارد البشرية (SHRM) توصيات بشأن التقييمات القائمة على الذكاء الاصطناعي، حيث سلّطت الضوء على ضرورة تحديد الممارسات الأخلاقية التي تحكم هذه العملية.
يمكن الجزم بأن الذكاء الاصطناعي سيظل حاضراً بقوة سواءً في بيئة العمل أو في الحياة بصفةٍ عامة، وأن فوائده بالنسبة للقوى العاملة تفوق بكثير مخاطره المحتملة. ولذا، من المرجح أن يحتفظ الذكاء الاصطناعي بمكانته كونه حجر الزاوية في تقييم المواهب مستقبلاً. ومع ذلك، ليس من المتوقع أن يحدث التحوّل الكامل بين ليلةٍ وضحاها. وينبغي للمؤسسات إدراك أن استخدام الذكاء الاصطناعي في تقييم المواهب موقف “عالي المخاطر”، ولذا من الضروري تطبيقه بطريقة مسؤولة ومع تفهُّم كامل للعواقب المحتملة. ومع استمرار التقدم في أدوات التقييم المدعومة بالذكاء الاصطناعي وتزايد المرئيات المرتبطة بها يوماً بعد يوم، ينبغي توخي الحذر من الاعتماد الزائد على هذه الأدوات. ونظراً لأن الهدف الأساسي من تقييمات المواهب هو التنبؤ بفرص النجاح في العمل بأكبر قدر ممكن من الدقة والموثوقية، ينبغي الانتباه عند استخدام حلول التقييم المدعومة بالذكاء الاصطناعي إلى أن يتم التأكد من قدرتها على توفير تقييمات عادلة. ومع زيادة إدراك المؤسسات لأهمية الذكاء الاصطناعي في بيئة العمل، من المتوقع استمرار استخدام أدوات الذكاء الاصطناعي في تقييم المواهب على نطاق أوسع بما يعزز الكفاءة في إنجاز المهام الروتينية التي لا تستدعي بالضرورة تدخلاً بشرياً. ومن ثمَّ، يوجه مسؤولو الموارد البشرية كامل تركيزهم إلى الجوانب التي ستظل بحاجة إلى التدخل البشري في عمليات تقييم المواهب، ومنها مثلاً فهم نتائج تقييم المرشحين أو الموظفين وتفسيرها وتحويلها إلى خطوات عملية.
استعانت شركة تالوجي بفريق من الخبراء المختصين لضمان استخدام الذكاء الاصطناعي في التقييمات بحذر وتوظيفه حيثما يُضيف قيمة فعلية، مع العمل في الوقت ذاته على الحدّ من مخاطر الغش والتحديات المتعلقة بعدم الامتثال للمتطلبات القانونية. ويعمل فريقنا من علماء النفس الصناعي والتنظيمي الحاصلين على الدكتوراه وفقاً لفلسفة مفادها أنه ينبغي استخدام حلول التقييم المدعومة بالذكاء الاصطناعي حيثما ثبت أنها تضيف قيمة حقيقية، دون أن يُغني ذلك عند تدخل الخبراء الذين يراقبون العملية للحد من التحيّز والتأثير الضار ومخاوف حدوث الغش. وبالتالي؛ تحصد مزايا استخدام الذكاء الاصطناعي في تعزيز تفاعل المرشحين وزيادة الكفاءة وتسريع العمليات وتقديم بيانات القيّمة، ما يؤدي بدوره إلى تحسين إستراتيجيات في إدارة المواهب وتحقيق النتائج المأمولة.
يمتلك فريق البحث والتطوير في شركة تالوجي خبرة متعمقة في علوم البيانات والتقنيات الإحصائية المتقدمة المرتبطة عادةً باستخدام الذكاء الاصطناعي في تقييم المواهب، مثل تعلم الآلة ومعالجة اللغة الطبيعية. وينحصر استخدام هذه التقنيات على النطاق المطلوب مع الحرص على اتباع نهج علمي ومسؤول في تطبيقها. ولا تعتمد حلولنا على “الذكاء الاصطناعي مفتوح المصدر”؛ أي أننا لا نطبّق الحلول التي تسمح بتغيير الخوارزميات بمرور الوقت دون تدخل بشري. بدلاً من ذلك؛ تعتمد عملياتنا على “الذكاء الاصطناعي مغلق المصدر” فقط، حيث تكون محمية من أي مدخلات أو تعديلات خارجية، ما يحافظ على نقاء نماذج الذكاء الاصطناعي وأمان بيانات العملاء والمرشحين.
من الأمثلة الرائعة على حلولنا التي استخدمنا فيها الذكاء الاصطناعي لتحسين النتائج مجموعة اختبارات القدرة المعرفية. وتستند منهجية التقييم على توظيف تقنيات تعلم الآلة لرصد السمات والأنماط الموجودة في بيانات الاختبار، ما يمكّننا من تسجيل الدرجات بأسلوب يحسّن من التنبؤ بالأداء مع الحد من خطر التأثير الضار. وفي الوقت نفسه، يمكن للمرشحين إكمال الاختبارات بسرعة وبمستوى التفاعل المأمول. وباستخدام تقنيات تعلم الآلة (الذكاء الاصطناعي) لتطوير نماذج تسجيل الدرجات، اتضح أن اختبارات Mindgage متنبئات فعّالة للأداء الوظيفي بجودة تُعادل أو تتفوق على التقييمات التقليدية فيما يتعلق ببعض الأدوار الوظيفية، مع تقليل الفروقات بين المجموعات الفرعية بنسبة تصل إلى 60%.
وضعت شركة تالوجي إطاراً واضحاً وصارماً لحوكمة الذكاء الاصطناعي؛ بهدف تعزيز ومراقبة الاستخدام الفعّال والآمن والأخلاقي لتقنيات الذكاء الاصطناعي. وحرصنا أيضاً على صياغة المبادئ الأخلاقية الأساسية لتطبيق الذكاء الاصطناعي في تقييمات المواهب، وهي كالتالي:
تأخذ شركة تالوجي تأثير الذكاء الاصطناعي على نزاهة التقييمات على محمل الجد. وتُجرى الأبحاث على هذا الجانب بوتيرة مستمرة لدراسة ما يترتب على الاستخدام غير المناسب للذكاء الاصطناعي في تقييم المواهب من آثار سلبية كي تحدد الأساليب الفعّالة في تلافي هذه الآثار. وتوصّلت مجموعة البحث الشاملة التي ضمّت مشاركين من وظائف وإدارات مختلفة إلى أن نستخدم مزيجاً مكوناً من أربعة مناهج أساسية للحد من مخاطر الغش باستخدام الذكاء الاصطناعي، التي يمكن تعريفها بأنها “انتهاك لنزاهة عملية التقييم أو الخداع أو تقديم الفرد لبيانات كاذبة عن عمله بشكلٍ متعمد”، وهذه المناهج هي: