المكاتب العالمية وظائف

استخدام الذكاء الاصطناعي في تقييم المواهب

تسبّب ظهور الذكاء الاصطناعي واستخدامه على نطاق واسع بمكان العمل في إحداث ثورة هائلة، حيث ساهم في التمكين من اتخاذ قرارات توظيف أفضل وتعزيز كفاءة عملية التوظيف وإدماج مزيدٍ من الممارسات الداعمة للتنوع والشمول. ندعوك إلى استكشاف تصوّر شركة تالوجي عن الفرص والتحديات وأفضل الممارسات المرتبطة باستخدام الذكاء الاصطناعي؛ حتى تكتسب نظرة متعمقة عن دوره في تعزيز كفاءة تقييم المواهب وعمليات إدارة الموارد البشرية بصفةٍ عامة في مؤسستك.

استخدام الذكاء الاصطناعي في إدارة الموارد البشرية

كيف يمكن أن تستخدم إدارات الموارد البشرية الذكاء الاصطناعي بنجاح في مكان العمل؟

بالرغم من الدور الفعّال للذكاء الاصطناعي في تعزيز كفاءة فِرق إدارة الموارد البشرية، من الضروري تطبيقه انطلاقاً من الرؤية الإستراتيجية للمؤسسة؛ لضمان مواءمته مع أهدافها وتلافي عواقبه السلبية منذ البداية. ولذا، من المهم أن تتخذ المؤسسات الإجراءات التالية قبل شروعها في دمج الذكاء الاصطناعي في عمليات الموارد البشرية:

  1. وضع إرشادات واضحة عن إطار حكومة الذكاء الاصطناعي والمبادئ المرتبطة به – لا بد في المقام الأول من وضع السياسات والمبادئ التوجيهية التي تضمن استخدام الذكاء الاصطناعي في عمليات الموارد البشرية بأسلوب ملائم وأخلاقي. وينطوي هذا الإجراء على مراعاة عدة عناصر مثل ضرورة دراسة وتجربة أدوات الذكاء الاصطناعي، وتحديد درجة الأمان، ومستوى خصوصية البيانات، والاستخدامات الملائمة وغير الملائمة، ومدى الامتثال للمتطلبات القانونية، والحاجة إلى الإشراف البشري.
  2. تيسير التدريب – يتعين على المؤسسات توفير فرص التدريب لمسؤولي الموارد البشرية؛ حتى يصبحوا مؤهلين لاستخدام تقنيات الذكاء الاصطناعي بفاعلية وكذلك لتعزيز التجربة المرتكزة على الأفراد في مجال عملهم. ولذا، يوصى بالعمل على إتاحة الفرص التدريبية لتنمية المهارات الأساسية لديهم مثل الذكاء العاطفي، والتفكير النقدي، وتجنُّب التحيز، وبذلك تصبح القوى العاملة على استعداد تام لتوظيف إمكانات الذكاء الاصطناعي في عمليات الموارد البشرية.
  3. تحديد صانعي القرار الرئيسين – قد تتلاشى الحدود الفاصلة بين دور العنصر البشري ودور الذكاء الاصطناعي في عمليات الموارد البشرية، بما يستدعي تحديد المسؤولين عن اتخاذ القرار النهائي والتفكير في آليات تيسير إيصال ردود فعل المعنيين على القرارات المُتخذة.
  4. التركيز على إرساء قيم التنوع والمساواة والشمول – إذا طبّقت المؤسسات نماذج الذكاء الاصطناعي دون الاستناد إلى آراء الخبراء واللجوء إليهم لتيسير هذه العملية، فإنها تجازف بحدوث تحيّزات مجتمعية وإغفال التحديات الخاصة التي تواجه فئات معينة من الأقليات. وقد يترتب على ذلك توسيع الفوارق بين الأشخاص والإضرار أيضاً بمصالح الفئات المُهمّشة، ما يؤدي بدوره إلى بيئات عمل غير متجانسة إلى حدٍ كبير وغير داعمة لمبادئ التنوع والمساواة والشمول. وفي هذه الحالة، يتجلّى الدور الحيوي للخبرات البشرية في تطبيق نماذج الذكاء الاصطناعي وعمليات إدارة المواهب، إذ تساعد في الحدً من الانحياز واجتناب التأثير الضار
  5. اتباع نهج شامل – وأخيراً، فإن الدور الفعّال للذكاء الاصطناعي في بعض عمليات الموارد البشرية لا يقلل من ضرورة إدراك أبعاد بيئة العمل وأنها تستوعب أشخاصًا ذوي شخصيات معقدة وتفضيلات واهتمامات مختلفة وأيضاً تفاوت في إمكانات الأداء. ولذا، ينبغي للمؤسسات النظر في عملياتها ونتائجها من منظور شامل قبل اتخاذ أي قرارات حاسمة.

ما الأنواع الأكثر شيوعاً لأدوات الذكاء الاصطناعي المُستخدمة في إدارات الموارد البشرية؟

3 أدوات للذكاء الاصطناعي تُستخدم على نطاق واسع في إدارات الموارد البشرية اليوم:

  1. . معالجة اللغة الطبيعية في مجال الموارد البشرية:
    معالجة اللغة الطبيعية (NLP) هي فرع من فروع الذكاء الاصطناعي، الذي يختص بالتفاعلات بين الحاسوب واللغات الطبيعية، والهدف منها هو تمكين الحواسيب من فهم اللغة البشرية وتفسيرها ومعالجتها وتوليدها؛ كي يستطيع الإنسان التواصل مع التكنولوجيا بطريقة تفاعلية وطبيعية. وسرعان ما انتشر استخدام هذه التقنية، حيث اندمجت بسلاسة في حياتنا اليومية من خلال أدوات مثل روبوت المحادثة والمساعد الافتراضي. أما في إدارات الموارد البشرية فمن الممكن استخدام معالجة اللغة الطبيعية في مبادرات مثل رصد الاتجاهات السائدة في تحليلات المواهب، وإطلاق مبادرات الخدمة الذاتية للموارد البشرية، واكتشاف التحيّزات في إعلانات الوظائف.
  2. تعلم الآلة في مجال الموارد البشرية: تعلم الآلة (ML) هو تقنية للذكاء الاصطناعي تُمكِّن أجهزة الكمبيوتر من التعلم من الخبرات دون برمجتها بشكلٍ مباشر. ويعمل نموذج تعلم الآلة على تحديد الأنماط الموجودة في البيانات، ثم تعلم هذه الأنماط. وعند تغذية النموذج بمعلومات مشابهة في العملية التالية، يستخدم النمط الذي سبق تحديده للتنبؤ بالعلاقات الجديدة بين البيانات. ويُعد تعلم الآلة من أدوات الذكاء الاصطناعي المُستخدمة على نطاق واسع في مجال الموارد البشرية، إذ يساهم في تبسيط مجموعة متنوعة من العمليات الأساسية مثل التنبؤ بمعدلات الدوران الوظيفي، وتحديد أولويات التطوير، وتسجيل درجات التقييمات.
  3. الذكاء الاصطناعي التوليدي في مجال الموارد البشرية:
    الذكاء الاصطناعي التوليدي هو تقنية مُصممة لإنشاء محتوى جديد على شكل نص مكتوب أو صور أو صوت أو مقاطع فيديو حسب أوامر المُستخدم. وعلى الرغم من تزايد استخدام الذكاء الاصطناعي التوليدي على مدار عدة سنوات، قد ازدهر استخدامه بشكلٍ كبير في عام 2023 مع ظهور ChatGPT الذي أتاح للأشخاص في جميع أنحاء العالم الاستفادة من هذا النوع من نماذج الذكاء الاصطناعي في مكان العمل والمنزل أيضاً. وتساهم أدوات الذكاء الاصطناعي التوليدي في زيادة الإنتاجية وتعزيز الكفاءة في إدارات الموارد البشرية من خلال استخدام روبوتات المحادثة (chatbots) المخصصة لها ودعم إنشاء نسخ الأوصاف الوظيفية بفعالية إلى جانب دورها في برامج التعلم الإلكتروني وغير ذلك من المواد المتعلقة بالمجال.

استخدام الذكاء الاصطناعي في تقييم المواهب

 

كيف يمكن استخدام الذكاء الاصطناعي في تقييم المواهب؟

تتوفر فرصاً عديدة لتطبيق الذكاء الاصطناعي في تقييم المواهب، إذ يُستخدم مثلاً في إنشاء محتوى التقييم، وتصميم عمليات التوظيف القائمة على روبوتات المحادثة (chatbots)، وتعزيز الجانب التفاعلي لتقييمات السلوك في مواقف محاكية لبيئة العمل. وبصفتنا مسؤولي إدارة المواهب، ينبغي لنا اتباع نهج مرتكز على الأهداف وقياس الجوانب المطلوب تقييمها دون الانجراف وراء الميزات المُبهرة للتقنيات الجديدة دون التحقق من جدواها العملية. وبهذه الطريقة، يمكننا تسخير الإمكانات الهائلة التي توفرها أدوات الذكاء الاصطناعي في تقييم المواهب  مع الانتباه لمخاطرها المحتملة. وفي هذا السياق، تبرز أهمية الدقة العلمية والنهج المدروس والشفافية الكاملة والتواصل عند اعتماد أي تقنية جديدة خاصةً إذا كانت تُستخدم في عمليات تقييم تنطوي على مخاطرة عالية، ما يؤكد على أن التدخل البشري لا يزال ضرورياً عند تطبيق أدوات التقييم المدعومة بالذكاء الاصطناعي. كما أن مسؤولي الموارد البشرية لا يزالوا مُطالبين بتوظيف مهاراتهم الفريدة التي يتميزون بها عن أي حاسوب لضمان اتخاذ قرارات تقييم فعّالة وعادلة.

ما فوائد استخدام الذكاء الاصطناعي في تقييم المواهب؟

يُساهم الذكاء الاصطناعي بشكلٍ كبير في تحسين عملية تقييم المواهب، ومن الجوانب التي تتضح بها فوائده ما يلي:

  • تخصيص تجارب المرشحين وتحسينها بصفةٍ عامة.
  • أتمتة المهام والعمليات الروتينية التي عادة ما تُهدر الوقت.
  • مساعدة مسؤولي التوظيف على اتخاذ قرارات أكثر دقة.
  • تحديد أنماط البيانات المجمّعة على مستوى المؤسسة ككل، واستخلاص المرئيات العملية منها.
  • رصد حالات التحيّز اللاواعي والحدّ منها.

يصبح تحقيق التوازن بين اعتماد التكنولوجيا الحديثة وتوظيف مهارات العنصر البشري في الحُكم واتخاذ القرارات عنصراً حيوياً عند تطبيق أدوات التقييم المدعومة بالذكاء الاصطناعي. ومن أجل استخدام أدوات الذكاء الاصطناعي في عمليات التقييم بما يضمن العدالة والدقة والدفاع القانوني، ينبغي للمؤسسات الاستعانة بشريك تنفيذي لديه فهم عميق لما وراء التكنولوجيا والبيانات، وخبرة فعلية في علم التقييم ونظرياته، ودراية بمتطلبات القانون والامتثال على المستوى الدولي، وكفاءة في تصميم وتحسين تجربة المستخدم.

ما تحديات استخدام الذكاء الاصطناعي في تقييم المواهب؟

على الرغم من الفوائد العديدة لاستخدام أدوات التقييم المدعومة بالذكاء الاصطناعي، لا تخلو العملية من المخاطر التي ينبغي للمؤسسات إدراكها والتعامل معها بشفافية:

  • إغفال “العنصر البشري”: قد يؤدي الاعتماد المُفرط على أتمتة عمليات التقييم إلى اتخاذ قرارات التوظيف غير المُراعية للجوانب الإنسانية مثل التعاطف والرؤية المستقبلية.
  • المدخلات المتحيزة تُنتج مخرجات متحيزة: من الضروري فهم خصائص البيانات المُستخدمة في تلقيم نماذج الذكاء الاصطناعي والتأكد من جودتها؛ فبالرغم من هذه النماذج مصممة على مبدأ الحيادية، لا يزال ممكناً أن تتعلم من التحيزات المجتمعية المحتمل وجودها في المدخلات وأن تكررها في النتائج المقدمة. وتبرز في هذه الحالة أهمية مراقبة العملية عن كثب للحدّ من هذه التحيزات.
  • النماذج الأكثر تعقيداً تكون الأقل وضوحاً: كلما زاد تعقيد النماذج وتطوّرها، أصبح من الأصعب فهمها وتفسيرها.
  • الحاجة إلى كميات ضخمة من البيانات: تحتاج نماذج الذكاء الاصطناعي إلى التغذية المستمرة بكمّ هائل من البيانات التي يجب جمعها باتباع نهج أخلاقي يضمن خصوصية وسرية المعلومات الشخصية والمرتبطة بالملكية.
  • انتهاكات خصوصية البيانات: يجب على المستخدمين توخي الحذر بشأن خصوصية البيانات والانتباه تحديداً لنوعية البيانات المُدخلة في أدوات الذكاء الاصطناعي، لا سيّما الأدوات المتاحة للعامة التي يجمع منها مزودو الخدمات البيانات المُدخلة من أجل تدريب وتعليم نماذجهم.
  • إعادة استخدام عمليات الذكاء الاصطناعي لأغراض مختلفة قد تؤدي إلى أخطاء: يجب اتباع نهج مدروس عند تكييف أدوات الذكاء الاصطناعي المُستخدمة في مجالات العمل الأخرى لتلائم حلول إدارة المواهب وعملياتها في المؤسسة.

يضمن الالتزام بأفضل الممارسات في هذه المجالات كسب ثقة المرشحين والموظفين الحاليين، وطمأنتهم أن استخدام أدوات الذكاء الاصطناعي في عمليات التقييم والتقنيات ذات الصلة سيتم دائماً بطريقة مسؤولة.

ما المخاوف الأخلاقية التي ينطوي عليها استخدام الذكاء الاصطناعي في إدارة المواهب؟

لا يمكن إنكار الإيجابيات المتعددة للابتكارات التي تحققت بفضل استخدام الذكاء الاصطناعي على نطاق واسع في بيئة العمل، وفي الوقت نفسه لا يزال العلماء والمشرّعون ومجموعات العدالة الاجتماعية والإعلام يحذّرون من سلبيات استخدام الذكاء الاصطناعي في إدارة المواهب، وينبّهون من احتمالية حدوث حالات التحيّز أو انتهاك الخصوصية أو إساءة الاستخدام لتحقيق أغراض خبيثة.

تُرجمت هذه المخاوف إلى انعدام الثقة في جدوى استخدام الذكاء الاصطناعي في تقييم المواهب، بل ظهرت أيضاً مطالبات بوضع قيود صارمة على استخدامها، خاصة مع تزايد إمكانات الذكاء الاصطناعي فيما يتعلق بالأتمتة والقدرات التوليدية. وتعالت الأصوات المُنادية بوضع معايير أخلاقية لاستخدام التكنولوجيا والتقييم في عصر الذكاء الاصطناعي . ومؤخراً، قدمت جمعية علم النفس الصناعي والتنظيمي (SIOP) وجمعية إدارة الموارد البشرية (SHRM) توصيات بشأن التقييمات القائمة على الذكاء الاصطناعي، حيث سلّطت الضوء على ضرورة تحديد الممارسات الأخلاقية التي تحكم هذه العملية.

ما الرؤية المستقبلية لاستخدام الذكاء الاصطناعي في تقييم المواهب؟

يمكن الجزم بأن الذكاء الاصطناعي سيظل حاضراً بقوة سواءً في بيئة العمل أو في الحياة بصفةٍ عامة، وأن فوائده بالنسبة للقوى العاملة تفوق بكثير مخاطره المحتملة. ولذا، من المرجح أن يحتفظ الذكاء الاصطناعي بمكانته كونه حجر الزاوية في تقييم المواهب مستقبلاً. ومع ذلك، ليس من المتوقع أن يحدث التحوّل الكامل بين ليلةٍ وضحاها. وينبغي للمؤسسات إدراك أن استخدام الذكاء الاصطناعي في تقييم المواهب موقف “عالي المخاطر”، ولذا من الضروري تطبيقه بطريقة مسؤولة ومع تفهُّم كامل للعواقب المحتملة. ومع استمرار التقدم في أدوات التقييم المدعومة بالذكاء الاصطناعي وتزايد المرئيات المرتبطة بها يوماً بعد يوم، ينبغي توخي الحذر من الاعتماد الزائد على هذه الأدوات. ونظراً لأن الهدف الأساسي من تقييمات المواهب هو التنبؤ بفرص النجاح في العمل بأكبر قدر ممكن من الدقة والموثوقية، ينبغي الانتباه عند استخدام حلول التقييم المدعومة بالذكاء الاصطناعي إلى أن يتم التأكد من قدرتها على توفير تقييمات عادلة. ومع زيادة إدراك المؤسسات لأهمية الذكاء الاصطناعي في بيئة العمل، من المتوقع استمرار استخدام أدوات الذكاء الاصطناعي في تقييم المواهب على نطاق أوسع بما يعزز الكفاءة في إنجاز المهام الروتينية التي لا تستدعي بالضرورة تدخلاً بشرياً. ومن ثمَّ، يوجه مسؤولو الموارد البشرية كامل تركيزهم إلى الجوانب التي ستظل بحاجة إلى التدخل البشري في عمليات تقييم المواهب، ومنها مثلاً فهم نتائج تقييم المرشحين أو الموظفين وتفسيرها وتحويلها إلى خطوات عملية.


نهج تالوجي لاستخدام الذكاء الاصطناعي في تقييم المواهب

 

ما المبادئ وأفضل الممارسات التي تعتمدها شركة تالوجي عند استخدام الذكاء الاصطناعي في تقييم المواهب؟

استعانت شركة تالوجي بفريق من الخبراء المختصين لضمان استخدام الذكاء الاصطناعي في التقييمات بحذر وتوظيفه حيثما يُضيف قيمة فعلية، مع العمل في الوقت ذاته على الحدّ من مخاطر الغش والتحديات المتعلقة بعدم الامتثال للمتطلبات القانونية. ويعمل فريقنا من علماء النفس الصناعي والتنظيمي الحاصلين على الدكتوراه وفقاً لفلسفة مفادها أنه ينبغي استخدام حلول التقييم المدعومة بالذكاء الاصطناعي حيثما ثبت أنها تضيف قيمة حقيقية، دون أن يُغني ذلك عند تدخل الخبراء الذين يراقبون العملية للحد من التحيّز والتأثير الضار ومخاوف حدوث الغش. وبالتالي؛ تحصد مزايا استخدام الذكاء الاصطناعي في تعزيز تفاعل المرشحين وزيادة الكفاءة وتسريع العمليات وتقديم بيانات القيّمة، ما يؤدي بدوره إلى تحسين إستراتيجيات في إدارة المواهب وتحقيق النتائج المأمولة.

كيف تستخدم شركة تالوجي الذكاء الاصطناعي في حلولها لتقييم المواهب؟

يمتلك فريق البحث والتطوير في شركة تالوجي خبرة متعمقة في علوم البيانات والتقنيات الإحصائية المتقدمة المرتبطة عادةً باستخدام الذكاء الاصطناعي في تقييم المواهب، مثل تعلم الآلة ومعالجة اللغة الطبيعية. وينحصر استخدام هذه التقنيات على النطاق المطلوب مع الحرص على اتباع نهج علمي ومسؤول في تطبيقها. ولا تعتمد حلولنا على “الذكاء الاصطناعي مفتوح المصدر”؛ أي أننا لا نطبّق الحلول التي تسمح بتغيير الخوارزميات بمرور الوقت دون تدخل بشري. بدلاً من ذلك؛ تعتمد عملياتنا على “الذكاء الاصطناعي مغلق المصدر” فقط، حيث تكون محمية من أي مدخلات أو تعديلات خارجية، ما يحافظ على نقاء نماذج الذكاء الاصطناعي وأمان بيانات العملاء والمرشحين.

من الأمثلة الرائعة على حلولنا التي استخدمنا فيها الذكاء الاصطناعي لتحسين النتائج مجموعة اختبارات القدرة المعرفية. وتستند منهجية التقييم على توظيف تقنيات تعلم الآلة لرصد السمات والأنماط الموجودة في بيانات الاختبار، ما يمكّننا من تسجيل الدرجات بأسلوب يحسّن من التنبؤ بالأداء مع الحد من خطر التأثير الضار. وفي الوقت نفسه، يمكن للمرشحين إكمال الاختبارات بسرعة وبمستوى التفاعل المأمول. وباستخدام تقنيات تعلم الآلة (الذكاء الاصطناعي) لتطوير نماذج تسجيل الدرجات، اتضح أن اختبارات Mindgage متنبئات فعّالة للأداء الوظيفي بجودة تُعادل أو تتفوق على التقييمات التقليدية فيما يتعلق ببعض الأدوار الوظيفية، مع تقليل الفروقات بين المجموعات الفرعية بنسبة تصل إلى 60%.

ما الإجراءات التي تتخذها شركة تالوجي لاحتواء المخاطر التي ينطوي علها استخدام الذكاء الاصطناعي في التقييمات؟

وضعت شركة تالوجي إطاراً واضحاً وصارماً لحوكمة الذكاء الاصطناعي؛ بهدف تعزيز ومراقبة الاستخدام الفعّال والآمن والأخلاقي لتقنيات الذكاء الاصطناعي. وحرصنا أيضاً على صياغة المبادئ الأخلاقية الأساسية لتطبيق الذكاء الاصطناعي في تقييمات المواهب، وهي كالتالي:

  1. . الأمن والسلامة: ينبغي إدارة تطبيقات الذكاء الاصطناعي بطريقة مسؤولة، والحماية من المخاطر غير المتعمدة التي قد تُلحق ضرراً بالأفراد أو المؤسسات.
  2. الخصوصية: ينبغي مراعاة خصوصية البيانات وحمايتها في مراحل التطوير والتخزين واستخدام الذكاء الاصطناعي بما يتوافق مع الأغراض المقصودة والموافقات الممنوحة والقوانين والأنظمة المعمول بها.
  3. العدالة: يتعين تطوير واستخدام تطبيقات الذكاء الاصطناعي بأسلوب متوازن؛ للحدّ من التحيّز واجتناب النتائج غير المقصودة. وفي الوقت نفسه، يحصل جميع المرشحين على فرص متكافئة ومعاملة عادلة.
  4. الموثوقية والدقة: ينبغي أن تحقق تطبيقات الذكاء الاصطناعي نتائج دقيقة ومتسقة ومحددة وصادقة، بحيث تنجح في تحقيق الغرض المقصود من استخدامها.
  5. . الشفافية وقابلية التفسير: يتعين الإفصاح عن تطبيقات الذكاء الاصطناعي في مكان العمل حينما يكون ذلك ضرورياً ومناسباً، كما ينبغي شرح استخدامها بأسلوب بسيط مع إتاحة إمكانية معاينتها وطرحها بقدر كافٍ من الشفافية.
  6. تمكين العنصر البشري: ينبغي تطوير تطبيقات الذكاء الاصطناعي واستخدامها بطريقة تحترم كرامة الإنسان وتعكس تبنّي المسؤولية الاجتماعية وتضمن التدخل البشري عند الضرورة.
  7. المُساءلة والحوكمة: يجب أن تكون تطبيقات الذكاء الاصطناعي محكومة بسياسات وإجراءات محددة، بما تضمن توافقها مع الغرض المقصود منها، ويراعي المسؤولية عن القرارات والنتائج المتربة على استخدام الذكاء الاصطناعي في إدارة المواهب وتقييماتها.

ما الإجراءات التي تتخذها شركة تالوجي للحد من إساءة استخدام الذكاء الاصطناعي من جانب المرشحين أثناء خوض التقييمات؟

تأخذ شركة تالوجي تأثير الذكاء الاصطناعي على نزاهة التقييمات على محمل الجد. وتُجرى الأبحاث على هذا الجانب بوتيرة مستمرة لدراسة ما يترتب على الاستخدام غير المناسب للذكاء الاصطناعي في تقييم المواهب من آثار سلبية كي تحدد الأساليب الفعّالة في تلافي هذه الآثار. وتوصّلت مجموعة البحث الشاملة التي ضمّت مشاركين من وظائف وإدارات مختلفة إلى أن نستخدم مزيجاً مكوناً من أربعة مناهج أساسية للحد من مخاطر الغش باستخدام الذكاء الاصطناعي، التي يمكن تعريفها بأنها “انتهاك لنزاهة عملية التقييم أو الخداع أو تقديم الفرد لبيانات كاذبة عن عمله بشكلٍ متعمد”، وهذه المناهج هي:

  1. التصميم: نستند في تصميم تقييماتنا على الأبحاث المتعمقة التي تمكّننا من اكتساب نظرة متعمقة عن خطر الغش باستخدام الذكاء الاصطناعي على مستوى الأنواع المختلفة من التقييمات. ومن خلال الاختيار الدقيق للمجموعة المناسبة من أساليب التقييم، نضمن تقديم نتائج موثوقة تلبي الاحتياجات المرصودة في مرحلة تصميم الحل.
  2. التوجيه: يوصى بأن تحدد المؤسسات موقفها بوضوح حول ما تعتبره استخداماً مناسباً أو غير مناسباً للذكاء الاصطناعي في عملية التقييم، ثم إبلاغ المرشحين بموقفها هذا بشفافية كبيرة منذ البداية.
  3. الرصد: تلتزم شركة تالوجي بالرصد المستمر لبيانات التقييم لتحديد الاتجاهات السائدة التي قد تُشير إلى زيادة في حالات الغش أو تكشف تصرفات غير معتادة من المرشحين. كما تُجرى مراجعات دورية لدراسة تأثير الذكاء الاصطناعي التوليدي على التقييمات المتوفرة لديها.
  4. الردع: من بين الآليات المستخدمة لمنع حالات الغش تعطيل ميزة النسخ واللصق في العديد من حلول التقييم. بالإضافة إلى ذلك، طبّقت الشركة ما تطلق عليه “تعهدات المرشحين”، وهي وسيلة رادعة مُثبتة الفعالية، حيث يتعهد المشاركون بخوض التقييمات بنزاهة ودون مساعدة خارجية.

هل تحتاج إلى نصائح من الخبراء عن الاستخدام الفعّال للذكاء الاصطناعي في مبادرات تقييم وتطوير الأفراد بمؤسستك؟ تواصل معنا.

كن على تواصل