Réinventer les RH : l’IA et l’Humain,​ un duo d’avenir pour transformer votre entreprise​

Philippe-Soullier-et-Elise-Dufour-Valtus
20 Mai 2025

 

L’Intelligence Artificielle s’impose aujourd’hui comme une force incontournable, transformant en profondeur la stratégie et les dynamiques du monde du travail. Bien au-delà d’un simple outil technologique, elle redéfinit en profondeur les pratiques RH et impacte directement la performance des organisations.

Le 24 avril 2025, Philippe Soullier, Chairman de Valtus, recevait Elise Dufour, Partner chez Stephenson Harwood LLP, pour une exploration concrète et opérationnelle de l’IA appliquée aux ressources humaines.

> (Re)découvrir la Masterclass en replay

 

Les notions clés décryptées

Utilisée pour la première fois par John McCarthy en 1956, la notion d’intelligence artificielle désigne une  science permettant de réaliser des interactions avec une machine dotée d’une capacité à résoudre des problèmes, d’effectuer des tâches ou d’apprendre de l’expérience.

La CNIL définit l’IA comme un algorithme capable d’effectuer des tâches que l’on considère comme relevant de l’intelligence humaine, comme le raisonnement, l’apprentissage ou la planification.

Dans le Règlement européen sur l’intelligence artificielle (appelé RIA ou AI Act), on parle plus précisément de systèmes d’intelligence artificielle (SIA).

Deux grandes catégories d’IA

« Nous vivons actuellement à l’ère des IA faibles, qui, si elles ne sont absolument pas multi-tâches, s’avèrent très performantes sur une tâche déterminée. »

On distingue deux types d’intelligence artificielle :

  • Les IA faibles, qui réalisent des tâches uniques,
  • Les IA fortes, qui sont encore en cours de développement et qui seraient capables de réaliser plusieurs tâches de manière indépendante.

 

Comprendre le règlement européen sur l’intelligence artificielle

Entré en vigueur le 1er août 2024, avec une application progressive, jusqu’à fin 2030, le RIA constitue la première règlementation horizontale adoptée au niveau mondial, spécifiquement dédiée aux systèmes d’IA.

Ce cadre préventif défini par l’Union Européenne s’applique à des produits et des services technologiques, en adoptant une approche fondée sur le niveau de risque que présentent les pratiques et systèmes d’IA pour les droits fondamentaux, les libertés individuelles et la sécurité des personnes.

Qui est concerné par le RIA ?

Le règlement s’applique à l’ensemble des acteurs impliqués dans la chaîne de valeur :

  • Les Fournisseurs
  • Les Fabricants de produits
  • Les Importateurs
  • Les Distributeurs
  • Les Déployeurs (utilisateurs)
  • Les Représentants autorisés

Une classification des systèmes d’IA selon leur niveau de risque

Le RIA prévoit une hiérarchisation des systèmes d’IA en quatre catégories :

  • IA interdite : pratiques jugées inacceptables en raison de leurs risques majeurs pour les droits fondamentaux
  • IA à haut risque : systèmes soumis à des exigences strictes en matière de sécurité, de transparence et de gouvernance
  • IA à usage général (GPAI) : modèles d’IA pouvant être intégrés à divers cas d’usage, avec des obligations spécifiques
  • Autres types d’IA : systèmes à faible risque (générant du contenu ou interagissant), soumis à des exigences minimales (transparence notamment)

En chiffres : sanctions encoures pour non-conformité

  • 7 % ou 35 millions d’euros du chiffre d’affaires annuel mondial pour les infractions aux pratiques interdites ou le non-respect des exigences en matière de données
  • 3 % ou 15 millions d’euros du chiffre d’affaires annuel mondial pour les autres infractions, incluant celles relatives aux systèmes d’IA à haut risque et aux modèles d’IA à usage général
  • 1% ou 7 millions d’euros du chiffre d’affaires annuel mondial pour la fourniture d’informations incorrectes, incomplètes ou trompeuses

 

IA en contexte RH : entre opportunités et précautions

Optimisation de l’expérience collaborateur, amélioration de la mobilité interne, meilleure identification des potentiels internes ou externes… Le déploiement de solutions RH intégrant de l’IA peut constituer un levier d’efficacité et de performance indéniable. Toutefois, une vigilance particulière s’avère indispensable, tant les enjeux humains et éthiques sont importants.

« Je pense que la véritable valeur ajoutée d’un responsable RH réside dans sa capacité à repérer des talents atypiques, ceux qui se distinguent par leur singularité. Contrairement à un système d’IA, qui repose sur des approches statistiques et tend à privilégier des profils standards, un responsable RH peut détecter et valoriser ces pépites un peu en marge. »

Les systèmes d’IA à proscrire

  • Systèmes d’IA permettant de déduire les émotions d’une personne sur le lieu de travail ou dans un établissement d’enseignement, pour des raisons autres que médicales ou de sécurité
  • Systèmes d’IA de notation sociale conduisant à un traitement préjudiciable ou défavorable, sans lien avec le contexte et/ou disproportionné

Les systèmes d’IA à haut risque

Les systèmes d’IA utilisés dans le recrutement, la sélection, la répartition des tâches, ou encore le suivi et l’évaluation des performances, doivent être strictement encadrés.

« En contexte RH, un système d’IA sera considéré comme à haut risque en raison d’une prise de décision automatisée susceptible d’avoir un impact important sur le salarié. Il faut mettre en place des garde-fous pour s’assurer qu’il n’y a ni risque de biais ni risque de décision non justifiée. »

À lire aussi
Valtus accélère la sélection des managers de transition avec l’IA

 

Obligations des entreprises déployant des systèmes d’IA

Depuis le 2 février 2025, les entreprises doivent se conformer à l’obligation générale de formation des salariés qui utilisent ou assurent la maintenance de systèmes d’IA.

Comment se conformer à cette exigence ?​

  • Mettre en place des lignes directrices sur l’utilisation de l’IA par les salariés
  • Assurer une formation continue et régulière​
  • Sensibiliser aux risques légaux (protection des données personnelles et droits de propriété intellectuelle)​
  • Effectuer une veille juridique des évolutions législatives​
  • Suivre les éventuelles mises à jour de la liste des systèmes d’IA à haut risque de l’Annexe III par la Commission​ européenne​
  • Adapter ses politiques internes en fonction des exigences réglementaires

Obligations liées au type de système d’IA déployé

Lorsqu’un système d’IA à haut risque est déployé, les obligations prévues à l’article 26 du RIA s’appliquent. En cas d’implémentation d’un système d’IA à usage général, les entreprises sont soumises à une obligation d’information renforcée, avec une obligation de transparence.

Déployer un système d’IA dédié à un usage RH en 7 étapes

  1. Examen et négociation des contrats
  2. Information et consultation des Instances Représentatives du Personnel (IRP)
  3. Gouvernance, contrôle humain et vérification des données
  4. Revue des traitements des données personnelles & analyse d’impact relative à la protection des données (AIPD)
  5. Gestion du consentement, transparence et information des personnes concernées
  6. Formation des équipes
  7. Audit et conformité

 

À propos de l’intervenante

Elise Dufour est Avocate spécialisée en Droit Numérique et Nouvelles Technologies​. Elle est Associée au sein du cabinet Stephenson Harwood LLP.

NEWSLETTER