< Retour

L’IA en Entreprise : Opportunité stratégique ou bombe à retardement juridique ?

Date de publication : 23.03.26

droit de la propriété intellectuelle et des nouvelles technologies

IA & Entreprise, un article de Tiffany Dumas et Orane Tescher

Tiffany Dumas Orane Tescher

L’IA s’impose dans l’entreprise comme un décideur invisible. Elle trie, recommande, influence les décisions – Qui ne serait pas tenté d’utiliser les agents IA pour dénicher le meilleur candidat ? Mais c’est partir du postulat que l’IA fasse mieux que l’humain. Un postulat dangereux : la machine n’est pas exempte d’erreurs (hallucinations, consanguinité, biais).  Un algorithme mal calibré peut devenir un risque massif démultiplié à l’échelle de milliers d’entreprises clientes.
A titre d’exemple, la société HireVue a longtemps affirmé pouvoir optimiser les recrutements grâce à l’analyse automatisée des réactions non verbales des candidats. Mais le logiciel s’est révélé sensible à des facteurs aussi basiques que l’éclairage ou l’arrière‑plan de la caméra. Depuis, l’outil a été retiré. Aucun gain d’efficacité. Un déploiement en pure perte. Des milliers d’entreprises et de candidats victimes d’un tri absurde réalisé par la machine.

Face à la prolifération des usages de l’IA, l’Europe réagit

Tout projet de déploiement d’un SIA en entreprise sera soumis à un premier contrôle de légalité prévu par l’IA Act.
Pour Bruxelles, certaines pratiques franchissent désormais une ligne rouge : surveillance émotionnelle, notation sociale, prédiction comportementale. Ces usages sont purement interdits.
Le reste est classé en deux catégories : haut risque ou faible risque.
Pour les systèmes à haut risque, les obligations sont lourdes :
  • données d’entraînement fiables,
  • supervision humaine,
  • documentation complète,
  • tests réguliers,
  • gestion des incidents.

Pourquoi ? Les objectifs sont clairs.

  • Eviter les usages dangereux pour nos libertés individuelles : est-il possible de surveiller émotionnellement un conducteur de train pour savoir s’il ne va pas s’endormir ou mettre fin à ses jours, comme c’est le cas en Chine ? La réponse de l’Europe est ferme : c’est non.

 

  • S’assurer de la qualité de l’IA, c’est contrôler que l’IA fasse effectivement mieux que l’humain : éviter les biais humains, c’est la promesse de l’IA. Mais sans contrôle de sa qualité, c’est voué à l’échec.
Même en dehors de ces SIA à haut risque, les entreprises ont tout intérêt de vérifier la qualité du SIA déployé par souci d’efficacité et de protection de leurs patrimoines. Cette qualité peut s’apprécier au moyen par exemple d’un audit de leurs fournisseurs des SIA (localisation des datacenters, réputation, base de données, qualité des entrainements…) et des procédures internes de gestion de la qualité.

Le RGPD, deuxième verrou

Même conforme à l’IA Act, un système doit encore passer le filtre du RGPD.
Deux points doivent retenir l’attention des dirigeants :
  • Les décisions automatisées sont strictement interdites notamment lorsqu’elles déterminent un droit (comme un crédit).
  • Les données doivent être exactes, pertinentes et limitées.
A titre d’exemple, La CJUE, dans un arrêt important du 7 décembre 2023, a également jugé que le « crédit scoring » s’apparente au profilage défini par le RGPD. Il constitue une « décision individuelle automatisée » au sens de l’article 22 du RGPD, laquelle est interdite, lorsque les banques lui accordent un rôle déterminant pour l’octroi de crédits

En France, le CSE est incontournable

Impossible de déployer un outil d’IA sans consulter le CSE. Pour apprécier le caractère « nouveau » d’une technologie, les juges examinent concrètement ses effets sur les conditions de travail, notamment si elle implique un besoin de formation des salariés.
Un oubli peut entraîner la suspension du projet ou des dommages et intérêts.
Ce que les dirigeants doivent retenir :
  • L’IA est un accélérateur stratégique, mais aussi un risque juridique majeur.
  • L’IA Act et le RGPD imposent un double contrôle avant tout déploiement.
  • Le CSE est un acteur clé du processus.
  • La fiabilité des modèles n’est plus un sujet technique : c’est un enjeu de conformité et de réputation.

Auteurs :

Partagez

contact
close slider