Les projets IA en entreprise n’échouent pas parce que la technologie ne fonctionne pas. Ils échouent parce que l’adoption est mal pensée, précipitée, ou pilotée par les mauvaises personnes pour les mauvaises raisons. Après deux ans de généralisation des outils comme ChatGPT, Copilot ou Gemini dans les organisations, les mêmes schémas d’échec se répètent. Voici les cinq erreurs les plus fréquentes — et ce qu’il faut faire à la place.
Erreur 1 et 2 : confondre adoption et déploiement
La première erreur que commettent la plupart des organisations est de traiter l’IA générative comme un outil à installer, pas comme une transformation à accompagner. Déployer un outil, c’est technique. L’adopter, c’est humain. Les deux ne se gèrent pas de la même manière, et les confondre est le point de départ de la majorité des projets qui n’aboutissent à rien de concret.
Erreur 1 — Lancer un POC sans stratégie d’après
Le Bewijs van concept est devenu le rite d’initiation obligatoire de tout projet IA. Une équipe volontaire, un cas d’usage limité, quelques semaines de test, un rapport enthousiaste. Puis… plus rien. Le POC reste dans un tiroir, l’équipe retourne à ses habitudes, et l’organisation attend le prochain POC pour se sentir innovante.
Le problème n’est pas le POC en lui-même — c’est l’absence de réponse à la question qui devrait le précéder : si ce test est concluant, que se passe-t-il ensuite ? Un POC sans feuille de route de déploiement, sans sponsor identifié, sans budget alloué pour la suite, n’est pas un pilote. C’est une démonstration sans lendemain. Avant de lancer quoi que ce soit, définissez les critères de succès qui déclencheront le passage à l’échelle — et obtenez l’engagement de la direction sur ce passage avant même de commencer.
Erreur 2 — Mesurer l’adoption au nombre de licences activées
“Nous avons déployé Copilot à 200 collaborateurs” est une phrase que l’on entend souvent dans les bilans de projets IA. Ce qu’on entend moins souvent : combien l’utilisent vraiment, pour quels usages, et avec quels résultats mesurables. Activer une licence n’est pas adopter un outil. C’est acheter la possibilité de l’utiliser.
Une adoption réelle se mesure différemment : taux d’utilisation hebdomadaire, types de tâches automatisées, temps économisé par profil métier, qualité perçue des outputs. Sans ces indicateurs, impossible de savoir si l’investissement produit de la valeur — ou si vous payez 200 licences pour que 20 personnes s’en servent occasionnellement.
Erreur 3 et 4 : sous-estimer les dimensions humaines
La technologie est la partie la plus simple d’un projet IA. Ce qui résiste, c’est toujours l’humain — les peurs, les habitudes, les jeux de pouvoir, les questions légitimes sur l’impact sur les postes. Ignorer ces dimensions ne les fait pas disparaître : elles reviennent sous forme de résistance passive, de non-utilisation, ou de contournements risqués.
Erreur 3 — Ne pas former, ou former une seule fois
La formation à l’IA générative est souvent réduite à un webinaire d’une heure organisé le jour du déploiement. C’est insuffisant, et tout le monde le sait — y compris ceux qui l’organisent. La maîtrise d’un outil comme ChatGPT ou Mistral ne s’acquiert pas en regardant une démo. Elle se construit par la pratique, l’expérimentation, et la confrontation à des cas d’usage réels liés au métier de chaque collaborateur.
Ce qui fonctionne : des formations courtes et répétées, ancrées dans les tâches quotidiennes de chaque équipe, avec des exercices concrets. Un juriste n’a pas besoin de savoir comment fonctionne un transformer — il a besoin de savoir comment rédiger un prompt efficace pour analyser un contrat. Former par profil métier, pas par outil, change radicalement l’adhésion.
Erreur 4 — Ignorer les résistances au lieu de les travailler
“Mes collaborateurs ne veulent pas utiliser l’IA” est une phrase que l’on entend souvent comme un constat d’échec. C’est en réalité une information précieuse que la plupart des managers ne creusent pas assez. Derrière une résistance à l’IA générative, il y a presque toujours l’une de ces trois choses : une peur de perdre son emploi ou sa valeur perçue, une méfiance légitime sur la fiabilité des outputs, ou une absence de compréhension de ce que l’outil peut apporter concrètement à son quotidien.
Aucune de ces trois résistances ne se résout avec un discours sur l’innovation. Elles se traitent avec de la transparence sur les intentions de l’organisation, des exemples concrets de gain de temps, et — surtout — en impliquant les collaborateurs dans le choix des cas d’usage plutôt qu’en leur imposant un outil du haut vers le bas.
Erreur 5 : négliger les risques juridiques et de conformité
L’enthousiasme autour de l’IA générative a souvent pris de vitesse les équipes juridiques et conformité. Dans de nombreuses organisations, les collaborateurs utilisent des outils IA grand public pour des tâches sensibles — rédiger des contrats, résumer des réunions confidentielles, analyser des données clients — sans que personne n’ait évalué les implications réelles de ces pratiques.
Erreur 5a — Laisser les collaborateurs choisir leurs propres outils
Le Shadow IT existait avant l’IA. Avec l’IA générative, il a changé d’échelle. Un collaborateur qui copie-colle un contrat confidentiel dans ChatGPT pour le résumer vient potentiellement de transmettre des données sensibles à un serveur américain soumis au Cloud Act, de les exposer à une réutilisation pour l’entraînement du modèle, et de créer un incident de sécurité que le RSSI découvrira — si tant est qu’il le découvre — plusieurs mois plus tard.
La réponse n’est pas d’interdire. L’interdiction sans alternative crée exactement le comportement qu’elle cherche à éviter, en moins visible. La réponse est de fournir une solution approuvée, simple d’accès, et suffisamment bonne pour que le recours aux outils non approuvés devienne inutile. Une politique IA claire, des outils validés par équipe, et une communication honnête sur les raisons de ces choix : c’est ce qui permet de reprendre le contrôle.
Erreur 5b — Croire que le RGPD suffit à tout couvrir
Le RGPD est un cadre nécessaire, mais il ne répond pas à toutes les questions que pose l’IA générative. La propriété intellectuelle des outputs, la responsabilité en cas d’erreur factuelle, la traçabilité des décisions assistées par IA — autant de sujets sur lesquels la réglementation européenne est encore en construction, et sur lesquels votre organisation doit prendre position avant d’être confrontée à un litige.
L’AI Act européen, en cours de déploiement, va progressivement imposer des obligations selon le niveau de risque des systèmes utilisés. Les organisations qui ont déjà cartographié leurs usages IA auront une longueur d’avance. Celles qui découvriront leurs obligations au moment de la mise en conformité paieront le prix de l’improvisation.
Vous reconnaissez votre organisation dans ces erreurs ? Iterates est là pour ça.
Ces cinq erreurs ne sont pas des fautes. Ce sont des étapes prévisibles d’une adoption qui n’a pas été assez préparée. La bonne nouvelle : elles sont toutes corrigeables, à condition d’agir avant que les mauvaises habitudes ne soient trop ancrées.
Iterates accompagne les organisations dans la structuration de leur adoption IA — de l’audit des pratiques actuelles à la définition d’une politique claire, en passant par la formation des équipes et le choix des outils adaptés à leur contexte. Pas de solution générique : une approche calibrée à votre réalité.


