Pourquoi vos devs seniors rejettent l'IA — et pourquoi c'est normal
Vos meilleurs développeurs ont testé l'IA et conclu que ça ne marchait pas. Ils ont raison... sur la base d'un test biaisé. Pourquoi le rejet initial est normal, et ce qu'il faut changer dans l'approche.
"On a testé, ça ne produit pas du code de qualité. On ne doit pas utiliser ces outils pour ça." Cette phrase, je l'entends régulièrement. Elle vient presque toujours des développeurs les plus expérimentés de l'équipe — ceux en qui vous avez le plus confiance sur les sujets techniques. Et elle est parfaitement logique, compte tenu de la manière dont le test a été mené.
Le problème, c'est que cette conclusion, bien que sincère, repose sur un protocole d'évaluation qui garantit presque l'échec. Et elle risque de coûter très cher à votre entreprise si elle devient la position officielle.
Cet article est le premier d'une série de 6 sur le déploiement de l'IA agentique dans les équipes tech et produit. Si vous préférez tout lire d'un coup, vous pouvez recevoir le dossier complet en PDF.
Le test typique (et pourquoi il échoue)
Le scénario est presque toujours le même. Le CEO ou le CTO demande à un ou deux développeurs seniors de "tester l'IA". Les développeurs installent Copilot ou essaient ChatGPT pendant quelques jours, sur leur travail habituel. Ils constatent que l'outil génère du code qui ne respecte pas les conventions du projet, propose des solutions naïves, hallucine des APIs qui n'existent pas et nécessite plus de temps à relire qu'à écrire soi-même. Conclusion rationnelle : l'outil n'est pas prêt.
Cette conclusion est techniquement exacte — pour l'outil testé, dans les conditions du test. Mais elle comporte trois biais majeurs.
Premier biais : l'outil n'est pas le bon. La complétion de code (Copilot, ChatGPT en mode "génère-moi une fonction") est la forme la plus primitive de l'IA appliquée au développement. C'est utile, mais c'est comme juger la puissance d'un smartphone en ne testant que la calculatrice. L'IA agentique — des outils comme Claude Code qui comprennent un projet entier, naviguent dans le code, lancent des tests et itèrent de manière autonome — est un paradigme fondamentalement différent. Demander à un développeur d'évaluer l'IA via Copilot en 2026, c'est comme lui demander d'évaluer le cloud en 2010 avec un serveur FTP.
Deuxième biais : pas de formation, pas de méthode. On ne donne pas un outil aussi puissant à quelqu'un sans formation et en espérant qu'il soit productif immédiatement. L'IA agentique nécessite d'apprendre à formuler des instructions claires, à structurer un projet pour que l'agent puisse s'y repérer, à vérifier les résultats efficacement. C'est un nouveau skill — comme le TDD ou le pair programming en leur temps. Sans cet apprentissage, le développeur utilise l'outil comme un moteur de recherche amélioré et obtient des résultats de moteur de recherche amélioré.
Troisième biais : le testeur a un intérêt inconscient à l'échec. Ce n'est pas de la mauvaise foi. Mais demandez à vos meilleurs artisans d'évaluer un outil qui pourrait transformer leur métier — leur réaction défensive est humaine et prévisible. Un développeur senior qui a passé 15 ans à construire une expertise a toutes les raisons de vouloir démontrer qu'une machine ne peut pas faire aussi bien. Ce biais existe dans toutes les professions confrontées à l'automatisation. Le reconnaître ne discrédite pas l'évaluation : ça permet de la contextualiser.
Ce que vos devs seniors ne voient pas (encore)
Le rejet initial masque un angle mort important : les développeurs seniors évaluent l'IA par rapport à leur propre productivité. "Je code plus vite sans l'outil qu'avec." C'est possible, et c'est même probable sur les premières semaines d'utilisation. Mais ce n'est pas la bonne question.
La bonne question est : que se passe-t-il quand un développeur junior ou intermédiaire utilise correctement ces outils avec la bonne formation ? La réponse, que j'observe sur le terrain, est que l'écart de productivité entre un junior formé à l'IA agentique et un senior sans ces outils se réduit drastiquement. Le junior bénéficie d'un "copilote senior" permanent qui lui évite les erreurs classiques, lui suggère les bonnes pratiques et l'aide à naviguer dans du code qu'il ne connaît pas encore.
Et même pour le senior, une fois la courbe d'apprentissage passée, les gains deviennent significatifs — non pas sur l'écriture du code pur (il est déjà rapide), mais sur tout le reste : la navigation dans une base de code legacy, la rédaction de tests, la documentation, le refactoring, la revue de code, le debugging. Autant de tâches qui représentent la majorité du temps d'un développeur senior et où l'IA agentique excelle.
Ce n'est pas qu'une question de développeurs
L'autre angle mort du "test par les devs" est qu'il réduit l'IA agentique à un outil de développement. Or les cas d'usage vont bien au-delà de l'écriture de code.
Un CMO peut utiliser ces outils pour challenger son approche marketing, auditer son mix d'acquisition, analyser ses funnels de conversion ou explorer de nouveaux canaux — le tout en dialoguant avec un agent qui a accès à ses données et qui pose les bonnes questions. Un CEO peut simuler un business plan, revoir sa stratégie commerciale à 12 mois, évaluer ses besoins en recrutement ou préparer un board — avec un interlocuteur qui ne fatigue jamais et qui n'a pas peur de dire ce qui ne va pas.
L'erreur la plus fréquente est de traiter l'IA agentique comme un sujet purement tech. C'est un sujet d'entreprise. Et le ROI réel se mesure à l'échelle de l'organisation, pas seulement de l'équipe de développement.
Le coût de ne rien faire
Pendant que vos devs seniors concluent que "l'IA n'est pas prête", vos concurrents forment leurs équipes. L'IA agentique progresse à un rythme sans précédent — ce qui ne fonctionnait pas il y a 6 mois fonctionne aujourd'hui, et ce qui est expérimental aujourd'hui sera standard dans 6 mois. Chaque trimestre de retard dans l'adoption creuse un écart de productivité qui sera de plus en plus difficile à combler.
Ce n'est pas un argument pour foncer tête baissée. C'est un argument pour ne pas laisser un test biaisé de 3 jours devenir la politique de l'entreprise pour les 2 prochaines années.
La suite de ce dossier
Cette série de 6 articles explore en profondeur comment déployer l'IA agentique dans une équipe tech et produit de manière structurée :
- Pourquoi vos devs seniors rejettent l'IA (cet article)
- Les 3 erreurs qui font échouer l'adoption — le diagnostic des tentatives ratées
- Ce qui a changé en 6 mois — le contexte technologique qui rend la réévaluation nécessaire
- Déployer l'IA dans une équipe de 40 personnes — la méthodologie concrète
- Le vrai ROI — moins de recrutement, moins de coûts, plus de vélocité
- Les nouveaux rôles — comment l'IA redessine les équipes tech et produit
Dossier : déployer l'IA agentique dans votre équipe
Recevez les 6 articles de ce dossier compilés dans un PDF unique, à partager avec votre CODIR.
En soumettant votre email, vous acceptez de recevoir ce dossier ainsi que des communications commerciales occasionnelles (1 à 2 fois par an maximum). Vous pouvez demander votre exclusion à tout moment sur simple demande à remi@alva.do.
Dossier : déployer l'IA agentique dans votre équipe
- 1Pourquoi vos devs seniors rejettent l'IA — et pourquoi c'est normalEn cours
- 2Les 3 erreurs qui font échouer l'adoption de l'IA dans une équipe techÀ venir
- 3IA agentique en 2026 : ce qui a changé en 6 mois et pourquoi il faut réévaluerÀ venir
- 4Déployer l'IA agentique dans une équipe de 40 personnes : méthodologieÀ venir
- 5Le vrai ROI de l'IA agentique : moins de recrutement, moins de coûts, plus de vélocitéÀ venir
- 6Les nouveaux rôles dans une équipe tech augmentée par l'IAÀ venir
Envie d'en discuter ?
Réservez un créneau de 30 minutes pour un premier échange. Je vous aiderai à y voir plus clair sur votre situation.
Prendre rendez-vous