cAIrgo cult

2025 a été l'année de l'envolée de l'IA générative dans les outils de développement logiciels et beaucoup prédisent que ça va encore s'accélérer en 2026. Je suis assez d'accord avec ça : la machine s'est emballée et ça va être très compliqué de faire revenir les gens à un peu plus de raison.

Je vais même m'avancer jusqu'à une prédiction plus précise. Un très faible nombre d'organisations vont être incroyablement plus productives avec l'IA. Un grand nombre de gourous autoproclamés vont mettre en avant ces succès et les décortiquer. Ils feront des présentations et vendront leurs services et des formations pour répliquer ces modèles et, évidemment, le succès qui va avec. Et, de manière tout aussi évidente, 90% de ceux qui croiront à ce nouveau Graal vont se planter.

Cette mécanique n'a rien d'original. L'histoire de la tech est parsemée d'exemples de Cargo Cult.

Pourquoi l'IA serait elle épargnée ?

Un exemple très connu dans le monde des méthodes agiles, c'est Spotify et le fameux Spotify Model avec ses Squads, ses Tribes, ses Chapters et ses Guilds. Beaucoup d'entreprises ont copié un snapshot d'une organisation qui était dans une évolution continue. Elles ont utilisé ce snapshot comme un framework à installer. Elles ont confondu l'intention, la volonté de mettre en place une organisation agile débarrassée du poids hiérarchique, et le résultat obtenu à un instant T dans une entreprise ayant du succès.

On retrouve cette même dérive avec les célèbres Two-Pizza Teams d'Amazon. Une structure associée aux architectures microservices poussées à l'extrême pour répondre à des enjeux de passage à l'échelle colossaux. On a vu fleurir des start-ups découpant leurs équipes et leurs logiciels en une myriade de petits services indépendants, alors qu'elles n'avaient pas le centième du trafic d'Amazon. En copiant la forme sans avoir les problèmes de scalabilité, et souvent sans même avoir maîtrisé la complexité d'un monolithe bien conçu, ces organisations n'ont récolté qu'une complexité opérationnelle ingérable.

Il faudrait un billet entier pour développer chaque exemple.

  • Le 20% time de Google. Laisser une journée par semaine pour travailler sur des projets personnels est une idée séduisante mais là où Google a vu naître Gmail ou AdSense grâce à une culture de l'expérimentation ancrée dans son ADN, les autres n'ont sorti aucun produit.
  • Le No Approval de Netflix pour justifier une absence totale de gouvernance, oubliant que cette liberté repose sur une densité de talents exceptionnelle et une culture de la responsabilité totale.
  • Le Stop the Line inspiré de Toyota est un formidable outil pour éviter le pourrissement technique mais il n'a aucun sens si le management n'est pas prêt à arrêter réellement la production pour régler un problème de qualité à la source.

Demain, l'IA générative n'échappera pas à cette mécanique du simulacre. On verra des entreprises clamer haut et fort qu'elles sont passées au Développement Piloté par Agents, remplaçant leurs processus par des orchestrations complexes de modèles de langage.

Mais comme pour le modèle Spotify ou les microservices, l'immense majorité de ces organisations va se heurter à un mur. Parce qu'il leur manquera l'essentiel : la culture des logiciels bien conçus. Elles auront les outils, elles utiliseront les prompts à la mode et copieront certains schémas mais elles n'obtiendront qu'une illusion de productivité.

L'adoption de l'IA dans le développement logiciel sera une vaste pièce de théâtre où l'on s'agite sur scène pour paraître moderne, pendant qu'en coulisses, la dette technique s'accumule et la valeur réelle produite stagne. Le Graal sera, une fois de plus, réservé à ceux qui auront compris que l'outil ne remplace jamais la culture, mais qu'il ne fait que l'amplifier.

Une réaction ? Un commentaire ? Rejoignez la discussion.   linkedin   bluesky