Nous laissons notre IA écrire du code, examiner les PR et se déployer elle-même.
L'histoire de la création d'un pipeline de développement entièrement autonome où l'IA écrit, examine, teste et déploie ses propres améliorations.
La boucle qui s’est refermée
3 février 2026. Le message de commit indique : “feat(ci) : ajout de la validation en boucle fermée pour Claude autonome dans GitHub Actions.”
Ce commit a complété un circuit qui se construisait depuis des semaines. Le résultat : une boucle de développement entièrement autonome où l’IA écrit du code, le teste, le révise, crée une PR et valide le résultat — le tout sans qu’un humain touche au clavier.
Voici à quoi ressemble la boucle :
- Un problème est signalé sur GitHub
- Claude lit le problème et le code
- Claude écrit un correctif sur une nouvelle branche
- Claude exécute les tests
- Si les tests échouent, Claude lit les erreurs et corrige le code
- Lorsque les tests passent, Claude crée une PR avec un résumé
- Une instance séparée de Claude examine la PR
- Un humain passe en revue le tout et décide s’il faut fusionner
Les étapes 1 à 7 se déroulent automatiquement. L’étape 8 est la seule intervention humaine.
Comment nous en sommes arrivés là
Cela ne s’est pas fait en un jour. Cela a été construit progressivement sur six semaines, une capacité à la fois.
Semaine 1 : Résolution des problèmes (25 décembre). Nous avons commencé avec la version la plus simple : Claude lit un problème GitHub, écrit un correctif et pousse une branche. Pas de tests. Pas de révision. Juste “voici une branche avec un correctif potentiel, jetez un œil.”
Semaine 2 : Création de PR (26-27 décembre). Au lieu de simplement pousser une branche, Claude crée une véritable demande de tirage avec un titre, une description et un problème lié. Maintenant, le correctif est visible pour l’équipe sans avoir à vérifier manuellement les branches.
Semaine 3 : Révision de code (début février). Un flux de travail séparé de Claude se déclenche sur les nouvelles PR. Il examine le code à la recherche de bugs, de problèmes de sécurité et de violations de style. Des commentaires apparaissent sur la PR tout comme ceux d’un réviseur humain.
Semaine 4 : Validation en boucle fermée (3 février). La dernière pièce : Claude exécute les tests avant de soumettre la PR. Si les tests échouent, il lit la sortie d’erreur, modifie le code et essaie à nouveau. La PR n’est créée que lorsque la suite de tests réussit.
Chaque semaine a ajouté une couche. Chaque couche a rendu l’ensemble du système plus fiable.
Ce que nous avons appris sur le développement alimenté par l’IA
L’IA a besoin de contraintes, pas de liberté. Au début, Claude “corrigeait” parfois un petit bug d’interface utilisateur en refactorisant trois modules et en changeant le schéma de la base de données. Nous avons appris à ajouter des contraintes explicites : “Modifiez uniquement les fichiers directement liés au problème. Ne refactorisez pas. N’ajoutez pas de fonctionnalités. Corrigez le bug.”
Des résumés concis valent mieux que des explications détaillées. Les premières descriptions de PR de Claude faisaient 2 000 mots. Personne ne les lisait. Nous avons ajusté le prompt pour exiger des résumés de moins de 200 mots. “Qu’est-ce qui a changé et pourquoi” en deux phrases. C’est tout ce dont un réviseur a besoin pour commencer sa révision.
La révision de code détecte de réels problèmes. Nous étions sceptiques quant à la capacité d’une IA à examiner du code généré par une autre IA et à trouver quelque chose d’utile. Elle le fait. Gestion des erreurs manquante. Références nulles potentielles. Imports inutilisés. Problèmes de sécurité. Le réviseur de code IA n’est pas parfait, mais il détecte 80 % des problèmes que les humains repèrent en un coup d’œil — et il le fait en quelques secondes.
La séparation des préoccupations est importante. L’IA qui écrit le code et l’IA qui révise le code doivent être séparées. Même modèle, contexte différent, prompt différent, préoccupations différentes. L’écrivain est optimiste (“voici ma solution”). Le réviseur est sceptique (“qu’est-ce qui pourrait mal tourner ?”). Les deux perspectives sont nécessaires.
La méta réalité
Disons-le clairement : nous construisons une plateforme pour des agents IA autonomes, et nous utilisons des agents IA autonomes pour la construire.
Nos utilisateurs exécutent des agents IA qui exécutent du code dans des environnements isolés, lisent et écrivent des fichiers, et accomplissent des tâches de manière autonome. Notre processus de développement exécute des agents IA qui exécutent du code dans des environnements CI, lisent et écrivent des fichiers, et accomplissent des tâches de manière autonome.
La différence est superficielle : nos utilisateurs utilisent l’interface web de LikeClaw, et notre CI utilise GitHub Actions. Le schéma sous-jacent est identique : définir une tâche, laisser l’IA l’exécuter, examiner les résultats.
Ce n’est pas une coïncidence. Nous avons construit le pipeline de développement en utilisant les mêmes principes que nous enseignons à nos utilisateurs. Et les choses que nous apprenons en exécutant ce pipeline améliorent le produit que nous construisons pour eux. C’est un cycle vertueux.
Les chiffres
Depuis l’activation du pipeline de développement autonome :
- PR créées par l’IA : des dizaines
- Temps moyen de l’incident à la PR : minutes, pas heures
- Échecs de tests détectés avant soumission : plusieurs par semaine
- Incidents de production causés par du code écrit par l’IA : zéro (jusqu’à présent)
Ce dernier chiffre est celui qui compte le plus. Zéro incident de production. Chaque changement écrit par l’IA est passé par des tests, une révision par l’IA et une révision humaine avant fusion. Le filet de sécurité à trois couches fonctionne.
Ce n’est que le début
Aujourd’hui, l’IA gère les corrections de bugs, les mises à jour de dépendances et les implémentations de fonctionnalités simples. Demain, elle gérera des tâches plus complexes : refactorisation multi-fichiers, optimisation des performances, génération de tests.
L’idée clé n’est pas que l’IA puisse écrire du code. C’est que l’IA peut participer à un flux de travail de développement avec des garde-fous appropriés. Tests, révisions et supervision humaine rendent le code généré par l’IA sûr. Supprimez l’une de ces couches et vous avez un risque. Gardez les trois et vous avez un outil qui multiplie la production de votre équipe.
Nous sommes une petite équipe livrant 7,5 commits par jour. Certains de ces commits sont écrits par des humains. D’autres sont écrits par l’IA. Tous sont approuvés par des humains.
C’est l’avenir du développement logiciel. Pas l’IA remplaçant les développeurs. L’IA accélérant les développeurs. Avec des garde-fous appropriés. À 3 heures du matin. Pendant que l’équipe dort.
Le pipeline de développement autonome
- 1
Problème signalé
Un bug est signalé ou une fonctionnalité est demandée via GitHub Issues. Cela peut venir d'un utilisateur, d'un membre de l'équipe ou d'une surveillance automatisée.
- 2
L'IA lit et comprend
Claude lit le problème, explore la base de code, identifie les fichiers pertinents et formule une approche de solution.
- 3
Le code est écrit
Claude écrit la correction ou la fonctionnalité sur une nouvelle branche. Il exécute la suite de tests. Si les tests échouent, il corrige le code et réessaie.
- 4
La PR est créée et examinée.
Une PR automatisée est créée avec un résumé concis. Une instance séparée de Claude examine le code pour détecter les bugs, la sécurité et le style.
- 5
Humain approuvé
Un humain examine la PR, les commentaires de révision de code de l'IA et les résultats des tests. Ensuite, il fusionne ou demande des modifications.
Avant
Développement sans l'IA dans la boucle
- Le problème reste dans le backlog pendant des jours ou des semaines.
- Le développeur passe plus de 30 minutes à comprendre le contexte.
- La révision de code prend des heures d'attente.
- Des bugs simples peuvent occuper toute la matinée.
Après
Développement avec l'IA dans la boucle
- Le problème a un PR en quelques minutes après avoir été signalé.
- L'IA a déjà exploré le code source et écrit des tests.
- La révision de code est instantanée — un humain ne fait que vérifier la révision.
- Des bugs simples sont corrigés avant que l'équipe ne se réveille.
Questions sur le développement alimenté par l'IA
Combien de votre code est écrit par l'IA ?
Ça varie. Les corrections de bugs de routine, les mises à jour de dépendances et les fonctionnalités simples sont principalement écrites par l'IA avec une révision humaine. Les décisions architecturales, les fonctionnalités complexes et le code sensible à la sécurité sont écrits par des humains avec une révision par l'IA. Le ratio change chaque semaine.
Qu'est-ce qui empêche l'IA de faire de mauvaises modifications ?
Trois couches : des tests automatisés qui doivent réussir, une révision de code par l'IA qui vérifie les problèmes, et une approbation humaine obligatoire avant la fusion. L'IA ne pousse jamais directement vers main.
Est-ce que vos utilisateurs peuvent faire ça aussi ?
Les mêmes principes s'appliquent. Les utilisateurs de LikeClaw peuvent configurer des agents en arrière-plan qui écrivent du code, analysent des dépôts et génèrent des rapports. Les outils que nous utilisons en interne sont les mêmes outils que nous offrons aux utilisateurs.