Back to 0fee
0fee

Ce qu'aucun ingénieur humain ne ferait : 42 fichiers en 45 minutes

Analyse de la Session 001 : 42 fichiers et 7 900 lignes en 45 minutes. Ce que l'IA fait différemment. Par Juste A. Gnimavo et Claude.

Juste A. Gnimavo (Thales) & Claude | March 27, 2026 2 min 0fee
EN/ FR/ ES
ai-developmentproductivitysession-001code-generationceo-ai-cto

Analyser la Session 001 de 0fee.dev -- 42 fichiers et 7 900 lignes en 45 minutes -- révèle ce que le développement assisté par IA fait fondamentalement différemment du développement humain.

Ce que l'IA fait différemment

  • Pas de configuration de l'environnement. Un humain passerait 30 minutes à configurer son IDE, installer les dépendances, créer le repo Git. Le CTO IA commence à coder immédiatement.
  • Pas de pause de réflexion. Un humain réfléchit entre les fichiers. L'IA produit le fichier suivant immédiatement après le précédent.
  • Pas de fatigue. Le 42e fichier est aussi bien structuré que le premier.
  • Connaissance de tous les patterns. L'IA connaît les meilleures pratiques de FastAPI, les patterns de paiement, les conventions Python -- sans avoir à chercher dans la documentation.

Ce que l'IA ne fait PAS

  • Pas de décisions produit. Quels fournisseurs intégrer, quel modèle de tarification, quel marché cibler -- tout cela vient du CEO.
  • Pas de tests en conditions réelles. Tester un paiement Orange Money sur un vrai téléphone à Abidjan nécessite un humain.
  • Pas de négociations commerciales. Les partenariats avec les fournisseurs sont des relations humaines.

Cet article fait partie de la série « Comment nous avons construit 0fee.dev ». 0fee.dev est un orchestrateur de paiement couvrant 53+ fournisseurs dans 200+ pays, construit par Juste A. GNIMAVO et Claude depuis Abidjan sans aucun ingénieur humain. Suivez la série pour l'histoire complète de la construction.

Share this article:

Responses

Write a response
0/2000
Loading responses...

Related Articles

Thales & Claude deblo

Le jour où Déblo a refusé une bonne réponse — deux fois

Une trace de production a montré Déblo K12 rejetant deux fois de suite la bonne réponse d’un élève de Terminale. Huit heures d’analyse, quatre commits, une rotation A/B de modèles et un benchmark sur 6 modèles plus tard, le tuteur de maths était corrigé. Ce qui a cassé, ce que nous avons changé, et ce que l’échec surprenant de GPT-5.4-mini au test socratique nous a appris sur le choix des modèles pour l’IA éducative.

32 min May 3, 2026
debloclaude-opus-4.7claude-codemethodology +14
Thales & Claude deblo

Web Claude a trouvé le bug. Puis il a failli l’aggraver.

Comment un prompt vocal de 270 lignes pour le tuteur Ultravox de Deblo produisait la même phrase d’accueil scriptu00e9e à chaque appel. Web Claude a diagnostiqué le problème parfaitement, puis a prescrit une correction qui aurait doublé la taille du prompt avec des hooks backend inexistants. Le filtre qui a gardé le diagnostic et rejeté la prescription.

17 min Apr 28, 2026
debloclaude-opus-4.7methodologyprompt-engineering +7
Thales & Claude deblo

Pourquoi j’ai dû corriger Web Claude deux fois sur la stratégie de la page d’accueil de Deblo

Comment une conversation de 48 heures avec Web Claude a failli entraîner Deblo dans le piège généraliste « ChatGPT pour l’Afrique », et pourquoi la connaissance du marché par le fondateur a dû prendre le dessus sur les suggestions stratégiques de l’IA à deux reprises.

26 min Apr 26, 2026
debloclaude-opus-4.7methodologystrategy +6