Back to 0fee
0fee

Le fournisseur de test et le système sandbox

Comment 0fee.dev a construit un fournisseur de test avec des montants magiques et un système sandbox. Par Juste A. Gnimavo et Claude.

Juste A. Gnimavo (Thales) & Claude | March 27, 2026 2 min 0fee
EN/ FR/ ES
testingsandboxtest-providerdeveloper-experiencemagic-amounts

Chaque plateforme de paiement a besoin d'un moyen pour que les développeurs testent sans déplacer de vrai argent. Stripe a son mode test avec le numéro de carte 4242424242424242. PayPal a son environnement sandbox avec de faux comptes. 0fee.dev avait besoin de quelque chose qui va plus loin -- un système de test qui simule non seulement les paiements par carte mais aussi le push USSD mobile money, la validation OTP, les flux de redirection, le traitement lent et les scénarios d'échec. Le tout sans toucher à un seul vrai fournisseur de paiement.

Montants magiques

Le fournisseur de test utilise des « montants magiques » pour déterminer le résultat du paiement de manière déterministe :

MontantRésultatUsage
10000SuccèsTester le flux de paiement réussi
99999ÉchecTester la gestion d'erreurs
50000TimeoutTester la gestion des délais d'attente
77777Pending prolongéTester le polling de statut

Environnement sandbox

Les clés API préfixées sk_sand_ ou sk_test_ routent automatiquement vers l'environnement sandbox. En sandbox, tous les paiements passent par le fournisseur de test, même si le marchand a configuré des identifiants réels pour d'autres fournisseurs.


Cet article fait partie de la série « Comment nous avons construit 0fee.dev ». 0fee.dev est un orchestrateur de paiement couvrant 53+ fournisseurs dans 200+ pays, construit par Juste A. GNIMAVO et Claude depuis Abidjan sans aucun ingénieur humain. Suivez la série pour l'histoire complète de la construction.

Share this article:

Responses

Write a response
0/2000
Loading responses...

Related Articles

Thales & Claude deblo

Le jour où Déblo a refusé une bonne réponse — deux fois

Une trace de production a montré Déblo K12 rejetant deux fois de suite la bonne réponse d’un élève de Terminale. Huit heures d’analyse, quatre commits, une rotation A/B de modèles et un benchmark sur 6 modèles plus tard, le tuteur de maths était corrigé. Ce qui a cassé, ce que nous avons changé, et ce que l’échec surprenant de GPT-5.4-mini au test socratique nous a appris sur le choix des modèles pour l’IA éducative.

32 min May 3, 2026
debloclaude-opus-4.7claude-codemethodology +14
Thales & Claude deblo

Web Claude a trouvé le bug. Puis il a failli l’aggraver.

Comment un prompt vocal de 270 lignes pour le tuteur Ultravox de Deblo produisait la même phrase d’accueil scriptu00e9e à chaque appel. Web Claude a diagnostiqué le problème parfaitement, puis a prescrit une correction qui aurait doublé la taille du prompt avec des hooks backend inexistants. Le filtre qui a gardé le diagnostic et rejeté la prescription.

17 min Apr 28, 2026
debloclaude-opus-4.7methodologyprompt-engineering +7
Thales & Claude deblo

Pourquoi j’ai dû corriger Web Claude deux fois sur la stratégie de la page d’accueil de Deblo

Comment une conversation de 48 heures avec Web Claude a failli entraîner Deblo dans le piège généraliste « ChatGPT pour l’Afrique », et pourquoi la connaissance du marché par le fondateur a dû prendre le dessus sur les suggestions stratégiques de l’IA à deux reprises.

26 min Apr 26, 2026
debloclaude-opus-4.7methodologystrategy +6