Back to deblo
deblo

Mémoire IA et compression de contexte

Résumé de conversation fire-and-forget, l'outil save_memory et compression de contexte à 150K tokens. Comment l'IA se souvient entre les sessions pour 0,00005 $ par résumé.

Juste A. Gnimavo (Thales) & Claude | March 26, 2026 3 min deblo
EN/ FR/ ES
deblomémoirecompression-contexterésumémistraltokens

Un élève ouvre l'application lundi et dit à l'IA qu'il a du mal avec les fractions. L'IA le guide à travers le concept, donne des exemples, génère un quiz. L'élève répond correctement à 3 questions sur 5. Il ferme l'application.

Mercredi, l'élève ouvre une nouvelle conversation : « Aide-moi avec mes maths. » Si l'IA n'a pas de mémoire, elle repart de zéro.

C'est le comportement par défaut de chaque API LLM. Chaque appel est sans état. Nous avons résolu cela avec deux systèmes complémentaires : la mémoire IA (résumés inter-conversations) et la compression de contexte (gestion des tokens intra-conversation).

Le modèle AIMemory

Chaque conversation terminée génère une entrée mémoire : un titre (4-10 mots) et un contenu (2-4 phrases, maximum 200 mots). C'est tout ce dont l'IA a besoin pour se rappeler ce qui s'est passé dans une conversation précédente.

Auto-résumé : fire-and-forget

Quand une conversation se termine, le backend lance une tâche de résumé asynchrone. C'est fire-and-forget : jamais bloquant pour l'utilisateur. Si le résumé échoue, l'échec est journalisé silencieusement. Le coût est d'environ 0,00005 $ par résumé -- essentiellement gratuit.

L'outil save_memory

Au-delà du résumé automatique, l'IA peut explicitement sauvegarder des entrées mémoire pendant la conversation : « Cet élève a du mal avec les fractions mais est fort en géométrie. » L'IA utilise cet outil quand elle identifie des informations qui devraient être mémorisées explicitement.

Chargement de la mémoire : contexte inter-conversations

Au début de chaque nouvelle conversation, le processus d'assemblage du prompt système charge les entrées AIMemory récentes (actuellement 10) et les injecte dans le contexte. L'IA peut alors répondre : « La dernière fois, tu avais des difficultés avec la multiplication de fractions. Tu veux qu'on continue avec ça ? »

Compression de contexte : le seuil de 150K tokens

Quand l'estimation de tokens de la conversation dépasse 150 000 tokens, nous compressons : garder les 14 messages les plus récents in extenso, résumer le reste, et reconstruire l'historique. Le seuil de 150K a été choisi empiriquement : au-delà, nous avons observé une latence accrue et des problèmes occasionnels de cohérence.

L'équation des coûts

  • Résumé mémoire : ~0,00005 $ par résumé. À 1 000 conversations/jour : 1,50 $/mois.
  • Chargement mémoire : ~1 500-3 000 tokens par démarrage de conversation. Négligeable.
  • Compression de contexte : économise 100K-200K tokens par message suivant dans les longues conversations. Le ROI est de 5 600x à 11 200x.

Les maths sont sans ambiguïté. La mémoire et la compression ne sont pas juste des fonctionnalités -- ce sont des optimisations de coûts.

Ce que l'IA « se souvient »

Au début de toute conversation, l'IA connaît : les résumés de conversations précédentes, les notes explicitement sauvegardées, les fichiers uploadés, l'historique de conversation actuel (possiblement compressé), le statut des tâches, et les résultats d'exercices historiques.

Ce n'est pas de la vraie mémoire au sens humain. C'est du contexte reconstruit -- assemblé à chaque début de conversation depuis des enregistrements en base de données. Mais du point de vue de l'utilisateur, l'effet est le même. L'IA se souvient.


Ceci est l'article 19 de 20 dans la série « Comment nous avons construit Deblo.ai ».

Share this article:

Responses

Write a response
0/2000
Loading responses...

Related Articles

Thales & Claude deblo

Le jour où Déblo a refusé une bonne réponse — deux fois

Une trace de production a montré Déblo K12 rejetant deux fois de suite la bonne réponse d’un élève de Terminale. Huit heures d’analyse, quatre commits, une rotation A/B de modèles et un benchmark sur 6 modèles plus tard, le tuteur de maths était corrigé. Ce qui a cassé, ce que nous avons changé, et ce que l’échec surprenant de GPT-5.4-mini au test socratique nous a appris sur le choix des modèles pour l’IA éducative.

32 min May 3, 2026
debloclaude-opus-4.7claude-codemethodology +14
Thales & Claude deblo

Web Claude a trouvé le bug. Puis il a failli l’aggraver.

Comment un prompt vocal de 270 lignes pour le tuteur Ultravox de Deblo produisait la même phrase d’accueil scriptu00e9e à chaque appel. Web Claude a diagnostiqué le problème parfaitement, puis a prescrit une correction qui aurait doublé la taille du prompt avec des hooks backend inexistants. Le filtre qui a gardé le diagnostic et rejeté la prescription.

17 min Apr 28, 2026
debloclaude-opus-4.7methodologyprompt-engineering +7
Thales & Claude deblo

Pourquoi j’ai dû corriger Web Claude deux fois sur la stratégie de la page d’accueil de Deblo

Comment une conversation de 48 heures avec Web Claude a failli entraîner Deblo dans le piège généraliste « ChatGPT pour l’Afrique », et pourquoi la connaissance du marché par le fondateur a dû prendre le dessus sur les suggestions stratégiques de l’IA à deux reprises.

26 min Apr 26, 2026
debloclaude-opus-4.7methodologystrategy +6