FPInsight Coder
Un assistant de code autonome, propulsé par LLM, construit de zéro en Rust avec une boucle d'exécution Plan-Act-Observe-Reflect complète.
Ce que c'est
FPInsight Coder est un assistant de code autonome avec une interface terminal qui va bien au-delà de la simple génération de code. Il implémente la même architecture agentique que les outils commerciaux de pointe — Plan, Act, Observe, Reflect — lui donnant la capacité de raisonner sur des tâches complexes multi-étapes, d'utiliser des outils, d'apprendre de ses résultats et d'adapter son approche en temps réel.
Le système comprend ~165 000 lignes de Rust réparties sur 463 fichiers source, accompagnées de 56 Architecture Decision Records documentant chaque choix de conception significatif.
Points techniques clés
Passerelle LLM Multi-Fournisseurs
Une couche d'abstraction unifiée supportant 21 fournisseurs de LLM (Anthropic, OpenAI, Google Gemini, DeepSeek, xAI, Groq, Ollama, et plus), avec des optimisations spécifiques incluant le cache de prompts, le comptage de tokens et un routage cache-aware qui atteint jusqu'à 90% de réduction des coûts sur les tâches à forte intensité de connaissances.
Pattern Oracle pour la Validation de Code
Au lieu du cycle classique "générer, compiler, corriger les erreurs", FPInsight Coder effectue une validation spéculative avant l'écriture sur disque. Pour Rust, il s'intègre directement à rust-analyzer pour une analyse sémantique à latence nulle, l'injection d'inférence de types et des suggestions de réparation automatiques. Pour Python, JavaScript, Go et dbt/SQL, il s'intègre aux linters spécifiques et à la validation BigQuery dry-run.
Architecture Mémoire à Quatre Couches
Mémoire de travail, mémoire épisodique (historique de conversation avec embeddings vectoriels), mémoire sémantique (graphes de symboles et résumés de code), et mémoire procédurale (patterns appris et stratégies de récupération d'erreurs). Le système inclut un distillateur de connaissances qui extrait des règles généralisables à partir des patterns observés — une forme d'apprentissage continu.
Exécution Parallèle basée sur un DAG
Les tâches complexes sont décomposées en unités atomiques checkpointées ("Atoms of Thought") avec des graphes de dépendances explicites. Les atomes indépendants s'exécutent en parallèle avec détection de conflits, tandis que des contrats de vérification (compilation, tests, validation oracle) contrôlent la progression entre les étapes.
Système d'Outils Enterprise
25+ outils intégrés (opérations fichiers, bash sandboxé, recherche sémantique, intégration git, génération de diffs) organisés par niveaux de risque avec un système d'approbation human-in-the-loop supportant des règles d'autorisation permanentes, temporaires et basées sur des patterns.
Intégration MCP
Client Model Context Protocol complet avec transport stdio et HTTP/SSE, incluant un serveur MCP data-mesh pour l'intégration BigQuery et catalogue de données — connectant le code assisté par IA à la gouvernance data d'entreprise.
Interface Terminal
Un frontend Ratatui avec streaming des réponses, sélection de modèle, entrée vocale, rendu d'images et gestion d'agents — le tout communiquant via une interface API unique et propre.
Architecture et ingénierie
Le codebase sert de référence pour plusieurs patterns avancés :
- Injection de dépendances via un conteneur de services typé avec initialisation lazy et arrêt coordonné
- Persistance bi-base (redb pour les données structurées, LanceDB pour les embeddings vectoriels) choisie par benchmarking rigoureux
- Parsing multi-langage tree-sitter (6 langages) pour le chunking AST-aware et la recherche sémantique
- gix (git pure-Rust) pour le suivi des changements et l'indexation du workspace
- Organisation du code assistant-friendly — limites strictes de taille de fichier (<800 lignes), de fonctions (<100 lignes), et patterns de découpage modulaire standardisés pour la modification efficace par des outils de code IA
Ce que cela démontre
| Compétence | Preuve |
|---|---|
| Systèmes IA Agentiques | Boucle Plan-Act-Observe-Reflect complète, spawning de sous-agents, exécution parallèle DAG |
| Ingénierie LLM | Passerelle 21 fournisseurs, stratégies de cache de prompts, routage cache-aware, gestion de budget de tokens |
| Intégration Compilateur & Toolchain | Embedding rust-analyzer, parsing tree-sitter, pattern oracle |
| Programmation Système en Rust | 165k LOC, async/tokio, Arrow zero-copy, base vectorielle embarquée |
| Architecture Enterprise | Conteneur DI, modèle de sécurité hiérarchisé, interopérabilité MCP, 56 ADRs |
| Infrastructure ML Appliquée | Recherche vectorielle (LanceDB), retrieval hybride, reranking, embeddings multi-fournisseurs |
| Design d'Interaction Homme-IA | Système d'approbation, apprentissage de préférences, analyse proactive, TUI avec streaming |
Stack technique
| Couche | Technologie |
|---|---|
| Langage | Rust (async/tokio) |
| Stockage | redb + LanceDB (Arrow) |
| Analyse de code | tree-sitter, rust-analyzer |
| Fournisseurs LLM | Anthropic, OpenAI, Gemini, DeepSeek, xAI, Groq, Ollama, + 14 autres |
| Protocole | MCP (Model Context Protocol) |
| UI | Ratatui |
| Git | gix (pure Rust) |
Envie d'en discuter ?
Nous construisons ces produits avec la même rigueur que celle de nos missions de conseil.
Nous contacter