FP Lens Connect
Une interface intelligente en langage naturel qui permet aux utilisateurs métier d'interroger des bases de données de façon conversationnelle, sans écrire de SQL.
Le problème
Les organisations disposent de vastes quantités de données structurées verrouillées derrière l'expertise SQL. Les analystes attendent que les équipes techniques construisent des rapports, les data scientists passent plus de temps à écrire des requêtes qu'à analyser les résultats, et les décideurs métier sont entièrement dépendants d'intermédiaires pour répondre à des questions urgentes.
La solution
FP Lens Connect est une plateforme multi-tenant de niveau entreprise qui traduit le langage naturel en requêtes SQL sûres et validées, en utilisant des LLM augmentés par la Retrieval-Augmented Generation (RAG). Elle combine l'IA conversationnelle avec une compréhension profonde du schéma, la connaissance du glossaire métier et la collaboration en temps réel — transformant tout utilisateur autorisé en analyste data autonome.
Points d'architecture
Full-Stack Rust
L'ensemble du système — serveur API backend, frontend WebAssembly, fournisseur d'identité et client d'autorisation — est écrit en Rust dans un workspace de 6 crates. Cela garantit la sécurité mémoire, une haute concurrence et une latence prévisible sans ramasse-miettes.
Sessions de Requêtes Conversationnelles
Les utilisateurs interagissent via une interface de chat où le contexte s'accumule au fil des échanges. Le système maintient des sessions checkpointées avec l'historique complet de la conversation, permettant des questions de suivi comme "maintenant décompose ça par région" ou "exclue le dernier trimestre".
Intégration LLM Multi-Fournisseurs
La plateforme abstrait quatre fournisseurs de LLM — OpenAI, Anthropic, Google Gemini et Ollama (on-premise) — via un pattern factory basé sur des traits. Les organisations configurent leur fournisseur préféré par tenant, avec des clés API gérées de manière sécurisée via HashiCorp Vault. Le cache de prompts et le suivi des coûts sont intégrés.
Intelligence de Schéma par RAG
Un pipeline en 5 phases extrait les métadonnées de schéma des bases PostgreSQL clientes, génère une documentation business-friendly, calcule des embeddings vectoriels et les stocke dans pgvector pour une recherche hybride (full-text + similarité cosinus avec indexation HNSW). Quatre types de connaissances alimentent le contexte RAG : documentation de schéma, exemples de requêtes curatés, patterns de requêtes extraits et glossaire métier — donnant au LLM un contexte riche et spécifique au domaine pour une génération SQL précise.
Moteur d'Embedding Multi-Fournisseurs
Supporte cinq fournisseurs d'embeddings (OpenAI, Azure OpenAI, Cohere, HuggingFace, Ollama) avec un déploiement blue-green pour des mises à jour de modèles sans interruption. Une couche de routage du trafic permet des déploiements progressifs et des tests A/B entre modèles d'embedding, avec rollback automatique en cas de dégradation.
Stack Sécurité Entreprise
Authentification via une intégration complète de l'écosystème Ory — Kratos pour la gestion d'identité, Hydra comme fournisseur OAuth2/OIDC et Keto pour l'autorisation fine, basée sur des namespaces. Sept namespaces de permissions (User, Organisation, Session, Query, DbConnection, LlmConfig, Knowledge) imposent un contrôle d'accès au niveau des lignes. L'exécution SQL est sandboxée : seuls SELECT/WITH/EXPLAIN sont autorisés, avec des limites de longueur de requête, des timeouts d'exécution et des plafonds de lignes de résultats configurables.
Streaming Temps Réel
Une couche pub/sub WebSocket délivre la progression de la conversation en temps réel — mises à jour de statut, propositions SQL et résultats d'exécution sont streamés vers le navigateur au fil de leur génération, avec une authentification WebSocket par ticket éphémère.
Capacités clés
- Langage naturel vers SQL avec contexte conversationnel multi-tours
- Backends LLM interchangeables — changement de fournisseur sans modification de code
- Découverte de schéma automatisée avec jobs d'introspection en arrière-plan
- Gestion de glossaire métier et d'exemples de requêtes pour la précision spécifique au domaine
- Déploiements d'embeddings blue-green avec routage du trafic et rollback
- Validation de sécurité SQL — exécution paramétrée, blocage de mots-clés interdits, limites lignes/temps
- Piste d'audit complète — chaque requête, chaque action, chaque accès enregistré
- Rate limiting — throttling par utilisateur et par organisation
- Système de suivi de jobs — reporting de progression hiérarchique pour les opérations longues
Ce que cela démontre
| Compétence | Preuve |
|---|---|
| Ingénierie Système Rust | Services async, connection pooling, sérialisation zero-copy, polymorphisme par traits dans un workspace multi-crate |
| Architecture d'Applications LLM | Prompt engineering, conception de pipeline RAG, abstraction de fournisseurs, gestion de tokens cost-aware |
| Conception Sécurité Entreprise | Intégration OIDC, autorisation fine, gestion de secrets, prévention d'injection SQL, conformité audit |
| Livraison Full-Stack | De la conception de schéma PostgreSQL aux APIs REST jusqu'à un frontend WebAssembly réactif, le tout dans un seul langage |
| Orchestration d'Infrastructure | 8 services conteneurisés avec networking, ordonnancement d'initialisation et bootstrapping de credentials |
Stack technique
| Couche | Technologie |
|---|---|
| Langage | Rust (edition 2021), workspace de 6 crates |
| Serveur API | Axum 0.8 + runtime async Tokio |
| Frontend | Leptos 0.8 (WebAssembly, rendu côté client) |
| Base de données | PostgreSQL 17 avec pgvector 0.8 |
| Recherche vectorielle | Indexation HNSW, similarité cosinus, ranking hybride |
| Secrets | HashiCorp Vault (auth AppRole, credentials dynamiques) |
| Identité | Ory Kratos + Hydra (OIDC/OAuth2) |
| Autorisation | Ory Keto (basé sur namespaces, inspiré de Zanzibar) |
| Infrastructure | Docker Compose, 8 services orchestrés |
| Schéma | 44 migrations, 40+ tables |
| Surface API | 80+ endpoints REST + WebSocket |
Envie d'en discuter ?
Nous construisons ces produits avec la même rigueur que celle de nos missions de conseil.
Nous contacter