Plateforme Data Entreprise

FP Lens Connect

Une interface intelligente en langage naturel qui permet aux utilisateurs métier d'interroger des bases de données de façon conversationnelle, sans écrire de SQL.

RustAxumLeptos WASMpgvectorRAGOry

Le problème

Les organisations disposent de vastes quantités de données structurées verrouillées derrière l'expertise SQL. Les analystes attendent que les équipes techniques construisent des rapports, les data scientists passent plus de temps à écrire des requêtes qu'à analyser les résultats, et les décideurs métier sont entièrement dépendants d'intermédiaires pour répondre à des questions urgentes.


La solution

FP Lens Connect est une plateforme multi-tenant de niveau entreprise qui traduit le langage naturel en requêtes SQL sûres et validées, en utilisant des LLM augmentés par la Retrieval-Augmented Generation (RAG). Elle combine l'IA conversationnelle avec une compréhension profonde du schéma, la connaissance du glossaire métier et la collaboration en temps réel — transformant tout utilisateur autorisé en analyste data autonome.


Points d'architecture

Full-Stack Rust

L'ensemble du système — serveur API backend, frontend WebAssembly, fournisseur d'identité et client d'autorisation — est écrit en Rust dans un workspace de 6 crates. Cela garantit la sécurité mémoire, une haute concurrence et une latence prévisible sans ramasse-miettes.

Sessions de Requêtes Conversationnelles

Les utilisateurs interagissent via une interface de chat où le contexte s'accumule au fil des échanges. Le système maintient des sessions checkpointées avec l'historique complet de la conversation, permettant des questions de suivi comme "maintenant décompose ça par région" ou "exclue le dernier trimestre".

Intégration LLM Multi-Fournisseurs

La plateforme abstrait quatre fournisseurs de LLM — OpenAI, Anthropic, Google Gemini et Ollama (on-premise) — via un pattern factory basé sur des traits. Les organisations configurent leur fournisseur préféré par tenant, avec des clés API gérées de manière sécurisée via HashiCorp Vault. Le cache de prompts et le suivi des coûts sont intégrés.

Intelligence de Schéma par RAG

Un pipeline en 5 phases extrait les métadonnées de schéma des bases PostgreSQL clientes, génère une documentation business-friendly, calcule des embeddings vectoriels et les stocke dans pgvector pour une recherche hybride (full-text + similarité cosinus avec indexation HNSW). Quatre types de connaissances alimentent le contexte RAG : documentation de schéma, exemples de requêtes curatés, patterns de requêtes extraits et glossaire métier — donnant au LLM un contexte riche et spécifique au domaine pour une génération SQL précise.

Moteur d'Embedding Multi-Fournisseurs

Supporte cinq fournisseurs d'embeddings (OpenAI, Azure OpenAI, Cohere, HuggingFace, Ollama) avec un déploiement blue-green pour des mises à jour de modèles sans interruption. Une couche de routage du trafic permet des déploiements progressifs et des tests A/B entre modèles d'embedding, avec rollback automatique en cas de dégradation.

Stack Sécurité Entreprise

Authentification via une intégration complète de l'écosystème Ory — Kratos pour la gestion d'identité, Hydra comme fournisseur OAuth2/OIDC et Keto pour l'autorisation fine, basée sur des namespaces. Sept namespaces de permissions (User, Organisation, Session, Query, DbConnection, LlmConfig, Knowledge) imposent un contrôle d'accès au niveau des lignes. L'exécution SQL est sandboxée : seuls SELECT/WITH/EXPLAIN sont autorisés, avec des limites de longueur de requête, des timeouts d'exécution et des plafonds de lignes de résultats configurables.

Streaming Temps Réel

Une couche pub/sub WebSocket délivre la progression de la conversation en temps réel — mises à jour de statut, propositions SQL et résultats d'exécution sont streamés vers le navigateur au fil de leur génération, avec une authentification WebSocket par ticket éphémère.


Capacités clés

  • Langage naturel vers SQL avec contexte conversationnel multi-tours
  • Backends LLM interchangeables — changement de fournisseur sans modification de code
  • Découverte de schéma automatisée avec jobs d'introspection en arrière-plan
  • Gestion de glossaire métier et d'exemples de requêtes pour la précision spécifique au domaine
  • Déploiements d'embeddings blue-green avec routage du trafic et rollback
  • Validation de sécurité SQL — exécution paramétrée, blocage de mots-clés interdits, limites lignes/temps
  • Piste d'audit complète — chaque requête, chaque action, chaque accès enregistré
  • Rate limiting — throttling par utilisateur et par organisation
  • Système de suivi de jobs — reporting de progression hiérarchique pour les opérations longues

Ce que cela démontre

CompétencePreuve
Ingénierie Système RustServices async, connection pooling, sérialisation zero-copy, polymorphisme par traits dans un workspace multi-crate
Architecture d'Applications LLMPrompt engineering, conception de pipeline RAG, abstraction de fournisseurs, gestion de tokens cost-aware
Conception Sécurité EntrepriseIntégration OIDC, autorisation fine, gestion de secrets, prévention d'injection SQL, conformité audit
Livraison Full-StackDe la conception de schéma PostgreSQL aux APIs REST jusqu'à un frontend WebAssembly réactif, le tout dans un seul langage
Orchestration d'Infrastructure8 services conteneurisés avec networking, ordonnancement d'initialisation et bootstrapping de credentials

Stack technique

CoucheTechnologie
LangageRust (edition 2021), workspace de 6 crates
Serveur APIAxum 0.8 + runtime async Tokio
FrontendLeptos 0.8 (WebAssembly, rendu côté client)
Base de donnéesPostgreSQL 17 avec pgvector 0.8
Recherche vectorielleIndexation HNSW, similarité cosinus, ranking hybride
SecretsHashiCorp Vault (auth AppRole, credentials dynamiques)
IdentitéOry Kratos + Hydra (OIDC/OAuth2)
AutorisationOry Keto (basé sur namespaces, inspiré de Zanzibar)
InfrastructureDocker Compose, 8 services orchestrés
Schéma44 migrations, 40+ tables
Surface API80+ endpoints REST + WebSocket
Tous les produits

Envie d'en discuter ?

Nous construisons ces produits avec la même rigueur que celle de nos missions de conseil.

Nous contacter