LLM Integration
Avancé
Conception d’un système RAG simple pour assistant documentaire interne

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

rag
embeddings
vector-search
context-management
llm

Scénario Technique

Contexte : Une entreprise souhaite interroger sa base documentaire interne via un assistant conversationnel basé sur LLM. Le Problème : Envoyer tout le corpus au modèle dépasse les limites de tokens et génère des réponses peu pertinentes. Contraintes : Mettre en place une architecture Retrieval-Augmented Generation (RAG). Indexer les documents sous forme d’embeddings. Effectuer recherche de similarité avant génération. Limiter le contexte injecté au strict nécessaire. Livrable attendu : Proposer une architecture RAG complète incluant ingestion des documents, recherche vectorielle et génération contextualisée avec gestion des limites de tokens.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis
    LLM Integration - Conception d’un système RAG simple pour assistant documentaire interne | Test Technique & Recrutement