LLM Integration
Avancé
Correction d’un système RAG retournant du contexte non pertinent

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

rag
vector-search
similarity-threshold
bugfix
llm

Scénario Technique

Contexte : Un assistant interne utilise une base vectorielle pour enrichir les prompts envoyés au LLM. Le Problème : Les documents récupérés ne sont pas toujours pertinents, ce qui dégrade la qualité des réponses. Extrait logique actuelle : top_k = 10 results = vector_store.search(query, top_k) Sans seuil de similarité. Contraintes : Introduire seuil minimal de similarité. Ajuster top_k. Tester impact sur précision des réponses. Livrable attendu : Corriger le pipeline de récupération afin d’améliorer la pertinence du contexte injecté dans le prompt.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis
    LLM Integration - Correction d’un système RAG retournant du contexte non pertinent | Test Technique & Recrutement