LLM Integration
Avancé
Correction d’un système RAG retournant du contexte non pertinent
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
rag
vector-search
similarity-threshold
bugfix
llm
Scénario Technique
Contexte : Un assistant interne utilise une base vectorielle pour enrichir les prompts envoyés au LLM. Le Problème : Les documents récupérés ne sont pas toujours pertinents, ce qui dégrade la qualité des réponses. Extrait logique actuelle : top_k = 10 results = vector_store.search(query, top_k) Sans seuil de similarité. Contraintes : Introduire seuil minimal de similarité. Ajuster top_k. Tester impact sur précision des réponses. Livrable attendu : Corriger le pipeline de récupération afin d’améliorer la pertinence du contexte injecté dans le prompt.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.