LLM Integration
Expert
Correction d’un système RAG présentant hallucinations fréquentes

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

hallucination
rag
validation
bugfix
llm

Scénario Technique

Contexte : Un assistant documentaire génère des réponses plausibles mais incorrectes. Le Problème : Le modèle extrapole au-delà du contexte récupéré. Extrait logique actuelle : Generate answer based on context and knowledge Sans contrainte stricte d’utilisation du contexte. Contraintes : Forcer le modèle à citer explicitement les sources récupérées. Implémenter mécanisme de vérification simple de cohérence. Réduire hallucinations mesurables. Livrable attendu : Proposer une amélioration du système réduisant significativement les hallucinations et renforçant fiabilité des réponses.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis
    LLM Integration - Correction d’un système RAG présentant hallucinations fréquentes | Test Technique & Recrutement