LLM Integration
Fondamental
Correction d’un système envoyant des prompts trop longs

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

token-limit
prompt-management
bugfix
llm
api-integration

Scénario Technique

Contexte : Une application envoie l’intégralité d’un document volumineux au LLM. Le Problème : Les requêtes dépassent la limite de tokens et échouent. Extrait logique actuelle : prompt = full_document client.generate(prompt) Contraintes : Implémenter découpage simple en segments. Limiter taille du prompt. Tester cohérence des réponses partielles. Livrable attendu : Corriger le système pour respecter les limites de tokens tout en conservant pertinence des réponses.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis