LLM Integration
Avancé
Correction d’un système sans gestion du contexte conversationnel

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

conversation-history
context-management
chatbot
bugfix
llm

Scénario Technique

Contexte : Un assistant conversationnel perd le fil entre les messages successifs. Le Problème : Chaque requête est envoyée isolément sans historique. Extrait logique actuelle : response = client.generate(current_message) Sans inclusion des échanges précédents. Contraintes : Mettre en place gestion d’historique conversationnel. Limiter taille du contexte pour respecter tokens max. Maintenir cohérence sur plusieurs tours. Livrable attendu : Proposer une gestion structurée du contexte conversationnel améliorant cohérence des réponses.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis