LLM Integration
Avancé
Correction d’un système sans gestion du contexte conversationnel
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
conversation-history
context-management
chatbot
bugfix
llm
Scénario Technique
Contexte : Un assistant conversationnel perd le fil entre les messages successifs. Le Problème : Chaque requête est envoyée isolément sans historique. Extrait logique actuelle : response = client.generate(current_message) Sans inclusion des échanges précédents. Contraintes : Mettre en place gestion d’historique conversationnel. Limiter taille du contexte pour respecter tokens max. Maintenir cohérence sur plusieurs tours. Livrable attendu : Proposer une gestion structurée du contexte conversationnel améliorant cohérence des réponses.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.