LLM Integration
Expert
Correction d’un système sans traçabilité des décisions générées par LLM
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
audit-trail
traceability
logging
governance
llm
Scénario Technique
Contexte : Un LLM influence des décisions internes sensibles. Le Problème : Impossible de retracer quel prompt, quel contexte et quelle version du modèle ont généré une réponse donnée. Extrait logique actuelle : response = client.generate(prompt) Sans journalisation complète. Contraintes : Logger version modèle, prompt, contexte injecté et timestamp. Assurer conservation sécurisée des logs. Permettre audit ultérieur. Livrable attendu : Proposer une architecture garantissant traçabilité complète et auditabilité des décisions générées par LLM.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.