LLM Integration
Expert
Correction d’un système sans traçabilité des décisions générées par LLM

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

audit-trail
traceability
logging
governance
llm

Scénario Technique

Contexte : Un LLM influence des décisions internes sensibles. Le Problème : Impossible de retracer quel prompt, quel contexte et quelle version du modèle ont généré une réponse donnée. Extrait logique actuelle : response = client.generate(prompt) Sans journalisation complète. Contraintes : Logger version modèle, prompt, contexte injecté et timestamp. Assurer conservation sécurisée des logs. Permettre audit ultérieur. Livrable attendu : Proposer une architecture garantissant traçabilité complète et auditabilité des décisions générées par LLM.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis
    LLM Integration - Correction d’un système sans traçabilité des décisions générées par LLM | Test Technique & Recrutement