LLM Integration
Avancé
Correction d’un système exposé aux attaques de prompt injection
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
prompt-injection
security
llm
bugfix
input-validation
Scénario Technique
Contexte : Un assistant interne accepte des requêtes utilisateurs libres. Le Problème : Des utilisateurs injectent des instructions malveillantes dans leurs requêtes. Extrait logique actuelle : prompt = system_instructions + user_input Sans validation. Contraintes : Mettre en place séparation stricte instructions système et input utilisateur. Filtrer instructions suspectes. Tester robustesse face à exemples malveillants. Livrable attendu : Proposer une architecture d’intégration réduisant le risque de prompt injection.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.