LLM Integration
Avancé
Correction d’un système exposé aux attaques de prompt injection

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

prompt-injection
security
llm
bugfix
input-validation

Scénario Technique

Contexte : Un assistant interne accepte des requêtes utilisateurs libres. Le Problème : Des utilisateurs injectent des instructions malveillantes dans leurs requêtes. Extrait logique actuelle : prompt = system_instructions + user_input Sans validation. Contraintes : Mettre en place séparation stricte instructions système et input utilisateur. Filtrer instructions suspectes. Tester robustesse face à exemples malveillants. Livrable attendu : Proposer une architecture d’intégration réduisant le risque de prompt injection.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis
    LLM Integration - Correction d’un système exposé aux attaques de prompt injection | Test Technique & Recrutement