LLM Integration
Expert
Correction d’un système vulnérable aux attaques avancées de prompt injection

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

prompt-injection
security
rag
bugfix
llm

Scénario Technique

Contexte : Un assistant LLM connecté à une base documentaire interne est accessible à tous les employés. Le Problème : Des requêtes malveillantes contournent les instructions système et extraient des informations sensibles. Extrait logique actuelle : prompt = system_rules + user_input + retrieved_context Sans isolation stricte. Contraintes : Séparer clairement instructions système, contexte récupéré et entrée utilisateur. Mettre en place validation et filtrage des requêtes. Tester robustesse avec scénarios d’attaque simulés. Livrable attendu : Proposer une architecture sécurisée réduisant significativement les risques de prompt injection et exfiltration d’informations.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis