LLM Integration
Expert
Correction d’un pipeline exposant des données sensibles au LLM externe
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
data-privacy
security
anonymization
bugfix
llm
Scénario Technique
Contexte : Une application envoie des données internes confidentielles à un LLM externe. Le Problème : Certaines informations sensibles ne doivent pas quitter l’infrastructure interne. Extrait logique actuelle : client.generate(full_user_record) Contraintes : Mettre en place anonymisation ou masquage des données sensibles. Définir règles strictes de filtrage avant envoi. Tester conformité sécurité. Livrable attendu : Proposer une intégration sécurisée minimisant exposition de données sensibles au fournisseur LLM.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.