LLM Integration
Fondamental
Correction d’un système exposant directement la clé API côté client
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
security
api-key
backend
bugfix
llm
Scénario Technique
Contexte : Une application web appelle directement l’API LLM depuis le navigateur. Le Problème : La clé API est visible côté client et exposée au public. Extrait logique actuelle : const apiKey = "sk-xxxx" Contraintes : Déplacer appel API côté serveur. Protéger la clé dans variable d’environnement. Tester fonctionnement après modification. Livrable attendu : Proposer une intégration sécurisée évitant exposition des clés API.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.