LLM Integration
Fondamental
Correction d’un système exposant directement la clé API côté client

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

security
api-key
backend
bugfix
llm

Scénario Technique

Contexte : Une application web appelle directement l’API LLM depuis le navigateur. Le Problème : La clé API est visible côté client et exposée au public. Extrait logique actuelle : const apiKey = "sk-xxxx" Contraintes : Déplacer appel API côté serveur. Protéger la clé dans variable d’environnement. Tester fonctionnement après modification. Livrable attendu : Proposer une intégration sécurisée évitant exposition des clés API.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis