Les vulnérabilités dans les LLM : (1) Prompt Injection
La vulnérabilité d’injection de prompt (Prompt Injection en anglais) se produit lorsqu’un attaquant manipule un LLM via des requêtes élaborées, amenant l’IA à exécuter les intentions de l’attaquant.