Les vulnérabilités dans les LLM : (5) Supply Chain Vulnerabilities

Le machine learning étend les vulnérabilités aux modèles pré-entraînés et aux données d’entraînement fournis par des tiers, qui sont susceptibles d’être altérés par des attaques de manipulation et d’empoisonnement.
Les vulnérabilités dans les LLM : (4) Model Denial of Service

Un déni de service du modèle (Model Denial of Service en anglais) se produit quand un attaquant interagit avec un LLM de manière à consommer une quantité excessivement élevée de ressources ou de bloquer complètement les réponses de l’IA.
Les vulnérabilités dans les LLM : (3) Training Data Poisoning

L’empoisonnement des données d’entraînement (Training Data Poisoning en anglais) fait référence à la manipulation des données de pré-entraînement ou des données impliquées dans les processus de raffinement […]
Les vulnérabilités dans les LLM : (2) Insecure Output Handling

La gestion des sorties non sécurisées (Insecure Output Handling en anglais) fait référence à une validation, une désinfection et une gestion insuffisantes des sorties générées par les IA avant qu’elles ne soient transmises en aval à d’autres composants et systèmes.
Les vulnérabilités dans les LLM : (1) Prompt Injection

La vulnérabilité d’injection de prompt (Prompt Injection en anglais) se produit lorsqu’un attaquant manipule un LLM via des requêtes élaborées, amenant l’IA à exécuter les intentions de l’attaquant.