Les vulnérabilités dans les LLM : (6) Sensitive Information Disclosure
Les LLM ont le potentiel de révéler des informations sensibles (Sensitive Information Disclosure en anglais), des algorithmes propriétaires ou d’autres détails confidentiels à travers leurs sorties.
Les vulnérabilités dans les LLM : (5) Supply Chain Vulnerabilities
Le machine learning étend les vulnérabilités aux modèles pré-entraînés et aux données d’entraînement fournis par des tiers, qui sont susceptibles d’être altérés par des attaques de manipulation et d’empoisonnement.
Les vulnérabilités dans les LLM : (4) Model Denial of Service
Un déni de service du modèle (Model Denial of Service en anglais) se produit quand un attaquant interagit avec un LLM de manière à consommer une quantité excessivement élevée de ressources ou de bloquer complètement les réponses de l’IA.
Les vulnérabilités dans les LLM : (3) Training Data Poisoning
L’empoisonnement des données d’entraînement (Training Data Poisoning en anglais) fait référence à la manipulation des données de pré-entraînement ou des données impliquées dans les processus de raffinement […]
Les vulnérabilités dans les LLM : (2) Insecure Output Handling
La gestion des sorties non sécurisées (Insecure Output Handling en anglais) fait référence à une validation, une désinfection et une gestion insuffisantes des sorties générées par les IA avant qu’elles ne soient transmises en aval à d’autres composants et systèmes.
Les vulnérabilités dans les LLM : (1) Prompt Injection
La vulnérabilité d’injection de prompt (Prompt Injection en anglais) se produit lorsqu’un attaquant manipule un LLM via des requêtes élaborées, amenant l’IA à exécuter les intentions de l’attaquant.
Les vulnérabilités dans les LLM : Introduction
Bienvenue dans cette suite d’article consacrée aux Large Language Model (LLM) et à leurs vulnérabilités. Depuis quelques années, le Machine Learning (ML) est devenu une priorité pour la plupart des entreprises qui souhaitent intégrer des technologies d’Intelligence Artificielle dans leurs processus métier.
EUCC : le renouveau de l’évaluation Critères Communs en Europe
Après plus de 25 ans d’existence à l’International et plus de 15 ans de reconnaissance en Europe, le schéma d’évaluation Critères Communs réalise sa grande mue.
Almond et Amossys nomment Alexandre Deloup directeur du SEAL
Alexandre Deloup est nommé directeur du Security Evaluation & Analysis Lab (SEAL) d’Almond, nouvellement créé, qui regroupe son pôle Analyse et le Centre d’Évaluation de la Sécurité des Technologies de l’Information (CESTI) opéré par Amossys.
Almond annonce le lancement du SEAL : son Laboratoire technique cyber
Avec son Security Evaluation & Analysis Lab (SEAL), Almond regroupe les compétences de son Pôle analyse et celles du Centre d’Évaluation de la Sécurité des Technologies de l’Information (CESTI) opéré par Amossys.