L’évaluation de sécurité : centre de coût ou création de valeur ?
La sécurité informatique peut paraître, pour beaucoup, comme un centre de coût et de complexité : plan d’audits à mettre en place annuellement, déploiement de politiques de sécurité, patch management, etc. L’évaluation cyber n’échappe pas à cette règle […]
Les vulnérabilités dans les LLM : Conclusion et perspectives
Après avoir exploré les vulnérabilités inhérentes aux modèles de langage à grande échelle (LLM) dans notre série d’articles, il est temps de tirer des conclusions et de regarder vers l’avenir.
Les vulnérabilités dans les LLM : (10) Model Theft
L’exfiltration de modèles LLM (Model Theft in english) par des acteurs malveillants ou des groupes de cyberespionnage avancés est une menace nouvelle, souvent lié à […]
Les vulnérabilités dans les LLM : (9) Overreliance
La surconfiance (Overreliance en anglais) peut survenir lorsqu’un LLM produit des informations erronées et les présente de manière autoritaire […]
Dissecting 8Base: the anatomy of a cybercriminal threat actor
Avec une souche éprouvée, des outils bien choisis et des cibles stratégiques, 8Base se distingue comme une menace particulièrement redoutable. Les experts CWATCH Almond x Amossys ont décortiqué cette attaque ▶ Téléchargez le dossier et découvrez leur analyse complète.
Les vulnérabilités dans les LLM : (8) Excessive Agency
Un système basé sur les LLM (Large Language Models) est souvent doté d’un certain degré d’autonomie par son développeur, […]
Les vulnérabilités dans les LLM : (7) Insecure Plugin Design
Les plugins pour LLM sont des extensions qui, lorsqu’ils sont activés, sont automatiquement appelés par le modèle pendant les interactions avec l’utilisateur…
Les vulnérabilités dans les LLM : (6) Sensitive Information Disclosure
Les LLM ont le potentiel de révéler des informations sensibles (Sensitive Information Disclosure en anglais), des algorithmes propriétaires ou d’autres détails confidentiels à travers leurs sorties.
Les vulnérabilités dans les LLM : (5) Supply Chain Vulnerabilities
Le machine learning étend les vulnérabilités aux modèles pré-entraînés et aux données d’entraînement fournis par des tiers, qui sont susceptibles d’être altérés par des attaques de manipulation et d’empoisonnement.
Les vulnérabilités dans les LLM : (4) Model Denial of Service
Un déni de service du modèle (Model Denial of Service en anglais) se produit quand un attaquant interagit avec un LLM de manière à consommer une quantité excessivement élevée de ressources ou de bloquer complètement les réponses de l’IA.