Vulnérabilités AI Core de SAP : des données clients en danger

Plongeons dans l’univers fascinant et complexe de la cybersécurité avec une nouvelle qui pourrait bien changer la donne dans le secteur des technologies de l’intelligence artificielle. Des chercheurs en cybersécurité ont découvert des failles de sécurité dans la plateforme cloud SAP AI Core, utilisée pour créer et déployer des flux de travail prédictifs en intelligence artificielle. Ces vulnérabilités offrent une porte d’entrée aux cyberattaques, permettant ainsi l’accès aux jetons et aux données des clients. Voici une analyse détaillée de cette découverte et ses implications.

SAPwned : la découverte de vulnérabilités critiques

Les failles de sécurité, regroupées sous le nom de SAPwned, ont été mises au jour par l’entreprise de sécurité cloud Wiz. Le chercheur en sécurité Hillai Ben-Sasson a révélé que ces vulnérabilités peuvent permettre aux attaquants d’accéder aux données des clients et de compromettre des artefacts internes, impactant potentiellement d’autres services et environnements clients.

Après une divulgation responsable le 25 janvier 2024, SAP a pris des mesures correctives et a résolu ces vulnérabilités d’ici le 15 mai 2024.

Les vulnérabilités clés

Les vulnérabilités identifiées sont multiples et variées, chacune posant des risques significatifs pour la sécurité des données :

  1. Accès non autorisé aux artefacts privés et aux informations d’identification pour les environnements cloud tels qu’AWS, Microsoft Azure, et SAP HANA Cloud.
  2. Modification potentielle des images Docker sur le registre de conteneurs interne de SAP, le registre de conteneurs de Google, et les artefacts sur le serveur Artifactory interne de SAP, pouvant mener à une attaque de chaîne d’approvisionnement.
  3. Obtention de privilèges d’administrateur de cluster sur le cluster Kubernetes de SAP AI Core en exploitant le serveur Helm exposé.
  Est-ce que google est capable de détecter un article rédigé par une IA ?

Avec ces niveaux d’accès, les attaquants pourraient voler des données sensibles, telles que des modèles, des jeux de données et du code, et altérer les données et inférences des modèles d’IA. Ces problèmes sont attribués à des mécanismes d’isolation et de sandboxing insuffisants, permettant à des modèles et procédures d’entraînement malveillants de fonctionner dans des environnements partagés.

Perspectives de l’industrie

Hillai Ben-Sasson a souligné que les nouvelles plateformes d’IA manquent souvent de techniques d’isolation des tenants robustes, contrairement à ce que pratiquent les fournisseurs de cloud expérimentés. Cela met en lumière la nécessité d’améliorer l’isolation des tenants et le renforcement de la sécurité dans l’industrie des services d’IA.

Un acteur malveillant pourrait potentiellement créer une application d’IA régulière sur SAP AI Core, contourner les restrictions réseau, et accéder au code client et aux jeux de données d’entraînement via des erreurs de configuration dans les partages AWS Elastic File System (EFS). Ben-Sasson recommande d’exécuter des modèles de sources vérifiées et de garantir une séparation adéquate entre les modèles externes et l’infrastructure sensible.

Implications plus larges

Les récentes découvertes de Netskope montrent que l’utilisation croissante de l’IA générative dans les entreprises a conduit à l’adoption de contrôles de blocage, d’outils de prévention des pertes de données (DLP), et d’autres mécanismes pour atténuer les risques. Une part significative des données sensibles partagées avec des applications d’IA générative est constituée de données réglementées, ce qui présente un risque de violations coûteuses.

Un nouveau groupe de cybercriminels, NullBulge, a fait son apparition, ciblant des entités focalisées sur l’IA et les jeux pour voler des données sensibles et vendre des clés API compromises d’OpenAI. Ce groupe utilise des outils comme AsyncRAT et XWorm, livrant des charges utiles LockBit construites à partir du constructeur LockBit Black divulgué.

  Le traitement automatique du langage naturel (TALN) : méthodes et défis

Ben-Sasson a insisté sur l’importance de vérifier l’architecture d’isolation des tenants des fournisseurs de services d’IA et de s’assurer qu’ils appliquent les meilleures pratiques pour se protéger contre les attaques potentielles de la chaîne d’approvisionnement associées aux modèles d’IA.

Le paysage de la cybersécurité est en constante évolution, et cette découverte de vulnérabilités dans SAP AI Core souligne l’importance de la vigilance et de l’amélioration continue des mesures de sécurité. Les entreprises doivent impérativement évaluer et renforcer leur infrastructure de sécurité pour protéger les données sensibles et se prémunir contre des attaques potentielles. La collaboration entre les chercheurs en sécurité et les fournisseurs de services est cruciale pour identifier et corriger ces failles avant qu’elles ne soient exploitées par des acteurs malveillants.

Une vigilance nécessaire pour un avenir plus sûr

La découverte des vulnérabilités dans SAP AI Core est un rappel crucial de l’importance de maintenir une vigilance constante et de continuer à innover en matière de sécurité. En restant informés et proactifs, nous pouvons faire face aux défis de la cybersécurité et protéger les données sensibles des entreprises et des individus du monde entier. C’est une tâche collective, et chaque maillon de la chaîne doit jouer son rôle pour garantir un environnement numérique plus sûr pour tous.

Retour en haut