L’équipe de recherche de Microsoft en IA expose « accidentellement » 38 téraoctets de données privées - News Summed Up

L’équipe de recherche de Microsoft en IA expose « accidentellement » 38 téraoctets de données privées


Selon deux chercheurs en sécurité de chez l’éditeur Wiz, un employé de Microsoft spécialisé en intelligence artificielle (IA) a exposé accidentellement 38 To de données sensibles en commettant une erreur sur GitHub. Ont fuité : des clés privées, des mots de passe, plus de 30.000 messages Teams internes provenant de 359 employés de Microsoft ainsi que des données de sauvegarde de deux postes de travail. Ce référentiel contenait une URL avec un jeton Shared Access Signature (SAS) mal configuré. D’après Wiz, les jetons SAS présentent un risque pour la sécurité car ils permettent de partager des informations avec des personnes non identifiées. Le jeton Microsoft impliqué dans l’incident était valide jusqu’en 2051.


Source: L'Equipe September 20, 2023 02:46 UTC



Loading...
Loading...
  

Loading...

                           
/* -------------------------- overlay advertisemnt -------------------------- */