
Lors de sa conférence annuelle Cloud Next à Las Vegas, Google a présenté mardi de nouveaux produits et services de sécurité basés sur le cloud, en plus de mises à jour des produits et services existants, destinés aux clients gérant de grands réseaux d'entreprise multi-locataires.
Nombre des annonces concernaient Gemini, la famille phare de modèles d'IA générative de Google.
Par exemple, Google a dévoilé Gemini in Threat Intelligence, un nouveau composant alimenté par Gemini de la plateforme de cybersécurité Mandiant de l'entreprise. Maintenant en prévisualisation publique, Gemini in Threat Intelligence peut analyser de grandes portions de code potentiellement malveillant et permettre aux utilisateurs d'effectuer des recherches en langage naturel sur les menaces en cours ou les indicateurs de compromission, ainsi que de résumer les rapports de renseignement open source du web.
"Gemini in Threat Intelligence propose désormais une recherche conversationnelle à travers le vaste et croissant référentiel de renseignements sur les menaces de Mandiant directement à partir d'enquêtes de première ligne," a écrit Sunil Potti, GM de la sécurité cloud chez Google, dans un article de blog partagé avec TechCrunch. "Gemini guidera les utilisateurs vers les pages les plus pertinentes dans la plateforme intégrée pour une enquête plus approfondie... De plus, [le service de détection de logiciels malveillants de Google] VirusTotal ingère désormais automatiquement les rapports OSINT, que Gemini résume directement dans la plateforme."
Dans d'autres domaines, Gemini peut désormais aider aux enquêtes de cybersécurité dans Chronicle, l'offre de télémétrie de cybersécurité de Google pour les clients cloud. Prêt à être lancé d'ici la fin du mois, la nouvelle fonctionnalité guide les analystes de sécurité dans leurs flux de travail habituels, recommandant des actions en fonction du contexte d'une enquête de sécurité, résumant les données d'événements de sécurité et créant des règles de détection de violations et d'exploitation à partir d'une interface de type chatbot.
Et dans Security Command Center, la suite de gestion des risques et de cybersécurité pour entreprises de Google, une nouvelle fonctionnalité pilotée par Gemini permet aux équipes de sécurité de rechercher les menaces en utilisant un langage naturel tout en fournissant des résumés des configurations incorrectes, des vulnérabilités et des chemins d'attaque potentiels.
Pour conclure les mises à jour de sécurité, le gestionnaire d'accès privilégié (en prévisualisation), un service offrant des options d'accès juste-à-temps, limitées dans le temps et basées sur l'approbation, conçues pour aider à atténuer les risques liés à l'utilisation des accès privilégiés. Google déploie également la limite d'accès principal (également en prévisualisation), qui permet aux administrateurs de mettre en place des restrictions sur les utilisateurs avec un accès root au réseau afin que ces utilisateurs ne puissent accéder qu'aux ressources autorisées dans une limite spécifiquement définie.
Enfin, Autokey (en prévisualisation) vise à simplifier la création et la gestion des clés de chiffrement clients pour des cas d'utilisation nécessitant une sécurité élevée, tandis que Audit Manager (également en prévisualisation) offre des outils aux clients de Google Cloud dans des industries réglementées pour générer une preuve de conformité pour leurs charges de travail et leurs données hébergées dans le cloud.
“L'IA générative offre un potentiel énorme pour basculer en faveur des défenseurs,” a écrit Potti dans l'article de blog. “Et nous continuons d'infuser des capacités pilotées par l'IA dans nos produits.”
Google n'est pas la seule entreprise à tenter de commercialiser des outils de sécurité alimentés par l'IA générative. Microsoft a lancé l'année dernière un ensemble de services qui exploitent l'IA générative pour corréler les données sur les attaques tout en priorisant les incidents de cybersécurité. Des startups, comme Aim Security, se lancent également dans la bataille, cherchant à conquérir cet espace naissant.
Mais avec la propension de l'IA générative à commettre des erreurs, il reste à voir si ces outils ont une longévité.
.