Stratégie et perspectives

Prédictions pour 2025 : l'IA, outil de cybersécurité et cible

Bien que l’IA soit (encore) le sujet technologique le plus brûlant, ce n’est pas le problème primordial pour la sécurité des entreprises en 2025. L’IA avancée ouvrira de nouveaux vecteurs d’attaque et fournira également de nouveaux outils pour protéger les données d’une entreprise. Mais le défi sous-jacent est la quantité considérable de données auxquelles les équipes de cybersécurité surchargées de travail sont confrontées alors qu'elles tentent de répondre à des questions fondamentales telles que « Sommes-nous attaqués ? ».

Dans « Snowflake AI + Data Predictions 2025 », je me joins à une douzaine d’experts et de leaders pour discuter des changements que l’IA va entraîner dans les années à venir, et du point de vue de la sécurité, il y a de bonnes et de mauvaises nouvelles. L’IA est à la fois un facteur contribuant au problème (plus de données à sécuriser, plus de surface d’attaque) et une aubaine potentielle, fournissant des outils pour gérer des quantités de données que les humains ne peuvent pas saisir seuls. Notre rapport met notamment en évidence quatre impératifs pour la cybersécurité à l’approche de l’ère de l’IA.

Gérer l’explosion des données avec un data lake

Les professionnels de la sécurité doivent continuellement améliorer leur niveau de sécurité pour s'assurer que, parmi toutes les données à leur disposition, ils utilisent les entrées correctes pour identifier les vulnérabilités et les incidents. Le data lake de sécurité continuera de gagner les faveurs des entreprises en tant que moyen rentable de mettre en commun de grandes quantités de données provenant de sources diverses. Au sein du data lake de sécurité, les équipes peuvent exploiter le machine learning et les analyses avancées. De plus, en rendant plus abordable la conservation plus longue de données, les équipes peuvent exécuter de meilleures analyses. Par rapport aux outils traditionnels de gestion des incidents et des événements de sécurité, les data lakes de sécurité sont généralement plus flexibles, évolutifs et rentables. Les SIEM sont également mieux adaptés aux solutions d’IA et, pour toutes ces raisons, nous nous attendons à ce que le data lake de sécurité finisse par remplacer le SIEM.

L’IA comme vecteur d’attaque

L’année dernière, nous avons publié un framework de sécurité d’IA qui identifie 20 vecteurs d’attaque contre les grands modèles de langage et les systèmes d’IA générative. Nous y abordons trois couches d’IA qui peuvent devenir une surface d’attaque. Nous avons abordé la première, la plateforme centrale, dans le rapport de prédictions de l’année dernière. Nous avons remarqué que l’automatisation empêche les mauvaises configurations au niveau de la production, et que les environnements de développement deviennent une cible facile. Mais à ce stade, cette infrastructure se raffermit également assez bien.

Au cours de l'année à venir, nous nous attendons à voir la prochaine couche, le fonctionnement du modèle, devenir une cible plus courante. Les professionnels de la sécurité devront réfléchir à la façon dont le modèle est entraîné au départ et comment il intègre de nouvelles données en production. Nous devons examiner le cycle de vie de l’ensemble du modèle, ainsi que celui des données qui l’alimentent. Les équipes de sécurité devront normaliser leurs approches des nouvelles technologies d'IA pour s'assurer qu'elles sont aussi sécurisées que l'infrastructure générale de leur entreprise.

Une troisième couche d’attaque, que nous nous attendons à voir augmenter davantage, consiste à interagir directement avec l’IA pour la tromper en lui divulguant des données sensibles qui n’auraient peut-être pas dû être intégrées dans le modèle. C’est pourquoi nous observons la pratique émergente de la gestion des postures de sécurité des données, qui vise à fournir une meilleure visibilité sur la localisation, les utilisations et la sécurité des données dans l’ensemble d’une entreprise.

L’IA comme outil de sécurité

L'intelligence artificielle fournira également de nouveaux outils pour protéger l'entreprise, et les équipes de sécurité expérimentent déjà les premières possibilités. Un LLM accompagné d'une interface d'IA générative permet de poser des questions dans un langage naturel et humain sur la posture globale de sécurité ou sur des alertes et des tendances spécifiques. Cette expérience de copilote de sécurité évoluera et deviendra un assistant plus efficace pour les équipes de sécurité en perpétuelle pénurie de personnel. Les outils alimentés par l'IA aideront notamment les professionnels de la sécurité débutants à traduire rapidement les idées en requêtes et en analyses. Cela réduira le temps nécessaire pour apprendre la logique des requêtes complexes et obtenir des réponses aux problèmes de sécurité immédiats.

En particulier, la capacité des systèmes d'IA à résumer les incidents de sécurité va être une grande avancée. Imaginez que l’IA vous dise : « J’ai vu un étrange schéma dans le mouvement des données : une telle quantité de données de ce type ne sont normalement pas transférées à ce moment de la journée, depuis cet endroit. » Cette description générale est beaucoup plus utile qu’une notification qui dit, « Consultez les logs VPN, les logs de stockage et vos logs d’e-mail, puis tirez-en vous-même les conclusions ». C'est à peu près où nous en sommes aujourd'hui.

L'IA avancée aidera les équipes de sécurité à la fois à comprendre les anomalies détectées et à effectuer des analyses méthodiques après un événement afin de bien comprendre ce qui s'est passé et comment prévenir des événements similaires. En fin de compte, elle sera utilisée non seulement pour l’analyse des incidents, mais aussi pour la gestion globale de la posture de sécurité des données, car l’IA peut analyser des systèmes beaucoup plus complexes que les outils existants ou les opérateurs humains.

Garder les humains dans la boucle

Il est déjà courant que les outils de sécurité automatisent les réponses à certains incidents, arrêtant ainsi une attaque plus rapidement qu'un humain ne pourrait agir. En théorie, l'IA générative pourrait prendre des décisions plus complexes et prendre des mesures plus importantes et plus complètes. Mais cela n’arrivera pas avant un certain temps. Les outils de cybersécurité de l'IA générative nécessiteront un jugement humain pour les décisions finales, en particulier lorsque des questions éthiques et des facteurs de risque plus complexes doivent être pris en compte.

Au total, je dirais que l’avenir des équipes de cybersécurité s’annonce prometteur. Il y a plus de travail à faire et plus de données à protéger, mais c’est toujours vrai. Alors que des normes et de nouvelles approches sont développées pour mieux sécuriser l’entreprise basée sur l’IA, ce sont les nouveaux outils, les nouvelles façons d’envelopper nos données et notre position en matière de sécurité qui sont les plus passionnants.

Lisez le rapport « Snowflake AI + Data Predictions 2025 » pour en savoir plus sur la cybersécurité, le développement logiciel et l’infrastructure de données à l’ère de l’IA. 

Partager cet article

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Démarrez votre essai gratuitde 30 jours

Essayez Snowflake gratuitement pendant 30 jours et découvrez l’AI Data Cloud qui élimine la complexité, les coûts et les contraintes d’autres solutions.