Strategia e insight

Previsioni per il 2025: l’AI come strumento e obiettivo di cybersecurity

Anche se l’AI è (ancora) l’argomento tecnologico più caldo, non è il tema centrale per la sicurezza aziendale nel 2025. L’AI avanzata aprirà le porte a nuovi vettori di attacco e fornirà anche nuovi strumenti per proteggere i dati di un’organizzazione. Ma la sfida di fondo è l’enorme quantità di dati che i team di cybersecurity oberati di lavoro affrontano quando cercano di rispondere a domande fondamentali come “siamo sotto attacco?”

In AI e dati: previsioni Snowflake per il 2025, mi unisco a una dozzina di esperti e leader per parlare dei cambiamenti che l’AI indurrà nei prossimi anni, e dal punto di vista della sicurezza, ci sono buone e cattive notizie. L’AI contribuisce sia al problema – più dati da proteggere, più superficie di attacco – sia a una potenziale manna, fornendo strumenti per gestire quantità di dati che gli esseri umani non sono in grado di afferrare da soli. Tra le altre cose, il nostro report evidenzia quattro imperativi per la cybersecurity nell’era dell’AI che avanza.

Affrontare il sovraccarico di dati con un security data lake

I professionisti della sicurezza devono continuamente fare di più per utilizzare da tutti i dati a loro disposizione gli input corretti per identificare vulnerabilità e incidenti. Il data lake di sicurezza continuerà a conquistare consensi come metodo economicamente conveniente per raccogliere grandi quantità di dati provenienti da fonti diverse. All’interno del data lake di sicurezza, i team possono applicare il machine learning e l’analisi avanzata. Inoltre, rendendo più conveniente conservare più a lungo una maggiore quantità di dati, i team possono migliorare le analisi forensi. Rispetto ai tradizionali strumenti per la gestione degli incidenti di sicurezza e degli eventi, i data lake di sicurezza sono generalmente più flessibili, scalabili e convenienti. Gli strumenti SIEM sono anche più adatti alle soluzioni AI e per tutti questi motivi prevediamo che il data lake di sicurezza sostituirà in ultima analisi il sistema SIEM.

Comprendere l'AI come vettore di attacco

L’anno scorso abbiamo pubblicato un framework di sicurezza AI che identifica 20 vettori di attacco contro large language model e sistemi di AI generativa. In esso, parliamo di tre livelli di AI che possono diventare una superficie di attacco. Abbiamo parlato del primo, la piattaforma centrale, nel report sulle previsioni dello scorso anno. Abbiamo notato che l’automazione impedisce configurazioni sbagliate a livello di produzione e che gli ambienti di sviluppo diventano un target relativamente più soft. Ma a questo punto anche questa infrastruttura si sta consolidando abbastanza bene.

Nel prossimo anno, prevediamo di vedere il prossimo livello, il funzionamento del modello, diventare un obiettivo più comune. I professionisti della sicurezza dovranno valutare come il modello viene inizialmente addestrato e come incorpora nuovi dati nella produzione. Dovremo esaminare il ciclo di vita dell’intero modello, nonché il ciclo di vita dei dati che vengono alimentati. I team di sicurezza dovranno standardizzare i loro approcci alle nuove tecnologie AI per assicurarsi che siano sicure quanto la loro infrastruttura aziendale generale.

Un terzo livello di attacco, che prevediamo aumenterà ulteriormente, è l’interazione diretta con l’AI per convincerla a rivelare dati sensibili che forse non avrebbero dovuto essere incorporati nel modello. È per questo che vediamo emergere la pratica della gestione della postura di sicurezza dei dati, che cerca di fornire una migliore visibilità sulla posizione, gli usi e la sicurezza dei dati in tutta l’azienda.

Comprendere l'AI come fattore di sicurezza

L’intelligenza artificiale fornirà anche nuovi strumenti per proteggere l’azienda, e i team di sicurezza stanno già sperimentando le prime possibilità. Un LLM con un’interfaccia di AI generativa consente di porre domande in linguaggio naturale e umano sulla postura di sicurezza generale o su avvisi e schemi specifici. Questa esperienza di copilota di sicurezza maturerà e diventerà un assistente più efficace per i team di sicurezza a costante carenza di personale. In particolare, gli strumenti basati sull’AI aiuteranno i professionisti della sicurezza meno esperti a tradurre rapidamente le idee in query e analisi. Questo ridurrà il tempo necessario per imparare una logica di query complessa e per ottenere risposte immediate ai problemi di sicurezza.

In particolare, la capacità dei sistemi AI di riassumere gli incidenti di sicurezza sarà un grande progresso. Immaginate l’AI che vi dice: “Ho notato uno strano schema nel movimento dei dati: una tale quantità di dati di questo tipo non viene normalmente trasferita a quest'ora del giorno, da questa posizione.” Questa descrizione di alto livello è molto più utile di una notifica che ti dice, essenzialmente, “Vai a controllare i log della VPN, i log dello storage e i log delle email, quindi collega i puntini da solo”. Che è praticamente quel che succede oggi.

L’AI avanzata aiuterà i team di sicurezza a comprendere le anomalie non appena vengono rilevate e a eseguire analisi forensi a posteriori per comprendere cosa è successo e come prevenire eventi simili. In ultima analisi, sarà utilizzato non solo per l’analisi degli incidenti, ma per la gestione complessiva della postura di sicurezza dei dati, perché un’AI può analizzare sistemi molto più complessi degli strumenti esistenti o degli operatori umani.

Mantenere le persone al centro

È già comune che gli strumenti di sicurezza automatizzino le risposte a determinati incidenti, bloccando un attacco più rapidamente di quanto possa fare un essere umano. In teoria, l’AI generativa potrebbe prendere decisioni più complesse e intraprendere azioni più ampie e complete. Ma questo non accadrà per molto tempo. Gli strumenti di cybersecurity basati sull’AI generativa richiederanno un giudizio umano per le decisioni finali, soprattutto laddove devono essere considerate questioni etiche e fattori di rischio più complessi.

In totale, direi che il futuro per i team di cybersecurity è luminoso. Ci sono più lavoro da fare e più dati da proteggere, ma questo è sempre vero. Man mano che si sviluppano standard e nuovi approcci per proteggere meglio l’azienda basata sull’AI, sono i nuovi strumenti, i nuovi modi per gestire i nostri dati e la nostra postura di sicurezza a essere più entusiasmanti.

Leggi AI e dati: previsioni Snowflake per il 2025 per maggiori informazioni su cybersecurity, sviluppo software e infrastruttura dati nell’era dell’AI. 

Condividi articolo

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Inizia la tua provagratuita di 30 giorni

Prova Snowflake gratis per 30 giorni e scopri come l’AI Data Cloud aiuta a eliminare la complessità, i costi e i vincoli tipici di altre soluzioni.