Vectra AI, Inc., leader nel settore XDR (rilevamento e risposta estesi) basato sull’intelligenza artificiale, ha condiviso i principali trend che caratterizzeranno il settore della cybersecurity nel prossimo anno. Con un costo legato ai reati informatici previsto in crescita nel 2025, l’affacciarsi di minacce sempre più sofisticate grazie alle nuove tecnologie e la piena attuazione di normative a supporto della cybersecurity, comprendere queste tendenze emergenti è essenziale per le organizzazioni che vogliono evolversi per affrontare un contesto sempre più complesso.
Vectra AI prevede che i Chief Information Security Officer (CISO) dovranno affrontare sfide crescenti guidate dalla rapida adozione dell’intelligenza artificiale e da una maggiore e più stringente pressione normativa. L’integrazione sempre più forte tra AI e piattaforme cloud, la velocità e la sofisticatezza degli attacchi e i vincoli della Nis2 richiederanno alle aziende di adottare una strategia di sicurezza proattiva in grado di rilevare e fermare le minacce prima che causino danni. E ciò anche grazie all’Intelligenza Artificiale.
Gli esperti di Vectra AI hanno delineato a quali minacce le organizzazioni devono prepararsi per rimanere al sicuro in un ambiente digitale in costante evoluzione:
Christian Borst, CTO EMEA di Vectra AI:
- Il futuro è certo: l’intelligenza artificiale “agentica” si ritaglierà un ruolo nella sicurezza informatica
Mentre l’entusiasmo per la GenAI inizia a scemare, nel 2025 il settore della cybersecurity rivolgerà la sua attenzione ai modelli di Agentic AI come mezzo principale per creare sistemi di intelligenza artificiale potenti di livello aziendale per un esame accurato dei clienti.
A differenza dei sistemi convenzionali di Large Language Models (LLM), queste nuove soluzioni fanno sempre più uso di “agenti” LLM, sviluppati e quindi messi nella condizione di svolgere compiti in modo indipendente, prendere decisioni e adattarsi a situazioni mutevoli. Ciò grazie all’accesso agli strumenti necessari per raggiungere un obiettivo ben definito e particolare, piuttosto che essere incaricati di una missione completa end-to-end.
Il modello AI ad agenti suddivide gli obiettivi di alto livello in sotto-attività ben definite e fornisce ai singoli agenti la capacità di eseguire ciascuno di questi sotto-obiettivi. Gli agenti possono interagire, esaminarsi a vicenda e collaborare tra loro, migliorando ulteriormente l’accuratezza e la solidità dei modelli di GenAI che il settore della sicurezza informatica richiede.
- Gli autori delle minacce si concentreranno sull’aumento della produttività dell’AI, ma è improbabile che si vedranno agenti di intelligenza artificiale dannosa già all’opera
Nel breve termine, vedremo gli aggressori concentrarsi sul tentativo di perfezionare e ottimizzare il loro utilizzo dell’intelligenza artificiale, in particolare per ricercare obiettivi ed eseguire attacchi di spear phishing su larga scala. Mentre la GenAI sarà utilizzata per risparmiare tempo nelle azioni noiose e ripetitive che verranno delegate al LLM, quando possibile.
Nello sviluppo di agenti di AI, gli autori delle minacce sono già in una fase sperimentale, in particolare stanno testando fino a che punto possono eseguire attacchi completi senza che ciò richieda l’intervento umano. Ciò nonostante, crediamo manchi ancora del tempo per vedere questi tipi di agenti impiegati dai criminali informatici effettivamente e in modo efficace. Non va tuttavia sottovalutato che la capacità estremamente redditizia in termini di tempo e costi degli agenti GenAI, spingerà in futuro gli autori delle minacce a crearli e utilizzarli per la gestione di vari aspetti di un attacco: dalla ricerca e ricognizione, alla segnalazione e raccolta di dati sensibili, fino all’esfiltrazione autonoma di tali dati, senza la necessità di guida umana. Una volta che ciò accadrà, senza alcun segnale di una presenza umana malintenzionata, le aziende e gli enti dovranno trasformare radicalmente il modo in cui individuano i segnali di un attacco.
- I chatbot generativi con intelligenza artificiale causeranno violazioni dei dati di alto profilo
Nel 2025, sentiremo parlare di numerosi casi in cui gli autori delle minacce inganneranno una soluzione aziendale di Gen AI inducendola a fornire informazioni sensibili e a causare violazioni di dati di alto profilo. Molte aziende utilizzano la Gen AI per creare chatbot rivolti ai clienti, al fine di automatizzare e facilitare molte attività, dalle prenotazioni al servizio clienti. Ovviamente per fare ciò gli LLM devono avere accesso a informazioni e sistemi senza, in alcuni casi, alcuna restrizione su enormi quantità di dati potenzialmente sensibili e senza adeguate misure di sicurezza.
A causa del mezzo semplice e umano con cui possiamo “istruire” gli LLM (ovvero il linguaggio naturale), molte organizzazioni trascurano che gli hacker possono sfruttare una chat per far sì che tale sistema si comporti in modi dannosi per l’azienda. A complicare le cose, è probabile che questi tipi di jailbreak non siano familiari ai professionisti della sicurezza che non hanno tenuto il passo con la tecnologia LLM. Ad esempio, la rimozione delle restrizioni può verificarsi a seguito di interazioni apparentemente innocue in cui gli attaccanti potrebbero incaricare un LLM di fingere di essere un autore di romanzi di fantasia, scrivendo una storia che includa tutti i segreti nascosti che la tua organizzazione sta cercando mettere al sicuro dagli aggressori. Saremo quindi di fronte a un attacco agli LLM diverso da qualsiasi altro si sia visto nei contesti di sicurezza più tradizionali.
Per proteggersi dagli autori delle minacce che cercano di superare in astuzia gli strumenti di Gen AI, le organizzazioni devono creare protezioni robuste per impedire agli LLM di divulgare informazioni sensibili e impostare modalità per rilevare se un attore della minaccia stia mettendo alla prova un LLM, in modo che la conversazione venga interrotta prima che sia troppo tardi.
Massimiliano Galvagna, Country Manager di Vectra AI per l’Italia:
- L’intelligenza artificiale autonoma guadagnerà slancio mentre i Copilot perderanno forza
Nel 2025, l’entusiasmo iniziale che circondava i copilot della sicurezza inizierà a diminuire man mano che le organizzazioni valuteranno i costi rispetto al valore effettivo fornito. Di conseguenza vedremo uno spostamento verso sistemi di intelligenza artificiale più autonomi che, a differenza dei copilot basati sull’intelligenza artificiale, sono progettati per funzionare in modo indipendente, richiedendo un intervento umano minimo. Nel 2025 verrà dato risalto ai modelli di AI autonomi come la prossima frontiera della sicurezza informatica ed enfasi alla loro capacità di rilevare, rispondere e persino mitigare le minacce in tempo reale, il tutto senza input umano.
- Il sovraccarico normativo potrebbe dare agli aggressori un vantaggio
La crescente attenzione alla conformità normativa introdotta dalla Direttiva Nis2 potrebbe rischiare di sopraffare le organizzazioni, facilitando il sopravvento agli aggressori. I team SOC sono infatti già sotto forte pressione, ma ciò nonostante si troveranno a dedicare risorse significative al rispetto dei requisiti di conformità che, sebbene indubbiamente essenziali, possono distrarre da strategie più dinamiche di rilevamento e risposta alle minacce. Focalizzarsi su un approccio incentrato eccessivamente sulla conformità, potrebbe far correre il rischio alle organizzazioni di adottare una mentalità da lista di controllo in cui le organizzazioni si concentrano sulla selezione di caselle anziché sulla costruzione di un efficace atteggiamento di sicurezza olistico e proattivo.
Per contrastare questo pericolo, le organizzazioni dovranno trovare un migliore equilibrio tra aderenza normativa e gestione adattiva delle minacce, investendo in tecnologie come strumenti di sicurezza informatica basati sull’intelligenza artificiale che possono aiutare ad automatizzare sia gli sforzi di conformità che quelli di difesa.