Implementare l’Intelligenza Artificiale: comprendere le tecniche di attacco dei cybercriminali per bilanciare obiettivi di business e requisiti di sicurezza

redazione

Artificial Intelligence (AI) e machine learning sono diventati strumenti essenziali per le aziende di ogni settore e dimensione. A ragione, se consideriamo che per il 56% dei responsabili aziendali l’AI rappresenta un vantaggio competitivo importante, secondo dati Forrester/Experian. È un trend riconosciuto a livello globale, con ripercussioni evidenti anche sull’Italia: nel 2023 il mercato nazionale dell’AI ha fatto segnare un +52%, raggiungendo il valore di 760 milioni di euro, dopo aver già registrato un +32% nel 2022 rispetto all’anno precedente (dati Osservatorio Artificial Intelligence della School of Management del Politecnico di Milano).

Tuttavia, l’adozione di queste tecnologie necessita la giusta considerazione e la ricerca di equilibrio tra obiettivi di business e requisiti di sicurezza, entrambi potenzialmente impattati dalla crescente adozione dell’AI. Questo richiede ai team IT la capacità di comprendere strategie e tattiche dei criminali informatici alla luce di questa evoluzione tecnologia, in modo da poter implementare e soddisfare i più adeguati requisiti di protezione per contrastarli. Si tratta in sostanza di una vera propria corsa agli armamenti che si giocherà tra difensori e attaccanti.

Come l’AI aiuterà i difensori

Senza dubbio ci saranno grandi miglioramenti nella sicurezza informatica e l’AI potrà essere un valido strumento per risolvere le vulnerabilità. Tuttavia, sarà necessario   prevedere uno shift left dell’utilizzo dell’AI per eliminare le vulnerabilità in partenza, invece di controllare registri e traffico di rete per tentare di rilevare gli attaccanti.  

Inoltre, l’intelligenza artificiale rappresenterà una sorta di assistente junior degli analisti SOC, alleggerendoli di fatto di una parte di compiti, più ripetitivi o a meno valore aggiunto. In particolare, la GenAI permetterà di ottimizzare le risorse dedicate alla protezione dei dati, più precisamente per la remediation, route course analysis e alla postura di sicurezza.  

Come l’AI aiuterà i cybercriminali

L’intelligenza artificiale aiuterà gli attaccanti a scalare la portata degli attacchi di social engineering e di impersonificazione. Ad esempio, se un criminale informatico compromette l’indirizzo di posta elettronica di un direttore finanziario, avrà comunque bisogno di tempo per esaminare le vecchie email e comprendere come la vittima si rivolge a determinate persone, al fine di imitarla con successo in un attacco di social engineering. Se questa tipologia di attacchi richiedeva molto tempo per essere eseguita, con l’AI generativa i cybercriminali possono accelerare immensamente il processo, fornendo allo strumento AI i dati di partenza. Con essi, l’intelligenza artificiale generativa può scrivere testi e imitare voci individuali a velocità elevatissima. Attacchi di phishing, spear phishing, pig butchering e compromissione delle email aziendali rappresenteranno un rischio enorme per le organizzazioni nei prossimi cinque anni. E si tratta di attacchi che hanno provato sul campo il loro successo nel corso degli anni.

Infatti, le falle saranno create in modo tale da non essere rilevabili tramite la revisione umana del codice, portando a diversi attacchi diffusi alla supply chain delle aziende che utilizzano inconsapevolmente pacchetti OSS compromessi nel loro software. Le soluzioni di sicurezza basate sull’intelligenza artificiale automatizzeranno molte delle semplici attività attualmente svolte dal personale di sicurezza, come il rilevamento delle minacce, la risposta agli incidenti e il patching. In questo modo i team IT potranno recuperare tempo prezioso per concentrarsi su attività più complesse, come la gestione delle vulnerabilità, la valutazione dei rischi e la progettazione dell’architettura di protezione.

Soluzioni (e sfide)

I team IT hanno bisogno di un’autenticazione più forte e di una verifica dell’identità dei loro interlocutori.  È necessario che la tecnologia AI legittima debba essere verificata e convalidata in partenza, come nel caso delle fotocopiatrici a colori: quando raggiunsero un livello di precisione tale da poter facilmente contraffare il denaro, i servizi segreti statunitensi riuscirono a convincere un gran numero di produttori a inserire una filigrana in tutte le pagine stampate. Se non si fossero adeguati, avrebbero potuto essere considerati complici della contraffazione effettuata tramite i loro dispositivi. Questo ha spinto i produttori a incorporare volontariamente i watermark.

Ora si potrebbe proporre alle aziende di AI legittima di fare lo stesso, e questo ha elevate probabilità di accadere. La sfida è rappresentata dagli strumenti di AI completamente open source, con gli attaccanti che potrebbero potenzialmente decodificare il firmware ed eliminarlo. I criminali più sofisticati possono già farlo, mentre sarà più difficile per i meno esperti. Il problema dell’intelligenza artificiale è che ogni persona, anche senza esperienza, può scaricarne una open-source e sarà impossibile aggiungere quel tipo di watermarking come con le stampanti. La soluzione potrebbe essere quella di rendere illegale la mancata divulgazione dell’AI, aggiungendo un ulteriore reato a carico dei criminali che la utilizzano, anche se in realtà, probabilmente, questo non sarà un deterrente decisivo.

Conclusione

L’implementazione di strumenti AI e machine learning all’interno di un’azienda richiede una comprensione profonda degli obiettivi di business e dei requisiti di sicurezza. Adottando un approccio di implementazione gestita, le aziende possono sfruttare i vantaggi dell’AI, garantendo al contempo conformità, trasparenza e processi decisionali etici. D’altro lato, comprendendo le tecniche di aggressori e difensori, è possibile avere un numero maggiore di dati a disposizione per identificare e implementare le migliori tecniche possibile al fine di evitare e contrastare le vulnerabilità e le intrusioni. L’elemento umano rimane essenziale nel ciclo decisionale dell’intelligenza artificiale per sostenere gli standard etici e allinearsi alle norme sociali. Con la continua evoluzione dell’AI, le aziende dovranno dare priorità all’uso sicuro e responsabile di queste tecnologie per promuovere l’innovazione e raggiungere i propri obiettivi.

A cura di Massimo Tripodi, Country Manager di Veracode Italia