Cybersecurity: il 2024 sarà l’anno degli attacchi GenAI

redazione

 Trend Micro annuncia “Critical Scalability”, la nuova edizione del famoso studio annuale che analizza il panorama della sicurezza e presenta le minacce informatiche che imperverseranno nel corso dell’anno. Il report pone in evidenza il ruolo trasformativo dell’intelligenza artificiale generativa (GenAI) nello scenario delle minacce cyber e lo tsunami di tattiche sofisticate di social engineering e furti di identità potenziati da strumenti basati su GenAI, che potrebbe arrivare.

“I LLM, ossia i Large Language Model, sono una tecnologia AI avanzata, incentrata sulla comprensione e sull’analisi del testo. Questi modelli, presenti in qualsiasi lingua, sono una reale e seria minaccia per la sicurezza perché eliminano tutti gli indicatori tipici del phishing, come ad esempio gli errori di formattazione o quelli grammaticali. Questo rende gli attacchi estremamente difficili da individuare”. Afferma Alessio Agnello, Technical Director di Trend Micro Italia. “Le imprese e le organizzazioni devono superare le tradizionali misure anti-phishing e adottare controlli di sicurezza moderni. Gli strumenti di difesa avanzati affiancano la capacità umana nel rilevare i pericoli e assicurano resilienza contro le tattiche cybercriminali di oggi”.

L’ampia disponibilità e la qualità in costante miglioramento della GenAI, insieme all’utilizzo di Generative Adversarial Networks (GAN), saranno la causa di un cambiamento epocale negli attacchi e nelle tattiche di phishing. Questa trasformazione renderà possibile la creazione di audio iper-realistici e contenuti video a basso costo, determinando una nuova ondata di truffe business email compromise (BEC), rapimenti virtuali e altro ancora.

Considerato il livello elevato del potenziale guadagno[1] di questi attacchi, i cybercriminali saranno incentivati a sviluppare strumenti GenAI malevoli per lanciare campagne o utilizzare tool legittimi ma con credenziali rubate, nascondendo le proprie identità all’interno di VPN.

Anche i modelli di AI potrebbero essere sotto attacco. I modelli generici come GenAI e LLM sono difficili da influenzare a causa degli ampi e variegati set di dati ma i modelli di machine learning cloud- based potrebbero essere un target attraente. I dataset più specializzati su cui si basano saranno presi di mira per inquinare le informazioni attraverso diverse tecniche, dall’esfiltrazione di dati sensibili al boicottaggio dei filtri anti-frodi, per esempio. I veicoli connessi potrebbero essere nel mirino di questi attacchi. In generale, i cybercriminali potrebbero corrompere i database da cui i modelli GenAI traggono le informazioni. Compiere un attacco di questo tipo costa meno di 100 dollari.

Queste tendenze potrebbero portare a loro volta a un maggiore controllo normativo e a un impegno più elevato dell’intero settore della cybersecurity.

“L’intero settore della cybersecurity deve collaborare attivamente con i governi e le istituzioni per sviluppare policy e regolamentazioni specifiche relative all’AI e alla sicurezza.” Ha commentato Alessandro Fontana, Country Manager di Trend Micro Italia. “Come Trend Micro sosteniamo ogni giorno la Pubblica Amministrazione Italiana e le Forze dell’Ordine nella lotta al cybercrime e ribadiamo il nostro impegno e la nostra disponibilità per favorire la sicurezza dell’intero sistema Paese”.

 
Previsioni di Trend Micro per il 2024, gli highlight:

  1. Le lacune di sicurezza negli ambienti cloud consentiranno ad attacchi worm cloud-native di avere successo. Gli attacchi colpiranno vulnerabilità ed errori di configurazione, utilizzando un livello alto di automazione, per centrare con il minimo sforzo il maggior numero di container, account e servizi
  1. I dati saranno trasformati in armi e verranno utilizzati per colpire i nuovi modelli cloud-based di machine learning. I dataset più specializzati su cui si basano i modelli di machine learning saranno presi di mira per inquinare le informazioni attraverso diverse tecniche, dall’esfiltrazione di dati sensibili al boicottaggio dei filtri anti-frodi, per esempio
  1. L’intelligenza artificiale generativa permetterà ai truffatori di far evolvere le trappole di social engineering in attacchi mirati. L’ampia disponibilità e la qualità migliorata dell’intelligenza artificiale generativa, insieme all’utilizzo di Generative Adversarial Networks (GAN), saranno la causa di un cambiamento epocale negli attacchi e nelle tattiche di phishing
  1. Gli attacchi ai software della supply chain saranno il campanello di allarme per una maggior protezione dei sistemi CI/CD dei fornitori. Questi attacchi potrebbero colpire sia i software open-source sia gli strumenti per la gestione delle identità, come le SIM dei telefoni, cruciali nella gestione flotte
  1. I cybercriminali prenderanno di mira le blockchain, terreni di caccia ancora poco esplorati, per escogitare piani di estorsioni. Le azioni potrebbero consistere nel modificare, sovrascrivere o cancellare le voci e chiedere un riscatto. In alternativa, i cybercriminali potrebbero provare a crittografare l’intera blockchain attraverso il controllo di un numero sufficiente di nodi