Check Point Research: l’Intelligenza Artificiale al servizio degli hacker

 Check Point® Software Technologies Ltd. (NASDAQ: CHKP), tra i fornitori leader di piattaforme di cyber security basate sull’intelligenza artificiale e cloud delivered, evidenzia che, mentre l’intelligenza artificiale viene sfruttata per aiutare a combattere il crimine informatico e a dare la caccia agli hacker, molti servizi di IA vengono utilizzati anche dagli aggressori. Si tratta di una tendenza molto pericolosa che sta cambiando il mondo della criminalità organizzata.

Se l’esigenza è creare un’immagine, saperne di più su un argomento specifico, scrivere un articolo o un testo per i social media, ChatGPT, è uno strumento di intelligenza artificiale che può essere di enorme aiuto. Purtroppo anche i criminali informatici hanno a disposizione strumenti con simili potenzialità, che possono creare attacchi ancora più efficaci e analizzare più facilmente le informazioni rubate. Gli hacker possono utilizzare diverse tecnologie di IA per creare e perfezionare minacce e tattiche di attacco. Strumenti come FraudGPT, XXXGPT o WolfGPT sono esempi di come l’intelligenza artificiale possa essere sfruttata per scopi malevoli.

Questi strumenti dimostrano che i criminali informatici possono adattare l’IA per rendere gli attacchi più efficaci, facilitando il furto dei dati delle vittime. È, quindi, necessario ripensare le strategie di sicurezza informatica esistenti ed esaminare il quadro etico che regola lo sviluppo e l’utilizzo dell’IA“, sottolinea Oded Vanunu, Head of Vulnerability Research at Check Point Software Technologies.

FraudGPT rappresenta una pietra miliare nell’uso malevolo della tecnologia di IA. Si tratta di una piattaforma a cui ci si può abbonare, come qualsiasi altro servizio, e che permette di creare identità false, efficaci email di phishing, malware o utilizzare l’ingegneria sociale per ingannare gli utenti. Tutto questo può essere fatto a un livello molto alto, in modo che anche persone con competenze tecniche minime possano portare a termine attacchi complessi.

XXXGPT è utilizzato dai criminali per generare codici RAT che consentono loro di prendere il controllo remoto del dispositivo della vittima e di rubare, modificare o corrompere dati sensibili. Questo tool può anche generare spyware, ransomware, keylogger e codici speciali per attacchi mirati. Si tratta di uno strumento multiuso che può anche creare e distribuire ogni tipo di disinformazione o materiale compromettente progettato per ricattare e molestare le vittime.

WolfGPT è noto per la sua complessità e architettura basata sul linguaggio di programmazione Python. Può creare malware criptato e campagne di phishing convincenti. Inoltre, consente di creare un ampio arsenale di armi informatiche, tra cui botnet, Trojan per l’accesso remoto, keylogger o strumenti per il furto di dati e criptovalute. Viene anche utilizzato dai criminali informatici per creare codici maligni destinati ai POS e per attacchi mirati ai bancomat, oppure per il riciclaggio di denaro e l’individuazione di punti deboli nelle reti aziendali.

Cybersicurezza e implicazioni etiche

L’ascesa di modelli avanzati di IA come FraudGPT, XXXGPT e WolfGPT richiede un nuovo approccio alla sicurezza, poiché le difese convenzionali sono insufficienti contro queste minacce complesse e adattive. Allo stesso tempo, devono essere affrontate le questioni etiche relative alla responsabilità dei creatori di IA e a come prevenire l’uso improprio dell’IA in generale. Stiamo entrando in un’era in cui il doppio uso di queste tecnologie sta diventando sempre più evidente.

Di seguito le principali attività da potenziare:

1.       Regolamentazione e legislazione sono le aree che devono essere prese in considerazione per l’introduzione di leggi e regolamenti forti, che sappiano controllare e supervisionare lo sviluppo e l’uso delle tecnologie di IA.

2.       Educazione: è fondamentale aumentare la consapevolezza del pubblico sui rischi associati all’IA e fornire strumenti e informazioni per proteggersi da frodi e abusi.

3.       Tecnologia: è necessario sviluppare sistemi e algoritmi di sicurezza avanzati in grado di rilevare e bloccare i servizi di IA pericolosi.

4.       Cooperazione internazionale: sarebbe auspicabile una stretta collaborazione tra governi, organizzazioni internazionali e aziende tecnologiche per creare standard e protocolli globali per lo sviluppo di IA sicure.

L’uso improprio dei servizi di IA è una minaccia seria che non può essere ignorata. È essenziale che i governi, le autorità di regolamentazione e le aziende tecnologiche lavorino insieme per sviluppare e implementare misure per frenare l’uso improprio delle tecnologie di IA“, conclude Oded Vanunu.