Mentre il numero degli attacchi informatici non accenna a diminuire e viene confermato l’utilizzo crescente delle credenziali rubate per compromettere le identità digitali e violare le aziende in maniera più efficace che in passato, un’altra evoluzione sta agitando il sonno di molti team IT: l’esplosione della GenAI. Una tecnologia che sta esprimendo nel mondo della sicurezza informatica le proprie capacità difensive ma anche offensive, tanto da essere destinata, secondo molti esperti, a influenzare in maniera profonda il mondo della cybersecurity nei prossimi anni.
Il dibattito sulla AI generativa imperversa e come negli altri innumerevoli settori dove trova applicazione, raccoglie sostenitori e detrattori. Tuttavia un’evidenza è ormai condivisa: la GenAI aumenterà nei prossimi anni il potenziale di aggregazione in termini di ampiezza e frequenza delle minacce dal momento che sta fornendo e fornirà armi per la violazione dei perimetri aziendali nuove e più sofisticate ai pirati informatici, siano essi organizzazioni criminali evolute o hacker neofiti.
In particolare le prime stanno già affinando le loro tattiche e tecniche di attacco riportando maggiori successi attraverso per esempio deepfake in grado di sfruttare a loro vantaggio l’LLM. Stiamo già verificando casi in cui questi malviventi prendono possesso di un’identità grazie all’LLM che gli permette di rendere credibili in tempi molto brevi i loro messaggi, per esempio riproducendo in modo realistico lo stile di scrittura e i termini di una email o il tono e l’intercalare di una voce. Ciò dà loro maggiori possibilità di indurre gli utenti a fornire dati sensibili o a fare clic su qualcosa di dannoso attraverso esche di phishing audio o visive molto convincenti.
Contemporaneamente sta crescendo anche il numero dei pirati informatici alle prime armi che operano con maggiore abilità grazie a un apprendimento accelerato dall’AI generativa e al fenomeno dell’hacking in outsourcing.
Pertanto, in un contesto in cui cresce il numero delle aziende che sfrutta questa tecnologia per aumentare la propria efficienza, è quindi importante che le aziende prendano piena coscienza di come la GenAI rappresenta anche un alleato per gli hacker riducendo le barriere e aumentando la portata e “raffinatezza” degli attacchi e consentendo loro così di essere più veloci e più efficaci.
Al contrario, sebbene l’adozione e gli investimenti nell’intelligenza artificiale generativa siano in aumento, l’ultima indagine di McKinsey “Lo stato dell’AI: il 2023 l’anno di svolta dell’intelligenza artificiale generativa“, ha mostrato che molte organizzazioni non stanno affrontando con la giusta attenzione i potenziali rischi derivanti da questa rivoluzione tecnologica. Infatti una percentuale inferiore al 38% ha affermato di mitigare i rischi per la sicurezza informatica correlata all’AI, una quota persino inferiore alla percentuale dell’anno precedente, dove la percentuale era del 51%.
Sono poche le organizzazioni che a fronte dell’utilizzo crescente dell’intelligenza artificiale generativa negli attacchi di social engineering hanno reputato le attuali linee di difesa della sicurezza inadeguate, dando slancio a nuovi approcci di sicurezza a valle come ZT (Zero Trust), micro-segmentazione e meccanismi di rilevamento e risposta.
Fortunatamente l’AI e la GenAI hanno il potenziale per far avanzare anche gli strumenti di sicurezza, come quelli offerti da Vectra AI, migliorando l’intelligence sulle minacce e fornendo nuove difese ai SOC per rispondere a questi attacchi con le medesime armi – AI e GenAI – e quindi alla stessa velocità e con la stessa varietà di strumenti e approcci usati dagli attaccanti.
di Massimiliano Galvagna, country manager di Vectra AI per l’Italia