Con la progressiva integrazione dell’AI generativa nel cybercrime, l’attribuzione degli attacchi informatici è destinata a diventare sempre più complessa. Il codice generato dall’intelligenza artificiale e i contenuti di phishing, infatti, eliminano quelle “impronte digitali” umane su cui gli analisti hanno tradizionalmente fatto affidamento.
Gli esperti del Global Research and Analysis Team (GReAT) di Kaspersky segnalano che gli aggressori ricorrono con crescente frequenza all’intelligenza artificiale per generare codice, e-mail di phishing e contenuti operativi. A differenza dei materiali scritti dall’uomo, i risultati prodotti dall’AI tendono a essere neutri e standardizzati, privi di errori linguistici distintivi o di specifici pattern di codifica che in passato supportavano le valutazioni di attribuzione. Di conseguenza, gli analisti della sicurezza dovranno fare maggiore affidamento sull’infrastruttura, sulle sovrapposizioni degli strumenti utilizzati e sugli indicatori comportamentali.
Gli esperti del Global Research and Analysis Team (GReAT) di Kaspersky segnalano che gli aggressori ricorrono con crescente frequenza all’intelligenza artificiale per generare codice, e-mail di phishing e contenuti operativi. A differenza dei materiali scritti dall’uomo, i risultati prodotti dall’AI tendono a essere neutri e standardizzati, privi di errori linguistici distintivi o di specifici pattern di codifica che in passato supportavano le valutazioni di attribuzione. Di conseguenza, gli analisti della sicurezza dovranno fare maggiore affidamento sull’infrastruttura, sulle sovrapposizioni degli strumenti utilizzati e sugli indicatori comportamentali.





