Netskope Threat Labs ha rilasciato il suo ultimo report sulle minacce da cui emerge che il phishing in Europa è diventato il metodo preferito dagli attaccanti per aggirare i controlli di sicurezza e accedere ad ambienti sensibili. I ricercatori dell’azienda specializzata in sicurezza e networking hanno rilevato che Adobe è il marchio più comunemente imitato dai cybercriminali, comparendo in quasi un terzo (29%) delle campagne di phishing mirate al furto di credenziali per i servizi digitali. Il secondo marchio più imitato è Microsoft, con il 26% degli attacchi, focalizzati sull’accesso agli account cloud di Microsoft 365.
Questi risultati evidenziano un rischio informatico persistente e significativo, poiché gli attaccanti utilizzano tecniche di ingegneria sociale per sfruttare la familiarità con le applicazioni cloud più comuni della forza lavoro in Europa, facendo leva sulla fiducia implicita che riponiamo in questi strumenti utilizzati quotidianamente.
Altri risultati chiave includono:
- Il 25% delle organizzazioni europee blocca completamente Grok AI, un chatbot di intelligenza artificiale generativa sviluppato da xAI, l’azienda di Elon Musk. Le organizzazioni preferiscono alternative considerate più adatte all’uso aziendale, come ChatGPT di OpenAI o Gemini di Google. L’applicazione di intelligenza artificiale generativa più comunemente bloccata tra le organizzazioni europee è Stable Diffusion, uno strumento di generazione di immagini sviluppato dalla società britannica Stability AI.
- Oltre un terzo di tutte le violazioni delle policy sui dati legate alle applicazioni di intelligenza artificiale generativa in Europa (34%) riguarda dati regolamentati (protetti dal GDPR e da altre normative sulla privacy), il che evidenzia la portata del rischio per la protezione dei dati associato all’uso dell’AI. Altre violazioni comuni delle policy includono la condivisione di codice sorgente (31% delle violazioni), proprietà intellettuale (28%) e password e chiavi di accesso (6%).
- La maggior parte delle organizzazioni europee (97%) utilizza strumenti che integrano funzionalità basate su AI generativa (come Atlassian, Grammarly, e persino Microsoft 365 e Google Docs). Tuttavia, l’uso di account personali di AI generativa sul posto di lavoro è diminuito sensibilmente nell’ultimo anno, passando dal 73% al 58%. Questo calo è in parte dovuto alla diffusione di soluzioni aziendali di qualità superiore e a una maggiore capacità delle organizzazioni di controllare l’uso degli account personali negli ambienti di lavoro.
Commentando i risultati, Gianpietro Cutolo, ricercatore sulle minacce nel cloud presso Netskope Threat Labs, ha dichiarato:
“L’adozione dell’intelligenza artificiale generativa sta crescendo rapidamente in Europa, diventando quasi universale tra le aziende di quest’area geografica. Tuttavia, questo rapido entusiasmo comporta anche sfide significative in termini di sicurezza dei dati, e stiamo assistendo a un aumento notevole dell’esposizione di dati sensibili e regolamentati attraverso queste piattaforme. Le organizzazioni cercheranno sempre più di adottare tecnologie di sicurezza e protezione dei dati in grado di supportare i lavoratori contro attacchi progettati specificamente per sfruttare la psicologia umana. Nessuna applicazione, né il traffico generato da essa, dovrebbe essere considerata affidabile o esente da una solida policy di sicurezza.”
Si raccomanda quindi alle organizzazioni di rivedere attentamente la propria postura di sicurezza complessiva e di assicurarsi che nessuna applicazione o tipo di traffico sia escluso da una politica rigorosa di protezione dei dati, indipendentemente da quanto possa sembrare affidabile l’organizzazione che li fornisce.
Netskope fornisce soluzioni di sicurezza dei dati e protezione dalle minacce a milioni di utenti in tutto il mondo. Le informazioni presentate in questo report si basano su dati di utilizzo anonimizzati raccolti dalla piattaforma Netskope One, relativi a un sottoinsieme europeo di clienti Netskope, che hanno concesso autorizzazione preventiva affinché i loro dati vengano analizzati.










