Difendersi dai Deepfake: cosa possono fare le aziende

redazione

In un’era dove la manipolazione digitale è preponderante, l’ascesa della tecnologia dei deepfake ha dato vita ad una nuova frontiera dell’inganno. I deepfake confondono i confini tra realtà e finzione con una precisione senza precedenti, attraverso immagini, video e repliche di audio estremamente realistici.

Sebbene queste creazioni abbiano un potenziale di intrattenimento e di espressione artistica, rappresentano tuttavia una minaccia per la sicurezza aziendale e la sfera sociale. I deepfake, infatti, possono scatenare ondate di frodi e minare il tessuto della fiducia organizzativa e interpersonale.

Che cosa è un Deepfake?

 Con il termine deepfake si intende una forma di contenuto multimediale generato dall’intelligenza artificiale, nello specifico la creazione di contenuti grafici e audiovisivi tramite funzionalità di deep learning. Se questa tecnologia nasce per un utilizzo creativo e non malevolo, allo stesso tempo può essere utilizzata in modo improprio per attacchi di ingegneria sociale.

Come sostiene Andrea Saturnino, Cyber Security Specialist di HWG Sababa, “gli algoritmi di deep learning utilizzano le reti neurali per simulare il funzionamento di una mente umana processando un’enorme mole di dati ma a velocità nettamente superiori”.

Tali capacità consentono a questi algoritmi la creazione di contenuti artefatti e in grado di generare dei veri e propri audio e video in cui le sembianze e le espressioni di una o più persone appaiono realistiche seppur totalmente inventate. In questi contenuti le alterazioni sono impercettibili e molto difficili da identificare al di fuori di una analisi del contesto e della veridicità del contenuto e del messaggio che viene veicolato. Una particolarità dei deepfake è la precisione con cui espressioni facciali e schemi linguistici sono replicati inserendo un contenuto non reale, in quanto non prodotto dalla persona a cui audio e video si riferiscono. Questo rende sempre più difficile la distinzione tra la realtà e la simulazione.

Tra il 2022 e il 2023 i deepfake sono incrementati di 10 volte a livello globale; l’Europa ha registrato un aumento del 780%, mentre nell’area Medio Oriente e Africa (MEA) si è registrato un picco del 450%. Sebbene sia stato rilevato un aumento di attacchi deepfake in tutti i settori, quelli maggiormente colpiti sono: i media online, i servizi professionali, la sanità, i trasporti e i videogiochi.

Perché sono pericolosi per la sicurezza aziendale?

I deepfake rappresentano molto di più di una novità tecnologica; sono, infatti, potenti armi nell’arsenale di criminali informatici e attori malintenzionati. Sfruttando la loro capacità di sembrare autentici, nel panorama aziendale i deepfake sono diventati uno strumento per condurre frodi e attacchi di ingegneria sociale. Ipotizziamo alcuni scenari.

Frode del CEO: un deepfake particolarmente ingannevole potrebbe consistere in un video che impersona il CEO o il CFO di un’azienda che interagisce con i propri dipendenti e chiede di trasferire fondi su un conto fraudolento, mascherato però da transazione commerciale legittima.

Phishing Attacks: i deepfake possono essere incorporati nelle e-mail di phishing portando dipendenti ignari a condividere informazioni sensibili o a fare clic su collegamenti pericolosi. “Per quanto sembri poco plausibile, ad inizio aprile un’azienda di Hong Kong ha perso 23 milioni di euro a causa di questo”, commenta Andrea Saturino.

Impersonificazione: attori malintenzionati possono utilizzare deepfake per fingersi figure chiave all’interno di un’organizzazione, come il personale delle risorse umane o del supporto IT e sfruttare la fiducia per ottenere l’accesso non autorizzato a sistemi o a dati sensibili.

Come riconoscere i deepfake?

Identificare i deepfake nel mare di contenuti digitali, richiede un occhio attento e una sana dose di scetticismo. Possiamo ricercare segnali rivelatori come anomalie visive, comportamenti innaturali o schemi di linguaggio e discrepanze nella qualità audio. Anche gli indizi contestuali e la verifica da fonti attendibili possono fungere da strumenti preziosi per discernere l’autenticità dei contenuti.

Tuttavia, consapevoli della possibilità di imbattersi in un deepfake, le aziende non possono fare affidamento esclusivamente sulla capacità delle persone di riconoscerli. Come riporta lo studio “Fooled twice” di N. C. Köbis, B. Doležalová e I. Soraperra, gli utenti riescono a distinguere i contenuti autentici dai deepfake con un livello di precisione del 57.6%. La situazione peggiora quando le persone tendono ad avere troppa fiducia nelle proprie capacità di riconoscere i contenuti veri da quelli falsi.

Come le aziende possono proteggersi dai deepfake?

Secondo i risultati di uno studio condotto dalla multinazionale americana di consulenza McKinsey, il 40% delle aziende prevede di aumentare gli investimenti nell’intelligenza artificiale e nella sicurezza informatica, mentre il 28% li sta già integrando nelle prossime strategie aziendali.

Man mano che il panorama delle minacce evolve, le aziende si trovano quindi costrette a rafforzare le proprie difese contro tali minacce. Riportiamo di seguito alcune strategie per migliorare la postura di sicurezza aziendale:

  • Verifica delle procedure per stabilire protocolli rigorosi, l’autenticità delle richieste e delle comunicazioni, nello specifico quelle che coinvolgono informazioni sensibili o azioni ad alto rischio. Incoraggiare i dipendenti ad utilizzare vari canali per la verifica e a prestare attenzione quando si confrontano con contenuti non familiari o sospetti.
  • Definire o adeguare le politiche di sicurezza per rivedere e migliorare le proprie policy e le procedure di sicurezza esistenti per affrontare le nuove sfide poste dai deepfake. Incorporare linee guida per la gestione di file multimediali sintetici, applicare dei controlli di accesso e di risposta a sospetti episodi di frode o di ingegneria sociale.
  • Formazione dei dipendenti attraverso investimenti in programmi completi di training per sensibilizzarli in merito alla cybersecurity e per educare i sui rischi associati ai deepfake e sulle relative contromisure. L’obiettivo è quindi promuovere una cultura di vigilanza e responsabilità all’interno dell’organizzazione per far sì che i gli dipendenti possano fungere da prima linea di difesa contro gli attacchi.

In conclusione, le aziende si trovano oggi ad affrontare le complessità di un panorama digitale in rapida evoluzione, in cui i deepfake rappresentano un ulteriore pericolo per le aziende. Per tale ragione è fondamentale che le aziende forniscano ai propri dipendenti le conoscenze e gli strumenti per utilizzare in modo responsabile l’intelligenza artificiale generativa e soprattutto per difendersi da un suo potenziale uso improprio.