Intelligenza Artificiale: i (grandi) problemi di cui nessuno vuole parlare

Secondo un recente studio di Alex De Vries, dottorando presso la VU Amsterdam School of Business and Economics, intitolato Growing energy footprint of AI, entro il 2027 il settore dell’Intelligenza Artificiale potrebbe consumare una quantità di energia pari a quella di un paese delle dimensioni dei Paesi Bassi. Pur essendo incredibilmente esemplificativo, questo dato fa eco alle preoccupazioni di accademici come la professoressa Kate Crawford, che da tempo segnala i rischi ambientali legati all’IA. Sebbene il settore dei data center sia stato uno dei più progressisti quando si è trattato di affrontare il problema del consumo energetico e delle emissioni di carbonio, è chiaro che c’è ancora molto da fare, soprattutto in considerazione del rapido aumento dell’interesse per l’IA.

L’impatto degli strumenti di IA generativa, come ChatGPT, è stato l’argomento dell’anno. I consigli di amministrazione sono stati impegnati nella creazione di gruppi di lavoro per determinare come l’IA possa contribuire a far progredire le loro aziende. In effetti, nel nostro studio State of Enterprise AI abbiamo riscontrato che le aziende di tutte le tipologie e dimensioni sono intenzionate ad adottare le tecnologie IA il più presto possibile.

Sebbene il 90% degli intervistati dichiari che l’IA è una priorità per la propria azienda, lo studio rivela anche una diffusa mancanza di preparazione. Dalla misurazione del consumo energetico alla gestione e protezione efficace dei dati, molte aziende stanno ancora cercando di capire quali siano gli ambienti IT migliori per eseguire le diverse parti dei processi e dei carichi di lavoro dell’IA, o addirittura quale sia il tipo di applicazioni di IA più utile.

Tuttavia, due delle principali preoccupazioni sono l’impatto ambientale, specialmente in un momento in cui le responsabilità di rendicontazione ESG sono aumentate, e la privacy dei dati. Oltre il 90% degli intervistati nel report State of AI afferma che la sicurezza e l’affidabilità sono fattori determinanti per la propria strategia di intelligenza artificiale: la sicurezza e la governance dei dati, comprese la qualità e la protezione dei dati, sono di fondamentale importanza per supportare le tecnologie e i servizi di IA.

L’aspetto interessante dello studio è che molti intervistati riconoscono la necessità di allineare il proprio reporting ESG alle esigenze dell’IA, ma pochi sanno effettivamente come fare o dispongono delle competenze necessarie. L’ESG è infatti classificata come un’area chiave che richiede lo sviluppo di competenze in materia di IA nei prossimi 12 mesi.

Come sappiamo, il reporting ESG è diventato obbligatorio in alcuni paesi. La pressione da parte di governi, investitori e clienti è in aumento e nel 2024 le aziende europee e quelle con sede negli Stati Uniti che hanno legami con l’Europa dovranno comunicare le proprie emissioni di carbonio all’interno di “tre ambiti”, che sono essenzialmente le emissioni di carbonio “dirette”, “indirette” e “totali”.

Allo stato attuale, l’utilizzo dell’IA ha il potenziale per stravolgere tutto ciò, tale è la richiesta di questa tecnologia per l’infrastruttura IT. Le aziende sono consapevoli dell’enorme quantità di energia necessaria per eseguire algoritmi e carichi di lavoro di IA che richiedono un’elevata capacità di elaborazione e GPU, ma per capire sei sia il caso di procedere autonomamente e creare sistemi di IA su misura on premise, utilizzare servizi di cloud pubblico o optare per una piattaforma indipendente sull’edge, è necessario riflettere e pianificare.

Un’altra grande preoccupazione è la privacy dei dati. I motori di IA richiedono dati per l’addestramento, quindi come possono le aziende mantenere il controllo dei propri dati se utilizzano servizi pubblici basati su cloud per l’IA? Questa mancanza di controllo dei dati è quasi certamente un problema di governance, poiché nessuna azienda può essere del tutto sicura di dove finiranno i propri dati. Oltre ai potenziali problemi di latenza e ai costi associati alla natura flessibile del cloud pubblico, la privacy dei dati deve essere un obiettivo primario.

I costi di un approccio fai-da-te, la carenza di GPU a livello mondiale e le competenze interne necessarie in materia di IA, rendono impossibile un approccio autonomo. Una piattaforma di IA autonoma sull’edge offre privacy e velocità dei dati, oltre a un ingombro ridotto con un consumo energetico e un impatto sulle emissioni di anidride carbonica ridotti. È chiaro che è essenziale capire come l’azienda intenda implementare l’IA, ma la natura embrionale di questo segmento tecnologico fa sì che vi sia una carenza di best practice strategiche, di linee guida consolidate o persino di architetture di riferimento.

Lo studio mostra che, nonostante le complicazioni e le sfide di un approccio fai-da-te, il 59% degli intervistati prevede di eseguire soluzioni di IA on-premise o in un cloud privato, mentre il 51% opta per data center gestiti e il 44% per l’edge. La sfida sarà come gestire tali servizi nell’ambito dell’ESG e della governance dei dati e questo potrebbe determinare la futura evoluzione di queste cifre.

Il punto cruciale è l’infrastruttura. Se le aziende vogliono perseguire un futuro di IA, dobbiamo tutti guardare all’infrastruttura in modo diverso. Non possiamo pensare che l’IA sia solo un’altra applicazione che può essere messa in una struttura di cloud computing e tutto andrà bene. La posta in gioco è molto più alta: non solo la sicurezza dei dati e il futuro del pianeta (come se non bastasse), ma anche la redditività delle aziende che utilizzano i sistemi di IA. Riconoscere e affrontare oggi le sfide sarà molto utile per evitare che le aziende commettano costosi errori che potrebbero causare danni ambientali o di reputazione.