Tra le principali sfide che i leader aziendali si troveranno ad affrontare nel 2018 si porrà il tema dei dati e del loro valore per il business. Questa nuova fonte di ricchezza verrà regolamentata proprio durante il prossimo anno, quando i controlli sulla correttezza del patrimonio informativo saranno equiparati ai controlli finanziari e assumeranno un impatto importante anche in termini di reputazione delle aziende.
Disporre di un’infrastruttura storage e di un approccio alla trasformazione digitale adeguati è vitale per le aziende, anche per cogliere i vantaggi delle tecnologie di Machine Learning e di Intelligenza Artificiale che i soggetti imprenditoriali più avanzati stanno già adottando.
Una gestione più efficiente dei processi aziendali e il controllo dei dati saranno centrali nel 2018, e sia l’IT sia la cultura all’interno delle aziende sono chiamati ad evolvere per supportare questo processo.
L’implementazione del GDPR, ormai imminente nell’area UE, impone che le aziende riescano a gestire e proteggere i dati personali e sappiano dove questi risiedono, dimostrando di avere il controllo totale su di essi.
Rispondere in maniera efficace a quanto previsto dalla normativa, o affrontare incidenti di sicurezza è pressoché impossibile se i sistemi IT richiedono giorni per effettuare Backup, indicizzazione e ripristino dei dati. Per arrivare a controllare e proteggere efficacemente il patrimonio di dati, con ogni probabilità assisteremo a investimenti cospicui nel corso del 2018, soprattutto in network più veloci e in funzioni di data discovery e indicizzazione. Si punterà inoltre sui tool e sulle piattaforme per migliorare la visibilità e le performance dei sistemi.
La regolamentazione GDPR si applicherà a qualunque sistema, dai nastri di backup alle attuali tecnologie cloud, fino ai supporti più datati, e magari dimenticati da tempo in qualche magazzino. Questo significa che la tecnologia da sola non basta. E’ fondamentale comprendere che la protezione dei dati in azienda riguarda tutte le funzioni, e che dovranno essere messi in atto cambiamenti culturali e di processo per soddisfare e mantenere l’aderenza al GDPR. È importante che vi sia una forte leadership del management, accompagnata dagli strumenti più adeguati a gestire il cambiamento. L’infrastruttura informatica è senz’altro di supporto, e dev’essere integrata in un approccio olistico, a partire dall’architettura dei dati fino ad arrivare al back office e al personale che si interfaccia con il cliente.
Controllo del cloud – vinceranno le architetture ibride
La domanda non è più se usare o meno le tecnologie cloud, ma come impiegare al meglio un deployment multi-cloud: molti manager optano ora per le architetture ibride che fondono i vantaggi di un costo certo con le performance dei sistemi on-premise e la potenza del cloud.
I requisiti sempre più stringenti del controllo dei dati tenderanno ad incrementare ulteriormente l’appeal dei modelli ibridi, secondo una logica che potrà solo accelerare, mentre le aziende tentano di trovare un compromesso tra le esigenze dell’Information Technology e i TCO delle piattaforme cloud pubbliche, piuttosto che di quelle on-premise.
Il cambio di paradigma dalla virtualizzazione alle soluzioni native del cloud e dei container è collegato a una maggiore attenzione, da qui ai prossimi anni, verso la perfetta comunicazione tra cloud pubblico e cloud privato e alla migrazione dei dati. Le tecnologie capaci di integrare potenza e sicurezza in architetture multi-tenant, nell’ottica di questa nuova mobilità del dato, conquisteranno la leadership di mercato e si imporranno all’attenzione. Spostare e allocare i dati sarà un requisito essenziale del cloud, visto che le aziende considerano la collocazione dei dati sia da una prospettiva di business che di tipo legislativo. Trasferire il patrimonio informativo a centri ubicati in ogni regione diventerà un’operazione sempre più comune, specialmente attraverso il collegamento tra sistemi storage ad alta capacità e sistemi di elaborazione in locale, per applicazioni mission-critical o di particolare importanza.
Estrarre valore dall’Intelligenza Artificiale e dal Machine Learning
Le problematiche legate all’archiviazione e alla delivery dei dati necessari per istruire i sistemi di Intelligenza Artificiale (AI) e Machine Learning (ML) sono state risolte da tecnologie avanzate come Pure FlashBlade e NVIDIA DGX-1. La sfida quindi per i CTO nel 2018 sarà quella di capire cosa è fattibile adesso, e cosa può produrre i maggiori benefici per il business.
Pure ha già incorporato con successo tecniche di Machine Learning sia nel proprio sviluppo software che nell’ecosistema di supporto e può confermare il valore di questo approccio per i team di sviluppo interno così come per i clienti. Che tratti di guida automatica, sviluppo software, tecnologie mediche o cyber-security, qualsiasi azienda è oggi in grado di addestrare i propri sistemi informatici ad apprendere e ad applicare eccezioni e regole.
Nel 2018 mi aspetto di vedere tecnologie ML applicate nei vari contesti industriali, per migliorare le mansioni e al contempo la qualità dei task. La robotica è uno tra i settori più interessanti per le applicazioni di Intelligenza Artificiale.
Dalle analisi di Forrester emerge che il 70% delle aziende prevede di implementare qualche forma di intelligenza artificiale nel corso del prossimo anno. Io credo tuttavia che i vantaggi legati all’utilizzo di ML emergeranno ancor più velocemente. L’automazione basata su questi sistemi ha già dimostrato il suo valore, ad esempio in termini di risparmio di tempo nella normale amministrazione dell’infrastruttura IT.
L’Internet of Things e il Machine Learning per l’analisi dei dati producono informazioni preziose che possono essere utilizzate per risolvere le criticità prima ancora che queste impattino il business. Abbiamo clienti che paragonano l’automazione abilitata dai nostri sistemi con la presenza di un ingegnere delle infrastrutture operativo 24/7. Ciò significa davvero liberare risorse per estrarre il massimo valore per l’azienda.
Il dialogo sullo storage dovrebbe diventare dialogo sui dati
Dal punto di vista sia tecnologico e di go to market il problema di garantire elevate performance e uno storage semplice, scalabile e robusto è già stato risolto. Il 2018 segnerà un punto di svolta e le tecnologie di automazione e orchestrazione astrarranno le operazioni in una chiamata ad API REST da Ansible, Chef, Puppet, Kubernetes, etc.
Attualmente gli sviluppatori hanno accesso ai file e agli oggetti storage di cui hanno bisogno, su una piattaforma scalabile con performance garantite e aggiornamenti continui della tecnologia sottostante. In questo modo non ci si deve più preoccupare della provenienza dei dati o delle modalità di delivery. Il data management viene enormemente semplificato, aprendo nuovi scenari ai data scientist e agli altri specialisti dell’IT, che possono ora concentrarsi sui dati stessi e sul miglioramento dei processi invece di occuparsi dell’infrastruttura.
La spesa IT nel 2018
Pure Storage si sta preparando a diventare un’azienda dal fatturato annuale di 1 miliardo di dollari. Ci sono molti segnali incoraggianti nel mercato che confermano opportunità significative in questo senso.
Lo studio di analisti IDC ha previsto che il 34% delle aziende europee aumenterà la spesa destinata allo storage on premise agevolando così la strada verso la compliance al GDPR. Ciò è anche in linea con la tendenza che osserviamo del cloud ibrido pubblico/on-premise a dominare la pianificazione IT.
Guardando a tutte le voci di spesa legate allo storage, spinte dal GDPR nell’ Europa occidentale, IDC prevede 2,4 miliardi di dollari di investimento nel 2017, 3,37 miliardi di dollari nel 2018, con livelli di circa 2,5 miliardi di dollari all’anno che saranno mantenuti fino al 2021. L’intero ecosistema dei dati dovrebbe quindi registrare un’accelerazione negli investimenti.
In diversi settori si inizierà ad estrarre valore dai dati in maniera consistente, utilizzando ML e AI, applicazioni che la nostra piattaforma FlashBlade è particolarmente adatta a supportare. La tecnologia DGX-1 di Nvidia si trova al cuore degli ambienti più sofisticati di analytics e deep learning. Grazie alla nostra solida partnership con Nvidia a livello globale e ai recenti accordi siglati con PNY Technologies, il distributore a livello europeo di Nvidia, contiamo di poter aiutare molti clienti a ridurre i loro cicli di analisi e i tempi necessari ad implementare progetti innovativi.