Le previsioni di Pure Storage per il 2020

redazione

I clienti richiederanno un “abbonamento all’innovazione” con modelli di business as-a-Service

I modelli as-a-Service esistono sin dalla nascita del cloud pubblico. Per la maggior parte degli utenti storage, il cloud ibrido rappresenta una realtà tanto attuale quanto futura – e desiderano ottenere il meglio dai due mondi: raggiungere semplicità e automazione delle infrastrutture on-premise al pari di quelle cloud, e disporre nel cloud degli stessi livelli di controllo e funzionalità enterprise che si possiedono on-premise – il tutto attraverso un modello di sottoscrizione as-a-Service flessibile. Nel 2020 la richiesta di storage as-a-Service aumenterà: lo dimostrano le aziende che stanno spostando sempre più gli investimenti verso i costi operativi, ma i modelli di successo devono bilanciare sia gli aspetti operativi sia quelli legati ai processi di acquisto. Da un punto di vista operativo, gli attributi più importanti includono standardizzazione (anziché frammentazione), accesso on-demand, gestione basata su API e scalabilità illimitata. Sul fronte della fruizione, invece, i tratti essenziali comprendono un modello pay-per-use, flessibilità in termini di capacità (con la possibilità di aumentarla e diminuirla in base alle necessità) e un’esperienza “evergreen” senza interruzioni che permetta di far crescere o evolvere i servizi nel tempo garantendo la business continuity. Tutto ciò fornito al 100% mediante un servizio a canone mensile.

 

Il ritorno dell’Object Storage

L’Object Storage si è scrollato di dosso l’etichetta di “storage a basso costo” riservato ai cold data iniziando ad emergere come nuova forma di storage primario. Originariamente concepita per supportare la gestione di moli di dati estremamente grandi (oltre le possibilità di gestire file system tradizionali), questa tecnologia è divenuta uno standard in ambito storage per le applicazioni cloud-native grazie alla sua capacità di supportare l’accesso parallelo e altamente distribuito a grandi data set. Mentre le applicazioni vengono sviluppate o riscritte per architetture cloud-friendly, l’Object Storage diventa l’opzione naturale per permettere di disaccoppiare e disaggregare le applicazioni e le relative risorse di calcolo da pool di storage condiviso. Questo pattern ha preso piede non solo nello sviluppo personalizzato di software, ma anche presso i grandi vendor di software come Splunk e Vertica.

 

La modern analytics diventa matura

 

A spingere la crescita della modern analytics sono opzioni infrastrutturali maggiormente accessibili come CPU più potenti, infrastrutture a consumo disponibili sia on-premise che nel cloud pubblico, e memoria flash più economica. Si verifica una crescita significativa anche nelle piattaforme di stream analytics, sia open source (Apache Flink, Apache Beam e Spark Streaming) sia commerciali (Splunk DSP), in sostituzione di un numero crescente di piattaforme di elaborazione batch. La modern analytics può raggiungere ora una scala superiore grazie ad architetture cloud-native composte da container e server stateless e da object store S3 ad alte prestazioni. Non solo: la crescita smodata di fonti di dati come smart device (smart home, dispositivi wearable, veicoli connessi, industrial internet, ecc.) spingerà l’adozione della modern analytics con lo scopo di ottenere maggiori informazioni e visibilità.

 

La tecnologia Flash sfiderà l’impossibile con supporti di nuova generazione come QLC

 

Da quando è stata introdotta, la tecnologia flash è stata sostanzialmente relegata ad applicazioni Tier1 incentrate sulle prestazioni; tuttavia, con nuove tecnologie allo stato solido come Storage Class Memory (SCM) e QLC che stanno facendo capolino aggiungendo nuovi livelli nel settore delle memorie, la tecnologia flash è destinata a esplodere ed essere impiegata per tipologie di dati del tutto nuove. In ambito high-end, con la combinazione di SCM e protocolli ad alta velocità come NVMe-oF, gli array a storage condiviso possono ora garantire alle applicazioni maggiormente sensibili alla latenza prestazioni simili a quelle dello storage basato su server. Questo tipo di applicazioni è una delle ultime roccaforti dei sistemi DAS che può ora disporre di tutti i servizi dati tipici dello storage condiviso (protezione dei dati, riduzione dei dati ecc.) essendo ora possibile ottenere prestazioni di fascia alta e servizi dati evoluti. Al contempo, l’imminente introduzione delle memorie QLC sta estendendo la tecnologia flash ai tier storage finora principalmente rimasti su disco magnetico. Questa riduzione dei costi permette a tutte le applicazioni di sfruttare i vantaggi del flash al di là delle prestazioni: semplicità, affidabilità e minor consumo di spazio ed energia nei data center.

 

L’AI passerà da un ruolo di Advisor all’autonomia di azione rispondendo al desiderio di automazione dei clienti

 

Le aziende saranno maggiormente disposte a lasciare che l’Artificial Intelligence prenda decisioni al posto loro. I clienti vogliono poter definire policy e lasciare che i vendor le implementino, cosa parzialmente motivata dalla natura dichiarativa di Kubernetes e dalla gestione dei container. La semplicità dei container permetterà alle aziende di definire uno stato, e il container ne sarà il catalizzatore. La tecnologia dovrà dunque promuovere e fornire insight all’interno dell’intero ambiente. L’AI verrà applicata per trovare in maniera efficiente le aree in cui il modello predittivo risulta carente, potenziando i dati nello spazio funzionale che ne ha bisogno. Per le applicazioni AI il rilevamento delle anomalie e l’analisi automatica delle cause primarie sono fondamentali per rendere il processo scalabile e applicabile a contesti differenti.

 

I container diventeranno mainstream e richiederanno storage persistente

 

I container sono nati per rendere il più semplice e leggero possibile il deployment di applicazioni stateless. Tuttavia, poiché la diffusione di Kubernetes e il supporto dei container da parte di VMware sta rapidamente ampliando l’impiego dei container verso applicazioni mainstream, la disponibilità di storage persistente sarà essenziale per poter spostare database e applicazioni sui container. Il 2020 sembra essere l’anno in cui la maggior parte delle aziende farà evolvere le proprie piattaforme cloud ibride e private al di là delle VM implementando una strategia container universale comprendente la realizzazione di basi di storage che rendano possibile l’adozione dei container da parte delle applicazioni stateful mission-critical.

 

A firma di Mauro Bonfanti, Regional Director Italy