Data Hub: la nuova architettura di Pure Storage per app cloud-native, Analytics e AI

redazione

Pure Storage (NYSE: PSTG), la piattaforma storage all-flash che supporta gli innovatori verso un futuro migliore attraverso i dati, presenta data hub, la propria visione per rinnovare l’architettura storage per i workload non strutturati e data-intensive. Progettata partendo da Pure Storage FlashBlade™, data hub è disegnata per essere un’architettura data-centrica, che consenta alle aziende di utilizzare efficacemente i dati.

Per innovare e sopravvivere in un contesto sempre più data-driven, le aziende devono progettare infrastrutture che in primo luogo tengano conto dei dati e consentano un accesso completo ed in tempo reale a questi ultimi. Le soluzioni oggi più diffuse sono state progettate per i dischi e hanno storicamente contribuito a creare silos di dati. Un’architettura data hub è invece progettata per fornire, condividere e unificare i dati, offrendo la possibilità di accedere ad un valore senza precedenti.

“I silos di dati sono un punto di debolezza in ogni settore. Le aziende hanno bisogno di estrarre valore dai dati anche quando questo valore è nascosto, il che è impossibile senza una visione d’insieme”, ha dichiarato Matt Burr, GM di FlashBlade, Pure Storage. ” abbiamo creato un sistema di storage data-centrico che soddisfa i requisiti applicativi attuali e futuri con una moderna piattaforma progettata per lavorare per conto dei clienti”.

Oggi le aziende si affidano a quattro tipologie di soluzioni di analytics in silos: data warehouse, data lake, streaming analytics e cluster di AI. Un data hub integra le caratteristiche più importanti di queste quattro tipologie di silos e le unifica in una singola piattaforma. Un data hub deve avere quattro caratteristiche principali:

Throughput elevato sia per object storage che per archiviazione di file. I dispositivi di backup e data warehouse richiedono un throughput elevato per workload comuni e basati su file, e per applicazioni cloud-native e object-based.

Architettura scale-out. La caratteristica primaria del data lake è la sua architettura scale-out nativa, che consente di scalare senza limiti i lavori batch, in quanto è il software, non l’utente, a gestire la resilienza e le prestazioni.

Prestazioni multidimensionali. I dati non sono prevedibili e possono arrivare a qualsiasi velocità, pertanto le aziende necessitano di una piattaforma in grado di processare qualsiasi tipo di dato e con qualsiasi modello di accesso.

Elaborazione in parallelo. Nell’industria informatica c’è stato un profondo cambiamento dalle tecnologie seriali alle tecnologie parallele, costruite per imitare il cervello umano, e lo storage deve omologarsi.

“Per decenni, l’industria dello storage è stata in ritardo. Non solo lo storage non è riuscito a tenere il passo con i progressi nel networking e nel calcolo, ma è diventato un ostacolo all’innovazione”, ha dichiarato Ritu Jyoti, Program Vice President, Systems Infrastructure Research Portfolio di IDC. “Nell’era dell’Intelligenza Artificiale e dell’analisi in tempo reale, questi ostacoli rischiano di rallentare drammaticamente le aziende. È tempo di un cambiamento di paradigma per lo storage, di una nuova architettura dinamica, costruita appositamente per le sfide moderne”.

ElementAI, azienda all’avanguardia per lo sviluppo di prodotti innovativi di AI scalabili a livello enterprise, ha rilevato la necessità di un cambiamento fondamentale nelle architetture storage focalizzate sulla condivisione e la circolazione dei dati piuttosto che sulla sola archiviazione.

“Per tenere il passo con l’innovazione, le imprese devono avviare iniziative di Modern Analytics e di Intelligenza Artificiale, anche se spesso queste vengono rallentate da silos di dati legacy, in particolare dai data lake”, ha dichiarato Jean-Francois Gagne, Founder e CEO di ElementAI. “Per realizzare modelli e soluzioni più efficaci, i dati devono essere unificati e condivisi, non semplicemente memorizzati. Data hub rappresenta la visione di una nuova architettura storage progettata per questa evoluzione, al fine di alimentare la prossima generazione di soluzioni basate sull’Intelligenza Artificiale”.

“Aziende di ogni settore stanno lavorando per costruire il loro futuro con l’Intelligenza Artificiale”, ha affermato Jim McHugh, vice president e general manager di Deep Learning Systems presso NVIDIA.
“Da un lato NVIDIA offre progressi innovativi e prestazionali, alimentando l’Intelligenza Artificiale, dall’altro lo storage è chiamato a fare la sua parte. Perseguendo tale scopo, l’architettura data hub supporterà i clienti a modernizzare la loro infrastruttura storage per massimizzare la potenza di calcolo necessaria per l’Intelligenza Artificiale.”

PNY Technologies è leader nella tecnologia di calcolo ad alte prestazioni, virtualizzazione grafica e Deep Learning. Con la propria rete di partner si dedica alla diffusione dell’Intelligenza Artificiale e degli Analytics moderni presso i clienti.

“Come sfruttare i dati in modo intelligente? Questa è la sfida principale dei nostri clienti”, ha dichiarato Jérôme Bélan, CEO EMEA di PNY Technologies. “Attualmente non è possibile valorizzare a pieno i dati residenti nei silos. Per risolvere questo problema nasce l’iniziativa di Pure Storage di un’architettura moderna, che assicura alle aziende di sfruttare al meglio il loro asset più importante. Poiché sempre più aziende guardano all’AI, agli strumenti di analytics e alle applicazioni cloud-native, si impone la necessità di un’architettura in grado di alimentare nuove tecnologie, ora e in futuro. Siamo impazienti di lavorare con Pure per offrire un valore senza precedenti ai nostri clienti attraverso data hub”.