Vertiv prevede l’arrivo dei data center di 4ª generazione nei trend per il 2018

Lorenzo Carella

Il data center di prossima generazione supererà ogni barriera, integrando facilmente le strutture core con un edge di rete mission-critical più intelligente. I data center di 4ª generazione (Gen 4) sono una realtà emergente e diventeranno il modello per le reti IT del 2020. L’avvento di questo tipo di data center dipendenti dall’edge fa parte delle cinque tendenze identificate per il 2018 da un gruppo globale di esperti di Vertiv, in precedenza Emerson Network Power.

“Volumi crescenti di dati, alimentati in gran parte da dispositivi connessi, hanno indotto le aziende a riconsiderare le proprie infrastrutture IT per soddisfare le maggiori richieste dei consumatori”, ha spiegato Giordano Albertazzi, presidente di Vertiv in Europa, Medio Oriente e Africa. “Anche se le società hanno diverse possibilità per sostenere questa crescita, molti leader IT stanno scegliendo di avvicinare le proprie strutture all’utente o all’edge. A prescindere dall’approccio che adotteranno, la velocità e la continuità di servizio garantiti in questa fase diverranno l’offerta più allettante per i consumatori.”

Le previsioni di Vertiv per il 2017 avevano identificato trend legati a cloud, sistemi integrati, sicurezza dell’infrastruttura e altro ancora. Qui di seguito sono riportati i cinque trend che potranno avere un impatto sull’ecosistema del data center nel 2018:

1. Arrivo dei data center di 4ª generazione: Che si tratti di armadi IT tradizionali o di micro data center di 40 metri cubi, le organizzazioni fanno sempre più affidamento sull’edge. Il data center 4 Gen integra olisticamente e armoniosamente edge e core, elevandoli oltre le semplici reti distribuite.
Questo grazie ad architetture innovative che offrono capacità quasi in tempo reale in moduli scalabili ed economici che sfruttano soluzioni termiche ottimizzate, alimentazione elettrica ad alta densità, batterie agli ioni di litio e unità avanzate di distribuzione dell’energia. Il tutto è coadiuvato da tecnologie evolute di monitoraggio e gestione, che permettono a centinaia o persino a migliaia di nodi IT distribuiti di operare insieme per ridurre latenza e costi iniziali, aumentare i tassi di utilizzo, rimuovere la complessità e permettere alle organizzazioni di aggiungere capacità IT legata alla rete, quando e dove necessario.

2. I provider di cloud scelgono la colocation: L’adozione del cloud sta procedendo a passi talmente rapidi che in molti casi i cloud provider non riescono a far fronte alla richiesta di capacità. In realtà, molti non vorrebbero nemmeno provarci. Preferiscono concentrarsi sulla fornitura di servizi e altre priorità dei nuovi data center e si rivolgeranno ai provider di colocation per soddisfare le esigenze di maggiore capacità.
Essendo focalizzate su efficienza e scalabilità, le strutture di colocation possono soddisfare la domanda rapidamente e allo stesso tempo ridurre i costi. Il proliferare di strutture di colocation permette inoltre ai provider di cloud di scegliere i partner di colocation in luoghi che rispondano alle necessità degli utenti, dove possano operare come strutture edge. I fornitori di colocation stanno rispondendo, mettendo a disposizione parti dei propri data center o intere strutture su misura per i servizi cloud.

3. Riconfigurazione dei data center di classe media: Non è un mistero che le maggiori aree di crescita sul mercato dei data center si trovino nelle infrastrutture hyperscale – in genere provider di cloud o colocation – e sull’edge di rete. Con la crescita delle risorse di colocation e cloud, gli operatori di data center tradizionali ora hanno l’opportunità di rivalutare e riconfigurare le proprie strutture e risorse che rimangono cruciali per le operazioni locali.
Le organizzazioni con più data center continueranno a consolidare le proprie risorse IT interne, ad esempio trasferendo nel cloud o in colocation ciò che è possibile spostare, ridimensionando e sfruttando allo stesso tempo configurazioni dalla rapida implementazione che possono essere scalate velocemente. Queste nuove strutture saranno più piccole, ma più efficienti, sicure e con un’alta disponibilità, in linea con la natura mission-critical dei dati che le aziende cercano di proteggere.
Laddove l’adozione del cloud e della colocation procede più lentamente, si prevede che il prossimo passo sarà rappresentato da architetture di cloud ibrido, per aumentare la sicurezza delle risorse IT in un cloud privato o pubblico, con l’obiettivo di ridurre i costi e gestire i rischi.

4. Arriva (finalmente) l’alta densità: La community dei data center parla da un decennio di densità in forte crescita per la potenza dei rack, ma gli aumenti, nel migliore dei casi, sono stati incrementali. Le cose stanno cambiando. Densità inferiori a 10 kW per rack rimangono la norma, ma implementazioni a 15 kW, in strutture hyperscale non sono più così rare e alcune stanno avanzando verso i 25 kW.
Perché accade proprio ora? La responsabilità principale va all’introduzione e all’adozione diffusa di sistemi informatici iperconvergenti. I provider di colocation, ovviamente, danno priorità allo spazio nelle proprie strutture e l’alta densità dei rack può consentire maggiori guadagni. I progressi nel risparmio energetico nelle tecnologie di server e chip possono solo ritardare l’inevitabilità dell’alta densità posticipata a lungo. Vi sono tuttavia motivi per credere che uno spostamento in massa verso maggiori densità potrebbe assomigliare più a una lenta marcia che a un’accelerata. Densità notevolmente più alte possono cambiare in modo significativo la struttura di un data center – dall’alimentazione al raffreddamento di ambienti a densità più elevate. L’alta densità sta arrivando, ma probabilmente non prima della fine del 2018 e oltre.

5. Il mondo reagisce all’edge: Un numero crescente di aziende sta spostando i sistemi di computing sul proprio edge di rete; è quindi necessario procedere a una valutazione critica delle strutture che ospitano queste risorse edge, della loro sicurezza e della proprietà dei dati ospitati. Questa analisi include il progetto fisico e meccanico, la costruzione e la sicurezza delle strutture edge e complessi dettagli legati alla proprietà dei dati. I governi e gli enti regolatori di tutto il mondo non potranno evitare di considerare questi elementi e prendere eventuali provvedimenti.
Spostare i dati distribuiti nel mondo sul cloud o in una struttura core e recuperarli per l’analisi è un processo troppo lento e macchinoso, per cui sempre più cluster di dati e capacità analitiche risiederanno sull’edge – un edge che può trovarsi in città, stati o paesi diversi da quelli in cui ha sede un’azienda. Chi sono i proprietari dei dati e cosa possono fare con questo patrimonio di informazioni? Il dibattito è in corso e nel 2018 si avanzerà verso azioni e risposte più concrete.