Oracle offre maggiori opportunità per l’infrastruttura AI e l’elaborazione general-purpose con NVIDIA e Ampere

Oracle ha annunciato che a breve saranno disponibili le nuove istanze di OCI (Oracle Cloud Infrastructure) Compute basate su GPU NVIDIA H100 Tensor CoreGPU NVIDIA L40S e sulle CPU Ampere AmpereOne™.

Le nuove istanze OCI Compute sono progettate per rendere più accessibile per le organizzazioni di tutto il mondo l’esecuzione di una varietà di carichi di lavoro in cloud – dall’addestramento, messa a punto e inferenza di modelli AI all’esecuzione di applicazioni cloud-native e applicazioni di transcodifica video – con in aggiunta un migliore rapporto prezzo-prestazioni.

Ecco le istanze OCI Compute basate sulle GPU NVIDIA di nuova generazione:

  • Istanze OCI Compute Bar Metal alimentate da GPU NVIDIA H100: aiuteranno i clienti a addestrare più velocemente modelli AI di grandi dimensioni, come quelli che alimentano i sistemi di elaborazione del linguaggio naturale e i sistemi di raccomandazione. Le organizzazioni che utilizzano GPU NVIDIA H100 Tensor Core hanno ottenuto un incremento delle prestazioni fino a 30 volte per i casi d’uso di inferenza AI e prestazioni 4 volte superiori per l’addestramento dei modelli AI rispetto a quanto avveniva con la precedente generazione di GPU NVIDIA A100 Tensor Core. Per i clienti che eseguono carichi di lavoro di elaborazione intensivi come l’addestramento dei modelli di AI, OCI Supercluster consente di collegare decine di migliaia di GPU NVIDIA H100 su una rete di cluster ad alte prestazioni e a bassissima latenza. Queste istanze saranno disponibili nelle Oracle Cloud Region di Londra e Chicago entro la fine del 2023 e a seguire poi in tutte le altre Cloud Region.  
  • Istanze OCI Compute Bare Metal basate su GPU NVIDIA L40S:  rappresenteranno un’opzione alternativa per gestire carichi di lavoro quali l’inferenza AI o l’addestramento di modelli AI di piccole e medie dimensioni. Queste istanze sono state testate per offrire un miglioramento fino al +20% delle prestazioni per carichi di lavoro di AI generativa e un miglioramento fino al +70% dell’ottimizzazione rispetto alla generazione precedente di GPU NVIDIA A100. Si prevede che le istanze saranno disponibili entro il prossimo anno.

Ed ecco invece le nuove istanze OCI Compute basate su CPU Ampere Computing:

  • Istanze OCI Compute A2 alimentate da CPU Ampere AmpereOne™: queste istanze offriranno il miglior rapporto prezzo-prestazioni e il maggior numero di processori core disponibile nei rispettivi settori (320 core per le istanze Bare Metal e fino a 156 in forma di Virtual Machine flessibili). Potranno gestire una varietà di carichi di lavoro cloud di tipo generale, come l’esecuzione di web server, la transcodifica video, la gestione delle richieste di inferenza AI basate su CPU.  L’elevato numero di core disponibili in queste istanze permette di ottenere prestazioni più elevate, maggiore densità di virtual machine e più scalabilità, per aiutare i clienti a gestire in modo più efficiente i propri carichi di computing in data-center di più piccole dimensioni e tenendo sotto controllo il consumo energetico.  Queste istanze possono eseguire anche forme flessibili per le virtual machine, così che i clienti possano regolare in modo granulare la quantità di memoria e la potenza di elaborazione da impiegare, per ottimizzare l’uso delle risorse e ridurre al minimo i costi, nel quadro di un modello di pricing semplice e calcolabile in anticipo.  Si prevede che queste istanze saranno disponibili entro il prossimo anno.

OCI è stata una delle prime infrastrutture cloud a offrire istanze native di Bare Metal: una componente essenziale della nostra capacità di rendere più accessibile per le aziende di tutto il mondo l’high performance computing. Dando accesso ai processori NVIDIA e Ampere in OCI, offriamo ai nostri clienti le prestazioni, l’efficienza e la flessibilità di cui hanno bisogno nella loro infrastruttura cloud per gestire qualsiasi cosa, dai carichi di lavoro generici fino ai progetti di AI ad alte prestazioni“, ha affermato Donald Lu, Vicepresident senior, Software Development, Oracle Cloud Infrastructure. “Oracle è stata tra i pionieri del mercato con le sue offerte di cloud computing progettate specificamente per supportare lo sviluppo e l’uso dell’AI. Possiamo contare su un buon posizionamento per guidare l’evoluzione del cloud computing, man mano che il mercato si amplierà, per supportare il numero di fornitori e utenti dell’Intelligenza Artificiale in continua crescita.

“La collaborazione tra NVIDIA e Oracle sta contribuendo a democratizzare l’accesso alle GPU all’avanguardia su Oracle Cloud Infrastructure“, ha affermato Ian Buck, Vicepresidente di Hyperscale and High Performance Computing, NVIDIA. “Le GPU NVIDIA H100 e L40S su OCI consentiranno l’innovazione dell’AI con prestazioni, scalabilità e sicurezza senza precedenti per i clienti di tutti i settori di mercato”.

Oracle è stata il primo cloud provider a distribuire a livello globale istanze di elaborazione basate su processori Ampere”, ha affermato Jeff Wittich, Chief Product Officer di Ampere Computing. “Questa nuova generazione di istanze OCI basate su Ampere A2 prevede fino a 320 core per ogni istanza – così da offrire prestazioni, scalabilità e densità del carico di lavoro ancora migliori”. 

Le nuove istanze di computing OCI  basate sulle GPU NVIDIA ci offriranno la potenza necessaria per addestrare e gestire la nuova generazione dei nostri modelli AI rivolti all’utenza business, per i quali siamo riconosciuti tra i leader” ha dichiarato Martin Kon, Presidente e COO, Cohere. “Il cloud di Oracle fornisce risorse di calcolo affidabili e potenti per creare modelli ad alte prestazioni che possono essere incorporati in qualsiasi applicazione e utilizzati in un’ampia gamma di settori“.

L’addestramento di modelli di linguaggio di grandi dimensioni sulla piattaforma MosaicML richiede migliaia di GPU NVIDIA in esecuzione sulle istanze di computing Bare Metal di OCI, che sfruttano lo storage ad alte prestazioni e la rete cluster ultraveloce“, ha affermato Naveen Rao, Vicepresidente di Generative AI, Databricks “Abbiamo scelto OCI per il suo rapporto prezzo-prestazioni superiore per l’addestramento e l’inferenza sull’intelligenza artificiale su larga scala e siamo entusiasti di poter utilizzare le istanze di calcolo OCI con le GPU NVIDIA H100 e L40S“.

Uber sta rivoluzionando il modo in cui le persone e le cose si muovono nelle città. Nel quadro della nostra architettura multicloud, sfruttiamo Oracle Cloud Infrastructure per i carichi di lavoro importanti e strategici grazie alla sua sicurezza, performance e flessibilità superiore“, ha dichiarato Kamran Zargahi, Senior Director di Technology Strategy di Uber. “Utilizziamo istanze I/O standard e Dense basate su processori AMD e in futuro intendiamo utilizzare OCI Compute con le GPU NVIDIA “.