F5 (NASDAQ: FFIV) ha annunciato l’introduzione di funzionalità di sicurezza e delivery delle applicazioni nelle implementazioni AI supportate da Intel. La nuova soluzione congiunta combina le funzionalità di gestione del traffico e di sicurezza leader del settore di NGINX Plus di F5 con l’ottimizzazione e le prestazioni avanzate del toolkit Intel Distribution di OpenVINO e delle IPU (Infrastructure Processing Units) di Intel. Il risultato è una protezione superiore, maggiore scalabilità e prestazioni elevate per un’inferenza AI avanzata e sicura.
Con l’adozione crescente dell’AI per potenziare applicazioni e flussi di lavoro intelligenti, diventa cruciale garantire un’inferenza AI efficiente e sicura. Questa esigenza viene soddisfatta unendo il toolkit OpenVINO, che ottimizza e accelera l’inferenza dei modelli AI, con F5 NGINX Plus, che offre una gestione robusta del traffico e della sicurezza.
Il toolkit OpenVINO semplifica l’ottimizzazione dei modelli provenienti da quasi qualsiasi framework, permettendo un approccio “write-once, deploy-anywhere”. Questo strumento è essenziale per gli sviluppatori che desiderano creare soluzioni AI scalabili ed efficienti con minime modifiche al codice.
F5 NGINX Plus migliora la sicurezza e l’affidabilità di questi modelli di AI. Grazie alle sue funzionalità di reverse proxy, NGINX Plus gestisce il traffico, garantisce un’alta disponibilità e fornisce controlli attivi dello stato di salute delle risorse. Facilita inoltre la terminazione di SSL e la crittografia mTLS, proteggendo le comunicazioni tra le applicazioni e i modelli AI senza comprometterne le prestazioni.
Per aumentare ulteriormente le prestazioni, le IPU di Intel scaricano i servizi infrastrutturali dalla CPU dell’host, liberando risorse per i server dei modelli AI. Le IPU gestiscono efficacemente i compiti infrastrutturali, migliorando la scalabilità e le prestazioni sia di NGINX Plus sia di OpenVINO™ Model Servers (OVMS).
Questa soluzione integrata è particolarmente vantaggiosa per le applicazioni edge, come la video analytics e l’IoT, dove sono cruciali bassa latenza e alte prestazioni. Eseguendo NGINX Plus sull’IPU di Intel, la soluzione garantisce risposte rapide e affidabili, rendendola ideale per le reti content delivery e i deployment di microservizi distribuiti.
“Lavorare con Intel ci permette di spingere al massimo i confini dell’implementazione AI. Questa collaborazione sottolinea il nostro impegno a guidare l’innovazione e offre una soluzione di inferenza AI sicura, affidabile e scalabile, che consentirà alle aziende di distribuire servizi AI in maniera sicura e veloce. La nostra soluzione combinata assicura che le organizzazioni possano sfruttare tutta la potenza dell’AI con prestazioni e sicurezza superiori,” ha dichiarato Kunal Anand, Chief Technology Officer di F5.
“La sinergia tra F5 NGINX Plus e la soluzione all’avanguardia costituita dall’accelerazione infrastrutturale delle IPU di Intel e il toolkit OpenVINO, può senz’altro aiutare le aziende a realizzare soluzioni innovative di inferenza AI con maggiore semplicità, sicurezza e prestazioni su scala per diversi settori e carichi di lavoro,” ha affermato Pere Monclus, Chief Technology Officer, Network and Edge Group di Intel.