Red Hat AI Inference Server

Red Hat® AI Inference Server ottimizza l'inferenza dei modelli nel cloud ibrido affinché siano distribuiti più velocemente e a un costo più vantaggioso. 

Immagine hero di Red Hat AI Inference Server

Cos'è un server di inferenza?

Un server di inferenza è il software che permette alle applicazioni basate sull'intelligenza artificiale (IA) di comunicare con i modelli linguistici di grandi dimensioni (LLM) e generare una risposta basata sui dati. Questo processo viene definito inferenza ed è essenziale per la realizzazione degli obiettivi aziendali.

Per funzionare in modo efficace ed effettuare inferenze su larga scala, gli LLM necessitano di ampi spazi di archiviazione, memoria e infrastrutture, motivo per cui richiedono importanti investimenti economici. 

Red Hat AI Inference Server, soluzione inclusa in Red Hat AI, ottimizza le capacità di inferenza al fine di abbattere i costi e ridimensionare l'infrastruttura. 

Inferenza IA rapida ed economica con Red Hat AI Inference Server. Durata del video: 2:28

Screenshot di una demo interattiva che mostra un'interfaccia a riga di comando e un prompt laterale che dice:

Introduzione a Red Hat AI Inference Server

Come funziona Red Hat AI Inference Server?

Red Hat AI Inference Server assicura capacità di inferenza rapide, economiche e scalabili. Essendo open source, è in grado di supportare qualunque modello di IA generativa (IA gen), su qualunque acceleratore di IA e in qualunque ambiente cloud. 

Basato su vLLM, il server di inferenza massimizza l'utilizzo della GPU e accorcia i tempi di risposta. In combinazione con le funzionalità di LLM Compressor, permette di ottenere processi di inferenza ancora più efficienti senza incidere sulle prestazioni. Grazie all'adattabilità multipiattaforma e a una community di collaboratori in rapida espansione, vLLM sta diventando il modello linguistico di grandi dimensioni virtuale più affermato nel campo dell'inferenza IA gen. 

50%

Alcuni clienti che hanno utilizzato LLM Compressor sono riusciti a ridurre i costi del 50% senza compromettere le prestazioni.*

*Saša Zelenović, "Unleash the full potential of LLMs: Optimize for performance with vLLM", il blog di Red Hat, 27 febbraio 2025. 

Scegli i modelli più adatti a tuoi requisiti

Red Hat AI Inference Server supporta tutti i principali modelli open source e assicura la portabilità delle GPU. Gli utenti possono quindi adottare un qualunque modello di IA gen oppure sceglierne uno presente nella nostra raccolta di modelli open source di terze parti convalidati e ottimizzati.  

Inoltre, Red Hat AI Inference Server è uno dei componenti di Red Hat AI ed è quindi certificato per l'utilizzo con tutti i prodotti Red Hat. È compatibile anche con piattaforme Linux e Kubernetes di terze parti. In questo caso i termini del supporto sono definiti nella policy sul supporto di terze parti di Red Hat

Immagine che raffigura la scelta dei modelli per Red Hat AI Inference Server

Maggiore efficienza con vLLM

Sfrutta vLLM per semplificare il deployment dei modelli di IA gen e garantire la massima libertà di scelta di modelli e acceleratori di IA.

LLM Compressor

Comprimi modelli di qualsiasi dimensione per ridurre l'utilizzo di risorse e i relativi costi, il tutto senza compromettere l'accuratezza. 

Flessibilità del cloud ibrido

Assicura la massima portabilità fra le GPU ed esegui i modelli on premise, nel cloud o all'edge.

Repository di Red Hat AI

La raccolta di modelli di terze parti ottimizzati e convalidati permette di accelerare il time to value e ridurre i costi.

Supporto per Red Hat AI

Essendo uno dei maggiori contributori commerciali del progetto vLLM, Red Hat ha una conoscenza approfondita di questa tecnologia. Grazie alle loro competenze specialistiche, i nostri consulenti aiutano le aziende a introdurre l'IA e a realizzare gli obiettivi prefissati. 

Immagine di una schermata di Red Hat AI

Come acquistare la soluzione

Red Hat AI Inference Server è disponibile come prodotto standalone o come componente di Red Hat AI. La soluzione è inclusa in Red Hat Enterprise Linux® AI e in Red Hat OpenShift® AI. 

Red Hat AI

Affidati ai nostri partner

Con le giuste tecnologie e il supporto degli esperti del settore, i nostri clienti possono sfruttare appieno i vantaggi dell'IA. Scopri tutti i partner tecnologici che collaborano con Red Hat per certificare la compatibilità dei loro prodotti con le nostre soluzioni. 

Logo Dell Technologies
Logo Lenovo
Logo Intel
Logo Nvidia
Logo AMD

Domande frequenti

Per poter utilizzare Red Hat AI Inference Server è necessario acquistare Red Hat Enterprise Linux AI o Red Hat OpenShift AI?

No, Red Hat AI Inference Server è disponibile anche come prodotto Red Hat standalone. 

Per poter utilizzare Red Hat Enterprise Linux AI è necessario acquistare anche Red Hat AI Inference Server?

Red Hat AI Inference Server è già incluso in Red Hat Enterprise Linux AI e Red Hat OpenShift AI. 

È possibile eseguire Red Hat AI Inference Server su Red Hat Enterprise Linux o Red Hat OpenShift?

Sì, la soluzione è compatibile anche con gli ambienti Linux di terze parti secondo i termini definiti nella policy sul supporto di terze parti.

Come viene stabilito il prezzo di Red Hat AI Inference Server?

La tariffa si calcola in base al numero di acceleratori.

Esplora altre risorse per l'IA

Definizione della strategia aziendale per l'IA: una guida introduttiva

Red Hat Consulting per l'IA

Ottimizza l'innovazione IA con i modelli open source

Red Hat Consulting: AI Platform Foundation

Contatta il team commerciale

Contattaci per sapere di più su Red Hat AI