- Software vGPU: 18.0
- Driver host: 570.124.03
- Driver guest Linux: 570.124.06
- Driver guest Windows: 572.60
Abbiamo utilizzato NVIDIA L40S e un Dell PowerEdge R760 per questo progetto.
![]()
Inoltre, avrai bisogno di un server di licenza dedicato (DLS) o di un server di licenza cloud (CLS) per attivare la funzionalità vGPU sui tuoi guest. Puoi trovare una guida rapida cliccando qui.
Successivamente, verifica che le impostazioni UEFI (BIOS) del tuo server abilitino le corrette funzionalità di virtualizzazione. Cerca le impostazioni VT-d o AMD-v, SR-IOV, decodifica sopra 4G, resizable bar e Alternative Routing ID Interpretation (ARI), e assicurati che siano tutte abilitate.
Nota: Potresti non trovare tutte queste funzionalità nel menu UEFI, poiché alcune potrebbero non essere esposte all'utente.
Infine, verifica che tu stia utilizzando una versione adatta di Proxmox VE. La funzionalità vGPU richiede, come minimo, la versione 8.3.4 di pve-manager, con kernel 6.18.12-8-pve o più recente. Puoi controllare le versioni del software del tuo nodo PVE navigando nella scheda "Summary" sul server desiderato, come mostrato di seguito:
L'host con il massimo (Configurazione vGPU host Proxmox)
Ora che tutto è pronto, è il momento di configurare il server Proxmox VE. Nell'interfaccia web del tuo server Proxmox VE, fai clic sul nome del server nella parte sinistra dello schermo e seleziona la scheda "Shell". Digita questo comando nella finestra della console che appare e premi Invio al termine:
apt install pve-nvidia-vgpu-helper
Ciò garantirà l'installazione dello strumento di configurazione vGPU sul tuo server, preparandolo per il supporto Proxmox vGPU. Dopo che il server avrà finito di installare lo script o ti informerà che è già presente, esegui un altro comando per eseguire lo strumento.
pve-nvidia-vgpu-helper setup
Rispondi "S" a qualsiasi domanda e procedi fino a quando la finestra della console non ritorna e lo script è terminato. Esegui un rapido riavvio del server navigando nella scheda "Summary" del server e premendo il pulsante "Reboot", oppure digita il comando reboot nella console della scheda "Shell" e premi Invio.
Successivamente, il driver host vGPU di NVIDIA deve essere caricato sul server. Dopo che il server avrà completato il riavvio, utilizza uno strumento di trasferimento SSH o SCP come WinSCP per copiare il driver host sul nodo.
Nota: Se hai scaricato tutti i driver insieme in una cartella compressa (.zip), potresti dover prima estrarre il suo contenuto e scegliere il file ".run" dalla cartella "Host_Drivers".
Posiziona il file nella directory "/home" del server e preparati a eseguire l'installer con i seguenti comandi.
cd /home chown root NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run chmod +X NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run ./NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run --dkms
Nota: Sostituisci "NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run" con il nome effettivo del driver che hai scaricato. Puoi usare il comando "ls" per mostrare il nome del file una volta che è stato posizionato nella directory "/home".
Ora che il driver è stato installato sul server, siamo a pochi passi dal completamento della parte host della nostra configurazione Proxmox vGPU! Prima di poter contrassegnare la GPU come dispositivo che può essere diviso tra macchine virtuali, dobbiamo abilitare la Single Root I/O Virtualization (SR-IOV). NVIDIA definisce questa funzionalità come "...una tecnologia che consente a un dispositivo PCIe fisico di presentarsi più volte attraverso il bus PCIe. Questa tecnologia abilita più istanze virtuali del dispositivo con risorse separate." Poiché SR-IOV è un pezzo critico di tecnologia necessario per la funzionalità vGPU di base sulle GPU moderne, impostalo per accendersi all'avvio con il seguente comando:
systemctl enable --now pve-nvidia-sriov@ALL.service
Infine, possiamo mappare le risorse della GPU per dividerle ordinatamente tra le VM. Nell'interfaccia web del server Proxmox VE, fai clic su "Datacenter" nell'angolo in alto a sinistra e scorri verso il basso per selezionare la scheda "Resource Mappings".
Fai clic sul pulsante "Add" sotto la sezione "PCI Devices" della pagina e compila il campo "Name:" nella finestra successiva con il nome che descrive la GPU che stai mappando.
Successivamente, seleziona la casella etichettata "Use with Mediated Devices" e assicurati che il menu a discesa "Mapping on Node" contenga il server con la GPU in fase di mappatura. Scorri l'elenco dei dispositivi, confermando che tutti gli ID dispositivo abbiano "NVIDIA Corporation" presente nella colonna "Vendor". Se ciò è vero, fai clic sulla casella di controllo in alto a sinistra della tabella per selezionare tutti i dispositivi; in caso contrario, seleziona solo i dispositivi con "NVIDIA Corporation" come fornitore.
Nota: Se sono installate più GPU nel tuo sistema, puoi utilizzare il comando "lspci" nella scheda "Shell" sul server desiderato per determinare gli ID che accompagnano ciascuna scheda.
Al termine della selezione del dispositivo, fai clic sul pulsante "Create" nell'angolo in basso a destra della finestra pop-up per confermare la tua selezione. La tua GPU NVIDIA è ora pronta per essere suddivisa in vGPU per i guest del tuo server Proxmox VE!
Servire i Guest (Assegnazione di vGPU a Macchine Virtuali)
I pezzi sono tutti al loro posto per iniziare ad assegnare e utilizzare le vGPU sulle nostre macchine virtuali. Inizia creando una nuova macchina virtuale, come al solito, o utilizzando una VM esistente. Per la nostra dimostrazione, utilizzeremo una macchina virtuale Windows Server 2025.
Nell'interfaccia web del server Proxmox VE, spegni la macchina virtuale utilizzando qualsiasi metodo ritieni opportuno (console noVNC, menu di spegnimento guest, ecc.) e fai clic sulla scheda "Hardware" del guest.
Nel menu a discesa che appare dopo aver fatto clic sul pulsante "Add", seleziona un "PCI Device."
Nella finestra pop-up "Add: PCI Device", seleziona il nome che hai assegnato alla GPU mappata sulle risorse nel campo "Device:".
Successivamente, fai clic sul campo "MDev Type:" e osserva l'elenco delle opzioni di tipo di dispositivo mediato presentate. Potresti notare che ogni scelta ha una designazione numerica e letterale. Il numero rappresenta la quantità di VRAM assegnata al guest (in gigabyte), mentre "A", "B" e "Q" si riferiscono al caso d'uso della vGPU:
- Q – Workstation virtuali con driver RTX Enterprise (richiede licenza RTX vWS)
- B – Desktop virtuali (richiede licenza NVIDIA Virtual PC o licenza RTX vWS)
- A – Soluzioni applicative (richiede una licenza NVIDIA Virtual Applications)
Nota: Puoi leggere di più sui diversi profili vGPU e sulle licenze richieste qui.
Per questa dimostrazione, abbiamo utilizzato il profilo "NVIDIA L40S-12Q". Dopo aver selezionato il tipo di dispositivo mediato desiderato, termina selezionando la casella "PCI-Express" e facendo clic sul pulsante blu "Add".
La VM ora ha una vGPU assegnata, ma dobbiamo ancora installare il driver guest e un token di licenza per far partire le cose. Ora puoi accendere la macchina virtuale ed effettuare l'accesso.
Dopo aver effettuato l'accesso, trasferisci il driver guest vGPU NVIDIA acquisito in precedenza dal portale di licenza alla VM in qualsiasi modo preferisci (SMB, SCP, download diretto, ecc.). In alternativa, puoi creare e caricare un file CD-ROM virtuale (.iso) contenente il driver sul server di archiviazione del tuo server PVE utilizzando software come ImgBurn per distribuire contemporaneamente molte VM abilitate per vGPU.
Esegui il file di installazione del driver facendo doppio clic sull'eseguibile e segui le istruzioni nel menu di installazione che appare.
Estrai il driver nella posizione predefinita nel campo "Extraction path:" e scegli l'opzione di installazione "Express" quando richiesto.
Una volta completata l'installazione del driver, fai clic sul pulsante "CLOSE" per uscire dal menu.
Successivamente, dovremo attivare la licenza vGPU sul guest. I metodi di attivazione possono differire in modo significativo a seconda che tu selezioni un server di licenza dedicato (DLS) o un server di licenza cloud (CLS) e il tuo sistema operativo. Segui la Guida rapida al sistema di licenza di NVIDIA e la Guida utente per le licenze client per i passaggi dettagliati sull'attivazione dei client per la tua configurazione specifica.
Abbiamo utilizzato un server di licenza cloud e ricevuto un file token da posizionare sui guest per l'attivazione. Sposta questo file sul guest e copialo nella cartella "C:Program FilesNVIDIA CorporationvGPU LicensingClientConfigToken".
Successivamente, è necessario un riavvio del guest per completare il processo di attivazione.
Seguendo tutti i passaggi di configurazione host e guest dettagliati qui, dovresti essere pronto per eseguire programmi e applicazioni che richiedono una GPU. Non dimenticare di abilitare il Remote Desktop Protocol (RDP) o installare il tuo software di desktop remoto preferito sui tuoi guest dopo il riavvio per goderti la bontà della visualizzazione remota accelerata da GPU!
Accendere il Motore (Prova di Proxmox vGPU)
Ora che abbiamo alcuni server virtuali con GPU virtuali, proviamoli! Ciascuna delle nostre VM è stata configurata con 8 vCPU Intel Xeon Platinum 8580 (4 core hyperthreaded), 32 gigabyte di RAM registrata ECC DDR5 4800 MT/s e il profilo vGPU NVIDIA L40S-12Q (workstation virtuale) con 12 gigabyte di VRAM. Puoi vedere la configurazione hardware completa delle macchine virtuali di seguito:
Cinebench 2024
Basato sul software di modellazione e animazione Cinema 4D di Maxon, Cinebench 2024 offre uno sguardo interessante e obiettivo sulle prestazioni di rendering su vGPU. Confrontiamo la piena potenza dell'L40S nel suo profilo "48Q" (tutti i 48 gigabyte di VRAM) con una macchina virtuale rispetto a quattro VM che eseguono il profilo "12Q".
Sebbene non abbia molto senso avere una singola macchina virtuale che monopolizza l'intera L40S, possiamo vedere che le prestazioni sono impressionanti a 21.147 punti nel benchmark GPU a passaggio singolo. Tuttavia, dividere la GPU in quattro parti mostra l'impatto dell'approccio di time-slicing di NVIDIA alla condivisione dei core CUDA della GPU, con punteggi individuali che vanno da 2.514 a 2.567 quando il benchmark è stato eseguito contemporaneamente su tutte le VM.
Rieseguendo il test su una singola macchina virtuale con il profilo "12Q", e le altre tre VM inattive, il punteggio torna a 15.133. Non è esattamente un ritorno al punteggio della GPU completa, ma è comunque rispettabile per una vGPU partizionata.
Benchmark Blender
Continuiamo con alcuni benchmark di rendering aggiuntivi con Blender. Seguendo tendenze simili a Cinebench 2024, dividere la GPU in quattro parti si traduce in prestazioni totali drasticamente inferiori rispetto a una singola macchina virtuale che esegue lo stesso carico di lavoro nello stesso profilo.
Come dimostrato nel benchmark Monster, solo quattro VM che condividono la potenza di calcolo della GPU significano che le prestazioni di rendering individuali possono essere solo l'8% di una singola VM con lo stesso profilo. Tuttavia, abbiamo osservato una macchina virtuale guadagnare un bel vantaggio sulle altre, fino a 2,4 volte il punteggio del peggior performer.
I benchmark Junkshop e Classroom raccontano storie simili, con grandi cali di prestazioni per tre delle quattro VM e un singolo guest che ottiene un punteggio molto più alto degli altri.
Beijing Qianxing Jietong Technology Co., Ltd.
Sandy Yang/Global Strategy Director
WhatsApp / WeChat: +86 13426366826
Email: yangyd@qianxingdata.com
Sito web: www.qianxingdata.com/www.storagesserver.com
Focus aziendale:
Distribuzione prodotti ICT/Integrazione di sistemi e servizi/Soluzioni infrastrutturali
Con oltre 20 anni di esperienza nella distribuzione IT, collaboriamo con i principali marchi globali per fornire prodotti affidabili e servizi professionali.
"Usare la tecnologia per costruire un mondo intelligente" Il tuo fornitore di servizi di prodotti ICT di fiducia!



