AMD ha rilasciato ufficialmente l'Instinct MI350P, un nuovo acceleratore PCIe su misura per gli utenti aziendali che cercano inferenze di IA on-premise senza revisioni della loro infrastruttura di data center esistente.di cilindrata inferiore o uguale a 600 cm3Questa scheda grafica, di altezza e formato completo, è pienamente compatibile con i server convenzionali raffreddati ad aria.Segna anche il primo rilascio di AMD di un chip Instinct di generazione attuale progettato per slot server standard in quasi quattro anni..
AMD Instinct MI350P
La linea di prodotti Instinct basata su PCIe di AMD è rimasta stagnante dopo il lancio del MI210 all'inizio del 2022.moduli con prese OAM adottati montati su tavole base universali dedicateQuesti moduli richiedono un alloggiamento personalizzato con una robusta distribuzione di energia e un flusso d'aria per supportare fino a otto acceleratori di classe 1.000W in un singolo vassoio.Tale architettura hardware si adatta ai fornitori di cloud hyperscale che acquistano rack GPU in massa, ma non è in grado di soddisfare le imprese normali che non vogliono o non sono in grado di implementare rack di IA su misura per le attività di inferenza in loco.NVIDIA non ha un concorrente PCIe di livello server di fascia alta in questo segmento, lasciando temporaneamente esclusiva AMD sul mercato.
Confronto hardware: MI350P contro MI350X OAM
Il MI350P non è una variante ridotta del MI350X; AMD ha progettato un chip automatizzato indipendente per questo nuovo modello.Il MI350X integra due matrici I/O accoppiate con otto matrici complesse acceleratori (XCD), fornendo 256 unità di calcolo in totale. Al contrario, l'MI350P contiene una matrice I/O e quattro XCD, pari a 128 unità di calcolo. Nonostante la dimezzatura della scala del silicio, mantiene un identico 2.Frequenza di clock di picco di 2 GHz come controparte di livello superioreLa configurazione della memoria segue la stessa specifica declassata: quattro stack HBM3E (rispetto a otto), un bus di memoria a 4.096 bit (in calo da 8.192 bit),con capacità di memoria di 144 GB e larghezza di banda di 4 TB/s, rispetto ai MI350X ′ 288GB e 8 TB/s.
AMD Instinct MI350P architettura
Il picco di throughput di calcolo è anche ridotto della metà. Il MI350P raggiunge 4.600 MXFP4 TFLOPS rispetto al MI350X® 9.2 PFLOPS, insieme a 2.300 FP8 TFLOPS rispetto al modello premium® 4.6 PFLOPS.Metrici di prestazione per il BF16, FP16 e altri standard di precisione seguono lo stesso declino proporzionale.299 TFLOPS sotto MXFP4, 1.529 TFLOPS sotto FP8 e 713 TFLOPS sotto BF16.dove i vincoli di potenza e i limiti di larghezza di banda della memoria inevitabilmente riducono le prestazioni teoriche di picco.
Il team editoriale ha precedentemente valutato la piattaforma MI350X tramite il programma Jumpstart di Supermicro e ha riconosciuto le sue robuste capacità di carico di lavoro di inferenza.Il team è desideroso di condurre i test pratici del MI350P, analizzando le prestazioni di questo acceleratore PCIe-form-factor all'interno del telaio del server standard.
Il MI350P non presenta una riduzione della potenza del 50% nonostante la sua scala in silicio dimezzata.Questa potenza di picco raggiunge il limite superiore delle specifiche PCIe CEMPer i server con raffreddamento insufficiente è disponibile una modalità di funzionamento ridotta di 450 W, accompagnata da moderati tagli di prestazione.posizionati nella stessa staffa di potenza, il MI350P è in diretta concorrenza con NVIDIA's H200 NVL e RTX Pro 6000 Server per gli appalti aziendali.
A differenza di NVIDIA H200 con interconnessioni ad alta velocità NVL4, il MI350P disabilita l'esposizione Infinity Fabric.
Implementazione con raffreddamento ad aria di otto GPU
Come scheda PCIe FHFL a doppia fessura standard, il MI350P è compatibile con i server aziendali esistenti.compresi i Dell PowerEdge XE7740 e HPE ProLiant DL380a Gen12 precedentemente recensitiOttimizzate per gli acceleratori da 600W, queste piattaforme non richiedono scaffali personalizzati, raffreddamento liquido o assi OAM.
Una configurazione MI350P da otto schede offre 1.152 GB di HBM3E e 32 TB/s di larghezza di banda aggregata, sufficiente per ospitare modelli da trilioni di parametri in precisione MXFP4 all'interno di un telaio raffreddato ad aria.Sacrifica tessuti dedicati alla scalazioneMentre l'MI350X utilizza Infinity Fabric per la comunicazione inter-module veloce, l'MI350P si basa esclusivamente su PCIe Gen5.Questa architettura si adatta al parallelismo del tensore locale-nodo e al parallelismo dei dati tra nodi per l'inferenza, mentre il MI350X basato su OAM rimane superiore per le attività di addestramento dell'intelligenza artificiale ad alta larghezza di banda.
Formati di precisione
Il MI350P eredita tutti i formati di precisione dal MI350X senza aggiornamenti.consentire una formazione di bassa precisione con un degrado di qualità trascurabile. MXFP4 offre oltre il doppio della velocità di FP8 e quattro volte il throughput di BF16. Casi del mondo reale come OpenAI gpt-oss e Kimi K2.6 dimostrano il valore della quantizzazione nativa a basso bit.Poiché i pesi MXFP4 e INT4 occupano solo il 25% dello spazio di memoria BF16, i modelli a trilioni di parametri possono essere distribuiti all'interno di un singolo server a otto GPU, eliminando ingombranti cluster multi-nodo per le imprese in loco.
Conclusioni
La maggior parte delle aziende di IA on-premise sono limitate da potenza, raffreddamento, densità e budget piuttosto che da capacità di calcolo grezza.Con NVIDIA che manca di una GPU per server PCIe di punta in questo segmento, AMD conserva per il momento un chiaro vantaggio competitivo. Ulteriori dettagli sono disponibili sul sito web ufficiale di AMD Instinct.
Beijing Qianxing Jietong Technology Co., Ltd.
Sandy Yang, direttore della strategia globale
WhatsApp / WeChat: +86 13426366826
Email: yangyd@qianxingdata.com
Sito web: www.qianxingdata.com/www.storagesserver.com
Affari:
Distribuzione di prodotti TIC/integrazione di sistemi e servizi/soluzioni infrastrutturali
Con oltre 20 anni di esperienza nella distribuzione IT, collaboriamo con i principali marchi globali per fornire prodotti affidabili e servizi professionali.
Utilizzare la tecnologia per costruire un mondo intelligenteIl vostro fornitore di servizi di prodotti ICT di fiducia!
Sandy Yang, direttore della strategia globale
WhatsApp / WeChat: +86 13426366826
Email: yangyd@qianxingdata.com
Sito web: www.qianxingdata.com/www.storagesserver.com
Affari:
Distribuzione di prodotti TIC/integrazione di sistemi e servizi/soluzioni infrastrutturali
Con oltre 20 anni di esperienza nella distribuzione IT, collaboriamo con i principali marchi globali per fornire prodotti affidabili e servizi professionali.
Utilizzare la tecnologia per costruire un mondo intelligenteIl vostro fornitore di servizi di prodotti ICT di fiducia!



