logo
Casa Casi

QNAP presenta QAI-h1290FX Edge AI Storage Server per LLM privati e carichi di lavoro generativi di AI

Certificazione
Cina Beijing Qianxing Jietong Technology Co., Ltd. Certificazioni
Cina Beijing Qianxing Jietong Technology Co., Ltd. Certificazioni
Rassegne del cliente
Il personale di vendita della tecnologia il Co., srl di Pechino Qianxing Jietong è molto professionale e paziente. Possono fornire rapidamente le citazioni. La qualità e l'imballaggio dei prodotti sono inoltre molto buoni. La nostra cooperazione è molto regolare.

—— LLC del》 di Festfing DV del 《

Quando stavo cercando urgentemente il CPU di Intel e lo SSD di Toshiba, sabbioso dalla tecnologia il Co., srl di Pechino Qianxing Jietong mi ha dato molto aiuto e mi ha ottenuto i prodotti che ho avuto bisogno di rapidamente. Realmente la apprezzo.

—— Kitty Yen

Sabbioso della tecnologia il Co., srl di Pechino Qianxing Jietong è un rappresentante molto attento, che può ricordarmi degli errori di configurazione a tempo in cui compro un server. Gli ingegneri sono inoltre molto professionali e possono realizzare rapidamente il processo difficile.

—— Strelkin Mikhail Vladimirovich

Siamo molto soddisfatti della nostra esperienza di lavoro con Beijing Qianxing Jietong. La qualità del prodotto è eccellente e la consegna è sempre puntuale. Il loro team di vendita è professionale, paziente e molto disponibile con tutte le nostre domande. Apprezziamo molto il loro supporto e non vediamo l'ora di una partnership a lungo termine. Altamente raccomandato!

—— Ahmad Navid

Qualità: “Grande esperienza con il mio fornitore. Il MikroTik RB3011 era già usato, ma era in ottime condizioni e tutto funzionava perfettamente.e tutte le mie preoccupazioni sono state affrontate rapidamente- Un fornitore molto affidabile.

—— Geran Colesio

Sono ora online in chat

QNAP presenta QAI-h1290FX Edge AI Storage Server per LLM privati e carichi di lavoro generativi di AI

May 11, 2026

QNAP Systems ha presentato il QAI-h1290FX, un server di archiviazione AI edge progettato per le aziende che cercano di implementare grandi modelli linguistici,Carichi di lavoro di ricerca e IA generativa basati su RAG su infrastrutture private. Ottimizzato per la privacy dei dati, il trattamento a bassa latenza, la conformità normativa e il controllo operativo locale,l'hardware consente alle aziende di eseguire flussi di lavoro di IA in locale senza trasferire dati sensibili in ambienti cloud pubblici.

ultimo caso aziendale circa QNAP presenta QAI-h1290FX Edge AI Storage Server per LLM privati e carichi di lavoro generativi di AI  0

QNAP QAI h1290FX pannello anteriore


Il QAI-h1290FX consente alle imprese di creare assistenti interni di IA per la formazione del personale, l'indagine sulle politiche e il recupero delle conoscenze interne mantenendo i dati grezzi confinati entro i confini aziendali.Legittimo, i dipartimenti finanziari, delle risorse umane e operativi possono costruire pipeline private di RAG per analizzare contratti, relazioni e archivi interni,fornire informazioni più contestuali rispetto alla ricerca convenzionale di parole chiaveI team creativi possono utilizzare strumenti di immagine generativi tra cui Stable Diffusion e ComfyUI per semplificare i flussi di lavoro di progettazione,mentre gli amministratori IT possono sfruttare piattaforme di automazione come n8n per eseguire inferenze di IA, generare contenuti e inviare avvisi di sistema attraverso le infrastrutture aziendali.

QNAP QAI-h1290FX Componenti, espansione e I/O


alimentato da una CPU AMD EPYC 7302P e dotato di dodici unità U.2 NVMe/SATA SSD,il QAI-h1290FX integra la potenza di calcolo di livello enterprise con un'architettura di archiviazione all flash su misura per le attività di IA sensibili alla latenzaQuesto processore a 16 core e 32 thread supporta l'inferenza AI, la virtualizzazione e l'elaborazione parallela multi-task.flusso continuo di dati e accesso rapido ai set di dati, inserimenti, documenti e output generati dall'IA.

ultimo caso aziendale circa QNAP presenta QAI-h1290FX Edge AI Storage Server per LLM privati e carichi di lavoro generativi di AI  1

Il server supporta opzionalmente la GPU NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation, offrendo fino a 96 GB di VRAM per gestire carichi di lavoro locali ad alta intensità di risorse.Accelerazione del TensorRT e del motore del trasformatore, il sistema facilita l'inferenza LLM in loco, la sintesi di immagini e il calcolo di deep learning, eliminando la necessità di postazioni di lavoro GPU costruite indipendentemente.

QNAP QAI h1290FX pannello posteriore


Il QAI-h1290FX è dotato di reti di livello enterprise, tra cui due porte SmartNIC 25GbE SFP28 e due porte 2.5GbE con capacità Wake-on-LAN.quattro slot PCIe Gen 4 sono disponibili 3 slot x16 e 1 slot x8 supportano adattatori di rete aggiornatiLe specifiche I/O aggiuntive coprono tre porte USB 3.2 Gen 1, trasmissione jumbo frame, SR-IOV e pass-through GPU.I suoi dodici bacini di trasmissione supportano universalmente 2SSD SATA da 5 pollici e supporti di memorizzazione U.2 NVMe PCIe Gen4 x4.


ultimo caso aziendale circa QNAP presenta QAI-h1290FX Edge AI Storage Server per LLM privati e carichi di lavoro generativi di AI  2
ultimo caso aziendale circa QNAP presenta QAI-h1290FX Edge AI Storage Server per LLM privati e carichi di lavoro generativi di AI  3
ultimo caso aziendale circa QNAP presenta QAI-h1290FX Edge AI Storage Server per LLM privati e carichi di lavoro generativi di AI  4


QNAP Systems ha introdotto il QAI-h1290FX, un server di archiviazione AI edge progettato per le aziende che implementano LLM, ricerca RAG e AI generativa su infrastrutture private.bassa latenza e governance locale, il sistema consente alle aziende di eseguire in modo sicuro i carichi di lavoro di IA senza inviare dati sensibili ai cloud pubblici.

QNAP QAI h1290FX pannello anteriore


Il QAI-h1290FX supporta gli assistenti di IA interni per la formazione, le richieste di politica e le ricerche interne di conoscenza, mantenendo i dati entro i confini aziendali.le finanze e le risorse umane possono costruire pipeline RAG private per analizzare documenti interni con un contesto più ricco rispetto alle ricerche di parole chiave di baseI team creativi possono eseguire strumenti di generazione di immagini, mentre il personale IT può utilizzare piattaforme di automazione per innescare inferenze e avvisi di sistema.

QNAP QAI-h1290FX Componenti, espansione e I/O


Dotato di una CPU AMD EPYC 7302P e dodici bacini SSD U.2, questo server all-flash offre prestazioni ottimizzate per i carichi di lavoro di IA.mentre la sua architettura SSD ad alta velocità consente un accesso rapido ai set di dati, inserimenti e file di modelli.

Il sistema supporta opzionalmente la GPU NVIDIA RTX PRO 6000 Blackwell con 96GB VRAM.semplifica l'inferenza LLM locale e l'apprendimento profondo senza richiedere postazioni di lavoro GPU personalizzate.

QNAP QAI h1290FX pannello posteriore


Dispone di due porte 25GbE SFP28 e due porte 2.5GbE, oltre a quattro slot PCIe Gen 4 per l'espansione hardware.GPU pass-through e ampia compatibilità con U.2 SSD NVMe e SATA.

Costruito attorno allo storage veloce, all'accelerazione della GPU e al controllo locale


Eseguendo il sistema operativo QuTS hero basato su ZFS di QNAP, il QAI-h1290FX offre protezione dell'integrità dei dati, snapshot completi e deduplicazione in linea.Queste funzioni si adattano ai carichi di lavoro di IA che elaborano dati ripetuti massicci da documenti, inserzioni, modelli e risorse di formazione.

Gli sviluppatori possono distribuire strumenti AI in container accelerati da GPU tramite Container Station, mentre la Virtualization Station supporta il pass-through GPU basato su VM.bilanciamento dell'agilità dei container e dell'isolamento delle macchine virtuali per diverse esigenze di implementazione.

QNAP integra anche Stable Diffusion, ComfyUI, n8n e vLLM per unificare la generazione di testo.creazione di immagini, l'automazione e l'inferenza su una piattaforma locale.

Un'opzione di infrastruttura locale per i team di IA aziendali


La piattaforma riduce il carico di lavoro manuale per la distribuzione di IA locale, eliminando l'assemblaggio ripetitivo dell'hardware e la configurazione dell'ambiente.Gli utenti possono avviare direttamente le applicazioni AI mantenendo il controllo completo dei dati e riducendo la dipendenza dal cloud.
Compatibile con i contenitori QNAP JBOD, il server consente un'espansione senza soluzione di continuità dello storage per ospitare set di dati in crescita, basi di conoscenze e file generati dall'IA.

Beijing Qianxing Jietong Technology Co., Ltd.
Sandy Yang, direttore della strategia globale
WhatsApp / WeChat: +86 13426366826
Email: yangyd@qianxingdata.com
Sito web: www.qianxingdata.com/www.storagesserver.com
Affari:
Distribuzione di prodotti TIC/integrazione di sistemi e servizi/soluzioni infrastrutturali
Con oltre 20 anni di esperienza nella distribuzione IT, collaboriamo con i principali marchi globali per fornire prodotti affidabili e servizi professionali.
“Utilizzare la tecnologia per costruire un mondo intelligente”Il vostro fornitore di servizi di prodotti ICT di fiducia!
Dettagli di contatto
Beijing Qianxing Jietong Technology Co., Ltd.

Persona di contatto: Ms. Sandy Yang

Telefono: 13426366826

Invia la tua richiesta direttamente a noi (0 / 3000)