Abilitare l’AI on-premises con storage all-flash NVMe e opzioni di accelerazione GPU NVIDIA® RTX™
Autore: Redazione ChannelCity
Con la sovranità dei dati e le prestazioni di calcolo che diventano fattori strategici per le aziende che adottano l’AI, la domanda di infrastrutture AI private e on‑premises è in continua crescita.
In risposta a questa evoluzione, QNAP Systems ha presentato il QAI-h1290FX, un server di storage Edge AI di nuova generazione progettato per supportare il deployment privato di Large Language Model (LLM), motori di ricerca basati su Retrieval-Augmented Generation (RAG) e applicazioni di AI generativa.
Basato su processori AMD EPYC di classe server, con supporto per accelerazione GPU NVIDIA RTX e dodici slot U.2 NVMe/SATA SSD, il QAI-h1290FX offre un’infrastruttura AI on-prem ad alte prestazioni per organizzazioni che richiedono inferenza a bassa latenza, piena privacy dati e controllo operativo-senza dipendere dal cloud.
Grazie al sistema operativo QuTS hero basato su ZFS di QNAP, il QAI-h1290FX garantisce integrità dati di livello enterprise, snapshot praticamente illimitati e deduplicazione inline. Supporta l’accesso nativo alla GPU nei container tramite Container Station e il passthrough GPU per le macchine virtuali tramite Virtualization Station. I team IT, gli sviluppatori e i gruppi di ricerca possono eseguire in modo efficiente modelli di inferenza, applicazioni di Generative AI e pipeline RAG con pieno controllo su prestazioni e allocazione delle risorse.
Il QAI-h1290FX include una selezione curata di strumenti AI preinstallati come AnythingLLM, OpenWebUI e Ollama, consentendo un rapido deployment di workflow LLM privati. Sono inoltre in fase di integrazione ulteriori applicazioni AI come Stable Diffusion, ComfyUI, n8n e vLLM, per ampliare le funzionalità. Questo permette agli utenti di costruire rapidamente piattaforme AI on‑prem e automatizzare i workflow in un ambiente sicuro, scalabile e completamente sotto controllo.
“Il QAI-h1290FX risponde alla crescente domanda di infrastrutture AI on-premises”, ha dichiarato Oliver Lam, Product Manager di QNAP. “Volevamo eliminare le difficoltà nella creazione di una workstation GPU, nell’installazione degli strumenti e nella configurazione di ambienti complessi. Con il QAI-h1290FX, gli utenti possono distribuire ed eseguire i propri modelli AI subito, con il pieno controllo dei propri dati e senza alcuna dipendenza dal cloud.”
Con QAI-h1290FX, QNAP offre una soluzione pratica e ad alte prestazioni per implementare l’AI generativa all’interno dei confini aziendali. Sia che venga utilizzato in ambito legale, HR, creativo o IT, consente ai team di lavorare più velocemente, rimanere conformi alle normative e mantenere il pieno controllo sulla propria strategia AI-direttamente all’edge.