▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

: Scopri i vincitori di Italian Channel Awards 2025

QNAP presenta QAI-h1290FX, server Edge AI per LLM privati e Generativa on-prem

Abilitare l’AI on-premises con storage all-flash NVMe e opzioni di accelerazione GPU NVIDIA® RTX™

Prodotti

Con la sovranità dei dati e le prestazioni di calcolo che diventano fattori strategici per le aziende che adottano l’AI, la domanda di infrastrutture AI private e on‑premises è in continua crescita.

In risposta a questa evoluzione, QNAP Systems ha presentato il QAI-h1290FX, un server di storage Edge AI di nuova generazione progettato per supportare il deployment privato di Large Language Model (LLM), motori di ricerca basati su Retrieval-Augmented Generation (RAG) e applicazioni di AI generativa.

Basato su processori AMD EPYC di classe server, con supporto per accelerazione GPU NVIDIA RTX e dodici slot U.2 NVMe/SATA SSD, il QAI-h1290FX offre un’infrastruttura AI on-prem ad alte prestazioni per organizzazioni che richiedono inferenza a bassa latenza, piena privacy dati e controllo operativo-senza dipendere dal cloud.

Grazie al sistema operativo QuTS hero basato su ZFS di QNAP, il QAI-h1290FX garantisce integrità dati di livello enterprise, snapshot praticamente illimitati e deduplicazione inline. Supporta l’accesso nativo alla GPU nei container tramite Container Station e il passthrough GPU per le macchine virtuali tramite Virtualization Station. I team IT, gli sviluppatori e i gruppi di ricerca possono eseguire in modo efficiente modelli di inferenza, applicazioni di Generative AI e pipeline RAG con pieno controllo su prestazioni e allocazione delle risorse.

Il QAI-h1290FX include una selezione curata di strumenti AI preinstallati come AnythingLLM, OpenWebUI e Ollama, consentendo un rapido deployment di workflow LLM privati. Sono inoltre in fase di integrazione ulteriori applicazioni AI come Stable Diffusion, ComfyUI, n8n e vLLM, per ampliare le funzionalità. Questo permette agli utenti di costruire rapidamente piattaforme AI on‑prem e automatizzare i workflow in un ambiente sicuro, scalabile e completamente sotto controllo.

“Il QAI-h1290FX risponde alla crescente domanda di infrastrutture AI on-premises”, ha dichiarato Oliver Lam, Product Manager di QNAP. “Volevamo eliminare le difficoltà nella creazione di una workstation GPU, nell’installazione degli strumenti e nella configurazione di ambienti complessi. Con il QAI-h1290FX, gli utenti possono distribuire ed eseguire i propri modelli AI subito, con il pieno controllo dei propri dati e senza alcuna dipendenza dal cloud.”

Caratteristiche principali del QAI-h1290FX

  • Architettura Storage All-Flash: Dodici bay U.2 NVMe/SATA SSD consentono un I/O ultra-veloce per l’esecuzione ad alta frequenza di modelli AI e lo streaming di dati.
  • Processore AMD EPYC 7302P 16-core: Offre 32 thread di potenza di calcolo server-class-ideale per inferenza AI, Virtualizzazione e carichi di lavoro paralleli pesanti.
  • Architettura pronta per GPU: Supporta GPU workstation opzionale NVIDIA RTX PRO 6000 Blackwell Max-Q, con fino a 96GB di memoria GPU e supporto per accelerazioni CUDA®, TensorRT™ e Transformer Engine-incrementando notevolmente le prestazioni per inferenza LLM on-prem, generazione immagini e workload di deep learning.
  • Ambiente AI containerizzato e gestione risorse GPU: Supporta Docker e LXD con allocazione GPU intuitiva. Gli utenti possono avviare rapidamente strumenti AI tramite il App Center AI integrato e assegnare risorse GPU senza configurazione da riga di comando.
  • Deployment completamente locale senza dipendenza dal cloud: Esegui assistenti AI, motori di ricerca documenti o knowledge base completamente on-premises. Mantieni i dati sensibili in sede accelerando i flussi di lavoro AI.
  • Architettura di Rete ad alta velocità e scalabile: Dotato di doppia porta 25GbE e doppia porta 2,5GbE. Gli slot PCIe supportano upgrade opzionali a 100GbE. Compatibile con le unità di espansione JBOD QNAP per lo storage AI su larga scala.

Principali casi d’uso

  • Assistenti AI interni / Interfacce chat on-prem - distribuisce interfacce di AI conversazionale per la ricerca di informazioni, la formazione dei dipendenti e Q&A sulle policy aziendali-tutto sotto il tuo controllo.
  • Ricerca RAG aziendale - sfrutta pipeline RAG private per eseguire ricerche rapide e contestuali su contratti, report e documenti interni.
  • Generazione di immagini per team creativi - esegue Stable Diffusion o ComfyUI per flussi di lavoro di design e generazione di contenuti visivi basati su AI.
  • Automazione IT guidata da AI - usa n8n per automatizzare attività di inferenza, generazione di contenuti o avvisi-integrando l’AI senza problemi nei processi aziendali.

Con QAI-h1290FX, QNAP offre una soluzione pratica e ad alte prestazioni per implementare l’AI generativa all’interno dei confini aziendali. Sia che venga utilizzato in ambito legale, HR, creativo o IT, consente ai team di lavorare più velocemente, rimanere conformi alle normative e mantenere il pieno controllo sulla propria strategia AI-direttamente all’edge.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato
Iscriviti alla nostra Newsletter Gratuita. Iscriviti
GoogleNews Rimani sempre aggiornato, seguici su Google News! Seguici
Abbonati alla rivista ChannelCity Magazine e ricevi la tua copia.

Notizie correlate

Iscriviti alla nostra newsletter

Mantieniti aggiornato sul mondo del canale ICT

Iscriviti alla newsletter

www.channelcity.it - 8.5.0 - 4.6.4