
Taipei, Taiwán, 30 de abril de 2026 – A medida que la soberanía de los datos y el rendimiento informático se convierten en diferenciadores estratégicos para las empresas que adoptan la IA, la demanda de infraestructura de IA privada y local sigue creciendo. En respuesta a este cambio, QNAP® Systems, Inc., empresa líder en innovación en soluciones informáticas, de red y de almacenamiento, ha presentado hoy el QAI-h1290FX, un servidor de almacenamiento de IA de vanguardia de última generación diseñado para potenciar la implementación privada de modelos de lenguaje a gran escala (LLM), motores de búsqueda de generación aumentada por recuperación (RAG) y aplicaciones de IA generativa.
Equipado con procesadores AMD EPYC™ de nivel servidor, compatibilidad con la aceleración por GPU NVIDIA® RTX™ y doce ranuras para SSD U.2 NVMe/SATA, el QAI-h1290FX ofrece una infraestructura de IA local de alto rendimiento para organizaciones que requieren inferencia de baja latencia, total privacidad de los datos y control operativo, sin depender de la nube.
Equipado con el sistema operativo QuTS hero basado en ZFS de QNAP, el QAI-h1290FX ofrece integridad de datos de nivel empresarial, instantáneas prácticamente ilimitadas y deduplicación en línea. Admite el acceso nativo a la GPU en contenedores a través de Container Station y el paso directo de la GPU para máquinas virtuales mediante Virtualization Station. Los equipos de TI, los desarrolladores y los grupos de investigación pueden ejecutar de manera eficiente modelos de inferencia, aplicaciones de IA generativa y canalizaciones RAG con un control total sobre el rendimiento y la asignación de recursos.
El QAI-h1290FX incluye una selección de herramientas de IA precargadas, como AnythingLLM, OpenWebUI y Ollama, lo que permite una rápida implementación de flujos de trabajo LLM privados. También se están integrando aplicaciones de IA adicionales como Stable Diffusion, ComfyUI, n8n y vLLM para ampliar la funcionalidad. Esto permite a los usuarios crear rápidamente plataformas de IA locales y automatizar flujos de trabajo en un entorno seguro, escalable y totalmente controlado.
«El QAI-h1290FX responde a la creciente demanda de infraestructura de IA local», afirmó Oliver Lam, director de producto de QNAP. «Queríamos eliminar las dificultades que supone montar una estación de trabajo con GPU, instalar herramientas y configurar entornos complejos. Con el QAI-h1290FX, los usuarios pueden implementar y ejecutar sus modelos de IA nada más sacarlo de la caja, con pleno control sobre sus datos y sin depender en absoluto de la nube».
Características principales del QAI-h1290FX
- Arquitectura de almacenamiento all- flash: Doce ranuras para SSD U.2 NVMe/SATA permiten una E/S ultrarrápida para la ejecución de modelos de IA de alta frecuencia y la transmisión de datos.
- Procesador AMD EPYC™ 7302P de 16 núcleos: Ofrece 32 subprocesos de potencia de cálculo de clase servidor, ideal para inferencia de IA, virtualización y cargas de trabajo paralelas intensivas.
- Arquitectura preparada para GPU: Admite la GPU opcional NVIDIA RTX PRO™ 6000 Blackwell Max-Q para estaciones de trabajo, con hasta 96 GB de memoria de GPU y compatibilidad con la aceleración de CUDA®, TensorRT™ y Transformer Engine, lo que aumenta significativamente el rendimiento para la inferencia de LLM local, la generación de imágenes y las cargas de trabajo de aprendizaje profundo.
- Entorno de IA en contenedores y gestión de recursos de GPU: Admite Docker y LXD con una asignación intuitiva de GPU. Los usuarios pueden iniciar rápidamente herramientas de IA a través del centro de aplicaciones de IA integrado y asignar recursos de GPU sin necesidad de configuración mediante la línea de comandos.
- Implementación totalmente local sin dependencia de la nube: Ejecute asistentes de chat basados en IA, motores de búsqueda de documentos o bases de conocimiento íntegramente en las instalaciones. Mantenga los datos confidenciales en la empresa mientras acelera los flujos de trabajo de IA.
- Redes de alta velocidad y arquitectura escalable: Incluye dos puertos de 25 GbE y dos de 2,5 GbE. Las ranuras PCIe admiten actualizaciones opcionales a 100 GbE. Compatible con las cajas de expansión JBOD de QNAP para el almacenamiento de datos de IA a gran escala.
Aspectos destacados de los casos de uso
- Asistentes internos de IA / Interfaces de chat locales
Implementa interfaces de IA conversacional para la búsqueda de información, la formación de empleados y las preguntas y respuestas sobre políticas, todo ello bajo tu control total. - Búsqueda RAG empresarial
Aprovecha los flujos de trabajo RAG privados para realizar búsquedas rápidas y contextuales en contratos, informes y documentos internos. - Generación de imágenes para equipos creativos
Ejecute Stable Diffusion o ComfyUI para flujos de trabajo de diseño impulsados por IA y generación de contenido visual. - Automatización de TI impulsada por IA
Utilice n8n para automatizar tareas de inferencia, generación de contenido o alertas, integrando la IA a la perfección en los procesos empresariales.
Con el QAI-h1290FX, QNAP ofrece una vía práctica y de alto rendimiento para implementar la IA generativa dentro de los límites de la empresa. Ya sea en operaciones legales, de RR. HH., creativas o de TI, ayuda a los equipos a avanzar más rápido, cumplir con la normativa y mantener un control total sobre su estrategia de IA, directamente en el borde.
Para obtener más información y ver la gama completa de QNAP, visite www.qnap.com.
Acerca de QNAP
QNAP ofrece soluciones tecnológicas integradas a través de la innovación en software, la artesanía en hardware y la fabricación interna. Con fortalezas en almacenamiento, redes y videovigilancia inteligente, QNAP también integra servicios en la nube para mejorar la seguridad de los datos, la inteligencia y la eficiencia del flujo de trabajo. Visualizamos el NAS como una plataforma central que unifica alta disponibilidad, ciberseguridad, IA en el borde, resiliencia IT/OT y gestión en la nube, empoderando a las organizaciones de todos los sectores para mantenerse competitivas en un mundo digital en rápida evolución.
Deja una respuesta
Lo siento, debes estar conectado para publicar un comentario.