Cloudera nombrada líder en el informe The Forrester Wave™: Data Fabric Platforms, 4T 2025

Leer informe
  • Cloudera Cloudera
  • Impulsa el desarrollo y la implantación de la IA a la vez que protege todas las fases de su ciclo de vida.

    Gracias a los microservicios NVIDIA NIM, Cloudera AI Inference Service ofrece un rendimiento líder en el mercado, con una velocidad de inferencia hasta 36 veces superior en las GPU NVIDIA y casi 4 veces superior en las CPU, lo que agiliza la gestión y el gobierno de la IA en nubes públicas y privadas.

    Diagrama de AI Inference Service

    Un servicio para todas tus necesidades de inferencia de IA empresarial

    Implementa con un solo clic: Traslada tu modelo de la fase de desarrollo a la de producción con rapidez, independientemente del entorno.

    Un entorno seguro: Obtén una seguridad integral sólida que cubra todas las fases del ciclo de vida de tu IA.

    Una plataforma: Gestiona sin problemas todos tus modelos a través de una única plataforma que se encarga de todas tus necesidades de IA.

    Soporte integral: Recibe asistencia unificada de Cloudera para todas tus preguntas sobre hardware y software.

    Características clave de AI Inference Service

    Compatibilidad con nubes híbridas y múltiples

    Permite la implantación en entornos locales*, de nube pública e híbridos, y satisface con flexibilidad las diversas necesidades de infraestructura de las empresas.

    Datos detallados y linaje del modelo*

    Proporciona un seguimiento y una documentación exhaustivos de las transformaciones de datos y los eventos del ciclo de vida del modelo, lo que mejora la reproducibilidad y la auditabilidad.

    Seguridad de nivel empresarial

    Implementa medidas de seguridad sólidas, como autenticación, autorización* y cifrado de datos, para garantizar que los datos y los modelos están protegidos en movimiento y en reposo.

    Capacidades de inferencia en tiempo real

    Obtén predicciones en tiempo real con baja latencia y procesamiento por lotes para conjuntos de datos más grandes, lo que te permite servir modelos de IA basados en diferentes métricas de rendimiento con flexibilidad.

    Alta disponibilidad y escalado dinámico

    Gestiona cargas variables de manera eficiente, y garantiza un servicio continuo con configuraciones de alta disponibilidad y capacidades de escalado dinámico.

    Integración flexible

    Integra fácilmente los flujos de trabajo y las aplicaciones existentes con las API del protocolo de inferencia abierto para modelos ML tradicionales y con una API compatible con OpenAI para LLM.

    Compatibilidad con varios marcos de IA

    Implementa fácilmente una amplia variedad de tipos de modelos mediante la integración de marcos de ML populares como TensorFlow, PyTorch, Scikit-learn y Hugging Face Transformers.

    Patrones de implementación avanzados

    Despliega de forma segura e incremental nuevas versiones de modelos con estrategias de implementación sofisticadas, como las implementaciones canary y blue-green*, así como las pruebas A/B*.

    API abiertas

    Implementa, gestiona y supervisa modelos y aplicaciones en línea*, y facilita la integración con canalizaciones CI/CD y otras herramientas MLOps gracias al cumplimiento de estándares abiertos.

    Monitorización del negocio*

    Supervisa continuamente las métricas del modelo de IA generativa, como el sentimiento, los comentarios de los usuarios y la deriva, que son fundamentales para mantener la calidad y el rendimiento del modelo.

    * Función disponible próximamente. Por favor, ponte en contacto con nosotros para obtener más información.

    Características clave de AI Inference Service

    Compatibilidad con nubes híbridas y múltiples

    Permite la implantación en entornos locales*, de nube pública e híbridos, y satisface con flexibilidad las diversas necesidades de infraestructura de las empresas.

    Datos detallados y linaje del modelo*

    Proporciona un seguimiento y una documentación exhaustivos de las transformaciones de datos y los eventos del ciclo de vida del modelo, lo que mejora la reproducibilidad y la auditabilidad.

    Seguridad de nivel empresarial

    Implementa medidas de seguridad sólidas, como autenticación, autorización* y cifrado de datos, para garantizar que los datos y los modelos están protegidos en movimiento y en reposo.

    Capacidades de inferencia en tiempo real

    Obtén predicciones en tiempo real con baja latencia y procesamiento por lotes para conjuntos de datos más grandes, lo que te permite servir modelos de IA basados en diferentes métricas de rendimiento con flexibilidad.

    Alta disponibilidad y escalado dinámico

    Gestiona cargas variables de manera eficiente, y garantiza un servicio continuo con configuraciones de alta disponibilidad y capacidades de escalado dinámico.

    Integración flexible

    Integra fácilmente los flujos de trabajo y las aplicaciones existentes con las API del protocolo de inferencia abierto para modelos ML tradicionales y con una API compatible con OpenAI para LLM.

    Compatibilidad con varios marcos de IA

    Implementa fácilmente una amplia variedad de tipos de modelos mediante la integración de marcos de ML populares como TensorFlow, PyTorch, Scikit-learn y Hugging Face Transformers.

    Patrones de implementación avanzados

    Despliega de forma segura y gradual nuevas versiones de modelos con estrategias de implementación sofisticadas, como las implementaciones canary y blue-green*, así como las pruebas A/B*.

    API abiertas

    Implementa, gestiona y supervisa modelos y aplicaciones*, y facilita la integración con canalizaciones CI/CD y otras herramientas MLOps con API compatibles con estándares abiertos.

    Monitorización del negocio*

    Monitoriza continuamente las métricas clave del modo de IA generativa, como el sentimiento, los comentarios de los usuarios y la deriva, que son fundamentales para mantener la calidad y el rendimiento del modelo.

    * Función disponible próximamente. Ponte en contacto con nosotros para obtener más información.

    Demostración

    Experimenta por ti mismo la implementación de modelos sin esfuerzo

    Descubre lo fácil que es implementar modelos de lenguaje de gran tamaño con las potentes herramientas de Cloudera para gestionar eficazmente aplicaciones de IA a gran escala.

    Integración del registro de modelos: accede, almacena, versiona y gestiona modelos a través del repositorio centralizado Cloudera AI Registry.

    Configuración e implementación sencillas: implementa modelos en entornos en la nube, configura endpoints y ajusta el escalado automático para aumentar la eficacia.

    Supervisión del rendimiento: resuelve problemas y optimiza a partir de métricas clave como la latencia, el rendimiento, la utilización de recursos y el estado del modelo.

    headshot of Sanjeev Mohan
    Cloudera AI Inference te permite aprovechar todo el potencial de los datos a escala con la experiencia en IA de NVIDIA y salvaguardarlos con funciones de seguridad de nivel empresarial para que puedas proteger tus datos y ejecutar cargas de trabajo en el entorno local o en la nube con confianza, todo ello a la vez que implementas modelos de IA de manera eficiente con la flexibilidad y el gobierno necesarios.

    —Sanjeev Mohan, Analista principal, SanjMo

    Participe

    Documentación

    Recursos y guías para empezar

    La documentación del servicio Cloudera AI Inference proporciona toda la información necesaria, desde descripciones detalladas de las funciones hasta útiles guías de implementación, para que puedas empezar a trabajar cuanto antes.

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.