ClouderaNOW Descubre los agentes de IA, la expansión a la nube y las estructuras de datos para IA  |  8 de abril

Registrarse
  • Cloudera Cloudera
  • | Socios

    Economía de la IA escalable: cómo lograr una inteligencia híbrida y segura con Cloudera, AMD y Dell Technologies

    Steve Catanzano
    Dos mujeres caminando en una oficina de negocios

    El interés empresarial por la IA generativa y agéntica se ha acelerado drásticamente en los últimos dos años. Organizaciones de distintos sectores están explorando cómo los agentes de IA, los asistentes inteligentes y la automatización pueden mejorar la productividad, agilizar las operaciones y desbloquear información a partir de volúmenes crecientes de datos empresariales. Sin embargo, a medida que crece el entusiasmo, también aumentan las preguntas sobre los costes, la seguridad y la complejidad operativa.

    Cada vez está más claro una cosa: no todas las cargas de trabajo de IA requieren unidades de procesamiento gráfico (GPU) ni modelos fundacionales masivos. De hecho, muchos casos de uso empresariales de alto valor pueden implementarse de forma eficiente con unidades centrales de procesamiento (CPU) y modelos de lenguaje más pequeños orientados a tareas, especialmente cuando se despliegan cerca de los datos a los que dan servicio.

    Un número creciente de organizaciones está reevaluando sus estrategias de IA desde este punto de vista. En lugar de perseguir la escala a cualquier precio, están priorizando el retorno de la inteligencia: la capacidad de desplegar soluciones de IA de forma segura, económica y a gran escala. Este cambio está moldeando la forma en que las empresas piensan sobre la infraestructura, la arquitectura de datos y el gobierno, a medida que la IA pasa de la experimentación a la producción.

    Un cambio en la economía de la IA empresarial

    Una investigación de Enterprise Strategy Group (que ahora forma parte de Omdia) indica que aproximadamente el 80 % de las organizaciones ven a los agentes de IA como una prioridad empresarial máxima o alta. Estos agentes prometen beneficios tangibles mediante la automatización, una toma de decisiones más rápida y una mejor experiencia de los empleados y los clientes. Sin embargo, muchas organizaciones siguen teniendo dificultades con el coste y la carga operativa asociados a los despliegues centrados en GPU.

    La infraestructura basada en GPU puede suponer importantes gastos de capital, consumo de energía y limitaciones en la cadena de suministro. Para muchas cargas de trabajo de inferencia en tiempo real y orientadas al conocimiento, este enfoque puede no ajustarse a las necesidades del negocio. Como resultado, las empresas están explorando cada vez más alternativas que permitan ajustar mejor los recursos de computación a los requisitos de las cargas de trabajo.

    Aquí es donde la IA basada en la CPU, junto con modelos lingüísticos más pequeños, se ha convertido en una opción práctica. En lugar de buscar los modelos más grandes posibles, las organizaciones utilizan los activos que ya poseen para abordar sus retos presupuestarios con la compra o el acceso a GPU. Se trata de adecuar el tamaño de las arquitecturas de IA que enfatizan la eficiencia, la seguridad y la escalabilidad.

    La IA del tamaño correcto y el papel de los modelos de lenguaje pequeños

    Los modelos de lenguaje pequeños (SLM) están diseñados para realizar tareas empresariales específicas como resumen, respuesta a preguntas, generación de contenido y asistencia en código. Los SLM, que suelen contener muchos menos parámetros que los grandes modelos de lenguaje, pueden funcionar eficazmente en las CPU modernas a la vez que ofrecen un gran rendimiento para los casos de uso específicos.

    Este enfoque ofrece varias ventajas. La inferencia basada en la CPU reduce los costes de infraestructura, disminuye el consumo de energía y simplifica la implantación. También permite a las organizaciones ejecutar cargas de trabajo de IA dentro de los centros de datos existentes o en entornos de nube privada, abordando las preocupaciones en torno a la soberanía de los datos y el cumplimiento normativo.

    En este contexto, Cloudera ha orientado su estrategia de IA privada hacia permitir a las empresas implementar y gestionar sistemas de IA íntegramente dentro de sus propios entornos controlados. Al combinar una arquitectura de refugio de datos abiertos con capacidades integradas de gobierno y MLOps, Cloudera apoya el desarrollo de IA que permanece cercano a los datos empresariales.

    Aspectos de infraestructura: CPU y plataformas empresariales

    La eficacia de la IA basada en la CPU depende en gran medida de la infraestructura subyacente. Los avances en los procesadores modernos han mejorado significativamente el rendimiento por dólar de las cargas de trabajo de análisis e inferencia. Los procesadores EPYC™ de AMD, por ejemplo, están diseñados para ofrecer alta densidad de núcleos, gran ancho de banda de memoria y características de seguridad integradas, lo que los hace muy adecuados para inferencia de IA y cargas de trabajo intensivas en datos.

    Cuando se implementan en sistemas de nivel empresarial de Dell Technologies, las organizaciones pueden escalar las cargas de trabajo de IA de manera fiable, a la vez que aprovechan arquitecturas validadas y optimizadas para plataformas de datos e IA. Esta combinación permite a las empresas modernizar las capacidades de IA sin necesidad de rediseñar toda su infraestructura.

    Desde una perspectiva operativa, este modelo permite a las organizaciones reutilizar las inversiones existentes, acelerar los plazos de implantación y reducir la dependencia del hardware especializado. En estos escenarios, el énfasis no está en el tamaño del modelo, sino en la eficacia, la capacidad de respuesta y la confianza.

    Casos de uso prácticos de IA con CPU

    Muchas de las aplicaciones de IA más valiosas de la actualidad pueden ejecutarse eficazmente en CPU sin necesidad de modelos masivos ni aceleración por GPU. Por ejemplo:

    Asistentes de conocimiento interno

    Las empresas suelen almacenar conocimientos críticos en documentos, correos electrónicos y en informes. Al aplicar los SLM a estos datos, las organizaciones pueden facilitar el acceso a la información interna mediante lenguaje natural, lo que mejora la toma de decisiones mientras se mantienen los datos confidenciales en las propias instalaciones.

    Chatbots de asistencia a empleados y agentes

    Los equipos de RR. HH., IT y de atención al cliente se enfrentan a preguntas recurrentes que pueden automatizarse a través de chatbots internos seguros. La IA basada en la CPU permite una asistencia siempre disponible sin introducir la exposición externa de los datos.

    Generación de contenido y documentación

    Los equipos de marketing, cumplimiento e ingeniería suelen producir contenido repetitivo. La generación y el resumen asistidos por la IA pueden acelerar los flujos de trabajo y, al mismo tiempo, mantener la coherencia y el gobierno.

    Soporte para el desarrollo de software

    Los asistentes impulsados por SLM pueden generar fragmentos de código, pruebas y documentación dentro de los firewalls empresariales, ayudando a los equipos de desarrollo a mejorar la productividad sin enviar la propiedad intelectual a servicios públicos de IA.

    Análisis predictivo y optimización

    En fabricación y operaciones, los modelos de IA basados en CPU analizan los datos de sensores y operativos para predecir fallos y optimizar el rendimiento, reduciendo el tiempo de inactividad y los costes operativos.

    La gravedad de los datos y la importancia de la IA en las instalaciones

    A pesar de la adopción generalizada de la nube, una parte significativa de los datos empresariales sigue estando en las instalaciones locales. Un estudio de Omdia indica que muchas organizaciones mantienen entre el 26 % y el 75 % de sus datos en entornos locales o privados. Esta gravedad de los datos plantea desafíos cuando el procesamiento de IA requiere trasladar información confidencial a plataformas externas.

    Las arquitecturas de IA privadas abordan este desafío llevando la IA a los datos y no al revés. Al ejecutar cargas de trabajo de IA dentro de los entornos existentes, las organizaciones reducen la latencia, mejoran el rendimiento y mantienen el cumplimiento de normativas como GDPR, HIPAA y mandatos específicos del sector.

    El enfoque de Cloudera integra la ingesta de datos, el gobierno, la gestión de modelos y el servicio dentro de una única plataforma. Combinado con una infraestructura basada en CPU, esto permite a las empresas pasar de los proyectos piloto a la IA de producción con mayor eficacia.

    De la fase piloto a la producción: evaluación de resultados

    Uno de los principales obstáculos para la adopción de la IA ha sido la brecha existente entre la prueba de concepto y la implementación en producción. Las arquitecturas de IA basadas en CPU ayudan a reducir esta brecha al disminuir el coste y la complejidad operativa.

    Las organizaciones que adoptan este enfoque señalan varios resultados:

    • Menor coste total de propiedad para cargas de trabajo con alta carga de inferencia
    • Ciclos de implementación más rápidos al evitar la adquisición de hardware especializado
    • La reducción del consumo de energía se alinea con los objetivos de sostenibilidad
    • Mejora del ROI mediante una selección de cómputos adecuada a la carga de trabajo

    Estas ventajas refuerzan el consenso cada vez mayor de que el éxito de la IA en las empresas depende tanto de los aspectos económicos y de gobierno como del rendimiento de los modelos.

    Conclusión: un camino práctico para la IA empresarial

    La próxima etapa de la IA empresarial no estará marcada por los modelos más grandes ni por el hardware más potente. Por el contrario, estará marcada por aquellas organizaciones que sean capaces de implementar la IA de manera segura, económica y a gran escala, utilizando arquitecturas adaptadas a las necesidades reales de las empresas.

    Al combinar la plataforma de datos y gobierno de Cloudera con los procesadores AMD EPYC y la infraestructura de Dell Technologies, las empresas disponen de una vía viable para poner en marcha la IA dentro de sus propios entornos. Este enfoque de tamaño adecuado permite a las organizaciones centrarse en los resultados, no en la complejidad de la infraestructura, y desbloquear el valor de la IA donde sus datos ya existen.

    A medida que las empresas sigan trasladando las iniciativas de IA de la experimentación a la producción, es probable que las arquitecturas prácticas de IA privada basadas en CPU desempeñen un papel cada vez más importante.

    Para obtener más información sobre cómo implementar una IA rentable con Cloudera, AMD y Dell Technologies, descarga el informe Omdia Showcase.

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.