Your browser is out of date

Update your browser to view this website correctly. Update my browser now

×

Almacene, procese y analice con seguridad todos sus datos en reposo estructurados y no estructurados 


Hortonworks Data Platform (HDP) es un marco de trabajo de código abierto para el almacenamiento y procesamiento distribuido de grandes conjuntos de datos de varias fuentes. HDP moderniza su infraestructura informática y mantiene sus datos seguros (en la nube o en entornos locales), a la vez que le ayuda a impulsar nuevas fuentes de ingresos, mejorar la experiencia del cliente y controlar los costes. 

Migrar a Cloudera Data Platform

Elija a continuación su plataforma actual para obtener recomendaciones de migración, así como recursos adaptados a su entorno. 

Características y ventajas clave

Un servicio basado en contenedores permite construir y desplegar aplicaciones en cuestión de minutos. La contenerización posibilita la ejecución de múltiples versiones de una aplicación, lo que le permite crear rápidamente nuevas funciones y desarrollar y probar nuevas versiones de servicios sin interrumpir las antiguas. HDP también es compatible con aplicaciones de terceros en contenedores Docker y contenedores nativos de YARN. La codificación de borrado aumenta la eficiencia del almacenamiento en un 50 %, lo que permite una replicación eficiente de los datos para reducir el coste total de propiedad.

HDP proporciona la base para el mantenimiento de las GPU en clústeres Apache Hadoop, mejorando el rendimiento de los cálculos necesarios para los casos de uso con ciencia de datos e inteligencia artificial. Permite el uso compartido de las GPU para intercambiar sus recursos con más cargas de trabajo y aumentar la rentabilidad. También es compatible con el aislamiento de la GPU, con lo cual es posible dedicar una GPU única y exclusivamente a una aplicación.

HDP incluye una vista previa de la tecnología TensorFlow en contenedores, que combinada con el uso en pooling de la GPU, facilita el diseño, la construcción y la formación para obtener modelos de aprendizaje profundo.

HDP le da la libertad de desplegar cargas de trabajo de Big Data en entornos híbridos y multinube sin depender de una arquitectura de nube de un proveedor en particular. Los clientes pueden crear y gestionar sin problemas clústeres de Big Data en cualquier entorno. HDP es independiente de la nube y automatiza el aprovisionamiento para simplificar el despliegue de Big Data y optimizar el uso de los recursos de la nube.

Soporte de almacenamiento en la nube para guardar cantidades infinitas de datos en su formato nativo, como Microsoft ADLS, WASB, AWS S3 y Google Cloud Storage. Cloudbreak proporciona un fácil aprovisionamiento de clústeres en la nube mediante la implementación de HDP en el proveedor de nube de su elección.

HDP optimiza su rendimiento para centrarse en consultas más rápidas. Hive LLAP, el motor más rápido de Apache Hive, funciona en un entorno multiempresa sin generar competencia por los recursos. Esta integración acelera drásticamente las consultas que se utilizan habitualmente en los escenarios de inteligencia artificial, como las consultas de combinación y agregación. Además de la optimización de las consultas, Hive también permite la creación de grupos de recursos, para una mayor precisión en la asignación de recursos.

HDP permite que las transacciones ACID se realicen de forma predeterminada, simplificando las actualizaciones de las tablas Hive y el cumplimiento de los requisitos del RGPD. Al ser una base de datos en tiempo real, Hive elimina la brecha de rendimiento entre las cargas de trabajo de baja latencia y de alto rendimiento con el fin de procesar más datos a un ritmo más rápido.

HDP sigue proporcionando a las empresas una solución integral en materia de seguridad y gobernanza. La seguridad de HDP está integrada en capas e incluye funciones de autenticación, autorización, responsabilidad y protección de datos. La integración de la seguridad y la gobernanza permite a los profesionales establecer políticas de seguridad basadas en la clasificación. Además, las organizaciones disponen de una herramienta de gobernanza de datos para aplicar una clasificación uniforme en todo el ecosistema de datos.

Otras funciones complementarias permiten que la auditoría de eventos sea más precisa y detallada, lo que facilita el trabajo de los auditores. Los auditores y usuarios pueden ver toda la cadena de vigilancia a medida que los datos se mueven por el ecosistema. La propagación de etiquetas facilita a auditores y usuarios el seguimiento de los datos en toda la empresa y el contexto de los datos que son sensibles. El carácter cronológico de las políticas permite el acceso temporal a un determinado usuario.

Data Hub facilita la gestión, supervisión y coordinación de todos los servicios de forma unificada en todos los entornos.

Your form submission has failed.

This may have been caused by one of the following:

  • Your request timed out
  • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.