Almacene, procese y analice con seguridad todos sus datos en reposo estructurados y no estructurados
Hortonworks Data Platform (HDP) es un marco de trabajo de código abierto para el almacenamiento y procesamiento distribuido de grandes conjuntos de datos de varias fuentes. HDP moderniza su infraestructura informática y mantiene sus datos seguros (en la nube o en entornos locales), a la vez que le ayuda a impulsar nuevas fuentes de ingresos, mejorar la experiencia del cliente y controlar los costes.
Migrar a Cloudera Data Platform
Elija a continuación su plataforma actual para obtener recomendaciones de migración, así como recursos adaptados a su entorno.
Actualmente estoy en
Características y ventajas clave
- Acorta los tiempos de implementación y reduce el coste total de propiedad
- Acelera el tiempo de análisis para tomar decisiones más acertadas
- El camino más rápido hacia el conocimiento en todas las nubes
- Una interfaz SQL para consultas históricas y en tiempo real
- Control de acceso y metadatos para una seguridad y gobernanza al máximo nivel
HDP proporciona la base para el mantenimiento de las GPU en clústeres Apache Hadoop, mejorando el rendimiento de los cálculos necesarios para los casos de uso con ciencia de datos e inteligencia artificial. Permite el uso compartido de las GPU para intercambiar sus recursos con más cargas de trabajo y aumentar la rentabilidad. También es compatible con el aislamiento de la GPU, con lo cual es posible dedicar una GPU única y exclusivamente a una aplicación.
HDP incluye una vista previa de la tecnología TensorFlow en contenedores, que combinada con el uso en pooling de la GPU, facilita el diseño, la construcción y la formación para obtener modelos de aprendizaje profundo.
HDP le da la libertad de desplegar cargas de trabajo de Big Data en entornos híbridos y multinube sin depender de una arquitectura de nube de un proveedor en particular. Los clientes pueden crear y gestionar sin problemas clústeres de Big Data en cualquier entorno. HDP es independiente de la nube y automatiza el aprovisionamiento para simplificar el despliegue de Big Data y optimizar el uso de los recursos de la nube.
Soporte de almacenamiento en la nube para guardar cantidades infinitas de datos en su formato nativo, como Microsoft ADLS, WASB, AWS S3 y Google Cloud Storage. Cloudbreak proporciona un fácil aprovisionamiento de clústeres en la nube mediante la implementación de HDP en el proveedor de nube de su elección.
HDP optimiza su rendimiento para centrarse en consultas más rápidas. Hive LLAP, el motor más rápido de Apache Hive, funciona en un entorno multiempresa sin generar competencia por los recursos. Esta integración acelera drásticamente las consultas que se utilizan habitualmente en los escenarios de inteligencia artificial, como las consultas de combinación y agregación. Además de la optimización de las consultas, Hive también permite la creación de grupos de recursos, para una mayor precisión en la asignación de recursos.
HDP permite que las transacciones ACID se realicen de forma predeterminada, simplificando las actualizaciones de las tablas Hive y el cumplimiento de los requisitos del RGPD. Al ser una base de datos en tiempo real, Hive elimina la brecha de rendimiento entre las cargas de trabajo de baja latencia y de alto rendimiento con el fin de procesar más datos a un ritmo más rápido.
HDP sigue proporcionando a las empresas una solución integral en materia de seguridad y gobernanza. La seguridad de HDP está integrada en capas e incluye funciones de autenticación, autorización, responsabilidad y protección de datos. La integración de la seguridad y la gobernanza permite a los profesionales establecer políticas de seguridad basadas en la clasificación. Además, las organizaciones disponen de una herramienta de gobernanza de datos para aplicar una clasificación uniforme en todo el ecosistema de datos.
Otras funciones complementarias permiten que la auditoría de eventos sea más precisa y detallada, lo que facilita el trabajo de los auditores. Los auditores y usuarios pueden ver toda la cadena de vigilancia a medida que los datos se mueven por el ecosistema. La propagación de etiquetas facilita a auditores y usuarios el seguimiento de los datos en toda la empresa y el contexto de los datos que son sensibles. El carácter cronológico de las políticas permite el acceso temporal a un determinado usuario.