5 retos para Arquitectura Analítica Empresarial del Big Data

Negocios

Teradata afirma que “aunque el almacenamiento de Big Data sigue siendo algo necesario, ya no es suficiente por sí solo” y explica los grandes retos de futuro.

Teradata ha presentado Enterprise Analytical Architecture, una herramienta con la que dice buscar ayudar a las empresas a hacer frente a los cinco retos a los que las organizaciones se enfrentan para sacar el máximo provecho del Big Data.

De acuerdo con los responsables de Teradata, “en la actualidad, aunque el almacenamiento de datos sigue siendo algo necesario, ya no es suficiente por sí solo. Cuando los datos son utilizados varias veces es necesario minimizar el coste total de propiedad amortizando el coste por adquisición e integración a través de múltiples procesos de negocio”. Por otro lado, no hay que olvidar que para que unos datos no se pierdan, siempre es necesario contar con alguna copia de seguridad.

big-data-cloud ecommerceGartner ha acuñado el término “Logical Data Warehouse” para describir la evolución desde lo que se podría denominar como arquitectura “monolítica” a un Data Warehouse más distribuido.Según Martin Willcox, director de producto y de soluciones en Teradata, “dado que implementar un Data Warehouse Integrado sigue siendo la forma más racional de analizar una compañía, cabe afirmar que los rumores de su desaparición son exagerados.

De acuerdo con Willcox, “con el tiempo se incrementará la necesidad de usar e integrar múltiples plataformas de análisis, cada una de ellas optimizada para conseguir diferentes combinaciones de los 5 retos de Big Data”. Dice Teradata que estos 5 retos están trayendo consigo consecuencias para la Arquitectura Analítica Empresarial:

– El reto de los datos multi-estructurados: hoy en día hay que ser capaz de gestionar de forma relacional los datos multi-estructurados y combinar enfoques “schema on-load” y “schema on-read”, lo que hace que esas estrategias de gestión de información que “sirven para todo” sean cada vez menos rentables.

– Las analíticas interactivas: el aumento de nuevos modelos generalistas de programación paralela como MapReduce y Bulk Synchronous Parallel (BSP) para usos intensivos de CPU significa que no hay soluciones milagrosas para Big Data Analytics, tal y como explican desde Teradata.

– El reto del almacenaje de datos con ruido: gran parte de los esfuerzos de la industria están orientado a minimizar los costes de almacenaje, sabiendo que el coste unitario de almacenaje es igual al coste unitario de procesamiento, que a su vez es igual al coste total de propiedad.

– Tener cuidado con el gastoo y el tiempo dedicados a buscar alguna información: si se lleva a cabo una búsqueda de “Exploración & Descubrimiento” de la misma forma que se hace con el BI tradicional, se está haciendo mal. Es fundamental cerciorarse de que la adquisición será ágil para ir alineado con el desarrollo rápido y el despliegue de aplicaciones.

– Es necesario ofrecer verdadero valor de negocio: el objetivo de un proyecto Big Data no es aumentar los conocimientos empresariales, sino cambiar la forma en la que se hacen los negocios compartiendo esos conocimientos con todos los estamentos de la empresa y cambiando los procesos de negocio.

Lea también :