¿Cuál es el futuro de las herramientas analíticas para big data?

Las herramientas tradicionales utilizadas para el análisis de datos no solo son incapaces de manejar / almacenar big data, sino que también pueden ser un asunto muy costoso. Las tecnologías de Big Data siguen evolucionando desde hace un par de años. Las tecnologías más utilizadas son Hadoop, MapReduce y Nosql. La mayoría de estos son de código abierto, pero requieren conocimientos de programación.
La ventaja de las tecnologías de código abierto es que ayudan en el análisis de Big Data de manera rentable. Dado que los algoritmos siguen evolucionando, el problema en este punto es la confiabilidad y la responsabilidad de las tecnologías.
Por lo tanto, la tecnología esencial para Big Data es doble: almacenamiento / almacenamiento de datos y algoritmos para crear soluciones.

El futuro de estas herramientas es seguramente prometedor cuando hay confiabilidad en los algoritmos utilizados. Dado que es probable que veamos un gran crecimiento en la disponibilidad de los datos, para que el análisis de los datos tenga sentido, estas herramientas sin duda serán clave para su éxito. Otro par de años, y es probable que tengamos herramientas robustas, de tiempo y eficientes para facilitar la visualización y el análisis de big data.

Hue es un proyecto que está creciendo mucho. Las nuevas versiones mejoran continuamente la integración de las herramientas de Big Data y proporcionan mejores gráficos e interactividad con la ayuda de Search, Impala, Spark.

Al menos 2.5 quintillones de bytes de datos se producen todos los días. Solo Google almacena 10 exabytes de datos.

Sin lugar a dudas, es necesario hacer mucho en las herramientas tradicionales para administrar esta enorme cantidad de datos. Se deben hacer esfuerzos para que el proceso sea más manejable y presentable para las personas también.

Una de las herramientas en las que estamos trabajando es QueryIO, una solución de análisis de Big Data y SQL basada en Hadoop, utilizada para almacenar y analizar grandes cantidades de Big Data estructurados. Le permite aprovechar la vasta y madura infraestructura construida alrededor de bases de datos relacionales y de SQL y utilizarla para sus necesidades de análisis de Big Data.

Creo que lo que realmente nos falta son las herramientas específicas de dominio. ¿Por qué necesitamos munge a través de terabytes de datos constantemente cuando una base de reglas de dominio se puede definir desde el inicio en lo que es importante o no? Cuando adquiera o cambie nuevos conocimientos, solo actualice los metadatos

No anticipo grandes cambios en las herramientas. El dominio es demasiado grande y no hay una bala mágica. Las herramientas existentes son lo suficientemente buenas a partir de hoy cuando las utilizan las personas con experiencia.

Habrá más visualización y más mecanismos de consulta difusa en tiempo real. Todavía requeriría bastante trabajo manual para profundizar en los datos.