La capacitación en certificación de Hadoop y big data será muy útil para aprobar el examen de certificación profesional en Hadoop y el análisis avanzado de datos. con la amplia gama de herramientas a su disposición, así que aquí hay una lista de algunas de las más necesarias
Apache Hadoop la distribución oficial.
Apache Ambari, un paquete de software para administrar clusters de Hadoop
HDFC Reducir el marco básico para dividir los datos en un clúster que sustenta Hadoop.
- ¿Cuál es el rol y la responsabilidad exactos del consultor funcional en TI?
- ¿Cuál es la diferencia entre las redes y la tecnología de la información?
- Si un empleador me da una computadora portátil para trabajar de forma remota, ¿esa computadora portátil es mía?
- ¿Cuáles son las mejores empresas de tecnología de la información?
- Si le robas el portátil a alguien, ¿cómo lo borras por completo para que no haya posibilidad de que él lo detecte?
Apache H-base, una base de datos orientada a tablas construida sobre Hadoop.
Apache Hive es un almacén de datos construido sobre Hadoop que hace que los datos sean accesibles a través de un lenguaje similar a SQL.
Apache sqoop, una herramienta para transferir datos entre Hadoop y otros almacenes de datos.
Apache Pig, una plataforma para ejecutar código en datos en Hadoop en paralelo.
Zookeeper, una herramienta para configurar y sincronizar clústeres de Hadoop.
Sin SQL, un tipo de base de datos que rompe con los sistemas de administración de bases de datos relacionales tradicionales que usan SQL. Las bases de datos populares No SQL incluyen Cassandra, riak y MongoDB.
Apache mahout es una biblioteca de aprendizaje automático diseñada para ejecutarse en datos almacenados en Hadoop.
apache solar, una herramienta para indexar datos de texto que se integra bien con Hadoop.
Apache avero, un sistema de serialización de datos.
oozie, un administrador de flujo de trabajo para la cadena de herramientas Apache.
Herramientas Gis, un conjunto de herramientas para ayudar a administrar los componentes geográficos de sus datos
Apache Flume, un sistema para recopilar datos de registro utilizando HDFS.
SQL en Hadoop, algunas de las opciones más populares incluyen: Apache Hive, Cloudera Impala, Presto (Facebook), Shark, Apache Drill, EMC / Pivotal HAWQ, Big SQL de IBM, ApachePhoenix (para H Base), Apache Tajo
Nubes, servidores administrados y servicios que eliminan la molestia de ejecutar su propia infraestructura
Apache Spark es una nueva forma de ejecutar algoritmos aún más rápido en datos Hadoop.