Soy graduado de IIT en Bombay, no CSE. Trabajo (2 años de experiencia) en la empresa AS / W – IT. ¿Qué debo aprender para ganar una buena carrera en la misma ciudad?

La capacitación en certificación de Hadoop y big data será muy útil para aprobar el examen de certificación profesional en Hadoop y el análisis avanzado de datos. con la amplia gama de herramientas a su disposición, así que aquí hay una lista de algunas de las más necesarias

Apache Hadoop la distribución oficial.

Apache Ambari, un paquete de software para administrar clusters de Hadoop

HDFC Reducir el marco básico para dividir los datos en un clúster que sustenta Hadoop.

Apache H-base, una base de datos orientada a tablas construida sobre Hadoop.

Apache Hive es un almacén de datos construido sobre Hadoop que hace que los datos sean accesibles a través de un lenguaje similar a SQL.

Apache sqoop, una herramienta para transferir datos entre Hadoop y otros almacenes de datos.

Apache Pig, una plataforma para ejecutar código en datos en Hadoop en paralelo.

Zookeeper, una herramienta para configurar y sincronizar clústeres de Hadoop.

Sin SQL, un tipo de base de datos que rompe con los sistemas de administración de bases de datos relacionales tradicionales que usan SQL. Las bases de datos populares No SQL incluyen Cassandra, riak y MongoDB.

Apache mahout es una biblioteca de aprendizaje automático diseñada para ejecutarse en datos almacenados en Hadoop.

apache solar, una herramienta para indexar datos de texto que se integra bien con Hadoop.

Apache avero, un sistema de serialización de datos.

oozie, un administrador de flujo de trabajo para la cadena de herramientas Apache.

Herramientas Gis, un conjunto de herramientas para ayudar a administrar los componentes geográficos de sus datos

Apache Flume, un sistema para recopilar datos de registro utilizando HDFS.

SQL en Hadoop, algunas de las opciones más populares incluyen: Apache Hive, Cloudera Impala, Presto (Facebook), Shark, Apache Drill, EMC / Pivotal HAWQ, Big SQL de IBM, ApachePhoenix (para H Base), Apache Tajo

Nubes, servidores administrados y servicios que eliminan la molestia de ejecutar su propia infraestructura

Apache Spark es una nueva forma de ejecutar algoritmos aún más rápido en datos Hadoop.

Mumbai es el mejor lugar en la India para trabajar en la industria financiera. Por lo tanto, si tiene un interés / inclinación hacia las finanzas, entonces puede ir a un MBA en finanzas o adquirir algunas de las mejores certificaciones en su clase como CFA o FRM.

Tenga en cuenta que estas certificaciones no solo son útiles en el sector financiero, sino que también lo son en empresas de TI / cautivas financieras.