¿Qué necesito saber para aprender Hadoop?

Lo primero que necesitamos para aprender Hadoop es el interés y la voluntad de aprender Hadoop.

Bromas aparte, para aprender Hadoop, no hay muchos requisitos previos o se requiere conocimiento experto. Solo un conocimiento básico y comprensión de los conceptos básicos de Java y OOP (programación orientada a objetos) y también algunos conocimientos prácticos sobre los comandos SQL y UNIX.

  • La razón por la que necesitamos Java es porque Hadoop está desarrollado por Apache y se basa en el entorno Java, por lo que sería útil si tuviéramos algún conocimiento sobre Java y sus conceptos.
  • El método preferido para instalar y administrar clústeres de Hadoop es a través de los parámetros de la línea de comandos del shell de Linux. Por lo tanto, para los profesionales que buscan oportunidades en Hadoop, se requieren algunos conocimientos básicos sobre Linux para configurar Hadoop.
  • También es mejor tener un conocimiento de los conceptos y consultas de SQL, ya que es tratar con la gran cantidad de datos y formas de almacenar y recuperar los datos requeridos.
  • También es bueno tener algún conocimiento básico sobre los conceptos de Aprendizaje Automático.
  • Otras cosas requeridas probablemente sean una buena computadora portátil con espacio y disponibilidad de RAM, y también debe tener instalado el sistema operativo Linux para que podamos hacer nuestras prácticas en ese sistema.
  • También debemos comenzar a buscar en el algoritmo de Reducción de mapas para ver cómo funciona y también a los conceptos de computación distribuida, ya que Hadoop se basa principalmente en los 2 conceptos anteriores de MapReduce y HDFS (sistemas de archivos distribuidos de Hadoop).
  • Arquitectónicamente, Hadoop es solo la combinación de dos tecnologías: el Sistema de Archivos Distribuidos de Hadoop (HDFS) que proporciona almacenamiento, y el modelo de programación MapReduce, que proporciona procesamiento.
  • HDFS existe para dividir, distribuir y administrar fragmentos del conjunto general de datos, que puede ser un solo archivo o un directorio lleno de archivos.
  • Las tareas del mapa se asignan según la localidad de datos, si es posible. Se asignará una tarea de Mapa al nodo de trabajo donde residen los datos. Las tareas de reducción (que son opcionales) generalmente agregan el resultado de todas las docenas, cientos o miles de tareas de mapa y producen el resultado final.

Más información sobre el examen de certificación Hadoop

Aquí le proporciono parte de la información útil para aprender el examen de certificación Hadoop.

  • Certificación HDPCA en Hortonworks
  • Certificación de Administrador Certificado HDP (HDPCA)
  • ¿Cómo prepararse para el examen de certificación HDPCA?
  • ¿Qué es Apache Hadoop?
  • ¿Cómo son útiles los datos grandes y Hadoop?
  • ¿Cómo se relacionan los datos grandes y Hadoop?
  • ¿Se requieren habilidades de programación para big data?

¡¡Espero que esto ayude!!

Si está buscando ayuda para prepararse para los exámenes de certificación de Hadoop, envíeme un mensaje.

Puedes comenzar con Core Java (Colecciones). Mientras tanto, puedes aprender hadoop de los siguientes libros.

1. Guía definitiva de Hadoop: lea todos los capítulos de este libro y será muy útil para usted hacer la certificación.

2. Puedes elegir cualquier distribución como Cloudera, Mapr. Elegí Cloudera y Apache para la distribución central.

Puede descargar las máquinas virtuales de la Cloudera.

3. Si eres bueno en Java, entonces puedes aprender fácilmente MapReduce (es un marco de procesamiento paralelo).

4. Si eres bueno en consultas SQL, puedes concentrarte en Hive, es el ecosistema de Hadoop y una alternativa a MapReduce. Puedes seguir el libro, programación de Hive.

5. Si eres bueno en el lenguaje de scripting, puedes trabajar en Pig Scripts, que también es una alternativa a MapReduce y el libro es Pig Programming.

La gente diría que no se requiere que Java aprenda Hive y Pig. Pero para el procesamiento básico, no necesitas Java. Pero al escribir UDF (funciones definidas por el usuario) en Pig and Hive, necesitas Core Java para realizar.

Apache Spark es avanzado y 100 veces más rápido que el marco de mapeo de Hadoop.

En Hadoop EcoSystem, tenemos muchas herramientas para explorar y, según los requisitos del proyecto, podemos aprender herramientas.

Realiza un mini proyecto utilizando datos en línea y finaliza la certificación. Todo lo mejor.

Puedes seguir mi blog: https: //iamsoftwareengineer.word

Sí amigo, tiene razón en que hay una gran demanda de Hadoop en el mercado.

Si realmente desea aprender Hadoop, entonces no hay requisitos previos para aprender Hadoop. Solo se requiere una cosa que es su deseo de aprender algo nuevo. Que tan bien aprendes cosas nuevas.

Simplemente comienza desde cero y trata de dar tu máxima dedicación al aprendizaje. Ahora tienes dos opciones de aprender de los institutos o por ti mismo. Si desea aprender por sí mismo, primero aprenda desde el principio qué es Big Data, V’s of Big Data, historia de Big Data y sus tendencias, luego aprenda la introducción de Hadoop, cómo Hadoop proporcionó la solución, Cómo funciona Hadoop , MapReduce , HDFS , luego sus componentes del ecosistema como PIG , HIVE , Hbase , etc.

Si desea comenzar su carrera como desarrollador de Hadoop, entonces céntrese principalmente en MapReduce porque es la capa de procesamiento y el modelo de programación de Hadoop.

Ahora vamos a empezar a aprender desde el principio.

  • ¿Qué es Big Data?

Big Data es una gran colección de datos ya que el nombre hace referencia a ” BIG DATA” . No puede procesarse por métodos tradicionales porque la mayor parte de la generación de datos es de forma no estructurada.

  • ¿Por qué deberíamos aprender Big Data?

Los datos grandes se generan en cantidades de varios literatos, cambian rápidamente y vienen en una variedad de formas que son difíciles de administrar y procesar utilizando RDBMS u otras tecnologías tradicionales. Las soluciones de Big Data proporcionan las herramientas, metodologías y tecnologías que se utilizan para capturar, almacenar, buscar y analizar los datos en segundos para encontrar relaciones e ideas para la innovación y la ganancia competitiva que antes no estaban disponibles.

El 80% de los datos que se generan hoy no están estructurados y no pueden ser manejados por nuestras tecnologías tradicionales. Anteriormente, la cantidad de datos generados no era tan alta y seguimos archivando los datos ya que solo se necesitaba un análisis histórico de los datos.

Para más detalles consulte el siguiente enlace:

¿Por qué deberíamos aprender Big Data?

  • Ahora vamos a conocer las V’s de Big Data.

Big Data se clasifica en términos de:

  • Volumen: el tamaño de los datos de hoy ha aumentado al tamaño de los terabytes en forma de registros o transacciones
  • Variedad: existe una gran variedad de datos basados ​​en el tipo interno, externo, de comportamiento o social. Los datos pueden ser de tipo estructurado, semiestructurado o no estructurado.
  • Velocidad: significa la asimilación en tiempo cercano o en tiempo real de los datos que llegan en gran volumen

Para conocer la 10ª V de Big Data consulte el siguiente enlace:

Vulnerabilidad – Introduciendo 10th V de Big Data

Ahora vamos hacia Hadoop.

  • ¿Qué es Hadoop?

Hadoop es una herramienta de código abierto de ASF. Se utiliza para procesar y almacenar una gran cantidad de datos. Se procesa eficientemente gran cantidad de datos.

Para saber más consulte el siguiente enlace:

Buceo profundo en Hadoop

También puede ver el video a continuación para una introducción suave:

Después de aprender la introducción ahora aprende –

  • Cómo Hadoop proporcionó la solución.

Los RDBMS anteriores solo almacenan datos estructurados y hoy en día el 80% de la generación de datos se realiza en forma no estructurada, por lo que no fue posible almacenar datos en RDBMS. Hadoop almacena todo tipo de datos, como estructurados, no estructurados o semiestructurados. Hadoop almacena los datos de forma fiable. Así que esa es la forma en que proporcionó la solución.

Para saber más sobre cómo funciona Hadoop, consulte el siguiente enlace:

Cómo funciona Hadoop: funcionamiento interno de Hadoop y sus componentes.

Una vez que aprenda la introducción y su funcionamiento interno, avancemos hacia MapReduce y HDFS.

  • HDFS

HDFS se refiere como sistema de archivos distribuidos de Hadoop. Es la capa de almacenamiento del Hadoop. HDFS es el sistema de almacenamiento más confiable del mundo. Su principio se basa en almacenar grandes archivos en lugar de almacenar muchos archivos pequeños.

Para saber más consulte el siguiente enlace:

Introducción a HDFS

Si desea conocer la operación de lectura de datos, consulte el video a continuación:

También puede consultar a continuación el GIF para la operación de lectura de datos:

Ahora ven a MapReduce.

MapReduce es el corazón de Hadoop. Es la capa de procesamiento de Hadoop. Se compone principalmente de dos partes mapeador y reductor. Para conocer los detalles completos sobre MapReduce y su mapeador y reductor, consulte el siguiente enlace:

MapReduce – Guía

Introducción del mapeador

Reductor- Introducción

Después de aprender MapReduce, no olvide resolver sus preguntas de la entrevista e intente realizar una prueba práctica en línea para que pueda evaluar sus conocimientos.

Top 100 preguntas de la entrevista Hadoop

Top 50+ preguntas de la entrevista MapReduce

Las mejores preguntas de la entrevista HDFS

Ahora practica Hadoop.

Consulte el siguiente enlace para resolver Quizes de Hadoop

Espero que esto ayude.

Aprenda Hadoop aquí: Aprenda Hadoop – Los mejores tutoriales de Hadoop | Hackr.io

Prerrequisitos para aprender Hadoop

Este artículo conduce a través de la ruta de aprendizaje de hadoop respondiendo a todas las preguntas que enfrentan los estudiantes antes de hacer un cambio de carrera a Big Data Hadoop-

1) ¿Quién debería aprender Hadoop?

2) Habilidades requeridas para aprender Hadoop.

3) Conocimiento requerido para aprender Hadoop.

4) Requisitos de hardware para aprender Hadoop

Aprenda Hadoop para convertirse en un ingeniero de Big Data certificado por Microsoft.

¿Quién debería aprender Hadoop?

Hadoop se está convirtiendo en la plataforma de análisis de datos más dominante hoy en día con un número creciente de compañías de big data que aprovechan la tecnología para almacenar y analizar zettabytes de datos. Cualquier persona con conocimientos básicos de programación puede aprender Hadoop . Un doctorado o un título de maestría no es obligatorio para aprender la tecnología Hadoop.

La revolución de Big Data está generando enormes oportunidades de trabajo para los novatos, ya que numerosas organizaciones buscan contratar jóvenes talentos, pero el obstáculo principal es que los novatos carecen de experiencia de trabajo práctica con Hadoop. Por lo tanto, los graduados universitarios con cualquier tipo de experiencia en programación pueden aprender hadoop realizando un programa de capacitación integral en hadoop y trabajando en proyectos prácticos prácticos que les dan una sensación en tiempo real del entorno y la experiencia de hadoop, lo que los convierte en el ajuste ideal para lo que los empleadores ¡estan buscando!

La demanda de talento de Big Data Analytics superará con creces la oferta de talento para 2018. Según un estudio del Instituto Global McKinsey, se estima que solo en los Estados Unidos habrá una escasez de talento de Big Data y Hadoop por parte de 1.9k personas . La demanda de desarrolladores de calidad de Hadoop superará la oferta en un 60%.

A diferencia de otras tecnologías que pueden ser dominadas por uno mismo, Hadoop es más difícil y la capacitación profesional de hadoop puede ayudar a graduados o graduados de diversos orígenes, como Informática, Tecnología de la información, Ingeniería electrónica, Matemáticas aplicadas, etc., a comenzar su carrera en Hadoop. No hay prerrequisitos o requisitos previos estrictos para aprender hadoop. Si tiene la voluntad y el entusiasmo para seguir una carrera en big data, sin importar de qué antecedentes se encuentre, una capacitación integral en hadoop puede ayudarlo a obtener una hadoop de big data. trabajo.

Para obtener la lista completa de compañías de big data y sus salarios, HAGA CLIC AQUÍ

Habilidades requeridas para aprender Hadoop

Para aprender los conceptos básicos de los ecosistemas de big data y hadoop, las dos habilidades importantes que los profesionales deben conocer son: Java y Linux. Las personas de la empresa que no han trabajado anteriormente con ninguno de estos pueden seguir avanzando en la corriente principal de hadoop simplemente ensuciándose las manos en algunos conocimientos básicos de Java y Linux.

Habilidades requeridas para aprender Hadoop – Linux

Hadoop debe configurarse en un sistema operativo basado en Linux, preferiblemente Ubuntu [1]. El método preferido para instalar y administrar clusters de hadoop es a través de los parámetros de la línea de comandos del shell de Linux. Por lo tanto, para los profesionales que exploran oportunidades en Hadoop, se requieren algunos conocimientos básicos sobre Linux para configurar Hadoop. Hemos enumerado algunos comandos básicos que se pueden usar para administrar archivos en clusters HDFS. Estos comandos se pueden usar para fines de prueba y se pueden invocar a través de las máquinas virtuales (VM) de Hortonworks, Cloudera, etc. o también a través de su propio clúster hadoop de pseudo-distribución.

1) Comando para cargar un archivo en HDFS

Hadoop fs –put

Este comando se usa para cargar un archivo del sistema de archivos local a HDFS. Se pueden cargar varios archivos con este comando separando los nombres de los archivos con un espacio.

2) Comando para descargar un archivo en HDFS

Hadoop fs –get

Este comando se usa para descargar un archivo del sistema de archivos local a HDFS. Se pueden descargar varios archivos con este comando separando los nombres de los archivos con un espacio.

3) Comando para ver el contenido de un archivo

Hadoop fs –cat

4) Comando para mover archivos de origen a destino

Hadoop fs –mv

5) Comando para eliminar un directorio o archivo en HDFS

Hadoop fs –rm

Nota: para eliminar un directorio, el directorio debe estar vacío antes de usar el comando rm.

6) Comando para copiar archivos del sistema de archivos local a HDFS

Hadoop fs –copyFromLocal

7) Comando para mostrar la longitud de un archivo

Hadoop fs –du

8) Comando para ver el contenido de un directorio.

Hadoop fs –ls

9) Comando para crear un directorio en HDFS

Hadoop fs –mkdir

10) Comando para mostrar las primeras líneas de un archivo

Hadoop fs –head

Habilidades requeridas para aprender Hadoop– Core Java

La experiencia avanzada en Java se presenta como una ventaja adicional para los profesionales que desean aprender Hadoop, pero no se encuentran entre los requisitos previos para aprender Hadoop. Las personas que están honradamente interesadas en seguir una carrera lucrativa en big data y hadoop pueden comenzar en hadoop mientras que al mismo tiempo pasan algunas horas aprendiendo conceptos básicos de java. Hadoop permite que los desarrolladores escriban mapas y reduzcan las funciones en el idioma preferido de su elección, como Python, Perl, C, Ruby, etc., a través de la API de transmisión que admite la lectura desde la entrada estándar y la escritura a la salida estándar.

Si realmente desea aprender Hadoop, entonces no hay requisitos previos para aprender Hadoop.

Solo se requiere una cosa, que es su deseo de aprender algo nuevo. Que tan bien aprendes cosas nuevas.

Simplemente comienza desde cero y trata de dar tu máxima dedicación al aprendizaje. Ahora tienes dos opciones de aprender de los institutos o por ti mismo.

Si desea aprender por sí mismo, primero aprenda desde el principio qué es Big Data, V’s of Big Data, historia de Big Data y sus tendencias, luego aprenda la introducción de Hadoop, cómo Hadoop proporcionó la solución, Cómo funciona Hadoop , MapReduce , HDFS , luego sus componentes del ecosistema como PIG , HIVE , Hbase , etc.

Si desea comenzar su carrera como desarrollador de Hadoop, entonces céntrese principalmente en MapReduce porque es la capa de procesamiento y el modelo de programación de Hadoop.

Ahora vamos a empezar a aprender desde el principio.

  • ¿Qué es Big Data?

Big Data es una gran colección de datos ya que el nombre hace referencia a ” BIG DATA” . No puede procesarse por métodos tradicionales porque la mayor parte de la generación de datos es de forma no estructurada.

  • ¿Por qué deberíamos aprender Big Data?

Los datos grandes se generan en cantidades de varios literatos, cambian rápidamente y vienen en una variedad de formas que son difíciles de administrar y procesar utilizando RDBMS u otras tecnologías tradicionales.

Las soluciones de Big Data proporcionan las herramientas, metodologías y tecnologías que se utilizan para capturar, almacenar, buscar y analizar los datos en segundos para encontrar relaciones e ideas para la innovación y la ganancia competitiva que antes no estaban disponibles.

El 80% de los datos que se generan hoy no están estructurados y no pueden ser manejados por nuestras tecnologías tradicionales. Anteriormente, la cantidad de datos generados no era tan alta y seguimos archivando los datos ya que solo se necesitaba un análisis histórico de los datos.

Para más detalles consulte el siguiente enlace:

¿Por qué deberíamos aprender Big Data?

  • Ahora vamos a conocer las V’s de Big Data.

Big Data se clasifica en términos de:

  • Volumen: el tamaño de los datos de hoy ha aumentado al tamaño de los terabytes en forma de registros o transacciones
  • Variedad: existe una gran variedad de datos basados ​​en el tipo interno, externo, de comportamiento o social. Los datos pueden ser de tipo estructurado, semiestructurado o no estructurado.
  • Velocidad: significa la asimilación en tiempo cercano o en tiempo real de los datos que llegan en gran volumen

Para conocer la 10ª V de Big Data consulte el siguiente enlace:

Vulnerabilidad – Introduciendo 10th V de Big Data

Ahora vamos hacia Hadoop.

  • ¿Qué es Hadoop?

Hadoop es una herramienta de código abierto de ASF. Se utiliza para procesar y almacenar una gran cantidad de datos. Se procesa eficientemente gran cantidad de datos.

Para saber más consulte el siguiente enlace:

Buceo profundo en Hadoop

También puede ver el video a continuación para una introducción suave de Hadoop:

Después de aprender la introducción ahora aprende –

  • Cómo Hadoop proporcionó la solución.

Los RDBMS anteriores solo almacenan datos estructurados y hoy en día el 80% de la generación de datos se realiza en forma no estructurada, por lo que no fue posible almacenar datos en RDBMS. Hadoop almacena todo tipo de datos, como estructurados, no estructurados o semiestructurados. Hadoop almacena los datos de forma fiable. Así que esa es la forma en que proporcionó la solución.

Para saber más sobre cómo funciona Hadoop, consulte el siguiente enlace:

Cómo funciona Hadoop: funcionamiento interno de Hadoop y sus componentes.

Una vez que aprenda la introducción y su funcionamiento interno, avancemos hacia MapReduce y HDFS.

HDFS

HDFS se refiere como sistema de archivos distribuidos de Hadoop. Es la capa de almacenamiento del Hadoop. HDFS es el sistema de almacenamiento más confiable del mundo. Su principio se basa en almacenar archivos grandes en lugar de almacenar muchos archivos pequeños.

Para saber más consulte el siguiente enlace:

Introducción a HDFS

Si desea conocer la operación de lectura de datos, consulte el video a continuación:

También puede consultar a continuación el GIF para la operación de lectura de datos:

Ahora venga a MapReduce. MapReduce es el corazón de Hadoop. Es la capa de procesamiento de Hadoop. Se compone principalmente de dos partes mapeador y reductor.

Para conocer los detalles completos sobre MapReduce y su mapeador y reductor, consulte el siguiente enlace:

MapReduce – Guía

Introducción del mapeador

Reductor- Introducción

Después de aprender MapReduce, no olvide resolver sus preguntas de la entrevista e intente realizar una prueba práctica en línea para que pueda evaluar sus conocimientos.

Top 100 preguntas de la entrevista Hadoop

Top 50+ preguntas de la entrevista MapReduce

Las mejores preguntas de la entrevista HDFS

Ahora practica Hadoop.

Consulte el siguiente enlace para resolver Quizes de Hadoop

Espero que esto ayude

El mundo de Hadoop y el “Big Data” pueden ser intimidantes: cientos de tecnologías diferentes con nombres crípticos forman el ecosistema de Hadoop. Con este curso, no solo entenderá qué son esos sistemas y cómo encajan entre sí, sino que también aprenderá cómo usarlos para resolver problemas comerciales reales.

Hadoop, MapReduce, HDFS, Spark, Pig, Hive, HBase, MongoDB, Cassandra, Flume – ¡la lista continúa! Más de 25 tecnologías.

Enlace del curso: The Ultimate Hands-On Hadoop – ¡Domine su Big Data !

Aprenda y domine las tecnologías de big data más populares en este curso integral, impartido por un ex ingeniero y gerente senior de Amazon y IMDb . Vaya más allá de Hadoop y sumérjase en todo tipo de sistemas distribuidos con los que deba integrarse.

  • Instale y trabaje con una instalación real de Hadoop en su escritorio con Hortonworks y la interfaz de usuario de Ambari
  • Administre big data en un cluster con HDFS y MapReduce
  • Escribir programas para analizar datos en Hadoop con Pig and Spark
  • Almacene y consulte sus datos con Sqoop , Hive , MySQL , HBase , Cassandra , MongoDB , Drill , Phoenix y Presto
  • Diseñar sistemas del mundo real utilizando el ecosistema de Hadoop.
  • Aprenda cómo se maneja su grupo con YARN , Mesos , Zookeeper , Oozie , Zeppelin y Hue
  • Maneja los datos de transmisión en tiempo real con Kafka , Flume , Spark Streaming , Flink y Storm

Comprender Hadoop es una habilidad muy valiosa para cualquier persona que trabaje en compañías con grandes cantidades de datos.

Casi todas las grandes empresas en las que desea trabajar utilizan Hadoop de alguna manera, incluidos Amazon, Ebay, Facebook, Google, LinkedIn, IBM, Spotify, Twitter y Yahoo! Y no son solo las empresas de tecnología las que necesitan a Hadoop; incluso el New York Times utiliza Hadoop para procesar imágenes.

Este curso es exhaustivo y abarca más de 25 tecnologías diferentes en más de 14 horas de conferencias en video . Está lleno de actividades y ejercicios prácticos, por lo que obtienes una experiencia real en el uso de Hadoop, no es solo teoría.

Encontrará una variedad de actividades en este curso para personas en todos los niveles. Si usted es un administrador de proyectos que solo quiere aprender las palabras de moda, existen UI web para muchas de las actividades en el curso que no requieren conocimientos de programación. Si te sientes cómodo con las líneas de comando, también te mostraremos cómo trabajar con ellas. Y si eres programador, te desafiaré con la escritura de scripts reales en un sistema Hadoop usando Scala, Pig Latin y Python .

Saldrá de este curso con una comprensión profunda y real de Hadoop y sus sistemas distribuidos asociados, y podrá aplicar Hadoop a problemas del mundo real. ¡Más un valioso certificado de finalización te espera al final!

Tenga en cuenta que el enfoque en este curso está en el desarrollo de aplicaciones, no en la administración de Hadoop. Aunque recogerás algunas habilidades de administración a lo largo del camino.

¿Quién es el público objetivo?

  • Ingenieros y programadores de software que desean comprender el ecosistema más grande de Hadoop y usarlo para almacenar, analizar y vender “big data” a escala.
  • Gestores de proyectos, programas o productos que deseen comprender la jerga y la arquitectura de alto nivel de Hadoop.
  • Analistas de datos y administradores de bases de datos que tienen curiosidad por Hadoop y cómo se relaciona con su trabajo.
  • Arquitectos de sistemas que necesitan comprender los componentes disponibles en el ecosistema de Hadoop y cómo encajan entre sí.

Haga clic en el enlace del curso arriba para ver los contenidos del curso.

Big Data está conquistando el mundo y cómo una carrera en Hadoop realmente puede llevarte a tus futuros lugares. Pero también estamos seguros, como todos los demás, tienes muchas preguntas, pero simplemente no sabes a quién preguntar u obtener orientación. Bueno, un estudio reciente de la consultora global Mckinsey ha revelado que, por primera vez, el intercambio de datos transfronterizos está contribuyendo más al PIB global que al intercambio global de bienes (para ser más precisos, el comercio internacional). En resumen, los datos son el nuevo comercio del que el mundo está enamorado. ¿Sabe que el intercambio de datos a través de la frontera a través de los cables de Internet submarinos ha aumentado 45 veces desde 2005? Ahora se espera que esto crezca otras 9 veces en los próximos cinco años. Big Data Hadoop Training con Certificación | Curso en linea | Intellipaat

Entonces, la pregunta natural que podría hacerse es ¿de dónde provienen todos estos datos? Bueno, el mayor contribuyente son los videos de Internet, nuestra tendencia a verlos en YouTube o Facebook, luego están nuestras conversaciones e interacciones en línea en los sitios de redes sociales, nuestros datos de compras de comercio electrónico, información financiera y de tarjetas de crédito, todo el contenido del sitio web, blogs, Gráficos de información, estadísticas y así sucesivamente. Pero espera, ahora tenemos un nuevo colaborador en esta liga y esto proviene de varias máquinas que están conectadas a Internet en el gran esquema de cosas llamado Internet de las Cosas. En el futuro, IoT será el mayor contribuyente al intercambio de datos que va de un extremo a otro del mundo a la velocidad de la luz en nuestras redes de Internet. Así que eso es todo acerca de Big Data para usted en pocas palabras.

Hoy hemos llegado a una fase en la que es imperativo trabajar con enormes cantidades de datos para las organizaciones, independientemente de su sector vertical y la segmentación de clientes. Así que espere una gran cantidad de verticales de la industria compitiendo por su atención en su búsqueda de contratar al mejor talento en Big Data y Hadoop. Algunos de los sectores de negocios populares que actualmente contratan son banca, seguros, comercio electrónico, hospitalidad, manufactura, mercadeo, publicidad, redes sociales, atención médica, transporte, y la lista puede ser casi infinita. Habrá una abrumadora necesidad de al menos 1.5 millones de profesionales y analistas de Big Data para 2018 solo en los Estados Unidos. ¡Sepa que la mayoría de estos pueden ser llenados por profesionales indios talentosos ya que India es el grupo de talentos más grande en el sector de TI actualmente en el mundo!

Algunas de las empresas de tecnología más grandes del mundo a saber. Google, Apple, Amazon, E Bay y Facebook se ejecutan únicamente con el poder de Big Data al que acceden y le dan sentido para obtener una ventaja definitiva sobre sus rivales. Es vital enfatizar que más datos no son solo algo de lo que es un poco más: más claramente significa nuevos, más significa mejores y más aún significa algo radicalmente diferente . ¿Sabía que al usar la tecnología de computación cognitiva IBM Watson, los médicos de los Estados Unidos pudieron detectar nuevos síntomas de cáncer, los cuales nunca supieron que existían en primer lugar? Todo esto gracias a Big Data!

El conocimiento básico de la informática debería ser suficiente. Esto cubre al menos un lenguaje de programación. Buen dominio de las estructuras de datos. El conocimiento básico de cómo funciona el sistema distribuido, etc. El conocimiento de trabajo y algunas manos en Java sin duda sería útil.

Una vez que tenga eso, puede comenzar a aprender Hadoop por su cuenta a partir de recursos en línea. Para comenzar, comience aquí: Ejecución de Hadoop en Ubuntu Linux (Clúster de un solo nodo) – Michael G. Noll

En cuanto a los libros, Hadoop: La Guía Definitiva es agradable y útil.

Para más información, lea la respuesta de Joydip Datta a Para un novato, ¿cuál es la mejor manera de comenzar con la tecnología de big data?

Los requisitos previos para aprender Hadoop son:
Al menos un lenguaje de programación o conocimiento de consultas SQL.
Básico de la estructura de datos y el algoritmo será una ventaja añadida.

Aunque cualquier persona con conocimientos básicos de desarrollo de aplicaciones informáticas puede comenzar a aprender Hadoop.

Algunas de las referencias para comenzar a aprender haddop son:
Apache Hadoop 2.7.1
Tutorial de Hadoop – YDN
Tutorial de Hadoop
Una guía para principiantes de Hadoop

Si tiene acceso a Internet y una computadora portátil o de escritorio, vaya a estos cursos en línea que le darán una idea clara acerca de Hadoop.

La respuesta de Nikhil Mahajan a ¿Cuáles son los mejores cursos de ciencia de datos en Udemy?

Si quieres aprender de un libro, consulta esta respuesta.
La respuesta de Nikhil Mahajan a ¿Cuánto tiempo es suficiente para la certificación de Cloudera?

Usted puede elegir tanto si se lo puede permitir económicamente.

Creo que necesitas saber debajo de los temas.

1). Aprende un lenguaje de programación preferiblemente Java.
2). Aprender conceptos RDBMS.
3). Aprenda * nix OS.
4). trabajar en sus habilidades de resolución de problemas y habilidades analíticas.

Después de estos, Aprenda Apache hadoop y herramientas relacionadas.

Completar la certificación lo ayuda a saber de las compañías. Es posible que deba trabajar en problemas más difíciles una vez que obtenga un empleo.

Prerrequisito para aprender Apache Hadoop

buena suerte.

Los datos grandes y los análisis seguirán siendo una fuerza comercial disruptiva. Según Rod, recién estamos entrando en otra fase: una transformación de negocios digital en tiempo real, en la que las empresas se están dando cuenta de que el momento de adaptarse a los mercados, las oportunidades de los clientes y las amenazas se está reduciendo rápidamente.

Ya que escuchó que Hadoop es más exigente en el mercado con más oportunidades de empleo, elegir Hadoop para su carrera sería la opción correcta y hacer la certificación realmente lo ayudaría a aprovechar el trabajo fácilmente y para aprender Hadoop debe tener algunos conocimientos básicos en java Besant Technologies ofrece el mejor entrenamiento de Hadoop en Chennai para más detalles 996 250 4283

Solo compartiendo.
Un grupo excelente para los entusiastas de Big Data que sienten pasión por aprender y compartir cosas relacionadas con las Tecnologías de Big Data.

Unirse

https://groups.google.com/d/forum/big-data-techies

Recomiendo ¿Qué tal Hadoop: la guía definitiva, de O’Reilly Media? Cubre todo lo relacionado con Hadoop, MapReduce, HDFS y más.

Esta pregunta tiene enouf respuesta para principiantes Hadoop

¿Cómo debo empezar a aprender Hadoop?