¿Dónde puedo aprender Hadoop en línea gratis?

Permítanme comenzar la respuesta con cómo empecé a aprender:

  1. Hice una investigación en el mercado laboral, sobre la apertura actual y no sobre las posiciones abiertas.
  2. Recopilé cientos de descripciones de puestos de trabajo de los portales de trabajo e hice ingeniería inversa sobre las expectativas de la industria.
  3. Primero, me centré solo en los temas importantes (que se están utilizando en la industria) y los dominé
  4. También investigué acerca de la tecnología actual y futura, BTW Big Data tiene un futuro brillante, sobrevivirá por décadas

Puedes hacer la misma investigación con la siguiente Respuesta y prepararte en consecuencia:

La respuesta de Shwati Kumar a ¿Qué tipo de trabajo típico realiza un desarrollador de Hadoop?

A continuación hay algunos tutoriales muy buenos sobre Hadoop.

  1. Serie de tutoriales de Hadoop
  2. Serie de tutoriales HDFS
  3. Serie de tutoriales de MapReduce
  4. Serie Tutorial De La Colmena
  5. Serie de tutoriales
  6. Spark Tutorial Series
  7. Preguntas de la entrevista de Hadoop
  8. Preguntas de la entrevista de chispa
  9. Hadoop Quiz
  10. Prueba de chispa

Aparte de ellos, por favor trabaja en 2–3 proyectos. Si necesita alguna otra ayuda, no dude en escribir en la sección de comentarios.

Algunas otras preguntas y respuestas importantes:

  • La respuesta de Shwati Kumar a ¿Es posible obtener un trabajo en el extranjero si aprendo Hadoop?
  • La respuesta de Shwati Kumar a Como más fresco, ¿cuál es el alcance de comenzar una carrera en big data utilizando Hadoop en la India?
  • La respuesta de Shwati Kumar a ¿Qué habilidades se requieren para ser un desarrollador de Hadoop?
  • La respuesta de Shwati Kumar a ¿Cómo puedo aprender big data y hacer una carrera en ella a un costo de 0? ¿Hay alguna manera?

Si quieres que siga escribiendo más respuestas y compartiendo mi aprendizaje y experiencia, por favor, vota.

Hola, estoy aprendiendo hadoop y Big Data durante 3 años solo con la ayuda de recursos en línea.

También puedes consultar mi blog: Soy un ingeniero de software.

Puedes aprender todos los ecosistemas de hadoop y hadoop de forma gratuita.

Centros de aprendizaje en línea:

EDX: Cursos

Coursera: https://www.coursera.org/courses…

Big Data University de IBM: Big Data University | Cursos de ciencia de datos

Canales de YouTube:

Edureka: ¡Edureka!

hadoop – YouTube

Software y máquinas virtuales:

Descargue la Máquina Virutal Cloudera que viene con paquetes preinstalados.

Descargas de inicio rápido para CDH 5.7

Del mismo modo, puede descargar las máquinas virtuales de hortonworks, Mapr y otras distribuciones.

Instrucciones para instalar los softwares.

Cómo instalar Ubuntu en Oracle VM VirtualBox

Libros:
Hadoop: la guía definitiva
HBase: la guía definitiva
Programación de la colmena

Si quieres más ayuda contacta conmigo.

Gracias | Muthu

Feliz aprendizaje.!!

El mundo de Hadoop y el “Big Data” pueden ser intimidantes: cientos de tecnologías diferentes con nombres crípticos forman el ecosistema de Hadoop. Con este curso, no solo entenderá qué son esos sistemas y cómo encajan entre sí, sino que también aprenderá cómo usarlos para resolver problemas comerciales reales.

Hadoop, MapReduce, HDFS, Spark, Pig, Hive, HBase, MongoDB, Cassandra, Flume – ¡la lista continúa! Más de 25 tecnologías.

Enlace del curso: The Ultimate Hands-On Hadoop – ¡Domine su Big Data !

Aprenda y domine las tecnologías de big data más populares en este curso integral, impartido por un ex ingeniero y gerente senior de Amazon y IMDb . Vaya más allá de Hadoop y sumérjase en todo tipo de sistemas distribuidos con los que deba integrarse.

  • Instale y trabaje con una instalación real de Hadoop en su escritorio con Hortonworks y la interfaz de usuario de Ambari
  • Administre big data en un cluster con HDFS y MapReduce
  • Escribir programas para analizar datos en Hadoop con Pig and Spark
  • Almacene y consulte sus datos con Sqoop , Hive , MySQL , HBase , Cassandra , MongoDB , Drill , Phoenix y Presto
  • Diseñar sistemas del mundo real utilizando el ecosistema de Hadoop.
  • Aprenda cómo se maneja su grupo con YARN , Mesos , Zookeeper , Oozie , Zeppelin y Hue
  • Maneja los datos de transmisión en tiempo real con Kafka , Flume , Spark Streaming , Flink y Storm

Comprender Hadoop es una habilidad muy valiosa para cualquier persona que trabaje en compañías con grandes cantidades de datos.

Casi todas las grandes empresas en las que desea trabajar utilizan Hadoop de alguna manera, incluidos Amazon, Ebay, Facebook, Google, LinkedIn, IBM, Spotify, Twitter y Yahoo! Y no son solo las empresas de tecnología las que necesitan a Hadoop; incluso el New York Times utiliza Hadoop para procesar imágenes.

Este curso es exhaustivo y abarca más de 25 tecnologías diferentes en más de 14 horas de conferencias en video . Está lleno de actividades y ejercicios prácticos, por lo que obtienes una experiencia real en el uso de Hadoop, no es solo teoría.

Encontrará una variedad de actividades en este curso para personas en todos los niveles. Si usted es un administrador de proyectos que solo quiere aprender las palabras de moda, existen UI web para muchas de las actividades en el curso que no requieren conocimientos de programación. Si te sientes cómodo con las líneas de comando, también te mostraremos cómo trabajar con ellas. Y si eres programador, te desafiaré con la escritura de scripts reales en un sistema Hadoop usando Scala, Pig Latin y Python .

Saldrá de este curso con una comprensión profunda y real de Hadoop y sus sistemas distribuidos asociados, y podrá aplicar Hadoop a problemas del mundo real. ¡Más un valioso certificado de finalización te espera al final!

Tenga en cuenta que el enfoque en este curso está en el desarrollo de aplicaciones, no en la administración de Hadoop. Aunque recogerás algunas habilidades de administración a lo largo del camino.

¿Quién es el público objetivo?

  • Ingenieros y programadores de software que desean comprender el ecosistema más grande de Hadoop y usarlo para almacenar, analizar y vender “big data” a escala.
  • Gestores de proyectos, programas o productos que deseen comprender la jerga y la arquitectura de alto nivel de Hadoop.
  • Los analistas de datos y los administradores de bases de datos que tienen curiosidad por Hadoop y cómo se relaciona con su trabajo.
  • Arquitectos de sistemas que necesitan comprender los componentes disponibles en el ecosistema de Hadoop y cómo encajan entre sí.

Haga clic en el enlace del curso arriba para ver los contenidos del curso.

Hay muchas maneras de aprender Hadoop en línea. Puedes aprenderlo solo viendo videos gratuitos disponibles en la red y leyendo material gratuito. o puedes hacerlo uniéndote a cualquier entrenamiento en línea.

Vea el video a continuación para aprender lo básico de Hadoop:

Una vez que haya terminado con la introducción, necesita aprender más sobre Hadoop y sus componentes del ecosistema que puede hacer a través de los enlaces a continuación:

Sumérgete en Big Data Hadoop para dominar la última tecnología

Hadoop HDFS Tutorial – Introducción a HDFS, arquitectura, características y operaciones

Tutorial de Hadoop MapReduce – Una guía completa

Tutorial integral de Hadoop YARN: otro negociador de recursos más

Encontrará varios otros artículos sobre esta tecnología en el siguiente enlace:

Blogs de DataFlair

Si quieres aprenderlo a través de la clase en línea, te sugeriré que vayas con DataFlair, ya que ofrecen un curso orientado al trabajo al 100% que te ayudará a encontrar la compañía de tus sueños.

Edureka proporciona una buena lista de videos Tutorial de Hadoop. Le recomendaría que lea esta lista de reproducción de videos del tutorial de Hadoop , así como la serie de blogs del Tutorial de Hadoop .

Primero entienda Big Data y los desafíos asociados con Big Data. Entonces, puedes entender cómo Hadoop surgió como una solución a esos problemas de Big Data. Este blog de Qué es Hadoop y Hadoop Tutorial te lo presentará.

Entonces debe comprender cómo funciona la arquitectura de Hadoop con respecto a HDFS, YARN y MapReduce.

Más adelante, debe instalar Hadoop en su sistema para que pueda comenzar a trabajar con Hadoop. Esto le ayudará a comprender los aspectos prácticos en detalle.

Avanzando, sumérjase en Hadoop Ecosystem y aprenda varias herramientas dentro de Hadoop Ecosystem con sus funcionalidades. Por lo tanto, aprenderá cómo crear una solución personalizada de acuerdo con sus requisitos.

Vamos a entender en breve:

¿Qué es Big Data?

Big Data es un término usado para una colección de conjuntos de datos que son grandes y complejos, que es difícil de almacenar y procesar utilizando las herramientas de administración de bases de datos disponibles o las aplicaciones tradicionales de procesamiento de datos. El desafío incluye capturar, curar, almacenar, buscar, compartir, transferir, analizar y visualizar estos datos.

Hadoop y su arquitectura.

Los componentes principales de HDFS son NameNode y DataNode .

NombreNodo

Es el daemon maestro el que mantiene y administra los DataNodes (nodos esclavos). Registra los metadatos de todos los archivos almacenados en el clúster, por ejemplo, la ubicación de los bloques almacenados, el tamaño de los archivos, los permisos, la jerarquía, etc. Registra todos y cada uno de los cambios que se producen en los metadatos del sistema de archivos.

DataNode

Estos son demonios esclavos que se ejecutan en cada máquina esclava. Los datos reales se almacenan en DataNodes. Son responsables de atender las solicitudes de lectura y escritura de los clientes. También son responsables de crear bloques, eliminar bloques y replicarlos de acuerdo con las decisiones tomadas por NameNode.

Para el procesamiento, utilizamos YARN (Yet Another Resource Negotiator). Los componentes de YARN son ResourceManager y NodeManager .

Administrador de recursos

Es un componente de nivel de clúster (uno para cada clúster) y se ejecuta en la máquina maestra. Administra los recursos y programa las aplicaciones que se ejecutan sobre YARN.

NodeManager

Es un componente de nivel de nodo (uno en cada nodo) y se ejecuta en cada máquina esclava. Es responsable de administrar los contenedores y monitorear la utilización de los recursos en cada contenedor. También realiza un seguimiento del estado del nodo y la gestión de registro. Se comunica continuamente con ResourceManager para mantenerse actualizado.

Por lo tanto, puede realizar un procesamiento paralelo en HDFS utilizando MapReduce.

Mapa reducido

Es el componente central del procesamiento en un ecosistema de Hadoop, ya que proporciona la lógica de procesamiento. En otras palabras, MapReduce es un marco de software que ayuda a escribir aplicaciones que procesan grandes conjuntos de datos utilizando algoritmos distribuidos y paralelos dentro del entorno de Hadoop. En un programa MapReduce, Map () y Reduce () son dos funciones. La función Map realiza acciones como filtrar, agrupar y clasificar. Mientras tanto, reduce los agregados de funciones y resume el resultado producido por la función map.El resultado generado por la función Map es un par de valores clave (K, V) que actúa como entrada para la función Reducir.

Puede pasar por este video para comprender Hadoop y su arquitectura en detalle.

Instale Hadoop Single Node y Multi Node Cluster

Luego puede ir a través de este blog de Hadoop Ecosystem para aprender Hadoop Ecosystem en detalle.

También puede ver este video tutorial de Hadoop Ecosystem.

Cerdo

PIG tiene dos partes: Pig Latin , the language y the pig runtime, para el entorno de ejecución. Puedes entenderlo mejor como Java y JVM. Es compatible con la lengua latina de cerdo .

Colmena

Facebook creó HIVE para las personas que dominan SQL. Por lo tanto, HIVE los hace sentir como en casa mientras trabajan en un ecosistema de Hadoop. Básicamente, HIVE es un componente de almacenamiento de datos que realiza la lectura, escritura y administración de grandes conjuntos de datos en un entorno distribuido mediante una interfaz similar a la de SQL.

HBase

HBase es una base de datos distribuida de fuente abierta, no relacional. En otras palabras, es una base de datos NoSQL. Es compatible con todo tipo de datos y, por eso, es capaz de manejar cualquier cosa dentro de un ecosistema de Hadoop. Se basa en el modelo BigTable de Google, que es un sistema de almacenamiento distribuido diseñado para hacer frente a grandes conjuntos de datos.

Edureka proporciona una buena lista de videos Tutorial de Hadoop. Le recomendaría que lea esta lista de reproducción de videos del tutorial de Hadoop , así como la serie de blogs del Tutorial de Hadoop . Su aprendizaje debe estar alineado con la certificación Hadoop .

He aprendido la mayoría de las cosas en los sitios que aparecen a continuación, y eso también te ayudaría a aprender mucho. Si encuentra algo, no está claro para que pueda leer el mismo tema en el sitio de Apache, Hortonworks o Cloudera.

Nota: el desbordamiento de pila es brillante en el océano, así que no olvide usar / buscar esto también.

MapReduce Tutorial

¡Bienvenido a Apache ™ Hadoop®!

Tutorial de Hadoop – YDN

Apache Hadoop – Tutorial

Mapa de HadoopReducir

Introducción de Apache Hadoop a los desarrolladores de Java – Hortonworks

Empezar con el tutorial de Hadoop

Espero que esto ayude.

Puedo recomendar la Academia MapR.

MapR ofrece un Sandbox muy bien probado que puede utilizarse para todas las clases. Todo es gratis, pero la calidad es razonablemente buena y todas las clases vienen con trabajo de laboratorio práctico. Las personas que hacen estas clases son profesionales y mantienen el material actualizado.

También existe la Comunidad Converge ( https://community.mapr.com ) que permite a cualquiera hacer preguntas y comunicarse directamente con los creadores de materiales del curso.

Tenga en cuenta que algunas clases están claramente orientadas a la distribución particular de Mapado de Hadoop, por ejemplo, Administración de clústeres, pero están especialmente etiquetadas como tales. Las clases sobre Spark o Pig o Hadoop están orientadas a los proyectos de Apache y serán válidas en todas las distribuciones o con los proyectos en modo independiente.

Hadoop facilita múltiples tipos de cargas de trabajo analíticas en los mismos conjuntos de datos al mismo tiempo.

Hadoop es el marco más utilizado y utilizado con mayor frecuencia para administrar datos masivos en una serie de plataformas y servidores informáticos en todas las industrias. Permite a las organizaciones almacenar archivos que son más grandes de lo que puede almacenar en un nodo o servidor específico. Más importante aún, Hadoop no es solo una plataforma de almacenamiento, es uno de los marcos computacionales más optimizados y eficientes para el análisis de big data.

Este tutorial de Hadoop es una excelente guía para que los estudiantes y profesionales adquieran experiencia en la tecnología de Hadoop y sus componentes relacionados. Con el objetivo de servir a audiencias más grandes en todo el mundo, el tutorial está diseñado para dar tutoría a desarrolladores, administradores, analistas y evaluadores en este marco de Big Data más comúnmente aplicado. Desde la instalación hasta los beneficios de la aplicación y el alcance futuro, el tutorial proporciona aspectos explicativos de cómo los estudiantes pueden hacer el uso más eficiente de Hadoop y su ecosistema. También proporciona información sobre muchas de las bibliotecas y paquetes de Hadoop que muchos analistas y arquitectos de Big data no conocen.

Junto con, varias plataformas de big data importantes y avanzadas como MapReduce, Yarn, HBase, Impala, ETL Connectivity, configuración de clúster de múltiples nodos, Advanced Oozie, Advanced Flume, Advanced Hue y Zookeeper también se explican ampliamente a través de ejemplos y escenarios en tiempo real. en este paquete de aprendizaje.

Para muchos de estos beneficios de servicio tecnológico sobresalientes, la adopción de Hadoop se está acelerando. Dado que la cantidad de organizaciones empresariales que adoptan la tecnología de Hadoop para competir en el análisis de datos, aumentar el tráfico de clientes y mejorar las operaciones comerciales en general está creciendo a un ritmo acelerado, la cantidad respectiva de empleos y la demanda de profesionales expertos de Hadoop está aumentando a un ritmo cada vez más rápido. Cada vez más personas esperan dominar sus habilidades de Hadoop a través de cursos de capacitación profesional que podrían prepararlos para varias certificaciones de Cloudado Hadoop como CCAH y CCDH.

Después de terminar este tutorial, puede verse moderadamente competente en el ecosistema de Hadoop y los mecanismos relacionados. Luego, puede conocer mejor los conceptos tanto que puede explicarlos con confianza a grupos de pares y dar respuestas de calidad a muchas de las preguntas de Hadoop hechas por personas mayores o expertos.

Para aprender Hadoop, se sugiere seguir algunos libros de texto que están disponibles en línea. Puede consultar la Guía definitiva de Hadoop por Tom White, que le da una idea completa de cómo evolucionan los datos y cómo se procesan. Después de eso, puede consultar Hadoop Cook Book para trabajar en algunos ejemplos en tiempo real.

Si está interesado en los tutoriales en video, puede visitar http://Courseera.org y Big Data University, que ofrece capacitación básica para las personas interesadas en Big Data. Se sugiere seguir algunas publicaciones del blog para aprender temas avanzados.

También puede suscribirse a Hadoop semanalmente , Big Data semanalmente y AcadGild . Estos sitios le proporcionan información sobre las últimas tendencias en Big Data.

Las páginas oficiales de Hadoop son el mejor lugar para aprender, ya que son los primeros en implementar las actualizaciones que vienen en esa tecnología específica.

Estoy proporcionando algunos enlaces de muestra relacionados con las páginas oficiales de AcadGild.

Manual De Referencia Latina Del Cerdo 1

Tutorial – Apache Hive – Apache Software Foundation

Guía de Programación Spark

También puede consultar el sitio web acadgild para ver los blogs de big data y los casos de uso en el ecosistema de Hadoop.

También he agregado muchos casos de uso en Hadoop en mi otro hilo en Quora. Puede consultar la misma página a continuación.

Proyectos gratis de Hadoop y casos de uso.

Sobre todo, si desea aprender Hadoop o Spark, siempre se recomienda sugerir que se cubran los requisitos previos, repase los quora thead a continuación sobre las formas de aprender Hadoop y Spark por su cuenta.

¿Cuál es una buena manera de aprender varias tecnologías en el Hadoop Ecosystem, Spark skills por auto estudio?

Satyam Kumar | Desarrollador de Big Data en AcadGild

Puede aprender Hadoop de forma gratuita, hay toneladas de recursos disponibles en Google:

Ver videos en YouTube:

Introducción a Big Data y Hadoop para principiantes.

Mapa Avanzado Reducir Conceptos:

Material de lectura:

  • Los mejores libros para aprender Big Data y Hadoop
  • Instale Cloudera Hadoop CDH5 / Instale y configure Apache Hadoop 2.x
  • Learn HDFS – Capa de almacenamiento de datos de Hadoop
  • Internos de operación de lectura de datos
  • Operación de escritura de datos
  • HDFS Práctico
  • Los 10 mejores comandos HDFS
  • Tolerancia a fallos: la característica más importante de HDFS
  • Learn YARN – Capa de gestión de recursos
  • Aprender MapReduce – capa de computación
  • Aprender los componentes del ecosistema Hadoop:
    • Infraestructura de almacenamiento de datos de Hive en Hadoop

    ir a través de la lista, espero que tengas suficiente información ..

    1. Tutoriales de Hadoop
    2. Tutorial de Hadoop
    3. Tutorial de Hadoop: con HDFS, HBase, MapReduce, Oozie, Hive y Pig
    4. romainr / hadoop-tutorials-examples
    5. Hadoop Dev: IBM BigInsights para la comunidad de desarrolladores de Hadoop

    Adquiera un libro hadoop decente como Hadoop: The Definitive Guide (inglés), 3ª edición. Compre Hadoop: The Definitive Guide (inglés), 3ª edición de White Online a los mejores precios en la India: Flipkart.com. regístrate en la Big Data University. Tome algún curso en coursera que le brinde una imagen completa sobre el análisis de big data y hadoop.

    Encontrará una gran cantidad de recursos en INTERNET para aprender tecnologías de big data y algunos de ellos se enumeran aquí.

    Los 10 mejores recursos para aprender tecnologías de big data.

    Los 10 mejores libros para aprender tecnologías de big data.

    Opta por la universidad de big data o los cursos de udemy o edx, pero tienes que hacer proyectos utilizando hadoop para dominarlo. Hadoop es básicamente para el procesamiento paralelo y el almacenamiento de big data. Tiene muchas herramientas en su ecosistema, por lo que también tiene herramientas maestras para el ecosistema hadoop

    Hadoop tutoriales gratuitos

    http://www.reversehacking.cf/201…

    Creando Expertos es el mejor instituto de capacitación que le brinda capacitación en Hadoop de nivel avanzado y avanzado. Si desea obtener la capacitación práctica, puede llegar a los Expertos en Creación. Son los mejores institutos de capacitación que le brindan la capacitación de nivel avanzado. Desea obtener la capacitación Desde la creación de expertos, contáctenos y asista a una demostración. Luego únase a la capacitación.

    Hadoop es un marco de software de código abierto para almacenar datos y ejecutar aplicaciones en clusters de hardware básico.
    Hadoop está ahora en el mercado de TI. Así que es bueno capacitarse en Big Data de Hadoop y ser contratado …
    USTED puede obtener capacitación en línea gratuita de hadoop Desde OPT Nation … Es una buena capacitación en la que puede entender todo por sí mismo.

    También puede intentar ir a través de cursos en línea dirigidos por un instructor con soporte a pedido 24 × 7 | Edureka tiene buen curso de hadoop.

    Creo que el curso en línea de Cloudera sobre Udacity – Introducción a Hadoop y MapReduce es un gran comienzo para aprender los principios fundamentales detrás de él.