¿Dónde puedo aprender big data y Hadoop en línea de forma gratuita?

Recomendaría algunos de los contenidos gratuitos que están disponibles. Edureka proporciona una buena lista de videos Tutorial de Hadoop. Le recomendaría que lea esta lista de reproducción de videos del tutorial de Hadoop , así como la serie de blogs del Tutorial de Hadoop . Su aprendizaje debe estar alineado con Big Data Certifications .

Primero entienda Big Data y los desafíos asociados con Big Data. Entonces, puedes entender cómo Hadoop surgió como una solución a esos problemas de Big Data. Este blog de What is Hadoop y Hadoop Tuorial te lo presentará.

Entonces debe comprender cómo funciona la arquitectura de Hadoop con respecto a HDFS, YARN y MapReduce.

Más adelante, debe instalar Hadoop en su sistema para que pueda comenzar a trabajar con Hadoop. Esto le ayudará a comprender los aspectos prácticos en detalle.

Más adelante, realice una inmersión profunda en el ecosistema Hadoop y aprenda varias herramientas dentro del ecosistema Hadoop con sus funcionalidades. Por lo tanto, aprenderá cómo crear una solución personalizada de acuerdo con sus requisitos.

Vamos a entender en breve:

¿Qué es Big Data?

Big Data es un término usado para una colección de conjuntos de datos que son grandes y complejos, que es difícil de almacenar y procesar utilizando las herramientas de administración de bases de datos disponibles o las aplicaciones tradicionales de procesamiento de datos. El desafío incluye capturar, curar, almacenar, buscar, compartir, transferir, analizar y visualizar estos datos.

Se caracteriza por 5 V’s.

VOLUMEN: El volumen se refiere a la ‘cantidad de datos’, que crece día a día a un ritmo muy rápido.

VELOCIDAD: la velocidad se define como el ritmo en el que las diferentes fuentes generan los datos todos los días. Este flujo de datos es masivo y continuo.

VARIEDAD: Como hay muchas fuentes que contribuyen a Big Data, el tipo de datos que generan es diferente. Puede ser estructurado, semiestructurado o no estructurado.

VALOR: Es bueno tener acceso a big data, pero a menos que podamos convertirlo en valor, es inútil. Encuentre ideas en los datos y saque provecho de ellos.

VERACIDAD: Veracidad se refiere a los datos en duda o incertidumbre de los datos disponibles debido a la inconsistencia y falta de datos de los datos.

¿Qué es Hadoop y su arquitectura?

Los componentes principales de HDFS son NameNode y DataNode .

NombreNodo

Es el demonio maestro que mantiene.

y gestiona los DataNodes (nodos esclavos). Registra los metadatos de todos los archivos almacenados en el clúster, por ejemplo, la ubicación de los bloques almacenados, el tamaño de los archivos, los permisos, la jerarquía, etc. Registra todos y cada uno de los cambios que se producen en los metadatos del sistema de archivos.

Por ejemplo, si un archivo se elimina en HDFS, el NameNode lo grabará inmediatamente en el EditLog. Regularmente recibe un informe de Heartbeat y de bloque de todos los DataNodes en el clúster para asegurar que los DataNodes estén activos. Mantiene un registro de todos los bloques en HDFS y en qué nodos se almacenan estos bloques.

DataNode

Estos son demonios esclavos que se ejecutan en cada máquina esclava. Los datos reales se almacenan en DataNodes. Son responsables de atender las solicitudes de lectura y escritura de los clientes. También son responsables de crear bloques, eliminar bloques y replicarlos de acuerdo con las decisiones tomadas por NameNode.

Para el procesamiento, utilizamos YARN (Yet Another Resource Negotiator). Los componentes de YARN son ResourceManager y NodeManager .

Administrador de recursos

Es un componente de nivel de clúster (uno para cada clúster) y se ejecuta en la máquina maestra. Administra los recursos y programa las aplicaciones que se ejecutan sobre YARN.

NodeManager

Es un componente de nivel de nodo (uno en cada nodo) y se ejecuta en cada máquina esclava. Es responsable de administrar los contenedores y monitorear la utilización de los recursos en cada contenedor. También realiza un seguimiento del estado del nodo y la gestión de registro. Se comunica continuamente con ResourceManager para mantenerse actualizado.

Por lo tanto, puede realizar un procesamiento paralelo en HDFS utilizando MapReduce.

Mapa reducido

Es el componente central del procesamiento en un ecosistema de Hadoop, ya que proporciona la lógica de procesamiento. En otras palabras, MapReduce es un marco de software que ayuda a escribir aplicaciones que procesan grandes conjuntos de datos utilizando algoritmos distribuidos y paralelos dentro del entorno de Hadoop. En un programa MapReduce, Map () y Reduce () son dos funciones. La función Map realiza acciones como filtrar, agrupar y clasificar. Mientras tanto, reduce los agregados de funciones y resume el resultado producido por la función map.El resultado generado por la función Map es un par de valores clave (K, V) que actúa como entrada para la función Reducir.

Puede pasar por este video para comprender Hadoop y su arquitectura en detalle.

Instale Hadoop Single Node y Multi Node Cluster

Luego puede ir a través de este blog de Hadoop Ecosystem para aprender Hadoop Ecosystem en detalle.

También puede ver este video tutorial de Hadoop Ecosystem.

Cerdo

PIG tiene dos partes: Pig Latin , the language y the pig runtime, para el entorno de ejecución. Puedes entenderlo mejor como Java y JVM. Es compatible con la lengua latina de cerdo .

Como todo el mundo no pertenece desde un fondo de programación. Entonces, Apache PIG los alivia. Usted podría ser curioso saber cómo?

Bueno, les contaré un dato interesante:

10 linea de cerdo latino = aprox. 200 líneas de código Java de Map-Reduce

Pero no se sorprenda cuando digo que en el extremo posterior del trabajo de Pig, se ejecuta un trabajo de reducción de mapas. El compilador convierte internamente pig latin a MapReduce. Produce un conjunto secuencial de trabajos de MapReduce, y eso es una abstracción (que funciona como una caja negra). PIG fue desarrollado inicialmente por Yahoo. Le brinda una plataforma para generar flujo de datos para ETL (Extraer, Transformar y Cargar), procesando y analizando grandes conjuntos de datos.

Colmena

Facebook creó HIVE para las personas que dominan SQL. Por lo tanto, HIVE los hace sentir como en casa mientras trabajan en un ecosistema de Hadoop. Básicamente, HIVE es un componente de almacenamiento de datos que realiza la lectura, escritura y administración de grandes conjuntos de datos en un entorno distribuido mediante una interfaz similar a la de SQL.

HIVE + SQL = HQL

El lenguaje de consulta de Hive se llama Hive Query Language (HQL), que es muy similar a SQL. La colmena es altamente escalable. Como, puede servir tanto para propósitos, es decir, procesamiento de grandes conjuntos de datos (es decir, procesamiento de consultas por lotes) como procesamiento en tiempo real (es decir, procesamiento de consultas interactivo). Hive se convierte internamente en programas de MapReduce.

Es compatible con todos los tipos de datos primitivos de SQL. Puede usar funciones predefinidas o escribir funciones personalizadas definidas por el usuario (UDF) también para satisfacer sus necesidades específicas.

Puede almacenar datos en HBase en función de sus necesidades.

HBase

HBase es una base de datos distribuida de fuente abierta, no relacional. En otras palabras, es una base de datos NoSQL. Es compatible con todo tipo de datos y, por eso, es capaz de manejar cualquier cosa dentro de un ecosistema de Hadoop. Se basa en el modelo BigTable de Google, que es un sistema de almacenamiento distribuido diseñado para hacer frente a grandes conjuntos de datos.

El HBase fue diseñado para ejecutarse sobre HDFS y proporciona capacidades similares a BigTable. Nos brinda una forma tolerante de fallas de almacenar datos dispersos, que es común en la mayoría de los casos de uso de Big Data. El HBase está escrito en Java, mientras que las aplicaciones HBase se pueden escribir en REST, Avro y Thrift API.

Para una mejor comprensión, tomemos un ejemplo. Tiene miles de millones de correos electrónicos de clientes y necesita averiguar la cantidad de clientes que han utilizado la palabra queja en sus correos electrónicos. La solicitud debe procesarse rápidamente (es decir, en tiempo real). Entonces, aquí estamos manejando un gran conjunto de datos mientras recuperamos una pequeña cantidad de datos. Para resolver este tipo de problemas, se diseñó HBase.

Edureka proporciona una buena lista de videos Tutorial de Hadoop. Le recomendaría que lea esta lista de reproducción de videos del tutorial de Hadoop , así como la serie de blogs del Tutorial de Hadoop . Su aprendizaje debe estar alineado con Big Data Certifications .

Te compartiré mi experiencia de aprendizaje. He estudiado Hadoop en varios videos de Tutorial de Hadoop. Te recomendaría pasar por este video. Este video le dará la imagen completa de Hadoop.

¿Qué es Hadoop?

Hadoop es un marco de software de código abierto para el almacenamiento distribuido y el procesamiento distribuido de grandes conjuntos de datos. Código abierto significa que está disponible de forma gratuita e incluso podemos cambiar su código fuente según nuestros requisitos. Hadoop hace posible ejecutar aplicaciones en el sistema con miles de nodos de hardware de productos básicos. Su sistema de archivos distribuidos proporciona velocidades de transferencia de datos rápidas entre nodos. También permite que el sistema continúe operando en caso de falla del nodo.

¿Por qué Hadoop?

Hadoop surgió como una solución a los problemas de “Big Data”.

Desafíos con Big Data-

Almacenamiento : ya que los datos son muy grandes, es muy difícil almacenar una cantidad tan grande de datos.

Seguridad : ya que los datos son enormes en tamaño, mantenerlos seguros es otro desafío.

Análisis : en Big Data, la mayoría de las veces no somos conscientes del tipo de datos con los que tratamos. Entonces, analizar esos datos es aún más difícil.

Calidad de los datos : en el caso de Big Data, los datos son muy confusos, inconsistentes e incompletos.

Descubrimiento : usar un algoritmo poderoso para encontrar patrones y perspectivas es muy difícil.

La imagen de Hadoop surgió para enfrentar los desafíos de Big Data. Es un marco de software de código abierto que admite el almacenamiento y procesamiento de grandes conjuntos de datos. Apache Hadoop es la mejor solución para almacenar y procesar big data porque:

  • Apache Hadoop almacena archivos grandes como están (sin procesar) sin especificar ningún esquema.
  • Alta escalabilidad: podemos agregar cualquier número de nodos, lo que mejora el rendimiento dramáticamente.
  • Fiable: los datos se almacenan de manera confiable en el clúster a pesar de las fallas de la máquina.
  • Alta disponibilidad : en Hadoop, los datos están altamente disponibles a pesar del fallo del hardware. Si una máquina o algún hardware falla, entonces podemos acceder a los datos desde otra ruta.
  • Económico: Hadoop se ejecuta en un grupo de hardware básico que no es muy costoso.

Los componentes principales de Hadoop son:

HDFS : es el sistema de almacenamiento más confiable del mundo. HDFS es un sistema de archivos de Hadoop diseñado para almacenar archivos muy grandes que se ejecutan en un clúster de hardware básico. HDFS está diseñado en principio de almacenamiento de menos cantidad de archivos grandes en lugar de la enorme cantidad de archivos pequeños. Proporciona una capa de almacenamiento tolerante a fallas para Hadoop y sus otros componentes. La replicación de datos nos ayuda a alcanzar esta característica. Almacena los datos de forma fiable incluso en el caso de un fallo de hardware. Proporciona acceso de alto rendimiento a los datos de la aplicación al proporcionar el acceso a los datos en paralelo.

MapReduce – MapReduce es la capa de procesamiento de Hadoop. MapReduce es un modelo de programación diseñado para procesar grandes volúmenes de datos en paralelo al dividir el trabajo en un conjunto de tareas independientes. Solo necesita poner la lógica de negocios en la forma en que MapReduce funciona y el resto se encargará de la estructura. El trabajo (trabajo completo) que el usuario envía al maestro se divide en pequeños trabajos (tareas) y se asigna a los esclavos.

YARN Apache Yarn – “Sin embargo, otro negociador de recursos” es la capa de administración de recursos de Hadoop. El hilo fue introducido en Hadoop 2.x. Yarn permite que los diferentes motores de procesamiento de datos, como el procesamiento de gráficos, el procesamiento interactivo, el procesamiento de secuencias y el procesamiento por lotes, puedan ejecutarse y procesar datos almacenados en HDFS. Además de la gestión de recursos, Yarn también se utiliza para la programación de trabajos.

Aquí hay algunos pasos que seguí para aprender Big Data y Hadoop hace algunos años.

  1. Haga una investigación de mercado sobre Big Data y Hadoop y su alcance futuro, como sobre las compañías que usan Big Data y Hadoop, dónde está el centro de la industria, la escala de pagos, etc. Si me pregunta, no hay mejor carrera que Big Data si eres realmente apasionado por eso
  2. Comience a aprender algunos conceptos básicos sobre Big Data y Hadoop en los blogs disponibles en línea. Aquí hay una página de blog para empezar. Estos son los temas importantes que se utilizan en la industria. Lee y domínalos.
  • Archivos de tutoriales de Hadoop
  • Archivos de tutoriales HDFS
  • Archivos de tutoriales de MapReduce
  • YARN Tutorials Archives – DataFlair
  • Archivos de tutoriales HDFS

Lea mi respuesta detallada aquí: ¿Qué es Big Data Hadoop? ¿De dónde puedo aprender?

3. Repase las descripciones de trabajo de tantas compañías como pueda e intente comprender qué trabajo está esperando exactamente de usted.

Lea aquí sobre https://data-flair.training/blog

4. Hacer proyectos. Los proyectos son muy importantes ya que los reclutadores están buscando candidatos con algunas manos. Pocos buenos proyectos pueden ser una bendición para ti. Haz al menos 2–3. Hay algunos buenos cursos en línea que le proporcionarán los proyectos, así como la certificación.

5. Pruebe todas las habilidades que encontró en JDs y que los reclutadores están buscando e inclúyalas en su currículum. No hagas un curriculum vitae para niños. Usa buenas palabras técnicas. Busque las vacantes de empleo y siga solicitando los puestos de trabajo.

Recuerde: puede solicitar el mismo trabajo varias veces porque no es necesario que cada vez que su currículum se envíe a la misma persona. La búsqueda de empleo es un trabajo en sí mismo. Y por cierto, el curso que mencioné en el punto 4 está orientado al 100% en el trabajo.

Para una visión más clara, puede consultar mis respuestas en las siguientes preguntas

  • La respuesta de Shailna Patidar a ¿Cuáles son los requisitos previos para aprender Hadoop y big data?
  • La respuesta de Shailna Patidar a ¿Cuál es el alcance de BIG DATA y Hadoop?
  • La respuesta de Shailna Patidar a ¿Cómo debo seguir una carrera en big data?

Si quieres que continúe compartiendo mis conocimientos, por favor, ¡ ACTUALIZA!

TODO LO MEJOR…

Para ser muy franco, los cursos gratuitos no le brindarán las manos en el conocimiento que las industrias solicitan si se presenta a alguna entrevista de Hadoop.

Puedo ver muchas clases que responden a esta pregunta relacionada con su instituto, pero permítame compartir mi experiencia personal con usted.

Tomé el curso en línea sobre Big Data Hadoop de DataFlair Web Services y solo tengo una palabra que decir sobre su entrenamiento “Es increíble”. Comencé mi carrera como desarrollador de PHP de una compañía muy pequeña donde no había mucho que hacer. Busqué cursos en línea y finalicé DataFlair después de una búsqueda larga ya que no pude pagar tarifas altas en otras clases debido a mi menor salario. Inicialmente, tenía mucho miedo de unirme al curso, pero al comenzar mis sesiones, empecé a amar la tecnología y Disfruté mucho el entrenamiento. La mejor parte de su curso fue que obtuve el conocimiento práctico completo que se requiere para ingresar al mundo de Hadoop. El instructor Anish, señor, ayudó a aprender la tecnología a un nivel muy avanzado y me ayudó a prepararme para las entrevistas. Finalmente, al cabo de 1 mes de finalización del curso, me asignaron a Cognizant y desde los últimos 2 años, trabajo como desarrollador de Hadoop y Spark aquí. El instructor todavía me ayuda cuando me quedo atascado en cualquier lugar de mi proyecto. Además, su tarifa del curso es tan baja que después de ingresar a la compañía de Big Data, podría recuperar esa tarifa dentro de 1 mes de mi aumento de sueldo en la nueva compañía. Puede contactarme en [email protected] si tiene alguna otra consulta relacionada con la tecnología. o el curso.

Hay muchas maneras de aprender Hadoop en línea. Puedes aprenderlo solo viendo videos gratuitos disponibles en la red y leyendo material gratuito. o puedes hacerlo uniéndote a cualquier entrenamiento en línea.

Vea el video a continuación para aprender lo básico de Hadoop:

Una vez que haya terminado con la introducción, necesita aprender más sobre Hadoop y sus componentes del ecosistema que puede hacer a través de los enlaces a continuación:

Sumérgete en Big Data Hadoop para dominar la última tecnología

Hadoop HDFS Tutorial – Introducción a HDFS, arquitectura, características y operaciones

Tutorial de Hadoop MapReduce – Una guía completa

Tutorial integral de Hadoop YARN: otro negociador de recursos más

Encontrará varios otros artículos sobre esta tecnología en el siguiente enlace:

Blogs de DataFlair

Si quieres aprenderlo a través de la clase en línea, te sugeriré que vayas con DataFlair, ya que ofrecen un curso orientado al trabajo al 100% que te ayudará a encontrar la compañía de tus sueños.

Capacitación de Hadoop | Capacitación en ciencia de la información | Capacitación en Java | Sap ofrece capacitación en Hadoop en línea dirigida por un instructor a profesionales de TI y no informáticos. http://www.online-trainings.org La capacitación en línea cubre la mayoría de los temas clave de Big Data y Hadoop, incluyendo Introducción a Big Data y Hadoop, clúster de Hadoop, MapReduce, Pig, Hive, HBase, ZooKeeper, Oozie, Sqoop y Hilo. Dentro de esta capacitación en línea, el estrés se da más en trabajos basados ​​en el trabajo. Por lo tanto, esta capacitación le ayuda a prepararse para el trabajo.

Beneficios de la formación en línea de Big Data Hadoop:

· Capacitación en Hadoop | Capacitación en ciencia de datos | Capacitación en java | La capacitación en línea dirigida por un instructor de Sap ayuda a los graduados universitarios y profesionales de TI a comprender fácilmente los temas de Big Data y Hadoop.

· Los formadores compartirán sus años de experiencia con usted.

· Aquí obtendrá acceso al material de estudio de la base de conocimientos que puede ayudarlo a obtener las certificaciones profesionales de Hadoop, incluidas Cloudera, Hortonworks y MapR.

· Junto con las clases en línea, tienes la oportunidad de trabajar en un proyecto en tiempo real junto con nuestros instructores.

· Los instructores conducen las clases de una manera fácil de entender.

· Se realizan entrevistas simuladas de Hadoop para prepararte para las entrevistas.

· También recibirá asistencia para preparar el currículum vitae que lo contratará a los mejores empleadores.

· Los alumnos reciben tareas de alto nivel para comprender mejor los temas.

· Después de completar este programa de capacitación, puede aprobar fácilmente cualquier entrevista de trabajo de Hadoop o examen de certificación de Hadoop

Después de completar las clases tutoriales de Big Data y Hadoop, puede descifrar fácilmente cualquier entrevista de trabajo. Para obtener un conocimiento detallado sobre la capacitación de Hadoop | Capacitación en ciencia de datos | Capacitación de java | Capacitación en línea de Hadoop, envíe un correo electrónico a [email protected] o llámenos al +91 9963552676 / +91 9949514010.

Hola,

Sin ningún orden en particular, aquí hay una docena de excelentes fuentes gratuitas para el entrenamiento de Hadoop.

1. Big Data Univercity

Big Data University ofrece más de 80 cursos sobre Hadoop, HBase, Pig, análisis de big data, SQL, IBM BLU, DB2 y más. La mayoría de los cursos son en inglés, pero algunos están en japonés, español, portugués, ruso y polaco.

2. Cloudera Essentials para Apache Hadoop

Cloudera tiene un curso de video en línea Cloudera Essentials para Apache Hadoop que se distribuye capítulo por capítulo, así como también capacitación en Hadoop dirigida a administradores, analistas de datos, científicos de datos y desarrolladores. Su próximo paso podría ser tomar el curso de Introducción a Hadoop y MapReduce de tres lecciones, ofrecido a través de Udacity. Cloudera también tiene una demostración gratuita en vivo de Hadoop, llamada Cloudera Live, para ayudarte a aprender ese entorno.

Gracias,

Kumar Priyanka,

Desarrollador Hadoop.

Ya que hay una loca carrera por aprender Hadoop y ordenar grandes salarios, las personas obviamente están buscando el canal gratuito para aprender Hadoop. Pero una cosa que debe comprender es que los recursos gratuitos no le garantizarán que lo que está aprendiendo es realmente útil, lo ayudará a conseguir el trabajo de sus sueños, el contenido se actualiza, el curso está en línea con los organismos de certificación. preparado por profesionales capacitados de la industria con amplia experiencia, soporte para cualquier consulta que pueda tener. Todos estos beneficios vienen solo con un jugador establecido en el mercado de capacitación profesional de hadoop en el espacio en línea.

Mira este video en big data hadoop:

Quieres aprender la tecnología BigData porque es una gran habilidad en el mercado por la cual te pagarán de manera real, ¡pero aún así quieres aprenderla GRATIS!
Hay algunos excelentes recursos y certificaciones en línea, pero lamento que no sean GRATIS.
Capacitación y certificación de Hadoop
Página en emc.com
Capacitación y Certificación de TI para Tecnología Oracle

He respondido esta pregunta en otro hilo de quora donde he sugerido las formas de aprender Hadoop por sí mismo.

¿Cómo puedo aprender Hadoop por mi cuenta en línea de forma gratuita?

Satyam Kumar | Desarrollador de Big Data en AcadGild

He visto muchas respuestas aquí, pero la mayoría de ellas ignoró la palabra libre en su pregunta. También soy instructor de Hadoop y sé exactamente qué problemas encontrará cuando comience a aprender Hadoop. Ok ahora la pregunta es ¿cómo empezar? ¿Qué necesita y si está atascado de dónde obtener ayuda? Estas son las preguntas básicas que uno necesita hacer antes de comenzar a aprender un concepto completamente nuevo. Así que, aquí vamos. Hay muchos sitios web que ofrece contenido gratuito. Algunos de ellos son mapr, big data univesity, etc. Los blogs de Cloudera son los mejores que he encontrado hasta ahora. Pero espera, ¿son buenos para empezar? La respuesta desde mi punto de vista es un gran no. Serán muy útiles una vez que sepas lo básico de Hadoop. Yo recomendaría ver videos de dos canales populares de YouTube. Una es la realidad y la otra es durgasoft. Ambos tienen una serie de videos que van desde lo básico hasta el concepto avanzado con enlaces de código en la descripción del video. Itvesity también responde a los comentarios en sus videos. Así que puedes preguntar tus dudas. Comienza a ver estos videos. Luego vaya a cursos gratuitos sobre big data univesity y mapr. Espero que eso ayude. Feliz aprendizaje.

AnalytixLabs es un instituto de capacitación en Data Science y Big Data, que opera desde Gurgaon y Bangalore, India, que ha estado trabajando con prestigiosos clientes corporativos y ha contribuido profundamente al grupo de talento analítico en India desde 2011. Liderado por un equipo de Mckinsey, IIT, IIM Analytixlabs, exalumno de ISB, aspira a facilitar tanto a los estudiantes como a los profesionales la capacitación puntera, específica de la industria y bien dirigida en múltiples disciplinas de Big Data Analytics y Data Science.

Los cursos ofrecidos por Analytixlabs están estructurados teniendo en cuenta la dinámica de la industria analítica. A los estudiantes se les proporcionan conocimientos teóricos completos y capacitación práctica basada en un módulo de estudio de caso. El equipo de profesores está decorado con una experiencia total de más de 50 años en el análisis global.

Los instructores provienen de firmas líderes en consultoría y tecnología como Mckinsey, KPMG, Deloitte, Facebook, Genpact y Fidelity. El equipo de profesores es definitivamente algo de lo que Analytixlabs puede presumir. **

Preferí los mejores cursos de aprendizaje en línea en Coursera (Página en coursera.org).
Este enlace a través de usted aprende Big Data y Hadoop con facilidad (Página en coursera.org).

Hay muchas opciones allí, depende de lo que quieras aprender, en YouTube, la mayor parte de los videos están ahí. Aparte de eso, algunos canales de youtube como durgasoft, itversity y edureka son un buen punto de partida. También las compañías cloudera y mapr tienen muchos tutoriales en video disponibles en su sitio web, por lo que https://learn.mapr.com o el sitio web cloudera también es un gran comienzo.

Gratis son complementarios al curso pagado o para el aprendizaje informal.

IBM tiene cursos gratuitos – Clase cognitiva, también tiene clúster gratuito my.imdemocloud.com para la práctica.

Pero el mismo IBM ha pagado cursos a los que apunta la respuesta de Soni Ridhi. Algunas de las ventajas del pago son obvias.

Puede consultar algunos cursos gratuitos en CloudxLab.com, también puede usar su plataforma para practicar Big Data y Hadoop. Los cursos gratuitos incluyen videos de alta calidad, evaluaciones, pruebas y diapositivas.

Gracias por la A2A.

Puedes ir a través de mi sitio web. Estos tutoriales lo ayudan a aprender sobre bigdata y hadoop de manera fácil.

Way to Easy Learn

Gracias

Janani y Vitthal son exalumnos del Indian Institute of Management – Ahmadabad. Han fundado Loony Corn después de trabajar en la industria del software durante más de 7 años. Loony Corn ahora tiene múltiples entrenadores que tienen experiencia intensiva en sus áreas específicas de especialización.

También tiene algunos tutoriales de vídeo que cubren

  • Introducción a Big Data
  • importancia de Big data
  • Resumen de Hadoop
  • Instalacion hadoop
  • El MapReduce “Hola Mundo”
  • Ejecutar un trabajo MapReduce
  • Combiner, Shuffle and Sort y The Streaming API
  • HDFS
  • Hilo
  • Personalización de MapReduce para un control de grano más fino.

Espero que el video tutorial te ayude.

Por favor encuentre mis videos gratis para comenzar

Core Java: Sesiones Core Java absolutamente gratis – YouTube

Serie Hadoop 1: Tutorial Hadoop – YouTube

Serie Hadoop 2: Serie Hadoop 2 – YouTube

Por favor, vota si lo encuentras útil.

Para empezar, le sugiero que lea la guía de inicio rápido de Hadoop de Douglas eadline. Confíe en mí: es un libro muy bueno que también incluye pasos para instalar el clúster hadoop (nodo único y nodo múltiple) en pasos muy sencillos.

Si quieres aprender hadoop en línea, ve a los tutoriales en video. Usted puede obtener un montón de video tutorial en you tube. Sólo leer el texto no te ayudará mucho. El video tutorial te ayudará a entender las cosas mejor y fácilmente.