¿Cuáles son las formas en que puedo aprender sistemas de big data como Hadoop sin gastar un centavo y simplemente navegando en Internet?

Hay cientos de artículos, blogs y tutoriales repartidos por Internet que te hacen sentir que estás aprendiendo una habilidad en particular, mientras que estás conociendo algunas palabras clave. Pero “solo navegando” no funcionará. Tienes que implementar y jugar con las herramientas.

Mi idea de aprender un tema tan vasto como el análisis de datos es mirarlo desde tres perspectivas. Hay que seguir aprendiendo tres aspectos.

  1. Teoría: matemáticas, estadística, aprendizaje automático, reconocimiento de patrones, etc.
  2. Herramientas: R, Python, Hadoop, Spark, etc.
  3. Técnicas: los aprendes resolviendo problemas, implementando trabajos de investigación, jugando en Kaggle, etc.

Usted elige un flujo: ya sea para los conceptos matemáticos de la ciencia de datos, o más big data orientada a la programación de alto nivel. Hay un montón de recursos disponibles en internet. Recuerde, una vez más, solo navegar en los blogs y leer artículos no funcionará. Puede encontrar fácilmente (1) cursos en video, (2) libros, (3) artículos, (4) foros públicos y, por supuesto, (5) documentación. Son los recursos que debes comenzar a encontrar.

Advertencia: hay muchos sitios web y portales (en su mayoría, de la India) que ofrecen videos tutoriales. Seguirían hablando sobre una tecnología en particular durante 2 horas sin ofrecer ningún conocimiento nuevo y, al final, publicitarían su instituto.

Aquí hay algunos recursos para empezar.
1. Curso de Andrew Ng sobre Aprendizaje Automático.
https://www.coursera.org/learn/m…
2. Plataforma Hadoop y marco de aplicación https://www.coursera.org/learn/h…
3. Análisis de datos e inferencia estadística.
https://www.coursera.org/course/…
4. El blog de Amazon CTO: All Things Distributed
5. Grupo de Facebook dedicado: Iniciar sesión en Facebook | Facebook

  • Hadoop es una combinación de aplicaciones de ejecución en línea en una escala muy grande construida con hardware básico; Una tecnología imprescindible de Big Data.
  • Es manejado por Apache Software Foundation y es útil para manejar y almacenar grandes cantidades de datos de manera rentable.
  • Para aprender Hadoop y su ecosistema y trabajar en aplicaciones de Big Data en tiempo real, una capacitación profesional de los expertos de la industria se considera una necesidad.
  • Las principales empresas de análisis de Big Data como Big Data y Hadoop con certificación en línea Google, Yahoo, Apple, eBay, Facebook y muchos otros están contratando profesionales capacitados capaces de manejar Big Data.
  • Expertos en Big Data Hadoop puede administrar operaciones completas basadas en datos en compañías de big data y análisis.
  • Esta capacitación en línea de Big Data Hadoop proporciona ejercicios prácticos sobre POC de extremo a extremo utilizando Yarn o Hadoop que pueden prepararlo para la Certificación Profesional Hadoop 2.
  • Estará equipado con ejercicios avanzados de reducción de mapas que incluyen ejemplos de compañías de Big Data como Facebook, Sentiment Analysis, el algoritmo de ruta más corta de LinkedIn, indexación invertida.