¿Cuáles son las diferencias entre los cursos de aprendizaje automático de Andrew Ng ofrecidos en Coursera y iTunes U? ¿Todavía cubren los mismos temas? Si hay diferencias, ¿cuál recomendaría a alguien que recién comienza a aprender sobre el LD?

El curso de aprendizaje automático ofrecido en Coursera es la versión diluida del CS 229 original ofrecido en la universidad de Stanford.

Curso de aprendizaje automático de Coursera : –

La premisa básica y la estructura del curso de Aprendizaje Automático es bastante simple. Durante un período de 10 semanas, se cubren una variedad de temas a través de breves conferencias de video, y luego se les da seguimiento con preguntas de revisión y ejercicios de programación. Los temas cubiertos incluyen regresión logística, redes neuronales, agrupación y sistemas de recomendación. Normalmente cubrirás uno o dos temas en una sola semana, con un total de hasta dos o tres horas de conferencias. Las preguntas de revisión son un asunto simple de opción múltiple, y solo tomarán 5 minutos cada una, mientras que puede esperar pasar un buen par de horas en cada uno de los ocho ejercicios de programación. Para mí, esto totalizó alrededor de 5 horas de trabajo por semana, lo que es bastante parecido a lo que sugiere Coursera en la página del curso.

Si eres un principiante en el aprendizaje automático, es mejor si tomas primero un curso de aprendizaje automático de Coursera y luego continúas con los videos del curso CS 229.

Curso de aprendizaje de máquina CS 229 : –

El curso CS 229 de Andrew Ng en Stanford sobre aprendizaje automático ofrece una excelente visión general de los diferentes tipos y aplicaciones de los algoritmos actuales de aprendizaje automático. El curso está disponible de forma gratuita en YouTube o suscríbase en iTunes University .

Tenga cuidado, este es un curso de teoría, por lo que se enseña a través de las matemáticas en lugar de la programación. Desarrollarás una comprensión más profunda, pero puede dañar tu cerebro .

Las notas de la sección brindan ayuda para revisar los conceptos clave que necesitará.
He visto el curso, pero sigo olvidando qué lección cubrió qué tema. Para recordar, he reunido un breve resumen a continuación:

  • 1 – Introducción y resumen.
  • 2 – Regresión lineal , Pendiente de pendiente y [Ecuaciones normales] [].
  • 3 – Regresión lineal e interpretación probabilística, regresión logística (algoritmo de clasificación), método de Newton y una breve introducción al algoritmo Perceptron .
  • 4 – Regresión logística y método de Newton, [Familia exponencial] [], Modelos lineales generalizados (GLM).
  • 5 – Algoritmos de aprendizaje generativo, [Análisis discriminatorio gaussiano] [] (GDA), Algoritmos generativos y discriminatorios, [Naive Bayes] [], y Laplace Smoothing .
  • 6 – Naive Bayes & Event Models, Neural Networks , [Support Vector Machines] [] (SVMs).
  • 7 – Clasificador de margen óptimo, problema de optimización Primal / Dual (KKT), SVMdual, Kernels .
  • 8 – SVMs (Kernels, Soft Margin , SMO algorithm)
  • 9 – Teoría del aprendizaje: sesgo / varianza, minimización del riesgo empírico (ERM), desigualdad entre la unión y el resguardo , [convergencia uniforme] [].
  • 10 – Dimensión VC, Selección de modelo (validación cruzada, selección de características), estadística y regularización bayesiana.
  • 11 – Estadística y regularización bayesiana, aprendizaje en línea, consejos para aplicar algoritmos ML.
  • 12 – Agrupación (k-medias), Mezcla de gaussianos , [Desigualdad de Jensen] [], Maximización de la expectativa (EM)
  • 13 – Mezcla de gaussianos, Mezcla de bayas ingenuas, [Análisis factorial] [], y más sobre distribuciones gaussianas.
  • 14 – Análisis factorial (pasos de EM), Análisis de componentes principales (PCA).
  • 15 – PCA: Indización semántica latente (LSI), [Descomposición del valor singular] [] (SVD), y [Análisis de componentes independientes] [] (ICA).
  • 16 – Proceso de decisión de Markov (MDP), función de valor, [iteración del valor] [] e iteración de políticas .
  • 17 – Aprendizaje de refuerzo, utilizando los procesos de decisión de Markov (MDP), ampliado a variables continuas. Un ejemplo motivador es el control de un péndulo invertido. Los modelos del sistema a controlar pueden ser derivados (por ejemplo, modelo de física) o aprendidos (por ejemplo, a través de un piloto de helicóptero)
  • 18 – State Action Rewards, MDP de horizonte finito, sistemas dinámicos lineales (modelos, regulación cuadrática lineal (LQR), [ecuación de Riccati] []).
  • 19 – Depuración de algoritmos de RL, LQR (Programación dinámica diferencial (DDP)), Filtros de Kalman , Gaussianos cuadráticos lineales (LQG).
  • 20 – POMDPs ( MDPs Parcialmente Observables), Policy Search, Reinforce, Pegasus, Conclusion.

Comencé CS229 – Aprendizaje automático por Andrew Ng en Stanford y luego a mitad de camino cambié a Coursera uno, pensando que obtener un certificado junto con el aprendizaje es más ventajoso. Esta imagen resumirá mi experiencia.

Acabo de terminar el curso de Aprendizaje automático de Coursera y estoy en el proceso de estudiar los materiales del curso de CS229, que consta de 20 conferencias de video, notas de conferencias y 4 proyectos.

Lo que dijo Vikram Jha es correcto.

Agregaré lo siguiente:

  • El curso ML de Coursera le permitirá a alguien (1) identificar situaciones en las que se puede aplicar ML, (2) implementar un repertorio limitado de algoritmos ML enseñados en el curso. Sin embargo, ML ha avanzado mucho más allá de los materiales enseñados en este curso, que está fechado en 2011.
  • El CS229 de Stanford proporciona un estudio más profundo de la base matemática y teórica detrás de ML. Si puede dominar esta base, le permitirá estudiar los nuevos artículos científicos en ML y crear adaptaciones de algoritmos de ML más allá del conjunto limitado enseñado en el curso de Coursera.

En pocas palabras, CS229 lo prepara para ser un científico del aprendizaje automático capaz de desarrollar algoritmos ML. El curso Coursera lo prepara para ser un implementador de aprendizaje automático de algoritmos ML.