El curso de aprendizaje automático ofrecido en Coursera es la versión diluida del CS 229 original ofrecido en la universidad de Stanford.
Curso de aprendizaje automático de Coursera : –
La premisa básica y la estructura del curso de Aprendizaje Automático es bastante simple. Durante un período de 10 semanas, se cubren una variedad de temas a través de breves conferencias de video, y luego se les da seguimiento con preguntas de revisión y ejercicios de programación. Los temas cubiertos incluyen regresión logística, redes neuronales, agrupación y sistemas de recomendación. Normalmente cubrirás uno o dos temas en una sola semana, con un total de hasta dos o tres horas de conferencias. Las preguntas de revisión son un asunto simple de opción múltiple, y solo tomarán 5 minutos cada una, mientras que puede esperar pasar un buen par de horas en cada uno de los ocho ejercicios de programación. Para mí, esto totalizó alrededor de 5 horas de trabajo por semana, lo que es bastante parecido a lo que sugiere Coursera en la página del curso.
Si eres un principiante en el aprendizaje automático, es mejor si tomas primero un curso de aprendizaje automático de Coursera y luego continúas con los videos del curso CS 229.
- Educación en línea en EE. UU .: ¿Qué tan valioso es para nosotros?
- ¿Qué tan confiables son los comentarios del curso sobre Udemy?
- ¿Cuáles son los mejores cursos de marketing y negocios en línea de OpenCourseWare (o de pago) para emprendedores?
- ¿Qué ejemplos y casos de uso existen para soporte de desempeño en empresas?
- ¿Hay algún curso en línea para convertirse en neurocientífico?
Curso de aprendizaje de máquina CS 229 : –
El curso CS 229 de Andrew Ng en Stanford sobre aprendizaje automático ofrece una excelente visión general de los diferentes tipos y aplicaciones de los algoritmos actuales de aprendizaje automático. El curso está disponible de forma gratuita en YouTube o suscríbase en iTunes University .
Tenga cuidado, este es un curso de teoría, por lo que se enseña a través de las matemáticas en lugar de la programación. Desarrollarás una comprensión más profunda, pero puede dañar tu cerebro .
Las notas de la sección brindan ayuda para revisar los conceptos clave que necesitará.
He visto el curso, pero sigo olvidando qué lección cubrió qué tema. Para recordar, he reunido un breve resumen a continuación:
- 1 – Introducción y resumen.
- 2 – Regresión lineal , Pendiente de pendiente y [Ecuaciones normales] [].
- 3 – Regresión lineal e interpretación probabilística, regresión logística (algoritmo de clasificación), método de Newton y una breve introducción al algoritmo Perceptron .
- 4 – Regresión logística y método de Newton, [Familia exponencial] [], Modelos lineales generalizados (GLM).
- 5 – Algoritmos de aprendizaje generativo, [Análisis discriminatorio gaussiano] [] (GDA), Algoritmos generativos y discriminatorios, [Naive Bayes] [], y Laplace Smoothing .
- 6 – Naive Bayes & Event Models, Neural Networks , [Support Vector Machines] [] (SVMs).
- 7 – Clasificador de margen óptimo, problema de optimización Primal / Dual (KKT), SVMdual, Kernels .
- 8 – SVMs (Kernels, Soft Margin , SMO algorithm)
- 9 – Teoría del aprendizaje: sesgo / varianza, minimización del riesgo empírico (ERM), desigualdad entre la unión y el resguardo , [convergencia uniforme] [].
- 10 – Dimensión VC, Selección de modelo (validación cruzada, selección de características), estadística y regularización bayesiana.
- 11 – Estadística y regularización bayesiana, aprendizaje en línea, consejos para aplicar algoritmos ML.
- 12 – Agrupación (k-medias), Mezcla de gaussianos , [Desigualdad de Jensen] [], Maximización de la expectativa (EM)
- 13 – Mezcla de gaussianos, Mezcla de bayas ingenuas, [Análisis factorial] [], y más sobre distribuciones gaussianas.
- 14 – Análisis factorial (pasos de EM), Análisis de componentes principales (PCA).
- 15 – PCA: Indización semántica latente (LSI), [Descomposición del valor singular] [] (SVD), y [Análisis de componentes independientes] [] (ICA).
- 16 – Proceso de decisión de Markov (MDP), función de valor, [iteración del valor] [] e iteración de políticas .
- 17 – Aprendizaje de refuerzo, utilizando los procesos de decisión de Markov (MDP), ampliado a variables continuas. Un ejemplo motivador es el control de un péndulo invertido. Los modelos del sistema a controlar pueden ser derivados (por ejemplo, modelo de física) o aprendidos (por ejemplo, a través de un piloto de helicóptero)
- 18 – State Action Rewards, MDP de horizonte finito, sistemas dinámicos lineales (modelos, regulación cuadrática lineal (LQR), [ecuación de Riccati] []).
- 19 – Depuración de algoritmos de RL, LQR (Programación dinámica diferencial (DDP)), Filtros de Kalman , Gaussianos cuadráticos lineales (LQG).
- 20 – POMDPs ( MDPs Parcialmente Observables), Policy Search, Reinforce, Pegasus, Conclusion.