Casi todos los métodos de aprendizaje automático se basan en minimizar la función objetivo. Además, la mayoría de los problemas de optimización de ML se dividen en dos clases
(a) Optimización convexa
(b) Optimización no convexa.
Para la función que es estrictamente convexa y se garantiza que tiene un mínimo global (único), se puede resolver utilizando diferentes métodos estándar, tales como:
- ¿Cuáles son algunos de los mejores recursos para aprender Business Analytics?
- ¿Qué es la gamificación LMS?
- ¿Cuál es la mejor fuente de información para presupuestos de cine?
- ¿Cuál es el mejor recurso en línea para aprender excel y vba?
- Cómo estudiar para el examen Senior Professional in Human Resources (SPHR)
- SVM (máquinas de vectores de soporte)
- Regresiones lineales (dispersas, por ejemplo, lazo)
- Estimación de series de tiempo de Gauss lineal (Kalman Fiter y amigos)
- Estimación de máxima verosimilitud
Los métodos no convexos tienen varios mínimos locales y no son óptimamente globales. En general, es difícil de probar en la optimización no convexa, ya sea que su solución sea la más óptima o no. Los métodos incluyen
- Redes neuronales
Es bastante difícil manejar problemas no convexos y, por lo tanto, casi todos los problemas se tratan con soluciones convexas porque ofrecen una buena solución (óptimo local = opción global), incluso si no son convexas, la aproximación convexa del problema siempre existe.
Existe un problema abierto para lidiar con la optimización de ML para problemas no convexos, es solo que todavía no hemos encontrado una buena manera de lidiar con eso.
Para dominar esto, debe tener una comprensión sólida de (nivel de pregrado y posgrado) –
- Análisis
- Cálculo particularmente cálculo multivariable
- Álgebra lineal
- Fundamentos de ML
- Probabilidad
- Algoritmo
- Mejoramiento
- Programación dinámica e integral.
- Analisis convexo
Hay brillantes materiales de conferencias de investigadores que realizan tutoriales sobre Optimización en ML en la conferencia NIPS casi todos los años. Intenta escucharlos. En su mayoría, se ocupará de los problemas convexos, así que concéntrese en ellos. Hacer una base sólida en algoritmos con programación lo llevará a lugares.
Algunas de las técnicas de optimización genérica y los métodos de mayorización que debería aprender
- Lote
- más empinado
- descendencia
- conjugado
- gradiente
- Newton
- Estocástico
- Pendiente de gradiente estocástico.
- SGD adaptativa
- Método de gradiente estocástico medio
- Método de ascenso de doble coordenada estocástica
- SVRG
- Semi-estocástico
- Métodos híbridos determinista-estocásticos [FS12]
- Metodos de mayorizacion
- MISO
- escala iterativa
- Expectativa – Maximización
- Principio de límite inferior cuadrático
Hay excelentes artículos sobre estos temas disponibles en ArXiv e páginas de investigadores. Léelos, compréndelos, intenta implementarlos.
Buena suerte.