¿Cuáles son algunos buenos recursos para aprender sobre los modelos ocultos de Markov?

Las referencias de las listas de Alex son buenas. Aquí hay una visión general rápida en caso de que sea útil. Los modelos ocultos de Markov (HMM) son un tipo de red bayesiana. Como todas las redes de Bayes, se usan para representar relaciones de independencia condicional entre variables aleatorias y para mostrar cómo factorizar cuidadosamente una distribución de probabilidad conjunta.

Los HMM, en particular, son una generalización de las cadenas normales de Markov. Una simple cadena de Markov de primer orden es una colección de variables aleatorias [math] Z_1, \ ldots, Z_m [/ math] tal que la distribución conjunta [math] P (Z_1, \ ldots, Z_m) [/ math] simplemente se convierte en un factor aa producto de distribuciones condicionales: [math] P (Z_1) P (Z_2 | Z_1) P (Z_3 | Z_2) \ cdots P (Z_m | Z_ {m-1}) [/ math]. Es decir, el valor de la variable aleatoria en un punto de tiempo particular solo depende del punto de tiempo anterior, no del historial completo de la cadena.

Un HMM es solo una cadena de Markov de primer orden en la que no podemos ver los estados [math] Z [/ math]. En cambio, observamos una secuencia de emisiones [math] X_1, \ ldots, X_m [/ math] que dependen solo del estado actual de la cadena oculta de Markov.

Los HMM son muy útiles para modelar datos de series de tiempo en problemas como el etiquetado de partes de voz para una secuencia de palabras o secuenciación de ADN. También se pueden encontrar más detalles en las siguientes notas de una clase del MIT sobre Aprendizaje automático.

[1] http://courses.csail.mit.edu/6.8…
[2] http://courses.csail.mit.edu/6.8…

Tutoriales

Libros

Implementaciones

  • El ejemplo de Wikipedia Bob Alice HMM usando scikit-learn (gracias a Sujit Pal)
  • Modelos ocultos de Markov en C # (gracias a Shivin Saxena)
  • HMMER: http://hmmer.janelia.org/
  • Página de software de Tapas Kanungo

Recursos adicionales