Bueno, es un buen momento para aprender algo acerca de las NN artificiales, ya que en los últimos años las NN han logrado un gran éxito en áreas como el reconocimiento del habla / imagen.
Entonces, vamos a su pregunta. Ahora dices que todavía no tienes fondo. Está bien. Todo el mundo empieza sin fondo, ¿de acuerdo? Para las personas que intentan aprender las NN por primera vez, el material que recomendaría es el Tutorial de Aprendizaje y Aprendizaje Profundo de Funciones Sin Supervisión, escrito por Andrew Ng y sus alumnos.
Este es un tutorial bien escrito, fácil de seguir y completo. Comienza con algunos aspectos básicos del aprendizaje supervisado , ya que las NN artificiales son inherentemente una arquitectura para el aprendizaje supervisado. Luego habla de redes neuronales simples, formalmente las redes totalmente conectadas, que son más fáciles de analizar matemáticamente. Después de eso, salta a un tema actual, las redes neuronales convolucionales (CNN), que es el tipo de NN artificial que realmente logra el éxito mencionado anteriormente. Por cierto, es posible que hayas oído hablar de “aprendizaje profundo”. Bueno, la mayor parte del aprendizaje profundo es solo sobre las CNN. Después de eso, el tutorial cambia al aprendizaje no supervisado al introducir un tipo importante de NN, el autocodificador. Luego construirá la conexión entre el autocodificador y algunas técnicas clásicas como PCA e ICA. No te preocupes si no has oído hablar de ellos. Los conocerás y son bastante comprensibles. Finalmente, el tutorial terminará con un área en la que Andrew Ng ha contribuido mucho, el aprendizaje autodidacta, que utiliza los codificadores automáticos para aprender características de datos sin etiquetar.
Bueno, puede que haya incluido demasiadas terminologías en la respuesta anterior. Así que te recomiendo que pruebes tú mismo. Una buena cosa del tutorial anterior es que incluye ejercicios bien diseñados para cada sección. Aprenderás haciendo y tendrás una mejor comprensión del material. Para este ejercicio, he entregado un conjunto de soluciones a GitHub (Jianchao-ICT / UFLDL_NEW-Solutions) que puede usar como referencia. La mayoría de las soluciones funcionan como se espera, excepto una que mencioné en el archivo Léame.
Finalmente, una cosa que vale la pena mencionar es que el tutorial anterior tiene una versión anterior en UFLDL Tutorial – Ufldl. He estudiado a través de ambos. La versión anterior comienza con el ejemplo relativamente sencillo, aunque representativo, de NN: el codificador automático y la mayoría de las otras secciones se tratan como algunas extensiones de los codificadores de voz. Además, la versión anterior le da relativamente poco peso a la CNN, que se ilustra más detalladamente en la nueva versión.
Oh no, esta respuesta es demasiado larga. Entonces, ¿algún mensaje para llevar a casa? Bueno, creo que lo primero importante en las NN artificiales es el algoritmo de Propagación hacia atrás (BP) , que se usa para entrenar la red. Este es un algoritmo clásico. Desafortunadamente, no es fácil de entender cuando lo aprendes por primera vez. Usted puede sentirse confundido y frustrado. Sin embargo, créame, este es realmente un algoritmo difícil, incluso Andrew expresó esta idea en su curso Aprendizaje automático de Coursera. Entonces, si te resulta demasiado difícil, normalmente muchas otras personas lo hacen. Y la segunda cosa importante, creo, es el autocodificador (AE) , que es inherentemente una red completamente conectada y simple.
Si pudiera escribir códigos para entrenar a AE usando BP (¡El ejercicio le brinda la oportunidad de hacerlo!), Creo que ya conoce los elementos clave de las NN artificiales. Entonces, puede profundizar más en esta área al aprender el curso de Coursera. Redes neuronales para aprendizaje automático (página en coursera.org) ofrecidas por Geoffrey Hinton tal como lo menciona Alexander McMurray. Si descubre que se ha enamorado de esta área, pruebe el curso CN2 CS231n de Li Fei-Fei: Redes neuronales convolucionales para reconocimiento visual.
¡Diviertete! Por cierto, ciertamente no soy un anunciante 🙂