¿Cuáles son los conceptos básicos del aprendizaje automático?

Hasta ahora, cada respuesta ha tomado la ruta técnica para responder, así que seguiré la ruta de los términos del laico. Por favor, disculpe la simplificación agresiva.

Antes de ML, las funciones de software tenían que ser descritas explícitamente (y, por lo tanto, pensadas) por un humano. Este tipo de desarrollo ha llevado a la mayor parte de nuestra tecnología moderna hasta la fecha.

La principal limitación con este modelo es que los humanos tienen que pensar y prescribir una respuesta a cada resultado específico o conjunto de resultados. En esencia, nuestro software está limitado por las capacidades de pensamiento y el tiempo del desarrollador.

Con ML, podemos darle al software un objetivo y puede establecer una manera de lograr ese objetivo sin que un ser humano describa explícitamente cómo lograr el objetivo.

Esto puede parecer una diferencia trivial, pero significa que ya no estamos limitados por la capacidad o el tiempo de un humano para escribir una serie específica de reglas. Podemos aprovechar la escalabilidad masiva del software, el trabajo persistente y el hecho de que el software puede llegar a una solución novedosa para resolver problemas que antes eran extremadamente difíciles de resolver o extremadamente difíciles de programar.

Red neuronal

Reconocimiento de imágenes y reconocimientos de patrones similares, todo un resultado de redes neuronales.

Regresión lineal

Tres variables: concepto x, w e y de: Transcripción de “Cómo las computadoras están aprendiendo a ser creativas”

Aprendizaje profundo

Algoritmo genético

Algoritmo de bayes

Descenso de gradiente

*** Y para divertirse más relacionado con el aprendizaje automático.

Fuerza bruta y aprendizaje automático.

Paradoja moravec

Escala de Kardashev

La ley de Moore y su superación.

Singularity, la versión articulada de skynet que se logrará en los próximos 12 años (2029–2017). Hasta el momento, los humanos pueden vivir felices – Director de Google.

ANI / AGI / ASI – Espera pero ¿por qué Blog.

Cómo la computación cuántica afectará el aprendizaje automático

Optimización matemática que aún no se ha logrado.

Perdón por mi mal ingles

Tenemos algunos grandes recursos sobre este tema:

  1. Dado que los datos son el combustible que ejecuta el aprendizaje automático, entienda los factores que hacen que un conjunto de datos de entrenamiento de aprendizaje automático sea excelente.
  2. Comprender los componentes del sistema de aprendizaje automático.
  3. Aprenda sobre técnicas de aprendizaje supervisadas y no supervisadas
  4. Por último, echa un vistazo a los 10 principales marcos de aprendizaje automático

Si eres extremadamente nuevo en Aprendizaje automático, y necesitas una perspectiva más amplia de las cosas que contiene y las misteriosas jergas …

Necesitas un arranque rápido, luego terminar

Curso de aprendizaje automático de Andrew Ng disponible gratis en Coursera .

El plan de estudios cubre una amplia gama de conceptos e implementación de LD. Las conferencias son cortas, precisas y asombrosas, tiene fechas límite para los exámenes y las tareas.

No hay nada mejor que este curso. Manténgase enfocado y, para cuando termine, puede decidir qué herramienta usar de manera inteligente para cada caso de uso.

Espero te ayude

Implementación de aprendizaje supervisado.

Eso es lo más básico y es un buen comienzo. Obtener una comprensión de las matemáticas detrás de tales algoritmos. Aprenda a implementarlo en Python o en R (yo diría que vaya por Python). Aprenda a trabajar con grandes conjuntos de datos y varias formas de limpiar los datos y trabajar con ellos. Trabaja en algunas competiciones de Kaggle, consigue tu código en línea. Participa en otros foros online por el mismo. Siga haciendo esto hasta que sea seguro que sabe manejar bien las máquinas, y aprenda a manejar grandes conjuntos de datos como usted quiere.

Luego puede pasar a niveles avanzados de aprendizaje automático.

Asumiré que esta pregunta tiene como objetivo orientar a alguien que quiera aprender más.

Basado en esto, aquí hay una lista corta (leída, no exhaustiva y un poco sesgada hacia mis intereses) de los conceptos básicos de y detrás de ML:

  • Aunque no todos los métodos se basan en él, diría que la probabilidad (la entropía) y la divergencia de Kullback-Leibler (entropía cruzada) son conceptos fundamentales.
  • Anteriores de la inferencia bayesiana, relacionados con la probabilidad
  • Regresión y, en particular, regresión lineal y logística.
  • Regularización y relacionado con regresión lineal, regresión de cresta.
  • Vectores de funciones implícitos y métodos de Kernel , por ejemplo, regresión de Kernel Ridge (sí, seguimos agregando palabras extravagantes) y procesos gaussianos
  • Máquinas de vectores de soporte , para la clasificación.
  • Análisis de componentes principales
  • Los procesos de decisión de Markov, para el aprendizaje por refuerzo.
  • Redes neuronales recurrentes y onvolucionales.
  • Validación cruzada , para la selección de hiper-parámetros
  • Gradiente de gradiente estocástico , como un método de optimización común
  • Los modelos gráficos como marco de modelado.

Para obtener una lista más exhaustiva, puede consultar la tabla de contenido de “ Una introducción al aprendizaje estadístico ” de James, Witten, Hastie y Tibshirani (un pdf está disponible de forma gratuita en su página de inicio) o más avanzado, “ Los elementos de aprendizaje estadístico ”por Hastie, Tibshirani y Friedman (también disponible en su página de inicio).

A2A.

Hii Nikita Jain

Bueno, también soy Novato en el campo del Aprendizaje Automático y la Inteligencia Artificial. Pero desde mi punto de vista, el procesamiento del lenguaje natural y los algoritmos son el núcleo del aprendizaje automático. Estoy completamente de acuerdo con los otros aspectos fundamentales como la regresión, el análisis estadístico, el modelado de datos, etc.

Estamos entrenando un dato en una máquina usando algunos algoritmos que pueden ser en forma de árbol o gráfico. Pero para hacer el aprendizaje automático, necesitamos aplicar los conceptos de la PNL.

Si se puede hacer usando python, entonces algunas grandes bibliotecas como numpy, scipy, pandas y matplot pueden usarse muy bien para el análisis y la representación de datos.

Espero que esto ayude.!

Gracias.

Los algoritmos actuales de aprendizaje automático (ML) se basan en la optimización, por lo que el concepto más simple y básico del aprendizaje automático es el del aprendizaje basado en el descenso de gradientes. La mayoría de los algoritmos de ML actuales utilizan una función de pérdida diferenciable para definir algún objetivo y luego usan gradientes para guiar la búsqueda de los parámetros que minimizan la pérdida en todos los ejemplos de entrenamiento, con la regla de actualización en cada paso definido como:

[math] \ Phi_ {t + 1} = \ Phi_ {t} – \ alpha \ frac {\ partial L} {\ partial w} [/ math]

Donde [math] \ Phi [/ math] = parámetros, [math] w [/ math] = pesos, [math] L [/ math] = función de pérdida y [math] \ alpha [/ math] = tasa de aprendizaje.

El otro concepto básico es el uso de la regla de la cadena para acelerar los cálculos de gradiente. Este encadenamiento de derivados comienza desde la capa de salida que está directamente conectada a la función de pérdida, por lo tanto, es más fácil evaluar los gradientes y luego retroceder hacia la capa de entrada. Esto se denomina algoritmo de propagación hacia atrás (backprop) y es uno de los algoritmos más importantes de ML.

El otro concepto importante en ML es el apilamiento de muchas capas simples una sobre la otra. Esto crea una representación jerárquica de datos, con las capas inferiores que capturan características primitivas mientras que las capas superiores capturan representaciones más abstractas en los datos. Esto se denomina aprendizaje profundo (DL) y existen varias variedades de arquitecturas apiladas de capas profundas, como las redes neuronales convolucionales (convNet), buenas para datos espacialmente relacionados y redes neuronales profundas (DNN) completamente conectadas, buenas para la inferencia general.

A veces, la información temporal tiene que procesarse, por lo que aparece el concepto de recurrencia. Por lo tanto, una extensión natural para procesar señales temporales son las llamadas redes neuronales recurrentes (RNN). Básicamente, solo tienen un estado en un momento dado que depende no solo de la entrada actual sino también de los estados anteriores en el tiempo, lo que hace que las redes neuronales recurrentes puedan manejar las dependencias a largo plazo, al menos en papel.

El algoritmo de entrenamiento para RNNs todavía sigue el mismo enfoque basado en gradiente utilizando backprop para evaluar los gradientes de parámetros pero con la capacidad de retroceder a los estados anteriores. Por lo tanto, este backprop modificado se denomina algoritmo de backprop a través del tiempo (BPTT), simplemente simplemente encadena nuevamente la regla.

Sin embargo, los RNNs de vainilla sufren de gradientes de desaparición / explosión fácilmente y, por lo tanto, no pueden lidiar con las dependencias a largo plazo, por lo que las redes de memoria a corto y largo plazo (LSTM) entran en escena. La celda LSTM básicamente tiene una celda de memoria para almacenar información, la celda tiene lectura / escritura y olvida las puertas, todas las cuales son entrenables. Por lo tanto, la LSTM puede decidir recordar un estado pasado durante el tiempo que quiera.

Hay muchos otros conceptos en ML como el concepto de maximización de margen que resulta en las máquinas de vectores de soporte (SVM). El concepto de truco del núcleo para proyectar puntos de datos en un nuevo espacio dimensional superior en el que los vectores se pueden separar fácilmente se usa ampliamente para extender SVM a problemas no linealmente separables.

Espero que esto ayude.

Aprendizaje automático significa pedirle a la computadora que encuentre las reglas a seguir para clasificar los datos o para encontrar características de un conjunto de datos.

Para empezar, algunos de los conceptos importantes son el aprendizaje supervisado y no supervisado, los algoritmos de regresión, la extrapolación, los algoritmos K-mean, el agrupamiento, el funcionamiento de las máquinas de vectores de soporte, la recopilación de datos y la manipulación de datos, que representan los datos de entrada en formato numérico que debe utilizar su máquina. Modelo de aprendizaje, algún concepto básico de probabilidad y estadística también ayudará.

La parte más intensiva en datos son las redes neuronales. Las redes neuronales producirán resultados más precisos que cualquier modelo clásico de aprendizaje automático.

¡Feliz codificación! ☺️

Aprendería sobre la red neuronal, muchas formas de programación genética, conocer sus estadísticas. Entonces puedes hacer un buen comienzo.

Buena suerte,

pag.