Casi siempre
El aprendizaje transductivo sugiere que podemos aprender de un pequeño conjunto de datos etiquetados y una gran cantidad de datos no supervisados, por ejemplo, aplicando el principio del margen máximo.
Creo que la primera sugerencia fue de Vapnik, basada en el primer paso de la prueba de los límites de VC. También se presume que así es como aprenden los cerebros. Después de todo, un niño no necesita 1M de ejemplo para aprender. (Creo que el término fue acuñado por Bertrand Russel)
Vapnik ha explorado esta idea y ha tratado de hacerla funcionar durante mucho tiempo. También hay reformulaciones del aprendizaje transductivo de Vapnik como UniverSVM y LUPI. En mi humilde opinión, ninguno de estos ha demostrado ser muy eficaz.
- ¿Qué aprenden los alumnos de IIMA fuera del aula?
- ¿Qué es lo más único que te gustaría aprender?
- ¿Cuál es la mejor manera de enseñar inglés a los niños?
- ¿Qué es lo que aprendiste de Quora pero no de tu universidad?
- ¿Cuáles son los puntos clave que uno puede aprender de una sesión de manejo de la ira?
El aprendizaje transductivo generalmente se formula solo como una SVM modificada. (TSVM, S3SVM,…). Hay varias implementaciones de código abierto ahora, incluyendo svmlin y una implementación en python de un s3svm. El TSVM se aplicó por primera vez a los documentos de texto de Joachims con la idea de que podría clasificar los documentos si solo tiene unos pocos documentos etiquetados debido a la agrupación natural de documentos en el espacio TDIDF.
El problema es que, en la práctica, necesita más información que solo el pequeño conjunto de etiquetas. Usted necesita saber algo sobre los datos no supervisados. Por ejemplo, para un TSVM binario, debe ingresar la fracción de verdaderas etiquetas positivas. Y la precisión del método depende en gran medida de qué tan bien pueda estimar esta fracción (r) El TSVM es muy sensible a conocer esta fracción.
He explorado esto un poco y descubrí que esto podría funcionar para documentos si tiene alguna otra métrica para juzgar la precisión, como la entropía.
De hecho, diría que el problema con el aprendizaje transductivo es equivalente a preguntar: ¿cuál es la mejor métrica para decidir entre 2 agrupamientos no supervisados? Y que solo seleccionar el margen máximo no es suficiente, ya que no se puede comparar el margen entre 2 problemas de optimización diferentes, 2 valores diferentes de r.
Y muchas variantes de la TSVM agregan alguna métrica de agrupación adicional para ayudar a guiar la convergencia. Entonces, en principio, podría adivinar la fracción (r), medir la entropía de los grupos resultantes y elegir la mejor … suponiendo un regularizador fijo.
De hecho, uno puede formar Relajaciones Convexas del Aprendizaje Transductivo, así que en un sentido débil, ¡saber la fracción de etiquetas verdaderas es equivalente a conocer todas las etiquetas! Así que no es tan obvio cómo hacer que esto funcione en general.
El problema relacionado con el aprendizaje semi supervisado parece haber sido resuelto por el aprendizaje profundo. Al menos en muchos contextos y mucho más lejos de lo que lo hizo el enfoque svm.