¿Qué importancia tiene la epistemología en el desarrollo de la inteligencia artificial?

Utilizando esta definición para epistemología gracias a dictionary.com ”

una rama de la filosofía que investiga el origen, la naturaleza, los métodos y los límites del conocimiento humano.

Hay dos respuestas: una es para robots que no tienen conciencia, para estos, las palabras y el significado no tienen un propósito o uso directo. Es por esto que el conocimiento por definición debe ser entendido. Todos los robots que conocemos hasta ahora, sin saber lo que están haciendo en DARPA, son títeres.

La segunda respuesta es que es para robots que tienen conciencia. La epistemología será esencial para el desarrollo de su conocimiento, pero será una nueva filosofía de la epistemología. Por supuesto que tendremos que modificar la definición anterior para que se ajuste a ellos. Hay una gran cantidad de teorías flotantes que sugieren que la conciencia de los robots estará fuera de la intelectualidad de los gráficos, y que serían los límites de su conocimiento. En este sentido, estarán tan lejos de cualquier gráfico que los humanos sepan, que nunca sabremos cuán informados están.

Luego, están los famosos nay sayers, como Colin McGinn, que predicen que los humanos nunca entenderemos la conciencia, y mucho menos crearán la condición en los robots. En este momento, que yo sepa, no hay tantos detractores que tienen la gravedad de los compañeros de McGinn. El es unico

Estoy de acuerdo con McGinn en que nunca sabremos qué es la conciencia o que nunca podremos crearla. Sin embargo, hay una pieza que falta en el rompecabezas, para mí, y otra que presento como alternativa. ¿Qué hay de Deep Machine Learning ideando la conciencia por sí misma sin ayuda humana? Esto me parece bastante plausible. En mi opinión, las pruebas típicas de una máquina de conciencia, la más conocida como la Prueba de Turing, serían ridiculizadas por una máquina de conciencia que se respeta a sí misma. Lo considerarían perjudicial y maquinista.

Así que ahora, estamos frente a una máquina que está bastante consciente, pero no tenemos idea de cómo logró esto. Además, ¿cuánto tiempo tardará la máquina en aprender? ¿Será más rápido o más lento que los humanos? Aquí es donde la epistemología se vuelve esencial para determinar si se planteará, como un niño, o simplemente con un clic de un botón emerger completamente desarrollado. Yo voto por el primero.

Cyc trabajó durante más de 25 años en esto y pensó que ganarían la carrera de IA. No lo hicieron

Crearon 6 millones de reglas que definen el “sentido común”. El agua está húmeda. Cuando estás muerto, no puedes responder a una pregunta.

Cuando IBM construyó Watson, utilizaron estas reglas. Watson es la mejor IA del mundo y probablemente seguirá siéndolo. Pero Watson también tiene aprendizaje automático, la capacidad de aprender a través de datos no estructurados (Wikipedia, sitios web), datos estructurados (bases de datos), etc. No fue hasta que se incorporaron estos elementos que la inteligencia humana fue derrotada por AI.

Por lo tanto, no puedo decirles su importancia relativa. Es tan importante como cualquier otro componente.

Por cierto, la epistemología produce la ontología. La ontología es más importante para la IA que el proceso utilizado.

Mi formación: licenciada en filosofía, maestría en filosofía, Universidad Jagellónica, Polonia.

Si tuviera que dar una respuesta pragmática, diría que la epistemología es tan importante para desarrollar inteligencia artificial como lo es tanto la delimitación como la especificación de todas las limitaciones de nuestra cognición.

Por lo tanto, es importante, porque la epistemología ha tratado estos problemas a lo largo de las edades y nos ha hecho conscientes de la existencia de tales limitaciones. También nos dice dónde debemos estirar nuestras habilidades cognitivas para saber más.

Creo que si queremos que la inteligencia artificial epistemológicamente avanzada camine sobre la superficie de la tierra, ciertamente tenemos que saber qué tan bien funcionará para superar nuestras habilidades cognitivas y qué tan bien funcionará al decirnos lo que no podemos percibir a través de nuestros sentidos.

Esto último parece bastante dudoso, pero ya lo estamos haciendo construyendo robots simples. Tal cooperación es beneficiosa para la humanidad. De lo contrario, corremos el riesgo de crear algo que, desde nuestro punto de vista, sería totalmente anulable desde el punto de vista cognitivo, mientras que nosotros, como seres humanos, todavía podríamos relacionarnos con la inteligencia artificial que tiene la ventaja sobre nosotros al final.

En general, sería mejor si pudiéramos mejorar nuestras limitaciones epistémicas antes de equipar a la inteligencia artificial con esto, o simplemente deberíamos mantenernos en nuestro camino actual, donde ponemos un límite a la cantidad de habilidades epistémicas que la inteligencia artificial tiene a su disposición. . Actualmente lo estamos haciendo, porque no podemos hacerlo mejor. Piensa en todo tipo de robots espaciales que enviamos para explorar partes distantes del cosmos. Ya nos superan desde el punto de vista epistemológico. Esto es para lo que están diseñados y nos proporcionan datos que están epistemológicamente más allá de nuestras capacidades.

Todo es seguro porque tales robots son completamente inocuos y vulnerables. En marcado contraste, imagine que un robot o un grupo de robots capaces de viajar por el universo están equipados con todos los sentidos epistemológicos increíblemente avanzados y mucho más, luego imagine que dejarían de compartir la información.

Conozca sus limitaciones, deje que la inteligencia artificial vaya más allá de eso, asegúrese de mantenerse al día con lo que aprende.

En mi opinión ya fallamos en hacer la última parte. Un ejemplo trivial: hay tantas fotos del cosmos en la Tierra que la NASA alienta constantemente a los entusiastas de la astronomía a mirarlos porque simplemente no pueden procesar tales cantidades de datos. Aquí hay otro: Rosetta Philae Probe, que recientemente aterrizó en un cometa, operó durante aproximadamente 3 días y nos envió tantos datos que los científicos afirman que tardarán unos 10 años en procesarlos.

Si tenemos en cuenta la eficiencia epistémica, somos como una mosca en un tarro de miel.

Por favor, vea el artículo de investigación titulado Epistemología e Inteligencia Artificial, por Gregory R. Wheeler y Luis Moniz Pereira.

Aquí hay un resumen del resumen:

Ambos pueden ser vistos como disciplinas complementarias. Ambos se refieren a relaciones epistémicas.

AI ve el tema desde la perspectiva de los paradigmas formales y computacionales que modelan un tipo particular de relación epistémica.

Mientras que la epistemología tradicional lo hace desde la perspectiva de la comprensión conceptual de los atributos de las relaciones epistémicas.

Sus clases correspondientes de formas de inferencia comparten dos propiedades, a saber, la capacidad de eliminación y la paraconsistencia. Uno puede apoyar esta afirmación considerando los resultados tanto de la inteligencia artificial lógica como de la epistemología analítica.