¿Qué piensas acerca de seguir el concepto de entrenamiento AGI?

Suena un enfoque fascinante. He tendido a ver la resolución de la IA de una manera muy similar.

El cerebro hace todo por asociación y relaciones, por lo que definitivamente estás en el camino correcto.

Aquí, voy a robar horriblemente de varias ramas de la filosofía. Pero está bien, porque no podemos probar que los filósofos existan lo suficiente como para objetar.

El cerebro funciona superponiendo cosas y produciendo compuestos. Los bits que no coinciden están vinculados a otras cosas para producir otros compuestos. Pero ya tenemos un modelo abstracto para esto, las sombras en la cueva.

Imaginemos que existe una biblioteca de conceptos abstractos. No necesita estar completo, solo necesita ser totalmente abstracto.

Todas las características elementales “conocidas” de un objeto, físico o lógico, existirán como un conjunto bien formado de estos conceptos abstractos.
Todas las características compuestas “conocidas” de un objeto, físico o lógico, existirán como un conjunto bien formado de características elementales.
Esto se puede aplicar recursivamente para identificar cada objeto, escena y contexto que se pueden construir de esta manera.

Una vez que se restan todos los conocidos, lo que queda serán las incógnitas. La IA querría dividirlos, en la medida de lo posible, en partes de la misma complejidad que los conceptos abstractos. Estas son las sombras. Son reflejos de algo fundamental que está fuera de la vista y que se pueden utilizar como sustitutos.

Cada iteración refina algunas Sombras y elimina algunas de las alternativas posibles para aquellas Sombras en las que eran posibles múltiples desgloses. Las Sombras deben converger en el resumen, por lo que tiene una heurística que adivina cómo se verá la forma abstracta, la etiqueta como hipotética y la agrega a la lista de conocidos.

Eso funciona para las “cosas”, pero ¿qué pasa con los conceptos que no son cosas?

Yo sugeriría comenzar donde Bertrand Russell dejó. La disciplina de la lógica pretende definir los axiomas fundamentales de los que se puede derivar todo lo demás. Un diccionario de lógica suficientemente completo no puede, de hecho, darle los axiomas del universo, pero puede describir procesos, flujos, cambios, dinámicas como conceptos abstractos. Puede describir la conexión entre la velocidad, las leyes de Newton y el “automóvil”.

Así que tenemos tres tipos de concepto abstracto: conceptos abstractos que describen “cosas” arquetípicas (que pueden incluir cualquier propiedad, como la energía cinética), conceptos abstractos que describen las relaciones estáticas entre “cosas” (siempre deben ser ciertas) y conceptos abstractos que describen las relaciones dinámicas entre “cosas” (si la dinámica es verdadera, entonces el resultado es verdadero en el tiempo t).

También tenemos dos clases de concepto abstracto (conocido y derivado) donde cada vez que se agrega / actualiza / elimina un Sombra, también se agrega / actualiza / elimina el concepto abstracto derivado correspondiente. Las manipulaciones directas solo se realizan a Shadows porque se trata de estudios de casos reales.

No estoy seguro de que tengamos que preocuparnos por la Sala China. La fuente y el destino son inteligentes, se supone que el proceso no lo es. En la notación booleana, si esto es cierto, tiene Origen y no (Proceso) y Destino. Ahora, aquí, tenemos una selección inteligente del sistema inicial de conocidos y las heurísticas necesarias para obtener creencias. Para probar que la Sala China no se aplica, debe usar las leyes de Morgan para que la Fuente y el Proceso sean inteligentes.

¿Esto cumpliría con sus requisitos?