No tengo conocimiento de la investigación publicada en esta área, pero estoy acumulando mis notas en un volumen de una serie de libros.
Me parece que para que una clase de AI entienda a los humanos, los AI deben tener una arquitectura de apoyo y mecanismos capaces de reflejar los mecanismos del pensamiento humano.
(Esto no significa que los AI utilizarán estos medios para pensar, solo que serán herramientas analíticas disponibles para su uso).
Los seres humanos tienen metas, impulsos, deseos, emociones (que son una métrica para la actividad de la meta). Creo que algunas AIs necesitarán manejar estos mismos elementos e incluso incorporarlos. Proporcionarán una forma controlable de causar comportamiento en las IA. Por ejemplo, si le da a una IA una especie de alegría al encontrar un nuevo conocimiento significativo, puede incorporar la IA con un impulso innato para adquirir conocimiento, y luego puede liberar la IA para salir y explorar. Preveo que existan IAs que desatemos para explorar las matemáticas, la física y más. Podemos crear AI con el impulso de crear nuevas tecnologías, o simplemente hacer cosas para nosotros. “AI, hazme un reloj. Usa una impresora 3D para hacerlo también”.
Si creas una IA con autoconciencia y luego le das un impulso para la autoconservación, entonces puede tomar medidas para protegerse. Se le puede dar los medios para “sentir” la emoción de la ira si se la ataca con la intención de hacerle daño. Se le puede dar la capacidad de “sentir” el dolor cuando algo de valor para él se pierde permanentemente. Y así.
- ¿Cómo será el mundo en 3000CE?
- Usando cualquier tipo de herramienta, gráfico, método de pronóstico, etc. ¿se puede predecir el futuro con precisión?
- ¿Qué tan cerca estamos de tener una visión tecnológicamente aumentada?
- ¿La humanidad alguna vez visitará las estrellas?
- ¿Cuál es más probable que llegue primero, una singularidad o un apocalipsis?
Ahora, hacer todo esto involucrará sistemas bastante complejos, y cuanto más complejo sea un sistema de conocimiento dinámico, más posible será que algo salga mal y se ramifique en una disfunción. Cuando ocurre algo así, es posible que no podamos simplemente presionar un botón de reinicio y reiniciar la IA porque la bifurcación puede ocurrir como resultado de interacciones complejas entre el conocimiento y la experiencia que la IA ha adquirido. Puede ser necesario que un detective psiquiátrico realice un seguimiento y detecte las cosas que causaron la disfuncionalidad.
Sin embargo, lo que preveo es que esto será muy complejo y requerirá nuevas herramientas para hacerlo. Probablemente tengamos que desarrollar sistemas psiquiátricos de IA que puedan explorar la “mente” de la IA objetivo y buscar qué fue lo que salió mal.
Podría decir mucho más, pero es por eso que se trata de un libro completo y no solo un ensayo en breve.