¿Hay alguna investigación que sugiera que la IA necesitará algún tipo de psiquiatría?

No tengo conocimiento de la investigación publicada en esta área, pero estoy acumulando mis notas en un volumen de una serie de libros.

Me parece que para que una clase de AI entienda a los humanos, los AI deben tener una arquitectura de apoyo y mecanismos capaces de reflejar los mecanismos del pensamiento humano.
(Esto no significa que los AI utilizarán estos medios para pensar, solo que serán herramientas analíticas disponibles para su uso).

Los seres humanos tienen metas, impulsos, deseos, emociones (que son una métrica para la actividad de la meta). Creo que algunas AIs necesitarán manejar estos mismos elementos e incluso incorporarlos. Proporcionarán una forma controlable de causar comportamiento en las IA. Por ejemplo, si le da a una IA una especie de alegría al encontrar un nuevo conocimiento significativo, puede incorporar la IA con un impulso innato para adquirir conocimiento, y luego puede liberar la IA para salir y explorar. Preveo que existan IAs que desatemos para explorar las matemáticas, la física y más. Podemos crear AI con el impulso de crear nuevas tecnologías, o simplemente hacer cosas para nosotros. “AI, hazme un reloj. Usa una impresora 3D para hacerlo también”.

Si creas una IA con autoconciencia y luego le das un impulso para la autoconservación, entonces puede tomar medidas para protegerse. Se le puede dar los medios para “sentir” la emoción de la ira si se la ataca con la intención de hacerle daño. Se le puede dar la capacidad de “sentir” el dolor cuando algo de valor para él se pierde permanentemente. Y así.

Ahora, hacer todo esto involucrará sistemas bastante complejos, y cuanto más complejo sea un sistema de conocimiento dinámico, más posible será que algo salga mal y se ramifique en una disfunción. Cuando ocurre algo así, es posible que no podamos simplemente presionar un botón de reinicio y reiniciar la IA porque la bifurcación puede ocurrir como resultado de interacciones complejas entre el conocimiento y la experiencia que la IA ha adquirido. Puede ser necesario que un detective psiquiátrico realice un seguimiento y detecte las cosas que causaron la disfuncionalidad.

Sin embargo, lo que preveo es que esto será muy complejo y requerirá nuevas herramientas para hacerlo. Probablemente tengamos que desarrollar sistemas psiquiátricos de IA que puedan explorar la “mente” de la IA objetivo y buscar qué fue lo que salió mal.

Podría decir mucho más, pero es por eso que se trata de un libro completo y no solo un ensayo en breve.

No. Supongo que no hay ninguna investigación sobre la psiquiatría de la IA. Creo que el hecho de que casi no hay consideración para este tipo de problemas es un indicio de lo limitado y poco realista que ha sido nuestro enfoque de la IA. Cuando menciono estos temas en argumentos, preguntando por ejemplo por qué a nadie le preocupa el sufrimiento de los programas de AI parcialmente procesados ​​que están cojeando en los estados desfigurados en los laboratorios de computación, siempre me recuerda que estamos trabajando con un modelo de conciencia de juguete que está profundamente equivocado

Parecería que muchos entusiastas de la inteligencia artificial de los sillones realmente no se preocupan en el mundo por la realidad de la responsabilidad que implicaría crear un ser vivo vivo. Mi sospecha es que en algún nivel, incluso ellos realmente no toman en serio su propio enfoque. A pesar de todos los resoplidos e insuflaciones acerca de que la conciencia se puede reducir a una emulación de Turing, nadie espera que realmente funcione en el mundo real en un futuro cercano. A nadie le va a importar si una persona real abusa de una IA, y cualquier intento de legislar de manera tan artificial tendría tanto éxito como el esfuerzo de “decir no para archivar”.

A2A.

Daría la vuelta y apuntaba a la psiquiatría médica (y sus cohortes) haciendo todo lo posible para que la humanidad se subordine a la IA.

Lo que implica una bifurcación de los que están a ambos lados de una cortina. ¿Cual es? Los hacedores contra los tomadores. Cada vez es más difícil encontrar algo que no esté contaminado por la nube fangosa.

Pero, veo nociones de personas que hablan servidores locales, de nuevo, incluso si se dan cuenta de la responsabilidad. Comercio (gracias chicos y chicas), esencialmente, capitulado (nos vendió por el tubo).

Podemos culpar a GSA, en primer lugar. Hace poco más de una década, hubo una declaración de que la nube estaba bien para el Tío Sam y sus favoritos. Y, fue en tiempos de Bush. Rue ese día.

¿Dónde estoy? Puedo levantar el kimono (o solía poder -todavía poder a través de psychether- esa fuente está disponible para todos). Lo que veo no es purty.

No he visto ninguna investigación, pero su premisa es interesante. Es posible que muchos programas de IA sean disfuncionales y desarrollen bases de “conocimiento” que no están bien fundamentadas en la realidad. Los métodos de recopilación de dicho conocimiento no están necesariamente sujetos a un escrutinio científico cercano.

¿Sería admisible la opinión de un programa de AI en un tribunal de justicia o sería rechazada como prueba de oídas?

Simplemente sucederá. Yo diría que la psiquiatría es el “recableado de circuitos para cambiar el comportamiento inadaptado”, que se parece mucho a lo que hacemos cuando reescribimos el código o cambiamos el hardware.

Nunca he oído hablar de ninguno, pero si alguna vez se crea una IA o alguna forma en la que evolucione, definitivamente tendrá problemas.

Creo que Las dos caras del mañana de James P. Hogan abordan tu punto mejor que cualquier otra cosa que haya leído.

Las dos caras del mañana por James P. Hogan