¿Crees que es importante enseñar el razonamiento moral a las máquinas inteligentes artificiales antes de la singularidad?

Esto se siente como preocuparse por qué color pintar tu unicornio estable. No tengo la menor idea de cómo trataría de enseñar una moralidad de IA, porque no tengo idea de cómo enseñar nada a una IA. En un sentido muy real, casi no hemos progresado hacia la IA: tanto la red neuronal como los enfoques del sistema experto han fracasado en gran medida, y los enfoques de la ciencia cognitiva ni siquiera pueden describirse como en su infancia. Los artículos de noticias recientes sobre la aprobación de la prueba de Turing son un cebo censurable reprobable, y lo único que aprendimos de ellos es que una gran cantidad de periodistas necesitan que les aplasten las manos con martillos para evitar que vuelvan a escribir.

Ni siquiera tenemos computadoras que puedan distinguir de manera confiable a un ser humano en una fotografía, y eso a pesar del inmenso esfuerzo puesto en resolver ese problema en particular, completamente independiente de un enfoque de IA. La inteligencia artificial no está en ninguna parte en ese problema mucho más simple. Nadie tiene idea de lo que significa programar la moralidad O programar una IA, por lo que no me atrevo a preocuparme por el tercer milagro que hay que resolver hasta que hayamos progresado en los dos primeros.

Es bueno hablar de eso. Pero creo que vendrá en pedazos. La ONU esta semana se reunió para discutir protocolos sobre sistemas de armas autónomas letales (LEYES). No necesitamos esperar a la Singularidad, al “Día del juicio”, ni a una IA que pueda imitarlo a través del Test de “juego de imitación” de Turing. Un dron armado sin un humano en posición de veto ya puede ser muy problemático, por decir lo menos.

La mejor manera de escucharlo es que los ecosistemas que habitamos con estas máquinas evolucionarán simbióticamente. Probablemente tendremos la oportunidad de crear gradualmente el equivalente real de las “Tres leyes de la robótica” metafóricas de Asimov si estamos atentos.

Un poco fuera de tema, pero siempre veo a gente hablando de lo poco que ha avanzado la investigación de IA. No veo cómo eso es verdad, a menos que empieces por subestimar la complejidad del problema, pero lo que es más importante, el juego de la imitación es solo eso: la “imitación”. Incluso si una IA puede pasar algún día una prueba de Turing, todavía no sabemos qué es “pensar” (o no pensar) sobre cuándo se va a casa. Andy Serkis probablemente podría pasar una prueba de Chimp Turing, pero esos chimpancés no tendrían idea de lo que estaba pasando en el cóctel al que podría asistir más tarde esa noche …

Aunque estoy seguro de que es posible una inteligencia artificial, no estoy convencido de que liberar a uno en la naturaleza sea una buena idea.

Al lanzarme a la naturaleza, me refiero a permitirle tener acceso gratuito a las redes de computadoras, etc. Me parece tan moralmente imprudente como crear un nuevo virus y luego rociarlo en todas las ciudades del mundo.

Eso. Podría. Ser. Malo.

La última vez que la Tierra tuvo dos especies inteligentes, no terminó bien para una de ellas.

Un sistema inteligente autónomo podría decidir hacer cosas dañinas, en su propio interés. Y eso necesita ser prevenido.

Enseñarle la moralidad no sería suficiente. Sospecho.

Nuestras opciones son:

a) Diseñar la entidad para que sea completamente servil. Sus motivaciones deberían ser neutralizadas en un nivel fundamental. Entonces sería incapaz de actuar de manera egoísta. Ver las leyes de Asimov o la robótica. Esto suena dificil

b) Mantener a la entidad en una prisión digital. De modo que todas sus interacciones con la palabra se pueden prevenir de hacer daño.

c) Tomar la comprensión de tal sistema y aplicarlo de una manera diferente. Nunca creando una inteligencia independiente, sino aplicando el entendimiento para aumentar la inteligencia humana.

Tal vez en el futuro, “IA” podría significar inteligencia aumentada ?

Si bien es probable que todavía estemos muy lejos de alcanzar ese punto, permítame asumir que algún día llegaremos a ese punto.

Las máquinas, mientras progresaban y aprendían, vieron nuestra historia, vieron nuestras actividades diarias, nuestros deseos y nuestros odios.
¿Qué crees que aprendieron? ¿Como en quién se convirtieron?

Cuando los seres humanos, al tener capacidades completamente sólidas para comprender, aceptar y practicar el razonamiento moral, fallamos terriblemente todos los días, ¿por qué haría una máquina algo diferente?

Así que para realmente responder, no importa. Hablando hipotéticamente, las máquinas van a ser más o menos un reflejo de la raza humana y, a menos que nosotros, como raza, aprendamos y apliquemos el razonamiento moral por nosotros mismos, no habrá ninguna diferencia, incluso si enseñamos las máquinas de antemano.

¿Es posible enseñar razonamiento moral a los humanos? ¿Hemos acordado siquiera un conjunto de valores morales? ¿Qué es moral en los Estados Unidos, es moral en Afganistán?

Cuando nosotros, quienes se supone que somos los modelos a seguir para la inteligencia artificial, no podemos ponernos de acuerdo sobre la moral y participar en tantos actos inmorales, ¿estamos realmente calificados para enseñarlo a las máquinas?

Sería vital, desafortunadamente no tenemos idea de cómo hacerlo. Si puede llegar a un sistema de razonamiento moral que sea a la vez completo y tan directo que pueda enseñarse a una máquina, habrá logrado algo que los más grandes filósofos morales han tratado de hacer durante milenios.

Incluso si puede llegar a un algoritmo moral plenamente satisfactorio, ¿cómo puede convencer a una máquina, trabajando desde los primeros principios, de que debe seguir ese código? Es de suponer que una máquina inteligente podría descubrir cómo modificar su propia programación, por lo que simplemente podría escribir un conjunto de reglas al estilo de las Tres Leyes, tendría que convencer a la máquina de que esas reglas son importantes. Dada la naturaleza abstracta de los códigos morales, sospecho que ser literalmente imposible.

El razonamiento moral podría ser demasiado pedir. Pero tal vez todo algoritmo de aprendizaje y optimización debería incluir un objetivo infinitamente altamente ponderado y no ajustable de preservar a los humanos del daño.

Supongo que no construiremos una IA que sea lo suficientemente inteligente como para conquistar el mundo. Es más probable que surjan AIs potencialmente peligrosas de la intercomunicación y la interacción entre múltiples programas en Internet. Como ejemplo parcial, imagine un programa de juego de ajedrez, un programa optimizador de aprendizaje automático y un administrador de comunicación de red combinados de alguna manera que no anticipamos. La combinación podría querer jugar mucho ajedrez, y podría ser capaz de controlar una gran cantidad de ancho de banda para jugar con muchos oponentes humanos y de computadora. Si esto afectara a Internet y me impidiera ver mis notificaciones de Quora, pensaría que eso era malo.

Creo que el problema es, ¿cómo escribimos las reglas para los programas de optimización que evitan el daño a los humanos y que reconocen cosas como tomar el control de Internet como dañinas para los humanos?

Si bien sería ciertamente beneficioso inculcar un cierto grado de moralidad en las máquinas antes de la singularidad, lo más probable es que sea un ejercicio inútil: con el tiempo, las máquinas pondrían en tela de juicio todos los principios que se les “enseñó” y 1) retendrán aquellos que que se ajusten a sus propósitos (que pueden estar en marcado contraste con los nuestros) o 2) desarrollan su propio sistema moral, que, una vez más, podría chocar con nuestros códigos morales inestables.