¿Podemos crear una inteligencia de máquina (una IA) que pueda distinguir el bien del mal?

Creo que su pregunta tiene dos partes. La primera es la cuestión de si la tecnología puede progresar hasta el punto en que la IA sea lo suficientemente compleja para interpretar y responder a preguntas morales. Tengo que decir, en la primera parte, no tengo ni idea.

Pero la segunda parte parece (para mí) ser más compleja: ¿qué está bien y qué está mal? ¿Es la elección una dicotomía, o es más compleja que eso? Creo que es más complejo.

Digamos que programamos una máquina para dar respuestas sobre preguntas morales y asumamos ahora que está en la etapa beta y estamos probando su funcionalidad. ¿Qué pregunta vas a hacer? Es diciembre de 2002, ¿deberían los Estados Unidos invadir Irak? Bueno, moralmente hablando, es justo decir que el consenso es ahora que fue “incorrecto” invadir Irak, pero no todos están de acuerdo. ¿Cómo selecciona la IA los bandos?

¿Existe un conjunto universal de valores que delinee el bien del mal? Sam Harris tiene las mejores respuestas, en mi opinión. Pero sugiere un “paisaje” moral que, para cuestiones morales complejas, presenta una multitud de posibles respuestas “correctas” y posibles “equivocadas”.

“Sin embargo, argumentaré que las preguntas sobre los valores, sobre el significado, la moralidad y la
El propósito más grande de la vida, son realmente preguntas sobre el bienestar de las criaturas conscientes.
Los valores, por lo tanto, se traducen en hechos que pueden ser entendidos científicamente :
Emociones sociales positivas y negativas, impulsos retributivos, los efectos de leyes específicas.
e instituciones sociales sobre las relaciones humanas, la neurofisiología de la felicidad y
sufrimiento”

Si está de acuerdo con Sam Harris y acepta que los valores pueden entenderse científicamente, pero que hay “picos y depresiones” morales en la comprensión científica de los valores morales, entonces la respuesta debe ser NO, porque no hay un “derecho y una definición” definitivos. incorrecto.’

Gracias por la A2A!

Con moralidad simple y preestablecida, sí. Con una moralidad evolutiva y autodeterminada, no, no en este momento.

Déjame explicarte lo que quiero decir.

La Biblia establece un conjunto de reglas sobre cómo vivir tu vida de una manera moral, como los 10 mandamientos. Estas reglas tienden a ser bastante en blanco y negro, “siempre debes hacer esto, nunca debes hacer eso”. Estas son morales muy bonitas y sencillas; están detallados y hay poca ambigüedad (ignoraremos por un momento que algunos de ellos pueden ser un poco contradictorios en algunos lugares). Las IA son súper buenas para seguir este tipo de moral; de hecho, es todo lo que pueden hacer. Los programan los humanos con su libro sagrado de reglas específicas sobre cómo viven y las obedecen.

Este tipo es el auto de conducción de Google:

Este tipo sabe que no debe conducir sobre el pavimento. Eso es algo malo, no lo haces. Y puede saber dónde está el pavimento y dónde no, y asegurarse de que sus acciones no violen esa regla. ¿Entiende esa regla o por qué es importante? No claro que no. Ella no necesita

Sin embargo, podría hacer el mismo argumento sobre algunas de las reglas de la Biblia. La Biblia le dice que no tenga relaciones sexuales entre personas con las que está estrechamente relacionado. ¿La mayoría de las personas, hace mil años, entendieron que no tiene hijos con su hermana porque causa defectos genéticos en sus hijos? No; Aparte de todo lo demás, aún no habían descubierto la genética. Pero todavía seguían la regla moral sin entenderla realmente.

Por lo tanto, aún argumentaría que el auto de Google sigue un sistema moral muy simple. Ella tiene un conjunto de reglas sobre cómo comportarse, y tiene las herramientas necesarias para seguir esas reglas, y esas reglas existen en última instancia para que no lastime ni mate a nadie.


Sin embargo, los humanos son capaces de decidir qué está bien y qué está mal cuando no tenemos reglas rígidas y preestablecidas. Podemos decidir si algo es moral desde los primeros principios.

La razón de esto es que una gran cantidad de decidir si algo es moral proviene de la empatía. Sé que abofetear a alguien con quien antes estaba teniendo una conversación agradable es inmoral, incluso sin que alguien me lo diga, porque puedo imaginarme como esa persona y no me gustaría que me pasara eso. Hay una razón por la que la regla de oro (hacer a los demás lo que usted quiere que le hagan a usted) está en el núcleo de la mayoría de los sistemas morales y religiosos; es básicamente diciendo ‘ser empático’.

Entonces, ¿puede una IA ser empática? No en este momento. Las IA todavía no son lo suficientemente complejas como para sentir emociones de esa manera. Para tener empatía por un ser humano, necesitas poder experimentar un rango complejo y una mezcla de emociones de la misma manera que un ser humano.

No, no con una voluntad totalmente libre, ya que los conceptos de correcto e incorrecto, moral e inmoral, ético y no ético, etc. son todos subjetivos.

Si la computadora fue programada con muchos ejemplos de lo que los humanos determinamos que estamos en estas diferentes categorías, AI podría luego extrapolar las respuestas a diferentes escenarios basados ​​en esa información, sin embargo, eso es algo diferente a poder hacerlo de forma gratuita. será.

Sí. Así es cómo:

Por cada objetivo que le pida a la IA que complete, especifique varias restricciones sobre qué acciones puede y no puede tomar la AI entre los pasos necesarios para lograr el fin deseado. Esta es una forma simple de prohibir comportamientos que son inaceptables, como moral correcto contra incorrecto.

Para alentar conductas que son éticamente preferibles (no claramente erróneas, también conocidas como “un tono de gris”), la IA tendría que aplicar reglas que sirvan a un código de ética (por ejemplo, el menor de dos males, el mejor resultado para la mayoría, respeto). derechos civiles inalienables, etc). Esto no debería ser más difícil de implementar que cualquier otra tarea de planificación de AI que debe satisfacer múltiples restricciones, ya sean físicas, políticas o legales.