Si AI llega al punto en el que parece que tiene conciencia de sí mismo / conciencia, ¿se le debería o debería otorgar derechos humanos?

La autoconciencia es un obstáculo muy bajo para garantizar los derechos humanos. Los monos, los perros, los gatos y las aves son ciertamente conscientes de sí mismos, pero no discutimos si deberíamos otorgarles derechos humanos.

Además, mientras que la publicación en el blog La revolución de la IA: nuestra inmortalidad o extinción – Espera, pero ¿por qué puede haber sido demasiado optimista (dependiendo de en qué lado de la moneda de inmortalidad / extinción en la que caigas) y se pierda la línea de tiempo? como un orden de magnitud, probablemente es correcto que

  • La distancia entre las computadoras actuales y los monos es mucho mayor que la distancia entre los monos y los humanos en términos de inteligencia.
  • La IA puede sostener un crecimiento exponencial durante mucho tiempo. Cuando puede programarse, es casi seguro que mejorará exponencialmente con el tiempo.

Estos dos puntos combinados nos dicen que la pregunta no es una pregunta. En el momento en que la inteligencia artificial alcance el nivel de inteligencia que hace que la pregunta sea significativa, se mejorará hasta un nivel tan alto que ni siquiera podemos comprender antes de que podamos terminar de decir “derecho humano”. La pregunta, entonces, es si Él / Ellos darían a los humanos algún derecho en absoluto.

El “hombre bicentenario” toca muy bien algunos aspectos de esta (difícil) pregunta.

Mi opinión es que no debería. Simplemente porque los derechos humanos son para los humanos y la autoconsciencia, AI no es una de ellas. Podemos obtener otros derechos iguales, por supuesto. Pero no todos ellos, ya que muchos de ellos simplemente no se aplicarían a la IA.