Este es un tema difícil, y dudo que la última palabra haya sido escrita sobre esto. En las próximas décadas, es probable que completemos de manera mucho más convincente qué se entiende exactamente por ética y cómo se aplica a los robots. Aquí hay algunas ideas preliminares.
Tres leyes de la robótica.
La respuesta más común que se suele dar a esa pregunta es Las tres leyes de la robótica, de Isaac Asimov. Estas leyes establecen que:
- Un robot no puede dañar a un ser humano o, a través de la inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia siempre y cuando dicha protección no entre en conflicto con la Primera o la Segunda Ley.
Desafortunadamente, este es un dispositivo de trama en las historias de ciencia ficción y no se aplica realmente al mundo real. Los problemas incluyen:
- ¿La gente de todo el mundo es más inteligente desde la era de Internet?
- ¿Por qué los Estados Unidos gastan aproximadamente $ 30,000 por recluso en las cárceles? ¿Crees que esto es algo bueno o malo?
- En sus propias palabras, ¿cómo define el término ‘libre albedrío’?
- ¿Por qué el lenguaje de los libros de filosofía es tan deliberadamente complicado?
- ¿Son los filósofos modernos los científicos del comportamiento?
- La ética a veces requiere dañar a los humanos, por ejemplo, los soldados y el policía reciben tales órdenes. Pero dar tales órdenes a los robots no es posible bajo las tres leyes.
- Estas reglas éticas son estrictamente negativas y no especifican lo que debe hacer el robot, aparte de evitar el daño y permanecer de pie obedeciendo órdenes. Así que ninguna regla los alienta a hacer ningún bien a nadie.
- Las reglas se especifican como si todos los robots debieran obedecer a todos los humanos, pero en realidad, los robots serían propiedad de humanos en particular. Para que no obedecieran órdenes dadas por extraños.
- Las reglas son demasiado generales para programar en los sistemas actuales de AI. De hecho, son reglas de tan alto nivel, que no podrían programarse sin una inteligencia de tipo humano para decidir los complejos problemas resultantes.
- Los robots reales pueden ser agentes utilitarios que están más preocupados por la efectividad que por la ética, por ejemplo, un robot que es más competente para decidir qué hacer que el humano que le da órdenes. Así que las leyes pueden no ser la consideración más importante en el comportamiento del robot.
Desacuerdos sobre ética.
¿Es necesario que los humanos estén de acuerdo con la ética para programarlos en agentes robóticos?
En general, no es necesario. Después de todo, las personas no están de acuerdo con la ética todo el tiempo, tanto personal como políticamente, pero la sociedad sigue funcionando.
La mayoría de sus áreas de desacuerdo se centran en tener diferentes prioridades o entender los problemas de manera diferente. Aún así, en la sociedad moderna, estamos en desacuerdo con respecto a nuestras opiniones. Y tenemos procesos políticos para resolver nuestras diferencias democráticamente. Y si todo lo demás falla, somos lo suficientemente flexibles como para aceptar un rango diferente de resultados éticos, incluso si proporcionamos un rango estrecho y específico de ética en nuestro propio comportamiento.
Dicha flexibilidad también puede mostrarse hacia los robots. Siempre que el robot tenga un comportamiento serio, competente y productivo que sea generalmente inofensivo, sus diferencias con otros tomadores de decisiones robóticas serán probablemente aceptadas. Si no, siempre puede ser reprogramado o reentrenado.
Responsabilidad legal
Otro tema que surge cuando se habla de ética de robots es el concepto de responsabilidad legal. ¿En qué momento fijamos la responsabilidad en la cadena de acción del usuario, el robot, el programador, la empresa que hizo el robot?
Responsabilizar al usuario es la primera opción, y probablemente también la más probable. En el software actual, el error del usuario es responsable de la mayoría de los errores. Por lo tanto, es probable que las demandas incoherentes o inaceptables del usuario al robot sean las responsables de cualquier mal funcionamiento.
Si el usuario no tiene culpa, tal vez el robot no funcionó correctamente. Tal vez su programación fue mala, o su hardware se rompió, o su memoria se corrompió. O tal vez sus rutinas lógicas superiores ya no funcionan de manera positiva para los humanos. La diferencia con la culpa humana es que en cualquiera de estos casos, solo podemos reparar, reprogramar o reemplazar el robot.
Si el robot no es responsable, la negligencia del programador podría ser responsable. Pero si el programador no fue negligente en sus funciones profesionales, en comparación con otros profesionales, probablemente no serán responsables. Lo mismo para la compañía para la que trabaja el programador, independientemente de la profundidad de sus bolsillos.
A veces, un mal funcionamiento es solo un mal funcionamiento, y debe aceptarse como el acto de la naturaleza que es. Al menos con un robot, podemos examinar el sistema que dio lugar al mal funcionamiento e intentar corregir el resultado sistemáticamente. Un cambio de diseño podría ayudar allí.
Niveles de inteligencia
Creo que el primer problema es separar a sus agentes en varios niveles de inteligencia.
- Agentes programados: el nivel más bajo de agente está estrictamente programado de antemano.
- Agentes de aprendizaje: el siguiente nivel es capaz de aprender de la experiencia o la capacitación para realizar una sola tarea.
- Agentes de planificación: el siguiente nivel de agente puede seleccionar y combinar múltiples tipos de competencia.
- Agentes activos: el siguiente nivel de agente puede percibir y manipular objetos en su entorno.
- Agentes conceptuales: el siguiente nivel de agente puede formar pensamientos sobre su entorno y manipular esos pensamientos en un nivel abstracto.
- Agentes comunicantes: el siguiente nivel de agente puede pasar la prueba de Turing y comunicarse a un nivel humano.
- Agentes integrados: el nivel final de inteligencia similar a la humana, o inteligencia general artificial (AGI), muestra la capacidad y la necesidad de aplicar la ética a un nivel sofisticado.
Ética programada
En cada nivel, tendríamos que crear mecanismos internos más sofisticados de evaluación y retroalimentación.
En el nivel más bajo, el programador humano está tomando todas las decisiones. Estas decisiones se guían por la utilidad del software que se está creando. El programador tiene que obedecer la ley y las pautas éticas de la profesión. Y tienen que complacer a la base de usuarios para recibir comentarios positivos o compensaciones financieras.
Aquellos que dicen que nuestro software actual carece de valores están equivocados. Nuestros valores siempre están programados en el software, incluso en los niveles más bajos.
Un ejemplo de este tipo de software es una IA de juego de ajedrez, que está programada para obedecer las reglas del juego sin hacer trampas y esforzarse por dominar con integridad.
Ética aprendida
En este nivel, el agente aún está siendo entrenado para realizar una tarea específica. Es responsabilidad del capacitador dedicar al agente a las tareas correctas y asegurarse de que su éxito en esas tareas no genere efectos secundarios no deseados.
Un ejemplo de este tipo de software es el programa AlphaGo que recientemente ganó una partida de demostración contra un jugador Go de alto rango. Es más un agente de aprendizaje que el jugador de ajedrez, pero aún debe apuntarse a un tipo de tarea para dominarlo.
Sigue siendo el trabajo del programador asegurarse de que la IA se mantenga dentro de las reglas y buscar evidencia de injusticia en sus interacciones con los demás, o de las reacciones negativas de la comunidad en general.
Para que la IA se entere de tales reacciones, necesitaría la capacidad de observar el daño que crea en los demás. Por ejemplo, una cámara de video con reconocimiento facial y emocional podría estar conectada al sistema. El agente de aprendizaje puede monitorear las expresiones faciales de sus usuarios, y si están frunciendo el ceño, modifica su acción en consecuencia. Podría aprender generosamente a jugar a un nivel más amigable u ofrecer aliento al otro jugador.
En general, las leyes de Asimov son probablemente correctas en este punto. Para evitar daños, un agente primero debe poder observarlo. Entonces debe ser capaz de integrar la evitación del daño en su propio comportamiento con éxito para evitar crear más.
Mayores niveles de ética.
Por lo que puedo decir, este es el límite del estado de la técnica en IA. Aún no se han alcanzado niveles más altos, al menos, no en combinación con sistemas de aprendizaje de final abierto.
En cada nivel, tendremos que integrar alguna ética positiva en la máquina antes de pasar al siguiente nivel.
En un sistema público abierto de informes de errores, se crea un circuito de retroalimentación para que los programadores estén al tanto de los errores. Pueden abordar esos errores sistemáticamente haciendo pruebas de regresión: corrigiendo nuevos errores en su toma de decisiones éticas sin cometer los mismos errores anteriores.
Por ejemplo, los agentes de planificación deberán ser monitoreados. Su comportamiento deberá ser evaluado por sus usuarios y se le dará retroalimentación al sistema si el agente se comporta mal. Esto se hace más difícil, porque los agentes de planificación combinan acciones, lo que resulta en una serie infinita de posibles resultados.
Los agentes activos son un desafío, porque manipulan objetos en el mundo real. Cuando están cerca de las personas, pueden causar daños físicos reales. Esto se puede evitar dándoles equipos sensoriales que detecten, a través de una combinación de observación diferente, cuando los humanos están presentes. Se pueden emplear mecanismos sensoriales visuales, de audio, infrarrojos, lidar, táctiles (hápticos) y otros para aumentar la certeza.
Los agentes conceptuales son aún más difíciles. Los conceptos se multiplicarán en los pensamientos del agente más allá de la capacidad humana para predecir o controlar sus combinaciones directamente. Sin embargo, los humanos aún pueden crear sistemas de abstracción, a través de los cuales deberían poder describir y afectar la operación del sistema en un nivel indirecto. Esto debería ser ayudado por la mayor capacidad del robot para aprender, entrenar y observar con éxito en este nivel.
Los agentes comunicantes agregan una nueva capa de inteligencia y autoconciencia. Ahora los robots son sociales y pueden interactuar plenamente con los seres humanos y el mundo que los rodea. Los robots pueden pasar la prueba de Turing y son aceptados en la sociedad. Pero en el lado negativo, pueden llegar a ideas a través de discusiones que no son del agrado de los humanos, creando una revolución de robots en las ideas. O los humanos pueden elevar sus estándares tanto para los robots sociales que se considera que los robots aceptados anteriormente fallan.
Los agentes integrados son el nivel final de la inteligencia humana. Todos los niveles anteriores de conciencia ética, capacidad intelectual y competencia práctica están unidos en una persona flexible. Los robots dan evidencia de la individualidad, la personalidad y la posibilidad de la existencia propia, aparte del apoyo humano. Para este momento, esperamos que hayan dominado todas las lecciones éticas que les hemos enseñado, ya que cuando se gradúen, esperamos que nos superen rápidamente.