En última instancia, no podemos garantizar que cualquier cosa que hagamos no va a ser contraproducente para nosotros; este problema se vuelve intratable con bastante rapidez, ya que se da cuenta de que cualquier conjunto de directivas éticas preprogramadas tendrá deficiencias y, a menudo, peligrosas.
Por esta razón, la mayoría de los expertos en el campo han renunciado más o menos a la idea de un conjunto a priori de doctrinas éticas para ser programadas y seguidas exactamente como una meta operativa.
La mayoría de las investigaciones actuales, en cambio, se centran en descubrir qué es exactamente lo que motiva a los humanos a ser buenos, desentrañar cómo decidimos qué cosas son buenas y prepararnos para intentar copiar esa línea de razonamiento en una IA.
La compasión y la empatía cognitiva hacia las personas y la sociedad son una gran posibilidad para el componente crucial en esa línea de razonamiento. Esta es la avenida que creo que tiene más promesa, personalmente. El programa de televisión Person of Interest proporciona una especulación bastante convincente sobre cómo se puede desarrollar: la Máquina, una superinteligencia artificial, tiene compasión por las personas que mira, programadas por su creador.
- ¿Qué economía desarrollada tiene más probabilidades de convertirse en el tercer mundo en el futuro?
- ¿Las malas calificaciones pueden arruinar mi futuro?
- ¿Cuál es la probabilidad de que el comercio automatizado supere las capacidades de los comerciantes humanos?
- ¿Alguna vez se reemplazará el método científico?
- No soy ateo sino curioso. ¿Por qué adoramos a los humanos como dioses?
Aun así, sin embargo, no tenemos absolutamente ninguna forma de garantizar que una superinteligencia artificial tenga motivos incluso comparables a los nuestros, o incluso comprensibles por nuestras propias mentes. Lo que pensamos como moral puede que no le importe a algo lo suficientemente inteligente como para que nos consideremos como hormigas, no importa lo difícil que intentemos que sea importante; puede resultar que algún factor primordial lo haga decidir que hay algo más importante que cualquiera o todos nosotros.
Si realmente quisiéramos garantizar que ASI sepa lo que es ser un ser humano y que tengamos alguna experiencia con la moralidad humana, entonces tal vez, como dice Richard Rombouts, nuestra mejor opción es construir este ASI utilizando una mente humana como base. Uno tendría que seleccionar al (los) candidato (s) con mucho cuidado y someterlos a una exhaustiva investigación psicológica, por supuesto. Una vez más, sin embargo, incluso esto no es garantía de nada.
Referencias
La revolución de la inteligencia artificial: Parte 2 – Espera, pero por qué
Inteligencia artificial amigable – Wikipedia
Persona de interés (serie de televisión) – Wikipedia