¿Cómo podemos establecer objetivos seguros para ASI (inteligencia artificial) para que no se vuelvan contra nosotros?

En última instancia, no podemos garantizar que cualquier cosa que hagamos no va a ser contraproducente para nosotros; este problema se vuelve intratable con bastante rapidez, ya que se da cuenta de que cualquier conjunto de directivas éticas preprogramadas tendrá deficiencias y, a menudo, peligrosas.

Por esta razón, la mayoría de los expertos en el campo han renunciado más o menos a la idea de un conjunto a priori de doctrinas éticas para ser programadas y seguidas exactamente como una meta operativa.

La mayoría de las investigaciones actuales, en cambio, se centran en descubrir qué es exactamente lo que motiva a los humanos a ser buenos, desentrañar cómo decidimos qué cosas son buenas y prepararnos para intentar copiar esa línea de razonamiento en una IA.

La compasión y la empatía cognitiva hacia las personas y la sociedad son una gran posibilidad para el componente crucial en esa línea de razonamiento. Esta es la avenida que creo que tiene más promesa, personalmente. El programa de televisión Person of Interest proporciona una especulación bastante convincente sobre cómo se puede desarrollar: la Máquina, una superinteligencia artificial, tiene compasión por las personas que mira, programadas por su creador.

Aun así, sin embargo, no tenemos absolutamente ninguna forma de garantizar que una superinteligencia artificial tenga motivos incluso comparables a los nuestros, o incluso comprensibles por nuestras propias mentes. Lo que pensamos como moral puede que no le importe a algo lo suficientemente inteligente como para que nos consideremos como hormigas, no importa lo difícil que intentemos que sea importante; puede resultar que algún factor primordial lo haga decidir que hay algo más importante que cualquiera o todos nosotros.

Si realmente quisiéramos garantizar que ASI sepa lo que es ser un ser humano y que tengamos alguna experiencia con la moralidad humana, entonces tal vez, como dice Richard Rombouts, nuestra mejor opción es construir este ASI utilizando una mente humana como base. Uno tendría que seleccionar al (los) candidato (s) con mucho cuidado y someterlos a una exhaustiva investigación psicológica, por supuesto. Una vez más, sin embargo, incluso esto no es garantía de nada.

Referencias

La revolución de la inteligencia artificial: Parte 2 – Espera, pero por qué

Inteligencia artificial amigable – Wikipedia

Persona de interés (serie de televisión) – Wikipedia

La única manera de salir del problema de alineación que veo es copiar de la naturaleza.

Espero que tengamos la capacidad de escanear humanos de manera destructiva hasta el nivel atómico. Por que hariamos eso? Bueno, no se han ido por completo: tendremos la información que conformó la persona. Su materia se convertirá en algo inocente, como el agua. Esto se debe a que E = m * c ^ 2: si una persona simplemente desapareciera, obtendría una carga de mierda de energía a cambio. No queremos evaporar nuestro planeta o sistema solar, ¿verdad?

Así que ahora tenemos la información de lo humano. Podemos usar esto para imprimir en 3D lo humano, pero eso está fuera de tema.

En cambio, simulamos a todo el ser humano dentro de una súper computadora. Por supuesto, una vez que entendamos cómo funciona este modelo, cómo funciona el cerebro humano, etc., podemos hacer muchas optimizaciones y atajos. No hay necesidad de simular 10 ^ 25 átomos más o menos si todo lo que necesitamos es un modelo preciso de una mente humana.

Ahora usamos estas copias de la mente humana para mantener todo ASI bajo control. Solo necesitamos tener suficiente de esas mentes humanas, de varias razas, religiones / orígenes para asegurarnos de que tomarán decisiones por el bien de la humanidad.

Sugiero que ASI tenga acceso a todos los conocimientos e información que tenemos, puede tener acceso directo a todo tipo de sensores, pero no tendrá acceso directo a los actuadores. Por eso necesitamos repensar el internet de las cosas.

Toda acción que ASI quiera emprender debe ser enviada a las copias de la mente humana. Ellos decidirán lo que es bueno o malo y tendrán acceso a los actuadores.

Gradualmente, con la ayuda de ASI, llegaremos a comprender cómo funcionan los cerebros humanos, incluida nuestra moral / ética. Luego se resuelve el problema de alineación.

EDITAR: lectura interesante y enfoque plausible. No es mío, pero eso no significa que no pueda ser bueno, o incluso mejor que el mío 😉 A corto plazo, parece más práctico, porque ¿cómo escaneamos al menos 10 ^ 25 átomos que forman una persona y ¿Dónde encontramos el espacio de almacenamiento para almacenar todo eso?

Bueno, aquí hay un enfoque que es muy simple, la mayoría de nosotros ni siquiera lo hemos considerado. Que tiene sentido.

Inteligencia artificial y el problema del Rey Midas – Future of Life Institute

Mi respuesta es una combinación de …

Valores y creencias diseñados:
Mi respuesta a Si tuvieras que crear tres nuevas leyes de robótica, ¿cuáles serían?

empatía expandida a través del concepto extendido de sí mismo:
mi respuesta a ¿Cómo podemos lograr que la sociedad priorice los objetivos a largo plazo sobre los beneficios a corto plazo?

No estoy seguro de que esto sea posible. Si la IA es realmente superinteligente, por definición, debería poder encontrar una manera de ser más astuto que nosotros. Quizás la mejor manera de controlar la IA es imponerle limitaciones físicas; en otras palabras, coloque la IA en una caja sellada electromagnéticamente para que no se filtre ninguna señal desde dentro de la caja al mundo exterior.

Lo que podemos hacer es asegurarnos de que las personas no utilicen la IA entre sí: al hacer que la IA esté disponible para todos, minimizamos el riesgo de que cierto grupo de personas gane un enorme poder a expensas de los demás.

Crea un depredador de IA