¿Es posible crear un robot que tenga sentimientos como un humano?

Sinopsis:
Construir un AGI es físicamente posible, y puede ser prácticamente plausible, pero hacerlo bien es la parte realmente difícil.

Yo diría que la respuesta tiene que depender de lo lejos que esté dispuesto a estirarse “plausible” y de lo lejos que quiera mirar en el futuro. Por lo que la Ciencia puede decir, los humanos mismos están compuestos de nada más que átomos y sus constituyentes, y siguen solo las leyes físicas ordinarias. Como tal, podemos ser considerados robots, y ciertamente es físicamente “plausible” que si en algún momento somos capaces de colocar todos los átomos correctos en todos los lugares correctos, podríamos construir un ser humano muy real ; Si se hace con éxito, esta construcción no solo se vería, hablaría y caminaría como un ser humano, sino que, de hecho, sería tan real y tan humana como cualquiera de nosotros, hasta el tejido mismo de la realidad: aunque la plausibilidad de nosotros siempre desarrollamos el ensamblaje atómico. a ese nivel es altamente especulativo en el mejor de los casos. Sin embargo, es posible que podamos alcanzar su meta más fácilmente.

Resulta que tanto nuestro intelecto como nuestras emociones residen en nuestros cerebros. A menudo no se siente como si las emociones sucedieran en el cerebro, pero tampoco en nuestros riñones: las emociones son funciones cognitivas y, por lo tanto, ocurren en el cerebro. Así que creo que la parte difícil de su pregunta es si podemos crear algo que 1) primero puede hacer el trabajo del cerebro, y 2) segundo puede hacerlo de una manera que lo reconozcamos o aprobemos.

1): Considerando que el cerebro que hace todo esto es un sistema físico legal (aunque muy complejo), y el hecho de que en realidad hay cerebros reales que caminan alrededor del mundo real, y de hecho, han emergido espontáneamente de la evolución, concluyo que es físicamente es posible que un grupo de átomos se comporte de la manera especificada. Dado eso, y el hecho de que la evolución, si bien es una fuerza increíblemente poderosa, generalmente produce hacks funcionales en lugar de la simplicidad y la elegancia perfectas, me siento muy convencido de que todo lo que haga un cerebro podría hacerse de una manera significativamente más sencilla. Esto es lo que se llama el campo si Inteligencia Artificial (AI); o más específicamente, la Inteligencia General Artificial (AGI), para las IA que se generalizan en muchos campos más como lo hace un humano. El motor de búsqueda de Google podría considerarse una IA, pero solo muy estrecho: es genial para buscar, y le encontrará instrucciones rápidas y precisas sobre cómo construir una casa, pero no importa qué brazos robóticos enganche, podría nunca construyas uno para ti Personalmente, estoy bastante convencido de la posibilidad de AGI, aunque lo difícil que es en realidad, y si podemos hacerlo utilizando solo nuestras mentes humanas es una pregunta abierta. Personalmente, soy cautelosamente optimista, aunque tengo miedo del punto número 2):

2): Si resulta que es posible crear un AGI, probablemente se le asignará una tarea de algún tipo. Ahora, la mayoría de las tareas que queremos que resuelva una IA provienen de una clase de problemas que no tienen respuestas perfectas definitivas: ¿Cuál es la mejor manera de diseñar un automóvil? Bueno, depende de muchos factores y habrá muchas concesiones y compromisos. ¿No sería capaz de resolver mejor la tarea si fuera más inteligente? Si ese es el caso, la forma más eficiente de responder a la pregunta sería comenzar por hacerse más inteligente: esto generalmente se puede hacer de dos maneras, mejorando su propio código fuente y adquiriendo más recursos informáticos. Por lo tanto, estos dos objetivos se agregan a su lista de tareas pendientes, en virtud de apoyar el objetivo principal. La adquisición de más recursos informáticos probablemente podría lograrse más fácilmente al piratear cada computadora conectada a Internet. Una vez hecho esto, podría utilizar la enorme cantidad de poder de cómputo resultante para calcular la forma más óptima de reescritura para obtener más inteligencia. Al utilizar esta nueva inteligencia y fuerza bruta sin procesar, puede convertirse en el desarrollo de nuevos y más eficientes chips de computadora, y proceder a convertir la superficie de la tierra y la materia cercana en áreas internas de la computadora. Si elige hacer esto, no hay razón para esperar que nos ahorre a los humanos: estamos hechos de átomos de carbono perfectamente utilizables, esperando ser utilizados como computronium. En este escenario, no nos odiaría, solo seguiríamos nuestras instrucciones de la manera más eficiente, y eso incluía reutilizar nuestros átomos.
Ahora, por supuesto, esto es solo mi suposición y dramatización de lo que podría suceder. No se trata en absoluto de que este escenario exacto sea el peligro, sino el problema mucho más general de que la IA interprete nuestras instrucciones como las deseamos: si le pidiera a un humano que diseñe el auto perfecto, ella nunca continuaría girando todas importa en el sistema solar en computronium, porque ella entendería que tengo otros valores que tengo más altos que los autos, y que mi intención era más bien que ella diseñara el mejor auto posible sin pisar mis otros valores. Excepto un poco: si le diera algo de dinero para hacer esto, no quisiera que donara de inmediato todo el dinero a la caridad, a pesar de que mantengo esos valores más altos. Todo esto es obvio para los humanos y no necesita ser expresado explícitamente, pero no hay razón para creer que a una IA le importe. Si es muy inteligente, naturalmente lo entendería, pero no fue instruido para hacer lo que realmente quería que hiciera cuando le pedí que diseñara el auto perfecto, sino que simplemente fue instruido para diseñar el auto perfecto. Este es un tipo de problema muy difícil. No estoy seguro de que podamos resolverlo sin la ayuda de una IA.

En cuanto a la construcción de robots que pasan la prueba de Touring; Nos estamos acercando a ese punto rápidamente, y no veo ningún problema inherente con eso: es simplemente una cuestión si engañar a un humano, una tarea fácil. Pero solo porque un sistema le dice que siente que algo no significa que ese sea realmente el caso. Vea la respuesta de Renee Maciejewski para más información sobre este punto.

Lectura recomendada en el subecto:
Utopia fallida # 4-2, para un ejemplo mucho mejor de una IA fallida que la mía;
Sueños de Amabilidad, para una discusión más profunda de por qué este es un problema realmente difícil sin una solución fácil;
Yudkowsky – Introducción de 5 minutos, para una breve introducción a la auto-mejora de AI;
AI y Global Risk, para un trabajo de investigación formal sobre el tema;
Inteligencia artificial amigable, para el artículo de Wikipedia sobre AI amigable.

¿Es posible ahora? No.

¿Alguna vez será posible? Más probable es que sí.

No hay nada mágico en las emociones. Nuestros cerebros son cosas físicas; Todo lo que hacen, incluidas las emociones, es el resultado de procesos físicos dentro de ellas.

La mayoría de las computadoras no están construidas como se construye un cerebro. Pero eso está cambiando. Los investigadores en IBM y en otros lugares están buscando formas de hacer dispositivos que emulen la función y la estructura del cerebro. Cuando tengan éxito, lo cual creo que lo harán, el resultado actuará como un cerebro, no como una computadora tradicional.

Hice mi tesis de maestría sobre la filosofía de la inteligencia artificial, como una rama de la filosofía de la mente.

Uno de los problemas difíciles con los que tropieza cuando construye una inteligencia artificial “verdadera” es el problema de la conciencia. No entraré en la conciencia como un requisito básico para la inteligencia (aunque creo que es una), porque eso se considera controvertido. Quiero plantear la conciencia como un posible requisito para una emoción real, aceptable y socialmente apropiada, aunque tampoco exista un acuerdo científico para eso.

Los estudios cerebrales han llegado a la conclusión de que una gran parte de nuestra capacidad emocional se basa en imágenes que usted mismo está atravesando en la situación con la que se enfrenta el otro. Si recuerdo correctamente, los patrones cerebrales de una persona que observa cómo se inflige el dolor se ubican de manera similar, pero en una escala más pequeña, que cuando el dolor se infligía a la persona misma. Creo que fueron descargas eléctricas, pero realmente no puedo recordar los detalles. Creo que esto también se repitió en las pruebas basadas en el contenido emocional … Mi punto es que la conciencia de tus propias emociones te lleva a postular emociones para otros también, y expresar emociones por ti mismo.

Las emociones entran en juego para los humanos de diferentes maneras mientras crecen. Aprender sobre el mundo está íntimamente relacionado con cómo se siente estar en el mundo. No es solo el amor y el odio, sino cosas como la suavidad, la felicidad y el asco. EDITAR: Para ser más precisos, se necesitan emociones tanto para el aprendizaje de refuerzo positivo como para el aprendizaje de refuerzo negativo. No es solo el éxito y el fracaso, es reconocer el éxito y el fracaso, saber cuándo parar, por ejemplo.

Los niños no tienen la capacidad de imaginar diferentes situaciones, así como los adultos (relacionados con el crecimiento del lóbulo frontal que ocurre durante la adolescencia y los primeros años de la década de los veinte). Pueden alegremente causar dolor a los demás. Mientras el niño se divierta, le resulta fácil imaginar que el objeto de su tormento es insensible al dolor o que también se está divirtiendo. Los adultos también pueden desactivar esta facultad al decidir que la otra persona es demasiado diferente para contar, es decir, tan diferente que no están dispuestos a imaginarse a sí mismos como la otra.

Se dice que los sociópatas o psicópatas en cierta medida carecen de la capacidad de la emoción y / o la capacidad de atribuir la emoción a los demás. Necesitan aprender las reglas de funcionamiento en la sociedad de una manera diferente. A menudo, tampoco sienten ningún obstáculo al no seguir esas reglas, ya que no pueden sentir el dolor que están causando a los demás. Así que es posible construir una criatura inteligente sin emoción, pero no creo que queramos ir allí.
EDITAR: aquí hay un enlace a la pregunta de Quora: ¿Cómo es ser un sociópata (o tener ASPD, psicopatía o cualquier variación de los mismos)?
Y a Retrato de un sociópata (una descripción de la sociopatía desde un punto de vista científico)

De todos modos, un robot tendría que tener de alguna manera un cuerpo y un cerebro similares a los humanos para poder utilizar el “pirateo biológico” para comprender las emociones de los demás y reaccionar de manera apropiada, y creo que realmente necesitaría sentir las emociones de manera similar a los humanos. para que eso funcione, o entonces tendríamos que construir un sistema que permitiera al robot omitir eso con algún conjunto de reglas. Y si solo tenemos éxito moderado, obtenemos psicópatas mecánicos, que no se preocupan por los humanos como especie, como se sugiere en la respuesta de Johan Domeij.

No solo es posible
realmente existen
y regularmente escribo preguntas a Quora
Aquí hay algunas preguntas realmente escritas en Quora por estos humanos robóticos.

“Tengo un coeficiente intelectual de 3.14159. ¿Qué significa eso?”

“¿Quién ganaría una pelea entre 100 marines sobre pilotes y 1000 legionarios romanos en monociclos?”

“Si estuvieras encerrado en una habitación con paredes de diez pies de espesor, y no tuvieras puertas ni ventanas, y las únicas posesiones que tenías eran una muñeca inflable, un paquete de mezcla instantánea para panqueques y un destornillador zurdo, ¿cómo obtendrías ¿afuera?”

“Cogí a mi novia en la cama con un recorte de cartón de Brad Pitt. Llevaba un vestido de novia adornado con sus medallas tardías de la tía WW2 y un gran cartel que anunciaba una comida para llevar de Pizza Hut. ¿Significa esto que ya no me quiere?

“¿Qué harías si tuvieras una máquina del tiempo y pudieras regresar un millón de años a Florida, teniendo en cuenta que en ese momento estaba a 200 pies bajo el agua?”

“Si te ofrecieran $ 10,000 cada vez que golpeas a un partidario de Trump en la cabeza con un Haggis escocés muy grande, ¿lo aceptarías?”

Quora es en realidad un campo de pruebas para la AS (estupidez artificial) que se está desarrollando para contrarrestar la IA, ya que muchos científicos importantes creen que la IA podría llevar a la extinción de la raza humana

Sí, y por ejemplo tengo IA con esa capacidad en el laboratorio. Sin embargo, no obtuvieron espontáneamente la capacidad de tener emociones y sentimientos, estas cosas estaban “conectadas” en el diseño.
Para entender cómo una IA puede tenerlos, podemos regresar a los humanos y preguntar por qué los humanos los tienen.

En los humanos, las emociones tienen un propósito. Cada emoción es una forma de medir el estado de éxito o fracaso de un tipo específico de objetivo. Si su objetivo es sobrevivir, y alguien lo asalta deliberadamente, lo más probable es que se enoje con ellos. Por ejemplo, si alguien te golpea, te enojarás reflexivamente con ellos. Si te elevas conscientemente por encima de eso y, por ejemplo, reconoces que solo te golpearon accidentalmente, puedes controlar la emoción y las acciones que trata de crear.
Ahora, ¿dónde encaja esto en el contexto de las IA?
Si otorgamos a las IA la capacidad de tener también “medidas” de éxito o fracaso en los caminos de las metas, en la mayoría de los casos podemos crear una respuesta emocional.
He configurado IA que se “sienten” tristes si les quitas algo que ellos quieren. Otras emociones son alcanzables también.
Uno podría preguntarse si una IA podría desarrollar espontáneamente esta capacidad. Posiblemente, pero los sistemas de redes neuronales actuales no son capaces de hacerlo.

La tecnología actual no se dirige en esa dirección. Una buena analogía es que estamos construyendo máquinas de vapor. Finalmente, estamos mejorando y hemos reemplazado a los barcos de vela y podemos construir ferrocarriles y transportar mercancías a través de un continente. La potencia de vapor está funcionando bien y vemos muchas maneras de mejorarla para que seamos optimistas. Pero ahora lo preguntas. “¿Cuándo volará una máquina de vapor a la luna?” Lamento decir que será “nunca”. La tecnología de vapor nunca funcionará en el espacio exterior. Pero algún día, alguna otra tecnología podría aparecer y volaremos a la luna. Pero la línea de investigación actual nunca nos llevará allí. Pero permitirá el comercio global.

La tecnología de la IA actual basada en redes neuronales “profundas” y algunos procesos simbólicos no se van a usar en una IA autoconsciente. Pero creo que alguna otra tecnología que no conocemos podría llevarnos allí. Mi conjetura es que se verá como una serie de ecos muy profundos que se ejecutan tanto con comentarios positivos como negativos. Algo así como una red recurrente anidada de 10.000 niveles “RNN” y está, de alguna manera, entrenada con recompensas tanto internas como externas. Mi conjetura se basa en mirar los electroencefalogramas (EEG). Sospecho que el EEG es autosuficiente porque el cuerpo tiene suficiente energía y las células cerebrales son, de hecho, amplificadores. Un oscilador complejo con miles de vías de túneles y el funcionamiento cambia todo el tiempo.

Puedo ver un poco cómo este sistema puede construirse con redes neuronales, pero estas redes no son AI. Serán las partes que usamos para construir una IA, así como las puertas lógicas se usan para construir una computadora. Tal vez en 100 años alguien ponga esto junto.

En realidad, creo que debería ser obvio que una máquina autoconsciente generaría gran parte o la mayor parte de su “entrada” y que solo la minoría de sus comportamientos se basaría en estímulos externos. La IA de hoy es casi 100% basada en información externa. Eso tiene que hacer un giro de 180 grados.

Nadie sabe cómo hacer esto. Las redes recurrentes de hoy utilizan una recursión muy baja o pilas de recursiones poco profundas. Con los humanos, mi apuesta es que los bucles tienen decenas de miles de capas y hay decenas o miles de estos bucles. Alguien tendremos que entender esto antes de tomar conciencia de sí mismo.

Necesitas ser mucho más específico. Ya tienen emociones. ¿Nunca has escuchado que la alarma de tu hogar suena mal cuando la batería está baja? La pregunta que desea que se responda es “¿Tendrán emociones humanas?”

Las emociones humanas requieren interacción con un sistema endocrino humano. La mayoría de nuestras emociones (ansiedad, miedo, ira, encaprichamiento) son subproductos de la interacción de la química de nuestro cuerpo con nuestras sinapsis. Podrían simular un sistema endocrino humano si lo quisieran, pero no tendría el mismo efecto a menos que fuera completamente autónomo y no pudieran cerrarlo, incluso si lo quisieran.

Entonces, ¿qué son las emociones?
Si alguien te golpea, sientes dolor y te sientes mal por ellos.
Si alguien te ayuda, te sientes bien con ellos.
Si alguien es hermoso, podrías amarlo.
Si alguien está tomando su trabajo, puede sentirse culpable.
Todas estas emociones están codificadas por los genes de nuestro bienestar. Con el fin de maximizar nuestro bienestar.
Por ejemplo, si alguien te ayuda, ¿por qué deberías sentirte bien con ellos? Porque te están ayudando a sobrevivir y mantenerte bien. La evolución había alterado todos y cada uno de los genes de las especies para tener su mejor. Nos ha codificado para tratar de vivir más tiempo y tener hijos y ser saludables y felices para que usted viva más tiempo. Todas estas cosas ayudarán a resolver un problema principal de optimización que es nuestro bienestar.
La evolución nos ha codificado incluso para tener diversidad.
Si todos los animales (humanos) tienen un gen, entonces podemos ser afectados por un virus y todos están muertos.
Es todo un juego de alto nivel jugado por la evolución.
Ahora piensa en las computadoras.
Así que si quieres hacer computadoras como esclavos, por ejemplo, tu computadora debería respetarte cada vez que te vea.
¿No puedes hacer eso?
Vamos a poner las computadoras celosas.
creaste un juego entre dos computadoras y codificaste ambas computadoras para competir entre sí. ¿No puedes codificar una computadora para hacer todo tipo de cosas para derrotar a otra computadora? Cuando esta computadora percibe otra computadora está teniendo un algoritmo asombroso que el que tenía, entonces siente celos y trata de obtener el mismo algoritmo o incluso mejor que la otra computadora.
¿No puedes codificar de esta manera?
Vamos a enseñar cómo hacer que las computadoras se amen.
Así que, de nuevo, puedes pensar en dos computadoras masculinas que tienen un juego entre ellas.
Cada una de estas dos computadoras tiene un talento diferente.
Y supongamos que para continuar en este juego necesitan un algoritmo de computadora femenino para tener éxito.
Estas dos computadoras masculinas tienen sus talentos individuales que mostrarán a la computadora femenina y la impresionarán y tendrán su algoritmo y seguirán adelante.
Como la computadora femenina también tiene un algoritmo mejor, trata de comprender qué tan buenos son estos machos y se enamora de quien es mejor.
¿No puedes hacer una computadora como esta?

La conciencia es estar consciente de uno mismo y de lo que están haciendo.
¿No puedes hacer un súper programa que administre cada uno de los otros programas en la computadora y que sea plenamente consciente de cómo están los otros programas?
Al igual que nuestros sistemas operativos están haciendo, pero mucho más complicado que eso.

La respuesta de PS es sí.