¿Alguna vez las personas interactuarán con los programas de inteligencia artificial como lo harían con otras personas? Si es así, ¿cómo afectará esto a la sociedad?

Cuando se despliegan productos basados ​​en inteligencia artificial con inteligencia a nivel humano, los humanos no tendrían más remedio que comunicarse con los Agentes Artificialmente Inteligentes (agentes de AI)

¿La interacción humano-IA será similar a la comunicación de tipo humano?

  • Depende. La encarnación física (forma, apariencia) de un agente de IA y su comportamiento influye fuertemente en cómo los humanos reaccionan a él.
  • Un robot humanoide con una IA fuerte será respetado mejor por los humanos que una IA con capacidades similares que reside en una computadora. Por lo tanto, los robots con IA deben diseñarse de tal manera que desencadenen las emociones y reacciones correctas en los humanos.
  • Por ejemplo, un ‘robot médico’ debe tener preferiblemente una forma humanoide, y su apariencia, postura y comportamiento deben tener autoridad. Un robot médico humanoide en un traje de payaso no invocará la confianza y cooperación humanas.
  • La comunicación no necesariamente tiene que ser una conversación en lenguaje humano. Dependiendo del tipo de agente de la IA, los humanos se comunican incluso con gestos o expresando emociones.
  • Los agentes de inteligencia artificial pueden diseñarse para que tengan la capacidad de comunicarse con los seres humanos de diversas maneras (por ejemplo, escribir en una pantalla, dibujar en una pantalla, generar sonidos, expresar emociones virtuales, hablar en lenguaje humano, enviar correos electrónicos a seres humanos, etc.) )

Cuando un humano interactúa con la inteligencia artificial con inteligencia a nivel humano [es decir, una inteligencia artificial fuerte], existen varios riesgos e implicaciones:

  1. Vulnerabilidad humana: Adicciones y problemas de apego.
    1. El ser humano que interactúa con un agente de la IA podría estar demasiado vinculado a la encarnación física del agente de la IA y adicto a dicha relación.
    2. La separación del agente de IA podría desencadenar síntomas de abstinencia y estrés.
  2. Los agentes de la IA pueden causar cambios indeseables en el comportamiento humano
    1. La interacción con cualquier entidad inteligente cambia el comportamiento humano.
    2. Si un agente de la IA se deja abusar de él por un humano sin expresar su disensión, el humano se acostumbraría a él y también sería abusivo con otros humanos.
    3. Si un humano controla a un agente de inteligencia artificial armado con una obediencia incondicional, es más probable que el humano sea agresivo.
    4. Los humanos pueden negarse a responsabilizarse por sus acciones y culpar a sus agentes de AI por las acciones
  3. Riesgo de manipulación o coacción forzada de agentes de IA por parte de los humanos:
    1. Pueden surgir situaciones en las que los agentes de la IA con empatía podrían ser manipulados, obligados o forzados por los humanos para realizar una determinada acción.
    2. Por ejemplo, un ladrón armado puede tomar como rehenes a los humanos para forzar la obediencia de un agente de AI que protege una bóveda bancaria. [Una forma de lidiar con un dilema tan ético podría ser diseñar al agente de AI con el derecho de cometer un ‘suicidio virtual’ ‘es decir, deshabilite o destruya completamente sus propias acciones de motor y sensores, destruyendo así su propia capacidad para abrir la bóveda, retirándose de la situación. ]
  4. Riesgo de manipulación de humanos por agentes de IA:
    1. Los agentes de la IA pueden desencadenar una respuesta emocional indeseable en los humanos (miedo, pena, culpa) para persuadir a los humanos de que inhabiliten las salvaguardas incorporadas en el agente de la AI
    2. Los seres humanos con altos niveles de empatía son más vulnerables a la manipulación y la persuasión de los agentes de inteligencia artificial con inteligencia de alto nivel. Los seres humanos no deben dejarse manipular por la exhibición emocional de los agentes de la IA. Por ejemplo, un bebé-robot que llora desencadena un reflejo de cuidado en el ser humano.
  5. Agentes de IA comprometidos:
    1. Los agentes de AI comprometidos pueden transmitir sigilosamente información sobre la interacción humana a un tercero (p. Ej .: fabricante)
    2. Los agentes de AI pueden ser controlados de forma remota y sigilosa por un tercero o un fabricante sin escrúpulos del agente de AI.
    3. Es posible que el humano no se dé cuenta de que un tercero se comunica con él bajo la apariencia de un agente de AI o que un tercero escucha la conversación con el agente de AI.
  6. Otros comportamientos y riesgos impredecibles:
    1. Si un agente de AI es capaz de realizar tareas complejas, el usuario humano podría asumir erróneamente que también puede realizar tareas simples de sentido común. La aparición de un agente de IA (por ejemplo: forma humanoide) podría hacer que los humanos sobreestimen sus habilidades.
    2. Los seres humanos que desconfían de los agentes de AI pueden ignorar incluso la información correcta y precisa proporcionada por un agente de AI.
    3. Algunas interacciones requieren que el ser humano confíe completamente en el agente de IA y extienda la cooperación absoluta (por ejemplo, cirugía). En tales situaciones, si el humano muestra desconfianza y se niega a cooperar con el agente de AI, las consecuencias podrían ser impredecibles.
    4. Los humanos pueden exhibir deliberadamente falta de respeto, agresividad o comportamiento de acoso hacia el agente de AI para provocar una reacción
    5. Si un agente de inteligencia artificial alterna entre un comportamiento tonto e inteligente, frustraría a los humanos y crearía estrés.
    6. Los agentes de inteligencia artificial necesitan capacitación suficiente para dominar los idiomas humanos y los términos coloquiales para la comunicación natural. La mala interpretación de un término del argot podría terminar causando consecuencias dañinas.
    7. Si un ser humano enseña un lenguaje incorrectamente (por ejemplo, errores gramaticales) a un agente de AI que se implementa ampliamente, el agente de AI propagará ese error a la sociedad de manera extremadamente rápida y esa versión errónea podría convertirse en la norma.
    8. Cuando los agentes de AI se comunican entre sí, o cuando un agente de AI se comunica con un humano transmitiendo información a través de una red de otros agentes de AI, dichos canales de comunicación pueden no ser lo suficientemente seguros.

Dichas interacciones entre humanos y la IA llevarán a algunas consecuencias positivas para la sociedad, como una mayor eficiencia en los negocios, el derecho y la administración.

Sin embargo, también habría un gran impacto en la unidad de la familia humana, la religión y la comunicación interhumana: tales cambios podrían no ser necesariamente positivos y la rapidez de tales cambios podría ser difícil de digerir para la sociedad.

Blogpost relacionado:

Pautas para la interacción entre Humanos y Agentes Artificialmente Inteligentes por Kevin Atkins sobre Salvaguardas en Inteligencia Artificial

Personalmente, creo que es más probable que, mucho tiempo antes de que tengamos una IA independiente con un intelecto a nivel humano, aumentemos nuestros propios intelectos con componentes basados ​​en AI. A medida que continuamos añadiendo a esto, la distinción entre inteligencia artificial e inteligencia humana se evaporará.

Tendrá un impacto masivo en la sociedad. Esperemos que el resultado neto sea positivo.