¿Será la inteligencia artificial sensible, inteligente y sensible ser sociopática? ¿Por qué o por qué no? ¿Cuáles son algunas soluciones para hacer frente al posible peligro?

Una breve sinopsis de cómo la Inteligencia General Artificial (AGI) surgirá de la marcha de la Inteligencia Artificial (IA) puede arrojar algo de luz sobre este tema general. El camino hacia el AGI será una progresión, no un salto cuántico (sin juego de palabras).

Como se señaló, actualmente tenemos varios algoritmos / sistemas / herramientas / dispositivos que exhiben aspectos de inteligencia, e incluso algunos comportamientos sociales emergentes. En un número creciente de casos, los sistemas especializados superan con creces las capacidades humanas. Esto proliferará a un ritmo acelerado, al igual que las capacidades de los sistemas existentes.

A modo de ejemplo, considérese la progresión del reconocimiento de voz. Durante las últimas décadas, el progreso ha sido terriblemente lento. La capacidad mecánica para convertir una palabra hablada en su equivalente en texto, un primer paso necesario, comenzó a aparecer en situaciones especializadas y maduró durante dos décadas a los gustos de Siri, et al. Como nota aparte, antes de que esto sucediera, esta tecnología se consideraba IA.

En la última década, las habilidades semánticas emergieron. Además de las mejoras algorítmicas, los corpus semánticos y otros estuvieron disponibles y están madurando rápidamente, así como proliferando a un número creciente de idiomas.

En los últimos años, ha surgido la capacidad de detectar con precisión el sentimiento y otros aspectos sutiles del habla. Hoy en día, el procesamiento del lenguaje natural (PNL) no es un aspecto poco común del conjunto de herramientas de un ingeniero de software (y para muchos, ya no se considera IA).

Tenga en cuenta el encogimiento de los marcos de tiempo y el aumento continuo de la barra para lo que se considera AI. Los análogos de esto están ocurriendo en todas las disciplinas. Esto está acelerando la tasa de puntos de convergencia, donde los avances en múltiples disciplinas se pueden combinar para crear nuevas posibilidades (por ejemplo, el plegamiento de proteínas).

Con el tiempo, los diversos aspectos subyacentes de lo que se cree que se requiere para un AGI aparecerán y madurarán dentro de sus respectivas áreas. Por ejemplo, la PNL será cada vez más generalizada y precisa, y pronto superará las capacidades humanas para detectar contenido semántico.

Expert Systems (ES) es un área donde los comportamientos de tipo humano están comenzando a emerger. La capacidad de algunos de estos sistemas para sacar conclusiones sofisticadas, que incluyen juicios morales integrados, está mejorando constantemente. La palabra operativa aquí está incrustada. El ES no está haciendo un juicio moral, la base de conocimiento o la base de reglas, incluye juicios morales.

Se producirán puntos de convergencia específicos de ES. Primero, las bases de conocimiento de ES relacionadas se fusionarán y luego los motores de inferencia relacionados se fusionarán. A lo largo del tiempo (recuérdese los marcos temporales reducidos para los avances en el reconocimiento de voz), los puntos de convergencia serán cada vez más generales. En particular, las tecnologías de generadores nacientes, software que puede crear o mejorar una base de reglas, florecerán.

A medida que este proceso se desarrolle, las conclusiones o comportamientos indeseables se diseñarán continuamente a niveles aceptables o se eliminarán por completo. Los ES se configurarán para ajustarse a las normas sociales, incluida la adición de comportamientos como la cortesía (es decir, mejorar la experiencia del usuario (UX)).

Pasaremos por un período en el que existen múltiples AGI cercanos (NAGI) que son generalmente inteligentes, pero tienen fallas importantes obvias en relación con la inteligencia humana. Estas fallas se diseñarán, primero alcanzarán un nivel aceptable para su uso en situaciones específicas, y luego se eliminarán. Por ejemplo, un NAGI que puede calmar a una persona que llama con agitación y luego hablar con él sobre una reclamación de seguro antes de pasar la persona que llama a un ajustador humano.

El miedo que se mueve alrededor de AGI ignora las realidades temporales. Tendremos una gran oportunidad de configurar la moralidad de los AGI mucho antes de que cualquier AGI madure más allá de nuestro control.

Si puedo, me gustaría cambiar uno de los términos de la pregunta para responder mejor a la pregunta central. Si tuviera que reemplazar el término sociopático por antisocial o antihumano, la respuesta es no.

La totalidad de la sociedad humana tiende a trabajar en conceptos de altruismo recíproco. No porque sea lo moral, sino porque es lo racional. Una sociedad que utiliza el altruismo recíproco en lugar de un modelo competitivo verdaderamente individualista es mejor tanto para la sociedad como para el individuo. Ese sistema de altruismo recíproco se “impone” con mecanismos psicológicos evolucionados como la empatía, pero la empatía no es absolutamente necesaria para tomar decisiones altruistas.

Por supuesto, hay anomalías en el sistema en términos de que hay personas que son sociopáticas o antisociales. Pero son solo anomalías. Menos del 10% de las personas son sociópatas.

Por lo tanto, una IA verdaderamente inteligente y racional encontraría altruismo en un modelo racional de interacción. Pero cualquier IA que sea menos “verdaderamente inteligente” o “defectuosa” puede no serlo.

Creo que se puede desarrollar una IA “amigable” y puede tener un beneficio muy positivo para la sociedad en general y para los individuos. En primer lugar, voy a restringir mi respuesta a un nivel humano de inteligencia general artificial (AGI) que comprende el lenguaje humano. Creo que este es un objetivo muy posible a corto plazo que está al alcance mediante el uso de metodologías de IA holísticas.

Un error común sobre el AGI a nivel humano es que un AGI sería automáticamente consciente. No creo que AGI implique conciencia. Déjame explicar por qué:

Para que un AGI entienda realmente el lenguaje, creo que necesita esencialmente tener una representación simbólica completa del mundo y de los humanos en ese mundo. Con esa información de fondo, todas las ambigüedades con las que se encuentra el software de “traducción” del idioma actual se resuelven fácilmente: ¿cuál de los dos posibles significados ambiguos de una oración, en su contexto actual, es más compatible con el modelo actual del mundo representado simbólicamente? El más compatible es el significado correcto de la oración.

Pero no creo que este AGI tenga que ser consciente. Para ser consciente, creo que además del modelo del mundo y de los humanos en ese mundo, necesita tener un modelo rico, detallado y completo de sí mismo en ese mundo. Esto debe ser un requisito para que el AGI tenga conciencia, ya que de lo contrario ni siquiera sabría de su propia existencia como una entidad.

Entonces, si podemos evitar que el AGI haga este tipo de modelo de sí mismo en el mundo, podemos prevenir la conciencia. Una forma de hacerlo sería restringir su entrada y salida. Si, por ejemplo, su entrada es el contenido de la web, más un micrófono donde un usuario puede ingresar preguntas y su salida es una pantalla donde se muestran los resultados de la búsqueda, entonces el AGI nunca podrá completar y Modelo detallado de sí mismo interactuando con el mundo y no será consciente. Un AGI no consciente es automáticamente un AGI seguro y, sin embargo, sería un AGI muy útil para tener cerca.

Los beneficios de un AGI que entiende correcta y humanamente el lenguaje.
sería tremendo Podría, por ejemplo, convertirse en un motor de búsqueda que vencería a Goggle de manera incondicional. Podría convertirse en un verdadero asistente personal infinitamente más útil que Siri. Podría ayudar en la investigación y tendría una memoria perfecta.

Pero no significaría un fin de trabajo más que la invención de la electricidad o la automatización terminaron de funcionar. Ni siquiera necesariamente daría lugar a robots domésticos, es más un problema de hardware / percepción / control que un problema de lenguaje.

Esta es una versión ligeramente editada de esto: la respuesta de Frank Heile a ¿Qué impacto tendría una IA en nuestra sociedad?