Una breve sinopsis de cómo la Inteligencia General Artificial (AGI) surgirá de la marcha de la Inteligencia Artificial (IA) puede arrojar algo de luz sobre este tema general. El camino hacia el AGI será una progresión, no un salto cuántico (sin juego de palabras).
Como se señaló, actualmente tenemos varios algoritmos / sistemas / herramientas / dispositivos que exhiben aspectos de inteligencia, e incluso algunos comportamientos sociales emergentes. En un número creciente de casos, los sistemas especializados superan con creces las capacidades humanas. Esto proliferará a un ritmo acelerado, al igual que las capacidades de los sistemas existentes.
A modo de ejemplo, considérese la progresión del reconocimiento de voz. Durante las últimas décadas, el progreso ha sido terriblemente lento. La capacidad mecánica para convertir una palabra hablada en su equivalente en texto, un primer paso necesario, comenzó a aparecer en situaciones especializadas y maduró durante dos décadas a los gustos de Siri, et al. Como nota aparte, antes de que esto sucediera, esta tecnología se consideraba IA.
En la última década, las habilidades semánticas emergieron. Además de las mejoras algorítmicas, los corpus semánticos y otros estuvieron disponibles y están madurando rápidamente, así como proliferando a un número creciente de idiomas.
- ¿Se pueden anticipar las crisis financieras? ¿Hasta qué punto es la ciencia en este campo?
- ¿Cuáles son algunas de las medidas que debe tomar Air India para obtener rentabilidad en un futuro próximo?
- ¿Es probable que Audible se convierta alguna vez como Netflix para audiolibros?
- ¿Se volverá ilegal emplear a alguien en el futuro?
- ¿Cómo sería la electrónica de consumo si no tuviéramos límites?
En los últimos años, ha surgido la capacidad de detectar con precisión el sentimiento y otros aspectos sutiles del habla. Hoy en día, el procesamiento del lenguaje natural (PNL) no es un aspecto poco común del conjunto de herramientas de un ingeniero de software (y para muchos, ya no se considera IA).
Tenga en cuenta el encogimiento de los marcos de tiempo y el aumento continuo de la barra para lo que se considera AI. Los análogos de esto están ocurriendo en todas las disciplinas. Esto está acelerando la tasa de puntos de convergencia, donde los avances en múltiples disciplinas se pueden combinar para crear nuevas posibilidades (por ejemplo, el plegamiento de proteínas).
Con el tiempo, los diversos aspectos subyacentes de lo que se cree que se requiere para un AGI aparecerán y madurarán dentro de sus respectivas áreas. Por ejemplo, la PNL será cada vez más generalizada y precisa, y pronto superará las capacidades humanas para detectar contenido semántico.
Expert Systems (ES) es un área donde los comportamientos de tipo humano están comenzando a emerger. La capacidad de algunos de estos sistemas para sacar conclusiones sofisticadas, que incluyen juicios morales integrados, está mejorando constantemente. La palabra operativa aquí está incrustada. El ES no está haciendo un juicio moral, la base de conocimiento o la base de reglas, incluye juicios morales.
Se producirán puntos de convergencia específicos de ES. Primero, las bases de conocimiento de ES relacionadas se fusionarán y luego los motores de inferencia relacionados se fusionarán. A lo largo del tiempo (recuérdese los marcos temporales reducidos para los avances en el reconocimiento de voz), los puntos de convergencia serán cada vez más generales. En particular, las tecnologías de generadores nacientes, software que puede crear o mejorar una base de reglas, florecerán.
A medida que este proceso se desarrolle, las conclusiones o comportamientos indeseables se diseñarán continuamente a niveles aceptables o se eliminarán por completo. Los ES se configurarán para ajustarse a las normas sociales, incluida la adición de comportamientos como la cortesía (es decir, mejorar la experiencia del usuario (UX)).
Pasaremos por un período en el que existen múltiples AGI cercanos (NAGI) que son generalmente inteligentes, pero tienen fallas importantes obvias en relación con la inteligencia humana. Estas fallas se diseñarán, primero alcanzarán un nivel aceptable para su uso en situaciones específicas, y luego se eliminarán. Por ejemplo, un NAGI que puede calmar a una persona que llama con agitación y luego hablar con él sobre una reclamación de seguro antes de pasar la persona que llama a un ajustador humano.
El miedo que se mueve alrededor de AGI ignora las realidades temporales. Tendremos una gran oportunidad de configurar la moralidad de los AGI mucho antes de que cualquier AGI madure más allá de nuestro control.