¿Qué tan peligroso será la IA en el futuro (si alguna vez)?

Veo algunos peligros: la automatización que desplaza a la economía humana, la inteligencia artificial en la gobernabilidad optimizada para obtener beneficios medibles aumenta el riesgo de externalidades como el medio ambiente y la inteligencia artificial como un proceso de escorrentía que podría no funcionar en el mejor interés de la humanidad:

1) La amenaza de la automatización no se ha materializado en la medida que esperábamos en transformaciones sociales pasadas similares. Con la industrialización, los luditas se dedicaron a destruir máquinas, pero de alguna manera el empleo fluctuó adaptándose a este cambio a partir de entonces. El mercado parece haber mantenido en general a las personas ocupadas a pesar de las oleadas tras oleadas de automatización industrial.
Pero hay una pregunta seria acerca de cómo una rápida introducción de la automatización de los procesos puede llevar a una escalada de los costos para volver a capacitar a las personas de manera tal que usted cree serias fuerzas desestabilizadoras. Y para controlarlos, es posible que deba tener más vigilancia, lo que conduce a una especie de estado policial.
Si bien esta amenaza debe tomarse en serio, parece ser algo que los gobiernos pueden resolver simplemente imponiendo tiempos de trabajo reducidos y estableciendo inversiones monetarias para contrarrestar la automatización entre otras medidas. Podría ser una fuerza desestabilizadora grave, pero sabemos lo que deberíamos hacer para restaurarlo, de manera similar al trabajo que se requirió durante la Gran Depresión en los Estados Unidos.

2) La inteligencia artificial en la gobernanza, las ciudades inteligentes, etc. podrían generar una amenaza similar a la que sufrimos en nuestra sociedad actual de base tecnológica. El problema es que los sistemas que trabajan para optimizar son mejores para manejar cosas que puedes medir que los intangibles. Entonces, si bien podemos hablar de la acidificación de los océanos o partes por millón de volumen de CO2 como amenazas a nuestra civilización, podría existir una amenaza general creciente causada solo por la contaminación general. Basura: material hecho de diferentes materiales que no necesariamente aparece en los cálculos de un sistema porque es solo un desperdicio. Pero la contaminación de los océanos, los ríos, las capas freáticas, el aire, el suelo, podría acumularse de manera insidiosa si la IA no lo sabe.
Para resolver este tipo de escenario, deberíamos limitar de alguna manera la aplicación múltiple de los mismos sistemas inteligentes. Deberíamos exigir un tipo de variedad de soluciones para tener una mejor oportunidad de observar aquellas que son sólidas y no establecer la base para una futura crisis.

3) Una IA como proceso de escorrentía podría ocurrir en muchas áreas. Imagínese, por ejemplo, si hubiera un super-AI en Finanzas que pudiera generarle enormes rendimientos en sus inversiones, pero eso requería que duplicara su capacidad cada año y medio (no muy diferente de lo que se llama la Ley de Moore). Durante algunos años, continuaría alimentando este recurso computacional de inteligencia artificial e incluso durante las crisis, de alguna manera lo habría convencido de que el problema es que carece de recursos para hacer su trabajo. En algún punto, uno podría imaginar que esta IA podría simplemente conspirar para crear la ilusión de que el valor se crea como un medio para que gane poder. La humanidad se vería impulsada a una carrera para identificar las fuentes de energía para apoyar a esta IA, trabajar duro en este Goose of the Golden Eggs sin darse cuenta de la amenaza potencial para la existencia humana y el intercambio de poder.
Este es solo un escenario, pero es una amenaza realista de que deberíamos trabajar más para comprender mejor. Cómo asegurarse de que una IA sea intrínsecamente amigable para los humanos y se mantendrá así.

Mi creencia es que los peligros que ocurren casi serán invisibles para nosotros a medida que avanzamos a través de los cambios. Ya estamos viendo accidentes con robots que matan a las personas equivocadas, vemos colapsos financieros donde los sistemas parecen amplificar los problemas, etc., solo algunos de los muchos ejemplos de fallas de AI que podemos encontrar. Puede que no sea un gran daño, sino muchos pequeños peligros que nos llevan a crear IA más inteligentes que pueden manejar los problemas de la forma que queremos. Y podría ser mejor que tengamos muchos problemas más pequeños en lugar de un problema enorme.

¿Quizás AGI es el Gran Filtro que mata a las civilizaciones como se afirma en la Paradoja de Fermi?

Pero realmente, no creo que haya ningún peligro con respecto a la IA. Las economías, los gobiernos y las tecnologías se adaptarán o se redefinirán según sea necesario. No debemos cometer el error de suponer que los procesos existentes continuarán o tendrán que continuar en un futuro con tecnologías altamente autónomas e inteligentes.

Además, a través de tecnologías personalizadas e incluso implantes, los IAG podrían ofrecer mejoras cognitivas, lo que nos permite “mantenernos” con cualquier cambio acelerado que puedan ofrecer.

Esencialmente, por cada peligro que podamos conjeturar, existe la misma oportunidad de usar el mismo AGI para abordar esos peligros / problemas.

Olvidando las consecuencias violentas, una IA bien desarrollada significa que casi todos los trabajos que hacemos, se realizarán con una computadora. Con seres humanos aquí y allá, por el bien de los nombres y para evitar que las cosas se vuelvan espeluznantes. Seremos reemplazados. Ellos tomarán nuestros trabajos.

¿Qué harás para ganar dinero?