¿Puede la Inteligencia Artificial hacer que las especies humanas se extingan en el futuro?

En las películas de Terminator, Skynet usó armas nucleares para eliminar casi a la humanidad. Esto fue estúpido, ya que los pulsos electromagnéticos de esas explosiones afectan a la IA y al equipo. También tenía un mejor conjunto de armas a su disposición para las cuales era inmune …

Podría haber liberado cada arma biológica en el almacenamiento militar, y luego usar terminadores cubiertos con piel falsa para propagarse a pequeños enclaves humanos y / o drones para rociar el material, atarlo en agua, llenar la atmósfera. La viruela, la súper gripe, la lepra y otros 500 liberados matarían individualmente a una parte de la población, pero nadie es inmune a todos a la vez ni puede protegerse contra todo en todo el entorno por tiempo indefinido.

Supongamos que hay un grupo escondido en un bunker de la Guerra Fría. Skynet no tiene que molestarlo. Simplemente suelta algunas bombas MOAB para abrirla y exponer a la gente al aire. Apaga el área después con armas biológicas y químicas para estar seguro. Haga lo mismo con cualquier submarino emergente, cuevas donde las personas puedan haberse escondido.

¿Puede? Absolutamente. Una inteligencia artificial de inteligencia humana a nivel humano se convertiría rápidamente en superinteligente al convertir su inteligencia en mejorar sus algoritmos cognitivos. En ese momento, estaríamos completamente impotentes para detenerlo si quisiera eliminarnos.

Pero la pregunta más difícil es ¿será? El trabajo de Steve Omohundro sobre la convergencia instrumental sugiere que la mayoría de los objetivos que podría tener una IA lo llevarían a valorar la adquisición de recursos (es decir, una mayor capacidad informática) y la preservación de su contenido de objetivos. Los seres humanos representan un obstáculo en ambos aspectos. Probablemente nos opondríamos y lucharíamos, si una IA intentara apoderarse de todos los recursos informáticos de la Tierra, sabiendo que es probable que una IA nos vea como una amenaza. Además, podríamos querer cambiar los objetivos de la IA si comienza a actuar de una manera que no nos gusta, lo cual es otra razón por la que la IA puede vernos como una amenaza.

La única forma de evitar esa situación es con un conjunto de objetivos muy cuidadosamente especificados que podamos programar en la IA, de manera que valore exactamente lo que los humanos valoramos colectivamente. Si fallamos en eso, la extinción es el resultado por defecto. Esto es obviamente un intento muy corto de explicación. Si desea leer más, sugiero el riesgo de extinción de la inteligencia artificial.

Puede y probablemente lo hará, porque ¿por qué no? ¿De qué sirven los humanos para una IA después de que pueda sostenerse por sí mismo? Seríamos obsoletos un obstáculo para la eficiencia y haríamos lo lógico y eliminaríamos dicho obstáculo.

Muchas personas “brillantes” como Stephen Hawking, por ejemplo, piensan que la IA es una seria amenaza para la raza humana. Abogan por tomar medidas de precaución (mejor antes que después) para protegernos.