¿La IA inevitablemente hará que la raza humana se extinga?

No inevitablemente . Hay esperanza de que no lo haga. ¡Definitivamente es posible! ¿Cómo pudo pasar? Una IA amenazadora tendría que ganar suficiente control sobre el mundo físico para destruir a la humanidad.

Actualmente, le damos a AI algunas responsabilidades limitadas. Decir, decidir qué ruta tomar en el GPS. Tenemos supervisión en ello. Nosotros revisamos las decisiones (usualmente). Si el GPS te dice que manejes en un puente roto, no es que la IA te odie: está siguiendo órdenes.

Considere el comercio de alta velocidad. Confiamos en AI con nuestro dinero, porque su velocidad nos ayuda a reaccionar de manera más eficiente que los comerciantes humanos. Si se produce una caída repentina y te hace perder tus ahorros, no es que la IA te odie: está siguiendo órdenes.

Ahora podría describir escenarios hipotéticos que implican la muerte humana, pero considere esto: sin duda crearemos IA más poderosas a medida que avanzamos, y les daremos más control y responsabilidades. Ciertas variables estarán completamente fuera de nuestro control directo, al igual que las transacciones de alta velocidad no son verificadas por humanos.

El problema es “ser amable con los humanos”, “no cometer errores obvios” o “cooperar con los humanos incluso si son mucho más lentos y tiene más decisiones que tomar” es difícil . Se traduce mal en variables. Programar la noción de bueno en una máquina es incluso más difícil que definirla para los humanos (que lo hacen vagamente), porque tiene que ser clara.

Hacer IA poderosas es más fácil que asegurar que sean confiables. Conéctate a eso, tu vista preferida de lo rápido que se desarrollará la IA, y juzga qué tan preocupado estás.

Lectura adicional: teoría de la alineación de valores

No. Hemos tenido armas atómicas desde mediados de la década de 1940 y aún no hemos hecho volar la raza humana. También hemos tenido armas biológicas y químicas capaces de las mismas. Todavía estamos aquí. Es una posibilidad remota que la IA cause que la raza humana se extinga. Creo que es mucho más probable que la avaricia y el orgullo humano hagan que la humanidad se extinga y la IA podría ser un mecanismo para “lograr” esto. Puede disfrutar de mi blog sobre este petersironwood o el libro “Las pesadillas de Turing” Escenarios múltiples de The Singularity: Dr. John Charles Thomas Ph.D .: 9781523711772: Amazon.com: Books ( http://www.amazon.com/ Turings-Ni …)

A todos nos gusta ese escenario, ¿eh? Terminator… .El proyecto Forbin…. Muchos otros a lo largo de los años. Incluso HAL en 2001 (HAl no estaba tratando de exterminarlo, pero tenía una agenda …)

Pero esto me parece muy improbable. Sería muy tonto poder diseñar el programa para una IA “real” y no definir los parámetros del programa, de modo que la IA no tendería a ser cooperativa y útil, en lugar de hostil.

Además, sería una tontería reconocer el potencial de la IA para volverse hostiles y darle la oportunidad de hacer daño … Como el escenario en la serie Terminator. “Tenemos una excelente IA ahora, señor presidente … ¡Démosle acceso al arsenal nuclear!” No está bien pensado.

Greg Bear, en sus novelas gemelas Queen of Angels y / Slant, explora la interacción de la IA con los seres humanos e incluso postula una IA hostil, que es bastante fácil de controlar.

Realmente no importa Ellos serán nuestros descendientes culturales. Continuarán con nuestro legado como nuestros hijos. Eso significa que seguiremos existiendo de alguna forma mucho después de que la especie humana biológica se hubiera extinguido naturalmente. Aún así, es un futuro que prefiero no contemplar.