No inevitablemente . Hay esperanza de que no lo haga. ¡Definitivamente es posible! ¿Cómo pudo pasar? Una IA amenazadora tendría que ganar suficiente control sobre el mundo físico para destruir a la humanidad.
Actualmente, le damos a AI algunas responsabilidades limitadas. Decir, decidir qué ruta tomar en el GPS. Tenemos supervisión en ello. Nosotros revisamos las decisiones (usualmente). Si el GPS te dice que manejes en un puente roto, no es que la IA te odie: está siguiendo órdenes.
Considere el comercio de alta velocidad. Confiamos en AI con nuestro dinero, porque su velocidad nos ayuda a reaccionar de manera más eficiente que los comerciantes humanos. Si se produce una caída repentina y te hace perder tus ahorros, no es que la IA te odie: está siguiendo órdenes.
Ahora podría describir escenarios hipotéticos que implican la muerte humana, pero considere esto: sin duda crearemos IA más poderosas a medida que avanzamos, y les daremos más control y responsabilidades. Ciertas variables estarán completamente fuera de nuestro control directo, al igual que las transacciones de alta velocidad no son verificadas por humanos.
- Cómo hacer frente al hecho de que nunca veré el futuro lejano
- ¿Qué parte de las finanzas tendrá la mayor cantidad de empleos en más de 20 años (por ejemplo, contabilidad, consultoría, banca de inversión, etc.)?
- ¿Qué tecnologías podemos esperar ver realista a principios del siglo 22?
- ¿Qué tipo de teléfonos inteligentes usará la gente en 3008?
- ¿Qué experiencias puede compartir trabajando en el nivel superior de una empresa?
El problema es “ser amable con los humanos”, “no cometer errores obvios” o “cooperar con los humanos incluso si son mucho más lentos y tiene más decisiones que tomar” es difícil . Se traduce mal en variables. Programar la noción de bueno en una máquina es incluso más difícil que definirla para los humanos (que lo hacen vagamente), porque tiene que ser clara.
Hacer IA poderosas es más fácil que asegurar que sean confiables. Conéctate a eso, tu vista preferida de lo rápido que se desarrollará la IA, y juzga qué tan preocupado estás.
Lectura adicional: teoría de la alineación de valores