A mi modo de ver, hay tres escenarios del “peor caso” que son plausibles.
Lo siguiente podría ocurrir, ya sea de forma maliciosa o accidental:
1: La nanotecnología autorreplicante podría liberarse en la naturaleza antes de que la nanotecnología destinada a protegerse contra ella sea.
2: Se podría crear una IA fuerte, con suficientes enlaces en red para influir en el mundo físico, y resulta hostil para la humanidad.
- ¿Cuáles son los mayores desafíos técnicos para las redes inalámbricas en los próximos 10 a 15 años?
- ¿Cuándo, si alguna vez, Facebook morirá para siempre?
- ¿Qué nuevos materiales emergentes revolucionarán las industrias como lo hicieron los plásticos y el cemento?
- ¿Qué tan probable crees que sea una guerra a gran escala en el futuro cercano?
- ¿Qué dice Edmund Burke sobre las tradiciones que han llegado a nosotros después de haber sobrevivido el escrutinio y el ensayo y error?
3: Las fuerzas políticas reaccionarias podrían ralentizar el desarrollo de la Singularidad en naciones con una fuerte supervisión, llevando ese progreso a la clandestinidad o al reino de los regímenes totalitarios que lo utilizan para obtener el dominio mundial.
Por supuesto, más especulativamente, nos metemos en cosas como “los extraterrestres que nos observan deciden cauterizar la Tierra antes de que nos pongamos demasiado avanzados”, y “el simulador en el que todos estamos de agentes se apaga porque el simulador del jugador recibe el mensaje ‘juego terminado – usted ganó’ “🙂