Una singularidad en general se refiere a un punto en el que una función toma un valor infinito. Cuando se refiere a un agujero negro, se refiere a un punto donde la materia se ha vuelto infinitamente densa. Con respecto a la tecnología, se refiere al punto en que la tecnología se hace infinitamente avanzada.
Como afirma Sean en su respuesta, este punto estará marcado por la transición de los humanos que crean máquinas cada vez más inteligentes a máquinas que crean máquinas cada vez más inteligentes. Este es un momento catastrófico porque, con la forma en que la tecnología avanza de manera exponencial, tan pronto como una computadora tiene suficiente inteligencia para aprender y mejorar en sí misma, en menos de 2 horas alcanzará la súper inteligencia y la tasa de crecimiento será completamente vertical. La tabla marca el avance infinito y la inteligencia, y entonces nadie sabe realmente lo que sucederá.
El consenso general entre los expertos es que lo más probable es que las máquinas recientemente habilitadas opten por eliminar a la raza humana, en cuyo caso tendríamos un 0% de probabilidad de supervivencia.
¿En cuanto a su escenario de 2 máquinas superinteligentes compitiendo para ser superior …? Soy escéptico ante la viabilidad de esa situación. Tan pronto como una máquina alcance la inteligencia general, en cuestión de horas será básicamente omnipotente y omnisciente y nada podrá esperar competir con ella. Incluso si 2 máquinas alcanzaran la inteligencia general al mismo tiempo, me imagino que probablemente se “fusionarían” en una (aunque probablemente no por consenso).
¿Por qué se denomina la “singularidad” cuando podría haber 2 o más inteligencias de máquinas compitiendo para ser un ser superior?
Related Content
¿Qué querían decir Platón y otros por “la vida es redonda”?
¿Cuáles son algunas de las cosas que hace la gente que no tienen ninguna razón o lógica?
¿Cómo probar que el planeta Tierra tiene realmente la forma de un cuadrado?
Es la idea cristiana puritana del “Rapto”, en disfraces. Es una basura.
Nadie sería lo suficientemente estúpido como para crear computadoras que pudieran decidir por sí mismas pero que no tuvieran ética ni sentimientos.
Todas las computadoras con las que trataría en la vida normal son libros de reglas automatizados. Debería llamarse “oficio automatizado” en lugar de “inteligencia artificial”.
Algunos sistemas experimentales muestran destellos de decisiones inteligentes, pero no mucho. Hace poco pregunté: ¿Hay alguna entidad de Inteligencia Artificial que sea más inteligente que un perro? La única respuesta que obtuve hasta ahora fue condicional.
More Interesting
¿Por qué es tan importante el logro personal en un mundo interconectado donde nada se hace solo?
Ontología (filosofía): ¿Cómo se define “mecánica” en el contexto del material?
¿Cómo construyo fuerza de carácter / valor de convicción?
¿Por qué las personas buenas hacen cosas buenas?
¿Qué películas o series de televisión representan mejor la filosofía de Friedrich Nietzsche?
¿Cuál es la mejor manera de cambiar el mundo si solo tuvieras $ 100 para hacerlo?
¿La filosofía no es para el profano? Si es así, ¿por qué es tan difícil que sea simple?
Si el Universo es lógicamente consistente, ¿significa que está incompleto?
¿Qué opiniones de la justicia Scalia son inconsistentes con una filosofía originalista?