La singularidad no viene. Aún no se ha visto, ya que se prevé que se produzca alrededor de 2040, según algunos. Como recordatorio, se trata de la idea de que, cuando por fin podamos compilar una inteligencia artificial más inteligente que la humana, esta IA, a su vez, logrará mejorar su propio diseño, y así sucesivamente, lo que dará como resultado un circuito fuera de control. de “explosión de inteligencia” con consecuencias tecnológicas impredecibles.
Hay un seguimiento en la base de Singularity de Ray Kurzweil, Vernor Vinge y otros. De hecho, Quora en realidad tiene un número saludable de seguidores. Algunos puntos clave sobre por qué la Singularidad no viene:
-La ciencia se vuelve exponencialmente más difícil: los fundadores y los que llegan por primera vez cosechan toda la fruta de alto impacto y, por lo tanto, después de cada descubrimiento importante, la cantidad de esfuerzo para alcanzar la siguiente se multiplica por un factor determinado. Para cuando se una a un campo en el que 10,000 personas ya hayan pasado su carrera, su expectativa de impacto será baja y el título de su tesis será muy oscuro.
-La cantidad total de inteligencia y trabajo duro disponible es un millón de veces lo que puede proporcionar: usted es solo una gota de agua en el océano.
- ¿Cuáles son los buenos métodos para ayudar a las personas a imaginar el futuro?
- Si fueras a ser un ícono en la historia, ¿qué tipo de monumento te gustaría haber erigido en tu honor? ¿Prefieres una estatua, una biblioteca, una escuela o algo más?
- ¿Los argumentos alternativos de la historia (“qué pasa si”) asumen que el futuro está predeterminado?
- ¿El aumento del salario mínimo elimina empleos al aumentar el nivel de desempleo tecnológico?
- Nací en 1989. ¿Por qué será recordada mi generación?
-Una IA hipotética que se mejora a sí misma vería que su propio progreso de investigación e inteligencia se estancarían pronto, en lugar de explotar.
Francois Chollet escribe una explicación larga y detallada:
http://cognitivesocialweb.com/ho…