¿Kevin Kelly tiene razón en que el momento de Kurzweil para The Singularity es una negación de la muerte?

Sospecho que Kelly es parcialmente correcta, y que Kurzweil se encuentra en el extremo “optimista” de los pronosticadores en lo que se refiere al momento probable de The Singularity.

Sin embargo, vale la pena señalar que el propio Kurzweil considera “La singularidad” como algo que NO es probable que suceda en su vida a menos que tome lo que se ha descrito como medidas “extremas”, en términos de la cantidad de tiempo que pasa con los médicos, y La cantidad de pastillas que toma cada día.

Incluso esas medidas no son cosas que él considera que lo llevan a The Singularity, en lugar de eso (él espera) le compre los 10-20 años que necesita hasta que BioTech avance a la etapa de que ESO le comprará otros 20-30 años …

… es ENTONCES que ocurrirá la Singularidad, como la mayoría de la gente entiende el término.

Sin embargo, mucho depende de lo que quieras decir con ‘The Singularity’: si te refieres a que la combinación de inteligencia humana, ayudada por herramientas habilitadoras dramáticamente más baratas, permitirá a las personas encontrar cosas ‘inimaginadas’ hace una o dos décadas. – entonces podría decirse que YA HA SUCEDIDO. (Considere el comunicador Star Trek, frente al iPhone / iPad, ¡los dispositivos Apple actuales son, sin rodeos, mucho mejores!)

Por supuesto, si te refieres a que “la inteligencia de la máquina supera a la inteligencia humana, al menos en términos de la capacidad de diseñar una mejor inteligencia de la máquina”, entonces estamos muy lejos.

Si define la Singularidad no solo requiere eso, sino también interfaces funcionales máquina-cerebro capaces de procesar datos de entrada / salida (desde la perspectiva del cerebro) un orden o magnitud más rápido que la combinación actual de ojos / oídos / dedos / otros sentidos puede hacer Y requerir nanotecnología, entonces, sí, Kurzweil podría tener esperanza …

Pero, escribiendo en 2011, a los 40 años, estoy convencido, al menos, por el argumento de “Trascender”.

Todos los genios tienen que creer que su principal objetivo en la vida se puede alcanzar razonablemente en su vida para mantenerse motivados y avanzar de manera constante hacia ese objetivo. Una gran parte de lograr la Singularidad proviene de educar al público y popularizar los conceptos para vender su capacidad de logro y lograr que el público apoye proyectos de financiamiento que acelerarán las soluciones tecnológicas a los principales problemas mundiales. A medida que se resuelve cada problema, más productividad queda disponible para resolver el siguiente problema, y ​​así sucesivamente. Al educar a la generación más joven en cuanto a los beneficios potenciales de la Singularidad, esperamos que más de ellos ingresen en disciplinas científicas y ayuden a acelerar el trabajo en muchos de los problemas difíciles que son críticos para que logremos una Singularidad.

Si el ataque a la teoría de la Singularidad es un ataque psicológico al propio Kurzweil, creo que tiene mucha validez. (Estoy utilizando el término ataque aquí no como agresividad, sino como un ataque lógico a una teoría).

Sin embargo, eso no refuta la teoría de la Singularidad … Kurzweil presenta muy buenos argumentos para la inevitabilidad de un evento de Singularidad y todavía tengo que ver los contra-argumentos válidos. Incluso si él está fuera por 10 o 20 años, ¿y qué?

El trabajo de Joel Garreau – Radical Evolution ofrece una visión más realista de los departamentos tecnológicos. Sí, las tecnologías continuarán desarrollándose, pero las instituciones humanas diseñadas para hacer uso de ellas no cambiarán al mismo ritmo. Lo que esto significa es que, a pesar de tener inteligencias superiores a las del nivel humano, la humanidad en su conjunto, a pesar del aumento y todo eso continuará enredado, como en el escenario de Prevail de Garreau del libro.

Incluso las IA humanas son todavía herramientas.