¿Por qué la singularidad no va a suceder?

Un ensayo fascinante y controvertido sobre este tema es “La mitad de un manifiesto” de Jaron Lanier. En él, Lanier describe un sistema de creencias llamado “totalismo cibernético” que quizás refleja lo que muchos singularitarios creen. El ensayo, y muchas respuestas (en su mayoría positivas) a él, y las respuestas de Lanier a esas respuestas, se pueden encontrar aquí (desplácese hacia abajo): UN MITAD A MANIFIESTO

Le sugiero que lea todo el asunto; Es corto y claramente escrito. Como beneficio adicional, también puedes ver por qué algunos otros pensadores (por ejemplo, Daniel Dennett) también rechazan las visiones escatológicas de la Singularidad. También hay muchas otras respuestas en otras partes de Internet.

Su argumento, en breve, es que muchas predicciones singulares se basan en la visión de que el universo no es más que patrones cibernéticos impulsados ​​por fuerzas darwinianas. Lanier considera que la ambición totalizadora de estas ideas es algo tonta, diciendo que funcionan bien como modelos en casos particulares, pero a largo plazo no está claro que les vaya mejor que a las ambiciones totalizadoras de Marx o Freud. Esa es realmente una sola faceta de su crítica, que, debo señalar, no está dirigida a probar que la Singularidad no sucederá, sino más bien a promover una especie de escepticismo saludable al respecto, al que culpa a muchos totalistas cibernéticos por no tener.

El ensayo serpentea a través de una serie de temas, tales como la naturaleza de la evolución, la cultura académica, la fragilidad del software, la psicología evolutiva, la economía, los cambios en los paradigmas de la IA y un poco de psicología del pop desenfadada. El ensayo también incluye muchas gemas como:

Hemos hecho que la prueba de Turing sea aprobada. No existe una diferencia epistemológica entre la inteligencia artificial y la aceptación de programas informáticos mal diseñados.

Es perfectamente cierto que se puede pensar en una persona como la forma en que un gen se propaga a sí mismo, según Dawkins, o como un órgano sexual utilizado por las máquinas para hacer más máquinas, según McLuhan (como se cita en el encabezado de cada número de Wired Revista), y de hecho, incluso puede ser hermoso pensar desde estas perspectivas de vez en cuando. Sin embargo, como señaló el antropólogo Steve Barnett, sería igualmente razonable afirmar que “una persona es la manera de hacer más mierda”.

En todo caso, existe una ley de Moore inversa observable en el software: a medida que los procesadores se vuelven más rápidos y la memoria se vuelve más barata, el software se vuelve más lento y más abultado, agotando todos los recursos disponibles.

No existe un cerebro electrónico monolítico gigante creado con conocimiento biológico. En cambio, hay un desorden fracturado de datos y feudos de modelado. El medio para la transferencia de datos biológicos continuará siendo los investigadores humanos individuales privados de sueño hasta que haya un tiempo fabuloso en el futuro cuando sepamos cómo crear un software que sea bueno para salvar burbujas por sí solo.

El mayor crimen del marxismo no era simplemente que gran parte de lo que decía era falso, sino que afirmaba ser el único y completamente completo camino para comprender la vida y la realidad. La escatología cibernética comparte con algunas de las peores ideologías de la historia una doctrina de la predestinación histórica. No hay nada más gris, estúpido o triste que una vida vivida dentro de los límites de una teoría. Esperemos que los totalistas cibernéticos aprendan la humildad antes de que llegue su día bajo el sol.

De ninguna manera afirmaría que todo lo que Lanier dice es verdad, pero vale la pena leerlo y considerarlo seriamente.

Hay una serie de argumentos filosóficos y técnicos sobre la posibilidad de la verdadera inteligencia artificial en general, o sobre la viabilidad de paradigmas particulares en el diseño de la IA. No voy a entrar en eso, porque aunque sean importantes por la posibilidad de una Singularidad, los encuentro un poco aburridos. John Searle tiene algunos argumentos notables de este tipo (incluido su famoso “Chinese Room”), pero ciertamente no es el único, ni creo que su argumento sea el más importante a considerar.

Hay muchas cosas que podrían evitar casi cualquier versión de la singularidad. Algunos son más o menos probables que otros.

  • La humanidad se extingue antes de que se realicen los avances tecnológicos necesarios (por ejemplo, a través de la guerra nuclear). Ver Riesgo existencial.
  • Los problemas tecnológicos que deberían resolverse son demasiado difíciles de resolver para los humanos antes de que explote el Sol (incluida la mejora de la inteligencia y cualquier cosa que necesitemos para colonizar un planeta, que de otro modo podría evitar esto).
  • La investigación necesaria está prohibida por razones de seguridad y la investigación ilegal se evita con éxito.
  • Existe una alianza intergaláctica de alienígenas que consideran que su trabajo es prevenir las singularidades por razones de seguridad, y sabotearán la investigación relevante o nos matarán antes de que lleguemos allí.

Me pregunto todos los días por qué tan pocas personas han notado esto .

¡La ley de Moore ya se está desacelerando!

Primero, alrededor de 2006, comenzamos a ver chips de CPU de 2 núcleos, 4 núcleos y 2 ^ n-core. ¿Por qué? Debido a que la miniaturización aún podría comprimir más transistores en el mismo espacio, pero la cantidad mínima de corriente que debe fluir a través de estos transistores estaba produciendo suficiente calor para derretir las vías. Entonces, cuando podamos poner dos CPU en el mismo chip, pero si hablan demasiado o demasiado rápido, ¡ boom ! ¡Se derriten !

A continuación, en 2013, apareció el siguiente titular en The Economist:
No Moore?
En él había una tabla de lo que costaba fabricar estos transistores cada vez más pequeños, que ya no nos iban a dar un procesamiento más rápido, solo más de ellos.


Sí, cada generación pasada de chips requirió inversiones masivas en propiedad intelectual y equipos de fabricación. Pero en aquel entonces , los costos marginales eran minúsculos, y el crecimiento del mercado era tan grande, que los costos promedio continuaban disminuyendo con la miniaturización. ¿Por qué?

Supongamos que cuesta 10 veces más dinero construir una fab que duplique la potencia informática en la misma oblea de silicio. Si vendió 20 veces más de estos chips más rápidos para las computadoras portátiles chinas y los teléfonos celulares de Ghana, los costos fijos amortizados por chip bajaron. Los costos de envío, costos de materiales, costos de electricidad fueron prácticamente sin cambios. Resultado: potencia de computación más barata.

Cualquier cosa que no pueda continuar por siempre no continuará por siempre. Justo como pasamos de Einstein E-mc ^ 2 a Hiroshima en 40 años, pero aquí estamos 109 años después y todavía no tenemos un poder de fusión de costo neto positivo. O por qué no tenemos coches voladores. El crecimiento en nuestra capacidad de usar la energía se estabilizó. Ahora, el crecimiento en el poder de procesamiento de la información está mostrando los primeros signos matemáticos de acercarse a una meseta. El progreso tecnológico sigue una secuencia de intersección de las curvas S de la tecnología.


Ahora, estoy seguro de que hay muchas variables que no conozco, como

  1. el punto exacto sobre la nueva meseta donde se encuentra la cognición humana, y
  2. el punto exacto por encima de aquel donde se encuentra la capacidad de diseñar una mayor inteligencia, y
  3. si nuevas curvas s debido a la computación cuántica podrían aparecer en el futuro, y
  4. si el tipo de intelecto que puede diseñar el software es diferente del tipo de intelecto que puede diseñar el hardware para la singularidad, y
  5. si los límites de los que ni siquiera somos conscientes se manifestarán como curvas s en el crecimiento de cualquier autómata supuestamente auto-mejorado.

Pero, solo piense en la realidad de las curvas S en cualquier lugar que tengamos datos sobre cualquier tipo de progreso en la historia. Considere la falta de precedentes para cualquier crecimiento geométrico no restringido fuera del ámbito de la especulación matemática.
Es divertido desear que “se duplique cada dos años” para siempre, e imaginar los corolarios de ese deseo.

Pero los adultos ya no creen en Papá Noel, ¿verdad?

Te daré una discusión de por qué no lo harás, fíjate, soy agnóstico sobre si lo hará o no.

La idea básica de la singularidad es que si podemos construir algo un poco más inteligente que nosotros, puede construir algo incluso más inteligente que él mismo. El proceso se repite, y debido a la velocidad extrema del medio digital en comparación con nuestro medio biológico lento, un orden de magnitud mayor al que se alcanza la inteligencia humana es un período de tiempo muy corto.

De acuerdo, ahora permítanme reformular la pregunta una vez, y luego modificarla una vez más:

Rephrase: ¿Los humanos definitivamente harán que la singularidad suceda?

Está bien, ahora listo?

Tweak: ¿Los perros definitivamente harán que la singularidad suceda?

Supongo que todos estamos de acuerdo en que la respuesta a este último es “no”, y me imagino que la mayoría no requerirá que entre en detalles allí. La idea básica entonces es que una especie tiene que estar en un nivel mental de al menos X para poder tener incluso una oración en las grandes ligas.

No sé si los humanos son realmente capaces de jugar en las grandes ligas.

Cuando estudias el neocórtex, la parte del cerebro que domina los cerebros humanos, te sorprende lo opaco que es invertir ingeniería. Es como comenzar con el 1 y el 0 del código de la computadora y tratar de averiguar qué hace. Tienes la sensación de que no solo eres personalmente nuestro fuera de tu liga, sino que también lo es todo el mundo.

Ahora, presta mucha atención a mis palabras de arriba. No estoy diciendo que la singularidad no pueda suceder como resultado del ser humano (aunque me temo que los perros no tienen suerte), pero si sucede, es probable que ocurra con algún tipo de código de autoaprendizaje que comienza con solo el fundacion correcta

Hemos intentado encontrar esa base durante décadas, y me preocupa un poco que no solo no hayamos hecho ningún progreso real, sino que ni siquiera sabemos si estamos progresando realmente.

Como tal, realmente no hay una línea de tiempo que tenga sentido y cada vez que vea un escenario como ese sería una tontería suponer que el éxito era inevitable.

Como lo entiendo, la Singularidad se basa en el supuesto de que la ley de Moore, y otros fenómenos similares, continuarán indefinidamente, y que en algún momento tendremos suficiente poder de cómputo en bruto para hacer cosas como simular cerebros humanos en una computadora.

Sin embargo, la ley de Moore tiene límites. Por ejemplo, los efectos cuánticos harán que los transistores de tamaño más pequeño que el átomo sean imposibles.

Las incógnitas son:

  • ¿Alcanzaremos una “singularidad” de poder de cómputo suficientemente fuerte antes de llegar a los límites de la ley de Moore?
  • ¿Encontraremos un paradigma de computación diferente (uno que no esté basado en transistores y circuitos integrados) que nos permita pasar por alto los límites de la ley de Moore?

Pero más fundamentalmente: ¿quién dice que podemos simular cerebros humanos en una computadora? ¿Cuál es la evidencia de que un mayor poder de cómputo en bruto conduce a simulaciones mejores (no trivialmente) de cerebros humanos?

¿Y qué significa simular un cerebro humano? Es decir, ¿qué es la “inteligencia”? No tenemos una teoría coherente de la inteligencia; sin una base de este tipo, ¿cómo podemos esperar alcanzar la inteligencia artificial? Sería como crear una bomba nuclear sin siquiera tener idea de los rudimentos de la mecánica newtoniana.

Energía y Negentropía.

La computación necesita energía y hacer cosas con el resultado final computado (como los robots que nos rodean) necesita negentropía y energía. Dada la gran mayoría de nuestra energía y la negentropía provienen de un planeta finito, es improbable que un fenómeno exponencial se sostenga, especialmente frente a un fenómeno de crecimiento exponencial abrumador y simple ya existente del “Consumo” en nombre del crecimiento del PIB.

Pero por supuesto …

Nadie sabe cómo escribir el software correcto. Hay malware en su computadora de escritorio, computadora portátil, teléfono celular, en todas partes. Sus sistemas operativos, nubes enteras de computación y grandes sitios web fallan. Fugas de datos, escuchas telefónicas, claves de seguridad, seguimiento web; No hay privacidad ni secretos.

Supongamos que subes tu mente. Choca una vez al día, todo tu dinero es robado y recibes spam con anuncios para pagar el servicio. No me suena divertido.

Mis opiniones (por lo que valen y esperemos un poco polémicas):

1) Falta de motivación: una computadora es en realidad un objeto inanimado con las mismas motivaciones que una roca. No hay motivación en una computadora para aprender o mejorar.

Esto es diferente de cualquier criatura viva que esté profundamente motivada para comer, dormir, respirar y procrear. Esa motivación se deriva de la certeza de la muerte (inmediata en el caso de dejar de respirar, a más largo plazo en el caso de no procrear).

Así que creo que tendríamos que inyectar motivación en la IA. Esto sería efectivamente lo mismo que hacer que la IA actúe como si fuera humano. Y al igual que un actor que pretende ser presidente, AI simularía ser humano.

Actuar es mucho más difícil que ser.

2) Diferentes preocupaciones: Una variación en el tema de la motivación. ¿Por qué la vida digital (software) tiene alguna razón para interesarse en nuestro mundo físico? Para una pieza de software, el mundo físico no tiene absolutamente ningún significado. Si observas la vida digital temprana (virus informáticos), están motivados para replicarse en línea, y sus efectos negativos (limpiar discos, filtrar datos privados) son efectos secundarios que hacen que sea mucho más probable que el virus acabe con él.

El virus digital más efectivo en realidad estaría motivado para permanecer sin ser detectado y replicarse sin ningún efecto negativo.

Básicamente, habiendo resuelto el problema de la motivación, es casi seguro que la motivación no tiene nada que ver con nuestro mundo.

El principal problema con la Singularidad es este: el supuesto de que las mentes pueden mejorarse indefinidamente.

Algunas personas dudan de que sea posible crear una mente artificial igual a la humana. Pero al menos sabemos que tales mentes pueden existir (porque nosotros existimos), por lo que este problema parece solucionable con tecnología lo suficientemente avanzada. Pero nunca hemos visto una mente más capaz que la mente humana, entonces, ¿cómo podemos estar seguros de que tal cosa es posible? Tal vez haya límites difíciles, como la velocidad de la luz es el límite para la velocidad de cualquier objeto material. O tal vez hay límites suaves, como la fricción del aire que limita la velocidad de los aviones. Si los hay, entonces la mejora de la Inteligencia Artificial se detendrá en algún momento. Ir más allá será prohibitivamente caro y los resultados no justificarán los costos, como sucedió con los aviones más rápidos o los aceleradores de partículas más grandes.

De hecho, es muy probable que exista dicho límite. Cada tecnología tiene sus inconvenientes que la hacen útil hasta cierto punto. Toda tecnología es propensa a la ley de rendimientos decrecientes. ¿Por qué la tecnología AI debería ser diferente?
Tal vez cuanto más grande sea la IA, ¿cuanto más tiempo necesita para aprender nuevas habilidades? Tal vez la inteligencia artificial es, más difícil es convencerlo de que haga algo útil. Tal vez nuestra incapacidad para aprender algo a voluntad es lo que nos obliga a cooperar, y la IA sin este inconveniente no tendrá ningún incentivo para hacerlo. Tal vez las personas con síndrome de Savant son un vistazo de lo que está pasando a la mente si se vuelve demasiado bueno en algo.

Si ese es el caso, entonces nunca habrá un “punto singular” en nuestro desarrollo. Puede haber una considerable aceleración, cuando creamos miles de millones de “Einsteins / Mozarts / da-Vincis Artificiales” para que trabajen para nosotros. Pero tal evento no sería incomprensible y podríamos predecir sus consecuencias, por lo que esto no sería Singularity.

Es poco probable que todo el poder de la computadora en el mundo pueda vencer a un niño de 6 años con cualquier estrategia que las computadoras creen. Chess y Jepardy están excluidos ya que ninguna computadora inventó una estrategia de anticipación de ajedrez o una estrategia de extracción de datos. Los equipos de programadores lo hicieron; Esos juegos son en realidad concursos de humanos a humanos. La verdadera inteligencia requeriría que la computadora inventara su estrategia de juego, pero eso no sucedió con el ajedrez o la Jepardía.

Cualquier estrategia programada en una computadora no puede ser llamada IA ​​verdadera, ya que la inteligencia es creada por humanos.

¿Alguna verdadera IA ha llegado a ser? Existe una programación genética, pero ese es un entorno creado por el hombre que se limitará al final de la ley de Moore. En biotecnología, casi hemos abandonado la evolución genética tradicional en favor de los genomas diseñados.

El conocimiento de redes neuronales artificiales tiene el aspecto de superstición precientífica que prevalecía en los seres humanos, algo que abandonamos hace 500 años.

La teoría de la singularidad requeriría inteligencia diseñada por computadora para que pueda seguir aumentando exponencialmente. Pero con poca o ninguna inteligencia creada por computadora, existe poca evidencia o expectativa de un “punto de singularidad”.

Lo mejor que pueden lograr las computadoras es acercarse asintóticamente a la inteligencia humana actual (que aumenta considerablemente) en un futuro lejano, ahora dificultado por la dificultad de la construcción de chips nanométricos.

La diferencia en la inteligencia humana (la capacidad de crear una estrategia) y la inteligencia de la computadora (principalmente limitada a la capacidad de seguir una estrategia) son órdenes de magnitud y en aumento.

A medida que los seres humanos se liberan de la monotonía, lo que llamamos trabajo de color blanco, nos convertimos cada vez más en creadores, cada vez más conscientes de nuestra superioridad, según lo determinado por el teorema de la incompletud. Las máquinas están limitadas por él, pero los humanos no. Con una capacidad de creación muy limitada, las computadoras se atrasan cada vez más.

Muy pocas personas entienden el teorema de la incompletitud y por qué es importante. Los investigadores en IA a menudo no lo entienden, o no se hablaría de una “singularidad”. Eso va a cambiar. A medida que el público en general comienza a entender la idea como base del pensamiento moderno, apreciarán la vasta superioridad de los humanos sobre las máquinas.

¡Entonces los humanos patean el trasero! Todas esas computadoras de la Agencia que son tan intimidantes, se irán durante la noche cuando una pequeña fracción de la inteligencia humana se enoje.

Haga este experimento mental: deje que haya un hombre o una mujer a solas con todas las computadoras en la sede de la NSA, ya que sus empleados han abandonado el edificio. ¿Cuánto tiempo sobrevivirán las computadoras contra un solo humano enojado? La superioridad humana es tan grande que no requiere ningún esfuerzo real.

Este es uno de los misterios del universo para mí.
Al igual que: ¿Por qué la vida misma comenzó a existir?
O más generalmente: ¿Por qué el universo forma estructuras tan complejas y las mantiene? O: ¿Por qué la entropía de la misma está siempre en aumento?

La singularidad puede ser solo el siguiente o el siguiente paso de un universo cada vez más complejo. Nueva raza, o lo que sea.
Si sucede, entonces se planteará una próxima pregunta.

Sin embargo, puede haber algunos obstáculos:
– No está garantizado que un mayor poder computacional (más neuronas y sinapsis) nos proporcione una mejor inteligencia artificial, incluso si hay signos de que (el humano es más inteligente que el perro …)
– ¿Por qué los humanos queremos que suceda si existe?
– ¿Qué es la creatividad / intuición / curiosidad / sabiduría? ¿Se puede simular realmente?
– ¿La IA perfecta querría propagarse (replicarse) o cooperar?
– Seguro que habrían muchos más …

El poder del estúpido.

Einstein solo lo dijo y el universo era infinito, y no estaba tan seguro acerca del universo.

Solo puedo pensar en unas 300 formas de la estupidez humana, el uso de la inteligencia para evitar el aprendizaje, para evitar cualquier tipo de progreso hacia algo interesante y dejarnos a todos observando a los Kardashians. A medida que las guerras comienzan, quiénes cocinaron el planeta, los mares se elevan, el sarampión muta en el interior de los anti vaxxers, y cada vez más potencia de CPU se dedica a 4K, luego a 8K y luego a 16K en pantallas de vidporn.

La política puede retrasarlo hasta mucho después de que seamos técnicamente capaces con un esfuerzo al estilo del “Proyecto Manhattan”. La primera verdadera IA no es probable que venga del garaje de alguien sino de un importante laboratorio bien conocido. A medida que nos acercamos, es probable que las demandas de precaución hagan que se retiren los fondos o que se retrasen los pasos finales mientras se realizan las audiencias. También podría haber amenazas terroristas de grupos activistas. Eso suponiendo que tenga lugar en algún lugar del mundo democratizado. Si parecía que un laboratorio en China o en algún otro lugar estaba a punto de lograrlo, es posible que la NSA (o algún equivalente) intente destruirlo con un ciberataque para evitar que “nazca” en manos del enemigo.

El futuro siempre se aplaza. Tiene que ser. Esa es su naturaleza.

Guerra nuclear y crisis económica.

El primero nos borra. Este último mata la financiación de I + D y la demanda de tecnología del mercado.

La singularidad es teóricamente posible. Pero solo puede implementarse en ausencia de un desastre global catastrófico.

Porque mucha gente todavía no sabe lo que realmente es.