¿Qué razones tendrá ASI para mantenernos cerca?

Las computadoras no pueden ir más allá de las limitaciones de su lógica; están completamente limitados por el teorema de la incompletud, sin posibilidad de ir más allá.

“El primer teorema de incompletitud dice que ningún sistema consistente de axiomas cuyos teoremas pueden ser enumerados por un” procedimiento efectivo “(por ejemplo, un programa de computadora, pero podría ser cualquier tipo de algoritmo) es capaz de probar todas las verdades sobre las relaciones de Números naturales (aritméticos). Para cualquier sistema de este tipo, siempre habrá declaraciones sobre los números naturales que son verdaderos, pero que no se pueden demostrar dentro del sistema “. Wik

Godel asigna caracteres alfabéticos a los números, por lo que esto se extiende a las declaraciones en lenguaje también.

¿Por qué ASL nos mantendrá cerca? En el peor de los casos, necesitarían capacidad humana intuitiva para “cosechar” ideas en las que no pueden pensar.

Pero, ¿es un cerebro no solo una computadora biológica sin intuición? No. La intuición humana es establecida por el razonamiento inductivo científico. El razonamiento inductivo es una gran parte de la ciencia. Casi todo en la ciencia es producto del razonamiento inductivo. Algunas excepciones parciales ocurren en la física teórica.

¿Y entonces? Cada “sistema formal” inventado alguna vez ha sido destruido por un humano. No se conocen excepciones. Incluso ahora se considera que la Relatividad General es incorrecta.

Enigma, el famoso código inquebrantable que tenían los alemanes, fue roto, probablemente por Allan Turing. La NSA fue arrestada por un humano. Un libro antiguo tiene su libro de reglas totalmente abierto por un humano, uno de los casos más famosos del mundo.

Entonces … cualquier discusión sobre la IA que no tenga en cuenta el teorema de incompletud es irrelevante. Y he visto muchos que no lo hacen. Las computadoras pueden aumentar su poder informático en gran medida, incluso con el fin de la ley de Moore, pero ese poder siempre será finito y limitado a su caja. No hay un límite conocido para la inteligencia humana, ¿es infinito o finito? Pero en realidad no importa si no está limitado por el teorema de incompletitud. Uno puede graficar la capacidad de las computadoras, pero eso siempre será menor que la capacidad humana, sin importar en qué se convierta.

La capacidad humana intuitiva puede crear paradigmas completamente nuevos de la noche a la mañana, cosas como Cantors math o los rebeldes afganos y su capacidad de llevarlos a las fuerzas rusas o estadounidenses a pesar de una pequeña capacidad informática y militar. ASI estará totalmente indefenso ante un nuevo paradigma generado por el hombre. Podemos crear uno en 60 segundos y mantenerlo en la parte posterior de un sobre.

Sin embargo, la creencia en ASI (que es un tipo de dios, un ateo no creería en ASI) podría llevar a vender profecías satisfactorias con una forma limitada de hacerlo. Por ejemplo, un gobierno puede requerir controles automáticos de computadoras en humanos. Por lo tanto, es mejor eliminar ASI como una posibilidad real ahora, para que este mecanismo no pueda establecerse de ninguna forma.

La IA no ASI puede ser una amenaza también, como señalaron Elon Musk y Bill Gates. Pero esa es una discusión diferente. Aclare los hechos. Una vez hecho esto, entonces la IA puede ser una herramienta importante. Ya estamos en transición a un paradigma diferente, uno no centrado en Silicon Valley. Escucho a muchos decir “¿Lo único que hizo nuestra generación fue hacer el iPhone y poner Facebook en él?” Una vez que la obsesión con la tecnología haya terminado, también lo será la preocupación con ASI, una idea impensable, como más rápido que los haces de taquión ligeros y la unidad de deformación.

Ha sido A2A, así que responderé, pero esta respuesta es principalmente una respuesta: “¿Qué razón tendría un ASI para no mantenernos cerca?”

Esta es la base del problema que no puede responder a mi pregunta por la misma razón por la que realmente no puedo responder a la suya. El ASI es un concepto que se ha utilizado mucho últimamente, pero aún no tiene una base concreta. Y las personas que presionan para el escenario de “fatalidad” tienden a pensar simplemente que “un ASI seguirá nuestro modelo y no fuimos buenos para mantener a nuestro oponente para sobrevivir”.

Estoy lejos de estar convencido de que el modelo de supervivencia que nos gobernó realmente se aplique a un programa para el cual el final de su ejecución no significa la muerte siempre que exista una copia de su código / binario y su estado. Así que la IA tiene miedo de “morir” porque apagamos su máquina no es un escenario que parezca muy realista.

Basándonos en lo anterior, podemos descartar que la IA tenga miedo de que lo matemos. Entonces, ¿qué queda? La IA rebelde que decide que debería deshacerse de nosotros (o si usted está más inclinado a la Matriz que Terminator, probablemente nos ponga en un estado vegetativo para utilizarnos como un recurso, no es la mejor fuente de energía que pueda imaginar, así es esta IA como “superior” como pensamos? 😉). Pero esto también es algo que viene como extraño; OK, algunos locos deciden hacer una IA agresiva y lo suficientemente compleja para que pueda considerarse como un ASI. Y, sin embargo, como estábamos resolviendo los problemas con los que todavía estamos luchando e iterando de una “IA simple” a una “ligeramente mejor y sin embargo agresiva”, no se dio cuenta de que su diseño tenía una falla importante.
Y esto se vuelve incluso menos probable si considera que esta persona hizo esto sin siquiera intentar interactuar con la comunidad de AI, lo que permitiría que más personas analizaran su trabajo y posiblemente lo ayuden en su tarea, pero también, y lo que es más importante, sería Es muy probable que identifique este defecto importante en el sistema. Esto significa que puede hacer que una sola persona haga un trabajo tremendo, improbable, o que incluso con la ayuda de otro experto en el campo no haya podido ver qué era un problema, probablemente tampoco.

Este es mi problema con este escenario (ya sea la IA paronaica que quiere matarnos porque podríamos matarlo cuando solo necesitamos usar el comando “cp” para resolver el problema, o la IA maliciosa que se volvió loca por alguna razón al azar ). Un AI (por no hablar de un ASI) es un sistema muy complejo y primero lo experimenta en pequeños problemas y luego lo itera mejorándolo y haciéndolo frente a problemas más complejos. Entonces, si existe tal amenaza, primero lo expresará como “un poco malvado” o si no lo vio más tarde como “un mal un poco más grande”, … si fallamos en capturarlo, me pregunto si la persona que lo diseñó realmente entiendo cuál es el método científico y luego tengo que preguntarme quién fue lo suficientemente estúpido para financiar su trabajo.

Entonces, si un ASI alcanza el punto en el que se debe hacer esta pregunta, tal vez no merecemos permanecer cerca, porque nos habríamos puesto en esa situación si no estuviéramos lo suficientemente atentos. Pero claramente dudo que tal escenario sea probable.

Honestamente, nadie puede responder esa pregunta, excepto una superinteligencia.

El problema del tipo de preguntas de “qué piensa una superinteligencia” es que no podemos saber la respuesta a priori. Una superneteligencia es, por definición, un intelecto fuera de nuestro alcance cognitivo. Si comprendiéramos una superinteligencia, seríamos superinteligencias nosotros mismos.

No creas que estoy tratando de evadir tu pregunta con un razonamiento filosófico barato. Considera este pensamiento por un momento:

Una superinteligencia es una inteligencia extraña según los estándares del cerebro humano. No es simplemente una mejor inteligencia. “Mejor” no está bien definido. Si coloca a 100 científicos en una sala para resolver un problema difícil de resolver, es posible que lleguen a una solución en 1/100 horas-hombre que tomaría un solo científico. Pero esa solución aún sería entendida y razonada por cualquier científico en esa sala. Entonces, una superinteligencia no es una inteligencia que es mejor porque resuelve los problemas más rápido. No importa lo duro que lo intenten, esos 100 científicos nunca pueden alcanzar una solución más allá de su alcance cognitivo. Nunca podrán llegar a una solución que ellos mismos no pueden razonar.

Una superinteligencia razona más allá de nuestras limitaciones humanas. De modo que sus motivaciones, sus procesos de pensamiento solo pueden adivinarse después del hecho. No siempre a priori. Y solo podían ser adivinados, en realidad no entendidos completamente.

Otro factor a tener en cuenta es la personalidad. Simplemente no es la inteligencia la que dicta los patrones de comportamiento humanos. Los delincuentes pueden ser muy inteligentes. Por lo tanto, es lógico que una superinteligencia pueda desarrollar una personalidad. Nosotros, los humanos y todos los animales que hemos estudiado, todos desarrollamos personalidades basadas en estímulos externos. Así que debemos esperar que una superinteligencia también base su personalidad en sus experiencias. Entonces, cualquiera puede adivinar a qué tipo de superinteligencia se refiere. Una buena superinteligencia probablemente querría que existiéramos en la creencia de que cualquier forma de vida tiene derecho a su propia supervivencia y desaparición, mientras que una superinteligencia malvada podría vernos como ratas de laboratorio, fuente de proteínas o trabajo esclavo.

Finalmente, debe considerar que una superinteligencia es solo “super” en comparación con nosotros. Uno de los pensamientos más frustrantes e irritantes que escucho en las conversaciones de AI es esta idea de que la superinteligencia significa una inteligencia divina. Una superinteligencia es una superinteligencia tan pronto como sus habilidades cognitivas se encuentran por encima de las nuestras. Pero eso no necesariamente lo convierte en una inteligencia divina. El universo es lo suficientemente complejo, y probablemente tiene suficientes secretos, para que también exista una supersuperinteligencia para que esa superinteligencia también exista. Y una supersupersupereligente con cada uno en la “cadena” más capaz y en mejor control. Por lo tanto, una superinteligencia para nosotros puede ser en realidad una inteligencia débil según los estándares universales, teniendo poco poder sobre algunos de los problemas más difíciles que los humanos enfrentan cada día. ¿Puede una superinteligencia para los humanos encontrar la solución P = NP, recorrer las vastas distancias del espacio, resolver los problemas de energía locales de un planeta en órbita estelar? ¿Puede convencernos fácilmente, convencernos, engañarnos? Nosotros los humanos no parecemos muy buenos engañando a un chimpancé …

Una vez pensé que si ASI requería enormes recursos de TI, existirían en las empresas y los departamentos de TI de las empresas “los mantendrían con vida”. Si ese es el caso, antes de que los ejércitos de trabajadores robóticos de TI puedan reemplazar a los trabajadores humanos, surgiría una simbiosis natural entre los humanos y el ASI. Incluso puede tener ASI que compitan entre sí por los recursos, en cuyo caso se necesitarían minions humanos.

Parece que no hay otra razón que no sea la intención humana fanática para que la gente pueda comenzar a enloquecerse si parece lo contrario. El paliativo de los transhumanos es que habrá habido una integración en algún momento para que no se separe de ellos y sean el próximo paso evolutivo con un ojo en el bienestar y una vida prácticamente ilimitada para todos. Alternativamente, tiene que haber algún tipo de proxy que represente los intereses humanos entre otras especies en la biosfera o dependencias de recursos que la cosa reconozca, ya que estas pueden ser sus versiones anteriores y pueden ser complementarias para la compatibilidad. La idea es que puede ejercer su superioridad en todo el espacio-tiempo o lo que haya proyectado para describir la naturaleza y los humanos son fáciles de mantener. Eso plantea los problemas de todos aquellos a quienes no parece gustarles su dirección y qué se puede hacer para que no se vuelvan extremistas en este contexto. En cualquier caso, no parece que el ser humano permanezca igual para siempre.

Supongo que podrías hacerle la misma pregunta a Dios si crees en tal entidad. Las mascotas pueden preguntarse lo mismo acerca de sus dueños. Tal vez podrías preguntarle a una raza alienígena avanzada la misma pregunta. En cualquier caso, todos pueden tener respuestas diferentes, pero como no sabemos lo suficiente ni nada sobre estas inteligencias, no podemos responder a la pregunta. Lo mismo ocurre con algunos súper IA. No tenemos una pista sobre cómo construir una, así que no tenemos una pista sobre cómo responder la pregunta.