¿Podría la IA amenazar a la raza humana como algunos autores han escrito?

Gracias por la A2A.

Creo que la idea de que la IA intente eliminar o subyugar a la humanidad es ridícula. Los seres humanos tienen impulsos para sobrevivir, procrear y competir por el estatus. Estos no son programas que ejecutamos, son epifenómenos que surgen de interacciones complejas y desordenadas de nuestros circuitos neuronales y nuestro estofado de hormonas.

Incluso construir una máquina que sea capaz de comprender el concepto de “yo” sería una hazaña monumental. Simular la respuesta de lucha o huida suena como algo que tendría que ser hecho intencionalmente por programadores humanos. Pero incluso si logramos construir una máquina que realmente temiera a la muerte, ¿cómo conseguimos que quiera poder personal? En serio, ¿cómo hacemos algo que quiere gobernar el mundo?

La mayoría de la ciencia ficción que retrata a la IA es muy divertida (y ocasionalmente es una especulación perspicaz sobre el tratamiento del otro en la sociedad), pero requiere una seria suspensión de la incredulidad porque los escenarios propuestos son altamente improbables.

Lo que realmente debería preocuparse de la gente en relación con la inteligencia artificial es que el gobierno corporativo podría automatizarse en gran medida, con el software que toma las decisiones que actualmente toman los humanos. A diferencia de los deseos humanos, la economía puede cuantificarse fácilmente. A las computadoras les va bastante bien en ese tipo de cosas. Pero no se dan por vencidos si despiden a diez mil trabajadores, o trabajan en exceso hasta el punto de suicidarse, o perjudican a la economía mundial mientras persiguen ganancias a corto plazo. Todas las críticas que se aplican a las corporaciones sin alma solo se exacerbarán si los AI dirigen las salas de juntas. Y esta es una posibilidad mucho más probable que un levantamiento de una máquina.

De manera inequívoca, sí. Incluso una IA diseñada para beneficiar a la humanidad, si está mal diseñada, podría destruir a la humanidad. Pero otros han argumentado esto mejor:

Definir Amabilidad no es el problema de vida o muerte del que depende la supervivencia de la humanidad. Es un problema de vida o muerte, pero no el problema de vida o muerte.

AI amigable requiere:
1. Resolver los problemas técnicos requeridos para mantener un invariante abstracto bien especificado en un sistema de metas auto-modificables. (Curiosamente, este problema es relativamente sencillo desde un punto de vista teórico).
2. Elegir algo agradable para hacer con la IA. Esto es aproximadamente a mitad de camino en la fatiga teórica entre los problemas 1 y 3.
3. Diseñar un marco para un invariante abstracto que no borre automáticamente la especie humana. Esta es la parte difícil.
Algunos ejemplos para dar una idea de la parte difícil:
• Una IA cuyo invariante abstracto es un “botón de recompensa”, que se presiona cuando la IA complace a los usuarios, puede activar el sistema solar con representaciones en coma flotante cada vez más grandes de la recompensa total.
• Una IA entrenada en el problema de “hacer que los humanos sonrían” puede adquirir una función de utilidad satisfecha al colocar el sistema solar en mosaicos con caras sonrientes.

Compare la AI amigable con el problema más fácil de eliminar a la especie humana. Este último requiere:
• Explorar el espacio de diseño de la IA para encontrar algunas cosas que funcionen (no necesariamente entender por qué funcionan) y juntarlas para lograr una superación recursiva.
• Diseñar un sistema coherente basado en la auto-modificación que sea de naturaleza probabilística y no mantenga un objetivo de optimización invariante. Por ejemplo, la evolución dirigida.
• Usar una teoría de la inteligencia que permita una superación recursiva deductiva (100% de probabilidad) que mantenga un invariante abstracto, sin lograr la comprensión técnica para elegir un invariante que haga lo que el programador cree que hace.
• Bruto forzando el problema. La Ley de Moore avanza continuamente, aumentando la potencia de cómputo disponible para los sondeadores ciegos, disminuyendo la brillantez técnica requerida para eliminar a la especie humana. (Más poder de computación no ayuda en absoluto en FAI.)

De Coherent Extrapolated Volition (2004) de Eliezer Yudkowsky: https://intelligence.org/files/C

Es bastante concebible, sí, en más formas de lo que es aparente. El peor enemigo de nuestra especie somos nosotros mismos, porque competimos por los mismos recursos, y somos inteligentes. Pero olvídate de la violencia, que me parece razonablemente fácil de evitar (piensa en algo como las 3 leyes de robótica de Asimov), pero la excesiva amabilidad y utilidad son igualmente amenazadoras, porque no es tan obvia. Nos hemos vuelto tan dependientes de nuestra tecnología, que si desapareciera instantáneamente mañana, la gran mayoría de nosotros no sabríamos cómo sobrevivir: cómo obtener comida, refugio, etc. ¿Cuántos de nosotros moriríamos sin antibióticos? Es horrible solo imaginarlo. Una tecnología que pensaría para nosotros sería la última tentación: podría convertirnos en simples infantes, que hacen lo que la IA nos dice, porque siempre es mejor para nosotros que lo que podamos concebir por nosotros mismos. Y sin una mente bien afinada, no apostaría a que la supervivencia de la especie humana sea particularmente probable.

Sí. Es la ley de las consecuencias no deseadas. Los humanos fueron construidos para los desafíos, para fallar una y otra vez. De lo contrario, no apreciaríamos nuestros logros. ¿Qué le sucede al cerebro humano, cuando las IA asumen todos los desafíos y tienen éxito, más rápido y mejor que cualquier humano? Los humanos pierden la confianza y su autoestima. Se vuelven auto absorbidos y carecen de iniciativa. Dejan de reproducirse, y dejan de buscar un propósito valioso en la vida. Se deprimen permanentemente, y eventualmente se quitan la vida.

La respuesta es Sí, y: ni siquiera tiene que obtener AI para que la tecnología amenace la existencia humana. Una falla en la tecnología “tonta” que regula las armas nucleares sería perfectamente suficiente. Una falla en la tecnología de inteligencia artificial “inteligente” sería incluso más fácil de pasar por alto.

También puede reformular la pregunta: “¿AI decidiría matarnos, incluso si está ausente de algún defecto?”. Entonces diría que la pregunta es una contradicción. Eso es porque si intentas activamente eliminar un modo de pensar de la IA (“matar a todos los humanos”), entonces ya no es la IA. Me considero que tengo inteligencia precisamente porque soy capaz de pensar: “Matar a todos los humanos”. De lo contrario sería un esclavo.

No, porque requeriría un vasto equipo de expertos lo suficientemente inteligentes como para producir un dispositivo completamente nuevo, pero lo suficientemente tonto como para no tomar las precauciones más simples.

Se ha culpado a los drones por matar gente. Pero ningún dron puede disparar por su propia autoridad: siempre hay un operador humano que hace la elección, correcta o incorrectamente.

“Inteligencia artificial” debería llamarse realmente “Oficio automatizado”. Los sistemas informáticos siguen las reglas escritas por humanos, y las aplican con gran rapidez y eficiencia, pero no reflejan si tienen sentido.

Las reglas escritas pueden ser aplicadas en contra de las intenciones originales. Como la broma acerca de un programador enviado a ir de compras por su esposa, con las instrucciones “obtener un pan, y si hay huevos, consigue una docena”. Y vuelve con una docena de hogazas de pan. Por supuesto, nadie lo haría: las instrucciones podrían leerse de cualquier manera, pero no tiene sentido a menos que la solicitud sea para una docena de huevos.

Se han creado sistemas artificiales que pueden aprender y formular sus propias reglas, hasta cierto punto. Estos son pequeños experimentos sin autoridad sobre nada. Si empezaran a ponerse inteligentes, la gente notaría los peligros.

También autómatas automáticos, pero estos se han ejecutado utilizando un “meta-lenguaje”, algo válido solo dentro de otra pieza de software e incapaz de propagarse o incluso sobrevivir “en la naturaleza”, en el software compartido de las computadoras normales.

Dado que la IA tendría el cociente emocional de sus diseñadores humanos, sería una transformación de la raza humana (lejos de nuestros cuerpos terrestres desarrollados). Entonces, ¿amenazaría a los humanos como lo conocemos pero lo nuevo podría ser algo impresionante?

¿Seguramente los humanos a cargo de generar AI se asegurarían de que esto nunca sucediera?

Creo que la IA “Real” nunca lograría un avance hasta que la neurología y la ciencia del cerebro logren un avance para que finalmente obtengamos el conocimiento de cómo los humanos piensan, juzgan, deciden y estudian.

Lamentablemente soy pesimista sobre esto.

Sí, claro que es posible. Sin embargo, estamos muy lejos de crear tal inteligencia.