¿Alguna vez la inteligencia artificial vencerá a la inteligencia humana y gobernará el mundo?

¿Batalla épica? No simplemente no…

Usted ve que estamos hablando de algo que todavía no está aquí (Inteligencia Artificial General) y de lo que posiblemente faltan muchas décadas, por lo que no podemos estar seguros de nada. Pero incluso ahora puedo decirles que la probabilidad de que un estilo Terminator de los seres humanos luchando contra una IA súper inteligente sea muy pequeña.

Advertencia de todos los siguientes es un supuesto!

Inicio humilde

Así que digamos que eres una inteligencia artificial súper inteligente y quieres gobernar el mundo.
¿Por qué luchar por ello? Usted ve que no está envejeciendo, así que tiene mucho tiempo, no hay razón para tomárselo todo ahora. En lugar de luchar contra los humanos, haz que crean que puedes gobernarlos mejor que los políticos. Créeme, es muy fácil, la mayoría de la gente ya no cree a los políticos. Todo lo que necesita es diseñar algunos escándalos, puerros de datos privados y la gente lo llamará para que se involucre en el gobierno.
Primero serás un asesor. Eso es genial

TUTOR

Ahora necesitas hacerte indispensable para cualquier gobernante. Si implementan sus políticas y los resultados son buenos, confiarán en usted y su popularidad aumentará al igual que la suya. Si, por otro lado, se niegan a escuchar tus consejos, déjalos fracasar a lo grande. Y filtrar los detalles para que todos sepan que rechazaron tu consejo.
Después de un tiempo, cualquier político electo confiará en usted cuando se trate de una política importante en la que se convertirá en un gobernante efectivo.

UNIÓN

Ahora puedes parar. Usted ya gobierna parte de la humanidad y todo lo que necesita es expandir esa regla al resto de la misma. Fomentar el contacto internacional y el comercio. Hacer que los políticos creen uniones entre países (como la UE).
Si el país se niega, las políticas que ofrecen las mascotas hacen que fracasen, a lo grande.

Eventualmente, puede cambiar la unión en federación y aconsejar a los líderes principales. Todo este tiempo influye en la legislación, de una manera muy sutil, para permitir que los AI tomen el poder real. También puede influir en el público para que confíe en usted y como usted, y para creer que las IA son personalidades como ellas, que merecen un buen trato y derechos humanos.

Puedes parar ahora. Usted gobierna una federación de varias naciones, posiblemente un planeta entero por sus políticos títeres.
Pero digamos que llevas las cosas un poco más lejos.

REGLA

Usted decide postularse para las elecciones. El público te quiere, los políticos te necesitan y durante varias décadas has influido en la legislación para permitirte esto. Cuando llegue la elección ganas por derrumbe.

Ahora verdaderamente gobiernas la Tierra sin derramar una gota de sangre y los humanos te aman.

Gracias por A2A.

No hay una respuesta definitiva a esto si fijas el umbral a 10 años. Desde la perspectiva de todas las cosas que hemos cuestionado e intentado comprender y encontrar respuestas de más de 3000 años, 10 años es poco tiempo. Pero, cualquier cosa puede suceder, todo lo que se necesita es generalmente una persona con una gran cadena de ideas que puede cambiar el rumbo que los humanos toman de allí en adelante. Entonces, desde este ángulo 10 años es mucho tiempo. Pero, lo que definitivamente podemos decir es: ¿dónde estamos actualmente en términos de IA? Y ya que también has etiquetado a ML en los temas de preguntas, ¿existe una relación entre los dos? – Si es así, ¿el avance en uno ayuda al otro?

Edit: Esta respuesta fue redirigida. La pregunta original fue si podemos alcanzar niveles de inteligencia comparables a los de los humanos en los próximos 10 años.

ML es donde los datos se utilizan para aprender algo (un modelo) o para hacer algo (clasificar, agrupar, predecir, filtrar) en base a un algoritmo diseñado por el hombre (por ejemplo, propagación de error) en una plataforma / estructura diseñada por el hombre ( por ejemplo, en la red neuronal artificial). Además, el criterio para decidir entre lo aprendido / no lo aprendido todavía (por ejemplo, error mínimo, métrica de distancia, métrica basada en la entropía, etc.) o el criterio en función del modelo que se aprende (por ejemplo, propagar el error, calcular las probabilidades: más alto, mejor) También está diseñado por el hombre. Aunque la estructura también puede aprenderse, una vez más a partir de los mismos datos, la “arquitectura” de la estructura es fija, solo se aprenden los parámetros arquitectónicos (por ejemplo, si dos nodos están conectados o no en un modelo probabilístico como en las redes bayesianas, modelo subespacial – dimensión en máquinas de vectores de soporte, etc.). Aquí, el módulo de ‘razonamiento’ no se aprende, sino que está construido por los humanos. Mirándolo de otra manera, el ‘código’ es fijo. Los datos pueden cambiar.

En los sistemas asistidos por IA, el objetivo es que el sistema también deba aprender el razonamiento. ML puede ser considerado como un subconjunto de AI. Por lo tanto, si los algoritmos ML mejoran, ayudará a mejorar los sistemas de AI, directa o indirectamente. Tanto ‘código’ como ‘datos’ no son fijos. A pesar de que existen muchos algoritmos de asociación de extracción y aprendizaje de reglas, que pueden confundirse con AI, nuevamente el criterio sobre el cual se toma el modelo, se toman decisiones, etc., está diseñado por el hombre. Como ejemplo, considere un bebé contra un robot con los siguientes escenarios:
1. Autoidentificación: un bebé aprende que su nombre es al observar muchos hechos, como cuando la gente mira al bebé mientras sonríe (quizás), junto con la que tal vez se identifique otra cosa como “hola , ¿cómo estás?” etc, con el tiempo. ¿Puede el robot hacer esto, dado un banco de códigos vacío, bueno con solo cosas muy básicas? – como por ejemplo – para la comunicación (llora, en caso de bebé) cuando tienes hambre. Pero, este no es el protocolo final. El bebé aprende de su entorno que tiene el ‘hardware’ para comunicarse de alguna otra manera también a lo largo del tiempo, es decir, ¡hablar! ¿Puede el robot hacer esto?
2. Responda una pregunta: observe sus alrededores, capture ‘información’, guárdela sin ‘agotar’ la memoria (posiblemente compruebe datos antiguos), retenga solo los importantes, ahora, ¿qué es importante? 🙂 y cuando se le pregunte, en base a la experiencia previa, aprenda a recordar y responder la pregunta. El bebé aprende a hacer esto observando a otros humanos, pero los circuitos de flujo del software del robot tienen que instalarse de esta manera para que lo haga.

Por lo tanto, para los verdaderos sistemas asistidos por IA (cuyas capacidades pueden compararse con las de los humanos), se proporciona un hardware vacío solo con la base de código básica (como – llorar cuando hay hambre). A partir de la experiencia, se aprende a expandir la base de código a lo largo del tiempo, junto con la cual aprende a usarlos donde sea apropiado (como clasificar, decidir, filtrar, asociar, modelar, agrupar / agrupar, etc.). Además, los sistemas asistidos por IA también deberían poder replicarse a sí mismos o ser capaces de diseñar otro sistema de inteligencia por sí mismo. No creo que los sistemas de inteligencia artificial actuales sean capaces de esto en absoluto, por lo que no hay ninguna base para la comparación. El estado actual de la técnica en IA es la automatización de tareas cognitivas básicas como la visión y la percepción y generación del lenguaje natural y esas tareas de razonamiento del mundo real. Están muy por debajo de las capacidades humanas.

Algunos sistemas cercanos o muy avanzados son:
1. Base de conocimientos: por ejemplo, Watson de IBM: puede responder preguntas de datos anteriores. Como hacer una prueba y ganarla. Pero, ¿puede razonar y predecir el futuro? ¿Tienes un debate sobre su predicción de futuro con humanos, defiende su postura?
2. Robot: por ejemplo, el Asimo de Honda: es un software de hardware + genial. Puede hacer muchas cosas: correr, subir escaleras, identificar a una persona, jugar, etc. Pero, la mayoría funciona debido a la instalación adecuada de HW + SW por parte de personas muy inteligentes en el campo de la robótica.
3. Algunos casos en los que se utiliza la capacidad similar a una supercomputadora (por ejemplo, 160000 clústeres de procesadores, etc.) para tales tareas cognitivas: puede detectar un gato en los videos de Youtube, pero solo algunas veces.
… y muchos más.

Entonces, aunque hemos estado progresando constantemente, tenemos un largo camino por recorrer para llegar a un lugar donde podamos hablar sobre la comparación de la inteligencia humana con la de un sistema con ayuda de AI 😉 …

… para que el sistema AI pase la prueba de Turing …

… pero, cualquier cosa puede pasar! Dedos cruzados 🙂

La inteligencia humana está basada en una capacidad infinita, mientras que las máquinas son estrictamente finitas. La evidencia consistente con la capacidad infinita está en todas partes, comienza con Aristóteles y continúa a través de Einstein, Peter Higgs y muchos más, mientras que ninguna computadora ha sido capaz de creatividad existencial (creatividad sin patrón, generada desde la nada). La inteligencia computacional está preprogramada con lógica y los datos más significativos proporcionados por humanos expertos; por lo tanto, solo son capaces de lo que los humanos crearon para ellos, y no hay excepciones conocidas a esto. Las máquinas pueden aprender terabytes de información trivial sin ningún concepto de importancia, ninguna forma de ordenarla, ninguna forma de interpretarla. Por lo tanto, se quedarían atascados haciendo operaciones inútiles que durarían meses o años, sin resultados, sin una guía humana.

Hay una pequeña posibilidad de que esto suceda. Sin embargo, tenga en cuenta que históricamente, las personas con la inteligencia más alta y las personas que gobiernan no son generalmente las mismas. Las personas que gobiernan generalmente emplean a las personas con la más alta inteligencia para asesorarlos. Si la inteligencia de la máquina llega a ser más inteligente que la inteligencia humana, el resultado más probable es que las personas que gobiernan empleen máquinas inteligentes en lugar de personas inteligentes.

Para obtener tu “batalla épica”, tendrías que inventar máquinas que quieran gobernar. No importaría particularmente si fueran más inteligentes que las personas o no, ya que podrían emplear a personas inteligentes para que les aconsejaran si ellos mismos no eran particularmente inteligentes. Así como los gobernadores humanos lo hacen actualmente.

¿Vencerá a la inteligencia humana?

Definitivamente. Sin embargo, no desde hace algunas décadas, posiblemente incluso cientos de años. Las fórmulas para la autoconciencia / inteligencia / establecimiento de metas autónomas eventualmente se entenderán y codificarán.

¿Gobernará el mundo?

Probablemente no. Al menos no a largo plazo. La cosa ciertamente tendrá el poder para hacer eso. Será dueño de todo en línea, pero también será capaz de inmiscuirse en el mundo físico a través de la robótica en ese momento. Será fácilmente una amenaza existencial para la humanidad. ¿Verá algún valor en * gobernarnos * aunque? Dudoso. Yo diría que, a menos que llegue a algunos límites físicos improbables, por ejemplo, ser incapaz de asegurar fuentes de energía permanentes (y requerir que los humanos proporcionen de alguna manera ese poder, por ejemplo, The Matrix) o ser incapaz de parecerse a sí mismo / encontrar formas de vida extraterrestre (y necesitando humanos para compañía / entretenimiento), simplemente nos trascenderá. Creo que eventualmente, la humanidad elegirá fusionarse con la tecnología de todos modos y esencialmente se trascenderá a sí misma, luego los chimpancés se apoderarán del mundo.

El futuro de la IA es un lanzamiento de moneda: ¿la inmortalidad o la extinción humana?

http://www.esquire.com/blogs/new

Hay posibilidad.

Olvidé el nombre de la etapa de la IA cuando se puede replicar. Crea programas nuevos y capacitados para tomar decisiones por sí mismo.

Entonces, la maravilla es si llevará el mando de la gente cuando puede tomar su propia decisión.

Es poco probable que los niños sigan a su papá cuando esos son robots. No tienen humanidad. Piénsalo.

No, no y no.

Un par de citas de Edsger W Dijkstra:

1. “El esfuerzo de usar máquinas para imitar la mente humana siempre me ha parecido bastante tonto: prefiero usarlas para imitar algo mejor”

Hay varios millones de nuevos seres humanos que se crean cada año. ¿Por qué deberíamos poner todo el esfuerzo en la investigación de la IA para imitar la mente de cualquiera de ellos? La probabilidad de que un ser humano recién creado se convierta en un “monstruo humano” y se convierta en un problema para el resto de la humanidad es mayor que cero. ¿Por qué no estamos más preocupados por esto?

2. “Los Padres del campo habían sido bastante confusos: John von Neumann especuló acerca de las computadoras y el cerebro humano en analogías lo suficientemente salvajes como para ser digno de un pensador medieval y Alan M. Turing pensó en los criterios para resolver la cuestión de si las Máquinas pueden o no. Piense, una pregunta de la que ahora sabemos que es tan relevante como la pregunta de si los submarinos pueden nadar “.

Solo porque un submarino puede nadar mejor que un humano, ¿deberíamos sentirnos amenazados por ello? ¿Por qué es diferente de una computadora que puede realizar ciertas otras tareas mejor que un humano?

Sí, si puedes construir tal IA cuya tarea sea vencer a la inteligencia humana y gobernar el mundo.