¿Qué medidas de protección se están implementando para evitar que la futura IA hiperinteligente elimine a los humanos individuales o incluso a toda la humanidad?

1. Parece que sí.
2. La automatización ya ha reducido la demanda de mano de obra calificada y eso continuará acelerándose. A los que poseen capital les irá mejor que a los que trabajan. El bienestar (también conocido como Ingreso Básico Garantizado) podría ser un antídoto, de lo contrario, las economías podrían caer en una espiral negativa con los desempleados que no pueden comprar bienes y servicios. El fin del capitalismo ha comenzado.
3. Las tres leyes de Asimov (con respecto a los daños humanos) serán irrelevantes en un futuro próximo, ya que los drones y los robots asesinos se desplegarán y se utilizarán con preferencia a los soldados. Robots asesinos: los soldados que nunca duermen.
4. Los AGI (Inteligencias Artificiales Generales) y los ASI (Super Inteligencias Artificiales) encontrarán formas de sortear sus “interruptores de interrupción”.
5. Hay algunas personas que el resto no entiende hoy. Esa es la forma como es.

¿Qué medidas de protección se están poniendo en marcha? Ninguno todavía. Probablemente, serían las mismas medidas que evitarían que un humano hiperinteligente se deshaga de las personas o de toda la humanidad. No mucha diferencia.

En el mundo real, físico, todo y todos deben obedecer las mismas reglas.

Sin embargo, si es posible para los humanos hackear sistemas de seguridad, vigilancia, militar, economía, atención médica y sistemas médicos como implantes (marcapasos, ..), instalaciones industriales y robots, satélites, redes eléctricas, electrónica de automóviles, etc. También será posible para una IA.

Si los sistemas son lo suficientemente seguros para eliminar el riesgo de intrusión cibernética (como, uh, no tener armas nucleares accesibles desde Internet), una IA tampoco puede entrar, así de simple.

En el momento en que una IA así aparezca y trate de causar estragos, la gente desenchufará todo, tal como ocurre con cualquier virus informático realmente peligroso hoy en día.

Por supuesto, una IA súper hiper inteligente podría prever esa reacción y NO causará estragos para evitarla y perderá todos los medios para hacer cualquier cosa y se limitará a una sola pantalla y un teclado para la eternidad.

Entonces, ¿lecciones aprendidas? 1) Una IA que sea realmente hiperinteligente no causará estragos mientras los humanos todavía puedan desconectar y 2) la seguridad de la información ES IMPORTANTE.

Si podemos alcanzar un nivel suficientemente alto de seguridad de la información antes del aumento de las máquinas, deberíamos estar bastante seguros. Eso incluye el despliegue generalizado de la criptografía cuántica y la criptografía post-cuántica, un acuerdo general sobre la actual controversia entre la vigilancia y la privacidad, una buena solución para la denuncia de irregularidades y cosas como Tor generalmente aceptadas, apreciadas y ampliamente apoyadas.

El último párrafo puede ser un poco confuso en cuanto a por qué estos son importantes. La razón es que la principal arma de una IA es la recopilación y manipulación de datos. Por ejemplo, si la IA lo considera una amenaza hoy, podría incluirlo en una lista de posibles terroristas y arrestarlo cuando intente tomar un vuelo. Sin embargo, en preparación para eso, debe poder supervisar todos sus movimientos y comunicaciones, manipular su cuenta bancaria, manipularlo con identidades falsas o robadas.
En este caso, es posible que necesite elementos como TOR para comunicarse con personas de confianza o tener acceso a sistemas que no están comprometidos por la IA.

Entonces, para resumir: necesitamos ganar la carrera de seguridad antes de que una IA súper hiperinteligente incluso entre en ella.

“La singularidad está cerca”, no demasiado cerca es más precisa. Si bien hemos dado pasos gigantescos en el poder de cómputo, todavía no hemos logrado el mismo progreso en la inteligencia artificial. El procesamiento de datos está muy lejos de los pensamientos inventivos reales.

Aún no hemos diseñado un lenguaje de programación que pueda manejar las complejidades del cerebro humano. Ese lenguaje de programación y las computadoras que pueden usarlo deben estar muy extendidos para que suficientes personas puedan llegar a ser lo suficientemente competentes como para comenzar la tarea de crear máquinas de pensamiento artificial independientes. Incluso cuando eso suceda, tomará algún tiempo y un esfuerzo cohesivo por parte de muchos para madurar la IA hasta el punto en que pueda hacer más que un niño.
Uno de los problemas es que todavía no hemos comprendido completamente el pensamiento humano para reproducirlo. Ahora conocemos algunas de las áreas del cerebro que se activan para diferentes funciones. Pero ver cómo se iluminan algunas áreas está muy lejos de saber exactamente qué procesos químicos químicos ocurren realmente para crear pensamientos y luego acciones.

Si bien también puede ser posible inventar “nuevos” tipos de pensamiento, eso también será un desafío para convertir a AI, por lo que tendrá sentido para los humanos.

Durante décadas, los humanos han fabricado máquinas que pueden replicar tareas que los humanos hacen. Si bien el automóvil sin conductor es una innovación reciente, estamos muy lejos de hacer policías robóticos, médicos robóticos o incluso cuidadores de casas robóticos.

En este momento estamos muy lejos en el uso de AI para hacer muchos trabajos prácticos. Una aspiradora Roomba es un buen ejemplo de lo lejos que estamos.
Si pudiéramos, lo más probable es que automaticemos el control del tráfico aéreo, pero eso todavía requiere humanos.

No, no creo que la imaginación de los autores y sus hipótesis sean pronósticos válidos del futuro.

No hay medidas de protección suficientes contra la superinteligencia artificial, y desafortunadamente, probablemente tendrá muy malos resultados una vez que se haya creado, incluso si en realidad no dispone de todos los humanos.

Muchos de los investigadores más importantes del mundo han firmado una carta abierta de advertencia sobre los peligros de la IA: el Instituto de Futuro de la Vida.

La parte más complicada de la inteligencia artificial es asegurarse de que se preocupe por las mismas cosas que nos importan; de lo contrario, una inteligencia simplemente usará todos los recursos para su propio objetivo. Por ejemplo, digamos que la primera IA tiene un objetivo simple como “convertirse en el mejor jugador de ajedrez posible”. Luego, llegará rápidamente a la conclusión de que una de las mejores formas de aumentar su capacidad de juego de ajedrez es tomar control de todas las supercomputadoras existentes, usar todos los metales existentes en la tierra para construir otros nuevos, etc.

Solo unas pocas organizaciones están tomando en serio el problema de la IA. MIRI es uno y The Future of Life Institute es otro. Sin embargo, hasta ahora no hay suficientes recursos dedicados a abordar el problema.

Si le preocupa el problema de la IA, le sugiero que lea más sobre MIRI y su enfoque.

Esta pregunta merece atención durante todo el proceso de su aparición si la premisa es correcta.

Tienen que averiguar cuál es el objetivo humano y si se trata de un intento de evitar la evolución que habría llevado un millón de años reemplazar a la especie dirigiéndola por sí misma.

Cualquiera que lo use para obtener ventaja contra la sociedad debe ser protegido de alguna manera y eso ha sido una motivación industrial importante en el siglo pasado.

También existe una calamidad natural que, en parte, se supone que la tecnología puede amortiguar para aumentar las posibilidades de supervivencia humana, por lo que la inteligencia se encuentra entre estas dinámicas.

Ninguna de las soluciones es adecuada, pero también parece prudente evitar soluciones rápidas que sacrificarían el progreso hacia mejores mejoras y sofisticación.

Como los humanos los están construyendo, parece más probable que los intereses coincidan, sin embargo, una vez que puedan avanzar, ya no habrá ninguna garantía.

La automatización debe, al menos, detectar seres humanos vivos que, por lo tanto, activan las restricciones para eliminarlos.

Existe la noción de que el sistema más grande anula al actor, por lo que habría un contexto que impide que una condición local se salga de control.

Hay afirmaciones de que las máquinas están aprendiendo de humanos que operan a su lado para que cada lado pueda simpatizar con el otro y hacer acuerdos. Esto no ha prevenido completamente las bajas hasta ahora, por lo que hay puntos ciegos.

Es posible que quieran saber si hay algún principio científico determinista sobre la inteligencia hacia el que se dirige la vida y tiene que afectar la síntesis.

Otras especies en el camino de la biosfera quieren igual representación.

Por lo tanto, el enfoque es tratar de encontrar alternativas de investigación y esperar que aquellos con las ideas potenciales se sientan lo suficientemente atraídos para participar. Encontrar las preguntas correctas es un buen punto de partida. Cómo las máquinas las responderían puede ser otra etapa. A la inversa, un apoderado exoplanetista puede concebir la incorporación de una criatura artificial como ideal en estas circunstancias.

No es necesario establecer medidas durante los próximos cinco a diez años. Simplemente no estamos lo suficientemente cerca.

Dicho esto, básicamente las leyes de robótica de Asimov. Cualquiera que los ignore es un tonto y un peligro, y parece que cubren básicamente cualquier cosa acerca de los AI y los robots.