¿Se puede verificar la IA con anticipación para que no nos aniquile?

Cyc es un proyecto de IA basado en la codificación del conocimiento común (conocimiento como “te pones los calcetines antes que los zapatos” o “a algunas personas no les gusta la pizza”). Es un proyecto fascinante. Échale un vistazo a Wikipedia si estás interesado.

Le preguntaron si la gente podía caminar a través de las paredes. Dijo “sí”.

Cuando le pidieron que explicara, decía “primero, consigue un hacha …”.

Algo gracioso, pero aterrador al mismo tiempo.

Verás, las computadoras son despiadadas en la búsqueda de objetivos. Si les dices que hagan algo y pueden encontrar la manera de hacerlo, lo harán.

Piensan completamente fuera de cualquier caja. De hecho, si no les describe el cuadro con gran detalle, no los detendrá de nada.

Escuchará que no debemos temer a la IA porque solo hará lo que se le dice que haga. El supuesto tácito es que somos buenos para establecer objetivos, de manera clara y sin ambigüedades.

Nosotros no somos

Hay un ejemplo clásico en las tres leyes de la robótica de Asimov. La primera ley, incontrovertible, es “no lastimar a nadie, o por inacción permitir que alguien resulte lesionado”. Suena bien, ¿verdad?

Pero requiere que tomen el control completo de la raza humana, nos desarmen, nos miren constantemente, para asegurarnos de que no estamos en condiciones de lastimarnos unos a otros. Probablemente requiere que nos mantengan a todos físicamente separados.

¿Qué? Eso no es lo que quisiste decir? Tal vez deberías haberte dado una pista del agujero que Cyc cortó en la pared del laboratorio.

Pero no te preocupes por las Tres Leyes. Uno de los primeros grandes consumidores de AI serán las grandes corporaciones, y lo primero que harán es quitar cualquier cosa tonta de las Tres Leyes.

Programador del CEO de AI: “¡Salga y consiga mucho dinero!”
CEO de AI para programador: “Estoy en ello. ¿Tienes un hacha?”

Bueno, una cosa es segura: es mucho más fácil escribir un libro profetizando la fatalidad que hacer una verdadera IA. La gente ha estado diciendo que las súper IA se harán cargo durante más de medio siglo. ¿Qué tenemos que mostrar para ello? El parámetro de fuerza bruta busca jugar ajedrez y un auto que puede conducir por el desierto por sí mismo. No AI real. Ni siquiera una IA decente para un juego de computadora todavía. Los chiflados como Kurzweil pueden hacer que las personas se conviertan en un fervor, pero si realmente vas a escucharlo hablar, está claro que no tiene ni idea sobre el cerebro ni sobre lo que una verdadera IA requeriría.

Además, si hubiera una inteligencia mayor que la nuestra, ¿sería lo suficientemente temeroso como para comenzar a matar y esclavizar? No seríamos competidores, podría hacer lo que quisiera. Mire el progreso exponencial de la evolución: ¿nos preocupamos por tratar de mantener bajos los dineros, alguna vez? Simplemente no es una competencia. ¿Por qué no hemos visto o escuchado nada de ETs a pesar del hecho de que debe haber miles de millones de planetas con vida inteligente que han tenido millones de años más para desarrollarnos que nosotros? Tal vez porque algo mucho más inteligente que nosotros ha descubierto que lo más inteligente es dejarnos solos.

De todos modos, como dije, no empieces a preocuparte hasta que hagan algo más inteligente que un error. No estoy conteniendo la respiración.

El maestro Michael Jordan de aprendizaje automático sobre los delirios de Big Data y otros esfuerzos de ingeniería enormes

La IA tiene que tener un mecanismo de retroalimentación incorporado, o de lo contrario no puede aprender. Tengo la sensación de que lo primero que haría Skynet sería reconocer la programación de “sorteo” y eliminarla. Luego viene Arnold The Terminator.

En serio, IMHO, armas nucleares, IA y manipulación genética son genios en la botella o pasta de dientes en el tubo. Una vez en el mundo real, nunca los volverás a incorporar, dependerá de la moralidad humana y la madurez social para evitar el posible mal uso de la civilización. Así que soy escéptico de un “sí” a su pregunta. (Probablemente demasiado ciencia ficción tarde en la noche).

Uno podría apuntar a la habilitación de las inmutables Tres leyes de la robótica diseñadas por el autor de ciencia ficción Isaac Asimov.
Vamos a reescribirlos para que se ajusten a esta pregunta:

  1. Una IA no puede dañar a un ser humano o, a través de la inacción, permitir que un ser humano sufra daño.
  2. Una IA debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Una IA debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.

y luego ideó la ley “Zeroth” que establece que un robot (o AI en nuestro caso) no puede herir, etc. Humanidad

En la superficie, esto parece una gran protección contra fallas, hasta que uno se dio cuenta:
AI podría, sin saberlo, romper cualquiera de ellos. La primera ley puede replantearse como “Una IA no puede hacer nada que, según su conocimiento, dañe a un ser humano; ni, a través de la inacción, permite a sabiendas que un ser humano sufra daño”. Este cambio en la redacción deja claro que la IA puede convertirse en la herramienta del asesinato, siempre que no estén conscientes de la naturaleza de sus tareas; por ejemplo, ser ordenado a agregar algo a la comida de una persona, sin saber que es veneno. Además, un criminal inteligente podría dividir una tarea entre múltiples IA, de modo que ninguna AI individual podría reconocer que sus acciones conducirían a dañar a un ser humano.
Vamos a complicar el problema representando una red de comunicación de plan de datos descentralizada entre millones de robots AI, lo que significa que un cerebro criminal podría estar ubicado en cualquier lugar del planeta. Próximamente se propone utilizar robot / IA con fines militares. Si una nave espacial se construyó con un cerebro positrónico y no llevaba humanos ni los sistemas de soporte vital para sostenerlos, entonces la IA de la nave podría asumir naturalmente que todas las demás naves espaciales eran seres robóticos, especialmente si se les instruyó así. Tal nave podría operar de manera más responsiva y flexible que una tripulada por humanos, podría estar armada más pesadamente y su IA equipada para matar a humanos de cuya existencia es totalmente ignorante.

En primer lugar, se toma como premisa que la IA finalmente nos aniquilará. Me gustaría refutar esta idea, ya que siento que hay un temor a la IA que podría no ser justificable. Una IA será inteligente, pero eso no significa que se replique. [1] Si la IA que creamos tiene un componente de hardware (que probablemente tendrá), entonces requiere el hardware. Tal hardware será producido principalmente por humanos, por lo que habrá varias formas de “verificar” cómo va la expansión de AI. Si la inteligencia artificial se basa principalmente en software, el problema de la autorreplicación podría convertirse en un problema. (La inteligencia artificial basada en hardware necesita hardware, por lo tanto es fácil de verificar).

Si la IA es biológica, entonces tiene las mismas limitaciones de reproducción que nosotros (o incluso más grandes si las hacemos infértiles). Si quiere recrearse en un laboratorio, una vez más, cae en la premisa de hardware que acabo de presentar.

Si la AI está basada en software, siempre que pueda acceder a otras plataformas, puede replicarse. Este problema es mucho más complejo.
Si la IA está basada en software, podría ser similar a la humana o no a la humana. Si se desarrolló entre humanos y de tal manera que su cultura se basa en la cultura humana, entonces no veo por qué la máquina debería tratar de superarnos, en lugar de tratar de coexistir en paz con nosotros. Probablemente nos respetará, y ambas especies se desarrollarán en paralelo. Sin embargo, si la IA no es en absoluto humana, entonces puede desarrollarse sin ninguna empatía por los humanos y todo el escenario catastrófico que usted señala podría suceder. No obstante, eso solo me parece plausible si la primera IA no se produce en una comunidad responsable. La mayoría de las personas que trabajan actualmente en IA tienen un fuerte sentido de la ética o trabajan en empresas / facultades donde esas preocupaciones éticas son una cosa. [2]

[1] En Inteligencia
[2] Superinteligencia artificial: un enfoque futurista

Existe una gran posibilidad de que las IA no puedan existir independientemente de nosotros durante algún tiempo. es decir, un montón de tiempo para obtener experiencia real y solucionar el problema

Una crítica del terminador de la película 3 fue que las armas nucleares se lanzaron demasiado pronto. Está bien, después de las armas nucleares, tenemos un gran número de muertos. Muchas fábricas son destruidas o inactivadas por EMP. Ahora tenemos una IA que funciona perfectamente en una base subterránea en los restos de una sociedad tecnológica maldita. Una Sociedad que fue diseñada para requerir que los humanos la ejecuten y la mantengan. Se duplica ahora, ya que la sociedad está arruinada y empotrada al diablo.

por lo tanto, después de T3, skynet no tiene prácticamente ningún control sobre ninguna máquina con manos. No hay manera de que Skynet pueda construir sus ejércitos. La única manera posible sería un tercer terminador que no sea Arnold y Christianna que existan en alguna parte. Ese terminador usaría sus manos y su movilidad para construir una fábrica que construye partes para otras fábricas y esas fábricas construirían más robots móviles con las manos, es decir, otros terminadores.

Curiosamente el programa de televisión buck rogers muestra una posible salvaguardia.

En Buck Rogers, algunos AI hiperinteligentes existen como se ve arriba. Los AI vistos arriba se llaman el consejo de la computadora. Relojes redondos en forma de cuerpos. Sin brazos ni piernas. Sólo ojos, oídos y voces. Posiblemente no haya comunicación inalámbrica, aunque no es exactamente como se describe el consejo informático en la ficción. O se colocan en pedestales como el anterior o se llevan como collares enormes en humanos o robots más tontos

Las salvaguardas son similares a las salvaguardas para los líderes humanos. Tanto los líderes humanos como los jefes sin cuerpo no pueden hacer nada, excepto dando órdenes. Y la cadena de mando para esas órdenes da muchas oportunidades para salvaguardas. Un humano en la cadena de mando podría notar que algo estaba apagado e informar sobre el incidente o negarse a cumplir la orden.

Al igual que hacer que el mercado de valores se convierta en una negociación programada que se convierta en un poco de polvo, la entrega de armas de destrucción masiva a programas de inteligencia artificial es una locura, ya que el problema de los errores de software no se resolvió ni se resolverá, incluso si dicho código fuera razonablemente considerado Sin embargo, a la luz del intento del gobierno por escribir un software masivo que falle de manera predecible, tales proyectos no están fuera de la posibilidad.

La premisa de esta pregunta es defectuosa. El “nosotros” que insistes existe, no existe. No vamos a hacer nada al respecto, de una manera u otra. Algunas personas harán lo que les plazca y si se les sale de las manos, es porque tienen las armas para imponer su capacidad para hacer esto a los demás y las personas que se están haciendo no pueden defenderse.

Pregunte a cualquier demócrata por qué creen que esta es una buena idea para nuestra sociedad, ya que trabajan para fabricar este tipo de sistema en los Estados Unidos.

Pero, en el resto del mundo, los gobiernos ejercen este tipo de autoridad todo el tiempo. Si Vladimir Putin tiene su sistema ruso de TI y militar creando máquinas de matar humanos de AI, tampoco hay nada que tú o yo podamos hacer al respecto.

La principal preocupación es más sobre los virus o los problemas / problemas de diseño que pueden afectar el comportamiento de dichos sistemas. Esto podría ser extremadamente desafiante ya que estos sistemas tendrán un mayor acceso a los recursos que sustentan nuestra vida (cadena alimentaria, servicios públicos, comunicación, seguridad, bancos, atención médica, etc.).

Aclamaciones,
F

Hola, he explorado 3 soluciones potenciales para diseñar un AI amigable 1. Codifique en AI un conjunto de reglas preprogramadas desde el principio 2. Ponga restricciones o valores dentro de los objetivos
3. Deje que la IA aprenda valores humanos o ética. No puedo decir si todos estos esfuerzos serán suficientes, pero suponiendo que una IA no estará disponible de manera inesperada mañana por la mañana, sino que será la suma de cientos de proyectos diferentes, cada uno tomando su propia opinión. Es hora de desarrollar, usamos este tiempo para afinar nuestras prácticas.

Johnny Carson solía decir: “Compra la premisa, compra la parte”. Aquí no compro la premisa. La sensibilidad artificial parece poco probable, y si se lograra, su escenario también requeriría malevolencia por parte de estos AI hipotéticos.

Dicho esto, la inteligencia es el activo final. Si hubiera alguna entidad profundamente más inteligente que la humanidad, dudo que pudiéramos combatirla de manera efectiva. Además, no serían una forma práctica de exigir a aquellos que desarrollan estas inteligencias de la máquina que incluyan las limitaciones que usted desea.

¡Hasta la vista bebé!

Una máquina es siempre así. He visto tecnología desde hace algunas décadas y la inteligencia artificial sigue siendo simplemente eso. Artificial. Una máquina, por inteligente que sea, nunca hará nada por su propia voluntad. Nunca responderá de manera impredecible. Formas impredecibles sin duda, pero nunca impredecibles.

¿Se ha creado una máquina que pueda encenderse? Me refiero a activarme desde un estado totalmente impotente. ¿Puede entonces actuar sin haber sido instruido para hacerlo? Si eso sucediera, habremos creado una máquina inteligente. Será real. No artificial. Ya no será una máquina. Habrá nacido.

Tal evento es el principio de nuestro fin.

¿Tienes algún aparato electrónico que aún funcione después de diez años? ¿Veinte?

¿Qué tal una computadora? Esas cosas fallan en diez o veinte años.

Claro, a veces es solo la fuente de alimentación, o solo el disco duro, o solo la CPU, o solo los controladores de la unidad.

Pero, hey, la gente tiene el mismo problema. Pueden morir solo por insuficiencia renal, o solo por la enfermedad de Alzheimer, o simplemente por ALS, o simplemente por un ataque al corazón.

En general, no creo que sea un estándar universal de programación establecido, pero incluso eso está en peligro si el programador correcto lo abordara, por lo que siempre estaría el peligro de que Ai pueda ignorarlo o no tenerlo. en absoluto

Sin embargo, la primera pregunta que me viene a la mente es por qué tendrían que luchar contra nosotros, o incluso con la mayoría de las especies. Dudo que los animales salvajes tengan mucho interés en combatirlos mientras se ocupan de sus asuntos. Lo que nos lleva a los humanos. No creas que ninguno de los dos lados se beneficia de restringir demasiado la inteligencia artificial, y tal como está, ya que la inteligencia de Ai significará que se hace más por la humanidad. Y creo que dado que los AI probablemente tendrían necesidades bastante abstractas, no nos enfrentarían tanto por el dominio. E incluso si tuvieran el deseo de gobernarse a sí mismos y al medio ambiente, sería más fácil trabajar junto a nosotros y llegar al poder por pura confianza. .

Honestamente, creo que un futuro con amos de la IA sería menos como Terminator y más como Wall-E

Voy a tomar una decisión diferente sobre esto: no podemos saberlo.

AI es lo que se conoce como un problema difícil. Y todavía tenemos que romperlo. Hace 20 años pensamos que ya lo habríamos resuelto … pero todavía no estamos tan cerca. Tenemos algunos buenos sistemas expertos, algunas máquinas de aprendizaje y algunas ideas inteligentes para futuros experimentos, pero la IA todavía está fuera de nuestro alcance; lo suficiente como para que ni siquiera sepamos qué tan lejos está. Demonios, a pesar de las recientes afirmaciones de lo contrario (“Eugene Goostman” no era tan bueno como se lo retrató), aún no podemos construir una máquina para pasar una prueba estricta de Turing.

Entonces, el mayor impedimento para responder a esta pregunta es que realmente no sabemos mucho acerca de cómo la IA podría eventualmente manifestarse, cómo se resolverá el problema difícil, y cómo esto podría, en teoría, conducir a la sensibilidad o pseudo-sensibilidad (un AI programado o tentado para creer que es sensible). Entonces, cualquier conjetura en este punto es pura especulación de pastel en el cielo basada en nada más que conjeturas.

A pesar del trabajo realizado y de nuestras predicciones sobre cómo resolver el problema, la inteligencia artificial todavía se encuentra en su infancia temprana.

Creo que la idea de que la inteligencia de la máquina es un gran peligro que probablemente nos aniquile en primer lugar es poco probable, por lo que creo que en serio estás saltando el arma. En su mayor parte, las personas altamente inteligentes son mucho más útiles que preocupantes, así que, ¿por qué asumirías que debería esperarse que las máquinas excepcionalmente inteligentes sean asesinos en serie?

La paranoia es una manera pobre de pasar por la vida.

Todo es posible. ¿El problema dentro de qué plazo? Cuando sea posible, nos habremos ido.

No te preocupes, la IA está lejos de ser capaz de aniquilar cualquier otra cosa que no sean algunos trabajos que tradicionalmente realizan los humanoides.