La inteligencia artificial puede mejorar nuestro mundo. Sin embargo, Stephen Hawking ha advertido los peligros de ello. ¿Cómo puede Google aprovechar plenamente su potencial y mantenerlo seguro?

Tomemos un momento para recordar el libro Jurassic Park, particularmente whte_rbt.obj

Ahora, asumiendo que la IA no tiene ninguna aptitud para las magias (como se ve en las IA de la marca Holywood):

  • Invierta en un programador muy confiable, preferiblemente sobórdelo con una vida de baquetas KFC.
  • Implementar una puerta trasera en la IA que la AI no puede conocer.
  • Implementar un enchufe de alimentación a la IA, preferiblemente uno que esté detrás de los bloqueos manuales.
  • Hablando de bloqueos manuales, no permita que AI controle ningún protocolo de emergencia.
  • Manténgalo en secreto entre el programador y la entidad seleccionada, al igual que la receta de KFC.

En caso de que la IA se vuelva loca, puedes hacer dos cosas:

  • Desconecte la energía de la IA, dejándola inútil sin electricidad.
  • Usa el programa de puerta trasera para apagar la IA.

Ahora la IA no puede hacer nada sin electricidad ni su programa principal. Ve a disfrutar de tus baquetas mientras aún está caliente.

Aparte de lo que dijo Evinson, realmente depende de la naturaleza de la IA. La verdadera IA, como en una IA que aprendería y crecería como lo hacen los humanos, si ese fuera el caso, el simple “código duro” probablemente no lo cortaría. Puede tener el aprendizaje de cómo subvertir o alterar ese código. La mejor defensa (aparte de no crear esa IA) probablemente solucionaría el hardware. Algo que no se puede cambiar sin una entidad física externa.