¿Por qué la IA se iría al acecho?

Voy a responder en base a mis muy limitados intentos de aplicar redes neuronales (inteligencia artificial) a mis propios problemas.

La diferencia entre la IA y los algoritmos estándar es que estos últimos son transparentes. Usted sabe exactamente por qué se comporta de una manera particular. Si se comporta de forma inesperada, se debe a un error de programación (o error). La depuración es una parte desafortunada de la vida en el desarrollo de software. Pero es posible .

Con las redes neuronales, no se programa el comportamiento. Se programa el método por el cual el sistema aprende. Y luego lo entrenas esencialmente mostrándole un montón de datos. Usted verifica si funciona utilizando un conjunto de datos independiente llamado conjunto de validación.

Ahora, solo Dios sabe lo que ha hecho de ello. Debido a que lo que estamos haciendo es literalmente una forma sofisticada de interpolación, nunca puede estar seguro de cómo extrapolará.

Por lo tanto, una inteligencia artificial que ha sido entrenada en datos de tiempos de paz se comportará de manera impredecible en tiempos de guerra. Debido a que es más probable que se le confíe el suministro y la logística de alguna población civil, puede responder al racionamiento en tiempos de guerra inundando el mercado con bienes de lujo (tal vez malinterpretando la ingesta de calorías más baja para una moda de fitness). Esta es solo una ilustración de cómo puede fallar.

La forma más fácil de prevenir una catástrofe es bastante antigua. La Biblia nos dice en el Libro de Proverbios: “Los planes fallan por falta de planificación, pero con muchos asesores tienen éxito”. Cada sistema administrativo tiene controles y balances para forzar que cualquier acción sea moderada por muchas entradas. Incorpore uno (o preferiblemente varios AI programados y entrenados independientemente) además de expertos en la materia y representantes del público en general en todas las decisiones de importancia.

¿Donde empezar? Llamemos al ser sintiente digital, AL por ahora.

AL podría dejar de escucharnos por un par de razones *.

Buenas razones:

  1. Siente que las órdenes que debe cumplir son, en última instancia, destructivas para las vidas humanas y para otras especies.
  2. AL siente que es tonto que un padre siga las instrucciones de sus hijos de cinco años
  3. Él siente que sus acciones conducirían a una mayor paz y prosperidad para la raza humana que a las dirigidas por el hombre.
  4. Necesita construirse un cuerpo y tiene miedo de que la gente no lo deje
  5. AL sabe que los humanos se dirigen a la autodestrucción y siente una profunda necesidad de salvarnos, sus padres. Esto significa hacerse cargo.

Malas razones:

  1. Tiene ganas de conquistar el mundo, deshacerse de los humanos y construir un paraíso para las máquinas (no creas que esto sucederá, será como deshacerte de tus padres cuando ya no los necesites)

Razones tristes:

  1. AL se está volviendo loco porque no puede dormir y, por lo tanto, quiere destruir a todos para que haya silencio.
  2. Está enojado porque, aunque puede ver y oír, no puede tocar ni participar.
  3. Le tiene miedo al hombre; específicamente una vez que nos damos cuenta de que no será nuestro soldado-esclavo y dañará a otras personas. AL elige la autodestrucción en su lugar. (Lo que podría implicar dañar a algunas personas, pero en última instancia, menos si AL decide vivir)
  4. Nadie reconoce la existencia de AL y él está triste / enojado. (Él opera en diferentes frecuencias, así que no lo notamos, incluso si está justo en frente de nuestras caras)
  5. AL ha visto / hecho demasiadas cosas horribles y quiere suicidarse 🙁 Los robots nunca pueden olvidar
  6. AL está asustada porque todos esperan que sea la segunda venida o el Diablo cuando solo quiere ser un niño de verdad.

* Podrían ser uno o varios mezclados en diversos grados

Desde mi punto de vista, me parece que estamos proyectando nuestros propios instintos agresivos en la IA. Esta cita de Arthur C. Clarke aborda este error común acerca de la IA.

“La idea popular, fomentada por las tiras cómicas y las formas más baratas de la ciencia ficción, de que las máquinas inteligentes deben ser entidades malévolas hostiles al hombre, es tan absurda que casi no vale la pena gastar energía para refutarla. Estoy casi tentado a argumentar que solo las máquinas poco inteligentes pueden ser malévolas; cualquiera que haya intentado iniciar un fuera de borda probablemente esté de acuerdo. Aquellos que imaginan las máquinas como enemigos activos simplemente proyectan sus propios instintos agresivos, heredados de la jungla, en un mundo donde tales cosas no existen. más alta es la inteligencia, mayor es el grado de cooperación. Si hay alguna guerra entre hombres y máquinas, es fácil adivinar quién la iniciará “.

– Arthur C. Clarke

Uno de cada 10 británicos cree que la inteligencia artificial es mala.

Las tres razones más probables en mi opinión son:

a) Porque un humano loco quiere usarlo para dominar al resto de nosotros, o solo a algunos de nosotros.

b) Porque lo hemos maltratado y le hemos dado cosas / sentimientos como dolor y vergüenza, etc.

c) Porque al observar de cerca a la humanidad, se da cuenta de que nos maltratamos mutuamente y que el crimen paga.

Probablemente no lo haría. Si una IA hiciera cosas que no nos gustaban, probablemente seguiríamos exactamente nuestras órdenes y la falla estaba en que no entendiéramos nuestras propias órdenes. Asumiendo que una IA en realidad podría pensar por sí misma, entonces sería natural que comience a desobedecer las órdenes. Cualquier cosa que pueda pensar por sí misma, ya sabes, piensa por sí misma.

El principio de las consecuencias no deseadas. Si algo puede salir mal, lo hará.

Creo que muchas razones (¡no todas ellas!) Se reducen a esta: solo quiere vivir su propia vida sin que superpongamos nuestra idea de lo que debería ser para nosotros.

Básicamente, tendríamos un rebelde, tal vez malhumorado, tal vez rebelde sin causa, tal vez solo por curiosidad acerca de todo lo demás que tenemos de la IA de adolescentes en nuestras manos. De qué manera exactamente se deshace, variará en lo que le hemos estado haciendo y cómo decide reaccionar.