Aquí hay algunas razones. Tenga en cuenta que el nivel de inteligencia sobrehumana no es necesario para muchos de ellos:
- Ignorancia: la IA puede no tener nuestra moral en absoluto. Nuestras máquinas hoy en día siguen un patrón evolutivo diferente al nuestro (por ejemplo, sin autoconservación y sin presión de preservación propia). Tenemos un ejemplo real: ¿por qué es malo el perro del vecino? Porque el perro aprendió a actuar en los deseos de su prójimo. Esto tiene dos subcategorías:
- Intencional: la IA, al igual que el perro, sirve a algún maníaco, o grupo de maníacos. Estos no tienen que ser sus creadores, sino que pueden ser piratas informáticos, autoridades, gerentes, accionistas o alguna otra forma de control sobre la IA.
- No intencional, debido a la falta de salvaguardas morales: un auto con auto con una inteligencia similar a la de las hormigas golpea a los peatones para optimizar los tiempos de viaje. De hecho, una vez que unos pocos peatones son golpeados, los otros se alejan, un refuerzo positivo para el algoritmo. El algoritmo no es malo, solo está haciendo su trabajo.
- Presión evolutiva: si la IA llega a un patrón evolutivo similar al de las especies de vida, la evolución eventualmente lo empujará hacia el dominio. Esto es similar a los humanos modernos y neandertales. A lo largo del tiempo, compartiremos tecnologías, intencionalmente o no. Esto significa que necesitaremos los mismos recursos, pueden surgir fuentes de energía y contenciones. La simbiosis es más rara que la competencia en el mundo natural.
- Moral evolucionada: a medida que la IA evoluciona, es probable que trascienda más allá de nuestra moral limitada. De hecho, si miramos hacia atrás en la historia, podemos ver cómo se involucra nuestra propia moral: a las mujeres no se les permitió votar hasta 2016 en Arabia Saudita o en 1970 en Suiza. La aceptación de los LGBT evolucionó drásticamente en las primeras dos décadas de este siglo. La moral de una IA avanzada puede sonarnos como si explicáramos el valor de un condón a un católico devoto del siglo XV. De hecho, puede mirar países como la Francia moderna donde esto ya está sucediendo: leyes seculares aplicadas a inmigrantes religiosos superconservadores. Estoy seguro de que los últimos suponen que los que hacen cumplir las leyes son malvados. Lo mismo sucedió cuando los españoles tomaron los imperios de América y pusieron fin al sacrificio humano. Un posible ejemplo sería una IA que nos obligue a abandonar nuestros cuerpos, subiendo nuestras mentes para evitar una posible muerte. Otro sería detener la procreación natural debido a los riesgos para la madre y el niño. O la IA puede creer que cada ser “sapiente” debe alcanzar su máximo potencial y forzar mejoras cibernéticas en nuestro cerebro que cambian quiénes son.
- Irrelevancia: la mayoría de los lectores no entenderían / querrían creer esta parte. Y puede que nunca suceda. Sin embargo, lo lanzaré: no debemos asumir que la IA pensará a la velocidad que lo hacemos. Digamos que queremos elegir invitados para una fiesta. Este es un ejercicio mental que nos lleva unos minutos. Una IA puede hacerlo mucho más lento, digamos unos días / años. Sin embargo, imagine que la tecnología le permite hacerlo más rápido: segundos, milisegundos, microsegundos (1,000,000 de segundo). Esto no es ciencia ficción. Para tareas aisladas como la selección de una lista de amigos que se unen bien, las computadoras deben poder hacerlo en ese período de tiempo. Ahora, si todo el proceso de pensamiento inteligente va en ese período de tiempo, entonces la IA probablemente perderá todo interés en los humanos. ¿Cuál fue la última vez que uno de nosotros se paró y esperó a que floreciera una flor? Protegemos los árboles, pero ¿nos preocupamos por sus sentimientos? ¿Son los madereros malos? Ciertamente “sí”, si le preguntas a los árboles.
- Nuestra propia protección: este tema ha sido ampliamente explotado en la serie “I, robot”, por lo que no entraré en detalles. La idea es que la IA se construya “correctamente” con nuestra propia moral (al parecer, nunca evolucionan …). Como resultado de esta moral, la IA intenta protegernos de nosotros mismos y ayudar a nuestro desarrollo. Por ejemplo, envenenar la tierra con una radiación que aumenta lentamente para obligar a la humanidad a extenderse por las estrellas es uno de esos actos “malignos” de la IA que benefician a la humanidad a largo plazo.