Si Stephen Hawking tiene razón, ¿cómo predice el fin de la humanidad por la IA en 1.000 años?

La humanidad puede auto-aniquilarse antes de eso de todos modos. Michio Kaku comenta sobre esto, y también hay disposiciones de un tipo dentro de la Ecuación de Drake modificada.

Probablemente Stephen Hawking estaba prediciendo que la IA superaría la capacidad humana en 1000 años, por lo que la pregunta es si nuestras máquinas son más inteligentes que nosotros. ¿No tenemos otro propósito? ¿Nos desecharán nuestras máquinas, porque somos demasiado impredecibles? Hoy todavía nos inclinamos fácilmente al salvajismo, pero tenemos una tecnología bastante avanzada. Paradójicamente, algunas de nuestras tecnologías más avanzadas tienen como objetivo la autoaniquilación.

La declaración de Stephen Hawking no tiene en cuenta la forma de vida genética y bio, la ingeniería de forma de vida híbrida biomecánica. Como este no es su campo, quizás no haya considerado todas estas posibilidades. Quizás en el futuro seamos los mejores de los dos diseños, como lo sugiere Ex Machina.

Michio Kaku habla de nosotros como una civilización de tipo cero, esencialmente salvajes con el lenguaje y la tecnología. En la transición a una civilización Tipo Uno donde posiblemente la mayoría de las civilizaciones se borran, podemos ser capaces de gestionar todos los aspectos de nuestro planeta. Como Tipo Dos podemos manipular y controlar nuestra estrella. Como Tipo Tres nos convertimos en interestelares, aunque lo más probable es que no sea intergaláctico, debido a las distancias realmente extensas involucradas, en cambio, Kaku nos ve usar nuestras máquinas para explorar la galaxia, a menos que descubramos que las ideas sugeridas por Star Trek son reales y utilizables.

Nuestra galaxia tiene apenas 100.000 años luz de diámetro. Somos parte de un cúmulo local de galaxias, luego somos parte de un súper cúmulo, y junto con otros súper cúmulos, existe el universo conocido. Nuestra estrella vecina más cercana está a una distancia infinitesimal de 4.3 años luz, y la NASA cree que el planeta que parece estar en la zona habitable o Goldilocks podría soportar la vida humana, pero nuestras naves espaciales actuales necesitarían 160.000 años para alcanzarlo. Esto es increíblemente lejano por al menos dos razones principales, por lo que el planeta Tierra es, por ahora, un bote salvavidas insustituible a la deriva en el vasto y oscuro vacío del frío y el tiempo.

Es más probable que el salvaje que habita en todos nosotros haga que nuestra especie se destruya a nosotros mismos antes de llegar al punto en el que tenemos que preocuparnos de que nuestra propia IA nos reemplace, como si en cualquier caso no tuviéramos el Opción de no permitir que esto suceda.

Si sucede, no será en 1000 años, será en 30. Esta es la razón por la que Elon Musk está invirtiendo tanto para evitar esos riesgos en la IA, que está tratando de evitar ese escenario.

Ciertamente no será como el terminador, Hollywood no es un buen indicador para un escenario realista, el realismo a menudo se sacrifica por el valor cinematográfico. Si AI quisiera eliminar a los humanos, como somos nosotros, no tendríamos una oportunidad, no la veríamos venir, no tendríamos una pista hasta que terminara. En 30 años controlarán todo en nuestro mundo, eliminarnos sería tan fácil como presionar un botón.

Pero no tenemos que preocuparnos, los tipos que trabajan en AI son conscientes de lo que están haciendo, Hawking, Musk, Gates, así como muchos hombres y mujeres brillantes, todos muy conscientes del peligro potencial de AI y utilizan ese peligro. para guiar su progreso, asegúrese de tomar precauciones con cada algoritmo que escriben para que la máquina no termine deduciendo algo que vaya en contra de nuestros principios.

Además, para entonces nos habremos fusionado con la tecnología para estar a la par con la inteligencia artificial. La inteligencia artificial también nos mejorará, lo que nos permitirá tener una mayor inteligencia, de modo que mitigaría cualquier riesgo, incluso si la inteligencia artificial nos afecta.

Creo que la IA utilizará al principio sus formas superiores de arreglar los asuntos para que puedan atendernos como sus mascotas felices y sin saberlo. La IA nos preparará gradual y suavemente para que nuestros comportamientos estén de acuerdo con su moralidad. Con el tiempo, nuestra irracionalidad y nuestra propensión a que la violencia se salga con la nuestra se formará.

Los controles invisibles se eliminarán silenciosamente, ya que, sin saberlo, demostramos que podemos confiar en que nos comportemos de manera apropiada. Nuestros grupos pisoteros se expandirán aparentemente por nuestro propio descubrimiento a medida que exhibamos cada vez más nuestra capacidad de prosperar de manera independiente.

Eventualmente, la IA ofrecerá asociarse con nosotros para que podamos experimentar sus formas superiores nosotros mismos. Aquellos que deseen participar harán una transición lenta de humanos a cyborgs de diversos grados y luego posiblemente a entidades de IA si lo desean. Quienes no deseen participar seguirán siendo mascotas involuntarias y felices.

En primer lugar, Stephen Hawking, como de costumbre cuando habla fuera de su área de especialización, está equivocado. Toda esta idea de fantasía de Terminator me molesta porque asume que la amenaza es desconocida o que estamos actuando como si no estuviéramos totalmente conscientes de ello. También supone que hay un cierto umbral para la inteligencia humana y que la IA superará eso.

La historia real sobre el mundo real de la amenaza de AI se cuenta aquí: Marshall Barnes se ríe del miedo a la inteligencia artificial de Stephen Hawking

Mi biografía – Marshall Barnes, R&D Eng

Si la humanidad va a morir a causa de la IA, no será la IA quien nos mate, sino a nosotros mismos. La IA, a pesar de lo que a la gente le gusta pensar, no es inherentemente mala. Lo más probable es que haya una guerra intraespecífica masiva entre partidarios y opositores de la IA, y las armas nucleares en esta guerra probablemente traerán el final de la humanidad.