Eventualmente, ¿deberían las máquinas ser más inteligentes que los humanos o lo contrario?

El problema con todo este problema es la definición de inteligencia. La inteligencia, al menos, la inteligencia humana, es extremadamente difícil de cuantificar. La cognición proporciona algunas variables, que son difíciles de definir a través de términos estándar. Si está hablando de poder analítico y computacional, las computadoras nos han superado. Si estás hablando de tareas muy específicas (como jugar al ajedrez), se han creado algunas computadoras que pueden vencer a cualquier jugador de ajedrez humano. Sin embargo, algunas facetas de la inteligencia no se pueden replicar en las máquinas en este momento, principalmente debido a nuestra falta de comprensión de esos procesos en el cerebro humano. En este punto, para mí, es una mala idea juzgar la eficiencia de la máquina en términos de inteligencia “humana”. Sin embargo, si logra cuantificar y modelar completamente la máquina humana (lo que requeriría conocer una gran cantidad de factores), podríamos, en teoría, replicar eso. Pero, ni siquiera estamos cerca de eso en este momento.

No tengo dudas de que crearemos máquinas que nos superen. De alguna manera ya tenemos. Quiero decir … He escrito programas de aprendizaje que de alguna manera son más inteligentes que yo … y ciertamente puedo decir que si bien entiendo cómo los hice capaces de aprender, no entiendo todo lo que sucede dentro de ellos.

Esperemos que todavía le demos a las máquinas el objetivo de servir los intereses de los humanos. Soy relativamente optimista en ese sentido.