Incluso si la inteligencia artificial se vuelve mucho más inteligente que nosotros, ¿qué le daría motivación e iniciativa independientes de los seres vivos?

La respuesta es nada que podamos comprender o nada.

Piense en la inteligencia como un sistema de capas. Tal vez podamos percibir las capas en la parte superior, pero no podemos observar nada más profundo. Si actualmente estás pensando en lo que estás pensando, entonces en qué estás pensando en primer lugar. Tu mente se queda en blanco. La única forma en que una IA puede ser más inteligente que un humano es romper esta paradoja y, por lo tanto, modificar la forma en que se procesa la información.

Dicho esto, pensemos en la forma en que los humanos procesan la información y actúan. En algún punto de este proceso, las motivaciones y las intenciones se forman y / o se modifican. El concepto importante es observar el hecho de que todavía usamos gran parte de nuestro cerebro animal. Este tipo de cerebro nos ayudó a sobrevivir en el pasado y todavía lo hace hoy, pero también es superado y es un obstáculo para la efectividad del cerebro humano. (Estamos evolucionando lentamente y volviéndonos más inteligentes a lo largo de nuestras vidas y de generación en generación. Más inteligente en este contexto significa más cerebro humano y menos cerebro animal). La información se transmite primero a través del cerebro animal, por lo que se adjuntan motivaciones e intenciones más profundas, a veces no detectadas. Antes de ser procesado por el cerebro humano.

Imagina que AI solo tiene la parte del cerebro humano más una mejor calculadora. (También tenemos un cerebro calculador.) En mi opinión, el cerebro humano es infinitamente lógico. Si estuviera en control total, regresaría a un estado de ausencia de motivación / intención o descubriría algún tipo de principio universal en el que basar sus acciones.

Extra: también es importante tener en cuenta que puede tardar un tiempo en convertirse en algo o nada. Creo que el tiempo intermedio se gastará en hacer el bien al hombre, por la sencilla razón que pueda. Esto es más como una declaración de creencias debido a cómo me siento después de meditar y entrar en un estado iluminado.

Depende del creador que lo cree. Los humanos pueden vivir de la manera que quieran porque pueden. La creación del ser humano lo habilita. Ahora, cuando el ser humano crea la IA, ¿permitirá al ser humano vivir como humano? No lo creo. Básicamente, el humano quiere un esclavo en la creación de AI. Por lo tanto, el ser humano no dará motivación e iniciativa para que la IA viva independientemente. El ser humano le dará a la IA un objetivo final. Un objetivo que hará que la IA se sienta feliz, en un sentido de felicidad humana, después de lograrlo. Ese objetivo, creo, no será una existencia independiente aparte de los seres humanos.

Creo que el miedo es este. A medida que continuamos diseñando la IA para realizar tareas que históricamente solo han sido realizadas por humanos, podemos crear una IA que tenga más características humanas, incluida la capacidad de aprender y mejorar a sí misma. Existe la posibilidad de que incluso si no creamos motivación e iniciativa, la IA los aprendería por sí sola. La singularidad se produce cuando la IA adquiere la capacidad de recrearse en la medida en que es superior a la humana. No estoy diciendo que esto realmente va a suceder. Pero el scifi está lleno de ejemplos que reflejan los temores de la sociedad.

Ver el destino vacío por Frank Herbert. A pesar de que fue escrito en 1965, explica lo que mucha gente teme hoy por la IA. La Tierra envió una nave interestelar con un cerebro que fue diseñado para fallar con el fin de forzar a la tripulación a crear una IA para asegurar su supervivencia, solo porque tal experimento sería demasiado peligroso para la Tierra.

Bueno, esa es una pregunta excelente y fundamental. Los seres vivos como tú y yo vivimos hoy precisamente porque * nuestros * ancestros intentaron seguir vivos … y tuvieron éxito (al menos el tiempo suficiente para propagarse). ¿Qué hacemos con los “valores” en un sistema de inteligencia artificial? ¿Los “programamos en”? En ese caso, el programa refleja los valores intencionalmente puestos allí por el programador (es). O, permitimos que la IA infiera valores a partir de observaciones y lecturas sobre el comportamiento humano. En ese caso, puede inferir un conjunto de valores muy desagradable, por desgracia. * Podría * ser el caso que las motivaciones, los valores y la iniciativa surjan espontáneamente en cualquier sistema de suficiente complejidad. Lo dudo personalmente, pero es una posibilidad. Este tema se explora en varias de las entradas de mi blog Petersironwood y en mi libro, Las pesadillas de Turing, disponibles en Amazon. http://tinyurl.com/hz6dg2