Si la IA comienza a usar procesadores cuánticos, ¿será capaz de sentir?

La respuesta a esta pregunta depende de varios factores. En lo que respecta a la computación cuántica y la inteligencia artificial, están estrictamente no relacionados entre sí.

El objetivo de la IA es imitar la funcionalidad del cerebro humano en la medida en que debería ser prácticamente indistinguible de la inteligencia humana.

La computación cuántica, por otro lado, está relacionada con el uso de la mecánica cuántica para desarrollar sistemas que obedecen las reglas de la mecánica cuántica y computa increíblemente más rápido que los sistemas actuales. Usándolos, deberíamos poder resolver e implementar algoritmos que son mucho más complejos computacionalmente. También hay posibilidades de desarrollar una nueva clase de algoritmos y formas y notaciones completamente nuevas para definir su complejidad computacional.

Sin embargo, incluso si no están relacionados entre sí, la computación cuántica puede ayudar en el avance de la IA. Otros ya han dado respuestas provocadoras aquí. Y es cierto que antes de que permitamos que los sistemas de AI “sientan” algo, primero debemos entender lo que básicamente significa “sentir”. Debemos tener una definición matemática consistente y formas de clasificación de “sentimientos”. No es suficiente afirmar que el sentimiento es la reacción de la IA a la entrada sensorial externa. Los sentimientos y la conciencia son propiedades emergentes de la inteligencia que debemos comprender y actualmente también es el foco principal de la investigación en el procesamiento de información neuronal y la computación neuromórfica. Necesitamos mejores modelos de estas propiedades emergentes.

Si los modelos de estas propiedades emergentes se pueden describir matemáticamente con algoritmos que se pueden resolver en un tiempo razonable con la tecnología de computación actual, no tendremos que esperar a que la computación cuántica vea cómo se sienten y emoten los sistemas de inteligencia artificial. Pero si estos modelos finalmente se describen utilizando algoritmos que no se pueden resolver en un tiempo razonable con la tecnología de computación actual, ¡entonces necesitaríamos computación cuántica para resolverlos!

También es posible que para el momento en que realmente entendamos y desarrollemos modelos de sentimientos y emociones en la IA, la tecnología de computación cuántica esté disponible, por lo que tal vez podamos usar ambos juntos para iniciar la era de la IA con los sentimientos y las emociones.

Las posibilidades en el futuro son ilimitadas, siempre y cuando no nos limitemos en creatividad y pensamiento.

Las computadoras cuánticas no son una panacea mágica, y en muchos lugares las computadoras normales serán necesarias.

Ahora, para mis opiniones con respecto a la IA.

Primero, es mi opinión que necesitamos descubrir cómo “estructurar” la inteligencia. Hay problemas teóricos que requieren soluciones satisfactorias particularmente con lógica. No tenemos un sistema formal útil que sea capaz de representar la ambigüedad del lenguaje natural y el razonamiento humano. Necesitamos resolver esto y averiguar cómo estructurar los “datos” de manera interconectada, y así sucesivamente. Simplemente conectar computadoras poderosas no hace nada.

En segundo lugar, creo que “fingirlo” y hacerlo en un nivel por debajo del control directo de la IA (más o menos, también estamos conectados), será necesario para que una AI “verdadera” funcione. La razón es bastante simple. Para tareas concretas y específicas, puede determinar de antemano cuál es el resultado preferido y algunas veces (por ejemplo, el ajedrez) incluso calcular. Esto le da una forma de evaluar sus acciones, porque luego las juzga de acuerdo a lo “bueno” que el resultado es predeciblemente. Sin embargo, para una IA genérica este enfoque no es práctico. Por lo tanto, necesita una forma genérica de establecer preferencias para los resultados, una que funcione con información muy incompleta. Creo que esto solo lo puedes hacer emulando instintos básicos y “fingiendo” la emoción.

Para resumir, ¿por qué emprender cualquier actividad sin instintos y sentimientos que lo impulsen? No creo que la inteligencia general sin emoción realmente funcione y creo que lo mismo se aplicará a la “verdadera IA”.

Dicho esto, estos pensamientos son todos mis especulaciones.

Como señala Jan Soloven, ya hemos creado una máquina que tiene el equivalente de sentimientos. Pero usemos un término más riguroso: conciencia. El filósofo John Wilkins (el australiano, no el británico) sostiene que la conciencia requiere experiencia (información sensorial), un modelo de esa experiencia y modelos de esos modelos. Según esta definición, parte del software de control robótico que he escrito tiene un nivel mínimo de conciencia. Y las técnicas de programación que utilicé no tienen nada que ver con la “inteligencia artificial”.

Los seres humanos tienen una arrogancia peculiar cuando se trata de “sentir”. Puede manipular una célula nerviosa de una medusa a una fibra muscular de un calamar y hacer que el músculo se contraiga cuando el nervio está agitado. ¿Esto es miedo? La medusa no tiene cerebro, no tiene lugar para experimentar miedo. La reacción es estrictamente mecánica y podemos obtener la misma reacción si reemplazamos la fibra nerviosa con estimulación electrónica. Podemos hacer lo mismo con tu cerebro. Estimula electrónicamente ciertas células y te hace temblar de miedo. ¿Eso te convierte en un “animal superior”? Sin embargo, varias plantas reaccionan a la estimulación; retroceden y retroceden, pero la mayoría de los humanos dicen “bueno, eso es solo una planta”.

Claro, podemos conectar sensores en una máquina hoy que estimulará las campanas y los silbatos y los actuadores que lo harán “temblar de miedo”. Agregue algunos procesadores cuánticos y solo será más rápido. ¿Eso es miedo? Sólo si estás dispuesto a llamarlo así.

La planta retrocede en “miedo” cuando se toca:

El “perro” robótico de Boston Dynamics reaccionando a ser pateado:

No. O, al menos, agregar procesadores cuánticos no es suficiente para sentir.

Creo que debería ser posible (al menos en principio) hacer una IA que se sienta de la misma manera que lo hacemos nosotros, pero esto es más sobre cómo esa AI procesa la información y no sobre los detalles particulares de la implementación de cómo nos damos cuenta. ese patrón de procesamiento de información.

El procesamiento cuántico puede resultar necesario para procesar la información de la manera correcta y dentro de las limitaciones de memoria alcanzables y en un tiempo factible (aunque no estoy tan seguro de eso), pero ciertamente no será suficiente.