Dado que las computadoras son sistemas de símbolos físicos que operan de manera puramente sintáctica, ¿cómo puede diseñarse una computadora (o programa) para que funcione de manera semántica?

Sospecho que Searle llegó a lamentar la forma en que su experimento mental ha adquirido vida propia como una especie de prueba para la existencia (o definibilidad) de la conciencia. A pesar de eso, ha llevado a muchos debates y desafíos útiles en algunas aguas filosóficas algo turbias.

Consideremos algunos de los “dados”, y hagamos una copia de seguridad y verifiquemos el supuesto. En realidad, no se trata de diseñar computadoras, se trata de preguntas sobre la filosofía de la mente que creemos que podrían definir y limitar en última instancia ese esfuerzo. La línea de razonamiento que se ejecuta a lo largo de la discusión a menudo involucra una cadena de suposiciones basadas en términos definidos de manera sencilla e intuitiva, algo como lo siguiente:

La semántica tiene algo que ver con el significado. El significado tiene algo que ver con la comprensión. La comprensión tiene algo que ver con la mente. La mente tiene algo que ver con el pensamiento. Pensar tiene algo que ver con la cognición. La cognición tiene algo que ver con la manipulación de símbolos. Manipular símbolos tiene algo que ver con la sintaxis …

Las computadoras pueden hacer eso … ¿entonces pueden hacer semántica? Y si pueden … retroceder un poco … la mente tiene algo que ver con la conciencia, ¿sí? Demos un salto salvaje y preguntemos … ¿podrían las computadoras “hacer conciencia”?

Depende de lo que asumamos significa “semántica”. La semántica puede definirse en términos puramente formales, pero luego es independiente del significado humano. Por otro lado, si la semántica se define para abarcar el significado humano, entonces da cuenta de cosas que no se capturan o incorporan fácilmente en los sistemas de representación. Consideremos la segunda noción.

Preguntar si la comprensión (semántica) puede surgir de la forma (sintaxis) o convertirse en una forma (sintaxis) es partir de la idea filosófica dualista de que la mente y el cuerpo son mundos diferentes, y luego descifrar cómo cerrar la brecha. La baraja está apilada contra ti, para empezar, por la metafísica.

Pensando a través del representacionalismo

¿La mente y el significado requieren “representación”? Una idea antigua, que ahora suena primitiva, a veces llamada “magia”, fue la noción de que nombrar algo le dio un poder sobre ella. Hay más que un fantasma de esta idea en las teorías modernas del lenguaje como sistema de símbolos. El auge de las computadoras y el computacionalismo en realidad ha incrementado esta noción, ya que uno puede programar computadoras usando representaciones simbólicas, y luego las computadoras “hacen algo” en el mundo. La idea no es necesariamente errónea, pero no debe tomarse como una metafísica.

¿Puede una computadora ser diseñada para operar semánticamente? “Semántica” es una noción vaga: se refiere a la necesidad de explicar, de alguna manera, los contextos no representados que rodean a una representación. Se supone que existen, no solo en el sistema formal de símbolos, sino en el mundo. ¿Dónde trazas la línea y cuánto es suficiente? Implica, potencialmente, la extensión total de lo que se correlaciona con la representación … ¡posiblemente el universo mismo!

Si consideramos la semántica como comprensión, ¿es necesario que la “mente” esté presente “en el sistema” para tener comprensión, y si es así, cómo puede ser eso y dónde entra la “mente”? ¿Cuánta representación, o simulación se necesita? ¿Cuál es la diferencia entre simular una mente y tener una mente? ¿Y qué tan esenciales son los sistemas de símbolos a la mente? Esto se convierte en la pregunta “qué tan complejo debe ser un sistema antes de que pueda ser consciente”.

Pero el experimento mental de la sala china ya tiene más de tres décadas y durante ese tiempo se ha avanzado hacia teorías de cognición alternativas, como la cognición encarnada, con una convergencia creciente de los relatos de Filosofía de la mente y neurociencia. Puede fundirse en el futuro paradigma dominante, con la mayor parte de este debate olvidado.

Semántica con cognición encarnada

El enfoque de la cognición encarnada sugiere algunas formas alternativas de pensar acerca de estas preguntas. Mi punto de vista de esto corre a lo largo de las siguientes líneas:

  • La separación de sintaxis y semántica es una idea lingüística que es filosóficamente incoherente y no es una buena combinación para lo que se puede ubicar empíricamente.
  • Comprensión (y mente) es una palabra para la perspectiva subjetiva (experiencial) de los procesos “físicos” dinámicos realizados por el cerebro a medida que responde y se rastrea a sí mismo, a su entorno y al resto del mundo (con grados crecientes de indirectidad) .
  • Las “representaciones” dentro del cerebro son procesos físicos dinámicos que combinan el punto de vista, la percepción y la acción dentro de estructuras integradas.
  • Las “representaciones” dentro de los sistemas informáticos son estructuras físicas dinámicas y procesos que los humanos correlacionan con sus propias representaciones, por convención. En general, son mucho más simples que sus correlatos humanos, más predecibles y más definibles formalmente.
  • Las representaciones no tienen significado intrínseco. Su significado está en su uso, su efecto, su correlación con otros aspectos de la realidad. Esta capacidad de correlacionar no es una propiedad de la representación en sí, sino de su host y contexto.
  • Esta teoría no toma una posición a favor o en contra de la conciencia de la máquina. Si se definiera que una máquina es consciente, tendría “su propio” significado y semántica, análoga pero diferente a la de los humanos.
  • Lo que significa diseñar una máquina para operar semánticamente, en este momento en el avance de la tecnología, es diseñarla para rastrear las complejidades del significado humano de la manera más precisa y predecible posible. (Piensa, haciendo un buen trabajo de pasar la prueba de Turing).
  • En el futuro, si la conciencia de la máquina se establece como un paradigma, ese diseño semántico podría incluir ser “significativo” dentro del sistema de conciencia de la máquina.
  • La “semántica” de varios sistemas, humanos o mecánicos, está correlacionada por su acuerdo entre sí y con el “mundo real”. Esta es una base realista para la intersubjetividad.

Cognición encarnada

  • Una breve guía para la cognición encarnada: por qué no eres tu cerebro
  • Mentes directivas: cómo la dinámica da forma a la cognición.
  • En la raíz de la cognición encarnada: la ciencia cognitiva se encuentra con la neurofisiología
  • El teorema del perro perezoso

No puede responder a esta pregunta a menos que defina rigurosamente el término “semáticamente”. Y una vez que lo definas, la respuesta será obvia.

En el experimento mental de Searle, los resultados de la Sala China son indistinguibles de los resultados esperados de un humano de habla china. Sin embargo, Searle afirma que los humanos operan semánticamente, pero la Sala China no.

Por lo tanto, operar semánticamente no tiene efecto en la salida.

Pero si no hay ningún efecto en la salida, ¿cómo puede Searle diferenciar? Hace un llamamiento a la intuición y dice: “Intuitivamente puedo decir que la Sala China NO está operando semánticamente mientras que los humanos lo están”.

Por lo tanto, la definición de Searle de “operar semánticamente” es “lo que Searle diga que es”.

Según esa definición, las computadoras operarán semánticamente cuando Searle cree que están operando semánticamente. Por eso creo que la idea de la Sala China es, filosóficamente, inútil.

Elija una definición diferente y obtendrá una respuesta diferente.

Por ejemplo, puede definir “operar semánticamente” en términos de entradas y salidas. Las salidas de, por ejemplo, Siri, son distinguibles de las salidas de un ser humano. Si pudiéramos, de manera algorítmica, definir las diferencias, entonces podríamos programar fácilmente una computadora para generar las mismas salidas que un ser humano.

Tantas respuestas largas. Tl; dr: la conciencia humana en general es una habitación china. No sabemos por qué nuestros pensamientos son nuestros pensamientos, fuera de la causalidad física. Estamos a lo largo del paseo …