¿El experimento mental de John Searle Chinese Room refuta la posibilidad de que una computadora digital se vuelva consciente?

Chinese Room Argument es un experimento mental diseñado para mostrar lo inapropiado de una forma de pensar acerca del pensamiento. Para los teóricos de la IA, el pensamiento humano, el pensamiento implica solo la manipulación de los símbolos de una manera gobernada (es decir, con algoritmos). Dado que las computadoras comparten esta propiedad con humanos, también se puede decir que las computadoras piensan o quizás porque el pensamiento no implica nada más que la manipulación de símbolos, el pensamiento humano no puede ser diferente de las computadoras a este respecto.

Searle imagina a un hombre en una habitación (como la CPU de una computadora), donde se le dan los símbolos en chino (un idioma que no entiende) como entradas y donde, según un conjunto de reglas anteriores en un manual, tiene que pasar símbolos fuera como salidas. Desde el punto de vista de una tercera persona, al hombre se le puede atribuir la comprensión del chino, pero de hecho carece de tal comprensión. Entonces, la manipulación de los símbolos puede ser necesaria pero no una condición suficiente para la comprensión.

Convenientemente ignorado, algunos teóricos reconocen el problema aquí. Se le ha llamado el problema de la conexión a tierra de símbolos. Stephen Harnad (un científico cognitivo) en su artículo de 1990, “El problema de conexión a tierra de símbolos”, dice: “¿Cómo puede el significado, a partir de las fichas de símbolos sin sentido, manipulado únicamente sobre la base de sus formas (arbitrarias), puede basarse en cualquier cosa? ¿Pero otros símbolos sin sentido? “Vincent Muller (Departamento de Ciencias Sociales, American College Of Thessaloniki):” La estructura de nuestro problema de conexión a tierra ahora se puede poner en términos de la Sala China: ¿Qué necesitaría el hombre en la sala para aprender? sobre el mundo exterior y, de este modo, adquirir símbolos significativos ”. Puede encontrar una discusión en 2014 Cognitive Science: An Introduction (2ª Edición) de Jose Luis Bermudez

¿Cómo se relaciona esto con la conciencia? Por sí solo, el argumento de la sala china no tiene una relación directa con el tema de la conciencia, pero todavía hay conexiones importantes. En su Redescubrimiento de la mente, Searle discute en detalle la opinión de que existe un profundo inconsciente que controla el comportamiento humano de una manera prevista por la ciencia cognitiva. Desde esta perspectiva, los estados mentales que son la causa del comportamiento humano y los procesos mentales son esencialmente inconscientes (en la visión HOT / HOP, un estado mental dirigido hacia un estado mental presente permite que este último sea consciente, pero la conciencia es extrínseca a él, lo mismo vale para otros). Teorias naturalistas de la conciencia). Los procesos mentales son sistemas de procesamiento de información, donde la información no necesita estar codificada en ningún formato que los seres humanos entiendan, esta información se manipula de una manera gobernada por reglas para producir un comportamiento.

Esto ataca la imagen del sentido común donde el comportamiento intencional (comportamiento dirigido hacia el objetivo) es causado por estados conscientes accesibles a los seres humanos, al menos en principio. Para Searle, esto es ignorar que la intencionalidad es una característica esencial de la conciencia, mientras que en otros casos como el lenguaje, la intencionalidad se deriva. No hay inconsciente como tal, porque no hay un compartimento de la mente que no esté esencialmente desprovisto de conciencia e inaccesible. El comportamiento humano surge de la conciencia, ya que es racional y está generado por estados intencionales dirigidos hacia el mundo. La intencionalidad pertenece a estados que son conscientes, no inconscientes.

Considere, por ejemplo, la acción de conducir un automóvil mientras su pensamiento está absorto en resolver un problema filosófico. A pesar de tanta preocupación, maneja el automóvil como de costumbre, incluso cuando no se puede decir que esté completamente consciente de lo que está haciendo. Pero tampoco puede decirse que estás inconsciente todo el tiempo, como en el sueño o en el letargo. Pero si equiparamos la conciencia con la atención, esta es la visión que deben tomar. En un modelo de conciencia más husserliano, tiene una extensión temporal a través de la retención de la presente protección inmediata, tal comprensión de la conciencia no se equipara a la atención. Y podemos decir que en el caso de conducir un automóvil, el hombre estuvo consciente todo el tiempo a pesar de no estar atento. No hay un inconsciente profundo que sea la causa del comportamiento humano, sino que las fuentes de acción son estados mentales conscientes. Si es cierto o no al menos, tal visión es digna de consideración.

Sin embargo, el éxito de tal visión de la conciencia no depende del argumento de la sala china, que es más bien un desafío para la visión de AI; Hay algo que no explican. En este sentido, el argumento de la sala china es un éxito. Las personas que lo ignoran tienen prejuicios contra la filosofía como tal o ideológicamente motivados para ser irracionales en nombre de la racionalidad y exhibir su modernidad.

Depende de cómo se define “computadora digital” y “conciencia”. Si define “conciencia” como el estado o aspecto de lo que se siente (por ejemplo, los organismos), de tal manera que se siente algo así (por ejemplo, un organismo), que, para una explicación adicional, comienza al despertar de un sueño sin sueños, termina de quedarse dormido y reaparece cuando está despierto o soñando; y define “computadora digital” como una máquina puramente sintáctica, donde la sintaxis es simplemente una cuestión de seguir reglas o instrucciones paso a paso como las de un programa de computadora, entonces Sí, la Sala China de Searle demuestra que las computadoras digitales no pueden consciente.

¿Por qué?

Debido a que una persona intercambia símbolos (él / ella claramente no entiende) por otros símbolos (él / ella claramente no entiende) a través de algunas reglas / procedimientos / pasos que pasan la prueba de Turing para algún observador diferente que ya entiende tales símbolos es Obviamente no es suficiente para que la persona comprenda tales símbolos. Todo esto es todo a pesar de tal regla de Turing-prueba-paso.

Podemos considerar que una persona así está siguiendo un libro de reglas externo (es decir, para ser parte de un sistema más grande que pasa la Prueba de Turing), o bien haber memorizado el libro de reglas (es decir, que es el sistema completo que pasa la Prueba de Turing). ). No hace ninguna diferencia. Seguir las reglas no es suficiente para comprender los símbolos que tales reglas usan / manipulan. Esto es lo que muestra la sala china.

Para la conciencia explícitamente, deberíamos vincular la comprensión (por ejemplo, del chino), con la conciencia (el estado de lo que se siente). Esto no parece ser un paso tan grande. Obviamente, si no entiendes el chino, entonces no lo entiendes conscientemente . Esto sería suficiente para demostrar que el seguimiento de reglas no es suficiente para el estado consciente relevante.

También podemos reflexionar sobre el absurdo que John Searle ha mencionado muchas veces (ver el video vinculado a continuación), si la conciencia es una mera cuestión de seguir una regla, entonces todo es consciente . Por ejemplo, mi botella de agua ahora está implementando la regla sintáctica de “quedarse”. Si la sintaxis es suficiente para la conciencia, entonces mi botella de agua es consciente de que se queda allí (o algo más). Pero eso es absurdo.

Ahora, si prefieres definir “computadora digital” como algo que implementa reglas, pero esto no es todo lo que hay en una computadora digital, entonces, por supuesto, el argumento de Searle no toca tal computadora digital. Solo pregunte: ¿cómo hace que una computadora sea consciente, dado que la sintaxis por sí sola no es suficiente? No sin razón, la respuesta de Searle es que necesitamos replicar los mecanismos causales del cerebro . Esto es porque los cerebros causan conciencia. Cuando la computadora digital hace esto, entonces es consciente. Por lo tanto, el proyecto de dar a las computadoras la conciencia (por qué queremos hacer esto actualmente está fuera de mi alcance) es descubrir cómo lo hace el cerebro.

El experimento mental de la Sala China de John Searle no es un argumento que muestre que todo lo que señalamos y que llamamos correctamente a una computadora digital no podría ser consciente, pero muestra que las computadoras digitales entendidas como simples cosas sintácticas, que siguen las reglas no pueden ( solo por eso) se consciente.

Vea la última charla de Searle en Google, donde explica en detalle su argumento de la Sala China y sus implicaciones (Spoiler: no hace mucha diferencia en el desarrollo de la IA, ya que estamos interesados ​​en hacer que la IA sea inteligente en relación con nuestra propia inteligencia, no intrínsecamente inteligente), entre muchas otras cosas relacionadas con la inteligencia artificial y la conciencia. También responde algunas buenas preguntas al final:

El experimento mental de Chinese Room solo demuestra que ningún dispositivo mecánico debe hacerse consciente para simular cualquier posible comportamiento mecánico. También hay otros experimentos de pensamiento relevantes que nos ayudan a comprender por qué las cualidades fenomenales no son parsimoniosas en ninguna explicación mecánica de la naturaleza, y por qué el emergentismo realmente depende de la conciencia y no puede aplicarse a la conciencia en sí. Cuando se aplica a la conciencia, la emergencia no puede ser otra cosa que la introducción ilegítima de efectos no físicos inexplicables en la física.

Argumento del molino de Leibniz

“Además, debe confesarse que la percepción, y la que depende de ella, son inexplicables por causas mecánicas, es decir, por figuras y movimientos, y, suponiendo que existiera un mecanismo tan construido como para pensar, sentir y tener percepción. , podríamos entrar en ella como en un molino. Y esto concedido, solo deberíamos encontrarlo al visitarlo, piezas que empujan unas contra otras, pero nunca nada para explicar una percepción. Esto debe buscarse, por lo tanto, en la sustancia simple, y no en el compuesto o en la máquina. “Gottfried Leibniz ‘, The Monadology (1714)

Argumento de David Chalmers contra el materialismo

  1. En nuestro mundo, hay experiencias conscientes.
  2. Existe un mundo lógicamente posible, físicamente idéntico al nuestro, en el que los hechos positivos sobre la conciencia en nuestro mundo no son válidos.
  3. Por lo tanto, los hechos sobre la conciencia son más hechos sobre nuestro mundo, más allá de los hechos físicos.
  4. Entonces el materialismo es falso.

– La mente consciente: en busca de una teoría fundamental, p.123 (1996)

Argumento del conocimiento de Frank Jackson

“Mary es una científica brillante que, por cualquier razón, se ve obligada a investigar el mundo desde una habitación en blanco y negro a través de un monitor de televisión en blanco y negro. Se especializa en neurofisiología de la visión y adquiere, supongamos, toda la información física. Hay que obtener información sobre lo que sucede cuando vemos tomates maduros, o el cielo, y usamos términos como ‘rojo’, ‘azul’, etc. Descubrirá, por ejemplo, qué combinaciones de longitud de onda del cielo estimulan la retina. , y exactamente cómo esto produce a través del sistema nervioso central la contracción de las cuerdas vocales y la expulsión de aire de los pulmones que resulta en el enunciado de la frase “El cielo es azul”. […] ¿Qué sucederá cuando Mary sea liberada de él? ¿En su habitación en blanco y negro o le dan un monitor de televisión en color? ¿Aprenderá algo o no?

El pantano de Donald Davidson

“Supongamos que Davidson va de excursión por el pantano y es golpeado y asesinado por un rayo. Al mismo tiempo, cerca del pantano, otro rayo reorganiza espontáneamente un grupo de moléculas de tal forma que, por casualidad, toman exactamente la misma forma. Que el cuerpo de Davidson tenía en el momento de su prematura muerte.

Este ser, a quien Davidson denomina “Swampman”, tiene, por supuesto, un cerebro que es estructuralmente idéntico al que Davidson, y por lo tanto, probablemente se comportará exactamente como lo habría hecho Davidson. Saldrá del pantano, regresará a la oficina de Davidson en Berkeley y escribirá los mismos ensayos que habría escrito; interactuará como una persona amistosa con todos los amigos y familiares de Davidson, y así sucesivamente “.

A lo largo de los 15 o más años que he estado inmerso en este tema y debatiendo con otros, comencé a notar algo peculiar sobre las respuestas de las personas a estos experimentos mentales. Parece que las respuestas de las personas tienden a caer en extremos. En una categoría, las personas entienden estos experimentos mentales de inmediato y están de acuerdo en que sí, obviamente, los mecanismos físicos pueden reducirse a las actividades de los objetos materiales que se mueven, chocan, atraen y repelen, etc., pero que las cualidades de la experiencia como el sentimiento, el color y El sabor no tiene conexión lógica. En la otra categoría, las personas se vuelven muy defensivas y condescendientes y apelan a los “sistemas” o “interpretaciones” para llenar el vacío explicativo y desechar el problema difícil de la conciencia.

Además, los de esta segunda categoría a menudo eran muy inteligentes, pero su estilo de argumentación es muy rígido y basado en reglas, exige con impaciencia definiciones de palabras y evidencia de cosas que ya son intrínsecamente evidentes por el hecho de que somos conscientes de ellas. Casi siempre parecían ser estudiantes de física, ingeniería o ciencias de la computación, o profesionales en campos relacionados con ellos.

Fue entonces cuando comencé a conectar los puntos a un continuo de cualidades psicológicas diametralmente opuestas que se conocen con varios nombres y se han estudiado con mayor rigor a lo largo de los años:

  1. De mente dura vs. Tender-Minded (William James, 1907)
  2. “Límites finos” y “Límites gruesos (Ernest Hartmann, 1984)
  3. Espectro autista-psicótico (Crespi, Badcock, 2008)
  4. Empathizing-Systemizing Continuum (Baron-Cohen, 2009)
  5. Continuidad semántica rigidez-caos (Miriam Faust, Yoed N. Kenett, 2014)

Estos muestran una gama de habilidades y deficiencias en la conciencia que creo que dan forma a las formas en que las personas son capaces de modelar la conciencia en sí misma. Irónicamente, parece que los materialistas duros están limitados por su neurología y genética para confundir la conciencia con un tipo de pensamiento sobre el pensamiento en lugar de los hechos más amplios del sentimiento y la sensación. Es posible que algunas personas ni siquiera experimenten sentimientos y sensaciones como tales, sino más bien portadores de información que apenas se notan. Irónicamente, los que argumentan más agresivamente contra los zombis filosóficos pueden ser zombis filosóficos, y los que piensan como computadoras pueden ser incapaces de concebir los aspectos no computacionales de la naturaleza. Desafortunadamente, esta mentalidad de sistematización agresiva es también la misma mentalidad que se requiere para tener éxito en las ciencias duras, por lo que parece que la ciencia misma está en peligro de convertirse en una cámara de eco de materialistas genéticos que amplifican sus compulsiones de autovalidación hacia el materialismo.

Esto suena duro, y vacilo en continuar ya que parece ofensivo para aquellos que se ven a sí mismos como receptores de esta crítica. La ofensa, sin embargo, debe ser considerada por el ofendido una propiedad emergente. Si no estamos perfectamente contentos de que nos llamen robots sin alma … si algo se ofende por esto, debemos preguntar qué es esa cosa y por qué cree que está ofendida. Sin alma simplemente se refiere a la ausencia de un alma, que es, de todos modos, un fin metafísico, y el robot no es más que un dispositivo complejo para efectuar comportamientos físicos. ¿Qué podría estar mal con ser un robot sin alma? Lo que sí.

En cuanto a Glyn Williams * Seattle Warehouse pensamiento-experimentación

Yo diría que su conclusión es demasiado rápida y en realidad descarta toda la historia del desarrollo de la aviación como una pérdida de tiempo.

Él dice:

“Cuando completan la tarea, el sujeto está de acuerdo en que ninguna de las partes puede volar y que todo el proceso (que ha llevado muchas semanas) fue una enorme pérdida de tiempo”.

Yo digo lo contrario; Cuantos más sujetos tengas y más tiempo se les permita trabajar en la tarea, más encontrarán que algunas partes vuelan mejor que otras. Los que son más ligeros y tienen una forma más aerodinámica se comportarán de manera diferente cuando se lanzan a través de la habitación, y algunos se deslizarán más lejos.

La pregunta es, ¿alguna de las partes comenzará a sentir hambre u olerá el olor a queroseno? Creo que si bien podemos especular sobre la respuesta a eso, debemos estar de acuerdo en que objetivamente no puede haber una función física o lógica que puedan tener esas dimensiones cualitativas de la experiencia, y que la física y la lógica no pueden concebir tales cualidades sin tomarlas en consideración. experiencia directa (cometiendo así la falacia de pedir la pregunta que se está considerando).

* Me ha bloqueado en Quora, así que no puedo comentar sus respuestas directamente. No estoy tratando de provocar a nadie o de faltarle el respeto. Mi intención aquí es solo explicar por qué no respondo directamente a sus puntos de vista.

No.

Lo contrarresto con mi pensamiento de Seattle Warehouse .

Un tema se presenta con un gran almacén lleno de piezas mecánicas pesadas. El sujeto debe examinar cada una de las partes a su vez y debe establecer si la pieza puede volar.

Cuando completan la tarea, el sujeto acepta que ninguna de las partes puede volar y que todo el proceso (que ha llevado muchas semanas) fue una enorme pérdida de tiempo.

Luego, las piezas se ensamblan en un Boeing 747 y salen del almacén y se van volando.

El almacén de Seattle demuestra que las propiedades de los componentes individuales no son las mismas que las de un sistema completo. Estas nuevas propiedades, que aparecen cuando las cosas se ensamblan en sistemas, se denominan propiedades emergentes.

El experimento de la Sala China de Searle es un argumento basado en la intuición de que si ningún componente “entiende” a los chinos, la apariencia de entender a los chinos es falsa. Esta es una falsa intuición.

No reconoce que la comprensión, como el vuelo, es una propiedad emergente.

El experimento mental de Searle Chinese Room es ininteligible para mí. Parece hacer una suposición contradictoria que contradice su conclusión aparente. La idea es que, al igual que una computadora, la persona en la sala china es lo suficientemente inteligente como para proporcionar respuestas inteligibles simplemente al entender y manipular la sintaxis del lenguaje. Se supone que debemos imaginar que la persona no comprende el significado de sus respuestas, o su semántica. Esto hace una suposición lingüística crítica para la cual, hasta el momento, no hay evidencia. Se supone que la semántica se puede reducir a la sintaxis, de lo contrario, la persona que se encuentra en la sala no podría transmitir respuestas inteligibles a un hablante chino. Pero entonces, se supone que debemos compartir la intuición de Searle de que la persona que está en la sala no entiende realmente el idioma, a pesar de que es perfectamente capaz de devolver las respuestas que entienden los hablantes de chino. Eso significa que hay algo semántico que no es reducible a la sintaxis. Y para esa otra cosa, Searle sugiere Intencionalidad (Stanford Encyclopedia of Philosophy). Entonces, ¿la semántica es reducible a la sintaxis o no? El experimento mental parece requerir que lo sea, pero concluye que no lo es. Y la conclusión de Searle en sí misma parece estar basada en compartir una intuición sobre lo que está sucediendo en la mente de la persona en la habitación, que es algo completamente diferente de lo que es necesario para que funcione el experimento mental.

Consideremos estos supuestos contradictorios desde el punto de vista de la posibilidad de que las computadoras adquieran conciencia. La suposición de Searle es que las computadoras solo son capaces de manipular símbolos, en términos generales, funciones sintácticas. Y que estas funciones sintácticas pueden engañar a los parlantes inteligentes. La inteligencia artificial utilizada en Siri de Apple ha llegado tan lejos hasta cierto punto, y solo podemos esperar que mejore. Pero esos programas no son meramente sintácticos. Primero, son programados por personas, no totalmente autodidactas. Este es siempre el caso, incluso con aplicaciones de aprendizaje automático. Alguien que está consciente tiene que programar las reglas iniciales. Al igual que escribir una carta a un amigo, el amigo no asume que la carta es inteligente. Él asume que alguien inteligente lo escribió. Segundo, aunque personalmente me encantaría que fuera así, ningún procesador de lenguaje de computadora está programado con reglas puramente sintácticas. Todos usan algún tipo de taxonomía semántica o métodos para categorizar el significado. Acerca de WordNet – WordNet – Acerca de WordNet es un gran ejemplo. Se podría argumentar que, subyacente al procesamiento de la semántica, el lenguaje de máquina es, en última instancia, solo un procesador de sintaxis funcional para unos y ceros. Pero ese es el lenguaje que usamos para traducir al hardware lo que queremos que haga por nosotros. Lo que estoy diciendo es que, al mejor de nuestro conocimiento lingüístico, sin proporcionar un marco semántico, ningún software de procesamiento de lenguaje funcionaría lo suficientemente bien como para pasar cualquier prueba de Turing.

En cierto sentido, la evidencia empírica es un mejor argumento para la conclusión de Searle que su experimento mental. Debido a que una computadora siempre será programada inicialmente por alguien, cualquier comportamiento que se parezca a una persona será una extensión tecnológica de su creador, no la suya propia. Al igual que a un martillo, no se le asigna el atributo de tener una intención consciente de clavar clavos, por lo que a una computadora no se le debe atribuir atributos conscientes, no importa cuán seductora y humana parezca. La visión en la filosofía de la mente que Searle intenta socavar se llama Functionalism (Stanford Encyclopedia of Philosophy). El funcionalismo establece que la mente, incluida la conciencia, es el resultado de una disposición particular de entradas y salidas, independientemente de la sustancia en la que se ejecuta el proceso . La conclusión lógica es que la mente, incluida la conciencia, es solo un algoritmo, y puede transferirse a cualquier sustancia adecuada para instanciar sus funciones .

La última advertencia es extremadamente importante porque, cuando se presiona, no creo que ningún funcionalista afirmaría que cualquier sustancia es adecuada para la conciencia. En los cuerpos biológicos, solo tipos particulares de células transmiten procesos neurales. Entonces, ¿por qué deberíamos pensar que una sustancia extremadamente diferente, como aquella a partir de la cual se construyen las computadoras, no importa cuán compleja sea, es potencialmente capaz de transmitir procesos neuronales? Tal vez, ya sea utilizando neuronas en sí mismas o construyendo réplicas de neuronas utilizando la impresión 3D avanzada, podríamos replicar procesos sustancialmente idénticos a los del cerebro. Pero ahí es donde la demarcación entre el funcionalismo y el sustancialismo se vuelve borrosa. Y cuanto más difusa es la demarcación, menos útil se vuelve en la comprensión de la mente y la conciencia, ya que ese fue el punto inicial de hacer una distinción tan difícil. Sospecho que la dureza de la distinción entre sintaxis y semántica en lingüística también resultará más confusa y menos útil para comprender el procesamiento y la comprensión del lenguaje.

Cuanto más analizamos los supuestos del experimento mental y luego investigamos la evidencia empírica de ellos, menos inteligible se vuelve el experimento mental. Este es un ejemplo de la clase de filosofía para la que tengo poca paciencia. Los filósofos como Searle comienzan con cierta intuición sobre un tema. Se basa en un marco mental que hace que la intuición sea significativa. Se ha dado un experimento de pensamiento basado en ese marco. Y se supone que ese experimento mental tiene aplicación en el mundo empírico. Pero cuando intentamos aplicar las distinciones heurísticas mentales a los observables, hay una falta de coincidencia en el tipo. En la filosofía de la mente, esto resulta en lo que parece ser una brecha insuperable entre la experiencia mental “subjetiva” y la experiencia sensorial “objetiva” (o “intersubjetiva”). Pero la brecha solo está presente si insistimos en comenzar con nuestras intuiciones en lugar de observables. Cuando como helado, incluso cuando entiendo la composición física hasta cierto punto, no me cautivo por la insuperable diferencia entre la forma en que me sabe y lo que sé sobre su composición física. Este tipo de hipnotización solo ocurre cuando el objeto de la investigación es la mente misma. Luego, en lugar de hacer el arduo trabajo de investigar empíricamente el cerebro, estos filósofos quieren intuir o analizar alguna distinción solo mediante la auto-reflexión, lo cual explicará la diferencia. Pero tal vez la diferencia sea realmente solo su interés particular en el tema y su hipnotización, y nos dice más acerca de por qué el filósofo está interesado e hipnotizado por un tema en particular en su campo. Para Searle, ese tema es la intencionalidad. Para Descartes, era sustancia. Para otros, es función. Si ese es el caso, siga adelante y diseñe un experimento empíricamente comprobable para su teoría. Ese es el trabajo filosófico difícil pero productivo. El resto es solo una filosofía de conversación popular, incluso cuando la realizan académicos profesionales.

No, el experimento mental de la Sala China de John Searle no refuta la posibilidad de que una computadora digital se vuelva consciente.

El experimento mental de Searle es cautivador, pero tiene tantos defectos que “ni siquiera está mal” pedir prestada la famosa frase de Wolfgang Pauli. Pero está inteligentemente construido y, aunque desde el principio sentí que estaba equivocado, me tomó mucho tiempo poder expresar por qué.

La configuración del experimento mental es que una tienda o habitación maravillosa aparece en China. Tiene una pequeña ranura a través de la cual se pueden alimentar las notas en mandarín y a través de las cuales responde en mandarín perfectamente escrito. Nadie puede ver dentro de la carpa, pero después de muchas iteraciones de cuestionarla y disfrutar de sus respuestas ingeniosas e impecables, los observadores concluyen que es una entidad inteligente que sabe chino.

Corte al interior de la tienda, donde hay un hombre que solo habla inglés. Cuando llega una nota, no tiene ni idea de lo que significa, pero busca los caracteres en una enorme tabla de referencia, que lo señala a otros personajes, que escribe en un nuevo resguardo y lo devuelve.

El hombre produce respuestas inteligentes, pero no sabe chino, por lo que no entiende lo que está haciendo. Solo está siguiendo instrucciones. No hay inteligencia en su proceso, por inteligentes que sean las respuestas. La habitación china no es una inteligencia china sensible.

Por analogía, se supone que debemos concluir que es imposible que un proceso mecánico muestre inteligencia genuina. Es obvio, ¿verdad?

Incorrecto.

La pregunta que me gustaría hacer es: ¿dónde está la inteligencia en la Sala China?

Extendamos un poco el experimento mental. Supongamos que en lugar del hombre, tenemos un sistema de reconocimiento óptico de caracteres para leer los resbalones y hacer una referencia cruzada con la tabla de referencia.

¿Dónde está la inteligencia ahora?

La inteligencia está en el mismo lugar donde siempre ha estado: está en la tabla de referencia. El hecho de que un hombre, una mujer, un mono entrenado o un sistema mecanicista accedan a la mesa es realmente irrelevante, pero al incluir a un hombre en el experimento, Searle nos desvía y enfoca nuestra atención en él.

La falla en la Sala China es que confunde el algoritmo (lo que genera las respuestas) con el sustrato (sea lo que sea que permita que se ejecute el algoritmo). El algoritmo es lo que es inteligente, y está en la tabla de referencia, sin embargo, se crea una instancia y se accede a él.

Una vez que lo miras de esa manera, debes concluir que sea lo que sea lo que haga la tabla de referencia y lo que sea que esté haciendo, es inteligente. Su comportamiento es indistinguible de un hablante chino que sabe leer y escribir. Ha pasado la prueba de Turing.

También es totalmente improbable que un algoritmo estático sin memoria de trabajo (como se describe en la tabla de referencia en la versión clásica del experimento) pueda producir una respuesta como esa. Pero eso es por cierto. Se nos pide que imaginemos que puede, y si pudiera, no veo cómo podríamos concluir que no sea que sea inteligente y consciente.

La habitación china no prueba nada. Ni siquiera agrega mucho a la formulación original de Turing de la prueba de Turing, aparte de la confusión innecesaria y el trabajo ocupado para los filósofos de la mente.

Me parece que si una computadora digital logra un comportamiento indistinguible de la conciencia, entonces un par de cosas probablemente serán ciertas. Una es que el algoritmo será matemáticamente equivalente a una red de redes neuronales de complejidad similar a un cerebro humano; Se puede mostrar que las redes neuronales son matemáticamente equivalentes a ciertos cálculos estadísticos, por lo que puede haber otras formas de instanciar eso. La segunda es que el algoritmo mismo, si se programa en el nivel correcto de abstracción, será indiferente al hardware o al sistema operativo. Más allá de un nivel dado de rendimiento, no importará si lo implementa en una computadora digital, hardware de red neuronal dedicado, una computadora cuántica o lo que sea.

No.

El experimento mental de Chinese Room se basa en la intuición de que un autómata que sigue las reglas no podría “entender” algo como el chino, y que una computadora digital no es más que un autómata que sigue las reglas.

Sin embargo, es posible que la sala entienda chino, incluso si los mecanismos dentro de ella, como la persona o los libros de reglas, no lo hacen.

Además, la metáfora se ajusta mejor a la forma en que las computadoras han funcionado tradicionalmente, utilizando la manipulación lógica de símbolos de memoria, que a la forma en que están evolucionando los nuevos sistemas de aprendizaje automático. La habitación que describe Searle, que involucra a alguien que busca reglas en un libro, podría no tener éxito en convencer a la gente de que entendía chino. Una “sala” que coincida mejor con el rumbo de la IA tendría un conjunto tan abstracto de reglas de manipulación estadística y trillones de pasos que la persona que sigue las reglas no tendría idea de lo que estaba sucediendo y se desconcertaría de que surgiera un chino coherente Tantos pasos aparentemente irrelevantes.

En este escenario, no es que la máquina se haya hecho tan complicada como para que la evaluación de “comprensión” sea misteriosa. Más bien es que donde la comprensión está ocurriendo se ha trasladado a una máquina tan extraordinariamente elaborada que nuestras simples intuiciones de lo que tal máquina ya no puede aplicar.

Este artículo explica bien cómo los teólogos creadores / creadores y los reclamantes del “problema difícil de la conciencia” cometen el mismo error antropomórfico de sistemas de arriba hacia abajo. ‘Una máquina perfecta y hermosa’: lo que revela la teoría de la evolución de Darwin sobre la inteligencia artificial


Para ser una máquina de computación perfecta y hermosa, no es un requisito saber qué es la aritmética.


“Dame orden … y tiempo, y te daré Diseño”, son las palabras audaces que Dennett le atribuye a Darwin. Él (1995: 59, 73) nos recuerda que:

Es difícil creer que algo tan ingenuo y mecánico como un algoritmo pueda producir cosas tan maravillosas. No importa cuán impresionantes sean los productos de un algoritmo, el proceso subyacente siempre consiste en nada más que un conjunto de pasos sin sentido individuales que se suceden entre sí sin la ayuda de una supervisión inteligente: son “automáticos” por definición: el funcionamiento de un autómata.


“Podemos enunciar como el principio fundamental de todo el sistema, que, para hacer una máquina perfecta y hermosa, no es un requisito saber cómo hacerla.


El cosmos piensa de abajo hacia arriba.

Las suposiciones fundamentales son erróneas, la consciencia está co-surgiendo. Uno no puede simplemente aislar la computadora de todo lo que existe en el universo y preguntar si tiene o puede tener conciencia. El argumento que sigue el experimento mental de la habitación china puede ir de cualquier manera … diciendo que los humanos son simplemente una computadora o una computadora con suficiente inteligencia artificial y recursos no pueden diferenciarse de un humano.

En efecto, los humanos son equivalentes a una computadora. La interpretación puede ir en cualquier dirección: una computadora conmovedora o un humano sin alma. Ambos no se sentarían bien con un teísta. Aquí el trabajo del filósofo está hecho y ha dejado espacio para que otros debatan. 🙂

Como tal, es un callejón sin salida, pero un terreno fértil para los argumentos y contra argumentos. Corta las manos, el hombre vive, las piernas, él vive, corta la cabeza, el hombre está muerto, por lo que la cabeza recibe la mayor importancia y ahora … ¿podemos mantener la cabeza en un frasco? ¿Sigue siendo un hombre? ?

Surge la conciencia … surge co-surge, da nuevos giros, se expande, encuentra nuevas profundidades, con inclusión incondicional de humanos, computadoras y el medio ambiente, y no excluyendo a ninguno de ellos o cualquier otra cosa.

Ya tenemos computadoras capaces de igualar lo que John Searle ha ocultado en la Sala China, es decir, no es un ser humano argumentativo sino un tipo de robot que vincula mecánicamente los datos en una simulación de inteligencia. Hoy en día se abusa fácilmente de las personas, de la misma manera que los observadores de la Sala China, mediante algoritmos que controlan una síntesis de voz, detrás de la cual imaginan sin dificultad la presencia de la conciencia.

Estos algoritmos simulan capas simples de automatización del pensamiento. De la misma manera que un robot puede procesar las señales de sus miembros mecánicos para realizar gestos precisos, las palabras se pueden vincular a otras sin que se establezca ninguna conexión con su comprensión. Esto es lo que está haciendo cada niño durante el aprendizaje de idiomas. Establecerá progresivamente las correlaciones, construirá un significado más extenso que el simple reconocimiento de un sonido y continuará desarrollándose en la adultez. Dos elementos esenciales lo diferencian de la computadora (en el estado actual de desarrollo de estos):

(1) La retroalimentación del niño controla los errores internamente, mientras que la computadora realiza algunas rutinas básicas de verificación (el desarrollador del algoritmo corrige sus fallas más grandes).

(2) la organización de los conceptos en el cerebro del niño expande espontáneamente su estratificación, mientras que la computadora solo tiene una o dos capas de organización para mejorar. Más allá, corre el riesgo de reacciones inestables … ¡típicamente humanos!

Además, la conciencia que experimentamos es el resultado de la integración con muchos conceptos inexistentes en las computadoras, las emociones, el instinto reproductivo, las necesidades corporales, la conciencia social, etc. Es, por supuesto, imposible compararla con otras personas que no las poseerían. artículos. John Searle, en su experimento mental, ya oculta una evidencia importante: no hay dos humanos que experimenten la misma conciencia.

Por lo tanto, si los diseñadores de inteligencia artificial logran reproducir la estratificación conceptual de la conciencia humana y ubican el mismo contenido, obtendremos computadoras “conscientes”.

La sala china ya no es una referencia de pensamiento entre los filósofos que han abierto su mente a las otras disciplinas del cerebro (neurofilosofía). Los textos del enfoque fenomenológico puro están fechados.

Hay dos maneras de ver el problema con esto.

Primero, vuelva a formular la pregunta como: “Dentro de la habitación hay un dispositivo mecánico gigante con forma de cerebro, con células nerviosas lo suficientemente grandes como para caminar dentro, y es una réplica de los nervios reales de un hablante chino. En las paredes están grabados pequeños frascos de sustancias químicas en las proporciones correctas para el cerebro de esa persona, que indican cuántas sustancias químicas diferentes están presentes en cada punto del nervio. Las instrucciones describen, de manera precisa y completa, exactamente cómo cada uno de estos químicos afecta a cualquier otra cosa ”. De repente, al ser un verdadero cerebro de trabajo gigante que puedes visualizar como un cerebro, parece mucho más probable que sea consciente, ¿no?

En segundo lugar, por lo que la física puede decir hoy, no hay más que matemáticas. Aparentemente, tanto las partículas elementales como el espaciotiempo se describen completamente por sus números cuánticos y el tensor del espaciotiempo. En otras palabras, parece que podemos predecir completamente el 100% del comportamiento del universo usando nada más que un doble puñado de mediciones expresadas como simples números de pares de números. No hay nada que “rellenar” más que los arreglos de estos números y cómo cambian en relación con otros números. Por lo tanto, usted * es * una estructura matemática formal.

No y no pretende hacerlo.

Solo afirma que si una computadora digital entiende de alguna manera el chino en el mismo sentido en que usted o yo entendemos varios idiomas humanos, entonces no lo hace únicamente en virtud de su algoritmo formal . Algún tipo de algoritmo formal podría ser necesario para entender el chino, pero no es suficiente.

Por lo que sabemos, el cerebro humano se parece mucho a cualquier otra cosa en este universo: puede considerarse como una computadora digital y sus actividades pueden considerarse como una implementación de varios algoritmos formales. Pero esa no es una descripción completa del cerebro. Ni siquiera es una descripción completa de las características físicas que contribuyen a la comprensión humana.

La ciencia aún no ha logrado ese tipo de descripción. Presumiblemente, algún tipo de biología o química o física está involucrada. Como nadie sabe realmente las características físicas exactas en cuestión, Searle inventa un término de conveniencia y simplemente las etiqueta como “poderes causales del cerebro”.

De acuerdo con el argumento de la Sala China (que el experimento mental de la Sala China es meramente una ilustración), cualquier sistema que logre una comprensión del chino debe duplicar (no solo simular) los poderes causales relevantes presentes en el cerebro de un hablante chino.

Tu pregunta fue sobre la conciencia . El experimento de pensamiento de la habitación china es sobre la comprensión . ¿Cómo están relacionados los dos? Para Searle, el tipo de entendimiento manifestado en un hablante humano de chino es ontológicamente subjetivo. Las entidades ontológicamente subjetivas vienen en dos especies: las que son parte de la experiencia consciente y las que están inconscientes. Si están inconscientes, deben ser del tipo de cosas que “pertenecen a” una conciencia y, en principio, podrían ser llevadas a la conciencia. De cualquier manera, la conciencia es, en última instancia, la razón detrás de la subjetividad ontológica.

No. Debido a que el experimento de la Sala China no permite la posibilidad de fenómenos emergentes, fenómenos que surgen de la disposición de un conjunto de componentes, ninguno de los cuales manifiesta independientemente el fenómeno. Y la conciencia es, en mi opinión, el ejemplo clásico de un fenómeno emergente. Pero estamos rodeados de otros.

Sin embargo, el experimento de Searle es, involuntariamente, un fraude de cebo y cambio. Al convertir a uno de los componentes del sistema en un humano que podría entender a Chines y al demostrar que no entiende el chino, distrae la atención del hecho de que todo el sistema (humano, reglas, entrada y salida) entiende al chino. De manera similar, una computadora más el software más la entrada y la salida se vuelven conscientes, aunque ninguno de los componentes es consciente.

Lo único que puede probar el experimento de la Sala China es que el comportamiento no necesariamente se correlaciona con las experiencias internas.

Pero esto es algo que casi todos ya están de acuerdo. Un psicópata puede pretender ser una persona súper agradable y estar planeando asesinar a su esposa para obtener su seguro de vida. Si muere un día antes de que comience a ejecutar su plan (que está almacenado completamente en su cabeza), nunca podremos adivinar por su comportamiento externo que era un psicópata, pero eso no significa mágicamente que sus experiencias internas hayan sido de una persona amorosa regular.

De manera similar, tal vez la Sala China realmente muestre un comportamiento inteligente sin sentirlo o experimentarlo de la misma manera que lo haría un humano conversador normal.

Sin embargo, hay innumerables formas de diseñar una Sala China, que van desde el uso de una “tabla de búsqueda súper gigantesca” como algoritmo para ir de entrada a salida (donde la tabla de búsqueda también incluye toda la conversación antes de esa línea, y es básicamente una fantásticamente grande biblioteca de babel), a usar una simulación completa de un cerebro humano para dar las respuestas. Es completamente posible que lo primero no resulte en una comprensión interna del significado, mientras que lo último sí lo hace. Por lo tanto, no, el experimento de la Sala China no dice nada acerca de si los qualia son posibles o no en las computadoras.

No, no lo hace. La Sala China de Searle simplemente muestra que entender el lenguaje es algo más que manipular símbolos.

Nuestros cerebros / cuerpos son dispositivos biológico-electrónicos, que (de alguna manera) generan mentes conscientes que hacen cosas como percibir, saber y entender. Nadie sabe como lo hacemos.

Pero si el hardware de la computadora pudiera replicar cualquier proceso neurológico que genera mentes conscientes, y sistemas sensoriales-perceptivos que brindan información a la computadora cerebro-mente sobre su propio cuerpo físico y su entorno inmediato: entonces sería posible construir verdaderas máquinas de inteligencia artificial que sean conscientemente conscientes de sus cuerpos y medio ambiente, y capaces de determinar sus propias acciones al tomar decisiones conscientes.

Puede que no sea posible construir mentes cerebrales con materiales a base de silicona. Estamos basados ​​en el carbono. En cualquier caso, somos una construcción de alta tecnología, y puede pasar mucho tiempo antes de que la neurociencia y la física decidan cómo trabajamos. Probablemente no será posible construir verdaderas máquinas de IA hasta que comprendamos por primera vez cómo nuestro cerebro-cuerpo genera inteligencia “no artificial”.

No refuta que una computadora digital pueda ser consciente, en el sentido de tener “sentimientos internos”. Lo que hace es poner en una forma más clara exactamente lo que esto implicaría.

También ayuda a resaltar el hecho de que la emoción, o lo que normalmente llamamos “conciencia”, es totalmente superflua para el funcionamiento de la sala. Si no fuera por el hecho de que experimentamos emociones, nunca nos imaginaríamos que la habitación podría experimentarlas. Las reglas que sigue la sala son totalmente suficientes para explicar su funcionamiento. No es necesario que emerja ningún ingrediente adicional de estas operaciones, y cualquier ingrediente adicional que emerja es completamente inútil, incapaz de afectar lo que hace la habitación.

Y, sin embargo, hay una gran diferencia, o parece existir, entre los sistemas como una computadora de escritorio que actúa sin ningún sentimiento, y los sistemas como nosotros que sentimos. Esta diferencia puede permanecer sin importar cuán sofisticada se vuelva una computadora de escritorio.

Por esta razón, tiendo a pensar que una computadora digital en realidad no podría ser consciente, pero la habitación de Searle no es suficiente.

El cerebro humano es una cosa totalmente diferente. No es digital. Gracias a la mecánica cuántica, no está nada claro que podamos representar las entidades individuales (átomos, partículas subatómicas, moléculas o cualquier otra cosa) de las cuales el cerebro está compuesto por símbolos útiles y que representan su estado actual. Este es un estado de cosas muy diferente al de una computadora digital, donde el estado en un momento dado se puede conocer con precisión y los estados subsiguientes evolucionan a través de la aplicación de un conjunto fijo de reglas.

Es un experimento mental. No puede refutar nada. No está limitado por ninguna lógica externa a sus premisas limitadas.

Simplemente muestra que con el estado actual de la técnica no podemos decir qué es la conciencia. Si solo usamos palabras y lenguaje, no podemos hacer la diferencia entre una máquina perfectamente programada por humanos y una mecánica humana usando una tabla perfecta de conversación china.

El Experimento de Pensamiento de la Habitación China de Searle es un argumento del hombre de paja en el mejor de los casos y un argumento autosellante en el peor. Estoy completamente sorprendido de que tantas personas brillantes pasen tanto tiempo discutiendo sobre sus implicaciones. Por supuesto, siento lo mismo con la prueba de Turing. En ambos casos, simplemente no hay razón para atribuir la conciencia a un sistema que pueda procesar y responder de manera efectiva a las consultas del lenguaje natural, ni hay razón para negar la conciencia de un sistema que no puede. Más bien, la conciencia es un qualia inefable, uno que nunca puede ser probado o refutado fuera del contexto de nuestra propia isla solitaria de la conciencia.

El experimento mental de la sala china es un argumento extremadamente malo que llamó demasiado la atención.

No prueba ni refuta nada. Todo lo que hace es generar una gran cantidad de discusión que nunca llega a ningún lado porque, para empezar, todo el argumento está equivocado. Y nunca desaparece porque hace que los humanos se sientan especiales, por lo que siguen recurriendo a él.

Por favor, lea cualquiera de las muchas críticas detalladas de todo el asunto, y luego olvídese de ello.

El experimento mental de la Sala China podría interpretarse tan fácilmente como para concluir que los seres humanos no pueden ser conscientes. ¿Dónde exactamente en ese cráneo encuentras la “conciencia”? Correcto. ¿Solo un montón de neuronas tontas haciendo cosas mecánicas?

La intuición dice “Sí, pero, por supuesto, ¡la gente tiene conciencia!” (y las computadoras probablemente no!). Pero la estructura de la analogía de la Sala podría cancelar cualquiera de las suposiciones. Es agnóstico medio, a menos que piense que hay algo en la biología, pero no en la máquina, que podría albergar la conciencia como una propiedad emergente.

Creo que la Sala China, al igual que el Gato de Schrödinger, es un experimento mental que se ha escapado de la intención original de su autor y se ha convertido en un meme, puesto en servicio con fines lógicos que no estaban destinados originalmente. Creo que tanto Searle como Schrodinger han expresado reservas retrospectivas sobre estas ideas, al borde de “¡Oh no, no otra vez!”.