¿Existe un límite práctico para la capacidad de las computadoras y existe alguna cualidad especial de la mente humana que simplemente no se puede replicar en una computadora?

Los límites prácticos para los cálculos, como los problemas NP-hard o el problema Halting, también se aplican a los algoritmos de inteligencia artificial. Como cualquier programa, los algoritmos de inteligencia artificial también tienen una base numérica, por lo que, en teoría, las limitaciones descritas por los teoremas de incompleto de Gödel se aplican a lo que los programas también pueden lograr.

En lo que respecta a la posibilidad de replicación de la mente humana, esto es algo que solo sabremos cuando el campo de la IA tenga un alto incentivo económico para hacerlo y / o cuando tengamos los fundamentos académicos y filosóficos adecuados para esto.

Los grupos de investigación de inteligencia artificial de primera calidad generalmente intentan trabajar en algunos de los aspectos individuales de la inteligencia humana, como el procesamiento del lenguaje natural, la visión, el reconocimiento de patrones, etc. Dado que la IA obtiene la mayoría de los fondos de investigación para este tipo de investigaciones que producen agentes inteligentes similares a máquinas ( por ejemplo, los brazos robóticos industriales que son probablemente más importantes que un servidor robot humanoide en este momento), la inteligencia de tipo humano no es realmente una cuestión profundamente explorada. Asistentes personales como Cortana. Ahora, Siri solo necesita sentirse humana en la superficie, pero actualmente no da mucha información sobre los mecanismos del pensamiento humano o el funcionamiento del cerebro.

Hay algunos proyectos para replicar los movimientos de los gusanos o escanear el cerebro humano para hacer cosas geniales, como intentar grabar un sueño (las imágenes son borrosas) o discernir diferentes procesos de pensamiento. Sin embargo, estudiar en profundidad el cerebro humano, que es el requisito previo obvio, nunca ha sido una preocupación primordial en la inteligencia artificial en la industria y la academia apenas está comenzando con esto. La creación de una inteligencia humana artificial tampoco ha sido una preocupación primordial en las ciencias neurológicas / cognitivas, pero algunos grupos de investigación de ambos campos trabajan juntos con fines miméticos o para ampliar su comprensión con la ayuda del otro campo. La conciencia, per se, es un tema de estudio filosófico y también lo son otras nociones abstractas como “inteligencia humana” o “creatividad”. Para encontrar la respuesta concluyente a su pregunta, se necesitarán expertos en muchos nuevos campos académicos transdisciplinarios cuidadosamente diseñados, al igual que AI en sí.

Sin embargo, ya tenemos algunos pensadores prolíficos que han discutido sobre esto. Aquí está Noam Chomsky, con quien estoy parcialmente de acuerdo con esto, respondiendo esta pregunta en el contexto de una pregunta similar sobre la proposición de singularidad de Kurzweil.

También hay argumentos filosóficos no fundamentados o no resueltos, pero convincentes sobre las mentes que provienen del fisicismo, el anti-mecanismo, etc. El enlace de los Teoremas de Incompletitud anterior toca brevemente estas afirmaciones y aquí hay una discusión relevante sobre zombies. Zombies y conciencia Este toca un debate sobre si, si implementamos en las máquinas todas las acciones físicas realizadas por nuestro cerebro, ¿surgirá la conciencia como la suma total o todavía faltará algo para generar atributos como la sapiencia? , sensibilidad, conciencia.

Edición: una versión anterior de la pregunta posicionó esta búsqueda como el quid de la IA y el siguiente fue el primer párrafo de esta respuesta:
Replicar la mente humana no es realmente el quid de la inteligencia artificial en la práctica. Seguro que es la inspiración y el sueño, tal vez incluso antes del artículo fundamental de Alan Turing sobre el tema. La mayor parte de la inteligencia artificial no se ocupa de la replicación de la inteligencia humana y se centra simplemente en la creación de la inteligencia “artificial” del mismo nombre. Para esto, realmente no hay límites para los programas de inteligencia artificial sino para las personas que los realizan.

Nadie lo sabe. No hay ninguna razón particular para pensar que debería haber alguna propiedad especial de los cerebros humanos que no pueda ser replicada por una computadora; todo lo que sabemos sobre el cerebro sugiere que es una operación puramente química. Puede ser que haya alguna propiedad analógica del cerebro que no pueda ser replicada exactamente dentro de una computadora digital, pero no sería irracional imaginar que una simulación digital podría acercarse lo suficiente, o agregar algún tipo de extensión analógica que lo lograría

Por razones que no se comprenden bien, a las personas les gusta creer que hay algo en su conciencia separado de la materia del cerebro. Esto es, con toda probabilidad, más una limitación de la forma en que funciona la conciencia que una declaración real de la realidad.

Si la conciencia es puramente el funcionamiento mecánico del cerebro (como sospecho que lo es), entonces se logra a través de un mecanismo increíblemente bizantino, intrincado y evolucionado que es difícil de desentrañar. Se lleva a cabo a nivel celular, en tiempo real, y es difícil de estudiar (especialmente si está limitado por la ética: los experimentos en un cerebro vivo son moralmente pegajosos). Sin embargo, se ha comprendido cada vez más en las últimas décadas y hay muchas razones para creer que estamos en el camino de resolverlo de verdad.

O, alternativamente, una razón para creer que no podemos. Lo que sería aún más interesante, precisamente porque lo considero muy improbable, pero no puedo adivinar qué implicaría hasta que lo vi.

Algunos argumentos filosóficos afirman que el cerebro no es computable ni algorítmico, por lo que una computadora que realiza cálculos algorítmicos no puede replicar la mente. El argumento de Penrose-Lucas y la reducción de objetos orquestados (Orch-OR), que es la versión mejorada del argumento anterior, son dos de ellos. Utilizan el teorema de Gödel que establece que hay ciertas afirmaciones que no pueden ser probadas por un sistema formal que sea inconsistente y completo (como una computadora) para justificar la teoría. Dicen que dado que este tipo de afirmaciones pueden ser probadas por matemáticos humanos, los humanos no pueden ser descritos como sistemas formales. Así que las máquinas no pueden implementar mentes humanas que no sean sistemas formales y ejecuten algoritmos no computables. Y según ellos, la mente se genera a través de procesos cuánticos de bajo nivel en el cerebro (específicamente en microtúbulos).

Hay varias críticas contra estas teorías. Muchos filósofos y matemáticos han criticado varias partes de estos argumentos. Y tampoco hay pruebas empíricas para este argumento éter. Y también si esto fuera cierto, no podemos decir que la implementación de esto sea imposible porque, aunque no tenemos la tecnología para implementar esto ahora, es posible que podamos usar procesos cuánticos en los cálculos en el futuro (como las computadoras cuánticas).

Pues no lo sabremos hasta que lo hayamos implementado.
Nos ponemos un poco antropocéntricos y asumimos que la inteligencia de la máquina nunca será igual a la nuestra, cuando ya supera a la nuestra en circunstancias más definidas (por ejemplo, el Ajedrez, la Rueda de la fortuna, el auto-auto de Google, etc.)
Puede ser que la inteligencia a largo plazo de las computadoras nunca imite nuestra inteligencia, sino que se convierta en algo propio, distinto pero tan valioso como el nuestro.

Pregúntate a ti mismo esto. ¿Existe un límite práctico a la capacidad del programa de computadora para generar los sonidos del habla humana, más allá del cual debe comenzar a sentir que tiene labios, una boca, una voz que emerge de su garganta y resuena en su pecho mientras exhala?

Cuando tratamos con la naturaleza de la inteligencia humana, creo que es un grave error esquivar el ‘glaseado’ verbal-cognitivo de la parte superior de la torta de la experiencia humana total. Este “pastel” puede considerarse como una acumulación de experiencia sensorial que se remonta a todo el camino, no solo a la historia de nuestra especie, sino a la historia de todos los tipos de experiencia zoológica, biológica y quizás incluso química y física. Podemos hacer que un programa de computadora diga los tipos de cosas que podría decir una persona genérica, pero no esperaríamos que ese programa se sienta automáticamente como si tuvieran un cuerpo humano en un mundo humano. ¿Cuál es nuestra justificación, entonces, para suponer que este programa inteligente siente algo?

Lo que está en juego aquí es el futuro de la calidad de la vida humana. Si no logramos identificar la diferencia entre los tipos de conciencia patentados y los mecanismos genéricos que reifican los comportamientos asociados con la conciencia, seremos voluntarios para la extinción de las cualidades humanas de la experiencia, si no todas las cualidades significativas de la experiencia.

Además del ejemplo anterior, hay muchos otros ejemplos que puedo nombrar que sugieren claramente que la inteligencia mecánica no implica experiencia. Alguien que está dormido y roncando en voz alta puede ser obligado, por medio de codazos, para que deje de roncar (momentáneamente) sin despertarlos o recordar el evento. De hecho, es posible que las personas realicen todo tipo de funciones mientras no estén conscientes. Las personas pueden hacer cosas como aprender a leer un idioma fonéticamente mientras siguen siendo analfabetas. Pueden crear una contraseña basada en la ubicación de las claves en lugar de los caracteres que representan.

Cuanto más profundizamos en la naturaleza de la computación, la inteligencia, la comprensión y la consciencia, más me parece que la computación es en realidad diametralmente opuesta a la consciencia. Nuestra historia completa de emplear máquinas en general y computadoras en particular ha sido reemplazar la necesidad de conciencia. La automatización consiste en construir una especie de escultura congelada de creación de sentidos: un receptor y un acondicionador de instrucciones para una salida sin sentido. Podemos tener éxito en la construcción de esculturas que sean tan sofisticadas que estén más allá de nuestra capacidad personal para diferenciarlas, pero eso no significa que hayamos encontrado un tipo de programa de computadora que sienta, vea, sepa, entienda o se preocupe por cualquier cosa.

Muchas cosas no se pueden replicar en una computadora … hoy.

Porque no sabemos cómo nuestros cerebros biológicos hacen todo lo que hacen.

Pero a menos que la carne sea mágica . Luego, la manipulación de la información por circuitos de silicio debería poder reflejar las tareas realizadas por hardware hecho de gelatina gris graso.

Uno o dos teóricos piensan que la conciencia se basa en efectos cuánticos especiales. Aunque son vagos acerca de cuáles son estos efectos y cómo habilitan la conciencia. Estoy bastante seguro de que están equivocados.

Pero si la conciencia depende de esta forma de hardware más exótica, no parece haber razón para que no podamos actualizar nuestras computadoras con hardware cuántico equivalente.

No tan lejos. Según la tesis de Church-Turing, o más precisamente la tesis de Church-Turing-Deutsch, cualquier cosa computable es computable por una máquina universal de Turing, que es la mayoría de las computadoras modernas.

Sí y mucho. Las computadoras no tienen capacidad para manejar y procesar emociones como los humanos. En comparación con las mentes humanas, las computadoras son máquinas muy simples que ejecutan instrucciones programadas basadas en el ciclo de entrada-proceso-salida. Una computadora básica es una máquina sumadora electrónica que tiene un proceso codificado no inteligente para agregar 2 números, de modo que cuando se suministra con 2 números produce el total. Las instrucciones codificadas simplemente aumentan en complejidad nada más.

Los límites prácticos son el fin de la ley de Moore, que puede llegar a 14 u 11 nanómetros. Las mejores fichas de hoy son a 22 nm.

Existe el teorema de incompletitud, que coloca límites matemáticos en las computadoras. las computadoras no pueden salir de su propio “sistema formal” para sortear el teorema.

Existe la conjetura N = NP, no probada de una manera u otra, pero la mayoría piensa que no es cierto, por lo que hay cálculos fundamentalmente difíciles para las computadoras.

Puede haber un límite práctico para el tamaño de los programas de software, más allá del cual el mantenimiento se vuelve demasiado difícil.

Los humanos siempre pueden desconectar y estar bien.

Los seres humanos también pueden ir fuera de un sistema formal, es decir, el software de la computadora, para sortear una limitación. Esa es una cualidad especial de la mente humana: no se puede replicar ya que la computadora siempre está dentro de su sistema formal.

En cuanto a que las computadoras sean mejores que los humanos en algunas cosas, como el ajedrez o conducir un auto de Google, tenga en cuenta que una pala es mejor para nosotros en la excavación, una motosierra para cortar árboles. Así que eso no es un gran problema.

Primero, es difícil definir lo que realmente significa la inteligencia. Este ha sido un debate durante siglos y todavía hay muchas teorías y opiniones divididas. En segundo lugar, creo que el límite no está en las máquinas, sino en las nuestras como creadores, dado el tiempo correcto y la cantidad correcta de dinero, los límites se desvanecen. Cada día entendemos más sobre nosotros mismos y la tecnología.

No. Es todo lo mismo en principio. El cerebro es una versión mucho más compleja y mucho más compleja.

Hay dos inconvenientes principales:
– conciencia
– sentido común

Ambos esenciales para convertirse en “inteligentes”.