¿Cuánta información almacena una neurona del cerebro humano?

Esta es una de mis preguntas favoritas sin respuesta sobre la mente y el cerebro, así que perdóneme si me desvío un poco de la pregunta específica después de responderla.

Respuesta corta, ninguno y mucho.

La cosa es, al menos de acuerdo con los modelos más ampliamente aceptados de cómo se representa la información en el cerebro, la información se almacena en las conexiones entre muchas neuronas diferentes, y no en una sola célula.

Las teorías del conexionismo y el trabajo en redes neuronales intentan explicar y modelar cómo se pueden representar comportamientos y reglas complejos en redes de unidades en su mayoría idénticas (en el caso del cerebro, las neuronas), pero hasta ahora no hay teorías generalmente aceptadas de cómo una red puramente sintáctica (definida completamente por las conexiones entre unidades “sin sentido”) puede codificar contenido semántico (información sobre el significado). Esta desconexión fue quizás mejor presentada por John Searle en su argumento de la Sala China.

En esencia, el problema es que experimentamos que la información tiene significado, pero esa información supuestamente se almacena de una manera que no tiene un “significado” objetivo.

Hay algunos modelos de codificación de memoria, como la llamada hipótesis de la “célula de la abuela” que argumentan (basándose en grabaciones de neuronas individuales durante el recuerdo) que existen neuronas específicas dedicadas a conceptos específicos (por ejemplo, una neurona en particular siempre podría fuego cuando ves a tu abuela). La mayoría de los neurocientíficos que trabajan, que conozco, prefieren la teoría de representación distributiva alternativa que sostiene (en línea con el conexionismo) que la información se almacena en redes específicas de neuronas, y que los datos de los experimentos con células de la abuela simplemente muestran una de las neuronas que se activan. .

De acuerdo con el modelo presentado en http://dx.doi.org/10.1371/journa, alrededor de 1.39 bits por sinapsis, o 13.9 kbits para 10.000 sinapsis (como una neurona promedio tiene en el cerebro).

La información es un concepto de lenguaje y abstracción, no es un fenómeno concreto que existe de forma independiente en una neurona o en cualquier objeto material no interpretado. Es como preguntar “¿Cuántos juegos de fútbol se almacenan en un marcador?”

Lo que se almacena en las neuronas es el citoplasma, las mitocondrias, los ribosomas, etc. Cualquier información que tenga probablemente esté relacionada con la actividad celular y no con la persona que usa ese cerebro cuando está despierto. Es como el hardware de su computadora: no tiene conocimiento de lo que está leyendo en línea o de que lo que está haciendo tiene una calidad “informativa” mayor. Una computadora ni siquiera sabe que es su propio código binario; conoce eventos microelectrónicos en materiales semiconductores y eso es todo.

Por suerte las neuronas del cerebro humano no son así. En cambio, para nosotros, son como sentimientos, pensamientos, recuerdos, experiencias, etc., que es donde existe la ‘información’; Dentro del mundo interpretado de las áreas conscientes del cerebro. Podemos hacer observaciones de la mecánica de las neuronas y correlacionarlas con nuestras experiencias para llegar a medidas cuantitativas de velocidades de señal, patrones de disparo, etc., pero solo nosotros somos quienes interpretamos esas cosas como portadoras de información de cualquier tipo. Sin el modelo de subjetividad humana y su experiencia consciente para trabajar, el comportamiento del cerebro o las neuronas de ninguna manera sugiere más sensibilidad o información que un limo que moldea una nube de cúmulos. Parece ser solo un grupo de células interconectadas, haciendo el tipo de cosas que (pensamos) hacen las células.