¿Es la información una secuencia de símbolos que pueden interpretarse como un mensaje?

Lo primero es lo primero : la descripción del tema al que se refiere es agregada por otro usuario de Quora y puede no ser precisa y, por lo tanto, no debe considerarse como la fuente de la verdad.

Supongo que cuando decimos que la información es una secuencia de símbolos (que se puede interpretar), generalmente nos referimos a la parte del tema que fue incubada por Claude Shannon (matemático) en comunicación cuando publicó por primera vez su artículo en 1948 sobre Teoría de la información. .

Lo que Shannon hizo fue crear una manera de ” medir ” la información. Para medirlos, necesitamos cuantificarlos. Fue entonces cuando surgió el concepto de BIT (BInary DigiT). La unidad básica de medir información.

Pero la información está en todas partes . La información es una forma natural de almacenar datos. De hecho, ahora se sugiere que la información es una parte integral del universo. Puede almacenar información donde quiera que quiera y en cualquier condición. Pero para recuperarlo, la única forma es convertirlo en símbolos lógicos y luego interpretarlos de una manera particular.

Tomemos la imagen de abajo por ejemplo. Incluso una sola mirada puede obtener gran información de la imagen.
Hay gente.
Ellos cocinan
Cazan.
Ellos duermen,
Se cueva la pintura (obviamente), etc.

Pero todo esto se hace solo cuando puede convertir la información en símbolos significativos y luego interpretarla .

Tienes razón.

La información es algo que informa, lo que significa que reduce nuestra incertidumbre sobre algo. No tiene que estar en forma de ningún símbolo.

Los símbolos son solo una forma de transmitir información. La luz y el sonido transmiten gran cantidad de información, pero por lo general no está en forma de ningún símbolo. Aunque en la era digital todo se reduce a la secuencia de dos símbolos “0” y “1”, dicha conversión no conserva la información. Si toma dos fotos del mismo objeto con dos cámaras diferentes, obtendrán diferentes tipos y diferentes cantidades de información.

En la disciplina de la teoría de la información iniciada por Claude Shannon, “información” equivale básicamente a la calidad de no aleatoriedad. Es lo que separa la señal del ruido.

http://www3.alcatel-lucent.com/b