¿Cómo la notación decimal (digamos en 10base number s.) Es mal entendida por los matemáticos principales y finalmente los llevó a establecer muchos teoremas erróneos?

Es perfectamente cierto que no puedes tener INTEGRES infinitamente largos, y de hecho, ningún entero aparecerá así cuando se escribe en la base 10.

Lo que probablemente querías preguntar son los números reales, que tienen infinitas expansiones decimales. En este caso, la notación no conduce a la creación errónea de objetos que no existen. Es todo lo contrario; Los números perfectamente buenos están rompiendo la notación.

Considere el caso más simple: 1/3. Es un ejemplo bastante elemental de un número racional; Si existe algún número que sea mayor que cero y menor que uno, entonces seguramente 1/3 está entre los existentes. Pero, por supuesto, en notación decimal, 1/3 se convierte en el decimal infinito 0.333 …

O quizás está bien porque es solo un dígito que se repite. Toma la raíz cuadrada de 2, entonces. Seguramente ese es un número real. Geométricamente podemos producirlo como la diagonal de una unidad cuadrada. Pero su expansión decimal es infinita, y no se puede reducir a un patrón de dígitos simple como la expansión decimal de 1/3 podría.

Primero, al moderador le faltan algunas tarjetas aquí, cuando llama a esto una pregunta mal formada.

La definición de un número depende del proceso de agregar 1. 1 es un símbolo para el acuerdo de que hay un objeto para contar. No tenemos que llamarlo 1, cualquier símbolo serviría al propósito. Un método organizativo para realizar un seguimiento de los números nunca debe desvirtuar ni modificar la definición de un número.

Por ejemplo, llamar a 0 un número se convierte en un método simbólico de no representar nada. Nada se define de forma ambigua como observar nada, lo que no califica como un proceso científico. Pensar en nada no es una función que un cerebro humano pueda realizar. Usar 0 (nada) para representar ningún dígito de 10 segundos es solo una extensión de la primera suposición errónea de que 0. 0 trae consigo consecuencias paradójicas e inconsistencias, además de que la división se extiende perpetuamente, como en 0 = 1 / infinito. 0 + 0 = 2 0s = 1 0s = 0.

Estos están en la parte superior de la caja de herramientas del matemático. Pasará mucho tiempo antes de que reconozcan esta insuficiencia. Los postulados de Euclides fueron construidos con estas herramientas. No debería sorprender que las dudas de Gauss sobre la consistencia sean válidas. No es tan obvio que el origen de estas inconsistencias se encuentre en un nivel tan elemental.

La pregunta está rota. La notación decimal no es mal entendida por los mejores matemáticos. Su comprensión es diferente de la suya, es decir, su comprensión proviene de definiciones y axiomas, y no de “sentido común”. Los matemáticos no se permitían usar enteros con una secuencia infinita de dígitos después del punto decimal, excepto una secuencia infinita de todos los ‘0’, o todos los ‘9’, y estos están permitidos.

Las contradicciones de las que hablas, deletrean la fatalidad de un cierto marco de pensamiento. Pero pensar a partir de definiciones y axiomas está en una base sólida, no es el que está amenazado, no importa cuán enamorado estés de tus propias ideas de mascotas.