¿Cuánto tiempo pasará hasta que el bitness de la computadora del usuario principal aumente hasta 128 bits, 256 bits, más?

La razón principal para cambiar la arquitectura de 32 bits a 64 bits fue para hacer frente a más RAM. Un procesador de 32 bits puede acceder directamente a 4 GB de RAM, por lo que cuando las computadoras necesitaban más que eso, se necesitaba un interruptor. En estos días, 4GB es bastante común en cualquier computadora, por lo que 64bit está ampliamente disponible.

En comparación, un procesador de 64 bits puede acceder a 16EiB, que son exbibytes, que son aproximadamente 18.4EB, o exabytes, que son 1 billón de gigabytes.

Hoy en día, la mayoría de las PC comerciales se envían con 8–16 GB, lo que representa menos de una mil millonésima parte del espacio ocupado por un procesador de 64 bits. Si bien hay otras razones (mayor longitud de palabra para el procesamiento) para usar un procesador de 128 bits o más, estas son muy específicas de la aplicación. Probablemente no veremos procesadores de 128 bits en el corto plazo.

Si asumimos que la Ley de Moore se mantiene para el futuro (lo cual está lejos de ser cierto), y que la capacidad de la RAM se duplica cada 2 años, pasarán aproximadamente 60 años antes de que tengamos que considerar cambiar a la arquitectura de 128 bits. Tomará aproximadamente 120 años más que eso antes de cambiar a 256. Una regla general sería utilizar la longitud de bits de la arquitectura actual (64 en nuestro presente) como el número de años que se aplicará la arquitectura.

Ya hay muchas respuestas geniales a esto, así que solo me gustaría agregar un factor que me parece particularmente interesante y he estado pensando mucho últimamente.

Otros han señalado que la ventaja de la arquitectura que admite tamaños de palabra más largos no es tanto en una mayor precisión para las operaciones escalares, sino en la capacidad de empaquetar varios tipos más pequeños en una sola dirección en la memoria para realizar operaciones aritméticas de vectores como operaciones SIMD. El problema con esto en una configuración de propósito general es que el resultado a menudo no se redondeará de acuerdo con el estándar IEEE 754 para la aritmética de punto flotante.

Por ejemplo, los productos de puntos pequeños se pueden calcular muy rápidamente como instrucciones SIMD individuales donde toda la multiplicación se realiza en paralelo antes de que los resultados se sumen secuencialmente. Sin embargo, es casi seguro que el resultado de punto flotante variará en sus dígitos menos significativos del mismo producto de punto donde las multiplicaciones intermedias se redondearon antes de la suma.

Estos pequeños errores son un gran problema, ya que cualquier persona que recuerde el error de división de punto flotante de Pentium puede dar fe de ello. Los casos extremos como ese realmente subrayan la necesidad de los estándares IEEE, aunque a primera vista la contorsión requerida para desarrollar una correspondencia con [math] \ R [/ math] parece ridícula desde un punto de vista algebraico.

Plantea un campo finito [math] F [/ math] que incluye todos los números de punto flotante representables como un tipo de máquina dado, así como [math] + ∞ [/ math], [math] −∞ [/ math], y dos tipos de NaN (uno que es “silencioso” y otro que contiene una carga útil que explica por qué apareció). El tratamiento de los infinitos como valores , aunque es necesario para definir correctamente el comportamiento de redondeo de las operaciones de punto flotante, es algebraicamente erróneo e introduce una serie de problemas impares cuando se trata de operaciones en vectores y matrices.

Por ejemplo, esto explica la escasez de bibliotecas de álgebra lineal dispersas. La codificación dispersa se basa en que cero es la identidad multiplicativa y, por más loco que parezca, eso no es cierto en [math] F [/ math] porque [math] 0 * ∞ = [/ math] NaN y por supuesto [math] ∞ [/ math] puede aparecer fácilmente debido al desbordamiento. Como resultado, es muy difícil implementar una multiplicación de matriz dispersa eficiente que sea compatible con IEEE 754. Un poco tangente, pero es un caso de uso importante para las instrucciones SIMD de tamaño de palabra grande en las CPU, en lugar de utilizar GPU diseñadas para matrices densas (y cada vez se utilizan tamaños de palabra más pequeños para aplicaciones distintas de gráficos, por ejemplo, 8 bits de Google TPUs).

En algunos aspectos, probablemente nunca.

En otros, ya ha ido más allá de eso.

No necesita más de 64 bits de espacio de direccionamiento de memoria durante mucho tiempo, y posiblemente nunca. 64 bits pueden apuntar a MUCHA memoria.

Sin embargo, necesita al menos 128 bits para acceder a toda la red, y cosas como un sistema de archivos de Google necesitan 128 bits para representar una ubicación de almacenamiento.

Los sistemas existen dentro de las computadoras actuales con anchos de bus de memoria muy amplios … algunas GPU tienen un ancho de 512 bits, y no me sorprendería en absoluto si hubiera muchos más anchos.

Algunos coprocesadores para objetos especializados tienen cientos de kilobits de ancho … en particular, el motor de álgebra lineal en un receptor 802.11ac tiene que manejar un problema de valor propio en un objeto de 192 kB (sí, byte) de una vez, y al menos algo de eso hago en un solo trozo. Pero ese es el chip más rápido en una computadora portátil moderna con diferencia, y solo hace exactamente esa operación.

En el otro extremo, hay bloques de chips de criptografía que manejan registros de 3 kilobits … se usan en cosas como tarjetas SIM y tarjetas de crédito, y son bastante lentas, pero muy amplias. Se hacen de esa manera para un consumo de energía muy bajo y bajas emisiones de seguridad.

Cuando llama a un sistema operativo “32” o “64” o “128” bits, simplemente está refiriéndose al tamaño de las instrucciones que la CPU puede manejar. Eso es.

El salto de 32 bits a 64 bits era necesario porque la CPU no podía dirigir suficiente memoria para las computadoras modernas. El límite de RAM direccionable para una CPU de 32 bits fue de 4 Gigabytes. Para las CPU de 64 bits, el límite de memoria direccionable es de 64 Terabytes. Si una computadora de escritorio moderna de gama alta tiene 32GB de RAM, estamos usando aproximadamente el 0.05% de la cantidad de memoria direccionable que la computadora puede ofrecer.

La cantidad de memoria en las PC deberá duplicarse aproximadamente 11 veces antes de pasar a 128 bits.

No diré que nunca necesitaremos 64 TB de RAM en nuestras computadoras, pero veamos hasta dónde hemos llegado desde 1997. En aquel entonces, una computadora de escritorio de gama alta tenía 256 MB de RAM. Desde 1997, la cantidad de RAM en una PC de gama alta se ha duplicado aproximadamente 5 veces.

Las computadoras avanzan un poco más lentamente de lo que solían hacerlo, pero míralo así: si se tarda 20 años en avanzar 2 ^ 5, es probable que se tarde más de 40 años en avanzar 2 ^ 11 más. Pero si la tasa de avance sigue siendo similar a la que fue durante las últimas dos décadas, veríamos que los sistemas operativos de 128 bits se convertirían en algo alrededor del año 2060.

Más bits no es siempre la respuesta.

Los aumentos de tamaño de palabra permiten que una CPU lea o escriba un elemento de datos determinado con menos recuperaciones de memoria. Por ejemplo, con un tamaño de palabra nativo de 8 bits, una CPU tendría que realizar 4 búsquedas de memoria para leer o escribir un valor de 32 bits, mientras que en una CPU de palabra de 32 bits, ese mismo valor de 32 bits se podría leer en una sola búsqueda de datos .

Los aumentos en el tamaño de la palabra solo proporcionan beneficios si la mayoría de los datos que se leen o escriben no pueden estar contenidos en una sola “palabra”.

Si tenemos, por ejemplo, un pequeño sistema de control que nunca requiere que ningún elemento de datos tenga más de 16 bits de ancho, el uso de una CPU de 32 bits resultará en poco o ningún aumento en el rendimiento (todas las demás cosas son iguales) en un 16 bits CPU: la desventaja de una CPU de 32 bits en este caso es que se desperdician muchos bits de memoria, ya que la mayoría, si no todos, los elementos de datos en el sistema se pueden representar con 16 o menos bits.

Dadas estas cosas, 128 o 256, o incluso más bits como CPU, el tamaño de la palabra de datos nativos ofrece pocos beneficios a menos que la mayoría de los datos que se procesan requieran un tamaño de palabra tan grande para que todas las lecturas y escrituras de datos puedan realizarse en una sola memoria. ha podido recuperar.

También tenga en cuenta que el aumento en el tamaño de la palabra también significa un aumento en el costo de la CPU, ya que obviamente debe contener más puertas lógicas. El calor también es un problema, ya que cuantos más circuitos se colocan en un solo dado (generalmente), más calor se genera.

En mi humilde opinión, el aumento en el tamaño de la palabra de la CPU no ocurre simplemente porque “más grande es mejor”, tiene que haber una necesidad de procesadores de mayor tamaño de la palabra. En promedio, los seres humanos tienden a necesitar calcular datos con valores que están dentro del rango de 32 bits. Los procesadores de 64 bits y más grandes tendrían una ventaja en áreas como la supercomputación, pero para la gran mayoría de los usos, 32 bits es realmente tan grande como se necesitaría.

En pocas palabras, ellos (sistemas operativos y aplicaciones asociadas) no pueden desarrollarse hasta que alguien desarrolle chips de CPU que puedan manejar tanto el rendimiento simultáneo.

Siempre es posible ejecutar un sistema operativo más pequeño en términos de longitud / tamaño de conjunto de datos (32 bits en una máquina basada en CPU de 64 bits), pero lo contrario NO es cierto.

Ahora, eso es cierto en el mundo de las computadoras PERSONALES, pero ciertamente NO en el caso de las mini computadoras, los mainframes y las supercomputadoras, que tienen CPU capaces de administrar grandes cantidades de datos, pero lo hacen utilizando múltiples núcleos en La CPU y la división del trabajo para que diferentes núcleos manejen diferentes partes del trabajo.

Este enlace, por ejemplo (IBM zEnterprise System – Wikipedia), analiza una CPU con ciento veinte núcleos en ella. No sé si ese es el mayor número de núcleos para un sistema, ya que no soy un especialista en “grandes fierros”, sino que en lugar de construir CPU con datos más amplios y más buses de control, parece que los fabricantes de computadoras tienen Aproveche la inteligente idea de aprovechar el multiprocesador de subprocesos múltiples para manejar cantidades gigantescas de rendimiento, sin tener que esperar el “gran avance”.

Luego está la computación cuántica (computación cuántica – Wikipedia), que arroja toda la discusión en su oído. En pocas palabras, las computadoras cuánticas pueden hacer en segundos lo que una computadora clásica podría tomar literalmente meses o incluso, en algunos casos, años, porque utilizan una forma de computación radicalmente diferente.

Gracias por la A2A

Las otras respuestas son extrañamente conservadoras / pesimistas.

Como dice la Wikipedia de 128 bits, la Wikipedia ya ha tenido algunas CPU de 128 bits (al menos en parte)

Si bien actualmente no hay procesadores de uso general de uso general creados para operar con enteros o direcciones de 128 bits , varios procesadores tienen formas especializadas de operar con fragmentos de datos de 128 bits. El IBM System / 370 podría considerarse la primera computadora simple de 128 bits, ya que usaba registros de punto flotante de 128 bits .

El DEC VAX admite operaciones en tipos de datos de enteros de 128 bits (‘O’ u octavos) y de punto flotante de 128 bits (‘H-float’ o HFLOAT).

La serie ICL 2900 proporcionó un acumulador de 128 bits, y su conjunto de instrucciones incluía un punto flotante de 128 bits y una aritmética decimal empaquetada .

Por supuesto, las cosas de tipo VLIW, SIMD, GPU pueden ser fácilmente de 128 bits o (mucho) más grandes, pero no son exactamente lo mismo.

Existen varias arquitecturas destinadas a centros de datos y procesamiento de escala exa que 128 bits para el procesamiento “correcto”.

El procesador de código abierto RISC-V tiene opciones para diseños de 32, 64 y 128 bits (todos ellos compatibles)

Por ejemplo, aquí hay una presentación de Micron sobre eso:

https://riscv.org/wp-content/upl

Conozco a gente que diseña máquinas RISC-V de 128 bits, así que espérelas en el plazo 2019-2020

Eso es consistente con la historia / extrapolación.

En el uso general, cada duplicación es cada vez más lenta (como es de esperar, pero no se duplica a tiempo). A finales de los 70 y los 80, 8 bits era la corriente principal, con 16 bits con 8086; 32 bits se lanzó en 1985 y durante la década de 1990; Power3, IA-64, AMD64 fueron todos en 1999, mientras que Athlon64 se despachó en volumen en 2004.

Entonces, sobre la base de 10 años a 15 y quizás 20, podríamos esperar los primeros diseños de 128 bits a finales de esta década (lo que es realista) y la tendencia general a finales de la próxima década.

Casi seguro que nunca. No tiene sentido.

El “ancho de bits” de un sistema operativo se refiere, en uso común, a la cantidad de memoria que puede manejar el sistema operativo.

Entonces, eso significa que un sistema operativo de 128 bits puede ocupar el doble de memoria que un sistema operativo de 64 bits, ¿verdad?

Incorrecto. Se duplica con cada bit adicional.

Un sistema operativo de 65 bits puede ocupar el doble de memoria que un sistema operativo de 64 bits. Un sistema operativo de 66 bits puede direccionar cuatro veces más memoria, un sistema operativo de 67 bits ocho veces más memoria, un sistema operativo de 68 bits 16 veces más memoria, etc.

Un sistema operativo de 128 bits puede ocupar 18,446,744,073,709,551,616 veces más memoria que un sistema operativo de 64 bits. Cuando todos vivimos vidas virtuales como patrones de conciencia cargados en una simulación de computadora universal, no necesitaremos ocuparnos de tanta memoria desde un solo proceso.

Las computadoras de 16 bits han existido desde finales de la década de 1950 y dominaron hasta mediados de la década de 1970. Las computadoras de 32 bits se han producido desde mediados de la década de 1960, sin embargo, no se convirtieron en la corriente principal hasta 1977 y sus límites de 4 GB se alcanzaron en menos de una década gracias a los avances en la fabricación de memoria MOS. Alphaservers, Digital Equipment Corporation, lanzó al mercado los primeros sistemas totalmente funcionales de 64 bits de gran volumen en 1992. HP, Sun e IBM tardaron unos años en ver la necesidad de producir sus propios procesadores de 64 bits.

Veinticinco años después, los servidores más robustos que he encontrado están dirigidos directamente a 64 terabytes, o una pequeña fracción del límite de 16 exabytes de un sistema de 64 bits. En mi opinión, la necesidad de aumentar de manera conveniente el límite máximo de memoria direccionable está aumentando. AI, simulación / predicción, decisión de realidad aumentada El soporte, el aprendizaje automático y la computación cuántica pueden impulsar la necesidad de sistemas de 128 bits para 2035.

¿Cuánto tiempo pasará hasta que el bitness de la computadora del usuario principal aumente hasta 128 bits, 256 bits, más?

A2A Mientras que otras respuestas han hablado acerca de que los bits de dirección que hacen referencia a más memoria no son necesarios, si se mira desde el lado del hardware, posiblemente deba duplicar el ancho del bus de datos (aunque no es obligatorio, por lo general se hace). Esto significa que requeriría 2x o más cables para la placa base, más pines en la CPU, más enrutamiento de señal en el chip de la CPU, etc.

Con la tecnología presionando contra la Ley de Moore y los efectos cuánticos hoy, mientras intentamos reducir el tamaño de los transistores cpu aún más pequeños, con la tecnología de hoy en día nunca sucederá, e incluso si es posible, puede que no haya una gran ganancia en rendimiento.

Así que, en mi humilde opinión, 64 bits es tan lejos como lo haremos en cualquier previsible (50+ años)!

Me arriesgaré y diré que nunca lo haremos. No por la tecnología, sino porque no tiene sentido hacerlo.

Hay que mirar a qué se refiere “bit-ness” en primer lugar. Una computadora de 32 bits tiene un tamaño de palabra de 32 bits. Sus registros tienen 32 bits de ancho y el bus de datos también tiene 32 bits. Su ALU es de 32 bits de ancho.

El principal beneficio que las personas atribuyen a aumentar el número de bits es el aumento de las capacidades de direccionamiento de RAM. Pero no es así como funciona.

El bus de direcciones es lo que determina los límites de direccionamiento de RAM, no el tamaño de palabra. De hecho, esas dos cosas rara vez han sido las mismas. Cada Intel cpu de 32 bits, ya que el pentium pro (p6) es técnicamente capaz de manejar 64 GB de RAM con PAE. El 8086 de 16 bits es capaz de usar 1 MB de RAM debido al espacio de direcciones de 20 bits. El MOS 6502 de 8 bits puede utilizar hasta 64 K de RAM porque en realidad tiene un bus de direcciones de 16 bits.

Ahora veamos por qué querría aumentar el tamaño de la palabra: necesita tratar con números más grandes. Una CPU de 32 bits solo puede tratar con números de hasta ~ 4 billones en un formato sin firma. Eso puede ser una limitación dependiendo de la carga de trabajo que desea ejecutar. Cuando quiera tratar con números más grandes, la CPU tendrá que realizar múltiples operaciones.

Sin embargo, un 64 cpu puede realizar operaciones en números de 64 bits, que son números enormes. No hay muchos casos en los que un programador necesite números más grandes. De hecho, no son muchos.

Si quiero duplicar el tamaño de la palabra a 128 bits, eso significa que tengo que duplicar la cantidad de hardware en el alu, duplicar los registros, tener el doble de cables para la transición de datos, etc. Larga historia corta, requiere una gran cantidad de hardware.

Que no vale la pena . Las cargas de trabajo básicamente nunca usan números tan grandes. Si los necesitan de vez en cuando, entonces la operación se puede hacer en 2 ciclos. No vale la pena gastar una tonelada de transistores adicionales para acelerar los casos de vanguardia. Como diseñador de cpu, es mejor gastar esos transistores en registros, mayor ancho de problema, caché, etc., que acelerará TODO.

Además: Por eso tenemos instrucciones vectoriales. Básicamente, cada cpu moderna tiene una unidad SIMD (AVX, NEON) capaz de manejar números muy grandes y / o varios más pequeños muy rápidamente (128–512 bits de ancho)

Creo que sucederá en una o dos décadas, pero no porque la RAM o el disco lo necesiten. Para un host aislado, 64 será suficiente por un siglo a partir de ahora. ¿Quién podrá administrar 16,777,216 tebibytes, es decir, 16 exbibytes en un host? (Tebibyte es aproximadamente terabyte, y exbibyte es aproximadamente exabyte) [1].

La asignación de memoria de los hosts remotos se realizará al asignar las direcciones de host ipv6 directamente en el espacio de direcciones de la memoria virtual.

Las direcciones de host de Ipv6 [2] requieren 128 bits para acceder al host + 64 bits para acceder a la memoria virtual del host remoto. Esto significa que un día veremos direcciones de 192 bits, o más. Pero tomará una década o dos hasta que Intel implemente algo así. Antes de que suceda, tendremos un período de transición con hacks de traducción complejos que se utilizarán en las tablas de traducción del sistema operativo.

Notas al pie

[1] Exbibyte – Wikipedia

[2] dirección IPv6 – Wikipedia

Bueno, para que haya un sistema operativo de este tipo, tendría que haber tales CPU disponibles. No hay.

La razón por la que no hay CPU con más de 64 bits de espacio de direcciones es, francamente, en la actualidad, no la necesitamos. Veamos cómo se ve esto:

El espacio de direcciones de 16 bits permitido para que el espacio de direcciones sea de 64 KB.

El espacio de direcciones de 32 bits permitido para que el espacio de direcciones sea de 4 GB.

El espacio de direcciones de 64 bits permite que el espacio de direcciones sea de 16EB. Eso es Exabytes. Un exabyte es de aproximadamente 1,000,000 TB.

El espacio de direcciones se usa principalmente para permitir que los programas utilicen tanta memoria o memoria virtual a la vez. En los días de 32 bits, las computadoras podían tener más de 4 GB de memoria, pero solo podían “mirar” una porción de 4 GB a la vez, por lo que los procesos individuales tenían dificultades para usar más de 4 GB, incluso si el sistema operativo permitía más de 4GB de memoria total.

La otra cosa que generalmente significa es qué tan amplios son los registros de propósito general, lo que determina qué tan rápido puede realizar operaciones en números mayores que 2 ^ 64.

Ahora, veamos los espacios de direcciones de 128 y 256 bits:

El espacio de direcciones de 128 bits permitiría que el espacio de direcciones sea de 281,500,000,000,000 YB. Eso es Yottabytes. Un yottabyte es aproximadamente 1,000,000 EB.

El espacio de direcciones de 256 bits permitiría que el espacio de direcciones sea de 95,780,971,304,118,053,647,396,689,196,894,976,171,195,136,475,136 YB.

Ese es un número de bytes absolutamente alucinante.

Por lo tanto, debido a que no hay una demanda en el mercado para eso, dudo que veamos CPUs con espacio de direcciones de 128 o 256 bits en el corto plazo.

Por un lado, los sistemas de archivos ya utilizan aritmética de 128 bits. Cuando se alcanzaron los límites de 32 bits, los desarrolladores de sistemas de almacenamiento en línea decidieron resolver el problema durante más tiempo que sus vidas.

Por otro lado, los relojes de 32 bits se agotan en 2041 medidos en segundos, pero los relojes de 64 bits abarcan muchas veces la edad del universo en nanosegundos. Los relojes solo necesitan 128 bits para trabajar en unidades planck. La cosa es que la física podría avanzar lo suficiente en un siglo.

Las computadoras de mi centro de datos usan formatos de sistema de archivos XFS y ZFS, por lo que ya tienen 128 bits en uso. Estas son las computadoras convencionales. Ahora es una respuesta válida.

Creo que para el 2100 no quedarán computadoras de 64 bits, solo porque el avance tecnológico lo hizo demasiado obvio como para no hacerlo. Pero no porque sea necesario para la mayoría del uso.

El ancho de la dirección y el ancho de los datos son dos aspectos diferentes de una CPU. Cuando el ancho de los datos es menor que el ancho de la dirección, se deben realizar varios ciclos para construir una dirección. Una vez que el ancho de los datos excede el ancho de la dirección, no hay una ventaja general de que sea mayor (la excepción es la física y la ingeniería).

El ancho de dirección necesario para abordar cada bit de almacenamiento existente en una computadora es el [math] log_2 [/ math] del tamaño de ese almacenamiento. 48 bits es suficiente para 256 bytes Tera. 64 bits es de 16 giga giga bytes. Las computadoras comunes no necesitarán esa cantidad de almacenamiento, la computación cuántica hará que el estilo moderno de la computadora quede obsoleto antes de que esa cantidad de almacenamiento esté disponible para individuos o incluso para pequeñas empresas.

Veamos por qué pasamos de 8 a 16 a 32 a 64 bits de CPU.

Las CPU de 8 bits que usé en los 80 ya tenían un espacio de direcciones de 16 bits. Y podría sumar / restar / y / o / xor valores de 16 bits.

En el mundo real, 16 bits de espacio de direcciones y 16 enteros de bits eran demasiado pequeños con frecuencia.

Las primeras CPU de 16 bits (Intel 808X) ya podrían abordar 1M de RAM, utilizando la segmentación. Pero para usar tanta memoria RAM fue torpe.

Las CPU de 32 bits parecían ser los primeros entornos de procesamiento sin compromiso.

32 bits = 4 GB de espacio de direccionamiento y enteros con signo con valores de -2 a +2 mil millones, con 9 dígitos para trabajar. Sus FPU podrían operar directamente en valores de punto flotante de 32/64/80 bit.

Todavía hoy en día la mayoría de las computadoras no tienen más de 4GB de RAM. 2/4/8 / 16GB son las configuraciones más comunes.

El beneficio clave de las CPU de 64 bits era permitir un futuro espacio para el crecimiento, proporcionar operaciones enteras completas de 64 bits y aumentar todas las rutas de datos internas a 64 bits.

Nunca he necesitado un entero de 128 bits. SIEMPRE. E incluso solo 48 bits de espacio de direccionamiento (256 TB) parece impensable incluso para la computadora más grande que uno pueda imaginar. Parece mucho más lógico tener docenas o cientos de computadoras estándar más pequeñas en su lugar. Esa cantidad de RAM en una sola computadora es un desperdicio de ancho de banda de memoria, ya que uno necesitaría cientos o miles de núcleos con vías de E / S masivamente paralelas para usar efectivamente tanta memoria. Estamos de vuelta a los mainframes ultra caros. 64 bits de espacio de direccionamiento serían una locura.

Finalmente, no olvidemos que las leyes de Moore están terminando o al menos reduciéndose sustancialmente. Los sistemas de RAM de 1TB ya están aquí, y teóricamente podríamos ir más grandes, pero solo si es rentable. El costo para Dell / HP / IBM / … para diseñar súper servidores no tiene mucho sentido a menos que haya un mercado lo suficientemente grande para ellos. Y con cada orden de magnitud adicional en RAM, la necesidad de esos pasos adicionales disminuye un poco más.

Las CPU actuales de 64 bits ya utilizan transferencias de 128/256/512 bits entre las capas de caché y la RAM del sistema. Esto puede evolucionar a 1024/2048 sin requerir una CPU de 128 bits.

El problema fundamental con esta pregunta es que “bitness” no es una palabra, por lo que es imposible saber lo que realmente quisiste decir. Un problema estrechamente relacionado es que “64 bits”, “32 bits”, etc., tampoco están bien definidos, pero se refieren principalmente a la longitud de la palabra , no al tamaño de la dirección. El Intel 8086 era una computadora llamada de “8 bits”, con instrucción de 8 bits y una ruta de datos de 8 bits de ancho, pero tenía registros y direcciones de 16 bits.

Ahora veamos las computadoras modernas. Las tarjetas PCIe tienen desde 1 hasta 32 “carriles” de 8 bits de ancho, lo que significa que son capaces de implementar una ruta de datos de 256 bits. (16 carriles son más comunes, sin embargo; eso es 128 bits). Los formatos de punto flotante IEEE se definen hasta 256 bits; es raro que los datos se almacenen con una precisión superior a 64 bits, pero para cálculos precisos desea usar 128 bits para resultados intermedios.

Mientras estamos en el tema de punto flotante, echemos un vistazo a las GPU. Las GPU son cada vez más de propósito general, pero su función principal es hacer cálculos en vectores con 3 o 4 componentes. El punto flotante de 32 bits es común en las GPU en estos días, por lo que es una palabra de 128 bits. En componentes de 64 bits, estás viendo 512 bits por palabra. Algunas GPU ya están haciendo esto.

Finalmente, veamos el direccionamiento. Se ha observado en otras respuestas que 2 ^ 64 ~ = 1.8 × 10 ^ 19 bytes es una gran cantidad de memoria, y que el tamaño de la memoria se duplica aproximadamente cada 2 años. Suena como un montón de espacio para la cabeza, ¿no? Veamos esto en potencias de 2. Un terabyte es 2 ^ 40 bytes. Así que estamos viendo 2 ^ 24 terabytes, que son unos 17 millones. A diferencia de la RAM, que se duplica cada dos años, el tamaño de los discos se duplica cada año . Por lo tanto, en un cuarto de siglo, más o menos, necesitará 65 bits para direccionar cada byte en un disco. Ahora, los bloques de un megabyte más o menos te darán más tiempo antes de que tengas que arreglar el sistema de archivos, pero si quieres usar todo tu disco como memoria virtual, los bloques no te ayudarán.

Y el video holográfico consume mucho espacio. Preguntar de nuevo en 2042.

No hay tiempo pronto. Piense en su procesador como una autopista. La velocidad del reloj se refiere a la velocidad máxima y la profundidad de bits se refiere a cuántos carriles hay. Entonces, si 32 bits es una autopista de 32 carriles y 64 bits es una autopista de 64 carriles. Digamos que la carretera estaba congestionada en 32 carriles pero en 64 carriles el tráfico no puede llenar la autopista.
Así que en mi ejemplo de autopista, nos estamos conectando a esa autopista de 64 carriles en una ciudad con una velocidad máxima de 45 mph y con vías laterales que no tienen más de 4 carriles.
Entonces, lo que está haciendo es preguntarse por qué los planificadores de la ciudad no doblan los carriles disponibles en la autopista cuando hay muchas otras mejoras que se deben hacer para usar los carriles que tenemos primero.

Puede ser que puedas ver este artículo de wikipedia.

128 bits – Wikipedia

El sistema operativo actual, admite operaciones limitadas de 128 bits, como para mover datos en GPU, operaciones con una precisión cuádruple.

Pero un sistema operativo completo de 128 bits aún no está disponible para clientes simples, ya que no hay soporte de hardware para él a finales de 2017.

Para su información, AS400 ya utiliza el sistema de puntero de 128 bits.

Para ser mainstream? 10,20, … años, tal vez nunca, … Usted está preguntando sobre un evento futuro que casi no tiene oportunidad en el futuro inmediato, sin un descubrimiento revolucionario en una de las ramas de la ciencia o cambios en la sociedad. Si supiera responder a eso jugaría a la lotería, hoy.