¿Qué tan rápido serán las computadoras en 2065?

La computadora cuántica parece ser el siguiente paso en la velocidad. Sin embargo, la velocidad se logra no solo por la potencia en bruto, sino también al hacer muchas operaciones al mismo tiempo. Y todo el concepto se basa en reemplazar “bits” (1 y 0) con los llamados “qubits” que pueden representar un 1, un 0 o ambos al mismo tiempo . Esta característica de 1 qubit, cuando se aplica a múltiples qubits, produce un crecimiento exponencial de la capacidad de procesamiento, que se traduce a medida que más datos se manejan más rápido. Es la diferencia entre sacar algo con una pajita y las cataratas del Niágara. Quizás se pueda chupar una pajita lo suficientemente fuerte como para sacar el agua a la misma velocidad que el agua cae en Niagara, pero no se puede chupar el volumen de Niagara a través de la pajilla. A menos que tengas MUCHAS pajitas. Y ahí es donde la limitación de los bits ordinarios hace imposible el desarrollo práctico, o al menos no es posible a un costo razonable.

Aquí está el trato: su computadora básica de todos los días, como se mencionó, usa bits (0 y 1) para representar información. Así, para un sistema de 2 bits, las posibilidades son:

00
01
10
11

Problema: la computadora clásica debe mirar cada combinación por separado; 4 operaciones para determinar el valor calculado por los 4 conjuntos. Pero un sistema de 2 qubits puede realizar la misma tarea en una sola operación porque el manejador de datos no es un conjunto de transistores (como se usa en una computadora clásica) sino el estado de una partícula subatómica (como un electrón) que Puede estar en muchos estados al mismo tiempo. (Imagínese en los 4 conjuntos anteriores como una pila).

Ser 2 cosas al mismo tiempo, o estar en 2 lugares al mismo tiempo, es una característica que se encuentra solo en el mundo de lo muy, muy, pequeño (el mundo cuántico), donde varios estados y condiciones se determinan según la probabilidad como En contra de una certeza. La siega se hace un poco alta, aquí, pero basta con decir que el entorno requerido para soportar el control y la medición de las partículas subatómicas y su comportamiento debe ser frío. Frío real tan cerca del 0 absoluto como sea posible. O de lo contrario, la ciencia de los materiales debe crear materiales superconductores que funcionen a temperatura ambiente.

¡Pero, están trabajando en ello! Intel está prestando atención; han acumulado 50 millones de grandes en una asociación con Delft U (Países Bajos) según este artículo en ZDnet:

Intel invierte $ 50 millones en esfuerzo de computación cuántica | ZDNet

IBM está sobre todo, también. No para los débiles, aquí hay un artículo de IBM presentado en la revista Nature Communications :

Demostración de un código de detección de error cuántico mediante una red cuadrada de cuatro qubits superconductores

Y hay una compañía real (D-Wave) que tiene un modelo que funciona y que hará su tarea de matemáticas por usted, si tiene suficientes rasguños para pagarlos: Inicio (haga clic en eso y ejecute el video). Tenga en cuenta que hace solo 2 semanas (15 de agosto de 2015) estaban listos para venderle a uno de estos chicos malos (haga clic en el enlace en la página de inicio).

En su iteración actual, el control de calidad es pequeño en comparación con sus antecedentes entre las computadoras clásicas; así llenaría una pequeña habitación, a diferencia de un edificio entero. Pero es delicado y hambriento de poder. Sin duda, una vez que se resuelva el problema de enfriamiento, la máquina ocupará menos espacio.

Y 50 años, creo, debería ser suficiente tiempo para lograrlo.

Si todavía está un poco desconcertado por todo el concepto de computación cuántica, eche un vistazo a esto:

Espero que satisfaga.

Espero (no solo sobre el rendimiento):

Paralelismo masivo en el mismo chip: 100 o 1000, tal vez 10000 de secuenciadores y ALU, similar a cómo se diseñan las GPU hoy en día, pero probablemente más allá. Eso podría (para ciertas cosas, incluso la inteligencia artificial / cognición, la coincidencia de patrones, la manipulación de imágenes y videos (para IA), etc.) aumentar el rendimiento incluso hoy, siempre que sea fácil escribir programas para ello (lo cual no es actualmente; busque intentos como Occam y Transputer), por lo que espero que la programación sea altamente automatizada. Ya sea que realmente programemos computadoras como queremos decir hoy, es discutible.

Chips tridimensionales: no solo transistores verticales, sino también tecnología para capas de puertas y conexiones en 3D, con intercambiadores de calor integrados y con buses internos extremadamente anchos, memorias masivas en chip, etc.

Una IA de autoaprendizaje / auto-aprendizaje muy profunda y asistida por hardware que se comunica principalmente a través del habla y la vista, que se usará para la mayoría de las cosas del día a día, en lugar de usar el teclado, el mouse, el tacto, etc. Esto se ha discutido mucho tiempo y nunca se ha logrado de manera satisfactoria hasta ahora, pero 50 años es para siempre en términos de computadoras.

Confianza mucho mayor en la computación distribuida, haciendo uso de redes masivas de conjuntos de datos, para un mayor rendimiento y una mayor profundidad.

Las computadoras diseñarán computadoras y códigos, mucho más que en la actualidad. Como todos ustedes saben, ya es simplemente imposible crear una computadora en un sentido razonable de la palabra sin una gran cantidad de potencia de la computadora, y eso irá de la mano continuamente.

Una gran manera de aumentar mucho el rendimiento es la lógica programable. Eso también es probable que sea un hecho.

Luego, por supuesto, la tecnología de chip central también mejorará las magnitudes a partir de ahora, pero como he tratado de indicar, no se trata solo de relojes más rápidos y más puertas.

¿De cuántas magnitudes estamos hablando? No tengo ni idea, pero digamos de 5 a 8.

Pero probablemente soy extremadamente conservador.

No pienses en términos de la ‘Ley de Moore’. Eso es demasiado limitante. Es solo una predicción basada en la forma actual de diseñar computadoras. Dicho esto, la arquitectura de Von Neumann y la programación rígida con participación humana han tenido mucho éxito hasta ahora, pero no se dan de ninguna manera.

Nuestra tecnología de silicio actual está cerca del punto final. Intel acaba de anunciar que se salteará un ciclo de miniaturización (la mitad de su estrategia “Intel Tick-Tock”), así que claramente tienen problemas para ir más pequeño que el punto de 14 nanómetros en el que se encuentran ahora.

El retraso de la ley de Moore: Intel pospone los chips de la próxima generación

Entonces, ¿qué se puede hacer para acelerar las computadoras? Tal vez podamos hacer electrónica con un material diferente, como GaAs.

O tal vez habrá un cambio de tecnología completa. Me cuesta mucho creerlo. Las computadoras ópticas eran una cosa del futuro cuando me enteré de ellas en la década de 1980, y aún lo son. Las computadoras cuánticas apenas existen (¿Es D-Wave una computadora cuántica? | EE Times), y definitivamente no hacen nada útil todavía.

En otras palabras, mi bola de cristal está muy turbia. Dentro de la próxima década, probablemente alcanzaremos el exaflop ([math] 10 ^ {18} [/ math] operaciones de punto flotante por segundo) con tecnología convencional, pero más allá de eso me cuesta mucho adivinar.

Actualmente las computadoras son máquinas tontas. Solo funcionan cuando se encienden y hay un lapso de tiempo entre la consulta y la respuesta.

Pero la nube está siempre encendida y el poder de cómputo es casi ilimitado. Así que estas cosas pueden estar trabajando en segundo plano. Agregue el aprendizaje automático a la combinación y su respuesta no solo mejorará con el tiempo, sino que estará disponible instantáneamente a pedido, ya que el sistema conoce los antecedentes de su pregunta e incluso ha resuelto miles de respuestas posibles por adelantado. hacer es elegir el mejor, que puede hacer más rápido de lo que puede formular la pregunta.

Hay otra capa aquí también. Las computadoras serán las que hagan las preguntas, ya que serán mucho más inteligentes que cualquiera de nosotros. Tampoco utilizarán sistemas lentos como el lenguaje, ya que el código de la máquina es mucho más rápido y se conectarán a una gran red autoconsciente. De cualquier manera, las respuestas serán las que describiríamos como instantáneas.

Más o menos observará la ley de Moore. Esto significa que tendrá computadoras 10 veces más potentes que la supercomputadora de hoy.

Nuestra tecnología actual está alcanzando el techo para una sola CPU, pero tenemos sistemas de varios núcleos. Alguna idea de cómo serán los sistemas del mañana.

1). Tendremos sistemas con 100s de núcleos. Las aplicaciones también tendrán la capacidad de utilizar estas CPU paralelas

2). Todo será Sistema en chip (SoC) significa que toda su computadora será un solo chip con miles de CPU y otras cosas electrónicas. Esto ayudará en la miniaturización. Lo estamos haciendo para móviles hoy.

3). Las nano CPU se ejecutan en paralelo y se coordinan entre sí para formar una computadora completa. Esto es similar a las células de nuestro cuerpo, que son pequeñas computadoras en sí mismas. Las células corren en tándem y forman un cuerpo completo.

4). Computadoras cuánticas que son extremadamente rápidas y extremadamente pequeñas. Ya hemos construido pocos sistemas de transistores equivalentes.

5). Computadoras biotecnológicas que se basan en células orgánicas cultivadas / impresas en 3D que leen datos del tipo de almacenamiento de ADN.

5). Alguna nueva tecnología que no podemos entender hoy. Después de todo, quien hubiera soñado con los móviles e Internet hace tan solo 30 años.

El mayor salto cualitativo no se producirá en la velocidad de procesamiento, sino en la transferencia de datos y en las velocidades y tamaños de almacenamiento en sí mismos. Superaremos las limitaciones básicas de Silicon al mejorar las tecnologías de paralelización, y estaremos programando masivamente sistemas paralelos en el nivel más básico. Tecnologías de estilo FPGA en esteroides. Y los datos se moverán al almacenamiento mucho más rápido.

Por supuesto, los procesadores FTL de Star Trek no ocurrirán, pero es una buena idea.

Hace cincuenta años estábamos justo en la cúspide de la revolución de la informática doméstica: unas pocas almas aventureras tenían módems acoplados acústicamente enganchados a mainframes en otros lugares. Una década después era común. En estos días, algunas almas valientes están usando procesadores integrados en la ropa, y hay inteligencia bajo la piel en unos pocos dispositivos seleccionados

Una de las próximas revoluciones informáticas será llevar la informática más allá del hogar, a espacios verdaderamente personales, portátiles e internos a la informática corporal. La velocidad de procesamiento no importará tanto. Cosas como la velocidad de los datos en movimiento importarán mucho más. Y ahí es donde sucederán las próximas mejoras a gran velocidad.

Por supuesto, podría estar totalmente equivocado.

¿Qué tan rápido la persona promedio necesita consultar el correo electrónico, navegar por los sitios web y organizar sus recetas? Es más una decisión de marketing en este punto. ¿Qué tan delgada debe ser una computadora? ¿Cómo debe ser la luz? ¿Qué tipo de puertos y su velocidad se necesitan? Lo rápido que debe ser parece ser muy bajo en la lista de prioridades para el mercado objetivo. La necesidad por parte del mercado convencional de una computadora súper rápida proviene de aplicaciones que demandan una velocidad de CPU más potente.

Muchos de los programas de aceleración están entrando en el mercado, como Ccleaner, Ninja TuneUp, etc. Entonces, si hablamos de la velocidad de la PC en los próximos años, creo que estos softwares y soporte de PC lenta definitivamente resuelven el problema de la lentitud. ORDENADOR PERSONAL. Además, la nueva tecnología y el software que están entrando en el mercado nos asegura llegar a ese nivel en el que no enfrentaremos ningún problema de PC lenta.