Esta es una pregunta muy exigente, que estoy seguro de que se equivoca. Sin embargo, supongamos que la historia se repite, y que la clave del futuro se encuentra en el pasado, de modo que la respuesta se puede encontrar 87 años más o menos en el pasado y en el futuro.
Hace 87 años las computadoras eran personas, pero se había encontrado que no era necesario contratar matemáticos o astrónomos para realizar el cálculo, siempre que pudiera reducir la tarea de cálculo a una tabla de resultados aritméticos simples. El problema que surgió cuando esto se automatizó con las máquinas electromecánicas (antes de los transistores) fue que existe un límite estricto sobre la cantidad de partes independientes que puede integrar en una sola máquina antes de que comiencen a romper con las estadísticas de sus números absolutos y el mantenimiento de las computadoras. el tiempo de inactividad supera el tiempo operacional útil.
Hablando en términos generales, lo que nos ha salvado de esto durante los últimos 50 años más o menos, es que la integración de múltiples transistores en un solo sustrato es lo suficientemente robusta como para que los componentes defectuosos se puedan aislar antes de que se venda el procesador, y el resto continuará Para operar correctamente durante su vida útil, más o menos. Si este almuerzo ‘gratuito’ terminará tarde o temprano, está fuera de discusión, pero al ritmo al que nos dirigimos, deberíamos optar por los transistores creados a partir de un solo átomo de silicio en menos de los próximos 87 años.
Cuando finalmente nos vemos forzados a cambiar de nuevo los enfoques de fabricación, es difícil imaginar que tendríamos la suerte de encontrar uno que se amplíe tan sólidamente como la integración monolítica en el silicio, es una casualidad afortunada que lo descubrimos. Sin una alternativa viable, esto significaría que a gran escala, los componentes probablemente comenzarán a mostrar tasas de fallas deprimentes nuevamente.
Mirando hacia atrás a la ley de Moore, en 1956, John von Neumann había empezado a lidiar con la rotura del tubo de vacío pensando en términos de computadoras que manejan fallas al reorganizarse, y adaptándose a los problemas de la misma manera que las criaturas vivas se adaptan a una nueva Corazón o insuficiencia renal. Suponiendo que el problema de falla de componente resurgirá, y que no puedo adivinar mejor que John von Neumann, afirmaría que las computadoras en 2100 estarán plagadas de fallas incesantes de componentes, y estarían cableadas para reconfigurarse (como si estuvieran) ), con el fin de ocultar sus problemas internos de los programadores que están tratando de hacer las cosas.
Llámalo una suposición salvaje. Por favor.