En general, y ahora cada vez más, las redes sociales siempre han hecho un gran uso de la hipérbole, por razones obvias. De esta manera, las cosas se vuelven desproporcionadas, particularmente cuando los campos que involucran no son ampliamente conocidos o comprendidos. Así que diría que lo primero que se debe hacer es calmarse realmente.
Ahora, para hacer una respuesta convincente a sus preguntas, y aclarar un poco en el camino (así que tengan paciencia, esto podría ser más información de la que esperaba): en primer lugar, podemos retroceder un poco y aclarar algunos conceptos erróneos comunes con respecto a La ley de Moore, y la próxima barricada percibida. La ley de Moore existe porque, fundamentalmente, la forma en que funciona el hardware de computación no ha cambiado significativamente en las últimas décadas: se basa en el venerable transistor, el “interruptor” que simplemente puede permitir o evitar que una corriente eléctrica pase a través de una parte determinada del circuito. Esto se traduce en “1s” y “0s” (es decir, corriente / no corriente), a partir de la cual se construyen puertas lógicas y, posteriormente, operaciones booleanas, etc. Entonces, como se ve, el negocio de adquirir más potencia de cómputo es, en una aproximación de primer orden, el negocio de instalar más compuertas lógicas (es decir, transistores) en el chip del procesador. Dado que es deseable que el tamaño externo de estos dispositivos sea cada vez más pequeño, la única dirección para el avance tecnológico es hacer que los transistores sean más pequeños: esto es lo que los “nodos de 13nm” (es decir, Ivy Bridge / Sandy Bridge y he perdido la cuenta) Desde entonces, a menudo se escucha abatido cuando Intel lanza sus nuevos chips cada año. Como sociedad, debemos una gran parte de nuestra creciente productividad y desarrollo a un mayor poder de cómputo, por lo que, en este sentido, la ley de Moore es un poco auto-profética: es verdad porque lo hicimos así (las industrias lo han utilizado tradicionalmente como una hoja de ruta para desarrollos de productos).
Ahora, todo este bombo que ha escuchado acerca de la inminente condena de la Ley de Moore, se centra en el hecho de que debe haber un límite fundamental para que esta reducción pueda ir: el límite absoluto es obviamente el átomo único, pero a un solo dígito del tamaño del nanómetro. las escalas que ya tienen efectos cuánticos prevalecen y, en términos generales, son lo suficientemente problemáticas como para evitar un funcionamiento eficiente del dispositivo (las corrientes pueden “filtrarse” de sus canales previstos, lo que da como resultado relaciones de encendido / apagado bajas y, por lo tanto, señales de 1-0 propensas a errores). Esto no es para decir enfáticamente que nuestras computadoras portátiles no serán más rápidas a partir de los próximos dos años: todavía hay muchos trucos de fabricación que las compañías de chips tienen bajo la manga, lo que hará que las cosas sigan funcionando por más tiempo (por ejemplo, múltiples litografías). patrones), aunque hay que admitir que tales trucos no superan la física fundamental que un día pondrá fin a la reducción de personal.
SIN EMBARGO, esto no quiere decir que este será el final del camino: muchas personas se han dado cuenta de este problema, y la cantidad de esfuerzo y dinero invertido para superar esto ha sido realmente asombroso. El procesamiento cuántico utilizando moléculas / iones / átomos es solo una solución posible que ha llegado a los medios convencionales; existen otras soluciones posibles, incluidos los dispositivos basados en la óptica (es decir, impulsados por la luz, en lugar de los controlados electrónicamente), y lo que generalmente se denomina dispositivos III-V (el silicio de recuperación es el grupo IV). Todos estos trabajos se basan en sus propios principios distintos: la idea detrás del procesamiento atómico es la superposición cuántica, donde en lugar de simplemente tener corriente / no corriente (1-0), ahora se puede tener, por ejemplo, un electrón de giro, un giro hacia abajo. electron, o un giro de 1 / sqrt2 hacia arriba y hacia abajo (así que tal vez 1-0-2). De esta manera, he aumentado de manera exponencial el poder de cómputo, porque he aumentado efectivamente la capacidad de almacenamiento de un solo bit. De manera similar, al usar dispositivos ópticos, las partículas “mensajeras” de uno ahora viajan a la velocidad de la luz en lugar de a la electricidad, por lo que incluso sin cambiar la arquitectura básica (aún encendido / apagado 1-0), las velocidades de cómputo aumentarán de 10 a 100 veces.
- ¿Qué todos los campos ofrece una pasantía de TI?
- ¿Es la Delhi School of Internet Marketing buena para aprender algún curso allí?
- Cómo conseguir un trabajo de TI en Japón
- ¿Cómo puede una startup encontrar y contratar desarrolladores de PHP experimentados sin perder horas entrevistando a freelancers sin experiencia con CV exagerados y perfiles exagerados de oDesk?
- ¿Necesito ser bueno en matemáticas para especializarme en seguridad cibernética?
(Conclusión # 1) : El resultado de todo esto es que espero haberles brindado una breve perspectiva para ver que, en primer lugar, algunas personas muy inteligentes de todo el mundo están preocupadas por este problema y se han realizado múltiples enfoques prometedores. Identificado hace un tiempo; en segundo lugar y, lo que es más importante, existe un inmenso potencial para el progreso continuo. La ley de Moore puede detenerse, porque podemos estar eliminando por completo la tecnología de transistores; pero puede estar seguro de que los avances en el poder de cómputo (y, por lo tanto, el “progreso” como lo conocemos) nunca se detendrán (al menos no por mucho tiempo).
En cuanto a su punto relacionado con los lenguajes informáticos: creo que lo está pensando demasiado. El software va de la mano con la arquitectura correspondiente: dado que el hardware no ha cambiado fundamentalmente, tampoco tiene su código de máquina básico de dígitos binarios, y ¿por qué debería cambiar fundamentalmente el software? Uno está en peligro de sobregeneralizar y pasar por alto lo obvio si se aleja todo como una especie de “reenvasado” sin el llamado progreso “real”; ¿Qué es exactamente lo que está mal en crear nuevos paquetes de software o idiomas, adaptados a algunas funciones muy específicas (por cierto, estamos presentando constantemente nuevas aplicaciones y funciones, por ejemplo, el principal ejemplo de creación de mercado)? (Conclusión # 2): Realmente no veo nada de qué preocuparme aquí. Piénselo de esta manera: el inglés se ha hablado durante al menos … xx cien años. ¿Ha evolucionado mucho desde entonces? En contraste, ¿hasta qué punto ha llegado la sociedad humana, o la sociedad occidental, en los últimos cientos de años? Que el lenguaje se estanque (una vez más, en este caso, debido al hardware) no tiene ningún fundamento para decir que el progreso en general se verá afectado.
Y, por último, no estoy seguro de qué tan exactamente la locura de la “singularidad” se hizo popular en Internet, pero sospecho que podría tener algo que ver con la predicción de Stephen Hawking de que la inteligencia artificial (AI) algún día cruzará un punto de singularidad y será auto-independiente. Basta y erradica a los humanos por nuestras (muy humanas) debilidades e ineficiencias. (Conclusión # 3): Mi respuesta a eso es a nivel teórico, me inclino a aceptar que debería existir un punto así y que, en teoría, si logramos diseñar una IA que funcione de manera similar a un organismo biológico sensible, entonces sí El desafortunado resultado probablemente será la serie de películas Terminator. PERO estamos demasiado lejos en el diseño de IA, el aprendizaje automático e incluso en la comprensión de nuestros propios cerebros (equivalentes biológicos de bits / bytes, etc.), por lo que también debería preocuparse por la muerte hasta el punto de quema, ya que no es suficiente. El núcleo de la tierra. Ese tipo de circuito de retroalimentación positiva y aprendizaje sensible en los sistemas de IA es mucho más allá de los sueños más salvajes de los informáticos y cualquier otro que trabaje en campos relacionados. Así que dejaría de preocuparme por este tema hasta que la humanidad dé por lo menos el primer pequeño paso hacia la inteligencia artificial, que por cierto podría dar paso a una era de prosperidad sin paralelo para los humanos (o igualmente aniquilación).