Nosotros (los humanos) estamos haciendo (no en nuestra materia gris) versiones muy crudas de esto ahora.
La derivación (la “ciencia” de usar las múltiples líneas de instrucciones de una CPU para probar el Enfoque-A frente al Enfoque-B, no deterministemente, ver cuál funciona “mejor” y usar ese enfoque mejor / más corto para intentar acelerar los cálculos) es una especie de pensamiento híbrido en la placa base, que se puede hacer ya sea que el programador intencionalmente diga “Pruebe estos dos métodos, vea cuál funciona mejor y haga eso”.
Los coprocesadores gráficos y numéricos (hardware especializado / optimizado puesto a un lado para tareas especiales) son otro tipo de pensamiento híbrido; los programadores incluso están empezando a “engañar” y usan la GPU para cálculos no relacionados con gráficos, como la criptografía. Los llamados sistemas UNIX en tiempo real han hecho esto durante décadas; realmente no pueden ser “en tiempo real” porque, eventualmente, algunas direcciones de memoria o registros estarán bloqueados de E / S (esperando interrupción / prioridad / recursos), por lo que, en cambio, reservan una o dos CPU inactivas como apagado de emergencia Procesadores de un lado para manejar tareas de “tiempo real caliente”.
Y el procesamiento en la nube por niveles (SETI @ Home, Berkeley BOINC, “por favor, subcontrate estos computadores de baja prioridad a computadoras más baratas y lentas que no me pertenecen, así que puedo concentrarme en tareas importantes”) ha realizado una hibridación no humana a no humana para –20 años ahora.
- ¿Qué sectores de trabajo tendrán más demanda pero menos oferta en el futuro?
- ¿Qué películas han estado completamente equivocadas sobre la forma en que se imaginaron el futuro?
- ¿Las compañías como Google y Apple se convertirán en ‘religiones’ en el futuro?
- ¿Cuál es el futuro de la industria del comercio electrónico en Dubai?
- En su opinión, ¿una impresora 3D será el medio de reproducción de robots futuristas?
Así que supongo que la verdadera pregunta es: ¿cuándo verán los sistemas de cognición humana asistidos por computadora un uso más que prototipo en el mercado? Ya estamos viendo casos aislados: la prótesis retiniana Argus (30 receptores), el implante óptico retinal Tubingen MPDA (10 receptores), el implante retiniano Harvard / MIT (recipientes de dos dígitos bajos), el ojo Dobelle inspirado en Harvard / MIT (un puñado de receptores), incluso podría decirse que el dispositivo de estimulación cerebral profunda (DBS) utilizado por Kip Smith y docenas de otros pacientes de Parkinson, que ahora se sospecha que tiene efectos secundarios que alteran el estado de ánimo (utilizado, entre otras cosas, en el tratamiento para depresión). Michael J. Fox estaba en la lista de espera de DBS, pero optó por una palidotomía anterior (destrucción eléctrica de ciertas células cerebrales) que lo descalificó de la idoneidad para el dispositivo.
No estoy tratando de esquivar la pregunta. Más bien, estoy sugiriendo una transición gradual suave entre uso-uno-coprocesador-a-tareas-para-una-CPU → uso-auto-contenido-interno-dispositivo-para-reemplazar-o-complementar-funciones-humanas → usar-procesador-externo-para-reemplazar-o-complementar-funciones-humanas. Y afirmo que estamos casi a 2/3 del camino allí en este punto, aunque esa última pieza es un gran salto.
Acabo de dejar este artículo de 2011 aquí. Si / cuando este procesador de hipocampo de rata se pueda escalar y / o migrar a sujetos humanos con Alzheimer, la puerta se habrá abierto para siempre:
Con un chip de memoria artificial, las ratas pueden recordar y olvidarse con solo tocar un botón