Gracias por la A2A Carl.
Las discusiones sobre la superinteligencia como consecuencia de una inteligencia artificial fuerte a menudo se limitan a una visión reduccionista y mecánica de la inteligencia humana, y a replicar y amplificar un conjunto estrecho de procesos cognitivos desde esta perspectiva. Confinado a esta línea de pensamiento, la “superinteligencia” es un IMO de desarrollo predecible; no lo llamaría así. ¿Por qué? Porque, como ocurre con muchos puntos de vista monodimensionales de la inteligencia, ese desarrollo enfatiza métricas objetivas cuantitativas que eluden importantes cuestiones cualitativas, subjetivas e intersubjetivas, o incluso el espectro completo de las objetivas. Para apreciar lo que estoy obteniendo, eche un vistazo a mi Inteligencia funcional en papel (http://tcollinslogan.com/code-3/…). Es fácil perder de vista la amplitud de la inteligencia y sus implicaciones evolutivas cuando se emplean perspectivas y métodos reduccionistas. En cierto modo, es fácil entender por qué sucede esto cuando los campos de la ciencia y la tecnología atraen de manera desproporcionada a las personas que presentan Asperger u otro trastorno del espectro autista, y que a menudo tienen un alto rendimiento en estos campos de sistematización. Entre esta población, el estrechamiento objetivo de la “inteligencia” es una forma cómoda de sistematizar sus funciones. Agregue a esto el hecho de que la ciencia y la tecnología en sí mismas han sido objeto de una especialización creciente, donde la relación con otros campos o una comprensión más amplia e inclusiva ha sido mutilada o abstraída. Desde mi punto de vista, hasta que el espectro mucho más multidimensional de la experiencia humana (percepción, percepción, ideación compleja y matizada, intuición, sofisticación emocional, sensación sentida somática, etc.) se convierta en parte de la síntesis generativa de superinteligencia, esa síntesis seguirá siendo monodimensional. incompleta, y no representativa de la trayectoria evolutiva ya establecida en el homo sapiens. En otras palabras, se quedará corto. Para expandir completamente lo que creo que es una vía más apropiada (y en última instancia más útil) de inteligencia aumentada, tendríamos que responder al difícil problema de Chalmer: los porqués de la conciencia. Esto es lo que nos permitiría lograr algo verdaderamente superinteligente en el sentido más inclusivo, multidimensional y holístico. De lo contrario, solo estamos creando sistemas y herramientas, ampliando la mecanización, y no realmente en la inteligencia. Por lo tanto, el desarrollo de una IA fuerte puede conducir a supertools, pero no a una superinteligencia que represente la complejidad e integraciones de la conciencia en sí misma.
Mis 2 centavos.
- ¿Por qué la mayoría de nuestros esfuerzos científicos (fusión, inteligencia general artificial, robótica, cura para el cáncer) han fracasado?
- ¿Cuáles son algunos de los buenos artículos que explican la diferencia entre (querer ser) un ingeniero y un científico?
- ¿Pueden los científicos ser grandes empresarios?
- ¿Cómo se relaciona la frecuencia del elemento con sus propiedades físicas y químicas?
- ¿Cómo beben agua los pájaros?