Si alguien está fuera de su profundidad aquí, es muy evidente que Musk, cuyo éxito en los negocios no es más transferible para la IA, el éxito de Michael Jordan en el baloncesto fue para el béisbol.
Es gracioso, la gente en el mundo de hoy que no sabe nada acerca de la inteligencia artificial (como era de esperar) no se preocupa por su “amenaza” para la humanidad. Del mismo modo, las personas más informadas acerca de la IA, las que realizan una investigación real, tampoco están preocupadas por las capacidades de la tecnología para acabar con la humanidad. Parece que solo aquellos en el medio, los que están lo suficientemente informados como para haber visto la racha de éxitos del aprendizaje automático en los últimos años, están realmente preocupados por a dónde se dirige esta tecnología.
¿Porqué es eso? ¿Por qué los legos informados son los más preocupados por el futuro de la IA?
Ya que estamos hablando de Mark Zuckerberg, compararé este fenómeno con su feed de Facebook. Cuando inicias sesión en Facebook todos los días y te registras con tus amigos, ¿qué ves? Ves matrimonios, vacaciones, bebés recién nacidos. Usted ve los éxitos, los carretes más destacados. La gente anuncia sus puntos altos, pero esos son solo una pequeña parte de toda la historia. También hay luchas, y períodos de tedio, de rutina. No es diferente en la IA.
- ¿Qué prioridad de la compañía es más importante para todo el mundo de TI, Apple, IBM, Microsoft o Google?
- ¿Cuáles crees que serán los trabajos más demandados y mejor pagados en el futuro?
- ¿Vendrá la guerra a China aunque China no quiera ir a la guerra? Las probabilidades de China, sin embargo, no se ven bien. ¿Cómo puede China superar sus desventajas?
- ¿Qué sucederá el 1 de agosto de 2017 para la mayoría de las criptomonedas?
- ¿Cuál es el futuro del podcasting?
Escuchas mucho sobre lo asombrosas que son las redes neuronales en la clasificación de imágenes, el reconocimiento del habla. De lo que no se escucha tanto es de lo frágiles que pueden ser estos modelos: rompiendo los clasificadores lineales en ImageNet.
Echa un vistazo a este conjunto de imágenes:
Aquí tenemos una red neuronal que clasifica correctamente la imagen de la izquierda como un panda . Vaya, tal tecnología. ¡Pero espera! Introduzca solo un poco de ruido en la imagen, imperceptible para el ojo humano, y de repente el clasificador está convencido (¡99.3% de confianza!) De que la imagen es un gibón . Para referencia, un gibón se ve así:
No se equivoquen, existen limitaciones muy reales en los sistemas modernos de aprendizaje automático; Limitaciones fundamentales que requerirán un verdadero avance para superar. Los sistemas de aprendizaje automático son muy buenos en lo que llamaré ajuste de curva estadística . En otras palabras, se les da un montón de datos (generalmente etiquetados), extraen vectores complejos de características de alta dimensión de los datos, los combinan de formas no lineales y producen una salida. En otras palabras, son aproximadores de funciones.
¿En qué se diferencia todo eso de lo que llamamos inteligencia general o humana ?
- El conocimiento humano es transferible . Podemos usar ideas para resolver un problema para resolver un problema diferente.
- El conocimiento humano es generalizable . Los algoritmos de aprendizaje automático requieren grandes cantidades de datos para aprender algo útil, y al final del día, todo lo que han aprendido es cómo caracterizar correctamente el conjunto de datos. Los seres humanos aprenden un conocimiento más general de solo una fracción de los datos.
- Los humanos entienden la lógica . El aprendizaje automático es tonto. No tiene una representación sofisticada del conocimiento que utiliza para tomar sus decisiones. No tiene marco para entender taxonomías o relaciones. Estas son todas las construcciones humanas. Hemos intentado enseñar la lógica de las máquinas, y hasta ahora ha sido un fracaso espectacular. Resulta que la inferencia exacta utilizando la lógica de primer orden es prohibitivamente costosa. La IA moderna utiliza algoritmos tontos, con gran cantidad de datos.
En este punto, los escépticos por ahí están sin duda pensando: “Sí, claro, el aprendizaje automático sufre esas limitaciones AHORA, pero es solo una cuestión de tiempo …” . A lo que digo: claro, es solo cuestión de tiempo antes de que tengamos inteligencia general artificial. Así como es solo una cuestión de tiempo antes de que tengamos fusión fría, colonias en Marte y microchips implantados en el cerebro (el último de los cuales probablemente hará que todo el “escenario del juicio final de AGI” sea irrelevante en sí mismo). Pero como con todas esas cosas, el problema con el aprendizaje automático es que no nos da un camino claro hacia la inteligencia general artificial .
Estamos subiendo una colina con aprendizaje automático. No sabemos cuán lejos de la cima estamos, solo que parece ser muy alto. Pero nadie que sepa que trabaja activamente en el campo cree que la parte superior es SkyNet. Esa realidad existe en una colina completamente diferente que aún no hemos encontrado, y tendremos que escalar otro día.