Si consideramos a las personas en la industria de la tecnología informática, incluidos los inversores, yo diría que el dominio más mal valorado es inteligencia artificial / máquina . Casi todos están muy lejos del potencial de las relativamente antiguas, bastante antiguas técnicas que se aplican rápidamente en muchas industrias. Si bien está claro que hay un gran potencial sin explotar (fundé una empresa en el espacio y trabajo en ella a tiempo completo), está mucho menos claro que se extenderá al nivel que casi todos en esa comunidad han dado por sentado.
La fuerza de estas creencias parece provenir en parte de la deferencia a la autoridad, y en parte por la falta de comprensión del dominio. En resumen, cuando personas como Elon Musk dicen que se puede hacer algo y que todas las grandes compañías de Internet están muy comprometidas, el nivel de autoridad es muy grande. Cuando se complica por el conocimiento limitado de que las computadoras de la vista pueden resolver cualquier problema que un ser humano pueda ser controvertido (al menos con los diseños actuales y las técnicas de programación), usted tiene la capacidad de realizar un error de precios importante, que creo que sí tenemos.
Me quedé corto en vehículos autónomos en 2012, con una apuesta con un amigo, que ahora es profesor de informática y dirige un laboratorio de AI / ML. Esto fue después de que Google anunció que uno de sus autos de conducción automática había aprobado una versión limitada de la prueba de licencias del estado de Nevada. Apuesto incluso a que no veríamos vehículos verdaderamente autónomos operando sin asistencia humana durante al menos 5 años. Gané esa apuesta hace un par de meses y, a pesar de lo que Tesla ha lanzado, tomaría una apuesta similar hoy, con un precio tan bajo como 3: 1. Es importante tener en cuenta que los vehículos autónomos son un problema relativamente accesible en el dominio general aquí, por lo que incluso cuando se rompe (lo cual creo que probablemente será), todavía hay mucho espacio para el escepticismo.
Casting Duda
Hay una prueba fácil de entender de que casi todos los problemas de decisión son incuestionables. Esto significa que podemos estar seguros de que es imposible encontrar una solución óptima y probablemente correcta para casi todos los problemas con una computadora digital. Para que quede claro, esto no significa que las computadoras no puedan igualar o superar a las personas para encontrar soluciones “suficientemente buenas” para estos problemas, pero no tenemos ninguna garantía de esto, por lo que constituye un pilar de un argumento en contra.
El siguiente pilar es que las computadoras que ejecutan programas escritos con técnicas existentes claramente no están haciendo nada similar a los cerebros, incluso cuando usamos el mismo lenguaje para describirlos, como “aprendizaje”, “red neuronal” o “inteligencia”. Creo que este punto es indiscutiblemente cierto. Incluso los investigadores más optimistas en el campo reconocen esto principalmente; simplemente no creen que importe
El último pilar es que los sistemas físicos utilizados para implementar la IA (más o menos transistores de silicio dopados) son fundamentalmente diferentes físicamente de los cerebros, que hasta ahora son los únicos sistemas físicos que hemos observado para resolver muchos de los problemas que la AI promete dominar. Los mayores defensores de la inteligencia artificial están haciendo afirmaciones aún más agresivas.
Entonces, un bosquejo muy aproximado del contra-argumento es:
- Casi todos los problemas son imposibles de calcular de manera óptima.
- No hay garantía de una solución subóptima “suficientemente buena” para un problema dado.
- Los algoritmos que utilizamos para abordar los problemas actuales son diferentes a los mejores solucionadores de problemas que observamos en la naturaleza.
- Los sistemas físicos que implementan nuestros mejores algoritmos son diferentes a los mejores solucionadores de problemas que observamos en la naturaleza.
- Por lo tanto, los sistemas físicos y los algoritmos utilizados actualmente para implementar la IA no están seguros de resolver todos los problemas a los que se aplican, y pueden no resolverlos tan bien como los mejores solucionadores de problemas actualmente observables.
Las personas tienden a extrapolar el progreso linealmente de los resultados históricos. Podrían adaptar su pensamiento a la extrapolación exponencial, cuando la historia les da razón (como la Ley de Moore o la expansión de Internet), pero casi nunca predicen la nivelación asintótica. Esto es a pesar de que somos testigos de nivelación en casi todos los casos.
Obviamente, el OP lo sabe, pero lo aclararé: no necesita creer que las computadoras no resolverán todos los problemas mejor que nosotros para acordar que tenemos un precio erróneo. Solo necesitas pensar que el resultado es menos seguro de lo que la mayoría cree. Como muchas personas parecen pensar que este es un resultado determinado, cuando en realidad no se sabe con certeza, este dominio tiene un precio incorrecto y vale la pena apostar en contra, incluso si usted cree en él.