No. La inteligencia artificial ni siquiera está definida, y hay ciertos problemas que la IA no puede superar fácilmente.
La inteligencia artificial es solo una etiqueta para un conjunto de sistemas de software y métodos de resolución de problemas, a menudo caracterizados por sistemas basados en agentes. Entonces, allí mismo necesitaremos seres humanos para corregir errores de software en la IA y escribir actualizaciones y versiones posteriores de la AI.
Un punto a destacar aquí es sobre la ilusión de inteligencia en el software de inteligencia artificial. Se desconoce si AI en realidad expresa inteligencia, o si los humanos estamos sufriendo de Pareidolia, cada vez que encontramos máquinas que expresan patrones que a veces parecen complejos o creados por humanos. Pareidolia es la condición psicológica de ver patrones en sistemas complejos, como caballos o conejos en formaciones de nubes.
Finalmente, desde una perspectiva práctica, cada vez que un sistema de inteligencia artificial necesita tomar una decisión moral en la que los únicos resultados posibles para la inteligencia artificial resulten en la muerte de alguien, la responsabilidad y las posibles demandas legales recaerán sobre los creadores del sistema de inteligencia artificial. Ninguna empresa sensata y con riesgo adverso va a crear sistemas de inteligencia artificial que necesiten lidiar con este nivel de responsabilidad moral humana. (Considere la posibilidad de un auto con auto que está a punto de sufrir un accidente y debe decidir entre correr y matar a los peatones o chocar y matar a los ocupantes del vehículo).