Con respecto a los chatbots y las IA similares a las de chatbot: las IA no tienen por qué ser estúpidas. Las IA actuales son bastante tontas. Pero sí, podría programar errores en la parte de la lógica que interpreta los hechos desde la base de conocimientos; podría programar el motor de inferencia para que en ocasiones tome una proposición falsa o desconocida como verdadera, o tome una proposición verdadera o desconocida como falsa.
¿Esto te ganaría algo? Con nuestras IA actuales, creo que no. Esto simplemente haría que el programa sea más tonto, en lugar de hacerlo mentiroso. (También podría hacerlo mentir, diciéndole que invierta declaraciones de hechos, sustituya números diferentes o sustantivos. Pero esto resultaría en muchas tonterías).
Programar la máquina para que guarde silencio puede ser una estrategia más útil. Si funciona para los interrogadores, ¿por qué no chatbots?
Un caso más interesante sería un programa de juego. Si está diseñado para aprender de los movimientos de sus jugadores, absolutamente podría programarlo para realizar movimientos malos o incluso aleatorios, de modo que pueda ver cómo responde su oponente en diversas situaciones. Consideraría esta parte del proceso de entrenamiento, y no esperaría que un jugador real lo soportara: esta máquina apesta, voy a jugar con una persona real.