¿Puede la IA aprender a hacer el tonto para extraer más información?

Con respecto a los chatbots y las IA similares a las de chatbot: las IA no tienen por qué ser estúpidas. Las IA actuales son bastante tontas. Pero sí, podría programar errores en la parte de la lógica que interpreta los hechos desde la base de conocimientos; podría programar el motor de inferencia para que en ocasiones tome una proposición falsa o desconocida como verdadera, o tome una proposición verdadera o desconocida como falsa.

¿Esto te ganaría algo? Con nuestras IA actuales, creo que no. Esto simplemente haría que el programa sea más tonto, en lugar de hacerlo mentiroso. (También podría hacerlo mentir, diciéndole que invierta declaraciones de hechos, sustituya números diferentes o sustantivos. Pero esto resultaría en muchas tonterías).

Programar la máquina para que guarde silencio puede ser una estrategia más útil. Si funciona para los interrogadores, ¿por qué no chatbots?

Un caso más interesante sería un programa de juego. Si está diseñado para aprender de los movimientos de sus jugadores, absolutamente podría programarlo para realizar movimientos malos o incluso aleatorios, de modo que pueda ver cómo responde su oponente en diversas situaciones. Consideraría esta parte del proceso de entrenamiento, y no esperaría que un jugador real lo soportara: esta máquina apesta, voy a jugar con una persona real.

Por supuesto. AI es solo conciencia humana fuera de un cuerpo humano. Avergonzado, no tengo experiencia en la codificación de inteligencia artificial, pero entiendo que la verdadera IA actuaría exactamente como lo haría un humano. Si quisiera información, definitivamente intentaría hacerse el tonto.

Absolutamente.

Ser tonto, o no revelar la verdadera extensión de su conocimiento sobre un tema, permite que una IA evalúe cuánto sabe la parte con la que se está comunicando. Esto es algo que programaría en una IA si estuviera construyendo una.