¿Qué porcentaje de encuestados ‘no comprometidos’ permite en su base de datos y qué criterios utiliza en los cuestionarios basados ​​en escalas de Likert?

Este problema no tiene reglas estrictas, solo reglas generales y creo que depende de su contexto de investigación y de los métodos que use.

Si desea analizar sus datos con una técnica que necesita que los datos estén completos, esto se convierte en una pregunta central. Primero, miro la proporción de faltantes para cada variable. Si una variable tiene muchas faltas, esto debería despertar su interés. ¿Fue el artículo comprensible para todos de la misma manera? ¿Hubo otros problemas o requisitos? ¿Una mala pregunta de filtro? Tal vez el artículo tiene que ser excluido, debido a esto.

En segundo lugar, analizaré cuántas faltas tiene cada caso. Si un caso ha omitido más del 20% de los elementos que quiero analizar, lo veré más de cerca. Algunas veces olvidaron una página en el cuestionario, a veces tenían razones para dejar de lado esos elementos (es decir, no tenían suficiente conocimiento sobre el tema). ¿O fue el participante simplemente perezoso? Debe decidir si un caso ofrece más datos para su análisis, o solo ruido. Es muy subjetivo, pero una vez que miras los datos, hay pistas. Haga tablas de referencias cruzadas, vea si las respuestas se contradicen entre sí. ¿Escogió siempre la misma respuesta, independientemente de la redacción positiva o negativa del artículo? Calcula las variaciones de tu artículo-baterías. Estos son algunos pasos de cómo me entero, si un caso está “no comprometido” y no respondió en serio. Sin criterios duros, más de una sensibilidad para sus datos.

Si sus artículos tienen menos del 5% de faltas y los casos también tienen poca falta, probablemente no haya ningún problema.

Edición: malinterpreté la pregunta. Se trata de que las personas respondan de forma independiente a lo que se preguntó (respuestas sin sentido).

Señalé hacia este documento: https://www.researchgate.net/pro…

El desarrollador de pruebas para el que trabajo es una empresa comercial, por lo que esto podría no ser relevante para algunos campos.

Para validar una prueba, se necesita mucha gente para realizarla. Necesito cuerpos calientes sentados frente a pantallas de computadora, respondiendo preguntas.

Nuestro método más popular fue que un encuestado (persona desconocida en Internet) completara dos cuestionarios, una prueba “buena” y una prueba que intentábamos validar. Estaban ‘pagando’ por los buenos resultados de la prueba al ayudarnos a validar la segunda prueba. Así que esa es una de las puntas, desencadenar un sentimiento de reciprocidad en el encuestado.

En segundo lugar, filtré a los encuestados arrojando las respuestas obvias “dudosas”

  • ¿Preguntas sin respuesta? Tirarlo.
  • ¿Demasiado tiempo para responder el cuestionario? (más de una desviación estándar minutos más que el promedio) Deséchelo.
  • ¿No tardas lo suficiente? (usando los mismos criterios) Deshazte de él.

(puede haber varias reescrituras / reinicios aquí)

Después de este paso, no pondría esto como un instrumento confiable. Lo ofrecería de forma gratuita a los clientes habituales con normas basadas en el grupo de validación. Todo esto estaría claramente etiquetado para que los usuarios comprendieran que, si bien estábamos relativamente seguros del instrumento, no debía usarse sin una dosis saludable de escepticismo.

Una prueba no entraría en nuestra línea de productos regular hasta que tuviera una muestra grande de candidatos que tomaron la prueba como parte de evaluaciones profesionales.

El porcentaje de encuestados ‘no comprometidos’ es irrelevante. Identifiqué los comportamientos de los candidatos que probablemente eran indicadores de “falta de compromiso” y los utilicé para filtrar las respuestas.