¿Cuál es la definición científica de azar? Es decir, ¿qué estamos tratando de cuantificar exactamente por medio del valor p?

Respuesta para:

¿Cuál es la definición científica de azar? Es decir, ¿qué estamos tratando de cuantificar exactamente por medio del valor p?

Los mejores esquemas de ratones y hombres. Banda de popa

Y no nos dejemos más que pena y dolor.

El “azar” es una de esas construcciones lingüísticas que tienen múltiples significados, que entendemos parcialmente por contexto e interpretación. Como tal, es un misterio. Denota incertidumbre.

Si visualizas la posibilidad como algo meramente relacionado con el valor de p, estás muy equivocado.

La única definición “científica” en la que puedo pensar es en la teoría de juegos, donde un “juego de azar”, uno que tiene “movimientos de azar”, involucra elementos de entrada aleatoria, es decir, el juego no está completamente determinado. Tales juegos pueden implicar diversos grados de habilidad.

Yo diría que el azar podría describirse como la esencia que distingue un sistema determinista de uno indeterminista.

Tal determinismo surgiría del estudio de las consecuencias de las causas consideradas en un sistema.

En general, la ciencia y la ingeniería estarían considerando un sistema específico con resultados bien definidos, que se supone se deben a causas bien definidas. Esto abarcaría los supuestos de que las causas bien definidas son los únicos (o principales) factores relevantes que afectan los resultados.

Se espera que tales suposiciones no sean inconscientes; tal vez se pueda medir la certeza de que no intervienen otras causas importantes (quizás incógnitas).

Muchos, si no la mayoría de los sistemas, no son completamente deterministas. Hay cierta aleatoriedad, cierta incertidumbre involucrada en la predicción de un resultado preciso.

Cualquier resultado real de un ‘lanzamiento’ de tal experimento se determina por casualidad, aunque puede estar limitado a una forma particular. Tal vez podamos decir un poco más acerca de dónde puede estar un conjunto de resultados reales, tal vez si tuviéramos que repetir el experimento varias veces y ver un patrón en formación.

El azar, el misterio, interviene en el camino entre lo que se considera (se supone) que son las principales causas medibles y cualquier resultado preciso medido, un resultado que varía de un resultado definido.

Este pensamiento se descompone rápidamente en dos: posibilidad y probabilidad.

La posibilidad tiene su propia “teoría de la posibilidad” (WP), pero este aspecto a menudo no es considerado por aquellos que quieren saltar directamente a la inferencia estadística.

Uno no debe caer en la trampa de creer que la ciencia ya sabe todo lo que es posible.

La plausibilidad es ligeramente diferente de la posibilidad, ya que todo tipo de cosas pueden suceder, son posibles, incluso si la teoría actual considera esos resultados como inverosímiles, altamente improbables. Así se hacen los avances.

Enseguida, surgen paradojas menores (en gran parte porque no se trata de lo definido).

Por ejemplo, considere el resultado de muchos lanzamientos de un dado de seis caras justo; el valor medio esperado sería 3.5, pero ese valor preciso nunca puede ocurrir para un lanzamiento en particular (probable, no posible).

O considere un solo valor teórico verdaderamente aleatorio que surge en el intervalo continuo [0,1], es decir, sabemos que un valor surge en [0,1], pero no precisamente dónde estará. Entonces, la probabilidad de que el valor surja en cualquier punto preseleccionado es nula, mientras que la probabilidad del valor que surge en [0,1] es 1 (certeza).

A menudo podemos averiguar cómo se combinan las posibilidades , pero hay lugar para conjeturas.

También podemos averiguar cómo se combinan y se comportan las probabilidades , de acuerdo con dos ramas de la teoría: las ideas bayesianas originales, basadas en la probabilidad, y las ideas frecuentistas posteriores (debidas a Fisher) que deben más a la convergencia hacia los límites. Ambos enfoques tienen sus partidarios y sus problemas en la práctica.

Hay guerras académicas.

En esta etapa, estamos analizando la forma de los resultados esperados: predicciones basadas en datos experimentales, junto con supuestos (dado un sistema definido y causas consideradas), cómo varían y cuán seguros podemos estar de que la descripción que tenemos es correcta.

Conjeturas calculadas, con intentos de reducir el error en la predicción.

No pretendo entrar en detalles, intentaré solo una visión general imparcial.

El enfoque bayesiano es altamente intuitivo y no depende de tirar la mayor parte de la información pertinente y cualquier dato inconveniente. Tiene conceptos de probabilidades antes y después de un experimento (anterior y posterior) y cómo se relacionan. Puede desentrañar más detalles, pero requiere muchos cálculos.

Los conceptos bayesianos en inferencia estadística incluyen intervalos creíbles (estimación de intervalo) y factores de Bayes para la comparación de modelos.

Ver también estadísticas no paramétricas – Wikipedia

Por otra parte, la inferencia estadística frecuente , que la mayoría de las personas en el negocio de los ensayos médicos parece preferir, a pesar de sus fracasos, depende de espacios infinitos bastante bonitos de fantasía y teoremas de límites centrales (que a su vez dependen de condiciones que casi nadie recuerda o respeta ). Las grandes matemáticas resultaron en la inverosímil consideración de que todas las distribuciones son finalmente normales. Sin embargo, la computación es mucho más fácil, lo que ha sido una gran ventaja, algo que puede estar perdiendo su atractivo ahora que las computadoras modernas pueden hacer algo más.

En términos de ensayos, la inferencia frecuentista requiere muestras extensas (y un chequeo frecuentemente omitido de que esto de hecho resulta en una distribución normal de resultados).

Los conceptos de frecuencia incluyen intervalos de confianza y valor p, de los que habla.

Como preguntas, este valor p es a menudo mal interpretado. En esencia, es una probabilidad de que las predicciones obtenidas del análisis de datos puedan ser erróneas, pero la definición es precisa y técnica. Un valor p muy pequeño dice que es poco probable que sus datos obtenidos fueran la hipótesis nula de ser cierta, pero no puede decir si esto se debe a que la hipótesis principal es la más probable o la muestra es inusual. (De ahí nuevamente la necesidad de una N. grande y costosa).

Formalmente: el valor p (en el contexto de la prueba de hipótesis nula) es la probabilidad condicional de obtener una estadística de prueba tan extrema o más extrema que la estadística de prueba calculada, dado que la hipótesis nula es cierta.

_______

Hay un artículo sobre cómo el azar afecta el descubrimiento científico.

Las variedades del azar en la investigación científica. (NCBI pubmed 514115, Med Hypotheses. 1979 Jul; 5 (7): 737-42.) Austin JH.

Aparte de la suerte “ciega”, Austin ve

Oportunidad I: serendipia, que implica encontrar cosas valiosas como resultado de un feliz accidente. (Horace Walpole, 1754, en referencia a un cuento de hadas persa, Los tres príncipes de Serendip.)

El azar II: comportamiento exploratorio general,

El azar III: la sagacidad. La suerte favorece a la mente preparada.

Chance IV: buena suerte como resultado de acciones personalmente distintivas

Sigue la suerte adversa de “bahramdipity” también derivada del cuento Los tres príncipes de Serendip. Esta desgracia describe la cruel supresión de un descubrimiento fortuito. Los descubrimientos suprimidos y no publicados se designan como nulos.


Y aquí hay un poco sobre si lo normal es realmente normal

http://aidanlyon.com/media/publi…

Es cierto que la idea de significación solía confundirme bastante como estudiante universitario.

Sin embargo, todo se volvió muy simple cuando decidí sacar el problema.

Cuando generamos una línea de regresión, lo hacemos para determinar la naturaleza de la relación entre dos variables (x e y).

Mira la gráfica de arriba. Todos los puntos de datos se encuentran muy cerca de la línea de regresión. En este sentido, diríamos que es muy poco probable que la relación haya ocurrido por casualidad; hay una importancia teórica detrás de esta relación.

Ahora, veamos este gráfico:

Nuestros datos están mucho más dispersos y ya no podemos confiar en que la línea de regresión es una representación precisa de la relación entre nuestras variables x e y.

es decir, la primera relación es estadísticamente significativa (no ha ocurrido debido al azar), mientras que la segunda es estadísticamente insignificante (ha ocurrido debido al azar). En la primera relación, usted esperaría ver un valor p bajo (cuanto más bajo, más significativo estadísticamente), mientras que el valor p para este último sería mayor.

El nivel de importancia es simplemente un margen de error , es decir, el inverso a un intervalo de confianza. Por ejemplo, si tenemos un nivel de significación del 5%, estamos diciendo que tenemos un 95% de confianza de que debemos rechazar la hipótesis nula, es decir, que rechazamos la idea de que no existe una relación entre las dos variables.

El valor p es simplemente un proxy para el nivel de importancia. es decir, un valor de p inferior a 0.05 significa que hay menos de un 5% de probabilidad de que la hipótesis nula sea cierta.

La siguiente es mi última diapositiva en mi punto de poder en la prueba de hipótesis. Debería aclarar que un buen acuerdo (pero no todo) de este texto se toma directamente de la 4ta edición de Estadísticas de Friedman, Paisani y Purves. Pondré un complemento para este libro. Es un gran recurso para el aprendizaje de estadísticas elementales. Especialmente si busca explicaciones conceptuales y una visión de la mente de un estadístico.


Una perspectiva sobre la prueba de hipótesis

Cuando un cliente va a ser interrogado, los abogados a menudo dan los siguientes consejos:

Escucha la pregunta y responde la pregunta. No responda a la pregunta que deberían haber formulado, ni a la pregunta que deseaba hacer. Solo responde la pregunta que realmente hicieron.

Las pruebas de significación siguen una estrategia completamente diferente. Lo que sea que preguntes, responden a una y solo una pregunta:

¿Qué tan fácil es explicar la diferencia entre los datos y lo que se espera bajo la hipótesis nula, sobre la base de la variación al azar solamente?

La variación de probabilidad está definida por un modelo para los datos. Este modelo es especificado (explícita o implícitamente) por el investigador. La prueba no verificará que el modelo sea relevante o plausible. La prueba no medirá el tamaño de la diferencia o su importancia. Y la prueba no identificará la causa de la diferencia.


Cuando realiza una prueba de hipótesis, hace una suposición sobre cómo se elige su muestra. Las pruebas de hipótesis solo funcionan si la muestra se elige al azar de la población. Pero cuando haces eso, estás mirando una visión imperfecta de la población. Es posible que su muestra le diga una cosa, pero existe una posibilidad (probabilidad) de que la muestra se haya visto diferente.

Supongamos que te entrego una moneda que afirmo que es justa (la probabilidad de caras es del 50%). Usted sospecha que mi afirmación puede estar equivocada, así que la prueba. Tiras la moneda 100 veces y observas 51 caras. ¿Crees que mi moneda es justa? Es muy posible que una moneda justa se comporte de esa manera porque existe una posibilidad aleatoria involucrada en este experimento.

¿Qué pasa si observas 99 cabezas? Todavía es posible observar este resultado en el experimento aleatorio. Pero decir que es poco probable es una subestimación (decir que es una subestimación es una subestimación). En este caso, tiene razón al dudar de mi afirmación de imparcialidad. Pero tu duda se basa en la probabilidad.

El valor p es una medida de “qué tan fácil es explicar la diferencia entre los datos y lo que se espera sobre la base de la variación aleatoria sola”. El valor p es una probabilidad. Cuanto más cercana sea esa probabilidad al 100% (valor decimal de 1), mejor se verá el argumento de variación aleatoria. Cuanto más cercana sea la probabilidad al 0% (o 0), más difícil será tragar.

Ok uno más. Supongamos que su experimento con monedas produce 62 cabezas de 100. ¿Es esta moneda justa? En realidad es una decisión difícil. Dependiendo de los estándares específicos que adopten, diferentes estadísticos podrían razonablemente dar diferentes respuestas a la pregunta de imparcialidad. Pero todos los estadísticos querrán realizar una medición a partir de los datos proporcionados que guiarán su decisión. Una medida importante que podrían elegir hacer es el valor p.

Es una definición matemática, más que científica.

En pocas palabras, la probabilidad es una medida de la probabilidad de que ocurra un evento. Si el pronóstico del tiempo dice que hay un 20% de probabilidad de lluvia en su casa hoy, significa que, en promedio, si toma todos los días en que la probabilidad de lluvia fue del 20% y registró si realmente llovió o no día, encontrarás que llovió en el 20% (uno de cada cinco) de ellos.

Los valores P son simplemente una aplicación específica de ese concepto. En un experimento, tiene una hipótesis nula , que representa la idea de que no existe una relación entre lo que está probando (por ejemplo, un tratamiento farmacológico) y el resultado del experimento. Si los resultados de un experimento tienen un valor de p de 0.05 (5%, o uno en veinte), entonces hay un 5% de probabilidad de que haya obtenido resultados similares o incluso más extremos, incluso si la hipótesis nula fuera cierta . En otras palabras, hay un 5% de probabilidad de que su resultado sea un falso positivo , donde los resultados del experimento sugieren que la hipótesis nula es falsa, pero en realidad es cierta. En el ejemplo del tratamiento con medicamentos, habría un 5% de probabilidad de que el medicamento pareciera ser efectivo aunque en realidad no lo fuera.

Entonces, ¿cómo podemos averiguar cuál es el valor p de nuestro resultado experimental? Utilizamos una variedad de pruebas estadísticas que se han demostrado matemáticamente para relacionar los datos de la muestra experimental con la probabilidad. Las pruebas estadísticas que son aplicables a un experimento dado dependen del diseño del experimento; por ejemplo, la distribución t de Student es una distribución de probabilidad que es apropiada para una amplia variedad de experimentos, y la prueba asociada se llama prueba t de Student. En estos días, simplemente conectas tus datos a un programa y el valor de p correspondiente aparecerá, pero en los Días Antiguos tenías que hacer muchos cálculos y buscar cosas en las tablas.