Respuesta para:
¿Cuál es la definición científica de azar? Es decir, ¿qué estamos tratando de cuantificar exactamente por medio del valor p?
Los mejores esquemas de ratones y hombres. Banda de popa
Y no nos dejemos más que pena y dolor.
- ¿Cuáles son las características de un compuesto iónico?
- Cómo ser ultrainteligente en todo en 1 año.
- ¿Cómo se forma una estrella? ¿Cuál es la fuente de la gravedad que atrae y comprime los gases para iniciar el proceso y luego los mantiene unidos?
- ¿Qué pasaría si los iones y los átomos cambiaran de lugar?
- ¿Cuáles son las teorías matemáticas o físicas más alucinantes o profundas?
El “azar” es una de esas construcciones lingüísticas que tienen múltiples significados, que entendemos parcialmente por contexto e interpretación. Como tal, es un misterio. Denota incertidumbre.
Si visualizas la posibilidad como algo meramente relacionado con el valor de p, estás muy equivocado.
La única definición “científica” en la que puedo pensar es en la teoría de juegos, donde un “juego de azar”, uno que tiene “movimientos de azar”, involucra elementos de entrada aleatoria, es decir, el juego no está completamente determinado. Tales juegos pueden implicar diversos grados de habilidad.
Yo diría que el azar podría describirse como la esencia que distingue un sistema determinista de uno indeterminista.
Tal determinismo surgiría del estudio de las consecuencias de las causas consideradas en un sistema.
En general, la ciencia y la ingeniería estarían considerando un sistema específico con resultados bien definidos, que se supone se deben a causas bien definidas. Esto abarcaría los supuestos de que las causas bien definidas son los únicos (o principales) factores relevantes que afectan los resultados.
Se espera que tales suposiciones no sean inconscientes; tal vez se pueda medir la certeza de que no intervienen otras causas importantes (quizás incógnitas).
Muchos, si no la mayoría de los sistemas, no son completamente deterministas. Hay cierta aleatoriedad, cierta incertidumbre involucrada en la predicción de un resultado preciso.
Cualquier resultado real de un ‘lanzamiento’ de tal experimento se determina por casualidad, aunque puede estar limitado a una forma particular. Tal vez podamos decir un poco más acerca de dónde puede estar un conjunto de resultados reales, tal vez si tuviéramos que repetir el experimento varias veces y ver un patrón en formación.
El azar, el misterio, interviene en el camino entre lo que se considera (se supone) que son las principales causas medibles y cualquier resultado preciso medido, un resultado que varía de un resultado definido.
Este pensamiento se descompone rápidamente en dos: posibilidad y probabilidad.
La posibilidad tiene su propia “teoría de la posibilidad” (WP), pero este aspecto a menudo no es considerado por aquellos que quieren saltar directamente a la inferencia estadística.
Uno no debe caer en la trampa de creer que la ciencia ya sabe todo lo que es posible.
La plausibilidad es ligeramente diferente de la posibilidad, ya que todo tipo de cosas pueden suceder, son posibles, incluso si la teoría actual considera esos resultados como inverosímiles, altamente improbables. Así se hacen los avances.
Enseguida, surgen paradojas menores (en gran parte porque no se trata de lo definido).
Por ejemplo, considere el resultado de muchos lanzamientos de un dado de seis caras justo; el valor medio esperado sería 3.5, pero ese valor preciso nunca puede ocurrir para un lanzamiento en particular (probable, no posible).
O considere un solo valor teórico verdaderamente aleatorio que surge en el intervalo continuo [0,1], es decir, sabemos que un valor surge en [0,1], pero no precisamente dónde estará. Entonces, la probabilidad de que el valor surja en cualquier punto preseleccionado es nula, mientras que la probabilidad del valor que surge en [0,1] es 1 (certeza).
A menudo podemos averiguar cómo se combinan las posibilidades , pero hay lugar para conjeturas.
También podemos averiguar cómo se combinan y se comportan las probabilidades , de acuerdo con dos ramas de la teoría: las ideas bayesianas originales, basadas en la probabilidad, y las ideas frecuentistas posteriores (debidas a Fisher) que deben más a la convergencia hacia los límites. Ambos enfoques tienen sus partidarios y sus problemas en la práctica.
Hay guerras académicas.
En esta etapa, estamos analizando la forma de los resultados esperados: predicciones basadas en datos experimentales, junto con supuestos (dado un sistema definido y causas consideradas), cómo varían y cuán seguros podemos estar de que la descripción que tenemos es correcta.
Conjeturas calculadas, con intentos de reducir el error en la predicción.
No pretendo entrar en detalles, intentaré solo una visión general imparcial.
El enfoque bayesiano es altamente intuitivo y no depende de tirar la mayor parte de la información pertinente y cualquier dato inconveniente. Tiene conceptos de probabilidades antes y después de un experimento (anterior y posterior) y cómo se relacionan. Puede desentrañar más detalles, pero requiere muchos cálculos.
Los conceptos bayesianos en inferencia estadística incluyen intervalos creíbles (estimación de intervalo) y factores de Bayes para la comparación de modelos.
Ver también estadísticas no paramétricas – Wikipedia
Por otra parte, la inferencia estadística frecuente , que la mayoría de las personas en el negocio de los ensayos médicos parece preferir, a pesar de sus fracasos, depende de espacios infinitos bastante bonitos de fantasía y teoremas de límites centrales (que a su vez dependen de condiciones que casi nadie recuerda o respeta ). Las grandes matemáticas resultaron en la inverosímil consideración de que todas las distribuciones son finalmente normales. Sin embargo, la computación es mucho más fácil, lo que ha sido una gran ventaja, algo que puede estar perdiendo su atractivo ahora que las computadoras modernas pueden hacer algo más.
En términos de ensayos, la inferencia frecuentista requiere muestras extensas (y un chequeo frecuentemente omitido de que esto de hecho resulta en una distribución normal de resultados).
Los conceptos de frecuencia incluyen intervalos de confianza y valor p, de los que habla.
Como preguntas, este valor p es a menudo mal interpretado. En esencia, es una probabilidad de que las predicciones obtenidas del análisis de datos puedan ser erróneas, pero la definición es precisa y técnica. Un valor p muy pequeño dice que es poco probable que sus datos obtenidos fueran la hipótesis nula de ser cierta, pero no puede decir si esto se debe a que la hipótesis principal es la más probable o la muestra es inusual. (De ahí nuevamente la necesidad de una N. grande y costosa).
Formalmente: el valor p (en el contexto de la prueba de hipótesis nula) es la probabilidad condicional de obtener una estadística de prueba tan extrema o más extrema que la estadística de prueba calculada, dado que la hipótesis nula es cierta.
_______
Hay un artículo sobre cómo el azar afecta el descubrimiento científico.
Las variedades del azar en la investigación científica. (NCBI pubmed 514115, Med Hypotheses. 1979 Jul; 5 (7): 737-42.) Austin JH.
Aparte de la suerte “ciega”, Austin ve
Oportunidad I: serendipia, que implica encontrar cosas valiosas como resultado de un feliz accidente. (Horace Walpole, 1754, en referencia a un cuento de hadas persa, Los tres príncipes de Serendip.)
El azar II: comportamiento exploratorio general,
El azar III: la sagacidad. La suerte favorece a la mente preparada.
Chance IV: buena suerte como resultado de acciones personalmente distintivas
Sigue la suerte adversa de “bahramdipity” también derivada del cuento Los tres príncipes de Serendip. Esta desgracia describe la cruel supresión de un descubrimiento fortuito. Los descubrimientos suprimidos y no publicados se designan como nulos.
Y aquí hay un poco sobre si lo normal es realmente normal
http://aidanlyon.com/media/publi…