¿Qué hacen las estadísticas en la ciencia?

La ciencia describe el universo. A veces, las reglas que gobiernan el comportamiento de los objetos son bastante estables: como la velocidad medida, la aceleración y la posición de una pelota de baloncesto bajo la influencia de la gravedad.

Por otro lado, algunas variables que queremos medir y usar son “inestables”. Los experimentos resultarán en resultados ligeramente diferentes, incluso si controlas muchas condiciones.

Las estadísticas ingresan para ponderar diferentes ejemplos y dar resúmenes y relaciones ocultas que no se detectan directamente.

Teniendo en cuenta el balón, puedes usar las estadísticas para estimar el número de rotaciones del baloncesto según el número de veces que un jugador toca el balón. Sus estimaciones pueden ser bastante precisas utilizando las herramientas adecuadas.

Esto también se aplica a otros conceptos, tales como: ‘dosis de fármaco’ vs. ‘presión sanguínea’. Cada paciente reaccionará de manera diferente según los rasgos secundarios, sin embargo, las estadísticas le permiten identificar efectos promedio y patrones ocultos.

Doctores / 1.000 hab. La esperanza de vida saludable. (Usando estadísticas, puedes estimar la ecuación que describe esta relación logarítmica)

No puedo dar una respuesta completa a esto, pero tal vez una forma de pensar acerca de esto puede ayudar. Se puede considerar que las estadísticas tienen dos partes distintas, pero relacionadas, en las que ambos desarrollan modelos. La primera parte consiste en desarrollar herramientas de análisis para describir datos. Esos pueden ser extremadamente complejos, como lo demuestran los análisis de datos grandes / masivos que actualmente están en boga. Consulte el destacado http://statweb.stanford.edu/~tib… .

Estos análisis no se limitan a los datos que salen de la web, aunque podría parecer eso. Jerome Friedman en el SLAC de Stanford ha propuesto muchos enfoques para tratar con datos masivos y de alta dimensión. John W. Tukey fue uno de los primeros en defender este enfoque a través de su análisis exploratorio de datos, pero podría decirse que Quenouille en su intento de desarrollar caracterizaciones estadísticas fácilmente calculables bajo supuestos mínimos sobre los datos, es decir, estadísticas no paramétricas. La segunda parte tiene como objetivo desarrollar marcos / modelos probabilísticos para evaluar la razonabilidad de tales análisis basados ​​en suposiciones sobre el proceso por el cual los datos surgieron o fueron desarrollados. Algunas herramientas de análisis pueden relacionarse directamente con estos modelos de probabilidad. Por ejemplo, bajo el supuesto de los datos que surgen de la distribución de probabilidad gaussiana, el promedio de la muestra tiene un análogo claro y natural a los parámetros que caracterizan esta distribución y, por lo tanto, la inferencia probabilística es relativamente directa. Algunos análisis de datos tienen menos análogos directos. Vea, por ejemplo, el trabajo de Bradley Efron, también en Stanford, para abordar esto a través del arranque. Esta distinción en los aspectos del modelado estadístico es verdadera si el punto de vista es clásico en el sentido de, digamos, Neyman-Pearson o Bayesiano. Por ejemplo, en el Gran Colisionador de Hadrones, antes de que sus científicos afirmen que han descubierto una nueva partícula, además del requisito metodológico para la replicabilidad, se establece un umbral de probabilidad de que un resultado observado no puede deberse a un muestreo o error experimental. Por otro lado, otras disciplinas científicas utilizan herramientas de análisis de datos y modelos de probabilidad en una amplia variedad de otras formas. La evaluación de la comparabilidad de dos secuencias de genes es un ejemplo de tal ejercicio estadístico. Los propios modelos probabilísticos, además del análisis de datos, han revolucionado el campo de las finanzas.