¿Cuáles son algunas críticas dentro de la filosofía de la ciencia del principio de falsabilidad de Popper?

Las principales críticas se pueden clasificar en tres grandes campos:

1) El principio no hace el trabajo que afirma. (Por ejemplo, en realidad no se delimita, debido a la carga teórica de la observación o Duhem-Quine)

2) El principio no hace el trabajo que esperábamos. (Por ejemplo, no tiene en cuenta algunas cosas sobre la ciencia que creemos que debería)

3) El principio no coincide bien con la práctica científica actual. (Por ejemplo, los científicos, de hecho, no pasan mucho tiempo tratando de falsificar teorías fundamentales, sino que intentan usar esas teorías para hacer inferencias adicionales, como diría Kuhn a la “resolución de problemas”)

Tom McFarlane ha explicado 1 bien, y 3 no es, en mi opinión, lo que Popper estaba tratando de hacer. Trataba de descubrir la lógica detrás del razonamiento científico, no de hacer un tratamiento sociológico de cómo los científicos reales pasaban su tiempo.

Así mencionaremos una objeción en el campamento 2.

Un gran problema en mi mente es que lo mejor que puedes decir sobre una teoría exitosa es que no ha sido (aún) falsificada, y que sus rivales sí lo han sido. Ahora sométalo a un montón de pruebas de estiramiento, y mira cómo lo pasa todo. Parece que deberías confiar en la teoría más de lo que lo hacías antes. Pero el enfoque de Popper no da ninguna razón para hacer esto.

Ejemplo: Relatividad general (esta fue una teoría que primero condujo a Popper a su enfoque). Antes del experimento de Eddington, GR era la única teoría que no tenía casos falsificados (Newton estaba excluido porque no podía explicar la precesión del perihelio de Mercurio). GR hizo una nueva predicción audaz: la luz sería doblada por objetos masivos en cierta cantidad. (Popper es feliz – es una teoría científica).

Eddington observó la desviación a lo requerido (olvídese de la controversia histórica de cuán grandes fueron sus errores experimentales) y Einstein se convirtió en una celebridad de la noche a la mañana. Pero en el esquema de Popper, todo lo que ha sucedido es que GR no ha sido falsificado. Todavía. No hay razón para confiar en GR más de lo que había antes de la prueba de Eddington. Sigue siendo la única teoría vigente, pero también fue antes de la prueba. Y repetimos esto a través de las pruebas de lentes gravitacionales, agujeros negros, observaciones de la dilatación del tiempo gravitacional, etc. “Se siente” como si después de cada prueba debiéramos tener más confianza en los RR.GG. que antes, pero Popper no nos da ninguna razón para aumentar nuestra confianza en la teoría. Todavía está en la misma clase: teoría no falsificada sin rivales no falsificados.

Incluso Popper estaba descontento con esto. En su trabajo inicial, habló vagamente sobre las teorías que se probaron en el “crisol” del experimento y que salieron “más fuertes” en cierto sentido vago. Pero él nunca llenó esto.

Más tarde, se le ocurrió una idea llamada “grados de verosimilitud” que (abreviando una larga historia) vuelve a colapsar en el problema de la inducción. Mi lectura es que él está buscando algo como la actualización bayesiana, pero no tenía el marco para hacerlo coherente. La verosimilitud no funciona, y Popper hubiera sido mejor no apelar a ella.

Como una forma de definir cuáles son las hipótesis “científicas” frente a las hipótesis “no científicas”, el criterio de falsabilidad establece que las hipótesis científicas son exactamente aquellas que son falsificables, es decir, hacen algunas predicciones que, en principio, pueden falsificarse. por experimento Popper expuso esto como una forma de resolver el problema de demarcación entre la ciencia y la no ciencia.

Una crítica es que la falsificación de una teoría no es tan simple como parece a primera vista. La tesis de Duhem-Quine señala que solo porque un resultado experimental contradice una predicción de una teoría, no necesariamente se sigue que el error reside en la teoría. (La anomalía del neutrino más rápido que la luz, por ejemplo, contradecía la teoría de la relatividad de Einstein, pero finalmente no la falsificó porque resultó que había un error experimental. Además, las irregularidades en la órbita de Urano no falsearon la de Newton). Teoría de la gravedad porque aún no se conocía la existencia de Neptuno.)

No se puede concluir lógicamente a partir de un desajuste entre la teoría y el experimento que la teoría es necesariamente falsa. El error puede deberse a muchas otras causas, conocidas o desconocidas. Por ejemplo, la falta de coincidencia puede deberse a errores experimentales, errores en el cálculo de las predicciones de la hipótesis o suposiciones auxiliares que se han realizado. Además, como lo señaló Norwood Russell Hanson, los hechos experimentales en sí mismos están cargados de teoría. Por lo tanto, nunca podemos probar una teoría contra hechos experimentales “puros”, independientemente de una teoría (por ejemplo, una teoría utilizada para comprender cómo funciona el aparato experimental). Estas suposiciones y condiciones para probar una teoría pueden ser tan numerosas que falsear una teoría, en un sentido estrictamente lógico, es a menudo prácticamente imposible.

Los científicos intentan descubrir la causa raíz de cualquier desajuste entre la teoría y el experimento realizando experimentos independientes repetidamente de diferentes maneras por diferentes equipos. Si sus resultados coinciden entre sí pero no con las predicciones de una teoría, entonces es más probable que la teoría en sí sea la que falla en lugar de alguna otra suposición. Sin embargo, esto todavía no tiene certeza lógica. Por lo tanto, en la práctica, una teoría no puede ser falsificada por un experimento de la misma manera que una proposición matemática puede ser falsificada por un solo ejemplo de contador.

Ahora, debido a que la falsificación de teorías en la práctica es problemática y no clara, esto crea un problema para usar la falsabilidad como criterio para distinguir la ciencia de la no ciencia. Uno puede imaginar, por ejemplo, una hipótesis que es, en principio, falsificable, pero que en la práctica no puede ser falsificada por un experimento (por ejemplo, la hipótesis de que en alguna parte del universo hay una tetera que orbita un planeta). Para todos los propósitos prácticos, esta hipótesis no es diferente de una especulación metafísica infalificable, sin embargo, todavía se clasifica como una hipótesis “científica” porque es falsificable en principio. En resumen, la falsabilidad no parece suficientemente restrictiva, admitiendo como “científicas” algunas hipótesis que no parecen justificar tal clasificación.

Por otro lado, hay casos en los que la falsificabilidad parece demasiado restrictiva. Por ejemplo, la hipótesis de que el protón decae, estrictamente hablando, no puede ser falsificada porque no importa cuánto tiempo uno no haya observado la descomposición, es posible que todavía pueda suceder. Uno solo puede establecer límites estadísticos en él. En este caso, la falsabilidad ayuda a refinar la hipótesis en una falsificable. No obstante, la hipótesis no restringida de la desintegración de protones todavía es valiosa, ya que tendría consecuencias para otras teorías. Esto sugiere que uno no debe descartar apresuradamente ninguna hipótesis infalsificable. Vea la respuesta de Tom McFarlane a ¿Tiene que ser falsificable una reclamación para ser considerada una reclamación científica? y la respuesta de Tom McFarlane a ¿Son las preguntas infalsificables de algún uso o interés para la investigación científica?

Una de las principales críticas vino de Kuhn.

Su objeción fue que la idea de Popper de que la ciencia trata de falsificar teorías, simplemente no es una descripción adecuada de cómo funciona la ciencia. La primera reacción de un científico al enterarse de que se ha encontrado una anomalía en su teoría, no es simplemente desechar la teoría y concluir que la teoría ha sido falsificada. Más bien, intentará analizar la anomalía específica para ajustar y “arreglar” su teoría.

La idea de Kuhn era que, para ciertas teorías paradigmáticas, tienes apologistas del paradigma (podrían ser seguidores de Copérnico), que incluso cuando se enfrentan a numerosas anomalías, aún intentan realizar modificaciones ad hoc para que su teoría se mantenga. Es solo cuando se puede demostrar una cantidad significativa de anomalías que puede haber un cambio de paradigma según Kuhn. Y aún así, los científicos más antiguos todavía pueden aferrarse a su propio paradigma mientras la nueva generación de científicos hace el cambio de paradigma.

Piensa en Einstein y en la teoría cuántica. Einstein era parte del viejo paradigma en el que ‘Dios no jugó a los dados’, y le costó mucho adoptar la naturaleza probabilística de la teoría cuántica apoyada por Bohr. La siguiente generación de físicos después de Einstein no tiene absolutamente ningún problema con la teoría cuántica a medida que crecieron en este nuevo paradigma y, por supuesto, la evidencia solo se ha puesto a su favor.

Algunas afirmaciones no son científicas y pueden ser falsificadas (por ejemplo, la astrología). Algunas declaraciones no son falsables, pero son científicas (por ejemplo, la teoría de cuerdas). Algunas declaraciones no son científicas ni falsificables (por ejemplo, los escritos de freud). Algunas afirmaciones son falsas y científicas (por ejemplo, las ecuaciones de maxwell).

Muchas declaraciones son falsificables en principio, pero las teorías resultan demasiado “líquidas” (evolución, por ejemplo, la cola del pavo real). La nueva información se incorpora a las viejas teorías y el proceso carece de estructura popperiana.

La mayoría de los filósofos de la ciencia ahora están de acuerdo en algún tipo de bayesianismo que asume que las teorías son útiles siempre y cuando la evidencia sea consistente con ellas dadas algunas creencias iniciales que tenemos basadas en el conocimiento a priori. Algunas versiones (por ejemplo, el trabajo de Dawid) son más extremas y sugieren que el mero hecho de que una cierta teoría se mantenga es una evidencia de su valor de verdad.

Vamos a comenzar diciendo que soy un popperiano. Me considero un racionalista crítico y considero que este es el enfoque correcto para pensar sobre el pensamiento y el conocimiento. Resuelve muchos problemas en la epistemología y ofrece una manera integral y ética de abordar el mundo como un agente epistémico.

PERO …

El “falsacionismo” de Popper obviamente no puede hacer lo que se dice ingenuamente como poder hacer, que es poner a la ciencia sobre la base “respetable” de la deducción lógica en lugar de la inducción lógica menos respetable.

Realmente no puede eliminar algún tipo de componente especulativo / generalizador inductivo para entregar nuestros resultados científicos. Tomemos un ejemplo realmente simplista: supongamos que conjeturamos que todas las partículas y siguen la Ley Y. Y así, si vemos una partícula y que viola la Ley Y, entonces sabemos que nuestra conjetura de la Ley Y está falsificada.

DE ACUERDO. Pero, ¿cómo sabemos que en realidad estábamos observando una partícula y en primer lugar? ¿Y no es una partícula y muy similar que actúe como y en la mayoría de las circunstancias pero no esta? La respuesta es, tenemos que conjeturar. Así que todas nuestras observaciones que potencialmente matan la hipótesis de la Ley Y son, en sí mismas, dependientes de la conjetura “esto es una y , no una y “. ¿Y en qué se basa esa conjetura? Probablemente en una serie de observaciones previas de la partícula o del aparato generador de partículas. lo que nos lleva a suponer que es un generador y no un generador y. En otras palabras… sobre la inducción.

Esto es Solo una forma de expresar el problema. Puede encontrar este tipo de derribo con más rigor de personas como Hilary Putnam. Y supongo que está implícito en Nelson Goodman.

Una de las críticas más incisivas que he encontrado del método. Es que la suma total de nuestras teorías científicas no son todas coherentes entre sí, por lo que consta de muchas contradicciones lógicas (si suponemos que todas las teorías científicas que no se han falsificado son ciertas). Entonces, ¿cómo lo hacemos para que no se deduzca de esto que tengamos conocimiento que realmente no tenemos (porque todo sigue de una contradicción)?

Miller lo llama: el problema de los problemas pendientes. La razón por la que esto es un problema es porque (los falsacionistas) suponen que cualquier teoría que exista (es decir, no falsificada, pero falsificable) es cierta. Propone una solución metodológica en la forma de una lógica brouwerian, donde el lenguaje de objetos es una lógica intuicionista dual (donde p ^ ~ p no implica nada) pero su meta-lenguaje sigue siendo clásico. Aún no se ha explorado si esta es una propuesta metodológica fructífera.

Cualquier hipótesis puede salvarse de la falsificación si se agrega un número suficiente de hipótesis secundarias. Entonces, en el mundo real, las hipótesis no se falsifican tanto como se abandonan.

El Capítulo 1 de The Golem: lo que todos deben saber sobre la ciencia ofrece un estudio de caso excelente sobre lo que sucede cuando esto se lleva al extremo.

http://www.markowetzlab.org/skil