Pregunta:
¿Alguna vez se equivocó la navaja de Occam?
Wrzlprmft
2014-10-29 03:56:10 UTC
view on stackexchange narkive permalink

En resumen, estoy buscando un ejemplo en el que la navaja de Occam favoreció una teoría A sobre otra teoría B, pero la teoría B resultó ser una mejor descripción de la realidad más adelante. Pero permítanme formular algunos criterios de lo que quiero decir con eso:

  • En primer lugar, ya que nuestra perspectiva moderna puede estar sesgada, por ejemplo, debido a los avances didácticos en la teoría predominante o información sobre experimentos históricos -, considere mis criterios sobre las cualidades de las teorías para referirse a opiniones y declaraciones científicas históricas, siempre que puedan considerarse basadas en la razón (en lugar de, por ejemplo, estar fuertemente influenciadas por un sesgo religioso).

  • En un momento dado, dos teorías (A y B) fueron comparativamente buenas para describir el mismo aspecto de la realidad que era observable en ese momento. No es necesario que hayan sido descripciones perfectas de las observaciones disponibles, pero no deberían haber sido tan lejanas como para ser aplicables solo a casos especiales o ninguno en absoluto.

  • Navaja de Occam fue razonablemente invocada en una disputa científica a favor de la teoría A. Esta invocación no tiene por qué haber sucedido ni por el nombre ni en una publicación revisada por pares (si existía en ese momento). También estoy interesado, pero no los prefiero, casos en los que los partidarios de ambas teorías invocaron la navaja de Occam (o similar) para argumentar en contra de la otra teoría respectiva.

  • Más adelante En el tiempo, la teoría B o una modificación razonablemente pequeña de la misma resultó ser una mejor descripción de la realidad que la teoría A. Alternativamente, la teoría B todavía se usa hoy para algunos aspectos, mientras que la teoría A no lo es. La teoría B no tiene por qué ser la teoría predominante en la actualidad.

Lo pregunto por curiosidad. Soy muy consciente de que la existencia de tal ejemplo no invalida la navaja de Occam.

La teoría matemática desde la década de 1870 ha reconocido que hay más de una variedad de cantidad infinita; por ejemplo, que el número infinito que cuenta los enteros es esencialmente diferente del número infinito que cuenta los puntos en una línea; de hecho, la familia de diferentes cantidades infinitas es ella misma infinita. Para un matemático del siglo XVIII o antes, esto habría parecido una proliferación extraña e innecesaria de entidades, pero ahora se reconoce universalmente como correcto.
No, porque se trata de probabilidades, por lo que podría ver un caso aislado en general, pero no específico.
A menudo encuentro que después de inspeccionar los resultados de un experimento y los controles disponibles, la teoría X más simple parece más probable que la teoría Y más complicada (donde ambas parecen ser explicaciones posibles). Pero al realizar experimentos de control adicionales que sondean más variables, resulta que Y es cierto de hecho y X no lo es. ¿Cuenta esto?
No estoy seguro de entender. ¿Se pregunta si alguna vez ha existido una teoría que fuera más parsimoniosa que una teoría en contienda pero falsificada empíricamente, después de un período en el que ambas teorías eran igualmente plausibles empíricamente, mientras que la contendiente sobrevivió a la falsificación? Creo que esto describiría muchos debates entre una teoría original y parsimoniosa y una modificación menos parsimoniosa pero "realista" de la teoría original.
@henning: * Creo que esto describiría muchos debates entre una teoría original y parsimoniosa y una modificación menos parsimoniosa pero 'realista' de la teoría original. * Me sorprendería si alguien discutiera con la navaja de Occam en este caso. Alguien podría argumentar que la modificación es objetivamente incorrecta o irrelevante, pero usted no argumentaría que es poco probable que la modificación sea correcta solo porque el original es más simple, lo que esencialmente estaría argumentando que la modificación es incorrecta porque es una modificación.
Cinco respuestas:
#1
+30
Michael Weiss
2014-11-02 22:44:12 UTC
view on stackexchange narkive permalink

Para aclarar la garganta, ¿qué es la navaja de Occam? John Baez tiene un ensayo útil que ofrece la historia y algunos ejemplos. La formulación original de William of Ockham era

Las entidades no deben multiplicarse innecesariamente.

En otras palabras, no asuma la existencia de algo a menos que haya buenas evidencia para ello. Citando nuevamente a Báez, "En física usamos la navaja para afeitar conceptos metafísicos". El ejemplo canónico es descartar el éter. El tiempo y el espacio absolutos de Newton, las explicaciones mecánicas de la gravedad y las trayectorias clásicas de las partículas han sentido el filo de la navaja.

Pero Báez también menciona un famoso fracaso de esta versión de la navaja de Occam:

Mach y sus seguidores afirmaron que las moléculas eran metafísicas porque eran demasiado pequeñas para detectarlas directamente.

El punto de Mach es que la hipótesis molecular es simplemente una decoración innecesaria en capas sobre regularidades empíricas (leyes de Dalton y Gay-Lussac en química, ley de Boyle) que funcionan bien sin los adornos añadidos. Tenemos (o eso diría Mach) una analogía:

éter: relatividad = moléculas: (química + física)

La navaja de Occam a menudo se fortalece para la regla de la simplicidad : en una formulación (tomada del ensayo de Báez),

Es más probable que la explicación más simple de algún fenómeno sea precisa que las explicaciones más complicadas.

A menudo la gente dice la navaja de Occam cuando realmente se refiere a la regla de la simplicidad. El problema obvio con la regla de la simplicidad es su subjetividad. Un excelente ejemplo es la hipótesis heliocéntrica.

Para los copernicanos del siglo XVI (Galileo, Kepler, algunos otros), la heliocentricidad era claramente más simple. En este período, la competencia fue entre el verdadero heliocentrismo y los llamados híbridos geoheliocéntricos: los planetas giran alrededor del sol que gira alrededor de la tierra. (El sistema geoheliocéntrico de Tycho fue el más famoso, pero no el único).

Para los ojos modernos, la heliocentricidad parece obviamente más simple. Pero los defensores de la geoheliocentricidad desplegaron dos poderosos argumentos desde la simplicidad.

  • La heliocentricidad era inconsistente con la física tal como se entendía entonces. Kepler respondió inventando su propia física celeste, con tres fuerzas diferentes guiando a cada planeta, más la fuerza de la gravedad, que no tenía nada que ver con la órbita del planeta.
  • La falta de El paralaje estelar detectable implicaba distancias enormemente mayores a las estrellas fijas que con una teoría geoheliocéntrica. Los tamaños aparentes de los discos estelares (un artefacto de la óptica, que no se entendía en ese momento) implican que todas las demás estrellas son mucho más grandes que el sol. Tycho fue el primero en presentar este argumento, bastante convincente para muchos de sus contemporáneos. (Consulte este artículo de Chris Graney para obtener más detalles).

La simplicidad no es simple.

Además, Popper argumentó que lo que hace que una hipótesis sea "simple" es la facilidad con la que se falsifica, p. se necesitan más puntos para refutar una elipse que un círculo, de ahí el término "helicóptero de Popper". Entonces, la gente refina la navaja para que se ajuste a sus nuevas ideas.
Curiosamente, desde el punto de vista de la precisión predictiva, las órbitas elípticas de Kepler eran mucho menos importantes que algunas de sus otras innovaciones, entre ellas tecnicismos nunca mencionados en breves descripciones. Como observa Curtis Wilson en un artículo de la Enciclopedia de la historia de la astronomía, durante algún tiempo toda la observación podría decirle que las órbitas eran ovaladas.
#2
+11
Bjørn Kjos-Hanssen
2014-10-31 13:11:38 UTC
view on stackexchange narkive permalink

En la década de 1960, se conjeturaba que la estructura matemática de los grados de Turing era bastante simple y homogénea. Esto era consistente con lo que se conocía en ese momento. Más tarde resultó que lo contrario es cierto en cierto sentido: los grados de Turing son tan complicados como puede ser.

Detalles en Ambos-Spies y Fejer, Historia de la teoría de grados .

Tengo algunos ejemplos adicionales, pero me preguntaba si la formulación de la pregunta excluía las matemáticas. (¿Hubo una * teoría * construida y favorecida por la comunidad sobre el supuesto de la homogeneidad de los grados? Lo más cerca que puedo pensar sería un estudio intensivo de grandes axiomas cardinales que resultan ser inconsistentes. - Reinhardt cardinals in ZFC no califica.)
No puedo evaluar completamente su ejemplo por ahora, pero no estoy buscando algo que no resulte más complicado de lo que se pensaba. La navaja de Occam no favorece claramente la solución más simple, sino la más simple de dos soluciones que son igualmente buenas para describir la realidad. ¿Puedes explicar un poco más cómo encaja tu respuesta en esto, incluso si no encaja perfectamente? (Por cierto: lo siento por la respuesta tardía, de alguna manera olvidé esto por completo).
@AndresCaicedo: Me sorprendería mucho una respuesta que provenga de las matemáticas, porque aunque las matemáticas experimentales existen, no soy consciente de que produzcan hipótesis o teorías suficientemente generales. Sin embargo, los conjuntos de axiomas inconsistentes pueden ser algo interesante de observar (después de todo, se podría argumentar que lo más cercano que tienen las matemáticas a una teoría científica es que ciertos axiomas se cumplen en la vida real): ¿Alguna vez se ha argumentado que un conjunto de axiomas es preferible porque es más simple y este conjunto resultó ser inconsistente después?
#3
+4
Wrzlprmft
2018-11-18 22:11:10 UTC
view on stackexchange narkive permalink

Esto está demasiado cerca de mi criterio por no mencionar que está completo.

En los primeros años de la genética molecular, solo se sabía que el El código genético usaba un alfabeto de cuatro bases diferentes y codificaba veinte aminoácidos. De ahí surgieron varias hipótesis sobre el diseño del código, que fueron capaces de explicar lo que se conocía experimentalmente en ese momento. Sin embargo, algunas de ellas dieron como resultado el número correcto de aminoácidos sin más preámbulos, es decir, no requerían este número como parámetro y, por lo tanto, eran ligeramente favorables según la navaja de Occam.

Por ejemplo, Crick et al. consideraron códigos sin comas que presentaban inmunidad contra errores de desplazamiento de marco, demostraron que, dada una longitud de codón de tres, existen códigos que pueden codificar veinte aminoácidos y que era imposible tener un código que codificara más aminoácidos.

Los diseños de código que producían automáticamente el número correcto de aminoácidos despertaron un interés particular en ese momento, sin embargo, cuando se descubrió el código genético real, resultó ser de un tipo diferente: se podían codificar hasta 63 aminoácidos con este diseño general.

Ahora, no puedo encontrar ninguna invocación contemporánea de la navaja de Occam. Crick incluso advirtió contra esto (debido a que la selección natural no está obligada a producir el mecanismo más efectivo):

Si bien la navaja de Ockham es una herramienta útil en las ciencias físicas, puede ser un implemento muy peligroso en biología. Por lo tanto, es muy imprudente utilizar la simplicidad y la elegancia como guía en la investigación biológica.

Aún así, la navaja fue mencionada en retrospectiva, por ejemplo, por Woese:

Los detalles de las teorías de codificación de Gamow (había más de una) ya no son de interés, porque en sus detalles sus modelos estaban equivocados. Sin embargo, el enfoque de su navaja de Occam y el impacto que su pensamiento tuvo en sus contemporáneos fue un factor importante en moldear cómo se percibía la expresión genética.

[…]

Pero sin duda, la teoría más memorable e influyente que surgió de este nuevo capítulo en la historia del código (en el sentido de que conservaba una apariencia biológica y un estilo teórico) fue el famoso "código sin comas" de Crick, uno de esos maravillosos, pero triunfos efímeros del intelecto sobre la realidad (a la que están predispuestos los teóricos). El código sin comas se mantuvo basado en la esperanzadora presunción de que el código podría inferirse de primeros principios de algún tipo.

#4
+2
Mikhail Katz
2016-04-17 14:55:50 UTC
view on stackexchange narkive permalink

Para responder al ejemplo solicitado en el que la navaja de Occam favorecía una teoría A sobre otra teoría B, pero la teoría B resultó ser una mejor descripción de la realidad más tarde mencionaría la historia del análisis real se ha basado desde la década de 1870 en la teoría A (de Arquímedes), que involucra el campo completo ordenado de Arquímedes. Un enfoque más antiguo / más nuevo implica una teoría B (para Bernoullian), que trabaja con infinitesimales como lo hizo Johann Bernoulli. Resulta que mientras que el continuo de fondo es más fácil de describir en la vía A, los procedimientos son más fáciles de trabajar en la vía B. Por ejemplo, en lugar de definir la continuidad de una función requiriendo que por cada épsilon mayor que cero debería haber un delta mayor que cero, de modo que los estudiantes ya se estén quedando dormidos o tomando pastillas calmantes, puede seguir a Cauchy (1821) al requerir que cada cambio infinitesimal $ \ alpha $ en la entrada debe producir un cambio infinitesimal en la salida: $ f (x + \ alpha) -f (x) $ es infinitesimal.

#5
  0
benrg
2020-08-13 23:12:17 UTC
view on stackexchange narkive permalink

El mejor ejemplo que se me ocurre es la cosmología de estado estable frente a la del big bang.

En los modelos de estado estable, el universo es homogéneo en el espacio y en el tiempo. En los modelos del Big Bang es homogéneo en el espacio pero no en el tiempo. Los modelos de Big Bang tienen muchos más parámetros que los modelos de estado estable porque hay tantas cosas que podrían haber sido diferentes en épocas anteriores.

Los modelos de ambos tipos se tomaron en serio hasta principios de la década de 1990, cuando COBE encontró anisotropías en el fondo cósmico de microondas. ΛCDM, un modelo big-bang, tiene suficientes parámetros para ajustarse al espectro de potencia de CMB (que, debe tenerse en cuenta, tiene una forma vaga de elefante). Los modelos de estado estable no pueden reproducirlo, por lo que están equivocados.

¿Se ha invocado alguna vez la navaja de Occam como argumento a favor de los modelos de estado estacionario (frente al Big Bang)? Además, ¿no hay muchos más argumentos para el big bang que el ΛCDM, que es solo una teoría específica que lo presenta? Finalmente, cuando su único argumento para una teoría es que tiene suficientes parámetros para adaptarse a cualquier cosa, esto me parece una gran señal de alerta.


Esta pregunta y respuesta fue traducida automáticamente del idioma inglés.El contenido original está disponible en stackexchange, a quien agradecemos la licencia cc by-sa 3.0 bajo la que se distribuye.
Loading...