Pregunta:
¿Newton y Leibniz carecían de rigor?
Dodd
2016-01-10 10:24:13 UTC
view on stackexchange narkive permalink

He leído que el enfoque original para demostrar la eficacia del cálculo dejaba algo que desear entre los matemáticos. ¿Cuál fue exactamente el problema? ¿La definición aceptada posteriormente aclara algo sobre el problema original o lo evita?

Puede ver a Paolo Mancosu, [La metafísica del cálculo: un debate fundamental en la Academia de Ciencias de París, 1700-1706] (http://ac.els-cdn.com/0315086089900190/1-s2.0-0315086089900190- main.pdf? _tid = 73817710-b7e4-11e5-8629-00000aacb362 & acdnat = 1452462932_65060507de871e9185256416e2c76666) (1989) para ver un ejemplo de los primeros debates sobre los fundamentos y el rigor.
Dos respuestas:
Alexandre Eremenko
2016-01-10 13:04:16 UTC
view on stackexchange narkive permalink

Los problemas fueron abundantes. No hubo definiciones rigurosas de límites, convergencia e incluso funciones y números reales. Y sin definiciones no podría haber pruebas reales y rigurosas. Todo esto no se logró hasta el siglo XIX. Los resultados de Newton y Leibniz fueron correctos, pero no fueron probados con los estándares de rigor que ya existían en matemáticas desde los tiempos de Euclides y Arquímedes, sin hablar de los estándares posteriores.

Y los matemáticos de los siglos XVII y XVIII lo entendieron. En muchos argumentos tuvieron que apoyarse en la intuición, como suelen hacer los físicos modernos, cuando utilizan herramientas matemáticas que no están plenamente justificadas.

A medida que el cálculo se desarrolló aún más, esta falta de rigor condujo a paradojas y controversias. Solo en el siglo XIX, comenzando con Gauss, Abel, Cauchy y más tarde Weierstrass, Dedekind y Cantor, se estableció una base de cálculo satisfactoria y rigurosa.

EDIT. Aquí hay dos ejemplos de cálculo del siglo XVIII y principios del XIX: $$ x = 2 \ sum_ {n = 1} ^ \ infty \ frac {(- 1) ^ {n-1}} {n} \ sin nx. $$ Esto se puede verificar numéricamente reemplazando algunos valores, e incluso experimentalmente. Pero esto no tiene sentido porque el RHS es periódico mientras que el LHS no lo es.

El segundo ejemplo es de Euler. Al multiplicar término por término obtenemos $$ (1-x) (1 + x + x ^ 2 + x ^ 3 + \ ldots) = 1. $$ Poniendo $ x = 2 $ obtenemos $$ 1 + 2 + 4 + 8 + 16 + \ ldots = -1. $$ Esto se puede justificar desde el punto de vista moderno, pero en la época de Euler esto generó controversias, por supuesto.

Hoy, la situación es muy similar . Los físicos descubren nuevos resultados matemáticos utilizando métodos que no tienen sentido para los matemáticos puros. Los matemáticos consideran estos resultados como conjeturas y, a veces, los prueban con sus métodos rigurosos. Como sucedió en los siglos XVII y XVIII, el proceso es muy beneficioso tanto para la física como para las matemáticas. En realidad, Arquímedes también usó el razonamiento físico para descubrir nuevos resultados matemáticos, y siempre dejó muy claro qué está realmente probado y qué se acaba de `` descubrir ''.

En aquel entonces, era común usar la física para justificar las matemáticas. Hoy en día no lo permitimos. Pero algunos argumentan que deberíamos ...
Hoy la situación es exactamente la misma. Los físicos hacen nuevos descubrimientos en matemáticas utilizando argumentos que no tienen sentido desde el punto de vista de los matemáticos. Luego, los matemáticos a veces los prueban con métodos rigurosos.
@AlexandreEremenko, sería útil si pudiera aclarar lo que quiere decir con rigor y si esto se refiere a procedimiento u ontología.
@katz: "rigor" se entiende en el sentido habitual en matemáticas. Ha cambiado algo desde la época de Euclides y Arquímedes, pero no mucho para el propósito de esta discusión. La mayoría de los matemáticos comprenden lo que constituye una prueba rigurosa. (Tenemos axiomas y reglas de deducción, y un teorema es lo que se puede deducir de los axiomas).
@AlexandreEremenko, lo que me pregunto es la comparación con otros campos. En física, por ejemplo, no tienen una fecha mágica en la que consideran haber alcanzado la comprensión final. La idea de que algo de ese orden sucediera en matemáticas en 1870 no sería algo aceptable para los historiadores de la ciencia, por ejemplo. Ahora soy un matemático profesional (como tú) con más de 60 publicaciones en revistas arbitradas, y ciertamente puedo apreciar el valor del rigor (aunque he cometido muchos errores: -), ...
... pero me parece que la narrativa histórica de las matemáticas como marcha triunfal hacia el futuro radiante de los desarrollos Cantor-Dedekind-Weierstrass, como muchos afirman, es un relato reductivo. Necesitamos una descripción más significativa de la historia de las matemáticas. Expliqué esto en mi artículo "Crítica burguesa", consulte http://dx.doi.org/10.1007/s10699-011-9223-1, avíseme si necesita un pdf. Sugiero el libro reciente de Ian Hacking, donde profundiza en la distinción entre el modelo mariposa para el desarrollo de una ciencia y el modelo latino. Hay algunas buenas ideas.
No estoy de acuerdo con esas personas a las que criticas. Si hubo una fecha mágica, probablemente fue en el siglo VI a. C.
@AlexandreEremenko, genial, el punto que estaba tratando de hacer es que, como parece estar de acuerdo, las matemáticas se desarrollan de manera muy similar a la física a través de etapas de mejor comprensión de los problemas subyacentes. El punto relacionado es que el concepto de "rigor" es demasiado vago para ser útil al discutir los desarrollos históricos. Por ejemplo, generalmente se considera que Gauss es riguroso, sin embargo, no tenía ninguna de las definiciones que tenemos hoy. Newton, Leibniz y Euler a menudo nos parecen menos rigurosos de lo que realmente eran porque usaban un lenguaje diferente y ciertamente no proporcionaban definiciones teóricas de conjuntos.
... Pero el concepto de "límite", por ejemplo, ya estaba en Newton: simplemente lo llamó "razón última" y enfatizó que * no * es una razón, a diferencia de las "razones primas". Si hubiera utilizado la notación "ult" en lugar de "lim", su concepto sería, en el fondo, indistinguible del nuestro a nivel de procedimiento. El tipo de crítica que se escucha a Euler es indignante.
Mikhail Katz
2016-01-11 22:09:57 UTC
view on stackexchange narkive permalink

Cuando se habla de rigor en un contexto histórico, se debe tener cuidado de no aplicar los hábitos de pensamiento modernos a desarrollos históricos donde sean inapropiados. Por ejemplo, una distinción que debe hacerse es entre los fundamentos de la teoría de conjuntos que damos por sentados hoy en día y que no estaban disponibles antes de la segunda mitad del siglo XIX. Más específicamente, los continuos puntiformes modernos (es decir, continuos hechos de puntos) ciertamente no eran el trasfondo "fundamental" antes de, digamos, 1870.

Sin embargo, esto no significa que uno no pueda discutir de manera significativa el trabajo de autores anteriores sin llamarlo poco riguroso. Por ejemplo, el trabajo de Gauss generalmente se considera riguroso. La distinción clave que ayuda a desvincularnos de la desestimación demasiado fácil de los matemáticos históricos por ser poco rigurosos es la distinción entre procedimiento y ontología.

Esto fue abordado por autores que van desde Benacerraf hasta Quine y Wartofsky, pero será suficiente. decir que el término "procedimiento" se refiere a los movimientos inferenciales reales tal como aparecen en el trabajo de esos matemáticos, mientras que "ontología" se refiere a la justificación de las entidades como número, punto, función, etc. utilizadas por esos autores. La ontología de la teoría de conjuntos que comúnmente se da por sentada hoy en día no estaba en el trabajo de Gauss y otros, pero esto no debería impedir que un académico analice sus procedimientos , que a menudo resultan ser rigurosos para un grado satisfactorio.

Por lo tanto, Cauchy usó infinitesimales de la manera en que se usarían hoy, y su definición procedimental de la continuidad de una función es esencialmente indistinguible de una moderna (un incremento infinitesimal asignado a la variable siempre produce un cambio infinitesimal en la función), aunque el fundamento ontológico que se esperaría hoy no estaba ahí.

Para responder a su pregunta sobre Leibniz más específicamente, sus procedimientos infinitesimales estaban más fundamentados que la crítica generalmente promocionada por George Berkeley. Esto pasa por alto la distinción procedimiento / ontología.

¡Una perspectiva interesante! ... y uno que creo que debería ser más conocido. +1


Esta pregunta y respuesta fue traducida automáticamente del idioma inglés.El contenido original está disponible en stackexchange, a quien agradecemos la licencia cc by-sa 3.0 bajo la que se distribuye.
Loading...