He leído que el enfoque original para demostrar la eficacia del cálculo dejaba algo que desear entre los matemáticos. ¿Cuál fue exactamente el problema? ¿La definición aceptada posteriormente aclara algo sobre el problema original o lo evita?
He leído que el enfoque original para demostrar la eficacia del cálculo dejaba algo que desear entre los matemáticos. ¿Cuál fue exactamente el problema? ¿La definición aceptada posteriormente aclara algo sobre el problema original o lo evita?
Los problemas fueron abundantes. No hubo definiciones rigurosas de límites, convergencia e incluso funciones y números reales. Y sin definiciones no podría haber pruebas reales y rigurosas. Todo esto no se logró hasta el siglo XIX. Los resultados de Newton y Leibniz fueron correctos, pero no fueron probados con los estándares de rigor que ya existían en matemáticas desde los tiempos de Euclides y Arquímedes, sin hablar de los estándares posteriores.
Y los matemáticos de los siglos XVII y XVIII lo entendieron. En muchos argumentos tuvieron que apoyarse en la intuición, como suelen hacer los físicos modernos, cuando utilizan herramientas matemáticas que no están plenamente justificadas.
A medida que el cálculo se desarrolló aún más, esta falta de rigor condujo a paradojas y controversias. Solo en el siglo XIX, comenzando con Gauss, Abel, Cauchy y más tarde Weierstrass, Dedekind y Cantor, se estableció una base de cálculo satisfactoria y rigurosa.
EDIT. Aquí hay dos ejemplos de cálculo del siglo XVIII y principios del XIX: $$ x = 2 \ sum_ {n = 1} ^ \ infty \ frac {(- 1) ^ {n-1}} {n} \ sin nx. $$ Esto se puede verificar numéricamente reemplazando algunos valores, e incluso experimentalmente. Pero esto no tiene sentido porque el RHS es periódico mientras que el LHS no lo es.
El segundo ejemplo es de Euler. Al multiplicar término por término obtenemos $$ (1-x) (1 + x + x ^ 2 + x ^ 3 + \ ldots) = 1. $$ Poniendo $ x = 2 $ obtenemos $$ 1 + 2 + 4 + 8 + 16 + \ ldots = -1. $$ Esto se puede justificar desde el punto de vista moderno, pero en la época de Euler esto generó controversias, por supuesto.
Hoy, la situación es muy similar . Los físicos descubren nuevos resultados matemáticos utilizando métodos que no tienen sentido para los matemáticos puros. Los matemáticos consideran estos resultados como conjeturas y, a veces, los prueban con sus métodos rigurosos. Como sucedió en los siglos XVII y XVIII, el proceso es muy beneficioso tanto para la física como para las matemáticas. En realidad, Arquímedes también usó el razonamiento físico para descubrir nuevos resultados matemáticos, y siempre dejó muy claro qué está realmente probado y qué se acaba de `` descubrir ''.
Cuando se habla de rigor en un contexto histórico, se debe tener cuidado de no aplicar los hábitos de pensamiento modernos a desarrollos históricos donde sean inapropiados. Por ejemplo, una distinción que debe hacerse es entre los fundamentos de la teoría de conjuntos que damos por sentados hoy en día y que no estaban disponibles antes de la segunda mitad del siglo XIX. Más específicamente, los continuos puntiformes modernos (es decir, continuos hechos de puntos) ciertamente no eran el trasfondo "fundamental" antes de, digamos, 1870.
Sin embargo, esto no significa que uno no pueda discutir de manera significativa el trabajo de autores anteriores sin llamarlo poco riguroso. Por ejemplo, el trabajo de Gauss generalmente se considera riguroso. La distinción clave que ayuda a desvincularnos de la desestimación demasiado fácil de los matemáticos históricos por ser poco rigurosos es la distinción entre procedimiento y ontología.
Esto fue abordado por autores que van desde Benacerraf hasta Quine y Wartofsky, pero será suficiente. decir que el término "procedimiento" se refiere a los movimientos inferenciales reales tal como aparecen en el trabajo de esos matemáticos, mientras que "ontología" se refiere a la justificación de las entidades como número, punto, función, etc. utilizadas por esos autores. La ontología de la teoría de conjuntos que comúnmente se da por sentada hoy en día no estaba en el trabajo de Gauss y otros, pero esto no debería impedir que un académico analice sus procedimientos , que a menudo resultan ser rigurosos para un grado satisfactorio.
Por lo tanto, Cauchy usó infinitesimales de la manera en que se usarían hoy, y su definición procedimental de la continuidad de una función es esencialmente indistinguible de una moderna (un incremento infinitesimal asignado a la variable siempre produce un cambio infinitesimal en la función), aunque el fundamento ontológico que se esperaría hoy no estaba ahí.
Para responder a su pregunta sobre Leibniz más específicamente, sus procedimientos infinitesimales estaban más fundamentados que la crítica generalmente promocionada por George Berkeley. Esto pasa por alto la distinción procedimiento / ontología.