Página principal

La revolución científica del siglo XX


Descargar 125.35 Kb.
Página1/3
Fecha de conversión18.07.2016
Tamaño125.35 Kb.
  1   2   3
LA REVOLUCIÓN CIENTÍFICA DEL SIGLO XX



"Al parecer Einstein estaba doblemente equivocado cuando afirmó que "Dios no juega a los dados". Los estudios sobre la emisión de partículas desde agujeros negros permiten sospechar que Dios no solamente juega a los dados, sino que, a veces, los echa donde nadie puede verlos". Stephen W. Hawking

Las palabras del célebre físico británico evidencian la magnitud de la revolución científica que ha recorrido el siglo XX. En efecto, la seguridad del hombre occidental en el progreso indefinido de la ciencia y, mediante la innovación tecnológica, de la humanidad a través del dominio de la Naturaleza ha sido cuestionada a raíz de la publicación en 1972 del primer Informe del Club de Roma sobre los límites del crecimiento. Esa confianza ilimitada en la ideología del Progreso comenzó a resquebrajarse con la aparición de las nuevas teorías que desde el campo de la física destruyeron los postulados básicos sobre los que se construyó la racionalidad moderna de la civilización occidental. Relatividad, mecánica cuántica, genética y biología molecular han dado lugar a una nueva representación del Universo y de la Naturaleza, alejada de los cánones de la visión derivada de la física newtoniana y sistematizada en la Teoría del Conocimiento del filósofo alemán Immanuel Kant.

Crisis civilizatoria y revolución científica.

El edificio de la Ilustración ha entrado en crisis a lo largo del siglo XX. Dos momentos son particularmente simbólicos de esta crisis. Los años posteriores a la Primera Guerra Mundial, cuando el impacto moral de la hecatombe y la alteración radical del mapa político europeo confrontaron a los hombres ilustrados con el sentimiento de decadencia de la civilización occidental. El segundo momento lo estamos viviendo hoy en día. La caída del muro de Berlín ejemplifica la incertidumbre que atenaza a la sociedad del presente. El fin del milenio se ve atravesado por la sensación de ausencia de un horizonte diáfano respecto de los destinos del planeta y de la sociedad internacional. La crisis ecológica; la inexistencia de un orden internacional político y económico estable y vertebrado, tras la desaparición del orden mundial bipolar; el derrumbe del sistema económico, y el desmoronamiento de los grandes discursos ideológicos configurados a lo largo del siglo XIX, a partir de mayo del 68, nos sitúan ante una crisis civilizatoria de la que todavía no hemos sido capaces de diseñar las sendas que nos permitan superarla.

Sin embargo, una justa apreciación de las consecuencias derivadas de la revolución científica del siglo XX nos permite vislumbrar un horizonte en el que la incertidumbre derivada de la complejidad de los problemas actuales no sea interpretada como el callejón sin salida que parece recorrer a las instituciones y al espíritu de este fin de siglo.

 La representación determinista


Comprender las consecuencias profundas del significado de la revolución científica del siglo XX exige una somera recapitulación de los fundamentos de la racionalidad que ha entrado en crisis. Durante la segunda mitad del siglo XVIII la física newtoniana consiguió imponerse a lo largo y ancho del Viejo Continente, una vez solventadas las polémicas que enfrentaron a Newton con Descartes y Leibniz. La influencia del sistema newtoniano rebasó los límites estrictos de la Física, para convertirse en el fundamento de la Filosofía de la Ilustración.

  El gran éxito del sistema newtoniano a la hora de explicar los procesos físicos relacionados con el movimiento de los cuerpos y del sistema solar, sin obviar la importancia del método científico empleado en los Principia, explica el vigor de la Filosofía Natural propuesta por Newton, donde la Mecánica se constituye en la matriz en la que se funden los instrumentos necesarios para la explicación del "sistema del Mundo". La representación mecanicista de la Naturaleza se convirtió así en la Filosofía Natural dominante en la cultura occidental desde mediados del siglo XVIII hasta bien entrada la segunda mitad del siglo XIX, momento en el que la visión electromagnética de la Naturaleza disputó la primacía que hasta entonces había disfrutado el mecanicismo en la Física.

Fue a través del enorme influjo que sobre la cultura occidental ejerció la obra de Immanuel Kant como el sistema newtoniano adquirió un status de verdad ontológica, cimiento de todo el edificio del Saber clásico. En la Crítica de la Razón Pura, Kant trató de establecer los fundamentos y los límites de la razón humana, a través de la realización de una síntesis superadora de las dos grandes corriente del pensamiento occidental de la segunda mitad del siglo XVIII: el racionalismo de la Ilustración y el empirismo inglés.

En la solución de las antinomias propuesta por Kant en la Crítica de la Razón Pura se condensa el marco conceptual de la nueva representación cosmológica que dominó la época clásica hasta la aparición de la Teoría General de la Relatividad en 1916. "El Mundo no tiene un principio en el tiempo ni límite extremo en el espacio". Kant sitúa la ley de la causalidad como ley fundamental de la Naturaleza, condición imprescindible de toda posibilidad de conocimiento: "Esta ley de la Naturaleza (...) es una ley del entendimiento en la que no está permitido, bajo ningún pretexto, apartarse o distraer ningún fenómeno, porque de otro modo se colocaría a este fenómeno fuera de toda experiencia posible..."

Lo que en Newton eran meros postulados en Kant adquirió el rango de absoluto. La extraordinaria influencia que tuvo la filosofía kantiana durante la primera mitad del siglo XIX contribuyó decisivamente a que físicos y matemáticos tomaran las leyes de la Física clásica por absolutamente necesarias. El concepto de Naturaleza defendido por Kant se constituyó así en la concepción dominante de la cultura occidental hasta la aparición de la Teoría de la Relatividad y la Mecánica Cuántica durante el primer tercio del presente siglo, instalándose en el centro de la espíteme occidental hasta nuestros días.

A comienzos del siglo XIX el imperio de la Razón brillaba en todo su esplendor y, dentro del mismo, la representación determinista ocupaba una posición privilegiada. La aparición de la teoría evolucionista de Darwin, con la publicación de El origen de las especies en 1859, fue interpretada como la culminación de dicha representación, tal como afirmó el gran físico vienés Ludwig Boltzmann en su conferencia ante la Academia Imperial de la Ciencia, el 29 de mayo de 1886: "Si ustedes me preguntan por mi convicción más íntima, sobre si nuestra época se conocerá como el siglo del acero, o siglo de la electricidad o del vapor, les contestaré sin dudar que será llamado el siglo de la visión mecanicista de la naturaleza, el siglo de Darwin".

En El Origen de las especies Darwin recurre para presentar su teoría al método hipotético-deductivo empleado por Newton. A partir de ahí, desarrolla las tesis malthusianas para explicar la lucha por la supervivencia de las especies, en función de su crecimiento geométrico frente al desarrollo aritmético de las fuentes alimentarias. Una vez establecido el principio de la lucha por la existencia, Darwin plantea el mecanismo de la selección natural sobre la base de la adaptabilidad al medio, por la cual los organismos que incorporan mejoras heredables muestran mayores posibilidades para sobrevivir y reproducirse que los que no las incorporan o desarrollan variaciones heredables desfavorables. Paralelamente a la selección natural y complementaria a ésta se desarrolla la selección sexual por mediación del macho y/o de la hembra.

En El Origen de las especies Darwin presenta de forma íntimamente asociada la evolución y la selección natural, eliminando cualquier referencia a la generación espontánea, de esta forma presentaba su teoría como un todo coherente, que respondía plenamente a las exigencias de una ley natural de carácter universal, acorde con los presupuestos epistemológicos de raíz newtoniana.

El electromagnetismo.

La construcción de una teoría sobre la naturaleza de la luz creó innumerables problemas de carácter teórico para la física del siglo XIX. A la altura de 1850 dos teorías contradictorias, la corpuscular y la ondulatoria, aparentemente incompatibles entre sí, pugnaban por explicar la naturaleza de la luz. Las dificultades se acrecentaban de manera notable a la hora de encontrar una manera satisfactoria de explicar los fenómenos eléctricos y magnéticos, provocando una importante división entre los partidarios de una y otra teoría que termino por desembocar en la construcción de una electrodinámica.

Con la llegada de James Clerk Maxwell la situación cambió radicalmente. Inspirándose en los trabajos de Michael Faraday, estableció la teoría unificada de los fenómenos eléctricos y magnéticos, para lo cual postuló la existencia del éter, que ocupando todo el espacio, se constituye en el medio en el que se desarrollan los fenómenos electromagnéticos. Además, Maxwell afirmaba que la luz era un fenómeno electromagnético más, por lo que la óptica debía ser considerada bajo la perspectiva de la electrodinámica y, por tanto, debía ser incluida en una teoría electromagnética que abarcará los fenómenos ópticos.

Maxwell en su fundamental obra Treatise on Electricity and Magnetism, publicada en 1873, aunque no tenía muy claro como interpretar las ecuaciones de campo por él formuladas, independizó las mismas de toda analogía mecánica, proponiendo una teoría de campos. Aunque ello no supuso una ruptura de Maxwell con la teoría newtoniana, en tanto que trató de demostrar que su teoría era consistente con la existencia de un mecanismo newtoniano en el campo, al fin y al cabo los resultados por él alcanzados cuestionaban radicalmente la posibilidad de una explicación mecánica del campo.

A raíz de la aparición de la teoría electromagnética de Maxwell, se fue abriendo camino una nueva representación de la Naturaleza: la representación electromagnética, especialmente desde la aparición de los trabajos de Hertz en 1887-88, en los que exponía sus experimentos, que demostraban la existencia de la radiación electromagnética. Los trabajos de H. A. Lorentz que culminaron con la aparición de la teoría electrodinámica de los cuerpos en movimiento, en 1892, no hicieron sino acrecentar el prestigio y el número de seguidores de la representación electromagnética de la Naturaleza en detrimento de la representación mecanicista.

La crisis de la representación determinista
Ahora bien, conforme la teoría electromagnética se iba imponiendo en los círculos científicos del último tercio del siglo XIX, surgieron voces que reclamaban una revisión crítica de los fundamentos de la Física clásica orientada a eliminar los elementos metafísicos que habían contaminado la Física teórica desviándola, a su juicio, de su verdadero carácter de ciencia empírica. Dos fueron las corrientes que sobresalieron en este período: el sensacionismo de Ernst Mach, cuyas posiciones se acercan bastante a una fenomenología de la ciencia, sobre todo en sus escritos histórico-críticos sobre Física, y el energetismo, cuyo máximo exponente fue el químico William Ostwald.

Ambas corrientes se enfrentaron con empeño a la representación mecanicista de la Naturaleza, y en particular a las hipótesis atomísticas. Los fenomenistas rechazaban toda hipótesis que no se fundamentara directamente en la experiencia, eran, por tanto, defensores de un positivismo extremo, de ahí la influencia que ejerció Ernst Mach en los fundadores del Círculo de Viena y del neopositivismo. El energetismo trataba de construir una concepción metateórica que liberara a la ciencia de su dependencia respecto de la Física, mediante el desarrollo de una ciencia superior, la energética, que unificara en ella el resto de las ciencias. La justificación de dicha pretensión la encontraban en el enorme desarrollo y éxitos que el tratamiento de la energía había deparado durante la segunda mitad del siglo XIX en la Física y en la Química.

De hecho, Mach lo que pretendía era refundar la mecánica newtoniana sobre la base de unos nuevos presupuestos descriptivo-analíticos desposeídos de todo vestigio de carácter metafísico. Lo que Mach persigue es eliminar todo rastro de razonamiento deductivo de carácter metafísico-filosófico de la mecánica newtoniana, no su verdad de hecho, ni siquiera pretendía acabar con sus presupuestos epistemológicos intrínsecos. En cualquier caso, desde la crítica machiana no era posible destruir, ni Mach pensaba en ello, la espíteme clásica. Tuvo que desarrollarse la revolución relativista y cuántica para que de la crisis se pasara a la revolución de los fundamentos, esto es, a la destrucción de los presupuestos epistemológicos básicos que habían configurado la espíteme clásica, razón de ser de las formas del Pensar que han dominado la cultura occidental desde hace tres siglos.

Einstein y la Teoría de la relatividad.

En sus Notas Autobiográficas, Einstein explícita el origen de la Teoría Especial de la Relatividad en la necesidad de encontrar un principio formal y general que condujese a resultados seguros capaces de dar respuesta a los problemas enunciados. Einstein modificó radicalmente, con la Teoría Especial de la Relatividad, la forma de ver la física, al establecer que "no existía ninguna incompatibilidad entre el principio de relatividad y la ley de la propagación de la luz", a través de una nueva formulación de los conceptos de Espacio y Tiempo.

Para ello recurrió a una nueva definición del concepto de simultaneidad, según la cual "Cada cuerpo de referencia (sistema de coordenadas) tiene su tiempo especial; una localización temporal tiene sólo sentido cuando se indica el cuerpo de referencia al que remite". Desaparece así el tiempo absoluto característico de la Mecánica clásica: deja de ser necesario para la Física y se convierte en un elemento superfluo que estorba ahora a la propia teoría física. La ruptura con la física clásica aparece aquí evidente. Otro tanto ocurre con el concepto de espacio absoluto, el concepto de distancia espacial entre dos puntos de un cuerpo rígido se encuentra en función del sistema de referencia y sólo en este sentido puede ser empleado en Física. La reinterpretación de Einstein de las ecuaciones de transformación de Lorentz permitió establecer la transformación de las magnitudes espacio-temporales de un suceso al pasar de un sistema de referencia a otro. Einstein señalaba así su carácter de grupo, que no exigía la existencia de un sistema inercial privilegiado, diferente de los demás sistemas por su estado de reposo (espacio absoluto).

Claro que esto que parecía tan sencillo a primera vista, suponía el fin de la vieja ilusión mecanicista, con lo que todo el edificio de la Física clásica, que tantos esfuerzos había costado levantar, se tambaleaba peligrosamente. Estas son las razones que explican la incapacidad de Lorentz para interpretar correctamente las ecuaciones de transformación que él mismo había descubierto, atrapado como estaba por la epistemología de la Física clásica, de manera similar Poincaré no llegó a generalizar su principio de relatividad. Tuvo que ser Einstein quien cortase el nudo gordiano, haciendo desaparecer de la faz de la Física el espacio y el tiempo absolutos newtonianos.

La aparición de la Teoría Especial de la Relatividad provocó la ruptura de la estructura armónica y totalizadora de la cosmovisión procedente de la física clásica, según la cual las leyes de la Mecánica daban razón de la totalidad del Universo, constituyéndose en Leyes Naturales de carácter universal. La desaparición de un sistema de referencia privilegiado, constituido sobre la base de la existencia de un espacio y tiempo absolutos, eliminaba la posibilidad de establecer, bajo las premisas de la antigua física clásica, una teoría física que unificase, mediante el establecimiento de unas Leyes Generales, el funcionamiento de la Naturaleza, situación que se agravaría con el desarrollo de la Mecánica Cuántica durante el primer tercio del siglo XX, y que en la actualidad todavía no ha podido ser resuelta a pesar de los esfuerzos teóricos desarrollados con el fin de dar con una teoría unificada, en la que se ensamblen los resultados alcanzados por la Relatividad y la teoría cuántica.

La teoría Especial de la Relatividad analiza y resuelve los problemas físicos de los cuerpos en movimiento en sistemas de referencia inerciales, pero deja fuera de su campo de aplicación toda una serie de problemas físicos, como los del campo gravitatorio y la no equivalencia de todos los cuerpos de referencia de Galileo, de cara a la formulación de las leyes naturales. Einstein dedicó buena parte de sus esfuerzos intelectuales en los siguientes diez años a generalizar la relatividad especial. En la teoría especial había establecido la equivalencia de todos los sistemas inerciales para la formulación de las leyes de la naturaleza, pero pronto se planteó la pregunta de "si sólo se puede adjudicar un significado relativo al concepto de velocidad" y, por tanto, "¿debemos, con todo, seguir considerando la aceleración como un concepto absoluto?".

Einstein llegó pronto, en 1907, al convencimiento de que en el marco de la Teoría de la Relatividad Especial no había lugar para una teoría satisfactoria de la gravitación. En el proceso de generalización de la Relatividad Especial se percató enseguida de la igualdad existente entre masa inercial y masa pesante, de donde se deducía que la aceleración gravitatoria es independiente de la naturaleza del cuerpo que cae. Esta igualdad ya había sido registrada por la física clásica, pero no había sido interpretada. El reconocimiento por parte de Einstein de que "la misma cualidad" del cuerpo se manifiesta como inercia o como gravedad, le condujo a establecer el principio de equivalencia.

De esta forma, Einstein encontró en 1907 el camino por el que podía ser generalizada la Relatividad Especial a los sistemas de referencia de movimiento uniformemente acelerado, es decir, el medio de aplicar las ecuaciones relativistas a un campo gravitatorio homogéneo, llegando a la conclusión de que debía producirse una aceleración en la frecuencia de los relojes situados en un campo gravitacional intenso respecto de la frecuencia de los relojes situados en campos gravitacionales débiles. En el mismo artículo de 1907, Einstein llegó a la conclusión de que la acción de un campo gravitacional sobre la trayectoria de un rayo luminoso se manifiesta en su curvatura, algo que parecía entrar en abierta contradicción con el postulado de la Relatividad Especial, según el cual la velocidad de la luz en el vacío es constante.

En la Teoría de la Relatividad General, completada por Einstein en 1916, se plantea una nueva ley general de la gravitación acorde con la física relativista, que elimina la acción instantánea a distancia de la teoría de la gravedad de Newton, dando cuenta del avance del perihelio de Mercurio -algo que no podía explicar la ley de gravitación newtoniana- y de la curvatura de la trayectoria de los rayos luminosos bajo la acción de intensos campos gravitatorios. En el campo gravitatorio relativista relojes sincronizados marchan a distinta velocidad según su posición en el mismo. El reloj situado en la periferia del campo gravitatorio marchara constantemente más despacio, respecto de un sistema de referencia no afectado por el campo gravitatorio, que el reloj situado en el centro del campo gravitatorio. De tal manera que resulta imposible dar una definición exacta del tiempo dentro de un campo gravitatorio. Otro tanto ocurre a la hora de efectuar una definición de las coordenadas espaciales; éstas variaran en función de como se sitúen dentro del campo gravitatorio. Tales resultados llevaron a la conclusión a Einstein de "que los teoremas de la geometría euclidiano pueden cumplirse exactamente sobre el disco rotatorio ni, en general, en un campo gravitacional... También el concepto de línea recta pierde con ello su significado".

Einstein se vio obligado a abandonar la geometría euclidiana como marco en el que se desenvuelve el espacio-tiempo bajo la acción de un campo gravitatorio, rompiendo radicalmente con la representación espacial de la física clásica. Einstein recurrió a la utilización de coordenadas gaussianas como el método adecuado a medidas -distancias- no euclideas, características del continuo espacio-temporal bajo el efecto de un campo gravitatorio.

La Teoría de la Relatividad General planteaba una nueva configuración del Universo, a partir de la nueva geometría del continuo espaciotemporal de carácter no euclideo. El Universo infinito y estático característico de la cosmología clásica se ve obligado a ceder el paso a una nueva representación: el Universo finito y dinámico de la Relatividad General.

La Mecánica cuántica.

Si bien la teoría de la Relatividad eliminó algunos de los presupuestos epistemológicos básicos de la física clásica, como el espacio y el tiempo absolutos, sobre los que se asentaba la representación moderna del Universo, no puso en cuestión la representación determinista de la Naturaleza característica de la época Moderna. Dicha representación se asentaba en la validez universal del principio de causalidad clásico, cuyas premisas no quedaban afectadas por la revolución relativista. Lo que salvaguardaba la vigencia del criterio de realidad dominante en la física moderna, mediante el cual era posible aprehender la naturaleza de los procesos físicos sin interferencias del observador, postulado básico de la teoría del conocimiento desarrollada en la época Moderna.

Sin embargo, este pilar fundamental del Saber moderno pronto se vería afectado por una profunda crisis, como consecuencia del desarrollo de la Mecánica Cuántica. El inicio de esta fractura epistemológica se sitúa en la introducción del cuanto de acción por Max Planck en 1900, resultado de su investigación sobre el problema de la radiación del cuerpo negro.

Con ello introdujo el cuanto de energía como una realidad física, al subdividir el continuo de energía en elementos de tamaño finito, asignándoles un valor constante y proporcional a su frecuencia. Un paso que rompía radicalmente con la física del siglo XIX, al introducir la discontinuidad en la emisión y absorción de energía, hecho del que no se percató el propio Planck cuando estableció su teoría de la radiación del cuerpo negro, y que tardaría en reconocer cerca de diez años por la repugnancia epistemológica que ello le producía.

La fórmula de Planck por la que se establecía una igualdad entre la energía concebida como discontinua y la energía considerada continua, en función del carácter ondulatorio de la frecuencia, resultaba completamente extraña para los físicos de la época. Sólo Einstein comprendería el problema en toda su magnitud, al postular en 1905 la existencia de partículas de luz -fotones-, y con ello establecer el carácter corpuscular y ondulatorio de la luz. Una posición que gozó de la animadversión del resto de los físicos, entre ellos el propio Planck, que atrapados por la teoría ondulatoria de la luz, dominante desde la segunda mitad del siglo XIX, no podían concebir un comportamiento a primera vista tan contrario a los postulados de la física. Tan sólo en 1922, con la introducción del efecto Compton y el desarrollo de la Mecánica Cuántica a partir de 1926-27, la solución propuesta por Einstein se abrió camino.

Fue Ehrenfest el primero en señalar que la teoría de Planck constituía una ruptura con la teoría clásica, al limitar la energía de cada modo de vibración a múltiplos enteros del elemento de energía establecido por la realidad física del cuanto de acción, señalando que la cuestión fundamental de la teoría de Planck radicaba en el tratamiento probabilístico del campo. A conclusiones similares, pero por caminos distintos, llegó Einstein en las mismas fechas, al defender que durante la absorción y la emisión la energía de un resonador cambia discontinuamente en un múltiplo entero.

La teoría de Einstein sobre los calores específicos planteaba la imposibilidad de reducir la discontinuidad a la interacción entre materia y radiación, ni siquiera era posible reducirla a una teoría de los electrones mejorada. La teoría de Einstein era una teoría mecánico-estadística, independiente de consideraciones electromagnéticas, que exigía cuantizar la energía no sólo de los iones sino también de los átomos neutros. La aplicación de la mecánica clásica a cualquier proceso atómico era puesta en cuestión y con ella la totalidad de la teoría cinética. La discontinuidad aparecía así como un fenómeno de una gran generalidad y de profundas consecuencias físicas, que planteaba la reformulación sobre bases nuevas de la teoría cinética de la materia.

El siguiente gran paso no se produjo hasta 1913, cuando Niels Bohr aplicó la distribución cuántica de la energía para explicar el comportamiento de los electrones en el seno de la estructura atómica. Bohr resolvió así las dificultades del modelo atómico de Rutherford, al explicar por qué el átomo no emite radiación de forma continua y los electrones no se precipitan sobre el núcleo permaneciendo en órbitas estacionarias. Sin embargo, el modelo atómico de Bohr no estaba exento de dificultades teóricas, debidas a la introducción del cuanto de acción para explicar las transiciones energéticas del electrón. Ello implicaba que las transiciones entre los diferentes estados energéticos del átomo se producían mediante saltos cuánticos, algo que resultaba absolutamente incompatible con la teoría clásica que postulaba transiciones continuas de un estado de energía a otro. La dificultad se veía agravada por el recurso en la misma teoría a los principios de la mecánica y el electromagnetismo clásicos, para definir la carga y la masa del electrón y del núcleo. La utilización dentro del mismo modelo atómico de dos teorías, la clásica y la cuántica, incompatibles entre sí, generaba enormes problemas teóricos, que no fueron resueltos hasta la aparición de la Mecánica Cuántica en 1926-27.

Los experimentos de Frank y Hertz de 1914 demostraron que la cuantización de los niveles de energía de los átomos constituía una propiedad de la materia muy general, incompatible con la teoría corpuscular clásica de la materia, pues para ésta última la energía en un sistema de corpúsculos clásicos es una magnitud continua.

La publicación de un artículo de Heisenberg en 1925 representó un salto cualitativo en la resolución de los problemas que aquejaban a la teoría cuántica del átomo de Bohr, al proponer la necesidad de abandonar el concepto clásico de órbita electrónica e introducir un nuevo formalismo matemático, que sería desarrollado inmediatamente por Max Born y Pascual Jordan, consistente en la aplicación de la matemática de matrices. Nacía así la mecánica matricial, sobre la que se fundaría la Mecánica Cuántica. Paralelamente, Dirac llegó a resultados similares en Cambridge.

Por las mismas fechas, 1924-1926, se desarrolló la Mecánica ondulatoria por De Broglie y Schrödinger. De Broglie generalizó la dualidad onda-corpúsculo de la luz, establecida por Einstein en 1905 para el caso del electrón, señalando que esta dualidad se encontraba íntimamente asociada a la existencia misma del cuanto de acción. Se trataba, en definitiva, de asociar al movimiento de todo corpúsculo la propagación de una onda, ligando las magnitudes características de la onda a las magnitudes dinámicas del corpúsculo, mediante relaciones en las que intervenía la constante de Planck.

Esta nueva mecánica ondulatoria fue desarrollada por Schrödinger en los primeros meses de 1926. En ella señaló que los estados estacionarios de los sistemas atómicos podían representarse por las soluciones propias de una ecuación de ondas, cuyo formalismo matemático encontraba fundamento en la solución de Hamilton respecto de la analogía formal existente entre los sistemas mecánicos y ópticos.

 

La situación no podía dejar de ser más confusa. Por una parte, el desarrollo de la nueva mecánica matricial ofrecía una teoría que resolvía matemáticamente los problemas que habían aquejado a la primera teoría cuántica, sobre la base de la consideración corpuscular del electrón, obviando su posible comportamiento ondulatorio. Por otra parte, la mecánica ondulatoria de Schrödinger se basaba en el comportamiento ondulatorio del electrón y obviaba el posible carácter corpuscular del electrón. Dos teorías que en principio parecían radicalmente contradictorias sin embargo alcanzaban resultados similares.



La situación se complicó aún más por la interpretación clásica que Schrödinger hizo de la ecuación de ondas, que perseguía eliminar los saltos cuánticos y la discontinuidad de los procesos atómicos, sobre la base de interpretar la función de ondas de su ecuación desde la perspectiva de la teoría clásica de la radiación electromagnética. En otras palabras, interpretó la teoría cuántica como una simple teoría clásica de ondas, en la que era negada categóricamente la existencia de niveles discretos de energía. La interpretación clásica de Schrödinger encontró una gran audiencia entre los físicos, pues eliminaba el contrasentido de los saltos cuánticos que amenazaba a todo el edificio de la física clásica. Dicha interpretación fue contestada por Niels Bohr, Werner Heisenberg y Max Born.

Fue Max Born quien resolvió la polémica y clarificó la situación, mediante su interpretación estadística de la ecuación de ondas de Schrödinger, al poner de manifiesto el carácter equivalente de la mecánica matricial y la mecánica ondulatoria; debido a que la ecuación de ondas, por su carácter complejo, exigía una interpretación probabilística de la localización en el espacio de la partícula asociada. Born sostenía que en los procesos individuales no es posible determinar con exactitud el estado de la partícula, sino que sólo puede establecerse la probabilidad del estado de la partícula, como consecuencia de la existencia del cuanto de acción. De esta manera, la función de la ecuación de ondas debía ser interpretada como la probabilidad de encontrar al electrón en el espacio de configuración determinado por el cuadrado de la función de ondas, no siendo posible una determinación exacta de la posición del electrón. En otras palabras, Born demostró que la ecuación de ondas de Schrödinger sólo podía ser interpretada de una forma probabilística.

La interpretación probabilista de la mecánica cuántica realizada por Max Born, completada por la teoría de la transformación de Dirac y Jordan, constituyó un avance sustancial en la comprensión del significado de la nueva mecánica cuántica, al establecer el carácter físico de la probabilidad cuántica, hecho que constituía una profunda fractura con los fundamentos epistemológicos de la física clásica, por cuanto establece que tanto la localización espacial del electrón como los estados estacionarios del átomo sólo pueden ser determinados probabilísticamente.

  1   2   3


La base de datos está protegida por derechos de autor ©espanito.com 2016
enviar mensaje