I. NIELS BOHR: PUENTE ENTRE LA FÍSICA CLÁSICA Y LA MODERNA
N
IELS BOHR
y Albert Einstein son los dos únicos grandes físicos del siglo XX que trascendieron "los treinta años maravillosos que sacudieron al mundo", como los llama George Gamow. Empiezan sus trabajos todavía bajo la égida de la ciencia decimonónica; inician, cada uno por su lado, una revolución en la física que culmina al finalizar los veintes, y sobreviven la época de la Gran Depresión para continuar en la frontera de la ciencia, ya convertida en una gran empresa profesional, hasta su muerte. Niels Bohr, cuyo centenario celebramos hoy, muere en 1962, y Einstein siete años antes.Para entender el ambiente en que estos dos grandes sabios empezaron a trabajar y los problemas que enfrentaron, es necesario ver la ciencia, y la física en particular, con la perspectiva que se tenía en la primera década de nuestro siglo. Pero este periodo l900-1913 que abarca las primicias cuánticas de Max Planck, la teoría de la relatividad y la del efecto fotoeléctrico de Einstein, y la audaz concepción atómica de Bohr, por el lado teórico, y los descubrimientos experimentales de J.J. Thomson y Ernest Rutherford, que afianzan el modelo planetario clásico del átomo no puede concebirse aislado de la ciencia del siglo anterior. En efecto, el siglo XIX es el centro de un periodo histórico marcado en sus inicios por la Revolución Francesa y cuyo fin coincide con la primera Guerra Mundial.
Analicemos, pues, en forma breve la historia de la ciencia en el siglo pasado. Así apreciaremos mejor los problemas que Bohr enfrentó. Empecemos por la matemática, que se sacude en este periodo de transición entre el enciclopedismo del siglo XVIII y la gran especialización de nuestra época. Los matemáticos comienzan a preocuparse por el rigor, la lógica y la abstracción, y la geometría florece de manera audaz; se crea, por otro lado, lo que hoy llamamos física-matemática. Dos tendencias opuestas, una orientada hacia lo más abstracto, otra que apunta a la explicación de fenómenos físicos concretos, que se nutren mutuamente para el progreso matemático.
En el siglo XIX las publicaciones y los estudios sobre matemáticas crecen en forma exponencial en toda Europa. A principios del siglo la materia se encuentra dominada por los franceses y sus grandes escuelas de París, pero luego la imponente personalidad de Gauss ayuda a que las matemáticas alemanas se conviertan en el punto focal. Se renueva el álgebra, con la teoría de grupos, los determinantes y las matrices, y la teoría rigurosa de los números complejos. Asimismo, bajo la influencia de Riemman y de Gauss se expande el uso del análisis vectorial, tan útil en la física matemática y en la geometría diferencial. Comienza también el cálculo tensorial. Finalmente, en Inglaterra Boole y otros hacen los primeros trabajos en la lógica matemática.
Se renueva también la geometría, con la creación de la geometría proyectiva y, sobre todo, de las geometrías no-euclidianas. Gauss, y otros dos geómetras prácticamente desconocidos, el ruso Lobachevski y el húngaro Bolyai, engendran la geometría hiperbólica; por su parte, Riemman introduce espacios muy generales y sugiere el segundo tipo de geometría no-euclidiana, la elíptica. Finalmente, este mismo gran matemático alemán, funda la topología, concebida como el estudio de las propiedades invariantes bajo el efecto de transformaciones continuas. Otras tres ramas de las matemáticas, el análisis, la teoría de números y la probabilidad, avanzan también de manera considerable durante el siglo pasado.
Veamos ahora lo concerniente a la mecánica, ciencia que a veces suponemos parte de la matemática, y a veces la esencia de la física. Aunque en 1832 se logra entender el papel que desempeña el marco de referencia en la descripción mecánica, los desarrollos en esta ciencia no podrían considerarse del mismo nivel renovador que en geometría o en otras ramas de la física: Newton, sus leyes y su idea del tiempo absoluto permanecieron incólumes a lo largo de todo el siglo XIX. Más interesante resulta, desde el punto de vista que aquí nos guía, la influencia de la mecánica sobre otra rama de la ciencia: la termodinámica.
A mediados del XIX la mecánica suministra temas fundamentales al estudio de los fenómenos térmicos. Ya, gracias a Helmholtz, queda establecida la primera ley de la termodinámica; en 1850 Clausius y Thomson aclaran el problema de la degradación de la energía: la energía mecánica se puede utilizar íntegramente, pero la calórica no. En un sistema aislado, la energía se conserva, pero se degrada. He aquí la esencia de la segunda ley de la termodinámica. La mecánica influye también en otro aspecto: se inventa la teoría cinética de los gases, con la cual se busca entender mecánicamente el fenómeno termodinámico. Hace así su entrada al mundo de la física el cálculo de probabilidades.
En forma paralela hay un gran progreso en la óptica instrumental. En la perspectiva de la historia que hoy nos interesa relatar, es importante resaltar la invención de un aparato que habría de ocupar un lugar de gran prominencia: el espectroscopio de Kirchhoff y Bunsen. Su primer espectroscopio consistía en un prisma, una cajetilla de cigarros a la cual se le había recortado en su base una rendija, el extremo de dos viejos telescopios y, como fuente de luz, uno de esos mecheros usados por Bunsen. La muestra a estudiar se colocaba en el mechero y se le calentaba hasta la incandescencia. La luz emitida, refractada en el prisma, pasaba luego por la rendija. Los diferentes colores se refractaban en el prisma de manera diversa. Al mover los telescopios, la imagen de la rendija se veía de diferente color. Así descubrió Kirchhoff que cada elemento químico cuya existencia, para ese entonces, comenzaba a establecerse firmemente gracias a los esfuerzos de Lavoisier, Proust, Dalton y muchos otros químicos produce al ser calentado un conjunto de líneas de colores que le es característico. Así, por ejemplo, el vapor de sodio incandescente emite una doble línea amarilla y el hidrógeno marca su presencia por una serie de líneas, la llamada serie de Balmer, cuyo espaciamiento disminuye a medida que su color se acerca más al azul. Estos resultados experimentales resultaban tan misteriosos para la ciencia del siglo XIX, que a ese conjunto de líneas de colores se le llamó el espectro de un elemento.
Grande fue el progreso en la electricidad y el magnetismo, que culmina con la gran síntesis electromagnética de Maxwell. Los trabajos de Ampere y de Faraday abren el camino a una teoría en que el magnetismo y la electricidad van de la mano. Campos eléctricos variables producen un campo magnético y viceversa. Unos alimentan a los otros, por lo que pueden propagarse sin necesidad de sustentarse en cargas o en imanes. Estos campos que se propagan pueden constituir la luz, que así estaría formada por ondas electromagnéticas.
En 1888 el profesor alemán Rudolf Hertz hizo saltar chispas a voluntad en un pequeño aro de alambre con un intersticio al colocarlo en la vecindad de un circuito oscilante, en el cual también podía producir chispas. La corriente variable en el circuito oscilante daba origen a campos eléctricos y magnéticos que se propagaban y eran detectados luego en el aro: así fueron descubiertas las ondas hertzianas, que no eran otras que las ondas electromagnéticas predichas antes por Maxwell. Estas ondas hertzianas se reflejan, refractan, pueden polarizarse y sufrir interferencia igual que la luz. "Es difícil no inferir que la luz consista en oscilaciones transversas del mismo medio que es la causa de los fenómenos eléctricos y magnéticos", nos dice Maxwell. Para él y otros físicos del siglo XIX, este medio es el éter.
Cuando Hertz hacía saltar chispas en su aro, en realidad forzaba grandes aceleraciones sobre algunas cargas eléctricas. De acuerdo a la teoría electromagnética clásica, ello genera pulsos que viajan con la velocidad de la luz. En otras palabras, una carga eléctrica acelerada genera una onda electromagnética. En particular, si la carga da vueltas alrededor de un centro fijo con una cierta frecuencia, las ondas que emite tienen esa misma frecuencia. En tal caso, la carga consume al radiar energía electromagnética parte de su energía mecánica.
Por aquellos días, Kirchhoff descubrió la ley que hoy lleva su nombre según la cual un gas absorbe luz de la misma longitud de onda que emite al estar incandescente. Además de jugar con su espectroscopio, Kirchhoff planteó también otro problema: el llamado cuerpo negro, que es el absorbedor de luz más perfecto, cuyo comportamiento habría de constituir un gran enigma para los físicos del siglo XIX. La teoría clásica de la luz, basada en las leyes de Maxwell, unida a las leyes de la termodinámica, no es capaz de explicar la radiación del cuerpo negro. Tendría que venir un alumno de Kirchhoff, Max Planck, para explicarnos los misterios del cuerpo negro y establecer así las primicias de la teoría cuántica.
Como ya dijimos, un cuerpo negro absorbe todas las ondas que inciden sobre él, sin importar la frecuencia de la radiación. Aunque el cuerpo negro perfecto no existe, se puede construir uno que casi lo sea mediante el simple truco de hacer un agujero pequeño en una caja cerrada con sus paredes interiores pintadas de negro; la luz que penetra por el agujerito tendría una probabilidad pequeñísima, casi despreciable, de volver a salir por la apertura: de hecho ha sido absorbida y el sistema se comporta como si fuera negro. Si ahora forzáramos el proceso inverso, calentando la caja hasta la incandescencia, del agujero saldría luz con todas las longitudes de onda. Si el radiador negro emitiera en todas las frecuencias por igual, casi toda la energía se iría en radiar en la zona de más alta frecuencia. Ya que la luz de mayor frecuencia en el espectro visible es la violeta, esta conclusión de la física clásica se llegó a conocer como la "catástrofe ultravioleta". La tal catástrofe nunca fue observada en el experimento, y se constituyó así en la catástrofe de la física clásica.
Vemos, pues, que con sus investigaciones sobre los espectros atómicos y su planteamiento del problema del cuerpo negro, Kirchhoff preparó el entierro de la física clásica, la basada en las leyes de Newton y Maxwell, y abrió la puerta a una nueva física, la física cuántica, vigente hasta nuestros días.
Si a los espectros de Kirchhoff y a la catástrofe ultravioleta añadimos lo que Michelson y Morley encontraron, así como lo que se sabía del efecto fotoeléctrico tenemos ya una cuarteta infernal de experimentos contra la física clásica. Veamos como ocurrió esto.
La teoría cuántica avanzó a saltos bien definidos y en treinta años se convirtió en la firme base de la física moderna. Con su ayuda podemos contestar preguntas tan variadas como ¿por qué hay algunos materiales que son conductores y otros que son aislantes?, o ¿podría haber en la Tierra una montaña muchísimo más alta que el monte Everest?, así como otras muchas que nos explican el comportamiento de la materia en bulto; también podemos atacar cuestiones más fundamentales, que van desde las reacciones químicas hasta aquéllas que tienen lugar en el Sol y lo proveen de energía, o a entender la constitución del núcleo de los átomos, o incluso a formular una imagen de los entes más fundamentales, las así llamadas partículas elementales.
Los saltos cruciales para establecer la física cuántica se debieron al trabajo de un puñado de científicos. Max Planck, en la Navidad de 1900, propuso la existencia del cuanto para resolver la catástrofe ultravioleta; vino luego Einstein, quien en 1905 (el mismo año en que postuló el principio de relatividad y entendió el movimiento browniano) explicó el efecto fotoeléctrico, para lo cual requirió que la luz esté formada por corpúsculos, que se llaman fotones; Niels Bohr, físico danés cuyo centenario celebramos este 7 de octubre de 1985, aplicó en 1913 las ideas cuánticas para entender el espectro del átomo de hidrógeno, en particular la serie de Balmer; el físico y noble francés Louis de Broglie propuso en 1923 que a toda partícula debe asociarse una onda, cuya longitud de onda es inversamente proporcional a su velocidad; finalmente, en 1924, Schrödinger, austriaco, desarrolló la mecánica ondulatoria y estableció su ecuación, y Werner Heisenberg, alemán, creó la llamada mecánica de matrices y postuló el fundamental Principio de Incertidumbre. Con la interpretación probabilística de la mecánica cuántica, sugerida por Max Born, la formulación del Principio de Exclusión por Wolfgang Pauli en 1925, y los intentos de Dirac para unir la nueva mecánica con la teoría especial de la relatividad, la concepción cuántica de la naturaleza quedaría esencialmente completa y lista para ser aplicada a una casi inimaginable variedad de fenómenos. Veamos ahora en detalle la historia de los primeros saltos cuánticos.
La mecánica estadística puede aplicarse también a las ondas en el interior de una cavidad, como aquella que imaginó Kirchhoff al tratar la radiación del cuerpo negro. Éste es un sistema termodinámico, susceptible de análisis con las técnicas estadísticas. La conclusión de este análisis fue ¡la existencia del cuanto!
Herman Helmholtz (1821-1894), Rudolf Clausius (1822-1888) y Gustav Kirchhoff (1824-1887) tuvieron muchas cosas en común. Además de ser físicos alemanes contemporáneos y de haber hecho contribuciones fundamentales a la termodinámica a Helmholtz debemos la primera ley, a Clausius la segunda y de las hazañas de Kirchhoff ya hemos hablado, los tres fueron profesores en la Universidad de Berlín y ahí dejaron una gran tradición, que habrían de heredar dos de sus alumnos, Wien y Planck.
El primero de ellos, Wien, obtuvo su doctorado con Helmholtz y poco después empezó a trabajar en el problema de la radiación del cuerpo negro. Observándola encontró que las longitudes de onda de la radiación electromagnética emitida se distribuyen de una manera que no es uniforme, sin que su intensidad presente un pico en un valor intermedio. La longitud de onda en el pico de la curva varía inversamente con la temperatura, de tal forma que a medida que ésta aumenta el color predominante se corre hacia el azul. A esta propiedad se le llama la ley del desplazamiento de Wien, quien pudo deducirla con puro razonamiento termodinámico. Para ello supuso que en la cavidad del cuerpo negro existe un conjunto de ondas electromagnéticas que ejercen presión sobre las paredes de esta cavidad. Con este mismo modelo lord Rayleigh pudo explicar la forma de la curva para frecuencias pequeñas; Wien mismo lo hizo cuando esas frecuencias son grandes, aunque ninguno de los dos pudo obtener de la mecánica estadística la forma completa de la curva. El cálculo de Rayleigh, correcto según los cánones de la física clásica, predecía una intensidad que siempre crecía con la frecuencia, de hecho igual al cuadrado de ésta. En consecuencia, la energía total radiada es infinita y nos hallamos frente a una verdadera catástrofe ultravioleta.
Pronto Planck sigue la tradición establecida en Berlín por sus ilustres maestros y ataca problemas termodinámicos. Retoma el mismo modelo que lord Rayleigh y elige un simple oscilador armónico cargado (es decir, una carga que oscila sujeta a un resorte) para simular la emisión de luz. Con ello obtiene de inmediato que la intensidad emitida a una cierta frecuencia se determina por dos factores: el primero, proporcional al cuadrado de la frecuencia, y el segundo, a la energía promedio contenida en el oscilador. El primer factor es equivalente a la ley de Rayleigh; el segundo, la energía promedio, es proporcional a la temperatura absoluta de la cavidad y la constante de proporcionalidad, es, de acuerdo con un teorema general que Boltzmann probó en la mecánica estadística clásica, una constante universal k, que hoy llamamos la constante de Boltzmann. Con ello Planck obtiene un resultado acorde con la ley de Wien y con la catástrofe ultravioleta. Estas conclusiones de la mecánica y el electromagnetismo clásicos son inevitables.
Para eliminar esa catástrofe, Planck se vio forzado a una medida extrema y audaz. Al calcular la energía promedio en cada oscilador, abandonó las recetas de Boltzmann y postuló que las energías del oscilador sólo vienen en paquetes, que él denominó cuantos. La energía sólo puede ser múltiplo de una energía fundamental, E0, que es la de un paquete. Con esta suposición tan revolucionaria, Planck pudo explicar los resultados del cuerpo negro eliminando así la catástrofe ultravioleta. Al mismo tiempo, cerró el capítulo clásico de la física y abrió el que dominaría esta ciencia durante el siglo XX: el capítulo de la física cuántica.
Para que su cálculo fuera consistente con la ley de Wien que es un resultado de la termodinámica, y por ello independiente de los detalles del modelo empleado, Max Planck tuvo que suponer que la energía E0 es proporcional a la frecuencia v:
E0 = hv
Así entra en la física la constante h, hoy llamada constante de Planck, que es ubicua en la física moderna. El valor de h, cuando usamos el sistema de unidades centímetro-gramo-segundo (que es apropiado al tratar con los sistemas físicos que hallamos cotidianamente) es pequeñísimo: h=6.62 X 10-27 erg. seg. Por ello, en el estudio de muchos fenómenos con objetos a la escala del hombre o mayores, aparenta ser cero. En tal caso, la energía ya no viene en cuantos, sino que parece ser continua, como en la mecánica de Newton. Recuperamos así, como un caso límite en que la constante de Planck es cero, la física clásica. De manera análoga a como la mecánica newtoniana se obtenía de la física relativista cuando la velocidad de la luz se considera infinita, la física clásica es un caso limítrofe de la cuántica si h puede despreciarse. En la vida diaria, cuando los cuerpos se mueven a velocidades muy pequeñas respecto a la luz y tienen masas muy grandes, los efectos relativistas y cuánticos no pueden observarse. Las leyes de Newton, como un caso limítrofe, recuperan su valor y son útiles para describir el movimiento de proyectiles, ciclones y planetas. Pero en el mundo de lo muy pequeño, h es siempre diferente de cero y su presencia se hace sentir en múltiples fenómenos.
Uno de estos fenómenos es el efecto fotoeléctrico. Supongamos que se ilumina con luz ultravioleta la superficie de un metal alcalino; se observa que esta superficie adquiere carga positiva, porque ha dejado escapar electrones. Podemos luego medir la velocidad y el número de esos electrones; se observa que el número aumenta con la intensidad de la luz pero que su velocidad sólo depende de la frecuencia de ésta. En particular, si la frecuencia se hace muy pequeña la luz incidente no es capaz de producir la corriente fotoeléctrica, es decir, no puede arrancar electrones al metal por más intensa que la luz sea.
En uno más de los artículos fundamentales que Einstein publicó en 1905 (año en que, por cierto, también obtuvo su doctorado), se generaliza la idea de los cuantos de luz para explicar estos experimentos sobre fotoelectricidad. Einstein, a diferencia de Planck, no sólo postuló las características cuánticas de la luz durante los procesos de emisión y absorción, sino que supuso que la luz está formada por cuantos de energía igual al producto de h por la frecuencia, que vuelan a la velocidad de la luz. A estos cuantos se les llamaría fotones, las partículas de luz. Con esta hipótesis cuántica, la explicación del efecto fotoeléctrico es fácil: un fotón choca con un electrón y lo expulsa del metal si la energía que le da es mayor que la llamada función de trabajo; mientras mas fotones haya, mas electrones pueden ser extraídos del metal, pero la energía de estas partículas solo depende de la que originalmente tenga el fotón y no el número de estos. La corriente fotoeléctrica depende, por consiguiente de la intensidad de la luz, pero la energía de los electrones solo de la frecuencia de la radiación incidente. Con su audaz concepción corpuscular de la luz, Einstein golpea brutalmente, por segunda vez, a la física clásica.
El siguiente salto en la historia de los cuantos lo dio Niels Bohr en 1913 al postular la idea del salto cuántico para explicar por qué los espectros atómicos existen. La historia del modelo atómico de Bohr es como sigue.
J.J. Thompson y su discípulo Ernest Rutherford descubrieron, respectivamente, el electrón y el núcleo de los átomos. Con estos ingredientes, se propuso un modelo planetario y clásico para el átomo, que sería el de un pequeño sistema solar, con el núcleo en el papel del Sol y una nube de electrones circundándolo, como si fueran los planetas. Tal modelo conduce, por lo menos, a dos consecuencias desagradables.
La primera de esas consecuencias es verdaderamente catastrófica: el modelo planetario y la física clásica predicen que los átomos son inestables. En efecto, como ya mencionamos, un electrón cargado que da vueltas alrededor del núcleo emite ondas electromagnéticas, cuya frecuencia es la del movimiento del electrón al recorrer su órbita y cuya energía proviene de la energía mecánica de la partícula. El electrón pierde, pues, su energía en forma continua y cae irremisiblemente al núcleo. La teoría electromagnética de Maxwell predice que, en un tiempo pequeñísimo, la nube electrónica y con ella el átomo habría desaparecido. La materia, de acuerdo a la física clásica, sería inestable.
La segunda consecuencia del modelo planetario clásico es igualmente desagradable y, como la primera, también inevitable si aceptamos las leyes de Newton y de Maxwell. Cuando el electrón radia y pierde su energía mecánica cada vez se mueve más despacio, recorriendo su órbita con una frecuencia que disminuye continuamente. Por ello emitiría, según la teoría clásica, radiación electromagnética de todas las frecuencias y no luz con un espectro discreto. Los espectros de Kirchhoff y la serie de Balmer constituyen un enigma que la física clásica no puede resolver.
Al terminar sus estudios de doctorado en Copenhague, Bohr decide estudiar en Inglaterra, en el Cavendish, bajo la dirección de J.J. Thomson. Muy pronto, Bohr propone que la mecánica clásica no funciona dentro del átomo, sino que éste sólo puede existir en un conjunto discreto de estados estacionarios con energías E1, E2, ... y cuyo momento angular está cuantizado; cuando un electrón se encuentra en uno de ellos, no puede emitir ni absorber radiación; estos procesos se dan cuando el átomo pasa de uno de esos estados estacionarios a otros y la frecuencia de la luz necesaria obedece la ecuación
En - Em, = hvnm
es decir, sólo radia aquellos cuantos cuya frecuencia es tal que se conserva la energía.
Los grandes físicos de la vieja generación nuestro conocido ya Rayleigh y el mismo maestro de Bohr, J.J. Thomson se opusieron al nuevo modelo del joven danés. Por esta razón entre otras, Bohr deja el Cavendish y va a trabajar con Rutherford en Manchester, donde en 1913 completa el nuevo esquema atómico, acorde con las ideas cuánticas de Planck y Einstein, pero violentamente opuesto a la mecánica de Newton.
Con su modelo, Bohr pudo explicar la serie de Balmer y aun predecir lo que ocurriría al bombardear átomos con electrones de baja energía: si ésta fuera menor que la diferencia E1 - E0, es decir, la mínima energía requerida para excitar el átomo, el electrón no podría comunicar a éste excitación alguna. Esta concepción, ajena por completo a las ideas clásicas cuando se aplican al choque entre partículas, fue comprobada por los científicos alemanes James Franck y Gustav Hertz (este último sobrino de Rudolf Hertz), quienes, alrededor de 1920, bombardearon gases y vapores con electrones de diferentes energías. Cuando la energía no es suficiente para que un cuanto completo se absorba, el electrón rebota elásticamente y no se emite luz, El modelo atómico de Bohr, aunque no es muy satisfactorio desde el punto de vista teórico, recibió así un fuerte impulso.
Para valorar realmente el trabajo de Bohr, habrá que darnos cuenta que antes de él, en los trabajos de Planck y de Einstein, así como en la explicación que Debye dio de los calores específicos de los sólidos, el cuanto siempre se había asociado con energía. La cuantización del momento angular era una cosa del todo nueva. De hecho Bohr predijo el valor de la constante de Rydberg, que fija la escala atómica en energías y el tamaño del átomo, en términos de constantes como la de Planck y la carga del electrón, que ya eran conocidas, sin ningún parámetro ajustable. Este es un logro casi sin paralelo en la historia de la ciencia.
Bohr pudo explicar con su teoría muchas cosas, con un éxito luego del otro. En cierto sentido, predijo la serie de Lyman en el ultravioleta, entendió el espectro del helio ionizado y explicó por qué la constante de Rydberg debería aparecer en otros espectros atómicos. Sin embargo, falló al atacar el efecto Zeeman en general, pues por ese entonces el espín del electrón no había sido descubierto. Finalmente, halló obstáculos para entender la estructura detallada de átomos complejos, pues en aquel tiempo no había, prácticamente, una mecánica cuántica, y en particular no se sabía del principio de exclusión de Pauli. Sin embargo, se vislumbró que el espectro visible tendría su análogo en el de los rayos X de elementos más pesados, con lo cual conceptos como el de número atómico quedarían por fin establecidos. Esto último se debió a los experimentos de Moseley en Inglaterra.
En todo caso, el trabajo de Bohr y su explicación del espectro del hidrógeno quedan ahí como uno de los grandes triunfos de la física. La aparición de una nueva mecánica, la mecánica cuántica, estaba ya preparada.
![]()