Este texto está programado para aparecer en color blanco y con carácteres especiales, como la a acentuada.

Haz click aquí para ir a Google.

Los Premios Nobel de Física y de Química 1901-1999

Los premios Nobel de Física y de Química los concede la Academia de Ciencias de Suecia, en base a los términos expresados por el Dr. Alfred Nobel en su testamento de 1895. El testamento sobre sus posesiones dice:

"todo el capital constituirá una fundación, será invertido de forma segura y el interés anual será distribuido en forma de premios a quienes hayan conseguido, en el año precedente, los mayores beneficios para la Humanidad. El interés será dividido en cinco partes iguales: una parte a la persona que haya hecho el descubrimiento o la invención más importante en el campo de la física; una parte a la persona que haya hecho el descubrimiento químico o el progreso más importante; una parte a la persona que haya hecho el descubrimiento más importante en el campo de la fisiología o medicina; una parte a la persona que haya producido en el campo de la literatura el trabajo más destacado en una dirección ideal; y una parte a la persona que haya hecho el mejor trabajo para la fraternidad entre las naciones, para la abolición o reducción de las armas y para la participación y promoción de congresos de paz."

La biografía de Alfred Nobel se destaca por sus descubrimientos, que son fruto de un gran esfuerzo personal y de trabajo, unido al afán de superación ante las adversidades. Nació en Estocolmo, en 1833, y trabajó desde joven en la fábrica de explosivos de su padre, que quebró en 1859. En esa época se descubrió la nitroglicerina y, con apoyo económico de Napoleón III, fundó una fábrica para producirla. La nitroglicerina, que se produce al reaccionar la glicerina con el ácido nítrico, es un explosivo tan potente que al descomponerse, en sólo una fracción de segundo, aumenta la temperatura ambiente en más de 3000ºC y la presión en más de 2000 bar. En 1864 la fábrica explotó y murieron cinco personas, entre ellos su hermano. Poco después halló la fórmula de la dinamita, al descubrir que la nitroglicerina se solidificaba en determinadas mezclas por lo que era más fácil de manipular. Patentó su invento en el Reino Unido en 1867 y relanzó el negocio por todo el mundo. La dinamita se usaba para grandes obras civiles (carreteras, ferrocarriles y canales, como el de Panamá) y, con fines militares. Luego, viviendo en París, inventó la balistita, una mezcla de nitroglicerina, algodón y pólvora, especial para usos militares, que vendió al gobierno italiano y el Francia se le acusó de traición, por lo que Nobel se estableció en San Remo donde murió en 1896.

Los premios Nobel en Física

  1. ¿Qué es la física?
  2. Desde la física clásica a la cuántica
  3. Microcosmos y Macrocosmos
  4. Desde Sistemas simples a complejos
  5. Núcleo atómico
  6. Átomos
  7. Moléculas y Plasmas
  8. Materia Condensada
  9. Física y Tecnología

¿Qué es la física?

Japon_001 La física se considera como la ciencia de la naturaleza más básica. Estudia los constituyentes fundamentales de la materia y sus interacciones así como la naturaleza de los átomos y la formación de moléculas y materia condensada. Trata de dar descripciones unificadas del comportamiento de la materia así como de la radiación, explicando todos los fenómenos posibles. En algunas de sus aplicaciones está muy próxima a las áreas clásicas de la química, y en otras hay una conexión con los fenómenos estudiados por los astrónomos. Las tendencias actuales apuntan a una aproximación de algunas áreas de la física y la microbiología. Aunque la química y la astronomía son disciplinas científicas claramente independientes, las dos utilizan los conceptos y herramientas de la física como una base en el tratamiento de sus respectivos problemas. Diferenciar qué es física y química en ciertas áreas es frecuentemente difícil. Esto ha sido ilustrado algunas veces en la historia de los premios Nobel. Así, algunos galardonados en química también son mencionados en los de física cuando sus trabajos están muy conectados a los trabajos de los premiados en física.

Desde la física clásica a la cuántica

Japon_002 Japon_003 En 1901, cuando se concedió en primer premio Nobel, el área clásica de la física se veía acabada y con una base firme realizada por físicos y químicos durante el siglo XIX. Hamilton formuló en 1830 una descripción muy general de la dinámica de los cuerpos rígidos. Durante la segunda mitad del siglo XIX Carnot, Joule, Kelvin y Gibbs desarrollaron la termodinámica hasta alcanzar un alto grado de perfección. Las ecuaciones de Maxwell eran aceptadas como una descripción general de los fenómenos electromagnéticos y también se aplicó a la radiación óptica y a las ondas de radio descubiertas por Hertz.

Sin embargo, muy pronto este estado de satisfacción se rompió cuando se empezó a sospechar que el estado de la física estaba construido sobre premisas falsas. En el período de cambio de siglo se hicieron observaciones de fenómenos que eran completamente desconocidos hasta entonces, y las ideas nuevas y radicales trajeron nuevas formulaciones sobre las bases teóricas de la física.

Uno de los fenómenos inesperados se produjo en 1895 con el descubrimiento de los rayos-X por W.C. Röntgen, que fue el primer galardonado en 1901. Otro fue el descubrimiento de la radiactividad por A.H Becquerel en 1896, y el estudio de esta radiación por Pierre y Marie Curie, les supuso el premio Nobel a los tres en 1903. Estos trabajos se combinan con el trabajo de E. Rutherford, galardonado con el premio en 1908, por el que comprendimos que los átomos contienen un núcleo compacto y muy pequeño. Algunos núcleos se comprobó que eran inestables y podían emitir radiaciones. Esto fue revolucionario en aquel tiempo, ya que condujo, a través de trabajos paralelos en áreas distintas, a la creación de la primera representación de la estructura de los átomos.

En 1897, J.J. Thomson trabajando con los rayos que salían del cátodo, en un tubo vacío, identificó los transportadores de carga eléctrica. Demostró que estos rayos consisten en partículas llamadas electrones, por lo que recibió el premio Nobel en 1906. Al poco tiempo, en 1912, R. Millikan hizo la primera medida de la carga del electrón y recibió el premio en 1923, también fue galardonado por sus trabajos en el efecto fotoeléctrico.

Cuando comenzó el siglo XX, las ecuaciones de Maxwell existían, pero quedaban cuestiones importantes sin contestación: ¿qué tipo de medio propaga la radiación electromagnética (incluida la luz) y cuáles son los transportadores de las cargas eléctricas emitidas por emisión de luz?. Albert Michelson desarrolló un método interferométrico, por el que las distancias entre los objetos pueden medirse como un número de longitudes de onda de luz, o fracciones de las mismas. Esto supuso poder comparar longitudes de la forma más exacta posible hasta entonces. Muchos años después, se definió la unidad metro en términos del número de longitudes de onda de una radiación particular. Usando un interferómetro, Michelson junto a E. Morley, realizó su famoso experimento por el que se obtiene que la velocidad de la luz es independiente del movimiento relativo de la fuente de luz y el observador. Este hecho refutó las suposiciones de la existencia del éter como un medio para la propagación de la luz. Michelson recibió el premio Nobel en 1907.

Los mecanismos de emisión de luz por los transportadores de carga eléctrica fue estudiado por H. Lorentz, quien fue uno de los primeros en aplicar las ecuaciones de Maxwell a las cargas eléctricas en la materia. Su teoría también se aplica a la radiación debida a las vibraciones en los átomos. Al comienzo de 1896 P. Zeeman investigó los posibles efectos de los campos eléctricos y magnéticos sobre la luz, hizo un importante descubrimiento conocido por su nombre, que las líneas espectrales del sodio en una llama se dividen en algunos componentes cuando se le aplica un campo magnético fuerte. Este fenómeno se interpreta detalladamente por la teoría de Lorentz, como una aplicación de las vibraciones de los electrones recientemente descubiertos, por lo que Lorentz y Zeeman recibieron el premio Nobel en 1902. Después, J. Stark demostró el efecto directo de los campos eléctricos sobre la emisión de luz, exponiendo rayos de átomos a fuertes campos eléctricos observó una complicada separación de líneas espectrales como en el efecto Doppler dependiendo de las velocidades de los emisores. Stark recibió el premio en 1919.

Con estos antecedentes, fue posible construir modelos detallados para los átomos. Los átomos en la antigüedad eran objetos conceptuales pero en la física clásica eran considerados sin estructura. En la segunda mitad del siglo XIX se acumuló un rico material empírico de las líneas espectrales emitidas por los átomos en el espectro visible, a esto los rayos-X característicos descubiertos por C. Barkla, premiado en 1917, lo que unido a la clarificación posterior de la naturaleza ondulatoria de esta radiación y su difracción por Max von Laue, premiado en 1914, también supuso una importante fuente de información sobre la estructura interna de los átomos.

Los rayos-X característicos de Barkla son rayos secundarios, específicos para cada elemento expuesto a la radiación desde tubos de rayos-X, pero independiente de la forma química de las muestras. Karl Manne Siegbahn realizó las medidas de los espectros característicos de rayos-X de todos los elementos y demostró la sistemática, cómo consecutivamente las capas electrónicas son añadidas cuando vamos desde los elementos ligeros a los pesados. Para realizar estos experimentos diseñó espectrómetros de una alta precisión, por los que las diferencias de energía entre capas diferentes, y pudo establecer también reglas para la radiación de las transiciones entre las capas. Recibió el premio Nobel en 1924. Además, ello supuso un cambio radical en el conocimiento de la estructura atómica.

La física clásica considera que el movimiento es continuo y debido tanto a la ganancia como a la pérdida de energía. Entonces ¿por qué los átomos nos envían radiaciones con unas determinadas longitudes de onda?. Aquí, una línea paralela de desarrollo de finales del siglo XIX, dio importantes pistas para su interpretación. Wilhelm Wien estudió la radiación del cuerpo-negro desde cuerpos sólidos calientes (los cuales en contraste con la radiación desde átomos en gases, tienen una distribución continua de frecuencias). Usando la electrodinámica clásica, obtuvo una expresión para la distribución de las frecuencias de esta radiación y el cambio de la longitud de onda de intensidad máxima, cuando la temperatura del cuerpo negro cambia (la ley de desplazamiento de Wien se usa para determinar la temperatura del Sol). Fue galardonado con el premio Nobel en 1911.

Sin embargo, Wien no pudo obtener una fórmula que explicase los experimentos para las longitudes de onda cortas y largas. El problema no se explicó hasta que Max Planck introdujese su idea nueva y radical de que la energía radiada se puede emitir sólo en quanta, es decir, en porciones que tienen un valor definido, mayor para las longitudes de onda corta que para las largas (igual a una constante h veces la frecuencia de la radiación). Esto se considera como el nacimiento de la física cuántica. Wien recibió el premio Nobel en Física en 1911 y Planck en 1918 (galardonado en 1919). Verificaciones muy importantes que vinieron a dar luz sobre la forma en que se observan los quanta de energía se deben a Albert Einstein al interpretar el efecto fotoeléctrico (observado por primera vez por Hertz en 1887) con lo que se extendió la teoría de Planck. Einstein recibió el premio Nobel en 1921 y el galardón en 1922. La motivación del premio citó sus otros servicios a la Física teórica.

Experimentos posteriores realizados por James Franck y Gustav Hertz demostraron el inverso del efecto fotoeléctrico (es decir, un electrón que choca sobre un átomo, debe tener una energía mínima específica para producir un cuanto de luz de una energía determinada desde él) y demostraron que la validez general de las expresiones de Planck implican la constante h. Franck y Hertz compartieron el premio en 1925. Por el mismo tiempo, Arthur Compton (que recibió la mitad del premio en 1927) estudió la pérdida de energía de un fotón de rayos-X cuando es desparramado sobre partículas materiales, y demostró que los quanta de rayos-X, cuyas energías son diez mil veces mayores que las de la luz, también obedecen las reglas cuánticas. La otra mitad del premio se le concedió a Charles Wilson, cuyo aparato para observar dispersiones a altas energías se puede usar para verificar las predicciones de Compton.

Con el concepto de cuantización de la energía plenamente aceptado, sirvió de base para posteriores aventuras en el mundo desconocido de la microfísica. Niels Bohr, como otros físicos anteriores, trabajó con un modelo planetario en el que los electrones circulaban alrededor del núcleo de un átomo. Bohr consideró que la intensidad de las líneas espectrales emitidas por los átomos se pueden explicar sólo si los electrones están circulando en órbitas estacionarias caracterizadas por un momento angular cuantizado (unidades enteras de la constante de Planck dividida por 2p) y que las frecuencias emitidas ? corresponden a la emisión de radiación con energía h? igual a la diferencia entre estados de energía cuantizados de los electrones. Esta interpretación considera más la física clásica que la hipótesis de Planck. Aunque explica algunos de los hechos obtenidos de los espectros ópticos en una forma original, fue aceptado que la aproximación de Bohr debe ser corregida desde el principio, y recibió el premio Nobel en 1922. Ello originó que una discusión profunda de las propiedades de la radiación y de la materia (hasta entonces consideradas como formando dos categorías diferentes) fue necesaria para progresos posteriores en la descripción teórica del micromundo. En 1923 Luis de Broglie propuso que las partículas materiales también pueden tener propiedades ondulatorias, ahora que se ha demostrado que la radiación electromagnética manifiesta aspectos de partícula en forma de fotones. Él desarrolló matemáticamente expresiones para este comportamiento dual, incluyendo lo que posteriormente se ha llamado la “longitud de onda de De Broglie” de una partícula en movimiento. Experimentos realizados con anterioridad, por Davisson, indicaron que los electrones pueden experimentar efectos de reflexión similarmente a las ondas cuando alcanzan un cristal y estos experimentos se repitieron ahora verificando la longitud de onda asociada predicha por De Broglie. Algo después, George Thomson (hijo de J.J. Thomson) hizo mejores experimentos sobre electrones a alta energía penetrando finas capas metálicas, con los que demostró muy claramente los efectos de difracción. De Broglie fue galardonado por sus teorías con el premio Nobel en 1929 y Davisson y Thomson lo compartieron en 1937. Lo que ha quedado fue la formulación de una teoría nueva y consistente que sustituyó la mecánica clásica, válida para fenómenos atómicos y sus radiaciones asociadas.

Los años 1924-1926 fueron un período de intenso desarrollo en esta área. Erwin Schrödinger, posteriormente, se basó en las ideas de De Broglie y escribió un artículo, a principios de 1926, fundamental sobre “La cuantización como un problema de eigenvalores (valores propios)”. Schrödinger creó lo que se ha llamado “mecánica cuántica”. Pero el año anterior, Werner Heisenberg, partió desde una aproximación matemáticamente diferente, llamada “mecánica de matrices”, por la que llegó a resultados equivalentes (como demostró posteriormente Schrödinger). La nueva mecánica de Schrödinger y Heisenberg significó un nuevo y fundamental punto de partida para los objetos atómicos, desde la representación intuitiva de las órbitas clásicas, y también implicó que hay limitaciones naturales sobre la precisión con las que ciertas cantidades se pueden medir simultáneamente (relaciones de incertidumbre de Heisenberg). Heisenberg fue galardonado con el premio Nobel en 1932 por el desarrollo de la mecánica cuántica, mientras Schrödinger lo compartió un año después (1933) con Paul M. Dirac. La mecánica cuántica de Schrödinger y Heisenberg era válida para velocidades relativamente bajas y las energías asociadas con el movimiento “orbital” de los electrones de valencia en los átomos, pero sus ecuaciones no llenan los contenidos de las reglas de Einstein para partículas que se mueven rápidamente. Dirac construyó un formalismo modificado que tomó en cuenta los efectos de la relatividad especial de Einstein, y demostró que esta teoría no sólo contiene términos correspondientes al espín intrínseco de los electrones (y por tanto explica su momento magnético intrínseco y la estructura fina observada en los espectros), sino que también predice la existencia de un nuevo tipo de partículas, con masa igual pero carga distinta y llamadas antipartículas. La primera antipartícula que se descubrió, fue la del electrón, observada en 1932 por Carl Anderson, y se le dio el nombre de “positrón” (galardonado con el premio en 1936).

Otros que han contribuido al desarrollo de la teoría cuántica y han sido galardonados con el premio Nobel en años posteriores. Max Born, supervisor de Heisenberg al comienzo de los años veinte, hizo unas contribuciones importantes a su formulación matemática e interpretación física. Recibió el premio Nobel en 1954 por su trabajo en la interpretación estadística de la función de onda. Wolfgang Pauli formuló su principio de exclusión (que establece que en un estado cuántico puede haber un solo electrón) aunque sobre la base de la teoría cuántica antigua de Bohr. Este principio posteriormente se encontró que estaba asociado con la simetría de las funciones de onda para las partículas de espín semientero, que se llaman ahora fermiones para distinguirlas de las partículas bosones cuyos espines son múltiplos enteros de . El principio de exclusión tiene consecuencias profundas en muchas áreas de la Física y Pauli recibió el premio Nobel en 1945.

El estudio de los espines del electrón continuó abriendo nuevos horizontes en la Física. Los métodos de precisión para determinar los momentos magnéticos de espín de las partículas se desarrollaron, durante las décadas de los treinta y cuarenta, para los átomos y los núcleos (por Stern, Rabi, Bloch y Purcell) y en 1947 se alcanzó tal precisión, que Polykarp Kusch estableción que el momento magnético de un electrón no tiene exactamente el valor predicho por Dirac, ya que difiere en una pequeña cantidad. Por aquel tiempo, Willis Lamb trabajó sobre un problema similar del espín del electrón interaccionando con campos magnéticos, por el estudio de la estructura fina de la radiación óptica del hidrógeno con métodos de resonancia de una frecuencia de radio de alta resolución. Encontró que la separación en la estructura fina no tiene exactamente el valor predicho por Dirac, sino que difiere en una significativa cantidad. Estos resultados estimularon una reconsideración de los conceptos básicos detrás de la aplicación de la teoría cuántica al electromagnetismo, un campo del que partió Dirac, Heisenberg y Pauli pero sufrió algunas insuficiencias. Kush y Lamb fueron galardonados con el premio Nobel en 1955.

En electrodinámica cuántica (QED), las partículas cargadas interaccionan mediante el intercambio de fotones virtuales, como describe la teoría de perturbación cuántica. Las versiones antiguas consideran sólo el intercambio de un sólo fotón, pero Sin-Itiro Tomonaga, Julián Schwinger y Richard Feynman demostraron que la situación es actualmente más complicada, ya que la dispersión electrón-electrón puede suponer el intercambio de algunos fotones. Una carga puntual “desnuda” no existe en su representación, ella siempre produce una nube de pares partícula-antipartícula virtuales a su alrededor, de tal forma que su momento magnético efectivo cambia y el potencial de Coulomb se modifica a cortas distancias. Cálculos que parten de esa representación han reproducido los datos experimentales de Kush y Lamb hasta un grado tal de precisión que la moderna QED se considera la teoría más exacta. Tomonaga, Schwinger y Feynman compartieron el premio Nobel en 1965.

Este progreso en QED se aplicó también a la descripción de los fenómenos de altas energías. La noción de producción de par desde un estado “vacío” de un campo cuantizado (como un proceso virtual y como una materialización real de partículas), es una concepto central en la moderna teoría de campos de interacciones fuertes, la cromodinámica cuántica (QCD).

Otro aspecto básico de la mecánica cuántica y la teoría del campo cuántico es las simetrías de las funciones de onda y los campos. Las propiedades de simetría bajo intercambio de partículas idénticas está detrás del Principio de Exclusión de Pauli., aunque las simetrías con respecto a las transformaciones espaciales han jugado un papel igualmente importante. En 1956, Tsung-Dao Lee y Chen Ning Yang apuntaron que las interacciones físicas no pueden ser siempre simétricas respecto a la reflexión en un espejo (que pueden ser distintas si consideramos un sistema de coordenadas dextrógiro o levógiro). Esto significa que la propiedad de la función de onda llamada “paridad”, denotada por “p”, no se conserva cuando el sistema se expone a una interacción y la propiedad reflexión en el espejo puede cambiar. Lee y Yang trabajaron para buscar estos efectos y pronto demostraron que la desintegración beta y la desintegración , que son causadas por la llamada “interacción débil” no conservan la paridad. Lee y Yang fueron galardonados con el premio Nobel en 1957.

Otras simetría en mecánica cuántica están relacionadas con la sustitución de una partícula con su antipartícula, llamada conjugación de carga (simbolizada “C”). En las situaciones discutidas por Lee y Yang se encontró que aunque la paridad no se conservó en las transformaciones radiactivas hay una simetría en el sentido que partículas y antipartículas quiebran la paridad exactamente en caminos opuestos y, por tanto, la operación combinada “C” ? “P” da resultados que preservan la simetría. Aunque James Cronin y Val Fitch encontraron un modo de desintegración entre “mesones K” que viola este principio, aunque en sólo en poco. Cronin y Fitch hicieron su descubrimiento en 1964 y fueron galardonados con el premio Nobel en 1980. Las consecuencias de su resultado (que incluyen cuestiones sobre la simetría de procesos naturales bajo inversión del tiempo, llamado “T”) son discutidas hoy y consideradas por los físicos teóricos, porque la simetría “P” ? “C” ? “T” se ha de cumplir siempre.

El campo electromagnético es conocido por tener otra propiedad, llamada “simetría gauge”, que significa que las ecuaciones del campo son invariables aunque los potenciales electromagnéticos se multipliquen por ciertos factores de fase mecánico cuánticos, o “gauges”. Ello no fue autoevidenciado hasta que la interacción débil tendría esta propiedad, pero fue un principio guiado en el trabajo de Sheldon Glashow, Vaduz Salam y Steven Weinberg al final de la década 1960, cuando formularon una teoría que describió la interacción electromagnética y débil sobre la misma base. Ellos fueron galardonados conjuntamente con el premio Nobel en 1979 por esta descripción unificada y, en particular, por su predicción de un tipo particular de interacción débil mediada por “corrientes neutras”, las cuales se han encontrado recientemente en experimentos.

El premio Nobel en 1999 se le dio a Gerhardus Hooft y Martinus Veltman. Ellos demostraron el camino para renormalizar la teoría de la interacción débil, para lo que fue necesario quitar términos que tienden a infinito en cálculos mecánico cuánticos (como QED hizo para solucionar un problema similar para la interacción de Coulomb). Su trabajo permitió cálculos detallados de las contribuciones de la interacción débil a las interacciones de partículas en general, comprobando la utilidad de teorías basadas sobre la invarianza gauge para todos los tipos de interacciones físicas básicas.

La mecánica cuántica y sus extensiones a las teorías del campo cuántico es uno de los mayores logros del siglo XX. Este esbozo de la ruta desde la física clásica a la moderna física cuántica, nos ha llevado a un largo camino hacia una descripción unificada y fundamental de las diferentes partículas y fuerzas en la naturaleza, pero queda mucho por hacer y la meta está aun lejos. Lo que todavía queda, por ejemplo, unificar la fuerza electro-débil con la fuerza nuclear fuerte y con la gravedad. Pero aquí hay que apuntar que la descripción cuántica del micromundo tiene otras aplicaciones importantes: el cálculo de propiedades químicas de sistemas moleculares (algunas veces extendidas a biomoléculas) y de estructuras de la materia condensada, ramas que han sido distinguidas con algunos premios, tanto en física como en química.

Microcosmos y Macrocosmos

“Desde la física clásica a la cuántica”, tomamos como un viaje desde los fenómenos del mundo macroscópico como encontramos en nuestra experiencia diaria, a el mundo cuántico de átomos, electrones y núcleos. Con los átomos como punto de partida, la posterior penetración en el micromundo subatómico y sus más pequeños constituyentes lo ilustraremos con los trabajos de otros Laureados con los Nobel.

En la primera mitad del siglo XX se realizó un trayecto en el micro-mundo de nuevas partículas e interacciones era una fuente de información en el conocimiento de la composición y en la historia de la evolución de las grandes estructuras del universo, el macrocosmos. En la presente etapa de física de partículas elementales, astrofísica y cosmología están fuertemente atados, como lo demuestran los siguientes ejemplos.

Otro punto de conexión entre los objetos más pequeños y los más grandes de nuestro Universo es las teorías de la relatividad de Albert Einstein. Einstein desarrolló primero su teoría especial de la relatividad en 1905, en la que expresa la relación energía-masa E=mc2. En la siguiente década, continuó con su teoría de la relatividad general, en la que conecta las fuerzas gravitatorias con la estructura del espacio y tiempo. Los cálculos de las masas efectivas para partículas a alta energía, de las transformaciones de energía en la desintegración radiactiva así como en las predicciones de Dirac de las antipartículas, se pueden realizar sobre la base de la teoría especial de la relatividad. La teoría general es la base para cálculos de movimientos de gran escala en el Universo, incluyendo las propiedades de los agujeros negros, etc. Einstein recibió el premio Nobel en 1921, debido al trabajo sobre efecto fotoeléctrico en el que demostró el aspecto de partícula de la luz.

Los trabajos de Becquerel, los Curie y Rutherford dieron lugar a nuevas cuestiones: ¿ cuál era la fuente de energía en la radiactividad nuclear que pueda sostener la emisión de la radiación durante grandes intervalos de tiempo, como observaron algunos de ellos, y cuál era la composición de las partículas pesadas ?. El primero de estos problemas (que era visto como una violación de la ley de conservación de la energía, uno de los principales principios de la Física) encontró su solución en la teoría de la transmutación, formulada por Rutherford y Frederick Soddy (premio Nobel de Química en 1921). Ellos siguieron con detalle algunas series diferentes de desintegración radiactiva y compararon la energía emitida con las diferencias de masa entre los núcleos “padres” e “hijos”. También encontraron que el núcleo asociado al mismo elemento químico puede tener diferente masa; estas especies diferentes se llaman “isótopos”. El premio Nobel de Química en 1922 se concedió a Francis Aston por la separación espectroscópica de gran número de isótopos de elementos no radiactivos. Marie Curie recibió por entonces su segundo premio Nobel, esta vez en Química, por el descubrimiento de los elementos químicos radio y polonio. Todas las masas de los isótopos se encontraron que eran múltiplos de la masa del protón, una partícula que fue vista por primera vez por Rutherford cuando irradió núcleos de nitrógeno con partículas alfa. Sin embargo los distintos isótopos no pueden estar hechos sólo de protones ya que cada elemento químico debe tener un solo valor de la carga nuclear. Los protones se ha encontrado que tienen menos de la mitad de la masa nuclear, lo que significa que alguna partícula neutra debe estar presente en el núcleo. James Chadwick fue el primero en encontrar evidencias de tales partículas, los neutrones, cuando estudió las reacciones nucleares en 1932. Recibió el premio Nobel en física en 1935. Poco después del descubrimiento de Chadwick, los neutrones los utilizaron para trabajar Enrico Fermi y otros como medio de inducir reacciones nucleares que puedan producir nueva radiactividad “artificial”. Fermi encontró que la probabilidad de las reacciones inducidas por neutrones (que no implica transformación de elementos), se incrementa cuando los neutrones eran lentos y que estos trabajaban igualmente bien para los elementos pesados y para los ligeros, en contraste con las reacciones inducidas por partículas cargadas. Recibió el premio Nobel en 1938.

Con los protones y los neutrones se construyeron los núcleos atómicos, se estableció la rama de “física nuclear” y algunos de sus mejores investigadores fueron distinguidos con el premio Nobel. Ernest Lawrence recibió el premio Nobel en 1939, construyó el primer ciclotrón en el que la aceleración tiene lugar por añadir pequeñas cantidades de energía a las partículas que circulan en un campo magnético. Con estas máquinas fue capaz de acelerar partículas nucleares cargadas hasta energías tan altas que pueden inducir reacciones nucleares y obtener nuevos resultados importantes. Sir John Cockcroft y Ernest Walton aceleraron partículas por aplicación directa de voltajes eléctricos muy altos y fueron galardonados por sus estudios de transmutación de elementos en 1951. Otto Stern recibió el premio Nobel en Física en 1943 por sus métodos experimentales de estudiar las propiedades magnéticas del núcleo, en particular la medida del momento magnético del propio protón. Isidor Rabi incrementó la precisión de la determinación del momento magnético del núcleo en más de dos órdenes de magnitud, con su técnica de resonancia de radio frecuencia por la que fue galardonado con el premio Nobel en 1944. Las propiedades magnéticas del núcleo nos proporcionan información importante para conocer con detalle la constitución del núcleo desde los protones y los neutrones.

Posteriormente, en la segunda mitad del siglo XX, algunos teóricos fueron galardonados por su trabajo sobre el modelo teórico de su sistema complejo de muchas partículas: Eugene Wigner (la mitad del premio), Maria Goeppert-Mayer (un cuarto) y Hans Jensen (un cuarto) en 1963 y Aage Bohr, Ben Mottelson y James Rainwater en 1975. Hicieron estos trabajos bajo el título “Desde sistemas simples a complejos”.

Al principio de 1912, fue encontrado por Victor Hess (galardonado en 1936 con Carl Anderson) que una radiación muy penetrante nos llega continuamente desde el espacio exterior. Esta “radiación cósmica” fue detectada, en primer lugar, en cámaras de ionización y posteriormente por Wilson en la cámara de niebla. Las propiedades de las partículas en la radiación cósmica se pueden deducir desde las trayectorias curvas que producen cuando se las somete a fuertes campos magnéticos. De esta forma fue como C. Anderson descubrió el positrón. Anderson y Patrick Blackett demostraron que el par electrón-positrón puede producir rayos (que necesita una energía fotónica igual al menos a 2mec2 y que los electrones y positrones pueden aniquilarse, produciendo rayos cuando ellos desaparecen. Blackett recibió el premio Nobel en 1948 por el desarrollo posterior de la cámara de niebla y los descubrimientos hechos con ella.

Aunque los aceleradores se desarrollaron posteriormente, la radiación cósmica continuó por dos décadas siendo la fuente principal de partículas energéticas (y aún es la mejor y el acelerador mas potente sobre la tierra, aunque con extremadamente baja intensidad), y proporcionó la primera señal de un mundo subnuclear completamente desconocido. Un nuevo tipo de partículas llamadas mesones fueron observadas en 1937, teniendo una masa aproximadamente 200 veces la de los electrones (pero diez veces más ligeras que la de los protones). En 1946, Cecil Powell clarificó la situación demostrando que hay más de un tipo de tales partículas. Una de ellas, el mesón , se desintegra en otro, el mesón . Powell fue galardonado con el premio Nobel en 1950.

Por aquel tiempo, los teóricos estaban especulando sobre las fuerzas que mantienen unidos en el núcleo a los protones y a los neutrones. Hideki Yukawa sugirió en 1935, que esta fuerza “fuerte” se debe o está motivada por una partícula que se intercambian, de igual forma que en la nueva teoría del campo cuántico la fuerza electromagnética se considera que se debe a un intercambio de fotones virtuales. Yukawa consideraba que tal partícula debe tener una masa de unos 200 electrones, para explicar el corto alcance de la fuerza fuerte en los experimentos. Powell encontró que el mesón tenía las propiedades adecuadas para actuar como una “partícula de Yukawa”. La partícula tenía, sin embargo, un carácter completamente diferente (y su nombre se cambió de “mesón-mu” a “muón”). Yukawa recibió el premio Nobel en física en 1949. Aunque progresos posteriores demostraron que el mecanismo de la fuerza fuerte es más complejo que el considerado por Yukawa, él fue el primero en considerar o exponer las ideas sobre los transportadores de la fuerza en este camino fructífero.

En la década de 1950 se descubrieron nuevas partículas, tanto en la radiación cósmica como en las colisiones con los aceleradores de partículas. A finales de la década, los aceleradores alcanzaron energías de varios GeV, lo que significa que por conversión de energía a masa se pueden crear pares de partículas con masas igual a la masa del protón. Este fue el método usado por el equipo de Owen Chamberlain y Emilio Segrè cuando ellos primero identificaron y estudiaron el antiprotón en 1955 (compartieron el premio Nobel de física en 1955). Los aceleradores de alta energía también han hecho posible estudios detallados de las estructuras de los protones y de los neutrones, y Robert Hofstadter fue capaz de distinguir detalles de la estructura electromagnética de los nucleones observando como ellos dispersan electrones a muy alta energía. Por lo que fue galardonado con el premio Nobel en 1961. Uno tras otro, aparecieron nuevos mesones con sus respectivas antipartículas, se detectaron en las placas fotográficas o en los detectores de partículas electrónicas. Se estableció la existencia del predicho “neutrino”, que era fundamento teórico por Pauli en los primeros años de la década de 1930. La primera evidencia experimental directa del neutrino la proporcionaron Cowan y Reines en 1957, pero no fue hasta 1995 cuando su descubrimiento fue galardonado con la mitad del premio Nobel (aunque Cowan había muerto en 1984). El neutrino participa en los procesos de interacción “débil” (como la desintegración y la desintegración de los mesones en muones) y, cuando la intensidad de los chorros de partículas se incrementan, hace que sea posible producir chorros secundarios de neutrinos desde los aceleradores. Leon Lederman, Melvin Schwartz y Jack Steinberger desarrollaron este método en la década de 1960 y demostraron que los neutrinos que acompañan la emisión en la desintegración no eran idénticos a los asociados con los electrones en la desintegración ; ellos son dos partículas diferentes.

Los físicos pueden ahora empezar a diferenciar algún orden en medio de las partículas: el electrón, el muón, el neutrino electrónico, el neutrino muónico y sus antipartículas se denominan como una clase llamada “leptones”. Ellas no interactúan en la interacción nuclear fuerte, que es característica de los protones, neutrones, mesones e hiperones (una serie de partículas más pesadas que los protones). La clase leptón se extendió en la década de 1970 cuando Martín Perl y su descubrimiento del chorro de leptones , una relativamente más pesada que el electrón y el muón. Perl compartió el premio Nobel de física con Reines en 1995.

Todos los leptones son considerados realmente fundamentales, es decir puntuales y sin estructura interna, sin embargo para los protones esto no es cierto. Murray Gell-Mann y otros clasificaron las partículas que interactúan fuertemente. Gell-Mann recibió el premio Nobel de física en 1969. Su sistemática se basó en que todas estaban construidas desde constituyentes más elementales, llamados “quarks”. La prueba real de que los nucleones estaban construidos desde objetos como quark vino de los trabajos de Jerome Friedman, Henry Kendall y Richard Taylor. Ellos serraron granos duros dentro de estos objetos cuando estudiaron como los electrones (de energía aún superior a la de Hofstadter) se dispersaban inelásticamente sobre ellos. Compartieron el premio Nobel en 1990.

Se conoció que todas las partículas que interactúan fuertemente están hechas de quarks. A mediados de la década de 1970 se descubrió una partícula de corta vida, se descubrió independientemente por los chorros de Burton Richter y Samuel Ting, fue encontrado que contenía un desconocido tipo de quark y se le dio el nombre de “charm”. Este quark estaba ausente en la sistemática de las partículas elementales y Burton y Ting recibieron el premio Nobel en 1976. El actual modelo estándar de física de partículas clasifica las partículas en tres familias, en cada una con dos quarks (y sus antipartículas) y dos leptones: en la primera los quarks “up” y “down”, el electrón y el neutrino-electrón; en la segunda los quark “strange” y “charm”, el muón y el neutrino-muón; y en la tercera los quarks “top” y “bottom”, el tauón y el neutrino-tauón. La fuerza se transmite o transporta para la combinada interacción electro-débil por el fotón, la partícula Z y los bosones W, y para la interacción fuerte entre quarks por los llamados gluones.

En 1983, la existencia de las partículas W y Z fue probada por Carlo Rubia en el chorro que usaba para una colisión protón-antiprotón, con suficiente energía para la producción de estas partículas muy pesadas. Rubia compartió el premio Nobel en 1984 con Simon van der Meer que hizo una contribución decisiva a la construcción de esta colisión por su invención del “enfriamiento estocástico” de partículas (estocástico o al azar). Existen especulaciones sobre si se pueden producir más partículas a energías superiores que las de los aceleradores actuales, pero no hay evidencias experimentales.

La cosmología es la ciencia que trata de la estructura y evolución del universo y de sus objetos a gran escala. Sus modelos se basan en las propiedades de las partículas fundamentales conocidas y sus interacciones así como de las propiedades espacio-tiempo y gravitación. El modelo “big-bang” describe un posible escenario para la primera evolución del universo. Una de sus predicciones fue verificada experimentalmente cuando en 1960 Arno Penzias y Robert Wilson descubrieron la radiación cósmica de microondas de fondo. Ellos compartieron el premio Nobel en 1978. Esta radiación es debida a la luminosidad producida por la violenta explosión que ocurrió en las primeras etapas del big bang. Su temperatura de equilibrio es de 3 kelvin en la edad actual del universo. Es uniforme cuando se observa en diferentes direcciones, las pequeñas desviaciones isotrópicas están siendo investigadas.

El espacio exterior se ha comparado a una zona grande donde interaccionan las partículas en condiciones extremas, no reproducibles en un laboratorio, y son creadas espontáneamente. Las partículas se pueden acelerar a energías mas altas que en cualquier acelerador sobre la Tierra, proliferan reacciones de fusión nuclear en el interior de las estrellas, y la gravitación puede comprimir las partículas hasta una densidad extremadamente alta. Hans Bethe describió primero los ciclos del hidrógeno y del carbono, en los que la energía se libera en las estrellas por fusión de protones en núcleos de helio. Por estas explicaciones recibió el premio Nobel en 1967.

Subramanyan Chandrasekhar describió teóricamente la evolución de las estrellas, en particular aquellas que terminan como “enanas blancas”. Bajo ciertas condiciones el producto final puede ser una estrella de neutrones, un objeto extremadamente compacto, donde todos los protones se han convertido en neutrones. En explosiones supernova, los elementos pesados creados durante la evolución de la estrella son diseminados al espacio externo. Los detalles de algunas de las reacciones nucleares más importantes en las estrellas y la formación de elementos pesados fueron dilucidadas por William Fowler de forma teórica y de forma experimental usando aceleradores. Fowler y Chandrasekhar recibieron el premio Nobel en 1983.

La luz visible y la radiación de fondo cósmica no son las únicas formas de ondas electromagnéticas que nos llegan del espacio externo. La radio astronomía de longitud de onda larga nos proporciona información sobre objetos astronómicos que no se pueden ver por espectroscopia visible. Sir Martín Ryle desarrolló el método en el que las señales desde algunos telescopios separados se combinan para incrementar la resolución en los mapas de radio fuentes del cielo. Anthony Hewish y su grupo hicieron un descubrimiento inesperado en 1964 usando los telescopios de Ryle: pulsos de radio frecuencia eran emitidos con velocidades de repetición muy bien definidos por algunos objetos desconocidos llamados pulsares. Estos se identificaron pronto como estrellas de neutrones, actuando con un movimiento de rotación rápido emitiendo radio-ondas porque son también fuertes imanes. Ryle y Hewish compartieron el premio Nobel en 1974.

En 1974, buscando el pulsar en una operación rutinario de radio astrónomos, una nueva sorpresa apareció en el verano cuando Russell Hulse y Joseph Taylor descubrieron modulaciones periódicas en las frecuencias del pulso de un pulsar recientemente descubierto, llamado PSR 1913+16. Fue el primer pulsar doble detectado, así llamado porque la estrella de neutrones que está emitiendo es una de los componentes de un sistema cerrado de dos estrellas, con el otro componente de aproximadamente igual tamaño. Este sistema nos ha proporcionado, por observación durante más de 20 años, la primera evidencia concreta para la radiación gravitatoria. El decrecimiento de su frecuencia de rotación están en buena medida con las predicciones basadas en la teoría de Einstein, para disminuciones causadas por este tipo de radiación. Hulse y Taylor compartieron el premio Nobel en 1993. Por otra parte, la detección directa de radiación gravitatoria sobre la Tierra aún no se ha hecho.

Desde Sistemas simples a complejos

¿Si todas las propiedades de las partículas elementales así como las fuerzas que pueden actuar entre ellas son conocidas en detalle, será posible predecir el comportamiento de todos los sistemas compuestos de tales partículas? La investigación para el último edificio de la naturaleza y de la propia descripción teórica de sus interacciones (sobre lo macro así como de la micro escala), ha llevado particularmente a un programa reduccionista. Todos los científicos quisieran una síntesis. Pero los cálculos del comportamiento en sistemas complejos son aún imposibles cuando el número de partículas y las interacciones en el sistema se incrementa. Sistemas complejos de multi-partículas se describen, por tanto, en términos de modelos simplificados, en los que sólo se utilizan las características más esenciales de la composición de sus partículas y sus interacciones se usan como punto de partida. Bastante frecuentemente, se ha observado que los sistemas complejos desarrollan características llamadas “propiedades emergentes”, no predecible desde las interacciones básicas entre sus constituyentes.

Núcleo atómico

El primer sistema complejo desde el punto de vista reduccionista son los nucleones, los neutrones y los protones se componen de quarks y gluones. El segundo es el núcleo atómico, que como primera aproximación está compuesto de nucleones separados. El primer modelo avanzado de estructura nuclear fue el modelo nuclear de capas, realizado a finales de la década de 1940 por Maria Goeppert-Mayer y Johannes Jensen quienes consideraron que el núcleo era aproximadamente una capa esférica, los nucleones externos llenaban los niveles de energía como los electrones en los átomos, pero con otro ordenamiento determinado por un potencial común diferente, y por el específico acoplamiento fuerte espín-órbita de las fuerzas nucleares. Su modelo explica por qué los núcleos que contienen los llamados “números mágicos” de protones o neutrones son particularmente estables. Ellos compartieron el premio Nobel en 1963 junto con Eugene Wigner, que formuló los fundamentales principios de simetría, importantes en física nuclear y de partículas.

Los núcleos con un número de nucleones lejanos de los números mágicos no son esféricos. Niels Bohr también trabajó con modelo de gota líquida para estos núcleos deformados que tienen forma elipsoidal, y en 1939 encontró que la excitación de ciertos núcleos fuertemente deformados puede llevar a la fisión nuclear, es decir, la ruptura de estos núcleos en dos fragmentos pesados. Otto Hahn recibió el premio Nobel en Química en 1944 por el descubrimiento de este nuevo proceso. La forma no esférica del núcleo deformado lleva a un nuevo grado de libertad rotacional, y a nuevas vibraciones de los nucleones, y los modelos que describen estas excitaciones del núcleo fueron desarrollados por James Rainwater, Aage Bohr (hija de Niels Bohr) y Ben Mottelson, quienes recibieron el premio Nobel en 1975.

Los modelos nucleares mencionados anteriormente se basaron no sólo en los principios generales, sino también en el aumento constante de información de la espectroscopia nuclear. Harold Urey descubrió el deuterón, un isótopo pesado del hidrógeno, por lo que fue galardonado con el premio Nobel de Química en 1934. Fermi, Lawrence, Crockcroft y Walton, mencionados previamente, desarrollaron métodos para la producción de isótopos nucleares inestables. Por su extensión del mapa de isótopos nucleares a los elementos pesados, Edwin McMillan y Glenn Seaborg fueron galardonados con el premio Nobel de Química en 1951. En 1954 Walther Bothe recibió el premio Nobel de física junto a Max Born. Bothe desarrolló el método coincidente, que permite seleccionar a los espectroscopistas seleccionar secuencias relacionadas genéricamente de radiación nuclear desde la desintegración nuclear. Esto es importante, particularmente para estudiar los estados excitados de los núcleos y sus propiedades electromagnéticas.

Átomos

Las capas electrónicas de los átomos, cuando son considerados como sistemas multi-partículas, son más fáciles que los núcleos (que actualmente contienen no sólo protones y neutrones sino otras partículas “virtuales” de corta vida). Esto es debido a la debilidad y simplicidad de las fuerzas electromagnéticas cuando se comparan con la fuerza fuerte. Con la mecánica cuántica desarrollada por Schrödinger, Heisenberg y Pauli y la extensión relativista de Dirac, las principales propiedades de los electrones atómicos pueden ser razonablemente descritas. Sin embargo, un gran problema queda por resolver, a saber solucionar los problemas matemáticos relacionados con las interacciones mutuas entre los electrones después de que se ha considerado que la atracción dominante es debida al núcleo positivo. Un aspecto de esto ha sido realizado en el trabajo recientemente premiado con el Nobel de Química en 1998 a Ealter Kohn. Desarrolló el método de la “densidad funcional” que es aplicable a los átomos libres así como a electrones en moléculas y sólidos.

Cuando comenzó el siglo XX la tabla periódica aún no estaba completa. Al principio de la historia de los premios Nobel incluye los descubrimientos de algunos de estos elementos desconocidos. Lord Raleigh (John Willian Strutt) notó anomalías en las masas atómicas relativas cuando las muestras de oxígeno y nitrógeno se toman directamente del aire que nos rodea que de los compuestos químicos. Por lo que concluyó que la atmósfera debe contener un constituyente desconocido, que fue el elemento argón con masa atómica 20. Por ello fue galardonado con el premio Nobel en física en 1904, el mismo año en que Sir William Ramsay obtuvo el premio Nobel en Química por aislar el elemento helio.

En la segunda mitad del siglo XX, se ha producido un espectacular desarrollo de la espectroscopia atómica de precisión por la que se puede medir las transiciones entre estados atómicos o moleculares que caen el rango de microondas y óptico. Alfred Kastler (que recibió el premio Nobel de física en 1966) y sus colaboradores, demostraron en la década de 1950 que los electrones en los átomos se pueden colocar en subestados excitados seleccionados por el uso de luz polarizada. Después de la desintegración radiactiva, esto también puede llevar a una orientación de los espines de átomos en estado fundamental. La consecuencia induce de transiciones de radio-frecuencia abre posibilidades para medir propiedades de los estados cuantizados de los electrones en átomos en mucho mayor detalle que antes. Una línea paralela de desarrollo llevó a la invención del láser y del maser, que se basan en la “amplificación de la emisión de radiación estimulada” en fuertes campos de luz de microondas y ópticos, respectivamente (efectos que en principio fueron predichos desde las ecuaciones de Einstein formuladas en 1917 pero no se analizaron prácticamente hasta la década de 1950).

Charles Townes desarrolló el primer maser en 1958. El trabajo teórico sobre el principio del maser fue hecho por Nikolay Basov y Aleksanr Prokhorov. El primer maser usó una transición estimulada en la molécula de amoniaco. Emitió una intensa radiación micro-onda, aunque la naturaleza del emisor fue coherente (con todos los fotones en fase). Townes, Basov y Prokhorov compartieron el premio Nobel en 1964.

Por radiación en el rango óptico, se desarrollaron los laceres en algunos laboratorios. Nicolaas Bloembergen y Arthur Schawlow fueron distinguidos en 1981 por sus trabajos sobre precisión en espectroscopia láser de átomos y moléculas. La otra mitad del premio fue para Kai Siegbahn (hijo de Manne Siegbahn), quien desarrolló otro método de alta precisión para espectroscopia atómica y molecular basada en que los electrones emitidos desde las capas internas cuando son glopeados por rayos-X con energía muy bien definida. Esta espectroscopia se usa como herramienta analítica en diversas áreas de física y de química.

La interacción controlada entre electrones atómicos y campos electromagnéticos ha continuado proporcionando siempre mucha información detallada acerca de la estructura de los estados electrónicos en los átomos. Norman Ramsay desarrolló métodos precisos basados en la respuesta externa de señales de radio frecuencia por átomos libres en chorros atómicos y Wolfgang Pauli inventó trampas atómicas, construidas por combinación de campos eléctricos y magnéticos actuando sobre muestras. Hans Dehmelt y su grupo fue el primero en aislar simples partículas (positrones) así como simples átomos en tales trampas. Para la primera vez, los experimentadores pudieron comunicar con átomos individuales por señales de microondas y láseres. Esto permitió el estudio de nuevos aspectos del comportamiento mecánico-cuántico así como posteriores incrementos en la precisión en las propiedades atómicas y montar el tiempo estándar. Paul, Dehmelt y Ramsey recibieron en 1989 el premio Nobel.

La última etapa en este desarrollo ha implicado la lentitud en el movimiento de los átomos atrapados en una escala de temperaturas de microkelvin, en equilibrio térmico con el gas. Esto se ha hecho exponiéndolos a un láser enfriador a través de una serie de ingeniosos esquemas diseñados y llevados a la práctica por Steven Chu, Claude Cohen-Tannoudji y William Phillips, quienes investigaron grupos manipulados de átomos por colisión con fotones láser. Este trabajo fue reconocido con el premio Nobel en 1997, promete grandes aplicaciones en medidas tecnológicas así como mayor precisión en la determinación de las cantidades atómicas.

Moléculas y Plasmas

Las moléculas están compuestas de átomos. Ellas forman el siguiente nivel de complejidad cuando consideramos sistemas de muchas partículas. Aunque los fenómenos moleculares se han visto tradicionalmente como parte de la química (ejemplificado por el premio Nobel de química en 1936 a Petrus Debye), y raramente han sido foco para los premiados en física. Una excepción es el reconocimiento del trabajo de Johannes van der Waals, quien formuló una ecuación de estado para moléculas en un gas teniendo en cuenta la interacción mutua entre las moléculas así como la reducción del volumen libre debido a su tamaño finito. La ecuación de van der Waals ha sido un importante punto de partida para la descripción de la condensación de gases en líquidos. Recibió el premio Nobel de física en 1910. Jean Perrin estudió el movimiento de pequeñas partículas suspendidas en agua y recibió el premio Nobel en 1926. Sus estudios permiten una confirmación de la teoría estadística de Einstein del movimiento Browniano así como de las leyes que gobiernan el equilibrio de partículas suspendidas bajo la influencia de la gravedad.

En 1930, Sir Ventaka Raman recibió el premio Nobel en física por sus observaciones de que la luz es dispersada por moléculas que contienen componentes que cambian en frecuencia con respecto a la luz monocromática invariable. Estos cambios son causados por las moléculas que ganan o pierden cantidades determinadas de energía cuando ellas cambian su movimiento rotacional o vibracional. La espectroscopia Raman es una fuente importante de información sobre la estructura molecular y dinámica.

Un plasma es un estado gaseoso de la materia en el que los átomos o moléculas están fuertemente ionizados. Fuerzas electromagnéticas mutuas, entre iones y entre iones y electrones libres, juegan un papel dominante, que añade complejidad cuando lo comparamos con la situación de los gases neutros atómicos o moleculares. Hannes Alfvén demostró en la década de 1940 que un nuevo tipo de movimiento colectivo, llamado ondas magneto-hidrodinámicas puede tener lugar en tales sistemas. Estas ondas juegan un papel crucial en el comportamiento de plasmas, en el laboratorio así como en la atmósfera de la Tierra y en el cosmos. Alfvén recibió la mitad del premio en 1970.

Materia Condensada

Los cristales se caracterizan porque los átomos están dispuestos regularmente. Relativamente al poco del descubrimiento de los rayos-X, Max von Laue realizó el experimento de que los rayos-X se difractan cuando pasan a través de sólidos cristalinos, como la luz pasa a través de una rejilla óptica. Este efecto está relacionado con el hecho de que la longitud de onda de las fuentes de rayos-X casualmente coincide con las distancias típicas entre los átomos en estos materiales. Este hecho fue usado sistemáticamente por Sir William Henry Bragg y William Lawrence Bragg (padre e hijo) para medir las distancias interatómicas y analizar la disposición geométrica de los átomos en cristales sencillos. Por su trabajo pionero sobre cristalografía en rayos-X (que posteriormente se ha desarrollado hasta un grado alto de sofisticación), ellos recibieron el premio Nobel en física, Laue en 1914 y los Bragg en 1915.

La estructura cristalina es la más estable de las distintas formas en las que los átomos de organizan para formar un sólido en determinadas condiciones de presión y temperatura. En la década de 1930 Percy Bridgman inventó aparatos por los que a presiones muy altas pueden aplicarse a distintos materiales sólidos y estudiar los cambios en sus propiedades cristalinas, eléctricas, magnéticas y térmicas. Muchos cristales experimentan transiciones de fase bajo tales circunstancias extremas, con cambios abruptos en la disposición geométrica de sus átomos a ciertas presiones bien definidas. Bridgman recibió el premio Nobel en 1946 por sus descubrimientos en el campo de la física de altas presiones.

Los neutrones de baja energía se utilizaron en numerosos experimentos a través del desarrollo de los reactores de fisión en la década de 1940. Se encontró que estos neutrones, como los rayos-X, se usaron para determinar estructuras cristalinas, porque sus longitudes de onda asociadas también está en el rango de las típicas distancias interatómicas en los sólidos. Clifford Shull contribuyó fuertemente al desarrollo de la técnica de difracción de neutrones para la determinación de las estructuras cristalinas y demostró también que la distribución regular de los momentos magnéticos en los átomos en materiales magnéticos ordenados, puede dar figuras de difracción de neutrones, proporcionando una nueva herramienta poderosa para determinar estructuras magnéticas.

Shull fue galardonado con el premio Nobel en 1994, junto con Bertram Brockhouse, quien estaba especializado en otro aspecto de difracción de neutrones sobre la materia condensada: las pequeñas disminuciones de energía resultantes cuando los neutrones excitan modos vibracionales (fonones) en una red cristalina. Para este propósito Brockhouse desarrolló un espectrómetro neutrónico de tres ejes, por el que se pueden obtener las curvas de dispersión completas (energías del fonón como función de los vectores onda). Curvas similares se pueden registrar por vibraciones en cristales magnéticos (los modos magnon mañón).

John Van Vleck hizo contribuciones importantes a la teoría del magnetismo en la materia condensada en los años siguientes a la creación de la mecánica cuántica. Calculó los efectos del enlace químico sobre los átomos paramagnéticos y explicó los efectos de la temperatura y campos magnéticos aplicados sobre el magnetismo. En particular, desarrolló la teoría de efectos del campo del cristal sobre el magnetismo de los compuestos de metales de transición, que ha sido de gran importancia para conocer la función de centros activo en compuestos para laser físicos así como en biomoléculas. Compartió el premio Nobel en 1977 con Philip Anderson y Sir Nevill Mott (vease posteriormente).

Los átomos magnéticos pueden tener sus momentos ordenados todos, en cada dominio, en la misma dirección (ferromagnetismo), con los momentos alternos hacia arriba y hacia abajo del mismo tamaño (antiferromagnetismo sencillo) o con formas más complicadas incluyendo subcristales magnéticos diferentes (ferrimagnetismo etc.). Louies Néel introdujo modelos básicos para describir los materiales ferrimagnéticos y antoferromagnéticos, que son muy importantes como componentes en muchos aparatos en estado sólido. Han sido muy estudiados por las técnicas de difracción de neutrones. Néel obtuvo el premio Nobel en 1970.

La ordenación geométrica de los átomos en los cristales sólidos así como los diferentes tipos de orden magnético, son ejemplos de fenómenos de ordenamiento en general en la naturaleza cuando los sistemas encuentran una distribución energética favorable para elegir un cierto estado de simetría. El fenómeno crítico, que ocurre cuando transiciones entre estados de diferente simetría están próximos (por ejemplo cuando se cambia la temperatura), tienen un gran grado de universalidad para diferentes tipos de transiciones, incluidas las magnéticas. Kenneth Wilson, que recibió el premio Nobel en 1982, desarrolló la llamada teoría de renormalización para fenómenos críticos en conexión con transiciones de fase, una teoría que ha encontrado aplicación en ciertos campos de teorías de física de partículas.

Los cristales líquidos forman una clase específica de materiales que exhiben muchos hechos interesantes, desde el punto de vista de interacciones fundamentales en la materia condensada así como para aplicaciones técnicas. Pierre-Gilles de Gennes desarrolló la teoría para el comportamiento de líquidos y sus transiciones entre fases diferentemente ordenadas (nemáticas, semecticas). Usó también la mecánica estadística para describir la distribución y dinámica de cadenas poliméricas, de ese modo demostró que los métodos desarrollados para la ordenación de fenómenos en sistemas sencillos se puede generalizar a sistemas complejos que tienen lugar en “materia condensada blanda”. Por esto recibió el premio Nobel en 1991.

Otra forma específica de líquido que ha recibido atención es el helio líquido. A presión normal esta sustancia permanece líquida por debajo de la temperatura más baja alcanzable. Se demostró también el efecto de grandes isótopos, mientras el helio-4 se condensa a 4,2 K el isótopo más raro helio-3 permanece en forma gaseosa por debajo de 3,2 K. El helio fue licuado en primer lugar por Helike Kamerlingh-Onnes en 1909. Recibió el premio Nobel en 1913 por la producción de helio líquido y por sus investigaciones de las propiedades de la materia a bajas temperaturas. Lev Landau formuló conceptos fundamentales (“Líquido Landau”) acerca de los efectos multi-partículas en la materia condensada y aplicados a la teoría del helio líquido, explicando específicamente los fenómenos que ocurren en el helio-4 como la superfluidez, las excitaciones “rotón” y ciertos fenómenos acústicos. Fue galardonado con el premio Nobel en 1962.

Algunas de las técnicas experimentales usadas para la producción y estudio de los fenómenos a temperaturas bajas fueron desarrolladas por Pyotr Kapitsa en las décadas de 1920 y 1930. Estudió muchos aspectos del líquido helio-4 y demostró que era superfluido (fluye sin fricción) por debajo de 2,2 K. El estado de superfluidez fue conocido posteriormente que era una manifestación de coherencia cuántica macroscópica en un tipo Bose-Einstein de condensada (predicha teóricamente en 1920) con muchas similitudes en común con el estado de superconductividad para electrones en ciertos conductores. Kapitsa recibió la mitad del premio Nobel en física en 1978.

En el helio-3 líquido, adicionalmente, demuestra un fenómeno único porque cada núcleo de helio tiene un espín no cero, en contraste a aquellos de helio-4. Así, ello es un tipo de partícula fermión, y no podrá participar en condensación Bose-Einstein, que trabaja sólo para bosones. Además, como en supersonductividad (vease después) pares de partículas con espín semientero pueden formar “cuasi-bosones” que pueden condensar en fase superfluida. La superfluidez en helio-3, cuya temperatura de transición se reduce por un factor de mil comparado al del líquido helio-4, fue descubierta por David Lee, Douglas Osheroff y Robert Richarson, quienes recibieron el premio Nobel en física en 1996. Ellos observaron tres fases superfluidas diferentes, descubrieron estructuras complejas vortex y con interesante comportamiento cuántico.

Los electrones en la materia condensada se pueden localizar en sus respectivos átomos como en aislantes, o ellos se pueden mover libremente entre átomos localizados, como en los conductores y semiconductores. En los comienzos del siglo XX, se conoció que los metales emiten electrones cuando se calientan a temperaturas altas, pero no estaba claro si esto era debido sólo a la excitación térmica de los electrones o se debía a las interacciones químicas del gas con los alrededores. A través de experimentos llevados en un alto vacío, Owen Richarson pudo establecer finalmente que la emisión de electrones era un efecto puramente termoiónico y se puede formular una ley basada en la distribución de los electrones en el metal. Por esto, Richarson recibió el premio Nobel en física en 1928.

La estructura electrónica determina las propiedades eléctricas, magnéticas y ópticas de los sólidos y es también importante para su comportamiento mecánico y térmico. Por ello ha sido una de las principales tareas de los físicos en el siglo XX, medir los estados y dinámica de los electrones y modelos de su comportamiento así como conocer cómo se organizan en varios tipos de sólidos. Es natural, que las manifestaciones más inesperadas y extremas del comportamiento de los electrones han atraido fuertemente el interés de la comunidad de los físicos de estado sólido. Esto también se refleja en los premios Nobel de física: algunos premios han sido concedidos por descubrimientos conectados con la superconductividad y para algunos de los efectos muy específicos demostrados en ciertos materiales semiconductores.

La superconductividad fue descubierta a principios de 1911 por Kamerlingh Onnes, quien notificó que la resistividad eléctrica del mercurio baja por debajo de mil millones de su valor ordinario cuando se enfría por debajo de su temperatura de transición que es de 4 K. Como ya mencionamos anteriormente recibió el premio Nobel en 1913. Sin embargo, pasó un largo período de tiempo antes de conocer por qué los electrones fluyen sin resistencia en ciertos conductores a baja temperatura. Pero al comienzo de la década de 1960 Leon Cooper, John Bardeen y Robert Schrieffer formularon una teoría basada sobre la idea que pares de electrones (con espines opuestos y direcciones de movimiento) pueden bajar su energía en una cantidad Eg por compartiendo exactamente la misma deformación de la red cristalina como ellos se mueven. Tal “pares cooperantes” actúan como partículas bosónicas. Esto les permite moverse como un fluido macroscópico coherente, sin perturbarse mientras las excitaciones térmicas (de energía kT) son inferiores en energía que la energía Eg ganada por la formación del par. La teoría así llamada BCS fue galardonada con el premio Nobel de física en 1972. Este abrirse paso en el conocimiento de la mecánica cuántica básica llevó a posteriores progresos en circuitos superconductores y componentes: Brian Josephson analizó la transferencia de transportadores superconductores entre dos metales superconductores, separados por una capa muy fina de material normal conductor. Encontró que la fase quantum, que determina las propiedades de transporte, es una función oscilante del voltaje aplicado sobre este tipo de funciones. El efecto Josephson tiene importantes aplicaciones en medidas de precisión, ya que establece una relación entre voltaje y escalas de frecuencia. Josephson recibió la mitad del premio Nobel en 1973. Ivar Giaever, quien inventó y estudió las propiedades detalladas de la “unión túnel”, un componente electrónico basado en la superconductividad, compartió la segunda mitad con Leo Esaki por su trabajo sobre fenómenos túnel en semiconductores (véase después).

Aunque un número considerable de nuevas aleaciones superconductoras y componentes se descubrieron en los primeros 75 años posteriores al descubrimiento de Kamerlingh Onnes, ello se vió como si la superconductividad fuera un fenómeno típico a baja temperatura, con el límite para las temperaturas de transición ligeramente por encima de los 20 K. Por ello fue sorprendente cuando Georg Bednorz y Alexander Müller demostraron que un óxido de lantano-cobre se hiciera superconductor por encima de los 35 K, cuando se dopaba con pequeñas cantidades de bario. Al poco tiempo, otros laboratorios obtuvieron que cupratos de estructura similar eran superconductores por encima de los 100 K. Este descubrimiento de “superconductores a alta temperatura” desencadenó uno de los mayores esfuerzos de la física moderna: conocer el mecanismo básico de la superconductividad en estos materiales extraordinarios. Bednorz y Müller compartieron el premio Nobel de física en 1987.

El movimiento electrónico en el estado de conducción normal de los metales se ha modelado teóricamente con un alto grado de sofisticación desde la llegada de la mecánica cuántica. Una de las etapas principales fue la introducción del concepto de onda de Bloch, nombrada después de que Felix Bloch (que recibió la mitad del premio Nobel en física por resonancia magnética en 1952). Otro concepto importante, “el fluido electrónico” en conductores, fue introducido por Lev Landau. Philip Anderson hizo algunas contribuciones importantes a la teoría de estructuras electrónicas en sistemas metálicos, en particular las que tienen que ver con los efectos de in-homogeneidad en aleaciones y átomos magnéticos impuros en metales. Nevill Mott trabajó sobre las condiciones generales para la conductividad en sólidos y formuló reglas para el punto en el que un aislante se haga un conductor (la transición Mott) cuando la composición o los parámetros externos sean cambiados. Anderson y Mott compartieron el premio Nobel de física en 1977 con John Van Vleck por sus investigaciones teóricas de la estructura electrónica de sistemas desordenados y magnéticos.

Uno de los primeros premios Nobel (1920) fue dado a Charles Guillaume por su descubrimiento de que la resistencia eléctrica de ciertos aceros de niquel, llamadas aleaciones “invar”, eran prácticamente independiente de la temperatura. Este premio fue motivado principalmente por la importancia de estas aleaciones para medidas de precisión en física y geodesia, en particular cuando se refieren al metro estándar de París. Las aleaciones invar. Se han usado mucho en todos los tipos de aparatos mecánicos de alta precisión, relojes, etc. La base teórica para esta independencia de la temperatura ha sido explicada recientemente. También muy recientemente (1998) Walter Kohn recibió el premio Nobel en química por sus métodos cuánticos de tratamiento de las correlaciones de cambio, por los que ya que han sido resueltas las importantes limitaciones para poder predecir mediante cálculos la estructura electrónica, tanto en sólidos como en moléculas.

En los semiconductores la movilidad electrónica está fuertemente reducida porque hay regiones prohibidas para la energía de los electrones que toman parte en la conducción, la “energía de las discontinuidades” (gaps). Esto fue entendido después del papel básico de dopar el silicio ultra puro (y después otros materiales semiconductores) con agentes elegidos donantes de electrones o aceptores de electrones, y los semiconductores se usaron como componentes en ingeniería electrónica. William Shockley, John Bardeen (ver teoría BSC) y Walter Brattain realizaron investigaciones fundamentales de semiconductores y desarrollaron el primer transistor. Esto fue el nacimiento de la era de “electrónica de estado sólido”. Ellos compartieron el premio Nobel de física en 1956.

Después, Leo Esaki desarrolló el diodo túnel, un componente electrónico que tiene una resistencia diferencial negativa. Está compuesto de dos semiconductores altamente dopados n y p, que tienen un exceso de electrones sobre una cara de la unión y un déficit en la otra. El efecto túnel ocurre a un voltaje preferentemente mayor que el salto (gap) en los semiconductores.

Con técnicas modernas es posible construir materiales de diferentes semiconductores muy delgados y con estructuras bien definidas, en contacto directo entre ellos. Aplicando voltajes de electrodo apropiados a tales sistemas se pueden formar “capas invertidas”, donde los transportadores de carga se mueven sólo en dos dimensiones. Tales capas tienen propiedades interesantes e inesperadas. En 1982, Klaus von Klitzing descubrió el efecto Hall cuantizado. Cuando un campo magnético fuerte se aplica perpendicularmente al plano de una capa cuasi bi-dimensional, las condiciones cuánticas son tales que un incremento del campo magnético no hace variar un incremento lineal del voltaje sobre los extremos de la muestra, aunque en una acción. Entre estas acciones, la resistencia may es h/ie2, donde i son enteros correspondientes a las órbitas cuantizadas del electrón en el plano. Mientras esto proporciona una posibilidad para medir la relación entre dos constantes fundamentales muy exactamente, ello tiene importantes consecuencias para medidas tecnológicas. Von Klitzing recibió el premio Nobel de física en 1985.

Una sorpresa posterior vino al poco tiempo cuando Daniel Tsui y Horst Störmer hicieron estudios refinados del efecto may cuántico usando capas de inversión en materiales ultra purificados. Aparecieron mesetas en el efecto Hall no sólo por campos magnéticos correspondientes al llenado de órbitas con uno, dos, tres, etc, electrones cargados, pero también por campos correspondientes a cargas fraccionarias. Esto se puede entender sólo en términos de un nuevo tipo de fluido cuántico, donde el movimiento de electrones independientes de carga e es sustituido por excitaciones en un sistema multi-partícula el cual se comporta (en un campo magnético fuerte) como si cargas de e/3, e/5, etc, estuvieran implicadas. Robert Laughlin desarrolló la teoría que describe este nuevo estado de la materia y compartió el premio Nobel de física en 1998 con Tsui y Störmer.

Algún día, los descubrimientos en un campo de la física han encontrado aplicaciones muy importantes en áreas muy diferentes. Un ejemplo, de relevancia para física de estado sólido, es la observación por Rudolf Mössbauer a finales de la década de 1950, que el núcleo “absorbido” en los átomos puede excitarse en resonancia por rayos gamma desde átomos emisores convenientemente elegidos, si los átomos en ambos casos están enlazados de tal forma que al retroceder son eliminados. Las energías cuantizadas del núcleo en el interior de campos eléctricos y magnéticos del sólido se pueden medir aunque correspondan a diferentes posiciones de las resonancias, que son extremadamente agudas. Esto es importante para la determinación de estructura electrónica y magnética de muchas sustancias y Mössbauer recibió la mitad del premio Nobel de física en 1961 y R. Hofstadter la otra mitad.

Física y Tecnología

Muchos de los descubrimientos y las teorías mencionadas han tenido un gran impacto en el desarrollo de aparatos técnicos; abriendo completamente nuevos campos de la física o por proporcionar ideas sobre la construcción de tales aparatos. Ejemplos llamativos son los trabajos de Shockley, Bardeen y Brattain que hicieron el transistor y comenzaron una revolución en la electrónica y las investigaciones básicas de Townes, Basov y Prokhorov que llevaron al desarrollo de los laceres y máseres. También puede mencionarse que el acelerador de partículas ahora es una herramienta importante en algunas áreas de la ciencia de materiales y en medicina.

Uno de los primeros premios Nobel (1912) fue dado a Nils Gustaf Dalén por su invención de una válvula solar automática, muy usada para las luces de los faros y de las boyas. Para ello se basó en la diferencia en el calor de radiación desde cuerpos reflectantes y negros: tres barras paralelas del aparato son ennegrecidas, lo que da diferencias en el calor absorbido durante las horas solares. Este efecto fue usado para automatizarlo y prescindir del gas por el día, eliminando muchas de las necesidades de mantenimiento en el mar.

La instrumentación óptica y las técnicas han sido los tópicos para los premios en algunas ocasiones. Pasando la centuria, Gabriel Lippmann desarrolló un método para la fotografía en color usando interferencia de luz. Un espejo fue colocado en contacto con la emulsión de una placa fotográfica, de tal forma que cuando era iluminada, la reflexión en el espejo dio lugar a ondas estacionarias en la emulsión. El resultado es una estratificación de los granos de plata y cuando tal placa se pone en el espejo, la pintura se reprodujo en sus colores naturales. El premio Nobel de física en 1908 le fue concedido a Lippmann.

Desafortunadamente, el método de Lippmann requiere un largo tiempo de exposición. Posteriormente ha sido superado por otras técnicas para fotografía pero ha encontrado nuevas aplicaciones en hologramas de alta calidad.

En óptica microscópica se demostró por Frits Zernike que aunque los objetos absorban muy débilmente (objetos virtualmente transparentes) pueden hacerse visibles si tienen regiones con diferentes índices de refracción. Con el “microscopio de contraste de fase” de Zernike es posible distinguir zonas de luz que han experimentado diferentes cambios de fase para este tipo de in-homogeneidad. Este microscopio ha sido de particular importancia para observar detalles en muestras biológicas. Zernike recibió el premio Nobel de física en 1953. En la década de 1940, Dennis Gabor estableció los principios de la holografía. Predijo que si un chorro de luz incidente puede interferir con radiación reflejada desde una distribución bidimensional de puntos en el espacio, será posible reproducir un dibujo tridimensional de un objeto. Sin embargo, la realización de esta idea no ha sido posible hasta la invención del láser, que proporciona una luz coherente necesaria para que tal fenómeno de interferencia sea observado. Gabor fue galardonado con el premio Nobel de física en 1971.

La microscopio electrónico ha sido de enorme impacto en muchos campos de las ciencias naturales. Después de que la naturaleza ondulatoria de los electrones se clarificara por C.J. Davisson y G.P. Thomson, se obtuvo que las longitudes de onda cortas de los electrones de alta energía pueden hacer posible incrementar el aumento y la resolución comparado con el microscopio óptico. Ernst Ruska hizo estudios fundamentales en óptica electrónica y diseñó el primer microscopio electrónico a principios de la década de 1930. Sin embargo transcurrieron más de 50 años para que le fuera concedido el premio Nobel.

Ruska obtuvo la mitad del premio Nobel de física en 1986, mientras que la otra mitad fue compartido entre Gerd Binning y Heinrich Rohrer, quienes han desarrollado un camino completamente diferente para obtener dibujos con una resolución extremadamente alta. Su método es aplicable a superficies de sólidos y se basa en el efecto túnel de los electrones desde puntas de metales muy finos a átomos sobre la superficie cuando la punta se mueve a distancias muy pequeñas (próximas a 1 nm). Haciendo que la corriente tunelada sea constante al mover la punta se puede hacer la topografía de la superficie, y se obtienen dibujos escaneando el área de interés. Por este método, se pueden visualizar átomos individuales sobre superficies.

La radio comunicación es uno de los grandes avances técnicos en el siglo XX. Guglielmo Marconi experimentó en la década de 1890 con las nuevas ondas hercianas recientemente descubiertas. Fue el primero en conectar uno de los terminales del oscilador al suelo y el otro a la parte superior de un alambre vertical, la “antena”, con una distribución similar en la estación receptora. Mientras el experimento original de Hertz fue hecho dentro de un laboratorio, Marconi pudo extender las señales de transmisión a distancias de algunos kilómetros. Posteriores experimentos fueron hechos por Carl Ferdinand Braun (padre también del tubo “brauniano”, un primer osciloscopio de rayos catódicos), quien introdujo circuitos resonantes en los osciladores Hertzianos. Esto permitió aumentar el rango de transmisión, y en 1901 Marconi estableció conexión por radio a través del Atlántico. Marconi y Braun compartieron el premio Nobel de física en 1909.

En esta época, no se conocía cómo las ondas de radio podían alcanzar lugares distantes (prácticamente sobre la otra parte de la Tierra), ya que se conocía que eran de la misma naturaleza que la luz, que se propaga en línea recta en el espacio libre. Sir Edward Appleton finalmente probó experimentalmente que la primera sugerencia hecha por Heaviside y Kennelly, que las ondas de radio se reflejan entre diferentes capas conductoras en la atmósfera, fue la explicación correcta. Appleton midió la interferencia de las ondas directa y reflejada a varias longitudes de onda y pudo determinar la altitud de la capa Heaviside; además encontró otra en un nivel superior que lleva su propio nombre. Appleton recibió el premio Nobel en física en 1947.

El progreso en física nuclear y de partículas ha sido siempre muy dependiente del avance tecnológico. Esto se ilustra con los trabajos de Cockcroft y Walton y de Lawrence, quienes desarrollaron aceleradores electrostáticos lineales y ciclotrones. La detección de partículas a alta energía es también un desafío tecnológico, y sus éxitos han sido reconocidos con algunos premios Nobel.

El premio Nobel de física en 1958 fue concedido conjuntamente a Cherenkov, Frank y Tamm por su descubrimiento e interpretación del efecto Cherenkov. Esto es la emisión de luz, dentro de un cono de ángulo de apertura específico alrededor de la partícula cargada, cuando su velocidad excede la velocidad de la luz en el medio en el que se mueve. A partir de este ángulo del cono se puede usar para determinar la velocidad de la partícula, el trabajo de estos tres físicos trajo pronto las bases para desarrollar detectores provechosos.

La visualización de las trayectorias que las partículas tienen en las reacciones es necesaria para una correcta interpretación de los sucesos que tienen lugar a energías altas. Los primeros experimentos a energías relativamente bajas usaron las trayectorias que dejan en emulsiones fotográficas. Charles Wilson desarrolló una cámara en la que las partículas se hacen visibles por el hecho de que dejan una pista de gas ionizado en su interior. En la cámara de Wilson el gas se hace por una expansión repentina, que baja la temperatura y produce una condensación del vapor alrededor de los puntos ionizados; estas gotas son entonces fotografiadas en una luz intensa. Wilson recibió la mitad del premio Nobel de física en 1927, la otra mitad fue para Arthur Compton.

Una etapa posterior en la misma dirección vino mucho después cuando Donald Glaser inventó la “cámara de burbuja”. En la década de 1950 los aceleradores alcanzaron energías de 20-30 GeV y los primeros métodos eran inadecuados; para la cámara de Wilson las longitudes de las trayectorias en el gas serían excesivas. El núcleo atómico en una cámara de burbujas (usualmente contiene hidrógeno líquido) se usan como blancos, y las trayectorias de las partículas producidas se pueden seguir. A la temperatura de la operación el líquido es supercalentado y aparece una discontinuidad, como una región ionizada, que inmediatamente lleva a la formación de pequeñas burbujas. Mejoras importantes fueron hechas por Luis Álvarez, en particular las relativas a las técnicas de registro y el análisis de datos. Su trabajo contribuyó a una rápida extensión del número de partículas elementales hasta entonces conocidas, en particular las llamadas “resonancias” (que posteriormente fueron conocidas como estados excitados de sistemas compuestos de quarks y gluones). Glaser recibió el premio Nobel de física en 1960 y Álvarez en 1968.

Las cámaras de burbujas fueron hasta el final de la década de 1980, el caballo de trabajo de los laboratorios de física de altas energías aunque ya han sido sustituidas por los sistemas de detección electrónica. La última etapa del desarrollo de detectores que ha sido reconocido con el premio Nobel (en 1992) es el trabajo de Georges Charpak. Estudió en detalle los procesos de ionización en gases e inventó la “cámara alambre”, un gas llena el detector en el que los alambres están en el espacio densamente para recoger señales eléctricas próximas a los puntos de ionización, por lo que las trayectorias de las partículas pueden seguirse. La cámara de alambre y sus seguidoras, la cámara de proyección del tiempo y algunas cámaras de alambre grandes/detectores Cherenkov, combinados en sistemas complejos, ha hecho posible la búsqueda selectiva para hechos extremadamente raros (como la producción del quark pesado), que están ocultos en un fondo fuerte de otras señales.