Teoría cuántica de campos - Quantum field theory

En física teórica , la teoría cuántica de campos ( QFT ) es un marco teórico que combina la teoría clásica de campos , la relatividad especial y la mecánica cuántica . QFT se utiliza en física de partículas para construir modelos físicos de partículas subatómicas y en física de materia condensada para construir modelos de cuasipartículas .

QFT trata las partículas como estados excitados (también llamados cuantos ) de sus campos cuánticos subyacentes , que son más fundamentales que las partículas. Las interacciones entre partículas se describen mediante términos de interacción en el lagrangiano que involucran sus correspondientes campos cuánticos. Cada interacción se puede representar visualmente mediante diagramas de Feynman de acuerdo con la teoría de la perturbación en la mecánica cuántica .

Historia

La teoría cuántica de campos surgió del trabajo de generaciones de físicos teóricos que abarcaron gran parte del siglo XX. Su desarrollo comenzó en la década de 1920 con la descripción de las interacciones entre la luz y los electrones , que culminó con la primera teoría cuántica de campos: la electrodinámica cuántica . Pronto siguió un gran obstáculo teórico con la aparición y persistencia de varios infinitos en los cálculos perturbativos, un problema que solo se resolvió en la década de 1950 con la invención del procedimiento de renormalización . Una segunda barrera importante vino con la aparente incapacidad de QFT para describir las interacciones débiles y fuertes , hasta el punto en que algunos teóricos pidieron el abandono del enfoque de la teoría de campo. El desarrollo de la teoría de gauge y la finalización del modelo estándar en la década de 1970 llevaron a un renacimiento de la teoría cuántica de campos.

Antecedentes teóricos

Líneas de campo magnético visualizadas mediante limaduras de hierro . Cuando una hoja de papel se rocía con limaduras de hierro y se coloca sobre una barra magnética, las limaduras se alinean de acuerdo con la dirección del campo magnético, formando arcos.

La teoría cuántica de campos es el resultado de la combinación de la teoría de campos clásica , la mecánica cuántica y la relatividad especial . A continuación, se presenta una breve descripción de estos precursores teóricos:

La primera teoría de campos clásica exitosa es una que surgió de la ley de Newton de la gravitación universal , a pesar de la ausencia total del concepto de campos en su tratado de 1687 Philosophiæ Naturalis Principia Mathematica . La fuerza de gravedad descrita por Newton es una " acción a distancia ": sus efectos sobre los objetos lejanos son instantáneos, sin importar la distancia. Sin embargo, en un intercambio de cartas con Richard Bentley , Newton declaró que "es inconcebible que la materia bruta inanimada, sin la mediación de otra cosa que no es material, opere y afecte a otra materia sin contacto mutuo". No fue hasta el siglo XVIII que los físicos matemáticos descubrieron una descripción conveniente de la gravedad basada en campos: una cantidad numérica (un vector ) asignada a cada punto del espacio que indica la acción de la gravedad sobre cualquier partícula en ese punto. Sin embargo, esto se consideró simplemente un truco matemático.

Los campos comenzaron a cobrar existencia propia con el desarrollo del electromagnetismo en el siglo XIX. Michael Faraday acuñó el término inglés "campo" en 1845. Introdujo los campos como propiedades del espacio (incluso cuando está desprovisto de materia) que tiene efectos físicos. Argumentó en contra de la "acción a distancia" y propuso que las interacciones entre objetos se producen a través de "líneas de fuerza" que llenan el espacio. Esta descripción de campos permanece hasta el día de hoy.

La teoría del electromagnetismo clásico se completó en 1864 con las ecuaciones de Maxwell , que describían la relación entre el campo eléctrico , el campo magnético , la corriente eléctrica y la carga eléctrica . Las ecuaciones de Maxwell implicaban la existencia de ondas electromagnéticas , un fenómeno por el cual los campos eléctricos y magnéticos se propagan de un punto espacial a otro a una velocidad finita, que resulta ser la velocidad de la luz . La acción a distancia fue así refutada de manera concluyente.

A pesar del enorme éxito del electromagnetismo clásico, no pudo explicar las líneas discretas en los espectros atómicos ni la distribución de la radiación del cuerpo negro en diferentes longitudes de onda. El estudio de Max Planck de la radiación del cuerpo negro marcó el comienzo de la mecánica cuántica. Trató a los átomos, que absorben y emiten radiación electromagnética , como pequeños osciladores con la propiedad crucial de que sus energías solo pueden tomar una serie de valores discretos, en lugar de continuos. Estos se conocen como osciladores armónicos cuánticos . Este proceso de restringir energías a valores discretos se llama cuantificación. Sobre la base de esta idea, Albert Einstein propuso en 1905 una explicación para el efecto fotoeléctrico , que la luz se compone de paquetes individuales de energía llamados fotones (los cuantos de luz). Esto implicaba que la radiación electromagnética, aunque son ondas en el campo electromagnético clásico, también existe en forma de partículas.

En 1913, Niels Bohr introdujo el modelo de estructura atómica de Bohr , en el que los electrones dentro de los átomos solo pueden tomar una serie de energías discretas, en lugar de continuas. Este es otro ejemplo de cuantificación. El modelo de Bohr explicó con éxito la naturaleza discreta de las líneas espectrales atómicas. En 1924, Louis de Broglie propuso la hipótesis de la dualidad onda-partícula , según la cual las partículas microscópicas exhiben propiedades tanto de ondas como de partículas en diferentes circunstancias. Uniendo estas ideas dispersas , se formuló una disciplina coherente, la mecánica cuántica , entre 1925 y 1926, con importantes contribuciones de Max Planck , Louis de Broglie , Werner Heisenberg , Max Born , Erwin Schrödinger , Paul Dirac y Wolfgang Pauli .

El mismo año de su artículo sobre el efecto fotoeléctrico, Einstein publicó su teoría de la relatividad especial , basada en el electromagnetismo de Maxwell. Se dieron nuevas reglas, llamadas transformación de Lorentz , para la forma en que las coordenadas de tiempo y espacio de un evento cambian bajo cambios en la velocidad del observador, y la distinción entre tiempo y espacio se desdibujó. Se propuso que todas las leyes físicas deben ser iguales para los observadores a diferentes velocidades, es decir, que las leyes físicas sean invariantes bajo las transformaciones de Lorentz.

Quedaron dos dificultades. Observacionalmente, la ecuación de Schrödinger subyacente a la mecánica cuántica podría explicar la emisión estimulada de radiación de los átomos, donde un electrón emite un nuevo fotón bajo la acción de un campo electromagnético externo, pero no pudo explicar la emisión espontánea , donde un electrón disminuye espontáneamente en energía. y emite un fotón incluso sin la acción de un campo electromagnético externo. Teóricamente, la ecuación de Schrödinger no podía describir fotones y era inconsistente con los principios de la relatividad especial: trata el tiempo como un número ordinario mientras promueve las coordenadas espaciales para los operadores lineales .

Electrodinámica cuántica

La teoría del campo cuántico comenzó naturalmente con el estudio de las interacciones electromagnéticas, ya que el campo electromagnético era el único campo clásico conocido en la década de 1920.

A través de los trabajos de Born, Heisenberg y Pascual Jordan en 1925-1926, se desarrolló una teoría cuántica del campo electromagnético libre (sin interacciones con la materia) mediante la cuantificación canónica tratando el campo electromagnético como un conjunto de osciladores armónicos cuánticos . Sin embargo, con la exclusión de las interacciones, tal teoría era todavía incapaz de hacer predicciones cuantitativas sobre el mundo real.

En su artículo seminal de 1927, La teoría cuántica de la emisión y absorción de radiación , Dirac acuñó el término electrodinámica cuántica (QED), una teoría que agrega a los términos que describen el campo electromagnético libre un término de interacción adicional entre la densidad de corriente eléctrica y el vector electromagnético. potencial . Utilizando la teoría de la perturbación de primer orden , explicó con éxito el fenómeno de la emisión espontánea. De acuerdo con el principio de incertidumbre en la mecánica cuántica, los osciladores armónicos cuánticos no pueden permanecer estacionarios, pero tienen una energía mínima distinta de cero y siempre deben oscilar, incluso en el estado de energía más baja (el estado fundamental ). Por lo tanto, incluso en un vacío perfecto , permanece un campo electromagnético oscilante que tiene energía de punto cero . Es esta fluctuación cuántica de campos electromagnéticos en el vacío lo que "estimula" la emisión espontánea de radiación por electrones en los átomos. La teoría de Dirac tuvo un gran éxito al explicar tanto la emisión como la absorción de radiación por los átomos; Al aplicar la teoría de perturbaciones de segundo orden, pudo explicar la dispersión de fotones, la fluorescencia de resonancia y la dispersión de Compton no relativista . No obstante, la aplicación de la teoría de perturbaciones de orden superior estuvo plagada de infinitos problemáticos en los cálculos.

En 1928, Dirac escribió una ecuación de onda que describía electrones relativistas: la ecuación de Dirac . Tuvo las siguientes consecuencias importantes: el espín de un electrón es 1/2; el factor g del electrón es 2; condujo a la fórmula correcta de Sommerfeld para la estructura fina del átomo de hidrógeno ; y podría usarse para derivar la fórmula de Klein-Nishina para la dispersión relativista de Compton. Si bien los resultados fueron fructíferos, la teoría también aparentemente implicaba la existencia de estados de energía negativos, lo que provocaría que los átomos fueran inestables, ya que siempre podrían decaer a estados de menor energía por la emisión de radiación.

La opinión predominante en ese momento era que el mundo estaba compuesto por dos ingredientes muy diferentes: partículas materiales (como electrones) y campos cuánticos (como fotones). Se consideró que las partículas materiales eran eternas, con su estado físico descrito por las probabilidades de encontrar cada partícula en cualquier región dada del espacio o rango de velocidades. Por otro lado, los fotones se consideraban simplemente los estados excitados del campo electromagnético cuantificado subyacente y podían crearse o destruirse libremente. Fue entre 1928 y 1930 cuando Jordan, Eugene Wigner , Heisenberg, Pauli y Enrico Fermi descubrieron que las partículas materiales también podían verse como estados excitados de campos cuánticos. Así como los fotones son estados excitados del campo electromagnético cuantificado, cada tipo de partícula tenía su correspondiente campo cuántico: un campo de electrones, un campo de protones, etc. Con suficiente energía, ahora sería posible crear partículas materiales. Sobre la base de esta idea, Fermi propuso en 1932 una explicación para la desintegración beta conocida como interacción de Fermi . Los núcleos atómicos no contienen electrones per se , pero en el proceso de desintegración, se crea un electrón a partir del campo de electrones circundante, análogo al fotón creado a partir del campo electromagnético circundante en la desintegración radiativa de un átomo excitado.

Dirac y otros se dieron cuenta en 1929 de que los estados de energía negativa implícitos en la ecuación de Dirac podían eliminarse asumiendo la existencia de partículas con la misma masa que los electrones pero carga eléctrica opuesta. Esto no solo aseguró la estabilidad de los átomos, sino que también fue la primera propuesta de la existencia de la antimateria . De hecho, la evidencia de positrones fue descubierta en 1932 por Carl David Anderson en rayos cósmicos . Con suficiente energía, como absorbiendo un fotón, se podría crear un par electrón-positrón, un proceso llamado producción de pares ; el proceso inverso, la aniquilación, también podría ocurrir con la emisión de un fotón. Esto mostró que no es necesario fijar el número de partículas durante una interacción. Históricamente, sin embargo, al principio se pensó en los positrones como "agujeros" en un mar infinito de electrones, en lugar de un nuevo tipo de partícula, y esta teoría se denominó teoría del agujero de Dirac . QFT incorporó naturalmente antipartículas en su formalismo.

Infinitos y renormalización

Robert Oppenheimer demostró en 1930 que los cálculos perturbativos de orden superior en QED siempre daban como resultado cantidades infinitas, como la energía propia del electrón y la energía del punto cero del vacío de los campos de electrones y fotones, lo que sugiere que los métodos computacionales en ese momento no podían. tratar adecuadamente las interacciones que involucran fotones con momentos extremadamente altos. No fue hasta 20 años después que se desarrolló un enfoque sistemático para eliminar tales infinitos.

Ernst Stueckelberg publicó una serie de artículos entre 1934 y 1938 que establecían una formulación relativamente invariante de QFT. En 1947, Stueckelberg también desarrolló de forma independiente un procedimiento de renormalización completo. Lamentablemente, estos logros no fueron comprendidos ni reconocidos por la comunidad teórica.

Frente a estos infinitos, John Archibald Wheeler y Heisenberg propusieron, en 1937 y 1943 respectivamente, para suplantar la QFT problemática con la llamada teoría de la matriz S . Dado que los detalles específicos de las interacciones microscópicas son inaccesibles para las observaciones, la teoría solo debe intentar describir las relaciones entre un pequeño número de observables ( por ejemplo, la energía de un átomo) en una interacción, en lugar de preocuparse por las minucias microscópicas de la interacción. . En 1945, Richard Feynman y Wheeler sugirieron audazmente abandonar QFT por completo y propusieron la acción a distancia como el mecanismo de las interacciones de las partículas.

En 1947, Willis Lamb y Robert Retherford midieron la diferencia mínima en los niveles de energía 2 S 1/2 y 2 P 1/2 del átomo de hidrógeno, también llamado desplazamiento de Lamb . Al ignorar la contribución de los fotones cuya energía excede la masa del electrón, Hans Bethe calculó con éxito el valor numérico del desplazamiento de Lamb. Posteriormente, Norman Myles Kroll , Lamb, James Bruce French y Victor Weisskopf confirmaron nuevamente este valor utilizando un enfoque en el que los infinitos cancelaban otros infinitos para dar como resultado cantidades finitas. Sin embargo, este método era torpe y poco fiable y no podía generalizarse a otros cálculos.

El gran avance finalmente se produjo alrededor de 1950 cuando Julian Schwinger , Richard Feynman , Freeman Dyson y Shinichiro Tomonaga desarrollaron un método más sólido para eliminar infinitos . La idea principal es reemplazar los valores calculados de masa y carga, por infinitos que sean, por sus valores finitos medidos. Este procedimiento computacional sistemático se conoce como renormalización y se puede aplicar a un orden arbitrario en la teoría de la perturbación. Como dijo Tomonaga en su conferencia Nobel:

Dado que esas partes de la masa y carga modificadas debido a las reacciones de campo [se vuelven infinitas], es imposible calcularlas mediante la teoría. Sin embargo, la masa y la carga observadas en los experimentos no son la masa y la carga originales, sino la masa y la carga modificadas por las reacciones de campo, y son finitas. Por otro lado, la masa y la carga que aparecen en la teoría son ... los valores modificados por reacciones de campo. Dado que esto es así, y particularmente dado que la teoría es incapaz de calcular la masa y la carga modificadas, podemos adoptar el procedimiento de sustituirlos fenomenológicamente por valores experimentales ... Este procedimiento se llama renormalización de masa y carga ... Después de mucho, laborioso cálculos, menos hábiles que los de Schwinger, obtuvimos un resultado ... que estaba de acuerdo con los estadounidenses.

Aplicando el procedimiento de renormalización, finalmente se hicieron cálculos para explicar el momento magnético anómalo del electrón (la desviación del factor g del electrón de 2) y la polarización del vacío . Estos resultados coincidieron con las mediciones experimentales en un grado notable, marcando así el final de una "guerra contra los infinitos".

Al mismo tiempo, Feynman introdujo la formulación integral de trayectoria de la mecánica cuántica y los diagramas de Feynman . Este último se puede utilizar para organizar visual e intuitivamente y para ayudar a calcular términos en la expansión perturbativa. Cada diagrama se puede interpretar como trayectorias de partículas en una interacción, con cada vértice y línea que tiene una expresión matemática correspondiente, y el producto de estas expresiones da la amplitud de dispersión de la interacción representada por el diagrama.

Fue con la invención del procedimiento de renormalización y los diagramas de Feynman que QFT finalmente surgió como un marco teórico completo.

Teoría del campo del operador

Si bien la mayoría de los físicos aceptaban la renormalización como legítima y necesaria, Schwinger no estaba contento. En una charla dada en el Simposio Internacional sobre la Historia de la Física de Partículas en Fermilab en 1980, dijo:

La presión para dar cuenta de esos resultados [experimentales] había producido una cierta estructura teórica que era perfectamente adecuada para la tarea original, pero exigía simplificación y generalización; se requería una nueva visión ... Como el chip de silicio de años más recientes, el diagrama de Feynman estaba llevando la computación a las masas ... Pero eventualmente uno tiene que juntarlo todo nuevamente, y luego el enfoque por partes pierde algo de su atractivo ... Teoría cuántica de campos debo lidiar con los campos de Bose-Einstein y los campos de Fermi-Dirac en una base totalmente equivalente ... Ahí estaba mi desafío. - "Teoría de la renormalización de la electrodinámica cuántica: una visión individual" por Julian Schwinger

Este desafío dio lugar a seis artículos sobre "La teoría de los campos cuantificados" publicados en la revista Physical Review en 1951-54. Schwinger sintió que esta nueva teoría era mucho más importante que el trabajo de renormalización por el que había recibido el Premio Nobel. De hecho, dedicó su discurso del Nobel en 1965 a describir este trabajo, al igual que Einstein había hablado de la relatividad en su discurso del Nobel y no de la teoría del efecto fotoeléctrico por la que recibió el premio.

La teoría cuántica relativista de los campos nació hace unos treinta y cinco años gracias a los esfuerzos paternos de Dirac, Heisenberg, Pauli y otros. Sin embargo, era un joven un poco retrasado y llegó a la adolescencia diecisiete años después, evento que estamos reunidos aquí para celebrar. Pero es el desarrollo posterior y la fase más madura del tema lo que deseo discutir brevemente hoy.

En la versión de QFT de Schwinger, los campos no se describen con números simples; se describen mediante vectores en un espacio de Hilbert de dimensión infinita, y para cada campo hay un operador correspondiente que actúa sobre estos vectores; de ahí el nombre de Schwinger "Teoría del campo del operador". Este uso del espacio de Hilbert conduce al concepto de cuantos de campo:

... estos dos conceptos clásicos distintos [partículas y ondas] se fusionan y se trascienden en algo que no tiene contraparte clásica: el campo cuantificado que es una nueva concepción en sí mismo, una unidad que reemplaza la dualidad clásica.

Los cuantos a veces se denominan excitaciones en un campo, pero eso no cuenta toda la historia. Cada cuanto es una unidad de campo holística que no se puede subdividir.

Un electrón es una ondulación cuantificada del campo cuántico de electrones, que actúa como una partícula porque viaja holísticamente con sus cantidades conservadas siempre sostenidas como una unidad.

Un cuanto ... tiene un carácter de todo o nada: está completamente presente o completamente ausente. No puedes tener solo una parte de un fotón. Este carácter de todo o nada implica que debe agregar o eliminar un cuanto completo instantáneamente ... incluso si se extiende a lo largo de muchos kilómetros. No se puede alterar parte de un cuanto porque no tiene partes; es una sola cosa.

A pesar del éxito de la teoría de Schwinger al responder a las paradojas y misterios de la mecánica cuántica, ahora se pasa por alto u olvida en gran medida. Una de las razones es que la idea del colapso instantáneo es preocupante para muchos físicos, incluido Einstein, quien lo llamó acción espeluznante a distancia. Sin embargo, es un hecho experimental y no viola el principio de relatividad porque no se transmite información en el proceso. Eliminar un campo antes de que haya tenido la oportunidad de hacer algo, o cambiar el giro (u otra propiedad) de un campo antes de que haya cambiado algo no es lo mismo que cambiar algo que ya sucedió.

Otra razón es que este trabajo posterior de Schwinger no fue bien entendido en la comunidad física.

Y así se produjo una tragedia. La necesidad [de Schwinger] de hacer las cosas a su manera lo llevó a desarrollar su propio lenguaje, sus propios enfoques y técnicas ... A medida que se aisló, menos personas entendieron y hablaron los nuevos idiomas que creó ... contribuyendo a su mayor aislamiento ... pérdida mutua, ya que tanto Schwinger como la comunidad fueron los perdedores.

No renormalizabilidad

Dado el tremendo éxito de QED, muchos teóricos creían, en los pocos años posteriores a 1949, que QFT pronto podría proporcionar una comprensión de todos los fenómenos microscópicos, no solo las interacciones entre fotones, electrones y positrones. Contrariamente a este optimismo, QFT entró en otro período de depresión que duró casi dos décadas.

El primer obstáculo fue la aplicabilidad limitada del procedimiento de renormalización. En cálculos perturbativos en QED, todas las cantidades infinitas podrían eliminarse redefiniendo un número pequeño (finito) de cantidades físicas (es decir, la masa y la carga del electrón). Dyson demostró en 1949 que esto solo es posible para una pequeña clase de teorías llamadas "teorías renormalizables", de las cuales QED es un ejemplo. Sin embargo, la mayoría de las teorías, incluida la teoría de Fermi de la interacción débil , son "no renormalizables". Cualquier cálculo perturbador en estas teorías más allá del primer orden daría como resultado infinitos que no podrían eliminarse redefiniendo un número finito de cantidades físicas.

El segundo gran problema surgió de la validez limitada del método del diagrama de Feynman, que se basa en una expansión en serie de la teoría de perturbaciones. Para que la serie converja y los cálculos de bajo orden sean una buena aproximación, la constante de acoplamiento , en la que se expande la serie, debe ser un número suficientemente pequeño. La constante de acoplamiento en QED es la constante de estructura fina α ≈ 1/137 , que es lo suficientemente pequeña como para que solo los diagramas de Feynman más simples y de menor orden deben considerarse en cálculos realistas. Por el contrario, la constante de acoplamiento en la interacción fuerte es aproximadamente del orden de uno, lo que hace que los diagramas de Feynman complicados y de orden superior sean tan importantes como los simples. Por tanto, no había forma de derivar predicciones cuantitativas fiables para la interacción fuerte utilizando métodos QFT perturbativos.

Con estas dificultades inminentes, muchos teóricos comenzaron a alejarse de QFT. Algunos se centraron en los principios de simetría y las leyes de conservación , mientras que otros adoptaron la antigua teoría de la matriz S de Wheeler y Heisenberg. QFT se utilizó heurísticamente como principios rectores, pero no como base para cálculos cuantitativos.

Sin embargo, Schwinger tomó una ruta diferente. Durante más de una década, él y sus estudiantes habían sido casi los únicos exponentes de la teoría de campo, pero en 1966 encontró una forma de solucionar el problema de los infinitos con un nuevo método que llamó teoría de la fuente. Los avances en la física de piones, en los que se aplicó con mayor éxito el nuevo punto de vista, lo convencieron de las grandes ventajas de la simplicidad matemática y la claridad conceptual que otorgaba su uso.

En la teoría de la fuente no hay divergencias ni renormalización. Puede considerarse como la herramienta de cálculo de la teoría de campos, pero es más general. Utilizando la teoría de la fuente, Schwinger pudo calcular el momento magnético anómalo del electrón, lo que había hecho en 1947, pero esta vez sin "comentarios que distraigan" sobre cantidades infinitas.

Schwinger también aplicó la teoría de la fuente a su teoría QFT de la gravedad y pudo reproducir los cuatro resultados clásicos de Einstein: desplazamiento hacia el rojo gravitacional, desviación y desaceleración de la luz por gravedad y la precesión del perihelio de Mercurio. El descuido de la teoría de la fuente por parte de la comunidad física fue una gran decepción para Schwinger:

La falta de apreciación de estos hechos por otros fue deprimente, pero comprensible. — J. Schwinger

Modelo estandar

Partículas elementales del modelo estándar : seis tipos de quarks , seis tipos de leptones , cuatro tipos de bosones gauge que llevan interacciones fundamentales , así como el bosón de Higgs , que dotan de masa a las partículas elementales.

En 1954, Yang Chen-Ning y Robert Mills generalizaron la simetría local de QED, lo que llevó a teorías de gauge no abelianas (también conocidas como teorías de Yang-Mills), que se basan en grupos de simetría local más complicados . En QED, las partículas cargadas (eléctricamente) interactúan a través del intercambio de fotones, mientras que en la teoría de gauge no abeliana, las partículas que llevan un nuevo tipo de " carga " interactúan a través del intercambio de bosones de gauge sin masa . A diferencia de los fotones, estos bosones gauge llevan carga.

Sheldon Glashow desarrolló una teoría de gauge no abeliana que unificó las interacciones electromagnética y débil en 1960. En 1964, Abdus Salam y John Clive Ward llegaron a la misma teoría a través de un camino diferente. Esta teoría, sin embargo, no era renormalizable.

Peter Higgs , Robert Brout , François Englert , Gerald Guralnik , Carl Hagen y Tom Kibble propusieron en sus famosos artículos de Physical Review Letters que la simetría de calibre en las teorías de Yang-Mills podría romperse mediante un mecanismo llamado ruptura de simetría espontánea , a través del cual originalmente no existía masa. los bosones gauge podrían adquirir masa.

Al combinar la teoría anterior de Glashow, Salam y Ward con la idea de la ruptura espontánea de la simetría, Steven Weinberg escribió en 1967 una teoría que describe las interacciones electrodébiles entre todos los leptones y los efectos del bosón de Higgs . Al principio, su teoría fue mayoritariamente ignorada, hasta que volvió a la luz en 1971 gracias a la prueba de Gerard 't Hooft de que las teorías de gauge no abelianas son renormalizables. La teoría electrodébil de Weinberg y Salam se extendió de los leptones a los quarks en 1970 por Glashow, John Iliopoulos y Luciano Maiani , marcando su finalización.

Harald Fritzsch , Murray Gell-Mann y Heinrich Leutwyler descubrieron en 1971 que ciertos fenómenos relacionados con la interacción fuerte también podían explicarse mediante la teoría de gauge no abeliana. Nació la cromodinámica cuántica (QCD). En 1973, David Gross , Frank Wilczek y Hugh David Politzer demostraron que las teorías de gauge no abelianas son " asintóticamente libres ", lo que significa que en la renormalización, la constante de acoplamiento de la interacción fuerte disminuye a medida que aumenta la energía de interacción. (Se habían hecho descubrimientos similares en numerosas ocasiones, pero se habían ignorado en gran medida). Por lo tanto, al menos en interacciones de alta energía, la constante de acoplamiento en QCD se vuelve lo suficientemente pequeña como para justificar una expansión de la serie perturbativa, lo que hace predicciones cuantitativas para la interacción fuerte posible.

Estos avances teóricos provocaron un renacimiento en QFT. La teoría completa, que incluye la teoría electrodébil y la cromodinámica, se conoce hoy como el modelo estándar de partículas elementales. El Modelo Estándar describe con éxito todas las interacciones fundamentales excepto la gravedad , y sus muchas predicciones se han cumplido con una notable confirmación experimental en las décadas posteriores. El bosón de Higgs , fundamental para el mecanismo de ruptura espontánea de la simetría, se detectó finalmente en 2012 en el CERN , lo que marca la verificación completa de la existencia de todos los componentes del Modelo Estándar.

Otros desarrollos

La década de 1970 vio el desarrollo de métodos no perturbadores en teorías de gauge no abelianas. El monopolo 't Hooft-Polyakov fue descubierto teóricamente por' t Hooft y Alexander Polyakov , los tubos de flujo por Holger Bech Nielsen y Poul Olesen , y los instantones por Polyakov y sus coautores. Estos objetos son inaccesibles a través de la teoría de la perturbación.

La supersimetría también apareció en el mismo período. El primer QFT supersimétrico en cuatro dimensiones fue construido por Yuri Golfand y Evgeny Likhtman en 1970, pero su resultado no logró atraer un interés generalizado debido al Telón de Acero . La supersimetría solo despegó en la comunidad teórica después del trabajo de Julius Wess y Bruno Zumino en 1973.

Entre las cuatro interacciones fundamentales, la gravedad sigue siendo la única que carece de una descripción QFT coherente. Varios intentos de una teoría de la gravedad cuántica llevaron al desarrollo de la teoría de cuerdas , en sí misma un tipo de QFT bidimensional con simetría conforme . Joël Scherk y John Schwarz propusieron por primera vez en 1974 que la teoría de cuerdas podría ser la teoría cuántica de la gravedad.

Física de la Materia Condensada

Aunque la teoría cuántica de campos surgió del estudio de las interacciones entre partículas elementales, se ha aplicado con éxito a otros sistemas físicos, particularmente a los sistemas de muchos cuerpos en la física de la materia condensada .

Históricamente, el mecanismo de Higgs de ruptura espontánea de la simetría fue el resultado de la aplicación de Yoichiro Nambu de la teoría de superconductores a partículas elementales, mientras que el concepto de renormalización surgió del estudio de las transiciones de fase de segundo orden en la materia.

Poco después de la introducción de los fotones, Einstein realizó el procedimiento de cuantificación de las vibraciones en un cristal, lo que dio lugar a la primera cuasipartícula : los fonones . Lev Landau afirmó que las excitaciones de baja energía en muchos sistemas de materia condensada podrían describirse en términos de interacciones entre un conjunto de cuasipartículas. El método del diagrama de Feynman de QFT fue naturalmente muy adecuado para el análisis de varios fenómenos en sistemas de materia condensada.

La teoría del calibre se utiliza para describir la cuantificación del flujo magnético en superconductores, la resistividad en el efecto Hall cuántico , así como la relación entre frecuencia y voltaje en el efecto AC Josephson .

Principios

Para simplificar, las unidades naturales se utilizan en las siguientes secciones, en las que la constante de Planck reducida ħ y la velocidad de la luz c se establecen en uno.

Campos clásicos

Un campo clásico es una función de coordenadas espaciales y temporales. Los ejemplos incluyen el campo gravitacional en la gravedad newtoniana g ( x , t ) y el campo eléctrico E ( x , t ) y el campo magnético B ( x , t ) en el electromagnetismo clásico . Se puede pensar en un campo clásico como una cantidad numérica asignada a cada punto del espacio que cambia en el tiempo. Por tanto, tiene infinitos grados de libertad .

Muchos fenómenos que exhiben propiedades de la mecánica cuántica no pueden explicarse únicamente mediante campos clásicos. Fenómenos como el efecto fotoeléctrico se explican mejor mediante partículas discretas ( fotones ), en lugar de un campo espacialmente continuo. El objetivo de la teoría cuántica de campos es describir varios fenómenos mecánicos cuánticos utilizando un concepto modificado de campos.

La cuantificación canónica y las integrales de ruta son dos formulaciones comunes de QFT. Para motivar los fundamentos de QFT, conviene una descripción general de la teoría de campo clásica.

El campo clásico más simple es un campo escalar real : un número real en cada punto del espacio que cambia en el tiempo. Se denota como ϕ ( x , t ) , donde x es el vector de posición y t es el tiempo. Suponga que el lagrangiano del campo`` es

donde es la densidad lagrangiana, es la derivada del campo en el tiempo, es el operador de gradiente y m es un parámetro real (la "masa" del campo). Aplicando la ecuación de Euler-Lagrange en el Lagrangiano:

obtenemos las ecuaciones de movimiento para el campo, que describen la forma en que varía en el tiempo y el espacio:

Esto se conoce como la ecuación de Klein-Gordon .

La ecuación de Klein-Gordon es una ecuación de onda , por lo que sus soluciones se pueden expresar como una suma de modos normales (obtenidos mediante la transformada de Fourier ) de la siguiente manera:

donde a es un número complejo (normalizado por convención), * denota conjugación compleja y ω p es la frecuencia del modo normal:

Así, cada modo normal correspondiente a un solo p puede verse como un oscilador armónico clásico con frecuencia ω p .

Cuantización canónica

El procedimiento de cuantificación para el campo clásico anterior a un campo de operador cuántico es análogo a la promoción de un oscilador armónico clásico a un oscilador armónico cuántico .

El desplazamiento de un oscilador armónico clásico se describe mediante

donde a es un número complejo (normalizado por convención) y ω es la frecuencia del oscilador. Tenga en cuenta que x es el desplazamiento de una partícula en movimiento armónico simple desde la posición de equilibrio, que no debe confundirse con la etiqueta espacial x de un campo cuántico.

Para un oscilador armónico cuántico, x ( t ) se promueve a un operador lineal :

Los números complejos a y un * se sustituyen por el operador de la aniquilación y el operador de la creación , respectivamente, donde denota conjugación hermitiana . La relación de conmutación entre los dos es

El estado de vacío , que es el estado de menor energía, se define por

Se puede obtener cualquier estado cuántico de un solo oscilador armónico aplicando sucesivamente el operador de creación :

De la misma manera, el campo escalar real mencionado anteriormente ϕ , que corresponde ax en el oscilador armónico único, también se promueve a un operador de campo cuántico , mientras que el operador de aniquilación , el operador de creación y la frecuencia angular son ahora para un p particular :

Sus relaciones de conmutación son:

donde δ es la función delta de Dirac . El estado de vacío está definido por

Se puede obtener cualquier estado cuántico del campo aplicando sucesivamente operadores de creación , p . Ej.

Aunque el campo cuántico que aparece en el Lagrangiano es espacialmente continuo, los estados cuánticos del campo son discretos. Mientras que el espacio de estados de un solo oscilador armónico cuántico contiene todos los estados de energía discretos de una partícula oscilante, el espacio de estados de un campo cuántico contiene los niveles de energía discretos de un número arbitrario de partículas. Este último espacio se conoce como espacio de Fock , lo que puede explicar el hecho de que los números de partículas no están fijos en los sistemas cuánticos relativistas. El proceso de cuantificar un número arbitrario de partículas en lugar de una sola partícula a menudo también se denomina segunda cuantificación .

El procedimiento anterior es una aplicación directa de la mecánica cuántica no relativista y se puede utilizar para cuantificar campos escalares (complejos), campos de Dirac , campos vectoriales ( por ejemplo, el campo electromagnético) e incluso cadenas . Sin embargo, los operadores de creación y aniquilación solo están bien definidos en las teorías más simples que no contienen interacciones (la llamada teoría libre). En el caso del campo escalar real, la existencia de estos operadores fue consecuencia de la descomposición de las soluciones de las ecuaciones clásicas de movimiento en una suma de modos normales. Para realizar cálculos sobre cualquier teoría interactiva realista, sería necesaria la teoría de la perturbación .

El lagrangiano de cualquier campo cuántico de la naturaleza contendría términos de interacción además de los términos de la teoría libre. Por ejemplo, se podría introducir un término de interacción cuártica al lagrangiano del campo escalar real:

donde μ es un índice de espacio-tiempo , etc. La suma sobre el índice μ se ha omitido siguiendo la notación de Einstein . Si el parámetro λ es suficientemente pequeño, entonces la teoría de interacción descrita por el Lagrangiano anterior puede considerarse como una pequeña perturbación de la teoría libre.

Integrales de ruta

La formulación de ruta integral de QFT se ocupa del cálculo directo de la amplitud de dispersión de un determinado proceso de interacción, en lugar del establecimiento de operadores y espacios de estados. Para calcular la amplitud de probabilidad de que un sistema evolucione desde algún estado inicial en el tiempo t = 0 a algún estado final en t = T , el tiempo total T se divide en N intervalos pequeños. La amplitud general es el producto de la amplitud de la evolución dentro de cada intervalo, integrada sobre todos los estados intermedios. Sea H el hamiltoniano ( es decir, generador de evolución en el tiempo ), entonces

Tomando el límite N → ∞ , el producto de integrales anterior se convierte en la integral de camino de Feynman:

donde L es el Lagrangiano que involucra a ϕ y sus derivadas con respecto a las coordenadas espaciales y temporales, obtenidas del Hamiltoniano H mediante la transformación de Legendre . Las condiciones iniciales y finales de la integral de trayectoria son respectivamente

En otras palabras, la amplitud total es la suma de la amplitud de cada camino posible entre los estados inicial y final, donde la amplitud de un camino viene dada por la exponencial en el integrando.

Función de correlación de dos puntos

En los cálculos, a menudo uno encuentra expresiones como

en la teoría libre o interactiva, respectivamente. Aquí, y son los cuatro vectores de posición , es el operador de ordenamiento del tiempo que baraja sus operandos para que los componentes del tiempo y aumenten de derecha a izquierda, y es el estado fundamental (estado de vacío) de la teoría de interacción, diferente del estado fundamental libre . Esta expresión representa la amplitud de probabilidad para que el campo se propague desde y hasta x , y tiene varios nombres, como propagador de dos puntos , función de correlación de dos puntos , función de Green de dos puntos o función de dos puntos para abreviar.

La función libre de dos puntos, también conocida como propagador de Feynman , se puede encontrar para el campo escalar real mediante cuantificación canónica o integrales de ruta para ser

En una teoría de interacción, donde el lagrangiano o hamiltoniano contiene términos o que describen interacciones, la función de dos puntos es más difícil de definir. Sin embargo, tanto a través de la formulación de cuantificación canónica como de la de integral de trayectoria, es posible expresarlo a través de una serie de perturbaciones infinitas de la función

libre de dos puntos.

En la cuantificación canónica, la función de correlación de dos puntos se puede escribir como:

donde ε es un número infinitesimal y ϕ I es el operador de campo según la teoría libre. Aquí, la exponencial debe entenderse como su expansión en serie de potencias . Por ejemplo, en teoría, el término de interacción del hamiltoniano es , y la expansión del correlador de dos puntos en términos de se convierte en

Esta expansión de perturbación expresa la función de dos puntos que interactúan en términos de cantidades que se evalúan en la teoría
libre .


En la formulación de la integral de trayectoria, la función de correlación de dos puntos se puede escribir

donde está la densidad lagrangiana. Como en el párrafo anterior, la exponencial se puede expandir como una serie en

λ , reduciendo la función interactiva de dos puntos a cantidades en la teoría libre.

El teorema de Wick reduce aún más cualquier función de correlación de n puntos en la teoría libre a una suma de productos de funciones de correlación de dos puntos. Por ejemplo,

Dado que las funciones de correlación que interactúan se pueden expresar en términos de funciones de correlación libres, solo es necesario evaluar estas últimas para calcular todas las cantidades físicas en la teoría de la interacción (perturbativa). Esto convierte al propagador de Feynman en una de las cantidades más importantes en la teoría cuántica de campos.

Diagrama de Feynman

Las funciones de correlación en la teoría de la interacción se pueden escribir como una serie de perturbaciones. Cada término de la serie es un producto de los propagadores de Feynman en la teoría libre y se puede representar visualmente mediante un diagrama de Feynman . Por ejemplo, el término λ 1 en la función de correlación de dos puntos en la teoría ϕ 4 es

Después de aplicar el teorema de Wick, uno de los términos es

En cambio, este término se puede obtener del diagrama de Feynman

Phi-4 one-loop.svg.

El diagrama consta de

  • vértices externos conectados con un borde y representados por puntos (aquí etiquetados y ).
  • vértices internos conectados con cuatro aristas y representados por puntos (aquí etiquetados ).
  • aristas que conectan los vértices y se representan mediante líneas.

Cada vértice corresponde a un único factor de campo en el punto correspondiente en el espacio-tiempo, mientras que los bordes corresponden a los propagadores entre los puntos del espacio-tiempo. El término de la serie de perturbaciones correspondiente al diagrama se obtiene escribiendo la expresión que se sigue de las

reglas de Feynman :
  1. Para cada vértice interno , escribe un factor .
  2. Para cada arista que conecte dos vértices y , escriba un factor .
  3. Divida por el factor de simetría del diagrama.

Con el factor de simetría , siguiendo estas reglas se obtiene exactamente la expresión anterior. Al transformar Fourier el propagador, las reglas de Feynman pueden reformularse del espacio de posición al espacio de impulso.

Con el fin de calcular el n función de correlación -point a la k orden -ésima, la lista de todos los diagramas de Feynman válidos con n puntos externos y k o menos vértices y, a continuación, utilizar reglas de Feynman para obtener la expresión para cada término. Para ser preciso,

es igual a la suma de (expresiones correspondientes a) todos los diagramas conectados con n puntos externos. (Los diagramas conectados son aquellos en los que cada vértice está conectado a un punto externo a través de líneas. Los componentes que están totalmente desconectados de las líneas externas a veces se denominan "burbujas de vacío"). En la teoría de interacción ϕ 4 discutida anteriormente, cada vértice debe tener cuatro patas .

En aplicaciones realistas, la amplitud de dispersión de una determinada interacción o la tasa de

desintegración de una partícula se puede calcular a partir de la matriz S , que a su vez se puede encontrar utilizando el método del diagrama de Feynman.

Los diagramas de Feynman desprovistos de "bucles" se denominan diagramas a nivel de árbol, que describen los procesos de interacción de orden más bajo; los que contienen n bucles se denominan diagramas de n bucles, que describen contribuciones de orden superior, o correcciones radiativas, a la interacción. Las líneas cuyos extremos son vértices se pueden considerar como la propagación de partículas virtuales .

Renormalización

Las reglas de Feynman se pueden utilizar para evaluar directamente los diagramas a nivel de árbol. Sin embargo, el cálculo ingenuo de diagramas de bucle como el que se muestra arriba dará como resultado integrales de momento divergente, lo que parece implicar que casi todos los términos en la expansión perturbativa son infinitos. El procedimiento de renormalización es un proceso sistemático para eliminar tales infinitos.

Los parámetros que aparecen en el Lagrangiano, como la masa my la constante de acoplamiento λ , no tienen significado físico - m , λ , y la intensidad de campo ϕ no son cantidades medibles experimentalmente y se denominan aquí masa desnuda, constante de acoplamiento desnuda, y campo desnudo, respectivamente. La masa física y la constante de acoplamiento se miden en algún proceso de interacción y generalmente son diferentes de las cantidades desnudas. Al calcular las cantidades físicas de este proceso de interacción, se puede limitar el dominio de las integrales de momento divergente para que esté por debajo de algún límite de momento Λ , obtener expresiones para las cantidades físicas y luego tomar el límite Λ → ∞ . Este es un ejemplo de regularización , una clase de métodos para tratar divergencias en QFT, siendo Λ el regulador.

El enfoque ilustrado anteriormente se llama teoría de perturbación pura, ya que los cálculos involucran solo las cantidades desnudas, como la masa y la constante de acoplamiento. Un enfoque diferente, llamado teoría de la perturbación renormalizada, es usar cantidades físicamente significativas desde el principio. En el caso de la teoría ϕ 4 , primero se redefine la intensidad de campo:

donde ϕ es el campo desnudo, ϕ r es el campo renormalizado y Z es una constante por determinar. La densidad lagrangiana se convierte en:

donde m r y λ r son las constantes de masa y acoplamiento medibles experimentalmente, renormalizadas, respectivamente, y

son constantes por determinar. Los primeros tres términos son la densidad lagrangiana ϕ 4 escrita en términos de las cantidades renormalizadas, mientras que los últimos tres términos se denominan "contraterminos". Como el lagrangiano ahora contiene más términos, los diagramas de Feynman deberían incluir elementos adicionales, cada uno con sus propias reglas de Feynman. El procedimiento se describe a continuación. Primero seleccione un esquema de regularización (como la regularización de corte introducida anteriormente o la regularización dimensional ); llame al regulador Λ . Calcule los diagramas de Feynman, en los que los términos divergentes dependerán de Λ . Luego, defina δ Z , δ m , y δ λ de manera que los diagramas de Feynman para los contraterminos cancelen exactamente los términos divergentes en los diagramas de Feynman normales cuando se toma el límite Λ → ∞ . De esta manera, se obtienen cantidades finitas significativas.

Solo es posible eliminar todos los infinitos para obtener un resultado finito en las teorías renormalizables, mientras que en las teorías no renormalizables los infinitos no pueden eliminarse mediante la redefinición de un pequeño número de parámetros. El modelo estándar de partículas elementales es un QFT renormalizable, mientras que la gravedad cuántica no es renormalizable.

Grupo de renormalización

El grupo de renormalización , desarrollado por Kenneth Wilson , es un aparato matemático que se utiliza para estudiar los cambios en los parámetros físicos (coeficientes en lagrangiano) a medida que el sistema se ve a diferentes escalas. La forma en que cambia cada parámetro con la escala se describe mediante su

función β . Las funciones de correlación, que subyacen a las predicciones físicas cuantitativas, cambian con la escala de acuerdo con la ecuación de Callan-Symanzik .

Como ejemplo, la constante de acoplamiento en QED, a saber, la carga elemental e , tiene la siguiente función β :

donde Λ es la escala de energía bajo la cual se realiza la medición de e . Esta ecuación diferencial implica que la carga elemental observada aumenta a medida que aumenta la escala. La constante de acoplamiento renormalizada, que cambia con la escala de energía, también se denomina constante de acoplamiento en marcha.

La constante de acoplamiento g en la cromodinámica cuántica , una teoría de gauge no abeliana basada en el grupo de simetría SU (3) , tiene la siguiente función β :

donde N f es el número de sabores de quark . En el caso donde N f ≤ 16 (el modelo estándar tiene N f = 6 ), la constante de acoplamiento g disminuye a medida que aumenta la escala de energía. Por lo tanto, mientras que la interacción fuerte es fuerte a bajas energías, se vuelve muy débil en interacciones de alta energía, un fenómeno conocido como libertad asintótica .

Las teorías de campo conforme (CFT) son QFT especiales que admiten simetría conforme . Son insensibles a los cambios en la escala, ya que todas sus constantes de acoplamiento tienen una función β de fuga . (Sin embargo, lo contrario no es cierto: la desaparición de todas las funciones β no implica una simetría conforme de la teoría). Los ejemplos incluyen la teoría de cuerdas y la teoría supersimétrica de Yang-Mills N = 4 .

Según la imagen de Wilson, cada QFT está fundamentalmente acompañado por su corte de energía Λ , es decir , que la teoría ya no es válida a energías superiores a Λ , y todos los grados de libertad por encima de la escala Λ deben omitirse. Por ejemplo, el corte podría ser el inverso del espaciado atómico en un sistema de materia condensada, y en física de partículas elementales podría estar asociado con la "granulosidad" fundamental del espacio-tiempo causada por fluctuaciones cuánticas en la gravedad. La escala de corte de las teorías de las interacciones de partículas se encuentra mucho más allá de los experimentos actuales. Incluso si la teoría fuera muy complicada a esa escala, siempre que sus acoplamientos sean lo suficientemente débiles, debe describirse a bajas energías mediante una teoría de campo efectivo renormalizable . La diferencia entre las teorías renormalizables y no renormalizables es que las primeras son insensibles a los detalles a altas energías, mientras que las últimas dependen de ellas. Según este punto de vista, las teorías no renormalizables deben verse como teorías efectivas de baja energía de una teoría más fundamental. El hecho de no eliminar el límite Λ de los cálculos en tal teoría simplemente indica que aparecen nuevos fenómenos físicos a escalas superiores a Λ , donde es necesaria una nueva teoría.

Otras teorías

Los procedimientos de cuantificación y renormalización descritos en las secciones anteriores se llevan a cabo para la teoría libre y phi 4 teoría del campo escalar real. Se puede realizar un proceso similar para otros tipos de campos, incluido el campo escalar complejo , el campo vectorial y el campo de Dirac , así como otros tipos de términos de interacción, incluida la interacción electromagnética y la interacción Yukawa .

Como ejemplo, la electrodinámica cuántica contiene un campo de Dirac ψ que representa el campo de electrones y un campo vectorial A μ que representa el campo electromagnético ( campo de fotones ). (A pesar de su nombre, el "campo" electromagnético cuántico corresponde en realidad a los cuatro potenciales electromagnéticos clásicos , en lugar de a los campos eléctricos y magnéticos clásicos). La densidad lagrangiana QED completa es:

donde gamma mu son matrices de Dirac , y es la intensidad de campo electromagnético . Los parámetros en esta teoría son la masa del electrón (desnuda) my la carga elemental (desnuda) e . El primer y segundo términos de la densidad lagrangiana corresponden al campo libre de Dirac y a los campos vectoriales libres, respectivamente. El último término describe la interacción entre los campos de electrones y fotones, que se trata como una perturbación de las teorías libres.

ElectronPositronAnnihilation.svg

Arriba se muestra un ejemplo de un diagrama de Feynman a nivel de árbol en QED. Describe un electrón y un positrón aniquilándose, creando un fotón fuera de la capa y luego decayendo en un nuevo par de electrón y positrón. El tiempo corre de izquierda a derecha. Las flechas que apuntan hacia adelante en el tiempo representan la propagación de positrones, mientras que las que apuntan hacia atrás en el tiempo representan la propagación de electrones. Una línea ondulada representa la propagación de un fotón. Cada vértice en los diagramas QED de Feynman debe tener una rama de fermión entrante y una saliente (positrón / electrón), así como una rama de fotón.

Simetría de calibre

Si la siguiente transformación a los campos se realiza en cada punto del espacio-tiempo x (una transformación local), entonces el QED Lagrangiano permanece sin cambios, o invariante:

donde α ( x ) es cualquier función de las coordenadas del espacio-tiempo. Si el lagrangiano de una teoría (o más precisamente la acción ) es invariante bajo una determinada transformación local, entonces la transformación se conoce como una simetría de calibre de la teoría. Las simetrías de calibre forman un grupo en cada punto del espacio-tiempo. En el caso de QED, la aplicación sucesiva de dos transformaciones de simetría local diferentes y es otra transformación de simetría más . Para cualquier α ( x ) , es un elemento del grupo U (1) , por lo que se dice que QED tiene simetría de calibre U (1) . El campo de fotones A μ puede denominarse bosón gauge U (1) .

U (1) es un grupo abeliano , lo que significa que el resultado es el mismo independientemente del orden en que se apliquen sus elementos. Los QFT también se pueden construir sobre grupos no abelianos , dando lugar a teorías de gauge no abelianas (también conocidas como teorías de Yang-Mills). La cromodinámica cuántica , que describe la interacción fuerte, es una teoría de gauge no abeliana con una simetría de gauge SU (3) . Contiene tres campos de Dirac ψ i , i = 1,2,3 que representan campos de quarks , así como ocho campos vectoriales A a, μ , a = 1, ..., 8 que representan campos de gluones , que son el indicador SU (3) bosones. La densidad lagrangiana de QCD es:

donde D μ es la derivada covariante de calibre :

donde g es la constante de acoplamiento, t a son los ocho generadores de SU (3) en la representación fundamental ( matrices 3 × 3 ),

y f abc son las constantes de estructura de SU (3) . Los índices repetidos i , j , a se suman implícitamente siguiendo la notación de Einstein. Este lagrangiano es invariante bajo la transformación:

donde U ( x ) es un elemento de SU (3) en cada punto del espacio-tiempo x :

La discusión anterior de las simetrías está en el nivel del Lagrangiano. En otras palabras, se trata de simetrías "clásicas". Después de la cuantificación, algunas teorías ya no exhibirán sus simetrías clásicas, un fenómeno llamado anomalía . Por ejemplo, en la formulación de la integral de trayectoria, a pesar de la invariancia de la densidad lagrangiana bajo una determinada transformación local de los campos, la medida de la integral de trayectoria puede cambiar. Para que una teoría que describe la naturaleza sea consistente, no debe contener ninguna anomalía en su simetría de calibre. El modelo estándar de partículas elementales es una teoría de gauge basada en el grupo SU (3) × SU (2) × U (1) , en el que todas las anomalías se cancelan exactamente.

El fundamento teórico de la relatividad general , el principio de equivalencia , también puede entenderse como una forma de simetría gauge, lo que convierte a la relatividad general en una teoría gauge basada en el grupo de Lorentz .

El teorema de Noether establece que toda simetría continua, es decir , el parámetro en la transformación de simetría es continuo en lugar de discreto, conduce a una ley de conservación correspondiente . Por ejemplo, la simetría U (1) de QED implica conservación de carga .

Las transformaciones de calibre no relacionan estados cuánticos distintos. Más bien, relaciona dos descripciones matemáticas equivalentes del mismo estado cuántico. Como ejemplo, el campo de fotones A μ , que es un cuatro vector , tiene cuatro grados aparentes de libertad, pero el estado real de un fotón se describe por sus dos grados de libertad correspondientes a la polarización . Se dice que los dos grados de libertad restantes son "redundantes": aparentemente diferentes formas de escribir A μ pueden relacionarse entre sí mediante una transformación de calibre y, de hecho, describen el mismo estado del campo de fotones. En este sentido, la invariancia de gauge no es una simetría "real", sino un reflejo de la "redundancia" de la descripción matemática elegida.

Para tener en cuenta la redundancia del medidor en la formulación de la integral de trayectoria, se debe realizar el llamado procedimiento de fijación del medidor Faddeev-Popov . En las teorías de gauge no abelianas, tal procedimiento introduce nuevos campos llamados "fantasmas". Las partículas correspondientes a los campos fantasma se denominan partículas fantasma, que no pueden detectarse externamente. La cuantificación BRST proporciona una generalización más rigurosa del procedimiento de Faddeev-Popov .

Ruptura espontánea de la simetría

La ruptura espontánea de la simetría es un mecanismo por el cual la simetría del Lagrangiano es violada por el sistema descrito por él.

Para ilustrar el mecanismo, considere un modelo sigma lineal que contiene N campos escalares reales, descrito por la densidad lagrangiana:

donde μ y λ son parámetros reales. La teoría admite una simetría global O ( N ) :

El estado de energía más bajo (estado fundamental o estado de vacío) de la teoría clásica es cualquier campo uniforme ϕ 0 que satisfaga

Sin pérdida de generalidad, deje que el estado fundamental esté en la dirección N -ésima:

Los N campos originales se pueden reescribir como:

y la densidad lagrangiana original como:

donde k = 1, ..., N -1 . La simetría global O ( N ) original ya no se manifiesta, dejando solo el subgrupo O ( N -1) . Se dice que la simetría mayor antes de la ruptura espontánea de la simetría está "oculta" o se rompe espontáneamente.

El teorema de Goldstone establece que, en caso de ruptura espontánea de la simetría, toda simetría global continua quebrada conduce a un campo sin masa llamado bosón de Goldstone. En el ejemplo anterior, O ( N ) tiene N ( N -1) / 2 simetrías continuas (la dimensión de su álgebra de Lie ), mientras que O ( N -1) tiene ( N -1) ( N -2) / 2 . El número de simetrías rotas es su diferencia, N -1 , que corresponde a los campos sin masa N -1 π k .

Por otro lado, cuando una simetría gauge (a diferencia de la global) se rompe espontáneamente, el bosón gauge correspondiente se "devora" al bosón gauge correspondiente al convertirse en un grado adicional de libertad para el bosón gauge. El teorema de equivalencia del bosón de Goldstone establece que a alta energía, la amplitud de emisión o absorción de un bosón gauge masivo polarizado longitudinalmente se vuelve igual a la amplitud de emisión o absorción del bosón Goldstone que fue devorado por el bosón gauge.

En el QFT del ferromagnetismo , la ruptura espontánea de la simetría puede explicar la alineación de los dipolos magnéticos a bajas temperaturas. En el modelo estándar de partículas elementales, los bosones W y Z , que de otro modo no tendrían masa como resultado de la simetría gauge, adquieren masa a través de la ruptura espontánea de la simetría del bosón de Higgs , un proceso llamado mecanismo de Higgs .

Supersimetría

Todas las simetrías conocidas experimentalmente en la naturaleza relacionan bosones con bosones y fermiones con fermiones. Los teóricos han planteado la hipótesis de la existencia de un tipo de simetría, llamada supersimetría , que relaciona bosones y fermiones.

El Modelo Estándar obedece a la simetría de Poincaré , cuyos generadores son las traslaciones espacio-temporales P μ y las transformaciones de Lorentz J μν . Además de estos generadores, la supersimetría en las dimensiones (3 + 1) incluye generadores adicionales Q α , llamados supercargas , que a su vez se transforman en fermiones de Weyl . El grupo de simetría generado por todos estos generadores se conoce como grupo super-Poincaré . En general, puede haber más de un conjunto de generadores de supersimetría, Q α I , I = 1, ..., N , que generan la correspondiente supersimetría N = 1 , supersimetría N = 2 , etc. La supersimetría también se puede construir en otras dimensiones, sobre todo en las dimensiones (1 + 1) para su aplicación en la teoría de supercuerdas .

El lagrangiano de una teoría supersimétrica debe ser invariante bajo la acción del grupo superpoincaré. Ejemplos de tales teorías incluyen: Modelo Estándar Mínimo Supersimétrico (MSSM), teoría de Yang-Mills supersimétrica N = 4 y teoría de supercuerdas. En una teoría supersimétrica, cada fermión tiene una bosónico supercompañera y viceversa.

Si la supersimetría se promueve a una simetría local, entonces la teoría de gauge resultante es una extensión de la relatividad general llamada supergravedad .

La supersimetría es una posible solución a muchos problemas actuales de la física. Por ejemplo, el problema de la jerarquía del modelo estándar, por qué la masa del bosón de Higgs no se corrige radiativamente (bajo renormalización) a una escala muy alta, como la gran escala unificada o la escala de Planck, se puede resolver relacionando el campo de Higgs. y su supercompañero , el Higgsino . Las correcciones radiativas debidas a los bucles del bosón de Higgs en los diagramas de Feynman se cancelan mediante los bucles de Higgsino correspondientes. La supersimetría también ofrece respuestas a la gran unificación de todas las constantes de acoplamiento del indicador en el modelo estándar, así como a la naturaleza de la materia oscura .

Sin embargo, a partir de 2018, los experimentos aún deben proporcionar evidencia de la existencia de partículas supersimétricas. Si la supersimetría fuera una verdadera simetría de la naturaleza, entonces debe ser una simetría rota, y la energía de la ruptura de la simetría debe ser mayor que la que se puede lograr con los experimentos actuales.

Otros espaciotiempos

La teoría ϕ 4 , QED, QCD, así como todo el Modelo Estándar, asumen un espacio de Minkowski (3 + 1) -dimensional (3 dimensiones espaciales y 1 temporal) como el fondo sobre el que se definen los campos cuánticos. Sin embargo, QFT a priori no impone ninguna restricción al número de dimensiones ni a la geometría del espacio-tiempo.

En física de la materia condensada , QFT se utiliza para describir gases de electrones (2 + 1) dimensionales . En física de altas energías , la teoría de cuerdas es un tipo de QFT (1 + 1) -dimensional, mientras que la teoría de Kaluza-Klein usa la gravedad en dimensiones adicionales para producir teorías de gauge en dimensiones inferiores.

En el espacio de Minkowski, la métrica plana η μν se usa para aumentar y disminuir los índices de espacio-tiempo en el Lagrangiano, p . Ej.

donde η μν es la inversa de η μν que satisface η μρ η ρν = δ μ ν . Para QFT en el espacio-tiempo curvo, por otro lado, se usa una métrica general (como la métrica de Schwarzschild que describe un agujero negro ):

donde g μν es la inversa de g μν . Para un campo escalar real, la densidad lagrangiana en un fondo de espacio-tiempo general es

donde g = det ( g μν ) , y μ denota la derivada covariante . El lagrangiano de un QFT, de ahí sus resultados de cálculo y predicciones físicas, depende de la geometría del fondo del espacio-tiempo.

Teoría de campos cuánticos topológicos

Las funciones de correlación y las predicciones físicas de un QFT dependen de la métrica del espacio-tiempo g μν . Para una clase especial de QFT llamadas teorías de campos cuánticos topológicos (TQFT), todas las funciones de correlación son independientes de los cambios continuos en la métrica del espacio-tiempo. Los QFT en el espacio-tiempo curvo generalmente cambian de acuerdo con la geometría (estructura local) del fondo del espacio-tiempo, mientras que los TQFT son invariantes bajo difeomorfismos del espacio-tiempo pero son sensibles a la topología (estructura global) del espacio-tiempo. Esto significa que todos los resultados de cálculo de TQFT son invariantes topológicos del espacio-tiempo subyacente. La teoría de Chern-Simons es un ejemplo de TQFT y se ha utilizado para construir modelos de gravedad cuántica. Las aplicaciones de TQFT incluyen el efecto Hall cuántico fraccional y las computadoras cuánticas topológicas . La trayectoria de la línea mundial de partículas fraccionadas (conocidas como anónimas ) puede formar una configuración de enlace en el espacio-tiempo, que relaciona las estadísticas de trenzado de aniones en física con los invariantes de enlace en matemáticas. Las teorías de campo cuántico topológico (TQFT) aplicables a la investigación de frontera de asuntos cuánticos topológicos incluyen las teorías de calibre de Chern-Simons-Witten en dimensiones espaciotemporales 2 + 1, otras nuevas TQFT exóticas en dimensiones espaciotemporales 3 + 1 y más allá.

Métodos perturbativos y no perturbativos

Usando la teoría de la perturbación , el efecto total de un término de interacción pequeño puede aproximarse orden por orden mediante una expansión en serie en el número de partículas virtuales que participan en la interacción. Cada término de la expansión puede entenderse como una forma posible de que las partículas (físicas) interactúen entre sí a través de partículas virtuales, expresadas visualmente mediante un diagrama de Feynman . La fuerza electromagnética entre dos electrones en QED está representada (de primer orden en la teoría de la perturbación) por la propagación de un fotón virtual. De manera similar, los bosones W y Z llevan la interacción débil, mientras que los gluones llevan la interacción fuerte. La interpretación de una interacción como una suma de estados intermedios que implican el intercambio de varias partículas virtuales sólo tiene sentido en el marco de la teoría de la perturbación. Por el contrario, los métodos no perturbativos en QFT tratan al lagrangiano que interactúa como un todo sin ninguna expansión de la serie. En lugar de partículas que llevan interacciones, estos métodos han generado conceptos como monopolo 't Hooft-Polyakov , pared de dominio , tubo de flujo e instanton . Ejemplos de QFT que son completamente solucionables de forma no perturbativa incluyen modelos mínimos de teoría de campo conforme y el modelo Thirring .

Rigor matemático

A pesar de su abrumador éxito en física de partículas y física de materia condensada, QFT en sí mismo carece de una base matemática formal. Por ejemplo, según el teorema de Haag , no existe una imagen de interacción bien definida para QFT, lo que implica que la teoría de perturbación de QFT, que subyace a todo el método del diagrama de Feynman , está fundamentalmente mal definida.

Sin embargo, la teoría de campos cuánticos perturbativos , que solo requiere que las cantidades sean computables como una serie de potencia formal sin ningún requisito de convergencia, puede recibir un tratamiento matemático riguroso. En particular, la monografía de Kevin Costello Renormalización y teoría del campo efectivo proporciona una formulación rigurosa de renormalización perturbativa que combina los enfoques de la teoría del campo efectivo de Kadanoff , Wilson y Polchinski , junto con el enfoque de Batalin-Vilkovisky para cuantificar las teorías de gauge. Además, los métodos perturbativos de trayectoria integral, generalmente entendidos como métodos computacionales formales inspirados en la teoría de la integración de dimensión finita, pueden recibir una interpretación matemática sólida a partir de sus análogos de dimensión finita.

Desde la década de 1950, los físicos teóricos y los matemáticos han intentado organizar todas las QFT en un conjunto de axiomas , con el fin de establecer la existencia de modelos concretos de QFT relativista de una manera matemáticamente rigurosa y estudiar sus propiedades. Esta línea de estudio se llama la teoría cuántica de campos constructiva , un subcampo de la física matemática , lo que ha dado lugar a resultados tales como el teorema CPT , teorema spin-estadísticas , y el teorema de Goldstone , y también para construcciones matemáticamente rigurosa de muchos QFTs que interactúan en dos y tres dimensiones del espacio-tiempo, por ejemplo, teorías de campos escalares bidimensionales con interacciones polinómicas arbitrarias, teorías de campos escalares tridimensionales con una interacción cuártica, etc.

En comparación con QFT ordinaria, la teoría cuántica de campos topológica y la teoría conforme de campos están mejor soportados matemáticamente - ambos pueden ser clasificados en el marco de las representaciones de cobordisms .

La teoría de campos cuánticos algebraicos es otro enfoque de la axiomatización de QFT, en el que los objetos fundamentales son los operadores locales y las relaciones algebraicas entre ellos. Los sistemas axiomáticos que siguen este enfoque incluyen los axiomas de Wightman y los axiomas de Haag-Kastler . Una forma de construir teorías que satisfagan los axiomas de Wightman es utilizar axiomas de Osterwalder-Schrader , que brindan las condiciones necesarias y suficientes para que se obtenga una teoría del tiempo real a partir de una teoría del tiempo imaginario por continuación analítica ( rotación de Wick ).

La existencia de Yang-Mills y la brecha de masas , uno de los Problemas del Premio del Milenio , se refiere a la existencia bien definida de las teorías de Yang-Mills según lo establecido por los axiomas anteriores. El enunciado completo del problema es el siguiente.

Demuestre que para cualquier grupo de calibre simple compacto G , existe una teoría cuántica de Yang-Mills no trivial y tiene una brecha de masa Δ> 0 . La existencia incluye el establecimiento de propiedades axiomáticas al menos tan fuertes como las citadas en Streater y Wightman (1964) , Osterwalder y Schrader (1973) y Osterwalder y Schrader (1975) .

Ver también

Referencias

Otras lecturas

Lectores generales
Textos introductorios
Textos avanzados

enlaces externos