Dualidad onda-partícula - Wave–particle duality

La dualidad onda-partícula es el concepto en mecánica cuántica según el cual cada partícula o entidad cuántica puede describirse como una partícula o una onda . Expresa la incapacidad de los conceptos clásicos de "partícula" u "onda" para describir completamente el comportamiento de los objetos de escala cuántica . Como escribió Albert Einstein :

Parece que debemos usar a veces una teoría y a veces la otra, mientras que a veces podemos usar cualquiera de las dos. Nos enfrentamos a un nuevo tipo de dificultad. Tenemos dos imágenes contradictorias de la realidad; por separado ninguno de ellos explica completamente los fenómenos de la luz, pero juntos lo hacen.

A través del trabajo de Max Planck , Albert Einstein , Louis de Broglie , Arthur Compton , Niels Bohr , Erwin Schrödinger y muchos otros, la teoría científica actual sostiene que todas las partículas exhiben una naturaleza ondulatoria y viceversa. Este fenómeno se ha verificado no solo para partículas elementales, sino también para partículas compuestas como átomos e incluso moléculas. Para las partículas macroscópicas , debido a sus longitudes de onda extremadamente cortas, las propiedades de onda generalmente no se pueden detectar.

Aunque el uso de la dualidad onda-partícula ha funcionado bien en física, el significado o interpretación no se ha resuelto satisfactoriamente; ver Interpretaciones de la mecánica cuántica .

Bohr consideró la " paradoja de la dualidad " como un hecho fundamental o metafísico de la naturaleza. Un tipo dado de objeto cuántico exhibirá a veces una onda, a veces una partícula, carácter, en configuraciones físicas respectivamente diferentes. Vio esa dualidad como un aspecto del concepto de complementariedad . Bohr consideraba que la renuncia a la relación causa-efecto, o complementariedad, de la imagen del espacio-tiempo, era esencial para la explicación de la mecánica cuántica.

Werner Heisenberg consideró la cuestión más a fondo. Vio la dualidad como presente para todas las entidades cuánticas, pero no del todo en la cuenta mecánica cuántica habitual considerada por Bohr. Lo vio en lo que se llama segunda cuantificación , que genera un concepto completamente nuevo de campos que existen en el espacio-tiempo ordinario, siendo la causalidad aún visualizable. Los valores de campo clásicos (por ejemplo, las intensidades de campo eléctrico y magnético de Maxwell ) se reemplazan por un tipo de valor de campo completamente nuevo, como se considera en la teoría cuántica de campos . Dando la vuelta al razonamiento, la mecánica cuántica ordinaria se puede deducir como una consecuencia especializada de la teoría cuántica de campos.

Historia

Teorías clásicas de partículas y ondas de la luz

Bosquejo de Thomas Young de difracción de ondas de dos rendijas , 1803

Demócrito (siglo V a. C.) argumentó que todas las cosas en el universo, incluida la luz , están compuestas por subcomponentes indivisibles. Euclides (siglos IV-III a. C.) da tratados sobre la propagación de la luz, establece el principio de la trayectoria más corta de la luz, que incluye múltiples reflejos en espejos, incluidos los esféricos, mientras que Plutarco (siglos I-II d. C.) describe múltiples reflejos en espejos esféricos discutiendo la creación. de imágenes más grandes o más pequeñas, reales o imaginarias, incluido el caso de quiralidad de las imágenes. A principios del siglo XI, el científico árabe Ibn al-Haytham escribió el primer libro completo de óptica que describe la reflexión , la refracción y el funcionamiento de una lente estenopeica a través de rayos de luz que viajan desde el punto de emisión hasta el ojo. Afirmó que estos rayos estaban compuestos de partículas de luz. En 1630, René Descartes popularizó y acreditó la descripción de ondas opuestas en su tratado sobre la luz, El mundo (Descartes) , mostrando que el comportamiento de la luz podría recrearse modelando perturbaciones ondulantes en un medio universal, es decir, el éter luminífero . A partir de 1670 y progresando durante tres décadas, Isaac Newton desarrolló y defendió su teoría corpuscular , argumentando que las líneas de reflexión perfectamente rectas demostraban la naturaleza de las partículas de la luz, solo las partículas podían viajar en líneas tan rectas. Explicó la refracción postulando que las partículas de luz se aceleraban lateralmente al entrar en un medio más denso. Casi al mismo tiempo, los contemporáneos de Newton, Robert Hooke y Christiaan Huygens , y más tarde Augustin-Jean Fresnel , refinaron matemáticamente el punto de vista de las ondas, mostrando que si la luz viajaba a diferentes velocidades en diferentes medios, la refracción podría explicarse fácilmente como la propagación dependiente del medio de ondas de luz. El principio resultante de Huygens-Fresnel fue extremadamente exitoso en la reproducción del comportamiento de la luz y posteriormente fue apoyado por el descubrimiento de Thomas Young de la interferencia de ondas de luz en su experimento de doble rendija en 1801. La vista de ondas no desplazó inmediatamente la vista de rayos y partículas, pero comenzó a dominar el pensamiento científico sobre la luz a mediados del siglo XIX, ya que podía explicar fenómenos de polarización que las alternativas no podían.

James Clerk Maxwell descubrió que podía aplicar las ecuaciones de Maxwell descubiertas anteriormente , junto con una ligera modificación para describir ondas autopropagantes de campos eléctricos y magnéticos oscilantes. Rápidamente se hizo evidente que la luz visible, la luz ultravioleta y la luz infrarroja eran todas ondas electromagnéticas de diferente frecuencia.

Radiación de cuerpo negro y ley de Planck

En 1901, Max Planck publicó un análisis que logró reproducir el espectro de luz observado emitido por un objeto brillante. Para lograr esto, Planck tuvo que hacer una suposición matemática de la energía cuantificada de los osciladores, es decir, los átomos del cuerpo negro que emiten radiación. Más tarde, Einstein propuso que la radiación electromagnética en sí misma está cuantificada, no la energía de los átomos radiantes.

La radiación de cuerpo negro, la emisión de energía electromagnética debida al calor de un objeto, no puede explicarse únicamente con argumentos clásicos. El teorema de equipartición de la mecánica clásica, la base de todas las teorías termodinámicas clásicas, estableció que la energía de un objeto se divide por igual entre los modos vibracionales del objeto . Pero aplicar el mismo razonamiento a la emisión electromagnética de tal objeto térmico no tuvo tanto éxito. Se sabía desde hace mucho tiempo que los objetos térmicos emiten luz. Dado que se sabía que la luz era ondas de electromagnetismo, los físicos esperaban describir esta emisión mediante leyes clásicas. Esto se conoció como el problema del cuerpo negro. Dado que el teorema de equipartición funcionó tan bien al describir los modos vibracionales del propio objeto térmico, era natural suponer que funcionaría igualmente bien al describir la emisión radiativa de tales objetos. Pero surgió rápidamente un problema si cada modo recibía una partición igual de energía, los modos de longitud de onda corta consumirían toda la energía. Esto quedó claro al graficar la ley de Rayleigh-Jeans , que, aunque predice correctamente la intensidad de las emisiones de longitud de onda larga, predijo energía total infinita cuando la intensidad diverge hasta el infinito para las longitudes de onda cortas. Esto se conoció como la catástrofe ultravioleta .

En 1900, Max Planck planteó la hipótesis de que la frecuencia de la luz emitida por el cuerpo negro dependía de la frecuencia del oscilador que lo emitía, y la energía de estos osciladores aumentaba linealmente con la frecuencia (según E = hf donde h es la constante de Planck yf es la frecuencia). Esta no fue una propuesta poco sólida considerando que los osciladores macroscópicos operan de manera similar al estudiar cinco osciladores armónicos simples de igual amplitud pero diferente frecuencia, el oscilador con la frecuencia más alta posee la energía más alta (aunque esta relación no es lineal como la de Planck). Al exigir que la luz de alta frecuencia debe ser emitida por un oscilador de igual frecuencia, y al exigir además que este oscilador ocupe una energía más alta que uno de menor frecuencia, Planck evitó cualquier catástrofe, dando una partición igual a los osciladores de alta frecuencia producidos sucesivamente menos. osciladores y luz menos emitida. Y como en la distribución de Maxwell-Boltzmann , los osciladores de baja frecuencia y baja energía fueron suprimidos por la avalancha de sacudidas térmicas de los osciladores de mayor energía, que necesariamente aumentaron su energía y frecuencia.

El aspecto más revolucionario del tratamiento de Planck del cuerpo negro es que se basa inherentemente en un número entero de osciladores en equilibrio térmico con el campo electromagnético. Estos osciladores dan toda su energía al campo electromagnético, creando un cuanto de luz, tan a menudo como son excitados por el campo electromagnético, absorbiendo un cuanto de luz y comenzando a oscilar a la frecuencia correspondiente. Planck había creado intencionalmente una teoría atómica del cuerpo negro, pero había generado involuntariamente una teoría atómica de la luz, donde el cuerpo negro nunca genera cuantos de luz a una frecuencia dada con una energía menor que hf . Sin embargo, una vez que se dio cuenta de que había cuantificado el campo electromagnético, denunció las partículas de luz como una limitación de su aproximación, no una propiedad de la realidad.

Efecto fotoeléctrico

El efecto fotoeléctrico. Los fotones entrantes a la izquierda golpean una placa de metal (abajo) y expulsan electrones, representados como volando hacia la derecha.

Si bien Planck había resuelto la catástrofe ultravioleta mediante el uso de átomos y un campo electromagnético cuantificado, la mayoría de los físicos contemporáneos estaban de acuerdo en que los "cuantos de luz" de Planck representaban solo fallas en su modelo. Una derivación más completa de la radiación de cuerpo negro produciría un campo electromagnético completamente continuo y "en forma de onda" sin cuantificación. Sin embargo, en 1905 Albert Einstein tomó el modelo de cuerpo negro de Planck para producir su solución a otro problema destacado del día: el efecto fotoeléctrico , en el que los átomos emiten electrones cuando absorben energía de la luz. Desde que se teorizó su existencia ocho años antes, los fenómenos se habían estudiado con el modelo electrónico en mente en los laboratorios de física de todo el mundo.

En 1902, Philipp Lenard descubrió que la energía de estos electrones expulsados ​​no dependía de la intensidad de la luz entrante, sino de su frecuencia. Entonces, si uno ilumina un poco de luz de baja frecuencia sobre un metal, se expulsan algunos electrones de baja energía. Si uno proyecta ahora un haz muy intenso de luz de baja frecuencia sobre el mismo metal, se expulsa una gran cantidad de electrones; sin embargo, poseen la misma baja energía, simplemente hay más de ellos. Cuanta más luz hay, más electrones se expulsan. Mientras que para obtener electrones de alta energía, uno debe iluminar el metal con luz de alta frecuencia. Como la radiación de cuerpo negro, esto estaba en desacuerdo con una teoría que invoca la transferencia continua de energía entre la radiación y la materia. Sin embargo, todavía se puede explicar utilizando una descripción completamente clásica de la luz, siempre que la materia sea de naturaleza mecánica cuántica.

Si se usaran los cuantos de energía de Planck y se exigiera que la radiación electromagnética a una frecuencia determinada solo pudiera transferir energía a la materia en múltiplos enteros de un cuanto de energía hf , entonces el efecto fotoeléctrico podría explicarse de manera muy simple. La luz de baja frecuencia solo expulsa electrones de baja energía porque cada electrón es excitado por la absorción de un solo fotón. Aumentar la intensidad de la luz de baja frecuencia (aumentar el número de fotones) solo aumenta el número de electrones excitados, no su energía, porque la energía de cada fotón permanece baja. Solo aumentando la frecuencia de la luz, y aumentando así la energía de los fotones, se pueden expulsar electrones con mayor energía. Por lo tanto, utilizando la constante h de Planck para determinar la energía de los fotones en función de su frecuencia, la energía de los electrones expulsados ​​también debería aumentar linealmente con la frecuencia, siendo el gradiente de la línea la constante de Planck. Estos resultados no se confirmaron hasta 1915, cuando Robert Andrews Millikan produjo resultados experimentales en perfecto acuerdo con las predicciones de Einstein.

Si bien la energía de los electrones expulsados ​​reflejaba la constante de Planck, la existencia de fotones no se probó explícitamente hasta el descubrimiento del efecto antibunching de fotones . Esto se refiere a la observación de que una vez que un solo emisor (un átomo, molécula, emisor de estado sólido, etc.) irradia una señal de luz detectable, no puede emitir inmediatamente una segunda señal hasta que el emisor haya sido reactivado. Esto conduce a un retraso de tiempo estadísticamente cuantificable entre las emisiones de luz, por lo que la detección de múltiples señales se vuelve cada vez más improbable a medida que el tiempo de observación desciende por debajo de la vida útil del emisor en estado excitado. El efecto se puede demostrar en un laboratorio de nivel universitario.

Este fenómeno solo podría explicarse a través de fotones. Los "cuantos de luz" de Einstein no se llamarían fotones hasta 1925, pero incluso en 1905 representaban el ejemplo por excelencia de la dualidad onda-partícula. La radiación electromagnética se propaga siguiendo ecuaciones de onda lineal, pero solo se puede emitir o absorber como elementos discretos, actuando así como onda y partícula simultáneamente.

La explicación de Einstein del efecto fotoeléctrico

En 1905, Albert Einstein proporcionó una explicación del efecto fotoeléctrico, un experimento que la teoría ondulatoria de la luz no pudo explicar. Lo hizo postulando la existencia de fotones, cuantos de energía luminosa con cualidades particuladas.

En el efecto fotoeléctrico , se observó que hacer brillar una luz sobre ciertos metales conduciría a una corriente eléctrica en un circuito . Presumiblemente, la luz estaba sacando electrones del metal, haciendo que fluyera la corriente. Sin embargo, usando el caso del potasio como ejemplo, también se observó que si bien una luz azul tenue era suficiente para causar una corriente, incluso la luz roja más fuerte y brillante disponible con la tecnología de la época no causaba ninguna corriente. Según la teoría clásica de la luz y la materia, la fuerza o amplitud de una onda de luz era proporcional a su brillo: una luz brillante debería haber sido lo suficientemente fuerte como para crear una gran corriente. Sin embargo, curiosamente, esto no fue así.

Einstein explicó este enigma postulando que los electrones pueden recibir energía del campo electromagnético solo en unidades discretas (cuantos o fotones): una cantidad de energía E que estaba relacionada con la frecuencia f de la luz por

donde h es la constante de Planck (6,626 × 10 −34 Js). Solo los fotones de una frecuencia lo suficientemente alta (por encima de un cierto valor umbral ) podrían liberar un electrón. Por ejemplo, los fotones de luz azul tenían suficiente energía para liberar un electrón del metal, pero los fotones de luz roja no. Un fotón de luz por encima de la frecuencia umbral podría liberar sólo un electrón; cuanto mayor sea la frecuencia de un fotón, mayor será la energía cinética del electrón emitido, pero ninguna cantidad de luz por debajo del umbral de frecuencia podría liberar un electrón. Para violar esta ley se necesitarían láseres de intensidad extremadamente alta que aún no se habían inventado. Los fenómenos dependientes de la intensidad ahora se han estudiado en detalle con tales láseres.

Einstein recibió el Premio Nobel de Física en 1921 por su descubrimiento de la ley del efecto fotoeléctrico.

la hipótesis de de Broglie

Propagación de ondas de Broglie en 1d: la parte real de la amplitud compleja es azul, la parte imaginaria es verde. La probabilidad (mostrada como la opacidad del color ) de encontrar la partícula en un punto dado x se extiende como una forma de onda; no hay una posición definida de la partícula. A medida que la amplitud aumenta por encima de cero, la curvatura disminuye, por lo que la amplitud disminuye nuevamente y viceversa; el resultado es una amplitud alterna: una onda. Arriba: Onda plana . Abajo: paquete Wave .

En 1924, Louis-Victor de Broglie formuló la hipótesis de De Broglie , afirmando que toda la materia tiene una naturaleza ondulatoria, relacionó la longitud de onda y el momento :

Esta es una generalización de la ecuación de Einstein anterior, ya que el momento de un fotón está dado por p = y la longitud de onda (en el vacío) por λ = , donde c es la velocidad de la luz en el vacío.

La fórmula de De Broglie se confirmó tres años después para los electrones con la observación de la difracción de electrones en dos experimentos independientes. En la Universidad de Aberdeen , George Paget Thomson pasó un haz de electrones a través de una fina película de metal y observó los patrones de interferencia predichos. En Bell Labs , Clinton Joseph Davisson y Lester Halbert Germer guiaron el haz de electrones a través de una rejilla cristalina en su experimento conocido popularmente como experimento Davisson-Germer .

De Broglie recibió el Premio Nobel de Física en 1929 por su hipótesis. Thomson y Davisson compartieron el Premio Nobel de Física en 1937 por su trabajo experimental.

Principio de incertidumbre de Heisenberg

En su trabajo sobre la formulación de la mecánica cuántica, Werner Heisenberg postuló su principio de incertidumbre, que establece:

dónde

aquí indica desviación estándar , una medida de dispersión o incertidumbre;
x y p son la posición de una partícula y la cantidad de movimiento respectivamente.
es la constante de Planck reducida (la constante de Planck dividida por 2 ).

Heisenberg originalmente explicó esto como una consecuencia del proceso de medición: medir la posición con precisión perturbaría el impulso y viceversa, ofreciendo un ejemplo (el "microscopio de rayos gamma") que dependía de manera crucial de la hipótesis de De Broglie . Sin embargo, ahora se piensa que esto solo explica en parte el fenómeno, pero que la incertidumbre también existe en la partícula misma, incluso antes de que se realice la medición.

De hecho, la explicación moderna del principio de incertidumbre, que amplía la interpretación de Copenhague presentada por primera vez por Bohr y Heisenberg , depende aún más fundamentalmente de la naturaleza ondulatoria de una partícula. Así como no tiene sentido discutir la ubicación precisa de una onda en una cuerda, las partículas no tienen posiciones perfectamente precisas; del mismo modo, así como no tiene sentido discutir la longitud de onda de una onda de "pulso" que viaja por una cuerda, las partículas no tienen momentos perfectamente precisos que correspondan a la inversa de la longitud de onda. Además, cuando la posición está relativamente bien definida, la onda es similar a un pulso y tiene una longitud de onda muy mal definida y, por lo tanto, un impulso. Y a la inversa, cuando el impulso, y por lo tanto la longitud de onda, está relativamente bien definido, la onda parece larga y sinusoidal y, por lo tanto, tiene una posición muy mal definida.

teoría de De Broglie-Bohm

Experimentos de Couder, "materializando" el modelo de onda piloto

El propio De Broglie había propuesto una construcción de onda piloto para explicar la dualidad onda-partícula observada. En este punto de vista, cada partícula tiene una posición y un momento bien definidos, pero está guiada por una función de onda derivada de la ecuación de Schrödinger . La teoría de la onda piloto fue inicialmente rechazada porque generaba efectos no locales cuando se aplicaba a sistemas que involucraban más de una partícula. Sin embargo, la no localidad pronto se estableció como una característica integral de la teoría cuántica y David Bohm extendió el modelo de De Broglie para incluirlo explícitamente.

En la representación resultante, también llamada teoría de Broglie-Bohm o mecánica bohmiana, la dualidad onda-partícula desaparece y explica el comportamiento de la onda como una dispersión con apariencia de onda, porque el movimiento de la partícula está sujeto a una ecuación guía o potencial cuántico .

Esta idea me parece tan natural y simple, para resolver el dilema onda-partícula de una manera tan clara y ordinaria, que es un gran misterio para mí que haya sido tan generalmente ignorada. - JSBell

La mejor ilustración del modelo de onda piloto fue dada por los experimentos de "gotas andantes" de Couder de 2010, que demuestran el comportamiento de la onda piloto en un análogo mecánico macroscópico.

Naturaleza ondulatoria de objetos grandes

Desde las demostraciones de propiedades ondulatorias en fotones y electrones , se han realizado experimentos similares con neutrones y protones . Entre los experimentos más famosos se encuentran los de Estermann y Otto Stern en 1929. Los autores de experimentos recientes similares con átomos y moléculas, descritos a continuación, afirman que estas partículas más grandes también actúan como ondas.

En la década de 1970 se llevó a cabo una espectacular serie de experimentos que enfatizaban la acción de la gravedad en relación con la dualidad onda-partícula utilizando el interferómetro de neutrones . Los neutrones, uno de los componentes del núcleo atómico , proporcionan gran parte de la masa de un núcleo y, por tanto, de la materia ordinaria. En el interferómetro de neutrones, actúan como ondas mecánicas cuánticas sujetas directamente a la fuerza de la gravedad. Si bien los resultados no fueron sorprendentes, ya que se sabía que la gravedad actuaba sobre todo, incluida la luz (ver pruebas de relatividad general y el experimento de caída de fotones de Pound-Rebka ), la autointerferencia de la onda mecánica cuántica de un fermión masivo en un campo gravitacional. nunca antes había sido confirmado experimentalmente.

En 1999, se informó sobre la difracción de fullerenos C 60 por investigadores de la Universidad de Viena . Los fullerenos son objetos comparativamente grandes y masivos, que tienen una masa atómica de aproximadamente 720 u . La longitud de onda de De Broglie del haz incidente fue de aproximadamente 2,5  pm , mientras que el diámetro de la molécula es de aproximadamente 1  nm , aproximadamente 400 veces mayor. En 2012, estos experimentos de difracción de campo lejano podrían extenderse a las moléculas de ftalocianina y sus derivados más pesados, que están compuestos por 58 y 114 átomos respectivamente. En estos experimentos, la acumulación de dichos patrones de interferencia podría registrarse en tiempo real y con sensibilidad de una sola molécula.

En 2003, el grupo de Viena también demostró la naturaleza ondulatoria de la tetrafenilporfirina , un colorante biológico plano con una extensión de aproximadamente 2 nm y una masa de 614 u. Para esta demostración, emplearon un interferómetro Talbot Lau de campo cercano . En el mismo interferómetro también encontraron franjas de interferencia para C 60 F 48 , una buckybola fluorada con una masa de aproximadamente 1600 u, compuesta por 108 átomos. Las moléculas grandes ya son tan complejas que dan acceso experimental a algunos aspectos de la interfaz cuántica-clásica, es decir, a ciertos mecanismos de decoherencia . En 2011, se pudo demostrar la interferencia de moléculas tan pesadas como 6910 u en un interferómetro Kapitza-Dirac-Talbot-Lau. En 2013, se demostró la interferencia de moléculas superiores a 10.000 u.

Si los objetos más pesados ​​que la masa de Planck (aproximadamente el peso de una bacteria grande) tienen una longitud de onda de De Broglie es teóricamente confuso y experimentalmente inalcanzable; por encima de la masa de Planck, la longitud de onda de Compton de una partícula sería más pequeña que la longitud de Planck y su propio radio de Schwarzschild , una escala en la que las teorías físicas actuales pueden romperse o necesitar ser reemplazadas por otras más generales.

Couder, Fort y col. demostró que las gotas de aceite macroscópicas en un baño de fluido vibrante pueden usarse como un modelo analógico de la dualidad onda-partícula; una gota localizada crea un campo de ondas periódico a su alrededor. La interacción resonante entre la gota y su propio campo de ondas exhibe un comportamiento análogo a las partículas cuánticas: interferencia en el experimento de doble rendija, tunelización impredecible (dependiendo de forma complicada del estado de campo prácticamente oculto), cuantificación de la órbita (esa partícula tiene que 'encontrar una resonancia 'con las perturbaciones de campo que crea (después de una órbita, su fase interna tiene que volver al estado inicial) y el efecto Zeeman . Tenga en cuenta que otros experimentos de rendija simple y doble han demostrado que las interacciones pared-gota en lugar de la difracción o interferencia de la onda piloto pueden ser responsables de los patrones hidrodinámicos observados, que son diferentes de los patrones de interferencia inducidos por rendija exhibidos por partículas cuánticas.

Importancia

La dualidad onda-partícula está profundamente arraigada en los cimientos de la mecánica cuántica . En el formalismo de la teoría, toda la información sobre una partícula está codificada en su función de onda , una función de valor complejo aproximadamente análoga a la amplitud de una onda en cada punto del espacio. Esta función evoluciona según la ecuación de Schrödinger . Para partículas con masa, esta ecuación tiene soluciones que siguen la forma de la ecuación de onda. La propagación de tales ondas conduce a fenómenos ondulatorios como la interferencia y la difracción. Las partículas sin masa, como los fotones, no tienen soluciones de la ecuación de Schrödinger. En lugar de una función de onda de partículas que localiza la masa en el espacio, se puede construir una función de onda de fotones a partir de la cinemática de Einstein para localizar la energía en coordenadas espaciales.

El comportamiento de partículas es más evidente debido a los fenómenos asociados con la medición en la mecánica cuántica . Al medir la ubicación de la partícula, la partícula se verá forzada a un estado más localizado como lo indica el principio de incertidumbre. Cuando se ve a través de este formalismo, la medición de la función de onda conducirá aleatoriamente al colapso de la función de onda a una función con un pico agudo en algún lugar. Para partículas con masa, la probabilidad de detectar la partícula en cualquier ubicación particular es igual a la amplitud al cuadrado de la función de onda allí. La medición devolverá una posición bien definida y está sujeta al principio de incertidumbre de Heisenberg .

Tras el desarrollo de la teoría cuántica de campos, la ambigüedad desapareció. El campo permite soluciones que siguen la ecuación de onda, que se denominan funciones de onda. El término partícula se usa para etiquetar las representaciones irreductibles del grupo de Lorentz que son permitidas por el campo. Una interacción como en un diagrama de Feynman se acepta como una aproximación conveniente desde el punto de vista del cálculo donde se sabe que los tramos salientes son simplificaciones de la propagación y las líneas internas son, en cierto orden, una expansión de la interacción de campo. Dado que el campo es no local y cuantificado, se explican los fenómenos que antes se pensaban como paradojas. Dentro de los límites de la dualidad onda-partícula, la teoría cuántica del campo da los mismos resultados.

Visualización

Hay dos formas de visualizar el comportamiento onda-partícula: mediante el modelo estándar y mediante la teoría de De Broglie-Bohr.

A continuación se muestra una ilustración de la dualidad onda-partícula en relación con la hipótesis de De Broglie y el principio de incertidumbre de Heisenberg, en términos de las funciones de onda del espacio de posición y momento de una partícula sin espín con masa en una dimensión. Estas funciones de onda son transformadas de Fourier entre sí.

Cuanto más localizada sea la función de onda del espacio de posición, más probable es que la partícula se encuentre con las coordenadas de posición en esa región y, en consecuencia, la función de onda del espacio-momento está menos localizada, por lo que los posibles componentes del momento que podría tener la partícula están más extendidos.

Por el contrario, cuanto más localizada es la función de onda del espacio-momento, más probable es que la partícula se encuentre con esos valores de los componentes del momento en esa región y, en consecuencia, menos localizada es la función de onda del espacio-posición, por lo que las coordenadas de posición que podría ocupar la partícula son más extendido.

Funciones de onda de posición x y momento p correspondientes a partículas cuánticas. La opacidad de color de las partículas corresponde a la densidad de probabilidad de encontrar la partícula con posición x o componente de momento p .
Arriba: Si se desconoce la longitud de onda λ , también lo son el momento p , el vector de onda k y la energía E (relaciones de De Broglie). Como la partícula está más localizada en el espacio de posición, Δ x es más pequeña que para Δ p x .
En pocas palabras: Si λ es conocido, por lo que son p , k , y E . Como la partícula está más localizada en el espacio del momento, Δ p es más pequeña que para Δ x .

Vistas alternativas

La dualidad onda-partícula es un enigma constante en la física moderna. La mayoría de los físicos aceptan la dualidad onda-partícula como la mejor explicación para una amplia gama de fenómenos observados; sin embargo, no está exento de controversias. Aquí también se presentan puntos de vista alternativos. Estos puntos de vista no son generalmente aceptados por la física dominante, pero sirven como base para una discusión valiosa dentro de la comunidad.

Vista tanto de partículas como de ondas

El modelo de onda piloto , desarrollado originalmente por Louis de Broglie y desarrollado posteriormente por David Bohm en la teoría de la variable oculta, propone que no hay dualidad, sino que un sistema exhibe propiedades de partículas y propiedades de onda simultáneamente, y las partículas son guiadas, de forma determinista. moda, por la onda piloto (o su " potencial cuántico "), que los dirigirá a áreas de interferencia constructiva con preferencia a áreas de interferencia destructiva . Esta idea es sostenida por una minoría significativa dentro de la comunidad física.

Al menos un físico considera que la "dualidad de ondas" no es un misterio incomprensible. LE Ballentine, Mecánica cuántica, Un desarrollo moderno (1989), p. 4, explica:

Cuando se descubrió por primera vez, la difracción de partículas fue una fuente de gran desconcierto. ¿Son las "partículas" realmente "ondas"? En los primeros experimentos, los patrones de difracción se detectaron de manera integral mediante una placa fotográfica, que no podía detectar partículas individuales. Como resultado, creció la noción de que las propiedades de las partículas y las ondas eran mutuamente incompatibles o complementarias, en el sentido de que se necesitarían diferentes aparatos de medición para observarlas. Sin embargo, esa idea fue sólo una desafortunada generalización de una limitación tecnológica. Hoy en día es posible detectar la llegada de electrones individuales y ver que el patrón de difracción emerge como un patrón estadístico formado por muchos puntos pequeños (Tonomura et al., 1989). Evidentemente, las partículas cuánticas son de hecho partículas, pero cuyo comportamiento es muy diferente al de la física clásica que esperaríamos.

El experimento de Afshar (2007) puede sugerir que es posible observar simultáneamente las propiedades de ondas y partículas de los fotones. Sin embargo, esta afirmación es cuestionada por otros científicos.

Vista solo de olas

La visión de sólo ondas fue formulada por primera vez por el premio Nobel Julian Schwinger en sus seis artículos sobre "La teoría de los campos cuantificados". La teoría de Schwinger se basa en extender la discretización observada en el experimento de Stern-Gerlach para incluir la intensidad de campo, de modo que la intensidad de campo sea descrita por el álgebra de Hilbert, no por números ordinarios. Este uso del espacio de Hilbert conduce a la existencia de unidades de campo individuales llamadas cuantos, que reemplazan los dos conceptos clásicos de partículas y ondas. El concepto de que los campos cuantificados son los componentes fundamentales de la naturaleza también ha sido establecido por el premio Nobel Frank Wilczek .

Según esta teoría, los cuantos son entidades separadas que evolucionan e interactúan según ecuaciones deterministas, excepto que cuando un cuanto transfiere su energía a un átomo absorbente, desaparece de todo el espacio. Lo que llamamos partícula es en realidad una unidad de campo holística que en su totalidad se comporta como una partícula. Incluso si se extiende a lo largo de muchos kilómetros, debe desaparecer instantáneamente, como un fotón que colapsa en una célula fotorreceptora en el ojo. No puedes tener solo una parte de un fotón.

Si bien el colapso instantáneo es difícil de aceptar para muchos físicos, no hay nada lógicamente inconsistente en él, ni viola el Principio de Relatividad. Eliminar un campo antes de que haya tenido la oportunidad de hacer algo no transmite ninguna información causal. El colapso de un cuanto implica solo correlaciones no locales entre eventos en ubicaciones separadas, y las correlaciones no pueden transmitir energía o información. Además, es un hecho experimental.

Carver Mead , un científico estadounidense y profesor de Caltech, también ha propuesto que la dualidad puede ser reemplazada por una visión de "sólo ondas". En su libro Collective Electrodynamics: Quantum Foundations of Electromagnetism (2000), Mead pretende analizar el comportamiento de electrones y fotones puramente en términos de funciones de onda de electrones, y atribuye el comportamiento aparente de partículas a efectos de cuantificación y autoestados. Según el crítico David Haddon:

Mead ha cortado el nudo gordiano de la complementariedad cuántica. Afirma que los átomos, con sus neutrones, protones y electrones, no son partículas en absoluto, sino ondas puras de materia. Mead cita como evidencia de la naturaleza exclusivamente ondulatoria de la luz y la materia el descubrimiento entre 1933 y 1996 de diez ejemplos de fenómenos ondulatorios puros, incluido el omnipresente láser de los reproductores de CD , las corrientes eléctricas autopropagantes de los superconductores y el sistema Bose. –Condensado de átomos de Einstein .

Albert Einstein , quien, en su búsqueda de una teoría del campo unificado , no aceptó la dualidad onda-partícula, escribió:

Esta doble naturaleza de la radiación (y de los corpúsculos materiales) ... ha sido interpretada por la mecánica cuántica de una manera ingeniosa y asombrosamente exitosa. Esta interpretación ... me parece sólo una salida temporal ...

La interpretación de muchos mundos (MWI) a veces se presenta como una teoría de sólo ondas, incluso por su creador, Hugh Everett, quien se refirió a MWI como "la interpretación de ondas".

los La hipótesis de las tres ondas de R. Horodecki relaciona la partícula con la onda. La hipótesis implica que una partícula masiva es un fenómeno ondulatorio intrínsecamente extendido espacialmente y temporalmente extendido por una ley no lineal.

los La teoría determinista del colapso considera el colapso y la medición como dos procesos físicos independientes. El colapso ocurre cuando dos paquetes de ondas se superponen espacialmente y satisfacen un criterio matemático, que depende de los parámetros de ambos paquetes de ondas. Es una contracción del volumen superpuesto. En un aparato de medición, uno de los dos paquetes de ondas es uno de los grupos atómicos, que constituyen el aparato, y los paquetes de ondas colapsan como máximo al volumen de dicho grupo. Esto imita la acción de una partícula puntual.

Vista solo de partículas

Aún en los días de la vieja teoría cuántica , William Duane fue pionero en una versión pre-mecánica cuántica de la dualidad onda-partícula , y otros, incluido Alfred Landé, la desarrollaron . Duane explicó la difracción de rayos X por un cristal en términos únicamente de su aspecto de partícula. La desviación de la trayectoria de cada fotón difractado se explicó como debida a la transferencia de momento cuantificado de la estructura espacialmente regular del cristal de difracción.

Vista sin ondas ni partículas

Se ha argumentado que nunca hay partículas u ondas exactas, sino solo algún compromiso o intermedio entre ellas. Por esta razón, en 1928 Arthur Eddington acuñó el nombre " wavicle " para describir los objetos, aunque no se usa regularmente en la actualidad. Una consideración es que no se pueden observar puntos matemáticos de dimensión cero . Otra es que la representación formal de tales puntos, la función delta de Dirac , no es física, porque no se puede normalizar . Los argumentos paralelos se aplican a estados de onda puros. Roger Penrose afirma:

Tales 'estados de posición' son funciones de onda idealizadas en el sentido opuesto a los estados de momento. Mientras que los estados de impulso están infinitamente dispersos, los estados de posición están infinitamente concentrados. Tampoco es normalizable [...].

Usos

Aunque es difícil trazar una línea que separe la dualidad onda-partícula del resto de la mecánica cuántica, es posible enumerar algunas aplicaciones de esta idea básica.

  • La dualidad onda-partícula se explota en microscopía electrónica , donde las pequeñas longitudes de onda asociadas con el electrón pueden usarse para ver objetos mucho más pequeños de lo que es visible usando luz visible.
  • De manera similar, la difracción de neutrones utiliza neutrones con una longitud de onda de aproximadamente 0,1  nm , el espaciado típico de los átomos en un sólido, para determinar la estructura de los sólidos.
  • Las fotos ahora pueden mostrar esta naturaleza dual, lo que puede conducir a nuevas formas de examinar y registrar este comportamiento.

Ver también

Referencias

enlaces externos