Simetría en matemáticas - Symmetry in mathematics

El sistema de raíces del excepcional grupo de Lie E 8 . Los grupos de mentiras tienen muchas simetrías.

La simetría ocurre no solo en geometría , sino también en otras ramas de las matemáticas. La simetría es un tipo de invariancia : la propiedad de que un objeto matemático permanece sin cambios bajo un conjunto de operaciones o transformaciones .

Dado un objeto X estructurado de cualquier tipo, una simetría es un mapeo del objeto sobre sí mismo que conserva la estructura. Esto puede ocurrir de muchas formas; por ejemplo, si X es un conjunto sin estructura adicional, una simetría es un mapa biyectivo del conjunto a sí mismo, dando lugar a grupos de permutación . Si el objeto X es un conjunto de puntos en el plano con su estructura métrica o cualquier otro espacio métrico , una simetría es una biyección del conjunto a sí mismo que conserva la distancia entre cada par de puntos (es decir, una isometría ).

En general, todo tipo de estructura en matemáticas tendrá su propio tipo de simetría, muchas de las cuales se enumeran en los puntos mencionados anteriormente.

Simetría en geometría

Los tipos de simetría considerados en geometría básica incluyen simetría de reflexión , simetría de rotación , simetría de traslación y simetría de reflexión de deslizamiento , que se describen con más detalle en el artículo principal simetría (geometría) .

Simetría en cálculo

Funciones pares e impares

Incluso funciones

ƒ ( x ) = x 2 es un ejemplo de una función par.

Deje que f ( x ) sea un verdadero función -valued de una variable real, entonces f es incluso si la siguiente ecuación es válida para todos los x y -x en el dominio de f :

Geométricamente hablando, la cara gráfica de una función par es simétrica con respecto al eje y , lo que significa que su gráfica permanece sin cambios después de la reflexión sobre el eje y . Ejemplos de funciones pares incluyen | x | , x 2 , x 4 , cos ( x ) y cosh ( x ).

Funciones impares

ƒ ( x ) = x 3 es un ejemplo de una función impar.

Una vez más, dejó que f ( x ) ser una verdadera función -valued de una variable real, entonces f es impar si la siguiente ecuación es válida para todos los x y -x en el dominio de f :

Eso es,

Geométricamente, la gráfica de una función impar tiene simetría rotacional con respecto al origen , lo que significa que su gráfica permanece sin cambios después de una rotación de 180 grados sobre el origen. Ejemplos de funciones impares son x , x 3 , sin ( x ), sinh ( x ) y erf ( x ).

Integrando

La integral de una función impar de - A a + A es cero, siempre que A sea ​​finita y que la función sea integrable (por ejemplo, no tenga asíntotas verticales entre - A y A ).

La integral de una función par de - A a + A es dos veces la integral de 0 a + A , siempre que A sea ​​finita y la función sea integrable (por ejemplo, no tenga asíntotas verticales entre - A y A ). Esto también es cierto cuando A es infinito, pero solo si la integral converge.

Serie

  • La serie Maclaurin de una función par incluye solo poderes pares.
  • La serie Maclaurin de una función extraña incluye solo poderes impares.
  • La serie de Fourier de una función par periódica incluye solo términos de coseno .
  • La serie de Fourier de una función periódica impar incluye solo términos sinusoidales .

Simetría en álgebra lineal

Simetría en matrices

En álgebra lineal , una matriz simétrica es una matriz cuadrada que es igual a su transposición (es decir, es invariante bajo la transposición de la matriz). Formalmente, la matriz A es simétrica si

Según la definición de igualdad de matrices, que requiere que las entradas en todas las posiciones correspondientes sean iguales, las matrices iguales deben tener las mismas dimensiones (ya que las matrices de diferentes tamaños o formas no pueden ser iguales). En consecuencia, solo las matrices cuadradas pueden ser simétricas.

Las entradas de una matriz simétrica son simétricas con respecto a la diagonal principal . Entonces, si las entradas se escriben como A = ( a ij ), entonces a ij = a ji , para todos los índices i y j .

Por ejemplo, la siguiente matriz de 3 × 3 es simétrica:

Cada matriz diagonal cuadrada es simétrica, ya que todas las entradas fuera de la diagonal son cero. De manera similar, cada elemento diagonal de una matriz simétrica sesgada debe ser cero, ya que cada uno es su propio negativo.

En álgebra lineal, una matriz simétrica real representa un operador autoadjunto sobre un espacio de producto interno real . El objeto correspondiente para un espacio de producto interno complejo es una matriz hermitiana con entradas de valores complejos, que es igual a su transpuesta conjugada . Por lo tanto, en álgebra lineal sobre números complejos, a menudo se asume que una matriz simétrica se refiere a una que tiene entradas con valores reales. Las matrices simétricas aparecen naturalmente en una variedad de aplicaciones, y el software típico de álgebra lineal numérica hace ajustes especiales para ellas.

Simetría en álgebra abstracta

Grupos simétricos

El grupo simétrico S n (en un conjunto finito de n símbolos) es el grupo cuyos elementos son todas las permutaciones de los n símbolos, y cuya operación de grupo es la composición de dichas permutaciones, que se tratan como funciones biyectivas del conjunto de símbolos a sí mismo. Ya que hay n ! ( n factorial ) posibles permutaciones de un conjunto de n símbolos, se sigue que el orden (es decir, el número de elementos) del grupo simétrico S n es n !.

Polinomios simétricos

Un polinomio simétrico es un polinomio P ( X 1 , X 2 , ..., X n ) en n variables, de modo que si alguna de las variables se intercambia, se obtiene el mismo polinomio. Formalmente, P es un polinomio simétrico si para cualquier permutación σ de los subíndices 1, 2, ..., n , uno tiene P ( X σ (1) , X σ (2) , ..., X σ ( n ) ) =  P ( X 1 , X 2 , ..., X n ).

Los polinomios simétricos surgen naturalmente en el estudio de la relación entre las raíces de un polinomio en una variable y sus coeficientes, ya que los coeficientes pueden estar dados por expresiones polinomiales en las raíces, y todas las raíces juegan un papel similar en este escenario. Desde este punto de vista, los polinomios simétricos elementales son los polinomios simétricos más fundamentales. Un teorema establece que cualquier polinomio simétrico puede expresarse en términos de polinomios simétricos elementales, lo que implica que toda expresión polinomial simétrica en las raíces de un polinomio mónico puede expresarse alternativamente como una expresión polinomial en los coeficientes del polinomio.

Ejemplos de

En dos variables X 1 y X 2 , una tiene polinomios simétricos como:

y en tres variables X 1 , X 2 y X 3 , se tiene como polinomio simétrico:

Tensores simétricos

En matemáticas , un tensor simétrico es un tensor que es invariante bajo una permutación de sus argumentos vectoriales:

para cada permutación σ de los símbolos {1,2, ..., r }. Alternativamente, un tensor simétrico de r- ésimo orden representado en coordenadas como una cantidad con r índices satisface

El espacio de tensores simétricos de rango r en una dimensión finita espacio vectorial es naturalmente isomorfo al dual del espacio de polinomios homogéneos de grado r en V . Más de campos de característica cero , el espacio vectorial gradual de todos los tensores simétricos se puede, naturalmente, identificado con el álgebra simétrica en V . Un concepto relacionado es el de tensor antisimétrico o forma alterna . Los tensores simétricos ocurren ampliamente en ingeniería , física y matemáticas .

Teoría de Galois

Dado un polinomio, puede ser que algunas de las raíces estén conectadas por varias ecuaciones algebraicas . Por ejemplo, puede ser que para dos de las raíces, digamos A y B , A 2 + 5 B 3 = 7 . La idea central de la teoría de Galois es considerar aquellas permutaciones (o reordenamientos) de las raíces que tienen la propiedad de que cualquier ecuación algebraica satisfecha por las raíces todavía se satisface después de que las raíces han sido permutadas. Una condición importante es que nos limitamos a ecuaciones algebraicas cuyos coeficientes son números racionales . Así, la teoría de Galois estudia las simetrías inherentes a las ecuaciones algebraicas.

Automorfismos de objetos algebraicos

En álgebra abstracta , un automorfismo es un isomorfismo de un objeto matemático a sí mismo. Es, en cierto sentido, una simetría del objeto y una forma de mapear el objeto a sí mismo mientras se conserva toda su estructura. El conjunto de todos los automorfismos de un objeto forma un grupo , llamado grupo de automorfismos . Es, en términos generales, el grupo de simetría del objeto.

Ejemplos de

  • En la teoría de conjuntos , una permutación arbitraria de los elementos de un conjunto X es un automorfismo. El grupo de automorfismos de X es también llamado el grupo simétrico en X .
  • En aritmética elemental , el conjunto de números enteros , Z , considerado como un grupo bajo la suma, tiene un automorfismo no trivial único: la negación. Sin embargo, considerado como un anillo , solo tiene el automorfismo trivial. En términos generales, la negación es un automorfismo de cualquier grupo abeliano , pero no de un anillo o campo.
  • Un automorfismo de grupo es un isomorfismo de grupo de un grupo a sí mismo. De manera informal, es una permutación de los elementos del grupo de manera que la estructura permanece sin cambios. Para cada grupo G hay un homomorfismo natural Grupo G → Aut ( G ) cuya imagen es el grupo Inn ( G ) de automorfismos interiores y cuyo núcleo es el centro de G . Por lo tanto, si G tiene un centro trivial , puede integrarse en su propio grupo de automorfismos.
  • En álgebra lineal , un endomorfismo de un espacio vectorial V es un operador lineal VV . Un automorfismo es un operador lineal invertible en V . Cuando el espacio vectorial es de dimensión finita, el grupo de automorfismo de V es el mismo que el grupo lineal general , GL ( V ).
  • Un automorfismo de campo es un homomorfismo de anillo biyectivo de un campo a sí mismo. En los casos de los números racionales ( Q ) y los números reales ( R ) no hay automorfismos de campo no triviales. Algunos subcampos de R tienen automorfismos de campo no triviales, que sin embargo no se extienden a todo R (porque no pueden preservar la propiedad de un número que tiene una raíz cuadrada en R ). En el caso de los números complejos , C , hay un automorfismo no trivial único que envía R a R : conjugación compleja , pero hay infinitamente ( incontables ) muchos automorfismos "salvajes" (asumiendo el axioma de elección ). Los automorfismos de campo son importantes para la teoría de las extensiones de campo , en particular las extensiones de Galois . En el caso de una extensión de Galois L / K, el subgrupo de todos los automorfismos de L que fijan K puntualmente se denomina grupo de Galois de la extensión.

Simetría en la teoría de la representación

Simetría en mecánica cuántica: bosones y fermiones

En mecánica cuántica, los bosones tienen representantes que son simétricos bajo operadores de permutación y los fermiones tienen representantes antisimétricos.

Esto implica el principio de exclusión de Pauli para fermiones. De hecho, el principio de exclusión de Pauli con una función de onda de muchas partículas de valor único es equivalente a requerir que la función de onda sea antisimétrica. Un estado antisimétrico de dos partículas se representa como una suma de estados en los que una partícula está en estado y la otra en estado :

y antisimetría bajo intercambio significa que A ( x , y ) = - A ( y , x ) . Esto implica que A ( x , x ) = 0 , que es la exclusión de Pauli. Es cierto en cualquier base, ya que los cambios unitarias de base mantienen matrices antisimétricas antisimétrica, aunque estrictamente hablando, la cantidad A ( x , y ) no es una matriz sino una antisimétrica rango de dos tensor .

Por el contrario, si las cantidades diagonales A ( x , x ) son cero en todas las bases , entonces el componente de función de onda:

es necesariamente antisimétrico. Para probarlo, considere el elemento de la matriz:

Esto es cero, porque las dos partículas tienen una probabilidad cero de que ambas estén en el estado de superposición . Pero esto es igual a

Los términos primero y último en el lado derecho son elementos diagonales y son cero, y la suma total es igual a cero. Entonces los elementos de la matriz de función de onda obedecen:

.

o

Simetría en la teoría de conjuntos

Relación simétrica

Llamamos a una relación simétrica si cada vez que la relación se sitúa de A a B, también se sitúa de B a A. Tenga en cuenta que la simetría no es exactamente lo contrario de la antisimetría .

Simetría en espacios métricos

Isometrías de un espacio

Una isometría es un mapa que conserva la distancia entre espacios métricos . Dado un espacio métrico, o un conjunto y esquema para asignar distancias entre elementos del conjunto, una isometría es una transformación que mapea elementos a otro espacio métrico de manera que la distancia entre los elementos en el nuevo espacio métrico es igual a la distancia entre los elementos elementos en el espacio métrico original. En un espacio bidimensional o tridimensional, dos figuras geométricas son congruentes si están relacionadas mediante una isometría: relacionadas mediante un  movimiento rígido o una  composición de un movimiento rígido y una  reflexión . Hasta una relación por un movimiento rígido, son iguales si se relacionan por una isometría directa .

Las isometrías se han utilizado para unificar la definición de trabajo de simetría en geometría y para funciones, distribuciones de probabilidad, matrices, cadenas, gráficos, etc.

Simetrías de ecuaciones diferenciales

Una simetría de una ecuación diferencial es una transformación que deja invariante la ecuación diferencial. El conocimiento de tales simetrías puede ayudar a resolver la ecuación diferencial.

Una simetría lineal de un sistema de ecuaciones diferenciales es una simetría continua del sistema de ecuaciones diferenciales. El conocimiento de una simetría lineal se puede utilizar para simplificar una ecuación diferencial ordinaria mediante la reducción del orden .

Para las ecuaciones diferenciales ordinarias , el conocimiento de un conjunto apropiado de simetrías de Lie permite calcular explícitamente un conjunto de primeras integrales, produciendo una solución completa sin integración.

Las simetrías se pueden encontrar resolviendo un conjunto relacionado de ecuaciones diferenciales ordinarias. Resolver estas ecuaciones suele ser mucho más simple que resolver las ecuaciones diferenciales originales.

Simetría en probabilidad

En el caso de un número finito de posibles resultados, la simetría con respecto a las permutaciones (reetiquetas) implica una distribución uniforme discreta .

En el caso de un intervalo real de posibles resultados, la simetría con respecto al intercambio de subintervalos de igual longitud corresponde a una distribución uniforme continua .

En otros casos, como "tomar un número entero aleatorio" o "tomar un número real aleatorio", no hay distribuciones de probabilidad simétricas con respecto a las reetiquetas o al intercambio de subintervalos igualmente largos. Otras simetrías razonables no distinguen una distribución en particular, o en otras palabras, no hay una distribución de probabilidad única que proporcione la máxima simetría.

Existe un tipo de isometría en una dimensión que puede dejar la distribución de probabilidad sin cambios, que es la reflexión en un punto, por ejemplo, cero.

Una posible simetría para la aleatoriedad con resultados positivos es que la primera se aplica al logaritmo, es decir, el resultado y su recíproco tienen la misma distribución. Sin embargo, esta simetría no distingue ninguna distribución en particular de forma única.

Para un "punto aleatorio" en un plano o en el espacio, se puede elegir un origen y considerar una distribución de probabilidad con simetría circular o esférica, respectivamente.

Ver también

Referencias

Bibliografía