Matriz (matemáticas) - Matrix (mathematics)

Una matriz m × n : las m filas son horizontales y las n columnas son verticales. Cada elemento de una matriz a menudo se denota mediante una variable con dos subíndices . Por ejemplo, un 2,1 representa el elemento en la segunda fila y la primera columna de la matriz.

En matemáticas , una matriz ( matrices plurales ) es una matriz rectangular o tabla de números , símbolos o expresiones , dispuestas en filas y columnas, que se utiliza para representar un objeto matemático o una propiedad de dicho objeto. Por ejemplo,

es una matriz con dos filas y tres columnas; se dice a menudo una "matriz de dos por tres", una "matriz de 2 × 3 " o una matriz de dimensión 2 × 3 .

Sin más especificaciones, las matrices representan mapas lineales y permiten cálculos explícitos en álgebra lineal . Por lo tanto, el estudio de matrices es una gran parte del álgebra lineal, y la mayoría de las propiedades y operaciones del álgebra lineal abstracta se pueden expresar en términos de matrices. Por ejemplo, la multiplicación de matrices representa la composición de mapas lineales.

No todas las matrices están relacionadas con el álgebra lineal. Este es, en particular, el caso de la teoría de grafos , de las matrices de incidencia y de las matrices de adyacencia . Este artículo se centra en las matrices relacionadas con el álgebra lineal y, a menos que se especifique lo contrario, todas las matrices representan mapas lineales o pueden verse como tales.

Las matrices cuadradas , matrices con el mismo número de filas y columnas, juegan un papel importante en la teoría de matrices. Las matrices cuadradas de una dimensión dada forman un anillo no conmutativo , que es uno de los ejemplos más comunes de un anillo no conmutativo. El determinante de una matriz cuadrada es un número asociado a la matriz, que es fundamental para el estudio de una matriz cuadrada; por ejemplo, una matriz cuadrada es invertible si y solo si tiene un determinante distinto de cero, y los valores propios de una matriz cuadrada son las raíces de un determinante polinomial .

En geometría , las matrices se utilizan ampliamente para especificar y representar transformaciones geométricas (por ejemplo, rotaciones ) y cambios de coordenadas . En el análisis numérico , muchos problemas computacionales se resuelven reduciéndolos a un cálculo matricial, y esto implica a menudo calcular con matrices de enormes dimensiones. Las matrices se utilizan en la mayoría de las áreas de las matemáticas y la mayoría de los campos científicos, ya sea directamente o mediante su uso en geometría y análisis numérico.

Definición

Una matriz es una matriz rectangular de números (u otros objetos matemáticos) para los que se definen operaciones como la suma y la multiplicación . Más comúnmente, una matriz sobre un campo F es una matriz rectangular de escalares, cada uno de los cuales es un miembro de F . Una matriz real y una matriz compleja son matrices cuyas entradas son respectivamente números reales o números complejos . A continuación se analizan tipos de entradas más generales . Por ejemplo, esta es una matriz real:

Los números, símbolos o expresiones de la matriz se denominan entradas o elementos . Las líneas horizontales y verticales de entradas en una matriz se denominan filas y columnas , respectivamente.

Tamaño

El tamaño de una matriz se define por el número de filas y columnas que contiene. No hay límite para el número de filas y columnas que puede tener una matriz (en el sentido habitual) siempre que sean números enteros positivos. Una matriz con m filas y n columnas se llama un m  × n matriz, o m -by- n matriz, mientras que m y n son llamados sus dimensiones . Por ejemplo, la matriz A anterior es una matriz de 3 × 2.    

Las matrices con una sola fila se denominan vectores de fila y las que tienen una sola columna se denominan vectores de columna . Una matriz con el mismo número de filas y columnas se llama matriz cuadrada . Una matriz con un número infinito de filas o columnas (o ambas) se llama matriz infinita . En algunos contextos, como los programas de álgebra de computadora , es útil considerar una matriz sin filas o sin columnas, llamada matriz vacía .

Descripción general de un tamaño de matriz
Nombre Tamaño Ejemplo Descripción
Vector fila 1  × n  Una matriz con una fila, a veces utilizada para representar un vector.
Vector de columna n  ×  1 Una matriz con una columna, a veces utilizada para representar un vector.
Matriz cuadrada n  × n  Una matriz con el mismo número de filas y columnas, que a veces se utiliza para representar una transformación lineal de un espacio vectorial a sí mismo, como reflexión , rotación o corte .

Notación

Las matrices se escriben comúnmente entre corchetes o paréntesis :

Los detalles de la notación matricial simbólica varían ampliamente, con algunas tendencias predominantes. Matrices son generalmente simbolizados usando mayúsculas letras (tales como A en los ejemplos anteriores), mientras que el correspondiente minúsculas letras, con dos índices de subíndice (por ejemplo, un 11 , o un 1,1 ), representan las entradas. Además de usar letras mayúsculas para simbolizar matrices, muchos autores usan un estilo tipográfico especial , comúnmente negrita en posición vertical (no cursiva), para distinguir aún más las matrices de otros objetos matemáticos. Una notación alternativa implica el uso de un subrayado doble con el nombre de la variable, con o sin estilo de negrita (como en el caso de ).

La entrada en la i -ésima fila y la j -ésima columna de una matriz A a veces se conoce como la entrada i , j , ( i , j ) o ( i , j ) de la matriz, y más comúnmente se denota como a i , j , o a ij . Las notaciones alternativas para esa entrada son A [ i, j ] o A i, j . Por ejemplo, el (1,3) de entrada de la siguiente matriz A es 5 (también denota un 13 , un 1,3 , A [ 1,3 ] o A 1,3 ):

A veces, las entradas de una matriz se pueden definir mediante una fórmula como a i , j = f ( i , j ). Por ejemplo, cada una de las entradas de la siguiente matriz A está determinada por la fórmula a ij = i - j .

En este caso, la propia matriz a veces se define mediante esa fórmula, entre corchetes o paréntesis dobles. Por ejemplo, la matriz anterior se define como A = [ i - j ] o A = (( i - j )). Si el tamaño de la matriz es m × n , la fórmula f ( i , j ) mencionada anteriormente es válida para cualquier i = 1, ..., my cualquier j = 1, ..., n . Esto puede especificarse por separado o indicarse utilizando m × n como subíndice. Por ejemplo, la matriz A anterior es 3 × 4, y se puede definir como A = [ i - j ] ( i = 1, 2, 3; j = 1, ..., 4), o A = [ i - j ] 3 × 4 .

Algunos lenguajes de programación utilizan matrices con doble subíndice (o matrices de matrices) para representar una matriz m - × - n . Algunos lenguajes de programación comienzan la numeración de los índices de matriz en cero, en cuyo caso las entradas de una matriz m- por- n están indexadas por 0 ≤ im - 1 y 0 ≤ jn - 1 . Este artículo sigue la convención más común en escritura matemática donde la enumeración comienza desde 1.

Un asterisco se usa ocasionalmente para referirse a filas o columnas completas en una matriz. Por ejemplo, una i , * se refiere a la i ª fila de A , y un *, j se refiere a la j ésimo columna de A .

El conjunto de todas las matrices m -por- n reales a menudo se denota o El conjunto de todas las matrices m -por- n matrices sobre otro campo o sobre un anillo R , se denota de manera similar o Si m = n , es decir, en el caso de matrices cuadradas , no se repite la dimensión: o A menudo, se usa en lugar de

Operaciones básicas

Video externo
icono de video Cómo organizar, sumar y multiplicar matrices - Bill Shillito , TED ED

Hay una serie de operaciones básicas que se pueden aplicar para modificar matrices, llamadas suma de matrices , multiplicación escalar , transposición , multiplicación de matrices , operaciones de fila y submatriz .

Suma, multiplicación escalar y transposición

Operaciones realizadas sobre matrices
Operación Definición Ejemplo
Adición La suma A + B de dos matrices A y B m -por- n se calcula por entrada:
( A + B ) i , j = A i , j + B i , j , donde 1 ≤ imy 1 ≤ jn .

Multiplicación escalar El producto c A de un número c (también llamado escalar en el lenguaje del álgebra abstracta ) y una matriz A se calcula multiplicando cada entrada de A por c :
( c A ) yo , j = c · A yo , j .

Esta operación se llama multiplicación escalar , pero su resultado no se denomina "producto escalar" para evitar confusiones, ya que "producto escalar" a veces se utiliza como sinónimo de " producto interno ".

Transposición La transposición de una matriz A de m- por- n es la matriz A T de n- por- m (también denominada A tr o t A ) formada al convertir filas en columnas y viceversa:
( A T ) yo , j = A j , yo .

Propiedades familiares de números se extienden a estas operaciones de matrices: por ejemplo, la adición es conmutativa , es decir, la suma de la matriz no depende del orden de los sumandos: A  + B = B + A . La transpuesta es compatible con la suma y la multiplicación escalar, tal como se expresa por ( c A ) T = c ( A T ) y ( A + B ) T = A T + B T . Finalmente, ( A T ) T = A .              

Multiplicación de matrices

Representación esquemática de la matriz producto AB de dos matrices A y B .

La multiplicación de dos matrices se define si y solo si el número de columnas de la matriz de la izquierda es el mismo que el número de filas de la matriz de la derecha. Si A es una matriz m- por- n y B es una matriz n- por- p , entonces su producto matricial AB es la matriz m- por- p cuyas entradas están dadas por el producto escalar de la fila correspondiente de A y la correspondiente columna de B :

donde 1 ≤ imy 1 ≤ jp . Por ejemplo, la entrada subrayada 2340 en el producto se calcula como (2 × 1000) + (3 × 100) + (4 × 10) = 2340:

La multiplicación de matrices satisface las reglas ( AB ) C = A ( BC ) ( asociatividad ) y ( A + B ) C = AC + BC así como C ( A + B ) = CA + CB ( distributividad izquierda y derecha ), siempre que el tamaño de las matrices es tal que se definen los distintos productos. El producto AB puede definirse sin que BA esté definido, es decir, si A y B son matrices m- por- n y n- por- k , respectivamente, y mk . Incluso si ambos productos están definidos, generalmente no es necesario que sean iguales, es decir:

ABBA ,

En otras palabras, la multiplicación de matrices no es conmutativa , en marcado contraste con los números (racionales, reales o complejos), cuyo producto es independiente del orden de los factores. Un ejemplo de dos matrices que no se desplazan entre sí es:

mientras que

Además de la multiplicación de matrices ordinaria que se acaba de describir, también existen otras operaciones de matrices que se utilizan con menos frecuencia y que pueden considerarse formas de multiplicación, como el producto de Hadamard y el producto de Kronecker . Surgen al resolver ecuaciones matriciales como la ecuación de Sylvester .

Operaciones de fila

Hay tres tipos de operaciones de fila:

  1. suma de filas, es decir, agregar una fila a otra.
  2. multiplicación de filas, es decir, multiplicar todas las entradas de una fila por una constante distinta de cero;
  3. cambio de fila, es decir, intercambiar dos filas de una matriz;

Estas operaciones se utilizan de varias formas, incluida la resolución de ecuaciones lineales y la búsqueda de matrices inversas .

Submatriz

Una submatriz de una matriz se obtiene eliminando cualquier colección de filas y / o columnas. Por ejemplo, a partir de la siguiente matriz de 3 por 4, podemos construir una submatriz de 2 por 3 eliminando la fila 3 y la columna 2:

Los menores y cofactores de una matriz se encuentran calculando el determinante de ciertas submatrices.

Una submatriz principal es una submatriz cuadrada que se obtiene al eliminar ciertas filas y columnas. La definición varía de un autor a otro. Según algunos autores, una submatriz principal es una submatriz en la que el conjunto de índices de filas que quedan es el mismo que el conjunto de índices de columnas que quedan. Otros autores definen una submatriz principal como aquella en la que las primeras k filas y columnas, para algún número k , son las que quedan; este tipo de submatriz también se ha denominado una submatriz principal principal .

Ecuaciones lineales

Las matrices se pueden utilizar para escribir de forma compacta y trabajar con múltiples ecuaciones lineales, es decir, sistemas de ecuaciones lineales. Por ejemplo, si A es una matriz m- por- n , x designa un vector columna (es decir, n × 1-matriz) de n variables x 1 , x 2 , ..., x n , y b es una m × vector de 1 columna, luego la ecuación matricial

es equivalente al sistema de ecuaciones lineales

Usando matrices, esto se puede resolver de manera más compacta de lo que sería posible escribiendo todas las ecuaciones por separado. Si n = my las ecuaciones son independientes , entonces esto se puede hacer escribiendo

donde A -1 es la matriz inversa de A . Si A no tiene inversa, las soluciones, si las hay, se pueden encontrar usando su inversa generalizada .

Transformaciones lineales

Los vectores representados por una matriz de 2 por 2 corresponden a los lados de un cuadrado unitario transformado en un paralelogramo.

Las matrices y la multiplicación de matrices revelan sus características esenciales cuando se relacionan con transformaciones lineales , también conocidas como mapas lineales . A real m -by- n matriz A da lugar a una transformación lineal R nR m mapeo cada vector x en R n para el producto (matriz) Ax , que es un vector en R m . A la inversa, cada transformación lineal f : R nR m surge de una matriz única m -por- n A : explícitamente, la entrada ( i , j ) de A es la i- ésima coordenada de f ( e j ), donde e j = (0, ..., 0,1,0, ..., 0) es el vector unitario con 1 en la j- ésima posición y 0 en otra parte. Se dice que la matriz A representa el mapa lineal f , y A se llama matriz de transformación de f .

Por ejemplo, la matriz 2 × 2

se puede ver como la transformación del cuadrado unitario en un paralelogramo con vértices en (0, 0) , ( a , b ) , ( a + c , b + d ) y ( c , d ) . El paralelogramo que se muestra a la derecha se obtiene multiplicando A con cada uno de los vectores columna , y a su vez. Estos vectores definen los vértices del cuadrado unitario.

La siguiente tabla muestra varias matrices reales 2 × 2 con los mapas lineales asociados de R 2 . El original azul se asigna a la cuadrícula y las formas verdes. El origen (0,0) está marcado con un punto negro.

Cortante horizontal
con m = 1,25.
Reflexión a través del eje vertical Apriete el mapeo
con r = 3/2
Escalar
por un factor de 3/2
Rotación
por π / 6 = 30 °
VerticalShear m = 1.25.svg Voltear map.svg Apriete r = 1.5.svg Escalado por 1.5.svg Rotación de pi sobre 6.svg

Bajo la correspondencia 1 a 1 entre matrices y mapas lineales, la multiplicación de matrices corresponde a la composición de mapas: si una k- por- m matriz B representa otro mapa lineal g : R mR k , entonces la composición gf es representada por BA desde

( gf ) ( x ) = g ( f ( x )) = g ( Ax ) = B ( Ax ) = ( BA ) x .

La última igualdad se deriva de la asociatividad de la multiplicación de matrices antes mencionada.

El rango de una matriz A es el número máximo de vectores de fila linealmente independientes de la matriz, que es el mismo que el número máximo de vectores de columna linealmente independientes. De manera equivalente es la dimensión de la imagen del mapa lineal representado por A . El teorema de rango-nulidad establece que la dimensión del núcleo de una matriz más el rango es igual al número de columnas de la matriz.

Matriz cuadrada

Una matriz cuadrada es una matriz con el mismo número de filas y columnas. Una matriz n- por- n se conoce como matriz cuadrada de orden n. Se pueden sumar y multiplicar dos matrices cuadradas cualesquiera del mismo orden. Las entradas a ii forman la diagonal principal de una matriz cuadrada. Se encuentran en la línea imaginaria que va desde la esquina superior izquierda hasta la esquina inferior derecha de la matriz.

Tipos principales

Nombre Ejemplo con n = 3
Matriz diagonal
Matriz triangular inferior
Matriz triangular superior

Matriz diagonal y triangular

Si todas las entradas de A debajo de la diagonal principal son cero, A se llama matriz triangular superior . De manera similar, si todas las entradas de A por encima de la diagonal principal son cero, A se denomina matriz triangular inferior . Si todas las entradas fuera de la diagonal principal son cero, A se denomina matriz diagonal .

Matriz de identidad

La matriz identidad I n de tamaño n es la matriz n- por- n en la que todos los elementos de la diagonal principal son iguales a 1 y todos los demás elementos son iguales a 0, por ejemplo,

Es una matriz cuadrada de orden n , y también un tipo especial de matriz diagonal . Se llama matriz de identidad porque la multiplicación con ella deja una matriz sin cambios:

AI n = I m A = A para cualquiermatriz A de m- por- n .

Un múltiplo escalar distinto de cero de una matriz identidad se denomina matriz escalar . Si las entradas de la matriz provienen de un campo, las matrices escalares forman un grupo, bajo la multiplicación de matrices, que es isomorfo al grupo multiplicativo de elementos distintos de cero del campo.

Matriz simétrica o asimétrica

Una matriz cuadrada A que es igual a su transpuesta, es decir, A = A T , es una matriz simétrica . Si, en cambio, A es igual al negativo de su transpuesta, es decir, A = - A T , entonces A es una matriz de simetría sesgada . En matrices complejas, simetría a menudo se sustituye por el concepto de matrices hermitianos , que satisfacen A * = A , donde la estrella o asterisco indica la transpuesta conjugada de la matriz, es decir, la transpuesta de la conjugada compleja de A .

Según el teorema espectral , las matrices simétricas reales y las matrices hermitianas complejas tienen una base propia ; es decir, cada vector se puede expresar como una combinación lineal de autovectores. En ambos casos, todos los valores propios son reales. Este teorema se puede generalizar a situaciones de dimensión infinita relacionadas con matrices con un número infinito de filas y columnas, ver más abajo .

Matriz invertible y su inversa

Una matriz cuadrada A se llama invertible o no singular si existe una matriz B tal que

AB = BA = Yo n ,

donde I n es la matriz de identidad n × n con unos en la diagonal principal y ceros en el resto. Si B existe, es único y se llama matriz inversa de A , denotado A −1 .

Matriz definida

Matriz definida positiva Matriz indefinida
Q ( x , y ) = 1/4 x 2 + y 2 Q ( x , y ) =1/4 x 2 - 1/4 y 2
Elipse en sistema de coordenadas con semiejes labelled.svg
Puntos tales que Q ( x , y ) = 1
( Elipse ).
Hyperbola2 SVG.svg
Puntos tales que Q ( x , y ) = 1
( Hipérbola ).

Una matriz real simétrica A se llama definida positiva si la forma cuadrática asociada

f ( x ) = x T A  x

tiene un valor positivo para cada vector x distinto de cero en R n . Si f ( x ) solo arroja valores negativos, entonces A es definida negativa ; si f produce valores tanto negativos como positivos, entonces A es indefinido . Si la forma cuadrática f produce solo valores no negativos (positivos o cero), la matriz simétrica se llama positiva-semidefinita (o si solo valores no positivos, entonces negativa-semidefinita); por tanto, la matriz es indefinida precisamente cuando no es ni semidefinita positiva ni semidefinita negativa.

Una matriz simétrica es positiva-definida si y solo si todos sus valores propios son positivos, es decir, la matriz es positiva-semidefinida y es invertible. La tabla de la derecha muestra dos posibilidades para matrices de 2 por 2.

Permitir como entrada dos vectores diferentes en su lugar produce la forma bilineal asociada a A :

B A ( x , y ) = x T Ay .

En el caso de matrices complejas, la misma terminología y el resultado se aplican, con matriz simétrica , forma cuadrática , forma bilineal , y transpuesta x T sustituyen, respectivamente, por la matriz hermitiana , forma hermitiana , forma sesquilinear , y transpuesta conjugada x H .

Matriz ortogonal

Una matriz ortogonal es una matriz cuadrada con entradas reales cuyas columnas y filas son vectores unitarios ortogonales (es decir, vectores ortonormales ). De manera equivalente, una matriz A es ortogonal si su transposición es igual a su inversa :

lo que implica

donde I n es la matriz identidad de tamaño n .

Una matriz ortogonal A es necesariamente invertible (con inversa A −1 = A T ), unitaria ( A −1 = A * ) y normal ( A * A = AA * ). El determinante de cualquier matriz ortogonal es +1 o -1 . Una matriz ortogonal especial es una matriz ortogonal con determinante +1. Como transformación lineal , toda matriz ortogonal con determinante +1 es una rotación pura sin reflexión, es decir, la transformación conserva la orientación de la estructura transformada, mientras que toda matriz ortogonal con determinante -1 invierte la orientación, es decir, es una composición de un reflexión pura y una rotación (posiblemente nula). Las matrices de identidad tienen determinante 1 y son rotaciones puras por un ángulo cero.

El análogo complejo de una matriz ortogonal es una matriz unitaria .

Operaciones principales

Rastro

La traza , tr ( A ) de una matriz cuadrada A es la suma de sus entradas diagonales. Si bien la multiplicación de matrices no es conmutativa como se mencionó anteriormente , la traza del producto de dos matrices es independiente del orden de los factores:

tr ( AB ) = tr ( BA ).

Esto es inmediato a partir de la definición de multiplicación de matrices:

De ello se deduce que la traza del producto de más de dos matrices es independiente de las permutaciones cíclicas de las matrices, sin embargo, esto no se aplica en general a las permutaciones arbitrarias (por ejemplo, tr ( ABC ) ≠ tr ( BAC ), en general). Además, la traza de una matriz es igual a la de su transpuesta, es decir,

tr ( A ) = tr ( A T ) .

Determinante

Una transformación lineal en R 2 dada por la matriz indicada. El determinante de esta matriz es -1, ya que el área del paralelogramo verde a la derecha es 1, pero el mapa invierte la orientación , ya que cambia la orientación de los vectores en sentido antihorario a una en sentido horario.

El determinante de una matriz cuadrada A (denotado det ( A ) o | A |) es un número que codifica ciertas propiedades de la matriz. Una matriz es invertible si y solo si su determinante es distinto de cero. Su valor absoluto es igual al área (en R 2 ) o volumen (en R 3 ) de la imagen del cuadrado unitario (o cubo), mientras que su signo corresponde a la orientación del mapa lineal correspondiente: el determinante es positivo si y solo si se conserva la orientación.

El determinante de matrices 2 por 2 viene dado por

El determinante de matrices de 3 por 3 involucra 6 términos ( regla de Sarrus ). La fórmula de Leibniz más extensa generaliza estas dos fórmulas a todas las dimensiones.

El determinante de un producto de matrices cuadradas es igual al producto de sus determinantes:

det ( AB ) = det ( A ) · det ( B ).

Agregar un múltiplo de cualquier fila a otra fila, o un múltiplo de cualquier columna a otra columna no cambia el determinante. El intercambio de dos filas o dos columnas afecta al determinante multiplicándolo por −1. Usando estas operaciones, cualquier matriz se puede transformar en una matriz triangular inferior (o superior), y para tales matrices, el determinante es igual al producto de las entradas en la diagonal principal; esto proporciona un método para calcular el determinante de cualquier matriz. Finalmente, la expansión de Laplace expresa el determinante en términos de menores , es decir, determinantes de matrices más pequeñas. Esta expansión se puede utilizar para una definición recursiva de determinantes (tomando como caso inicial el determinante de una matriz de 1 por 1, que es su entrada única, o incluso el determinante de una matriz de 0 por 0, que es 1) , que puede verse como equivalente a la fórmula de Leibniz. Los determinantes se pueden usar para resolver sistemas lineales usando la regla de Cramer , donde la división de los determinantes de dos matrices cuadradas relacionadas equivale al valor de cada una de las variables del sistema.

Valores propios y vectores propios

Un número λ y un vector v distinto de cero satisfacen

se denominan autovalor y autovector de A , respectivamente. El número λ es un valor propio de una matriz A de n × n si y solo si A −λ I n no es invertible, lo que equivale a

El polinomio P A en una indeterminada X dado por la evaluación de la det determinante ( X I n - A ) se llama el polinomio característico de A . Es un polinomio mónico de grado n . Por tanto, la ecuación polinomial p A (λ)  =  0 tiene como máximo n soluciones diferentes, es decir, valores propios de la matriz. Pueden ser complejas incluso si las entradas de A son reales. Según el teorema de Cayley-Hamilton , p A ( A ) = 0 , es decir, el resultado de sustituir la propia matriz en su propio polinomio característico produce la matriz cero .

Aspectos computacionales

Los cálculos matriciales a menudo se pueden realizar con diferentes técnicas. Muchos problemas pueden resolverse mediante algoritmos directos o enfoques iterativos. Por ejemplo, los vectores propios de una matriz cuadrada se pueden obtener al encontrar una secuencia de vectores x n que convergen en un vector propio cuando n tiende a infinito .

Para elegir el algoritmo más apropiado para cada problema específico, es importante determinar tanto la efectividad como la precisión de todos los algoritmos disponibles. El dominio que estudia estos asuntos se llama álgebra lineal numérica . Como ocurre con otras situaciones numéricas, dos aspectos principales son la complejidad de los algoritmos y su estabilidad numérica .

Determinar la complejidad de un algoritmo significa encontrar límites superiores o estimaciones de cuántas operaciones elementales, como sumas y multiplicaciones de escalares, son necesarias para realizar algún algoritmo, por ejemplo, la multiplicación de matrices . Para calcular el producto matricial de dos matrices n- por- n utilizando la definición dada anteriormente, se necesitan n 3 multiplicaciones, ya que para cualquiera de las n 2 entradas del producto, son necesarias n multiplicaciones. El algoritmo de Strassen supera a este algoritmo "ingenuo"; solo necesita n 2.807 multiplicaciones. Un enfoque refinado también incorpora características específicas de los dispositivos informáticos.

En muchas situaciones prácticas se conoce información adicional sobre las matrices involucradas. Un caso importante son las matrices dispersas , es decir, las matrices cuyas entradas son cero en su mayoría. Hay algoritmos específicamente adaptados para, digamos, resolver sistemas lineales Ax = b para matrices dispersas A , como el método de gradiente conjugado .

Un algoritmo es, en términos generales, numéricamente estable, si pequeñas desviaciones en los valores de entrada no conducen a grandes desviaciones en el resultado. Por ejemplo, calcular la inversa de una matriz mediante la expansión de Laplace (adj ( A ) denota la matriz adjunta de A )

A −1 = adj ( A ) / det ( A )

puede dar lugar a errores de redondeo importantes si el determinante de la matriz es muy pequeño. La norma de una matriz se puede utilizar para capturar el condicionamiento de problemas algebraicos lineales, como calcular la inversa de una matriz.

La mayoría de los lenguajes de programación de computadoras admiten matrices, pero no están diseñados con comandos integrados para matrices. En cambio, las bibliotecas externas disponibles proporcionan operaciones matriciales en matrices, en casi todos los lenguajes de programación utilizados actualmente. La manipulación de matrices fue una de las primeras aplicaciones numéricas de las computadoras. El Dartmouth BASIC original tenía comandos incorporados para aritmética matricial en arreglos desde su implementación de la segunda edición en 1964. Ya en la década de 1970, algunas computadoras de escritorio de ingeniería como la HP 9830 tenían cartuchos ROM para agregar comandos BASIC para matrices . Algunos lenguajes de computadora como APL fueron diseñados para manipular matrices, y se pueden usar varios programas matemáticos para ayudar a la computación con matrices.

Descomposición

Existen varios métodos para convertir las matrices en una forma más accesible. Generalmente se les conoce como técnicas de descomposición matricial o factorización matricial . El interés de todas estas técnicas es que conservan determinadas propiedades de las matrices en cuestión, como determinante, rango o inversa, para que estas cantidades se puedan calcular tras aplicar la transformación, o que determinadas operaciones matriciales sean algorítmicamente más fáciles de realizar. para algunos tipos de matrices.

Las matrices de factores de descomposición LU son un producto de matrices triangulares inferiores ( L ) y superiores ( U ). Una vez que se calcula esta descomposición, los sistemas lineales se pueden resolver de manera más eficiente, mediante una técnica simple llamada sustitución hacia adelante y hacia atrás . Asimismo, las inversas de matrices triangulares son algorítmicamente más fáciles de calcular. La eliminación gaussiana es un algoritmo similar; transforma cualquier matriz en forma escalonada por filas . Ambos métodos proceden de multiplicar la matriz por matrices elementales adecuadas , que corresponden a permutar filas o columnas y sumar múltiplos de una fila a otra fila. La descomposición de valores singulares expresa cualquier matriz A como un producto UDV , donde U y V son matrices unitarias y D es una matriz diagonal.

Un ejemplo de una matriz en forma normal de Jordan. Los bloques grises se llaman bloques Jordan.

La autodescomposición o diagonalización expresa A como un producto VDV −1 , donde D es una matriz diagonal y V es una matriz invertible adecuada. Si A se puede escribir de esta forma, se llama diagonalizable . De manera más general, y aplicable a todas las matrices, la descomposición de Jordan transforma una matriz en la forma normal de Jordan , es decir, matrices cuyas únicas entradas distintas de cero son los valores propios λ 1 a λ n de A , colocados en la diagonal principal y posiblemente entradas iguales a uno directamente encima de la diagonal principal, como se muestra a la derecha. Dada la descomposición propia, la n- ésima potencia de A (es decir, la multiplicación de matrices iterada n veces) se puede calcular mediante

A n = ( VDV −1 ) n = VDV −1 VDV −1 ... VDV −1 = VD n V −1

y la potencia de una matriz diagonal se puede calcular tomando las potencias correspondientes de las entradas diagonales, que es mucho más fácil que hacer la exponenciación para A en su lugar. Esto se puede utilizar para calcular la matriz exponencial e A , una necesidad que surge con frecuencia al resolver ecuaciones diferenciales lineales , logaritmos matriciales y raíces cuadradas de matrices . Para evitar situaciones numéricamente mal condicionadas , se pueden emplear algoritmos adicionales como la descomposición de Schur .

Aspectos algebraicos abstractos y generalizaciones

Las matrices se pueden generalizar de diferentes formas. El álgebra abstracta usa matrices con entradas en campos más generales o incluso anillos , mientras que el álgebra lineal codifica las propiedades de las matrices en la noción de mapas lineales. Es posible considerar matrices con infinitas columnas y filas. Otra extensión son los tensores , que pueden verse como matrices de números de dimensiones superiores, en contraposición a los vectores, que a menudo se pueden realizar como secuencias de números, mientras que las matrices son matrices de números rectangulares o bidimensionales. Las matrices, sujetas a ciertos requisitos, tienden a formar grupos conocidos como grupos de matrices. De manera similar, bajo ciertas condiciones, las matrices forman anillos conocidos como anillos de matriz . Aunque el producto de las matrices no es conmutativo en general, ciertas matrices forman campos conocidos como campos matriciales .

Matrices con entradas más generales

Este artículo se centra en matrices cuyas entradas son números reales o complejos. Sin embargo, las matrices se pueden considerar con tipos de entradas mucho más generales que los números reales o complejos. Como primer paso de generalización, cualquier campo , es decir, un conjunto donde las operaciones de suma , resta , multiplicación y división están definidas y se comportan bien, puede usarse en lugar de R o C , por ejemplo, números racionales o campos finitos . Por ejemplo, la teoría de la codificación utiliza matrices sobre campos finitos. Siempre que se consideren valores propios , como son raíces de un polinomio, pueden existir sólo en un campo más grande que el de las entradas de la matriz; por ejemplo, pueden ser complejos en el caso de una matriz con entradas reales. La posibilidad de reinterpretar las entradas de una matriz como elementos de un campo más grande (por ejemplo, para ver una matriz real como una matriz compleja cuyas entradas resultan ser todas reales) permite entonces considerar que cada matriz cuadrada posee un conjunto completo de valores propios. Alternativamente, se pueden considerar solo matrices con entradas en un campo algebraicamente cerrado , como C , desde el principio.

De manera más general, las matrices con entradas en un anillo R se utilizan ampliamente en matemáticas. Los anillos son una noción más general que los campos en el sentido de que no es necesario que exista una operación de división. Las mismas operaciones de suma y multiplicación de matrices también se extienden a esta configuración. El conjunto M ( n , R ) (también denotado M n (R)) de todos los cuadrados n -by- n matrices más de R es un anillo llamado anillo de la matriz , isomorfo al anillo endomorphism de la izquierda R - módulo R n . Si el anillo R es conmutativo , es decir, su multiplicación es conmutativa, entonces M ( n , R ) es un no conmutativo unitario (a menos que n = 1) asociativo álgebra sobre R . El determinante de matrices cuadradas sobre un anillo conmutativo R aún se puede definir usando la fórmula de Leibniz ; tal matriz es invertible si y solo si su determinante es invertible en R , generalizando la situación sobre un campo F , donde todo elemento distinto de cero es invertible. Las matrices sobre superanillos se denominan supermatrices .

Las matrices no siempre tienen todas sus entradas en el mismo anillo  , ni siquiera en ningún anillo. Un caso especial pero común son las matrices de bloques , que pueden considerarse como matrices cuyas entradas en sí mismas son matrices. Las entradas no necesitan ser matrices cuadradas y, por tanto, no necesitan ser miembros de ningún anillo ; pero sus tamaños deben cumplir ciertas condiciones de compatibilidad.

Relación con mapas lineales

Los mapas lineales R nR m son equivalentes a matrices m- por- n , como se describió anteriormente . Más en general, cualquier mapa lineal f : VW entre finitas dimensionales espacios vectoriales puede ser descrito por una matriz A = ( a ij ), después de la elección de bases v 1 , ..., v n de V , y w 1 ,. .., w m de W (entonces n es la dimensión de V y m es la dimensión de W ), que es tal que

En otras palabras, la columna j de A expresa la imagen de v j en términos de los vectores base w i de W ; por lo tanto esta relación determina de forma única las entradas de la matriz A . La matriz depende de la elección de las bases: diferentes elecciones de bases dan lugar a matrices diferentes pero equivalentes . Muchas de las nociones concretas anteriores pueden ser reinterpretadas bajo esta luz, por ejemplo, la matriz de transposición A T describe la transposición del mapa lineal dado por A , con respecto a las bases duales .

Estas propiedades se pueden reformular de forma más natural: la categoría de todas las matrices con entradas en un campo con multiplicación como composición es equivalente a la categoría de espacios vectoriales de dimensión finita y mapas lineales sobre este campo.

De manera más general, el conjunto de matrices m × n se puede utilizar para representar los mapas lineales R entre los módulos libres R m y R n para un anillo arbitrario R con unidad. Cuando n  = m la composición de estos mapas es posible, y esto da lugar al anillo de matriz de n × n matrices que representan el anillo de endomorfismo de R n .  

Grupos de matrices

Un grupo es una estructura matemática que consta de un conjunto de objetos junto con una operación binaria , es decir, una operación que combina dos objetos cualesquiera en un tercero, sujeto a ciertos requisitos. Un grupo en el que los objetos son matrices y la operación de grupo es la multiplicación de matrices se llama grupo de matrices . Dado que un grupo, cada elemento debe ser invertible, los grupos de matrices más generales son los grupos de todas las matrices invertibles de un tamaño dado, llamados grupos lineales generales .

Cualquier propiedad de las matrices que se conserve bajo los productos de la matriz y las inversas se puede utilizar para definir más grupos de matrices. Por ejemplo, las matrices con un tamaño dado y con un determinante de 1 forman un subgrupo de (es decir, un grupo más pequeño contenido en) su grupo lineal general, llamado grupo lineal especial . Matrices ortogonales , determinadas por la condición

M T M = Yo ,

forman el grupo ortogonal . Toda matriz ortogonal tiene determinante 1 o −1. Las matrices ortogonales con determinante 1 forman un subgrupo llamado grupo ortogonal especial .

Cada grupo finito es isomorfo a un grupo de matriz, como se puede ver al considerar la representación regular del grupo simétrico . Los grupos generales se pueden estudiar utilizando grupos matriciales, comparativamente bien entendidos, mediante la teoría de la representación .

Matrices infinitas

También es posible considerar matrices con un número infinito de filas y / o columnas incluso si, al ser objetos infinitos, no se pueden escribir tales matrices explícitamente. Todo lo que importa es que para cada elemento en las filas de indexación del conjunto, y cada elemento en las columnas de indexación del conjunto, hay una entrada bien definida (estos conjuntos de índices ni siquiera necesitan ser subconjuntos de los números naturales). Las operaciones básicas de suma, resta, multiplicación escalar y transposición aún se pueden definir sin problemas; sin embargo, la multiplicación de matrices puede involucrar sumas infinitas para definir las entradas resultantes, y estas no están definidas en general.

Si R es cualquier anillo con unidad, entonces el anillo de endomorfismos de un módulo R derecho es isomorfo al anillo de matrices finitas de columna cuyas entradas están indexadas por , y cuyas columnas contienen solo un número finito de entradas distintas de cero. Los endomorfismos de M considerados como un módulo R izquierdo dan como resultado un objeto análogo, las matrices finitas de filas cuyas filas tienen cada una de ellas un número finito de entradas distintas de cero.

Si se usan matrices infinitas para describir mapas lineales, entonces solo se pueden usar aquellas matrices cuyas columnas tienen un número finito de entradas distintas de cero, por la siguiente razón. Para que una matriz A describa un mapa lineal f : VW , se deben haber elegido las bases para ambos espacios; recuerde que, por definición, esto significa que cada vector en el espacio se puede escribir de forma única como una combinación lineal (finita) de vectores base, de modo que, escrito como un vector (columna) v de coeficientes , solo un número finito de entradas v i son distintas de cero. Ahora, las columnas de A describen las imágenes por f de vectores de base individuales de V en la base de W , lo cual solo es significativo si estas columnas tienen solo un número finito de entradas distintas de cero. Sin embargo, no hay restricción en las filas de A : en el producto A · v solo hay un número finito de coeficientes distintos de cero de v involucrados, por lo que cada una de sus entradas, incluso si se da como una suma infinita de productos, involucra solo una cantidad finita muchos términos distintos de cero y, por lo tanto, está bien definido. Además, esto equivale a formar una combinación lineal de las columnas de A que de hecho implica sólo un número finito de ellas, por lo que el resultado sólo tiene un número finito de entradas distintas de cero porque cada una de esas columnas lo hace. Los productos de dos matrices del tipo dado están bien definidos (siempre que los conjuntos de índice de columna y de índice de fila coincidan), son del mismo tipo y corresponden a la composición de mapas lineales.  

Si R es un anillo normalizado , entonces la condición de finitud de filas o columnas se puede relajar. Con la norma establecida, se pueden usar series absolutamente convergentes en lugar de sumas finitas. Por ejemplo, las matrices cuyas sumas de columna son secuencias absolutamente convergentes forman un anillo. De manera análoga, las matrices cuyas sumas de fila son series absolutamente convergentes también forman un anillo.

Las matrices infinitas también se pueden usar para describir operadores en espacios de Hilbert , donde surgen preguntas de convergencia y continuidad , lo que nuevamente da como resultado ciertas restricciones que deben imponerse. Sin embargo, el punto de vista explícito de las matrices tiende a ofuscar el asunto, y en su lugar se pueden utilizar las herramientas abstractas y más poderosas del análisis funcional .

Matriz vacía

Una matriz vacía es una matriz en la que el número de filas o columnas (o ambas) es cero. Las matrices vacías ayudan a lidiar con mapas que involucran el espacio vectorial cero . Por ejemplo, si A es una matriz de 3 por 0 y B es una matriz de 0 por 3, entonces AB es la matriz cero de 3 por 3 correspondiente al mapa nulo de un espacio tridimensional V a sí mismo, mientras que BA es una matriz de 0 por 0. No existe una notación común para las matrices vacías, pero la mayoría de los sistemas de álgebra por computadora permiten crear y calcular con ellas. El determinante de la matriz 0-por-0 es 1 como sigue con respecto al producto vacío que ocurre en la fórmula de Leibniz para el determinante como 1. Este valor también es consistente con el hecho de que el mapa de identidad de cualquier espacio de dimensión finita a sí mismo tiene determinante  1, un hecho que se utiliza a menudo como parte de la caracterización de determinantes.

Aplicaciones

Existen numerosas aplicaciones de las matrices, tanto en matemáticas como en otras ciencias. Algunos de ellos simplemente aprovechan la representación compacta de un conjunto de números en una matriz. Por ejemplo, en teoría y economía de juegos , la matriz de pagos codifica el pago para dos jugadores, dependiendo de cuál de un conjunto dado (finito) de alternativas elijan los jugadores. La minería de texto y la compilación automatizada de tesauros utilizan matrices de términos de documentos como tf-idf para rastrear las frecuencias de ciertas palabras en varios documentos.

Los números complejos se pueden representar mediante matrices reales particulares de 2 por 2 a través de

bajo el cual la suma y la multiplicación de números complejos y matrices se corresponden entre sí. Por ejemplo, las matrices de rotación de 2 por 2 representan la multiplicación con algún número complejo de valor absoluto 1, como se indicó anteriormente . Una interpretación similar es posible para los cuaterniones y las álgebras de Clifford en general.

Las primeras técnicas de cifrado , como el cifrado Hill, también utilizaban matrices. Sin embargo, debido a la naturaleza lineal de las matrices, estos códigos son comparativamente fáciles de romper. Los gráficos por computadora usan matrices tanto para representar objetos como para calcular transformaciones de objetos usando matrices de rotación afines para realizar tareas como proyectar un objeto tridimensional en una pantalla bidimensional, correspondiente a una observación teórica de la cámara. Las matrices sobre un anillo polinomial son importantes en el estudio de la teoría de control .

La química hace uso de matrices de varias maneras, particularmente desde el uso de la teoría cuántica para discutir los enlaces moleculares y la espectroscopía . Algunos ejemplos son la matriz de superposición y la matriz de Fock que se utilizan para resolver las ecuaciones de Roothaan para obtener los orbitales moleculares del método Hartree-Fock .

Teoría de grafos

Un gráfico no dirigido con matriz de adyacencia:

La matriz de adyacencia de un gráfico finito es una noción básica de la teoría de grafos . Registra qué vértices del gráfico están conectados por una arista. Las matrices que contienen solo dos valores diferentes (1 y 0 que significan, por ejemplo, "sí" y "no", respectivamente) se denominan matrices lógicas . La matriz de distancia (o costo) contiene información sobre las distancias de los bordes. Estos conceptos se pueden aplicar a sitios web conectados por hipervínculos o ciudades conectadas por carreteras, etc., en cuyo caso (a menos que la red de conexión sea extremadamente densa) las matrices tienden a ser escasas , es decir, contienen pocas entradas distintas de cero. Por lo tanto, en la teoría de redes se pueden utilizar algoritmos matriciales diseñados específicamente .

Análisis y geometría

La matriz de Hesse de una función diferenciable ƒ : R nR consta de las segundas derivadas de ƒ con respecto a las varias direcciones de coordenadas, es decir,

En el punto de silla ( x  =  0, y  =  0) (rojo) de la función f ( x , - y ) = x 2 - y 2 , la matriz de Hesse es indefinida .   

Codifica información sobre el comportamiento de crecimiento local de la función: dado un punto crítico x  =  ( x 1 ,  ..., x n ), es decir, un punto donde las primeras derivadas parciales de ƒ desaparecen, la función tiene un mínimo local si la matriz de Hesse es definida positiva . La programación cuadrática se puede utilizar para encontrar mínimos o máximos globales de funciones cuadráticas estrechamente relacionadas con las adjuntas a las matrices (ver arriba ).  

Otra matriz de uso frecuente en situaciones geométricas es la matriz de Jacobi de un mapa diferenciable f : R nR m . Si f 1 , ..., f m denota los componentes de f , entonces la matriz de Jacobi se define como

Si n > my si el rango de la matriz de Jacobi alcanza su valor máximo m , f es localmente invertible en ese punto, por el teorema de la función implícita .

Las ecuaciones diferenciales parciales se pueden clasificar considerando la matriz de coeficientes de los operadores diferenciales de mayor orden de la ecuación. Para las ecuaciones diferenciales parciales elípticas esta matriz es positiva definida, lo que tiene una influencia decisiva en el conjunto de posibles soluciones de la ecuación en cuestión.

El método de los elementos finitos es un método numérico importante para resolver ecuaciones diferenciales parciales, ampliamente aplicado en la simulación de sistemas físicos complejos. Intenta aproximar la solución a alguna ecuación mediante funciones lineales por partes, donde las piezas se eligen con respecto a una cuadrícula suficientemente fina, que a su vez puede reformularse como una ecuación matricial.

Teoría de la probabilidad y estadística

Dos cadenas de Markov diferentes. El gráfico muestra el número de partículas (de un total de 1000) en el estado "2". Ambos valores límite se pueden determinar a partir de las matrices de transición, que vienen dadas por (rojo) y (negro).

Las matrices estocásticas son matrices cuadradas cuyas filas son vectores de probabilidad , es decir, cuyas entradas no son negativas y suman uno. Las matrices estocásticas se utilizan para definir cadenas de Markov con un número finito de estados. Una fila de la matriz estocástica da la distribución de probabilidad para la siguiente posición de alguna partícula actualmente en el estado que corresponde a la fila. Las propiedades de los estados absorbentes en forma de cadena de Markov , es decir, los estados que cualquier partícula alcanza eventualmente, pueden leerse en los autovectores de las matrices de transición.

La estadística también hace uso de matrices en muchas formas diferentes. La estadística descriptiva se ocupa de describir conjuntos de datos, que a menudo se pueden representar como matrices de datos , que luego pueden someterse a técnicas de reducción de dimensionalidad . La matriz de covarianza codifica la varianza mutua de varias variables aleatorias . Otra técnica que utiliza matrices son los mínimos cuadrados lineales , un método que aproxima un conjunto finito de pares ( x 1 , y 1 ), ( x 2 , y 2 ), ..., ( x N , y N ), mediante una función lineal

y yoeje yo + b , yo = 1, ..., N

que se puede formular en términos de matrices, relacionado con la descomposición de valores singulares de matrices.

Las matrices aleatorias son matrices cuyas entradas son números aleatorios, sujetas a distribuciones de probabilidad adecuadas , como la distribución normal de la matriz . Más allá de la teoría de la probabilidad, se aplican en dominios que van desde la teoría de números hasta la física .

Simetrías y transformaciones en física

Las transformaciones lineales y las simetrías asociadas juegan un papel clave en la física moderna. Por ejemplo, las partículas elementales en la teoría cuántica de campos se clasifican como representaciones del grupo de Lorentz de la relatividad especial y, más específicamente, por su comportamiento bajo el grupo de espín . Las representaciones concretas que involucran las matrices de Pauli y las matrices gamma más generales son una parte integral de la descripción física de los fermiones , que se comportan como espinores . Para los tres quarks más ligeros , hay una representación teórica de grupo que involucra al grupo unitario especial SU (3); para sus cálculos, los físicos utilizan una representación matricial conveniente conocida como matrices de Gell-Mann , que también se utilizan para el grupo de calibre SU (3) que forma la base de la descripción moderna de interacciones nucleares fuertes, la cromodinámica cuántica . La matriz Cabibbo-Kobayashi-Maskawa , a su vez, expresa el hecho de que los estados de quark básicos que son importantes para interacciones débiles no son los mismos, sino que están relacionados linealmente con los estados de quark básicos que definen partículas con masas específicas y distintas .

Combinaciones lineales de estados cuánticos

El primer modelo de mecánica cuántica ( Heisenberg , 1925) representó los operadores de la teoría mediante matrices de dimensión infinita que actúan sobre estados cuánticos. Esto también se conoce como mecánica matricial . Un ejemplo particular es la matriz de densidad que caracteriza el estado "mixto" de un sistema cuántico como una combinación lineal de estados propios elementales y "puros" .

Otra matriz sirve como herramienta clave para describir los experimentos de dispersión que forman la piedra angular de la física de partículas experimental: reacciones de colisión como las que ocurren en los aceleradores de partículas , donde las partículas que no interactúan se dirigen entre sí y chocan en una pequeña zona de interacción, con una nueva El conjunto de partículas que no interactúan como resultado, se puede describir como el producto escalar de los estados de las partículas salientes y una combinación lineal de los estados de las partículas entrantes. La combinación lineal viene dada por una matriz conocida como matriz S , que codifica toda la información sobre las posibles interacciones entre partículas.

Modos normales

Una aplicación general de las matrices en física es la descripción de sistemas armónicos acoplados linealmente. Las ecuaciones de movimiento de tales sistemas se pueden describir en forma de matriz, con una matriz de masa que multiplica una velocidad generalizada para dar el término cinético y una matriz de fuerza que multiplica un vector de desplazamiento para caracterizar las interacciones. La mejor manera de obtener soluciones es determinar los vectores propios del sistema , sus modos normales , diagonalizando la ecuación matricial. Técnicas como esta son cruciales cuando se trata de la dinámica interna de las moléculas : las vibraciones internas de los sistemas que consisten en átomos componentes mutuamente unidos. También son necesarios para describir vibraciones mecánicas y oscilaciones en circuitos eléctricos.

Óptica geométrica

La óptica geométrica proporciona más aplicaciones matriciales. En esta teoría aproximada, se desprecia la naturaleza ondulatoria de la luz. El resultado es un modelo en el que los rayos de luz son de hecho rayos geométricos . Si la desviación de los rayos de luz por los elementos ópticos es pequeña, la acción de una lente o elemento reflectante sobre un rayo de luz dado se puede expresar como la multiplicación de un vector de dos componentes con una matriz de dos por dos llamada análisis de matriz de transferencia de rayos : Los componentes del vector son la pendiente del rayo de luz y su distancia del eje óptico, mientras que la matriz codifica las propiedades del elemento óptico. En realidad, hay dos tipos de matrices, a saber. una matriz de refracción que describe la refracción en la superficie de una lente, y una matriz de traslación , que describe la traslación del plano de referencia a la siguiente superficie de refracción, donde se aplica otra matriz de refracción. El sistema óptico, que consiste en una combinación de lentes y / o elementos reflectantes, se describe simplemente mediante la matriz resultante del producto de las matrices de los componentes.

Electrónica

El análisis de malla tradicional y el análisis nodal en electrónica conducen a un sistema de ecuaciones lineales que se pueden describir con una matriz.

El comportamiento de muchos componentes electrónicos se puede describir mediante matrices. Sea A un vector bidimensional con el voltaje de entrada v 1 del componente y la corriente de entrada i 1 como sus elementos, y sea B un vector bidimensional con el voltaje de salida v 2 del componente y la corriente de salida i 2 como sus elementos. Entonces, el comportamiento del componente electrónico puede ser descrito por B = H · A , donde H es una matriz de 2 x 2 que contiene un elemento de impedancia ( h 12 ), un elemento de admitancia ( h 21 ) y dos elementos adimensionales ( h 11 y h 22 ). Calcular un circuito ahora se reduce a multiplicar matrices.

Historia

Las matrices tienen una larga historia de aplicación en la resolución de ecuaciones lineales, pero se las conocía como matrices hasta el siglo XIX. El texto chino Los nueve capítulos sobre el arte matemático escrito en los siglos X y II a. C. es el primer ejemplo del uso de métodos de matriz para resolver ecuaciones simultáneas , incluido el concepto de determinantes . En 1545, el matemático italiano Gerolamo Cardano introdujo el método en Europa cuando publicó Ars Magna . El matemático japonés Seki usó los mismos métodos de matriz para resolver ecuaciones simultáneas en 1683. El matemático holandés Jan de Witt representó transformaciones usando matrices en su libro de 1659 Elements of Curves (1659). Entre 1700 y 1710, Gottfried Wilhelm Leibniz publicitó el uso de matrices para registrar información o soluciones y experimentó con más de 50 sistemas diferentes de matrices. Cramer presentó su gobierno en 1750.

El término "matriz" (en latín "útero", derivado de mater -madre) fue acuñado por James Joseph Sylvester en 1850, quien entendía una matriz como un objeto que da lugar a varios determinantes hoy denominados menores , es decir, determinantes de matrices más pequeñas que se derivan de la original eliminando columnas y filas. En un artículo de 1851, Sylvester explica:

En artículos anteriores he definido una "Matriz" como un conjunto rectangular de términos, de los cuales pueden engendrarse diferentes sistemas de determinantes a partir del útero de un padre común.

Arthur Cayley publicó un tratado sobre transformaciones geométricas utilizando matrices que no eran versiones rotadas de los coeficientes que se estaban investigando como se había hecho anteriormente. En cambio, definió operaciones como la suma, resta, multiplicación y división como transformaciones de esas matrices y mostró que las propiedades asociativas y distributivas se mantenían verdaderas. Cayley investigó y demostró la propiedad no conmutativa de la multiplicación de matrices, así como la propiedad conmutativa de la suma de matrices. La teoría matricial temprana había limitado el uso de matrices casi exclusivamente a determinantes y las operaciones matriciales abstractas de Arthur Cayley eran revolucionarias. Jugó un papel decisivo al proponer un concepto de matriz independiente de los sistemas de ecuaciones. En 1858 Cayley publicó sus memorias A sobre la teoría de matrices en las que propuso y demostró el teorema de Cayley-Hamilton .

El matemático inglés Cuthbert Edmund Cullis fue el primero en usar la notación moderna entre corchetes para matrices en 1913 y simultáneamente demostró el primer uso significativo de la notación A = [ a i , j ] para representar una matriz donde a i , j se refiere a la i la fila y la columna j .

El estudio moderno de los determinantes surgió de varias fuentes. Los problemas de teoría numérica llevaron a Gauss a relacionar coeficientes de formas cuadráticas , es decir, expresiones como x 2 + xy - 2 y 2 , y mapas lineales en tres dimensiones con matrices. Eisenstein desarrolló aún más estas nociones, incluida la observación de que, en el lenguaje moderno, los productos matriciales no son conmutativos . Cauchy fue el primero en probar afirmaciones generales sobre determinantes, utilizando como definición del determinante de una matriz A = [ a i , j ] lo siguiente: reemplazar las potencias a j k por a jk en el polinomio

,

donde Π denota el producto de los términos indicados. También demostró, en 1829, que los valores propios de las matrices simétricas son reales. Jacobi estudió los "determinantes funcionales" —más tarde llamados determinantes de Jacobi por Sylvester— que pueden usarse para describir transformaciones geométricas a un nivel local (o infinitesimal ), ver más arriba ; Kronecker 's Vorlesungen über die Theorie der Determinanten y Weierstrass' Zur Determinantentheorie , ambos publicados en 1903, los determinantes primera tratados axiomáticamente , en oposición a más concreta anterior enfoques tales como la fórmula mencionada de Cauchy. En ese momento, los determinantes estaban firmemente establecidos.

Muchos teoremas se establecieron por primera vez solo para matrices pequeñas, por ejemplo, el teorema de Cayley-Hamilton fue probado para matrices de 2 × 2 por Cayley en las memorias antes mencionadas, y por Hamilton para matrices de 4 × 4. Frobenius , trabajando en formas bilineales , generalizó el teorema a todas las dimensiones (1898). También a finales del siglo 19, la eliminación de Gauss-Jordan (generalizar un caso especial que ahora se conoce como la eliminación de Gauss ) fue establecido por Jordan . A principios del siglo XX, las matrices alcanzaron un papel central en el álgebra lineal, en parte debido a su uso en la clasificación de los sistemas numéricos hipercomplejos del siglo anterior.

El inicio de la mecánica matricial por Heisenberg , Born y Jordan llevó al estudio de matrices con infinitas filas y columnas. Posteriormente, von Neumann llevó a cabo la formulación matemática de la mecánica cuántica , desarrollando más nociones analíticas funcionales como los operadores lineales en los espacios de Hilbert , que, en términos muy generales, corresponden al espacio euclidiano , pero con una infinidad de direcciones independientes .

Otros usos históricos de la palabra "matriz" en matemáticas

La palabra ha sido utilizada de manera inusual por al menos dos autores de importancia histórica.

Bertrand Russell y Alfred North Whitehead en sus Principia Mathematica (1910-1913) usan la palabra "matriz" en el contexto de su axioma de reducibilidad . Propusieron este axioma como un medio para reducir cualquier función a una de tipo inferior, sucesivamente, de modo que en el "fondo" (orden 0) la función sea idéntica a su extensión :

"Démosle el nombre de matriz a cualquier función, sin importar cuántas variables, que no involucre ninguna variable aparente . Entonces, cualquier función posible que no sea una matriz deriva de una matriz por medio de la generalización, es decir, considerando la proposición que la función en cuestión es verdadera con todos los valores posibles o con algún valor de uno de los argumentos, quedando indeterminado el otro argumento o argumentos ".

Por ejemplo, un varphi función ( x, y ) de dos variables x e y pueden ser reducidas a una colección de funciones de una sola variable, por ejemplo, y , por "considerando" la función para todos los valores posibles de "individuos" una i sustituido en lugar de la variable x . Y luego la colección resultante de funciones de la variable única y , es decir, ∀a i : Φ ( a i , y ), se puede reducir a una "matriz" de valores "considerando" la función para todos los valores posibles de " individuos " b i sustituido en lugar de la variable y :

∀b j ∀a yo : Φ ( a yo , b j ).

Alfred Tarski en su Introducción a la lógica de 1946 usó la palabra "matriz" como sinónimo de la noción de tabla de verdad tal como se usa en lógica matemática.

Ver también

Notas

Referencias

Referencias de física

Referencias históricas

Otras lecturas

enlaces externos