Análisis de errores (matemáticas) - Error analysis (mathematics)

En matemáticas, el análisis de errores es el estudio del tipo y la cantidad de error , o incertidumbre, que puede estar presente en la solución de un problema. Este problema es particularmente prominente en áreas aplicadas como el análisis numérico y las estadísticas .

Análisis de errores en modelado numérico

En la simulación numérica o el modelado de sistemas reales, el análisis de errores se ocupa de los cambios en la salida del modelo, ya que los parámetros del modelo varían alrededor de una media .

Por ejemplo, en un sistema modelado en función de dos variables . El análisis de errores se ocupa de la propagación de los errores numéricos en y (alrededor de los valores medios y ) al error en (alrededor de una media ).

En análisis numérico, análisis de errores comprende tanto el análisis de errores hacia adelante y análisis de errores hacia atrás .

Análisis de errores hacia adelante

El análisis de errores hacia adelante implica el análisis de una función que es una aproximación (generalmente un polinomio finito) a una función para determinar los límites del error en la aproximación; es decir, encontrar tal que . Se desea la evaluación de errores de reenvío en números validados .

Análisis de errores hacia atrás

El análisis de error hacia atrás implica el análisis de la función de aproximación , para determinar los límites de los parámetros de manera que el resultado .

El análisis de errores hacia atrás, cuya teoría fue desarrollada y popularizada por James H. Wilkinson , se puede utilizar para establecer que un algoritmo que implementa una función numérica es numéricamente estable. El enfoque básico es mostrar que aunque el resultado calculado, debido a errores de redondeo, no será exactamente correcto, es la solución exacta a un problema cercano con datos de entrada ligeramente perturbados. Si la perturbación requerida es pequeña, del orden de la incertidumbre en los datos de entrada, entonces los resultados son en cierto sentido tan precisos como los datos "merecen". El algoritmo se define entonces como estable hacia atrás . La estabilidad es una medida de la sensibilidad a los errores de redondeo de un procedimiento numérico dado; por el contrario, el número de condición de una función para un problema dado indica la sensibilidad inherente de la función a pequeñas perturbaciones en su entrada y es independiente de la implementación utilizada para resolver el problema.

Aplicaciones

Sistema de Posicionamiento Global

El análisis de errores calculados utilizando el sistema de posicionamiento global es importante para comprender cómo funciona el GPS y para saber qué magnitud de errores se deben esperar. El sistema de posicionamiento global hace correcciones por errores de reloj del receptor y otros efectos, pero todavía hay errores residuales que no se corrigen. El Sistema de Posicionamiento Global (GPS) fue creado por el Departamento de Defensa de los Estados Unidos (DOD) en la década de 1970. Ha llegado a ser ampliamente utilizado para la navegación tanto por el ejército estadounidense como por el público en general.

Simulación de dinámica molecular

En las simulaciones de dinámica molecular (MD), existen errores debido a un muestreo inadecuado del espacio de fase o eventos que ocurren con poca frecuencia, estos conducen al error estadístico debido a la fluctuación aleatoria en las mediciones.

Para una serie de M mediciones de una propiedad fluctuante A , el valor medio es:

Cuando estos M mediciones son independientes, la varianza de la media < A > es:

pero en la mayoría de simulaciones MD, existe una correlación entre la cantidad A en un momento diferente, por lo que la varianza de la media < A > será subestimada como el número efectivo de mediciones independientes es en realidad menor que M . En tales situaciones, reescribimos la varianza como:

donde es la función de autocorrelación definida por

Luego podemos usar la función de autocorrelación para estimar la barra de error . Afortunadamente, tenemos un método mucho más simple basado en el promedio de bloques .

Verificación de datos científicos

Las mediciones generalmente tienen una pequeña cantidad de error, y las mediciones repetidas del mismo artículo generalmente darán como resultado ligeras diferencias en las lecturas. Estas diferencias se pueden analizar y seguir ciertas propiedades matemáticas y estadísticas conocidas. Si un conjunto de datos parece ser demasiado fiel a la hipótesis, es decir, no aparece la cantidad de error que normalmente habría en tales mediciones, se puede sacar una conclusión de que los datos pueden haber sido falsificados. El análisis de errores por sí solo no suele ser suficiente para demostrar que los datos han sido falsificados o fabricados, pero puede proporcionar la evidencia de apoyo necesaria para confirmar las sospechas de mala conducta.

Ver también

Referencias

enlaces externos

  • [1] Todo sobre análisis de errores.