Análisis de sensibilidad - Sensitivity analysis

El análisis de sensibilidad es el estudio de cómo la incertidumbre en la salida de un modelo o sistema matemático (numérico o de otro tipo) puede dividirse y asignarse a diferentes fuentes de incertidumbre en sus entradas. Una práctica relacionada es el análisis de incertidumbre , que tiene un mayor enfoque en la cuantificación de la incertidumbre y la propagación de la incertidumbre ; idealmente, los análisis de incertidumbre y sensibilidad deberían ejecutarse en conjunto.

El proceso de recalcular resultados bajo supuestos alternativos para determinar el impacto de una variable bajo análisis de sensibilidad puede ser útil para una variedad de propósitos, que incluyen:

  • Probar la robustez de los resultados de un modelo o sistema en presencia de incertidumbre.
  • Mayor comprensión de las relaciones entre las variables de entrada y salida en un sistema o modelo.
  • Reducción de la incertidumbre, a través de la identificación de la entrada del modelo que causa una incertidumbre significativa en la salida y, por lo tanto, debe ser el foco de atención para aumentar la solidez (tal vez mediante más investigaciones).
  • Búsqueda de errores en el modelo (al encontrar relaciones inesperadas entre entradas y salidas).
  • Simplificación del modelo: corregir la entrada del modelo que no tiene ningún efecto en la salida, o identificar y eliminar partes redundantes de la estructura del modelo.
  • Mejorar la comunicación de los modeladores a los tomadores de decisiones (por ejemplo, haciendo recomendaciones más creíbles, comprensibles, convincentes o persuasivas).
  • Encontrar regiones en el espacio de factores de entrada para los cuales la salida del modelo es máxima o mínima o cumple con algún criterio óptimo (ver optimización y filtrado de Monte Carlo).
  • En el caso de calibrar modelos con una gran cantidad de parámetros, una prueba de sensibilidad primaria puede facilitar la etapa de calibración centrándose en los parámetros sensibles. No conocer la sensibilidad de los parámetros puede hacer que se pierda tiempo inútilmente en los no sensibles.
  • Buscar identificar conexiones importantes entre observaciones, entradas de modelos y predicciones o pronósticos, lo que lleva al desarrollo de mejores modelos.

Visión general

Un modelo matemático (por ejemplo, en biología, cambio climático, economía o ingeniería) puede ser muy complejo y, como resultado, sus relaciones entre entradas y salidas pueden no comprenderse bien. En tales casos, el modelo puede verse como una caja negra , es decir, la salida es una función "opaca" de sus entradas. Muy a menudo, algunas o todas las entradas del modelo están sujetas a fuentes de incertidumbre , incluidos errores de medición , ausencia de información y comprensión deficiente o parcial de las fuerzas y mecanismos impulsores. Esta incertidumbre impone un límite a nuestra confianza en la respuesta o salida del modelo. Además, los modelos pueden tener que hacer frente a la variabilidad intrínseca natural del sistema (aleatoria), como la ocurrencia de eventos estocásticos .

Una buena práctica de modelado requiere que el modelador proporcione una evaluación de la confianza en el modelo. Esto requiere, en primer lugar, una cuantificación de la incertidumbre en los resultados de cualquier modelo ( análisis de incertidumbre ); y segundo, una evaluación de cuánto está contribuyendo cada entrada a la incertidumbre de la salida. El análisis de sensibilidad aborda el segundo de estos problemas (aunque el análisis de incertidumbre suele ser un precursor necesario), desempeñando el papel de ordenar por importancia la fuerza y ​​relevancia de las entradas para determinar la variación en la salida.

En modelos que involucran muchas variables de entrada, el análisis de sensibilidad es un ingrediente esencial de la construcción de modelos y aseguramiento de la calidad. Las agencias nacionales e internacionales involucradas en estudios de evaluación de impacto han incluido secciones dedicadas al análisis de sensibilidad en sus guías. Algunos ejemplos son la Comisión Europea (véanse, por ejemplo, las directrices para la evaluación de impacto ), la Oficina de Gestión y Presupuesto de la Casa Blanca , el Panel Intergubernamental sobre Cambio Climático y las directrices de modelización de la Agencia de Protección Ambiental de EE. UU . En un comentario publicado en 2020 en la revista Nature 22, los académicos toman COVID-19 como la ocasión para sugerir cinco formas de hacer que los modelos sirvan mejor a la sociedad. Una de las cinco recomendaciones, bajo el título de 'Preste atención a las suposiciones' es 'realizar análisis de sensibilidad e incertidumbre global [...] permitiendo que todo lo que es incierto - variables, relaciones matemáticas y condiciones de frontera - varíe simultáneamente como corridas de modelo produce su gama de predicciones.

Configuración, restricciones y problemas relacionados

Configuraciones y restricciones

La elección del método de análisis de sensibilidad suele depender de una serie de limitaciones o entornos del problema. Algunos de los más comunes son

  • Gasto computacional: El análisis de sensibilidad casi siempre se realiza ejecutando el modelo un número (posiblemente grande) de veces, es decir, un enfoque basado en muestreo . Esto puede ser un problema importante cuando,
    • Una sola ejecución del modelo requiere una cantidad significativa de tiempo (minutos, horas o más). Esto no es inusual con modelos muy complejos.
    • El modelo tiene una gran cantidad de entradas inciertas. El análisis de sensibilidad es esencialmente la exploración del espacio de entrada multidimensional , que crece exponencialmente en tamaño con el número de entradas. Vea la maldición de la dimensionalidad .
El gasto computacional es un problema en muchos análisis prácticos de sensibilidad. Algunos métodos para reducir el gasto computacional incluyen el uso de emuladores (para modelos grandes) y métodos de cribado (para reducir la dimensionalidad del problema). Otro método es utilizar un método de análisis de sensibilidad basado en eventos para la selección de variables para aplicaciones con limitaciones de tiempo. Este es un método de selección de variables de entrada (IVS) que reúne información sobre la traza de los cambios en las entradas y salidas del sistema utilizando análisis de sensibilidad para producir una matriz de eventos / activación de entrada / salida que está diseñada para mapear las relaciones entre los datos de entrada como causas. que desencadenan eventos y los datos de salida que describen los eventos reales. La relación de causa-efecto entre las causas del cambio de estado, es decir, las variables de entrada y los parámetros de salida del sistema de efectos, determina qué conjunto de entradas tienen un impacto genuino en una salida determinada. El método tiene una clara ventaja sobre el método IVS analítico y computacional, ya que intenta comprender e interpretar el cambio de estado del sistema en el menor tiempo posible con una sobrecarga computacional mínima.
  • Entradas correlacionadas: los métodos de análisis de sensibilidad más comunes asumen independencia entre las entradas del modelo, pero a veces las entradas pueden estar fuertemente correlacionadas. Este es todavía un campo de investigación inmaduro y aún no se han establecido métodos definitivos.
  • No linealidad: algunos enfoques de análisis de sensibilidad, como los que se basan en la regresión lineal , pueden medir de manera inexacta la sensibilidad cuando la respuesta del modelo no es lineal con respecto a sus entradas. En tales casos, las medidas basadas en la varianza son más apropiadas.
  • Interacciones del modelo: las interacciones ocurren cuando la perturbación de dos o más entradas simultáneamente causa una variación en la salida mayor que la de variar cada una de las entradas por sí sola. Tales interacciones están presentes en cualquier modelo que no sea aditivo , pero serán ignoradas por métodos como diagramas de dispersión y perturbaciones de una en una. El efecto de las interacciones se puede medir mediante el índice de sensibilidad de orden total .
  • Múltiples salidas: Prácticamente todos los métodos de análisis de sensibilidad consideran una única salida de modelo univariante , sin embargo, muchos modelos generan una gran cantidad de datos posiblemente dependientes del tiempo o del espacio. Tenga en cuenta que esto no excluye la posibilidad de realizar diferentes análisis de sensibilidad para cada resultado de interés. Sin embargo, para los modelos en los que las salidas están correlacionadas, las medidas de sensibilidad pueden ser difíciles de interpretar.
  • Datos dados: si bien en muchos casos el profesional tiene acceso al modelo, en algunos casos se debe realizar un análisis de sensibilidad con "datos dados", es decir, donde los puntos de muestra (los valores de las entradas del modelo para cada ejecución) no pueden ser elegidos por el analista. Esto puede ocurrir cuando un análisis de sensibilidad debe realizarse retrospectivamente, quizás utilizando datos de un análisis de optimización o incertidumbre, o cuando los datos provienen de una fuente discreta .

Supuestos frente a inferencias

En el análisis de incertidumbre y sensibilidad, existe una compensación crucial entre cuán escrupuloso es un analista al explorar los supuestos de entrada y cuán amplia puede ser la inferencia resultante . El punto está bien ilustrado por el econométrico Edward E. Leamer :

He propuesto una forma de análisis de sensibilidad organizado que llamo "análisis de sensibilidad global" en el que se selecciona una vecindad de supuestos alternativos y se identifica el intervalo de inferencias correspondiente. Se considera que las conclusiones son sólidas solo si la vecindad de los supuestos es lo suficientemente amplia como para ser creíble y el intervalo correspondiente de inferencias es lo suficientemente estrecho como para ser útil.

Note que el énfasis de Leamer está en la necesidad de "credibilidad" en la selección de supuestos. La forma más fácil de invalidar un modelo es demostrar que es frágil con respecto a la incertidumbre en los supuestos o mostrar que sus supuestos no se han tomado "lo suficientemente amplios". Jerome R. Ravetz expresa el mismo concepto, para quien un mal modelo es cuando las incertidumbres en las entradas deben suprimirse para que las salidas no se vuelvan indeterminadas.

Escollos y dificultades

Algunas dificultades comunes en el análisis de sensibilidad incluyen

  • Demasiadas entradas de modelo para analizar. El cribado se puede utilizar para reducir la dimensionalidad. Otra forma de abordar la maldición de la dimensionalidad es utilizar un muestreo basado en secuencias de baja discrepancia.
  • El modelo tarda demasiado en ejecutarse. Los emuladores (incluido HDMR ) pueden reducir el tiempo total acelerando el modelo o reduciendo el número de ejecuciones del modelo necesarias.
  • No hay suficiente información para construir distribuciones de probabilidad para las entradas. Las distribuciones de probabilidad se pueden construir a partir de la obtención de expertos , aunque incluso entonces puede ser difícil construir distribuciones con gran confianza. La subjetividad de las distribuciones o rangos de probabilidad afectará fuertemente el análisis de sensibilidad.
  • Propósito poco claro del análisis. Se aplican diferentes pruebas y medidas estadísticas al problema y se obtienen diferentes clasificaciones de factores. En cambio, la prueba debe adaptarse al propósito del análisis, por ejemplo, se usa el filtrado Monte Carlo si está interesado en qué factores son los más responsables de generar valores altos / bajos de la salida.
  • Se consideran demasiados resultados del modelo. Esto puede ser aceptable para la garantía de calidad de los submodelos, pero debe evitarse al presentar los resultados del análisis general.
  • Sensibilidad por partes. Esto es cuando se realiza un análisis de sensibilidad en un submodelo a la vez. Este enfoque no es conservador, ya que podría pasar por alto las interacciones entre factores en diferentes submodelos (error de tipo II).
  • El enfoque OAT comúnmente utilizado no es válido para modelos no lineales. En su lugar, deberían utilizarse métodos globales.

Métodos de análisis de sensibilidad

Esquema ideal de un análisis de sensibilidad posiblemente basado en muestreo. La incertidumbre que surge de diferentes fuentes (errores en los datos, procedimiento de estimación de parámetros, estructuras alternativas del modelo) se propaga a través del modelo para el análisis de incertidumbre y su importancia relativa se cuantifica mediante el análisis de sensibilidad.
Análisis de sensibilidad basado en muestreo mediante diagramas de dispersión. Y (eje vertical) es una función de cuatro factores. Los puntos en los cuatro diagramas de dispersión son siempre los mismos, aunque ordenados de manera diferente, es decir, por Z 1 , Z 2 , Z 3 , Z 4 a su vez. Tenga en cuenta que la abscisa es diferente para cada gráfico: (−5, +5) para Z 1 , (−8, +8) para Z 2 , (−10, +10) para Z 3 y Z 4 . Z 4 es más importante en influir en Y , ya que imparte más 'forma' en Y .

Existe una gran cantidad de enfoques para realizar un análisis de sensibilidad, muchos de los cuales se han desarrollado para abordar una o más de las limitaciones discutidas anteriormente. También se distinguen por el tipo de medida de sensibilidad, ya sea basada en (por ejemplo) descomposiciones de varianza , derivadas parciales o efectos elementales . Sin embargo, en general, la mayoría de los procedimientos se adhieren al siguiente esquema:

  1. Cuantifique la incertidumbre en cada entrada (por ejemplo, rangos, distribuciones de probabilidad). Tenga en cuenta que esto puede ser difícil y existen muchos métodos para obtener distribuciones de incertidumbre a partir de datos subjetivos.
  2. Identifique el resultado del modelo que se va a analizar (el objetivo de interés idealmente debería tener una relación directa con el problema abordado por el modelo).
  3. Ejecute el modelo varias veces utilizando algún diseño de experimentos , dictado por el método de elección y la incertidumbre de entrada.
  4. Utilizando los resultados del modelo resultante, calcule las medidas de sensibilidad de interés.

En algunos casos, este procedimiento se repetirá, por ejemplo, en problemas de alta dimensión en los que el usuario tiene que filtrar variables sin importancia antes de realizar un análisis de sensibilidad completo.

Los diversos tipos de "métodos básicos" (discutidos a continuación) se distinguen por las diversas medidas de sensibilidad que se calculan. Estas categorías pueden superponerse de alguna manera. Se pueden dar formas alternativas de obtener estas medidas, bajo las limitaciones del problema.

Uno a la vez (OAT)

Uno de los enfoques más simples y comunes es el de cambiar un factor a la vez (OAT), para ver qué efecto produce esto en la salida. OAT implica habitualmente

  • moviendo una variable de entrada, manteniendo otras en sus valores de referencia (nominales), luego,
  • devolviendo la variable a su valor nominal, luego repitiendo para cada una de las otras entradas de la misma manera.

Luego, la sensibilidad puede medirse monitoreando los cambios en la salida, por ejemplo, mediante derivadas parciales o regresión lineal . Esto parece un enfoque lógico, ya que cualquier cambio observado en la salida se debe sin ambigüedad a la única variable modificada. Además, al cambiar una variable a la vez, se pueden mantener todas las demás variables fijas en sus valores centrales o de referencia. Esto aumenta la comparabilidad de los resultados (todos los 'efectos' se calculan con referencia al mismo punto central en el espacio) y minimiza las posibilidades de fallas del programa de computadora, más probablemente cuando varios factores de entrada se cambian simultáneamente. Los modelistas prefieren OAT con frecuencia por razones prácticas. En caso de falla del modelo bajo el análisis OAT, el modelador sabe inmediatamente cuál es el factor de entrada responsable de la falla.

Sin embargo, a pesar de su simplicidad, este enfoque no explora completamente el espacio de entrada, ya que no tiene en cuenta la variación simultánea de las variables de entrada. Esto significa que el enfoque OAT no puede detectar la presencia de interacciones entre las variables de entrada.

Métodos locales basados ​​en derivados

Los métodos basados ​​en derivadas locales implican tomar la derivada parcial de la salida Y con respecto a un factor de entrada X i  :

donde el subíndice x 0 indica que la derivada se toma en algún punto fijo en el espacio de la entrada (de ahí el 'local' en el nombre de la clase). El modelado adjunto y la diferenciación automatizada son métodos de esta clase. De manera similar a OAT, los métodos locales no intentan explorar completamente el espacio de entrada, ya que examinan pequeñas perturbaciones, típicamente una variable a la vez. Es posible seleccionar muestras similares a partir de la sensibilidad basada en derivadas a través de redes neuronales y realizar la cuantificación de la incertidumbre.

Análisis de regresión

El análisis de regresión , en el contexto del análisis de sensibilidad, implica ajustar una regresión lineal a la respuesta del modelo y utilizar coeficientes de regresión estandarizados como medidas directas de sensibilidad. Se requiere que la regresión sea lineal con respecto a los datos (es decir, un hiperplano, por lo tanto, sin términos cuadráticos, etc., como regresores) porque de lo contrario es difícil interpretar los coeficientes estandarizados. Por tanto, este método es más adecuado cuando la respuesta del modelo es de hecho lineal; la linealidad se puede confirmar, por ejemplo, si el coeficiente de determinación es grande. Las ventajas del análisis de regresión son que es simple y tiene un bajo costo computacional.

Métodos basados ​​en varianza

Los métodos basados ​​en la varianza son una clase de enfoques probabilísticos que cuantifican las incertidumbres de entrada y salida como distribuciones de probabilidad y descomponen la varianza de salida en partes atribuibles a variables de entrada y combinaciones de variables. Por lo tanto, la sensibilidad de la salida a una variable de entrada se mide por la cantidad de variación en la salida causada por esa entrada. Estas pueden expresarse como expectativas condicionales, es decir, considerando un modelo Y = f ( X ) para X = { X 1 , X 2 , ... X k }, una medida de sensibilidad de la i- ésima variable X i se da como ,

donde "Var" y " E " denotan la varianza y los operadores de valor esperado respectivamente, y X ~ i denota el conjunto de todas las variables de entrada excepto X i . Esta expresión mide esencialmente la contribución X i sola a la incertidumbre (varianza) en Y (promediada sobre las variaciones en otras variables), y se conoce como índice de sensibilidad de primer orden o índice de efecto principal . Es importante destacar que no mide la incertidumbre causada por las interacciones con otras variables. Otra medida, conocida como índice de efecto total , da la varianza total en Y causada por X i y sus interacciones con cualquiera de las otras variables de entrada. Normalmente, ambas cantidades se estandarizan dividiendo por Var ( Y ).

Los métodos basados ​​en la varianza permiten la exploración completa del espacio de entrada, teniendo en cuenta las interacciones y las respuestas no lineales. Por estos motivos se utilizan mucho cuando es factible calcularlos. Normalmente, este cálculo implica el uso de métodos de Monte Carlo , pero dado que esto puede implicar muchos miles de ejecuciones de modelos, se pueden utilizar otros métodos (como emuladores) para reducir los gastos de cálculo cuando sea necesario. Tenga en cuenta que las descomposiciones de varianza completa solo son significativas cuando los factores de entrada son independientes entre sí.

Análisis de variogramas de superficies de respuesta ( VARS )

Una de las principales deficiencias de los métodos de análisis de sensibilidad anteriores es que ninguno de ellos considera la estructura ordenada espacialmente de la superficie de respuesta / salida del modelo Y = f ( X ) en el espacio de parámetros. Al utilizar los conceptos de variogramas direccionales y covariogramas, el análisis de variogramas de superficies de respuesta (VARS) aborda esta debilidad mediante el reconocimiento de una estructura de correlación espacialmente continua con los valores de Y y, por lo tanto, también con los valores de .

Básicamente, cuanto mayor es la variabilidad, más heterogénea es la superficie de respuesta a lo largo de una dirección / parámetro particular, en una escala de perturbación específica. En consecuencia, en el marco de VARS, los valores de los variogramas direccionales para una escala de perturbación dada pueden considerarse como una ilustración completa de la información de sensibilidad, mediante la vinculación del análisis de variogramas con conceptos de escala de perturbación y dirección. Como resultado, el marco VARS tiene en cuenta el hecho de que la sensibilidad es un concepto dependiente de la escala y, por lo tanto, supera el problema de la escala de los métodos tradicionales de análisis de sensibilidad. Más importante aún, VARS puede proporcionar estimaciones relativamente estables y estadísticamente sólidas de la sensibilidad de los parámetros con un costo computacional mucho más bajo que otras estrategias (aproximadamente dos órdenes de magnitud más eficientes). Cabe destacar que se ha demostrado que existe un vínculo teórico entre el marco VARS y los enfoques basados ​​en la varianza y en la derivada.

Poner en pantalla

El cribado es una instancia particular de un método basado en muestreo. El objetivo aquí es más bien identificar qué variables de entrada están contribuyendo significativamente a la incertidumbre de la salida en modelos de alta dimensionalidad, en lugar de cuantificar exactamente la sensibilidad (es decir, en términos de varianza). El cribado tiende a tener un costo computacional relativamente bajo en comparación con otros enfoques, y se puede utilizar en un análisis preliminar para eliminar las variables que no influyen antes de aplicar un análisis más informativo al conjunto restante. Uno de los métodos de detección más utilizados es el método de efecto elemental .

Gráfico de dispersión

Una herramienta simple pero útil es trazar diagramas de dispersión de la variable de salida contra variables de entrada individuales, después de muestrear (aleatoriamente) el modelo sobre sus distribuciones de entrada. La ventaja de este enfoque es que también puede tratar con "datos dados", es decir, un conjunto de puntos de datos colocados arbitrariamente, y proporciona una indicación visual directa de la sensibilidad. También se pueden extraer medidas cuantitativas, por ejemplo, midiendo la correlación entre Y y X i , o incluso estimando medidas basadas en la varianza mediante regresión no lineal .

Metodos alternativos

Se han desarrollado varios métodos para superar algunas de las limitaciones discutidas anteriormente, que de otro modo harían inviable la estimación de las medidas de sensibilidad (la mayoría de las veces debido a gastos computacionales ). Generalmente, estos métodos se enfocan en calcular de manera eficiente medidas de sensibilidad basadas en la varianza.

Emuladores

Los emuladores (también conocidos como metamodelos, modelos sustitutos o superficies de respuesta) son enfoques de modelado de datos / aprendizaje automático que implican la construcción de una función matemática relativamente simple, conocida como emulador , que se aproxima al comportamiento de entrada / salida del modelo en sí. En otras palabras, es el concepto de "modelar un modelo" (de ahí el nombre "metamodelo"). La idea es que, aunque los modelos informáticos pueden ser una serie de ecuaciones muy complejas que pueden tardar mucho en resolverse, siempre se pueden considerar como una función de sus entradas Y = f ( X ). Al ejecutar el modelo en varios puntos en el espacio de entrada, puede ser posible ajustar un emulador η ( X ) mucho más simple , tal que η ( X ) ≈ f ( X ) dentro de un margen de error aceptable. Luego, las medidas de sensibilidad se pueden calcular a partir del emulador (ya sea con Monte Carlo o analíticamente), lo que tendrá un costo computacional adicional insignificante. Es importante destacar que el número de ejecuciones del modelo necesarias para ajustar el emulador puede ser órdenes de magnitud menor que el número de ejecuciones necesarias para estimar directamente las medidas de sensibilidad del modelo.

Claramente, el quid de un enfoque de emulador es encontrar un η (emulador) que sea una aproximación suficientemente cercana al modelo f . Esto requiere los siguientes pasos,

  1. Muestrear (ejecutar) el modelo en varios puntos de su espacio de entrada. Esto requiere un diseño de muestra.
  2. Seleccionar un tipo de emulador (función matemática) para usar.
  3. "Entrenar" al emulador usando los datos de muestra del modelo; esto generalmente implica ajustar los parámetros del emulador hasta que el emulador imite el modelo real lo mejor posible.

El muestreo del modelo a menudo se puede hacer con secuencias de baja discrepancia , como la secuencia de Sobol , debido al matemático Ilya M. Sobol o al muestreo de hipercubo latino , aunque también se pueden usar diseños aleatorios, con pérdida de cierta eficiencia. La selección del tipo de emulador y el entrenamiento están intrínsecamente vinculados, ya que el método de entrenamiento dependerá de la clase de emulador. Algunos tipos de emuladores que se han utilizado con éxito para el análisis de sensibilidad incluyen,

El uso de un emulador introduce un problema de aprendizaje automático , que puede resultar difícil si la respuesta del modelo es muy no lineal . En todos los casos, es útil comprobar la precisión del emulador, por ejemplo, mediante la validación cruzada .

Representaciones de modelos de alta dimensión (HDMR)

Una representación de modelo de alta dimensión (HDMR) (el término se debe a H. Rabitz) es esencialmente un enfoque de emulador, que implica descomponer la salida de la función en una combinación lineal de términos de entrada e interacciones de dimensionalidad creciente. El enfoque de HDMR explota el hecho de que el modelo generalmente se puede aproximar bien al descuidar las interacciones de orden superior (segundo o tercer orden y superiores). Los términos de la serie truncada se pueden aproximar, por ejemplo, mediante polinomios o splines (REFS) y la respuesta se puede expresar como la suma de los principales efectos e interacciones hasta el orden de truncamiento. Desde esta perspectiva, los HDMR pueden verse como emuladores que descuidan las interacciones de alto orden; la ventaja es que pueden emular modelos con mayor dimensionalidad que los emuladores de orden completo.

Prueba de sensibilidad de amplitud de Fourier (FAST)

La prueba de sensibilidad de amplitud de Fourier (FAST) usa la serie de Fourier para representar una función multivariante (el modelo) en el dominio de la frecuencia, usando una sola variable de frecuencia. Por lo tanto, las integrales requeridas para calcular los índices de sensibilidad se vuelven univariadas, lo que resulta en ahorros computacionales.

Otro

Métodos basados ​​en el filtrado de Monte Carlo. Estos también se basan en muestras y el objetivo aquí es identificar regiones en el espacio de los factores de entrada correspondientes a valores particulares (por ejemplo, alto o bajo) de la salida.

Aplicaciones

Se pueden encontrar ejemplos de análisis de sensibilidad en diversas áreas de aplicación, tales como:

Auditoría de sensibilidad

Puede suceder que un análisis de sensibilidad de un estudio basado en modelos esté destinado a respaldar una inferencia y certificar su solidez en un contexto en el que la inferencia se incorpora a una política o un proceso de toma de decisiones. En estos casos, el encuadre del análisis en sí, su contexto institucional y las motivaciones de su autor pueden convertirse en un asunto de gran importancia, y un análisis de sensibilidad puro, con su énfasis en la incertidumbre paramétrica, puede verse como insuficiente. El énfasis en el encuadre puede derivar, entre otras cosas, de la relevancia del estudio de políticas para diferentes distritos que se caracterizan por diferentes normas y valores y, por lo tanto, por una historia diferente sobre `` cuál es el problema '' y, sobre todo, sobre `` quién está contando el problema ''. historia'. La mayoría de las veces, el encuadre incluye supuestos más o menos implícitos, que pueden ser políticos (por ejemplo, qué grupo necesita ser protegido) hasta técnicos (por ejemplo, qué variable puede tratarse como una constante).

Con el fin de tener en cuenta estas preocupaciones, los instrumentos de SA se han ampliado para proporcionar una evaluación de todo el proceso de generación de conocimientos y modelos. Este enfoque se ha denominado "auditoría de sensibilidad". Se inspira en NUSAP, un método utilizado para calificar el valor de la información cuantitativa con la generación de "Pedigríes" de números. Asimismo, se ha desarrollado una auditoría de sensibilidad para proporcionar genealogías de modelos e inferencias basadas en modelos. La auditoría de sensibilidad ha sido especialmente diseñada para un contexto contradictorio, donde no solo la naturaleza de la evidencia, sino también el grado de certeza e incertidumbre asociada a la evidencia, será objeto de intereses partidistas. La auditoría de sensibilidad se recomienda en las directrices de la Comisión Europea para la evaluación de impacto, así como en el informe Science Advice for Policy by European Academies.

Conceptos relacionados

El análisis de sensibilidad está estrechamente relacionado con el análisis de incertidumbre; mientras que este último estudia la incertidumbre general en las conclusiones del estudio, el análisis de sensibilidad intenta identificar qué fuente de incertidumbre pesa más en las conclusiones del estudio.

El establecimiento de problemas en el análisis de sensibilidad también tiene fuertes similitudes con el campo del diseño de experimentos . En un diseño de experimentos, se estudia el efecto de algún proceso o intervención (el 'tratamiento') sobre algunos objetos (las 'unidades experimentales'). En el análisis de sensibilidad, se observa el efecto de variar las entradas de un modelo matemático sobre la salida del modelo en sí. En ambas disciplinas uno se esfuerza por obtener información del sistema con un mínimo de experimentos físicos o numéricos.

Ver también

Referencias

Otras lecturas

  • Cannavó, F. (2012). "Análisis de sensibilidad para la evaluación de la calidad del modelado de fuentes volcánicas y la selección del modelo". Informática y Geociencias . 44 : 52–59. Código bibliográfico : 2012CG ..... 44 ... 52C . doi : 10.1016 / j.cageo.2012.03.008 .
  • Fassò A. (2007) "Análisis estadístico de sensibilidad y calidad del agua". En Wymer L. Ed, Marco estadístico para los criterios y el monitoreo de la calidad del agua . Wiley, Nueva York.
  • Fassò A., Perri PF (2002) "Análisis de sensibilidad". En Abdel H. El-Shaarawi y Walter W. Piegorsch (eds) Encyclopedia of Environmetrics , Volumen 4, págs. 1968–1982, Wiley.
  • Fassò A., Esposito E., Porcu E., Reverberi AP, Vegliò F. (2003) "Análisis de sensibilidad estadística de reactores de columna compacta para aguas residuales contaminadas". Environmetrics . Vol. 14, n. 8, 743–759.
  • Haug, Edward J .; Choi, Kyung K .; Komkov, Vadim (1986) Análisis de sensibilidad de diseño de sistemas estructurales . Matemáticas en ciencia e ingeniería, 177. Academic Press, Inc., Orlando, FL.
  • Pianosi, F .; Beven, K .; Freer, J .; Hall, JW; Rougier, J .; Stephenson, DB; Wagener, T. (2016). "Análisis de sensibilidad de modelos ambientales: una revisión sistemática con flujo de trabajo práctico" . Modelado ambiental y software . 79 : 214-232. doi : 10.1016 / j.envsoft.2016.02.008 .
  • Pilkey, OH y L. Pilkey-Jarvis (2007), Aritmética inútil. Por qué los científicos ambientales no pueden predecir el futuro. Nueva York: Columbia University Press.
  • Santner, TJ; Williams, BJ; Notz, WI (2003) Diseño y análisis de experimentos informáticos ; Springer-Verlag.
  • Taleb, NN, (2007) El cisne negro: el impacto de la casa aleatoria altamente improbable .

Cuestiones especiales

enlaces externos

  • Joseph Hart, Julie Bessac, Emil Constantinescu (2018), "Análisis de sensibilidad global para los parámetros del modelo estadístico", arXiv : 1708.07441
  • página web sobre análisis de sensibilidad - (Centro Común de Investigación de la Comisión Europea)
  • SimLab , el software gratuito para el análisis de sensibilidad global del Centro Común de Investigación
  • Proyecto MUCM : recursos extensos para análisis de incertidumbre y sensibilidad de modelos computacionalmente exigentes.