Análisis secuencial - Sequential analysis

En estadística , el análisis secuencial o la prueba de hipótesis secuencial es un análisis estadístico en el que el tamaño de la muestra no se fija de antemano. En su lugar, los datos se evalúan a medida que se recopilan y el muestreo adicional se detiene de acuerdo con una regla de detención predefinida tan pronto como se observan resultados significativos. Por lo tanto, a veces se puede llegar a una conclusión en una etapa mucho más temprana de lo que sería posible con pruebas o estimaciones de hipótesis más clásicas , con un costo financiero y / o humano, en consecuencia, más bajo.

Historia

El método de análisis secuencial se atribuye por primera vez a Abraham Wald con Jacob Wolfowitz , W. Allen Wallis y Milton Friedman mientras estaban en el Grupo de Investigación Estadística de la Universidad de Columbia como una herramienta para un control de calidad industrial más eficiente durante la Segunda Guerra Mundial . Su valor para el esfuerzo bélico fue inmediatamente reconocido y llevó a recibir una clasificación "restringida" . Al mismo tiempo, George Barnard dirigió un grupo que trabajaba en una parada óptima en Gran Bretaña. Otra contribución temprana al método fue hecha por KJ Arrow con D. Blackwell y MA Girshick.

Un enfoque similar fue desarrollado independientemente a partir de los primeros principios aproximadamente al mismo tiempo por Alan Turing , como parte de la técnica Banburismus utilizada en Bletchley Park , para probar hipótesis sobre si diferentes mensajes codificados por máquinas Enigma alemanas deberían conectarse y analizarse juntos. Este trabajo permaneció en secreto hasta principios de la década de 1980.

Peter Armitage introdujo el uso del análisis secuencial en la investigación médica, especialmente en el área de los ensayos clínicos. Los métodos secuenciales se volvieron cada vez más populares en la medicina a raíz del trabajo de Stuart Pocock que proporcionaba recomendaciones claras sobre cómo controlar las tasas de error tipo 1 en diseños secuenciales.

Funciones de gasto alfa

Cuando los investigadores analizan repetidamente los datos a medida que se agregan más observaciones, aumenta la probabilidad de un error de tipo 1 . Por lo tanto, es importante ajustar el nivel alfa en cada análisis intermedio, de modo que la tasa de error de tipo 1 general se mantenga en el nivel deseado. Esto es conceptualmente similar al uso de la corrección de Bonferroni , pero debido a que las miradas repetidas a los datos son dependientes, se pueden usar correcciones más eficientes para el nivel alfa. Entre las primeras propuestas se encuentra el límite de Pocock . Existen formas alternativas de controlar la tasa de error de Tipo 1, como los límites Haybittle-Peto , y O'Brien & Fleming y Wang & Tsiatis han realizado un trabajo adicional para determinar los límites para los análisis intermedios.

Una limitación de las correcciones, como el límite de Pocock, es que el número de miradas a los datos debe determinarse antes de que se recopilen los datos, y que las miradas a los datos deben estar igualmente espaciadas (por ejemplo, después de 50, 100, 150 y 200 pacientes). El enfoque de la función de gasto alfa desarrollado por Demets & Lan no tiene estas restricciones y, dependiendo de los parámetros elegidos para la función de gasto, puede ser muy similar a los límites de Pocock o las correcciones propuestas por O'Brien y Fleming.

Aplicaciones del análisis secuencial

Ensayos clínicos

En un ensayo aleatorizado con dos grupos de tratamiento, las pruebas secuenciales de grupo se pueden realizar, por ejemplo, de la siguiente manera: Una vez que estén disponibles n sujetos en cada grupo, se realiza un análisis intermedio. Se realiza una prueba estadística para comparar los dos grupos y si se rechaza la hipótesis nula se da por terminado el ensayo; de lo contrario, el ensayo continúa, se reclutan otros n sujetos por grupo y se vuelve a realizar la prueba estadística, incluidos todos los sujetos. Si se rechaza el nulo, se da por terminado el ensayo y, en caso contrario, continúa con evaluaciones periódicas hasta que se haya realizado un número máximo de análisis intermedios, momento en el que se realiza la última prueba estadística y se interrumpe el ensayo.

Otras aplicaciones

El análisis secuencial también tiene una conexión con el problema de la ruina del jugador que ha sido estudiado, entre otros, por Huygens en 1657.

La detección de pasos es el proceso de encontrar cambios abruptos en el nivel medio de una serie de tiempo o señal. Por lo general, se considera como un tipo especial de método estadístico conocido como detección de punto de cambio . A menudo, el paso es pequeño y la serie de tiempo se corrompe por algún tipo de ruido, y esto dificulta el problema porque el paso puede estar oculto por el ruido. Por lo tanto, a menudo se requieren algoritmos estadísticos y / o de procesamiento de señales. Cuando los algoritmos se ejecutan en línea a medida que ingresan los datos, especialmente con el objetivo de producir una alerta, esta es una aplicación de análisis secuencial.

Parcialidad

Los ensayos que se terminan anticipadamente porque rechazan la hipótesis nula suelen sobrestimar el verdadero tamaño del efecto. Esto se debe a que en muestras pequeñas, solo las estimaciones del tamaño del efecto grande conducirán a un efecto significativo y la posterior terminación de un ensayo. Se han propuesto métodos para corregir las estimaciones del tamaño del efecto en ensayos individuales. Tenga en cuenta que este sesgo es principalmente problemático al interpretar estudios individuales. En los metanálisis, los tamaños del efecto sobreestimados debido a la interrupción temprana se equilibran con la subestimación en los ensayos que se detienen tarde, lo que lleva a Schou & Marschner a concluir que "la interrupción temprana de los ensayos clínicos no es una fuente sustancial de sesgo en los metanálisis".

El significado de los valores p en los análisis secuenciales también cambia, porque cuando se utilizan análisis secuenciales, se realiza más de un análisis, y la definición típica de un valor p como los datos "al menos tan extremos" como se observa debe redefinirse. . Una solución es ordenar los valores p de una serie de pruebas secuenciales basadas en el tiempo de parada y qué tan alto fue el estadístico de la prueba en un aspecto determinado, lo que se conoce como ordenamiento por etapas, propuesto por primera vez por Armitage .

Ver también

Notas

Referencias

enlaces externos

Comercial