Análisis exploratorio de datos - Exploratory data analysis

En estadística , el análisis exploratorio de datos es un enfoque de análisis de conjuntos de datos para resumir sus principales características, a menudo utilizando gráficos estadísticos y otros métodos de visualización de datos . Se puede usar o no un modelo estadístico , pero principalmente EDA es para ver qué nos pueden decir los datos más allá del modelado formal o la tarea de prueba de hipótesis. El análisis exploratorio de datos ha sido promovido por John Tukey desde 1970 para alentar a los estadísticos a explorar los datos y posiblemente formular hipótesis que podrían conducir a nuevos experimentos y recopilación de datos. EDA es diferente del análisis de datos inicial (IDA) , que se enfoca más estrictamente en verificar los supuestos requeridos para el ajuste del modelo y la prueba de hipótesis, y manejar los valores faltantes y hacer transformaciones de variables según sea necesario. EDA abarca IDA.

Visión general

Tukey definió el análisis de datos en 1961 como: "Procedimientos para analizar datos, técnicas para interpretar los resultados de dichos procedimientos, formas de planificar la recopilación de datos para hacer su análisis más fácil, más preciso o más exacto, y toda la maquinaria y resultados de ( matemáticas) estadísticas que se aplican al análisis de datos ".

La defensa de EDA por parte de Tukey alentó el desarrollo de paquetes de computación estadística , especialmente S en Bell Labs . El lenguaje de programación S inspiró a los sistemas S-PLUS y R . Esta familia de entornos de computación estadística presentaba capacidades de visualización dinámica muy mejoradas, lo que permitió a los estadísticos identificar valores atípicos , tendencias y patrones en los datos que merecían un estudio más a fondo.

La EDA de Tukey se relacionó con otros dos desarrollos en la teoría estadística : estadísticas robustas y estadísticas no paramétricas , las cuales intentaron reducir la sensibilidad de las inferencias estadísticas a los errores en la formulación de modelos estadísticos . Tukey promovió el uso de resumen de cinco números de datos numéricos - los dos extremos ( máximo y mínimo ), la mediana y los cuartiles - porque estas medianas y cuartiles, al ser funciones de la distribución empírica, están definidas para todas las distribuciones, a diferencia de la media y desviación estándar ; además, los cuartiles y la mediana son más robustos a las distribuciones sesgadas o de cola pesada que los resúmenes tradicionales (la media y la desviación estándar). Los paquetes S , S-PLUS y R incluían rutinas que usaban estadísticas de remuestreo , como Quenouille y Tukey's jackknife y Efron 's bootstrap , que son no paramétricas y robustas (para muchos problemas).

El análisis de datos exploratorios, las estadísticas sólidas, las estadísticas no paramétricas y el desarrollo de lenguajes de programación estadística facilitaron el trabajo de los estadísticos sobre problemas científicos y de ingeniería. Dichos problemas incluían la fabricación de semiconductores y la comprensión de las redes de comunicaciones, lo que preocupaba a Bell Labs. Estos desarrollos estadísticos, todos defendidos por Tukey, fueron diseñados para complementar la teoría analítica de probar hipótesis estadísticas , particularmente el énfasis de la tradición laplaciana en las familias exponenciales .

Desarrollo

Diagrama de flujo del proceso de ciencia de datos

John W. Tukey escribió el libro Exploratory Data Analysis en 1977. Tukey sostuvo que se puso demasiado énfasis en la estadística en la prueba de hipótesis estadísticas (análisis de datos confirmatorios); era necesario poner más énfasis en el uso de datos para sugerir hipótesis a probar. En particular, sostuvo que confundir los dos tipos de análisis y emplearlos en el mismo conjunto de datos puede conducir a un sesgo sistemático debido a los problemas inherentes a la prueba de hipótesis sugeridas por los datos .

Los objetivos de EDA son:

  • Sugerir hipótesis sobre las causas de los fenómenos observados
  • Evaluar los supuestos en los que se basará la inferencia estadística
  • Apoyar la selección de herramientas y técnicas estadísticas adecuadas.
  • Proporcionar una base para una mayor recopilación de datos a través de encuestas o experimentos.

Se han adoptado muchas técnicas de EDA en la minería de datos . También se les enseña a los jóvenes estudiantes como una forma de introducirlos en el pensamiento estadístico.

Técnicas y herramientas

Hay una serie de herramientas que son útiles para EDA, pero EDA se caracteriza más por la actitud que por técnicas particulares.

Las técnicas gráficas típicas utilizadas en EDA son:

Reducción de dimensionalidad :

Las técnicas cuantitativas típicas son:

Historia

Muchas ideas de EDA se remontan a autores anteriores, por ejemplo:

El curso de la Universidad Abierta Estadística en la Sociedad (MDST 242), tomó las ideas anteriores y las fusionó con el trabajo de Gottfried Noether , que introdujo la inferencia estadística mediante el lanzamiento de monedas y la prueba de la mediana .

Ejemplo

Los hallazgos de EDA son ortogonales a la tarea de análisis principal. Para ilustrar, considere un ejemplo de Cook et al. donde la tarea de análisis es encontrar las variables que mejor predicen la propina que un comensal le dará al camarero. Las variables disponibles en los datos recopilados para esta tarea son: monto de la propina, factura total, sexo del pagador, sección de fumadores / no fumadores, hora del día, día de la semana y tamaño de la fiesta. La tarea de análisis principal se aborda ajustando un modelo de regresión donde la tasa de propina es la variable de respuesta. El modelo ajustado es

( tasa de propina ) = 0,18 - 0,01 × (tamaño del grupo)

que dice que a medida que el tamaño de la cena aumenta en una persona (lo que genera una factura más alta), la tasa de propina disminuirá en un 1%.

Sin embargo, la exploración de los datos revela otras características interesantes no descritas por este modelo.

Lo que se aprende de los gráficos es diferente de lo que ilustra el modelo de regresión, aunque el experimento no fue diseñado para investigar ninguna de estas otras tendencias. Los patrones encontrados al explorar los datos sugieren hipótesis sobre las propinas que pueden no haberse anticipado de antemano y que podrían conducir a experimentos de seguimiento interesantes en los que las hipótesis se establezcan y prueben formalmente mediante la recopilación de nuevos datos.

Software

  • JMP , un paquete EDA de SAS Institute .
  • KNIME , Konstanz Information Miner: plataforma de exploración de datos de código abierto basada en Eclipse.
  • Minitab , un paquete de estadísticas generales y EDA ampliamente utilizado en entornos industriales y corporativos.
  • Orange , un paquete de software de aprendizaje automático y minería de datos de código abierto.
  • Python , un lenguaje de programación de código abierto ampliamente utilizado en minería de datos y aprendizaje automático.
  • R , un lenguaje de programación de código abierto para gráficos y computación estadística. Junto con Python, uno de los lenguajes más populares para la ciencia de datos.
  • TinkerPlots un software EDA para estudiantes de primaria y secundaria superiores.
  • Weka es un paquete de minería de datos de código abierto que incluye herramientas de visualización y EDA, como la búsqueda de proyección dirigida .

Ver también

Referencias

Bibliografía

enlaces externos