Procesando imagen digital -Digital image processing

El procesamiento de imágenes digitales es el uso de una computadora digital para procesar imágenes digitales a través de un algoritmo . Como subcategoría o campo del procesamiento de señales digitales, el procesamiento de imágenes digitales tiene muchas ventajas sobre el procesamiento de imágenes analógicas . Permite aplicar una gama mucho más amplia de algoritmos a los datos de entrada y puede evitar problemas como la acumulación de ruido y distorsión durante el procesamiento. Dado que las imágenes se definen en dos dimensiones (quizás más), el procesamiento de imágenes digitales se puede modelar en forma de sistemas multidimensionales.. La generación y el desarrollo del procesamiento digital de imágenes se ven afectados principalmente por tres factores: primero, el desarrollo de las computadoras; segundo, el desarrollo de las matemáticas (especialmente la creación y mejora de la teoría de las matemáticas discretas); en tercer lugar, ha aumentado la demanda de una amplia gama de aplicaciones en el medio ambiente, la agricultura, el ejército, la industria y la ciencia médica.

Historia

Muchas de las técnicas de procesamiento de imágenes digitales , o procesamiento de imágenes digitales, como se le suele llamar, se desarrollaron en la década de 1960 en los Laboratorios Bell , el Laboratorio de Propulsión a Chorro , el Instituto Tecnológico de Massachusetts , la Universidad de Maryland y algunas otras instalaciones de investigación. con aplicación a imágenes satelitales , conversión de estándares de fotografía por cable , imágenes médicas , videoteléfono , reconocimiento de caracteres y mejora de fotografías. El propósito del procesamiento de imágenes temprano era mejorar la calidad de la imagen. Estaba dirigido a los seres humanos para mejorar el efecto visual de las personas. En el procesamiento de imágenes, la entrada es una imagen de baja calidad y la salida es una imagen con calidad mejorada. El procesamiento de imágenes común incluye mejora, restauración, codificación y compresión de imágenes. La primera aplicación exitosa fue el Laboratorio Estadounidense de Propulsión a Chorro (JPL). Utilizaron técnicas de procesamiento de imágenes como corrección geométrica, transformación de gradación, eliminación de ruido, etc. en las miles de fotos lunares enviadas por el Space Detector Ranger 7 en 1964, teniendo en cuenta la posición del sol y el entorno de la luna. El impacto del mapeo exitoso del mapa de la superficie de la luna por computadora ha sido un gran éxito. Posteriormente, se realizó un procesamiento de imágenes más complejo sobre las cerca de 100.000 fotos enviadas por la nave espacial, de modo que se obtuvo el mapa topográfico, el mapa de colores y el mosaico panorámico de la luna, que lograron resultados extraordinarios y sentaron una base sólida para el aterrizaje humano en la Tierra. Luna.

Sin embargo, el costo de procesamiento era bastante alto con el equipo informático de esa época. Eso cambió en la década de 1970, cuando proliferó el procesamiento de imágenes digitales a medida que se disponía de computadoras más baratas y hardware dedicado. Esto llevó a que las imágenes se procesaran en tiempo real, para algunos problemas específicos, como la conversión de estándares de televisión . A medida que las computadoras de uso general se volvieron más rápidas, comenzaron a asumir el papel de hardware dedicado para todas las operaciones excepto las más especializadas y de uso intensivo de computadoras. Con las computadoras rápidas y los procesadores de señales disponibles en la década de 2000, el procesamiento de imágenes digitales se ha convertido en la forma más común de procesamiento de imágenes y se usa generalmente porque no solo es el método más versátil, sino también el más económico.

Sensores de imagen

La base de los sensores de imagen modernos es la tecnología de semiconductores de óxido de metal (MOS), que tiene su origen en la invención del MOSFET (transistor de efecto de campo MOS) por Mohamed M. Atalla y Dawon Kahng en Bell Labs en 1959. Esto condujo a la desarrollo de sensores de imagen de semiconductores digitales , incluido el dispositivo de acoplamiento de carga (CCD) y más tarde el sensor CMOS .

El dispositivo de carga acoplada fue inventado por Willard S. Boyle y George E. Smith en Bell Labs en 1969. Mientras investigaban la tecnología MOS, se dieron cuenta de que una carga eléctrica era la analogía de la burbuja magnética y que podía almacenarse en un diminuto condensador MOS . Como era bastante sencillo fabricar una serie de capacitores MOS en una fila, les conectaron un voltaje adecuado para que la carga pudiera pasar de uno a otro. El CCD es un circuito semiconductor que luego se usó en las primeras cámaras de video digitales para la transmisión de televisión .

El sensor de píxeles activos (APS) NMOS fue inventado por Olympus en Japón a mediados de la década de 1980. Esto fue posible gracias a los avances en la fabricación de dispositivos semiconductores MOS , con escalas MOSFET que alcanzan niveles de micrones más pequeños y luego de submicrones . El NMOS APS fue fabricado por el equipo de Tsutomu Nakamura en Olympus en 1985. El sensor CMOS de píxeles activos (sensor CMOS) fue desarrollado posteriormente por el equipo de Eric Fossum en el Laboratorio de Propulsión a Chorro de la NASA en 1993. En 2007, las ventas de sensores CMOS habían Sensores CCD superados.

Compresión de imagen

Un avance importante en la tecnología de compresión de imágenes digitales fue la transformada de coseno discreta (DCT), una técnica de compresión con pérdida propuesta por primera vez por Nasir Ahmed en 1972. La compresión DCT se convirtió en la base de JPEG , que fue presentada por el Grupo Conjunto de Expertos Fotográficos en 1992. JPEG comprime imágenes a tamaños de archivo mucho más pequeños y se ha convertido en el formato de archivo de imagen más utilizado en Internet . Su algoritmo de compresión DCT altamente eficiente fue en gran parte responsable de la amplia proliferación de imágenes digitales y fotos digitales , con varios miles de millones de imágenes JPEG producidas todos los días a partir de 2015.

Procesador de señal digital (DSP)

El procesamiento de señales electrónicas fue revolucionado por la amplia adopción de la tecnología MOS en la década de 1970. La tecnología de circuito integrado MOS fue la base para los primeros microprocesadores y microcontroladores de un solo chip a principios de la década de 1970, y luego los primeros chips de procesador de señal digital (DSP) de un solo chip a fines de la década de 1970. Desde entonces, los chips DSP se han utilizado ampliamente en el procesamiento de imágenes digitales.

El algoritmo de compresión de imágenes de transformada discreta de coseno (DCT) se ha implementado ampliamente en chips DSP, y muchas empresas desarrollan chips DSP basados ​​en tecnología DCT. Los DCT se usan ampliamente para codificar , decodificar, codificar video , codificar audio , multiplexar , señales de control, señalización , conversión de analógico a digital , formatear diferencias de luminancia y color, y formatos de color como YUV444 y YUV411 . Los DCT también se utilizan para operaciones de codificación como estimación de movimiento, compensación de movimiento , predicción entre cuadros , cuantificación , ponderación perceptual, codificación de entropía , codificación variable y vectores de movimiento , y operaciones de decodificación como la operación inversa entre diferentes formatos de color ( YIQ , YUV y RGB ) con fines de visualización. Los DCT también se utilizan comúnmente para chips codificadores/descodificadores de televisión de alta definición (HDTV).

Imagenes medicas

En 1972, el ingeniero de la empresa británica EMI Housfield inventó el dispositivo de tomografía computarizada de rayos X para el diagnóstico de la cabeza, que es lo que se suele denominar CT (computer tomography). El método del núcleo CT se basa en la proyección de la sección de la cabeza humana y se procesa por computadora para reconstruir la imagen de la sección transversal, lo que se denomina reconstrucción de la imagen. En 1975, EMI desarrolló con éxito un dispositivo CT para todo el cuerpo, que obtuvo una imagen tomográfica clara de varias partes del cuerpo humano. En 1979, esta técnica diagnóstica ganó el Premio Nobel. La tecnología de procesamiento de imágenes digitales para aplicaciones médicas se incorporó al Salón de la Fama de la Tecnología Espacial de la Fundación Espacial en 1994.

Tareas

El procesamiento de imágenes digitales permite el uso de algoritmos mucho más complejos y, por lo tanto, puede ofrecer un rendimiento más sofisticado en tareas simples y la implementación de métodos que serían imposibles por medios analógicos.

En particular, el procesamiento digital de imágenes es una aplicación concreta y una tecnología práctica basada en:

Algunas técnicas que se utilizan en el procesamiento de imágenes digitales incluyen:

Transformaciones de imagen digital

Filtración

Los filtros digitales se utilizan para desenfocar y hacer más nítidas las imágenes digitales. El filtrado puede ser realizado por:

  • convolución con núcleos diseñados específicamente (matriz de filtros) en el dominio espacial
  • enmascarar regiones de frecuencia específicas en el dominio de frecuencia (Fourier)

Los siguientes ejemplos muestran ambos métodos:

Tipo de filtro Núcleo o máscara Ejemplo
Imagen original Transformación afín Tablero de ajedrez original.jpg
Paso bajo espacial Tablero de ajedrez de filtro medio espacial.png
Paso alto espacial Tablero de ajedrez de filtro laplaciano espacial.png
Representación de Fourier Pseudocódigo:

imagen = tablero de ajedrez

F = Transformada de Fourier de la imagen

Mostrar imagen: log(1+Valor absoluto(F))

Tablero de ajedrez del espacio de Fourier.png
Paso bajo de Fourier Tablero de ajedrez Butterworth de paso bajo.png Tablero de ajedrez filtrado FFT de paso bajo.png
Paso alto de Fourier Tablero de ajedrez Butterworth de paso alto.png Tablero de ajedrez filtrado FFT de paso alto.png

Relleno de imagen en el filtrado de dominio de Fourier

Las imágenes generalmente se rellenan antes de transformarse en el espacio de Fourier, las imágenes filtradas de paso alto a continuación ilustran las consecuencias de las diferentes técnicas de relleno:

Cero acolchado Borde repetido acolchado
Tablero de ajedrez filtrado FFT de paso alto.png Réplica de FFT de paso alto.png

Tenga en cuenta que el filtro de paso alto muestra bordes adicionales cuando se rellena con ceros en comparación con el relleno de bordes repetido.

Ejemplos de código de filtrado

Ejemplo de MATLAB para filtrado de paso alto de dominio espacial.

img=checkerboard(20);                           % generate checkerboard
% **************************  SPATIAL DOMAIN  ***************************
klaplace=[0 -1 0; -1 5 -1;  0 -1 0];             % Laplacian filter kernel
X=conv2(img,klaplace);                          % convolve test img with
                                                % 3x3 Laplacian kernel
figure()
imshow(X,[])                                    % show Laplacian filtered
title('Laplacian Edge Detection')

Transformaciones afines

Las transformaciones afines permiten transformaciones de imagen básicas, como escalar, rotar, trasladar, reflejar y distorsionar, como se muestra en los siguientes ejemplos:

Nombre de transformación matriz afín Ejemplo
Identidad Tablero de ajedrez identidad.svg
Reflexión Tablero de ajedrez reflejo.svg
Escala Escala de tablero de ajedrez.svg
Girar Tablero de ajedrez rotar.svgdonde θ = π/6=30°
Cortar Tablero de ajedrez shear.svg

Para aplicar la matriz afín a una imagen, la imagen se convierte en una matriz en la que cada entrada corresponde a la intensidad de píxel en esa ubicación. Luego, la ubicación de cada píxel se puede representar como un vector que indica las coordenadas de ese píxel en la imagen, [x, y], donde xey son la fila y la columna de un píxel en la matriz de la imagen. Esto permite que la coordenada se multiplique por una matriz de transformación afín, que proporciona la posición en la que se copiará el valor del píxel en la imagen de salida.

Sin embargo, para permitir transformaciones que requieren transformaciones de traslación, se necesitan coordenadas tridimensionales homogéneas . La tercera dimensión generalmente se establece en una constante distinta de cero, generalmente 1, de modo que la nueva coordenada sea [x, y, 1]. Esto permite que el vector de coordenadas se multiplique por una matriz de 3 por 3, lo que permite cambios de traducción. Entonces la tercera dimensión, que es la constante 1, permite la traducción.

Debido a que la multiplicación de matrices es asociativa, se pueden combinar múltiples transformaciones afines en una sola transformación afín multiplicando la matriz de cada transformación individual en el orden en que se realizan las transformaciones. Esto da como resultado una matriz única que, cuando se aplica a un vector de puntos, da el mismo resultado que todas las transformaciones individuales realizadas en el vector [x, y, 1] en secuencia. Por lo tanto, una secuencia de matrices de transformación afines se puede reducir a una única matriz de transformación afín.

Por ejemplo, las coordenadas bidimensionales solo permiten la rotación sobre el origen (0, 0). Pero las coordenadas homogéneas tridimensionales se pueden usar para trasladar primero cualquier punto a (0, 0), luego realizar la rotación y, por último, trasladar el origen (0, 0) de regreso al punto original (lo opuesto a la primera traducción). Estas 3 transformaciones afines se pueden combinar en una sola matriz, lo que permite la rotación alrededor de cualquier punto de la imagen.

Eliminación de ruido de imagen con morfología

La morfología matemática es adecuada para eliminar el ruido de las imágenes. Los elementos estructurantes son importantes en la morfología matemática .

Los siguientes ejemplos son sobre elementos de estructuración. La función de eliminación de ruido, la imagen como I y el elemento estructurante como B se muestran a continuación y en la tabla.

p.ej

Defina Dilatación(I, B)(i,j) = . Sea Dilatación(I,B) = D(I,B)

D(I', B)(1,1) =

Defina Erosión(I, B)(i,j) = . Sea Erosión(I,B) = E(I,B)

E(I', B)(1,1) =

Después de la dilatación Después de la erosión

Un método de apertura es simplemente erosión primero y luego dilatación, mientras que el método de cierre es viceversa. En realidad, D(I,B) y E(I,B) pueden implementarse mediante convolución

Elemento estructurante Máscara Código Ejemplo
Imagen original Ninguna Use Matlab para leer la imagen original
original = imread('scene.jpg');
image = rgb2gray(original);
[r, c, channel] = size(image);
se = logical([1 1 1 ; 1 1 1 ; 1 1 1]);
[p, q] = size(se);
halfH = floor(p/2);
halfW = floor(q/2);
time = 3;           % denoising 3 times with all method
loto originales
Dilatación Usa Matlab para la dilatación
imwrite(image, "scene_dil.jpg")
extractmax = zeros(size(image), class(image));
for i = 1 : time
    dil_image = imread('scene_dil.jpg');
    for col = (halfW + 1): (c - halfW)
        for row = (halfH + 1) : (r - halfH)
            dpointD = row - halfH;
            dpointU = row + halfH;
            dpointL = col - halfW;
            dpointR = col + halfW;
            dneighbor = dil_image(dpointD:dpointU, dpointL:dpointR);
            filter = dneighbor(se);
            extractmax(row, col) = max(filter);
        end
    end
    imwrite(extractmax, "scene_dil.jpg");
end
Imagen eliminada de ruido con el método de dilatación
Erosión Usa Matlab para la erosión
imwrite(image, 'scene_ero.jpg');
extractmin = zeros(size(image), class(image));
for i = 1: time
    ero_image = imread('scene_ero.jpg');
    for col = (halfW + 1): (c - halfW)
        for row = (halfH +1): (r -halfH)
            pointDown = row-halfH;
            pointUp = row+halfH;
            pointLeft = col-halfW;
            pointRight = col+halfW;
            neighbor = ero_image(pointDown:pointUp,pointLeft:pointRight);
            filter = neighbor(se);
            extractmin(row, col) = min(filter);
        end
    end
    imwrite(extractmin, "scene_ero.jpg");
end
Erosión libre de loto.jpg
Apertura Usar Matlab para abrir
imwrite(extractmin, "scene_opening.jpg")
extractopen = zeros(size(image), class(image));
for i = 1 : time
    dil_image = imread('scene_opening.jpg');
    for col = (halfW + 1): (c - halfW)
        for row = (halfH + 1) : (r - halfH)
            dpointD = row - halfH;
            dpointU = row + halfH;
            dpointL = col - halfW;
            dpointR = col + halfW;
            dneighbor = dil_image(dpointD:dpointU, dpointL:dpointR);
            filter = dneighbor(se);
            extractopen(row, col) = max(filter);
        end
    end
    imwrite(extractopen, "scene_opening.jpg");
end
Apertura libre de loto.jpg
Clausura Usar Matlab para cerrar
imwrite(extractmax, "scene_closing.jpg")
extractclose = zeros(size(image), class(image));
for i = 1 : time
    ero_image = imread('scene_closing.jpg');
    for col = (halfW + 1): (c - halfW)
        for row = (halfH + 1) : (r - halfH)
            dpointD = row - halfH;
            dpointU = row + halfH;
            dpointL = col - halfW;
            dpointR = col + halfW;
            dneighbor = ero_image(dpointD:dpointU, dpointL:dpointR);
            filter = dneighbor(se);
            extractclose(row, col) = min(filter);
        end
    end
    imwrite(extractclose, "scene_closing.jpg");
end
Imagen de eliminación de ruido con método de cierre

Para aplicar el método de eliminación de ruido a una imagen, la imagen se convierte en escala de grises. Una máscara con método de eliminación de ruido es una matriz lógica con . Los métodos de eliminación de ruido comienzan desde el centro de la imagen con la mitad de la altura, la mitad del ancho y terminan con el límite de la imagen del número de fila, número de columna. Vecino es un bloque en la imagen original con el límite [el punto debajo del centro: el punto arriba, el punto a la izquierda del centro: el punto a la derecha del centro]. Vecino de convolución y elemento estructurante y luego reemplace el centro con un mínimo de vecino.

Tome el método de cierre, por ejemplo.

Dilatación primero

  1. Lea la imagen y conviértala a escala de grises con Matlab.
    1. Obtener el tamaño de una imagen. Los números de fila y de columna del valor de retorno son los límites que usaremos más adelante.
    2. Los elementos estructurantes dependen de su función de dilatación o erosión. El mínimo del vecino de un píxel conduce a un método de erosión y el máximo del vecino conduce a un método de dilatación.
    3. Establezca el tiempo de dilatación, erosión y cierre.
  2. Cree una matriz cero del mismo tamaño que la imagen original.
  3. Dilatación primero con ventana de estructuración.
    1. ventana de estructuración es matriz 3*3 y convolución
    2. For loop extrae el mínimo con la ventana del rango de fila [2 ~ altura de la imagen - 1] con el rango de columna [2 ~ ancho de la imagen - 1]
  4. Llene el valor mínimo a la matriz cero y guarde una nueva imagen
    1. Para el límite, todavía se puede mejorar. Dado que en el método, se ignora un límite. Los elementos de relleno se pueden aplicar para tratar con los límites.

Luego Erosión (Tome la imagen de dilatación como entrada)

  1. Cree una matriz cero del mismo tamaño que la imagen original.
  2. Erosión con ventana estructurante.
    1. ventana de estructuración es matriz 3*3 y convolución
    2. For loop extrae el máximo con ventana del rango de fila [2 ~ altura de imagen - 1] con rango de columna [2 ~ ancho de imagen - 1]
  3. Llene el valor máximo a la matriz cero y guarde una nueva imagen
    1. Para el límite, todavía se puede mejorar. Dado que en el método, se ignora el límite. Los elementos de relleno se pueden aplicar para tratar con los límites.
  4. Los resultados son como se muestra en la tabla anterior

Aplicaciones

Imágenes de cámaras digitales

Las cámaras digitales generalmente incluyen hardware de procesamiento de imágenes digitales especializado, ya sean chips dedicados o circuitos agregados en otros chips, para convertir los datos sin procesar de su sensor de imagen en una imagen con corrección de color en un formato de archivo de imagen estándar . Las técnicas adicionales de procesamiento posterior aumentan la nitidez de los bordes o la saturación del color para crear imágenes de aspecto más natural.

Película

Westworld (1973) fue el primer largometraje en utilizar el procesamiento de imágenes digitales para pixelar la fotografía para simular el punto de vista de un androide. El procesamiento de imágenes también se usa mucho para producir el efecto de clave de croma que reemplaza el fondo de los actores con un escenario natural o artístico.

Detección de rostro

Proceso de detección de rostros

La detección de rostros se puede implementar con morfología matemática , transformada de coseno discreta , que generalmente se denomina DCT, y proyección horizontal (matemáticas) .

Método general con método basado en características

El método de detección de rostros basado en características utiliza el tono de piel, la detección de bordes, la forma de la cara y las características de una cara (como ojos, boca, etc.) para lograr la detección de rostros. El tono de la piel, la forma del rostro y todos los elementos únicos que solo tiene el rostro humano pueden describirse como características.

Explicación del proceso

  1. Dado un lote de imágenes de rostros, primero, extraiga el rango de tonos de piel muestreando imágenes de rostros. La gama de tonos de piel es solo un filtro de piel.
    1. La medida del índice de similitud estructural (SSIM) se puede aplicar para comparar imágenes en términos de extracción del tono de piel.
    2. Normalmente, los espacios de color HSV o RGB son adecuados para el filtro de piel. Por ejemplo, modo HSV, el rango de tono de piel es [0,48,50] ~ [20,255,255]
  2. Después de filtrar las imágenes con el tono de la piel, para obtener el borde de la cara, se utilizan la morfología y la DCT para eliminar el ruido y rellenar las áreas de piel que faltan.
    1. Se puede utilizar el método de apertura o el método de cierre para lograr rellenar la piel faltante.
    2. DCT es evitar el objeto con piel similar al tono. Dado que los rostros humanos siempre tienen mayor textura.
    3. Se puede aplicar el operador Sobel u otros operadores para detectar el borde de la cara.
  3. Para posicionar características humanas como ojos, usar la proyección y encontrar el pico del histograma de ayuda de proyección para obtener características detalladas como el ratón, el cabello y los labios.
    1. La proyección es solo proyectar la imagen para ver la alta frecuencia, que suele ser la posición de la característica.

Método de mejora de la calidad de imagen.

La calidad de la imagen puede verse afectada por la vibración de la cámara, la sobreexposición, la distribución del nivel de gris demasiado centralizada y el ruido, etc. Por ejemplo, el problema del ruido se puede resolver con el método de suavizado , mientras que el problema de distribución del nivel de gris se puede mejorar con la ecualización del histograma .

Método de suavizado

En el dibujo, si hay algún color insatisfecho, tomar un poco de color alrededor del color insatisfecho y promediarlos. Esta es una manera fácil de pensar en el método de Suavizado.

El método de suavizado se puede implementar con máscara y convolución . Tome la imagen pequeña y la máscara, por ejemplo, como se muestra a continuación.

la imagen es

la máscara es

Después de la convolución y el suavizado, la imagen se

Observando imagen[1, 1], imagen[1, 2], imagen[2, 1] e imagen[2, 2].

El píxel de la imagen original es 1, 4, 28, 30. Después de suavizar la máscara, el píxel se convierte en 9, 10, 9, 9 respectivamente.

nueva imagen[1, 1] = * (imagen[0,0]+imagen[0,1]+imagen[0,2]+imagen[1,0]+imagen[1,1]+imagen[1,2 ]+imagen[2,0]+imagen[2,1]+imagen[2,2])

nueva imagen[1, 1] = piso( * (2+5+6+3+1+4+1+28+30)) = 9

nueva imagen[1, 2] = piso({ * (5+6+5+1+4+6+28+30+2)) = 10

nueva imagen[2, 1] = piso( * (3+1+4+1+28+30+73+3+2)) = 9

nueva imagen[2, 2] = piso( * (1+4+6+28+30+2+3+2+2)) = 9

Método de histograma de nivel de gris

En general, dado un histograma de nivel de gris de una imagen como se muestra a continuación. Cambiar el histograma a una distribución uniforme a partir de una imagen suele ser lo que llamamos ecualización de histograma .

Figura 1
Figura 2

En tiempo discreto, el área del histograma de nivel de gris es (ver figura 1) mientras que el área de distribución uniforme es (ver figura 2). Está claro que el área no cambiará, así que .

De la distribución uniforme, la probabilidad de es mientras que la

En tiempo continuo, la ecuación es .

Además, según la definición de una función, el método del histograma de nivel de Gray es como encontrar una función que satisfaga f(p)=q.

Método de mejora Asunto Antes de la mejora Proceso Después de la mejora
Método de suavizado ruido

con Matlab, se agrega sal y pimienta con el parámetro 0.01
a la imagen original para crear una imagen ruidosa.

Casco con ruido.jpg
  1. leer imagen y convertir imagen en escala de grises
  2. convolución la imagen graysale con la máscara
  3. la imagen de ruido será el resultado del paso 2.
Casco sin ruido.jpg
Ecualización de histograma Distribución de niveles de grises demasiado centralizada
Escena de la cueva antes de la mejora.jpg
Consulte la ecualización del histograma
Escena de la cueva después de la mejora.jpg

Tecnologías de detección y monitoreo de fatiga

Hubo avances significativos en la tecnología de monitoreo de fatiga en la última década. Estas soluciones tecnológicas innovadoras ahora están disponibles comercialmente y ofrecen beneficios de seguridad reales para conductores, operadores y otros trabajadores por turnos en todas las industrias.

Los desarrolladores de software, ingenieros y científicos desarrollan software de detección de fatiga utilizando varias señales fisiológicas para determinar el estado de fatiga o somnolencia. La medición de la actividad cerebral (electroencefalograma) es ampliamente aceptada como estándar en el control de la fatiga. Otra tecnología utilizada para determinar el deterioro relacionado con la fatiga incluye mediciones de síntomas conductuales como; comportamiento de los ojos, dirección de la mirada, microcorrecciones en la dirección y el uso del acelerador, así como la variabilidad de la frecuencia cardíaca.

Ver también

Referencias

Otras lecturas

enlaces externos