MIME-Version: 1.0 Content-Type: multipart/related; boundary="----=_NextPart_01DA2501.E2E340B0" Este documento es una página web de un solo archivo, también conocido como "archivo de almacenamiento web". Si está viendo este mensaje, su explorador o editor no admite archivos de almacenamiento web. Descargue un explorador que admita este tipo de archivos. ------=_NextPart_01DA2501.E2E340B0 Content-Location: file:///C:/12A69E9F/005Cattafi,R_.htm Content-Transfer-Encoding: quoted-printable Content-Type: text/html; charset="utf-8"
<=
b>Una aplicación interactiva
parametrizable para la segmentación de la mano humana en imágenes RGB
<=
b>
A parameterizable
interactive application for human hand segmentation in RGB images
1Universidad Católica Santa MarÃa la Antigua (USMA), Panamá
*Autor
por correspondencia: Ricardo Cattafi rcattafi@gmail.com=
=
Recibido: 10 de abril de 2023
 Acepta=
do:20
de septiembre de 2023
=
Resumen
La segmentación es una técnica fundamental en el
análisis de imágenes que permite detectar y clasificar objetos; entre otr=
os,
las manos humanas. En este trabajo se presentan =
los
resultados del desarrollo y pruebas de una aplicación interactiva
parametrizable, Hands Segmentation,
para la segmentación de manos humanas en imágenes RGB. Los resultados muestran que la aplicación fue
eficiente para segmentar un 100% de las regiones de las imágenes RGB donde
existÃan manos humanas, aunque un 2% de las segmentaciones incluÃa otras =
partes
del cuerpo humano, como por ejemplo los brazos. Excluyendo ese 2%, el prome=
dio
de la métrica de efectividad Ãndice de Jaccard fue de 0.73, considerándo=
se un
valor aceptable para este tipo de aplicaciones. Se utilizó una muestra de
veintidós (22) manos humanas distribuidas en diez (10) imágenes obtenidas=
por
muestreo sistemático de un banco de imágenes de uso libre. El procesamien=
to de
las imágenes se realizó con la aplicación Hands Segmentation desarrollada en C++
utilizando técnicas de visión artificial y la librerÃa especializada
P<=
/span>alabras =
span>clave: visión artificial, técnicas de segmentación =
de imágenes,
aplicaciones para segmentación de imágenes.
=
Abstract
=
Segmentation is a fundamental technique in i=
mage
analysis that allows objects, including human hands, to be detected and
classified. This work presents the results of developing and testing a
parameterizable interactive application, Hands Segmentation, for the
segmentation of human hands in RGB images. The results show that the
application efficiently segmented 100% of the regions of the RGB images whe=
re
human hands existed. However, 2% of the segmentations included other human =
body
parts, such as the arms. Excluding that 2%, the average of the Jaccard Index
effectiveness metric was 0.73, which is considered an acceptable value for =
this
type of application. A sample of twenty-two (22) human hands distributed in=
ten
(10) images obtained by systematic sampling from a free-use image bank was
used. Image processing was carried out with the Hands Segmentation applicat=
ion
developed in C++ using artificial vision techniques and the specialized Ope=
nCV
library. The processing method included: a) transformation of the color spa=
ce
from RGB to YCrCb, b) image segmentation by
simulation of hydrographic analysis (Watershed), c) delimitation of the reg=
ions
based on contours and d) calculation of the effectiveness using the Jaccard
Index (IoU) and precision metric, using an ad h=
oc
qualification metric. The systematic use of the application shows that an
adequate choice of the parameters a) brightness, b) contrast, c) dimension =
of
the pixel-by-pixel operator, d) dimension of the morphological operator, an=
d e)
dimension thresholds of the regions, are essential to obtain an adequate
segmentation of a human hand in an RGB image.
Keywords: computer vision, image segmentation
techniques, applications for image segmentation.
Introducción
La segmentación (clasificación en regiones según caracterÃsticas
comunes) en imágenes e=
s una
de las técnicas estudiadas por los investigadores de visión artificial (<=
span
class=3DSpellE>computer vision=
o CV)
y que se está utilizando hoy en dÃa en muchas aplicaciones útiles. Por e=
jemplo,
actualmente se utiliza en el área de la salud, lenguaje de señas, control
robótico, entorno virtual, domótica, aplicaciones móviles y juegos (Oudah, Al-Naji & Chahl, 2020).
Cada uno de esos campos de aplicación tiene sus propios objetivos y
contexto. Si se considera el campo del lenguaje de señas, el objetivo es
detectar gestos para comunicar la interacción humano-humano o humano-robot=
. En
este caso, el contexto es un entorno controlado en el que además de las
técnicas de CV, se utilizan sensores (como guantes o dedales) para obtener
señales y movimientos en coordenadas espaciales.
La técnica de segmentación es fundamental en el análisis de imág=
enes
debido a que permite detectar y clasificar objetos; entre otros, las manos
humanas. En contraste con las técnicas de segmentación de rostros (una tÃ=
©cnica madura
en CV), hasta hoy no hay un consenso para un método efectivo para la segme=
ntación
de manos. Esto se debe a que las técnicas de segmentación de rostros se b=
asan
en la detección previa del área del rostro mediante patrones de Haar usando el método de Viola & Jones (<=
span
style=3D'font-size:10.0pt;font-family:"Times New Roman",serif;mso-fareast-f=
ont-family:
"Palatino Linotype";color:#231F20;letter-spacing:-.1pt;mso-ansi-language:ES=
-PA'>Viola
& Jones, 2001) que es
suficientemente efectivo, al menos cuando no existe oclusión.
En los casos de segmentación de manos hay un gran conjunto de
combinaciones de posiciones de manos, orientaciones y colores de piel, como=
se
puede ver en la Figura 1. Además, las condiciones de la imagen como el bri=
llo,
el contraste, el ruido, la oclusión y el tamaño relativo deben considerar=
se
para diseñar una técnica efectiva de detección de manos. Significa que la
detección de manos es un problema complejo en comparación con el problema=
de
detección de rostros; por lo tanto, se debe usar un enfoque diferente para
resolver dicho problema (Shah, Hurmat
et al, 2012).
Figure 1. Un subconjunto de las posibles
combinaciones de posiciones de manos, orientaciones y colores de piel. (Tomado
de http://vision.soic.indiana.edu/pr=
ojects/egohands/)
No obstante, dichas limitaciones, se han realizado avances en relaci=
ón
con las técnicas de segmentación de manos. Actualmente se han analizado a=
lgunas
caracterÃsticas de las manos como el color de la piel y la apariencia, y s=
e han
utilizado algoritmos para reconocer las manos (y posteriormente segmentarla=
s) a
través algunas técnicas como las basadas en los movimientos de las manos,
basadas en la posición de las articulaciones, basadas en profundidad de vi=
sión o
 basadas en modelos 3D. Incluso, s=
e han
desarrollado modelos basados en plantillas y algoritmos de aprendizaje de
máquina (Adaboost) para reconocerlas (Oudah, Al-Naji, &
Técnicas de segmentación de imáge=
nes
La segmentación de imágenes se puede obtener por similitud de pÃx=
eles en
la misma región o por discontinuidad entre pÃxeles en diferentes regiones.
Existen varias técnicas para segmentar una imagen. Por ejemplo, técnicas =
de a) transformaciones
basadas en umbrales, b) basadas en el crecimiento de regiones con similitud=
de
color o, c) por simulación de análisis hidrográfico. La técnica basada =
en
umbrales es útil cuando se utilizan imágenes en escala de grises, mientra=
s que
los basados en el crecimiento de regiones con similitud de color requieren =
una
función de comparación para incrementar el área de la región a partir de
pÃxeles “semillas†(pixeles tomados al azar o sistemáticamente en la =
imagen).
En este caso, el número de regiones depende del número de semillas predef=
inidas;
sin embargo, dado que no se conoce a priori cuántas regiones serán detect=
adas debe
realizarse un preprocesamiento de la imagen.
Por otro lado, la idea intuitiva detrás del algoritmo de transforma=
ción por
simulación de análisis hidrográfico es simular que se “inunda†cada =
región con
un color. Cada región coincide con el área de una cuenca (definida por un
mÃnimo de una función
Al igual que la técnica por crecimiento de regiones con similitud de color,
dicho algoritmo también requiere seleccionar algunos puntos “semilla†=
para
localizar los mÃnimos. Estos puntos se llaman "marcadores" y se
pueden encontrar mediante una primera fase de preprocesamiento. Generalment=
e,
se utiliza una transformación euclÃdea de distancias sobre una imagen bin=
aria
(blanco y negro) para encontrar los puntos de marcadores para las re=
giones y un punto para marcar el =
área
de fondo. Cada región detectada se identifica con una etiqueta (generalmen=
te
con un color) para diferenciarla.
La imagen transformada de la cuenca (imagen etiquetada) es útil para
encontrar los contornos de cada región con el fin de obtener algunas
caracterÃsticas útiles de la región; por ejemplo, su área o puntos cent=
roides
de cada región. Utilizando las caracterÃsticas del área de contorno pode=
mos
filtrar una región segmentada de acuerdo con:
Donde
Técnicas de segmentación de manos =
por
color de la piel
Una técnica frecuentemente utilizada para segmentar las manos en una
imagen es usar las caracterÃsticas de color y apariencia de la piel.
El uso de la función de detección de regiones según el color de p=
iel
para segmentar las manos en una imagen es una técnica que se ha utilizado =
en
una variedad de aplicaciones. La detección del color de la piel se puede
realizar utilizando operadores de pÃxel por pÃxel o de regiones espaciales
locales (Oudah, Al-Naji, & Chahl, 2020).=
Uno de los aspectos más desafiantes de esta técnica es tratar con =
los
parámetros de brillo, contraste y ruido de la imagen, debido a sus
caracterÃsticas irregulares, especialmente en imágenes de espacios de col=
or RGB
(Red,Green,Blue).
Debido a que las imágenes son generadas por cámaras en el espacio de colo=
r RGB,
estas deben convertirse en otro espacio de color ya que la mezcla del canal=
de
color y la intensidad en el espacio de color RGB no permiten separar la
información de la luminancia. Este problema puede resolverse utilizando el
espacio de color YCbCr (Rhyne,
2016). En el espacio =
de
color YCbCr, la luminancia se guarda en el cana=
l Y,
mientras que los componentes de color se guardan en los canales Cb y Cr. Por lo tanto, los problemas de luminancia se
pueden evitar simplemente considerando solo los canales Cb
y Cr. Luego, se puede aplicar un operador pÃxel por pÃxel para generar una
imagen resultante con solo pÃxeles de color de piel
(Kolkur, et al S., 201=
7).
En este trabajo se utilizará el siguiente operador pÃxel por pÃxe=
l para
transformar la imagen original de espacio de color RGB a espacio de color <=
span
class=3DSpellE>YCrCb:
Siendo =
Sin embargo, evitar la luminancia utilizando el
espacio de color YCbCr no es suficiente para
considerar la imagen adecuada para la segmentación de la región. El brill=
o y el
contraste son dos parámetros que deben ajustarse para obtener una respuest=
a de
señal efectiva.  <=
span
lang=3Des style=3D'font-size:10.0pt;font-family:"Times New Roman",serif;col=
or:#231F20;
letter-spacing:-.1pt;mso-ansi-language:#000A'>El brillo se puede controlar
mediante la siguiente transformada lineal:
Los parámetros
Donde
Después de obt=
ener
la imagen resultante
Una técnica de segmentación intera=
ctiva para
la segmentación de la mano humana
Para realizar la segmentación interactiva de manos humanas en imág=
enes
RGB se presenta un método de cuatro fases (Figura 2): 1) transformación d=
el
color de piel pixel a pixel, 2) segmentación de regiones por medio de
simulación de análisis hidrográfico, 3) delimitación de la región basa=
do en sus
contornos y 4) cálculo de la efectividad con la métrica IoU
y la precisión con una escala de cualificación. La escogencia de este mé=
todo es
producto de una investigación documental sobre las técnicas actuales para=
segmentar
manos humanas en imágenes RGB.
Figure 2. Fases=
del
método de segmentación de manos humanas en imágenes RGB
La Aplicación =
Hands
Segmentation
Para alcanzar el objetivo de segmentación de manos
humanas, se desarrolló una aplicación interactiva parametrizable (denomin=
ada Hands Segment=
ation)
cuyos parámetros se ajustan a través de controle=
s deslizantes
en la interfaz de usuario (sección inferior de la Figura 3). Los parámetr=
os de
control son: brillo (Brightness), contra=
ste (Contrast), dimensión del operador pixel a pix=
el (Kernel Size=
),
dimensión del operador morfológico (Struct Element Size), umbral=
de área
de región mÃnima (Min Hands Region
Area) y umbral de área de región máximo =
(Máx Hands Region Area). Funcion=
almente,
cada vez que se cambia un valor de parámetro en la interfaz de usuario, se
ejecutan iterativamente las cuatro fases del método anterior y se muestra =
un
nuevo conjunto de regiones etiquetadas con colores aleatorios. El usuario d=
etiene
el proceso de ajuste de los parámetros cuando observa una o más manos hum=
anas
etiquetadas y enmarcadas dentro de un recuadro.
Figure 3. Inter=
faz
de usuario de la aplicación Hands Segmentation Â
Por ejemplo, en la Figura 4 se muestra una imagen =
RGB
de la escena de un juego de ajedrez (en modo transparencia) mostrando una
región (en color rosa y enmarcada en un recuadro verde) que corresponde a =
una
de las manos de un jugador. También se observa en la parte superior izquierda=
de
la imagen el resultado de la métrica de IoU y =
el
número de manos detectadas.
Figura 4. Imagen
procesada que muestra la mano etiquetada en color rosa, el número de manos
segmentadas y el valor de IoU.
Para realizar las tareas de la segmentación de una imagen se codifi=
caron
las siguientes funciones:
a.
skinFilter: Ejecuta la transformación del espacio de color =
y el
operador pixel a pixel de color de la piel.
b.
watershedSegmenter:
c.
handDetectionProcess: Ejecución de operadores morfológicos, delimitación del contorno d=
e cada
región y presentación en la interfaz.
d.
UoIIndex(): =
Cálculo
del Ãndice de Jaccard (IoU).
La aplicación se implementó en C++; con OpenC=
V
4.5.5 como biblioteca especializada de funciones CV y sistema operativo Ubu=
ntu
20.04. Las pruebas se ejecutaron en un equipo PCx64 con procesador Intel i5,
2.5GHz, 2 GPU, 3GB RAM.
<=
b>Materiales y Métodos=
El objetivo principal de este trabajo es utilizar la aplicación
0 puntos: No se segmentó ninguna región que incluyan man=
os.
1 punto<=
/b>: Se segmentó una o dos manos
incluyendo otras partes del cuerpo.
2 puntos=
:
Se segmentaron las dos manos en forma conjunta.
3 puntos=
: Se segmentaron dos o más m=
anos
indistintamente
4 puntos=
: Se segmentó cada mano por
separado con diversos parámetros
5 puntos=
: Se segmentó cada mano por
separado con los mismos parámetros
Como datos de entrada se utilizan (Figura 5):
1.&n=
bsp; Diez
(10) imágenes de espacio de color RGB, resolución 720x1280, categorÃa 8U=
C3
(tres canales y una profundidad de 8 bits).
2.&n=
bsp; Diez
(10) imágenes binarias (máscaras) segmentadas en dos regiones: fondo (reg=
ión
negra) y regiones de mano (regiones blancas). Las máscaras se utilizan para
fines de cálculo de IoU. En este caso se denom=
inan
imágenes de referencia real (Groundtrue=
).
3.&n=
bsp; Veintidós
4-tuplas (x, y, ancho, alto) correspondientes a las coordenadas de las más=
caras
de cada mano.
Figura 5. Imágenes utilizadas en las prue=
bas mostrando
el número de la imagen (Image #)=
, la
imagen en espacio de color RGB (Image), =
la
imagen de referencia (Mask (Groundtrue)) y los valores de las coordenadas de
ubicación de las imágenes de referencia (Ground=
i>
True Coordinates)
El método para alcanzar los objetivos de este tra=
bajo consistió
en un plan de tres pasos:
1) Analizar
visualmente cada una de las imágenes y obtener sus principales caracterÃs=
ticas;
es decir, identificar el brillo aparente, contraste, ruido, oclusiones,
posición de las manos, entre otros.
2) Utilizar
la aplicación
3) Recopilación
de los valores de los parámetros ajustados para cada imagen y del
correspondiente métrica IoU y cualificación d=
e la
efectividad de la aplicación.
=
=
Resultados
Siguiendo el método antes mencionado se obtuviero=
n los
siguientes resultados:
1) Análisis
visual de cada imagen.
Una
inspección visual de cada imagen de entrada indicó que no son uniformes en
relación con los valores de brillo, contraste y ruido. Además, tienen regiones de oclusión y
diversas apariencias de las manos. Por ejemplo, las manos están en posiciÃ=
³n
lateral, tienen un tamaño relativamente pequeño o tienen vestimenta y obj=
etos
superpuestos que crean una oclusión de los dedos. Como apoyo para el anál=
isis
visual de cada imagen se utilizaron histogramas de los canales RGB. AsÃ, se
puede ver en el histograma que se muestra en la Figura 6 (imagen #1) tienen=
un
contraste más bajo que el resto de las imágenes.
Figura 6. El histograma de la imagen #1 mu=
estra
la frecuencia de intensidad de los canales RGB
Otras, como las
imágenes # 2 a # 4, tienen contenido similar, pero las condiciones de
iluminación y contraste son diferentes. Este hecho se interpretó como que=
no
existe una combinación única de valores de parámetros para encontrar cada
región de la mano en una imagen.
=
2)&n=
bsp;
Ejecución de la aplicación Hand Segmentation.
Las diez imágenes se procesaron con la aplicación =
Hand
Segmentation.siguiendo las fases mostradas=
en
la Figura 2 y los resultados se organizaron como se muestra en la Figura 7.
Figura 7. Se muestran las
imágenes de entrada (Input image), de s=
alida (Segmented output image=
)
y de referencia (Binary output image). Además, se muestran los valores de pará=
metros (Best fitting se=
t of parameter values)
que mejor se ajustan a la detección manual y la segmentación seleccionada=
s de
forma interactiva mediante la GUI. También se muestran los valores del Ãndice de Jacccard (IoU=
)
y el Ãndice de cualificación (Quality<=
i> index)
3)&n=
bsp;
Recopilación de imágenes de salida y de la métr=
ica IoU y la escala cualitativa
Como se puede observar en la Figura 7, cada fila de la tabla contiene
toda la información de procesamiento sobre una imagen de entrada y salida.=
Por
ejemplo, la fila #1 contiene, de izquierda a derecha, las imágenes de entr=
ada
(imagen RGB e imagen Groundtrue) y las
imágenes de salida (imagen segmentada de la o las mano(s) etiquetadas en c=
olor
aleatorio e imagen binaria obtenida).
En la mayorÃa de los casos  (imágenes #4, #5, #6,#7,#9 y #10) se o=
btuvo  más de una imagen de salida porque el =
proceso
de segmentación manual no se realizó de forma única; lo cual significa q=
ue la
parametrización para ajustar el algoritmo no se pudo hacer utilizando un
subconjunto único de valores de los parámetros (B=
rightness,
Contrast, Kernel=
Size, Struct Element Size, Min =
Hands Region Area
y Máx Hands Region Area) para tod=
as las
manos en la imagen debido a los diferentes condiciones de iluminación,
contraste y oclusión de cada una. Además, la misma fila de tabla contiene=
los
valores para los parámetros que se seleccionaron de forma interactiva medi=
ante
la interfaz de usuario. Cuando fue necesario, se <=
/span>utilizaron dos o tres filas p=
ara
mostrar esos valores. Â <=
span
lang=3Des style=3D'font-size:10.0pt;font-family:"Times New Roman",serif;col=
or:#231F20;
letter-spacing:-.1pt;mso-ansi-language:#000A'>La penúltima columna contien=
e el valor
de IoU; mientras la última columna contiene la
cualificación de la efectividad.
=
Discusión
El objetivo de este proyecto fue detectar un total de veintidós man=
os (22)
distribuidas en diez imágenes de entrada y crear un conjunto deÂ
Mediante la inspección visual de cada i=
magen
de entrada, realizada como primer paso del método establecido, queda
evidenciado que el conjunto de diez imágenes de entrada no es uniforme en
relación con los valores de brillo, contraste y ruido. Este hecho se interpretó com=
o que
no hay una combinación única de valores de parámetros para segmentar man=
os
humanas en una imagen.
Por otra parte,=
el
diseño de la aplicación Hand Segmentation =
estuvo
fundamentada en una investigación documental sobre las técnicas actuales =
para
detectar manos en una imagen. En este sentido, la mayorÃa de los autores
sugieren una doble estrategia: a) umbralizar la
imagen de entrada utilizando un operador pixel a pixel basado en el color
-estadÃsticamente, corresponde al rango de color más probable- de la piel=
de
las manos y b) aplicar un algoritmo basado en la posición de las articulac=
iones
de la mano, o una de las diferentes técnicas de segmentación. Dichos algo=
ritmos
de detección de manos basadas en la posición de las articulaciones utiliz=
an la posición
de las articulaciones de los dedos como una caracterÃstica reconocible. Es=
ta
técnica funciona bien si los dedos son evidentes (extendidos). Sin embargo,
basándonos en el análisis visual realizado sobre las imágenes de entrada,
consideramos que los dedos incluidos en las imágenes de entrada utilizadas=
en
este estudio no están lo suficientemente extendidos para aplicar esa técn=
ica.
Además, la apariencia de las manos tiene cambios sensibles entre las imág=
enes;
Por ejemplo, están en posición lateral, tienen un tamaño relativo pequeÃ=
±o o
tienen vestimenta y objetos superpuestos que crean una oclusión de los ded=
os.
Con respecto a la funcionalidad de la aplicación =
Hands Segmentation,
se observó que la para una efectiva parametrización son útiles las siguientes heurÃsticas:<=
/span>
1.
2.
=
=
Donde P es el parámetro=
seleccionado
por el usuario en la interfaz de la aplicación.
Los valores
paramétricos obtenidos (Figura 7) no se interpretaron estadÃsticamente pa=
ra
determinar si existen patrones significativos que permitan mejorar la heurÃ=
stica.
No obstante, se puede inferir que el uso de la aplicación Hands
Segmentation sobre una muestra más numeros=
a podrÃa
ser útil para elaborar un conjunto de datos de entrenamiento para un algor=
itmo
de aprendizaje de máquina como Adaboost=
(Freund & Schapire,
1997). Â
Por último, los
resultados de la Figura 7 muestran la efectividad de la aplicación Hands
Segmentation. Como se puede ver, el 73% (16=
manos
de 22 en las imágenes #3, #4, #5, #6, #7, #9 y #10) de las manos se detect=
aron de
forma individual, mientras que un 9% (imágenes de entrada # 2 y # 4) se de=
tectaron
en forma conjunta. Dos de ellos (imágenes #1 y #8) no pudieron ser aislado=
s de
los brazos. Para estos casos, se podrÃa considerar una estrategia basada e=
n el
cálculo de centroides (Dey & Anand, 2014). El algoritmo también fue c=
apaz
de reconocer el 100% de las regiones basado en el color de la piel de las m=
anos,
considerando diferentes colores de piel, oclusiones y posiciones de las mis=
mas.
=
Conclusiones
La detección y segmentación de manos es un campo de investigación=
útil
en CV debido a su variedad de aplicaciones. El objetivo principal de este
proyecto fue el desarrollo y pruebas de una solución de software para la
detección y segmentación de manos humanas en imágenes RGB utilizando té=
cnicas
de CV y codificación en lenguaje C++ con la librerÃa especializada OpenCV. Se utilizó una estrategia basada en cuatro f=
ases
consecutivas para resolver el problema y alcanzar los objetivos. Esa estrategia se implementó con un a=
lgoritmo
interactivo parametrizable implementado en la aplicación Hands
Segmentation. Los resultados muestran que el
algoritmo fue eficiente para detectar manos humanas en un 100% de las imág=
enes
analizadas, aunque un 2% de las segmentaciones obtenidas incluÃa otras par=
tes
del cuerpo humano como los brazos. Además, se midió el rendimiento de la
detección manual utilizando la métrica IoU y =
la
calidad de segmentación utilizando la métrica de precisión ad hoc=
. Excluyendo
ese 2%, el promedio de la métrica IoU correspo=
nde a
0.73 lo que se considera un algoritmo de buena calidad para detectar manos
humanas.
Reconocimientos
Este trabajo es parte del proyecto Nro.
=
=
=
=
=
Referencias
=
Dey, S. K., & Anand, S. (2014). Algorithm
For Multi-Hand Finger Counting: An Easy Approach. doi:10.48550/ARXIV.1404.2=
742 Â
Freund, Y. and Sch=
apire,
R. (1997). A decision theoretic generalization of on-line learning and an
application to boosting. Journal of Computer and System Sciences 55 119–1=
39.
MR1473055
Jaccard, P. (1908). Nouvelles recherches sur la distribution f=
lorale.
Bull. Soc. Vaudoise Sci. Nat. 44:223-270
Jones, M. & Rehg, J. (1999).
Statistical color models with application to skin detection. In Proceedings=
of
IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Vol. 1, =
pp.
274-280.
Kolkur, S., Kalban=
de,
D., Shimpi, P., Bapat, C., & Jatakia, J. (2017). Human skin detection u=
sing
RGB, HSV and YCbCr color models. arXiv preprint arXiv:1708.02694.
Mohammed, M. G., & Melhum,
A. I. (2020). Implementation of HOG feature extraction with tuned parameters
for human face detection. International Journal of Machine Learning and
Computing, 10(5), 654-661.
Rao, A.N., Kumar, V., & Nagaraju, C.
(2006). A New Segmentation Method using Watersheds on Grey Level Images.&nb=
sp;2006
International Conference on Advanced Computing and Communications, 275-=
278.
Rehg, J. & Kanade, T. (1993). DigitEyes: Vision-Based Human Hand-Tracking. School of
Computer Science Technical Report CMU-CS-93-220, Carnegie Mellon University=
.
Rhyne, T.-M. (2016). Applying Color The=
ory
to Digital Media and Visualization (1st ed.). CRC Press. https://doi.org/10.1201/978131538=
0384
Sato, Y., Kobayashi, Y. & Koike, H.=
(2000).
Fast tracking of hands and fingertips in infrared images for augmented desk
interface. In Proceedings of IEEE International Conference on Automatic Face
and Gesture Recognition (FG), pp. 462-467.
Shah, Hurmat & Khan, Rehanullah & Hasan, Laiq & Khan, Jebran &=
Khttak, A. & Jan, Sadaqat. (2012). On Experimental
Comparison of Color and Supervised Face Detection. SINDH UNIVERSITY RESEARCH
JOURNAL (SCIENCE SERIES). 44. 561-564.
Szeliski,
R. (2011). Computer vision algorithms and applications. London; New Yo=
rk:
Springer. ISBN: 9781848829343 1848829345 9781848829350 1848829353
Oudah=
,
M.; Al-Naji, A.; Chahl, J. (2020) Hand Gesture
Recognition Based on Computer Vision: A Review of Techniques. J.
Imaging 2020, 6, 73. https://doi.org/10.3390/jimaging6080073
Â
Viola, P. and Jones, M. (2001) Rapid Ob=
ject
Detection Using a Boosted Cascade of Simple Features. Proceedings of the 20=
01
IEEE Computer Society Conference on Computer Vision and Pattern Recognition=
. CVPR
2001, Kauai, 8-14 December 2001, I-511-I-518.
Cattafi. D= OI: https://doi.org/10.37387/ipc.v11i3.366
Cattafi. DOI: https://do= i.org/10.37387/ipc.v11i3.366
Invest. Pens. Crit. (ISSN
1812-3864; eISSN 2644-4119)
Vol. 11,=
No.
3, Septiembre – Diciembre 2023. pp. 28-37
DOI:
https://doi.org/10.37387/ipc.v11i3.366 Â <=
/span>
ArtÃculo CientÃfico
<= span style=3D'mso-no-proof:yes'>28