Carregant...
Miniatura

Tipus de document

Article

Versió

Versió publicada

Data de publicació

Llicència de publicació

cc-by (c)  Hernández-Vela, Antonio et al., 2012
Si us plau utilitzeu sempre aquest identificador per citar o enllaçar aquest document: https://hdl.handle.net/2445/152533

GrabCut-Based Human Segmentation in Video Sequences

Títol de la revista

Director/Tutor

ISSN de la revista

Títol del volum

Resum

In this paper, we present a fully-automatic Spatio-Temporal GrabCut human segmentation methodology that combines tracking and segmentation. GrabCut initialization is performed by a HOG-based subject detection, face detection, and skin color model. Spatial information is included by Mean Shift clustering whereas temporal coherence is considered by the historical of Gaussian Mixture Models. Moreover, full face and pose recovery is obtained by combining human segmentation with Active Appearance Models and Conditional Random Fields. Results over public datasets and in a new Human Limb dataset show a robust segmentation and recovery of both face and pose using the presented methodology.

Citació

Citació

HERNÁNDEZ-VELA, Antonio, REYES ESTANY, Miguel, PONCE LÓPEZ, Víctor, ESCALERA GUERRERO, Sergio. GrabCut-Based Human Segmentation in Video Sequences. _Sensors_. 2012. Vol. 12, núm. 11, pàgs. 15377-15393. [consulta: 16 de desembre de 2025]. ISSN: 1424-8220. [Disponible a: https://hdl.handle.net/2445/152533]

Exportar metadades

JSON - METS

Compartir registre