Please use this identifier to cite or link to this item: http://hdl.handle.net/2445/65589
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorEscalera Guerrero, Sergio-
dc.contributor.advisorSclaroff, Stan-
dc.contributor.advisorRadeva, Petia-
dc.contributor.authorHernández-Vela, Antonio-
dc.contributor.otherUniversitat de Barcelona. Departament de Matemàtica Aplicada i Anàlisi-
dc.date.accessioned2015-05-20T09:06:33Z-
dc.date.available2015-05-20T09:06:33Z-
dc.date.issued2015-03-09-
dc.identifier.urihttp://hdl.handle.net/2445/65589-
dc.description.abstract[cat] L’anàlisi visual de persones a partir d'imatges és un tema de recerca molt important, atesa la rellevància que té a una gran quantitat d'aplicacions dins la visió per computador, com per exemple: detecció de vianants, monitorització i vigilància,interacció persona-màquina, “e-salut” o sistemes de recuperació d’matges a partir de contingut, entre d'altres. En aquesta tesi volem aprendre diferents representacions visuals del cos humà, que siguin útils per a la anàlisi visual de persones en imatges i vídeos. Per a tal efecte, analitzem diferents modalitats d'imatge com són les imatges de color RGB i les imatges de profunditat, i adrecem el problema a diferents nivells d'abstracció, des dels píxels fins als gestos: segmentació de persones, estimació de la pose humana i reconeixement de gestos. Primer, mostrem com la segmentació binària (objecte vs. fons) del cos humà en seqüències d'imatges ajuda a eliminar soroll pertanyent al fons de l'escena en qüestió. El mètode presentat, basat en optimització “Graph cuts”, imposa consistència espai-temporal a Ies màscares de segmentació obtingudes en “frames” consecutius. En segon lloc, presentem un marc metodològic per a la segmentació multi-classe, amb la qual podem obtenir una descripció més detallada del cos humà, en comptes d'obtenir una simple representació binària separant el cos humà del fons, podem obtenir màscares de segmentació més detallades, separant i categoritzant les diferents parts del cos. A un nivell d'abstraccíó més alt, tenim com a objectiu obtenir representacions del cos humà més simples, tot i ésser suficientment descriptives. Els mètodes d'estimació de la pose humana sovint es basen en models esqueletals del cos humà, formats per segments (o rectangles) que representen les extremitats del cos, connectades unes amb altres seguint les restriccions cinemàtiques del cos humà. A la pràctica, aquests models esqueletals han de complir certes restriccions per tal de poder aplicar mètodes d'inferència que permeten trobar la solució òptima de forma eficient, però a la vegada aquestes restriccions suposen una gran limitació en l'expressivitat que aques.ts models son capaços de capturar. Per tal de fer front a aquest problema, proposem un enfoc “top-down” per a predir la posició de les parts del cos del model esqueletal, introduïnt una representació de parts de mig nivell basada en “Poselets”. Finalment. proposem un marc metodològic per al reconeixement de gestos, basat en els “bag of visual words”. Aprofitem els avantatges de les imatges RGB i les imatges; de profunditat combinant vocabularis visuals específiques per a cada modalitat, emprant late fusion. Proposem un nou descriptor per a imatges de profunditat invariant a rotació, que millora l'estat de l'art, i fem servir piràmides espai-temporals per capturar certa estructura espaial i temporal dels gestos. Addicionalment, presentem una reformulació probabilística del mètode “Dynamic Time Warping” per al reconeixement de gestos en seqüències d'imatges. Més específicament, modelem els gestos amb un model probabilistic gaussià que implícitament codifica possibles deformacions tant en el domini espaial com en el temporal.-
dc.description.abstract[eng] The visual analysis of humans from images is an important topic of interest due to its relevance to many computer vision applications like pedestrian detection, monitoring and surveillance, human-computer interaction, e-health or content-based image retrieval, among others. In this dissertation in learning different visual representations of the human body that are helpful for the visual analysis of humans in images and video sequences. To that end, we analyze both RCB and depth image modalities and address the problem from three different research lines, at different levels of abstraction; from pixels to gestures: human segmentation, human pose estimation and gesture recognition. First, we show how binary segmentation (object vs. background) of the human body in image sequences is helpful to remove all the background clutter present in the scene. The presented method, based on “Graph cuts” optimization, enforces spatio-temporal consistency of the produced segmentation masks among consecutive frames. Secondly, we present a framework for multi-label segmentation for obtaining much more detailed segmentation masks: instead of just obtaining a binary representation separating the human body from the background, finer segmentation masks can be obtained separating the different body parts. At a higher level of abstraction, we aim for a simpler yet descriptive representation of the human body. Human pose estimation methods usually rely on skeletal models of the human body, formed by segments (or rectangles) that represent the body limbs, appropriately connected following the kinematic constraints of the human body, In practice, such skeletal models must fulfill some constraints in order to allow for efficient inference, while actually Iimiting the expressiveness of the model. In order to cope with this, we introduce a top-down approach for predicting the position of the body parts in the model, using a mid-level part representation based on Poselets. Finally, we propose a framework for gesture recognition based on the bag of visual words framework. We leverage the benefits of RGB and depth image modalities by combining modality-specific visual vocabularies in a late fusion fashion. A new rotation-variant depth descriptor is presented, yielding better results than other state-of-the-art descriptors. Moreover, spatio-temporal pyramids are used to encode rough spatial and temporal structure. In addition, we present a probabilistic reformulation of Dynamic Time Warping for gesture segmentation in video sequences, A Gaussian-based probabilistic model of a gesture is learnt, implicitly encoding possible deformations in both spatial and time domains.-
dc.format.extent148 p.-
dc.format.mimetypeapplication/pdf-
dc.language.isoeng-
dc.publisherUniversitat de Barcelona-
dc.rightscc-by-nc, (c) Hernández-Vela,, 2015-
dc.rights.urihttp://creativecommons.org/licenses/by-nc/3.0/-
dc.sourceTesis Doctorals - Departament - Matemàtica Aplicada i Anàlisi-
dc.subject.classificationVisió per ordinador-
dc.subject.classificationIntel·ligència artificial-
dc.subject.classificationAprenentatge automàtic-
dc.subject.classificationReconeixement de formes (Informàtica)-
dc.subject.otherComputer vision-
dc.subject.otherArtificial intelligence-
dc.subject.otherMachine learning-
dc.subject.otherPattern recognition systems-
dc.titleFrom pixels to gestures: learning visual representations for human analysis in color and depth data sequences-
dc.typeinfo:eu-repo/semantics/doctoralThesis-
dc.typeinfo:eu-repo/semantics/publishedVersion-
dc.identifier.dlB 14543-2015-
dc.date.updated2015-05-20T09:06:34Z-
dc.rights.accessRightsinfo:eu-repo/semantics/openAccess-
dc.identifier.tdxhttp://hdl.handle.net/10803/292488-
Appears in Collections:Tesis Doctorals - Departament - Matemàtica Aplicada i Anàlisi

Files in This Item:
File Description SizeFormat 
AHV_PhD_THESIS.pdf7.89 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons