Navegando por Autor "Nascimento, Erickson Rangel do"
Agora exibindo 1 - 4 de 4
Resultados por página
Opções de Ordenação
Item Detecção de placas veiculares : uma abordagem adaptativa para a localização de placas utilizando descritores HOG.(2014) Prates, Raphael Felipe de Carvalho; Cámara Chávez, Guillermo; Gomes, David Menotti; Cámara Chávez, Guillermo; Gomes, David Menotti; Nascimento, Erickson Rangel do; Schwartz, William RobsonUm sistema de reconhecimento de placas veiculares é responsável por extrair informações visuais que possibilitem a identificação automática de veículos a partir de uma imagem ou sequência de imagens. Trata-se de uma área com muitos trabalhos publicados recentemente devido a sua aplicação em situações cotidianas como no pagamento automático de pedágios e no monitoramento do tráfego de veículos. Uma das etapas para a identificação dos veículos é a detecção das placas veiculares na imagem. Essa é considera a fase mais crítica do sistema devido às dificuldades decorrentes de variações ambientais (dia, noite, sol e chuva) e entre diferentes placas (sujeiras, cores, fontes e oclusão). Uma abordagem comum na detecção de placas veiculares é varrer a imagem usando uma janela deslizante com uma proporção entre a largura e a altura semelhante a da placa veicular. No entanto, para lidar com diferentes escalas é necessário fazer esse processo não em uma escala, mas em uma pirâmide de diferentes escalas. Esse método se opõe às exigências de desempenho do sistema que deve ser tempo-real. Assim, neste trabalho é proposto um método de detecção de placas veiculares utilizando janelas deslizantes que visa uma detecção eficaz analisando um número bem inferior de janelas na imagem quando comparado a abordagem em pirâmide. Com esse objetivo, dividimos o processo em duas etapas principais: (1) busca em uma quantidade mínima de escalas utilizando janelas deslizantes de forma a obter uma estimativa inicial da posição da placa e (2) a partir de cada estimativa inicial ´e realizada uma decomposição em mais escalas localmente, buscando um melhor casamento entre a janela de detecção e a placa real. Os resultados encontrados comprovam as vantagens do método proposto, são obtidas detecções mais precisas analisando 25% e 75% menos janelas que um método multiescalas convencional para as bases brasileira e grega, respectivamente. A confiabilidade do método é garantida por uma revocação de 98% para coeficiente de Jaccard de 50% em duas bases de imagens de diferentes nacionalidades.Item Extração e comparação de características locais para o reconhecimento facial por meio de retratos falados.(2014) Silva, Marco Antonio de Albuquerque; Cámara Chávez, Guillermo; Cámara Chávez, Guillermo; Gomes, David Menotti; Bianchi, Andrea Gomes Campos; Nascimento, Erickson Rangel doSistemas de reconhecimento facial através de retratos falados são muito importantes para agências de segurança. Esses sistemas podem ajudar a localizar ou diminuir o número de potenciais suspeitos. Recentemente, vários métodos foram propostos para resolver esse problema, mas não há uma comparação clara de desempenho entre eles. Neste trabalho é proposta uma nova abordagem para o reconhecimento facial através de fotografias/retratos falados baseada no Local Feature-based Discriminant Analysis (LFDA). Esse novo método foi testado e comparado com seus antecessores, utilizando três diferentes conjuntos de imagens (retratos falados) e também com a adição de uma galeria extra de 10.000 fotografias para estender a galeria. Experimentos utilizando as bases de imagens CUFS e CUFSF mostraram que a nossa abordagem supera as abordagens do estado-da-arte, além de ser 43% mais rápido que o segundo método, o LFDA. Nossa abordagem também mostra bons resultados com forensic sketches. A limitação ao avaliar este conjunto de imagens está no seu tamanho muito pequeno. Ao aumentar o conjunto de dados de treinamento, a precisão da nossa abordagem vai aumentar, uma vez que foi demonstrado por nossos experimentos. Além disso, demonstramos o desempenho e comparamos vários descritores e os principais métodos, utilizando três bases de dados diferentes e uma galeria extra, tal comparação não existia na literatura.Item Learning to dance : a graph convolutional adversarial network to generate realistic dance motions from audio.(2021) Ferreira, João Pedro Moreira; Coutinho, Thiago Malta; Gomes, Thiago Luange; Silva Neto, José Francisco da; Azevedo, Rafael Augusto Vieira de; Martins, Renato José; Nascimento, Erickson Rangel doSynthesizing human motion through learning techniques is becoming an increasingly popular approach to alleviating the requirement of new data capture to produce animations. Learning to move naturally from music, i.e., to dance, is one of the more complex motions humans often perform effortlessly. Each dance movement is unique, yet such movements maintain the core characteristics of the dance style. Most approaches addressing this problem with classical convolutional and recursive neural models un- dergo training and variability issues due to the non-Euclidean geometry of the motion manifold struc- ture. In this paper, we design a novel method based on graph convolutional networks to tackle the problem of automatic dance generation from audio information. Our method uses an adversarial learn- ing scheme conditioned on the input music audios to create natural motions preserving the key move- ments of different music styles. We evaluate our method with three quantitative metrics of generative methods and a user study. The results suggest that the proposed GCN model outperforms the state-of- the-art dance generation method conditioned on music in different experiments. Moreover, our graph- convolutional approach is simpler, easier to be trained, and capable of generating more realistic mo- tion styles regarding qualitative and different quantitative metrics. It also presented a visual movement perceptual quality comparable to real motion data. The dataset and project are publicly available at: https://www.verlab.dcc.ufmg.br/motion-analysis/cag2020.Item A shape-aware retargeting approach to transfer human motion and appearance in monocular videos.(2021) Gomes, Thiago Luange; Martins, Renato José; Ferreira, João Pedro Moreira; Azevedo, Rafael Augusto Vieira de; Torres, Guilherme Alvarenga; Nascimento, Erickson Rangel doTransferring human motion and appearance between videos of human actors remains one of the key challenges in Computer Vision. Despite the advances from recent image-to-image translation approaches, there are several transferring contexts where most end-to-end learning-based retargeting methods still perform poorly. Transferring human appearance from one actor to another is only ensured when a strict setup has been complied, which is generally built considering their training regime’s specificities. In this work, we propose a shape-aware approach based on a hybrid image-based rendering technique that exhibits competitive visual retargeting quality compared to state-of-the-art neural rendering approaches. The formulation leverages the user body shape into the retargeting while considering physical constraints of the motion in 3D and the 2D image domain. We also present a new video retargeting benchmark dataset composed of different videos with annotated human motions to evaluate the task of synthesizing people’s videos, which can be used as a common base to improve tracking the progress in the field. The dataset and its evaluation protocols are designed to evaluate retargeting methods in more general and challenging conditions. Our method is validated in several experiments, comprising publicly available videos of actors with different shapes, motion types, and camera setups. The dataset and retargeting code are publicly available to the community at: https://www.verlab.dcc.ufmg.br/retargeting-motion.