Reconhecimento de caracteres em imagens com ruído usando Deep Learning.

dc.contributor.advisorGomes, David Menottipt_BR
dc.contributor.authorPeixoto, Sirlene Pio Gomes da Silva
dc.contributor.refereeGomes, David Menottipt_BR
dc.contributor.refereeBianchi, Andrea Gomes Campospt_BR
dc.contributor.refereeCámara Chávez, Guillermopt_BR
dc.contributor.refereeTodt, Eduardopt_BR
dc.contributor.refereeFerreira, Anderson Almeidapt_BR
dc.date.accessioned2020-08-11T19:11:49Z
dc.date.available2020-08-11T19:11:49Z
dc.date.issued2017
dc.descriptionPrograma de Pós-Graduação em Ciência da Computação. Departamento de Ciência da Computação, Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto.pt_BR
dc.description.abstractDevido à degradação e baixa qualidade em imagens com ruído, como imagens de cenas naturais e CAPTCHAs (Completely Automated Public Turing test to tell Computers and Humans Apart) baseados em texto, o problema de reconhecimento de caracteres continua a ser extremamente desafiador. Neste trabalho, estudamos três abordagens diferentes de redes convolucionais (otimização de arquitetura com filtros aleatórios, aprendizado de filtros não supervisionado e supervisionado) que visam melhorar as representações de característica dessas imagens por meio de deep learning. Nós realizamos experimentos no amplamente utilizado dataset The Street View House Numbers (SVHN), em um novo dataset de CAPTCHAS criado por nós, e em um dataset de placas brasileiras. A abordagem que aprende os pesos dos filtros por meio do algoritmo back-propagation utilizando a técnica data augmentation e a estratégia de agregação de algumas camadas localmente conectadas à rede convolucional obteve resultados promissores para o dataset CAPTCHA (97,36% de acurácia para caracteres e 85,4% para CAPTCHAs) e resultados muito próximos ao estado da arte em relação ao dataset SVHN (97,45 % de acurácia para dígitos). Já no dataset de placas brasileiras, que contém um número de amostras muito inferior aos demais, a abordagem que realiza a otimização de arquitetura com filtros aleatórios obteve os resultados mais promissores. Além disso, analisamos o comportamento da abordagem deep learning que realiza o aprendizado supervisionado de filtros diante da exposição do dataset SVHN a interferências adversas.pt_BR
dc.description.abstractenDue to degradation and low quality in noisy images, such as natural scene images and CAPTCHAs (Completely Automated Public Turing test to tell Computers and Humans Apart) based on text, the character recognition problem continues to be extremely challenging. In this work, we study two different convolutional network approaches (architecture optimization with random filters, filters learning unsupervised and supervised) aiming at improving the feature representations of these images through deep learning. We perform experiments in the widely used Street View House Numbers (SVHN) dataset, in a new dataset of CAPTCHAS created by us and a dataset of Brazilian plates. The approach that learns filter weights through back-propagation algorithm using data augmentation technique and the strategy of adding few locally-connected layers to the Convolutional Network (CN) has obtained promising results to the CAPTCHA dataset (97.36% of accuracy for characters and 85.4% for CAPTCHAs) and results very close to the state-of-the-art regarding the SVHN dataset (97.45% of accuracy for digits). In dataset of Brazilian plates, which contains a number of very low samples to the other, an approach that optimizes the architecture with random filters achieved the most promising results. In addition, we analyze the behavior of the deep learning approach we perform the supervised learning of filters in the face of SVHN dataset exposure to adverse interference.pt_BR
dc.identifier.citationPEIXOTO, Sirlene Pio Gomes da Silva. Reconhecimento de caracteres em imagens com ruído usando Deep Learning. 2017. 60 f. Dissertação (Mestrado em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2017.pt_BR
dc.identifier.urihttp://www.repositorio.ufop.br/handle/123456789/12579
dc.language.isopt_BRpt_BR
dc.rightsabertopt_BR
dc.rights.licenseAutorização concedida ao Repositório Institucional da UFOP pelo(a) autor(a) em 06/08/2020 com as seguintes condições: disponível sob Licença Creative Commons 4.0 que permite copiar, distribuir e transmitir o trabalho desde que sejam citados o autor e o licenciante. Não permite o uso para fins comerciais.pt_BR
dc.subjectRedes neurais - computaçãopt_BR
dc.subjectInteligência artificialpt_BR
dc.subjectAprendizado do computadorpt_BR
dc.titleReconhecimento de caracteres em imagens com ruído usando Deep Learning.pt_BR
dc.typeDissertacaopt_BR

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Nenhuma Miniatura Disponível
Nome:
DISSERTAÇÃO_ReconhecimentoCaracteresImagem.pdf
Tamanho:
22.86 MB
Formato:
Adobe Portable Document Format

Licença do pacote

Agora exibindo 1 - 1 de 1
Nenhuma Miniatura Disponível
Nome:
license.txt
Tamanho:
924 B
Formato:
Item-specific license agreed upon to submission
Descrição: