PPGCC - Mestrado (Dissertações)

URI permanente para esta coleçãohttp://www.hml.repositorio.ufop.br/handle/123456789/597

Navegar

Resultados da Pesquisa

Agora exibindo 1 - 10 de 99
  • Item
    Logo detection with second judge single shot multibox.
    (2017) Coelho, Leonardo Bombonato Simões; Cámara Chávez, Guillermo; Bianchi, Andrea Gomes Campos; Cámara Chávez, Guillermo; Ferreira, Anderson Almeida; Bianchi, Andrea Gomes Campos; Schwartz, William Robson
    With the increasing popularity of Social Networks, the way people interact has changed and the huge amount of data generated open doors to new strategies and marketing analysis. According to Instagram 1 and Tumblr2 an average of 95 and 35 million photos, respectively, are published every day. These pictures contain several implicit or explicit brand logos, this allows us to research how can a brand be better widespread based in regional, temporal and cultural criteria. Using advanced computer vision techniques for object detection and recognition, we can extract information from these images, making possible to understand the impact and the comprehensiveness of a specific brand. This thesis proposes a logo detection technique based on a Convolutional Neural Network (CNN), also used as a second judge. Our proposal is built on the Single Shot Multibox (SSD). In our research, we explored several approaches of the second judge and managed to reduce significantly the number of false positives in comparison with the original approach. Our research outperformed all the others researches on two different datasets: FlickrLogos-32 and Logos-32plus. On the FlickrLogos-32, we surpass the actual state-of-the-art method by 5.2% of F-score and for the Logos-32Plus by 3.0% of F-score.
  • Item
    Uma metodologia de ponderação de sinônimos para geração automática de exercícios de vocabulário.
    (2017) Souza, Wander Inácio de; Pereira Junior, Álvaro Rodrigues; Pereira Junior, Álvaro Rodrigues; Merschmann, Luiz Henrique de Campos; Lopes, Lucelene
    Aprender um novo idioma é algo fundamental no mundo globalizado de hoje. O inglês se destaca como o idioma mais estudado atualmente por ser mais utilizado na produção das mais diversas midas, nas quais cita-se filmes, músicas, jogos, seriados, entre outros. A necessidade de aprender um novo idioma e, principalmente, a língua inglesa, vem impulsionando a criação de novos métodos de aprendizados. Busca-se principalmente uma maior comodidade ao estudante, como a possibilidade de estudar em casa, através da Internet. Entretanto, as metodologias de ensino continuam padronizadas e engessadas, não considerando a individualidade de cada aluno no processo de aprendizagem. Uma metodologia de ensino que seja adequada a individualidade de cada aluno demanda de métodos capazes de gerar conhecimento ao estudante por meio do uso de temas que sejam de seu interesse. Dessa forma, neste trabalho propõe-se o desenvolvimento de uma metodologia de construção de ponderação de sinônimos para geração automática de exercícios de vocabulário, no intuito de automatizar a geração de exercícios de vocabulário. O estudo mostrou a viabilidade da aplicação da ponderação automática dos sinônimos e da escolha adequada das palavras utilizadas para o problema de geração de exercícios da língua inglesa. Em especial, para o melhor cenário estudado, a acurácia de seleção alcançou 84,8%, o que parece ser um resultado satisfatório para que se possa, no futuro, gerar uma aplicação real para a geração automática de exercícios de vocabulário.
  • Item
    Aquisição de imagens digitais e identificação dos ovos do mosquito Aedes Aegypti baseado em um modelo de aprendizado profundo.
    (2019) Garcia, Pedro Saint Clair; Cámara Chávez, Guillermo; Cámara Chávez, Guillermo; Ferreira, Anderson Almeida; Bianchi, Andrea Gomes Campos; Saúde, André Vital
    O mosquito Aedes aegypti pode transmitir algumas doenças, o que faz o estudo da proliferação deste vetor uma tarefa necessária. Com o uso de armadilhas feitas em laboratório, denominadas ovitrampas, é possível mapear a deposição de ovos numa determinada comunidade. Uma máquina fotográfica acoplada a uma lupa foi utilizada para adquirir imagens contendo os elementos (ovos) a serem contados. Essas imagens foram processadas a partir de um sistema de cores com o objetivo de encontrar a cor negra, que corresponde `a cor dos ovos. A partir dessas imagens já trabalhadas, foi realizado um processo de transferência de aprendizado com uma rede neural convolucional (CNN). A intenção era separar os elementos que realmente eram ovos dos demais. Por meio desse método, foi possível identificar cada ovo como um simples objeto. Em 90% das imagens testadas a contagem realizada pelo modelo em relação ao número real de ovos foi considerada de correlação perfeita. Para as demais 10% das imagens de teste, a contagem foi considerada de forte correlação, isso aconteceu em imagens que continham uma alta densidade de ovos ou que continham elementos negros que se pareciam com ovos do mosquito.
  • Item
    Reconhecimento de caracteres em imagens com ruído usando Deep Learning.
    (2017) Peixoto, Sirlene Pio Gomes da Silva; Gomes, David Menotti; Gomes, David Menotti; Bianchi, Andrea Gomes Campos; Cámara Chávez, Guillermo; Todt, Eduardo; Ferreira, Anderson Almeida
    Devido à degradação e baixa qualidade em imagens com ruído, como imagens de cenas naturais e CAPTCHAs (Completely Automated Public Turing test to tell Computers and Humans Apart) baseados em texto, o problema de reconhecimento de caracteres continua a ser extremamente desafiador. Neste trabalho, estudamos três abordagens diferentes de redes convolucionais (otimização de arquitetura com filtros aleatórios, aprendizado de filtros não supervisionado e supervisionado) que visam melhorar as representações de característica dessas imagens por meio de deep learning. Nós realizamos experimentos no amplamente utilizado dataset The Street View House Numbers (SVHN), em um novo dataset de CAPTCHAS criado por nós, e em um dataset de placas brasileiras. A abordagem que aprende os pesos dos filtros por meio do algoritmo back-propagation utilizando a técnica data augmentation e a estratégia de agregação de algumas camadas localmente conectadas à rede convolucional obteve resultados promissores para o dataset CAPTCHA (97,36% de acurácia para caracteres e 85,4% para CAPTCHAs) e resultados muito próximos ao estado da arte em relação ao dataset SVHN (97,45 % de acurácia para dígitos). Já no dataset de placas brasileiras, que contém um número de amostras muito inferior aos demais, a abordagem que realiza a otimização de arquitetura com filtros aleatórios obteve os resultados mais promissores. Além disso, analisamos o comportamento da abordagem deep learning que realiza o aprendizado supervisionado de filtros diante da exposição do dataset SVHN a interferências adversas.
  • Item
    Certified virtual machine-based regular expression parsing.
    (2019) Delfino, Thales Antônio; Ribeiro, Rodrigo Geraldo; Ribeiro, Rodrigo Geraldo; Malaquias, José Romildo; Reis, Leonardo Vieira dos Santos
    Regular expressions (REs) are pervasive in computing. We use REs in text editors, string search tools (like GNU-Grep) and lexical analyzers generators. Most of these tools rely on converting REs to its corresponding finite state machine or use REs derivatives for directly parse an input string. In this work, we investigated the suitability of another approach: instead of using derivatives or generating a finite state machine for a given RE, we developed a certified virtual machine-based algorithm (VM) for parsing REs, in such a way that a RE is merely a program executed by the VM over the input string. First, we developed a small-step operational semantics for the algorithm, implemented it in Haskell, tested it using QuickCheck and provided proof sketches of its correctness with respect to RE standard inductive semantics. After that, we developed a big-step operational semantics, an evolution of the small-step one. Unlike the small-step, the bigstep semantics can deal with problematic REs. We showed that the big-step semantics for our VM is also sound and complete with regard to a standard inductive semantics for REs and that the evidence produced by it denotes a valid parsing result. All of our results regarding the big-step semantics are formalized in Coq proof assistant and, from it, we extracted a certified algorithm, which we used to build a RE parsing tool using Haskell programming language. Experiments comparing the efficiency of our algorithm with another Haskell tool are reported.
  • Item
    Uso de equipamento vestível para captura do ambiente florestal : estudo de caso : contagem de folhas de dossel.
    (2019) Silva, Mateus Coelho; Oliveira, Ricardo Augusto Rabelo; Ribeiro, Sérvio Pontes; Oliveira, Ricardo Augusto Rabelo; Ribeiro, Sérvio Pontes; Nacif, José Augusto Miranda; Silva, Saul Emanuel Delabrida
    O crescimento do uso de dispositivos vestíveis com computadores embarcados é um aspecto observado tanto em aplicações comerciais quanto no ambiente acadêmico. Apesar disso, ainda há poucos registros de pesquisa e cooperação no sentido de desenvolver equipamentos vestíveis para pesquisa em campo. Uma das áreas onde esse tipo de tecnologia pode ser aplicado para melhorar o processo de pesquisa ´e a ecologia. Especialmente no estudo de dosséis florestais, as restrições de segurança e processos manuais apresentam um potencial de aplicação e melhoria através dispositivos vestíveis. Dessa maneira, esse trabalho apresenta uma análise de aspectos do desenvolvimento de protótipos para o uso de equipamento vestível na realização de tarefas de captura do ambiente florestal.
  • Item
    Uma abordagem para estimar a similaridade item-item baseada nos relacionamentos semânticos da Linked Open Data.
    (2019) Pereira, Ítalo Magno; Ferreira, Anderson Almeida; Ferreira, Anderson Almeida; Pereira Junior, Álvaro Rodrigues; Rodrigues, Lívia Couto Ruback
    A época atual está sendo vista como uma era de sobrecarga de informação, uma vez que mais dados são produzidos do que humanos podem processar. Este fato implica na melhoria constante de sistemas de recuperação e tratamento de informação. Inserido neste contexto, os sistemas de recomendação são ferramentas importantes aos usuários, por sugerir itens que possam ser interessantes. No entanto, os sistemas de recomendação baseados em filtragem colaborativa sofrem com o problema conhecido como cold start ou falta de dados iniciais. A opção para contornar esse problema é explorar outras fontes de dados, como a Linked Open Data (LOD), para enriquecer os dados. Contudo, muitas soluções baseadas na LOD não fazem uso dos relacionamentos semânticos e, quando o fazem, não ponderam corretamente seus relacionamentos e, assim, não exploram o seu potencial. Este trabalho visa apresentar uma abordagem para explorar os relacionamentos semânticos da Linked Open Data, por meio da descoberta de características relevantes e ponderação de tais características sem intervenção de um especialista de domínio de aplicação. Para avaliar a proposta, foram realizados experimentos em dois domínios de aplicação, domínio de filmes e museus. Os resultados mostraram-se competitivos comparados a outras abordagens, onde a seleção de propriedades relevantes é feita manualmente.
  • Item
    Segmentação de núcleos em células cervicais obtidas em exames de Papanicolaou.
    (2019) Diniz, Débora Nasser; Souza, Marcone Jamilson Freitas; Bianchi, Andrea Gomes Campos; Souza, Marcone Jamilson Freitas; Bianchi, Andrea Gomes Campos; Medeiros, Fátima Nelsizeuma Sombra de; Penna, Puca Huachi Vaz
    Este trabalho tem seu foco na detecção de núcleos em imagens sintéticas de células cervicais. Este é um passo importante na construção de uma ferramenta computacional para ajudar os citopatologistas a identificarem alterações celulares a partir de exames de Papanicolaou. Para detectar esses núcleos propomos duas abordagens, a primeira baseada em Iterated Local Search (ILS) e a segunda em Árvore de Decisão (DT). O objetivo é melhorar a assertividade do exame e reduzir a carga de trabalho do profissional. As duas abordagens utilizam características de uma região da imagem para identificar um núcleo. Para ambas, foi necessário fazer um pré-processamento das imagens para dividí-las em regiões a serem analisadas. Para isto, foram utilizados os algoritmos Simple Linear Iterative Clustering (SLIC) e Density Based Spatial Clustering of Applications with Noise (DBSCAN). No ILS, foi feita uma investigação para saber quais dessas características são relevantes para a identificação dos núcleos. O pacote irace foi utilizado para fazer a calibração automática dos parâmetros do ILS. Já para a DT proposta, foi construída uma base de dados com todas as características extraídas das regiões e feita uma seleção das mais importantes por meio de uma matriz de correlação. Com essas características selecionadas foi feito o treinamento. Por fim, as abordagens propostas foram comparadas entre si e com outros métodos da literatura segundo as métricas revocação, precisão e F1, usando-se o banco de dados ISBI Overlapping Cytology Image Segmentation Challenge (2014). Os resultados obtidos mostraram a superioridade da abordagem via DT sobre o ILS em todas as métricas, assim como sua superioridade sobre todos os outros métodos da literatura com relação às métricas F1 e revocação.
  • Item
    Algoritmos meta-heurísticos para o problema dial-a-ride.
    (2019) Souza, André Luyde da Silva; Penna, Puca Huachi Vaz; Souza, Marcone Jamilson Freitas; Penna, Puca Huachi Vaz; Souza, Marcone Jamilson Freitas; Santos, André Gustavo dos; Toffolo, Túlio Ângelo Machado
    Este trabalho trata do problema Dial-a-Ride, que consiste em fazer rotas para veículos com a finalidade de transportar pacientes de diferentes locais para realizar exames médicos em unidades de tratamento de saúde. O Dial-a-Ride é uma extensão do Problema de Roteamento de Veículos, possuindo características do Problema de Roteamento de Veículos com Janela de Tempo e do Problema de Roteamento de Veículos com Coleta e Entrega, combinados com restrições relativas aos pacientes. O trabalho considera a forma estática do problema e utiliza dados obtidos da Prefeitura Municipal de Ouro Preto-MG para modelagem e contextualização do problema. Para resolvê-lo, propõe-se dois algoritmos heurísticos, MS-VNS1 e VNS2, ambos baseados na meta-heurística Variable Neighborhood Search (VNS). O primeiro, MSVNS1, é guiado pela meta-heurística Multi-Start tendo como busca local o VNS. O segundo, por sua vez, é guiado apenas pelo VNS. Nos dois algoritmos o método de busca local do VNS é o procedimento heurístico Randomized Variable Neighborhood Descent (RVND), o qual usa os movimentos de realocação, troca e cruzamento para explorar o espaço de soluções do problema. Os resultados computacionais foram obtidos pela aplicação dos algoritmos em um conjunto de instâncias da literatura e comparados com os das melhores soluções desta variante do problema. Apesar de simples, os algoritmos desenvolvidos foram capazes de encontrar a solução ótima para algumas instâncias e soluções de boa qualidade para as demais. Os algoritmos também foram testados em um conjunto de instâncias criadas a partir de dados fornecidos pela Prefeitura Municipal de Ouro Preto-MG. Ambos se mostraram capazes de atender as demandas da cidade de Ouro Preto de forma automatizada, proporcionando ao setor de transporte da prefeitura uma ferramenta que possibilita reduzir os custos com o transporte de pacientes e diminuir a alocação de funcionários para cumprir essa atividade.
  • Item
    Um modelo reforçado e heurísticas relax-and-fix e VNS para o Problema da Árvore Geradora Mínima Capacitada em Níveis.
    (2018) Campos, Jean Carlos Tiburcio; Souza, Marcone Jamilson Freitas; Martins, Alexandre Xavier; Souza, Marcone Jamilson Freitas; Martins, Alexandre Xavier; Santos, Haroldo Gambini; Carvalho, Marco Antonio Moreira de; Souza, Maurício Cardoso de
    Este trabalho tem seu foco no Problema da Árvore Geradora Mínima Capacitada em Níveis (PAGMCN). Ele consiste em encontrar uma árvore geradora de custo mínimo, tal que o fluxo a ser transferido de um nó central aos demais nós seja limitado pela capacidade das arestas. Para resolvê-lo, propomos neste trabalho uma formulação reforçada de programação matemática e um algoritmo híbrido, combinando as heurísticas relax-and-fix e Variable Neighborhood Search (VNS), juntamente com um modelo matemático. A formulação matemática proposta, chamada \Modelo Baseado na Capacidade das Facilidades 2" (MBC2), consiste em adicionar dois novos conjuntos de restrições à formulação considerada a mais e ciente da literatura. A motivação para a utilização do modelo MBC2 está em ele fornecer um limite inferior de qualidade, esperando assim convergir mais rapidamente à solução ótima. Experimentos computacionais mostraram que a formulação reforçada proposta, quando comparada ao modelo da literatura, melhora a qualidade da relaxação linear, fornecendo um limite inferior melhor e justificando a sua utilização. Para o desenvolvimento do algoritmo híbrido, foi utilizado o modelo MBC2 proposto neste trabalho, em razão de ele ser capaz de proporcionar um limite inferior de qualidade. Essa formulação reforçada é usada com a heurística relax-and-fix para fornecer uma solução inicial para o VNS. Resultados mostram que o VNS melhora a solução inicial e gera soluções com gaps relativamente pequenos nas instâncias usadas para teste.