PPGCC - Doutorado (Teses)

URI permanente para esta coleçãohttp://www.hml.repositorio.ufop.br/handle/123456789/9837

Navegar

Resultados da Pesquisa

Agora exibindo 1 - 10 de 16
  • Item
    Contributions to automating the analysis of conventional Pap smears.
    (2023) Diniz, Débora Nasser; Souza, Marcone Jamilson Freitas; Bianchi, Andrea Gomes Campos; Souza, Marcone Jamilson Freitas; Bianchi, Andrea Gomes Campos; Carneiro, Cláudia Martins; Luz, Eduardo José da Silva; Pessin, Gustavo; Souza, Jefferson Rodrigo de; Veras, Rodrigo de Melo Souza
    This thesis, organized as a compilation of articles, develops and presents contri- butions to the automated analysis of conventional Pap smear slides. A conventional Pap smear slide is a sample of cervical cells collected and prepared on a glass slide for subsequent cytopathological analysis. The main contributions are to detect and classify cervical cell nuclei to develop a decision support tool for cytopathologists. The first arti- cle resulting from this research utilizes a hierarchical methodology using Random Forest for the nucleus classification of the Herlev and Center for Recognition and Inspection of Cells (CRIC) Searchable Image Database databases based on 232 handcrafted fea- tures. In this article, we investigate balancing techniques, perform statistical analyses using Shapiro-Wilk and Kruskal-Wallis tests, and introduce the CRIC Searchable Image Database segmentation base. Our result defined the state-of-the-art in five metrics for nucleus classification in five and seven classes and the state-of-the-art in precision and F1-score for two-class classification. The second article introduces a method for nu- cleus detection in synthetic Pap smear images from the Overlapping Cervical Cytology Image Segmentation Challenge dataset proposed at the 11th International Symposium on Biomedical Imaging (ISBI’14). In this second article, we investigate clustering al- gorithms for image segmentation. We also explore four traditional machine learning techniques (Decision Tree (DT), Nearest Centroid (NC), k-Nearest Neighbors (k-NN), and Multi-layer Perceptron (MLP)) for classification and propose an ensemble method using DT, NC, and k-NN. Our result defined the state-of-the-art recall using this dataset. The third article proposes an ensemble method using EfficientNets B1, B2, and B6 to classify images from the CRIC Searchable Image Database dataset. Here, we investigate ten neural network architectures to choose those used in the ensemble method and present a data augmentation methodology using image transformation techniques. Our result de- fined the five state-of-the-art metrics for nucleus classification in two and three classes. Furthermore, we introduce results for six-class classification. Lastly, the fourth article introduces the Cytopathologist Eye Assistant (CEA), an intuitive and user-friendly tool that uses deep learning to detect and classify cervical cells in Pap smear images, support- ing cytopathologists in providing diagnoses. We investigate You Only Look Once (YOLO) v5 and YOLOR for performing both tasks (detection and classification) and also explore the combination of using YOLOv5 for detection and the ensemble of EfficientNets from the third article for classification. The article explores data balancing techniques, under- sampling, and oversampling using Python’s Clodsa library. The CRIC Cervix database was used for tool evaluation, considering four scenarios: original images, resized im- ages, augmented resized images, and balanced resized images. The application of CEA was validated by specialists with years of experience in cytopathology, highlighting the tool’s ease of use and potential to address specific queries.
  • Item
    Wearable edge AI towards cyber-physical applications.
    (2023) Silva, Mateus Coelho; Oliveira, Ricardo Augusto Rabelo; Ribeiro, Sérvio Pontes; Bianchi, Andrea Gomes Campos; Oliveira, Ricardo Augusto Rabelo; Teixeira, Fernando Augusto; Silva, Jorge Miguel Sá; Correia, Luiz Henrique Andrade; Silva, Saul Emanuel Delabrida; Amorim, Vicente José Peixoto de
    The creation of novel technologies to support field work and research has a major impact from technologies such as the Internet of Things (IoT), Edge Computing and wearable computing. In this context, Artificial-Intelligence-based systems became more common and a trend in recent work. Environments with low connectivity and high latency in data transmission enforce the usage of Edge Computing technologies in the treatment of acquired data. Nonetheless, there is no clarity in how to transport Artificial Intelligence (AI) to Edge Computing in extreme environments, given the complexity of the requirements. This gap is more clear in the context of wearable computing, where the systems restrictions for developing systems are even harder. Thus, this work presents a protocol for developing Edge AI appliances and some case-study applications in the context of wearable devices. This study helps to evaluate the creation of Wearable Edge AI context as a novel research field.
  • Item
    Otimização de processos produtivos em sistemas de manufatura flexível.
    (2023) Soares, Leonardo Cabral da Rocha; Carvalho, Marco Antonio Moreira de; Carvalho, Marco Antonio Moreira de; Subramanian, Anand; Chaves, Antônio Augusto; Souza, Marcone Jamilson Freitas; Toffolo, Túlio Ângelo Machado
    A complexidade geral do gerenciamento de produção de um sistema de manufatura flexível tem inspirado pesquisadores ao estudo de diversos problemas computacionais advindos de tais sistemas desde a década de 1980. Estudos recentes demonstram que o número de publicações em temas correlatos cresce constantemente desde o ano de 1988, reforçando a relevância e a atualidade do tema. Diante disto, neste trabalho são abordados alguns dos principais problemas advindos deste cenário. Todos os problemas abordados possuem publicações recentes em prestigiados veículos internacionais. Para cada problema abordado apresenta-se definição formal, revisão bibliográfica, método computacional para solução e análise comparativa dos resultados obtidos em relação ao atual estado da arte. Entre os métodos computacionais propostos há predominância da meta-heurística busca local iterada e do algoritmo genético de chaves aleatórias viciadas, entretanto, cada implementação foi cuidadosamente elaborada considerando-se as características individuais dos problemas abordados. Em síntese, inicialmente apresenta-se dois problemas fundamentais relacionados ao escalonamento de tarefas em máquinas flexíveis, o problema de minimização de trocas de ferramentas e o problema do escalonamento de tarefas em máquinas paralelas idênticas com restrições de ferramentas, visando fornecer um referencial teórico para embasar e direcionar o estudo dos demais problemas. Em seguida, são abordados o problema de minimização de blocos de uns consecutivos, o problema de minimização de trocas de ferramentas uniforme, o problema de sequenciamento de tarefas em máquinas paralelas com limitação de recursos e o problema de sequenciamento de tarefas em máquinas paralelas não-idênticas com restrições de ferramentas. Para cada problema abordado realizou-se uma ampla campanha experimental, analisando-se as instâncias disponíveis na literatura e os resultados gerados pelos métodos propostos e pelos métodos que compõem o estado da arte. Análises estatísticas foram realizadas e confirmaram a alta qualidade das soluções reportadas pelos métodos propostos.
  • Item
    Blockchain é tudo que você precisa : a integração e comunicação descentralizada dos sistemas da Indústria 4.0.
    (2022) Garrocho, Charles Tim Batista; Oliveira, Ricardo Augusto Rabelo; Cavalcanti, Carlos Frederico Marcelo da Cunha; Oliveira, Ricardo Augusto Rabelo; Cavalcanti, Carlos Frederico Marcelo da Cunha; Loureiro, Antônio Alfredo Ferreira; Greve, Fabíola Gonçalves Pereira.; Silva, Jorge Miguel Sá; Correia, Luiz Henrique Andrade
    A Internet Industrial das Coisas é um novo marco que exigirá novos paradigmas e investimentos na indústria. Nesse contexto, os sistemas ciber-físicos são considerados a ponte para a quarta revolução industrial. Um exemplo disso é apresentado por diversos trabalhos recentes que aplicam novas tecnologias de hardware e software que permitem uma maior integração vertical dos sistemas de automação de processos industriais. Tais trabalhos geralmente possuem abordagens centralizadas e adicionam novos elementos na infraestrutura de rede que podem afetar as restrições de tempo na comunicação de processos industrias. Buscando uma decentralização na integração e comunicação entre dispositivos e sistemas industriais, o blockchain vem sendo amplamente aplicado, tornando os processos industriais mais seguros, automáticos, rastreáveis, imutáveis, e auditáveis. Entretanto, a utilização de tecnologias relacionadas a blockchain para o controle de processos também pode sofrer com problemas temporais que podem afetar os prazos de processos sensíveis ao tempo. Portanto, tornar a integração e comunicação dos processos industriais decentralizados que atendam os requisitos rigorosos de sistemas sensíveis ao tempo é um importante desafio que deve ser superado para o avanço da Indústria 4.0. Para enfrentar e superar esse desafio, é apresentado nessa tese diferentes arquiteturas de integração baseada em blockchain dos sistemas de automação de processos industriais. Essas arquiteturas aplicam contratos inteligentes baseados em blockchain como middleware na comunicação entre máquinas e dispositivos de monitoramento de chão de fábrica, permitindo uma decentralização do controle e o monitoramento de dispositivos industriais sem afetar os processos sensíveis ao tempo. Como provas de conceito, foram desenvolvidos sistemas de automação industrial baseado nas arquiteturas e implantados em dispositivos controladores sensíveis ao tempo. As avaliações de desempenho das provas de conceito permitiram a análise de viabilidade e o comportamento das arquiteturas propostas. Além disso, as discussões dessas experiências resultaram no desenvolvimento de metodologias e modelos que podem contribuir significamente no projeto, desenvolvimento, implantação e monitoramento de sistemas industriais baseados em tecnologias blockchain.
  • Item
    Using Blockchain and Low Power in Smart Cities to internet of thigs applications : a Fog Computing approach.
    (2022) Ferreira, Célio Márcio Soares; Oliveira, Ricardo Augusto Rabelo; Silva, Jorge Sá; Oliveira, Ricardo Augusto Rabelo; Aquino, André Luiz Lins de; Cavalcanti, Carlos Frederico Marcelo da Cunha; Ramos Filho, Heitor Soares; Correia, Luiz Henrique Andrade; Silva, Saul Emanuel Delabrida; Silva, Jorge Miguel Sá
    With the advent and popularization of Internet of Things (IoT) devices, new possibilities for applications that use data extracted from the things we use in everyday life arise. Cars, wearables, health sensors, and home appliances will generate unprecedented amounts of data and bring insights that will revolutionize our daily routines. A potential scenario significantly impacted is Smart Cities (SC), which uses devices spread out on a large scale in an urban environment to extract traffic, weather, and equipment maintenance data to obtain insights acting on city management and disaster prevention. The network infrastructure currently available for these network applications uses proprietary communication technologies and is dependent on mobile phone companies. Their systems are proprietary, centralized, isolated from other databases, and constantly exposed to Single Point of Failure (SPOF). IoT applications are still primarily embryonic and do not provide reliable verification of the data source at the edge, as in the case of IoT devices, often with outdated firmware. Our work investigates the use in SC of a composition of Low Power Wide Area Networks (LPWAN) and the popular Personal Area Networks (PAN), independence of mobile network providers, and Low Power consumption. For this, we used development kits with LoRa and BLE to verify the feasibility and possible problems in this integration, and we evaluated the scalability of LoRa using a simulator. Security gaps in IoT Apps in Smart Cities mainly come from the difficulty of knowing and trusting edge devices. The problem of standardizing and updating these devices during their lifetime justifies our search for using tools that support transparency, scalability, reliability, resilience, and implicit requirements of decentralized Blockchain networks that support Smart Contracts. For this, we present a network architecture using Fog Computing and Smart Contracts Blockchain, which, through API gateways, authorizes and authenticates edge communication from IoT devices previously known by their metadata and firmware. To provide standard and link data from Blockchain with existing Web datasets, we use and add new components to ontologies that model Ethereum entities. This approach allows us to use the semantic web for data consumption and linking, which exposes data from Ethereum networks in soft-realtime through middleware. This work investigates the potential use of Fog Computing in SC in Low Power networks, strategies to identify and authenticate IoT devices at the edges using Blockchain and Smart Contract, and consumption and data link of Blockchain with the current web using the Semantic web. The set of these resources used in Fog computing allows searching for a composition of independent SC network infrastructures, Low Power, with reliable information coming from the edges and integrable with other pre-existing data sets. As the main results, we show the limits of the LoRa network, using a simulator in single-gateway and multi-gateway scenarios. We present scenarios of mixed use of traditional using Blockchain as authentication and validation background, by API gateway in Fog Computing architecture, and we present the times in transactions per second of this approach considering signatures and validation of payloads using Ethereum Blockchain. We present a middleware to expose Ethereum data in soft-realtime using ontologies that model Ethereum in the literature and extended by our EthExtras ontology, providing classes and properties for links and queries.The main advances of this work are the models using the Fog Computing paradigm for Smart Cities, where we present its use as a mixing point of LoRa and BLE and the Blockchain API Gateway to validate data from IoT devices. In addition to our Middleware for extracting and consuming Ethereum data in soft real-time using our EthExtras and EthOn vocabulary.
  • Item
    Exploiting a loss and a synthetic dataset protocol for biometrics system.
    (2022) Silva, Pedro Henrique Lopes; Moreira, Gladston Juliano Prates; Luz, Eduardo José da Silva; Moreira, Gladston Juliano Prates; Luz, Eduardo José da Silva; Queiroz, Rafael Alves Bonfim de; Silva, Rodrigo César Pedrosa; Oliveira, Luciano Rebouças de; Santos, Thiago Oliveira dos
    Os sistemas biométricos são um assunto comum no cotidiano do ser humano. Os esforços para aumentar a segurança desses sistemas estão aumentando a cada ano devido à sua necessidade por robustez. Os sistemas baseados em uma modalidade biométrica não tem um desempenho próximo da perfeição em ambientes não cooperativos, o que exige abordagens mais complexas. Devido a isso, novos estudos são desenvolvidos para melhorar o desempenho de sistemas baseados em biometria, criando novas formas de ensinar um algoritmo de machine learning a criar novas representações. Atualmente, vários pesquisadores estão direcionando seus esforços para desenvolver novas abordagens de metric learning para arquiteturas de deep learning para uma ampla gama de problemas, incluindo biometria. Neste trabalho, propõe-se uma função de perda baseada em dados biométricos para criar representações profundas a serem utilizadas em sistemas biométricos, chamada de D-loss. Os resultados mostram a eficácia da função de perda proposta com a menor taxa de equal-error rate (EER) de 5,38%, 13,01% e 7,96% para MNIST-Fashion, CIFAR-10 e CASIA-V4. Uma estratégia diferente para aumentar a robustez de um sistema é a fusão de duas ou mais modalidades biométricas. No entanto, é impossível encontrar um conjunto de dados com todas as combinações de modalidades biométricas possíveis. Uma solução simples é criar um conjunto de dados sintéticos, embora a metodologia para criar um ainda seja um problema em aberto na literatura. Neste trabalho, propõe-se a criação de um critério para mesclar duas ou mais modalidades de tal forma a criar conjuntos de dados sintéticos semelhantes: o critério de Doddington Zoo. Várias estratégias de mesclagem são avaliadas: fusões ao nível de score (mínimo, multiplicação e soma) e nível de características (concatenação simples e metric learning). Um EER próximo a zero também é observado usando os critérios de fusão propostos com a fusão de soma de pontuação e as modalidades de Eletrocardiograma (CYBHi), olho e face (FRGC). Dois conjuntos de dados com mais de 1.000 indivíduos (UFPR-Periocular e UofTDB) são usados para avaliar os critérios de mesclagem junto com a D-loss e outras funções de metric learning. Os resultados mostram o aspecto do critério do Doddington Zoo de criar conjuntos de dados semelhantes (pequeno desvio padrão em relação ao critério randômico) e a robustez do D-loss (2,50% EER contra 2,17% da função de perda triplets e 5,74, da função de perda multi-similarity).
  • Item
    A mathematical formulation and heuristic algorithms for minimizing the makespan and energy cost under time-of-use electricity price in an unrelated parallel machine scheduling problem.
    (2022) Rego, Marcelo Ferreira; Souza, Marcone Jamilson Freitas; Cota, Luciano Perdigão; Souza, Marcone Jamilson Freitas; Cota, Luciano Perdigão; Penna, Puca Huachi Vaz; Coelho, Igor Machado; Arroyo, José Elias Claudio; Batista, Lucas de Souza
    Em muitos países, o preço da energia varia de acordo com a política time-of-use. Como regra geral, é vantajoso financeiramente para as indústrias planejarem sua produção considerando essa política. Esta tese apresenta um novo problema de sequenciamento de máquinas paralelas não-relacionadas bi-objetivo com tempos de preparação dependentes da sequência, no qual os objetivos são minimizar o makespan e o custo total de energia considerando máquinas com diferentes modos de operação e que o preço da eletricidade segue a política time-of-use. Introduzimos uma formulação de programação linear inteira mista e aplicamos o método da soma ponderada para obter uma fronteira Pareto. Também desenvolvemos métodos de otimização multiobjetivo, baseados no Multi-objective Variable Neighborhood Search com procedimento de intensificação (chamado MOVNS2) e o Non-dominated Sorting Genetic Algorithm II (NSGA-II), para tratar instâncias grandes, com pelo menos 50 tarefas, uma vez que a formulação não pode resolvê-las em um tempo computacional aceitável para a tomada de decisão. Comparamos o desempenho dos algoritmos NSGA-II e MOVNS2 com dois algoritmos de otimização multiobjetivo da literatura, o MOVNS1 e o NSGA-I, em relação às métricas de hipervolume e hierarchical cluster counting (HCC). Os resultados mostraram que os métodos propostos são capazes de encontrar uma boa aproximação para a fronteira Pareto comparado com os resultados do método de soma ponderada em instâncias pequenas, de até 10 tarefas. Quando consideramos apenas as instâncias grandes, o MOVNS2 é superior ao MOVNS1, o NSGA-I e o NSGA-II em relação à métrica de hipervolume. Além disso, o NSGA-II supera os métodos de otimização multiobjetivo NSGA-I, MOVNS1 e MOVNS2 em relaçãoo à métrica HCC. Ambos os resultados apresentam um nível de confiança de 95%. Assim, o MOVNS2 proposto é capaz de encontrar soluções não-dominadas com boa convergência e o NSGA-II com boa diversidade.
  • Item
    Estratégias de otimização contínua Caixa-Cinza para problemas de larga escala.
    (2021) Costa, Rodolfo Ayala Lopes; Freitas, Alan Robert Resende de; Freitas, Alan Robert Resende de; Carvalho, Marco Antonio Moreira de; Toffolo, Túlio Ângelo Machado; Arroyo, José Elias Claudio; Guimarães, Frederico Gadelha
    A otimização caixa-cinza tem emergido como uma alternativa promissora aos tradicionais métodos de otimização caixa-preta, uma vez que esses métodos tradicionais deterioram seu desempenho ao lidar com problemas de larga escala. Embora trabalhos relacionados à otimização caixa-cinza tenham sido introduzidos na literatura nos últimos anos, há uma carência de estudos sobre essa abordagem no contexto de otimização contínua. Os problemas de otimização contínua representam uma importante subclasse de problemas práticos de otimização. Em particular, estudos sobre otimização contínua de problemas de larga escala vem recebendo especial atenção na última década. Nesse contexto, este trabalho se propõe a estudar e desenvolver diferentes abordagens caixa-cinza para lidar com essa subclasse de problemas. Para isso, definições matemáticas de separabilidade de problemas de otimização que são a base teórica para implementação das abordagens caixa-cinza são apresentadas e discutidas. Baseados nessas definições, diferentes algoritmos caixa-cinza foram propostos neste estudo. Um estudo experimental utilizando um conjunto de problemas de otimização contínua de larga escala foi proposto para investigar o desempenho das abordagens introduzidas. Os resultados demonstram um desempenho promissor das abordagens caixa-cinza em comparação com as versões caixa-preta. Em resumo, esses resultados demonstram a capacidade das estratégias caixa-cinza de melhorar as soluções encontradas e economizar tempo de processamento, explorando a estrutura do problema e avaliações parciais.
  • Item
    Hybrid feature selection approaches using metaheuristics for hierarchical classification.
    (2021) Lima, Helen de Cássia Sousa da Costa; Souza, Marcone Jamilson Freitas; Merschmann, Luiz Henrique de Campos; Souza, Marcone Jamilson Freitas; Merschmann, Luiz Henrique de Campos; Toffolo, Túlio Ângelo Machado; Luz, Eduardo José da Silva; Cerri, Ricardo; Barril Otero, Fernando Esteban
    A seleção de atributos é uma etapa de pré-processamento amplamente difundida na área de mineração de dados. Um de seus objetivos é reduzir o número de atributos originais de uma base de dados para melhorar o desempenho de um modelo preditivo. No entanto, apesar dos benefícios da seleção de atributos para a tarefa de classificação, até onde sabemos, poucos estudos na literatura abordam a seleção de atributos para o contexto de classificação hierárquica. Este trabalho propõe duas abordagens principais de seleção híbrida de atributos supervisionada, combinando uma etapa filtro com uma wrapper, na qual um classificador hierárquico global avalia subconjuntos de atributos. A primeira abordagem usa a metaheurística Busca em Vizinhança Variável Geral com um ranqueamento de atributos construído com a medida Incerteza Simétrica Hierárquica. A segunda abordagem propõe uma adaptação da medida de seleção de atributos baseada em correlação adaptada para classificação hierárquica e utiliza o algoritmo Best First Search para pesquisar o espaço de subconjuntos de atributos. Doze bases de dados dos domínios de proteína e imagem foram usadas para realizar experimentos computacionais para validar o desempenho dos algoritmos propostos utilizando dois classificadores hierárquicos globais propostos na literatura. Testes estatísticos mostraram que o uso dos métodos de seleção de atributos propostos levaram a um desempenho preditivo consistentemente melhor ou equivalente ao obtido quando todos os atributos iniciais são utilizados, além do benefício de reduzir o número de atributos necessários, o que justifica a aplicação em cenários de classificação hierárquica.
  • Item
    Mathematical models and heuristic algorithms for routing problems with multiple interacting components.
    (2021) Chagas, Jonatas Batista Costa das; Souza, Marcone Jamilson Freitas; Santos, André Gustavo dos; Souza, Marcone Jamilson Freitas; Santos, André Gustavo dos; Barboza, Eduardo Uchoa; Arroyo, José Elias Claudio; Vidal, Thibaut Victor Gaston; Toffolo, Túlio Ângelo Machado
    Muitos problemas de otimização com aplicações reais têm vários componentes de interação. Cada um deles pode ser um problema pertencente à classe N P-difícil, e eles podem estar em conflito um com o outro, ou seja, a solução ótima para um componente não representa necessariamente uma solução ótima para os outros componentes. Isso pode ser um desafio devido à influência que cada componente tem na qualidade geral da solução. Neste trabalho, foram abordados quatro problemas de roteamento complexos com vários componentes de interação: o Double Vehicle Routing Problem with Multiple Stacks (DVRPMS), o Double Traveling Salesman Problem with Partial Last-InFirst-Out Loading Constraints (DTSPPL), o Traveling Thief Problem (TTP) e Thief Orienteering Problem (ThOP). Enquanto os DVRPMS e TTP já são bem conhecidos na literatura, os DTSPPL e ThOP foram recentemente propostos a fim de introduzir e estudar variantes mais realistas dos DVRPMS e TTP, respectivamente. O DTSPPL foi proposto a partir deste trabalho, enquanto o ThOP foi proposto de forma independente. Neste trabalho são propostos modelos matemáticos e/ou algoritmos heurísticos para a solução desses problemas. Dentre os resultados alcançados, é possível destacar que o modelo matemático proposto para o DVRPMS foi capaz de encontrar inconsistências nos resultados dos algoritmos exatos previamente propostos na literatura. Além disso, conquistamos o primeiro e o segundo lugares em duas recentes competições de otimização combinatória que tinha como objetivo a solução de uma versão bi-objetiva do TTP. Em geral, os resultados alcançados por nossos métodos de soluções mostraram-se melhores do que os apresentados anteriormente na literatura considerando cada problema investigado neste trabalho.