Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFRN

2024
Dissertações
1
  • ALISON HEDIGLIRANES DA SILVA
  • Geotrack: An End-to-end framework to support Moving Objects

  • Orientador : NELIO ALESSANDRO AZEVEDO CACHO
  • MEMBROS DA BANCA :
  • NELIO ALESSANDRO AZEVEDO CACHO
  • GIBEON SOARES DE AQUINO JUNIOR
  • FREDERICO ARAUJO DA SILVA LOPES
  • LEOPOLDO MOTTA TEIXEIRA
  • Data: 02/04/2024

  • Mostrar Resumo
  •  A proliferação do uso intensivo de dispositivos de geolocalização tem acarretado um desgaste considerável na vida útil das baterias desses aparelhos, resultando em dificuldades para o uso de determinadas aplicações. Diante dessa problemática, o presente estudo apresenta um framework abrangente desenvolvido com a finalidade de coletar, processar e visualizar dados de geolocalização em dispositivos móveis, com destaque para smartphones. O sistema em questão é constituído por uma biblioteca Android que possibilita o envio dos dados de geolocalização, ao mesmo tempo em que oferece opções de configuração para aprimorar a precisão e reduzir o consumo da bateria. Adicionalmente, foi desenvolvido um framework Java capaz de receber e processar esses dados, realizando integrações com extensões do PostGIS para garantir a obtenção de posições extremamente precisas. Por fim, uma biblioteca JavaScript foi implementada para receber e visualizar as geolocalizações armazenadas, proporcionando uma compreensão clara e intuitiva dos padrões geográficos subjacentes.


  • Mostrar Abstract
  • The proliferation of intensive use of geolocation devices has significantly contributed to the considerable wear and tear on the battery life of these devices, resulting in difficulties in using certain applications. Faced with this issue, the present study introduces a comprehensive framework developed for the purpose of collecting, processing, and visualizing geolocation data on mobile devices, with a particular focus on smartphones. The system in question is composed of an Android library that enables the transmission of geolocation data while offering configuration options to enhance accuracy and reduce battery consumption. Additionally, a Java framework has been developed to receive and process this data, integrating with PostGIS extensions to ensure the acquisition of highly precise positions. Finally, a JavaScript library has been implemented to receive and display stored geolocations, providing a clear and intuitive understanding of underlying geographic patterns.

2
  • PAULO EUGÊNIO DA COSTA FILHO
  • Implantação de Inteligência Artificial Nativa em Sistemas IoSGT: uma Abordagem Holística

  • Orientador : MARCIO EDUARDO KREUTZ
  • MEMBROS DA BANCA :
  • AUGUSTO JOSE VENANCIO NETO
  • DENIS LIMA DO ROSÁRIO
  • EDUARDO NOGUEIRA CUNHA
  • MARCIO EDUARDO KREUTZ
  • Data: 30/04/2024

  • Mostrar Resumo
  • A demanda energética crescente aguça a busca por modernizações tecnoló- gicas capazes de suprir as necessidades iminentes, assim como aumentam a preocupação em mitigar os impactos ambientais advindos com essa escalada. O estado da arte em Smart Grids remete a evidências do uso de técnicas de Inteligência Artificial (IA) em casos de uso IoSGT, visando revolucionar a maneira como a energia é produzida, transmitida e consumida. De fato, a IA tem o pressuposto de oferecer níveis de disrupção sem precedentes no setor elétrico, a partir de métodos de controle inteligentes que podem desbloquear novos fluxos de valor para os consumidores, ao mesmo tempo que permitem o suporte a um sistema altamente assertivo, confiável e resiliente. Entretanto, muita pesquisa ainda é necessária nessa área, como por exemplo o posicionamento de instâncias baseadas na IA ao longo do contínuo edge-cloud, tipos de técnicas e algoritmos para cada caso de uso, uso eficiente de análises preditivas capazes de prever demandas futuras, detecção de falhas e anomalias na rede elétrica que permitam a adoção de medidas proativas para aprimorar a confiabilidade da rede, entre muitas outras.

    Esta proposta de pesquisa tem como objetivo abordar os desafios mencio- nados anteriormente, que envolvem a necessidade de encontrar soluções para lidar com o aumento da demanda por energia e reduzir os impactos ambientais associados. Para isso, propõe-se utilizar a previsão do consumo energético como uma ferramenta para otimizar o uso dos recursos, evitando o desperdício e, ao mesmo tempo, contribuindo para a preservação do meio ambiente. Essa abordagem será realizada por meio da implementação de uma arquitetura holística denominada IAIoSGT (Inteligência Artificial nativa em IoSGT). A IAIoSGT é projetada partindo do pressuposto de acelerar a adoção de técnicas de Inteligência Artificial (IA) e Machine Learning (ML) em uma abordagem que integra de forma eficiente o processamento de dados desde o nível de borda (edge) até a nuvem (cloud). A avaliação da arquitetura IAIoSGT, incluindo sua conformidade, desempenho e viabilidade de implementação, foi conduzida em duas bancadas de testes distintas, abordando tanto dispositivos físicos quanto algoritmos de Aprendizado de Máquina. Destaca-se que foram realizados dois testes distintos: o primeiro concentrou-se na classificação e identificação de dispositivos eletroeletrônicos conectados em uma mesma rede elétrica, explorando algoritmos de ML como KNN, SVM, MLP, NB e DT; o segundo teste abordou a predição de consumo energético utilizando o algoritmo LSTM. Esses testes são essenciais para validar a eficácia e a robustez da abordagem proposta, contribuindo assim para o avanço do estado da arte em IA aplicada a sistemas de energia inteligentes.


  • Mostrar Abstract
  • The growing energy demand sharpens the search for technological moder- nizations capable of meeting imminent needs, as well as increasing concerns about mitigating the environmental impacts that come with this escalation. The state of the art in Smart Grids refers to evidence of the use of AI techni- ques in IoSGT use cases, aiming to revolutionize the way energy is produced, transmitted, and consumed. In fact, AI is expected to offer unprecedented levels of disruption in the electric sector, through intelligent control methods that can unlock new value streams for consumers, while allowing support for a highly assertive, reliable, and resilient system. However, much research is still needed in this area, such as the positioning of AI-based instances along the edge-cloud continuum, types of techniques and algorithms for each use case, efficient use of predictive analytics capable of predicting future demands, detecting failures and anomalies in the power grid that allow for the adoption of proactive measures and improving network reliability, among many others.

    This research proposal aims to address some of the previously mentioned issues through a holistic architecture named IAIoSGT (Artificial Intelligence native in IoSGT). IAIoSGT is designed with the assumption of accelerating the use of AI techniques in an approach based on the continuous edge-cloud continuum. The assessment of the IAIoSGT architecture’s compliance, as well as its behavior and feasibility of use, was conducted on two distinct test benches, addressing both physical devices and Machine Learning algorithms. It is noteworthy that two comprehensive tests were carried out: the first one pertains to the classification and identification of electroelectronic devices connected in the same electrical network, involving Machine Learning algorithms such as KNN, SVM, MLP, NB, and DT. The second test focused on energy consumption

    xi

    prediction, utilizing the LSTM algorithm.

3
  • CHARLES HALLAN FERNANDES DOS SANTOS
  • Recuperação Inteligente de Desastres em Sistemas de Operação, Gerenciamento e Controle de Infraestruturas
    5G

  • Orientador : AUGUSTO JOSE VENANCIO NETO
  • MEMBROS DA BANCA :
  • AUGUSTO JOSE VENANCIO NETO
  • ROGER KREUTZ IMMICH
  • RAMON DOS REIS FONTES
  • FELIPE SAMPAIO DANTAS DA SILVA
  • Data: 30/04/2024

  • Mostrar Resumo
  • O aumento da complexidade das redes móveis de quinta geração (5G), ocasionado pelo elevado número de dispositivos móveis, aliado ao aumento das exigências quanto aos novos requisitos de aplicação, exige o emprego de sistemas de gestão capazes de prover redes 5G sempre melhor conectadas e melhor servido. Pensando nisso, as operadoras de rede empregam centros de Operação, Gerenciamento e Controle (OMC, do inglês Operation,
    Management and Control), um ecossistema que envolve diferentes tecnologias e ferramentas que interoperam para fornecer funções de operação e gerenciamento de última geração projetadas para manter a rede viva com níveis garantidos acordados em SLA (Service Level Acordo) ao longo do tempo. Um OMC é construído estrategicamente em uma instalação de ambiente centralizado e tem a função de responder à ocorrência de um
    "desastre", ou seja, eventos que potencialmente podem levar a um determinado nível de indisponibilidade do serviço de rede. Como forma de garantir algum nível de tolerância a falhas, instâncias OMC redundantes devem ser adotadas, onde um OMC backup deve assumir o controle quando uma instância principal do OMC falha. Um Sistema de Recuperação de Desastres (DRS, do inglês Disaster Recovery System) tem o objetivo de atribuir qual instância OMC assume o controle principal dentro de um ecossistema 5G. Para isso, o DRS monitora constantemente o ecossistema 5G em busca da detecção de eventos de desastres para que designe um OMC de backup para assumir o controle principal.


    Com base no fato de que o DRS opera principalmente de maneira reativa, o que significa que a alternância entre OMCs é feita após a detecção de uma ocorrência de desastre, esta pesquisa de mestrado se dedica à exploração de técnicas de Machine Learning para controlar com eficiência a atribuição de OMCs multi-redundantes no controle de redes 5G. 
    Para tanto, é introduzido o iDRS (Intelligent Disaster Recovery System), que se baseia em análises preditivas para atuar proativamente na atribuição do controle dos OMCs, na hipótese de provisionar um sistema eficiente e ágil para manter as redes 5G ao longo de sua vida útil.


  • Mostrar Abstract
  • The increase in the complexity of fifth-generation (5G) mobile networks, caused by the high number of mobile devices, along with the increased demands with respect to new application requirements, requires the employment of management systems capable to provision 5G networks always best connected and best served. With this in mind, network operators employ Operation, Management, and Control (OMC) centers, an ecosystem
    entailing different technologies and tools that interoperate to provide ultimate operations and management functions designed to keep the network alive with guaranteed levels agreed in SLA (Service Level Agreement) over time. An OMC is strategically constructed in a centralized environment facility and has the role of being able to respond to the occurrence of a "disaster", meaning events that potentially yield a certain level of network
    service unavailability. As a way to guarantee some level of fault tolerance, redundant OMC instances must be adopted, where a backup OMC must assume control when a principal OMC instance fails. A Disaster Recovery System (DRS) has the goal of assigning which OMC instance takes the principal control inside a 5G ecosystem. To this, the DRS constantly monitors the 5G ecosystem in pursuit of detecting disaster events so that assigning a backup OMC to assume the principal control.

    Based on the fact that DRS mainly operates in a reactive manner, meaning that the switching between OMCs is done after detecting a disaster occurrence, this master’s research devotes to exploiting Machine Learning techniques to efficiently control the assigning of multi-redundant OMCs in the control of 5G networks. To this end, the iDRS (Intelligent Disaster Recovery System) is introduced, which is based on predictive analyzes to act proactively in the attribution of OMCs control, in the hypothesis of provisioning an efficient and agile system to maintain 5G networks throughout their lifetime. 

     
4
  • FELIPE MORAIS DA SILVA
  • Managing Long-Running Asynchronous Tasks in Multi-tenant Microservices

     
     
  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • CARLOS ANDRE GUIMARÃES FERRAZ
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • NELIO ALESSANDRO AZEVEDO CACHO
  • THAIS VASCONCELOS BATISTA
  • Data: 16/05/2024

  • Mostrar Resumo
  • A multi-tenant microservices architecture involving components with asyn-
    chronous interactions and batch jobs requires efficient strategies for managing
    asynchronous workloads. This work addresses this issue in the context of a
    leading company in the development of tax software solutions for many na-
    tional and multinational companies in Brazil. A critical process provided by
    the company’s cloud-based solutions involves tax integration, which includes
    coordinating complex tax calculation tasks and needs to be supported by
    asynchronous operations using a message broker to ensure order correctness.
    These operations can be independent of each other, which characterizes the
    parallel process; or they can be dependent on each other, which characterizes
    the First in First out (FIFO) process. FIFO processes have additional restric-
    tions regarding parallels. For this reason, we explored and implemented two
    approaches to managing asynchronous workloads related to tax integration
    within a multi-tenant microservices architecture in the enterprise context: (i)
    a polling-based approach that employs a queue as a Distributed Lock ( DL)
    and (ii) a push-based approach called Single Active Consumer (SAC) that
    relies on message broker logic to deliver messages. These approaches aim to
    achieve efficient resource allocation when dealing with an increasing number of
    container replicas and tenants. In this work, we evaluate the correctness and
    performance of DL and SAC approaches to clarify how asynchronous workloads
    impact the management of multi-tenant microservices architectures from a
    delivery and deployment perspective.


  • Mostrar Abstract
  • Uma arquitetura de microsserviços multilocatário envolvendo componentes
    com interações assíncronas e trabalhos em lote requer estratégias eficientes
    para gerenciar cargas de trabalho assíncronas. Este trabalho aborda essa
    questão no contexto de uma empresa líder no desenvolvimento de soluções
    de software tributário usado por muitas empresas nacionais e multinacionais
    no Brasil. Um processo crítico fornecido pelas soluções baseadas em nuvem
    da empresa envolve a integração tributária, que inclui a coordenação de
    tarefas complexas de cálculo de impostos e precisa ser apoiada por operações
    assíncronas usando um serviço de mensageria para garantir a ordem correta.
    Essas operações podem ser independentes entre si, o que caracteriza o processo
    paralelo; ou podem ser dependentes entre si, o que caracteriza o processo
    First In First Out (FIFO). Os processos FIFO possuem restrições adicionais
    em relação aos paralelos. Por este motivo, especificamos e implementamos
    duas abordagens para gerenciar cargas de trabalho assíncronas relacionadas
    à integração tributária dentro de uma arquitetura de microsserviços multi-
    tenant no contexto da empresa: (i) uma abordagem baseada em polling que 
    emprega uma fila como um Distributed Lock (DL) e (ii) um abordagem
    baseada em push denominada Single Active Consumer (SAC) que depende
    da lógica do agente de mensagens para entregar mensagens. Essas abordagens
    visam alcançar uma alocação eficiente de recursos ao lidar com um número
    crescente de réplicas de contêineres e tenants. Esse trabalho também apresenta
    uma avaliação do desempenho das abordagens DL e SAC para esclarecer como
    as cargas de trabalho assíncronas impactam o gerenciamento de arquiteturas
    de microsserviços multi-tenant do ponto de vista de entrega e implantação
5
  • FRANKLIN MATHEUS DA COSTA LIMA
  • Desenvolvimento e Avaliação de Um Software para Apoiar Experimentos com Sistemas Interativos baseados em Interface Cérebro-Computador

  • Orientador : LEONARDO CUNHA DE MIRANDA
  • MEMBROS DA BANCA :
  • BRUNO MOTTA DE CARVALHO
  • JULIO CESAR DOS REIS
  • LEONARDO CUNHA DE MIRANDA
  • MONICA MAGALHAES PEREIRA
  • ROBERTO PEREIRA
  • Data: 29/05/2024

  • Mostrar Resumo
  • As Interfaces Cérebro-Computador (BCIs, do inglês Brain-Computer Interfaces), que proporcionam uma interação com o computador através das atividades cerebrais do usuário, vêm, nos últimos anos, ganhando cada vez mais espaço devido ao avanço tecnológico que vivemos. No contexto das BCIs, a eletroencefalografia (EEG) é um dos métodos utilizados para realizar a leitura das atividades cerebrais, e dentre os dispositivos que costumam ser utilizados neste processo, podemos destacar o headset MindWave da NeuroSky. Este trabalho apresenta um Software que foi desenvolvido para auxiliar pesquisadores no desenvolvimento de estudos relacionados à área de BCI, especificamente, àqueles que fazem uso do MindWave. Este trabalho descreve, em detalhes, todo o contexto de utilização do Software e a documentação necessária para entender o seu funcionamento. As ferramentas presentes no Software são comentadas e todas as suas funcionalidades são apresentadas, visando expor todas as possibilidades que podem ser atingidas ao utilizar o Software desenvolvido. Por fim, o Software é avaliado através de um estudo piloto, que buscou verificar o seu funcionamento num cenário de pesquisa de BCI.


  • Mostrar Abstract
  • Brain-Computer Interfaces (BCIs) enable interaction with computers through the user’s brain activity. In recent years, the BCIs have been gaining prominence due to technological advancements. In the context of BCIs, electroencephalography (EEG) is a common method for scanning brain activity. Among the available EEG devices, we can highlight the NeuroSky MindWave. This work presents Software designed to support BCI researchers in their studies, specifically those which use the MindWave as EEG device. This work details the usage context of the Software and provides the necessary documentation to understand its functioning. The Software tools are described, and all functionalities are presented to showcase the possibilities that can be achieved using the developed Software. Lastly, the Software is evaluated through a pilot study. With the execution of the study, it was possible to verify the functionality of the Software in a BCI research scenario.

6
  • MARIA FERNANDA CABRAL RIBEIRO
  • Tolerância a Falhas em Perceptron Multicamadas baseado em FPGA: Estudo de Caso SALVE TODAS
  • Orientador : MONICA MAGALHAES PEREIRA
  • MEMBROS DA BANCA :
  • MONICA MAGALHAES PEREIRA
  • ANNE MAGALY DE PAULA CANUTO
  • ALBA SANDYRA BEZERRA LOPES
  • FERNANDA GUSMÃO DE LIMA KASTENSMINDT
  • Data: 31/05/2024

  • Mostrar Resumo
  • O conceito de tolerância a falhas pode ser entendido como a capacidade que um sistema tem de manter sua correta operação mesmo após a ocorrência de uma falha. Esta área de estudo surgiu na década de 1950, voltada para lidar com faltas em equipamentos militares e aeroespaciais que atuavam em ambientes hostis e/ou remotos, e desde então tem se mostrado um campo de estudos proeminente, em especial, com a popularização do uso de computadores e sistemas embarcados.
    É neste campo de pesquisa que se encontra o objeto de estudo deste trabalho: a aplicação de técnicas de tolerância a falhas em uma Rede Neural Artificial de arquitetura Perceptron Multicamadas (MLP) embarcada em FPGA. A rede MLP em questão compõe um sistema voltado para a segurança de mulheres que tem como objetivo identificar, através da rede MLP, possíveis situações de risco para as usuárias. Para tanto, o sistema conta com sensores de sinais vitais, movimentos bruscos e geolocalização que fornecem informações sobre a situação atual da  usuária. Uma vez que a Rede MLP desempenha um papel crítico na identificação das situações de risco, faz-se necessária a aplicação de técnicas voltadas para o aumento da sua confiabilidade, visando uma maior segurança para a usuária. Assim sendo, este trabalho analisa os ganhos e impactos da aplicação de quatro técnicas de tolerância a falhas combinadas na MLP embarcada. As técnicas utilizadas incluem: o trato nos pesos e vieses dos neurônios das camadas de processamento da rede; a remoção de neurônios ocultos menos sensíveis à falhas; a duplicação de neurônios ocultos mais sensíveis a falhas (técnica conhecida como Augmentation); e a Redundância Modular Tripla dos neurônios das camadas de entrada e de saída da rede.


  • Mostrar Abstract
  • The concept of fault tolerance can be understood as the ability of a system to maintain its correct operation even after the occurrence of a failure. This area of study emerged in the 1950s, aimed at dealing with shortages in military and aerospace equipment operating in hostile and/or remote environments, and since then it has proven to be a prominent field of study, especially with the popularization of the use of computers and embedded systems.
    In this context, this work aims: the application of fault tolerance techniques in an Artificial Neural Network with Multilayer Perceptron (MLP) architecture embedded in an FPGA. The MLP network in question makes up a system aimed at women's safety that aims to identify, through the MLP network, possible risk situations for users. To this end, the system has sensors for vital signs, sudden movements and geolocation that provide information about the user's current situation. Since the MLP Network plays a critical role in identifying risk situations, it is necessary to apply techniques aimed at increasing its reliability, aiming at greater safety for the user. Therefore, this work analyzes the gains and impacts of applying four fault tolerance techniques combined in the embedded MLP. The techniques used include: dealing with the weights and biases of neurons in the network's processing layers; the removal of hidden neurons that are less sensitive to failure; the duplication of hidden neurons that are more sensitive to failures (a technique known as Augmentation); and the Triple Modular Redundancy of the neurons in the input and output layers of the network.

7
  • JOAO MANUEL PIMENTEL SEABRA
  • CLUPIR: Um Modelo para a Classificação de Linguagens de Modelagem Visual de Software

  • Orientador : LYRENE FERNANDES DA SILVA
  • MEMBROS DA BANCA :
  • CAMILA DE ARAUJO
  • LEONARDO CUNHA DE MIRANDA
  • LYRENE FERNANDES DA SILVA
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • Data: 07/06/2024

  • Mostrar Resumo
  • As Linguagens de Modelagem Visual de Software (LMVSs) desempenham um papel crucial ao facilitar os processos de análise e documentação de sistemas, bem como a comunicação entre os envolvidos. No entanto, a grande quantidade de linguagens disponíveis dificulta o processo de seleção de uma LMVS adequada pelo projetista de software para modelar uma determinada situação-problema. Esta pesquisa criou um modelo de classificação (CLUPIR) que objetiva organizar e catalogar LMVSs com base num conjunto de aspectos. Os modelos de classificação existentes e seus aspectos de classificação foram levantados por meio de um mapeamento sistemático da literatura, o que embasou a escolha dos aspectos de classificação do modelo CLUPIR. Ao final da pesquisa, para demonstrar a utilização do modelo, oito LMVSs foram classificadas. Depois disso, realizamos uma validação da utilidade do modelo com 30 profissionais da indústria de software.


  • Mostrar Abstract
  • Software Visual Modeling Languages (SVMLs) play a crucial role in facilita- ting systems analysis and documentation processes, as well as communication between those involved. However, the large number of languages available makes it difficult for the software designer to select an appropriate SVML to model a given problem situation. This research created a classification model (CLUPIR) that aims to organize and catalog SVMLs based on a set of aspects. The existing classification models and their classification aspects were surveyed through a systematic mapping of the literature, which supported the choice of the classification aspects of the CLUPIR model. At the end of the research, to demonstrate the use of the model, eight SVMLs were classified. After that, we validated the usefulness of the model with 30 professionals from the software industry.

8
  • VANESSA DANTAS DE SOUTO COSTA
  • Arquitetura de Microserviços para Detecção e Classificação de Malária

  • Orientador : BRUNO MOTTA DE CARVALHO
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • BRUNO MOTTA DE CARVALHO
  • DANIEL LÓPEZ CODINA
  • ITAMIR DE MORAIS BARROCA FILHO
  • Data: 26/07/2024

  • Mostrar Resumo
  • A malária afecta milhões de pessoas todos os anos, predominantemente em países com recursos limitados. De acordo com a Organização Mundial da Saúde \parencite{WHO_2022}, houve cerca de 619.000 mortes por malária no mundo em 2021, em comparação com 625.000 em 2020. Assim, a classificação automatizada de imagens de sangue infectados com malária é um componente crítico para melhorar a eficiência e a precisão do diagnóstico da doença. Com o objetivo de viabilizar uma solução flexível que permita a integração de redes neurais para tratar doenças em larga escala, propomos uma metodologia para classificação da malária. Nossa abordagem envolve coleta de dados, pré-processamento, detecção de objetos com YOLO (em tempo real) encapsulados em um ambiente de microsserviços, criando um sistema modular e escalável que trata os pedidos de inferência, garantindo ao mesmo tempo flexibilidade e facilidade de manutenção (vide teste de carga). Deste modo, este sistema preenche a lacuna entre o combate à malária e à tecnologia e fazendo um aplicativo que possa servir de modelo para trabalhos futuros na área de classificação de doenças.
     

  • Mostrar Abstract
  • Malaria affects millions of people each year, predominantly in resource-limited countries. According to the World Health Organization \parencite{WHO_2022}, there were an estimated 619,000 Malaria deaths globally in 2021 compared to 625,000 in 2020. Thus, automated classification of Malaria-infected blood smear images is a critical component in improving the efficiency and accuracy of Malaria diagnosis. With the aim of enabling a flexible solution that would allow the integration of neural networks to treat diseases on a large scale, we propose a methodology for Malaria disease classification. Our approach involves data collection, preprocessing and YOLO object detection (in real-time), encapsulated into a microservices environment, creating a modular and scalable system that efficiently handles inference requests while ensuring flexibility and maintainability (as shown in the load test experiments). Thus, we are bridging the gap between fighting Malaria and technology and making an application that could serve as a blueprint for future works in the disease classification field.

9
  • SARA GUIMARAES NEGREIROS
  • Framework Guimarães: Apoiando a Construção de Testes Semi-Automatizados para Aplicações em Arduino.

  • Orientador : ROBERTA DE SOUZA COELHO
  • MEMBROS DA BANCA :
  • ROBERTA DE SOUZA COELHO
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • EIJI ADACHI MEDEIROS BARBOSA
  • FRANCISCO CARLOS GURGEL DA SILVA SEGUNDO
  • Data: 01/08/2024

  • Mostrar Resumo
  • As placas Arduino são populares em disciplinas de sistemas embarcados
    devido ao seu baixo custo e comunidade open-source. Neste estudo, realizamos
    um survey com a comunidade Arduino e entrevistas com educadores de
    ensino superior para explorar os desafios no ensino de sistemas embarcados
    utilizando Arduino. Um desafio recorrente identificado foi a restrição dos
    testes a abordagens manuais. Como resultado da pesquisa, é proposto o
    framework Guimarães para a execução de testes semi-automatizados a nível de
    componentes e sistemas, apoiados por documentação de diagrama de requisitos.
    Como plano de teste são propostas duas abordagens, uma com Behavior
    Driven Development e outra com modelagem em statechart. Também foi
    realizada uma experiência piloto com aulas remotas utilizando o framework em
    uma Disciplina de Sistemas Embarcados do Instituto Metrópole Digital (IMD)
    cujo feedback dos discentes classificou atividades de testes como importantes
    para avaliar se o projeto atende aos requisitos.


  • Mostrar Abstract
  • Arduino embedded systems are used in teaching activities and applied in various automation scenarios. In addition to the literature review in articles, this research conducted a survey to investigate the tools used in the documentation and testing activities of the development of these systems. As a result of the research, the Guimarães framework is proposed for teaching the development of embedded systems with Arduino, which includes the execution of automated tests at the component and system levels, supported by documentation. In an application scenario, the development process was carried out using the Guimarães framework, which includes the development of requirement diagrams, system documentation using statecharts, the definition of test cases with analysis of the statechart’s path tree as a stopping criterion, documentation, and electronic hardware prototyping, development of software behavior and test cases using the Guimarães framework, and execution and analysis of the test cases.

10
  • NICOLAS JACOBINO MARTINS
  • Vc-means: Análise Comparativa de um Novo Algoritmo de Agrupamento

  • Orientador : BENJAMIN RENE CALLEJAS BEDREGAL
  • MEMBROS DA BANCA :
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • ANNE MAGALY DE PAULA CANUTO
  • HULIANE MEDEIROS DA SILVA
  • Data: 09/08/2024

  • Mostrar Resumo
  • Este estudo apresenta o desenvolvimento e a avaliação do algoritmo "VC-Means"como uma abordagem inovadora para o agrupamento de dados. O VC-Means é baseado em um algoritmo previamente desenvolvido chamado "CK-Means"e é projetado para identificar padrões e agrupamentos específicos em conjuntos de dados. Foram realizados testes estatísticos em 20 bases de dados tradicionais, comparando e validando sua eficiência com três algoritmos conhecidos na literatura: K-Means, Fuzzy C-Means (FCM) e Gustafson-Kessel (GK). A avaliação foi feita utilizando índices de validação como o índice DB, Silhueta,
    Índice de Rand Ajustado, Calinski-Harabasz, Informação Mútua Ajustada e V-measure. Os resultados mostraram que o VC-Means obteve um ótimo desempenho, sem diferença estatística significativa em relação aos outros algoritmos , e demonstrou uma eficiência notável em termos de tempo de processamento.


  • Mostrar Abstract
  • This study presents the development and evaluation of the "VC-Means" algorithm as an innovative approach to data clustering. VC-Means is based on a previously developed algorithm called "CK-Means" and is designed to identify patterns and specific clusters in data sets. Statistical tests were conducted on 20 traditional data sets, comparing and validating its efficiency against three well-known algorithms in the literature: K-Means, Fuzzy C-Means (FCM), and Gustafson-Kessel (GK). The evaluation was performed using validation indices such as the DB index, Silhouette, Adjusted Rand Index, Calinski-Harabasz, Adjusted Mutual Information, and V-measure. The results showed that VC-
    Means achieved great performance, with no significant statistical difference compared to the other algorithms, and demonstrated remarkable efficiency in terms of processing time.

Teses
1
  • NICOLAS EDUARDO ZUMELZU CARCAMO
  • Fundamentos de uma Análise Matemática Fuzzy Baseada em Números Fuzzy e Ordens Admissíveis

  • Orientador : BENJAMIN RENE CALLEJAS BEDREGAL
  • MEMBROS DA BANCA :
  • ROBERTO ANTONIO DÍAZ MATAMALA
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • GRAÇALIZ PEREIRA DIMURO
  • JOSÉ EDMUNDO MANSILLA VILLARROEL
  • REGIVAN HUGO NUNES SANTIAGO
  • RUI EDUARDO BRASILEIRO PAIVA
  • Data: 26/02/2024

  • Mostrar Resumo
  •  

    A noção de ordens admissíveis em lógica fuzzy intervalar surge em 2010 com o intuito de fornecer um critério mínimo que uma ordem total no conjunto dos subintervalos fechados do intervalo unitário [0,1] deveria atender para ser usada em aplicações dessa teoria fuzzy. Posteriormente, essa mesma ideia foi adaptada para outras extensões da lógica fuzzy. Nesta tese, levamos a ideia de ordens admissíveis para fora do contexto de extensões da lógica fuzzy. De fato, aqui introduzimos a noção de ordem admissível para números fuzzy equipados com uma ordem parcial, ou seja, uma ordem total que refina essa ordem parcial. Damos atenção especial à ordem parcial proposta por Ramík e Rímánek em 1985. Além disso, apresentamos um método para construir ordens admissíveis sobre números fuzzy em termos de ordens admissíveis definidas para intervalos, considerando uma sequência densa superiormente, e provamos que esta ordem é admissível para a ordem de Ramík e Rímánek. A partir destas ordens admissíveis estudamos conceitos fundamentais da Análise Matemática no contexto dos números fuzzy. O objetivo, é dar os primeiros passos para o desenvolvimento de uma análises matemática sobre números fuzzy sobre certas ordens admissíveis de forma robusta e bem fundada, preservando ao máximo propriedades da análises matemática tradicional. Dessa forma, introduzimos a noção de integral de Riemann sobre números fuzzy, chamada de integral fuzzy de Riemann, considerando ordens admissíveis, e estudamos propriedades e caracterizações dessa integral. Formalizamos os conceitos de espaço vetorial sem inversos e espaço vetorial ordenado sem inversos, um tipo de hiperestruturas, que generaliza a noção convencional de espaços vetoriais ordenados. Cabe salientar que o espaço dos números fuzzy triangulares (NFT) e dos NFT dotados de algumas ordens são exemplos de ambas hiperestruturas. Além disso, introduzimos a noção de funções crescentes de tipo média sobre números fuzzy equipados com ordens admissíveis em geral, caracterizando-as como idempotentes, e em particular, no espaço vetorial ordenado sem inversos. Finalmente, introduzimos o conceito de grafos ponderados vector-fuzzy e utilizamos ferramentas construídas a partir de funções tipo média no espaço vetorial ordenado sem inversos, para resolver tipos de problemas de caminho mais curtos em grafos ponderados.



  • Mostrar Abstract
  • The notion of admissible orders in interval fuzzy logic emerged in 2010 with the aim of providing a minimum criterion that a total order in the set of closed subintervals of the unitary interval [0,1] should meet to be used in applications of this fuzzy theory. Later, this same idea was adapted to other extensions of fuzzy logic. In this thesis, we take the idea of admissible orders outside the context of extensions of fuzzy logic. In fact, here we introduce the notion of admissible order for fuzzy numbers equipped with a partial order, that is, a total order that refines this partial order. We pay special attention to the partial order proposed by Ramík and Rímánek in 1985. Furthermore, we present a method to construct admissible orders over fuzzy numbers from admissible orders defined for intervals, considering a superiorly dense sequence, and we prove that this order is admissible for the order of Ramík and Rímánek. From these admissible orders we study fundamental concepts of Mathematical Analysis in the context of fuzzy numbers. The objective is to take the first steps towards the development of a mathematical analysis of fuzzy numbers in certain admissible orders in a robust and well-founded way, preserving as much as possible properties of traditional mathematical analysis. In this way, we introduce the notion of Riemann integral over fuzzy numbers, called fuzzy Riemann integral, considering admissible orders, and we study properties and characterizations of this integral. We formalize the concepts of vector space without inverses and ordered vector space without inverses, a type of hyperstructures, which generalizes the conventional notion of ordered vector spaces. It is worth noting that the space of triangular fuzzy numbers (TFN) and TFNs with some orders are examples of both hyperstructures. Furthermore, we introduce the notion of increasing functions of average type over fuzzy numbers equipped with admissible orders in general, characterizing them as idempotent, and in particular, in the ordered vector space without inverses. Finally, we introduce the concept of weighted vector-fuzzy graphs and use tools built from average-like functions in the ordered vector space without inverses, to solve types of shortest path problems in weighted graphs.

2
  • HELOÍSA FRAZÃO DA SILVA SANTIAGO
  • Classes de Implicações Geradas por Somas Ordinais

  • Orientador : ANNE MAGALY DE PAULA CANUTO
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • ANTONIA JOCIVANIA PINHEIRO
  • GRAÇALIZ PEREIRA DIMURO
  • HELIDA SALLES SANTOS
  • REGIVAN HUGO NUNES SANTIAGO
  • Data: 12/03/2024

  • Mostrar Resumo
  • Esta tese pretende contribuir para a teoria das implicações fuzzy dadas por somas ordinais,
    introduzindo duas novas classes: as implicações dadas por somas ordinais principais e as
    implicações dadas por somas ordinais secundárias. São apresentados alguns métodos de
    construção empregados na geração de exemplos dessas duas novas classes. Alguns métodos
    de construção de funções de agregação por meio de somas ordinais são apresentados e um
    destes métodos é utilizado para construir implicações dadas por somas ordinais. Também
    são apresentados métodos de construção de somas ordinais de implicações que podem não
    ser nem principais nem secundárias. Além disso, a tese amplia sua contribuição fornecendo
    exemplos de implicações dadas por somas ordinais principais e secundárias dentro de
    algumas das principais classes de implicações fuzzy, incluindo (S,N)-implicações, (T,N)-
    implicações, QL-implicações e D-implicações.


  • Mostrar Abstract
  • Copulas are functions that play an important role in probability theory. Since interval
    probability takes into account the imprecision in the probability of some events, it is
    likely that interval copulas have a relevant contribution to interval probability theory. This
    article aims to introduce the definition and analysis of interval-valued copulas and their
    properties. We pro- vide a condition for an interval-valued copula to be 1-Lipschitz and
    from the interval-valued automorphisms we obtain the conjugate interval-valued copula
    and some important inherited properties. We have seen that the Archimedean intervalvalued
    copula, in most cases, has its behavior defined by its generative function. We also
    show a condition for this generating function to generate an interval-valued copula and a
    version of the Sklar’s theorem for representable interval-valued copulas.

3
  • ALAN DE OLIVEIRA SANTANA
  • Using Mutation Analysis to Identify Erros in Mathematical Problem Solving

  • Orientador : EDUARDO HENRIQUE DA SILVA ARANHA
  • MEMBROS DA BANCA :
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • ROBERTA DE SOUZA COELHO
  • KLEBER TAVARES FERNANDES
  • THIAGO REIS DA SILVA
  • Data: 25/03/2024

  • Mostrar Resumo
  • A aprendizagem de matemática pode ser um grande desafio para estudantes ao redor do mundo. As dificuldades encontradas por estes estudantes variam, como falta de atenção, problemas metodológicos, não domínio de conteúdos prévios, dificuldades na leitura, problemas pessoais, entre outros. Mesmo sendo complexos, estas dificuldades geralmente se manifestam em erros pontuais na resolução de questões matemáticas, permitindo a especialistas identificá-los e associá-los a prováveis causas. Neste contexto, se destacam os erros comuns, como trocas de operadores, erros de arredondamento, resultados equivocados de operações, entre outros. Estes erros podem ser mapeados e generalizados, uma vez que são parte integrante das soluções realizadas pelos alunos. Assim, sistemas inteligentes, como os STI (Sistemas Tutores Inteligentes), podem ser desenvolvidos para atuar sobre essas dificuldades, identificando os erros e gerando feedbacks para professores e aos próprios estudantes. Com base no exposto, este trabalho tem por objetivo propor um modelo de generalização de erros comuns para ser aplicado a identificação passo a passo da origem dos erros e para tanto, o modelo utilizará o conceito de mutantes, a fim de gerar distratores que serviram como parâmetro para identificar a origem dos problemas. A fim de levantar os dados pertinentes para este estudo, alguns estudos procuraram levantar os dados relevantes para a modelagem dos mutantes, começando com a avaliação do estado da arte dos STI aplicados a matemática no cenário brasileiro e internacional e em seguida estudos exploratórios sobre os erros comuns que podem ser mapeados para a geração do modelo de mutações. A seguir, é realizada a apresentação da modelagem dos mutantes e também a descrição da arquitetura do STI para a matemática, bem como de estudos que procuram validá-la. As principais hipóteses de pesquisa apontam que o uso da modelagem de mutantes aplicadas a matemática através de um STI permite uma maior dinamicidade na criação de cenários de erros, além de poderem ser associados a problemas que vão além da análise da prova. Outra hipótese é que os feedbacks baseados em distratores gerados pelo modelo de mutações associado a analise passo a passo das respostas dos alunos, permitem um maior detalhe do local do erro, facilitando a geração de feedbacks a partir do STI.


  • Mostrar Abstract
  • Learning mathematics can be a significant challenge for students around the world. The difficulties encountered by these students vary, such as lack of attention, methodological problems, lack of mastery of prerequisite knowledge, reading difficulties, personal issues, among others. Despite being complex, these difficulties often manifest themselves in specific errors in solving mathematical problems, allowing experts to identify them and associate them with probable causes. In this context, common errors stand out, such as operator substitutions, rounding errors, incorrect results of operations, among others. These errors can be mapped and generalized since they are integral parts of students' solutions. Thus, intelligent systems, such as Intelligent Tutoring Systems (ITS), can be developed to address these difficulties by identifying errors and providing feedback to teachers and students themselves. Based on the above, this work aims to propose a model for generalizing common errors to be applied in the step-by-step identification of error origins. To achieve this, the model will utilize the concept of mutants to generate distractors that will serve as parameters for identifying the source of the problems. To gather relevant data for this study, some research efforts have focused on assessing the state of the art of ITS applied to mathematics in the Brazilian and international scenarios. Furthermore, exploratory studies have been conducted to identify common errors that can be mapped for the generation of the mutation model. Next, the presentation of the mutant modeling is carried out, along with the description of the architecture of the ITS for mathematics and studies that seek to validate it. The main research hypotheses indicate that the use of mutant modeling applied to mathematics through an ITS allows for greater dynamism in creating error scenarios, and they can be associated with problems that go beyond the analysis of the test. Another hypothesis is that feedback based on distractors generated by the mutation model, combined with step-by-step analysis of students' responses, allows for more detailed identification of the error location, facilitating the generation of feedback from the ITS.

4
  • JADSON JOSÉ DOS SANTOS
  • A Deep Dive into Continuous Integration Monitoring Practices

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • UIRA KULESZA
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • ITAMIR DE MORAIS BARROCA FILHO
  • DANIEL ALENCAR DA COSTA
  • GUSTAVO HENRIQUE LIMA PINTO
  • RODRIGO BONIFACIO DE ALMEIDA
  • Data: 25/04/2024

  • Mostrar Resumo
  • One of the main activities in software development is monitoring, which plays a vital role in verifying the proper implementation of processes, identifying errors, and discovering opportunities for improvement. Continuous Integration (CI) covers a set of widely adopted practices that enhance software development. However, there are indications that developers may not adequately monitor all CI practices. In this thesis, we delve deep into the ocean of monitoring CI practices. Our goal is to discover how this monitoring is conducted, demonstrate the advantages of monitoring CI practices, and highlight the challenges that need to be overcome. We conducted a series of studies to analyze the impact of specific CI practices on the volume of Pull Requests and bug-related Issues, as well as the importance attributed to these practices by developers and the support for monitoring provided by the most popular CI tools. Finally, we evaluate monitoring in real-world scenarios, conducting a case study on three projects from three different organizations, where we investigate more deeply the developers' interest in monitoring CI practices, their benefits, challenges, and the evolution of CI practices over a two-month period.

    In our first study, we analyze the impact of specific CI practices on the volume of Pull Requests and bug-related Issues. Our findings revealed a positive correlation between CI practices and the increase in the number of merged pull requests. We also identified a significant correlation between the number of bug-related issues and the number of bugs. Additionally, our findings suggest that higher values of CI practices can indicate better quality in the development process.

    In our second study, we investigate the importance attributed to these practices by developers and the support for monitoring provided by the most popular CI services. We find that developers usually monitor only code coverage and basic build metadata (e.g. build duration and build status). Developers expressed interest in monitoring CI practices if provided the opportunity. Furthermore, we have identified that several leading CI services still have initial support in monitoring CI practices.

    Finally, we evaluate monitoring in real-world scenarios, conducting a case study on three projects from three different organizations, where we investigate more deeply the developers' interest in monitoring CI practices, their benefits, challenges, and the evolution of CI practices over a two-month period. The case study revealed that monitoring CI practices provides several benefits to the project and is cost-effective. Participants demonstrated a strong desire to integrate CI monitoring dashboards with popular CI services. 


  • Mostrar Abstract
  • Uma das principais atividades no desenvolvimento de software é o monitoramento, que desempenha um papel vital na verificação da implementação adequada de processos, identificação de erros e descoberta de oportunidades de melhoria. A Integração Contínua (CI) abrange um conjunto de práticas amplamente adotadas que aprimoram o desenvolvimento de software. No entanto, há indicações de que os desenvolvedores podem não monitorar adequadamente todas as práticas de CI. Nesta tese, mergulhamos profundamente no oceano do monitoramento das práticas de CI. Nosso objetivo é descobrir como esse monitoramento é conduzido, demonstrar as vantagens do monitoramento das práticas de CI e destacar os desafios que precisam ser superados. 

    Em nosso primeiro estudo, analisamos o impacto de práticas específicas de CI no volume de Pull Requests e Issues relacionadas a bugs. Nossos resultados revelaram uma correlação positiva entre as práticas de CI e o aumento no número de merged pull requests. Nós também identificamos uma correlação significativa com o número de Issues relacionadas a bugs. Adicionalmente, nossos resultados sugerem que valores mais elevados de práticas de CI podem indicar uma melhor qualidade no processo de desenvolvimento.

    Posteriormente, em nosso segundo estudo, investigamos a importância atribuída a essas práticas pelos desenvolvedores e o suporte ao monitoramento fornecido pelas ferramentas de CI mais populares. Descobrimos que geralmente os desenvolvedores monitoram apenas a cobertura e os metadados básicos da build (por exemplo, duração e status da build). Os desenvolvedores expressaram interesse em monitorar práticas de CI se tivessem oportunidade. Além disso, identificamos que vários dos serviços líderes de CI ainda possuem um suporte inicial para monitorar as práticas de CI.

    Por fim, avaliamos o monitoramento em cenários reais, realizando um estudo de caso em três projetos de três organizações diferentes, no qual podemos verificar mais profundamente o interesse dos desenvolvedores pelo monitoramento de práticas de CI, seus benefícios, desafios e a evolução das práticas de CI durante um período de dois meses. O estudo de caso revelou que o monitoramento das práticas de CI oferece vários benefícios ao projeto e é pouco custoso de ser aplicado. Os participantes demonstraram um forte desejo de integrar dashboards de monitoramento de CI nos serviços de CI mais populares.

5
  • THIAGO SOARES MARQUES
  • GRASP-VNS Baseado em Modelos e Indicadores para Dois Problemas no Planejamento de Radioterapia de Intensidade Modulada

  • Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MEMBROS DA BANCA :
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • HUDSON GEOVANE DE MEDEIROS
  • MATHEUS DA SILVA MENEZES
  • PAULO HENRIQUE ASCONAVIETA DA SILVA
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • Data: 26/04/2024

  • Mostrar Resumo
  • A radioterapia de intensidade modulada é um tipo de tratamento contra o câncer amplamente utilizado. O planejamento deste tipo de tratamento envolve dois problemas computacionais complexos relacionados à escolha dos ângulos dos feixes para irradiar o paciente e a intensidade que cada feixe deve possuir de modo que as células cancerígenas sejam mortas e, ao mesmo tempo, evitar atingir regiões com tecidos saudáveis. Meta-heurísticas são amplamente utilizadas para lidar com problemas complexos. Muitas vezes, a hibridização de meta-heurísticas resulta em métodos ainda mais eficazes do que as meta-heurísticas usadas isoladamente. No contexto da hibridização, existem ainda as matheurísticas, que são uniões de meta-heurísticas com programação matemática. É neste contexto que a pesquisa relatada neste trabalho está inserida. É proposto um algoritmo que hibridiza as meta-heurísticas GRASP (Greedy Random Adaptive Search Procedure) e VNS (Variable Neighborhood Search) com modelos de programação matemática para lidar com os dois problemas citados. Uma terceira abordagem baseada em aprendizado de autômatos também foi explorada para determinar a ordem de execução das vizinhanças do VNS, denominada GRASP-VNS-IA. Dentre os quatro modelos utilizados, dois são propostos neste trabalho. A avaliação das soluções produzidas pelo algoritmo é realizada através de um indicador que agrega quatro indicadores, três deles propostos neste trabalho. O GRASP-VNS é comparado ao GRASP e ao GRASP-VNS-IA. Os algoritmos foram testados em um conjunto de dez instâncias de câncer de fígado conhecidas por serem desafiadoras. A avaliação dos resultados produzidos pelos algoritmos é feita por indicadores de qualidade e histogramas. Testes estatísticos foram utilizados para suportar as conclusões sobre o comportamento dos algoritmos.


  • Mostrar Abstract
  • Intensity-modulated radiotherapy (IMRT) is a widely used cancer treatment. Planning this type of treatment involves two complex computational problems related to the choice of beam angles to irradiate the patient and the intensity that each beam must have so that cancer cells are killed, and at the same time avoid reaching regions with healthy tissue. Metaheuristics have been widely used to address complex problems. Hybridization of metaheuristics often results in methods that are even more effective than metaheuristics used alone. In the context of hybridization, there are also matheuristics, which are unions of metaheuristics with mathematical programming. In this context, the research reported in this work has been added. An algorithm is proposed that hybridizes the GRASP (Greedy Random Adaptive Search Procedure) and VNS (Variable Neighborhood Search) meta-heuristics with mathematical programming models to address the two problems mentioned above. A third approach based on automaton learning, called GRASP-VNS-IA, was also explored to determine the execution order of VNS neighborhoods. Of the four models used, two were proposed in this study. The solutions produced by the algorithm are evaluated using an indicator that combines four indicators, three of which are proposed in this study. GRASP-VNS was compared with GRASP and GRASP-VNS-IA. The algorithms were tested on a set of ten liver cancer instances that are known to be challenging. The results produced by the algorithms were evaluated using quality indicators and histograms. Statistical tests were used to support the conclusions regarding the behavior of the algorithms.

6
  • SIDEMAR FIDELES CEZARIO
  • Aplicação do Operador OWA com meta-heurísticas nos Problemas da Otimização de Ângulo de Feixe e da Intensidade em IMRT

  • Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MEMBROS DA BANCA :
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • ISLAME FELIPE DA COSTA FERNANDES
  • MATHEUS DA SILVA MENEZES
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • THATIANA CUNHA NAVARRO DE SOUZA
  • Data: 26/04/2024

  • Mostrar Resumo
  • A utilização da radioterapia no tratamento do câncer é de suma importância para o combater essa doença. O desafio reside em atingir a dose mínima prescrita para o tumor, ao mesmo tempo em que se evita a exposição dos órgãos saudáveis a níveis de radiação superiores aos limites permitidos. Um dos principais enfoques terapêuticos nesse campo é a teleterapia de intensidade modulada (IMRT). Esse trabalho se propôs a otimizar o Problema da Otimização de Ângulo de Feixe e a Otimização do Mapa de Fluências utilizando algoritmos meta-heurísticos. São apresentados três algoritmos: algoritmo genético, memético OWA-OMF e memético multimodelos. Todos são utilizados em combinação com modelos de programação matemática. Esses modelos incluem a utilização do operador Ordered Weighted Averaging (OWA). O memético multimodelos utiliza diferentes funções OWA para determinar o melhor mapa de fluência de uma solução. Os algoritmos foram comparados usando um novo indicador de qualidade composto por dois novos índices propostos neste trabalho. Testes estatísticos foram conduzidos para comparar a eficácia desses algoritmos, revelando a superioridade do algoritmo memético multimodelos sobre os demais. Com esses algoritmos, foi possível encontrar soluções clinicamente viáveis para a maioria das instâncias.


  • Mostrar Abstract
  • The use of radiotherapy for cancer treatment is essential for combating this disease. The challenge is to achieve the minimum dose prescribed for the tumor while avoiding exposure of healthy organs to radiation levels higher than the permitted limits. One of the main therapeutic approaches in this field is intensity-modulated teletherapy (IMRT). This study aimed to optimize the Beam Angle Optimization Problem and Fluency Map Optimization using metaheuristics. Three algorithms are presented: genetic algorithm, OWA-OMF memetic and multi-model memetic. All include the Ordered weighted averaging (OWA) operator. The multi-model memetic uses different OWA functions to determine the best fluence map for a solution. The algorithms were compared using a new quality indicator composed of the two new indices proposed in this study. Statistical tests were conducted to compare the effectiveness of these algorithms, revealing the superiority of the multi-model memetic algorithm over the others. With these algorithms, it was possible to find clinically viable solutions for most instances.

7
  • JULIA MADALENA MIRANDA CAMPOS
  • Problema de Roteamento e Escalonamento de Profissionais de Saúde no Atendimento Domiciliar com Priorização no Atendimento

  • Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MEMBROS DA BANCA :
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • GUSTAVO DE ARAUJO SABRY
  • MATHEUS DA SILVA MENEZES
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • THATIANA CUNHA NAVARRO DE SOUZA
  • Data: 29/04/2024

  • Mostrar Resumo
  • O serviço de atendimento domiciliar caracteriza-se como uma modalidade de assistência à saúde composta por um conjunto de ações de prevenção, reabilitação e tratamento de doenças prestadas em domicílio. Com o surgimento da Covid-19, o atendimento domiciliar tornou-se ainda mais presente, substituindo ou complementando a internação hospitalar, oferecendo uma modalidade de atendimento mais humanizada às pessoas com quadro clínico estável que necessitam de cuidados médicos. O agendamento e roteamento dos profissionais de saúde que realizam tais atendimentos possui alguns desafios, dentre eles: atender pacientes dentro do período do horário de trabalho dos profissionais de saúde, ter uma equipe de profissionais de tamanho adequado, garantir a satisfação dos pacientes e profissionais, economizar gastos com a frota de veículos que transportam os profissionais, etc. Este trabalho apresenta uma nova variante do problema onde os pacientes são divididos em dois grupos em relação ao atendimento: prioritários e opcionais. Os pacientes prioritários devem ser atendidos obrigatoriamente no horizonte de planejamento definido. É desejável que, tanto quanto possível, os clientes opcionais também sejam atendidos. O objetivo é maximizar a receita recebida pelos atendimentos descontados os custos de transporte dos profissionais. Este trabalho apresenta um modelo de Programação Linear Inteira para o problema. O modelo é implementado e testado em um conjunto de instâncias também propostas neste trabalho. Na variante abordada aqui, cada profissional é transportado por um veículo. Este trabalho também apresenta uma revisão abrangente da literatura sobre o Problema de Roteamento e Escalonamento de Profissionais de Saúde, na qual foram implementados e comparados diversos modelos matemáticos encontrados na literatura, com o objetivo de avaliar sua eficiência e aplicabilidade no contexto do problema estudado.


  • Mostrar Abstract
  • The home care service is a type of health care that comprises a set of prevention, rehabilitation, and treatment actions for illnesses provided at home. With the emergence of COVID-19, home care became even more present, replacing or complementing hospital admission, offering a more humanized type of care for people with a stable clinical condition who require medical care. Scheduling and routing health professionals who provide such services has some challenges, including serving patients within the health professional's working hours, having an appropriately sized team of professionals, ensuring patient and professional satisfaction, saving costs on the fleet of vehicles that transport professionals, etc. This work presents a new variant of the problem, dividing patients into priority and optional. Priority patients must be treated within the defined planning horizon. It is desirable that, as far as possible, optional customers are also served. The objective is to maximize the revenue received from services minus the transport costs of professionals. This work presents an Integer Linear Programming model for the problem. The model is implemented and tested on a set of instances also proposed in this work. In the variant discussed here, each professional is transported by a vehicle. This work also presents a comprehensive review of the literature on the Health Professional Routing and Scheduling Problem, in which several mathematical models found in the literature were implemented and compared to evaluate their efficiency and applicability in the context of the problem studied.

8
  • RAMIRO DE VASCONCELOS DOS SANTOS JUNIOR
  • Using Machine Learning to Classify Criminal Macrocauses in Smart City Contexts

  • Orientador : NELIO ALESSANDRO AZEVEDO CACHO
  • MEMBROS DA BANCA :
  • ARAKEN DE MEDEIROS SANTOS
  • BRUNO MOTTA DE CARVALHO
  • DANIEL SABINO AMORIM DE ARAUJO
  • NELIO ALESSANDRO AZEVEDO CACHO
  • THAIS GAUDENCIO DO REGO
  • Data: 02/05/2024

  • Mostrar Resumo
  • Our research presents a new approach to classifying macrocauses of crime, specifically
    focusing on predicting and classifying the characteristics of ILVCs. Using a dataset
    from Natal, Brazil, we experimented with five machine learning algorithms, namely
    Decision Trees, Logistic Regression, Random Forest, SVC, and XGBoost. Our methodology
    combines feature engineering, FAMD for dimensionality reduction, and SMOTE-NC for
    data balancing. We achieved an average accuracy of 0.962, with a standard deviation of
    0.016, an F1-Score of 0.961, with a standard deviation of 0.016, and an AUC ROC curve of
    0.995, with a standard deviation of 0.004, using XGBoost. We validated our model using
    the abovementioned metrics, corroborating their significance using the ANOVA statistical
    method. Our work aligns with smart city initiatives, aiming to increase public safety and
    the quality of urban life. The integration of predictive analysis technologies in a smart
    city context provides an agile solution for analyzing macrocauses of crime, potentially
    influencing the decision-making of crime analysts and the development of effective public
    security policies. Our study contributes significantly to the field of machine learning applied
    to crime analysis, demonstrating the potential of these techniques in promoting safer urban
    environments. We also used the Design Science methodology, which includes a consistent
    literature review, design iterations based on feedback from crime analysts, and a case
    study, effectively validating our model. Applying the classification model in a smart city
    context can optimize resource allocation and improve citizens’ quality of life through a
    robust solution based on theory and data, offering valuable information for public safety
    professionals.


  • Mostrar Abstract
  • Our research presents a new approach to classifying macrocauses of crime, specifically
    focusing on predicting and classifying the characteristics of ILVCs. Using a dataset
    from Natal, Brazil, we experimented with five machine learning algorithms, namely
    Decision Trees, Logistic Regression, Random Forest, SVC, and XGBoost. Our methodology
    combines feature engineering, FAMD for dimensionality reduction, and SMOTE-NC for
    data balancing. We achieved an average accuracy of 0.962, with a standard deviation of
    0.016, an F1-Score of 0.961, with a standard deviation of 0.016, and an AUC ROC curve of
    0.995, with a standard deviation of 0.004, using XGBoost. We validated our model using
    the abovementioned metrics, corroborating their significance using the ANOVA statistical
    method. Our work aligns with smart city initiatives, aiming to increase public safety and
    the quality of urban life. The integration of predictive analysis technologies in a smart
    city context provides an agile solution for analyzing macrocauses of crime, potentially
    influencing the decision-making of crime analysts and the development of effective public
    security policies. Our study contributes significantly to the field of machine learning applied
    to crime analysis, demonstrating the potential of these techniques in promoting safer urban
    environments. We also used the Design Science methodology, which includes a consistent
    literature review, design iterations based on feedback from crime analysts, and a case
    study, effectively validating our model. Applying the classification model in a smart city
    context can optimize resource allocation and improve citizens’ quality of life through a
    robust solution based on theory and data, offering valuable information for public safety
    professionals.

9
  • VERNER RAFAEL FERREIRA
  • FiberNet: um modelo de Rede Neural Convolucional simples e eficiente

  • Orientador : ANNE MAGALY DE PAULA CANUTO
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • ARAKEN DE MEDEIROS SANTOS
  • BRUNO MOTTA DE CARVALHO
  • DIEGO SILVEIRA COSTA NASCIMENTO
  • JOAO CARLOS XAVIER JUNIOR
  • Data: 28/08/2024

  • Mostrar Resumo
  • Com o crescente aumento na geração de dados a cada ano, uma ampla variedade de tecnologias tem emergido com o objetivo de transformar essas informações em insights úteis. No entanto, muitas vezes, os custos financeiros e computacionais associados aos softwares utilizados nesse processo os tornam inacessíveis para a maioria das pessoas. Um exemplo notável é o requisito de hardware específico, como os processadores Graphics Processing Unit (GPU) e Tensor Processing Unit (TPU), que são altamente avançados em termos tecnológicos, mas também são notavelmente caros.

    Esses desafios de acessibilidade se refletem em várias áreas da computação, incluindo a aplicação de redes neurais convolucionais (CNNs), que desempenham um papel crucial na área de visão computacional. As CNNs são altamente eficazes para extrair informações significativas de imagens e identificar objetos. No entanto, o alto custo associado a recursos de ponta, como GPUs e TPUs, pode limitar a adoção generalizada dessas redes poderosas. Isso torna imperativo explorar alternativas que permitam a construção e implantação de modelos eficazes com recursos mais acessíveis, sem comprometer a qualidade dos resultados obtidos.

    Nesse contexto, apresentamos nossa pesquisa, na qual desenvolvemos um algoritmo que se diferencia dos demais modelos existentes em termos de tamanho, quantidade de parâmetros treináveis e velocidade de inferência. Apesar de ser compacto, o algoritmo mantém uma alta acurácia e capacidade de processar grandes volumes de dados.

    A arquitetura proposta, chamada FiberNet em referência à palmeira do sisal, é uma CNN pequena e simples. O objetivo principal é oferecer um modelo de baixo custo viável financeiramente para classificar imagens de Agave Sisalana e suas fibras. A FiberNet possui um número reduzido de parâmetros treináveis, resultando em alta velocidade de inferência. Para alcançar esse resultado, utilizamos uma camada especializada que reduz a dimensão dos dados de entrada antes das camadas de convolução.

    O objetivo principal desta pesquisa é reduzir o custo computacional sem comprometer o desempenho do algoritmo. Para avaliar a viabilidade do método proposto, realizamos uma análise empírica na qual nosso modelo alcançou uma precisão de 96,25% com a base Sisal e 74,9% com a base CIFAR10, utilizando apenas 754.345 parâmetros treináveis. Além disso, aplicamos o método proposto a um conjunto de dados de imagens amplamente reconhecido, obtendo resultados promissores. Esses resultados reforçam a eficácia e a aplicabilidade do nosso modelo na prática.



  • Mostrar Abstract
  • With the ongoing increase in data generation each year, a wide array of technologies has emerged with the aim of transforming this information into valuable insights. However, often the financial and computational costs associated with the software used in this process render them inaccessible to the majority of individuals. A notable example is the requirement for specific hardware, such as Graphics Processing Unit (GPU) and Tensor Processing Unit (TPU), which are highly advanced in technological terms but are also notably expensive.

    These challenges of accessibility are reflected in various areas of computing, including the application of Convolutional Neural Networks (CNNs), which play a crucial role in the field of computer vision. CNNs are highly effective in extracting meaningful information from images and identifying objects. However, the high cost associated with cutting-edge resources like GPUs and TPUs can limit the widespread adoption of these powerful networks. This makes it imperative to explore alternatives that allow for the construction and deployment of effective models with more accessible resources, without compromising the quality of results.

    In this context, we present our research, in which we have developed an algorithm that sets itself apart from other existing models in terms of size, number of trainable parameters, and inference speed. Despite its compactness, the algorithm maintains high accuracy and the ability to process large volumes of data.

    The proposed architecture, named FiberNet in reference to the sisal plant, is a small and straightforward CNN. The primary objective is to offer a financially viable low-cost model for classifying Agave Sisalana images and its fibers. FiberNet features a reduced number of trainable parameters, resulting in high inference speed. To achieve this, we employ a specialized layer that reduces the dimension of input data before the convolution layers.

    The main goal of this research is to reduce computational costs without compromising algorithm performance. To assess the viability of the proposed method, we conducted an empirical analysis where our model achieved an accuracy of 96.25% on the Sisal dataset and 74.9% on the CIFAR10 dataset, using only 754,345 trainable parameters. Furthermore, we applied the proposed method to a widely recognized image dataset, obtaining promising results. These outcomes reinforce the effectiveness and applicability of our model in practice.



10
  • LUANA TALITA MATEUS DE SOUZA
  • Integrando a Lei Geral de Proteção de Dados ao Desenvolvimento de Software: Um Novo Modelo de Especificação de Requisitos aplicado na Saúde Digital

  • Orientador : MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • MEMBROS DA BANCA :
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • APUENA VIEIRA GOMES
  • JOSUÉ VITOR DE MEDEIROS JÚNIOR
  • CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
  • MARILIA ARANHA FREIRE
  • Data: 29/08/2024

  • Mostrar Resumo
  • Esta pesquisa aborda o problema da especificação de requisitos insuficiente ou ineficiente para atender às necessidades informacionais no desenvolvimento de software em conformidade com as regulamentações e leis aplicáveis aos sistemas de Saúde Digital. Em particular, destaca-se a importância de garantir que os requisitos legais, como os estipulados pela LGPD, sejam integrados e implementados no processo de desenvolvimento. O objetivo geral deste trabalho é desenvolver um artefato de especificação de requisitos que atenda à LGPD no contexto do desenvolvimento ágil de soluções para a saúde digital. Este artefato visa estabelecer uma estratégia de Engenharia de Requisitos que assegure a conformidade legal, facilitando sua aplicação prática no desenvolvimento de software. Além disso, o artefato deve ter um caráter educativo, sendo útil para alunos e professores, permitindo uma integração prática dos conceitos de privacidade e proteção de dados tanto nos processos de desenvolvimento quanto no ensino. A metodologia desta pesquisa foi dividida em três partes: (1) a fase de elaboração da proposta de extensão; (2) a fase de elaboração da avaliação da proposta de extensão; e (3) a fase de aplicação da avaliação da proposta. Na avaliação da proposta, foi desenvolvido um instrumento de avaliação direcionado a dois perfis de participantes (profissionais e professores de tecnologia da informação). Obtivemos um total de 24 respostas nos formulários. Os resultados demonstram que a adoção da proposta de extensão dos requisitos pode ser favorável, pois tem o potencial de auxiliar na identificação e comunicação eficaz dos requisitos adequados à LGPD para equipes de desenvolvimento ágeis, facilitando a conformidade com as exigências legais e a proteção de dados. Além disso, foi identificado um importante potencial educacional na proposta, pois os professores participantes avaliaram que ela pode ser utilizada como uma ferramenta adequada para o ensino sobre requisitos e a LGPD em sala de aula.



  • Mostrar Abstract
  • This research addresses the problem of insufficient or inefficient requirements specification to meet informational needs in software development in compliance with the regulations and laws applicable to Digital Health systems. In particular, it highlights the importance of ensuring that legal requirements, such as those stipulated by the General Data Protection Law (GDPL), are integrated and implemented in the development process. The overall objective of this work is to develop a requirements specification artifact that complies with the GDPL in the context of agile development of digital health solutions. This artifact aims to establish a Requirements Engineering strategy that ensures legal compliance, facilitating its practical application in software development. In addition, the artifact should have an educational character, being useful for students and teachers, allowing a practical integration of the concepts of privacy and data protection in both the development and teaching processes.  The methodology of this research was divided into three parts: (1) the phase of preparing the extension proposal; (2) the phase of preparing the evaluation of the extension proposal; and (3) the phase of applying the evaluation of the proposal. In evaluating the proposal, an evaluation tool was developed for two profiles of participants (information technology professionals and teachers). We obtained a total of 24 responses to the forms. The results show that the adoption of the proposal to extend the requirements can be favorable, as it has the potential to help identify and effectively communicate the requirements appropriate to the GDPL to agile development teams, facilitating compliance with legal requirements and data protection. In addition, an important educational potential was identified in the proposal, as the participating teachers assessed that it can be used as a suitable tool for teaching about requirements and the GDPL in the classroom.


2023
Dissertações
1
  • KEVIN BARROS COSTA
  • Plano de Monitoramento Auto-Organizado na Granularidade de Cloud-Network Slices

  • Orientador : AUGUSTO JOSE VENANCIO NETO
  • MEMBROS DA BANCA :
  • FABIO LUCIANO VERDI
  • AUGUSTO JOSE VENANCIO NETO
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • Data: 27/01/2023

  • Mostrar Resumo
  • Esta pesquisa de mestrado tem como objetivo central propor um novo plano de monitoramento para ambientes NECOS, denomina DIMA (do inglês, Distributed Infrastructure & Monitoring Abstraction). O DIMA tem o fim de aprovisionar monitoramento enquanto serviço na granularidade de partes que compõe Cloud-Network Slices, pautada na motivação evidenciada pela análise de trabalhos relacionados. Atualmente, o NECOS conta com o IMA (do inglês, Infrastructure & Monitoring Abstraction), que oferece uma solução centralizada em nuvem de núcleo. O DIMA pretende avançar a solução IMA por meio de uma solução capaz de aprovisionar monitoramento enquanto serviço para o ecossistema NECOS, com total automação de orquestração do serviço de monitoramento, suporte a diferentes modelos de monitoramento (centralizado, distribuído e híbrido) e compatível com o contínuo edge-to-cloud.


  • Mostrar Abstract
  • The main goal of this master's research is to propose a new monitoring plan for the NECOS ecosystem, denoted as DIMA (Distributed Infrastructure & Monitoring Abstraction). The DIMA proposal aims to afford monitoring as a service inside NECOS domains at Cloud-Network Slice part granularity, based on the motivation evidenced by the analysis of related works. Currently, NECOS relies on the IMA (Infrastructure & Monitoring Abstraction) solution, which offers monitoring as a service from a centralized approach running at the core cloud premise. DIMA intends to advance the IMA solution by providing monitoring as a service for the NECOS ecosystem with the following improvements: full automation of monitoring service orchestration, support of different monitoring models (centralized, distributed, and hybrid), and harnessing the continuous edge-to-cloud.

2
  • RODRIGO LAFAYETTE DA SILVA
  • On the Use of Machine Learning to Identify Null Pointer Exceptions in Static Java Code Analysis

  • Orientador : EVERTON RANIELLY DE SOUSA CAVALCANTE
  • MEMBROS DA BANCA :
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • MARJORY CRISTIANY DA COSTA ABREU
  • DANIEL SABINO AMORIM DE ARAUJO
  • RODRIGO BONIFACIO DE ALMEIDA
  • Data: 30/01/2023

  • Mostrar Resumo
  • Mainstream object-oriented programming languages admit null values for references for the sake of flexibility. In the Java programming language, attempting to use an object reference with a null value throws a Null Pointer Exception (NPE), one of the most frequent causes of crashes in Java applications. Static analysis has been used to inspect the source or binary code to locate the origin of the exception by analyzing these artifacts without debugging-oriented program executions. Despite its effectiveness, static analysis relies on a fixed, static set of rules describing violation patterns, and it is known for a significant number of false positives. This study investigates how the use of Machine Learning (ML) techniques can improve the precision of detecting NPE-related faults through static analysis, a branch still unexplored in the literature and the software industry. The main goal is to propose, implement, and evaluate a classification-based approach to address the detection of NPE-related faults in Java code. The main contributions from this work are: (i) an analysis of how ML techniques can be used to detect those faults via static analysis; and (ii) an assessment of the performance of ML techniques in comparison to traditional static analysis tools.


  • Mostrar Abstract
  • Por uma questão de flexibilidade, as linguagens de programação orientadas a objetos convencionais admitem valores nulos para referências. Na linguagem de programação Java, o uso de uma referência de objeto com um valor nulo causa o lançamento de uma exceção do tipo Null Pointer Exception (NPE), uma das causas mais frequentes de falhas em aplicações escritas nessa linguagem. A análise estática tem sido utilizada para inspecionar artefatos de software como código fonte ou código binário visando localizar a origem de faltas sem que seja necessário executar o programa de forma orientada a depuração. Apesar de sua eficácia, a análise estática baseia-se em um conjunto fixo e estático de regras que descrevem padrões de ocorrência de faltas e é conhecida por um número significativo de falsos positivos. Este estudo investiga como o uso de técnicas de Aprendizado de Máquina (AM) pode melhorar a precisão da detecção de faltas relacionadas a NPE por meio de análise estática, uma linha ainda inexplorada na literatura e na indústria de software. O objetivo principal é propor, implementar e avaliar uma abordagem baseada em classificação que enderece o problema da detecção de faltas relacionadas a NPE em código Java. As contribuições deste trabalho são: (i) uma análise de como as técnicas de AM podem ser usadas para detectar essas faltas por meio de análise estática e (ii) uma avaliação do desempenho das técnicas de AM em comparação às ferramentas tradicionais de análise estática.

3
  • JOSÉ RENATO DE ARAÚJO SOUTO
  • Reconstrução Tridimensional de Feridas Utilizando Descritores de Pontos: Um Estudo Comparativo

  • Orientador : BRUNO MOTTA DE CARVALHO
  • MEMBROS DA BANCA :
  • ADRIANA TAKAHASHI
  • BRUNO MOTTA DE CARVALHO
  • LEONARDO CESAR TEONACIO BEZERRA
  • Data: 31/01/2023

  • Mostrar Resumo
  • Úlcera é o nome genérico dado a qualquer lesão no tecido cutâneo ou mucoso.
    Essas lesões culminam com a ruptura do epitélio, acarretando na exposição
    de tecidos mais profundos. O problema completo a ser solucionado pelo
    projeto, no qual este trabalho se insere esta relacionado ao desenvolvimento de
    ferramentas computacionais acuradas e eficiente visando o acompanhamento
    do tratamento de feridas crônicas. Este acompanhamento é de fundamental
    importância para a determinação do quadro de evolução no tratamento do
    paciente. Assim, neste trabalho é proposta uma avaliação quantitativa das
    reconstruções tridimensionais obtidas usandoStructure from Motioncom o
    auxílio de 6 diferentes decritores de pontos. O problema específico atacado é o
    de determinar qual(is) o(s) descritor(es) de pontos mais eficientes e acurados
    para a reconstrução tridimensional de feridas crônicas, tendo sido escolhidos
    os descritores SIFT, SURF, ORB, BRIEF, FREAK e DRINK. Os resultados
    alcançados presumem que a medição das áreas das feridas crônicas pode ser
    obtida por meio da utilização de um smartphone através da metodologia
    abordada. Em relação ao tempo de processamento os descritores baseados em
    pontos flutuantes, o SIFT e o SURF foram os que obtiveram o maior custo
    computacional. No cálculo da área das superfícies das feridas, os descritores
    obtiveram erros médios de 2,61% na utilização com o SIFT, 3,36% para o
    SURF, 10,03% no BRIEF, 6,33% para o ORB, 6,27% no FREAK e 3,74%
    com o DRINK, com uma configuração utilizando 8 imagens. 
     

  • Mostrar Abstract
  • Ulcer is the generic name given to any lesion in the skin tissue or
    mucous. These lesions culminate in the rupture of the epithelium, resulting in the
    exposure of deeper tissues. The complete problem to be solved
    by the project in which this work is inserted refers to the development of
    accurate and efficient computational tools aimed at monitoring
    of treating chronic wounds. This fundamental follow-up
    importance for the determination of the evolution picture in the treatment of
    patient. Thus, in this work, a quantitative evaluation of the
    three-dimensional reconstructions obtained using Structure from Motion with the
    aid of 6 different point descriptors. The specific problem tackled is the
    to determine which point descriptor(s) are most efficient and accurate
    for the three-dimensional reconstruction of chronic wounds, having been chosen
    the descriptors SIFT, SURF, ORB, BRIEF, FREAK and DRINK. The results
    achieved assume that the measurement of chronic wound areas can be
    obtained through the use of a smartphone through the methodology
    addressed. Regarding processing time, descriptors based on
    floating points, SIFT and SURF were the ones with the highest cost
    computation. In calculating the area of wound surfaces, the descriptors
    obtained average errors of 2.61\% when using the SIFT, 3.36\% for the
    SURF, 10.03\% for the BRIEF, 6.33\% for the ORB, 6.27\% for the FREAK and 3.74\% for the
    DRINK, when using a configuration with 8 images.

4
  • NATÁSSIA RAFAELLE MEDEIROS SIQUEIRA
  • Utilização de aprendizado de máquina para Classificação de perfis de consumo de energia elétrica nas diferentes regiões do Brasil

  • Orientador : ANNE MAGALY DE PAULA CANUTO
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • BRUNO MOTTA DE CARVALHO
  • DIEGO SILVEIRA COSTA NASCIMENTO
  • Data: 24/02/2023

  • Mostrar Resumo
  • A previsão precisa do consumo de energia pode contribuir significativamente para melhorar a gestão de distribuição e potencialmente contribuir para controlar e reduzir os índices de consumo de energia. O avanço nas técnicas computacionais baseadas em dados estão se tornando cada vez mais robustas e populares por alcançarem bons índices de precisão nos resultados. Este estudo propõe o desenvolvimento de um modelo capaz de classificar perfis de consumo energético no setor residencial, utilizando técnicas de aprendizado de máquina e transferência de aprendizado (do Inglês Transfer Learning). A aplicação de técnicas de Aprendizado de Máquina (AM) na produção energética pode indicar grande potencial para controle e gestão da produção e distribuição de energia elétrica, podendo trazer maior eficiência, melhorar a produção e otimizar a distribuição. Neste estudo, combinamos as técnicas de AM com a transferência de aprendizado que é capaz de utilizar o conhecimento pré estabelecido em novos contextos (bases de conhecimento), tornando o processo de previsão energética mais eficiente e robusto.


  • Mostrar Abstract
  • Accurate forecasting of energy consumption can significantly contribute to improving distribution management and 
    potentially contribute to controlling and reducing energy consumption rates. Advances in data-based computational
     techniques are becoming increasingly robust and popular as they achieve good accuracy in results. This study 
    proposes the development of a model capable of classifying energy consumption profiles in the residential sector, 
    using machine learning and transfer learning techniques. The application of Machine Learning (MA) techniques in 
    energy production can indicate great potential for controlling and managing the production and distribution of 
    electric energy, which can bring greater efficiency, improve production and optimize distribution. In this study, we 
    combine AM techniques with the transfer of learning that is able to use pre-established knowledge in new contexts 
    (knowledge bases), making the energy forecasting process more efficient and robust.

5
  • PAULO ENEAS ROLIM BEZERRA
  • Verificação e Especificação CSP de um Sistema de Intertravamento Ferroviário Baseado em Relés

  • Orientador : MARCEL VINICIUS MEDEIROS OLIVEIRA
  • MEMBROS DA BANCA :
  • AUGUSTO CEZAR ALVES SAMPAIO
  • MARCEL VINICIUS MEDEIROS OLIVEIRA
  • MARTIN ALEJANDRO MUSICANTE
  • Data: 21/03/2023

  • Mostrar Resumo
  • Os Sistemas de Intertravamento Ferroviário (SIF) têm sido implementados há muito tempo como sistemas baseados em relés. No entanto, a verificação de segurança desses sistemas geralmente é feita manualmente a partir de uma análise de diagramas de circuitos elétricos, logo tal verificação não pode ser considerada confiável. Na literatura, abordagens com verificação formal são utilizadas para analisar tais sistemas. No entanto, esse tipo de verificação tende a consumir muitos recursos computacionais, o que dificulta o uso dessas verificações para sistemas industriais. Embora a comprovação formal do comportamento desses sistemas seja eficaz para melhorar a segurança, na literatura existente, os trabalhos geralmente focam na modelagem das transições de estado do sistema, ignorando os comportamentos concorrentes dos componentes independentes. Como consequência, não é possível verificar a existência de problemas de concorrência. Diferentemente de outras abordagens, a metodologia proposta neste trabalho permite a especificação de estados transitórios. Como resultado, é possível realizar uma verificação mais forte, incluindo uma investigação sobre a existência de estados com ciclos sucessivos (ou seja, ringbell effect), que são perigosos em tais sistemas. Uma análise formal do sistema tem potencial para garantir sua segurança. Neste trabalho é apresentada uma proposta de modelo formal de especificação dos estados dos componentes elétricos de SIF baseados em relés utilizando uma linguagem baseada em processos, CSP. Este modelo permite a verificação de tais sistemas com base no comportamento de cada componente, o que permite a análise de certas propriedades como a existência de um estado com um ciclo infinito de sucessões (ou seja, ringbell effect), curtos-circuitos, deadlocks, divergências ou componentes que não podem estar ativados ao mesmo tempo. Além disso, o modelo proposto permite automatizar a verificação formal do sistema por verificação de modelos, focando nos aspectos de concorrência de tais sistemas e fundamentando a análise de novas condições de segurança que não foram consideradas nas abordagens anteriores.


  • Mostrar Abstract
  • Railway Interlocking Systems (RIS) have long been implemented as relay-based systems. However, checking these systems for safety is usually done manually from an analysis of electrical circuit diagrams, which cannot be considered trustful. In the literature, formal verification approaches are used in order to analyse such systems. However, this type of verification tends to consume a lot of computational resources, which hinders the use of these verification for industrial systems that makes the verification of more complex electrical circuits untrustworthy. Although formal proof of the behaviour of these systems is effective in order to improve safety, in the existing literature, the works generally focus on modelling the system state transitions, ignoring the components independent concurrent behaviours. As a consequence, it is not possible to verify the existence of concurrency problems. Differently from other approaches, the methodology proposed in this work allows the specification of transient states. As a result, it is possible to perform a stronger verification, including an investigation about the existence of state succession cycles (i.e. ringbell effect), which are dangerous in such systems. A formal analysis of the system has the potential to guarantee its safety. This work presents a proposal for a formal specification model of the states of the electrical components of relay-based RIS using a process-based language, CSP. This model enables the verification of such systems based on each component behaviour, which allows the analysis of properties like existence of a state with an infinity succession cycle (i.e. ringbell effect), short-circuits, deadlocks or divergences, by simplifying the analysis and logical verification of the system based on the preconditions of the component states. Furthermore, the proposed model allows the automation of the formal verification of the system by model-checking, focusing on the concurrency aspects of such systems and supporting the analysis of new safety conditions that were not considered on previous approaches.

6
  • TIAGO VINÍCIUS REMÍGIO DA COSTA
  • A Software Reference Architecture for Modern Big Data Systems

  • Orientador : EVERTON RANIELLY DE SOUSA CAVALCANTE
  • MEMBROS DA BANCA :
  • ELISA YUMI NAKAGAWA
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • LUCAS BUENO RUAS DE OLIVEIRA
  • THAIS VASCONCELOS BATISTA
  • Data: 25/07/2023

  • Mostrar Resumo
  • Big Data is an umbrella term usually referring to data sets whose size grows beyond the ability of traditional methods and tools to gather, store, process, and analyze the available data at a tolerable time and using reasonable computational resources. Big Data systems (BDS) can be found in many fields, providing valuable insights and information to organizations and users. These systems' intrinsic complexity and characteristics require software architectures to meet functional and quality requirements. Reference architectures (RAs) are acknowledged as an important asset in building software architectures as they promote knowledge reuse and guide their development, standardization, and evolution. However, many RAs for BDS are still produced using an ad-hoc approach without following a systematized process for their design and evaluation. This work proposes the Modern Data Reference Architecture (MoDaRA), an RA for BDS founded on a systematic process while gathering industry practice and academic knowledge in this domain. The design of MoDaRA has followed ProSA-RA, a well-defined process to guide the definition of RAs, comprising phases such as architectural analysis, synthesis, and evaluation grounded on curated information sources. MoDaRA has been evaluated considering two use cases from the industry and an RA assessment checklist adapted to BDS.


  • Mostrar Abstract
  • Big Data é um termo genérico que geralmente se refere a conjuntos de dados cujo tamanho cresce para além da capacidade dos métodos e ferramentas tradicionais de coletar, armazenar, processar e analisar dados em um tempo tolerável e utilizando recursos computacionais de forma razoável. Sistemas de Big Data (SBD) podem ser encontrados em diversas áreas, provendo insights e informações úteis a organizações e usuários. A complexidade e as características intrínsecas a esses sistemas requerem arquiteturas de software para satisfazer adequadamente requisitos funcionais e de qualidade. Arquiteturas de referência (ARs) são consideradas um ativo importante na construção de arquiteturas de software uma vez que elas promovem reuso de conhecimento e orientam seu desenvolvimento, padronização e evolução. Entretanto, muitas arquiteturas de referência para BDS ainda são produzidas utilizando uma abordagem ad-hoc sem seguir um processo sistematizado para seu projeto e avaliação. Este trabalho propõe a Modern Data Reference Architecture (MoDaRA), uma AR para SBD fundamentada em um processo sistemático que agrega prática da indústria e conhecimento acadêmico nesse domínio. O projeto da MoDaRA seguiu o ProSA-RA, um processo bem definido para guiar a definição de ARs, compreendendo fases como análise, síntese e avaliação arquitetural estruturadas sobre fontes de informação selecionadas. A MoDaRA foi avaliada considerando dois casos de uso da indústria e um checklist para avaliação de ARs adaptado a SBD.

7
  • ADELINO AFONSO FERNANDES AVELINO
  • SDNoC 42: Modelo de SDNoC baseada em Otimização de Caminhos Mínimos

     
     
  • Orientador : MARCIO EDUARDO KREUTZ
  • MEMBROS DA BANCA :
  • ALISSON VASCONCELOS DE BRITO
  • MARCIO EDUARDO KREUTZ
  • MONICA MAGALHAES PEREIRA
  • Data: 29/09/2023

  • Mostrar Resumo
  • Neste trabalho, desenvolvemos uma nova arquitetura de redes-em-chip
    com base nos conceitos de redes definidas por software. Esta arquitetura se
    mostrou robusta e capaz de melhorar o roteamento em uma rede-em-chip. A
    implementação consiste em um modelo de arquitetura rede-em-chip definida
    por software, explorando o paralelismo de mecanismos de controle usando
    o algoritmo de Dijkstra para encontrar o melhor caminho no roteamento de
    pacotes entre switches. A abordagem propõe uma melhoria significativa na
    latência de comunicação, reduzindo o tempo de espera dos pacotes na fila dos
    controladores e explorando o potencial topológico da rede através do protocolo
    OpenFlow. Os resultados obtidos são promissores, uma vez que o uso do
    algoritmo Dijkstra e o aumento do número de núcleos permitem otimizar a
    latência da comunicação em 100% dos casos em relação ao algoritmo XY.


  • Mostrar Abstract
  • In this work, we developed a new network-on-chip architecture using software-
    defined networks; this architecture proved to be robust and capable of improving
    routing in a network-on-chip. The implementation consists of a software-defined
    network-on-chip architectural model, exploring the parallelism of control me-
    chanisms using Dijkstra’s algorithm to find the best path in packet routing
    between switches. The approach proposes a significant improvement in com-
    munication latency by reducing the waiting time of packets in the controllers’
    queue and exploring the network’s topological potential through the OpenFlow
    protocol. The results obtained are promising. Using the Dijkstra algorithm and
    increasing the number of cores makes optimizing communication latency in
    100% of cases possible compared to the XY algorithm.

     
8
  • CLODOMIR SILVA LIMA NETO
  • Algebrização em lógicas quase-Nelson

  • Orientador : UMBERTO RIVIECCIO
  • MEMBROS DA BANCA :
  • JOAO MARCOS DE ALMEIDA
  • REGIVAN HUGO NUNES SANTIAGO
  • UMBERTO RIVIECCIO
  • RODOLFO ERTOLA BIRABEN
  • Data: 31/10/2023

  • Mostrar Resumo
  • A lógica quase-Nelson é uma generalização recentemente introduzida da lógica construtiva com negação forte de Nelson para um cenário não involutivo. O presente trabalho se propõe a estudar a lógica de quase-Nelson pocrims ($\mathbf{L}_{\mathrm{QNP}}$) e a lógica de quase-N4-reticulados ($\mathbf{L}_{\mathrm{QN4}}$). Isso é feito por meio de uma axiomatização através de um cálculo finito no estilo Hilbert. A principal questão que abordaremos é se a contrapartida algébrica de um determinado fragmento da lógica quase-Nelson (ou classe quase-N4-reticulados) pode ser axiomatizada abstratamente por meio de identidades ou quase-identidades. Nossa principal ferramenta matemática nesta investigação será a representação twist-álgebra. Chegando à questão da algebrização, lembramos que a lógica quase-Nelson (como extensão de $\mathbf{FL_{ew}}$) é obviamente algebrizável no sentido de Blok e Pigozzi. Além disso, mostramos a algebrizabilidade de $\mathbf{L}_{\mathrm{QNP}}$ e $\mathbf{L}_{\mathrm{QN4}}$, que é BP-algebrizável com o conjunto de identidade definidora $E(\alpha) := \{ \alpha \approx \alpha \to \alpha \}$ e o conjunto de fórmula de equivalência $\Delta(\alpha, \beta) := \{ \alpha \to \beta, \beta \to \alpha, \nnot \alpha \to \nnot \beta, \nnot \beta \to \nnot \alpha \}$. Neste documento, registramos os resultados alcançados até o momento e indicamos um plano para os desenvolvimentos a serem incluídos na versão final desta tese.


  • Mostrar Abstract
  • Quasi-Nelson logic is a recently introduced generalization of Nelson's cons\-tructive logic with strong negation to a non-involutive setting. The present work proposes to study the logic of quasi-Nelson pocrims ($\mathbf{L}_{\mathrm{QNP}}$) and the logic of quasi-N4-lattices ($\mathbf{L}_{\mathrm{QN4}}$). This is done by means of an axiomatization via a finite Hilbert-style calculus. The principal question which we will address is whether the algebraic counterpart of a given fragment of quasi-Nelson logic (or class of quasi-N4-lattices) can be axiomatized abstractly by means of identities or quasi-identities. Our main mathematical tool in this investigation will the twist-algebra representation. Coming to the question of algebraiza\-bility, we recall that quasi-Nelson logic (as extensions of $\mathbf{FL_{ew}}$) is obviously algebraizable in the sense of Blok and Pigozzi. Furthermore, we showed the algebraizability of $\mathbf{L}_{\mathrm{QNP}}$ and $\mathbf{L}_{\mathrm{QN4}}$, which is BP-algebraizable with the set of defining identity $E(\alpha) := \{ \alpha \approx \alpha \to \alpha \}$ and the set of equivalence formula $\Delta(\alpha, \beta) := \{ \alpha \to \beta, \beta \to \alpha, \nnot \alpha \to \nnot \beta, \nnot \beta \to \nnot \alpha \}$. In this document, we register the achieved results up to the present moment and indicate a plan for the developments to be included in the final version of this thesis.

9
  • JAIRO RODRIGO SOARES CARNEIRO
  • Um Assistente Virtual de Ensino de Programação para Suporte ao Aprendizado de Domínio

  • Orientador : EDUARDO HENRIQUE DA SILVA ARANHA
  • MEMBROS DA BANCA :
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • THIAGO REIS DA SILVA
  • Data: 06/11/2023

  • Mostrar Resumo
  • [Contexto] Os altos índices de retenção e desistências discentes em cursos de TI e áreas
    correlatas, ainda são barreiras a serem superadas, especialmente quando relacionadas a
    certas disciplinas e/ou conteúdos programáticos presentes em seus currículos, a exemplo da
    programação de computadores. Desse modo, olhares têm sido direcionados aos cursos de
    formação tecnológica, sobretudo, na busca por soluções que possibilitem as Instituições
    educacionais lidar com os desafios à essa questão. [Problemática] Ocorre que ensinar e
    aprender programação em turmas do ensino superior é desafiador. Da perspectiva do trabalho
    docente, questões ligadas aos desafios diários em lidar com o tempo das aulas, currículos
    rígidos, desmotivação estudantil, turmas grandes e heterogêneas, entre outras coisas,
    inviabilizam um acompanhamento mais individualizado do aluno ou acabam por resultar em
    uma sobrecarga de atividades para o professor. Esse excesso de encargo pode prejudicar a
    ação docente não apenas no sentido de assistir aos discentes, mas também na escolha e
    implementação de modelos pedagógicos que sejam contrários ao modelo de ensino
    tradicional, a exemplo do Aprendizado de Domínio, do inglês, Mastery Learning. Esta teoria
    educacional corresponde a uma abordagem pedagógica proposta por Benjamin Bloom, que
    prevê que todos os alunos de uma classe possam progressivamente atingir um mesmo nível de
    compreensão do conteúdo (domínio) quando fornecidas as condições necessárias. Entretanto,
    para o professor o custo de implementação desta abordagem pode ser sobremodo elevado,
    ainda mais quando não subsidiada por tecnologia. [Proposta] Nesse sentido, como forma de
    apoiar as disciplinas de programação introdutória é que este estudo descreve um assistente virtual de programação que integra um conjunto de funcionalidades que pode favorecer a adoção do Aprendizado de Domínio em turmas de programação à medida que contribui com os aspectos de aprendizagem dos alunos, por meio de ações automatizadas. [Objetivo] Esse assistente propõe auxiliar o trabalho docente na promoção de feedback contínuos e customizados. Portanto, este estudo tem como objetivo principal investigar como um Assistente Virtual de Programação, projetados com funcionalidades tais que viabilizem o emprego do Aprendizado de Domínio, pode apoiar o trabalho docente com seus respectivos alunos em disciplinas introdutórias de programação mediadas por plataformas educacionais de ensino e aprendizagem de programação online. [Metodologia] Como ponto de partida para alcançar este objetivo, foi realizado um mapeamento sistemático da literatura, que reuniu 40 estudos primários que tratam do emprego do Aprendizado de Domínio nas áreas de interesse. Em seguida, dois estudos foram planejados e executados com cerca de 300 alunos ingressantes de um curso superior em Tecnologia da Informação, e seus respectivos professores (cinco). O primeiro foi um estudo exploratório realizado para investigar melhor o problema e construir a proposta do assistente virtual. O segundo, um estudo de caso que teve o objetivo de validar a proposta definida. [Resultados] Os resultados apontam que o assistente virtual além de beneficiar os professores na ação de correção dos exercícios de programação propostos e emissão de feedbacks aos discentes, onde mais de 9.000 (nove mil) feedbacks foram concedidos ao longo da disciplina, pode favorecer à adesão do modelo pedagógico de Aprendizado de Domínio pelos professores em turmas introdutórias de programação.


  • Mostrar Abstract
  • [Context] The high rates of student retention and dropout in IT courses and related areas are
    still barriers to be overcome, especially when they are related to certain subjects and/or
    programme content in their curricula, such as computer programming. In this way, attention
    has been focussed on technological training courses, especially in the search for solutions that
    will enable educational institutions to deal with the challenges of this issue. [Problem] It
    turns out that teaching and learning programming in higher education classes is challenging.
    From a teaching perspective, issues related to the daily challenges of dealing with class time,
    rigid curricula, student demotivation, large and heterogeneous classes, among other things,
    make it impossible to provide more individualised support for students or end up resulting in
    an overload of activities for the teacher. This overload can jeopardise teaching not only in
    terms of assisting students, but also in choosing and implementing pedagogical models that go
    against the traditional teaching model, such as Mastery Learning. This educational theory
    corresponds to a pedagogical approach proposed by Benjamin Bloom, who predicts that all
    students in a class can progressively reach the same level of understanding of the content
    (mastery) when provided with the necessary conditions. However, the cost of implementing
    this approach can be very high for teachers, especially when it is not subsidised by technology.
    [Proposal] In this sense, as a way of supporting introductory programming courses, this study
    describes a virtual programming assistant that integrates a set of functionalities that can
    favour the adoption of Mastery Learning in programming classes as it contributes to students'
    learning aspects through automated actions. [Objective] This assistant aims to assist teachers
    in promoting continuous and customised feedback. Therefore, the main objective of this study
    is to investigate how a Virtual Programming Assistant, designed with functionalities that
    enable the use of Mastery Learning, can support the work of teachers with their respective
    students in introductory programming courses mediated by educational platforms for
    teaching and learning programming online. [Methodology] As a starting point for achieving
    this objective, a systematic mapping of the literature was carried out, which brought together
    40 primary studies dealing with the use of Mastery Learning in the areas of interest. Two
    studies were then planned and carried out with around 300 new students on an Information
    Technology degree course and their respective teachers (five). The first was an exploratory
    study carried out to better investigate the problem and build the virtual assistant proposal.
    The second was a case study aimed at validating the defined proposal. [Results] The results
    show that the virtual assistant, in addition to benefiting teachers in correcting the proposed
    programming exercises and giving feedback to students, where over 9,000 (nine thousand)
    feedbacks were given throughout the course, can favour the adherence of the Mastery
    Learning pedagogical model by teachers in introductory programming classes.

10
  • GLAUBER MENDES DA SILVA BARROS
  • Energy-Driven Raft: Um algoritmo de consenso orientado à energia.

  • Orientador : GIBEON SOARES DE AQUINO JUNIOR
  • MEMBROS DA BANCA :
  • FLAVIA COIMBRA DELICATO
  • GIBEON SOARES DE AQUINO JUNIOR
  • NELIO ALESSANDRO AZEVEDO CACHO
  • Data: 18/12/2023

  • Mostrar Resumo
  • Nos últimos anos, os algoritmos de consenso tem se tornado uma parte fundamental para os sistemas distribuídos tolerantes a falhas. Por muitos anos, o algoritmo de consenso amplamente disseminado e que serviu como base entre as diversas aplicações foi o Paxos. Diversos outros algoritmos e variações de consenso baseadas no Paxos tem surgido nos últimos anos, um deles é o algoritmo de consenso Raft. O Raft surgiu com a iniciativa de tornar o entendimento do mecanismo de consenso Paxos mais simples e intuitivo, tanto na área educacional, como nas implementações práticas. Desta forma, ele se tornou um dos algoritmos mais utilizados nas implementações reais. Uma tendência que os sistemas computacionais têm acompanhado nos últimos anos é a troca do uso de baterias como fonte de alimentação energética por uma abordagem que visa coletar energia do ambiente para a operação computacional do dispositivo (Energy Harvester). Este tendência se dá principalmente por questões relacionadas ao meio ambiente, que sofre com a grande quantidade de baterias vindas destes tipos de dispositivos e que serão descartadas ao longo dos próximos anos. Porém, esta abordagem de computação através da coleta de energia do ambiente possui alguns desafios que devem ser superados, sendo o principal deles lidar com a dinamicidade do processo de coleta de energia do ambiente em comparação com um sistema alimentado por uma fonte de energia ilimitada por um determinado período, que é a bateria. Para lidar com essa dinamicidade da coleta de energia do ambiente, uma medida adotada é a computação orientada a energia (energy-driven computing), estes são sistemas que são arquiteturalmente projetados em volta da instabilidade da coleta de energia de ambientes, então estes sistemas buscam adequar a sua operação de acordo com a quantidade de energia que está sendo coletada naquele determinado momento, visando o diminuição do consumo energético em um período de escassez na coleta.

    Com isto, esta pesquisa de mestrado tem como objetivo propor alterações no algoritmo de consenso Raft para adequar a sua utilização em sistemas que coletam energia do ambiente, baseando-se nos conceitos de computação orientada a energia (Energy-Driven Computing). Para isto, é necessário trazer um determinado nível de conhecimento da situação energética para os nós (nodes) que estão operando o Raft em um cluster, e através desse conhecimento da situação atual, cada um consiga adequar as suas operações, visando diminuir o consumo de energia, mas sem comprometer a operação do cluster como um todo.


  • Mostrar Abstract
  • In recent years, consensus algorithms have become a fundamental part of fault-tolerant distributed systems. For many years, the widely disseminated consensus algorithm that served as the basis among the various applications was Paxos. Several other consensus algorithms and variations tolerated in Paxos have emerged in recent years, one of which is the Raft consensus algorithm. Raft came up with the initiative to make the understanding of the Paxos consensus mechanism simpler and more intuitive, both in the educational area and in practical implementations. In this way, it has become one of the most used algorithms in real implementations. A trend that computational systems have followed in recent years is the exchange of the use of batteries as an electrical power source for an approach that aims to collect energy from the environment for the computational operation of the device (Energy Harvester). This trend is mainly due to issues related to the environment, which suffer from the large amount of batteries coming from these types of devices and which will be discarded over the next few years. However, this approach of dealing through the collection of energy from the environment has some challenges that must be overcome, the main one being dealing with the dynamicity of the process of collecting energy from the environment in comparison with a system powered by an unlimited energy source by a certain period, which is the battery. To deal with this dynamicity of energy collection from the environment, an adopted measure is energy-driven computing, these are systems that are architecturally designed around the instability of energy collection from environments, so these systems seek adjust its operation according to the amount of energy being collected at that particular moment, aiming at reducing energy consumption in a period of savings in collection.

    With this, this master's research aims to propose changes in the Raft consensus algorithm to satisfy its use in systems that collect energy from the environment, based on the concepts of energy-driven computing (Energy-Driven Computing). For this, it is necessary to bring a certain level of knowledge of the energy situation to the nodes (nodes) that are operating the Raft in a cluster, and through this knowledge of the current situation, each one satisfies its operations, observing the consumption of energy consumption , but without compromising the operation of the cluster as a whole.

Teses
1
  • SAMUEL DA SILVA OLIVEIRA
  • Método Paralelo de Superiorização para Problemas de Ajuste de Histórico usando Priors Sísmicos a Suavidade por Partes

  • Orientador : BRUNO MOTTA DE CARVALHO
  • MEMBROS DA BANCA :
  • BRUNO MOTTA DE CARVALHO
  • EDGAR GARDUNO ANGELES
  • ISLAME FELIPE DA COSTA FERNANDES
  • MARCIO EDUARDO KREUTZ
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • Data: 13/02/2023

  • Mostrar Resumo
  • History Matching é um processo muito importante usado no manejo de
    produção de óleo e gás, já que tem como objetivo ajustar um modelo de
    reservatório até que reproduza aproximadamente o comportamento prévio
    de um reservatório real, podendo assim ser utilizado para prever produção
    futura. Este trabalho propõe utilizar um método iterativo para otimização
    com restrições de um modelo de produção de um reservatório, chamado de
    superiorização, para resolver esse problema. O método de superiorização é
    uma abordagem que utiliza dois critérios de otimização, sendo o primeiro o
    resultado de produção e o segundo a suavidade por partes do reservatório, onde
    esse segundo critério busca otimizar seu funcional sem que afete negativamente
    a otimização do primeiro critério. Como abordagem comparativa ao algoritmo
    de busca tabu utilizando o método de superiorização, um algoritmo genético
    foi escolhido, dado que essa técnica é amplamente utilizada na literatura na
    resolução de history matching, além de serem realizados teste com o algoritmo
    de busca tabu tem a abordagem de superiorização. Ambas as técnicas são

    iterativas e usam abordagens populacionais. Como o problema abordado é

    um problema inverso que geralmente é severamente subdeterminado, várias
    soluções possíveis podem existir para sua resolução. Devido a isso, nós também
    propomos a utilização de dados sísmicos dos reservatórios, para através desses
    dados, verificar as falhas presentes no reservatório, de modo que possamos
    usar valores de suavidade por partes, para então diminuir a quantidade de
    resultados possíveis através de uma regularização relevante no segundo critério
    de otimização da versão superiorizada do algoritmo de busca tabu. Outro
    fator crítico no processo de history matching é o tempo de simulação, que é
    geralmente alto. Assim, também propomos investigar o uso de paralelismo
    da solução, utilizando CPU. Os experimentos são realizados em um modelo
    de reservatório 3D, buscando encontrar correspondência para os valores de
    prodição de gás, óleo e água. Os resultados obtidos durante a pesquisa
    mostram que a abordagem paralela diminui o tempo de execução em até
    mais que 70%. Quanto a precisão do resultado, a abordagem genética obteve
    valores melhores, no entanto, a busca tabu juntamente com o método de
    superiorização mostraram resultados similares mas mais estáveis.


  • Mostrar Abstract
  • History Matching is a very important process used in managing oil and gas
    production since it aims to adjust a reservoir model until it closely reproduces
    the past behavior of a actual reservoir, so it can be used to predict future
    production. This work proposes to use an iterative method with constraints
    to optimize a reservoir production model, called superiorization to solve this
    problem. The superiorization method is an approach that uses two optimization
    criteria, the first being the production result and the second being the smooth-
    ness by parts of the reservoir, where this second criterion seeks to optimize its
    function without negatively affecting the optimization of the first criterion. A
    genetic algorithm was chosen as a comparative approach to the tabu search
    algorithm using the superiorization method, given that this technique is widely
    used in the literature for solving history matching, in addition to being tested
    with the tabu search algorithm, it has the superiorization approach. Both
    techniques are iterative and use population-based approaches. As the prob-
    lem addressed is an inverse problem often severely underdetermined, several

    possible solutions may exist for its resolution. Due to this, we also propose
    the use of seismic data from the reservoirs, through these data, to verify the
    faults present in the reservoir so that we can use values of smoothness by
    parts to then reduce the number of possible results through a regularization
    relevant to the second optimization criterion of the superior version of the tabu
    search algorithm. Another critical factor in the history matching process is the
    simulation time, which is generally high. Thus, we also propose investigating
    parallelism in the solution using the CPU. The experiments are carried out
    in a 3D reservoir model to find correspondence for the gas, oil, and water
    yield values. The results obtained during the research show that the parallel
    approach decreases the execution time by up to more than 70%. As for the
    result’s precision, the genetic approach obtained better values. However, the
    tabu search and the superiorization method produced very similar values but
    more stable results.

2
  • LANDERSON BEZERRA SANTIAGO
  • Negações e Implicações Difusas Multidimensionais

  • Orientador : BENJAMIN RENE CALLEJAS BEDREGAL
  • MEMBROS DA BANCA :
  • ANNAXSUEL ARAUJO DE LIMA
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • EDUARDO SILVA PALMEIRA
  • REGIVAN HUGO NUNES SANTIAGO
  • RENATA HAX SANDER REISER
  • THADEU RIBEIRO BENÍCIO MILFONT
  • Data: 02/03/2023

  • Mostrar Resumo
  • Conjuntos Fuzzy Multidimensionais é uma nova extensão dos conjuntos fuzzy no qual os graus de pertinência de um elemento no universo de discurso são vetores em ordem crescente no conjunto dos números reais no intervalo [0, 1]. A principal aplicação deste tipo de conjunto são os problemas de tomada de decisão em grupo com múltiplos critérios, nos quais, no caso n-dimensional, temos um conjunto de situações, que são sempre avaliadas por um número fixo n de especialistas. O caso multidimensional é utilizado quando alguns desses especialistas se omitem em avaliar algumas dessas situações e, portanto, pode ser adequado para resolver problemas de tomada de decisão em grupo com múltiplos critérios e com informação incompleta. Esta tese tem como objetivo investigar as negações fuzzy e as implicações fuzzy no conjunto dos vetores em ordem crescente em [0, 1], ou seja, em L∞ ([0, 1]), com respeito a uma ordem parcial. Serão estudadas ordens parciais, dando atenção especial às ordens admissíveis em L∞ ([0, 1]). Adicionalmente, algumas propriedades e métodos de construção e geração de tais operadores através de negações fuzzy e implicações fuzzy, respectivamente, são apresentados (em particular, será proposta uma noção de somas ordinais de negações fuzzy n-dimensionais e somas ordinais de negações fuzzy multidimensionais em relação a ordens parciais específicas) e é demonstrado que uma ação do grupo dos automorfismos nas implicações em L∞ ([0, 1]) preserva várias propriedades originais da implicação. Através de um tipo específico de implicação fuzzy multidimensional representável, somos capazes de gerar uma classe de negações fuzzy multidimensionais chamada de m-negações naturais. No final é apresentada uma aplicação em problemas de tomada de decisão.


  • Mostrar Abstract
  • Multidimensional fuzzy sets is a new extension of fuzzy sets on which the membership values of an element in the universe of discourse are increasingly ordered vectors on the set of real numbers in the interval [0, 1]. The main application of this type of set are the multi-criteria group decision making problems, in which, in the n-dimensional case, we have a set of situations, which are always evaluated by a fixed number n of experts. The multidimensional case is used when some of these experts refrain to evaluate some of these situations and, therefore, may be suitable for solving multi-criteria group decision making problems with incomplete information. This thesis aims to investigate fuzzy negations and fuzzy implications on the set of increasingly ordered vectors on [0, 1], i.e. on L∞ ([0, 1]), with respect to some partial order. In this thesis we study partial orders, giving special attention to admissible orders on L∞ ([0, 1]). In addition, some properties and methods to construct and generate such operators from fuzzy negations and fuzzy implications, respectively, are provided (in particular, a notion of ordinal sums of n-dimensional fuzzy negations and ordinal sums of multidimensional fuzzy negations will be proposed with respect to specific partial orders) and we demonstrate that an action of the group of automorphisms on fuzzy implications on L∞ ([0, 1]) preserves several original properties of the implication. Using a specific type of representable multidimensional fuzzy implication, we are able to generate a class of multidimensional fuzzy negations called natural m-negations. In the end, an application in decision-making problems is presented.

3
  • RANMSÉS EMANUEL MARTINS BASTOS
  • Investigação de Modelos e Algoritmos para o Problema do Caixeiro Viajante com Múltiplos Passageiros e Lotação

  • Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MEMBROS DA BANCA :
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • LUCÍDIO DOS ANJOS FORMIGA CABRAL
  • MARCO CESAR GOLDBARG
  • MATHEUS DA SILVA MENEZES
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • Data: 27/03/2023

  • Mostrar Resumo
  • O Problema do Caixeiro Viajante com Múltiplos Passageiros e Lotação constitui uma generalização do Problema do Caixeiro Viajante que lhe adiciona características do mundo real, transformando-o em um problema de ridesharing com restrições de roteamento. Nessa modalidade, o caixeiro oferece caronas a terceiros ao longo da rota visando compartilhar os custos da viagem. As ligações entre cidades podem conter pedágios do tipo High-Occupancy, no qual há isenção da tarifa caso o veículo esteja com todos os assentos ocupados. Quando cobradas, as despesas de pedágio são inteiramente pagas pelo caixeiro. Os demais custos são divididos igualmente entre o caixeiro e todos os passageiros que ocupam assentos em seus respectivos percursos. O objetivo do PCV-MPL é encontrar o ciclo Hamiltoniano com o menor custo, calculado pela soma das despesas arcadas pelo caixeiro. Tais características promovem a eficiência no uso do espaço urbano e a redução das emissões de gases de efeito estufa, dado o incentivo para compartilhamento do meio de transporte com um número maior de pessoas. Esta tese apresenta o estudo deste novo problema de otimização combinatória, iniciando pela análise da relação existente com outros modelos na literatura. Em seguida, é abordada a formulação matemática do problema com diversas variantes para representação de suas restrições. Por fim, são criados algoritmos para encontrar soluções de boa qualidade em curto espaço de tempo. Com o intuito de realizar experimentos computacionais, é realizada a geração de um banco de instâncias artificiais e a implementação dos métodos de solução. Dez modelos matemáticos são implementados no solver Gurobi para estabelecer um padrão de referência, determinando soluções ótimas para as instâncias e comparando diferentes técnicas de formulação, incluindo restrições lazy e funções lineares piecewise. São propostos também procedimentos para manipular soluções e dez algoritmos heurísticos desenvolvidos com base nas meta-heurísticas Algoritmo Genético, Memético e Transgenética Computacional e na técnica de aprendizado por reforço Q-learning. Três experimentos computacionais são conduzidos: o primeiro controlado pelos parâmetros de iteração máxima, o segundo com limite absoluto de avaliações da função objetivo e o terceiro com limite de avaliações da função objetivo relativo à descoberta da última melhor solução. O ajuste de parâmetros é executado de modo automático pela ferramenta irace. Uma análise estatística baseada no teste Friedman Aligned Ranks indicou um desempenho superior do algoritmo híbrido unindo a Transgenética Computacional, o Algoritmo Memético e a técnica Q-learning.


  • Mostrar Abstract
  • The Traveling Salesman with Multiple Passengers and High Occupancy Problem is a generalization of the Traveling Salesman Problem that incorporates real-world features, transforming it into a ridesharing problem with routing constraints. In this modality, the salesman offers rides to third parties along the route to share the cost of the trip. Links between cities may contain High-Occupancy tolls, in which the toll is waived if the vehicle is fully occupied. When tolls are charged, those expenses are entirely paid by the salesman. All other costs are shared equally between the salesman and all passengers occupying seats on their respective routes. The objective of the TSMPHOP is to find the Hamiltonian cycle with the lowest cost, calculated by the sum of expenses carried by the salesman. Such features promote efficiency in the use of urban space and the reduction of greenhouse gas emissions, given the incentive for sharing transportation with a larger number of people. This thesis presents the study of this new combinatorial optimization problem, beginning with an analysis of its relationship to other models in the literature. Subsequently, the mathematical formulation of the problem is addressed, with multiple variants for representing its constraints. Finally, algorithms are created to find good-quality solutions in a short amount of time. In order to conduct computational experiments, an artificial instance database is generated, and solution methods are implemented. Ten mathematical models are implemented in the Gurobi solver to establish a benchmark, determining optimal solutions for the instances, and comparing different formulation techniques, including lazy constraints and piecewise-linear functions. Procedures for manipulating solutions and ten heuristic algorithms are also proposed. The algorithms are developed based on the metaheuristics Genetic Algorithm, Memetic Algorithm, Transgenetic Algorithm, and Q-learning reinforcement learning technique. Three computational experiments are conducted: the first controlled by the maximum iteration parameter, the second with an absolute maximum count of objective function evaluations, and the third with a maximum count of objective function evaluations relative to the discovery of the last best solution. The parameter tuning is performed automatically by the irace tool. A statistical analysis based on the Friedman Aligned Ranks test indicated superior performance of the hybrid algorithm combining the Transgenetic Algorithm, Memetic Algorithm, and the Q-learning technique.

4
  • CAMILA DE ARAUJO
  • Enriquecendo Descrições de Arquitetura de Software baseada em SysML: Uma Abordagem Orientada a Modelos

  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • FLAVIO OQUENDO
  • LUCAS BUENO RUAS DE OLIVEIRA
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • MARCEL VINICIUS MEDEIROS OLIVEIRA
  • THAIS VASCONCELOS BATISTA
  • Data: 31/03/2023

  • Mostrar Resumo
  • A natureza crítica de muitos sistemas complexos de uso intensivo de software requer descrições formais de arquitetura para dar suporte à análise arquitetural automatizada em relação às propriedades de correção. Devido aos desafios de adotar abordagens formais, muitos arquitetos têm preferido usar notações como UML, SysML e seus derivados para descrever a estrutura e o comportamento das arquiteturas de software. No entanto, essas notações semi-formais têm limitações quanto ao suporte à análise arquitetural, principalmente à verificação formal. Este trabalho investiga como oferecer suporte formal a descrições de arquitetura baseadas em SysML para permitir a verificação formal de arquiteturas de software. Como resultado desta pesquisa, a principal contribuição é propor uma abordagem orientada a modelos (MDD) que fornece semântica formal para uma linguagem de arquitetura baseada em SysML, SysADL, por meio de uma transformação contínua das descrições da arquitetura SysADL para as especificações formais correspondentes em PI-ADL, uma linguagem teoricamente bem fundamentada baseada no Pi-calculus de tipo de ordem superior. A implementação da proposta envolve a execução de um processo de 4 fases: (i) transformação modelo-a-modelo (M2M) de modelos SysADL em modelo PI-ADL; (ii) transformação de modelo para texto (M2T) de modelos PI-ADL em código PI-ADL; (iii) geração de arquitetura executável  correspondente e validação da arquitetura; e (iv) verificação de propriedades. O trabalho tem outras contribuições associadas para dar suporte ao processo de 4 fases: (i) uma semântica denotacional para SysADL em função de piadl; (ii) a definição de um processo para suportar a transformação automatizada de modelos SysADL em modelos PI-ADL; (iii) A validação da arquitetura PI-ADL gerada pela transformação MDD para mostrar que está de acordo com a arquitetura original SysADL; e (iv) a verificação de propriedades arquiteturais formais usando rastros de execução. A proposta foi implementada e validada utilizando uma arquitetura de Sistema de Monitoramento de Enchentes.


  • Mostrar Abstract
  • The critical nature of many complex software-intensive systems requires formal architecture descriptions for supporting automated architectural analysis regarding correctness properties. Due to the challenges of adopting formal approaches, many architects have preferred using notations such as UML, SysML, and their derivatives to describe the structure and behavior of software architectures. However, these semi-formal notations have limitations regarding the support for architectural analysis, particularly formal verification. This work investigates how to formally support SysML-based architecture descriptions to enable the formal verification of software architectures. As a result of this research, the main contribution is proposing a model-driven approach (MDD) that provides formal semantics to a SysML-based architectural language, SysADL, through a seamless transformation of SysADL architecture descriptions to the corresponding formal specifications in \piadl, a well-founded theoretically language based on the higher-order typed Pi-calculus. The proposal implementation involves the execution of a 4-phase process: (i) Model-to-Model (M2M) transformation of SysADL models into piadl model; (ii) Model-to-text (M2T) transformation of PI-ADL models into PI-ADL code; (iii) corresponding executable architecture generation, and architecture validation; and (iv) property verification. The work has other associated contributions to support the 4-phase process: (i) a denotational semantics to SysADL as a function of PI-ADL; (ii) a definition of a process to support the automated transformation of SysADL models into piadl models; (iii) The validation of the PI-ADL architecture generated by the MDD transformation to show that it is in accordance with the original SysADL architecture; and (iv) the verification of formal architectural properties using execution traces. The proposal was implemented and validated using a Flood Monitoring System architecture.

5
  • BRUNO FRANCISCO XAVIER
  • Lógica linear como framework lógico 

  • Orientador : CARLOS ALBERTO OLARTE VEGA
  • MEMBROS DA BANCA :
  • CARLOS ALBERTO OLARTE VEGA
  • ELAINE GOUVEA PIMENTEL
  • GISELLE MACHADO NOGUEIRA REIS
  • REGIVAN HUGO NUNES SANTIAGO
  • UMBERTO SOUZA DA COSTA
  • Data: 19/05/2023

  • Mostrar Resumo
  • Esta tese investiga a analiticidade de sistemas de prova por meio da Lógica Linear (LL). A analiticidade é a propriedade de que uma prova de uma fórmula F usa apenas subfórmulas de F. No cálculo de sequentes, essa propriedade é geralmente estabelecida mostrando que a regra de corte é admissível, o que significa que a introdução do lema auxiliar A na proposição “se A segue de B e C segue de A, então C segue de B” pode ser eliminada. No entanto, a eliminação de corte é um processo complexo que envolve múltiplas transformações de prova e requer o uso de procedimentos (semi-)automáticos para evitar erros. LL é uma ferramenta poderosa para estudar a analiticidade de sistemas de prova devido à sua natureza orientada à recursos, ao sistema focado e seu teorema de eliminação de corte. Trabalhos anteriores de Miller e Pimentel utilizaram LL como um framework lógico para estabelecer condições suficientes para a eliminação de corte de lógicas objeto. No entanto, muitos sistemas lógicos não podem ser adequadamente codificados em LL, particularmente sistemas de sequentes para lógicas modais. Nesta tese, propomos um sistema de sequentes aninhados linearmente (LNS, do inglês linear nested sequents) de uma variante de LL com subexponenciais (MMLL) e demonstramos que é possível estabelecer um critério de eliminação de corte para uma classe mais ampla de sistemas lógicos. Isso inclui sistemas de prova LNS para lógicas multimodais clássicas e subestruturais, bem como o sistema LNS para lógica intuicionista. Além disso, apresentamos um estudo detalhado do procedimento de eliminação de corte para LL. Especificamente, propomos um conjunto de regras de corte para sistemas focados em LL, uma variante de LL com subexponenciais (SELL) e MMLL. Nossa pesquisa demonstrou que essas regras de corte são suficientes para estabelecer diretamente a admissibilidade de corte nos sistemas focados. Formalizamos nossos resultados em Coq, um assistente de prova formal, fornecendo procedimentos para verificar a eliminação de corte de vários sistemas lógicos que são comumente usados em filosofia, matemática e ciência da computação.


  • Mostrar Abstract
  • This thesis investigates the analyticity of proof systems using Linear Logic (LL). Analyticity refers to the property that a proof of a formula F only uses subformulas of F. In sequent calculus, this property is typically established by showing that the cut rule is admissible, meaning that the introduction of the auxiliary lemma A in the reasoning “if A follows from B and C follows from A, then C follows from B” can be eliminated. However, cut-elimination is a complex process that involves multiple proof transformations and requires the use of (semi-)automatic procedures to prevent mistakes. LL is a powerful tool for studying the analyticity of proof systems due to its resource-conscious nature, the focused system, and its cut-elimination theorem. Previous works by Miller and Pimentel have used LL as a logical framework for establishing sufficient conditions for cut-elimination of object logics (OL). However, many logical systems cannot be adequately encoded in LL, particularly sequent systems for modal logics. In this thesis, we utilize a linear nested sequent (LNS) presentation of a variant of LL with subexponentials (MMLL) and demonstrate that it is possible to establish a cut-elimination criterion for a broader class of logical systems. This includes LNS proof systems for classical and substructural multimodal logics, as well as the LNS system for intuitionistic logic. Additionally, we present an in-depth study of the cut-elimination procedure for LL. Specifically, we propose a set of cut rules for focused systems for LL, a variant of LL with subexponentials (SELL) and MMLL. Our research demonstrates that these cut rules are sufficient for directly establishing the admissibility of cut within the focused systems. We formalize our results in Coq, a formal proof assistant, providing procedures for verifying cut-admissibility of several logical systems that are commonly used in philosophy, mathematics, and computer science.

6
  • RAFAEL JULLIAN OLIVEIRA DO NASCIMENTO
  •  Um Framework para correção sistematizada de Requirements Smells através de Técnicas de Refatoração.


  • Orientador : MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • MEMBROS DA BANCA :
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • FERNANDA MARIA RIBEIRO DE ALENCAR
  • FRANCISCO MILTON MENDES NETO
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • RICARDO ARGENTON RAMOS
  • Data: 29/05/2023

  • Mostrar Resumo
  • Especificação de Requisitos em Linguagem Natural é um tipo comum de documentação usada no desenvolvimento de sistemas, para conter informações sobre requisitos. A qualidade destas informações é importante para o sucesso de atividades, no desenvolvimento de sistemas, e no próprio gerenciamento dos  requisitos. Porém, a Linguagem Natural pode levar a ambiguidade e outros defeitos que acabam comprometendo Critérios de Qualidade para as informações sobre os requisitos, como entendimento, clareza, completude e outros. Um conjunto destes defeitos estruturais foram estudados por Henning Femmer e nomeados como Requirements Smells. As Requirements Smells são anomalias relacionadas com problemas na escrita de requisitos usando Linguagem Natural. Além disso, estas anomalias podem ocorrer em qualquer template de Especificação em Linguagem Natural. Contudo, apesar da literatura conter uma expressiva quantidade de estudos sobre o comportamento e relação da Requirements Smells com a qualidade dos requisitos, não existem estudos sobre formas de correção sistematizada em Requirements Smells e de como estas correções podem ajudar a restaurar/alcançar os Critérios de Qualidade para requisitos especificados em Linguagem Natural. O objetivo deste trabalho, consiste no desenvolvimento de um conjunto de correções sistematizadas, entituladas de Técnicas de Refatoração, para corrigir Requirements Smells e ajudar para alcançar os Critérios de Qualidade. As Técnicas de Refatoração, serão desenvolvidas seguindo a estrutura sugerida por Martin Fowler, um dos autores pioneiros em refatoração de código. Experimentos serão realizados com participantes que irão revisar requisitos e identificar Requirements Smells e na correção destes requisitos usando as Técnicas de Refatoração propostas. Para isso, um conjunto com 33 Histórias de Usuários infectadas por Requirements Smells serão disponibilizadas aos usuários. Ao final, estes responderão questionários cujas informações serão analisadas e compreendidas. Espera-se que as Técnicas de Refatoração desenvolvidas possam ser eficazes na correção e alcance dos Critérios de Qualidade e se tornem mais uma solução alternativa para a correção de Requirements Smells.


  • Mostrar Abstract
  • Natural Language Requirements Specification is a common type of documentation used in systems development to contain information about requirements. The quality of this information is important for the success of activities, systems development, and requirements management itself. However, Natural Language can lead to ambiguity and other defects that end up compromising Quality Criteria for information about requirements, such as understanding, clarity, completeness and others. A set of these structural defects were studied by Henning Femmer and named as Requirements Smells. Requirements Smells are anomalies related to problems in writing requirements using Natural Language. Furthermore, these anomalies can occur in any Natural Language Specification template. However, despite the literature containing an expressive amount of studies on the behavior and relationship of Requirements Smells with the quality of requirements, there are no studies on ways of systematized correction in Requirements Smells and how these corrections can help restore/achieve  Quality Criteria for requirements specified in Natural Language. The objective of this work is to develop a set of systematized corrections, entitled Refactoring Techniques, to correct Requirements Smells and help to achieve the Quality Criteria. The Refactoring Techniques will be developed following the structure suggested by Martin Fowler, one of the pioneer authors in code refactoring. Experiments will be carried out with participants who will review requirements and identify Requirements Smells and correct these requirements using the proposed Refactoring Techniques. For this, a set of 33 User Stories infected by Requirements Smells will be made available to users. At the end, they will answer questionnaires whose information will be analyzed and
    understood. It is expected that the Refactoring Techniques developed can be effective in correcting and reaching the Quality Criteria and become another alternative solution for Requirements Smells correction.

7
  • JOSÉ DIEGO SARAIVA DA SILVA
  • Understanding the Relationship between Continuous Integration and Code Coverage

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • UIRA KULESZA
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • ROBERTA DE SOUZA COELHO
  • DANIEL ALENCAR DA COSTA
  • GUSTAVO HENRIQUE LIMA PINTO
  • RODRIGO BONIFACIO DE ALMEIDA
  • Data: 31/05/2023

  • Mostrar Resumo
  • Continuous Integration (CI) is a widely adopted software engineering practice emphasizing frequent software integration through an automated build process. Although CI has been shown to detect errors earlier in the software life cycle, the relationship between CI and code coverage still needs to be clarified. Our work aims to fill this gap by investigating quantitative and qualitative aspects of this relationship.

    In the quantitative study, we compare 30 CI projects and 30 projects that have never adopted CI (NOCI projects) to investigate whether CI is associated with higher code coverage rates. We analyzed 1,440 versions from different projects to identify trends in code coverage. Our findings reveal a positive association between CI and higher code coverage rates.

    Our qualitative study consisted of a survey and a document analysis. The survey revealed several significant findings, including a positive association between continuous integration (CI) and higher code coverage rates, indicating the value of CI in promoting testing practices. Additionally, our survey highlighted the importance of using code coverage during the authoring and review process, which can help identify potential issues early in the development cycle.

    The document analysis focused on coverage-related themes in pull request conversations in CI-enabled projects. Through this analysis, we discovered the main topics related to coverage usage during pull requests, which can provide valuable insights into how developers use coverage to improve code quality. This information can help guide the development of best practices for using coverage in CI-enabled projects, ultimately improving the quality and reliability of software products.

    Our work offers insights into the evolution of code coverage in CI, which can assist researchers and practitioners in adopting tools and practices for better monitoring, maintenance, and even enhancement of code coverage.



     
     

  • Mostrar Abstract
  • Integração Contínua, em inglês Continuous Integration (CI), é uma prática amplamente adotada na engenharia de software que enfatiza a integração frequente do software por meio de um processo de builds automatizado. Embora tenha sido demonstrado que a CI detecta erros mais cedo no ciclo de vida do software, a relação entre CI e cobertura de código ainda precisa ser esclarecida. Nosso trabalho tem como objetivo preencher essa lacuna investigando os aspectos quantitativos e qualitativos dessa relação.

    No estudo quantitativo, comparamos 30 projetos com CI e 30 projetos que nunca adotaram CI (projetos NOCI) para investigar se a CI está associada a maiores taxas de cobertura de código. Analisamos 1.440 versões de diferentes projetos para identificar tendências na cobertura de código. Nossas descobertas revelam uma associação positiva entre a CI e maiores taxas de cobertura de código.

    Nosso estudo qualitativo consistiu em um survey e uma análise de documentos. A pesquisa revelou várias descobertas significativas, incluindo uma associação positiva entre a integração contínua (CI) e maiores taxas de cobertura de código, indicando o valor da CI na promoção de práticas de teste. Além disso, nossa pesquisa enfatizou a relevância do uso de cobertura de código durante o processo de autoria e revisão, pois isso pode auxiliar na detecção precoce de possíveis problemas ao longo do ciclo de desenvolvimento.

    A análise de documentos se concentrou em temas relacionados à cobertura nas discussões dos \textit{Pull Requests} de projetos que adotam CI. A partir dessa análise, identificamos os principais tópicos associados ao uso da cobertura durante os Pull Requests, o que pode fornecer informações valiosas sobre como os desenvolvedores utilizam a cobertura para aprimorar a qualidade do código. Essas informações são capazes de orientar o desenvolvimento de melhores práticas para o uso da cobertura em projetos que adotam CI, contribuindo para aprimorar a qualidade e a confiabilidade dos produtos de software.

    O nosso trabalho permitiu encontrar percepções sobre a evolução da cobertura de código em projetos que adotam CI, as quais podem auxiliar pesquisadores e profissionais a adotarem ferramentas e práticas para monitorar, manter e, inclusive, aprimorar a cobertura de código.



     
8
  • ALEXANDRE GOMES DE LIMA
  • Melhorando o Rotulamento de Papel Retórico Legal Através de Dados Adicionais e Uso Eficiente de Modelos Transformadores

  • Orientador : EDUARDO HENRIQUE DA SILVA ARANHA
  • MEMBROS DA BANCA :
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • IVANOVITCH MEDEIROS DANTAS DA SILVA
  • JOSÉ GUILLERMO MORENO
  • LEONARDO CESAR TEONACIO BEZERRA
  • TAOUFIQ DKAKI
  • Data: 29/06/2023

  • Mostrar Resumo
  • Legal AI, a aplicação da Inteligência Artificial (IA) no domínio legal, é um campo de pesquisa que compreende várias dimensões e tarefas de interesse. Tal como em outros domínios de aplicação, um dos benefícios almejados é a automatização de tarefas, a qual aumenta a produtividade dos profissionais da área e torna o Direito mais acessível ao público em geral. Texto é uma fonte de dados importante no domínio legal, consequentemente Legal AI possui um grande interesse nos avanços relacionados ao Processamento de Linguagem Natural (PLN). Esta tese diz respeito à automatização do Rotulamento de Papel Retórico no Domínio Legal (RPRDL), uma tarefa que atribui funçoes semânticas a sentenças textuais em documentos jurídicos. RPRDL é uma tarefa relevante porque ela encontra informação que é útil tanto por si só, bem como para tarefas posteriores tais como sumarização jurídica e recuperação de jurisprudência. Há vários fatores que tornam a RPRDL uma tarefa não trivial, mesmo para os seres humanos: a heterogeneidade das fontes de documentos, a falta de padrões, necessidade de conhecimento específico do domínio e o nível de subjetividade inerente à tarefa. Estes fatores complicadores e o grande volume de documentos jurídicos justificam a automatização da tarefa. Essa automatização pode ser implementada como uma tarefa de classificação de sentenças, ou seja, as sentenças textuais são utilizadas como entrada de um modelo que atribui um rótulo, ou classe, para cada sentença informada. A utilização de Modelos Transformadores de Linguagem Pré-treinados (MTLP) no desenvolvimento de classificadores é uma escolha óbvia visto que MTLP representam o estado da
    arte de muitas tarefas de PLN, incluindo a classificação de texto. No entanto,esta tese evidencia dois  roblemas relevantes encontrados em trabalhos sobre RPRDL suportados por MTLP. O primeiro problema é a falta de trabalhos sobre melhores maneiras de lidar com as idiossincrasias de textos jurídicos e com conjuntos de dados relacionados à tarefa de RPRDL os quais são normalmente pequenos e desbalanceados. Quase todos os trabalhos relacionados empregam apenas a estratégia padrão de ajuste fino para treinar seus modelos. O segundo problema é o aproveitamento parcial da capacidade de exploração de contexto que é intrínseca aos MTLPs, um fato que prejudica o desempenho dos modelos. Diante disso, esta tese tem como objetivo avançar o estado da arte na tarefa de RPRDL por meio de três abordagens concebidas para superar esses problemas.
    A primeira abordagem tem base em um método de aumento de dados para gerar vetores representativos de sentença sintéticos, aumentando assim a quantidade de dados de treinamento. A segunda abordagem combina representação de conteúdo e representação posicional para enriquecer os vetores de treinamento.
    A terceira abordagem, denominada Preenchimento Dinâmico de Blocos de Sentença Contextualizados (PDBSC), define uma forma de produzir vetores representativos de sentença de alta qualidade através de uma utilização eficiente das capacidades de codificação dos MTLP. Os estudos realizados nesta tese mostram que as duas primeiras abordagens têm um impacto limitado no desempenho dos modelos. Por outro lado, os modelos baseados na abordagem PDBSC obtêm resultados notáveis e são os que apresentam melhor desempenho
    nos respectivos estudos. A nossa conclusão é que a abordagem PDBSC é uma contribuição valiosa para o estado da arte em RPRDL. 

  • Mostrar Abstract
  • Legal AI, the application of Artificial Intelligence (AI) in the legal domain, is a research field that comprises several dimensions and tasks of interest. As in other targeted application domains, one of the desired benefits is task automation, which increases the productivity of legal professionals and makes law more accessible to the general public. Text is an important data source in the legal domain, therefore Legal AI has a great interest in the Natural Language Processing advances. This thesis concerns the automation of the Legal Rhetorical Role Labeling (RRL), a task that assigns semantic functions to sentences in legal documents. Legal RRL is a relevant task because it finds information that is useful both by itself and for downstream tasks such as legal summarization and case law retrieval. There are several factors that make legal RRL a non-trivial task, even for humans: the heterogeneity of document sources, the lack of standards, the domain expertise required, and the subjectivity inherent in the task. These complicating factors and the large volume of legal documents justify the automation of the task. Such automation can be implemented as a sentence classification task, i.e. sentences are fed to a machine learning model that assigns a label or class to each sentence. Developing such models on the basis of Pre-trained Transformer Language Models (PTLMs) is an obvious choice, since PTLMs are the current state of the art for many NLP tasks, including text classification. Nevertheless, in this thesis we highlight two main problems with works that exploit PTLMs to tackle the Legal RRL task. The first one is the lack of works that address how to better deal with the idiosyncrasies of legal texts and the typically small size and imbalance of Legal RRL datasets. Almost all related works simply employ the regular fine-tuning strategy  to train models.

    The second problem is the poor utilization of the intrinsic ability of PTLMs to exploit context, which hampers the performance of the models. This thesis aims to advance the current state of the art on the Legal RRL task by presenting three approaches devised to overcome such problems. The first approach relies on a data augmentation technique to generate synthetic sentence embeddings, thus increasing the amount of training data. The second approach makes use of positional data by combining sentence embeddings and positional embeddings to enrich the training data. The third approach, called Dynamically-filled Contextualized Sentence Chunks (DFCSC), specifies a way to produce efficient sentence embeddings by better exploiting the encoding capabilities of PTLMs. The studies in this thesis show that the first two approaches have a limited impact on the performance of the models. Conversely, models based on the DFCSC approach achieve remarkable results and are the best performers in the respective studies. Our conclusion is that the DFCSC approach is a valuable contribution to the state of the art of the Legal RRL task.

9
  • Cephas Alves da Silveira Barreto
  • Seleção e Rotulagem de Instâncias para Métodos Semissupervisionados Indutivos

  • Orientador : ANNE MAGALY DE PAULA CANUTO
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • DIEGO SILVEIRA COSTA NASCIMENTO
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • JOAO CARLOS XAVIER JUNIOR
  • KARLIANE MEDEIROS OVIDIO VALE
  • LEONARDO CESAR TEONACIO BEZERRA
  • Data: 24/07/2023

  • Mostrar Resumo
  • Nos últimos anos, a utilização de técnicas de Aprendizado de Máquina (AM) para resolver
    problemas reais tem se tornado muito comum e um padrão tecnológico adotado em uma
    infinidade de domínios. Uma série desses domínios, entretanto, não possui dados rotulados
    suficientes para proporcionar aos métodos de AM um bom desempenho. Para tratar
    esse problema, foram desenvolvidos os métodos de aprendizado semissupervisionado, um
    tipo de método capaz de utilizar as instâncias rotuladas e não-rotuladas na construção
    de seu modelo. Dentre os métodos de aprendizado semissupervisionado, destacam-se os
    métodos wrapper. Essa categoria de métodos utiliza um processo, muitas vezes iterativo,
    que envolve: treinamento do método com os dados rotulados; seleção dos melhores dados
    não-rotulados; e rotulagem dos dados selecionados. Apesar de se mostrar um processo
    simples e eficiente, é muito comum que erros na seleção ou na rotulagem ocorram, o que
    acaba por deteriorar o desempenho final do método. Buscando a diminuição dos erros
    de seleção e rotulagem em métodos wrapper, esta pesquisa tem por objetivo estabelecer
    abordagens de seleção e rotulagem mais robustas e menos suscetíveis a erros. Para tal, são
    propostas uma abordagem de seleção e rotulagem de instâncias baseada em concordância
    de classificação e também uma abordagem de seleção baseada na utilização de métrica
    de distância como fator adicional a um critério de seleção já utilizado (e.g. confiança ou
    concordância). As abordagens propostas podem ser aplicadas a qualquer método wrapper
    e foram testadas sobre 42 datasets nos métodos Self-training e Co-training. Os resultados
    obtidos até o momento apontam que as propostas trazem ganhos para os dois métodos em
    termos de acurácia e também de F-measure.


  • Mostrar Abstract
  • In recent years, the use of Machine Learning (ML) techniques to solve real problems has
    become very common and a technological pattern adopted in plenty of domains. However,
    several of these domains do not have enough labelled data to give ML methods a good
    performance. This problem led to the development of Semi-supervised methods, a type of
    method capable of using labelled and unlabelled instances in its model building. Among
    the semi-supervised learning methods, the wrapper methods stand out. This category of
    methods uses a process, often iterative, that involves: training the method with labelled
    data; selection of the best data from the unlabelled set; and labelling the selected data.
    Despite showing a simple and efficient process, errors in the selection or labelling processes
    are common, which deteriorate the final performance of the method. This research aims
    to reduce selection and labelling errors in wrapper methods to establish selection and
    labelling approaches that are more robust and less susceptible to errors. To this end, this
    work proposes a selection and labelling approach based on classification agreement and a
    selection approach based on distance metric as an additional factor to an already used
    selection criterion (e.g. confidence or agreement). The proposed approaches can be applied
    to any wrapper method and were tested on 42 datasets in Self-training and Co-training
    methods. The results obtained so far indicate that the proposals bring gains for both
    methods in terms of accuracy and F-measure.

10
  • FERNANDO NERES DE OLIVEIRA
  • Sobre novas técnicas de contrapositivização para (co)implicações difusas (de valor intervalar) e suas generalizações

  • Orientador : REGIVAN HUGO NUNES SANTIAGO
  • MEMBROS DA BANCA :
  • REGIVAN HUGO NUNES SANTIAGO
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • ANDERSON PAIVA CRUZ
  • RENATA HAX SANDER REISER
  • RUI EDUARDO BRASILEIRO PAIVA
  • Data: 28/07/2023

  • Mostrar Resumo
  • Neste trabalho, introduzimos vários operadores de contrapositivização para implicações difusas, apresentamos um amplo estudo de cada um destes operadores com respeito às principais propriedades rotineiramente requeridas por implicações difusas, provamos que as classes destes contrapositivizadores são invariantes por automorfismos e apresentamos algumas condições para a $N$-compatibilidade das respectivas contrapositivizações, propomos alguns métodos de construção de classes de normas triangulares (quasi-overlaps), conormas triangulares (quasi-groupings) e funções de agregação a partir destes contrapositivizadores; introduzimos a técnica de contrapositivização Min-Max para implicações difusas e algumas de suas generalizações; introduzimos quatro operadores de contrapositivização para coimplicações difusas chamados contrapositivizadores co-upper, co-lower, co-medium e co-($S$,$N$)-, caracterizamos estes operadores do ponto de vista das propriedades que são geralmente atribuídas às coimplicações difusas, apresentamos condições suficientes para a $N$-compatibilidade das contrapositivizações co-upper, co-lower, co-medium e co-($S$,$N$)-, mostramos que as classes de contrapositivizadores co-upper, co-lower, co-medium e co-($S$,$N$)- são fechadas sob a ação de automorfismos e propomos um método de construção de conormas triangulares a partir de co-($S$,$N$)-contrapositivizadores de ($T$,$N$)-coimplicações e negações difusas; e finalmente, propomos as classes de contrapositivizadores upper, lower e medium de valor intervalar e caracterizamos amplamente cada uma delas, mostramos que ambas as classes são invariantes por automorfismos de valor intervalar, introduzimos a noção de $N$-compatibilidade para as respectivas contrapositivizações de valor intervalar e provamos que as melhores representações intervalares de contrapositivizadores upper, lower e medium de valor real são, respectivamente, contrapositivizadores upper, lower e medium de valor intervalar.


  • Mostrar Abstract
  • In this work, we introduce several contrapositivisation operators for fuzzy implications, we present a wide study of each of these operators with respect to the main properties routinely required by fuzzy implications, we prove that the classes of these contrapositivisators are invariant by automorphisms and present some conditions for the $N$-compatibility of the respective contrapositivisations, we propose some construction methods of classes of triangular norms (quasi-overlaps), triangular conorms (quasi-groupings) and aggregation functions from these contrapositivisators; we introduce the Min-Max contrapositivisation technique for fuzzy implications and some of its generalizations; we introduce four contrapositivisation operators for fuzzy coimplications so-called co-upper, co-lower, co-medium and co-($S$,$N$)- contrapositivisators, we characterize these operators from the point of view of the properties that are usually attributed to the fuzzy coimplications, we present sufficient conditions for the $N$-compatibility of the co-upper, co-lower, co-medium and co-($S$,$N$)- contrapositivisations, we show that the classes of co-upper, co-lower, co-medium and co-($S$,$N$)- contrapositivisators are closed under the action of automorphisms and we propose a construction method of triangular conorms from co-($S$,$N$)-contrapositivisators of ($T$,$N$)-coimplications and fuzzy negations; and finally, we propose the classes of interval-valued upper, lower and medium contrapositivisators and broadly characterize each one of them, we show that both classes are invariant by interval-valued automorphisms, we introduce the notion of $N$-compatibility for the respective interval-valued contrapositivisations and we prove that the best interval representations of real-valued upper, lower and medium contrapositivisators are, respectively, interval-valued upper, lower and medium contrapositivisators.

11
  • FELIPE SAMPAIO DANTAS DA SILVA
  • Controle de Mobilidade Inteligente Orientado por Cloud-Network Slicing em Infraestruturas 5G

  • Orientador : AUGUSTO JOSE VENANCIO NETO
  • MEMBROS DA BANCA :
  • AUGUSTO JOSE VENANCIO NETO
  • DANIEL CORUJO
  • EDUARDO COELHO CERQUEIRA
  • LISANDRO ZAMBENEDETTI GRANVILLE
  • ROGER KREUTZ IMMICH
  • VICENTE ANGELO DE SOUSA JUNIOR
  • Data: 31/07/2023

  • Mostrar Resumo
  • A 5ª geração de redes móveis (5G, do inglêsFifth Generation) foi concebida para prover uma maior capacidade de conectividade em termos de cobertura e suporte à uma maior diversidade de tipos de serviço, tráfego e usuários (UE, do inglêsUser Equipment) com padrões de mobilidade diversos e requisitos críticos de Qualidade de Serviço (QoS, do inglêsQuality of Service) para melhor conformidade com a Qualidade da Experiência (QoE, do inglêsQuality of Experience) do usuário. Ao incorporar novas tecnologias como a Computação em Nuvem
    (do inglêsCloud Computing) e a Computação de Borda de Acesso Múltiplo (MEC, do inglês Multi-access Edge Computing), as infraestruturas 5G aumentarão as suas capacidades de rede e de nuvem dentro das Redes de Acesso por Rádio (RAN, do inglêsRadio Access Networkpara mais próximo dos usuários finais, assim permitindo maior agilidade na entrega de conteúdo e serviços. Neste contexto, novos paradigmas como o fatiamento de recursos de rede (NS, do inglêsNetwork Slicing), tem sido amplamente adotado por sua capacidade de habilitar
    a infraestrutura para a implantação de serviços de forma personalizada e elástica. O network-slicing é promovido por meio de um conjunto de componentes de recursos de rede que pode ser estendido através de estratégias de virtualização de recursos físicos e softwarização. Recentemente, a abordagem deslicingde nuvem e rede (CNS, do inglêsCloud-Network Slicing) foi introduzida como uma alternativa para atender as demandas das verticais da indústria, que oferecem seus serviços através de vários domínios administrativos e tecnológicos distribuídos ao
    longo de infraestruturas de nuvem e rede federados. Neste cenário, caracterizado pela inevitabilidade do handover entre as diferentes células existentes na RAN, é primordial que o sistema de gerenciamento da infraestrutura seja estendido com capacidades aprimoradas para manter a experiência do UE durante eventos de mobilidade, se beneficiando da capacidade do fatiamento para orquestrar recursos disponíveis em um ecossistema de nuvem para oferecer um serviço com conectividade contínua e de forma transparente e ágil. Diante disso, é preciso repensar as abordagens tradicionais de gerenciamento de mobilidade para que sejam capazes de dirigir seu modelo de atuação em infraestruturas definidas por CNS, na perspectiva de avançar os serviços móveis das redes 5G. Levantamento recente da literatura revelou trabalhos que promovem o gerenciamento da mobilidade em sistemas definidos por NSs, e a inexistência de mecanismos cientes e dirigidos por CNS. Ademais, os mecanismos existentes gerenciam a mobilidade de entidades associadas aos NSs considerando modelos clássicos que se baseiam em potência de sinal, por exemplo. Em sistemas definidos por CNS, os mecanismos de decisão requerem total conhecimento das instâncias CNS ativas, seus requisitos computacionais e de rede, os serviços
    ativos, nós consumidores de serviços, entre outros aspectos. A pesquisa desenvolvida nesta tese de doutorado preenche essa lacuna ao pavimentar sistemas 5G definidos por CNS a partir de uma abordagem com capacidades de controle e gerenciamento de mobilidade de forma automatizada e proativa em sistemas 5G. As principais contribuições deste trabalho englobam: (i) ampla revisão e discussão sobre mecanismos de decisão dehandoverorientados para a qualidade e compatíveis com os requisitos críticos impostos pelas verticais 5G em sistemas definidos por CNS; (ii) abordagem de gerenciamento e controle de mobilidade orientado por CNS de forma automatizada e proativa e capaz de manter usuários móveis de instâncias CNS sempre bem conectadas e servidas, respeitando as definições fim-a-fim e o alto nível de isolamento requerido; (iii) controle de mobilidade dirigido por conformidade de recursos da CNS e requisitos de QoS dos UEs; (iv) predição e decisão de mobilidade inteligentes para habilitar UEs com conectividade contínua e transparente durante a seleção do melhor ponto de acesso para os serviços do CNS; (v) avaliação da solução proposta em ambiente emulado e composto por tecnologias habilitadoras de sistemas 5G. A performance da solução proposta foi comparada com os principais
    trabalhos do estado da arte e demonstrou maior capacidade em realizar decisões de mobilidade orientada aos requisitos críticos da CNS em termos de cumprimento de SLA e preservação da QoE dos usuários.


  • Mostrar Abstract
  • The 5th generation of mobile networks (5G) is designed to provide high connectivity capacity in terms of coverage and support for a larger diversity of service types, traffic, and users (User Equipment– UE) with diverse mobility patterns and critical Quality of Service (QoS) requirements. By incorporating new technologies such as Cloud Computing and Mobile Edge Computing (MEC), 5G infrastructures will increase network and cloud capabilities within the Radio Access Networks (RAN) closer to end-users, allowing high content and service delivery flexibility. In this context, new paradigms such as network slicing (NS) have been widely adopted for the ability to enable the infrastructure to deploy services in a personalized and elastic way, promoted through a set of network resource components that can be extended through physical resource virtualization strategies and softwarization. Recently, the Cloud-Network Slicing (CNS) approach was introduced as an alternative to meet the demands of industry verticals, which offer their services across multiple administrative and technological domains distributed across the federated cloud and network infrastructures. In this scenario, characterized by the inevitability of handover between the various cells existing in the RAN, the infrastructure management system must be extended with improved capabilities to maintain the UE experience during mobility events, benefiting from the ability of slicing to orchestrate resources available in a cloud ecosystem to deliver a service with seamless connectivity in a transparent and agile manner. Therefore, it is necessary to rethink traditional mobility management approaches to direct their operating model in infrastructures defined by CNS to advance mobile services on 5G networks. A recent survey of the literature revealed works that promote mobility management in systems defined by NSs and the inexistence of mechanisms driven by CNS. Furthermore, existing mechanisms manage the mobility of entities associated with NSs considering classical models based on signal strength. However, in systems defined by CNS, decision mechanisms require complete knowledge of active CNS instances, their computational and network requirements, operational services, service-consuming nodes, among other aspects. The research developed in this Ph.D. thesis intends to fill this gap and pave 5G systems defined by CNS from an approach with automated and proactive mobility control and management capabilities in 5G systems. The main contributions of this research include: (i) broad review and discussion on quality-oriented handover decision mechanisms in compliance with the critical requirements imposed by 5G verticals in CNS defined systems; (ii) an automated and proactive approach to mobility management guided by CNS, capable of maintaining mobile users of CNS instances always best connected and served, respecting the end-to-end definitions and the high level of isolation; (iii) provide compliance-driven mobility control of CNS resources and UEs QoS requirements to act as a trigger for network re-orchestration events (e.g., mobility load balancing); (iv) intelligent mobility prediction and decision to enable UEs (not necessarily in transit) with seamless and transparent connectivity while selecting the best access point for CNS services.
12
  • MURILO OLIVEIRA MACHADO
  • Investigação da Adição de Métodos de Aprendizado e Programação Matemática em uma Arquitetura de Hibridização de Meta-heurísticas para Problemas de Otimização com Decisões em Múltiplos Níveis

  • Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MEMBROS DA BANCA :
  • CAROLINA DE PAULA ALMEIDA
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • GUSTAVO DE ARAUJO SABRY
  • ISLAME FELIPE DA COSTA FERNANDES
  • MATHEUS DA SILVA MENEZES
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • Data: 02/08/2023

  • Mostrar Resumo
  • A hibridização de meta-heurísticas é um tópico que vem sendo estudado por diversos pesquisadores dado ao seu potencial de produzir heurísticas mais eficientes do que aquelas baseadas em uma única técnica. Tal hibridização, entretanto, não é uma tarefa fácil, uma vez que existem diversas maneiras de operacionaliza-la. A tarefa se torna ainda mais difícil quando existem três ou mais métodos meta-heurísticos a serem hibridizados ou quando se deseja adicionar métodos de Programação Matemática, construindo, assim, matheurísticas. Diversos métodos foram propostos para hibridizar meta-heurísticas, incluindo algumas técnicas que automatizam a hibridização, como é o caso de arquiteturas multi-agentes. Um pequeno número destas arquiteturas se utiliza de técnicas de aprendizado e um número ainda mais restrito lida com  matheurísticas. Este trabalho estende os recursos da Arquitetura Multi-agentes para Hibridização de Meta-heurísticas incluindo técnicas de aprendizado e de Programação Matemática.  A forma da aplicação das técnicas de aprendizado é inovadora contemplando à escolha feita pelos agentes de heurísticas a serem aplicadas em diferentes momentos da busca. Este trabalho propõe uma nova forma de hibridização hierárquica para problemas de Otimização Combinatória que possuem múltiplos níveis de decisão. As propostas algorítmicas são testadas no Problema do Caixeiro Viajante Alugador com Passageiros e no Problema de Cabeamento em Usinas Eólicas. Este problemas pertencem à classe NP-difícil e exigem a tomada de decisão em mais de um nível. No caso do Caixeiro Viajante Alugador com Passageiros a tomada de decisão se dá em três níveis: rota, tipos de carros utilizados e atendimento de demanda por caronas. No caso do cabeamento em usinas eólicas são exigidas decisões do local de cabeamento e tipo de cabo a ser empregado em cada trecho. Os experimentos para o Caixeiro Viajante Alugador com Passageiros foram feitos para três classes de instâncias, em um total de noventa e nove casos de teste com tamanho variando de 4 a 80 cidades, 2 a 5 veículos e 10 a 240 pessoas demandando transporte. O Problema de Cabeamento em Usinas Eólicas foi alvo de experimentos que envolveram um conjunto de 200 instâncias. Essas instâncias são simulações de situações reais desenvolvidas em colaboração com especialistas da área. As abordagens propostas neste trabalho são comparadas a algoritmos do estado-da-arte para ambos os problemas.


  • Mostrar Abstract
  • The hybridization of metaheuristics is a topic that several researchers have studied due to its potential to produce more efficient heuristics than those based on a single technique. However, hybridization is not easy, as there are several ways to operationalize it. The task becomes even more challenging when three or more metaheuristic methods need to hybridize or when someone wants to add Mathematical Programming methods, thus creating matheuristics. Various methods have been proposed to hybridize metaheuristics, including some techniques that automate hybridization, such as multi-agent architectures. A few of these architectures use learning techniques, and an even smaller number deal with matheuristics. This work extends the capabilities of the Multi-agent Architecture for Metaheuristic Hybridization by including learning techniques and Mathematical Programming. The application of learning techniques is innovative, considering the agents' choice of heuristics to apply at different search stages. This work proposes a new form of hierarchical hybridization for Combinatorial Optimization problems with multiple decision levels. The algorithmic proposals are tested on the Traveling Car Renter with Passengers and the Cable Routing Problem in Wind Farms. These problems belong to the NP-hard class and require decision-making at multiple levels. In the case of the Traveling Car Renter with Passengers, there are three decision levels: route, car types, and customers' transport demand. Cable routing in wind farms requires decisions concerning the cable locations and the cable type used in each section. The experiments for the Traveling Car Renter with Passengers were conducted on three classes of instances, totaling ninety-nine test cases ranging from four to eighty cities, two to five vehicles, and ten to a hundred forty people requiring transportation. Experiments for The Cable Routing Problem in Wind Farms involved a set of two hundred instances. These instances are simulations of real situations developed in collaboration with domain experts. The approaches proposed in this work are compared to state-of-the-art algorithms for both problems.

13
  • JHOSEPH KELVIN LOPES DE JESUS
  • Automações não-supervisionadas na Abordagem de Seleção Dinâmica de Atributos baseada na Fronteira de Pareto

  • Orientador : ANNE MAGALY DE PAULA CANUTO
  • MEMBROS DA BANCA :
  • ALUISIO IGOR REGO FONTES
  • ANNE MAGALY DE PAULA CANUTO
  • ARAKEN DE MEDEIROS SANTOS
  • BRUNO MOTTA DE CARVALHO
  • DANIEL SABINO AMORIM DE ARAUJO
  • Data: 25/08/2023

  • Mostrar Resumo
  • Muitas estratégias de seleção de atributos foram desenvolvidas nas últimas décadas, usando diferentes critérios para selecionar as características mais relevantes. O uso da seleção dinâmica de atributos, entretanto, mostrou que o uso de múltiplos critérios simultaneamente para determinar o melhor subconjunto de atributos para instâncias similares pode fornecer resultados encorajadores. Embora o uso da seleção dinâmica tenha atenuado parte das limitações encontradas em métodos de seleção tradicionais, a utilização exclusiva de critério de avaliação supervisionados e a definição manual da quantidade de grupos a serem utilizados, conduzem a limitações de análises de problemas complexos em cenários não-supervisionados. Neste contexto, esta tese propõe três vertentes da abordagem de seleção dinâmica de atributos baseada na fronteira de pareto, no contexto de pré-processamento e uma vertente no contexto de classificação. A primeira está relacionada com a inclusão de critérios não-supervisionados na versão base do PF-DFS/M. A segunda (PF-DFS/P) e terceira (PF-DFS/A) vertentes são variações da versão base, onde incluem, respectivamente, a automatização parcial e total da definição da quantidade de grupos a serem utilizados no processo de pré-processamento através do uso de um comitê de índices de validação interno. A automatização do hiperparâmetro referente a quantidade grupos permite que, ao invés da escolha arbitrária, sejam utilizados mecanismos que possam auxiliar pesquisadores a lidar com bases de dados não-rotuladas, ou até mesmo a constituir uma análise sob bases rotuladas. A última vertente propõe a utilização de uma mecanismo de ponderação por agrupamento dinâmico para permitir que ao invés de considerar apenas um grupo de atributos para treinar classificadores e testar instâncias, cada instância possa selecionar uma porção de atributos baseada na proporção da similaridade com todos os grupos de atributos. Nas análises investigativas foram utilizados conjuntos de dados reais e artificiais. Os resultados encontrados nas análises empíricas empregadas nesta tese são promissores, demonstrando que o PF-DFS, com a automatização parcial e total da definição da quantidade de grupos a serem utilizados e a utilização da estratégias de ponderação por agrupamento dinâmico, são capazes de obter re-sultados superiores aos métodos de seleção de atributos utilizados como base comparativa, bem como quando comparado ao conjunto original de dados.


  • Mostrar Abstract
  • Several feature selection strategies have been developed in the past decades, using different criteria to select the most relevant features. The use of dynamic feature selection, however, has shown that using multiple criteria simultaneously to determine the best subset of features for similar instances can provide encouraging results. While the use of dynamic selection has alleviated some of the limitations found in traditional selection methods, the exclusive use of supervised evaluation criteria and the manual definition of the number of groups to be used leads to limitations of complex problem analysis in unsupervised scenarios. In this context, this thesis proposes three strands of the dynamic feature selection approach based on the pareto front. The first is related to the inclusion of unsupervised criteria in the base version of PF-DFS/M. The second (PF-DFS/P) and third (PF-DFS/A) strands are variations of the base version, where they include, respectively, partial and full automation of the definition of the number of groups to be used in the preprocessing process through the use of an internal validation index ensemble. The automation of the hyperparameter concerning the number of groups allows, instead of an arbitrary choice, mechanisms to be used that can help researchers to deal with unlabeled databases, or even constitute a deeper analysis under labeled databases. Additionally, an analysis of PF-DFS against noisy data scenarios was proposed. In the investigative analyses real and artificial datasets were used, where the following were evaluated: (I) the performance of PF-DFS in terms of stability and robustness, (II) the behavior of PF-DFS with the inclusion of unsupervised evaluation criteria, and (III) the behavior of PF-DFS with partial and full automation regarding the number of groups.

14
  • THIAGO PEREIRA DA SILVA
  • An Ensemble Online Learning-based Approach for VNF Scaling in the Edge

  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • FLAVIA COIMBRA DELICATO
  • FREDERICO ARAUJO DA SILVA LOPES
  • NELIO ALESSANDRO AZEVEDO CACHO
  • PAULO DE FIGUEIREDO PIRES
  • THAIS VASCONCELOS BATISTA
  • Data: 15/09/2023

  • Mostrar Resumo
  • Edge Computing (EC) platforms have recently been proposed to manage emergency
    applications with high computational load and low response time requirements. EC plat-
    forms take advantage of the distributed nature of edge devices close to end-users and data
    sources, thus minimizing constraints such as bandwidth consumption, network congestion,
    response time, and operational costs imposed by cloud providers. To provide more agility
    and flexibility for service provisioning while reducing deployment costs for infrastructure
    providers, technologies such as Network Functions Virtualization (NFV) are frequently
    used in production environments at the network edge, promoting the decoupling of hard-
    ware and network functions using virtualization technologies. Network or even higher
    layers functions are implemented as Virtual Network Functions (VNFs) software entities.
    The integration of EC and NFV paradigms, as proposed by ETSI MEC, enables the cre-
    ation of an ecosystem for 5G applications. Such integration allows the creation of VNF
    chains, representing end-to-end services for end-users and their deployment on edge nodes.
    A Service Function Chaining (SFC) comprises a set of VNFs chained together in a given
    order, where each VNF can be running on a different edge node. The main challenges
    in this environment concern the dynamic provisioning and deprovisioning of distributed
    resources to run the VNFs and meet application requirements while optimizing the cost
    to the infrastructure provider. In this sense, scaling VNFs in this environment represents
    creating new containers or virtual machines and reallocating resources to them due to the
    variation in the workload and dynamic nature of the EC environment. This work presents
    a hybrid auto-scaling approach for the dynamic scaling of VNFs in the EC environment.
    Such an auto-scaling approach employs an online ensemble machine-learning technique
     that consists of different online machine-learning models that predict the workload. The
    architecture of such an auto-scaling approach follows the abstraction of the MAPE-K
    (Monitor-Analyze-Plan-Execute over a shared Knowledge) control loop to dynamically
    adjust the number of resources in response to workload changes. This approach is innova-
    tive because it proactively predicts the workload to anticipate scaling actions and behaves
    reactively when the prediction model does not meet the desired quality. In addition, the
    proposal requires no prior knowledge of the data’s behavior, making it suitable for use
    in different contexts. We also have developed an algorithm to scale the VNF instances in
    the edge computing environment that uses a strategy to define how many resources to
    allocate or deallocate to a VNF instance during a scaling action. Finally, we evaluated
    the ensemble method and the proposed algorithm, comparing prediction performance and
    the amount of scaling actions and SLA violations.

  • Mostrar Abstract
  • Recentemente, foram propostas plataformas de computação de borda (do inglêsEdge
    Computing) para gerenciar aplicações emergentes com alta carga computacional e baixos
    requisitos de tempo de resposta. De modo a proporcionar mais agilidade e flexibilidade na
    prestação de serviços e, em simultâneo, reduzir os custos de implantação para os prove-
    dores de infraestrutura, tecnologias como a Virtualização das Funções de Rede (NFV, do
    inglêsNetwork Functions Virtualization) são frequentemente utilizadas em ambientes de
    produção na borda da rede. NFV promove o desacoplamento de hardware e funções de
    rede usando tecnologias de virtualização, permitindo que elas funcionem em máquinas
    virtuais ou contêineres como software. As funções de rede ou mesmo funções de camadas
    superiores são implementadas como entidades de software chamadas Funções de Rede
    Virtual (VNFs, do inglêsVirtual Network Functions). A integração dos paradigmas de
    Computação de Borda e NFV, como proposto pelo ETSI MEC, permite a criação de um
    ecossistema para aplicações 5G. Tal integração permite a criação de cadeias de VNF,
    representando serviços ponta a ponta para os usuários finais e sua implantação em nós
    de borda. Uma cadeia de funções de serviço (SFC, do inglêsService Function Chain-
    ing) compreende um conjunto de VNFs encadeadas em uma determinada ordem, onde
    cada VNF pode ser executada em um nó de borda diferente. Os principais desafios neste
    ambiente dizem respeito ao provisionamento dinâmico e ao desprovisionamento de recur-
    sos distribuídos na borda para executar as VNFs e atender às exigências da aplicação,
    otimizando o custo para o fornecedor da infraestrutura. Este trabalho apresenta uma
    abordagem híbrida de dimensionamento automático para o dimensionamento dinâmico
    das VNFs no ambiente de computação de borda. Tal abordagem de autodimensionamento
     emprega uma técnica de aprendizagem de máquinas em conjunto on-line que consiste no
    agrupamento de diferentes modelos de aprendizagem de máquinas on-line que preveem a
    carga de trabalho futura das VNFs. A arquitetura da abordagem proposta segue a ab-
    stração do MAPE-K (do inglêsMonitor-Analyze-Plan-Execute over a shared Knowledge)
    para ajustar dinamicamente o número de recursos em resposta às mudanças de carga de
    trabalho. Esta abordagem é inovadora porque prevê proativamente a carga de trabalho
    para antecipar ações de dimensionamento e se comporta de forma reativa quando o modelo
    de predição não atende a uma qualidade desejada. Além disso, nossa solução não requer
    nenhum conhecimento prévio do comportamento dos dados, o que a torna adequado para
    uso em diferentes contextos. Também desenvolvemos um algoritmo para dimensionar as
    instâncias de VNF, utilizando uma estratégia para definir quantos recursos devem ser
    alocados ou desalocados durante uma ação de dimensionamento. Finalmente, avaliamos o
    método de aprendizado por agrupamento e o algoritmo proposto, comparando o desem-
    penho das predições e a quantidade de ações de dimensionamentos e violações do Acordo
    de Nível de Serviço (SLA, do inglêsService Level Agreement).
15
  • ELIEZIO SOARES DE SOUSA NETO
  • The Effects of Continuous Integration on Software Development: A Causal Investigation

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • DANIEL ALENCAR DA COSTA
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • MARCELO DE ALMEIDA MAIA
  • RODRIGO BONIFACIO DE ALMEIDA
  • SERGIO QUEIROZ DE MEDEIROS
  • UIRA KULESZA
  • Data: 19/09/2023

  • Mostrar Resumo
  • Continuous Integration (CI) is a software engineering technique usually mentioned as one of the foundations of agile methodologies. The main objective of CI is to reduce the cost and risk of code integration among development teams. For such, it preconizes frequent commits to integrate the work from developers into a source code repository and the frequent quality verification via automated builds and tests. Through CI usage, it is expected that development teams can quickly detect and correct issues, improving team productivity and software quality, among other benefits pointed out by researchers and practitioners. Previous studies regarding CI usage highlight several benefits in software development aspects. However, such associations are not mapped as a whole and are not sufficient to conclude that CI is indeed the cause of such results.

    Therefore, the main goal of this work is to investigate such effects of CI adoption on software development from a causal perspective. First, we conducted a systematic literature review to catalog the findings from studies that empirically evaluated the effects of adopting CI. After exploring the existing state-of-the-art, we conducted two studies in order to deepen the comprehension regarding two aspects supposedly impacted by CI: software quality and teams’ productivity. We investigate if there is a causal relationship between CI adoption and such literature-reported effects. For this purpose, we employ causal Direct Acyclic Graphs (causal DAGs) combined with two other strategies: a literature review and a mining software repository (MSR) study. Our results show a panoramic view of CI literature-reported effects and point out that, indeed, there is a causal relationship between CI and software quality.


  • Mostrar Abstract
  • Integração Contínua (Continuous Integration—CI) é uma técnica de engenharia de software comumente mencionada como um dos pilares das metodologias ágeis. CI tem como principal objetivo reduzir o custo e o risco da integração de código entre times de desenvolvimento. Para tal se preconiza a realização de commits frequentes para integrar o trabalho dos desenvolvedores em um repositório de código e a frequente verificação de qualidade através de builds e testes automatizados. Através do uso de CI espera-se que os times de desenvolvimento possam detectar e corrigir erros rapidamente, melhorando a produtividade dos times e a qualidade dos produtos de software desenvolvidos entre outros benefícios apontados por pesquisadores e praticantes. Estudos anteriores sobre o uso de CI apontam diversos benefícios em diversos aspectos do desenvolvimento de software, entretanto tais associações não estão mapeadas como um todo e também não são suficientes para concluir que CI seja de fato a causa de tais resultados.

    Portanto, este trabalho tem como objetivo investigar empiricamente tais efeitos da adoção de CI no desenvolvimento de software sob uma perspectiva causal. Primeiro, nós realizamos uma revisão sistemática de literatura para catalogar os achados de estudos que avaliaram empiricamente os efeitos da adoção de CI. Após explorar o conhecimento já documentado conduzimos dois estudos com o objetivo de aprofundar a compreensão a respeito de dois desses aspectos supostamente afetados pela adoção de CI: qualidade de software e a produtividade dos times de desenvolvimento. Nós pretendemos responder se há uma relação causal entre a adoção de CI e os efeitos reportados na literatura. Para isso utilizamos causal Direct Acyclic Graphs (causal DAGs) combinado a duas outras estratégias: revisão de literatura e um estudo de mineração de repositório de software (Mining Software Repository—MSR). Nossos resultados mostram um panorama dos efeitos de CI reportados na literatura e apontam que há de fato uma relação causal entre CI e qualidade de software.

16
  • ANDRE LUIZ DA SILVA SOLINO
  • Uma Estratégia Autonômica para Escalabilidade Automática de Infraestruturas de Plataformas para Cidades Inteligentes

  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • ANDRÉ GUSTAVO DUARTE DE ALMEIDA
  • CARLOS ANDRE GUIMARÃES FERRAZ
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • NELIO ALESSANDRO AZEVEDO CACHO
  • THAIS VASCONCELOS BATISTA
  • Data: 23/11/2023

  • Mostrar Resumo
  • Plataformas de desenvolvimento de aplicações para cidades inteligentes recebem, armazenam, processam e exibem grandes volumes de dados de diferentes fontes e possuem diversos usuários, como cidadãos, visitantes, governo e empresas. A infraestrutura computacional subjacente para suportar essas plataformas deve lidar com a carga de trabalho altamente dinâmica das diferentes aplicações, com acesso simultâneo de vários usuários e, às vezes, trabalhando com muitos dispositivos interconectados. Tal infraestrutura normalmente engloba plataformas de nuvem para armazenamento e computação de dados, capazes de aumentar ou diminuir de acordo com as demandas das aplicações. Esta tese propõe uma abordagem autonômica para escalabilidade automática de infraestruturas de plataformas de cidades inteligentes. A abordagem segue o loop de controle MAPE-K para
    ajustar dinamicamente a infraestrutura em resposta às mudan ̧cas na carga de trabalho. Ele oferece suporte a cenários em que o número de solicitações de processamento é desconhecido a priori. O desempenho da abordagem foi avaliado no contexto da infraestrutura computacional subjacente ao Smart Geo Layers (SGeoL), uma plataforma para o desenvolvimento de aplicações de cidades inteligentes do mundo real.


     
     

  • Mostrar Abstract
  • Smart city application development platforms receive, store, process, and display large volumes of data from different sources and have several users, such as citizens, visitors, government, and companies. The underlying computing infrastructure to support these platforms must deal with the highly dynamic workload of the different applications, with simultaneous access from multiple users and sometimes working with many interconnected devices. Such an infrastructure typically encompasses cloud platforms for data storage and
    computation, capable of scaling up or down according to the demands of applications. This thesis proposes an autonomic approach for autoscaling smart city platform infrastructures. The approach follows the MAPE-K control loop to dynamically adjust the infrastructure in response to workload changes. It supports scenarios where the number of processing requests is unknown a priori. The performance of the approach has been evaluated upon the computational environment that supports Smart Geo Layers (SGeoL), a platform for developing real-world smart city applications.

17
  • MARCELO RÔMULO FERNANDES
  • Understanding Challenges and Recommendations in DevOps Education

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • ANDRE MAURICIO CUNHA CAMPOS
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • ITAMIR DE MORAIS BARROCA FILHO
  • RODRIGO BONIFACIO DE ALMEIDA
  • UIRA KULESZA
  • VINICIUS CARDOSO GARCIA
  • Data: 30/11/2023

  • Mostrar Resumo
  • DevOps represents a set of practices that integrates software development an operation, now widely adopted in the software industry. It involves implementing various vital concepts, such as a culture of collaboration, continuous delivery, and infrastructure as code. The high demand for DevOps practitioners requires non-trivial adjustments in traditional software engineering courses and educational methodologies. As a new area, DevOps has brought significant challenges for the academy regarding research topics and teaching strategies. From an educational perspective, it is essential to understand how existing courses teach fundamental DevOps concepts. In this thesis, we perform empirical studies to investigate existing challenges of DevOps courses and recommendations to overcome them. Understanding those challenges and recommendations can contribute to improving the learning of DevOps concepts and practices. Our first study presents a systematic literature review to identify challenges and recommendations for teaching DevOps. Our findings show a total of 73 challenges and 85 recommendations organized into seven categories (pedagogy, curriculum, assessment, tool, DevOps concepts, class preparation, and environment setup) from 18 papers selected. We also discuss how existing recommendations address the challenges found in the study, thus contributing to the preparation and execution of DevOps courses. Finally, we investigate if challenges and recommendations are specific to teaching DevOps. Our second study involves interviews with 14 DevOps educators from different universities and countries to identify the main challenges and recommendations for DevOps teaching. It identified 83 challenges, 185 recommendations, and several association links and conflicts between them. Our findings can help educators plan, execute, and evaluate DevOps courses.They also highlight several opportunities for reviii searchers to propose new methods and tools for teaching DevOps. The last study in this thesis interviews 11 DevOps educators from different universities to evaluate the usefulness of the reported challenges and recommendations for DevOps education when preparing new courses and improving existing ones. It identified that about 22.6% of the recommendations shown are new to the educators and they are interested in using them to improve their courses. In addition, 64.6% of the challenges shown are relevant to the educators and have useful associated recommendations to overcome the challenges.


  • Mostrar Abstract
  • DevOps representa um conjunto de práticas que integram o desenvolvimento e a operação de software amplamente adotado na indústria atualmente. Ela envolve a implementação de vários conceitos, tais como, cultura de colaboração, entrega contínua e infraestrutura como código. A alta demanda por profissionais DevOps exige ajustes não triviais em cursos tradicionais de engenharia de software e metodologias educacionais. Por ser uma área nova, DevOps trouxe desafios significativos para a academia em relação a temas de pesquisa e estratégias de ensino. Do ponto de vista educacional, é essencial entender como os cursos existentes ensinam os conceitos e práticas fundamentais do DevOps. Nesta tese, realizamos estudos empíricos para investigar os desafios existentes dos cursos de DevOps e recomendações para superá-los. Entender tais desafios e recomendações pode contribuir para melhorar o aprendizado dos conceitos e práticas de DevOps. Em nosso primeiro estudo, apresentamos uma revisão sistemática da literatura que visa identificar desafios e recomendações para o ensino de DevOps. Nossas descobertas mostram um total de 73 desafios e 85 recomendações organizadas em sete categorias (pedagogia, currículo, avaliação, ferramenta, conceitos de DevOps, preparação de aula, configuração de ambiente) de um total de 18 artigos selecionados. Também discutimos como as recomendações existentes abordam os desafios encontrados no estudo, contribuindo assim para a preparação e execução de cursos de DevOps. Por fim, investigamos se os desafios e recomendações são específicos para o ensino de DevOps. Nosso segundo estudo envolveu entrevistas com 14 educadores DevOps de diferentes universidades e países, com o objetivo de identificar os principais desafios e recomendações para o ensino de DevOps. O estudo identificou 83 desafios, 185 recomendações e vários vínculos de associação e conflitos entre eles. Tais resultados podem ajudar educadores a planejar, executar e avaliar cursos de DevOps. Elas também destacam várias oportunidades para os pesquisadores proporem novos métodos e ferramentas para ensinar DevOps. Os estudos restantes desta tese visam avaliar a utilidade dos desafios e recomendações reportados para a educação DevOps na preparação de novos cursos e melhoria dos existentes. Também planejamos analisar o impacto dos desafios e recomendações do ponto de vista da indústria.


2022
Dissertações
1
  • TUANY MARIAH LIMA DO NASCIMENTO
  • Using semi-supervised learning models for creating anew fake news dataset from Twitter posts: a case study on Covid-19 in the UK
    and Brazil

  • Orientador : MARJORY CRISTIANY DA COSTA ABREU
  • MEMBROS DA BANCA :
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • LAURA EMMANUELLA ALVES DOS SANTOS SANTANA DE OLIVEIRA
  • MARJORY CRISTIANY DA COSTA ABREU
  • PLACIDO ANTONIO DE SOUZA NETO
  • Data: 14/01/2022

  • Mostrar Resumo
  • Fake News has been a big problem for society for a long time. It has been magnified,reaching worldwide proportions, mainly with the growth of social networks and instantchat platforms where any user can quickly interact with news, either by sharing, throughlikes and retweets or presenting hers/his opinion on the topic. Since this is a very fastphenomenon, it became humanly impossible to manually identify and highlight any fakenews. Therefore, the search for automatic solutions for fake news identification, mainlyusing machine learning models, has grown a lot in recent times, due to the variety oftopics as well as the variety of fake news propagated. Most solutions focus on supervisedlearning models, however, in some datasets, there is an absence of labels for most of theinstances. For this, the literature presents the use of semi-supervised learning algorithmswhich are able to learn from a few labeled data. Thus, this work will investigate the use ofsemi-supervised learning models for the detection of fake news, using as a case study theoutbreak of the Sars-CoV-2 virus, the COVID-19 pandemic.


  • Mostrar Abstract
  • Fake News has been a big problem for society for a long time. It has been magnified,reaching worldwide proportions, mainly with the growth of social networks and instantchat platforms where any user can quickly interact with news, either by sharing, throughlikes and retweets or presenting hers/his opinion on the topic. Since this is a very fastphenomenon, it became humanly impossible to manually identify and highlight any fakenews. Therefore, the search for automatic solutions for fake news identification, mainlyusing machine learning models, has grown a lot in recent times, due to the variety oftopics as well as the variety of fake news propagated. Most solutions focus on supervisedlearning models, however, in some datasets, there is an absence of labels for most of theinstances. For this, the literature presents the use of semi-supervised learning algorithmswhich are able to learn from a few labeled data. Thus, this work will investigate the use ofsemi-supervised learning models for the detection of fake news, using as a case study theoutbreak of the Sars-CoV-2 virus, the COVID-19 pandemic.

2
  • ANDERSON EGBERTO CAVALCANTE SALLES
  • Detecção de faltas internas em SCIG utilizando Sistemas Inteligentes.

  • Orientador : MARCIO EDUARDO KREUTZ
  • MEMBROS DA BANCA :
  • ALVARO DE MEDEIROS MACIEL
  • ANNE MAGALY DE PAULA CANUTO
  • IVANOVITCH MEDEIROS DANTAS DA SILVA
  • LUCIANO SALES BARROS
  • MARCIO EDUARDO KREUTZ
  • MONICA MAGALHAES PEREIRA
  • Data: 31/01/2022

  • Mostrar Resumo
  • O objetivo deste estudo consiste na implementação e avaliação de sistemas inteligentes para detecção das faltas espira-espira e espira-terra em turbinas eólicas baseadas na máquina de indução com rotor em gaiola. Para tanto, é proposta a implementação de dois modelos de aprendizado de máquina, uma rede neural artificial e uma rede neural convolucional, com o propósito de aprenderem as características das correntes elétricas
    do estator e diferenciar uma máquina saudável de uma danificada. Os sistemas são treinados com dados artificiais provenientes de simulações.


  • Mostrar Abstract
  • The objective of this study is the implementation and evaluation of intelligent systems for detecting the turn-turn and turn-ground faults in wind turbines based on the squirrel-cage induction machine. Therefore, it is proposed to implement two machine learning models, an artificial neural network and a convolutional neural network, in order to learn the characteristics of the stator electrical currents and differentiate
    healthy and damaged machines. The systems are trained with artificial data from simulations.

3
  • FAGNER MORAIS DIAS
  • FormAr: Formalização da Arquitetura de Software para Aplicativos Críticos de Cidades Inteligentes

  • Orientador : MARCEL VINICIUS MEDEIROS OLIVEIRA
  • MEMBROS DA BANCA :
  • MARCEL VINICIUS MEDEIROS OLIVEIRA
  • THAIS VASCONCELOS BATISTA
  • FLAVIO OQUENDO
  • Data: 11/02/2022

  • Mostrar Resumo
  • Erros durante o desenvolvimento do software podem originar falhas no sistema que podem causar danos importantes. Uma das etapas mais importantes no processo de desenvolvimento de software é a modelagem da arquitetura do sistema, possivelmente usando linguagens de descrição de arquitetura de software~(ADLs). As ADLs atualmente adotadas pela indústria para sistemas intensivos de software são em sua maioria semiformais e essencialmente baseadas em SysML e perfis especializados. Essas ADLs permitem descrever a estrutura e o comportamento do sistema. Além disso, é possível gerar modelos executáveis ou gerar código em uma linguagem de programação alvo e simular seu comportamento. Isso, no entanto, não constitui prova de que o sistema está correto ou seguro. Este trabalho propõe uma nova abordagem para capacitar ADLs baseadas em SysML com verificação formal suportada por verificação de modelo. Ele apresenta uma semântica baseada em CSP para modelos SysADL. Além disso, este trabalho apresenta como as propriedades de correção podem ser formalmente especificadas usando CSP, e como o verificador de refinamento de modelos FDR4 pode verificar essas propriedades de correção. Finalmente, apresentamos a nova extensão do SysADL studio que permite a transformação automatizada de descrições de arquitetura SysADL para processos CSP e a verificação de propriedades importantes de correção do sistema. Toda a abordagem é ilustrada por meio de um estudo de caso, que também faz parte deste documento. Este estudo de caso demonstra a utilidade de nossa abordagem na prática.


  • Mostrar Abstract
  • Errors during the software development may give rise to flaws in the system that can cause important damages. One of the most important stages in the software development process is modelling the system architecture, possibly using software architecture description languages~(ADLs). The ADLs currently adopted by industry for software-intensive systems are mostly semi-formal and essentially based on SysML and specialized profiles. These ADLs allow describing the structure and the behavior of the system. Besides, it is possible to generate executable models or generate code in a target programming language and simulate its behaviour. This, however, does not constitute proof that the system is correct or safe. This work proposes a novel approach for empowering SysML-based ADLs with formal verification supported by model checking. It presents a CSP-based semantics to SysADL models. Furthermore, this work presents how correctness properties can be formally specified using CSP, and how the FDR4 refinement model-checker can verify these correctness properties. Finally, we present the new extension to SysADL studio that allows the automated transformation from SysADL architecture descriptions to CSP processes and the verification of important system correctness properties. The whole approach is illustrated via a case study, which is also part of this document. This case study demonstrates the usefulness of our approach in practice.

4
  • QUÉZIA EMANUELLY DE OLIVEIRA SOUZA
  • Problema do Caixeiro Viajante Negociante

  • Orientador : MARCO CESAR GOLDBARG
  • MEMBROS DA BANCA :
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MARCO CESAR GOLDBARG
  • MATHEUS DA SILVA MENEZES
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • Data: 14/02/2022

  • Mostrar Resumo
  • Neste trabalho é proposto o Problema do Caixeiro Viajante Negociante (PCV-N), uma Variante do Problema do Caixeiro Comprador, onde além de comprar, o caixeiro busca também vender uma série de produtos no decorrer da viagem, visando assim a maximização do lucro obtido pelo caixeiro. É proposta a descrição do problema, o desenvolvimento das instâncias e uma abordagem com heurística construtiva e aplicação de buscas locais para resolução do PCV-N.

     Neste trabalho é proposto o Problema do Caixeiro Viajante Negociante (PCV-N), uma variante do Problema do Caixeiro Comprador até então não descrita na literatura. Neste problema existe um conjunto de vértices, que atuam como mercados, onde o caixeiro pode comprar ou vender mercadorias. Assim, ele busca comprar um determinado produto em uma cidade e vender em uma outra, de forma que essa operação possa fornecer lucro. O objetivo geral do problema é determinar um ciclo hamiltoniano que visite todos os vértices de um subconjunto uma única vez, realizando operações de compra e venda, de modo a maximizar o lucro obtido. É proposta a descrição detalhada do problema, o desenvolvimento das instâncias para o mesmo, além de duas metaheurísticas de solução visando a obtenção de resultados competitivos, sendo uma GRASP e um algorotimo Transgenético, as quais foram testadas em instâncias que vão de 50 até 350 vértices e, por fim, a partir dos resultados obtidos foi possível concluir que a abordagem transgenética
    conseguiu encontrar resultados melhores do que o GRASP, embora tenha exigido um tempo de processamento superior.
    Palavras-chave: Otimização, Metaheurísticas, Problema do Caixeiro Negociante.


  • Mostrar Abstract
  • In this reserach, the Traveling Tradesman Problem (TTP) is proposed, a variant of the Traveling Purchaser Problempreviously not described in the literature. In this problem there are a set of vertices, which act as markets, where the tradesman can buy or sell goods. Thus, he seeks to buy a certain product in one city and sell it in another, so that this operation provides profit. The purpose of the problem is to determine a Hamiltonian cycle that visits all the vertices of a subset just once, carrying out purchase and sale operations, in order to maximize the profit obtained. It is proposed a detailed description of the problem, the development of instances for it, in addition to two solution metaheuristics in order to obtain competitive results, one GRASP and one Transgenetic algorithm, which were tested in instances ranging from 50 to 350 vertices and, finally, From the results obtained, it was possible to conclude that the transgenetic approach was able to find better results than GRASP, although it required a higher processing time.

5
  • VITOR RODRIGUES GREATI
  • Formalismo ao estilo de Hilbert para noções de consequência bidimensionais
  • Orientador : JOAO MARCOS DE ALMEIDA
  • MEMBROS DA BANCA :
  • REVANTHA RAMANAYAKE
  • CARLOS CALEIRO
  • JOAO MARCOS DE ALMEIDA
  • SÉRGIO ROSEIRO TELES MARCELINO
  • UMBERTO RIVIECCIO
  • YONI ZOHAR
  • Data: 21/02/2022

  • Mostrar Resumo
  • O presente trabalho propõe um formalismo dedutivo bidimensional à Hilbert (H-formalismo) para relações de B-consequência, uma classe de lógicas bidimensionais que generalizam as noções usuais (Tarskianas, unidimensionais) de lógica. Nós argumentamos que o ambiente bidimensional é apropriado para o estudo do bilateralismo em lógica, por permitir que julgamentos primitivos de asserção e denegação (ou, como preferimos, as atitudes cognitivas de aceitação e rejeição) ajam em dimensões independentes e capazes de interagir entre si ao determinar as inferências válidas de uma lógica. Nessa perspectiva, o formalismo proposto constitui um aparato inferencial para raciocinar sobre julgamentos bilateralistas. Após uma descrição detalhada do funcionamento do formalismo proposto, o qual é inspirado nos sistemas de Hilbert simétricos, nós provemos um algoritmo de busca de demonstrações que executa em tempo exponencial, em geral, e em tempo polinomial quando apenas regras contendo no máximo uma fórmula no sucedente estão presentes no sistema em questão. Então, nós passamos a investigar semânticas não-determinísticas bidimensionais por meio de estruturas de matrizes contendo dois conjuntos de valores distinguidos, um qualificando alguns valores de verdade como aceitos, e o outro, alguns valores como rejeitados, constituindo um caminho semântico para o bilateralismo no ambiente bidimensional. Nós apresentamos e implementamos também um algoritmo para a produção de sistemas de Hilbert bidimensionais para matrizes não-determinísticas bidimensionais  suficientemente expressivas, bem como alguns procedimentos de simplificação que permitem reduzir consideravelmente o tamanho e a complexidade do sistema resultante. Para matrizes finitas, vale apontar, o procedimento resulta em sistemas finitos. Ao final, como estudo de caso, investigamos a lógica da inconsistência formal chamada mCi quanto à sua axiomatizabilidade por sistemas ao estilo de Hilbert. Demonstramos que não há sistemas de Hilbert finitos unidimensionais que capturem essa lógica, mas que ela habita uma relação de consequência bidimensional finitamente axiomatizável por um sistema de Hilbert bidimensional. A existência desse sistema segue diretamente do algoritmo de axiomatização proposto, em vista da semântica bidimensional 5-valorada não-deterministíca suficientemente expressiva que determina a relação de consequência bidimensional mencionada.

  • Mostrar Abstract
  • The present work proposes a two-dimensional Hilbert-style deductive  formalism (H-formalism) for B-consequence relations, a class of two-dimensional logics that generalize the usual (Tarskian, one-dimensional) notions of logic. We argue that the two-dimensional environment is appropriate to the study of bilateralism in logic, by allowing the primitive judgements of assertion and denial (or, as we prefer, the cognitive attitudes of acceptance and rejection) to act on independent but interacting dimensions in determining what-follows-from-what. In this perspective, our proposed formalism constitutes an inferential apparatus for reasoning over bilateralist judgments. After a thorough description of the inner workings of the proposed proof formalism, which is inspired by the one-dimensional symmetrical Hilbert-style systems, we provide a proof-search algorithm for finite analytic systems that runs in at most exponential time, in general, and in polynomial time when only rules having at most one formula in the succedent are present in the concerned system. We delve then into the area of two-dimensional non-deterministic semantics via matrix structures containing two sets of distinguished truth-values, one qualifying some truth-values as accepted and the other, as rejected, constituting a semantical path for bilateralism in the two-dimensional environment. We present an algorithm for producing analytic two-dimensional Hilbert-style systems for sufficient expressive two-dimensional matrices, as well as some streamlining procedures that allow to considerably reduce the size and complexity of the resulting calculi. For finite matrices, we should point out that the procedure results in finite systems. In the end, as a case study, we investigate the logic of formal inconsistency called mCi with respect to its axiomatizability in terms of Hilbert-style systems. We prove that there is no finite one-dimensional Hilbert-style axiomatization for this logic, but that it inhabits a two-dimensional consequence relation that is finitely axiomatizable by a finite two-dimensional Hilbert-style system. The existence of such system follows directly from the proposed axiomatization procedure, in view of the sufficiently expressive 5-valued non-deterministic bidimensional semantics available for that two-dimensional consequence relation.
6
  • CARLOS ANTÔNIO DE OLIVEIRA NETO
  • Hibersafe: Realizando Curadoria no StackOverflow para Bugs do Hibernate relacionados a Exceções

  • Orientador : ROBERTA DE SOUZA COELHO
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • ROBERTA DE SOUZA COELHO
  • RODRIGO BONIFACIO DE ALMEIDA
  • UIRA KULESZA
  • Data: 29/03/2022

  • Mostrar Resumo
  • O Hibernate é um popular framework para Java usado para suportar a persistência de dados através do mapeamento objeto relacional. Este mapeamento é realizado através do uso de anotações Java. A forma como estas anotações são processadas, no entanto, não é fácil para entender pela a maioria dos desenvolvedores que usam este framework. Além disso, nos deparamos com ausência de documentação relacionada a comportamentos excepcionais  que ocorrem com o uso de anotações. Este trabalho busca oferecer meios para ajudar os desenvolvedores a entender melhor e corrigir bugs relacionados a exceções que podem surgir ao usar anotações do Hibernate. Na abordagem proposta, o conhecimento da multidão fornecido por StackOverflow - neste caso, perguntas e suas respostas sobre Hibernate - é utilizado por uma ferramenta, chamada Hibersafe, que visa ajudar os desenvolvedores a encontrar soluções para os problemas relacionados a exceções. A Hibersafe se baseia em um conjunto de heuristicas de busca que quando combinadas auxiliam no processo de curadoria das pertguntas disponíveis na base do StackOverflow.  Comparamos a ferramenta Hibersafe com a abordagens usuais (i.e., desenvolvestes usado o motor de busca Google, ou do StackOverflow). Nossa ferramenta se mostrou mais eficiente  nos cenários avaliados quando comparado com as abordagens usuais. Assim este estudo mostrou que a Hibersafe pode ser usado como espécie de curador para bugs relacionados a exceções do Hibernate.

     

     


  • Mostrar Abstract
  •  

    Hibernate is a popular object-relational mapping framework for Java used to support data persistence. It provides code annotations that are processed and the persistence process occurs. The way annotations are processed, however, is not easy to understand for most of software developers who use this framework. Also, its documentation appears to be incomplete with regard to exceptional behaviors that occur with the use of annotations. Therefore, this work seeks to provide ways to help developers to better understand and then fix exceptionalrelated bugs that may arise when using Hibernate annotations. In the proposed approach, the crowd knowledge provided by StackOverflow - in this case, questions and its answers about Hibernate - is used by a tool, called Hibersafe, which aims to help developers find better solutions to the exception-related bugs they face and identify the possible annotation-exception relationship that may have caused it. We compared the tool with the traditional approach using the Google search engine, the main source of information used by developers when an error occurs. Our tool was more efficient and accurate on tested scenarios when compared to Google. It showed that it could be used as a sort of curator for Hibernate exception-related bugs.

7
  • EMÍDIO DE PAIVA NETO
  • Criptografia de fluxo oportunística entre planos de dados programáveis por meio de sinalização em banda

  • Orientador : AUGUSTO JOSE VENANCIO NETO
  • MEMBROS DA BANCA :
  • AUGUSTO JOSE VENANCIO NETO
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • MICHELE NOGUEIRA LIMA
  • RAMON DOS REIS FONTES
  • ROGER KREUTZ IMMICH
  • Data: 04/05/2022

  • Mostrar Resumo
  • O paradigma de Redes Definidas por Software (SDN, do inglês Software-Defined Networking) tem sido amplamente empregado em diversos ecossistemas para gerenciar domínios administrativos heterogêneos, estender recursos programáveis para redes intra-domínio ou mesmo compor arquiteturas de rede nativas da nuvem. Por outro lado, embora possa oferecer suporte à capacidade das redes de próxima geração de se adaptarem a novos protocolos, SDN aumenta o escopo dos vetores de ataque à rede, resultando em vários problemas de segurança. Desse ponto de vista, as aplicações de controle executadas sob o controlador SDN são responsáveis por estabelecer conexões seguras entre os pares de nós subjacentes. A troca segura de chaves criptográficas, de forma que dois nós interconectados possam se comunicar com segurança em um canal público, representa um desafio bem conhecido em sistemas de criptografia simétrica. O Diffie–Hellman (DH) e o Advanced Encryption Standard (AES) são soluções amplamente adotadas para troca de chaves criptográficas e encriptação de tráfego entre nós em uma rede não confiável. No entanto, as implementações criptográficas tradicionais impõem altos custos computacionais e riscos de gerenciamento de chaves, o que pode resultar em problemas no plano de controle centralizado da rede SDN. Em vista disso, este trabalho explora o paradigma de Processadores de Pacotes Independentes de Protocolo de Programação (P4, do inglês Programming Protocol-independent Packet Processors) e propõe o dh-aes-p4, a primeira solução de troca de chaves DH com o AES adaptada para dispositivos de rede baseados em P4. Apesar de existirem casos similares na literatura, este trabalho apresenta-se como uma nova alternativa de baixo custo, granular (baseada em fluxos de rede) e transparente.


  • Mostrar Abstract
  • The Software-Defined Networking (SDN) paradigm has been widely used in diverse ecosystems as enabler for the management of heterogeneous administrative domains, extend programmable resources to intra-domain networks, or even compose cloud-native network architectures. On the other hand, while it can support the ability of next-generation networks to adapt to new protocols, SDN increases the scope of attack vectors to the network, resulting in several security issues. From this point of view, control applications running atop the SDN controller are responsible for establishing secure connections between the underlying node pairs. The secure exchange of cryptographic keys, so that two interconnected nodes can communicate securely over a public channel, represents a well-known challenge in symmetric cryptography systems field of research. The Diffie–Hellman (DH) and Advanced Encryption Standard (AES) stands to a widely adopted solution for exchanging cryptographic keys and encrypting traffic between nodes over untrusted networks. However, traditional cryptographic implementations impose high computational costs and key management risks, which can result to problems in the centralized control plane of the SDN network. This research sets out by exploring the Programming Protocol-independent Packet Processors (P4) paradigm, and proposes the dh-aes-p4 as the first solution for exchanging DH keys with AES adapted tailored to P4-based SDN devices. Although there exist similar cases in the literature, this work distinguishes itself as a new, low-cost, granular (based on network flows) and transparent alternative.

8
  • RAMON WILLIAMS SIQUEIRA FONSECA
  • ELICITAÇÃO COLABORATIVA DE REQUISITOS: UM MÉTODO COM FOCO NO ENGAJAMENTO

  • Orientador : MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • MEMBROS DA BANCA :
  • ISABEL DILLMANN NUNES
  • LYRENE FERNANDES DA SILVA
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • MARILIA ARANHA FREIRE
  • Data: 05/05/2022

  • Mostrar Resumo
  •  

    A Engenharia de Requisitos é uma etapa fundamental e importante para alcançar o sucesso de um projeto, pois, além de fornecer meios de atingir metas impostas no projeto, ainda trabalha sua manutenção ao longo do tempo. A Engenharia de Requisitos trabalha em cima do entendimento e da percepção de contextos e particularidades únicas para interpretar as ações ao qual o problema está inserido. Por essa razão, a fase da elicitação de requisitos não pode ser vista apenas como um problema de dimensão tecnológica, uma vez que nesta atividade o contexto social é mais crítico do que na fase de especificação, projeto e programação. Nesse sentido, a comunicação entra como um fator importante a ser levado em consideração durante todo esse processo. Processos colaborativos objetivam tornar a comunicação mais eficiente, entretanto, estudos apontam limitações e dificuldades recorrentes em manter a comunicação clara, sem ambiguidades entre os integrantes da equipe durante o processo de ER. Considerando este problema é possível perceber que a partir da literatura a falta de engajamento dos envolvidos no processo de elicitação de requisitos afeta a comunicação e colaboração da equipe. Além disso, é observado que a Engenharia de Requisitos possui limitações em ferramentas e mecanismos para medir e controlar o nível de engajamento da equipe de software. Uma vez que o engajamento dos envolvidos não consegue ser gerenciado, ele não consegue ser medido. A partir dessa demanda, o objetivo deste trabalho é auxiliar a incorporar o engajamento dos envolvidos no processo de elicitação de requisitos colaborativos através de recursos presentes em ferramentas de gerenciamento de projetos. Para isso, um método de engajamento foi criado a fim de aumentar os níveis de motivação das partes interessadas durante a elicitação de requisitos. O método foi aplicado em duas fases em turmas do curso do Bacharelado em Tecnologia da Informação da Universidade Federal do Rio Grande do Norte, como resultado podemos observar que o método de engajamento auxiliou a orientar a discussão da elicitação de requisitos, otimizou a comunicação da equipe e a maioria dos alunos se sentiram engajados durante o processo de elicitação.

     


  • Mostrar Abstract
  • Requirements Engineering is a fundamental and important step to achieve the success of a project, because, in addition to providing means to achieve goals imposed in the project, it also works on its maintenance over time. Requirements Engineering works on the understanding and perception of unique contexts and particularities to interpret the actions to which the problem is inserted. For this reason, the requirements elicitation phase cannot be seen only as a technological problem, since in this activity the social context is more critical than in the specification, design and programming phase. In this sense, communication comes in as an important factor to be taken into account throughout this process. Collaborative processes aim to make communication more efficient, however, studies point to limitations and recurring difficulties in maintaining clear, unambiguous communication between team members during the RE process. Considering this problem, it is possible to perceive from the literature that the lack of engagement of those involved in the requirements elicitation process affects team communication and collaboration. In addition, it is observed that Requirements Engineering has limitations in tools and mechanisms to measure and control the level of engagement of the software team. Since stakeholder engagement cannot be managed, it cannot be measured. From this demand, the objective of this work is to help incorporate the engagement of those involved in the collaborative requirements elicitation process through resources present in project management tools. For this, an engagement method was created in order to increase stakeholder motivation levels during requirements elicitation. The method was applied in two phases in classes of the Bachelor's Degree in Information Technology at the Universidade Federal do Rio Grande do Norte, as a result we can observe that the engagement method helped to guide the discussion of requirements elicitation, optimized the team's communication and most students felt engaged during the elicitation process.

9
  • PAULO LEONARDO SOUZA BRIZOLARA
  • Heterogeneidade em Sistemas de Descoberta: Survey e Uma Solução Descentralizada para Descoberta Integrada

  • Orientador : LEONARDO CUNHA DE MIRANDA
  • MEMBROS DA BANCA :
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • JULIO CESAR DOS REIS
  • LEONARDO CUNHA DE MIRANDA
  • MONICA MAGALHAES PEREIRA
  • Data: 30/05/2022

  • Mostrar Resumo
  • Em sistemas distribuídos, o primeiro passo para estabelecer uma comunicação com um outro dispositivo é saber o seu endereço, isto é, localizá-lo. Para localizar serviços ou recursos de forma automatizada, sistemas de descoberta tem sido aplicados a ambientes e contextos de uso diversos, desde redes de sensores sem fio e sistemas peer-to-peer, até clusters de alto processamento e sistemas em nuvem. A grande diversidade entre os contextos de uso e necessidades das aplicações, tem levado ao desenvolvimento de protocolos de descoberta especializados, frequentemente incompatíveis entre si. Essa incompatibilidade impede a descoberta através de ambientes ou protocolos heterogêneos, restringindo os serviços acessíveis a determinado dispositivo. Para lidar com essas limitações, é preciso, portanto, prover soluções de descoberta que integrem ambientes e protocolos de descoberta heterogêneos. Isso requer, por sua vez, entender: em quais aspectos variam esses ambientes e protocolos e também quais os aspectos existem em comum entre eles. Para solucionar essa questão, este trabalho apresenta uma revisão de estudos secundários da literatura que tratam da descoberta de serviços e descoberta de recursos através de diferentes ambientes, i.e. um estudo terciário sobre o tema. Com base nesta revisão, foi desenvolvida uma solução para descoberta integrada de serviços através de ambientes e protocolos de descoberta heterogêneos. Uma prova de conceito dessa solução foi implementada, junto com dois mecanismos de descoberta: um voltado para a descoberta em redes locais e outro para descoberta descentralizada através da Internet. Para avaliar a viabilidade da solução e analisar como esses mecanismos interagem entre si, foi realizado um experimento controlado, em um ambiente de redes virtuais. Embora limitações e desafios ainda permaneçam, este trabalho pode contribuir para o entendimento dos sistemas de descoberta, no que tem de comum e nos seus pontos de variação, e avançar na direção de um “descoberta universal” de serviços, que permita a construção de novos gêneros de aplicações.


  • Mostrar Abstract
  • In distributed systems, the first step to establish communication with another device is to know its address, that is, to locate it. To locate services or resources automatically, discovery systems have been applied to diverse environments and usage contexts, from wireless sensor networks (WSNs) and peer-to-peer systems, to high processing clusters and cloud systems. The great diversity among usage contexts and application needs has led to the development of specialized discovery protocols, often incompatible with each other. This incompatibility prevents discovery across heterogeneous environments or protocols, restricting the services accessible to a given device. Therefore, to address these limitations, it is necessary to provide discovery solutions that integrate heterogeneous discovery environments and protocols. This in turn requires understanding: in which aspects these environments and protocols vary, and also what aspects they have in common. To address this issue, this paper presents a review of secondary studies from the literature which address service discovery and resource discovery across different environments, i.e. a tertiary study on the topic. Based on this review, a solution was developed to integrate the service discovery across heterogeneous discovery environments and protocols. A proof-of-concept of this solution was implemented, along with two discovery mechanisms: one to local service discovery and the other to decentralized discovery over the Internet. To evaluate the feasibility of the solution and analyze how these mechanisms interact with each other, a controlled experiment was conducted in a virtual network environment. Despite limitations and challenges that still remain, this research can contribute to the understanding of discovery systems, in what they have in common and in their points of variation, and move towards the “universal discovery” of services, which may allows the construction of new kinds of applications.

10
  • EDIR LUCAS DA SILVA ICETY BRAGA
  • Um Catálogo sobre Requisitos de Colaboração

  • Orientador : LYRENE FERNANDES DA SILVA
  • MEMBROS DA BANCA :
  • LYRENE FERNANDES DA SILVA
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • ISABEL DILLMANN NUNES
  • MARIA LENCASTRE PINHEIRO DE MENEZES E CRUZ
  • Data: 13/07/2022

  • Mostrar Resumo
  • Cada vez mais processos de negócio são apoiados por ferramentas de software e muitos deles necessitam de serviços que facilitem a colaboração entre as pessoas envolvidas. Colaboração é um termo amplo, um tanto subjetivo, definido pela participação e contribuição de diversas pessoas e sugerindo comprometimento delas para executar processos. Assim, a colaboração (colaborativo) pode ser entendida como um atributo de qualidade (ou RNF), que pode ser interpretado, aplicado e implementado de formas diferentes por tais ferramentas colaborativas. No entanto, quais são os requisitos de software para apoiar processos colaborativos? Para ajudar engenheiros de requisitos na elicitação e validação de requisitos de colaboração, esta dissertação tem o objetivo de desenvolver um catálogo sobre aspectos de colaboração (e seus requisitos). Esse catálogo é uma fonte de informação que organiza e mapeia 43 itens sobre colaboração. A construção do catálogo foi baseada em trabalhos da literatura que abordam aspectos de colaboração a partir de perspectivas diferentes. O catálogo foi avaliado por meio de um questionário, no qual analisou-se a utilidade e o nível de compreensão de seus itens.


  • Mostrar Abstract
  • To be defined

11
  • JAKELINE BANDEIRA DE OLIVEIRA
  • ESTUDO SOBRE O SUPORTE TECNOLÓGICO PARA EDIÇÃO DE ÁUDIO NA PRODUÇÃO AUDIOVISUAL PARA MÍDIAS SOCIAIS DIGITAIS POR NÃO ESPECIALISTAS

  • Orientador : FERNANDO MARQUES FIGUEIRA FILHO
  • MEMBROS DA BANCA :
  • BRUNO SANTANA DA SILVA
  • FERNANDO MARQUES FIGUEIRA FILHO
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • TICIANNE DE GOIS RIBEIRO DARIN
  • Data: 26/07/2022

  • Mostrar Resumo
  • Uma maior disponibilidade de dispositivos digitais, como smartphones, e conexão com a internet associada à necessidade humana de comunicação têm favorecido um aumento significativo no consumo e na produção de conteúdos audiovisuais na/para as mídias sociais digitais. Se nas mídias tradicionais a produção de conteúdo estava sob responsabilidade de profissionais especialistas, nas mídias sociais digitais a atuação de produtores não especialistas (pessoas sem formação e experiência específica) passou a ganhar espaço. Entretanto, a atuação deste novo público no processo de produção audiovisual ainda é pouco conhecida. Assim, este trabalho tem por objetivos (1) investigar o processo de produção de conteúdos audiovisuais por produtores não especialistas para seus próprios canais no YouTube e Instagram; e (2) avaliar se e como a usabilidade do software de edição de áudio Audacity pode estar atrapalhando o processo de produção audiovisual por não especialistas. Três estudos foram realizados para atingir esses objetivos. O Estudo I foi uma entrevista semiestruturada com produtores não especialistas sobre seus processos de produção de conteúdos para seus canais no YouTube e no Instagram. O Estudo II foi um questionário (survey) sobre as demandas de produtores de conteúdo para mídias sociais digitais, em especial aquelas relacionadas com dificuldades na edição de vídeos e áudios. O Estudo III avaliou a usabilidade do software Audacity com um teste de usabilidade e o questionário SUS a partir da observação de tarefas de edição de volume, corte, ruído e distorção em áudio. Como principais resultados, identificou-se que produtores não especialistas costumam se envolver em várias atividades do processo de produção de conteúdo para as mídias sociais digitais, em particular na edição do foi gravado. Alguns deles, no entanto, relaram evitar editar o conteúdo gravado. Dentre as várias demandas relatadas, produtores de conteúdo afirmaram enfrentar mais dificuldades para editar áudios do que vídeos. Ao avaliar a interface do Audacity, identificou-se que problemas de usabilidade podem sim estar relacionados com as dificuldades de edição relatadas pelos produtores de conteúdo. Deste modo, ficou claro que existem oportunidades de melhoria na interface do Audacity para apoiar adequadamente produtores de conteúdo não especialistas para as mídias sociais digitais.


  • Mostrar Abstract
  • A greater availability of digital devices, such as smartphones, and of internet connection associated with human need for communication have favored a significant increase in consumption and production of audiovisual content in/for digital social media. If in traditional media the content production was under the responsibility of specialist professionals, in digital social media the performance of non-specialist producers (people without specific training and experience) began to gain space. However, this new audience performance in the audiovisual production process is still little known. Thus, this work aims to (1) investigate the process of production of audiovisual content by non-specialist producers for their own channels on YouTube and Instagram; and (2) to assess whether and how usability of the Audacity audio editing software may be hindering the audiovisual production process by non-experts. Three studies were carried out to achieve these goals. Study I was a semi-structured interview with non-specialist producers about their content production processes for their YouTube and Instagram channels. Study II was a questionnaire (survey) on the demands of content producers for digital social media, particularly those related to difficulties in editing videos and audios. Study III evaluated usability of the Audacity software with a usability test and the SUS questionnaire from the observation of volume, cutting, noise and distortion editing tasks in audio. As main results, it was identified that non-specialist producers tend to get involved in various activities of the content production process for digital social media, in particular in the edition of what was recorded. Some of them, however, reported avoiding editing recorded content. Among the various demands reported, content producers claimed to face more difficulties in editing audio than videos. When evaluating Audacity's interface, it was identified that usability problems may indeed be related to editing difficulties reported by content producers. Thus, it became clear that there are opportunities for improvement in the Audacity interface to adequately support non-specialist content producers for digital social media.

12
  • LUCIANO ALEXANDRE DE FARIAS SILVA
  • GERAÇÃO AUTOMÁTICA DE HARDWARE CONCORRENTE VERIFICADO

  • Orientador : MARCEL VINICIUS MEDEIROS OLIVEIRA
  • MEMBROS DA BANCA :
  • JULIANO MANABU LYODA
  • MARCEL VINICIUS MEDEIROS OLIVEIRA
  • MONICA MAGALHAES PEREIRA
  • Data: 26/07/2022

  • Mostrar Resumo
  • A complexidade de desenvolvimento e análise é inerente a sistemas de modo geral, principalmente a sistemas concorrentes. Quando trabalhamos com sistemas críticos isso se torna bem mais evidente, pois uma inconsistência geralmente está associado a um alto custo. Assim, o quanto antes conseguimos identificar uma inconsistência no projeto de um sistema e removê-la, menor será seu custo. Por este motivo, é comum a utilização das mais variadas estratégias para diminuir a dificuldade e os problemas enfrentados neste processo. Uma dessas estratégias é a utilização de métodos formais, que podem utilizar álgebra de processos para especificação e análise de sistemas concorrentes, melhorando a compreensão do projeto e  possibilitando a identificação de possíveis inconsistências ainda nas etapas iniciais do projeto,  garantindo a precisão e correção do sistema especificado. Este trabalho apresenta uma ferramenta para tradução automática dos principais operadores da álgebra de processo csp para a linguagem de descrição de hardware vhdl. csp é uma linguagem que nos permite realizar uma descrição formal de um sistema concorrente. vhdl é uma linguagem de descrição de hardware que pode ser compilado em uma placa de fpga. Nossa ferramenta para geração automática de harware é validada por um estudo de caso de um sistema inteligente para controle de elevadores. Apresentamos sua especificação formal em csp e em seguida sua tradução para um código vhdl, gerado pela nossa ferramenta, o qual sintetizamos em uma placa de fpga.


  • Mostrar Abstract
  • The complexity of development and analysis is inherent to systems in general, especially to concurrent systems. When we work with critical systems this becomes much more evident, as an inconsistency is usually associated with a high cost. Thus, the sooner we can identify an inconsistency in the design of a system and remove it, the lower its cost. For this reason, it is common to use the most varied strategies to reduce the difficulty and problems faced in this process. One of these strategies is the use of formal methods, which can use process algebra to specify and analyze competing systems, improving the understanding of the project and enabling the identification of possible inconsistencies even in the initial stages of the project, ensuring the accuracy and correction of the system. specified. This work presents a tool for automatic translation of the main operators of the Communicating Sequential Processes (csp) process algebra into the hardware description language vhsic hardware description language (vhdl). csp is a language that allows us to perform a formal description of a concurrent system. vhdl is a hardware description language that can be compiled on a Field Programmable Gate Arrays (FPGA) board. Our automatic hardware generation tool is validated by a case study of an intelligent elevator control system. We present its formal specification in csp and then its translation into a vhdl.

13
  • LAVINIA MEDEIROS MIRANDA
  • LLVM-ACT: Uma ferramenta baseada em profiling para seleção de técnica de computação aproximada

  • Orientador : MONICA MAGALHAES PEREIRA
  • MEMBROS DA BANCA :
  • IVAN SARAIVA SILVA
  • JORGIANO MARCIO BRUNO VIDAL
  • MARCIO EDUARDO KREUTZ
  • MONICA MAGALHAES PEREIRA
  • SILVIO ROBERTO FERNANDES DE ARAUJO
  • Data: 29/07/2022

  • Mostrar Resumo
  • Computação Aproximada é atualmente um paradigma em ascensão que busca substituir um pouco de acurácia de dados por aspectos como performance e eficiência energética. Em nível computacional de software, existem ferramentas dentro desse escopo que aplicam algumas técnicas de computação aproximada. No entanto, essas ferramentas são limitadas de forma que abrangem somente algum escopo específico, aplicam apenas uma das técnicas conhecidas e/ou precisam de anotações manuais nas aplicações para funcionarem. O estado da arte atual ainda possui questionamentos, como a existência ou não de uma relação entre as características da aplicação estudada e a escolha da técnica utilizada para sua exploração; permanece em aberto também qual seria a técnica mais adequada a cada determinado contexto. Dessa forma, essa dissertação propõe a implementação de uma ferramenta que, de acordo com as características das aplicações, escolha a técnica de computação aproximada mais adequada a ser aplicada naquele contexto. A ferramenta desenvolvida utiliza a infraestrutura de compilação do LLVM, onde cada etapa é implementada na forma de um LLVM Pass de análise ou transformação de código. Além do Profiler, foram implementadas três técnicas de computação aproximada e os resultados obtidos mostram que a técnica escolhida pela ferramenta apresenta uma relação equilibrada de custo-benefício se forem considerados os parâmetros de taxas de erro e aceleração.


  • Mostrar Abstract
  • Approximate Computing is currently an emerging paradigm that seeks to replace some data accuracy with aspects such as performance and energy efficiency. At the software level, there are tools within this scope that apply some approximate computation techniques. However, these tools are limited in covering only some specific scope, applying only one of the techniques, and/or needing manual annotations on applications. The current state of the art still has open questions, such as wether application features influentiates the technique's choice; what would be the most appropriate technique for each particular context. Thus, this dissertation proposes the implementation of a tool that, according to the application profiling, chooses the most appropriate approximate computing technique to be applied. The tool uses the LLVM compilation infrastructure, where each step is implemented in the form of an LLVM Pass of code analysis or transformation. In addition to the Profiler, it was also implemented three approximate computing techniques and the experimental results show the technique chosen by the tool presents a balance between error rate and speedup.

14
  • MARCELO MAGALHÃES DRUMMOND DIAS
  • Ética nos Sistemas MultiAgente Autônomos

  • Orientador : ANNE MAGALY DE PAULA CANUTO
  • MEMBROS DA BANCA :
  • ANDRÉ CARLOS PONCE DE LEON FERREIRA DE CARVALHO
  • ANNE MAGALY DE PAULA CANUTO
  • BRUNO MOTTA DE CARVALHO
  • FLAVIUS DA LUZ E GORGONIO
  • Data: 09/09/2022

  • Mostrar Resumo
  • No atual momento da humanidade trabalhar para ter ética em Sistemas Multiagente
    Autônomos tornou-se obrigatório dada a evolução dessa tecnologia nos últimos anos. Os
    humanos enganam-se desde que a espécie começou, nos levando a perguntar se isso já é
    replicado pelos sistemas computacionais, se é possível detectar a mentira da máquina, se elas
    cometem fraude e como identificar essa atitude.
    Essa pesquisa foca na criação do agente Severus com o objetivo de utilizar a Inteligência
    Artificial (IA) para fiscalizar a IA. Um agente que faça em sua programação uma grande
    cooperação e colaboração da ética considerada em ciências exatas com todas as abordagens
    das ciências humanas-sociais e que tenha na implantação e implementação uma evidente
    abordagem bottom-up. Um trabalho pensado para verificar o nível ideal de autonomia dos
    agentes nos sistemas observando essencialmente o respeito aos direitos humanos, o bem
    público como primordial e a utilização da inteligência compartilhada a serviço do
    aperfeiçoamento da boa convivência. Para atingir esse objetivo, os agentes trabalham sob o
    comando humano, destacadamente tendo no Engenheiro de Requisitos o responsável pelo
    controle ético dos sistemas na sua grande função de negociar o equilíbrio possível com os
    stakeholders.
    Falando numa linguagem simples, em direção aqueles que trabalham, vivem e amam em
    sociedades das mais diversas, o primordial da ética nessa nova era pós-humana é considerar
    que a IA será pilar fundamental para definir se a humanidade terá futuro. Essa pesquisa
    conclui que para dar certo e termos boa ética em Sistemas Multiagente, devemos ter
    participação ativa em todas as decisões, aprender e respeitar a psicologia da nova diversidade
    em equipes de humanos e máquinas e contribuir para a formação de líderes habilidosos que
    conduzam uma IA de fato cooperativa e trabalhando a serviço da humanidade. Essa
    conclusão será sempre dinâmica, pois os agentes apresentam grandes diferenças de
    comportamento nos diversos ambientes, sendo necessário um efetivo trabalho do Engenheiro
    de Requisitos ao adequar a matriz de resultados das equipes para uma boa opção na estratégia
    dominante evitando as ameaças que essa nova era de engenhos tecnológicos representa.


  • Mostrar Abstract
  • In the current moment of humanity, working to have ethics in Autonomous Multi-Agent
    Systems has become mandatory given the evolution of this technology in recent years.
    Humans have been deceiving themselves since the species began, leading us to ask if this is
    already replicated by computer systems, if it is possible to detect the machine's lie, if they
    commit deception and how to identify this attitude.
    This research focuses on the creation of the Severus agent with the aim of using Artificial
    Intelligence (AI) to supervise AI. An agent that makes in its programming a great cooperation
    and collaboration of the ethics considered in exact sciences with all the approaches of the
    humanities-social sciences and that has in the implantation and implementation an evident
    bottom-up approach. A work designed to adjust the level of autonomy of agents in the system,
    essentially observing respect for human rights, the public good as paramount and the use of
    shared intelligence in the service of improving good coexistence. In this sense, the agents
    work under human command, notably having the Requirements Engineer responsible for the
    ethical control of the systems in his great function of negotiating the possible balance with
    the stakeholders.
    Speaking in simple language, towards those who work, live and love in the most diverse
    societies, the primordial of ethics in this new post-human era is to consider that AI will be a
    fundamental pillar to define if humanity will have a future. This research concludes that to
    succeed and to have good ethics in Multi-Agent Systems, we must have an active
    participation in all decisions, learn and respect the psychology of the new diversity in teams
    of humans and machines and contribute to the formation of skilled leaders who lead an AI
    indeed cooperative and working in the service of humanity. This conclusion will always be
    dynamic, as the agents present great differences in behavior in the different environments,
    being necessary an effective work of the Requirements Engineer to adapt the matrix of results
    of the teams for a good option in the dominant strategy avoiding the threats that this new era
    of technological gadgets represents.

15
  • JAINE RANNOW BUDKE
  • Face Biometrics for Differentiating Typical Development and Autism Spectrum Disorder: a methodology for collecting and evaluating
    a dataset

  • Orientador : MARJORY CRISTIANY DA COSTA ABREU
  • MEMBROS DA BANCA :
  • BRUNO MOTTA DE CARVALHO
  • MARJORY CRISTIANY DA COSTA ABREU
  • PLACIDO ANTONIO DE SOUZA NETO
  • Data: 16/09/2022

  • Mostrar Resumo
  • Autism spectrum disorder (ASD) is a neuro-developmental disability marked by deficits in communicating and interacting with others. The standard
    protocol for diagnosis is based on fulfillment of a descriptive criteria, which
    does not establish precise measures and influence the late diagnosis. Thus,
    new diagnostic approaches should be explored in order to better standardise
    practices. The best case scenario would be to have a reliable automated
    system that indicates the diagnosis with an acceptable level of assurance.
    At the moment, there are no publicly available representative open-source
    datasets with the main aim of this diagnosis. This work proposes a new methodology for collecting a Face Biometrics dataset with the aim to investigate the differences in facial expressions of ASD and Typical Developmental (TD) people. Thus, a new dataset of facial images was collected from YouTube videos, and computer vision-based techniques were used to extract image frames and filter the dataset. We have also performed initial experiments using classical supervised learning models as well as ensembles and managed to archive promising results.


  • Mostrar Abstract
  • Autism spectrum disorder (ASD) is a neuro-developmental disability marked by deficits in communicating and interacting with others. The standard
    protocol for diagnosis is based on fulfillment of a descriptive criteria, which
    does not establish precise measures and influence the late diagnosis. Thus,
    new diagnostic approaches should be explored in order to better standardise
    practices. The best case scenario would be to have a reliable automated
    system that indicates the diagnosis with an acceptable level of assurance.
    At the moment, there are no publicly available representative open-source
    datasets with the main aim of this diagnosis. This work proposes a new methodology for collecting a Face Biometrics dataset with the aim to investigate the differences in facial expressions of ASD and Typical Developmental (TD) people. Thus, a new dataset of facial images was collected from YouTube videos, and computer vision-based techniques were used to extract image frames and filter the dataset. We have also performed initial experiments using classical supervised learning models as well as ensembles and managed to archive promising results.

16
  • ELTONI ALVES GUIMARÃES
  • Um Estudo para Identificar e Classificar Ambiguidades em Historias de Usuário usando Aprendizagem de Máquina

  • Orientador : MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • MEMBROS DA BANCA :
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • IVANOVITCH MEDEIROS DANTAS DA SILVA
  • RICARDO ARGENTON RAMOS
  • Data: 29/09/2022

  • Mostrar Resumo
  • Ambiguidade na escrita de requisitos é um dos defeitos mais encontrados nos documentos de requisitos. Existe uma variedade de conceitos sobre o que é ambiguidade em requisitos e para identificar os tipos de ambiguidade deve-se entender melhor cada conceito. A ambiguidade pode comprometer a qualidade das Histórias de Usuário e pode estar presente em requisitos escritos em linguagem natural. Na literatura, há poucos estudos que investigam o potencial dos algoritmos de Aprendizagem de Máquina para classificar ambiguidade em Histórias de Usuários. Esta dissertação tem como objetivo identificar e classificar ambiguidade em Histórias de Usuários através do uso de algoritmos de Aprendizado de Máquina. Dessa forma, foi elaborado um formulário baseado da literatura para ajudar na identificação da ambiguidades nas Histórias de Usuário e foi usada uma abordagem de Aprendizagem de Máquina utilizando dois algoritmos: (i) Support Vector Machine ; (ii) Random Forest. Para o estudo foram utilizadas 1.002 Histórias de Usuário e aplicadas técnicas (oversampling e undersampling) para balancear os dados desbalanceados, pois notou-se o desbalanceamento dos dados. Como resultados o tipo de ambiguidade mais identificado nas Histórias de Usuário foi adjetivos e advérbios ambíguos e o algoritmo que obteve o modelo de melhor desempenho ao classificar as Histórias de Usuário foi Random Forest.


  • Mostrar Abstract
  • Ambiguity in requirements writing is one of the most common defects found in requirements documents. There are a variety of concepts about what is ambiguity in requirements and to identify ambiguity one must better understand each concept. Ambiguity can compromise the quality of User Stories and can be present in requirements written in natural language. In the literature, there are few studies that investigate the potential of Machine Learning algorithms to classify ambiguity in User Stories. This dissertation aims to propose an approach to identify and classify ambiguity in User Stories through the use of Machine Learning algorithms. Thus, a checklist was developed to help in the identification of ambiguities in User Stories and a Machine Learning approach will be used using two algorithms: (i) Support Vector Machine; (ii) Random Forest. Each model generated by the algorithm will be evaluated and compared.


17
  • JOÃO VICTOR LOPES DA SILVA
  • Abordagem Orientada a Aspectos para o Monitoramento de Plataformas para Cidades
    Inteligentes

  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • THAIS VASCONCELOS BATISTA
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • FREDERICO ARAUJO DA SILVA LOPES
  • ROSSANA MARIA DE CASTRO ANDRADE
  • Data: 26/10/2022

  • Mostrar Resumo
  • As plataformas para desenvolvimento de aplicações de cidades inteligentes são responsáveis por fornecer diversos serviços para facilitar o desenvolvimento de aplicações. Tipicamente tais plataformas gerenciam uma diversidade de aplicações, tratam com grande volume de dados e atendem a um expressivo número de usuários que geram um alto volume de requisições. A grande quantidade de requisições muitas vezes ocasiona sobrecarga na plataforma, degradando a qualidade do serviço provida para os usuários. Além disso, como plataformas de cidades inteligentes processam solicitações de operações em grandes volumes de dados geográficos, é importante monitorar os bancos de dados para verificar se há alguma limitação para o processamento de grandes quantidades de dados em um tempo aceitável. Portanto, nesse contexto, é necessário monitorar a infraestrutura computacional subjacente sobre a qual plataformas para cidades inteligentes e aplicações estão implantadas, bem como monitorar as operações referentes aos acessos aos dados geográficos armazenados nos bancos de dados usados pelas plataformas. Visando tratar esse problema, o objetivo deste trabalho é propor e implementar uma estratégia não invasiva para possibilitar o monitoramento de plataformas para cidades inteligentes, incluindo o monitoramento da infraestrutura subjacente, bem como as operações direcionadas aos bancos de dados. A estratégia proposta apoia-se no paradigma de programação orientada a aspectos para que seja possível monitorar a infraestrutura computacional sem a necessidade de intervir sobre a implementação da plataforma ou gerar acoplamento com relação ao monitoramento. Este trabalho também apresenta a implementação da estratégia e sua instância no monitoramento da plataforma Smart Geo Layers (SGeoL), bem como uma avaliação da estratégia de monitoramento proposta.



  • Mostrar Abstract
  • Platforms for developing smart cities applications are responsible for providing various services to facilitate application development. Typically, such platforms manage a variety of applications, handle a large volume of data and serve a significant number of users that generate a high volume of requests. The large amount of requests often causes overload on the platform, degrading the quality of service provided to users. Also, as smart city platforms process requests for operations on large volumes of geographic data, it is important to monitor the databases to see if there are any limitations to processing large amounts of data in an acceptable time. Therefore, in this context, it is necessary to monitor the underlying computational infrastructure on which platforms for smart cities and applications are deployed, as well as monitor operations regarding access to geographic data stored in the databases used by the platforms. Aiming to address this problem, the objective of this work is to propose and implement a non-invasive strategy to enable the monitoring of platforms for smart cities, including the monitoring of the underlying infrastructure, as well as the operations directed to the databases. The proposed strategy is based on the aspect-oriented programming paradigm so that it is possible to monitor the computational infrastructure without the need to intervene on the implementation of the platform or generate coupling with respect to monitoring. This work also presents the implementation of the strategy and its instance in the monitoring of the Smart Geo Layers (SGeoL) platform, as well as an evaluation of the proposed monitoring strategy.

18
  • GABRIEL ARAÚJO DE SOUZA
  • Usando técnicas de federated learning para aprimorar modelos de inteligência artificial no contexto das Instituições Públicas Brasileiras

  • Orientador : NELIO ALESSANDRO AZEVEDO CACHO
  • MEMBROS DA BANCA :
  • ALLAN DE MEDEIROS MARTINS
  • DANIEL SABINO AMORIM DE ARAUJO
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • NELIO ALESSANDRO AZEVEDO CACHO
  • PEDRO MESQUITA MOURA
  • Data: 20/12/2022

  • Mostrar Resumo
  • O uso de modelos de inteligência artificial tem se tornado frequente em diversas áreas do conhecimento para resolver diferentes problemas eficientemente. Diante disso, diversas Instituições Públicas Brasileiras têm investido em soluções de IA para melhorar a qualidade e otimizar seus serviços. Contudo, essas instituições, principalmente as de segurança, utilizam dados muito sensíveis nessas soluções. Dessa forma, seu uso acaba sendo muito burocrático, principalmente para respeitar todas as exigências da Lei Geral de Proteção de Dados. Além disso, cada instituição explora um cenário limitado de exemplos que torna os modelos de IA enviesados. O compartilhamento de dados entre instituições poderia proporcionar a criação de datasets mais generalistas com uma melhor capacidade de criar modelos mais robustos. No entanto, devido a natureza dos dados, esse tipo de ação é em muitos casos inviável. Diante desse cenário, federated learning tem ganhado espaço na literatura recente como uma forma de possibilitar o compartilhamento de modelos de IA de forma segura. Nessa técnica, ao invés de compartilhar dados, apenas os modelos já treinados são agregados em um servidor para gerar um novo modelo. Com isso é possível tranferir o conhecimento de vários modelos para criar uma versão aprimorada deles. Diante disso, este trabalho propõe o uso do federated learning para criar um ambiente seguro para o compartilhamento de modelos de IA entre as Intituições Públicas Brasileiras. Além disso, o trabalho também propõe o experimento de diferentes técnicas presentes na literatura para identificar os melhores algoritmos de federated para se utilizar no cenário estudado.


  • Mostrar Abstract
  • The use of artificial intelligence models has become frequent in several areas of knowledge to resolve different problems efficiently. Due to this, many Brazilian Public Institutions have invested in AI solutions to improve and optimize their services. However, these institutions, mainly public safety organizations, use sensitive privacy data in their solutions. Thus, the use of this data is bureaucratic, primarily to respect all General Data Protection Law requirements. Furthermore, each institution explores a limited examples scenario which makes the AI models biased. The data sharing between institutions could provide the creation of general datasets with a better capacity to create more robust models. However, due to the nature of the data, this type of action is, in many cases, unfeasible. Thus, federated learning has gained space in the recent literature to enable the sharing of AI models safely. In this technique, instead of sharing data, only the models already trained are aggregated on a server to provide a new model. With this, it is possible to transfer knowledge from various models to create an improved version of them. Therefore, this work proposes using federated learning to create a safe environment for sharing AI models among Brazilian Public Institutions. In addition, the work proposes the experiment with different techniques present in the literature to identify the best federated algorithm used in this studied scenario.

19
  • SAMUEL LUCAS DE MOURA FERINO
  • Unveiling the Teaching Methods Adopted in DevOps Courses

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • UIRA KULESZA
  • VINICIUS CARDOSO GARCIA
  • Data: 22/12/2022

  • Mostrar Resumo
  • DevOps emerges as a set of practices that deal with conflicts between the development and operation teams. It aims to ensure the development and delivery of high-quality software releases. Knowledge of these practices is essential to software engineers in the industry. In this context, DevOps education assumes the vital task of preparing new professionals in these practices using appropriate teaching methods. Existing research work shows that teaching methods are helpful to educators in developing and improving their DevOps courses. However, there is a reduced number of studies investigating teaching methods in DevOps Education. In this dissertation, we perform two empirical studies to understand the teaching methods used in DevOps Education. In the first study, we investigate the teaching methods reported in the literature. In the second study, we analyze teaching methods from interviews with educators from existing DevOps courses. Our main aim is to help DevOps educators to improve the selection of teaching methods for their courses. As a result of the studies, we present a comprehensive set of 23 teaching methods, including traditional teaching methods such as \textsf{lectures} and unusual teaching methods such as \textsf{studio-based learning}. \textsf{Project-based learning} and \textsf{collaborative learning} stand as the most recurrent in both studies. Many of these teaching methods require strong interaction between educators and students. We also present association links between the reported teaching methods and DevOps teaching challenges. Those association links can help educators to select teaching methods based on specific challenges to be addressed. 


  • Mostrar Abstract
  • DevOps consiste em um conjunto de práticas que ajudam a lidar com conflitos entre as equipes de desenvolvimento e operação e busca garantir liberações de versões de software que sejam rápidas e confiáveis. O entendimento dessas práticas é essencial para a atuação de engenheiros de software na indústria. Neste sentido, a educação DevOps assume a tarefa vital de preparar os novos profissionais, através do ensino dessas práticas utilizando métodos de ensino adequados. O trabalho de pesquisa existente mostra que os métodos de ensino são úteis para os educadores desenvolverem e melhorarem seus cursos de DevOps. No entanto, há um número insuficiente de estudos investigando métodos de ensino na educação em DevOps. Nesta dissertação, realizamos dois estudos empíricos buscando compreender os métodos de ensino utilizados na educação em DevOps. No primeiro estudo, investigamos os métodos de ensino disponíveis na literatura. No segundo estudo, analisamos os métodos de ensino aplicados a partir de entrevistas com educadores do DevOps de cursos DevOps existentes. O objetivo do nosso trabalho é orientar novos educadores de DevOps a alcançar uma melhor experiência de ensino. Como resultado dos estudos, apresentamos um conjunto abrangente de 23 métodos de ensino, incluindo métodos de ensino tradicionais (aulas formais) bem como métodos de ensino menos usuais, tais como, aprendizado baseado em estúdio. Aprendizagem baseada em projetos e aprendizagem colaborativa foram os métodos de ensino mais recorrentes encontrados em ambos os estudos. A maioria destes métodos de ensino requerem uma maior interação entre educadores e alunos. Apresentamos também vinculações entre os métodos de ensino e os desafios. Estabelecemos tais vinculações durante o estudo I com base numa análise de estudos empíricos sobre métodos de ensino, enquanto as vinculações do estudo II vieram de uma análise de um estudo relacionado. Tais vinculações podem ajudar os educadores na seleção dos métodos de ensino do curso, onde o educador pode escolher os métodos que lidam com os desafios do seu contexto de ensino.

Teses
1
  • GABRIEL ALVES VASILJEVIC MENDES
  • Model, Taxonomy and Methodology for Research Employing Electroencephalography-based Brain-Computer Interface Games

  • Orientador : LEONARDO CUNHA DE MIRANDA
  • MEMBROS DA BANCA :
  • LEONARDO CUNHA DE MIRANDA
  • BRUNO MOTTA DE CARVALHO
  • SELAN RODRIGUES DOS SANTOS
  • FABRICIO LIMA BRASIL
  • MARIA CECILIA CALANI BARANAUSKAS
  • Data: 31/01/2022

  • Mostrar Resumo
  • The rapid expansion of Brain-Computer Interface (BCI) technology, aligned with the advancements on the fields of Physiological Computing (PC), Human-Computer Interaction (HCI) and Machine Learning (ML), allowed for the recent development of applications outside of clinical environments, such as education, arts and games. Games controlled by electroencephalography (EEG), a specific case of BCI technology, benefit from both the fields of BCI and games, since they can be played by virtually any person regardless of physical condition, can be applied in numerous contexts, and are ludic by nature. Despite these recent advancements, there is still no solid theoretical foundation to aggregate the terminology and methods of these fields, since current models and classification schemes can represent characteristics of either BCI systems or games, but not both. In this sense, this work presents a general model for representing EEG-based BCI games; a taxonomy for classifying primary studies of the field; and a methodology for conducting scientific studies using those games. The proposed model is intended to help researchers describe, compare and develop new EEG-controlled games by instantiating its components using concepts from the fields of BCI and games. The CoDIS taxonomy was constructed based on an expanded version of this model, which considers four aspects of EEG-controlled games: concept, design, implementation and study, each with different dimensions to represent a variety of characteristics of such systems. Based on both the model and the taxonomy, and guided by the principles of empirical research, the PIERSE methodology was developed for the planning, implementation, execution and reporting of scientific experiments that employ EEG-based BCI games.


  • Mostrar Abstract
  • The rapid expansion of Brain-Computer Interface (BCI) technology, aligned with the advancements on the fields of Physiological Computing (PC), Human-Computer Interaction (HCI) and Machine Learning (ML), allowed for the recent development of applications outside of clinical environments, such as education, arts and games. Games controlled by electroencephalography (EEG), a specific case of BCI technology, benefit from both the fields of BCI and games, since they can be played by virtually any person regardless of physical condition, can be applied in numerous contexts, and are ludic by nature. Despite these recent advancements, there is still no solid theoretical foundation to aggregate the terminology and methods of these fields, since current models and classification schemes can represent characteristics of either BCI systems or games, but not both. In this sense, this work presents a general model for representing EEG-based BCI games; a taxonomy for classifying primary studies of the field; and a methodology for conducting scientific studies using those games. The proposed model is intended to help researchers describe, compare and develop new EEG-controlled games by instantiating its components using concepts from the fields of BCI and games. The CoDIS taxonomy was constructed based on an expanded version of this model, which considers four aspects of EEG-controlled games: concept, design, implementation and study, each with different dimensions to represent a variety of characteristics of such systems. Based on both the model and the taxonomy, and guided by the principles of empirical research, the PIERSE methodology was developed for the planning, implementation, execution and reporting of scientific experiments that employ EEG-based BCI games.

2
  • THIAGO NASCIMENTO DA SILVA
  • Semânticas algébricas e cálculos para lógicas de Nelson

  • Orientador : JOAO MARCOS DE ALMEIDA
  • MEMBROS DA BANCA :
  • FEY LIANG
  • TOMMASO FLAMINIO
  • MANUELA BUSANICHE
  • JOAO MARCOS DE ALMEIDA
  • UMBERTO RIVIECCIO
  • Data: 18/02/2022

  • Mostrar Resumo
  • O objetivo desta tese é estudar uma família de lógicas, composta por lógica de Nelson S, lógica construtiva com negação forte N3, lógica de quasi-Nelson QN e lógica de quasi-Nelson implicativa QNI. Isto é feito de duas maneiras. A primeira é por meio de uma axiomatização via um cálculo de Hilbert e a segunda é por meio de um estudo de algumas propriedades da correspondente quase variedade de álgebras. A principal contribuição desta tese é demonstrar que essas lógicas se encaixam dentro da teoria das lógicas algebrizáveis. Fazendo uso dessa teoria, os seguintes resultados são demonstrados. No que diz respeito à S, nós introduzimos a primeira semântica algébrica para ela, axiomatizamo-la por meio de um cálculo de Hilbert contendo um número finito de axiomas, e também encontramos uma versão do teorema da dedução para ela. Em relação às lógicas QN e QNI, nós demonstramos que ambas são algebrizáveis com respeito à quasi-variedade de álgebras de quasi-Nelson e à variedade de álgebras de quasi-Nelson implicativas, respectivamente; demonstramos que não são auto-extensionais; mostramos como a partir delas podemos obter outras lógicas conhecidas e bem estudadas usando extensões axiomáticas, tal como o {->, ~}-fragmento da lógica intuicionista, o {->, ~}-fragmento da lógica construtiva de Nelson com negação forte e a lógica clássica, e também explicitamos o termo quaternário que garante a existência de uma versão do teorema da dedução para QN e QNI. Com respeito à N3, nós estudamos o papel da identidade de Nelson ((φ -> (φ -> ψ))∧(~ ψ -> (~ ψ -> φ)) = φ -> ψ) em estabelecer propriedades sobre a ordem do reticulado de sua semântica algébrica. Além disso, nós estudamos os ⟨^, v, ~, ¬, 0, 1⟩-subredutos das álgebras de quasi-Nelson e fazendo uso de sua representação twist, nós demonstramos que essa correspondência entre objetos pode ser caracterizada como uma equivalência categorial. Por último, vale notar que como QNI é o {->, ~}-fragmento de QN, alguns resultados que dizem respeito à QNI são facilmente estendíveis à QN.


  • Mostrar Abstract
  • The aim of this thesis is to study a family of logics, comprised of Nelson’s logic S, constructive logic with strong negation N3, quasi-Nelson logic QN and quasi-Nelson implicative logic QNI. This is done in two ways. The first is by means of an axiomatisation via a Hilbert Calculus and the second is by studying some of the properties of the corresponding quasi-variety of algebras. The main contribution of the thesis is to prove that these logics fit within the theory of algebraisable logics. Making use of this result, the following are also proven. Regarding S, we introduced its first semantics, axiomatised by means of a finite Hilbert-style calculus, as well as established a version of the deduction theorem for it. Regarding QN and QNI, we showed that both are algebraisable with respect to the class of quasi-Nelson algebras and quasi-Nelson implication algebras, respectively; we showed that they are non-self-extensional; we showed how to obtain from them, by axiomatic extensions, other well-known logics, such as the {->, ~}-fragment of intuitionistic propositional logic, the {->, ~}-fragment of Nelson’s constructive logic with strong negation and the classical logic; and finally, we made explicit the quaternary term that guarantees that both QN and QNI satisfy the deduction theorem. Regarding N3, we study the role of the Nelson identity ((φ -> (φ -> ψ))∧(~ ψ -> (~ ψ -> φ)) = φ -> ψ) in establishing order-theoretic properties for its algebraic semantics. Moreover, we have studied the ⟨^, v, ~, ¬, 0, 1⟩-subreducts of quasi-Nelson algebras, and by making use of their twist representation, proved that this object-level correspondence can be stated as a categorical equivalence. Lastly, it is worth noting that QN I is the {->, ~}-fragment of QN , so some results concerning QNI may be easily extended to QN.

3
  • RODRIGO REBOUÇAS DE ALMEIDA
  •  

    Business-driven Technical Debt Prioritization

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • CAROLYN SEAMAN
  • CHRISTOPH TREUDE
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • EIJI ADACHI MEDEIROS BARBOSA
  • MARCOS KALINOWSKI
  • UIRA KULESZA
  • Data: 23/02/2022

  • Mostrar Resumo
  •  

    Technical debt happens when teams take shortcuts on software development to gain short-term benefits at the cost of making future changes more expensive. Previous results show misalignment between the prioritization done by technical professionals and the prioritization expected by business ones. This thesis presents a business-driven approach to prioritizing technical debt. The research is organized into three phases: (i) exploratory - a survey with practitioners, to identify the business causes of technical debt interviews; (ii) concept verification - where the proposed approach was evaluated on a multi-case study; and (iii) - design and evaluation - where a design science research, with the involvement of three companies, was conducted to develop Tracy, an approach for business-driven technical debt prioritization; followed by a multiple case study on two other companies. So far, we have identified business causes and impacts of technical debt; we designed the approach for business-driven technical debt prioritization; after we developed a tool based on the approach, we finally ran a multiple case study on two companies to evaluate the solution. Results show a set of the business causes behind the creation of technical debt; and also that the business-driven prioritization of technical debt can improve the alignment and communication between the technical and business stakeholders. We also identified a set of business factors that may drive the technical debt prioritization.


  • Mostrar Abstract
  •  

    Technical debt happens when teams take shortcuts on software development to gain short-term benefits at the cost of making future changes more expensive. Previous results show misalignment between the prioritization done by technical professionals and the prioritization expected by business ones. This thesis presents a business-driven approach to prioritizing technical debt. The research is organized into three phases: (i) exploratory - a survey with practitioners, to identify the business causes of technical debt interviews; (ii) concept verification - where the proposed approach was evaluated on a multi-case study; and (iii) - design and evaluation - where a design science research, with the involvement of three companies, was conducted to develop Tracy, an approach for business-driven technical debt prioritization; followed by a multiple case study on two other companies. So far, we have identified business causes and impacts of technical debt; we designed the approach for business-driven technical debt prioritization; after we developed a tool based on the approach, we finally ran a multiple case study on two companies to evaluate the solution. Results show a set of the business causes behind the creation of technical debt; and also that the business-driven prioritization of technical debt can improve the alignment and communication between the technical and business stakeholders. We also identified a set of business factors that may drive the technical debt prioritization.

4
  • THIAGO VINICIUS VIEIRA BATISTA
  • Generalizações da Integral de Choquet como Método de Combinação em Comitês de Classificadores

  • Orientador : BENJAMIN RENE CALLEJAS BEDREGAL
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • GRAÇALIZ PEREIRA DIMURO
  • RONEI MARCOS DE MORAES
  • RUI EDUARDO BRASILEIRO PAIVA
  • Data: 04/03/2022

  • Mostrar Resumo
  • Comitê de classificadores é um modelo dentro da aprendizagem de máquina que consiste em uma coleção de classificadores que processam uma mesma informação e a saída destes é combinada de alguma maneira. O processo de classificação geralmente se dá em duas etapas: a etapa de classificação e a etapa de combinação. Na etapa de classificação, cada classificador processa a informação e fornece sua opinião sobre a classe à qual o elemento pertence, na etapa de combinação, a opinião de todos os classificadores são combinadas, fornecendo uma única saída. Apesar da etapa de combinação ser de grande importância, muitos dos trabalhos encontrados na literatura focam principalmente na etapa de classificação. Neste trabalho serão propostas generalizações da integral de Choquet para uso como método de combinação em comitês de classificadores. A ideia principal é permitir uma maior liberdade de escolha de funções para compor a integral, abrindo possibilidades de otimização e utilização de funções adequadas aos dados. Além disso, é proposta uma nova noção de monotonicidade parcial e consequentemente uma alternativa à noção de funções de pré-agregação. Resultados preliminares obtidos pelas generalizações da integral de Choquet propostas mostraram que elas foram capazes de obter bons resultados, tendo tido desempenho superior a métodos conhecidos da literatura como o XGBoost, Bagging, entre outros. Além disso, as integrais que envolveram as novas funções de agregação propostas tiveram um bom desempenho quando comparadas com a performance ao se utilizar outras classes de funções, como as Cópulas e os Overlaps.



  • Mostrar Abstract
  • Ensembles of classifiers is a method in machine learning that consists in a collection of classifiers that process the same information and their output is combined in some manner. The process of classification is done in two main steps: the classification step and the combination step. In the classification step, each classifier processes the information and provides an output, in the combination step, the output of every classifier is combined, providing a single output. Although the combination step is extremely important, most works focus mostly on the classification step. Therefore, in this work, generalizations of the Choquet Integral will be proposed to be used as a combination method in ensembles of classifiers. The main idea is to allow a greater freedom of choice for functions in the integral, opening possibilities for otimization and using functions adequate to the data. Furthermore, a new notion of partial monotonicity is proposed, and consequently an alternative to the notion of pre-aggregation functions. Preliminary results that were obtained by the generalizations of the Choquet integral in the ensemble showed that they were capable of obtaining good results, having a superior performance to known methods in literature such as XGBoost, Bagging, among others. Furthermore, the generalizations that used the proposed aggregation functions had good performance when compared to other classes of functions, such as Copulas and Overlaps. 


5
  • ISLAME FELIPE DA COSTA FERNANDES
  • Hibridização de Meta-heurísticas para Problemas Multi e Many-objetivos em uma Arquitetura Multiagentes

     


  • Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MEMBROS DA BANCA :
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MARCO CESAR GOLDBARG
  • MYRIAM REGATTIERI DE BIASE DA SILVA DELGADO
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • THATIANA CUNHA NAVARRO DE SOUZA
  • Data: 15/06/2022

  • Mostrar Resumo
  • Algoritmos híbridos combinam as melhores características de meta-heurísticas individuais. Eles têm se mostrado eficazes em encontrar soluções de boa qualidade para problemas de otimização multiobjetivo. Arquiteturas fornecem funcionalidades e recursos genéricos para a implementação de novos algoritmos híbridos capazes de resolver problemas arbitrários de otimização. Arquiteturas baseadas em conceitos de inteligência de agentes e sistemas multiagente, como aprendizado e cooperação, oferecem vários benefícios para a hibridização de meta-heurísticas. No entanto, a literatura carece de estudos sobre arquiteturas que exploram totalmente tais conceitos para hibridização multiobjetivo. Esta tese estuda uma arquitetura multiagente, chamada MO-MAHM, inspirada nos conceitos de Otimização por Nuvem de Partículas. Na MO-MAHM, partículas são agentes inteligentes que aprendem com suas experiências passadas e se movem no espaço de busca procurando por soluções de alta qualidade. A principal contribuição desta tese é estudar o potencial da MO-MAHM em hibridizar meta-heurísticas para resolver problemas de otimização combinatória com dois ou mais objetivos. Este trabalho investiga os benefícios de métodos de aprendizagem de máquina para suporte ao aprendizado dos agentes e propõe um novo operador de velocidade para mover os agentes no espaço de busca. O operador de velocidade proposto usa uma técnica de path-relinking e decompõe o espaço objetivo sem utilizar funções de agregação. Outra contribuição desta tese é uma extensa revisão das técnicas existentes de path-relinking multiobjetivo. Devido a uma carência com respeito a técnicas de path-relinking para múltiplos objetivos, esta tese apresenta um novo path-relinking baseado em decomposição, chamado MOPR/D. Experimentos abrangem três problemas de otimização combinatória de formulações distintas com até cinco funções objetivo: mochila binária multi-dimensional, alocação quadrática e árvore geradora. MO-MAHM é comparada com abordagens híbridas existentes, tais como algoritmos meméticos e hyper-heurísticas. Testes estatísticos mostram que a arquitetura apresenta resultados competitivos com respeito à qualidade dos conjuntos aproximativos e diversidade de soluções.


  • Mostrar Abstract
  • Hybrid algorithms combine the best features of individual metaheuristics. They have proven to find high-quality solutions for multi-objective optimization problems. Architectures provide generic functionalities and features for implementing new hybrid algorithms to solve arbitrary optimization problems. Architectures based on agent intelligence and multi-agent concepts, such as learning and cooperation, give several benefits for hybridizing metaheuristics. Nevertheless, there is a lack of studies on architectures that fully explore these concepts for multi-objective hybridization. This thesis studies a multi-agent architecture named MO-MAHM, inspired by Particle Swarm Optimization concepts. In the MO-MAHM, particles are intelligent agents that learn from past experiences and move in the search space, looking for high-quality solutions. The main contribution of this work is to study the MO-MAHM potential to hybridize metaheuristics for solving combinatorial optimization problems with two or more objectives. We investigate the benefits of machine learning methods for agents' learning support and propose a novel velocity operator for moving the agents in the search space. The proposed velocity operator uses a path-relinking technique and decomposes the objective space without requiring aggregation functions. Another contribution of this thesis is an extensive survey of existing multi-objective path-relinking techniques. Due to a lack in the literature of effective multi- and many-objective path-relinking techniques, we present a novel decomposition-based one, referred to as MOPR/D. Experiments comprise three differently structured combinatorial optimization problems with up to five objective functions: 0/1 multidimensional knapsack, quadratic assignment, and spanning tree. We compared the MO-MAHM with existing hybrid approaches, such as memetic algorithms and hyper-heuristics. Statistical tests show that the architecture presents competitive results regarding the quality of the approximation sets and solution diversity.

6
  • SUENE CAMPOS DUARTE
  • Reversal Fuzzy Switch Graph

  • Orientador : REGIVAN HUGO NUNES SANTIAGO
  • MEMBROS DA BANCA :
  • REGIVAN HUGO NUNES SANTIAGO
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • MANUEL ANTÓNIO GONÇALVES MARTINS
  • FLAULLES BOONE BERGAMASCHI
  • JORGE PETRUCIO VIANA
  • Data: 17/06/2022

  • Mostrar Resumo
  • Apresentamos um modelo fuzzy baseado em estados chamado Reversal Fuzzy Switch Graphs (RFSG). Este modelo possibilita a ativação ou desativação de arestas, e a atualização de valores fuzzy a partir da ação de funções de agregação, sempre que ocorrer uma transição entre estados. A característica fuzzy dos RFSGs permite modelar incertezas. A ativação e desativação de arestas permite simular aspectos dinâmicos do acesso aos estados do sistema. Quando mais de uma função de agregação é usada neste processo, temos os Reversal Fuzzy Reactive Graphs (RFRGs).
    Ademais, são propostas algumas operações sobre esses grafos que são baseadas em funções de agregação (união, interseção, produto cartesiano e extensão). Apresentamos, ainda, a relação entre os RFRGs e os usuais grafos fuzzy além de uma noção para simulação e bissimulação. Introduzimos o conceito de homomorfismo entre RFSGs e uma lógica modal para verificação de propriedades de sistemas que sejam modelados por esses grafos.


  • Mostrar Abstract
  • We present a state-based Fuzzy model called Reversal Fuzzy Switch Graphs (RFSG). This model enables the activation or deactivation of edges as well as the updating of fuzzy values from the action of aggregation functions, whenever a transition occurs between the states. The Fuzzy feature of RFSGs allows you to model uncertainties whereas th activation and deactivation of edges allow the simulation of dynamic aspects of access to system states. When more than one aggregation function is used in this process, we have the Reversal Fuzzy Reactive Graphs (RFRG).
    In addition, we propose some operations that are based on aggregation functions (unions, intersections, Cartesian product and extension). We also present the relationship between the RFRGs and the usual Fuzzy graphs together with a notion for simulation and bisimulation. We also introduce the concept of homomorphism between RFSGs and a modal logic for verifying properties of systems that are modeled by such graphs.

7
  • CIRO MORAIS MEDEIROS
  • Melhorias nas Consultas de Caminhos em Gráfos: Expressão, Avaliação e Satisfiabilidade Mínima

  • Orientador : MARTIN ALEJANDRO MUSICANTE
  • MEMBROS DA BANCA :
  • CARMEM SATIE HARA
  • CÉDRIC EICHLER
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • FAROUK TOUMANI
  • MARTIN ALEJANDRO MUSICANTE
  • MATHIEU LIEDLOFF
  • MIRIAN HALDFELD FERRARI
  • NICOLAS TRAVERS
  • NORA REYES
  • Data: 30/08/2022

  • Mostrar Resumo
  • Nós tratamos três problemas relacionados a grafos e linguagens livres-de-contexto: (1) nós desenvolvemos uma notação alternativa para expressar linguagens livres-de-contexto; (2) nós desenvolvemos e experimentamos um algoritmo para avaliação de consultas de caminhos livres-de-contexto; e (3) nós formalizamos o prolema da minimização de grafos restrita a uma linguagem formal, para o qual desenvolvemos soluções para os casos onde a linguagem formal é regular ou livre-de-contexto.


  • Mostrar Abstract
  • We deal with three problems related to graphs and context-free languages: (1) we develop an alternative notation for expressing context-free languages; (2) we design, implement and experiment a context-free path query evaluation algorithm; and (3) we formalize the formal-language-constrained graph minimization problem, for which we design solutions for the cases where the formal language is regular or context-free.

8
  • RAFAEL DE MORAIS PINTO
  • Um Framework para Análise Multidimensional de Intervenções em Saúde Pública

  • Orientador : LYRENE FERNANDES DA SILVA
  • MEMBROS DA BANCA :
  • LYRENE FERNANDES DA SILVA
  • UIRA KULESZA
  • RICARDO ALEXSANDRO DE MEDEIROS VALENTIM
  • LYANE RAMALHO CORTEZ
  • XIMENA PAMELA CLAUDIA DÍAZ BERMÚDEZ
  • PLACIDO ANTONIO DE SOUZA NETO
  • THAISA GOIS FARIAS DE MOURA SANTOS LIMA
  • WAGNER DE JESUS MARTINS
  • Data: 02/09/2022

  • Mostrar Resumo
  • Promover a conscientização, estimular a adoção de atitudes e comportamentos saudáveis são alguns dos objetivos das intervenções em saúde pública. Porém, para analisar o alcance de uma intervenção é necessário ir além dos dados epidemiológicos, uma vez que este conjunto, por si só, pode não demonstrar a real magnitude dos resultados. É necessário discutir outras fontes de dados, variáveis de interesse e dimensões que podem ser alcançadas pela intervenção. Assim, avaliar o alcance de uma intervenção em saúde pública, em uma perspectiva multidimensional por meio da abordagem de séries temporais, pode ser útil para orientar o desenvolvimento de intervenções mais eficazes na resposta da saúde pública. Nesse contexto, esta tese tem como objetivo apresentar um framework de avaliação multidimensional de intervenções em saúde pública, explorando diferentes variáveis de interesse que são possivelmente impactadas pelas intervenções. Esse framework é suportado por um software chamado Hermes, que é responsável por processar os dados em um ciclo de vida completo e mostrar seus resultados em um painel visual que permita aos tomadores de decisão avaliar o efeito ao longo do tempo antes e depois das intervenções, além de analisar possíveis correlações entre variáveis de interesses. Para compreender o estado atual da arte e orientar a pesquisa neste domínio, realizamos uma revisão sistemática da literatura que explora o uso de abordagens de tecnologia da informação para analisar o impacto de campanhas em saúde pública. Sintetizamos variáveis de interesse, dados de campanha, técnicas e ferramentas empregadas para avaliar intervenções em saúde pública. Em seguida, realizamos um estudo analítico para avaliar uma intervenção em saúde, chamada “Sífilis Não!”, lançada no Brasil. Este estudo descreve os dados analisados extraídos de sete fontes de dados diferentes entre 2015 e 2019, agrupados em quatro dimensões: campanha, comunicação, educação e vigilância epidemiológica. Os dados foram processados e transformados pelo Hermes, utilizando uma abordagem de séries temporais, seguindo o framework de análise multidimensional proposto. Além disso, outros dois estudo explorando dados do Projeto “Sífilis Não!” foram realizados, utilizando abordagens e variáveis de interesses distintas. A análise em conjunto desses estudos permitiu um entendimento melhor da amplitude do projeto de intervenção e das variáveis de interesse impactadas. Por fim, também analisamos dados epidemiológicos e de comunicação da hepatite no Brasil, a fim de realizar um estudo de caso utilizando o framework proposto, fora do contexto da sífilis. Os resultados da nossa tese contribuem para permitir uma avaliação mais abrangente do alcance das intervenções em saúde pública e, assim, permitir aos formuladores de políticas reanalisar as estratégias de conscientização desenvolvidas para alertar as pessoas sobre os cuidados de saúde e mudanças comportamentais, bem como melhor direcionar o uso de recursos de forma mais eficaz.


  • Mostrar Abstract
  • Promoting awareness, increasing knowledge, and encouraging the adoption of healthy attitudes and behaviors are some of the objectives of public health interventions. However, to analyze the scope of an intervention, it is necessary to go beyond the epidemiological data since this set, by itself, may not demonstrate the absolute magnitude of the results. It is necessary to discuss other data sources, variables of interest, and dimensions that the intervention can achieve. Thus, assessing the scope of a public health intervention from a multidimensional perspective through the time series approach can help guide the development of more effective interventions in the public health response. In this context, this thesis presents a framework for the multidimensional evaluation of public health interventions, exploring variables of interest that are possibly impacted by interventions. This framework is supported by a software called Hermes, responsible for processing the data in a complete lifecycle and showing its results in a visual dashboard that allows decision makers to assess the effect over time before and after campaigns and analyze possible correlations between variables of interest. To understand the current state of the art and guide research in this domain, we conducted a systematic literature review that explores the use of information technology approaches to analyze the impact of public health campaigns. This study summarizes variables of interest, campaign data, techniques, and tools used to evaluate public health interventions. We also conducted an analytical study to evaluate a health intervention launched in Brazil named “Sífilis Não!”. This study describes the analyzed data extracted from seven data sources between 2015 and 2019, grouped into four dimensions: campaign, communication, education, and epidemiological surveillance. Hermes processed and transformed the data using a time series approach, following the proposed multidimensional analysis framework. In addition, two other studies were conducted exploring data from the “Syphilis No!” project, using different approaches and variables of interest. The joint analysis of these data allowed a better understanding of the project’s scope and the impacted variables of interest. Finally, we also analyzed epidemiological and communication data on hepatitis in Brazil to carry out a case study using the proposed framework, outside syphilis. The results of our thesis contribute to enabling a more comprehensive assessment of the scope of public health interventions and thus enabling policymakers to re-examine awareness-raising strategies developed to alert people to health care and behavioral changes, as well as better direct the use of resources more effectively.

9
  • ALLAN VILAR DE CARVALHO
  • O Problema do Caixeiro Viajante com Múltiplos Passageiros Bônus Opcionais Quota e Tempo

  • Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MEMBROS DA BANCA :
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • ISLAME FELIPE DA COSTA FERNANDES
  • MARCO CESAR GOLDBARG
  • MATHEUS DA SILVA MENEZES
  • Data: 23/11/2022

  • Mostrar Resumo
  • O trabalho apresenta o Problema do Caixeiro Viajante com Múltiplos Passageiros Bônus Opcionais Quota e Tempo. O problema tem o objetivo de maximizar o lucro de um caixeiro viajante que além de transportar mercadorias pode transportar passageiros para ratear as suas despesas de rota. As mercadorias e os passageiros devem ser transportados obrigatoriamente das suas origens para os seus destinos. As mercadorias transportadas requerem tempo de carregamento e descarregamento, e devem contabilizar uma quota mínima definida a priori. O caixeiro também decide se transporta ou não uma mercadoria ou um passageiro quando visita uma localidade. O trabalho descreve o problema, o relaciona com outros problemas, e o formaliza matematicamente.  São propostos um modelo de programação matemática não linear, dois algoritmos heurísticos, e treze algoritmos meta-heurísticos. As heurísticas desenvolvidas seguiram as meta-heurísticas ACO, GRASP e Transgenético. Também é proposta uma linearização do modelo de programação matemática não linear. Foram criados dois conjuntos de instâncias de teste. Um experimento computacional que compara e valida os modelos e algoritmos propostos é apresentado.


  • Mostrar Abstract
  • This work presents the Traveling Salesman Problem with Multiple Passengers Optional Bonus Quota and Time. This problem has the objective of maximizing the profit of a traveling salesman who in addition to transporting goods can transport passengers to apportion their travel expenses. Goods and passengers must be transported from their origins to their destinations. The goods transported require loading and unloading time, and must account for a minimum quota defined a priori. The salesman also decides whether or not to transport a goods or a passenger when visiting a locality. This work describes the problem, relates it to other problems, and formalizes it mathematically. A nonlinear mathematical programming model, two heuristic algorithms, and thirteen metaheuristic algorithms are proposed. The heuristics developed followed the meta-heuristics ACO, GRASP and Transgenetic. A linearization of the nonlinear mathematical programming model is also proposed. Two sets of test instances have been created. A computational experiment that compare and validates the models and algorithms proposed is presented.

10
  • ARTHUR EMANOEL CASSIO DA SILVA E SOUZA
  • SAPPARCHI: Uma plataforma Escalável para Executar Aplicações em Cidades Inteligentes

  • Orientador : NELIO ALESSANDRO AZEVEDO CACHO
  • MEMBROS DA BANCA :
  • ALUÍZIO FERREIRA DA ROCHA NETO
  • CARLOS ANDRE GUIMARÃES FERRAZ
  • FLAVIA COIMBRA DELICATO
  • NELIO ALESSANDRO AZEVEDO CACHO
  • THAIS VASCONCELOS BATISTA
  • Data: 28/11/2022

  • Mostrar Resumo
  • In the Smart Cities environment, applications development and execution face important challenges related to 1) Big Data Concept: The huge amount of processed and stored data with various data sources and data types; 2) Multi-domains: the many involved domains (Economy, Traffic, Health, Security, Agronomy, etc); and 3) Multiples processing methods like Data Flow, Batch Processing, Services, and Microservices. In facing these challenges, many platforms, middlewares, and architectures have been proposed to run applications in the Smart City’s environment. Despite all the progress already made, the vast majority of solutions have not met the functional requirements of Application Development, Application Deployment, and Application Runtime. Some studies point out that in a universe of 97 platforms, only 20.6% met the functional requirements of Application Development, Application Deployment, and Application Runtime. And, when those requirements are related to Scalability (non-functional), this number goes to 0.01%. Due to the lack of solutions that explore these requirements, all these concerns on Smart City’s Application Developing are passed on to the various stakeholders. For example, while Service Providers are concerned with: How to measure, charge, deploy, scale-up or scale-down, and execute to efficiently use the Computing Infrastructure, for developers it is important to know: How to implement, execute, scale application components, where to store their data, and where to deploy (Cloud, Fog, or Edge). In this work, we seek to outline and answer some of these questions. To this, we propose to build an evolutionary model for organizing and executing applications in the context of Smart Cities, the Smart City Application Architectural Model (Sapparchi). Sapparchi is an integrated architectural model for Smart Cities applications that define multi-processing levels (at the moment can support Edge, Fog, and Cloud). In addition, solutions are presented for monitoring, deploying, and scaling applications deployed at Cloud, Fog, and Edge levels. Finally, we present the Sapparchi middleware platform for developing, deploying, and running applications in the smart city environment with a focus on self-scaling and multi-processing computacional levels (From Cloud to Edge)


  • Mostrar Abstract
  • In the Smart Cities environment, applications development and execution face important challenges related to 1) Big Data Concept: The huge amount of processed and stored data with various data sources and data types; 2) Multi-domains: the many involved domains (Economy, Traffic, Health, Security, Agronomy, etc); and 3) Multiples processing methods like Data Flow, Batch Processing, Services, and Microservices. In facing these challenges, many platforms, middlewares, and architectures have been proposed to run applications in the Smart City’s environment. Despite all the progress already made, the vast majority of solutions have not met the functional requirements of Application Development, Application Deployment, and Application Runtime. Some studies point out that in a universe of 97 platforms, only 20.6% met the functional requirements of Application Development, Application Deployment, and Application Runtime. And, when those requirements are related to Scalability (non-functional), this number goes to 0.01%. Due to the lack of solutions that explore these requirements, all these concerns on Smart City’s Application Developing are passed on to the various stakeholders. For example, while Service Providers are concerned with: How to measure, charge, deploy, scale-up or scale-down, and execute to efficiently use the Computing Infrastructure, for developers it is important to know: How to implement, execute, scale application components, where to store their data, and where to deploy (Cloud, Fog, or Edge). In this work, we seek to outline and answer some of these questions. To this, we propose to build an evolutionary model for organizing and executing applications in the context of Smart Cities, the Smart City Application Architectural Model (Sapparchi). Sapparchi is an integrated architectural model for Smart Cities applications that define multi-processing levels (at the moment can support Edge, Fog, and Cloud). In addition, solutions are presented for monitoring, deploying, and scaling applications deployed at Cloud, Fog, and Edge levels. Finally, we present the Sapparchi middleware platform for developing, deploying, and running applications in the smart city environment with a focus on self-scaling and multi-processing computacional levels (From Cloud to Edge)

11
  • THALES AGUIAR DE LIMA
  • An Investigation of Accent Inclusion in Brazilian Portuguese Speech

  • Orientador : MARJORY CRISTIANY DA COSTA ABREU
  • MEMBROS DA BANCA :
  • MARJORY CRISTIANY DA COSTA ABREU
  • BRUNO MOTTA DE CARVALHO
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • ALTAIR OLIVO SANTIN
  • MARCOS ANTONIO SIMPLICIO JUNIOR
  • Data: 16/12/2022

  • Mostrar Resumo
  • Speech is a very important part of our way to communicate as a species and combined
    with the evolution of instant messaging in voice format as well as automated chatbots,
    its importance has become even greater. While the majority of speech technologies have
    achieved high accuracy, they fail when tested for accents that deviate from the “standard”
    of a language. This becomes more concerning for languages that lack on datasets and
    have scarce literature, like Brazilian Portuguese. In a parallel development, artificial
    intelligence(AI)-based tools are an accepted increasingly present in people’s lives, even
    if not always noticeable. This excluding behaviour combined with the advancement of
    AI in speech systems and the lack of resources, have inspired the three objectives of
    this work. Thus, this thesis proposes to explore news ways for Accent Conversion for
    this language, adapting a light-weight model called SABr+Res, which must convert from
    PaulistatoNordestino. The second is to provide an acoustic analysis of Brazilian Portuguese
    accents, covering a wide area of the national territory, finding and formalising possible
    differences between them. Finally, to collect and release a speech dataset for Brazilian
    Portuguese. With a method that explores the availability of data and information in
    video platforms, the method automatically downloads the videos from TEDx Talks. Those
    short presentations are a source of reliable and clean audio with human and automatically
    generated transcriptions


  • Mostrar Abstract
  • Speech is a very important part of our way to communicate as a species and combined
    with the evolution of instant messaging in voice format as well as automated chatbots,
    its importance has become even greater. While the majority of speech technologies have
    achieved high accuracy, they fail when tested for accents that deviate from the “standard”
    of a language. This becomes more concerning for languages that lack on datasets and
    have scarce literature, like Brazilian Portuguese. In a parallel development, artificial
    intelligence(AI)-based tools are an accepted increasingly present in people’s lives, even
    if not always noticeable. This excluding behaviour combined with the advancement of
    AI in speech systems and the lack of resources, have inspired the three objectives of
    this work. Thus, this thesis proposes to explore news ways for Accent Conversion for
    this language, adapting a light-weight model called SABr+Res, which must convert from
    PaulistatoNordestino. The second is to provide an acoustic analysis of Brazilian Portuguese
    accents, covering a wide area of the national territory, finding and formalising possible
    differences between them. Finally, to collect and release a speech dataset for Brazilian
    Portuguese. With a method that explores the availability of data and information in
    video platforms, the method automatically downloads the videos from TEDx Talks. Those
    short presentations are a source of reliable and clean audio with human and automatically
    generated transcriptions

2021
Dissertações
1
  • RAVELLY OLIVEIRA DOS SANTOS SALES
  • Caixeiro Viajante com Elétrico com Passageiros

  • Orientador : MARCO CESAR GOLDBARG
  • MEMBROS DA BANCA :
  • MARCO CESAR GOLDBARG
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MATHEUS DA SILVA MENEZES
  • Data: 25/01/2021

  • Mostrar Resumo
  • O campo de pesquisa da logística tem observado o crescente uso de veículos elétricos em diferentes ramos, incluindo o de transporte de passageiros.  O PCVEP é um problema de logística que mescla elementos do conhecido Problema do Caixeiro Viajante (PCV), do Problema do Caixeiro Viajante com Passageiros (PCVP) e do Problema do Caixeiro Viajante Elétrico com Janela de Tempo (PCVEJT), além de considerar também, restrições para o incremento ou recarga da autonomia de deslocamento e o fato de a autonomia ser sensível à quantidade de passageiros embarcados no veículo, todas intrínsecas à própria problemática e que dificultam ainda mais a capacidade de resolução do problema. A realização deste trabalho consistiu na pesquisa e no estudo de Problemas de Roteamento de Veículos Elétricos (PRVE) e de problemas que abordam questões de ridesharing. No primeiro momento, realizou-se o levantamento bibliográfico dos trabalhos que abordam e solucionam as questões acima apontadas para a devida formulação e descrição do PCVEP. Por conseguinte, por se tratar de um problema inédito, criou-se um banco de instâncias euclidianas para a problemática, parte aleatória e parte adaptada da TSPLIB. Como métodos solucionadores ao PCVEP, desenvolveu-se um conjunto de algoritmos heurísticos, ingênuos e hibridizados, para a devida ancoragem dos experimentos. Ainda, um outro conjunto de algoritmos meta-heurísticos foi desenvolvido para o PCVEP, um procedimento guloso aleatorizado, melhorado através de uma busca em vizinhança variável descendente, e um algoritmo de colônia de formigas multi-formigas, com formigas que admitem em seu processo resolutivo, características próprias do PCVEP, como estações de recarga, distância entre localidades e carregamento de passageiros. O PCVEP aborda e soluciona PRVE, trazendo à tona importantes questões de sustentabilidade, promovendo a minimização da emissão de gases causadores do efeito estufa na atmosfera, reduzindo o tráfego nas grandes cidades, e, também, incentivando a socialização entre as pessoas. 


  • Mostrar Abstract
  • The logistics research field has observed the growing use of electric vehicles in different branches, including passenger transport. The PCVEP is a logistics problem that mixes elements of the well-known Traveling Salesman Problem (PCV), the Traveling Salesman with Passengers Problem (PCVP) and the Traveling Time Electric Salesman Problem (PCVEJT), in addition to also considering, restrictions for increasing or recharging travel autonomy and the fact that the autonomy is sensitive to the number of passengers loaded in the vehicle, all intrinsic to the problem itself and which further hamper the ability to solve the problem. The accomplishment of this work consisted of the research and the study of Problems of Routing of Electric Vehicles (PRVE) and of problems that address issues of ridesharing. In the first moment, a bibliographic survey of the works that addressed and solved the issues mentioned above was carried out for the proper formulation and description of the PCVEP. Therefore, because it is an unprecedented problem, a bank of Euclidean instances was created for the problem, a random part and an adapted part of TSPLIB. As solving methods for PCVEP, a set of heuristic, naive and hybridized algorithms was developed, for the proper anchoring of the experiments. Yet another set of meta-heuristic algorithms was developed for PCVEP, a randomized greedy procedure, improved through a search in descending variable neighborhood, and a colony algorithm of multi-ant ants, with ants that admit in their solving process , characteristics specific to PCVEP, such as charging stations, distance between locations and passenger loading. PCVEP addresses and solves PRVE, bringing up important sustainability issues, promoting the minimization of greenhouse gas emissions into the atmosphere, reducing traffic in large cities, and also encouraging socialization among people.

2
  • JOÃO GABRIEL QUARESMA DE ALMEIDA
  • Aqüeducte: Um Serviço para Integração de Dados Heterogêneos em Cidades Inteligentes

  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • THAIS VASCONCELOS BATISTA
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • FREDERICO ARAUJO DA SILVA LOPES
  • RENATA GALANTE
  • Data: 28/01/2021

  • Mostrar Resumo
  • A evolução e o desenvolvimento de novas soluções tecnológicas para cidades inteligentes tem crescido significativamente nos últimos anos. O cenário das cidades inteligentes é constituído por uma grande quantidade de dados, dispostos de maneira decentralizada, oriundos devariados dispositivos e aplicações. Com isso, são apresentados desafios relacionados como a interoperabilidade de dados, incluindo o compartilhamento de informação, coleta de dadosde múltiplas fontes (serviços Web, arquivos, sistemas em geral, etc.), e a disponibilizaçãoem plataformas de desenvolvimento focadas em aplicações para cidades inteligentes. Tendoem vista esses desafios, o presente trabalho apresenta o Aqüeducte , um serviço queprover a coleta, filtragem e conversão de dados provenientes de fontes diversas para o protocolo de troca de dados, NGSI-LD. Além disso, permite a utilização de tais dados,por meio do processo de importação, para omiddleware Smart Geo Layers(SGeoL) quefaz uso do mesmo protocolo. O Aqüeducte também realiza o gerenciamento de arquivos de formatos diversos, bem como prover o relacionamento de dados de diferentes domínios.Todas essas funcionalidades são oferecidas através de uma aplicação web de alto nível que visa proporcionar maior facilidade ao usuário final, para realização dos processoscitados. Este trabalho descreve a arquitetura, implementação e metodologia utilizada peloAqüeducte para: (i) extrair dados de fontes de dados heterogêneas, (ii) enriquecê-los deacordo com o formato de dados NGSI-LD utilizando o conceito de Linked-data juntamente com ontologias, via modelo de dados LGeoSIM, e (iii) publicá-los em um middleware baseado em NSGI-LD, que no caso deste trabalho é o SGeoL. A utilização do Aqüeducte é também descrita em cenários de cidade inteligente do mundo real.


  • Mostrar Abstract
  • The evolution and development of new technological solutions for smart cities has grown significantly in recent years. The scenario of smart cities consists of a large amountof data, arranged in a decentralized way, from various devices and applications. This context presents challenges related to data interoperability, including information sharing,data collection from multiple sources (web services, archives, systems in general, etc.),and availability on development platforms focused on applications for intelligent cities.Considering these challenges, this work presents Aqüeducte , a service that provides collection, filtering and conversion of data from various sources to the data exchangeprotocol, NGSI-LD. In this way, it allows the use of data through an importing process tothe Smart Geo Layers middleware (SGeoL) that use of the same protocol. In addition,it provides management of files of various formats, as well as supports relationship ofdata from different domains. All these functionalities are offered through a high level webapplication that aims at providing ease use to the final user to carry out the aforementionedprocesses. This work, in turn, describes the architecture, implementation and methodologyused by Aqüeducte for: (i) extracting data from heterogeneous data sources, (ii) enriching them according to the NGSI-LD data format using the concept of Linked-data togetherwith ontologies, via the LGeoSIM data model, and (iii) publishing them in middlewarebased on the NSGI-LD protocol, which in the case of this work is SGeoL. The use ofAqüeducte is also described in real world intelligent city scenarios

3
  • ELISIO BRENO GARCIA CARDOSO
  • Redes em Chip Irregulares para Tolerância a Falhas e Atendimento de Tempo Real

  • Orientador : MONICA MAGALHAES PEREIRA
  • MEMBROS DA BANCA :
  • GUSTAVO GIRAO BARRETO DA SILVA
  • MARCIO EDUARDO KREUTZ
  • MONICA MAGALHAES PEREIRA
  • SILVIO ROBERTO FERNANDES DE ARAUJO
  • Data: 28/01/2021

  • Mostrar Resumo
  • As redes-em-chip surgiram devido à necessidade de comunicar de forma eficiente dezenas de núcleos de sistemas multiprocessados em um único chip. Desde então, tornaram-se um dos principais paradigmas de comunicação para esse tipo de sistema, com diversos modelos arquiteturais sendo propostos ao longo dos anos. Os projetos buscam atender principalmente restrições relacionadas à latência média, área da rede, consumo de energia, dentre outros. Os projetos atuais também abrangem a arquitetura da rede, com a geração de topologias que proporcionam desempenho otimizado para aplicações específicas. Este trabalho propõe uma heurística para a geração de topologias tolerantes a falhas capazes de entregar os pacotes de tempo real por um caminho alternativo dentro da rede em caso de falha em um canal. Para avaliar a solução proposta, foi utilizado um simulador em SystemC desenvolvido para criar topologias irregulares, rotear pacotes com restrição de tempo real, algoritmo de roteamento baseado em uma tabela de roteamento e injeção de falhas nos canais.


  • Mostrar Abstract
  • The advances in integration capacity of the chips allowed the emergence of systems with several processing cores, with networks-on-chip becoming the main paradigm in the communication between elements of multi-processed systems. Several proposals have emerged in order to meet mainly restrictions of average latency, area, energy consumption. The projects also cover the network architecture, with the generation of topologies that provide optimized performance for specific applications. This work proposes a heuristic for the generation of fault-tolerant topologies capable of delivering real-time and non-real-time packets via an alternative path within the network in the event of a link failure. Exploration always starts from a regular mesh-2D topology and seeks fault-tolerant topologies that are able to deliver as many packages as possible on time. The development of the implementation is based on the NOC42 simulator, making it capable of working with irregular topologies, real-time packages and a routing algorithm based on a routing table.

4
  • WANDERSON MODESTO DA SILVA
  • Integração de Dispositivos Elétricos Inteligentes de Abordagem Legada em Sistemas Smart Grid Baseados na IoT

  • Orientador : AUGUSTO JOSE VENANCIO NETO
  • MEMBROS DA BANCA :
  • AUGUSTO JOSE VENANCIO NETO
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • EDUARDO COELHO CERQUEIRA
  • Data: 29/01/2021

  • Mostrar Resumo
  • A evolução das Redes Elétricas Inteligentes (do inglês Smart Grid) rumo a Internet das Coisas (IoT) é entendida como uma evolução do sistema elétrico atual, além de ser uma tendência natural que prevê uma enorme importância no que diz respeito às infraestruturas críticas elétricas de todos os países. A atualização dos sistemas Smart Grid para o contexto da IoT trará potencial para as bases alcançarem benefícios futuros, permitindo com que novas oportunidades do mercado de Smart Grid surjam e agreguem valor por meio de inovações inteligentes, e também garantindo maior confiabilidade e eficiência energética, que pode levar a reduções dos custos de produção e manutenção de sistemas simultaneamente. O passo fundamental que está por trás da atualização dos sistemas Smart Grid, definidos pela IoT, está na necessidade de adaptar a infraestrutura da Smart Grid por uma camada digital, para torná-la compatível com o paradigma da IoT. Para que isso seja possível faz-se necessário o uso de tecnologias emergentes, tais como 5G, computação em nuvem e a computação na borda. Nesse contexto, a interoperabilidade entre os sistemas e os dispositivos eletrônicos inteligentes (IEDs) legados, utilizados pela Smart Grid, tornou-se uma questão importante, visto que cada fabricante pode adotar um padrão diferente, as distribuidoras de energia já possuem seus sistemas consolidados e qualquer mudança neste equilíbrio afeta diretamente a infraestrutura do sistema. Assim, a integração de IEDs legados em um ambiente Smart Grid baseados na IoT, foi realizada pelo uso dos componentes da arquitetura SG2IoT, apresentada neste trabalho, que permitiu a inclusão de múltiplos IEDs a um ambiente escalável e flexível possibilitado pelo ecossistema SG-Cloud-IoT. Uma aplicação de monitoramento de IEDs utilizando a plataforma FIWARE foi utilizada com objetivo de validar a solução proposta no referente a exibição de informações críticas,e de estado dos IEDs entre outras informações em tempo real. Por último, experimentos foram realizados com intuito de avaliar a performance da solução quando submetida a vários níveis de estresse causado pelo aumento da inclusão do número de dispositivos que utilizam protocolos Smart Grid legados, tais como o IEC 61850 e o DNP3.


  • Mostrar Abstract
  • The evolution of the Smart Grid towards the Internet of Things (IoT) is an evolution of the electrical system, it is a natural trend, and it foresees great importance in the scope of mission-critical infrastructures for all countries. The IoT-defined Smart Grid system upgrade will potentially lay the groundwork to achieve future benefits, enabling new opportunities in the Smart Grid market to arise and add value through smart innovations and also to ensure better reliability and energy efficiency, which can lead to a reduction in the production cost and systems maintenance at the same time. The fundamental step that is behind the IoT-defined Smart Grid system upgrade lies in the need to adapt the smart grid infrastructure by the digital layer, to turn it comply with the IoT paradigm. For this to be possible, it is necessary to use emerging technologies such as 5G, cloud computing, and edge computing. In this context, the interoperability between legacy systems and intelligent electronic devices (IED) used by the Smart Grid has become an important issue, since each manufacturer can adopt a different standard, energy distributors already have their systems consolidated and any change in this balance directly affects the system's infrastructure. Thus, the integration of legacy IEDs in a Smart Grid environment based on IoT, was accomplished by using the components of the SG2IoT architecture, presented in this work, which allowed the inclusion of multiple IEDs in a scalable and flexible environment made possible by the SG-Cloud-IoT ecosystem. Also, an application for monitoring IEDs using the FIWARE platform was used in order to validate the proposed solution regarding the display of critical information, the status of IEDs, and other information in real-time. Finally, experiments were carried out to evaluate the performance of the solution when subjected to various levels of stress caused by the increased inclusion of the number of devices using legacy Smart Grid protocols, such as IEC 61850 and DNP3.

5
  • JULLIANA CAROLINE GONÇALVES DE ARAÚJO SILVA MARQUES
  • The impact of feature selection methods on online handwritten signature by using clustering-based analysis

  • Orientador : MARJORY CRISTIANY DA COSTA ABREU
  • MEMBROS DA BANCA :
  • BRUNO MOTTA DE CARVALHO
  • MARJORY CRISTIANY DA COSTA ABREU
  • PLACIDO ANTONIO DE SOUZA NETO
  • Data: 29/01/2021

  • Mostrar Resumo
  • Handwritten signature is one of the oldest and most accepted biometric authentication methods for human identity establishment in society. With the popularisation of computers and, consequently, computational biometric authentication systems, the signature was chosen for being one of the biometric traits of an individual that is likely to be relatively unique for every person. However, when dealing with biometric data, including signature data, problems related to high dimensional space, can be generated.  Among other issues, irrelevant, redundant data and noise are the most significant, as they result in a decreased of identification accuracy. Thus, it is necessary to reduce the space by selecting the smallest set of features that contain the most discriminative features, increasing the accuracy of the system. In this way, our proposal in this work is to analyse the impact of feature selection on individuals identification accuracy based on the handwritten online signature. For this, we will use two well-known online signature databases: SVC2004 and xLongSignDB. For the feature selection process, we have applied two filter and one wrapper methods. Then, the resulted datasets are evaluated by classification algorithms and validated with a clustering technique. Besides, we have used a statistical test to corroborate our conclusions. Experiments presented satisfactory results when using a smaller number of features which are more representative, showing that we reached an average accuracy of over 98\% for both datasets which were validated with the clustering methods, which achieved an average accuracy over 80\% (SVC2004) and 70\% (xLongSignDB).


  • Mostrar Abstract
  • Handwritten signature is one of the oldest and most accepted biometric authentication methods for human identity establishment in society. With the popularisation of computers and, consequently, computational biometric authentication systems, the signature was chosen for being one of the biometric traits of an individual that is likely to be relatively unique for every person. However, when dealing with biometric data, including signature data, problems related to high dimensional space, can be generated.  Among other issues, irrelevant, redundant data and noise are the most significant, as they result in a decreased of identification accuracy. Thus, it is necessary to reduce the space by selecting the smallest set of features that contain the most discriminative features, increasing the accuracy of the system. In this way, our proposal in this work is to analyse the impact of feature selection on individuals identification accuracy based on the handwritten online signature. For this, we will use two well-known online signature databases: SVC2004 and xLongSignDB. For the feature selection process, we have applied two filter and one wrapper methods. Then, the resulted datasets are evaluated by classification algorithms and validated with a clustering technique. Besides, we have used a statistical test to corroborate our conclusions. Experiments presented satisfactory results when using a smaller number of features which are more representative, showing that we reached an average accuracy of over 98\% for both datasets which were validated with the clustering methods, which achieved an average accuracy over 80\% (SVC2004) and 70\% (xLongSignDB).

6
  • LUIS TERTULINO DA CUNHA NETO
  • Algoritmo Transgenético para os Problemas da Geometria e da Intensidade em IMRT

  • Orientador : SILVIA MARIA DINIZ MONTEIRO MAIA
  • MEMBROS DA BANCA :
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MARCO CESAR GOLDBARG
  • THATIANA CUNHA NAVARRO DE SOUZA
  • Data: 08/02/2021

  • Mostrar Resumo
  • Radioterapia de Intensidade Modulada (IMRT) é uma forma de tratamento de doenças cancerígenas em que o paciente é irradiado com feixes de radiação, com o objetivo de eliminar as células tumorais ao mesmo tempo em que órgãos e tecidos sadios são preservados o máximo possível. Cada feixe é dividido em sub-feixes. Um plano de tratamento é composto de: (a) um conjunto de direções para os feixes (ângulos); (b) quantidade de radiação emitida pelos sub-feixes de cada feixe; e (c), uma sequência de entrega da radiação. A elaboração de um plano pode ser modelada por problemas de otimização, em geral NP-difíceis, onde as etapas (a), (b) e (c) são denominadas de problemas da Geometria, Intensidade (ou Mapa de Fluências) e Realização, respectivamente. Este trabalho aborda as duas primeiras. É proposto um  Algoritmo Transgenético para lidar com esses dois problemas em conjunto. O algorimto proposto usará uma adaptação do método épsilon-restrito para calcular o mapa de fluências de um conjunto de feixes. São propostas funções aproximadoras lineares e quadráticas para um tipo particular de função (não-convexa) presente na otimização em radioterapia: a função de dose-volume. São realizados dois grupos de experimentos para averiguar a eficácia do algoritmo: um com a dose no tumor como restrição, e outro com ela como função objetivo. São utilizados casos reais de câncer de fígado nos experimentos. Os resultados para o primeiro grupo mostram a eficácia na otimização das funções objetivo e doses aquém das desejadas para o tumor. Os resultados para o segundo grupo mostram que a dose no tumor enquanto função objetivo do problema é de fato a opção mais apropriada.


  • Mostrar Abstract
  • Intensity Modulated Radiotherapy (IMRT) is a form of treatment of cancerous diseases in which the patient is irradiated with radiation beams, aiming to eliminate tumor cells while sparing healthy organs and tissues as much as possible. In addition, each beam is divided into beamlets that emit a particular dose of radiation. A treatment plan is composed of: (a) a set of beam directions (angles); (b) the amount of radiation emitted by the beamlets of each beam; and (c), a radiation delivery sequence. The elaboration of a plan can be modeled by optimization problems, usually NP-hard, where steps (a), (b) and (c) are called problems of Geometry, Intensity (or Fluence Map) and Realization, respectively. This work addresses the first two. A transgenetic algorithm is proposed for the joint solution of these two problems. It uses an adaptation of the epsilon-constraint method present in the literature to compute the fluence map of a set of beams. In addition, linear and quadratic approximation functions are proposed for a particular type of (non-convex) function present in radiotherapy optimization: the dose-volume function. Two groups of experiments are carried out to ascertain the effectiveness of the algorithm: one with the dose in the tumor as a restriction, and another with it as an objective function. Real cases of liver cancer are used in the experiments. The results for the first group show the effectiveness in the optimization of objective functions and doses below those desired for the tumor. The results for the second group show that the tumor dose as an objective function of the problem is in fact the most appropriate option.

7
  • LUCAS RODRIGUES SILVA
  • O FRAMEWORK CONBAT: SUPORTE A TESTES BASEADOS EM CONTEXTO PARA SISTEMAS DESENVOLVIDOS EM ARDUINO

  • Orientador : ROBERTA DE SOUZA COELHO
  • MEMBROS DA BANCA :
  • ROBERTA DE SOUZA COELHO
  • NELIO ALESSANDRO AZEVEDO CACHO
  • UIRA KULESZA
  • WILKERSON DE LUCENA ANDRADE
  • Data: 26/02/2021

  • Mostrar Resumo
  • Sistemas embarcados, em especial os sistemas sensíveis ao contexto, cujo
    comportamento é determinado por informações constantemente obtidas através dos
    mais diversos tipos de sensores, podem ser muito difíceis de serem testados. Isso
    porque a natureza de dados de entrada é difícil de ser replicada, além de serem
    sistemas com recursos naturalmente limitados. Dessa forma, abordagens de teste de
    software que funcionam muito bem em sistemas “comuns” podem ser insuficientes para
    esse tipo de sistema. As ferramentas criadas até o momento para apoiar a atividade de
    testes em sistemas embarcados se limitam em grande parte ao suporte à criação de
    testes de unidade, evitando lidar com dados recebidos diretamente de sensores, que
    são na verdade a base do funcionamento dos sistemas sensíveis ao contexto. Para
    auxiliar a atividade de testes nesse tipo de sistema, este trabalho propõe (i) uma
    abordagem para coletar e documentar a variação de dados de contexto capturados por
    sensores, (ii) o conceito de testes baseados em contexto e (iii) o desenvolvimento de
    uma ferramenta, o Context Based Testing (ConBaT), com o propósito de auxiliar a
    coleta de dados de contexto e a criação de testes baseados em contexto para sistemas
    desenvolvidos em Arduino.


  • Mostrar Abstract
  • Embedded systems, especially context-aware systems, whose behaviour is determined
    by information constantly obtained by different kinds of sensors, can be very hard to be
    tested. That happens due to the nature of their input data, which can be hard to
    replicate, and also because of their limited resources. Thus, software testing techniques
    that may work for “common” software can be insufficient for this kind of system. Tools
    created to support the testing activity of embedded systems are often limited to unit
    tests, and avoid having to deal with data received from sensors, which is actually the
    foundation of context-aware systems. To support software testing on context-aware
    systems, this work proposes (i) an approach to collect and document the variation of
    context data captured by sensors over time, (ii) the concept of context driven testing
    and (iii) the development of a tool called Context Based Testing framework (ConBaT
    framework) to help collecting context data and creating context driven tests for Arduino
    systems.

8
  • SÁVIO RENNAN MENÊZES MELO
  • Uma Abordagem de Definição de Políticas para Offloading de Dados no Contexto de Computação em Névoa

  • Orientador : GIBEON SOARES DE AQUINO JUNIOR
  • MEMBROS DA BANCA :
  • FERNANDO ANTONIO MOTA TRINTA
  • GIBEON SOARES DE AQUINO JUNIOR
  • THAIS VASCONCELOS BATISTA
  • Data: 24/05/2021

  • Mostrar Resumo
  • Atualmente, os mais variados objetos estão conectados à internet e, ao mesmo tempo,
    gerando quantidades massivas de dados. Ligado a esse fato, as aplicações de internet das
    coisas estão cada vez mais complexas e com mais responsabilidades. Armazenar, processar,
    gerenciar e analisar essa quantidade de dados são processos desafiadores. A execução
    desses processos comumente é realizada em serviços externos através da computação em
    nuvem, porém, um paradigma chamado de computação em névoa habilita tal execução
    diretamente na borda da rede, servindo como um respaldo para o funcionamento ágil e
    eficiente da internet das coisas. Entretanto, quando a computação em névoa não possui
    recursos suficientes para realizar essas ações, os dados são transferidos para entidades
    com maiores capacidades computacionais, que é uma prática conhecida como offloading.
    A esse respeito, esta pesquisa investiga o uso de políticas que norteiam o processo de
    offloading de dados no contexto de computação em névoa. Portanto, o objetivo deste
    trabalho é definir e organizar estratégias para orientar o desenvolvimento de políticas para
    offloading de dados em computação em névoa. Para isto, os resultados concretos do trabalho
    foram: o levantamento de políticas para offloading de dados propostas pela literatura;
    o desenvolvimento de uma taxonomia que organiza os principais aspectos utilizados no
    processo de offloading de dados; o desenvolvimento de uma estrutura de orientação que
    recomenda práticas para elaboração de políticas para offloading de dados e a demonstração
    da instanciação da abordagem através de uma prova de conceito. Finalmente, esta pesquisa
    identifica que o uso de tais estratégias tem muito a contribuir para aplicações baseadas
    em computação em névoa, uma vez que aprimora o processo de offloading de dados.


  • Mostrar Abstract
  • Currently, the most varied objects are connected to the Internet and, at the same time,
    generating massive amounts of data. Linked to this fact, the internet of things applications
    are increasingly complex and with more responsibilities. Storing, processing, managing, and
    analyzing this amount of data are challenging processes. The execution of these processes
    is commonly performed in external services through cloud computing, however, a paradigm
    called fog computing enables such execution directly at the edge of the network, serving
    as a support for the agile and efficient functioning of the internet of things. However,
    when fog computing does not have enough resources to perform these actions, the data is
    transferred to entities with higher computational capabilities, which is a practice known
    as offloading. In this regard, this research explore the use of policies that guide the process
    of data offloading in the context of fog computing. Therefore, the objective of this work is
    to define and organize strategies to guide the development of policies for data offloading
    in fog computing. For this, the concrete results of the work were: the survey of policies for
    data offloading proposed by the literature; the development of a taxonomy that meets the
    main aspects used in the data offloading process; the development of a guide structure
    that recommends practices for policy making for data offloading and a demonstration of
    the instantiation of the approach, through proof of concept. Finally, this research identifies
    that the use of such strategies has much to contribute to fog-based applications as it
    improves the data offloading process.

9
  • CARLOS DIEGO FRANCO DA ROCHA
  • WoundArch: Um Sistema de Arquitetura Híbrida para a Segmentação e Classificação de Feridas Crônicas

  • Orientador : BRUNO MOTTA DE CARVALHO
  • MEMBROS DA BANCA :
  • AURA CONCI
  • BRUNO MOTTA DE CARVALHO
  • BRUNO SANTANA DA SILVA
  • FERNANDO MARQUES FIGUEIRA FILHO
  • ITAMIR DE MORAIS BARROCA FILHO
  • Data: 31/05/2021

  • Mostrar Resumo
  • Todo ano, milhões de pessoas são acometidas por feridas crônicas em todo o mundo. O processo de tratamento de feridas é custoso e exige que profissionais de enfermagem desenvolvam atividades durante assistência aos pacientes, dentre elas: a correta identificação e classificação dos tecidos da ferida. Desta maneira, este trabalho propõe construir um sistema computacional híbrido de duas configurações para o apoio ao tratamento de feridas. A primeira configuração utiliza um aplicativo móvel para realizar a captura, segmentação e classificação das imagens de feridas. A outra configuração possui uma arquitetura cliente-servidor, as imagens são capturadas e segmentadas no aplicativo e enviadas, por meio da Internet, ao servidor-web, que se encarrega de realizar a classificação dos tecidos das feridas. Para isso, foram realizados alguns estudos na literatura, a saber:  revisão em artigos científicos, aplicativos similares ao proposto neste trabalho, métodos de avaliação de eficiência de sistemas computacionais e algoritmos de classificação de ferida. Assim, este trabalho utiliza o método de segmentação e classificação de imagens de ferida desenvolvido por Marques et al. \cite{marques2018ulcer} para construir o sistema computacional híbrido. Foi elaborado um questionário de avaliação que será aplicado aos especialistas em enfermagem do Hospital Universitário Onofre Lopes a fim de avaliar a qualidade técnica de segmentação e classificação das feridas. Deste modo, por meio de um \textit{survey}, buscou-se responder a seguinte questão de pesquisa: o tempo de execução e os gastos de energia são aceitáveis pelos enfermeiros em ambas as configurações do sistema?


  • Mostrar Abstract
  • Every year, millions of people are affected by chronic wounds around the world. The wound treatment process is costly and requires nursing professionals to develop activities during patient care, among them: the correct identification and classification of wound tissues. In this way, this work proposes to build a hybrid computational system of two configurations to support the treatment of wounds. The first configuration uses a mobile application to perform the capture, segmentation and classification of the images of wounds. The other configuration has a client-server architecture, the images are captured and segmented in the application and sent, through the Internet, to the web server, which is responsible for classifying the tissue of the wounds. For this, some studies were carried out in the literature, namely: review of scientific articles, applications similar to the one proposed in this work, methods for assessing the efficiency of computer systems and wound classification algorithms. Thus, this work uses the method of segmentation and classification of wound images developed by Marques et al. \cite{marques2018ulcer} to build the hybrid computational system. An evaluation questionnaire was developed to be applied to nursing specialists at Hospital Universitário Onofre Lopes in order to assess the technical quality of segmentation and classification of wounds. Thus, by means of a \ textit {survey}, we sought to answer the following research question: are the execution time and energy expenditures acceptable by nurses in both configurations of the system?

10
  • ARTHUR COSTA GORGÔNIO
  • Um Framework Semissupervisionado para Classificação de Dados em Fluxos Contínuos

  • Orientador : ANNE MAGALY DE PAULA CANUTO
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • MARJORY CRISTIANY DA COSTA ABREU
  • JOAO CARLOS XAVIER JUNIOR
  • KARLIANE MEDEIROS OVIDIO VALE
  • ARAKEN DE MEDEIROS SANTOS
  • Data: 25/06/2021

  • Mostrar Resumo
  • Aplicações no domínio de fluxos contínuos de dados (do inglês, Data Streams) recebem
    um grande volume de dados rapidamente e, existe a necessidade de processá-los sequencialmente.
    Uma característica destas aplicações é que os dados podem sofrer mudanças
    durante o processo da utilização do modelo, ademais a quantidade de instâncias cujo rótulo
    é conhecido pode não ser suficiente para gerar um modelo eficaz. A fim de suprimir
    a dificuldade da pouca quantidade de instâncias rotulada, pode-se utilizar o aprendizado
    semissupervisionado. Além disso, o uso de comitês de classificadores pode auxiliar na
    detecção da mudança de contexto. Assim, neste trabalho, é proposto um método para
    realizar a classificação semissupervisionada em tarefas com fluxos contínuos de dados,
    utilizando uma abordagem baseada em comitês de classificadores. Para avaliar a eficácia
    da proposta, são realizados testes empíricos com onze bases de dados utilizando dois diferentes
    tamanhos de batch, nove abordagens supervisionadas (três classificadores simples
    e seis comitês), por meio das métricas acurácia, precisão, recall e F-Score. Ao avaliar a
    quantidade de instâncias processadas, as abordagens supervisionadas obtiveram um desempenho
    praticamente constantes, enquanto que a proposta apresentou uma melhora de
    8,28% e 3,81% utilizando 5% e 10% de instâncias rotuladas, respectivamente. De modo
    geral, os resultados apontam que aumentar a quantidade de instâncias processadas nos
    batches implica, na maioria das vezes, na melhora dos resultados da abordagem semissupervisionada.


  • Mostrar Abstract
  • Data stream applications receive a large volume of data quickly, and they need to process
    them sequentially. In these applications, the data may change during the use of the model;
    in addition, the number of instances whose label is known may not be sufficient to generate
    an effective model. Semi-supervised learning can be used to suppress the difficulty
    of the small number of instances labelled. Also, an ensemble of classifiers can assist in
    detecting the concept drift. So, in this work, we proposed a framework to perform the
    semi-supervised classification in tasks in a data stream context, using an approach based
    on an ensemble of classifiers. In order to evaluate the effectiveness of this proposal, empirical
    tests are carried out with eleven databases using two different batches sizes, nine
    supervised approaches (three simple classifiers and six ensembles), using the metrics accuracy,
    precision, recall and F-Score. When assessing the number of instances processed, the
    supervised approaches achieved practically stable performance, while the proposal showed
    an improvement of 8.28% and 3.81% using 5% and 10% of labelled instances, respectively.
    In general, the results show that increasing the number of instances processed in batches
    implies, in most cases, improving the results of the semi-supervised approach.

11
  • BRUNO DOS SANTOS FERNANDES DA SILVA
  • An investigative analysis of Gender Bias in JudicialData using Supervised and Unsupervised MachineLearning Techniques

  • Orientador : MARJORY CRISTIANY DA COSTA ABREU
  • MEMBROS DA BANCA :
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • LAURA EMMANUELLA ALVES DOS SANTOS SANTANA DE OLIVEIRA
  • MARJORY CRISTIANY DA COSTA ABREU
  • PLACIDO ANTONIO DE SOUZA NETO
  • Data: 05/07/2021

  • Mostrar Resumo
  • Brazilian Courts have been working in virtualisation of judicial processes since this century's rise, leading to a revolution in
    relations, services and labour force. A huge volume of data has been produced and computational techniques have been an intimate ally to keeping business processes under control and delivering services as juridical clients expect. However,although there is a misunderstanding that automation solutions are always ’intelligent’, which in most cases, it is not true, there has never been any discussion about the use of intelligent solutions for this end as well as any issues related with automatic predicting and decision making using historical data in context. One of the problems that has already come to light is the bias in judicial datasets around the world. Thus, this work will focus on evaluating,applying and understanding resources based on fine and parameter tuning, with the end of better using machine learning techniques when working on judicial systems, and, therefore,raising the discussion related to secondary issues. We have used a real dataset of judicial sentences (Além da Pena), applying supervised and unsupervised learning models and our results point to the accuratedetection of gender bias.


  • Mostrar Abstract
  • Brazilian Courts have been working in virtualisation of judicial processes since this century's rise, leading to a revolution in
    relations, services and labour force. A huge volume of data has been produced and computational techniques have been an intimate ally to keeping business processes under control and delivering services as juridical clients expect. However,although there is a misunderstanding that automation solutions are always ’intelligent’, which in most cases, it is not true, there has never been any discussion about the use of intelligent solutions for this end as well as any issues related with automatic predicting and decision making using historical data in context. One of the problems that has already come to light is the bias in judicial datasets around the world. Thus, this work will focus on evaluating,applying and understanding resources based on fine and parameter tuning, with the end of better using machine learning techniques when working on judicial systems, and, therefore,raising the discussion related to secondary issues. We have used a real dataset of judicial sentences (Além da Pena), applying supervised and unsupervised learning models and our results point to the accuratedetection of gender bias.



12
  • JOSÉ GAMELEIRA DO RÊGO NETO
  •  
     
     
     
     

    Entendendo a Relação entre Integração Contínua e Cobertura de Testes: Um Estudo Empírico

     

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • ELDER JOSÉ REIOLI CIRILO
  • FREDERICO ARAUJO DA SILVA LOPES
  • NELIO ALESSANDRO AZEVEDO CACHO
  • UIRA KULESZA
  • Data: 13/08/2021

  • Mostrar Resumo
  •  
     
     
     
     

    A evolução das metodologias e práticas de desenvolvimento vem possibilitando a redução no tempo de entrega de novas funcionalidades e melhorias de um software. Uma das práticas mais populares e utilizadas atualmente que pode contribuir para redução no tempo de entrega do software é a Integração Contínua (Continuous Integration - CI). Ela busca automatizar e integrar o código fonte de uma equipe com uma alta frequência durante o desenvolvimento do software. A adoção de CI ajuda aos desenvolvedores encontrar problemas de integração mais rapidamente, agilizando na sua resolução. Acredita-se também que a prática de CI contribui para a redução de bugs ao longo do ciclo de vida do software, uma vez que ela também preconiza o uso de testes automatizados para garantir a qualidade do código integrado. Uma das formas para avaliar a qualidade dos testes realizados é usando métricas de cobertura de testes. Estudos recentes buscam entender a relação que existe entre a adoção da prática de CI e os testes realizados. Este trabalho apresenta um estudo empírico que investiga a relação entre CI e cobertura dos testes no contexto de projetos open-source. O estudo compara projetos que adotaram a prática de integração contínua (CI) com projetos que não adotaram CI (NOCI), assim como projetos que adotaram CI mas são de repositórios diferentes. Os resultados do estudo sugerem que projetos CI apresentam taxas mais altas e uma maior estabilidade na cobertura de código quando comparado com projetos NOCI.


  • Mostrar Abstract
  •  

    The evolution of software development methodologies has enabled an increase in the delivery of new features and improvements. One of the best practices for increasing the delivery speed is continuous integration (CI). CI is a practice that motivates automating and integrating source code more often during software development. The adoption of CI helps developers to find integration issues faster. It is believed that the practice of CI helps the software to have fewer bugs throughout its lifecycle. One of the ways to find bugs is by performing software tests, and one of the most used metrics to ensure quality in software testing is test coverage. Therefore, it is believed that CI adoption and test coverage have a strong relationship. Previous studies have provided preliminary evidence for this relationship between CI and tests, however, most of them do not demonstrate it empirically. This dissertation proposes an empirical study that aims to identify the relationship between CI adoption and test coverage through the analysis of several open-source projects. We quantify coverage trend comparisons over time between projects that adopt (or do not ) CI. Our results suggest that CI projects have high test coverage rates and stability, while NOCI projects have low coverage rates and less potential for growth.


    Keywords: continuous integration, test coverage, empirical study

     

    The evolution of software and hardware systems has enabled the application of such technologies

    to assist in solving day-to-day problems in the context of big cities. Over the last

    years, there is an increasing interest companies, researchers and government in the development

    of large-scale systems and applications for the domain of smart cities. Large-scale

    software systems often present critical challenges for their development, maintenance and

    evolution. Smart city applications typically involve dealing with many challenges, such

    as scalability, security, communication and heterogeneity. One way to identify problems

    in the source code of large-scale systems is through the usage of static analysis tools. In

    this context, this work presents an exploratory study that aims to evaluate the usefulness

    of modern static analysis tools in the context of smart city applications. The study

    analyzes 3 real smart cities systems through the analysis of rule violations reported by the

    SonarQube tool. In addition, the work also relates such violations to existing challenges

    of the smart city domain reported by the literature. The results show that the challenges

    of security, data management and maintenance of the platform are the ones that exhibit

    more problems related to static analysis.

    The evolution of software and hardware systems has enabled the application of such technologies

    to assist in solving day-to-day problems in the context of big cities. Over the last

    years, there is an increasing interest companies, researchers and government in the development

    of large-scale systems and applications for the domain of smart cities. Large-scale

    software systems often present critical challenges for their development, maintenance and

    evolution. Smart city applications typically involve dealing with many challenges, such

    as scalability, security, communication and heterogeneity. One way to identify problems

    in the source code of large-scale systems is through the usage of static analysis tools. In

    this context, this work presents an exploratory study that aims to evaluate the usefulness

    of modern static analysis tools in the context of smart city applications. The study

    analyzes 3 real smart cities systems through the analysis of rule violations reported by the

    SonarQube tool. In addition, the work also relates such violations to existing challenges

    of the smart city domain reported by the literature. The results show that the challenges

    of security, data management and maintenance of the platform are the ones that exhibit

    more problems related to static analysis.

     
     
13
  • MATHEWS PHILLIPP SANTOS DE LIMA
  • Avaliação de estratégias de decisão de Mobilidade MADM orientados para a qualidade em cenário de redes 5G

  • Orientador : AUGUSTO JOSE VENANCIO NETO
  • MEMBROS DA BANCA :
  • AUGUSTO JOSE VENANCIO NETO
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • DANIEL CORUJO
  • VICENTE ANGELO DE SOUSA JUNIOR
  • Data: 29/10/2021

  • Mostrar Resumo
  • O crescimento do número de Equipamentos de Usuário (UE) ocasionou a necessidade do desenvolvimento de novas tecnologias de redes móveis a fim de suprir a demanda de tráfego exigida. Com isso, surge o conceito de Redes Móveis de Quinta Geração (5G) com inúmeros paradigmas e abordagens a fim de avançar sobre as necessidades de serviço da internet atual. Entretanto, o gerenciamento de mobilidade em redes móveis depara-se com inúmeras necessidades a serem resolvidas, uma delas trata-se da eficiência dos mecanismos de decisão de handover. Foram documentados na literatura inúmeros mecanismos com o intuito de obter a melhor decisão de mobilidade. Dentre os vários algoritmos de decisão de mobilidade identificados na literatura,as soluções baseadas em Multiatributo (Multiple Attribute Decision Making– MADM) sãoconsideradas as mais robustas pela sua eficiência no que diz respeito ao tráfego multimídia em redes móveis. A maior parte das avaliações de métodos de decisão baseados em MADM documentados na literatura não dispõe de uma análise abrangente sobre os aspectos subjetivos relacionados à percepção/satisfação do usuário no que concerne aos modelos de decisão de mobilidade, que é uma condição primordial para avaliar a Qualidade de Experiência (Quality of Experience -– QoE) nas aplicações multimídia aplicadas neste cenário. Portanto, este trabalho oferece uma ampla revisão dos métodos MADM aplicados ao processo de decisão de mobilidade orientada para a qualidade.


  • Mostrar Abstract
  • The growth in the number of User Equipment (UE) in the need for the development of new mobile network technologies is needed in order to meet the demand for traffic required. With this, the concept of Mobile Networks of Fifth Generation (5G) emerges with innumerable paradigms and approaches in order to advance on how the current internet service needs. However, mobility management in mobile networks is faced with the need to be resolved, one of which is the efficiency of handover decision mechanisms. Numerous numbers have been documented in the literature in order to obtain the best mobility decisions. Among the various mobility availability algorithms, according to solutions based on Multi-Attribute (Multiple Attribute Decision Making - MADM), they are considered the most robust due to their efficiency with regard to multimedia traffic on mobile networks. Most evaluations of MADM-based methods documented in the literature do not have an analysis of data on the subjective aspects related to user perception/satisfaction with regard to mobility models, which is a fundamental condition for assessing the Quality of Experience (Quality of Experience - QoE) in multimedia applications applied in this scenario. Therefore, this work offers a wide review of MADM methods, the quality-oriented mobility decision process.

Teses
1
  • KLEBER TAVARES FERNANDES
  • Game Criativo: desenvolvendo habilidades de pensamento computacional, leitura e escrita através da criação de jogos

  • Orientador : EDUARDO HENRIQUE DA SILVA ARANHA
  • MEMBROS DA BANCA :
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • LYRENE FERNANDES DA SILVA
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • FRANCISCO MILTON MENDES NETO
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • THIAGO REIS DA SILVA
  • Data: 22/01/2021

  • Mostrar Resumo
  • As iniciativas que promovem o desenvolvimento do pensamento computacional na educação básica ainda são insuficientes. Historicamente, os resultados das avaliações desse mesmo segmento têm mostrado deficiências na aprendizagem da matemática e da língua portuguesa. Observam-se pesquisas que apresentam soluções tecnológicas que priorizam a resolução dos problemas da matemática. Porém, em se tratando de produção textual (língua portuguesa), poucas são apresentadas. Uma das estratégias que pode contribuir para o desenvolvimento do pensamento computacional e da capacidade de produzir textos é o uso de jogos digitais. Estes cada vez mais fazem parte do nosso cotidiano e são considerados também como ferramentas de ensino e aprendizagem. No entanto, sua produção e documentação é uma tarefa muito complexa que requer habilidades de programação e conhecimento de várias áreas. Isso tem dificultado o desenvolvimento de jogos em sala de aula. Uma abordagem desplugada de criação de jogos a partir da linguagem natural, na qual os fundamentos da computação sejam aprendidos de forma lúdica e sem uso de computadores, mostra-se como uma alternativa para adoção da aprendizagem baseada em jogos. Neste contexto, este trabalho apresenta uma abordagem que propõe a especificação e criação de jogos de maneira desplugada a partir de textos produzidos pelos alunos, favorecendo o desenvolvimento das habilidades do pensamento computacional, de leitura e de escrita em sala de aula. Além disso, poderá favorecer o interesse dos alunos pela área da computação os motivando a ingressarem em algum curso superior e/ou alguma carreira nessa área. Usa o método hipotético dedutivo, caracterizando-se como de natureza aplicada. Classifica-se ainda como explicativo, já que propõe uma abordagem para especificação e criação de jogos digitais examinando sua aplicabilidade, efetividade e principais benefícios. Os resultados provenientes dos estudos exploratórios mostram que a abordagem proposta é aplicável ao seu contexto e apontam uma melhoria no desenvolvimento das habilidades de pensamento computacional, bem como motiva a produção textual, promovendo as habilidades de leitura e escrita dos alunos.


  • Mostrar Abstract
  • The initiatives that promote the development of computational thinking in basic education
    are still insufficient. Historically, the results of assessments in this same segment have
    shown deficiencies in the learning of mathematics and the Portuguese language. There are
    researches that present technological solutions that prioritize solving math problems.
    However, when it comes to textual production (Portuguese language), few are presented.
    One of the strategies that can contribute to the development of computational thinking and
    the ability to produce texts is the use of digital games. These are increasingly part of our
    daily lives and are also considered as teaching and learning tools. However, its production
    and documentation is a very complex task that requires programming skills and knowledge
    from various areas. This has hampered the development of games in the classroom. An
    unplugged approach to creating games based on natural language, in which the
    fundamentals of computing are learned in a playful way and without the use of computers,
    shows itself as an alternative for adopting game-based learning. In this context, this work
    presents an approach that proposes the specification and creation of games in an unplugged
    way from texts produced by students, favoring the development of computational thinking,
    reading and writing skills in the classroom. In addition, it may favor students' interest in the
    area of computing by motivating them to enter a higher education course and / or a career
    in that area. It uses the hypothetical deductive method, being characterized as applied in
    nature. It is also classified as explanatory, since it proposes an approach to specification and
    creation of digital games examining its applicability, effectiveness and main benefits. The
    results from exploratory studies show that the proposed approach is applicable to its
    context and point to an improvement in the development of computational thinking skills,
    as well as motivating textual production, promoting students' reading and writing skills.

2
  • DÊNIS FREIRE LOPES NUNES
  • IPNoSys III: O Paradigma de Redes Definidas por Software Aplicado ao Controle de um Multiprocessador com Modelo de Execução Não Convencional

  • Orientador : MARCIO EDUARDO KREUTZ
  • MEMBROS DA BANCA :
  • MARCIO EDUARDO KREUTZ
  • MONICA MAGALHAES PEREIRA
  • GUSTAVO GIRAO BARRETO DA SILVA
  • ALISSON VASCONCELOS DE BRITO
  • CESAR ALBENES ZEFERINO
  • SILVIO ROBERTO FERNANDES DE ARAUJO
  • Data: 26/01/2021

  • Mostrar Resumo
  • A utilização de Redes-em-Chip (Networks-on-Chip - NoCs) na infraestrutura de comunicação de sistemas multiprocessados (Multiprocessors System-on-Chip – MPSoCs) tem se tornado um padrão devido a sua escalabilidade e suporte a comunicações em paralelo. Essas arquiteturas possibilitam a execução de aplicações formadas por diferentes tarefas que se comunicam entre si, e o suporte a essa comunicação tem um papel fundamental no desempenho do sistema. A IPNoSys (Integrated Processing NoC System) é uma arquitetura não convencional, com modelo de execução próprio, desenvolvida para explorar essa estrutura de comunicação da NoC como um sistema de processamento de alto desempenho. No cenário de redes de computadores convencionais, houve uma convergência para a utilização do paradigma das Redes Definidas por Software (Software-Defined Network - SDN), em que o controle da rede é delegado a um componente central que possui uma visão geral da rede e, por ser programável, pode alterar a configuração da rede para se adaptar às especificidades da aplicação ou às necessidades do programador. Nesse sentido, alguns trabalhos propõe a utilização do paradigma SDN em NoCs com o objetivo de criar arquiteturas mais flexíveis. Dessa forma, as SDNoCs surgem com uma infraestrutura de comunicação mais simples, mas conectada a um controlador programável que gerencia o funcionamento da rede.  Este trabalho tem por objetivo apresentar uma arquitetura baseada no modelo de execução IPNoSys, porém utilizando-se de conceitos de SDN para prover o controle da rede. A IPNoSys III é uma NoC com topologia de malha 2D, que contém em cada nó uma unidade de comunicação e quatro núcleos de processamento, com acesso à memória, que executam pacotes no formato IPNoSys. Um controlador SDN, conectado a todos os nós, tem uma visão geral e gerencia a rede para executar o algoritmo de roteamento e mapear tarefas de acordo com os objetivos de desempenho. Como prova de conceito, foi desenvolvido um ambiente de programação e simulação para esta arquitetura em SystemC, e as avaliações realizadas mostram o funcionamento e os benefícios obtidos através da utilização de um controlador SDN.


  • Mostrar Abstract
  • The use of Networks-on-Chip (NoCs) in the communication infrastructure of multiprocessor systems (MPSoCs) has become a standard due to its scalability and support for parallel communications. These architectures allow the execution of applications formed by different tasks that communicate with each other, and the support for this communication has a fundamental role in the system's performance. IPNoSys (Integrated Processing NoC System) is an unconventional architecture, with its own execution model, developed to exploit this NoC communication structure as a high-performance processing system. In the scenario of conventional computer networks, there was a convergence towards the use of the Software-Defined Network (SDN) paradigm, and a central component controls the network, which has an overview of the network and is programmable to change the network configuration to adapt to the specifics of the application or the needs of the programmer. Some works propose the use of the SDN paradigm in NoCs in order to create more flexible architectures. Thus, SDNoCs has a simpler communication infrastructure but is connected to a programmable controller that manages the network's functioning. This work aims to present an architecture based on the IPNoSys execution model but using SDN concepts to provide network control. IPNoSys III is an NoC with a 2D mesh topology, which contains a communication unit and four processing cores on each node, with memory access, that executes packets in the IPNoSys format. An SDN controller, connected to all nodes, has an overview and manages the network to execute the routing algorithm and map tasks according to performance objectives. As a proof of concept, we developed a programming and simulation environment for this architecture in SystemC, and the evaluations performed show the operation and benefits obtained through the use of an SDN controller.

3
  • ALBA SANDYRA BEZERRA LOPES
  • FRiDa: Uma Ferramenta de Predição para Rápida Exploração de Espaço de Projeto de Processadores combinados com Aceleradores Reconfiguráveis

  • Orientador : MONICA MAGALHAES PEREIRA
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • ANTONIO CARLOS SCHNEIDER BECK FILHO
  • MARCIO EDUARDO KREUTZ
  • MONICA MAGALHAES PEREIRA
  • SILVIO ROBERTO FERNANDES DE ARAUJO
  • Data: 05/02/2021

  • Mostrar Resumo
  • A cada ano aumenta-se a demanda por recursos computacionais das aplicações que executam em sistemas embarcados. Para atender a essa demanda, os projetos desses sistemas combinam componentes diversificados, resultando em plataformas heterogêneas que buscam balancear o poder de processamento com o consumo de energia. Os aceleradores reconfiguráveis se apresentam como uma alternativa cada vez mais frequente para atender a essas demandas. Entretanto, uma questão chave no projeto de aceleradores reconfiguráveis (RAs) acoplados a processadores de propósito geral (GPPs) é quais componentes combinar para atender ao desempenho esperado ao custo de área e potência adicionais. Realizar uma vasta exploração do espaço de projeto permite mensurar previamente o custo dessas plataformas antes da fase de fabricação. Entretanto a quantidade de possibilidades de soluções a serem avaliadas cresce de maneira exponencial e avaliar todas as soluções e ainda atender ao time-to-market é uma tarefa inviável. Neste trabalho, é apresentada FRiDA, uma ferramenta de predição para acelerar a exploração de espaço de projeto de sistemas que usam aceleradores reconfiguráveis. A ferramenta proposta utiliza aprendizado de máquina e através da simulação de um subconjunto do espaço de projeto em um simulador de alto nível, modelos de regressão são treinados para predizer os custos de novas configurações arquiteturais não simuladas. Diferentes modelos de regressão foram considerados para serem usados por FRiDA, e os modelos baseados em comitês de regressores apresentaram os melhores custo-benefícios quando considerados aspectos como acurácia e taxa de predições por segundo. FRiDA possibilita ainda que o projetista defina quais aspectos do projeto deseja otimizar, além de permitir a inclusão de novos aspectos. E assim, permite explorar milhares de configurações arquiteturais e encontrar soluções de alta eficiência com uma baixa taxa de erro de predição. Usando uma heurística multiobjetiva, FRiDA entrega rapidamente ao projetista soluções que que satisfaçam a um ou a múltiplos aspectos conflitantes do projeto.


  • Mostrar Abstract
  • Each year the demand of embedded applications for computational resources increases. To meet this demand, the embedded system designs have made use of the combination of diversified components, resulting in heterogeneous platforms that aims to balance the processing power with the energy consumption. However, a key question in the design of these systems is which components to combine to meet the expected performance at the cost of additional area and energy. To perform a vast design space exploration allows to estimate the cost of these platforms before the manufacturing phase. However, the number of possibilities for solutions to be evaluated grows exponentially with the increasing diversity of components that can be integrated into a heterogeneous embedded system. Evaluate the cost of one of these solutions through hardware synthesis is an extremely costly task. And even the use of high-level synthesis tools as alternative does not allow to synthesize all the solution possibilities and meet the textittime-to-market. In this work, one propose the use of prediction models based on machine learning algorithms to construct a tool for design space exploration of heterogeneous systems composed of general purpose processors and reconfigurable hardware accelerators. This tool aims to speed up the design exploration in the early stages of the design process and achieve high accuracy rates in predicting the cost of solutions. Although there are solutions in the literature that make use of the same prediction models approach, in general, these solutions address the exploration of microarchitectural parameters of only one of the components (either processors or accelerators). This work proposes the variation of the parameters of both components and also proposes the use of ensemble learning to increase the accuracy of the predictive modeling. Preliminary results show that the built prediction models are able to achieve a prediction accuracy rate of up to 98% and reduce the time for exploring the design space by 104x.

4
  • HULIANE MEDEIROS DA SILVA
  • Uma Metodologia para Definição do Número de Grupos e do Conjunto de Centros Iniciais para Algoritmos Particionais

  • Orientador : BENJAMIN RENE CALLEJAS BEDREGAL
  • MEMBROS DA BANCA :
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • ANNE MAGALY DE PAULA CANUTO
  • ARAKEN DE MEDEIROS SANTOS
  • GRAÇALIZ PEREIRA DIMURO
  • RONILDO PINHEIRO DE ARAUJO MOURA
  • Data: 05/02/2021

  • Mostrar Resumo
  • O agrupamento de dados consiste em agrupar objetos semelhantes de acordo com alguma característica. Na literatura, existem diversos algoritmos de agrupamento, dentre os quais destaca-se o algoritmo Fuzzy C-Means (FCM), um dos mais discutidos e utilizados em diferentes aplicações. Embora seja um método de agrupamento simples e fácil de manipular, o algoritmo FCM requer como parâmetro inicial o número de grupos. No geral, essa informação é desconhecida, a priori, e se torna um problema relevante no processo de análise de agrupamento de dados. Além disso, o desenho do algoritmo FCM depende fortemente da seleção dos centros iniciais dos grupos. Normalmente, a escolha do conjunto de centros iniciais é feita aleatoriamente, o que pode comprometer o desempenho do FCM e, consequentemente, o processo de análise de agrupamento. Neste contexto, este trabalho propõe uma nova metodologia pra determinar o número de grupos e o conjunto de centros iniciais de algoritmos particionais, usando como estudo de caso o algoritmo FCM e algumas de suas variantes. A ideia é usar um subconjunto dos dados originais para definir o número de grupos e determinar o conjunto de centros iniciais através de um método baseado em funções do tipo média. Com essa nova metodologia, pretende-se reduzir os efeitos colaterais da fase de definição de grupos, possivelmente tornando mais rápido o tempo de processamento e diminuindo o custo computacional. Para avaliar a metodologia proposta, serão utilizados diferentes índices de validação de agrupamento, capazes de avaliar a qualidade dos agrupamentos obtidos pelo algoritmo FCM e algumas
    de suas variantes, quando aplicados a diferentes bases de dados.


  • Mostrar Abstract
  • Data clustering consists of grouping similar objects according to some characteristic. In literature, there are several clustering algorithms, among which stands out the Fuzzy C-Means (FCM), one of the most discussed algorithms, being used in different applications. Although it is a simple and easy to manipulate clustering method, the FCM requires as its initial parameter the number of clusters. Usually, this information is unknown, beforehand and this becomes a relevant problem in the data cluster analysis process. Moreover, the design of the FCM algorithm strongly depends on the selection of the initial centers of the clusters. In general, the selection of the initial set of centers is random, which may compromise the performance of the FCM and, consequently, of the cluster analysis process. In this context, this work proposes a new methodology to determine the number of clusters and the set of initial centers of the partial algorithms, using the FCM algorithm and some of its variants as a case study. The idea is to use a subset of the original data to define the number of clusters and determine the set of initial centers through a method based on mean type functions. With this new methodology, we intend to reduce the side effects of the clusters definition phase, possibly speeding up the processing time and decreasing the computational cost. To evaluate the proposed methodology, different cluster validation
    indices will be used to evaluate the quality of the clusters obtained by the FCM algorithms and some of its variants, when applied to different databases.

5
  • ALUÍZIO FERREIRA DA ROCHA NETO
  • Edge-distributed Stream Processing for Video Analytics in Smart City Applications

     

  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • THAIS VASCONCELOS BATISTA
  • NELIO ALESSANDRO AZEVEDO CACHO
  • FLAVIA COIMBRA DELICATO
  • JOSÉ NEUMAN DE SOUZA
  • PAULO DE FIGUEIREDO PIRES
  • Data: 31/03/2021

  • Mostrar Resumo
  • Aplicações emergentes de Internet das Coisas (IoT) baseadas em sensores distribuídos einteligência, especialmente no contexto de cidades inteligentes, apresentam muitos desafiospara a infraestrutura de rede e de processamento. Por exemplo, um único sistema comalgumas dezenas de câmeras de monitoramento é suficiente para saturar o backbonedacidade uma vez que tal sistema gera fluxos massivos de dados para aplicações baseadas em eventos que demandam um rápido processamento visando ações imediatas. A busca por uma pessoa desaparecida usando a tecnologia de reconhecimento facial é uma dessas aplicações que requer ação imediata no local onde essa pessoa se encontra, uma vez queesta localização é uma informação perecível. Uma estratégia promissora para dar suporte à demanda computacional de sistemas amplamente distribuídos geograficamente é a integração da computação de borda com inteligência de máquina visando se interpretar dados próximos aos sensores e reduzir a latência de ponta a ponta no processamento dos eventos.No entanto, devido à capacidade limitada e heterogeneidade dos dispositivos de borda,tal processamento distribuído não é trivial, especialmente quando as aplicações têm difer-entes requisitos de Qualidade de Serviço (QoS). Este trabalho apresenta um arcabouço para distribuição das tarefas de análise de vídeo na borda da rede.Tal arcabouço abrange uma arquitetura, métodos e algoritmos para (i) dividir o processamento de fluxos de vídeoem grande escala em várias tarefas de aprendizado de máquina; (ii) implantar essas tarefas como um workflow de processamento de dados em dispositivos de borda equipados com aceleradores de hardware para redes neurais; (iii) alocar um conjunto de nós com capacidade de processamento suficiente para executar oworkflow, minimizando o custo operacional relacionado à latência e energia e maximizando a disponibilidade. Também propomos a reutilização de nós executando tarefas compartilhadas por várias aplicações como, por exemplo, reconhecimento facial, otimizando assim o rendimento destes nós. Esse trabalho também apresenta simulações visando demonstrar que a distribuição do processamento em vários nós de borda reduz a latência e o consumo de energia e aindamelhora a disponibilidade em comparação ao processamento na nuvem.


  • Mostrar Abstract
  • Emerging IoT applications based on distributed sensors and machine intelligence, especially in the context of smart cities, present many challenges for network and processing infrastructure. For example, a single system with a few dozen monitoring cameras is sufficient to saturate the city’s backbone. Such a system generates massive data streamsfor event-based applications that require rapid processing for immediate actions. Finding a missing person using facial recognition technology is one of those applications that require immediate action at the location where that person is since this location is perishable information. An encouraging plan to support the computational demand for widely geographically distributed systems is to integrate edge computing with machine intelligence tointerpret massive data near the sensor and reduce end-to-end latency in event processing. However, due to the limited capacity and heterogeneity of the edge devices, distributed processing is not trivial, especially when applications have different QoS requirements.This work presents an edge-distributed system framework that supports stream processingfor video analytics. Our approach encompasses an architecture, methods, and algorithms to (i) divide the heavy processing of large-scale video streams into various machine learning tasks; (ii) implementing these tasks as a data processing workflow on edge devices equipped with hardware accelerators for neural networks; (iii) allocate a set of nodes with sufficient processing capacity to perform the workflow, minimizing the operational costrelated to latency and energy and maximizing availability. We also propose to reuse nodes by performing tasks shared by various applications, such as facial recognition, thus optimizing the nodes’ throughput. We also present simulations to show that the distribution of processing across multiple edge nodes reduces latency and energy consumption and further improves availability compared to processing in the cloud.

6
  • JULIANA DE ARAÚJO OLIVEIRA
  • Projetando de Forma Eficiente o Código de Tratamento de Exceções em Aplicativos Android

  • Orientador : NELIO ALESSANDRO AZEVEDO CACHO
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • FERNANDO JOSÉ CASTOR DE LIMA FILHO
  • NELIO ALESSANDRO AZEVEDO CACHO
  • ROBERTA DE SOUZA COELHO
  • WINDSON VIANA DE CARVALHO
  • Data: 31/05/2021

  • Mostrar Resumo
  • A popularidade da plataforma Android pode ser atribuída à capacidade de executar aplicativos que potencializam os diversos recursos dos dispositivos móveis. Os aplicativos Android são em sua maioria escritos em Java, no entanto, eles são muito diferentes dos aplicativos Java padrão, com diferentes abstrações, vários pontos de entrada e também têm uma forma diferente de comunicação entre os componentes. Estas diferenças na estrutura de aplicações Android têm produzido efeitos negativos na experiência do usuário em termos de baixa robustez. Em termos de robustez, o mecanismo de tratamento de exceções para a plataforma Android tem dois problemas principais: (1) a abordagem Terminate ALL" e (2) a falta de uma visão holística do comportamento excepcional. O tratamento de exceções está fortemente relacionado à robustez do programa. Além da robustez, o consumo de energia e o desempenho são outros requisitos não funcionais que precisam ser levados em consideração durante o desenvolvimento. Esses três requisitos podem afetar diretamente a qualidade da experiência do usuário e a qualidade do funcionamento dos aplicativos. Neste contexto este trabalho propõe uma metodologia geral para engenharia eciente de aplicativos Android e um EHM denominado DroidEH para suportar a metodologia e melhorar a robustez de aplicativos Android. Estudos foram realizados para entender o impacto do tratamento de exceções na robustez e no consumo de energia dos aplicativos Android. A avaliação da metodologia mostrou que ela é satisfatória para atingir o objetivo de permitir ao desenvolvedor tomar decisões levando em consideração esses requisitos não funcionais e determinar através do trade-o entre esses requisitos, diferentes modos de operação que podem ser implementados no aplicativo usando o DroidEH. Além disso, foi observado que uso do DroidEH em aplicativos pode aumentar sua robustez.


  • Mostrar Abstract
  • The popularity of the Android platform can be attributed to their ability to run apps that leverage the many capabilities of mobile devices. Android applications are mostly written in Java, however, they are very different from standard Java applications, with different abstractions, multiple entry points, and also have a different form of communication between components. These differences in the structure of Android applications have had negative effects on the user experience in terms of low robustness. In terms of robustness, the exception handling mechanism for the Android platform has two main problems: (1) the Terminate ALL" approach and (2) a lack of a holistic view on exceptional behavior. Exception handling is strongly related to program robustness. In addition to robustness, energy consumption and performance are other non-functional requirements that need to be taken into account during development. These three requirements can directly affect the quality of the user experience and the quality of the functioning of the applications. In this context this work proposes a general methodology to efficient engineering of Android applications and an EHM called DroidEH to support the methodology and to improve the robustness of Android applications. Studies have been carried out to understand the impact of exception handling on the robustness and energy consumption of Android applications. The evaluation of the methodology showed that it is satisfactory in achieving the objective of allowing the developer to make decisions taking into account these non-functional requirements and to determine through the trade-o between these requirements, dierent operation modes that can be implemented in the application using the DroidEH. Furthermore, it was observed that the use of DroidEH in applications can enhance its robustness.

7
  • ERICA ESTEVES CUNHA DE MIRANDA
  • Um Framework Fundamentado na Engenharia de Requisitos para Apoiar a Conformidade Legal e Regulatória em Sistemas Computacionais

  • Orientador : MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • MEMBROS DA BANCA :
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • APUENA VIEIRA GOMES
  • JOSUÉ VITOR DE MEDEIROS JÚNIOR
  • FERNANDA MARIA RIBEIRO DE ALENCAR
  • MARILIA ARANHA FREIRE
  • Data: 29/07/2021

  • Mostrar Resumo
  • O universo legal e regulatório permeia a tudo e a todos. Sendo assim, os sistemas computacionais necessitam estarem, desde sua concepção, evolução, ou até sua manutenção, em conformidade legal e regulatória com as leis, normas, regulamentação, regimentos, estatutos, padrões, dentre outras mídias legais (nomeadas, nesta pesquisa, de fontes legais ou regulatórias - FLR), que regem o seu domínio, o seu contexto de aplicação. O objetivo desta pesquisa foi oferecer uma alternativa ao profissional da Computação (analistas de requisitos e gerentes de projeto, principalmente) de verificar e manter esta conformidade legal e regulatória em seus projetos, onde as fontes legais ou regulatórias não abrangem mais apenas pessoas físicas ou jurídicas, mas também pessoas digitais e, onde, essas FLR podem não ser mais somente nacionais. Identificar, definir e priorizar essas FLR passaram a ser problemas para esses profissionais da Computação no contexto de desenvolvimento de sistemas computacionais. Deste modo foram adotadas seguintes estratégias metodológicas: revisão sistemática da literatura; entrevistas presenciais e remotas; questionários; estudos de caso; pesquisa-ação; e etnografia organizacional. Como resultado desta pesquisa, foi formalizado e avaliado, junto a representantes do público alvo de usuários, um framework visando auxiliar profissionais da Computação, no processo de implementação, implantação e verificação (auditoria) da conformidade legal e regulatória em sistemas computacionais. Assim, além de criar facilidades em todo o ciclo de trabalho com os requisitos legais ou regulatórios, possibilita sistemas computacionais em conformidade legal e regulatória com FLR, as quais estiverem submetidos.


  • Mostrar Abstract

  • The regulatory and legal universe permeates everything and everyone. Therefore, computer systems need to be from their conception, evolution, or even their maintenance in regulatory and legal compliance with the laws, rules, regulations, bylaws, statutes, standards, among other legal media (named, in this research, from regulatory or legal sources - RLS) that rule your domain, your application context. The objective of this research was to offer a alternative to the Computing professional (e.g., requirements analysts/engineers and project managers) ways to verify and maintain legal and regulatory compliance in their projects, where regulatory or legal sources no longer cover only individuals or legal entities, but also digital people and those RLS can not be only national. Identifying, defining and prioritizing these RLS have become problems for these Computing professionals in different contexts, especially in agile ecosystems of computing systems development. Thus, the following methodological strategies were adopted: systematic literature review; face-to-face and remote interviews; questionnaires; case studies; action research; and organizational ethnography. As a result of this research, it was formalized and evaluated with representatives of the target user audience a framework aimed for assisting Computing professionals, in the deployment and implementation process, and verification (audit) of regulatory or legal compliance in computer systems in agile ecosystems, despite being easily adaptable to any other methodology. Thereby, in addition to creating facilities throughout the work cycle with regulatory or legal requirements, enable computer systems in regulatory and legal compliance with RLS.


8
  • CARINE AZEVEDO DANTAS
  • Uma Análise de integração de técnicas de Seleção Dinâmica na construção de um Sistema de Classificação

  • Orientador : ANNE MAGALY DE PAULA CANUTO
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • MARJORY CRISTIANY DA COSTA ABREU
  • DANIEL SABINO AMORIM DE ARAUJO
  • ARAKEN DE MEDEIROS SANTOS
  • DIEGO SILVEIRA COSTA NASCIMENTO
  • Data: 30/07/2021

  • Mostrar Resumo
  • O uso de técnicas de seleção dinâmica, seja de atributos ou membros de comitês, tem aparecido
    em diversos trabalhos na literatura como um mecanismo para aumentar a precisão
    de comitês de classificadores. Individualmente, cada uma dessas técnicas já mostrou os
    benefícios da sua utilização. O objetivo deste trabalho é melhorar a eficiência dos comitês
    de classificadores através da utilização de técnicas de seleção dinâmica para a definição da
    estrutura destes sistemas. Com isso, será possível explorar a utilização dessas duas técnicas
    de maneira integrada na classificação de uma instância, fazendo com que cada instância
    seja classificada utilizando um subconjunto próprio de atributos e classificadores. Quando
    usadas de maneira integrada, devido o uso dos dois processos dinâmicos, acredita-se que
    o sistema completo possui um elevado tempo de execução. Visando superar essa desvantagem
    em sua utilização, onde o sistema dinâmico completo será utilizado apenas em
    determinadas instâncias. Assim, as algumas instâncias seriam classificadas usando todo
    o sistema dinâmico, enquanto as demais instâncias seriam classificadas utilizando apenas
    um único classicador. Em outras palavras, algumas instâncias podem não exigir um nível
    alto de complexidade do sistema de classificação. Para estas instâncias, um classificador
    será utilizado. Deste modo, o comitê dinâmico só será utilizado apenas em instâncias
    consideradas difíceis de classificar. Resultados iniciais mostraram que a integração dessas
    duas técnicas dinâmicas obteve resultados promissores em termos de acurácia. Por fim,
    esses resultados não foram significativamente afetados com a adição do critério de decisão,
    que gerou uma redução bastante expressiva no tempo de processamento total do sistema.


  • Mostrar Abstract
  • The use of dynamic selection techniques, for attributes or members of an ensemble,
    has appeared in several works in the literature as a mechanism to increase the accuracy of rating
    ensembles. Individually, each of these techniques has already shown the benefits of using it. The
    objective of this work is to improve the efficiency of the classifier ensembles through the use of
     dynamic selection techniques for the definition of structure of these systems. With that, it will be
    possible to explore the use of these two techniques integrated in the classification of an instance,
    making each instance be classified using its own subset of attributes and classifiers. When used in
    an integrated manner, due to the use of the two dynamic processes, it is believed that the complete
    system has a long execution time. Aiming to overcome this disadvantage in its use, where the
    complete dynamic system will be used only in certain instances. Thus, some instances would be
    classified using all the dynamic system, while the other instances would be classified using only a single classifier. In other words, some instances may not require a level high complexity of the classification system. For these instances, a classifier will be used. In this way, the dynamic ensemble will only be used in instances considered difficult to classify. Initial results showed that the integration of these two dynamic techniques obtained promising results in terms of accuracy. Finally, these results were not significantly affected by the addition of the decision criterion, which generated a very significant reduction in the total processing time of the system.


9
  • HUDSON GEOVANE DE MEDEIROS
  • Uma Abordagem Multiobjetivo para o Problema da Realização da Radioterapia de Intensidade Modulada

  • Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MEMBROS DA BANCA :
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MARCO CESAR GOLDBARG
  • ANNA GISELLE CAMARA DANTAS RIBEIRO RODRIGUES
  • MATHEUS DA SILVA MENEZES
  • THALITA MONTEIRO OBAL
  • Data: 10/08/2021

  • Mostrar Resumo
  • Os algoritmos são parte essencial no planejamento da radioterapia, que, sob o ponto devista da otimização, pode ser dividido em três sub-problemas. A definição dos ângulosde disparo e o mapa de dosagem para cada ângulo são dois deles. Este trabalho estuda oterceiro problema, que é chamado de problema da realização. Ele consiste em definir umasequência de configurações para um dispositivo (chamado colimador multilâminas) quecorretamente entregará a radiação ao paciente. Um modelo comum para este problemaé a decomposição de uma matriz em uma soma ponderada de (0-1)-matrizes, chamadassegmentos, em que cada linha pode apenas ter 1s consecutivos. Cada segmento correspondea uma configuração do colimador. Outras restrições aos segmentos podem ser tambémconsideradas. O problema abordado neste trabalho possui três objetivos. O primeiroé minimizar a soma de coeficientes associados aos segmentos. O segundo minimiza aquantidade de segmentos. O terceiro minimiza o deslocamento das lâminas. Este trabalhoinvestiga e apresenta algoritmos para duas variantes do problema: irrestrita e restritapor colisão de lâminas. Um novo algoritmo guloso e aleatório – GRA – foi desenvolvidoinicialmente para a versão irrestrita e então estendido para a versão restrita. Seus resultadosforam comparados a outros algoritmos propostos na literatura, sob os pontos de vistamono e multiobjetivo. No problema irrestrito, os experimentos demonstram que o GRApossui desempenho superior aos demais algoritmos em todos os indicadores analisados. Nocaso restrito, o GRA apresentou resultados competitivos, sobretudo no segundo objetivo,em que teve o melhor desempenho.


  • Mostrar Abstract
  • Algorithms are an essential part of the radiation therapy planning, and under aoptimization point of view, can be divided in three subproblems. Defining the anglesby which radiation will be shot and prescribe a fluence map for each angle are two ofthem. This work investigates the third problem, called realization problem. It consistson defining a sequence of configurations for a device (called multileaf collimator) whichcorrectly delivers the prescribe doses to the patient. A common model for this problem isthe decomposition of a matrix in a weighted sum of (0-1)-matrices, called segments, whoserows only have consecutive ones. Each segment represents a setup of the collimator. Otherconstraints can be also considered. The realization problem has three objectives. The firstone is to minimize the sum of the weights associated to the segments. The second is tominimize the number of segments. The third minimizes the movement of the leaves. Thiswork investigates and present algorithms for two variants of the problem: unconstrainedand constrained. A new greedy and randomized algorithm – GRA – was developed firstlyfor the unconstrained variant and then extended for the constrained variant. Its results wascompared to other algorithms from the literature, under mono and multiobjective pointsof view. On the unconstrained problem, experiments show that GRA outperforms theother algorithms by all measured indicators. On the constrained problem, GRA presentedcompetitive results, specially on the second objective, in which it presented the best results.

10
  • JORGE PEREIRA DA SILVA
  • SGEOL: Uma Plataforma para o Desenvolvimento de Aplicações para Cidades Inteligentes

  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • FABIO KON
  • MARKUS ENDLER
  • NELIO ALESSANDRO AZEVEDO CACHO
  • THAIS VASCONCELOS BATISTA
  • Data: 25/11/2021

  • Mostrar Resumo
  • Nas últimas décadas a quantidade de pessoas que vivem nas cidades tem crescido vertiginosamente. Esse cenário impõe vários desafios à gestão da cidade, uma vez que os serviços oferecidos à população (transporte, segurança, saúde, fornecimento de eletricidade, etc) precisam ser escalados rapidamente para dar suporte a um número cada vez maior de habitantes. A realização do conceito de cidades inteligentes surgiu como uma solução promissora para enfrentar os vários desafios resultantes do crescimento urbano. Ambientes de cidades inteligentes são caracterizados pela presença de uma miríade de aplicações que tem por objetivo facilitar a gestão da cidade, contribuindo para a provisão de serviços mais eficientes e, consequentemente, a melhoria da qualidade de vida dos cidadãos. No entanto, desenvolver tais aplicações não é uma tarefa trivial. Em muitos casos os desenvolvedores precisam atender à diversos requisitos complexos de serem implementados. Além disso, para permitir a contextualização e correlação das informações produzidas na cidade, elas precisam ser enriquecidas com informações geográficas que representam o espaço urbano. Nesse sentido, plataformas de cidades inteligentes têm papel fundamental para a concretização desse ambiente. Tais plataformas provêm serviços de alto nível que podem ser facilmente reutilizados pelos desenvolvedores para alavancar o desenvolvimento de aplicações. Nessa perspectiva, esse trabalho apresenta o Smart Geo Layers (SGEOL), uma plataforma escalável para desenvolvimento de aplicações para cidades inteligentes. Além de permitir a integração de dados urbanos com informações geográficas, o SGEOL oferece facilidades para: i) gerenciamento de dados de contexto, ii) integração de dados heterogêneos, iii) suporte semântico; iv) análise e visualização de dados; v) suporte a segurança e privacidade de dados,  etc. Esse trabalho também apresenta experiências de uso real do SGEOL em diferentes cenários, bem como resultados de experimentos computacionais que avaliam seu desempenho e escalabilidade.



  • Mostrar Abstract
  • In the last few decades, the number of people living in cities has grown exponentially. This scenario imposes several challenges to the management of the city, since the services offered to the population (transportation, security, health, electricity supply, etc.) need to be scaled up quickly to support an increasing number of inhabitants. The realization of the concept of smart cities emerged as a promising solution to face the various challenges resulting from urban growth. Smart city environments are characterized by the presence of a myriad of applications that aim to facilitate city management, contributing to the provision of more efficient services and, consequently, improving the quality of life of citizens. However, developing such applications is not a trivial task. In many cases, developers need to meet several complex requirements to be implemented. In addition, to allow contextualization and correlation of information produced in the city, they need to be enriched with geographical information that represents the urban space. In this sense, smart city platforms play a fundamental role in achieving this environment. Such platforms provide high-level services that can be easily reused by developers to leverage application development. In this perspective, this work presents Smart Geo Layers (SGEOL), a scalable platform for developing applications for smart cities. In addition to allowing the integration of urban data with geographic information, SGEOL offers facilities for: i) management of context data, ii) integration of heterogeneous data, iii) semantic support; iv) data analysis and visualization; v) support for data security and privacy, etc. This work also presents experiences of real use of SGEOL in different scenarios, as well as results of computational experiments that evaluate its performance and scalability.

11
  • MÁRIO ANDRADE VIEIRA DE MELO NETO
  • Uma Proposta de Arcabouço para Tolerância a Falhas Multicamadas em Sistemas IoT

  • Orientador : GIBEON SOARES DE AQUINO JUNIOR
  • MEMBROS DA BANCA :
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • GIBEON SOARES DE AQUINO JUNIOR
  • NELIO ALESSANDRO AZEVEDO CACHO
  • ROSSANA MARIA DE CASTRO ANDRADE
  • VINICIUS CARDOSO GARCIA
  • Data: 03/12/2021

  • Mostrar Resumo
  • A tolerância a falhas em sistemas IoT é um desafio a ser superado devido à sua com-
    plexidade, dinamicidade e heterogeneidade. Os sistemas IoT são normalmente projetados

    e construídos em camadas, em que cada uma delas possui seus próprios requisitos e es-
    tratégias de tolerância a falhas. No entanto, erros em uma camada podem propagar-se e

    causar efeitos em outras. Portanto, é impraticável considerar uma abordagem de tolerân-
    cia a falhas centralizada para todo um sistema. Consequentemente, é vital considerar a

    colaboração entre várias camadas de maneira a permitir a troca de informações para lidar
    com as falhas. O objetivo deste estudo é propor uma abordagem de tolerância a falhas
    multicamadas, garantindo a interconexão entre as camadas de um sistema IoT, permitindo
    a troca de informações e colaboração para melhorar a dependabilidade desses sistemas.

    Portanto, é definida uma estrutura orientada a eventos chamada FaTEMa (Fault Tole-
    rance Event Manager) que cria um canal de comunicação dedicado para propagar eventos

    relacionados a falhas através dos níveis do sistema. A estrutura implementada auxilia na
    detecção de erros e continuação dos serviços. Além disso, o arcabouço proposto oferece
    pontos de extensão para suportar protocolos de comunicação heterogêneos e permitir o
    desenvolvimento de novos recursos. Os resultados da avaliação empírica demonstraram
    que a introdução do FaTEMa estabeleceu melhorias nos tempos de detecção e resolução
    de erros, consequentemente melhorando a disponibilidade do sistema. Além disso, o uso
    do FaTEMa proporcionou uma melhoria na confiabilidade através da redução do número
    de falhas produzidas.


  • Mostrar Abstract
  • Fault tolerance in IoT systems is challenging to overcome due to its complexity, dy-
    namicity, and heterogeneity. IoT systems are typically designed and constructed in layers.

    Every layer has its requirements and fault tolerance strategies. However, errors in one layer
    can propagate and cause effects on others. Thus, it is impractical to consider a centralized
    fault tolerance approach for an entire system. Consequently, it is vital to consider multiple
    layers in order to enable collaboration and information exchange when addressing fault
    tolerance. The purpose of this study is to propose a multi-layer fault tolerance approach,
    granting interconnection among IoT system layers, allowing information exchange and
    collaboration in order to attain the property of dependability. Therefore, it is defined an
    event-driven framework called FaTEMa (Fault Tolerance Event Manager) that creates a

    dedicated fault-related communication channel in order to propagate events across the le-
    vels of the system. The implemented framework assist with error detection and continued

    service. Additionally, it offers extension points to support heterogeneous communication

    protocols and evolve new capabilities. The empirical evaluation results show that intro-
    ducing FaTEMa provided improvements to the error detection and error resolution time,

    consequently improving system availability. In addition, the use of Fatema provided a
    reliability improvement and a reduction in the number of failures produced.

12
  • THADEU RIBEIRO BENÍCIO MILFONT
  • Grafos Fuzzy Intervalares n-Dimensionais

  • Orientador : BENJAMIN RENE CALLEJAS BEDREGAL
  • MEMBROS DA BANCA :
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • REGIVAN HUGO NUNES SANTIAGO
  • IVAN MEZZOMO
  • MATHEUS DA SILVA MENEZES
  • RENATA HAX SANDER REISER
  • RUI EDUARDO BRASILEIRO PAIVA
  • Data: 03/12/2021

  • Mostrar Resumo
  • Um grafo fuzzy é uma relação fuzzy entre os elementos de um conjunto não vazio, eles são ideais para modelar dados incertos referentes a este conjunto. Os grafos fuzzy aparecem com frequência na literatura, dentre eles, destaca-se os grafos fuzzy de
    Rosenfeld, baseados nos conjuntos fuzzy de Zadeh, e suas extensões, tais como: grafos fuzzy intervalares, grafos fuzzy bi-polares e grafos fuzzy m-polares. As aplicações destes conceitos são vastas: análise de agrupamento, classificação de padrões, teoria de banco de dados, ciências sociais, redes neurais, análise de decisão, entre outras. Assim como os grafos fuzzy, estudos sobre ordens admissíveis e suas extensões, são frequentes. Originalmente, ordens admissíveis foram introduzidas no contexto de conjuntos fuzzy intervalares por H. Bustince e outros, e desde então têm sido amplamente investigadas. Recentemente, esta noção foi estudada em outros tipos de conjuntos fuzzy, como conjuntos fuzzy intuicionistas intervalares, conjuntos fuzzy hesitantes, conjuntos fuzzy multidimensionais e conjuntos fuzzy n-dimensionais. Neste contexto, este trabalho propõe estender os grafos fuzzy de Rosenfeld para os grafos fuzzy n-dimensionais intervalares baseados nos conjuntos fuzzy n-dimensionais, assim como, para os grafos fuzzy n-dimensionais intervalares admissíveis, os quais equipamos com um espaço semi-vetorial ordenado admissível. Apresentamos alguns métodos para gerar ordens admissíveis nos conjuntos fuzzy n-dimensionais e o conceito de funções de agregação n-dimensionais com respeito a uma ordem admissível. Estendemos o conceito de espaço semi-vetorial ordenado em um semi-corpo dos números reais não-negativos para um semi-corpo fraco arbitrário. Definimos em um conjunto de grafos fuzzy n-dimensionais intervalares admissíveis o conceito de espaço semi-vetorial ordenado, com isso, introduzimos neste conjunto o conceito de função de agregação de grafos fuzzy n-dimensional intervalares admissíveis. Várias propriedades destes conceitos foram investigadas, além de apresentar algumas aplicações.


  • Mostrar Abstract
  • A fuzzy graph is a fuzzy relation between the elements of a set, they are ideal for modeling uncertain data about these sets. The fuzzy graphs appear frequently in the literature, among them, stands out the fuzzy graph of Rosenfeld, based on fuzzy sets of
    Zadeh, and its extensions, such as: interval-valued fuzzy graphs, bi-polar fuzzy graphs and m-polar fuzzy graphs. The applications of these concepts are vast: cluster analysis, pattern classification, database theory, social science, neural networks, decision analysis, among others. As well as fuzzy graphs, studies on admissible orders and their extensions are frequent. Originally, admissible orders were introduced in the context of interval-valued fuzzy sets by H. Bustince et al. and since then they have been widely investigated. Recently, this notion has been studied in other types of fuzzy sets, such as interval-valued intuitionistic fuzzy sets, hesitant fuzzy sets, multidimensional fuzzy sets and n-dimensional fuzzy sets. In this context, this work proposes to extend the fuzzy graph of Rosenfeld to interval-valued n-dimensional fuzzy graphs, based on n-dimensional fuzzy sets, as well as, for the admissible interval-valued n-dimensional fuzzy graphs, that we equip with an admissible ordered semi-vector space. We present some methods to generate admissible orders in the n-dimensional fuzzy set and the concept of n-dimensional aggregation functions with respect to an admissible order. We extend the concept of ordered semi-vector space in a semi-field of non-negative real numbers to an arbitrary weak semi-field. We define in a set of admissible interval n-dimensional fuzzy graphs the concept of ordered semi-vector space, whit this, we introduced in this set the concept of admissible interval n-dimensional fuzzy graphs aggregation function. Several properties of these concepts were investigated, in addition to presenting some applications.

2020
Dissertações
1
  • FRANCIMARIA RAYANNE DOS SANTOS NASCIMENTO
  • An experimental investigation of letter identification and scribe predictability in medieval manuscripts

  • Orientador : MARJORY CRISTIANY DA COSTA ABREU
  • MEMBROS DA BANCA :
  • BRUNO MOTTA DE CARVALHO
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • MARJORY CRISTIANY DA COSTA ABREU
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • Data: 16/01/2020

  • Mostrar Resumo
  • Though handwriting might seem archaic today in comparison with typed communication, it is a long-established human activity that has survived into the 21st century. Accordingly, research interest into handwritten documents, both historical and modern, is significant. The way we write has changed significantly over the past centuries. For example, the texts of the Middle Ages were often written and copied by anonymous scribes. The writing of each scribe, known as his or her 'scribal hand' is unique, and can be differentiated using a variety of consciously and unconsciously produced features. Distinguishing between these different scribal hands is a central focus of the humanities research field known as 'palaeography'. This process may be supported and/or enhanced using digital techniques, and thus digital writer identification from historical handwritten documents has also flourished. The automation of the process of recognising individual characters within each scribal hand has also posed an interesting challenge. A number of issues make these digital processes difficult in relation to medieval handwritten documents. These include the degradation of the paper and soiling of the manuscript page, which can make automatic processes difficult. Thus, in this paper, we propose an investigation in both perspectives, character recognition and writer identification, in medieval manuscripts. Our experiments show interesting results, with good accuracy rates.


  • Mostrar Abstract
  • Though handwriting might seem archaic today in comparison with typed communication, it is a long-established human activity that has survived into the 21st century. Accordingly, research interest into handwritten documents, both historical and modern, is significant. The way we write has changed significantly over the past centuries. For example, the texts of the Middle Ages were often written and copied by anonymous scribes. The writing of each scribe, known as his or her 'scribal hand' is unique, and can be differentiated using a variety of consciously and unconsciously produced features. Distinguishing between these different scribal hands is a central focus of the humanities research field known as 'palaeography'. This process may be supported and/or enhanced using digital techniques, and thus digital writer identification from historical handwritten documents has also flourished. The automation of the process of recognising individual characters within each scribal hand has also posed an interesting challenge. A number of issues make these digital processes difficult in relation to medieval handwritten documents. These include the degradation of the paper and soiling of the manuscript page, which can make automatic processes difficult. Thus, in this paper, we propose an investigation in both perspectives, character recognition and writer identification, in medieval manuscripts. Our experiments show interesting results, with good accuracy rates.

2
  • STEFANO MOMO LOSS
  • Orthus: Uma Plataforma Blockchain para Cidades Inteligentes

  • Orientador : NELIO ALESSANDRO AZEVEDO CACHO
  • MEMBROS DA BANCA :
  • WILSON DE SOUZA MELO JUNIOR
  • DANILO CURVELO DE SOUZA
  • FREDERICO ARAUJO DA SILVA LOPES
  • NELIO ALESSANDRO AZEVEDO CACHO
  • THAIS VASCONCELOS BATISTA
  • Data: 05/02/2020

  • Mostrar Resumo
  • Atualmente, o blockchain tem sido amplamente usado para armazenar transações descentralizadas e seguras envolvendo criptomoeda (por exemplo, soluções Bitcoin e Ethereum). Por outro lado, os aplicativos de cidades inteligentes preocupam-se com a forma como os dados e serviços podem ser armazenados e compartilhados com segurança. A este respeito, esta pesquisa investiga o uso da blockchain e identifica um conjunto de requisitos essenciais para atender às necessidades da blockchain no contexto de cidades inteligentes. Com base nisso, foi proposta uma plataforma chamada Orthus para apoiar o uso de blockchain em iniciativas de cidades inteligentes focadas em escalabilidade. Esta tese de mestrado demonstrou um estudo de caso sobre como usar a plataforma proposta no contexto da Iniciativa Cidade Inteligente de Natal, no Brasil, para lidar com o registro de terras. Além disso, ele também compara essa plataforma com outras implementações que usam blockchain em diferentes domínios. Finalmente, esta pesquisa confirma que o uso da tecnologia blockchain tem muito a contribuir para soluções de cidades inteligentes, uma vez que permite a criação de soluções em redes distribuídas, capaz de atender à demanda de toda a população.


  • Mostrar Abstract
  • Currently, blockchain has been widely used to store decentralised and secure transactions involving cryptocurrency (for instance, Bitcoin and Ethereum solutions). On the other hand, smart city applications are concerned about how data and services can be safely stored and shared. In this regard, this research investigates the use of blockchain and pinpoints a set of essential requirements to meet the needs of blockchain for the context of smart cities. Base on that, a platform named Orthus was proposed to support the use of blockchain in smart city initiatives focused on scalability. This master’s thesis demonstrated a case study about how to use the proposed platform in the context of the Natal Smart City Initiative, in Brazil, to handle land registration. Moreover, it also compares this platform with other implementations that use blockchain in different domains. Finally, this research confirms that use of blockchain technology has much to contribute to smart city solutions once it enables the creation of solutions in distributed networks being able to meet the demand of the entire population.

3
  • YURI KELVIN NASCIMENTO DA SILVA
  • Problema do Passeio Lucrativo com Passageiros e Penalidades por Atrasos 

  • Orientador : MARCO CESAR GOLDBARG
  • MEMBROS DA BANCA :
  • MARCO CESAR GOLDBARG
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MATHEUS DA SILVA MENEZES
  • THATIANA CUNHA NAVARRO DE SOUZA
  • Data: 07/02/2020

  • Mostrar Resumo
  • Este trabalho introduz o Problema do Passeio Lucrativo com Passageiros e Penalidades por Atrasos (PPL-PPA). O PPL-PPA é interpretado como um prestador de serviços que possui demandas de clientes a serem atendidas em diferentes localidades. Para cada demanda satisfeita, um valor de bônus é coletado e acrescido no valor total de bônus da jornada de trabalho. As demandas possuem um tempo para serem realizadas e um tempo estimado de início do serviço. A satisfação de uma demanda após seu tempo estimado de início caracteriza um atraso no serviço e, por isso, uma penalidade é imposta reduzindo o valor do bônus a ser coletado pelo serviço prestado de acordo com o tempo de atraso. Ainda, durante sua jornada de trabalho, o prestador de serviços poderá embarcar passageiros no veículo nas localidades das demandas. Cada passageiro embarcado contribuirá com uma parcela para a divisão dos custos de viagem entre todos os ocupantes do veículo em um determinado trecho. Os custos de viagem divididos entre todos não podem exceder o valor de tarifa ofertado por cada passageiro pelo trajeto entre sua origem e destino e o número de passageiros embarcados não deve exceder a capacidade do veículo. Sendo assim, o objetivo do PPL-PPA consiste em encontrar uma rota que maximize o valor de bônus coletados subtraído dos custos de viagem rateados com os passageiros e das eventuais penalidades impostas em razão dos atrasos. Como instrumento de formalização e validação do problema, um modelo de Programação Matemática é proposto e solucionado através de um solver matemático para instâncias de testes geradas para o problema em questão. Uma análise de acoplamento das instâncias é relatada mediante experimentos com métodos heurísticos ad hoc e métodos exatos ad hoc, sendo estes voltados para casos particulares do modelo. Por fim, são propostas três meta-heurísticas evolucionárias visando a eficiência na obtenção de soluções de qualidade.


  • Mostrar Abstract
  • This work introduces a new Traveling Salesman Problem variant called Traveling Salesman Problem with Prize Collecting, Passengers and Penalties for Delays. In this problem, the salesman has, along the graph, potential passengers who need to move between localities. Each boarded passenger will contribute a portion to the division of the travel costs between all the occupants of the vehicle in a certain stretch. In addition, each vertex has an aggregate prize value that may or may not be collected by the salesman during his journey. The prizes have a time for the collection and an estimated minimum time to be collected without a reduction in its value, characterizing the penalty. Thus, the goal is to find a route that maximizes the amount of collected prizes minus the travel costs divided with passengers and any penalties imposed on the prizes. As an instrument of formalization and validation of the problem, a Mathematical Programming model is proposed and solved through a mathematical solver for test instances generated for the problem in question. A coupling analysis of the instances is reported through experiments with ad hoc heuristic methods and exact methods that consider particular cases of the model. Moreover, three evolutionary metaheuristics are proposed aiming the efficiency in obtaining quality solutions

4
  • MARCOS ALEXANDRE DE MELO MEDEIROS
  • Melhorando a Identificação de Bugs a partir da Mineração de Relatórios de Falhas: Um Estudo Empírico

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • NELIO ALESSANDRO AZEVEDO CACHO
  • RODRIGO BONIFACIO DE ALMEIDA
  • UIRA KULESZA
  • Data: 19/02/2020

  • Mostrar Resumo
  • As informações disponíveis nos relatórios de falhas estão sendo usadas para entender a causa raiz dos erros e melhorar a qualidade geral dos sistemas. No entanto, esses relatórios geralmente levam a uma enorme quantidade de informações, sendo necessário aplicar técnicas que visam consolidar os dados em grupos de acordo com um conjunto de critérios bem definidos. Nesta dissertação, contribuímos com uma personalização de regras que automaticamente localizam e agrupam relatórios de falhas correlacionados (de acordo com seus stack traces) no contexto de sistemas Web de larga escala. Para isso, selecionamos e adaptamos algumas abordagens descritas na literatura sobre o agrupamento de relatórios de falhas e a classificação de arquivos suspeitos por travar o sistema. Em seguida, projetamos e implementamos uma ferramenta de software para identificar e classificar arquivos com erro usando stack traces presentes nos relatórios de falhas. Usamos nossa ferramenta e nossa abordagem para identificar e classificar arquivos com erros, ou seja, arquivos com maior probabilidade de causarem uma falha e que, portanto, necessitam de uma correção. Avaliamos nossa abordagem comparando dois conjuntos de classes e métodos: as classes (métodos) que os desenvolvedores alteraram para corrigir um bug e as classes (métodos) suspeitas de conterem um bugs dentre as que estão presentes nos stack traces dos relatórios de falhas correlacionados.

    Nosso estudo fornece novas evidências acerca do potencial do uso de grupos de relatórios de falhas para indicar corretamente classes e métodos com erro, dentre as que estão presentes nos stack traces. Por exemplo, identificamos com êxito uma classe com erro, com recall variando de 61,4% a 77,3% e precisão variando de 41,4% a 55,5%, considerando o 1, 3, 5 e 10 arquivos suspeitos identificados e classificados por nossa abordagem. A principal implicação de nossa abordagem é que os desenvolvedores podem localizar e corrigir a causa raiz de um relatório de falha considerando algumas classes ou métodos, em vez de revisar milhares de ativos.


  • Mostrar Abstract
  • The information available in crash reports has been used to understand the root cause of bugs and improve the overall quality of systems. Nonetheless, crash reports often lead to a huge amount of information, being necessary to apply techniques that aim to consolidate the crash report data into groups, according to a set of well-defined criteria. In this dissertation, we contribute with customization of rules that automatically find and group correlated crash reports (according to their stack traces) in the context of large scale web-based systems. We select and adapt some approaches described in the literature about crash report grouping and suspicious file ranking of crashing the system. Next, we design and implement a software tool to identify and rank buggy files using stack traces from crash reports. We use our tool and approach to identify and rank buggy files—that is, files that are most likely to contribute to a crash and thus need a fix.

    We evaluate our approach comparing two sets of classes and methods: the classes (methods) that developers changed to fix a bug and the suspected buggy classes (methods) that are present in the stack traces of the correlated crash reports. Our study provides new pieces of evidence of the potential use of crash report groups to correctly indicate buggy classes and methods present in stack traces. For instance, we successfully identify a buggy class with recall varying from 61.4% to 77.3% and precision ranging from 41.4% to 55.5%, considering the top 1, top 3, top 5, and top 10 suspicious buggy files identified and ranked by our approach. The main implication of our approach is that developers can locate and fix the root cause of a crash report considering a few classes or methods, instead of having to review thousands of assets.

5
  • DOUGLAS ARTHUR DE ABREU ROLIM
  • Dashboards para Desenvolvimento de Aplicações e Visualização de Dados para Plataformas de Cidades Inteligentes

  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • NELIO ALESSANDRO AZEVEDO CACHO
  • ROSSANA MARIA DE CASTRO ANDRADE
  • THAIS VASCONCELOS BATISTA
  • Data: 04/03/2020

  • Mostrar Resumo
  • O uso massivo de dispositivos interconectados por meio de esquemas de endereçamento exclusivos, capazes de interagir uns com os outros e com seus vizinhos para alcançar objetivos comuns caracterizam o paradigma da Internet das Coisas (IoT). A aplicação deste paradigma da IoT na gestão de assuntos públicos, como forma de resolver os problemas atuais das cidades como a escassez de recursos, poluição, preocupações com a saúde, congestionamentos, entre outros, realiza as chamadas Cidades Inteligentes. Entretanto, faz-se necessário enfrentar vários importantes desafios relacionados com a necessidade de integrar vários dispositivos, que usam diferentes tipos de protocolos e não seguem um padrão comum. Para enfrentar esse problema, plataformas de middleware têm surgido como solução promissoras para facilitar o desenvolvimento de aplicações, provendo interoperabilidade para possibilitar a integração de dispositivos, pessoas, sistemas e dados, e uma série de serviços adicionais necessários no contexto de cidades inteligentes. Em especial, plataformas para cidades inteligentes devem considerar  a existência de informações geográficas do espaço urbano e outros aspectos relacionados ao contexto ao qual elas estão inseridas. No entanto, grande parte das plataformas de middleware para esse cenário: (i) não dispõem de interfaces de alto nível que facilitem o desenvolvimento de aplicações para cidades inteligentes; e (ii) devem prover uma interface para organização da exibição dos dados para os usuários, tendo em vista a grande quantidade e a variedade de dados que são processadas e armazenadas em plataformas para cidades inteligentes. Este trabalho: (i) propõe uma arquitetura para a interface de plataformas para cidades inteligentes que considere dados georreferenciados; (ii)  implementa tal arquitetura no contexto do middleware SGeoL (Smart Geo Layers), incluindo interfaces de dashboards específicas para desenvolvedores de aplicações e para usuários interessados em aplicações construídas usando a plataforma. O (SGeoL) é uma plataforma que visa aliar dados georreferenciados, soluciona problemas de interoperabilidade e heterogeneidade, e é aplicado atualmente no contexto da cidade de Natal. 



  • Mostrar Abstract
  • The massive use of interconnected devices through unique addressing schemes capable of interacting with each other and their neighbors to achieve common goals characterizes the IoT paradigm. The application of this IoT paradigm in public affairs management, as a way to solve the current problems of cities such as resource scarcity, pollution, health concerns, congestion, among others, makes the so-called Smart Cities. However, it is necessary to address several major challenges related to the need to integrate multiple devices that use different types of protocols and do not follow a common pattern. To address this problem, middleware platforms have emerged as a promising solution to facilitate application development, providing interoperability to enable the integration of devices, people, systems and data, and a host of additional services needed in the context of smart cities. In particular, smart city platforms should consider the existence of geographic information on urban space and other aspects related to the context to which they are embedded. However, most middleware platforms for this scenario: (i) do not have high-level interfaces that facilitate smart city application development; and (ii) provide an interface for organizing data display for users, given the large amount and variety of data that is processed and stored on smart city platforms. This paper: (i) proposes an architecture for the smart city platform interface that considers georeferenced data; (ii) implements such architecture in the context of Smart Geo Layers (SGeoL) middleware, including specific dashboard interfaces for application developers and users interested in applications built using the platform. (SGeoL) is a platform that combines georeferenced data, solves interoperability and heterogeneity problems, and is currently applied in the context of the city of Natal.

6
  • LUCAS CRISTIANO CALIXTO DANTAS
  • Um Laboratório Virtual para Desenvolvimento e Experimentação de Aplicações de Internet das Coisas

  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • THAIS VASCONCELOS BATISTA
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • FREDERICO ARAUJO DA SILVA LOPES
  • KIEV SANTOS DA GAMA
  • Data: 20/03/2020

  • Mostrar Resumo
  • O desenvolvimento de aplicações para Internet das Coisas (IoT) vem enfrentando problemas importantes, como a heterogeneidade inerente aos dispositivos em termos de recursos, poder de computação, protocolos de rede e requisitos de energia. Para enfrentar esse desafio,  plataformas de middleware da IoT foram propostas visando abstrair as especificidades dos dispositivos, promovendo a interoperabilidade entre eles e facilitando o desenvolvimento de aplicações. Uma dessas propostas é o FIWARE, uma plataforma aberta e genérica desenvolvida na Comunidade Europeia para alavancar o desenvolvimento de aplicações da internet do futuro. Dado um conjunto de componentes FIWARE necessários para o desenvolvimento de uma aplicação específica, sua implantação e configuração podem ser feitas manualmente ou usando uma abordagem baseada em contêiner. No entanto, a configuração de um ambiente composto pelos principais componentes do FIWARE não é um processo trivial. Este trabalho propõe o FIWARE-Lab@RNP, um laboratório virtual da Web para prototipar e experimentar aplicações com base na plataforma FIWARE. A principal contribuição do FIWARE-Lab@RNP é permitir o uso dos recursos do FIWARE de maneira transparente, aliviando os usuários da necessidade de implantar e operar uma instância do FIWARE em seu ambiente de desenvolvimento. O laboratório virtual fornece funcionalidades para criar, configurar e gerenciar facilmente instâncias de componentes, dispositivos, entidades de contexto e serviços do FIWARE, enquanto tenta minimizar a curva de aprendizado referente a essas tarefas.


  • Mostrar Abstract
  • The development of Internet of Things (IoT) applications facing important issues such as the inherent device heterogeneity. in terms of capabilities, computing power, network protocols, and energy requirements. To address this challenge, IoT middleware platforms have been proposed to abstract away the specificities of such devices, promoting interoperability among them, and easing application development. One of these proposals is FIWARE, an open, generic platform developed in the European Community to leverage the development of Future Internet applications. Given a set of FIWARE components required for a specific application under development, their deployment and configuration can be made either manually or using a container-based approach. However, setting up an environment composed by the main FIWARE components might sometimes not be a trivial process. This work proposes FIWARE-Lab@RNP, a Web virtual laboratory for prototyping and experimenting applications based on the FIWARE platform. The main concern of FIWARE-Lab@RNP is enabling the use of FIWARE resources through the Internet in a transparent way, thus relieving users from the need of deploying and operating a FIWARE instance on their development or owned environment. The virtual laboratory provides functionalities for easily creating, configuring, and managing instances of FIWARE components, devices, context entities, and services while attempting to minimize the learning curve regarding these tasks.

7
  • GUILHERME DUTRA DINIZ DE FREITAS
  • Investigating the Relationship Between Continuous Integration and Software Quality Metrics: An Empirical Study

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • UIRA KULESZA
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • DANIEL ALENCAR DA COSTA
  • RODRIGO BONIFACIO DE ALMEIDA
  • Data: 26/03/2020

  • Mostrar Resumo
  • A qualidade do software é um atributo essencial para o sucesso de todo projeto de software, sendo uma das principais responsáveis pela competitividade na indústria de software. Integração contínua é uma prática de desenvolvimento de software bastante disseminada na indústria e na literatura por melhorar a qualidade do software. Nesta dissertação, realizamos uma série de estudos para investigar a relação entre integração contínua e métricas de qualidade de código que não foram exploradas por estudos já realizados. Para isso, analisamos se a adoção ou a maturidade de adoção de integração contínua estão relacionadas com melhores métricas de qualidade de código. Como resultado, encontramos que não existem evidências estatísticas que a adoção e a maturidade de integração contínua se relacione com tais métricas de qualidade de código. Por outro lado, descobrimos que a cobertura dos testes é a prática de integração contínua que mais afeta parte das métricas investigadas. A integração de builds com mais frequência não está relacionada a nenhuma das métricas estudadas. Além disso, descobrimos que projetos com builds mais rápidos tendem a ter melhor estruturação entre classes e pacotes, mas tendem a ter maior acoplamento. Também observamos que projetos com correções rápidas de builds tendem a ter menores hierarquias de herança e uma melhor estruturação das classes. Em relação à cobertura de teste, os projetos com maior cobertura de teste tendem a ter uma menor complexidade intrínseca de operações, mas uma estrutura de operação pior se comparada aos projetos com uma menor cobertura de teste.


  • Mostrar Abstract
  • Software quality is an essential attribute for the success of every software project. It is a significant element to the competitiveness of the software industry. Meanwhile, continuous integration is known as a software development practice that can contribute to improving the software quality. In this research, we conduct a series of studies that investigate the relationship between continuous integration and software quality code metrics that have not been explored before. For this purpose, we looked at whether continuous integration adoption and maturity sharing are related to better code quality metrics. As a result, we found that there is no statistical evidence that CI adoption and maturity are related to code quality metrics. We found that test coverage is the continuous integration core practice that most impacts object-oriented software metrics. On the other hand, integrating builds frequently is not related to any of the studied metrics. Additionally, we found that projects with faster builds tend to have better system structure between classes and packages but they also have higher coupling. We also observed that projects with fast build fixes tend to have a better hierarchy and class structuring. Regarding test coverage, projects with higher test coverage tend to have a lower intrinsic operation complexity but a worse operation structuring comparing with projects with lower test coverage.

8
  • DANILO RODRIGO CAVALCANTE BANDEIRA
  • Um estudo sobre o impacto da combinação  de escrita e dinâmica  de pressionamento de teclado na previsão de gênero e estado emocional

  • Orientador : ANNE MAGALY DE PAULA CANUTO
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • DIEGO SILVEIRA COSTA NASCIMENTO
  • MARJORY CRISTIANY DA COSTA ABREU
  • Data: 03/04/2020

  • Mostrar Resumo
  • O uso de informações de soft biometric como ferramenta auxiliar na identificação do usuário já é bem conhecido na literatura. Porém, não é o único uso possível para dados biométricos, pois esses dados podem ser adequados para a obtenção de informações de baixo nível do usuário que não estejam relacionadas apenas à sua identidade. Gênero, orientação da mão e estado emocional são alguns exemplos, que podem ser chamados de dados de soft biometric. É muito comum encontrar trabalhos utilizando modalidades fisiológicas para previsão de alguma informação de soft biometrics, mas as modelidades de biometrias comportamentais são frequentemente negligenciadas. Duas modalidades comportamentais possíveis que nem sempre são encontrados na literatura são a dinâmica das teclas e a caligrafia assinatura, que pode ser usada sozinha para prever o sexo dos usuários, mas não em nenhum tipo decenário de combinação. Para preencher esse espaço, este trabalho tem como objetivo investigar se oa combinação dessas duas modalidades biométricas pode afetar a precisão da previsão de gênero e estados emocionais e como essa combinação deve ser feita.


  • Mostrar Abstract
  • The use of soft biometrics as an auxiliary tool on user identification is already well known.
    It is not, however, the only use possible for biometric data, as such data can be adequate to
    get low level information from the user that are not only related to his identity. Gender,
    hand-orientation and emotional state are some examples, which it can be called softbiometrics.
    It is very common to find work using physiologic modalities for soft-biometric
    prediction, but the behavioural data is often neglected. Two possible behavioural modalities
    that are not often found in the literature are keystroke dynamics and handwriting
    signature, which can be seen used alone to predict the users gender, but not in any kind of
    combination scenario. In order to fill this space, this study aims to investigate whether the
    combination of those two different biometric modalities can impact the gender prediction
    accuracy, and how this combination should be done.

9
  • PEDRO VICTOR BORGES CALDAS DA SILVA
  • Facilitando o desenvolvimento de Aplicações de Internet das Coisas baseadas no FIWARE com o IoTVar
  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • ROSSANA MARIA DE CASTRO ANDRADE
  • THAIS VASCONCELOS BATISTA
  • Data: 15/07/2020

  • Mostrar Resumo
  • A crescente popularidade da Internet das Coisas (IoT) levou a disponibilização de uma infinidade de dispositivos altamente heterogêneos e geograficamente dispersos. Nos últimos anos, as plataformas e middleware de IoT foram integrados ao ecossistema de IoT para lidar com essa heterogeneidade, promovendo interoperabilidade e facilitando o desenvolvimento de aplicações. IoTVar e FIWARE são exemplos de soluções que fornecem serviços para atingir esses objetivos. Entretanto, desenvolver uma aplicação sobre o FIWARE requer um alto nível de conhecimento da plataforma, além de ser uma tarefa demorada e propensa a erros. Por outro lado, o IoTVar fornece um alto nível de abstração para gerenciar interações entre aplicações de IoT e plataformas de IoT subjacentes, permitindo que os desenvolvedores detectem facilmente dispositivos e atualizem dados de contexto com baixo custo de desenvolvimento em termos de linhas de código. Este trabalho apresenta a integração entre o middleware IoTVar e a plataforma FIWARE, oferecendo aos desenvolvedores de aplicações a possibilidade de declarar variáveis IoT FIWARE no lado do cliente através da IoTVar. Portanto, eles podem usar automaticamente sensores mapeados cujos valores são atualizados de forma transparente com as observações do sensor. A integração entre IoTVar e FIWARE foi avaliada através de uma avaliação de esforço de desenvolvimento comparando linhas de código usadas para declarar e gerenciar variáveis de IoT, bem como experimentos para medir a sobrecarga causada pela IoTVar em termos de CPU, memória e bateria.


  • Mostrar Abstract
  • The rising popularity of the Internet of Things (IoT) has led to a plethora of highly heterogeneous, geographically-dispersed devices. In recent years, IoT platforms and middleware have been integrated into the IoT ecosystem for tackling such a heterogeneity, promoting interoperability, and making application development easier. IoTVar and FIWARE are examples of solutions that provide services to accomplish these goals. However, developing an application atop FIWARE requires a high-level of knowledge of the platform, besides being a time consuming, error prone task. On the other hand, IoTVar provides a high abstraction level to manage interactions between IoT applications and underlying IoT platforms, thus enabling developers to easily discover devices and transparently update context data at low development cost in terms of lines of code. This work presents the integration between the IoTVar middleware and FIWARE platforms, providing application developers with the possibility to declare FIWARE IoT variables at the client side through IoTVar. Therefore, they become able to automatically use mapped sensors whose values are transparently updated with sensor observations. The integration between IoTVar and FIWARE was evaluated through a development effort assessment comparing used lines of code to declare and manage IoT variables, as well as experiments to measure the overhead caused by IoTVar in terms of CPU, memory and battery.

10
  • RENATO MESQUITA SOARES
  • Product Backlog Orientado a Metas em Projetos Scrum para Fundamentar as Tomadas de Decisões do Product Owner

  • Orientador : MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • MEMBROS DA BANCA :
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • FERNANDO MARQUES FIGUEIRA FILHO
  • ISABEL DILLMANN NUNES
  • FERNANDA MARIA RIBEIRO DE ALENCAR
  • Data: 27/07/2020

  • Mostrar Resumo
  • No Framework Scrum, o Product Owner (PO) assume o papel central no processo de desenvolvimento, sendo o encarregado por fazer a comunicação entre o cliente e os desenvolvedores. Nessa intermediação, ele gerencia o Product Backlog, que mantém uma lista de itens a serem desenvolvidos, correspondentes às necessidades do cliente. Diante disso, a academia tem explorado os desafios do PO, principalmente relacionados às atividades de planejamento onde, nesse contexto, a tomada de decisão é vista como a sua tarefa mais importante. Porém, a falta de informações estruturadas e que fundamentem as suas escolhas, faz com que o mesmo, por muitas vezes, tome decisões equivocadas ou se omita dessa responsabilidade. Na Engenharia de Requisitos Orientada a Metas, os requisitos são descritos a partir das metas organizacionais dos stakeholders e, segundo a literatura, a sua especificação pode trazer diversos benefícios em termos de capacidade de organização da informação. A maioria dos projetos Scrum utiliza histórias de usuário para especificar os requisitos e, embora elas contenham a definição da meta, a mesma não é evidenciada no processo de desenvolvimento. Isto posto, este trabalho tem como objetivo proporcionar uma apresentação das informações organizacionais, inerentes ao produto ou serviço desejado, em uma disposição que fundamente e oriente as tomadas de decisões do PO. Para tal fim, foi proposto um artefato, o Goals Driven Product Backlog, que busca evidenciar as metas e seus relacionamentos com as histórias de usuário. O estudo avaliativo realizado encontrou evidências de que o artefato proporciona informações mais estruturadas ao PO e, consequentemente, contribui para as suas tomadas de decisões.



  • Mostrar Abstract

  • In the Scrum Framework, the Product Owner (PO) takes the central role within the development process, being responsible for communicating between the customer and the developers. In this intermediation, he manages the Product Backlog, which maintains a list of items to be developed, corresponding to the customer's needs. In this sense, the academy has explored the challenges of the PO, mainly in the planning activities where, in this context, the decision making is seen as his most important task. However, the lack of structured information that can support their choices, makes them, many times, make wrong decisions or omit this responsibility. In Goal-Oriented Requirements Engineering, the requirements are described from the stakeholders organizational goals and, according to the literature, their definition can bring several benefits in terms of information organization capacity. Most Scrum projects use user stories to specify requirements and, although they contain the definition of the goal, she is not evidented in the development process. That said, this work aims to provide a presentation of the organizational information, inherent to the desired product or service, in a provision that justifies and guides the decision making of the PO. To this end, an artifact, the Goals Driven Product Backlog, was proposed, which seeks to highlight the goals and their relationships with user stories. The evaluative study carried out found evidence that the artifact provides more structured information to the PO and, consequently, contributes to his decision making.

     


11
  • JOSÉ LUCAS SANTOS RIBEIRO
  • Servindo modelos de Machine Learning com uma Arquitetura Baseada em Serverless

  • Orientador : NELIO ALESSANDRO AZEVEDO CACHO
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO DA SILVA
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • FREDERICO ARAUJO DA SILVA LOPES
  • NELIO ALESSANDRO AZEVEDO CACHO
  • Data: 29/07/2020

  • Mostrar Resumo
  • Soluções inteligentes para classificação de dados que fazem uso de Machine Learning estão em um momento de ascensão. A área de análise de dados está atraindo cada vez mais desenvolvedores e pesquisadores, porém as soluções desenvolvidas precisam ser modularizadas em componentes bem definidos para ser possível paralelizar algumas etapas e obter um bom desempenho na etapa de execução. A partir dessa motivação, este trabalho propõe uma arquitetura genérica para classificação de dados, nomeada Machine Learning in Microservices Architecture (MLMA), que pode ser reproduzida em um ambiente de produção. Além disso é apresentado a utilização da arquitetura em um projeto que faz classificação multi-label de imagens para recomendar pontos turísticos ao usuário e uma validação do uso de serverless para servir modelos de Machine Learning.


  • Mostrar Abstract
  • Smart solutions for data classification data that make use of Deep Learning are in a moment of ascension. The data analysis area is attracting more and more developers and researchers, but the solutions developed need to be modularized into well-defined components in order to be able to parallelize some stages and obtain a good performance in the execution stage. From this motivation, this work presents a generic architecture for data classification, named Machine Learning in Microservices Architecture (MLMA), that can be reproduced in a production environment. In addition, the use of the architecture is presented in a project that makes multi-label classification of images to recommend tourist attractions and validates the use of serverless to serve models of Machine Learning.

12
  • THALES AGUIAR DE LIMA
  • Investigating fuzzy methods for multilinguals peaker identification

  • Orientador : MARJORY CRISTIANY DA COSTA ABREU
  • MEMBROS DA BANCA :
  • ALTAIR OLIVO SANTIN
  • MARJORY CRISTIANY DA COSTA ABREU
  • MONICA MAGALHAES PEREIRA
  • Data: 27/08/2020

  • Mostrar Resumo
  • Speech is a crucial ability for humans to interact and communicate.
    Speech-based technologies are becoming more popular with speech interfaces,
    real-time translation, and budget healthcare diagnosis.  Thus, this work aims
    to explore an important but under-investigated topic on the field: multilingual
    speech recognition.  We employed three languages: English, Brazilian
    Portuguese, and Mandarin. To the best of our knowledge, those three languages
    were not compared yet.  The objectives are to explore Brazilian Portuguese in
    comparison with the other two more well-investigated languages, by verifying
    speaker recognition robustness in multilingual environments, and further
    investigate fuzzy methods. We have performed an analysis for text-independent
    speaker identification on closed-set using log-Energy, 13-MFCCs, Deltas, and
    Double Deltas with four classifiers.  The closed-set text-independent speaker
    identification results indicated that this problem presents some robustness on
    multilingual environments, since adding a second language, it degrades the
    accuracy by 5.45\%, and 5.32\% for a three language dataset using an SVM
    classifier.


  • Mostrar Abstract
  • Speech is a crucial ability for humans to interact and communicate.
    Speech-based technologies are becoming more popular with speech interfaces,
    real-time translation, and budget healthcare diagnosis.  Thus, this work aims
    to explore an important but under-investigated topic on the field: multilingual
    speech recognition.  We employed three languages: English, Brazilian
    Portuguese, and Mandarin. To the best of our knowledge, those three languages
    were not compared yet.  The objectives are to explore Brazilian Portuguese in
    comparison with the other two more well-investigated languages, by verifying
    speaker recognition robustness in multilingual environments, and further
    investigate fuzzy methods. We have performed an analysis for text-independent
    speaker identification on closed-set using log-Energy, 13-MFCCs, Deltas, and
    Double Deltas with four classifiers.  The closed-set text-independent speaker
    identification results indicated that this problem presents some robustness on
    multilingual environments, since adding a second language, it degrades the
    accuracy by 5.45\%, and 5.32\% for a three language dataset using an SVM
    classifier.

13
  • FELLIPE MATHEUS COSTA BARBOSA
  • Medição Precisa de Áreas de Feridas Crônicas Usando Structure From Motion

  • Orientador : BRUNO MOTTA DE CARVALHO
  • MEMBROS DA BANCA :
  • BRUNO MOTTA DE CARVALHO
  • ANNE MAGALY DE PAULA CANUTO
  • LUIZ MARCOS GARCIA GONCALVES
  • RAFAEL BESERRA GOMES
  • VERONICA TEICHRIEB
  • Data: 23/10/2020

  • Mostrar Resumo
  • As feridas crônicas são úlceras que têm um processo de cicatrização difícil ou quase
    interrompido, levando a um risco aumentado de complicações de saúde, como amputações
    e infecções. A medição precisa de áreas quantitativas é de grande importância em ensaios
    clínicos, análise patológica de feridas e atendimento diário ao paciente. Os métodos manuais
    e 2D não podem resolver os problemas causados pelas curvaturas do corpo humano e
    diferentes ângulos da câmera. Este trabalho propõe o uso de uma metodologia não invasiva
    para realizar a reconstrução 3D da superfície do corpo humano para mensuração de
    áreas de feridas, que combina segmentação de imagem, Structure from Motion (SfM) com
    diferentes descritores, SIFT, SURF, ORB e BRIEF e reconstrução de malha para obter
    uma representação fidedigna da superfície da pele. Os resultados mostram que medidas
    precisas de áreas de superfícies 3D podem ser obtidas a partir de imagens adquiridas com
    um smartphone usando a metodologia proposta, com erros médios de 1,7% para o SIFT,
    3,6% para o SURF, 6,4% para o ORB e 20,8% para o BRIEF, usando uma configuração
    de 10 imagens, enquanto o erro médio para as medições 2D foi de 32,7%, claramente
    demonstrando a superioridade do método 3D.


  • Mostrar Abstract
  • Chronic wounds are ulcers that have a difficult or almost interrupted healing process,
    leading to an increased risk of health complications, such as amputations and changes. The
    need for quantitative areas is of great importance in clinical trials, pathological analysis of
    wounds and daily patient care. Manual and 2D manuals cannot solve the problems caused
    by the curvatures of the human body and different camera angles. This work proposes
    the use of a non-invasive methodology to perform 3D reconstruction of the human body
    surface to measure wound areas, which combines a combined image, Structure from Motion
    (SfM) with different descriptors, SIFT, SURF, ORB and BRIEF and mesh reconstruction
    to obtain a reliable representation of the skin surface. The results show that accurate
    measurements of 3D surface areas can be obtained from images acquired with a smartphone
    using the proposed methodology, with average errors of 1.7% for SIFT, 3.6% for SURF,
    6.4% for ORB and 20.8% for BRIEF, using a configuration of 10 images, while the average
    error for 2D occurrences was 32.7%, clearly pointing to the superiority of the 3D method.

14
  • LARYSSE SAVANNA IZIDIO DA SILVA
  • Um Componente de Consulta Semântica para Cidades Inteligentes

  • Orientador : NELIO ALESSANDRO AZEVEDO CACHO
  • MEMBROS DA BANCA :
  • FREDERICO ARAUJO DA SILVA LOPES
  • NELIO ALESSANDRO AZEVEDO CACHO
  • RENATA GALANTE
  • THAIS VASCONCELOS BATISTA
  • Data: 05/11/2020

  • Mostrar Resumo
  • Cidades inteligentes são compostas por diversos sistemas interconectados, destinados a promover uma melhor gestão dos recursos urbanos e naturais das cidades, contribuindo assim para a melhoria da qualidade de vida dos cidadãos. Os dados são de grande importância para as cidades inteligentes, pois contribuem significativamente para o processo de tomada de decisões estratégicas para o espaço urbano. Contudo, tal cenário é tipicamente caracterizado pela alta heterogeneidade das fontes de dados tornando a pesquisa de informações significativas mais complexa. Para lidar com essas características, ontologias têm sido utilizadas em conjunto com o Linked Data para representar semanticamente as informações, inferir novas informações dos dados existentes e integrar efetivamente as informações conectadas de diferentes fontes. Esse cenário requer uma estratégia de gerenciamento de dados que inclua mecanismos eficientes para suportar a filtragem de informações e a descoberta de conhecimento. Nesse contexto, este trabalho propõe um componente de busca a dados semânticos baseado na representação de informações georreferenciadas em cidades inteligentes por meio de ontologias e dados vinculados. A solução proposta foi aplicada a dados educacionais georreferenciados de uma cidade para a realização de inferência de novas informações não explícitas dos dados e relacionamentos existentes.


  • Mostrar Abstract
  • Smart cities are composed of several interconnected systems, designed to promote better management of urban and natural resources in cities, thus contributing to improving the quality of life of citizens. Data is of great importance for smart cities, as they significantly contribute to the strategic decision-making process for urban space. However, such a scenario is typically characterized by the high heterogeneity of data sources making the search for significant information more complex. To deal with these characteristics, ontologies have been used in conjunction with Linked Data to semantically represent information, infer new information from existing data and effectively integrate connected information from different sources. This scenario requires a data management strategy that includes efficient mechanisms to support information filtering and knowledge discovery. In this context, this work proposes a search component to semantic data based on the representation of georeferenced information in smart cities through ontologies and linked data. The proposed solution was applied to geo-referenced educational data from a city to infer new non-explicit information from existing data and relationships.

15
  • DOUGLAS BRAZ MACIEL
  • Gerenciamento e Orquestração de Slices de Rede Elásticos em Domínios Definidospelo NECOS LSDC

  • Orientador : AUGUSTO JOSE VENANCIO NETO
  • MEMBROS DA BANCA :
  • AUGUSTO JOSE VENANCIO NETO
  • CHRISTIAN RODOLFO ESTEVE ROTHENBERG
  • MARCO VIEIRA
  • THAIS VASCONCELOS BATISTA
  • Data: 30/11/2020

  • Mostrar Resumo
  • O NECOS (do inglês Novel Enablers for Cloud Slicing) é um projeto de pesquisa e desenvolvimento fomentado pela 4a chamada colaborativa entre Brasil e Europa do Horizon 2020 (EUB-01-2017: Cloud Computing}. O projeto NECOS foi proposto com a finalidade de tratar das atuais limitações existentes no âmbito da computação em nuvem, de forma a oferecer suporte às demandas de novos serviços e verticais. A solução proposta pelo NECOS é baseada em um novo conceito chamado de nuvens definidas por fatias leves (LSDC, do inglês Lightweight Slice Defined Cloud). O LSDC é uma abordagem que considera ferramentas leves capazes voltadas para o gerenciamento e orquestração de recursos que, de modo que sejam combinados e agregados para aprovisionar fatias de rede e cloud fim a fim (denominado Cloud-Network Slicing). Diante disto, este trabalho propõe um conjunto de blocos de construção na arquitetura NECOS voltados ao gerenciamento e orquestração de partes network slices que compõe instâncias cloud-network slice ativas, ou a serem ativadas, em domínios definidos pela plataforma NECOS, na perspectiva de prover conectividade fim a fim com recursos garantidos e alto nível de isolamento pela exploração do conceito de e Virtualização de Funções de Redes (NFV, do inglês Network Function Virtualization). Ademais, os blocos de construção seguem o paradigma de Redes Softwarizadas como habilitador chave para o controle dos recursos automático e em tempo de execução, visando garantir Qualidade de Serviço (QoS, do inglês Quality of Service) e resiliência ao nível dos network-slices. A solução proposta será avaliada em uma bancada de testes laboratorial desenvolvida nas premissas do Laboratório do Grupo de Pesquisa em Serviços e Aplicações de Internet do Futuro (REGINA-Lab, do inglês Research Group on Future Internet Service and Applications Lab), que hospeda toda a plataforma NECOS e os blocos de construção propostos neste trabalho de mestrado. Uma avaliação preliminar foi realizada sob experimentos que consideram um ambiente real definido por cloud-network slices NECOS, sugerindo que esta abordagem se apresenta como uma solução viável.


  • Mostrar Abstract
  • The Novel Enablers for Cloud Slicing (NECOS) project is fostered by the 4th Horizon 2020 Collaborative Call between Brazil and Europe (EUB-01-2017: Cloud Computing}. The NECOS project address existing cloud computing and networking limitations to support the heterogeneous demands of new services and verticals. The solution proposed by NECOS is based on a new concept called Lightweight Slice Defined Cloud (LSDC), which considers lightweight tools capable for Management and Orchestration (MANO) of resources that are combined and aggregated to provide end-to-end cloud- and network-level slices (called Cloud-Network Slicing). This Masters research proposes a set of building blocks that extends the NECOS architecture with MANO of network-slice parts composing active or to be activated, cloud-network slice instances in domains defined by the NECOS platform so that provisioning end-to-end resource-guaranteed connectivity and with high-level isolation by exploring the Network Function Virtualization (NFV) concept. In addition, the proposed building blocks follow the Network Softwarization paradigm for enabling automatic resource control at the running time to ensure Quality of Service (QoS) and network-slice resiliency. The proposed solution will be evaluated in a lab-premised testbed under the Future Internet Services and Applications Research Group (REGINA-Lab) Laboratory, whereby the entire Internet NECOS platform participates, along with the building blocks proposed in this Master dissertation. A preliminary evaluation was performed under experiments that consider a real environment defined by NECOS cloud-network slices, suggesting that this approach presents itself as a viable solution.

16
  • IASLAN DO NASCIMENTO PAULO DA SILVA
  • Arquitetura de Microsserviços para Processamento de Imagens Relevantes em Evidências de Crimes Digitais

  • Orientador : BRUNO MOTTA DE CARVALHO
  • MEMBROS DA BANCA :
  • BRUNO MOTTA DE CARVALHO
  • DANIEL SABINO AMORIM DE ARAUJO
  • FRANCISCO DANTAS DE MEDEIROS NETO
  • GIBEON SOARES DE AQUINO JUNIOR
  • Data: 21/12/2020

  • Mostrar Resumo
  • Forense digital é um ramo da ciência da computação que se utiliza de técnicas computacionais para analisar evidências criminais com mais velocidade e precisão. No contexto do sistema de justiça brasileiro, durante uma investigação criminal, os especialistas forenses extraem, decodificam e analisam as evidências coletadas para permitir que o promotor público faça exigências legais para uma acusação. Esses especialistas têm um tempo muito curto a análise para encontrar evidências criminais pode levar muito tempo. Para resolver esse problema, este trabalho propõe ARTEMIS (A micRoservice archiTecturE for images in criMe evIdenceS ou Arquitetura de microsserviços para imagens em evidencias criminais) uma arquitetura para classificação de grandes quantidades de arquivos de imagem presentes em evidências usando softwares de código aberto. O módulo de classificação de imagens contém alguns classificadores pré-treinados, considerando a necessidade de analistas forenses do MPRN (Ministério Público do Rio Grande do Norte).Foram construídos modelos para identificar tipos específicos de objetos com por exemplo: armas de fogo, munição, carteiras de identidade brasileiras, documentos de texto, capturas de tela de celular e nudez. Os resultados obtidos mostram que o sistema obteve boa precisão na maioria dos casos. Isso é extremamente importante no contexto desta pesquisa, onde os falsos positivos devem ser evitados, a fim de economizar tempo de trabalho dos analistas. Além disso a arquitetura proposta foi capaz de acelerar o processo de analise da evidência.


  • Mostrar Abstract
  • Digital forensics is a branch of computer science that uses computational techniques to analyze criminal evidence with greater speed and accuracy. In the context of the Brazilian justice system, during a criminal investigation, forensic specialists extract, decode, and analyze the evidence collected to allow the prosecutor to make legal demands for a prosecution. These experts have a very short time to analyze to find criminal evidence can take a long time. To solve this problem, this paper proposes ARTEMIS (A micRoservice archiTecturE for imagesin criMe evIdenceS or Microservice Architecture for images in criminal evidence) an architecture for classifying large amounts of image files present in evidence using open source software. The image classification module contains some pre-trained classifiers, considering the need of foren-ses analysts from the MPRN (Rio Grande do Norte Public Ministry). Models were built to identify specific types of objects with for example: firearms, ammunition, Brazilian ID cards, text documents, cell phone screen captures enudez. The results obtained show that the system obtained good precision in most cases. This is extremely important in the context of this research, where false positives should be avoided in order to save analysts' work time. In addition, the proposed architecture was able to accelerate the process of evidence analysis.

Teses
1
  • ROBERCY ALVES DA SILVA
  • Recomendação automática da estrutura de comitês de classificadores usando meta-aprendizado

  • Orientador : ANNE MAGALY DE PAULA CANUTO
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • DANIEL SABINO AMORIM DE ARAUJO
  • DIEGO SILVEIRA COSTA NASCIMENTO
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • MARJORY CRISTIANY DA COSTA ABREU
  • Data: 07/02/2020

  • Mostrar Resumo
  • Atualmente, estamos constantemente preocupados em classificar coisas, pessoas e a tomar decisões, que quando nos deparamos com problemas com um alto grau de complexidade, tendemos a buscar opiniões de outras pessoas, geralmente de pessoas que tenham certo conhecimento ou até mesmo, na medida do possível, sejam especialistas no domínio do problema em questão, de forma que nos auxiliem efetivamente no nosso processo de tomada de decisão. Em uma analogia às estruturas de classificação, temos um comitê de pessoas e ou especialistas (classificadores) que toma decisões e, com base nestas respostas, uma decisão final é tomada (agregador). assim, podemos dizer que um comitê de classificadores é formado por um conjunto de classificadores (especialistas), organizados paralelamente, que recebem uma informação de entrada (padrão ou instância), e tomam uma decisão individual. Com base nestas decisões, o agregador escolhe a decisão final, única, do comitê. Uma questão importante no projeto de comitês de classificadores é a definição de sua estrutura, mais especificamente, a quantidade e o tipo de classificadores, e o método de agregação, para se obter o maior desempenho possível. Geralmente, é necessário um processo exaustivo de teste e avaliação para se definir esta estrutura, e tentando auxiliar nessa linha de pesquisa, este trabalho propõe duas novas abordagens para sistemas de recomendação automática da estrutura de comitês de classificadores, usando o meta-aprendizado para recomendar três desses parâmetros: o classificador, o número de classificadores e o agregador.


  • Mostrar Abstract
  • Today we are constantly concerned with classifying things, people, and making decisions, which when we encounter problems with a high degree of complexity, we tend to seek opinions from others, usually from people who have some knowledge or even, as far as possible. possible, be experts in the field of the problem in question, so as to effectively assist us in our decision-making process. In analogy to classification structures, we have a committee of people and or specialists (classifiers) that makes decisions, and based on these answers, a final decision is made (aggregator). Thus, we can say that a committee of classifiers is formed by a set of classifiers (specialists), organized in parallel, that receive input information (pattern or instance), and make an individual decision. Based on these decisions, the aggregator chooses the final single decision of the committee. An important issue in designing classifier committees is the definition of their structure, more specifically, the number and type of classifiers, and the method of aggregation for the highest possible performance. Generally, an exhaustive testing and evaluation process is required to define this structure, and trying to assist with this line of research, this paper proposes two new approaches to automatic recommendation systems of the classifier committee structure, using meta-learning to recommend three of these parameters: the classifier, the number of classifiers, and the aggregator.

2
  • GUSTAVO SIZÍLIO NERY
  • Compreendendo o relacionamento entre Integração Contínua e seu Impacto na Qualidade do Software

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • DANIEL ALENCAR DA COSTA
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • GUSTAVO HENRIQUE LIMA PINTO
  • RODRIGO BONIFACIO DE ALMEIDA
  • UIRA KULESZA
  • Data: 27/02/2020

  • Mostrar Resumo
  • Integração Contínua, em inglês Continuous Integration (CI), consiste na prática de automatizar e melhorar a frequência das integrações de código (por exemplo, através de builds diários). CI é frequentemente considerado um dos principais elementos que dão suporte às metodologias ágeis. CI ajuda a reduzir os riscos de integração no desenvolvimento de software, através de builds e testes automatizados, permitindo que equipes corrijam problemas de integração imediatamente. A adoção de CI pode ajudar as equipes a avaliar e melhorar a qualidade dos sistemas de software. Os potenciais benefícios de CI chamaram a atenção de pesquisadores da engenharia de software que buscam entender, de forma empírica, as possíveis vantagens de adoção da prática. Estudos anteriores evidenciam o impacto da adoção de CI em diversos aspectos do desenvolvimento de software. Apesar dos valiosos avanços, muitas suposições permanecem empiricamente inexploradas na comunidade.

    Nosso trabalho investiga, de forma empírica, os fatores da qualidade do software e suas relações com a adoção de CI. Como contribuição, esta tese fornece um mapeamento sistemático da literatura, que apresenta um amplo cenário de como profissionais e pesquisadores observam o efeito de CI nos aspectos relacionados ao produto de software. Além disso, melhoramos algumas premissas, realizando dois estudos empíricos, visando responder às seguintes questões ainda em aberto: (i) A adoção de CI está associada à evolução do código de teste dos projetos? (ii) O nível de aderência às práticas de CI está relacionada a uma melhoria da qualidade do código fonte dos projetos? Por fim, nós apresentamos um estudo pioneiro, considerando o nosso contexto de pesquisa, que vai além dos testes de correlação e investiga o efeito causal entre a adoção de CI e testes automatizados. Para isto, aplicamos uma inferência causal, através da utilização de diagramas causais e métodos probabilísticos, para determinar a efeito de CI nos testes automatizados. Nossos resultados sugerem que, apesar dos trade-offs relacionados à adoção de CI, é provável que a prática esteja associada à melhorias na qualidade do software. Além disso, CI emprega um efeito causal positivo e considerável no volume de testes dos projetos.


  • Mostrar Abstract
  • Continuous Integration (CI) is the practice of automating and improving the frequency of code integration (e.g., daily builds). CI is often considered one of the key elements involved to support agile software teams. It helps to reduce the risks in software development by automatically building and testing a project codebase, which allows the team to fix broken builds immediately. The adoption of CI can help development teams to assess the quality of software systems. The potential benefits of adopting CI have brought the attention of researchers to study its advantages empirically. Previous research has studied the impact of adopting CI on diverse aspects of software development. Despite the valuable advancements, there are still many assumptions in the community that remains empirically unexplored.

    Our work empirically investigates the software quality outcomes and their relationship with the adoption of CI. This thesis provides a 
    systematic literature mapping that presents a broad knowledge of how practitioners and researchers recognize the CI practice to affect software product-related aspects. Additionally, we improve some assumptions by performing two empirical studies that aim to answer the following open questions: (i) Does the adoption of CI share a relationship with the evolution of test code? (ii) The adherence to CI best practices is related to the degree of code quality? Finally, we present a pioneering study that goes beyond the correlation tests to investigate the estimated causal effect of CI adoption and its impact on automated tests. Thereby, we apply a causal inference using directed acyclic graphs and probabilistic methods to determine the causal effect of CI in automated tests. Our results suggest that, despite the CI adoption trade-offs, it is likely to be associated with
    improvements in software quality. Additionally, it employs a 
    considerable positive causal effect on the volume of automated tests.

3
  • LETTIERY D' LAMARE PORTELA PROCOPIO
  • Roteamento de Drones Autônomo: Um EstudoAlgorítmico

  • Orientador : MARCO CESAR GOLDBARG
  • MEMBROS DA BANCA :
  • GILBERTO FARIAS DE SOUSA FILHO
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • LUCÍDIO DOS ANJOS FORMIGA CABRAL
  • MARCO CESAR GOLDBARG
  • MATHEUS DA SILVA MENEZES
  • Data: 28/02/2020

  • Mostrar Resumo
  • Este trabalho formula a versão Assimétrica do Problema de Roteamento de Veículo Suficientemente Próximo, utilizado para planejamento de rotas de reconhecimento aéreo. O problema é formulado com programação cônica de segunda ordem e são aplicadas técnicas de otimização heurística baseada em uma propriedade geométrica do problema pararesolve-lo. Apresentamos os resultados de experimentos computacionais extensivo cominstâncias adaptadas da literatura, os testes mostram que o método proposto produz soluções de alta qualidade rapidamente ao comparado com o Solver


  • Mostrar Abstract
  • This work formulates the Assicron’s version of the Close-Enough Vehicle Routing Problem, used for aerial reconnaissance route planning. We formulate the problem with the second-order programming model and apply heuristic optimization techniques based on a geometric property of the problem to solve it. We present the results of extensive computational experiments with adapted instances of the literature, the tests show that our method produces high quality solutions quickly when compared to the solver.

4
  • EMMANUELLY MONTEIRO SILVA DE SOUSA LIMA
  • Números Complexos Graduados, ordens locais e agregações locais.

  • Orientador : REGIVAN HUGO NUNES SANTIAGO
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • GRAÇALIZ PEREIRA DIMURO
  • REGIVAN HUGO NUNES SANTIAGO
  • RONEI MARCOS DE MORAES
  • Data: 17/04/2020

  • Mostrar Resumo
  • Agregações são funções que possuem a capacidade de combinar vários objetos em um único objeto dessa mesma natureza. Mínimo, máximo, média ponderada e média aritmética, são exemplos de agregações frequentemente utilizadas no cotidiano as quais possuem diversas possibilidades de aplicações. Porém, quando trabalha-se com agregações, como as mencionadas anteriormente, os objetos em questão são sempre números reais. Na literatura são quase inexistentes estudos e pesquisas que retratam essas agregações onde os objetos são números complexos. Isto deve-se ao fato de que para introduzir agregações, os objeto envolvidos necessitam estar providos de uma ordem total.

    Os Números Complexos Graduados (NCG), proposto pelo autor, foram recentemente aplicado na avaliação de desempenho de algoritmos de classificação. O método requeria a comparação entre esses números e para alcançar isso propõe-se os conceitos de ordem e agregações locais. Duas aplicações são propostas.


  • Mostrar Abstract
  •  Aggregations are functions that have the ability to combine multiple objects into a single object of the same nature. Minimum, maximum, weighted average and arithmetic mean, are examples of aggregations frequently used in everyday life which have several possibilities for applications. However, when working with aggregations, such as those mentioned above, the objects in question are always real numbers. There are almost no studies in the literature that portray these aggregations when objects are complex numbers. This is due to the fact that to introduce some aggregations, the objects involved need to be provided with a total order relation. The Graduated Complex Numbers (NCG), proposed by the author, was recently applied in the performance evaluation of classification algorithms. The method required the comparison  of complex graduated numbers to achieve that the notion of local order is proposed and consequently the concept of local aggregation is developed. Two applications of such approach are provided.

5
  • LIDIANE OLIVEIRA DOS SANTOS
  • Um Estilo Arquitetural Baseado na Norma ISO/IEC 30141 para Sistemas de Internet das Coisas

  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • ELISA YUMI NAKAGAWA
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • FLAVIO OQUENDO
  • JAIR CAVALCANTI LEITE
  • THAIS VASCONCELOS BATISTA
  • Data: 20/05/2020

  • Mostrar Resumo
  • A Internet das Coisas (Internet of Things – IoT) vem contribuindo para uma nova revolução tecnológica, promovendo expressivo impacto social. A ideia básica de IoT é permitir conectividade, interação e integração de objetos inteligentes endereçáveis de forma única, que colaboram uns com os outros para atingir objetivos comuns. Embora IoT seja um paradigma promissor para a integração de dispositivos e tecnologias de comunicação, é necessário rever os métodos tradicionais de desenvolvimento de software, considerando as particularidades exigidas pelos sistemas de IoT. Dado o papel fundamental da arquitetura de software no desenvolvimento de sistemas intensivos de software, os desafios relacionados ao desenvolvimento de sistemas de IoT devem ser considerados desde o nível arquitetural. Arquiteturas de software permitem que os stakeholders raciocinem sobre as decisões do projeto antes da implementação, definam restrições, analisem atributos de qualidade e sejam melhor orientados em termos de manutenção e evolução do sistema. No contexto de arquitetura de software, os estilos arquiteturais têm um papel primordial uma vez que especificam os elementos arquiteturais comumente utilizados por uma determinada família de sistemas, juntamente com um conjunto de restrições sobre como estes elementos devem ser usados. Portanto, um estilo arquitetural fornece um ponto de partida para uma modelagem coerente da arquitetura de software, permitindo o reuso de elementos e de um conjunto de decisões arquiteturais previamente definidas e validadas, facilitando o processo de modelagem da arquitetura. A literatura dispõe de muita informação sobre IoT e estilos arquiteturais, porém existe uma lacuna na integração dos mesmos. As vantagens proporcionadas pelo uso de estilos arquiteturais podem beneficiar a especificação arquitetural de sistemas de IoT, porém, até o momento, não há na literatura um estilo arquitetural específico para esse tipo de sistema. No contexto de arquitetura de software para sistemas de IoT,  a norma ISO/IEC 30141 propõe um modelo de referência e uma arquitetura de referência para sistemas de IoT, e representa um consenso internacional sobre arquitetura de software para IoT. Porém, tal norma não define um estilo arquitetural. Visando preencher essa lacuna, o principal objetivo deste trabalho é propor um estilo arquitetural que ofereça diretrizes para a modelagem da arquitetura de software de sistemas de IoT, em conformidade com a norma ISO/IEC 30141. A especificação do estilo é realizada usando a linguagem SysADL, uma Linguagem de Descrição Arquitetural (ADL) voltada para a modelagem de sistemas intensivos de software. Esse trabalho também apresenta avaliações do estilo proposto, realizadas através de: (i) uma avaliação de expressividade do estilo utilizando o framework proposto por PATIG (2004), (ii) uma avaliação de usabilidade do estilo, utilizando o framework Cognitive Dimensions of Notation (CDN) (BLACKWELL; GREEN, 2003) e (iii) uma avaliação experimental por meio de dois experimentos controlados para avaliar os efeitos proporcionados pelo uso do estilo.


  • Mostrar Abstract
  • The Internet of Things (IoT) has been contributing to a new technological revolution, promoting a significant social impact. The basic idea of IoT is to enable connectivity, interaction, and integration of uniquely addressable intelligent objects that collaborate with each other to achieve common goals. Although IoT is a promising paradigm for the integration of communication devices and technologies, it is necessary to review the traditional methods of software development considering the particularities required by IoT systems. Given the fundamental role of software architecture in the development of intensive software systems, the challenges related to the development of IoT systems must be considered since the architectural level. A software architecture allows stakeholders to reason about project decisions prior to implementation, define constraints, analyze quality attributes, and be better oriented in terms of system maintenance and evolution. In the context of software architecture, architectural styles have a key role since they specify the architectural elements commonly used by a particular class of systems, along with a set of constraints on how these elements are to be used. Therefore, an architectural style provides a starting point for a coherent modeling of the software architecture, allowing the reuse of elements and a set of previously defined and validated architectural decisions, thus facilitating the architecture modeling process. The literature has much information about IoT and architectural styles, but there is a gap in their integration. The advantages offered by the use of architectural styles can benefit the architectural specification of IoT systems, but there is still no specific architectural style for this type of system in the literature. In the context of software architecture for IoT systems, the ISO/IEC 30141 standard proposes a reference model and a reference architecture for IoT systems, and represents an international consensus on software architecture for IoT. However, such a standard does not define an architectural style. Aiming to fill this gap, the main goal of this work is proposing an architectural style that offers guidelines for modeling the software architecture of IoT systems, in accordance with the ISO/IEC 30141 standard. The style is specified using the SysADL language, an Architectural Description Language (ADL) focused on the modeling of intensive software systems. This work also presents evaluations of the proposed style, performed through: (i) an evaluation of expressiveness of the style using the framework proposed by PATIG (2004), (ii) a usability evaluation of the style using the Cognitive Dimensions of Notation (CDN) framework (BLACKWELL; GREEN, 2003) and (iii) an experimental evaluation using two  controlled experiments to evaluate the effects provided by the use of style.

6
  • GUSTAVO DE ARAUJO SABRY
  • Problema do Caixeiro Viajante Alugador com Passageiros

  • Orientador : MARCO CESAR GOLDBARG
  • MEMBROS DA BANCA :
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MARCO CESAR GOLDBARG
  • MATHEUS DA SILVA MENEZES
  • PAULO HENRIQUE ASCONAVIETA DA SILVA
  • THATIANA CUNHA NAVARRO DE SOUZA
  • Data: 12/06/2020

  • Mostrar Resumo
  • Este trabalho apresenta uma nova variante do Problema do Caixeiro Alugador ainda não descrita na literatura, denominada de Problema do Caixeiro Viajante Alugador com Passageiros. Neste problema são disponibilizados um conjunto de cidades, um conjunto de veículos e um conjunto de passageiros. O tour de visitas do caixeiro pode ser realizado utilizando diferentes veículos, ou seja, o problema engloba o processo de aluguel/devolução dos carros. No modelo proposto, a variante do Caixeiro Alugador é mesclada com elementos de ridesharing. Ou seja, nas cidades podem haver passageiros interessados em viajar para um determinado destino e dispostos a dividir os custos com o caixeiro enquanto estão embarcados no veículo. O objetivo do problema é determinar, em um grafo, o menor ciclo Hamiltoniano considerando as trocas de veículos e os embarques de passageiros durante o percurso. O problema é composto por várias decisões interligadas: a sequência das cidades visitadas, a ordem dos carros utilizados, as cidades onde os automóveis devem ser alugados/devolvidos, bem como o esquema de embarque dos passageiros. Uma análise geral do problema é descrita para justicar sua complexidade. São propostas duas formulações de programação inteira mista. Estas formulações são linearizadas utilizando duas técnicas diferentes, resultando em quatro modelos lineares. Estes modelos são implementados em dois solvers e validados com base em instâncias do problema que, por sua vez,
    são baseadas nas instâncias do Caixeiro Alugador. Além disso, também são apresentadas duas heurísticas ingênuas e uma metaheurística para solucionar o problema. Experimentos computacionais comparativos e testes de desempenho são realizados sobre uma amostra de 54 instâncias. Os resultados obtidos são comparados e as conclusões são reportadas.


  • Mostrar Abstract
  • This work presents a new variant of the Traveling Car Renter Problem not yet described in the literature, denominated the Traveling Car Renter with Passengers. This problem provides a set of cities, a set of vehicles and a set of passengers. The salesman's tour can be done using dierent vehicles, i.e., the problem encompasses the process of vehicles' rental and delivery. In the proposed model, the variant of the Traveling Car Renters Problem is merged with Ridesharing aspects. That is, in cities there may be passengers interested in traveling to a certain destination and willing to share costs with the salesman while they are aboard on the vehicle. The objective of the problem is to determine, in a graph, the lowest Hamiltonian cycle considering the vehicles' exchanges and  he shipments along the tour. The problem is made up of several interlinked decisions: the sequence of visited cities, the order of used cars, the cities where the cars must be rented and/or delivered and the passengers' boarding schema. A general analysis of the problem is described to justify its complexity. Two formulations of mixed integer programming are proposed. These formulations are linearized using two dierent techniques, resulting in four linear
    models. These models are implemented in two solvers and validated based on instances of the problem, which in turn are based on instances of the Traveling Car Renter Problem. In addition, two naive heuristics and a metaheuristic to solve the problem. Comparative computational experiments and performance tests are performed on a set of 54 instances. The results obtained are compared and the conclusions are reported.

7
  • HADLEY MAGNO DA COSTA SIQUEIRA
  • Proposta de Arquitetura de Alto Desempenho para Sistemas de Tempo Real

  • Orientador : MARCIO EDUARDO KREUTZ
  • MEMBROS DA BANCA :
  • MARCIO EDUARDO KREUTZ
  • MONICA MAGALHAES PEREIRA
  • GUSTAVO GIRAO BARRETO DA SILVA
  • CESAR ALBENES ZEFERINO
  • IVAN SARAIVA SILVA
  • Data: 31/07/2020

  • Mostrar Resumo
  • Precision Timed Machines (PRET) são arquiteturas voltadas para o uso em sistemas embarcados de tempo real e sistemas cyber-físicos. A principal característica dessas arquiteturas é a capacidade de prover previsibilidade e repetibilidade para tarefas de tempo real, facilitando assim o desenvolvimento, análise e teste de sistemas de tempo real. O estado da arte, no momento dessa escrita, consiste em um conjunto de processadores baseados no conceito PRET. Esses processadores tem como uma das principais características o uso de threads em hardware com chaveamento das mesmas a cada ciclo de relógio. Essa estratégia provê um bom desempenho quando há paralelismo a nível de thread, porém induz a um baixo desempenho na falta desse paralelismo. Além disso, o chaveamento das threads a cada ciclo de relógio leva a uma latência alta. Essa latência alta pode inviabilizar a execução de tarefas que requeiram baixa latência. O presente trabalho contribui para o estado da arte de duas formas: a primeira é apresentando uma proposta de um array reconfigurável de grão grosso baseado no conceito PRET. O array proposto é acoplado a um processador PRET, provendo suporte para aceleração de trechos importantes de uma aplicação. O array foi projetado de tal forma que quando acoplado ao processador não faça este perder suas propriedades temporais originais. A segunda contribuição desta tese é a proposta e implementação de uma arquitetura multicore. Cada core é composto por um processador acoplado ao array proposto. Dessa forma, este trabalho procura apresentar uma arquitetura de alto desempenho voltado para sistemas embarcados de tempo real que tenham alta demanda de processamento tais como na aviônica, por exemplo. Resultados mostram que a arquitetura proposta é capaz de prover aceleração de mais de 10 vezes para alguns tipos de aplicação. Em termos de área, resultados de síntese para FPGA mostram que cada core ocupa menos da metade de um processador com execução fora de ordem. Além disso, possui área similar a outros arrays usados em sistemas embarcados low-power.


  • Mostrar Abstract
  • Precision-Timed Machines (PRET) are architectures intended for use in real-time and cyber-physical cyber systems. The main feature of these architectures is that they provide predictability and repeatability for real-time tasks, thus facilitating development, analysis, and testing of these systems. The state of the art, at the time of this writing, consists of processors based on the PRET concept. These processors explore thread-level parallelism by interleaving threads at a fine-grained level, i.e. at each clock cycle. This strategy provides good performance when there is parallelism at the thread level, but induces a low performance in the absence of this parallelism. In addition, the switching of threads to each clock cycle leads to high latency. This high latency can make it impossible performing tasks that require low latency. The present work contributes for the state of the art in two ways: first by presenting a proposal for a reconfigurable coarse-grain reconfigurable array based on the PRET concept. The proposed array is coupled to a PRET processor, providing support for accelerating important parts of an application. The array was designed in such a way that when coupled to the processor do not make the processor lose its original temporal properties. The second contribution of this thesis is the proposal and implementation of a multicore architecture. Each core is composed of a processor coupled to the proposedarray. Thus, this work seeks to present a high-performance architecture facing embedded real-time systems that have a high demand for performance such as avionics, for example. Results show that the proposed architecture is capable of providing acceleration of more than 10 times for some types of applications. In terms of area, synthesis results for FPGA show that each core occupies less than half of a processor running out of order. In addition, it has an area similar to other arrays used in low-power embedded systems.

8
  • JOÃO BATISTA DE SOUZA NETO
  • Mutação de Transformações para Teste de Programas Spark

  • Orientador : MARTIN ALEJANDRO MUSICANTE
  • MEMBROS DA BANCA :
  • ANAMARIA MARTINS MOREIRA
  • GENOVEVA VARGAS-SOLAR
  • GIBEON SOARES DE AQUINO JUNIOR
  • MARTIN ALEJANDRO MUSICANTE
  • PLACIDO ANTONIO DE SOUZA NETO
  • SILVIA REGINA VERGÍLIO
  • UMBERTO SOUZA DA COSTA
  • Data: 31/07/2020

  • Mostrar Resumo
  • O crescimento do volume de dados gerado, sua produção contínua e em larga escala e sua heterogeneidade levaram ao desenvolvimento do conceito de Big Data. A coleta, armazenamento e, sobretudo, processamento deste grande volume de dados exigem importantes recursos computacionais e ambientes de execução adaptados. Diferentes sistemas de pro- cessamento paralelo e distribuído são utilizados para o processamento de Big Data. Alguns sistemas adotam um modelo de fluxo de controle, como o sistema Hadoop que aplica o modelo MapReduce, e outros adotam um modelo de fluxo de dados, como o Apache Spark. A confiabilidade de programas de processamento de grandes volumes de dados se torna importante devido à grande quantidade de recursos computacionais necessários para sua execução. Por isso, é importantes testar esses programas antes que eles sejam executados em produção em uma infraestrutura custosa de computação distribuída. O teste de pro- gramas de processamento de Big Data tem ganhado interesse nos últimos anos, mas a área ainda possui poucos trabalhos que abordam o teste funcional desse tipo de programa e em sua maioria abordam apenas o teste de programas MapReduce. Esta tese de doutorado visa reduzir a lacuna existente na área ao propor uma abordagem de teste de mutação para programas que seguem um modelo de fluxo de dados. O teste de mutação é uma técnica de teste que se baseia na simulação de defeitos através de modificações no programa para criar versões defeituosas chamadas mutantes. A geração dos mutantes é realizada por operadores de mutação que são capazes de simular defeitos específicos no programa. Mutantes são utilizados no processo de projeto e avaliação de testes de modo a ter um conjunto de testes capaz de identificar os defeitos simulados pelos mutantes. Para aplicar o processo de teste de mutação em programas de processamento de Big Data, é importante ter conhecimento dos tipos de defeitos que podem ser encontrados nesse contexto para, então, projetar operadores de mutação que possam simulá-los. Com base nisso, realizamos um estudo para caracterizar defeitos e problemas que podem surgir em programas Spark. Esse estudo resultou em duas taxonomias. A primeira taxonomia agrupa e caracteriza problemas não-funcionais que afetam o desempenho de execução de programas Spark. A segunda taxonomia é focada em defeitos funcionais que afetam o comportamento de pro- gramas Spark. Com base na taxonomia de defeitos funcionais, projetamos um conjunto de operadores de mutação para programas que seguem um modelo de fluxo de dados. Esses operadores simulam defeitos no programa através de mudanças no seu fluxo de dados e nas suas operações. Os operadores de mutação foram formalizados com um modelo que propomos para representar programas de processamento de dados baseados em fluxo de dados. Para dar suporte a aplicação dos nossos operadores de mutação, desenvolvemos a ferramenta TRANSMUT-Spark que automatiza as principais etapas do processo de teste de mutação em programas Spark. Realizamos experimentos para avaliar os opera- dores de mutação e ferramenta em termos de custos e efetividade. Os resultados desses experimentos mostraram a viabilidade da aplicação do processo de teste de mutação em programas Spark e sua contribuição no processo de teste com o intuito de desenvolver programas mais confiáveis.


  • Mostrar Abstract
  • The growth in the volume of data generated, its continuous and large-scale production, and its heterogeneity led to the development of the concept of Big Data. The collection, storage and, especially, processing of this large volume of data requires important computational resources and adapted execution environments. Different parallel and distributed processing systems are used for Big Data processing. Some systems adopt a control flow model, such as the Hadoop system that applies the MapReduce model, and others adopt a data flow model, such as the Apache Spark. The reliability of large-scale data processing programs becomes important due to the large amount of computational resources required for their execution. Therefore, it is important to test these programs before running them in production in an expensive distributed computing infrastructure. The testing of Big Data processing programs has gained interest in the last years, but the area still has few works that address the functional testing of this type of program, and most of them only address the testing of MapReduce programs. This thesis aims to reduce the gap in the area by proposing a mutation testing approach for programs that follow a data flow model. Mutation testing is a testing technique that relies on simulating faults by modifying a program to create faulty versions called mutants. The generation of mutants is carried by mutation operators that are able to simulate specific faults in the program. Mutants are used in the test design and evaluation process in order to have a test set capable of identifying the faults simulated by the mutants. In order to apply the mutation testing process to Big Data processing programs, it is important to be aware of the types of faults that can be found in this context to design mutation operators that can simulate them. Based on this, we conducted a study to characterize faults and problems that can appear in Spark programs. This study resulted in two taxonomies. The first taxonomy groups and characterizes non-functional problems that affect the execution performance of Spark programs. The second taxonomy focuses on functional faults that affect the behavior of Spark programs. Based on the functional faults taxonomy, we designed a set of mutation operators for programs that follow a data flow model. These operators simulate faults in the program through changes in its data flow and operations. The mutation operators were formalized with a model we propose to represent data processing programs based on data flow. To support the application of our mutation operators, we developed the tool TRANSMUT-Spark that automates the main steps of the mutation testing process in Spark programs. We conducted experiments to evaluate the mutation operators and tool in terms of costs and effectiveness. The results of these experiments showed the feasibility of applying the mutation testing process in Spark programs and their contribution to the testing process in order to develop more reliable programs.

9
  • BRUNO DE CASTRO HONORATO SILVA
  • O Problema do Caixeiro Viajante com Cota, Múltiplos Passageiros, Transporte Incompleto e Tempo de Coleta

  • Orientador : MARCO CESAR GOLDBARG
  • MEMBROS DA BANCA :
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • LUCÍDIO DOS ANJOS FORMIGA CABRAL
  • MARCO CESAR GOLDBARG
  • MATHEUS DA SILVA MENEZES
  • PAULO HENRIQUE ASCONAVIETA DA SILVA
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • Data: 18/09/2020

  • Mostrar Resumo
  • O Problema do Caixeiro Viajante com Cota, Múltiplos Passageiros, Transporte Incompleto e Tempo de Coleta é uma nova versão do Problema do Caixeiro Viajante com Cota em que o vendedor usa um sistema de compartilhamento de viagens flexível para minimizar os custos de viagem enquanto visita alguns vértices para satisfazer uma cota pré-estabelecida. É apresentado um modelo matemático em que se consideram restrições operacionais relacionadas à capacidade do veículo, tempo de viagem, limitações de passageiros e penalidades por viagens que não atendam aos requisitos dos passageiros. Abordagens exatas e heurísticas são propostas para resolução do problema.


  • Mostrar Abstract
  •  

    The Quota Travelling Salesman Problem with Passengers, Incomplete Ride, and Collection Time is a new version of the Quota Travelling Salesman Problem. In this problem, the salesman uses a flexible ridesharing system to minimize travel costs while visiting some vertices to satisfy a pre-established quota. We consider operational constraints regarding vehicle capacity, travel time, passenger limitations, and penalties for rides that do not meet passenger requirements. We present a mathematical formulation, and exact and heuristics approaches to solve this problem.

10
  • SANDINO BARROS JARDIM
  • Auto Dimensionamento Proativo para Elasticidade Assertiva de Funções de Rede Virtuais em Cadeias de Serviço

  • Orientador : AUGUSTO JOSE VENANCIO NETO
  • MEMBROS DA BANCA :
  • AUGUSTO JOSE VENANCIO NETO
  • ANNE MAGALY DE PAULA CANUTO
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • HAROLD IVAN ANGULO BUSTOS
  • MARÍLIA PASCOAL CURADO
  • Data: 23/10/2020

  • Mostrar Resumo
  • A virtualização de funções de rede é uma tecnologia que propõe desacoplar funções de rede tradicionalmente alocadas sobre hardware especializado e disponibilizá-las como elementos de software com premissa de execução sobre servidores de propósito geral. Tal flexibilização permite a oferta de serviços de rede alocados sobre infraestruturas de nuvem e facilita o estabelecimento de políticas de rede a partir do encadeamento de diferentes funções pelo qual um determinado tráfego deva atravessar para seu cumprimento. A variação da demanda pelos serviços hospedados vai exigir da gestão de recursos o atributo de elasticidade para lidar com objetivos de desempenho, ajustando os recursos computacionais das funções para lidar com aumento de demanda, e custos de operação, evitando provisionamento além da necessidade. Tradicionalmente, a elasticidade é oferecida por abordagens reativas baseadas em limiares, mas apresentam a tendência de aumentarem exponencialmente seu tempo de resposta conforme os recursos se esgotam. Trabalhos recentes têm sugerido abordagens proativas, combinando métodos de aprendizagem de máquina que permitem antecipar as decisões e adequar o máximo possível os recursos à demanda. Tal adequação é crucial para o sucesso de uma solução de elasticidade proativa, viabilizando decisões assertivas de dimensionamento que respondam com agilidade e precisão às variações de demanda e que contribuam para o equilíbrio dos objetivos de custo e desempenho. Esta tese de doutorado apresenta o ARENA, um mecanismo de elasticidade proativa para auto dimensionamento de funções virtualizadas de rede encadeadas auxiliado por predição de demanda baseada em aprendizagem de máquina para maximização da assertividade das decisões de dimensionamento horizontal e vertical.


  • Mostrar Abstract
  • The virtualization of network functions is a technology that proposes to decouple network functions, traditionally allocated on specialized hardware, so that making them available as software elements executing at general-purpose servers premises. Such flexibility allows offering network services running over cloud infrastructures and facilitates enforcing network policies based on the chaining of different functions, through which a targeting traffic must be subjected. The variation in services demand will require the resource management attribute of elasticity to tackle performance goals, adjusting the computational resources of the functions to suit both the new projected demand  and operating costs so as to avoid provisioning beyond the need. Traditionally, reactive threshold-based approaches afford elasticity function, to the cost of exponentially increasing response times as resources run out. Recent work suggest proactive elasticity approaches harnessing the combination of machine learning methods that allow anticipating decisions and adapting resources to the projected demand, as much as possible. Such adequacy is crucial for the success of a proactive elasticity solution, in the perspective to enable assertive scaling decisions to respond with agility and precision to variations in demand, as well as to contribute with the balance of cost and performance objectives. This doctoral thesis presents ARENA, a proactive elasticity mechanism for autoscaling virtualized network functions driven by demand prediction based on machine learning to maximize the assertiveness of horizontal and vertical dimensioning decisions.

11
  • LEANDRO DE ALMEIDA MELO
  • Vai além do desafio! Compreendendo as motivações para participar e colaborar em game jams

  • Orientador : FERNANDO MARQUES FIGUEIRA FILHO
  • MEMBROS DA BANCA :
  • FERNANDO MARQUES FIGUEIRA FILHO
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • UIRA KULESZA
  • CLEIDSON RONALD BOTELHO DE SOUZA
  • KIEV SANTOS DA GAMA
  • Data: 26/10/2020

  • Mostrar Resumo
  • Contexto: Os game jams têm atraído um público cada vez mais diversificado, com milhares de profissionais, estudantes e entusiastas se reunindo para construir protótipos de jogos todos os anos. No entanto, pouco se sabe sobre o que atrai pessoas com perfis demográficos distintos a participarem voluntariamente desses eventos, ou mesmo sobre como esses participantes colaboram durante o evento. Objetivos: Neste sentido, esta tese tem como objetivo investigar por que essas pessoas participaram voluntariamente desses eventos, ou seja, quais são as suas motivações e prioridades para a participação nesses eventos. Além disto, busca-se também verificar como as motivações e os perfis demográficos dos participantes estão relacionadas à forma pela qual eles buscam e oferecem ajuda durante o evento. Método: Um estudo multimétodo, com técnicas de análise quantitativas e qualitativas, foi conduzido para entender esses aspectos. Neste processo, foram coletados dados de mais de 3500 pessoas, de mais de 100 países, as quais participaram de três edições de um game jam anual e de escala global. Resultados: Dentre os resultados, esta tese apresenta um instrumento e um modelo conceitual de motivação que emergiram da análise dos dados, sendo este último é composto por cinco dimensões motivacionais. A partir disto, foi possível de investigar a influência relativa que o perfil de atuação dos participantes exerce sobre as motivações dos participantes. Identificou-se, por exemplo, que os estudantes e hobistas são os mais influenciados por motivações técnicas, ou seja, motivações relacionadas à prática e aquisição de conhecimentos técnicos. Já os desenvolvedores indie possui uma atração maior por conexões de negócios que os demais grupos. A motivação pessoal relacionada a ideação é a grande motivação de todos os grupos, sem diferença significativa entre eles nas médias dessa motivação. Ademais, descobriu-se também que os desenvolvedores profissionais e indie são os que fornecem ajuda com mais frequência, enquanto os estudantes formam o grupo com mais intensidade de interação com os mentores. No entanto, a frequência com que os participantes recebem ajuda dos mentores diminui com o aumento da experiência no desenvolvimento de jogos e participação prévia em game jams. Conclusão: Com base nesses resultados é disponibilizado um conjunto de implicações organizacionais para auxiliar organizadores a tornarem os eventos mais atrativos e identificar práticas que podem tornar a colaboração ainda mais presente e efetiva nestes eventos. Por fim, também são discutidas implicações ao design que podem derivar-se dos resultados desta tese


  • Mostrar Abstract
  • Game jams have been attracting an increasingly diverse attendance, with thousands of professionals, students and enthusiasts coming together to build prototypes of games every year. However, little is known about what attracts people with such different demographic profiles to voluntarily participate in such events. The same can be said about the way participants collaborate during the event. Objectives: In this sense, this dissertation aims to investigate the reason why people willingly take part in such events, i.e., what acts as their motivations and priorities for participating in game jams. In addition, this work is also intended to verify how the motivations and demographic profiles of the participants are related to the way in which they seek and offer help throughout the event. Method: A multi-method study, using quantitative and qualitative analysis techniques, was conducted to understand the mentioned aspects. In this process, data was collected from more than 3,500 people, across more than 100 countries, who had participated in three editions of an annual and global-scale game jam. Results: Among the results, this dissertation presents an instrument and a conceptual model of motivation which resulted from the data analysis, the latter being composed of five motivational dimensions. Based on these aspects, it was possible to investigate the relative influence that the participants' occupation profile has on the participants' motivations. It was possible to identify, for instance, that students and hobbyists are the most influenced by technical motivations, i.e., motivations related to the practice and acquisition of technical knowledge. Indie developers are more attracted to business connections than other groups. Personal motivation related to ideation is the great motivation of all groups, with no significant difference between them in the averages of this specific motivation. Furthermore, it was found that professional and indie developers are the ones who provide help most often, while students constitute the group with the highest degree of intensity in interacting with mentors. However, the frequency with which participants receive help from mentors decreases with increasing experience in game development and the number of prior participations in game jams. Conclusion: Based on such results, a set of organizational implications is available to assist organizers in holding more attractive events and identifying practices that can make collaboration even more present and effective in such events. Finally, implications for design that can be derived from the results of this dissertation are also discussed.

12
  • CÍCERO ALVES DA SILVA
  • Uma Arquitetura de Software Baseada em Computação em Névoa para Gestão dos Registros Médicos Centrada no Paciente

  • Orientador : GIBEON SOARES DE AQUINO JUNIOR
  • MEMBROS DA BANCA :
  • GIBEON SOARES DE AQUINO JUNIOR
  • AUGUSTO JOSE VENANCIO NETO
  • THAIS VASCONCELOS BATISTA
  • ANDRÉ GUSTAVO DUARTE DE ALMEIDA
  • FERNANDO ANTONIO MOTA TRINTA
  • Data: 10/11/2020

  • Mostrar Resumo
  • O envelhecimento da população mundial e o crescimento do número de pessoas com do-
    enças crônicas têm aumentado os gastos com atendimento médico. Desse modo, o uso

    de soluções tecnológicas, inclusive as baseadas em Internet das Coisas, vêm sendo am-
    plamente adotadas na área médica no intuito de melhorar a saúde dos pacientes. Neste

    contexto, abordagens baseadas em Computação em Nuvem têm sido adotadas para re-
    alizar o armazenamento e processamento das informações geradas nessas soluções. No

    entanto, o uso de Nuvem pode gerar atrasos intoleráveis para aplicações médicas. Assim,
    o paradigma de Computação em Névoa surgiu como uma alternativa para contornar esse

    problema, provendo computação e armazenamento mais próximo das fontes de dados. En-
    tretanto, a gestão dos dados médicos armazenados na Névoa ainda é um desao. Além do

    mais, características de privacidade, condencialidade e interoperabilidade precisam ser

    consideradas em abordagens que tenham o objetivo de explorar esta problemática. As-
    sim, este trabalho dene uma arquitetura de software, baseada em Computação em Névoa,

    projetada para prover o gerenciamento dos registros médicos centrado no paciente. Esta
    arquitetura utiliza a tecnologia Blockchain para prover as características de privacidade
    necessárias. Nesta tese também descreve-se um estudo de caso que analisou os requisitos
    de privacidade, condencialidade e interoperabilidade em um cenário de Home Care. Por
    m, o comportamento do desempenho relacionado ao acesso aos dados gerenciadas na
    arquitetura proposta foi analisado no cenário mencionado.


  • Mostrar Abstract
  • The aging of the world's population and the growth in the number of people with ch-
    ronic diseases have increased expenses with medical care. Thus, the use of technological

    solutions, including Internet of Things-based solutions, has been widely adopted in the
    medical eld to improve the patients' health. In this context, approaches based on Cloud

    Computing have been used to store and process the information generated in these soluti-
    ons. However, using Cloud can create delays that are intolerable for medical applications.

    Thus, the Fog Computing paradigm emerged as an alternative to overcome this problem,
    bringing computation and storage closer to the data sources. However, managing medical
    data stored in Fog is still a challenge. Moreover, characteristics of privacy, condentiality,
    and interoperability need to be considered in approaches that aim to explore this problem.
    So, this work denes a Fog Computing-based software architecture designed to provide

    patient-centered management of medical records. This architecture uses Blockchain tech-
    nology to provide the necessary privacy features. This thesis also describes a case study

    that analyzed the requirements of privacy, condentiality, and interoperability in a Home
    Care scenario. Finally, the performance behavior related to access to data managed in the
    proposed architecture was analyzed in the mentioned scenario.

13
  • BARTIRA PARAGUACU FALCAO DANTAS ROCHA
  • Um Modelo Semântico de Dados para Cidades Inteligentes

  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • THAIS VASCONCELOS BATISTA
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • FREDERICO ARAUJO DA SILVA LOPES
  • BERNADETTE FARIAS LÓSCIO
  • ROSSANA MARIA DE CASTRO ANDRADE
  • Data: 27/11/2020

  • Mostrar Resumo
  • Cidades inteligentes envolvem uma miríade de sistemas interconectados, destinados a promover uma melhor gestão dos recursos urbanos e naturais das cidades, contribuindo assim para a melhoria da qualidade de vida dos cidadãos. A heterogeneidade de domínios, sistemas, dados e relacionamentos entre eles requer a definição de um modelo de dados capaz de expressar informações de maneira flexível e extensível, além de promover a interoperabilidade entre sistemas e aplicativos. Além disso, os sistemas de cidades inteligentes podem se beneficiar de informações georreferenciadas para permitir ações mais efetivas no espaço urbano do mundo real. Com o objetivo de enfrentar os desafios relacionados à heterogeneidade dos dados, considerando a informação georreferenciada sobre o território, este trabalho apresenta o LGeoSIM, um modelo de informação semântico para cidades inteligentes como meio de promover a interoperabilidade e possibilitar raciocínio automatizado sobre informações. O LGeoSIM é fundamentado em tecnologias da Web Semântica, em especial ontologias, RDF e Linked Data, que possibilitam a definição de informações semânticas vinculadas, com como consultas sobre tais informações. Sua especificação foi implementada, com suporte da especificação do  NGSI-LD, na Plataforma Smart Geo Layers (Sgeol), uma plataforma de middleware concebida sobre o FIWARE que visa facilitar a integração dados fornecidos por fontes heterogêneas em um ambiente de cidade inteligente, bem como dar suporte ao desenvolvimento de aplicações. 


  • Mostrar Abstract
  • Smart cities involve a myriad of interconnected systems designed to promote better management of urban and natural resources in cities, thus contributing to improving citizens' quality of life. The heterogeneity of domains, systems, data, and relationships between them requires defining a data model that can express information in a  flexible and extensible way, and promote interoperability between systems and applications. In addition, smart city systems can benefit from georeferenced information to enable more effective actions in a real-world urban space. In order to address the challenges related to data heterogeneity, considering georeferenced territory information, this paper presents LGeoSIM, a semantic information model for smart cities as a means of promoting interoperability and enabling automated information thinking. LGeoSIM is based on Semantic Web technologies, especially ontologies, RDF and Linked Data, which enable the definition of linked semantic information, and queries about such information. Its specification was implemented, supported by the NGSI-LD specification, on the Smart Geo Layers Platform (Sgeol), a FIWARE-designed middleware platform that aims to facilitate the integration of data provided by heterogeneous sources into a smart city environment, as well as how to support application development.

14
  • VALDIGLEIS DA SILVA COSTA
  • Autômatos Fuzzy Hesitantes Típicos: Teoria e Aplicações

  • Orientador : BENJAMIN RENE CALLEJAS BEDREGAL
  • MEMBROS DA BANCA :
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • REGIVAN HUGO NUNES SANTIAGO
  • ANDERSON PAIVA CRUZ
  • HELIDA SALLES SANTOS
  • RENATA HAX SANDER REISER
  • Data: 08/12/2020

  • Mostrar Resumo
  • Os autômatos fuzzy são uma generalização dos autômatos finitos, que são capaz de modelar computações considerando níveis de incerteza. Em anos recentes, devido ao amadurecimento das extensões dos conjuntos fuzzy, começa a emergir na literatura diferentes generalizações de autômatos fuzzy, como autômatos fuzzy intervalares, autômatos fuzzy intuicionistas, e etc. Os autômatos fuzzy além de serem a parte fundamental da teoria da computação fuzzy, também apresentam um relativo sucesso em aplicações práticas, principalmente na área de reconhecimento de padrões, viabilizando a modelagem de incertezas. Neste
    trabalho é apresentada uma nova generalização dos autômatos fuzzy baseada nas definições de conjuntos fuzzy hesitantes típicos (que são nomeados de autômatos fuzzy hesitantes típicos). A ideia central por trás dessa generalização consiste em trazer para o domínio da computação a possibilidade de trabalhar simultaneamente com incertezas e com hesitação. Assim esta nova generalização tem por objetivo possibilitar novas formas de se enfrentar problemas que antes não eram facilmente modelados, usando apenas incertezas. Além disso, neste trabalho são mostradas formas de se aplicar esses novos autômatos nas áreas
    de processamento digital de imagens e classificação de dados.


  • Mostrar Abstract
  • As a method of trying to extrapolate the Church’s thesis, using the ideas of the fuzzy sets presented by Zadeh, the fuzzy automaton theory emerges in the late 1960s, as an extension of the finite automata theory, adding the possibility of computing with some level of uncertainty. Over the years, due to the maturation of the extensions of the fuzzy sets, different generalizations of fuzzy automata started to emerge in the literature, such as interval-valued fuzzy automata, intuitionist fuzzy automata, etc. Fuzzy automata, in addition to being the fundamental part of the fuzzy computation theory, also present a relative success in practical applications, mainly in the field of pattern recognition, through uncertainty modeling. This work presents a new generalization of fuzzy automata based on the definitions of typical hesitant fuzzy sets (which we will call typical hesitant fuzzy automata), as well as the motivation for this generalization and for bringing to the domain nof computing the possibility of working with uncertainties and also being able to work with hesitation. Therefore, this new generalization aims to enable new ways to face problems that were not easily modeled before, using only uncertainties. Besides, we will show ways to apply this new type of automata in the fields of digital image processing and data classification.

2019
Dissertações
1
  • LEANDRO DIAS BESERRA
  • CrashAwareDev:Apoiando o Desenvolvimento a partir da Mineração e Análise de Crash Reports

     
  • Orientador : ROBERTA DE SOUZA COELHO
  • MEMBROS DA BANCA :
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • ROBERTA DE SOUZA COELHO
  • RODRIGO BONIFACIO DE ALMEIDA
  • UIRA KULESZA
  • Data: 31/01/2019

  • Mostrar Resumo
  • Ao longo dos anos, organizações têm dedicado boa parte do tempo de desenvolvimento de software na correção de bugs. Esta é uma das razões que têm motivado a utilização de ferramentas de crash reports com objetivo de armazenar informações de falhas que ocorreram no sistema para facilitar a localização e  correção dos defeitos que ocasionaram as falhas. Contudo, podemos pensar em uma outra utilidade para tais ferramentas. As informações armazenadas ao longo do tempo poderiam ser utilizadas para prevenir que desenvolvedores cometam falhas semelhantes àquelas ocorridas no passado. Neste estudo iremos propor uma forma de transformar estas informações em conhecimentos e que sejam levados ao desenvolvedor durante a codificação do sistema. Faremos uma análise de um relatório de falhas de um sistema web real, onde serão coletados padrões de bugs (bug patterns) específicos do sistema. A partir dos dados obtidos na análise, uma ferramenta, integrada ao ambiente de desenvolvimento Eclipse, foi proposta para alertar desenvolvedores sobre trechos de código com potencial para gerar falhas. Além disso, o aplicativo será capaz de minerar stack traces de falhas ocorridas, identificar funções do sistema com grande reincidência de falhas e fornecer esta informação na IDE Eclipse, com intenção de destacar funções críticas do sistema. 


  • Mostrar Abstract
  • Currently,  several organizations have devoted much of the software development time for bug fixing. This is one of the reasons why crash reports are becoming more and more popular - since it is a way to centralize information received due to failures. However, we can think of another utility for such tools. The information stored over time could be used to prevent developers from making similar mistakes (bugs) to those they performed in the past. In this study we propose a way to transform this information into a set of tips to be presented to the developer while s/he is coding. We propose such tips to be included on Eclipse development environment, in the form of an Eclipse plug-in which alerts developers about code fragments with potential to cause failures. In addition, the application will be able to mine stack traces of failures occurring, identifying system methods with large recurrence of failures and provide this information in the Eclipse IDE. We plan to conduct a case study in a real development context to evaluate the proposed tool.

2
  • VALMIRO RIBEIRO DA SILVA
  • An investigation of biometric-based user predictability in the online game League of Legends

  • Orientador : MARJORY CRISTIANY DA COSTA ABREU
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • MARJORY CRISTIANY DA COSTA ABREU
  • PLACIDO ANTONIO DE SOUZA NETO
  • Data: 07/02/2019

  • Mostrar Resumo
  • Computer games has been consolidated as a favourite activity in the last years. Although such games were created to promote
    competition and promote self-improvement, there are some recurrent issues. One that has received the least amount of attention so far is the problem of "account sharing" which is when a player shares his/her account with more experienced players in order to progress in the game. The companies running those games tend to punish this behaviour, but this specific case is hard to identify. Since, the popularity of machine learning has never been higher, the aim of this study is to better understand how biometric data from online games behaves, to understand how the choice of character impacts a player and how different algorithms perform when we vary how frequently a sample is collected. The experiments showed through the use of statistic tests how consistent a player can be even when he/she changes characters or roles, what are the impacts of more training samples, how the tested
    machine learning algorithms are affected by how often we collect our samples, and how dimensionality reduction techniques, such as Principal Component Analysis affect our data, all providing more information about how this state of art game database works.


  • Mostrar Abstract
  • Computer games has been consolidated as a favourite activity in the last years. Although such games were created to promote
    competition and promote self-improvement, there are some recurrent issues. One that has received the least amount of attention so far is the problem of "account sharing" which is when a player shares his/her account with more experienced players in order to progress in the game. The companies running those games tend to punish this behaviour, but this specific case is hard to identify. Since, the popularity of machine learning has never been higher, the aim of this study is to better understand how biometric data from online games behaves, to understand how the choice of character impacts a player and how different algorithms perform when we vary how frequently a sample is collected. The experiments showed through the use of statistic tests how consistent a player can be even when he/she changes characters or roles, what are the impacts of more training samples, how the tested
    machine learning algorithms are affected by how often we collect our samples, and how dimensionality reduction techniques, such as Principal Component Analysis affect our data, all providing more information about how this state of art game database works.

3
  • LUANA TALITA MATEUS DE SOUZA
  • Documentação de requisitos e compartilhamento do conhecimento: Uma proposta a partir de um estudo etnográfico

  • Orientador : MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • MEMBROS DA BANCA :
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • LYRENE FERNANDES DA SILVA
  • APUENA VIEIRA GOMES
  • RICARDO ARGENTON RAMOS
  • Data: 26/04/2019

  • Mostrar Resumo
  • Este trabalho apresenta um estudo etnográfico realizado sobre a rotina de duas equipes de analistas de requisitos em uma fábrica de software. O objetivo é identificar os desafios na produção e manutenção da documentação para seus diversos públicos-alvo e propor práticas que melhorem a efetividade do compartilhamento e utilização das informações levantadas e documentadas. Foi desenvolvido uma adaptação de um processo etnográfico composta das etapas de: observação das equipes, entrevistas (com analistas de requisitos, líderes de equipes e direção de sistemas) e análise de material. Ao final deste processo, os resultados coletados são interpretados numa etapa chamada de triangulação - que estrutura e combina os eventos observados. Os desafios identificados foram agrupados em três grandes categorias: compartilhamento de conhecimento, documentação e metodologias ágeis. Após o levantamento desses desafios, dois surveys foram aplicados nos públicos-alvo da documentação para entender suas necessidades informacionais.  O conhecimento dos desafios e as práticas indicadas permitirão obter: ganhos de produtividade, redução do custo de comunicação entre membros das equipes, redução do custo de planejamento das sprints, redução da dependência presencial do analista de requisitos e uma documentação efetiva. Como contribuição deste trabalho são o próprio processo etnográfico - constituído especificamente para esta pesquisa - e os benefícios no uso das práticas sugeridas.


  • Mostrar Abstract
  • This paper presents an ethnographic study on the routine of two teams of requirements analysts in a software factory. The objective is to identify the challenges in producing and maintaining documentation for its various target audiences and to propose practices that improve the effectiveness of the sharing and use of the information collected and documented. It was developed an adaptation of an ethnographic process composed of the phases of: observation of the teams, interviews (with requirements analysts, team leaders and systems management) and material analysis. At the end of this process, the results collected are interpreted in a stage called triangulation - which structures and combines the observed events. The challenges identified were grouped into three broad categories: knowledge sharing, documentation and agile methodologies. After surveying these challenges, two surveys were applied to documentation audiences to understand their informational needs. Knowledge of the challenges and practices indicated will allow for: productivity gains, reduced communication costs among team members, reduced cost of sprint planning, reduction of in-person dependency of requirements analyst, and effective documentation. As contribution of this work are the own ethnographic process - constituted specifically for this research - and the benefits in the use of the suggested practices.

4
  • FÁBIO FREIRE DA SILVA JÚNIOR
  • Um por todos e todos por um: um estudo exploratório sobre os aspectos que facilitam a colaboração em game jams

  • Orientador : FERNANDO MARQUES FIGUEIRA FILHO
  • MEMBROS DA BANCA :
  • FERNANDO MARQUES FIGUEIRA FILHO
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • UIRA KULESZA
  • NAZARENO ANDRADE
  • Data: 29/04/2019

  • Mostrar Resumo
  • Game jams são eventos onde pessoas formam equipes com o intuito de desenvolver protótipos funcionais de jogos de forma colaborativa e sob restrição temática e de tempo. Embora tais eventos tenham crescido em popularidade, ainda existem poucas evidências na literatura sobre como ocorre a colaboração nesse tipo de evento, e principalmente, quais são os fatores que facilitam essa colaboração. Sendo assim, este estudo visa entender quais são os aspectos facilitadores da colaboração no processo de desenvolvimento de jogos em jams. Foram realizados dois estudos durante a Global Game Jam 2018 e 2019. Os resultados do estudo descrevem as principais estratégias durante o evento a fim de facilitar a colaboração para produção dos protótipos, principalmente naquelas que permitem pessoas inexperientes desenvolver algo em 48 horas. Além disso, mentores e jammers experientes foram encontrados como os principais coordenadores nesse processo, atuando como mediadores na colaboração dentro e fora das equipes. Este trabalho ainda contribui por compreender e caracterizar o funcionamento do trabalho colaborativo em jams, e a partir de evidências coletadas e validadas com especialistas, sugere um catálogo de práticas que suportam a mediação da colaboração e interação entre equipes nesse tipo de evento. Tais técnicas poderão ser usadas em contextos similares, a fim de, facilitar a colaboração entre equipes.


  • Mostrar Abstract
  • Game jams are events where people form teams with the purpose of developing functional game prototypes in a collaborative way and under thematic and time constraints. Although such events have grown in popularity, there is still little evidence in the scientific literature on how collaboration occurs in this type of event, and especially, what are the factors that facilitate such collaboration. This study aims to understand how facilitating aspects support collaboration in game development through jams. To this aim, a study was conducted during the Global Game Jam 2018 and 2019. Our findings describe the main practices during the event and what strategies are used by teams in order to facilitate the collaboration. In addition, mentors and experienced jammers are recognized as the main coordinators of these tasks, acting as mediators between those teams. This work also contributes to understanding and characterizing the collaborative work in jams. With collected and validated evidence from experts, we suggest a catalog of practices that support the interaction between teams in this type of event. These techniques may be applied in similar contexts to facilitate collaboration between teams.

5
  • YGOR ALCÂNTARA DE MEDEIROS
  • Caixeiro Viajante com Coleta de Prêmios e Passageiros

  • Orientador : MARCO CESAR GOLDBARG
  • MEMBROS DA BANCA :
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MARCO CESAR GOLDBARG
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • THATIANA CUNHA NAVARRO DE SOUZA
  • Data: 01/07/2019

  • Mostrar Resumo
  • O Problema do Caixeiro Viajante com Coleta de Prêmios e Passageiros é um modelo que mescla elementos do clássico PCVCP, com características dos problemas de ridesharing. Os custos do trajeto do motorista são reduzidos através do rateio de despesas em virtude do compartilhamento de assentos no veículo usado na tarefa de coleta de prêmios. As tarefas na rota são selecionadas segundo o modelo de roteamento com coleta de prêmios, portanto considerando-se penalidades pelo eventual não atendimento de tarefas existentes e, adicionalmente, determinando o cumprimento de uma demanda mínima de tarefas. A demanda do transporte colaborativo é protegida por restrições que garantem aos passageiros seu transporte até o destino. Igualmente, os custos de rateio serão menores ou iguais aos limites de tarifa estabelecidos pelos passageiros. O presente trabalho apresenta a formulação matemática para o problema, valida o modelo em um processo de solução exata e examina o desempenho de dois algoritmos que executam passos de construção com critérios exatos e seis com critérios heurísticos. Os algoritmos construtivos com passos exatos visam principalmente criar resultados de ancoragem para a avalição do desempenho dos algoritmos com decisões heurísticas. São também propostos três grupos de instâncias de teste para o problema visando permitir futuras experimentações de novos algoritmos. Por fim, conclui-se que os algoritmos de passos heurísticos alcançam desempenho promissor para o problema examinado.


  • Mostrar Abstract
  • The Prize Collect Traveling Salesman Problem with Ridesharing is a model that merge elements of the classic problem PCTSP with ridesharing. The costs of the driver journey are reduced through the apportionment of expenses due to the sharing of accents in the vehicle used in the task of collecting prizes. The tasks in the route are selected according to the routing model with collection of prizes, therefore considering penalties for the non-attendance of existing task and additionally determining the fulfillment of a minimum demand of tasks. The demand for collaborative transport is protected by restrictions that ensure passengers are transported to their destination. Likewise, the apportionment costs will be less than or equal to the tariff limits established by the passengers. The present work presents the mathematical formulation for the problem, validates the model in an exact solution process and examines the performance of two algorithms that execute construction steps with exact criteria and six with heuristic criteria. Accurate step-by-step algorithms aim to create anchoring results to evaluate algorithm performance with heuristic decisions. Three instance groups are also proposed for the problem in order to allow future experimentation of new algorithms. Finally, it is concluded that the algorithms of heuristic steps achieve promising performance for the problem examined.

6
  • HIAGO MAYK GOMES DE ARAÚJO ROCHA
  • Problema de Mapeamento e Roteamento: Propostas de Otimização Bioinspiradas Híbridas 

  • Orientador : MONICA MAGALHAES PEREIRA
  • MEMBROS DA BANCA :
  • ANTONIO CARLOS SCHNEIDER BECK FILHO
  • MARCIO EDUARDO KREUTZ
  • MONICA MAGALHAES PEREIRA
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • Data: 19/07/2019

  • Mostrar Resumo
  • O avanço na tecnologia de fabricação de circuitos integrados, possibilitado pela diminuição no tamanho dos transistores, permitiu a criação de sistemas complexos multiprocessados dentro de um único chip, chamados de Sistemas em Chip Multiprocessados (MPSoC - Multiprocessor System on Chip).  Para permitir a comunicação entre os diversos núcleos do MPSoC, um dos principais modelos de comunicação utilizado na atualidade é a Rede em Chip (NoC - Network on Chip) que apresenta maior escalabilidade do que a solução tradicional de barramentos. Apesar do potencial ganho de desempenho do MPSoCs através do paralelismo de tarefas, para se obter um real ganho de desempenho é necessário um eficiente gerenciamento dos recursos disponíveis no sistema, como núcleos de processamento e canais de comunicação. Esse gerenciamento está relacionado, dentre outros aspectos, à forma como as tarefas das aplicações são mapeadas nos núcleos do MPSoC e quais canais da NoC são usados nas rotas de comunicação entre as tarefas. Na literatura, esses aspectos são geralmente tratados individualmente, porém eles possuem forte relação. Partindo deste princípio, neste trabalho é apresentada uma formulação matemática do problema denominado de Problema de Mapeamento e Roteamento (PMR) o qual é uma proposta de junção entre eles. Além disso, visando encontrar soluções de mapeamento otimizadas, este trabalho apresenta três propostas de estratégia de mapeamento estático e uma dinâmica. No contexto de mapeamento estático, são apresentadas estratégias bioinspiradas híbridas de otimização (Genético, Memético e Transgenético). Essas estratégias apresentam abordagens gerais para encontrar soluções de mapeamento e dentro dessas abordagens é usada uma avaliação de fitness exato de roteamento baseado no modelo proposto para o PMR. No contexto de mapeamento dinâmico, é proposto um algoritmo que usa os operadores apresentados no Transgenético para prover alocação de tarefas por demanda em tempo de execução. Os algoritmos foram implementados e seus resultados foram simulados em uma ferramenta de NoC. Além disso, também foram implementados três algoritmos da literatura para fins de comparação com as propostas apresentadas. Os resultados demonstram que as propostas que conseguem capturar mais profundamente as características da arquitetura são mais eficientes.  Em específico, o Transgenético apresenta melhores resultados de latência e de energia. Além disso, foi possível utilizar aspectos do transgenético para propor uma solução dinâmica que possa ser utilizada quando a aplicação não for conhecida antes de sua execução.


  • Mostrar Abstract
  • The advances of integrated circuit fabrication technology, allowed by the reduction of transistors size, make possible the creation of multiprocessed complex systems inside a single chip, named Multiprocessors System of Chip (MPSoC). To allow communication among the different cores, one of the main communication model used currently is the Network on Chip (NoC) which shows more scalability than traditional bus solution.  In spite of the expected potential performance improvement due to task parallelism, to achieve a real performance improvement it is necessary an efficient available resource management in the system, such as processing cores and communication links. This management is related, among other aspects, to how tasks are mapped in the MPSoC cores and which NoC channels are used to provide communication routes for tasks. In the literature, these aspects are handled individually, even though, they are highly correlated. Based on this principle, in this work, it is presented a mathematical formulation of the Mapping and Routing Problem (PMR) that combines both problems. Additionally, in order to find optimized mapping solutions, this work presents three proposals of static mapping and one of the dynamic mapping.In the static mapping context, it is presented bioinspired hybrid optimization strategies (Genetic, Memetic and Transgenetic). These strategies present a general approach to find mapping solution and internally, it is used an exact routing fitness function evaluation based on the proposed model.In the dynamic mapping context, it is proposed an algorithm that uses the Transgenetic operator to provide the task allocation by demand at run time. The algorithms were implemented and its results were simulated using a NoC simulation tool. In order to compare to state of art, three algorithms from literature were also implemented and simulated. The results show that approaches able to capture more deeply the features of the architecture are more efficient. More specifically, the Transgenetic algorithm presents the best results for latency and energy. Furthermore, it was possible to use the Transgenetic aspects to propose a dynamic solution that can be used when the system does not know the application behavior.

7
  • SIDEMAR FIDELES CEZARIO
  • Aplicação do Operador OWA nos Problemas da Otimização de Ângulo de Feixe e da Intensidade em
    IMRT

  • Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MEMBROS DA BANCA :
  • THALITA MONTEIRO OBAL
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MARCO CESAR GOLDBARG
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • Data: 23/07/2019

  • Mostrar Resumo
  • A radioterapia é um método extremamente importante no tratamento do câncer. O
    principal desafio é entregar pelo menos a dose prescrita para o tumor, enquanto evita expor
    os órgãos saudáveis à radiação além do permitido. Um dos principais modos de tratamento
    nesta área é a teleterapia de intensidade modulada (IMRT). Ao longo dos anos, muitos
    pesquisadores apresentaram algoritmos para resolver a principal difculdade da IMRT
    que consiste em automatizar a seleção de ângulos de feixes para uma melhor distribuição de
    dose. Nesta pesquisa é apresentado um algoritmo que busca o balanceamento ideal, entre
    um conjunto de ângulos e uma distribuição de dose que respeite as prescrições médicas
    inerentes ao tratamento. O algoritmo proposto utiliza dois novos modelos matemáticos e o
    operador
    Ordered Weighted Average (OWA) como critério de preferência na escolha da melhor
    solução.


  • Mostrar Abstract
  • Radiation therapy is an extremely important method for cancer treatment. The main challenge is to deliver, at least, the prescribed dose to the tumor, while avoiding to expose healthy organs to radiation beyond defined limits. The intensity modulated teletherapy (IMRT) is an advanced mode of high-precision radiotherapy. Over the years, many researchers have presented algorithms to solve the main difficulty of IMRT treatments, which consists in automating the selection of beam angles for an adequate dose distribution. This research presents an algorithm that seeks the ideal balance between a set of angles and a dose distribution that respects medical prescriptions inherent to the treatment. The proposed algorithm uses two new mathematical models and the Ordered Weighted Average (OWA) operator as a criterion of preference to choose the best solution.

8
  • THIAGO SOARES MARQUES
  • Otimização Multiobjetivo dos Problemas de Ângulos de Feixe e Mapa de Fluência para Tratamentos Radioterápicos IMRT

  • Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MEMBROS DA BANCA :
  • ELIZABETH FERREIRA GOUVEA GOLDBARG
  • MARCO CESAR GOLDBARG
  • SILVIA MARIA DINIZ MONTEIRO MAIA
  • THALITA MONTEIRO OBAL
  • Data: 23/07/2019

  • Mostrar Resumo
  • A configuração do conjunto de ângulos de feixes (BAO) e a distribuição da dose de radiação (FMO) ao longo de um tratamento de radioterapia para pacientes com câncer são dois problemas de otimização que devem ser resolvidos na etapa de planejamento do tratamento. Um dos modos de radioterapia é conhecido por IMRT (Intensity Modulated Radiation Therapy). Este modo consiste no uso de aceleradores lineares controlados por computador para entregar doses precisas de radiação ao tumor e, ao mesmo tempo, prevenir, tanto quanto possível, que tecidos saudáveis que estão ao redor do tumor recebam radiação. Este trabalho apresenta modelos de programação linear e quadráticos para o problema FMO e algoritmos mono e multiobjetivo para o problema BAO. Este estudo também relata os resultados de experimentos computacionais realizados em um conjunto de casos reais.


  • Mostrar Abstract
  • The Beam Angle Optimization (BAO) and the Fluency Map Optimization (FMO) are two problems that arise from the planning of radiation therapy for cancer treatments. One of the main modes of radiation therapy is the IMRT (Intensity Modulated Radiation Therapy) which consists in using computer-controlled linear accelerators to deliver precise radiation doses to the tumor. The IMRT aims at finding a balance between exposing the region of the tumor and, at the same time, preventing, as much as possible, healthy tissues that surround the tumor to receive radiation. This study presents linear and quadratic programming models  for the FMO and  single and multiobjective algorithms that use those models for the BAO problem.  This study also reports the results of computational experiments on a set of real instances.

9
  • YSTALLONNE CARLOS DA SILVA ALVES
  • Aplicação de Computação Quântica em Superresolução de Imagens de Vigilância

  • Orientador : BRUNO MOTTA DE CARVALHO
  • MEMBROS DA BANCA :
  • ARAKEN DE MEDEIROS SANTOS
  • BRUNO MOTTA DE CARVALHO
  • MARJORY CRISTIANY DA COSTA ABREU
  • Data: 31/07/2019

  • Mostrar Resumo
  • Super-Resolução (SR) é uma técnica exaustivamente explorada e incorpora possibilidades
    estratégicas ao processamento de imagens. À medida que os computadores quânticos
    gradualmente evoluem e fornecem provas incondicionais de uma vantagem computacional
    na solução de problemas intratáveis com relação aos homólogos clássicos, a computação
    quântica emerge com o argumento convincente de oferecer aceleração exponencial para
    processar operações computacionalmente dispendiosas. Vislumbrando o design de algo-
    ritmos paralelos, quantum-ready, para dispositivos ruidosos de curto prazo e iniciando
    com a Super-Resolução Rápida e Acurada de Imagem (Rapid and Accurate Image Super
    Resolution – RAISR), uma implementação aplicando computação quântica variacional
    é demonstrada para aprimorar imagens de vigilância degradadas. Este estudo propõe
    uma abordagem que combina os benefícios de RAISR, um método não alucinante e
    computacionalmente eficiente, e o Eigensolver Variacional Quântico (Variational Quantum
    Eigensolver – VQE), um algoritmo híbrido clássico-quântico, para conduzir SR com o
    suporte de um computador quântico, preservando o desempenho quantitativo em termos
    de Avaliação da Qualidade de Imagem (Image Quality Assessment – IQA). Ele abrange a
    geração de filtros adicionais baseados em hash, aprendidos com a implementação clássica
    da técnica de SR, para explorar mais melhorias de desempenho, produzir imagens que
    são significativamente mais nítidas e induzir o aprendizado de filtros de upscaling mais
    poderosos com efeitos de aprimoramento integrados. Como resultado, amplia o potencial
    de aplicação de RAISR para melhorar os ativos de baixa qualidade gerados por câmeras
    de baixo custo, bem como promove a eventual implementação de métodos robustos de
    aprimoramento de imagens impulsionados através do uso de computação quântica.


  • Mostrar Abstract
  • Super-Resolution (SR) is a technique that has been exhaustively exploited and incorporates
    strategic possibilities to image processing. As quantum computers gradually evolve
    and provide unconditional proof of a computational advantage at solving intractable
    problems over their classical counterparts, quantum computing emerges with the compelling
    argument of offering exponential speed-up to process computationally expensive operations.
    Envisioning the design of parallel, quantum-ready algorithms for near-term noisy devices
    and igniting Rapid and Accurate Image Super Resolution (RAISR), an implementation
    applying variational quantum computation is demonstrated for enhancing degraded
    surveillance imagery. This study proposes an approach that combines the benefits of
    RAISR, a non hallucinating and computationally efficient method, and Variational
    Quantum Eigensolver (VQE), a hybrid classical-quantum algorithm, to conduct SR with
    the support of a quantum computer, while preserving quantitative performance in terms
    of Image Quality Assessment (IQA). It covers the generation of additional hash-based
    filters learned with the classical implementation of the SR technique, in order to further
    explore performance improvements, produce images that are significantly sharper, and
    induce the learning of more powerful upscaling filters with integrated enhancement effects.
    As a result, it extends the potential of applying RAISR to improve low quality assets
    generated by low cost cameras, as well as fosters the eventual implementation of robust
    image enhancement methods powered by the use of quantum computation.

10
  • ALISSON PATRICK MEDEIROS DE LIMA
  • Uma Abordagem para Controle de Elasticidade Dinâmica Voltada a Sistemas Cloud-Network definidos por Slices
  • Orientador : AUGUSTO JOSE VENANCIO NETO
  • MEMBROS DA BANCA :
  • AUGUSTO JOSE VENANCIO NETO
  • LILIANE RIBEIRO DA SILVA
  • NELIO ALESSANDRO AZEVEDO CACHO
  • RAFAEL PASQUINI
  • SILVIO COSTA SAMPAIO
  • Data: 31/07/2019

  • Mostrar Resumo
  • O projeto de mecanismos de controle de elasticidade eficientes que visam alocação dinâmica de recursos é crucial para aumentar a eficiência de sistemas definidos por cloud-network slices. Os mecanismos de controle de elasticidade atuais propostos para ambientes de nuvem ou fatia de rede consideram apenas recursos de nuvem ou de rede, e seguem um modelo estocástico para orquestrá-los. Sistemas cloud-network definidos por slices obterão ganhos substanciais desses mecanismos somente se considerarem recursos de nuvem e de rede de maneira integrada. Além disso, eles devem permitir uma orquestração rápida dos respectivos recursos, porém preservando o desempenho e o isolamento dos slices como um todo. Neste trabalho, propomos uma abordagem voltada ao controle dinâmico de elasticidades de fatias cloud-network. Um protótipo foi elaborado, e seus resultados preliminares sugerem que a abordagem se apresenta como uma solução viável para fornecer elasticidade em ambientes definidos por cloud-network slices.


  • Mostrar Abstract
  • The design of efficient elasticity control mechanisms for dynamic resource allocation is crucial to increase the efficiency of future cloud-network sliced networks. Current elasticity control mechanisms proposed for cloud or network-slice environments only consider cloud or network resources. Cloud-network sliced networks will obtain substantial gains from these mechanisms only if they consider both cloud and network resources in an integrated fashion. Moreover, they must enable a fast enough orchestration of these resources but preserving the performance and isolation of the cloud-network slices. In this work, we propose a elasticity control approach to dynamically control and manage the orchestration of resources in cloud-network slice-defined systems. A prototype was developed, and its preliminary results suggest that the proposing approach is a viable solution to provide elasticity in environments defined by cloud-network slices.

11
  • SEBASTIÃO RICARDO COSTA RODRIGUES
  • Um framework para integração de plataformas de aprendizado de programação e computação desplugada

  • Orientador : EDUARDO HENRIQUE DA SILVA ARANHA
  • MEMBROS DA BANCA :
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • ROBERTO ALMEIDA BITTENCOURT
  • Data: 31/07/2019

  • Mostrar Resumo
  • O mundo contemporâneo tem exigido indivíduos cada vez mais capacitados quanto ao uso das tecnologias digitais, independentemente da área de atuação. As habilidades do Pensamento Computacional (PC) representam um diferencial a quem as possui. Percebendo essa importância, vários países desenvolvidos têm implementado estratégias para o desenvolvimento de tais habilidades o mais cedo possível, ainda na educação de nível fundamental, através de propostas de reformulação de seus currículos educacionais. Ensinar a programar, que é uma das habilidades do PC mais ligadas à computação, é um desafio que tem despertado o interesse da comunidade científica mundo à fora. Várias abordagens de ensino de programação, como os jogos digitais, paradigmas de programação (visual baseada em blocos), plataformas gamificadas, robótica, entre outras, têm sido propostas. No Brasil, principalmente na rede pública de ensino, onde há diversos problemas de infraestrutura tecnológica, como a falta de computadores, laboratórios e Internet, há dificuldades em realizar intervenções voltadas ao aprendizado de programação. A proposta deste trabalho é apresentar um framework que possibilite a integração de objetos tangíveis à plataformas de ensino de programação existentes através de técnicas de Visão Computacional e abordagens baseadas em Computação Desplugada.


  • Mostrar Abstract
  • The world in today has required more and more individuals who are capable about the use of technology regardless of the area of activity. Programming teaching has been a recurring research target in the scientific community. Several programming teaching approaches like digital games, programming paradigms (visual block-based), platforms of gamification, robotics, among others has been proposed. In Brazil, mainly in the public school system, where there are several problems of technological infrastructure, such as lack of computers, laboratories and internet, turns on hard make interventions towards teaching programming. This work aims to present a framework that allows the integration of tangible objects to existing programming teaching platforms through Computer Vision techniques and approaches based on Computer Science Unplugged (CS Unplugged). For that, studies were carried out that looked for evidence that could provide answers to the research questions around the goal of this work. A Systematic Literature Review (SLR), an exploratory and another experimental study were carried out aim prospecting requirements and contextual analysis, implementation of suitable techniques and strategies, and evaluation if the proposed approach fits well in a programming teaching context. The results evidenced the possibility concreteness integration of educational platforms based on block-based visual programming by Computer Vision techniques with CS Unplugged activities and it gives a positive experience in the programming teaching-learning process. It can be concluded that the proposed approach, which aims to promote the integration of tangible objects with programming teaching platforms, presents advantages by providing a useful experience by bringing constructivist activities closer to the virtual resources made available by digital programming platforms.

12
  • César Augusto Perdigão Batista
  • KNoT-FI: Um Ambiente Integrado baseado no FIWARE para Desenvolvimento de Aplicações de Internet das Coisas 

     

  • Orientador : THAIS VASCONCELOS BATISTA
  • MEMBROS DA BANCA :
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • GIBEON SOARES DE AQUINO JUNIOR
  • KIEV SANTOS DA GAMA
  • THAIS VASCONCELOS BATISTA
  • Data: 05/08/2019

  • Mostrar Resumo
  • A Internet das Coisas (IoT) está criando novos serviços e aplicações em vários domínios, incluindo redes elétricas inteligentes, transporte inteligente, assistência médica e residências inteligentes. Como consequência, emerge um complexo ecossistema de aplicações, serviços e dispositivos físicos e virtuais interconectados, caracterizados por um alto grau de heterogeneidade. Por conta disso, plataformas de middleware são consideradas alternativas para mitigar esse problema, as quais são propostas para abstrair as especificidades dos dispositivos, promover a interoperabilidade entre eles e alavancar o desenvolvimento de serviços e aplicações. Nesse contexto, a KNoT e a FIWARE são exemplos de plataformas de código aberto com um propósito complementar. Enquanto a KNoT é um middleware baseado em gateway para incorporar conectividade a dispositivos e encaminhar mensagens entre eles e aplicativos, a FIWARE fornece um ecossistema rico com APIs padronizadas para o desenvolvimento de aplicações de IoT. Com o objetivo de combinar a capacidade da KNoT de integrar uma infinidade de dispositivos com as abstrações de alto nível fornecidas pela plataforma FIWARE, este trabalho apresenta o ambiente KNoT-FI. Desta forma, a integração entre a KNoT e a FIWARE concretiza-se no sentido de facilitar o desenvolvimento de aplicações de IoT e utilizar, continuamente, capacidades de dispositivos com ou sem conexão nativa à Internet através das interfaces avançadas da FIWARE. Esse trabalho também apresenta a validação do ambiente através de uma aplicação real que gerencia iluminação, temperatura e som ambiente. Por fim, foi realizada uma avaliação quantitativa, por meio de experimentos computacionais, com o objetivo de mensurar o tamanho do overhead causado pela integração entre as plataformas FIWARE e KNoT.


  • Mostrar Abstract
  • With the rising popularity of IoT, several platforms have been proposed for supporting the development of IoT applications. KNoT and FIWARE are examples of open-source platforms with a complementary purpose. While KNoT is a gateway-based middleware to embed connectivity into devices and route messages between them and applications, FIWARE provides a rich ecosystem with standardized APIs for developing IoT applications. Aiming at combining the KNoT capability of integrating a plethora of devices with the high-level abstractions provided by the FIWARE platform, this work presents the KNoT-FI environment. It integrates KNoT and FIWARE towards easing the development of IoT applications and seamlessly using capabilities of devices with or without native Internet connection through the FIWARE advanced interfaces. This work also presents a validation of KNoT-FI in the development of a real-world application that automatically manages lighting, temperature, and ambient sound in smart buildings.

13
  • EDUARDO HENRIQUE ROCHA DO NASCIMENTO
  • Aplicando Gamificação no Ensino de Teste de Software

  • Orientador : ROBERTA DE SOUZA COELHO
  • MEMBROS DA BANCA :
  • ROBERTA DE SOUZA COELHO
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • ANDRE MAURICIO CUNHA CAMPOS
  • CHARLES ANDRYE GALVAO MADEIRA
  • AYLA DÉBORA DANTAS DE SOUZA REBOUÇAS
  • Data: 06/08/2019

  • Mostrar Resumo
  • Teste de Software é uma importante subárea da Engenharia de Software, cuja responsabi-
    lidade é garantir a qualidade do produto de software por meio de suas técnicas e práticas.

    As atividades de teste se fazem presente em todo o processo de construção do software,

    desde a especicação do software, transitando pelo desenvolvimento, até a sua implemen-
    tação. Mesmo tendo um vital envolvimento no processo de desenvolvimento do software,

    o Teste de Software tem suas técnicas subutilizadas por empresas, onde tal negligencia-
    mento impacta diretamente na qualidade do produto. Alguns dos motivos apontados pela

    literatura para este fato é que as atividades de teste são tidas como custosas, difíceis e até
    mesmo tediosas. Este problema é evidenciado tanto na indústria quanto na academia, no
    qual existe uma certa correlação, onde alguns problemas são originados na academia e se
    estendem até a indústria. Como alternativa para lidar com problemáticas desta natureza
    existe a gamicação, que trata-se do uso de elementos de jogos em contextos que não

    sejam um jogo, objetivando aumentar o engajamento e motivação das pessoas envolvi-
    das naquele contexto. Estudos recentes tem mostrado a crescente adoção de estratégias

    gamicadas no ensino de Teste de Software para tratar problemas relacionados à desmo-
    tivação de alunos. Dado este contexto, o presente trabalho tem como objetivo utilizar

    da gamicação, unida à conceitos de Teste de Software, no atendimento da desmotivação
    de estudantes inerente à realização de atividades especícas de teste de software. Para

    alcançar esse objetivo, foram realizados uma pesquisa exploratória em busca de metodo-
    logias de gamicação e o um mapeamento sistemático da literatura que reuniu trabalho

    acerca do uso da gamicação e jogos em Teste de Software. A metodologia de gamicação
    escolhida foi a Level Up, que descreve um processo iterativo e sistemático para concepção

    de abordagens gamicadas voltadas para a educação. Esta metodologia provê um con-
    junto de etapas que compreende a ideação, experimentação e evolução da abordagem.

    A avaliação da abordagem gamicada proposta foi realizada na etapa de experimenta-
    ção, onde dois grupos de alunos participaram de duas atividades, uma não gamicada

    e outra gamicada, e foram submetidos a um questionário que buscou coletar aspectos
    relacionados à satisfação dos alunos e aceitação da abordagem gamicada. As informações
    oriundas das respostas do questionário e das obervações realizadas durante a aplicação da
    atividade serão utilizadas para ajustar a abordagem proposta na etapa de evolução, que
    ainda não foi executada. Os resultados da avaliação mostraram que a abordagem gami-
    cada teve impacto sobre os estudantes, onde foi possível identicar aspectos relacionados
    à interação dos alunos e algumas inconsistências da abordagem proposta que precisarão
    ser readaptadas ou removidas.


  • Mostrar Abstract
  • Software Testing is an essential subarea of Software Engineering, in which the responsibi-
    lity is to make sure the software quality through its techniques and practices. The testing

    activities are present in the entire process of software construction, from the software
    specication, going by development, until the implementation. Even have been a vital

    involvement in the development software process, Software Testing has its techniques un-
    derused by software companies, where the negligence has a direct impact on software

    quality. Some reason pointing out by literature for this fact is the testing activities are
    costly, dicult and tedious. This problem is found in both industry and academy, in which
    there is a correlation, where some problems are born in the academy and extend into the
    industry. As a possible solution to treat this kind of problem there is the gamication,
    that conceptually is the use of game design elements in environments non-game, with the
    purpose of increasing engagement and motivation of people involved in that environment.
    Recent studies have shown the grown adoption of gamied strategies in the Software

    Testing teaching to treat motivational problems of students. Given this context, this re-
    search work intends to use the gamication joined Software Testing topics to deal with

    the lack of motivation of students to make specic testing activities. To achieve this ob-
    jective, were carried out a search in the literature seeking gamication methodologies and

    a systematic mapping study that gathered studies about the application of gamication
    and games in Software Testing area. The gamication methodology chosen was the Level
    Up, that describes an interactive and systematic process to concept gamied approaches
    for educational environments. This methodology provides a set of stages that cover the
    ideate stage, experimentation and evolution of the approach. The evaluation of the gami-
    ed approach proposal was performed in the experimentation stage, where two groups of

    students taking part in two activities, one non-gamied and another gamied, and were
    submitted to answer a qualitative questionnaire about satisfaction and acceptation of the

    gamied approach. The information collected with the questionnaire and the observati-
    ons made during the experimentation will be used to adjust the approach proposed in the

    evolution stage, not yet performed. The results of the evaluation shown that the gamied
    approach did impact in the students, where was possible identify aspects related with
    the interaction of students and some inconsistencies of the approach that will need to be
    readapted or removed.

14
  • ADELSON DIAS DE ARAÚJO JÚNIOR
  • Predspot: Predizendo Hotspots Criminais com Aprendizado de Máquina

  • Orientador : NELIO ALESSANDRO AZEVEDO CACHO
  • MEMBROS DA BANCA :
  • MARJORY CRISTIANY DA COSTA ABREU
  • NELIO ALESSANDRO AZEVEDO CACHO
  • LEONARDO CESAR TEONACIO BEZERRA
  • OURANIA KOUNADI
  • Data: 24/09/2019

  • Mostrar Resumo
  • Cidades mais inteligentes estão amplamente adotando infraestrutura e análise de dados em tomada de decisão de segurança pública. Apesar de que policiamento em manchas criminais tem mostrado benefícios na redução de crimes, estudos anteriores sugerem que a adoção de técnicas preditivas pode ajudar a produzir estimativas mais precisas da concentração de crimes no futuro. Nesse trabalho, propomos um framework genérico para gerar futuros hotspots a partir de descritores espaçotemporais, e também informações geográficas extraídas do OpenStreetMap. Implementamos um pacote em Python chamado predspot para suportar predições de manchas criminais precisas seguindo os passos sugeridos no framework. Para avaliar a abordagem preditiva contra a metodologia tradicionalmente implementada pelo departamento de polícia de Natal, comparamos dois métodos de mapeamento de crime (KGrid e KDE) e dois algoritmos eficientes de aprendizado de máquina (Random Forest e Gradient Boosting) em doze cenários criminais, considerando roubo, violência e crimes de drogas. Os resultados indicam que nossa abordagem preditiva estima manchas criminais de 1,6 a 5,1 vezes melhor do que a metodologia dos analistas. Uma análise de importância do descritores foi extraída dos modelos para explicar o quanto as variáveis selecionadas ajudaram nas previsões e dar origem a discussões a respeito da modelagem aplicada.


  • Mostrar Abstract
  • Smarter cities are largely adopting data infrastructure and analysis to improve decision making for public safety issues. Although traditional hotspot policing methods have shown benefits in reducing crime, previous studies suggest that the adoption of predictive techniques can produce more accurate estimates for future crime concentration. In this work we propose a framework to generate future hotspots using spatiotemporal features and other geographic information from OpenStreetMap. We implemented an open source Python-package called predspot to support efficient hotspots prediction following the steps suggested in the framework. To evaluate the predictive approach against the traditional methodology implemented by Natal’s police department, we compared two crime mapping methods (KGrid and KDE) and two efficient machine learning algorithms (Random Forest and Gradient Boosting) in twelve crime scenarios, considering burglary, violent and drugs crimes. The results indicate that our predictive approach estimate hotspots 1.6-5.1 times better than the analysts baseline. A feature importance analysis were extracted from the models to account with how much the selected variables helped the predictions and to discuss the modelling strategy we conducted.

15
  • DENIS JOSÉ SOUSA DE ALBUQUERQUE

  • Identificação de dificuldades e questões de interesse de desenvolvedores de aplicações para Big Data com o framework Apache Spark

  • Orientador : UMBERTO SOUZA DA COSTA
  • MEMBROS DA BANCA :
  • UMBERTO SOUZA DA COSTA
  • MARTIN ALEJANDRO MUSICANTE
  • MARCUS ALEXANDRE NUNES
  • PLACIDO ANTONIO DE SOUZA NETO
  • Data: 27/09/2019

  • Mostrar Resumo
  • Este trabalho de pesquisa busca identificar e classificar as principais dificuldades e questões de interesse dos desenvolvedores de aplicações para o processamento de Big Data utili- zando o framework Apache Spark. Nesse sentido, utilizamos o algoritmo Latent Dirichlet Allocation para realizar a modelagem probabilística de tópicos em informações extraí- das do Stack Overflow, uma vez que não é viável a inspeção manual de todo o conjunto de dados. A partir do conhecimento obtido pelo estudo abrangente de trabalhos relacionados, estabelecemos e aplicamos uma metodologia baseada nas práticas usualmente empregadas. Construímos aplicações Spark para execução automatizada das tarefas, tais como a seleção e preparação dos dados, o agrupamento de tópicos – aplicação do algoritmo de modelagem probabilista para várias configurações – e a computação de métricas. Análises sobre os resultados obtidos foram conduzidas por um grupo composto por 5 pesquisadores: dois professores doutores, um aluno doutorando e dois alunos mestrandos. A partir da análise semântica dos rótulos atribuídos para cada um dos tópicos identificados, uma taxonomia de interesses e dificuldades foi construída. Por fim, estabelecemos um ranqueamento dos temas mais importantes de acordo com as várias métricas calculadas e comparamos os métodos e resultados de nosso estudo com os apresentados em outro trabalho.


  • Mostrar Abstract
  • This research aims to identify and classify the main difficulties and issues of interest of Apache Spark application developers regarding the framewok usage. For this purpose, we use the Latent Dirichlet Allocation algorithm to perform a probabilistic modeling of topics on information extracted from Stack Overflow, since the manual inspection of the entire dataset is not feasible. From the knowledge obtained by the comprehensive study of related works, we established and applied a methodology based on the practices usually employed. We developed Spark applications for the automated execution os tasks, such as the data selection and preparation, the discovery of topics - applying the probabilistic modeling algorithm with various configurations - and metrics computation. Analyzes of the results were carried by a group of 5 researchers: two doctor professors, one doctoral student and two master students. Based on the semantic analysis of the labels assigned to each of the identified topics, a taxonomy of interests and difficulties was constructed. Finally, we ranked the most important themes according to the various calculated metrics and compared the methods and results of our study with those presented in another work.

16
  • TIAGO HENRIQUE DA SILVA LEITE
  • Projetos de hackathons e game jams continuam ou não? Um estudo sobre a continuidade de projetos desenvolvidos em eventos colaborativos de curta duração

  • Orientador : FERNANDO MARQUES FIGUEIRA FILHO
  • MEMBROS DA BANCA :
  • CLEIDSON RONALD BOTELHO DE SOUZA
  • FERNANDO MARQUES FIGUEIRA FILHO
  • UIRA KULESZA
  • Data: 21/10/2019

  • Mostrar Resumo
  • Eventos de curta duração (Time-bounded collaborative events) tais como os hackathonsgame jams, dentre outros, têm se tornado bastante populares nos últimos anos e vem chamando a atenção da comunidade científica. As pesquisas existentes têm estudado vários aspectos desses eventos, enquanto que o pós-evento, i.e. o que ocorre após a realização desses eventos, tem tido pouca atenção. Além disso, os estudos existentes são muito limitados a eventos da mesma natureza, sejam hackathons cívicos, industriais ou acadêmicos, assim como para os game jams, onde os trabalhos existentes contemplam apenas um tipo desses eventos. Pesquisas sobre os fenômenos que envolvem o pós-evento, numa granularidade mais ampla, ainda são escassas. Neste estudo, abordamos esta lacuna apresentando os resultados de um estudo exploratório, trazendo análises de dois grandes hackathons e um global game jam. Grande parte dos participantes destes eventos expressaram a intenção em continuar com as relações sociais que foram desenvolvidas nos mesmos. Entretanto indicaram que não há planejamento em continuar o desenvolvimento dos projetos desenvolvidos, apesar de haver interesse em trabalhar noutros projetos com a equipe formada no evento. O objetivo principal é validar e aprofundar estes questionamentos, trazendo contribuições sobre os aspectos positivos e negativos da descontinuidade desses projetos e das manutenção dos laços sociais formados durante os eventos.


  • Mostrar Abstract
  • Time-bounded collaborative events, such as hackathons, game jams, among others, have become quite popular in recent years and have been drawing the attention of the scientific community. Existing research has studied various aspects of these events, while the post-event, i.e. what occurs after these events, has received little attention. In addition, existing studies are very limited to events of the same nature, such as civic hackathons, industrial or academic, as well as for game jams, where the existing works contemplate only one type of such events. Research on the phenomena surrounding the post-event, on a wider granularity, is still scarce. In this study, we address this gap by presenting the results of an exploratory study, featuring analyses of two large hackathons and a global game jam. Most participants in these events expressed their intention to continue with the social relations that were developed in them. However, they indicated that there is no planning to continue the development of the projects developed, although there is interest in working on other projects with the team formed at the event. The main objective is to validate and deepen these questions, bringing contributions to the positive and negative aspects of the discontinuity of these projects and the maintenance of the social bonds formed during the events.

17
  • LUIZ RANYER DE ARAÚJO LOPES
  • Implementação do Algoritmo Criptográfico Papílio Versátil na Biblioteca OpenSSL

  • Orientador : BENJAMIN RENE CALLEJAS BEDREGAL
  • MEMBROS DA BANCA :
  • AUGUSTO JOSE VENANCIO NETO
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • ISAAC DE LIMA OLIVEIRA FILHO
  • KARLA DARLENE NEPOMUCENO RAMOS
  • Data: 22/10/2019

  • Mostrar Resumo
  • Em um mundo globalizado e altamente exposto, a informação é um dos bens mais valiosos no mundo. Com o crescente aumento das tecnologias de informações e o grande volume de dispositivos conectados e interligados,internet das coisas (IoT), o que contribui com o crescimento da quantidade de dados transmitidos, os ataques cibernéticos passaram a pertencer ao cotidiano das empresas e das pessoas. Estes ataques podem representar riscos diretos aos usuários. Desta forma, existe uma demanda crescente em manter essas informações livres de riscos e perigos quanto sua integridade, autenticidade e confidencialidade. Neste sentido, a segurança da informação busca a proteção dessas informações implementando políticas de segurança e mecanismos de proteção de dados, que devem contemplar o adequado equilíbrio dos aspectos humanos e técnicos da segurança da informação. Sobre os mecanismos de proteção, a criptografia, um dos mais utilizados para a mantê-los seguros. Esta proteção está diretamente relacionada aos tipos de algoritmos criptográficos, que podem ser utilizados nos mais diversos contextos. Neste caso, aborda-se o uso de algoritmos criptográficos inseridos no processo de comunicação entre cliente/servidor via ferramenta OpenSSL. Com o intuito de investigar o nível de segurança oferecido pelo OpenSSL, este trabalho aborda a integração do algoritmo de criptografia Papílio Versátil ao conjunto de cifras integradas ao próprio OpenSSL. Além disso busca-se mensurar o nível de segurança inerente ao uso do Papílio Versátil, dentro do processo de proteção na transmissão de dados entre cliente e servidor. Através de uma avaliação experimental foi possível validar a implementação realizada. Pode-se observar que as requisições realizadas tiveram um pequeno acréscimo médio em termos de latência, mas esse custo é compensado através da ampliação da segurança na plataforma.


  • Mostrar Abstract
  • In a globalized and highly exposed world, information is one of the most valuable assets in the world. With the increasing increase of information technologies and the large volume of connected and interconnected devices, internet of things (IoT), which contributes to the growing amount of transmitted data, cyber attacks have become part of the daily lives of businesses and people. . These attacks can pose direct risks to users. Thus, there is a growing demand to keep this information free of risks and dangers regarding its integrity, authenticity and confidentiality. In this sense, information security seeks to protect this information by implementing security policies and data protection mechanisms, which must address the appropriate balance of human and technical aspects of information security. About the protection mechanisms, encryption, one of the most used to keep them safe. This protection is directly related to the types of cryptographic algorithms that can be used in the most diverse contexts. In this case, we approach the use of cryptographic algorithms inserted in the process of communication between client / server via OpenSSL tool. In order to investigate the level of security offered by OpenSSL, this paper addresses the integration of the Papillium Versatile encryption algorithm to the set of ciphers integrated with OpenSSL itself. In addition, we seek to measure the level of security inherent in the use of Versatile Papillion, within the process of protection in data transmission between client and server. Through an experimental evaluation it was possible to validate the implementation performed. It can be observed that the requests made had a small average increase in latency, but this cost is offset by the increased security on the platform.


18
  • MICKAEL RANINSON CARNEIRO FIGUEREDO
  • Uma Abordagem de Recomendação Turística Multiusuários baseada em Fotos de Redes Sociais

  • Orientador : NELIO ALESSANDRO AZEVEDO CACHO
  • MEMBROS DA BANCA :
  • NELIO ALESSANDRO AZEVEDO CACHO
  • BRUNO MOTTA DE CARVALHO
  • ANTONIO CARLOS GAY THOME
  • DANIEL SABINO AMORIM DE ARAUJO
  • JOSEFINO CABRAL MELO LIMA
  • Data: 27/11/2019

  • Mostrar Resumo
  • O setor de turismo é uma das atividades econômicas mais relevantes nos dias de hoje. Desta forma, é importante investir em diferentes abordagens para criar uma ótima experiência durante as viagens dos visitantes em um único destino. Em um contexto de textit Smart Cities, a idéia de textit Smart Destination aparece como uma solução para melhorar a experiência do turismo usando tecnologia para apoiar os visitantes na tomada de decisão em um textit Smart City. O estudo proposto cria uma abordagem para apoiar um textit Smart Tourism Destination para criar um melhor planejamento de viagem com base em fotos de mídias sociais. A pesquisa tem como objetivo criar recomendações para um único ou grupo de turistas utilizando técnicas de classificação de imagens e inferência fuzzy para mapear as preferências dos turistas. Através do sistema de inferência fuzzy e usando o conhecimento de especialistas em turismo dentro de um sistema de recomendação, a abordagem proposta é capaz de criar recomendações personalizadas usando atrações de uma textit Smart Destination.


  • Mostrar Abstract
  • The tourism sector is one of the most relevant economic activity in nowdays. In this way, it is important invest in different approaches to create a great experience during visitors trips in one destination. In a context of Smart Cities, the ideia of Smart Destination appears as one solution to improve the tourism experience using techonlogy to support visitors in one Smart City. The proposed study creates an approach to support a Smart Tourism Destination to create a better trip planning based on photos from social medias. The research aims to create recommendation to single or group of tourists using techniques of image classification and fuzzy inference to map tourists preferences. Through the fuzzy inference system and using the tourism experts knowledge inside a recommendation system, the proposed approach is able to create personalized recommendations using attractions from one Smart Destination

19
  • HORTEVAN MARROCOS FRUTUOSO
  • Transdutores Adaptativos Programáveis e sua Aplicação no Desenvolvimento de Agentes de Diálogos

  • Orientador : BENJAMIN RENE CALLEJAS BEDREGAL
  • MEMBROS DA BANCA :
  • ANDERSON PAIVA CRUZ
  • ANNE MAGALY DE PAULA CANUTO
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • CARLOS AUGUSTO PROLO
  • HELIDA SALLES SANTOS
  • Data: 13/12/2019

  • Mostrar Resumo
  • O presente trabalho tem como objetivo apresentar um modelo de agente de diálogo construído a partir do Transdutor Adaptativo Programável, dispositivo baseado em um Autômato Finito Determinístico com tecnologia adaptativa capaz de estender sua própria estrutura de estados e regras de transições, de forma que a linguagem reconhecida pelo transdutor torna-se uma subconjunto limitado da linguagem natural, porém expansível. Este dispositivo então é utilizado para modelar um agente de diálogos capaz de receber sentenças em português e reagir a estas sentenças apresentando um comportamento semanticamente compatível com a sentença passada pelo usuário, respondendo a este conforme as denições registradas na base de conhecimento do agente. Agregando-lhe ainda a capacidade de permitir a expansão desta base de conhecimento a partir das próprias sentenças do usuário, através de uma sintaxe adequada para tal.


  • Mostrar Abstract
  • The present work aims to present a dialog agent model built from the Programmable Adaptive Transducer, a device based on a deterministic nite automaton with adaptive technology capable of extending its own state structure and rules of transitions, so that
    the recognized language by the transducer becomes a limited subset of natural but expandable language. This device is then used to model a dialog agent capable of receiving sentences in Portuguese and reacting to these sentences presenting a behavior semantically compatible with the sentence passed by the user, responding to it according to the denitions registered in the agent's knowledge base. Adding to it the ability to allow the expansion of this knowledge base from the user's own sentences, through an appropriate syntax for such.