Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFRN

2023
Dissertações
1
  • PEDRO HENRIQUE RODRIGUES EMERICK
  • Proposta de uma arquitetura para (pseudo)anonimização multinível de dados em saúde

  • Orientador : ROGER KREUTZ IMMICH
  • MEMBROS DA BANCA :
  • ROGER KREUTZ IMMICH
  • ITAMIR DE MORAIS BARROCA FILHO
  • SILVIO COSTA SAMPAIO
  • PATRÍCIA RAQUEL VIEIRA SOUSA
  • DIEGO LUIZ KREUTZ
  • Data: 27/02/2023

  • Mostrar Resumo
  • Nas últimas décadas, a evolução tecnológica trouxe inúmeros avanços, mas também permitiu a coleta, o processamento e o armazenamento intensivos de dados pessoais. São muitas as evidências, principalmente de revelações sobre as operações e fuga de dados de grandes empresas que têm os dados como seu maior ativo, a exemplo do Facebook, Google, Amazon e Ubber. Diante desta constatação, nota-se um preocupação crescente com a utilização destes dados, evidenciada pela profusão de legislações mundo afora, que visam proteger a privacidade dos indivíduos. As diversas legislações apontam para a necessidade de implementação de processos e técnicas que garantam a privacidade dos dados, dentre as quais está a (pseudo)anonimização dos dados. É neste contexto e buscando contribuir para a proteção da privacidade, que, neste trabalho, é proposta uma arquitetura para a (pseudo)anonimização multinível de dados em saúde. Multinível, pois os dados são pseudonimizados em dois níveis diferentes, um local e um global, garantindo assim que dados de múltiplos provedores de dados possam ser relacionados, ainda que (pseudo)anonimizados. O foco na área da saúde é, por um lado, uma aplicação desafiadora, dada a sensibilidade dos dados.
    A arquitetura proposta neste trabalho foi implementada como uma prova de conceito e avaliada a partir de um conjunto de testes. Os resultados dos testes sugerem que a arquitetura possibilita uma correta anonimização na fonte, uma ligação segura dos dados (pseudo)anonimizados em múltiplas fontes e ainda permite a reidentificação para casos que envolvam a segurança dos indivíduos envolvidos.


  • Mostrar Abstract
  • In recent decades, technological evolution has brought numerous advances allowing intensive collection, processing, and storage of personal data. There is much evidence, mainly revelations, about the operations and data breaches of large companies with data as their most significant asset, such as Facebook, Google, Amazon, and Uber. Due to this finding, there is a growing concern about using these data, evidenced by the profusion of laws worldwide that aim to protect individuals' privacy. The various legislations point to the need to implement processes and techniques that guarantee data privacy, among which is the (pseudo)anonymization of data. It is in this context and seeking to contribute to the protection of privacy that, in this work, an architecture is proposed for the multilevel (pseudo)anonymization of health data. Multilevel, as data is pseudonymized at two levels, one local and one global, thus ensuring that data from multiple providers can be related yet (pseudo)anonymized. The focus on the health area is, on the one hand, a challenging application, given the sensitivity of the data.
    The architecture proposed in this work was implemented as a proof of concept and evaluated from a set of tests. Test results suggest that the architecture enables correct anonymization at the source, secure linking of (pseudo)anonymized data across multiple sources, and even allows reidentification for cases involving the security of the individuals involved.

2
  • DEGEMAR PEREIRA DA SILVA
  • Esquema de autenticação e acordo de chaves para Internet das Coisas utilizando o protocolo MQTT

  • Orientador : ROGER KREUTZ IMMICH
  • MEMBROS DA BANCA :
  • LOURENCO ALVES PEREIRA JUNIOR
  • GUSTAVO GIRAO BARRETO DA SILVA
  • RAMON DOS REIS FONTES
  • ROGER KREUTZ IMMICH
  • SILVIO COSTA SAMPAIO
  • Data: 28/02/2023

  • Mostrar Resumo
  • A Internet das Coisas (IoT) está passando por um grande crescimento, permitindo que mais dispositivos estejam conectados na Internet e assim, levando assim, a um aumento no volume de dados. Esta tecnologia passa por diversos desafios, neste sentido, podemos destacar a segurança da informação. Em ambientes IoT a segurança é essencial para não permitir a entrada de dispositivos mal intencionados na rede, promover comunicação segura e proteção a dados sigilosos. Existem muitos fatores que estão ligados a um bom sistema de segurança, por exemplo, autenticação, criptografia, canal seguro de comunicação e identificação de usuários. Está dissertação apresenta um esquema de autenticação e acordo de chaves para IoT com o objetivo de ser utilizada em conjunto com o protocolo de comunicação MQTT. O esquema proposto foi desenvolvido utilizando um conjunto de técnicas como, porta lógica XOR, criptografia simétrica e funções hash. Além disso, é proposto o uso da técnica de PUF para a identificação única de dispositivos em IoT. O algoritmo foi testado utilizando uma ferramenta de validação formal de protocolos de segurança, o Scyther. Além disso, um protótipo do esquema desenvolvido foi implementado em um ambiente de testes utilizando máquinas virtuais. Para tanto, foi utilizada a linguagem Python no desenvolvimento da proposta e o serviço Mosquitto, com o protocolo MQTT. No decorrer da avaliação de desempenho, ficou evidente a existência de um comprometimento do recursos computacionais em função da segurança provida, existindo assim espaço para aprimoramentos da proposta. Por outro lado, os resultados mostraram claramente que o esquema apresentado possui os requisitos necessários para prover autenticação segura e proteção de dados enviados e recebidos pelos dispositivos.


  • Mostrar Abstract
  • The Internet of Things is passing for a large growth, allowing that more devices be connected in the Internet and so, taking to a increase volume data. This technology pass through several challenges and one of the main is the information security. In IoT environments the security is essential for not permit the entrance of bad intentional devices, offer secure communication and data protection. Exist a lot of factors that are connected to a good security system, for exemple, athentication, criptography, secure communication canal and users identification. This work apresent a authentication scheme for Internet of Things that can be use with MQTT protocol. The propose scheme was developed using a set of tecniques like, logic port XOR, symetric criptography and hash functions. Other than that, is propose the use of PUF tecnique for unique identification of devices in IoT. The algorithm was tested using a tool for formal validation of security protocols, the scyther. In addition, the schema was implemented in a test environment using virtual machines. Therefore  the python language was used to develop the schema and the Mosquitto service, with the MQTT protocol. During the performance evaluation, it was evident the existence of a commitment in the computational resources depending on of the provides security, existing a space to improve of the algorithm. On the other hand, the results showed that the schema own the necessary requirements to provide safe authentication and protection to data sended and received by devices.

3
  • LUCAS NOVAIS ASSUNÇÃO
  • Perda de conhecimento em projetos de software devido a rotatividade de profissionais de TI: Um estudo na Universidade Federal de Viçosa – UFV

  • Orientador : EIJI ADACHI MEDEIROS BARBOSA
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • FERNANDO MARQUES FIGUEIRA FILHO
  • AWDREN DE LIMA FONTAO
  • Data: 20/04/2023

  • Mostrar Resumo
  • O conhecimento é considerado um dos ativos estratégicos mais importantes para as organizações contemporâneas. Prusak (1997) destaca que conhecimento e inteligência estão conectados: a inteligência é necessária para se gerar conhecimento e o conhecimento fornece a base através da qual a inteligência pode ser aplicada. A Inteligência advém de pessoal qualificado que, apoiado pelos recursos de Tecnologia da Informação (TI), executa, gerencia e toma as melhores decisões para o bom desempenho das organizações, sejam elas públicas ou privadas. Pesquisas mostram que a rotatividade de profissionais de TI tornou-se um problema crônico e o déficit pode chegar a meio milhão até 2025, refletindo uma aceleração significativa da demanda deste setor. Além disso, formam-se no Brasil 53 mil pessoas ao ano um terço da demanda projetada e quase 50% dos já contratados nos últimos 12 meses tiveram duas ofertas de emprego adicionais, as quais são levadas em consideração e que pode vir a representar a saída voluntária da atual organização num curto ou médio prazo. A rotatividade de profissionais de TI acarreta diversos custos; minimizar e conter seus danos tornou-se um difícil e recorrente desafio para os gestores de Recursos Humanos, não somente por questões econômicas, mas sobretudo para a gestão e preservação do principal ativo imaterial diretamente responsável pelo sucesso de qualquer organização: o conhecimento. Este trabalho apresenta um estudo sobre perda e retenção de conhecimento na Universidade Federal de Viçosa (UFV), onde o fenômeno da rotatividade para o cargo de Técnico em Tecnologia da Informação nos anos de 2021 e 2022 foi considerado relevante. Ao final, foram propostas recomendações para mudanças e tratamento dos principais problemas que emergiram do contexto estudado. O objetivo geral é assegurar o bom andamento dos trabalhos, preservar a memória institucional e evitar eventuais perdas de recursos públicos.


  • Mostrar Abstract
  • Knowledge is considered one of the most important strategic assets for contemporary organizations. Prusak (1997) highlights that ‘knowledge and intelligence are connected: intelligence is necessary to generate knowledge and knowledge provides the basis through which intelligence can be applied.’ Intelligence comes from people that, supported by Information Technology (IT), execute, manage, and make the best decisions for good performance of organizations, whether public or private. Research shows that the turnover of IT professionals has become a critical problem and the deficit may reach half a million by 2025, reflecting a significant acceleration of the demand in that sector. Furthermore, 53,000 people graduate every year in Brazil - a third of the projected demand - and almost 50% of those already hired in the last 12 months have had two additional job offers, which are considered and may represent the voluntary departure from the current organization in the short or medium term. The turnover of IT professionals brings several costs, minimizing and containing its damage has become a difficult and recurrent challenge for Human Resources, not only for economic reasons, but especially for the management and preservation of the main immaterial asset directly responsible for the success of any organization: knowledge. This paper will present a study about knowledge loss and retention at Federal University of Viçosa, where the turnover phenomenon for the position of Information Technology Technician in the last two years was considered relevant in order to ensure software development, preserving the institutional memory, and avoiding possible loss of public resources. A handbook for knowledge retention in software projects will be elaborated in this study in order to support managers and team members in implementing such actions in their work routine. The goal is to ensure good work progress, preserve institutional memory and avoid eventual public resource loss.

4
  • WILLIE LAWRENCE DA PAZ SILVA
  • Impacto da Evolução de Esquema de Banco de Dados na Disponibilidade de Software

  • Orientador : EIJI ADACHI MEDEIROS BARBOSA
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • UIRA KULESZA
  • RODRIGO BONIFACIO DE ALMEIDA
  • Data: 28/04/2023

  • Mostrar Resumo
  • Ao longo da vida de um software que utiliza um banco de dados relacional para armazenar
    informações, observamos que a evolução natural da aplicação leva à alterações no esquema
    do banco de dados, que é a estrutura que define como as informações são armazenadas.
    Durante a execução das operações que são responsáveis por alterar o esquema do banco de
    dados podem ocorrer interrupções no acesso aos dados armazenados no banco de dados,
    fazendo com que uma aplicação em execução que depende desses dados fique inoperante até
    que a operação de atualização do esquema seja finalizada. Nós chamamos essas operações
    de atualização do esquema que causam interrupção no acesso aos dados de “operações
    bloqueantes”. As operações bloqueantes são um problema particularmente em sistemas
    que não podem ser interrompidos, como é o caso de sistemas de monitoramento, sistemas
    de venda com alto volume de tráfego, aplicações governamentais etc. Nesse trabalho nós
    estudamos a evolução do esquema do banco de dados de uma aplicação do mundo real para
    entender a natureza das operações de alteração de esquema e prever o impacto delas na
    disponibilidade do software. Além disso, realizamos uma série de experimentos controlados
    com o objetivo de analisar o impacto das operações bloqueantes na disponibilidade de uma
    aplicação em uso no momento da evolução do esquema. Por fim, nosso trabalho implementa
    algumas soluções, sugeridas pelos praticantes da indústria, para resolver o problema de
    disponibilidade dos dados durante a evolução do esquema. Assim, os mesmos conjuntos de
    experimentos realizados foram repetidos num novo cenário onde as sugestões da indústria
    foram implementadas. Nossos resultados mostram que as sugestões dos praticantes da
    indústria são eficientes até um determinado limite, de tal maneira que bancos de dados
    com um número muito grande de registros podem sentir uma diminuição considerável no
    tempo de indisponibilidade do banco de dados, porém não o suficiente para o usuário final
    de uma aplicação.


  • Mostrar Abstract
  • In the software’s life cycle that uses relational databases to store data, we observed that
    the natural evolution of the application takes to changes in the database schema, that
    is the structure that defines how the data is stored. During the execution of operations
    responsible for changes in the database schema, the database can interrupt the data
    access until the schema change operation finishes. We call these operations that cause
    interruptions in data access “blocking operations”. The blocking operations are a problem,
    particularly in systems that need high availability as monitoring systems, sale systems
    with high traffic volume, government systems, etc. In this work, we study the database
    schema evolution of a real-world application to understand the schema change operation’s
    blocking nature. Moreover, we performed a series of controlled experiments aiming to
    analyze the impact of schema change operations in the availability of an application being
    used during the the schema evolution. Finally, our work implements suggestions from
    industry practitioners to solve the data unavailability problem during the schema evolution.
    Thus, the same experiment set was repeated in a new scenario where the practitioner’s
    suggestions were applied. Our results show that the suggestions from practitioners are
    efficient until a limit, in such a way that databases with a high number of registries can
    have an evident decrease in the duration of database unavailability, but not enough to the
    final user.

5
  • ARYCLENIO XAVIER BARROS
  • A Catalog and a Detection Tool for Performance Bad Smells in React Systems

  • Orientador : EIJI ADACHI MEDEIROS BARBOSA
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • ELDER JOSÉ REIOLI CIRILO
  • LEONARDO DA SILVA SOUSA
  • Data: 23/06/2023

  • Mostrar Resumo
  • The Javascript language is one of the most famous development tools today, gaining visibility in several areas such as web games, three-dimensional renderings, artificial intelligence and, mainly, the development of web applications, with its major role in the construction of interfaces through front end development. In this ecosystem, several libraries and frameworks were built, the most famous being the React library, developed and published by Meta (Facebook). Applications built on React, like any other system, need to remain usable and relevant over time. As empirical evidence shows, the presence of bad smells in the code might compromise the software evolvability. Based on this context, this work presents, based on mapping studies of the academic and gray literature, a proposal of bad smells oriented to the React library, integrating them to a code detection tool called ReactLint, which will flag code flaws and will indicate possible solutions to developers who use it. This work aims to validate the proposed smells, as well as the built tool, in order to identify whether they can affect the performance of a React application in the short and long term


  • Mostrar Abstract
  • The Javascript language is one of the most famous development tools today, gaining visibility in several areas such as web games, three-dimensional renderings, artificial intelligence and, mainly, the development of web applications, with its major role in the construction of interfaces through front end development. In this ecosystem, several libraries and frameworks were built, the most famous being the React library, developed and published by Meta (Facebook). Applications built on React, like any other system, need to remain usable and relevant over time. As empirical evidence shows, the presence of bad smells in the code might compromise the software evolvability. Based on this context, this work presents, based on mapping studies of the academic and gray literature, a proposal of bad smells oriented to the React library, integrating them to a code detection tool called ReactLint, which will flag code flaws and will indicate possible solutions to developers who use it. This work aims to validate the proposed smells, as well as the built tool, in order to identify whether they can affect the performance of a React application in the short and long term

6
  • IURI JANMICHEL DE SOUSA LIMA
  • Uma ferramenta baseada em aprendizado de máquina para previsão de participantes de processos avaliativos

     
  • Orientador : ITAMIR DE MORAIS BARROCA FILHO
  • MEMBROS DA BANCA :
  • DIEGO SILVEIRA COSTA NASCIMENTO
  • ITAMIR DE MORAIS BARROCA FILHO
  • JOAO CARLOS XAVIER JUNIOR
  • Data: 23/06/2023

  • Mostrar Resumo
  • Este trabalho foi desenvolvido dentro do Núcleo Permanente de Concursos da UFRN, a Comperve. Toda a gestão dos processos avaliativos que são organizados por este Núcleo, derivam diretamente da quantidade de participantes inscritos em seus processos avaliativos. Partindo dessas premissas, esse trabalho apresenta um modelo de utilização de técnicas de aprendizado de máquina sobre a organização logística dos processos avaliativos organizados pela Comperve. O modelo apresentado aqui, foi criado a partir das bases de dados disponíveis no Núcleo, que continham informações sobre os processos avaliativos realizados pela Comperve desde o início dos anos 2000. Para realização deste trabalho, foi investigado o contexto de execução das atividades onde atualmente está inserido este Núcleo, analisando como é feita a organização logística de seus processos, realizando a integração dos dados que se encontravam descentralizados e despadronizados e criando o modelo de treinamento que atingiu mais de 98% de acurácia na classificação da quantidade de participantes inscritos em seus processos. Para a aplicação desse modelo, foi desenvolvida uma ferramenta utilizando a infraestrutura do sistema de gestão dos processos avaliativos, que atualmente está sendo desenvolvido.

     

  • Mostrar Abstract
  •  This work was developed within the Núcleo Permanente de Concursos (Permanent Center of Contests) of UFRN, the Comperve. All the management of the appraisal processes that are organized by this Center derive directly from the number of participants enrolled in its appraisal processes. Based on these assumptions, this work presents a model for the use of machine learning techniques on the logistical organization of the evaluation processes organized by Comperve. The model presented here was created from the data bases available in the Center, which contained information about the evaluation processes carried out by Comperve since the beginning of the 2000s. In order to carry out this work, the execution context of the activities where this Center is currently located was investigated, analyzing how the logistic organization of its processes is done, integrating the data that was decentralized and de-standardized, and creating the training model that achieved more than 98% of accuracy in the classification of the quantity of participants enrolled in its processes. For the application of this model, an application using the infrastructure of the management system of the appraisal processes, which is currently being developed, was developed.

     
7
  • CEZAR MIRANDA PAULA DE SOUZA
  • Um processo para Avaliação e Gerenciamento de Mudanças de Modelos de Aprendizado de Máquina aplicado a casos de uso na área da Saúde

  • Orientador : ITAMIR DE MORAIS BARROCA FILHO
  • MEMBROS DA BANCA :
  • ADRIAO DUARTE DORIA NETO
  • ANNA GISELLE CAMARA DANTAS RIBEIRO RODRIGUES
  • CICILIA RAQUEL MAIA LEITE
  • ITAMIR DE MORAIS BARROCA FILHO
  • Data: 26/06/2023

  • Mostrar Resumo
  • Suportado por avanços de hardware e software, o uso de Aprendizado de Máquina (AM), reconhecido por alavancar o trabalho nas mais variadas áreas de conhecimento, começou a acelerar exponencialmente nas últimas décadas. Os experimentos, em geral realizados em ambientes controlados, sobre amostras de dados previamente conhecidos e preparados, tem trazido resultados extraordinários, o que popularizou o uso do Aprendizado de Máquina ao ponto de ser difícil encontrar um ramo do conhecimento humano no qual o AM ainda não tenha sido abordado. Neste contexto, surgem questões relativas à representatividade das amostras de dados utilizadas, e à necessidade de se estabelecer garantias mínimas quanto a performance sobre dados desconhecidos (do mundo real), especialmente em aplicações críticas como as da Saúde, onde erros podem significar risco de vida para pacientes. Dentro do AM há uma disciplina chamada de Machine Learning Operations (ou MLOps, para simplificar), que se destina ao gerenciamento do ciclo de vida de modelos de Aprendizado de Máquina, desde sua concepção até sua entrega em produção (ambientes de uso efetivo no mundo real) e seu posterior monitoramento. Uma vez implantados, modelos estão sujeitos a problemas de decaimento de performance, causado por fenômenos como o drift, o que tem motivado estudos recentes sobre continual learning e monitoramento contínuo para modelos de AM. O presente trabalho se destina a identificar as técnicas do estado-da-arte no que se refere à avaliação de modelos de AM em uso efetivo no mundo real, com o objetivo de estabelecer um feedback-loop, incorporando monitoramento contínuo e gerenciamento de mudanças no ciclo de vida dos modelos. Finalmente, uma vez obtidas, estas definições, busca aplicá-las em um estudo de caso de modelos de AM na Saúde, e estabelecer um processo para sua avaliação. Os modelos em questão foram desenvolvidos como parte da Plataforma de Assistência Remota (PAR), e encontram-se em uso efetivo em UTI Oncológica.

     

  • Mostrar Abstract
  • Fostered by hardware and software advances, Machine Learning (ML) started to ramp up exponentially in the last few decades, and has become instrumental for advancing the work in the most varied areas of knowledge. Though generally restricted to controlledspace experiments, over previously obtained and curated data samples, results have been outstanding, which gave rise to such levels of popularity for ML applications that it’s hard to find an area of human knowledge left untouched by Machine Learning. In such context, establishing minimum performance guarantees over unknown, real-world data, becomes paramount, especially in Healthcare applications, where errors can lead to life-threatening situations. There’s an ML discipline, called Machine Learning Operations (or MLOps, for short), which concerns itself with ML Models’ lifecycle management, from conception to deployment in production (real-world) environments, including monitoring its real-world behavior. Once deployed, models are subject to performance decay issues, such as drift, which has motivated recent studies on continual learning and Continuous Monitoring of ML models. The present work focuses on identifying state-of-the-art techniques for evaluating model fitness in real-world usage scenarios, and on how to establish a feedback-loop to include continuous monitoring and change management in the models’ lifecycle. Finally, the present work aims to apply evaluation techniques in a case study of ML models applied to Healthcare, and establish a process for evaluating models. The target models were developed as part of the Remote Assistance Platform (PAR), and is currently in effective use in an oncologic ICU.

     
8
  • INÁCIA FERNANDES DA COSTA NETA
  • Um Estudo sobre Consumo Energético em Supercomputadores.

  • Orientador : GUSTAVO GIRAO BARRETO DA SILVA
  • MEMBROS DA BANCA :
  • GUSTAVO GIRAO BARRETO DA SILVA
  • ITAMIR DE MORAIS BARROCA FILHO
  • IVAN SARAIVA SILVA
  • SAMUEL XAVIER DE SOUZA
  • Data: 31/10/2023

  • Mostrar Resumo
  • A recente revolução tecnológica e exorbitante aumento de dados demandou uma necessi- dade de investimentos e melhorias na área de TI. Diversas são as atividades que reivin- dicam aumento do processamento e a imprescindibilidade de alta disponibilidade. Uma dessas atividades é a pesquisa, realizada por centros acadêmicos, por exemplo, que ca- recem de um equipamento de alto desempenho para tarefas de complexidade elevada. O consumo energético destes se torna grandioso e dispendioso, demandando estudos de dife- rentes estratégias na área. Nesse documento é apresentado um estudo inicial que aponta na direção da melhoria na gestão de energia de servidores a fim de permitir uma economia do consumo energético e consequente diminuição de gastos financeiros. É apontado um supercomputador como objeto de estudo, a partir do qual foram feitas coletas de dados de consumo computacional e energético, gerando análises distintas e comparativas entre si. Por fim, é sugerida uma estratégia para redução do consumo de energia desse equipamento como proposta para oportunidade de economia de energia e consequentemente financeira.


  • Mostrar Abstract
  • The recent technological revolution and the exorbitant increase in data required invest- ments and improvements in the IT area. There are several activities that require increased processing and the indispensability of high availability. One of these activities is research, carried out by academic centers, for example, which lack high-performance equipment for highly complex tasks. Their energy consumption becomes huge and expensive, requiring studies of different strategies in the area. This document presents an initial study for improving server energy management in order to save energy consumption and financial expenses. A supercomputer is appointed as the object of study, from which data on com- putational and energy consumption was collected, generating specific and comparative analyzes between them. Finally, a strategy is suggested to reduce the energy consump- tion of this equipment as a proposal for an opportunity to save energy and consequently financially.

9
  • ALEX AUGUSTO DE SOUZA SANTOS
  • Arquitetura de suporte à configuração de redes de computadores baseada em linguagem natural e descoberta de dispositivos

  • Orientador : ROGER KREUTZ IMMICH
  • MEMBROS DA BANCA :
  • Bruno Dalmazo
  • ELIZAMA DAS CHAGAS LEMOS
  • RAMON DOS REIS FONTES
  • ROGER KREUTZ IMMICH
  • Data: 24/11/2023

  • Mostrar Resumo
  • A internet está se tornando cada vez mais acessível e disponível para um número maior de pessoas. Contudo, os utilizadores de internet hoje em dia não são mais entusiastas ou acadêmicos como na sua origem, são pessoas comuns. Consequentemente os usuários que por necessidade precisam administrar uma rede local sob sua responsabilidade não são pessoas habilidosas tecnicamente e que tenham conhecimentos de jargões utilizado em redes de computadores. No contexto de uma rede local residencial, a presença crescente de dispositivos e a necessidade de controlar o acesso à rede demandam soluções que sejam acessíveis e intuitivas para usuários comuns que desejam ter um maior controle da sua rede.
    No entanto, as interfaces de configuração de roteadores residenciais atualmente são limitadas, pouco intuitivas e amigáveis ao publico em geral. Dessa forma, dificultam o controle de acesso e a personalização de configurações mais avançadas, por elas requererem conhecimentos técnicos especializados. Além disso, a ausência de padronização nessas interfaces cria obstáculos de acessibilidade para usuários. Como consequência, eles enfrentam dificuldades na configuração eficaz de seus roteadores residenciais, limitando sua capacidade de controlar o acesso à rede e de personalizar configurações. O uso da linguagem natural, seja através de voz ou texto vem a ser uma interface que apresenta uma vantagem neste contexto por sua simplicidade e acessibilidade para este público.
    Este trabalho aborda essa problemática e propõe uma arquitetura em camadas que utiliza linguagem natural e recursos de automação para facilitar a configuração de redes residenciais, sobretudo com o foco no controle de acesso de dispositivos e classes de dispositivos. Esta abordagem busca eliminar a necessidade de conhecimentos técnicos especializados por parte do usuário.
    Para atingir este objetivo, o presente trabalho aborda uma revisão do estado da arte com relação ao uso da linguagem natural no contexto da configuração de redes baseadas em intenção e contribui com a apresentação de mapeamento sistemático sobre o uso da linguagem natural para configuração de redes no contexto doméstico e com estratégias existentes para identificação e classificação de tipos de dispositivos em uma rede com dispositivos heterogêneos. Através do uso de ferramentas de processamento de linguagem natural, facilitado por inteligência artificial e recursos como identificação automática e classificação dos dispositivos, espera-se oferecer a pessoas comuns uma experiência mais intuitiva e eficiente na configuração de suas redes residenciais.
    Para validar a solução proposta, um protótipo em linguagem python será constituído estabelecerá uma hierarquia de tipos de dispositivos e uma hierarquia de intenções de configurações. Ambas compatíveis com o ambiente residencial. O protótipo se utilizará de comunicações entre APIs e protocolo SSH para conceder interoperabilidade entre as camadas propostas.
    Os resultados da pesquisa indicam que o uso da linguagem natural para configuração de redes ainda é pouco explorado no contexto residencial, principalmente no que se refere a detecção automática dos tipos de dispositivos presentes na rede. Até o momento as hierarquias propostas estão estabelecidas, assim como descritores necessários para o funcionamento do protótipo.


  • Mostrar Abstract
  • The internet is becoming increasingly accessible and available to a larger number of people. However, internet users nowadays are no longer enthusiasts or academics as they were in its origin; they are ordinary people. Consequently, users who need to manage a local network under their responsibility are not technically skilled individuals with knowledge of computer network Niche language. In the context of a residential local network, the growing presence of devices and the need to control network access demand solutions that are accessible and intuitive for common users who want greater control over their network.
    However, home router configuration interfaces are currently limited, unintuitive, and unfriendly to the general public. Consequently, they hinder access control and customization of advanced settings as they require specialized technical knowledge. Moreover, the lack of standardization in these interfaces creates accessibility barriers for users. As a result, users face difficulties in effectively configuring their residential routers, limiting their ability to control network access and customize settings. The use of natural language, whether through voice or text, becomes an interface that presents an advantage in this context due to its simplicity and accessibility for this audience.
    This work addresses this issue and proposes a layered architecture that utilizes natural language and automation resources to facilitate the configuration of residential networks, particularly focusing on device access control and device class control. This approach aims to eliminate the need for specialized technical knowledge from the user. To achieve this goal, this work reviews the state of the art regarding the use of natural language in the context of intent-based network configuration and contributes with a systematic mapping of the use of natural language for network configuration in the domestic context, along with existing strategies for device identification and classification in a network with heterogeneous devices. By using natural language processing tools facilitated by artificial intelligence and features such as automatic device identification and classification, it is expected to offer common users a more intuitive and efficient experience in configuring their residential networks.
    To validate the proposed solution, a prototype in the Python language will be developed, establishing a hierarchy of device types and a hierarchy of configuration intentions, both compatible with the residential environment. The prototype will utilize communication between APIs and the SSH protocol to provide interoperability between the proposed layers.
    The research results indicate that the use of natural language for network configuration is still underexplored in the residential context, particularly concerning automatic detection of device types present in the network. At this point, the proposed hierarchies and the necessary descriptors for the prototype's functioning have been established.

10
  • RIVALDO FERNANDES DE ALBUQUERQUE PEREIRA
  • Uma Arquitetura de Detecção de Anomalias em SDN utilizando inteligência computacional

  • Orientador : ROGER KREUTZ IMMICH
  • MEMBROS DA BANCA :
  • DOUGLAS D. J. DE MACEDO
  • MARCOS CESAR MADRUGA ALVES PINHEIRO
  • ROGER KREUTZ IMMICH
  • UIRA KULESZA
  • Data: 29/11/2023

  • Mostrar Resumo
  • Tecnologias emergentes como o Cloud, 5G, Internet of Things (IoT) e computação de borda, englobam controlar e conectar em rede milhões de dispositivos todos os dias. Configurar redes tradicionais com milhões de equipamentos é uma tarefa complexa pois exige configurar rotas em cada equipamento da rede. A Rede Definida por Software (SDN) pode ajudar na simplificação da configuração e gerenciamento de uma rede com esta quantidade de dispositivos já que dispõe de controlador de rede centralizado. Muitos estudos têm pesquisado sobre o uso de inteligência computacional (IC) para detectar anomalias em SDN. Este trabalho define um framework para validar, promover e explicar, com uso de Explainable AI, qualquer técnica de IC que melhor detecta cada um dos diferentes tipos de anomalias, também define uma arquitetura baseada em microserviços hexagonais, com um modelo de informação único baseado nos framework de aplicação e informação, Open Digital Architecture, do TM Forum.


  • Mostrar Abstract
  • Emerging technologies such as the Cloud, 5G, Internet of Things (IoT) and edge computing encompass controlling and networking millions of devices every day. Managing traditional networks with millions of devices is a complex task as it requires configuring data traffic routes on each device in the network. With it centralized network controller, Software-Defined Networking (SDN) can help simplify the configuration and management of a network with this many devices. Many studies have researched the use of different computational intelligence (CI) methods to detect anomalies in SDN, this work defines a framework to validate, promote and explain, using Explainable AI, any of these CI methods that best detects each of the different types of anomalies, and also define architecture based on hexagonal microservices and with a unique data model based on the application and information framework, Open Digital Architecture, from the TM Forum

11
  • YVES DANTAS NEVES
  • Aplicação de Técnicas de Agrupamento para Construção de Perfis em Dados Oriundos de Redes de Acesso 5G

  • Orientador : JOAO CARLOS XAVIER JUNIOR
  • MEMBROS DA BANCA :
  • ANNE MAGALY DE PAULA CANUTO
  • ARAKEN DE MEDEIROS SANTOS
  • DANIEL SABINO AMORIM DE ARAUJO
  • JOAO CARLOS XAVIER JUNIOR
  • Data: 08/12/2023

  • Mostrar Resumo
  • O advento da Internet e o desenvolvimento das Tecnologias da Informação e Comunicação expandiram o volume e a diversificação das fontes de dados, abrindo assim novas oportunidades nos setores industriais e acadêmicos à aplicação de tecnologias relacionadas ao Aprendizado de Máquina e Big Data. Nesta perspectiva encontra-se a extensa quantidade de dados gerados pelas infraestruturas de Acesso das Redes Móveis. As Radio Access Networks (RAN), cruciais para a infraestrutura de telecomunicações, são habilitadoras da comunicação sem fio e produzem um volume expressivo de dados relacionados a coleta de contadores, os quais associados, permitem uma visibilidade e monitoramento sobre os índices de desempenho e qualidade de suas células. O presente trabalho consiste na aplicação de algoritmos de agrupamento para a criação de perfis a partir de dados relacionados à indicadores de redes de acesso 5G referentes a tráfego, volume e qualidade de canal de forma que a rotulação da base de dados com os perfis encontrados possa ser utilizada em problemas de classificação e como ferramenta de suporte a identificação de melhorias, gestão de desempenho e eficiência operacional das redes de acesso.


  • Mostrar Abstract
  • The Internet arising and the Information and Communication Technologies development expanded the volume and diversification of data sources, thus opening up new opportunities in the industry and academic fields for Machine Learning Techiniques and Big Data related applications. In the same perspective is the extensive amount of data generated by mobile networks infrastructures worldwide. The Radio Access Networks (RAN), crucial for the telecommunications infrastructure, work as a really important layer for the wireless communications and produce a significant data volume due to the network counters measurements which stand as the enablers for the monitoring and visibility on network performance indicators and service quality. The present work consists of applying clustering algorithms to create profiles on datasets related to 5G Radio Access Network Indicators regarding traffic, volume and channel quality so the labeled data can get used on classification problems and as a support tool for identifying improvements, performance management and operational efficiency of Radio Access Networks.

12
  • ORMAZABAL LIMA DO NASCIMENTO
  • Estudo comparativo entre modelos transformers aplicados ao desenvolvimento de chatbots

  • Orientador : DANIEL SABINO AMORIM DE ARAUJO
  • MEMBROS DA BANCA :
  • DANIEL SABINO AMORIM DE ARAUJO
  • JOAO CARLOS XAVIER JUNIOR
  • THAIS GAUDENCIO DO REGO
  • Data: 15/12/2023

  • Mostrar Resumo
  • Os modelos baseados em arquitetura trasformer vêm apresentando resultados promissores em áreas de estudo como processamento de linguagem natural (NLP). Nessa mesma área de estudo, chatbots são ferramentas amplamente utilizadas em tarefas de atendimento ao cliente. Esse trabalho utilizará RASA e seu classificador DIET para realizar um estudo comparativo do impacto de modelos trasformers pré-treinados no desenvolvimento de um chatbot. Como cenário para esse estudo, foi analisado o caso do Tribunal de Contas do Rio Grande do Norte (TCE/RN) e a sua necessidade de implantar um chatbot visando a melhoria na eficiência do seu setor de atendimento ao público. 


  • Mostrar Abstract
  • Models based on trasformer architecture have shown promising results in areas of study such as natural language processing (NLP). In this same area of study, chatbots are tools widely used in customer service tasks. This work will use RASA and its DIET classifier to perform a comparative study of the impact of pre-trained trasformer models in the development of a chatbot. As a scenario for this study, the case of the Court of Auditors of Rio Grande do Norte (TCE/RN) and its need to implement a chatbot aimed at improving the efficiency of its public service sector was analyzed. 

13
  • IURI CABRAL PAIVA
  • Explorando padrões de empréstimos: uma perspectiva preditiva na biblioteca universitária Zila Mamede

  • Orientador : DANIEL SABINO AMORIM DE ARAUJO
  • MEMBROS DA BANCA :
  • ARAKEN DE MEDEIROS SANTOS
  • DANIEL SABINO AMORIM DE ARAUJO
  • ISMENIA BLAVATSKY DE MAGALHÃES
  • JOAO CARLOS XAVIER JUNIOR
  • Data: 22/12/2023

  • Mostrar Resumo
  • A biblioteca universitária, ao longo dos anos, consolidou-se como uma instituição fundamental dentro das universidades, desempenhando um papel crucial no apoio ao processo de ensino-aprendizagem, pesquisa e extensão universitária. Um dos aspectos mais significativos dessa instituição é a concessão de empréstimos de materiais informacionais, especialmente de livros, aos seus usuários. Compreender o perfil dos usuários que realizam esses empréstimos e contextualizar suas necessidades é essencial para o planejamento eficaz e a gestão otimizada dos recursos das bibliotecas. Deste modo, este trabalho se propõe a investigar a dinâmica dos empréstimos de livros do acervo circulante da Biblioteca Central Zila Mamede (BCZM), visando antecipar as demandas dos usuários por meio da análise de dados históricos de empréstimos. Inicialmente, foi realizada a Análise Exploratória dos Dados para compreender aspectos relevantes da interação entre os discentes e a biblioteca, utilizando dados de empréstimos e informações associadas à vida acadêmica dos estudantes. A clusterização, realizada através dos algoritmos de KNN e Clusterização Hierárquica, permitiu a identificação de perfis distintos de discentes, enriquecendo a compreensão das necessidades específicas de cada grupo. Finalmente, foram empregados os modelos Random Forest e SARIMA na predição de empréstimos para o ano de 2019, utilizando dados agrupados de forma semanal e mensal. Os resultados obtidos indicam que os discentes que utilizam os serviços de empréstimo tendem a apresentar maior taxa de conclusão acadêmica e menor incidência de trancamentos e cancelamentos de matrícula. Quanto aos modelos de predição, tanto o SARIMA quanto o Random Forest demonstraram ser promissores na identificação de padrões de tendência nos empréstimos, destacando sua aplicabilidade para a Biblioteca Central Zila Mamede. Portanto, este estudo não apenas contribui para a compreensão mais aprofundada da dinâmica dos empréstimos de livros, mas também fornece subsídios valiosos para que a biblioteca possa antecipar-se às necessidades dos usuários de maneira proativa, melhorando assim a eficácia de suas operações.


  • Mostrar Abstract
  • The university library has become a longstanding institution within universities, playing a crucial role in supporting the teaching-learning process, research, and university extension. One of its most significant aspects is the loan of informational materials, especially books, to its users. Understanding the profile of users who make these loans and contextualizing their needs is essential for effective planning and optimized resource management within the library. In this context, this study aims to investigate the dynamics of book loans in the circulating collection of the Zila Mamede Central Library (BCZM), with the goal of anticipating user demands through the analysis of historical loan data. Initially, Exploratory Data Analysis was employed to understand relevant aspects of the interaction between students and the library, using loan data and information associated with students' academic lives. Clustering, performed through KNN and Hierarchical Clustering algorithms, allowed the identification of distinct student profiles, enriching the understanding of the specific needs of each group. Finally, to fully achieve the proposed objective, the Random Forest and SARIMA models were used to predict loans for the year 2019, using data grouped on a weekly and monthly basis. The results indicate that students who use loan services tend to have a higher academic completion rate and a lower incidence of withdrawals and cancellations. Regarding prediction models, both SARIMA and Random Forest proved promising in identifying trends in loans, highlighting their applicability to the Zila Mamede Central Library. This study not only contributes to a deeper understanding of the dynamics of book loans but also provides valuable insights for the library to proactively anticipate user needs, thereby improving the effectiveness of its operations.

2022
Dissertações
1
  • DIOGO EUGÊNIO DA SILVA CORTEZ
  • DESENVOLVIMENTO DE UM SISTEMA DE CONTROLE DE TRÁFEGO INTELIGENTE BASEADO EM VISÃO COMPUTACIONAL

  • Orientador : ITAMIR DE MORAIS BARROCA FILHO
  • MEMBROS DA BANCA :
  • ALUISIO IGOR REGO FONTES
  • DANIEL SABINO AMORIM DE ARAUJO
  • GUSTAVO GIRAO BARRETO DA SILVA
  • ITAMIR DE MORAIS BARROCA FILHO
  • Data: 04/03/2022

  • Mostrar Resumo
  • A frota de veículos no Rio Grande do Norte aumentou em aproximadamente 250 mil veículos nos últimos 5 anos, ou 7% ao ano. Considerando que 80% da população vive em zonas urbanas, a gestão do trânsito está se tornando uma das questões mais importantes atualmente. Os semáforos que operam com tempo fixo (STF) para controlar o fluxo de veículos não são eficientes em todas as situações do trânsito. Nesse momento, na literatura, muitos estudos sugerem o controle do semáforo com base na densidade de veículos como solução para melhorar a fluidez do trânsito. Com o avanço das tecnologias de Visão Computacional (VC), as técnicas de detecção e classificação de objetos em movimento e a exigência de pouco poder computacional para realizar essas tarefas foi possível desenvolver um sistema de controle de tráfego inteligente baseado em VC. Esta solução de baixo custo foi implementada para aproveitar o sistema de STF, câmeras e infraestrutura de rede lógica já presentes nos municípios do Brasil. Uma aplicação desenvolvida e implantada em um computador foi utilizada para capturar foto(s) do(s) semáforo(s), contar os veículos e calcular o tempo necessário para que eles realizem a travessia. O Raspberry Pi 3 controlou as luzes do semáforo. Em comparação ao STF houve ganho de até 33% na fluidez do trânsito. A VC foi utilizada para contar os veículos que cruzam o semáforo, assim, foi possível alertar sobre congestionamentos e também criar uma base de dados que poderá ser utilizada para tomada de decisões por parte dos órgãos com circunscrição sobre as vias.


  • Mostrar Abstract
  • A vehicle fleet in Rio Grande do Norte has increased by approximately 250 thousand vehicles in the last 5 years, or 7% per year. Considering that 80% of the population lives in urban areas, traffic management is becoming one of the most important issues. Traffic lights that operate with fixed time (STF) to control the flow of vehicles are not efficient in all databases. At this time, in the literature, many studies have advanced traffic light control based on vehicle density as a solution to improve traffic flow. With the advancement of Computer Vision (VC) technologies, such as detection and classification techniques for moving objects and the requirement of little computational power to perform these tasks, it was possible to develop an intelligent traffic control system based on VC. This low-cost solution was implemented to take advantage of the FTS system, cameras and logical network infrastructure already present in municipalities in Brazil. An application developed and implemented on a computer was used to capture photo(s) of the traffic light(s), count the vehicles and calculate the time needed for them to make the crossing. The Raspberry Pi 3 controlled like traffic lights. Compared to the STF, there was a gain of up to 33% in the fluidity of traffic. The VC was used to count the vehicles crossing or traffic lights, thus, it was possible to warn about traffic jams and also to create a database that can be used for decision-making by the bodies with circumscription about the lanes.

2
  • HONORE VICENTE CESARIO
  • Arquitetura para gerenciamento de dispositivos através de assistentes virtuais comandados por voz

  • Orientador : ROGER KREUTZ IMMICH
  • MEMBROS DA BANCA :
  • André Figueira Riker
  • Bruno Dalmazo
  • GUSTAVO GIRAO BARRETO DA SILVA
  • ROGER KREUTZ IMMICH
  • Data: 12/04/2022

  • Mostrar Resumo
  • O número de dispositivos IoT no mundo cresce exponencialmente e deverá passar o quantitativo de 75 bilhões nos próximos anos. Sua utilização nos processos de automação residencial tem crescido e, com isso, um número cada vez maior de usuários sem conhecimentos técnicos (ou com conhecimentos técnicos reduzidos) tem feito uso desses dispositivos. A grande variedade de fabricantes e a falta de padronização nas funcionalidades disponibilizadas, podem gerar dúvidas nos usuários e levá-los a efetuar configurações equivocadas, prejudicando o gerenciamento desses equipamentos. Realizar essas configurações pode ser ainda mais desafiador para pessoas que apresentem algum tipo de deficiência. Segundo dados apresentados pelo IBGE, mais de 45 milhões de pessoas possuem algum tipo de deficiência, o que corresponde a quase 24% da população. Diante desses desafios, o presente trabalho propõe uma arquitetura em camadas, baseada em módulos independentes, onde essa arquitetura permitirá que, mediante comandos por voz ou texto e utilizando linguagem natural, um usuário possa realizar configurações complexas, sem que seja necessário conhecimento técnico relativo a infraestrutura ou especificidades do dispositivo de rede utilizado. Para tanto, serão utilizados, entre outras tecnologias, processamento de linguagem natural, aprendizado de máquina e conversão de texto para voz. Um levantamento do estado da arte relativo a soluções voltadas a configuração, acionamento e monitoramento de dispositivos é apresentado, além de um protótipo para validação e avaliação do funcionamento da arquitetura proposta nesta pesquisa. Para que melhorias futuras possam ser implementadas no chatbot, seu design foi submetido a uma avaliação para identificar possíveis problemas existentes. Por fim, nos testes quantitativos realizados para verificar a assertividade do protótipo desenvolvido, sua acurácia foi superior a 83%.


  • Mostrar Abstract
  • The number of IoT devices in the world grows exponentially and is expected to exceed 75 billion in the coming years. Its use in home automation processes has grown and, as a result, an increasing number of users without technical knowledge (or with reduced technical knowledge) have made use of these devices. The wide variety of manufacturers and the lack of standardization in the features available can generate doubts among users and lead them to make wrong settings, harming the management of these equipment. Performing these settings can be even more challenging for people with disabilities. According to data presented by IBGE, more than 45 million people have some type of disability, which corresponds to almost 24% of the population. Faced with these challenges, this work proposes a layered architecture, based on independent modules, where this architecture will allow, through voice commands or text and using natural language, a user can perform complex configurations, without the need for advanced technical knowledge regarding infrastructure or specifics of the network device used. For this purpose, among other technologies, natural language processing, machine learning and text-to-speech conversion will be used. A survey of the state of the art regarding solutions aimed at configuring, activating and monitoring devices is presented, as well as a prototype for validation and evaluation of the functioning of the architecture proposed in this research. For future improvements can be implemented in the chatbot, its design was submitted to an evaluation to identify possible existing problems. Finally, in the quantitative tests carried out to verify the assertiveness of the prototype developed, its accuracy was greater than 83%.

3
  • DIOGO CIRNE NUNES
  • Uma Plataforma para Promover a Interoperabilidade entre Órgãos de Segurança Pública

  • Orientador : FREDERICO ARAUJO DA SILVA LOPES
  • MEMBROS DA BANCA :
  • FREDERICO ARAUJO DA SILVA LOPES
  • ITAMIR DE MORAIS BARROCA FILHO
  • LENARDO CHAVES E SILVA
  • Data: 27/06/2022

  • Mostrar Resumo
  • Com o avanço tecnológico facilitando cada vez mais processos já existentes, é comum buscar o desenvolvimento de técnicas que auxiliam na automatização de procedimentos anteriormente feitos inteiramente de forma manual. No entanto, é comum que alguns serviços já estejam habituados a serem feitos de forma analógica, dificultando uma pos- sível mudança nas práticas já enraizadas. A dificuldade aumenta ainda mais quando os procedimentos em questão envolvem a ação de mais de uma entidade de órgãos distintos, cada um com suas próprias práticas já utilizadas há anos e diferentes dos demais.

    A interoperabilidade entre sistemas é uma técnica que está cada vez mais sendo buscada nos serviços que envolvem órgãos distintos. Ela visa permitir que as entidades envolvidas possam operar em conjunto, trazendo pouca ou nenhuma mudança para as práticas já utilizadas e atuando de forma transparente para o usuário.

    Portanto, este trabalho propõe uma plataforma de middeware que provê a interoperabili- dade entre os órgãos policiais e de perícia criminal da segurança, visando a melhoria no serviço prestado por estes e a resposta cada vez mais rápida para a sociedade nos serviços de investigação de crimes contra a vida.


  • Mostrar Abstract
  • With technological advances facilitating more and more existing processes, it is common to seek the development of techniques that help in the automation of procedures previously performed entirely manually. However, it is common that some services are already used to being done in an analogical way, making it difficult for a change in the already ingrained practices. The difficulty increases even more when the procedures involve the action of more than one entity from different organizations, each with its own practices already used for years and different from the others.

    Interoperability between systems is a technique that is increasingly being sought on services that involves different agencies. It aims to allow the involved entities to operate together, bringing little or no change to the practices already used and acting in a transparent way for the user.

    Therefore, this work proposes a middeware platform to provide interoperability between police and forensic agencies of public safety, aiming at improving the service provided by them and a faster response for society in the services of investigation of life crimes.

     

4
  • RAMON SANTOS MALAQUIAS
  • Um middleware baseado no padrão HL7 FHIR para Sistemas de Informação de Saúde

  • Orientador : ITAMIR DE MORAIS BARROCA FILHO
  • MEMBROS DA BANCA :
  • FREDERICO ARAUJO DA SILVA LOPES
  • ITAMIR DE MORAIS BARROCA FILHO
  • ROSSANA MARIA DE CASTRO ANDRADE
  • Data: 15/07/2022

  • Mostrar Resumo
  • A prestação de serviços de saúde está, cada vez mais, sendo apoiada por diferentes soluções tecnológicas, como por exemplo, Sistemas de Informação de Saúde (SIS), Electronic Health Records (EHR) ou soluções baseadas em eHealth e mHealth. Tais soluções trazem benefícios tanto do ponto de vista de Gestão de Serviços de Saúde, quanto do acompanhamento clínico e do cuidado com pacientes e são utilizadas em diferentes ambientes, como hospitais, clínicas, laboratórios, homecare, dentre outros.

    É comum que diferentes e pontuais problemas sejam resolvidos a partir de tecnologias. Por exemplo, em um hospital podem ser utilizados: um Prontuário Eletrônico do Paciente (PEP) para o gerenciamento de informações referentes à consultas e tratamentos dos pacientes; um Sistema para Monitoramento de Pacientes Internados em leitos de Unidades de Tratamento Intensivo (UTIs), enfermarias ou homecare; e outra ferramenta para gerenciamento de exames ambulatoriais. Essas soluções, apesar de estarem inseridas no mesmo contexto, lidam com dados de naturezas distintas, resultando em um ecossistema de soluções heterogêneas e que não são facilmente integradas, dificultando o processo de interoperabilidade entre elas.

    Interoperabilidade consiste na capacidade que uma aplicação possui de transferir dados para outra aplicação (interoperabilidade sintática) e a capacidade que de interpretação dos dados que são transferidos (interoperabilidade semântica). Considerando a diversidade de tipos de soluções que podem ser utilizadas no contexto da saúde e o ganho potencial que se pode obter ao integrar dados de diferentes soluções desse contexto, a criação de soluções que facilitem o desenvolvimento e potencializem a integração entre soluções, como Middlewares, surge como opção. No entanto, a revisão do estado da arte realizada neste trabalho evidencia que as soluções de middlewares para sistemas de saúde são focadas em diferentes áreas (como exames de imagens, sensoriamento e soluções de computação móvel) e não utilizam padrões de interoperabilidade abertos e que facilitem o desenvolvimento e a troca de informações de diferentes dados clínicos, como o HL7 FHIR (Fast Healthcare Interoperability Resources - HL7 FHIR).

    É com base nesse contexto que neste trabalho é descrito um Middleware Baseado no Padrão HL7 FHIR para Sistemas de Informação de Saúde, que tem como objetivo promover a interoperabilidade entre diferentes sistemas de informação de saúde, possibilitando a fácil integração entre eles. Neste sentido, ao longo do trabalho serão descritos os requisitos da solução, bem como detalhes de sua arquitetura e implementação, trazendo como resultados a realização e a avaliação de duas Provas de Conceito realizadas com 7 aplicações integradas a partir do Middleware desenvolvido.


  • Mostrar Abstract
  • The provision of health services is increasingly being supported by different technological solutions, such as Health Information Systems (HIS), Electronic Health Records (EHR), or solutions based on eHealth and mHealth. These solutions aim to support decisions and optimize processes in the provision of health services through the collection, processing, and availability of health data. Therefore, the use of digital solutions in the health context brings benefits both from the point of view of the management of health facilities and the clinical team that deals directly or indirectly with patients. Digital solutions for the health context are used in different environments, such as hospitals, clinics, laboratories, among others. Thus, it is common that different solutions are created and used to solve specific problems, with different characteristics and for different environments, but still in the health context. For example, a hospital may use different systems in its day-to-day activities, such as an Electronic Patient Record (PEP) to manage information regarding patient consultations and treatments; a system for monitoring patients admitted to the Intensive Care Unit (ICU); and a system for managing outpatient examinations. These different systems deal with different types of data, resulting in an ecosystem of heterogeneous solutions that are not easily integrated, making interoperability between these solutions difficult. Interoperability consists of the ability of an application to transfer data to another application (syntactic interoperability) and the ability to interpret the data that is transferred (semantic interoperability). Considering the diversity of types of solutions that can be used in the health context and the potential gain that can be obtained by integrating data from different solutions in this context, the interoperability requirement becomes important to be contemplated by Health Information Systems solutions. Health and that is why Middleware-based solutions emerge as an option for solutions that support interoperability between health systems. A Middleware consists of the layer of software that is between the technological and application levels, being above the operating system and below the application level, providing a common programming abstraction and aiming to facilitate the integration between systems through strategies of abstraction of the schedule. By promoting high-level abstractions for programmers, middlewares facilitate integration steps between heterogeneous systems, making code more portable. In the health context, there are a series of middlewares that propose to support the integration between already used applications. However, the review of the state of the art carried out in this work shows that the solutions are focused on different areas (such as image exams, sensing, and mobile computing solutions) and do not use open interoperability standards that facilitate the exchange of information from different clinical data, such as HL7 FHIR (Fast Healthcare Interoperability Resources - HL7 FHIR). It is based on this context that this work describes a Middleware Based on HL7 FHIR for Health Information Systems. The proposed solution aims to promote interoperability between different applications and health information systems, making the details of their implementations clearer become invisible to developers, focusing only on the communication layer and enabling integration between these different solutions. In this sense, throughout the work, the requirements of the solution will be described, as well as details of its architecture and implementation, resulting in the realization of a Proof of Concept carried out with 5 applications integrated through Middleware, namely: the Remote Assistance Platform (PAIR); the Clinical Data Platform (SigSaúde); the Information System for the Management of ICU Beds (Beds); the System for the Management of Notifications of COVID Cases in RN (SUVEPI); and the Testing Management System for Suspected COVID-19 Patients in RN (Exams).

5
  • SAMUEL ALVES DA COSTA
  • Estratégias de Seleção de Funcionalidades para Construção de Testes Automatizados: Um Estudo de Caso na STI-UFRN

  • Orientador : SERGIO QUEIROZ DE MEDEIROS
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • ROBERTA DE SOUZA COELHO
  • RODRIGO BONIFACIO DE ALMEIDA
  • SERGIO QUEIROZ DE MEDEIROS
  • UIRA KULESZA
  • Data: 18/07/2022

  • Mostrar Resumo
  • Todas as etapas do ciclo de produção de um software são importantes para a qualidade do produto final. No contexto da Superintendência de Tecnologia da Informação - STI, a etapa de testes de sistemas ocorre já no fim de todo o processo e muitas vezes com os prazos curtos. Dessa forma, esse trabalho faz uma abordagem para criação e acompanhamento de testes automatizados utilizando a ferramenta UI.Vision no contexto do Sistema Integrado de Gestão de Atividades Acadêmicas - SIGAA da UFRN. O acompanhamento consiste na inclusão dos testes automatizados de regressão, com base em classes de equivalência, no processo de integração contínua e avaliação; a partir daí gerar relatórios de testes com gráficos. Essa estratégia visa possibilitar aumento na visibilidade por parte da liderança/gerência de testes no sentido de auxiliar na tomada de decisões, como avaliar os testes automatizados que devem ou não serem continuados, bem como avaliar os benefícios da automatização usando as métricas de número de testes realizados a cada execução e quantidade de testes automatizados em uso. O que impacta de forma positiva na diminuição dos custos e aumento da capacidade de testes. Para isso foi feita uma intervenção no atual processo de testes a fim de adicionar a nova abordagem e poder favorecer o acompanhamento.


  • Mostrar Abstract
  • All stages of a software production cycle are important in order to guarantee the quality of the final product. In the context of Superintendência de Tecnologia da Informação - STI, the stage of system testing occurs at the end of the process and many times with a short deadline. Thus, this study makes an approach of creation and monitoring of automated system tests with a tool denominated UI.Visão in the context of Sistema Integrado de Gestão de Atividades Acadêmicas - SIGAA of UFRN. The follow-up consists of the inclusion of automated regression tests, based on equivalence classes, in the process of continuous integration and assessment processes; from this point, test reports with graphs are generated. This strategy aims to enable an improvement in visibility on the part of test leadership/management in order to assist in decision-making, such as, for example, evaluating automated system tests that should or should not be continued, as well as evaluating the benefits of automation using the metrics of number of system tests performed at each execution and number of automated tests in use. This strategy has positive impacts on the software production process, by lowering costs and increasing testing capacity. Therefore, an intervention was made in the current system testing process in order to add the new approach and be able to improve the follow-up.

6
  • WALLINSON DE LIMA SILVA
  • Uso de Testes Metamórficos para Verificação de Aplicação Chatbot

  • Orientador : EIJI ADACHI MEDEIROS BARBOSA
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • ROBERTA DE SOUZA COELHO
  • FABIANO CUTIGI FERRARI
  • Data: 26/07/2022

  • Mostrar Resumo
  • Chatbots são softwares que fazem uso de Inteligência Artificial (IA) para proporcionar a interação entre humanos e máquinas por meio de Linguagem Natural (LN), assemelhandose a uma conversação entre duas pessoas. É um tema atual e que tem recebido bastante atenção nos últimos anos. Entretanto, esse tipo de aplicação apresenta um comportamento que por vezes é imprevisível, pois diferentes usuários podem solicitar um mesmo conjunto de ações de diferentes maneiras e a aplicação pode retornar algo diferente para cada um dos usuários. Isso torna a atividade de teste de software algo complexa, visto que não é simples definir o oráculo de testes. O oráculo de teste é o processo que verifica o resultado do teste, julgando a resposta da aplicação, programa ou função como correta ou incorreta mediante especificação e planejamento. Neste cenário, uma técnica de teste apropriada para lidar com o problema do oráculo é o Teste Metamórfico (TM). Essa técnica foi proposta como uma solução para minimizar o problema de definição de oráculo, pois o processo de verificação da resposta da aplicação é feito pela definição de Relações Metamórficas (RMs), elementos que assumem o papel do oráculo. As relações metamórficas são propriedades da aplicação objeto de teste que definem o comportamento que a aplicação deve manter quando submetida a um determinado caso de teste. Todavia, apesar de Testes Metamórficos ser uma técnica bem estabelecida para lidar com o problema da falta de um oráculo de testes, ela ainda é pouco explorada no contexto de chatbots. Dessa forma, o objetivo desse trabalho consistiu em averiguar a aplicabilidade e efetividade da técnica de TM em uma aplicação chatbot desenvolvido por uma empresa pública. Para tanto, foi necessário o desenvolvimento de uma ferramenta para automação do processo de teste aplicando os conceitos do TM. Para a avaliação da técnica nós selecionamos 22 Casos de Teste de Origem (CTOs) divididos em 3 Intenções e imputamos essa informação na ferramenta de automação para execução dos testes das 20 Relações Metamórficas. Por meio da execução da ferramenta, foi possível gerar mais de 4100 Casos de Teste Acompanhamento (CTAs), derivados dos CTOS. A verificação ocorreu em duas baterias de teste utilizando duas versões da mesma aplicação com 3 meses de diferença de desenvolvimento. Com a aplicação da técnica de TM foi observado que 25% dos CTAs revelaram defeitos, representando mais de 900 CTAs reprovados, por versão testada.


  • Mostrar Abstract
  • Chatbots are software that make use of Artificial Intelligence (IA) to provide interaction between humans and machines through Natural Language (NL), resembling a conversation between two people. It is a current topic that has received a lot of attention in recent years. However, this type of application presents a behavior that is sometimes unpredictable, as different users can request the same set of actions in different ways and the application can return something different to each of the users. This makes the software testing activity somewhat complex, since it is not simple to define the test oracle. The test oracle is the process that verifies the test result, judging the response of the application, program or function as correct or incorrect through specification and planning. In this scenario, an appropriate testing technique to deal with the oracle problem is Metamorphic Testing (MT). This technique was proposed as a solution to minimize the oracle definition problem, since the application response verification process is performed by the definition of Metamorphic Relations (MRs), elements that assume the role of the oracle. Metamorphic relationships are properties of the test object application that define the behavior that the application must maintain when submitted to a given test case. However, despite Metamorphic Testing being a well-established technique to deal with the problem of the lack of a test oracle, it is still little explored in the context of chatbots. Thus, the objective of this work was to investigate the applicability and effectiveness of the MT technique in a chatbot application developed by a public company. Therefore, it was necessary to develop a tool to automate the test process by applying the MT concepts. For the evaluation of the technique we selected 22 Source Test Cases (STCs) divided into 3 Intents and input this information into the automation tool to run the tests of the 20 Metamorphic Relations. Through the execution of the tool, it was possible to generate more than 4100 Follow-up Test Cases (FTCs), derived from the STCs. The verification took place in two test batteries using two versions of the same application with 3 months of development difference. With the application of the MT technique, it was observed that 25% of the FTCs revealed defects, representing more than 900 disapproved FTCs, per version tested.

7
  • EDILSON LOBO DE MEDEIROS JÚNIOR
  • PLATAFORMA PARA ELABORAÇÃO DO PLANO PLURIANUAL: PROPOSTA DE MODERNIZAÇÃO DE PROCESSO DE NEGÓCIO PARA O GOVERNO DO RN

  • Orientador : ANNA GISELLE CAMARA DANTAS RIBEIRO RODRIGUES
  • MEMBROS DA BANCA :
  • ANNA CLAUDIA DOS SANTOS NOBRE
  • ANNA GISELLE CAMARA DANTAS RIBEIRO RODRIGUES
  • GUSTAVO BEZERRA PAZ LEITAO
  • Data: 28/07/2022

  • Mostrar Resumo
  • O Plano Plurianual é o instrumento que define as prioridades do Governo para um período de quatro anos. Seu processo de elaboração envolve ações de dimensionamento estratégico de governo, análise de cenários, elaboração de programas temáticos, dimensionamento de metas, alocação de recursos financeiros e antecede a elaboração da Lei Orçamentária Anual. Embora a legislação vigente traga as definições do que deve constar nestas peças orçamentárias e exista literatura que oriente a elaboração de planos estratégicos e projetos, observa-se uma fragilidade no planejamento e execução do orçamento público estadual, que pode ser comprovada pelo baixo nível de alcance de metas exposto nos relatórios de avaliação anuais. Este trabalho traz um levantamento da situação atual do Processo de Elaboração do Plano Plurianual do Estado do Rio Grande do Norte, uma proposta de modernização deste processo de negócio e o protótipo de uma Plataforma de Elaboração do PPA para apoiar na execução de algumas atividades do referido processo, oferecendo um ambiente de monitoramento da elaboração de programas e contribuindo para a construção de planos mais eficientes.


  • Mostrar Abstract
  • The Multiannual Plan is the instrument that defines the Government's priorities for a four years period. Its elaboration process involves government dimensioning strategic actions, scenarios analysis, thematic programs elaboration, goals dimensioning, financial resources allocation and precedes the Annual Budget Law elaboration. Although the current legislation defines what should be included in these budget pieces and there is literature that guides the elaboration of strategic plans and projects, there is a weakness in the planning and execution of the state public budget, which can be proven by the low level of reach. of goals exposed in the annual evaluation reports. This work brings a survey of the Process of Elaboration of the Multiannual Plan of Rio Grande do Norte State current situation, a proposal of modernization of this business process and the prototype of a Platform of Elaboration of the MPA to support in the execution of some activities of the referred process, offering an environment for monitoring the design of programs and contributing to the construction of more efficient plans.

     

8
  • FÁBIO ARRUDA MAGALHÃES
  • Uma Proposta de Arquitetura para Gestão de Atas de Registro de Preços

  • Orientador : EIJI ADACHI MEDEIROS BARBOSA
  • MEMBROS DA BANCA :
  • AWDREN DE LIMA FONTAO
  • EIJI ADACHI MEDEIROS BARBOSA
  • EVERTON RANIELLY DE SOUSA CAVALCANTE
  • Data: 29/07/2022

  • Mostrar Resumo
  • Os processos de compras e contratações são essenciais para atender as necessidades de funcionamento de qualquer organização, viabilizando dessa forma, o alcance dos seus objetivos. Essa realidade também é comum a todos os órgãos integrantes da Administração Pública. Ao contrário da iniciativa privada, as compras e contratações públicas devem ser realizadas obrigatoriamente através de licitações, garantindo ampla divulgação e transparência de suas informações. Com o passar do tempo, a legislação brasileira que trata sobre esse tema recebeu vários aperfeiçoamentos. O pregão eletrônico e o Sistema de Registro de Preços (SRP), por exemplo, foram importantes instrumentos que contribuíram para a modernização desse importante processo. Os contratos de fornecimento (Atas de Registro de Preços) que têm origem nos pregões eletrônicos realizados por SRP requerem dos gestores públicos, um processo eficiente de gestão das informações, para que o orçamento público seja executado de maneira otimizada. Entretanto, algumas informações relativas a esse domínio, constantes no Sistema de Administração de Serviços Gerais (SIASG), estão dispersas em módulos distintos, favorecendo a utilização de controles paralelos, propensos a problemas como redundância e inconsistência nos dados. Sem um local confiável para consultar essas informações, a tomada de decisão dos gestores pode ficar comprometida. Embora a literatura sobre os temas e métodos abordados neste trabalho seja farta, não foi localizada solução para o problema. Nesta dissertação de mestrado, apresentamos a especificação, projeto e avaliação de uma arquitetura de software que tem como objetivo estruturar as informações essenciais à gestão de Atas de Registro de Preços, que visa contribuir com o processo de tomada de decisões relativos à aplicação de recursos orçamentários. A execução destas etapas teve como base um modelo de processo bastante experimentado pela indústria, com algumas adaptações. O Design Science Research (DSR) foi o método de pesquisa que orientou a concepção do artefato proposto. O resultado das avaliações mostra que futuras instâncias da arquitetura proposta tem potencial para resolver os problemas identificados.


  • Mostrar Abstract
  • The purchasing and contracting processes are essential to meet the operational needs of any organization, thus enabling it to reach its goals. This reality is also common to all the agencies that make up the Public Administration. Unlike the private sector, public purchasing and contracting must be carried out through competitive biddings, ensuring wide disclosure and transparency of information. Over the years, the Brazilian legislation dealing with this issue has been improved several times. The electronic auction and the Price Registration System (SRP), for example, were important instruments that contributed to the modernization of this important process. The supply contracts (Acts of Price Registry) that have their origin in the electronic bidding conducted by SRP require an efficient information management process from public managers, so that the public budget is executed optimally. However, some information related to this domain, contained in the System for the Administration of General Services (SIASG), are dispersed in different modules, favoring the use of parallel controls, prone to problems such as redundancy and inconsistency in the data. Without a trusted place to consult this information, managers' decision-making can be compromised. Although the literature on the themes and methods covered in this work is extensive, no solution to the problem was found. In this master dissertation, we present the specification, design, and evaluation of a software architecture that aims to structure the essential information for the management of price registration minutes, which aims to contribute to the decision-making process related to the application of budget resources. The execution of these steps was based on a process model widely experienced by the industry, with some adaptations. Design Science Research (DSR) was the research method that guided the conception of the proposed artifact. The results of the evaluations show that future instances of the proposed architecture have the potential to solve the problems identified.

9
  • RENAN DE SOUZA DOS SANTOS
  •  Geração Procedural de Puzzles para o Desenvolvimento de Jogos

  • Orientador : RUMMENIGGE RUDSON DANTAS
  • MEMBROS DA BANCA :
  • HELIDA SALLES SANTOS
  • RUMMENIGGE RUDSON DANTAS
  • SERGIO QUEIROZ DE MEDEIROS
  • Data: 29/07/2022

  • Mostrar Resumo
  • Jogos digitais do gênero puzzle são conhecidos por ter um baixo fator de replay. Uma maneira de aumentar o fator de replay de um jogo de puzzle é com o uso de Geração Procedural de Conteúdo (GPC). Este trabalho analisa diversos métodos de GPC e inteligência artificial, além de suas aplicações em diferentes tipos de jogos para identificar a melhor forma de criar uma solução de GPC voltada para jogos de puzzle. Um jogo de puzzle 2D do tipo path-building foi desenvolvido sem garantia de que todas as fases fossem solucionáveis. Um novo jogo será desenvolvido com uma proposta atualizada de GPC para resolver este problema e implementar boas práticas de puzzle game design para que as fases geradas sejam únicas, solucionáveis e engajantes.


  • Mostrar Abstract
  • Puzzle games are known for having a low replay factor. One way to increase the replay factor of a puzzle game is to use Procedural Content Generation (PCG). This research analyzes several PCG and artificial intelligence methods, and its applications in different types of video games to identify the best way to create a PCG solution for puzzle games. A 2D path-building puzzle game was developed without guaranteeing the solvability of all levels. A new game will be developed with an new approach in PCG to resolve this problem and apply good practices in puzzle game design in a way that generated puzzles are unique, solvable and engaging.

10
  • WALTER LOPES NETO
  • DC Health: detecção de anomalias online em datacenters

  • Orientador : ITAMIR DE MORAIS BARROCA FILHO
  • MEMBROS DA BANCA :
  • ADRIAO DUARTE DORIA NETO
  • ANDRÉ GUSTAVO DUARTE DE ALMEIDA
  • GUSTAVO GIRAO BARRETO DA SILVA
  • ITAMIR DE MORAIS BARROCA FILHO
  • ROGER KREUTZ IMMICH
  • Data: 30/08/2022

  • Mostrar Resumo
  • Datacenters são ambientes críticos para a disponibilidade de serviços baseados em tecnologia. Visando a alta disponibilidade desses serviços, métricas de performance dos nós, como Máquinas Virtuais (VM) ou clusters de VMs são amplamente monitoradas. Essas métricas, como nível de utilização de CPU e memória, podem apresentar padrões anômalos associados a falhas e a degradação de desempenho, culminando na exaustão de recursos e na falha total do nó. O campo de detecção precoce de anomalias, isto é, de padrões em dados com comportamento diferente do esperado, pode possibilitar medidas de remediação, como migração de VMs e realocação de recursos, antes que perdas ocorram. Contudo, ferramentas de monitoramento tradicionais geralmente usam limites fixos para a detecção de problemas nos nós e carecem de maneiras automáticas para detectar anomalias em tempo de execução. Neste sentido, técnicas de aprendizado de máquina têm sido reportadas para detectar anomalias em sistemas computacionais com abordagens online e offline. Este trabalho propõe a aplicação denominada DC Health, como uma abordagem para antecipar a detecção online de anomalias em nós de datacenters. O objetivo do DC Health é detectar anomalias no comportamento de hosts e alertar aos operadores do datacenter, de forma que medidas de investigação e remediação possam ser tomadas. Para isso, esta pesquisa foi conduzida a partir de um i) Mapeamento Sistemático de Literatura, da ii) modelagem do problema a partir de dados reais de VMs e da iii) avaliação do DC Health usando o método prequential em 6 datasets do mundo real. Os resultados demonstraram que o DC Health se destacou no uso de memória constante e na acurácia de detecção acima de 75%. Como trabalhos futuros espera-se principalmente avaliar a ferramenta de detecção em cenários de computação em nuvem e desenvolver mecanismos automatizados de diagnóstico e remediação. 



  • Mostrar Abstract
  • Datacenters are critical environments for the availability of technology-based services. Aiming at the high availability of these services, performance metrics of nodes such as Virtual Machines (VM) or VM clusters are widely monitored. These metrics, such as CPU and memory utilization, can show anomalous patterns associated with failures and performance degradation, culminating in resource exhaustion and total node failure. The field of early detection of anomalies, that is, patterns in data with different behavior than expected, can enable remediation measures, such as VM migration and resource reallocation before losses occur. However, traditional monitoring tools often use fixed thresholds for detecting problems on nodes and lack automatic ways to detect anomalies at runtime. In this sense, machine learning techniques have been reported to detect anomalies in computer systems with online and offline approaches. This work proposes the application called DC Health, as an approach to anticipate the online detection of anomalies in datacenter nodes. The purpose of DC Health is to detect anomalies in the behavior of hosts and alert datacenter operators so that investigation and remediation measures can be taken. For this, this research was conducted from i) Systematic Literature Mapping, ii) problem modeling from real VM data and iii) DC Health evaluation using the prequential method in 6 real-world datasets. The results showed that DC Health excelled in constant memory usage and detection accuracy above 75%. As future work, it is mainly expected to evaluate the detection tool in cloud computing scenarios and develop automated mechanisms for diagnosis and remediation.

11
  • LUIZ DE FRANÇA AFONSO FERREIRA FILHO
  • SCAD - Uma proposta para o Design de Avaliações Centradas em Habilidades

  • Orientador : CHARLES ANDRYE GALVAO MADEIRA
  • MEMBROS DA BANCA :
  • CHARLES ANDRYE GALVAO MADEIRA
  • ANDRE MAURICIO CUNHA CAMPOS
  • DANIEL SABINO AMORIM DE ARAUJO
  • MÁRIO JORGE FERREIRA RODRIGUES
  • Data: 31/08/2022

  • Mostrar Resumo
  • A inteligência computacional vem revolucionando a forma como diversas atividades humanas ocorrem. No campo da educação, um ramo promissor refere-se à educação adaptativa. Este modelo utiliza sistemas computacionais para orquestrar a interação com os educandos e fornecer recursos e atividades de aprendizagem personalizadas que vizam atender as demandas singulares de cada indivíduo. Inspirado na Teoria de Espaço de Conhecimento (KST) e no Design Centrado em Evidências (ECD), este trabalho apresenta uma nova abordagem de educação adaptativa baseada em competências. A proposta consiste em um framework para a criação de avaliações centradas em habilidades, um método para personalização dessas atividades e um sistema computacional que embarca o framework e o método proposto para promover educação adaptativa centrada no desenvolvimento de competências. Ao final, sugerimos uma análise qualitativa para avaliar os benefícios do sistema e se o seu retorno é mais indicativo que uma abordagem tradicional.


  • Mostrar Abstract
  • Computational intelligence has revolutionized the way many human activities take place. In the field of education, a promising branch concerns adaptive education. This model uses computer systems to orchestrate the interaction with students and provide resources and personalized learning activities that aim to meet the unique demands of each individual. Inspired by the Knowledge Space Theory (KST) and Evidence-Centered Design (ECD), this work presents a new approach to competence-based adaptive education. The proposal consists of a framework for creating skills-centered assessments, a method for tailoring these activities, and a computational system that embeds the framework and the proposed method to promote adaptive education centered on skills development. At the end, we suggest a qualitative analysis to assess the benefits of the system and whether its return is more indicative than a traditional approach.

2021
Dissertações
1
  • CARLOS ANTONIO RAMÍREZ BELTRÁN
  • Portabilidade de Modelos através de Transferência de Conhecimento para predição do rendimento de alunos de graduação

  • Orientador : JOAO CARLOS XAVIER JUNIOR
  • MEMBROS DA BANCA :
  • JOAO CARLOS XAVIER JUNIOR
  • DANIEL SABINO AMORIM DE ARAUJO
  • ADJA FERREIRA DE ANDRADE
  • MARCELO DAMASCENO DE MELO
  • Data: 24/03/2021

  • Mostrar Resumo
  • Um dos grandes desafios da educação, nos últimos anos, tem sido prever o desempenho dos alunos de forma certa e confiável, a fim de aplicar diversas estratégias para melhorar as suas deficiências acadêmicas. Desse modo, existem muitos trabalhos e pesquisas centrados em encontrar, de forma individual, modelos de Aprendizado de Máquina (AM), mas poucos utilizam-se do conhecimento adquirido de um curso ou disciplina para prever os resultados de outra. Dessa forma, o principal objetivo deste trabalho é buscar a portabilidade de modelos através da Transferência de Conhecimento, para poder prever o rendimento de alunos de graduação, o que será feito baseando-se nos registros do Moodle extraídos de 35 disciplinas. Através da metodologia experimental aplicada, serão avaliados cada um dos dois tipos de agrupamentos formados pelas disciplinas: os formados de acordo com o curso de graduação e os de acordo com as atividades usadas no Moodle. A extração
    dos dados de cada agrupamento será realizada a partir dos registros do Moodle, utilizando os seguintes métodos de avaliação: validação cruzada e hold-out. Com isso, será possível saber se essas avaliações, todas executadas sobre os modelos preditivos com o algoritmo J48, tendem a mostrar resultados diferentes em relação à portabilidade de modelos de previsão. Para avaliação, foram desenvolvidos dois cenários para execução de experimentos, de modo que cada experimento é constituído por duas partes: a escolha dos modelos,
    utilizando o índice AUC ROC para o Experimento 1, e o F-Measure para o Experimento 2; e a validação dos modelos, utilizando o índice Precision, para o Experimento 1, e o Recall para Experimento 2. Os resultados, mesmo em fase avaliativa, permitem afirmar que é possível aplicar a transferência de conhecimento entre modelos de um mesmo grupo em alguns casos.


  • Mostrar Abstract
  • In recent years, one of the major challenges in education has been to predict students’ performance in a certain and reliable way in order to apply different strategies toimprove their academic deficiencies. In this way, there are many works focused on finding Machine Learning (ML) models individually, but few use the knowledge acquired from student data of a course degree to predict the students’ outcome of other curses’s degree. Therefore, the main goal of this work is to analise the portability of ML models by using Transfer Learning (TL) in students’ logs extracted form the Moodle system, aiming to predict undergraduate students performance in different courses. Through the applied experimental methodology, each of the two types of groupings formed by the disciplines
    will be evaluated: those formed according to the undergraduate course and those according to the activities used in Moodle. The data extraction of each group will be performed from the Moodle logs, using the following evaluation methods: cross-validation and hold-out. With this, it will be possible to know whether these evaluations, all performed on the predictive models with the J48 algorithm, tend to show different results in relation to the portability of forecasting models. For evaluation, two scenarios were developed for the execution of experiments, so that each experiment consists of two parts: the choice of models, using the AUC ROC index for Experiment 1 and the F-Measure for Experiment 2; and the validation of the models, using the Precision index for Experiment 1 and the Recall for Experiment 2. The results, even in the evaluation phase, allow us to affirm that it is possible to apply transfer learning between models of the same group in some cases.

2
  • FERNANDO DA CRUZ LOPES
  • OpenData Manager: Uma ferramenta para gerenciar o processo de criação e monitoramento do Plano de Dados Abertos

  • Orientador : FREDERICO ARAUJO DA SILVA LOPES
  • MEMBROS DA BANCA :
  • FREDERICO ARAUJO DA SILVA LOPES
  • ITAMIR DE MORAIS BARROCA FILHO
  • ANDRÉ GUSTAVO DUARTE DE ALMEIDA
  • FELLIPE ARAÚJO ALEIXO
  • Data: 30/03/2021

  • Mostrar Resumo
  • O acesso a informações públicas vem se mostrado de grande importância no estreitamento
    da relação sociedade e governo, possibilitando à sociedade uma maior interatividade nas
    ações públicas. O desenvolvimento de sistemas que utilizam esse tipo de informação a
    favor do bom uso dos recursos públicos é um dos vários exemplos que podemos utilizar
    para mostrar como é importante o acesso a esses dados. A partir do Decreto no 8.777 que
    regulamentou a abertura dos dados públicos do Poder Executivo Federal, vários órgãos e
    entidades iniciaram suas atividades para disponibilizar seus dados. Todos os passos para
    a abertura desses dados são especificados no manual de implementação, da Política de
    Dados Abertos disponibilizado pela Controladoria Geral da União (CGU). Um dos passos
    para abertura dos dados é a escrita de todas as ações realizadas até a catalogação dos
    dados nas plataformas de dados abertos. O documento em que são registradas essas ações
    é chamado de Plano de Dados Abertos, ou PDA. A CGU considera que um órgão público
    tem seus dados abertos apenas quando o seu PDA é publicado seguindo a vários critérios
    de organização e qualidade. Atualmente, a CGU mantém um painel de monitoramento de
    dados abertos, onde é possível verificar quais entidades públicas tem seus dados
    disponibilizados seguindo esses critérios. Ao realizar uma consulta a esse painel,
    percebemos que menos da metade dos órgãos públicos tem um PDA publicado, onde, dos
    223 órgãos do Poder Executivo Federal, apenas 84 tem um PDA em execução. Dos PDAs
    em execução, grande parte não disponibilizam um sistema de monitoramento das ações e
    metas definidas ao longo de sua elaboração, pois foram escritos em formato de texto
    simples, sem automatização alguma no processo de monitoramento, como a própria CGU
    sugere. Para resolver o problema de elaborar um Plano de Dados Abertos seguindo as
    recomendações da CGU de qualidade e monitoramento durante e posteriormente a
    elaboração do PDA, este trabalho tem por objetivo o desenvolvimento de uma aplicação
    que irá abarcar todos os passos descritos no manual de desenvolvimento de um PDA,
    assim como irá monitorar todas as ações que precisam ser realizadas durante e depois da
    catalogação dos dados abertos. A validação da aplicação será feita reescrevendo alguns
    PDA e verificando se os requisitos implementados são satisfatórios.


  • Mostrar Abstract
  • O acesso a informações públicas vem se mostrado de grande importância no estreitamento da relação sociedade e governo, possibilitando à sociedade uma maior interatividade nas ações públicas. O desenvolvimento de sistemas que utilizam essa informação a favor do bom uso dos recursos públicos é um dos vários exemplos que podemos utilizar para mostrar como é importante o acesso a esses dados. A partir do Decreto nº 8.777 que regulamentou a abertura dos dados públicos do Poder Executivo Federal, vários órgãos e entidades iniciaram suas atividades para disponibilizar seus dados. Todos os passos para a abertura desses dados são especificados no manual de   implementação da Política de Dados Abertos disponibilizado pela Controladoria Geral da União (CGU). Um dos passos para abertura dos dados é a escrita de todas as ações realizadas até a catalogação dos dados nas plataformas de dados abertos. O documento em que é registradas essas ações é chamado de Plano de Dados Abertos, ou PDA. A CGU considera que um órgão público tem seus dados abertos apenas quando o seu PDA é publicado seguindo a vários critérios de organização e qualidade. Atualmente, a CGU mantém um painel de monitoramento de dados abertos, onde é possível verificar quais entidades públicas tem seus dados disponibilizados seguindo esses critérios. Ao realizar uma consulta a esse painel, percebemos que menos da metade dos órgãos públicos tem um PDA publicado, onde, dos 221 órgãos do Poder Executivo Federal, apenas 67 tem um PDA em execução. Dos PDAs em execução, grande parte não disponibilizam um sistema de monitoramento das ações e metas definidas ao longo de sua elaboração, pois foram escritos em formato de texto simples, sem automatização alguma no processo de monitoramento, como a própria CGU sugere. Para resolver o problema de elaboração do Plano de Dados Abertos seguindo as recomendações da CGU de qualidade e o monitoramento durante e posteriormente a elaboração do PDA, neste trabalho será desenvolvida uma aplicação que irá abarcar todos os passos descritos nos manuais de desenvolvimento de um PDA, assim como irão monitorar todas as ações que precisam ser realizadas durante e depois da catalogação dos dados abertos. Para testar a aplicação, vamos usar informação do IFRN para reescrever seu PDA nos moldes exigidos pela CGU.

3
  • LEANDRO SILVA MONTEIRO DE OLIVEIRA
  • MPRN em Dados: desenvolvimento de uma plataforma de organização de dados internos e externos ao Ministério Público do Rio Grande do Norte

  • Orientador : FREDERICO ARAUJO DA SILVA LOPES
  • MEMBROS DA BANCA :
  • FREDERICO ARAUJO DA SILVA LOPES
  • EIJI ADACHI MEDEIROS BARBOSA
  • NELIO ALESSANDRO AZEVEDO CACHO
  • ANDRÉ GUSTAVO DUARTE DE ALMEIDA
  • Data: 31/03/2021

  • Mostrar Resumo
  • Este trabalho foi idealizado a partir de experiências no Ministério Público do Rio Grande do Norte (MPRN) quanto a criação de uma plataforma para organizar produtos de dados abertos e fechados do MPRN. Desta forma, primeiramente foi realizado um mapeamento sistemático da literatura, com o intuito de buscar as melhores práticas relacionadas à publicação de dados, bem como processos ou metodologias já existentes, tais como outras iniciativas desenvolvidas por outros Ministérios Públicos. Os resultados foram, então, analisados. Após fazer a análise, verificou-se que existe a necessidade de melhoramento do processos de compartilhamento de dados por parte do Ministério Público. Sendo assim, estamos desenvolvendo um novo processo para apoiar o compartilhamento de dados abertos e fechados através da plataforma MPRN em Dados. Após isso, serão realizados alguns estudos de casos com o intuito de verificar a utilidade do processo proposto, bem como identificar as dificuldades enfrentadas, avaliando sua eficiência geral e se realmente ele pode contribuir para melhorar a produtividade dentro do Ministério Público do RN.


  • Mostrar Abstract
  • This work was conceived from experiences in the Public Ministry of Rio Grande do Norte (MPRN) regarding the creation of a platform to organize products open and closed MPRN data. Thus, firstly, a systematic mapping of the literature, in order to seek the best practices related to data publication, as well as existing processes or  methodologies, such as other initiatives developed by other Public Ministries. The results were then analyzed.
    After doing the analysis, it was found that there is a need to improvement of data sharing processes by the Public Ministry. Therefore, we are developing a new process to support sharing open and closed data through the MPRN platform in Data. After that, some case studies were carried out in order to verify the usefulness of the process proposed, as well as to identify the difficulties faced, evaluating its general efficiency and if it can really contribute to improving productivity within the Ministry Public of RN.

4
  • ADRIANO MAGNO GOMES REGINALDO
  • IFC WEB - Consumindo dados de arquivos IFC-SPF em aplicações Web

  • Orientador : SERGIO QUEIROZ DE MEDEIROS
  • MEMBROS DA BANCA :
  • FREDERICO ARAUJO DA SILVA LOPES
  • REYMARD SAVIO SAMPAIO DE MELO
  • SERGIO QUEIROZ DE MEDEIROS
  • Data: 18/06/2021

  • Mostrar Resumo
  • Para que uma obra saia como planejado, é preciso que haja uma boa gestão de obras. O sistema Obrasnet ajuda a ter essa boa , promovendo um gerenciamento financeiro com integrações aos processos da execução de obra, mas podemos melhorar ainda mais levando novas tecnologias ao software. A indústria da arquitetura, engenharia e construção (AEC), está evoluindo muito rápido nos últimos tempos e o BIM (Building Information Modeling) foi adotado como uma técnica eficaz para gerenciamento de projetos de construção civil. Apesar da importância da aplicação do BIM em projetos de construção, parece haver poucos usos em sistemas de gestão de obras, consequentemente enfrentamos dificuldade de implementação dessa tecnologia que nos traz muitas vantagens. O objetivo deste trabalho é apresentar um estudo, usando o método de pesquisa Design Science Research e chegar em um artefato relevante de fácil acesso à tecnologia BIM que poderá ser incluída no sistema Obrasnet. Foram necessários três ciclos de pesquisas, desenvolvimento e avaliações do artefato para chegar em um resultado satisfatório. O artefato final criado se trata de um sistema web que poderá ler o arquivo de interoperabilidade BIM (IFC) e mostrar em um simples navegador web padrão todas as informações e status atual da obra. Projetamos uma implementação desse sistema no Obrasnet, através de diagramas, onde futuramente poderá ser comercializado juntos.


  • Mostrar Abstract
  • The building information models (BIM) have been growing to play a significant role during the entire life cycle of an enterprise in civil construction, generating a large number of data and information as digital representations of the physical and functional characteristics of a building, ie , involving all project information, including construction, maintenance and even demolition.
     
    BIM is already a reality and its future tends to be improved with the insertion of new technologies generating high frequency all over the world. In countries such as the United Kingdom, the Netherlands, Denmark, Finland, Norway and the USA already require the use of BIM in projects funded by the government. In Brazil, a new Decree, No. 9,983, entered into force on August 22, 2019, which provides for the National BIM Dissemination Strategy and establishes the BIM Strategy Management Committee (CG BIM).
     
    The communication of this data by the various participants is complex. These BIM models can be shared in file formats specific to each BIM modeling software or in a neutral format (Industry Foundation Classes - IFC). Developed by buildingSMART, IFC aims to allow data exchange, regardless of the software or manufacturers chosen by each designer. However, several participants in the construction of an enterprise, generally do not have technical knowledge to use this software and still want to have access to the project data. In order to bring inclusion of all participants in a work to the projected data, we developed a research to facilitate the exchange of BIM information, through the extraction of data from the IFC file and provided through routes of a Restfull API. We believe in the democratization of BIM, and making it somehow more accessible, starting with uncomplicated access to information, is our main desire.
     
    This research begins with a more elaborate review on the collaboration of this research, motivations, objectives and concepts involving BIM and interoperability with Industry Foundation Classes (IFC). Then we address the related works and the differentials that this research solved. In the third chapter we discuss the development of the parser in TypeScript and present the grammar for the IFC format. In the fourth chapter we will discuss about structuring the Restfull API in nodeJs. In the fifth chapter, we model a project in the Revit application in IFC format and show the results of the tests performed. Finally, we will discuss the steps taken and what the next steps will be.

5
  • CARLOS EDUARDO MORAIS VIEIRA
  • Avaliando o irace para aprendizado de máquina automatizado e profundo em visão computacional

  • Orientador : LEONARDO CESAR TEONACIO BEZERRA
  • MEMBROS DA BANCA :
  • LESLIE PÉREZ CÁCERES
  • JOAQUIN VANSCHOREN
  • DANIEL SABINO AMORIM DE ARAUJO
  • LEONARDO CESAR TEONACIO BEZERRA
  • Data: 29/06/2021

  • Mostrar Resumo
  • Aprendizado de máquina automatizado (AutoML) é um campo de grande interesse tanto à indústria quanto à academia. AutoML tem permitido que desenvolvedores trabalhando em aplicações de aprendizado de máquina (AM) alcançem resultados satisfatórios, mesmo com pouca ou nenhuma experiência em AM. Mais recentemente, ferramentas de AutoML focadas em modelos de aprendizado profundo (AP) têm sido especialmente úteis para aplicações onde algorítmos específicos de domínio são predominantes, como é o caso para tarefas de visão computacional (VC). Ainda assim, ferramentas de AutoML focadas em pipelines de AM mais simples continuam sendo uma alternativa importante, já que modelos de AP exigem grandes quantidades de recursos computacionais e oferecem modelos com interpretabilidade reduzida. Entre as principais abordagens de AutoML, a baseada em configuradores de algoritmos (CAs) é comumente usada para produzir pipelines mais simples, enquanto busca de redes neurais (BRN) é usada para produzir modelos de AP. Essas duas abordagens também têm certa interseção, já que um CA também pode ser usado como algoritmo de BRN.

    Nesse trabalho, estudamos a aplicação do CA irace nessas duas abordagens distintas de AutoML. O configurador irace já foi aplicado com sucesso para design de algoritmos efetivos em problemas de configuração, mas ainda não foi aplicado a AutoML. Nosso avaliação é realizada em duas fases. Na primeira, propomos uma ferramenta de AutoML baseada no irace para produção de pipelines de AM simples e efetivos. Essa ferramente é chamada de iSklearn, para a qual definimos um espaço e setup de configuração. Demonstramos que iSklearn é capaz de produzir pipelines de AM efetivos usando irace como seu CA, com performance comparável a comitês mais complexos produzidas pelo AutoSklearn, uma ferramenta popular de AutoML baseado em configuração. Além disso, apresentamos os benefícios do espaço e setup de configuração propostos para o iSklearn, mesmo quando usadas em conjunto com outro CA.

    Na segunda fase do nosso trabalho, avaliamos irace como um algoritmo de BRN. Para isso, avaliamos irace no NAS-Bench-101, um benchmark recente de BRN para o conjunto de dados de VC chamado CIFAR-10. Nós comparamos irace não só da perspectiva de qualidade final de solução, mas também da perspectiva de anytime performance através de uma formulação bi-objetiva. Resultados demonstram que irace pode ser usado como um algoritmo de BRN, obtendo resultados comparáveis aos melhores algorithmos incluídos no NAS-Bench-101 em termos de qualidade final. Porém, maiores trabalhos seriam necessários para melhorar sua anytime performance nesse contexto. Finalmente, discutimos outra escolhas de design experimental feitas no benchmark original, mostrando como elas afetam a performance relativa dos algoritmos de BRN, and oferecemos diretrizes para melhoria da análise de algoritmos de BRN através do uso do NAS-Bench-101.


  • Mostrar Abstract
  • Automated machine learning (AutoML) is a field of great interest to both industry and academia. AutoML has allowed developers working on machine learning (ML) applications to achieve satisfactory results with little to no ML expertise. More recently, AutoML tools focused on deep learning (DL) models have proven especially useful to applications where domain-specific algorithms are predominant, as in computer vision (CV) tasks. Still, AutoML tools focused on simpler ML pipelines remain an important alternative, since DL models have high computational resource requirements and offer reduced model interpretability.
    Among the main AutoML approaches, AutoML based on an algorithm configurator (AC) is commonly used to produce simpler pipelines, whereas neural architecture search (NAS) is used to produce deep learning models. These two approaches also intersect, since an AC can be used as a NAS algorithm.

    In this work, we study the application of the irace AC to both these AutoML methods. The irace configurator has been successfully applied to design effective algorithms for optimization problems, but it has not yet been applied to AutoML. Our assessment is performed in two stages. First, we propose an irace-based AutoML tool to produce simple and effective ML pipelines. The tool is dubbed iSklearn, for which we define a configuration space and setup. We demonstrate that iSklearn is able to produce effective ML pipelines using irace as its AC, with comparable performance to more complex ensembles produced by AutoSklearn, an established configuration-based AutoML tool. Moreover, we show the benefits of the configuration space and setup proposed for iSklearn, even when coupled with another AC. In the second part of our work, we assess irace as a NAS algorithm. To do so, we evaluate irace on NAS-Bench-101, a recent NAS benchmark for the CIFAR-10 CV dataset. We benchmark irace not only as to final-quality assessment, but also as to anytime performance through a bi-objective formulation. Results demonstrate that  irace can be used a NAS algorithm, obtaining comparable results to the best NAS algorithms included in NAS-Bench-101 in terms of final quality. However, further work is required to improve its anytime performance in this context. Finally, we discuss other design choices made in the original benchmark, showing how they affect the relative performance of NAS algorithms, and provide guidelines for improving the assessment of NAS algorithms through the use of NAS-Bench-101.

6
  • ANDRÉ VIEIRA DOS SANTOS
  • C0NTR0LL: Sistema de Reconhecimento de Gestos e Gerenciamento de Ações em Jogos Digitais

  • Orientador : RUMMENIGGE RUDSON DANTAS
  • MEMBROS DA BANCA :
  • ANNA GISELLE CAMARA DANTAS RIBEIRO RODRIGUES
  • RUMMENIGGE RUDSON DANTAS
  • SAMUEL OLIVEIRA DE AZEVEDO
  • Data: 29/07/2021

  • Mostrar Resumo
  • Em jogos digitais, o controle é o elemento que integra o jogador ao mundo virtual.
    Com o surgimento dos recentes dispositivos de entrada, tornou-se possível capturar gestos
    da pose humana através de sensores, possibilitando uma nova forma de interação entre
    homem-máquina. A aplicação de técnicas de aprendizado de máquina no contexto de
    captura da pose humana tem se destacado e vem sendo abordada em diversas áreas. As
    técnicas e os dispositivos de reconhecimento de pose têm demonstrado ser um grande
    artificio quando usados em simulação no âmbito da reabilitação. No entanto, muitos
    desses dispositivos possuem suas limitações que, geralmente, não se adéquam ao perfil
    da saúde, tornando muitas vezes inviável a sua utilização no contexto da reabilitação.
    Com base nesse contexto, este trabalho apresenta o designe e a implementação de um
    sistema que visa proporcionar aos jogadores e profissionais da saúde a possibilidade de
    gerenciar movimentos em jogos através de uma experiência de gestos corporais completa,
    permitindo que esses jogos possam se adequar aos objetivos esperados por cada perfil de
    usuário. Os resultados desta pesquisa contribuem para as inovações futuras, nos campos
    teórico e prático, promovendo o desenvolvimento de jogos digitais sérios com diferentes
    objetivos. Diante dos resultados apresentados, considera-se que o C0NTR0LL apresentou
    resultados potencialmente eficazes.



  • Mostrar Abstract
  • In digital games, control is the element that integrates the player into the virtual world. With the emergence of recent input devices, it has become possible to capture human pose gestures through sensors, allowing a new form of interaction between manmachine. The application of machine learning techniques in the context of human pose
    capture is highlighted and has been addressed in several areas. Pose recognition techniques
    and devices have demonstrated great artifice when used in simulation in rehabilitation.
    However, many of these devices have their limitations, which normally do not include the
    health profile, often making their use in the context of rehabilitation unfeasible. Based
    on this context, this work presents or creates a system that allows players and health
    professionals the possibility to manage movements in games using a complete corporate
    gesture experience, allowing these games to be adapted to the objectives expected by each
    user profile. The results of this research contribute to future innovations, in the theoretical
    and practical fields, promoting the development of serious digital games with different
    objectives. In view of the results presented, consider whether C0NTR0LL shows the results
    potentially used.


7
  • WELLERSON VIANA DE OLIVEIRA
  • Um estudo de caso em segmentação de clientes de uma rede de supermercados

  • Orientador : LEONARDO CESAR TEONACIO BEZERRA
  • MEMBROS DA BANCA :
  • DANIEL SABINO AMORIM DE ARAUJO
  • LEONARDO CESAR TEONACIO BEZERRA
  • MARCUS ALEXANDRE NUNES
  • THAIS GAUDENCIO DO REGO
  • Data: 06/12/2021

  • Mostrar Resumo
  • Para obter vantagens competitivas, empresas de todos os segmentos estão investindo no seu relacionamento com seus clientes. No segmento de supermercados isso não é diferente. Investimentos em gestão do relacionamento com o cliente (CRM, do inglês customer relationship management) vem crescendo nos últimos anos. Para uma estratégia de CRM bem sucedida, o primeiro passo é conhecer melhor o cliente e, para esse fim, estratégias de segmentação de clientes são muito importantes.
    Nesse trabalho nós segmentamos clientes da rede Nordestão, a terceira maior rede supermercadista no Nordeste do Brasil. Para isso, nós adaptamos o bastante conhecido modelo recency-frequency-monetary (RFM) introduzindo novas variáveis e usamos o algoritmo de modelo de mistura de Gaussianas (GMM, do inglês Gaussian mixture model)  para clusterizar os dados. Além disso, nós utilizamos uma segmentação a priori proposta na literatura por um outro grande varejista brasileiro. Para cada segmento criado, nós obtemos alguns clusters para cada uma das nove lojas da rede, com cada grupo representando um perfil de cliente. Entre os perfis encontrados, podemos citar os clientes Prime e os clientes Oportunidade. Os primeiros são clientes que buscam produtos de maior valor agregado, enquanto o segundo grupo representa os clientes que buscam produtos com preços promocionais. Nós encontramos uma grande similaridade entre os perfis de cada loja, variando entre si apenas pelas características específicas de cada loja. Nós concluímos nosso trabalho com uma validação algorítmica dos resultados e uma análise de interpretabilidade dos clusters obtidos.


  • Mostrar Abstract
  • In order to obtain commercial advantages over competitors, companies in all segments are improving their relationship with customers. The supermarket segment is no different and investments in customer relationship management (CRM) are increasing over the last years. The first step towards a successful CRM strategy is to know customers better, for which customer segmentation plays an important role.
    In this work, we segment customers from Nordestão, the third largest supermarket chain in the Northeast of Brazil. To do so, we adapt the recency-frequency-monetary model, enrich it with new features, and use Gaussian mixture models to clusterize the data. Furthermore, we employ a well-established a priori segmentation from the Brazilian supermarket literature. For each a priori segment, customer groups were obtained for each retail store, with each group representing a different customer profile. Among the most interesting are prime and opportunity customers, who respectively focus on high-end and on sale products. Importantly, most of the behaviours are consistent across the different stores, varying only as to store-specific parameters. We conclude our work with a further algorithmic validation and interpretabilityanalysis of our findings.

8
  • FERNANDA MONTEIRO DE ALMEIDA
  • Previsão de vendas em uma rede de supermercados em Natal, Brasil: uma avaliação empírica

  • Orientador : LEONARDO CESAR TEONACIO BEZERRA
  • MEMBROS DA BANCA :
  • ALLAN DE MEDEIROS MARTINS
  • DANIEL SABINO AMORIM DE ARAUJO
  • LEONARDO CESAR TEONACIO BEZERRA
  • MARCUS ALEXANDRE NUNES
  • THAIS GAUDENCIO DO REGO
  • Data: 20/12/2021

  • Mostrar Resumo
  • Previsão de séries temporais é uma abordagem ampla e consolidada em diversas áreas, tais como finanças e indústria. O varejo  pode se beneficiar da previsão em muitos setores, como na demanda de estoque, na otimização de preço e de vendas. Este  estudo a aborda previsão de vendas no Nordestão, uma rede de supermercados em Natal, Brasil. Apesar de estar localizado em um estado com o produto interno bruto (PIB) baixo, o Nordestão fica em 3º e 27º lugar em vendas regionais e nacionais,  respectivamente. Os dados considerados abrangem cinco anos de transações de vendas diárias de oito lojas diferentes. Diferentes técnicas de aprendizado de máquina conhecidas por sua efetividade para previsão são adotadas, a saber random forests e XGBoost. Melhoras nos desempenhos das técnicas são feitas com engenharia de atributos para lidar com os efeitos sazonais. O melhor algoritmo varia por loja, mas para a maioria das lojas pelo menos um dos métodos se prova efetivo. Apesar de serem modelos que levam em conta dados diários, o melhor modelo alcança um R2 score acima de 90% para uma previsão de 7 dias. Além da relevância tradicional da previsão de vendas, o presente trabalho é um meio para o Nordestão avaliar o impacto da pandemia do COVID-19 em seus negócios.


  • Mostrar Abstract
  • Time series forecasting is a consolidated, broadly used approach in several fields, including financing and industry. Retail can also benefit from forecasting in many areas, such as stock demand, and price and sales optimization. This study addresses retail sales forecasting in Nordestão, a large Brazilian supermarket chain. Though located in a state with a low gross domestic product (GDP), Nordestão respectively ranks 3rd and 27th in regional and national sales. The data considered here spans five years of daily transactions from eight different stores. Different machine learning techniques, knowingly effective for forecasting, are adopted, namely random forests and XGBoost. We further improve their performance with feature engineering to address seasonal effects.The best algorithm varies per store, but for most stores at least one of the methods is proven to be effective. Though we model transactions daily, the best models achieve above 90% R2 scores for 7-day forecasts. Besides the traditional relevance of sales forecasting, our work is a means for Nordestão to evaluate the impact of the COVID-19 pandemic on sales.

2020
Dissertações
1
  • DEYVISSON CARLOS BORGES DE MELO
  • Definição e Detecção de Design Smells em Aplicações de Processamento em Lote Utilizando Spring Batch Framework

  • Orientador : EIJI ADACHI MEDEIROS BARBOSA
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • UIRA KULESZA
  • BALDOINO FONSECA DOS SANTOS NETO
  • Data: 31/08/2020

  • Mostrar Resumo
  • Para atender as constantes mudanças de requisitos e necessidades de novas funcionalidades, os sistemas de software permanecem sempre em um estado de constante evolução. O controle do processo de evolução e manutenção de um software é crucial e uma das fases mais complicadas do desenvolvimento de software. Se esse controle não for gerenciado, os sistemas correm o risco de degradação de importantes atributos de qualidade que consequentemente afetam diretamente o grau de manutenibilidade das aplicações. Fatores como inexperiência, falta de conhecimento e pressões em relação ao tempo de conclusão de tarefas levam a adoção de más práticas de design de software e são a origem dos Design Smells. Para se obter um melhor controle do processo de evolução e manutenção de um software, é importante saber identificar a ocorrência de Design Smells nos projetos, e novos estudos indicam que a utilização de informações específicas do contexto da aplicação, como a natureza dos programas ou papeis arquiteturais utilizados, podem influenciar no processo de detecção e na identificação de problemas que só existem no contexto estudado. Este trabalho realiza um estudo para a definição e identificação de Design Smells específicos ao contexto das aplicações de processamento em lotes, e propõe a definição de um catálogo de 7 Design Smells e a implementação de uma ferramenta para automatizar o processo de detecção. A ferramenta implementada foi utilizada em um estudo de caso em que os códigos de 40 sistemas foram analisados. Nesse estudo, observou-se que os smells específicos ao contexto das aplicações de processamento em lotes afetaram quase 20% das classes e mais que 30% das linhas de código dos sistemas analisados. Também foi possível observar, por meio da aplicação da ferramente em várias versões de dois sistemas, que o número de smells se manteve constante ao longo das versões, e em alguns casos até cresceu. O que pode evidenciar a falta de conhecimento da existência dos smells e dos impactos negativos que podem incorporar nas aplicações.


  • Mostrar Abstract
  • To meet the constantly changing of requirements and needs for new features, software systems always remain in a state of constant evolution. The control of the software evolution and maintenance process is crucial and one of the most complicated phases of software development. If this control is not managed, systems are at risk of degradation of important quality attributes, that consequently directly affect the degree of maintainability of applications. Factors such as inexperience, lack of knowledge and pressure in relation to the time to complete tasks lead to the adoption of bad practices of software design and are the origin of Design Smells. In order to obtain a better control of the software evolution and maintenance process, it is important to know how to identify the occurrence of Design Smells in projects, and new studies indicate that the use of information specific to the context of the application, such as the nature of the programs or architectural roles used, can influence the detection process and the identification of problems that only exist in the studied context. This work carries out a study to define and identify Design Smells specific to the context of batch applications, and proposes the definition of a catalog with 7 Design Smells and the implementation of a tool to automate the detection process. The implemented tool was used in a case study in which the codes of 40 systems were analyzed. In this study, it was observed that smells specific to the context of batch processing applications affected almost 20% of the classes and more than 30% of the lines of code of the systems analyzed. It was also possible to observe, through the application of the tool in several versions of two systems, that the number of smells remained constant throughout the versions, and in some cases it even grew. What can evidence the lack of knowledge about the existence of the smells and the negative impacts that they can incorporate in the applications.

2
  • DIEGO HENRIQUE PEGADO BENÍCIO
  • Aplicação de Mineração de Texto e Processamento de Linguagem Natural em Prontuários Eletrônicos de Pacientes para extração e transformação de texto em dado estruturado

  • Orientador : JOAO CARLOS XAVIER JUNIOR
  • MEMBROS DA BANCA :
  • ALEXANDRE CESAR MUNIZ DE OLIVEIRA
  • DANIEL SABINO AMORIM DE ARAUJO
  • JOAO CARLOS XAVIER JUNIOR
  • Data: 29/09/2020

  • Mostrar Resumo
  • O prontuário do paciente é o documento essencial para garantir uma assistência integral e continuada ao enfermo, fornecendo o histórico da sua saúde. Ao longo da evolução tecnológica, os registros terapêuticos do paciente passaram do prontúario em papel para o prontuário eletrônico. Entretando, a anamnese, normalmente, é inserida por meio de campos livres, deixando ao critério do profissional da saúde a forma como a informação é
    elaborada. Dessa maneira, há dificuldade no modo tradicional, consultas Structured Query Language, para recuperar esse dado. Como métodos para sanar esse problema, é possível a aplicação de Mineração de Texto e o Processamento de Linguagem Natural, levando à extração de dados compreensíveis e padronizados. Nesse sentido, o trabalho objetiva: avaliar e definir as técnicas adequadas ao processo de Mineração de Texto sobre dados clínicos dos pacientes adultos da Maternidade Escola Januário Cicco, visando recuperar termos clínicos e estruturá-los de forma a relacionar com os padrões do diagnóstico patológico para posterior utilização em estudos complementares. 


  • Mostrar Abstract
  • The patient's medical record is the essential document to ensure comprehensive and continuous care to the patient, providing the history of their health. Over the course of technological evolution, the patient's therapeutic records have shifted from paper records to the electronic medical record. However, the anamnesis is usually inserted through free text fields, leaving to the health professionals the way information is entered. In this way, traditional Structured Query Language queries are unable to retrieve this data. In order to overcome this problem, we apply Text Mining and Natural Language Processing aiming to extract understandable and standardized data. In this sense, the objective of this work is to evaluate and define the appropriate techniques for the Text Mining process on clinical data of adult patients of the Januário Cicco Maternity unit, aiming to retrieve clinical terms and structure them in order to relate them to the pathological diagnosis patterns.

3
  • EDUARDO LUIZ GOMES
  • BPM2DDD: Identificando domínios a partir de processos de negócio

  • Orientador : CARLOS EDUARDO DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO DA SILVA
  • EIJI ADACHI MEDEIROS BARBOSA
  • PAULO DE FIGUEIREDO PIRES
  • Data: 27/10/2020

  • Mostrar Resumo
  • O Design Orientado a Domínio (Domain-Driven Design - DDD) é cada vez mais adotado como uma forma particular de modelar sistemas. Dentre os padrões de design estratégico do DDD encontra-se o mapa de contexto, uma poderosa ferramenta que ajuda as equipes de desenvolvimento a entender o domínio de negócios. Mapas de contexto normalmente são criados a partir da análise de sistemas existentes, requisitos iniciais ou com base na experiência da equipe, podendo levar a construção de modelos de domínio que não espelham a realidade da organização. Nesse sentido, a análise dos modelos de processos de negócio se apresentam como uma alternativa para extrair informações de domínio e criar mapas de contexto, uma vez que estes modelos capturam a lógica das operações das organizações, fornecendo uma visão abrangente e de alto nível do negócio. No entanto, faltam abordagens para criação de mapas de contexto a partir de conhecimento de domínio extraído de modelos de processo de negócio. Dessa forma, esta pesquisa tem como objetivo propor a técnica BPM2DDD, uma abordagem para apoiar a identificação de domínios de informação e criação de mapas de contexto, que pode ser utilizada nas etapas de análise e modelagem de sistemas, servindo inclusive como alternativa para identificação de possíveis serviços de software. A técnica permite a identificação de domínios, subdomínios e contextos limitados, a partir da analise de modelos BPMN (Business Process Modeland Notation). Esta técnica foi desenvolvida e aplicada em processos de negócio reais da Secretaria de Mobilidade Urbana da cidade do Natal (STTU), utilizando a metodologia pesquisa-ação, durante os anos de 2019 e 2020, no contexto de desenvolvimento dos novos sistemas de mobilidade urbana. Para avaliar a técnica foram realizadas múltiplas aplicações por analistas de negócio e sistemas, utilizando um dos processo de negócio da STTU, além de validações pelos especialistas de domínio do mapa de contexto gerado.Os resultados indicam que a técnica é aplicável em processos de software adotados pela indústria, permitindo a descoberta de informações que viabilizam a criação de um mapa de contexto mais alinhado ao domínio da organização.


  • Mostrar Abstract
  • Domain-Driven Design (DDD) is in creasingly adopted as a particular way of modeling systems. Among DDD’s strategic design patterns is the context map, a powerful tool that helps development teams understand the business domain. Context maps are usually created from the analysis of existing systems, initial requirements or based on the experience of the team, which can lead to the construction of domain models that do not reflect the reality of the organization. In this sense, the analysis of business process models is presented as an alternative to extract domain information and create context maps, since these models capture the logic of organizations’ operations, providing a comprehensive and high-level view of the business. However, approaches for creating context maps from domain knowledge extracted from business process models are lacking. Thus, this research aims to propose the BPM2DDD technique, an approach to support the identification of information domains and the creation of context maps, which can be used in the stages of analysis and modeling of systems, even serving as an alternative for identifying possible software services. The technique allows the identification of domains, subdomains and limited contexts, based on the analysis of BPMN (Business Process Model and Notation) models. The technique was developed and applied in real business processes of the Urban Mobility Secretariat of the city of Natal (STTU), using the action research methodology, during the years 2019 and 2020, in the context of the development of new urban mobility systems. To evaluate the technique, multiple applications were carried out by business and systems analysts, using one of the STTU business processes, in addition to validations by the domain experts of the generated context map. The results indicate that the techniqueis applicable to software processes adopted by the industry, allowing the discovery of information that enables the creation of a context map more aligned to the organization’s domain.

4
  • MARCOS ALVARENGA OLIVEIRA
  • API- ResultEduc: Uma Comunicação entre o Resultado dos Jogos Digitais para uma Melhor Avaliação do Aprendizado

  • Orientador : RUMMENIGGE RUDSON DANTAS
  • MEMBROS DA BANCA :
  • AQUILES MEDEIROS FILGUEIRA BURLAMAQUI
  • ITAMIR DE MORAIS BARROCA FILHO
  • RUMMENIGGE RUDSON DANTAS
  • SAMUEL OLIVEIRA DE AZEVEDO
  • Data: 30/11/2020

  • Mostrar Resumo
  • Com o avanço dos Jogos Digitais Educacionais (JDE) na área pedagógica e institucional para avaliar resultados de alunos e clientes, apesar do mérito educativo que tem sido dado a esses jogos digitais, existe um grande obstáculo para que esse crédito se expanda em razão dos poucos recursos confiáveis para verificar a aprendizagem obtida.
    Este projeto estuda uma melhor arquitetura para uma integração entre o resultado dessas avaliações dos jogos digitais e as plataformas colaborativas de jogos. As plataformas de jogos são sistemas de desenvolvimento colaborativo de objetos de aprendizagem, sejam eles virtuais ou reais, criam ambientes onde profissionais de diferentes áreas
    possam colaborar, construir e compartilhar seus objetos de aprendizagem, colaborando assim com uma melhor avaliação dos profissionais da educação para com seus alunos, com o objetivo de que estes entendam o que precisa ser melhorado em suas aprendizagens e como podem melhorá-las, tanto a reconfiguração dos jogos, durante a fase evolutiva, através da análise da performance do aluno, como também a geração de relatórios analíticos para seus professores.
    Implementando critérios de confiabilidade, conformidade e segurança na troca dessas informações, traçando uma rota de armazenagem segura e organizada dos dados para a plataforma. Para estudar estas plataformas, foi criado estudos de caso para validar esta arquitetura. Utilizamos a plataforma de jogos digitais educacionais, ColabEduc como experimento para este projeto.



  • Mostrar Abstract
  • While the educational digital games progress in the pedagogical and institutional area to assess the results of students and clients, despite the educational merit that has been given to these
    digital games, there is a large obstacle for this credit to expand out because of the few affordable resources to check on the learning obtained.
    This project studies a better strategy for a better integration between the result of these assessments of digital games and the collaborative gaming platforms.
    Game platforms are systems for collaborative development system for virtual learning objects, but also often imagined, that creates an environment whereby professionals from different areas
    can collaborate, develop and share their learning objects, then collaborating with an improving evaluation of education professionals to their students, in order to they understand what needs
    to be improved in their learning and how they can also improve it, by the reconfiguration of games, during the developmental stage, through the analysis of student performance, as well
    as the analytical drafting reports for your teachers.
    Implementing reliability, compliance and security conditions in the exchange of these informations, by following safe and organized storage data route to the platform.
    To study these platforms, case studies were created to validate this architecture. We used the educational digital games platform, ColabEduc as an experiment for this project.


5
  • MARCO ANTONIO SILVA E ARAÚJO
  • Beyond Star: Um Modelo de Arquitetura de Aprendizado para Generalização de Estratégias em Jogos RTS

  • Orientador : CHARLES ANDRYE GALVAO MADEIRA
  • MEMBROS DA BANCA :
  • CHARLES ANDRYE GALVAO MADEIRA
  • GEBER LISBOA RAMALHO
  • LEONARDO CESAR TEONACIO BEZERRA
  • Data: 16/12/2020

  • Mostrar Resumo
  • Um dos principais campos de pesquisa em Inteligência Artificial, no contexto dos jogos digitais, consiste no estudo dos Jogos de Estratégia em Tempo Real (RTS), que são comumente considerados sucessores dos jogos de estratégia clássicos tais como Damas, Xadrez, Gamão e Go, e impõem grandes desafios aos pesquisadores da área devido à grande complexidade envolvida. Atualmente, a área procura estudar os RTS utilizando os jogos StarCraft I e StarCraft II como palco para experimentação. A principal característica procurada nos agentes artificiais desenvolvidos para este tipo de jogo é o alto desempenho, tendo como objetivo derrotar jogadores humanos especialistas. Neste contexto se insere a problemática da generalização, que é a capacidade de um agente artificial reaproveitar experiências anteriores, oriundas de ambientes diferentes, para um novo ambiente. A generalização é um campo bastante estudado pela comunidade científica, mas ainda pouco explorado no contexto dos RTS. Por esta razão, este trabalho propõe o modelo Beyond Star, que consiste em uma arquitetura para representação genérica do espaço de estados e ações de jogos de estratégia de tempo real, usando como base técnicas de aprendizado por reforço profundo com o intuito de aprender estratégias eficazes nos mais variados ambientes de jogos RTS. Como base para a arquitetura, foi desenvolvida uma plataforma intitulada URNAI, ferramenta que integra diversos algoritmos de aprendizado de máquina e diversos ambientes diferentes de jogos, como StarCraft II e DeepRTS. Para analisar se a solução é capaz de permitir a generalização de agentes, experimentos foram realizados com StarCraft II e DeepRTS. Os resultados demonstram que os agentes treinados foram capazes de generalizar seu conhecimento de um ambiente para outro, demonstrando um resultado promissor que permite validar a proposta deste trabalho.


  • Mostrar Abstract
  • One of the main research fields under Artificial Intelligence, on the context of Digital Games, is the study of Real-Time Strategy Games (RTS), which are commonly considered the successors of classic strategy games such as Checkers, Chess, Backgammon and Go, and impose great challenges to this area’s researchers due to the great complexity involved. Currently, the field aims to study the RTS using StarCraft I and II as stage of experimentation. The main feature sought in artificial agents developed to this kind of game is high performance, having as its main objective to defeat specialist human players. On this context it is inserted the generalization problematic, that is the capacity of an artificial agent of reusing previous experiences, from different contexts, to a new environment. Generalization is a very studied field by the scientific community, but still poorly explored on the context of RTS. By this reason, this work proposes the Beyond Star model, which consists in an architecture to generically represent the state-space of Real-Time Strategy Games, using as base deep reinforcement learning techniques aiming to learn effective strategies to be applied in several RTS environments. As a basis to the architecture, it was developed a platform titled URNAI, a tool that integrates several learning algorithms and environments, such as StarCraft II and DeepRTS. To analyse if the solution is capable of allowing agent generalization, trainings were done in DeepRTS and tests were carried out in StarCraft II. It was verified that the trained agents were capable of generalizing their knowledge from one environment to the other, showing a promising result that allowed to validate this work’s proposal.

6
  • MARCELO LUIZ DE FRANÇA
  • TEDA-Guardian: Detectando Ataques DDoS em Provedores de Internet

  • Orientador : SILVIO COSTA SAMPAIO
  • MEMBROS DA BANCA :
  • ERICO MENEZES LEAO
  • ITAMIR DE MORAIS BARROCA FILHO
  • RODRIGO SIQUEIRA MARTINS
  • SILVIO COSTA SAMPAIO
  • Data: 18/12/2020

  • Mostrar Resumo
  • Um ataque DDoS (Distributed Denial of Service) é uma técnica organizada de envio distribuído de pacotes com o objetivo de sobrecarregar os dispositivos de rede e os canais de comunicação entre eles. De forma geral, seu principal objetivo é impedir que usuários legítimos acessem redes, servidores, serviços ou outros recursos do sistema de rede. Embora seja clara a importância de mecanismos de proteção ou mitigação dos efeitos deste tipo de ataque, a sua correta detecção ainda é um desafio por conta da dinamicidade e volume das comunicações e conexões de rede atuais. Embora a literatura específica seja farta em propostas de solução para o problema, a sua maioria se apoia em algoritmos de Inteligência Artificial que envolvem o aprendizado baseado em treinamento ou reforço, sendo necessário extrair características de tráfegos coletados anteriormente. Com isso, essas técnicas necessitam “olhar para o passado” para entender o tráfego na rede. Por conta disso, muitas dessas soluções não são aplicáveis a ambientes mais dinâmicos e com grande volume de tráfego, como os provedores de internet. Nessa dissertação, propomos uma abordagem para detecção de ataques de DDoS utilizando o algoritmo TEDA (Typicality and Eccentricity Data Analytics), batizada de TEDA-Guardian. O TEDA é um método recursivo e não paramétrico, proposto inicialmente para o problema geral de detecção de anomalias em fluxos de dados. Com a utilização da TEDA-Guardian é possível analisar o tráfego corrente na rede, reduzindo o atraso na detecção, uma vez que o mesmo baseia-se no conceito de excentricidade dos dados, sem a necessidade de prévio conhecimento do padrão de tráfego da rede. Assim, a TEDA-Guardian permite "olhar para o presente", ou seja, para os dados que estão sendo trafegados no momento, garantindo assim uma detecção mais pontual. Essa abordagem foi testada sobre diferentes datasets contendo tráfego de rede com momentos de ataques de DDoS. Sua efetividade foi avaliada em termos de sensibilidade, especificidade, taxa de falsos positivos e precisão de detecção.


  • Mostrar Abstract
  • A DDoS (Distributed Denial of Service) attack is an organized technique of distributed packet sending with the aim of overloading network devices and the communication channels between them. In general, its main objective is to prevent legitimate users from accessing networks, servers, services or other resources of the network system. Although it is clear the importance of mechanisms to protect or mitigate the effects of this type of attack, its correct detection is still a challenge due to the dynamics and volume of current communications and network connections. Although the specific literature is abundant in proposed solutions to the problem, most of them are based on Artificial Intelligence algorithms that involve learning based on training or reinforcement, and it is necessary to extract traits of previously collected traffic. As a result, these techniques need to “look to the past” to understand network traffic. Because of this, many of these solutions are not applicable to more dynamic environments with high traffic volume, such as internet providers. In this dissertation, we propose an approach to detect DDoS attacks using the TEDA (Typicality and Eccentricity Data Analytics) algorithm, called TEDA-Guardian. TEDA is a recursive and non-parametric method, initially proposed for the general problem of detecting anomalies in data flows. With the use of TEDA-Guardian it is possible to analyze the current traffic on the network, reducing the detection delay, since it is based on the concept of data eccentricity, without the need for prior knowledge of the network traffic pattern. Thus, TEDA-Guardian allows you to "look at the present", that is, the data that is currently being transferred, thus guaranteeing a more punctual detection. This approach was tested on different datasets containing network traffic with moments of DDoS attacks. Its effectiveness was evaluated in terms of sensitivity, specificity, false positive rate and detection accuracy.

7
  • ARI BARRETO DE OLIVEIRA
  • Um Módulo de Inteligência para Aplicações de IoT em Saúde

  • Orientador : GUSTAVO GIRAO BARRETO DA SILVA
  • MEMBROS DA BANCA :
  • GUSTAVO GIRAO BARRETO DA SILVA
  • ITAMIR DE MORAIS BARROCA FILHO
  • MONICA MAGALHAES PEREIRA
  • IVAN SARAIVA SILVA
  • Data: 28/12/2020

  • Mostrar Resumo
  • A Internet das coisas está em pleno crescimento e cada vez mais dispositivos estão conectados, gerando grande quantidade de dados. Em algumas áreas, esta grande quantidade de dados gerados não é usada para a descoberta de informações adicionais. Isto é uma realidade na área da saúde, onde já há a possibilidade de geração de grande quantidade de dados a partir de dispositivos que usem protocolos abertos ou sensores de hardware de código aberto conectados, como sensores de ambiente ou sensores de corpo humano. Esta dissertação tem como objetivo propor um módulo de inteligência que possa, através de dados oriundos de sensores de IoT em saúde, ajudar a equipe de saúde a obter informações úteis, trazendo, desta forma, benefícios diretos para a saúde do paciente e agilidade do atendimento hospitalar e redução de custos.


  • Mostrar Abstract
  • The Internet of Things is booming and more and more devices are connected, generating massive amounts of data. Usually this large amount of data is not used to discover additional information. This is also a reality in healthcare, where large amounts of data can already be generated from devices that use open protocols or connected open source hardware sensors, such as environment sensors or human body sensors. This dissertation aims to propose an intelligence module that can, obtaining data from IoT sensors in health, return categorization and prognostic information of medical complications, thus bringing direct benefits to the patient's health as well as streamlining the patient's health. hospital care and cost reduction.

8
  • ANDRE SANTIAGO DA FONSECA SILVA
  • Documentação de software: uma análise comparativa entre documentação tradicional e living documentation

  • Orientador : EIJI ADACHI MEDEIROS BARBOSA
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • ELDER JOSÉ REIOLI CIRILO
  • UIRA KULESZA
  • Data: 28/12/2020

  • Mostrar Resumo
  • Muitos times de desenvolvimento que trabalham com processos ágeis acabam por menosprezar a importância da documentação do software como ferramenta de apoio a capacidade de escalabilidade de suas soluções e de seu processo produtivo. Deixando de observar, de acordo com os valores ágeis, que embora o software em funcionamento seja bastante valorizado, ter uma documentação abrangente também pode ser necessário. Em um ambiente de desenvolvimento caracterizado pela alta rotatividade de colaboradores e diversidade de domínios das soluções, o que muitas vezes observamos são equipes de desenvolvimento tentando adaptar atividades de Engenharia de Requisitos e documentação de software dos processos de desenvolvimento ditos tradicionais. Essa situação pode impactar no entendimento dos desenvolvedores quanto ao comportamento das funcionalidades do software,diminuindo o diferencial competitivo da equipe de desenvolvimento ágil. Nesta dissertação quantificamos o impacto que a documentação do software tem no entendimento dos desenvolvedores quanto ao comportamento das funcionalidades de software. Para isso, através de um estudo experimental, fizemos uma análise comparativa entre a documentação de software dos processos de desenvolvimento ditos tradicionais e a living documentation(documentação viva, em tradução livre) gerada a partir da estratégia de Desenvolvimento Orientado ao Comportamento (do inglês Behavior Driven Development- BDD).

  • Mostrar Abstract
  • The growing demand for software resulting from the popularization of devices and technologies, such as the smartphone and the Internet of Things, means that development teams have to deliver new software resources more and more frequently. System users, now very familiar with various types of software solutions, have increased their quality standards: utility, usability and interoperability are increasingly required. In this context, agile development processes with their strong adaptability characteristics are able to support development activities in order to allow software to evolve in an appropriate manner, growing in a sustainable manner. However, many development teams that work with agile processes end up underestimating the importance of software documentation as an important tool to support the scalability of their solutions. Leaving aside the fact that, according to the agile values, although software in operation is highly valued, having a comprehensive documentation may also be necessary. What we often observe are development teams trying to adapt Requirements Engineering activities and software documentation of the so-called traditional development processes, which ends up generating inappropriate documentation artifacts to the characteristics of adaptability to new requirements and frequency of delivery of agile processes. Based on this conjuncture, this research work proposes an approach to support the generation of a type of documentation appropriate to agile processes. Bringing the activities of Requirements Engineering closer to the software tests, through the use of the Behavior Driven Development (BDD) strategy, thus generating living documentation - which accompanies the behavior of the software in operation.

2019
Dissertações
1
  • CESIMAR XAVIER DE SOUZA DIAS
  • SmartNode Dashboards: um framework front-end baseado em Node-RED para criação de Smart City Dashboards

  • Orientador : FREDERICO ARAUJO DA SILVA LOPES
  • MEMBROS DA BANCA :
  • ANDRÉ GUSTAVO DUARTE DE ALMEIDA
  • FREDERICO ARAUJO DA SILVA LOPES
  • GUSTAVO GIRAO BARRETO DA SILVA
  • JAIR CAVALCANTI LEITE
  • Data: 28/01/2019

  • Mostrar Resumo
  • Atualmente diversas cidades têm se envolvido com pesquisas no intuito de fomentar a criação de soluções que dispõe os dados e informações à população, são os chamados City Dashboards. Estas soluções possibilitam aos cidadãos acompanhar os acontecimentos da cidade em tempo real, possibilitando a essas pessoas planejarem suas rotinas baseado no conhecimento gerado sobre o seu contexto local. Mesmo com o número crescente de projetos sendo desenvolvidos com essa finalidade, não há, ainda, trabalhos que sejam voltados a criar estruturas reaproveitáveis ou metodologias que utilizem outros produtos de softwares de código aberto com vistas à padronização de produção de dashboards. Diante disso, esse trabalho se propôs em criar um framework utilizando o Bootstrap. O framework teve a intenção de implementar padrões projetos e de interface web, focados em conteúdos com estruturas reaproveitáveis, utilizando o Node-RED como plataforma de execução. Como resultados deste trabalho, foi possível conceber o SmartNode Dashboard, um framework para criação de interfaces padronizadas e customizáveis. Além de oferecer aos desenvolvedores de dashboards uma metodologia de utilização do SmartNode Dashboard junto ao Node-RED para facilitar e ampliar a capacidade das equipes no tocante ao desempenho, tempo e qualidade no desenvolvimento de dashboards.


  • Mostrar Abstract
  • Nowadays several cities have been involved in research in order to provide the city's data and information to the population through dashboards (so-called City Dashboards). These solutions enable citizens to follow the events of the city in real time, enabling these people to plan their routines based on the knowledge generated about their local context. Even with the growing number of projects being developed for this purpose, there are no jobs that are aimed at creating reusable structures or methodologies that use other open source software products to standardize the production of dashboards. Therefore, this work was proposed in creating a framework based on Bootstrap. The framework was intended to implement standards projects and web interface, focused on content with reusable structures, using Node-RED as an execution platform. As a result of this work, it was possible to design SmartNode Dashboard, a framework for creating standardized and customizable interfaces. In addition to offering dashboard developers a methodology for using SmartNode Dashboard with Node-RED to facilitate and extend teams' ability to perform, time and quality in the development of dashboards.

2
  • JACKSON MEIRES DANTAS CANUTO
  • Derivação e Implantação Semiautomática de Produtos de Software no Contexto da Secretaria de Estado da Agricultura, da Pecuária e da Pesca do RN

  • Orientador : FREDERICO ARAUJO DA SILVA LOPES
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • ELDER JOSÉ REIOLI CIRILO
  • FREDERICO ARAUJO DA SILVA LOPES
  • UIRA KULESZA
  • Data: 31/01/2019

  • Mostrar Resumo
  • A engenharia de Linhas de Produto de Software (LPS), possui em uma de suas áreas a derivação de produtos, que utiliza a estratégia de implementação de produtos a partir de uma determinada seleção de features. Os seus artefatos desenvolvidos, podem ter sido gerados ou compostos durante a etapa de implementação do domínio. Apesar de sua importância, a atividade de derivação de produtos continua sendo cara e propensa a erros, que ainda é difícil de automatizar e ter suporte por meio de ferramentas. Além disso, poucos trabalhos têm sido dedicados ao processo de derivação de produtos e a aplicação de estratégias no contexto prático. Há uma falta de relatórios empíricos des- crevendo a derivação de produtos em ambientes industriais e, em geral. Este trabalho de dissertação de mestrado, propõe a sistematização do processo de distribuição e implan- tação de sistemas em aplicações Web clonadas, através da derivação semiautomática de produtos de softwares existentes, refatorados para uma LPS. Bem como a utilização do apoio ferramental para realizar a implantação de uma instância do sistema configurado, fazendo com que o produto de software fique disponível e pronto para uso em um servidor. Além disso, foi realizado um estudo através de um experimento controlado para analisar qualitativamente e quantitativamente o processo de derivação de produtos, antes e depois da utilização desta abordagem com e sem o apoio ferramental. Esta abordagem especifica um conjunto de atividades sistemáticas e bem definidas, que auxiliam aos analistas de sistemas e programadores a derivarem os produtos que foram refatorados para LPS, a partir de sistemas existentes. Através do uso desta abordagem com o apoio ferramental, será possível gerenciar os produtos e suas features, deixando-os preparados para serem produtos configuráveis de forma semiautomática, e prontos para serem derivados e im- plantados. O estudo realizado através de um experimento controlado, fornece informações acerca dos conceitos e ações explorados na literatura, tais como: derivação de produtos de software, implantação de software, clonagem de LPS, reengenharia de software para LPS, refatoração de LPS e geração de códigos-fonte. Profissionais podem utilizar este trabalho como base para definir, adaptar ou avaliar suas próprias abordagens de derivação com implantação de produtos. Enquanto os pesquisadores podem usar este trabalho como ponto de partida para novos relatórios industriais, apresentando suas experiências com a derivação de produtos. Os resultados obtidos neste estudo mostraram que ao usar a abordagem proposta, foi possível contribuir com a derivação e implantação de produtos de software de forma mais ágil, produtiva e satisfatória. Mesmo em situações em que o usuário tenha poucas experiências com derivação e implantação de softwares, as ações rea- lizadas para tal, ocorrerão em menos tempo e com uma boa corretude durante este processo.


  • Mostrar Abstract
  • The engineering of Software Product Line (SPL) has the products derivation as one of its areas, which uses the strategy of products implementation from features previously selected. The artifacts developed, can be generated or compound during the step of domain implementation. Despite its importance, the activity of product derivation continues to be costly and error prone, and it is still difficult to automate and have support by means of tools. Furthermore, few papers have been dedicated to the product derivation process and the strategies of applying it in practical context. Thus, there is a lack of empirical reports describing the product derivation in industrial environment, in general. This Master’s dissertation, proposes the systematization of the process of system distribution of cloned web application, through the semiautomatic product derivation of existing softwares, refactoring to SPL. A well as, the use of a support tool to realize the implementation of the instance of the system previously configured, making the software product available and ready to be used in a server. Furthermore, a controlled experiment was conducted to qualitatively and quantitatively analyse product derivation process, before and after the use of this approach with and without the support tool. This approach specifies a set systematic and well-defined activities that help which will assist the system analysts and programmers to do the product derivation of the product refactored to a SPL, from a existenting system. Through the use of an approach supported by a tool, it will be possible to manage the product and its features, leaving it ready to be semiautomatic configured product, ready to be derived end deployed. The study carried out through a controlled experiment, provides information about of the concepts and actions explored in the literature, such as: derivation of softwares products, software deployment, cloning of the SPL, software reengineering of SPL, refactoring of SPL and source-code generation. IT professionals can use this work as a basis for define, adapt or evaluate theirs own derivation approaches with product deployment. While researchers can use this work, as a starting point for new industrial reports, showing yours experiences with in product derivation. The results obtained in this study showed that when using the proposed approach, it was possible to contribute with the derivation and implantation of software products in more agile, productive and satisfaction way. Even in situations where the user has few experiences with derivation and deployment of software, the actions taken to do so will occur in less time and with a good corretude during this process.

3
  • ISAAC DANILO SANTOS BATISTA
  • SMARTBUFFET: Uma plataforma de hardware e software para monitoramento de alimentos de
    restaurantes
    self-serviceem tempo real usando Internet das Coisas (IoT).

  • Orientador : RUMMENIGGE RUDSON DANTAS
  • MEMBROS DA BANCA :
  • FREDERICO ARAUJO DA SILVA LOPES
  • IDALMIS MILIAN SARDINA MARTINS
  • RAFAEL VIDAL AROCA
  • RUMMENIGGE RUDSON DANTAS
  • Data: 22/08/2019

  • Mostrar Resumo
  •    Os restaurantes self-service são empresas que vem enfrentando desafios
    para adaptar-se uma nova realidade de negócio que, exige menos desperdício de
    alimentos, controle de informações nutricionais e gestão eficiente. Estima-se
    que em países ricos há desperdício próximo a 222 milhões de toneladas de
    alimentos. No Brasil, a ANVISA exige que restaurantes tenham o
    acompanhamento de nutricionistas para controlar a temperatura e conformidade
    dos alimentos. Para que os restaurantes consigam tanto evitar o desperdício de
    alimentos quanto trabalhar dentro das normas regulamentadoras, é necessário
    uma gestão eficiente que possa otimizar os processos internos a tomada de
    decisões mais precisas. Diante desta problemática, o objetivo deste trabalho foi
    criar uma plataforma de hardware e software para monitoramento de alimentos
    expostos em um buffet de restaurante visando aprimorar seus processos de
    negócios internos e consequentemente minimizar o desperdício de alimentos,
    melhorar o controle de informações nutricionais e otimizar sua gestão. O
    sistema é capaz monitorar dados do comportamento de cubas de um
    buffet em
    tempo real. Tais dados são mostrados em setores do restaurante como cozinha,
    nutrição e gerência, em tempo real através de dashboards. O software e
    hardware foram criados utilizando os recursos da Internet das Coisas (IoT),
    Indústria 4.0 e Programação Web. Ferramentas como Node-Red, Node.js,
    Arduino IDE, entre outras, compuseram o arcabouço de tecnologias utilizadas
    para desenvolver este trabalho. Como resultados o projeto possui um sistema
    web e a sua implantação; o protótipo e a criação de um hardware para cuba; o
    código-fonte e documentação da ferramenta; os resultados dos dados capturados
    pelo SmartBuffet em execução; os resultados dos testes de usabilidade (SUS) e
    satisfação do usuário, um pedido de patente e registro de software em
    andamento.



  • Mostrar Abstract
  • The food and restaurant sector are segments that are facing challenges to adapt to a new reality that requires less food waste, quality food and efficient management. Consumers in rich countries are estimated to waste around 222 million tonnes of food products and most of them are from restaurants. In Brazil, ANVISA requires restaurants to be monitored by nutritionists, one of whose tasks is to control the temperature of food preservation to verify compliance with its resolutions. In order for restaurants to avoid both food waste and working within these regulatory standards, efficient management is needed to optimize internal processes and make more accurate decisions. Therefore, the objective of this work is to create a smart platform for monitoring the quantity and temperature of a self-service restaurant buffet in order to minimize food waste, improve the handling of nutritional information and optimize its management. The system will be able to check the temperature consumption of food exposed in tanks of a buffet and that the data will be sent to restaurant sectors like cooking, nutrition and management in real time. The system will be created using the concepts and features of the Internet of Things (IoT), Big Data and Web Programming in JavaScript. Finally, software like Node-red, ThingSpeak, Arduino IDE among other tools will compose the framework of technologies used to develop this platform.

4
  • JAIME BRUNO CIRNE DE OLIVEIRA
  • Sistema para auxílio de análises psicofisiológicas com o uso de jogos digitais

  • Orientador : CHARLES ANDRYE GALVAO MADEIRA
  • MEMBROS DA BANCA :
  • ALBERTO SIGNORETTI
  • CHARLES ANDRYE GALVAO MADEIRA
  • SELAN RODRIGUES DOS SANTOS
  • SIDARTA TOLLENDAL GOMES RIBEIRO
  • Data: 27/09/2019

  • Mostrar Resumo
  • Análises psicofisiológicas são poderosas ferramentas que revolucionaram a área de neurociências a partir de 1929 com a criação da eletroencefalografia (EEG). Essas ferramentas possibilitaram perceber o comportamento do cérebro sob diferentes estímulos, gerando uma melhor compreensão dos processos psicológicos por avaliação das reações fisiológicas, sendo amplamente utilizadas em estudos de comportamento. Os jogos digitais se inserem neste contexto por serem utilizados com o intuito de fornecer estímulos sensório motores, exigindo um processamento cognitivo em diferentes níveis de interpretação. No entanto, essa área de pesquisa emergente enfrenta grandes desafios uma vez que os eventos dos jogos necessitam ser computados com alta resolução temporal para alcançar uma maior compreensão da experiência. Para contribuir neste sentido, este trabalho propõe uma ferramenta para permitir facilitar as pesquisas que utilizam análise psicofisiológica, auxiliando no processo de análise do comportamento com o uso de jogos digitais pelo registro automático de eventos com a frequência e a precisão necessárias para acompanhar sistemas de registros psicofisiológicos. Ao empregar esta solução em experimentos, esperamos que os pesquisadores em neurociências sejam capazes de analisar de forma bem mais eficaz os dados psicofisiológicos quando usarem jogos digitais nas suas pesquisas.


  • Mostrar Abstract
  • Psychophysiological analyzes are powerful tools that have revolutionized neurosciences since 1929 with the creation of electroencephalography (EEG). These tools made it possible to perceive the behavior of the brain under different stimuli,  providing a better understanding of psychological processes by evaluating the physiological reactions, being widely used in behavioral studies. Digital games are included in this context because they are used to provide sensorial stimuli, requiring a cognitive processing at different levels of interpretation. However, this emerging research area faces major challenges since game events need to be computed with high temporal resolution to achieve a greater understanding of the experience. To contribute to this context, this work proposes a tool to make the research that uses psychophysiological analysis easier by using digital games in the process of behavior analysis, through the automatic registration of events with the frequency and precision required to follow systems of psychophysiological records. By experimenting this solution, we hope that neuroscience researchers will be able to analyze psychophysiological data more effectively when using digital games in their research.

5
  • IURI GUERRA DE FREITAS PEREIRA
  • Avaliação da efetividade de uma suíte de teste de sistema aplicada ao contexto do Middleware Ginga

  • Orientador : EIJI ADACHI MEDEIROS BARBOSA
  • MEMBROS DA BANCA :
  • BRUNO BARBIERI DE PONTES CAFEO
  • EIJI ADACHI MEDEIROS BARBOSA
  • UIRA KULESZA
  • Data: 16/12/2019

  • Mostrar Resumo
  • Qualidade de software tem se tornado um fator fundamental no processo de desenvolvimento de software atualmente. Conseguir mensurar a qualidade de tipos de testes diversos se torna hoje um desafio importante a ser atingido. A pesquisa realizada nesse estudo considerou a avaliação da efetividade de testes de sistemas realizados pela empresa MOPA Embedded Systems na utilização do middleware Ginga para TV Digital. Para realizar a avaliação da suite de teste de sistema executada pela empresa, foi proposta uma metodologia de avaliação da mesma através do critério de cobertura de código, seguida de um estudo exploratório para investigar possíveis motivos para os resultados obtidos da cobertura. Por fim foram realizados testes exploratórios com o objetivo de confirmar as descobertas provenientes da fase de estudo exploratório. Através dessas etapas, foi possível estabelecer um parecer sobre a qualidade dos testes realizados, bem como da automatização realizada pela empresa.


  • Mostrar Abstract
  • Software quality has become a key factor in the software development process today. To be able to measure the quality of different types of tests is today an important challenge to be met. The research conducted in this study considered the evaluation of the effectiveness of systems tests performed by MOPA Embedded Systems in the use of Ginga middleware for Digital TV. To perform the system test suite evaluation performed by the company, it was proposed a methodology to evaluate it through the code coverage criterion, followed by an exploratory study to investigate possible reasons for the results obtained from the coverage. Finally, exploratory tests were conducted to confirm the findings from the exploratory study phase. Through these steps, it was possible to establish an opinion on the quality of the tests performed, as well as the automation performed by the company.

6
  • JACYANA SUASSUNA NUNES
  • Implantando a observabilidade do sistema SigSaúde através da utilização de service mesh

  • Orientador : SILVIO COSTA SAMPAIO
  • MEMBROS DA BANCA :
  • SILVIO COSTA SAMPAIO
  • ITAMIR DE MORAIS BARROCA FILHO
  • ERICO MENEZES LEAO
  • Data: 18/12/2019

  • Mostrar Resumo
  • A adoção do estilo arquitetural de microsserviços vem se mostrando bastante vantajosa na medida que facilita a criação de soluções distribuídas, escaláveis e disponíveis, favorecendo a utilização de infraestruturas de clouds e contêineres. Por essas e outras vantagens, vêm sendo largamente adotada por grandes empresas globais do mercado no desenvolvimento de aplicativos web como Uber, Netflix, Amazon, SoundCloud e diversas outras. Um exemplo de aplicação criada utilizando esse tipo de solução é o projeto SigSaúde, que prevê o desenvolvimento de uma plataforma para o gerenciamento de dados de saúde em ambientes de Clínica-Escola baseado em prontuário eletrônico. No caso concreto do SigSaúde, se por um lado o uso de microserviços propicia escalabilidade, manutenibilidade e disponibilidade, por outro lado exige um alto grau de observabilidade das operações. Entretanto, ferramentas de monitoramento tradicionais se mostram incompletas para lidar com este cenário distribuído. Assim, este trabalho propõe a utilização de uma arquitetura integrada e escalável baseada em service mesh a ser incorporada ao projeto SigSaúde cujo objetivo principal é aumentar as capacidades de observabilidade do sistema, permitindo o acompanhamento contextualizado das transações entre os diversos microsserviços. A fim de validar esta proposta, serão realizados testes em ambiente controlado, com o objetivo de evidenciar os ganhos e limitações da utilização de service mesh, confrontando-os com as necessidades de monitoramento, rastreamento e logging específicas do SigSaúde.


  • Mostrar Abstract
  • The architectural standard of microservices has been widely adopted by several companiesin the market of web application development due to its several advantages, for example,facilitating the use of clouds infrastructures and containers for the development of distri-buted, scalable and available systems. An example of this type of solution is the SigSaudeproject which provides a platform for the management of health data in Clinical-Schoolenvironments based on electronic medical records. In the specific case of SigSaude, if on theone hand the use of microservices provides scalability and availability, on the other hand itrequires a high degree of observability of the operations, however, traditional monitoringtools are ineffective in dealing with this distributed scenario. Thus, this work proposes anintegrated and scalable architecture based on service mesh solutions to be incorporatedinto the SigSaude project. The main objective is to increase the observability capabilitiesof the system, allowing the contextual monitoring of the transactions between the variousmicroservices. In order to validate this proposal, controlled environment testing will beconducted to evidence the gains and limitations of the use of service mesh, confrontingthem with the specific monitoring, tracking and logging needs of SigSaude.

2018
Dissertações
1
  • ALAN KLINGER SOUSA ALVES
  • TeamBridge: Middleware para adaptação de games e controles de reabilitação motora

  • Orientador : RUMMENIGGE RUDSON DANTAS
  • MEMBROS DA BANCA :
  • AQUILES MEDEIROS FILGUEIRA BURLAMAQUI
  • RUMMENIGGE RUDSON DANTAS
  • TATIANA AIRES TAVARES
  • Data: 16/04/2018

  • Mostrar Resumo
  • Esse trabalho irá apresentar uma interface para adaptação não invasiva de dispositivos
    de entrada de Realidade Virtual, para utilização com jogos da plataforma desktop incompatíveis com tais dispositivos, com foco em jogos para reabilitação, uma vez que a
    Universidade Federal do Rio Grande do Norte possui uma pesquisa em andamento sobre
    aplicação e desenvolvimento de novos dispositivos controladores para jogos terapêuticos.
    Além de ser uma ferramenta para adaptação de joysticks, ela também conterá um módulo
    voltado para terapia, esse módulo além de coletar informações poderá auxiliar o paciente
    quanto à correção dos movimentos realizados, artifício útil quando a terapia é realizada
    em casa, longe da supervisão do terapeuta


  • Mostrar Abstract
  • This work will present an interface for non-invasive adaptation of Virtual Reality input
    devices, for use with desktop platform games incompatible with such devices, with a focus
    on games for rehabilitation, since the Universidade Federal do Rio Grande do Norte has a
    ongoing research on application and development of new controller devices for therapeutic
    games. In addition to being a tool for adapting joysticks, it will also contain a module for
    therapy, this module besides collecting information can help the patient to correct the
    movements performed, artifice useful when therapy is performed at home, away from the
    therapist’s supervision.

2
  • ALLYSON BRUNO CAMPOS BARROS VILELA
  • OpenData Processor: Uma ferramenta para a automatização do processo de extração e publicação de Dados Abertos

  • Orientador : FREDERICO ARAUJO DA SILVA LOPES
  • MEMBROS DA BANCA :
  • ANDRÉ GUSTAVO DUARTE DE ALMEIDA
  • FRANCISCO DANTAS DE MEDEIROS NETO
  • FREDERICO ARAUJO DA SILVA LOPES
  • GIBEON SOARES DE AQUINO JUNIOR
  • Data: 30/07/2018

  • Mostrar Resumo
  • O acesso público à informação do governo é um aspecto importante da sociedade moderna que permite a participação ativa da população no monitoramento das ações governamentais. O decreto n8.777, assinado pela Presidência da República em 11 de maio de 2016, institui a Política de Dados Abertos do Poder Executivo federal. A partir dele, os órgãos e entidades da administração pública federal direta, autárquica e fundacional são obrigados a disponibilizarem os dados no formato aberto. No entanto, grande parte dessas instituições estão descumprindo os compromissos definidos no Decreto. Uma possível explicação para esse número é a necessidade dos responsáveis técnicos terem bons conhecimentos de seus sistemas de informação e das legislações vigentes aliada com a dificuldade na extração dos dados visto que na maioria das instituições, todo o processo de extração, publicação e atualização dos dados abertos é feito de forma manual. Nesse sentido, este trabalho propõe o desenvolvimento de uma ferramenta de automatização do processo de extração, publicação e atualização dos dados abertos. Para demonstrar a viabilidade dessa automatização foi utilizado, como estudo de caso, o SUAP e o CKAN.


  • Mostrar Abstract
  • Public access to government information is an important aspect of modern society that allows the active participation of the population in monitoring government actions. Decree No. 8777, signed by the president on May 11, 2016, establishing the Open Data Policy of Brazilian’s Federal Government. From it, the entities of the federal public administration, autarchic and foundational are obliged to make the data available in the open format. However, so far, of the 210 institutions only 75 of them are fulfilling the commitments defined in the Decree. One possible explanation for this low number is the need for technical staff to have a good knowledge of their information systems and current legislation allied with the difficulty in extracting the data since in most of the institutions the entire process of extraction, treatment and publication of the open data is done manually. In this sense, this work proposes the development of an automation tool for the ETL process for open data in the scope of the Federal Institutions that use the Unified System of Public Administration since this automation brings a greater agility in the publication and periodic updating of the open data, time saving and ease of management of open data portals 

3
  • JONAS JORDÃO DE MACÊDO
  • OpenEasier: A CKAN Extension to Enhance Open Data Publication and Management

  • Orientador : FREDERICO ARAUJO DA SILVA LOPES
  • MEMBROS DA BANCA :
  • BERNADETTE FARIAS LÓSCIO
  • FREDERICO ARAUJO DA SILVA LOPES
  • JAIR CAVALCANTI LEITE
  • NELIO ALESSANDRO AZEVEDO CACHO
  • Data: 07/08/2018

  • Mostrar Resumo
  • Open Data is an important concept for our society, and it is being adopted by public and private entities. When embracing Open Data, the companies generate more transparency and collaboration in our society, this enables the enhancement and creation of services, helping to improve many aspects of our lives. Despite the existence of data catalogue platforms to support Open Data, e.g. CKAN, the complexity and costs of achieving the publication of Open Data are still a challenge, hampering the adoption of the activity of publishing Open Data. The existing tools that support Open Data publication demands deep knowledge of IT tools to publish the data, leaving this important task in the hands of few. Hence, the existing tools are not able to properly achieve the main goal which is to make anyone able to publish and maintain Open Data. In this context, this work aims to design and implement a new tool to decrease the complexity and costs, and to make possible non-IT technicians to publish and manage their Open Data. We believe that this strategy will engage the real data producers in the Open Data movement, helping to improve the quality of Open Data.


  • Mostrar Abstract
  • Open Data is an important concept for our society, and it is being adopted by public and private entities. When embracing Open Data, the companies generate more transparency and collaboration in our society, this enables the enhancement and creation of services, helping to improve many aspects of our lives. Despite the existence of data catalogue platforms to support Open Data, e.g. CKAN, the complexity and costs of achieving the publication of Open Data are still a challenge, hampering the adoption of the activity of publishing Open Data. The existing tools that support Open Data publication demands deep knowledge of IT tools to publish the data, leaving this important task in the hands of few. Hence, the existing tools are not able to properly achieve the main goal which is to make anyone able to publish and maintain Open Data. In this context, this work aims to design and implement a new tool to decrease the complexity and costs, and to make possible non-IT technicians to publish and manage their Open Data. We believe that this strategy will engage the real data producers in the Open Data movement, helping to improve the quality of Open Data.

4
  • YAN DE LIMA JUSTINO
  • Do monolito legado aos microsserviços: um estudo de caso aplicado na Secretaria de Estado da Tributação do Rio Grande do Norte

  • Orientador : CARLOS EDUARDO DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO DA SILVA
  • EIJI ADACHI MEDEIROS BARBOSA
  • NABOR DAS CHAGAS MENDONÇA
  • Data: 07/08/2018

  • Mostrar Resumo
  • A orientação a serviços (Service-orientation) fornece um paradigma de projeto baseado em um conjunto de metas estratégicas para o alinhamento entre tecnologia da informação (TI) e negócios, promovendo eficiência, agilidade e produtividade. Nesse contexto, a reengenharia de sistemas legados para uma arquitetura orientada a serviços (SOA) pode ser justificada para resolver problemas como a demanda por interoperabilidade e a necessidade de fornecer uma interface robusta de serviço de alta disponibilidade. No entanto, a implantação de SOA em um ambiente corporativo é uma tarefa desafiadora, pois pode envolver o uso de diferentes técnicas, como a modernização de sistemas com alto endividamento técnico e altos custos de manutenção. Para isso, é necessário um processo que forneça um conjunto apropriado de técnicas que minimizem os riscos e, ao mesmo tempo, garantam a qualidade dos sistemas durante o processo de migração. Neste sentido, este trabalho apresenta a aplicação de um processo de reengenharia de sistemas legados para suportar a implementação de um projeto SOA. O SPReaD (Service-oriented process for Reengineering and Devops) é uma instanciação da Mainstream SOA Methodology, com foco na reengenharia de sistemas legados, integrando os aspectos de DevOps para o direcionamento de SOA. Esse processo foi identificado durante um projeto real de reengenharia de software para evolução de sistemas legados de uma Secretaria de Estado de Tributação. O uso do SPReaD tem apresentado resultados significativos em relação à conquista de importantes metas de qualidade como a padronização de contratos de serviços para efeitos de interoperabilidade; a gestão da dívida técnica, tendo em vista uma melhor manutenibilidade e portabilidade de componentes; uma maior escalabilidade e melhora no desempenho como um todo para suportar uma grande carga de requisições.


  • Mostrar Abstract
  • Service-orientation provides a design paradigm based on a set of strategic goals towards the alignment between information technology and business, promoting efficiency, agility and productivity. In this context, the reengineering of legacy systems to a service-oriented architecture (SOA) can be justified to solve problems such as the demand for interoperability and the need to provide a robust high-availability service interface. However, the deployment of SOA into an enterprise environment is challenging task, as it may involve the use of different techniques, such as the modernization of systems with high technical debt and high maintenance costs. To this end, a process is required that provides an appropriate set of techniques that minimize risks and at the same time ensure the quality of the systems during the migration process. In this sense, this work presents the application of a process for the reengineering legacy systems to support the implementation of an SOA project. This process has been identified during a real software reengineering project for evolution of legacy systems of a Secretariat of State for Taxation. The SPReaD (SOA Process for Reengineering and DevOps) is an instantiation of the mainstream SOA methodology focusing on the reengineering of legacy systems integrating DevOps aspects for targeting SOA. The use of SPReaD have presented significant results regarding the achievement of important quality goals. The use of SPReaD has presented significant results in relation to achieving important quality goals such as the standardization of service contracts for interoperability purposes; technical debt management, for better maintainability and portability of components; scalability and performance improvement to support a large load of requests.

5
  • DAVID COELHO DOS SANTOS
  • IMAM - Uma ferramenta para monitoramento de sistemas e dispositivos em infraestruturas críticas de IoT baseada em Aprendizado de Máquina.

  • Orientador : JOAO CARLOS XAVIER JUNIOR
  • MEMBROS DA BANCA :
  • JOAO CARLOS XAVIER JUNIOR
  • GIBEON SOARES DE AQUINO JUNIOR
  • MARCOS CESAR MADRUGA ALVES PINHEIRO
  • CARLOS NASCIMENTO SILLA JÚNIOR
  • Data: 24/08/2018

  • Mostrar Resumo
  • Problemas em sistemas e dispositivos devem ser tratados com agilidade e de maneira eficiente. Períodos de inatividade podem custar caro e ter consequências bastante significativas em diversos contextos. Em plataformas baseadas em internet das coisas, a necessidade de disponibilidade e confiabilidade é fundamental. Embora as falhas possam acontecer por vários motivos, quando há um sistema de monitoramento que permita analisar e correlacionar dados de forma que informações relevantes possam ser extraídas, até o menor problema pode ser detectado e corrigido de forma eficiente, diminuindo o tempo de indisponibilidade. Assim, o monitoramento efetivo auxilia aplicações e serviços estarem disponíveis o maior tempo possível. Este trabalho descreve a concepção e desenvolvimento de um sistema de monitoramento para os componentes de software e hardware para plataformas baseadas em IoT. A hipótese considera que o sistema de monitoramento proposto irá auxiliar na manutenção da garantia da disponibilidade.


  • Mostrar Abstract
  • For a variety of reasons, when there is a monitoring system that allows analyzing and correlating data so that relevant information can be extracted, even the smallest problem can be detected and corrected efficiently, reducing downtime.Thus, effective monitoring helps applications and services be available as long as possible. This work specifies the design and development of a monitoring system for software and hardware components for IoT based platforms.The hypothesis describes the proposed monitoring system will help to maintain the guarantee of the availability and reliability of IoT based platform components.

6
  • CEPHAS ALVES DA SILVEIRA BARRETO
  • Uso de Técnicas de Aprendizado de Máquina para Definição de Perfis de Motoristas baseados em Dados Automotivos

  • Orientador : JOAO CARLOS XAVIER JUNIOR
  • MEMBROS DA BANCA :
  • CARLOS NASCIMENTO SILLA JÚNIOR
  • DANIEL SABINO AMORIM DE ARAUJO
  • IVANOVITCH MEDEIROS DANTAS DA SILVA
  • JOAO CARLOS XAVIER JUNIOR
  • Data: 24/08/2018

  • Mostrar Resumo
  • A violência no trânsito tem vitimado muitos brasileiros, e acima de tudo, tem causado grandes prejuízo. A grande maioria dos acidentes de trânsito é causada por imprudência dos condutores (90%). Além da imprudência, defeitos nos automóveis (5%) e má condição das rodovias (5%) também contribuem para que vidas e recursos financeiros sejam perdidos anos após anos. Uma das alternativas para amenizar esses problemas é entender como se comportam os condutores de automóveis quando estão ao volante. Recentemente, pesquisadores têm concentrado esforços para poder armazenar e analisar dados de condutores e automóveis visando a obtenção ou possível indicação de diferentes perfis de condutores. Dessa forma, o principal objetivo deste trabalho é utilizar técnicas de Aprendizado de Máquina sobre dados de veículos obtidos via OBD-II (On Board Diagnostics II) para identificar possíveis perfis entre os condutores de automóveis.


  • Mostrar Abstract
  • Traffic has killed many citizens, and above all, it has caused great losses. The vast majority of traffic accidents are caused by drivers' recklessness (90%). In addition to recklessness, car defects (5%) and poor road conditions (5%) also contribute to the loss of lives and financial resources years after years. One of the alternatives to alleviate these problems is to understand how car drivers behave when they are behind the wheel. Recently, researchers have concentrated efforts to store and analyze data from drivers and automobiles to obtain or possible indication of different driver profiles. Thus, the main objective of this work is to use Machine Learning techniques on vehicle data obtained through OBD-II (On Board Diagnostics II) to identify possible profiles among car drivers.

7
  • PEDRO VITOR LIMA RODRIGUES
  • MOTUS: UMA PLATAFORMA DE APOIO A AVALIAÇÃO E FEEDBACK DE DESEMPENHO BASEADO NA ANÁLISE DE INDICADORES

  • Orientador : GLEYDSON DE AZEVEDO FERREIRA LIMA
  • MEMBROS DA BANCA :
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • GLEYDSON DE AZEVEDO FERREIRA LIMA
  • HERMANO PERRELLI DE MOURA
  • UIRA KULESZA
  • Data: 29/08/2018

  • Mostrar Resumo
  • Cada vez mais as empresas têm prezado pelo bem-estar, motivação e satisfação dos seus colaboradores, tendo em vista que eles constituem o recurso mais importante de uma organização. Colaboradores motivados tendem a produzir com mais qualidade e produtividade, auxiliando na resolução dos problemas com melhor desempenho. Quando a empresa atua com êxito para influenciar positivamente na motivação e no ambiente de trabalho dos colaboradores, ela não apenas recebe em troca um maior engajamento deles, mas também realiza um marketing externo para atrair novos talentos, sendo vista pela sociedade como uma empresa onde “muitos querem trabalhar”. Para que isso seja possível, se faz necessário reconhecer e fornecerfeedback aos colaboradores quanto ao seu desempenho. Dependendo da complexidade organizacional, quantidade de colaboradores e diversidade de cargos da empresa, a avaliação do desempenho pode representar um grande desafio, sendo necessário o emprego de uma quantidade considerável de recursos investidos para realizá-la em um tempo aceitável. Esse trabalho apresenta umsoftware chamado Motus, com intuito de analisar e fornecer um feedback de desempenho aos membros das equipes de uma empresa de desenvolvimento de softwareatravés de indicadores, além de analisar o impacto da sua utilização em relação a produtividade dos desenvolvedores. Para tal, um estudo foi conduzido para verificar o conceito de produtividade dentro da organização como conjunto de indicadores de desempenho, além de medir seus valores antes e depois da utilização da ferramenta com intuito de analisar suas variações.


  • Mostrar Abstract
  • Increasingly, companies have cherished well-being, motivation and satisfaction of their employees since they are the most valuable resource of organization. Motivated employees tend to produce with more quality and productivity, helping to solve problems with better performance. When companies acts successfully to positively influence motivation and better work environment, receives in exchange not just greater engagement but also makes a good external marketing to attract new talents, being seen by external community as a company where “many others want to work”. To make this possible, it is necessary recognize and provide a feedback to employees on their performance. Depending on hierarchical complexity and quantity of employees and diversity of company positions, evaluate their performance may represent a big challenge, being necessary the use of many resources to make it happens in acceptable time. This work presents software that provide a performance feedback to the teams of a company by use of performance indicators, in addition to implement a public recognition model of employees in a view of good attitudes. To measure the impact of the software utilization, a study will be conducted before and after use this software, to measure their influence on the motivation of members of development teams and what the variation of satisfaction of them within the work environment.

8
  • WELKSON RENNY DE MEDEIROS
  • SecAuthAPI: Uma abordagem para suportar infraestruturas de autorização auto-adaptativas

  • Orientador : CARLOS EDUARDO DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO DA SILVA
  • SILVIO COSTA SAMPAIO
  • GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 30/10/2018

  • Mostrar Resumo
  • Mecanismos de controle de acesso tem sido utilizados em sistemas de informação para restringir o acesso a informações sensíveis. Tais mecanismos são capazes de lidar com ameaças de agentes externos à instituição, porém são ineficientes quando consideramos ataques envolvendo usuários internos. Políticas de controle de acesso costumam ser estáticas, e incapaz de lidar com comportamento anômalos de usuários maliciosos que possuem permissão de acesso ao sistema. Sistemas auto-adaptativos têm se mostrado como uma possível resposta para esta situação, uma vez que são capazes de analisar a si próprio e ao ambiente em que estão inseridos, e se modificar sobre variadas e imprevisíveis condições. Para isso, é necessário um conjunto de operações bem definidas que possam ser utilizadas na definição de planos de adaptação. Neste sentido, este trabalho propõe o SecAuthAPI, uma abordagem de suporte a infraestruturas de autorização auto-adaptativas, que expõe um conjunto de operações para manipulação de políticas de controle de acesso ABAC (Attribute-Based Access Control). As operações definidas são baseada em uma especificação funcional formal do modelo ABAC, e são expostas através de uma API REST, e são utilizadas para se permitir a adaptação dinâmica de políticas de controle de acesso. Considerando a aplicação desta abordagem em um sistema real, este trabalho também propõe e implementa a externalização dos mecanismos de autorização para o sistema SUAP, desenvolvido e usado no IFRN. Com isso, restrições de acesso que antes eram fixadas diretamente no código (hard-coded) são agora definidas através de um servidor de autorização, desacoplando a preocupação de controle de acesso da lógica de negócio da aplicação. Além disso, ao aplicar o SecAuthAPI neste servidor de autorização, possibilitamos que as políticas possam ser manipuladas dinamicamente. As operações do SecAuthAPI foram avaliadas através de testes unitários que atestam a sua aderência à especificação funcional formal, enquanto que a externalização de controle de acesso do SUAP teve seu desempenho avaliado e comparado com a abordagem legada. Os resultados alcançados demonstram que, embora tenha um custo computacional adicional, o impacto no desempenho da aplicação é desprezível. Adicionalmente, nossa solução mostra-se altamente viável diante dos benefícios trazidos pelo desacoplamento de preocupação de controle de acesso do código fonte da aplicação.


  • Mostrar Abstract
  • Access control mechanisms have been used in information systems to restrict access to sensitive information.
    Such mechanisms are able to deal with external agent threats, but they are ineffective when considering attacks involving internal users. Access control policies are often static and unable to deal with anomalous behavior of malicious users who have access permission to the system. Self-adaptive systems have been shown as a possible response for this situation, since they are able to analyze themselves and the environment in which they are deployed, modifying themselves over various and unpredictable conditions. For this, a set of well-defined operations that can be used in the definition of adaptation plans is required. In this sense, this work proposes the SecAuthAPI, an approach to support self-adaptive authorization infrastructures, by exposing a set of operations for manipulating ABAC (Attribute-Based Access Control) access control policies. The defined operations are based on a formal functional specification of the ABAC model and are exposed through a REST API. They aim to enable the dynamic adaptation of access control policies. Considering the application of this approach in a real system, this work also proposes and implements the externalization of authorization mechanisms for the SUAP system, which has been developed and used at IFRN. In this context, access restrictions that were previously fixed directly in the code (hard-coded) are now defined through an authorization server, decoupling access control concern from the business logic of the application. Additionally, when SecAuthAPI is applied on the authorization server, policies can be dynamically manipulated. SecAuthAPI operations were evaluated through a series of unit tests that attest its adherence to the formal functional specification, while separation of access control from SUAP had its performance evaluated and compared to the legacy approach. The results show that, although it has an additional computational cost, the impact on application performance is negligible. In addition, the solution is highly feasible in view of the benefits brought due to the decoupling of concern from access control from the source code of the application.

9
  • TARSO LATORRACA CASADEI
  • Avaliação Arquitetural do Sistema SUAP: uma análise sistematizada sobre desempenho

  • Orientador : CARLOS EDUARDO DA SILVA
  • MEMBROS DA BANCA :
  • ANDRÉ GUSTAVO DUARTE DE ALMEIDA
  • CARLOS EDUARDO DA SILVA
  • EIJI ADACHI MEDEIROS BARBOSA
  • Data: 07/12/2018

  • Mostrar Resumo
  • Sistemas de informação têm se tornado cada vez mais robustos, trabalhando com altos volumes de dados, objetos e, consequentemente, processos. No contexto do Instituto Federal do Rio Grande do Norte (IFRN), foi desenvolvido um sistema próprio para atender a todas as atividades administrativas e acadêmicas da instituição: o SUAP, Sistema Unificado de Administração Pública. Ao longo de 11 anos, a aplicação evoluiu de apenas um módulo para mais de 40, além do crescimento vertiginoso de usuários -- que hoje permeia o número de 35 mil. Esses aspectos muitas vezes impactam direta e negativamente no desempenho de sistemas, levando os arquitetos de software a buscarem alternativas para melhor escalar suas aplicações. No caso do IFRN, mesmo após altos investimentos realizados em infraestrutura, os problemas de desempenho do SUAP persistem. Buscando um melhor aproveitamento da estrutura de hardware disponível, faz-se necessário compreender as razões destes problemas de desempenho, a fim de que estes recursos computacionais sejam utilizados de forma dinâmica e crescente, geridos de forma mais eficiente e capazes de suportar cargas excedentes sem prejuízo de estabilidade da aplicação. Surge, assim, a necessidade de se avaliar aspectos mais abrangentes da arquitetura atual da aplicação, para que possam ser conhecidos elementos que prejudiquem seu desempenho. Este trabalho tem o objetivo realizar uma análise sistematizada do desempenho do SUAP através da aplicação do método de avaliação arquitetural Architecture Trade-off Analysis Method (ATAM). Baseado na análise realizada, foram elencados um conjunto de testes de carga que possibilitem a identificação de seus principais pontos de lentidão.Com isso, espera-se contribuir para a definição de uma estratégia para testes de desempenho no SUAP que possa ser incorporada pela equipe de desenvolvimento.


  • Mostrar Abstract
  • Information systems have become increasingly robust, working with high volumes of data, objects and data processes. In the context of the Federal Institute of Rio Grande do Norte (IFRN), a system was developed to attend all the administrative and academic activities of the institution: SUAP, Unified System of Public Administration. Over the course of 11 years, the application has evolved from just one module to over 40, in addition to the dizzying growth of users -- which today permeates the number of 35 thousand. These aspects often impact directly and negatively on systems performance, leading software architects to seek alternatives to better scale their applications. In the case of the IFRN, even after high investments in infrastructure, SUAP performance problems persist. In order to make better use of the available hardware structure, it is necessary to understand the reasons for these performance problems, so that these computational resources are used dynamically and incrementally, managed more efficiently and able to withstand surplus loads without prejudice to application stability. Thus, the need to evaluate more comprehensive aspects of the current architecture of the application is presented, so that elements that impair its performance can be known. This work aims to perform a systematized analysis of the SUAP performance through the application of the Architecture Trade-off Analysis Method (ATAM). Based on the analysis performed, a set of load tests were identified that allow the identification of its main points of slowness. With this, it is hoped to contribute to the definition of a strategy for tests of performance in the SUAP that can be incorporated by the development team. 

10
  • DIEGO SOARES DOS SANTOS
  • Uma plataforma distribuída de mineração de dados para Big Data: um estudo de caso aplicado à Secretaria de Tributação do Rio Grande do Norte

  • Orientador : JOAO CARLOS XAVIER JUNIOR
  • MEMBROS DA BANCA :
  • JOAO CARLOS XAVIER JUNIOR
  • CHARLES ANDRYE GALVAO MADEIRA
  • ANDRE MAURICIO CUNHA CAMPOS
  • ALBERTO SIGNORETTI
  • Data: 07/12/2018

  • Mostrar Resumo
  • O volume de dados armazenados e acessados diariamente vem crescendo em escala geométrica. Todos os dias são gerados cerca de 2,5 bilhões de gigabytes. Além disso, 90\% dos dados no mundo foram produzidos nos últimos dois anos. Muitos termos têm sido utilizados para descrever esse volume gigante de dados armazenados de forma estruturada ou não. Big Data é um dos desses termos. Para muitos pesquisadores, Big Data é o fenômeno em que os dados são produzidos em vários formatos e armazenados por uma grande quantidade de dispositivos e equipamentos. Muito também tem sido feito para oferecer  ferramentas e frameworks open sources que, possam lidar ou oferecer funcionalidades capazes de manipular e minerar esse enorme volume de dados. Contudo, como a natureza dos dados é bastante diversa, escolher ou desenvolver ferramentas para lidar com esses dados se torna um problema nada trivial. Além disso, poucas ferramentas conseguem extrair conhecimento dos dados. Isso torna a tarefa de manipulação de dados algo difícil, principalmente devido às características muito específicas, tais como a descrição de um produto, que é totalmente flexível e sem validação. Por essa razão, em certos domínios de problema, é necessário aplicar técnicas de mineração de dados em atributos textuais para extrair valores padronizados. O objetivo principal deste trabalho é propor uma plataforma distribuída de mineração de dados para a Secretaria de Tributação do Rio Grande do Norte, que possa extrair conhecimento de maneira variada, considerando as características específicas das notas fiscais eletrônicas (NFC-e's).


  • Mostrar Abstract
  • The volume of data stored and accessed daily is growing on a geometric scale. About 2.5 billion gigabytes are generated every day. In addition, 90 \% of the world's data has been produced in the last two years. Many terms have been used to describe this giant volume of stored data in a structured or non-structured way. Big Data is one of these terms. For many researchers, Big Data is the phenomenon where data is produced in various formats and stored by a large number of devices and equipment. Some efforts have been done to offer open source tools and frameworks that can handle or provide capabilities that can handle and mine this huge amount of data. However, as the nature of the data is quite diverse, choosing or developing tools to deal with such data becomes a non-trivial problem. In addition, few tools are able to extract knowledge from the data. In this sense, knowledge extraction becomes more difficult due to specific characteristics of the data, such as: the description of a product which is totally flexible and without validation. For this reason, in certain problem domains, it is necessary to apply data mining techniques in text attributes to extract standardized values. The main objective of this paper is to propose a distributed data mining platform for the Tax Administration of Rio Grande do Norte, which can extract knowledge in a varied way, considering the specific characteristics of electronic invoices (NFC-e's).

11
  • RENIERI RAYRON DA SILVA CORREIA
  • Detecção de Problemas de Design em Aplicações Model-Template-View

  • Orientador : EIJI ADACHI MEDEIROS BARBOSA
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • UIRA KULESZA
  • FRANCISCO DANTAS DE MEDEIROS NETO
  • Data: 10/12/2018

  • Mostrar Resumo
  • A arquitetura de software retrata um conjunto de decisões de design, geralmente tomadas antes da implementação do sistema, com o objetivo de alcançar níveis desejados de atributos de qualidade de software. Um padrão arquitetural fornece um conjunto de decisões de design específicas que são aplicáveis a problemas de design recorrentes. A quebra dessas decisões, além de impactar negativamente nos atributos de qualidade de software, podem levar o software a iniciar um processo de degradação arquitetural. O padrão arquitetural Model-Template-View (MTV), implementado pelo framework Django, contém um conjunto de decisões tomadas para incentivar o baixo acoplamento e a separação rigorosa entre as partes de uma aplicação. No entanto, no processo de evolução da aplicação, decisões de design podem ser quebradas. Nesse sentido, investigamos a detecção de problemas de design relacionados ao padrão arquitetural MTV com o objetivo de apoiar a prevenção da degradação arquitetural em aplicações MTV. As principais contribuições deste trabalho foram a elaboração de um catálogo de problemas de design específicos do padrão arquitetural MTV e a construção de uma ferramenta para detecção automatizada destes problemas através da análise estática. O catálogo e a ferramenta de detecção foram validados no contexto do Sistema Unificado de Administração Pública (SUAP) desenvolvido pelo Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte – IFRN.


  • Mostrar Abstract
  • The software architecture represents a set of design decisions, often taken before implementing the system, with the goal of achieving desired levels of software quality attributes. An architectural pattern provides a set of specific design decisions applicable to recurrent design problems. Violating these decisions may not only hinder quality attributes, but it may also lead to architectural degradation. The Model-Template-View (MTV) pattern implemented by the Django framework has a set of decisions that promote low coupling and rigorous separation between the parts of an application. However, during the evoution of an applicatoin, design decision may be violated. This way, we investiigate the detection of design problems related to the MTV pattern with the goal of aiding the prevention of architectural degradation in MTV applications. The main contributions of this work are the elaboration of a catalogue of MTV-specific design problems e the implementation of tool for statically detecting these violations. The catalogue and the tool were validated in the context of the Sistema Unificado de Administração Pública (SUAP) developed and maintained by the Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte – IFRN.

12
  • LUCAS HIAGO DE AZEVÊDO DANTAS
  • Uma abordagem metaheurística para o problema de alocação de horário escolar no IFRN 

  • Orientador : LEONARDO CESAR TEONACIO BEZERRA
  • MEMBROS DA BANCA :
  • LEONARDO CESAR TEONACIO BEZERRA
  • CHARLES ANDRYE GALVAO MADEIRA
  • LUCÍDIO DOS ANJOS FORMIGA CABRAL
  • ROMERITO CAMPOS DE ANDRADE
  • Data: 11/12/2018

  • Mostrar Resumo
  • A cada novo período letivo, instituições de ensino se deparam com a necessidade de realizar a alocação dos seus horários de aulas. O desafio reside na capacidade de alocar aulas conciliando requisitos pedagógicos, limitações de recursos organizacionais e preferências pessoais. Motivado pelo alto grau de complexidade proveniente da combinação de disponibilidades de professores, alunos, salas de aula e necessidade de satisfação de variadas restrições, o problema de alocação de horários escolares, também conhecido como school timetabling problem, há tempos é objeto de estudo pela comunidade acadêmica, que tem buscado o auxílio de métodos heurísticos e metaheurísticos para a consecução de soluções satisfatórias em um espaço de tempo viável. Com o objetivo de auxiliar à montagem de grades de horários dos cursos técnicos ofertados pelo Instituto Federal de Educação Ciência e Tecnologia do Rio Grande do Norte (IFRN), assegurando o atendimento dos diferentes requisitos institucionais, o presente trabalho apresenta uma solução baseada na metaheurística greedy randomized adaptative search procedure (GRASP). Para a validação da solução, foram desenvolvidas instâncias a partir de dados reais coletados de diferentes unidades e períodos letivos da referida instituição. Os resultados obtidos apontam um desempenho satisfatório para o método utilizado, evidenciados a partir da geração de grades de horários que atendem a todas as restrições de viabilidade inicialmente impostas, como também, pelo elevado grau de qualidade apresentado. 


  • Mostrar Abstract
  • Every academic year, educational institutions face the need to allocate their classes. The challenge lies in conciling pedagogical needs, organizational resource constraints, and personal preferences. Motivated by the high complexity of combining teacher, student, and classroom availability, as well as various other constraints, the school timetabling problem has long been studied by the academic community. In this context, (meta)heuristic approaches have been the method-of-choice when finding high-quality solutions in a feasible timespan. This work proposes a greedy randomized adaptative search procedure (GRASP) algorithm for the school timetabling problem targeting the technical courses offered at Instituto Federal de Educação Ciência e Tecnologia do Rio Grande do Norte (IFRN). To validate the proposed approach, real-world instances were built from data gathered at different campi and academic years. Results indicate the effectiveness of the algorithm, given the feasible solutions meeting all constraints initially considered while achieving high quality. 

13
  • ERICK BERGAMINI DA SILVA LIMA
  • Quest Design Canvas: Um modelo de criação de quests para jogos digitais de gênero RPG

  • Orientador : CHARLES ANDRYE GALVAO MADEIRA
  • MEMBROS DA BANCA :
  • ANDRE MAURICIO CUNHA CAMPOS
  • CHARLES ANDRYE GALVAO MADEIRA
  • GILSON SCHWARTZ
  • ROGÉRIO JÚNIOR CORREIA TAVARES
  • Data: 13/12/2018

  • Mostrar Resumo
  • Desde os primórdios da civilização, o ser humano sempre foi fascinado por jogos devido a serem divertidos. Nas últimas décadas, os jogos digitais têm se tornado populares, principalmente para os jovens em idade escolar. Dentre os gêneros de jogos digitais disponíveis no mercado atualmente, o RPG (do inglês Role-Playing Game) tem chamado a atenção, pois seus títulos estão há vários anos na lista dos mais vendidos. Isso se dá devido a muitas de suas características como personalização e progressão de personagem, interação com um mundo novo e fictício e a resolução de problemas deste mundo. Dentro deste cenário encontramos o conceito de quest, que é uma saga histórica (ou parte dela) com tarefas dadas ao jogador que devem ser realizadas para a conclusão do jogo ou para evolução da narrativa. Na tentativa de facilitar o processo de criação de quests, este trabalho propõe uma metodologia chamada Quest Design Canvas, que permite uma produção mais rápida e com etapas de processo criativo bem definidas, a fim de obter uma linha narrativa inserida em um conjunto de missões dentro de um mapa mental. Assim, pretende-se facilitar a produção de jogos deste gênero, sejam eles de propósito educacional, motivacional ou até promocional. A título de validação, a metodologia proposta foi empregada na produção de quests para um jogo de gênero RPG massivo multiplayer online (MMORPG), chamado UFRN: The Video Game, que está sendo desenvolvido com o objetivo gerar forte impacto social.


  • Mostrar Abstract
  • Since the dawn of civilization, humans beings had always been fascinated by games, because they are fun and a great way to pass time. In recent decades, digital games became popular among young people in school age. Among the digital game styles available on the market today, the RPG (Role-playing game) has attracted attention, since its titles are several years in the bestseller list. This is due various features available, such as character customization and progression, interaction with the new and fictional world and problem solving in this world. In this scenario, we find the concept of quest, which are missions given to the player that must be accomplished for the conclusion of the game or to evolute the narrative. In an effort to facilitate the quest produce process, this work propose a methodology called Quest Design Canvas, which allows for faster production, with well defined creative process steps, with the purpose of, finally, obtain a  narrative line inserted within a set of missions within a mental map. So, it is intended to reach all the goals to be achieved with a digital game, even being educational, introspective or promotional. As validation, This methodology will be used to produce quests for the massive and multiplayer online RPG game (MMORPG) UFRN - The Video game.

14
  • JORGE FELLIPHE RODRIGUES BARBOSA
  • PlayEduc: um framework conceitual para desenvolvimento de jogos educacionais digitais

  • Orientador : CHARLES ANDRYE GALVAO MADEIRA
  • MEMBROS DA BANCA :
  • ANDRE MAURICIO CUNHA CAMPOS
  • CHARLES ANDRYE GALVAO MADEIRA
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • LYNN ROSALINA GAMA ALVES
  • Data: 21/12/2018

  • Mostrar Resumo
  • Pesquisas apontam que quase metade dos jovens que estão fora da escola no Brasil se encontram nesta situação por falta de interesse e motivação. Assim, o país tem como grande desafio a criação de condições para que a escola se modernize e volte a cativar os jovens. Atentos a esta problemática da necessidade de renovação do sistema de ensino, muitos educadores estão buscando colocar em prática a utilização de metodologias e instrumentos de apoio a aprendizagem mais contemporâneos, sendo os jogos educacionais digitais um deles. No entanto, muitos desses jogos não têm se mostrado eficientes, tanto no quesito pedagógico quanto em jogabilidade, resumindo-se em atividades de fixação de conteúdo meramente apresentadas de forma digital. A essa problemática adiciona-se a escassez de metodologias de desenvolvimento especializadas para quem deseja construir o seu próprio jogo educacional digital. Diante desta realidade, apresentamos o PlayEduc, um framework fundamentado nas áreas da psicologia, pedagogia e design, idealizado para apoiar processos de desenvolvimento de jogos educacionais digitais. Utilizando elementos essenciais de cada uma dessas áreas, o framework guiará o usuário no processo de construção de soluções mais eficazes: jogos que trabalhem bem um conteúdo educacional sem perder a qualidade no aspecto do entretenimento. A validação do framework PlayEduc foi efetuada nos seguintes cenários: (1) na construção de um documento de game design de um jogo educacional digital; (2) no processo de desenvolvimento de um jogo educacional digital; e (3) no desenvolvimento de quests de jogos educacionais do tipo MMORPG (Massively multiplayer online role-playing game).


  • Mostrar Abstract
  • Research indicates that almost half of the young people who are out of school in Brazil are in this situation because of lack of interest and motivation. Thus, the country has the great challenge of creating the conditions for the school to modernize and regain the interest of young. Aware of this problem of the need to renew the education system, many educators are seeking to put into practice the use of more contemporary methodologies and tools to support learning, with digital educational games being one of them. However, many of the digital games categorized as educational have not proved to be efficient, both in terms of pedagogy and gameplay, maing be considered activities presented digitally. There still is a scarcity of specialized development methodologies for those who wish to build their own educational game. In face of this reality, we present Rocket, a framework based in the areas of psychology, pedagogy and game design, idealized to support processes of development and evaluation of digital educational games. Using the essential elements of each of these areas (psychology, pedagogy and game design), the framework will objectively guide the user in the development or evaluation process of digital educational games.

2017
Dissertações
1
  • EMERSON MOURA DE ALENCAR
  • Desenvolvimento de uma ferramenta de apoio a prática docente voltada ao ensino baseado em competências: uma abordagem centrada no usuário

  • Orientador : ANDRE MAURICIO CUNHA CAMPOS
  • MEMBROS DA BANCA :
  • FERNANDO MARQUES FIGUEIRA FILHO
  • ANDRE MAURICIO CUNHA CAMPOS
  • ISABEL DILLMANN NUNES
  • ANA ISABEL MARTINS
  • Data: 03/02/2017

  • Mostrar Resumo
  • A metodologia com base em competência visa a formação do trabalhador com foco nas habilidades em realizar tarefas relativas a sua ocupação no mercado de trabalho. Porém esta nova proposta trouxe desafios as equipes pedagógicas e docentes, o ato de planejar tem sido uma tarefa árdua, tendo em vista tantos processos e informações que o docente precisa compreender e desenvolver. Devido a isso, este trabalho propõe uma solução através de uma ferramenta computacional que minimize os problemas enfrentados e ofereça recursos que facilitem a compreensão da metodologia. Para isso foi desenvolvida uma pesquisa exploratória com o objetivo de encontrar padrões de dificuldades, através de formulários online e grupo focal foram coletados, com docentes das escolas do SENAI-DR/RN, dados relevantes a formulação de uma proposta de solução. A aplicação proposta encontra-se atualmente em desenvolvimento. Foi desenvolvido um sistema com o objetivo de facilitar o docente no seu planejamento. O sistema, denominado MEP - Metodologia de Ensino Profissional, foi elaborado e desenvolvimento em várias etapas, seguindo uma abordagem centrado no usuário, ou seja envolvendo docentes e pedagogos. O presente trabalho apresenta o processo de elaboração e desenvolvimento da ferramenta, que se encontra atualmente em fase de testes.


  • Mostrar Abstract
  • The methodology based on competence aims at training of workers with a focus on skills to perform tasks related to their occupation in the labor market. But this new proposal brought challenges pedagogical and teaching teams, the act of planning has been an arduous task, considering so many processes and information that teachers need to understand and develop. Because of this, this paper proposes a solution through a software tool that minimizes the problems faced and provide resources to facilitate the understanding of the methodology. For it was developed an exploratory research with the goal of finding difficulties patterns through online forms and focus group were collected, with teachers from schools of SENAI-DR / RN, relevant data to formulate a proposed solution. The proposed application is currently under development.

2
  • GEOMEREZ RADUAN DE OLIVEIRA BANDEIRA
  • Auto-Gerenciamento de Recursos em Infraestruturas baseada em Contêineres para Desktop-as-a-Service: Um Estudo de Caso nos Laboratórios de Informática da ECT/UFRN

  • Orientador : CARLOS EDUARDO DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO DA SILVA
  • MARCOS CESAR MADRUGA ALVES PINHEIRO
  • PAULO HENRIQUE MENDES MAIA
  • Data: 22/06/2017

  • Mostrar Resumo
  • Uma alternativa viável para instituições que possuem múltiplos usuários com necessidade de acessar aplicações desktops é o Desktop-as-a-Service (DaaS), que caracteriza-se pela entrega de um ambiente desktop que executa remotamente. A virtualização de recursos em conjunto com o balanceamento de carga são amplamente utilizados em infraestruturas que hospedam serviços com demandas sazonais, replicando instâncias e distribuindo as requisições entre elas para alcançar elasticidade. Entretanto o balanceamento de carga não é a solução mais adequada para o DaaS, uma vez que sessões nesse serviço são de longa duração e não são migradas para um novo servidor que seja adicionado ao balanceador, permanecendo a lentidão percebida pelos usuários já conectados a um servidor sobrecarregado. Neste contexto, o redimensionamento dinâmico de recursos em uma instância virtual se mostra como a abordagem mais apropriada. Contudo, soluções tradicionais de virtualização exigem a reinicialização do servidor afetado, e consequentemente, finalizando as sessões DaaS com seus respectivos usuários. Por outro lado, virtualização baseada em contêineres permitem tal redimensionamento, porém exige intervenções manuais do administrador para ajustar a quantidade de recursos mediante à demanda. Este trabalho apresenta o ConManager, um controlador auto-adaptativo para ambientes baseados em contêineres, que tem como propósito o redimensionamento dinâmico de recursos virtualizados para lidar com sobrecargas sazonais. A proposta foi aplicada como estudo de caso nos laboratórios de informática da Escola de Ciências e Tecnologia da Universidade Federal do Rio Grande do Norte. O ConManager monitora a utilização de recursos nos laboratórios, detectando cenários de sobrecarga, e propondo planos de adaptação que são aplicados na infraestrutura de suporte ao serviço DaaS, efetivamente redistribuindo recursos de contêineres subutilizados para os sobrecarregados. A ferramenta se encontra em uso e isso trouxe ganhos perceptíveis como diminuição do tempo de adaptação de recursos e a simplificação do gerenciamento do ambiente, beneficiando a equipe de tecnologia da informação da instituição, responsável por manter o serviço e à comunidade acadêmica que desfruta de um ambiente computacional mais estável.


  • Mostrar Abstract
  • A viable alternative for institutions that have multiple users who need access to desktop applications is Desktop-as-a-Service (DaaS), which is characterized by the delivery of a desktop environment that runs remotely. Resource virtualization and load balancing are widely used techniques in infrastructures that host services with seasonal demands, replicating instances and distributing requests among them to achieve elasticity. However load balancing is not the most suitable solution for DaaS, since sessions in this service are long lasting and are not migrated to a new server that is added to the balancer, remaining the slowness perceived by users already connected to an overloaded server. In this context, the dynamic resizing of resources in a virtual instance is shown as the most appropriate approach. However, traditional virtualization solutions require a reboot of the affected server, and consequently, terminating DaaS sessions with their respective users. On the other hand, container-based virtualization allows such resizing, but requires manual administrator intervention to adjust the amount of resources on demand. This work presents ConManager, a self-adaptive controller for container-based environments, which aims to dynamically resize virtualized resources to handle seasonal loads. The proposal has been applied as a case study in the computer laboratories of the Escola de Ciências e Tecnologia of the Universidade Federal do Rio Grande do Norte. ConManager monitors the use of resources in laboratories, detecting overhead scenarios, and proposing adaptation plans that are applied to the DaaS service support infrastructure, effectively redistributing resources from underutilized containers to overloaded ones. The tool is currently in use and has brought noticeable gains such as reduced time to adapt resources and simplified environmental management, benefiting the institution's information technology team, responsible for maintaining the service and the academic community that enjoys a Stable computing environment.

3
  • SAULO RUFINO DE SA
  • Arquitetura de comunicação entre AVAs e objetos de aprendizagem dinâmicos utilizando a especificação IMS LTI

  • Orientador : RUMMENIGGE RUDSON DANTAS
  • MEMBROS DA BANCA :
  • CHARLES ANDRYE GALVAO MADEIRA
  • RUMMENIGGE RUDSON DANTAS
  • CLAUDIA MARIA FERNANDES ARAÚJO RIBEIRO
  • Data: 17/08/2017

  • Mostrar Resumo
  • Os Objetos de Aprendizagem (OAs) são recursos modulares reutilizáveis importantes para a Educação a Distância (EaD) e integram os Ambientes Virtuais de Aprendizagem (AVAs), compondo o leque de opções que podem ser utilizadas pelos professores em seu projeto de ensino. Os OAs podem ficar diretamente hospedados em um AVA ou armazenados em um Repositório de Objetos de Aprendizagem (ROA), que são próprios para hospedá-los de forma centralizada, descrevendo suas características e utilizando metadados padronizados com mecanismo de busca eficiente para encontrar o objeto solicitado. Para que os objetos
    sejam acessados e utilizados em mais de um AVA, é necessário a existência de mecanismos que os tornem interoperáveis. Este artigo trata da proposta de uma arquitetura e interface para integração dos objetos de um repositório com o AVA Moodle utilizando a especificação LTI.


  • Mostrar Abstract
  • The Learning Objects (LO) are importants modular and reusable resources to Distance Education thatt composes the Learning Management Systems (LMS), building a tool kit that can be used for teachers in their learning project and a course’s activity fluxs.The LOs can ber hosted directly into LMS or stored into Learning Objects Repositories (LOR), that are suitable to host them in centered form, describing their details using metadata and with eficient search engine for find the requested object. The stored objects in the LOR can be accessed and used in severals LMSs that include them, increasing the resource available variety to mount a course whith their evaluative activities. This dissertation aproachs the proposal of architecture for integration of the Distance Education Secretary’s (DES) LOR of Federal University of Rio Grande do Norte with LMS Moodle using tha LTI especification developed by IMS Global Leaning Consortion.

4
  • HENRIQUE ANDRE BARBOSA BITTENCOURT DUTRA
  • Hermod: Uma plataforma de e-mail para apoiar a comunicação institucional

  • Orientador : SERGIO QUEIROZ DE MEDEIROS
  • MEMBROS DA BANCA :
  • SERGIO QUEIROZ DE MEDEIROS
  • CARLOS EDUARDO DA SILVA
  • UIRA KULESZA
  • BRUNO OLIVEIRA SILVESTRE
  • Data: 24/08/2017

  • Mostrar Resumo
  • As organizações que oferecem serviços à sociedade, sejam elas públicas ou privadas, precisam com frequência estabelecer um canal de comunicação para enviar conteúdo, tais como notícias, ofertas de serviços ou outros tipos de informações. Entre as diversas formas de comunicação institucional, o serviço de e-mail possui papel predominante.

    Para que a comunicação instituicional através de e-mail ocorra maneira satisfatória é necessário que as mensagens sejam envidas com rapidez e que existam alguns mecanismos de feedback, como saber se os e-mails foram entregues aos destinatários.

    Contudo, as soluções comerciais existentes que apresentam as funcionalidades desejadas costumam possuir valores elevados, o que dificulta seu uso por instituições públicas. Assim, apresentamos o Hermod, uma plataforma de e-mail para comunicação institucional que foi desenvolvida como solução para os sistemas da Universidade Federal do Rio Grande do Norte.


  • Mostrar Abstract
  • Organizations that offer services to society, whether public or private, often need to establish a communication channel to send content, such as news, service offerings or other types of information. Among the various forms of institutional communication, the e-mail service has a predominant role.

    For institutional communication via e-mail to take place satisfactorily, messages must be sent quickly and there should be some feedback mechanisms, such as whether e-mails are delivered to recipients.

    However, existing commercial solutions with the desired functionalities tend to have high values, which makes it difficult for them to be used by public institutions. Thus, we present Hermod, an e-mail platform for institutional communication that was developed as a solution for the systems of the Federal University of Rio Grande do Norte.

5
  • EDMILSON PEREIRA DA COSTA JUNIOR
  • Uma Abordagem para Sistema de Firewall Distribuído Auto-Adaptativo

  • Orientador : CARLOS EDUARDO DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO DA SILVA
  • MARCOS CESAR MADRUGA ALVES PINHEIRO
  • RAONI KULESZA
  • SILVIO COSTA SAMPAIO
  • Data: 25/08/2017

  • Mostrar Resumo
  • O firewall de borda desempenha um papel fundamental para segurança das redes corporativas, agindo como primeira barreira de defesa ao delimitar um perímetro seguro. Entretanto, a cultura do Bring Your Own Device dificulta a noção de domínio seguro, contribuindo para a criação de vetores de ataques dentro do perímetro seguro. Os sistemas de firewall distribuído surgiram com a proposta de prover proteção de hosts individuais a ataques originados na própria rede interna. Em tais sistemas, as regras são criadas de modo centralizado e então distribuídas e aplicadas em todos os servidores que compõem o firewall, restringindo quais serviços devem estar disponíveis. Não obstante, vulnerabilidades em software podem tornar os serviços de rede vulneráveis a ataques, uma vez que firewalls usualmente não analisam os protocolos de aplicação. Neste sentido, a partir da descoberta da vulnerabilidade até a publicação e aplicação dos patches de correção existe uma janela de exposição que deve ser reduzida. Dado este cenário, o presente trabalho apresenta uma proposta de um sistema de firewall distribuído auto-adaptativo. Esta proposta é baseada no monitoramento de hosts e no uso de um sistema de avaliação de vulnerabilidades para detectar serviços vulneráveis, integrado com componentes capazes de decidir e aplicar regras de firewall nos hosts afetados. Desse modo, nossa abordagem é capaz de responder a
    vulnerabilidades descobertas nesses hosts, contribuindo para mitigar o risco de exploração da vulnerabilidade. Nosso sistema foi avaliado no contexto de um estudo de caso que simula um ambiente de rede corporativa, onde os resultados alcançados demonstram sua viabilidade.


  • Mostrar Abstract
  • The border firewall exercises a fundamental role for corporate network security, acting as the first defense barrier delimiting a secure perimeter. However, the culture of Bring Your Own Device weakens the notion of secure domain, contributing to the creation of attack vectors inside the secure perimeter. Distributed firewall systems emerged with the proposal of protecting individual hosts against attacks originating from inside the network. In such systems, firewall rules are created centrally, then distributed and enforced on all servers that compose the firewall, restricting which services should be available. Meanwhile, software vulnerabilities can make network services vulnerable to attacks, since firewalls usually do not scan application protocols. In this sense, from the discovery of a vulnerability until the publication and application of patches there is an exposure window that must be reduced. Given this scenario, the present work presents a proposal of a self-adaptive distributed firewall system. This proposal is based on monitoring hosts and using a vulnerability assessment system to detect vulnerable services, integrated with components capable of deciding and applying firewall rules on affected hosts. In this way, our approach is able to respond to vulnerabilities discovered in these hosts, helping to mitigate the risk of exploiting the vulnerability. Our system was evaluated in the context of a case study that simulates a corporate network environment, where the results achieved demonstrate its viability.

6
  • ANDRE LUIZ DE SOUZA BRITO
  • Level-up: uma proposta de processo gamificado para a educação

  • Orientador : CHARLES ANDRYE GALVAO MADEIRA
  • MEMBROS DA BANCA :
  • CHARLES ANDRYE GALVAO MADEIRA
  • FERNANDO MARQUES FIGUEIRA FILHO
  • JOSE GUILHERME DA SILVA SANTA ROSA
  • SÉRGIO ANTÔNIO ANDRADE DE FREITAS
  • Data: 25/08/2017

  • Mostrar Resumo
  • A tecnologia é um grande transformador da cultura de uma sociedade. Essa transformação cultural induz, por sua vez, a uma necessidade de revoluções em várias áreas do conhecimento. Uma dessas áreas é a educação, que conta com uma geração de jovens que estão sempre conectados, possuem um acesso a grandes quantidades de informação e podem rapidamente acessá-las e compartilhá-las. Como consequência, os modelos tradicionais de ensino-aprendizagem nos quais o professor assume um papel centralizador e o aluno se encontra passivamente recebendo as informações, passam a ser cada vez mais ineficazes. A inadequação dessas práticas diminui a conexão do aluno com o ambiente escolar e as disciplinas, levando-o mais facilmente a uma desmotivação pelos estudos. Um campo de pesquisa que tem se destacado nos últimos anos quando tratamos da motivação no contexto educacional é o da Gamificação. No entanto, um problema comum ainda persiste na construção de soluções gamificadas para a educação, que consiste na falta de um processo de design claro que norteie de forma eficaz a elaboração de soluções a fim de que os resultados obtidos pela aplicação das mesmas não sejam superficiais e ineficazes e não gerem impacto negativo na motivação dos alunos. Para contribuir com a solução desse problema, este trabalho propõe um processo de gamificação, denominado Level-Up, alicerçado na abordagem do Design Thinking para educadores, que tem como princípio básico o conhecimento prévio profundo sobre a problemática do desinteresse dos alunos a ser tratado antes que qualquer solução venha a ser projetada. Além disso, o framework Octalysis é utilizado para auxiliar na análise dos aspectos motivacionais tratados no cenário do problema e direcionar a escolha dos elementos de jogos para tornar esse cenário agradável e atingir os objetivos almejados com a gamificação. Para validar o processo proposto, um estudo de caso foi efetuado em uma disciplina introdutória de programação de um curso de ensino superior, no qual resultados promissores foram obtidos.


  • Mostrar Abstract
  • Technology is a force for change in the culture of a society. This transformation often requires the evolution of several fields in human knowledge, one of them being the field of Education. As a generation of youngsters are always connected through the use of technological devices, with the possibility of accessing and exchanging a large amount of information in a fast way, the traditional learning models which are teacher-centered and the students play a passive role are gradualy becoming more inneficent. This inadequacy has a big role in student motivation, that is rapidly decreasing by each year as students feel less connected with their learning environment and their practices. One field of research that has become proeminent in past years concerning student motivation in education is that of Gamification. However, a common problem exists with the construction of gamifyied solutions for education: the lack of a clear design process that guides the gamification towards an efficient model capable of effectively attend to the students needs. To contribute in the solution of this problem, this work proposes a gamification process called Level-Up, based on the design thinking for educators approach, which has as a core principle the investigation and gain of knowledge about the problematic of the students and learning environment before any solution is designed and executed. On top of that, the gamification framework Octalysis is used to evaluate how the motivational aspects are taken into account in the investigated scenario, and how the game elements can be used to change and improve student motivation in order to attain the objectives set by the gamification. To validate this gamification process, a case study is executed in a introductory programming class on a college course, in which promising results were obtained.

7
  • ERICK SHARLLS RAMOS DE PONTES
  • Um Método para Extração e Evolução de Linhas de Produto de Software a partir de Sistemas Web Existentes

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • UIRA KULESZA
  • CARLOS EDUARDO DA SILVA
  • EIJI ADACHI MEDEIROS BARBOSA
  • ELDER JOSÉ REIOLI CIRILO
  • Data: 25/08/2017

  • Mostrar Resumo
  • Uma Linha de produto de software (LPS) representa uma família de sistemas relacionados que compartilham similaridades e variabilidades visando atender às necessidades de um mercado ou missão específica. A adoção de LPS tem sido aplicada em diversas áreas na indústria de software devido aos benefícios alcançados, tais como, redução dos custos no desenvolvimento, aumento da qualidade e redução do tempo de comercialização. No entanto, cenários distintos podem ser encontrados para implementação de uma linha de produtos, caracterizando 3 abordagens para adoção de LPS: (1) abordagem proativa: não existe softwares em produção, e uma LPS é desenvolvida do zero; (2) abordagem reativa: já existe uma LPS em produção que vai sofrer incremento para atender novos requisitos; (3) abordagem extrativa: a LPS é desenvolvida a partir dos artefatos de um sistema ou conjunto de sistemas relacionados que já estão em produção. Nos cenários das abordagens extrativa e reativa, este trabalho propõe um método de desenvolvimento e evolução de LPSs a partir de sistemas existentes implementados na linguagem Java. O método foi extraído de um estudo empírico de desenvolvimento de uma LPS para o domínio de sistemas de controle de espaços físicos utilizados em diferentes centros da UFRN e definiu três atividades: Modelar features da LPS, Projetar e Implementar LPS através da refatoração de um sistema existente, e Realizar Testes para cada um dos produtos atuais existentes. Em seguida, o método foi validado por meio da sua aplicação durante as evoluções da LPS para atender novos requisitos demandados pelos clientes. Um conjunto de diretrizes para refatoração e modularização de features em sistemas implementados em Java são apresentadas como parte do método. 


  • Mostrar Abstract
  • A software product line (SPL) represents a family of related systems that share commonalities and variabilities to meet the needs of a specific market or mission. The adoption of SPL has been applied in several areas in the software industry due to the benefits achieved, such as reduction of development costs, quality improvement and reduction of time to market. However, distinct scenarios can be found when developing a SPL, which lead to 3 approaches for adopting a SPL: (1) proactive approach: there areno software being developed and a SPLis developed from scratch; (2) reactive approach: there is a SPL which is evolved to address new features and products; (3) extractive approach: SPL is developed from the assets of a system or a set of related systems that are already in production. In the context of the extractive and reactive approaches, this dissertation aims to define a method to develop a SPL from existing systems implemented in the Java language. A practical study that extracts and evolves a SPL of the domain of space allocation management is used as a background to define the method.  

8
  • DINARTE ALVES MARTINS FILHO
  • FASTSF: UMA FERRAMENTA DE GERAÇÃO DE CÓDIGO PARA O INCREMENTO DA PRODUTIVIDADE NO DESENVOLVIMENTO SISTEMAS DE INFORMAÇÕES

  • Orientador : GLEYDSON DE AZEVEDO FERREIRA LIMA
  • MEMBROS DA BANCA :
  • AQUILES MEDEIROS FILGUEIRA BURLAMAQUI
  • FRANCISCO MILTON MENDES NETO
  • GLEYDSON DE AZEVEDO FERREIRA LIMA
  • JOAO CARLOS XAVIER JUNIOR
  • UIRA KULESZA
  • Data: 29/08/2017

  • Mostrar Resumo
  • A produção de software envolve um complexo processo de produção incluindo a gestão das variáveis tempo, custo e pessoal. A evolução da tecnologia e a competitividade da indústria tem elevado, cada vez mais, a necessidade por maior produtividade combinada com eficiência e qualidade. Neste cenário, há uma tendência crescente do uso de técnicas, padrões e ferramentas que possam tornar o desenvolvimento mais rápido e consequentemente mais barato. Além do uso de frameworks, ferramentas e padrões de projetos, gerar automaticamente partes do código é uma forma de retirar do desenvolvedor o trabalho de codificações repetitivas, além de dinamizar e aumentar a produtividade na implementação do software.  Esta prática vem evoluindo e se difundindo nos últimos anos, com a sua popularização em diversos frameworks de desenvolvimento de aplicações, principalmente frameworks voltados para desenvolvimento web. Este trabalho disserta sobre o estudo dos impactos conseguidos na capacidade produtiva dos desenvolvedores a partir da criação e do uso de uma ferramenta denominada FASTSF, cujo objetivo é, além do incremento de produtividade no desenvolvimento de sistemas de informações web, concentrar o foco da equipe na codificação de problemas mais complexos. 


  • Mostrar Abstract
  • The production of software implies a complex production process, which involves managing the variables of time, cost and personnel. The evolution of technology and the competitiveness of industry has raised the need for greater productivity that should be combined with efficiency and quality. In this scenario, there is a growing tendency to use techniques, standards and tools that can make development faster and therefore cheaper. Besides the use of frameworks, tools and design patterns, the automatically generation of parts of the code is a means to overcome developers’ repetitive coding work and it also increases productivity in software implementation. This practice has been evolving and spreading in the last years, with its popularization in several frameworks of application development, primarily in the web development frameworks. This work discusses the study of effects achieved on the developers' productive capacity in the creation and use of a tool called FASTSF, which has the objective of both increasing productivity in the development of web information systems and keeping the team's focus on coding more complex problems.

9
  • JOÃO VICTOR DE OLIVEIRA NETO
  • Uma abordagem para análise contínua de conflitos indiretos de Software

  • Orientador : GLEYDSON DE AZEVEDO FERREIRA LIMA
  • MEMBROS DA BANCA :
  • GLEYDSON DE AZEVEDO FERREIRA LIMA
  • SERGIO QUEIROZ DE MEDEIROS
  • UIRA KULESZA
  • Felipe Alves Pereira Pinto
  • Data: 31/08/2017

  • Mostrar Resumo
  • A necessidade de evolução nos softwares, que resolvem problemas relacionados ao cotidiano, tornou-se cada vez mais frequente e a engenharia de software precisou se adaptar para entregar produtos de qualidade em prazos cada vez menores. Para que o software continue sendo útil ao longo do tempo, para o propósito ao qual foi desenvolvimento, é necessário que sejam realizadas mudanças ou incluídas novas funcionalidades para que este acompanhe as mudanças no domínio do negócio. Com essas mudanças, é inevitável que o software passe a aumentar de tamanho e, consequentemente, em complexidade. Essa expansão do software criam  relacionamentos de dependência entre componentes do código-fonte e essas dependências se propagam em uma cadeia de dependências à medida que a aplicação cresce.

     

    Reescrever o mesmo trecho de código é uma prática não recomendada no desenvolvimento de software, pois implica em replicar código de forma distribuída e desordenada. Ao fazer o reuso, o mesmo trecho já escrito é referenciado em diferentes funcionalidades do sistema através da cadeia de dependência e chamadas de métodos, fazendo com que diferentes partes do código que estejam associadas à diferentes funcionalidades passem a depender de um mesmo componente. Alterações de trechos de código que possuem relação direta ou indireta com diferentes casos de uso podem levar a falhas imprevistas da aplicação, pois dependendo do número de artefatos envolvidos e da extensão da cadeia de dependências relacionada ao código alterado, uma mudança pode impactar um outro caso de uso que aparentemente não tem relação com o trecho de código modificado. Prever impactos decorrentes de alterações em um artefato é uma tarefa que exige tempo para análise, profundo conhecimento do código-fonte e esforço de teste.

     

    Este trabalho apresenta uma abordagem parar automatizar a identificação de possíveis conflitos indiretos através de uma ferramenta desenvolvida, capaz de determinar quais casos de uso possuem maior probabilidade de serem impactados por mudanças no código-fonte, podendo assim direcionar os esforços de testes de forma mais eficaz. Um estudo de caso foi elaborado avaliando um projeto real de dimensão extensa que não possui uma suíte de testes automatizados e a ferramenta desenvolvida mostrou-se eficiente para detectar conflitos indiretos em diferentes cenários e também provou, através de um experimento empírico, que a maior parte das falhas decorrentes de conflitos indiretos teriam sido evitados caso a ferramenta tivesse sido utilizada ainda na fase de desenvolvimento.


  • Mostrar Abstract
  • The necessity of software evolution for those which solve daily problems became even more frequent and the software engineering had to be adapted in order to be able to delivery products with good quality in tight dead lines. In order to the software continues being useful during its life cycle, to the main purpose whose was developed, its necessary to apply changes or include new features due to changes which happens in the business.

     

    Rewrite the same block of code is not a recommended approach on software development, because it spreads code in a distributed and disordered way. Applying the code reuse, the same block of code already wrote is referenced by different use cases through the dependency chain and method calls, where different parts of the code, which are being relate to differents funcionalitys, going to depend to the same component. Changes applyed to a block of code which has direct or indirect relation with differents use cases may lead to umpredictable fails, depending on the number of different artifacts related and the extension of dependency chain related to the artifact which was modified, this change may cause a impact on another use case which, by a first look, does not have any relation which the modified block of code. Predict impacts from in a specific artifact is a task which demands time to analysis, deep knowledge of the source-code and test effort.

     

    This paper presents an approach to automatize the identification of possible indirect conflicts using the developed tool, whose can determinate which use cases are more defect prone by source-code changes, providing a more effective direction to the test's efforts. A Study Case was elaborated, assessing a real project of extensive dimension whose doesn't have a automatized test case suite, and the developed tool was able to identify the indirect conflicts on differents cenarios and besides, the tool was able to proof in a empiric experiment which the major failures, caused by indirect conflicts could be avoided if the tool were be used during the development fase.

2016
Dissertações
1
  • EMMANOEL MONTEIRO DE SOUSA JUNIOR
  • Escalonando uma Aplicação Paralela com Demanda Variável em Ambiente de Nuvem


  • Orientador : FREDERICO ARAUJO DA SILVA LOPES
  • MEMBROS DA BANCA :
  • AMÉRICO TADEU FALCONE SAMPAIO
  • CARLOS EDUARDO DA SILVA
  • FREDERICO ARAUJO DA SILVA LOPES
  • IDALMIS MILIAN SARDINA MARTINS
  • Data: 20/01/2016

  • Mostrar Resumo
  • Este trabalho propõe uma arquitetura de software responsável pelo escalonamento para processamento de dados com demanda variável em ambientes de nuvem. O sistema construído observa variáveis específicas ao contexto de negócio de uma empresa incubada no Instituto Metropole Digital da UFRN. Tal sistema gera uma estratégia de identificação e utilização de modelos de máquinas disponíveis em um ambiente de  nuvem, focando no desempenho do processamento, utilizando-se de estratégias de balanceamento de carga de dados e paralelismo de atividades no fluxo de execução do software. O objetivo é atender a demanda sazonal dentro de um limite padrão de tempo definido pela empresa, controlando os custos operacionais com a utilização de serviços de nuvem na camada de IaaS.


  • Mostrar Abstract
  • Este trabalho propõe uma arquitetura de software responsável pelo escalonamento para processamento de dados com demanda variável em ambientes de nuvem. O sistema construído observa variáveis específicas ao contexto de negócio de uma empresa incubada no Instituto Metropole Digital da UFRN. Tal sistema gera uma estratégia de identificação e utilização de modelos de máquinas disponíveis em um ambiente de  nuvem, focando no desempenho do processamento, utilizando-se de estratégias de balanceamento de carga de dados e paralelismo de atividades no fluxo de execução do software. O objetivo é atender a demanda sazonal dentro de um limite padrão de tempo definido pela empresa, controlando os custos operacionais com a utilização de serviços de nuvem na camada de IaaS.

2
  • ÁLVARO HERMANO DA SILVA
  • Jogo Digital Como Ferramenta Facilitadora no Exercício da Matemática Fundamental

  • Orientador : ANDRE MAURICIO CUNHA CAMPOS
  • MEMBROS DA BANCA :
  • ALBERTO SIGNORETTI
  • ANDRE MAURICIO CUNHA CAMPOS
  • CHARLES ANDRYE GALVAO MADEIRA
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • Data: 25/04/2016

  • Mostrar Resumo
  • Para alunos que ingressam no primeiro ano de um curso técnico integrado, a matemática é uma das disciplinas de difícil entendimento. Fatores como falta de atenção, problemas com interpretação de texto e problemas no aprendizado no ensino fundamental, colaboram com as reprovações na disciplina, gerando um aumento no desestímulo do aluno no curso. Com base em relatos dos professores da disciplina de matemática feitos ao setor pedagógico da escola sobre as dificuldades desses alunos em resolver as atividades trabalhadas em sala de aula e após a realização de entrevistas com um grupo de alunos, os referidos fatores de dificuldade foram identificados e possíveis soluções foram traçadas. Uma delas é a implementação de um jogo digital, a ser trabalhado no ambiente escolar, que proporcione o exercício da matemática fundamental, como forma de trabalhar aspectos cognitivos e o conhecimento dos conteúdos da disciplina, gerando dados sobre o desempenho do jogador, proporcionando um feedback ao professor sobre dificuldades e/ou facilidades na resolução das questões. Este trabalho apresenta a proposta de jogo concebida.


  • Mostrar Abstract
  • Para alunos que ingressam no primeiro ano de um curso técnico integrado, a matemática é uma das disciplinas de difícil entendimento. Fatores como falta de atenção, problemas com interpretação de texto e problemas no aprendizado no ensino fundamental, colaboram com as reprovações na disciplina, gerando um aumento no desestímulo do aluno no curso. Com base em relatos dos professores da disciplina de matemática feitos ao setor pedagógico da escola sobre as dificuldades desses alunos em resolver as atividades trabalhadas em sala de aula e após a realização de entrevistas com um grupo de alunos, os referidos fatores de dificuldade foram identificados e possíveis soluções foram traçadas. Uma delas é a implementação de um jogo digital, a ser trabalhado no ambiente escolar, que proporcione o exercício da matemática fundamental, como forma de trabalhar aspectos cognitivos e o conhecimento dos conteúdos da disciplina, gerando dados sobre o desempenho do jogador, proporcionando um feedback ao professor sobre dificuldades e/ou facilidades na resolução das questões. Este trabalho apresenta a proposta de jogo concebida.

3
  • ROMULO FAGUNDES CANTANHEDE
  • Guardião Cloud - Plataforma de Apoio para Internet das Coisas

  • Orientador : CARLOS EDUARDO DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO DA SILVA
  • JOAO CARLOS XAVIER JUNIOR
  • CARLOS ANDRE GUIMARÃES FERRAZ
  • Data: 27/04/2016

  • Mostrar Resumo
  • A IoT (Internet of Things) propõe que sistemas computacionais sejam formados por diversos dispositivos produtores e/ou consumidores de informação, permitindo o desenvolvimento de diversas soluções baseadas na coleta e análise de dados. Porém, além da coleta e análise de dados, é necessário também tomar decisões e agir com base nas mesmas. Nossa proposta é de desenvolver uma plataforma de suporte para aplicações de IoT permitindo não somente a coleta e análise de dados, mas também seu uso para a tomada de decisão e ação. A plataforma permite que qualquer dispositivo com acesso à Internet possa enviar informações em formato variado, suportando o acompanhamento em tempo real dos dados coletados, assim como a definição de mecanismos de tomada de decisão, como a ativação de um determinado dispositivo ou a geração de alertas. Como estudo de caso, a plataforma foi aplicada para monitorar um ambiente hospitalar. Alguns experimentos controlados foram realizados com o objetivo de avaliar a plataforma, permitindo a definição de alguns parâmetros de dimensionamento para sua implantação.


  • Mostrar Abstract
  • The IoT(Internet of Things) proposes that computer systems are formed by
    several information producers and/or consumer devices, allowing the
    development of various solutions based on data collection and analysis.
    However, in addition to data collection and analysis, it is also
    necessary to make decisions and act on them. This work’s proposal is to
    develop a support platform for IoT applications, not only allowing data
    collection and analysis, but also their use for decision making and
    action. The platform will allow any device with Internet access to send
    information in various formats, supporting real-time monitoring of the
    collected data, as well as the definition of decision-making mechanisms,
    such as the activation of a particular device or the generation of
    alerts. As a case study, the platform was applied to monitor a hospital
    style environment. Some controlled experiments
    were conducted to evaluate the platform, providing the means for the
    definition of some design parameters for its deployment.

4
  • ARTEJOSE REVOREDO DA SILVA
  • Um sistema de controle inteligente de ambientes baseado em rede de sensores e classificação de padrões

  • Orientador : JOAO CARLOS XAVIER JUNIOR
  • MEMBROS DA BANCA :
  • GIBEON SOARES DE AQUINO JUNIOR
  • IVANOVITCH MEDEIROS DANTAS DA SILVA
  • JOAO CARLOS XAVIER JUNIOR
  • LEONARDO AUGUSTO CASILLO
  • Data: 20/07/2016

  • Mostrar Resumo
  • Os laboratórios de análises químicas, por se constituírem em um conjunto de testes e procedimentos, usando produtos e equipamentos específicos para tratar dos resultados nas amostras que são testadas, estão sempre sujeitos aos fatores inerentes ao ambiente. Devido a esse fato, controlar fatores como a temperatura e a umidade relativa do ar é tarefa primordial, para que os processos desenvolvidos dentro de tais ambientes (laboratórios de análises químicas) possam ser repetidos dentro dos parâmetros exigidos.

    Buscando propor mecanismos de controle para ambientes, mais especificamente para laboratórios de análises químicas, neste trabalho, apresentamos um sistema baseado em rede de sensores e reconhecimento de padrões para controle inteligente de ambientes. Nosso protótipo utiliza os próprios dados gerados pelos sensores distribuídos pelo ambiente, para identificar um padrão de comportamente. Através da utilização de algoritmos de aprendizado de máquina, identificam-se as classes contidas nos dados (agrupamento), treina-se e testa-se o sistema (algoritmos de classificação), para que o mesmo consiga generalizar o que foi aprendido. Por último, criam-se regras de controle associadas as classes previamente identificadas, para controlar os aparelhos de ar condicionado, tanto o principal quanto o reserva, e mais o desumificador. Dessa forma, o protótipo mantém temperatura e umidade estaveis de forma inteligente.


  • Mostrar Abstract
  • In general, laboratories or labs are workplaces that provide controlled conditions for experiments and measurements to be performed. For this reason, controlling temperature and humidity is an important requirement that needs to be achieved in order to guarantee the reproducibility of processes carried out in labs.

    Aiming to propose efficient environmental controlling mechanisms, specifically for chemical analysis laboratories, we present in this work an intelligent environmental control system based on sensors network and pattern recognition. Our prototype uses its own data generated by sensors distributed in the environment to identify a pattern of behavior. Through the use of machine learning algorithms, the system identifies the classes within the data (clustering), does the training and testing procedures (classification), so that it can generalize what was learned. Finally, the rules are created in association with previously identified classes in order to control air conditioners, both the main and the spare ones, plus the dehumidifier. In this sense, the prototype keeps temperature and humidity stable and in an effective way.

5
  • LUCIANO ANTÔNIO CORDEIRO DE SOUSA
  • Estudo Exploratório da Atividade de Testes num Sistema de Acompanhamento de Obras

  • Orientador : BRUNO SANTANA DA SILVA
  • MEMBROS DA BANCA :
  • BRUNO SANTANA DA SILVA
  • CLAUDIA MARIA FERNANDES ARAÚJO RIBEIRO
  • FERNANDO MARQUES FIGUEIRA FILHO
  • Data: 04/08/2016

  • Mostrar Resumo
  • Apesar de termos a área de testes de software estar bem estabelecida na academia, algumas equipes de desenvolvimento de software no mercado acabam não dando atenção necessária a esta atividade. Este trabalho apresenta um estudo de caso sobre chamados e testes ao longo de 3 anos de um sistema de controle de obras de uma empresa de energia. Buscou-se identificar relações entre chamados dos usuários, funcionalidades,  testes  automatizados e  modificações no  código-fonte, para compreender algumas consequências de decisões tomadas e identificar oportunidades de melhorias no processo de desenvolvimento do sistema analisado.


  • Mostrar Abstract
  • Although testing area has been established in academy, some software development teams in industry do not take proper care of this activity. This work presents a case study about bug reports and tests of the construction monitoring system of an energy company during 3 years. The aim is to identify relationships between bug reports, features, automated testing and modifications to the source
    code, to understand some consequences of decisions and to identify opportunities for improvement in the analyzed development process.

6
  • RAFAEL DIAS SANTOS
  • Comparação entre métodos de avaliação de IHC durante o projeto de um sistema jurídico para smarphone

  • Orientador : BRUNO SANTANA DA SILVA
  • MEMBROS DA BANCA :
  • BRUNO SANTANA DA SILVA
  • ISABEL DILLMANN NUNES
  • LUCIANA APARECIDA MARTINEZ ZAINA
  • SILVIA AMÉLIA BIM
  • Data: 08/08/2016

  • Mostrar Resumo
  • Qualidade  e  tempo  são  fatores  importantes  no  processo  de  desenvolvimento de software, pois se espera entregar um produto de qualidade com custo e prazo aceitáveis. Esses fatores são ainda mais relevantes em um ambiente de inovação  e de  pequenas  empresas,  como  em  startups.  Muitas  empresas  ainda não  desenvolvem  atividades  para  melhorar  a  qualidade  de  uso  dos  softwares que desenvolvem. O desconhecimento sobre métodos de avaliação e a expectativa de grande aumento no custo e nos prazos têm sido argumentos para manter a cultura atual em algumas empresas. Este trabalho compara três  métodos de avaliação de interface bem difundidos na literatura: método de avaliação heurística, método de avaliação de comunicabilidade e teste de usabilidade. Buscou-se compreender como eles contribuem para o trabalho do designer durante a concepção da solução de interação e interface com usuário. Comparou-se as atividades realizadas, o tempo de execução, os materiais utilizados, perfil e quantidade  de  avaliadores  e  usuários  envolvidos,  os  resultados  e  as  dificuldades  do avaliador durante a execução dos métodos. Tal comparação foi realizada por um designer, como parte do projeto do sistema jurídico da SoftUrbano para  smartphone.  Os  resultados  dessa  comparação  podem  informar  melhor os  profissionais sobre a prática de avaliação de interface com usuário e contribuir para mudar  a  cultura de desenvolvimento de  software em  muitas  empresas,  principalmente pequenas e startups.


  • Mostrar Abstract
  • Quality and time are important factors in software development process, because  we  expect  to  deliver  a  high  quality  product  with  acceptable  cost  and deadline. These factors are even more relevant to innovative environments and small businesses, like a startup. Many companies still don’t carry out activities to improve quality of use of software they had developed. Lack of knowledge of HCI evaluation  methods  and  expectation  of  large  increase  in  coast  and  deadlines have been arguments to maintain the current culture in some companies. This work compares three HCI  evaluation methods well known in literature: heuristic evaluation, communicability evaluation and usability testing. We investigate how they  contribute  to  designer’s  work  during  conception  of  their  interaction  and user interface solution. We compared the activities, time of execution, used materials, profile and number of involved evaluators and users, results and difficulties of evaluators during the execution of methods. This comparison was made by a designer as part of SoftUrbano’s juridical system for smartphone. The results can better inform professionals about the HCI evaluation practice and contribute to changing the software development culture in many companies, especially small businesses and startups.

7
  • THIAGO FERNANDES SILVA DUTRA
  • BEEHIVEIOR MONITOR -Sistema de Controle e Monitoramento de Colmeias de Produção Apícola

  • Orientador : RUMMENIGGE RUDSON DANTAS
  • MEMBROS DA BANCA :
  • RAFAEL VIDAL AROCA
  • RUMMENIGGE RUDSON DANTAS
  • SERGIO QUEIROZ DE MEDEIROS
  • Data: 08/08/2016

  • Mostrar Resumo
  • As abelhas são animais de grande importância para manter o ecossistema
    global, principalmente pelo seu papel ativo no processo de polinização de diversas
    plantas no planeta. A apicultura, definida atualmente como a criação racional de
    abelhas, é uma importante atividade econômica mundial que movimenta anualmente
    um mercado bilionário. O desenvolvimento eficiente da atividade apícola envolve
    inúmeros desafios de diversas áreas de atuação e conhecimento, que vai desde
    operações cotidianas de manutenção do apiário até o monitoramento comportamental
    das abelhas e do ambiente no qual o apiário esta inserido. A UEPA-EAJ (Unidade de
    Extração de Produtos Apícolas, da Escola Agrícola de Jundiaí) é um importante
    centro de atividades, estudos e pesquisas apícolas do RN. Esse trabalho propõe então
    o desenvolvimento de uma ferramenta computacional de automação e controle com os
    objetivos de auxiliar e dar um maior embasamento aos estudos e pesquisas realizadas
    pela UEPA-EAJ, bem como o de facilitar atividades cotidianas presentes no manejo
    do apiário dessa unidade.


  • Mostrar Abstract
  • Bees are very important animals to the global ecosystem, mainly for their
    active role in pollination process of many plants on the planet. Beekeeping, currently
    defined as the rational creation of bees, is a global economic activity that annually
    moves a billionaire market. The efficient development of beekeeping involves
    numerous challenges in many aspects, ranging from daily activities to keep the apiary
    until monitor the behavior of bees and the apiary environment. The UEPA-EAJ (an
    unit for explore bee products at Jundiaí’s agricultural school) is an important center
    for activities, studies and research on beekeeping in Brazil-RN. This work proposes
    the development of a computational tool, composed by automation and control
    devices, with the goal to give a better basis for the studies and researches carried out
    by UEPA-EAJ, as well to improve the daily activities to maintain the apiary of this
    unit.

8
  • EDUARDO LIMA RIBEIRO
  • INTEGRA: Uma solução para integração de sistemas de HelpDesk com sistemas de Issue Tracking em ambientes heterogêneos

  • Orientador : IDALMIS MILIAN SARDINA MARTINS
  • MEMBROS DA BANCA :
  • IDALMIS MILIAN SARDINA MARTINS
  • FREDERICO ARAUJO DA SILVA LOPES
  • UIRA KULESZA
  • CRISTIANO MARCIEL
  • Data: 10/08/2016

  • Mostrar Resumo
  • Independente da área de atuação e devido às necessidades de negócio
    dado o ritmo das inovações, organizações públicas e privadas vêm se
    adaptando constantemente às mudanças tecnológicas, seja com as
    melhores práticas de mercado ou com a atualização de suas tecnologias.
    Estas mudanças frequentes muitas vezes acabam criando na empresa um
    ambiente bastante heterogêneo, onde os sistemas envolvidos no negócio
    e que foram desenvolvidos em diversas plataformas (por exemplo,
    linguagem de programação e/ou banco de dados) operam de maneira
    isolada. Em situações como esta, a empresa precisa adotar estratégias
    para prover a interoperabilidade entre seus sistemas e assim garantir
    uma devida comunicação, visando propiciar o intercâmbio de informações
    entre os departamentos e a integração das regras do negócio. O
    objetivo central deste trabalho foi propor e desenvolver estratégias
    que permitam a integração de sistemas nestes ambientes heterogêneos,
    independente da plataforma e linguagem de desenvolvimento dos
    sistemas.  Com o objetivo de resolver os problemas atuais de
    comunicação e performance entre os diferentes sistemas de informação
    na Secretaria de Ensino a Distância (SEDIS) da Universidade Federal do
    Rio Grande do Norte (UFRN), foi desenvolvido um middleware denominado
    INTEGRA, concebido em uma arquitetura orientada a serviços. A proposta
    foi criada para a SEDIS, entretanto pode ser estendida a outras
    instituições públicas de ensino superior. Uma das vantagens da
    arquitetura proposta é a de proporcionar a adição de novos sistemas
    sem causar fortes impactos de adaptações e mudanças, garantindo a
    manutenibilidade geral do software. O middleware comunica diferentes
    sistemas help desk e issue tracking oferecendo uma gama de serviços
    mediante um protocolo de comunicação que padroniza a troca e o
    roteamento das mensagens. Através da estratégia proposta como mostra o
    estudo de caso, foi possível chegar a um equilíbrio entre o princípio
    do desacoplamento e o princípio da distribuição de responsabilidade de
    maneira uniforme, garantindo assim um baixo acoplamento e uma alta
    coesão, princípios desejáveis na engenharia de software.


  • Mostrar Abstract
  • Regardless of the area of operation and due to business needs, given
    the pace of innovation, public and private organizations are
    constantly adapting to technological changes, either with the best
    market practices or upgrading their technologies. These frequent
    changes often end up creating in the company a very heterogeneous
    environment, where the systems involved in the business were developed
    using various platforms (for example, programming language and / or
    database) operate in an isolated way. In situations like this, the
    company needs to adopt strategies to provide interoperability between
    their systems and thus ensure a good communication, aiming to promote
    the exchange of information between departments and the integration of
    business rules. The main objective of this work was to propose and
    develop strategies enabling the integration of systems in these
    heterogeneous environments, regardless of platform and development
    language of the systems. In order to solve the current communication
    problems and performance between different information systems in the
    Department of Distance Education (SEDIS) of the Federal University of
    Rio Grande do Norte (UFRN), it was developed a so-called middleware
    INTEGRA designed on a service-oriented architecture. The proposal It
    was created for the SEDIS, but can be extended to other public
    institutions of higher education. One of the advantages of the
    architecture proposed is to provide the addition of new systems
    without causing a severe impacts of adjustments and changes, ensuring
    general maintainability of the software. The middleware creates
    communication between different help desk systems and issue tracking
    offering a range of services through a communication protocol that
    standardizes the exchange and routing of messages. Through the
    proposed strategy as showed in the poc, it was possible to get a
    balance between the principle of decoupling and the principle of
    uniformly distributing responsibility, thus guaranteeing a low
    coupling and high cohesion, desirable principles in Software
    Engineering.

9
  • MARCELO VARELA DE SOUZA
  • Domótica de baixo custo usando princípios de IoT

  • Orientador : ANDRE MAURICIO CUNHA CAMPOS
  • MEMBROS DA BANCA :
  • ALBERTO SIGNORETTI
  • ANDRE MAURICIO CUNHA CAMPOS
  • IVANOVITCH MEDEIROS DANTAS DA SILVA
  • JOAO MORENO VILAS BOAS DE SOUZA SILVA
  • Data: 11/08/2016

  • Mostrar Resumo
  • A procura por soluções domésticas abriu caminho para a automação residencial por meio de sistemas que se propõe a melhorar a qualidade devida e economizar recursos. O presente trabalho faz um breve estudo sobre domótica e os componentes eletrônicos necessários para sua aplicação. Descreve ainda o método para o desenvolvimento de um projeto de automação residencial usando conceitos de IoT e a plataforma Arduino. O sistema proposto possui, além do baixo custo, uma interface de fácil utilização, e é composto por uma aplicação para smartphones e sensores de controle para equipamentos domésticos, como lâmpadas e condicionadores de ar. O desenvolvimento deste sistema se deu através da utilização de emissores e receptores infravermelhos, módulos de radiofrequência XBee e plataformas microcontroladas Arduino, nas versões Mega e Uno e microcontroladores ESP8266.


  • Mostrar Abstract
  • Demand for domestic solutions opened the way for the home automation through systems that proposes to improve the quality of life and save resources. This paper makes a brief study of home automation and electronic components required for your application. It also describes the method for the development of a home automation project using concepts of IoT and the Arduino platform. The proposed system has, in addition to low cost, a friendly interface, and consists of an application for smartphones and control sensors for household appliances such as lamps and air conditioners. The development of this system was made through the use of infrared transmitters and receivers, XBee radio frequency modules and Arduino microcontrolled platforms, in some versions, and microcontrolled ESP8266.

10
  • JULIO CESAR LEONCIO DA SILVA
  • Um Estudo Exploratório de Avaliação e Documentação de Arquiteturas de Software em Empresas de Software

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • EDUARDO MARTINS GUERRA
  • Felipe Alves Pereira Pinto
  • FERNANDO MARQUES FIGUEIRA FILHO
  • UIRA KULESZA
  • Data: 25/08/2016

  • Mostrar Resumo
  • Muitas vezes o arquiteto de software responsável pela definição e avaliação da arquitetura de software não consegue estabelecer quais requisitos não-funcionais devem ser priorizados no desenvolvimento de seus sistemas. Com isso, falhas podem ocorrer durante a execução do sistema demandando mais tempo e recursos para que seja corrigido. Em muitos casos, com a inexperiência dos arquitetos ou a necessidade de disponibilização rápida de um sistema, os requisitos não-funcionais não são considerados durante a definição da arquitetura de software e também não é feita a devida documentação da arquitetura, tornando difícil o acesso e entendimento da arquitetura pelos demais integrantes da equipe e dificultando a manutenção de componentes/módulos da arquitetura e respectivos relacionamentos. Este trabalho buscou levantar junto às empresas de software, públicas e privadas, quais as principais estratégias utilizadas na definição e avaliação da arquitetura, principalmente na obtenção e cumprimento dos requisitos não-funcionais, e documentação arquitetural. Nosso estudo contou com a participação de 17 arquitetos de software para responder o questionário proposto. Com a realização do questionário identificamos que os requisitos não-funcionais de desempenho e confiabilidade são os mais importantes a serem atendidos pela arquitetura e que mesmo com a existência de algumas abordagens para a avaliação de arquiteturas, elas não parecem estar bem difundidas e/ou utilizadas entre os arquitetos. Além disso, o trabalho propõe a utilização de um guia que busca auxiliar arquitetos de software na atividade de avaliação do cumprimento dos requisitos não-funcionais pela arquitetura durante a evolução do sistema, priorizando o requisito não-funcional de desempenho


  • Mostrar Abstract
  • Usually, the software architect responsible for the software architecture definition and evaluation cannot rank which non-functional requirements must be prioritized during the development of their systems. Because of that, failures may happen during the system execution requiring more time and resources to fix it. In many cases, due to the inexperience of architects or the need for rapid deployment of a system, the non-functional requirements are not considered in the software architecture definition phase and the its documentation is absent or incomplete, making the software architecture difficult to be accessed and understood by others team members and also more difficult the maintenance of its components/modules and relationships. This work raises with public and private software companies which are their main strategies used to define software architecture in terms of its documentation and to ensure it is suitable for non-functional requirements of interest. Our study had the participation of 17 software architects to answer the survey. With the completion of the survey we identified that the non-functional requirements for performance and reliability are the most important to be addressed by the architecture and even with the existence of some approaches to evaluation architectures, they do not seem to be well disseminated and / or used among architects. Besides that, we propose a guide to help software architects in the task of achieving such non-functional requirements during the evolution of software systems. The proposed guide prioritizes the non-functional requirement of performance.

11
  • ARLINDO RODRIGUES DA SILVA NETO
  • GoldBI: Uma solução de Business Intelligence como serviço

  • Orientador : GLEYDSON DE AZEVEDO FERREIRA LIMA
  • MEMBROS DA BANCA :
  • GLEYDSON DE AZEVEDO FERREIRA LIMA
  • FREDERICO ARAUJO DA SILVA LOPES
  • FRANCISCO DANTAS DE MEDEIROS NETO
  • Data: 26/08/2016

  • Mostrar Resumo
  • A obtenção de resultados concretos com tomada de decisão estratégica exige a análise

    de dados e variáveis bem consolidadas. Nos dias atuais, é praticamente inviável realizar

    uma boa análise sem o auxílio de um software para geração de relatórios e estatísticas.

    Business Intelligence (BI) surgiu com o intuito de simplificar a análise de informações

    gerenciais e estatísticas, gerando uma gama maior de ferramentas analíticas para gerar

    indicadores através de gráficos ou listagem dinâmica de dados gerenciais. Porém muitas

    ferramentas de BI disponíveis no mercado possuem um alto custo e limitam sua utilização

    em redes locais de ambientes desktop, além de ser necessário um nível técnico elevado para

    sua utilização.

    A proposta desde trabalho é criar uma ferramenta BI que seja disponível em nuvem

    (cloud computing) através de SaaS (Software as Service) e que possa ser simples o suficiente

    para que qualquer usuário possa manipulá-lo, de forma eficaz e objetiva. Utilizando

    técnicas de ETL (Extract, Transform, Load) que facilitará a extração e processamento

    desses dados de forma descentralizada, a aplicação deve apresentar-se leve e disponível

    em qualquer ambiente computacional.


  • Mostrar Abstract
  • The achievement of concrete results with strategic decision making requires analysis
    of well established data and variables. Nowadays, it is practically impossible conduct
    a proper analysis without the aid of a software for reporting and statistics. Business
    Intelligence (BI) has emerged in order to simplify the analysis of management information
    and statistics, generating a wider range of analytical tools to identify indicators through
    graphs or dynamic listing of management data. But many BI tools on the market, and
    has a high cost, limited to use in local networks of desktop environments, in addition to
    being required high technical standards for its use.
    The proposal from work is to create a BI tool that is available in the cloud (cloud
    computing) through SaaS (Software as Service) and can be simple enough so that any
    user can manipulate it effectively and objectively. Using techniques of ETL (Extract,
    Transform, Load) to facilitate the extraction and processing of such data in a decentralized
    manner the application should appear light and available in any computing environment.
12
  • THIAGO DAVID DOS SANTOS MARINHO
  • Uma Linguagem Específica de Domínio Extensível para Geração de Testes de Performance

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • Felipe Alves Pereira Pinto
  • FRANKLIN DE SOUZA RAMALHO
  • SERGIO QUEIROZ DE MEDEIROS
  • UIRA KULESZA
  • Data: 30/08/2016

  • Mostrar Resumo
  • Este trabalho apresenta uma ferramenta composta por uma linguagem específica de domínio utilizada para descrever textualmente testes de performance, e por um componente que utiliza os testes descritos para gerar projetos em diferentes plataformas de execução de testes de performance. O objetivo é utilizar os conceitos definidos na linguagem para abstrair os conceitos de cada plataforma, que muitas vezes são modelados diferentemente (quanto à nomenclatura e/ou estrutura) e até dependentes da ferramenta, ao invés de apenas do domínio. A ferramenta proposta oferece suporte para testes de serviços SOAP, REST e de aplicações web para JMeter e Silk Performer. Ela também permite a extensão para novos tipos de testes e plataformas alvo. Foram feitos estudos para avaliar o uso da ferramenta: 3 testes de aplicações Web, REST e SOAP foram reescritos na DSL e então foram gerados projetos nas plataformas de destino, para que fossem executados. A partir dos ajustes e novas implementações necessários para a geração dos projetos, obteve-se feedback referente a capacidade de customização da ferramenta em relação aos tipos de aplicações e características de plataformas e organizações. Além disso, os scripts também foram avaliados em relação à sua concisão: além dos testes implementados com a DSL e com o Silk Performer, foram criados testes com a ferramenta Gatling.io (também baseados no teste da empresa). Comparou-se o total de palavras necessárias para a definição de cada teste, além da relação entre o número de palavras reservadas e o total de palavras, e a relação entre o número de palavras reservadas fora do contexto, e o total de palavras reservadas. Em média, os testes com a DSL apresentaram um percentual de 57,38% de palavras reservadas em relação ao total, contra 40,17% do Silk Performer e 65,11% do Gatling.io. Esta primeira comparação pode ser interpretada como a quantidade de informação adicional que o usuário precisa fornecer pra cada linguagem, além das estruturas fornecidas pela mesma. Já na segunda comparação, que pode interpretada como o quanto a sintaxe da linguagem hospedeira pode interferir na visualização das informações dos testes, a DSL teve em média 23,65% de palavras reservadas fora do contexto em relação ao total de palavras reservadas, contra 39,84% do Silk Performer e 53,98% do Gatling. Dessa forma, foi possível observar a viabilidade de utilizar a DSL para diferentes tipos de aplicações, customizando-a de acordo com determinados conceitos e características de plataformas e organizações.


  • Mostrar Abstract
  • This work presents a tool composed by a domain-specific language used to describe textually performance tests, and by a component that uses those described tests to generate projects in different performance test execution platforms. The purpose is to use concepts defined in the language to abstract the concepts of each platform, which are often modeled differently (regarding nomenclature and/or structure) and even dependent on the tool rather than just the domain. The proposed tool supports SOAP, REST and web applications performance tests to JMeter and Silk Performer. It also allows extension to new test types and target platforms. Studies has been made to evaluate the tool’s usage: tests from a company were rewritten with the DSL and then projects were generated on the target platforms, to be executed. This study also served to help in the development of the tool. It was possible to observe the feasibility of using the DSL to different application types, customizing it according to concepts and characterists of platforms and organizations.

SIGAA | Superintendência de Tecnologia da Informação - (84) 3342 2210 | Copyright © 2006-2024 - UFRN - sigaa06-producao.info.ufrn.br.sigaa06-producao