|
Dissertações |
|
1
|
-
PEDRO HENRIQUE RODRIGUES EMERICK
-
Proposta de uma arquitetura para (pseudo)anonimização multinível de dados em saúde
-
Orientador : ROGER KREUTZ IMMICH
-
MEMBROS DA BANCA :
-
ROGER KREUTZ IMMICH
-
ITAMIR DE MORAIS BARROCA FILHO
-
SILVIO COSTA SAMPAIO
-
PATRÍCIA RAQUEL VIEIRA SOUSA
-
DIEGO LUIZ KREUTZ
-
Data: 27/02/2023
-
-
Mostrar Resumo
-
Nas últimas décadas, a evolução tecnológica trouxe inúmeros avanços, mas também permitiu a coleta, o processamento e o armazenamento intensivos de dados pessoais. São muitas as evidências, principalmente de revelações sobre as operações e fuga de dados de grandes empresas que têm os dados como seu maior ativo, a exemplo do Facebook, Google, Amazon e Ubber. Diante desta constatação, nota-se um preocupação crescente com a utilização destes dados, evidenciada pela profusão de legislações mundo afora, que visam proteger a privacidade dos indivíduos. As diversas legislações apontam para a necessidade de implementação de processos e técnicas que garantam a privacidade dos dados, dentre as quais está a (pseudo)anonimização dos dados. É neste contexto e buscando contribuir para a proteção da privacidade, que, neste trabalho, é proposta uma arquitetura para a (pseudo)anonimização multinível de dados em saúde. Multinível, pois os dados são pseudonimizados em dois níveis diferentes, um local e um global, garantindo assim que dados de múltiplos provedores de dados possam ser relacionados, ainda que (pseudo)anonimizados. O foco na área da saúde é, por um lado, uma aplicação desafiadora, dada a sensibilidade dos dados. A arquitetura proposta neste trabalho foi implementada como uma prova de conceito e avaliada a partir de um conjunto de testes. Os resultados dos testes sugerem que a arquitetura possibilita uma correta anonimização na fonte, uma ligação segura dos dados (pseudo)anonimizados em múltiplas fontes e ainda permite a reidentificação para casos que envolvam a segurança dos indivíduos envolvidos.
-
Mostrar Abstract
-
In recent decades, technological evolution has brought numerous advances allowing intensive collection, processing, and storage of personal data. There is much evidence, mainly revelations, about the operations and data breaches of large companies with data as their most significant asset, such as Facebook, Google, Amazon, and Uber. Due to this finding, there is a growing concern about using these data, evidenced by the profusion of laws worldwide that aim to protect individuals' privacy. The various legislations point to the need to implement processes and techniques that guarantee data privacy, among which is the (pseudo)anonymization of data. It is in this context and seeking to contribute to the protection of privacy that, in this work, an architecture is proposed for the multilevel (pseudo)anonymization of health data. Multilevel, as data is pseudonymized at two levels, one local and one global, thus ensuring that data from multiple providers can be related yet (pseudo)anonymized. The focus on the health area is, on the one hand, a challenging application, given the sensitivity of the data. The architecture proposed in this work was implemented as a proof of concept and evaluated from a set of tests. Test results suggest that the architecture enables correct anonymization at the source, secure linking of (pseudo)anonymized data across multiple sources, and even allows reidentification for cases involving the security of the individuals involved.
|
|
2
|
-
DEGEMAR PEREIRA DA SILVA
-
Esquema de autenticação e acordo de chaves para Internet das Coisas utilizando o protocolo MQTT
-
Orientador : ROGER KREUTZ IMMICH
-
MEMBROS DA BANCA :
-
LOURENCO ALVES PEREIRA JUNIOR
-
GUSTAVO GIRAO BARRETO DA SILVA
-
RAMON DOS REIS FONTES
-
ROGER KREUTZ IMMICH
-
SILVIO COSTA SAMPAIO
-
Data: 28/02/2023
-
-
Mostrar Resumo
-
A Internet das Coisas (IoT) está passando por um grande crescimento, permitindo que mais dispositivos estejam conectados na Internet e assim, levando assim, a um aumento no volume de dados. Esta tecnologia passa por diversos desafios, neste sentido, podemos destacar a segurança da informação. Em ambientes IoT a segurança é essencial para não permitir a entrada de dispositivos mal intencionados na rede, promover comunicação segura e proteção a dados sigilosos. Existem muitos fatores que estão ligados a um bom sistema de segurança, por exemplo, autenticação, criptografia, canal seguro de comunicação e identificação de usuários. Está dissertação apresenta um esquema de autenticação e acordo de chaves para IoT com o objetivo de ser utilizada em conjunto com o protocolo de comunicação MQTT. O esquema proposto foi desenvolvido utilizando um conjunto de técnicas como, porta lógica XOR, criptografia simétrica e funções hash. Além disso, é proposto o uso da técnica de PUF para a identificação única de dispositivos em IoT. O algoritmo foi testado utilizando uma ferramenta de validação formal de protocolos de segurança, o Scyther. Além disso, um protótipo do esquema desenvolvido foi implementado em um ambiente de testes utilizando máquinas virtuais. Para tanto, foi utilizada a linguagem Python no desenvolvimento da proposta e o serviço Mosquitto, com o protocolo MQTT. No decorrer da avaliação de desempenho, ficou evidente a existência de um comprometimento do recursos computacionais em função da segurança provida, existindo assim espaço para aprimoramentos da proposta. Por outro lado, os resultados mostraram claramente que o esquema apresentado possui os requisitos necessários para prover autenticação segura e proteção de dados enviados e recebidos pelos dispositivos.
-
Mostrar Abstract
-
The Internet of Things is passing for a large growth, allowing that more devices be connected in the Internet and so, taking to a increase volume data. This technology pass through several challenges and one of the main is the information security. In IoT environments the security is essential for not permit the entrance of bad intentional devices, offer secure communication and data protection. Exist a lot of factors that are connected to a good security system, for exemple, athentication, criptography, secure communication canal and users identification. This work apresent a authentication scheme for Internet of Things that can be use with MQTT protocol. The propose scheme was developed using a set of tecniques like, logic port XOR, symetric criptography and hash functions. Other than that, is propose the use of PUF tecnique for unique identification of devices in IoT. The algorithm was tested using a tool for formal validation of security protocols, the scyther. In addition, the schema was implemented in a test environment using virtual machines. Therefore the python language was used to develop the schema and the Mosquitto service, with the MQTT protocol. During the performance evaluation, it was evident the existence of a commitment in the computational resources depending on of the provides security, existing a space to improve of the algorithm. On the other hand, the results showed that the schema own the necessary requirements to provide safe authentication and protection to data sended and received by devices.
|
|
3
|
-
LUCAS NOVAIS ASSUNÇÃO
-
Perda de conhecimento em projetos de software devido a rotatividade de profissionais de TI: Um estudo na Universidade Federal de Viçosa – UFV
-
Orientador : EIJI ADACHI MEDEIROS BARBOSA
-
MEMBROS DA BANCA :
-
EIJI ADACHI MEDEIROS BARBOSA
-
FERNANDO MARQUES FIGUEIRA FILHO
-
AWDREN DE LIMA FONTAO
-
Data: 20/04/2023
-
-
Mostrar Resumo
-
O conhecimento é considerado um dos ativos estratégicos mais importantes para as organizações contemporâneas. Prusak (1997) destaca que “conhecimento e inteligência estão conectados: a inteligência é necessária para se gerar conhecimento e o conhecimento fornece a base através da qual a inteligência pode ser aplicada”. A Inteligência advém de pessoal qualificado que, apoiado pelos recursos de Tecnologia da Informação (TI), executa, gerencia e toma as melhores decisões para o bom desempenho das organizações, sejam elas públicas ou privadas. Pesquisas mostram que a rotatividade de profissionais de TI tornou-se um problema crônico e o déficit pode chegar a meio milhão até 2025, refletindo uma aceleração significativa da demanda deste setor. Além disso, formam-se no Brasil 53 mil pessoas ao ano – um terço da demanda projetada – e quase 50% dos já contratados nos últimos 12 meses tiveram duas ofertas de emprego adicionais, as quais são levadas em consideração e que pode vir a representar a saída voluntária da atual organização num curto ou médio prazo. A rotatividade de profissionais de TI acarreta diversos custos; minimizar e conter seus danos tornou-se um difícil e recorrente desafio para os gestores de Recursos Humanos, não somente por questões econômicas, mas sobretudo para a gestão e preservação do principal ativo imaterial diretamente responsável pelo sucesso de qualquer organização: o conhecimento. Este trabalho apresenta um estudo sobre perda e retenção de conhecimento na Universidade Federal de Viçosa (UFV), onde o fenômeno da rotatividade para o cargo de Técnico em Tecnologia da Informação nos anos de 2021 e 2022 foi considerado relevante. Ao final, foram propostas recomendações para mudanças e tratamento dos principais problemas que emergiram do contexto estudado. O objetivo geral é assegurar o bom andamento dos trabalhos, preservar a memória institucional e evitar eventuais perdas de recursos públicos.
-
Mostrar Abstract
-
Knowledge is considered one of the most important strategic assets for contemporary organizations. Prusak (1997) highlights that ‘knowledge and intelligence are connected: intelligence is necessary to generate knowledge and knowledge provides the basis through which intelligence can be applied.’ Intelligence comes from people that, supported by Information Technology (IT), execute, manage, and make the best decisions for good performance of organizations, whether public or private. Research shows that the turnover of IT professionals has become a critical problem and the deficit may reach half a million by 2025, reflecting a significant acceleration of the demand in that sector. Furthermore, 53,000 people graduate every year in Brazil - a third of the projected demand - and almost 50% of those already hired in the last 12 months have had two additional job offers, which are considered and may represent the voluntary departure from the current organization in the short or medium term. The turnover of IT professionals brings several costs, minimizing and containing its damage has become a difficult and recurrent challenge for Human Resources, not only for economic reasons, but especially for the management and preservation of the main immaterial asset directly responsible for the success of any organization: knowledge. This paper will present a study about knowledge loss and retention at Federal University of Viçosa, where the turnover phenomenon for the position of Information Technology Technician in the last two years was considered relevant in order to ensure software development, preserving the institutional memory, and avoiding possible loss of public resources. A handbook for knowledge retention in software projects will be elaborated in this study in order to support managers and team members in implementing such actions in their work routine. The goal is to ensure good work progress, preserve institutional memory and avoid eventual public resource loss.
|
|
4
|
-
WILLIE LAWRENCE DA PAZ SILVA
-
Impacto da Evolução de Esquema de Banco de Dados na Disponibilidade de Software
-
Orientador : EIJI ADACHI MEDEIROS BARBOSA
-
MEMBROS DA BANCA :
-
EIJI ADACHI MEDEIROS BARBOSA
-
UIRA KULESZA
-
RODRIGO BONIFACIO DE ALMEIDA
-
Data: 28/04/2023
-
-
Mostrar Resumo
-
Ao longo da vida de um software que utiliza um banco de dados relacional para armazenar informações, observamos que a evolução natural da aplicação leva à alterações no esquema do banco de dados, que é a estrutura que define como as informações são armazenadas. Durante a execução das operações que são responsáveis por alterar o esquema do banco de dados podem ocorrer interrupções no acesso aos dados armazenados no banco de dados, fazendo com que uma aplicação em execução que depende desses dados fique inoperante até que a operação de atualização do esquema seja finalizada. Nós chamamos essas operações de atualização do esquema que causam interrupção no acesso aos dados de “operações bloqueantes”. As operações bloqueantes são um problema particularmente em sistemas que não podem ser interrompidos, como é o caso de sistemas de monitoramento, sistemas de venda com alto volume de tráfego, aplicações governamentais etc. Nesse trabalho nós estudamos a evolução do esquema do banco de dados de uma aplicação do mundo real para entender a natureza das operações de alteração de esquema e prever o impacto delas na disponibilidade do software. Além disso, realizamos uma série de experimentos controlados com o objetivo de analisar o impacto das operações bloqueantes na disponibilidade de uma aplicação em uso no momento da evolução do esquema. Por fim, nosso trabalho implementa algumas soluções, sugeridas pelos praticantes da indústria, para resolver o problema de disponibilidade dos dados durante a evolução do esquema. Assim, os mesmos conjuntos de experimentos realizados foram repetidos num novo cenário onde as sugestões da indústria foram implementadas. Nossos resultados mostram que as sugestões dos praticantes da indústria são eficientes até um determinado limite, de tal maneira que bancos de dados com um número muito grande de registros podem sentir uma diminuição considerável no tempo de indisponibilidade do banco de dados, porém não o suficiente para o usuário final de uma aplicação.
-
Mostrar Abstract
-
In the software’s life cycle that uses relational databases to store data, we observed that the natural evolution of the application takes to changes in the database schema, that is the structure that defines how the data is stored. During the execution of operations responsible for changes in the database schema, the database can interrupt the data access until the schema change operation finishes. We call these operations that cause interruptions in data access “blocking operations”. The blocking operations are a problem, particularly in systems that need high availability as monitoring systems, sale systems with high traffic volume, government systems, etc. In this work, we study the database schema evolution of a real-world application to understand the schema change operation’s blocking nature. Moreover, we performed a series of controlled experiments aiming to analyze the impact of schema change operations in the availability of an application being used during the the schema evolution. Finally, our work implements suggestions from industry practitioners to solve the data unavailability problem during the schema evolution. Thus, the same experiment set was repeated in a new scenario where the practitioner’s suggestions were applied. Our results show that the suggestions from practitioners are efficient until a limit, in such a way that databases with a high number of registries can have an evident decrease in the duration of database unavailability, but not enough to the final user.
|
|
5
|
-
ARYCLENIO XAVIER BARROS
-
A Catalog and a Detection Tool for Performance Bad Smells in React Systems
-
Orientador : EIJI ADACHI MEDEIROS BARBOSA
-
MEMBROS DA BANCA :
-
EIJI ADACHI MEDEIROS BARBOSA
-
ELDER JOSÉ REIOLI CIRILO
-
LEONARDO DA SILVA SOUSA
-
Data: 23/06/2023
-
-
Mostrar Resumo
-
The Javascript language is one of the most famous development tools today, gaining visibility in several areas such as web games, three-dimensional renderings, artificial intelligence and, mainly, the development of web applications, with its major role in the construction of interfaces through front end development. In this ecosystem, several libraries and frameworks were built, the most famous being the React library, developed and published by Meta (Facebook). Applications built on React, like any other system, need to remain usable and relevant over time. As empirical evidence shows, the presence of bad smells in the code might compromise the software evolvability. Based on this context, this work presents, based on mapping studies of the academic and gray literature, a proposal of bad smells oriented to the React library, integrating them to a code detection tool called ReactLint, which will flag code flaws and will indicate possible solutions to developers who use it. This work aims to validate the proposed smells, as well as the built tool, in order to identify whether they can affect the performance of a React application in the short and long term
-
Mostrar Abstract
-
The Javascript language is one of the most famous development tools today, gaining visibility in several areas such as web games, three-dimensional renderings, artificial intelligence and, mainly, the development of web applications, with its major role in the construction of interfaces through front end development. In this ecosystem, several libraries and frameworks were built, the most famous being the React library, developed and published by Meta (Facebook). Applications built on React, like any other system, need to remain usable and relevant over time. As empirical evidence shows, the presence of bad smells in the code might compromise the software evolvability. Based on this context, this work presents, based on mapping studies of the academic and gray literature, a proposal of bad smells oriented to the React library, integrating them to a code detection tool called ReactLint, which will flag code flaws and will indicate possible solutions to developers who use it. This work aims to validate the proposed smells, as well as the built tool, in order to identify whether they can affect the performance of a React application in the short and long term
|
|
6
|
-
IURI JANMICHEL DE SOUSA LIMA
-
Uma ferramenta baseada em aprendizado de máquina para previsão de participantes de processos avaliativos
-
Orientador : ITAMIR DE MORAIS BARROCA FILHO
-
MEMBROS DA BANCA :
-
DIEGO SILVEIRA COSTA NASCIMENTO
-
ITAMIR DE MORAIS BARROCA FILHO
-
JOAO CARLOS XAVIER JUNIOR
-
Data: 23/06/2023
-
-
Mostrar Resumo
-
Este trabalho foi desenvolvido dentro do Núcleo Permanente de Concursos da UFRN, a Comperve. Toda a gestão dos processos avaliativos que são organizados por este Núcleo, derivam diretamente da quantidade de participantes inscritos em seus processos avaliativos. Partindo dessas premissas, esse trabalho apresenta um modelo de utilização de técnicas de aprendizado de máquina sobre a organização logística dos processos avaliativos organizados pela Comperve. O modelo apresentado aqui, foi criado a partir das bases de dados disponíveis no Núcleo, que continham informações sobre os processos avaliativos realizados pela Comperve desde o início dos anos 2000. Para realização deste trabalho, foi investigado o contexto de execução das atividades onde atualmente está inserido este Núcleo, analisando como é feita a organização logística de seus processos, realizando a integração dos dados que se encontravam descentralizados e despadronizados e criando o modelo de treinamento que atingiu mais de 98% de acurácia na classificação da quantidade de participantes inscritos em seus processos. Para a aplicação desse modelo, foi desenvolvida uma ferramenta utilizando a infraestrutura do sistema de gestão dos processos avaliativos, que atualmente está sendo desenvolvido.
-
Mostrar Abstract
-
This work was developed within the Núcleo Permanente de Concursos (Permanent Center of Contests) of UFRN, the Comperve. All the management of the appraisal processes that are organized by this Center derive directly from the number of participants enrolled in its appraisal processes. Based on these assumptions, this work presents a model for the use of machine learning techniques on the logistical organization of the evaluation processes organized by Comperve. The model presented here was created from the data bases available in the Center, which contained information about the evaluation processes carried out by Comperve since the beginning of the 2000s. In order to carry out this work, the execution context of the activities where this Center is currently located was investigated, analyzing how the logistic organization of its processes is done, integrating the data that was decentralized and de-standardized, and creating the training model that achieved more than 98% of accuracy in the classification of the quantity of participants enrolled in its processes. For the application of this model, an application using the infrastructure of the management system of the appraisal processes, which is currently being developed, was developed.
|
|
7
|
-
CEZAR MIRANDA PAULA DE SOUZA
-
Um processo para Avaliação e Gerenciamento de Mudanças de Modelos de Aprendizado de Máquina aplicado a casos de uso na área da Saúde
-
Orientador : ITAMIR DE MORAIS BARROCA FILHO
-
MEMBROS DA BANCA :
-
ADRIAO DUARTE DORIA NETO
-
ANNA GISELLE CAMARA DANTAS RIBEIRO RODRIGUES
-
CICILIA RAQUEL MAIA LEITE
-
ITAMIR DE MORAIS BARROCA FILHO
-
Data: 26/06/2023
-
-
Mostrar Resumo
-
Suportado por avanços de hardware e software, o uso de Aprendizado de Máquina (AM), reconhecido por alavancar o trabalho nas mais variadas áreas de conhecimento, começou a acelerar exponencialmente nas últimas décadas. Os experimentos, em geral realizados em ambientes controlados, sobre amostras de dados previamente conhecidos e preparados, tem trazido resultados extraordinários, o que popularizou o uso do Aprendizado de Máquina ao ponto de ser difícil encontrar um ramo do conhecimento humano no qual o AM ainda não tenha sido abordado. Neste contexto, surgem questões relativas à representatividade das amostras de dados utilizadas, e à necessidade de se estabelecer garantias mínimas quanto a performance sobre dados desconhecidos (do mundo real), especialmente em aplicações críticas como as da Saúde, onde erros podem significar risco de vida para pacientes. Dentro do AM há uma disciplina chamada de Machine Learning Operations (ou MLOps, para simplificar), que se destina ao gerenciamento do ciclo de vida de modelos de Aprendizado de Máquina, desde sua concepção até sua entrega em produção (ambientes de uso efetivo no mundo real) e seu posterior monitoramento. Uma vez implantados, modelos estão sujeitos a problemas de decaimento de performance, causado por fenômenos como o drift, o que tem motivado estudos recentes sobre continual learning e monitoramento contínuo para modelos de AM. O presente trabalho se destina a identificar as técnicas do estado-da-arte no que se refere à avaliação de modelos de AM em uso efetivo no mundo real, com o objetivo de estabelecer um feedback-loop, incorporando monitoramento contínuo e gerenciamento de mudanças no ciclo de vida dos modelos. Finalmente, uma vez obtidas, estas definições, busca aplicá-las em um estudo de caso de modelos de AM na Saúde, e estabelecer um processo para sua avaliação. Os modelos em questão foram desenvolvidos como parte da Plataforma de Assistência Remota (PAR), e encontram-se em uso efetivo em UTI Oncológica.
-
Mostrar Abstract
-
Fostered by hardware and software advances, Machine Learning (ML) started to ramp up exponentially in the last few decades, and has become instrumental for advancing the work in the most varied areas of knowledge. Though generally restricted to controlledspace experiments, over previously obtained and curated data samples, results have been outstanding, which gave rise to such levels of popularity for ML applications that it’s hard to find an area of human knowledge left untouched by Machine Learning. In such context, establishing minimum performance guarantees over unknown, real-world data, becomes paramount, especially in Healthcare applications, where errors can lead to life-threatening situations. There’s an ML discipline, called Machine Learning Operations (or MLOps, for short), which concerns itself with ML Models’ lifecycle management, from conception to deployment in production (real-world) environments, including monitoring its real-world behavior. Once deployed, models are subject to performance decay issues, such as drift, which has motivated recent studies on continual learning and Continuous Monitoring of ML models. The present work focuses on identifying state-of-the-art techniques for evaluating model fitness in real-world usage scenarios, and on how to establish a feedback-loop to include continuous monitoring and change management in the models’ lifecycle. Finally, the present work aims to apply evaluation techniques in a case study of ML models applied to Healthcare, and establish a process for evaluating models. The target models were developed as part of the Remote Assistance Platform (PAR), and is currently in effective use in an oncologic ICU.
|
|
8
|
-
INÁCIA FERNANDES DA COSTA NETA
-
Um Estudo sobre Consumo Energético em Supercomputadores.
-
Orientador : GUSTAVO GIRAO BARRETO DA SILVA
-
MEMBROS DA BANCA :
-
GUSTAVO GIRAO BARRETO DA SILVA
-
ITAMIR DE MORAIS BARROCA FILHO
-
IVAN SARAIVA SILVA
-
SAMUEL XAVIER DE SOUZA
-
Data: 31/10/2023
-
-
Mostrar Resumo
-
A recente revolução tecnológica e exorbitante aumento de dados demandou uma necessi- dade de investimentos e melhorias na área de TI. Diversas são as atividades que reivin- dicam aumento do processamento e a imprescindibilidade de alta disponibilidade. Uma dessas atividades é a pesquisa, realizada por centros acadêmicos, por exemplo, que ca- recem de um equipamento de alto desempenho para tarefas de complexidade elevada. O consumo energético destes se torna grandioso e dispendioso, demandando estudos de dife- rentes estratégias na área. Nesse documento é apresentado um estudo inicial que aponta na direção da melhoria na gestão de energia de servidores a fim de permitir uma economia do consumo energético e consequente diminuição de gastos financeiros. É apontado um supercomputador como objeto de estudo, a partir do qual foram feitas coletas de dados de consumo computacional e energético, gerando análises distintas e comparativas entre si. Por fim, é sugerida uma estratégia para redução do consumo de energia desse equipamento como proposta para oportunidade de economia de energia e consequentemente financeira.
-
Mostrar Abstract
-
The recent technological revolution and the exorbitant increase in data required invest- ments and improvements in the IT area. There are several activities that require increased processing and the indispensability of high availability. One of these activities is research, carried out by academic centers, for example, which lack high-performance equipment for highly complex tasks. Their energy consumption becomes huge and expensive, requiring studies of different strategies in the area. This document presents an initial study for improving server energy management in order to save energy consumption and financial expenses. A supercomputer is appointed as the object of study, from which data on com- putational and energy consumption was collected, generating specific and comparative analyzes between them. Finally, a strategy is suggested to reduce the energy consump- tion of this equipment as a proposal for an opportunity to save energy and consequently financially.
|
|
9
|
-
ALEX AUGUSTO DE SOUZA SANTOS
-
Arquitetura de suporte à configuração de redes de computadores baseada em linguagem natural e descoberta de dispositivos
-
Orientador : ROGER KREUTZ IMMICH
-
MEMBROS DA BANCA :
-
Bruno Dalmazo
-
ELIZAMA DAS CHAGAS LEMOS
-
RAMON DOS REIS FONTES
-
ROGER KREUTZ IMMICH
-
Data: 24/11/2023
-
-
Mostrar Resumo
-
A internet está se tornando cada vez mais acessível e disponível para um número maior de pessoas. Contudo, os utilizadores de internet hoje em dia não são mais entusiastas ou acadêmicos como na sua origem, são pessoas comuns. Consequentemente os usuários que por necessidade precisam administrar uma rede local sob sua responsabilidade não são pessoas habilidosas tecnicamente e que tenham conhecimentos de jargões utilizado em redes de computadores. No contexto de uma rede local residencial, a presença crescente de dispositivos e a necessidade de controlar o acesso à rede demandam soluções que sejam acessíveis e intuitivas para usuários comuns que desejam ter um maior controle da sua rede. No entanto, as interfaces de configuração de roteadores residenciais atualmente são limitadas, pouco intuitivas e amigáveis ao publico em geral. Dessa forma, dificultam o controle de acesso e a personalização de configurações mais avançadas, por elas requererem conhecimentos técnicos especializados. Além disso, a ausência de padronização nessas interfaces cria obstáculos de acessibilidade para usuários. Como consequência, eles enfrentam dificuldades na configuração eficaz de seus roteadores residenciais, limitando sua capacidade de controlar o acesso à rede e de personalizar configurações. O uso da linguagem natural, seja através de voz ou texto vem a ser uma interface que apresenta uma vantagem neste contexto por sua simplicidade e acessibilidade para este público. Este trabalho aborda essa problemática e propõe uma arquitetura em camadas que utiliza linguagem natural e recursos de automação para facilitar a configuração de redes residenciais, sobretudo com o foco no controle de acesso de dispositivos e classes de dispositivos. Esta abordagem busca eliminar a necessidade de conhecimentos técnicos especializados por parte do usuário. Para atingir este objetivo, o presente trabalho aborda uma revisão do estado da arte com relação ao uso da linguagem natural no contexto da configuração de redes baseadas em intenção e contribui com a apresentação de mapeamento sistemático sobre o uso da linguagem natural para configuração de redes no contexto doméstico e com estratégias existentes para identificação e classificação de tipos de dispositivos em uma rede com dispositivos heterogêneos. Através do uso de ferramentas de processamento de linguagem natural, facilitado por inteligência artificial e recursos como identificação automática e classificação dos dispositivos, espera-se oferecer a pessoas comuns uma experiência mais intuitiva e eficiente na configuração de suas redes residenciais. Para validar a solução proposta, um protótipo em linguagem python será constituído estabelecerá uma hierarquia de tipos de dispositivos e uma hierarquia de intenções de configurações. Ambas compatíveis com o ambiente residencial. O protótipo se utilizará de comunicações entre APIs e protocolo SSH para conceder interoperabilidade entre as camadas propostas. Os resultados da pesquisa indicam que o uso da linguagem natural para configuração de redes ainda é pouco explorado no contexto residencial, principalmente no que se refere a detecção automática dos tipos de dispositivos presentes na rede. Até o momento as hierarquias propostas estão estabelecidas, assim como descritores necessários para o funcionamento do protótipo.
-
Mostrar Abstract
-
The internet is becoming increasingly accessible and available to a larger number of people. However, internet users nowadays are no longer enthusiasts or academics as they were in its origin; they are ordinary people. Consequently, users who need to manage a local network under their responsibility are not technically skilled individuals with knowledge of computer network Niche language. In the context of a residential local network, the growing presence of devices and the need to control network access demand solutions that are accessible and intuitive for common users who want greater control over their network. However, home router configuration interfaces are currently limited, unintuitive, and unfriendly to the general public. Consequently, they hinder access control and customization of advanced settings as they require specialized technical knowledge. Moreover, the lack of standardization in these interfaces creates accessibility barriers for users. As a result, users face difficulties in effectively configuring their residential routers, limiting their ability to control network access and customize settings. The use of natural language, whether through voice or text, becomes an interface that presents an advantage in this context due to its simplicity and accessibility for this audience. This work addresses this issue and proposes a layered architecture that utilizes natural language and automation resources to facilitate the configuration of residential networks, particularly focusing on device access control and device class control. This approach aims to eliminate the need for specialized technical knowledge from the user. To achieve this goal, this work reviews the state of the art regarding the use of natural language in the context of intent-based network configuration and contributes with a systematic mapping of the use of natural language for network configuration in the domestic context, along with existing strategies for device identification and classification in a network with heterogeneous devices. By using natural language processing tools facilitated by artificial intelligence and features such as automatic device identification and classification, it is expected to offer common users a more intuitive and efficient experience in configuring their residential networks. To validate the proposed solution, a prototype in the Python language will be developed, establishing a hierarchy of device types and a hierarchy of configuration intentions, both compatible with the residential environment. The prototype will utilize communication between APIs and the SSH protocol to provide interoperability between the proposed layers. The research results indicate that the use of natural language for network configuration is still underexplored in the residential context, particularly concerning automatic detection of device types present in the network. At this point, the proposed hierarchies and the necessary descriptors for the prototype's functioning have been established.
|
|
10
|
-
RIVALDO FERNANDES DE ALBUQUERQUE PEREIRA
-
Uma Arquitetura de Detecção de Anomalias em SDN utilizando inteligência computacional
-
Orientador : ROGER KREUTZ IMMICH
-
MEMBROS DA BANCA :
-
DOUGLAS D. J. DE MACEDO
-
MARCOS CESAR MADRUGA ALVES PINHEIRO
-
ROGER KREUTZ IMMICH
-
UIRA KULESZA
-
Data: 29/11/2023
-
-
Mostrar Resumo
-
Tecnologias emergentes como o Cloud, 5G, Internet of Things (IoT) e computação de borda, englobam controlar e conectar em rede milhões de dispositivos todos os dias. Configurar redes tradicionais com milhões de equipamentos é uma tarefa complexa pois exige configurar rotas em cada equipamento da rede. A Rede Definida por Software (SDN) pode ajudar na simplificação da configuração e gerenciamento de uma rede com esta quantidade de dispositivos já que dispõe de controlador de rede centralizado. Muitos estudos têm pesquisado sobre o uso de inteligência computacional (IC) para detectar anomalias em SDN. Este trabalho define um framework para validar, promover e explicar, com uso de Explainable AI, qualquer técnica de IC que melhor detecta cada um dos diferentes tipos de anomalias, também define uma arquitetura baseada em microserviços hexagonais, com um modelo de informação único baseado nos framework de aplicação e informação, Open Digital Architecture, do TM Forum.
-
Mostrar Abstract
-
Emerging technologies such as the Cloud, 5G, Internet of Things (IoT) and edge computing encompass controlling and networking millions of devices every day. Managing traditional networks with millions of devices is a complex task as it requires configuring data traffic routes on each device in the network. With it centralized network controller, Software-Defined Networking (SDN) can help simplify the configuration and management of a network with this many devices. Many studies have researched the use of different computational intelligence (CI) methods to detect anomalies in SDN, this work defines a framework to validate, promote and explain, using Explainable AI, any of these CI methods that best detects each of the different types of anomalies, and also define architecture based on hexagonal microservices and with a unique data model based on the application and information framework, Open Digital Architecture, from the TM Forum
|
|
11
|
-
YVES DANTAS NEVES
-
Aplicação de Técnicas de Agrupamento para Construção de Perfis em Dados Oriundos de Redes de Acesso 5G
-
Orientador : JOAO CARLOS XAVIER JUNIOR
-
MEMBROS DA BANCA :
-
ANNE MAGALY DE PAULA CANUTO
-
ARAKEN DE MEDEIROS SANTOS
-
DANIEL SABINO AMORIM DE ARAUJO
-
JOAO CARLOS XAVIER JUNIOR
-
Data: 08/12/2023
-
-
Mostrar Resumo
-
O advento da Internet e o desenvolvimento das Tecnologias da Informação e Comunicação expandiram o volume e a diversificação das fontes de dados, abrindo assim novas oportunidades nos setores industriais e acadêmicos à aplicação de tecnologias relacionadas ao Aprendizado de Máquina e Big Data. Nesta perspectiva encontra-se a extensa quantidade de dados gerados pelas infraestruturas de Acesso das Redes Móveis. As Radio Access Networks (RAN), cruciais para a infraestrutura de telecomunicações, são habilitadoras da comunicação sem fio e produzem um volume expressivo de dados relacionados a coleta de contadores, os quais associados, permitem uma visibilidade e monitoramento sobre os índices de desempenho e qualidade de suas células. O presente trabalho consiste na aplicação de algoritmos de agrupamento para a criação de perfis a partir de dados relacionados à indicadores de redes de acesso 5G referentes a tráfego, volume e qualidade de canal de forma que a rotulação da base de dados com os perfis encontrados possa ser utilizada em problemas de classificação e como ferramenta de suporte a identificação de melhorias, gestão de desempenho e eficiência operacional das redes de acesso.
-
Mostrar Abstract
-
The Internet arising and the Information and Communication Technologies development expanded the volume and diversification of data sources, thus opening up new opportunities in the industry and academic fields for Machine Learning Techiniques and Big Data related applications. In the same perspective is the extensive amount of data generated by mobile networks infrastructures worldwide. The Radio Access Networks (RAN), crucial for the telecommunications infrastructure, work as a really important layer for the wireless communications and produce a significant data volume due to the network counters measurements which stand as the enablers for the monitoring and visibility on network performance indicators and service quality. The present work consists of applying clustering algorithms to create profiles on datasets related to 5G Radio Access Network Indicators regarding traffic, volume and channel quality so the labeled data can get used on classification problems and as a support tool for identifying improvements, performance management and operational efficiency of Radio Access Networks.
|
|
12
|
-
ORMAZABAL LIMA DO NASCIMENTO
-
Estudo comparativo entre modelos transformers aplicados ao desenvolvimento de chatbots
-
Orientador : DANIEL SABINO AMORIM DE ARAUJO
-
MEMBROS DA BANCA :
-
DANIEL SABINO AMORIM DE ARAUJO
-
JOAO CARLOS XAVIER JUNIOR
-
THAIS GAUDENCIO DO REGO
-
Data: 15/12/2023
-
-
Mostrar Resumo
-
Os modelos baseados em arquitetura trasformer vêm apresentando resultados promissores em áreas de estudo como processamento de linguagem natural (NLP). Nessa mesma área de estudo, chatbots são ferramentas amplamente utilizadas em tarefas de atendimento ao cliente. Esse trabalho utilizará RASA e seu classificador DIET para realizar um estudo comparativo do impacto de modelos trasformers pré-treinados no desenvolvimento de um chatbot. Como cenário para esse estudo, foi analisado o caso do Tribunal de Contas do Rio Grande do Norte (TCE/RN) e a sua necessidade de implantar um chatbot visando a melhoria na eficiência do seu setor de atendimento ao público.
-
Mostrar Abstract
-
Models based on trasformer architecture have shown promising results in areas of study such as natural language processing (NLP). In this same area of study, chatbots are tools widely used in customer service tasks. This work will use RASA and its DIET classifier to perform a comparative study of the impact of pre-trained trasformer models in the development of a chatbot. As a scenario for this study, the case of the Court of Auditors of Rio Grande do Norte (TCE/RN) and its need to implement a chatbot aimed at improving the efficiency of its public service sector was analyzed.
|
|
13
|
-
IURI CABRAL PAIVA
-
Explorando padrões de empréstimos: uma perspectiva preditiva na biblioteca universitária Zila Mamede
-
Orientador : DANIEL SABINO AMORIM DE ARAUJO
-
MEMBROS DA BANCA :
-
ARAKEN DE MEDEIROS SANTOS
-
DANIEL SABINO AMORIM DE ARAUJO
-
ISMENIA BLAVATSKY DE MAGALHÃES
-
JOAO CARLOS XAVIER JUNIOR
-
Data: 22/12/2023
-
-
Mostrar Resumo
-
A biblioteca universitária, ao longo dos anos, consolidou-se como uma instituição fundamental dentro das universidades, desempenhando um papel crucial no apoio ao processo de ensino-aprendizagem, pesquisa e extensão universitária. Um dos aspectos mais significativos dessa instituição é a concessão de empréstimos de materiais informacionais, especialmente de livros, aos seus usuários. Compreender o perfil dos usuários que realizam esses empréstimos e contextualizar suas necessidades é essencial para o planejamento eficaz e a gestão otimizada dos recursos das bibliotecas. Deste modo, este trabalho se propõe a investigar a dinâmica dos empréstimos de livros do acervo circulante da Biblioteca Central Zila Mamede (BCZM), visando antecipar as demandas dos usuários por meio da análise de dados históricos de empréstimos. Inicialmente, foi realizada a Análise Exploratória dos Dados para compreender aspectos relevantes da interação entre os discentes e a biblioteca, utilizando dados de empréstimos e informações associadas à vida acadêmica dos estudantes. A clusterização, realizada através dos algoritmos de KNN e Clusterização Hierárquica, permitiu a identificação de perfis distintos de discentes, enriquecendo a compreensão das necessidades específicas de cada grupo. Finalmente, foram empregados os modelos Random Forest e SARIMA na predição de empréstimos para o ano de 2019, utilizando dados agrupados de forma semanal e mensal. Os resultados obtidos indicam que os discentes que utilizam os serviços de empréstimo tendem a apresentar maior taxa de conclusão acadêmica e menor incidência de trancamentos e cancelamentos de matrícula. Quanto aos modelos de predição, tanto o SARIMA quanto o Random Forest demonstraram ser promissores na identificação de padrões de tendência nos empréstimos, destacando sua aplicabilidade para a Biblioteca Central Zila Mamede. Portanto, este estudo não apenas contribui para a compreensão mais aprofundada da dinâmica dos empréstimos de livros, mas também fornece subsídios valiosos para que a biblioteca possa antecipar-se às necessidades dos usuários de maneira proativa, melhorando assim a eficácia de suas operações.
-
Mostrar Abstract
-
The university library has become a longstanding institution within universities, playing a crucial role in supporting the teaching-learning process, research, and university extension. One of its most significant aspects is the loan of informational materials, especially books, to its users. Understanding the profile of users who make these loans and contextualizing their needs is essential for effective planning and optimized resource management within the library. In this context, this study aims to investigate the dynamics of book loans in the circulating collection of the Zila Mamede Central Library (BCZM), with the goal of anticipating user demands through the analysis of historical loan data. Initially, Exploratory Data Analysis was employed to understand relevant aspects of the interaction between students and the library, using loan data and information associated with students' academic lives. Clustering, performed through KNN and Hierarchical Clustering algorithms, allowed the identification of distinct student profiles, enriching the understanding of the specific needs of each group. Finally, to fully achieve the proposed objective, the Random Forest and SARIMA models were used to predict loans for the year 2019, using data grouped on a weekly and monthly basis. The results indicate that students who use loan services tend to have a higher academic completion rate and a lower incidence of withdrawals and cancellations. Regarding prediction models, both SARIMA and Random Forest proved promising in identifying trends in loans, highlighting their applicability to the Zila Mamede Central Library. This study not only contributes to a deeper understanding of the dynamics of book loans but also provides valuable insights for the library to proactively anticipate user needs, thereby improving the effectiveness of its operations.
|
|