|
Dissertações |
|
|
1
|
-
BRUNA ALICE OLIVEIRA DE BRITO
-
Desenvolvimento de um Sistema Inteligente para Analise e Gestao de Textos Medicos sobre Cancer em Prontuarios Eletronicos com Processamento de Linguagem Natural
-
Orientador : ITAMIR DE MORAIS BARROCA FILHO
-
MEMBROS DA BANCA :
-
AMALIA CINTHIA MENESES DO REGO
-
ELIAS JACOB DE MENEZES NETO
-
ITAMIR DE MORAIS BARROCA FILHO
-
JEAN MARIO MOREIRA DE LIMA
-
Data: 28/01/2025
-
-
Mostrar Resumo
-
Com o avanço tecnológico da saúde no Brasil, os Prontuários Eletrônicos de Pacientes (PePs) se tornaram o meio principal na gestão dos dados clínicos, especialmente no contexto de doenças crônicas como o câncer, uma das principais causas de mortalidade no país. Os PePs armazenam uma grande quantidade de informações relevantes sobre o paciente, incluindo histórico clínico, diagnósticos e tratamentos. Contudo, grande parte desses dados estão em formato de textos livres e sem padronização, o que dificulta sua análise e interpretação. Nesse contexto, este trabalho tem o objetivo principal de desenvolver um sistema inteligente para extrair e organizar as informações de pacientes com câncer a partir de PePs, utilizando técnicas de Processamento de Linguagem Natural (PLN) e Aprendizado de Máquina (AM). Diante deste objetivo, a abordagem inclui o desenvolvimento de dois modelos: um de Reconhecimento de Entidades Nomeadas (NER), baseado no ajuste fino de um modelo BERT treinado em português, para classificar palavras em três categorias médicas; e outro utilizando o modelo LLama para realizar a sumarização de dados clínicos. A aplicação desses modelos visa lidar com os desafios identificados na revisão sistemática da literatura, relacionados tanto à alta complexidade dos dados clínicos quanto à limitada disponibilidade de conjuntos de dados rotulados. Ademais, ao longo do trabalho serão descritos os requisitos da solução, bem como detalhes de sua arquitetura e implementação, trazendo como resultados duas interfaces principais: uma em formato de bot, que mostra as informações dos PePs sumarizados, e outra composta por dashboards que exibem os dados estruturados gerados pelos modelos de NER.
-
Mostrar Abstract
-
With the advancement of technology in healthcare sector in Brazil, Electronic Health Records (EHRs) have become an essential means in the management of clinical data, especially in the monitoring of chronic diseases like cancer, one of the main causes of mortality in the country. EHRs store a large amount of relevant information about the patient, including clinical history, diagnoses, and treatments. However, much of this data is in free-text format and lacks standardization, which makes its analysis and interpretation difficult.
In this context, Natural Language Processing (NLP) and Machine Learning (ML) techniques emerge as effective solutions for analyzing this information, enabling, for example, the automation of data extraction and text summarization. Thus, the objective of this work is to develop an intelligent system capable of extracting and organizing clinical information related to cancer present in EHRs, in order to allow efficient analysis and evaluation by the clinical team and management.
This work will utilize models based on transformer architectures, such as BERT and GPT, to identify medical entities and automatically summarize patient information. The application of these models aims to overcome the challenges associated with the complexity of clinical data and the scarcity of labeled datasets. The methodology will include the application of NLP techniques, the validation of the models, and the creation of dashboards for the visualization of processed data. It is expected that the results will contribute to improving the management and care of oncology patients by automating processes, optimizing the time of health professionals, and promoting a more precise analysis based on clinical evidence.
|
|
|
2
|
-
MARCELO MARTINS PINTO
-
Desenvolvimento de um Sistema para Apoio à Adoção de DevSecOps
-
Orientador : RAMON DOS REIS FONTES
-
MEMBROS DA BANCA :
-
ITAMIR DE MORAIS BARROCA FILHO
-
RAMON DOS REIS FONTES
-
RODRIGO ROCHA GOMES E SOUZA
-
ROGER KREUTZ IMMICH
-
Data: 25/02/2025
-
-
Mostrar Resumo
-
O Poder Judiciário brasileiro, composto por noventa e quatro Tribunais e seus respectivos departamentos de Tecnologia da Informação e Comunicação, enfrenta o desafio crucial da unificação de seus sistemas judiciais. Apesar dos esforços do Conselho Nacional de Justiça (CNJ), ainda persiste uma significativa disparidade entre os sistemas administrativos e de apoio. Essa diversidade de soluções, aliada a diferentes estruturas de pessoal, capacidades técnicas e infraestruturas, dificulta o controle das aplicações em uso, o cumprimento de prazos e, especialmente, a segurança dos softwares. Para abordar esses desafios, propõe-se a implementação de um software que apoie as áreas de TI na adoção da metodologia DevSecOps, integrando desenvolvimento, segurança e operações. Esta abordagem visa quebrar os silos de conhecimento, distribuir responsabilidades e informações de maneira mais eficiente, aumentar a transparência na área de TI, melhorar a qualidade e reduzir o tempo de desenvolvimento, além de otimizar a manutenção dos softwares ao longo de seu ciclo de vida. O desenvolvimento da solução baseou-se em revisão de literatura para identificar as melhores práticas e ferramentas para análise de vulnerabilidade, elicitação de requisitos funcionais e não funcionais mínimos, escolha da tecnologia adequada para linguagem de programação, ferramentas de desenvolvimento e banco de dados. Foram definidos casos de uso e ferramentas para prova de conceito, focados em avaliações de segurança de aplicações, utilizando chamadas à interface de programação de aplicação (API) e apresentando resultados através de uma interface web. Os principais benefícios identificados incluem visualização centralizada das informações sobre aplicações e suas dependências, análise eficaz de vulnerabilidades, integração flexível de ferramentas de segurança e visibilidade ampliada da segurança das aplicações para toda a equipe de TI. Além disso, a solução promove outros ganhos não detalhados neste resumo, mas relevantes para aprimorar a gestão de sistemas, a segurança da informação e a qualidade dos serviços prestados pelo Poder Judiciário à população brasileira.
-
Mostrar Abstract
-
The Brazilian Judiciary, made up of ninety-four Courts and their respective Information and Communication Technology departments, faces the crucial challenge of unifying its judicial systems. Despite the efforts of the National Justice Council (CNJ), a significant disparity between administrative and support systems still persists. This diversity of solutions, combined with different personnel structures, technical capabilities and infrastructures, makes it difficult to control the applications in use, meet deadlines and, especially, software security. To address these challenges, it is proposed to implement software that supports IT areas in adopting the DevSecOps methodology, integrating development, security and operations. This approach aims to break down knowledge silos, distribute responsibilities and information more efficiently, increase transparency in the IT area, improve quality and reduce development time, in addition to optimizing software maintenance throughout its life cycle. . The development of the solution was based on a literature review to identify best practices and tools for vulnerability analysis, elicitation of minimum functional and non-functional requirements, choice of appropriate technology for programming language, development tools and database. Use cases and tools for proof of concept were defined, focused on application security assessments, using calls to the application programming interface (API) and presenting results through a web interface. Key benefits identified include centralized visualization of information about applications and their dependencies, effective vulnerability analysis, flexible integration of security tools, and expanded visibility into application security for the entire IT team.
|
|
|
3
|
-
LUIS FHELIPE RIBEIRO GOMES NETTO MARINHO
-
Arquitetura para automação de configurações de rede utilizando Infraestrutura como Código (IaC)
-
Orientador : ROGER KREUTZ IMMICH
-
MEMBROS DA BANCA :
-
AUGUSTO JOSE VENANCIO NETO
-
MARCOS CESAR MADRUGA ALVES PINHEIRO
-
RAMON DOS REIS FONTES
-
RODOLFO IPOLITO MENEGUETTE
-
ROGER KREUTZ IMMICH
-
Data: 27/03/2025
-
-
Mostrar Resumo
-
A demanda pela infraestrutura de comunicação aumentou drasticamente durante os últimos anos, impulsionando a adoção de novas tecnologias, sendo o foco a automação, reconfiguração, detecção de erros e alta disponibilidade. Essa mudança é alavancada por meio de redes cada vez mais programáveis, principalmente com o uso de tecnologias como redes definidas por software (SDN) e o uso de metodologias como infraestrutura como código (IaC), permitindo que as redes possam ser geridas como software e abrindo uma gama de possibilidades de controle dos fluxos do tráfego de rede. Esses processos requerem que os ativos de rede suportem protocolos que dêem o suporte a essa programabilidade, como por exemplo OpenFlow, e a transmissão das informações de telemetria por meio de dados estruturados, como o YAML. Entretanto, essas novas metodologias não são facilmente aplicadas em um parque de equipamentos legado, que não possuem o suporte adequado aos esses novos protocolos. Nesse contexto, este trabalho visa o desenvolvimento de uma arquitetura que permita que equipamentos de rede legados e recentes possam ser gerenciados através de uma metodologia IaC, possibilitando a automação de tarefas rotineiras, detecção de falhas, identificação antecipada de possíveis problemas na rede e checagem de configuração em um ambiente corporativo em produção. O foco do trabalho são os equipamentos de acesso da rede, por serem mais numerosos e geograficamente dispersos, permitindo uma padronização da configuração dos ativos e um melhor controle no acesso aos recursos de conectividade. A arquitetura é composta de oito componentes modulares e independentes, permitindo a alteração e inclusão individual de acordo com a necessidade dos equipamentos da rede. Como resultados parciais, foi realizada a consolidação e padronização das configurações de uma família de equipamentos de rede a partir de um modelo, evitando erros humanos de configuração e permitindo validações periódicas na configuração desses ativos, e a arquitetura preparada para o desenvolvimento de metodologias de automação.
-
Mostrar Abstract
-
The demand for communication infrastructure has increased drastically in recent years, driving the adoption of new technologies with a focus on automation, reconfiguration, error detection, and high availability. This shift is leveraged through increasingly programmable networks, particularly with the use of technologies like Software-Defined Networking (SDN) and methodologies such as Infrastructure as Code (IaC), allowing networks to be managed as software and opening up a range of possibilities for controlling network traffic flows. These processes require network assets to support protocols that enable this programmability, such as OpenFlow, and the transmission of telemetry information through structured data formats like YAML. However, these new methodologies are not easily applied to a legacy equipments, which often lacks adequate support for these new protocols. In this context, this work aims to develop an architecture that allows both legacy and modern network equipment to be managed through an IaC methodology, enabling the automation of routine tasks, fault detection, early identification of potential network issues, and configuration checks in a production corporate environment. The focus of this work is on network access equipment, as they are more numerous and geographically dispersed, allowing for standardized configuration of assets and better control over access to connectivity resources. The architecture consists of eight modular and independent components, enabling individual modification and inclusion according to the needs of the network equipment. As partial results, the configuration of a family of network equipment was consolidated and standardized based on a model, avoiding human configuration errors and allowing for periodic validations in the configuration of these assets, with the architecture ready for the development of automation methodologies.
|
|
|
4
|
-
FRANCISCO FABIO DE OLIVEIRA
-
Arquitetura Baseada em IoT e Lógica Fuzzy para Potencializar a Utilização de Recursos Hídricos
-
Orientador : ROGER KREUTZ IMMICH
-
MEMBROS DA BANCA :
-
GUSTAVO GIRAO BARRETO DA SILVA
-
RAFAEL LOPES GOMES
-
RODOLFO IPOLITO MENEGUETTE
-
ROGER KREUTZ IMMICH
-
Data: 14/07/2025
-
-
Mostrar Resumo
-
A crescente demanda por segurança alimentar e a escassez de recursos naturais apresentam desafios globais, especialmente na agricultura, que é responsável por uma parte significativa do consumo de água. No Brasil, a agricultura possui grande importância econômica, mas o uso intensivo de água exige práticas mais sustentáveis. Gerenciar a irrigação de forma adaptativa e eficiente é desafiador devido à complexidade das múltiplas variáveis ambientais. Isso reduz a eficiência do uso da água e impacta negativamente a produtividade agrícola. O IrrigaFlow é uma arquitetura modular que automatiza a irrigação utilizando IoT, lógica fuzzy e processamento distribuído. Consiste em três camadas: Módulo IoT, Borda da Rede e Nuvem, permitindo monitoramento e ajustes em tempo real com base em dados ambientais locais. Essa abordagem otimiza o uso da água e melhora a resposta às condições climáticas. Por meio de simulações conduzidas em ambiente controlado, foi possível avaliar a eficiência da arquitetura em cenários variados, destacando sua capacidade de ajustar o manejo hídrico às necessidades específicas de cada cultura e ambiente. O IrrigaFlow apresenta-se como uma alternativa promissora para enfrentar os desafios de segurança alimentar, reduzindo o desperdício de água e promovendo práticas agrícolas sustentáveis.
-
Mostrar Abstract
-
The increasing demand for food security and the scarcity of natural resources pose global challenges, particularly in agriculture, which accounts for a significant share of water consumption. In Brazil, agriculture holds great economic importance; however, its intensive water use necessitates the adoption of more sustainable practices. Managing irrigation adaptively and efficiently is challenging due to the complexity of multiple environmental variables. This reduces water use efficiency and negatively impacts agricultural productivity. IrrigaFlow is a modular architecture that automates irrigation through IoT, fuzzy logic, and distributed processing. It is composed of three layers: IoT Module, Network Edge, and Cloud, enabling real-time monitoring and adjustments based on local environmental data. This approach optimizes water use and enhances responsiveness to climatic conditions. Simulations conducted in a controlled environment allowed for evaluating the architecture’s efficiency across varied scenarios, highlighting its capacity to adjust water management to the specific needs of each crop and environment. IrrigaFlow emerges as a promising alternative to address food security challenges, reduce water waste, and promote sustainable agricultural practices.
|
|
|
5
|
-
ALIKSON SUEL COSTA DE OLIVEIRA
-
Acompanhamento do planejamento estratégico baseado em processos: uma ferramenta integrada ao SUAP para instituições públicas de ensino superior.
-
Orientador : JEAN MARIO MOREIRA DE LIMA
-
MEMBROS DA BANCA :
-
ANDRÉ GUSTAVO DUARTE DE ALMEIDA
-
ITAMIR DE MORAIS BARROCA FILHO
-
JEAN MARIO MOREIRA DE LIMA
-
Data: 07/08/2025
-
-
Mostrar Resumo
-
As instituições públicas de ensino superior enfrentam desafios, tais como a fragmentação dos sistemas de informação, a dificuldade de integrar dados do planejamento estratégico com a execução orçamentária e a limitação de ferramentas para análise consolidada dos recursos. Esses fatores dificultam a visualização clara e atualizada dos gastos, comprometendo a transparência, o controle financeiro e a eficiência na gestão dos recursos públicos. Atualmente, o controle orçamentário é, em muitos casos, realizado de forma manual ou com o auxílio de sistemas isolados que não oferecem uma visão unificada, dificultando a tomada de decisões estratégicas por parte dos gestores. Para enfrentar esses desafios, a proposta desenvolvida consiste na criação de uma ferramenta computacional voltada ao acompanhamento da execução orçamentária com base no planejamento estratégico institucional. Integrada ao Sistema Unificado de Administração Pública (SUAP), essa solução permitirá centralizar e automatizar processos como a realocação orçamentária, movimentação de crédito e requisição de despesas, proporcionando maior controle e alinhamento com os objetivos definidos no Plano de Desenvolvimento Institucional (PDI). A ferramenta está sendo desenvolvida com o uso de tecnologias como Python e Django, e seu processo inclui etapas de planejamento, codificação, testes, validação e capacitação dos servidores usuários. A consolidação da ferramenta evidencia o potencial da solução em transformar a forma como a execução orçamentária é gerida no contexto institucional. A expectativa é de melhoria na eficiência operacional, com a redução do tempo e esforço dedicados ao controle orçamentário, permitindo que os envolvidos se concentrem em decisões estratégicas. A centralização e a automação dos processos – inicialmente aplicada aos fluxos de requisição de despesa, movimentação e realocação de créditos – contribuirão para reduzir a dispersão de informações entre setores, promovendo maior consistência e padronização na execução dos recursos. Alinhado a esse cenário, uma pesquisa realizada com os usuários indicou uma percepção positiva quanto à proposta e confiança em sua aplicabilidade no contexto institucional. Tais evidências reforçam o potencial da ferramenta para promover uma gestão mais eficiente e transparente dos recursos públicos, contribuindo para o fortalecimento do desempenho institucional do IFRN, que constitui o estudo de caso deste trabalho, e apresentando-se como uma solução com potencial de replicação em outras instituições federais de ensino.
-
Mostrar Abstract
-
Public higher education institutions face significant challenges in integrating strategic planning with budget execution. The lack of an integrated system for tracking planned and executed resources results in difficulties in maintaining a clear and up-to-date view of expenditures, compromising transparency, financial control, and resource management efficiency. Currently, budget control is fragmented and, in many cases, carried out manually or through systems that do not provide a consolidated view of the data, making strategic decision-making more difficult. To address these challenges, the proposed solution is the creation of a computational tool integrated with the Unified Public Administration System (SUAP). This tool will allow for monitoring strategic planning and budget execution within the case study of IFRN, centralizing and automating processes such as budget reallocation, credit movement, and expense requests, using Python and Django to ensure execution aligns with institutional planning. The tool's development includes planning, development, testing, validation, and staff training. Although the tool is still under development, the expected results are promising. Operational efficiency is anticipated to improve by reducing the time and effort spent on budget control, allowing those involved to focus on strategic decisions. The centralization and automation of processes will eliminate fragmentation and the risk of inconsistencies, while updated and centralized data will enable managers to make more effective decisions aligned with the institution's strategic goals. These results will contribute to more efficient and transparent public resource management, strengthening IFRN's institutional performance and potentially serving as a model for other federal institutions.
|
|
|
6
|
-
SAINT CLAIR DA CUNHA LIMA
-
Assistente de Busca: Uma abordagem RAG para busca semântica em documentos textuais da Alern
-
Orientador : DANIEL SABINO AMORIM DE ARAUJO
-
MEMBROS DA BANCA :
-
ANDRE MORAIS GURGEL
-
DANIEL SABINO AMORIM DE ARAUJO
-
ELIAS JACOB DE MENEZES NETO
-
THAIS GAUDENCIO DO REGO
-
Data: 25/08/2025
-
-
Mostrar Resumo
-
O crescimento sem precedentes na produção de documentos textuais não estruturados em instituições públicas apresenta desafios para a recuperação e interpretação eficiente de informações. Esta pesquisa aborda esses desafios por meio do desenvolvimento de um assistente de busca utilizando a abordagem Retrieval-Augmented Generation (RAG), aplicada especificamente aos documentos produzidos pela Assembleia Legislativa do Estado do Rio Grande do Norte (Alern). O sistema proposto faz uso de técnicas de Processamento de Linguagem Natural (PLN), bancos vetoriais e Large Language Models (LLMs) para viabilizar a busca semântica e a geração de conteúdo relevante. A pesquisa apresenta uma arquitetura capaz de recuperar fragmentos de documentos com base em similaridade semântica. As consultas fornecidas pelos usuários são processadas para localizar conteúdos com relevante semelhança contextual, os quais são sintetizados em respostas coerentes e contextualmente apropriadas por meio de um modelo de linguagem generativo configurado para atender à intenção do usuário. Os resultados de avaliações automatizadas, utilizando BERTScore, demonstram a eficácia do sistema em realizar a recuperação de informações com base nos dados de entrada do usuário -- alcançando 79% de precisão e 69% de recall (valores satisfatórios em cenários de geração de texto), bem como uma taxa baixíssima (0,38%) de reprovação por parte dos usuários de teste. Com a utilização da abordagem RAG, o assistente proposto não apenas reduz a carga cognitiva associada à análise manual de grandes coleções documentais, mas também fornece uma solução escalável e adaptável a conjuntos de dados em constante evolução. Esta pesquisa contribui para reduzir a lacuna entre a disponibilidade de dados públicos e a geração de informações acionáveis, alinhando-se aos objetivos de transparência e acessibilidade no ambiente legislativo.
-
Mostrar Abstract
-
The unprecedented growth in the creation and persistence of unsctructured textual documents in public institutions poses challenges for efficient information retrieval and data analysis. This research addresses these challenges, by proposing a prototype of a search assistant using the Retrieval-Augmented Generation (RAG) approach, specifically applied to documents produced by Assembleia Legislativa do Estado do Rio Grande do Norte (Alern). The proposed system leverages Natural Language Processing (NLP) techniques, vector databases, and Large Language Models (LLMs) to enable semantic search and the generation of relevant content as answers to query inputs. The research introduces an architecture capable of retrieving document fragments based on semantic similarity. User-provided queries are processed and used to search content with contextual relevance, which is then synthesized into coherent and contextually appropriate responses through an LLM. Results from automated evaluations using BERTScore demonstrate the system's effectiveness in retrieving information based on user input data -- with precision and recall achieving values of 79% and 69% respectively, which are satisfactory values in text generation scenarios. Being powered by the RAG approach, the proposed assistant not only reduces the cognitive load associated with the manual analysis of large document collections but also provides a scalable and adaptable solution for continuously evolving datasets. This research contributes to bridging the gap between the availability of public data and the generation of searchable information, aligning with goals of transparency and accessibility in the legislative environment.
|
|
|
7
|
-
VITOR GONÇALEZ LINDBERGH
-
Engineering a Permissioned Blockchain Architecture for Cross-Institutional EHR Sharing
-
Orientador : ITAMIR DE MORAIS BARROCA FILHO
-
MEMBROS DA BANCA :
-
DIEGO DA SILVA PEREIRA
-
ITAMIR DE MORAIS BARROCA FILHO
-
RAMON DOS REIS FONTES
-
Data: 28/08/2025
-
-
Mostrar Resumo
-
O setor de saúde enfrenta desafios críticos no gerenciamento de Registros Eletrônicos de Saúde (RES), particularmente em relação à segurança de dados, interoperabilidade e privacidade do paciente. Sistemas centralizados tradicionais frequentemente levam ao armazenamento fragmentado de dados, vulnerabilidades e ineficiências que comprometem o atendimento e a integridade. Esta dissertação explora como a tecnologia blockchain — alavancando a descentralização, a imutabilidade e a transparência — pode aprimorar o gerenciamento seguro e interoperável de RES. Um estudo de mapeamento sistemático de 35 artigos revisados por pares da Scopus destacou o potencial do blockchain para aprimorar a interoperabilidade, a segurança e o controle do paciente, além de identificar preocupações constantes com escalabilidade, privacidade e conformidade regulatória. Em resposta, este trabalho propõe uma arquitetura baseada em blockchain que define requisitos funcionais e não funcionais claros, com foco em segurança, interoperabilidade e gerenciamento de consentimento. A solução integra contratos inteligentes, mecanismos de consenso e uma rede blockchain com permissão para permitir a troca de dados robusta e auditável entre instituições de saúde. Uma prova de conceito (PoC) construída com o Hyperledger Fabric demonstra transações seguras de prontuários eletrônicos de saúde (PE), controle de acesso refinado e gerenciamento de consentimento orientado pelo paciente. A PoC foi validada com base em métricas definidas de Qualidade de Serviço (QoS), confirmando a viabilidade técnica e o alinhamento com os objetivos do sistema. Esta pesquisa contribui com uma abordagem arquitetônica viável para o compartilhamento seguro e eficiente de PE e estabelece as bases para trabalhos futuros sobre escalabilidade, integração de infraestrutura e alinhamento regulatório.
-
Mostrar Abstract
-
The healthcare industry faces critical challenges in managing Electronic Health
Records (EHRs), particularly regarding data security, interoperability, and patient privacy.
Traditional centralized systems often lead to fragmented data storage, vulnerabilities, and
inefficiencies that compromise care and integrity. This dissertation explores how blockchain
technology—leveraging decentralization, immutability, and transparency—can enhance se-
cure and interoperable EHR management. A systematic mapping study of 35 peer-reviewed
papers from Scopus highlighted blockchain’s potential to improve interoperability, security,
and patient control, while also identifying ongoing concerns with scalability, privacy, and
regulatory compliance. In response, this work proposes a blockchain-based architecture
that defines clear functional and non-functional requirements focused on security, interop-
erability, and consent management. The solution integrates smart contracts, consensus
mechanisms, and a permissioned blockchain network to enable robust, auditable data
exchange across healthcare institutions. A proof-of-concept (PoC) built using Hyperledger
Fabric demonstrates secure EHR transactions, fine-grained access control, and patient-
driven consent management. The PoC was validated against defined Quality of Service
(QoS) metrics, confirming technical feasibility and alignment with system goals. This
research contributes a viable architectural approach for secure and efficient EHR sharing
and lays the foundation for future work on scalability, infrastructure integration, and
regulatory alignment.
|
|
|
8
|
-
WELLIGTON MIGUEL DA SILVA
-
Análise histórica de violações arquiteturais em sistemas Clojure: um estudo quantitativo longitudinal
-
Orientador : EIJI ADACHI MEDEIROS BARBOSA
-
MEMBROS DA BANCA :
-
EIJI ADACHI MEDEIROS BARBOSA
-
UIRA KULESZA
-
ELDER JOSÉ REIOLI CIRILO
-
Data: 19/09/2025
-
-
Mostrar Resumo
-
A arquitetura de software é composta por decisões fundamentais que orientam a construção e a evolução de um sistema. Com o tempo, modificações acumuladas ao longo do ciclo de vida do software podem violar critérios previamente definidos, caracterizando a degradação arquitetural. A ausência de um processo formal de avaliação contínua faz com que a detecção desses problemas ocorra, muitas vezes, de forma reativa, apenas após causarem impactos significativos. Para mitigar esses riscos, ferramentas de análise estática podem ser adotadas a fim de validar a arquitetura de maneira proativa, permitindo um monitoramento constante. Um exemplo de ferramenta que segue essa abordagem é a Clj-Depend, que realiza a validação das dependências entre módulos em sistemas implementados usando a linguagem de programação Clojure. Neste contexto, o presente trabalho tem como objetivo investigar a ocorrência e evolução dessas violações em sistemas em produção. Para isso, será conduzido um estudo quantitativo longitudinal baseado em mineração de repositórios de software, envolvendo cinco serviços de uma empresa multinacional de tecnologia, onde processam em média mais de oitocentas solicitações por minuto. Os resultados mostraram que todos os serviços apresentaram acúmulo de violações correlacionado ao crescimento da base de código, com concentração em poucas regras críticas. As análises estatísticas confirmaram associação significativa entre linhas de código e a degradação arquitetural quando não há governança adequada. Apesar das limitações de escopo, o estudo demonstrou que a degradação arquitetural é monitorável e passível de ser integrado ao fluxo de desenvolvimento do time através de processos automatizados. O protocolo desenvolvido oferece uma abordagem sistemática para auditoria arquitetural contínua, contribuindo para práticas mais sustentáveis de evolução de software.
-
Mostrar Abstract
-
Software architecture consists of fundamental decisions that guide the construction and evolution of a system. Over time, accumulated modifications throughout the software lifecycle can violate previously defined criteria, characterizing architectural degradation. The absence of a formal continuous evaluation process causes these problems to be detected reactively, often only after causing significant impacts. To mitigate these risks, static analysis tools can be adopted to validate architecture proactively, enabling constant monitoring. One example of a tool that follows this approach is Clj-Depend, which validates dependencies between modules in systems implemented using the Clojure programming language. In this context, this work aims to investigate the occurrence and evolution of these violations in systems implemented in Clojure. For this purpose, a quantitative longitudinal study based on software repository mining was conducted, involving five services from a multinational technology company, where they process on average more than eight hundred requests per minute. The results showed that all services presented violation accumulation correlated with code base growth, with concentration in few critical rules. Statistical analyses confirmed significant association between lines of code and architectural degradation when adequate governance is absent. Despite scope limitations, the study demonstrated that architectural degradation is monitorable and can be integrated into the team’s development workflow through automated processes. The developed protocol offers a systematic approach for continuous architectural auditing, contributing to more sustainable software evolution practices.
|
|
|
9
|
-
NALBERT GABRIEL MELO LEAL
-
Uso de técnicas de detecção automatizada de erros em datasets supervisionados para tratamento de rótulos oriundos de pipelines de aprendizado fracamente supervisionado
-
Orientador : DANIEL SABINO AMORIM DE ARAUJO
-
MEMBROS DA BANCA :
-
ARAKEN DE MEDEIROS SANTOS
-
DANIEL SABINO AMORIM DE ARAUJO
-
ELIAS JACOB DE MENEZES NETO
-
JOAO CARLOS XAVIER JUNIOR
-
Data: 22/09/2025
-
-
Mostrar Resumo
-
O alto custo da rotulação de dados para treinar modelos de aprendizado de máquina motivou o desenvolvimento do aprendizado fracamente supervisionado (AFS), em compensação, introduz ruídos nos rótulos, afetando o desempenho dos modelos. Entre as técnicas de AFS, data programming (DP) se destaca ao utilizar fontes ruidosas (como heurísticas e modelos pré-treinados) para realizar a rotulação automatizada de dados com baixo custo, resultando em rótulos potencialmente imprecisos que impactam o desempenho do end-model. O objetivo desse trabalho, é avaliar se técnicas que detectam instâncias ruidosas podem melhorar o desempenho do modelo final obtido com o pipeline de DP para tarefas de classificação. Para isso, realizou-se um experimento cujo objetivo foi identificar o impacto no desempenho e custo que o uso da detecção de instâncias ruidosas tem no pipeline de DP. Algumas das técnicas para o experimento já eram conhecidas pelo autor, mas não ligadas previamente ao AFS, já outras foram selecionadas a partir de uma revisão da literatura que buscou técnicas de detecção de ruídos já aplicadas ao AFS. O impacto de cada técnica no desempenho do end-model foi avaliado pela métrica Matthews correlation coefficient e o custo através do tempo de execução do pipeline no qual a técnica foi introduzida. Os resultados demonstram que a aplicação das técnicas de detecção, na maioria dos casos, degradou o desempenho dos end-models de forma estatisticamente significativa. Somente 4% dos pipelines com detecção apresentaram uma melhoria de desempenho estatisticamente significativa e superior ao baseline. As melhorias, quando ocorreram, foram pontuais e vieram acompanhadas de um alto custo computacional. Além disso, os baselines, especialmente os com LMs hyper label model e majority vote, mostraram um melhor equilíbrio entre desempenho e custo. Assim, O pipeline de DP sem técnicas de detecção se mostrou uma abordagem mais eficiente.
-
Mostrar Abstract
-
The high cost of data labeling for training machine learning models has motivated the development of weakly supervised learning(WSL); in turn,this introduces noise into the labels, affecting the models’ performance. Among WSL techniques, data programming (DP) stands out by using noisy sources (such as heuristics and pre-trained models) to perform automated data labeling at a low cost, resulting in potentially inaccurate labels that impact the end-model’s performance. The objective of this work is to evaluate whether techniques that detect noisy instances can improve the performance of the final model obtained with the DP pipeline for classification tasks. For this, an experiment was conducted to identify the impact on performance and cost that the use of noisy instance detection has on the DP pipeline. Some of the techniques for the experiment were already known by the author but not previously linked to WSL, while others were selected from a literature review that searched for noise detection techniques already applied to WSL. The impact of each technique on the end-model’s performance was evaluated by the Matthews correlation coefficient metric and the cost by the execution time of the pipeline in which the technique was introduced. The results demonstrate that the application of detection techniques, in most cases, degraded the performance of the end-models in a statistically significant manner. Only 4% of the pipelines with detection showed a performance improvement that was statistically significant and superior to the baseline. The improvements, when they occurred, were sporadic and accompanied by a high computational cost. Furthermore, the baselines, especially those with the hyper label model and majority vote LMs, showed a better balance between performance and cost. Thus, the DP pipeline without detection techniques proved to be a more efficient approach.
|
|
|
10
|
-
HELTON PIERRE LUCENA DE MEDEIROS
-
Plataforma de Monitoramento da Qualidade do Ar Baseada em IoT
-
Orientador : GUSTAVO GIRAO BARRETO DA SILVA
-
MEMBROS DA BANCA :
-
GUSTAVO GIRAO BARRETO DA SILVA
-
ITAMIR DE MORAIS BARROCA FILHO
-
IVAN SARAIVA SILVA
-
ROGER KREUTZ IMMICH
-
Data: 26/09/2025
-
-
Mostrar Resumo
-
Esta dissertação investiga a baixa cobertura do monitoramento da qualidade do ar no Brasil e propõe uma solução alternativa: uma plataforma baseada em Internet of Things ( IoT) capaz de ampliar a observabilidade ambiental e automação operacional. O objeto de estudo é uma arquitetura em camadas, agnóstica a software e hardware, concebida para integrar aquisição (dispositivos IoT ), transmissão, processamento e avaliação (cálculo do Índice de Qualidade do Ar (IQAr)), persistência de séries temporais e visualização interativa, com envio de notificações em tempo real. O objetivo geral consistiu em conceber e validar, em testbed reprodutível, tal arquitetura; os objetivos específicos abrangeram: (i) modelar e especificar uma arquitetura em camadas para monitoramento da qualidade do ar baseada em IoT ; (ii) implementar o ambiente experimental (testbed) com dispositivos e sensores simulados no Node-RED; (iii) demonstrar o potencial do Zabbix como plataforma de monitoramento aplicada tanto à qualidade do ar quanto a dispositivos IoT ; e (iv) analisar, do ponto de vista técnico-operacional, os resultados produzidos pelo testbed e a viabilidade da solução proposta. Adianta-se que todos os objetivos foram alcançados. Os resultados mostram autoconfiguração do monitoramento por template no Zabbix, dashboards que exibem mapa e séries por estação (com detalhamento por poluente e correlação meteorológica), supervisão de dispositivos e sensores, e alertas encaminhados em tempo real via mensageiro instantâneo. A arquitetura demonstrou aplicabilidade ao arranjo tecnológico utilizado. O Zabbix apresentou desempenho muito eficiente e total compatibilidade com o contexto aplicado, destacando-se como ferramenta com elevado potencial para monitoramento de dispositivos IoT e para sistemas de qualidade do ar; adicionalmente, evidencia-se a carência de estudos acadêmicos que analisem seu uso nesse domínio, o que reforça a contribuição desta pesquisa. Como contribuição geral, o trabalho entrega um guia arquitetural agnóstico, um testbed replicável e uma prova de conceito robusta da integração Node-RED–MQTT–Zabbix–Grafana para monitoramento ambiental, apontando um caminho concreto, escalável e economicamente viável para ampliar a cobertura do monitoramento da qualidade do ar no país.
-
Mostrar Abstract
-
This dissertation investigates the limited coverage of air-quality monitoring in Brazil and proposes an alternative solution: an IoT-based platform capable of expanding environmen- tal observability and operational automation. The object of study is a layered, software- and hardware-agnostic architecture designed to integrate acquisition (IoT devices), trans- mission, processing and assessment (calculation of the IQAr), time-series persistence, and interactive visualization, with real-time notifications. The overall objective was to design and validate, in a reproducible testbed, such an architecture; the specific objectives compri- sed: (i) modeling and specifying a layered architecture for IoT-based air-quality monitoring; (ii) implementing the experimental environment (testbed) with devices and sensors simula- ted in Node-RED; (iii) demonstrating Zabbix’s potential as a monitoring platform applied both to air quality and to IoT devices; and (iv) analyzing, from a technical-operational standpoint, the results produced by the testbed and the feasibility of the proposed solution. All objectives were achieved. The results show automated configuration of monitoring via Zabbix templates, dashboards that display a map and per-station time series (with pollutant-level detail and meteorological correlation), device and sensor supervision, and real-time alerts delivered via instant messenger. The architecture proved applicable to the technological arrangement used. Zabbix exhibited very efficient performance and full compatibility with the application context, standing out as a tool with high potential for monitoring IoT devices and air-quality systems; furthermore, the scarcity of academic studies analyzing its use in this domain underscores this research’s contribution. As an overall contribution, the work delivers a vendor-agnostic architectural guide, a replicable testbed, and a robust proof of concept of the Node-RED–MQTT–Zabbix–Grafana inte- gration for environmental monitoring, pointing to a concrete, scalable, and economically viable path to expand air-quality monitoring coverage in the country.
|
|
|
11
|
-
ALEXANDRE ESTRELA DE LACERDA NOBREGA
-
Proposta de ferramenta baseada em aprendizado de máquina para previsão de séries temporais de precipitação em cenários de mudança climática
-
Orientador : ITAMIR DE MORAIS BARROCA FILHO
-
MEMBROS DA BANCA :
-
ANDRE MORAIS GURGEL
-
DANIEL SABINO AMORIM DE ARAUJO
-
GUTEMBERG GONÇALVES DOS SANTOS JÚNIOR
-
ITAMIR DE MORAIS BARROCA FILHO
-
JUSCIMARA GOMES AVELINO
-
Data: 01/12/2025
-
-
Mostrar Resumo
-
As mudanças climáticas, impulsionadas em grande parte pela atividade humana, têm gerado impactos globais severos, com destaque para o aumento de eventos extremos. A previsão dessas mudanças é feita por meio de modelos climáticos globais, que simulam o comportamento do clima com base em diferentes cenários de emissões. No entanto, esses modelos possuem baixa resolução espacial, dificultando sua aplicação direta em contextos regionais e locais. Para contornar essa limitação, técnicas de redução de escala estatística têm sido utilizadas, permitindo a geração de séries temporais de variáveis climáticas, como a precipitação, com maior detalhamento regional. Com os avanços tecnológicos, técnicas de Inteligência Artificial e Aprendizado de Máquina têm se destacado na construção desses modelos, apresentando desempenho superior aos métodos tradicionais. Contudo, sua aplicação ainda é limitada, em parte pela falta de padronização do processo e pela complexidade envolvida. Além disso, após a aplicação da redução de escala, os dados gerados ficam restritos aos pontos ajustados, exigindo a utilização de modelos de espacialização para estimar informações em áreas adjacentes. Esse processo completo, que vai da redução de escala à espacialização, costuma ser inacessível para profissionais que necessitam desses dados, mas não possuem domínio técnico sobre os métodos empregados. Diante disso, este trabalho investigou as principais técnicas utilizadas na redução de escala estatística e propôs um fluxo padronizado para sua aplicação. A pesquisa foi aplicada em uma região específica como estudo de caso, integrando dados de modelos climáticos globais e informações locais. A partir disso, foi desenvolvida uma ferramenta computacional escalável, com interface intuitiva, capaz de aplicar os modelos construídos e gerar séries temporais de forma prática e acessível, a partir da localização informada pelo usuário.
-
Mostrar Abstract
-
Climate change, largely driven by human activity, has led to severe global impacts, particularly the increase in extreme weather events. The projection of these changes relies on global climate models, which simulate climate behavior based on different emission scenarios. However, these models have low spatial resolution, limiting their direct application to regional and local contexts. To address this limitation, statistical downscaling techniques have been employed to generate time series of climate variables, such as precipitation, with greater regional detail. With technological advancements, artificial intelligence and machine learning techniques have shown promising results in the development of such models, often outperforming traditional methods. Nevertheless, their application remains limited, partly due to the lack of standardized procedures and the complexity involved. Furthermore, after applying statistical downscaling, the generated data are restricted to specific adjusted points, requiring the use of spatialization models to estimate values in surrounding areas. This entire process, from downscaling to spatialization, is often inaccessible to professionals who need these data but lack technical expertise in the methodologies used. In this context, the present study investigated the main techniques employed in statistical downscaling and proposed a standardized workflow for their application. The research was conducted in a specific region as a case study, integrating data from global climate models with local information. Based on this, a scalable computational tool was developed, featuring an intuitive interface capable of applying the constructed models and generating time series data in a practical and accessible manner, based on the user’s specified location.
|
|