|
Dissertações |
|
1
|
-
FRANCIMARIA RAYANNE DOS SANTOS NASCIMENTO
-
An experimental investigation of letter identification and scribe predictability in medieval manuscripts
-
Orientador : MARJORY CRISTIANY DA COSTA ABREU
-
MEMBROS DA BANCA :
-
BRUNO MOTTA DE CARVALHO
-
EVERTON RANIELLY DE SOUSA CAVALCANTE
-
MARJORY CRISTIANY DA COSTA ABREU
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
Data: 16/01/2020
-
-
Mostrar Resumo
-
Though handwriting might seem archaic today in comparison with typed communication, it is a long-established human activity that has survived into the 21st century. Accordingly, research interest into handwritten documents, both historical and modern, is significant. The way we write has changed significantly over the past centuries. For example, the texts of the Middle Ages were often written and copied by anonymous scribes. The writing of each scribe, known as his or her 'scribal hand' is unique, and can be differentiated using a variety of consciously and unconsciously produced features. Distinguishing between these different scribal hands is a central focus of the humanities research field known as 'palaeography'. This process may be supported and/or enhanced using digital techniques, and thus digital writer identification from historical handwritten documents has also flourished. The automation of the process of recognising individual characters within each scribal hand has also posed an interesting challenge. A number of issues make these digital processes difficult in relation to medieval handwritten documents. These include the degradation of the paper and soiling of the manuscript page, which can make automatic processes difficult. Thus, in this paper, we propose an investigation in both perspectives, character recognition and writer identification, in medieval manuscripts. Our experiments show interesting results, with good accuracy rates.
-
Mostrar Abstract
-
Though handwriting might seem archaic today in comparison with typed communication, it is a long-established human activity that has survived into the 21st century. Accordingly, research interest into handwritten documents, both historical and modern, is significant. The way we write has changed significantly over the past centuries. For example, the texts of the Middle Ages were often written and copied by anonymous scribes. The writing of each scribe, known as his or her 'scribal hand' is unique, and can be differentiated using a variety of consciously and unconsciously produced features. Distinguishing between these different scribal hands is a central focus of the humanities research field known as 'palaeography'. This process may be supported and/or enhanced using digital techniques, and thus digital writer identification from historical handwritten documents has also flourished. The automation of the process of recognising individual characters within each scribal hand has also posed an interesting challenge. A number of issues make these digital processes difficult in relation to medieval handwritten documents. These include the degradation of the paper and soiling of the manuscript page, which can make automatic processes difficult. Thus, in this paper, we propose an investigation in both perspectives, character recognition and writer identification, in medieval manuscripts. Our experiments show interesting results, with good accuracy rates.
|
|
2
|
-
STEFANO MOMO LOSS
-
Orthus: Uma Plataforma Blockchain para Cidades Inteligentes
-
Orientador : NELIO ALESSANDRO AZEVEDO CACHO
-
MEMBROS DA BANCA :
-
WILSON DE SOUZA MELO JUNIOR
-
DANILO CURVELO DE SOUZA
-
FREDERICO ARAUJO DA SILVA LOPES
-
NELIO ALESSANDRO AZEVEDO CACHO
-
THAIS VASCONCELOS BATISTA
-
Data: 05/02/2020
-
-
Mostrar Resumo
-
Atualmente, o blockchain tem sido amplamente usado para armazenar transações descentralizadas e seguras envolvendo criptomoeda (por exemplo, soluções Bitcoin e Ethereum). Por outro lado, os aplicativos de cidades inteligentes preocupam-se com a forma como os dados e serviços podem ser armazenados e compartilhados com segurança. A este respeito, esta pesquisa investiga o uso da blockchain e identifica um conjunto de requisitos essenciais para atender às necessidades da blockchain no contexto de cidades inteligentes. Com base nisso, foi proposta uma plataforma chamada Orthus para apoiar o uso de blockchain em iniciativas de cidades inteligentes focadas em escalabilidade. Esta tese de mestrado demonstrou um estudo de caso sobre como usar a plataforma proposta no contexto da Iniciativa Cidade Inteligente de Natal, no Brasil, para lidar com o registro de terras. Além disso, ele também compara essa plataforma com outras implementações que usam blockchain em diferentes domínios. Finalmente, esta pesquisa confirma que o uso da tecnologia blockchain tem muito a contribuir para soluções de cidades inteligentes, uma vez que permite a criação de soluções em redes distribuídas, capaz de atender à demanda de toda a população.
-
Mostrar Abstract
-
Currently, blockchain has been widely used to store decentralised and secure transactions involving cryptocurrency (for instance, Bitcoin and Ethereum solutions). On the other hand, smart city applications are concerned about how data and services can be safely stored and shared. In this regard, this research investigates the use of blockchain and pinpoints a set of essential requirements to meet the needs of blockchain for the context of smart cities. Base on that, a platform named Orthus was proposed to support the use of blockchain in smart city initiatives focused on scalability. This master’s thesis demonstrated a case study about how to use the proposed platform in the context of the Natal Smart City Initiative, in Brazil, to handle land registration. Moreover, it also compares this platform with other implementations that use blockchain in different domains. Finally, this research confirms that use of blockchain technology has much to contribute to smart city solutions once it enables the creation of solutions in distributed networks being able to meet the demand of the entire population.
|
|
3
|
-
YURI KELVIN NASCIMENTO DA SILVA
-
Problema do Passeio Lucrativo com Passageiros e Penalidades por Atrasos
-
Orientador : MARCO CESAR GOLDBARG
-
MEMBROS DA BANCA :
-
MARCO CESAR GOLDBARG
-
ELIZABETH FERREIRA GOUVEA GOLDBARG
-
MATHEUS DA SILVA MENEZES
-
THATIANA CUNHA NAVARRO DE SOUZA
-
Data: 07/02/2020
-
-
Mostrar Resumo
-
Este trabalho introduz o Problema do Passeio Lucrativo com Passageiros e Penalidades por Atrasos (PPL-PPA). O PPL-PPA é interpretado como um prestador de serviços que possui demandas de clientes a serem atendidas em diferentes localidades. Para cada demanda satisfeita, um valor de bônus é coletado e acrescido no valor total de bônus da jornada de trabalho. As demandas possuem um tempo para serem realizadas e um tempo estimado de início do serviço. A satisfação de uma demanda após seu tempo estimado de início caracteriza um atraso no serviço e, por isso, uma penalidade é imposta reduzindo o valor do bônus a ser coletado pelo serviço prestado de acordo com o tempo de atraso. Ainda, durante sua jornada de trabalho, o prestador de serviços poderá embarcar passageiros no veículo nas localidades das demandas. Cada passageiro embarcado contribuirá com uma parcela para a divisão dos custos de viagem entre todos os ocupantes do veículo em um determinado trecho. Os custos de viagem divididos entre todos não podem exceder o valor de tarifa ofertado por cada passageiro pelo trajeto entre sua origem e destino e o número de passageiros embarcados não deve exceder a capacidade do veículo. Sendo assim, o objetivo do PPL-PPA consiste em encontrar uma rota que maximize o valor de bônus coletados subtraído dos custos de viagem rateados com os passageiros e das eventuais penalidades impostas em razão dos atrasos. Como instrumento de formalização e validação do problema, um modelo de Programação Matemática é proposto e solucionado através de um solver matemático para instâncias de testes geradas para o problema em questão. Uma análise de acoplamento das instâncias é relatada mediante experimentos com métodos heurísticos ad hoc e métodos exatos ad hoc, sendo estes voltados para casos particulares do modelo. Por fim, são propostas três meta-heurísticas evolucionárias visando a eficiência na obtenção de soluções de qualidade.
-
Mostrar Abstract
-
This work introduces a new Traveling Salesman Problem variant called Traveling Salesman Problem with Prize Collecting, Passengers and Penalties for Delays. In this problem, the salesman has, along the graph, potential passengers who need to move between localities. Each boarded passenger will contribute a portion to the division of the travel costs between all the occupants of the vehicle in a certain stretch. In addition, each vertex has an aggregate prize value that may or may not be collected by the salesman during his journey. The prizes have a time for the collection and an estimated minimum time to be collected without a reduction in its value, characterizing the penalty. Thus, the goal is to find a route that maximizes the amount of collected prizes minus the travel costs divided with passengers and any penalties imposed on the prizes. As an instrument of formalization and validation of the problem, a Mathematical Programming model is proposed and solved through a mathematical solver for test instances generated for the problem in question. A coupling analysis of the instances is reported through experiments with ad hoc heuristic methods and exact methods that consider particular cases of the model. Moreover, three evolutionary metaheuristics are proposed aiming the efficiency in obtaining quality solutions
|
|
4
|
-
MARCOS ALEXANDRE DE MELO MEDEIROS
-
Melhorando a Identificação de Bugs a partir da Mineração de Relatórios de Falhas: Um Estudo Empírico
-
Orientador : UIRA KULESZA
-
MEMBROS DA BANCA :
-
EIJI ADACHI MEDEIROS BARBOSA
-
NELIO ALESSANDRO AZEVEDO CACHO
-
RODRIGO BONIFACIO DE ALMEIDA
-
UIRA KULESZA
-
Data: 19/02/2020
-
-
Mostrar Resumo
-
As informações disponíveis nos relatórios de falhas estão sendo usadas para entender a causa raiz dos erros e melhorar a qualidade geral dos sistemas. No entanto, esses relatórios geralmente levam a uma enorme quantidade de informações, sendo necessário aplicar técnicas que visam consolidar os dados em grupos de acordo com um conjunto de critérios bem definidos. Nesta dissertação, contribuímos com uma personalização de regras que automaticamente localizam e agrupam relatórios de falhas correlacionados (de acordo com seus stack traces) no contexto de sistemas Web de larga escala. Para isso, selecionamos e adaptamos algumas abordagens descritas na literatura sobre o agrupamento de relatórios de falhas e a classificação de arquivos suspeitos por travar o sistema. Em seguida, projetamos e implementamos uma ferramenta de software para identificar e classificar arquivos com erro usando stack traces presentes nos relatórios de falhas. Usamos nossa ferramenta e nossa abordagem para identificar e classificar arquivos com erros, ou seja, arquivos com maior probabilidade de causarem uma falha e que, portanto, necessitam de uma correção. Avaliamos nossa abordagem comparando dois conjuntos de classes e métodos: as classes (métodos) que os desenvolvedores alteraram para corrigir um bug e as classes (métodos) suspeitas de conterem um bugs dentre as que estão presentes nos stack traces dos relatórios de falhas correlacionados.
Nosso estudo fornece novas evidências acerca do potencial do uso de grupos de relatórios de falhas para indicar corretamente classes e métodos com erro, dentre as que estão presentes nos stack traces. Por exemplo, identificamos com êxito uma classe com erro, com recall variando de 61,4% a 77,3% e precisão variando de 41,4% a 55,5%, considerando o 1, 3, 5 e 10 arquivos suspeitos identificados e classificados por nossa abordagem. A principal implicação de nossa abordagem é que os desenvolvedores podem localizar e corrigir a causa raiz de um relatório de falha considerando algumas classes ou métodos, em vez de revisar milhares de ativos.
-
Mostrar Abstract
-
The information available in crash reports has been used to understand the root cause of bugs and improve the overall quality of systems. Nonetheless, crash reports often lead to a huge amount of information, being necessary to apply techniques that aim to consolidate the crash report data into groups, according to a set of well-defined criteria. In this dissertation, we contribute with customization of rules that automatically find and group correlated crash reports (according to their stack traces) in the context of large scale web-based systems. We select and adapt some approaches described in the literature about crash report grouping and suspicious file ranking of crashing the system. Next, we design and implement a software tool to identify and rank buggy files using stack traces from crash reports. We use our tool and approach to identify and rank buggy files—that is, files that are most likely to contribute to a crash and thus need a fix.
We evaluate our approach comparing two sets of classes and methods: the classes (methods) that developers changed to fix a bug and the suspected buggy classes (methods) that are present in the stack traces of the correlated crash reports. Our study provides new pieces of evidence of the potential use of crash report groups to correctly indicate buggy classes and methods present in stack traces. For instance, we successfully identify a buggy class with recall varying from 61.4% to 77.3% and precision ranging from 41.4% to 55.5%, considering the top 1, top 3, top 5, and top 10 suspicious buggy files identified and ranked by our approach. The main implication of our approach is that developers can locate and fix the root cause of a crash report considering a few classes or methods, instead of having to review thousands of assets.
|
|
5
|
-
DOUGLAS ARTHUR DE ABREU ROLIM
-
Dashboards para Desenvolvimento de Aplicações e Visualização de Dados para Plataformas de Cidades Inteligentes
-
Orientador : THAIS VASCONCELOS BATISTA
-
MEMBROS DA BANCA :
-
EVERTON RANIELLY DE SOUSA CAVALCANTE
-
NELIO ALESSANDRO AZEVEDO CACHO
-
ROSSANA MARIA DE CASTRO ANDRADE
-
THAIS VASCONCELOS BATISTA
-
Data: 04/03/2020
-
-
Mostrar Resumo
-
O uso massivo de dispositivos interconectados por meio de esquemas de endereçamento exclusivos, capazes de interagir uns com os outros e com seus vizinhos para alcançar objetivos comuns caracterizam o paradigma da Internet das Coisas (IoT). A aplicação deste paradigma da IoT na gestão de assuntos públicos, como forma de resolver os problemas atuais das cidades como a escassez de recursos, poluição, preocupações com a saúde, congestionamentos, entre outros, realiza as chamadas Cidades Inteligentes. Entretanto, faz-se necessário enfrentar vários importantes desafios relacionados com a necessidade de integrar vários dispositivos, que usam diferentes tipos de protocolos e não seguem um padrão comum. Para enfrentar esse problema, plataformas de middleware têm surgido como solução promissoras para facilitar o desenvolvimento de aplicações, provendo interoperabilidade para possibilitar a integração de dispositivos, pessoas, sistemas e dados, e uma série de serviços adicionais necessários no contexto de cidades inteligentes. Em especial, plataformas para cidades inteligentes devem considerar a existência de informações geográficas do espaço urbano e outros aspectos relacionados ao contexto ao qual elas estão inseridas. No entanto, grande parte das plataformas de middleware para esse cenário: (i) não dispõem de interfaces de alto nível que facilitem o desenvolvimento de aplicações para cidades inteligentes; e (ii) devem prover uma interface para organização da exibição dos dados para os usuários, tendo em vista a grande quantidade e a variedade de dados que são processadas e armazenadas em plataformas para cidades inteligentes. Este trabalho: (i) propõe uma arquitetura para a interface de plataformas para cidades inteligentes que considere dados georreferenciados; (ii) implementa tal arquitetura no contexto do middleware SGeoL (Smart Geo Layers), incluindo interfaces de dashboards específicas para desenvolvedores de aplicações e para usuários interessados em aplicações construídas usando a plataforma. O (SGeoL) é uma plataforma que visa aliar dados georreferenciados, soluciona problemas de interoperabilidade e heterogeneidade, e é aplicado atualmente no contexto da cidade de Natal.
-
Mostrar Abstract
-
The massive use of interconnected devices through unique addressing schemes capable of interacting with each other and their neighbors to achieve common goals characterizes the IoT paradigm. The application of this IoT paradigm in public affairs management, as a way to solve the current problems of cities such as resource scarcity, pollution, health concerns, congestion, among others, makes the so-called Smart Cities. However, it is necessary to address several major challenges related to the need to integrate multiple devices that use different types of protocols and do not follow a common pattern. To address this problem, middleware platforms have emerged as a promising solution to facilitate application development, providing interoperability to enable the integration of devices, people, systems and data, and a host of additional services needed in the context of smart cities. In particular, smart city platforms should consider the existence of geographic information on urban space and other aspects related to the context to which they are embedded. However, most middleware platforms for this scenario: (i) do not have high-level interfaces that facilitate smart city application development; and (ii) provide an interface for organizing data display for users, given the large amount and variety of data that is processed and stored on smart city platforms. This paper: (i) proposes an architecture for the smart city platform interface that considers georeferenced data; (ii) implements such architecture in the context of Smart Geo Layers (SGeoL) middleware, including specific dashboard interfaces for application developers and users interested in applications built using the platform. (SGeoL) is a platform that combines georeferenced data, solves interoperability and heterogeneity problems, and is currently applied in the context of the city of Natal.
|
|
6
|
-
LUCAS CRISTIANO CALIXTO DANTAS
-
Um Laboratório Virtual para Desenvolvimento e Experimentação de Aplicações de Internet das Coisas
-
Orientador : THAIS VASCONCELOS BATISTA
-
MEMBROS DA BANCA :
-
THAIS VASCONCELOS BATISTA
-
EVERTON RANIELLY DE SOUSA CAVALCANTE
-
FREDERICO ARAUJO DA SILVA LOPES
-
KIEV SANTOS DA GAMA
-
Data: 20/03/2020
-
-
Mostrar Resumo
-
O desenvolvimento de aplicações para Internet das Coisas (IoT) vem enfrentando problemas importantes, como a heterogeneidade inerente aos dispositivos em termos de recursos, poder de computação, protocolos de rede e requisitos de energia. Para enfrentar esse desafio, plataformas de middleware da IoT foram propostas visando abstrair as especificidades dos dispositivos, promovendo a interoperabilidade entre eles e facilitando o desenvolvimento de aplicações. Uma dessas propostas é o FIWARE, uma plataforma aberta e genérica desenvolvida na Comunidade Europeia para alavancar o desenvolvimento de aplicações da internet do futuro. Dado um conjunto de componentes FIWARE necessários para o desenvolvimento de uma aplicação específica, sua implantação e configuração podem ser feitas manualmente ou usando uma abordagem baseada em contêiner. No entanto, a configuração de um ambiente composto pelos principais componentes do FIWARE não é um processo trivial. Este trabalho propõe o FIWARE-Lab@RNP, um laboratório virtual da Web para prototipar e experimentar aplicações com base na plataforma FIWARE. A principal contribuição do FIWARE-Lab@RNP é permitir o uso dos recursos do FIWARE de maneira transparente, aliviando os usuários da necessidade de implantar e operar uma instância do FIWARE em seu ambiente de desenvolvimento. O laboratório virtual fornece funcionalidades para criar, configurar e gerenciar facilmente instâncias de componentes, dispositivos, entidades de contexto e serviços do FIWARE, enquanto tenta minimizar a curva de aprendizado referente a essas tarefas.
-
Mostrar Abstract
-
The development of Internet of Things (IoT) applications facing important issues such as the inherent device heterogeneity. in terms of capabilities, computing power, network protocols, and energy requirements. To address this challenge, IoT middleware platforms have been proposed to abstract away the specificities of such devices, promoting interoperability among them, and easing application development. One of these proposals is FIWARE, an open, generic platform developed in the European Community to leverage the development of Future Internet applications. Given a set of FIWARE components required for a specific application under development, their deployment and configuration can be made either manually or using a container-based approach. However, setting up an environment composed by the main FIWARE components might sometimes not be a trivial process. This work proposes FIWARE-Lab@RNP, a Web virtual laboratory for prototyping and experimenting applications based on the FIWARE platform. The main concern of FIWARE-Lab@RNP is enabling the use of FIWARE resources through the Internet in a transparent way, thus relieving users from the need of deploying and operating a FIWARE instance on their development or owned environment. The virtual laboratory provides functionalities for easily creating, configuring, and managing instances of FIWARE components, devices, context entities, and services while attempting to minimize the learning curve regarding these tasks.
|
|
7
|
-
GUILHERME DUTRA DINIZ DE FREITAS
-
Investigating the Relationship Between Continuous Integration and Software Quality Metrics: An Empirical Study
-
Orientador : UIRA KULESZA
-
MEMBROS DA BANCA :
-
UIRA KULESZA
-
EDUARDO HENRIQUE DA SILVA ARANHA
-
DANIEL ALENCAR DA COSTA
-
RODRIGO BONIFACIO DE ALMEIDA
-
Data: 26/03/2020
-
-
Mostrar Resumo
-
A qualidade do software é um atributo essencial para o sucesso de todo projeto de software, sendo uma das principais responsáveis pela competitividade na indústria de software. Integração contínua é uma prática de desenvolvimento de software bastante disseminada na indústria e na literatura por melhorar a qualidade do software. Nesta dissertação, realizamos uma série de estudos para investigar a relação entre integração contínua e métricas de qualidade de código que não foram exploradas por estudos já realizados. Para isso, analisamos se a adoção ou a maturidade de adoção de integração contínua estão relacionadas com melhores métricas de qualidade de código. Como resultado, encontramos que não existem evidências estatísticas que a adoção e a maturidade de integração contínua se relacione com tais métricas de qualidade de código. Por outro lado, descobrimos que a cobertura dos testes é a prática de integração contínua que mais afeta parte das métricas investigadas. A integração de builds com mais frequência não está relacionada a nenhuma das métricas estudadas. Além disso, descobrimos que projetos com builds mais rápidos tendem a ter melhor estruturação entre classes e pacotes, mas tendem a ter maior acoplamento. Também observamos que projetos com correções rápidas de builds tendem a ter menores hierarquias de herança e uma melhor estruturação das classes. Em relação à cobertura de teste, os projetos com maior cobertura de teste tendem a ter uma menor complexidade intrínseca de operações, mas uma estrutura de operação pior se comparada aos projetos com uma menor cobertura de teste.
-
Mostrar Abstract
-
Software quality is an essential attribute for the success of every software project. It is a significant element to the competitiveness of the software industry. Meanwhile, continuous integration is known as a software development practice that can contribute to improving the software quality. In this research, we conduct a series of studies that investigate the relationship between continuous integration and software quality code metrics that have not been explored before. For this purpose, we looked at whether continuous integration adoption and maturity sharing are related to better code quality metrics. As a result, we found that there is no statistical evidence that CI adoption and maturity are related to code quality metrics. We found that test coverage is the continuous integration core practice that most impacts object-oriented software metrics. On the other hand, integrating builds frequently is not related to any of the studied metrics. Additionally, we found that projects with faster builds tend to have better system structure between classes and packages but they also have higher coupling. We also observed that projects with fast build fixes tend to have a better hierarchy and class structuring. Regarding test coverage, projects with higher test coverage tend to have a lower intrinsic operation complexity but a worse operation structuring comparing with projects with lower test coverage.
|
|
8
|
-
DANILO RODRIGO CAVALCANTE BANDEIRA
-
Um estudo sobre o impacto da combinação de escrita e dinâmica de pressionamento de teclado na previsão de gênero e estado emocional
-
Orientador : ANNE MAGALY DE PAULA CANUTO
-
MEMBROS DA BANCA :
-
ANNE MAGALY DE PAULA CANUTO
-
DIEGO SILVEIRA COSTA NASCIMENTO
-
MARJORY CRISTIANY DA COSTA ABREU
-
Data: 03/04/2020
-
-
Mostrar Resumo
-
O uso de informações de soft biometric como ferramenta auxiliar na identificação do usuário já é bem conhecido na literatura. Porém, não é o único uso possível para dados biométricos, pois esses dados podem ser adequados para a obtenção de informações de baixo nível do usuário que não estejam relacionadas apenas à sua identidade. Gênero, orientação da mão e estado emocional são alguns exemplos, que podem ser chamados de dados de soft biometric. É muito comum encontrar trabalhos utilizando modalidades fisiológicas para previsão de alguma informação de soft biometrics, mas as modelidades de biometrias comportamentais são frequentemente negligenciadas. Duas modalidades comportamentais possíveis que nem sempre são encontrados na literatura são a dinâmica das teclas e a caligrafia assinatura, que pode ser usada sozinha para prever o sexo dos usuários, mas não em nenhum tipo decenário de combinação. Para preencher esse espaço, este trabalho tem como objetivo investigar se oa combinação dessas duas modalidades biométricas pode afetar a precisão da previsão de gênero e estados emocionais e como essa combinação deve ser feita.
-
Mostrar Abstract
-
The use of soft biometrics as an auxiliary tool on user identification is already well known. It is not, however, the only use possible for biometric data, as such data can be adequate to get low level information from the user that are not only related to his identity. Gender, hand-orientation and emotional state are some examples, which it can be called softbiometrics. It is very common to find work using physiologic modalities for soft-biometric prediction, but the behavioural data is often neglected. Two possible behavioural modalities that are not often found in the literature are keystroke dynamics and handwriting signature, which can be seen used alone to predict the users gender, but not in any kind of combination scenario. In order to fill this space, this study aims to investigate whether the combination of those two different biometric modalities can impact the gender prediction accuracy, and how this combination should be done.
|
|
9
|
-
PEDRO VICTOR BORGES CALDAS DA SILVA
-
Facilitando o desenvolvimento de Aplicações de Internet das Coisas baseadas no FIWARE com o IoTVar
-
Orientador : THAIS VASCONCELOS BATISTA
-
MEMBROS DA BANCA :
-
EVERTON RANIELLY DE SOUSA CAVALCANTE
-
ROSSANA MARIA DE CASTRO ANDRADE
-
THAIS VASCONCELOS BATISTA
-
Data: 15/07/2020
-
-
Mostrar Resumo
-
A crescente popularidade da Internet das Coisas (IoT) levou a disponibilização de uma infinidade de dispositivos altamente heterogêneos e geograficamente dispersos. Nos últimos anos, as plataformas e middleware de IoT foram integrados ao ecossistema de IoT para lidar com essa heterogeneidade, promovendo interoperabilidade e facilitando o desenvolvimento de aplicações. IoTVar e FIWARE são exemplos de soluções que fornecem serviços para atingir esses objetivos. Entretanto, desenvolver uma aplicação sobre o FIWARE requer um alto nível de conhecimento da plataforma, além de ser uma tarefa demorada e propensa a erros. Por outro lado, o IoTVar fornece um alto nível de abstração para gerenciar interações entre aplicações de IoT e plataformas de IoT subjacentes, permitindo que os desenvolvedores detectem facilmente dispositivos e atualizem dados de contexto com baixo custo de desenvolvimento em termos de linhas de código. Este trabalho apresenta a integração entre o middleware IoTVar e a plataforma FIWARE, oferecendo aos desenvolvedores de aplicações a possibilidade de declarar variáveis IoT FIWARE no lado do cliente através da IoTVar. Portanto, eles podem usar automaticamente sensores mapeados cujos valores são atualizados de forma transparente com as observações do sensor. A integração entre IoTVar e FIWARE foi avaliada através de uma avaliação de esforço de desenvolvimento comparando linhas de código usadas para declarar e gerenciar variáveis de IoT, bem como experimentos para medir a sobrecarga causada pela IoTVar em termos de CPU, memória e bateria.
-
Mostrar Abstract
-
The rising popularity of the Internet of Things (IoT) has led to a plethora of highly heterogeneous, geographically-dispersed devices. In recent years, IoT platforms and middleware have been integrated into the IoT ecosystem for tackling such a heterogeneity, promoting interoperability, and making application development easier. IoTVar and FIWARE are examples of solutions that provide services to accomplish these goals. However, developing an application atop FIWARE requires a high-level of knowledge of the platform, besides being a time consuming, error prone task. On the other hand, IoTVar provides a high abstraction level to manage interactions between IoT applications and underlying IoT platforms, thus enabling developers to easily discover devices and transparently update context data at low development cost in terms of lines of code. This work presents the integration between the IoTVar middleware and FIWARE platforms, providing application developers with the possibility to declare FIWARE IoT variables at the client side through IoTVar. Therefore, they become able to automatically use mapped sensors whose values are transparently updated with sensor observations. The integration between IoTVar and FIWARE was evaluated through a development effort assessment comparing used lines of code to declare and manage IoT variables, as well as experiments to measure the overhead caused by IoTVar in terms of CPU, memory and battery.
|
|
10
|
-
RENATO MESQUITA SOARES
-
Product Backlog Orientado a Metas em Projetos Scrum para Fundamentar as Tomadas de Decisões do Product Owner
-
Orientador : MARCIA JACYNTHA NUNES RODRIGUES LUCENA
-
MEMBROS DA BANCA :
-
MARCIA JACYNTHA NUNES RODRIGUES LUCENA
-
FERNANDO MARQUES FIGUEIRA FILHO
-
ISABEL DILLMANN NUNES
-
FERNANDA MARIA RIBEIRO DE ALENCAR
-
Data: 27/07/2020
-
-
Mostrar Resumo
-
No Framework Scrum, o Product Owner (PO) assume o papel central no processo de desenvolvimento, sendo o encarregado por fazer a comunicação entre o cliente e os desenvolvedores. Nessa intermediação, ele gerencia o Product Backlog, que mantém uma lista de itens a serem desenvolvidos, correspondentes às necessidades do cliente. Diante disso, a academia tem explorado os desafios do PO, principalmente relacionados às atividades de planejamento onde, nesse contexto, a tomada de decisão é vista como a sua tarefa mais importante. Porém, a falta de informações estruturadas e que fundamentem as suas escolhas, faz com que o mesmo, por muitas vezes, tome decisões equivocadas ou se omita dessa responsabilidade. Na Engenharia de Requisitos Orientada a Metas, os requisitos são descritos a partir das metas organizacionais dos stakeholders e, segundo a literatura, a sua especificação pode trazer diversos benefícios em termos de capacidade de organização da informação. A maioria dos projetos Scrum utiliza histórias de usuário para especificar os requisitos e, embora elas contenham a definição da meta, a mesma não é evidenciada no processo de desenvolvimento. Isto posto, este trabalho tem como objetivo proporcionar uma apresentação das informações organizacionais, inerentes ao produto ou serviço desejado, em uma disposição que fundamente e oriente as tomadas de decisões do PO. Para tal fim, foi proposto um artefato, o Goals Driven Product Backlog, que busca evidenciar as metas e seus relacionamentos com as histórias de usuário. O estudo avaliativo realizado encontrou evidências de que o artefato proporciona informações mais estruturadas ao PO e, consequentemente, contribui para as suas tomadas de decisões.
-
Mostrar Abstract
-
In the Scrum Framework, the Product Owner (PO) takes the central role within the development process, being responsible for communicating between the customer and the developers. In this intermediation, he manages the Product Backlog, which maintains a list of items to be developed, corresponding to the customer's needs. In this sense, the academy has explored the challenges of the PO, mainly in the planning activities where, in this context, the decision making is seen as his most important task. However, the lack of structured information that can support their choices, makes them, many times, make wrong decisions or omit this responsibility. In Goal-Oriented Requirements Engineering, the requirements are described from the stakeholders organizational goals and, according to the literature, their definition can bring several benefits in terms of information organization capacity. Most Scrum projects use user stories to specify requirements and, although they contain the definition of the goal, she is not evidented in the development process. That said, this work aims to provide a presentation of the organizational information, inherent to the desired product or service, in a provision that justifies and guides the decision making of the PO. To this end, an artifact, the Goals Driven Product Backlog, was proposed, which seeks to highlight the goals and their relationships with user stories. The evaluative study carried out found evidence that the artifact provides more structured information to the PO and, consequently, contributes to his decision making.
|
|
11
|
-
JOSÉ LUCAS SANTOS RIBEIRO
-
Servindo modelos de Machine Learning com uma Arquitetura Baseada em Serverless
-
Orientador : NELIO ALESSANDRO AZEVEDO CACHO
-
MEMBROS DA BANCA :
-
CARLOS EDUARDO DA SILVA
-
EVERTON RANIELLY DE SOUSA CAVALCANTE
-
FREDERICO ARAUJO DA SILVA LOPES
-
NELIO ALESSANDRO AZEVEDO CACHO
-
Data: 29/07/2020
-
-
Mostrar Resumo
-
Soluções inteligentes para classificação de dados que fazem uso de Machine Learning estão em um momento de ascensão. A área de análise de dados está atraindo cada vez mais desenvolvedores e pesquisadores, porém as soluções desenvolvidas precisam ser modularizadas em componentes bem definidos para ser possível paralelizar algumas etapas e obter um bom desempenho na etapa de execução. A partir dessa motivação, este trabalho propõe uma arquitetura genérica para classificação de dados, nomeada Machine Learning in Microservices Architecture (MLMA), que pode ser reproduzida em um ambiente de produção. Além disso é apresentado a utilização da arquitetura em um projeto que faz classificação multi-label de imagens para recomendar pontos turísticos ao usuário e uma validação do uso de serverless para servir modelos de Machine Learning.
-
Mostrar Abstract
-
Smart solutions for data classification data that make use of Deep Learning are in a moment of ascension. The data analysis area is attracting more and more developers and researchers, but the solutions developed need to be modularized into well-defined components in order to be able to parallelize some stages and obtain a good performance in the execution stage. From this motivation, this work presents a generic architecture for data classification, named Machine Learning in Microservices Architecture (MLMA), that can be reproduced in a production environment. In addition, the use of the architecture is presented in a project that makes multi-label classification of images to recommend tourist attractions and validates the use of serverless to serve models of Machine Learning.
|
|
12
|
-
THALES AGUIAR DE LIMA
-
Investigating fuzzy methods for multilinguals peaker identification
-
Orientador : MARJORY CRISTIANY DA COSTA ABREU
-
MEMBROS DA BANCA :
-
ALTAIR OLIVO SANTIN
-
MARJORY CRISTIANY DA COSTA ABREU
-
MONICA MAGALHAES PEREIRA
-
Data: 27/08/2020
-
-
Mostrar Resumo
-
Speech is a crucial ability for humans to interact and communicate. Speech-based technologies are becoming more popular with speech interfaces, real-time translation, and budget healthcare diagnosis. Thus, this work aims to explore an important but under-investigated topic on the field: multilingual speech recognition. We employed three languages: English, Brazilian Portuguese, and Mandarin. To the best of our knowledge, those three languages were not compared yet. The objectives are to explore Brazilian Portuguese in comparison with the other two more well-investigated languages, by verifying speaker recognition robustness in multilingual environments, and further investigate fuzzy methods. We have performed an analysis for text-independent speaker identification on closed-set using log-Energy, 13-MFCCs, Deltas, and Double Deltas with four classifiers. The closed-set text-independent speaker identification results indicated that this problem presents some robustness on multilingual environments, since adding a second language, it degrades the accuracy by 5.45\%, and 5.32\% for a three language dataset using an SVM classifier.
-
Mostrar Abstract
-
Speech is a crucial ability for humans to interact and communicate. Speech-based technologies are becoming more popular with speech interfaces, real-time translation, and budget healthcare diagnosis. Thus, this work aims to explore an important but under-investigated topic on the field: multilingual speech recognition. We employed three languages: English, Brazilian Portuguese, and Mandarin. To the best of our knowledge, those three languages were not compared yet. The objectives are to explore Brazilian Portuguese in comparison with the other two more well-investigated languages, by verifying speaker recognition robustness in multilingual environments, and further investigate fuzzy methods. We have performed an analysis for text-independent speaker identification on closed-set using log-Energy, 13-MFCCs, Deltas, and Double Deltas with four classifiers. The closed-set text-independent speaker identification results indicated that this problem presents some robustness on multilingual environments, since adding a second language, it degrades the accuracy by 5.45\%, and 5.32\% for a three language dataset using an SVM classifier.
|
|
13
|
-
FELLIPE MATHEUS COSTA BARBOSA
-
Medição Precisa de Áreas de Feridas Crônicas Usando Structure From Motion
-
Orientador : BRUNO MOTTA DE CARVALHO
-
MEMBROS DA BANCA :
-
BRUNO MOTTA DE CARVALHO
-
ANNE MAGALY DE PAULA CANUTO
-
LUIZ MARCOS GARCIA GONCALVES
-
RAFAEL BESERRA GOMES
-
VERONICA TEICHRIEB
-
Data: 23/10/2020
-
-
Mostrar Resumo
-
As feridas crônicas são úlceras que têm um processo de cicatrização difícil ou quase interrompido, levando a um risco aumentado de complicações de saúde, como amputações e infecções. A medição precisa de áreas quantitativas é de grande importância em ensaios clínicos, análise patológica de feridas e atendimento diário ao paciente. Os métodos manuais e 2D não podem resolver os problemas causados pelas curvaturas do corpo humano e diferentes ângulos da câmera. Este trabalho propõe o uso de uma metodologia não invasiva para realizar a reconstrução 3D da superfície do corpo humano para mensuração de áreas de feridas, que combina segmentação de imagem, Structure from Motion (SfM) com diferentes descritores, SIFT, SURF, ORB e BRIEF e reconstrução de malha para obter uma representação fidedigna da superfície da pele. Os resultados mostram que medidas precisas de áreas de superfícies 3D podem ser obtidas a partir de imagens adquiridas com um smartphone usando a metodologia proposta, com erros médios de 1,7% para o SIFT, 3,6% para o SURF, 6,4% para o ORB e 20,8% para o BRIEF, usando uma configuração de 10 imagens, enquanto o erro médio para as medições 2D foi de 32,7%, claramente demonstrando a superioridade do método 3D.
-
Mostrar Abstract
-
Chronic wounds are ulcers that have a difficult or almost interrupted healing process, leading to an increased risk of health complications, such as amputations and changes. The need for quantitative areas is of great importance in clinical trials, pathological analysis of wounds and daily patient care. Manual and 2D manuals cannot solve the problems caused by the curvatures of the human body and different camera angles. This work proposes the use of a non-invasive methodology to perform 3D reconstruction of the human body surface to measure wound areas, which combines a combined image, Structure from Motion (SfM) with different descriptors, SIFT, SURF, ORB and BRIEF and mesh reconstruction to obtain a reliable representation of the skin surface. The results show that accurate measurements of 3D surface areas can be obtained from images acquired with a smartphone using the proposed methodology, with average errors of 1.7% for SIFT, 3.6% for SURF, 6.4% for ORB and 20.8% for BRIEF, using a configuration of 10 images, while the average error for 2D occurrences was 32.7%, clearly pointing to the superiority of the 3D method.
|
|
14
|
-
LARYSSE SAVANNA IZIDIO DA SILVA
-
Um Componente de Consulta Semântica para Cidades Inteligentes
-
Orientador : NELIO ALESSANDRO AZEVEDO CACHO
-
MEMBROS DA BANCA :
-
FREDERICO ARAUJO DA SILVA LOPES
-
NELIO ALESSANDRO AZEVEDO CACHO
-
RENATA GALANTE
-
THAIS VASCONCELOS BATISTA
-
Data: 05/11/2020
-
-
Mostrar Resumo
-
Cidades inteligentes são compostas por diversos sistemas interconectados, destinados a promover uma melhor gestão dos recursos urbanos e naturais das cidades, contribuindo assim para a melhoria da qualidade de vida dos cidadãos. Os dados são de grande importância para as cidades inteligentes, pois contribuem significativamente para o processo de tomada de decisões estratégicas para o espaço urbano. Contudo, tal cenário é tipicamente caracterizado pela alta heterogeneidade das fontes de dados tornando a pesquisa de informações significativas mais complexa. Para lidar com essas características, ontologias têm sido utilizadas em conjunto com o Linked Data para representar semanticamente as informações, inferir novas informações dos dados existentes e integrar efetivamente as informações conectadas de diferentes fontes. Esse cenário requer uma estratégia de gerenciamento de dados que inclua mecanismos eficientes para suportar a filtragem de informações e a descoberta de conhecimento. Nesse contexto, este trabalho propõe um componente de busca a dados semânticos baseado na representação de informações georreferenciadas em cidades inteligentes por meio de ontologias e dados vinculados. A solução proposta foi aplicada a dados educacionais georreferenciados de uma cidade para a realização de inferência de novas informações não explícitas dos dados e relacionamentos existentes.
-
Mostrar Abstract
-
Smart cities are composed of several interconnected systems, designed to promote better management of urban and natural resources in cities, thus contributing to improving the quality of life of citizens. Data is of great importance for smart cities, as they significantly contribute to the strategic decision-making process for urban space. However, such a scenario is typically characterized by the high heterogeneity of data sources making the search for significant information more complex. To deal with these characteristics, ontologies have been used in conjunction with Linked Data to semantically represent information, infer new information from existing data and effectively integrate connected information from different sources. This scenario requires a data management strategy that includes efficient mechanisms to support information filtering and knowledge discovery. In this context, this work proposes a search component to semantic data based on the representation of georeferenced information in smart cities through ontologies and linked data. The proposed solution was applied to geo-referenced educational data from a city to infer new non-explicit information from existing data and relationships.
|
|
15
|
-
DOUGLAS BRAZ MACIEL
-
Gerenciamento e Orquestração de Slices de Rede Elásticos em Domínios Definidospelo NECOS LSDC
-
Orientador : AUGUSTO JOSE VENANCIO NETO
-
MEMBROS DA BANCA :
-
AUGUSTO JOSE VENANCIO NETO
-
CHRISTIAN RODOLFO ESTEVE ROTHENBERG
-
MARCO VIEIRA
-
THAIS VASCONCELOS BATISTA
-
Data: 30/11/2020
-
-
Mostrar Resumo
-
O NECOS (do inglês Novel Enablers for Cloud Slicing) é um projeto de pesquisa e desenvolvimento fomentado pela 4a chamada colaborativa entre Brasil e Europa do Horizon 2020 (EUB-01-2017: Cloud Computing}. O projeto NECOS foi proposto com a finalidade de tratar das atuais limitações existentes no âmbito da computação em nuvem, de forma a oferecer suporte às demandas de novos serviços e verticais. A solução proposta pelo NECOS é baseada em um novo conceito chamado de nuvens definidas por fatias leves (LSDC, do inglês Lightweight Slice Defined Cloud). O LSDC é uma abordagem que considera ferramentas leves capazes voltadas para o gerenciamento e orquestração de recursos que, de modo que sejam combinados e agregados para aprovisionar fatias de rede e cloud fim a fim (denominado Cloud-Network Slicing). Diante disto, este trabalho propõe um conjunto de blocos de construção na arquitetura NECOS voltados ao gerenciamento e orquestração de partes network slices que compõe instâncias cloud-network slice ativas, ou a serem ativadas, em domínios definidos pela plataforma NECOS, na perspectiva de prover conectividade fim a fim com recursos garantidos e alto nível de isolamento pela exploração do conceito de e Virtualização de Funções de Redes (NFV, do inglês Network Function Virtualization). Ademais, os blocos de construção seguem o paradigma de Redes Softwarizadas como habilitador chave para o controle dos recursos automático e em tempo de execução, visando garantir Qualidade de Serviço (QoS, do inglês Quality of Service) e resiliência ao nível dos network-slices. A solução proposta será avaliada em uma bancada de testes laboratorial desenvolvida nas premissas do Laboratório do Grupo de Pesquisa em Serviços e Aplicações de Internet do Futuro (REGINA-Lab, do inglês Research Group on Future Internet Service and Applications Lab), que hospeda toda a plataforma NECOS e os blocos de construção propostos neste trabalho de mestrado. Uma avaliação preliminar foi realizada sob experimentos que consideram um ambiente real definido por cloud-network slices NECOS, sugerindo que esta abordagem se apresenta como uma solução viável.
-
Mostrar Abstract
-
The Novel Enablers for Cloud Slicing (NECOS) project is fostered by the 4th Horizon 2020 Collaborative Call between Brazil and Europe (EUB-01-2017: Cloud Computing}. The NECOS project address existing cloud computing and networking limitations to support the heterogeneous demands of new services and verticals. The solution proposed by NECOS is based on a new concept called Lightweight Slice Defined Cloud (LSDC), which considers lightweight tools capable for Management and Orchestration (MANO) of resources that are combined and aggregated to provide end-to-end cloud- and network-level slices (called Cloud-Network Slicing). This Masters research proposes a set of building blocks that extends the NECOS architecture with MANO of network-slice parts composing active or to be activated, cloud-network slice instances in domains defined by the NECOS platform so that provisioning end-to-end resource-guaranteed connectivity and with high-level isolation by exploring the Network Function Virtualization (NFV) concept. In addition, the proposed building blocks follow the Network Softwarization paradigm for enabling automatic resource control at the running time to ensure Quality of Service (QoS) and network-slice resiliency. The proposed solution will be evaluated in a lab-premised testbed under the Future Internet Services and Applications Research Group (REGINA-Lab) Laboratory, whereby the entire Internet NECOS platform participates, along with the building blocks proposed in this Master dissertation. A preliminary evaluation was performed under experiments that consider a real environment defined by NECOS cloud-network slices, suggesting that this approach presents itself as a viable solution.
|
|
16
|
-
IASLAN DO NASCIMENTO PAULO DA SILVA
-
Arquitetura de Microsserviços para Processamento de Imagens Relevantes em Evidências de Crimes Digitais
-
Orientador : BRUNO MOTTA DE CARVALHO
-
MEMBROS DA BANCA :
-
BRUNO MOTTA DE CARVALHO
-
DANIEL SABINO AMORIM DE ARAUJO
-
FRANCISCO DANTAS DE MEDEIROS NETO
-
GIBEON SOARES DE AQUINO JUNIOR
-
Data: 21/12/2020
-
-
Mostrar Resumo
-
Forense digital é um ramo da ciência da computação que se utiliza de técnicas computacionais para analisar evidências criminais com mais velocidade e precisão. No contexto do sistema de justiça brasileiro, durante uma investigação criminal, os especialistas forenses extraem, decodificam e analisam as evidências coletadas para permitir que o promotor público faça exigências legais para uma acusação. Esses especialistas têm um tempo muito curto a análise para encontrar evidências criminais pode levar muito tempo. Para resolver esse problema, este trabalho propõe ARTEMIS (A micRoservice archiTecturE for images in criMe evIdenceS ou Arquitetura de microsserviços para imagens em evidencias criminais) uma arquitetura para classificação de grandes quantidades de arquivos de imagem presentes em evidências usando softwares de código aberto. O módulo de classificação de imagens contém alguns classificadores pré-treinados, considerando a necessidade de analistas forenses do MPRN (Ministério Público do Rio Grande do Norte).Foram construídos modelos para identificar tipos específicos de objetos com por exemplo: armas de fogo, munição, carteiras de identidade brasileiras, documentos de texto, capturas de tela de celular e nudez. Os resultados obtidos mostram que o sistema obteve boa precisão na maioria dos casos. Isso é extremamente importante no contexto desta pesquisa, onde os falsos positivos devem ser evitados, a fim de economizar tempo de trabalho dos analistas. Além disso a arquitetura proposta foi capaz de acelerar o processo de analise da evidência.
-
Mostrar Abstract
-
Digital forensics is a branch of computer science that uses computational techniques to analyze criminal evidence with greater speed and accuracy. In the context of the Brazilian justice system, during a criminal investigation, forensic specialists extract, decode, and analyze the evidence collected to allow the prosecutor to make legal demands for a prosecution. These experts have a very short time to analyze to find criminal evidence can take a long time. To solve this problem, this paper proposes ARTEMIS (A micRoservice archiTecturE for imagesin criMe evIdenceS or Microservice Architecture for images in criminal evidence) an architecture for classifying large amounts of image files present in evidence using open source software. The image classification module contains some pre-trained classifiers, considering the need of foren-ses analysts from the MPRN (Rio Grande do Norte Public Ministry). Models were built to identify specific types of objects with for example: firearms, ammunition, Brazilian ID cards, text documents, cell phone screen captures enudez. The results obtained show that the system obtained good precision in most cases. This is extremely important in the context of this research, where false positives should be avoided in order to save analysts' work time. In addition, the proposed architecture was able to accelerate the process of evidence analysis.
|
|
|
Teses |
|
1
|
-
ROBERCY ALVES DA SILVA
-
Recomendação automática da estrutura de comitês de classificadores usando meta-aprendizado
-
Orientador : ANNE MAGALY DE PAULA CANUTO
-
MEMBROS DA BANCA :
-
ANNE MAGALY DE PAULA CANUTO
-
DANIEL SABINO AMORIM DE ARAUJO
-
DIEGO SILVEIRA COSTA NASCIMENTO
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
MARJORY CRISTIANY DA COSTA ABREU
-
Data: 07/02/2020
-
-
Mostrar Resumo
-
Atualmente, estamos constantemente preocupados em classificar coisas, pessoas e a tomar decisões, que quando nos deparamos com problemas com um alto grau de complexidade, tendemos a buscar opiniões de outras pessoas, geralmente de pessoas que tenham certo conhecimento ou até mesmo, na medida do possível, sejam especialistas no domínio do problema em questão, de forma que nos auxiliem efetivamente no nosso processo de tomada de decisão. Em uma analogia às estruturas de classificação, temos um comitê de pessoas e ou especialistas (classificadores) que toma decisões e, com base nestas respostas, uma decisão final é tomada (agregador). assim, podemos dizer que um comitê de classificadores é formado por um conjunto de classificadores (especialistas), organizados paralelamente, que recebem uma informação de entrada (padrão ou instância), e tomam uma decisão individual. Com base nestas decisões, o agregador escolhe a decisão final, única, do comitê. Uma questão importante no projeto de comitês de classificadores é a definição de sua estrutura, mais especificamente, a quantidade e o tipo de classificadores, e o método de agregação, para se obter o maior desempenho possível. Geralmente, é necessário um processo exaustivo de teste e avaliação para se definir esta estrutura, e tentando auxiliar nessa linha de pesquisa, este trabalho propõe duas novas abordagens para sistemas de recomendação automática da estrutura de comitês de classificadores, usando o meta-aprendizado para recomendar três desses parâmetros: o classificador, o número de classificadores e o agregador.
-
Mostrar Abstract
-
Today we are constantly concerned with classifying things, people, and making decisions, which when we encounter problems with a high degree of complexity, we tend to seek opinions from others, usually from people who have some knowledge or even, as far as possible. possible, be experts in the field of the problem in question, so as to effectively assist us in our decision-making process. In analogy to classification structures, we have a committee of people and or specialists (classifiers) that makes decisions, and based on these answers, a final decision is made (aggregator). Thus, we can say that a committee of classifiers is formed by a set of classifiers (specialists), organized in parallel, that receive input information (pattern or instance), and make an individual decision. Based on these decisions, the aggregator chooses the final single decision of the committee. An important issue in designing classifier committees is the definition of their structure, more specifically, the number and type of classifiers, and the method of aggregation for the highest possible performance. Generally, an exhaustive testing and evaluation process is required to define this structure, and trying to assist with this line of research, this paper proposes two new approaches to automatic recommendation systems of the classifier committee structure, using meta-learning to recommend three of these parameters: the classifier, the number of classifiers, and the aggregator.
|
|
2
|
-
GUSTAVO SIZÍLIO NERY
-
Compreendendo o relacionamento entre Integração Contínua e seu Impacto na Qualidade do Software
-
Orientador : UIRA KULESZA
-
MEMBROS DA BANCA :
-
DANIEL ALENCAR DA COSTA
-
EDUARDO HENRIQUE DA SILVA ARANHA
-
GUSTAVO HENRIQUE LIMA PINTO
-
RODRIGO BONIFACIO DE ALMEIDA
-
UIRA KULESZA
-
Data: 27/02/2020
-
-
Mostrar Resumo
-
Integração Contínua, em inglês Continuous Integration (CI), consiste na prática de automatizar e melhorar a frequência das integrações de código (por exemplo, através de builds diários). CI é frequentemente considerado um dos principais elementos que dão suporte às metodologias ágeis. CI ajuda a reduzir os riscos de integração no desenvolvimento de software, através de builds e testes automatizados, permitindo que equipes corrijam problemas de integração imediatamente. A adoção de CI pode ajudar as equipes a avaliar e melhorar a qualidade dos sistemas de software. Os potenciais benefícios de CI chamaram a atenção de pesquisadores da engenharia de software que buscam entender, de forma empírica, as possíveis vantagens de adoção da prática. Estudos anteriores evidenciam o impacto da adoção de CI em diversos aspectos do desenvolvimento de software. Apesar dos valiosos avanços, muitas suposições permanecem empiricamente inexploradas na comunidade.
Nosso trabalho investiga, de forma empírica, os fatores da qualidade do software e suas relações com a adoção de CI. Como contribuição, esta tese fornece um mapeamento sistemático da literatura, que apresenta um amplo cenário de como profissionais e pesquisadores observam o efeito de CI nos aspectos relacionados ao produto de software. Além disso, melhoramos algumas premissas, realizando dois estudos empíricos, visando responder às seguintes questões ainda em aberto: (i) A adoção de CI está associada à evolução do código de teste dos projetos? (ii) O nível de aderência às práticas de CI está relacionada a uma melhoria da qualidade do código fonte dos projetos? Por fim, nós apresentamos um estudo pioneiro, considerando o nosso contexto de pesquisa, que vai além dos testes de correlação e investiga o efeito causal entre a adoção de CI e testes automatizados. Para isto, aplicamos uma inferência causal, através da utilização de diagramas causais e métodos probabilísticos, para determinar a efeito de CI nos testes automatizados. Nossos resultados sugerem que, apesar dos trade-offs relacionados à adoção de CI, é provável que a prática esteja associada à melhorias na qualidade do software. Além disso, CI emprega um efeito causal positivo e considerável no volume de testes dos projetos.
-
Mostrar Abstract
-
Continuous Integration (CI) is the practice of automating and improving the frequency of code integration (e.g., daily builds). CI is often considered one of the key elements involved to support agile software teams. It helps to reduce the risks in software development by automatically building and testing a project codebase, which allows the team to fix broken builds immediately. The adoption of CI can help development teams to assess the quality of software systems. The potential benefits of adopting CI have brought the attention of researchers to study its advantages empirically. Previous research has studied the impact of adopting CI on diverse aspects of software development. Despite the valuable advancements, there are still many assumptions in the community that remains empirically unexplored.
Our work empirically investigates the software quality outcomes and their relationship with the adoption of CI. This thesis provides a systematic literature mapping that presents a broad knowledge of how practitioners and researchers recognize the CI practice to affect software product-related aspects. Additionally, we improve some assumptions by performing two empirical studies that aim to answer the following open questions: (i) Does the adoption of CI share a relationship with the evolution of test code? (ii) The adherence to CI best practices is related to the degree of code quality? Finally, we present a pioneering study that goes beyond the correlation tests to investigate the estimated causal effect of CI adoption and its impact on automated tests. Thereby, we apply a causal inference using directed acyclic graphs and probabilistic methods to determine the causal effect of CI in automated tests. Our results suggest that, despite the CI adoption trade-offs, it is likely to be associated with improvements in software quality. Additionally, it employs a considerable positive causal effect on the volume of automated tests.
|
|
3
|
-
LETTIERY D' LAMARE PORTELA PROCOPIO
-
Roteamento de Drones Autônomo: Um EstudoAlgorítmico
-
Orientador : MARCO CESAR GOLDBARG
-
MEMBROS DA BANCA :
-
GILBERTO FARIAS DE SOUSA FILHO
-
ELIZABETH FERREIRA GOUVEA GOLDBARG
-
LUCÍDIO DOS ANJOS FORMIGA CABRAL
-
MARCO CESAR GOLDBARG
-
MATHEUS DA SILVA MENEZES
-
Data: 28/02/2020
-
-
Mostrar Resumo
-
Este trabalho formula a versão Assimétrica do Problema de Roteamento de Veículo Suficientemente Próximo, utilizado para planejamento de rotas de reconhecimento aéreo. O problema é formulado com programação cônica de segunda ordem e são aplicadas técnicas de otimização heurística baseada em uma propriedade geométrica do problema pararesolve-lo. Apresentamos os resultados de experimentos computacionais extensivo cominstâncias adaptadas da literatura, os testes mostram que o método proposto produz soluções de alta qualidade rapidamente ao comparado com o Solver
-
Mostrar Abstract
-
This work formulates the Assicron’s version of the Close-Enough Vehicle Routing Problem, used for aerial reconnaissance route planning. We formulate the problem with the second-order programming model and apply heuristic optimization techniques based on a geometric property of the problem to solve it. We present the results of extensive computational experiments with adapted instances of the literature, the tests show that our method produces high quality solutions quickly when compared to the solver.
|
|
4
|
-
EMMANUELLY MONTEIRO SILVA DE SOUSA LIMA
-
Números Complexos Graduados, ordens locais e agregações locais.
-
Orientador : REGIVAN HUGO NUNES SANTIAGO
-
MEMBROS DA BANCA :
-
ANNE MAGALY DE PAULA CANUTO
-
BENJAMIN RENE CALLEJAS BEDREGAL
-
GRAÇALIZ PEREIRA DIMURO
-
REGIVAN HUGO NUNES SANTIAGO
-
RONEI MARCOS DE MORAES
-
Data: 17/04/2020
-
-
Mostrar Resumo
-
Agregações são funções que possuem a capacidade de combinar vários objetos em um único objeto dessa mesma natureza. Mínimo, máximo, média ponderada e média aritmética, são exemplos de agregações frequentemente utilizadas no cotidiano as quais possuem diversas possibilidades de aplicações. Porém, quando trabalha-se com agregações, como as mencionadas anteriormente, os objetos em questão são sempre números reais. Na literatura são quase inexistentes estudos e pesquisas que retratam essas agregações onde os objetos são números complexos. Isto deve-se ao fato de que para introduzir agregações, os objeto envolvidos necessitam estar providos de uma ordem total.
Os Números Complexos Graduados (NCG), proposto pelo autor, foram recentemente aplicado na avaliação de desempenho de algoritmos de classificação. O método requeria a comparação entre esses números e para alcançar isso propõe-se os conceitos de ordem e agregações locais. Duas aplicações são propostas.
-
Mostrar Abstract
-
Aggregations are functions that have the ability to combine multiple objects into a single object of the same nature. Minimum, maximum, weighted average and arithmetic mean, are examples of aggregations frequently used in everyday life which have several possibilities for applications. However, when working with aggregations, such as those mentioned above, the objects in question are always real numbers. There are almost no studies in the literature that portray these aggregations when objects are complex numbers. This is due to the fact that to introduce some aggregations, the objects involved need to be provided with a total order relation. The Graduated Complex Numbers (NCG), proposed by the author, was recently applied in the performance evaluation of classification algorithms. The method required the comparison of complex graduated numbers to achieve that the notion of local order is proposed and consequently the concept of local aggregation is developed. Two applications of such approach are provided.
|
|
5
|
-
LIDIANE OLIVEIRA DOS SANTOS
-
Um Estilo Arquitetural Baseado na Norma ISO/IEC 30141 para Sistemas de Internet das Coisas
-
Orientador : THAIS VASCONCELOS BATISTA
-
MEMBROS DA BANCA :
-
ELISA YUMI NAKAGAWA
-
EVERTON RANIELLY DE SOUSA CAVALCANTE
-
FLAVIO OQUENDO
-
JAIR CAVALCANTI LEITE
-
THAIS VASCONCELOS BATISTA
-
Data: 20/05/2020
-
-
Mostrar Resumo
-
A Internet das Coisas (Internet of Things – IoT) vem contribuindo para uma nova revolução tecnológica, promovendo expressivo impacto social. A ideia básica de IoT é permitir conectividade, interação e integração de objetos inteligentes endereçáveis de forma única, que colaboram uns com os outros para atingir objetivos comuns. Embora IoT seja um paradigma promissor para a integração de dispositivos e tecnologias de comunicação, é necessário rever os métodos tradicionais de desenvolvimento de software, considerando as particularidades exigidas pelos sistemas de IoT. Dado o papel fundamental da arquitetura de software no desenvolvimento de sistemas intensivos de software, os desafios relacionados ao desenvolvimento de sistemas de IoT devem ser considerados desde o nível arquitetural. Arquiteturas de software permitem que os stakeholders raciocinem sobre as decisões do projeto antes da implementação, definam restrições, analisem atributos de qualidade e sejam melhor orientados em termos de manutenção e evolução do sistema. No contexto de arquitetura de software, os estilos arquiteturais têm um papel primordial uma vez que especificam os elementos arquiteturais comumente utilizados por uma determinada família de sistemas, juntamente com um conjunto de restrições sobre como estes elementos devem ser usados. Portanto, um estilo arquitetural fornece um ponto de partida para uma modelagem coerente da arquitetura de software, permitindo o reuso de elementos e de um conjunto de decisões arquiteturais previamente definidas e validadas, facilitando o processo de modelagem da arquitetura. A literatura dispõe de muita informação sobre IoT e estilos arquiteturais, porém existe uma lacuna na integração dos mesmos. As vantagens proporcionadas pelo uso de estilos arquiteturais podem beneficiar a especificação arquitetural de sistemas de IoT, porém, até o momento, não há na literatura um estilo arquitetural específico para esse tipo de sistema. No contexto de arquitetura de software para sistemas de IoT, a norma ISO/IEC 30141 propõe um modelo de referência e uma arquitetura de referência para sistemas de IoT, e representa um consenso internacional sobre arquitetura de software para IoT. Porém, tal norma não define um estilo arquitetural. Visando preencher essa lacuna, o principal objetivo deste trabalho é propor um estilo arquitetural que ofereça diretrizes para a modelagem da arquitetura de software de sistemas de IoT, em conformidade com a norma ISO/IEC 30141. A especificação do estilo é realizada usando a linguagem SysADL, uma Linguagem de Descrição Arquitetural (ADL) voltada para a modelagem de sistemas intensivos de software. Esse trabalho também apresenta avaliações do estilo proposto, realizadas através de: (i) uma avaliação de expressividade do estilo utilizando o framework proposto por PATIG (2004), (ii) uma avaliação de usabilidade do estilo, utilizando o framework Cognitive Dimensions of Notation (CDN) (BLACKWELL; GREEN, 2003) e (iii) uma avaliação experimental por meio de dois experimentos controlados para avaliar os efeitos proporcionados pelo uso do estilo.
-
Mostrar Abstract
-
The Internet of Things (IoT) has been contributing to a new technological revolution, promoting a significant social impact. The basic idea of IoT is to enable connectivity, interaction, and integration of uniquely addressable intelligent objects that collaborate with each other to achieve common goals. Although IoT is a promising paradigm for the integration of communication devices and technologies, it is necessary to review the traditional methods of software development considering the particularities required by IoT systems. Given the fundamental role of software architecture in the development of intensive software systems, the challenges related to the development of IoT systems must be considered since the architectural level. A software architecture allows stakeholders to reason about project decisions prior to implementation, define constraints, analyze quality attributes, and be better oriented in terms of system maintenance and evolution. In the context of software architecture, architectural styles have a key role since they specify the architectural elements commonly used by a particular class of systems, along with a set of constraints on how these elements are to be used. Therefore, an architectural style provides a starting point for a coherent modeling of the software architecture, allowing the reuse of elements and a set of previously defined and validated architectural decisions, thus facilitating the architecture modeling process. The literature has much information about IoT and architectural styles, but there is a gap in their integration. The advantages offered by the use of architectural styles can benefit the architectural specification of IoT systems, but there is still no specific architectural style for this type of system in the literature. In the context of software architecture for IoT systems, the ISO/IEC 30141 standard proposes a reference model and a reference architecture for IoT systems, and represents an international consensus on software architecture for IoT. However, such a standard does not define an architectural style. Aiming to fill this gap, the main goal of this work is proposing an architectural style that offers guidelines for modeling the software architecture of IoT systems, in accordance with the ISO/IEC 30141 standard. The style is specified using the SysADL language, an Architectural Description Language (ADL) focused on the modeling of intensive software systems. This work also presents evaluations of the proposed style, performed through: (i) an evaluation of expressiveness of the style using the framework proposed by PATIG (2004), (ii) a usability evaluation of the style using the Cognitive Dimensions of Notation (CDN) framework (BLACKWELL; GREEN, 2003) and (iii) an experimental evaluation using two controlled experiments to evaluate the effects provided by the use of style.
|
|
6
|
-
GUSTAVO DE ARAUJO SABRY
-
Problema do Caixeiro Viajante Alugador com Passageiros
-
Orientador : MARCO CESAR GOLDBARG
-
MEMBROS DA BANCA :
-
ELIZABETH FERREIRA GOUVEA GOLDBARG
-
MARCO CESAR GOLDBARG
-
MATHEUS DA SILVA MENEZES
-
PAULO HENRIQUE ASCONAVIETA DA SILVA
-
THATIANA CUNHA NAVARRO DE SOUZA
-
Data: 12/06/2020
-
-
Mostrar Resumo
-
Este trabalho apresenta uma nova variante do Problema do Caixeiro Alugador ainda não descrita na literatura, denominada de Problema do Caixeiro Viajante Alugador com Passageiros. Neste problema são disponibilizados um conjunto de cidades, um conjunto de veículos e um conjunto de passageiros. O tour de visitas do caixeiro pode ser realizado utilizando diferentes veículos, ou seja, o problema engloba o processo de aluguel/devolução dos carros. No modelo proposto, a variante do Caixeiro Alugador é mesclada com elementos de ridesharing. Ou seja, nas cidades podem haver passageiros interessados em viajar para um determinado destino e dispostos a dividir os custos com o caixeiro enquanto estão embarcados no veículo. O objetivo do problema é determinar, em um grafo, o menor ciclo Hamiltoniano considerando as trocas de veículos e os embarques de passageiros durante o percurso. O problema é composto por várias decisões interligadas: a sequência das cidades visitadas, a ordem dos carros utilizados, as cidades onde os automóveis devem ser alugados/devolvidos, bem como o esquema de embarque dos passageiros. Uma análise geral do problema é descrita para justicar sua complexidade. São propostas duas formulações de programação inteira mista. Estas formulações são linearizadas utilizando duas técnicas diferentes, resultando em quatro modelos lineares. Estes modelos são implementados em dois solvers e validados com base em instâncias do problema que, por sua vez, são baseadas nas instâncias do Caixeiro Alugador. Além disso, também são apresentadas duas heurísticas ingênuas e uma metaheurística para solucionar o problema. Experimentos computacionais comparativos e testes de desempenho são realizados sobre uma amostra de 54 instâncias. Os resultados obtidos são comparados e as conclusões são reportadas.
-
Mostrar Abstract
-
This work presents a new variant of the Traveling Car Renter Problem not yet described in the literature, denominated the Traveling Car Renter with Passengers. This problem provides a set of cities, a set of vehicles and a set of passengers. The salesman's tour can be done using dierent vehicles, i.e., the problem encompasses the process of vehicles' rental and delivery. In the proposed model, the variant of the Traveling Car Renters Problem is merged with Ridesharing aspects. That is, in cities there may be passengers interested in traveling to a certain destination and willing to share costs with the salesman while they are aboard on the vehicle. The objective of the problem is to determine, in a graph, the lowest Hamiltonian cycle considering the vehicles' exchanges and he shipments along the tour. The problem is made up of several interlinked decisions: the sequence of visited cities, the order of used cars, the cities where the cars must be rented and/or delivered and the passengers' boarding schema. A general analysis of the problem is described to justify its complexity. Two formulations of mixed integer programming are proposed. These formulations are linearized using two dierent techniques, resulting in four linear models. These models are implemented in two solvers and validated based on instances of the problem, which in turn are based on instances of the Traveling Car Renter Problem. In addition, two naive heuristics and a metaheuristic to solve the problem. Comparative computational experiments and performance tests are performed on a set of 54 instances. The results obtained are compared and the conclusions are reported.
|
|
7
|
-
HADLEY MAGNO DA COSTA SIQUEIRA
-
Proposta de Arquitetura de Alto Desempenho para Sistemas de Tempo Real
-
Orientador : MARCIO EDUARDO KREUTZ
-
MEMBROS DA BANCA :
-
MARCIO EDUARDO KREUTZ
-
MONICA MAGALHAES PEREIRA
-
GUSTAVO GIRAO BARRETO DA SILVA
-
CESAR ALBENES ZEFERINO
-
IVAN SARAIVA SILVA
-
Data: 31/07/2020
-
-
Mostrar Resumo
-
Precision Timed Machines (PRET) são arquiteturas voltadas para o uso em sistemas embarcados de tempo real e sistemas cyber-físicos. A principal característica dessas arquiteturas é a capacidade de prover previsibilidade e repetibilidade para tarefas de tempo real, facilitando assim o desenvolvimento, análise e teste de sistemas de tempo real. O estado da arte, no momento dessa escrita, consiste em um conjunto de processadores baseados no conceito PRET. Esses processadores tem como uma das principais características o uso de threads em hardware com chaveamento das mesmas a cada ciclo de relógio. Essa estratégia provê um bom desempenho quando há paralelismo a nível de thread, porém induz a um baixo desempenho na falta desse paralelismo. Além disso, o chaveamento das threads a cada ciclo de relógio leva a uma latência alta. Essa latência alta pode inviabilizar a execução de tarefas que requeiram baixa latência. O presente trabalho contribui para o estado da arte de duas formas: a primeira é apresentando uma proposta de um array reconfigurável de grão grosso baseado no conceito PRET. O array proposto é acoplado a um processador PRET, provendo suporte para aceleração de trechos importantes de uma aplicação. O array foi projetado de tal forma que quando acoplado ao processador não faça este perder suas propriedades temporais originais. A segunda contribuição desta tese é a proposta e implementação de uma arquitetura multicore. Cada core é composto por um processador acoplado ao array proposto. Dessa forma, este trabalho procura apresentar uma arquitetura de alto desempenho voltado para sistemas embarcados de tempo real que tenham alta demanda de processamento tais como na aviônica, por exemplo. Resultados mostram que a arquitetura proposta é capaz de prover aceleração de mais de 10 vezes para alguns tipos de aplicação. Em termos de área, resultados de síntese para FPGA mostram que cada core ocupa menos da metade de um processador com execução fora de ordem. Além disso, possui área similar a outros arrays usados em sistemas embarcados low-power.
-
Mostrar Abstract
-
Precision-Timed Machines (PRET) are architectures intended for use in real-time and cyber-physical cyber systems. The main feature of these architectures is that they provide predictability and repeatability for real-time tasks, thus facilitating development, analysis, and testing of these systems. The state of the art, at the time of this writing, consists of processors based on the PRET concept. These processors explore thread-level parallelism by interleaving threads at a fine-grained level, i.e. at each clock cycle. This strategy provides good performance when there is parallelism at the thread level, but induces a low performance in the absence of this parallelism. In addition, the switching of threads to each clock cycle leads to high latency. This high latency can make it impossible performing tasks that require low latency. The present work contributes for the state of the art in two ways: first by presenting a proposal for a reconfigurable coarse-grain reconfigurable array based on the PRET concept. The proposed array is coupled to a PRET processor, providing support for accelerating important parts of an application. The array was designed in such a way that when coupled to the processor do not make the processor lose its original temporal properties. The second contribution of this thesis is the proposal and implementation of a multicore architecture. Each core is composed of a processor coupled to the proposedarray. Thus, this work seeks to present a high-performance architecture facing embedded real-time systems that have a high demand for performance such as avionics, for example. Results show that the proposed architecture is capable of providing acceleration of more than 10 times for some types of applications. In terms of area, synthesis results for FPGA show that each core occupies less than half of a processor running out of order. In addition, it has an area similar to other arrays used in low-power embedded systems.
|
|
8
|
-
JOÃO BATISTA DE SOUZA NETO
-
Mutação de Transformações para Teste de Programas Spark
-
Orientador : MARTIN ALEJANDRO MUSICANTE
-
MEMBROS DA BANCA :
-
ANAMARIA MARTINS MOREIRA
-
GENOVEVA VARGAS-SOLAR
-
GIBEON SOARES DE AQUINO JUNIOR
-
MARTIN ALEJANDRO MUSICANTE
-
PLACIDO ANTONIO DE SOUZA NETO
-
SILVIA REGINA VERGÍLIO
-
UMBERTO SOUZA DA COSTA
-
Data: 31/07/2020
-
-
Mostrar Resumo
-
O crescimento do volume de dados gerado, sua produção contínua e em larga escala e sua heterogeneidade levaram ao desenvolvimento do conceito de Big Data. A coleta, armazenamento e, sobretudo, processamento deste grande volume de dados exigem importantes recursos computacionais e ambientes de execução adaptados. Diferentes sistemas de pro- cessamento paralelo e distribuído são utilizados para o processamento de Big Data. Alguns sistemas adotam um modelo de fluxo de controle, como o sistema Hadoop que aplica o modelo MapReduce, e outros adotam um modelo de fluxo de dados, como o Apache Spark. A confiabilidade de programas de processamento de grandes volumes de dados se torna importante devido à grande quantidade de recursos computacionais necessários para sua execução. Por isso, é importantes testar esses programas antes que eles sejam executados em produção em uma infraestrutura custosa de computação distribuída. O teste de pro- gramas de processamento de Big Data tem ganhado interesse nos últimos anos, mas a área ainda possui poucos trabalhos que abordam o teste funcional desse tipo de programa e em sua maioria abordam apenas o teste de programas MapReduce. Esta tese de doutorado visa reduzir a lacuna existente na área ao propor uma abordagem de teste de mutação para programas que seguem um modelo de fluxo de dados. O teste de mutação é uma técnica de teste que se baseia na simulação de defeitos através de modificações no programa para criar versões defeituosas chamadas mutantes. A geração dos mutantes é realizada por operadores de mutação que são capazes de simular defeitos específicos no programa. Mutantes são utilizados no processo de projeto e avaliação de testes de modo a ter um conjunto de testes capaz de identificar os defeitos simulados pelos mutantes. Para aplicar o processo de teste de mutação em programas de processamento de Big Data, é importante ter conhecimento dos tipos de defeitos que podem ser encontrados nesse contexto para, então, projetar operadores de mutação que possam simulá-los. Com base nisso, realizamos um estudo para caracterizar defeitos e problemas que podem surgir em programas Spark. Esse estudo resultou em duas taxonomias. A primeira taxonomia agrupa e caracteriza problemas não-funcionais que afetam o desempenho de execução de programas Spark. A segunda taxonomia é focada em defeitos funcionais que afetam o comportamento de pro- gramas Spark. Com base na taxonomia de defeitos funcionais, projetamos um conjunto de operadores de mutação para programas que seguem um modelo de fluxo de dados. Esses operadores simulam defeitos no programa através de mudanças no seu fluxo de dados e nas suas operações. Os operadores de mutação foram formalizados com um modelo que propomos para representar programas de processamento de dados baseados em fluxo de dados. Para dar suporte a aplicação dos nossos operadores de mutação, desenvolvemos a ferramenta TRANSMUT-Spark que automatiza as principais etapas do processo de teste de mutação em programas Spark. Realizamos experimentos para avaliar os opera- dores de mutação e ferramenta em termos de custos e efetividade. Os resultados desses experimentos mostraram a viabilidade da aplicação do processo de teste de mutação em programas Spark e sua contribuição no processo de teste com o intuito de desenvolver programas mais confiáveis.
-
Mostrar Abstract
-
The growth in the volume of data generated, its continuous and large-scale production, and its heterogeneity led to the development of the concept of Big Data. The collection, storage and, especially, processing of this large volume of data requires important computational resources and adapted execution environments. Different parallel and distributed processing systems are used for Big Data processing. Some systems adopt a control flow model, such as the Hadoop system that applies the MapReduce model, and others adopt a data flow model, such as the Apache Spark. The reliability of large-scale data processing programs becomes important due to the large amount of computational resources required for their execution. Therefore, it is important to test these programs before running them in production in an expensive distributed computing infrastructure. The testing of Big Data processing programs has gained interest in the last years, but the area still has few works that address the functional testing of this type of program, and most of them only address the testing of MapReduce programs. This thesis aims to reduce the gap in the area by proposing a mutation testing approach for programs that follow a data flow model. Mutation testing is a testing technique that relies on simulating faults by modifying a program to create faulty versions called mutants. The generation of mutants is carried by mutation operators that are able to simulate specific faults in the program. Mutants are used in the test design and evaluation process in order to have a test set capable of identifying the faults simulated by the mutants. In order to apply the mutation testing process to Big Data processing programs, it is important to be aware of the types of faults that can be found in this context to design mutation operators that can simulate them. Based on this, we conducted a study to characterize faults and problems that can appear in Spark programs. This study resulted in two taxonomies. The first taxonomy groups and characterizes non-functional problems that affect the execution performance of Spark programs. The second taxonomy focuses on functional faults that affect the behavior of Spark programs. Based on the functional faults taxonomy, we designed a set of mutation operators for programs that follow a data flow model. These operators simulate faults in the program through changes in its data flow and operations. The mutation operators were formalized with a model we propose to represent data processing programs based on data flow. To support the application of our mutation operators, we developed the tool TRANSMUT-Spark that automates the main steps of the mutation testing process in Spark programs. We conducted experiments to evaluate the mutation operators and tool in terms of costs and effectiveness. The results of these experiments showed the feasibility of applying the mutation testing process in Spark programs and their contribution to the testing process in order to develop more reliable programs.
|
|
9
|
-
BRUNO DE CASTRO HONORATO SILVA
-
O Problema do Caixeiro Viajante com Cota, Múltiplos Passageiros, Transporte Incompleto e Tempo de Coleta
-
Orientador : MARCO CESAR GOLDBARG
-
MEMBROS DA BANCA :
-
ELIZABETH FERREIRA GOUVEA GOLDBARG
-
LUCÍDIO DOS ANJOS FORMIGA CABRAL
-
MARCO CESAR GOLDBARG
-
MATHEUS DA SILVA MENEZES
-
PAULO HENRIQUE ASCONAVIETA DA SILVA
-
SILVIA MARIA DINIZ MONTEIRO MAIA
-
Data: 18/09/2020
-
-
Mostrar Resumo
-
O Problema do Caixeiro Viajante com Cota, Múltiplos Passageiros, Transporte Incompleto e Tempo de Coleta é uma nova versão do Problema do Caixeiro Viajante com Cota em que o vendedor usa um sistema de compartilhamento de viagens flexível para minimizar os custos de viagem enquanto visita alguns vértices para satisfazer uma cota pré-estabelecida. É apresentado um modelo matemático em que se consideram restrições operacionais relacionadas à capacidade do veículo, tempo de viagem, limitações de passageiros e penalidades por viagens que não atendam aos requisitos dos passageiros. Abordagens exatas e heurísticas são propostas para resolução do problema.
-
Mostrar Abstract
-
The Quota Travelling Salesman Problem with Passengers, Incomplete Ride, and Collection Time is a new version of the Quota Travelling Salesman Problem. In this problem, the salesman uses a flexible ridesharing system to minimize travel costs while visiting some vertices to satisfy a pre-established quota. We consider operational constraints regarding vehicle capacity, travel time, passenger limitations, and penalties for rides that do not meet passenger requirements. We present a mathematical formulation, and exact and heuristics approaches to solve this problem.
|
|
10
|
-
SANDINO BARROS JARDIM
-
Auto Dimensionamento Proativo para Elasticidade Assertiva de Funções de Rede Virtuais em Cadeias de Serviço
-
Orientador : AUGUSTO JOSE VENANCIO NETO
-
MEMBROS DA BANCA :
-
AUGUSTO JOSE VENANCIO NETO
-
ANNE MAGALY DE PAULA CANUTO
-
BENJAMIN RENE CALLEJAS BEDREGAL
-
HAROLD IVAN ANGULO BUSTOS
-
MARÍLIA PASCOAL CURADO
-
Data: 23/10/2020
-
-
Mostrar Resumo
-
A virtualização de funções de rede é uma tecnologia que propõe desacoplar funções de rede tradicionalmente alocadas sobre hardware especializado e disponibilizá-las como elementos de software com premissa de execução sobre servidores de propósito geral. Tal flexibilização permite a oferta de serviços de rede alocados sobre infraestruturas de nuvem e facilita o estabelecimento de políticas de rede a partir do encadeamento de diferentes funções pelo qual um determinado tráfego deva atravessar para seu cumprimento. A variação da demanda pelos serviços hospedados vai exigir da gestão de recursos o atributo de elasticidade para lidar com objetivos de desempenho, ajustando os recursos computacionais das funções para lidar com aumento de demanda, e custos de operação, evitando provisionamento além da necessidade. Tradicionalmente, a elasticidade é oferecida por abordagens reativas baseadas em limiares, mas apresentam a tendência de aumentarem exponencialmente seu tempo de resposta conforme os recursos se esgotam. Trabalhos recentes têm sugerido abordagens proativas, combinando métodos de aprendizagem de máquina que permitem antecipar as decisões e adequar o máximo possível os recursos à demanda. Tal adequação é crucial para o sucesso de uma solução de elasticidade proativa, viabilizando decisões assertivas de dimensionamento que respondam com agilidade e precisão às variações de demanda e que contribuam para o equilíbrio dos objetivos de custo e desempenho. Esta tese de doutorado apresenta o ARENA, um mecanismo de elasticidade proativa para auto dimensionamento de funções virtualizadas de rede encadeadas auxiliado por predição de demanda baseada em aprendizagem de máquina para maximização da assertividade das decisões de dimensionamento horizontal e vertical.
-
Mostrar Abstract
-
The virtualization of network functions is a technology that proposes to decouple network functions, traditionally allocated on specialized hardware, so that making them available as software elements executing at general-purpose servers premises. Such flexibility allows offering network services running over cloud infrastructures and facilitates enforcing network policies based on the chaining of different functions, through which a targeting traffic must be subjected. The variation in services demand will require the resource management attribute of elasticity to tackle performance goals, adjusting the computational resources of the functions to suit both the new projected demand and operating costs so as to avoid provisioning beyond the need. Traditionally, reactive threshold-based approaches afford elasticity function, to the cost of exponentially increasing response times as resources run out. Recent work suggest proactive elasticity approaches harnessing the combination of machine learning methods that allow anticipating decisions and adapting resources to the projected demand, as much as possible. Such adequacy is crucial for the success of a proactive elasticity solution, in the perspective to enable assertive scaling decisions to respond with agility and precision to variations in demand, as well as to contribute with the balance of cost and performance objectives. This doctoral thesis presents ARENA, a proactive elasticity mechanism for autoscaling virtualized network functions driven by demand prediction based on machine learning to maximize the assertiveness of horizontal and vertical dimensioning decisions.
|
|
11
|
-
LEANDRO DE ALMEIDA MELO
-
Vai além do desafio! Compreendendo as motivações para participar e colaborar em game jams
-
Orientador : FERNANDO MARQUES FIGUEIRA FILHO
-
MEMBROS DA BANCA :
-
FERNANDO MARQUES FIGUEIRA FILHO
-
EDUARDO HENRIQUE DA SILVA ARANHA
-
UIRA KULESZA
-
CLEIDSON RONALD BOTELHO DE SOUZA
-
KIEV SANTOS DA GAMA
-
Data: 26/10/2020
-
-
Mostrar Resumo
-
Contexto: Os game jams têm atraído um público cada vez mais diversificado, com milhares de profissionais, estudantes e entusiastas se reunindo para construir protótipos de jogos todos os anos. No entanto, pouco se sabe sobre o que atrai pessoas com perfis demográficos distintos a participarem voluntariamente desses eventos, ou mesmo sobre como esses participantes colaboram durante o evento. Objetivos: Neste sentido, esta tese tem como objetivo investigar por que essas pessoas participaram voluntariamente desses eventos, ou seja, quais são as suas motivações e prioridades para a participação nesses eventos. Além disto, busca-se também verificar como as motivações e os perfis demográficos dos participantes estão relacionadas à forma pela qual eles buscam e oferecem ajuda durante o evento. Método: Um estudo multimétodo, com técnicas de análise quantitativas e qualitativas, foi conduzido para entender esses aspectos. Neste processo, foram coletados dados de mais de 3500 pessoas, de mais de 100 países, as quais participaram de três edições de um game jam anual e de escala global. Resultados: Dentre os resultados, esta tese apresenta um instrumento e um modelo conceitual de motivação que emergiram da análise dos dados, sendo este último é composto por cinco dimensões motivacionais. A partir disto, foi possível de investigar a influência relativa que o perfil de atuação dos participantes exerce sobre as motivações dos participantes. Identificou-se, por exemplo, que os estudantes e hobistas são os mais influenciados por motivações técnicas, ou seja, motivações relacionadas à prática e aquisição de conhecimentos técnicos. Já os desenvolvedores indie possui uma atração maior por conexões de negócios que os demais grupos. A motivação pessoal relacionada a ideação é a grande motivação de todos os grupos, sem diferença significativa entre eles nas médias dessa motivação. Ademais, descobriu-se também que os desenvolvedores profissionais e indie são os que fornecem ajuda com mais frequência, enquanto os estudantes formam o grupo com mais intensidade de interação com os mentores. No entanto, a frequência com que os participantes recebem ajuda dos mentores diminui com o aumento da experiência no desenvolvimento de jogos e participação prévia em game jams. Conclusão: Com base nesses resultados é disponibilizado um conjunto de implicações organizacionais para auxiliar organizadores a tornarem os eventos mais atrativos e identificar práticas que podem tornar a colaboração ainda mais presente e efetiva nestes eventos. Por fim, também são discutidas implicações ao design que podem derivar-se dos resultados desta tese
-
Mostrar Abstract
-
Game jams have been attracting an increasingly diverse attendance, with thousands of professionals, students and enthusiasts coming together to build prototypes of games every year. However, little is known about what attracts people with such different demographic profiles to voluntarily participate in such events. The same can be said about the way participants collaborate during the event. Objectives: In this sense, this dissertation aims to investigate the reason why people willingly take part in such events, i.e., what acts as their motivations and priorities for participating in game jams. In addition, this work is also intended to verify how the motivations and demographic profiles of the participants are related to the way in which they seek and offer help throughout the event. Method: A multi-method study, using quantitative and qualitative analysis techniques, was conducted to understand the mentioned aspects. In this process, data was collected from more than 3,500 people, across more than 100 countries, who had participated in three editions of an annual and global-scale game jam. Results: Among the results, this dissertation presents an instrument and a conceptual model of motivation which resulted from the data analysis, the latter being composed of five motivational dimensions. Based on these aspects, it was possible to investigate the relative influence that the participants' occupation profile has on the participants' motivations. It was possible to identify, for instance, that students and hobbyists are the most influenced by technical motivations, i.e., motivations related to the practice and acquisition of technical knowledge. Indie developers are more attracted to business connections than other groups. Personal motivation related to ideation is the great motivation of all groups, with no significant difference between them in the averages of this specific motivation. Furthermore, it was found that professional and indie developers are the ones who provide help most often, while students constitute the group with the highest degree of intensity in interacting with mentors. However, the frequency with which participants receive help from mentors decreases with increasing experience in game development and the number of prior participations in game jams. Conclusion: Based on such results, a set of organizational implications is available to assist organizers in holding more attractive events and identifying practices that can make collaboration even more present and effective in such events. Finally, implications for design that can be derived from the results of this dissertation are also discussed.
|
|
12
|
-
CÍCERO ALVES DA SILVA
-
Uma Arquitetura de Software Baseada em Computação em Névoa para Gestão dos Registros Médicos Centrada no Paciente
-
Orientador : GIBEON SOARES DE AQUINO JUNIOR
-
MEMBROS DA BANCA :
-
GIBEON SOARES DE AQUINO JUNIOR
-
AUGUSTO JOSE VENANCIO NETO
-
THAIS VASCONCELOS BATISTA
-
ANDRÉ GUSTAVO DUARTE DE ALMEIDA
-
FERNANDO ANTONIO MOTA TRINTA
-
Data: 10/11/2020
-
-
Mostrar Resumo
-
O envelhecimento da população mundial e o crescimento do número de pessoas com do- enças crônicas têm aumentado os gastos com atendimento médico. Desse modo, o uso
de soluções tecnológicas, inclusive as baseadas em Internet das Coisas, vêm sendo am- plamente adotadas na área médica no intuito de melhorar a saúde dos pacientes. Neste
contexto, abordagens baseadas em Computação em Nuvem têm sido adotadas para re- alizar o armazenamento e processamento das informações geradas nessas soluções. No
entanto, o uso de Nuvem pode gerar atrasos intoleráveis para aplicações médicas. Assim, o paradigma de Computação em Névoa surgiu como uma alternativa para contornar esse
problema, provendo computação e armazenamento mais próximo das fontes de dados. En- tretanto, a gestão dos dados médicos armazenados na Névoa ainda é um desao. Além do
mais, características de privacidade, condencialidade e interoperabilidade precisam ser
consideradas em abordagens que tenham o objetivo de explorar esta problemática. As- sim, este trabalho dene uma arquitetura de software, baseada em Computação em Névoa,
projetada para prover o gerenciamento dos registros médicos centrado no paciente. Esta arquitetura utiliza a tecnologia Blockchain para prover as características de privacidade necessárias. Nesta tese também descreve-se um estudo de caso que analisou os requisitos de privacidade, condencialidade e interoperabilidade em um cenário de Home Care. Por m, o comportamento do desempenho relacionado ao acesso aos dados gerenciadas na arquitetura proposta foi analisado no cenário mencionado.
-
Mostrar Abstract
-
The aging of the world's population and the growth in the number of people with ch- ronic diseases have increased expenses with medical care. Thus, the use of technological
solutions, including Internet of Things-based solutions, has been widely adopted in the medical eld to improve the patients' health. In this context, approaches based on Cloud
Computing have been used to store and process the information generated in these soluti- ons. However, using Cloud can create delays that are intolerable for medical applications.
Thus, the Fog Computing paradigm emerged as an alternative to overcome this problem, bringing computation and storage closer to the data sources. However, managing medical data stored in Fog is still a challenge. Moreover, characteristics of privacy, condentiality, and interoperability need to be considered in approaches that aim to explore this problem. So, this work denes a Fog Computing-based software architecture designed to provide
patient-centered management of medical records. This architecture uses Blockchain tech- nology to provide the necessary privacy features. This thesis also describes a case study
that analyzed the requirements of privacy, condentiality, and interoperability in a Home Care scenario. Finally, the performance behavior related to access to data managed in the proposed architecture was analyzed in the mentioned scenario.
|
|
13
|
-
BARTIRA PARAGUACU FALCAO DANTAS ROCHA
-
Um Modelo Semântico de Dados para Cidades Inteligentes
-
Orientador : THAIS VASCONCELOS BATISTA
-
MEMBROS DA BANCA :
-
THAIS VASCONCELOS BATISTA
-
EVERTON RANIELLY DE SOUSA CAVALCANTE
-
MARCIA JACYNTHA NUNES RODRIGUES LUCENA
-
FREDERICO ARAUJO DA SILVA LOPES
-
BERNADETTE FARIAS LÓSCIO
-
ROSSANA MARIA DE CASTRO ANDRADE
-
Data: 27/11/2020
-
-
Mostrar Resumo
-
Cidades inteligentes envolvem uma miríade de sistemas interconectados, destinados a promover uma melhor gestão dos recursos urbanos e naturais das cidades, contribuindo assim para a melhoria da qualidade de vida dos cidadãos. A heterogeneidade de domínios, sistemas, dados e relacionamentos entre eles requer a definição de um modelo de dados capaz de expressar informações de maneira flexível e extensível, além de promover a interoperabilidade entre sistemas e aplicativos. Além disso, os sistemas de cidades inteligentes podem se beneficiar de informações georreferenciadas para permitir ações mais efetivas no espaço urbano do mundo real. Com o objetivo de enfrentar os desafios relacionados à heterogeneidade dos dados, considerando a informação georreferenciada sobre o território, este trabalho apresenta o LGeoSIM, um modelo de informação semântico para cidades inteligentes como meio de promover a interoperabilidade e possibilitar raciocínio automatizado sobre informações. O LGeoSIM é fundamentado em tecnologias da Web Semântica, em especial ontologias, RDF e Linked Data, que possibilitam a definição de informações semânticas vinculadas, com como consultas sobre tais informações. Sua especificação foi implementada, com suporte da especificação do NGSI-LD, na Plataforma Smart Geo Layers (Sgeol), uma plataforma de middleware concebida sobre o FIWARE que visa facilitar a integração dados fornecidos por fontes heterogêneas em um ambiente de cidade inteligente, bem como dar suporte ao desenvolvimento de aplicações.
-
Mostrar Abstract
-
Smart cities involve a myriad of interconnected systems designed to promote better management of urban and natural resources in cities, thus contributing to improving citizens' quality of life. The heterogeneity of domains, systems, data, and relationships between them requires defining a data model that can express information in a flexible and extensible way, and promote interoperability between systems and applications. In addition, smart city systems can benefit from georeferenced information to enable more effective actions in a real-world urban space. In order to address the challenges related to data heterogeneity, considering georeferenced territory information, this paper presents LGeoSIM, a semantic information model for smart cities as a means of promoting interoperability and enabling automated information thinking. LGeoSIM is based on Semantic Web technologies, especially ontologies, RDF and Linked Data, which enable the definition of linked semantic information, and queries about such information. Its specification was implemented, supported by the NGSI-LD specification, on the Smart Geo Layers Platform (Sgeol), a FIWARE-designed middleware platform that aims to facilitate the integration of data provided by heterogeneous sources into a smart city environment, as well as how to support application development.
|
|
14
|
-
VALDIGLEIS DA SILVA COSTA
-
Autômatos Fuzzy Hesitantes Típicos: Teoria e Aplicações
-
Orientador : BENJAMIN RENE CALLEJAS BEDREGAL
-
MEMBROS DA BANCA :
-
BENJAMIN RENE CALLEJAS BEDREGAL
-
REGIVAN HUGO NUNES SANTIAGO
-
ANDERSON PAIVA CRUZ
-
HELIDA SALLES SANTOS
-
RENATA HAX SANDER REISER
-
Data: 08/12/2020
-
-
Mostrar Resumo
-
Os autômatos fuzzy são uma generalização dos autômatos finitos, que são capaz de modelar computações considerando níveis de incerteza. Em anos recentes, devido ao amadurecimento das extensões dos conjuntos fuzzy, começa a emergir na literatura diferentes generalizações de autômatos fuzzy, como autômatos fuzzy intervalares, autômatos fuzzy intuicionistas, e etc. Os autômatos fuzzy além de serem a parte fundamental da teoria da computação fuzzy, também apresentam um relativo sucesso em aplicações práticas, principalmente na área de reconhecimento de padrões, viabilizando a modelagem de incertezas. Neste trabalho é apresentada uma nova generalização dos autômatos fuzzy baseada nas definições de conjuntos fuzzy hesitantes típicos (que são nomeados de autômatos fuzzy hesitantes típicos). A ideia central por trás dessa generalização consiste em trazer para o domínio da computação a possibilidade de trabalhar simultaneamente com incertezas e com hesitação. Assim esta nova generalização tem por objetivo possibilitar novas formas de se enfrentar problemas que antes não eram facilmente modelados, usando apenas incertezas. Além disso, neste trabalho são mostradas formas de se aplicar esses novos autômatos nas áreas de processamento digital de imagens e classificação de dados.
-
Mostrar Abstract
-
As a method of trying to extrapolate the Church’s thesis, using the ideas of the fuzzy sets presented by Zadeh, the fuzzy automaton theory emerges in the late 1960s, as an extension of the finite automata theory, adding the possibility of computing with some level of uncertainty. Over the years, due to the maturation of the extensions of the fuzzy sets, different generalizations of fuzzy automata started to emerge in the literature, such as interval-valued fuzzy automata, intuitionist fuzzy automata, etc. Fuzzy automata, in addition to being the fundamental part of the fuzzy computation theory, also present a relative success in practical applications, mainly in the field of pattern recognition, through uncertainty modeling. This work presents a new generalization of fuzzy automata based on the definitions of typical hesitant fuzzy sets (which we will call typical hesitant fuzzy automata), as well as the motivation for this generalization and for bringing to the domain nof computing the possibility of working with uncertainties and also being able to work with hesitation. Therefore, this new generalization aims to enable new ways to face problems that were not easily modeled before, using only uncertainties. Besides, we will show ways to apply this new type of automata in the fields of digital image processing and data classification.
|
|