|
Dissertações |
|
1
|
-
THIAGO NASCIMENTO DA SILVA
-
A lógica S de Nelson e sua semântica algébrica
-
Orientador : UMBERTO RIVIECCIO
-
MEMBROS DA BANCA :
-
JOAO MARCOS DE ALMEIDA
-
UMBERTO RIVIECCIO
-
HUGO LUIZ MARIANO
-
Data: 25/01/2018
-
-
Mostrar Resumo
-
Além da mais conhecida lógica de Nelson (N3) e da lógica paraconsistente de Nelson
(N4), David Nelson introduziu no artigo de 1959 "Negation and separation of concepts
in constructive systems", com motivações de aritmética e construtividade, a lógica que
ele chamou de "S". Naquele trabalho, a lógica é definida por meio de um cálculo (que
carece crucialmente da regra de contração) tendo infinitos esquemas de regras, e nenhuma
semântica é fornecida.
Neste trabalho nós tomamos o fragmento proposicional de S, mostrando que ele é algebrizável
(de fato, implicativo) no sentido de Blok & Pigozzi com respeito a uma classe de
reticulados residuados involutivos. Assim, fornecemos a primeira semântica para S, bem
como um cálculo estilo Hilbert finito equivalente à apresentação de Nelson. Fornecemos um algoritmo que permite construir S-algebras a partir de S-algebras ou reticulados implicativos e usando essa construção mostramos que as fórmulas que Nelson diz que S não pode provar, de fato não podem ser provadas. Nós também
comparamos S com outras lógicas da família de Nelson, a saber, N3 e N4.
-
Mostrar Abstract
-
Besides the better-known Nelson logic (N3) and paraconsistent Nelson logic (N4), David Nelson introduced, in the 1959 paper "Negation and separation of concepts in constructive systems”, with motivations of arithmetic and constructibility, a logic that he called “S”. In the present study, the logic is defined by means of a calculus (which crucially lacks the contraction rule) having infinitely many rule schemata, and no semantics is provided for it.We look at the propositional fragment of S, showing that it is algebraizable (in fact, implicative) in the sense of Blok & Pigozzi with respect to a class of involutive residuated lattices. We thus provide the first known (algebraic) semantics for S as well as a Hilbert-style calculus equivalent to Nelson’s presentation. We also compare S with the other logics in the Nelson family N3 and N4.
|
|
2
|
-
BRENNER HUMBERTO OJEDA RIOS
-
Hibridização de Meta-Heurísticas com Métodos Baseados em Programação Linear para o Problema do Caixeiro Alugador
-
Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
-
MEMBROS DA BANCA :
-
ELIZABETH FERREIRA GOUVEA GOLDBARG
-
MARCO CESAR GOLDBARG
-
MATHEUS DA SILVA MENEZES
-
SILVIA MARIA DINIZ MONTEIRO MAIA
-
Data: 02/02/2018
-
-
Mostrar Resumo
-
O Problema do Caixeiro Viajante com Aluguel de Carros, ou simplesmente Problema do Caixeiro Alugador (PCA), é uma generalização do clássico Problema do Caixeiro Viajante (PCV) onde seu tour de visitas pode ser decomposto em caminhos contíguos que podem ser percorridos com diferentes carros alugados. O objetivo é determinar o circuito hamiltoniano que resulte em um custo final mínimo, considerando a penalização paga em cada troca de veículos no tour. A penalização é o custo de retornar o carro até a cidade onde foi alugado. O PCA está classificado como um problema NP-difícil. O presente trabalho estuda a variante mais usada na literatura do PCA que é: completo, total, irrestrito, sem repetição, livre e simétrico. O foco da pesquisa são os procedimentos híbridos que combinam meta-heurísticas e métodos baseados na Programação Linear. São hibridizados: algoritmos científicos (ScA), algoritmos evolucionários (EA), busca em vizinhança variável (VND), busca local adaptativa (ALSP) e uma nova variante da ALSP chamada busca local adaptativa iterativa (IALSP). As seguintes técnicas são propostas para lidar com o PCA: ScA+ALSP, EA+IALSP, ScA+IALSP e ScA+VND+IALSP. É proposto um modelo de programação inteira mista para o PCA o qual é usado no ALSP e no IALSP. Testes não paramétricos são usados para comparar os algoritmos em um conjunto de instâncias da literatura.
-
Mostrar Abstract
-
The Traveling Car Renter Salesman Problem, or simply Traveling Car Renter Problem (CaRS), is a generalization of the Traveling Salesman Problem (TSP) where the tour can be decomposed into contiguous paths that are traveled by different rented cars. The objective is to construct a minimal cost Hamiltonian circuit, considering the penalty paid for changing cars in the tour. This penalty is the cost of returning a car to the city where it was rented. CaRS is classified as an NP-hard problem. This work studies the CaRS version classified as: complete, total, unrestricted, with no repetition, free and symmetric. This research is focused on hybrid procedures that combine metaheuristics and methods based on Linear Programming (LP). The following methods were investigated: scientific algorithms (ScA), evolutionary algorithms (EA), variable neighborhood descent (VND), adaptive local search (ASLP) and a new variant of ALSP called iterated adaptive local search (IALSP). The following techniques are proposed to deal with CaRS: ScA+ALSP, EA+IALSP, ScA+IALSP and ScA+VND+IALSP. A mixed integer programming model is proposed for CaRS which was used in the ALSP and IALSP. Non-parametric tests were used to compare the algorithms within a set of instances from the literature.
|
|
3
|
-
DIEGO DE AZEVEDO OLIVEIRA
-
BTestBox: uma ferramenta de teste para implementações B
-
Orientador : DAVID BORIS PAUL DEHARBE
-
MEMBROS DA BANCA :
-
MARCEL VINICIUS MEDEIROS OLIVEIRA
-
DAVID BORIS PAUL DEHARBE
-
VALÉRIO GUTEMBERG DE MEDEIROS JUNIOR
-
Data: 05/02/2018
-
-
Mostrar Resumo
-
Softwares precisam ser seguros e corretos. Partindo desse pressuposto, novas tecnologiase técnicas são desenvolvidas para comprovar as competências de um programa. Essa necessidadede segurança se torna mais relevante ao tratar de softwares que atuam em sistemas críticos,como os sistemas ferroviário e aeroviário. A utilização de métodos formais na construção desoftware busca solucionar o problema. Ao utilizar o método formal B através da plataformaAtelier-B, e após provar os componentes de um projeto é necessária a tradução para a linguagemdesejada. Essa tradução ocorre por meio de tradutores e compiladores B. Habitualmente,o processo de compilação em compiladores maduros é seguro, porém não estão completamentelivres de falhas e eventualmente erros são encontrados. Ao expandir essa afirmação para tradutoresB é necessário cautela, uma vez que esses não são tão comuns e utilizados quantocompiladores que circulam há mais tempo no mercado. Testes de software podem ser utilizadospara realizar a análise da tradução. Através de critérios de cobertura é possível inferir onível de qualidade do software e facilita a detecção de falhas. Realizar a checagem da coberturae testes em software podem exigir bastante esforço e tempo, principalmente ao serem realizadosmanualmente. Para sanar essa demanda, a ferramenta BTestBox visa analisar, de maneiraautomática, a cobertura atingida por implementações B desenvolvidas através do Atelier-B.BTestBox também testa automaticamente as traduções feitas a partir de implementações B.Para isso, BTestBox utiliza os casos de teste gerados para a verificação de cobertura e comparaos valores esperados de saída com os encontrados após a tradução. O processo feito por BTest-Box é todo automático e pode ser utilizado a partir do Atelier-B via instalação de plugin comuma interface simples.Essa proposta de dissertação apresenta a ferramenta BTestBox. A ferramenta é a implementaçãodas ideias propostas no parágrafo anterior. BTestBox foi testado através de pequenasimplementações B com todos os elementos possíveis da linguagem B. BTestBox apresentafuncionalidade e vantagens para programadores que utilizam o método formal B.
-
Mostrar Abstract
-
Software needs to be safe and correct. From that assumption, new technologies and techniquesare developed to prove the competencies of a program. This safety necessity is morerelevant when considering critical systems, such as railways and avionics systems. The useof formal methods in the construction of software tries to solve this problem. When using Bin Atelier-B, after proving the components of a project is necessary to translate to the desiredlanguage. This translation occurs using B translators and compilers. Usually, the process ofcompilation is safe when done by mature compilers, although they are not free of errors andeventually bugs are found. Expanding this affirmation to B translators demands caution, sincethey are not used such as compilers that have more market time. Software testing may solve andbe used to perform the analyses of the translated code. Through coverage criteria is possibleto infer the level of quality of a software and detect bugs. To achieve the coverage check andtest the software is hard and time-consuming, mainly if done manually. To adress this demand,the BTestBox tool aims to analyze, automatically, the coverage reached for B implementationsbuilt through Atelier-B. BTestBox also automatically tests the translation from B implementations.For this, BTestBox uses the same test case generated to verify the coverage and comparethe output expected values with the values found in the translation. This process made byBTestBox is fully automatic and may be used from Atelier-B interface through a plugin witheasy interface.This thesis proposal presents the tool BTestBox. The tool is the implementation of theideas proposed in the previous paragraph. BTestBox was tested with small B implementationswith all possible elements from B language. BTestBox presents various functionalities andadvantages to developers that use the B-Method.
|
|
4
|
-
RENAN DE OLIVEIRA SILVA
-
Uma Proposta de Processo para Implantação de Dados Abertos em Instituições Públicas Brasileiras
-
Orientador : GIBEON SOARES DE AQUINO JUNIOR
-
MEMBROS DA BANCA :
-
FERNANDO MARQUES FIGUEIRA FILHO
-
GIBEON SOARES DE AQUINO JUNIOR
-
VANILSON ANDRÉ DE ARRUDA BURÉGIO
-
Data: 20/02/2018
-
-
Mostrar Resumo
-
A iniciativa de Dados Abertos vem ganhando força nos últimos tempos, com adesão crescente de instituições públicas e governos. Porém, ainda existem vários desafios que precisam ser vencidos quando se decide disponibilizar dados de acordo com esse modelo. Isso afeta negativamente a qualidade e efetividade das publicações. Assim sendo, o objetivo deste trabalho é estabelecer um processo que auxilie instituições públicas brasileiras a disponibilizarem seus dados, sistematizando as fases e tarefas necessárias. Para isso, foi realizado um mapeamento sistemático da literatura, a fim de descobrir estratégias, melhores práticas, desafios e dificuldades que existem na área.
-
Mostrar Abstract
-
Open Data initiative has been gaining strength in recent times, with increasing participation of public institutions. However, there are still many challenges that need to be overcome when deciding to open data. This negatively affects the quality and effectiveness of publications. Therefore, the objective of this work is to establish a process that help brazilian public institutions to open their data, systematizing the necessary tasks and phases. For this, we carried out a systematic mapping of the literature, in order to discover strategies, best practices, challenges and difficulties that exist in the field.
|
|
5
|
-
FRED DE CASTRO SANTOS
-
Um mecanismo para avaliar consultas livres de contexto em bases de dados em grafos inspirado em analisadores LR(1)
-
Orientador : UMBERTO SOUZA DA COSTA
-
MEMBROS DA BANCA :
-
MARCEL VINICIUS MEDEIROS OLIVEIRA
-
MARIZA ANDRADE DA SILVA BIGONHA
-
MARTIN ALEJANDRO MUSICANTE
-
SERGIO QUEIROZ DE MEDEIROS
-
UMBERTO SOUZA DA COSTA
-
Data: 23/02/2018
-
-
Mostrar Resumo
-
A World Wide Web é uma coleção de informações sempre crescente. Esta informação é distribuída entre documentos diferentes, disponibilizados através do Hypertext Transfer Protocol (HTTP). Mesmo que essa informação seja acessível aos usuários na forma de artigos de notícias, transmissões de áudio, imagens e vídeos, os agentes de software geral- mente não podem classificá-la. A falta de informações semânticas sobre esses documentos em um formato legível por máquina muitas vezes faz com que a análise seja imprecisa. Um número significativo de entidades adotaram Linked Data como uma forma de adicionar informações semânticas aos seus dados, e não apenas publicá-lo na Web. O resultado é uma coleção global de dados, chamada Web of Data, que forma um grafo global, composto por declarações no formato Resource Description Framework (RDF) de diversas fontes, cobrindo todos os tipos de tópicos. Para poder encontrar informações específicas nesses dados, as consultas são realizadas começando em um sujeito e analisando seus predicados nas instruções RDF. Dado que um rastro é uma lista de predicados em um caminho de informação, pode-se dizer que existe uma conexão entre um sujeito e um objeto se houver um rastro entre eles nas instruções RDF.
O uso de HTTP como mecanismo padrão de acesso a dados e RDF como modelo de dados padrão simplifica o acesso a dados, o que nos motiva a pesquisar alternativas na forma como esses dados são buscados. Uma vez que a maioria das linguagens de consulta de banco de dados de grafo estão na classe de Linguagens Regulares, nós propomos seguir um caminho diferente e tentar usar uma classe de gramática menos restritiva, chamada Gramática Livre de Contexto Determinística, para aumentar a expressividade das con- sultas no banco de dados em grafo. Mais especificamente, aplicando o método de análise LR(1) para encontrar caminhos em um banco de dados de grafo RDF. Neste documento, apresentamos alguns dos conceitos necessários para uma melhor compreensão dos proble- mas e da forma de resolvê-los. Analisamos alguns trabalhos relacionados à nossa pesquisa e sugerimos uma nova solução, usando conceitos de análise LR(1) para consultar o banco de dados. Por último, analizamos a complexidade do nosso algoritmo e executamos alguns experimentos, comparando nossa solução com as outras propostas, mostrando que a nossa pode ter melhor performance em alguns cenários.
-
Mostrar Abstract
-
The World Wide Web is an always increasing collection of information. This information is spread among different documents, which are made available by using the Hypertext Transfer Protocol (HTTP). Even though this information is accessible to users in the form of news articles, audio broadcasts, images and videos, software agents often cannot classify it. The lack of semantic information about these documents in a machine readable format often causes the analysis to be inaccurate. A significant number of entities have adopted Linked Data as a way to add semantic information to their data, not just publishing it on the Web. The result is a global data collection, called the Web of Data, which forms a global graph, consisting of Resource Description Framework (RDF) statements from numerous sources, covering all sorts of topics. To be able to find specific information in this graph, queries are performed by starting at a subject and analyzing its predicates in the RDF statements. Given that a trace is a list of predicates in an information path, one can tell there is a connection between one subject and one object if there is a trace between them in the RDF statements.
The use of HTTP as a standardized data access mechanism and RDF as a standard data model simplifies the data access, but accessing heterogeneous data on distinct loca- tions can have an increased time complexity and current query languages have a reduced query expressiveness, which motivates us to research alternatives in how this data is queried. This reduced expressiveness happens because most query languages reside in the Regular Languages class. In this work, we introduce some of the concepts needed for better understanding the given problems and how to solve them. We analyze some works related to our research and propose to use Deterministic Context-Free Grammars instead of Regular languages to increase the expressiveness of the graph database queries. More specifically, applying the LR(1) parsing method to find paths in an RDF graph database. Lastly, we analyze our algorithm’s complexity and make some experiments, comparing our solution to other proposals, and show that ours can have better performance in given scenarios.
|
|
6
|
-
CIRO MORAIS MEDEIROS
-
Avaliação Top-Down de Consultas de Caminhos Livres-de-Contexto em Grafos
-
Orientador : MARTIN ALEJANDRO MUSICANTE
-
MEMBROS DA BANCA :
-
MARTIN ALEJANDRO MUSICANTE
-
MARCEL VINICIUS MEDEIROS OLIVEIRA
-
UMBERTO SOUZA DA COSTA
-
SERGIO QUEIROZ DE MEDEIROS
-
MARIZA ANDRADE DA SILVA BIGONHA
-
Data: 23/02/2018
-
-
Mostrar Resumo
-
A internet possibilitou a criação de um imenso espaço de dados global, que pode ser acessado na forma de páginas web. Entretanto, páginas web são ideais para apresentar conteúdo para seres humanos, mas não para serem interpretadas por máquinas. Além disso, se torna difícil relacionar as informações armazenadas nos bancos de dados por trás dessas páginas.Daí surgiu o Linked Data, um conjunto de boas práticas para relacionamento e publicação de dados.
O formato padrão recomendado pelo Linked Data para armazenamento e publicação de dados relacionados é o RDF. Este formato utiliza triplas na forma (sujeito, predicado, objeto) para estabelecer relacionamentos entre os dados. Um banco de dados de triplas pode ser facilmente visualizado como um grafo, de maneira que as consultas são feitas através da definição de caminhos no grafo. SPARQL, a linguagem padrão para consultas em grafos RDF, possibilita a definição de caminhos utilizando expressões regulares. Entretanto, expressões regulares têm expressividade reduzida, insuficiente para algumas consultas desejáveis. Para contornar este problema, alguns trabalhos propuseram a utilização de gramáticas livres-de-contexto para definir os caminhos.
Apresentamos um algoritmo para avaliação de consultas de caminhos livres-de-contexto em grafos inspirado em técnicas de parsing top-down. Dado um grafo e uma consulta definida com base em uma gramática livre-de-contexto, nosso algoritmo identifica pares de vértices ligados por caminhos que formam palavras pertencentes à linguagem gerada pela gramática. Mostramos que nosso algoritmo é correto e demonstramos outras propriedades importantes.O algoritmo apresenta complexidade cúbica de tempo de execução no pior caso em termos do número de vértices no grafo. Implementamos o algoritmo proposto e avaliamos seu desempenho com bancos de dados RDF e com grafos sintéticos para confirmar sua eficiência.
-
Mostrar Abstract
-
The internet has enabled the creation of an immense global data space, that can be accessed in the form of web pages.However, web pages are ideal for presenting content to human beings, but not to be interpreted by machines.In addition, it becomes difficult to relate the information stored in the databases behind these pages.From this came the Linked Data, a set of good practices for relating and publishing data data.
The standard format recommended by Linked Data for storing and publishing related data is RDF.This format uses triples in the form (subject, predicate, object) to stabilish relationships between the data.A triplestore can be easily visualized as a graph, so queries are made by defining paths in the graph.SPARQL, the standard query language for RDF graphs, supports the definition of paths using regular expressions.However, regular expressions have reduced expressiveness, insufficient for some desirable queries.In order to overcome this problem, some studies have proposed the use of context-free grammars to define the paths.
We present an algorithm for evaluating context-free path queries in graphs inspired by top-down parsing techniques.Given a graph and a query defined over a context-free grammar, our algorithm identifies pairs of vertices linked by paths that form words of the language generated by the grammar.We show that our algorithm is correct and demonstrate other important properties of it.It presents cubic worst-case runtime complexity in terms of the number of vertices in the graph.We implemented the proposed algorithm and evaluated its performance with RDF databases and synthetic graphs to confirm its efficiency.
|
|
7
|
-
ANDERSON PABLO NASCIMENTO DA SILVA
-
Uma Plataforma de Monitoramento Inteligente de Arritmia Cardíaca em Fluxo de Tempo Real
-
Orientador : GIBEON SOARES DE AQUINO JUNIOR
-
MEMBROS DA BANCA :
-
FERNANDO ANTONIO MOTA TRINTA
-
GIBEON SOARES DE AQUINO JUNIOR
-
JOAO CARLOS XAVIER JUNIOR
-
THAIS VASCONCELOS BATISTA
-
Data: 27/02/2018
-
-
Mostrar Resumo
-
Na última década tem-se visto um rápido crescimento na capacidade de sistemas de computa
ção para coletar e transportar grandes quantidades de dados. Os cientistas e engenheiros
que coletam esses dados muitas vezes se voltaram para o aprendizado de máquinas, a
m de encontrar soluções para o problema de transformar esses dados em informação. Por
exemplo, em vários dispositivos médicos, como a disponibilidade de sistemas de monitoriza
ção da saúde, caixas de medicamentos com sensores incorporados neles que permitem
coletar os dados brutos, armazenar e analisar, e através da análise pode-se obter insights
e decisões sobre tais conjuntos de dados. Com o uso de aplicações de saúde baseados em
aprendizado de máquina, existe uma oportunidade para melhorar a qualidade e a eciência
dos cuidados médicos e, consequentemente, melhorar o bem-estar dos pacientes. Desta
forma, este trabalho tem como objetivo geral a construção de uma plataforma de monitoramento
inteligente de arritmia cardíaca que possibilite monitorar, identicar e alertar
prossionais da saúde, pacientes e/ou familiares em tempo real sobre a saúde do paciente
hospitalizado. A arquitetura e implementação da plataforma foram baseados na API do
Weka e, como parte deste trabalho, foi implementada uma prova de conceito do uso da
plataforma envolvendo módulos e aplicações desenvolvidos em Java.
-
Mostrar Abstract
-
In the last decade, there has been a rapid growth in the ability of computer systems to collect and carry large amounts of data. Scientists and engineers who collect this data have often turned to machine learning to nd solutions to the problem of turning that data into information. For example, in various medical devices, such as the availability of health monitoring systems, drug boxes with sensors embedded in them that allow you to collect raw data, store and analyze, and through the analysis you can get insights and decisions on such data sets. With the use of health applications based on machine learning, there is an opportunity to improve the quality and efficiency of medical care and, consequently, improve the wellness of patients. Thus, this work has as general objective the construction of an intelligent cardiac arrhythmia monitoring platform that allows monitoring, identifying and alerting health professionals, patients and relatives in real time about the hospitalized patient's health. The architecture and implementation of the platform were based on the Weka API and, as part of this work, a proof of concept of the use of the platform involving modules and applications developed in Java was implemented.
|
|
8
|
-
ALTAIR BRANDÃO MENDES
-
Mandala - Interoperabilidade baseada em Sistemas de Sistemas no âmbito de Cidades Inteligentes
-
Orientador : THAIS VASCONCELOS BATISTA
-
MEMBROS DA BANCA :
-
ELISA YUMI NAKAGAWA
-
FREDERICO ARAUJO DA SILVA LOPES
-
GIBEON SOARES DE AQUINO JUNIOR
-
THAIS VASCONCELOS BATISTA
-
Data: 28/02/2018
-
-
Mostrar Resumo
-
Atualmente, a dependência que as cidades modernas possuem em relação aos sistemas de informação é enorme. Uma parcela significativa desses sistemas, independente de serem gerenciados por entes públicos ou privados, foi desenvolvida utilizando tecnologias e conceitos que hoje já são considerados ultrapassados. Além disso, por não terem sido projetados com o intuito de se comunicarem com outros sistemas de forma interoperável, muitos sistemas existentes nas cidades são soluções isoladas e sem padronização. Por outro lado, o dinamismo exigido pelas empresas, pelo governo e, principalmente, pela população, demanda a união destes sistemas, trabalhando de forma integrada e interoperável. Interoperabilidade é fundamental para o alcance da eficiência e da eficácia do uso de recursos, extremamente necessárias em uma cidade inteligente. Mais que isso, a união entre estes sistemas pode trazer resultados antes inimagináveis, quando comparada aos resultados adquiridos por cada sistema isolado. Tais características remetem ao conceito de Sistema de Sistemas (ou SoS, do termo em inglês System of Systems), que consiste em um conjunto de sistemas complexos independentes e heterogêneos que possuem seus próprios propósitos e colaboram, uns com os outros, para satisfazer objetivos comuns. Em SoS o resultado da interação entre diferentes sistemas é mais que a mera soma dos sistemas envolvidos, uma vez que em um SoS podem emergir novas funcionalidades que não são providas por qualquer um dos sistemas operando isoladamente. O uso da ideia de SoS no contexto de cidades inteligentes, visando promover interoperabilidade entre os sistemas tem sido um aspecto pouco explorado. Nesse contexto, este trabalho propõe o Mandala, um middleware baseado em SoS que possibilita a interoperabilidade entre sistemas de informação no âmbito de cidades inteligentes. O objetivo é tornar transparente a heterogeneidade dos sistemas envolvidos, fornecendo um ambiente de integração e interoperação de sistemas de informação.
-
Mostrar Abstract
-
Currently, the cities depend considerable on information systems. A large part of these systems, regardless of the form of public or private management, was developed using technologies and concepts that are now considered outdated. Moreover, because they were not designed to communicate with other systems in an interoperable way, many of these systems in the cities are isolated and non-standardized solutions. In contrast, the dynamism demanded by companies, government and, mainly, population presupposes the union of these systems, working in an integrated and interoperable way. This interoperability is critical to achieving the efficiency and effectiveness of the use of expected resources in an smart city. Furthermore, the union between these systems can bring previously unimaginable results, when compared to the results acquired by each isolated system. These characteristics refer to the concept of System of Systems, which is a set of complex, independent, heterogeneous systems that have their own purposes and collaborate with others to achieve common goals. The interaction between different systems made possible by a SoS is more than the sum of the systems involved, since it allows a SoS to offer new functionalities that are not provided by any of the systems operating alone. Based on the above mentioned characteristics, this paper proposes Mandala, a SoS-centric middleware that enables interoperability between information systems in smart cities. The goal is to make the heterogeneity of the systems involved transparent, providing an environment of integration and interoperation of information systems.
|
|
9
|
-
FÁBIO PHILLIP ROCHA MARQUES
-
Dos Alfabetos ao Exame de Proficiência: Revisão Sistemática de Aplicativos para Ensino e Revisão da Língua Japonesa
-
Orientador : LEONARDO CUNHA DE MIRANDA
-
MEMBROS DA BANCA :
-
ANDRE MAURICIO CUNHA CAMPOS
-
LEONARDO CUNHA DE MIRANDA
-
MARCIA JACYNTHA NUNES RODRIGUES LUCENA
-
ROMMEL WLADIMIR DE LIMA
-
Data: 28/05/2018
-
-
Mostrar Resumo
-
Japonês é uma língua com escrita, vocabulário, gramática e pronúncia diferentes das línguas ocidentais, pois apresenta três alfabetos (sendo dois silábicos e um logográfico), contém vocabulário, ortografia e fonologia construídos a partir de diferentes nações e possui, ainda, uma gramática com diversas regras e formas que, inclusive, podem diferir de acordo com o grau de formalidade entre o ouvinte e o falante. Estudar japonês exige, portanto, muita dedicação e prática. Para apoiar o estudo da língua, mais de 3.100 aplicativos são disponibilizados em lojas virtuais com a intenção de apoiar os estudantes no ensino e revisão do alfabeto, vocabulário, gramática e compreensão auditiva japonesa, além de preparar para o Japanese Language Proficiency Test (JLPT). No entanto, pouco foi investigado sobre o conteúdo, metodologia de ensino e revisão e características tecnológicas desses aplicativos. Esta pesquisa tem como objetivo revisar sistematicamente aplicativos focados no apoio ao estudo de japonês, baseado em um framework proposto para revisão quantitativa e qualitativa de software para o aprendizado de línguas. Uma análise individual de apps é realizada para cada componente da língua, iniciando pelos alfabetos, prosseguindo para o vocabulário, gramática e compreensão auditiva, de forma a estudar os aplicativos de cada componente da língua japonesa; e finalizando com a análise de aplicativos voltados à preparação para o JLPT, dado que existem aplicativos com conteúdo e apresentação ajustados especificamente para o exame. Descobertas são apresentadas e incluem um detalhamento das principais características de aplicativos do cenário atual, classificação das principais recomendações de aplicativos para as plataformas móveis Android e iOS, comparação entre os aplicativos das plataformas Android e iOS em relação ao apoio oferecido aos estudos e um estudo das características pouco presentes no cenário de aplicativos que são importantes no apoio ao estudo de japonês.
-
Mostrar Abstract
-
Japanese is a language with writing, vocabulary, grammar and pronunciation quite different from western languages, because it contains three alphabets (with two syllabic alphabets and the third one logographic), contains vocabulary, orthography and phonology built upon different nations and even has a grammar with many rules and forms, which may even differ according with the degree of formality between the listener and the speaker. Therefore, studying Japanese requires a lot of dedication and practice. To support the study of the language, more than 3100 applications are available in virtual stores with the intention of supporting students in learning and revising the Japanese alphabet, vocabulary, grammar and listening comprehension, as well as preparing for the Japanese Language Proficiency Test (JLPT). However, little has been investigated about the contents, teaching and reviewing methodology and technological features of these applications. This research aims to systematically review applications focused on supporting Japanese language study, based on a proposed framework for qualitative and quantitative review of language learning software. An individual evaluation is executed for each part of the language, starting with the alphabet, proceeding with vocabulary, grammar and listening comprehension, in order to study the applications of each component of the Japanese language; and finishing with the analysis of applications geared towards JLPT preparation, since there are applications with content and presentation adjusted specifically for the exam. Research findings are presented and include details of the main features of applications in the current scenario, a classification and comparison of the most recommended applications for the Android and iOS mobile platforms, comparison between Android and iOS platform apps in relation to the support provided to the studies and a study of features that do not usually appear in current applications but are very important for helping study Japanese nonetheless.
|
|
10
|
-
ISLAME FELIPE DA COSTA FERNANDES
-
Meta-heurísticas Híbridas Aplicadas ao Problema da Árvore Geradora Multiobjetivo
-
Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
-
MEMBROS DA BANCA :
-
ELIZABETH FERREIRA GOUVEA GOLDBARG
-
MARCO CESAR GOLDBARG
-
SILVIA MARIA DINIZ MONTEIRO MAIA
-
THATIANA CUNHA NAVARRO DE SOUZA
-
Data: 06/07/2018
-
-
Mostrar Resumo
-
O Problema da Árvore Geradora Multiobjetivo (AGMO) é uma extensão NP-Difícil da Árvore Geradora Mínima (AGM). Devido a sua habilidade em modelar inúmeros problemas reais onde objetivos conflitantes devem ser otimizados simultaneamente, a AGMO tem sido intensamente estudada na literatura e muitos algoritmos exatos e heurísticos lhe foram propostos. Além disso, nos últimos anos, pesquisas têm demonstrado considerável desempenho dos algoritmos que combinam estratégias de várias meta-heurísticas. Estes algoritmos são chamados híbridos e trabalhos anteriores os aplicaram com sucesso a vários problemas de otimização. Neste trabalho, cinco novos algoritmos híbridos são propostos para duas versões da AGMO: três para a versão bi-objetivo (AG-Bi) baseada em dominância de Pareto e dois para a versão com muitos objetivos baseada no operador de média ponderada ordenada (AG-OWA). Esta pesquisa hibridizou diversas abordagens meta-heurísticas com respeito a diferentes categorias de hibridização. Experimentos computacionais avaliaram as novas abordagens com base no tempo computacional e na qualidade das soluções encontradas. Os resultados foram comparados com o estado da arte.
-
Mostrar Abstract
-
The Multi-objective Spanning Tree Problem (MSTP) is an NP-hard extension of the Minimum Spanning Tree (MST). Once the MTSP models several real-world problems in which conflicting objectives need to be optimized simultaneously, it has been extensively studied in the literature and several exact and heuristic algorithms were proposed for it. Besides, over the last years, researchs have showed the considerable performance of algorithms that combine various metaheuristic strategies. They are called hybrid algorithms and previous works successfully applied them to several optimization problems. In this work, five new hybrid algorithms are proposed for two versions of the MSTP: three for the bi-objective version (BiST) based on Pareto dominance and two for the many-objective version based on the ordered weighted average operator (OWA-ST). This research hybridized elements from various metaheuristics. Computational experiments investigated the potential of the new algorithms concerning computational time and solution quality. The results were compared to the state-of-the-art.
|
|
11
|
-
JÉSSICA LAÍSA DIAS DA SILVA
-
Game Design de Jogos Digitais de Pensamento Computacional inspirados no Instrumento de Avaliação Bebras Challenge
-
Orientador : EDUARDO HENRIQUE DA SILVA ARANHA
-
MEMBROS DA BANCA :
-
EDUARDO HENRIQUE DA SILVA ARANHA
-
JACQUES DUÍLIO BRANCHER
-
MARCIA JACYNTHA NUNES RODRIGUES LUCENA
-
Data: 25/07/2018
-
-
Mostrar Resumo
-
Diversas competências são exigidas neste século, entre elas, as competências relacionadas à computação. Conforme Blinkstein (2008) afirma que a lista de habilidades exigidas para este século é bem extensa. Contudo, ele enfatiza o pensamento computacional com sendo uma das mais significativas como também a menos compreendida. O Pensamento computacional (PC) pode ser definido como um processo de resolução de problemas que compreende conceitos, habilidades e práticas da Ciência da Computação. Dentre o esforço internacional para disseminar o Pensamento Computacional temos em destaque o Teste Bebras. O principal objetivo do Teste é motivar os alunos do ensino primário e secundário, como também o público em geral a interessarem-se pela computação e o PC. O ensino do Pensamento Computacional é importante se difundido, porém é observado que muito ainda se falta nos jogos digitais para trabalharem as habilidades propostas para o ensino e aprendizagem do PC. Assim o presente trabalho tem o objetivo de Investigar a qualidade do Game Design de jogos educativos criados a partir de questões do Teste Bebras Challenge.
-
Mostrar Abstract
-
Several skills are required in this century, among them, computer-related skills. As Blinkstein (2008) states, the list of skills required for this century is quite extensive. However, he emphasizes computational thinking as being one of the most significant as well as least understood. Computational Thinking (PC) can be defined as a problem-solving process that encompasses concepts, skills, and practices in Computer Science. Among the international effort to disseminate Computational Thinking we have highlighted the Bebras Test. The main goal of the Test is to motivate primary and secondary school students as well as the general public to become interested in computing and the PC. The teaching of Computational Thinking is important if it is widespread, but it is observed that much is still lacking in the digital games to work the proposed skills for the teaching and learning of the PC. Thus the present work aims to investigate the quality of Game Design of educational games created from questions of the Bebras Challenge Test.
|
|
12
|
-
WENDELL OLIVEIRA DE ARAÚJO
-
Geração Procedural de Conteúdo para Criação de Fases de Jogos Educativos
-
Orientador : EDUARDO HENRIQUE DA SILVA ARANHA
-
MEMBROS DA BANCA :
-
EDUARDO HENRIQUE DA SILVA ARANHA
-
JACQUES DUÍLIO BRANCHER
-
MARCIA JACYNTHA NUNES RODRIGUES LUCENA
-
Data: 25/07/2018
-
-
Mostrar Resumo
-
Jogos digitais educativos tem se mostrado uma grande área de pesquisa que vem aumentando com o decorrer dos anos em todo o cenário internacional. Esse fato tem se dado pelo potencial que os jogos têm de diversão, imersão e estímulo à aprendizagem de maneira natural e personalizada. Dessa forma, um dos grandes desafios encontrados nessa área é o da criação de jogos que atendam aos conteúdos propostos para serem ensinados ou praticados. Nesse sentido, a geração procedural de conteúdo tem se apresentado como uma área que pode auxiliar do desenvolvimento de jogos educativos. A geração procedural de conteúdo (PCG) trata da criação automática de conteúdos como texturas, sons, objetos e, no contexto deste trabalho a geração de fases. Assim, a PCG contribui para a criação de novas fases sem que haja a necessidade de intervenção humana. Com isso, a pesquisa busca fazer uso de uma técnica de PCG para a criação de fases de jogos educativos que requeiram do jogador atingir certos objetivos pedagógicos ao longo do jogo. Para isso, propomos uma abordagem de geração em três etapas: (i) geração da estrutura básica da fase (ex.: somente chãos e paredes); (ii) A geração de elementos relacionados aos objetivos pedagógicos da fase; (iii) completar o restante da fase com inimigos e demais elementos de cenário. Deste modo, ela pode ser utilizada para criar diferentes desafios e cenários para que um aluno possa praticar determinado conteúdo, visto que sempre que um desafio é concluído, um novo desafio pode ser gerado para o aluno. Dessa forma, esta abordagem será investigada utilizando a técnica de PCG baseada em gramática. Portanto, buscamos verificar se a técnica em conjunto com a abordagem proposta auxilia na geração dos conteúdos e as cria de maneira eficaz, avaliando sua qualidade e funcionalidades com alunos do ensino fundamental.
-
Mostrar Abstract
-
Educational digital games has been an area of research that has increased with the years throughout the international scene. This fact has been due to the potential that the games have of fun, immersion and stimulation to the learning of natural and personalized way. Thus, one of the great challenges found in this area is the creation of games that meet the contents proposed to be taught or practiced. In this sense, the procedural content generation has emerged as an area that can assist the development of educational games. The procedural content generation (PCG) deals with the automatic creation of contents such as textures, sounds, objects and, in the context of this work, the level’s generation. Thus, PCG contributes to the creation of new levels without the need for human intervention. With this, the research seeks to make use of PCG technique to create levels of educational games that require the player to achieve certain pedagogical goals throughout the game. For this, we propose a generation approach in three stages: (i) generation of the basic structure of the level (ex: only floors and walls); (ii) The generation of elements related to the pedagogical objectives of the level; (iii) complete the remainder of the level with enemies and other scenario elements. In this way, it can be used to create different challenges and scenarios so that a student can practice certain content, since whenever a challenge is completed, a new challenge can be generated for the student. In this way, this approach will be investigated using the grammar-based PCG technique. Therefore, we seek to verify if the technique in conjunction with the proposed approach assists in the generation of contents and creates them effectively, evaluating their quality and functionalities with elementary students.
|
|
13
|
-
RAFAEL FERREIRA TOLEDO
-
Um Mecanimo de Recuperação Baseado em Reescrita para Composições de Serviços Web
-
Orientador : UMBERTO SOUZA DA COSTA
-
MEMBROS DA BANCA :
-
GENOVEVA VARGAS-SOLAR
-
MARTIN ALEJANDRO MUSICANTE
-
UMBERTO SOUZA DA COSTA
-
Data: 26/07/2018
-
-
Mostrar Resumo
-
As composições de serviços da Web são expostas a uma ampla variedade de falhas. Os serviços localizados remotamente podem representar possíveis problemas devido aos meios de conectivi- dade necessários para a comunicação. Além disso, mudanças implementadas por seu respectivo provedor durante as atualizações do sistema também podem ocasionar erros. Esses problemas representam eventos inesperados que comprometem a corretude e disponibilidade de uma de- terminada composição de serviços. Esta dissertação apresenta uma abordagem para melhorar a robustez das composições de serviços Web, recuperando de falhas ocorridas em diferentes momentos de sua execução. Primeiramente, apresentamos uma taxonomia de falhas como uma visão geral de trabalhos anteriores sobre recuperação de falhas em composições de serviços. A classificação resultante é usada para propor nosso método de autocorreção para orquestrações de serviços da Web. O método proposto, baseado no processo de refinamento das composições, leva em consideração as preferências do usuário para gerar as melhores soluções possíveis para a recuperação. Para validar nossa abordagem, produzimos um protótipo de implementação ca- paz de simular e analisar diferentes cenários de falhas. Nesse sentido, nosso trabalho apresenta algoritmos para gerar composições e serviços Web sintéticos. Nesse cenário, tanto o tempo de recuperação quanto a degradação da preferência do usu'ario são investigados após a execução de recuperaçções locais, parciais e totais. Essas estratégias representam diferentes níveis de intervenção na composição.
-
Mostrar Abstract
-
Web service compositions are exposed to a wide variety of failures. The service components re- motely located can represent potential problems due to the means of connectivity necessary for communication or because of changes implemented by their respective provider during system updates. Those problems represent unexpected events that compromise the correctness and availability of a given service composition. This dissertation presents an approach to improve the robustness of Web service compositions by recovering from failures occurred at different moments of their execution. We first present a taxonomy of failures as an overview of previous research works on the topic of fault recovery of service compositions. The resulting classifica- tion is used to propose our self-healing method for Web service orchestrations. The proposed method, based on the refinement process of compositions, takes user preferences into account to generate the best possible recovering compositions. To validate our approach, we produced a prototype implementation capable of simulating and analyzing different scenarios of faults. For that matter, our work introduces algorithms for generating synthetic compositions and Web services. In this setting, both the recovery time and the user preference degradation are investigated under different strategies, namely local, partial or total recovery. These strategies represent different levels of intervention on the composition.
|
|
14
|
-
GABRIEL DE ALMEIDA ARAÚJO
-
Plataforma Interativa de Análise de Velocidade em Dados Sísmicos usando GPUs
-
Orientador : BRUNO MOTTA DE CARVALHO
-
MEMBROS DA BANCA :
-
BRUNO MOTTA DE CARVALHO
-
MONICA MAGALHAES PEREIRA
-
CARLOS CESAR NASCIMENTO DA SILVA
-
ARMANDO LOPES FARIAS
-
Data: 27/07/2018
-
-
Mostrar Resumo
-
Com o avanço da exploração de hidrocarbonetos, a indústria vem buscando continuamente meios de minimizar os riscos exploratórios, onde um desses meios é o aprimoramento das ferramentas utilizadas. Existem três etapas nessa exploração: a aquisição de dados sísmicos, o processamento sísmico e a interpretação sísmica. O presente trabalho se situa no processamento sísmico, mais especificamente em uma de suas etapas, a análise de velocidade sísmica, que tem como objetivo encontrar o campo de velocidade mais fidedigno da subsuperfície da terra através de algoritmos conhecidos de análise. Um dos objetivos desse trabalho é a criação de meios para facilitar essa análise de velocidade, através da implementação desses algoritmos de forma que eles funcionem integrados em uma única plataforma. Outro ponto que o avanço da exploração sísmica trouxe foi o aumento considerável do volume de dados sísmicos adquiridos e das tecnologias utilizadas, que elevaram consideravelmente a necessidade de computadores mais poderosos e também à busca de soluções de alto poder computacional. Com base nessa necessidade, será apresentada uma nova metodologia de análise de dados sísmicos usando GPUs e os resultados obtidos da sua utilização, mostrando sua viabilidade para acelerar algoritmos geofísicos, em especial algoritmos voltados para à análise de velocidade. Ao final serão discutidos os resultados e feita a comparação de desempenho dos algoritmos paralelos e sequenciais.
-
Mostrar Abstract
-
With the advancement of hydrocarbon exploration, the oil industry has been searching for ways to minimize exploratory risks, with one of these ways being the improvement of the used tools. There are three steps in this exploration: the seismic data acquisition, the seismic processing and seismic interpretation. This work is part of the seismic processing, more specifically of one of its stages, the seismic velocity analysis, which aims to find the seismic velocity field that offers reliable earth subsurface models through known algorithms of velocity analysis. One of the objectives of this work is the creation of tools to facilitate this velocity analysis by implementing these algorithms so that they work integrated in a single platform of analysis. Another point that this advance brought, was the considerable increase in the volume of seismic data acquired, which led to an increasing need of computer processing power. Given this need, we present a methodology for velocity analysis using GPUs and its results, showing the viability of using it to accelerate Geophysics algorithms, particularly algorithms for velocity analysis. Finally, case studies will be presented, showing the performance results of the algorithms in CPU and GPU versions.
|
|
15
|
-
FÁBIO ANDREWS ROCHA MARQUES
-
Desenvolvimento e Avaliação do Nihongo Kotoba Shiken: Um Exame Computadorizado de Conhecimento da Língua Japonesa
-
Orientador : LEONARDO CUNHA DE MIRANDA
-
MEMBROS DA BANCA :
-
ANDRE MAURICIO CUNHA CAMPOS
-
LEONARDO CUNHA DE MIRANDA
-
MARCIA JACYNTHA NUNES RODRIGUES LUCENA
-
ROMMEL WLADIMIR DE LIMA
-
Data: 27/07/2018
-
-
Mostrar Resumo
-
O estudo de línguas estrangeiras envolve a constante elaboração, aplicação e correção de avaliações de conhecimento. Nesse contexto, o uso de testes computadorizados tem facilitado estas tarefas, porém existem algumas limitações. Através da realização de estudos nas áreas de avaliação de conhecimento em línguas estrangeiras e automatização desta atividade, a presente pesquisa objetiva desenvolver uma forma de automatizar a avaliação de conhecimento na língua japonesa que não necessita de interação em tempo integral com um professor profissional da língua e que não esteja limitada a um conteúdo fixo da língua, i.e. o conteúdo do teste deve ser modificável. Serão apresentadas as etapas de pesquisa sobre o estudo e avaliação de conhecimento da língua japonesa através da tecnologia, concepção da metodologia de avaliação utilizada no exame, fluxo de execução e características do Nihongo Kotoba Shiken, e avaliações com um profissional da língua e algumas turmas de japonês em um contexto real de ensino.
-
Mostrar Abstract
-
The study of foreign languages involves the constant elaboration, application and correction of exams. In this context, the use of computerized tests has facilitated these tasks, but there are some limitations. By conducting studies in the areas of foreign language knowledge assessment and automation of this activity, the present research aims to develop a method to automate knowledge assessment in the Japanese language that does not require full interaction with a professional teacher of the language and which is not limited to a fixed content of the language, i.e. the content of the test must be modifiable. This work will present the research stages about the study and evaluation of Japanese language knowledge through the technology, the design of the evaluation methodology used in the exam, the flow of execution and characteristics of the Nihongo Kotoba Shiken, and assessments with a professional of the language and some Japanese language learning classes.
|
|
16
|
-
GABRIELA OLIVEIRA DA TRINDADE
-
Visualização da Rastreabilidade em Projetos Ágeis através de Dados contidos em Ferramentas de Apoio à Gerência de Projetos
-
Orientador : MARCIA JACYNTHA NUNES RODRIGUES LUCENA
-
MEMBROS DA BANCA :
-
GILBERTO AMADO DE AZEVEDO CYSNEIROS FILHO
-
LYRENE FERNANDES DA SILVA
-
MARCIA JACYNTHA NUNES RODRIGUES LUCENA
-
Data: 27/07/2018
-
-
Mostrar Resumo
-
A rastreabilidade de software, conhecida pelo relacionamento entre quaisquer artefatos da engenharia de software, traz grandes vantagens no processo de desenvolvimento. As informações que ela fornece ajudam em tomadas de decisão diante de uma alteração, melhor entendimento do artefato, reusabilidade, manutenção, previsão de custos e prazos, entre outros. Com ambientes cada vez mais adeptos às metodologias ágeis, com o cliente lado a lado dando feedbacks constantes, a adequação a essas mudanças solicitadas tem sido uma prática comum durante o desenvolvimento de sistemas. E, para que as mudanças sejam feitas de forma segura, informações de rastreabilidade ajudam em decisões, com o objetivo de que a alteração não traga inconsistências, introdução de erros e geração de falhas no sistema.
Algumas ferramentas de gerenciamento de projetos suportam elementos de rastreabilidade. Contudo com diversos dados que podem ser fornecidas com tal prática, fica difícil interpretá-los, principalmente quando são apresentados apenas textualmente. Sabendo que a visualização de informação traz possibilidade de uma análise com grandes volumes de dados de forma rápida e com mais clareza, oferecendo uma tomada de decisão mais segura e, permitindo descobrir informações antes não vistas, é possível verificar na literatura técnicas de visualização de informação de rastreabilidade. No entanto, tais técnicas necessitam de informações além desses dados, precisam considerar os pilares da informação expostos na academia (problemática, o que, quando e quem visualizar) para se ter uma visualização adequada.
Com este intuito, este trabalho realiza entrevistas na indústria para responder aos pilares da informação considerados na proposta de uma visualização. Em seguida, uma análise baseada em Teoria Fundamentada é feita nos dados levantados. Então, no contexto montado de rastreabilidade, perfis definidos, necessidades e problemas descritos e, artefatos gerados em ambientes ágeis, é estudada na bibliografia as visualizações de informação existentes.
Como resultado é realizada uma discussão e sugestão de visualização apropriada para informações de rastreabilidade com base nas sugestões da literatura e dos dados levantados da entrevista. Posteriormente, com Heurísticas criadas, é feita uma avaliação das ferramentas de gerenciamento de projeto que se integram a plataforma de hospedagem e versionamento de dados Github, para averiguar se fornecem a visualização de informação de rastreabilidade notada.
-
Mostrar Abstract
-
Software traceability, known for the relationship between any software engineering artifacts, brings great advantages to the development process. The information it provides helps in decision making in the face of a change, better understanding of the artifact, reusability, maintenance, forecasting of costs and deadlines, among others. With environments increasingly adept at agile methodologies, with client side-by-side giving constant feedbacks, a adequacy to these requested changes has been a common practice during system development. And, in order for changes to be made safely, traceability information helps in making decisions, with a goal in which the change does not bring inconsistencies, introduce errors, and generate system failures.Some project management tools support traceability elements. However, with several data that can be provided with such a practice, it is difficult to interpret them, especially when they are presented only textually. Knowing that the visualization of information brings the possibility of an analysis with large volumes of data in a fast and clear way, offering a safer decision making and, allowing to discover information previously unseen, it is possible to verify in the literature techniques of visualization of information of traceability. However, such techniques require information in addition to these data, need to consider the pillars of information exposed in the academy (problematic, what, when and who to view) to have an adequate visualization.With this purpose, this work performs interviews in the industry to respond to the pillars of information considered in the proposal of a visualization. Then, an analysis based on Grounded Theory is done on the data collected. Then, in the assembled context of traceability, defined profiles, needs and problems described, and artifacts generated in agile environments, the existing information visualizations are studied in the bibliography.As a result, a discussion and suggestion of appropriate visualization for traceability information are made based on the suggestions in the literature and data collected from the interview. Later, with Heuristics created, an evaluation of the project management tools that integrate the platform of hosting and versioning of data Github is made, to see if they provide the noticed visualization of traceability information.
|
|
17
|
-
FRANCISCO GENIVAN SILVA
-
Análise do Comportamento de Estudantes em Videoaulas
-
Orientador : EDUARDO HENRIQUE DA SILVA ARANHA
-
MEMBROS DA BANCA :
-
EDUARDO HENRIQUE DA SILVA ARANHA
-
FERNANDO MARQUES FIGUEIRA FILHO
-
ISABEL DILLMANN NUNES
-
FABIANO AZEVEDO DORÇA
-
Data: 27/07/2018
-
-
Mostrar Resumo
-
A Educação a Distância e o uso de sistemas e-learning contribuem para a grandegeração de dados educacionais. Diante disso, a utilização de banco de dados e oarmazenamento de logs de execução possibilitam que os dados fiquem mais facilmenteacessíveis e propícios para investigação dos processos educacionais. Metodologias de extraçãoautomática de informações úteis a partir de grandes volumes de dados, em especial aMineração de Dados, têm contribuído expressivamente para melhorias no campo daeducação. Entretanto, a maioria dos métodos tradicionais está centrada unicamente nos dadosou em como eles são estruturados, não havendo preocupação maior com o processoeducacional como um todo. Além disso, pouca atenção tem sido dada a dados docomportamento dos estudantes durante o uso de recursos e mídias educacionais. Asvideoaulas têm sido utilizadas como parte significativa de diversos cursos ofertados,demonstrando que a cultura do vídeo está cada vez mais disseminada e que faz parte docotidiano dos estudantes. Diante disso, compreendemos, pois, que analisar o comportamentodos estudantes durante a execução dos vídeos pode contribuir para uma avaliação maisprecisa da qualidade dos assuntos abordados e da forma como foram trabalhados. Destemodo, este trabalho de mestrado se constituiu da realização de estudos conduzidos de modo ainvestigar o modo como estudantes se comportam durante o uso das videoaulas para proporuma abordagem de avaliação deste recurso. A avaliação das videoaulas se dá por meio de umprocesso que envolve extração de informações de arquivos de log e modelagem de açõesatravés da mineração de processos. Os resultados iniciais demonstram que o número devisualizações, o tempo gasto e o tempo de abandono do vídeo são variáveis que possuemgrande capacidade de oferecer informações úteis sobre a aprendizagem dos alunos. Istodemonstra que avaliar o recurso educacional através da análise de suas ações pode contribuirsubstancialmente na área educacional, beneficiando o tratamento de questões como aidentificação de gargalos no processo de aprendizagem e a antecipação de problemas,principalmente na educação a distância. Os resultados obtidos durante os primeiros estudoscom o uso da Mineração de Processos em dados experimentais proporcionaram maior clarezaacerca do comportamento dos alunos durante as videoaulas, dando o direcionamentonecessário para as ações a serem tomadas por professores ou produtores de conteúdo. Emvista disso, o trabalho traz contribuições para a melhoria de aspectos chave das videoaulas apartir de uma abordagem multidisciplinar, ajudando diretamente educadores e gestores apromoverem uma formação educacional mais completa baseada em recursos com melhorqualidade.
-
Mostrar Abstract
-
Distance Education and the use of e-learning systems contribute to the greatgeneration of educational data. Therefore, the use of databases and the storage of executionlogs make the data more easily accessible and suitable for investigation of educationalprocesses. Methodologies for automatic extraction of useful information from large volumesof data, especially data mining, have significantly contributed to improvements in the field ofeducation. However, most traditional methods are focused solely on the data or how they arestructured, with no major concern with the educational process as a whole. In addition, littleattention has been paid to data on student behavior during resource use and educationalmedia. Video lessons have been used as a significant part of several courses offered,demonstrating that the culture of video is increasingly disseminated and is part of students'daily lives. Therefore, we understand that analyzing the behavior of students during theexecution of the videos can contribute to a more accurate evaluation of the quality of thesubjects addressed and the way they were worked. Thus, this master's work consisted ofcarrying out studies conducted in order to investigate the way students behave during the useof video lessons to propose an approach to evaluate this resource. The evaluation of videolessons occurs through a process that involves extracting information from log files andmodeling actions through process mining. The initial results demonstrate that the number ofviews, the time spent and the time of drop out of the video are variables that have greatcapacity to offer useful information about the students' learning. This demonstrates thatevaluating the educational resource through the analysis of its actions can contributesubstantially in the educational area, benefiting the treatment of issues such as theidentification of bottlenecks in the learning process and the anticipation of problems,especially in distance education. The results obtained during the first studies using ProcessMining in experimental data provided greater clarity about students' behavior during videolessons, giving the necessary direction for the actions to be taken by teachers or contentproducers. In view of this, the work brings contributions to the improvement of key aspects ofvideotapes from a multidisciplinary approach, directly helping educators and managers topromote a more complete educational formation based on resources with better quality.
|
|
18
|
-
DANNYLO JOHNATHAN BERNARDINO EGÍDIO
-
Uma proposta de framework para facilitar o desenvolvimento de aplicações baseadas em IoT
-
Orientador : GIBEON SOARES DE AQUINO JUNIOR
-
MEMBROS DA BANCA :
-
GIBEON SOARES DE AQUINO JUNIOR
-
EDUARDO HENRIQUE DA SILVA ARANHA
-
DIEGO RODRIGO CABRAL SILVA
-
KIEV SANTOS DA GAMA
-
Data: 30/07/2018
-
-
Mostrar Resumo
-
Os últimos anos tem sido marcados por um crescente avanço na computação embarcada,
tecnologias de sensoriamento e dispositivos conectados. Tal avanço impactou de maneira
expressiva em paradigmas inovadores, tais como o de Internet das Coisas (IoT) que acredita
que objetos inteligentes capazes de conectarem-se na rede poderão cooperar entre si
para alcançar um objetivo comum. Tal crescimento alavancou iniciativas de fornecedores
em produzir protocolos e padrões de comunicação que viabilizassem essa cooperação, no
entanto, a diversidade considerável de dispositivos, e consequentemente de protocolos que
surgiram, acabaram por dicultar esse processo. Inúmeros desaos foram surgindo, dentre
eles a heterogeneidade e a interoperabilidade. Estes desaos tornaram o processo de
desenvolvimento das aplicações IoT uma tarefa complexa e custosa, pois as capacidades
destes protocolos e padrões voltadas à descoberta dos dispositivos na rede, comunicação
entre eles, entre outras, se tornaram bastante especícas para cada dispositivo, obrigando
o desenvolvedor a criar estratégias de integração complexas para lidar com essa limitação.
Desta forma, este trabalho propõe um framework que buscará simplicar o processo de
desenvolvimento de aplicações IoT através da virtualização de dispositivos, de maneira
que aspectos heterogêneos ligados aos dispositivos serão abstraídos por esta virtualização,
e operações comuns dos protocolos tais como descoberta de dispositivos e comunicação
com estes serão abstraídos através de uma interface comum entre eles, integrando-os e
diminuindo os impactos das características heterogêneas.
-
Mostrar Abstract
-
Recent years have been marked by a growing advance in embedded computing, sensoring
technologies and connected devices. Such an advance has had a signicant and expressive
impact on innovative paradigms such as the Internet of Things (IoT), which believes that
intelligent objects capable of connecting in the network can cooperate among each other
to achieve a common goal. Such growth has leveraged supplier initiatives to produce
protocols and communication standards that would enable such cooperation, however,
the considerable diversity of devices and consequently protocols that have emerged have
made this process dicult, creating numerous challenges, including heterogeneity and
interoperability. These challenges have made the IoT application development process a
complex and costly task, since the capabilities of these protocols and standards aimed at
discovering the devices on the network, communication among them, have become quite
specic for each device, forcing the developer to create complex integration strategies to
deal with this limitation. In this way, this work proposes a textit framework that will seek
to simplify the process of development of IoT applications through device virtualization, so
that heterogeneous aspects connected to devices will be abstracted by this virtualization,
and common operations of protocols such as discovery of devices and communication with
them will be abstracted through a common interface between them, integrating them and
reducing the impacts of the heterogeneous characteristics.
|
|
19
|
-
ERITON DE BARROS FARIAS
-
CATÁLOGO DE RECOMENDAÇÕES PARA AUXILIAR ADOÇÃO OU TRANSFORMAÇÃO ÁGIL
-
Orientador : MARCIA JACYNTHA NUNES RODRIGUES LUCENA
-
MEMBROS DA BANCA :
-
FERNANDO MARQUES FIGUEIRA FILHO
-
MARCIA JACYNTHA NUNES RODRIGUES LUCENA
-
MARILIA ARANHA FREIRE
-
Data: 30/07/2018
-
-
Mostrar Resumo
-
Na academia é cada vez maior a quantidade de estudos sobre métodos ágeis. O desenvolvimento ágil de software exerce um impacto significativamente positivo no desempenho das equipes de desenvolvimento, na qualidade do software e na satisfação do usuário. Assim, dentre outros temas, a Adoção e Transformação Ágil são dois dos temas mais relevantes nos principais eventos sobre o ágil. Muitas equipes que trabalham com desenvolvimento ágil relatam que ainda falta um manual ou documento, onde se possa facilmente encontrar soluções para auxiliar equipes ágeis a realizarem processos de Transformação ou Adoção Ágil. Portanto, este trabalho tem o objetivo de analisar e categorizar informações que possam auxiliar equipes nesses processos. O resultado dessa análise foi organizado em um catálogo denominado de Catálogo de Recomendações para Auxiliar Adoção ou Transformação Ágil.
-
Mostrar Abstract
-
The number of studies on agile methods has increased in the academy. Agile software development has a significant positive impact on the performance of the development teams, software quality and users' satisfaction. Thus, among other topics, Agile Adoption and Transformation are two of the most relevant themes in the main events about agile. Many teams that work with agile development report that they miss a tutorial or document, in which it is possible to find solutions to help agile teams carry out processes of Agile Transformation or Adoption easily. Therefore, this work has the objective of analyzing and categorizing information that can assist teams in these processes. The result of this analysis was organized in a catalog called Recommendations Catalog to Assist Agile Adoption or Transformation.
|
|
20
|
-
VINÍCIUS ARAÚJO PETCH
-
Problema do Passeio Lucrativo com Passageiros e Restrições de Tempo – PPL-RT
-
Orientador : MARCO CESAR GOLDBARG
-
MEMBROS DA BANCA :
-
ELIZABETH FERREIRA GOUVEA GOLDBARG
-
MARCO CESAR GOLDBARG
-
MATHEUS DA SILVA MENEZES
-
SILVIA MARIA DINIZ MONTEIRO MAIA
-
Data: 06/08/2018
-
-
Mostrar Resumo
-
Este trabalho busca modelar e examinar soluções para o Problema do Passeio Lucrativo com Passageiros e Restrições de Tempo. O trabalho propõe um modelo matemático para o problema, algoritmo exato de solução e meta-heurísticas para a aproximação de solução. Para operacionalizar o experimento computacional necessário à presente pesquisa e por se tratar de um modelo não descrito na literatura, foram também criadas instâncias de teste. O trabalho realiza um experimento computacional para avaliar o desempenho da modelagem matemática e delinear a capacidade de aproximação de algoritmos meta-heurísticos para o problema. Por fim, descreve-se o cronograma para a defesa de mestrado e como o problema poderá ser desenvolvido em trabalhos futuros.
-
Mostrar Abstract
-
This paper seeks to model and examine solutions to the Profitable Tour Problem with Passengers and Time Constraints (PTP-TR). The work proposes a mathematical model for the problem, exact solution algorithm and metaheuristics for the solution approximation. In order to operationalize the computational experiment necessary to the present research and because it is a model not described in the literature, test instances were also created. The work performs a computational experiment to evaluate the performance of mathematical modeling and delineate the ability to approximate metaheuristic algorithms for the problem. Finally, it describes the schedule for the masters defense and how the problem can be developed in future works.
|
|
21
|
-
LUCAS MARIANO GALDINO DE ALMEIDA
-
Minerando Exceções Runtime não Documentadas em Bibliotecas Java a partir do GitHub: Um Estudo Exploratório
-
Orientador : ROBERTA DE SOUZA COELHO
-
MEMBROS DA BANCA :
-
ROBERTA DE SOUZA COELHO
-
UIRA KULESZA
-
EIJI ADACHI MEDEIROS BARBOSA
-
MARCELO DE ALMEIDA MAIA
-
Data: 14/08/2018
-
-
Mostrar Resumo
-
Exceções uncaught não são um cenário excepcional nos sistemas atuais. Estima-se que as exceções uncaught representem dois terços dos crashs em sistemas Java. Tais exceções podem ser lançadas por problemas no código da aplicação, no hardware subjacente ou até mesmo por uma API reutilizada. Muito frequentemente, a documentação sobre as exceções sinalizadas pelos métodos da API está ausente ou incompleta. Como conseqüência, o desenvolvedor geralmente descobre essas exceções quando elas ocorrem no ambiente de produção causando crashes. Este trabalho relata um estudo exploratório que extraiu os stack traces inseridas em issues do GitHub para descobrir as interfaces excepcionais não documentadas de APIs. No geral, foram mineradas as issues 2.970 projetos Java hospedados no GitHub, dos quais foram extraídos e aproximadamente 66.118 stack traces. Neste estudo, a interface excepcional de um conjunto de aproximadamente 600 APIs do Maven foram investigadas. Os resultados do estudo de mineração mostram que as informações disponíveis nas stack traces embutidas nas issues podem, de fato, ser usadas para descobrir exceções não documentadas lançadas pelos métodos da API.
-
Mostrar Abstract
-
Uncaught exceptions are not an exceptional scenario in current applications. The uncaught exceptions are estimated to account for two thirds of system crashes. Such exceptions can be thrown on the application itself, by the underlying system or hardware, or even by a reused API. More often than not, the documentation about the runtime exceptions signaled by API methods are absent or incomplete. As a consequence, the developer usually discovers about such exceptions when they happen in production environment - leading to application crashes. This work reports an exploratory study that mined the exception stack traces embedded on GitHub issues to discover the undocumented exception interfaces of API methods. Overall the issues of 2.970 java projects hosted in GitHub were mined and 66.118 stack traces were extracted. Hence, a set of top maven APIs where investigated using this stack traces data set, and undocumented exception interfaces could be discovered. The results of the mining study show that the information embedded on issues can indeed be used to discover undocumented exceptions thrown by API methods.
|
|
22
|
-
JOÃO CARLOS EPIFANIO DA SILVA
-
Investigação do Ensino de Engenharia de Requisitos na Perspectiva da Academia e da Indústria: Foco em Documentação de Requisitos
-
Orientador : MARCIA JACYNTHA NUNES RODRIGUES LUCENA
-
MEMBROS DA BANCA :
-
MARCIA JACYNTHA NUNES RODRIGUES LUCENA
-
LYRENE FERNANDES DA SILVA
-
ISABEL DILLMANN NUNES
-
MARIA LENCASTRE PINHEIRO DE MENEZES E CRUZ
-
Data: 15/08/2018
-
-
Mostrar Resumo
-
Na literatura muitos problemas são apontados referentes ao processo da Engenharia de Requisitos. Pesquisas recentes demonstram que os ambientes de desenvolvimento de software enfrentam muitos desafios que vão desde a elicitação de requisitos até sua validação. Os desafios listados na literatura fazem parte de tópicos ensinados na disciplina de Engenharia de Requisitos oferecidos nos cursos de graduação em ciências da computação e cursos afins. Esses desafios impactam na qualidade do produtos e podem colocar em risco a continuidade de um projeto. Logo, acredita-se que possa existir um déficit no ensino da disciplina que impacta na indústria bem como a falta de paralelismo de ambos contextos. Diante desse cenário, este trabalho elencou metodologias e atividades que mudam o método tradicional de ensino de Engenharia de Requisitos. As atividades têm foco na interpretação de soluções e escrita de requisitos. Para isso foi necessário realizar uma revisão sistemática da literatura a fim de identificar como a disciplina é lecionada bem como um survey destinado a professores e indústria visando identificar as principais sugestões e dificuldades relacionadas com a disciplina de engenharia de requisitos. Verificou-se que os professores enfrentam muitos desafios no ensino e a indústria muitos problemas que podem ser tratados ainda na academia. A partir desses resultados concluiu-se que é necessário contornar os desafios apresentados, o que pode ser feito logo na academia, para que não impactem na indústria. Há também a necessidade de atividades mais práticas e novas abordagens na sala de aula. Na indústria, recomendamos a colaboração com a academia. Desta forma, uma vez identificadas as demandas do setor, a academia pode proporcionar aos futuros profissionais uma formação baseada nas habilidades esperadas.
-
Mostrar Abstract
-
In the literature, many problems are pointed out regarding the process of Requirements Engineering. Recent research shows that software development environments face many challenges ranging from requirement elicitation to validation. The challenges listed in the literature are part of topics within the academy in the lecture of Requirements Engineering. Those challenges impact on product quality and may compromise the continuity of a project. Therefore, we believe that maybe there is a deficit in the teaching of the lecture that impacts on the industry, besides a possible lack of parallelism in both contexts. Concerning that scenario, this work lists methodologies and activities that change the traditional method of teaching related to Requirements Engineering. The activities focus on interpreting solutions and writing requirements. For that, it was necessary to perform a systematic review of the literature in order to identify how the lecture is taught. Besides that, we did a survey directed to professors and industry aiming to identify the state of the lecture and difficulties within the area in the country. It was verified that professors and industry face many challenges. The industry challenges may be a consequence of academy teaching. It is necessary to get to know the challenges before they impact on the job market, which means that they need to be identified already in the academy. From the results that we got, it was concluded that, indeed, it is essential to overcome the challenges presented still in the academy. There is Also a need for more practical activities and new approaches in the classroom. On the other hand, in the industry, we recommend that they collaborate with the academy. In this way, once the industry demands are identified, the academy can provide, for the future professionals, a formation based on expected skills.
|
|
23
|
-
JEFFERSON IGOR DUARTE SILVA
-
Uma Ferramenta baseada em Inteligência Artificial para a Exploração do Espaço de Projeto de Redes em Chip.
-
Orientador : MARCIO EDUARDO KREUTZ
-
MEMBROS DA BANCA :
-
DEBORA DA SILVA MOTTA MATOS
-
MARCIO EDUARDO KREUTZ
-
MONICA MAGALHAES PEREIRA
-
Data: 29/08/2018
-
-
Mostrar Resumo
-
"Com o crescente número de núcleos nos Sistemas em Chip (SoCs), as arquiteturas de barramento apresentaram algumas limitações no tocante a desempenho. Com as aplicações demandando mais largura de banda e menores latências, a tecnologia de barramento não conseguiu suprir as necessidades devido ao grande comprimento dos fios e o crescimento da capacitância. Diante deste cenário, as redes em chip (Networks on Chip, NoC) surgiram como uma forma de superar tais limitações encontradas nas arquiteturas baseadas em barramento. As NoCs são compostas por um conjunto de roteadores e enlaces de comunicação, cada componente tem suas próprias características, logo, explorar todas as possibilidades para cada componente é inviável devido ao amplo espaço de projeto. Portanto, alguns métodos para acelerar esse processo devem ser empregados. Nesse trabalho foi proposto o uso de técnicas de Inteligência Artificial (IA) para otimizar as arquiteturas de redes em chip. Isso foi alcançado devido ao desenvolvimento de uma ferramenta que emprega métodos de IA para explorar o espaço de projeto em termos de predição de latência para diferentes configurações de componentes para NoCs. Foram testados nove classificadores. Para avaliar a ferramenta proposta foram realizados testes com aplicações de audio e video, usando dois padrões de tráfego (Perfeitamente aleatório e Transposto) e quatro diferentes requisitos de comunicação. Os resultados preliminares demonstram uma acurácia de 85% usando árvores de decisão para prever os valores de latência. "
-
Mostrar Abstract
-
With the increasing number of cores in Systems on Chip (SoCs), bus architectures have suffer some limitations regarding performance. As applications demand more bandwidth and lower latencies, busses could not comply with such requirements due to longer wires and increased capacitancies. Facing this scenario, Networks-on-Chip (NoCs) emerged as a way to overcome limitations found in bus-based systems. NoCs are composed of a set routers and communication links. Each component has its own characteristics. Fully ex- ploring all possible NoC characteristics settings is unfeasible due to the huge design space to cover. Therefore, some methods to speed up this process are needed. In this work we propose the usage of Artificial Intelligence techniques to optimize NoC architectures. This is accomplished by developing an AI based tool to explore the design space in terms of latency prediction for different NoC components configuration. Up to now, nine classifiers were evaluated. To evaluate the tool tests were performed on Audio/Video applications with two traffic patterns, Perfect Shuffle and Matrix Transpose, with four different com- munication requirements. The preliminaries results show an accuracy up to 85% using a Decision Tree to predict latency values.
|
|
24
|
-
JHOSEPH KELVIN LOPES DE JESUS
-
Abordagens baseadas em Teoria da Informação para Seleção Automatizada de Atributos
-
Orientador : ANNE MAGALY DE PAULA CANUTO
-
MEMBROS DA BANCA :
-
ANNE MAGALY DE PAULA CANUTO
-
BENJAMIN RENE CALLEJAS BEDREGAL
-
DANIEL SABINO AMORIM DE ARAUJO
-
ANDRÉ CARLOS PONCE DE LEON FERREIRA DE CARVALHO
-
Data: 21/09/2018
-
-
Mostrar Resumo
-
Um dos principais problemas dos algoritmos de aprendizado de máquina é a maldição da dimensionalidade. Com o rápido crescimento de dados complexos em cenários do mundo real, a seleção de atributos se torna uma etapa de pré-processamento obrigatória em qualquer aplicação para reduzir a complexidade dos dados e o tempo computacional. Com base nisso, vários trabalhos foram produzidos para desenvolver métodos eficientes para realizar essa tarefa. A maioria dos métodos de seleção de atributos selecionam os melhores atributos baseado em alguns critérios específicos. Além disso, estudos recentes têm construído com sucesso modelos para selecionar atributos considerando as particularidades dos dados, assumindo que amostras similares devem ser tratadas separadamente. Embora algum avanço tenha sido feito, uma má escolha de um único algoritmo ou critério para avaliar a importância dos atributos, e a escolha arbitrária dos números de atributos feita pelo usuário podem levar a uma análise deficiente. A fim de superar algumas dessas questões, este trabalho apresenta o desenvolvimento de algumas duas vertentes de abordagens de seleção de atributos automatizadas. A primeira são métodos de fusão de múltiplos algoritmos de seleção de atributos, que utilizam estratégias baseadas em ranking e comitês de classificadores para combinar algoritmos de seleção de atributos em termos de dados (Fusão de Dados) e de decisão (Fusão de Decisão), permitindo aos pesquisadores considerar diferentes perspectivas na etapa de seleção de atributos. O segundo método (PF-DFS) traz uma melhoria de um algoritmo de seleção dinâmico (DFS) usando a ideia da otimização multiobjetivo pela fronteira de pareto, que nos permite considerar perspectivas distintas da relevância dos atributos e definir automaticamente o número de atributos para selecionar. As abordagens propostas foram testadas usando mais de 15 bases de dados reais e artificiais e os resultados mostraram que, quando comparado com métodos de seleção individuais, como o próprio DFS original, o desempenho de um dos métodos propostos é notavelmente superior. De fato, os resultados são promissores, uma vez que as abordagens propostas também alcançaram desempenho superiores quando comparados a métodos consagrados da redução de dimensionalidade, e ao usar os conjuntos de dados originais, mostrando que a redução de atributos ruidosos e/ou redundantes pode ter um efeito positivo no desempenho de tarefas de classificação.
-
Mostrar Abstract
-
One of the main problems of machine learning algorithms is the dimensionality problem. With the rapid growth of complex data in real-world scenarios, attribute selection becomes a mandatory pre-processing step in any application to reduce data complexity and computational time. Based on this, several works were produced to develop efficient methods to accomplish this task. Most attribute selection methods select the best attributes based on some specific criteria. In addition, recent studies have successfully constructed models to select attributes considering the particularities of the data, assuming that similar samples should be treated separately. Although some progress has been made, a poor choice of a single algorithm or criterion to assess the importance of attributes, and the arbitrary choice of attribute numbers made by the user can lead to poor analysis. In order to overcome some of these issues, this paper presents the development of some two strands of automated attribute selection approaches. The first are fusion methods of multiple attribute selection algorithms, which use ranking-based strategies and classifier committees to combine attribute selection algorithms in terms of data (Data Fusion) and decision (Fusion Decision) algorithms, allowing researchers to consider different perspectives in the attribute selection step. The second method (PF-DFS) brings an improvement of a dynamic selection algorithm (DFS) using the idea of Pareto frontier multiobjective optimization, which allows us to consider different perspectives of the relevance of the attributes and to automatically define the number of attributes to select . The proposed approaches were tested using more than 15 actual and artificial databases and the results showed that when compared to individual selection methods such as the original DFS itself, the performance of one of the proposed methods is notably higher. In fact, the results are promising since the proposed approaches have also achieved superior performance when compared to established dimensionality reduction methods, and by using the original data sets, showing that the reduction of noisy and / or redundant attributes may have a positive effect on the performance of classification tasks.
|
|
25
|
-
SAMUEL DA SILVA OLIVEIRA
-
Otimização de Topologia Irregular ParaAplicações Tempo Real e Não Tempo Real emMP-SoCs Baseadas em Redes-em-Chip.
-
Orientador : MARCIO EDUARDO KREUTZ
-
MEMBROS DA BANCA :
-
MARCIO EDUARDO KREUTZ
-
MONICA MAGALHAES PEREIRA
-
GUSTAVO GIRAO BARRETO DA SILVA
-
ALISSON VASCONCELOS DE BRITO
-
Data: 07/12/2018
-
-
Mostrar Resumo
-
Com o avanço nas arquiteturas multiprocessadas as redes-em-chip se tornaram uma solução viável na etapa de comunicação das mesmas. Devido existirem vários tipos de arquiteturas de comunicação entre as redes-em-chip, algumas usam topologias regulares, que são mais comuns e fáceis de se projetar. Outras, no entanto preveem alguma irregularidade nos padrões de comunicação, assim utilizam topologias irregulares. Uma boa exploração de espaço de projeto pode levar a configurações mais otimizadas. Este trabalho propõe uma rede com topologia irregular otimizada, onde a comunicação é baseada em tabelas de roteamento e uma ferramenta que busca realizar essa exploração através de um Algoritmo Genético. A rede proposta nesse trabalho apresenta roteadores heterogêneos (que podem ajudar na otimização da rede) e oferece suporte a pacotes tempo real e não tempo real. O objetivo principal desse trabalho consiste na proposta de uma exploração de espaço de projeto que objetiva encontrar redes otimizadas para latência média, uma maior porcentagem de pacotes tempo real entregues dentro do prazo estipulado e um ganho em área, através da diminuição do número de roteadores.
-
Mostrar Abstract
-
With the evolution of multiprocessing architectures, Networks-on-Chip (NoCs) have become a viable solution for the communication subsystem. Since there are many possible architectural implementations, some use regular topologies, which are more common and easier to design. Others however, follow irregularities in the communication pattern, turning into irregular topologies. A good design space exploration can give us the configuration with better performance among all architectural possibilities. This work proposes a network with optimized irregular topology, where the communication is based on routing tables and a tool that seeks to perform this exploration through a Genetic Algorithm. The network proposed in this work presents heterogeneous routers (which can help with network optimization) and supports real-time and non real- time packets. The goal of this work is to find a network (or a set of networks), through the design space exploration, that has the best average latency and the highest percentage of packets that meet their deadlines.
|
|
26
|
-
SAMUEL DE MEDEIROS QUEIROZ
-
Interoperabilidade Intra-Plataforma de Infraestrutura como Serviço: Um Estudo Exploratório com OpenStack
-
Orientador : THAIS VASCONCELOS BATISTA
-
MEMBROS DA BANCA :
-
ANDREY ELÍSIO MONTEIRO BRITO
-
JACQUES PHILIPPE SAUVÉ
-
NELIO ALESSANDRO AZEVEDO CACHO
-
THAIS VASCONCELOS BATISTA
-
Data: 10/12/2018
-
-
Mostrar Resumo
-
O surgimento de novas tecnologias digitais introduziu desafiadores requisitos técnicos e de negócio. A tradicional abordagem de prover infraestrutura computacional para aplicações, com suporte interno para gerenciamento de hardware, não se constitui em uma maneira efetiva, do ponto de vista técnico e econômico, para fornecer alto desempenho, confiabilidade e escalabilidade. Como a maior mudança de paradigma tecnológico na história da humanidade, a computação em nuvem provê diversas alternativas de modelos de implantação e serviço, adequadas a diversos requisitos, como segurança, latência, desempenho computacional, disponibilidade e custo. Portanto, várias empresas distribuem milhares de nuvens em todo o mundo, criando um mercado saudável por meio da concorrência, em que os provedores criam combinações exclusivas de recursos para diferenciar-se dos concorrentes. Conseqüentemente, no lado do consumidor, a escolha de um fornecedor geralmente se traduz em aprisionamento à tal fornecedor, que é uma situação em que as aplicações dependem muito da abordagem do fornecedor de expor recursos, dificultando a alternância entre os fornecedores sempre que for conveniente. Uma revisão preliminar da literatura sugere que o bloqueio de fornecedor, que tem sido amplamente investigado em Infraestrutura como Serviço (IaaS) em ambientes interplataforma, ainda não foi documentado como um problema intra-plataforma. Na indústria, o OpenStack prova que a falta de interoperabilidade é uma preocupação real, mesmo entre suas implementações. Portanto, este estudo propõe documentar a interoperabilidade entre plataformas, como um problema do OpenStack, detalhando suas situações de bloqueio, sua solução técnica, que é um middleware que abstrai as diferenças de implantação e as causas de bloqueio do fornecedor contra a interoperabilidade entre plataformas, como relatado na literatura.
.
-
Mostrar Abstract
-
The emergence of new digital technologies come with challenging technical and business requirements. The traditional approach to provide computational infrastructure to application workloads, which relies on in-house management of hardware, does not present technical and cost-effective attributes to deliver high-performance, reliability and scalability. As the biggest technologic paradigm shift in the history of humanity, cloud computing allows diverse deployment and service model alternatives, suitable to diverse requirements, such as security, latency, computational performance, availability and cost. Therefore, numerous companies distribute thousands of clouds worldwide, creating an equitable market through competition, where players create unique features to differentiate from competitors. Consequently, in the consumer side, picking a vendor tipically translates into vendor lock-in, a situation where the applications heavily depend on the vendor’s approach of exposing features, making it difficult to switch between vendors whenever convenient or to support complex scenarios across multiple distributed heterogeneous clouds, such as federation. An immediate work-around for users is to pick cloud solutions that implement standards or post-facto open source platforms, such as OpenStack, which are assumed to provide native interoperability between installations. In the industry, however, OpenStack proves that the lack of interoperability is a real concern even between its deployments, due the high flexibility and complexity of supported use cases. Therefore, this investigation documents intra-platform interoperability, as in OpenStack, presenting in detail the Python client library created by the community to abstract deployment differences, counting with numerous and significant contributions from the author. Afterwards, an extensive validation of that library is performed across one testing and five production clouds from different vendors worldwide, because despite the fact the library is extensively used by the community, it had never been formally validated. The validation unveiled bugs, functionality and documentation gaps. Since the OpenStack intra-platform interoperability had never been documented in the literature, a systematic literature review followed, allowing a deep comparison of the state of the art of vendor lock-in taxonomy and approaches in opposition to that library, presenting its advantages, disadvantages and recommendations for users. Lastly, the suggestions for future work include support for multiple programming languages and the adoption of the client library as a standard for inter-platform interoperability.
|
|
27
|
-
ALLAN VILAR DE CARVALHO
-
O Problema do Caixeiro Viajante com Múltiplos Passageiros e Quota
-
Orientador : MARCO CESAR GOLDBARG
-
MEMBROS DA BANCA :
-
ELIZABETH FERREIRA GOUVEA GOLDBARG
-
MARCO CESAR GOLDBARG
-
MATHEUS DA SILVA MENEZES
-
SILVIA MARIA DINIZ MONTEIRO MAIA
-
Data: 14/12/2018
-
-
Mostrar Resumo
-
O presente trabalho científico apresenta o Problema do Caixeiro Viajante com Múltiplos Passageiros e Quota, variante do Problema do Caixeiro Viajante com Quota, que consiste na obtenção de uma rota pelo caixeiro o motorista do veículo, que pode compartilhar os assentos do carro com passageiros que solicitam caronas nas localidades de sua rota. Todo passageiro embarcado é obrigado a participar do rateio dos custos dos trechos de rota do caixeiro, que estiver no veículo. Um modelo matemático, um banco de instâncias e um conjunto de métodos de resolução composto por um exato, um heurístico ad hoc e sete metaheurísticos são propostos para o problema. Os resultados do método exato para as instâncias com 10 e 20 localidades são relatados, e análises quantitativas e qualitativas de experimentos computacionais que comparam métodos de resolução entre se são apresentadas.
-
Mostrar Abstract
-
This scientific work presents the Traveling Salesman Problem with Multiple Passengers and Quota, variant of the Traveling Salesman Problem with Quota, which is to generate a route for the salesman the driver of the vehicle, which can share the car seats with passengers who request rides in the localities of your route. Every passenger on board is obliged to participate in the apportionment of the costs of the sections of route of the salesman, who is in the vehicle. A mathematical model, an instance bank and a set of resolution methods composed of an exact one, an ad hoc heuristic and seven metaheuristics are proposed for the problem. The results of the exact method for the instances with 10 and 20 localities are reported, and quantitative and qualitative analyzes of computational experiments comparing methods of resolution between them are presented.
|
|
|
Teses |
|
1
|
-
SAMUEL LINCOLN MAGALHÃES BARROCAS
-
Uma Estratégia para Validar a Geração de Códigos de Circus para Java
-
Orientador : MARCEL VINICIUS MEDEIROS OLIVEIRA
-
MEMBROS DA BANCA :
-
MARCEL VINICIUS MEDEIROS OLIVEIRA
-
MARTIN ALEJANDRO MUSICANTE
-
UMBERTO SOUZA DA COSTA
-
ALEXANDRE CABRAL MOTA
-
BRUNO EMERSON GURGEL GOMES
-
Data: 22/02/2018
-
-
Mostrar Resumo
-
O uso de Geradores Automáticos de Código para Métodos Formais não apenas minimiza esforços na implementação de Sistemas de Software, como também reduz a chance da existência de erros na execução destes Sistemas. Estas ferramentas, no entanto, podem ter faltas em seus códigos-fontes que causam erros na geração dos Sistemas de Software, e então a verificação de tais ferramentas é encorajada. Esta tese de Doutorado visa criar e desenvolver uma estratégia para verificar JCircus, um Gerador Automático de Código de um amplo sub-conjunto de Circus para Java. O interesse em Circus vem do fato de que ele permite a especificação dos aspectos concorrentes e de estado de um Sistema de maneira direta. A estratégia de verificação consiste nos seguintes passos: (1) extensão da Semântica Operacional de Circus existente e prova de que ela é sólida com respeito à Semântica Denotacional existente de Circus na Teoria Unificada de Programação (UTP), que é um framework que permite prova e unificação entre diferentes teorias; (2) desenvolvimento e implementação de uma estratégia que verifica o refinamento do código gerado por JCircus, através de uma toolchain que engloba um Gerador de Sistema de Transições Rotuladas com Predicado (LPTS) para Circus e um Gerador de Modelos que aceita como entrada o LPTS e gera um Oráculo que usa o verificador de modelos Java Pathfinder, que checa o refinamento do código gerado por JCircus. Combinado com técnicas baseadas em cobertura de código, nós visamos aumentar a confiabilidade do código gerado de Circus para Java.
-
Mostrar Abstract
-
The use of Automatic Code Generators for Formal Methods not only minimizes efforts on the implementation of Software Systems, as also reduces the chance of existing errors on the execution of such Systems. These tools, however, can themselves have faults on their source codes that causes errors on the generation of Software Systems, and thus verification of such tools is encouraged. This PhD thesis aims at creating and developing a strategy to verify JCircus, an automatic code generator from a large subset of Circus to Java. The interest in Circus comes from the fact that it allows the specification of concurrent and state-rich aspects of a System in a straightforward manner. The strategy of verification consists on the following steps: (1) extension of the existing operational semantics to Circus and proof that it is sound with respect to the existing denotational semantics of circus in the Unifying Theories of Programming (UTP), a framework that allows proof and unification of different theories; (2) development and implementation of a strategy that refinement-checks the generated code by JCircus, through a toolchain that encompasses a Labelled Predicate Transition System (LPTS) Generator for Circus and a Model Generator that inputs this LPTS and generates an Oracle that uses the Java Pathfinder code model-checker that refinement-checks the generated code by JCircus. Combined with coverage-based testing techniques, we envisage improving the reliability of the Code Generation from Circus to Java.
|
|
2
|
-
ROMERITO CAMPOS DE ANDRADE
-
Roteamento Multicast Multisessão - Modelos e Algoritmos.
-
Orientador : MARCO CESAR GOLDBARG
-
MEMBROS DA BANCA :
-
ELIZABETH FERREIRA GOUVEA GOLDBARG
-
MARCO CESAR GOLDBARG
-
MATHEUS DA SILVA MENEZES
-
PAULO HENRIQUE ASCONAVIETA DA SILVA
-
SILVIA MARIA DINIZ MONTEIRO MAIA
-
Data: 14/05/2018
-
-
Mostrar Resumo
-
A tecnologia multicast tem sido amplamente estudada ao longo dos anos e apresenta-se como uma solução para melhor utilização dos recursos da rede. Várias abordagens já foram avaliadas para o problema considerando desde o uso de uma sessão com apenas uma fonte a um cenário com múltiplas sessões e múltiplas fontes por sessão. Neste trabalho, é feito um estudo dos modelos matemáticos para o problema com múltiplas sessões e múltiplas fontes. Dois modelos matemáticos foram propostos: uma versão multissessão mono-objetivo que visa a otimização da capacidade residual sujeito a um limite de custo e uma versão multiobjetivo com três funções-objetivo. Ambos os modelos levam em conta o cenário multissessão com uma fonte por sessão. Além disso, um estudo algorítmico foi realizado sobre um modelo da literatura que utiliza múltiplas fontes por sessão. Três conjuntos de algoritmos foram propostos. O primeiro conjunto trata do problema mono-objetivo proposto e considera as abordagens Ant Colony Optimization, Genética, GRASP e ILS. O segundo conjunto consiste dos algoritmos propostos para o modelo multiobjetivo. Foram projetados os seguintes algoritmos: NSGA2, ssNSGA2, GDE3, MOEA/D e SMS-EMOA. Além disso, foi projetado um algoritmo transgenético com subpopulações baseadas em operadores de criação de solução direcionados por objetivos do problema. Também foi utilizado o conceito de soluções de elite. No total, 8 versões do algoritmo transgenético foram avaliadas. O terceiro conjunto de algoritmos consiste da heurística MMVD proposta para o modelo da literatura com múltiplas fontes por sessão. Esta heurística é baseada no uso de diagramas de Voronoi. O processo experimental foi realizado com amplo número de instâncias configuradas de modo a avaliar diferentes situações. Os resultados foram comparados utilizando métodos estatísticos não-paramétricos. A análise final indicou que o ILS e o Genético obtiveram resultados muito similares, entretanto o ILS possui melhor tempo de processamento. A versão cross0 do algoritmo transgenético obteve o melhor resultado em praticamente todos os cenários avaliados. A heurística MMVD obteve excelentes resultados sobre algoritmos da literatura.
-
Mostrar Abstract
-
Multicast Technology has been studied over the last two decades and It has shown to be a good approach to save network resources. Many approaches have been considered to solve the multicast routing problem considering only one session and one source to attending session‘s demand, as well, multiple sessions with more than one source per session. In this thesis, the multicast routing problem is explored taking in consideration the modelsand the algorithms designed to solve it when where multiple sessions and sources. Two new models are proposed with different focuses. First, a mono-objective model optimizing residual capacity, Z, of the network subject to a budget is designed and the objective is to maximize Z. Second, a multi-objective model is designed with three objective functions: cost, Z and hops counting. Both models consider multisession scenario with one source per session. Besides, a third model is examined. This model was designed to optimize Z in a scenario with multiple sessions with support to more than one source per session. An experimental analysis was realized over the models considered. For each model, a set of algorithms were designed. First, an Ant Colony Optimization, a Genetic algorithm, a GRASP and an ILS algorithm were designed to solve the mono-objective model – optimizing Z subject to a budget. Second, a set of algorithm were designed to solve the multi-objective model. The classical approaches were used: NSGA2, ssNSGA2, SMS-EMOA, GDE3 and MOEA/D. In addition, a transgenetic algorithm was designed to solve the problem and it was compared against the classical approaches. This algorithm considers the use of subpopulations during the evolution. Each subpopulation is based on a solution construction operator guided by one of the objective functions. Some solutions are considered as elite solutions and they are considered to be improved by a transposon operator. Eight versions of the transgenetic algorithm were evaluated. Third, an algorithm was designed to solve the problem with multiple sessions and multiple sources per sessions. This algorithm is based on Voronoi Diagrams and it is called MMVD. The algorithm designed were evaluated on large experimental analysis. The sample generated by each algorithm on the instances were evaluated based on non-parametric statistical tests. The analysis performed indicates that ILS and Genetic algorithm have outperformed the Ant Colony Optimization and GRASP. The comparison between ILS and Genetic has shown that ILS has better processing time performance. In the multi-objective scenario, the version of Transgenetic called cross0 has shown to be statistically better than the other algorithms in most of the instances based on the hypervolume and addictive/multiplicative epsilon quality indicators. Finally, the MMVD algorithm has shown to be better than the algorithm from literature based on the experimental analysis performed for the model with multiple session and multiple sources per session.
|
|
3
|
-
ANTONIO DIEGO SILVA FARIAS
-
Funções Mistura Generalizada e Aplicações
-
Orientador : REGIVAN HUGO NUNES SANTIAGO
-
MEMBROS DA BANCA :
-
BENJAMIN RENE CALLEJAS BEDREGAL
-
EDUARDO SILVA PALMEIRA
-
REGIVAN HUGO NUNES SANTIAGO
-
RONEI MARCOS DE MORAES
-
SANDRA APARECIDA SANDRI
-
Data: 29/06/2018
-
-
Mostrar Resumo
-
Na literatura é bastante comum encontrar problemas que necessitam de mecanismos eficazes em realizar a tarefa de combinar entradas de uma mesma natureza em um valor do mesmo tipo que as entradas. As funções de agregação são bastante eficientes na realização deste trabalho, podendo ser utilizadas, por exemplo, para modelar os conectivos da lógica fuzzy e também em problemas de tomada de decisão. Uma importante família de agregações, pertencente à classe das funções do tipo média, foi introduzida por Yager, em 1988, que as denominou de funções de “Média Ponderada Ordenada” (Ordered Weighted Averaging - OWA). Essas funções são uma espécie de média ponderada, cujos pesos são estáticos e não são associados as entradas particulares, mas as suas respectivas magnitudes, ou seja, a importância de uma entrada é determinada pela magnitude de seu valor. No entanto, a estabilidade dos pesos de uma OWA traz algumas limitações, uma vez que os pesos, que devem ser previamente escolhidos, podem ser ótimos para algumas entradas e péssimos para outras. Mais recentemente, tem-se verificado que funções não pertencentes à classe das agregações também podem ser bastante eficazes em combinar entradas de um mesmo tipo, como por exemplo, as “Préagregações” (Preaggrega-tions), as funções “Mistura (Mixture) e “Mistura Generalizada” (Generalized Mixture - GM), que não necessitam da Condição de Monotonicidade obrigatória para as funções de agregação. As funções mistura e mistura generalizada também são médias ponderadas, mas diferentemente das OWA de Yager, possuem pesos dinâmicos, o que possibilita um melhor ajuste a cada uma das entradas da função. Este trabalho generaliza as funções “Mistura Generalizada” (Generalized Mixture - GM), dando origem as funções “Mistura Generalizada Limitada” (Bounded Generalized Mixture -BGM) e propõe as “OWA dinâmicas” (Dynamic Ordered Weighted Averaging - DYOWA) defi-nidas sobre reticulados.
-
Mostrar Abstract
-
In the literature it is quite common to find problems that need efficient mechanisms in accomplishing the task of combining entries of the same nature in a value of the same type as the inputs. Theaggregation functions are quite efficient in the accomplishment of this work, being able to be used, for example, to model the connectives of the fuzzy logic and also in problems of decision making. Animportant family of aggregations, belonging to the middle class of functions, was introduced by Yager in 1988, who called them ordered weighted averaging functions (OWA). These functions are a kind ofweighted average, whose weights are not associated with the particular inputs, but their respectivemagnitudes, that is, the importance of an input is determined by their value. More recently, it has been found that non-aggregate class functions may also be able to combine inputs, such as pre-aggregations and mixture functions, which may not satisfy the mandatory monotonicity condition foraggregation functions. Thus, the objective of this work is to present a detailed study on aggregationsand preaggregations, in order to provide a good theoretical basis in an area that has a wide possibilityof applications. We present a detailed study of generalized mixing functions - GM, which extend theYager OWA functions, and propose some ways to generalize the GM functions: limited generalized mixingfunctions and dynamic ordered weighted averaging functions.
|
|
4
|
-
EDMILSON BARBALHO CAMPOS NETO
-
Enhancing the SZZ Algorithm to Deal with Refactoring Changes
-
Orientador : UIRA KULESZA
-
MEMBROS DA BANCA :
-
DANIEL ALENCAR DA COSTA
-
EDUARDO HENRIQUE DA SILVA ARANHA
-
INGRID OLIVEIRA DE NUNES
-
MARCELO DE ALMEIDA MAIA
-
ROBERTA DE SOUZA COELHO
-
UIRA KULESZA
-
Data: 20/07/2018
-
-
Mostrar Resumo
-
SZZ algorithm was proposed by Śliwerski, Zimmermann, and Zeller (hence the SZZ abbreviation) to identify fix-inducing changes. Despite the wide adoption of this algorithm, SZZ still faces limitations, which have been reported by recent researcher work over the last years. No several research work widely surveys how SZZ has been used, extended and evaluated by the software engineering community. Moreover, not much research work has proposed improvements to SZZ. In this context, this thesis has a goal to explore the existing limitations documented in the literature about SZZ, to enhance the state-of-the-art of SZZ proposing solutions to some of these limitations. First, we perform a systematic mapping study to answer what is the state-of-the-art of the SZZ algorithm and to explore how it has been used, its limitations, proposed improvements, and evaluations. Our results in this study show that the vast majority of the analyzed papers use SZZ as a foundation for their empirical studies (79%), while only a few propose direct improvements to SZZ (6%) or evaluate it (4%). We also observe that SZZ has many limitations unaddressed, such as the bias related to refactoring changes, which have not been addressed by any previous SZZ implementation. Second, we conduct an empirical study to investigate the relationship between refactoring changes and SZZ results. We use RefDiff, a tool that has the highest precision reported in the literature to detect code refactorings. We analyze an extensive dataset that included 31,518 issues of ten systems, with 64,855 bug-fix and 20,298 fix-inducing changes. We run RefDiff both in bug-fix and fix-inducing changes generated by a recent SZZ implementation — MA-SZZ. The results indicate a refactoring ratio of 6.5% fix-inducing changes and 19.9% in bug-fix changes. We incorporated RefDiff into MASZZ and proposed a Refactoring-Aware SZZ implementation (RA-SZZ). RA-SZZ reduces 20.8% of the lines that were flagged as fix-inducing changes by MA-SZZ. These results suggest that refactoring really can impact SZZ results. By using an evaluation framework, we found that RA-SZZ reduces of disagreement ratio compared to prior ones, but our results suggest that RA-SZZ still needs to improve its accuracy. Finally, we evaluated the RA-SZZ accuracy using a validated dataset constructed by using a well-accepted dataset. Moreover, we revisited known SZZ limitation to improve its accuracy, e.g., integrating a novel refactoring-detection tool — RMiner. We observe that after refining RA-SZZ, in the median, 44% of lines that are flagged as fix-inducing lines per issue are correct, while only 29% are valid in MA-SZZ-generated results. We also manually analyzed RA-SZZ results and we found that there are still refactorings and equivalent changes to be recognized by SZZ. This result reinforces that detecting refactoring indeed increases the SZZ accuracy. Besides, our thesis results contribute to SZZ maturation by suggesting that refactoring impact in SZZ may be even higher if it addresses new improvements in future work.
-
Mostrar Abstract
-
O algoritmo SZZ foi inicialmente proposto Sliwerski, Zimmermann e Zeller (origem da abreviação SZZ) para identificar as mudanças que introduzem erro no código. Contudo, embora bem aceito pela comunidade acadêmica, muitos pesquisadores têm reportado, ao longo dos anos, limitações associadas ao algoritmo SZZ. Por outro lado, não existe nenhum trabalho que tenha pesquisado profundamente como o SZZ é usado, estendido ou avaliado pela comunidade de engenharia de software. Além disso, poucos trabalhos têm proposto melhorias ao algoritmo SZZ. Nesse contexto, esta tese tem como objetivo revelar as existentes limitações documentadas na literatura sobre o algoritmo SZZ para melhorar o seu estado da arte, propondo soluções para algumas dessas limitações. Primeiramente, nós realizamos um mapeamento sistemático para identificar qual o estado da arte do algoritmo SZZ e explorar como ele tem sido utilizado, suas limitações, melhorias propostas e avaliações. Nós adotamos uma técnica de pesquisa existente conhecida como “snowballing” (em português, bola de neve) para conduzir estudo sistemáticos na literatura. Assim, nós partimos de dois renomados artigos e lemos todas as suas 589 citações e referências, resultando em 190 artigos a serem analisados. Nossos resultados desse estudo mostram que a maioria dos artigos usam o SZZ como base de estudos empíricos (83%), enquanto apenas poucos artigos realmente propõem melhorias diretas ao SZZ (3%) ou o avaliam (7%). Nós também observamos que o SZZ possui muitas limitações não consertadas, tais como o viés relacionado a mudanças semanticamente equivalentes, por exemplo, refatorações, que não foram endereçadas por nenhuma implementação anterior do SZZ. Posteriormente, nós conduzimos um estudo empírico para investigar a relação entre refatorações e os resultados do SZZ. Nós utilizamos para isso o RefDiff, a ferramenta de detecção de refatoração com a maior precisão reportada na literatura. Nós executamos o RefDiff tanto nas mudanças analisadas pelo SZZ como responsáveis pelo conserto dos erros (do inglês, “issue-fix changes”) como nas mudanças identificadas pelo algoritmo como que induziram ao conserto (do inglês, “fix-inducing changes”). Os resultados desse estudo indicam uma taxa de refatoração de 6,5% nas fix-inducing changes e 20% nas issue-fix changes. Além disso, nós identificamos que 39% das fix-inducing changes derivam de issue-fix changes com refatorações, logo tais mudanças não deveriam nem ter sido analisadas pelo SZZ. Esses resultados sugerem que refatorações realmente podem impactar os resultados do SZZ. Por fim, nós pretendemos evoluir este segundo estudo expandindo os tipos de refatorações identificadas, incorporando outras ferramentas de detecção de refatoração ao nosso algoritmo. Além disso, nós planejamos executar um terceiro estudo para avaliar nossa implementação melhorada do SZZ para lidar com mudanças semanticamente equivalente usando um framework de avaliação em um mesmo conjunto de dados anteriormente utilizado na literatura. Nós esperamos que os resultados dessa tese possam contribuir para a maturação do SZZ e, consequentemente, poder aproximá-lo de uma maior aceitação do algoritmo SZZ na prática.
|
|
5
|
-
IGOR ROSBERG DE MEDEIROS SILVA
-
BO-AMHM: Uma Arquitetura Multiagente para Hibridização de Meta-Heurísticas para problemas Biobjetivo
-
Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
-
MEMBROS DA BANCA :
-
ELIZABETH FERREIRA GOUVEA GOLDBARG
-
GIVANALDO ROCHA DE SOUZA
-
MARCO CESAR GOLDBARG
-
MYRIAM REGATTIERI DE BIASE DA SILVA DELGADO
-
SILVIA MARIA DINIZ MONTEIRO MAIA
-
Data: 03/08/2018
-
-
Mostrar Resumo
-
Várias pesquisas têm apontado a hibridização de meta-heurísticas como uma forma eciente de tratar problemas de otimização combinatória. Hibridização permite a combinação de diferentes técnicas, explorando vantagens e compensando desvantagens de cada uma delas. A AMHM é uma arquitetura adaptativa promissora para a hibridização de metaheurísticas, originalmente desenvolvida para problemas mono-objetivo. Essa arquitetura baseia-se nos conceitos de Sistemas Multiagente e Otimização por Nuvem de Partículas. No presente trabalho, nós propomos uma extensão da AMHM para o cenário biobjetivo. A arquitetura proposta é chamada BO-AMHM. Para adaptar a AMHM ao contexto biobjetivo, nós redenimos alguns conceitos tais como posição e velocidade das partículas. Neste estudo a arquitetura proposta é aplicada ao Problema do Caixeiro Viajante Simétrico biobjetivo. Quatro técnicas foram hibridizadas: PAES, GRASP, NSGA2 e Anytime-PLS. Testes com 11 instâncias biobjetivo foram realizados e os resultados mostraram que a BO-AMHM é capaz de prover conjuntos não dominados melhores em comparação aos obtidos por algoritmos existentes na literatura e versões híbridas desses algoritmos desenvolvidas neste trabalho.
-
Mostrar Abstract
-
Several researches have pointed the hybridization of metaheuristics as an eective way to deal with combinatorial optimization problems. Hybridization allows the combination of dierent techniques, exploiting the strengths and compensating the weakness of each of them. MAHM is a promising adaptive framework for hybridization of metaheuristics, originally designed for single objective problems. This framework is based on the concepts of Multiagent Systems and Particle Swarm Optimization. In this study we propose an extension of MAHM to the bi-objective scenario. The proposed framework is called BOMAHM. To adapt MAHM to the bi-objective context, we redene some concepts such as particle position and velocity. In this study the proposed framework is applied to the biobjective Symmetric Travelling Salesman Problem. Four methods are hybridized: PAES, GRASP, NSGA2 and Anytime-PLS. Experiments with 11 bi-objective instances were performed and the results show that BO-MAHM is able to provide better non-dominated sets in comparison to the ones obtained by algorithms existing in literature as well as hybridized versions of those algorithms proposed in this work.
|
|
6
|
-
DENIS FELIPE
-
MOSCA/D: Algoritmos Científicos Multiobjetivo Baseados em Decomposição
-
Orientador : ELIZABETH FERREIRA GOUVEA GOLDBARG
-
MEMBROS DA BANCA :
-
ELIZABETH FERREIRA GOUVEA GOLDBARG
-
MARCO CESAR GOLDBARG
-
SILVIA MARIA DINIZ MONTEIRO MAIA
-
MATHEUS DA SILVA MENEZES
-
MYRIAM REGATTIERI DE BIASE DA SILVA DELGADO
-
Data: 17/08/2018
-
-
Mostrar Resumo
-
Este trabalho apresenta uma versão multiobjetivo dos Algoritmos Científicos baseada emdecomposição (MOSCA/D). Tal abordagem é uma nova meta-heurística inspirada pelosprocessos da pesquisa científica para resolver problemas de otimização multiobjetivo. OMOSCA/D usa o conceito de tema para direcionar o esforço computacional da buscapara regiões promissoras do espaço objetivo, fixando diferentes variáveis de decisão emcada iteração. Um modelo probabilístico baseado na estatística TF-IDF auxilia a escolhade tais variáveis. Experimentos computacionais aplicaram o MOSCA/D a 16 instânciasdo problema da mochila multidimensional multiobjetivo (MOMKP) com até 8 objetivos.Os resultados foram comparados ao NSGA-II, SPEA2, MOEA/D, MEMOTS, 2PPLS,MOFPA e HMOBEDA, cobrindo três algoritmos multiobjetivo clássicos, dois algoritmosdo estado da arte do problema e dois algoritmo publicados mais recentemente para oproblema, respectivamente. Testes estatísticos mostraram evidências de que o MOSCA/Dpode competir com outras abordagens consolidadas da literatura e pode agora ser considerado o novo algoritmo do estado da arte para o MOMKP em instâncias com mais dedois objetivos, considerando os indicadores de qualidade hipervolume e epsilon.
-
Mostrar Abstract
-
This work presents a multi-objective version of the Scientific Algorithms based on decomposition (MOSCA/D). Such approach is a new metaheuristic inspired by the processesof scientific research to solve multi-objective optimization problems. MOSCA/D uses theconcept of theme to direct the computational effort of the search to promising regionsof the objective space, fixing different decision variables in each iteration. A probabilisticmodel based on the TF-IDF statistic assists the choice of such variables. Computationalexperiments applied MOSCA/D to 16 instances of the multi-objective multidimensionalknapsack problem (MOMKP) with up to 8 objectives. The results were compared toNSGA-II, SPEA2, MOEA/D, MEMOTS, 2PPLS, MOFPA and HMOBEDA, covering three classical multi-objective algorithms, two state of the art algorithms for the problemand two most recently published algorithms for the problem, respectively. Statistical testsshowed evidence that MOSCA/D can compete with other consolidated approaches fromliterature and can now be considered the new state of the art algorithm for the MOMKPin instances with more than two objectives, considering the hypervolume and epsilonquality indicators.
|
|
7
|
-
JOSÉ AUGUSTO SARAIVA LUSTOSA FILHO
-
Diversidade e similaridade como critério de seleção de classificadores em comitês de seleção dinâmica
-
Orientador : ANNE MAGALY DE PAULA CANUTO
-
MEMBROS DA BANCA :
-
ANNE MAGALY DE PAULA CANUTO
-
ARAKEN DE MEDEIROS SANTOS
-
BRUNO MOTTA DE CARVALHO
-
DANIEL SABINO AMORIM DE ARAUJO
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
Data: 24/08/2018
-
-
Mostrar Resumo
-
As técnicas de classificadores de padrões são consideradas atividades chave na área dereconhecimento de padrões, onde busca-se atribuir uma amostra de testes à uma classe. Autilização de classificadores individuais geralmente apresentam deficiências nas taxas dereconhecimento quando comparado à utilização de múltiplos classificadores para executara mesma tarefa de classificação. Conforme a literatura, comitês de classificadores proveemmelhores taxas de reconhecimento quando os classificadores candidatos apresentam errosnão correlacionados em diferentes sub-espaços do problema. Diversos trabalhos exploramdiversidade em comitês de classificadores baseados em seleção estática e apontam quea diversidade entre os classificadores base é um fator que influência positivamente nastaxas de acurácias dos comitês, no entanto no contexto de comitês baseados em seleçãodinâmica há pouca literatura relacionada e carência de pesquisas que exploram a influênciada diversidade e similaridade. Nesse contexto, essa tese de doutorado explora diversosmétodos de seleção de classificadores, baseados em seleção dinâmica, adicionando umcritério de seleção que prioriza diversidade e/ou similaridade entre os classificadores base.Dessa forma os experimentos avaliados visam elucidar empiricamente a relevância dadiversidade e/ou similaridade entre os classificadores base de comitês baseados em seleçãodinâmica.
-
Mostrar Abstract
-
Pattern classification techniques can be considered the most important activitie in patternrecognition area where aims assing a unknown sample test to a class. Generally individualclassifiers haven’t good recognition rates compared to multiple classifiers. Thus ensembleof classifiers can be used to increase the accuracy of classification systems. Ensemblesystems provide good recognition rates when the classifiers members of the ensemblesystem have uncorrelated errors in different sub-spaces of the problem; This characteristicis measured by diversity measures. In this context, the present thesis explores ensemblesystems using dynamic selection. Ao contrário de comitês que utilizam seleção estática,em comitês de classificadores utilizando seleção dinâmica, para cada padrão de testeestima-se o nível de competência de cada classificador de um conjunto inicial. Apenasos classificadores mais competentes são selecionados para classificar o padrão de teste.O presente trabalho objetiva explorar, avaliar e propor métodos para seleção dinâmicade classificadores baseando-se em medidas de diversidade. Unlike emseble sysetm usingstatic selection, in ensembles using dynamic selection for each test pattern is estimatedthe competence level for the initial set of classifiers. Only the most relevant classifiers areselected to classify the test pattern. This paper aims to explorer, evaluate and proposemethods for ensemble systems based on diversity measures. To achieve this goal, severalensemble systems in the literature using dynamic selection are exploited, as well as hybridversions of them are proposed in order to quantify, by experiments, the influence of diversitymeasure among classifiers members in ensemble systems. Therefore the contribution of thiswork is empirically elucidate the advantages and disadvantages of using diversity measuresin dynamic selection of classifiers.
|
|
8
|
-
RONILDO PINHEIRO DE ARAUJO MOURA
-
Comitê de agrupamentos hierárquicos que preserva a T-transitividade
-
Orientador : BENJAMIN RENE CALLEJAS BEDREGAL
-
MEMBROS DA BANCA :
-
ANNE MAGALY DE PAULA CANUTO
-
BENJAMIN RENE CALLEJAS BEDREGAL
-
FLAVIO BEZERRA COSTA
-
ARAKEN DE MEDEIROS SANTOS
-
EDUARDO SILVA PALMEIRA
-
Data: 05/10/2018
-
-
Mostrar Resumo
-
A ideia principal de aprendizagem por comitês é aprimorar os resultados de métodos de aprendizagem de máquina combinando múltiplos modelos. Inicialmente aplicada a problemas de aprendizagem supervisionada, esta abordagem permite produzir resultados com qualidade superior em relação a um único modelo. Da mesma forma, aprendizagem de comitê aplicados ao aprendizado não supervisionado, ou consenso de agrupamento, produz agrupamentos de alta qualidade. A maioria dos métodos de comitê para agrupamento de dados são destinados a algoritmos particionais, e apresentam resultados de qualidade superior aos agrupamentos simples. Deste modo, é razoável esperar que a combinação e agrupamentos hierárquicos podem levar a um agrupamento hierárquico de melhor qualidade. Os estudos recentes não consideram as particularidades inerentes aos diferentesmétodos de agrupamento hierárquico durante o processo do consenso. Este trabalho investiga a consistência dos resultado do consenso considerando diferentes métodos de agrupamento hierárquico utilizados para compor o comitê. Propomos uma abordagem que preserva um tipo de transitividade presente nos dendrogramas. Neste algoritmo, os dendrogramas representando os resultados individuais dos agrupamentos bases são convertidos em matrizes ultramétricas. Então, após um processo de fuzzificação, alguns operadores de agregação com a capacidade de preservar algum tipo de transitividade geram uma matriz consenso. O agrupamento hierárquico final é obtido a partir da matriz consenso. A análise de resultados dos experimentos realizados em conjuntos de dados conhecidos e a visualização da operação do algoritmo em conjuntos de dados visuais (duasdimensões) evidencia que esta abordagem consegue melhorar a acurácia uma vez que preserva a propriedade da consistência.
-
Mostrar Abstract
-
The main idea of ensemble learning is improved machine learning results by combining several models. Initially applied to supervised learning, this approach usually produces better results in comparison with single methods. Similarly, unsupervised ensemble learning, or consensus clustering, create individual clustering that is more robust in comparison to unique methods. The most common methods are designed for flat clustering, and showsuperior in quality to clustering unique methods. Thus, it can be expected that consensus of hierarchical clustering could also lead to higher quality in creating hierarchical clustering. Recent studies not been taken to consider particularities inherent in the different methods of hierarchical grouping during the consensus process. This work investigates the impact of the ensemble consistency in the final consensual results considering the differents hierarchical methods uses in the ensemble. We propose a process that retains intermediate transitivity in dendrograms. In this algorithm, firstly, the dendrograms describing the base clustering are converted to an ultrametric matrix. Then, after one fuzzification process, the consensus functions based on aggregation operator with preserve transitivity property is applied to the matrices and form the final consensus matrix. The final clustering will be a dendrogram obtained from this aggregate matrix. Analyzing the results of the experiments performed on the known datasets and also visualizing algorithm’s process on the visual (two-dimensional) datasets shows this approach can significantly improve the accuracy performance once retaining the consistency property.
|
|
9
|
-
EDUARDO ALEXANDRE FERREIRA SILVA
-
Concepção Arquitetural de Sistema-de-Sistemas Intensivo em Software Orientado por Missões
-
Orientador : THAIS VASCONCELOS BATISTA
-
MEMBROS DA BANCA :
-
ABDELHAK-DJAMEL SERIAI
-
ELISA YUMI NAKAGAWA
-
FLAVIO OQUENDO
-
KHALIL DRIRA
-
MARCEL VINICIUS MEDEIROS OLIVEIRA
-
THAIS VASCONCELOS BATISTA
-
Data: 17/12/2018
-
-
Mostrar Resumo
-
As missões representam uma preocupação fundamental no desenvolvimento de sistemas de sistemas (SoS), uma vez que podem estar relacionadas tanto às capacidades dos sistemas constituintes quanto às interações entre esses sistemas que contribuem para a realização dos objetivos globais do SoS. Por esta razão, os modelos de missão são pontos de partida promissores para o processo de desenvolvimento do SoS e podem ser usados como base para a especificação, validação e verificação de modelos arquiteturais do SoS. Especificar, validar e verificar modelos de arquitetura para SoS são tarefas difíceis comparadas aos sistemas usuais, a complexidade interna desse tipo de sistema depende especialmente dos comportamentos emergentes, ou seja, características que emergem da cooperação entre as partes constituintes do SoS que muitas vezes não podem ser precisamente previsto.
Este trabalho tem como objetivo endereçar a relação sinérgica entre a missão e modelos de arquitetura, dedicando uma atenção especial ao comportamento emergente que surge para uma determinada configuração do SoS. Propomos um processo de desenvolvimento para modelagem arquitetural de SoS, centrado nos chamados modelos de missão. Nesta proposta, o modelo de missão é usado para derivar, validar / verificar arquiteturas de SoS. Em um primeiro momento fornecemos um modelo de missão formal, então geramos a definição estrutural para a arquitetura usando a transformação de modelo. Mais tarde, conforme o arquiteto especificar os aspectos comportamentais do sistema, usando essa arquitetura podemos gerar arquiteturas concretas que serão verificadas e validadas usando abordagens baseadas em simulação. A verificação usa um modelo estatístico para verificar se as propriedades estão satisfeitas, com um grau de confiança. A validação é destinada a comportamentos e missões emergentes, mas pode ser estendida a qualquer aspecto do modelo de missão. A simulação também permite a identificação de comportamentos emergentes imprevisíveis. Um conjunto de ferramentas que integra ferramentas existentes e implementa todo o processo também é apresentado.
-
Mostrar Abstract
-
Missions represent a key concern in the development of systems-of-systems (SoS) since they can be related to both capabilities of constituent systems and interactions among these systems that contribute to the accomplishment of global goals of the SoS. For this reason, mission models are promising starting points to the SoS development process and they can be used as a basis for the specification, validation and verification of SoS architectural models. Specifying, validating and verifying architectural models for SoS are difficult tasks compared to usual systems, the inner complexity of this kind of systems relies especially on the emergent behaviors, i.e. features that emerge from the cooperation between the constituent parts of the SoS that often cannot be accurately predicted.
This work is concerned with such a synergetic relationship between mission and architectural models, giving a special attention to the emergent behavior that arise for a given configuration of the SoS. We propose a development process for architectural modeling of SoS, centered in the so-called mission models. In this proposal, the mission model is used to both derive, validate/verify architectures of SoS. In a first moment we dene a formal mission model, then we generate the structural definition for the architecture using model transformation. Later, as the architect specify the behavioral aspects of the system, using this architecture, we can generate concrete architectures that will be verified and validated using simulation-based approaches. The verification uses statistical model checking to verify whether the properties are satisfied, within a degree of confidence. The validation is aimed to emergent behaviors and missions, but can be extended to any aspect of the mission model. The simulation also allows the identification of unpredicted emergent behaviors. A toolset that integrates existing tools and implements the whole process is also presented.
|
|