Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFRN

2024
Dissertações
1
  • BEATRIZ ARIADNA DA SILVA CIRIACO
  • Um processo autoregressivo de primeira ordem para valores inteiros com inovações
    Borel inflacionada de uns

  • Orientador : ANDRE LUIS SANTOS DE PINHO
  • MEMBROS DA BANCA :
  • ANDRE LUIS SANTOS DE PINHO
  • ANTONIO MARCOS BATISTA DO NASCIMENTO
  • LUZ MILENA ZEA FERNANDEZ
  • ISAAC JALES COSTA SOUZA
  • Data: 02/02/2024

  • Mostrar Resumo
  • Por se basear em contagens, as séries temporais de valores inteiros, como, por
    exemplo, os processos autoregressivos de valores inteiros (INAR), podem conter excessos de
    valores repetidos, que prejudicam as análises inferenciais, se esse comportamento não é
    conhecido. Sabendo disso, faz-se necessário o estudo do conhecimento sobre modelos
    inflacionados para séries temporais de valores inteiros. Alguns modelos têm sido propostos
    para modelar dados de contagens inflacionados em zero. Entretanto, este trabalho foca no
    modelo inflacionado de uns (OI) e no processo autoregressivo com inovações inflacionadas de
    uns (OI-INAR(1)). Dessa forma, são propostos o modelo Borel Inflacionado de uns (OIB) e o
    processo INAR(1) com inovações Borel inflacionada de uns (OIB-INAR(1)). São desenvolvidas as
    propriedades, como esperança, variância, índice de dispersão e função geradora de
    probabilidades, destes modelos bem como os métodos de estimação dos parâmetros do
    modelo OIB, como o método dos momentos e de máxima verossimilhança. E, para o processo
    OIB-INAR(1), os métodos de mínimos quadrados condicionais e máxima verossimilhança
    condicional, além de metodologias previsão um passo a frente. Por fim, é feita uma aplicação
    ajustando o modelo OIB-INAR(1).


  • Mostrar Abstract
  • As time series of integer values are based on counts, such as the autoregressive
    processes of integer values (INAR), they may contain an excessive number of repeated values
    that could harm the inferential analysis if this behavior is not known. Then it becomes
    necessary to understand time series inflated models for integer values. Some models have
    been developed to study zero-inflated data, however, this work focuses on the one-inflated
    model (OI) and the autoregressive process with One-inflated innovations (OI-INAR(1)). Thus,
    the One-inflated Borel (OIB) model and the INAR(1) process with One-inflated Borel
    innovations (OIB-INAR(1)) are proposed. In this work the properties, such as expectation,
    variance, dispersion index and probability generating function, of these models are developed,
    as well as the methods for estimating the parameters of the OIB model, such as the method of
    moments and maximum likelihood. Likewise, for the OIB-INAR(1) process, the conditional least squares and conditional maximum likelihood methods, in addition to one-step-ahead
    prediction methodologies are studied. Finally, an application is made adjusting the OIB-INAR(1)
    model.

2
  • LUCAS MATHEUS AUGUSTO OLIMPIO GUANABARA
  • Integração Numérica para Funções Compostas em Domínios Multidimensionais através
    de uma Quadratura de Lebesgue

  • Orientador : ELIARDO GUIMARAES DA COSTA
  • MEMBROS DA BANCA :
  • GILBERTO PEREIRA SASSI
  • BRUNO DOS SANTOS SOLHEID
  • DIEGO FERRAZ DE SOUZA
  • ELIARDO GUIMARAES DA COSTA
  • Data: 12/03/2024

  • Mostrar Resumo
  • A presente dissertação objetiva apresentar um método de integração numérica, cuja
    aplicação será executada em domínios de integração contendo um alto número de dimensões.
    Nesse sentido, a metodologia desenvolvida visa apresentar uma quadratura de Lebesgue, a
    qual baseia-se nas partições da imagem de uma função, onde cada peso é associado a um
    valor da função, definido na sua imagem. Para as funções Riemann-Integráveis, mostramos a
    existência de uma quadratura de Lebesgue e demonstramos como construir quadraturas desse
    tipo para funções compostas, nas quais o método apresentou boa eficiência, superando os
    métodos quase-Monte Carlo. O método consiste em aproximar arbitrariamente o valor de uma
    dada soma finita, utilizando a informação gerada por um histograma, para mostrar que a
    integração numérica de uma função composta, cuja densidade do argumento foi previamente
    determinada, pode ser avaliada muito facilmente.


  • Mostrar Abstract
  • The present dissertation aims to introduce a numerical integration method, whose
    application will run on domains containing a high number of dimensions. In this regard, the
    developed methodology seeks to present a Lebesgue quadrature, which is based on partitions
    of the image of a function, where each weight is associated with a value of the function
    defined in its image. For Riemann-Integrable functions, we demonstrate the existence of a
    Lebesgue quadrature and show how to construct quadratures of this type for composite
    functions, in which the method exhibited good efficiency, surpassing quasi-Monte Carlo
    methods. The method involves arbitrarily approximating the value of a given finite sum using
    information generated by a histogram, to demonstrate that the numerical integration of a
    composite function, whose argument’s density has been previously determined, can be
    evaluated very easily.

3
  • PAULO CÉSAR DOS SANTOS
  • Modelos de regressão GJS longitudinais

  • Orientador : ARTUR JOSE LEMONTE
  • MEMBROS DA BANCA :
  • ARTUR JOSE LEMONTE
  • FRANCISCO FELIPE DE QUEIROZ
  • LUZ MILENA ZEA FERNANDEZ
  • Data: 21/03/2024

  • Mostrar Resumo
  • Estendemos a classe de modelos de regressão GJS que modelam variáveis contínuas
    com suporte no intervalo (0, 1), para o caso de dados correlacionados, como aquelas
    provenientes de estudos longitudinais ou de dados agrupados. O modelo proposto é baseado
    na classe de modelos lineares generalizados mistos e as estimativas dos parâmetros são
    obtidas com base no método da máxima verossimilhança (MV). A implementação
    computacional combina a quadratura de Gauss-Hermite para obter a densidade marginal da
    variável resposta e o algoritmo BFGS de otimização não-linear, implementado no pacote optim
    do software computacional R. Foram realizadas simulações de Monte Carlo para verificar o
    desempenho dos estimadores de MV dos parâmetros do modelo. Os resultados das
    simulações sugerem que a abordagem da MV fornece estimadores não-enviesados e
    consistentes para todos os parâmetros. A motivação para esta proposta é a ausência de uma
    classe de modelos de regressão GJS para dados correlacionados e pelo fato de dados
    longitudinais no intervalo (0, 1), geralmente, apresentarem assimetria. Desse modo, para
    obter estimativas consistentes dos parâmetros são necessários métodos que sejam robustos
    na presença de assimetria, como é o caso dos modelos de regressão GJS que modelam a
    mediana da variável resposta. Adicionalmente, propomos o resíduo quantílico aleatorizado
    para averiguar a qualidade do ajuste. Além disso, verificou-se a eficácia do resíduo proposto na
    detecção de algumas formas de inadequação do modelo. Por fim, ilustramos a metodologia
    desenvolvida por meio da aplicação a um conjunto de dados reais.


  • Mostrar Abstract
  • We extend the class of GJS regression models that model continuous variables with
    support in the interval (0, 1), to the case of correlated data, such as those coming from
    longitudinal studies or pooled data. The proposed model is based on the class of generalized
    linear mixed models and parameter estimates are obtained based on the marginal maximum
    likelihood (ML) method. The computational implementation combines the Gauss-Hermite
    quadrature to obtain the marginal density of the response variable and the non-linear
    optimization algorithm of Broyden, Fletcher, Goldfarb and Shanno (BFGS), implemented in the
    optim package of the R software. Monte Carlo to verify the performance of the ML estimators.
    The simulation results suggest that the ML approach provides unbiased and consistent

    estimators for all model parameters. The motivation for this proposal is the absence of a class
    of GJS regression models for correlated data and the fact that longitudinal data in the interval
    (0, 1) generally present asymmetry or are more concentrated around one of the limits of the
    interval. Therefore, to obtain consistent parameter estimates, methods that are robust in the
    presence of asymmetry are necessary, as is the case with GJS regression models that model
    the median of the response variable. Additionally, we propose the quantile residue for this
    new class of models and apply the global influence technique based on the conditional Cook
    distance with the aim of identifying possible influential points. Finally, we illustrate the
    methodology developed by applying it to a real dataset.

4
  • IVONALDO SILVESTRE DA SILVA JÚNIOR
  • Aprimoramento do teste da razão de verossimilhanças em modelos de regressão beta-
    prime.

  • Orientador : FRANCISCO MOISES CANDIDO DE MEDEIROS
  • MEMBROS DA BANCA :
  • TIAGO MAIA MAGALHÃES
  • ARTUR JOSE LEMONTE
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • Data: 26/03/2024

  • Mostrar Resumo
  • Nesta dissertação, abordamos o problema de testar hipóteses em modelos de regressão beta-
    prime em amostras de tamanho pequeno e moderado. Focamos no teste de razão de
    verossimilhanças, o qual não é confiável quando o tamanho da amostra não é grande o
    suficiente para garantir uma boa aproximação entre a distribuição exata da estatística de teste
    e a correspondente distribuição assintótica qui-quadrado. As correções de Bartlett, Skovgaard
    e Bartlett-bootstrap tradicionalmente atenuam a distorção do tamanho do teste. Neste
    trabalho, derivamos a correção de Bartlett e um ajuste de Skovgaard para o teste de razão de
    verossimilhanças em modelos de regressão beta-prime. Comparamos numericamente os
    testes usual, corrigidos e bootstrap por meio de simulações de Monte Carlo. Nossos resultados
    sugerem que os testes corrigidos e o teste bootstrap exibem uma probabilidade de erro do
    tipo I mais próxima do nível nominal estabelecido. Os testes corrigidos analiticamente
    apresentam a vantagem de não exigir cálculos computacionalmente intensos. Apresentamos
    uma aplicação em dados reais para ilustrar a utilidade dos testes modificados.


  • Mostrar Abstract
  • This paper deals with the issue of testing hypotheses in beta-prime regression models in small
    and moderate-sized samples. We focus on the likelihood ratio test, which is unreliable when
    the sample size is not large enough to guarantee a good approximation between the exact
    distribution of the test statistic and the corresponding chi-squared asymptotic distribution.
    Bartlett, Skovgaard and Bartlett-bootstrap corrections typically attenuate the size distortion of
    the test. Here, we derive a Bartlett correction and a Skovgaard adjustment for the likelihood
    ratio test on beta-prime regression models. We numerically compare the usual, corrected and
    bootstrapped tests, through simulations. Our results suggest that the corrected and

    bootstrapped tests exhibit type I probability error closer to the chosen nominal level. The
    analytically corrected tests perform with the advantage of not requiring computationally
    intensive calculations. We present a real data application to illustrate the usefulness of the
    modified tests.

5
  • CAMILIANE AZEVEDO FERREIRA
  • Avaliação do desempenho do gráfico de controle de
    Shewhart para o processo OIB-INAR(1) e comparação com o desempenho do
    gráfico de Shewhart do processo Borel INAR(1)

  • Orientador : ANDRE LUIS SANTOS DE PINHO
  • MEMBROS DA BANCA :
  • ANDRE LUIS SANTOS DE PINHO
  • ISAAC JALES COSTA SOUZA
  • LUCAS DE OLIVEIRA FERREIRA DE SALES
  • LUZ MILENA ZEA FERNANDEZ
  • Data: 13/09/2024

  • Mostrar Resumo
  • Diante dos avanços tecnológicos e da grande quantidade de informações
    geradas, os dados de contagem estão sendo cada vez mais
    autocorrelacionados. Isso gera a necessidade crescente de novos modelos e
    ferramentas de monitoramento que considerem as características específicas
    desses dados. Neste trabalho, propomos um gráfico de controle de Shewhart
    para dados de contagem autocorrelacionados que podem ser modelados por
    um processo INAR(1) com inovações da distribuição Borel inflacionada de uns
    (OIB-INAR(1)). Este modelo é adequado para modelar dados com inflação de
    uns, subdispersão, equidispersão ou sobredispersão. Além disso, faremos uma
    comparação do desempenho deste gráfico com o de um processo Borel
    INAR(1), que modela séries de contagens truncadas em zero, também com
    subdispersão, equidispersão ou sobredispersão. O Borel INAR(1) pode ser
    visto como um caso particular do OIB-INAR(1). A avaliação do desempenho da
    abordagem proposta é baseada no número médio de amostras necessárias
    para detectar um alarme (NMAF e NMA) em diferentes cenários. A
    determinação do limite superior de controle (LSC) e a avaliação do
    desempenho dos gráficos são realizadas por meio de estudos computacionais
    utilizando simulações de Monte Carlo. Para ilustrar a aplicabilidade do método
    proposto apresentamos um exemplo com dados reais.


  • Mostrar Abstract
  • In the face of technological advances and the large
    amount of information generated, count data is becoming increasingly
    autocorrelated. This creates a growing need for new models and monitoring

    tools that take into account the specific characteristics of this data. In this paper,
    we propose a Shewhart control chart control chart for autocorrelated count data
    that can be modeled by an INAR(1) process with innovations from the inflated
    Borel distribution of ones (OIB-INAR(1)). This model is suitable for modeling
    data with inflation of ones, underdispersion, equidispersion or overdispersion.
    We will also compare the performance of this graph with that of a process Borel
    INAR(1), which models series of counts truncated at zero, also with
    underdispersion, equidispersion or overdispersion. Borel INAR(1) can be seen
    as a particular case of the OIB-INAR(1). The performance of the proposed
    approach is based on the average number of samples required to detect an
    alarm (ARL0 and ARL1) in different scenarios. The determination of the upper
    control limit (UCL) and the evaluation of the performance of the graphs are
    carried out through computational studies using Monte Carlo simulations. To
    illustrate the applicability of the proposed method, we present an example with
    real data.

2023
Dissertações
1
  • TAMARA TAVARES DE MELO
  • Graduações na álgebra de Grassmann pelo grupo cíclico infinito: identidades e PI-equivalência
  • Orientador : ALAN DE ARAUJO GUIMARAES
  • MEMBROS DA BANCA :
  • ALAN DE ARAUJO GUIMARAES
  • ALEXEY KUZMIN
  • DAVID LEVI DA SILVA MACÊDO
  • DIOGO DINIZ PEREIRA DA SILVA E SILVA
  • Data: 24/02/2023

  • Mostrar Resumo
  • Sejam E a álgebra de Grassmann de dimensão infinita sobre um corpo F de característica zero e Z o grupo cíclico infinito. No desenvolvimento da Teoria de Kemer, a álgebra E desempenha papel crucial. Nos últimos anos, as graduações abelianas sobre E e as respectivas identidades graduadas têm sido abordadas em vários artigos, e ainda é um tema bastante fértil a nível de pesquisa. Diante disso, o foco da nossa dissertação é estudar
    recentes resultados referentes a graduações sobre E pelo grupo Z. Iremos estudar resultados sobre a construção de graduações em E e, utilizando métodos da Teoria Elementar dos Números, vamos descrever as identidades polinomiais Z-graduadas para as chamadas Z-graduações 2-induzidas em E de suporte completo. Como consequência deste fato, serão mostrados alguns exemplos de Z-graduações em E que são PI-equivalentes, mas não são
    Z-isomorfas. Este é o primeiro exemplo de álgebras graduadas com suporte infinito que são PI-equivalentes, mas não isomorfas como álgebras graduadas. Além disso, vamos apresentar a noção de Z-graduações centrais em E e mostrar que suas identidades polinomiais Z-graduadas estão intimamente relacionadas com as identidades polinomiais Z2-graduadas
    de E.


  • Mostrar Abstract
  • Let E be the infinite dimensional Grassmann algebra over a field F of characteristic zero and Z be the infinite cyclic group. In the development of Kemer’s Theory, the algebra E plays a crucial role. In recent years, the abelian gradings on E and the respective graded identities have been addressed in several articles, and it is still a very fertile topic at the research level. Therefore, the focus of our dissertation is to study recent results regarding gradings on E by the group Z. We will study results on the construction of gradings on E and, using methods from elementary number theory, we will describe the Z-graded polynomial identities for the so-called 2-induced Z-gradings on E of full support.
    As a consequence of this fact, we will show some examples of Z-gradings in E, which are PI-equivalent, but not Z-isomorphic. This is the first example of graded algebras with infinite support that are PI-equivalent but not isomorphic as graded algebras. Furthermore, we will introduce the notion of central Z-gradings on E and show that their Z-graded polynomial identities are related to the Z2-graded polynomial identities of E.

2
  • FRANKLIN DIEGO DE LIMA RODRIGUES
  • Segmentação de sequências em cadeias de Markov usando máxima verossimilhança penalizada
  • Orientador : FRANCISCO MOISES CANDIDO DE MEDEIROS
  • MEMBROS DA BANCA :
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • BRUNO MONTE DE CASTRO
  • ELIARDO GUIMARAES DA COSTA
  • ANDRESSA CERQUEIRA
  • Data: 27/03/2023

  • Mostrar Resumo
  • O problema de segmentação de sequências tem o objetivo de particionar uma sequência
    ou um conjunto delas em um número finito de segmentos distintos tão homogêneos quanto
    possível. Neste trabalho, consideramos o problema de segmentação de um conjunto de
    sequências aleatórias, com valores em um alfabeto E finito, em um número finito de blocos
    independentes. Sob hipótese que os dados seguem uma cadeia de Markov, o problema
    consiste em estimar o número e a posição dos pontos de independência (ou mudança).
    Para isso, propomos usar o critério da máxima verossimilhança penalizada com o objetivo
    de inferir, simultaneamente, o número e a posição dos pontos de mudança. O principal
    resultado do nosso trabalho é a demonstração do teorema que garante a consistência
    forte do conjunto de estimadores dos pontos de corte para um número de amostras
    suficientemente grande.

  • Mostrar Abstract
  • The sequence segmentation problem has the objective of partitioning a sequence or a set
    or a set of them into a finite number of distinct segments as homogeneous as possible. as
    possible. In this paper, we consider the problem of segmenting a set of random sequences,
    with values in a finite alphabet E, into a finite number of independent blocks. independent
    blocks. Under the assumption that the data follows a Markov chain, the problem consists
    in estimating the number and position of independence (or change) points. To this end,
    we propose to use the penalized maximum likelihood criterion with the objective to
    simultaneously infer the number and position of change points. The main result of our
    work is the demonstration of the theorem that guarantees the strong consistency of the
    consistency of the set of cut-off point estimators for a sufficiently large number of samples
    sufficiently large.
3
  • JEFFERSON HENRIQUE DA SILVA
  • Uma nova abordagem topológica para métrica intervalar

  • Orientador : FAGNER LEMOS DE SANTANA
  • MEMBROS DA BANCA :
  • ANNAXSUEL ARAUJO DE LIMA
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • FAGNER LEMOS DE SANTANA
  • REGIVAN HUGO NUNES SANTIAGO
  • SIDARTA ARAUJO DE LIMA
  • Data: 28/03/2023

  • Mostrar Resumo
  • Neste trabalho fazemos uma abordagem topológica da métrica intervalar diferente da feita com base nas chamadas i-métricas, a qual não faz uso da operação de adição da aritmética de Moore. Usaremos aqui uma ordem admissível que refina a ordem KM para modificar a desigualdade triangular e deixá-la em um formato mais parecido com o caso das métricas usuais.


  • Mostrar Abstract
  • In this work we make a topological approach to the interval metric different from the
    one based on the i-metric, which does not make use of the addition operation of Moore
    arithmetic. Here we will use an admissible order that refines the KM order to modify the
    triangular inequality and make it more like the case of usual metrics.
4
  • BARBARA KALINE DE SOUSA
  • Análise de Diagnóstico em Modelos de Regressão Bell

  • Orientador : ARTUR JOSE LEMONTE
  • MEMBROS DA BANCA :
  • ARTUR JOSE LEMONTE
  • ELIARDO GUIMARAES DA COSTA
  • JUVÊNCIO SANTOS NOBRE
  • Data: 31/03/2023

  • Mostrar Resumo
  • A classe de modelos de regressão Bell é uma interessante alternativa à usual classe de modelos de regressão Poisson para variáveis respostas em forma de contagem, principalmente na presença de sobredispersão. Neste trabalho, técnicas de diagnóstico como influência global e influência local serão desenvolvidas para o modelo de regressão Bell. Em particular, expressões analíticas para a curvatura normal para estudar influencia local serão derivadas sob diferentes esquemas de perturbação. Finalmente, as técnicas de diagnósticos desenvolvidas serão aplicadas em conjuntos de ddados reais.


  • Mostrar Abstract
  • The class of Bell regression models is an interesting alternative to the usual class of Poisson regression models for response variables in count form, mainly in the presence of overdispersion. In this work, diagnostic techniques such as global influence and local influence will be developed for the Bell regression model. In particular, analytical expressions for the normal curvature to study local influence will be derived under different perturbation schemes. Finally, the diagnostic techniques developed will be applied to real data sets.

5
  • EDWIN CASTRO FERNANDES DOS SANTOS
  • Avaliação do Desempenho e Aplicação do Gráfico de Controle EWMA para o processo estocástico POMINAR(1)

  • Orientador : ANDRE LUIS SANTOS DE PINHO
  • MEMBROS DA BANCA :
  • ANDRE LUIS SANTOS DE PINHO
  • LUZ MILENA ZEA FERNANDEZ
  • FRANCISCO FELIPE DE QUEIROZ
  • Data: 31/03/2023

  • Mostrar Resumo
  • Neste trabalho se propõe avaliar o desempenho do gráfico de controle EWMA, adaptando-o ao modelo autorregressivo misto de primeira ordem com inovações Poisson, denominado POMINAR(1), que é composto de dois operadores conhecidos como thinning binomial e thinning Poisson. Objetiva-se comparar os resultados obtidos com os do gráfico de controle Shewhart, e mostrar que o gráfico de controle EWMA é mais eficiente para detectar desvios na média do processo abaixo de 1.5 desvio padrão. Para isso, é definido o gráfico de controle EWMA e sua esperança. São propostos dois teoremas e dois corolários a fim de definir a variância de acordo com o tamanho do subgrupo racional. Em seguida, seus limites de controle superior e inferior serão definidos, para analisar o seu desempenho. Após isso, será feita uma análise comparando os resultados obtidos de uma simulação utilizando o gráfico de controle EWMA com os resultados obtidos utilizando o gráfico de controle Shewhart. Por fim, apresentam-se duas aplicações com dados reais utilizando o gráfico de controle EWMA. A primeira situação está relacionada à Seção de dados criminais no site Forecasting Principles. A variável escolhida representa o número de roubos mensais relatados no distrito político nº 12, em Pittsburgh (EUA), de jan/1990 a dez/2001, com um total de 144 observações. Já a segunda situação é a contagem de diferentes endereços IP registrados num período de dois minutos de duração no servidor do Departamento de Estatísticas da Universidade de Wüsrzburg, em 29 de novembro de 2005, entre 10h às 18h, com 241 observações.


  • Mostrar Abstract
  • In this work we propose to evaluate the performance of the EWMA control chart, adapting it to the first-order mixed autoregressive model with Poisson innovations, called POMINAR(1), which is composed of two operators known as thinning binomial and thinning Poisson. The objective is to compare the results obtained with those of the Shewhart control chart, and to show that the EWMA control chart is more efficient to detect deviations in the process mean below 1.5 standard deviation. For this, the EWMA control chart and its expectation are defined. Two theorems and two corollaries are proposed in order to define the variance according to the size of the rational subgroup. Moreover, the EWMA upper and lower control limits will be set, to analyze its performance. After that, an analysis will be made comparing the results obtained from a simulation using the EWMA control chart with the results obtained using the Shewhart control chart. Finally, two applications with real data using the EWMA control chart are presented. The first situation relates to the Criminal Data Section on the Forecasting Principles website. The chosen variable represents the number of monthly robberies reported in political district nº 12, in Pittsburgh (USA), from Jan/1990 to Dec/2001, with a total of 144 observations. The second situation is the count of different IP addresses recorded in a period of two minutes in duration on the server of the Department of Statistics of the University of Wüsrzburg, on November 29, 2005, between 10 a.m. and 6 p.m. with 241 observations.

6
  • ISRAEL COSTA SMITH DE MEDEIROS
  • Resíduos no modelo de regressão Bell-Touchard

  • Orientador : ARTUR JOSE LEMONTE
  • MEMBROS DA BANCA :
  • ALDO WILLIAM MEDINA GARAY
  • ARTUR JOSE LEMONTE
  • FIDEL ERNESTO CASTRO MORALES
  • Data: 20/04/2023

  • Mostrar Resumo
  • A distribuição Bell-Touchard e seu respectivo modelo de regressão, são uma
    alternativa promissora aos modelos já consagrados na modelagem de dados de contagem,
    como por exemplo, os modelos de Poisson e Binomial Negativa. Dados de contagem são
    observações em que a variável assume valores inteiros não-negativos e são úteis, por exemplo,
    para modelar o número de sinistros que aconteceram em um determinado período de tempo,
    que são de interesse na área de seguros, por exemplo. O modelo Poisson, nesse sentido, não é
    um modelo que lida bem com o problema da sobredispersão dos dados, situação na qual a
    variância é maior do que a média. Alternativas para contornar esse tipo de problema surgiram,
    sendo propostos os modelos inflados de zero e o modelo Binomial Negativa. O modelo Bell-
    Touchard, que é uma generalização do modelo Bell, é uma alternativa recente que também se
    propõe a resolver esse tipo de problema. Neste trabalho, um estudo mais aprofundado será
    realizado sobre resíduos no modelo de regressão Bell-Touchard, com o objetivo de aprimorar a
    literatura acadêmica sobre dados de contagem.


  • Mostrar Abstract
  • The Bell-Touchard distribution and its regression model, are a promising alternative
    to the statistical models that are already established in the count data modelling, as Poisson
    and Negative Binomial models. Count data are observations such that the variable assumes
    non-negative integer values and are useful, for example, to modelling the number of claims
    that happened in a given period of time, which are of interest to insurance companies, for
    example. The Poisson model, for this purpose, is not a model that does work well with the
    overdispersion problem, a situation in which the variance is greater than the expectation.
    Alternatives to deal with this kind of problem emerged, being proposed the zero-inflated
    models and the Negative Binomial model. The Bell-Touchard model, that is a generalization of
    Bell model, is a recent alternative that tries to solve this kind of problem. In this master’s
    dissertation, a deeper research is made about residuals in the Bell-Touchard regression model
    and the main goal is to improve the academic literature about count data.

7
  • CARLA DE MORAES APOLINARIO
  • Um guia para planejamento de experimentos na área educacional

  • Orientador : CARLA ALMEIDA VIVACQUA
  • MEMBROS DA BANCA :
  • CARLA ALMEIDA VIVACQUA
  • ANDRE LUIS SANTOS DE PINHO
  • JANAINA WEISSHEIMER
  • ANDRE LUIS CALADO ARAUJO
  • Data: 27/06/2023
    Ata de defesa assinada:

  • Mostrar Resumo
  • A educação no Brasil apresentou e vem apresentando desafios de várias ordens,
    durante o século XX o principal desafio educacional foi o acesso as escolas e o combate a alta
    taxa de analfabetismo. A construção de escolas públicas como forma de facilitar o acesso a
    educação básica culminou em outros desafios que perduram até a atualidade, tal como a baixa
    qualidade do ensino oferecido, tema constante e relevante em todo o mundo, já que a
    qualidade de ensino é uma questão crítica para o desenvolvimento de um país. Vários estudos
    têm sido realizados com o objetivo de identificar maneiras de melhorar o ensino e a
    aprendizagem e uma forma de identificar as melhores práticas é conduzindo um experimento
    estatístico como forma de estabelecer uma relação causal entre diferentes fatores e o
    rendimento acadêmico dos alunos. Além disso, esses estudos permitem avaliar o impacto de
    políticas públicas e programas governamentais destinados à melhoria da educação, ajudando a
    direcionar recursos de forma mais eficiente e efetiva. Tão importante quanto realizar essas
    intervenções é conduzi-las de forma adequada para que seja possível obter dados confiáveis.
    Com a grande variedade de técnicas estatísticas existentes, é comum que pesquisadores de
    outras áreas façam uso inadequado da estatística experimental ao conduzir uma intervenção.
    Neste trabalho, é realizada uma revisão de literatura como forma de mapear estudos que
    utilizam estatística experimental no contexto educacional, a fim de identificar as dificuldades
    encontradas pelos pesquisadores, bem como boas práticas realizadas, além de acompanhar
    um estudo de caso para identificar na prática possíveis dificuldades que não foram observadas
    na revisão. Este trabalho tem como objetivo difundir o uso correto das técnicas de estatística
    experimental de forma clara, objetiva e fácil de entender para pesquisadores de outras áreas
    que não possuem familiaridade com o tema. Para atingir esse objetivo, é adotada uma
    linguagem acessível e simplificada ao explicar conceitos complexos, utilizando exemplos
    concretos e gráficos que ajudem a visualizar os conceitos estatísticos. Além disso, são
    enfatizados a importância da utilização de experimentos controlados e da aleatorização, que
    possibilitam inferências confiáveis com base em evidências quantitativas. Adicionalmente,
    como parte do trabalho proposto, será desenvolvido um guia que apresentará os passos e
    pontos importantes para planejar um experimento de forma adequada, garantindo a validade
    e confiabilidade dos resultados obtidos. Esse guia incluirá orientações sobre o planejamento
    do experimento, a escolha do tamanho da amostra, a seleção de grupos experimentais e de

    controle, a aleatorização, a seleção dos testes estatísticos apropriados, entre outros aspectos
    cruciais para uma pesquisa experimental bem-sucedida. Espera-se que este guia forneça uma
    referência útil para pesquisadores de outras áreas que desejam utilizar a estatística
    experimental de forma correta e eficaz em suas pesquisas.


  • Mostrar Abstract
  • Education in Brazil has presented and continues to present challenges of various
    kinds. During the 20th century the main educational challenge was access to schools and
    combating the high rate of illiteracy. The construction of public schools as a way of facilitating
    access to basic education led to other challenges that persist to the present day, such as the
    low quality of the education offered, a constant and relevant theme throughout the world,
    since the quality of education is a critical issue for the development of a country. Several
    studies have been carried out with the aim of identifying ways to improve teaching and
    learning and one way to identify best practices is to conduct a statistical experiment as a way
    to establish a causal relationship between different factors and students' academic
    performance. Furthermore, these studies make it possible to evaluate the impact of public
    policies and government programs aimed at improving education, helping to direct resources
    more efficiently and effectively. As important as performing these interventions is conducting
    them properly so that it is possible to obtain reliable data. With the wide variety of existing
    statistical techniques, it is common for researchers from other areas to innapropriately use of
    experimental statistics when conducting an intervention. In this work, a literature review is
    carried out as a way of mapping studies that use experimental statistics in the educational
    context, in order to identify the difficulties found by researchers, as well as good practices
    carried out, in addition to carrying a case study to identify possible practice difficulties that
    were not noted in the review. This work aims to disseminate the correct use of experimental
    statistics techniques in a clear, objective and understandable way for researchers from other
    areas who are not familiar with that subject. To achieve this goal, an accessible and simplified
    language is adopted when explaining complex concepts, using concrete examples and graphics
    that help to visualize the statistical concepts. Moreover, the importance of using controlled
    experiments and randomization are emphasized, which allow inferences followed up on the
    basis of quantitative evidence. Additionally, as part of the proposed work, a guide will be
    developed that will present the steps and important points to plan an experiment properly,
    guaranteeing the validity and reliability of the results obtained. This guide will include guidance
    on designing the experiment, choosing sample size, selecting experimental and control groups,
    randomization, selecting appropriate statistical tests, and other aspects crucial to successful
    experimental research. It is hoped that this guide will provide a useful reference for
    researchers from other fields who wish to use experimental statistics correctly and effectively
    in their research.

8
  • ANA BEATRIZ GOMES DA SILVA
  • Z2-graduações da álgebra de Grassmann: construção, PI-equivalência e isomorfismos

  • Orientador : ALAN DE ARAUJO GUIMARAES
  • MEMBROS DA BANCA :
  • ALAN DE ARAUJO GUIMARAES
  • CLAUDEMIR FIDELES BEZERRA JUNIOR
  • ELAINE GOUVEA PIMENTEL
  • LUCIO CENTRONE
  • Data: 30/08/2023

  • Mostrar Resumo
  • O foco da nossa dissertação é desenvolver um estudo sobre as Z2-graduações da
    álgebra de Grassmann E de dimensão infinita. As Z2-graduações homogêneas e suas
    identidades Z2-graduadas já são bem conhecidas na literatura, veja (VINCENZO; SILVA, 2009),

    (CENTRONE, 2011) e (GONÇALVES, 2018). Não obstante, a construção de Z2-graduações não-
    homogêneas demanda o uso da dualidade entre estas estruturas e automorfismos de ordem ≤

    2 agindo sobre E. Por meio disso, iremos estudar as Z2-graduações não-homogêneas,
    produzindo resultados sobre sua construção. Num segundo momento, iremos investigar sob
    quais condições uma Z2-graduação não homogênea é isomorfa a Z2-graduação canônica de E.
    Por fim, exibiremos uma Z2-graduação sobre E na qual nenhum elemento não-nulo do espaço
    base L é homogêneo, refutando a conjectura apresentada em (GUIMARÃES; KOSHLUKOV,
    2023).


  • Mostrar Abstract
  • The focus of our dissertation is to develope a study on the Z2-gradings of the infinite-
    dimensional Grassmann algebra E. The homogeneous Z2-gradings and their Z2-grade identities

    are already well known in the literature, see (VINCENZO; SILVA, 2009), (CENTRONE, 2011) and
    (GONÇALVES, 2018). Nevertheless, the construction of non-homogeneous Z2-gradings
    demands the use of the duality between these structures and automorphisms of order ≤ 2
    acting on E. Through this, we will study the non-homogeneous Z2-gradings, producing results

    on their construction. In a second moment, we will investigate under what conditions a non-
    homogeneous Z2-grading is isomorphic to the canonical Z2-grading of E. Finally, we will

    provide a Z2-grading on E in which there is no non-zero element of the space L homogeneous,
    refuting the conjecture presented in (GUIMARÃES; KOSHLUKOV, 2023).

9
  • MATHEUS WINGLES ALVES RIBEIRO
  • Análise Espaço-Temporal da Frequência de Homicídios nos Bairros de Natal-RN no
    Período de 2011 a 2021

  • Orientador : FIDEL ERNESTO CASTRO MORALES
  • MEMBROS DA BANCA :
  • ELIARDO GUIMARAES DA COSTA
  • FIDEL ERNESTO CASTRO MORALES
  • FRANCISCO ALIXANDRE ÁVILA RODRIGUES
  • Data: 22/11/2023

  • Mostrar Resumo
  • Dados de área são informações, quantias ou indicadores que representam área
    contíguam de uma determinada região, tais como países, cidades, entre outros. Eles são
    objetos de estudo em variados campos como Geopolítica e Cartografia, Planejamento Urbano,
    Meio Ambiente, Administração Pública e Saúde. Vários softwares foram desenvolvidos para
    auxiliar no processamento desses tipos de dados, como por exemplo o CARBayesST,
    desenvolvido para a linguagem R e conta com espaço-temporais estruturados em Prioris
    Condicionais Autoregressivas (CAR) dentro de um cenário Bayesiano Hierárquico e utiliza
    simulações de Monte Carlo Via Cadeias de Markov. O fenômeno da violência está presente
    desde o início das civilizações. Ele é resultado da interação complexa de diversos elementos,
    em adição exacerbada pela segregação e exclusão oriundas do processo de urbanização. O
    termo crime é utilizado para descrever a violação das leis que regem uma sociedade, as quais
    são balizadas por um sistema de justiça respaldado pelo Estado. A cidade de Natal, capital do
    Rio Grande do Norte, saiu do status da cidade menos violenta em 2003 do país para a mais em
    2017 com taxa 102,56 homicídio por cada 100 mil habitantes. A partir disso foi buscado
    analisar os impactos no número de ocorrências de Crimes Violentos Letais Intencionais (CVLIs,
    que se classificam como homicídios dolosos, lesão corporal seguida de óbito, roubo seguido de
    morte, feminicídios e outras transgressões que levam a perdas de vidas, com exceção das
    mortes ocorridas devido a ações de agentes de segurança do estado) nos bairros de Natal no
    período de 2011 a 2021, utilizando o pacote CARBayesST. A verificação do melhor ajuste e
    convergência, foi feita a partir dos critérios propostos por Geweke et al. (1991), Spiegelhalter
    et al. (2002), Watanabe e Opper (2010) e Congdon (2005). Para as covariáveis foram
    selecionadas as informações sobre o gasto de iluminação pública em megawatt-hora (Mwh), o
    número de equipamentos públicos, como praças, delegacias e escolas, a renda nominal média
    em quantidade de salários-mínimos, a taxa de analfabetismo, a quantidade de
    empreendimentos e o percentual de pavimentação urbana extraídas da Secretaria Municipal
    de Meio Ambiente e Urbanismo e Censo 2010 (CENSO, 2010), além da estimação populacional
    e densidade demográfica obtidas a partir do Projeto Worldpop (WORLDPOP, 2013) que utiliza
    bases censitárias e geoespaciais, imagens captadas por satélites modelando-as
    estatisticamente produzindo estimativas da distribuição populacional em diversas áreas

    globais. Como o intervalo de tempo do estudo contemplou o período pandêmico do Covid-19,
    foi visto, com base em Freitas (2021), a necessidade da adição de covariável dummy para os
    anos de pandemia.


  • Mostrar Abstract
  • Areal Units comprises information, quantities, or indicators that represent
    contiguous areas of a specific region, such as countries, cities, among others. They are subjects
    of study in various fields such as Geopolitics and Cartography, Urban Planning, Environment,
    Public Administration, and Health. Several software programs have been developed to assist in
    processing these types of data, such as CARBayesST, developed for the R language. It utilizes
    space-time structured Conditional Autoregressive Priors (CAR) within a Bayesian Hierarchical
    framework and employs Monte Carlo simulations via Markov Chains. The phenomenon of
    violence has existed since the dawn of civilizations. It is the result of the complex interaction of
    various elements, exacerbated by segregation and exclusion stemming from the urbanization
    process. The term "crime" is used to describe the violation of the laws that govern a society,
    which are regulated by a justice system backed by the State. The city of Natal, the capital of
    Rio Grande do Norte, transitioned from being the least violent city in the country in 2003 to
    the most violent in 2017, with a rate of 102.56 homicides per 100,000 inhabitants. In light of
    this, an analysis was conducted to assess the impacts on the number of occurrences of
    Intentional Lethal Violent Crimes (CVLIs), which encompass deliberate homicides, bodily injury
    followed by death, fatal robberies, feminicides, and other offenses leading to loss of life
    (excluding deaths resulting from state security actions) in the neighborhoods of Natal from
    2011 to 2021, utilizing the CARBayesST package. The assessment of the best fit and
    convergence was conducted based on the criteria proposed by Geweke et al. (1991),
    Spiegelhalter et al. (2002), Watanabe and Opper (2010), and Congdon (2005). As covariates,
    information regarding public lighting expenditure in megawatt-hours (Mwh), the number of
    public facilities such as parks, police stations, and schools, the average nominal income in
    terms of minimum wages, the illiteracy rate, the number of enterprises, and the percentage of
    urban pavement were selected. This information was extracted from the Municipal Secretariat
    of Environment and Urbanism and the 2010 Census. Additionally, population estimates and
    population density were obtained from the Worldpop Project (2013), which utilizes census and
    geospatial data, along with satellite imagery, statistically modeling them to produce
    population distribution estimates in various global areas. Since the study period encompasses
    the COVID-19 pandemic, based on Freitas (2021), the addition of a dummy covariate for the
    pandemic years was considered necessary.

2022
Dissertações
1
  • JÉSSICA STEFANNY SOUSA DE LIMA OLIVEIRA
  • Automorfismos da categoria de álgebras livres associativas e comutativas com unidade.

  • Orientador : ARKADY TSURKOV
  • MEMBROS DA BANCA :
  • ALAN DE ARAUJO GUIMARAES
  • ARKADY TSURKOV
  • ELENA ALADOVA
  • IVAN SHESTAKOV
  • Data: 16/02/2022

  • Mostrar Resumo
  • Na geometria algébrica universal sobre uma variedade de álgebras, o grupo dos automorfismos da categoria de álgebras geradas finitamente livres desempenha um papel importante. Acontece que, para a ampla classe de variedades, um automorfismo da categoria de álgebras geradas finitamente livres pode ser decomposto no produto de um automorfismo interno e um automorfismo fortemente estável. O método de operações verbais fornece um mecanismo para calcular o grupo de automorfismos fortemente estáveis. No presente trabalho, lidamos com a variedade de álgebras associativas e comutativas com unidade sobre um campo infinito de característica zero. Observe que as álgebras geradas finitamente livres nesta variedade são exatamente álgebras de polinômios comutativos e associativos com unidade sobre um conjunto finito de variáveis. O objetivo principal desta tese é investigar os automorfismos da categoria de álgebras geradas finitamente livres nesta variedade. Em particular, aplicando o método de operações verbais, obtemos a descrição do grupo dos automorfismos fortemente estáveis da categoria em consideração.


  • Mostrar Abstract
  • In Universal Algebraic Geometry over a variety of algebras, the group of automorphisms of the category of free finitely generated algebras plays an important role. It turns out that for the wide class of varieties, an automorphism of the category of free finitely generated algebras can be decomposed to the product of an inner automorphism and a strongly stable automorphism. The method of verbal operations provides a machinery to calculate the group of strongly stable automorphisms. In the present work, we deal with the variety of associative and commutative algebras with unit over an infinite field of zero characteristic. Note that free finitely generated algebras in this variety are exactly algebras of commutative and associative polynomials with unit over a finite set of variables. The main goal of this thesis is to investigate automorphisms of the category of free finitely generated algebras in this variety. In particular, applying the method of verbal operations we get description of group of the strongly stable automorphisms of the category under consideration.

2
  • MATHEUS HENRIQUE TAVARES PINTO
  • Seleção de variáveis usando o algoritmo genético

  • Orientador : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBROS DA BANCA :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • FIDEL ERNESTO CASTRO MORALES
  • MANOEL FERREIRA DOS SANTOS NETO
  • Data: 18/02/2022

  • Mostrar Resumo
  • Muitos problemas práticos envolvendo modelos lineares em algum momento necessitam de uma redução do número de varíaveis envolvidas, seja pelo custo envolvido em se trabalhar com muitas variáveis, seja por que uma certa quantidade de variáveis já explica satisfatoriamente o problema abordado. Podemos citar entre outras técnicas a análise de componentes principais, a seleção do melhor subconjunto de variáveis, a seleção progressiva de variáveis, etc. Nesse trabalho apresentaremos como proceder a seleção de variáveis de um modelo linear utilizando o algoritmo genético elitista.


  • Mostrar Abstract
  •  Many practical problems involving linear models has a step that consists in reducing the number of variables of the model,  either  it is very expensive to deal with too many variables or because some of the variables are able to explain the response satisfactorily. We can cite among such methods of reducing the number of variables of a linear model, the principal component analysis, best subset selection, forward stepwise selection, etc. In this work, we present how to use the elitist genetic algorithm in order to select a collection of variables for a linear model.

3
  • JOSÉ ARLEN DE BRITO BRAZ
  • Existência de soluções para uma classe de sistemas do tipo Schrödinger-Poisson sem a condição de Ambrosetti-Rabinowitz

  • Orientador : DIEGO FERRAZ DE SOUZA
  • MEMBROS DA BANCA :
  • DIEGO FERRAZ DE SOUZA
  • ROMILDO NASCIMENTO DE LIMA
  • RONALDO CESAR DUARTE
  • Data: 29/04/2022

  • Mostrar Resumo
  • Neste trabalho estudamos a existência de soluções estacionárias para um problema envolvendo sistemas do tipo Schrödinger-Poisson. Estamos interessados em obter soluções de energia mínima usando a teoria de métodos variacionais aplicada às equações diferenciais parciais não lineares. As não linearidades presentes no nosso problema não satisfazem a condição de Ambrosetti-Rabinowitz o que torna a análise das sequências de Palais-Smale mais envolvente. Em particular, para alcançar nossos objetivos, será de fundamental importância o uso do Teorema do passo da montanha, o lema de Concentração de Compacidade e o método da variedade de Nehari.


  • Mostrar Abstract
  • In this work we study the existence of stationary solutions to a problem involving Schrödinger-Poisson type systems. We are interested in obtaining minimum energy solutions using the theory of variational methods applied to nonlinear partial differential equations. The nonlinearities present in our problem do not satisfy the Ambrosetti-Rabinowitz condition, which makes the analysis of Palais-Smale sequences more involved. In particular, to achieve our goals, it is of fundamental importance to use the Mountain Pass Theorem, the Compactness Concentration Lemma and the Nehari manifold method.

4
  • VICTOR RAFAEL SANTOS SILVA
  • Sobre a Teoria de Regularidade Elíptica via Análise da Equação de Helmholtz em RN

  • Orientador : DIEGO FERRAZ DE SOUZA
  • MEMBROS DA BANCA :
  • DIEGO FERRAZ DE SOUZA
  • JOSÉ CARLOS DE ALBUQUERQUE MELO JÚNIOR
  • RONALDO FREIRE DE LIMA
  • Data: 22/12/2022

  • Mostrar Resumo
  • Neste trabalho apresentamos um importante resultado de regularidade para a Equação de Helmholtz em domínios não limitados devido a C. A. Stuart e, além disso, mostramos que esse resultado pode ser usado também para regularizar soluções fracas de problemas elípticos não lineares em RN. Para alcançar nossos objetivos, será de vital importância o uso da Teoria das Funções Modificadas de Bessel, da Teoria de Calderón-Zygmund, o Teorema do Passo da Montanha e o Teorema de Schauder, assim como resultados básicos de Medida de Integração, Análise Complexa, Análise Funcional e a Teoria dos Espaços de Sobolev.


  • Mostrar Abstract
  • In this work we present an important regularity result for the Helmholtz Equation in unbounded domains due to C. A. Stuart and, furthermore, we show that this result can also be used to regularize weak solutions of nonlinear elliptic problems in RN. In order to achieve our goals, it will be of vital importance the use of Bessel’s Modified Function Theory, Calderón-Zygmund Theory, the Mountain Pass Theorem and Schauder’s Theorem, as well as basic results of Measure and Integration, Complex Analysis, Functional Analysis and the Theory of Sobolev Spaces.

2021
Dissertações
1
  • IRITAN FERREIRA DOS SANTOS
  • Bases Efetivas para Superbimódulos Metabelianos em Variedades de Álgebras não-Associativas

  • Orientador : ALEXEY KUZMIN
  • MEMBROS DA BANCA :
  • ALEXEY KUZMIN
  • ARKADY TSURKOV
  • ARTEM LOPATIN
  • ELENA ALADOVA
  • Data: 28/05/2021

  • Mostrar Resumo
  • O problema de descrição de uma base efetiva para uma álgebra A sobre um corpo F consta numa busca da base B do espaço vetorial A sobre F com um certo algoritmo de multiplicação de elementos de B que, consequentemente, pode ser aplicado para computar qualquer produto em A.

    Neste trabalho, desenvolvemos técnicas de busca de bases efetivas para U-superbimódulos de V-birepresentações livres, onde V percorre uma lista de variedades de álgebras próximas para associativas sobre um corpo F de característica diferente de 2 e U percorre o conjunto de todas V-superálgebras com a multiplicação nula.
    O estudo possui três níveis. Primeiramente, consideramos os casos de variedades V clássicas de álgebras alternativas (Alt), de Jordan (Jord) e de Malcev (Malc). Os resultados obtidos neste nível, sendo inéditos pela forma, de fato, acumulam as experiências dos exemplos já conhecidos na literatura sobre superálgebras metabelianas (solúveis de grau 2) e sobre as bases de subespaços de polinômios multilineares nas álgebras livres em Alt, Jord e Malc.
    No segundo nível, o estudo trata o caso da variedade de todas as álgebras Lie-admissíveis juntos com suas próprias subvariedades de álgebras flexíveis, anti-flexíveis e de álgebras com identidade do tipo Jacobiano para funções de associadores. Os Teoremas obtidos neste nível são resultados inéditos que descrevem explicitamente as bases de U-superbimódulos para superálgebras U com conjuntos arbitrários de geradores.
    No terceiro nível, aplicamos as técnicas desenvolvidas no trabalho para uma busca de bases completas de superálgebras livres em certas variedades próximas para associativas nilpotentes.
    Os resultados do trabalho podem ser aplicados em futuros estudos de problemas atuais em aberto relacionados às superálgebras livres.
     

  • Mostrar Abstract
  • The problem of the description of an effective base for some algebra A over a field F is to find a base B for the vector space A over F with a certain algorithm of multiplication of the elements from B that in consequence can be applied for computing any product in A. 
    In the present work, we develop some techniques of finding effective bases for U-superbimodules of free V-birepresentations, where V runs some list of varieties of nearly associative algebras over a field F of characteristic distinct from 2 and U runs the set of all V-superalgebras with null multiplication. 
    There are three levels of our study. First, we consider cases of classical varieties of alternative (Alt), Jordan (Jord), and Malcev (Malc) algebras. The results obtained at this level, having the form of new unpublished ones, in fact, accumulate the experience of certain known published examples of metabelian (two-step solvable) superalgebras and known bases for subspaces of multilinear polynomials in the free algebras of Alt, Jord, and Malc.
    At its second level, the study deals with the case of the variety of all Lie-admissible algebras together with its proper subvarieties of flexible algebras, antiflexible algebras, and the algebras with the identity of Jacobian type for the associator function. The Theorems obtained at this level are new unpublished results giving the explicit descriptions of bases for U-superbimodules with no restrictions on sets of generators for U.
    At the third level, we apply the techniques developed throughout the work for a finding of complete bases for the free superalgebras in certain nearly associative varieties that are also nearly nilpotent.
    The results of the work can be applied to further studies on open problems related to free superalgebras.
2
  • JOSE VICTOR GOMES TEIXEIRA
  • Alguns resultados sobre grupos de automorfismos externos das categorias de álgebras finitamente geradas nilpotentes livres

  • Orientador : ARKADY TSURKOV
  • MEMBROS DA BANCA :
  • ARKADY TSURKOV
  • ALEXEY KUZMIN
  • ELENA ALADOVA
  • EVGENY PLOTKIN
  • Data: 05/07/2021

  • Mostrar Resumo
  • Essa dissertação tem como objetivo o estudo do grupo $\mathfrak{A}/\mathfrak{Y\cong S/S\cap Y}$ para a categoria das álgebras livres finitamente geradas na variedade das álgebras lineares $n$-nilpotentes. Há uma conjectura de que, para cada $n$, tem-se $\mathfrak{A}/\mathfrak{Y\cong}k^{\ast}\rtimes Autk$. Essa conjectura foi provada no caso em que n=3,4,5. Nós tentamos provar essa conjectura para todo n. O problema não foi completamente resolvido, mas foram feitos progressos. A parametrização do grupo $\mathfrak{S}$ foi determinada, e a decomposição do grupo $\mathfrak{H}$ associada a essa parametrização foi provada. Foi desenvolvido um dos algoritmos necessários para provar que $\mathfrak{H}\leq $ $\mathfrak{Y}$. Depois desses progressos, o problema será resolvido. A resolução completa pode ser tópico de uma tese de doutorado. O estudo do grupo $\mathfrak{A}/\mathfrak{Y}$ para cada variedade é muito importante na área de Geometria Algébrica Universal, pois ele nos informa sobre possíveis diferenças entre equivalência geométrica e equivalência automórfica de álgebras da variedade.


  • Mostrar Abstract
  • This dissertation has as objective the study of the group $\mathfrak{A}/\mathfrak{Y\cong S/S\cap Y}$ for category of finitely generated free algebras in the variety of $n$-nilpotent linear algebras. There exists a conjecture that for every $n$ we have $\mathfrak{A}/\mathfrak{Y\cong }k^{\ast }\rtimes Autk$. This conjecture was proved for n=3,4,5. We tried to prove this conjecture for every n. The problem was not completely resolved, but some progress has been made. The parameterization of the group $\mathfrak{S}$ has been set. The decomposition of the group $\mathfrak{H}$ associated with this parameterization was proved. One of the algorithms has been developed that can prove that $\mathfrak{H}\leq $ $\mathfrak{Y}$. After this, problem will be resolved. Complete problem solving can be the topic of a doctoral dissertation. The study of the group $\mathfrak{A}/\mathfrak{Y}$ for every variety is very important in the area of Universal Algebraic Geometry, because this group gives us the possible differences between geometric and automorphic equivalence of algebras of this variety.

2020
Dissertações
1
  • ERIKA RAYANNE FERNANDES DA SILVA
  • Modelo de regressão beta modal

  • Orientador : FRANCISCO MOISES CANDIDO DE MEDEIROS
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • JEREMIAS DA SILVA LEÃO
  • MARCELO BOURGUIGNON PEREIRA
  • Data: 18/02/2020

  • Mostrar Resumo
  • A classe de modelos de regressão beta é usada para modelar variáveis respostas no intervalo

    (0, 1), como taxas e proporções. Ferrari e Cribari-Neto (2004) propuseram um modelo de
    regressão beta que incorpora covariáveis na média da distribuição utilizando uma função
    de ligação genérica. Entretanto, para estudos cuja variável resposta apresenta assimetria
    e/ou valores discrepantes, esse modelo pode não ser o mais adequado. Uma medida de
    tendência central mais apropriada neste tipo de situação é a moda da distribuição, devido a
    sua robustez com relação a valores discrepantes e sua fácil interpretação também em casos
    assimétricos. Zhou e Huang (2019) propuseram uma reparametrização para a distribuição
    beta em termos da moda e de um parâmetro de precisão. Assumindo essa distribuição
    para a variável resposta, Zhou e Huang (2019) propuseram um modelo de regressão para
    dados contínuos no intervalo unitário, visando ser mais robusto a outliers. Neste trabalho,
    realizamos um estudo mais aprofundado das propriedades e do desempenho desse modelo,
    bem como a comparação deste com o modelo proposto por Ferrari e Cribari-Neto (2004).
    Realizamos estudos de simulação para avaliar as estimativas de máxima verossimilhança
    em casos simétricos e assimétricos e a sensibilidade à outliers das estimativas quando são
    impostos alguns padrões de perturbação. Além disso, fizemos a proposição e a avaliação
    de três resíduos para esta classe de modelos. Nossos estudos de simulação sugerem que
    o modelo de regressão beta que considera a moda apresenta bom desempenho em dados
    simétricos e assimétricos e que, na maioria dos cenários, apresenta melhor desempenho
    na presença de outliers do que o modelo de regressão beta que considera a média. Por
    fim, apresentamos duas aplicações a conjuntos de dados reais, um retirado do censo 2010
    e outro proveniente do ENEM 2017, comparando o ajuste dos modelos de regressão beta

    para a média e para a moda.


  • Mostrar Abstract
  • The beta regression model is a class of models used for continuous response variables
    restricted to the interval (0,1), such as rates and proportions. Ferrari and Cribari-Neto
    (2004) proposed a beta regression model that incorporates covariates in the mean of the
    distribution using a generic link function. However, for studies which response variable
    has asymmetry and / or discrepant values, this model may not be the most appropriated.
    A more appropriated measure of central tendency in this kind of situation is the mode
    of distribution because of its robustness to outliers and its easy interpretation in cases of
    asymmetry. Zhou and Huang (2019) proposed a parametrization for the beta distribution
    in terms of the mode and a precision parameter. Assuming that the response variable
    follows this distribution, Zhou and Huang (2019) proposed a regression model for continuous
    data in the interval (0,1), in order to be more robust to outliers. In this work,
    we present a more complete study of this model properties and performance as well as
    a comparison between this model and the model proposed by Ferrari and Cribari-Neto
    (2004). We developed simulation studies to evaluate the maximum likelihood estimates in
    cases of asymmetry and the sensitivity to outliers when come perturbation patterns are
    imposed. Furthermore, we proposed and evaluated three residuals to this class of models.
    Our simulation studies suggest that the model developed to the mode has a good performance
    on symmetrical and asymmetrical data and in most scenarios it performs better
    in the presence of outliers than the beta regression model that considers the mean. In
    addition, we present two applications to real dataset and a t comparison of the models
    that consider the mean and the mode.

2
  • LUCAS DE OLIVEIRA FERREIRA DE SALES
  • Gráficos de controle para o monitoramento de dados simétricos e log-simétricos

  • Orientador : ANDRE LUIS SANTOS DE PINHO
  • MEMBROS DA BANCA :
  • ANDRE LUIS SANTOS DE PINHO
  • CARLA ALMEIDA VIVACQUA
  • LINDA LEE HO
  • Data: 19/02/2020

  • Mostrar Resumo
  • Desde a revolução industrial até os dias atuais existe uma grande necessidade do monitoramento das características de qualidade produzidas, visando obter boa qualidade do produto, bom funcionamento na linha de produção e uma produção rentável. Neste contexto, os gráficos de controle são as principais ferramentas utilizadas para o monitoramento de determinada característica de qualidade. Usualmente a característica monitorada é a média do processo e os gráficos comumente utilizados para tal monitoramento são: X de Shewhart, CUSUM e EWMA, que são baseados em duas suposições: independências entre as amostras monitoradas e que a variável monitorada siga distribuição normal. Porém, a quebra de alguma dessas suposições implica em um baixo desempenho do gráfico de controle. Visto isto, o presente trabalho apresenta um gráfico de controle, para o monitoramento da média, via método bootstrap para dados não necessariamente normais e que seguem distribuição pertencentes à classe simétrica. Além disso, será proposto um método computacional de monitoramento para a mediana (que em caso de dados assimétricos é mais informativa que a média) de dados pertencentes à classe log-simétrica, baseado na distribuição empírica de três novos estimadores para a mediana propostos por Balakrishnan et al. (2017). Adicionalmente, foram realizados estudos de simulações tanto para as ambas abordagens propostas, com a finalidade de avaliar o número médio de amostras até detecção de um alarme, seja ele verdadeiro ou falso, além de avaliar o comportamento dos limites de controle. Os resultados obtidos nas simulações foram comparados com as abordagens de monitoramento mais comuns utilizadas para cada situação e indicaram que ambos os métodos propostos, em detrimento aos métodos usuais para cada cenário, apresentam número médio de amostras até um alarme falso mais próximo ou igual aos valores nominais definidos. Já com relação ao poder de detecção, os métodos propostos apresentaram excelente desempenho, sendo equiparados aos métodos tradicionais, porém com a vantagem de apresentarem menor taxa de alarmes falsos. Por fim, para ilustrar a aplicabilidade dos métodos propostos, o trabalho apresenta uma aplicação em dados reais para cada uma das abordagens apresentadas.


  • Mostrar Abstract
  • Since the industrial revolution to the present day it is in the [UTF-8?]industry’s interest to monitor the quality of their products, aiming at good quality product, good operation on the production line and profitable production. In this context, control charts are the main tools used for monitoring a particular quality characteristic. Usually the monitored characteristic is the process mean and the most used control chart for such monitoring are: X of Shewhart, CUSUM and EWMA, which are based on two assumptions: independence between monitored samples and that monitored variable follow a normal distribution. However, breaking any of these assumptions implies in a poor control chart performance. Considering this, the present work propose a control chart, for the monitoring of the mean, based on the bootstrap method for non-normal data that follows a distribution that belong to the symmetric class of distributions. In addition, a monitoring method will be proposed for the median (which in case of asymmetric data is more informative than the mean) for data that belong to the log-symmetric class of distributions, based on the asymptotic distribution of three new median estimators proposed by Balakrishnan et al. (2017). Additionally, simulation studies were performed for the proposed control chart for monitoring the mean, in order to evaluate the in-control and the out-control average run length (ARL) and to evaluate the behavior of the control limits. For the conclusion of this work, a simulation study will be conducted to evaluate the in-control and the out-control ARL and to evaluate the behavior of the control limits for the proposed method of monitoring the median of the log-symmetric class. In addition, the work will be completed with an application for each of the two propose methods to illustrate their applicability in a real situation.

3
  • BISMARK GONÇALVES DO NASCIMENTO
  • Metrizabilidade de Topologias e Distâncias Generalizadas

  • Orientador : FAGNER LEMOS DE SANTANA
  • MEMBROS DA BANCA :
  • ANNAXSUEL ARAUJO DE LIMA
  • ELAINE GOUVEA PIMENTEL
  • FAGNER LEMOS DE SANTANA
  • MARIO OTAVIO SALLES
  • Data: 02/03/2020

  • Mostrar Resumo
  • Neste trabalho, apresentamos um estudo sobre a metrizabilidade de topologias apresen-
    tando condições necessárias para que uma topologia seja metrizável, ou seja, possa ser
    construída partindo-se de uma métrica através das chamadas bolas abertas. Além disso,
    vários exemplos interessantes de topologias são apresentados de modo a mostrar que vá-
    rias das condições apresentadas são apenas necessárias. Também é mencionado o teorema
    de Nagata-Smirnov-Bing, o qual apresenta condições necessárias e suficientes para que
    uma topologia seja metrizável. Além do mais, apresentamos uma generalização do con-
    ceito de métrica, a qual é chamada i-métrica V-valorada. Através dessa generalização são
    definidos os conceitos de i-quasi-métrica V-valorada, i-pseudométrica V-valorada e i-quasi-
    pseudométrica V-valorada e é provado que toda topologia é i-quasi-pseudometrizável. Com
    base na ideia de matemática intervalar é construída uma métrica intervalar que é um caso
    particular de i-métrica. Essa métrica intervalar também gera uma topologia e avaliamos
    se essa topologia é metrizável.


  • Mostrar Abstract
  • This paper presents a study on the metrizability of topologies presenting the necessary
    conditions for a topology to be metrizable, i.e., it can be constructed starting from a
    metric through the open balls. In addition, several interesting examples of topologies are
    presented to show that several conditions presented are only necessary. Moreover, the
    Nagata-Smirnov Bing theorem is also mentioned, which presents necessary and sufficient
    conditions for a topology to be metrizable. In addition, we present a generalization of
    the metric concept that also generates a topology and assess whether this topology is
    metrizable.

4
  • RUAN BARBOSA FERNANDES
  • Automorfismos da categoria de grupos livres finitamente gerados de uma subvariedade da variedade de todos os grupos

  • Orientador : ARKADY TSURKOV
  • MEMBROS DA BANCA :
  • EVGENY PLOTKIN
  • ALEXEY KUZMIN
  • ARKADY TSURKOV
  • ELENA ALADOVA
  • Data: 03/05/2020

  • Mostrar Resumo
  • Em geometria algébrica universal, a categoria das álgebras livres finitamente geradas de alguma variedade fixa  de álgebras e o grupo quociente A/Y são muito importantes. Aqui A é o grupo de todos os automorfismos da categoria  e Y é o grupo de todos os automorfismos internos de. Na variedade de todos os grupos, todos os grupos abelianos (PLOTKIN; ZHITOMIRSKI, 2006), todos os grupos nilpotentes de classe n (n >1) (TSURKOV, 2007) o grupo A/Y é trivial. B. Plotkin propôs a seguinte pergunta: "Existe uma subvariedade da variedade de todos os grupos tal que o grupo A/Y nessa subvariedade não seja trivial?" A. Tsurkov supôs que existe alguma variedade de grupos periódicos, tal que o grupo A/Y nessa variedade não é trivial. Neste trabalho, nós damos um exemplo de uma subvariedade deste tipo.


  • Mostrar Abstract
  • In universal algebraic geometry the category of the finite generated free algebras of some fixed variety of algebras and the quotient group A/Y are very important. Here A is a group of all automorphisms of the category and Y is a group of all inner automorphisms of this category. In the varieties of all the groups, all the abelian groups (PLOTKIN; ZHITOMIRSKI, 2006), all the nilpotent groups of the class no more then n (n>1) (TSURKOV, 2007b) the group A/Y is trivial. B. Plotkin posed a question: "Is there a subvariety of the variety of all the groups, such that the group A/Y in this subvariety is not trivial?" A. Tsurkov  hypothesized that exist some varieties of periodic groups, such that the groups A/Y in these varieties is not trivial. In this work we give an example of one subvariety of this kind.

5
  • MAYKEL ANDERSON SOUZA CARNEIRO DO NASCIMENTO
  • Existência e Multiplicidade de soluções positivas para uma classe de sistemas elípticos

  • Orientador : AILTON RODRIGUES DA SILVA
  • MEMBROS DA BANCA :
  • AILTON RODRIGUES DA SILVA
  • DIEGO FERRAZ DE SOUZA
  • ROMILDO NASCIMENTO DE LIMA
  • Data: 15/05/2020

  • Mostrar Resumo
  • Neste trabalho, mostraremos a existência e multiplicidade de soluções positivas para a seguinte classe de sistemas elípticos
    \begin{equation}
    \left\{\begin{array}{lll}
    & -\epsilon^{2}\Delta{u}+W(x)u=Q_{u}(u,v)  \text{ em } \mathbb{R}^N, \\
    & -\epsilon^{2}\Delta{v}+V(x)v=Q_{v}(u,v) \text{ em } \mathbb{R}^N, \\
    & u,v\in H^{1}(\mathbb{R}^N), u(x), v(x)>0 \text{ para todo } x\in \mathbb{R}^{N}, \end{array}\right.
    \tag{$S_\epsilon$}
    \end{equation}
    onde $\epsilon>0$ é um parâmetro, $N \geq 3,$ $W, V: \mathbb{R}^{N}\rightarrow \mathbb{R} $ são funções Hölder contínuas e $Q:\mathbb{R}^2\rightarrow \mathbb{R}$ é uma função de classe $C^{2}$ com crescimento subcrítico. As principais ferramentas utilizadas são os Métodos Variacionais, Método de Penalização, Princípio do Máximo e Categoria de Lusternik-Schnirelman.




  • Mostrar Abstract
  • In this work we will show the existence and multiplicity of positive solutions for the following  class of elliptic systems
    \begin{equation}
    \left\{\begin{array}{lll}
    -\epsilon^{2}\Delta{u}+W(x)u=Q_{u}(u,v)  \text{ em } \mathbb{R}^N \\
    -\epsilon^{2}\Delta{v}+V(x)v=Q_{v}(u,v) \text{ em } \mathbb{R}^N \\
    u,v\in H^{1}(\mathbb{R}^N), u(x), v(x)>0 \text{ para todo } x\in \mathbb{R}^N \end{array}\right.
    \tag{$S_{\epsilon}$}
    \end{equation}
    where $\epsilon>0$ is a parameter, $N \geq 3,$ $W, ~ V:\mathbb{R}^{N}\rightarrow \mathbb{R}$ are positive Hölder continuous functions and $Q:\mathbb{R}^2\rightarrow \mathbb{R}$ is a function of class $C^{2}$ with subcritical growth. The main tools used are Variational Methods, Penalization Method, Maximum Principle and Lusternik-Schnirelman Category.

6
  • EMERSON WENDLINGGER DANTAS SALES
  • Modalidades em Sistemas Ecumênicos

  • Orientador : ELAINE GOUVEA PIMENTEL
  • MEMBROS DA BANCA :
  • ELAINE GOUVEA PIMENTEL
  • FAGNER LEMOS DE SANTANA
  • CARLOS ALBERTO OLARTE VEGA
  • SONIA MARIN
  • LUIZ CARLOS DIAS PINHEIRO PEREIRA
  • Data: 27/10/2020

  • Mostrar Resumo
  • A discussão sobre como reunir os sistemas de Gentzen para lógica clássica e intuicionista em um único sistema unificado está de volta à tona. Recentemente, Prawitz e outros têm discutido os chamados Sistemas Ecumênicos, onde conectivos dessas lógicas podem coexistir em paz. No sistema de Prawitz, o lógico clássico e o lógico intuicionista compartilhariam o quantificador universal, conjunção, negação e a constante para o absurdo, mas cada um teria seu próprio quantificador existencial, disjunção e implicação, com significados diferentes. A ideia principal de Prawitz é que esses diferentes significados são dados por uma estrutura semântica que pode ser aceita por ambas as partes. Em um trabalho recente, um cálculo sequencial ecumênico e um sistema aninhado foram apresentados, e algumas propriedades de teoria da prova muito interessantes dos sistemas foram estabelecidas. Neste trabalho, a noção de verdade na Lógica Ecumênica de Prawitz será estendida, de forma a definir modalidades aléticas ecumênicas.

  • Mostrar Abstract
  • The discussion about how to put together Gentzen's systems for classical and intuitionistic logic in a single unified system is back in fashion. Indeed, recently Prawitz and others have been discussing the so-called Ecumenical Systems, where connectives from these logics can co-exist in peace. In Prawitz' system, the classical logician and the intuitionistic logician would share the universal quantifier, conjunction, negation, and the constant for the absurd, but they would each have their own existential quantifier, disjunction, and implication, with different meanings.
    Prawitz' main idea is that these different meanings are given by a semantical framework that can be accepted by both parties. In a recent work, an Ecumenical sequent calculus and a nested system were presented, and some very interesting proof theoretical properties of the systems were established.
    In this work the notion of truth in Prawitz Ecumenical Logic will be extended, so to define an Ecumenical alethic modalities.
2019
Dissertações
1
  • ROBERT WAGNER ROCHA DOS SANTOS
  • Existência de Soluções Multi-Bump para uma Classe de Problemas quasilineares

  • Orientador : AILTON RODRIGUES DA SILVA
  • MEMBROS DA BANCA :
  • AILTON RODRIGUES DA SILVA
  • DIEGO FERRAZ DE SOUZA
  • JOSÉ FERNANDO LEITE AIRES
  • Data: 31/05/2019

  • Mostrar Resumo
  • Neste trabalho, nosso objetivo é mostrar a existência de soluções não-negativas do tipo Multi-Bump para uma classe de problemas quasilineares em R^N. Tais problemas estão relacionados com a existência de ondas estacionárias de uma equação de Schrödinger não-linear. As equações de Schrödinger surgem de diversos fenômenos físicos, por exemplo, Física dos Plamas, Optica não-linear e Física da matéria condensada. As principais ferramentas utilizadas são os Métodos variacionais, Lema da Deformação, Teorema do Passo da Montanha, Método de Penalização e argumentos do tipo mini-max.


  • Mostrar Abstract
  • In this work, our objective is to show the existence of nonegative solutions of the Multi-Bump type for a class of quasilineares problems in R^N. Such problems are related with the existence of standing waves of a non-linear Schrödinger equation. Schrödinger's equations arise from several physical phenomena, for example, Plamma Physics, Nonlinear Optics, and Condensed Matter Physics. The main tools used are the Variational Methods, Deformation Lemma, Mountain Pass Theorem, Penalization Method and mini-max type arguments.

2
  • CLEANDERSON ROMUALDO FIDELIS
  • Resíduos em Modelos de Sobrevivência com Fração de Cura

  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • BRUNO MONTE DE CASTRO
  • MARIANA CORREIA DE ARAUJO
  • DIEGO IGNACIO GALLARDO MATELUNA
  • Data: 31/05/2019

  • Mostrar Resumo
  • Modelos de sobrevivência com fração de cura representam uma generalização dos modelos de
    sobrevivência clássicos, que permitem a ocorrência de uma fração de indivíduos curados na
    população estudada. Dois modelos paramétricos de sobrevivência com fração de cura
    bastante conhecidas são os modelos de mistura padrão e modelo de tempo de promoção.
    Após o ajuste de um modelo aos dados, é importante a validação dos pressupostos e a análise
    de resíduos é uma importante técnica com este propósito. Embora análise de resíduos seja
    amplamente utilizada para avaliar o ajuste de modelos de sobrevivência usuais, existem
    poucos estudos sobre o uso de resíduos para dados de sobrevivência com fração de cura. Este
    trabalho tem como objetivo estudar uma recente proposta da literatura que avalia, através de
    resíduos tipo Cox-Snell, o ajuste global em modelos de mistura padrão e estender esta
    proposta para modelos de tempo de promoção. Consideramos um estudo de simulação para
    avaliar o desempenho dos resíduos. Uma aplicação é considerada para ilustrar os
    procedimentos estudados.


  • Mostrar Abstract
  • Cure fraction survival models represent a generalization of classical survival models, which
    allow the occurrence of a fraction of cured individuals in the population studied. Two well-
    known parametric cure fraction survival models are the mixture cure models and the
    promotion time models. After the fit of a model to a dataset, it is important to validate the
    assumptions and the residuals analysis is an important technique for this purpose. Although
    residuals analysis is widely used to assess the fit of usual survival models, there are few
    residuals proposed for survival data with cure fraction. This work aims to study a recent
    proposal of the literature that evaluates, through Cox-Snell type residues, the global
    adjustment in mixture cure models and extend this proposal to promotion time model. We
    considered a simulation study to evaluate the performance of the proposed residuals. An
    application is considered to illustrate the procedures studied.

3
  • JOCENRIQUE CARLO DE OLIVEIRA RIOS FILHO
  • Modelagem Matemática e Simulação Numérica da Injeção de Partículas em Meios Porosos.

  • Orientador : SIDARTA ARAUJO DE LIMA
  • MEMBROS DA BANCA :
  • ADOLFO PUIME PIRES
  • ADRIANO DOS SANTOS
  • JÚLIO CESAR SANTOS NASCIMENTO
  • LUIZ CARLOS RADTKE
  • RENATHA BATISTA DOS SANTOS
  • SIDARTA ARAUJO DE LIMA
  • VIVIANE KLEIN
  • Data: 03/06/2019

  • Mostrar Resumo
  • Neste trabalho abordamos a problemática associada aos processos de movimento de fluidos, transporte, retenção e adsorção de partículas em meios porosos. Em particular, destacamos o fenômeno de filtração e adsorção que ocorre durante o processo de injeção de partículas em meios porosos. O objetivo principal do trabalho é deduzir uma modelagem matemática e computacional para o processo de filtração profunda e adsorção de partículas. Deduzido o modelo matemático baseado em equações diferenciais, soluções analíticas são obtidas considerando alguns casos particulares para o coeficiente de filtração e adsorção. Do ponto de vista computacional, utilizamos o método de volumes finitos de alta ordem Kurganov & Tadmor (KT), com o objetivo de obter soluções numéricas para a equação do transporte de partículas, e o método de Runge-Kutta para a equação da cinética de retenção. Em seguida, simulações numéricas são propostas para o processo de filtração possibilitando compreender a filtração profunda, bem como avaliar as propriedades ótimas do método de volumes finitos proposto. Finalmente, o modelo matemático e numéricos proposto aliado a uma técnica de otimização possibilita a quantificar os coeficientes efetivos do modelo matemático tomando como base perfis obtidos experimentalmente para as concentrações efluente e retida disponíveis na literatura.


  • Mostrar Abstract
  • In this work we present a problematic associated with fluid flow, transport and particle retention processes in porous media. In particular, we highlight the filtration and adsorption phenomena which occur during particle injection in porous media. This work main goal is to deduct a mathematical and computational modeling of deep bed filtration and particle adsorption. A mathematical model is obtained based on differential equations, and analytical solutions considering particular cases of the filtration coefficient are obtained. The high order finite volume scheme based on Kurganov & Tadmor (KT) method is proposed in order to obtain numerical solutions for the particle transport equation, and the Runge-Kutta method is used for the retention kinetics. Furthermore, numerical simulations for the filtration process are proposed making it possible to understand filtration, as well as evaluating the optimal properties of the proposed finite volume method. Finally, we use the proposed mathematical and numerical model along with an optimization technique to quantify the model’s effective coefficients based on effluent and retained particle concentrations profiles obtained experimentally.

4
  • RODRIGO MATHEUS ROCHA DE MEDEIROS
  • Um novo modelo de regressão para dados em Z

  • Orientador : MARCELO BOURGUIGNON PEREIRA
  • MEMBROS DA BANCA :
  • MARCELO BOURGUIGNON PEREIRA
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • SILVIA LOPES DE PAULA FERRARI
  • Data: 23/07/2019

  • Mostrar Resumo
  • Existem várias situações práticas nas quais é de interesse modelar eventos associados com variáveis que assumem valores discretos. Até o momento, as teorias que foram construídas e aperfeiçoadas para a análise de observações com esta natureza possuem ênfase na modelagem de dados discretos não-negativos. Entretanto, observações discretas que possam assumir qualquer valor no conjunto dos números inteiros Z = {... -2, -1, 0, 1, 2, ...} também podem ser encontradas em diferentes contextos. O objetivo principal desta dissertação consiste em propor uma nova parametrização para distribuição Laplace discreta assimétrica (KOZUBOWSKI; INUSAH, 2006), em termos da média e de um parâmetro de dispersão, e então definir um novo modelo de regressão capaz de modelar observações que assumem valores em Z com base nesta distribuição. Consideramos o estimador de máxima verossimilhança para a etapa de estimação dos parâmetros desconhecidos do modelo. Propomos métodos de diagnósticos para avaliar a qualidade do ajuste. Realizamos alguns estudos de simulação para verificar o desempenho dos estimadores, das estatísticas do teste e dos resíduos propostos. Por fim, aplicamos o modelo em dois conjuntos de dados reais.


  • Mostrar Abstract
  • There are several practical situations in which it is of interest to model events associated with discrete-valued variables. Until now, theories that have been constructed and refined to handling observations of this nature have an emphasis on modeling non-negative discrete data. Nevertheless, discrete observations that may assume any value on the set of integers Z = {... -2, -1, 0, 1, 2, ...}can also be found in different contexts. The main objective of this master thesis are to propose a new parameterization for the skew discrete Laplace distribution (KOZUBOWSKI; INUSAH, 2006), in terms of the mean and a dispersion parameter, and then define a new regression model able of modeling observations that assume values on Z based on this distribution. We consider the maximum likelihood estimator for the estimation of unknown model parameters. We propose diagnostic methods to evaluate the goodness of fit. We performed some simulation studies to verify the performance of the proposed estimators, test statistics and residuals. Finally, we apply the model to two real data sets.

5
  • RONALDO DIAS DOS SANTOS JUNIOR
  • Modelagem Computacional Multiescala do Transporte de Solutos Iônicos Bivalentes em Meios Porosos Carregados Eletricamente.

  • Orientador : SIDARTA ARAUJO DE LIMA
  • MEMBROS DA BANCA :
  • VIVIANE KLEIN
  • RENATHA BATISTA DOS SANTOS
  • SIDARTA ARAUJO DE LIMA
  • ADRIANO DOS SANTOS
  • LUIZ CARLOS RADTKE
  • IURY HIGOR AGUIAR DA IGREJA
  • Data: 02/08/2019

  • Mostrar Resumo
  • Neste trabalho apresentamos uma modelagem computacional multiescala do acoplamento eletroquímico em meios porosos carregados eletricamente. Para tanto, considerando a matriz sólida rígida e incompressível foi modelado a hidrodinâmica e o transporte de quatro solutos iônicos monovalentes e um soluto iônico bivalente. Na escala nanoscópica, a modelagem matemática foi obtida considerando teoria da camada dupla possibilitando obter a equação de Poisson-Boltzmann para quantificar o potencial elétrico, densidade de carga elétrica e adsorção eletroquímica.  A modelagem na microescala se deu considerando a equação de Stokes para hidrodinâmica e equações de Nernst-Planck para o transporte dos solutos iônicos. As equações nano/micro são deduzidas na escala macroscópica fazendo uso da teoria de homogeneização. De posse do modelo macroscópico com as respectivas equações microscópicas,  simulações numéricas são obtidas com o uso do método de elementos finitos multiescala possibilitando quantificar os parâmetros efetivos do modelo dados pelo tensor permeabilidade e campo vetorial para tortuosidade. Por fim, com os parâmetros efetivos obtidos, simulamos computacionalmente o modelo macroscópico para quatro microgeometrias bidimensionais em diferentes regimes de salinidade, pH e concentração do íon bivalente.


  • Mostrar Abstract
  • In this work we present a multiscale computational modeling of the electrochemical coupling in electrically charged porous media. For this, considering the rigid and incompressible solid matrix, hydrodynamics and the transport of monovalent ionic solutes were modeled. At the nanoscopic scale, mathematical modeling was obtained considering electrical double-layer theory to obtain the Poisson-Boltzmann equation to quantify electric potential, electric charge density and electrochemical adsorption. The modeling at the microscale was given considering the Stokes equation for hydrodynamics and Nernst-Planck equations for the transport of the ionic solutes. The nano/micro equations are deduced on the macroscopic scale using the homogenization theory. With the macroscopic model with the respective microscopic equations, numerical simulations are obtained using the finite element multiscale method to quantify the effective parameters of the model given by the tensor permeability and vector field for tortuosity.

6
  • ARTUR BRENO MEIRA SILVA
  • Existência de soluções positivas para uma classe de problemas elípticos em $\mathbb{R}^N$.

  • Orientador : AILTON RODRIGUES DA SILVA
  • MEMBROS DA BANCA :
  • AILTON RODRIGUES DA SILVA
  • DIEGO FERRAZ DE SOUZA
  • CLAUDIANOR OLIVEIRA ALVES
  • Data: 22/08/2019

  • Mostrar Resumo
  • Neste trabalho, estudamos a existência de soluções positivas para a seguinte classe de problemas:

    \begin{equation}\tag{$P_\varepsilon$}
    \left\{ \begin{array}{ll}
        -\varepsilon^{p} \Delta_p u + V(x)u^{p-1} = h(u), \ \text{ em \:} \R^N, \\
        u > 0  \text{\: em \:} \mathbb{R}^N, \ u \in W^{1,p} (\mathbb{R}^N),
    \end{array}
    \right.
    \end{equation}
    onde $\varepsilon > 0$ é um parâmetro positivo, $2 \leq p < N$, $\Delta_p u = \text{div}(|\Grad u|^{p-2} \Grad u)$ denota o operador p-Laplaciano, $\ h:\R \conv \R$ é uma função contínua verificando algumas condições e $V:\R^{N} \rightarrow \mathbb{R}$ é uma função de classe $C^2$ que pertence a duas classes de potenciais. O nosso estudo está dividido em duas partes: na primeira, mostramos os mesmos resultados obtidos por (Alves, 2015) para $p\geq 2$, estabelecendo a existência de solução positiva para o problema (\ref{P}) quando $h$ tem crescimento subcrítico; na segunda, mostramos a existência de solução positiva considerando $h$ com crescimento crítico. As principais ferramentas utilizadas são os Métodos Variacionais, Teorema do Passo da Montanha, Princípio de Concentração de Compacidade devido a Lions e o Método de Penalização de Del Pino e Felmer.

  • Mostrar Abstract
  • In this work, we study the existence of positive solutions for the following class of problems:

    \begin{equation}\tag{$P_\varepsilon$}
    \left\{ \begin{array}{ll}
        -\varepsilon^{p} \Delta_p u + V(x)u^{p-1} = h(u), \ \text{ em \:} \R^N, \\
        u > 0  \text{\: em \:} \mathbb{R}^N, \ u \in W^{1,p} (\mathbb{R}^N),
    \end{array}
    \right.
    \end{equation}
    where $\varepsilon > 0$ is a positive parameter, $2 \leq p<N $, $\Delta_p u = div(|\Grad u|^{p-2} \Grad u)$ denotes the p-Laplacian operator, $h: \R \to \R$ is a continuous function satisfying some conditions and $V: \R \to \R$ is a function of class $C^2$ which belongs to two classes of potentials. Our study is divided in two parts: firstly we show the same results obtained by (Alves, 2015) for $p \geq 2$, establishing the existence of positive solution for the \eqref{P} problem when $h$ has subcritical growth; in the second we show the existence of positive solution considering $h$ with critical growth. The main tools used are the Variational Methods, Mountain Pass Theorem, Lions' Concentration-Compactness Principle and del Pino and Felmer's Penalization Method.
7
  • JARAFE AUGUSTO ABDALA
  • CI-posets, Domínios e Espaços de Funções

  • Orientador : FAGNER LEMOS DE SANTANA
  • MEMBROS DA BANCA :
  • CARLOS ALBERTO OLARTE VEGA
  • CLAUDIO ANDRES CALLEJAS OLGUIN
  • ELAINE GOUVEA PIMENTEL
  • FAGNER LEMOS DE SANTANA
  • Data: 25/11/2019

  • Mostrar Resumo
  • Considera-se posets (conjuntos parcialmente ordenados) que não são necessariamente contínuos tais que os seus intervalos com a ordem induzida constituem, por sua vez, posets contínuos. Associando-se à topologia de Scott, esta classe de posets desempenha um papel muito importante quando o interesse é caracterizar, de certa forma, o espaço das funções contínuas. Neste trabalho, o estudo é focado nas três topologias de Scott hereditárias, nomeadamente, hereditária para baixo, hereditária para cima e fracamente hereditária para cima, procurando-se caracterizar o espaço das funções contínuas definidas de um espaço core compacto X em um poset P, este último equipado com uma topologia de Scott hereditária e satisfazendo outras condições.


  • Mostrar Abstract
  • Posets (partially ordered sets) that are not necessarily continuous but having intervals as continuous posets with induced order has been considered. That class of posets associated with the Scott topology plays an important role when the interest is to characterize in such a way the space of continuous functions. In this work the study is focused on three hereditary Scott topologies, namely lower hereditary, upper hereditary and weakly upper hereditary, seeking to characterize the space of continuous functions defined from a core compact space X to a poset P such that is equipped with a hereditary Scott topology and satisfying some additional conditions

8
  • TALITA VIVIANE SIQUEIRA DE BARROS
  • Dengue em Natal/RN: uma análise do período 2000-2016 via séries temporais

  • Orientador : CARLA ALMEIDA VIVACQUA
  • MEMBROS DA BANCA :
  • CARLA ALMEIDA VIVACQUA
  • MARCELO BOURGUIGNON PEREIRA
  • BERNARDO BORBA DE ANDRADE
  • Data: 29/11/2019

  • Mostrar Resumo
  • A dengue é uma doença infecciosa transmitida pelo mosquito Aedes aegypti. Este vetor transmite também a chikungunya, zika e febre amarela. Em 2019, a Organização Mundial de Saúde (OMS) estabeleceu o combate à dengue como uma das dez prioridades para esse ano. Estima-se que quase metade da população mundial está em risco de infecção pela dengue. Frente ao exposto, este trabalho tem o intuito de analisar dados de casos notificados de dengue entre os anos de 2000 e 2016, obtidos junto ao Centro de Controle de Zoonoses (CCZ) da cidade de Natal/RN, via séries temporais. Em Natal-RN desde 2000 ocorrem surtos de dengue, implicando na existência de possíveis observações atípicas (denotadas neste trabalho por outliers) na série histórica. Além disso, em 2015 ocorreu um surto de zika e por possuir sintomas semelhantes, casos podem ter sido notificados como dengue. Assim, busca-se uma modelagem que considera a informação de possíveis mudanças de comportamento e existência de outliers através da análise de intervenção. Foram utilizados também os métodos de suavização exponencial simples, de Holt e de Holt Winters, bem como o modelo ARIMAX com variáveis exógenas climáticas. Modelos são comparados utilizando a raiz do erro médio quadrático (rEMQ) e do erro absoluto médio (EAM) de previsões para as 37 primeiras semanas de 2017. O modelo GARCH foi utilizado para estimar a volatilidade da série.


  • Mostrar Abstract
  • Dengue fever is an infectious disease transmitted by the Aedes aegypti mosquito. This
    vector also transmits the chikungunya, zika and yellow fever. In 2019, the World Health
    Organization (WHO) has established the fight against dengue as one of the ten priorities
    for this year. It is estimated that almost half of the [WINDOWS-1252?]world’s population is at risk of dengue
    infection. Based on the above, this study aims to analyze data on reported cases of dengue
    fever between 2000 and 2016, obtained from the Center for Zoonoses Control (CCZ) in the
    city of Natal/RN, through time series. In Natal/RN since 2000 dengue outbreaks occur,
    implying the existence of possible atypical observations (denoted in this paper by outliers)
    in the historical series. In addition, an outbreak of zika occurred in 2015 and because of
    a similar symptoms, cases may have been reported as dengue. Therefore, we search for a
    model that considers information of possible pattern changes and existence of outliers by
    intervention analysis. The exponential smoothing methods simple, Holt and HoltWinters
    were also used, as well as the ARIMAX model with exogenous climatic variables. Models
    are compared using root mean square error (rMSE) and mean absolute error (MAE) of
    forecasts for the first 37 weeks of 2017. The GARCH model was used to estimate the
    volatility of the series.
2018
Dissertações
1
  • FIDEL HENRIQUE FERNANDES
  • Gráficos de Controle para o Monitoramento de Processos Autorregressivos de Valores Inteiros com Inflação ou Deflação de Zeros.

  • Orientador : MARCELO BOURGUIGNON PEREIRA
  • MEMBROS DA BANCA :
  • LINDA LEE HO
  • LUZ MILENA ZEA FERNANDEZ
  • MARCELO BOURGUIGNON PEREIRA
  • Data: 20/02/2018

  • Mostrar Resumo
  • A série temporal é uma coleção de observações medidas sequencialmente ao longo do tempo, sendo estudadas com profunda notoriedade nos últimos anos juntamente com o controle estatístico de processo. O presente trabalho objetiva estudar o desempenho dos gráficos de controle CUSUM e Shewhart na detecção de médias do processo com inflação ou deflação de zeros através do modelo autorregressivo de valores inteiros geométrico zero modificado de primeira ordem [ZMGINAR(1)]. Nesse sentido, analisa-se ainda a sensibilidade através de simulações, o número médio de amostras que excedem o limite de controle (NMA), além disso, novos estimadores foram propostos afim de verificar, através do estudo de Monte Carlo, o comportamento dos estimadores através do erro quadrático médio (EQM) e viés em diferentes cenários, os estimadores propostos se mostraram mais eficazes. No que concerne a simulação, os diferentes cenários apresentados com inflação e deflação de zeros, o CUSUM mostrou-se mais eficiente no cenário com deflação de zeros e o de Shewhart com inflação de zeros em determinados casos. Nessa instância, considerou-se duas aplicações, uma com inflação de zeros e outra com deflação de zeros. Assim como na simulação, o CUSUM é melhor no cenário com deflação de zeros e o Shewhart com inflação de zeros. O grande diferencial deste trabalho é a aparição da deflação de zeros modelada nos gráficos de controle, além disso o modelo a ser trabalhado possui distribuição marginal conhecida diferentemente de outros modelos, o que é uma vantagem na implementação e construção de novos estimadores, acrescido a isso, considera-se ainda as estimativas dos parâmetros por diversos métodos: Máxima Verossimilhança, Yule-Walker e o estimador baseado em Probabilidade. 


  • Mostrar Abstract
  • The time series is a collection of observations sequentially measured over time, being studied with great notoriety in recent years along with statistical process control. The present work aims to study the performance of the CUSUM and Shewhart control charts in the detection of averages of processes with inflation or deflation of zeros through the zero-modified geometric firs-order integer-valued autorregressive process [ZMGINAR(1)]. In this sense, it is also analyzed the sensitivity through simulations, average number of samples exceeding the control limit (ARL), in addition, new estimators were proposed in order to verify, through the Monte Carlo study, the behavior of the estimators through the mean square errors (MSE) and bias in different scenarios, the proposed estimators proved to be more effective. As for the simulation, the different scenarios presented with inflation and deflation of zeros, the CUSUM was more efficient in the scenario with zero deflation and Shewhart with zero inflation in certain cases. In this instance, two applications were considered, one with inflation of zeros and the other with deflation of zeros. Just as in the simulation, CUSUM is best in the zero deflation scenario and the Shewhart with zero inflation. The great differential of this work, is the appearance of deflation of zeros modeled in the control charts, in addition the model to be worked has a known marginal distribution unlike other models, which is an advantage in Implementation and construction of new estimators, in addition to this, it is still considered the parameter estimates by several methods: maximum likelihood, Yule-Walker and probabilit based estimator. 

2
  • RENATO SANTOS DA SILVA
  • Abordagem Bayesiana para distribuição das r-maiores estatísticas de ordem (GEVr) com estrutura de modelos dinâmicos

  • Orientador : FERNANDO FERRAZ DO NASCIMENTO
  • MEMBROS DA BANCA :
  • FERNANDO FERRAZ DO NASCIMENTO
  • FIDEL ERNESTO CASTRO MORALES
  • HÉLIO DOS SANTOS MIGON
  • Data: 23/02/2018

  • Mostrar Resumo
  • Em séries temporais é estudado uma coleção de observações feitas sequencialmente ao
    longo do tempo. Este tipo de alteração é comum para dados aplicados na teoria dos
    valores extremos (TVE) . Em dados ambientais, por exemplo, em chuva, vento e temperatura,
    seus níveis podem estar correlacionados com a sazonalidade, além de apresentar
    uma tendência de aumento ao longo dos anos, devido a mudanças climáticas no planeta.
    Geralmente, este tipo de evento foi trabalhado usando distribuições paramétricas padrão
    como a Normal ou Gama, veja em Camargo et al. (1994). Entretanto, os dados ambientais,
    na maioria dos casos, têm uma cauda pesada, ao contrário dessas distribuições. Em algumas
    situações analisar apenas a distribuição de valores extremos generalizada (GEV) de
    um conjunto de dados pode fornecer poucas observações, nestes casos é mais interessante
    usar a distribuição das r-maiores estatísticas de ordem (GEVr) . Este trabalho consiste
    no desenvolvimento de um algoritmo no Software R, para distribuições posterioris, para
    GEVr com base na estimativa bayesiana usando cadeias de Markov MCMC e o uso da
    técnica do algoritmo de Metropolis-Hastings. Também foi introduzido um Modelo Linear
    Dinâmico (DLM) , que é uma classe geral de modelos de séries temporais, para modelar
    os parâmetros da GEVr ao longo do tempo. O modelo proposto foi aplicado na série temporal
    da temperatura em ºC de Teresina-PI e no retorno da BOVESPA, com a finalidade
    de modelar a sazonalidade da temperatura na capital piauiense e dos níveis de retorno,
    também foi incorporado um Modelo Linear Dinâmico Sazonal (DLMS), que é uma classe
    de modelos de séries temporais para modelar os parâmetros da GEVr ao longo do tempo.
    O modelo proposto foi aplicado na série temporal da temperatura em ºC de Teresina-PI,
    Curitiba-PR e Brasília-DF.


  • Mostrar Abstract
  • In series a collection of observations made sequentially over time. This type of change is
    Common for data applied in the theory of extreme values (EVT). In environmental data,
    for example, in rain, wind and temperature, Their levels may be correlated with seasonality,
    in addition to showing a tendency to increase over the Due to climate change on
    the planet. Generally, this type of event has been worked on Using standard parametric
    distributions such as Normal or Gamma, look at Camargo et al. (1994). However, environmental
    data, in most cases Cases have a heavy tail, unlike these distributions. In some
    situations (EVT) Analyzing only the generalized extreme value distribution (GEV) of a
    set of data can provide few Observations, in these cases it is more interesting to use the
    distribution of r-largest order statistics (GEVr). This work consists of the development
    of an algorithm in Software R for posterior distributions for GEVr based on the Bayesian
    estimation using Markov chains (MCMC) and the use of the Metropolis-Hastings
    algorithm technique. A Dynamic Linear Model (DLM), which is a general class of time
    series models, has also been introduced to model the GEVr parameters over time. The
    proposed model was applied in the time series of the temperature in ºC Teresina-PI and
    return BOVESPA , in order to follow the seasonality of the temperature in the capital
    of Piauí and level return BOVESPA, also incorporated was a Linear Dynamic Seasonal
    Model (DLMS), which is a class of time series models, for the GEVr parameter model over
    time. The proposed model was applied in the time series of temperature of ºC Teresina-PI,
    Curitiba-PR and Brasília-DF.
3
  • JOSENILDO SIMOES DA SILVA
  • Equivalência Geométrica e Equivalência Geométrica de Tipo de Ação de Representações de Grupos.

  • Orientador : ARKADY TSURKOV
  • MEMBROS DA BANCA :
  • ARKADY TSURKOV
  • ELENA ALADOVA
  • MIKHAILO DOKUCHAEV
  • Data: 22/03/2018

  • Mostrar Resumo
  • No presente trabalho, veremos a definição de equivalência geométrica entre álgebras universais (e especialmente, para grupos), a então aplicar esse conceito a elementos na variedade de todas as representações de grupos sobre um corpo fixo. Nesse espaço, consideramos pares de conjuntos de equações em representações livres (XKF(Y ); F(Y )), onde X e Y são finitos. Depois, veremos outro tipo de equivalência geométrica: a equivalência geométrica de tipo de ação, cuja definição é muito similar à usual, mas nesse caso consideramos apenas subconjuntos XKF(Y ) na representação livre (XKF(Y ); F(Y )), para X e Y - finitos. Aqui, temos dois objetivos principais: o primeiro é estudar os diferentes casos de equivalência geométrica e o segundo é mostrar um exemplo que prova que não podemos concluir a equivalência geométrica entre duas representações a partir de sua equivalência geométrica de tipo de ação e a equivalência geométrica de seus grupos.


  • Mostrar Abstract
  • In the present work, we will see the defnition of geometrical equivalence between universal algebras (and specially, for groups), and so apply that concept to elements in the variety of all representations of groups over a fixed field. In that space, we consider pairs of equations in free representations (XKF(Y ); F(Y )), where X and Y are finite. After that, we will see another kind of geometrical equivalence: the action type geometrical equivalence, whose definition is very similar to the usual one, but in this case we consider only subsets of XKF(Y ) in the free representation (XKF(Y ); F(Y )), for finite X and Y. Here, we have two main objectives: the first is to study the different cases of geometrical equivalence and the second is to show an example which proves that we can not conclude the geometrical equivalence between two representations from their action type geometrical equivalence and the geometrical equivalence of their groups.

4
  • WASHINGTON CAVALCANTE DA SILVA
  • Especificação e Verificação de Protocolos de Votação em Lógica Linear com Focusing
  • Orientador : CARLOS ALBERTO OLARTE VEGA
  • MEMBROS DA BANCA :
  • CARLOS ALBERTO OLARTE VEGA
  • ELAINE GOUVEA PIMENTEL
  • GISELLE MACHADO NOGUEIRA REIS
  • Data: 28/05/2018

  • Mostrar Resumo
  • A lógica linear (LL) tem se consolidado como um bom arcabouço para especificar sistemas computacionais, uma vez que fórmulas podem ser interpretadas como recursos que podem ser consumidos e/ou produzidos. Além disso, do ponto de vista da Teoria da Prova, a LL reconcilia o aspecto construtivo da lógica intuicionista com a simetria da lógica clássica. Desta maneira, é possível, de uma forma mais flexível, modelar estados de um sistema como fórmulas lógicas, e as transições entre esses estados como etapas na construção de uma prova. No entanto, a busca por provas, em geral, não é determinística, pois existem diferentes maneiras de se provar a mesma proposição. Visando reduzir esse problema, um sistema de provas focado pode ser utilizado nesse processo de busca. A grosso modo, um sistema focado considera provas em forma normal, reduzindo assim as ocorrências de provas não essenciais que são sintaticamente diferentes, mas equivalentes no final do processo. Neste trabalho, é apresentada a prova da completude de um sistema focado para a LL, bem como outras propriedades essenciais desse sistema. Além disso, o sistema focado será utilizado para especificar e verificar protocolos de votação, que definem como deve ser escolhido um candidato, feita uma contagem de votos, e divulgado o resultado de uma eleição. Para que isso seja possível, dois protocolos de votação serão especificados formalmente utilizando sistemas de transição de estados, que modelam de forma natural os estados e comportamento de tais protocolos. Junto a isso, para cada sistema, uma especificação em LL será definida e demonstrada que é correta, ou seja, que um passo focado representa uma determinada transição no sistema de estados modelado. Por fim, propriedades inerentes aos protocolos de votação, como a garantia de que o resultado da eleição reflete o desejo dos eleitores, serão apresentadas e demonstradas através de derivações no sistema focado.

  • Mostrar Abstract
  • Linear logic (LL) allows us to specify computational systems more accurately than traditional logics. This is mainly due to the fact that formulas are seen as resources that can be consumed and produced during a proof. From the point of view of Proof Theory, LL reconciles the constructive aspect of intuitionistic logic with the symmetry of rules in classical logic. Hence, LL offers a more flexible way to model states of a system as well as transitions among those states. We note that the proof search procedure is inherently non-deterministic since there are different ways of proving the same proposition. In order to tame this problem, focused systems have been proposed aiming at reducing the number of choices during the proof search procedure. Roughly, a focused system considers  normal form proofs, thus eliminating the occurrences of nonessential proofs that are syntactically different but equivalent. In this work, we prove the completeness of a focused system for LL as well as some other essential properties of this system. In addition, we use the focused system for specifying and verifying voting protocols. Such systems define how a candidate is chosen by tallying votes and computing the final result of an election. We formally specify two voting protocols using transition systems, which naturally model the states and behavior of such protocols. For each system, an encoding in LL is defined and we show that our specification is correct: a focused step corresponds exactly to a transition in the modeled system. Finally, we verify important properties of the voting protocols such as the fact that the system ensures that the election result reflects the voters' desire.
5
  • JOYCE BEZERRA ROCHA
  •  Modelos log-simétricos com fração de cura

     

  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • MARIANA CORREIA DE ARAUJO
  • MICHELLI KARINNE BARROS DA SILVA
  • Data: 29/05/2018

  • Mostrar Resumo
  • Os modelos de longa duração são de grande interesse na modelagem estatística que envolve dados referentes ao tempo até a ocorrência de um determinado evento, em que uma parcela da população é imune a esse evento. Para estes modelos, também conhecidos com modelos de sobrevivência com fração de cura, existem na literatura diversas propostas para a modelagem com abordagem paramétrica. Este trabalho tem como objetivo propor e estudar propriedades do modelo de longa duração considerando que a distribuição de probabilidade para modelar os tempos dos indivíduos susceptíveis segue algum modelo da classe log-simétrica de distribuições. Esta classe de distribuições é caracterizada por distribuições contínuas, estritamente positivas e assimétricas incluindo distribuições como, por exemplo, log-t-Student, log-logística I, log-logística II,log-normal-contaminada, log-exponencial-potência e log-slash, entre outras. A classe log-simétrica é bastante flexível para incluir distribuições bimodais e comportar outliers. Neste modelo, chamado aqui de modelo log-simétrico com fração de cura, as variáveis explicativas são incluídas no parâmetro associado à fração de cura. Avaliamos o desempenho do modelo proposto por meio de amplos estudos de simulação e finalmente, consideramos uma aplicação a dados reais em um estudo que busca identificar fatores que influenciam na imunidade a reações hansênicas de pacientes portadores de hanseníase.


  • Mostrar Abstract
  • Long-term models are of great interest in statistical modeling that involves time-to-event data in which a fraction of the population is immune to this event. For these models, also known as cure fraction models, there are in the literature several proposals considering  parametric aproach. We  propose and study properties of the long-term model considering that the  distributions of lifetimes of the susceptible individuals belongs to the log-symmetric class of distributions. This class is characterized by continuous, strictly positive and asymmetric distributions including distributions such as log-t-Student, log-logistic I, log-logistic II, log-normal-contaminated, log-exponential-power and log-slash, among others. The log-symmetric class is quite flexible to include bimodal distributions and behave outliers. In this model, here called the log-symmetric model with cure rate, the explanatory variables are included through the parameter associated with the cure fraction. We evaluate the performance of the proposed model through  extensive simulation studies and consider a application the fit of this model to a real data in a study to identify factors influencing the immunity to leprosy reactions in patients with leprosy.

    Long-term models are of great interest in statistical modeling that involves time-to-event data in which a fraction of the population is immune to this event. For these models, also known as cure fraction models, there are in the literature several proposals considering  parametric aproach. We  propose and study properties of the long-term model considering that the  distributions of lifetimes of the susceptible individuals belongs to the log-symmetric class of distributions. This class is characterized by continuous, strictly positive and asymmetric distributions including distributions such as log-t-Student, log-logistic I, log-logistic II, log-normal-contaminated, log-exponential-power and log-slash, among others. The log-symmetric class is quite flexible to include bimodal distributions and behave outliers. In this model, here called the log-symmetric model with cure rate, the explanatory variables are included through the parameter associated with the cure fraction. We evaluate the performance of the proposed model through  extensive simulation studies and consider a application the fit of this model to a real data in a study to identify factors influencing the immunity to leprosy reactions in patients with leprosy.

     

     

6
  • FRANCISCO FELIPE DE QUEIROZ
  • O modelo de regressão GJS inflacionado em zero ou um

  • Orientador : ARTUR JOSE LEMONTE
  • MEMBROS DA BANCA :
  • ARTUR JOSE LEMONTE
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • SILVIA LOPES DE PAULA FERRARI
  • Data: 31/07/2018

  • Mostrar Resumo
  • Em uma ampla variedade de problemas envolvendo taxas, frações e proporções, a variável de interesse pode assumir não apenas valores no intervalo (0, 1) como, também, os valores zero ou um. Nessas situações, o modelo de regressão beta, que é uma alternativa para modelagem de dados no intervalo (0, 1), não é adequado, já que a variável resposta é discreta nos pontos zero e/ou um, e contínua no intervalo (0, 1). O modelo de regressão beta inflacionado de zero ou um pode ser utilizado nestes casos. Este trabalho tem como objetivo desenvolver uma alternativa ao modelo de regressão beta inflacionado para análise de taxas e proporções na presença de zeros ou uns. O modelo de regressão proposto é baseado na distribuição GJS (LEMONTE; BAZÁN, 2016). Apresentamos a distribuição GJS inflacionada de zero ou um, seu respectivo modelo de regressão e abordamos aspectos inferenciais para a estimação dos parâmetros do modelo. Além disso, avaliamos o desempenho dos estimadores através de simulações Monte Carlo. Adicionalmente, propomos resíduos para o modelo de regressão GJS inflacionado e aplicamos a técnica de influência local baseada na curvatura normal conforma para identificar possíveis pontos influentes. Ilustramos a metodologia desenvolvida mediante duas aplicações a conjuntos de dados reais.

  • Mostrar Abstract
  • Beta regression models are useful for modeling random variables that assume values in the standard unit interval, such as rates and proportions. Such models cannot be used when the data contain zeros and/or ones. The main aim of this work is to propose a mixed continuous-discrete distribution to model data observed on the intervals [0, 1) or (0, 1] and its associated regression model. The GJS distribution is used to describe the continuous component of the model. The parameters of the mixture distribution are modelled as functions of regression parameters. We study the performance of the maximum likelihood estimators through Monte Carlo simulations. Also, we define a residual for the proposed regression model to assess departures from model assumptions as well as to detect outlying observations, and discuss some influence methods such as the local influence. Finally, applications to real data are presented to show the usefulness of the new regression model. 
7
  • JOSENILDO LOPES DA SILVA
  • Bidualização de Espaços Afim

  • Orientador : MARIO OTAVIO SALLES
  • MEMBROS DA BANCA :
  • ALEXEY KUZMIN
  • LEANDRO GUSTAVO GOMES
  • MARIO OTAVIO SALLES
  • Data: 30/08/2018

  • Mostrar Resumo
  • Principais ideias sobre o espaço afim são apresentadas. Seja A um espaço afim modelado em um espaço vetorial V, e seja A= Aff (A,IR) o dual estendido de A, isto é, o espaço vetorial de todos as aplicações afins de A para a reta real. Sabe-se que no caso de um espaço vetorial V, o bidual V** é canonicamente isomorfo a V. Consideramos o bidual vetorial (A)* de A e mostramos como o espaço afim A esta imerso no seu bidual vetorial. 


  • Mostrar Abstract
  • Main ideas on affine space are presented. Let A be an affine space modelled on a vector space V , and let A=Aff(A,IR) be the extended dual of A, that is, the vector space of all affine maps from A to the real line. It is well known that in the case of a vector space V , the bidual V** is isomorphic to V. We consider the vector bidual (A)* of A and includes the affine space A into its vector bidual. 

8
  • JUSCELINO PEREIRA DE ARAUJO
  • Análise da Taxa de Convergência da Regra de Classificação dos k-Vizinhos Mais Próximos

  • Orientador : ROBERTO TEODORO GURGEL DE OLIVEIRA
  • MEMBROS DA BANCA :
  • ROBERTO TEODORO GURGEL DE OLIVEIRA
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • ALLAN DE MEDEIROS MARTINS
  • ALEXANDRE DE BUSTAMANTE SIMAS
  • Data: 05/10/2018

  • Mostrar Resumo
  • O objetivo principal do trabalho é analisar a velocidade de convergência da Regra de Classificação dos k-Vizinhos Mais Próximos (kNN). Assim, o problema da classificação binária é abordado. Os principais resultados teóricos são desenvolvidos, sobretudo o Teorema de Stone, que garante a consistência universal de regras de classificação com determinadas propriedades. Especificamente a regra kNN é analisada, principalmente sua consistência
    universal. Em seguida, condições restritivas que permitam a obtenção de taxas uniformes de convergência para uma família de distribuições são estudadas. Por fim, sob as mencionadas condições restritivas, a ordem de grandeza da taxa de convergência da regra kNN é obtida de modo a descartar a necessidade de que o espaço das observações seja limitado.

  • Mostrar Abstract
  • The main objective of this work is to analyze the velocity of convergence of k-Nearest Neighbor (kNN) classification rule. Thus the binary classification problem is approached. The main theoretical results are developed, overall Stone Theorem, which guarantees the universal consistency of classification rules with some properties. Specifically the kNN rule is analyzed, mainly its universal consistency. Then restrictive conditions which allow uniform rates of convergence for a family of distributions are presented. Finally, under the mentioned restrictive conditions the order of magnitude of rate of convergence of kNN rule is obtained such that it cross out the need of a bounded space of observations.
     
9
  • JOÃO FREIRE DANTAS NETO
  • De relações a vizinhanças: um entendimento sobre não-normalidade modal

  • Orientador : ELAINE GOUVEA PIMENTEL
  • MEMBROS DA BANCA :
  • ELAINE GOUVEA PIMENTEL
  • SAMIR BEZERRA GORSKY
  • MARIO ROBERTO FOLHADELA BENEVIDES
  • Data: 18/10/2018

  • Mostrar Resumo
  • A busca por estruturas matemáticas que representem comportamentos de determinadas lógicas é importante para um melhor entendimento dessas lógicas. Ao modicarmos essas lógicas acrescentando modalidades, precisamos de outras estruturas para representa- las, como estruturas relacionais para lógica modal normal. Quando trabalhamos com lógicas modais não-normais, as estruturas de vizinhança conseguem representar a parcela dessas lógicas, as lógicas modais clássicas. Neste trabalho, estudamos como se dá a construção de estruturas de vizinhança para algumas lógicas modais não-normais, com o objetivo relacionar estruturas semânticas e sistemas de provas, buscando entender sistemas de provas que internalizam linguagem semântica.


  • Mostrar Abstract
  • The search for mathematical structures to represent some logics is important for a better understanding of these logics. When we use modalities to generate other logics we need other structures to represent them, as relational frames for normal modal logics. In the case of non-normal modalities, we need neighborhood frames to represent classical modal logics. In this work, we investigate neighborhood frames for non-normal modal logics, with the goal to relate frame semantics with proof systems. Moreover we aim to understand proof systems with semantic language internalized.
     
2017
Dissertações
1
  • WANDERSON LAERTE DE OLIVEIRA CARVALHO
  • Estudo de Parâmetros Ótimos em Algoritmos Genéticos Elitistas

  • Orientador : ROBERTO TEODORO GURGEL DE OLIVEIRA
  • MEMBROS DA BANCA :
  • ROBERTO TEODORO GURGEL DE OLIVEIRA
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • RAFAEL BESERRA GOMES
  • GISLENE MICARLA BORGES DE LIMA
  • Data: 09/02/2017

  • Mostrar Resumo
  • O algoritmo genético é um processo iterativo de busca, utilizado para encontrar
    o máximo global no domı́nio de funções não convencionais. Esse algoritmo se baseia
    em fundamentos naturalistas, evoluindo uma amostra de candidatos a máximo global
    a cada iteração. Essa evolução é consequência de três operadores (Seleção, Mutação
    e Cruzamento) que vasculham o domı́nio da função e ao mesmo tempo selecionam os
    melhores candidatos obtidos. Nesse estudo, apresentaremos uma cadeia de Markov
    que modela a evolução desse algoritmo, e demonstraremos algumas propriedades dessa
    cadeia que justificam a convergência do algoritmo. Realizaremos uma simulação para
    modelar o efeito da parametrização do algoritmo em sua velocidade de convergência,
    estimada pelo número de iterações até obtenção do máximo global. Nessas simulações
    observaremos esse efeito em funções: unidimensionais, bidimensionais, com um único
    máximo local (o máximo global) e com vários máximos locais. Finalmente, esse tra-
    balho apresenta resultados que questionam a relevância do operador cruzamento nas
    funções estudadas e argumentos para acreditar que o operador mutação otimiza a ve-
    locidade de convergência do algoritmo quando ocorre com probabilidade de mutação
    próxima a 0, 2).


  • Mostrar Abstract
  • The genetic algorithm is a search process used to find the global maximum of
    functions. This algorithm rests on naturalistic firmaments that evaluate a sample of
    global maximum candidates in each iteration. This evolution is consequence of three
    operators (Selection, Mutation and Crossover) exploiting the domain of the function
    at the same time that select the best candidates found. In this study we will show
    a Markov chain to fit this algorithm’s evolution. We will simulate a model to fit
    the effect of this algorithm’s parametrization in its hate of convergence, estimated by
    the number of iterations until the global maximum is reached. In the simulations we
    observed this effect at functions such as: unidimensional, bidimensional, with only one
    local maximum (the global one) and with many local maxima. Finally, this work shows
    results that put in question the crossover operator’s relevance in the studied functions
    and arguments to believe that the mutation and crossover operators, that makes the
    convergence’s hate optimum, depend on the function.

2
  • BRUNO FRANCISCO XAVIER
  • Formalização da Lógica Linear em Coq
  • Orientador : CARLOS ALBERTO OLARTE VEGA
  • MEMBROS DA BANCA :
  • CARLOS ALBERTO OLARTE VEGA
  • ELAINE GOUVEA PIMENTEL
  • MÁRIO SÉRGIO FERREIRA ALVIM
  • Data: 15/02/2017

  • Mostrar Resumo
  • Em teoria da prova, o teorema da eliminação do corte (ou Hauptsatz, que significa resultado principal) é de suma importância, uma vez que, em geral, implica a consistência e a propriedade subfórmula para um dado sistema. Ele assinala que qualquer prova em cálculo de sequentes que faz uso da regra do corte pode ser substituída por outra que não a utiliza. A prova procede por indução na ordem lexicográfica (peso da fórmula, altura do corte) e gera múltiplos casos quando a fórmula de corte é ou não principal. De forma geral, deve-se considerar a última regra aplicada nas duas premissas imediatamente depois de aplicar a regra do corte, o que gera um número considerável de situações. Por essa razão, a demonstração poderia ser propensa a erros na hipótese de recorremos a uma prova informal. A lógica linear (LL) é uma das lógicas subestruturais mais significativas que pode ser considerada um refinamento das lógicas clássica e intuicionista e o teorema da eliminação do corte é válido para ela. Sendo uma lógica sensível ao uso de recursos, LL tem sido amplamente utilizada na especificação e verificação de sistemas computacionais. À vista disso, se torna relevante sua abordagem neste trabalho. Nesta dissertação, formalizamos, em Coq, três cálculos de sequentes para a lógica linear e provamos que são equivalentes. Além disso, provamos metateoremas tais como admissibilidade da regra do corte, generalização das regras para axioma inicial, bang e copy e invertibilidade das regras para os conectivos par, bottom, with e quest. Com relação à invertibilidade, a demonstração foi elaborada de duas maneiras: 1) por indução sobre a altura da derivação e 2) utilizando a regra do corte. A diferença das duas provas mostra que, em um sistema que satisfaz Hauptsatz, a regra do corte simplifica bastante as provas em seu cálculo de sequentes. Finalmente, com a finalidade de atenuar o número dos diversos casos, neste trabalho desenvolvemos várias táticas em Coq que nos permitiram automatizar parte das provas.

  • Mostrar Abstract
  • In proof theory, the cut-elimination theorem (or Hauptsatz, which means main result) is of paramount importance since it implies the consistency and the subformula property for the given system. This theorem states that for any sequent that has a proof using the cut rule, it is possible to find a cut-free  proof for the same sequent. The proof of cut-elimination proceeds by induction on the lexicographical order (formula weight, cut height) and generates multiple cases, considering for instance, when the cut-formula is or not  principal. In general, one must consider the last rule applied in the two premises immediately after applying the cut rule (seeing the proof bottom-up). This generates a considerable amount of cases and then, the demonstration of this theorem could be error prone if we use an informal proof. Linear Logic (LL) is one of the most significant substructural logics and it allows for cut-free sequent calculi. LL is a resource sensible logic and has been widely used in the specification and verification of computer systems. In view of this, it becomes relevant the study of this logic in this work. In this dissertation we formalize three sequent calculi for linear logic in Coq and prove all of them to be equivalent. Additionally, we formalize meta-theorems such as admissibility of cut, generalization of initial rule, bang and copy and invertibility of the rules for the connectives par, bottom, with and quest. Regarding the invertibility, we demonstrate this theorem in two different ways: a version by induction on the height of the derivation and by using the cut rule. This allows us to show how the cut rule greatly simplifies the proofs in the sequent calculus. In order to mitigate the number of several cases in the proofs, we develop several tactics in Coq that allows us to perform semi-automatic reasoning.

3
  • LAURA FERNANDES DELL ORTO
  • Um estudo de Lógica Linear com Subexponenciais
  • Orientador : CARLOS ALBERTO OLARTE VEGA
  • MEMBROS DA BANCA :
  • CARLOS ALBERTO OLARTE VEGA
  • ELAINE GOUVEA PIMENTEL
  • MÁRIO SÉRGIO FERREIRA ALVIM
  • Data: 15/02/2017

  • Mostrar Resumo
  • Em Lógica Clássica, podemos utilizar as hipóteses um número indeterminado de vezes. Por exemplo, a prova de um teorema pode fazer uso do mesmo lema várias vezes. Porém, em sistemas físicos, químicos e computacionais a situação é diferente: um recurso não pode ser reutilizado após ser consumido em uma ação. Em Lógica Linear, fórmulas são vistas como recursos a serem utilizados durante a prova. É essa noção de recursos que faz a Lógica Linear ser interessante para a modelagem de sistemas. Para tanto, a Lógica Linear controla o uso da contração e do enfraquecimento através dos exponenciais ! e ?. Este trabalho tem como objetivo fazer um estudo sobre a Lógica Linear com Subexponenciais (SELL), que é um refinamento da Lógica Linear. Em SELL, os exponenciais da Lógica Linear possuem índices, isto é, ! e ? serão substituídos por !^i e ?^i, onde “i” é um índice. Um dos pontos fundamentais de Teoria da Prova é a prova da Eliminação do Corte, que neste trabalho é demonstrada tanto para Lógica Linear como para SELL, onde apresentamos detalhes que normalmente são omitidos. A partir do teorema de Eliminação do Corte, podemos concluir a consistência do sistema (para as lógicas que estamos utilizando) e outros resultados como a propriedade de subfórmula. O trabalho inicia-se com um capítulo de Teoria da Prova, e em seguida se faz uma exposição sobre a Lógica Linear. Assim, com essas bases, apresenta-se a Lógica Linear com Subexponenciais. SELL tem sido utilizada, por exemplo, na especificação e verificação de diferentes sistemas tais como sistemas bioquímicos, sistemas de interação multimídia e, em geral, em sistemas concorrentes com modalidades temporais, espaciais e epistêmicas. Com essa base teórica bastante clara, apresenta-se a especificação de um sistema bioquímico utilizando SELL. Além disso, apresentamos várias instâncias de SELL que tem interpretações interessantes do ponto de vista computacional.

  • Mostrar Abstract
  • In Classical Logic, we can use a given hypothesis an indefinite number of times. For example, the proof of a theorem may use the same lemma several times. However, in physical, chemical and computational systems, the situation is different: a resource cannot be reused after being consumed in one action. In Linear Logic, formulas are seen as resources to be used during a proof. This feature makes Linear Logic an interesting formalism for the specification and verification of such systems. Linear Logic controls the rules of contraction and weakening through the exponentials ! and ?. This work aims to study Linear Logic with subexponentials   (SELL), which is a refinement of Linear Logic. In SELL, the exponentials of Linear Logic are decorated with indexes, i.e., ! and ? are replaced with !^i and ?^i, where “i” is an index. One of the main results in Proof Theory is the Cut-Elimination theorem. In this work we demonstrate that theorem for both Linear Logic and SELL, where we present details that are usually omitted in the literature. From the Cut-Elimination Theorem, we can show, as a corollary,  the consistency of the system (for the logics considered here) and other results as the subformula property. This work begins with an introduction to Proof Theory and then, it presents Linear Logic. On these bases, we present Linear Logic with subexponentials. SELL has been used, for example, in the specification and verification of various systems such as biochemical systems, multimedia interaction systems and, in general, concurrent systems with temporal, spatial and epistemic modalities. Using the theory of SELL, we show the specification of a biochemical system. Moreover, we present several instances of SELL that have interesting interpretations from a computational point of view.

4
  • PAULO ROBERTO BELTRAO MAIA
  • Dualidades: de Birkhoff à N4-reticulados limitados

  • Orientador : ELAINE GOUVEA PIMENTEL
  • MEMBROS DA BANCA :
  • ALEXEY KUZMIN
  • ELAINE GOUVEA PIMENTEL
  • MÁRIO SÉRGIO FERREIRA ALVIM
  • UMBERTO RIVIECCIO
  • Data: 15/02/2017

  • Mostrar Resumo
  • O trabalho tem como objetivo apresentar a dualidade de Birkhoff, estendendo para dualidade de Stone e por seguinte a dualidade de Priestley, assim como os conceitos básicos para o entendimento das mesmas. Feito isso, será colocado um operador modal positivo e mostrado que a dualidade de Priestley continua valendo agora para espaços de Priestley com um certo tipo de relação. Finalmente será apresentada uma dualidade entre N4-limitados e NE-Sp, utilizando a equivalência entre N4-limitados e TWIST-limitados como atalho. Além de apresentar algumas idéias sobre bireticulados no apêndice.


  • Mostrar Abstract
  • The present study aims to introduce the Birkhoff duality, extending for Stone duality and followed by Priestley duality, as well as the basic concepts for understanding them. It will then be introduced a positive modal operator and shown that Priestley duality applies for Priestley spaces with a certain type of relation. After that, it will be done a duality among bounded N4 and NE-Sp, using the equivalence between bounded N4 and bounded TWIST as a shortcut. In addition to presenting some ideas about non-involutive bilattices in the appendix.

5
  • DANIEL LEONARDO RAMÍREZ OROZCO
  • Um Novo Processo Autorregressivo Misto Para Séries Temporais de Valores Inteiros de Primeira Ordem com Inovações Poisson POMINAR(1).

  • Orientador : ANDRE LUIS SANTOS DE PINHO
  • MEMBROS DA BANCA :
  • ANDRE LUIS SANTOS DE PINHO
  • KLAUS LEITE PINTO VASCONCELLOS
  • LUZ MILENA ZEA FERNANDEZ
  • MARCELO BOURGUIGNON PEREIRA
  • Data: 21/02/2017

  • Mostrar Resumo
  •  
    As séries temporais, vistas como uma coleção de observações medidas sequencialmente ao longo do tempo, vem sendo estudadas com profunda notoriedade nos últimos anos, observando-se aplicações e novas propostas de modelos autorregressivos que ampliam o campo de estudo. Neste trabalho se propõe um novo modelo autorregressivo misto de primeira ordem com inovações Poisson, denotado POMINAR(1), misturando dois operadores conhecidos como thinning binomial e thinning Poisson. Ademais, se fornece a interpretação desses operadores e demonstram-se suas respectivas propriedades, como também um  possível caso da aplicação do POMINAR(1). A esperança marginal, variância marginal, esperança condicional e variância condicional do processo proposto são obtidas passo a passo. De forma detalhada são desenvolvidas as probabilidades de transição. Os estimadores de máxima verossimilhança condicional para os parâmetros do processo são determinados e uma aplicação a um conjunto de dados reais é dada buscando a efetividade do modelo proposto.

  • Mostrar Abstract
  • Time series, viewed as a collection of observations measured sequentially over time, has been studied with deep notoriety in recent years, based on applications and new proposals of autoregressive models that extend the field of study. This paper proposes a new first order mixed autoregressive model with Poisson innovations, denoted POMINAR (1), mixing two operators known as thinning binomial and thinning Poisson, it also provides the interpretation of these operators and demonstrates their respective properties, as well as a possible case of applying POMINAR (1). Expected value, variance, conditional expectation and conditional variance of the proposed process are taken step by step. In detail the transition probabilities are developed. The maximum conditional likelihood estimators to the process parameters are determined and an application to a real data set is given seeking the effectiveness of the proposed model.

6
  • JORDÂNIA FURTADO DE OLIVEIRA
  • Imputação de dados em experimentos fatoriais com dois níveis

  • Orientador : CARLA ALMEIDA VIVACQUA
  • MEMBROS DA BANCA :
  • CARLA ALMEIDA VIVACQUA
  • MARCUS ALEXANDRE NUNES
  • LINDA LEE HO
  • Data: 27/04/2017

  • Mostrar Resumo
  • Experimentos fatoriais completos e fracionados com dois níveis são muito usados
    em diversas áreas do conhecimento e, especialmente na indústria. Para analisar tais
    experimentos é necessário que todas as combinações planejadas de tratamentos sejam
    executadas e as respostas sejam obtidas. No entanto, na prática, muitos experimentos
    deixam de ser completados devidos a problemas de logística, tempo, ou limitações
    do orçamento. Esses experimentos são chamados de incompletos. Com o intuito de
    analisar adequadamente tais experimentos, diferentes métodos são propostos na literatura.
    Este trabalho tem o objetivo de apresentar, comparar e fazer reflexões críticas
    de métodos para estimar dados perdidos em experimentos fatoriais com dois níveis.


  • Mostrar Abstract
  • Full and fractional factorial designs with two levels are widely used in various fields
    of knowledge, especially in industry. To analyze such experiments is necessary that all
    planned treatment combinations are performed and the answers are obtained. However,
    in practice, many experiments fail to be completed due to logistical problems, time or
    budget constraints. These experiments are called incomplete. To properly analyze
    such experiments, different methods are proposed in the literature. This study aims to
    present, compare and make critical reflections about methods for estimating missing
    data in factorial experiments with two levels.

7
  • ALEXANDRE HENRIQUE QUADROS GRAMOSA
  • DISTRIBUIÇÃO DE VALORES EXTREMOS GENERALIZADA INFLADA DE ZEROS

  • Orientador : FERNANDO FERRAZ DO NASCIMENTO
  • MEMBROS DA BANCA :
  • FERNANDO FERRAZ DO NASCIMENTO
  • HEDIBERT FREITAS LOPES
  • MARCELO BOURGUIGNON PEREIRA
  • Data: 05/05/2017

  • Mostrar Resumo
  • Eventos Extremos geralmente são responsáveis por produzirem grandes ganhos ou grandes
    perdas à sociedade. Já existe uma distribuição específica, conhecida como Distribuição de
    Valores Extremos Generalizada (GEV), desenvolvida para predizer e prevenir tais
    acontecimentos. Entretanto, em muitas situações com dados extremos, existem a presença de
    zeros excessivos no banco de dados, dificultando a análise e a precisão na estimação. A
    Distribuição Inflada de Zeros (ZID) é recomendada para fazer a modelagem desses dados que
    apresentam zeros inflacionados. É objetivo deste trabalho criar uma nova distribuição para
    modelar dados de valores extremos e inflados de zeros. Portanto, foi realizado uma mistura das
    distribuições GEV e ZID, e também feito uma abordagem Bayesiana, na busca de obter um
    melhor ajuste em aplicações com dados de máximos inflacionados de zeros. Foram escolhidas
    para análises, a precipitação diária de chuvas na cidade de Natal do estado do Rio Grande do
    Norte e nas cidades de Paulistana, Picos, São João do Piauí e Teresina do estado do Piauí. Foi
    utilizado também a distribuição GEV padrão para modelar estes mesmos dados coletados, a
    título de comparação, e assim, por meio de medidas e estimações feitas pelas duas distribuições,
    verificar a qualidade do ajuste encontrado pela nova distribuição de Valores Extremos Inflados
    de Zeros (IGEV). Logo, verificou-se que o modelo foi bem desenvolvido, conseguindo estimar
    bem os dados de máximos, mesmo uma quantidade excessiva de zeros, sendo que a GEV padrão
    não conseguiu encontrar a distribuição de equilíbrio quando os dados dados possuem muitos
    zeros. Além disso, quando os dados de valores extremos não tem zeros inflacionados, o novo
    modelo converge para a GEV padrão, identificando a ausência dos zeros

  • Mostrar Abstract
  • Extreme events are usually responsible for producing big gains or big losses to society. For some
    decades now there has been a specific distribution, known as Generalized Extreme Values
    Distribution (GEV), designed to predict and prevent such events. However, in many situations
    with extreme data, there are excessive zeros in the database, making it difficult to analyze and
    decrease the estimation accuracy. Influenced Zero Distribution (ZID) is recommended to model
    such data that has inflated zeros. It is the objective of this work to create a new distribution to
    model data of extreme and inflated values of zeros. Therefore, a mixture of the GEV and ZID
    distributions was made, as well as a Bayesian approach, in order to obtain a better fit in
    applications with data of inflated maximums of zeros. The daily precipitation of rainfall in the
    city of Natal in the state of Rio Grande do Norte and in the cities of Paulistana, Picos, São João
    do Piauí and Teresina in the state of Piauí were chosen for analysis. It was also used the standard
    GEV distribution to model the same data collected for comparison purposes, and thus, through
    measurements and estimates made by the two distributions, to verify the quality of the
    adjustment found by the new distribution of inflated extreme values of zeros. Therefore, it was
    verified that both the model and the algorithm were well developed, the model being able to
    estimate the maximum data, even an excessive amount of zeros, and the standard GEV could
    not find the equilibrium distribution when the data given Many zeros. In addition, when the data
    of extreme values do not have inflated zeros, the new model converges to the standard GEV,
    identifying the absence of zeros.
8
  • ANTONIO DJACKSON ALVES DA SILVA
  • Nova Prova de Resultados Clássicos de Percolação

  • Orientador : ROBERTO TEODORO GURGEL DE OLIVEIRA
  • MEMBROS DA BANCA :
  • BRUNO DOS SANTOS GOIS
  • DEBORA BORGES FERREIRA
  • GISLENE MICARLA BORGES DE LIMA
  • ROBERTO TEODORO GURGEL DE OLIVEIRA
  • Data: 21/07/2017

  • Mostrar Resumo
  • Um processo de percolação modela o fenômeno da distribuição ou transporte de fluidos em um meio poroso. A variação de um parâmetro do modelo revela a existência de, geralmente, duas fases, uma fase dita subcrítica e outra fase dita supercrítica. Essas fases possuem características globais distintas e a transição de uma dessas fases à outra se dá em um valor crítico do parâmetro do modelo. O presente trabalho tem como objetivo apresentar novas demonstrações para resultados clássicos no modelo de percolação Bernoulli de elos, a saber: o decaimento exponencial do raio de um aglomerado aberto na fase subcrítica e a cota inferior da probabilidade de percolação. Para isso, seguimos as considerações e demonstrações devidas a Hugo Duminil-Copin e Vincent Tassion no artigo intitulado “A New Proof of the Sharpness of the Phase Transition for Bernoulli Percolation and the Ising Model” publicado no Journal of Mathematical Physics em 2016.


  • Mostrar Abstract
  • A percolation process models the distribution and transport of fluids in porous media. The variation of a model parameter reveals the existence of, generally, two phases, one called subcritical and the other called supercritical. These phases bear distinct global characteristics and the transition between phases takes place at a critical value for the model parameter. The present work aims at presenting new proofs for some classical results of Bond Bernoulli Percolation, namely: exponential decay of the radius of the cluster at the origin in subcritical phase and a lower bound on probability of percolation. The considerations and proofs we follow are due to Hugo Duminil-Copin and Vincent Tassion in their paper “A New Proof of the Sharpness of the Phase Transition for Bernoulli Percolation and the Ising Model” published on the Journal of Mathematical Physics in 2016.

9
  • MANOEL MESSIAS DE ARAÚJO GOMES
  • Automorfismos Fortemente Estáveis da categoria de Álgebras livres finitamente geradas da Variedade de todas as Álgebras Lineares Nilpotentes de Grau 5.

  • Orientador : ARKADY TSURKOV
  • MEMBROS DA BANCA :
  • ARKADY TSURKOV
  • ALEXEY KUZMIN
  • WALTER MARTINS RODRIGUES
  • Data: 08/08/2017

  • Mostrar Resumo
  • Este trabalho tem por objetivo o estudo dos automorfismos fortemente estáveis da categoria de todas as álgebras livres finitamente geradas na variedade de todas as Álgebras Lineares Nilpotentes de grau 5. Apresentamos uma breve explicação sobre o método de operações verbais. Nosso interesse principal é computar o grupo A/Y no caso da variedade de todas as álgebras lineares nilpotentes de grau 5. Tendo em vista que o estudo do grupo A/Y é muito importante na área de Geometria Algébrica Universal, pois esse grupo nos dá as possíveis diferenças entre equivalência geométrica e automórfica de álgebras.


  • Mostrar Abstract
  • This study has as objective the study of the strongly stable automorphisms of the category
    of all the finitely generated free algebras in the variety of all Nilpotent Linear Algebras
    of degree 5. We present a brief explanation of the method of verbal operations. Our main
    interest is to prove the isomorphism
    A5=Y5 = khAutk. The the study of the group A=Y
    is very important in the area of Universal Algebraic Geometry, because this group gives
    us the possible differences between geometric and automorphic equivalence of algebras.

10
  • WYARA VANESA MOURA E SILVA
  • Inferência Bayesiana para a distribuição conjunta das r-maiores estatísticas de ordem com ponto de mudança

  • Orientador : FERNANDO FERRAZ DO NASCIMENTO
  • MEMBROS DA BANCA :
  • FERNANDO FERRAZ DO NASCIMENTO
  • FIDEL ERNESTO CASTRO MORALES
  • HEDIBERT FREITAS LOPES
  • Data: 28/08/2017

  • Mostrar Resumo
  • A análise de valores extremos tem sido amplamente utilizada a fim de avaliar e prever catástrofes ambientais ocasionadas devido a mudanças climáticas ocorridas ao longo dos anos. Além da área ambiental, outras áreas comuns de aplicações destas análises são finanças, atuária, entre outras. Desta maneira, o presente trabalho consiste na estimação de parâmetros e níveis de retornos esperados, considerando a distribuição de valores extremos para as r-maiores estatísticas de ordem. Tais estimações serão avaliadas em séries que possuem pontos de mudança no regime, ou seja, será proposto um modelo para detecção de pontos de mudança numa série, aplicado a distribuição das r-maiores estatísticas de ordem (GEVr). Será abordado o caso em que a série possui k pontos de mudança, na qual a série possui k+1 diferentes regimes, e será modelado cada regime pela distribuição GEVr. A inferência usada no modelo é baseada numa abordagem bayesiana, em que ambos o parâmetros da GEVr para cada regime, e os pontos de mudança são considerados como parâmetros desconhecidos a serem estimados. Além de uma avaliação quanto ao critério de escolha do r ótimo para a distrubuição dos dados. A estimação é realizada pelo Método de Monte Carlo via Cadeias de Markov (MCMC) com o uso da técnica do algoritmo de Metropolis-Hastings. Inicialmente, foram realizadas apenas simulações, para avaliação de séries com um e dois pontos de mudança, em que obteve-se resultados pertinentes. Além disso, foi realizada um breve análise de níveis de retornos quanto a diferentes valores do r, e uma sumária análise descritiva dos dados reais que serão utilizados nas aplicações do modelo proposto. E por fim, a aplicação do modelo proposto para os dados de cotas do rio Parnaíba e Paraná, além de dados de retornos diários da Nasdaq.


  • Mostrar Abstract
  • Extreme value analysis has been widely used to assess and predict environmental catastrophes caused by climate change over the years. In addition to the environmental area, other common areas of application of these analyzes are finance, actuarial, among others. In this way, the present work consists in the estimation of parameters and levels of expected returns, considering the distribution of extreme values for the r-highest order statistics. These estimates will be evaluated in series that have points of change in the regime, that is, a model will be proposed to detect points of change in a series, applied to the distribution of the r-largest order statistics (GEVr). We will address the case where the series has k change points, in which the series has k+1 different schemes, and each scheme will be modeled by the GEVr distribution. The inference used in the model is based on a Bayesian approach, where both the GEVr parameters for each scheme, and the change points are considered as unknown parameters to be estimated. In addition, an evaluation of the criterion of choosing the optimal r for the distribution of the data. The estimation is performed by the Monte Carlo Method via Markov Chains (MCMC) using the Metropolis-Hastings algorithm technique. Initially only simulations were performed, for evaluation of series with one and two change points, in which remarkable results were obtained. In addition, a brief analysis of levels of returns for different values of r, and a brief descriptive analysis of the real data that will be used in the applications of the proposed model, was carried out. Finally, the application of the proposed model for the Parnaíba and Paraná river quota data, as well as daily Nasdaq returns data.

2016
Dissertações
1
  • ISAAC JALES COSTA SOUZA
  • Estimação Bayesiana no Modelo Potência Normal Bimodal Assimétrico.

  • Orientador : BERNARDO BORBA DE ANDRADE
  • MEMBROS DA BANCA :
  • BERNARDO BORBA DE ANDRADE
  • LUZ MILENA ZEA FERNANDEZ
  • FERNANDO FERRAZ DO NASCIMENTO
  • Data: 28/01/2016

  • Mostrar Resumo
  • Neste trabalho é apresentada uma abordagem bayesiana dos modelos potência normal bimodal (PNB) e potência normal bimodal assimétrico (PNBA). Primeiramente, apresentamos o modelo PNB e especificamos para este prioris não informativas e informativas do parâmetro
    que concentra a bimodalidade (α). Em seguida, obtemos a distribuição a posteriori pelo método MCMC, o qual testamos a viabilidade de seu uso a partir de um diagnóstico de convergência. Depois, utilizamos diferentes prioris informativas para α e fizemos a análise de sensibilidade
    com o intuito de avaliar o efeito da variação dos hiperparâmetros na distribuição a posteriori. Também foi feita uma simulação para avaliar o desempenho do estimador bayesiano utilizando prioris informativas. Constatamos que a estimativa da moda a posteriori apresentou em geral
    resultados melhores quanto ao erro quadratico médio (EQM) e viés percentual (VP) quando comparado ao estimador de máxima verossimilhança. Uma aplicação com dados bimodais reais foi realizada. Por último, introduzimos o modelo de regressão linear com resíduos PNB. Quanto ao modelo PNBA, também especificamos prioris informativas e não informativas para os parâmetros de bimodalidade e assimetria. Fizemos o diagnóstico de convergência para o método MCMC, que também foi utilizado para obter a distribuição a posteriori. Fizemos uma análise de sensibilidade, aplicamos dados reais no modelo e introduzimos o modelo de regressão linear com resíduos PNBA.

  • Mostrar Abstract
  • In this paper it is presented a Bayesian approach to the bimodal power-normal (BPN) models
    and the bimodal asymmetric power-normal (BAPN). First, we present the BPN model,
    specifying its non-informative and informative parameter alpha (bimodality). We obtain the posterior
    distribution by MCMC method, whose feasibility of use we tested from a convergence
    diagnose. After that, We use different informative priors for and we do a sensitivity analysis
    in order to evaluate the effect of hyperparameters variation on the posterior distribution. Also, it
    is performed a simulation to evaluate the performance of the Bayesian estimator using informative
    priors. We noted that the Bayesian method shows more satisfactory results when compared
    to the maximum likelihood method. It is performed an application with bimodal data. Finally,
    we introduce the linear regression model with BPN error. As for the BAPN model we also
    specify informative and uninformative priors for bimodality and asymmetry parameters. We do
    the MCMC Convergence Diagnostics, which is also used to obtain the posterior distribution.
    We do a sensitivity analysis, applying actual data in the model and we introducing the linear
    regression model with PNBA error.
2
  • JHONNATA BEZERRA DE CARVALHO
  • Classificador Máquina de Suporte Vetorial com Análise de Fourier Aplicada em Dados de EEG e EMG
  • Orientador : ANDRE LUIS SANTOS DE PINHO
  • MEMBROS DA BANCA :
  • ANDRE LUIS SANTOS DE PINHO
  • CARLA ALMEIDA VIVACQUA
  • GETULIO JOSE AMORIM DO AMARAL
  • Data: 03/02/2016

  • Mostrar Resumo
  • O classificador Máquina de Suporte Vetorial, que vem do termo em inglês

    \textit{Support Vector Machine}, é utilizado em diversos problemas em várias áreas do

    conhecimento. Basicamente o método utilizado nesse classificador é encontrar o

    hiperplano que maximiza a distância entre os grupos, para aumentar o poder de

    generalização do classificador. Neste trabalho, são tratados alguns problemas de

    classificação binária com dados obtidos através da eletroencefalografia (EEG) e

    eletromiografia (EMG), utilizando a Máquina de Suporte Vetorial com algumas técnicas

    complementares, destacadas a seguir como: Análise de Componentes Principais para a

    identificação de regiões ativas do cérebro, o método do periodograma que é obtido

    através da Análise de Fourier, para ajudar a discriminar os grupos e a suavização por

    Médias Móveis Simples para a redução dos ruídos existentes nos dados. Foram

    desenvolvidas duas funções no $software$ \textbf{R}, para a realização das tarefas de

    treinamento e classificação. Além disso, foram propostos 2 sistemas de pesos e uma

    medida sumarizadora para auxiliar na decisão do grupo pertencente. A aplicação dessas

    técnicas, pesos e a medida sumarizadora no classificador, mostraram resultados

    bastantes satisfatórios, em que os melhores resultados encontrados foram, uma taxa

    média de acerto de 95,31\% para dados de estímulos visuais, 100\% de classificação

    correta para dados de epilepsia e taxas de acerto de 91,22\% e 96,89\% para dados de

    movimentos de objetos para dois indivíduos.

  • Mostrar Abstract
  • O classificador Máquina de Suporte Vetorial, que vem do termo em inglês

    \textit{Support Vector Machine}, é utilizado em diversos problemas em várias áreas do

    conhecimento. Basicamente o método utilizado nesse classificador é encontrar o

    hiperplano que maximiza a distância entre os grupos, para aumentar o poder de

    generalização do classificador. Neste trabalho, são tratados alguns problemas de

    classificação binária com dados obtidos através da eletroencefalografia (EEG) e

    eletromiografia (EMG), utilizando a Máquina de Suporte Vetorial com algumas técnicas

    complementares, destacadas a seguir como: Análise de Componentes Principais para a

    identificação de regiões ativas do cérebro, o método do periodograma que é obtido

    através da Análise de Fourier, para ajudar a discriminar os grupos e a suavização por

    Médias Móveis Simples para a redução dos ruídos existentes nos dados. Foram

    desenvolvidas duas funções no $software$ \textbf{R}, para a realização das tarefas de

    treinamento e classificação. Além disso, foram propostos 2 sistemas de pesos e uma

    medida sumarizadora para auxiliar na decisão do grupo pertencente. A aplicação dessas

    técnicas, pesos e a medida sumarizadora no classificador, mostraram resultados

    bastantes satisfatórios, em que os melhores resultados encontrados foram, uma taxa

    média de acerto de 95,31\% para dados de estímulos visuais, 100\% de classificação

    correta para dados de epilepsia e taxas de acerto de 91,22\% e 96,89\% para dados de

    movimentos de objetos para dois indivíduos.
3
  • FELIPE RODRIGUES DA SILVA
  • Estimação e Previsão no Processo INARCH(2)

  • Orientador : LUZ MILENA ZEA FERNANDEZ
  • MEMBROS DA BANCA :
  • LUZ MILENA ZEA FERNANDEZ
  • MARCELO BOURGUIGNON PEREIRA
  • KLAUS LEITE PINTO VASCONCELLOS
  • Data: 05/02/2016

  • Mostrar Resumo
  • Nas últimas décadas o estudo de séries temporais de valores inteiros tem ganhado notoriedade devido a sua ampla aplicabilidade, por exemplo, modelar o número de acidentes com automóveis em uma determinada rodovia, ou, o número de pessoas infectadas por um vírus. Um dos grandes interesses desta área de estudo está em fazer previsões, por este motivo é de grande importância propor metodologias para fazer previsões futuras, as quais devem, dada a natureza dos dados, apresentar valores inteiros não negativos.
    Neste trabalho concentramo-nos em estudar e propor previsões um, dois e h passos à frente para os processos autorregressivos de segunda ordem condicionalmente heteroscedásticos de valores inteiros, Integer-valued second-order Autoregressive Conditional Heteroskedasticity Processes [INARCH(2)], e estudar algumas propriedades teóricas deste modelo, como o r-ésimo momento marginal e a distribuição assintótica dos estimadores de mínimos quadrados condicionais referentes ao processo INARCH(2). Além disso, verificamos, através de ensaios de Monte Carlo, o comportamento dos estimadores dos parâmetros do processo INARCH(2), obtidos através de três métodos de estimação, Yule-Walker, mínimos quadrados condicionais e máxima verossimilhança condicional, em termos de erro quadrático médio, erro absoluto médio e viés. Apresentamos algumas propostas de previsão para o processo INARCH(2) e comparamos as previsões propostas via simulações de Monte Carlo. Como aplicação da teoria apresentada, modelamos dados referentes ao número de nascidos vivos do sexo masculino de mães residentes na cidade de Riachuelo no estado do Rio Grande do Norte.

  • Mostrar Abstract
  • Nas últimas décadas o estudo de séries temporais de valores inteiros tem ganhado notoriedade devido a sua ampla aplicabilidade, por exemplo, modelar o número de acidentes com automóveis em uma determinada rodovia, ou, o número de pessoas infectadas por um vírus. Um dos grandes interesses desta área de estudo está em fazer previsões, por este motivo é de grande importância propor metodologias para fazer previsões futuras, as quais devem, dada a natureza dos dados, apresentar valores inteiros não negativos.
    Neste trabalho concentramo-nos em estudar e propor previsões um, dois e h passos à frente para os processos autorregressivos de segunda ordem condicionalmente heteroscedásticos de valores inteiros, Integer-valued second-order Autoregressive Conditional Heteroskedasticity Processes [INARCH(2)], e estudar algumas propriedades teóricas deste modelo, como o r-ésimo momento marginal e a distribuição assintótica dos estimadores de mínimos quadrados condicionais referentes ao processo INARCH(2). Além disso, verificamos, através de ensaios de Monte Carlo, o comportamento dos estimadores dos parâmetros do processo INARCH(2), obtidos através de três métodos de estimação, Yule-Walker, mínimos quadrados condicionais e máxima verossimilhança condicional, em termos de erro quadrático médio, erro absoluto médio e viés. Apresentamos algumas propostas de previsão para o processo INARCH(2) e comparamos as previsões propostas via simulações de Monte Carlo. Como aplicação da teoria apresentada, modelamos dados referentes ao número de nascidos vivos do sexo masculino de mães residentes na cidade de Riachuelo no estado do Rio Grande do Norte.
4
  • LAÍS HELEN LOOSE
  • Avaliação e correções dos testes de hipóteses em modelos de sobrevivência com fração de cura 

  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • MARCELO BOURGUIGNON PEREIRA
  • FRANCISCO CRIBARI NETO
  • FÁBIO MARIANO BAYER
  • Data: 15/02/2016

  • Mostrar Resumo
  • Os modelos de sobrevivência tratam do estudo do tempo até a ocorrência de um evento de interesse. Em algumas situações, uma proporção da população pode não estar mais sujeita à ocorrência do evento. Nesse contexto surgiram os modelos com fração de cura. Dentre os modelos que incorporam uma fração de curados um dos mais conhecidos é o modelo tempo de promoção. No presente trabalho abordamos inferências em termos de testes de hipóteses no modelo tempo de promoção assumindo a distribuição Weibull para os tempos de falha dos indivíduos suscetíveis. Os testes de hipóteses nesse modelo podem ser realizados com base nas estatísticas da razão de verossimilhanças, gradiente, escore ou Wald. Os valores críticos são obtidos através de aproximações assintóticas, que podem conduzir a distorções no tamanho do teste em amostras de tamanho finito. Nesse sentido, o presente trabalho propõe correções via bootstrap para os testes mencionados e Bartlett bootstrap para a estatística da razão de verossimilhanças no modelo tempo de promoção Weibull. Por meio de simulações de Monte Carlo comparamos o desempenho em amostras finitas das correções propostas com os testes usuais. Os resultados numéricos obtidos evidenciam o bom desempenho das correções propostas. Ao final do trabalho é apresentadaumaaplicação a dados reais.


  • Mostrar Abstract
  • Os modelos de sobrevivência tratam do estudo do tempo até a ocorrência de um evento de interesse. Em algumas situações, uma proporção da população pode não estar mais sujeita à ocorrência do evento. Nesse contexto surgiram os modelos com fração de cura. Dentre os modelos que incorporam uma fração de curados um dos mais conhecidos é o modelo tempo de promoção. No presente trabalho abordamos inferências em termos de testes de hipóteses no modelo tempo de promoção assumindo a distribuição Weibull para os tempos de falha dos indivíduos suscetíveis. Os testes de hipóteses nesse modelo podem ser realizados com base nas estatísticas da razão de verossimilhanças, gradiente, escore ou Wald. Os valores críticos são obtidos através de aproximações assintóticas, que podem conduzir a distorções no tamanho do teste em amostras de tamanho finito. Nesse sentido, o presente trabalho propõe correções via bootstrap para os testes mencionados e Bartlett bootstrap para a estatística da razão de verossimilhanças no modelo tempo de promoção Weibull. Por meio de simulações de Monte Carlo comparamos o desempenho em amostras finitas das correções propostas com os testes usuais. Os resultados numéricos obtidos evidenciam o bom desempenho das correções propostas. Ao final do trabalho é apresentadaumaaplicação a dados reais.

5
  • MOIZÉS DA SILVA MELO
  • Monitoramento das médias de um processo bivariado por gráficos de controle por atributos e/ou variáveis

  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • MEMBROS DA BANCA :
  • PLEDSON GUEDES DE MEDEIROS
  • ANDRE LUIS SANTOS DE PINHO
  • LINDA LEE HO
  • ROBERTO DA COSTA QUININO
  • Data: 18/02/2016

  • Mostrar Resumo
  • A alta variabilidade de um processo está diretamente relacionada com a má qualidade do mesmo, portanto, reduzi-la é a maneira de melhorar o processo. Os métodos estatísticos estão incluídos ao planejamento de melhoria de processos, dentre os quais os gráficos de controle são o mais eficientes e utilizados. Esta dissertação propõe dois novos gráficos de controle para monitorar um vetor de médias de um processo bivariado. O primeiro, chamado de new npxy, emprega um gráfico por atributos. O procedimento consiste em inspecionar e classificar, através dos limites discriminantes, cada unidade da amostra como aprovada ou reprovada. Os limites discriminantes são ajustados de tal forma que tem-se uma fração especificada de unidades reprovadas quando o processo está sob controle. Em seguida o número de unidades reprovadas é plotado no gráfico, e caso seja maior que o limite de controle, o processo é parado para ajuste. O segundo gráfico utiliza os gráficos new npxy e T2. Este procedimento consiste em dividir uma amostra de tamanho $n$ em duas partes (n1 e n2), determinadas por um processo de otimização. As unidades da primeira sub-amostra são avaliadas por atributos e plotadas em um gráfico de controle new npxy. Caso seja detectada a presença de alguma causa especial, inspeciona-se a sub-amostra de tamanho n2 por variáveis por meio do gráfico T2. O procedimento é interrompido para o ajuste se a presença de alguma causa especial for detectada em ambos gráficos de controle. A possibilidade de não inspecionar todos os itens da amostra pode promover uma redução tanto no custo quanto no tempo de inspeção. A análise de desempenho foi realizada comparando o número médio de amostras até o alarme verdadeiro (NMA1). Verificou-se que os gráficos propostos apresentam desempenho satisfatório e são concorrentes com o gráfico T2. Os resultados foram obtidos com o auxílio do software estatístico R.

  • Mostrar Abstract
  • A alta variabilidade de um processo está diretamente relacionada com a má qualidade do mesmo, portanto, reduzi-la é a maneira de melhorar o processo. Os métodos estatísticos estão incluídos ao planejamento de melhoria de processos, dentre os quais os gráficos de controle são o mais eficientes e utilizados. Esta dissertação propõe dois novos gráficos de controle para monitorar um vetor de médias de um processo bivariado. O primeiro, chamado de new npxy, emprega um gráfico por atributos. O procedimento consiste em inspecionar e classificar, através dos limites discriminantes, cada unidade da amostra como aprovada ou reprovada. Os limites discriminantes são ajustados de tal forma que tem-se uma fração especificada de unidades reprovadas quando o processo está sob controle. Em seguida o número de unidades reprovadas é plotado no gráfico, e caso seja maior que o limite de controle, o processo é parado para ajuste. O segundo gráfico utiliza os gráficos new npxy e T2. Este procedimento consiste em dividir uma amostra de tamanho $n$ em duas partes (n1 e n2), determinadas por um processo de otimização. As unidades da primeira sub-amostra são avaliadas por atributos e plotadas em um gráfico de controle new npxy. Caso seja detectada a presença de alguma causa especial, inspeciona-se a sub-amostra de tamanho n2 por variáveis por meio do gráfico T2. O procedimento é interrompido para o ajuste se a presença de alguma causa especial for detectada em ambos gráficos de controle. A possibilidade de não inspecionar todos os itens da amostra pode promover uma redução tanto no custo quanto no tempo de inspeção. A análise de desempenho foi realizada comparando o número médio de amostras até o alarme verdadeiro (NMA1). Verificou-se que os gráficos propostos apresentam desempenho satisfatório e são concorrentes com o gráfico T2. Os resultados foram obtidos com o auxílio do software estatístico R.
6
  • JOSIMARA TATIANE DA SILVA
  • Precondicionamento do método GMRES para Z-matrizes

  • Orientador : NIR COHEN
  • MEMBROS DA BANCA :
  • JULIA VICTORIA TOLEDO BENAVIDES
  • LUIZ MARIANO PAES DE CARVALHO FILHO
  • NIR COHEN
  • SANTOS DEMETRIO MIRANDA BORJAS
  • Data: 19/07/2016

  • Mostrar Resumo
  • Este trabalho tem por objetivo investigar o comportamento de convergência do
    método GMRES (Generalized Minimal RESidual) e sua versão GMRES(m), sem
    e com precondicionador ILU (0) aplicado à sistemas lineares não simétricos es-
    parsos. Nosso interesse principal é verificar se o comportamento destes algoritmos
    pode ser influenciado pela estrutura das matrizes consideradas, em particular, as
    Z-matrizes. Além disto, a influência da escolha do grau de esparsidade. Entre
    os parâmetros observados, concentramos no raio espectral dessas matrizes, tanto
    como a norma do resíduo relativo obtido por estes algoritmos.


  • Mostrar Abstract
  • This study aims to investigate the convergence behavior of the GMRES (Gene-
    ralized Minimal Residual) method and its version GMRES(m), without and with
    preconditioner ILU(0) applied to sparse non-symmetric linear systems. Our main
    interest is to see if the behavior of these algorithms can be influenced by the struc-
    ture of the matrices considered, in particular, the Z-matrices. Furthermore, the
    influence of the choice of the degree of sparsity. Among the observed parameters,
    we focus on the spectral radius of these matrices, as well as the relative residual
    norm obtained by these algorithms.

7
  • TITO LÍVIO DA CUNHA LOPES
  • Novos modelos para séries temporais de valores binários e inteiros não negativos baseados em operadores thinning

  • Orientador : MARCELO BOURGUIGNON PEREIRA
  • MEMBROS DA BANCA :
  • KLAUS LEITE PINTO VASCONCELLOS
  • LUZ MILENA ZEA FERNANDEZ
  • MARCELO BOURGUIGNON PEREIRA
  • Data: 28/11/2016

  • Mostrar Resumo
  • Modelos para séries temporais de valores inteiros têm se destacado devido a vasta possibilidade de aplicação. Modelos para controle estatístico de processos, para dados econômicos e, atualmente, para a sequência estrutural dos ácidos desoxirribonucleicos (DNA), são exemplos de importantes aplicações. Este trabalho está dividido em dois capítulos independentes. A primeira parte do trabalho diz respeito a modelagem de dados binários autocorrelacionados. Neste contexto, uma nova classe de modelos foi proposta, baseado em operadores thinning, denominada processo Bernoulli autorregressivo de ordem p[BeAr(p)] similar ao modelo clássico AR(p). Em particular, o modelo BeAr(1) foi estudado e  várias propriedades foram estabelecidas, três métodos de estimação foram propostos para o modelo, inclusive foi estabelecida a distribuição assintótica dos estimadores pelo método de mínimos quadrados condicionais e os elementos da matriz de informação de Fisher. Além das simulações, aplicações foram feitas em 
    dados reais de precipitação, ocasião em que os modelos BeAr(1) e BeAr(2) foram indicados para modelagem. Na segunda parte do trabalho, novos modelos foram estudados ao propor a família de distribuições de séries de potência generalizada com parâmetro inflador (IGPSD) para o processo de 
    inovação do modelo INAR(1). As principais propriedades do processo foram estabelecidas, tais como a média, variância, autocorrelação e probabilidade de transição. Os métodos de estimação por Yule-Walker e máxima verossimilhança condicional foram utilizados para estimar os parâmetros dos modelos. Dois casos particulares do modelo INAR$(1)$ com inovação IGPSD foram estudados, denominados de  IPoINAR(1) e IGeoINAR(1). Por fim, na aplicação a dados reais, observou-se um bom desempenho do novo modelo proposto.

  • Mostrar Abstract
  • Models for time series of integer values have stood out because of the vast possibility of application. Models for statistical process control, for economic data and currently for the structural sequence of deoxyribonucleic acids (DNA), are examples of important applications. This work is divided into two independent parts. The first part of the work concerns the modeling of autocorrelated binary data. In this context, a new class of models has been proposed, based on thinning operators called Bernoulli order autoregressive process p  [BeAr(p)] similar to the classical model AR(p). In particular, BeAr(1) model was studied, setting various properties of three estimation methods have been proposed for the model, including the asymptotic distribution of the estimators by the conditional least squares method, and the elements of the Fisher information matrix. In addition to the simulations, applications were made on real data of precipitation, at which models BeAr(1) and BeAr(2) were given to modeling. In the second part of the work, new models were studied to propose the family of inflated-parameter generalized power series distributions (IGPSD) to the innovation process INAR(1) model. The main properties of the process have been established, such as the mean, variance and autocorrelation transition probability. The estimation methods for Yule-Walker and conditional maximum likelihood were used to estimate the parameters of the models. Two particular cases of model INAR(1) with IGPSD innovation process were studied, called IPoINAR(1) and IGeoINAR(1). Applications to real data showed a good performance of the new model proposed.
2015
Dissertações
1
  • WENIA VALDEVINO FÉLIX DE LIMA
  • Probabilidades Assintóticas da Cauda de Somas Ponderadas
    de Variáveis Aleatórias Dependentes com Variação Dominada

  • Orientador : DEBORA BORGES FERREIRA
  • MEMBROS DA BANCA :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • CHANG CHUNG DOREA
  • DEBORA BORGES FERREIRA
  • JUAN ALBERTO ROJAS CRUZ
  • Data: 20/02/2015

  • Mostrar Resumo
  • Neste trabalho estudamos o comportamento assintótico caudal das probabilidades das somas aleatórias ponderadas de variáveis aleatórias com certa estrutura de dependência e de variação dominada, baseados no artigo de Hai-zhong Yang, com título "Asymptotic Tail Probability of Randomly Weighted Sums of Dependent Random Variables with Dominated Variation". Para tanto, apresentamos resultados essenciais sobre a classe de distribuições de cauda pesada que contem as seguintes subclasses : de cauda subexponencial, longa, variação regular, variação regular estendida e dominada, entre outras.  Nosso objetivo é proporcionar todo um embasamento teórico para esclarecer ao máximo a demonstração do Teorema de Yang. Para isto, apresentamos a demonstração de três lemas principais e de alguns resultados que são utilizados na demonstração desses lemas.


  • Mostrar Abstract
  • Neste trabalho estudamos o comportamento assintótico caudal das probabilidades das somas aleatórias ponderadas de variáveis aleatórias com certa estrutura de dependência e de variação dominada, baseados no artigo de Hai-zhong Yang, com título "Asymptotic Tail Probability of Randomly Weighted Sums of Dependent Random Variables with Dominated Variation". Para tanto, apresentamos resultados essenciais sobre a classe de distribuições de cauda pesada que contem as seguintes subclasses : de cauda subexponencial, longa, variação regular, variação regular estendida e dominada, entre outras.  Nosso objetivo é proporcionar todo um embasamento teórico para esclarecer ao máximo a demonstração do Teorema de Yang. Para isto, apresentamos a demonstração de três lemas principais e de alguns resultados que são utilizados na demonstração desses lemas.

2
  • RENATO TIGRE MARTINS DA COSTA
  • Gráfico de Controle Modificado para Processos com Estruturas Complexas de
    Autocorrelação

  • Orientador : ANDRE LUIS SANTOS DE PINHO
  • MEMBROS DA BANCA :
  • ANDRE LUIS SANTOS DE PINHO
  • CARLA ALMEIDA VIVACQUA
  • LINDA LEE HO
  • PLEDSON GUEDES DE MEDEIROS
  • Data: 29/04/2015

  • Mostrar Resumo
  • Este trabalho propõe um gráfico de controle modificado incorporando conceitos de análise
    de séries temporais. Especificamente, nós consideramos os modelos de distribuição de transição
    e mistura gaussianas (GMTD). Os modelos GMTD são uma classe mais geral do que os
    modelos da família autoregressiva (AR), no sentido de que os processos autocorrelacionados
    podem apresentar trechos planos (platôs), explosões ou outliers. Neste cenário os Gráficos de
    Shewhart tradicionais não são mais ferramentas adequadas para o acompanhamento desses
    processos. Portanto, Vasilopoulos e Stamboulis (1978) propuseram uma versão modificada
    dos gráficos, considerando limites de controle adequados com base em processos autocorrelacionados.
    A fim de avaliar a eficiência da técnica proposta uma comparação com um gráfico
    tradicional Shewhart (que ignora a estrutura de autocorrelação do processo), o gráfico de
    controle Shewhart AR(1) e um gráfico de controle Shewhart GMTD foi feita. Uma expressão
    analítica para a variância processo, assim como os limites de controle foram desenvolvidos
    para um modelo GMTD particular. Os critérios utilizados para medir a eficiência foram o
    ARL 0 e ARL 1 . A comparação foi feita com base em uma série gerada de acordo com um
    modelo GMTD. Os resultados apontam para a direção que os gráficos modificados Shewhart
    GMTD têm um melhor desempenho do que o Shewhart AR(1) e o Shewhart tradicional.


  • Mostrar Abstract
  • Este trabalho propõe um gráfico de controle modificado incorporando conceitos de análise
    de séries temporais. Especificamente, nós consideramos os modelos de distribuição de transição
    e mistura gaussianas (GMTD). Os modelos GMTD são uma classe mais geral do que os
    modelos da família autoregressiva (AR), no sentido de que os processos autocorrelacionados
    podem apresentar trechos planos (platôs), explosões ou outliers. Neste cenário os Gráficos de
    Shewhart tradicionais não são mais ferramentas adequadas para o acompanhamento desses
    processos. Portanto, Vasilopoulos e Stamboulis (1978) propuseram uma versão modificada
    dos gráficos, considerando limites de controle adequados com base em processos autocorrelacionados.
    A fim de avaliar a eficiência da técnica proposta uma comparação com um gráfico
    tradicional Shewhart (que ignora a estrutura de autocorrelação do processo), o gráfico de
    controle Shewhart AR(1) e um gráfico de controle Shewhart GMTD foi feita. Uma expressão
    analítica para a variância processo, assim como os limites de controle foram desenvolvidos
    para um modelo GMTD particular. Os critérios utilizados para medir a eficiência foram o
    ARL 0 e ARL 1 . A comparação foi feita com base em uma série gerada de acordo com um
    modelo GMTD. Os resultados apontam para a direção que os gráficos modificados Shewhart
    GMTD têm um melhor desempenho do que o Shewhart AR(1) e o Shewhart tradicional.

3
  • DANIEL DE SOUZA GRILO
  • Sobre a Integração Indefinida de Funções Racionais Complexas: teoria e implementação de algoritmos racionais

  • Orientador : NIR COHEN
  • MEMBROS DA BANCA :
  • EDGAR SILVA PEREIRA
  • NIR COHEN
  • VILMAR TREVISAN
  • Data: 12/06/2015

  • Mostrar Resumo
  • Apresentamos algoritmos de integração indefinida de funções racionais sobre subcorpos dos complexos, a partir de uma abordagem algébrica. Estudamos o algoritmo local de Bernoulli e algoritmos racionais de integração para a classe de funções em questão, a saber, os algoritmos de Hermite; Horowitz-Ostrogradsky; Rothstein-Trager e Lazard-Rioboo-Trager. Estudamos também o algoritmo de Rioboo para conversão de logaritmos envolvendo extensões complexas para funções arco-tangente reais, quando estes logaritmos surgem da integração de funções racionais com coeficientes reais. Concluímos fornecendo pseudocódigos e códigos para implementação no software Máxima relativos aos algoritmos estudados neste trabalho, e, além disso, a algoritmos para cálculo de mdc de poliômios; decomposição em frações parciais; fatoração livres de quadrados; obtenção de sequências de subresultantes, entre outros algoritmos acessórios ao trabalho. Será também apresentado no apêndice o algoritmo de Zeilberger-Almkvist para integração de funções hiperexponenciais, bem como seu pseudocódigo e código para Maxima. Como alternativa aos algoritmos de Rothstein-Trager e Lazard-Rioboo-Trager, apresentamos ainda um código para o algoritmo de Bernoulli para denominadores livres de quadrados; e outro para o algoritmo de Czichowski, ainda que este não seja estudado em detalhes no trabalho, devido às bases teóricas necessárias para o seu entendimento, as quais se encontram fora do escopo deste trabalho.

     

    Diversos exemplos são fornecidos de modo a demonstrar o o funcionamento dos algoritmos de integração deste trabalho.


  • Mostrar Abstract
  • Apresentamos algoritmos de integração indefinida de funções racionais sobre subcorpos dos complexos, a partir de uma abordagem algébrica. Estudamos o algoritmo local de Bernoulli e algoritmos racionais de integração para a classe de funções em questão, a saber, os algoritmos de Hermite; Horowitz-Ostrogradsky; Rothstein-Trager e Lazard-Rioboo-Trager. Estudamos também o algoritmo de Rioboo para conversão de logaritmos envolvendo extensões complexas para funções arco-tangente reais, quando estes logaritmos surgem da integração de funções racionais com coeficientes reais. Concluímos fornecendo pseudocódigos e códigos para implementação no software Máxima relativos aos algoritmos estudados neste trabalho, e, além disso, a algoritmos para cálculo de mdc de poliômios; decomposição em frações parciais; fatoração livres de quadrados; obtenção de sequências de subresultantes, entre outros algoritmos acessórios ao trabalho. Será também apresentado no apêndice o algoritmo de Zeilberger-Almkvist para integração de funções hiperexponenciais, bem como seu pseudocódigo e código para Maxima. Como alternativa aos algoritmos de Rothstein-Trager e Lazard-Rioboo-Trager, apresentamos ainda um código para o algoritmo de Bernoulli para denominadores livres de quadrados; e outro para o algoritmo de Czichowski, ainda que este não seja estudado em detalhes no trabalho, devido às bases teóricas necessárias para o seu entendimento, as quais se encontram fora do escopo deste trabalho.

     

    Diversos exemplos são fornecidos de modo a demonstrar o o funcionamento dos algoritmos de integração deste trabalho.

4
  • FÁBIO AZEVÊDO DE SOUZA
  •  Experimentos Fatoriais Fracionados Assimetricos para Avaliação de Modelos para Previsão de Chuva no Nordeste do Brasil  

  • Orientador : CARLA ALMEIDA VIVACQUA
  • MEMBROS DA BANCA :
  • CARLA ALMEIDA VIVACQUA
  • ANDRE LUIS SANTOS DE PINHO
  • MARCUS ALEXANDRE NUNES
  • MICHEL DOS SANTOS MESQUITA
  • Data: 29/09/2015

  • Mostrar Resumo
  • No Estado do Rio Grande do Norte, episódios de chuvas intensas têm causado transtornos, tais como, deslizamento de barreiras, alagamentos, trânsito caótico, etc.. Assim, a ocorrência de chuvas é uma das principais preocupações dos pesquisadores e demais órgãos ligados à  pesquisa meteorológica. A previsão acurada de eventos extremos como chuvas intensas é fator essencial para que políticas públicas possam ser adotadas com o intuito de mitigar os efeitos causados pelos fenômenos meteorológicos.  Desde meados do século XX o uso de métodos quantitativos para realizar previsão de tempo através de simulacão numérica vem se destacando na meteorologia, pois com o avanço tecnológico da computação, cada vez mais torna-se possível simular fenômenos atmosféricos em alta resolução. Nesses modelos, identicar combinações e/ou congurações de parametrizações de física atmosférica é um desafio para os pesquisadores. Neste sentido, o principal objetivo deste trabalho e implementar técnicas de planejamento de experimentos para selecionar congurações de parametrizações e avaliar modelos numéricos de previsão de tempo. Este trabalho apresenta o uso de experimentos fatoriais fracionados assimetricos (EFFA) para avaliar o desempenho do modelo Weather Research and Forecasting (WRF), utilizando diversas congurações de física, para simular um evento ocorrido no segundo bimestre de 2008 no Estado do Rio Grande do Norte. Foram selecionados quatro esquemas de parametrização de cúmulus (Grell-Deveyi, NSAS, Tiedtke e Kain-Fritsch), dois de microfísica (WSM6 e Thompson), dois de camada limite planetária (YSU e MYJ) e duas congurações de topo do modelo (10mb e 50mb), para três domínios distintos (36Km, 12Km e 4Km) e realizadas 32 simulações. As análises do experimento utilizam gráficos de Lenth para auxiliar na identificação de parametrizações adequadas. Os resultados finais deste trabalho mostram-se promissores e corroboram para que a metodologia proposta de experimentos estatisticamente planejados seja considerada ferramenta de suma importância para avaliação do WRF, trazendo avancos significativos neste campo. Cabe ressaltar que o mesmo procedimento pode ser usado para outros modelos numéricos de previsão de tempo.


  • Mostrar Abstract
  • In the state of Rio Grande do Norte, episodes of heavy rains have caused disorders such as land slides, flood and chaotic traffic.  Thus,  rainfall is a major concern for researchers and other agencies linked to weather research.
    The accurate prediction of extreme events, such as heavy rainfall, is an essential factor in public polices to mitigate the effects caused by meteorological phenomena.
    Since the mid-twentieth century, the use of quantitative methods to conduct weather forecast by numerical simulation has stood out in  meteorology. With the technological advancement of computing, more and more atmospheric phenomena can be simulated in high resolution.
    In these models, identifying combinations and/or atmospheric physics parameterization settings is still a challenge for researchers.
    In this sense, the main objective of this work is to implement experimental design techniques to select parameterization settings and evaluate numerical weather forecasting models.
    This paper presents the use of asymmetric fractional factorial designs (EFFA) to evaluate the performance of Weather Research and Forecasting (WRF), using various physical parameterizations, to simulate a weather event in 2008 in Rio Grande do Norte State.
    We selected four cumulus parameterization schemes (Grell-Deveyi, NSAS, Tiedtke and Kain-Fritsch), two schemes of microphysics (WSM6 and Thompson), two planetary boundary layer (YSU and MYJ) and two model top settings (10mb and 50mb), for three different domains (36Km, 12Km and 4km) and conducted 32 simulations.
    We use Lenth plots to analyse the experiment and guide the identificationof appropriat parameterization schemes.
    The final results of this study are promising and confirm that statistically designed experiments is of utmost importance to assess WRF, bringing significant progress in this field.
    It is whorth mentioning that the same procedure can be used for other models.
5
  • RUMENICK PEREIRA DA SILVA
  • Modelos Flexíveis de Sobrevivencia com Fração de Cura: Implementação Computacional

  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • LUZ MILENA ZEA FERNANDEZ
  • DANI GAMERMAN
  • Data: 23/10/2015

  • Mostrar Resumo
  • Em análise de sobrevivência a variável em estudo é o tempo até a ocorrência de um determinado evento de interesse. Este tempo é denominado de tempo de vida ou tempo até a falha. A teoria usual assume que, se observado por um longo período de tempo todos os indivíduos irão experimentar o evento em algum momento. Mas, em algumas situações uma proporção da população  pode não estar mais sujeita à ocorrência deste evento, por mais longo que seja o tempo de observação. Neste sentido, alguns modelos foram propostos e são conhecidos na literatura como modelos com fração de cura ou de longa duração. Ao considerar o aumento do interesse no ajuste desses modelos, percebe-se a importância da existência de rotinas amigáveis e capazes de obter de forma precisa as estimativas de máxima verossimilhança. Neste contexto, o objetivo principal deste trabalho foi a implementação de um pacote em linguagem R com um conjunto de rotinas amigáveis (de forma didática e de fácil utilização) para analisar dados de sobrevivência com fração de cura, a partir do uso de alguns modelos paramétricos flexíveis. Neste programa, denominado de flexcure, foram considerados os modelos de tempo de falha acelerado log-gama generalizado, log-F generalizado e Weibull na forma estendida de Marshall-Olkin, para modelar os tempos dos indivíduos susceptíveis e, para a fração de curados foram considerados os modelos usuais de mistura padrão e de tempo de promoção. O desempenho destas implementações foi avaliado através de um extensivo estudo de simulação, considerando diferentes cenários. Além disso, o uso deste pacote foi ilustrado em algumas aplicações.


  • Mostrar Abstract
  • Em análise de sobrevivência a variável em estudo é o tempo até a ocorrência de um determinado evento de interesse. Este tempo é denominado de tempo de vida ou tempo até a falha. A teoria usual assume que, se observado por um longo período de tempo todos os indivíduos irão experimentar o evento em algum momento. Mas, em algumas situações uma proporção da população  pode não estar mais sujeita à ocorrência deste evento, por mais longo que seja o tempo de observação. Neste sentido, alguns modelos foram propostos e são conhecidos na literatura como modelos com fração de cura ou de longa duração. Ao considerar o aumento do interesse no ajuste desses modelos, percebe-se a importância da existência de rotinas amigáveis e capazes de obter de forma precisa as estimativas de máxima verossimilhança. Neste contexto, o objetivo principal deste trabalho foi a implementação de um pacote em linguagem R com um conjunto de rotinas amigáveis (de forma didática e de fácil utilização) para analisar dados de sobrevivência com fração de cura, a partir do uso de alguns modelos paramétricos flexíveis. Neste programa, denominado de flexcure, foram considerados os modelos de tempo de falha acelerado log-gama generalizado, log-F generalizado e Weibull na forma estendida de Marshall-Olkin, para modelar os tempos dos indivíduos susceptíveis e, para a fração de curados foram considerados os modelos usuais de mistura padrão e de tempo de promoção. O desempenho destas implementações foi avaliado através de um extensivo estudo de simulação, considerando diferentes cenários. Além disso, o uso deste pacote foi ilustrado em algumas aplicações.

6
  • MÁRCIA GABRIELE GONÇALVES DE SOUSA LIMA
  • Um estudo sobre Polinômios Matriciais

  • Orientador : EDGAR SILVA PEREIRA
  • MEMBROS DA BANCA :
  • EDGAR SILVA PEREIRA
  • NIR COHEN
  • MARIA CECÍLIA DOS SANTOS ROSA
  • Data: 29/10/2015

  • Mostrar Resumo
  • Esse trabalho de pesquisa tem por objetivo, fazer um estudo sobre a teoria algébrica dos polinômios matriciais mônicos, bem como das definições, conceitos e propriedades de no que diz respeito a bloco autovalores, bloco autovetores e solventes de P(X). Investigando as principais relações entre o polinômio matricial e as matrizes bloco. Companheira e bloco Vandermonde. Estudamos a construção de polinômios matriciais com determinados solventes  e a extensãon da Método da Potência , para calcular blocos autovalores da matriz Companheira e solventes de P(X). Através da relação entre o bloco autovalor dominante da matriz Companheira e o solvente dominante de P(X) é possível  obtermos a convergência do algoritmo para o solvente dominante do polinômio matricial mônico. Ilustramos com exemplos numéricos para casos distintos de convergência.


  • Mostrar Abstract
  • Esse trabalho de pesquisa tem por objetivo, fazer um estudo sobre a teoria algébrica dos polinômios matriciais mônicos, bem como das definições, conceitos e propriedades de no que diz respeito a bloco autovalores, bloco autovetores e solventes de P(X). Investigando as principais relações entre o polinômio matricial e as matrizes bloco. Companheira e bloco Vandermonde. Estudamos a construção de polinômios matriciais com determinados solventes  e a extensãon da Método da Potência , para calcular blocos autovalores da matriz Companheira e solventes de P(X). Através da relação entre o bloco autovalor dominante da matriz Companheira e o solvente dominante de P(X) é possível  obtermos a convergência do algoritmo para o solvente dominante do polinômio matricial mônico. Ilustramos com exemplos numéricos para casos distintos de convergência.

7
  • JULY HERBERT DA SILVA MARIANO
  • Modelagem Multiescala de Fenômenos Eletrocinéticos em Meios Porosos Carregados Eletricamente: Aplicação a Meios Porosos Argilosos

  • Orientador : SIDARTA ARAUJO DE LIMA
  • MEMBROS DA BANCA :
  • ADRIANO DOS SANTOS
  • JULIA VICTORIA TOLEDO BENAVIDES
  • RICARDO COELHO SILVA
  • SIDARTA ARAUJO DE LIMA
  • VIVIANE KLEIN
  • Data: 12/11/2015

  • Mostrar Resumo
  • Nesta dissertação de mestrado, propomos uma modelagem computacional multiescala de fenômenos eletrocinéticos em meios poroso carregados eletricamente. Consideramos um meio poroso rígido e incompressível saturado por uma solução eletrolítica contendo quatro solutos iônicos monovalentes totalmente diluídos no solvente.

    Inicialmente, desenvolvemos a modelagem da dupla camada elétrica com a intenção de computar o potencial elétrico, densidade superficial de cargas elétricas e, considerando duas reações químicas, propomos um modelo 2-pK para calcular as adsorções químicas que ocorrem no domínio da dupla camada elétrica. De posse do modelo nanoscópico, desenvolvemos um modelo na microescala, onde as adsorções eletroquímicas de íons no domínio da camada dupla, reações de protonação/deprotonação e potencial zeta obtidos na escala nanoscópica, são incorporados ao modelo na escala microscópica através das condições de interface fluido/sólido do problema de Stokes e no transporte dos íons, modelado pelas equações de Nerst-Planck. Usando a técnica de homogeneização de estrutura periódicas juntamente com a hipótese de periodicidade do meio, deduzimos um modelo na escala macroscópica com respectivos problemas de células para os parâmetros efetivos das equações macroscópicas.

    Finalmente, fazendo uso do modelo 2-pK, simulamos os fenômenos de adsorções eletroquímicas em uma caulinita saturada por uma solução aquosa na micro escala. Em seguida fazemos duas simulações macroscópicas em regimes ácidos e básico com a intensão de observar a influência dos fenômenos na escala nano/microscópica sobre a macroescala. 


  • Mostrar Abstract
  • Nesta dissertação de mestrado, propomos uma modelagem computacional multiescala de fenômenos eletrocinéticos em meios poroso carregados eletricamente. Consideramos um meio poroso rígido e incompressível saturado por uma solução eletrolítica contendo quatro solutos iônicos monovalentes totalmente diluídos no solvente.

    Inicialmente, desenvolvemos a modelagem da dupla camada elétrica com a intenção de computar o potencial elétrico, densidade superficial de cargas elétricas e, considerando duas reações químicas, propomos um modelo 2-pK para calcular as adsorções químicas que ocorrem no domínio da dupla camada elétrica. De posse do modelo nanoscópico, desenvolvemos um modelo na microescala, onde as adsorções eletroquímicas de íons no domínio da camada dupla, reações de protonação/deprotonação e potencial zeta obtidos na escala nanoscópica, são incorporados ao modelo na escala microscópica através das condições de interface fluido/sólido do problema de Stokes e no transporte dos íons, modelado pelas equações de Nerst-Planck. Usando a técnica de homogeneização de estrutura periódicas juntamente com a hipótese de periodicidade do meio, deduzimos um modelo na escala macroscópica com respectivos problemas de células para os parâmetros efetivos das equações macroscópicas.

    Finalmente, fazendo uso do modelo 2-pK, simulamos os fenômenos de adsorções eletroquímicas em uma caulinita saturada por uma solução aquosa na micro escala. Em seguida fazemos duas simulações macroscópicas em regimes ácidos e básico com a intensão de observar a influência dos fenômenos na escala nano/microscópica sobre a macroescala. 

8
  • EDUARDO RANGEL GOMES
  • Modelagem Matemática e Computacional do Processo de Filtração Profunda em Meios Porosos

  • Orientador : SIDARTA ARAUJO DE LIMA
  • MEMBROS DA BANCA :
  • SIDARTA ARAUJO DE LIMA
  • VIVIANE KLEIN
  • ADRIANO DOS SANTOS
  • RICARDO COELHO SILVA
  • Data: 13/11/2015

  • Mostrar Resumo
  • O trabalho de pesquisa objetiva desenvolver uma modelagem matemática e computacional do processo de filtração profunda durante o transporte de partículas em suspensão em meios porosos. Inicialmente, desenvolvemos um modelo matemático estocástico baseado em equações diferenciais parciais para modelar o processo de filtração profunda em meios porosos com a exclusão pelo tamanho como mecanismo de captura. O modelo é constituído das equações da conservação de massa de partículas em suspensão, cinética de captura de partículas e cinética de obstrução de poros. Considerando algumas hipóteses, foram obtidos modelos matemáticos reduzidos, e consequentemente foram obtidas algumas soluções analíticas para o transporte de partículas e cinética de obstrução de poros. Do ponto de vista numérico, propomos algumas formulações de métodos de volumes finitos de primeira e segunda ordem não-oscilatórios, satisfazendo uma condição CFL. Deduzimos formulações preliminares discretas dos métodos de Lax-Friedrichs (LxF) e Nessyahu e Tadmor (NT) baseados no algoritmo REA, com o intuito de introduzir as ideias iniciais do método de volumes finitos de Kurganov e Tadmor (KT). Realizamos a discretização do método KT para equações diferenciais hiperbólicas homogênea e não-homogênea com o objetivo de simularmos o processo de filtração profunda. Para a resolução da equação do transporte de partículas utilizamos o método KT e para a cinética de obstrução de poros fizemos uso da família de métodos de Runge-Kutta. Simulações numéricas foram realizadas utilizando as formulações discretas obtidas via métodos de volumes finitos e o método de Runge-Kutta, com o intuito de analisar a acurácia e eficiência da metodologia numérica apresentada. Finalmente, utilizamos a metodologia numérica proposta com o objetivo de obtermos soluções numéricas do processo de filtração profunda, e consequentemente comparar os resultados numéricos com as soluções analíticas obtidas para os modelos matemáticos reduzidos, possibilitando avaliar a acurácia das formulações discretas. Por fim, propomos soluções numéricas do processo de filtração profunda para avaliarmos como ocorre o transporte de partículas em suspensão em meios porosos. Para isso, foram utilizados diferentes tamanhos de partículas e poros.


  • Mostrar Abstract
  • The objective of this research work is to develop a mathematical and computational modeling of depth filtration process during the transport of suspendend particles in porous media. Initially, we developed a stochastic mathematical model based on partial differential equations to model the depth filtration process in porous media with the size exclusion as the capture mechanism. The model consists of the equations of conservation of mass suspendend particles, particle-capture kinetics and pore-blocking kinetics. Considering some hypothesis, reduced mathematical models were obtained, and consequently some analytical solutions were obtained for the transport of particles and pore-blocking kinetics. From the numerical viewpoint, we propose some finite volume methods formulations of first and second order non-oscillatory, satisfying a CFL condition. We deduce discrete preliminary formulations of the methods Lax-Friedrichs (LXF) and Nessyahu and Tadmor (NT) based on the algorithm REA, as the purpose of introducing the initial ideas of the finite volume method of Kurganov and Tadmor (KT). We conduct discretization KT method for hyperbolic differential equations homogeneous and non-homogeneous in order to simulate the depth filtration process. For the resolution of the particle transport equation use the KT method and the pore blocking kinetics family Runge-Kutta methods. Numerical simulations were performed using the discrete formulations obtained via methods of finite volume, in order to analyze the accuracy and efficiency of the numerical methodology presented. Finally, we use numerical methodology proposed with the purpose of obtaining numerical solutions of the depth filtration process, and therefore to compare the results obtained with analytical solutions to mathematical models reduced, making it possible to evaluate the accuracy of discrete formulations. Lastly, we propose numerical solutions of the depth filtration process to evaluate occurs as the particles in suspension transport in porous media. For this, used were different particle and pores sizes.

2014
Dissertações
1
  • ANNA RAFAELLA DA SILVA MARINHO
  • Modelo de Risco com Dependência entre os Valores
    das Indenizações e seus Intervalos entre Ocorrências

  • Orientador : DEBORA BORGES FERREIRA
  • MEMBROS DA BANCA :
  • BERNARDO BORBA DE ANDRADE
  • CIRA ETHEOWALDA OTINIANO GUEVARA
  • DEBORA BORGES FERREIRA
  • Data: 30/01/2014

  • Mostrar Resumo
  • Neste trabalho apresentamos um modelo de risco dependente para descrever o excedente de uma carteira de seguros, com base no artigo ”A ruin model with dependence between claim sizes and claim intervals”(Albrecher e Boxma [1]). Obtemos uma expressão exata para a probabilidade de sobrevivência através da Transformada de Laplace da função de sobrevivência do superávit. Ilustramos os resultados obtidos através de exemplos numéricos e investigamos o que acontece ao se ignorar a estrutura de dependência presente no modelo. Estudamos também a probabilidade de sobrevivência para indenizações que possuem distribução do Tipo Fase, considerando que esta é uma classe de distribuições, computacionalmente tratáveis, bem mais geral.


  • Mostrar Abstract
  • Neste trabalho apresentamos um modelo de risco dependente para descrever o excedente de uma carteira de seguros, com base no artigo ”A ruin model with dependence between claim sizes and claim intervals”(Albrecher e Boxma [1]). Obtemos uma expressão exata para a probabilidade de sobrevivência através da Transformada de Laplace da função de sobrevivência do superávit. Ilustramos os resultados obtidos através de exemplos numéricos e investigamos o que acontece ao se ignorar a estrutura de dependência presente no modelo. Estudamos também a probabilidade de sobrevivência para indenizações que possuem distribução do Tipo Fase, considerando que esta é uma classe de distribuições, computacionalmente tratáveis, bem mais geral.

2
  • ANDRESSA NUNES SIROKY
  • Inferência no Modelo Potência Normal Bimodal Assimétrico

  • Orientador : BERNARDO BORBA DE ANDRADE
  • MEMBROS DA BANCA :
  • BERNARDO BORBA DE ANDRADE
  • ANDRE LUIS SANTOS DE PINHO
  • JUVÊNCIO SANTOS NOBRE
  • Data: 31/01/2014

  • Mostrar Resumo
  • Neste trabalho foram estudadas questões em aberto relativas ao modelo recém
    proposto por Bolfarine e outros (2013), o modelo potência normal bimodal
    assimétrico (PNBA). Após uma revisão das propriedades básicas do referido
    modelo, nos ocupamos das seguintes questões: desenvolver um algoritmo para
    geracão de amostras aleatórias, comparar os métodos de máxima verossimilhanca
    e de momentos em pequenas amostras e propor um método de reamostragem
    (bootstrap) para comparacão de duas populacões PNBA. Identificamos a
    existência de dificuldades numéricas referentes a estimacão por MV em virtude
    de pouca curvatura da verossimilhança para determinados pontos no espaco
    paramétrico e partir daí foram propostas soluções numéricas de simples
    implementação.


  • Mostrar Abstract
  • Neste trabalho foram estudadas questões em aberto relativas ao modelo recém
    proposto por Bolfarine e outros (2013), o modelo potência normal bimodal
    assimétrico (PNBA). Após uma revisão das propriedades básicas do referido
    modelo, nos ocupamos das seguintes questões: desenvolver um algoritmo para
    geracão de amostras aleatórias, comparar os métodos de máxima verossimilhanca
    e de momentos em pequenas amostras e propor um método de reamostragem
    (bootstrap) para comparacão de duas populacões PNBA. Identificamos a
    existência de dificuldades numéricas referentes a estimacão por MV em virtude
    de pouca curvatura da verossimilhança para determinados pontos no espaco
    paramétrico e partir daí foram propostas soluções numéricas de simples
    implementação.

3
  • ANTONIO MARCOS BATISTA DO NASCIMENTO
  • Ergodicidade em Cadeias de Markov Não-Homogêneas e Cadeias de Markov com Transições Raras
     

  • Orientador : JUAN ALBERTO ROJAS CRUZ
  • MEMBROS DA BANCA :
  • JUAN ALBERTO ROJAS CRUZ
  • DEBORA BORGES FERREIRA
  • CÁTIA REGINA GONÇALVES
  • Data: 14/02/2014

  • Mostrar Resumo
  • O objetivo central de estudo em Cadeias de Markov Não-Homogêneas são os

    conceitos de ergodicidade fraca e forte. Uma cadeia é ergódica fraca se a

    dependência da distribuição inicial desaparece com o tempo, e é ergódica forte se é

    ergódica fraca e converge em distribuição. A maioria dos resultados teóricos sobre a

    ergodicidade forte supõem algum conhecimento do comportamento limite

    das distribuições estacionárias. Neste trabalho, reunimos alguns resultados gerais

    sobre ergodicidade fraca e forte para cadeias com espaço de estados enumerável, e

    também estudamos o comportamento assintótico das distribuições estacionárias de um

    tipo particular de Cadeias de Markov com espaço de estados finito, chamadas Cadeias

    de Markov com Probabilidades Raras.


  • Mostrar Abstract
  • O objetivo central de estudo em Cadeias de Markov Não-Homogêneas são os

    conceitos de ergodicidade fraca e forte. Uma cadeia é ergódica fraca se a

    dependência da distribuição inicial desaparece com o tempo, e é ergódica forte se é

    ergódica fraca e converge em distribuição. A maioria dos resultados teóricos sobre a

    ergodicidade forte supõem algum conhecimento do comportamento limite

    das distribuições estacionárias. Neste trabalho, reunimos alguns resultados gerais

    sobre ergodicidade fraca e forte para cadeias com espaço de estados enumerável, e

    também estudamos o comportamento assintótico das distribuições estacionárias de um

    tipo particular de Cadeias de Markov com espaço de estados finito, chamadas Cadeias

    de Markov com Probabilidades Raras.

4
  • JOCELÂNIO WESLEY DE OLIVEIRA
  • Gráficos CUSUM Ajustados ao Risco para Monitoramento de Tempos de Sobrevivência com Fração de Cura
  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • CARLA ALMEIDA VIVACQUA
  • FRANCISCO LOUZADA NETO
  • Data: 14/02/2014

  • Mostrar Resumo
  • Neste trabalho estudamos o uso de técnicas de Controle Estatístico de Processos (CEP) para monitoramento de tempos de sobrevivência. Diferentemente de aplicações na área industrial, em que a população em estudo é considerada homogênea, o CEP na área de saúde admite a heterogeneidade e deseja levar em consideração características particulares de pacientes que, antes de se submeterem a um procedimento médico, podem apresentar diferentes riscos de morte. Nessa perspectiva, alguns autores propõem o uso de um gráfico de controle CUSUM ajustado ao risco (RAST CUSUM) para monitorar resultados clínicos em que a resposta e o tempo até a ocorrência de um evento e está sujeita a censura à direita. No entanto, os modelos adotados não consideram a possibilidade de fração de cura. Neste estudo propomos estender esta abordagem considerando um modelo de sobrevivência com fração de cura. Para tanto, admitimos as distribuições log-logística e Weibull como exemplos. Finalmente, realizamos um estudo de simulação com a distribuição Weibull para obter limites de controle ótimos e avaliar o desempenho do gráfico que propomos em comparação com o RAST CUSUM sem fração de cura. Como resultado, notamos que o gráfico RAST CUSUM sem fração de cura se mostra inadequado ao ser aplicado em dados com fração de cura, mas o gráfico RAST CUSUM com fração de cura parece ter desempenho similar se aplicado em dados sem fração de cura.

  • Mostrar Abstract
  • Neste trabalho estudamos o uso de técnicas de Controle Estatístico de Processos (CEP) para monitoramento de tempos de sobrevivência. Diferentemente de aplicações na área industrial, em que a população em estudo é considerada homogênea, o CEP na área de saúde admite a heterogeneidade e deseja levar em consideração características particulares de pacientes que, antes de se submeterem a um procedimento médico, podem apresentar diferentes riscos de morte. Nessa perspectiva, alguns autores propõem o uso de um gráfico de controle CUSUM ajustado ao risco (RAST CUSUM) para monitorar resultados clínicos em que a resposta e o tempo até a ocorrência de um evento e está sujeita a censura à direita. No entanto, os modelos adotados não consideram a possibilidade de fração de cura. Neste estudo propomos estender esta abordagem considerando um modelo de sobrevivência com fração de cura. Para tanto, admitimos as distribuições log-logística e Weibull como exemplos. Finalmente, realizamos um estudo de simulação com a distribuição Weibull para obter limites de controle ótimos e avaliar o desempenho do gráfico que propomos em comparação com o RAST CUSUM sem fração de cura. Como resultado, notamos que o gráfico RAST CUSUM sem fração de cura se mostra inadequado ao ser aplicado em dados com fração de cura, mas o gráfico RAST CUSUM com fração de cura parece ter desempenho similar se aplicado em dados sem fração de cura.
5
  • ALEX WAGNER PEREIRA
  • CONSEQUÊNCIAS DA ANÁLISE INADEQUADA DE UM EXPERIMENTO FATORIAL 2k EM PARCELAS SUBDIVIDIDAS E SEM REPLICAÇÃO
  • Orientador : CARLA ALMEIDA VIVACQUA
  • MEMBROS DA BANCA :
  • CARLA ALMEIDA VIVACQUA
  • ANDRE LUIS SANTOS DE PINHO
  • ALINE DE HOLANDA NUNES MAIA
  • Data: 13/03/2014

  • Mostrar Resumo
  • Em experimentos com vários fatores em que alguns são mais difíceis de mudar que outros, pode ser inconveniente executar as provas do experimento em uma forma completamente aleatória, levando o pesquisador a criar naturalmente uma restrição na ordem de execução para poupar tempo ou reduzir os custos. Este tipo de restrição pode resultar em uma generalização do planejamento fatorial, conhecida como experimentos em parcelas subdivididas. Na prática, é comum executar um experimento em parcelas subdivididas e analisá-lo como se fosse completamente aleatorizado. O objetivo principal do trabalho é avaliar o impacto de analisar um experimento com restrição na aleatorização como completamente aleatorizado.

  • Mostrar Abstract
  • Em experimentos com vários fatores em que alguns são mais difíceis de mudar que outros, pode ser inconveniente executar as provas do experimento em uma forma completamente aleatória, levando o pesquisador a criar naturalmente uma restrição na ordem de execução para poupar tempo ou reduzir os custos. Este tipo de restrição pode resultar em uma generalização do planejamento fatorial, conhecida como experimentos em parcelas subdivididas. Na prática, é comum executar um experimento em parcelas subdivididas e analisá-lo como se fosse completamente aleatorizado. O objetivo principal do trabalho é avaliar o impacto de analisar um experimento com restrição na aleatorização como completamente aleatorizado.
6
  • ELVIS NERIS DE MEDEIROS
  • NI-GMRES Precondicionado

  • Orientador : JULIA VICTORIA TOLEDO BENAVIDES
  • MEMBROS DA BANCA :
  • JULIA VICTORIA TOLEDO BENAVIDES
  • ROBERTO HUGO BIELSCHOWSKY
  • MARIA APARECIDA DINIZ EHRHARDT
  • Data: 22/04/2014

  • Mostrar Resumo
  • Neste trabalho estudamos o problema não linear F(X) = 0, onde F é continuamente diferenciável com F : Rn-> Rn. Para solucioná-lo empregamos o método de Newton Inexato obtendo um sistema linearizado J(xk)sk =-F(xk), onde J(xk) representa a matriz Jacobiana
    no ponto xk e o passo iterativo sk é calculado por meio do método do Resíduo Mínimo
    Generalizado (GMRES), que pertence à família dos métodos de projeção em subespaços de Krylov. Afim de evitar de evitar o acréscimo no custo computacional devido ao aumento

    a cada iteração na dimensão do subespaço de Krylov utilizamos o GMRES com recomeços ou GMRES(m), o qual pode apresentar problemas de estagnação (duas soluções consecutivas iguais ou quase iguais). Uma das maneiras de contornar essa estagnação

    está no uso de precondicionadores no sistema inicial Ax = b, passando a um sistema equivalente do tipo M-1Ax = M-1b onde a matriz M é chamada de precondicionador e tem o papel de facilitar a solução do sistema inicial. A escolha de precondicionadores é uma área de pesquisa que remete ao conhecimento específico a priori do problema a ser resolvido e/ou da estrutura da matriz dos coeficientes A. Neste trabalho buscamos estudar o precondicionamento pela esquerda no método do Newton Inexato - GMRES(m). Apresentamos também uma estratégia que permite a mudança entre 3 tipos de precondicionadores (Jacobi, ILU e SSOR) dependendo de informações advindas da aplicação do GMRES(m) a cada iteração do Newton Inexato, ou seja, a cada vez que se resolve o sistema linearizado precondicionado. Assim fazemos ao final uma comparação entre nossas estratégias e o uso de precondicionadores fixos na resolução de problemas teste por meio do NI-GMRES.


  • Mostrar Abstract
  • Neste trabalho estudamos o problema não linear F(X) = 0, onde F é continuamente diferenciável com F : Rn-> Rn. Para solucioná-lo empregamos o método de Newton Inexato obtendo um sistema linearizado J(xk)sk =-F(xk), onde J(xk) representa a matriz Jacobiana
    no ponto xk e o passo iterativo sk é calculado por meio do método do Resíduo Mínimo
    Generalizado (GMRES), que pertence à família dos métodos de projeção em subespaços de Krylov. Afim de evitar de evitar o acréscimo no custo computacional devido ao aumento

    a cada iteração na dimensão do subespaço de Krylov utilizamos o GMRES com recomeços ou GMRES(m), o qual pode apresentar problemas de estagnação (duas soluções consecutivas iguais ou quase iguais). Uma das maneiras de contornar essa estagnação

    está no uso de precondicionadores no sistema inicial Ax = b, passando a um sistema equivalente do tipo M-1Ax = M-1b onde a matriz M é chamada de precondicionador e tem o papel de facilitar a solução do sistema inicial. A escolha de precondicionadores é uma área de pesquisa que remete ao conhecimento específico a priori do problema a ser resolvido e/ou da estrutura da matriz dos coeficientes A. Neste trabalho buscamos estudar o precondicionamento pela esquerda no método do Newton Inexato - GMRES(m). Apresentamos também uma estratégia que permite a mudança entre 3 tipos de precondicionadores (Jacobi, ILU e SSOR) dependendo de informações advindas da aplicação do GMRES(m) a cada iteração do Newton Inexato, ou seja, a cada vez que se resolve o sistema linearizado precondicionado. Assim fazemos ao final uma comparação entre nossas estratégias e o uso de precondicionadores fixos na resolução de problemas teste por meio do NI-GMRES.

7
  • ALLYSON FERNANDES LIANDRO
  • A Distribuição F Generalizada para Selecionar Modelos de Sobrevivência com Fração de Cura

  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • BERNARDO BORBA DE ANDRADE
  • JUVÊNCIO SANTOS NOBRE
  • Data: 03/06/2014

  • Mostrar Resumo
  • A analise de sobrevivência paramétrica estuda o tempo até a ocorrência de um evento com base no ajuste de modelos probabilísticos fazendo uso frequente de modelos flexíveis para a escolha de um modelo mais simples e fácil de interpretar. Nesse sentido, a distribuição F generalizada tem a vantagem de incluir várias  distribuições importantes como casos especiais, com Weibull, Log-normal, log-logstica entre outras. Modelos de sobrevivência que tratam de estudos em que um percentual dos indivduos não apresentam a ocorrência do evento de interesse, mesmo acompanhados por um longo período de tempo, são chamados de modelos de longa duração ou modelos de fração de cura e vem sendo estudados nos últimos anos por diversos autores. Neste contexto, este trabalho tem como objetivo o estudo de características teóricas e computacionais associadas ao ajuste do modelo F generalizado com fração de cura.


  • Mostrar Abstract
  • A analise de sobrevivência paramétrica estuda o tempo até a ocorrência de um evento com base no ajuste de modelos probabilísticos fazendo uso frequente de modelos flexíveis para a escolha de um modelo mais simples e fácil de interpretar. Nesse sentido, a distribuição F generalizada tem a vantagem de incluir várias  distribuições importantes como casos especiais, com Weibull, Log-normal, log-logstica entre outras. Modelos de sobrevivência que tratam de estudos em que um percentual dos indivduos não apresentam a ocorrência do evento de interesse, mesmo acompanhados por um longo período de tempo, são chamados de modelos de longa duração ou modelos de fração de cura e vem sendo estudados nos últimos anos por diversos autores. Neste contexto, este trabalho tem como objetivo o estudo de características teóricas e computacionais associadas ao ajuste do modelo F generalizado com fração de cura.

8
  • PAULO DE SOUSA SOBRINHO
  • Algoritmos genéticos canônico e elitista: Uma abordagem comparativa

  • Orientador : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBROS DA BANCA :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • DIONE MARIA VALENCA
  • EDMILSON RODRIGUES PINTO
  • Data: 02/07/2014

  • Mostrar Resumo
  • Este trabalho tem como objetivo apresentar as diferenças entre os algoritmos genético canônico e elitista. Para isso explicamos detatalhadamente cada etapa dos algoritmos, sua modelagem via cadeias de Markov e suas convergências. Utilizamos a versão elitista apresentada no artigo  MULTISTAGE MARKOV CHAIN MODELING OF THE GENETIC ALGORITHM AND CONVERGENCE RESULTS a fim de desenvolver simulações numéricas comparativas.


  • Mostrar Abstract
  • Este trabalho tem como objetivo apresentar as diferenças entre os algoritmos genético canônico e elitista. Para isso explicamos detatalhadamente cada etapa dos algoritmos, sua modelagem via cadeias de Markov e suas convergências. Utilizamos a versão elitista apresentada no artigo  MULTISTAGE MARKOV CHAIN MODELING OF THE GENETIC ALGORITHM AND CONVERGENCE RESULTS a fim de desenvolver simulações numéricas comparativas.

9
  • BRUNO DE LIMA BARBOSA
  • O USO DE MODELOS DE MARKOV OCULTOS NO ESTUDO DO FLUXO DE ÁGUA EM RIOS INTERMITENTES

  • Orientador : BERNARDO BORBA DE ANDRADE
  • MEMBROS DA BANCA :
  • BERNARDO BORBA DE ANDRADE
  • FRANCISCO DE ASSIS SALVIANO DE SOUZA
  • LUZ MILENA ZEA FERNANDEZ
  • Data: 04/09/2014

  • Mostrar Resumo

  • Neste trabalho, apresentamos nosso entendimento acerca do artigo de Aksoy (2003), executando uma aplicação do modelo por ele apresentado, com o intuito de gerar dados de fluxos intermitentes, a partir de bancos de dados brasileiros. Em seguida, construímos um modelo oculto de Markov como uma nova proposta de abordagem para o problema. Nele utilizamos distribuições gama para simular os aumentos e decréscimos dos fluxos dos rios.


  • Mostrar Abstract

  • Neste trabalho, apresentamos nosso entendimento acerca do artigo de Aksoy (2003), executando uma aplicação do modelo por ele apresentado, com o intuito de gerar dados de fluxos intermitentes, a partir de bancos de dados brasileiros. Em seguida, construímos um modelo oculto de Markov como uma nova proposta de abordagem para o problema. Nele utilizamos distribuições gama para simular os aumentos e decréscimos dos fluxos dos rios.

2013
Dissertações
1
  • RAFAELA HORACINA SILVA ROCHA SOARES
  • Modelo de Risco controlado por resseguros e desigualdades para a probabilidade de ruína

  • Orientador : DEBORA BORGES FERREIRA
  • MEMBROS DA BANCA :
  • CÁTIA REGINA GONÇALVES
  • DEBORA BORGES FERREIRA
  • JUAN ALBERTO ROJAS CRUZ
  • Data: 28/02/2013

  • Mostrar Resumo
  • Neste trabalho apresentamos resultados teóricos e numéricos referentes a um Modelo
    de Risco com Taxa de Juros e Resseguro Proporcional baseados no artigo Inequalities
    for the ruin probability in a controlled discrete-time risk process de Rosario Romera e
    Maikol Diasparra. Equações recursivas e integrais para a Probabilidade de
    Runa são obtidas bem como cotas superiores para a mesma por diferentes abordagens, a
    saber, pela clássica desigualdade de Lundberg, pela abordagem Indutiva e pela abordagem
    Martingale. Técnicas de estimação de densidade (não-parametricas) são utilizadas para a
    obtenção das cotas para a Probabilidade de Ruína e os algoritmos utilizados na simulação
    são apresentados.


  • Mostrar Abstract
  • Neste trabalho apresentamos resultados teóricos e numéricos referentes a um Modelo
    de Risco com Taxa de Juros e Resseguro Proporcional baseados no artigo Inequalities
    for the ruin probability in a controlled discrete-time risk process de Rosario Romera e
    Maikol Diasparra. Equações recursivas e integrais para a Probabilidade de
    Runa são obtidas bem como cotas superiores para a mesma por diferentes abordagens, a
    saber, pela clássica desigualdade de Lundberg, pela abordagem Indutiva e pela abordagem
    Martingale. Técnicas de estimação de densidade (não-parametricas) são utilizadas para a
    obtenção das cotas para a Probabilidade de Ruína e os algoritmos utilizados na simulação
    são apresentados.

2
  • JOSEMIR RAMOS DE ALMEIDA
  • Estimação Clássica e Bayesiana em Modelos de Sobrevida com Fração de Cura

  • Orientador : BERNARDO BORBA DE ANDRADE
  • MEMBROS DA BANCA :
  • BERNARDO BORBA DE ANDRADE
  • DIONE MARIA VALENCA
  • JOSÉ AILTON ALENCAR ANDRADE
  • Data: 22/03/2013

  • Mostrar Resumo
  • Na An ́ lise de Sobrevivˆ ncia, os modelos de longa duracao permitindo uma generalizacao dos modelos basicos no sentido de modelar a parcela da populacao em estudo que é imune ao evento de interesse. Neste trabalho ilustramos e comparamos as estimacoes Bayesiana e frequentista com base nos modelos de mistura padr ̃ o exponencial e de tempo de promocao aplicados a uma base de dados descrita em Kersey et al. (1987), que consiste em dois grupos de pacientes com leucemia submetidos a dois tipos de transplantes. Os procedimentos comparados foram o m ́ todo de Laplace, m ́ todo de m ́ xima verossimilhanca e amostrador de Gibbs.


  • Mostrar Abstract
  • Na An ́ lise de Sobrevivˆ ncia, os modelos de longa duracao permitindo uma generalizacao dos modelos basicos no sentido de modelar a parcela da populacao em estudo que é imune ao evento de interesse. Neste trabalho ilustramos e comparamos as estimacoes Bayesiana e frequentista com base nos modelos de mistura padr ̃ o exponencial e de tempo de promocao aplicados a uma base de dados descrita em Kersey et al. (1987), que consiste em dois grupos de pacientes com leucemia submetidos a dois tipos de transplantes. Os procedimentos comparados foram o m ́ todo de Laplace, m ́ todo de m ́ xima verossimilhanca e amostrador de Gibbs.

3
  • ELISANGELA DA SILVA RODRIGUES
  • Analise de Resíduos em Modelos de Tempo de Falha Acelerado com Efeito Aleatorio

  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • BERNARDO BORBA DE ANDRADE
  • HELENO BOLFARINE
  • JULIO DA MOTTA SINGER
  • Data: 15/04/2013

  • Mostrar Resumo
  • Apresentamos tecnicas de analise de resduos para avaliar o ajuste de dados de sobrevivênencia correlacionados por meio de Modelos de Tempo de Falha Acelerado (MTFA) com efeito aleatorio. Propomos um procedimento de imputação para as informações censuradas e consideramos três tipos de resíduos para avaliar diferentes caractersticas do modelo. Ilustramos as propostas com a analise do ajuste de um MTFA com efeito
    aleatorio a um conjunto de dados reais envolvendo tempos entre falhas de equipamentos de pocos de petroleo.


  • Mostrar Abstract
  • Apresentamos tecnicas de analise de resduos para avaliar o ajuste de dados de sobrevivênencia correlacionados por meio de Modelos de Tempo de Falha Acelerado (MTFA) com efeito aleatorio. Propomos um procedimento de imputação para as informações censuradas e consideramos três tipos de resíduos para avaliar diferentes caractersticas do modelo. Ilustramos as propostas com a analise do ajuste de um MTFA com efeito
    aleatorio a um conjunto de dados reais envolvendo tempos entre falhas de equipamentos de pocos de petroleo.

4
  • MARIA JUCIMEIRE DOS SANTOS
  • Uma estratégia aleatória chamada de Moses.

  • Orientador : JUAN ALBERTO ROJAS CRUZ
  • MEMBROS DA BANCA :
  • DANIELE DA SILVA BARATELA MARTINS NETO
  • DEBORA BORGES FERREIRA
  • JUAN ALBERTO ROJAS CRUZ
  • Data: 24/04/2013

  • Mostrar Resumo
  • Neste trabalho é estudado um algoritmo evolutivo chamado de MOSE,o qual foi introduzido por François em 1996.Resultados assintóticos deste algoritmo,comportamento das distribuiçoes estacionárias,foram derivados por François,em 1998,da teoria de Freidlin e Wentzell,detalhamentos destes resultados estão neste trabalho.Por outro lado,notamos que uma abordagem alternativa da convergência do algoritmo é possível sem fazer uso dos resultados de Freidlin e Wentzell,obtendo-se a visita quase certa do algoritmo ás populaçoes que contém o mínimo global.Também algumas simulaçoes no Matlab são apresentadas.

     


  • Mostrar Abstract
  • Neste trabalho é estudado um algoritmo evolutivo chamado de MOSE,o qual foi introduzido por François em 1996.Resultados assintóticos deste algoritmo,comportamento das distribuiçoes estacionárias,foram derivados por François,em 1998,da teoria de Freidlin e Wentzell,detalhamentos destes resultados estão neste trabalho.Por outro lado,notamos que uma abordagem alternativa da convergência do algoritmo é possível sem fazer uso dos resultados de Freidlin e Wentzell,obtendo-se a visita quase certa do algoritmo ás populaçoes que contém o mínimo global.Também algumas simulaçoes no Matlab são apresentadas.

     

5
  • ALDEMIR CIRILO DA SILVA
  • Modelagem Matemática e Computacional de Fenômenos Eletrocinéticos

    em Meios Porosos Carregados Eletricamente

  • Orientador : SIDARTA ARAUJO DE LIMA
  • MEMBROS DA BANCA :
  • SIDARTA ARAUJO DE LIMA
  • JULIA VICTORIA TOLEDO BENAVIDES
  • VIVIANE KLEIN
  • LEONARDO JOSÉ DO NASCIMENTO GUIMARÃES
  • Data: 05/08/2013

  • Mostrar Resumo
  • Neste trabalho derivamos uma modelagem matemática e computacional multiescala para o movimento de fluidos e transporte dos solutos utilizando a técnica de homogeneização de estruturas periódicas. Na escala nanoscópica modelamos os fenômenos eletroquímicos fazendo uso da teoria da camada dupla de Gouy-Chapmann. Na escala do poro, assumimos as partículas sólidas carregadas eletricamente, consideradas rígidas e incompressíveis, com a matriz
    porosa saturada por uma solução aquosa salina. Reações eletroquímicas de ionização, hidrólise e eletrólise dão origem a solutos dissociados na fase aquosa. Para a modelagem do movimento da solução aquosa e transporte dos  íons,  postulamos a equação de Stokes que governa a eletro-hidrodinâmica do fluido e equações de Nernst-Planck do contínuo para  o movimento dos solutos iônicos juntamento com condições de interface para o deslizamento dos ions na camada dupla e adsorção eletro-química das espécies na interface fluido/sólido. O sistema de equações microscópico/nanoscópico é derivado na escala macroscópica fazendo uso da técnica de perturbação assintótica denominada homogeneização de estruturas periódicas. Simulação computacionais são propostas com o objetivo de quantificar fenômenos eletrocinéticos em meios porosos argilosos.


  • Mostrar Abstract
  • Neste trabalho derivamos uma modelagem matemática e computacional multiescala para o movimento de fluidos e transporte dos solutos utilizando a técnica de homogeneização de estruturas periódicas. Na escala nanoscópica modelamos os fenômenos eletroquímicos fazendo uso da teoria da camada dupla de Gouy-Chapmann. Na escala do poro, assumimos as partículas sólidas carregadas eletricamente, consideradas rígidas e incompressíveis, com a matriz
    porosa saturada por uma solução aquosa salina. Reações eletroquímicas de ionização, hidrólise e eletrólise dão origem a solutos dissociados na fase aquosa. Para a modelagem do movimento da solução aquosa e transporte dos  íons,  postulamos a equação de Stokes que governa a eletro-hidrodinâmica do fluido e equações de Nernst-Planck do contínuo para  o movimento dos solutos iônicos juntamento com condições de interface para o deslizamento dos ions na camada dupla e adsorção eletro-química das espécies na interface fluido/sólido. O sistema de equações microscópico/nanoscópico é derivado na escala macroscópica fazendo uso da técnica de perturbação assintótica denominada homogeneização de estruturas periódicas. Simulação computacionais são propostas com o objetivo de quantificar fenômenos eletrocinéticos em meios porosos argilosos.

6
  • MARCIO LEMOS DO NASCIMENTO
  • Unicidade e Discretização para problemas de valor inicial

  • Orientador : NIR COHEN
  • MEMBROS DA BANCA :
  • NIR COHEN
  • JULIA VICTORIA TOLEDO BENAVIDES
  • DANIEL CORDEIRO DE MORAIS FILHO
  • Data: 13/08/2013

  • Mostrar Resumo
  • O presente trabalho tem dois objetivos: (i) a realização de uma pesquisa bibliogr
    a ca sobre os criterios de unicidade de solução para problemas de valor inicial
    de equações diferenciais ordinarias. (ii) Introduzir uma modi cação do metodo de
    Euler que parece ser capaz de convergir a uma das soluções do problema, caso a
    solução não seja única.


  • Mostrar Abstract
  • O presente trabalho tem dois objetivos: (i) a realização de uma pesquisa bibliogr
    a ca sobre os criterios de unicidade de solução para problemas de valor inicial
    de equações diferenciais ordinarias. (ii) Introduzir uma modi cação do metodo de
    Euler que parece ser capaz de convergir a uma das soluções do problema, caso a
    solução não seja única.

7
  • IVANILDO FREIRE PEREIRA
  • Parâmetro de regularização em problemas inversos: Estudo numérico com a Transformada de Radón

  • Orientador : ROBERTO HUGO BIELSCHOWSKY
  • MEMBROS DA BANCA :
  • ROBERTO HUGO BIELSCHOWSKY
  • EDGAR SILVA PEREIRA
  • WALTER EUGENIO DE MEDEIROS
  • REGINALDO DE JESUS SANTOS
  • Data: 20/09/2013

  • Mostrar Resumo
  • Problemas inversos, usualmente recaem em resolver alguma equação do tipo f(x) = b, onde cada equação fi(x) = bi  pode ser   pensada como uma medida de um dado x a ser recuperado. Usualmente são mal postos, no sentido de corresponderem a equações que podem não ter solução exata, podem ainda ter  muitas soluções,  ou ainda, o que é o mais comum, ter soluções muito instáveis a ruídos na obtenção de b. Há várias formas de “regularizar” a obtenção de soluções de tais problemas e a mais “popular” seria a de Tykhonov, que corresponde a:

     

                                   Minimizar  ||f(x) – b||2 + l ||L(x – x0) ||2       (I)

     

    A regularização pretendida corresponde a se escolher o operador l, de tal forma que o problema I tenha soluções estáveis com perturbações em b e que aproximem soluções do problema de mínimos quadrados usual, no caso de se fazer l  0.   O primeiro termo de (I) representa o ajuste aos dados e o segundo termo penaliza a solução de forma a regularizar o problema e produzir uma solução estável a ruídos.  Se l = 0, isto significa que estamos procurando  uma solução de quadrados mínimos para o problema, o  que usualmente é insuficiente para problemas mal postos. O termo de regularização adicionado  introduz um viés na solução ao penalizar o ajuste com um termo adicional.   Se L for a identidade, por exemplo, isto significa que estamos apostando que a solução estaria relativamente próxima de x0. Se L for o operador gradiente, estamos apostando que a solução x é razoavelmente suave.  Nas aplicações, L usualmente é escolhido como um operador adaptado ao problema estudado e de forma se valer de  informações a priori disponíveis sobre as soluções  procuradas.

     

    A escolha do parâmetro l > 0 é crucial neste métodos, pelo fato que se l é excessivo, isto tende a  enfraquecer  excessivamente o ajuste  aos dados, induzindo um  ajuste da solução  à   x0.  Se l for pequeno demais a regularização pretendida acaba não acontecendo e a solução do problema (I)  usualmente acaba ficando muito instável e contaminada por ruídos. Há várias técnicas disponíveis na literatura para tal escolha, sobretudo se f  é uma função linear f(x) = Ax. O objetivo da dissertação é o de estudar algumas destas técnicas de ajuste do parâmetro l no caso de operadores discretizados,  vale dizer, x no  Rn.  Em especial, destacamos os métodos de ajuste do parâmetro l   reconhecidos na literatura como L-curve, GCV e método da discrepância, e objetiva-se   comparar estes métodos em testes feitos com a transformada de Radon e tendo como regularizador um operador de derivada de primeira ordem.  Os resultados dos testes realizados revelam  pontos interessantes na relação entre os diferentes estimadores para o parãmetro de regularização e que sugerem  um aprofundamento teórico além do escopo desta dissertação.


  • Mostrar Abstract
  • Problemas inversos, usualmente recaem em resolver alguma equação do tipo f(x) = b, onde cada equação fi(x) = bi  pode ser   pensada como uma medida de um dado x a ser recuperado. Usualmente são mal postos, no sentido de corresponderem a equações que podem não ter solução exata, podem ainda ter  muitas soluções,  ou ainda, o que é o mais comum, ter soluções muito instáveis a ruídos na obtenção de b. Há várias formas de “regularizar” a obtenção de soluções de tais problemas e a mais “popular” seria a de Tykhonov, que corresponde a:

     

                                   Minimizar  ||f(x) – b||2 + l ||L(x – x0) ||2       (I)

     

    A regularização pretendida corresponde a se escolher o operador l, de tal forma que o problema I tenha soluções estáveis com perturbações em b e que aproximem soluções do problema de mínimos quadrados usual, no caso de se fazer l  0.   O primeiro termo de (I) representa o ajuste aos dados e o segundo termo penaliza a solução de forma a regularizar o problema e produzir uma solução estável a ruídos.  Se l = 0, isto significa que estamos procurando  uma solução de quadrados mínimos para o problema, o  que usualmente é insuficiente para problemas mal postos. O termo de regularização adicionado  introduz um viés na solução ao penalizar o ajuste com um termo adicional.   Se L for a identidade, por exemplo, isto significa que estamos apostando que a solução estaria relativamente próxima de x0. Se L for o operador gradiente, estamos apostando que a solução x é razoavelmente suave.  Nas aplicações, L usualmente é escolhido como um operador adaptado ao problema estudado e de forma se valer de  informações a priori disponíveis sobre as soluções  procuradas.

     

    A escolha do parâmetro l > 0 é crucial neste métodos, pelo fato que se l é excessivo, isto tende a  enfraquecer  excessivamente o ajuste  aos dados, induzindo um  ajuste da solução  à   x0.  Se l for pequeno demais a regularização pretendida acaba não acontecendo e a solução do problema (I)  usualmente acaba ficando muito instável e contaminada por ruídos. Há várias técnicas disponíveis na literatura para tal escolha, sobretudo se f  é uma função linear f(x) = Ax. O objetivo da dissertação é o de estudar algumas destas técnicas de ajuste do parâmetro l no caso de operadores discretizados,  vale dizer, x no  Rn.  Em especial, destacamos os métodos de ajuste do parâmetro l   reconhecidos na literatura como L-curve, GCV e método da discrepância, e objetiva-se   comparar estes métodos em testes feitos com a transformada de Radon e tendo como regularizador um operador de derivada de primeira ordem.  Os resultados dos testes realizados revelam  pontos interessantes na relação entre os diferentes estimadores para o parãmetro de regularização e que sugerem  um aprofundamento teórico além do escopo desta dissertação.

2012
Dissertações
1
  • MARIANA BARBOSA DA SILVA
  • Estimadores do Tipo Núcleo para variáveis iid com Espaço de Estados Geral.

  • Orientador : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBROS DA BANCA :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • DEBORA BORGES FERREIRA
  • JAQUES SILVEIRA LOPES
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 31/05/2012

  • Mostrar Resumo
  • Neste trabalho estudamos as propriedades assintóticas dos Estimadores do Tipo Núcleo associados a variáveis aleatórias iid com espaço de estados geral.Verificamos que esses estimadores são assitoticamente não viciados, consistentes em média quadrática, fortemente consistentes e assintoticamente normal distribuidos. Finalizamos com um exemplo, onde ilustramos via simulação a importância do tamanho da janela.


  • Mostrar Abstract
  • Neste trabalho estudamos as propriedades assintóticas dos Estimadores do Tipo Núcleo associados a variáveis aleatórias iid com espaço de estados geral.Verificamos que esses estimadores são assitoticamente não viciados, consistentes em média quadrática, fortemente consistentes e assintoticamente normal distribuidos. Finalizamos com um exemplo, onde ilustramos via simulação a importância do tamanho da janela.

2
  • ELVIS DOS SANTOS SAMPAIO
  • GRÁFICO MISTO DE CONTROLE DA MÉDIA COM AMOSTRAGEM EM DOIS ESTÁGIOS

  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • MEMBROS DA BANCA :
  • PLEDSON GUEDES DE MEDEIROS
  • DIONE MARIA VALENCA
  • ANTONIO FERNANDO BRANCO COSTA
  • Data: 20/07/2012

  • Mostrar Resumo
  • Esta dissertação propõe um novo gráfico (ou procedimento) de controle para monitorar a centralidade
    de um processo (média) por meio da junção dos gráficos X-barra e npx. Basicamente o
    procedimento consiste em dividir o tamanho n da amostra em duas partes (n1 e n2), definidas
    pelo processo de otimização. Realiza-se a inpeção por atributos na sub-amostra de tamanho n1
    por meio do gráfico npx. Caso seja detectada a presença de alguma causa especial inspeciona-se
    a parte relativa a inspeção por variáveis na sub-amostra de tamanho n2 por meio do gráfico X-barra. A
    possibilidade de não inspecionar todos os itens da amostra pode promover uma redução tanto no
    custo quanto no tempo gasto para inspecionar os itens da amostra. Descreve-se a metodologia de
    construção, avaliação e o funcionamento do gráfico aqui proposto, e com o auxílio do software
    estatístico R© é feito um estudo comparativo entre os gráficos individuais X-barra e npx e o gráfico
    misto. Neste estudo verificou-se que o procedimento proposto fornece várias opções concorrentes
    com o gráfico X-barra para um dado tamanho de amostra n e um desvio na média delta. Os valores do
    tempo esperado até o sinal (TES) inferiores aos provenientes do gráfico individual X evidenciaram
    que o gráfico misto é uma ferramenta eficaz no monitoramento de processos capaz de substituir
    com certa vantagem o procedimento usual em que é aplicado o gráfico das médias.


  • Mostrar Abstract
  • Esta dissertação propõe um novo gráfico (ou procedimento) de controle para monitorar a centralidade
    de um processo (média) por meio da junção dos gráficos X-barra e npx. Basicamente o
    procedimento consiste em dividir o tamanho n da amostra em duas partes (n1 e n2), definidas
    pelo processo de otimização. Realiza-se a inpeção por atributos na sub-amostra de tamanho n1
    por meio do gráfico npx. Caso seja detectada a presença de alguma causa especial inspeciona-se
    a parte relativa a inspeção por variáveis na sub-amostra de tamanho n2 por meio do gráfico X-barra. A
    possibilidade de não inspecionar todos os itens da amostra pode promover uma redução tanto no
    custo quanto no tempo gasto para inspecionar os itens da amostra. Descreve-se a metodologia de
    construção, avaliação e o funcionamento do gráfico aqui proposto, e com o auxílio do software
    estatístico R© é feito um estudo comparativo entre os gráficos individuais X-barra e npx e o gráfico
    misto. Neste estudo verificou-se que o procedimento proposto fornece várias opções concorrentes
    com o gráfico X-barra para um dado tamanho de amostra n e um desvio na média delta. Os valores do
    tempo esperado até o sinal (TES) inferiores aos provenientes do gráfico individual X evidenciaram
    que o gráfico misto é uma ferramenta eficaz no monitoramento de processos capaz de substituir
    com certa vantagem o procedimento usual em que é aplicado o gráfico das médias.

3
  • THIAGO JEFFERSON DE ARAUJO
  • Métodos numéricos para resolução de equações diferenciais ordinárias lineares baseados em interpolação por splines

  • Orientador : NIR COHEN
  • MEMBROS DA BANCA :
  • NIR COHEN
  • ALLAN DE MEDEIROS MARTINS
  • DANIEL CORDEIRO DE MORAIS FILHO
  • Data: 13/08/2012

  • Mostrar Resumo
  • Neste trabalho desenlvolvemos um método de resolução de problemas de valor inicial com equações diferenciais ordinárias baseado em splines, com ênfase em equações lineares. O método serve como alternativa para os métodos tradicionais como Runge-Kutta e no caso linear com coeficientes constantes, evita o cálculo de raízes de polinômios. O método foi aplicado para um problema central da teoria de controle, o problema de resposta a degrau para uma EDO linear, incluindo o caso de coeficientes não-constantes, onde a alternativa pelo cálculo de raízes não existe. Implementamos um algoritmo eficiente que usa apenas operações tipo matriz-vetor. O intervalo de trabalho (até o tempo de acomodação) para as equações estáveis com coeficientes constantes é determinado pelo cálculo da raiz menos estável do sistema, a partir de uma adaptação do método da potência. Através de simulações, comparamos algumas variantes do método. Em problemas lineares gerais com malha suficientemente fina, o novo método mostra melhores resultados em comparação com o método de Euler. No caso de coeficientes constantes, onde existe a alternativa baseada em cálculo das raízes, temos indicações que o novo método pode ficar competitivo para equações de grau bastante alto.

  • Mostrar Abstract
  • Neste trabalho desenlvolvemos um método de resolução de problemas de valor inicial com equações diferenciais ordinárias baseado em splines, com ênfase em equações lineares. O método serve como alternativa para os métodos tradicionais como Runge-Kutta e no caso linear com coeficientes constantes, evita o cálculo de raízes de polinômios. O método foi aplicado para um problema central da teoria de controle, o problema de resposta a degrau para uma EDO linear, incluindo o caso de coeficientes não-constantes, onde a alternativa pelo cálculo de raízes não existe. Implementamos um algoritmo eficiente que usa apenas operações tipo matriz-vetor. O intervalo de trabalho (até o tempo de acomodação) para as equações estáveis com coeficientes constantes é determinado pelo cálculo da raiz menos estável do sistema, a partir de uma adaptação do método da potência. Através de simulações, comparamos algumas variantes do método. Em problemas lineares gerais com malha suficientemente fina, o novo método mostra melhores resultados em comparação com o método de Euler. No caso de coeficientes constantes, onde existe a alternativa baseada em cálculo das raízes, temos indicações que o novo método pode ficar competitivo para equações de grau bastante alto.
4
  • HERICA PRISCILA DE ARAUJO CARNEIRO
  • TESTES DE HIPÓTESES EM MODELOS DE SOBREVIVÊNCIA COM FRAÇÃO DE CURA

  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • BERNARDO BORBA DE ANDRADE
  • GAUSS MOUTINHO CORDEIRO
  • SILVIA LOPES DE PAULA FERRARI
  • Data: 14/08/2012

  • Mostrar Resumo
  • Modelos de sobrevivência tratam do estudo do tempo até e a ocorrência de um evento. Contudo em algumas situações, uma proporção da população pode não estar mais sujeita a ocorrência deste evento. Modelos que tratam desta abordagem são chamados de modelos de fração de cura. Existem poucos estudos na literatura sobre testes de hipóteses aplicadas a modelos de fração de cura. Recentemente foi proposta uma nova estatística de teste, denominada estatística gradiente que possui distribuição assintótica equivalente a das estatísticas usuais. Alguns estudos de simulação veem sendo desenvolvidos no sentido de explorar características dessa nova estatística e comparar com as estatísticas clássicas, aplicadas a diferentes modelos. Este trabalho tem como principal objetivo estudar e comparar o desempenho do teste gradiente e do teste da razão de verossimilhanças, em modelos de fração de cura. Para isso descrevemos características do modelo e apresentamos os principais resultados assintóticos dos testes. Consideramos um estudo de simulação com base no modelo de tempo de promoção com distribuição Weibull, para avaliar a desempenho dos testes em amostras finitas. Uma aplicação e realizada para ilustrar os conceitos estudados.

     


  • Mostrar Abstract
  • Modelos de sobrevivência tratam do estudo do tempo até e a ocorrência de um evento. Contudo em algumas situações, uma proporção da população pode não estar mais sujeita a ocorrência deste evento. Modelos que tratam desta abordagem são chamados de modelos de fração de cura. Existem poucos estudos na literatura sobre testes de hipóteses aplicadas a modelos de fração de cura. Recentemente foi proposta uma nova estatística de teste, denominada estatística gradiente que possui distribuição assintótica equivalente a das estatísticas usuais. Alguns estudos de simulação veem sendo desenvolvidos no sentido de explorar características dessa nova estatística e comparar com as estatísticas clássicas, aplicadas a diferentes modelos. Este trabalho tem como principal objetivo estudar e comparar o desempenho do teste gradiente e do teste da razão de verossimilhanças, em modelos de fração de cura. Para isso descrevemos características do modelo e apresentamos os principais resultados assintóticos dos testes. Consideramos um estudo de simulação com base no modelo de tempo de promoção com distribuição Weibull, para avaliar a desempenho dos testes em amostras finitas. Uma aplicação e realizada para ilustrar os conceitos estudados.

     

5
  • CATIA REGINA DOS SANTOS SILVA
  • Recuperação de sinais esparsos

     

  • Orientador : ROBERTO HUGO BIELSCHOWSKY
  • MEMBROS DA BANCA :
  • LUIS GUSTAVO NONATO
  • NIR COHEN
  • ROBERTO HUGO BIELSCHOWSKY
  • WALTER EUGENIO DE MEDEIROS
  • Data: 27/11/2012

  • Mostrar Resumo
  • Um dos temas mais populares em recuperação de dados nos últimos dez anos gira em torno da descoberta que  a recuperação de sinais esparsos em sistemas lineares, pode ser feita com um número de equações bem menor que o número de variáveis.  Em linhas gerais, se A = Amxn ,   queremos  resolver Ax = b    e procuramos soluções com  s << n entradas não-nulas em algum sistema de coordenadas, isto pode ser feito com um número de equações m << n,  minimizando  a norma 1 de x , sujeito à restrição Ax = b, desde que estejam atendidas condições de “quase ortogonalidade”  nas colunas das submatrizes  de A formadas por s colunas  (RIP – Restricted Isometry property  +  s << n) ( Vide [1]).

    O objetivo desta dissertação é situar o problema, discutir e trabalhar uma técnica de visualização do sucesso na  recuperação de imagens em função de s, m e n, apontada em [2],  bem como usá-la para comparar  a recuperação obtida em casos onde a hipótese  RIP é satisfeita para a matriz A, com o que acontece com a transofrmada de Radon, onde  a hipótese RIP não é verificada, mas no qual, ainda assim, se obtém resultados promissores  na recuperação de sinais esparsos.

    [1] – Emmanuel J. Candès e Michael B. Waking - “People hearing without listening:  An Introduction to compressive sensing” -  IEEE Signal Processing Magazine (2008)  Volume: 25, Issue: 2, Publisher: Citeseer, Pages: 21-30.

    Cópia PDF disponível em http://www-stat.stanford.edu/~candes/papers/spm-robustcs-v05.pdf

    [2] – Jeffrey D Blanchard, Coralia Cartis  e Jared Tanner  -  Compressed Sensing: How Sharp Is the Restricted Isometry Property? - SIAM Rev. 53 (2011), pp. 105-125 (21 pages)

    Cópia PDF disponível em   http://arxiv.org/pdf/1004.5026v1.pdf


  • Mostrar Abstract
  • Um dos temas mais populares em recuperação de dados nos últimos dez anos gira em torno da descoberta que  a recuperação de sinais esparsos em sistemas lineares, pode ser feita com um número de equações bem menor que o número de variáveis.  Em linhas gerais, se A = Amxn ,   queremos  resolver Ax = b    e procuramos soluções com  s << n entradas não-nulas em algum sistema de coordenadas, isto pode ser feito com um número de equações m << n,  minimizando  a norma 1 de x , sujeito à restrição Ax = b, desde que estejam atendidas condições de “quase ortogonalidade”  nas colunas das submatrizes  de A formadas por s colunas  (RIP – Restricted Isometry property  +  s << n) ( Vide [1]).

    O objetivo desta dissertação é situar o problema, discutir e trabalhar uma técnica de visualização do sucesso na  recuperação de imagens em função de s, m e n, apontada em [2],  bem como usá-la para comparar  a recuperação obtida em casos onde a hipótese  RIP é satisfeita para a matriz A, com o que acontece com a transofrmada de Radon, onde  a hipótese RIP não é verificada, mas no qual, ainda assim, se obtém resultados promissores  na recuperação de sinais esparsos.

    [1] – Emmanuel J. Candès e Michael B. Waking - “People hearing without listening:  An Introduction to compressive sensing” -  IEEE Signal Processing Magazine (2008)  Volume: 25, Issue: 2, Publisher: Citeseer, Pages: 21-30.

    Cópia PDF disponível em http://www-stat.stanford.edu/~candes/papers/spm-robustcs-v05.pdf

    [2] – Jeffrey D Blanchard, Coralia Cartis  e Jared Tanner  -  Compressed Sensing: How Sharp Is the Restricted Isometry Property? - SIAM Rev. 53 (2011), pp. 105-125 (21 pages)

    Cópia PDF disponível em   http://arxiv.org/pdf/1004.5026v1.pdf

2011
Dissertações
1
  • ALYSSON LIVIO VASCONCELOS GUEDES
  • Modelo de Tempo de Falha Acelerado com Fração de Cura: Uma abordagem unificada

  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • BERNARDO BORBA DE ANDRADE
  • JOSEMAR RODRIGUES
  • Data: 19/10/2011

  • Mostrar Resumo
  • Neste trabalho apresentamos um estudo sobre o modelo de tempo de falha acelerado com fração de cura sob uma abordagem unificada. O modelo se propõe a estimar simultaneamente o efeito de covariáveis na aceleração/desaceleração do tempo até a ocorrência de um evento e na fração de cura. O método é implementado no software estatístico R. Por fim o modelo é aplicado a dados reais referente ao tempo até o retorno da doença em pacientes diagnosticados com câncer de mama.


  • Mostrar Abstract
  • Neste trabalho apresentamos um estudo sobre o modelo de tempo de falha acelerado com fração de cura sob uma abordagem unificada. O modelo se propõe a estimar simultaneamente o efeito de covariáveis na aceleração/desaceleração do tempo até a ocorrência de um evento e na fração de cura. O método é implementado no software estatístico R. Por fim o modelo é aplicado a dados reais referente ao tempo até o retorno da doença em pacientes diagnosticados com câncer de mama.

2
  • FRANCINARIO OLIVEIRA DE ARAUJO
  • Método de Projeções Ortogonais

  • Orientador : ROBERTO HUGO BIELSCHOWSKY
  • MEMBROS DA BANCA :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • DANIEL CORDEIRO DE MORAIS FILHO
  • ROBERTO HUGO BIELSCHOWSKY
  • Data: 15/12/2011

  • Mostrar Resumo
  • O problema abordado nesta dissertação é a prova da propriedade de limitação para os iterados de um algoritmo iterativo em Rd,  que aplica em cada passo uma projeção ortogonal sobre uma reta em Rd, indexada em uma família de retas dada e permitindo  ordem arbitrária na aplicação das várias projeções. Este problema foi abordado em um artigo de Bàràny  et al. em 1994, que encontrou uma condição necessária e suficiente para o caso d = 2 e analisou  também o caso d > 2 sob algumas condições técnicas. Porém, este artigo usa argumentos intuitivos não triviais e nas suas demonstrações nos parece faltar  rigor. Nesta dissertação detalhamos e  completamos  as demonstrações do artigo de Barány, fortalecendo e clareando algumas de suas  proposições, bem como propiciando pontos de vista complementares  em alguns aspectos do artigo em tela.


  • Mostrar Abstract
  • O problema abordado nesta dissertação é a prova da propriedade de limitação para os iterados de um algoritmo iterativo em Rd,  que aplica em cada passo uma projeção ortogonal sobre uma reta em Rd, indexada em uma família de retas dada e permitindo  ordem arbitrária na aplicação das várias projeções. Este problema foi abordado em um artigo de Bàràny  et al. em 1994, que encontrou uma condição necessária e suficiente para o caso d = 2 e analisou  também o caso d > 2 sob algumas condições técnicas. Porém, este artigo usa argumentos intuitivos não triviais e nas suas demonstrações nos parece faltar  rigor. Nesta dissertação detalhamos e  completamos  as demonstrações do artigo de Barány, fortalecendo e clareando algumas de suas  proposições, bem como propiciando pontos de vista complementares  em alguns aspectos do artigo em tela.

3
  • FELIPE HENRIQUE ALVES MAGALHAES
  • Testes em Modelos Weibull na Forma Estendida de Marshall-Olkin

  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • BERNARDO BORBA DE ANDRADE
  • JEANETE ALVES MOREIRA
  • FREDY WALTHER CASTELLARES CACERES
  • Data: 28/12/2011

  • Mostrar Resumo
  • Em análise de sobrevivência, a variável resposta é, geralmente, o tempo até a ocorrênciade um evento de interesse, chamado de falha e a principal característica de dados de sobrevivência é a presença de censura, que é a observação parcial da resposta. Associadas a essas informações, alguns modelos ocupam uma posição de destaque por sua comprovada adequação a várias situações práticas, entre os quais é possível citar o modelo Weibull. Distribuições na forma estendida de Marshall-Olkin oferecem uma ampliação do comportamento em relação às distribuições básicas de origem, e podem se mostrar mais adequadas para o ajuste de dados de tempo de vida. Este trabalho propõe uma comparação entre duas estatísticas de teste, Razão de Verossimilhança e Gradiente, utilizando a distribuição Weibull em sua forma extendida de Marshall-Olkin. Um exemplo numérico ilustra o procedimento.


  • Mostrar Abstract
  • Em análise de sobrevivência, a variável resposta é, geralmente, o tempo até a ocorrênciade um evento de interesse, chamado de falha e a principal característica de dados de sobrevivência é a presença de censura, que é a observação parcial da resposta. Associadas a essas informações, alguns modelos ocupam uma posição de destaque por sua comprovada adequação a várias situações práticas, entre os quais é possível citar o modelo Weibull. Distribuições na forma estendida de Marshall-Olkin oferecem uma ampliação do comportamento em relação às distribuições básicas de origem, e podem se mostrar mais adequadas para o ajuste de dados de tempo de vida. Este trabalho propõe uma comparação entre duas estatísticas de teste, Razão de Verossimilhança e Gradiente, utilizando a distribuição Weibull em sua forma extendida de Marshall-Olkin. Um exemplo numérico ilustra o procedimento.

2010
Dissertações
1
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • ESTIMAÇÃO PARAMÉTRICA E NÃO-PARAMÉTRICA EM MODELOS DE MARKOV OCULTOS

  • Orientador : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBROS DA BANCA :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • CHANG CHUNG DOREA
  • FRANCISCO ANTONIO MORAIS DE SOUZA
  • Data: 10/02/2010

  • Mostrar Resumo
  • Neste trabalho, estudamos os modelos de Markov ocultos tanto em espaço de estados finito quanto em espaço de estados geral. No caso finito, estudamos os algoritmos para frente e para trás para determinar a probabilidade da seqüência observada e em seguida, estimamos os parâmetros do modelo via algoritmo EM. No caso geral, estudamos os estimadores do tipo núcleo e utilizamos na construção da convergência na norma  de funções limitadas da cadeia de Markov. Vimos também que, quando o processo de Markov satisfaz a condição f-mixing e admite uma distribuição estacionária  temos,

     

                   q.c.

     

    onde  é o estimador do tipo núcleo em  com a função  e a seqüência  apropriadamente escolhidas e  é a densidade da variável aleatória  do processo observado de um dado modelo de Markov oculto.


  • Mostrar Abstract
  • Neste trabalho, estudamos os modelos de Markov ocultos tanto em espaço de estados finito quanto em espaço de estados geral. No caso finito, estudamos os algoritmos para frente e para trás para determinar a probabilidade da seqüência observada e em seguida, estimamos os parâmetros do modelo via algoritmo EM. No caso geral, estudamos os estimadores do tipo núcleo e utilizamos na construção da convergência na norma  de funções limitadas da cadeia de Markov. Vimos também que, quando o processo de Markov satisfaz a condição f-mixing e admite uma distribuição estacionária  temos,

     

                   q.c.

     

    onde  é o estimador do tipo núcleo em  com a função  e a seqüência  apropriadamente escolhidas e  é a densidade da variável aleatória  do processo observado de um dado modelo de Markov oculto.

2
  • MARIA APARECIDA DA SILVA SOARES
  • ESTIMADOR DO TIPO NÚCLEO PARA DENSIDADES LIMITES DE CADEIAS DE MARKOV COM ESPAÇO DE ESTADOS GERAL

  • Orientador : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • MEMBROS DA BANCA :
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • DANIELE DA SILVA BARATELA MARTINS NETO
  • Data: 25/02/2010

  • Mostrar Resumo
  • A teoria de estimação de densidades tem por objetivo construir um estimador para uma função densidade de probabilidade desconhecida de uma população, a partir de uma amostra dessa população.

    Estimadores do tipo núcleo associados a cadeias de Markov estritamente

    estacionárias foram considerados por Roussas (1969,1991),Rosemblat (1970) e Athreya e Atuncar (1998) com o objetivo de estimarem densidades em Rd.

    Neste trabalho estudamos a consistência de uma classe de estimadores do tipo núcleo associados a cadeias de Markov com espaço de estados geral.Na primeira parte, assumimos que a cadeia era estritamente estacionária e satisfazia uma condição do tipo mixing. Na segunda parte, sem a condição de estacionariedade foi assumido que a cadeia era geometricamente ergódica.


  • Mostrar Abstract
  • A teoria de estimação de densidades tem por objetivo construir um estimador para uma função densidade de probabilidade desconhecida de uma população, a partir de uma amostra dessa população.

    Estimadores do tipo núcleo associados a cadeias de Markov estritamente

    estacionárias foram considerados por Roussas (1969,1991),Rosemblat (1970) e Athreya e Atuncar (1998) com o objetivo de estimarem densidades em Rd.

    Neste trabalho estudamos a consistência de uma classe de estimadores do tipo núcleo associados a cadeias de Markov com espaço de estados geral.Na primeira parte, assumimos que a cadeia era estritamente estacionária e satisfazia uma condição do tipo mixing. Na segunda parte, sem a condição de estacionariedade foi assumido que a cadeia era geometricamente ergódica.

3
  • CARLOS ALEXANDRE GOMES DA SILVA
  • UMA APLICAÇÃO DA TEORIA DA RUÍNA EM UM MODELO DE MARKOV DE DOIS ESTADOS

  • Orientador : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBROS DA BANCA :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • MICHELLI KARINNE BARROS DA SILVA
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 19/03/2010

  • Mostrar Resumo
  • Neste trabalho, apresentamos uma aplicação da teoria do risco com o seguinte cenário:  As mudanças no capital de uma seguradora acontecem em cada instante de tempo e o pagamento de uma indenização ou recebimento de um prêmio é decidido pelo resultado de uma cadeia de Markov de dois estados. Nesta situação calculamos a probabilidade de ruína e o tempo esperado de ruína quando o valor da indenização é um mútiplo do valor do prêmio.


  • Mostrar Abstract
  • Neste trabalho, apresentamos uma aplicação da teoria do risco com o seguinte cenário:  As mudanças no capital de uma seguradora acontecem em cada instante de tempo e o pagamento de uma indenização ou recebimento de um prêmio é decidido pelo resultado de uma cadeia de Markov de dois estados. Nesta situação calculamos a probabilidade de ruína e o tempo esperado de ruína quando o valor da indenização é um mútiplo do valor do prêmio.

4
  • SEBASTIAO GOMES DE ANDRADE NETO
  • ESTIMATIVA DE EXPOENTES CRÍTICOS EM PERCOLAÇÃO

  • Orientador : MARCELO GOMES PEREIRA
  • MEMBROS DA BANCA :
  • MARCELO GOMES PEREIRA
  • ROBERTO HUGO BIELSCHOWSKY
  • ROOSEWELT FONSECA SOARES
  • EDEMERSON SOLANO BATISTA DE MORAIS
  • Data: 31/03/2010

  • Mostrar Resumo
  • Na Teoria de Percolação, funções como a probabilidade de um sítio pertencer ao aglomerado percolante, tamanho médio dos aglomerados, etc. são descritas por meio de leis de potência e expoentes críticos. Esta dissertação faz uso do método chamado Escalonamento de Tamanho Finito para fornecer uma estimativa desses expoentes.

    A dissertação está dividida em quatro partes. A primeira apresenta de forma rápida os principais resultados da Teoria da Percolação por sítios para dimensão . Além disso, são definidas algumas quantidades importantes para a determinação dos expoentes críticos e o para o entendimento sobre as transições de fase. A segunda parte apresenta uma introdução sobre o conceito de fractal, dimensão e classificação. Concluída a base do nosso estudo, na terceira parte é mencionada a Teoria de Escala, a qual relaciona os expoentes críticos e as quantidades descritas no Capítulo 2. Na última parte, através do escalonamento de tamanho finito, determinamos os expoentes críticos  e . A partir desses, usamos as relações de escala as relações descritas no Capítulo anterior para determinar os expoentes críticos restantes.


  • Mostrar Abstract
  • Na Teoria de Percolação, funções como a probabilidade de um sítio pertencer ao aglomerado percolante, tamanho médio dos aglomerados, etc. são descritas por meio de leis de potência e expoentes críticos. Esta dissertação faz uso do método chamado Escalonamento de Tamanho Finito para fornecer uma estimativa desses expoentes.

    A dissertação está dividida em quatro partes. A primeira apresenta de forma rápida os principais resultados da Teoria da Percolação por sítios para dimensão . Além disso, são definidas algumas quantidades importantes para a determinação dos expoentes críticos e o para o entendimento sobre as transições de fase. A segunda parte apresenta uma introdução sobre o conceito de fractal, dimensão e classificação. Concluída a base do nosso estudo, na terceira parte é mencionada a Teoria de Escala, a qual relaciona os expoentes críticos e as quantidades descritas no Capítulo 2. Na última parte, através do escalonamento de tamanho finito, determinamos os expoentes críticos  e . A partir desses, usamos as relações de escala as relações descritas no Capítulo anterior para determinar os expoentes críticos restantes.

5
  • JOSE CECILIO ROSA NETO
  • Modelagem dos Algoritmos Genético Simples e Simulated Annealing por cadeias de Markov

  • Orientador : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBROS DA BANCA :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • JUAN ALBERTO ROJAS CRUZ
  • MICHELLI KARINNE BARROS DA SILVA
  • Data: 16/04/2010

  • Mostrar Resumo
  • Os Algoritmos Genético (AG) e o Simulated Anniling (SA) são algoritmos construídos para encontrar máximo ou mínimo de uma função que representa alguma característica do processo que está sendo modelado, esses algoritmos possuem mecanismos que os fazem escapar de ótimos locais. Entretanto a evolução desses algoritmos no tempo se dá de forma completamente diferente. O SA no seu processo de busca trabalha com apenas um ponto, gerando a partir deste sempre um nova solução que é testada e que pode ser aceita ou não, já o AG trabalha com um conjunto de pontos chamado população, das quais geram outras populações que sempre são aceitas. Em comum com esses dois algoritmos temos que a forma como o próximo ponto ou a próxima população é gerada obedece propriedades estocásticas. Nesse trabalho mostramos que a teoria matemática que descreve a evolução destes algoritmos é a teoria das cadeias de Markov, o AG é descrito por uma cadeia de Markov homogênea enquanto que o SA é descrito por uma cadeia de Markov não-homogênea, por fim serão feitos alguns exemplos computacionais comparando o desempenho desses dois algoritmos.


  • Mostrar Abstract
  • Os Algoritmos Genético (AG) e o Simulated Anniling (SA) são algoritmos construídos para encontrar máximo ou mínimo de uma função que representa alguma característica do processo que está sendo modelado, esses algoritmos possuem mecanismos que os fazem escapar de ótimos locais. Entretanto a evolução desses algoritmos no tempo se dá de forma completamente diferente. O SA no seu processo de busca trabalha com apenas um ponto, gerando a partir deste sempre um nova solução que é testada e que pode ser aceita ou não, já o AG trabalha com um conjunto de pontos chamado população, das quais geram outras populações que sempre são aceitas. Em comum com esses dois algoritmos temos que a forma como o próximo ponto ou a próxima população é gerada obedece propriedades estocásticas. Nesse trabalho mostramos que a teoria matemática que descreve a evolução destes algoritmos é a teoria das cadeias de Markov, o AG é descrito por uma cadeia de Markov homogênea enquanto que o SA é descrito por uma cadeia de Markov não-homogênea, por fim serão feitos alguns exemplos computacionais comparando o desempenho desses dois algoritmos.

6
  • MANASSES PEREIRA NOBREGA
  • ESTUDO COMPARATIVO DE GRÁFICOS DE PROBABILIDADE NORMAL PARA ANÁLISE DE EXPERIMENTOS FATORIAIS NÃO REPLICADOS

  • Orientador : CARLA ALMEIDA VIVACQUA
  • MEMBROS DA BANCA :
  • CARLA ALMEIDA VIVACQUA
  • DAMIAO NOBREGA DA SILVA
  • ANDRE LUIS SANTOS DE PINHO
  • LUZIA APARECIDA TRINCA
  • Data: 17/05/2010

  • Mostrar Resumo
  • Os experimentos fatoriais são muito utilizados, especialmente na indústria. Na prática, muitos experimentos são custosos para conduzir, e realizar replicações independentes dos tratamentos pode ser economicamente inviável. Sendo assim, são utilizados os experimentos fatoriais 2k não replicados. Mas, sem replicação não é possível obter uma estimativa direta da variabilidade do erro para se avaliar a significância dos efeitos. Uma das possíveis soluções para este problema é utilizar o gráfico normal ou o gráfico semi-normal dos efeitos.

    Embora Daniel (1959) tenha desenvolvido e usado o gráfico semi-normal em suas análises, afirrmando que o estudo da distribuição acumulada empírica dos contrastes usuais calculados deve ser útil na análise e interpretação de experimentos 2k, sua posição mudou. Em 1976, Daniel publica seu livro Applications of Statistics to Industrial Experimentation, no qual veio preferir o gráfico normal, citando sua grande habilidade para revelar discrepâncias nas suposições. Contribuindo para essa questão, ainda há uma afirmação (não confirmada) de que Daniel tenha invertido de posição, favorecendo o gráfico semi-normal novamente.

    Enfim, aos cinquenta anos de publicação do artigo de Daniel sobre o gráfico semi-normal, este trabalho busca verificar as seguintes questões: O gráfico semi-normal  é melhor que o gráfico normal? Em que situações? Que informações o gráfico semi-normal acrescenta à análise do experimento que possam complementar aquelas fornecidas pelo gráfico normal? Quais as restrições no uso do gráfico semi-normal?


  • Mostrar Abstract
  • Os experimentos fatoriais são muito utilizados, especialmente na indústria. Na prática, muitos experimentos são custosos para conduzir, e realizar replicações independentes dos tratamentos pode ser economicamente inviável. Sendo assim, são utilizados os experimentos fatoriais 2k não replicados. Mas, sem replicação não é possível obter uma estimativa direta da variabilidade do erro para se avaliar a significância dos efeitos. Uma das possíveis soluções para este problema é utilizar o gráfico normal ou o gráfico semi-normal dos efeitos.

    Embora Daniel (1959) tenha desenvolvido e usado o gráfico semi-normal em suas análises, afirrmando que o estudo da distribuição acumulada empírica dos contrastes usuais calculados deve ser útil na análise e interpretação de experimentos 2k, sua posição mudou. Em 1976, Daniel publica seu livro Applications of Statistics to Industrial Experimentation, no qual veio preferir o gráfico normal, citando sua grande habilidade para revelar discrepâncias nas suposições. Contribuindo para essa questão, ainda há uma afirmação (não confirmada) de que Daniel tenha invertido de posição, favorecendo o gráfico semi-normal novamente.

    Enfim, aos cinquenta anos de publicação do artigo de Daniel sobre o gráfico semi-normal, este trabalho busca verificar as seguintes questões: O gráfico semi-normal  é melhor que o gráfico normal? Em que situações? Que informações o gráfico semi-normal acrescenta à análise do experimento que possam complementar aquelas fornecidas pelo gráfico normal? Quais as restrições no uso do gráfico semi-normal?

7
  • ENAI TAVEIRA DA CUNHA
  • ESTIMADORES DO TIPO NÚCLEO PARA A DENSIDADE DE TRANSIÇÃO DE UMA CADEIA DE MARKOV COM ESPAÇO DE ESTADOS GERAL

  • Orientador : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • MEMBROS DA BANCA :
  • CÁTIA REGINA GONÇALVES
  • DEBORA BORGES FERREIRA
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 21/05/2010

  • Mostrar Resumo
  • No presente trabalho, estudamos a consistência forte de uma classe de estimadores do tipo núcleo para a densidade de transição de uma cadeia de Markov com espaço de estados geral .

    A consistência forte do estimador da densidade de transição, foi obtida a partir da consistência forte dos estimadores do tipo núcleo para a densidade marginal da cadeia, , e da consistência forte dos estimadores do tipo núcleo para a densidade conjunta, . Foi considerado que a cadeia é homogênea e uniformemente ergódica com densidade inicial estacionária .


  • Mostrar Abstract
  • No presente trabalho, estudamos a consistência forte de uma classe de estimadores do tipo núcleo para a densidade de transição de uma cadeia de Markov com espaço de estados geral .

    A consistência forte do estimador da densidade de transição, foi obtida a partir da consistência forte dos estimadores do tipo núcleo para a densidade marginal da cadeia, , e da consistência forte dos estimadores do tipo núcleo para a densidade conjunta, . Foi considerado que a cadeia é homogênea e uniformemente ergódica com densidade inicial estacionária .

8
  • JOAO BATISTA CARVALHO
  • PREDIÇÃO EM MODELOS DE TEMPO DE FALHA ACELERADO COM EFEITO ALEATÓRIO PARA AVALIAÇÃO DE RISCOS DE FALHA EM POÇOS PETROLÍFEROS

  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • IDEMAURO ANTONIO RODRIGUES DE LARA
  • JUVÊNCIO SANTOS NOBRE
  • Data: 28/05/2010

  • Mostrar Resumo
  • Consideramos técnicas de predição baseadas em modelos de tempo de falha acelerado com efeito aleatório para dados de sobrevivência correlacionados. Além do enfoque bayesiano através do Estimador de Bayes Empírico, também discutimos sobre o uso de um método clássico, o Melhor Preditor Linear Não Viciado Empírico (EBLUP), nessa classe de modelos. Para ilustrar a utilidade desses métodos, fazemos aplicações a um conjunto de dados reais envolvendo tempos entre falhas de equipamentos de poços de petróleo da Bacia Potiguar. Neste contexto, o objetivo é predizer os riscos/probabilidades de falha com a finalidade de subsidiar programas de manutenção preventiva. Os resultados obtidos mostram que ambos os métodos são adequados para prever falhas futuras, proporcionando boas decisões em relação ao emprego e economia de recursos para manutenção preventiva.


  • Mostrar Abstract
  • Consideramos técnicas de predição baseadas em modelos de tempo de falha acelerado com efeito aleatório para dados de sobrevivência correlacionados. Além do enfoque bayesiano através do Estimador de Bayes Empírico, também discutimos sobre o uso de um método clássico, o Melhor Preditor Linear Não Viciado Empírico (EBLUP), nessa classe de modelos. Para ilustrar a utilidade desses métodos, fazemos aplicações a um conjunto de dados reais envolvendo tempos entre falhas de equipamentos de poços de petróleo da Bacia Potiguar. Neste contexto, o objetivo é predizer os riscos/probabilidades de falha com a finalidade de subsidiar programas de manutenção preventiva. Os resultados obtidos mostram que ambos os métodos são adequados para prever falhas futuras, proporcionando boas decisões em relação ao emprego e economia de recursos para manutenção preventiva.

9
  • DANIEL MATOS DE CARVALHO
  • DOWSCALING ESTOCÁSTICO PARA EXTREMOS CLIMÁTICOS VIA INTERPOLAÇÃO ESPACIAL

  • Orientador : PAULO SERGIO LUCIO
  • MEMBROS DA BANCA :
  • PAULO SERGIO LUCIO
  • FRANCISCO ALEXANDRE DA COSTA
  • PAULO JUSTINIANO RIBEIRO JUNIOR
  • Data: 08/06/2010

  • Mostrar Resumo
  • Os dados de reanálise de temperatura do ar e precipitação do NCEP – National Centers for Environmental Predictions serão refinados para a produção dos níveis de retorno para eventos extremos nas 8 capitais do Nordeste Brasileiro - NB: São Luis, Teresina, Fortaleza, Natal, João Pessoa, Recife, Maceió, Aracaju e Salvador. A grade do Ncep possui resolução espacial de 2.5° x 2.5° disponibilizando séries históricas de 1948 a atualidade. Com esta resolução a grade envolve o NB utilizando 72 localizações (séries).  A primeira etapa consiste em ajustar os modelos da Distribuição Generalizada de Valores Extremos (GEV) e da Distribuição Generalizada de Pareto (GPD) para cada ponto da grade. Utilizando o método Geoestatístico denominado Krigagem, os parâmetros da GEV e GPD serão interpolados espacialmente. Considerando a interpolação espacial dos parâmetros, os níveis de retorno para extremos de temperatura do ar e precipitação poderão ser obtidos aonde o NCEP não fornece informação relevante. Visando validar os resultados desta proposta, serão ajustados os modelos GEV e GPD as séries observacionais diárias de temperatura e precipitação de cada capital nordestina, e assim comparar com os resultados obtidos a partir da interpolação espacial. Por fim o método de Regressão Quantílica será utilizado como método mais tradicional com a finalidade de comparação de métodos.


  • Mostrar Abstract
  • Os dados de reanálise de temperatura do ar e precipitação do NCEP – National Centers for Environmental Predictions serão refinados para a produção dos níveis de retorno para eventos extremos nas 8 capitais do Nordeste Brasileiro - NB: São Luis, Teresina, Fortaleza, Natal, João Pessoa, Recife, Maceió, Aracaju e Salvador. A grade do Ncep possui resolução espacial de 2.5° x 2.5° disponibilizando séries históricas de 1948 a atualidade. Com esta resolução a grade envolve o NB utilizando 72 localizações (séries).  A primeira etapa consiste em ajustar os modelos da Distribuição Generalizada de Valores Extremos (GEV) e da Distribuição Generalizada de Pareto (GPD) para cada ponto da grade. Utilizando o método Geoestatístico denominado Krigagem, os parâmetros da GEV e GPD serão interpolados espacialmente. Considerando a interpolação espacial dos parâmetros, os níveis de retorno para extremos de temperatura do ar e precipitação poderão ser obtidos aonde o NCEP não fornece informação relevante. Visando validar os resultados desta proposta, serão ajustados os modelos GEV e GPD as séries observacionais diárias de temperatura e precipitação de cada capital nordestina, e assim comparar com os resultados obtidos a partir da interpolação espacial. Por fim o método de Regressão Quantílica será utilizado como método mais tradicional com a finalidade de comparação de métodos.

10
  • LENILSON PEREIRA DA SILVA
  • AJUSTE PREVENTIVO VERSUS AJUSTE CORRETIVO NO CONTROLE ON-LINE DE PROCESSO DO NÚMERO DE NÃO-CONFORMIDADES NUM ITEM INSPECIONADO

  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • MEMBROS DA BANCA :
  • DEBORA BORGES FERREIRA
  • LINDA LEE HO
  • PLEDSON GUEDES DE MEDEIROS
  • ROBERTO DA COSTA QUININO
  • Data: 15/06/2010

  • Mostrar Resumo
  • Numa linha de produção, todo processo está sujeito a ocorrências de causas que venham a aparecer causando perdas na qualidade do produto e consequentemente prejuízos ao fabricante. Identificar essas causas e removê-las é tarefa do responsável pelo monitoramento do processo.

    Este trabalho tem como objetivo principal fazer o monitoramento num processo através do controle on-line de qualidade por atributos, considerando o número de não-conformidades no item inspecionado. A estratégia de decisão para verificar se o processo está sob controle, está diretamente associado aos limites de controle do gráfico de não-conformidades do processo. Uma política de ajustes preventivos é incorporada com o objetivo de aumentar a fração conforme do processo. Com o auxílio do software R, é feita uma análise de sensibilidade do modelo proposto mostrando em que situações é mais interessante fazer o ajuste preventivo.


  • Mostrar Abstract
  • Numa linha de produção, todo processo está sujeito a ocorrências de causas que venham a aparecer causando perdas na qualidade do produto e consequentemente prejuízos ao fabricante. Identificar essas causas e removê-las é tarefa do responsável pelo monitoramento do processo.

    Este trabalho tem como objetivo principal fazer o monitoramento num processo através do controle on-line de qualidade por atributos, considerando o número de não-conformidades no item inspecionado. A estratégia de decisão para verificar se o processo está sob controle, está diretamente associado aos limites de controle do gráfico de não-conformidades do processo. Uma política de ajustes preventivos é incorporada com o objetivo de aumentar a fração conforme do processo. Com o auxílio do software R, é feita uma análise de sensibilidade do modelo proposto mostrando em que situações é mais interessante fazer o ajuste preventivo.

11
  • MARCONIO SILVA DOS SANTOS
  • NÃO VÍCIO ASSINTÓTICO, CONSISTÊNCIA FORTE E UNIFORMEMENTE FORTE DE ESTIMADORES DO TIPO NÚCLEO PARA DADOS DIRECIONAIS SOBRE UMA ESFERA UNITÁRIA K-DIMENSIONAL

  • Orientador : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBROS DA BANCA :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • ANIURA MILANES BARRIENTOS
  • Data: 28/06/2010

  • Mostrar Resumo
  • Nesse trabalho estudamos o não-vício assintótico, a consistência forte e a consistência uniformemente forte de um estimador do tipo núcleo, que como a maioria dos estimadores é construído com base em n observações i.i.d. X1,..., Xn de X, para a densidade f(x) de um vetor aleatório X que assume valores em uma esfera unitária k-dimensional.


  • Mostrar Abstract
  • Nesse trabalho estudamos o não-vício assintótico, a consistência forte e a consistência uniformemente forte de um estimador do tipo núcleo, que como a maioria dos estimadores é construído com base em n observações i.i.d. X1,..., Xn de X, para a densidade f(x) de um vetor aleatório X que assume valores em uma esfera unitária k-dimensional.

2009
Dissertações
1
  • RENATA MENDONCA RODRIGUES VASCONCELOS
  • CONTROLE ON-LINE DE PROCESSOS POR ATRIBUTOS: UMA ABORDAGEM ECONÔMICA PARA O NÚMERO DE NÃO-CONFORMIDADES EM UM ITEM INSPECIONADO
  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • MEMBROS DA BANCA :
  • JAQUES SILVEIRA LOPES
  • LINDA LEE HO
  • PLEDSON GUEDES DE MEDEIROS
  • Data: 02/03/2009

  • Mostrar Resumo
  • O procedimento usual de controle on-line de processo por atributos consiste em inspecionar um item a cada m produzidos. Se o item examinado for conforme a produção continua; caso contrário pára-se o processo. No entanto, em muitas situações práticas, nem sempre existe interesse em classificar o item como defeituoso ou não defeituoso, mas sim monitorar o número de não-conformidades no item inspecionado. Neste caso, se o número de não conformidades for superior a um limite de controle, pára-se o processo para o ajuste. A contribuição deste trabalho está em propor um sistema de controle baseado no número de não-conformidades do item inspecionado. Através das propriedades de uma cadeia de Markov ergódica, obteve-se uma expressão analítica do custo médio do (item produzido) sistema de controle que pode ser minimizada por dois parâmetros: o intervalo entre inspeções e o limite superior de controle do gráfico do número de não-conformidades no item inspecionado. Palavras-chave: Controle on-line de processo para atributos; número de não-conformidades na amostra; cadeia de Markov; modelo econômico.

  • Mostrar Abstract
  • O procedimento usual de controle on-line de processo por atributos consiste em inspecionar um item a cada m produzidos. Se o item examinado for conforme a produção continua; caso contrário pára-se o processo. No entanto, em muitas situações práticas, nem sempre existe interesse em classificar o item como defeituoso ou não defeituoso, mas sim monitorar o número de não-conformidades no item inspecionado. Neste caso, se o número de não conformidades for superior a um limite de controle, pára-se o processo para o ajuste. A contribuição deste trabalho está em propor um sistema de controle baseado no número de não-conformidades do item inspecionado. Através das propriedades de uma cadeia de Markov ergódica, obteve-se uma expressão analítica do custo médio do (item produzido) sistema de controle que pode ser minimizada por dois parâmetros: o intervalo entre inspeções e o limite superior de controle do gráfico do número de não-conformidades no item inspecionado. Palavras-chave: Controle on-line de processo para atributos; número de não-conformidades na amostra; cadeia de Markov; modelo econômico.
2
  • RENATA SANTANA FONSECA
  • Métodos de Máxima Verossimilhança para Modelos de Sobrevivência com Fração de Cura e Omissão nas Covariáveis
  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DAMIAO NOBREGA DA SILVA
  • DIONE MARIA VALENCA
  • JEANETE ALVES MOREIRA
  • SILVIA MARIA DE FREITAS
  • Data: 06/03/2009

  • Mostrar Resumo
  • Neste trabalho estudamos o modelo de sobrevivência com fração de cura proposto por Yakovlev (1993) que possui uma estrutura de riscos competitivos. Covariáveis são introduzidas para modelar o número médio de riscos e consideramos que algumas destas covariáveis podem não ser observadas para todos os indivíduos, o que resulta em algumas lacunas na matriz de dados. Consideramos apenas os casos em que as covariáveis omissas são categóricas e obtemos estimativas dos parâmetros através do algoritmo EM ponderado. Não há na literatura estudo de simulação para este modelo quando as covariáveis apresentam omissão. Apresentamos uma série de simulações para confrontar as estimativas obtidas através deste método com as obtidas quando se exclui do banco de dados as observações que apresentam omissão, conhecida como análise de casos completos (ACC). Avaliamos também através de simulações o impacto na estimativa dos parâmetros quando aumentamos o percentual de imunes e de censura entre indivíduos não imunes. Um conjunto de dados reais referentes ao tempo até a conclusão do curso de estatística na Universidade Federal do Rio Grande do Norte é utilizado para ilustrar o método. Palavras-chave: Análise de sobrevivência; fração de cura; omissão; algoritmo EM.

  • Mostrar Abstract
  • Neste trabalho estudamos o modelo de sobrevivência com fração de cura proposto por Yakovlev (1993) que possui uma estrutura de riscos competitivos. Covariáveis são introduzidas para modelar o número médio de riscos e consideramos que algumas destas covariáveis podem não ser observadas para todos os indivíduos, o que resulta em algumas lacunas na matriz de dados. Consideramos apenas os casos em que as covariáveis omissas são categóricas e obtemos estimativas dos parâmetros através do algoritmo EM ponderado. Não há na literatura estudo de simulação para este modelo quando as covariáveis apresentam omissão. Apresentamos uma série de simulações para confrontar as estimativas obtidas através deste método com as obtidas quando se exclui do banco de dados as observações que apresentam omissão, conhecida como análise de casos completos (ACC). Avaliamos também através de simulações o impacto na estimativa dos parâmetros quando aumentamos o percentual de imunes e de censura entre indivíduos não imunes. Um conjunto de dados reais referentes ao tempo até a conclusão do curso de estatística na Universidade Federal do Rio Grande do Norte é utilizado para ilustrar o método. Palavras-chave: Análise de sobrevivência; fração de cura; omissão; algoritmo EM.
3
  • ALLAN ROBERT DA SILVA
  • EXPERIMENTOS COM RESTRIÇÕES NA ALEATORIZAÇÃO ENVOLVENDO MISTURAS
  • Orientador : CARLA ALMEIDA VIVACQUA
  • MEMBROS DA BANCA :
  • ANDRE LUIS SANTOS DE PINHO
  • CARLA ALMEIDA VIVACQUA
  • CRISTIANO FERRAZ
  • Data: 29/04/2009

  • Mostrar Resumo
  • Durante a fase de planejamento de um experimento, um dos grandes desafios é lidar com a limitação de recursos. Assim, planos completamente aleatorizados nem sempre representam uma alternativa viável de realizar um experimento. Naturalmente, planos experimentais com restrições na aleatorização, como os da classe split-plot e strip-plot tornam-se práticos e úteis. Neste trabalho, aborda-se restrição na aleatorização no contexto de experimentos com misturas, cuja motivação inicial foi um plano experimental inovador proposto para uma aplicação em telhas cerâmicas do RN. A partir desse fato, uma revisão bibliográfica foi realizada, no qual foi encontrado um artigo que usou um plano experimental com características semelhantes. Neste artigo, os autores investigam a eficiência de métodos de estimação de parâmetros de um modelo para um plano experimental com restrições na aleatorização. Surgiu então a idéia de verificar a eficácia de métodos de estimação de um modelo para um novo plano experimental com características que se assemelham ao plano discutido no artigo, mas com uma estrutura de erro semelhante ao plano inovador proposto. Diferentemente do que ocorreu no artigo, os métodos de estimação não foram tão eficientes como se imaginava. Esse resultado foi obtido a partir de simulações realizadas no software estatístico R. Ao final, discussões sobre os resultados obtidos e sugestões para novas investigações são dadas.

  • Mostrar Abstract
  • Durante a fase de planejamento de um experimento, um dos grandes desafios é lidar com a limitação de recursos. Assim, planos completamente aleatorizados nem sempre representam uma alternativa viável de realizar um experimento. Naturalmente, planos experimentais com restrições na aleatorização, como os da classe split-plot e strip-plot tornam-se práticos e úteis. Neste trabalho, aborda-se restrição na aleatorização no contexto de experimentos com misturas, cuja motivação inicial foi um plano experimental inovador proposto para uma aplicação em telhas cerâmicas do RN. A partir desse fato, uma revisão bibliográfica foi realizada, no qual foi encontrado um artigo que usou um plano experimental com características semelhantes. Neste artigo, os autores investigam a eficiência de métodos de estimação de parâmetros de um modelo para um plano experimental com restrições na aleatorização. Surgiu então a idéia de verificar a eficácia de métodos de estimação de um modelo para um novo plano experimental com características que se assemelham ao plano discutido no artigo, mas com uma estrutura de erro semelhante ao plano inovador proposto. Diferentemente do que ocorreu no artigo, os métodos de estimação não foram tão eficientes como se imaginava. Esse resultado foi obtido a partir de simulações realizadas no software estatístico R. Ao final, discussões sobre os resultados obtidos e sugestões para novas investigações são dadas.
4
  • ANTONIO HERMES MARQUES DA SILVA JUNIOR
  • Testes Escore Corrigidos para Modelos Lineares Generalizados no Ambiente R
  • Orientador : DAMIAO NOBREGA DA SILVA
  • MEMBROS DA BANCA :
  • DAMIAO NOBREGA DA SILVA
  • DIONE MARIA VALENCA
  • SILVIA LOPES DE PAULA FERRARI
  • Data: 28/05/2009

  • Mostrar Resumo
  • Correções de Bartlett são procedimentos estatísticos que podem ser usados para melhorar o desempenho de estatísticas cujas distribuições são aproximadas pela qui-quadrado. Uma aplicação destas correções se dá no aperfeiçoamento do teste escore em modelos lineares generalizados. Entretanto, a forma da correção resultante utiliza operações com matrizes que são formadas por expressões envolvendo derivadas de primeira e segunda ordem da média e da função de variância do modelo, com respeito ao preditor linear. Em razão das dificuldades para se obter tais expressões, ou até mesmo para modificá-las quando se altera os componentes aleatórios ou o sistemático do modelo, é que tais correções não têm ainda sido incorporadas nas muitas aplicações do teste Escore. Esta dissertação propõe um programa computacional desenvolvido no software estatístico R para implementar testes escore corrigidos em um dado modelo linear generalizado. Detalhes técnicos e a utilização do programa são discutidos com base na análise de uma série de conjuntos de dados reais encontrados na literatura. Também, são apresentados os resultados de dois experimentos de simulação, em que as vantagens dos testes corrigidos e a versatilidade do programa são avaliadas.

  • Mostrar Abstract
  • Correções de Bartlett são procedimentos estatísticos que podem ser usados para melhorar o desempenho de estatísticas cujas distribuições são aproximadas pela qui-quadrado. Uma aplicação destas correções se dá no aperfeiçoamento do teste escore em modelos lineares generalizados. Entretanto, a forma da correção resultante utiliza operações com matrizes que são formadas por expressões envolvendo derivadas de primeira e segunda ordem da média e da função de variância do modelo, com respeito ao preditor linear. Em razão das dificuldades para se obter tais expressões, ou até mesmo para modificá-las quando se altera os componentes aleatórios ou o sistemático do modelo, é que tais correções não têm ainda sido incorporadas nas muitas aplicações do teste Escore. Esta dissertação propõe um programa computacional desenvolvido no software estatístico R para implementar testes escore corrigidos em um dado modelo linear generalizado. Detalhes técnicos e a utilização do programa são discutidos com base na análise de uma série de conjuntos de dados reais encontrados na literatura. Também, são apresentados os resultados de dois experimentos de simulação, em que as vantagens dos testes corrigidos e a versatilidade do programa são avaliadas.
5
  • JOAO SATURNINO DA SILVA NETO
  • APLICAÇÃO DAS TÉCNICAS PATH-RELINKING E VOCABULARY BUILDING NA MELHORIA DE PERFORMANCE DO ALGORITMO MEMÉTICO PARA O PROBLEMA DO CAIXEIRO VIAJANTE ASSIMÉTRICO
  • Orientador : DARIO JOSE ALOISE
  • MEMBROS DA BANCA :
  • DARIO JOSE ALOISE
  • FRANCISCO CHAGAS DE LIMA JUNIOR
  • MARCELO GOMES PEREIRA
  • Data: 10/07/2009

  • Mostrar Resumo
  • O presente trabalho tem como propósito melhorar o procedimento estado-da-arte para a resolução do Problema do Caixeiro Viajante Assimétrico. Tal procedimento consiste em um algorítmo memético projetado especificamente para essa variante do Problema do Caixeiro Viajante. O algorítmo será implementado e acrescido de módulos que incorporam as técnicas de otimização conhecidas como Path Relinking e Vocabulary Building, sendo essa última técnica utilizada de dois modos distintos. A técnica de Vocabulary Building foi idealizada por Fred Glover no início da década de 90 e ainda é considerada pouco explorada na literatura.

  • Mostrar Abstract
  • O presente trabalho tem como propósito melhorar o procedimento estado-da-arte para a resolução do Problema do Caixeiro Viajante Assimétrico. Tal procedimento consiste em um algorítmo memético projetado especificamente para essa variante do Problema do Caixeiro Viajante. O algorítmo será implementado e acrescido de módulos que incorporam as técnicas de otimização conhecidas como Path Relinking e Vocabulary Building, sendo essa última técnica utilizada de dois modos distintos. A técnica de Vocabulary Building foi idealizada por Fred Glover no início da década de 90 e ainda é considerada pouco explorada na literatura.
6
  • HELENICE LOPES BARBOSA
  • MÉTODOS ESTATÍSTICOS EM CADEIAS DE MARKOV
  • Orientador : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • MEMBROS DA BANCA :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • JAQUES SILVEIRA LOPES
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 17/08/2009

  • Mostrar Resumo
  • Este trabalho tem como objetivo o estudo do comportamento assintótico da estatística de Pearson, que é o aparato teórico do conhecido teste qui-quadrado ou teste como também é usualmente denotado. Inicialmente estudamos o comportamento da distribuição da estatística qui-quadrado de Pearson (1900) numa amostra quando e o , . Em seguida detalhamos os argumentos usados em Billingley, no artigo STATISTICAL METHODS IN MARKOV CHAINS, os quais demonstram a convergência em distribuição de uma estatística, semelhante a Pearson, baseada em uma amostra de uma cadeia de Markov, estacionária, ergódica e com espaço de estados finito.

  • Mostrar Abstract
  • Este trabalho tem como objetivo o estudo do comportamento assintótico da estatística de Pearson, que é o aparato teórico do conhecido teste qui-quadrado ou teste como também é usualmente denotado. Inicialmente estudamos o comportamento da distribuição da estatística qui-quadrado de Pearson (1900) numa amostra quando e o , . Em seguida detalhamos os argumentos usados em Billingley, no artigo STATISTICAL METHODS IN MARKOV CHAINS, os quais demonstram a convergência em distribuição de uma estatística, semelhante a Pearson, baseada em uma amostra de uma cadeia de Markov, estacionária, ergódica e com espaço de estados finito.
7
  • KALINE ANDREZA DE FRANCA CORREIA ANDRADE
  • PERCOLAÇÃO EM UMA REDE MULTIFRACTAL
  • Orientador : MARCELO GOMES PEREIRA
  • MEMBROS DA BANCA :
  • EDEMERSON SOLANO BATISTA DE MORAIS
  • MARCELO GOMES PEREIRA
  • ROBERTO HUGO BIELSCHOWSKY
  • ROOSEWELT FONSECA SOARES
  • Data: 28/08/2009

  • Mostrar Resumo
  • Neste trabalho é feita uma análise de um tipo de rede, com características multifractais, que serve de suporte para o modelo de percolação. A proposta dessas redes é oferecer uma abordagem mais realista a problemas de condutividade em meios desordenados. Foram estudados o espectro multifractal e as variações que o algoritmo de criação de uma rede impõem sobre a probabilidade crítica.

  • Mostrar Abstract
  • Neste trabalho é feita uma análise de um tipo de rede, com características multifractais, que serve de suporte para o modelo de percolação. A proposta dessas redes é oferecer uma abordagem mais realista a problemas de condutividade em meios desordenados. Foram estudados o espectro multifractal e as variações que o algoritmo de criação de uma rede impõem sobre a probabilidade crítica.
8
  • PATRICIA BORCHARDT SANTOS
  • ESTIMAÇÃO EM MODELOS DE TEMPO DE FALHA ACELERADO PARA DADOS DE SOBREVIVÊNCIA CORRELACIONADOS

  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • EDWIN MOISES MARCOS ORTEGA
  • JEANETE ALVES MOREIRA
  • Data: 01/12/2009

  • Mostrar Resumo
  • Apresentamos neste trabalho dois métodos de estimação para modelos de tempo de falha acelerado com efeito aleatório para tratar de dados de sobrevivência correlacionados. O primeiro método, que está implementado no software SAS, através do procedimento NLMIXED, utiliza a quadratura Gauss-Hermite adaptada para obter a verossimilhança marginalizada. O segundo método, implementado no software livre R, está baseado no método da verossimilhança penalizada para estimar os parâmetros do modelo. No primeiro caso descrevemos os principais aspectos teóricos e, no segundo, apresentamos brevemente a abordagem adotada juntamente com um estudo de simulação para investigar a performance do método. Realizamos uma aplicação dos modelos usando dados reais sobre o tempo de funcionamento de poços petrolíferos da Bacia Potiguar (RN/CE).


  • Mostrar Abstract
  • Apresentamos neste trabalho dois métodos de estimação para modelos de tempo de falha acelerado com efeito aleatório para tratar de dados de sobrevivência correlacionados. O primeiro método, que está implementado no software SAS, através do procedimento NLMIXED, utiliza a quadratura Gauss-Hermite adaptada para obter a verossimilhança marginalizada. O segundo método, implementado no software livre R, está baseado no método da verossimilhança penalizada para estimar os parâmetros do modelo. No primeiro caso descrevemos os principais aspectos teóricos e, no segundo, apresentamos brevemente a abordagem adotada juntamente com um estudo de simulação para investigar a performance do método. Realizamos uma aplicação dos modelos usando dados reais sobre o tempo de funcionamento de poços petrolíferos da Bacia Potiguar (RN/CE).

2008
Dissertações
1
  • JACKELYA ARAUJO DA SILVA
  • A TEORIA DA RUÍNA APLICADA EM UM MODELO DE EMPRESA FINANCEIRA COM RISCO DE CRÉDITO
  • Orientador : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBROS DA BANCA :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • FRANCISCO ANTONIO MORAIS DE SOUZA
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 08/02/2008

  • Mostrar Resumo
  • Neste trabalho estudamos um novo modelo de risco para uma empresa que é sensível a classificação de risco de crédito, proposto por Yang (2003). Obtivemos equações recursivas para a probabilidade de ruína em tempo finito, distribuição do tempo de ruína, sistemas de equações integrais do tipo Voltelrra para severidade e distribuição conjunta do capital antes e depois da ruína.

  • Mostrar Abstract
  • Neste trabalho estudamos um novo modelo de risco para uma empresa que é sensível a classificação de risco de crédito, proposto por Yang (2003). Obtivemos equações recursivas para a probabilidade de ruína em tempo finito, distribuição do tempo de ruína, sistemas de equações integrais do tipo Voltelrra para severidade e distribuição conjunta do capital antes e depois da ruína.
2
  • ISAAC DAYAN BASTOS DA SILVA
  • Análise e Comparação entre Algoritmos de Percolação
  • Orientador : MARCELO GOMES PEREIRA
  • MEMBROS DA BANCA :
  • ARY VASCONCELOS MEDINO
  • JOAQUIM ELIAS DE FREITAS
  • MARCELO GOMES PEREIRA
  • Data: 25/07/2008

  • Mostrar Resumo
  • Nesta dissertação estudamos e comparamos dois algoritmos de percolação, um elaborado por Elias e o outro por Newman e Ziff, utilizando ferramentas teóricas da complexidade de algoritmos e um algoritmo que efetuou uma comparação experimental. Dividimos este trabalho em três capítulos. O primeiro aborda algumas definições e teoremas necessários a um estudo matemático mais formal da percolação. O segundo apresenta técnicas utilizadas para o cálculo estimativo de complexidade de algoritmos, sejam elas: pior caso, melhor caso e caso médio. Utilizamos a técnica do pior caso para estimar a complexidade de ambos algoritmos e assim podermos compará-los. O último capítulo mostra diversas características de cada um dos algoritmos e através da estimativa teórica da complexidade e da comparação entre os tempos de execução da parte mais importante de cada um, conseguimos comparar esses importantes algoritmos que simulam a percolação. Palavras-Chave: Percolação. Complexidade de Algortimos. Algoritmos de percolação. Algoritmo de Ziff e Newman e Algoritmo de Elias

  • Mostrar Abstract
  • Nesta dissertação estudamos e comparamos dois algoritmos de percolação, um elaborado por Elias e o outro por Newman e Ziff, utilizando ferramentas teóricas da complexidade de algoritmos e um algoritmo que efetuou uma comparação experimental. Dividimos este trabalho em três capítulos. O primeiro aborda algumas definições e teoremas necessários a um estudo matemático mais formal da percolação. O segundo apresenta técnicas utilizadas para o cálculo estimativo de complexidade de algoritmos, sejam elas: pior caso, melhor caso e caso médio. Utilizamos a técnica do pior caso para estimar a complexidade de ambos algoritmos e assim podermos compará-los. O último capítulo mostra diversas características de cada um dos algoritmos e através da estimativa teórica da complexidade e da comparação entre os tempos de execução da parte mais importante de cada um, conseguimos comparar esses importantes algoritmos que simulam a percolação. Palavras-Chave: Percolação. Complexidade de Algortimos. Algoritmos de percolação. Algoritmo de Ziff e Newman e Algoritmo de Elias
3
  • RAFAEL RIBEIRO DE LIMA
  • Modelos de Sobrevivência com Fração de Cura e Erro de Medida nas Covariáveis
  • Orientador : DIONE MARIA VALENCA
  • MEMBROS DA BANCA :
  • DIONE MARIA VALENCA
  • HELENO BOLFARINE
  • JEANETE ALVES MOREIRA
  • Data: 11/08/2008

  • Mostrar Resumo
  • Neste trabalho estudamos o modelo de sobrevivência com fração de cura proposto por Yakovlev et al. (1993), fundamentado em uma estrutura de riscos competitivos concorrendo para causar o evento de interesse, e a abordagem proposta por Chen et al. (1999), na qual covariáveis são introduzidas no modelo para determinar o número de riscos. Estudamos o caso em que covariáveis são medidas com erro, e para a obtenção de estimadores consistentes consideramos a utilização do método do escore corrigido. Um estudo de simulação é realizado para avaliar o comportamento dos estimadores obtidos por este método em amostras finitas. A simulação visa identificar não apenas o impacto sobre os coeficientes de regressão das covariáveis medidas com erro (Mizoi et al, 2007), mas também sobre os coeficientes de covariáveis medidas sem erro. Verificamos também a adequação da distribuição exponencial por partes ao modelo com fração de cura e erro de medida. Ao final, são feitas aplicações do modelo envolvendo conjuntos de dados reais. Palavras-Chave: Análise de sobrevivência. Fração de cura. Erro de medida.

  • Mostrar Abstract
  • Neste trabalho estudamos o modelo de sobrevivência com fração de cura proposto por Yakovlev et al. (1993), fundamentado em uma estrutura de riscos competitivos concorrendo para causar o evento de interesse, e a abordagem proposta por Chen et al. (1999), na qual covariáveis são introduzidas no modelo para determinar o número de riscos. Estudamos o caso em que covariáveis são medidas com erro, e para a obtenção de estimadores consistentes consideramos a utilização do método do escore corrigido. Um estudo de simulação é realizado para avaliar o comportamento dos estimadores obtidos por este método em amostras finitas. A simulação visa identificar não apenas o impacto sobre os coeficientes de regressão das covariáveis medidas com erro (Mizoi et al, 2007), mas também sobre os coeficientes de covariáveis medidas sem erro. Verificamos também a adequação da distribuição exponencial por partes ao modelo com fração de cura e erro de medida. Ao final, são feitas aplicações do modelo envolvendo conjuntos de dados reais. Palavras-Chave: Análise de sobrevivência. Fração de cura. Erro de medida.
4
  • FRANCISCO MARCIO BARBOZA
  • Um Estudo da Transformada Rápida Wavelet e sua Conexão com Banco de Filtros
  • Orientador : JOAQUIM ELIAS DE FREITAS
  • MEMBROS DA BANCA :
  • EDEMERSON SOLANO BATISTA DE MORAIS
  • JOAQUIM ELIAS DE FREITAS
  • MARCELO GOMES PEREIRA
  • Data: 17/09/2008

  • Mostrar Resumo
  • Neste trabalho apresentamos uma exposição da teoria matemática das wavelets ortogonais de suporte compacto no contexto de análise de multiresolução. Estas wavelets são particularmente atraentes porque elas conduzem a um algoritmo estável e muito eficiente, isto é, a Transformada Rápida Wavelet (FWT). Um dos nossos objetivos é desenvolver algoritmos eficientes para o calculo dos coeficientes wavelet (FWT) através do algoritmo pirâmidal de Mallat e discutir sua conexão com Banco de filtros. Estudamos também o conceito de análise de multiresolução, que é o contexto em que wavelets podem ser entendidas e construídas naturalmente, tomando um importante passo na mudança do universo Matemático (Domínio Contínuo) para o Universo da representação (Domínio Discreto). Palavras -chave: Análise de Multiresolução. Banco de Filtros. Wavelets. Transformada Rápida Wavelet.

  • Mostrar Abstract
  • Neste trabalho apresentamos uma exposição da teoria matemática das wavelets ortogonais de suporte compacto no contexto de análise de multiresolução. Estas wavelets são particularmente atraentes porque elas conduzem a um algoritmo estável e muito eficiente, isto é, a Transformada Rápida Wavelet (FWT). Um dos nossos objetivos é desenvolver algoritmos eficientes para o calculo dos coeficientes wavelet (FWT) através do algoritmo pirâmidal de Mallat e discutir sua conexão com Banco de filtros. Estudamos também o conceito de análise de multiresolução, que é o contexto em que wavelets podem ser entendidas e construídas naturalmente, tomando um importante passo na mudança do universo Matemático (Domínio Contínuo) para o Universo da representação (Domínio Discreto). Palavras -chave: Análise de Multiresolução. Banco de Filtros. Wavelets. Transformada Rápida Wavelet.
5
  • RAIMUNDO NONATO CASTRO DA SILVA
  • CARACTERIZAÇÃO ESTATÍSTICA DE EXTREMOS DE PROCESSOS SÍSMICOS VIA DISTRIBUIÇÃO GENERALIZADA DE PARETO
  • Orientador : PAULO SERGIO LUCIO
  • MEMBROS DA BANCA :
  • ADERSON FARIAS DO NASCIMENTO
  • PAULO SERGIO LUCIO
  • SILVIA MARIA DE FREITAS
  • WALTER EUGENIO DE MEDEIROS
  • Data: 05/12/2008

  • Mostrar Resumo
  • No presente trabalho, foi feito um ajuste para a distribuição Pareto Generalizada (GPD) para uma seqüência de sismos intraplacas, ocorridos no município de João Câmara, NE Brasil e foi monitorada continuamente durante dois anos (1987 e 1988). No presente trabalho foram usados esses dados para avaliar a ocorrência de eventos extremos nesta região. A fim de estimar os parâmetros para a GPD, sendo utilizado os seguintes métodos: Moments (moments), Maximum Likelihood (MLE), Biased Probability Weighted Moments (PWMB), Unbiased Probability Weighted Moments (PWMU), Mean Power Density Divergence (MDPD), Median (MED), Pickands (PICKANDS), Maximum Penalized Likelihood (MPLE), Maximum Goodness-of-fit (MGF) e Maximum Entropy (POME). Verificou-se que o MLE, MOMENTS e o POME foram os métodos mais eficientes, dando basicamente os mesmos erros médios quadráticos. Foi observado o risco sísmico para a região com base no limiar estimado de 1,5º, sendo também estimado o nível de retorno dos sismos para os períodos de 10, 50 e 100 anos nesta área. Palavras Chaves: Eventos Extremos. Pareto Generalizada. Maximum Entropy. Risco Sísmico.

  • Mostrar Abstract
  • No presente trabalho, foi feito um ajuste para a distribuição Pareto Generalizada (GPD) para uma seqüência de sismos intraplacas, ocorridos no município de João Câmara, NE Brasil e foi monitorada continuamente durante dois anos (1987 e 1988). No presente trabalho foram usados esses dados para avaliar a ocorrência de eventos extremos nesta região. A fim de estimar os parâmetros para a GPD, sendo utilizado os seguintes métodos: Moments (moments), Maximum Likelihood (MLE), Biased Probability Weighted Moments (PWMB), Unbiased Probability Weighted Moments (PWMU), Mean Power Density Divergence (MDPD), Median (MED), Pickands (PICKANDS), Maximum Penalized Likelihood (MPLE), Maximum Goodness-of-fit (MGF) e Maximum Entropy (POME). Verificou-se que o MLE, MOMENTS e o POME foram os métodos mais eficientes, dando basicamente os mesmos erros médios quadráticos. Foi observado o risco sísmico para a região com base no limiar estimado de 1,5º, sendo também estimado o nível de retorno dos sismos para os períodos de 10, 50 e 100 anos nesta área. Palavras Chaves: Eventos Extremos. Pareto Generalizada. Maximum Entropy. Risco Sísmico.
SIGAA | Superintendência de Tecnologia da Informação - (84) 3342 2210 | Copyright © 2006-2024 - UFRN - sigaa09-producao.info.ufrn.br.sigaa09-producao