Dissertation/Thèse

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFRN

2017
Thèses
1
  • WANDERSON LAERTE DE OLIVEIRA CARVALHO
  • Analysis of Optimum Parameters for Elitist Genetic Algorithms

  • Leader : PLEDSON GUEDES DE MEDEIROS
  • Data: 9 févr. 2017
  • Afficher le Résumé
  • The genetic algorithm is a search process used to find the global maximum of
    functions. This algorithm rests on naturalistic firmaments that evaluate a sample of
    global maximum candidates in each iteration. This evolution is consequence of three
    operators (Selection, Mutation and Crossover) exploiting the domain of the function
    at the same time that select the best candidates found. In this study we will show
    a Markov chain to fit this algorithm’s evolution. We will simulate a model to fit
    the effect of this algorithm’s parametrization in its hate of convergence, estimated by
    the number of iterations until the global maximum is reached. In the simulations we
    observed this effect at functions such as: unidimensional, bidimensional, with only one
    local maximum (the global one) and with many local maxima. Finally, this work shows
    results that put in question the crossover operator’s relevance in the studied functions
    and arguments to believe that the mutation and crossover operators, that makes the
    convergence’s hate optimum, depend on the function.

2
  • BRUNO FRANCISCO XAVIER
  •  Formalization of Linear Logic in Coq
  • Leader : CARLOS ALBERTO OLARTE VEGA
  • Data: 15 févr. 2017
  • Afficher le Résumé
  • In proof theory, the cut-elimination theorem (or Hauptsatz, which means main result) is of paramount importance since it implies the consistency and the subformula property for the given system. This theorem states that for any sequent that has a proof using the cut rule, it is possible to find a cut-free  proof for the same sequent. The proof of cut-elimination proceeds by induction on the lexicographical order (formula weight, cut height) and generates multiple cases, considering for instance, when the cut-formula is or not  principal. In general, one must consider the last rule applied in the two premises immediately after applying the cut rule (seeing the proof bottom-up). This generates a considerable amount of cases and then, the demonstration of this theorem could be error prone if we use an informal proof. Linear Logic (LL) is one of the most significant substructural logics and it allows for cut-free sequent calculi. LL is a resource sensible logic and has been widely used in the specification and verification of computer systems. In view of this, it becomes relevant the study of this logic in this work. In this dissertation we formalize three sequent calculi for linear logic in Coq and prove all of them to be equivalent. Additionally, we formalize meta-theorems such as admissibility of cut, generalization of initial rule, bang and copy and invertibility of the rules for the connectives par, bottom, with and quest. Regarding the invertibility, we demonstrate this theorem in two different ways: a version by induction on the height of the derivation and by using the cut rule. This allows us to show how the cut rule greatly simplifies the proofs in the sequent calculus. In order to mitigate the number of several cases in the proofs, we develop several tactics in Coq that allows us to perform semi-automatic reasoning.

3
  • LAURA FERNANDES DELL ORTO
  • A study of Linear Logic with Subexponentials

  • Leader : CARLOS ALBERTO OLARTE VEGA
  • Data: 15 févr. 2017
  • Afficher le Résumé
  • In Classical Logic, we can use a given hypothesis an indefinite number of times. For example, the proof of a theorem may use the same lemma several times. However, in physical, chemical and computational systems, the situation is different: a resource cannot be reused after being consumed in one action. In Linear Logic, formulas are seen as resources to be used during a proof. This feature makes Linear Logic an interesting formalism for the specification and verification of such systems. Linear Logic controls the rules of contraction and weakening through the exponentials ! and ?. This work aims to study Linear Logic with subexponentials   (SELL), which is a refinement of Linear Logic. In SELL, the exponentials of Linear Logic are decorated with indexes, i.e., ! and ? are replaced with !^i and ?^i, where “i” is an index. One of the main results in Proof Theory is the Cut-Elimination theorem. In this work we demonstrate that theorem for both Linear Logic and SELL, where we present details that are usually omitted in the literature. From the Cut-Elimination Theorem, we can show, as a corollary,  the consistency of the system (for the logics considered here) and other results as the subformula property. This work begins with an introduction to Proof Theory and then, it presents Linear Logic. On these bases, we present Linear Logic with subexponentials. SELL has been used, for example, in the specification and verification of various systems such as biochemical systems, multimedia interaction systems and, in general, concurrent systems with temporal, spatial and epistemic modalities. Using the theory of SELL, we show the specification of a biochemical system. Moreover, we present several instances of SELL that have interesting interpretations from a computational point of view.

4
  • PAULO ROBERTO BELTRAO MAIA
  • -

  • Leader : ELAINE GOUVEA PIMENTEL
  • Data: 15 févr. 2017
  • Afficher le Résumé
  • The present study aims to introduce the Birkhoff duality, extending for Stone duality and followed by Priestley duality, as well as the basic concepts for understanding them. It will then be introduced a positive modal operator and shown that Priestley duality applies for Priestley spaces with a certain type of relation. After that, it will be done a duality among bounded N4 and NE-Sp, using the equivalence between bounded N4 and bounded TWIST as a shortcut. In addition to presenting some ideas about non-involutive bilattices in the appendix.

5
  • DANIEL LEONARDO RAMÍREZ OROZCO
  • A new first order mixed integer valued autoregressive processes for time series with Poisson innovations

  • Leader : ANDRE GUSTAVO CAMPOS PEREIRA
  • Data: 21 févr. 2017
  • Afficher le Résumé
  • Time series, viewed as a collection of observations measured sequentially over time, has been studied with deep notoriety in recent years, based on applications and new proposals of autoregressive models that extend the field of study. This paper proposes a new first order mixed autoregressive model with Poisson innovations, denoted POMINAR (1), mixing two operators known as thinning binomial and thinning Poisson, it also provides the interpretation of these operators and demonstrates their respective properties, as well as a possible case of applying POMINAR (1). Expected value, variance, conditional expectation and conditional variance of the proposed process are taken step by step. In detail the transition probabilities are developed. The maximum conditional likelihood estimators to the process parameters are determined and an application to a real data set is given seeking the effectiveness of the proposed model.

6
  • JORDÂNIA FURTADO DE OLIVEIRA
  • Data imputation in two-level factorial experiments

  • Leader : CARLA ALMEIDA VIVACQUA
  • Data: 27 avr. 2017
  • Afficher le Résumé
  • Full and fractional factorial designs with two levels are widely used in various fields
    of knowledge, especially in industry. To analyze such experiments is necessary that all
    planned treatment combinations are performed and the answers are obtained. However,
    in practice, many experiments fail to be completed due to logistical problems, time or
    budget constraints. These experiments are called incomplete. To properly analyze
    such experiments, different methods are proposed in the literature. This study aims to
    present, compare and make critical reflections about methods for estimating missing
    data in factorial experiments with two levels.

7
  • ALEXANDRE HENRIQUE QUADROS GRAMOSA
  • GENERALIZED EXTREME VALUE DISTRIBUTION ZERO INFLATED

  • Leader : FIDEL ERNESTO CASTRO MORALES
  • Data: 5 mai 2017
  • Afficher le Résumé
  • Extreme events are usually responsible for producing big gains or big losses to society. For some
    decades now there has been a specific distribution, known as Generalized Extreme Values
    Distribution (GEV), designed to predict and prevent such events. However, in many situations
    with extreme data, there are excessive zeros in the database, making it difficult to analyze and
    decrease the estimation accuracy. Influenced Zero Distribution (ZID) is recommended to model
    such data that has inflated zeros. It is the objective of this work to create a new distribution to
    model data of extreme and inflated values of zeros. Therefore, a mixture of the GEV and ZID
    distributions was made, as well as a Bayesian approach, in order to obtain a better fit in
    applications with data of inflated maximums of zeros. The daily precipitation of rainfall in the
    city of Natal in the state of Rio Grande do Norte and in the cities of Paulistana, Picos, São João
    do Piauí and Teresina in the state of Piauí were chosen for analysis. It was also used the standard
    GEV distribution to model the same data collected for comparison purposes, and thus, through
    measurements and estimates made by the two distributions, to verify the quality of the
    adjustment found by the new distribution of inflated extreme values of zeros. Therefore, it was
    verified that both the model and the algorithm were well developed, the model being able to
    estimate the maximum data, even an excessive amount of zeros, and the standard GEV could
    not find the equilibrium distribution when the data given Many zeros. In addition, when the data
    of extreme values do not have inflated zeros, the new model converges to the standard GEV,
    identifying the absence of zeros.
8
  • ANTONIO DJACKSON ALVES DA SILVA
  • New Proofs of Classical Results in Percolation Theory.

  • Leader : ROBERTO TEODORO GURGEL DE OLIVEIRA
  • Data: 21 juil. 2017
  • Afficher le Résumé
  • A percolation process models the distribution and transport of fluids in porous media. The variation of a model parameter reveals the existence of, generally, two phases, one called subcritical and the other called supercritical. These phases bear distinct global characteristics and the transition between phases takes place at a critical value for the model parameter. The present work aims at presenting new proofs for some classical results of Bond Bernoulli Percolation, namely: exponential decay of the radius of the cluster at the origin in subcritical phase and a lower bound on probability of percolation. The considerations and proofs we follow are due to Hugo Duminil-Copin and Vincent Tassion in their paper “A New Proof of the Sharpness of the Phase Transition for Bernoulli Percolation and the Ising Model” published on the Journal of Mathematical Physics in 2016.

9
  • MANOEL MESSIAS DE ARAÚJO GOMES
  • Strongly Stable Automorphisms of the Categories of the finitely Generated Free Algebras of the varieties of all the Linear Nilpotents Algebras of degree 5

  • Leader : ARKADY TSURKOV
  • Data: 8 août 2017
  • Afficher le Résumé
  • This study has as objective the study of the strongly stable automorphisms of the category
    of all the finitely generated free algebras in the variety of all Nilpotent Linear Algebras
    of degree 5. We present a brief explanation of the method of verbal operations. Our main
    interest is to prove the isomorphism
    A5=Y5 = khAutk. The the study of the group A=Y
    is very important in the area of Universal Algebraic Geometry, because this group gives
    us the possible differences between geometric and automorphic equivalence of algebras.

10
  • WYARA VANESA MOURA E SILVA
  • Bayesian inference for the joint distribution of r-largest order statistics with change point

  • Leader : PLEDSON GUEDES DE MEDEIROS
  • Data: 28 août 2017
  • Afficher le Résumé
  • Extreme value analysis has been widely used to assess and predict environmental catastrophes caused by climate change over the years. In addition to the environmental area, other common areas of application of these analyzes are finance, actuarial, among others. In this way, the present work consists in the estimation of parameters and levels of expected returns, considering the distribution of extreme values for the r-highest order statistics. These estimates will be evaluated in series that have points of change in the regime, that is, a model will be proposed to detect points of change in a series, applied to the distribution of the r-largest order statistics (GEVr). We will address the case where the series has k change points, in which the series has k+1 different schemes, and each scheme will be modeled by the GEVr distribution. The inference used in the model is based on a Bayesian approach, where both the GEVr parameters for each scheme, and the change points are considered as unknown parameters to be estimated. In addition, an evaluation of the criterion of choosing the optimal r for the distribution of the data. The estimation is performed by the Monte Carlo Method via Markov Chains (MCMC) using the Metropolis-Hastings algorithm technique. Initially only simulations were performed, for evaluation of series with one and two change points, in which remarkable results were obtained. In addition, a brief analysis of levels of returns for different values of r, and a brief descriptive analysis of the real data that will be used in the applications of the proposed model, was carried out. Finally, the application of the proposed model for the Parnaíba and Paraná river quota data, as well as daily Nasdaq returns data.

2016
Thèses
1
  • ISAAC JALES COSTA SOUZA
  • Bayesian Estimation in the Bimodal Asymmetric Power-Normal

  • Leader : FIDEL ERNESTO CASTRO MORALES
  • Data: 28 janv. 2016
  • Afficher le Résumé
  • In this paper it is presented a Bayesian approach to the bimodal power-normal (BPN) models
    and the bimodal asymmetric power-normal (BAPN). First, we present the BPN model,
    specifying its non-informative and informative parameter alpha (bimodality). We obtain the posterior
    distribution by MCMC method, whose feasibility of use we tested from a convergence
    diagnose. After that, We use different informative priors for and we do a sensitivity analysis
    in order to evaluate the effect of hyperparameters variation on the posterior distribution. Also, it
    is performed a simulation to evaluate the performance of the Bayesian estimator using informative
    priors. We noted that the Bayesian method shows more satisfactory results when compared
    to the maximum likelihood method. It is performed an application with bimodal data. Finally,
    we introduce the linear regression model with BPN error. As for the BAPN model we also
    specify informative and uninformative priors for bimodality and asymmetry parameters. We do
    the MCMC Convergence Diagnostics, which is also used to obtain the posterior distribution.
    We do a sensitivity analysis, applying actual data in the model and we introducing the linear
    regression model with PNBA error.
2
  • JHONNATA BEZERRA DE CARVALHO
  • Classificador Máquina de Suporte Vetorial com Análise de Fourier Aplicada em Dados de EEG e EMG
  • Leader : ANDRE LUIS SANTOS DE PINHO
  • Data: 3 févr. 2016
  • Afficher le Résumé
  • O classificador Máquina de Suporte Vetorial, que vem do termo em inglês

    \textit{Support Vector Machine}, é utilizado em diversos problemas em várias áreas do

    conhecimento. Basicamente o método utilizado nesse classificador é encontrar o

    hiperplano que maximiza a distância entre os grupos, para aumentar o poder de

    generalização do classificador. Neste trabalho, são tratados alguns problemas de

    classificação binária com dados obtidos através da eletroencefalografia (EEG) e

    eletromiografia (EMG), utilizando a Máquina de Suporte Vetorial com algumas técnicas

    complementares, destacadas a seguir como: Análise de Componentes Principais para a

    identificação de regiões ativas do cérebro, o método do periodograma que é obtido

    através da Análise de Fourier, para ajudar a discriminar os grupos e a suavização por

    Médias Móveis Simples para a redução dos ruídos existentes nos dados. Foram

    desenvolvidas duas funções no $software$ \textbf{R}, para a realização das tarefas de

    treinamento e classificação. Além disso, foram propostos 2 sistemas de pesos e uma

    medida sumarizadora para auxiliar na decisão do grupo pertencente. A aplicação dessas

    técnicas, pesos e a medida sumarizadora no classificador, mostraram resultados

    bastantes satisfatórios, em que os melhores resultados encontrados foram, uma taxa

    média de acerto de 95,31\% para dados de estímulos visuais, 100\% de classificação

    correta para dados de epilepsia e taxas de acerto de 91,22\% e 96,89\% para dados de

    movimentos de objetos para dois indivíduos.
3
  • FELIPE RODRIGUES DA SILVA
  • Estimação e Previsão no Processo INARCH(2)

  • Leader : LUZ MILENA ZEA FERNANDEZ
  • Data: 5 févr. 2016
  • Afficher le Résumé
  • Nas últimas décadas o estudo de séries temporais de valores inteiros tem ganhado notoriedade devido a sua ampla aplicabilidade, por exemplo, modelar o número de acidentes com automóveis em uma determinada rodovia, ou, o número de pessoas infectadas por um vírus. Um dos grandes interesses desta área de estudo está em fazer previsões, por este motivo é de grande importância propor metodologias para fazer previsões futuras, as quais devem, dada a natureza dos dados, apresentar valores inteiros não negativos.
    Neste trabalho concentramo-nos em estudar e propor previsões um, dois e h passos à frente para os processos autorregressivos de segunda ordem condicionalmente heteroscedásticos de valores inteiros, Integer-valued second-order Autoregressive Conditional Heteroskedasticity Processes [INARCH(2)], e estudar algumas propriedades teóricas deste modelo, como o r-ésimo momento marginal e a distribuição assintótica dos estimadores de mínimos quadrados condicionais referentes ao processo INARCH(2). Além disso, verificamos, através de ensaios de Monte Carlo, o comportamento dos estimadores dos parâmetros do processo INARCH(2), obtidos através de três métodos de estimação, Yule-Walker, mínimos quadrados condicionais e máxima verossimilhança condicional, em termos de erro quadrático médio, erro absoluto médio e viés. Apresentamos algumas propostas de previsão para o processo INARCH(2) e comparamos as previsões propostas via simulações de Monte Carlo. Como aplicação da teoria apresentada, modelamos dados referentes ao número de nascidos vivos do sexo masculino de mães residentes na cidade de Riachuelo no estado do Rio Grande do Norte.
4
  • LAÍS HELEN LOOSE
  • Avaliação e correções dos testes de hipóteses em modelos de sobrevivência com fração de cura 

  • Leader : PLEDSON GUEDES DE MEDEIROS
  • Data: 15 févr. 2016
  • Afficher le Résumé
  • Os modelos de sobrevivência tratam do estudo do tempo até a ocorrência de um evento de interesse. Em algumas situações, uma proporção da população pode não estar mais sujeita à ocorrência do evento. Nesse contexto surgiram os modelos com fração de cura. Dentre os modelos que incorporam uma fração de curados um dos mais conhecidos é o modelo tempo de promoção. No presente trabalho abordamos inferências em termos de testes de hipóteses no modelo tempo de promoção assumindo a distribuição Weibull para os tempos de falha dos indivíduos suscetíveis. Os testes de hipóteses nesse modelo podem ser realizados com base nas estatísticas da razão de verossimilhanças, gradiente, escore ou Wald. Os valores críticos são obtidos através de aproximações assintóticas, que podem conduzir a distorções no tamanho do teste em amostras de tamanho finito. Nesse sentido, o presente trabalho propõe correções via bootstrap para os testes mencionados e Bartlett bootstrap para a estatística da razão de verossimilhanças no modelo tempo de promoção Weibull. Por meio de simulações de Monte Carlo comparamos o desempenho em amostras finitas das correções propostas com os testes usuais. Os resultados numéricos obtidos evidenciam o bom desempenho das correções propostas. Ao final do trabalho é apresentadaumaaplicação a dados reais.

5
  • MOIZÉS DA SILVA MELO
  • Monitoramento das médias de um processo bivariado por gráficos de controle por atributos e/ou variáveis

  • Leader : PLEDSON GUEDES DE MEDEIROS
  • Data: 18 févr. 2016
  • Afficher le Résumé
  • A alta variabilidade de um processo está diretamente relacionada com a má qualidade do mesmo, portanto, reduzi-la é a maneira de melhorar o processo. Os métodos estatísticos estão incluídos ao planejamento de melhoria de processos, dentre os quais os gráficos de controle são o mais eficientes e utilizados. Esta dissertação propõe dois novos gráficos de controle para monitorar um vetor de médias de um processo bivariado. O primeiro, chamado de new npxy, emprega um gráfico por atributos. O procedimento consiste em inspecionar e classificar, através dos limites discriminantes, cada unidade da amostra como aprovada ou reprovada. Os limites discriminantes são ajustados de tal forma que tem-se uma fração especificada de unidades reprovadas quando o processo está sob controle. Em seguida o número de unidades reprovadas é plotado no gráfico, e caso seja maior que o limite de controle, o processo é parado para ajuste. O segundo gráfico utiliza os gráficos new npxy e T2. Este procedimento consiste em dividir uma amostra de tamanho $n$ em duas partes (n1 e n2), determinadas por um processo de otimização. As unidades da primeira sub-amostra são avaliadas por atributos e plotadas em um gráfico de controle new npxy. Caso seja detectada a presença de alguma causa especial, inspeciona-se a sub-amostra de tamanho n2 por variáveis por meio do gráfico T2. O procedimento é interrompido para o ajuste se a presença de alguma causa especial for detectada em ambos gráficos de controle. A possibilidade de não inspecionar todos os itens da amostra pode promover uma redução tanto no custo quanto no tempo de inspeção. A análise de desempenho foi realizada comparando o número médio de amostras até o alarme verdadeiro (NMA1). Verificou-se que os gráficos propostos apresentam desempenho satisfatório e são concorrentes com o gráfico T2. Os resultados foram obtidos com o auxílio do software estatístico R.
6
  • JOSIMARA TATIANE DA SILVA
  • Preconditioning of the GMRES method for Z-matrices

  • Leader : NIR COHEN
  • Data: 19 juil. 2016
  • Afficher le Résumé
  • This study aims to investigate the convergence behavior of the GMRES (Gene-
    ralized Minimal Residual) method and its version GMRES(m), without and with
    preconditioner ILU(0) applied to sparse non-symmetric linear systems. Our main
    interest is to see if the behavior of these algorithms can be influenced by the struc-
    ture of the matrices considered, in particular, the Z-matrices. Furthermore, the
    influence of the choice of the degree of sparsity. Among the observed parameters,
    we focus on the spectral radius of these matrices, as well as the relative residual
    norm obtained by these algorithms.

7
  • TITO LÍVIO DA CUNHA LOPES
  • New models for time series of binary values  and non-negative integers based on thinning operators

  • Leader : MARCELO BOURGUIGNON PEREIRA
  • Data: 28 nov. 2016
  • Afficher le Résumé
  • Models for time series of integer values have stood out because of the vast possibility of application. Models for statistical process control, for economic data and currently for the structural sequence of deoxyribonucleic acids (DNA), are examples of important applications. This work is divided into two independent parts. The first part of the work concerns the modeling of autocorrelated binary data. In this context, a new class of models has been proposed, based on thinning operators called Bernoulli order autoregressive process p  [BeAr(p)] similar to the classical model AR(p). In particular, BeAr(1) model was studied, setting various properties of three estimation methods have been proposed for the model, including the asymptotic distribution of the estimators by the conditional least squares method, and the elements of the Fisher information matrix. In addition to the simulations, applications were made on real data of precipitation, at which models BeAr(1) and BeAr(2) were given to modeling. In the second part of the work, new models were studied to propose the family of inflated-parameter generalized power series distributions (IGPSD) to the innovation process INAR(1) model. The main properties of the process have been established, such as the mean, variance and autocorrelation transition probability. The estimation methods for Yule-Walker and conditional maximum likelihood were used to estimate the parameters of the models. Two particular cases of model INAR(1) with IGPSD innovation process were studied, called IPoINAR(1) and IGeoINAR(1). Applications to real data showed a good performance of the new model proposed.
2015
Thèses
1
  • WENIA VALDEVINO FÉLIX
  • Probabilidades Assintóticas da Cauda de Somas Ponderadas
    de Variáveis Aleatórias Dependentes com Variação Dominada

  • Leader : DEBORA BORGES FERREIRA
  • Data: 20 févr. 2015
  • Afficher le Résumé
  • Neste trabalho estudamos o comportamento assintótico caudal das probabilidades das somas aleatórias ponderadas de variáveis aleatórias com certa estrutura de dependência e de variação dominada, baseados no artigo de Hai-zhong Yang, com título "Asymptotic Tail Probability of Randomly Weighted Sums of Dependent Random Variables with Dominated Variation". Para tanto, apresentamos resultados essenciais sobre a classe de distribuições de cauda pesada que contem as seguintes subclasses : de cauda subexponencial, longa, variação regular, variação regular estendida e dominada, entre outras.  Nosso objetivo é proporcionar todo um embasamento teórico para esclarecer ao máximo a demonstração do Teorema de Yang. Para isto, apresentamos a demonstração de três lemas principais e de alguns resultados que são utilizados na demonstração desses lemas.

2
  • RENATO TIGRE MARTINS DA COSTA
  • Gráfico de Controle Modificado para Processos com Estruturas Complexas de
    Autocorrelação

  • Leader : ANDRE LUIS SANTOS DE PINHO
  • Data: 29 avr. 2015
  • Afficher le Résumé
  • Este trabalho propõe um gráfico de controle modificado incorporando conceitos de análise
    de séries temporais. Especificamente, nós consideramos os modelos de distribuição de transição
    e mistura gaussianas (GMTD). Os modelos GMTD são uma classe mais geral do que os
    modelos da família autoregressiva (AR), no sentido de que os processos autocorrelacionados
    podem apresentar trechos planos (platôs), explosões ou outliers. Neste cenário os Gráficos de
    Shewhart tradicionais não são mais ferramentas adequadas para o acompanhamento desses
    processos. Portanto, Vasilopoulos e Stamboulis (1978) propuseram uma versão modificada
    dos gráficos, considerando limites de controle adequados com base em processos autocorrelacionados.
    A fim de avaliar a eficiência da técnica proposta uma comparação com um gráfico
    tradicional Shewhart (que ignora a estrutura de autocorrelação do processo), o gráfico de
    controle Shewhart AR(1) e um gráfico de controle Shewhart GMTD foi feita. Uma expressão
    analítica para a variância processo, assim como os limites de controle foram desenvolvidos
    para um modelo GMTD particular. Os critérios utilizados para medir a eficiência foram o
    ARL 0 e ARL 1 . A comparação foi feita com base em uma série gerada de acordo com um
    modelo GMTD. Os resultados apontam para a direção que os gráficos modificados Shewhart
    GMTD têm um melhor desempenho do que o Shewhart AR(1) e o Shewhart tradicional.

3
  • DANIEL DE SOUZA GRILO
  • Sobre a Integração Indefinida de Funções Racionais Complexas: teoria e implementação de algoritmos racionais

  • Leader : NIR COHEN
  • Data: 12 juin 2015
  • Afficher le Résumé
  • Apresentamos algoritmos de integração indefinida de funções racionais sobre subcorpos dos complexos, a partir de uma abordagem algébrica. Estudamos o algoritmo local de Bernoulli e algoritmos racionais de integração para a classe de funções em questão, a saber, os algoritmos de Hermite; Horowitz-Ostrogradsky; Rothstein-Trager e Lazard-Rioboo-Trager. Estudamos também o algoritmo de Rioboo para conversão de logaritmos envolvendo extensões complexas para funções arco-tangente reais, quando estes logaritmos surgem da integração de funções racionais com coeficientes reais. Concluímos fornecendo pseudocódigos e códigos para implementação no software Máxima relativos aos algoritmos estudados neste trabalho, e, além disso, a algoritmos para cálculo de mdc de poliômios; decomposição em frações parciais; fatoração livres de quadrados; obtenção de sequências de subresultantes, entre outros algoritmos acessórios ao trabalho. Será também apresentado no apêndice o algoritmo de Zeilberger-Almkvist para integração de funções hiperexponenciais, bem como seu pseudocódigo e código para Maxima. Como alternativa aos algoritmos de Rothstein-Trager e Lazard-Rioboo-Trager, apresentamos ainda um código para o algoritmo de Bernoulli para denominadores livres de quadrados; e outro para o algoritmo de Czichowski, ainda que este não seja estudado em detalhes no trabalho, devido às bases teóricas necessárias para o seu entendimento, as quais se encontram fora do escopo deste trabalho.

     

    Diversos exemplos são fornecidos de modo a demonstrar o o funcionamento dos algoritmos de integração deste trabalho.

4
  • FÁBIO AZEVÊDO DE SOUZA
  • Factorial Experimens Fractioned Asymmetrical for Evalution Models for rain Forecast in Northeast Brazil
  • Leader : CARLA ALMEIDA VIVACQUA
  • Data: 29 sept. 2015
  • Afficher le Résumé
  • In the state of Rio Grande do Norte, episodes of heavy rains have caused disorders such as land slides, flood and chaotic traffic.  Thus,  rainfall is a major concern for researchers and other agencies linked to weather research.
    The accurate prediction of extreme events, such as heavy rainfall, is an essential factor in public polices to mitigate the effects caused by meteorological phenomena.
    Since the mid-twentieth century, the use of quantitative methods to conduct weather forecast by numerical simulation has stood out in  meteorology. With the technological advancement of computing, more and more atmospheric phenomena can be simulated in high resolution.
    In these models, identifying combinations and/or atmospheric physics parameterization settings is still a challenge for researchers.
    In this sense, the main objective of this work is to implement experimental design techniques to select parameterization settings and evaluate numerical weather forecasting models.
    This paper presents the use of asymmetric fractional factorial designs (EFFA) to evaluate the performance of Weather Research and Forecasting (WRF), using various physical parameterizations, to simulate a weather event in 2008 in Rio Grande do Norte State.
    We selected four cumulus parameterization schemes (Grell-Deveyi, NSAS, Tiedtke and Kain-Fritsch), two schemes of microphysics (WSM6 and Thompson), two planetary boundary layer (YSU and MYJ) and two model top settings (10mb and 50mb), for three different domains (36Km, 12Km and 4km) and conducted 32 simulations.
    We use Lenth plots to analyse the experiment and guide the identificationof appropriat parameterization schemes.
    The final results of this study are promising and confirm that statistically designed experiments is of utmost importance to assess WRF, bringing significant progress in this field.
    It is whorth mentioning that the same procedure can be used for other models.
5
  • RUMENICK PEREIRA DA SILVA
  • Modelos Flexíveis de Sobrevivencia com Fração de Cura: Implementação Computacional

  • Leader : DIONE MARIA VALENCA
  • Data: 23 oct. 2015
  • Afficher le Résumé
  • Em análise de sobrevivência a variável em estudo é o tempo até a ocorrência de um determinado evento de interesse. Este tempo é denominado de tempo de vida ou tempo até a falha. A teoria usual assume que, se observado por um longo período de tempo todos os indivíduos irão experimentar o evento em algum momento. Mas, em algumas situações uma proporção da população  pode não estar mais sujeita à ocorrência deste evento, por mais longo que seja o tempo de observação. Neste sentido, alguns modelos foram propostos e são conhecidos na literatura como modelos com fração de cura ou de longa duração. Ao considerar o aumento do interesse no ajuste desses modelos, percebe-se a importância da existência de rotinas amigáveis e capazes de obter de forma precisa as estimativas de máxima verossimilhança. Neste contexto, o objetivo principal deste trabalho foi a implementação de um pacote em linguagem R com um conjunto de rotinas amigáveis (de forma didática e de fácil utilização) para analisar dados de sobrevivência com fração de cura, a partir do uso de alguns modelos paramétricos flexíveis. Neste programa, denominado de flexcure, foram considerados os modelos de tempo de falha acelerado log-gama generalizado, log-F generalizado e Weibull na forma estendida de Marshall-Olkin, para modelar os tempos dos indivíduos susceptíveis e, para a fração de curados foram considerados os modelos usuais de mistura padrão e de tempo de promoção. O desempenho destas implementações foi avaliado através de um extensivo estudo de simulação, considerando diferentes cenários. Além disso, o uso deste pacote foi ilustrado em algumas aplicações.

6
  • MÁRCIA GABRIELE GONÇALVES DE SOUSA LIMA
  • Um estudo sobre Polinômios Matriciais

  • Leader : EDGAR SILVA PEREIRA
  • Data: 29 oct. 2015
  • Afficher le Résumé
  • Esse trabalho de pesquisa tem por objetivo, fazer um estudo sobre a teoria algébrica dos polinômios matriciais mônicos, bem como das definições, conceitos e propriedades de no que diz respeito a bloco autovalores, bloco autovetores e solventes de P(X). Investigando as principais relações entre o polinômio matricial e as matrizes bloco. Companheira e bloco Vandermonde. Estudamos a construção de polinômios matriciais com determinados solventes  e a extensãon da Método da Potência , para calcular blocos autovalores da matriz Companheira e solventes de P(X). Através da relação entre o bloco autovalor dominante da matriz Companheira e o solvente dominante de P(X) é possível  obtermos a convergência do algoritmo para o solvente dominante do polinômio matricial mônico. Ilustramos com exemplos numéricos para casos distintos de convergência.

7
  • JULY HERBERT DA SILVA MARIANO
  • Modelagem Multiescala de Fenômenos Eletrocinéticos em Meios Porosos Carregados Eletricamente: Aplicação a Meios Porosos Argilosos

  • Leader : SIDARTA ARAUJO DE LIMA
  • Data: 12 nov. 2015
  • Afficher le Résumé
  • Nesta dissertação de mestrado, propomos uma modelagem computacional multiescala de fenômenos eletrocinéticos em meios poroso carregados eletricamente. Consideramos um meio poroso rígido e incompressível saturado por uma solução eletrolítica contendo quatro solutos iônicos monovalentes totalmente diluídos no solvente.

    Inicialmente, desenvolvemos a modelagem da dupla camada elétrica com a intenção de computar o potencial elétrico, densidade superficial de cargas elétricas e, considerando duas reações químicas, propomos um modelo 2-pK para calcular as adsorções químicas que ocorrem no domínio da dupla camada elétrica. De posse do modelo nanoscópico, desenvolvemos um modelo na microescala, onde as adsorções eletroquímicas de íons no domínio da camada dupla, reações de protonação/deprotonação e potencial zeta obtidos na escala nanoscópica, são incorporados ao modelo na escala microscópica através das condições de interface fluido/sólido do problema de Stokes e no transporte dos íons, modelado pelas equações de Nerst-Planck. Usando a técnica de homogeneização de estrutura periódicas juntamente com a hipótese de periodicidade do meio, deduzimos um modelo na escala macroscópica com respectivos problemas de células para os parâmetros efetivos das equações macroscópicas.

    Finalmente, fazendo uso do modelo 2-pK, simulamos os fenômenos de adsorções eletroquímicas em uma caulinita saturada por uma solução aquosa na micro escala. Em seguida fazemos duas simulações macroscópicas em regimes ácidos e básico com a intensão de observar a influência dos fenômenos na escala nano/microscópica sobre a macroescala. 

8
  • EDUARDO RANGEL GOMES
  • Mathematical and Computational Modeling of Deep Bed Filtration Process in Porous Media

  • Leader : SIDARTA ARAUJO DE LIMA
  • Data: 13 nov. 2015
  • Afficher le Résumé
  • The objective of this research work is to develop a mathematical and computational modeling of depth filtration process during the transport of suspendend particles in porous media. Initially, we developed a stochastic mathematical model based on partial differential equations to model the depth filtration process in porous media with the size exclusion as the capture mechanism. The model consists of the equations of conservation of mass suspendend particles, particle-capture kinetics and pore-blocking kinetics. Considering some hypothesis, reduced mathematical models were obtained, and consequently some analytical solutions were obtained for the transport of particles and pore-blocking kinetics. From the numerical viewpoint, we propose some finite volume methods formulations of first and second order non-oscillatory, satisfying a CFL condition. We deduce discrete preliminary formulations of the methods Lax-Friedrichs (LXF) and Nessyahu and Tadmor (NT) based on the algorithm REA, as the purpose of introducing the initial ideas of the finite volume method of Kurganov and Tadmor (KT). We conduct discretization KT method for hyperbolic differential equations homogeneous and non-homogeneous in order to simulate the depth filtration process. For the resolution of the particle transport equation use the KT method and the pore blocking kinetics family Runge-Kutta methods. Numerical simulations were performed using the discrete formulations obtained via methods of finite volume, in order to analyze the accuracy and efficiency of the numerical methodology presented. Finally, we use numerical methodology proposed with the purpose of obtaining numerical solutions of the depth filtration process, and therefore to compare the results obtained with analytical solutions to mathematical models reduced, making it possible to evaluate the accuracy of discrete formulations. Lastly, we propose numerical solutions of the depth filtration process to evaluate occurs as the particles in suspension transport in porous media. For this, used were different particle and pores sizes.

2014
Thèses
1
  • ANNA RAFAELLA DA SILVA MARINHO
  • Modelo de Risco com Dependência entre os Valores
    das Indenizações e seus Intervalos entre Ocorrências

  • Leader : DEBORA BORGES FERREIRA
  • Data: 30 janv. 2014
  • Afficher le Résumé
  • Neste trabalho apresentamos um modelo de risco dependente para descrever o excedente de uma carteira de seguros, com base no artigo ”A ruin model with dependence between claim sizes and claim intervals”(Albrecher e Boxma [1]). Obtemos uma expressão exata para a probabilidade de sobrevivência através da Transformada de Laplace da função de sobrevivência do superávit. Ilustramos os resultados obtidos através de exemplos numéricos e investigamos o que acontece ao se ignorar a estrutura de dependência presente no modelo. Estudamos também a probabilidade de sobrevivência para indenizações que possuem distribução do Tipo Fase, considerando que esta é uma classe de distribuições, computacionalmente tratáveis, bem mais geral.

2
  • ANDRESSA NUNES SIROKY
  • Inferência no Modelo Potência Normal Bimodal Assimétrico

  • Leader : BERNARDO BORBA DE ANDRADE
  • Data: 31 janv. 2014
  • Afficher le Résumé
  • Neste trabalho foram estudadas questões em aberto relativas ao modelo recém
    proposto por Bolfarine e outros (2013), o modelo potência normal bimodal
    assimétrico (PNBA). Após uma revisão das propriedades básicas do referido
    modelo, nos ocupamos das seguintes questões: desenvolver um algoritmo para
    geracão de amostras aleatórias, comparar os métodos de máxima verossimilhanca
    e de momentos em pequenas amostras e propor um método de reamostragem
    (bootstrap) para comparacão de duas populacões PNBA. Identificamos a
    existência de dificuldades numéricas referentes a estimacão por MV em virtude
    de pouca curvatura da verossimilhança para determinados pontos no espaco
    paramétrico e partir daí foram propostas soluções numéricas de simples
    implementação.

3
  • ANTONIO MARCOS BATISTA DO NASCIMENTO
  • Ergodicidade em Cadeias de Markov Não-Homogêneas e Cadeias de Markov com Transições Raras
     

  • Leader : SIDARTA ARAUJO DE LIMA
  • Data: 14 févr. 2014
  • Afficher le Résumé
  • O objetivo central de estudo em Cadeias de Markov Não-Homogêneas são os

    conceitos de ergodicidade fraca e forte. Uma cadeia é ergódica fraca se a

    dependência da distribuição inicial desaparece com o tempo, e é ergódica forte se é

    ergódica fraca e converge em distribuição. A maioria dos resultados teóricos sobre a

    ergodicidade forte supõem algum conhecimento do comportamento limite

    das distribuições estacionárias. Neste trabalho, reunimos alguns resultados gerais

    sobre ergodicidade fraca e forte para cadeias com espaço de estados enumerável, e

    também estudamos o comportamento assintótico das distribuições estacionárias de um

    tipo particular de Cadeias de Markov com espaço de estados finito, chamadas Cadeias

    de Markov com Probabilidades Raras.

4
  • JOCELÂNIO WESLEY DE OLIVEIRA
  • Gráficos CUSUM Ajustados ao Risco para Monitoramento de Tempos de Sobrevivência com Fração de Cura
  • Leader : PLEDSON GUEDES DE MEDEIROS
  • Data: 14 févr. 2014
  • Afficher le Résumé
  • Neste trabalho estudamos o uso de técnicas de Controle Estatístico de Processos (CEP) para monitoramento de tempos de sobrevivência. Diferentemente de aplicações na área industrial, em que a população em estudo é considerada homogênea, o CEP na área de saúde admite a heterogeneidade e deseja levar em consideração características particulares de pacientes que, antes de se submeterem a um procedimento médico, podem apresentar diferentes riscos de morte. Nessa perspectiva, alguns autores propõem o uso de um gráfico de controle CUSUM ajustado ao risco (RAST CUSUM) para monitorar resultados clínicos em que a resposta e o tempo até a ocorrência de um evento e está sujeita a censura à direita. No entanto, os modelos adotados não consideram a possibilidade de fração de cura. Neste estudo propomos estender esta abordagem considerando um modelo de sobrevivência com fração de cura. Para tanto, admitimos as distribuições log-logística e Weibull como exemplos. Finalmente, realizamos um estudo de simulação com a distribuição Weibull para obter limites de controle ótimos e avaliar o desempenho do gráfico que propomos em comparação com o RAST CUSUM sem fração de cura. Como resultado, notamos que o gráfico RAST CUSUM sem fração de cura se mostra inadequado ao ser aplicado em dados com fração de cura, mas o gráfico RAST CUSUM com fração de cura parece ter desempenho similar se aplicado em dados sem fração de cura.
5
  • ALEX WAGNER PEREIRA
  • CONSEQUÊNCIAS DA ANÁLISE INADEQUADA DE UM EXPERIMENTO FATORIAL 2k EM PARCELAS SUBDIVIDIDAS E SEM REPLICAÇÃO
  • Leader : CARLA ALMEIDA VIVACQUA
  • Data: 13 mars 2014
  • Afficher le Résumé
  • Em experimentos com vários fatores em que alguns são mais difíceis de mudar que outros, pode ser inconveniente executar as provas do experimento em uma forma completamente aleatória, levando o pesquisador a criar naturalmente uma restrição na ordem de execução para poupar tempo ou reduzir os custos. Este tipo de restrição pode resultar em uma generalização do planejamento fatorial, conhecida como experimentos em parcelas subdivididas. Na prática, é comum executar um experimento em parcelas subdivididas e analisá-lo como se fosse completamente aleatorizado. O objetivo principal do trabalho é avaliar o impacto de analisar um experimento com restrição na aleatorização como completamente aleatorizado.
6
  • ELVIS NERIS DE MEDEIROS
  • NI-GMRES Precondicionado

  • Leader : JULIA VICTORIA TOLEDO BENAVIDES
  • Data: 22 avr. 2014
  • Afficher le Résumé
  • Neste trabalho estudamos o problema não linear F(X) = 0, onde F é continuamente diferenciável com F : Rn-> Rn. Para solucioná-lo empregamos o método de Newton Inexato obtendo um sistema linearizado J(xk)sk =-F(xk), onde J(xk) representa a matriz Jacobiana
    no ponto xk e o passo iterativo sk é calculado por meio do método do Resíduo Mínimo
    Generalizado (GMRES), que pertence à família dos métodos de projeção em subespaços de Krylov. Afim de evitar de evitar o acréscimo no custo computacional devido ao aumento

    a cada iteração na dimensão do subespaço de Krylov utilizamos o GMRES com recomeços ou GMRES(m), o qual pode apresentar problemas de estagnação (duas soluções consecutivas iguais ou quase iguais). Uma das maneiras de contornar essa estagnação

    está no uso de precondicionadores no sistema inicial Ax = b, passando a um sistema equivalente do tipo M-1Ax = M-1b onde a matriz M é chamada de precondicionador e tem o papel de facilitar a solução do sistema inicial. A escolha de precondicionadores é uma área de pesquisa que remete ao conhecimento específico a priori do problema a ser resolvido e/ou da estrutura da matriz dos coeficientes A. Neste trabalho buscamos estudar o precondicionamento pela esquerda no método do Newton Inexato - GMRES(m). Apresentamos também uma estratégia que permite a mudança entre 3 tipos de precondicionadores (Jacobi, ILU e SSOR) dependendo de informações advindas da aplicação do GMRES(m) a cada iteração do Newton Inexato, ou seja, a cada vez que se resolve o sistema linearizado precondicionado. Assim fazemos ao final uma comparação entre nossas estratégias e o uso de precondicionadores fixos na resolução de problemas teste por meio do NI-GMRES.

7
  • ALLYSON FERNANDES LIANDRO
  • A Distribuição F Generalizada para Selecionar Modelos de Sobrevivência com Fração de Cura

  • Leader : DIONE MARIA VALENCA
  • Data: 3 juin 2014
  • Afficher le Résumé
  • A analise de sobrevivência paramétrica estuda o tempo até a ocorrência de um evento com base no ajuste de modelos probabilísticos fazendo uso frequente de modelos flexíveis para a escolha de um modelo mais simples e fácil de interpretar. Nesse sentido, a distribuição F generalizada tem a vantagem de incluir várias  distribuições importantes como casos especiais, com Weibull, Log-normal, log-logstica entre outras. Modelos de sobrevivência que tratam de estudos em que um percentual dos indivduos não apresentam a ocorrência do evento de interesse, mesmo acompanhados por um longo período de tempo, são chamados de modelos de longa duração ou modelos de fração de cura e vem sendo estudados nos últimos anos por diversos autores. Neste contexto, este trabalho tem como objetivo o estudo de características teóricas e computacionais associadas ao ajuste do modelo F generalizado com fração de cura.

8
  • PAULO DE SOUSA SOBRINHO
  • Algoritmos genéticos canônico e elitista: Uma abordagem comparativa

  • Leader : ANDRE GUSTAVO CAMPOS PEREIRA
  • Data: 2 juil. 2014
  • Afficher le Résumé
  • Este trabalho tem como objetivo apresentar as diferenças entre os algoritmos genético canônico e elitista. Para isso explicamos detatalhadamente cada etapa dos algoritmos, sua modelagem via cadeias de Markov e suas convergências. Utilizamos a versão elitista apresentada no artigo  MULTISTAGE MARKOV CHAIN MODELING OF THE GENETIC ALGORITHM AND CONVERGENCE RESULTS a fim de desenvolver simulações numéricas comparativas.

9
  • BRUNO DE LIMA BARBOSA
  • O USO DE MODELOS DE MARKOV OCULTOS NO ESTUDO DO FLUXO DE ÁGUA EM RIOS INTERMITENTES

  • Leader : BERNARDO BORBA DE ANDRADE
  • Data: 4 sept. 2014
  • Afficher le Résumé

  • Neste trabalho, apresentamos nosso entendimento acerca do artigo de Aksoy (2003), executando uma aplicação do modelo por ele apresentado, com o intuito de gerar dados de fluxos intermitentes, a partir de bancos de dados brasileiros. Em seguida, construímos um modelo oculto de Markov como uma nova proposta de abordagem para o problema. Nele utilizamos distribuições gama para simular os aumentos e decréscimos dos fluxos dos rios.

2013
Thèses
1
  • RAFAELA HORACINA SILVA ROCHA SOARES
  • Modelo de Risco controlado por resseguros e desigualdades para a probabilidade de ruína

  • Leader : DEBORA BORGES FERREIRA
  • Data: 28 févr. 2013
  • Afficher le Résumé
  • Neste trabalho apresentamos resultados teóricos e numéricos referentes a um Modelo
    de Risco com Taxa de Juros e Resseguro Proporcional baseados no artigo Inequalities
    for the ruin probability in a controlled discrete-time risk process de Rosario Romera e
    Maikol Diasparra. Equações recursivas e integrais para a Probabilidade de
    Runa são obtidas bem como cotas superiores para a mesma por diferentes abordagens, a
    saber, pela clássica desigualdade de Lundberg, pela abordagem Indutiva e pela abordagem
    Martingale. Técnicas de estimação de densidade (não-parametricas) são utilizadas para a
    obtenção das cotas para a Probabilidade de Ruína e os algoritmos utilizados na simulação
    são apresentados.

2
  • JOSEMIR RAMOS DE ALMEIDA
  • Estimação Clássica e Bayesiana em Modelos de Sobrevida com Fração de Cura

  • Leader : PLEDSON GUEDES DE MEDEIROS
  • Data: 22 mars 2013
  • Afficher le Résumé
  • Na An ́ lise de Sobrevivˆ ncia, os modelos de longa duracao permitindo uma generalizacao dos modelos basicos no sentido de modelar a parcela da populacao em estudo que é imune ao evento de interesse. Neste trabalho ilustramos e comparamos as estimacoes Bayesiana e frequentista com base nos modelos de mistura padr ̃ o exponencial e de tempo de promocao aplicados a uma base de dados descrita em Kersey et al. (1987), que consiste em dois grupos de pacientes com leucemia submetidos a dois tipos de transplantes. Os procedimentos comparados foram o m ́ todo de Laplace, m ́ todo de m ́ xima verossimilhanca e amostrador de Gibbs.

3
  • ELISANGELA RODRIGUES DE ALMEIDA
  • Analise de Resíduos em Modelos de Tempo de Falha Acelerado com Efeito Aleatorio

  • Leader : DIONE MARIA VALENCA
  • Data: 15 avr. 2013
  • Afficher le Résumé
  • Apresentamos tecnicas de analise de resduos para avaliar o ajuste de dados de sobrevivênencia correlacionados por meio de Modelos de Tempo de Falha Acelerado (MTFA) com efeito aleatorio. Propomos um procedimento de imputação para as informações censuradas e consideramos três tipos de resíduos para avaliar diferentes caractersticas do modelo. Ilustramos as propostas com a analise do ajuste de um MTFA com efeito
    aleatorio a um conjunto de dados reais envolvendo tempos entre falhas de equipamentos de pocos de petroleo.

4
  • MARIA JUCIMEIRE DOS SANTOS
  • Uma estratégia aleatória chamada de Moses.

  • Leader : JUAN ALBERTO ROJAS CRUZ
  • Data: 24 avr. 2013
  • Afficher le Résumé
  • Neste trabalho é estudado um algoritmo evolutivo chamado de MOSE,o qual foi introduzido por François em 1996.Resultados assintóticos deste algoritmo,comportamento das distribuiçoes estacionárias,foram derivados por François,em 1998,da teoria de Freidlin e Wentzell,detalhamentos destes resultados estão neste trabalho.Por outro lado,notamos que uma abordagem alternativa da convergência do algoritmo é possível sem fazer uso dos resultados de Freidlin e Wentzell,obtendo-se a visita quase certa do algoritmo ás populaçoes que contém o mínimo global.Também algumas simulaçoes no Matlab são apresentadas.

     

5
  • ALDEMIR CIRILO DA SILVA
  • Modelagem Matemática e Computacional de Fenômenos Eletrocinéticos

    em Meios Porosos Carregados Eletricamente

  • Leader : SIDARTA ARAUJO DE LIMA
  • Data: 5 août 2013
  • Afficher le Résumé
  • Neste trabalho derivamos uma modelagem matemática e computacional multiescala para o movimento de fluidos e transporte dos solutos utilizando a técnica de homogeneização de estruturas periódicas. Na escala nanoscópica modelamos os fenômenos eletroquímicos fazendo uso da teoria da camada dupla de Gouy-Chapmann. Na escala do poro, assumimos as partículas sólidas carregadas eletricamente, consideradas rígidas e incompressíveis, com a matriz
    porosa saturada por uma solução aquosa salina. Reações eletroquímicas de ionização, hidrólise e eletrólise dão origem a solutos dissociados na fase aquosa. Para a modelagem do movimento da solução aquosa e transporte dos  íons,  postulamos a equação de Stokes que governa a eletro-hidrodinâmica do fluido e equações de Nernst-Planck do contínuo para  o movimento dos solutos iônicos juntamento com condições de interface para o deslizamento dos ions na camada dupla e adsorção eletro-química das espécies na interface fluido/sólido. O sistema de equações microscópico/nanoscópico é derivado na escala macroscópica fazendo uso da técnica de perturbação assintótica denominada homogeneização de estruturas periódicas. Simulação computacionais são propostas com o objetivo de quantificar fenômenos eletrocinéticos em meios porosos argilosos.

6
  • MARCIO LEMOS DO NASCIMENTO
  • Unicidade e Discretização para problemas de valor inicial

  • Leader : NIR COHEN
  • Data: 13 août 2013
  • Afficher le Résumé
  • O presente trabalho tem dois objetivos: (i) a realização de uma pesquisa bibliogr
    a ca sobre os criterios de unicidade de solução para problemas de valor inicial
    de equações diferenciais ordinarias. (ii) Introduzir uma modi cação do metodo de
    Euler que parece ser capaz de convergir a uma das soluções do problema, caso a
    solução não seja única.

7
  • IVANILDO FREIRE PEREIRA
  • Parâmetro de regularização em problemas inversos: Estudo numérico com a Transformada de Radón

  • Leader : ROBERTO HUGO BIELSCHOWSKY
  • Data: 20 sept. 2013
  • Afficher le Résumé
  • Problemas inversos, usualmente recaem em resolver alguma equação do tipo f(x) = b, onde cada equação fi(x) = bi  pode ser   pensada como uma medida de um dado x a ser recuperado. Usualmente são mal postos, no sentido de corresponderem a equações que podem não ter solução exata, podem ainda ter  muitas soluções,  ou ainda, o que é o mais comum, ter soluções muito instáveis a ruídos na obtenção de b. Há várias formas de “regularizar” a obtenção de soluções de tais problemas e a mais “popular” seria a de Tykhonov, que corresponde a:

     

                                   Minimizar  ||f(x) – b||2 + l ||L(x – x0) ||2       (I)

     

    A regularização pretendida corresponde a se escolher o operador l, de tal forma que o problema I tenha soluções estáveis com perturbações em b e que aproximem soluções do problema de mínimos quadrados usual, no caso de se fazer l  0.   O primeiro termo de (I) representa o ajuste aos dados e o segundo termo penaliza a solução de forma a regularizar o problema e produzir uma solução estável a ruídos.  Se l = 0, isto significa que estamos procurando  uma solução de quadrados mínimos para o problema, o  que usualmente é insuficiente para problemas mal postos. O termo de regularização adicionado  introduz um viés na solução ao penalizar o ajuste com um termo adicional.   Se L for a identidade, por exemplo, isto significa que estamos apostando que a solução estaria relativamente próxima de x0. Se L for o operador gradiente, estamos apostando que a solução x é razoavelmente suave.  Nas aplicações, L usualmente é escolhido como um operador adaptado ao problema estudado e de forma se valer de  informações a priori disponíveis sobre as soluções  procuradas.

     

    A escolha do parâmetro l > 0 é crucial neste métodos, pelo fato que se l é excessivo, isto tende a  enfraquecer  excessivamente o ajuste  aos dados, induzindo um  ajuste da solução  à   x0.  Se l for pequeno demais a regularização pretendida acaba não acontecendo e a solução do problema (I)  usualmente acaba ficando muito instável e contaminada por ruídos. Há várias técnicas disponíveis na literatura para tal escolha, sobretudo se f  é uma função linear f(x) = Ax. O objetivo da dissertação é o de estudar algumas destas técnicas de ajuste do parâmetro l no caso de operadores discretizados,  vale dizer, x no  Rn.  Em especial, destacamos os métodos de ajuste do parâmetro l   reconhecidos na literatura como L-curve, GCV e método da discrepância, e objetiva-se   comparar estes métodos em testes feitos com a transformada de Radon e tendo como regularizador um operador de derivada de primeira ordem.  Os resultados dos testes realizados revelam  pontos interessantes na relação entre os diferentes estimadores para o parãmetro de regularização e que sugerem  um aprofundamento teórico além do escopo desta dissertação.

2012
Thèses
1
  • MARIANA BARBOSA DA SILVA
  • Estimadores do Tipo Núcleo para variáveis iid com Espaço de Estados Geral.

  • Leader : DEBORA BORGES FERREIRA
  • Data: 31 mai 2012
  • Afficher le Résumé
  • Neste trabalho estudamos as propriedades assintóticas dos Estimadores do Tipo Núcleo associados a variáveis aleatórias iid com espaço de estados geral.Verificamos que esses estimadores são assitoticamente não viciados, consistentes em média quadrática, fortemente consistentes e assintoticamente normal distribuidos. Finalizamos com um exemplo, onde ilustramos via simulação a importância do tamanho da janela.

2
  • ELVIS DOS SANTOS SAMPAIO
  • GRÁFICO MISTO DE CONTROLE DA MÉDIA COM AMOSTRAGEM EM DOIS ESTÁGIOS

  • Leader : PLEDSON GUEDES DE MEDEIROS
  • Data: 20 juil. 2012
  • Afficher le Résumé
  • Esta dissertação propõe um novo gráfico (ou procedimento) de controle para monitorar a centralidade
    de um processo (média) por meio da junção dos gráficos X-barra e npx. Basicamente o
    procedimento consiste em dividir o tamanho n da amostra em duas partes (n1 e n2), definidas
    pelo processo de otimização. Realiza-se a inpeção por atributos na sub-amostra de tamanho n1
    por meio do gráfico npx. Caso seja detectada a presença de alguma causa especial inspeciona-se
    a parte relativa a inspeção por variáveis na sub-amostra de tamanho n2 por meio do gráfico X-barra. A
    possibilidade de não inspecionar todos os itens da amostra pode promover uma redução tanto no
    custo quanto no tempo gasto para inspecionar os itens da amostra. Descreve-se a metodologia de
    construção, avaliação e o funcionamento do gráfico aqui proposto, e com o auxílio do software
    estatístico R© é feito um estudo comparativo entre os gráficos individuais X-barra e npx e o gráfico
    misto. Neste estudo verificou-se que o procedimento proposto fornece várias opções concorrentes
    com o gráfico X-barra para um dado tamanho de amostra n e um desvio na média delta. Os valores do
    tempo esperado até o sinal (TES) inferiores aos provenientes do gráfico individual X evidenciaram
    que o gráfico misto é uma ferramenta eficaz no monitoramento de processos capaz de substituir
    com certa vantagem o procedimento usual em que é aplicado o gráfico das médias.

3
  • THIAGO JEFFERSON DE ARAUJO
  • Métodos numéricos para resolução de equações diferenciais ordinárias lineares baseados em interpolação por splines

  • Leader : NIR COHEN
  • Data: 13 août 2012
  • Afficher le Résumé
  • Neste trabalho desenlvolvemos um método de resolução de problemas de valor inicial com equações diferenciais ordinárias baseado em splines, com ênfase em equações lineares. O método serve como alternativa para os métodos tradicionais como Runge-Kutta e no caso linear com coeficientes constantes, evita o cálculo de raízes de polinômios. O método foi aplicado para um problema central da teoria de controle, o problema de resposta a degrau para uma EDO linear, incluindo o caso de coeficientes não-constantes, onde a alternativa pelo cálculo de raízes não existe. Implementamos um algoritmo eficiente que usa apenas operações tipo matriz-vetor. O intervalo de trabalho (até o tempo de acomodação) para as equações estáveis com coeficientes constantes é determinado pelo cálculo da raiz menos estável do sistema, a partir de uma adaptação do método da potência. Através de simulações, comparamos algumas variantes do método. Em problemas lineares gerais com malha suficientemente fina, o novo método mostra melhores resultados em comparação com o método de Euler. No caso de coeficientes constantes, onde existe a alternativa baseada em cálculo das raízes, temos indicações que o novo método pode ficar competitivo para equações de grau bastante alto.
4
  • HERICA PRISCILA DE ARAUJO CARNEIRO
  • TESTES DE HIPÓTESES EM MODELOS DE SOBREVIVÊNCIA COM FRAÇÃO DE CURA

  • Leader : DIONE MARIA VALENCA
  • Data: 14 août 2012
  • Afficher le Résumé
  • Modelos de sobrevivência tratam do estudo do tempo até e a ocorrência de um evento. Contudo em algumas situações, uma proporção da população pode não estar mais sujeita a ocorrência deste evento. Modelos que tratam desta abordagem são chamados de modelos de fração de cura. Existem poucos estudos na literatura sobre testes de hipóteses aplicadas a modelos de fração de cura. Recentemente foi proposta uma nova estatística de teste, denominada estatística gradiente que possui distribuição assintótica equivalente a das estatísticas usuais. Alguns estudos de simulação veem sendo desenvolvidos no sentido de explorar características dessa nova estatística e comparar com as estatísticas clássicas, aplicadas a diferentes modelos. Este trabalho tem como principal objetivo estudar e comparar o desempenho do teste gradiente e do teste da razão de verossimilhanças, em modelos de fração de cura. Para isso descrevemos características do modelo e apresentamos os principais resultados assintóticos dos testes. Consideramos um estudo de simulação com base no modelo de tempo de promoção com distribuição Weibull, para avaliar a desempenho dos testes em amostras finitas. Uma aplicação e realizada para ilustrar os conceitos estudados.

     

5
  • CATIA REGINA DOS SANTOS SILVA
  • Recuperação de sinais esparsos

     

  • Leader : ROBERTO HUGO BIELSCHOWSKY
  • Data: 27 nov. 2012
  • Afficher le Résumé
  • Um dos temas mais populares em recuperação de dados nos últimos dez anos gira em torno da descoberta que  a recuperação de sinais esparsos em sistemas lineares, pode ser feita com um número de equações bem menor que o número de variáveis.  Em linhas gerais, se A = Amxn ,   queremos  resolver Ax = b    e procuramos soluções com  s << n entradas não-nulas em algum sistema de coordenadas, isto pode ser feito com um número de equações m << n,  minimizando  a norma 1 de x , sujeito à restrição Ax = b, desde que estejam atendidas condições de “quase ortogonalidade”  nas colunas das submatrizes  de A formadas por s colunas  (RIP – Restricted Isometry property  +  s << n) ( Vide [1]).

    O objetivo desta dissertação é situar o problema, discutir e trabalhar uma técnica de visualização do sucesso na  recuperação de imagens em função de s, m e n, apontada em [2],  bem como usá-la para comparar  a recuperação obtida em casos onde a hipótese  RIP é satisfeita para a matriz A, com o que acontece com a transofrmada de Radon, onde  a hipótese RIP não é verificada, mas no qual, ainda assim, se obtém resultados promissores  na recuperação de sinais esparsos.

    [1] – Emmanuel J. Candès e Michael B. Waking - “People hearing without listening:  An Introduction to compressive sensing” -  IEEE Signal Processing Magazine (2008)  Volume: 25, Issue: 2, Publisher: Citeseer, Pages: 21-30.

    Cópia PDF disponível em http://www-stat.stanford.edu/~candes/papers/spm-robustcs-v05.pdf

    [2] – Jeffrey D Blanchard, Coralia Cartis  e Jared Tanner  -  Compressed Sensing: How Sharp Is the Restricted Isometry Property? - SIAM Rev. 53 (2011), pp. 105-125 (21 pages)

    Cópia PDF disponível em   http://arxiv.org/pdf/1004.5026v1.pdf

2011
Thèses
1
  • ALYSSON LIVIO VASCONCELOS GUEDES
  • Modelo de Tempo de Falha Acelerado com Fração de Cura: Uma abordagem unificada

  • Leader : PLEDSON GUEDES DE MEDEIROS
  • Data: 19 oct. 2011
  • Afficher le Résumé
  • Neste trabalho apresentamos um estudo sobre o modelo de tempo de falha acelerado com fração de cura sob uma abordagem unificada. O modelo se propõe a estimar simultaneamente o efeito de covariáveis na aceleração/desaceleração do tempo até a ocorrência de um evento e na fração de cura. O método é implementado no software estatístico R. Por fim o modelo é aplicado a dados reais referente ao tempo até o retorno da doença em pacientes diagnosticados com câncer de mama.

2
  • FRANCINARIO OLIVEIRA DE ARAUJO
  • Método de Projeções Ortogonais

  • Leader : ROBERTO HUGO BIELSCHOWSKY
  • Data: 15 déc. 2011
  • Afficher le Résumé
  • O problema abordado nesta dissertação é a prova da propriedade de limitação para os iterados de um algoritmo iterativo em Rd,  que aplica em cada passo uma projeção ortogonal sobre uma reta em Rd, indexada em uma família de retas dada e permitindo  ordem arbitrária na aplicação das várias projeções. Este problema foi abordado em um artigo de Bàràny  et al. em 1994, que encontrou uma condição necessária e suficiente para o caso d = 2 e analisou  também o caso d > 2 sob algumas condições técnicas. Porém, este artigo usa argumentos intuitivos não triviais e nas suas demonstrações nos parece faltar  rigor. Nesta dissertação detalhamos e  completamos  as demonstrações do artigo de Barány, fortalecendo e clareando algumas de suas  proposições, bem como propiciando pontos de vista complementares  em alguns aspectos do artigo em tela.

3
  • FELIPE HENRIQUE ALVES MAGALHAES
  • Testes em Modelos Weibull na Forma Estendida de Marshall-Olkin

  • Leader : PLEDSON GUEDES DE MEDEIROS
  • Data: 28 déc. 2011
  • Afficher le Résumé
  • Em análise de sobrevivência, a variável resposta é, geralmente, o tempo até a ocorrênciade um evento de interesse, chamado de falha e a principal característica de dados de sobrevivência é a presença de censura, que é a observação parcial da resposta. Associadas a essas informações, alguns modelos ocupam uma posição de destaque por sua comprovada adequação a várias situações práticas, entre os quais é possível citar o modelo Weibull. Distribuições na forma estendida de Marshall-Olkin oferecem uma ampliação do comportamento em relação às distribuições básicas de origem, e podem se mostrar mais adequadas para o ajuste de dados de tempo de vida. Este trabalho propõe uma comparação entre duas estatísticas de teste, Razão de Verossimilhança e Gradiente, utilizando a distribuição Weibull em sua forma extendida de Marshall-Olkin. Um exemplo numérico ilustra o procedimento.

2010
Thèses
1
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • ESTIMAÇÃO PARAMÉTRICA E NÃO-PARAMÉTRICA EM MODELOS DE MARKOV OCULTOS

  • Leader : JAQUES SILVEIRA LOPES
  • Data: 10 févr. 2010
  • Afficher le Résumé
  • Neste trabalho, estudamos os modelos de Markov ocultos tanto em espaço de estados finito quanto em espaço de estados geral. No caso finito, estudamos os algoritmos para frente e para trás para determinar a probabilidade da seqüência observada e em seguida, estimamos os parâmetros do modelo via algoritmo EM. No caso geral, estudamos os estimadores do tipo núcleo e utilizamos na construção da convergência na norma  de funções limitadas da cadeia de Markov. Vimos também que, quando o processo de Markov satisfaz a condição f-mixing e admite uma distribuição estacionária  temos,

     

                   q.c.

     

    onde  é o estimador do tipo núcleo em  com a função  e a seqüência  apropriadamente escolhidas e  é a densidade da variável aleatória  do processo observado de um dado modelo de Markov oculto.

2
  • MARIA APARECIDA DA SILVA SOARES
  • ESTIMADOR DO TIPO NÚCLEO PARA DENSIDADES LIMITES DE CADEIAS DE MARKOV COM ESPAÇO DE ESTADOS GERAL

  • Leader : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 25 févr. 2010
  • Afficher le Résumé
  • A teoria de estimação de densidades tem por objetivo construir um estimador para uma função densidade de probabilidade desconhecida de uma população, a partir de uma amostra dessa população.

    Estimadores do tipo núcleo associados a cadeias de Markov estritamente

    estacionárias foram considerados por Roussas (1969,1991),Rosemblat (1970) e Athreya e Atuncar (1998) com o objetivo de estimarem densidades em Rd.

    Neste trabalho estudamos a consistência de uma classe de estimadores do tipo núcleo associados a cadeias de Markov com espaço de estados geral.Na primeira parte, assumimos que a cadeia era estritamente estacionária e satisfazia uma condição do tipo mixing. Na segunda parte, sem a condição de estacionariedade foi assumido que a cadeia era geometricamente ergódica.

3
  • CARLOS ALEXANDRE GOMES DA SILVA
  • UMA APLICAÇÃO DA TEORIA DA RUÍNA EM UM MODELO DE MARKOV DE DOIS ESTADOS

  • Leader : ANDRE GUSTAVO CAMPOS PEREIRA
  • Data: 19 mars 2010
  • Afficher le Résumé
  • Neste trabalho, apresentamos uma aplicação da teoria do risco com o seguinte cenário:  As mudanças no capital de uma seguradora acontecem em cada instante de tempo e o pagamento de uma indenização ou recebimento de um prêmio é decidido pelo resultado de uma cadeia de Markov de dois estados. Nesta situação calculamos a probabilidade de ruína e o tempo esperado de ruína quando o valor da indenização é um mútiplo do valor do prêmio.

4
  • SEBASTIAO GOMES DE ANDRADE NETO
  • ESTIMATIVA DE EXPOENTES CRÍTICOS EM PERCOLAÇÃO

  • Leader : MARCELO GOMES PEREIRA
  • Data: 31 mars 2010
  • Afficher le Résumé
  • Na Teoria de Percolação, funções como a probabilidade de um sítio pertencer ao aglomerado percolante, tamanho médio dos aglomerados, etc. são descritas por meio de leis de potência e expoentes críticos. Esta dissertação faz uso do método chamado Escalonamento de Tamanho Finito para fornecer uma estimativa desses expoentes.

    A dissertação está dividida em quatro partes. A primeira apresenta de forma rápida os principais resultados da Teoria da Percolação por sítios para dimensão . Além disso, são definidas algumas quantidades importantes para a determinação dos expoentes críticos e o para o entendimento sobre as transições de fase. A segunda parte apresenta uma introdução sobre o conceito de fractal, dimensão e classificação. Concluída a base do nosso estudo, na terceira parte é mencionada a Teoria de Escala, a qual relaciona os expoentes críticos e as quantidades descritas no Capítulo 2. Na última parte, através do escalonamento de tamanho finito, determinamos os expoentes críticos  e . A partir desses, usamos as relações de escala as relações descritas no Capítulo anterior para determinar os expoentes críticos restantes.

5
  • JOSE CECILIO ROSA NETO
  • Modelagem dos Algoritmos Genético Simples e Simulated Annealing por cadeias de Markov

  • Leader : JAQUES SILVEIRA LOPES
  • Data: 16 avr. 2010
  • Afficher le Résumé
  • Os Algoritmos Genético (AG) e o Simulated Anniling (SA) são algoritmos construídos para encontrar máximo ou mínimo de uma função que representa alguma característica do processo que está sendo modelado, esses algoritmos possuem mecanismos que os fazem escapar de ótimos locais. Entretanto a evolução desses algoritmos no tempo se dá de forma completamente diferente. O SA no seu processo de busca trabalha com apenas um ponto, gerando a partir deste sempre um nova solução que é testada e que pode ser aceita ou não, já o AG trabalha com um conjunto de pontos chamado população, das quais geram outras populações que sempre são aceitas. Em comum com esses dois algoritmos temos que a forma como o próximo ponto ou a próxima população é gerada obedece propriedades estocásticas. Nesse trabalho mostramos que a teoria matemática que descreve a evolução destes algoritmos é a teoria das cadeias de Markov, o AG é descrito por uma cadeia de Markov homogênea enquanto que o SA é descrito por uma cadeia de Markov não-homogênea, por fim serão feitos alguns exemplos computacionais comparando o desempenho desses dois algoritmos.

6
  • MANASSES PEREIRA NOBREGA
  • ESTUDO COMPARATIVO DE GRÁFICOS DE PROBABILIDADE NORMAL PARA ANÁLISE DE EXPERIMENTOS FATORIAIS NÃO REPLICADOS

  • Leader : ILONEIDE CARLOS DE OLIVEIRA RAMOS
  • Data: 17 mai 2010
  • Afficher le Résumé
  • Os experimentos fatoriais são muito utilizados, especialmente na indústria. Na prática, muitos experimentos são custosos para conduzir, e realizar replicações independentes dos tratamentos pode ser economicamente inviável. Sendo assim, são utilizados os experimentos fatoriais 2k não replicados. Mas, sem replicação não é possível obter uma estimativa direta da variabilidade do erro para se avaliar a significância dos efeitos. Uma das possíveis soluções para este problema é utilizar o gráfico normal ou o gráfico semi-normal dos efeitos.

    Embora Daniel (1959) tenha desenvolvido e usado o gráfico semi-normal em suas análises, afirrmando que o estudo da distribuição acumulada empírica dos contrastes usuais calculados deve ser útil na análise e interpretação de experimentos 2k, sua posição mudou. Em 1976, Daniel publica seu livro Applications of Statistics to Industrial Experimentation, no qual veio preferir o gráfico normal, citando sua grande habilidade para revelar discrepâncias nas suposições. Contribuindo para essa questão, ainda há uma afirmação (não confirmada) de que Daniel tenha invertido de posição, favorecendo o gráfico semi-normal novamente.

    Enfim, aos cinquenta anos de publicação do artigo de Daniel sobre o gráfico semi-normal, este trabalho busca verificar as seguintes questões: O gráfico semi-normal  é melhor que o gráfico normal? Em que situações? Que informações o gráfico semi-normal acrescenta à análise do experimento que possam complementar aquelas fornecidas pelo gráfico normal? Quais as restrições no uso do gráfico semi-normal?

7
  • ENAI TAVEIRA DA CUNHA
  • ESTIMADORES DO TIPO NÚCLEO PARA A DENSIDADE DE TRANSIÇÃO DE UMA CADEIA DE MARKOV COM ESPAÇO DE ESTADOS GERAL

  • Leader : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 21 mai 2010
  • Afficher le Résumé
  • No presente trabalho, estudamos a consistência forte de uma classe de estimadores do tipo núcleo para a densidade de transição de uma cadeia de Markov com espaço de estados geral .

    A consistência forte do estimador da densidade de transição, foi obtida a partir da consistência forte dos estimadores do tipo núcleo para a densidade marginal da cadeia, , e da consistência forte dos estimadores do tipo núcleo para a densidade conjunta, . Foi considerado que a cadeia é homogênea e uniformemente ergódica com densidade inicial estacionária .

8
  • JOAO BATISTA CARVALHO
  • PREDIÇÃO EM MODELOS DE TEMPO DE FALHA ACELERADO COM EFEITO ALEATÓRIO PARA AVALIAÇÃO DE RISCOS DE FALHA EM POÇOS PETROLÍFEROS

  • Leader : DIONE MARIA VALENCA
  • Data: 28 mai 2010
  • Afficher le Résumé
  • Consideramos técnicas de predição baseadas em modelos de tempo de falha acelerado com efeito aleatório para dados de sobrevivência correlacionados. Além do enfoque bayesiano através do Estimador de Bayes Empírico, também discutimos sobre o uso de um método clássico, o Melhor Preditor Linear Não Viciado Empírico (EBLUP), nessa classe de modelos. Para ilustrar a utilidade desses métodos, fazemos aplicações a um conjunto de dados reais envolvendo tempos entre falhas de equipamentos de poços de petróleo da Bacia Potiguar. Neste contexto, o objetivo é predizer os riscos/probabilidades de falha com a finalidade de subsidiar programas de manutenção preventiva. Os resultados obtidos mostram que ambos os métodos são adequados para prever falhas futuras, proporcionando boas decisões em relação ao emprego e economia de recursos para manutenção preventiva.

9
  • DANIEL MATOS DE CARVALHO
  • DOWSCALING ESTOCÁSTICO PARA EXTREMOS CLIMÁTICOS VIA INTERPOLAÇÃO ESPACIAL

  • Leader : PAULO SERGIO LUCIO
  • Data: 8 juin 2010
  • Afficher le Résumé
  • Os dados de reanálise de temperatura do ar e precipitação do NCEP – National Centers for Environmental Predictions serão refinados para a produção dos níveis de retorno para eventos extremos nas 8 capitais do Nordeste Brasileiro - NB: São Luis, Teresina, Fortaleza, Natal, João Pessoa, Recife, Maceió, Aracaju e Salvador. A grade do Ncep possui resolução espacial de 2.5° x 2.5° disponibilizando séries históricas de 1948 a atualidade. Com esta resolução a grade envolve o NB utilizando 72 localizações (séries).  A primeira etapa consiste em ajustar os modelos da Distribuição Generalizada de Valores Extremos (GEV) e da Distribuição Generalizada de Pareto (GPD) para cada ponto da grade. Utilizando o método Geoestatístico denominado Krigagem, os parâmetros da GEV e GPD serão interpolados espacialmente. Considerando a interpolação espacial dos parâmetros, os níveis de retorno para extremos de temperatura do ar e precipitação poderão ser obtidos aonde o NCEP não fornece informação relevante. Visando validar os resultados desta proposta, serão ajustados os modelos GEV e GPD as séries observacionais diárias de temperatura e precipitação de cada capital nordestina, e assim comparar com os resultados obtidos a partir da interpolação espacial. Por fim o método de Regressão Quantílica será utilizado como método mais tradicional com a finalidade de comparação de métodos.

10
  • LENILSON PEREIRA DA SILVA
  • AJUSTE PREVENTIVO VERSUS AJUSTE CORRETIVO NO CONTROLE ON-LINE DE PROCESSO DO NÚMERO DE NÃO-CONFORMIDADES NUM ITEM INSPECIONADO

  • Leader : PLEDSON GUEDES DE MEDEIROS
  • Data: 15 juin 2010
  • Afficher le Résumé
  • Numa linha de produção, todo processo está sujeito a ocorrências de causas que venham a aparecer causando perdas na qualidade do produto e consequentemente prejuízos ao fabricante. Identificar essas causas e removê-las é tarefa do responsável pelo monitoramento do processo.

    Este trabalho tem como objetivo principal fazer o monitoramento num processo através do controle on-line de qualidade por atributos, considerando o número de não-conformidades no item inspecionado. A estratégia de decisão para verificar se o processo está sob controle, está diretamente associado aos limites de controle do gráfico de não-conformidades do processo. Uma política de ajustes preventivos é incorporada com o objetivo de aumentar a fração conforme do processo. Com o auxílio do software R, é feita uma análise de sensibilidade do modelo proposto mostrando em que situações é mais interessante fazer o ajuste preventivo.

11
  • MARCONIO SILVA DOS SANTOS
  • NÃO VÍCIO ASSINTÓTICO, CONSISTÊNCIA FORTE E UNIFORMEMENTE FORTE DE ESTIMADORES DO TIPO NÚCLEO PARA DADOS DIRECIONAIS SOBRE UMA ESFERA UNITÁRIA K-DIMENSIONAL

  • Leader : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 28 juin 2010
  • Afficher le Résumé
  • Nesse trabalho estudamos o não-vício assintótico, a consistência forte e a consistência uniformemente forte de um estimador do tipo núcleo, que como a maioria dos estimadores é construído com base em n observações i.i.d. X1,..., Xn de X, para a densidade f(x) de um vetor aleatório X que assume valores em uma esfera unitária k-dimensional.

2009
Thèses
1
  • RENATA MENDONCA RODRIGUES VASCONCELOS
  • CONTROLE ON-LINE DE PROCESSOS POR ATRIBUTOS: UMA ABORDAGEM ECONÔMICA PARA O NÚMERO DE NÃO-CONFORMIDADES EM UM ITEM INSPECIONADO
  • Leader : PLEDSON GUEDES DE MEDEIROS
  • Data: 2 mars 2009
  • Afficher le Résumé
  • O procedimento usual de controle on-line de processo por atributos consiste em inspecionar um item a cada m produzidos. Se o item examinado for conforme a produção continua; caso contrário pára-se o processo. No entanto, em muitas situações práticas, nem sempre existe interesse em classificar o item como defeituoso ou não defeituoso, mas sim monitorar o número de não-conformidades no item inspecionado. Neste caso, se o número de não conformidades for superior a um limite de controle, pára-se o processo para o ajuste. A contribuição deste trabalho está em propor um sistema de controle baseado no número de não-conformidades do item inspecionado. Através das propriedades de uma cadeia de Markov ergódica, obteve-se uma expressão analítica do custo médio do (item produzido) sistema de controle que pode ser minimizada por dois parâmetros: o intervalo entre inspeções e o limite superior de controle do gráfico do número de não-conformidades no item inspecionado. Palavras-chave: Controle on-line de processo para atributos; número de não-conformidades na amostra; cadeia de Markov; modelo econômico.
2
  • RENATA SANTANA FONSECA
  • Métodos de Máxima Verossimilhança para Modelos de Sobrevivência com Fração de Cura e Omissão nas Covariáveis
  • Leader : DIONE MARIA VALENCA
  • Data: 6 mars 2009
  • Afficher le Résumé
  • Neste trabalho estudamos o modelo de sobrevivência com fração de cura proposto por Yakovlev (1993) que possui uma estrutura de riscos competitivos. Covariáveis são introduzidas para modelar o número médio de riscos e consideramos que algumas destas covariáveis podem não ser observadas para todos os indivíduos, o que resulta em algumas lacunas na matriz de dados. Consideramos apenas os casos em que as covariáveis omissas são categóricas e obtemos estimativas dos parâmetros através do algoritmo EM ponderado. Não há na literatura estudo de simulação para este modelo quando as covariáveis apresentam omissão. Apresentamos uma série de simulações para confrontar as estimativas obtidas através deste método com as obtidas quando se exclui do banco de dados as observações que apresentam omissão, conhecida como análise de casos completos (ACC). Avaliamos também através de simulações o impacto na estimativa dos parâmetros quando aumentamos o percentual de imunes e de censura entre indivíduos não imunes. Um conjunto de dados reais referentes ao tempo até a conclusão do curso de estatística na Universidade Federal do Rio Grande do Norte é utilizado para ilustrar o método. Palavras-chave: Análise de sobrevivência; fração de cura; omissão; algoritmo EM.
3
  • ALLAN ROBERT DA SILVA
  • EXPERIMENTOS COM RESTRIÇÕES NA ALEATORIZAÇÃO ENVOLVENDO MISTURAS
  • Leader : CARLA ALMEIDA VIVACQUA
  • Data: 29 avr. 2009
  • Afficher le Résumé
  • Durante a fase de planejamento de um experimento, um dos grandes desafios é lidar com a limitação de recursos. Assim, planos completamente aleatorizados nem sempre representam uma alternativa viável de realizar um experimento. Naturalmente, planos experimentais com restrições na aleatorização, como os da classe split-plot e strip-plot tornam-se práticos e úteis. Neste trabalho, aborda-se restrição na aleatorização no contexto de experimentos com misturas, cuja motivação inicial foi um plano experimental inovador proposto para uma aplicação em telhas cerâmicas do RN. A partir desse fato, uma revisão bibliográfica foi realizada, no qual foi encontrado um artigo que usou um plano experimental com características semelhantes. Neste artigo, os autores investigam a eficiência de métodos de estimação de parâmetros de um modelo para um plano experimental com restrições na aleatorização. Surgiu então a idéia de verificar a eficácia de métodos de estimação de um modelo para um novo plano experimental com características que se assemelham ao plano discutido no artigo, mas com uma estrutura de erro semelhante ao plano inovador proposto. Diferentemente do que ocorreu no artigo, os métodos de estimação não foram tão eficientes como se imaginava. Esse resultado foi obtido a partir de simulações realizadas no software estatístico R. Ao final, discussões sobre os resultados obtidos e sugestões para novas investigações são dadas.
4
  • ANTONIO HERMES MARQUES DA SILVA JUNIOR
  • Testes Escore Corrigidos para Modelos Lineares Generalizados no Ambiente R
  • Leader : DAMIAO NOBREGA DA SILVA
  • Data: 28 mai 2009
  • Afficher le Résumé
  • Correções de Bartlett são procedimentos estatísticos que podem ser usados para melhorar o desempenho de estatísticas cujas distribuições são aproximadas pela qui-quadrado. Uma aplicação destas correções se dá no aperfeiçoamento do teste escore em modelos lineares generalizados. Entretanto, a forma da correção resultante utiliza operações com matrizes que são formadas por expressões envolvendo derivadas de primeira e segunda ordem da média e da função de variância do modelo, com respeito ao preditor linear. Em razão das dificuldades para se obter tais expressões, ou até mesmo para modificá-las quando se altera os componentes aleatórios ou o sistemático do modelo, é que tais correções não têm ainda sido incorporadas nas muitas aplicações do teste Escore. Esta dissertação propõe um programa computacional desenvolvido no software estatístico R para implementar testes escore corrigidos em um dado modelo linear generalizado. Detalhes técnicos e a utilização do programa são discutidos com base na análise de uma série de conjuntos de dados reais encontrados na literatura. Também, são apresentados os resultados de dois experimentos de simulação, em que as vantagens dos testes corrigidos e a versatilidade do programa são avaliadas.
5
  • JOAO SATURNINO DA SILVA NETO
  • APLICAÇÃO DAS TÉCNICAS PATH-RELINKING E VOCABULARY BUILDING NA MELHORIA DE PERFORMANCE DO ALGORITMO MEMÉTICO PARA O PROBLEMA DO CAIXEIRO VIAJANTE ASSIMÉTRICO
  • Leader : DARIO JOSE ALOISE
  • Data: 10 juil. 2009
  • Afficher le Résumé
  • O presente trabalho tem como propósito melhorar o procedimento estado-da-arte para a resolução do Problema do Caixeiro Viajante Assimétrico. Tal procedimento consiste em um algorítmo memético projetado especificamente para essa variante do Problema do Caixeiro Viajante. O algorítmo será implementado e acrescido de módulos que incorporam as técnicas de otimização conhecidas como Path Relinking e Vocabulary Building, sendo essa última técnica utilizada de dois modos distintos. A técnica de Vocabulary Building foi idealizada por Fred Glover no início da década de 90 e ainda é considerada pouco explorada na literatura.
6
  • HELENICE LOPES BARBOSA
  • MÉTODOS ESTATÍSTICOS EM CADEIAS DE MARKOV
  • Leader : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 17 août 2009
  • Afficher le Résumé
  • Este trabalho tem como objetivo o estudo do comportamento assintótico da estatística de Pearson, que é o aparato teórico do conhecido teste qui-quadrado ou teste como também é usualmente denotado. Inicialmente estudamos o comportamento da distribuição da estatística qui-quadrado de Pearson (1900) numa amostra quando e o , . Em seguida detalhamos os argumentos usados em Billingley, no artigo STATISTICAL METHODS IN MARKOV CHAINS, os quais demonstram a convergência em distribuição de uma estatística, semelhante a Pearson, baseada em uma amostra de uma cadeia de Markov, estacionária, ergódica e com espaço de estados finito.
7
  • KALINE ANDREZA DE FRANCA CORREIA ANDRADE
  • PERCOLAÇÃO EM UMA REDE MULTIFRACTAL
  • Leader : MARCELO GOMES PEREIRA
  • Data: 28 août 2009
  • Afficher le Résumé
  • Neste trabalho é feita uma análise de um tipo de rede, com características multifractais, que serve de suporte para o modelo de percolação. A proposta dessas redes é oferecer uma abordagem mais realista a problemas de condutividade em meios desordenados. Foram estudados o espectro multifractal e as variações que o algoritmo de criação de uma rede impõem sobre a probabilidade crítica.
8
  • PATRICIA BORCHARDT SANTOS
  • ESTIMAÇÃO EM MODELOS DE TEMPO DE FALHA ACELERADO PARA DADOS DE SOBREVIVÊNCIA CORRELACIONADOS

  • Leader : DIONE MARIA VALENCA
  • Data: 1 déc. 2009
  • Afficher le Résumé
  • Apresentamos neste trabalho dois métodos de estimação para modelos de tempo de falha acelerado com efeito aleatório para tratar de dados de sobrevivência correlacionados. O primeiro método, que está implementado no software SAS, através do procedimento NLMIXED, utiliza a quadratura Gauss-Hermite adaptada para obter a verossimilhança marginalizada. O segundo método, implementado no software livre R, está baseado no método da verossimilhança penalizada para estimar os parâmetros do modelo. No primeiro caso descrevemos os principais aspectos teóricos e, no segundo, apresentamos brevemente a abordagem adotada juntamente com um estudo de simulação para investigar a performance do método. Realizamos uma aplicação dos modelos usando dados reais sobre o tempo de funcionamento de poços petrolíferos da Bacia Potiguar (RN/CE).

2008
Thèses
1
  • JACKELYA ARAUJO DA SILVA
  • A TEORIA DA RUÍNA APLICADA EM UM MODELO DE EMPRESA FINANCEIRA COM RISCO DE CRÉDITO
  • Leader : ANDRE GUSTAVO CAMPOS PEREIRA
  • Data: 8 févr. 2008
  • Afficher le Résumé
  • Neste trabalho estudamos um novo modelo de risco para uma empresa que é sensível a classificação de risco de crédito, proposto por Yang (2003). Obtivemos equações recursivas para a probabilidade de ruína em tempo finito, distribuição do tempo de ruína, sistemas de equações integrais do tipo Voltelrra para severidade e distribuição conjunta do capital antes e depois da ruína.
2
  • ISAAC DAYAN BASTOS DA SILVA
  • Análise e Comparação entre Algoritmos de Percolação
  • Leader : JAQUES SILVEIRA LOPES
  • Data: 25 juil. 2008
  • Afficher le Résumé
  • Nesta dissertação estudamos e comparamos dois algoritmos de percolação, um elaborado por Elias e o outro por Newman e Ziff, utilizando ferramentas teóricas da complexidade de algoritmos e um algoritmo que efetuou uma comparação experimental. Dividimos este trabalho em três capítulos. O primeiro aborda algumas definições e teoremas necessários a um estudo matemático mais formal da percolação. O segundo apresenta técnicas utilizadas para o cálculo estimativo de complexidade de algoritmos, sejam elas: pior caso, melhor caso e caso médio. Utilizamos a técnica do pior caso para estimar a complexidade de ambos algoritmos e assim podermos compará-los. O último capítulo mostra diversas características de cada um dos algoritmos e através da estimativa teórica da complexidade e da comparação entre os tempos de execução da parte mais importante de cada um, conseguimos comparar esses importantes algoritmos que simulam a percolação. Palavras-Chave: Percolação. Complexidade de Algortimos. Algoritmos de percolação. Algoritmo de Ziff e Newman e Algoritmo de Elias
3
  • RAFAEL RIBEIRO DE LIMA
  • Modelos de Sobrevivência com Fração de Cura e Erro de Medida nas Covariáveis
  • Leader : DIONE MARIA VALENCA
  • Data: 11 août 2008
  • Afficher le Résumé
  • Neste trabalho estudamos o modelo de sobrevivência com fração de cura proposto por Yakovlev et al. (1993), fundamentado em uma estrutura de riscos competitivos concorrendo para causar o evento de interesse, e a abordagem proposta por Chen et al. (1999), na qual covariáveis são introduzidas no modelo para determinar o número de riscos. Estudamos o caso em que covariáveis são medidas com erro, e para a obtenção de estimadores consistentes consideramos a utilização do método do escore corrigido. Um estudo de simulação é realizado para avaliar o comportamento dos estimadores obtidos por este método em amostras finitas. A simulação visa identificar não apenas o impacto sobre os coeficientes de regressão das covariáveis medidas com erro (Mizoi et al, 2007), mas também sobre os coeficientes de covariáveis medidas sem erro. Verificamos também a adequação da distribuição exponencial por partes ao modelo com fração de cura e erro de medida. Ao final, são feitas aplicações do modelo envolvendo conjuntos de dados reais. Palavras-Chave: Análise de sobrevivência. Fração de cura. Erro de medida.
4
  • FRANCISCO MARCIO BARBOZA
  • Um Estudo da Transformada Rápida Wavelet e sua Conexão com Banco de Filtros
  • Leader : JOAQUIM ELIAS DE FREITAS
  • Data: 17 sept. 2008
  • Afficher le Résumé
  • Neste trabalho apresentamos uma exposição da teoria matemática das wavelets ortogonais de suporte compacto no contexto de análise de multiresolução. Estas wavelets são particularmente atraentes porque elas conduzem a um algoritmo estável e muito eficiente, isto é, a Transformada Rápida Wavelet (FWT). Um dos nossos objetivos é desenvolver algoritmos eficientes para o calculo dos coeficientes wavelet (FWT) através do algoritmo pirâmidal de Mallat e discutir sua conexão com Banco de filtros. Estudamos também o conceito de análise de multiresolução, que é o contexto em que wavelets podem ser entendidas e construídas naturalmente, tomando um importante passo na mudança do universo Matemático (Domínio Contínuo) para o Universo da representação (Domínio Discreto). Palavras -chave: Análise de Multiresolução. Banco de Filtros. Wavelets. Transformada Rápida Wavelet.
5
  • RAIMUNDO NONATO CASTRO DA SILVA
  • CARACTERIZAÇÃO ESTATÍSTICA DE EXTREMOS DE PROCESSOS SÍSMICOS VIA DISTRIBUIÇÃO GENERALIZADA DE PARETO
  • Leader : PAULO SERGIO LUCIO
  • Data: 5 déc. 2008
  • Afficher le Résumé
  • No presente trabalho, foi feito um ajuste para a distribuição Pareto Generalizada (GPD) para uma seqüência de sismos intraplacas, ocorridos no município de João Câmara, NE Brasil e foi monitorada continuamente durante dois anos (1987 e 1988). No presente trabalho foram usados esses dados para avaliar a ocorrência de eventos extremos nesta região. A fim de estimar os parâmetros para a GPD, sendo utilizado os seguintes métodos: Moments (moments), Maximum Likelihood (MLE), Biased Probability Weighted Moments (PWMB), Unbiased Probability Weighted Moments (PWMU), Mean Power Density Divergence (MDPD), Median (MED), Pickands (PICKANDS), Maximum Penalized Likelihood (MPLE), Maximum Goodness-of-fit (MGF) e Maximum Entropy (POME). Verificou-se que o MLE, MOMENTS e o POME foram os métodos mais eficientes, dando basicamente os mesmos erros médios quadráticos. Foi observado o risco sísmico para a região com base no limiar estimado de 1,5º, sendo também estimado o nível de retorno dos sismos para os períodos de 10, 50 e 100 anos nesta área. Palavras Chaves: Eventos Extremos. Pareto Generalizada. Maximum Entropy. Risco Sísmico.
SIGAA | Superintendência de Informática - (84) 3215-3148 | Copyright © 2006-2017 - UFRN - sigaa14-producao.info.ufrn.br.sigaa14-producao