Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFRN

2017
Dissertações
1
  • WANDERSON LAERTE DE OLIVEIRA CARVALHO
  • Estudo de Parâmetros Ótimos em Algoritmos Genéticos Elitistas

  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • Data: 09/02/2017
  • Mostrar Resumo
  • O algoritmo genético é um processo iterativo de busca, utilizado para encontrar
    o máximo global no domı́nio de funções não convencionais. Esse algoritmo se baseia
    em fundamentos naturalistas, evoluindo uma amostra de candidatos a máximo global
    a cada iteração. Essa evolução é consequência de três operadores (Seleção, Mutação
    e Cruzamento) que vasculham o domı́nio da função e ao mesmo tempo selecionam os
    melhores candidatos obtidos. Nesse estudo, apresentaremos uma cadeia de Markov
    que modela a evolução desse algoritmo, e demonstraremos algumas propriedades dessa
    cadeia que justificam a convergência do algoritmo. Realizaremos uma simulação para
    modelar o efeito da parametrização do algoritmo em sua velocidade de convergência,
    estimada pelo número de iterações até obtenção do máximo global. Nessas simulações
    observaremos esse efeito em funções: unidimensionais, bidimensionais, com um único
    máximo local (o máximo global) e com vários máximos locais. Finalmente, esse tra-
    balho apresenta resultados que questionam a relevância do operador cruzamento nas
    funções estudadas e argumentos para acreditar que o operador mutação otimiza a ve-
    locidade de convergência do algoritmo quando ocorre com probabilidade de mutação
    próxima a 0, 2).

2
  • BRUNO FRANCISCO XAVIER
  • Formalização da Lógica Linear em Coq
  • Orientador : CARLOS ALBERTO OLARTE VEGA
  • Data: 15/02/2017
  • Mostrar Resumo
  • Em teoria da prova, o teorema da eliminação do corte (ou Hauptsatz, que significa resultado principal) é de suma importância, uma vez que, em geral, implica a consistência e a propriedade subfórmula para um dado sistema. Ele assinala que qualquer prova em cálculo de sequentes que faz uso da regra do corte pode ser substituída por outra que não a utiliza. A prova procede por indução na ordem lexicográfica (peso da fórmula, altura do corte) e gera múltiplos casos quando a fórmula de corte é ou não principal. De forma geral, deve-se considerar a última regra aplicada nas duas premissas imediatamente depois de aplicar a regra do corte, o que gera um número considerável de situações. Por essa razão, a demonstração poderia ser propensa a erros na hipótese de recorremos a uma prova informal. A lógica linear (LL) é uma das lógicas subestruturais mais significativas que pode ser considerada um refinamento das lógicas clássica e intuicionista e o teorema da eliminação do corte é válido para ela. Sendo uma lógica sensível ao uso de recursos, LL tem sido amplamente utilizada na especificação e verificação de sistemas computacionais. À vista disso, se torna relevante sua abordagem neste trabalho. Nesta dissertação, formalizamos, em Coq, três cálculos de sequentes para a lógica linear e provamos que são equivalentes. Além disso, provamos metateoremas tais como admissibilidade da regra do corte, generalização das regras para axioma inicial, bang e copy e invertibilidade das regras para os conectivos par, bottom, with e quest. Com relação à invertibilidade, a demonstração foi elaborada de duas maneiras: 1) por indução sobre a altura da derivação e 2) utilizando a regra do corte. A diferença das duas provas mostra que, em um sistema que satisfaz Hauptsatz, a regra do corte simplifica bastante as provas em seu cálculo de sequentes. Finalmente, com a finalidade de atenuar o número dos diversos casos, neste trabalho desenvolvemos várias táticas em Coq que nos permitiram automatizar parte das provas.
3
  • LAURA FERNANDES DELL ORTO
  • Um estudo de Lógica Linear com Subexponenciais
  • Orientador : CARLOS ALBERTO OLARTE VEGA
  • Data: 15/02/2017
  • Mostrar Resumo
  • Em Lógica Clássica, podemos utilizar as hipóteses um número indeterminado de vezes. Por exemplo, a prova de um teorema pode fazer uso do mesmo lema várias vezes. Porém, em sistemas físicos, químicos e computacionais a situação é diferente: um recurso não pode ser reutilizado após ser consumido em uma ação. Em Lógica Linear, fórmulas são vistas como recursos a serem utilizados durante a prova. É essa noção de recursos que faz a Lógica Linear ser interessante para a modelagem de sistemas. Para tanto, a Lógica Linear controla o uso da contração e do enfraquecimento através dos exponenciais ! e ?. Este trabalho tem como objetivo fazer um estudo sobre a Lógica Linear com Subexponenciais (SELL), que é um refinamento da Lógica Linear. Em SELL, os exponenciais da Lógica Linear possuem índices, isto é, ! e ? serão substituídos por !^i e ?^i, onde “i” é um índice. Um dos pontos fundamentais de Teoria da Prova é a prova da Eliminação do Corte, que neste trabalho é demonstrada tanto para Lógica Linear como para SELL, onde apresentamos detalhes que normalmente são omitidos. A partir do teorema de Eliminação do Corte, podemos concluir a consistência do sistema (para as lógicas que estamos utilizando) e outros resultados como a propriedade de subfórmula. O trabalho inicia-se com um capítulo de Teoria da Prova, e em seguida se faz uma exposição sobre a Lógica Linear. Assim, com essas bases, apresenta-se a Lógica Linear com Subexponenciais. SELL tem sido utilizada, por exemplo, na especificação e verificação de diferentes sistemas tais como sistemas bioquímicos, sistemas de interação multimídia e, em geral, em sistemas concorrentes com modalidades temporais, espaciais e epistêmicas. Com essa base teórica bastante clara, apresenta-se a especificação de um sistema bioquímico utilizando SELL. Além disso, apresentamos várias instâncias de SELL que tem interpretações interessantes do ponto de vista computacional.
4
  • PAULO ROBERTO BELTRAO MAIA
  • Dualidades: de Birkhoff à N4-reticulados limitados

  • Orientador : ELAINE GOUVEA PIMENTEL
  • Data: 15/02/2017
  • Mostrar Resumo
  • O trabalho tem como objetivo apresentar a dualidade de Birkhoff, estendendo para dualidade de Stone e por seguinte a dualidade de Priestley, assim como os conceitos básicos para o entendimento das mesmas. Feito isso, será colocado um operador modal positivo e mostrado que a dualidade de Priestley continua valendo agora para espaços de Priestley com um certo tipo de relação. Finalmente será apresentada uma dualidade entre N4-limitados e NE-Sp, utilizando a equivalência entre N4-limitados e TWIST-limitados como atalho. Além de apresentar algumas idéias sobre bireticulados no apêndice.

5
  • DANIEL LEONARDO RAMÍREZ OROZCO
  • Um Novo Processo Autorregressivo Misto Para Séries Temporais de Valores Inteiros de Primeira Ordem com Inovações Poisson POMINAR(1).

  • Orientador : ANDRE GUSTAVO CAMPOS PEREIRA
  • Data: 21/02/2017
  • Mostrar Resumo
  •  
    As séries temporais, vistas como uma coleção de observações medidas sequencialmente ao longo do tempo, vem sendo estudadas com profunda notoriedade nos últimos anos, observando-se aplicações e novas propostas de modelos autorregressivos que ampliam o campo de estudo. Neste trabalho se propõe um novo modelo autorregressivo misto de primeira ordem com inovações Poisson, denotado POMINAR(1), misturando dois operadores conhecidos como thinning binomial e thinning Poisson. Ademais, se fornece a interpretação desses operadores e demonstram-se suas respectivas propriedades, como também um  possível caso da aplicação do POMINAR(1). A esperança marginal, variância marginal, esperança condicional e variância condicional do processo proposto são obtidas passo a passo. De forma detalhada são desenvolvidas as probabilidades de transição. Os estimadores de máxima verossimilhança condicional para os parâmetros do processo são determinados e uma aplicação a um conjunto de dados reais é dada buscando a efetividade do modelo proposto.
6
  • JORDÂNIA FURTADO DE OLIVEIRA
  • Imputação de dados em experimentos fatoriais com dois níveis

  • Orientador : CARLA ALMEIDA VIVACQUA
  • Data: 27/04/2017
  • Mostrar Resumo
  • Experimentos fatoriais completos e fracionados com dois níveis são muito usados
    em diversas áreas do conhecimento e, especialmente na indústria. Para analisar tais
    experimentos é necessário que todas as combinações planejadas de tratamentos sejam
    executadas e as respostas sejam obtidas. No entanto, na prática, muitos experimentos
    deixam de ser completados devidos a problemas de logística, tempo, ou limitações
    do orçamento. Esses experimentos são chamados de incompletos. Com o intuito de
    analisar adequadamente tais experimentos, diferentes métodos são propostos na literatura.
    Este trabalho tem o objetivo de apresentar, comparar e fazer reflexões críticas
    de métodos para estimar dados perdidos em experimentos fatoriais com dois níveis.

7
  • ALEXANDRE HENRIQUE QUADROS GRAMOSA
  • DISTRIBUIÇÃO DE VALORES EXTREMOS GENERALIZADA INFLADA DE ZEROS

  • Orientador : FIDEL ERNESTO CASTRO MORALES
  • Data: 05/05/2017
  • Mostrar Resumo
  • Eventos Extremos geralmente são responsáveis por produzirem grandes ganhos ou grandes
    perdas à sociedade. Já existe uma distribuição específica, conhecida como Distribuição de
    Valores Extremos Generalizada (GEV), desenvolvida para predizer e prevenir tais
    acontecimentos. Entretanto, em muitas situações com dados extremos, existem a presença de
    zeros excessivos no banco de dados, dificultando a análise e a precisão na estimação. A
    Distribuição Inflada de Zeros (ZID) é recomendada para fazer a modelagem desses dados que
    apresentam zeros inflacionados. É objetivo deste trabalho criar uma nova distribuição para
    modelar dados de valores extremos e inflados de zeros. Portanto, foi realizado uma mistura das
    distribuições GEV e ZID, e também feito uma abordagem Bayesiana, na busca de obter um
    melhor ajuste em aplicações com dados de máximos inflacionados de zeros. Foram escolhidas
    para análises, a precipitação diária de chuvas na cidade de Natal do estado do Rio Grande do
    Norte e nas cidades de Paulistana, Picos, São João do Piauí e Teresina do estado do Piauí. Foi
    utilizado também a distribuição GEV padrão para modelar estes mesmos dados coletados, a
    título de comparação, e assim, por meio de medidas e estimações feitas pelas duas distribuições,
    verificar a qualidade do ajuste encontrado pela nova distribuição de Valores Extremos Inflados
    de Zeros (IGEV). Logo, verificou-se que o modelo foi bem desenvolvido, conseguindo estimar
    bem os dados de máximos, mesmo uma quantidade excessiva de zeros, sendo que a GEV padrão
    não conseguiu encontrar a distribuição de equilíbrio quando os dados dados possuem muitos
    zeros. Além disso, quando os dados de valores extremos não tem zeros inflacionados, o novo
    modelo converge para a GEV padrão, identificando a ausência dos zeros
8
  • ANTONIO DJACKSON ALVES DA SILVA
  • Nova Prova de Resultados Clássicos de Percolação

  • Orientador : ROBERTO TEODORO GURGEL DE OLIVEIRA
  • Data: 21/07/2017
  • Mostrar Resumo
  • Um processo de percolação modela o fenômeno da distribuição ou transporte de fluidos em um meio poroso. A variação de um parâmetro do modelo revela a existência de, geralmente, duas fases, uma fase dita subcrítica e outra fase dita supercrítica. Essas fases possuem características globais distintas e a transição de uma dessas fases à outra se dá em um valor crítico do parâmetro do modelo. O presente trabalho tem como objetivo apresentar novas demonstrações para resultados clássicos no modelo de percolação Bernoulli de elos, a saber: o decaimento exponencial do raio de um aglomerado aberto na fase subcrítica e a cota inferior da probabilidade de percolação. Para isso, seguimos as considerações e demonstrações devidas a Hugo Duminil-Copin e Vincent Tassion no artigo intitulado “A New Proof of the Sharpness of the Phase Transition for Bernoulli Percolation and the Ising Model” publicado no Journal of Mathematical Physics em 2016.

9
  • MANOEL MESSIAS DE ARAÚJO GOMES
  • Automorfismos Fortemente Estáveis da categoria de Álgebras livres finitamente geradas da Variedade de todas as Álgebras Lineares Nilpotentes de Grau 5.

  • Orientador : ARKADY TSURKOV
  • Data: 08/08/2017
  • Mostrar Resumo
  • Este trabalho tem por objetivo o estudo dos automorfismos fortemente estáveis da categoria de todas as álgebras livres finitamente geradas na variedade de todas as Álgebras Lineares Nilpotentes de grau 5. Apresentamos uma breve explicação sobre o método de operações verbais. Nosso interesse principal é computar o grupo A/Y no caso da variedade de todas as álgebras lineares nilpotentes de grau 5. Tendo em vista que o estudo do grupo A/Y é muito importante na área de Geometria Algébrica Universal, pois esse grupo nos dá as possíveis diferenças entre equivalência geométrica e automórfica de álgebras.

10
  • WYARA VANESA MOURA E SILVA
  • Inferência Bayesiana para a distribuição conjunta das r-maiores estatísticas de ordem com ponto de mudança

  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • Data: 28/08/2017
  • Mostrar Resumo
  • A análise de valores extremos tem sido amplamente utilizada a fim de avaliar e prever catástrofes ambientais ocasionadas devido a mudanças climáticas ocorridas ao longo dos anos. Além da área ambiental, outras áreas comuns de aplicações destas análises são finanças, atuária, entre outras. Desta maneira, o presente trabalho consiste na estimação de parâmetros e níveis de retornos esperados, considerando a distribuição de valores extremos para as r-maiores estatísticas de ordem. Tais estimações serão avaliadas em séries que possuem pontos de mudança no regime, ou seja, será proposto um modelo para detecção de pontos de mudança numa série, aplicado a distribuição das r-maiores estatísticas de ordem (GEVr). Será abordado o caso em que a série possui k pontos de mudança, na qual a série possui k+1 diferentes regimes, e será modelado cada regime pela distribuição GEVr. A inferência usada no modelo é baseada numa abordagem bayesiana, em que ambos o parâmetros da GEVr para cada regime, e os pontos de mudança são considerados como parâmetros desconhecidos a serem estimados. Além de uma avaliação quanto ao critério de escolha do r ótimo para a distrubuição dos dados. A estimação é realizada pelo Método de Monte Carlo via Cadeias de Markov (MCMC) com o uso da técnica do algoritmo de Metropolis-Hastings. Inicialmente, foram realizadas apenas simulações, para avaliação de séries com um e dois pontos de mudança, em que obteve-se resultados pertinentes. Além disso, foi realizada um breve análise de níveis de retornos quanto a diferentes valores do r, e uma sumária análise descritiva dos dados reais que serão utilizados nas aplicações do modelo proposto. E por fim, a aplicação do modelo proposto para os dados de cotas do rio Parnaíba e Paraná, além de dados de retornos diários da Nasdaq.

2016
Dissertações
1
  • ISAAC JALES COSTA SOUZA
  • Estimação Bayesiana no Modelo Potência Normal Bimodal Assimétrico.

  • Orientador : FIDEL ERNESTO CASTRO MORALES
  • Data: 28/01/2016
  • Mostrar Resumo
  • Neste trabalho é apresentada uma abordagem bayesiana dos modelos potência normal bimodal (PNB) e potência normal bimodal assimétrico (PNBA). Primeiramente, apresentamos o modelo PNB e especificamos para este prioris não informativas e informativas do parâmetro
    que concentra a bimodalidade (α). Em seguida, obtemos a distribuição a posteriori pelo método MCMC, o qual testamos a viabilidade de seu uso a partir de um diagnóstico de convergência. Depois, utilizamos diferentes prioris informativas para α e fizemos a análise de sensibilidade
    com o intuito de avaliar o efeito da variação dos hiperparâmetros na distribuição a posteriori. Também foi feita uma simulação para avaliar o desempenho do estimador bayesiano utilizando prioris informativas. Constatamos que a estimativa da moda a posteriori apresentou em geral
    resultados melhores quanto ao erro quadratico médio (EQM) e viés percentual (VP) quando comparado ao estimador de máxima verossimilhança. Uma aplicação com dados bimodais reais foi realizada. Por último, introduzimos o modelo de regressão linear com resíduos PNB. Quanto ao modelo PNBA, também especificamos prioris informativas e não informativas para os parâmetros de bimodalidade e assimetria. Fizemos o diagnóstico de convergência para o método MCMC, que também foi utilizado para obter a distribuição a posteriori. Fizemos uma análise de sensibilidade, aplicamos dados reais no modelo e introduzimos o modelo de regressão linear com resíduos PNBA.
2
  • JHONNATA BEZERRA DE CARVALHO
  • Classificador Máquina de Suporte Vetorial com Análise de Fourier Aplicada em Dados de EEG e EMG
  • Orientador : ANDRE LUIS SANTOS DE PINHO
  • Data: 03/02/2016
  • Mostrar Resumo
  • O classificador Máquina de Suporte Vetorial, que vem do termo em inglês

    \textit{Support Vector Machine}, é utilizado em diversos problemas em várias áreas do

    conhecimento. Basicamente o método utilizado nesse classificador é encontrar o

    hiperplano que maximiza a distância entre os grupos, para aumentar o poder de

    generalização do classificador. Neste trabalho, são tratados alguns problemas de

    classificação binária com dados obtidos através da eletroencefalografia (EEG) e

    eletromiografia (EMG), utilizando a Máquina de Suporte Vetorial com algumas técnicas

    complementares, destacadas a seguir como: Análise de Componentes Principais para a

    identificação de regiões ativas do cérebro, o método do periodograma que é obtido

    através da Análise de Fourier, para ajudar a discriminar os grupos e a suavização por

    Médias Móveis Simples para a redução dos ruídos existentes nos dados. Foram

    desenvolvidas duas funções no $software$ \textbf{R}, para a realização das tarefas de

    treinamento e classificação. Além disso, foram propostos 2 sistemas de pesos e uma

    medida sumarizadora para auxiliar na decisão do grupo pertencente. A aplicação dessas

    técnicas, pesos e a medida sumarizadora no classificador, mostraram resultados

    bastantes satisfatórios, em que os melhores resultados encontrados foram, uma taxa

    média de acerto de 95,31\% para dados de estímulos visuais, 100\% de classificação

    correta para dados de epilepsia e taxas de acerto de 91,22\% e 96,89\% para dados de

    movimentos de objetos para dois indivíduos.
3
  • FELIPE RODRIGUES DA SILVA
  • Estimação e Previsão no Processo INARCH(2)

  • Orientador : LUZ MILENA ZEA FERNANDEZ
  • Data: 05/02/2016
  • Mostrar Resumo
  • Nas últimas décadas o estudo de séries temporais de valores inteiros tem ganhado notoriedade devido a sua ampla aplicabilidade, por exemplo, modelar o número de acidentes com automóveis em uma determinada rodovia, ou, o número de pessoas infectadas por um vírus. Um dos grandes interesses desta área de estudo está em fazer previsões, por este motivo é de grande importância propor metodologias para fazer previsões futuras, as quais devem, dada a natureza dos dados, apresentar valores inteiros não negativos.
    Neste trabalho concentramo-nos em estudar e propor previsões um, dois e h passos à frente para os processos autorregressivos de segunda ordem condicionalmente heteroscedásticos de valores inteiros, Integer-valued second-order Autoregressive Conditional Heteroskedasticity Processes [INARCH(2)], e estudar algumas propriedades teóricas deste modelo, como o r-ésimo momento marginal e a distribuição assintótica dos estimadores de mínimos quadrados condicionais referentes ao processo INARCH(2). Além disso, verificamos, através de ensaios de Monte Carlo, o comportamento dos estimadores dos parâmetros do processo INARCH(2), obtidos através de três métodos de estimação, Yule-Walker, mínimos quadrados condicionais e máxima verossimilhança condicional, em termos de erro quadrático médio, erro absoluto médio e viés. Apresentamos algumas propostas de previsão para o processo INARCH(2) e comparamos as previsões propostas via simulações de Monte Carlo. Como aplicação da teoria apresentada, modelamos dados referentes ao número de nascidos vivos do sexo masculino de mães residentes na cidade de Riachuelo no estado do Rio Grande do Norte.
4
  • LAÍS HELEN LOOSE
  • Avaliação e correções dos testes de hipóteses em modelos de sobrevivência com fração de cura 

  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • Data: 15/02/2016
  • Mostrar Resumo
  • Os modelos de sobrevivência tratam do estudo do tempo até a ocorrência de um evento de interesse. Em algumas situações, uma proporção da população pode não estar mais sujeita à ocorrência do evento. Nesse contexto surgiram os modelos com fração de cura. Dentre os modelos que incorporam uma fração de curados um dos mais conhecidos é o modelo tempo de promoção. No presente trabalho abordamos inferências em termos de testes de hipóteses no modelo tempo de promoção assumindo a distribuição Weibull para os tempos de falha dos indivíduos suscetíveis. Os testes de hipóteses nesse modelo podem ser realizados com base nas estatísticas da razão de verossimilhanças, gradiente, escore ou Wald. Os valores críticos são obtidos através de aproximações assintóticas, que podem conduzir a distorções no tamanho do teste em amostras de tamanho finito. Nesse sentido, o presente trabalho propõe correções via bootstrap para os testes mencionados e Bartlett bootstrap para a estatística da razão de verossimilhanças no modelo tempo de promoção Weibull. Por meio de simulações de Monte Carlo comparamos o desempenho em amostras finitas das correções propostas com os testes usuais. Os resultados numéricos obtidos evidenciam o bom desempenho das correções propostas. Ao final do trabalho é apresentadaumaaplicação a dados reais.

5
  • MOIZÉS DA SILVA MELO
  • Monitoramento das médias de um processo bivariado por gráficos de controle por atributos e/ou variáveis

  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • Data: 18/02/2016
  • Mostrar Resumo
  • A alta variabilidade de um processo está diretamente relacionada com a má qualidade do mesmo, portanto, reduzi-la é a maneira de melhorar o processo. Os métodos estatísticos estão incluídos ao planejamento de melhoria de processos, dentre os quais os gráficos de controle são o mais eficientes e utilizados. Esta dissertação propõe dois novos gráficos de controle para monitorar um vetor de médias de um processo bivariado. O primeiro, chamado de new npxy, emprega um gráfico por atributos. O procedimento consiste em inspecionar e classificar, através dos limites discriminantes, cada unidade da amostra como aprovada ou reprovada. Os limites discriminantes são ajustados de tal forma que tem-se uma fração especificada de unidades reprovadas quando o processo está sob controle. Em seguida o número de unidades reprovadas é plotado no gráfico, e caso seja maior que o limite de controle, o processo é parado para ajuste. O segundo gráfico utiliza os gráficos new npxy e T2. Este procedimento consiste em dividir uma amostra de tamanho $n$ em duas partes (n1 e n2), determinadas por um processo de otimização. As unidades da primeira sub-amostra são avaliadas por atributos e plotadas em um gráfico de controle new npxy. Caso seja detectada a presença de alguma causa especial, inspeciona-se a sub-amostra de tamanho n2 por variáveis por meio do gráfico T2. O procedimento é interrompido para o ajuste se a presença de alguma causa especial for detectada em ambos gráficos de controle. A possibilidade de não inspecionar todos os itens da amostra pode promover uma redução tanto no custo quanto no tempo de inspeção. A análise de desempenho foi realizada comparando o número médio de amostras até o alarme verdadeiro (NMA1). Verificou-se que os gráficos propostos apresentam desempenho satisfatório e são concorrentes com o gráfico T2. Os resultados foram obtidos com o auxílio do software estatístico R.
6
  • JOSIMARA TATIANE DA SILVA
  • Precondicionamento do método GMRES para Z-matrizes

  • Orientador : NIR COHEN
  • Data: 19/07/2016
  • Mostrar Resumo
  • Este trabalho tem por objetivo investigar o comportamento de convergência do
    método GMRES (Generalized Minimal RESidual) e sua versão GMRES(m), sem
    e com precondicionador ILU (0) aplicado à sistemas lineares não simétricos es-
    parsos. Nosso interesse principal é verificar se o comportamento destes algoritmos
    pode ser influenciado pela estrutura das matrizes consideradas, em particular, as
    Z-matrizes. Além disto, a influência da escolha do grau de esparsidade. Entre
    os parâmetros observados, concentramos no raio espectral dessas matrizes, tanto
    como a norma do resíduo relativo obtido por estes algoritmos.

7
  • TITO LÍVIO DA CUNHA LOPES
  • Novos modelos para séries temporais de valores binários e inteiros não negativos baseados em operadores thinning

  • Orientador : MARCELO BOURGUIGNON PEREIRA
  • Data: 28/11/2016
  • Mostrar Resumo
  • Modelos para séries temporais de valores inteiros têm se destacado devido a vasta possibilidade de aplicação. Modelos para controle estatístico de processos, para dados econômicos e, atualmente, para a sequência estrutural dos ácidos desoxirribonucleicos (DNA), são exemplos de importantes aplicações. Este trabalho está dividido em dois capítulos independentes. A primeira parte do trabalho diz respeito a modelagem de dados binários autocorrelacionados. Neste contexto, uma nova classe de modelos foi proposta, baseado em operadores thinning, denominada processo Bernoulli autorregressivo de ordem p[BeAr(p)] similar ao modelo clássico AR(p). Em particular, o modelo BeAr(1) foi estudado e  várias propriedades foram estabelecidas, três métodos de estimação foram propostos para o modelo, inclusive foi estabelecida a distribuição assintótica dos estimadores pelo método de mínimos quadrados condicionais e os elementos da matriz de informação de Fisher. Além das simulações, aplicações foram feitas em 
    dados reais de precipitação, ocasião em que os modelos BeAr(1) e BeAr(2) foram indicados para modelagem. Na segunda parte do trabalho, novos modelos foram estudados ao propor a família de distribuições de séries de potência generalizada com parâmetro inflador (IGPSD) para o processo de 
    inovação do modelo INAR(1). As principais propriedades do processo foram estabelecidas, tais como a média, variância, autocorrelação e probabilidade de transição. Os métodos de estimação por Yule-Walker e máxima verossimilhança condicional foram utilizados para estimar os parâmetros dos modelos. Dois casos particulares do modelo INAR$(1)$ com inovação IGPSD foram estudados, denominados de  IPoINAR(1) e IGeoINAR(1). Por fim, na aplicação a dados reais, observou-se um bom desempenho do novo modelo proposto.
2015
Dissertações
1
  • WENIA VALDEVINO FÉLIX
  • Probabilidades Assintóticas da Cauda de Somas Ponderadas
    de Variáveis Aleatórias Dependentes com Variação Dominada

  • Orientador : DEBORA BORGES FERREIRA
  • Data: 20/02/2015
  • Mostrar Resumo
  • Neste trabalho estudamos o comportamento assintótico caudal das probabilidades das somas aleatórias ponderadas de variáveis aleatórias com certa estrutura de dependência e de variação dominada, baseados no artigo de Hai-zhong Yang, com título "Asymptotic Tail Probability of Randomly Weighted Sums of Dependent Random Variables with Dominated Variation". Para tanto, apresentamos resultados essenciais sobre a classe de distribuições de cauda pesada que contem as seguintes subclasses : de cauda subexponencial, longa, variação regular, variação regular estendida e dominada, entre outras.  Nosso objetivo é proporcionar todo um embasamento teórico para esclarecer ao máximo a demonstração do Teorema de Yang. Para isto, apresentamos a demonstração de três lemas principais e de alguns resultados que são utilizados na demonstração desses lemas.

2
  • RENATO TIGRE MARTINS DA COSTA
  • Gráfico de Controle Modificado para Processos com Estruturas Complexas de
    Autocorrelação

  • Orientador : ANDRE LUIS SANTOS DE PINHO
  • Data: 29/04/2015
  • Mostrar Resumo
  • Este trabalho propõe um gráfico de controle modificado incorporando conceitos de análise
    de séries temporais. Especificamente, nós consideramos os modelos de distribuição de transição
    e mistura gaussianas (GMTD). Os modelos GMTD são uma classe mais geral do que os
    modelos da família autoregressiva (AR), no sentido de que os processos autocorrelacionados
    podem apresentar trechos planos (platôs), explosões ou outliers. Neste cenário os Gráficos de
    Shewhart tradicionais não são mais ferramentas adequadas para o acompanhamento desses
    processos. Portanto, Vasilopoulos e Stamboulis (1978) propuseram uma versão modificada
    dos gráficos, considerando limites de controle adequados com base em processos autocorrelacionados.
    A fim de avaliar a eficiência da técnica proposta uma comparação com um gráfico
    tradicional Shewhart (que ignora a estrutura de autocorrelação do processo), o gráfico de
    controle Shewhart AR(1) e um gráfico de controle Shewhart GMTD foi feita. Uma expressão
    analítica para a variância processo, assim como os limites de controle foram desenvolvidos
    para um modelo GMTD particular. Os critérios utilizados para medir a eficiência foram o
    ARL 0 e ARL 1 . A comparação foi feita com base em uma série gerada de acordo com um
    modelo GMTD. Os resultados apontam para a direção que os gráficos modificados Shewhart
    GMTD têm um melhor desempenho do que o Shewhart AR(1) e o Shewhart tradicional.

3
  • DANIEL DE SOUZA GRILO
  • Sobre a Integração Indefinida de Funções Racionais Complexas: teoria e implementação de algoritmos racionais

  • Orientador : NIR COHEN
  • Data: 12/06/2015
  • Mostrar Resumo
  • Apresentamos algoritmos de integração indefinida de funções racionais sobre subcorpos dos complexos, a partir de uma abordagem algébrica. Estudamos o algoritmo local de Bernoulli e algoritmos racionais de integração para a classe de funções em questão, a saber, os algoritmos de Hermite; Horowitz-Ostrogradsky; Rothstein-Trager e Lazard-Rioboo-Trager. Estudamos também o algoritmo de Rioboo para conversão de logaritmos envolvendo extensões complexas para funções arco-tangente reais, quando estes logaritmos surgem da integração de funções racionais com coeficientes reais. Concluímos fornecendo pseudocódigos e códigos para implementação no software Máxima relativos aos algoritmos estudados neste trabalho, e, além disso, a algoritmos para cálculo de mdc de poliômios; decomposição em frações parciais; fatoração livres de quadrados; obtenção de sequências de subresultantes, entre outros algoritmos acessórios ao trabalho. Será também apresentado no apêndice o algoritmo de Zeilberger-Almkvist para integração de funções hiperexponenciais, bem como seu pseudocódigo e código para Maxima. Como alternativa aos algoritmos de Rothstein-Trager e Lazard-Rioboo-Trager, apresentamos ainda um código para o algoritmo de Bernoulli para denominadores livres de quadrados; e outro para o algoritmo de Czichowski, ainda que este não seja estudado em detalhes no trabalho, devido às bases teóricas necessárias para o seu entendimento, as quais se encontram fora do escopo deste trabalho.

     

    Diversos exemplos são fornecidos de modo a demonstrar o o funcionamento dos algoritmos de integração deste trabalho.

4
  • FÁBIO AZEVÊDO DE SOUZA
  •  Experimentos Fatoriais Fracionados Assimetricos para Avaliação de Modelos para Previsão de Chuva no Nordeste do Brasil  

  • Orientador : CARLA ALMEIDA VIVACQUA
  • Data: 29/09/2015
  • Mostrar Resumo
  • No Estado do Rio Grande do Norte, episódios de chuvas intensas têm causado transtornos, tais como, deslizamento de barreiras, alagamentos, trânsito caótico, etc.. Assim, a ocorrência de chuvas é uma das principais preocupações dos pesquisadores e demais órgãos ligados à  pesquisa meteorológica. A previsão acurada de eventos extremos como chuvas intensas é fator essencial para que políticas públicas possam ser adotadas com o intuito de mitigar os efeitos causados pelos fenômenos meteorológicos.  Desde meados do século XX o uso de métodos quantitativos para realizar previsão de tempo através de simulacão numérica vem se destacando na meteorologia, pois com o avanço tecnológico da computação, cada vez mais torna-se possível simular fenômenos atmosféricos em alta resolução. Nesses modelos, identicar combinações e/ou congurações de parametrizações de física atmosférica é um desafio para os pesquisadores. Neste sentido, o principal objetivo deste trabalho e implementar técnicas de planejamento de experimentos para selecionar congurações de parametrizações e avaliar modelos numéricos de previsão de tempo. Este trabalho apresenta o uso de experimentos fatoriais fracionados assimetricos (EFFA) para avaliar o desempenho do modelo Weather Research and Forecasting (WRF), utilizando diversas congurações de física, para simular um evento ocorrido no segundo bimestre de 2008 no Estado do Rio Grande do Norte. Foram selecionados quatro esquemas de parametrização de cúmulus (Grell-Deveyi, NSAS, Tiedtke e Kain-Fritsch), dois de microfísica (WSM6 e Thompson), dois de camada limite planetária (YSU e MYJ) e duas congurações de topo do modelo (10mb e 50mb), para três domínios distintos (36Km, 12Km e 4Km) e realizadas 32 simulações. As análises do experimento utilizam gráficos de Lenth para auxiliar na identificação de parametrizações adequadas. Os resultados finais deste trabalho mostram-se promissores e corroboram para que a metodologia proposta de experimentos estatisticamente planejados seja considerada ferramenta de suma importância para avaliação do WRF, trazendo avancos significativos neste campo. Cabe ressaltar que o mesmo procedimento pode ser usado para outros modelos numéricos de previsão de tempo.

5
  • RUMENICK PEREIRA DA SILVA
  • Modelos Flexíveis de Sobrevivencia com Fração de Cura: Implementação Computacional

  • Orientador : DIONE MARIA VALENCA
  • Data: 23/10/2015
  • Mostrar Resumo
  • Em análise de sobrevivência a variável em estudo é o tempo até a ocorrência de um determinado evento de interesse. Este tempo é denominado de tempo de vida ou tempo até a falha. A teoria usual assume que, se observado por um longo período de tempo todos os indivíduos irão experimentar o evento em algum momento. Mas, em algumas situações uma proporção da população  pode não estar mais sujeita à ocorrência deste evento, por mais longo que seja o tempo de observação. Neste sentido, alguns modelos foram propostos e são conhecidos na literatura como modelos com fração de cura ou de longa duração. Ao considerar o aumento do interesse no ajuste desses modelos, percebe-se a importância da existência de rotinas amigáveis e capazes de obter de forma precisa as estimativas de máxima verossimilhança. Neste contexto, o objetivo principal deste trabalho foi a implementação de um pacote em linguagem R com um conjunto de rotinas amigáveis (de forma didática e de fácil utilização) para analisar dados de sobrevivência com fração de cura, a partir do uso de alguns modelos paramétricos flexíveis. Neste programa, denominado de flexcure, foram considerados os modelos de tempo de falha acelerado log-gama generalizado, log-F generalizado e Weibull na forma estendida de Marshall-Olkin, para modelar os tempos dos indivíduos susceptíveis e, para a fração de curados foram considerados os modelos usuais de mistura padrão e de tempo de promoção. O desempenho destas implementações foi avaliado através de um extensivo estudo de simulação, considerando diferentes cenários. Além disso, o uso deste pacote foi ilustrado em algumas aplicações.

6
  • MÁRCIA GABRIELE GONÇALVES DE SOUSA LIMA
  • Um estudo sobre Polinômios Matriciais

  • Orientador : EDGAR SILVA PEREIRA
  • Data: 29/10/2015
  • Mostrar Resumo
  • Esse trabalho de pesquisa tem por objetivo, fazer um estudo sobre a teoria algébrica dos polinômios matriciais mônicos, bem como das definições, conceitos e propriedades de no que diz respeito a bloco autovalores, bloco autovetores e solventes de P(X). Investigando as principais relações entre o polinômio matricial e as matrizes bloco. Companheira e bloco Vandermonde. Estudamos a construção de polinômios matriciais com determinados solventes  e a extensãon da Método da Potência , para calcular blocos autovalores da matriz Companheira e solventes de P(X). Através da relação entre o bloco autovalor dominante da matriz Companheira e o solvente dominante de P(X) é possível  obtermos a convergência do algoritmo para o solvente dominante do polinômio matricial mônico. Ilustramos com exemplos numéricos para casos distintos de convergência.

7
  • JULY HERBERT DA SILVA MARIANO
  • Modelagem Multiescala de Fenômenos Eletrocinéticos em Meios Porosos Carregados Eletricamente: Aplicação a Meios Porosos Argilosos

  • Orientador : SIDARTA ARAUJO DE LIMA
  • Data: 12/11/2015
  • Mostrar Resumo
  • Nesta dissertação de mestrado, propomos uma modelagem computacional multiescala de fenômenos eletrocinéticos em meios poroso carregados eletricamente. Consideramos um meio poroso rígido e incompressível saturado por uma solução eletrolítica contendo quatro solutos iônicos monovalentes totalmente diluídos no solvente.

    Inicialmente, desenvolvemos a modelagem da dupla camada elétrica com a intenção de computar o potencial elétrico, densidade superficial de cargas elétricas e, considerando duas reações químicas, propomos um modelo 2-pK para calcular as adsorções químicas que ocorrem no domínio da dupla camada elétrica. De posse do modelo nanoscópico, desenvolvemos um modelo na microescala, onde as adsorções eletroquímicas de íons no domínio da camada dupla, reações de protonação/deprotonação e potencial zeta obtidos na escala nanoscópica, são incorporados ao modelo na escala microscópica através das condições de interface fluido/sólido do problema de Stokes e no transporte dos íons, modelado pelas equações de Nerst-Planck. Usando a técnica de homogeneização de estrutura periódicas juntamente com a hipótese de periodicidade do meio, deduzimos um modelo na escala macroscópica com respectivos problemas de células para os parâmetros efetivos das equações macroscópicas.

    Finalmente, fazendo uso do modelo 2-pK, simulamos os fenômenos de adsorções eletroquímicas em uma caulinita saturada por uma solução aquosa na micro escala. Em seguida fazemos duas simulações macroscópicas em regimes ácidos e básico com a intensão de observar a influência dos fenômenos na escala nano/microscópica sobre a macroescala. 

8
  • EDUARDO RANGEL GOMES
  • Modelagem Matemática e Computacional do Processo de Filtração Profunda em Meios Porosos

  • Orientador : SIDARTA ARAUJO DE LIMA
  • Data: 13/11/2015
  • Mostrar Resumo
  • O trabalho de pesquisa objetiva desenvolver uma modelagem matemática e computacional do processo de filtração profunda durante o transporte de partículas em suspensão em meios porosos. Inicialmente, desenvolvemos um modelo matemático estocástico baseado em equações diferenciais parciais para modelar o processo de filtração profunda em meios porosos com a exclusão pelo tamanho como mecanismo de captura. O modelo é constituído das equações da conservação de massa de partículas em suspensão, cinética de captura de partículas e cinética de obstrução de poros. Considerando algumas hipóteses, foram obtidos modelos matemáticos reduzidos, e consequentemente foram obtidas algumas soluções analíticas para o transporte de partículas e cinética de obstrução de poros. Do ponto de vista numérico, propomos algumas formulações de métodos de volumes finitos de primeira e segunda ordem não-oscilatórios, satisfazendo uma condição CFL. Deduzimos formulações preliminares discretas dos métodos de Lax-Friedrichs (LxF) e Nessyahu e Tadmor (NT) baseados no algoritmo REA, com o intuito de introduzir as ideias iniciais do método de volumes finitos de Kurganov e Tadmor (KT). Realizamos a discretização do método KT para equações diferenciais hiperbólicas homogênea e não-homogênea com o objetivo de simularmos o processo de filtração profunda. Para a resolução da equação do transporte de partículas utilizamos o método KT e para a cinética de obstrução de poros fizemos uso da família de métodos de Runge-Kutta. Simulações numéricas foram realizadas utilizando as formulações discretas obtidas via métodos de volumes finitos e o método de Runge-Kutta, com o intuito de analisar a acurácia e eficiência da metodologia numérica apresentada. Finalmente, utilizamos a metodologia numérica proposta com o objetivo de obtermos soluções numéricas do processo de filtração profunda, e consequentemente comparar os resultados numéricos com as soluções analíticas obtidas para os modelos matemáticos reduzidos, possibilitando avaliar a acurácia das formulações discretas. Por fim, propomos soluções numéricas do processo de filtração profunda para avaliarmos como ocorre o transporte de partículas em suspensão em meios porosos. Para isso, foram utilizados diferentes tamanhos de partículas e poros.

2014
Dissertações
1
  • ANNA RAFAELLA DA SILVA MARINHO
  • Modelo de Risco com Dependência entre os Valores
    das Indenizações e seus Intervalos entre Ocorrências

  • Orientador : DEBORA BORGES FERREIRA
  • Data: 30/01/2014
  • Mostrar Resumo
  • Neste trabalho apresentamos um modelo de risco dependente para descrever o excedente de uma carteira de seguros, com base no artigo ”A ruin model with dependence between claim sizes and claim intervals”(Albrecher e Boxma [1]). Obtemos uma expressão exata para a probabilidade de sobrevivência através da Transformada de Laplace da função de sobrevivência do superávit. Ilustramos os resultados obtidos através de exemplos numéricos e investigamos o que acontece ao se ignorar a estrutura de dependência presente no modelo. Estudamos também a probabilidade de sobrevivência para indenizações que possuem distribução do Tipo Fase, considerando que esta é uma classe de distribuições, computacionalmente tratáveis, bem mais geral.

2
  • ANDRESSA NUNES SIROKY
  • Inferência no Modelo Potência Normal Bimodal Assimétrico

  • Orientador : BERNARDO BORBA DE ANDRADE
  • Data: 31/01/2014
  • Mostrar Resumo
  • Neste trabalho foram estudadas questões em aberto relativas ao modelo recém
    proposto por Bolfarine e outros (2013), o modelo potência normal bimodal
    assimétrico (PNBA). Após uma revisão das propriedades básicas do referido
    modelo, nos ocupamos das seguintes questões: desenvolver um algoritmo para
    geracão de amostras aleatórias, comparar os métodos de máxima verossimilhanca
    e de momentos em pequenas amostras e propor um método de reamostragem
    (bootstrap) para comparacão de duas populacões PNBA. Identificamos a
    existência de dificuldades numéricas referentes a estimacão por MV em virtude
    de pouca curvatura da verossimilhança para determinados pontos no espaco
    paramétrico e partir daí foram propostas soluções numéricas de simples
    implementação.

3
  • ANTONIO MARCOS BATISTA DO NASCIMENTO
  • Ergodicidade em Cadeias de Markov Não-Homogêneas e Cadeias de Markov com Transições Raras
     

  • Orientador : SIDARTA ARAUJO DE LIMA
  • Data: 14/02/2014
  • Mostrar Resumo
  • O objetivo central de estudo em Cadeias de Markov Não-Homogêneas são os

    conceitos de ergodicidade fraca e forte. Uma cadeia é ergódica fraca se a

    dependência da distribuição inicial desaparece com o tempo, e é ergódica forte se é

    ergódica fraca e converge em distribuição. A maioria dos resultados teóricos sobre a

    ergodicidade forte supõem algum conhecimento do comportamento limite

    das distribuições estacionárias. Neste trabalho, reunimos alguns resultados gerais

    sobre ergodicidade fraca e forte para cadeias com espaço de estados enumerável, e

    também estudamos o comportamento assintótico das distribuições estacionárias de um

    tipo particular de Cadeias de Markov com espaço de estados finito, chamadas Cadeias

    de Markov com Probabilidades Raras.

4
  • JOCELÂNIO WESLEY DE OLIVEIRA
  • Gráficos CUSUM Ajustados ao Risco para Monitoramento de Tempos de Sobrevivência com Fração de Cura
  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • Data: 14/02/2014
  • Mostrar Resumo
  • Neste trabalho estudamos o uso de técnicas de Controle Estatístico de Processos (CEP) para monitoramento de tempos de sobrevivência. Diferentemente de aplicações na área industrial, em que a população em estudo é considerada homogênea, o CEP na área de saúde admite a heterogeneidade e deseja levar em consideração características particulares de pacientes que, antes de se submeterem a um procedimento médico, podem apresentar diferentes riscos de morte. Nessa perspectiva, alguns autores propõem o uso de um gráfico de controle CUSUM ajustado ao risco (RAST CUSUM) para monitorar resultados clínicos em que a resposta e o tempo até a ocorrência de um evento e está sujeita a censura à direita. No entanto, os modelos adotados não consideram a possibilidade de fração de cura. Neste estudo propomos estender esta abordagem considerando um modelo de sobrevivência com fração de cura. Para tanto, admitimos as distribuições log-logística e Weibull como exemplos. Finalmente, realizamos um estudo de simulação com a distribuição Weibull para obter limites de controle ótimos e avaliar o desempenho do gráfico que propomos em comparação com o RAST CUSUM sem fração de cura. Como resultado, notamos que o gráfico RAST CUSUM sem fração de cura se mostra inadequado ao ser aplicado em dados com fração de cura, mas o gráfico RAST CUSUM com fração de cura parece ter desempenho similar se aplicado em dados sem fração de cura.
5
  • ALEX WAGNER PEREIRA
  • CONSEQUÊNCIAS DA ANÁLISE INADEQUADA DE UM EXPERIMENTO FATORIAL 2k EM PARCELAS SUBDIVIDIDAS E SEM REPLICAÇÃO
  • Orientador : CARLA ALMEIDA VIVACQUA
  • Data: 13/03/2014
  • Mostrar Resumo
  • Em experimentos com vários fatores em que alguns são mais difíceis de mudar que outros, pode ser inconveniente executar as provas do experimento em uma forma completamente aleatória, levando o pesquisador a criar naturalmente uma restrição na ordem de execução para poupar tempo ou reduzir os custos. Este tipo de restrição pode resultar em uma generalização do planejamento fatorial, conhecida como experimentos em parcelas subdivididas. Na prática, é comum executar um experimento em parcelas subdivididas e analisá-lo como se fosse completamente aleatorizado. O objetivo principal do trabalho é avaliar o impacto de analisar um experimento com restrição na aleatorização como completamente aleatorizado.
6
  • ELVIS NERIS DE MEDEIROS
  • NI-GMRES Precondicionado

  • Orientador : JULIA VICTORIA TOLEDO BENAVIDES
  • Data: 22/04/2014
  • Mostrar Resumo
  • Neste trabalho estudamos o problema não linear F(X) = 0, onde F é continuamente diferenciável com F : Rn-> Rn. Para solucioná-lo empregamos o método de Newton Inexato obtendo um sistema linearizado J(xk)sk =-F(xk), onde J(xk) representa a matriz Jacobiana
    no ponto xk e o passo iterativo sk é calculado por meio do método do Resíduo Mínimo
    Generalizado (GMRES), que pertence à família dos métodos de projeção em subespaços de Krylov. Afim de evitar de evitar o acréscimo no custo computacional devido ao aumento

    a cada iteração na dimensão do subespaço de Krylov utilizamos o GMRES com recomeços ou GMRES(m), o qual pode apresentar problemas de estagnação (duas soluções consecutivas iguais ou quase iguais). Uma das maneiras de contornar essa estagnação

    está no uso de precondicionadores no sistema inicial Ax = b, passando a um sistema equivalente do tipo M-1Ax = M-1b onde a matriz M é chamada de precondicionador e tem o papel de facilitar a solução do sistema inicial. A escolha de precondicionadores é uma área de pesquisa que remete ao conhecimento específico a priori do problema a ser resolvido e/ou da estrutura da matriz dos coeficientes A. Neste trabalho buscamos estudar o precondicionamento pela esquerda no método do Newton Inexato - GMRES(m). Apresentamos também uma estratégia que permite a mudança entre 3 tipos de precondicionadores (Jacobi, ILU e SSOR) dependendo de informações advindas da aplicação do GMRES(m) a cada iteração do Newton Inexato, ou seja, a cada vez que se resolve o sistema linearizado precondicionado. Assim fazemos ao final uma comparação entre nossas estratégias e o uso de precondicionadores fixos na resolução de problemas teste por meio do NI-GMRES.

7
  • ALLYSON FERNANDES LIANDRO
  • A Distribuição F Generalizada para Selecionar Modelos de Sobrevivência com Fração de Cura

  • Orientador : DIONE MARIA VALENCA
  • Data: 03/06/2014
  • Mostrar Resumo
  • A analise de sobrevivência paramétrica estuda o tempo até a ocorrência de um evento com base no ajuste de modelos probabilísticos fazendo uso frequente de modelos flexíveis para a escolha de um modelo mais simples e fácil de interpretar. Nesse sentido, a distribuição F generalizada tem a vantagem de incluir várias  distribuições importantes como casos especiais, com Weibull, Log-normal, log-logstica entre outras. Modelos de sobrevivência que tratam de estudos em que um percentual dos indivduos não apresentam a ocorrência do evento de interesse, mesmo acompanhados por um longo período de tempo, são chamados de modelos de longa duração ou modelos de fração de cura e vem sendo estudados nos últimos anos por diversos autores. Neste contexto, este trabalho tem como objetivo o estudo de características teóricas e computacionais associadas ao ajuste do modelo F generalizado com fração de cura.

8
  • PAULO DE SOUSA SOBRINHO
  • Algoritmos genéticos canônico e elitista: Uma abordagem comparativa

  • Orientador : ANDRE GUSTAVO CAMPOS PEREIRA
  • Data: 02/07/2014
  • Mostrar Resumo
  • Este trabalho tem como objetivo apresentar as diferenças entre os algoritmos genético canônico e elitista. Para isso explicamos detatalhadamente cada etapa dos algoritmos, sua modelagem via cadeias de Markov e suas convergências. Utilizamos a versão elitista apresentada no artigo  MULTISTAGE MARKOV CHAIN MODELING OF THE GENETIC ALGORITHM AND CONVERGENCE RESULTS a fim de desenvolver simulações numéricas comparativas.

9
  • BRUNO DE LIMA BARBOSA
  • O USO DE MODELOS DE MARKOV OCULTOS NO ESTUDO DO FLUXO DE ÁGUA EM RIOS INTERMITENTES

  • Orientador : BERNARDO BORBA DE ANDRADE
  • Data: 04/09/2014
  • Mostrar Resumo

  • Neste trabalho, apresentamos nosso entendimento acerca do artigo de Aksoy (2003), executando uma aplicação do modelo por ele apresentado, com o intuito de gerar dados de fluxos intermitentes, a partir de bancos de dados brasileiros. Em seguida, construímos um modelo oculto de Markov como uma nova proposta de abordagem para o problema. Nele utilizamos distribuições gama para simular os aumentos e decréscimos dos fluxos dos rios.

2013
Dissertações
1
  • RAFAELA HORACINA SILVA ROCHA SOARES
  • Modelo de Risco controlado por resseguros e desigualdades para a probabilidade de ruína

  • Orientador : DEBORA BORGES FERREIRA
  • Data: 28/02/2013
  • Mostrar Resumo
  • Neste trabalho apresentamos resultados teóricos e numéricos referentes a um Modelo
    de Risco com Taxa de Juros e Resseguro Proporcional baseados no artigo Inequalities
    for the ruin probability in a controlled discrete-time risk process de Rosario Romera e
    Maikol Diasparra. Equações recursivas e integrais para a Probabilidade de
    Runa são obtidas bem como cotas superiores para a mesma por diferentes abordagens, a
    saber, pela clássica desigualdade de Lundberg, pela abordagem Indutiva e pela abordagem
    Martingale. Técnicas de estimação de densidade (não-parametricas) são utilizadas para a
    obtenção das cotas para a Probabilidade de Ruína e os algoritmos utilizados na simulação
    são apresentados.

2
  • JOSEMIR RAMOS DE ALMEIDA
  • Estimação Clássica e Bayesiana em Modelos de Sobrevida com Fração de Cura

  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • Data: 22/03/2013
  • Mostrar Resumo
  • Na An ́ lise de Sobrevivˆ ncia, os modelos de longa duracao permitindo uma generalizacao dos modelos basicos no sentido de modelar a parcela da populacao em estudo que é imune ao evento de interesse. Neste trabalho ilustramos e comparamos as estimacoes Bayesiana e frequentista com base nos modelos de mistura padr ̃ o exponencial e de tempo de promocao aplicados a uma base de dados descrita em Kersey et al. (1987), que consiste em dois grupos de pacientes com leucemia submetidos a dois tipos de transplantes. Os procedimentos comparados foram o m ́ todo de Laplace, m ́ todo de m ́ xima verossimilhanca e amostrador de Gibbs.

3
  • ELISANGELA RODRIGUES DE ALMEIDA
  • Analise de Resíduos em Modelos de Tempo de Falha Acelerado com Efeito Aleatorio

  • Orientador : DIONE MARIA VALENCA
  • Data: 15/04/2013
  • Mostrar Resumo
  • Apresentamos tecnicas de analise de resduos para avaliar o ajuste de dados de sobrevivênencia correlacionados por meio de Modelos de Tempo de Falha Acelerado (MTFA) com efeito aleatorio. Propomos um procedimento de imputação para as informações censuradas e consideramos três tipos de resíduos para avaliar diferentes caractersticas do modelo. Ilustramos as propostas com a analise do ajuste de um MTFA com efeito
    aleatorio a um conjunto de dados reais envolvendo tempos entre falhas de equipamentos de pocos de petroleo.

4
  • MARIA JUCIMEIRE DOS SANTOS
  • Uma estratégia aleatória chamada de Moses.

  • Orientador : JUAN ALBERTO ROJAS CRUZ
  • Data: 24/04/2013
  • Mostrar Resumo
  • Neste trabalho é estudado um algoritmo evolutivo chamado de MOSE,o qual foi introduzido por François em 1996.Resultados assintóticos deste algoritmo,comportamento das distribuiçoes estacionárias,foram derivados por François,em 1998,da teoria de Freidlin e Wentzell,detalhamentos destes resultados estão neste trabalho.Por outro lado,notamos que uma abordagem alternativa da convergência do algoritmo é possível sem fazer uso dos resultados de Freidlin e Wentzell,obtendo-se a visita quase certa do algoritmo ás populaçoes que contém o mínimo global.Também algumas simulaçoes no Matlab são apresentadas.

     

5
  • ALDEMIR CIRILO DA SILVA
  • Modelagem Matemática e Computacional de Fenômenos Eletrocinéticos

    em Meios Porosos Carregados Eletricamente

  • Orientador : SIDARTA ARAUJO DE LIMA
  • Data: 05/08/2013
  • Mostrar Resumo
  • Neste trabalho derivamos uma modelagem matemática e computacional multiescala para o movimento de fluidos e transporte dos solutos utilizando a técnica de homogeneização de estruturas periódicas. Na escala nanoscópica modelamos os fenômenos eletroquímicos fazendo uso da teoria da camada dupla de Gouy-Chapmann. Na escala do poro, assumimos as partículas sólidas carregadas eletricamente, consideradas rígidas e incompressíveis, com a matriz
    porosa saturada por uma solução aquosa salina. Reações eletroquímicas de ionização, hidrólise e eletrólise dão origem a solutos dissociados na fase aquosa. Para a modelagem do movimento da solução aquosa e transporte dos  íons,  postulamos a equação de Stokes que governa a eletro-hidrodinâmica do fluido e equações de Nernst-Planck do contínuo para  o movimento dos solutos iônicos juntamento com condições de interface para o deslizamento dos ions na camada dupla e adsorção eletro-química das espécies na interface fluido/sólido. O sistema de equações microscópico/nanoscópico é derivado na escala macroscópica fazendo uso da técnica de perturbação assintótica denominada homogeneização de estruturas periódicas. Simulação computacionais são propostas com o objetivo de quantificar fenômenos eletrocinéticos em meios porosos argilosos.

6
  • MARCIO LEMOS DO NASCIMENTO
  • Unicidade e Discretização para problemas de valor inicial

  • Orientador : NIR COHEN
  • Data: 13/08/2013
  • Mostrar Resumo
  • O presente trabalho tem dois objetivos: (i) a realização de uma pesquisa bibliogr
    a ca sobre os criterios de unicidade de solução para problemas de valor inicial
    de equações diferenciais ordinarias. (ii) Introduzir uma modi cação do metodo de
    Euler que parece ser capaz de convergir a uma das soluções do problema, caso a
    solução não seja única.

7
  • IVANILDO FREIRE PEREIRA
  • Parâmetro de regularização em problemas inversos: Estudo numérico com a Transformada de Radón

  • Orientador : ROBERTO HUGO BIELSCHOWSKY
  • Data: 20/09/2013
  • Mostrar Resumo
  • Problemas inversos, usualmente recaem em resolver alguma equação do tipo f(x) = b, onde cada equação fi(x) = bi  pode ser   pensada como uma medida de um dado x a ser recuperado. Usualmente são mal postos, no sentido de corresponderem a equações que podem não ter solução exata, podem ainda ter  muitas soluções,  ou ainda, o que é o mais comum, ter soluções muito instáveis a ruídos na obtenção de b. Há várias formas de “regularizar” a obtenção de soluções de tais problemas e a mais “popular” seria a de Tykhonov, que corresponde a:

     

                                   Minimizar  ||f(x) – b||2 + l ||L(x – x0) ||2       (I)

     

    A regularização pretendida corresponde a se escolher o operador l, de tal forma que o problema I tenha soluções estáveis com perturbações em b e que aproximem soluções do problema de mínimos quadrados usual, no caso de se fazer l  0.   O primeiro termo de (I) representa o ajuste aos dados e o segundo termo penaliza a solução de forma a regularizar o problema e produzir uma solução estável a ruídos.  Se l = 0, isto significa que estamos procurando  uma solução de quadrados mínimos para o problema, o  que usualmente é insuficiente para problemas mal postos. O termo de regularização adicionado  introduz um viés na solução ao penalizar o ajuste com um termo adicional.   Se L for a identidade, por exemplo, isto significa que estamos apostando que a solução estaria relativamente próxima de x0. Se L for o operador gradiente, estamos apostando que a solução x é razoavelmente suave.  Nas aplicações, L usualmente é escolhido como um operador adaptado ao problema estudado e de forma se valer de  informações a priori disponíveis sobre as soluções  procuradas.

     

    A escolha do parâmetro l > 0 é crucial neste métodos, pelo fato que se l é excessivo, isto tende a  enfraquecer  excessivamente o ajuste  aos dados, induzindo um  ajuste da solução  à   x0.  Se l for pequeno demais a regularização pretendida acaba não acontecendo e a solução do problema (I)  usualmente acaba ficando muito instável e contaminada por ruídos. Há várias técnicas disponíveis na literatura para tal escolha, sobretudo se f  é uma função linear f(x) = Ax. O objetivo da dissertação é o de estudar algumas destas técnicas de ajuste do parâmetro l no caso de operadores discretizados,  vale dizer, x no  Rn.  Em especial, destacamos os métodos de ajuste do parâmetro l   reconhecidos na literatura como L-curve, GCV e método da discrepância, e objetiva-se   comparar estes métodos em testes feitos com a transformada de Radon e tendo como regularizador um operador de derivada de primeira ordem.  Os resultados dos testes realizados revelam  pontos interessantes na relação entre os diferentes estimadores para o parãmetro de regularização e que sugerem  um aprofundamento teórico além do escopo desta dissertação.

2012
Dissertações
1
  • MARIANA BARBOSA DA SILVA
  • Estimadores do Tipo Núcleo para variáveis iid com Espaço de Estados Geral.

  • Orientador : DEBORA BORGES FERREIRA
  • Data: 31/05/2012
  • Mostrar Resumo
  • Neste trabalho estudamos as propriedades assintóticas dos Estimadores do Tipo Núcleo associados a variáveis aleatórias iid com espaço de estados geral.Verificamos que esses estimadores são assitoticamente não viciados, consistentes em média quadrática, fortemente consistentes e assintoticamente normal distribuidos. Finalizamos com um exemplo, onde ilustramos via simulação a importância do tamanho da janela.

2
  • ELVIS DOS SANTOS SAMPAIO
  • GRÁFICO MISTO DE CONTROLE DA MÉDIA COM AMOSTRAGEM EM DOIS ESTÁGIOS

  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • Data: 20/07/2012
  • Mostrar Resumo
  • Esta dissertação propõe um novo gráfico (ou procedimento) de controle para monitorar a centralidade
    de um processo (média) por meio da junção dos gráficos X-barra e npx. Basicamente o
    procedimento consiste em dividir o tamanho n da amostra em duas partes (n1 e n2), definidas
    pelo processo de otimização. Realiza-se a inpeção por atributos na sub-amostra de tamanho n1
    por meio do gráfico npx. Caso seja detectada a presença de alguma causa especial inspeciona-se
    a parte relativa a inspeção por variáveis na sub-amostra de tamanho n2 por meio do gráfico X-barra. A
    possibilidade de não inspecionar todos os itens da amostra pode promover uma redução tanto no
    custo quanto no tempo gasto para inspecionar os itens da amostra. Descreve-se a metodologia de
    construção, avaliação e o funcionamento do gráfico aqui proposto, e com o auxílio do software
    estatístico R© é feito um estudo comparativo entre os gráficos individuais X-barra e npx e o gráfico
    misto. Neste estudo verificou-se que o procedimento proposto fornece várias opções concorrentes
    com o gráfico X-barra para um dado tamanho de amostra n e um desvio na média delta. Os valores do
    tempo esperado até o sinal (TES) inferiores aos provenientes do gráfico individual X evidenciaram
    que o gráfico misto é uma ferramenta eficaz no monitoramento de processos capaz de substituir
    com certa vantagem o procedimento usual em que é aplicado o gráfico das médias.

3
  • THIAGO JEFFERSON DE ARAUJO
  • Métodos numéricos para resolução de equações diferenciais ordinárias lineares baseados em interpolação por splines

  • Orientador : NIR COHEN
  • Data: 13/08/2012
  • Mostrar Resumo
  • Neste trabalho desenlvolvemos um método de resolução de problemas de valor inicial com equações diferenciais ordinárias baseado em splines, com ênfase em equações lineares. O método serve como alternativa para os métodos tradicionais como Runge-Kutta e no caso linear com coeficientes constantes, evita o cálculo de raízes de polinômios. O método foi aplicado para um problema central da teoria de controle, o problema de resposta a degrau para uma EDO linear, incluindo o caso de coeficientes não-constantes, onde a alternativa pelo cálculo de raízes não existe. Implementamos um algoritmo eficiente que usa apenas operações tipo matriz-vetor. O intervalo de trabalho (até o tempo de acomodação) para as equações estáveis com coeficientes constantes é determinado pelo cálculo da raiz menos estável do sistema, a partir de uma adaptação do método da potência. Através de simulações, comparamos algumas variantes do método. Em problemas lineares gerais com malha suficientemente fina, o novo método mostra melhores resultados em comparação com o método de Euler. No caso de coeficientes constantes, onde existe a alternativa baseada em cálculo das raízes, temos indicações que o novo método pode ficar competitivo para equações de grau bastante alto.
4
  • HERICA PRISCILA DE ARAUJO CARNEIRO
  • TESTES DE HIPÓTESES EM MODELOS DE SOBREVIVÊNCIA COM FRAÇÃO DE CURA

  • Orientador : DIONE MARIA VALENCA
  • Data: 14/08/2012
  • Mostrar Resumo
  • Modelos de sobrevivência tratam do estudo do tempo até e a ocorrência de um evento. Contudo em algumas situações, uma proporção da população pode não estar mais sujeita a ocorrência deste evento. Modelos que tratam desta abordagem são chamados de modelos de fração de cura. Existem poucos estudos na literatura sobre testes de hipóteses aplicadas a modelos de fração de cura. Recentemente foi proposta uma nova estatística de teste, denominada estatística gradiente que possui distribuição assintótica equivalente a das estatísticas usuais. Alguns estudos de simulação veem sendo desenvolvidos no sentido de explorar características dessa nova estatística e comparar com as estatísticas clássicas, aplicadas a diferentes modelos. Este trabalho tem como principal objetivo estudar e comparar o desempenho do teste gradiente e do teste da razão de verossimilhanças, em modelos de fração de cura. Para isso descrevemos características do modelo e apresentamos os principais resultados assintóticos dos testes. Consideramos um estudo de simulação com base no modelo de tempo de promoção com distribuição Weibull, para avaliar a desempenho dos testes em amostras finitas. Uma aplicação e realizada para ilustrar os conceitos estudados.

     

5
  • CATIA REGINA DOS SANTOS SILVA
  • Recuperação de sinais esparsos

     

  • Orientador : ROBERTO HUGO BIELSCHOWSKY
  • Data: 27/11/2012
  • Mostrar Resumo
  • Um dos temas mais populares em recuperação de dados nos últimos dez anos gira em torno da descoberta que  a recuperação de sinais esparsos em sistemas lineares, pode ser feita com um número de equações bem menor que o número de variáveis.  Em linhas gerais, se A = Amxn ,   queremos  resolver Ax = b    e procuramos soluções com  s << n entradas não-nulas em algum sistema de coordenadas, isto pode ser feito com um número de equações m << n,  minimizando  a norma 1 de x , sujeito à restrição Ax = b, desde que estejam atendidas condições de “quase ortogonalidade”  nas colunas das submatrizes  de A formadas por s colunas  (RIP – Restricted Isometry property  +  s << n) ( Vide [1]).

    O objetivo desta dissertação é situar o problema, discutir e trabalhar uma técnica de visualização do sucesso na  recuperação de imagens em função de s, m e n, apontada em [2],  bem como usá-la para comparar  a recuperação obtida em casos onde a hipótese  RIP é satisfeita para a matriz A, com o que acontece com a transofrmada de Radon, onde  a hipótese RIP não é verificada, mas no qual, ainda assim, se obtém resultados promissores  na recuperação de sinais esparsos.

    [1] – Emmanuel J. Candès e Michael B. Waking - “People hearing without listening:  An Introduction to compressive sensing” -  IEEE Signal Processing Magazine (2008)  Volume: 25, Issue: 2, Publisher: Citeseer, Pages: 21-30.

    Cópia PDF disponível em http://www-stat.stanford.edu/~candes/papers/spm-robustcs-v05.pdf

    [2] – Jeffrey D Blanchard, Coralia Cartis  e Jared Tanner  -  Compressed Sensing: How Sharp Is the Restricted Isometry Property? - SIAM Rev. 53 (2011), pp. 105-125 (21 pages)

    Cópia PDF disponível em   http://arxiv.org/pdf/1004.5026v1.pdf

2011
Dissertações
1
  • ALYSSON LIVIO VASCONCELOS GUEDES
  • Modelo de Tempo de Falha Acelerado com Fração de Cura: Uma abordagem unificada

  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • Data: 19/10/2011
  • Mostrar Resumo
  • Neste trabalho apresentamos um estudo sobre o modelo de tempo de falha acelerado com fração de cura sob uma abordagem unificada. O modelo se propõe a estimar simultaneamente o efeito de covariáveis na aceleração/desaceleração do tempo até a ocorrência de um evento e na fração de cura. O método é implementado no software estatístico R. Por fim o modelo é aplicado a dados reais referente ao tempo até o retorno da doença em pacientes diagnosticados com câncer de mama.

2
  • FRANCINARIO OLIVEIRA DE ARAUJO
  • Método de Projeções Ortogonais

  • Orientador : ROBERTO HUGO BIELSCHOWSKY
  • Data: 15/12/2011
  • Mostrar Resumo
  • O problema abordado nesta dissertação é a prova da propriedade de limitação para os iterados de um algoritmo iterativo em Rd,  que aplica em cada passo uma projeção ortogonal sobre uma reta em Rd, indexada em uma família de retas dada e permitindo  ordem arbitrária na aplicação das várias projeções. Este problema foi abordado em um artigo de Bàràny  et al. em 1994, que encontrou uma condição necessária e suficiente para o caso d = 2 e analisou  também o caso d > 2 sob algumas condições técnicas. Porém, este artigo usa argumentos intuitivos não triviais e nas suas demonstrações nos parece faltar  rigor. Nesta dissertação detalhamos e  completamos  as demonstrações do artigo de Barány, fortalecendo e clareando algumas de suas  proposições, bem como propiciando pontos de vista complementares  em alguns aspectos do artigo em tela.

3
  • FELIPE HENRIQUE ALVES MAGALHAES
  • Testes em Modelos Weibull na Forma Estendida de Marshall-Olkin

  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • Data: 28/12/2011
  • Mostrar Resumo
  • Em análise de sobrevivência, a variável resposta é, geralmente, o tempo até a ocorrênciade um evento de interesse, chamado de falha e a principal característica de dados de sobrevivência é a presença de censura, que é a observação parcial da resposta. Associadas a essas informações, alguns modelos ocupam uma posição de destaque por sua comprovada adequação a várias situações práticas, entre os quais é possível citar o modelo Weibull. Distribuições na forma estendida de Marshall-Olkin oferecem uma ampliação do comportamento em relação às distribuições básicas de origem, e podem se mostrar mais adequadas para o ajuste de dados de tempo de vida. Este trabalho propõe uma comparação entre duas estatísticas de teste, Razão de Verossimilhança e Gradiente, utilizando a distribuição Weibull em sua forma extendida de Marshall-Olkin. Um exemplo numérico ilustra o procedimento.

2010
Dissertações
1
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • ESTIMAÇÃO PARAMÉTRICA E NÃO-PARAMÉTRICA EM MODELOS DE MARKOV OCULTOS

  • Orientador : JAQUES SILVEIRA LOPES
  • Data: 10/02/2010
  • Mostrar Resumo
  • Neste trabalho, estudamos os modelos de Markov ocultos tanto em espaço de estados finito quanto em espaço de estados geral. No caso finito, estudamos os algoritmos para frente e para trás para determinar a probabilidade da seqüência observada e em seguida, estimamos os parâmetros do modelo via algoritmo EM. No caso geral, estudamos os estimadores do tipo núcleo e utilizamos na construção da convergência na norma  de funções limitadas da cadeia de Markov. Vimos também que, quando o processo de Markov satisfaz a condição f-mixing e admite uma distribuição estacionária  temos,

     

                   q.c.

     

    onde  é o estimador do tipo núcleo em  com a função  e a seqüência  apropriadamente escolhidas e  é a densidade da variável aleatória  do processo observado de um dado modelo de Markov oculto.

2
  • MARIA APARECIDA DA SILVA SOARES
  • ESTIMADOR DO TIPO NÚCLEO PARA DENSIDADES LIMITES DE CADEIAS DE MARKOV COM ESPAÇO DE ESTADOS GERAL

  • Orientador : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 25/02/2010
  • Mostrar Resumo
  • A teoria de estimação de densidades tem por objetivo construir um estimador para uma função densidade de probabilidade desconhecida de uma população, a partir de uma amostra dessa população.

    Estimadores do tipo núcleo associados a cadeias de Markov estritamente

    estacionárias foram considerados por Roussas (1969,1991),Rosemblat (1970) e Athreya e Atuncar (1998) com o objetivo de estimarem densidades em Rd.

    Neste trabalho estudamos a consistência de uma classe de estimadores do tipo núcleo associados a cadeias de Markov com espaço de estados geral.Na primeira parte, assumimos que a cadeia era estritamente estacionária e satisfazia uma condição do tipo mixing. Na segunda parte, sem a condição de estacionariedade foi assumido que a cadeia era geometricamente ergódica.

3
  • CARLOS ALEXANDRE GOMES DA SILVA
  • UMA APLICAÇÃO DA TEORIA DA RUÍNA EM UM MODELO DE MARKOV DE DOIS ESTADOS

  • Orientador : ANDRE GUSTAVO CAMPOS PEREIRA
  • Data: 19/03/2010
  • Mostrar Resumo
  • Neste trabalho, apresentamos uma aplicação da teoria do risco com o seguinte cenário:  As mudanças no capital de uma seguradora acontecem em cada instante de tempo e o pagamento de uma indenização ou recebimento de um prêmio é decidido pelo resultado de uma cadeia de Markov de dois estados. Nesta situação calculamos a probabilidade de ruína e o tempo esperado de ruína quando o valor da indenização é um mútiplo do valor do prêmio.

4
  • SEBASTIAO GOMES DE ANDRADE NETO
  • ESTIMATIVA DE EXPOENTES CRÍTICOS EM PERCOLAÇÃO

  • Orientador : MARCELO GOMES PEREIRA
  • Data: 31/03/2010
  • Mostrar Resumo
  • Na Teoria de Percolação, funções como a probabilidade de um sítio pertencer ao aglomerado percolante, tamanho médio dos aglomerados, etc. são descritas por meio de leis de potência e expoentes críticos. Esta dissertação faz uso do método chamado Escalonamento de Tamanho Finito para fornecer uma estimativa desses expoentes.

    A dissertação está dividida em quatro partes. A primeira apresenta de forma rápida os principais resultados da Teoria da Percolação por sítios para dimensão . Além disso, são definidas algumas quantidades importantes para a determinação dos expoentes críticos e o para o entendimento sobre as transições de fase. A segunda parte apresenta uma introdução sobre o conceito de fractal, dimensão e classificação. Concluída a base do nosso estudo, na terceira parte é mencionada a Teoria de Escala, a qual relaciona os expoentes críticos e as quantidades descritas no Capítulo 2. Na última parte, através do escalonamento de tamanho finito, determinamos os expoentes críticos  e . A partir desses, usamos as relações de escala as relações descritas no Capítulo anterior para determinar os expoentes críticos restantes.

5
  • JOSE CECILIO ROSA NETO
  • Modelagem dos Algoritmos Genético Simples e Simulated Annealing por cadeias de Markov

  • Orientador : JAQUES SILVEIRA LOPES
  • Data: 16/04/2010
  • Mostrar Resumo
  • Os Algoritmos Genético (AG) e o Simulated Anniling (SA) são algoritmos construídos para encontrar máximo ou mínimo de uma função que representa alguma característica do processo que está sendo modelado, esses algoritmos possuem mecanismos que os fazem escapar de ótimos locais. Entretanto a evolução desses algoritmos no tempo se dá de forma completamente diferente. O SA no seu processo de busca trabalha com apenas um ponto, gerando a partir deste sempre um nova solução que é testada e que pode ser aceita ou não, já o AG trabalha com um conjunto de pontos chamado população, das quais geram outras populações que sempre são aceitas. Em comum com esses dois algoritmos temos que a forma como o próximo ponto ou a próxima população é gerada obedece propriedades estocásticas. Nesse trabalho mostramos que a teoria matemática que descreve a evolução destes algoritmos é a teoria das cadeias de Markov, o AG é descrito por uma cadeia de Markov homogênea enquanto que o SA é descrito por uma cadeia de Markov não-homogênea, por fim serão feitos alguns exemplos computacionais comparando o desempenho desses dois algoritmos.

6
  • MANASSES PEREIRA NOBREGA
  • ESTUDO COMPARATIVO DE GRÁFICOS DE PROBABILIDADE NORMAL PARA ANÁLISE DE EXPERIMENTOS FATORIAIS NÃO REPLICADOS

  • Orientador : ILONEIDE CARLOS DE OLIVEIRA RAMOS
  • Data: 17/05/2010
  • Mostrar Resumo
  • Os experimentos fatoriais são muito utilizados, especialmente na indústria. Na prática, muitos experimentos são custosos para conduzir, e realizar replicações independentes dos tratamentos pode ser economicamente inviável. Sendo assim, são utilizados os experimentos fatoriais 2k não replicados. Mas, sem replicação não é possível obter uma estimativa direta da variabilidade do erro para se avaliar a significância dos efeitos. Uma das possíveis soluções para este problema é utilizar o gráfico normal ou o gráfico semi-normal dos efeitos.

    Embora Daniel (1959) tenha desenvolvido e usado o gráfico semi-normal em suas análises, afirrmando que o estudo da distribuição acumulada empírica dos contrastes usuais calculados deve ser útil na análise e interpretação de experimentos 2k, sua posição mudou. Em 1976, Daniel publica seu livro Applications of Statistics to Industrial Experimentation, no qual veio preferir o gráfico normal, citando sua grande habilidade para revelar discrepâncias nas suposições. Contribuindo para essa questão, ainda há uma afirmação (não confirmada) de que Daniel tenha invertido de posição, favorecendo o gráfico semi-normal novamente.

    Enfim, aos cinquenta anos de publicação do artigo de Daniel sobre o gráfico semi-normal, este trabalho busca verificar as seguintes questões: O gráfico semi-normal  é melhor que o gráfico normal? Em que situações? Que informações o gráfico semi-normal acrescenta à análise do experimento que possam complementar aquelas fornecidas pelo gráfico normal? Quais as restrições no uso do gráfico semi-normal?

7
  • ENAI TAVEIRA DA CUNHA
  • ESTIMADORES DO TIPO NÚCLEO PARA A DENSIDADE DE TRANSIÇÃO DE UMA CADEIA DE MARKOV COM ESPAÇO DE ESTADOS GERAL

  • Orientador : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 21/05/2010
  • Mostrar Resumo
  • No presente trabalho, estudamos a consistência forte de uma classe de estimadores do tipo núcleo para a densidade de transição de uma cadeia de Markov com espaço de estados geral .

    A consistência forte do estimador da densidade de transição, foi obtida a partir da consistência forte dos estimadores do tipo núcleo para a densidade marginal da cadeia, , e da consistência forte dos estimadores do tipo núcleo para a densidade conjunta, . Foi considerado que a cadeia é homogênea e uniformemente ergódica com densidade inicial estacionária .

8
  • JOAO BATISTA CARVALHO
  • PREDIÇÃO EM MODELOS DE TEMPO DE FALHA ACELERADO COM EFEITO ALEATÓRIO PARA AVALIAÇÃO DE RISCOS DE FALHA EM POÇOS PETROLÍFEROS

  • Orientador : DIONE MARIA VALENCA
  • Data: 28/05/2010
  • Mostrar Resumo
  • Consideramos técnicas de predição baseadas em modelos de tempo de falha acelerado com efeito aleatório para dados de sobrevivência correlacionados. Além do enfoque bayesiano através do Estimador de Bayes Empírico, também discutimos sobre o uso de um método clássico, o Melhor Preditor Linear Não Viciado Empírico (EBLUP), nessa classe de modelos. Para ilustrar a utilidade desses métodos, fazemos aplicações a um conjunto de dados reais envolvendo tempos entre falhas de equipamentos de poços de petróleo da Bacia Potiguar. Neste contexto, o objetivo é predizer os riscos/probabilidades de falha com a finalidade de subsidiar programas de manutenção preventiva. Os resultados obtidos mostram que ambos os métodos são adequados para prever falhas futuras, proporcionando boas decisões em relação ao emprego e economia de recursos para manutenção preventiva.

9
  • DANIEL MATOS DE CARVALHO
  • DOWSCALING ESTOCÁSTICO PARA EXTREMOS CLIMÁTICOS VIA INTERPOLAÇÃO ESPACIAL

  • Orientador : PAULO SERGIO LUCIO
  • Data: 08/06/2010
  • Mostrar Resumo
  • Os dados de reanálise de temperatura do ar e precipitação do NCEP – National Centers for Environmental Predictions serão refinados para a produção dos níveis de retorno para eventos extremos nas 8 capitais do Nordeste Brasileiro - NB: São Luis, Teresina, Fortaleza, Natal, João Pessoa, Recife, Maceió, Aracaju e Salvador. A grade do Ncep possui resolução espacial de 2.5° x 2.5° disponibilizando séries históricas de 1948 a atualidade. Com esta resolução a grade envolve o NB utilizando 72 localizações (séries).  A primeira etapa consiste em ajustar os modelos da Distribuição Generalizada de Valores Extremos (GEV) e da Distribuição Generalizada de Pareto (GPD) para cada ponto da grade. Utilizando o método Geoestatístico denominado Krigagem, os parâmetros da GEV e GPD serão interpolados espacialmente. Considerando a interpolação espacial dos parâmetros, os níveis de retorno para extremos de temperatura do ar e precipitação poderão ser obtidos aonde o NCEP não fornece informação relevante. Visando validar os resultados desta proposta, serão ajustados os modelos GEV e GPD as séries observacionais diárias de temperatura e precipitação de cada capital nordestina, e assim comparar com os resultados obtidos a partir da interpolação espacial. Por fim o método de Regressão Quantílica será utilizado como método mais tradicional com a finalidade de comparação de métodos.

10
  • LENILSON PEREIRA DA SILVA
  • AJUSTE PREVENTIVO VERSUS AJUSTE CORRETIVO NO CONTROLE ON-LINE DE PROCESSO DO NÚMERO DE NÃO-CONFORMIDADES NUM ITEM INSPECIONADO

  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • Data: 15/06/2010
  • Mostrar Resumo
  • Numa linha de produção, todo processo está sujeito a ocorrências de causas que venham a aparecer causando perdas na qualidade do produto e consequentemente prejuízos ao fabricante. Identificar essas causas e removê-las é tarefa do responsável pelo monitoramento do processo.

    Este trabalho tem como objetivo principal fazer o monitoramento num processo através do controle on-line de qualidade por atributos, considerando o número de não-conformidades no item inspecionado. A estratégia de decisão para verificar se o processo está sob controle, está diretamente associado aos limites de controle do gráfico de não-conformidades do processo. Uma política de ajustes preventivos é incorporada com o objetivo de aumentar a fração conforme do processo. Com o auxílio do software R, é feita uma análise de sensibilidade do modelo proposto mostrando em que situações é mais interessante fazer o ajuste preventivo.

11
  • MARCONIO SILVA DOS SANTOS
  • NÃO VÍCIO ASSINTÓTICO, CONSISTÊNCIA FORTE E UNIFORMEMENTE FORTE DE ESTIMADORES DO TIPO NÚCLEO PARA DADOS DIRECIONAIS SOBRE UMA ESFERA UNITÁRIA K-DIMENSIONAL

  • Orientador : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 28/06/2010
  • Mostrar Resumo
  • Nesse trabalho estudamos o não-vício assintótico, a consistência forte e a consistência uniformemente forte de um estimador do tipo núcleo, que como a maioria dos estimadores é construído com base em n observações i.i.d. X1,..., Xn de X, para a densidade f(x) de um vetor aleatório X que assume valores em uma esfera unitária k-dimensional.

2009
Dissertações
1
  • RENATA MENDONCA RODRIGUES VASCONCELOS
  • CONTROLE ON-LINE DE PROCESSOS POR ATRIBUTOS: UMA ABORDAGEM ECONÔMICA PARA O NÚMERO DE NÃO-CONFORMIDADES EM UM ITEM INSPECIONADO
  • Orientador : PLEDSON GUEDES DE MEDEIROS
  • Data: 02/03/2009
  • Mostrar Resumo
  • O procedimento usual de controle on-line de processo por atributos consiste em inspecionar um item a cada m produzidos. Se o item examinado for conforme a produção continua; caso contrário pára-se o processo. No entanto, em muitas situações práticas, nem sempre existe interesse em classificar o item como defeituoso ou não defeituoso, mas sim monitorar o número de não-conformidades no item inspecionado. Neste caso, se o número de não conformidades for superior a um limite de controle, pára-se o processo para o ajuste. A contribuição deste trabalho está em propor um sistema de controle baseado no número de não-conformidades do item inspecionado. Através das propriedades de uma cadeia de Markov ergódica, obteve-se uma expressão analítica do custo médio do (item produzido) sistema de controle que pode ser minimizada por dois parâmetros: o intervalo entre inspeções e o limite superior de controle do gráfico do número de não-conformidades no item inspecionado. Palavras-chave: Controle on-line de processo para atributos; número de não-conformidades na amostra; cadeia de Markov; modelo econômico.
2
  • RENATA SANTANA FONSECA
  • Métodos de Máxima Verossimilhança para Modelos de Sobrevivência com Fração de Cura e Omissão nas Covariáveis
  • Orientador : DIONE MARIA VALENCA
  • Data: 06/03/2009
  • Mostrar Resumo
  • Neste trabalho estudamos o modelo de sobrevivência com fração de cura proposto por Yakovlev (1993) que possui uma estrutura de riscos competitivos. Covariáveis são introduzidas para modelar o número médio de riscos e consideramos que algumas destas covariáveis podem não ser observadas para todos os indivíduos, o que resulta em algumas lacunas na matriz de dados. Consideramos apenas os casos em que as covariáveis omissas são categóricas e obtemos estimativas dos parâmetros através do algoritmo EM ponderado. Não há na literatura estudo de simulação para este modelo quando as covariáveis apresentam omissão. Apresentamos uma série de simulações para confrontar as estimativas obtidas através deste método com as obtidas quando se exclui do banco de dados as observações que apresentam omissão, conhecida como análise de casos completos (ACC). Avaliamos também através de simulações o impacto na estimativa dos parâmetros quando aumentamos o percentual de imunes e de censura entre indivíduos não imunes. Um conjunto de dados reais referentes ao tempo até a conclusão do curso de estatística na Universidade Federal do Rio Grande do Norte é utilizado para ilustrar o método. Palavras-chave: Análise de sobrevivência; fração de cura; omissão; algoritmo EM.
3
  • ALLAN ROBERT DA SILVA
  • EXPERIMENTOS COM RESTRIÇÕES NA ALEATORIZAÇÃO ENVOLVENDO MISTURAS
  • Orientador : CARLA ALMEIDA VIVACQUA
  • Data: 29/04/2009
  • Mostrar Resumo
  • Durante a fase de planejamento de um experimento, um dos grandes desafios é lidar com a limitação de recursos. Assim, planos completamente aleatorizados nem sempre representam uma alternativa viável de realizar um experimento. Naturalmente, planos experimentais com restrições na aleatorização, como os da classe split-plot e strip-plot tornam-se práticos e úteis. Neste trabalho, aborda-se restrição na aleatorização no contexto de experimentos com misturas, cuja motivação inicial foi um plano experimental inovador proposto para uma aplicação em telhas cerâmicas do RN. A partir desse fato, uma revisão bibliográfica foi realizada, no qual foi encontrado um artigo que usou um plano experimental com características semelhantes. Neste artigo, os autores investigam a eficiência de métodos de estimação de parâmetros de um modelo para um plano experimental com restrições na aleatorização. Surgiu então a idéia de verificar a eficácia de métodos de estimação de um modelo para um novo plano experimental com características que se assemelham ao plano discutido no artigo, mas com uma estrutura de erro semelhante ao plano inovador proposto. Diferentemente do que ocorreu no artigo, os métodos de estimação não foram tão eficientes como se imaginava. Esse resultado foi obtido a partir de simulações realizadas no software estatístico R. Ao final, discussões sobre os resultados obtidos e sugestões para novas investigações são dadas.
4
  • ANTONIO HERMES MARQUES DA SILVA JUNIOR
  • Testes Escore Corrigidos para Modelos Lineares Generalizados no Ambiente R
  • Orientador : DAMIAO NOBREGA DA SILVA
  • Data: 28/05/2009
  • Mostrar Resumo
  • Correções de Bartlett são procedimentos estatísticos que podem ser usados para melhorar o desempenho de estatísticas cujas distribuições são aproximadas pela qui-quadrado. Uma aplicação destas correções se dá no aperfeiçoamento do teste escore em modelos lineares generalizados. Entretanto, a forma da correção resultante utiliza operações com matrizes que são formadas por expressões envolvendo derivadas de primeira e segunda ordem da média e da função de variância do modelo, com respeito ao preditor linear. Em razão das dificuldades para se obter tais expressões, ou até mesmo para modificá-las quando se altera os componentes aleatórios ou o sistemático do modelo, é que tais correções não têm ainda sido incorporadas nas muitas aplicações do teste Escore. Esta dissertação propõe um programa computacional desenvolvido no software estatístico R para implementar testes escore corrigidos em um dado modelo linear generalizado. Detalhes técnicos e a utilização do programa são discutidos com base na análise de uma série de conjuntos de dados reais encontrados na literatura. Também, são apresentados os resultados de dois experimentos de simulação, em que as vantagens dos testes corrigidos e a versatilidade do programa são avaliadas.
5
  • JOAO SATURNINO DA SILVA NETO
  • APLICAÇÃO DAS TÉCNICAS PATH-RELINKING E VOCABULARY BUILDING NA MELHORIA DE PERFORMANCE DO ALGORITMO MEMÉTICO PARA O PROBLEMA DO CAIXEIRO VIAJANTE ASSIMÉTRICO
  • Orientador : DARIO JOSE ALOISE
  • Data: 10/07/2009
  • Mostrar Resumo
  • O presente trabalho tem como propósito melhorar o procedimento estado-da-arte para a resolução do Problema do Caixeiro Viajante Assimétrico. Tal procedimento consiste em um algorítmo memético projetado especificamente para essa variante do Problema do Caixeiro Viajante. O algorítmo será implementado e acrescido de módulos que incorporam as técnicas de otimização conhecidas como Path Relinking e Vocabulary Building, sendo essa última técnica utilizada de dois modos distintos. A técnica de Vocabulary Building foi idealizada por Fred Glover no início da década de 90 e ainda é considerada pouco explorada na literatura.
6
  • HELENICE LOPES BARBOSA
  • MÉTODOS ESTATÍSTICOS EM CADEIAS DE MARKOV
  • Orientador : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 17/08/2009
  • Mostrar Resumo
  • Este trabalho tem como objetivo o estudo do comportamento assintótico da estatística de Pearson, que é o aparato teórico do conhecido teste qui-quadrado ou teste como também é usualmente denotado. Inicialmente estudamos o comportamento da distribuição da estatística qui-quadrado de Pearson (1900) numa amostra quando e o , . Em seguida detalhamos os argumentos usados em Billingley, no artigo STATISTICAL METHODS IN MARKOV CHAINS, os quais demonstram a convergência em distribuição de uma estatística, semelhante a Pearson, baseada em uma amostra de uma cadeia de Markov, estacionária, ergódica e com espaço de estados finito.
7
  • KALINE ANDREZA DE FRANCA CORREIA ANDRADE
  • PERCOLAÇÃO EM UMA REDE MULTIFRACTAL
  • Orientador : MARCELO GOMES PEREIRA
  • Data: 28/08/2009
  • Mostrar Resumo
  • Neste trabalho é feita uma análise de um tipo de rede, com características multifractais, que serve de suporte para o modelo de percolação. A proposta dessas redes é oferecer uma abordagem mais realista a problemas de condutividade em meios desordenados. Foram estudados o espectro multifractal e as variações que o algoritmo de criação de uma rede impõem sobre a probabilidade crítica.
8
  • PATRICIA BORCHARDT SANTOS
  • ESTIMAÇÃO EM MODELOS DE TEMPO DE FALHA ACELERADO PARA DADOS DE SOBREVIVÊNCIA CORRELACIONADOS

  • Orientador : DIONE MARIA VALENCA
  • Data: 01/12/2009
  • Mostrar Resumo
  • Apresentamos neste trabalho dois métodos de estimação para modelos de tempo de falha acelerado com efeito aleatório para tratar de dados de sobrevivência correlacionados. O primeiro método, que está implementado no software SAS, através do procedimento NLMIXED, utiliza a quadratura Gauss-Hermite adaptada para obter a verossimilhança marginalizada. O segundo método, implementado no software livre R, está baseado no método da verossimilhança penalizada para estimar os parâmetros do modelo. No primeiro caso descrevemos os principais aspectos teóricos e, no segundo, apresentamos brevemente a abordagem adotada juntamente com um estudo de simulação para investigar a performance do método. Realizamos uma aplicação dos modelos usando dados reais sobre o tempo de funcionamento de poços petrolíferos da Bacia Potiguar (RN/CE).

2008
Dissertações
1
  • JACKELYA ARAUJO DA SILVA
  • A TEORIA DA RUÍNA APLICADA EM UM MODELO DE EMPRESA FINANCEIRA COM RISCO DE CRÉDITO
  • Orientador : ANDRE GUSTAVO CAMPOS PEREIRA
  • Data: 08/02/2008
  • Mostrar Resumo
  • Neste trabalho estudamos um novo modelo de risco para uma empresa que é sensível a classificação de risco de crédito, proposto por Yang (2003). Obtivemos equações recursivas para a probabilidade de ruína em tempo finito, distribuição do tempo de ruína, sistemas de equações integrais do tipo Voltelrra para severidade e distribuição conjunta do capital antes e depois da ruína.
2
  • ISAAC DAYAN BASTOS DA SILVA
  • Análise e Comparação entre Algoritmos de Percolação
  • Orientador : JAQUES SILVEIRA LOPES
  • Data: 25/07/2008
  • Mostrar Resumo
  • Nesta dissertação estudamos e comparamos dois algoritmos de percolação, um elaborado por Elias e o outro por Newman e Ziff, utilizando ferramentas teóricas da complexidade de algoritmos e um algoritmo que efetuou uma comparação experimental. Dividimos este trabalho em três capítulos. O primeiro aborda algumas definições e teoremas necessários a um estudo matemático mais formal da percolação. O segundo apresenta técnicas utilizadas para o cálculo estimativo de complexidade de algoritmos, sejam elas: pior caso, melhor caso e caso médio. Utilizamos a técnica do pior caso para estimar a complexidade de ambos algoritmos e assim podermos compará-los. O último capítulo mostra diversas características de cada um dos algoritmos e através da estimativa teórica da complexidade e da comparação entre os tempos de execução da parte mais importante de cada um, conseguimos comparar esses importantes algoritmos que simulam a percolação. Palavras-Chave: Percolação. Complexidade de Algortimos. Algoritmos de percolação. Algoritmo de Ziff e Newman e Algoritmo de Elias
3
  • RAFAEL RIBEIRO DE LIMA
  • Modelos de Sobrevivência com Fração de Cura e Erro de Medida nas Covariáveis
  • Orientador : DIONE MARIA VALENCA
  • Data: 11/08/2008
  • Mostrar Resumo
  • Neste trabalho estudamos o modelo de sobrevivência com fração de cura proposto por Yakovlev et al. (1993), fundamentado em uma estrutura de riscos competitivos concorrendo para causar o evento de interesse, e a abordagem proposta por Chen et al. (1999), na qual covariáveis são introduzidas no modelo para determinar o número de riscos. Estudamos o caso em que covariáveis são medidas com erro, e para a obtenção de estimadores consistentes consideramos a utilização do método do escore corrigido. Um estudo de simulação é realizado para avaliar o comportamento dos estimadores obtidos por este método em amostras finitas. A simulação visa identificar não apenas o impacto sobre os coeficientes de regressão das covariáveis medidas com erro (Mizoi et al, 2007), mas também sobre os coeficientes de covariáveis medidas sem erro. Verificamos também a adequação da distribuição exponencial por partes ao modelo com fração de cura e erro de medida. Ao final, são feitas aplicações do modelo envolvendo conjuntos de dados reais. Palavras-Chave: Análise de sobrevivência. Fração de cura. Erro de medida.
4
  • FRANCISCO MARCIO BARBOZA
  • Um Estudo da Transformada Rápida Wavelet e sua Conexão com Banco de Filtros
  • Orientador : JOAQUIM ELIAS DE FREITAS
  • Data: 17/09/2008
  • Mostrar Resumo
  • Neste trabalho apresentamos uma exposição da teoria matemática das wavelets ortogonais de suporte compacto no contexto de análise de multiresolução. Estas wavelets são particularmente atraentes porque elas conduzem a um algoritmo estável e muito eficiente, isto é, a Transformada Rápida Wavelet (FWT). Um dos nossos objetivos é desenvolver algoritmos eficientes para o calculo dos coeficientes wavelet (FWT) através do algoritmo pirâmidal de Mallat e discutir sua conexão com Banco de filtros. Estudamos também o conceito de análise de multiresolução, que é o contexto em que wavelets podem ser entendidas e construídas naturalmente, tomando um importante passo na mudança do universo Matemático (Domínio Contínuo) para o Universo da representação (Domínio Discreto). Palavras -chave: Análise de Multiresolução. Banco de Filtros. Wavelets. Transformada Rápida Wavelet.
5
  • RAIMUNDO NONATO CASTRO DA SILVA
  • CARACTERIZAÇÃO ESTATÍSTICA DE EXTREMOS DE PROCESSOS SÍSMICOS VIA DISTRIBUIÇÃO GENERALIZADA DE PARETO
  • Orientador : PAULO SERGIO LUCIO
  • Data: 05/12/2008
  • Mostrar Resumo
  • No presente trabalho, foi feito um ajuste para a distribuição Pareto Generalizada (GPD) para uma seqüência de sismos intraplacas, ocorridos no município de João Câmara, NE Brasil e foi monitorada continuamente durante dois anos (1987 e 1988). No presente trabalho foram usados esses dados para avaliar a ocorrência de eventos extremos nesta região. A fim de estimar os parâmetros para a GPD, sendo utilizado os seguintes métodos: Moments (moments), Maximum Likelihood (MLE), Biased Probability Weighted Moments (PWMB), Unbiased Probability Weighted Moments (PWMU), Mean Power Density Divergence (MDPD), Median (MED), Pickands (PICKANDS), Maximum Penalized Likelihood (MPLE), Maximum Goodness-of-fit (MGF) e Maximum Entropy (POME). Verificou-se que o MLE, MOMENTS e o POME foram os métodos mais eficientes, dando basicamente os mesmos erros médios quadráticos. Foi observado o risco sísmico para a região com base no limiar estimado de 1,5º, sendo também estimado o nível de retorno dos sismos para os períodos de 10, 50 e 100 anos nesta área. Palavras Chaves: Eventos Extremos. Pareto Generalizada. Maximum Entropy. Risco Sísmico.
SIGAA | Superintendência de Informática - (84) 3215-3148 | Copyright © 2006-2017 - UFRN - sigaa03-producao.info.ufrn.br.sigaa03-producao